@@ -1539,7 +1539,7 @@ enum RVV_CSR {
1539
1539
};
1540
1540
1541
1541
static __inline__ __attribute__((__always_inline__, __nodebug__))
1542
- unsigned long vread_csr (enum RVV_CSR __csr) {
1542
+ unsigned long __riscv_vread_csr (enum RVV_CSR __csr) {
1543
1543
unsigned long __rv = 0;
1544
1544
switch (__csr) {
1545
1545
case RVV_VSTART:
@@ -1559,7 +1559,7 @@ unsigned long vread_csr(enum RVV_CSR __csr) {
1559
1559
}
1560
1560
1561
1561
static __inline__ __attribute__((__always_inline__, __nodebug__))
1562
- void vwrite_csr (enum RVV_CSR __csr, unsigned long __value) {
1562
+ void __riscv_vwrite_csr (enum RVV_CSR __csr, unsigned long __value) {
1563
1563
switch (__csr) {
1564
1564
case RVV_VSTART:
1565
1565
__asm__ __volatile__ ("csrw\tvstart, %z0" : : "rJ"(__value) : "memory");
@@ -1580,7 +1580,7 @@ def vread_vwrite_csr: RVVHeader;
1580
1580
1581
1581
let HeaderCode =
1582
1582
[{
1583
- #define vlenb () __builtin_rvv_vlenb()
1583
+ #define __riscv_vlenb () __builtin_rvv_vlenb()
1584
1584
}] in
1585
1585
def vlenb_macro: RVVHeader;
1586
1586
@@ -1611,62 +1611,62 @@ let HasBuiltinAlias = false, HasVL = false, HasMasked = false,
1611
1611
// and LMUL.
1612
1612
let HeaderCode =
1613
1613
[{
1614
- #define vsetvl_e8mf4 (avl) __builtin_rvv_vsetvli((size_t)(avl), 0, 6)
1615
- #define vsetvl_e8mf2 (avl) __builtin_rvv_vsetvli((size_t)(avl), 0, 7)
1616
- #define vsetvl_e8m1 (avl) __builtin_rvv_vsetvli((size_t)(avl), 0, 0)
1617
- #define vsetvl_e8m2 (avl) __builtin_rvv_vsetvli((size_t)(avl), 0, 1)
1618
- #define vsetvl_e8m4 (avl) __builtin_rvv_vsetvli((size_t)(avl), 0, 2)
1619
- #define vsetvl_e8m8 (avl) __builtin_rvv_vsetvli((size_t)(avl), 0, 3)
1620
-
1621
- #define vsetvl_e16mf2 (avl) __builtin_rvv_vsetvli((size_t)(avl), 1, 7)
1622
- #define vsetvl_e16m1 (avl) __builtin_rvv_vsetvli((size_t)(avl), 1, 0)
1623
- #define vsetvl_e16m2 (avl) __builtin_rvv_vsetvli((size_t)(avl), 1, 1)
1624
- #define vsetvl_e16m4 (avl) __builtin_rvv_vsetvli((size_t)(avl), 1, 2)
1625
- #define vsetvl_e16m8 (avl) __builtin_rvv_vsetvli((size_t)(avl), 1, 3)
1626
-
1627
- #define vsetvl_e32m1 (avl) __builtin_rvv_vsetvli((size_t)(avl), 2, 0)
1628
- #define vsetvl_e32m2 (avl) __builtin_rvv_vsetvli((size_t)(avl), 2, 1)
1629
- #define vsetvl_e32m4 (avl) __builtin_rvv_vsetvli((size_t)(avl), 2, 2)
1630
- #define vsetvl_e32m8 (avl) __builtin_rvv_vsetvli((size_t)(avl), 2, 3)
1614
+ #define __riscv_vsetvl_e8mf4 (avl) __builtin_rvv_vsetvli((size_t)(avl), 0, 6)
1615
+ #define __riscv_vsetvl_e8mf2 (avl) __builtin_rvv_vsetvli((size_t)(avl), 0, 7)
1616
+ #define __riscv_vsetvl_e8m1 (avl) __builtin_rvv_vsetvli((size_t)(avl), 0, 0)
1617
+ #define __riscv_vsetvl_e8m2 (avl) __builtin_rvv_vsetvli((size_t)(avl), 0, 1)
1618
+ #define __riscv_vsetvl_e8m4 (avl) __builtin_rvv_vsetvli((size_t)(avl), 0, 2)
1619
+ #define __riscv_vsetvl_e8m8 (avl) __builtin_rvv_vsetvli((size_t)(avl), 0, 3)
1620
+
1621
+ #define __riscv_vsetvl_e16mf2 (avl) __builtin_rvv_vsetvli((size_t)(avl), 1, 7)
1622
+ #define __riscv_vsetvl_e16m1 (avl) __builtin_rvv_vsetvli((size_t)(avl), 1, 0)
1623
+ #define __riscv_vsetvl_e16m2 (avl) __builtin_rvv_vsetvli((size_t)(avl), 1, 1)
1624
+ #define __riscv_vsetvl_e16m4 (avl) __builtin_rvv_vsetvli((size_t)(avl), 1, 2)
1625
+ #define __riscv_vsetvl_e16m8 (avl) __builtin_rvv_vsetvli((size_t)(avl), 1, 3)
1626
+
1627
+ #define __riscv_vsetvl_e32m1 (avl) __builtin_rvv_vsetvli((size_t)(avl), 2, 0)
1628
+ #define __riscv_vsetvl_e32m2 (avl) __builtin_rvv_vsetvli((size_t)(avl), 2, 1)
1629
+ #define __riscv_vsetvl_e32m4 (avl) __builtin_rvv_vsetvli((size_t)(avl), 2, 2)
1630
+ #define __riscv_vsetvl_e32m8 (avl) __builtin_rvv_vsetvli((size_t)(avl), 2, 3)
1631
1631
1632
1632
#if __riscv_v_elen >= 64
1633
- #define vsetvl_e8mf8 (avl) __builtin_rvv_vsetvli((size_t)(avl), 0, 5)
1634
- #define vsetvl_e16mf4 (avl) __builtin_rvv_vsetvli((size_t)(avl), 1, 6)
1635
- #define vsetvl_e32mf2 (avl) __builtin_rvv_vsetvli((size_t)(avl), 2, 7)
1636
-
1637
- #define vsetvl_e64m1 (avl) __builtin_rvv_vsetvli((size_t)(avl), 3, 0)
1638
- #define vsetvl_e64m2 (avl) __builtin_rvv_vsetvli((size_t)(avl), 3, 1)
1639
- #define vsetvl_e64m4 (avl) __builtin_rvv_vsetvli((size_t)(avl), 3, 2)
1640
- #define vsetvl_e64m8 (avl) __builtin_rvv_vsetvli((size_t)(avl), 3, 3)
1633
+ #define __riscv_vsetvl_e8mf8 (avl) __builtin_rvv_vsetvli((size_t)(avl), 0, 5)
1634
+ #define __riscv_vsetvl_e16mf4 (avl) __builtin_rvv_vsetvli((size_t)(avl), 1, 6)
1635
+ #define __riscv_vsetvl_e32mf2 (avl) __builtin_rvv_vsetvli((size_t)(avl), 2, 7)
1636
+
1637
+ #define __riscv_vsetvl_e64m1 (avl) __builtin_rvv_vsetvli((size_t)(avl), 3, 0)
1638
+ #define __riscv_vsetvl_e64m2 (avl) __builtin_rvv_vsetvli((size_t)(avl), 3, 1)
1639
+ #define __riscv_vsetvl_e64m4 (avl) __builtin_rvv_vsetvli((size_t)(avl), 3, 2)
1640
+ #define __riscv_vsetvl_e64m8 (avl) __builtin_rvv_vsetvli((size_t)(avl), 3, 3)
1641
1641
#endif
1642
1642
1643
- #define vsetvlmax_e8mf4 () __builtin_rvv_vsetvlimax(0, 6)
1644
- #define vsetvlmax_e8mf2 () __builtin_rvv_vsetvlimax(0, 7)
1645
- #define vsetvlmax_e8m1 () __builtin_rvv_vsetvlimax(0, 0)
1646
- #define vsetvlmax_e8m2 () __builtin_rvv_vsetvlimax(0, 1)
1647
- #define vsetvlmax_e8m4 () __builtin_rvv_vsetvlimax(0, 2)
1648
- #define vsetvlmax_e8m8 () __builtin_rvv_vsetvlimax(0, 3)
1643
+ #define __riscv_vsetvlmax_e8mf4 () __builtin_rvv_vsetvlimax(0, 6)
1644
+ #define __riscv_vsetvlmax_e8mf2 () __builtin_rvv_vsetvlimax(0, 7)
1645
+ #define __riscv_vsetvlmax_e8m1 () __builtin_rvv_vsetvlimax(0, 0)
1646
+ #define __riscv_vsetvlmax_e8m2 () __builtin_rvv_vsetvlimax(0, 1)
1647
+ #define __riscv_vsetvlmax_e8m4 () __builtin_rvv_vsetvlimax(0, 2)
1648
+ #define __riscv_vsetvlmax_e8m8 () __builtin_rvv_vsetvlimax(0, 3)
1649
1649
1650
- #define vsetvlmax_e16mf2 () __builtin_rvv_vsetvlimax(1, 7)
1651
- #define vsetvlmax_e16m1 () __builtin_rvv_vsetvlimax(1, 0)
1652
- #define vsetvlmax_e16m2 () __builtin_rvv_vsetvlimax(1, 1)
1653
- #define vsetvlmax_e16m4 () __builtin_rvv_vsetvlimax(1, 2)
1654
- #define vsetvlmax_e16m8 () __builtin_rvv_vsetvlimax(1, 3)
1650
+ #define __riscv_vsetvlmax_e16mf2 () __builtin_rvv_vsetvlimax(1, 7)
1651
+ #define __riscv_vsetvlmax_e16m1 () __builtin_rvv_vsetvlimax(1, 0)
1652
+ #define __riscv_vsetvlmax_e16m2 () __builtin_rvv_vsetvlimax(1, 1)
1653
+ #define __riscv_vsetvlmax_e16m4 () __builtin_rvv_vsetvlimax(1, 2)
1654
+ #define __riscv_vsetvlmax_e16m8 () __builtin_rvv_vsetvlimax(1, 3)
1655
1655
1656
- #define vsetvlmax_e32m1 () __builtin_rvv_vsetvlimax(2, 0)
1657
- #define vsetvlmax_e32m2 () __builtin_rvv_vsetvlimax(2, 1)
1658
- #define vsetvlmax_e32m4 () __builtin_rvv_vsetvlimax(2, 2)
1659
- #define vsetvlmax_e32m8 () __builtin_rvv_vsetvlimax(2, 3)
1656
+ #define __riscv_vsetvlmax_e32m1 () __builtin_rvv_vsetvlimax(2, 0)
1657
+ #define __riscv_vsetvlmax_e32m2 () __builtin_rvv_vsetvlimax(2, 1)
1658
+ #define __riscv_vsetvlmax_e32m4 () __builtin_rvv_vsetvlimax(2, 2)
1659
+ #define __riscv_vsetvlmax_e32m8 () __builtin_rvv_vsetvlimax(2, 3)
1660
1660
1661
1661
#if __riscv_v_elen >= 64
1662
- #define vsetvlmax_e8mf8 () __builtin_rvv_vsetvlimax(0, 5)
1663
- #define vsetvlmax_e16mf4 () __builtin_rvv_vsetvlimax(1, 6)
1664
- #define vsetvlmax_e32mf2 () __builtin_rvv_vsetvlimax(2, 7)
1665
-
1666
- #define vsetvlmax_e64m1 () __builtin_rvv_vsetvlimax(3, 0)
1667
- #define vsetvlmax_e64m2 () __builtin_rvv_vsetvlimax(3, 1)
1668
- #define vsetvlmax_e64m4 () __builtin_rvv_vsetvlimax(3, 2)
1669
- #define vsetvlmax_e64m8 () __builtin_rvv_vsetvlimax(3, 3)
1662
+ #define __riscv_vsetvlmax_e8mf8 () __builtin_rvv_vsetvlimax(0, 5)
1663
+ #define __riscv_vsetvlmax_e16mf4 () __builtin_rvv_vsetvlimax(1, 6)
1664
+ #define __riscv_vsetvlmax_e32mf2 () __builtin_rvv_vsetvlimax(2, 7)
1665
+
1666
+ #define __riscv_vsetvlmax_e64m1 () __builtin_rvv_vsetvlimax(3, 0)
1667
+ #define __riscv_vsetvlmax_e64m2 () __builtin_rvv_vsetvlimax(3, 1)
1668
+ #define __riscv_vsetvlmax_e64m4 () __builtin_rvv_vsetvlimax(3, 2)
1669
+ #define __riscv_vsetvlmax_e64m8 () __builtin_rvv_vsetvlimax(3, 3)
1670
1670
#endif
1671
1671
1672
1672
}] in
0 commit comments