@@ -33,7 +33,7 @@ define void @bitreverse_v8i16(<8 x i16>* %x, <8 x i16>* %y) {
33
33
; LMULMAX2-RV32-NEXT: lui a1, 5
34
34
; LMULMAX2-RV32-NEXT: addi a1, a1, 1365
35
35
; LMULMAX2-RV32-NEXT: vand.vx v26, v25, a1
36
- ; LMULMAX2-RV32-NEXT: vsll.vi v26, v26, 1
36
+ ; LMULMAX2-RV32-NEXT: vadd.vv v26, v26, v26
37
37
; LMULMAX2-RV32-NEXT: lui a1, 11
38
38
; LMULMAX2-RV32-NEXT: addi a1, a1, -1366
39
39
; LMULMAX2-RV32-NEXT: vand.vx v25, v25, a1
@@ -70,7 +70,7 @@ define void @bitreverse_v8i16(<8 x i16>* %x, <8 x i16>* %y) {
70
70
; LMULMAX2-RV64-NEXT: lui a1, 5
71
71
; LMULMAX2-RV64-NEXT: addiw a1, a1, 1365
72
72
; LMULMAX2-RV64-NEXT: vand.vx v26, v25, a1
73
- ; LMULMAX2-RV64-NEXT: vsll.vi v26, v26, 1
73
+ ; LMULMAX2-RV64-NEXT: vadd.vv v26, v26, v26
74
74
; LMULMAX2-RV64-NEXT: lui a1, 11
75
75
; LMULMAX2-RV64-NEXT: addiw a1, a1, -1366
76
76
; LMULMAX2-RV64-NEXT: vand.vx v25, v25, a1
@@ -107,7 +107,7 @@ define void @bitreverse_v8i16(<8 x i16>* %x, <8 x i16>* %y) {
107
107
; LMULMAX1-RV32-NEXT: lui a1, 5
108
108
; LMULMAX1-RV32-NEXT: addi a1, a1, 1365
109
109
; LMULMAX1-RV32-NEXT: vand.vx v26, v25, a1
110
- ; LMULMAX1-RV32-NEXT: vsll.vi v26, v26, 1
110
+ ; LMULMAX1-RV32-NEXT: vadd.vv v26, v26, v26
111
111
; LMULMAX1-RV32-NEXT: lui a1, 11
112
112
; LMULMAX1-RV32-NEXT: addi a1, a1, -1366
113
113
; LMULMAX1-RV32-NEXT: vand.vx v25, v25, a1
@@ -144,7 +144,7 @@ define void @bitreverse_v8i16(<8 x i16>* %x, <8 x i16>* %y) {
144
144
; LMULMAX1-RV64-NEXT: lui a1, 5
145
145
; LMULMAX1-RV64-NEXT: addiw a1, a1, 1365
146
146
; LMULMAX1-RV64-NEXT: vand.vx v26, v25, a1
147
- ; LMULMAX1-RV64-NEXT: vsll.vi v26, v26, 1
147
+ ; LMULMAX1-RV64-NEXT: vadd.vv v26, v26, v26
148
148
; LMULMAX1-RV64-NEXT: lui a1, 11
149
149
; LMULMAX1-RV64-NEXT: addiw a1, a1, -1366
150
150
; LMULMAX1-RV64-NEXT: vand.vx v25, v25, a1
@@ -198,7 +198,7 @@ define void @bitreverse_v4i32(<4 x i32>* %x, <4 x i32>* %y) {
198
198
; LMULMAX2-RV32-NEXT: lui a1, 349525
199
199
; LMULMAX2-RV32-NEXT: addi a1, a1, 1365
200
200
; LMULMAX2-RV32-NEXT: vand.vx v26, v25, a1
201
- ; LMULMAX2-RV32-NEXT: vsll.vi v26, v26, 1
201
+ ; LMULMAX2-RV32-NEXT: vadd.vv v26, v26, v26
202
202
; LMULMAX2-RV32-NEXT: lui a1, 699051
203
203
; LMULMAX2-RV32-NEXT: addi a1, a1, -1366
204
204
; LMULMAX2-RV32-NEXT: vand.vx v25, v25, a1
@@ -248,7 +248,7 @@ define void @bitreverse_v4i32(<4 x i32>* %x, <4 x i32>* %y) {
248
248
; LMULMAX2-RV64-NEXT: lui a1, 349525
249
249
; LMULMAX2-RV64-NEXT: addiw a1, a1, 1365
250
250
; LMULMAX2-RV64-NEXT: vand.vx v26, v25, a1
251
- ; LMULMAX2-RV64-NEXT: vsll.vi v26, v26, 1
251
+ ; LMULMAX2-RV64-NEXT: vadd.vv v26, v26, v26
252
252
; LMULMAX2-RV64-NEXT: lui a1, 171
253
253
; LMULMAX2-RV64-NEXT: addiw a1, a1, -1365
254
254
; LMULMAX2-RV64-NEXT: slli a1, a1, 12
@@ -296,7 +296,7 @@ define void @bitreverse_v4i32(<4 x i32>* %x, <4 x i32>* %y) {
296
296
; LMULMAX1-RV32-NEXT: lui a1, 349525
297
297
; LMULMAX1-RV32-NEXT: addi a1, a1, 1365
298
298
; LMULMAX1-RV32-NEXT: vand.vx v26, v25, a1
299
- ; LMULMAX1-RV32-NEXT: vsll.vi v26, v26, 1
299
+ ; LMULMAX1-RV32-NEXT: vadd.vv v26, v26, v26
300
300
; LMULMAX1-RV32-NEXT: lui a1, 699051
301
301
; LMULMAX1-RV32-NEXT: addi a1, a1, -1366
302
302
; LMULMAX1-RV32-NEXT: vand.vx v25, v25, a1
@@ -346,7 +346,7 @@ define void @bitreverse_v4i32(<4 x i32>* %x, <4 x i32>* %y) {
346
346
; LMULMAX1-RV64-NEXT: lui a1, 349525
347
347
; LMULMAX1-RV64-NEXT: addiw a1, a1, 1365
348
348
; LMULMAX1-RV64-NEXT: vand.vx v26, v25, a1
349
- ; LMULMAX1-RV64-NEXT: vsll.vi v26, v26, 1
349
+ ; LMULMAX1-RV64-NEXT: vadd.vv v26, v26, v26
350
350
; LMULMAX1-RV64-NEXT: lui a1, 171
351
351
; LMULMAX1-RV64-NEXT: addiw a1, a1, -1365
352
352
; LMULMAX1-RV64-NEXT: slli a1, a1, 12
@@ -452,7 +452,7 @@ define void @bitreverse_v2i64(<2 x i64>* %x, <2 x i64>* %y) {
452
452
; LMULMAX2-RV32-NEXT: vmv.v.x v26, a1
453
453
; LMULMAX2-RV32-NEXT: vsetivli zero, 2, e64, m1, ta, mu
454
454
; LMULMAX2-RV32-NEXT: vand.vv v26, v25, v26
455
- ; LMULMAX2-RV32-NEXT: vsll.vi v26, v26, 1
455
+ ; LMULMAX2-RV32-NEXT: vadd.vv v26, v26, v26
456
456
; LMULMAX2-RV32-NEXT: lui a1, 699051
457
457
; LMULMAX2-RV32-NEXT: addi a1, a1, -1366
458
458
; LMULMAX2-RV32-NEXT: vsetivli zero, 4, e32, m1, ta, mu
@@ -550,7 +550,7 @@ define void @bitreverse_v2i64(<2 x i64>* %x, <2 x i64>* %y) {
550
550
; LMULMAX2-RV64-NEXT: slli a1, a1, 12
551
551
; LMULMAX2-RV64-NEXT: addi a1, a1, 1365
552
552
; LMULMAX2-RV64-NEXT: vand.vx v26, v25, a1
553
- ; LMULMAX2-RV64-NEXT: vsll.vi v26, v26, 1
553
+ ; LMULMAX2-RV64-NEXT: vadd.vv v26, v26, v26
554
554
; LMULMAX2-RV64-NEXT: lui a1, 1026731
555
555
; LMULMAX2-RV64-NEXT: addiw a1, a1, -1365
556
556
; LMULMAX2-RV64-NEXT: slli a1, a1, 12
@@ -652,7 +652,7 @@ define void @bitreverse_v2i64(<2 x i64>* %x, <2 x i64>* %y) {
652
652
; LMULMAX1-RV32-NEXT: vmv.v.x v26, a1
653
653
; LMULMAX1-RV32-NEXT: vsetivli zero, 2, e64, m1, ta, mu
654
654
; LMULMAX1-RV32-NEXT: vand.vv v26, v25, v26
655
- ; LMULMAX1-RV32-NEXT: vsll.vi v26, v26, 1
655
+ ; LMULMAX1-RV32-NEXT: vadd.vv v26, v26, v26
656
656
; LMULMAX1-RV32-NEXT: lui a1, 699051
657
657
; LMULMAX1-RV32-NEXT: addi a1, a1, -1366
658
658
; LMULMAX1-RV32-NEXT: vsetivli zero, 4, e32, m1, ta, mu
@@ -750,7 +750,7 @@ define void @bitreverse_v2i64(<2 x i64>* %x, <2 x i64>* %y) {
750
750
; LMULMAX1-RV64-NEXT: slli a1, a1, 12
751
751
; LMULMAX1-RV64-NEXT: addi a1, a1, 1365
752
752
; LMULMAX1-RV64-NEXT: vand.vx v26, v25, a1
753
- ; LMULMAX1-RV64-NEXT: vsll.vi v26, v26, 1
753
+ ; LMULMAX1-RV64-NEXT: vadd.vv v26, v26, v26
754
754
; LMULMAX1-RV64-NEXT: lui a1, 1026731
755
755
; LMULMAX1-RV64-NEXT: addiw a1, a1, -1365
756
756
; LMULMAX1-RV64-NEXT: slli a1, a1, 12
@@ -801,7 +801,7 @@ define void @bitreverse_v16i16(<16 x i16>* %x, <16 x i16>* %y) {
801
801
; LMULMAX2-RV32-NEXT: lui a1, 5
802
802
; LMULMAX2-RV32-NEXT: addi a1, a1, 1365
803
803
; LMULMAX2-RV32-NEXT: vand.vx v28, v26, a1
804
- ; LMULMAX2-RV32-NEXT: vsll.vi v28, v28, 1
804
+ ; LMULMAX2-RV32-NEXT: vadd.vv v28, v28, v28
805
805
; LMULMAX2-RV32-NEXT: lui a1, 11
806
806
; LMULMAX2-RV32-NEXT: addi a1, a1, -1366
807
807
; LMULMAX2-RV32-NEXT: vand.vx v26, v26, a1
@@ -838,7 +838,7 @@ define void @bitreverse_v16i16(<16 x i16>* %x, <16 x i16>* %y) {
838
838
; LMULMAX2-RV64-NEXT: lui a1, 5
839
839
; LMULMAX2-RV64-NEXT: addiw a1, a1, 1365
840
840
; LMULMAX2-RV64-NEXT: vand.vx v28, v26, a1
841
- ; LMULMAX2-RV64-NEXT: vsll.vi v28, v28, 1
841
+ ; LMULMAX2-RV64-NEXT: vadd.vv v28, v28, v28
842
842
; LMULMAX2-RV64-NEXT: lui a1, 11
843
843
; LMULMAX2-RV64-NEXT: addiw a1, a1, -1366
844
844
; LMULMAX2-RV64-NEXT: vand.vx v26, v26, a1
@@ -877,7 +877,7 @@ define void @bitreverse_v16i16(<16 x i16>* %x, <16 x i16>* %y) {
877
877
; LMULMAX1-RV32-NEXT: lui a1, 5
878
878
; LMULMAX1-RV32-NEXT: addi a1, a1, 1365
879
879
; LMULMAX1-RV32-NEXT: vand.vx v27, v25, a1
880
- ; LMULMAX1-RV32-NEXT: vsll.vi v27, v27, 1
880
+ ; LMULMAX1-RV32-NEXT: vadd.vv v27, v27, v27
881
881
; LMULMAX1-RV32-NEXT: lui a2, 11
882
882
; LMULMAX1-RV32-NEXT: addi a2, a2, -1366
883
883
; LMULMAX1-RV32-NEXT: vand.vx v25, v25, a2
@@ -897,7 +897,7 @@ define void @bitreverse_v16i16(<16 x i16>* %x, <16 x i16>* %y) {
897
897
; LMULMAX1-RV32-NEXT: vsrl.vi v26, v26, 2
898
898
; LMULMAX1-RV32-NEXT: vor.vv v26, v26, v27
899
899
; LMULMAX1-RV32-NEXT: vand.vx v27, v26, a1
900
- ; LMULMAX1-RV32-NEXT: vsll.vi v27, v27, 1
900
+ ; LMULMAX1-RV32-NEXT: vadd.vv v27, v27, v27
901
901
; LMULMAX1-RV32-NEXT: vand.vx v26, v26, a2
902
902
; LMULMAX1-RV32-NEXT: vsrl.vi v26, v26, 1
903
903
; LMULMAX1-RV32-NEXT: vor.vv v26, v26, v27
@@ -935,7 +935,7 @@ define void @bitreverse_v16i16(<16 x i16>* %x, <16 x i16>* %y) {
935
935
; LMULMAX1-RV64-NEXT: lui a1, 5
936
936
; LMULMAX1-RV64-NEXT: addiw a1, a1, 1365
937
937
; LMULMAX1-RV64-NEXT: vand.vx v27, v25, a1
938
- ; LMULMAX1-RV64-NEXT: vsll.vi v27, v27, 1
938
+ ; LMULMAX1-RV64-NEXT: vadd.vv v27, v27, v27
939
939
; LMULMAX1-RV64-NEXT: lui a2, 11
940
940
; LMULMAX1-RV64-NEXT: addiw a2, a2, -1366
941
941
; LMULMAX1-RV64-NEXT: vand.vx v25, v25, a2
@@ -955,7 +955,7 @@ define void @bitreverse_v16i16(<16 x i16>* %x, <16 x i16>* %y) {
955
955
; LMULMAX1-RV64-NEXT: vsrl.vi v26, v26, 2
956
956
; LMULMAX1-RV64-NEXT: vor.vv v26, v26, v27
957
957
; LMULMAX1-RV64-NEXT: vand.vx v27, v26, a1
958
- ; LMULMAX1-RV64-NEXT: vsll.vi v27, v27, 1
958
+ ; LMULMAX1-RV64-NEXT: vadd.vv v27, v27, v27
959
959
; LMULMAX1-RV64-NEXT: vand.vx v26, v26, a2
960
960
; LMULMAX1-RV64-NEXT: vsrl.vi v26, v26, 1
961
961
; LMULMAX1-RV64-NEXT: vor.vv v26, v26, v27
@@ -1008,7 +1008,7 @@ define void @bitreverse_v8i32(<8 x i32>* %x, <8 x i32>* %y) {
1008
1008
; LMULMAX2-RV32-NEXT: lui a1, 349525
1009
1009
; LMULMAX2-RV32-NEXT: addi a1, a1, 1365
1010
1010
; LMULMAX2-RV32-NEXT: vand.vx v28, v26, a1
1011
- ; LMULMAX2-RV32-NEXT: vsll.vi v28, v28, 1
1011
+ ; LMULMAX2-RV32-NEXT: vadd.vv v28, v28, v28
1012
1012
; LMULMAX2-RV32-NEXT: lui a1, 699051
1013
1013
; LMULMAX2-RV32-NEXT: addi a1, a1, -1366
1014
1014
; LMULMAX2-RV32-NEXT: vand.vx v26, v26, a1
@@ -1058,7 +1058,7 @@ define void @bitreverse_v8i32(<8 x i32>* %x, <8 x i32>* %y) {
1058
1058
; LMULMAX2-RV64-NEXT: lui a1, 349525
1059
1059
; LMULMAX2-RV64-NEXT: addiw a1, a1, 1365
1060
1060
; LMULMAX2-RV64-NEXT: vand.vx v28, v26, a1
1061
- ; LMULMAX2-RV64-NEXT: vsll.vi v28, v28, 1
1061
+ ; LMULMAX2-RV64-NEXT: vadd.vv v28, v28, v28
1062
1062
; LMULMAX2-RV64-NEXT: lui a1, 171
1063
1063
; LMULMAX2-RV64-NEXT: addiw a1, a1, -1365
1064
1064
; LMULMAX2-RV64-NEXT: slli a1, a1, 12
@@ -1108,7 +1108,7 @@ define void @bitreverse_v8i32(<8 x i32>* %x, <8 x i32>* %y) {
1108
1108
; LMULMAX1-RV32-NEXT: lui a2, 349525
1109
1109
; LMULMAX1-RV32-NEXT: addi a2, a2, 1365
1110
1110
; LMULMAX1-RV32-NEXT: vand.vx v27, v25, a2
1111
- ; LMULMAX1-RV32-NEXT: vsll.vi v27, v27, 1
1111
+ ; LMULMAX1-RV32-NEXT: vadd.vv v27, v27, v27
1112
1112
; LMULMAX1-RV32-NEXT: lui a4, 699051
1113
1113
; LMULMAX1-RV32-NEXT: addi a4, a4, -1366
1114
1114
; LMULMAX1-RV32-NEXT: vand.vx v25, v25, a4
@@ -1134,7 +1134,7 @@ define void @bitreverse_v8i32(<8 x i32>* %x, <8 x i32>* %y) {
1134
1134
; LMULMAX1-RV32-NEXT: vsrl.vi v26, v26, 2
1135
1135
; LMULMAX1-RV32-NEXT: vor.vv v26, v26, v27
1136
1136
; LMULMAX1-RV32-NEXT: vand.vx v27, v26, a2
1137
- ; LMULMAX1-RV32-NEXT: vsll.vi v27, v27, 1
1137
+ ; LMULMAX1-RV32-NEXT: vadd.vv v27, v27, v27
1138
1138
; LMULMAX1-RV32-NEXT: vand.vx v26, v26, a4
1139
1139
; LMULMAX1-RV32-NEXT: vsrl.vi v26, v26, 1
1140
1140
; LMULMAX1-RV32-NEXT: vor.vv v26, v26, v27
@@ -1185,7 +1185,7 @@ define void @bitreverse_v8i32(<8 x i32>* %x, <8 x i32>* %y) {
1185
1185
; LMULMAX1-RV64-NEXT: lui a2, 349525
1186
1186
; LMULMAX1-RV64-NEXT: addiw a2, a2, 1365
1187
1187
; LMULMAX1-RV64-NEXT: vand.vx v27, v25, a2
1188
- ; LMULMAX1-RV64-NEXT: vsll.vi v27, v27, 1
1188
+ ; LMULMAX1-RV64-NEXT: vadd.vv v27, v27, v27
1189
1189
; LMULMAX1-RV64-NEXT: lui a4, 171
1190
1190
; LMULMAX1-RV64-NEXT: addiw a4, a4, -1365
1191
1191
; LMULMAX1-RV64-NEXT: slli a4, a4, 12
@@ -1213,7 +1213,7 @@ define void @bitreverse_v8i32(<8 x i32>* %x, <8 x i32>* %y) {
1213
1213
; LMULMAX1-RV64-NEXT: vsrl.vi v26, v26, 2
1214
1214
; LMULMAX1-RV64-NEXT: vor.vv v26, v26, v27
1215
1215
; LMULMAX1-RV64-NEXT: vand.vx v27, v26, a2
1216
- ; LMULMAX1-RV64-NEXT: vsll.vi v27, v27, 1
1216
+ ; LMULMAX1-RV64-NEXT: vadd.vv v27, v27, v27
1217
1217
; LMULMAX1-RV64-NEXT: vand.vx v26, v26, a4
1218
1218
; LMULMAX1-RV64-NEXT: vsrl.vi v26, v26, 1
1219
1219
; LMULMAX1-RV64-NEXT: vor.vv v26, v26, v27
@@ -1316,7 +1316,7 @@ define void @bitreverse_v4i64(<4 x i64>* %x, <4 x i64>* %y) {
1316
1316
; LMULMAX2-RV32-NEXT: vmv.v.x v28, a1
1317
1317
; LMULMAX2-RV32-NEXT: vsetivli zero, 4, e64, m2, ta, mu
1318
1318
; LMULMAX2-RV32-NEXT: vand.vv v28, v26, v28
1319
- ; LMULMAX2-RV32-NEXT: vsll.vi v28, v28, 1
1319
+ ; LMULMAX2-RV32-NEXT: vadd.vv v28, v28, v28
1320
1320
; LMULMAX2-RV32-NEXT: lui a1, 699051
1321
1321
; LMULMAX2-RV32-NEXT: addi a1, a1, -1366
1322
1322
; LMULMAX2-RV32-NEXT: vsetivli zero, 8, e32, m2, ta, mu
@@ -1414,7 +1414,7 @@ define void @bitreverse_v4i64(<4 x i64>* %x, <4 x i64>* %y) {
1414
1414
; LMULMAX2-RV64-NEXT: slli a1, a1, 12
1415
1415
; LMULMAX2-RV64-NEXT: addi a1, a1, 1365
1416
1416
; LMULMAX2-RV64-NEXT: vand.vx v28, v26, a1
1417
- ; LMULMAX2-RV64-NEXT: vsll.vi v28, v28, 1
1417
+ ; LMULMAX2-RV64-NEXT: vadd.vv v28, v28, v28
1418
1418
; LMULMAX2-RV64-NEXT: lui a1, 1026731
1419
1419
; LMULMAX2-RV64-NEXT: addiw a1, a1, -1365
1420
1420
; LMULMAX2-RV64-NEXT: slli a1, a1, 12
@@ -1518,7 +1518,7 @@ define void @bitreverse_v4i64(<4 x i64>* %x, <4 x i64>* %y) {
1518
1518
; LMULMAX1-RV32-NEXT: vmv.v.x v10, a5
1519
1519
; LMULMAX1-RV32-NEXT: vsetivli zero, 2, e64, m1, ta, mu
1520
1520
; LMULMAX1-RV32-NEXT: vand.vv v12, v31, v10
1521
- ; LMULMAX1-RV32-NEXT: vsll.vi v12, v12, 1
1521
+ ; LMULMAX1-RV32-NEXT: vadd.vv v12, v12, v12
1522
1522
; LMULMAX1-RV32-NEXT: lui a5, 699051
1523
1523
; LMULMAX1-RV32-NEXT: addi a5, a5, -1366
1524
1524
; LMULMAX1-RV32-NEXT: vsetivli zero, 4, e32, m1, ta, mu
@@ -1559,7 +1559,7 @@ define void @bitreverse_v4i64(<4 x i64>* %x, <4 x i64>* %y) {
1559
1559
; LMULMAX1-RV32-NEXT: vsrl.vi v25, v25, 2
1560
1560
; LMULMAX1-RV32-NEXT: vor.vv v25, v25, v26
1561
1561
; LMULMAX1-RV32-NEXT: vand.vv v26, v25, v10
1562
- ; LMULMAX1-RV32-NEXT: vsll.vi v26, v26, 1
1562
+ ; LMULMAX1-RV32-NEXT: vadd.vv v26, v26, v26
1563
1563
; LMULMAX1-RV32-NEXT: vand.vv v25, v25, v13
1564
1564
; LMULMAX1-RV32-NEXT: vsrl.vi v25, v25, 1
1565
1565
; LMULMAX1-RV32-NEXT: vor.vv v25, v25, v26
@@ -1659,7 +1659,7 @@ define void @bitreverse_v4i64(<4 x i64>* %x, <4 x i64>* %y) {
1659
1659
; LMULMAX1-RV64-NEXT: slli a1, a1, 12
1660
1660
; LMULMAX1-RV64-NEXT: addi a1, a1, 1365
1661
1661
; LMULMAX1-RV64-NEXT: vand.vx v27, v26, a1
1662
- ; LMULMAX1-RV64-NEXT: vsll.vi v27, v27, 1
1662
+ ; LMULMAX1-RV64-NEXT: vadd.vv v27, v27, v27
1663
1663
; LMULMAX1-RV64-NEXT: lui s0, 1026731
1664
1664
; LMULMAX1-RV64-NEXT: addiw s0, s0, -1365
1665
1665
; LMULMAX1-RV64-NEXT: slli s0, s0, 12
@@ -1703,7 +1703,7 @@ define void @bitreverse_v4i64(<4 x i64>* %x, <4 x i64>* %y) {
1703
1703
; LMULMAX1-RV64-NEXT: vsrl.vi v25, v25, 2
1704
1704
; LMULMAX1-RV64-NEXT: vor.vv v25, v25, v27
1705
1705
; LMULMAX1-RV64-NEXT: vand.vx v27, v25, a1
1706
- ; LMULMAX1-RV64-NEXT: vsll.vi v27, v27, 1
1706
+ ; LMULMAX1-RV64-NEXT: vadd.vv v27, v27, v27
1707
1707
; LMULMAX1-RV64-NEXT: vand.vx v25, v25, s0
1708
1708
; LMULMAX1-RV64-NEXT: vsrl.vi v25, v25, 1
1709
1709
; LMULMAX1-RV64-NEXT: vor.vv v25, v25, v27
0 commit comments