@@ -40,7 +40,6 @@ define <2 x i32> @stest_f64i32(<2 x double> %x) {
40
40
; CHECK-V-NEXT: vsetivli zero, 2, e64, m1, ta, ma
41
41
; CHECK-V-NEXT: vfcvt.rtz.x.f.v v8, v8
42
42
; CHECK-V-NEXT: vsetvli zero, zero, e32, mf2, ta, ma
43
- ; CHECK-V-NEXT: csrwi vxrm, 0
44
43
; CHECK-V-NEXT: vnclip.wi v8, v8, 0
45
44
; CHECK-V-NEXT: ret
46
45
entry:
@@ -77,7 +76,6 @@ define <2 x i32> @utest_f64i32(<2 x double> %x) {
77
76
; CHECK-V-NEXT: vsetivli zero, 2, e64, m1, ta, ma
78
77
; CHECK-V-NEXT: vfcvt.rtz.xu.f.v v8, v8
79
78
; CHECK-V-NEXT: vsetvli zero, zero, e32, mf2, ta, ma
80
- ; CHECK-V-NEXT: csrwi vxrm, 0
81
79
; CHECK-V-NEXT: vnclipu.wi v8, v8, 0
82
80
; CHECK-V-NEXT: ret
83
81
entry:
@@ -193,7 +191,6 @@ define <4 x i32> @stest_f32i32(<4 x float> %x) {
193
191
; CHECK-V: # %bb.0: # %entry
194
192
; CHECK-V-NEXT: vsetivli zero, 4, e32, m1, ta, ma
195
193
; CHECK-V-NEXT: vfwcvt.rtz.x.f.v v10, v8
196
- ; CHECK-V-NEXT: csrwi vxrm, 0
197
194
; CHECK-V-NEXT: vnclip.wi v8, v10, 0
198
195
; CHECK-V-NEXT: ret
199
196
entry:
@@ -247,7 +244,6 @@ define <4 x i32> @utest_f32i32(<4 x float> %x) {
247
244
; CHECK-V: # %bb.0: # %entry
248
245
; CHECK-V-NEXT: vsetivli zero, 4, e32, m1, ta, ma
249
246
; CHECK-V-NEXT: vfwcvt.rtz.xu.f.v v10, v8
250
- ; CHECK-V-NEXT: csrwi vxrm, 0
251
247
; CHECK-V-NEXT: vnclipu.wi v8, v10, 0
252
248
; CHECK-V-NEXT: ret
253
249
entry:
@@ -497,7 +493,6 @@ define <4 x i32> @stest_f16i32(<4 x half> %x) {
497
493
; CHECK-V-NEXT: vl2r.v v10, (a0) # Unknown-size Folded Reload
498
494
; CHECK-V-NEXT: vslideup.vi v10, v8, 3
499
495
; CHECK-V-NEXT: vsetvli zero, zero, e32, m1, ta, ma
500
- ; CHECK-V-NEXT: csrwi vxrm, 0
501
496
; CHECK-V-NEXT: vnclip.wi v8, v10, 0
502
497
; CHECK-V-NEXT: csrr a0, vlenb
503
498
; CHECK-V-NEXT: slli a0, a0, 2
@@ -666,7 +661,6 @@ define <4 x i32> @utesth_f16i32(<4 x half> %x) {
666
661
; CHECK-V-NEXT: vl2r.v v10, (a0) # Unknown-size Folded Reload
667
662
; CHECK-V-NEXT: vslideup.vi v10, v8, 3
668
663
; CHECK-V-NEXT: vsetvli zero, zero, e32, m1, ta, ma
669
- ; CHECK-V-NEXT: csrwi vxrm, 0
670
664
; CHECK-V-NEXT: vnclipu.wi v8, v10, 0
671
665
; CHECK-V-NEXT: csrr a0, vlenb
672
666
; CHECK-V-NEXT: slli a0, a0, 2
@@ -907,7 +901,6 @@ define <2 x i16> @stest_f64i16(<2 x double> %x) {
907
901
; CHECK-V-NEXT: vsetivli zero, 2, e32, mf2, ta, ma
908
902
; CHECK-V-NEXT: vfncvt.rtz.x.f.w v9, v8
909
903
; CHECK-V-NEXT: vsetvli zero, zero, e16, mf4, ta, ma
910
- ; CHECK-V-NEXT: csrwi vxrm, 0
911
904
; CHECK-V-NEXT: vnclip.wi v8, v9, 0
912
905
; CHECK-V-NEXT: ret
913
906
entry:
@@ -944,7 +937,6 @@ define <2 x i16> @utest_f64i16(<2 x double> %x) {
944
937
; CHECK-V-NEXT: vsetivli zero, 2, e32, mf2, ta, ma
945
938
; CHECK-V-NEXT: vfncvt.rtz.xu.f.w v9, v8
946
939
; CHECK-V-NEXT: vsetvli zero, zero, e16, mf4, ta, ma
947
- ; CHECK-V-NEXT: csrwi vxrm, 0
948
940
; CHECK-V-NEXT: vnclipu.wi v8, v9, 0
949
941
; CHECK-V-NEXT: ret
950
942
entry:
@@ -1063,7 +1055,6 @@ define <4 x i16> @stest_f32i16(<4 x float> %x) {
1063
1055
; CHECK-V-NEXT: vsetivli zero, 4, e32, m1, ta, ma
1064
1056
; CHECK-V-NEXT: vfcvt.rtz.x.f.v v8, v8
1065
1057
; CHECK-V-NEXT: vsetvli zero, zero, e16, mf2, ta, ma
1066
- ; CHECK-V-NEXT: csrwi vxrm, 0
1067
1058
; CHECK-V-NEXT: vnclip.wi v8, v8, 0
1068
1059
; CHECK-V-NEXT: ret
1069
1060
entry:
@@ -1118,7 +1109,6 @@ define <4 x i16> @utest_f32i16(<4 x float> %x) {
1118
1109
; CHECK-V-NEXT: vsetivli zero, 4, e32, m1, ta, ma
1119
1110
; CHECK-V-NEXT: vfcvt.rtz.xu.f.v v8, v8
1120
1111
; CHECK-V-NEXT: vsetvli zero, zero, e16, mf2, ta, ma
1121
- ; CHECK-V-NEXT: csrwi vxrm, 0
1122
1112
; CHECK-V-NEXT: vnclipu.wi v8, v8, 0
1123
1113
; CHECK-V-NEXT: ret
1124
1114
entry:
@@ -1495,7 +1485,6 @@ define <8 x i16> @stest_f16i16(<8 x half> %x) {
1495
1485
; CHECK-V-NEXT: vl2r.v v10, (a0) # Unknown-size Folded Reload
1496
1486
; CHECK-V-NEXT: vslideup.vi v10, v8, 7
1497
1487
; CHECK-V-NEXT: vsetvli zero, zero, e16, m1, ta, ma
1498
- ; CHECK-V-NEXT: csrwi vxrm, 0
1499
1488
; CHECK-V-NEXT: vnclip.wi v8, v10, 0
1500
1489
; CHECK-V-NEXT: csrr a0, vlenb
1501
1490
; CHECK-V-NEXT: slli a0, a0, 1
@@ -1774,7 +1763,6 @@ define <8 x i16> @utesth_f16i16(<8 x half> %x) {
1774
1763
; CHECK-V-NEXT: vl2r.v v10, (a0) # Unknown-size Folded Reload
1775
1764
; CHECK-V-NEXT: vslideup.vi v10, v8, 7
1776
1765
; CHECK-V-NEXT: vsetvli zero, zero, e16, m1, ta, ma
1777
- ; CHECK-V-NEXT: csrwi vxrm, 0
1778
1766
; CHECK-V-NEXT: vnclipu.wi v8, v10, 0
1779
1767
; CHECK-V-NEXT: csrr a0, vlenb
1780
1768
; CHECK-V-NEXT: slli a0, a0, 1
@@ -3349,7 +3337,6 @@ define <2 x i32> @stest_f64i32_mm(<2 x double> %x) {
3349
3337
; CHECK-V-NEXT: vsetivli zero, 2, e64, m1, ta, ma
3350
3338
; CHECK-V-NEXT: vfcvt.rtz.x.f.v v8, v8
3351
3339
; CHECK-V-NEXT: vsetvli zero, zero, e32, mf2, ta, ma
3352
- ; CHECK-V-NEXT: csrwi vxrm, 0
3353
3340
; CHECK-V-NEXT: vnclip.wi v8, v8, 0
3354
3341
; CHECK-V-NEXT: ret
3355
3342
entry:
@@ -3384,7 +3371,6 @@ define <2 x i32> @utest_f64i32_mm(<2 x double> %x) {
3384
3371
; CHECK-V-NEXT: vsetivli zero, 2, e64, m1, ta, ma
3385
3372
; CHECK-V-NEXT: vfcvt.rtz.xu.f.v v8, v8
3386
3373
; CHECK-V-NEXT: vsetvli zero, zero, e32, mf2, ta, ma
3387
- ; CHECK-V-NEXT: csrwi vxrm, 0
3388
3374
; CHECK-V-NEXT: vnclipu.wi v8, v8, 0
3389
3375
; CHECK-V-NEXT: ret
3390
3376
entry:
@@ -3497,7 +3483,6 @@ define <4 x i32> @stest_f32i32_mm(<4 x float> %x) {
3497
3483
; CHECK-V: # %bb.0: # %entry
3498
3484
; CHECK-V-NEXT: vsetivli zero, 4, e32, m1, ta, ma
3499
3485
; CHECK-V-NEXT: vfwcvt.rtz.x.f.v v10, v8
3500
- ; CHECK-V-NEXT: csrwi vxrm, 0
3501
3486
; CHECK-V-NEXT: vnclip.wi v8, v10, 0
3502
3487
; CHECK-V-NEXT: ret
3503
3488
entry:
@@ -3549,7 +3534,6 @@ define <4 x i32> @utest_f32i32_mm(<4 x float> %x) {
3549
3534
; CHECK-V: # %bb.0: # %entry
3550
3535
; CHECK-V-NEXT: vsetivli zero, 4, e32, m1, ta, ma
3551
3536
; CHECK-V-NEXT: vfwcvt.rtz.xu.f.v v10, v8
3552
- ; CHECK-V-NEXT: csrwi vxrm, 0
3553
3537
; CHECK-V-NEXT: vnclipu.wi v8, v10, 0
3554
3538
; CHECK-V-NEXT: ret
3555
3539
entry:
@@ -3796,7 +3780,6 @@ define <4 x i32> @stest_f16i32_mm(<4 x half> %x) {
3796
3780
; CHECK-V-NEXT: vl2r.v v10, (a0) # Unknown-size Folded Reload
3797
3781
; CHECK-V-NEXT: vslideup.vi v10, v8, 3
3798
3782
; CHECK-V-NEXT: vsetvli zero, zero, e32, m1, ta, ma
3799
- ; CHECK-V-NEXT: csrwi vxrm, 0
3800
3783
; CHECK-V-NEXT: vnclip.wi v8, v10, 0
3801
3784
; CHECK-V-NEXT: csrr a0, vlenb
3802
3785
; CHECK-V-NEXT: slli a0, a0, 2
@@ -3963,7 +3946,6 @@ define <4 x i32> @utesth_f16i32_mm(<4 x half> %x) {
3963
3946
; CHECK-V-NEXT: vl2r.v v10, (a0) # Unknown-size Folded Reload
3964
3947
; CHECK-V-NEXT: vslideup.vi v10, v8, 3
3965
3948
; CHECK-V-NEXT: vsetvli zero, zero, e32, m1, ta, ma
3966
- ; CHECK-V-NEXT: csrwi vxrm, 0
3967
3949
; CHECK-V-NEXT: vnclipu.wi v8, v10, 0
3968
3950
; CHECK-V-NEXT: csrr a0, vlenb
3969
3951
; CHECK-V-NEXT: slli a0, a0, 2
@@ -4201,7 +4183,6 @@ define <2 x i16> @stest_f64i16_mm(<2 x double> %x) {
4201
4183
; CHECK-V-NEXT: vsetivli zero, 2, e32, mf2, ta, ma
4202
4184
; CHECK-V-NEXT: vfncvt.rtz.x.f.w v9, v8
4203
4185
; CHECK-V-NEXT: vsetvli zero, zero, e16, mf4, ta, ma
4204
- ; CHECK-V-NEXT: csrwi vxrm, 0
4205
4186
; CHECK-V-NEXT: vnclip.wi v8, v9, 0
4206
4187
; CHECK-V-NEXT: ret
4207
4188
entry:
@@ -4236,7 +4217,6 @@ define <2 x i16> @utest_f64i16_mm(<2 x double> %x) {
4236
4217
; CHECK-V-NEXT: vsetivli zero, 2, e32, mf2, ta, ma
4237
4218
; CHECK-V-NEXT: vfncvt.rtz.xu.f.w v9, v8
4238
4219
; CHECK-V-NEXT: vsetvli zero, zero, e16, mf4, ta, ma
4239
- ; CHECK-V-NEXT: csrwi vxrm, 0
4240
4220
; CHECK-V-NEXT: vnclipu.wi v8, v9, 0
4241
4221
; CHECK-V-NEXT: ret
4242
4222
entry:
@@ -4352,7 +4332,6 @@ define <4 x i16> @stest_f32i16_mm(<4 x float> %x) {
4352
4332
; CHECK-V-NEXT: vsetivli zero, 4, e32, m1, ta, ma
4353
4333
; CHECK-V-NEXT: vfcvt.rtz.x.f.v v8, v8
4354
4334
; CHECK-V-NEXT: vsetvli zero, zero, e16, mf2, ta, ma
4355
- ; CHECK-V-NEXT: csrwi vxrm, 0
4356
4335
; CHECK-V-NEXT: vnclip.wi v8, v8, 0
4357
4336
; CHECK-V-NEXT: ret
4358
4337
entry:
@@ -4405,7 +4384,6 @@ define <4 x i16> @utest_f32i16_mm(<4 x float> %x) {
4405
4384
; CHECK-V-NEXT: vsetivli zero, 4, e32, m1, ta, ma
4406
4385
; CHECK-V-NEXT: vfcvt.rtz.xu.f.v v8, v8
4407
4386
; CHECK-V-NEXT: vsetvli zero, zero, e16, mf2, ta, ma
4408
- ; CHECK-V-NEXT: csrwi vxrm, 0
4409
4387
; CHECK-V-NEXT: vnclipu.wi v8, v8, 0
4410
4388
; CHECK-V-NEXT: ret
4411
4389
entry:
@@ -4779,7 +4757,6 @@ define <8 x i16> @stest_f16i16_mm(<8 x half> %x) {
4779
4757
; CHECK-V-NEXT: vl2r.v v10, (a0) # Unknown-size Folded Reload
4780
4758
; CHECK-V-NEXT: vslideup.vi v10, v8, 7
4781
4759
; CHECK-V-NEXT: vsetvli zero, zero, e16, m1, ta, ma
4782
- ; CHECK-V-NEXT: csrwi vxrm, 0
4783
4760
; CHECK-V-NEXT: vnclip.wi v8, v10, 0
4784
4761
; CHECK-V-NEXT: csrr a0, vlenb
4785
4762
; CHECK-V-NEXT: slli a0, a0, 1
@@ -5054,7 +5031,6 @@ define <8 x i16> @utesth_f16i16_mm(<8 x half> %x) {
5054
5031
; CHECK-V-NEXT: vl2r.v v10, (a0) # Unknown-size Folded Reload
5055
5032
; CHECK-V-NEXT: vslideup.vi v10, v8, 7
5056
5033
; CHECK-V-NEXT: vsetvli zero, zero, e16, m1, ta, ma
5057
- ; CHECK-V-NEXT: csrwi vxrm, 0
5058
5034
; CHECK-V-NEXT: vnclipu.wi v8, v10, 0
5059
5035
; CHECK-V-NEXT: csrr a0, vlenb
5060
5036
; CHECK-V-NEXT: slli a0, a0, 1
0 commit comments