@@ -2474,9 +2474,9 @@ define <8 x i32> @mgather_baseidx_v8i8_v8i32(ptr %base, <8 x i8> %idxs, <8 x i1>
2474
2474
; RV64ZVE32F-NEXT: add a2, a0, a2
2475
2475
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2476
2476
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
2477
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2477
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2478
2478
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
2479
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
2479
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
2480
2480
; RV64ZVE32F-NEXT: .LBB35_9: # %else14
2481
2481
; RV64ZVE32F-NEXT: andi a2, a1, 64
2482
2482
; RV64ZVE32F-NEXT: vsetivli zero, 2, e8, mf4, ta, ma
@@ -2519,8 +2519,8 @@ define <8 x i32> @mgather_baseidx_v8i8_v8i32(ptr %base, <8 x i8> %idxs, <8 x i1>
2519
2519
; RV64ZVE32F-NEXT: add a2, a0, a2
2520
2520
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2521
2521
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
2522
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2523
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
2522
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2523
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
2524
2524
; RV64ZVE32F-NEXT: andi a2, a1, 32
2525
2525
; RV64ZVE32F-NEXT: bnez a2, .LBB35_8
2526
2526
; RV64ZVE32F-NEXT: j .LBB35_9
@@ -2624,9 +2624,9 @@ define <8 x i32> @mgather_baseidx_sext_v8i8_v8i32(ptr %base, <8 x i8> %idxs, <8
2624
2624
; RV64ZVE32F-NEXT: add a2, a0, a2
2625
2625
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2626
2626
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
2627
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2627
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2628
2628
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
2629
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
2629
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
2630
2630
; RV64ZVE32F-NEXT: .LBB36_9: # %else14
2631
2631
; RV64ZVE32F-NEXT: andi a2, a1, 64
2632
2632
; RV64ZVE32F-NEXT: vsetivli zero, 2, e8, mf4, ta, ma
@@ -2669,8 +2669,8 @@ define <8 x i32> @mgather_baseidx_sext_v8i8_v8i32(ptr %base, <8 x i8> %idxs, <8
2669
2669
; RV64ZVE32F-NEXT: add a2, a0, a2
2670
2670
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2671
2671
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
2672
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2673
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
2672
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2673
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
2674
2674
; RV64ZVE32F-NEXT: andi a2, a1, 32
2675
2675
; RV64ZVE32F-NEXT: bnez a2, .LBB36_8
2676
2676
; RV64ZVE32F-NEXT: j .LBB36_9
@@ -2779,9 +2779,9 @@ define <8 x i32> @mgather_baseidx_zext_v8i8_v8i32(ptr %base, <8 x i8> %idxs, <8
2779
2779
; RV64ZVE32F-NEXT: add a2, a0, a2
2780
2780
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2781
2781
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
2782
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2782
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2783
2783
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
2784
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
2784
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
2785
2785
; RV64ZVE32F-NEXT: .LBB37_9: # %else14
2786
2786
; RV64ZVE32F-NEXT: andi a2, a1, 64
2787
2787
; RV64ZVE32F-NEXT: vsetivli zero, 2, e8, mf4, ta, ma
@@ -2827,8 +2827,8 @@ define <8 x i32> @mgather_baseidx_zext_v8i8_v8i32(ptr %base, <8 x i8> %idxs, <8
2827
2827
; RV64ZVE32F-NEXT: add a2, a0, a2
2828
2828
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2829
2829
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
2830
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2831
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
2830
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2831
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
2832
2832
; RV64ZVE32F-NEXT: andi a2, a1, 32
2833
2833
; RV64ZVE32F-NEXT: bnez a2, .LBB37_8
2834
2834
; RV64ZVE32F-NEXT: j .LBB37_9
@@ -2936,9 +2936,9 @@ define <8 x i32> @mgather_baseidx_v8i16_v8i32(ptr %base, <8 x i16> %idxs, <8 x i
2936
2936
; RV64ZVE32F-NEXT: add a2, a0, a2
2937
2937
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2938
2938
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
2939
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2939
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2940
2940
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
2941
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
2941
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
2942
2942
; RV64ZVE32F-NEXT: .LBB38_9: # %else14
2943
2943
; RV64ZVE32F-NEXT: andi a2, a1, 64
2944
2944
; RV64ZVE32F-NEXT: vsetivli zero, 2, e16, mf2, ta, ma
@@ -2981,8 +2981,8 @@ define <8 x i32> @mgather_baseidx_v8i16_v8i32(ptr %base, <8 x i16> %idxs, <8 x i
2981
2981
; RV64ZVE32F-NEXT: add a2, a0, a2
2982
2982
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2983
2983
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
2984
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2985
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
2984
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2985
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
2986
2986
; RV64ZVE32F-NEXT: andi a2, a1, 32
2987
2987
; RV64ZVE32F-NEXT: bnez a2, .LBB38_8
2988
2988
; RV64ZVE32F-NEXT: j .LBB38_9
@@ -3087,9 +3087,9 @@ define <8 x i32> @mgather_baseidx_sext_v8i16_v8i32(ptr %base, <8 x i16> %idxs, <
3087
3087
; RV64ZVE32F-NEXT: add a2, a0, a2
3088
3088
; RV64ZVE32F-NEXT: lw a2, 0(a2)
3089
3089
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
3090
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
3090
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
3091
3091
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
3092
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
3092
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
3093
3093
; RV64ZVE32F-NEXT: .LBB39_9: # %else14
3094
3094
; RV64ZVE32F-NEXT: andi a2, a1, 64
3095
3095
; RV64ZVE32F-NEXT: vsetivli zero, 2, e16, mf2, ta, ma
@@ -3132,8 +3132,8 @@ define <8 x i32> @mgather_baseidx_sext_v8i16_v8i32(ptr %base, <8 x i16> %idxs, <
3132
3132
; RV64ZVE32F-NEXT: add a2, a0, a2
3133
3133
; RV64ZVE32F-NEXT: lw a2, 0(a2)
3134
3134
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
3135
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
3136
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
3135
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
3136
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
3137
3137
; RV64ZVE32F-NEXT: andi a2, a1, 32
3138
3138
; RV64ZVE32F-NEXT: bnez a2, .LBB39_8
3139
3139
; RV64ZVE32F-NEXT: j .LBB39_9
@@ -3243,9 +3243,9 @@ define <8 x i32> @mgather_baseidx_zext_v8i16_v8i32(ptr %base, <8 x i16> %idxs, <
3243
3243
; RV64ZVE32F-NEXT: add a3, a0, a3
3244
3244
; RV64ZVE32F-NEXT: lw a3, 0(a3)
3245
3245
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
3246
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a3
3246
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a3
3247
3247
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
3248
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
3248
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
3249
3249
; RV64ZVE32F-NEXT: .LBB40_9: # %else14
3250
3250
; RV64ZVE32F-NEXT: andi a3, a2, 64
3251
3251
; RV64ZVE32F-NEXT: vsetivli zero, 2, e16, mf2, ta, ma
@@ -3291,8 +3291,8 @@ define <8 x i32> @mgather_baseidx_zext_v8i16_v8i32(ptr %base, <8 x i16> %idxs, <
3291
3291
; RV64ZVE32F-NEXT: add a3, a0, a3
3292
3292
; RV64ZVE32F-NEXT: lw a3, 0(a3)
3293
3293
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
3294
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a3
3295
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
3294
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a3
3295
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
3296
3296
; RV64ZVE32F-NEXT: andi a3, a2, 32
3297
3297
; RV64ZVE32F-NEXT: bnez a3, .LBB40_8
3298
3298
; RV64ZVE32F-NEXT: j .LBB40_9
@@ -8155,9 +8155,9 @@ define <8 x float> @mgather_baseidx_v8i8_v8f32(ptr %base, <8 x i8> %idxs, <8 x i
8155
8155
; RV64ZVE32F-NEXT: add a2, a0, a2
8156
8156
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8157
8157
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
8158
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8158
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8159
8159
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
8160
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
8160
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
8161
8161
; RV64ZVE32F-NEXT: .LBB74_9: # %else14
8162
8162
; RV64ZVE32F-NEXT: andi a2, a1, 64
8163
8163
; RV64ZVE32F-NEXT: vsetivli zero, 2, e8, mf4, ta, ma
@@ -8200,8 +8200,8 @@ define <8 x float> @mgather_baseidx_v8i8_v8f32(ptr %base, <8 x i8> %idxs, <8 x i
8200
8200
; RV64ZVE32F-NEXT: add a2, a0, a2
8201
8201
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8202
8202
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
8203
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8204
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
8203
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8204
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
8205
8205
; RV64ZVE32F-NEXT: andi a2, a1, 32
8206
8206
; RV64ZVE32F-NEXT: bnez a2, .LBB74_8
8207
8207
; RV64ZVE32F-NEXT: j .LBB74_9
@@ -8305,9 +8305,9 @@ define <8 x float> @mgather_baseidx_sext_v8i8_v8f32(ptr %base, <8 x i8> %idxs, <
8305
8305
; RV64ZVE32F-NEXT: add a2, a0, a2
8306
8306
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8307
8307
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
8308
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8308
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8309
8309
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
8310
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
8310
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
8311
8311
; RV64ZVE32F-NEXT: .LBB75_9: # %else14
8312
8312
; RV64ZVE32F-NEXT: andi a2, a1, 64
8313
8313
; RV64ZVE32F-NEXT: vsetivli zero, 2, e8, mf4, ta, ma
@@ -8350,8 +8350,8 @@ define <8 x float> @mgather_baseidx_sext_v8i8_v8f32(ptr %base, <8 x i8> %idxs, <
8350
8350
; RV64ZVE32F-NEXT: add a2, a0, a2
8351
8351
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8352
8352
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
8353
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8354
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
8353
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8354
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
8355
8355
; RV64ZVE32F-NEXT: andi a2, a1, 32
8356
8356
; RV64ZVE32F-NEXT: bnez a2, .LBB75_8
8357
8357
; RV64ZVE32F-NEXT: j .LBB75_9
@@ -8460,9 +8460,9 @@ define <8 x float> @mgather_baseidx_zext_v8i8_v8f32(ptr %base, <8 x i8> %idxs, <
8460
8460
; RV64ZVE32F-NEXT: add a2, a0, a2
8461
8461
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8462
8462
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
8463
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8463
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8464
8464
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
8465
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
8465
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
8466
8466
; RV64ZVE32F-NEXT: .LBB76_9: # %else14
8467
8467
; RV64ZVE32F-NEXT: andi a2, a1, 64
8468
8468
; RV64ZVE32F-NEXT: vsetivli zero, 2, e8, mf4, ta, ma
@@ -8508,8 +8508,8 @@ define <8 x float> @mgather_baseidx_zext_v8i8_v8f32(ptr %base, <8 x i8> %idxs, <
8508
8508
; RV64ZVE32F-NEXT: add a2, a0, a2
8509
8509
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8510
8510
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
8511
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8512
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
8511
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8512
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
8513
8513
; RV64ZVE32F-NEXT: andi a2, a1, 32
8514
8514
; RV64ZVE32F-NEXT: bnez a2, .LBB76_8
8515
8515
; RV64ZVE32F-NEXT: j .LBB76_9
@@ -8617,9 +8617,9 @@ define <8 x float> @mgather_baseidx_v8i16_v8f32(ptr %base, <8 x i16> %idxs, <8 x
8617
8617
; RV64ZVE32F-NEXT: add a2, a0, a2
8618
8618
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8619
8619
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
8620
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8620
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8621
8621
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
8622
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
8622
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
8623
8623
; RV64ZVE32F-NEXT: .LBB77_9: # %else14
8624
8624
; RV64ZVE32F-NEXT: andi a2, a1, 64
8625
8625
; RV64ZVE32F-NEXT: vsetivli zero, 2, e16, mf2, ta, ma
@@ -8662,8 +8662,8 @@ define <8 x float> @mgather_baseidx_v8i16_v8f32(ptr %base, <8 x i16> %idxs, <8 x
8662
8662
; RV64ZVE32F-NEXT: add a2, a0, a2
8663
8663
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8664
8664
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
8665
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8666
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
8665
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8666
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
8667
8667
; RV64ZVE32F-NEXT: andi a2, a1, 32
8668
8668
; RV64ZVE32F-NEXT: bnez a2, .LBB77_8
8669
8669
; RV64ZVE32F-NEXT: j .LBB77_9
@@ -8768,9 +8768,9 @@ define <8 x float> @mgather_baseidx_sext_v8i16_v8f32(ptr %base, <8 x i16> %idxs,
8768
8768
; RV64ZVE32F-NEXT: add a2, a0, a2
8769
8769
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8770
8770
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
8771
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8771
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8772
8772
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
8773
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
8773
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
8774
8774
; RV64ZVE32F-NEXT: .LBB78_9: # %else14
8775
8775
; RV64ZVE32F-NEXT: andi a2, a1, 64
8776
8776
; RV64ZVE32F-NEXT: vsetivli zero, 2, e16, mf2, ta, ma
@@ -8813,8 +8813,8 @@ define <8 x float> @mgather_baseidx_sext_v8i16_v8f32(ptr %base, <8 x i16> %idxs,
8813
8813
; RV64ZVE32F-NEXT: add a2, a0, a2
8814
8814
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8815
8815
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
8816
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8817
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
8816
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8817
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
8818
8818
; RV64ZVE32F-NEXT: andi a2, a1, 32
8819
8819
; RV64ZVE32F-NEXT: bnez a2, .LBB78_8
8820
8820
; RV64ZVE32F-NEXT: j .LBB78_9
@@ -8924,9 +8924,9 @@ define <8 x float> @mgather_baseidx_zext_v8i16_v8f32(ptr %base, <8 x i16> %idxs,
8924
8924
; RV64ZVE32F-NEXT: add a3, a0, a3
8925
8925
; RV64ZVE32F-NEXT: flw fa5, 0(a3)
8926
8926
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
8927
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8927
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8928
8928
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
8929
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
8929
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
8930
8930
; RV64ZVE32F-NEXT: .LBB79_9: # %else14
8931
8931
; RV64ZVE32F-NEXT: andi a3, a2, 64
8932
8932
; RV64ZVE32F-NEXT: vsetivli zero, 2, e16, mf2, ta, ma
@@ -8972,8 +8972,8 @@ define <8 x float> @mgather_baseidx_zext_v8i16_v8f32(ptr %base, <8 x i16> %idxs,
8972
8972
; RV64ZVE32F-NEXT: add a3, a0, a3
8973
8973
; RV64ZVE32F-NEXT: flw fa5, 0(a3)
8974
8974
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
8975
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8976
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
8975
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8976
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
8977
8977
; RV64ZVE32F-NEXT: andi a3, a2, 32
8978
8978
; RV64ZVE32F-NEXT: bnez a3, .LBB79_8
8979
8979
; RV64ZVE32F-NEXT: j .LBB79_9
0 commit comments