@@ -2474,9 +2474,9 @@ define <8 x i32> @mgather_baseidx_v8i8_v8i32(ptr %base, <8 x i8> %idxs, <8 x i1>
2474
2474
; RV64ZVE32F-NEXT: add a2, a0, a2
2475
2475
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2476
2476
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
2477
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2477
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2478
2478
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
2479
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
2479
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
2480
2480
; RV64ZVE32F-NEXT: .LBB35_9: # %else14
2481
2481
; RV64ZVE32F-NEXT: vsetivli zero, 2, e8, mf4, ta, ma
2482
2482
; RV64ZVE32F-NEXT: andi a2, a1, 64
@@ -2519,8 +2519,8 @@ define <8 x i32> @mgather_baseidx_v8i8_v8i32(ptr %base, <8 x i8> %idxs, <8 x i1>
2519
2519
; RV64ZVE32F-NEXT: add a2, a0, a2
2520
2520
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2521
2521
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
2522
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2523
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
2522
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2523
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
2524
2524
; RV64ZVE32F-NEXT: andi a2, a1, 32
2525
2525
; RV64ZVE32F-NEXT: bnez a2, .LBB35_8
2526
2526
; RV64ZVE32F-NEXT: j .LBB35_9
@@ -2624,9 +2624,9 @@ define <8 x i32> @mgather_baseidx_sext_v8i8_v8i32(ptr %base, <8 x i8> %idxs, <8
2624
2624
; RV64ZVE32F-NEXT: add a2, a0, a2
2625
2625
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2626
2626
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
2627
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2627
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2628
2628
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
2629
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
2629
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
2630
2630
; RV64ZVE32F-NEXT: .LBB36_9: # %else14
2631
2631
; RV64ZVE32F-NEXT: vsetivli zero, 2, e8, mf4, ta, ma
2632
2632
; RV64ZVE32F-NEXT: andi a2, a1, 64
@@ -2669,8 +2669,8 @@ define <8 x i32> @mgather_baseidx_sext_v8i8_v8i32(ptr %base, <8 x i8> %idxs, <8
2669
2669
; RV64ZVE32F-NEXT: add a2, a0, a2
2670
2670
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2671
2671
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
2672
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2673
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
2672
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2673
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
2674
2674
; RV64ZVE32F-NEXT: andi a2, a1, 32
2675
2675
; RV64ZVE32F-NEXT: bnez a2, .LBB36_8
2676
2676
; RV64ZVE32F-NEXT: j .LBB36_9
@@ -2779,9 +2779,9 @@ define <8 x i32> @mgather_baseidx_zext_v8i8_v8i32(ptr %base, <8 x i8> %idxs, <8
2779
2779
; RV64ZVE32F-NEXT: add a2, a0, a2
2780
2780
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2781
2781
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
2782
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2782
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2783
2783
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
2784
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
2784
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
2785
2785
; RV64ZVE32F-NEXT: .LBB37_9: # %else14
2786
2786
; RV64ZVE32F-NEXT: vsetivli zero, 2, e8, mf4, ta, ma
2787
2787
; RV64ZVE32F-NEXT: andi a2, a1, 64
@@ -2827,8 +2827,8 @@ define <8 x i32> @mgather_baseidx_zext_v8i8_v8i32(ptr %base, <8 x i8> %idxs, <8
2827
2827
; RV64ZVE32F-NEXT: add a2, a0, a2
2828
2828
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2829
2829
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
2830
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2831
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
2830
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2831
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
2832
2832
; RV64ZVE32F-NEXT: andi a2, a1, 32
2833
2833
; RV64ZVE32F-NEXT: bnez a2, .LBB37_8
2834
2834
; RV64ZVE32F-NEXT: j .LBB37_9
@@ -2936,9 +2936,9 @@ define <8 x i32> @mgather_baseidx_v8i16_v8i32(ptr %base, <8 x i16> %idxs, <8 x i
2936
2936
; RV64ZVE32F-NEXT: add a2, a0, a2
2937
2937
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2938
2938
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
2939
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2939
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2940
2940
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
2941
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
2941
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
2942
2942
; RV64ZVE32F-NEXT: .LBB38_9: # %else14
2943
2943
; RV64ZVE32F-NEXT: vsetivli zero, 2, e16, mf2, ta, ma
2944
2944
; RV64ZVE32F-NEXT: andi a2, a1, 64
@@ -2981,8 +2981,8 @@ define <8 x i32> @mgather_baseidx_v8i16_v8i32(ptr %base, <8 x i16> %idxs, <8 x i
2981
2981
; RV64ZVE32F-NEXT: add a2, a0, a2
2982
2982
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2983
2983
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
2984
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2985
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
2984
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2985
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
2986
2986
; RV64ZVE32F-NEXT: andi a2, a1, 32
2987
2987
; RV64ZVE32F-NEXT: bnez a2, .LBB38_8
2988
2988
; RV64ZVE32F-NEXT: j .LBB38_9
@@ -3087,9 +3087,9 @@ define <8 x i32> @mgather_baseidx_sext_v8i16_v8i32(ptr %base, <8 x i16> %idxs, <
3087
3087
; RV64ZVE32F-NEXT: add a2, a0, a2
3088
3088
; RV64ZVE32F-NEXT: lw a2, 0(a2)
3089
3089
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
3090
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
3090
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
3091
3091
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
3092
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
3092
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
3093
3093
; RV64ZVE32F-NEXT: .LBB39_9: # %else14
3094
3094
; RV64ZVE32F-NEXT: vsetivli zero, 2, e16, mf2, ta, ma
3095
3095
; RV64ZVE32F-NEXT: andi a2, a1, 64
@@ -3132,8 +3132,8 @@ define <8 x i32> @mgather_baseidx_sext_v8i16_v8i32(ptr %base, <8 x i16> %idxs, <
3132
3132
; RV64ZVE32F-NEXT: add a2, a0, a2
3133
3133
; RV64ZVE32F-NEXT: lw a2, 0(a2)
3134
3134
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
3135
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
3136
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
3135
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
3136
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
3137
3137
; RV64ZVE32F-NEXT: andi a2, a1, 32
3138
3138
; RV64ZVE32F-NEXT: bnez a2, .LBB39_8
3139
3139
; RV64ZVE32F-NEXT: j .LBB39_9
@@ -3243,9 +3243,9 @@ define <8 x i32> @mgather_baseidx_zext_v8i16_v8i32(ptr %base, <8 x i16> %idxs, <
3243
3243
; RV64ZVE32F-NEXT: add a3, a0, a3
3244
3244
; RV64ZVE32F-NEXT: lw a3, 0(a3)
3245
3245
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
3246
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a3
3246
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a3
3247
3247
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
3248
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
3248
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
3249
3249
; RV64ZVE32F-NEXT: .LBB40_9: # %else14
3250
3250
; RV64ZVE32F-NEXT: vsetivli zero, 2, e16, mf2, ta, ma
3251
3251
; RV64ZVE32F-NEXT: andi a3, a2, 64
@@ -3291,8 +3291,8 @@ define <8 x i32> @mgather_baseidx_zext_v8i16_v8i32(ptr %base, <8 x i16> %idxs, <
3291
3291
; RV64ZVE32F-NEXT: add a3, a0, a3
3292
3292
; RV64ZVE32F-NEXT: lw a3, 0(a3)
3293
3293
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
3294
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a3
3295
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
3294
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a3
3295
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
3296
3296
; RV64ZVE32F-NEXT: andi a3, a2, 32
3297
3297
; RV64ZVE32F-NEXT: bnez a3, .LBB40_8
3298
3298
; RV64ZVE32F-NEXT: j .LBB40_9
@@ -8157,9 +8157,9 @@ define <8 x float> @mgather_baseidx_v8i8_v8f32(ptr %base, <8 x i8> %idxs, <8 x i
8157
8157
; RV64ZVE32F-NEXT: add a2, a0, a2
8158
8158
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8159
8159
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
8160
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8160
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8161
8161
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
8162
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
8162
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
8163
8163
; RV64ZVE32F-NEXT: .LBB74_9: # %else14
8164
8164
; RV64ZVE32F-NEXT: vsetivli zero, 2, e8, mf4, ta, ma
8165
8165
; RV64ZVE32F-NEXT: andi a2, a1, 64
@@ -8202,8 +8202,8 @@ define <8 x float> @mgather_baseidx_v8i8_v8f32(ptr %base, <8 x i8> %idxs, <8 x i
8202
8202
; RV64ZVE32F-NEXT: add a2, a0, a2
8203
8203
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8204
8204
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
8205
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8206
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
8205
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8206
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
8207
8207
; RV64ZVE32F-NEXT: andi a2, a1, 32
8208
8208
; RV64ZVE32F-NEXT: bnez a2, .LBB74_8
8209
8209
; RV64ZVE32F-NEXT: j .LBB74_9
@@ -8307,9 +8307,9 @@ define <8 x float> @mgather_baseidx_sext_v8i8_v8f32(ptr %base, <8 x i8> %idxs, <
8307
8307
; RV64ZVE32F-NEXT: add a2, a0, a2
8308
8308
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8309
8309
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
8310
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8310
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8311
8311
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
8312
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
8312
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
8313
8313
; RV64ZVE32F-NEXT: .LBB75_9: # %else14
8314
8314
; RV64ZVE32F-NEXT: vsetivli zero, 2, e8, mf4, ta, ma
8315
8315
; RV64ZVE32F-NEXT: andi a2, a1, 64
@@ -8352,8 +8352,8 @@ define <8 x float> @mgather_baseidx_sext_v8i8_v8f32(ptr %base, <8 x i8> %idxs, <
8352
8352
; RV64ZVE32F-NEXT: add a2, a0, a2
8353
8353
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8354
8354
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
8355
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8356
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
8355
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8356
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
8357
8357
; RV64ZVE32F-NEXT: andi a2, a1, 32
8358
8358
; RV64ZVE32F-NEXT: bnez a2, .LBB75_8
8359
8359
; RV64ZVE32F-NEXT: j .LBB75_9
@@ -8462,9 +8462,9 @@ define <8 x float> @mgather_baseidx_zext_v8i8_v8f32(ptr %base, <8 x i8> %idxs, <
8462
8462
; RV64ZVE32F-NEXT: add a2, a0, a2
8463
8463
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8464
8464
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
8465
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8465
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8466
8466
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
8467
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
8467
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
8468
8468
; RV64ZVE32F-NEXT: .LBB76_9: # %else14
8469
8469
; RV64ZVE32F-NEXT: vsetivli zero, 2, e8, mf4, ta, ma
8470
8470
; RV64ZVE32F-NEXT: andi a2, a1, 64
@@ -8510,8 +8510,8 @@ define <8 x float> @mgather_baseidx_zext_v8i8_v8f32(ptr %base, <8 x i8> %idxs, <
8510
8510
; RV64ZVE32F-NEXT: add a2, a0, a2
8511
8511
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8512
8512
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
8513
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8514
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
8513
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8514
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
8515
8515
; RV64ZVE32F-NEXT: andi a2, a1, 32
8516
8516
; RV64ZVE32F-NEXT: bnez a2, .LBB76_8
8517
8517
; RV64ZVE32F-NEXT: j .LBB76_9
@@ -8619,9 +8619,9 @@ define <8 x float> @mgather_baseidx_v8i16_v8f32(ptr %base, <8 x i16> %idxs, <8 x
8619
8619
; RV64ZVE32F-NEXT: add a2, a0, a2
8620
8620
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8621
8621
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
8622
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8622
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8623
8623
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
8624
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
8624
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
8625
8625
; RV64ZVE32F-NEXT: .LBB77_9: # %else14
8626
8626
; RV64ZVE32F-NEXT: vsetivli zero, 2, e16, mf2, ta, ma
8627
8627
; RV64ZVE32F-NEXT: andi a2, a1, 64
@@ -8664,8 +8664,8 @@ define <8 x float> @mgather_baseidx_v8i16_v8f32(ptr %base, <8 x i16> %idxs, <8 x
8664
8664
; RV64ZVE32F-NEXT: add a2, a0, a2
8665
8665
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8666
8666
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
8667
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8668
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
8667
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8668
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
8669
8669
; RV64ZVE32F-NEXT: andi a2, a1, 32
8670
8670
; RV64ZVE32F-NEXT: bnez a2, .LBB77_8
8671
8671
; RV64ZVE32F-NEXT: j .LBB77_9
@@ -8770,9 +8770,9 @@ define <8 x float> @mgather_baseidx_sext_v8i16_v8f32(ptr %base, <8 x i16> %idxs,
8770
8770
; RV64ZVE32F-NEXT: add a2, a0, a2
8771
8771
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8772
8772
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
8773
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8773
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8774
8774
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
8775
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
8775
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
8776
8776
; RV64ZVE32F-NEXT: .LBB78_9: # %else14
8777
8777
; RV64ZVE32F-NEXT: vsetivli zero, 2, e16, mf2, ta, ma
8778
8778
; RV64ZVE32F-NEXT: andi a2, a1, 64
@@ -8815,8 +8815,8 @@ define <8 x float> @mgather_baseidx_sext_v8i16_v8f32(ptr %base, <8 x i16> %idxs,
8815
8815
; RV64ZVE32F-NEXT: add a2, a0, a2
8816
8816
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8817
8817
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
8818
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8819
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
8818
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8819
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
8820
8820
; RV64ZVE32F-NEXT: andi a2, a1, 32
8821
8821
; RV64ZVE32F-NEXT: bnez a2, .LBB78_8
8822
8822
; RV64ZVE32F-NEXT: j .LBB78_9
@@ -8926,9 +8926,9 @@ define <8 x float> @mgather_baseidx_zext_v8i16_v8f32(ptr %base, <8 x i16> %idxs,
8926
8926
; RV64ZVE32F-NEXT: add a3, a0, a3
8927
8927
; RV64ZVE32F-NEXT: flw fa5, 0(a3)
8928
8928
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
8929
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8929
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8930
8930
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
8931
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
8931
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
8932
8932
; RV64ZVE32F-NEXT: .LBB79_9: # %else14
8933
8933
; RV64ZVE32F-NEXT: vsetivli zero, 2, e16, mf2, ta, ma
8934
8934
; RV64ZVE32F-NEXT: andi a3, a2, 64
@@ -8974,8 +8974,8 @@ define <8 x float> @mgather_baseidx_zext_v8i16_v8f32(ptr %base, <8 x i16> %idxs,
8974
8974
; RV64ZVE32F-NEXT: add a3, a0, a3
8975
8975
; RV64ZVE32F-NEXT: flw fa5, 0(a3)
8976
8976
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
8977
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8978
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
8977
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8978
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
8979
8979
; RV64ZVE32F-NEXT: andi a3, a2, 32
8980
8980
; RV64ZVE32F-NEXT: bnez a3, .LBB79_8
8981
8981
; RV64ZVE32F-NEXT: j .LBB79_9
0 commit comments