@@ -23,7 +23,7 @@ define void @test_compresstore_i8_v1(ptr %p, <1 x i1> %mask, <1 x i8> %data) {
23
23
; RV32-NEXT: vse8.v v9, (a0)
24
24
; RV32-NEXT: ret
25
25
entry:
26
- tail call void @llvm.masked.compressstore.v1i8(<1 x i8> %data, ptr %p, <1 x i1> %mask)
26
+ tail call void @llvm.masked.compressstore.v1i8(<1 x i8> %data, ptr align 1 %p, <1 x i1> %mask)
27
27
ret void
28
28
}
29
29
@@ -46,7 +46,7 @@ define void @test_compresstore_i8_v2(ptr %p, <2 x i1> %mask, <2 x i8> %data) {
46
46
; RV32-NEXT: vse8.v v9, (a0)
47
47
; RV32-NEXT: ret
48
48
entry:
49
- tail call void @llvm.masked.compressstore.v2i8(<2 x i8> %data, ptr %p, <2 x i1> %mask)
49
+ tail call void @llvm.masked.compressstore.v2i8(<2 x i8> %data, ptr align 1 %p, <2 x i1> %mask)
50
50
ret void
51
51
}
52
52
@@ -69,7 +69,7 @@ define void @test_compresstore_i8_v4(ptr %p, <4 x i1> %mask, <4 x i8> %data) {
69
69
; RV32-NEXT: vse8.v v9, (a0)
70
70
; RV32-NEXT: ret
71
71
entry:
72
- tail call void @llvm.masked.compressstore.v4i8(<4 x i8> %data, ptr %p, <4 x i1> %mask)
72
+ tail call void @llvm.masked.compressstore.v4i8(<4 x i8> %data, ptr align 1 %p, <4 x i1> %mask)
73
73
ret void
74
74
}
75
75
@@ -92,7 +92,7 @@ define void @test_compresstore_i8_v8(ptr %p, <8 x i1> %mask, <8 x i8> %data) {
92
92
; RV32-NEXT: vse8.v v9, (a0)
93
93
; RV32-NEXT: ret
94
94
entry:
95
- tail call void @llvm.masked.compressstore.v8i8(<8 x i8> %data, ptr %p, <8 x i1> %mask)
95
+ tail call void @llvm.masked.compressstore.v8i8(<8 x i8> %data, ptr align 1 %p, <8 x i1> %mask)
96
96
ret void
97
97
}
98
98
@@ -115,7 +115,7 @@ define void @test_compresstore_i8_v16(ptr %p, <16 x i1> %mask, <16 x i8> %data)
115
115
; RV32-NEXT: vse8.v v9, (a0)
116
116
; RV32-NEXT: ret
117
117
entry:
118
- tail call void @llvm.masked.compressstore.v16i8(<16 x i8> %data, ptr %p, <16 x i1> %mask)
118
+ tail call void @llvm.masked.compressstore.v16i8(<16 x i8> %data, ptr align 1 %p, <16 x i1> %mask)
119
119
ret void
120
120
}
121
121
@@ -140,7 +140,7 @@ define void @test_compresstore_i8_v32(ptr %p, <32 x i1> %mask, <32 x i8> %data)
140
140
; RV32-NEXT: vse8.v v10, (a0)
141
141
; RV32-NEXT: ret
142
142
entry:
143
- tail call void @llvm.masked.compressstore.v32i8(<32 x i8> %data, ptr %p, <32 x i1> %mask)
143
+ tail call void @llvm.masked.compressstore.v32i8(<32 x i8> %data, ptr align 1 %p, <32 x i1> %mask)
144
144
ret void
145
145
}
146
146
@@ -165,7 +165,7 @@ define void @test_compresstore_i8_v64(ptr %p, <64 x i1> %mask, <64 x i8> %data)
165
165
; RV32-NEXT: vse8.v v12, (a0)
166
166
; RV32-NEXT: ret
167
167
entry:
168
- tail call void @llvm.masked.compressstore.v64i8(<64 x i8> %data, ptr %p, <64 x i1> %mask)
168
+ tail call void @llvm.masked.compressstore.v64i8(<64 x i8> %data, ptr align 1 %p, <64 x i1> %mask)
169
169
ret void
170
170
}
171
171
@@ -190,7 +190,7 @@ define void @test_compresstore_i8_v128(ptr %p, <128 x i1> %mask, <128 x i8> %dat
190
190
; RV32-NEXT: vse8.v v16, (a0)
191
191
; RV32-NEXT: ret
192
192
entry:
193
- tail call void @llvm.masked.compressstore.v128i8(<128 x i8> %data, ptr %p, <128 x i1> %mask)
193
+ tail call void @llvm.masked.compressstore.v128i8(<128 x i8> %data, ptr align 1 %p, <128 x i1> %mask)
194
194
ret void
195
195
}
196
196
@@ -8604,7 +8604,7 @@ define void @test_compresstore_i8_v256(ptr %p, <256 x i1> %mask, <256 x i8> %dat
8604
8604
; RV32-NEXT: .LBB8_526: # %cond.store760
8605
8605
; RV32-NEXT: j .LBB8_283
8606
8606
entry:
8607
- tail call void @llvm.masked.compressstore.v256i8(<256 x i8> %data, ptr %p, <256 x i1> %mask)
8607
+ tail call void @llvm.masked.compressstore.v256i8(<256 x i8> %data, ptr align 1 %p, <256 x i1> %mask)
8608
8608
ret void
8609
8609
}
8610
8610
@@ -8629,7 +8629,7 @@ define void @test_compresstore_i16_v1(ptr %p, <1 x i1> %mask, <1 x i16> %data) {
8629
8629
; RV32-NEXT: vse16.v v9, (a0)
8630
8630
; RV32-NEXT: ret
8631
8631
entry:
8632
- tail call void @llvm.masked.compressstore.v1i16(<1 x i16> %data, ptr %p, <1 x i1> %mask)
8632
+ tail call void @llvm.masked.compressstore.v1i16(<1 x i16> %data, ptr align 2 %p, <1 x i1> %mask)
8633
8633
ret void
8634
8634
}
8635
8635
@@ -8652,7 +8652,7 @@ define void @test_compresstore_i16_v2(ptr %p, <2 x i1> %mask, <2 x i16> %data) {
8652
8652
; RV32-NEXT: vse16.v v9, (a0)
8653
8653
; RV32-NEXT: ret
8654
8654
entry:
8655
- tail call void @llvm.masked.compressstore.v2i16(<2 x i16> %data, ptr %p, <2 x i1> %mask)
8655
+ tail call void @llvm.masked.compressstore.v2i16(<2 x i16> %data, ptr align 2 %p, <2 x i1> %mask)
8656
8656
ret void
8657
8657
}
8658
8658
@@ -8675,7 +8675,7 @@ define void @test_compresstore_i16_v4(ptr %p, <4 x i1> %mask, <4 x i16> %data) {
8675
8675
; RV32-NEXT: vse16.v v9, (a0)
8676
8676
; RV32-NEXT: ret
8677
8677
entry:
8678
- tail call void @llvm.masked.compressstore.v4i16(<4 x i16> %data, ptr %p, <4 x i1> %mask)
8678
+ tail call void @llvm.masked.compressstore.v4i16(<4 x i16> %data, ptr align 2 %p, <4 x i1> %mask)
8679
8679
ret void
8680
8680
}
8681
8681
@@ -8698,7 +8698,7 @@ define void @test_compresstore_i16_v8(ptr %p, <8 x i1> %mask, <8 x i16> %data) {
8698
8698
; RV32-NEXT: vse16.v v9, (a0)
8699
8699
; RV32-NEXT: ret
8700
8700
entry:
8701
- tail call void @llvm.masked.compressstore.v8i16(<8 x i16> %data, ptr %p, <8 x i1> %mask)
8701
+ tail call void @llvm.masked.compressstore.v8i16(<8 x i16> %data, ptr align 2 %p, <8 x i1> %mask)
8702
8702
ret void
8703
8703
}
8704
8704
@@ -8721,7 +8721,7 @@ define void @test_compresstore_i16_v16(ptr %p, <16 x i1> %mask, <16 x i16> %data
8721
8721
; RV32-NEXT: vse16.v v10, (a0)
8722
8722
; RV32-NEXT: ret
8723
8723
entry:
8724
- tail call void @llvm.masked.compressstore.v16i16(<16 x i16> %data, ptr %p, <16 x i1> %mask)
8724
+ tail call void @llvm.masked.compressstore.v16i16(<16 x i16> %data, ptr align 2 %p, <16 x i1> %mask)
8725
8725
ret void
8726
8726
}
8727
8727
@@ -8746,7 +8746,7 @@ define void @test_compresstore_i16_v32(ptr %p, <32 x i1> %mask, <32 x i16> %data
8746
8746
; RV32-NEXT: vse16.v v12, (a0)
8747
8747
; RV32-NEXT: ret
8748
8748
entry:
8749
- tail call void @llvm.masked.compressstore.v32i16(<32 x i16> %data, ptr %p, <32 x i1> %mask)
8749
+ tail call void @llvm.masked.compressstore.v32i16(<32 x i16> %data, ptr align 2 %p, <32 x i1> %mask)
8750
8750
ret void
8751
8751
}
8752
8752
@@ -8771,7 +8771,7 @@ define void @test_compresstore_i16_v64(ptr %p, <64 x i1> %mask, <64 x i16> %data
8771
8771
; RV32-NEXT: vse16.v v16, (a0)
8772
8772
; RV32-NEXT: ret
8773
8773
entry:
8774
- tail call void @llvm.masked.compressstore.v64i16(<64 x i16> %data, ptr %p, <64 x i1> %mask)
8774
+ tail call void @llvm.masked.compressstore.v64i16(<64 x i16> %data, ptr align 2 %p, <64 x i1> %mask)
8775
8775
ret void
8776
8776
}
8777
8777
@@ -13007,7 +13007,7 @@ define void @test_compresstore_i16_v128(ptr %p, <128 x i1> %mask, <128 x i16> %d
13007
13007
; RV32-NEXT: .LBB16_258: # %cond.store376
13008
13008
; RV32-NEXT: j .LBB16_141
13009
13009
entry:
13010
- tail call void @llvm.masked.compressstore.v128i16(<128 x i16> %data, ptr %p, <128 x i1> %mask)
13010
+ tail call void @llvm.masked.compressstore.v128i16(<128 x i16> %data, ptr align 2 %p, <128 x i1> %mask)
13011
13011
ret void
13012
13012
}
13013
13013
@@ -13032,7 +13032,7 @@ define void @test_compresstore_i32_v1(ptr %p, <1 x i1> %mask, <1 x i32> %data) {
13032
13032
; RV32-NEXT: vse32.v v9, (a0)
13033
13033
; RV32-NEXT: ret
13034
13034
entry:
13035
- tail call void @llvm.masked.compressstore.v1i32(<1 x i32> %data, ptr %p, <1 x i1> %mask)
13035
+ tail call void @llvm.masked.compressstore.v1i32(<1 x i32> %data, ptr align 4 %p, <1 x i1> %mask)
13036
13036
ret void
13037
13037
}
13038
13038
@@ -13055,7 +13055,7 @@ define void @test_compresstore_i32_v2(ptr %p, <2 x i1> %mask, <2 x i32> %data) {
13055
13055
; RV32-NEXT: vse32.v v9, (a0)
13056
13056
; RV32-NEXT: ret
13057
13057
entry:
13058
- tail call void @llvm.masked.compressstore.v2i32(<2 x i32> %data, ptr %p, <2 x i1> %mask)
13058
+ tail call void @llvm.masked.compressstore.v2i32(<2 x i32> %data, ptr align 4 %p, <2 x i1> %mask)
13059
13059
ret void
13060
13060
}
13061
13061
@@ -13078,7 +13078,7 @@ define void @test_compresstore_i32_v4(ptr %p, <4 x i1> %mask, <4 x i32> %data) {
13078
13078
; RV32-NEXT: vse32.v v9, (a0)
13079
13079
; RV32-NEXT: ret
13080
13080
entry:
13081
- tail call void @llvm.masked.compressstore.v4i32(<4 x i32> %data, ptr %p, <4 x i1> %mask)
13081
+ tail call void @llvm.masked.compressstore.v4i32(<4 x i32> %data, ptr align 4 %p, <4 x i1> %mask)
13082
13082
ret void
13083
13083
}
13084
13084
@@ -13101,7 +13101,7 @@ define void @test_compresstore_i32_v8(ptr %p, <8 x i1> %mask, <8 x i32> %data) {
13101
13101
; RV32-NEXT: vse32.v v10, (a0)
13102
13102
; RV32-NEXT: ret
13103
13103
entry:
13104
- tail call void @llvm.masked.compressstore.v8i32(<8 x i32> %data, ptr %p, <8 x i1> %mask)
13104
+ tail call void @llvm.masked.compressstore.v8i32(<8 x i32> %data, ptr align 4 %p, <8 x i1> %mask)
13105
13105
ret void
13106
13106
}
13107
13107
@@ -13124,7 +13124,7 @@ define void @test_compresstore_i32_v16(ptr %p, <16 x i1> %mask, <16 x i32> %data
13124
13124
; RV32-NEXT: vse32.v v12, (a0)
13125
13125
; RV32-NEXT: ret
13126
13126
entry:
13127
- tail call void @llvm.masked.compressstore.v16i32(<16 x i32> %data, ptr %p, <16 x i1> %mask)
13127
+ tail call void @llvm.masked.compressstore.v16i32(<16 x i32> %data, ptr align 4 %p, <16 x i1> %mask)
13128
13128
ret void
13129
13129
}
13130
13130
@@ -13149,7 +13149,7 @@ define void @test_compresstore_i32_v32(ptr %p, <32 x i1> %mask, <32 x i32> %data
13149
13149
; RV32-NEXT: vse32.v v16, (a0)
13150
13150
; RV32-NEXT: ret
13151
13151
entry:
13152
- tail call void @llvm.masked.compressstore.v32i32(<32 x i32> %data, ptr %p, <32 x i1> %mask)
13152
+ tail call void @llvm.masked.compressstore.v32i32(<32 x i32> %data, ptr align 4 %p, <32 x i1> %mask)
13153
13153
ret void
13154
13154
}
13155
13155
@@ -15663,7 +15663,7 @@ define void @test_compresstore_i32_v64(ptr %p, <64 x i1> %mask, <64 x i32> %data
15663
15663
; RV32-NEXT: bltz a1, .LBB23_70
15664
15664
; RV32-NEXT: j .LBB23_71
15665
15665
entry:
15666
- tail call void @llvm.masked.compressstore.v64i32(<64 x i32> %data, ptr %p, <64 x i1> %mask)
15666
+ tail call void @llvm.masked.compressstore.v64i32(<64 x i32> %data, ptr align 4 %p, <64 x i1> %mask)
15667
15667
ret void
15668
15668
}
15669
15669
@@ -15688,7 +15688,7 @@ define void @test_compresstore_i64_v1(ptr %p, <1 x i1> %mask, <1 x i64> %data) {
15688
15688
; RV32-NEXT: vse64.v v9, (a0)
15689
15689
; RV32-NEXT: ret
15690
15690
entry:
15691
- tail call void @llvm.masked.compressstore.v1i64(<1 x i64> %data, ptr %p, <1 x i1> %mask)
15691
+ tail call void @llvm.masked.compressstore.v1i64(<1 x i64> %data, ptr align 8 %p, <1 x i1> %mask)
15692
15692
ret void
15693
15693
}
15694
15694
@@ -15711,7 +15711,7 @@ define void @test_compresstore_i64_v2(ptr %p, <2 x i1> %mask, <2 x i64> %data) {
15711
15711
; RV32-NEXT: vse64.v v9, (a0)
15712
15712
; RV32-NEXT: ret
15713
15713
entry:
15714
- tail call void @llvm.masked.compressstore.v2i64(<2 x i64> %data, ptr %p, <2 x i1> %mask)
15714
+ tail call void @llvm.masked.compressstore.v2i64(<2 x i64> %data, ptr align 8 %p, <2 x i1> %mask)
15715
15715
ret void
15716
15716
}
15717
15717
@@ -15734,7 +15734,7 @@ define void @test_compresstore_i64_v4(ptr %p, <4 x i1> %mask, <4 x i64> %data) {
15734
15734
; RV32-NEXT: vse64.v v10, (a0)
15735
15735
; RV32-NEXT: ret
15736
15736
entry:
15737
- tail call void @llvm.masked.compressstore.v4i64(<4 x i64> %data, ptr %p, <4 x i1> %mask)
15737
+ tail call void @llvm.masked.compressstore.v4i64(<4 x i64> %data, ptr align 8 %p, <4 x i1> %mask)
15738
15738
ret void
15739
15739
}
15740
15740
@@ -15757,7 +15757,7 @@ define void @test_compresstore_i64_v8(ptr %p, <8 x i1> %mask, <8 x i64> %data) {
15757
15757
; RV32-NEXT: vse64.v v12, (a0)
15758
15758
; RV32-NEXT: ret
15759
15759
entry:
15760
- tail call void @llvm.masked.compressstore.v8i64(<8 x i64> %data, ptr %p, <8 x i1> %mask)
15760
+ tail call void @llvm.masked.compressstore.v8i64(<8 x i64> %data, ptr align 8 %p, <8 x i1> %mask)
15761
15761
ret void
15762
15762
}
15763
15763
@@ -15780,7 +15780,7 @@ define void @test_compresstore_i64_v16(ptr %p, <16 x i1> %mask, <16 x i64> %data
15780
15780
; RV32-NEXT: vse64.v v16, (a0)
15781
15781
; RV32-NEXT: ret
15782
15782
entry:
15783
- tail call void @llvm.masked.compressstore.v16i64(<16 x i64> %data, ptr %p, <16 x i1> %mask)
15783
+ tail call void @llvm.masked.compressstore.v16i64(<16 x i64> %data, ptr align 8 %p, <16 x i1> %mask)
15784
15784
ret void
15785
15785
}
15786
15786
@@ -17499,7 +17499,7 @@ define void @test_compresstore_i64_v32(ptr %p, <32 x i1> %mask, <32 x i64> %data
17499
17499
; RV32-NEXT: sb a1, 5(a0)
17500
17500
; RV32-NEXT: ret
17501
17501
entry:
17502
- tail call void @llvm.masked.compressstore.v32i64(<32 x i64> %data, ptr %p, <32 x i1> %mask)
17502
+ tail call void @llvm.masked.compressstore.v32i64(<32 x i64> %data, ptr align 8 %p, <32 x i1> %mask)
17503
17503
ret void
17504
17504
}
17505
17505
@@ -17536,10 +17536,3 @@ declare void @llvm.masked.compressstore.v4i64(<4 x i64>, ptr, <4 x i1>)
17536
17536
declare void @llvm.masked.compressstore.v8i64(<8 x i64>, ptr, <8 x i1>)
17537
17537
declare void @llvm.masked.compressstore.v16i64(<16 x i64>, ptr, <16 x i1>)
17538
17538
declare void @llvm.masked.compressstore.v32i64(<32 x i64>, ptr, <32 x i1>)
17539
-
17540
- ;define void @test_compresstore_iYYYY_vXXXX(ptr %p, <XXXX x i1> %mask, <XXXX x iYYYY> %data) {
17541
- ;entry:
17542
- ; tail call void @llvm.masked.compressstore.vXXXXiYYYY(<XXXX x iYYYY> %data, ptr %p, <XXXX x i1> %mask)
17543
- ; ret void
17544
- ;}
17545
- ;declare void @llvm.masked.compressstore.vXXXXiYYYY(<XXXX x iYYYY>, ptr, <XXXX x i1>)
0 commit comments