@@ -138,42 +138,38 @@ llvm.func @arm_sme_load(%nxv1i1 : vector<[1]xi1>,
138
138
%nxv4i1 : vector <[4 ]xi1 >,
139
139
%nxv8i1 : vector <[8 ]xi1 >,
140
140
%nxv16i1 : vector <[16 ]xi1 >,
141
- %p8 : !llvm.ptr <i8 >,
142
- %p16 : !llvm.ptr <i16 >,
143
- %p32 : !llvm.ptr <i32 >,
144
- %p64 : !llvm.ptr <i64 >,
145
- %p128 : !llvm.ptr <i128 >) {
141
+ %ptr : !llvm.ptr ) {
146
142
%c0 = llvm.mlir.constant (0 : index ) : i32
147
143
// CHECK: call void @llvm.aarch64.sme.ld1q.horiz
148
- " arm_sme.intr.ld1q.horiz" (%nxv1i1 , %p128 , %c0 , %c0 ) :
149
- (vector <[1 ]xi1 >, !llvm.ptr < i128 > , i32 , i32 ) -> ()
144
+ " arm_sme.intr.ld1q.horiz" (%nxv1i1 , %ptr , %c0 , %c0 ) :
145
+ (vector <[1 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
150
146
// CHECK: call void @llvm.aarch64.sme.ld1d.horiz
151
- " arm_sme.intr.ld1d.horiz" (%nxv2i1 , %p64 , %c0 , %c0 ) :
152
- (vector <[2 ]xi1 >, !llvm.ptr < i64 > , i32 , i32 ) -> ()
147
+ " arm_sme.intr.ld1d.horiz" (%nxv2i1 , %ptr , %c0 , %c0 ) :
148
+ (vector <[2 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
153
149
// CHECK: call void @llvm.aarch64.sme.ld1w.horiz
154
- " arm_sme.intr.ld1w.horiz" (%nxv4i1 , %p32 , %c0 , %c0 ) :
155
- (vector <[4 ]xi1 >, !llvm.ptr < i32 > , i32 , i32 ) -> ()
150
+ " arm_sme.intr.ld1w.horiz" (%nxv4i1 , %ptr , %c0 , %c0 ) :
151
+ (vector <[4 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
156
152
// CHECK: call void @llvm.aarch64.sme.ld1h.horiz
157
- " arm_sme.intr.ld1h.horiz" (%nxv8i1 , %p16 , %c0 , %c0 ) :
158
- (vector <[8 ]xi1 >, !llvm.ptr < i16 > , i32 , i32 ) -> ()
153
+ " arm_sme.intr.ld1h.horiz" (%nxv8i1 , %ptr , %c0 , %c0 ) :
154
+ (vector <[8 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
159
155
// CHECK: call void @llvm.aarch64.sme.ld1b.horiz
160
- " arm_sme.intr.ld1b.horiz" (%nxv16i1 , %p8 , %c0 , %c0 ) :
161
- (vector <[16 ]xi1 >, !llvm.ptr < i8 > , i32 , i32 ) -> ()
156
+ " arm_sme.intr.ld1b.horiz" (%nxv16i1 , %ptr , %c0 , %c0 ) :
157
+ (vector <[16 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
162
158
// CHECK: call void @llvm.aarch64.sme.ld1q.vert
163
- " arm_sme.intr.ld1q.vert" (%nxv1i1 , %p128 , %c0 , %c0 ) :
164
- (vector <[1 ]xi1 >, !llvm.ptr < i128 > , i32 , i32 ) -> ()
159
+ " arm_sme.intr.ld1q.vert" (%nxv1i1 , %ptr , %c0 , %c0 ) :
160
+ (vector <[1 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
165
161
// CHECK: call void @llvm.aarch64.sme.ld1d.vert
166
- " arm_sme.intr.ld1d.vert" (%nxv2i1 , %p64 , %c0 , %c0 ) :
167
- (vector <[2 ]xi1 >, !llvm.ptr < i64 > , i32 , i32 ) -> ()
162
+ " arm_sme.intr.ld1d.vert" (%nxv2i1 , %ptr , %c0 , %c0 ) :
163
+ (vector <[2 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
168
164
// CHECK: call void @llvm.aarch64.sme.ld1w.vert
169
- " arm_sme.intr.ld1w.vert" (%nxv4i1 , %p32 , %c0 , %c0 ) :
170
- (vector <[4 ]xi1 >, !llvm.ptr < i32 > , i32 , i32 ) -> ()
165
+ " arm_sme.intr.ld1w.vert" (%nxv4i1 , %ptr , %c0 , %c0 ) :
166
+ (vector <[4 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
171
167
// CHECK: call void @llvm.aarch64.sme.ld1h.vert
172
- " arm_sme.intr.ld1h.vert" (%nxv8i1 , %p16 , %c0 , %c0 ) :
173
- (vector <[8 ]xi1 >, !llvm.ptr < i16 > , i32 , i32 ) -> ()
168
+ " arm_sme.intr.ld1h.vert" (%nxv8i1 , %ptr , %c0 , %c0 ) :
169
+ (vector <[8 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
174
170
// CHECK: call void @llvm.aarch64.sme.ld1b.vert
175
- " arm_sme.intr.ld1b.vert" (%nxv16i1 , %p8 , %c0 , %c0 ) :
176
- (vector <[16 ]xi1 >, !llvm.ptr < i8 > , i32 , i32 ) -> ()
171
+ " arm_sme.intr.ld1b.vert" (%nxv16i1 , %ptr , %c0 , %c0 ) :
172
+ (vector <[16 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
177
173
llvm.return
178
174
}
179
175
@@ -185,44 +181,40 @@ llvm.func @arm_sme_store(%nxv1i1 : vector<[1]xi1>,
185
181
%nxv4i1 : vector <[4 ]xi1 >,
186
182
%nxv8i1 : vector <[8 ]xi1 >,
187
183
%nxv16i1 : vector <[16 ]xi1 >,
188
- %p8 : !llvm.ptr <i8 >,
189
- %p16 : !llvm.ptr <i16 >,
190
- %p32 : !llvm.ptr <i32 >,
191
- %p64 : !llvm.ptr <i64 >,
192
- %p128 : !llvm.ptr <i128 >) {
184
+ %ptr : !llvm.ptr ) {
193
185
%c0 = llvm.mlir.constant (0 : index ) : i32
194
186
// CHECK: call void @llvm.aarch64.sme.st1q.horiz
195
- " arm_sme.intr.st1q.horiz" (%nxv1i1 , %p128 , %c0 , %c0 ) :
196
- (vector <[1 ]xi1 >, !llvm.ptr < i128 > , i32 , i32 ) -> ()
187
+ " arm_sme.intr.st1q.horiz" (%nxv1i1 , %ptr , %c0 , %c0 ) :
188
+ (vector <[1 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
197
189
// CHECK: call void @llvm.aarch64.sme.st1d.horiz
198
- " arm_sme.intr.st1d.horiz" (%nxv2i1 , %p64 , %c0 , %c0 ) :
199
- (vector <[2 ]xi1 >, !llvm.ptr < i64 > , i32 , i32 ) -> ()
190
+ " arm_sme.intr.st1d.horiz" (%nxv2i1 , %ptr , %c0 , %c0 ) :
191
+ (vector <[2 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
200
192
// CHECK: call void @llvm.aarch64.sme.st1w.horiz
201
- " arm_sme.intr.st1w.horiz" (%nxv4i1 , %p32 , %c0 , %c0 ) :
202
- (vector <[4 ]xi1 >, !llvm.ptr < i32 > , i32 , i32 ) -> ()
193
+ " arm_sme.intr.st1w.horiz" (%nxv4i1 , %ptr , %c0 , %c0 ) :
194
+ (vector <[4 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
203
195
// CHECK: call void @llvm.aarch64.sme.st1h.horiz
204
- " arm_sme.intr.st1h.horiz" (%nxv8i1 , %p16 , %c0 , %c0 ) :
205
- (vector <[8 ]xi1 >, !llvm.ptr < i16 > , i32 , i32 ) -> ()
196
+ " arm_sme.intr.st1h.horiz" (%nxv8i1 , %ptr , %c0 , %c0 ) :
197
+ (vector <[8 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
206
198
// CHECK: call void @llvm.aarch64.sme.st1b.horiz
207
- " arm_sme.intr.st1b.horiz" (%nxv16i1 , %p8 , %c0 , %c0 ) :
208
- (vector <[16 ]xi1 >, !llvm.ptr < i8 > , i32 , i32 ) -> ()
199
+ " arm_sme.intr.st1b.horiz" (%nxv16i1 , %ptr , %c0 , %c0 ) :
200
+ (vector <[16 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
209
201
// CHECK: call void @llvm.aarch64.sme.st1q.vert
210
- " arm_sme.intr.st1q.vert" (%nxv1i1 , %p128 , %c0 , %c0 ) :
211
- (vector <[1 ]xi1 >, !llvm.ptr < i128 > , i32 , i32 ) -> ()
202
+ " arm_sme.intr.st1q.vert" (%nxv1i1 , %ptr , %c0 , %c0 ) :
203
+ (vector <[1 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
212
204
// CHECK: call void @llvm.aarch64.sme.st1d.vert
213
- " arm_sme.intr.st1d.vert" (%nxv2i1 , %p64 , %c0 , %c0 ) :
214
- (vector <[2 ]xi1 >, !llvm.ptr < i64 > , i32 , i32 ) -> ()
205
+ " arm_sme.intr.st1d.vert" (%nxv2i1 , %ptr , %c0 , %c0 ) :
206
+ (vector <[2 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
215
207
// CHECK: call void @llvm.aarch64.sme.st1w.vert
216
- " arm_sme.intr.st1w.vert" (%nxv4i1 , %p32 , %c0 , %c0 ) :
217
- (vector <[4 ]xi1 >, !llvm.ptr < i32 > , i32 , i32 ) -> ()
208
+ " arm_sme.intr.st1w.vert" (%nxv4i1 , %ptr , %c0 , %c0 ) :
209
+ (vector <[4 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
218
210
// CHECK: call void @llvm.aarch64.sme.st1h.vert
219
- " arm_sme.intr.st1h.vert" (%nxv8i1 , %p16 , %c0 , %c0 ) :
220
- (vector <[8 ]xi1 >, !llvm.ptr < i16 > , i32 , i32 ) -> ()
211
+ " arm_sme.intr.st1h.vert" (%nxv8i1 , %ptr , %c0 , %c0 ) :
212
+ (vector <[8 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
221
213
// CHECK: call void @llvm.aarch64.sme.st1b.vert
222
- " arm_sme.intr.st1b.vert" (%nxv16i1 , %p8 , %c0 , %c0 ) :
223
- (vector <[16 ]xi1 >, !llvm.ptr < i8 > , i32 , i32 ) -> ()
214
+ " arm_sme.intr.st1b.vert" (%nxv16i1 , %ptr , %c0 , %c0 ) :
215
+ (vector <[16 ]xi1 >, !llvm.ptr , i32 , i32 ) -> ()
224
216
// CHECK: call void @llvm.aarch64.sme.str
225
- " arm_sme.intr.str" (%c0 , %p8 ) : (i32 , !llvm.ptr < i8 > ) -> ()
217
+ " arm_sme.intr.str" (%c0 , %ptr ) : (i32 , !llvm.ptr ) -> ()
226
218
llvm.return
227
219
}
228
220
0 commit comments