-
Notifications
You must be signed in to change notification settings - Fork 14.4k
[CodeGen] Add <4096 x i32> value type #143417
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Merged
Merged
Conversation
This file contains hidden or bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Similar to llvm#139294; just realized we need this as well.
@llvm/pr-subscribers-llvm-ir Author: Chenguang Wang (wecing) ChangesSimilar to #139294; just realized we need this as well. Patch is 26.53 KiB, truncated to 20.00 KiB below, full version: https://github.com/llvm/llvm-project/pull/143417.diff 2 Files Affected:
diff --git a/llvm/include/llvm/CodeGen/ValueTypes.td b/llvm/include/llvm/CodeGen/ValueTypes.td
index 1e9632357edd0..4551e7e4b9b60 100644
--- a/llvm/include/llvm/CodeGen/ValueTypes.td
+++ b/llvm/include/llvm/CodeGen/ValueTypes.td
@@ -155,194 +155,195 @@ def v256i32 : VTVec<256, i32, 75>; // 256 x i32 vector value
def v512i32 : VTVec<512, i32, 76>; // 512 x i32 vector value
def v1024i32 : VTVec<1024, i32, 77>; // 1024 x i32 vector value
def v2048i32 : VTVec<2048, i32, 78>; // 2048 x i32 vector value
-
-def v1i64 : VTVec<1, i64, 79>; // 1 x i64 vector value
-def v2i64 : VTVec<2, i64, 80>; // 2 x i64 vector value
-def v3i64 : VTVec<3, i64, 81>; // 3 x i64 vector value
-def v4i64 : VTVec<4, i64, 82>; // 4 x i64 vector value
-def v8i64 : VTVec<8, i64, 83>; // 8 x i64 vector value
-def v16i64 : VTVec<16, i64, 84>; // 16 x i64 vector value
-def v32i64 : VTVec<32, i64, 85>; // 32 x i64 vector value
-def v64i64 : VTVec<64, i64, 86>; // 64 x i64 vector value
-def v128i64 : VTVec<128, i64, 87>; // 128 x i64 vector value
-def v256i64 : VTVec<256, i64, 88>; // 256 x i64 vector value
-
-def v1i128 : VTVec<1, i128, 89>; // 1 x i128 vector value
-
-def v1f16 : VTVec<1, f16, 90>; // 1 x f16 vector value
-def v2f16 : VTVec<2, f16, 91>; // 2 x f16 vector value
-def v3f16 : VTVec<3, f16, 92>; // 3 x f16 vector value
-def v4f16 : VTVec<4, f16, 93>; // 4 x f16 vector value
-def v8f16 : VTVec<8, f16, 94>; // 8 x f16 vector value
-def v16f16 : VTVec<16, f16, 95>; // 16 x f16 vector value
-def v32f16 : VTVec<32, f16, 96>; // 32 x f16 vector value
-def v64f16 : VTVec<64, f16, 97>; // 64 x f16 vector value
-def v128f16 : VTVec<128, f16, 98>; // 128 x f16 vector value
-def v256f16 : VTVec<256, f16, 99>; // 256 x f16 vector value
-def v512f16 : VTVec<512, f16, 100>; // 512 x f16 vector value
-def v4096f16 : VTVec<4096, f16, 101>; // 4096 x f16 vector value
-
-def v1bf16 : VTVec<1, bf16, 102>; // 1 x bf16 vector value
-def v2bf16 : VTVec<2, bf16, 103>; // 2 x bf16 vector value
-def v3bf16 : VTVec<3, bf16, 104>; // 3 x bf16 vector value
-def v4bf16 : VTVec<4, bf16, 105>; // 4 x bf16 vector value
-def v8bf16 : VTVec<8, bf16, 106>; // 8 x bf16 vector value
-def v16bf16 : VTVec<16, bf16, 107>; // 16 x bf16 vector value
-def v32bf16 : VTVec<32, bf16, 108>; // 32 x bf16 vector value
-def v64bf16 : VTVec<64, bf16, 109>; // 64 x bf16 vector value
-def v128bf16 : VTVec<128, bf16, 110>; // 128 x bf16 vector value
-def v4096bf16 : VTVec<4096, bf16, 111>; // 4096 x bf16 vector value
-
-def v1f32 : VTVec<1, f32, 112>; // 1 x f32 vector value
-def v2f32 : VTVec<2, f32, 113>; // 2 x f32 vector value
-def v3f32 : VTVec<3, f32, 114>; // 3 x f32 vector value
-def v4f32 : VTVec<4, f32, 115>; // 4 x f32 vector value
-def v5f32 : VTVec<5, f32, 116>; // 5 x f32 vector value
-def v6f32 : VTVec<6, f32, 117>; // 6 x f32 vector value
-def v7f32 : VTVec<7, f32, 118>; // 7 x f32 vector value
-def v8f32 : VTVec<8, f32, 119>; // 8 x f32 vector value
-def v9f32 : VTVec<9, f32, 120>; // 9 x f32 vector value
-def v10f32 : VTVec<10, f32, 121>; // 10 x f32 vector value
-def v11f32 : VTVec<11, f32, 122>; // 11 x f32 vector value
-def v12f32 : VTVec<12, f32, 123>; // 12 x f32 vector value
-def v16f32 : VTVec<16, f32, 124>; // 16 x f32 vector value
-def v32f32 : VTVec<32, f32, 125>; // 32 x f32 vector value
-def v64f32 : VTVec<64, f32, 126>; // 64 x f32 vector value
-def v128f32 : VTVec<128, f32, 127>; // 128 x f32 vector value
-def v256f32 : VTVec<256, f32, 128>; // 256 x f32 vector value
-def v512f32 : VTVec<512, f32, 129>; // 512 x f32 vector value
-def v1024f32 : VTVec<1024, f32, 130>; // 1024 x f32 vector value
-def v2048f32 : VTVec<2048, f32, 131>; // 2048 x f32 vector value
-
-def v1f64 : VTVec<1, f64, 132>; // 1 x f64 vector value
-def v2f64 : VTVec<2, f64, 133>; // 2 x f64 vector value
-def v3f64 : VTVec<3, f64, 134>; // 3 x f64 vector value
-def v4f64 : VTVec<4, f64, 135>; // 4 x f64 vector value
-def v8f64 : VTVec<8, f64, 136>; // 8 x f64 vector value
-def v16f64 : VTVec<16, f64, 137>; // 16 x f64 vector value
-def v32f64 : VTVec<32, f64, 138>; // 32 x f64 vector value
-def v64f64 : VTVec<64, f64, 139>; // 64 x f64 vector value
-def v128f64 : VTVec<128, f64, 140>; // 128 x f64 vector value
-def v256f64 : VTVec<256, f64, 141>; // 256 x f64 vector value
-
-def nxv1i1 : VTScalableVec<1, i1, 142>; // n x 1 x i1 vector value
-def nxv2i1 : VTScalableVec<2, i1, 143>; // n x 2 x i1 vector value
-def nxv4i1 : VTScalableVec<4, i1, 144>; // n x 4 x i1 vector value
-def nxv8i1 : VTScalableVec<8, i1, 145>; // n x 8 x i1 vector value
-def nxv16i1 : VTScalableVec<16, i1, 146>; // n x 16 x i1 vector value
-def nxv32i1 : VTScalableVec<32, i1, 147>; // n x 32 x i1 vector value
-def nxv64i1 : VTScalableVec<64, i1, 148>; // n x 64 x i1 vector value
-
-def nxv1i8 : VTScalableVec<1, i8, 149>; // n x 1 x i8 vector value
-def nxv2i8 : VTScalableVec<2, i8, 150>; // n x 2 x i8 vector value
-def nxv4i8 : VTScalableVec<4, i8, 151>; // n x 4 x i8 vector value
-def nxv8i8 : VTScalableVec<8, i8, 152>; // n x 8 x i8 vector value
-def nxv16i8 : VTScalableVec<16, i8, 153>; // n x 16 x i8 vector value
-def nxv32i8 : VTScalableVec<32, i8, 154>; // n x 32 x i8 vector value
-def nxv64i8 : VTScalableVec<64, i8, 155>; // n x 64 x i8 vector value
-
-def nxv1i16 : VTScalableVec<1, i16, 156>; // n x 1 x i16 vector value
-def nxv2i16 : VTScalableVec<2, i16, 157>; // n x 2 x i16 vector value
-def nxv4i16 : VTScalableVec<4, i16, 158>; // n x 4 x i16 vector value
-def nxv8i16 : VTScalableVec<8, i16, 159>; // n x 8 x i16 vector value
-def nxv16i16 : VTScalableVec<16, i16, 160>; // n x 16 x i16 vector value
-def nxv32i16 : VTScalableVec<32, i16, 161>; // n x 32 x i16 vector value
-
-def nxv1i32 : VTScalableVec<1, i32, 162>; // n x 1 x i32 vector value
-def nxv2i32 : VTScalableVec<2, i32, 163>; // n x 2 x i32 vector value
-def nxv4i32 : VTScalableVec<4, i32, 164>; // n x 4 x i32 vector value
-def nxv8i32 : VTScalableVec<8, i32, 165>; // n x 8 x i32 vector value
-def nxv16i32 : VTScalableVec<16, i32, 166>; // n x 16 x i32 vector value
-def nxv32i32 : VTScalableVec<32, i32, 167>; // n x 32 x i32 vector value
-
-def nxv1i64 : VTScalableVec<1, i64, 168>; // n x 1 x i64 vector value
-def nxv2i64 : VTScalableVec<2, i64, 169>; // n x 2 x i64 vector value
-def nxv4i64 : VTScalableVec<4, i64, 170>; // n x 4 x i64 vector value
-def nxv8i64 : VTScalableVec<8, i64, 171>; // n x 8 x i64 vector value
-def nxv16i64 : VTScalableVec<16, i64, 172>; // n x 16 x i64 vector value
-def nxv32i64 : VTScalableVec<32, i64, 173>; // n x 32 x i64 vector value
-
-def nxv1f16 : VTScalableVec<1, f16, 174>; // n x 1 x f16 vector value
-def nxv2f16 : VTScalableVec<2, f16, 175>; // n x 2 x f16 vector value
-def nxv4f16 : VTScalableVec<4, f16, 176>; // n x 4 x f16 vector value
-def nxv8f16 : VTScalableVec<8, f16, 177>; // n x 8 x f16 vector value
-def nxv16f16 : VTScalableVec<16, f16, 178>; // n x 16 x f16 vector value
-def nxv32f16 : VTScalableVec<32, f16, 179>; // n x 32 x f16 vector value
-
-def nxv1bf16 : VTScalableVec<1, bf16, 180>; // n x 1 x bf16 vector value
-def nxv2bf16 : VTScalableVec<2, bf16, 181>; // n x 2 x bf16 vector value
-def nxv4bf16 : VTScalableVec<4, bf16, 182>; // n x 4 x bf16 vector value
-def nxv8bf16 : VTScalableVec<8, bf16, 183>; // n x 8 x bf16 vector value
-def nxv16bf16 : VTScalableVec<16, bf16, 184>; // n x 16 x bf16 vector value
-def nxv32bf16 : VTScalableVec<32, bf16, 185>; // n x 32 x bf16 vector value
-
-def nxv1f32 : VTScalableVec<1, f32, 186>; // n x 1 x f32 vector value
-def nxv2f32 : VTScalableVec<2, f32, 187>; // n x 2 x f32 vector value
-def nxv4f32 : VTScalableVec<4, f32, 188>; // n x 4 x f32 vector value
-def nxv8f32 : VTScalableVec<8, f32, 189>; // n x 8 x f32 vector value
-def nxv16f32 : VTScalableVec<16, f32, 190>; // n x 16 x f32 vector value
-
-def nxv1f64 : VTScalableVec<1, f64, 191>; // n x 1 x f64 vector value
-def nxv2f64 : VTScalableVec<2, f64, 192>; // n x 2 x f64 vector value
-def nxv4f64 : VTScalableVec<4, f64, 193>; // n x 4 x f64 vector value
-def nxv8f64 : VTScalableVec<8, f64, 194>; // n x 8 x f64 vector value
+def v4096i32 : VTVec<4096, i32, 79>; // 4096 x i32 vector value
+
+def v1i64 : VTVec<1, i64, 80>; // 1 x i64 vector value
+def v2i64 : VTVec<2, i64, 81>; // 2 x i64 vector value
+def v3i64 : VTVec<3, i64, 82>; // 3 x i64 vector value
+def v4i64 : VTVec<4, i64, 83>; // 4 x i64 vector value
+def v8i64 : VTVec<8, i64, 84>; // 8 x i64 vector value
+def v16i64 : VTVec<16, i64, 85>; // 16 x i64 vector value
+def v32i64 : VTVec<32, i64, 86>; // 32 x i64 vector value
+def v64i64 : VTVec<64, i64, 87>; // 64 x i64 vector value
+def v128i64 : VTVec<128, i64, 88>; // 128 x i64 vector value
+def v256i64 : VTVec<256, i64, 89>; // 256 x i64 vector value
+
+def v1i128 : VTVec<1, i128, 90>; // 1 x i128 vector value
+
+def v1f16 : VTVec<1, f16, 91>; // 1 x f16 vector value
+def v2f16 : VTVec<2, f16, 92>; // 2 x f16 vector value
+def v3f16 : VTVec<3, f16, 93>; // 3 x f16 vector value
+def v4f16 : VTVec<4, f16, 94>; // 4 x f16 vector value
+def v8f16 : VTVec<8, f16, 95>; // 8 x f16 vector value
+def v16f16 : VTVec<16, f16, 96>; // 16 x f16 vector value
+def v32f16 : VTVec<32, f16, 97>; // 32 x f16 vector value
+def v64f16 : VTVec<64, f16, 98>; // 64 x f16 vector value
+def v128f16 : VTVec<128, f16, 99>; // 128 x f16 vector value
+def v256f16 : VTVec<256, f16, 100>; // 256 x f16 vector value
+def v512f16 : VTVec<512, f16, 101>; // 512 x f16 vector value
+def v4096f16 : VTVec<4096, f16, 102>; // 4096 x f16 vector value
+
+def v1bf16 : VTVec<1, bf16, 103>; // 1 x bf16 vector value
+def v2bf16 : VTVec<2, bf16, 104>; // 2 x bf16 vector value
+def v3bf16 : VTVec<3, bf16, 105>; // 3 x bf16 vector value
+def v4bf16 : VTVec<4, bf16, 106>; // 4 x bf16 vector value
+def v8bf16 : VTVec<8, bf16, 107>; // 8 x bf16 vector value
+def v16bf16 : VTVec<16, bf16, 108>; // 16 x bf16 vector value
+def v32bf16 : VTVec<32, bf16, 109>; // 32 x bf16 vector value
+def v64bf16 : VTVec<64, bf16, 110>; // 64 x bf16 vector value
+def v128bf16 : VTVec<128, bf16, 111>; // 128 x bf16 vector value
+def v4096bf16 : VTVec<4096, bf16, 112>; // 4096 x bf16 vector value
+
+def v1f32 : VTVec<1, f32, 113>; // 1 x f32 vector value
+def v2f32 : VTVec<2, f32, 114>; // 2 x f32 vector value
+def v3f32 : VTVec<3, f32, 115>; // 3 x f32 vector value
+def v4f32 : VTVec<4, f32, 116>; // 4 x f32 vector value
+def v5f32 : VTVec<5, f32, 117>; // 5 x f32 vector value
+def v6f32 : VTVec<6, f32, 118>; // 6 x f32 vector value
+def v7f32 : VTVec<7, f32, 119>; // 7 x f32 vector value
+def v8f32 : VTVec<8, f32, 120>; // 8 x f32 vector value
+def v9f32 : VTVec<9, f32, 121>; // 9 x f32 vector value
+def v10f32 : VTVec<10, f32, 122>; // 10 x f32 vector value
+def v11f32 : VTVec<11, f32, 123>; // 11 x f32 vector value
+def v12f32 : VTVec<12, f32, 124>; // 12 x f32 vector value
+def v16f32 : VTVec<16, f32, 125>; // 16 x f32 vector value
+def v32f32 : VTVec<32, f32, 126>; // 32 x f32 vector value
+def v64f32 : VTVec<64, f32, 127>; // 64 x f32 vector value
+def v128f32 : VTVec<128, f32, 128>; // 128 x f32 vector value
+def v256f32 : VTVec<256, f32, 129>; // 256 x f32 vector value
+def v512f32 : VTVec<512, f32, 130>; // 512 x f32 vector value
+def v1024f32 : VTVec<1024, f32, 131>; // 1024 x f32 vector value
+def v2048f32 : VTVec<2048, f32, 132>; // 2048 x f32 vector value
+
+def v1f64 : VTVec<1, f64, 133>; // 1 x f64 vector value
+def v2f64 : VTVec<2, f64, 134>; // 2 x f64 vector value
+def v3f64 : VTVec<3, f64, 135>; // 3 x f64 vector value
+def v4f64 : VTVec<4, f64, 136>; // 4 x f64 vector value
+def v8f64 : VTVec<8, f64, 137>; // 8 x f64 vector value
+def v16f64 : VTVec<16, f64, 138>; // 16 x f64 vector value
+def v32f64 : VTVec<32, f64, 139>; // 32 x f64 vector value
+def v64f64 : VTVec<64, f64, 140>; // 64 x f64 vector value
+def v128f64 : VTVec<128, f64, 141>; // 128 x f64 vector value
+def v256f64 : VTVec<256, f64, 142>; // 256 x f64 vector value
+
+def nxv1i1 : VTScalableVec<1, i1, 143>; // n x 1 x i1 vector value
+def nxv2i1 : VTScalableVec<2, i1, 144>; // n x 2 x i1 vector value
+def nxv4i1 : VTScalableVec<4, i1, 145>; // n x 4 x i1 vector value
+def nxv8i1 : VTScalableVec<8, i1, 146>; // n x 8 x i1 vector value
+def nxv16i1 : VTScalableVec<16, i1, 147>; // n x 16 x i1 vector value
+def nxv32i1 : VTScalableVec<32, i1, 148>; // n x 32 x i1 vector value
+def nxv64i1 : VTScalableVec<64, i1, 149>; // n x 64 x i1 vector value
+
+def nxv1i8 : VTScalableVec<1, i8, 150>; // n x 1 x i8 vector value
+def nxv2i8 : VTScalableVec<2, i8, 151>; // n x 2 x i8 vector value
+def nxv4i8 : VTScalableVec<4, i8, 152>; // n x 4 x i8 vector value
+def nxv8i8 : VTScalableVec<8, i8, 153>; // n x 8 x i8 vector value
+def nxv16i8 : VTScalableVec<16, i8, 154>; // n x 16 x i8 vector value
+def nxv32i8 : VTScalableVec<32, i8, 155>; // n x 32 x i8 vector value
+def nxv64i8 : VTScalableVec<64, i8, 156>; // n x 64 x i8 vector value
+
+def nxv1i16 : VTScalableVec<1, i16, 157>; // n x 1 x i16 vector value
+def nxv2i16 : VTScalableVec<2, i16, 158>; // n x 2 x i16 vector value
+def nxv4i16 : VTScalableVec<4, i16, 159>; // n x 4 x i16 vector value
+def nxv8i16 : VTScalableVec<8, i16, 160>; // n x 8 x i16 vector value
+def nxv16i16 : VTScalableVec<16, i16, 161>; // n x 16 x i16 vector value
+def nxv32i16 : VTScalableVec<32, i16, 162>; // n x 32 x i16 vector value
+
+def nxv1i32 : VTScalableVec<1, i32, 163>; // n x 1 x i32 vector value
+def nxv2i32 : VTScalableVec<2, i32, 164>; // n x 2 x i32 vector value
+def nxv4i32 : VTScalableVec<4, i32, 165>; // n x 4 x i32 vector value
+def nxv8i32 : VTScalableVec<8, i32, 166>; // n x 8 x i32 vector value
+def nxv16i32 : VTScalableVec<16, i32, 167>; // n x 16 x i32 vector value
+def nxv32i32 : VTScalableVec<32, i32, 168>; // n x 32 x i32 vector value
+
+def nxv1i64 : VTScalableVec<1, i64, 169>; // n x 1 x i64 vector value
+def nxv2i64 : VTScalableVec<2, i64, 170>; // n x 2 x i64 vector value
+def nxv4i64 : VTScalableVec<4, i64, 171>; // n x 4 x i64 vector value
+def nxv8i64 : VTScalableVec<8, i64, 172>; // n x 8 x i64 vector value
+def nxv16i64 : VTScalableVec<16, i64, 173>; // n x 16 x i64 vector value
+def nxv32i64 : VTScalableVec<32, i64, 174>; // n x 32 x i64 vector value
+
+def nxv1f16 : VTScalableVec<1, f16, 175>; // n x 1 x f16 vector value
+def nxv2f16 : VTScalableVec<2, f16, 176>; // n x 2 x f16 vector value
+def nxv4f16 : VTScalableVec<4, f16, 177>; // n x 4 x f16 vector value
+def nxv8f16 : VTScalableVec<8, f16, 178>; // n x 8 x f16 vector value
+def nxv16f16 : VTScalableVec<16, f16, 179>; // n x 16 x f16 vector value
+def nxv32f16 : VTScalableVec<32, f16, 180>; // n x 32 x f16 vector value
+
+def nxv1bf16 : VTScalableVec<1, bf16, 181>; // n x 1 x bf16 vector value
+def nxv2bf16 : VTScalableVec<2, bf16, 182>; // n x 2 x bf16 vector value
+def nxv4bf16 : VTScalableVec<4, bf16, 183>; // n x 4 x bf16 vector value
+def nxv8bf16 : VTScalableVec<8, bf16, 184>; // n x 8 x bf16 vector value
+def nxv16bf16 : VTScalableVec<16, bf16, 185>; // n x 16 x bf16 vector value
+def nxv32bf16 : VTScalableVec<32, bf16, 186>; // n x 32 x bf16 vector value
+
+def nxv1f32 : VTScalableVec<1, f32, 187>; // n x 1 x f32 vector value
+def nxv2f32 : VTScalableVec<2, f32, 188>; // n x 2 x f32 vector value
+def nxv4f32 : VTScalableVec<4, f32, 189>; // n x 4 x f32 vector value
+def nxv8f32 : VTScalableVec<8, f32, 190>; // n x 8 x f32 vector value
+def nxv16f32 : VTScalableVec<16, f32, 191>; // n x 16 x f32 vector value
+
+def nxv1f64 : VTScalableVec<1, f64, 192>; // n x 1 x f64 vector value
+def nxv2f64 : VTScalableVec<2, f64, 193>; // n x 2 x f64 vector value
+def nxv4f64 : VTScalableVec<4, f64, 194>; // n x 4 x f64 vector value
+def nxv8f64 : VTScalableVec<8, f64, 195>; // n x 8 x f64 vector value
// Sz = NF * MinNumElts * 8(bits)
-def riscv_nxv1i8x2 : VTVecTup<16, 2, i8, 195>; // RISCV vector tuple(min_num_elts=1, nf=2)
-def riscv_nxv1i8x3 : VTVecTup<24, 3, i8, 196>; // RISCV vector tuple(min_num_elts=1, nf=3)
-def riscv_nxv1i8x4 : VTVecTup<32, 4, i8, 197>; // RISCV vector tuple(min_num_elts=1, nf=4)
-def riscv_nxv1i8x5 : VTVecTup<40, 5, i8, 198>; // RISCV vector tuple(min_num_elts=1, nf=5)
-def riscv_nxv1i8x6 : VTVecTup<48, 6, i8, 199>; // RISCV vector tuple(min_num_elts=1, nf=6)
-def riscv_nxv1i8x7 : VTVecTup<56, 7, i8, 200>; // RISCV vector tuple(min_num_elts=1, nf=7)
-def riscv_nxv1i8x8 : VTVecTup<64, 8, i8, 201>; // RISCV vector tuple(min_num_elts=1, nf=8)
-def riscv_nxv2i8x2 : VTVecTup<32, 2, i8, 202>; // RISCV vector tuple(min_num_elts=2, nf=2)
-def riscv_nxv2i8x3 : VTVecTup<48, 3, i8, 203>; // RISCV vector tuple(min_num_elts=2, nf=3)
-def riscv_nxv2i8x4 : VTVecTup<64, 4, i8, 204>; // RISCV vector tuple(min_num_elts=2, nf=4)
-def riscv_nxv2i8x5 : VTVecTup<80, 5, i8, 205>; // RISCV vector tuple(min_num_elts=2, nf=5)
-def riscv_nxv2i8x6 : VTVecTup<96, 6, i8, 206>; // RISCV vector tuple(min_num_elts=2, nf=6)
-def riscv_nxv2i8x7 : VTVecTup<112, 7, i8, 207>; // RISCV vector tuple(min_num_elts=2, nf=7)
-def riscv_nxv2i8x8 : VTVecTup<128, 8, i8, 208>; // RISCV vector tuple(min_num_elts=2, nf=8)
-def riscv_nxv4i8x2 : VTVecTup<64, 2, i8, 209>; // RISCV vector tuple(min_num_elts=4, nf=2)
-def riscv_nxv4i8x3 : VTVecTup<96, 3, i8, 210>; // RISCV vector tuple(min_num_elts=4, nf=3)
-def riscv_nxv4i8x4 : VTVecTup<128, 4, i8, 211>; // RISCV vector tuple(min_num_elts=4, nf=4)
-def riscv_nxv4i8x5 : VTVecTup<160, 5, i8, 212>; // RISCV vector tuple(min_num_elts=4, nf=5)
-def riscv_nxv4i8x6 : VTVecTup<192, 6, i8, 213>; // RISCV vector tuple(min_num_elts=4, nf=6)
-def riscv_nxv4i8x7 : VTVecTup<224, 7, i8, 214>; // RISCV vector tuple(min_num_elts=4, nf=7)
-def riscv_nxv4i8x8 : VTVecTup<256, 8, i8, 215>; // RISCV vector tuple(min_num_elts=4, nf=8)
-def riscv_nxv8i8x2 : VTVecTup<128, 2, i8, 216>; // RISCV vector tuple(min_num_elts=8, nf=2)
-def riscv_nxv8i8x3 : VTVecTup<192, 3, i8, 217>; // RISCV vector tuple(min_num_elts=8, nf=3)
-def riscv_nxv8i8x4 : VTVecTup<256, 4, i8, 218>; // RISCV vector tuple(min_num_elts=8, nf=4)
-def riscv_nxv8i8x5 : VTVecTup<320, 5, i8, 219>; // RISCV vector tuple(min_num_elts=8, nf=5)
-def riscv_nxv8i8x6 : VTVecTup<384, 6, i8, 220>; // RISCV vector tuple(min_num_elts=8, nf=6)
-def riscv_nxv8i8x7 : VTVecTup<448, 7, i8, 221>; // RISCV vector tuple(min_num_elts=8, nf=7)
-def riscv_nxv8i8x8 : VTVecTup<512, 8, i8, 222>; // RISCV vector tuple(min_num_elts=8, nf=8)
-def riscv_nxv16i8x2 : VTVecTup<256, 2, i8, 223>; // RISCV vector tuple(min_num_elts=16, nf=2)
-def riscv_nxv16i8x3 : VTVecTup<384, 3, i8, 224>; // RISCV vector tuple(min_num_elts=16, nf=3)
-def riscv_nxv16i8x4 : VTVecTup<512, 4, i8, 225>; // RISCV vector tuple(min_num_elts=16, nf=4)
-def riscv_nxv32i8x2 : VTVecTup<512, 2, i8, 226>; // RISCV vector tuple(min_num_elts=32, nf=2)
-
-def x86mmx : ValueType<64, 227>; // X86 MMX value
-def Glue : ValueType<0, 228>; // Pre-RA sched glue
-def isVoid : ValueType<0, 229>; // Produces no value
-def untyped : ValueType<8, 230> { // Produces an untyped value
+def riscv_nxv1i8x2 : VTVecTup<16, 2, i8, 196>; // RISCV vector tup...
[truncated]
|
topperc
approved these changes
Jun 9, 2025
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
LGTM
rorth
pushed a commit
to rorth/llvm-project
that referenced
this pull request
Jun 11, 2025
Similar to llvm#139294; just realized we need this as well.
DhruvSrivastavaX
pushed a commit
to DhruvSrivastavaX/lldb-for-aix
that referenced
this pull request
Jun 12, 2025
Similar to llvm#139294; just realized we need this as well.
tomtor
pushed a commit
to tomtor/llvm-project
that referenced
this pull request
Jun 14, 2025
Similar to llvm#139294; just realized we need this as well.
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Add this suggestion to a batch that can be applied as a single commit.
This suggestion is invalid because no changes were made to the code.
Suggestions cannot be applied while the pull request is closed.
Suggestions cannot be applied while viewing a subset of changes.
Only one suggestion per line can be applied in a batch.
Add this suggestion to a batch that can be applied as a single commit.
Applying suggestions on deleted lines is not supported.
You must change the existing code in this line in order to create a valid suggestion.
Outdated suggestions cannot be applied.
This suggestion has been applied or marked resolved.
Suggestions cannot be applied from pending reviews.
Suggestions cannot be applied on multi-line comments.
Suggestions cannot be applied while the pull request is queued to merge.
Suggestion cannot be applied right now. Please check back later.
Similar to #139294; just realized we need this as well.