@@ -109,8 +109,8 @@ define <4 x double> @shuffle_v4f64_1000(<4 x double> %a, <4 x double> %b) {
109
109
define <4 x double > @shuffle_v4f64_2200 (<4 x double > %a , <4 x double > %b ) {
110
110
; AVX1-LABEL: shuffle_v4f64_2200:
111
111
; AVX1: # %bb.0:
112
- ; AVX1-NEXT: vmovddup {{.*#+}} ymm0 = ymm0[0,0,2,2]
113
112
; AVX1-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3,0,1]
113
+ ; AVX1-NEXT: vmovddup {{.*#+}} ymm0 = ymm0[0,0,2,2]
114
114
; AVX1-NEXT: retq
115
115
;
116
116
; AVX2-LABEL: shuffle_v4f64_2200:
@@ -129,8 +129,8 @@ define <4 x double> @shuffle_v4f64_2200(<4 x double> %a, <4 x double> %b) {
129
129
define <4 x double > @shuffle_v4f64_2222 (<4 x double > %a , <4 x double > %b ) {
130
130
; AVX1-LABEL: shuffle_v4f64_2222:
131
131
; AVX1: # %bb.0:
132
- ; AVX1-NEXT: vmovddup {{.*#+}} ymm0 = ymm0[0,0,2,2]
133
132
; AVX1-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3,2,3]
133
+ ; AVX1-NEXT: vmovddup {{.*#+}} ymm0 = ymm0[0,0,2,2]
134
134
; AVX1-NEXT: retq
135
135
;
136
136
; AVX2-LABEL: shuffle_v4f64_2222:
@@ -149,8 +149,8 @@ define <4 x double> @shuffle_v4f64_2222(<4 x double> %a, <4 x double> %b) {
149
149
define <4 x double > @shuffle_v4f64_2222_bc (<4 x i64 > %a , <4 x i64 > %b ) {
150
150
; AVX1-LABEL: shuffle_v4f64_2222_bc:
151
151
; AVX1: # %bb.0:
152
- ; AVX1-NEXT: vmovddup {{.*#+}} ymm0 = ymm0[0,0,2,2]
153
152
; AVX1-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3,2,3]
153
+ ; AVX1-NEXT: vmovddup {{.*#+}} ymm0 = ymm0[0,0,2,2]
154
154
; AVX1-NEXT: retq
155
155
;
156
156
; AVX2-LABEL: shuffle_v4f64_2222_bc:
@@ -856,8 +856,8 @@ define <4 x i64> @shuffle_v4i64_1000(<4 x i64> %a, <4 x i64> %b) {
856
856
define <4 x i64 > @shuffle_v4i64_2200 (<4 x i64 > %a , <4 x i64 > %b ) {
857
857
; AVX1-LABEL: shuffle_v4i64_2200:
858
858
; AVX1: # %bb.0:
859
- ; AVX1-NEXT: vmovddup {{.*#+}} ymm0 = ymm0[0,0,2,2]
860
859
; AVX1-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3,0,1]
860
+ ; AVX1-NEXT: vmovddup {{.*#+}} ymm0 = ymm0[0,0,2,2]
861
861
; AVX1-NEXT: retq
862
862
;
863
863
; AVX2-LABEL: shuffle_v4i64_2200:
0 commit comments