@@ -823,26 +823,24 @@ define <16 x i32> @saddo_v16i32(<16 x i32> %a0, <16 x i32> %a1, <16 x i32>* %p2)
823
823
; AVX1-NEXT: vpcmpgtd %xmm1, %xmm5, %xmm4
824
824
; AVX1-NEXT: vpxor %xmm6, %xmm4, %xmm4
825
825
; AVX1-NEXT: vpcmpeqd %xmm7, %xmm4, %xmm7
826
- ; AVX1-NEXT: vpaddd %xmm3, %xmm1, %xmm11
827
- ; AVX1-NEXT: vpcmpgtd %xmm11 , %xmm5, %xmm3
826
+ ; AVX1-NEXT: vpaddd %xmm3, %xmm1, %xmm10
827
+ ; AVX1-NEXT: vpcmpgtd %xmm10 , %xmm5, %xmm3
828
828
; AVX1-NEXT: vpxor %xmm6, %xmm3, %xmm3
829
829
; AVX1-NEXT: vpcmpeqd %xmm3, %xmm4, %xmm3
830
830
; AVX1-NEXT: vpandn %xmm7, %xmm3, %xmm3
831
- ; AVX1-NEXT: vpackssdw %xmm8, %xmm3, %xmm3
832
- ; AVX1-NEXT: vmovdqa {{.*#+}} xmm8 = <0,2,4,6,8,10,12,14,u,u,u,u,u,u,u,u>
833
- ; AVX1-NEXT: vpshufb %xmm8, %xmm3, %xmm10
834
- ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm7
835
- ; AVX1-NEXT: vpcmpgtd %xmm7, %xmm5, %xmm4
836
- ; AVX1-NEXT: vpxor %xmm6, %xmm4, %xmm4
831
+ ; AVX1-NEXT: vpackssdw %xmm8, %xmm3, %xmm8
832
+ ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4
833
+ ; AVX1-NEXT: vpcmpgtd %xmm4, %xmm5, %xmm7
834
+ ; AVX1-NEXT: vpxor %xmm6, %xmm7, %xmm7
837
835
; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
838
836
; AVX1-NEXT: vpcmpgtd %xmm3, %xmm5, %xmm1
839
837
; AVX1-NEXT: vpxor %xmm6, %xmm1, %xmm1
840
- ; AVX1-NEXT: vpcmpeqd %xmm4 , %xmm1, %xmm4
841
- ; AVX1-NEXT: vpaddd %xmm7 , %xmm3, %xmm3
842
- ; AVX1-NEXT: vpcmpgtd %xmm3, %xmm5, %xmm7
843
- ; AVX1-NEXT: vpxor %xmm6, %xmm7 , %xmm7
844
- ; AVX1-NEXT: vpcmpeqd %xmm7 , %xmm1, %xmm1
845
- ; AVX1-NEXT: vpandn %xmm4 , %xmm1, %xmm1
838
+ ; AVX1-NEXT: vpcmpeqd %xmm7 , %xmm1, %xmm7
839
+ ; AVX1-NEXT: vpaddd %xmm4 , %xmm3, %xmm3
840
+ ; AVX1-NEXT: vpcmpgtd %xmm3, %xmm5, %xmm4
841
+ ; AVX1-NEXT: vpxor %xmm6, %xmm4 , %xmm4
842
+ ; AVX1-NEXT: vpcmpeqd %xmm4 , %xmm1, %xmm1
843
+ ; AVX1-NEXT: vpandn %xmm7 , %xmm1, %xmm1
846
844
; AVX1-NEXT: vpcmpgtd %xmm2, %xmm5, %xmm4
847
845
; AVX1-NEXT: vpxor %xmm6, %xmm4, %xmm4
848
846
; AVX1-NEXT: vpcmpgtd %xmm0, %xmm5, %xmm7
@@ -854,10 +852,9 @@ define <16 x i32> @saddo_v16i32(<16 x i32> %a0, <16 x i32> %a1, <16 x i32>* %p2)
854
852
; AVX1-NEXT: vpcmpeqd %xmm2, %xmm7, %xmm2
855
853
; AVX1-NEXT: vpandn %xmm4, %xmm2, %xmm2
856
854
; AVX1-NEXT: vpackssdw %xmm1, %xmm2, %xmm1
857
- ; AVX1-NEXT: vpshufb %xmm8, %xmm1, %xmm1
858
- ; AVX1-NEXT: vpunpcklqdq {{.*#+}} xmm1 = xmm1[0],xmm10[0]
855
+ ; AVX1-NEXT: vpacksswb %xmm8, %xmm1, %xmm1
859
856
; AVX1-NEXT: vinsertf128 $1, %xmm3, %ymm0, %ymm2
860
- ; AVX1-NEXT: vinsertf128 $1, %xmm9, %ymm11 , %ymm3
857
+ ; AVX1-NEXT: vinsertf128 $1, %xmm9, %ymm10 , %ymm3
861
858
; AVX1-NEXT: vpmovsxbd %xmm1, %xmm0
862
859
; AVX1-NEXT: vpshufd {{.*#+}} xmm4 = xmm1[1,1,2,3]
863
860
; AVX1-NEXT: vpmovsxbd %xmm4, %xmm4
@@ -887,22 +884,19 @@ define <16 x i32> @saddo_v16i32(<16 x i32> %a0, <16 x i32> %a1, <16 x i32>* %p2)
887
884
; AVX2-NEXT: vpandn %ymm5, %ymm1, %ymm1
888
885
; AVX2-NEXT: vextracti128 $1, %ymm1, %xmm5
889
886
; AVX2-NEXT: vpackssdw %xmm5, %xmm1, %xmm1
890
- ; AVX2-NEXT: vmovdqa {{.*#+}} xmm5 = <0,2,4,6,8,10,12,14,u,u,u,u,u,u,u,u>
891
- ; AVX2-NEXT: vpshufb %xmm5 , %xmm1 , %xmm1
892
- ; AVX2-NEXT: vpcmpgtd %ymm2 , %ymm4, %ymm7
887
+ ; AVX2-NEXT: vpcmpgtd %ymm2, %ymm4, %ymm5
888
+ ; AVX2-NEXT: vpxor %ymm6 , %ymm5 , %ymm5
889
+ ; AVX2-NEXT: vpcmpgtd %ymm0 , %ymm4, %ymm7
893
890
; AVX2-NEXT: vpxor %ymm6, %ymm7, %ymm7
894
- ; AVX2-NEXT: vpcmpgtd %ymm0, %ymm4, %ymm8
895
- ; AVX2-NEXT: vpxor %ymm6, %ymm8, %ymm8
896
- ; AVX2-NEXT: vpcmpeqd %ymm7, %ymm8, %ymm7
891
+ ; AVX2-NEXT: vpcmpeqd %ymm5, %ymm7, %ymm5
897
892
; AVX2-NEXT: vpaddd %ymm2, %ymm0, %ymm2
898
893
; AVX2-NEXT: vpcmpgtd %ymm2, %ymm4, %ymm0
899
894
; AVX2-NEXT: vpxor %ymm6, %ymm0, %ymm0
900
- ; AVX2-NEXT: vpcmpeqd %ymm0, %ymm8 , %ymm0
901
- ; AVX2-NEXT: vpandn %ymm7 , %ymm0, %ymm0
895
+ ; AVX2-NEXT: vpcmpeqd %ymm0, %ymm7 , %ymm0
896
+ ; AVX2-NEXT: vpandn %ymm5 , %ymm0, %ymm0
902
897
; AVX2-NEXT: vextracti128 $1, %ymm0, %xmm4
903
898
; AVX2-NEXT: vpackssdw %xmm4, %xmm0, %xmm0
904
- ; AVX2-NEXT: vpshufb %xmm5, %xmm0, %xmm0
905
- ; AVX2-NEXT: vpunpcklqdq {{.*#+}} xmm1 = xmm0[0],xmm1[0]
899
+ ; AVX2-NEXT: vpacksswb %xmm1, %xmm0, %xmm1
906
900
; AVX2-NEXT: vpmovsxbd %xmm1, %ymm0
907
901
; AVX2-NEXT: vpshufd {{.*#+}} xmm1 = xmm1[2,3,0,1]
908
902
; AVX2-NEXT: vpmovsxbd %xmm1, %ymm1
0 commit comments