@@ -322,7 +322,7 @@ define i64 @func5(i64 %x, i64 %y) nounwind {
322
322
; X64-NEXT: movq %r15, %rdi
323
323
; X64-NEXT: movq %r12, %rsi
324
324
; X64-NEXT: movq %r13, %rcx
325
- ; X64-NEXT: callq __divti3
325
+ ; X64-NEXT: callq __divti3@PLT
326
326
; X64-NEXT: movq %rax, %rbx
327
327
; X64-NEXT: movq %rax, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
328
328
; X64-NEXT: movq %rdx, %rbp
@@ -338,7 +338,7 @@ define i64 @func5(i64 %x, i64 %y) nounwind {
338
338
; X64-NEXT: movq %r12, %rsi
339
339
; X64-NEXT: movq (%rsp), %rdx # 8-byte Reload
340
340
; X64-NEXT: movq %r13, %rcx
341
- ; X64-NEXT: callq __modti3
341
+ ; X64-NEXT: callq __modti3@PLT
342
342
; X64-NEXT: orq %rax, %rdx
343
343
; X64-NEXT: setne %al
344
344
; X64-NEXT: testb %r14b, %al
@@ -613,7 +613,7 @@ define <4 x i32> @vec(<4 x i32> %x, <4 x i32> %y) nounwind {
613
613
; X64-NEXT: movq %r12, %rdi
614
614
; X64-NEXT: movq %rbp, %rsi
615
615
; X64-NEXT: movq %r15, %rcx
616
- ; X64-NEXT: callq __divti3
616
+ ; X64-NEXT: callq __divti3@PLT
617
617
; X64-NEXT: movq %rax, %r13
618
618
; X64-NEXT: movq %rax, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
619
619
; X64-NEXT: movq %rdx, %r14
@@ -626,7 +626,7 @@ define <4 x i32> @vec(<4 x i32> %x, <4 x i32> %y) nounwind {
626
626
; X64-NEXT: movq %rbp, %rsi
627
627
; X64-NEXT: movq {{[-0-9]+}}(%r{{[sb]}}p), %rdx # 8-byte Reload
628
628
; X64-NEXT: movq %r15, %rcx
629
- ; X64-NEXT: callq __modti3
629
+ ; X64-NEXT: callq __modti3@PLT
630
630
; X64-NEXT: orq %rax, %rdx
631
631
; X64-NEXT: setne %al
632
632
; X64-NEXT: testb %bl, %al
@@ -668,7 +668,7 @@ define <4 x i32> @vec(<4 x i32> %x, <4 x i32> %y) nounwind {
668
668
; X64-NEXT: movq %r15, %rdi
669
669
; X64-NEXT: movq %r13, %rsi
670
670
; X64-NEXT: movq %rbp, %rcx
671
- ; X64-NEXT: callq __divti3
671
+ ; X64-NEXT: callq __divti3@PLT
672
672
; X64-NEXT: movq %rax, %r12
673
673
; X64-NEXT: movq %rax, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
674
674
; X64-NEXT: movq %rdx, %r14
@@ -681,7 +681,7 @@ define <4 x i32> @vec(<4 x i32> %x, <4 x i32> %y) nounwind {
681
681
; X64-NEXT: movq %r13, %rsi
682
682
; X64-NEXT: movq {{[-0-9]+}}(%r{{[sb]}}p), %rdx # 8-byte Reload
683
683
; X64-NEXT: movq %rbp, %rcx
684
- ; X64-NEXT: callq __modti3
684
+ ; X64-NEXT: callq __modti3@PLT
685
685
; X64-NEXT: orq %rax, %rdx
686
686
; X64-NEXT: setne %al
687
687
; X64-NEXT: testb %bl, %al
@@ -735,7 +735,7 @@ define <4 x i32> @vec(<4 x i32> %x, <4 x i32> %y) nounwind {
735
735
; X64-NEXT: movq %r15, %rdi
736
736
; X64-NEXT: movq %r12, %rsi
737
737
; X64-NEXT: movq %rbp, %rcx
738
- ; X64-NEXT: callq __divti3
738
+ ; X64-NEXT: callq __divti3@PLT
739
739
; X64-NEXT: movq %rax, %r13
740
740
; X64-NEXT: movq %rax, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
741
741
; X64-NEXT: movq %rdx, %r14
@@ -748,7 +748,7 @@ define <4 x i32> @vec(<4 x i32> %x, <4 x i32> %y) nounwind {
748
748
; X64-NEXT: movq %r12, %rsi
749
749
; X64-NEXT: movq {{[-0-9]+}}(%r{{[sb]}}p), %rdx # 8-byte Reload
750
750
; X64-NEXT: movq %rbp, %rcx
751
- ; X64-NEXT: callq __modti3
751
+ ; X64-NEXT: callq __modti3@PLT
752
752
; X64-NEXT: orq %rax, %rdx
753
753
; X64-NEXT: setne %al
754
754
; X64-NEXT: testb %bl, %al
@@ -790,7 +790,7 @@ define <4 x i32> @vec(<4 x i32> %x, <4 x i32> %y) nounwind {
790
790
; X64-NEXT: movq %r15, %rdi
791
791
; X64-NEXT: movq %r13, %rsi
792
792
; X64-NEXT: movq %rbp, %rcx
793
- ; X64-NEXT: callq __divti3
793
+ ; X64-NEXT: callq __divti3@PLT
794
794
; X64-NEXT: movq %rax, %r12
795
795
; X64-NEXT: movq %rax, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
796
796
; X64-NEXT: movq %rdx, %r14
@@ -803,7 +803,7 @@ define <4 x i32> @vec(<4 x i32> %x, <4 x i32> %y) nounwind {
803
803
; X64-NEXT: movq %r13, %rsi
804
804
; X64-NEXT: movq {{[-0-9]+}}(%r{{[sb]}}p), %rdx # 8-byte Reload
805
805
; X64-NEXT: movq %rbp, %rcx
806
- ; X64-NEXT: callq __modti3
806
+ ; X64-NEXT: callq __modti3@PLT
807
807
; X64-NEXT: orq %rax, %rdx
808
808
; X64-NEXT: setne %al
809
809
; X64-NEXT: testb %bl, %al
0 commit comments