| .text |
| |
| |
| .globl aesni_cbc_sha1_enc |
| .type aesni_cbc_sha1_enc,@function |
| .align 16 |
| aesni_cbc_sha1_enc: |
| |
| movl OPENSSL_ia32cap_P+0(%rip),%r10d |
| movl OPENSSL_ia32cap_P+4(%rip),%r11d |
| jmp aesni_cbc_sha1_enc_ssse3 |
| .byte 0xf3,0xc3 |
| .size aesni_cbc_sha1_enc,.-aesni_cbc_sha1_enc |
| .type aesni_cbc_sha1_enc_ssse3,@function |
| .align 16 |
| aesni_cbc_sha1_enc_ssse3: |
| movq 8(%rsp),%r10 |
| |
| |
| pushq %rbx |
| pushq %rbp |
| pushq %r12 |
| pushq %r13 |
| pushq %r14 |
| pushq %r15 |
| leaq -104(%rsp),%rsp |
| |
| |
| movq %rdi,%r12 |
| movq %rsi,%r13 |
| movq %rdx,%r14 |
| movq %rcx,%r15 |
| movdqu (%r8),%xmm11 |
| movq %r8,88(%rsp) |
| shlq $6,%r14 |
| subq %r12,%r13 |
| movl 240(%r15),%r8d |
| addq %r10,%r14 |
| |
| leaq K_XX_XX(%rip),%r11 |
| movl 0(%r9),%eax |
| movl 4(%r9),%ebx |
| movl 8(%r9),%ecx |
| movl 12(%r9),%edx |
| movl %ebx,%esi |
| movl 16(%r9),%ebp |
| |
| movdqa 64(%r11),%xmm6 |
| movdqa 0(%r11),%xmm9 |
| movdqu 0(%r10),%xmm0 |
| movdqu 16(%r10),%xmm1 |
| movdqu 32(%r10),%xmm2 |
| movdqu 48(%r10),%xmm3 |
| .byte 102,15,56,0,198 |
| addq $64,%r10 |
| .byte 102,15,56,0,206 |
| .byte 102,15,56,0,214 |
| .byte 102,15,56,0,222 |
| paddd %xmm9,%xmm0 |
| paddd %xmm9,%xmm1 |
| paddd %xmm9,%xmm2 |
| movdqa %xmm0,0(%rsp) |
| psubd %xmm9,%xmm0 |
| movdqa %xmm1,16(%rsp) |
| psubd %xmm9,%xmm1 |
| movdqa %xmm2,32(%rsp) |
| psubd %xmm9,%xmm2 |
| movups (%r15),%xmm13 |
| movups 16(%r15),%xmm14 |
| jmp .Loop_ssse3 |
| .align 16 |
| .Loop_ssse3: |
| movdqa %xmm1,%xmm4 |
| addl 0(%rsp),%ebp |
| movups 0(%r12),%xmm12 |
| xorps %xmm13,%xmm12 |
| xorps %xmm12,%xmm11 |
| .byte 102,69,15,56,220,222 |
| movups 32(%r15),%xmm15 |
| xorl %edx,%ecx |
| movdqa %xmm3,%xmm8 |
| .byte 102,15,58,15,224,8 |
| movl %eax,%edi |
| roll $5,%eax |
| paddd %xmm3,%xmm9 |
| andl %ecx,%esi |
| xorl %edx,%ecx |
| psrldq $4,%xmm8 |
| xorl %edx,%esi |
| addl %eax,%ebp |
| pxor %xmm0,%xmm4 |
| rorl $2,%ebx |
| addl %esi,%ebp |
| pxor %xmm2,%xmm8 |
| addl 4(%rsp),%edx |
| xorl %ecx,%ebx |
| movl %ebp,%esi |
| roll $5,%ebp |
| pxor %xmm8,%xmm4 |
| andl %ebx,%edi |
| xorl %ecx,%ebx |
| movdqa %xmm9,48(%rsp) |
| xorl %ecx,%edi |
| .byte 102,69,15,56,220,223 |
| movups 48(%r15),%xmm14 |
| addl %ebp,%edx |
| movdqa %xmm4,%xmm10 |
| movdqa %xmm4,%xmm8 |
| rorl $7,%eax |
| addl %edi,%edx |
| addl 8(%rsp),%ecx |
| xorl %ebx,%eax |
| pslldq $12,%xmm10 |
| paddd %xmm4,%xmm4 |
| movl %edx,%edi |
| roll $5,%edx |
| andl %eax,%esi |
| xorl %ebx,%eax |
| psrld $31,%xmm8 |
| xorl %ebx,%esi |
| addl %edx,%ecx |
| movdqa %xmm10,%xmm9 |
| rorl $7,%ebp |
| addl %esi,%ecx |
| psrld $30,%xmm10 |
| por %xmm8,%xmm4 |
| addl 12(%rsp),%ebx |
| xorl %eax,%ebp |
| movl %ecx,%esi |
| roll $5,%ecx |
| .byte 102,69,15,56,220,222 |
| movups 64(%r15),%xmm15 |
| pslld $2,%xmm9 |
| pxor %xmm10,%xmm4 |
| andl %ebp,%edi |
| xorl %eax,%ebp |
| movdqa 0(%r11),%xmm10 |
| xorl %eax,%edi |
| addl %ecx,%ebx |
| pxor %xmm9,%xmm4 |
| rorl $7,%edx |
| addl %edi,%ebx |
| movdqa %xmm2,%xmm5 |
| addl 16(%rsp),%eax |
| xorl %ebp,%edx |
| movdqa %xmm4,%xmm9 |
| .byte 102,15,58,15,233,8 |
| movl %ebx,%edi |
| roll $5,%ebx |
| paddd %xmm4,%xmm10 |
| andl %edx,%esi |
| xorl %ebp,%edx |
| psrldq $4,%xmm9 |
| xorl %ebp,%esi |
| addl %ebx,%eax |
| pxor %xmm1,%xmm5 |
| rorl $7,%ecx |
| addl %esi,%eax |
| pxor %xmm3,%xmm9 |
| addl 20(%rsp),%ebp |
| .byte 102,69,15,56,220,223 |
| movups 80(%r15),%xmm14 |
| xorl %edx,%ecx |
| movl %eax,%esi |
| roll $5,%eax |
| pxor %xmm9,%xmm5 |
| andl %ecx,%edi |
| xorl %edx,%ecx |
| movdqa %xmm10,0(%rsp) |
| xorl %edx,%edi |
| addl %eax,%ebp |
| movdqa %xmm5,%xmm8 |
| movdqa %xmm5,%xmm9 |
| rorl $7,%ebx |
| addl %edi,%ebp |
| addl 24(%rsp),%edx |
| xorl %ecx,%ebx |
| pslldq $12,%xmm8 |
| paddd %xmm5,%xmm5 |
| movl %ebp,%edi |
| roll $5,%ebp |
| andl %ebx,%esi |
| xorl %ecx,%ebx |
| psrld $31,%xmm9 |
| xorl %ecx,%esi |
| .byte 102,69,15,56,220,222 |
| movups 96(%r15),%xmm15 |
| addl %ebp,%edx |
| movdqa %xmm8,%xmm10 |
| rorl $7,%eax |
| addl %esi,%edx |
| psrld $30,%xmm8 |
| por %xmm9,%xmm5 |
| addl 28(%rsp),%ecx |
| xorl %ebx,%eax |
| movl %edx,%esi |
| roll $5,%edx |
| pslld $2,%xmm10 |
| pxor %xmm8,%xmm5 |
| andl %eax,%edi |
| xorl %ebx,%eax |
| movdqa 16(%r11),%xmm8 |
| xorl %ebx,%edi |
| addl %edx,%ecx |
| pxor %xmm10,%xmm5 |
| rorl $7,%ebp |
| addl %edi,%ecx |
| movdqa %xmm3,%xmm6 |
| addl 32(%rsp),%ebx |
| xorl %eax,%ebp |
| movdqa %xmm5,%xmm10 |
| .byte 102,15,58,15,242,8 |
| movl %ecx,%edi |
| roll $5,%ecx |
| .byte 102,69,15,56,220,223 |
| movups 112(%r15),%xmm14 |
| paddd %xmm5,%xmm8 |
| andl %ebp,%esi |
| xorl %eax,%ebp |
| psrldq $4,%xmm10 |
| xorl %eax,%esi |
| addl %ecx,%ebx |
| pxor %xmm2,%xmm6 |
| rorl $7,%edx |
| addl %esi,%ebx |
| pxor %xmm4,%xmm10 |
| addl 36(%rsp),%eax |
| xorl %ebp,%edx |
| movl %ebx,%esi |
| roll $5,%ebx |
| pxor %xmm10,%xmm6 |
| andl %edx,%edi |
| xorl %ebp,%edx |
| movdqa %xmm8,16(%rsp) |
| xorl %ebp,%edi |
| addl %ebx,%eax |
| movdqa %xmm6,%xmm9 |
| movdqa %xmm6,%xmm10 |
| rorl $7,%ecx |
| addl %edi,%eax |
| addl 40(%rsp),%ebp |
| .byte 102,69,15,56,220,222 |
| movups 128(%r15),%xmm15 |
| xorl %edx,%ecx |
| pslldq $12,%xmm9 |
| paddd %xmm6,%xmm6 |
| movl %eax,%edi |
| roll $5,%eax |
| andl %ecx,%esi |
| xorl %edx,%ecx |
| psrld $31,%xmm10 |
| xorl %edx,%esi |
| addl %eax,%ebp |
| movdqa %xmm9,%xmm8 |
| rorl $7,%ebx |
| addl %esi,%ebp |
| psrld $30,%xmm9 |
| por %xmm10,%xmm6 |
| addl 44(%rsp),%edx |
| xorl %ecx,%ebx |
| movl %ebp,%esi |
| roll $5,%ebp |
| pslld $2,%xmm8 |
| pxor %xmm9,%xmm6 |
| andl %ebx,%edi |
| xorl %ecx,%ebx |
| movdqa 16(%r11),%xmm9 |
| xorl %ecx,%edi |
| .byte 102,69,15,56,220,223 |
| movups 144(%r15),%xmm14 |
| addl %ebp,%edx |
| pxor %xmm8,%xmm6 |
| rorl $7,%eax |
| addl %edi,%edx |
| movdqa %xmm4,%xmm7 |
| addl 48(%rsp),%ecx |
| xorl %ebx,%eax |
| movdqa %xmm6,%xmm8 |
| .byte 102,15,58,15,251,8 |
| movl %edx,%edi |
| roll $5,%edx |
| paddd %xmm6,%xmm9 |
| andl %eax,%esi |
| xorl %ebx,%eax |
| psrldq $4,%xmm8 |
| xorl %ebx,%esi |
| addl %edx,%ecx |
| pxor %xmm3,%xmm7 |
| rorl $7,%ebp |
| addl %esi,%ecx |
| pxor %xmm5,%xmm8 |
| addl 52(%rsp),%ebx |
| xorl %eax,%ebp |
| movl %ecx,%esi |
| roll $5,%ecx |
| .byte 102,69,15,56,220,222 |
| movups 160(%r15),%xmm15 |
| pxor %xmm8,%xmm7 |
| andl %ebp,%edi |
| xorl %eax,%ebp |
| movdqa %xmm9,32(%rsp) |
| xorl %eax,%edi |
| addl %ecx,%ebx |
| movdqa %xmm7,%xmm10 |
| movdqa %xmm7,%xmm8 |
| rorl $7,%edx |
| addl %edi,%ebx |
| addl 56(%rsp),%eax |
| xorl %ebp,%edx |
| pslldq $12,%xmm10 |
| paddd %xmm7,%xmm7 |
| movl %ebx,%edi |
| roll $5,%ebx |
| andl %edx,%esi |
| xorl %ebp,%edx |
| psrld $31,%xmm8 |
| xorl %ebp,%esi |
| addl %ebx,%eax |
| movdqa %xmm10,%xmm9 |
| rorl $7,%ecx |
| addl %esi,%eax |
| psrld $30,%xmm10 |
| por %xmm8,%xmm7 |
| addl 60(%rsp),%ebp |
| cmpl $11,%r8d |
| jb .Laesenclast1 |
| movups 176(%r15),%xmm14 |
| .byte 102,69,15,56,220,223 |
| movups 192(%r15),%xmm15 |
| .byte 102,69,15,56,220,222 |
| je .Laesenclast1 |
| movups 208(%r15),%xmm14 |
| .byte 102,69,15,56,220,223 |
| movups 224(%r15),%xmm15 |
| .byte 102,69,15,56,220,222 |
| .Laesenclast1: |
| .byte 102,69,15,56,221,223 |
| movups 16(%r15),%xmm14 |
| xorl %edx,%ecx |
| movl %eax,%esi |
| roll $5,%eax |
| pslld $2,%xmm9 |
| pxor %xmm10,%xmm7 |
| andl %ecx,%edi |
| xorl %edx,%ecx |
| movdqa 16(%r11),%xmm10 |
| xorl %edx,%edi |
| addl %eax,%ebp |
| pxor %xmm9,%xmm7 |
| rorl $7,%ebx |
| addl %edi,%ebp |
| movdqa %xmm7,%xmm9 |
| addl 0(%rsp),%edx |
| pxor %xmm4,%xmm0 |
| .byte 102,68,15,58,15,206,8 |
| xorl %ecx,%ebx |
| movl %ebp,%edi |
| roll $5,%ebp |
| pxor %xmm1,%xmm0 |
| andl %ebx,%esi |
| xorl %ecx,%ebx |
| movdqa %xmm10,%xmm8 |
| paddd %xmm7,%xmm10 |
| xorl %ecx,%esi |
| movups 16(%r12),%xmm12 |
| xorps %xmm13,%xmm12 |
| movups %xmm11,0(%r13,%r12,1) |
| xorps %xmm12,%xmm11 |
| .byte 102,69,15,56,220,222 |
| movups 32(%r15),%xmm15 |
| addl %ebp,%edx |
| pxor %xmm9,%xmm0 |
| rorl $7,%eax |
| addl %esi,%edx |
| addl 4(%rsp),%ecx |
| xorl %ebx,%eax |
| movdqa %xmm0,%xmm9 |
| movdqa %xmm10,48(%rsp) |
| movl %edx,%esi |
| roll $5,%edx |
| andl %eax,%edi |
| xorl %ebx,%eax |
| pslld $2,%xmm0 |
| xorl %ebx,%edi |
| addl %edx,%ecx |
| psrld $30,%xmm9 |
| rorl $7,%ebp |
| addl %edi,%ecx |
| addl 8(%rsp),%ebx |
| xorl %eax,%ebp |
| movl %ecx,%edi |
| roll $5,%ecx |
| .byte 102,69,15,56,220,223 |
| movups 48(%r15),%xmm14 |
| por %xmm9,%xmm0 |
| andl %ebp,%esi |
| xorl %eax,%ebp |
| movdqa %xmm0,%xmm10 |
| xorl %eax,%esi |
| addl %ecx,%ebx |
| rorl $7,%edx |
| addl %esi,%ebx |
| addl 12(%rsp),%eax |
| xorl %ebp,%edx |
| movl %ebx,%esi |
| roll $5,%ebx |
| andl %edx,%edi |
| xorl %ebp,%edx |
| xorl %ebp,%edi |
| addl %ebx,%eax |
| rorl $7,%ecx |
| addl %edi,%eax |
| addl 16(%rsp),%ebp |
| .byte 102,69,15,56,220,222 |
| movups 64(%r15),%xmm15 |
| pxor %xmm5,%xmm1 |
| .byte 102,68,15,58,15,215,8 |
| xorl %edx,%esi |
| movl %eax,%edi |
| roll $5,%eax |
| pxor %xmm2,%xmm1 |
| xorl %ecx,%esi |
| addl %eax,%ebp |
| movdqa %xmm8,%xmm9 |
| paddd %xmm0,%xmm8 |
| rorl $7,%ebx |
| addl %esi,%ebp |
| pxor %xmm10,%xmm1 |
| addl 20(%rsp),%edx |
| xorl %ecx,%edi |
| movl %ebp,%esi |
| roll $5,%ebp |
| movdqa %xmm1,%xmm10 |
| movdqa %xmm8,0(%rsp) |
| xorl %ebx,%edi |
| addl %ebp,%edx |
| rorl $7,%eax |
| addl %edi,%edx |
| pslld $2,%xmm1 |
| addl 24(%rsp),%ecx |
| xorl %ebx,%esi |
| psrld $30,%xmm10 |
| movl %edx,%edi |
| roll $5,%edx |
| xorl %eax,%esi |
| .byte 102,69,15,56,220,223 |
| movups 80(%r15),%xmm14 |
| addl %edx,%ecx |
| rorl $7,%ebp |
| addl %esi,%ecx |
| por %xmm10,%xmm1 |
| addl 28(%rsp),%ebx |
| xorl %eax,%edi |
| movdqa %xmm1,%xmm8 |
| movl %ecx,%esi |
| roll $5,%ecx |
| xorl %ebp,%edi |
| addl %ecx,%ebx |
| rorl $7,%edx |
| addl %edi,%ebx |
| addl 32(%rsp),%eax |
| pxor %xmm6,%xmm2 |
| .byte 102,68,15,58,15,192,8 |
| xorl %ebp,%esi |
| movl %ebx,%edi |
| roll $5,%ebx |
| pxor %xmm3,%xmm2 |
| xorl %edx,%esi |
| addl %ebx,%eax |
| movdqa 32(%r11),%xmm10 |
| paddd %xmm1,%xmm9 |
| rorl $7,%ecx |
| addl %esi,%eax |
| pxor %xmm8,%xmm2 |
| addl 36(%rsp),%ebp |
| .byte 102,69,15,56,220,222 |
| movups 96(%r15),%xmm15 |
| xorl %edx,%edi |
| movl %eax,%esi |
| roll $5,%eax |
| movdqa %xmm2,%xmm8 |
| movdqa %xmm9,16(%rsp) |
| xorl %ecx,%edi |
| addl %eax,%ebp |
| rorl $7,%ebx |
| addl %edi,%ebp |
| pslld $2,%xmm2 |
| addl 40(%rsp),%edx |
| xorl %ecx,%esi |
| psrld $30,%xmm8 |
| movl %ebp,%edi |
| roll $5,%ebp |
| xorl %ebx,%esi |
| addl %ebp,%edx |
| rorl $7,%eax |
| addl %esi,%edx |
| por %xmm8,%xmm2 |
| addl 44(%rsp),%ecx |
| xorl %ebx,%edi |
| movdqa %xmm2,%xmm9 |
| movl %edx,%esi |
| roll $5,%edx |
| xorl %eax,%edi |
| .byte 102,69,15,56,220,223 |
| movups 112(%r15),%xmm14 |
| addl %edx,%ecx |
| rorl $7,%ebp |
| addl %edi,%ecx |
| addl 48(%rsp),%ebx |
| pxor %xmm7,%xmm3 |
| .byte 102,68,15,58,15,201,8 |
| xorl %eax,%esi |
| movl %ecx,%edi |
| roll $5,%ecx |
| pxor %xmm4,%xmm3 |
| xorl %ebp,%esi |
| addl %ecx,%ebx |
| movdqa %xmm10,%xmm8 |
| paddd %xmm2,%xmm10 |
| rorl $7,%edx |
| addl %esi,%ebx |
| pxor %xmm9,%xmm3 |
| addl 52(%rsp),%eax |
| xorl %ebp,%edi |
| movl %ebx,%esi |
| roll $5,%ebx |
| movdqa %xmm3,%xmm9 |
| movdqa %xmm10,32(%rsp) |
| xorl %edx,%edi |
| addl %ebx,%eax |
| rorl $7,%ecx |
| addl %edi,%eax |
| pslld $2,%xmm3 |
| addl 56(%rsp),%ebp |
| .byte 102,69,15,56,220,222 |
| movups 128(%r15),%xmm15 |
| xorl %edx,%esi |
| psrld $30,%xmm9 |
| movl %eax,%edi |
| roll $5,%eax |
| xorl %ecx,%esi |
| addl %eax,%ebp |
| rorl $7,%ebx |
| addl %esi,%ebp |
| por %xmm9,%xmm3 |
| addl 60(%rsp),%edx |
| xorl %ecx,%edi |
| movdqa %xmm3,%xmm10 |
| movl %ebp,%esi |
| roll $5,%ebp |
| xorl %ebx,%edi |
| addl %ebp,%edx |
| rorl $7,%eax |
| addl %edi,%edx |
| addl 0(%rsp),%ecx |
| pxor %xmm0,%xmm4 |
| .byte 102,68,15,58,15,210,8 |
| xorl %ebx,%esi |
| movl %edx,%edi |
| roll $5,%edx |
| pxor %xmm5,%xmm4 |
| xorl %eax,%esi |
| .byte 102,69,15,56,220,223 |
| movups 144(%r15),%xmm14 |
| addl %edx,%ecx |
| movdqa %xmm8,%xmm9 |
| paddd %xmm3,%xmm8 |
| rorl $7,%ebp |
| addl %esi,%ecx |
| pxor %xmm10,%xmm4 |
| addl 4(%rsp),%ebx |
| xorl %eax,%edi |
| movl %ecx,%esi |
| roll $5,%ecx |
| movdqa %xmm4,%xmm10 |
| movdqa %xmm8,48(%rsp) |
| xorl %ebp,%edi |
| addl %ecx,%ebx |
| rorl $7,%edx |
| addl %edi,%ebx |
| pslld $2,%xmm4 |
| addl 8(%rsp),%eax |
| xorl %ebp,%esi |
| psrld $30,%xmm10 |
| movl %ebx,%edi |
| roll $5,%ebx |
| xorl %edx,%esi |
| addl %ebx,%eax |
| rorl $7,%ecx |
| addl %esi,%eax |
| por %xmm10,%xmm4 |
| addl 12(%rsp),%ebp |
| .byte 102,69,15,56,220,222 |
| movups 160(%r15),%xmm15 |
| xorl %edx,%edi |
| movdqa %xmm4,%xmm8 |
| movl %eax,%esi |
| roll $5,%eax |
| xorl %ecx,%edi |
| addl %eax,%ebp |
| rorl $7,%ebx |
| addl %edi,%ebp |
| addl 16(%rsp),%edx |
| pxor %xmm1,%xmm5 |
| .byte 102,68,15,58,15,195,8 |
| xorl %ecx,%esi |
| movl %ebp,%edi |
| roll $5,%ebp |
| pxor %xmm6,%xmm5 |
| xorl %ebx,%esi |
| addl %ebp,%edx |
| movdqa %xmm9,%xmm10 |
| paddd %xmm4,%xmm9 |
| rorl $7,%eax |
| addl %esi,%edx |
| pxor %xmm8,%xmm5 |
| addl 20(%rsp),%ecx |
| xorl %ebx,%edi |
| movl %edx,%esi |
| roll $5,%edx |
| movdqa %xmm5,%xmm8 |
| movdqa %xmm9,0(%rsp) |
| xorl %eax,%edi |
| cmpl $11,%r8d |
| jb .Laesenclast2 |
| movups 176(%r15),%xmm14 |
| .byte 102,69,15,56,220,223 |
| movups 192(%r15),%xmm15 |
| .byte 102,69,15,56,220,222 |
| je .Laesenclast2 |
| movups 208(%r15),%xmm14 |
| .byte 102,69,15,56,220,223 |
| movups 224(%r15),%xmm15 |
| .byte 102,69,15,56,220,222 |
| .Laesenclast2: |
| .byte 102,69,15,56,221,223 |
| movups 16(%r15),%xmm14 |
| addl %edx,%ecx |
| rorl $7,%ebp |
| addl %edi,%ecx |
| pslld $2,%xmm5 |
| addl 24(%rsp),%ebx |
| xorl %eax,%esi |
| psrld $30,%xmm8 |
| movl %ecx,%edi |
| roll $5,%ecx |
| xorl %ebp,%esi |
| addl %ecx,%ebx |
| rorl $7,%edx |
| addl %esi,%ebx |
| por %xmm8,%xmm5 |
| addl 28(%rsp),%eax |
| xorl %ebp,%edi |
| movdqa %xmm5,%xmm9 |
| movl %ebx,%esi |
| roll $5,%ebx |
| xorl %edx,%edi |
| addl %ebx,%eax |
| rorl $7,%ecx |
| addl %edi,%eax |
| movl %ecx,%edi |
| movups 32(%r12),%xmm12 |
| xorps %xmm13,%xmm12 |
| movups %xmm11,16(%r13,%r12,1) |
| xorps %xmm12,%xmm11 |
| .byte 102,69,15,56,220,222 |
| movups 32(%r15),%xmm15 |
| pxor %xmm2,%xmm6 |
| .byte 102,68,15,58,15,204,8 |
| xorl %edx,%ecx |
| addl 32(%rsp),%ebp |
| andl %edx,%edi |
| pxor %xmm7,%xmm6 |
| andl %ecx,%esi |
| rorl $7,%ebx |
| movdqa %xmm10,%xmm8 |
| paddd %xmm5,%xmm10 |
| addl %edi,%ebp |
| movl %eax,%edi |
| pxor %xmm9,%xmm6 |
| roll $5,%eax |
| addl %esi,%ebp |
| xorl %edx,%ecx |
| addl %eax,%ebp |
| movdqa %xmm6,%xmm9 |
| movdqa %xmm10,16(%rsp) |
| movl %ebx,%esi |
| xorl %ecx,%ebx |
| addl 36(%rsp),%edx |
| andl %ecx,%esi |
| pslld $2,%xmm6 |
| andl %ebx,%edi |
| rorl $7,%eax |
| psrld $30,%xmm9 |
| addl %esi,%edx |
| movl %ebp,%esi |
| roll $5,%ebp |
| .byte 102,69,15,56,220,223 |
| movups 48(%r15),%xmm14 |
| addl %edi,%edx |
| xorl %ecx,%ebx |
| addl %ebp,%edx |
| por %xmm9,%xmm6 |
| movl %eax,%edi |
| xorl %ebx,%eax |
| movdqa %xmm6,%xmm10 |
| addl 40(%rsp),%ecx |
| andl %ebx,%edi |
| andl %eax,%esi |
| rorl $7,%ebp |
| addl %edi,%ecx |
| movl %edx,%edi |
| roll $5,%edx |
| addl %esi,%ecx |
| xorl %ebx,%eax |
| addl %edx,%ecx |
| movl %ebp,%esi |
| xorl %eax,%ebp |
| addl 44(%rsp),%ebx |
| andl %eax,%esi |
| andl %ebp,%edi |
| .byte 102,69,15,56,220,222 |
| movups 64(%r15),%xmm15 |
| rorl $7,%edx |
| addl %esi,%ebx |
| movl %ecx,%esi |
| roll $5,%ecx |
| addl %edi,%ebx |
| xorl %eax,%ebp |
| addl %ecx,%ebx |
| movl %edx,%edi |
| pxor %xmm3,%xmm7 |
| .byte 102,68,15,58,15,213,8 |
| xorl %ebp,%edx |
| addl 48(%rsp),%eax |
| andl %ebp,%edi |
| pxor %xmm0,%xmm7 |
| andl %edx,%esi |
| rorl $7,%ecx |
| movdqa 48(%r11),%xmm9 |
| paddd %xmm6,%xmm8 |
| addl %edi,%eax |
| movl %ebx,%edi |
| pxor %xmm10,%xmm7 |
| roll $5,%ebx |
| addl %esi,%eax |
| xorl %ebp,%edx |
| addl %ebx,%eax |
| movdqa %xmm7,%xmm10 |
| movdqa %xmm8,32(%rsp) |
| movl %ecx,%esi |
| .byte 102,69,15,56,220,223 |
| movups 80(%r15),%xmm14 |
| xorl %edx,%ecx |
| addl 52(%rsp),%ebp |
| andl %edx,%esi |
| pslld $2,%xmm7 |
| andl %ecx,%edi |
| rorl $7,%ebx |
| psrld $30,%xmm10 |
| addl %esi,%ebp |
| movl %eax,%esi |
| roll $5,%eax |
| addl %edi,%ebp |
| xorl %edx,%ecx |
| addl %eax,%ebp |
| por %xmm10,%xmm7 |
| movl %ebx,%edi |
| xorl %ecx,%ebx |
| movdqa %xmm7,%xmm8 |
| addl 56(%rsp),%edx |
| andl %ecx,%edi |
| andl %ebx,%esi |
| rorl $7,%eax |
| addl %edi,%edx |
| movl %ebp,%edi |
| roll $5,%ebp |
| .byte 102,69,15,56,220,222 |
| movups 96(%r15),%xmm15 |
| addl %esi,%edx |
| xorl %ecx,%ebx |
| addl %ebp,%edx |
| movl %eax,%esi |
| xorl %ebx,%eax |
| addl 60(%rsp),%ecx |
| andl %ebx,%esi |
| andl %eax,%edi |
| rorl $7,%ebp |
| addl %esi,%ecx |
| movl %edx,%esi |
| roll $5,%edx |
| addl %edi,%ecx |
| xorl %ebx,%eax |
| addl %edx,%ecx |
| movl %ebp,%edi |
| pxor %xmm4,%xmm0 |
| .byte 102,68,15,58,15,198,8 |
| xorl %eax,%ebp |
| addl 0(%rsp),%ebx |
| andl %eax,%edi |
| pxor %xmm1,%xmm0 |
| andl %ebp,%esi |
| .byte 102,69,15,56,220,223 |
| movups 112(%r15),%xmm14 |
| rorl $7,%edx |
| movdqa %xmm9,%xmm10 |
| paddd %xmm7,%xmm9 |
| addl %edi,%ebx |
| movl %ecx,%edi |
| pxor %xmm8,%xmm0 |
| roll $5,%ecx |
| addl %esi,%ebx |
| xorl %eax,%ebp |
| addl %ecx,%ebx |
| movdqa %xmm0,%xmm8 |
| movdqa %xmm9,48(%rsp) |
| movl %edx,%esi |
| xorl %ebp,%edx |
| addl 4(%rsp),%eax |
| andl %ebp,%esi |
| pslld $2,%xmm0 |
| andl %edx,%edi |
| rorl $7,%ecx |
| psrld $30,%xmm8 |
| addl %esi,%eax |
| movl %ebx,%esi |
| roll $5,%ebx |
| addl %edi,%eax |
| xorl %ebp,%edx |
| addl %ebx,%eax |
| por %xmm8,%xmm0 |
| movl %ecx,%edi |
| .byte 102,69,15,56,220,222 |
| movups 128(%r15),%xmm15 |
| xorl %edx,%ecx |
| movdqa %xmm0,%xmm9 |
| addl 8(%rsp),%ebp |
| andl %edx,%edi |
| andl %ecx,%esi |
| rorl $7,%ebx |
| addl %edi,%ebp |
| movl %eax,%edi |
| roll $5,%eax |
| addl %esi,%ebp |
| xorl %edx,%ecx |
| addl %eax,%ebp |
| movl %ebx,%esi |
| xorl %ecx,%ebx |
| addl 12(%rsp),%edx |
| andl %ecx,%esi |
| andl %ebx,%edi |
| rorl $7,%eax |
| addl %esi,%edx |
| movl %ebp,%esi |
| roll $5,%ebp |
| .byte 102,69,15,56,220,223 |
| movups 144(%r15),%xmm14 |
| addl %edi,%edx |
| xorl %ecx,%ebx |
| addl %ebp,%edx |
| movl %eax,%edi |
| pxor %xmm5,%xmm1 |
| .byte 102,68,15,58,15,207,8 |
| xorl %ebx,%eax |
| addl 16(%rsp),%ecx |
| andl %ebx,%edi |
| pxor %xmm2,%xmm1 |
| andl %eax,%esi |
| rorl $7,%ebp |
| movdqa %xmm10,%xmm8 |
| paddd %xmm0,%xmm10 |
| addl %edi,%ecx |
| movl %edx,%edi |
| pxor %xmm9,%xmm1 |
| roll $5,%edx |
| addl %esi,%ecx |
| xorl %ebx,%eax |
| addl %edx,%ecx |
| movdqa %xmm1,%xmm9 |
| movdqa %xmm10,0(%rsp) |
| movl %ebp,%esi |
| xorl %eax,%ebp |
| addl 20(%rsp),%ebx |
| andl %eax,%esi |
| pslld $2,%xmm1 |
| andl %ebp,%edi |
| .byte 102,69,15,56,220,222 |
| movups 160(%r15),%xmm15 |
| rorl $7,%edx |
| psrld $30,%xmm9 |
| addl %esi,%ebx |
| movl %ecx,%esi |
| roll $5,%ecx |
| addl %edi,%ebx |
| xorl %eax,%ebp |
| addl %ecx,%ebx |
| por %xmm9,%xmm1 |
| movl %edx,%edi |
| xorl %ebp,%edx |
| movdqa %xmm1,%xmm10 |
| addl 24(%rsp),%eax |
| andl %ebp,%edi |
| andl %edx,%esi |
| rorl $7,%ecx |
| addl %edi,%eax |
| movl %ebx,%edi |
| roll $5,%ebx |
| addl %esi,%eax |
| xorl %ebp,%edx |
| addl %ebx,%eax |
| movl %ecx,%esi |
| cmpl $11,%r8d |
| jb .Laesenclast3 |
| movups 176(%r15),%xmm14 |
| .byte 102,69,15,56,220,223 |
| movups 192(%r15),%xmm15 |
| .byte 102,69,15,56,220,222 |
| je .Laesenclast3 |
| movups 208(%r15),%xmm14 |
| .byte 102,69,15,56,220,223 |
| movups 224(%r15),%xmm15 |
| .byte 102,69,15,56,220,222 |
| .Laesenclast3: |
| .byte 102,69,15,56,221,223 |
| movups 16(%r15),%xmm14 |
| xorl %edx,%ecx |
| addl 28(%rsp),%ebp |
| andl %edx,%esi |
| andl %ecx,%edi |
| rorl $7,%ebx |
| addl %esi,%ebp |
| movl %eax,%esi |
| roll $5,%eax |
| addl %edi,%ebp |
| xorl %edx,%ecx |
| addl %eax,%ebp |
| movl %ebx,%edi |
| pxor %xmm6,%xmm2 |
| .byte 102,68,15,58,15,208,8 |
| xorl %ecx,%ebx |
| addl 32(%rsp),%edx |
| andl %ecx,%edi |
| pxor %xmm3,%xmm2 |
| andl %ebx,%esi |
| rorl $7,%eax |
| movdqa %xmm8,%xmm9 |
| paddd %xmm1,%xmm8 |
| addl %edi,%edx |
| movl %ebp,%edi |
| pxor %xmm10,%xmm2 |
| roll $5,%ebp |
| movups 48(%r12),%xmm12 |
| xorps %xmm13,%xmm12 |
| movups %xmm11,32(%r13,%r12,1) |
| xorps %xmm12,%xmm11 |
| .byte 102,69,15,56,220,222 |
| movups 32(%r15),%xmm15 |
| addl %esi,%edx |
| xorl %ecx,%ebx |
| addl %ebp,%edx |
| movdqa %xmm2,%xmm10 |
| movdqa %xmm8,16(%rsp) |
| movl %eax,%esi |
| xorl %ebx,%eax |
| addl 36(%rsp),%ecx |
| andl %ebx,%esi |
| pslld $2,%xmm2 |
| andl %eax,%edi |
| rorl $7,%ebp |
| psrld $30,%xmm10 |
| addl %esi,%ecx |
| movl %edx,%esi |
| roll $5,%edx |
| addl %edi,%ecx |
| xorl %ebx,%eax |
| addl %edx,%ecx |
| por %xmm10,%xmm2 |
| movl %ebp,%edi |
| xorl %eax,%ebp |
| movdqa %xmm2,%xmm8 |
| addl 40(%rsp),%ebx |
| andl %eax,%edi |
| andl %ebp,%esi |
| .byte 102,69,15,56,220,223 |
| movups 48(%r15),%xmm14 |
| rorl $7,%edx |
| addl %edi,%ebx |
| movl %ecx,%edi |
| roll $5,%ecx |
| addl %esi,%ebx |
| xorl %eax,%ebp |
| addl %ecx,%ebx |
| movl %edx,%esi |
| xorl %ebp,%edx |
| addl 44(%rsp),%eax |
| andl %ebp,%esi |
| andl %edx,%edi |
| rorl $7,%ecx |
| addl %esi,%eax |
| movl %ebx,%esi |
| roll $5,%ebx |
| addl %edi,%eax |
| xorl %ebp,%edx |
| addl %ebx,%eax |
| addl 48(%rsp),%ebp |
| .byte 102,69,15,56,220,222 |
| movups 64(%r15),%xmm15 |
| pxor %xmm7,%xmm3 |
| .byte 102,68,15,58,15,193,8 |
| xorl %edx,%esi |
| movl %eax,%edi |
| roll $5,%eax |
| pxor %xmm4,%xmm3 |
| xorl %ecx,%esi |
| addl %eax,%ebp |
| movdqa %xmm9,%xmm10 |
| paddd %xmm2,%xmm9 |
| rorl $7,%ebx |
| addl %esi,%ebp |
| pxor %xmm8,%xmm3 |
| addl 52(%rsp),%edx |
| xorl %ecx,%edi |
| movl %ebp,%esi |
| roll $5,%ebp |
| movdqa %xmm3,%xmm8 |
| movdqa %xmm9,32(%rsp) |
| xorl %ebx,%edi |
| addl %ebp,%edx |
| rorl $7,%eax |
| addl %edi,%edx |
| pslld $2,%xmm3 |
| addl 56(%rsp),%ecx |
| xorl %ebx,%esi |
| psrld $30,%xmm8 |
| movl %edx,%edi |
| roll $5,%edx |
| xorl %eax,%esi |
| .byte 102,69,15,56,220,223 |
| movups 80(%r15),%xmm14 |
| addl %edx,%ecx |
| rorl $7,%ebp |
| addl %esi,%ecx |
| por %xmm8,%xmm3 |
| addl 60(%rsp),%ebx |
| xorl %eax,%edi |
| movl %ecx,%esi |
| roll $5,%ecx |
| xorl %ebp,%edi |
| addl %ecx,%ebx |
| rorl $7,%edx |
| addl %edi,%ebx |
| addl 0(%rsp),%eax |
| paddd %xmm3,%xmm10 |
| xorl %ebp,%esi |
| movl %ebx,%edi |
| roll $5,%ebx |
| xorl %edx,%esi |
| movdqa %xmm10,48(%rsp) |
| addl %ebx,%eax |
| rorl $7,%ecx |
| addl %esi,%eax |
| addl 4(%rsp),%ebp |
| .byte 102,69,15,56,220,222 |
| movups 96(%r15),%xmm15 |
| xorl %edx,%edi |
| movl %eax,%esi |
| roll $5,%eax |
| xorl %ecx,%edi |
| addl %eax,%ebp |
| rorl $7,%ebx |
| addl %edi,%ebp |
| addl 8(%rsp),%edx |
| xorl %ecx,%esi |
| movl %ebp,%edi |
| roll $5,%ebp |
| xorl %ebx,%esi |
| addl %ebp,%edx |
| rorl $7,%eax |
| addl %esi,%edx |
| addl 12(%rsp),%ecx |
| xorl %ebx,%edi |
| movl %edx,%esi |
| roll $5,%edx |
| xorl %eax,%edi |
| .byte 102,69,15,56,220,223 |
| movups 112(%r15),%xmm14 |
| addl %edx,%ecx |
| rorl $7,%ebp |
| addl %edi,%ecx |
| cmpq %r14,%r10 |
| je .Ldone_ssse3 |
| movdqa 64(%r11),%xmm6 |
| movdqa 0(%r11),%xmm9 |
| movdqu 0(%r10),%xmm0 |
| movdqu 16(%r10),%xmm1 |
| movdqu 32(%r10),%xmm2 |
| movdqu 48(%r10),%xmm3 |
| .byte 102,15,56,0,198 |
| addq $64,%r10 |
| addl 16(%rsp),%ebx |
| xorl %eax,%esi |
| .byte 102,15,56,0,206 |
| movl %ecx,%edi |
| roll $5,%ecx |
| paddd %xmm9,%xmm0 |
| xorl %ebp,%esi |
| addl %ecx,%ebx |
| rorl $7,%edx |
| addl %esi,%ebx |
| movdqa %xmm0,0(%rsp) |
| addl 20(%rsp),%eax |
| xorl %ebp,%edi |
| psubd %xmm9,%xmm0 |
| movl %ebx,%esi |
| roll $5,%ebx |
| xorl %edx,%edi |
| addl %ebx,%eax |
| rorl $7,%ecx |
| addl %edi,%eax |
| addl 24(%rsp),%ebp |
| .byte 102,69,15,56,220,222 |
| movups 128(%r15),%xmm15 |
| xorl %edx,%esi |
| movl %eax,%edi |
| roll $5,%eax |
| xorl %ecx,%esi |
| addl %eax,%ebp |
| rorl $7,%ebx |
| addl %esi,%ebp |
| addl 28(%rsp),%edx |
| xorl %ecx,%edi |
| movl %ebp,%esi |
| roll $5,%ebp |
| xorl %ebx,%edi |
| addl %ebp,%edx |
| rorl $7,%eax |
| addl %edi,%edx |
| addl 32(%rsp),%ecx |
| xorl %ebx,%esi |
| .byte 102,15,56,0,214 |
| movl %edx,%edi |
| roll $5,%edx |
| paddd %xmm9,%xmm1 |
| xorl %eax,%esi |
| .byte 102,69,15,56,220,223 |
| movups 144(%r15),%xmm14 |
| addl %edx,%ecx |
| rorl $7,%ebp |
| addl %esi,%ecx |
| movdqa %xmm1,16(%rsp) |
| addl 36(%rsp),%ebx |
| xorl %eax,%edi |
| psubd %xmm9,%xmm1 |
| movl %ecx,%esi |
| roll $5,%ecx |
| xorl %ebp,%edi |
| addl %ecx,%ebx |
| rorl $7,%edx |
| addl %edi,%ebx |
| addl 40(%rsp),%eax |
| xorl %ebp,%esi |
| movl %ebx,%edi |
| roll $5,%ebx |
| xorl %edx,%esi |
| addl %ebx,%eax |
| rorl $7,%ecx |
| addl %esi,%eax |
| addl 44(%rsp),%ebp |
| .byte 102,69,15,56,220,222 |
| movups 160(%r15),%xmm15 |
| xorl %edx,%edi |
| movl %eax,%esi |
| roll $5,%eax |
| xorl %ecx,%edi |
| addl %eax,%ebp |
| rorl $7,%ebx |
| addl %edi,%ebp |
| addl 48(%rsp),%edx |
| xorl %ecx,%esi |
| .byte 102,15,56,0,222 |
| movl %ebp,%edi |
| roll $5,%ebp |
| paddd %xmm9,%xmm2 |
| xorl %ebx,%esi |
| addl %ebp,%edx |
| rorl $7,%eax |
| addl %esi,%edx |
| movdqa %xmm2,32(%rsp) |
| addl 52(%rsp),%ecx |
| xorl %ebx,%edi |
| psubd %xmm9,%xmm2 |
| movl %edx,%esi |
| roll $5,%edx |
| xorl %eax,%edi |
| cmpl $11,%r8d |
| jb .Laesenclast4 |
| movups 176(%r15),%xmm14 |
| .byte 102,69,15,56,220,223 |
| movups 192(%r15),%xmm15 |
| .byte 102,69,15,56,220,222 |
| je .Laesenclast4 |
| movups 208(%r15),%xmm14 |
| .byte 102,69,15,56,220,223 |
| movups 224(%r15),%xmm15 |
| .byte 102,69,15,56,220,222 |
| .Laesenclast4: |
| .byte 102,69,15,56,221,223 |
| movups 16(%r15),%xmm14 |
| addl %edx,%ecx |
| rorl $7,%ebp |
| addl %edi,%ecx |
| addl 56(%rsp),%ebx |
| xorl %eax,%esi |
| movl %ecx,%edi |
| roll $5,%ecx |
| xorl %ebp,%esi |
| addl %ecx,%ebx |
| rorl $7,%edx |
| addl %esi,%ebx |
| addl 60(%rsp),%eax |
| xorl %ebp,%edi |
| movl %ebx,%esi |
| roll $5,%ebx |
| xorl %edx,%edi |
| addl %ebx,%eax |
| rorl $7,%ecx |
| addl %edi,%eax |
| movups %xmm11,48(%r13,%r12,1) |
| leaq 64(%r12),%r12 |
| |
| addl 0(%r9),%eax |
| addl 4(%r9),%esi |
| addl 8(%r9),%ecx |
| addl 12(%r9),%edx |
| movl %eax,0(%r9) |
| addl 16(%r9),%ebp |
| movl %esi,4(%r9) |
| movl %esi,%ebx |
| movl %ecx,8(%r9) |
| movl %edx,12(%r9) |
| movl %ebp,16(%r9) |
| jmp .Loop_ssse3 |
| |
| .align 16 |
| .Ldone_ssse3: |
| addl 16(%rsp),%ebx |
| xorl %eax,%esi |
| movl %ecx,%edi |
| roll $5,%ecx |
| xorl %ebp,%esi |
| addl %ecx,%ebx |
| rorl $7,%edx |
| addl %esi,%ebx |
| addl 20(%rsp),%eax |
| xorl %ebp,%edi |
| movl %ebx,%esi |
| roll $5,%ebx |
| xorl %edx,%edi |
| addl %ebx,%eax |
| rorl $7,%ecx |
| addl %edi,%eax |
| addl 24(%rsp),%ebp |
| .byte 102,69,15,56,220,222 |
| movups 128(%r15),%xmm15 |
| xorl %edx,%esi |
| movl %eax,%edi |
| roll $5,%eax |
| xorl %ecx,%esi |
| addl %eax,%ebp |
| rorl $7,%ebx |
| addl %esi,%ebp |
| addl 28(%rsp),%edx |
| xorl %ecx,%edi |
| movl %ebp,%esi |
| roll $5,%ebp |
| xorl %ebx,%edi |
| addl %ebp,%edx |
| rorl $7,%eax |
| addl %edi,%edx |
| addl 32(%rsp),%ecx |
| xorl %ebx,%esi |
| movl %edx,%edi |
| roll $5,%edx |
| xorl %eax,%esi |
| .byte 102,69,15,56,220,223 |
| movups 144(%r15),%xmm14 |
| addl %edx,%ecx |
| rorl $7,%ebp |
| addl %esi,%ecx |
| addl 36(%rsp),%ebx |
| xorl %eax,%edi |
| movl %ecx,%esi |
| roll $5,%ecx |
| xorl %ebp,%edi |
| addl %ecx,%ebx |
| rorl $7,%edx |
| addl %edi,%ebx |
| addl 40(%rsp),%eax |
| xorl %ebp,%esi |
| movl %ebx,%edi |
| roll $5,%ebx |
| xorl %edx,%esi |
| addl %ebx,%eax |
| rorl $7,%ecx |
| addl %esi,%eax |
| addl 44(%rsp),%ebp |
| .byte 102,69,15,56,220,222 |
| movups 160(%r15),%xmm15 |
| xorl %edx,%edi |
| movl %eax,%esi |
| roll $5,%eax |
| xorl %ecx,%edi |
| addl %eax,%ebp |
| rorl $7,%ebx |
| addl %edi,%ebp |
| addl 48(%rsp),%edx |
| xorl %ecx,%esi |
| movl %ebp,%edi |
| roll $5,%ebp |
| xorl %ebx,%esi |
| addl %ebp,%edx |
| rorl $7,%eax |
| addl %esi,%edx |
| addl 52(%rsp),%ecx |
| xorl %ebx,%edi |
| movl %edx,%esi |
| roll $5,%edx |
| xorl %eax,%edi |
| cmpl $11,%r8d |
| jb .Laesenclast5 |
| movups 176(%r15),%xmm14 |
| .byte 102,69,15,56,220,223 |
| movups 192(%r15),%xmm15 |
| .byte 102,69,15,56,220,222 |
| je .Laesenclast5 |
| movups 208(%r15),%xmm14 |
| .byte 102,69,15,56,220,223 |
| movups 224(%r15),%xmm15 |
| .byte 102,69,15,56,220,222 |
| .Laesenclast5: |
| .byte 102,69,15,56,221,223 |
| movups 16(%r15),%xmm14 |
| addl %edx,%ecx |
| rorl $7,%ebp |
| addl %edi,%ecx |
| addl 56(%rsp),%ebx |
| xorl %eax,%esi |
| movl %ecx,%edi |
| roll $5,%ecx |
| xorl %ebp,%esi |
| addl %ecx,%ebx |
| rorl $7,%edx |
| addl %esi,%ebx |
| addl 60(%rsp),%eax |
| xorl %ebp,%edi |
| movl %ebx,%esi |
| roll $5,%ebx |
| xorl %edx,%edi |
| addl %ebx,%eax |
| rorl $7,%ecx |
| addl %edi,%eax |
| movups %xmm11,48(%r13,%r12,1) |
| movq 88(%rsp),%r8 |
| |
| addl 0(%r9),%eax |
| addl 4(%r9),%esi |
| addl 8(%r9),%ecx |
| movl %eax,0(%r9) |
| addl 12(%r9),%edx |
| movl %esi,4(%r9) |
| addl 16(%r9),%ebp |
| movl %ecx,8(%r9) |
| movl %edx,12(%r9) |
| movl %ebp,16(%r9) |
| movups %xmm11,(%r8) |
| leaq 104(%rsp),%rsi |
| movq 0(%rsi),%r15 |
| movq 8(%rsi),%r14 |
| movq 16(%rsi),%r13 |
| movq 24(%rsi),%r12 |
| movq 32(%rsi),%rbp |
| movq 40(%rsi),%rbx |
| leaq 48(%rsi),%rsp |
| .Lepilogue_ssse3: |
| .byte 0xf3,0xc3 |
| .size aesni_cbc_sha1_enc_ssse3,.-aesni_cbc_sha1_enc_ssse3 |
| .align 64 |
| K_XX_XX: |
| .long 0x5a827999,0x5a827999,0x5a827999,0x5a827999 |
| .long 0x6ed9eba1,0x6ed9eba1,0x6ed9eba1,0x6ed9eba1 |
| .long 0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc |
| .long 0xca62c1d6,0xca62c1d6,0xca62c1d6,0xca62c1d6 |
| .long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f |
| |
| .byte 65,69,83,78,73,45,67,66,67,43,83,72,65,49,32,115,116,105,116,99,104,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0 |
| .align 64 |