blob: 241e1ab46b6a094a7250ad8ac6772ac64732b79f [file] [log] [blame]
@/******************************************************************************
@ *
@ * Copyright (C) 2018 The Android Open Source Project
@ *
@ * Licensed under the Apache License, Version 2.0 (the "License");
@ * you may not use this file except in compliance with the License.
@ * You may obtain a copy of the License at:
@ *
@ * http://www.apache.org/licenses/LICENSE-2.0
@ *
@ * Unless required by applicable law or agreed to in writing, software
@ * distributed under the License is distributed on an "AS IS" BASIS,
@ * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
@ * See the License for the specific language governing permissions and
@ * limitations under the License.
@ *
@ *****************************************************************************
@ * Originally developed and contributed by Ittiam Systems Pvt. Ltd, Bangalore
@*/
.text
.p2align 2
.global ixheaacd_mps_mulshift_acc
ixheaacd_mps_mulshift_acc:
STMFD sp!, {R4-R12, R14}
VPUSH {d8 - d15}
LDR R4, [SP, #104] @Argument V_fix
LDR R5, [SP, #108] @Argument 2*resolution
ASR R6, R5, #1
MOV R7, R4
MOV R11, #40
MUL R11, R11, R5
ADD R7, R7, R11
LSL R8, R5, #2
SUB R8, R7, R8
MOV R10, #9
MUL R9, R5, R10
COPYLOOP:
SUB R8, R8, #32
VLD1.32 {Q0, Q1}, [R8]
SUB R7, R7, #32
VST1.32 {Q0, Q1}, [R7]
SUBS R9, R9, #8
BGT COPYLOOP
LOOP:
VMOV.I64 Q14, #0
VMOV.I64 Q15, #0
MOV R7, R6
MOV R8, R0
MOV R9, R1
LOOP1:
VLD1.32 {Q0, Q1}, [R8]! @LOADING values from R0 Sr_fix
VLD1.32 {Q2, Q3}, [R9]! @LOADING values from R1 Si_fix
VLD1.32 {Q4, Q5}, [R2]! @LOADING values from R2 N.real_fix
VLD1.32 {Q6, Q7}, [R3]! @LOADING values from R3 N.imag_fix
VMULL.S32 Q12, D0, D8
VMULL.S32 Q10, D1, D9
VMULL.S32 Q11, D3, D11
VMULL.S32 Q13, D2, D10
VMULL.S32 Q0, D4, D12
VMULL.S32 Q4, D5, D13
VMULL.S32 Q5, D7, D15
VMULL.S32 Q1, D6, D14
VSHR.S64 Q0, Q0, #31
VSHR.S64 Q1, Q1, #31
VSHR.S64 Q4, Q4, #31
VSHR.S64 Q5, Q5, #31
VSHR.S64 Q12, Q12, #31
VSHR.S64 Q13, Q13, #31
VSHR.S64 Q10, Q10, #31
VSHR.S64 Q11, Q11, #31
VSUB.I64 Q12, Q12, Q0
VSUB.I64 Q13, Q13, Q1
VSUB.I64 Q10, Q10, Q4
VSUB.I64 Q11, Q11, Q5
VADD.I64 Q12, Q12, Q13
VADD.I64 Q10, Q10, Q11
VADD.I64 Q12, Q12, Q10
VADD.I64 D24, D24, D25
VADD.I64 D28, D28, D24
SUBS R7, R7, #8
BGT LOOP1
MOV R7, R6
MOV R8, R0
MOV R9, R1
LOOP2:
VLD1.32 {Q0, Q1}, [R8]! @LOADING values from R0 Sr_fix
VLD1.32 {Q2, Q3}, [R9]! @LOADING values from R1 Si_fix
VLD1.32 {Q4, Q5}, [R2]! @LOADING values from R2 N.real_fix
VLD1.32 {Q6, Q7}, [R3]! @LOADING values from R3 N.imag_fix
VMULL.S32 Q12, D0, D8
VMULL.S32 Q10, D1, D9
VMULL.S32 Q11, D3, D11
VMULL.S32 Q13, D2, D10
VMULL.S32 Q0, D4, D12
VMULL.S32 Q4, D5, D13
VMULL.S32 Q5, D7, D15
VMULL.S32 Q1, D6, D14
VSHR.S64 Q12, Q12, #31
VSHR.S64 Q13, Q13, #31
VSHR.S64 Q10, Q10, #31
VSHR.S64 Q11, Q11, #31
VSHR.S64 Q0, Q0, #31
VSHR.S64 Q1, Q1, #31
VSHR.S64 Q4, Q4, #31
VSHR.S64 Q5, Q5, #31
VSUB.I64 Q12, Q12, Q0
VSUB.I64 Q13, Q13, Q1
VSUB.I64 Q10, Q10, Q4
VSUB.I64 Q11, Q11, Q5
VADD.I64 Q12, Q12, Q13
VADD.I64 Q10, Q10, Q11
VADD.I64 Q12, Q12, Q10
VADD.I64 D24, D24, D25
VADD.I64 D29, D29, D24
SUBS R7, R7, #8
BGT LOOP2
MOV R7, R6
MOV R8, R0
MOV R9, R1
LOOP3:
VLD1.32 {Q0, Q1}, [R8]! @LOADING values from R0 Sr_fix
VLD1.32 {Q2, Q3}, [R9]! @LOADING values from R1 Si_fix
VLD1.32 {Q4, Q5}, [R2]! @LOADING values from R2 N.real_fix
VLD1.32 {Q6, Q7}, [R3]! @LOADING values from R3 N.imag_fix
VMULL.S32 Q12, D0, D8
VMULL.S32 Q10, D1, D9
VMULL.S32 Q11, D3, D11
VMULL.S32 Q13, D2, D10
VMULL.S32 Q0, D4, D12
VMULL.S32 Q4, D5, D13
VMULL.S32 Q5, D7, D15
VMULL.S32 Q1, D6, D14
VSHR.S64 Q12, Q12, #31
VSHR.S64 Q13, Q13, #31
VSHR.S64 Q10, Q10, #31
VSHR.S64 Q11, Q11, #31
VSHR.S64 Q0, Q0, #31
VSHR.S64 Q1, Q1, #31
VSHR.S64 Q4, Q4, #31
VSHR.S64 Q5, Q5, #31
VSUB.I64 Q12, Q12, Q0
VSUB.I64 Q13, Q13, Q1
VSUB.I64 Q10, Q10, Q4
VSUB.I64 Q11, Q11, Q5
VADD.I64 Q12, Q12, Q13
VADD.I64 Q10, Q10, Q11
VADD.I64 Q12, Q12, Q10
VADD.I64 D24, D24, D25
VADD.I64 D30, D30, D24
SUBS R7, R7, #8
BGT LOOP3
MOV R7, R6
MOV R8, R0
MOV R9, R1
LOOP4:
VLD1.32 {Q0, Q1}, [R8]! @LOADING values from R0 Sr_fix
VLD1.32 {Q2, Q3}, [R9]! @LOADING values from R1 Si_fix
VLD1.32 {Q4, Q5}, [R2]! @LOADING values from R2 N.real_fix
VLD1.32 {Q6, Q7}, [R3]! @LOADING values from R3 N.imag_fix
VMULL.S32 Q12, D0, D8
VMULL.S32 Q10, D1, D9
VMULL.S32 Q11, D3, D11
VMULL.S32 Q13, D2, D10
VMULL.S32 Q0, D4, D12
VMULL.S32 Q4, D5, D13
VMULL.S32 Q5, D7, D15
VMULL.S32 Q1, D6, D14
VSHR.S64 Q12, Q12, #31
VSHR.S64 Q13, Q13, #31
VSHR.S64 Q10, Q10, #31
VSHR.S64 Q11, Q11, #31
VSHR.S64 Q0, Q0, #31
VSHR.S64 Q1, Q1, #31
VSHR.S64 Q4, Q4, #31
VSHR.S64 Q5, Q5, #31
VSUB.I64 Q12, Q12, Q0
VSUB.I64 Q13, Q13, Q1
VSUB.I64 Q10, Q10, Q4
VSUB.I64 Q11, Q11, Q5
VADD.I64 Q12, Q12, Q13
VADD.I64 Q10, Q10, Q11
VADD.I64 Q12, Q12, Q10
VADD.I64 D24, D24, D25
VADD.I64 D31, D31, D24
SUBS R7, R7, #8
BGT LOOP4
VQMOVN.S64 D0, Q14
VQMOVN.S64 D1, Q15
VST1.32 {Q0}, [R4]! @Storing values to R4
SUBS R5, R5, #4
BGT LOOP
VPOP {d8 - d15}
LDMFD sp!, {R4-R12, R14}
BX LR