blob: d7a4136a01aa35d0f2ca1201d54431552dddd1cd [file] [log] [blame]
/*
* Copyright (C) 2013 The Android Open Source Project
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include "compiler_internals.h"
#include "dataflow_iterator-inl.h"
namespace art {
// Instruction characteristics used to statically identify computation-intensive methods.
const uint32_t MIRGraph::analysis_attributes_[kMirOpLast] = {
// 00 NOP
AN_NONE,
// 01 MOVE vA, vB
AN_MOVE,
// 02 MOVE_FROM16 vAA, vBBBB
AN_MOVE,
// 03 MOVE_16 vAAAA, vBBBB
AN_MOVE,
// 04 MOVE_WIDE vA, vB
AN_MOVE,
// 05 MOVE_WIDE_FROM16 vAA, vBBBB
AN_MOVE,
// 06 MOVE_WIDE_16 vAAAA, vBBBB
AN_MOVE,
// 07 MOVE_OBJECT vA, vB
AN_MOVE,
// 08 MOVE_OBJECT_FROM16 vAA, vBBBB
AN_MOVE,
// 09 MOVE_OBJECT_16 vAAAA, vBBBB
AN_MOVE,
// 0A MOVE_RESULT vAA
AN_MOVE,
// 0B MOVE_RESULT_WIDE vAA
AN_MOVE,
// 0C MOVE_RESULT_OBJECT vAA
AN_MOVE,
// 0D MOVE_EXCEPTION vAA
AN_MOVE,
// 0E RETURN_VOID
AN_BRANCH,
// 0F RETURN vAA
AN_BRANCH,
// 10 RETURN_WIDE vAA
AN_BRANCH,
// 11 RETURN_OBJECT vAA
AN_BRANCH,
// 12 CONST_4 vA, #+B
AN_SIMPLECONST,
// 13 CONST_16 vAA, #+BBBB
AN_SIMPLECONST,
// 14 CONST vAA, #+BBBBBBBB
AN_SIMPLECONST,
// 15 CONST_HIGH16 VAA, #+BBBB0000
AN_SIMPLECONST,
// 16 CONST_WIDE_16 vAA, #+BBBB
AN_SIMPLECONST,
// 17 CONST_WIDE_32 vAA, #+BBBBBBBB
AN_SIMPLECONST,
// 18 CONST_WIDE vAA, #+BBBBBBBBBBBBBBBB
AN_SIMPLECONST,
// 19 CONST_WIDE_HIGH16 vAA, #+BBBB000000000000
AN_SIMPLECONST,
// 1A CONST_STRING vAA, string@BBBB
AN_NONE,
// 1B CONST_STRING_JUMBO vAA, string@BBBBBBBB
AN_NONE,
// 1C CONST_CLASS vAA, type@BBBB
AN_NONE,
// 1D MONITOR_ENTER vAA
AN_NONE,
// 1E MONITOR_EXIT vAA
AN_NONE,
// 1F CHK_CAST vAA, type@BBBB
AN_NONE,
// 20 INSTANCE_OF vA, vB, type@CCCC
AN_NONE,
// 21 ARRAY_LENGTH vA, vB
AN_ARRAYOP,
// 22 NEW_INSTANCE vAA, type@BBBB
AN_HEAVYWEIGHT,
// 23 NEW_ARRAY vA, vB, type@CCCC
AN_HEAVYWEIGHT,
// 24 FILLED_NEW_ARRAY {vD, vE, vF, vG, vA}
AN_HEAVYWEIGHT,
// 25 FILLED_NEW_ARRAY_RANGE {vCCCC .. vNNNN}, type@BBBB
AN_HEAVYWEIGHT,
// 26 FILL_ARRAY_DATA vAA, +BBBBBBBB
AN_NONE,
// 27 THROW vAA
AN_HEAVYWEIGHT | AN_BRANCH,
// 28 GOTO
AN_BRANCH,
// 29 GOTO_16
AN_BRANCH,
// 2A GOTO_32
AN_BRANCH,
// 2B PACKED_SWITCH vAA, +BBBBBBBB
AN_SWITCH,
// 2C SPARSE_SWITCH vAA, +BBBBBBBB
AN_SWITCH,
// 2D CMPL_FLOAT vAA, vBB, vCC
AN_MATH | AN_FP | AN_SINGLE,
// 2E CMPG_FLOAT vAA, vBB, vCC
AN_MATH | AN_FP | AN_SINGLE,
// 2F CMPL_DOUBLE vAA, vBB, vCC
AN_MATH | AN_FP | AN_DOUBLE,
// 30 CMPG_DOUBLE vAA, vBB, vCC
AN_MATH | AN_FP | AN_DOUBLE,
// 31 CMP_LONG vAA, vBB, vCC
AN_MATH | AN_LONG,
// 32 IF_EQ vA, vB, +CCCC
AN_MATH | AN_BRANCH | AN_INT,
// 33 IF_NE vA, vB, +CCCC
AN_MATH | AN_BRANCH | AN_INT,
// 34 IF_LT vA, vB, +CCCC
AN_MATH | AN_BRANCH | AN_INT,
// 35 IF_GE vA, vB, +CCCC
AN_MATH | AN_BRANCH | AN_INT,
// 36 IF_GT vA, vB, +CCCC
AN_MATH | AN_BRANCH | AN_INT,
// 37 IF_LE vA, vB, +CCCC
AN_MATH | AN_BRANCH | AN_INT,
// 38 IF_EQZ vAA, +BBBB
AN_MATH | AN_BRANCH | AN_INT,
// 39 IF_NEZ vAA, +BBBB
AN_MATH | AN_BRANCH | AN_INT,
// 3A IF_LTZ vAA, +BBBB
AN_MATH | AN_BRANCH | AN_INT,
// 3B IF_GEZ vAA, +BBBB
AN_MATH | AN_BRANCH | AN_INT,
// 3C IF_GTZ vAA, +BBBB
AN_MATH | AN_BRANCH | AN_INT,
// 3D IF_LEZ vAA, +BBBB
AN_MATH | AN_BRANCH | AN_INT,
// 3E UNUSED_3E
AN_NONE,
// 3F UNUSED_3F
AN_NONE,
// 40 UNUSED_40
AN_NONE,
// 41 UNUSED_41
AN_NONE,
// 42 UNUSED_42
AN_NONE,
// 43 UNUSED_43
AN_NONE,
// 44 AGET vAA, vBB, vCC
AN_ARRAYOP,
// 45 AGET_WIDE vAA, vBB, vCC
AN_ARRAYOP,
// 46 AGET_OBJECT vAA, vBB, vCC
AN_ARRAYOP,
// 47 AGET_BOOLEAN vAA, vBB, vCC
AN_ARRAYOP,
// 48 AGET_BYTE vAA, vBB, vCC
AN_ARRAYOP,
// 49 AGET_CHAR vAA, vBB, vCC
AN_ARRAYOP,
// 4A AGET_SHORT vAA, vBB, vCC
AN_ARRAYOP,
// 4B APUT vAA, vBB, vCC
AN_ARRAYOP,
// 4C APUT_WIDE vAA, vBB, vCC
AN_ARRAYOP,
// 4D APUT_OBJECT vAA, vBB, vCC
AN_ARRAYOP,
// 4E APUT_BOOLEAN vAA, vBB, vCC
AN_ARRAYOP,
// 4F APUT_BYTE vAA, vBB, vCC
AN_ARRAYOP,
// 50 APUT_CHAR vAA, vBB, vCC
AN_ARRAYOP,
// 51 APUT_SHORT vAA, vBB, vCC
AN_ARRAYOP,
// 52 IGET vA, vB, field@CCCC
AN_NONE,
// 53 IGET_WIDE vA, vB, field@CCCC
AN_NONE,
// 54 IGET_OBJECT vA, vB, field@CCCC
AN_NONE,
// 55 IGET_BOOLEAN vA, vB, field@CCCC
AN_NONE,
// 56 IGET_BYTE vA, vB, field@CCCC
AN_NONE,
// 57 IGET_CHAR vA, vB, field@CCCC
AN_NONE,
// 58 IGET_SHORT vA, vB, field@CCCC
AN_NONE,
// 59 IPUT vA, vB, field@CCCC
AN_NONE,
// 5A IPUT_WIDE vA, vB, field@CCCC
AN_NONE,
// 5B IPUT_OBJECT vA, vB, field@CCCC
AN_NONE,
// 5C IPUT_BOOLEAN vA, vB, field@CCCC
AN_NONE,
// 5D IPUT_BYTE vA, vB, field@CCCC
AN_NONE,
// 5E IPUT_CHAR vA, vB, field@CCCC
AN_NONE,
// 5F IPUT_SHORT vA, vB, field@CCCC
AN_NONE,
// 60 SGET vAA, field@BBBB
AN_NONE,
// 61 SGET_WIDE vAA, field@BBBB
AN_NONE,
// 62 SGET_OBJECT vAA, field@BBBB
AN_NONE,
// 63 SGET_BOOLEAN vAA, field@BBBB
AN_NONE,
// 64 SGET_BYTE vAA, field@BBBB
AN_NONE,
// 65 SGET_CHAR vAA, field@BBBB
AN_NONE,
// 66 SGET_SHORT vAA, field@BBBB
AN_NONE,
// 67 SPUT vAA, field@BBBB
AN_NONE,
// 68 SPUT_WIDE vAA, field@BBBB
AN_NONE,
// 69 SPUT_OBJECT vAA, field@BBBB
AN_NONE,
// 6A SPUT_BOOLEAN vAA, field@BBBB
AN_NONE,
// 6B SPUT_BYTE vAA, field@BBBB
AN_NONE,
// 6C SPUT_CHAR vAA, field@BBBB
AN_NONE,
// 6D SPUT_SHORT vAA, field@BBBB
AN_NONE,
// 6E INVOKE_VIRTUAL {vD, vE, vF, vG, vA}
AN_INVOKE | AN_HEAVYWEIGHT,
// 6F INVOKE_SUPER {vD, vE, vF, vG, vA}
AN_INVOKE | AN_HEAVYWEIGHT,
// 70 INVOKE_DIRECT {vD, vE, vF, vG, vA}
AN_INVOKE | AN_HEAVYWEIGHT,
// 71 INVOKE_STATIC {vD, vE, vF, vG, vA}
AN_INVOKE | AN_HEAVYWEIGHT,
// 72 INVOKE_INTERFACE {vD, vE, vF, vG, vA}
AN_INVOKE | AN_HEAVYWEIGHT,
// 73 UNUSED_73
AN_NONE,
// 74 INVOKE_VIRTUAL_RANGE {vCCCC .. vNNNN}
AN_INVOKE | AN_HEAVYWEIGHT,
// 75 INVOKE_SUPER_RANGE {vCCCC .. vNNNN}
AN_INVOKE | AN_HEAVYWEIGHT,
// 76 INVOKE_DIRECT_RANGE {vCCCC .. vNNNN}
AN_INVOKE | AN_HEAVYWEIGHT,
// 77 INVOKE_STATIC_RANGE {vCCCC .. vNNNN}
AN_INVOKE | AN_HEAVYWEIGHT,
// 78 INVOKE_INTERFACE_RANGE {vCCCC .. vNNNN}
AN_INVOKE | AN_HEAVYWEIGHT,
// 79 UNUSED_79
AN_NONE,
// 7A UNUSED_7A
AN_NONE,
// 7B NEG_INT vA, vB
AN_MATH | AN_INT,
// 7C NOT_INT vA, vB
AN_MATH | AN_INT,
// 7D NEG_LONG vA, vB
AN_MATH | AN_LONG,
// 7E NOT_LONG vA, vB
AN_MATH | AN_LONG,
// 7F NEG_FLOAT vA, vB
AN_MATH | AN_FP | AN_SINGLE,
// 80 NEG_DOUBLE vA, vB
AN_MATH | AN_FP | AN_DOUBLE,
// 81 INT_TO_LONG vA, vB
AN_MATH | AN_INT | AN_LONG,
// 82 INT_TO_FLOAT vA, vB
AN_MATH | AN_FP | AN_INT | AN_SINGLE,
// 83 INT_TO_DOUBLE vA, vB
AN_MATH | AN_FP | AN_INT | AN_DOUBLE,
// 84 LONG_TO_INT vA, vB
AN_MATH | AN_INT | AN_LONG,
// 85 LONG_TO_FLOAT vA, vB
AN_MATH | AN_FP | AN_LONG | AN_SINGLE,
// 86 LONG_TO_DOUBLE vA, vB
AN_MATH | AN_FP | AN_LONG | AN_DOUBLE,
// 87 FLOAT_TO_INT vA, vB
AN_MATH | AN_FP | AN_INT | AN_SINGLE,
// 88 FLOAT_TO_LONG vA, vB
AN_MATH | AN_FP | AN_LONG | AN_SINGLE,
// 89 FLOAT_TO_DOUBLE vA, vB
AN_MATH | AN_FP | AN_SINGLE | AN_DOUBLE,
// 8A DOUBLE_TO_INT vA, vB
AN_MATH | AN_FP | AN_INT | AN_DOUBLE,
// 8B DOUBLE_TO_LONG vA, vB
AN_MATH | AN_FP | AN_LONG | AN_DOUBLE,
// 8C DOUBLE_TO_FLOAT vA, vB
AN_MATH | AN_FP | AN_SINGLE | AN_DOUBLE,
// 8D INT_TO_BYTE vA, vB
AN_MATH | AN_INT,
// 8E INT_TO_CHAR vA, vB
AN_MATH | AN_INT,
// 8F INT_TO_SHORT vA, vB
AN_MATH | AN_INT,
// 90 ADD_INT vAA, vBB, vCC
AN_MATH | AN_INT,
// 91 SUB_INT vAA, vBB, vCC
AN_MATH | AN_INT,
// 92 MUL_INT vAA, vBB, vCC
AN_MATH | AN_INT,
// 93 DIV_INT vAA, vBB, vCC
AN_MATH | AN_INT,
// 94 REM_INT vAA, vBB, vCC
AN_MATH | AN_INT,
// 95 AND_INT vAA, vBB, vCC
AN_MATH | AN_INT,
// 96 OR_INT vAA, vBB, vCC
AN_MATH | AN_INT,
// 97 XOR_INT vAA, vBB, vCC
AN_MATH | AN_INT,
// 98 SHL_INT vAA, vBB, vCC
AN_MATH | AN_INT,
// 99 SHR_INT vAA, vBB, vCC
AN_MATH | AN_INT,
// 9A USHR_INT vAA, vBB, vCC
AN_MATH | AN_INT,
// 9B ADD_LONG vAA, vBB, vCC
AN_MATH | AN_LONG,
// 9C SUB_LONG vAA, vBB, vCC
AN_MATH | AN_LONG,
// 9D MUL_LONG vAA, vBB, vCC
AN_MATH | AN_LONG,
// 9E DIV_LONG vAA, vBB, vCC
AN_MATH | AN_LONG,
// 9F REM_LONG vAA, vBB, vCC
AN_MATH | AN_LONG,
// A0 AND_LONG vAA, vBB, vCC
AN_MATH | AN_LONG,
// A1 OR_LONG vAA, vBB, vCC
AN_MATH | AN_LONG,
// A2 XOR_LONG vAA, vBB, vCC
AN_MATH | AN_LONG,
// A3 SHL_LONG vAA, vBB, vCC
AN_MATH | AN_LONG,
// A4 SHR_LONG vAA, vBB, vCC
AN_MATH | AN_LONG,
// A5 USHR_LONG vAA, vBB, vCC
AN_MATH | AN_LONG,
// A6 ADD_FLOAT vAA, vBB, vCC
AN_MATH | AN_FP | AN_SINGLE,
// A7 SUB_FLOAT vAA, vBB, vCC
AN_MATH | AN_FP | AN_SINGLE,
// A8 MUL_FLOAT vAA, vBB, vCC
AN_MATH | AN_FP | AN_SINGLE,
// A9 DIV_FLOAT vAA, vBB, vCC
AN_MATH | AN_FP | AN_SINGLE,
// AA REM_FLOAT vAA, vBB, vCC
AN_MATH | AN_FP | AN_SINGLE,
// AB ADD_DOUBLE vAA, vBB, vCC
AN_MATH | AN_FP | AN_DOUBLE,
// AC SUB_DOUBLE vAA, vBB, vCC
AN_MATH | AN_FP | AN_DOUBLE,
// AD MUL_DOUBLE vAA, vBB, vCC
AN_MATH | AN_FP | AN_DOUBLE,
// AE DIV_DOUBLE vAA, vBB, vCC
AN_MATH | AN_FP | AN_DOUBLE,
// AF REM_DOUBLE vAA, vBB, vCC
AN_MATH | AN_FP | AN_DOUBLE,
// B0 ADD_INT_2ADDR vA, vB
AN_MATH | AN_INT,
// B1 SUB_INT_2ADDR vA, vB
AN_MATH | AN_INT,
// B2 MUL_INT_2ADDR vA, vB
AN_MATH | AN_INT,
// B3 DIV_INT_2ADDR vA, vB
AN_MATH | AN_INT,
// B4 REM_INT_2ADDR vA, vB
AN_MATH | AN_INT,
// B5 AND_INT_2ADDR vA, vB
AN_MATH | AN_INT,
// B6 OR_INT_2ADDR vA, vB
AN_MATH | AN_INT,
// B7 XOR_INT_2ADDR vA, vB
AN_MATH | AN_INT,
// B8 SHL_INT_2ADDR vA, vB
AN_MATH | AN_INT,
// B9 SHR_INT_2ADDR vA, vB
AN_MATH | AN_INT,
// BA USHR_INT_2ADDR vA, vB
AN_MATH | AN_INT,
// BB ADD_LONG_2ADDR vA, vB
AN_MATH | AN_LONG,
// BC SUB_LONG_2ADDR vA, vB
AN_MATH | AN_LONG,
// BD MUL_LONG_2ADDR vA, vB
AN_MATH | AN_LONG,
// BE DIV_LONG_2ADDR vA, vB
AN_MATH | AN_LONG,
// BF REM_LONG_2ADDR vA, vB
AN_MATH | AN_LONG,
// C0 AND_LONG_2ADDR vA, vB
AN_MATH | AN_LONG,
// C1 OR_LONG_2ADDR vA, vB
AN_MATH | AN_LONG,
// C2 XOR_LONG_2ADDR vA, vB
AN_MATH | AN_LONG,
// C3 SHL_LONG_2ADDR vA, vB
AN_MATH | AN_LONG,
// C4 SHR_LONG_2ADDR vA, vB
AN_MATH | AN_LONG,
// C5 USHR_LONG_2ADDR vA, vB
AN_MATH | AN_LONG,
// C6 ADD_FLOAT_2ADDR vA, vB
AN_MATH | AN_FP | AN_SINGLE,
// C7 SUB_FLOAT_2ADDR vA, vB
AN_MATH | AN_FP | AN_SINGLE,
// C8 MUL_FLOAT_2ADDR vA, vB
AN_MATH | AN_FP | AN_SINGLE,
// C9 DIV_FLOAT_2ADDR vA, vB
AN_MATH | AN_FP | AN_SINGLE,
// CA REM_FLOAT_2ADDR vA, vB
AN_MATH | AN_FP | AN_SINGLE,
// CB ADD_DOUBLE_2ADDR vA, vB
AN_MATH | AN_FP | AN_DOUBLE,
// CC SUB_DOUBLE_2ADDR vA, vB
AN_MATH | AN_FP | AN_DOUBLE,
// CD MUL_DOUBLE_2ADDR vA, vB
AN_MATH | AN_FP | AN_DOUBLE,
// CE DIV_DOUBLE_2ADDR vA, vB
AN_MATH | AN_FP | AN_DOUBLE,
// CF REM_DOUBLE_2ADDR vA, vB
AN_MATH | AN_FP | AN_DOUBLE,
// D0 ADD_INT_LIT16 vA, vB, #+CCCC
AN_MATH | AN_INT,
// D1 RSUB_INT vA, vB, #+CCCC
AN_MATH | AN_INT,
// D2 MUL_INT_LIT16 vA, vB, #+CCCC
AN_MATH | AN_INT,
// D3 DIV_INT_LIT16 vA, vB, #+CCCC
AN_MATH | AN_INT,
// D4 REM_INT_LIT16 vA, vB, #+CCCC
AN_MATH | AN_INT,
// D5 AND_INT_LIT16 vA, vB, #+CCCC
AN_MATH | AN_INT,
// D6 OR_INT_LIT16 vA, vB, #+CCCC
AN_MATH | AN_INT,
// D7 XOR_INT_LIT16 vA, vB, #+CCCC
AN_MATH | AN_INT,
// D8 ADD_INT_LIT8 vAA, vBB, #+CC
AN_MATH | AN_INT,
// D9 RSUB_INT_LIT8 vAA, vBB, #+CC
AN_MATH | AN_INT,
// DA MUL_INT_LIT8 vAA, vBB, #+CC
AN_MATH | AN_INT,
// DB DIV_INT_LIT8 vAA, vBB, #+CC
AN_MATH | AN_INT,
// DC REM_INT_LIT8 vAA, vBB, #+CC
AN_MATH | AN_INT,
// DD AND_INT_LIT8 vAA, vBB, #+CC
AN_MATH | AN_INT,
// DE OR_INT_LIT8 vAA, vBB, #+CC
AN_MATH | AN_INT,
// DF XOR_INT_LIT8 vAA, vBB, #+CC
AN_MATH | AN_INT,
// E0 SHL_INT_LIT8 vAA, vBB, #+CC
AN_MATH | AN_INT,
// E1 SHR_INT_LIT8 vAA, vBB, #+CC
AN_MATH | AN_INT,
// E2 USHR_INT_LIT8 vAA, vBB, #+CC
AN_MATH | AN_INT,
// E3 IGET_VOLATILE
AN_NONE,
// E4 IPUT_VOLATILE
AN_NONE,
// E5 SGET_VOLATILE
AN_NONE,
// E6 SPUT_VOLATILE
AN_NONE,
// E7 IGET_OBJECT_VOLATILE
AN_NONE,
// E8 IGET_WIDE_VOLATILE
AN_NONE,
// E9 IPUT_WIDE_VOLATILE
AN_NONE,
// EA SGET_WIDE_VOLATILE
AN_NONE,
// EB SPUT_WIDE_VOLATILE
AN_NONE,
// EC BREAKPOINT
AN_NONE,
// ED THROW_VERIFICATION_ERROR
AN_HEAVYWEIGHT | AN_BRANCH,
// EE EXECUTE_INLINE
AN_NONE,
// EF EXECUTE_INLINE_RANGE
AN_NONE,
// F0 INVOKE_OBJECT_INIT_RANGE
AN_INVOKE | AN_HEAVYWEIGHT,
// F1 RETURN_VOID_BARRIER
AN_BRANCH,
// F2 IGET_QUICK
AN_NONE,
// F3 IGET_WIDE_QUICK
AN_NONE,
// F4 IGET_OBJECT_QUICK
AN_NONE,
// F5 IPUT_QUICK
AN_NONE,
// F6 IPUT_WIDE_QUICK
AN_NONE,
// F7 IPUT_OBJECT_QUICK
AN_NONE,
// F8 INVOKE_VIRTUAL_QUICK
AN_INVOKE | AN_HEAVYWEIGHT,
// F9 INVOKE_VIRTUAL_QUICK_RANGE
AN_INVOKE | AN_HEAVYWEIGHT,
// FA INVOKE_SUPER_QUICK
AN_INVOKE | AN_HEAVYWEIGHT,
// FB INVOKE_SUPER_QUICK_RANGE
AN_INVOKE | AN_HEAVYWEIGHT,
// FC IPUT_OBJECT_VOLATILE
AN_NONE,
// FD SGET_OBJECT_VOLATILE
AN_NONE,
// FE SPUT_OBJECT_VOLATILE
AN_NONE,
// FF UNUSED_FF
AN_NONE,
// Beginning of extended MIR opcodes
// 100 MIR_PHI
AN_NONE,
// 101 MIR_COPY
AN_NONE,
// 102 MIR_FUSED_CMPL_FLOAT
AN_NONE,
// 103 MIR_FUSED_CMPG_FLOAT
AN_NONE,
// 104 MIR_FUSED_CMPL_DOUBLE
AN_NONE,
// 105 MIR_FUSED_CMPG_DOUBLE
AN_NONE,
// 106 MIR_FUSED_CMP_LONG
AN_NONE,
// 107 MIR_NOP
AN_NONE,
// 108 MIR_NULL_CHECK
AN_NONE,
// 109 MIR_RANGE_CHECK
AN_NONE,
// 110 MIR_DIV_ZERO_CHECK
AN_NONE,
// 111 MIR_CHECK
AN_NONE,
// 112 MIR_CHECKPART2
AN_NONE,
// 113 MIR_SELECT
AN_NONE,
};
struct MethodStats {
int dex_instructions;
int math_ops;
int fp_ops;
int array_ops;
int branch_ops;
int heavyweight_ops;
bool has_computational_loop;
bool has_switch;
float math_ratio;
float fp_ratio;
float array_ratio;
float branch_ratio;
float heavyweight_ratio;
};
void MIRGraph::AnalyzeBlock(BasicBlock* bb, MethodStats* stats) {
if (bb->visited || (bb->block_type != kDalvikByteCode)) {
return;
}
bool computational_block = true;
bool has_math = false;
/*
* For the purposes of this scan, we want to treat the set of basic blocks broken
* by an exception edge as a single basic block. We'll scan forward along the fallthrough
* edges until we reach an explicit branch or return.
*/
BasicBlock* ending_bb = bb;
if (ending_bb->last_mir_insn != NULL) {
uint32_t ending_flags = analysis_attributes_[ending_bb->last_mir_insn->dalvikInsn.opcode];
while ((ending_flags & AN_BRANCH) == 0) {
ending_bb = ending_bb->fall_through;
ending_flags = analysis_attributes_[ending_bb->last_mir_insn->dalvikInsn.opcode];
}
}
/*
* Ideally, we'd weight the operations by loop nesting level, but to do so we'd
* first need to do some expensive loop detection - and the point of this is to make
* an informed guess before investing in computation. However, we can cheaply detect
* many simple loop forms without having to do full dataflow analysis.
*/
int loop_scale_factor = 1;
// Simple for and while loops
if ((ending_bb->taken != NULL) && (ending_bb->fall_through == NULL)) {
if ((ending_bb->taken->taken == bb) || (ending_bb->taken->fall_through == bb)) {
loop_scale_factor = 25;
}
}
// Simple do-while loop
if ((ending_bb->taken != NULL) && (ending_bb->taken == bb)) {
loop_scale_factor = 25;
}
BasicBlock* tbb = bb;
bool done = false;
while (!done) {
tbb->visited = true;
for (MIR* mir = tbb->first_mir_insn; mir != NULL; mir = mir->next) {
if (static_cast<uint32_t>(mir->dalvikInsn.opcode) >= kMirOpFirst) {
// Skip any MIR pseudo-op.
continue;
}
uint32_t flags = analysis_attributes_[mir->dalvikInsn.opcode];
stats->dex_instructions += loop_scale_factor;
if ((flags & AN_BRANCH) == 0) {
computational_block &= ((flags & AN_COMPUTATIONAL) != 0);
} else {
stats->branch_ops += loop_scale_factor;
}
if ((flags & AN_MATH) != 0) {
stats->math_ops += loop_scale_factor;
has_math = true;
}
if ((flags & AN_FP) != 0) {
stats->fp_ops += loop_scale_factor;
}
if ((flags & AN_ARRAYOP) != 0) {
stats->array_ops += loop_scale_factor;
}
if ((flags & AN_HEAVYWEIGHT) != 0) {
stats->heavyweight_ops += loop_scale_factor;
}
if ((flags & AN_SWITCH) != 0) {
stats->has_switch = true;
}
}
if (tbb == ending_bb) {
done = true;
} else {
tbb = tbb->fall_through;
}
}
if (has_math && computational_block && (loop_scale_factor > 1)) {
stats->has_computational_loop = true;
}
}
bool MIRGraph::ComputeSkipCompilation(MethodStats* stats, bool skip_default) {
float count = stats->dex_instructions;
stats->math_ratio = stats->math_ops / count;
stats->fp_ratio = stats->fp_ops / count;
stats->branch_ratio = stats->branch_ops / count;
stats->array_ratio = stats->array_ops / count;
stats->heavyweight_ratio = stats->heavyweight_ops / count;
if (cu_->enable_debug & (1 << kDebugShowFilterStats)) {
LOG(INFO) << "STATS " << stats->dex_instructions << ", math:"
<< stats->math_ratio << ", fp:"
<< stats->fp_ratio << ", br:"
<< stats->branch_ratio << ", hw:"
<< stats->heavyweight_ratio << ", arr:"
<< stats->array_ratio << ", hot:"
<< stats->has_computational_loop << ", "
<< PrettyMethod(cu_->method_idx, *cu_->dex_file);
}
// Computation intensive?
if (stats->has_computational_loop && (stats->heavyweight_ratio < 0.04)) {
return false;
}
// Complex, logic-intensive?
if ((GetNumDalvikInsns() > Runtime::Current()->GetSmallMethodThreshold()) &&
stats->branch_ratio > 0.3) {
return false;
}
// Significant floating point?
if (stats->fp_ratio > 0.05) {
return false;
}
// Significant generic math?
if (stats->math_ratio > 0.3) {
return false;
}
// If array-intensive, compiling is probably worthwhile.
if (stats->array_ratio > 0.1) {
return false;
}
// Switch operations benefit greatly from compilation, so go ahead and spend the cycles.
if (stats->has_switch) {
return false;
}
// If significant in size and high proportion of expensive operations, skip.
if ((GetNumDalvikInsns() > Runtime::Current()->GetSmallMethodThreshold()) &&
(stats->heavyweight_ratio > 0.3)) {
return true;
}
return skip_default;
}
/*
* Will eventually want this to be a bit more sophisticated and happen at verification time.
* Ultimate goal is to drive with profile data.
*/
bool MIRGraph::SkipCompilation(Runtime::CompilerFilter compiler_filter) {
if (compiler_filter == Runtime::kEverything) {
return false;
}
if (compiler_filter == Runtime::kInterpretOnly) {
LOG(WARNING) << "InterpretOnly should ideally be filtered out prior to parsing.";
return true;
}
// Set up compilation cutoffs based on current filter mode.
size_t small_cutoff = 0;
size_t default_cutoff = 0;
switch (compiler_filter) {
case Runtime::kBalanced:
small_cutoff = Runtime::Current()->GetSmallMethodThreshold();
default_cutoff = Runtime::Current()->GetLargeMethodThreshold();
break;
case Runtime::kSpace:
small_cutoff = Runtime::Current()->GetTinyMethodThreshold();
default_cutoff = Runtime::Current()->GetSmallMethodThreshold();
break;
case Runtime::kSpeed:
small_cutoff = Runtime::Current()->GetHugeMethodThreshold();
default_cutoff = Runtime::Current()->GetHugeMethodThreshold();
break;
default:
LOG(FATAL) << "Unexpected compiler_filter_: " << compiler_filter;
}
// If size < cutoff, assume we'll compile - but allow removal.
bool skip_compilation = (GetNumDalvikInsns() >= default_cutoff);
/*
* Filter 1: Huge methods are likely to be machine generated, but some aren't.
* If huge, assume we won't compile, but allow futher analysis to turn it back on.
*/
if (GetNumDalvikInsns() > Runtime::Current()->GetHugeMethodThreshold()) {
skip_compilation = true;
} else if (compiler_filter == Runtime::kSpeed) {
// If not huge, compile.
return false;
}
// Filter 2: Skip class initializers.
if (((cu_->access_flags & kAccConstructor) != 0) && ((cu_->access_flags & kAccStatic) != 0)) {
return true;
}
// Filter 3: if this method is a special pattern, go ahead and emit the canned pattern.
if (IsSpecialCase()) {
return false;
}
// Filter 4: if small, just compile.
if (GetNumDalvikInsns() < small_cutoff) {
return false;
}
// Analyze graph for:
// o floating point computation
// o basic blocks contained in loop with heavy arithmetic.
// o proportion of conditional branches.
MethodStats stats;
memset(&stats, 0, sizeof(stats));
ClearAllVisitedFlags();
AllNodesIterator iter(this, false /* not iterative */);
for (BasicBlock* bb = iter.Next(); bb != NULL; bb = iter.Next()) {
AnalyzeBlock(bb, &stats);
}
return ComputeSkipCompilation(&stats, skip_compilation);
}
} // namespace art