基于栈与基于寄存器的指令集架构

admin · · 2067 次点击 · · 开始浏览    
这是一个创建于 的文章,其中的信息可能已经有所发展或是发生改变。
原文地址: https://blog.csdn.net/pq258280920/article/details/25877265 <article class="baidu_pl"> <div id="article_content" class="article_content clearfix" data-report-click="{&quot;mod&quot;:&quot;popu_307&quot;,&quot;dest&quot;:&quot;https://blog.csdn.net/pq258280920/article/details/25877265&quot;}"> <link rel="stylesheet" href="https://csdnimg.cn/release/phoenix/template/css/ck_htmledit_views-3019150162.css"> <link rel="stylesheet" href="https://csdnimg.cn/release/phoenix/template/css/ck_htmledit_views-3019150162.css"> <div class="htmledit_views" id="content_views"> 用C的语法来写这么一个语句:<br><div class="dp-highlighter"> <div class="bar"> <div class="tools">C代码 &nbsp;<a title="收藏这段代码"><img class="star" src="http://www.iteye.com/images/icon_star.png" alt="收藏代码"></a></div> </div> <ol class="dp-cpp" start="1"><li><span><span>a&nbsp;=&nbsp;b&nbsp;+&nbsp;c;&nbsp;&nbsp;</span></span></li></ol></div> <br> 如果把它变成这种形式:<br> add a, b, c<br> 那看起来就更像机器指令了,对吧?这种就是所谓“三地址指令”(3-address instruction),一般形式为:<br> op dest, src1, src2<br> 许多操作都是二元运算+赋值。三地址指令正好可以指定两个源和一个目标,能非常灵活的支持二元操作与赋值的组合。ARM处理器的主要指令集就是三地址形式的。<br><br> C里要是这样写的话:<br><div class="dp-highlighter"> <div class="bar"> <div class="tools">C代码 &nbsp;<a title="收藏这段代码"><img class="star" src="http://www.iteye.com/images/icon_star.png" alt="收藏代码"></a></div> </div> <ol class="dp-cpp" start="1"><li><span><span>a&nbsp;+=&nbsp;b;&nbsp;&nbsp;</span></span></li></ol></div> <br> 变成:<br> add a, b<br> 这就是所谓“二地址指令”,一般形式为:<br> op dest, src<br> 它要支持二元操作,就只能把其中一个源同时也作为目标。上面的add a, b在执行过后,就会破坏a原有的值,而b的值保持不变。x86系列的处理器就是二地址形式的。<br><br> 上面提到的三地址与二地址形式的指令集,一般就是通过“基于寄存器的架构”来实现的。例如典型的RISC架构会要求除load和store以外,其它用于运算的指令的源与目标都要是寄存器。<br><br> 显然,指令集可以是任意“n地址”的,n属于自然数。那么一地址形式的指令集是怎样的呢?<br> 想像一下这样一组指令序列:<br> add 5<br> sub 3<br> 这只指定了操作的源,那目标是什么?一般来说,这种运算的目标是被称为“累加器”(accumulator)的专用寄存器,所有运算都靠更新累加器的状态来完成。那么上面两条指令用C来写就类似:<br><div class="dp-highlighter"> <div class="bar"> <div class="tools">C代码 &nbsp;<a title="收藏这段代码"><img class="star" src="http://www.iteye.com/images/icon_star.png" alt="收藏代码"></a></div> </div> <ol class="dp-cpp" start="1"><li><span><span>acc&nbsp;+=&nbsp;5;&nbsp;&nbsp;</span></span></li><li><span>acc&nbsp;-=&nbsp;3;&nbsp;&nbsp;</span></li></ol></div> <br> 只不过acc是“隐藏”的目标。基于累加器的架构近来比较少见了,在很老的机器上繁荣过一段时间。<br><br> 那“n地址”的n如果是0的话呢?<br> 看这样一段Java字节码:<br><div class="dp-highlighter"> <div class="bar"> <div class="tools">Java bytecode代码 &nbsp;<a title="收藏这段代码"><img class="star" src="http://www.iteye.com/images/icon_star.png" alt="收藏代码"></a></div> </div> <ol class="dp-default" start="1"><li><span><span>iconst_1&nbsp;&nbsp;</span></span></li><li><span>iconst_2&nbsp;&nbsp;</span></li><li><span>iadd&nbsp;&nbsp;</span></li><li><span>istore_0&nbsp;&nbsp;</span></li></ol></div> <br> 注意那个iadd(表示整型加法)指令并没有任何参数。连源都无法指定了,零地址指令有什么用??<br> 零地址意味着源与目标都是隐含参数,其实现依赖于一种常见的数据结构——没错,就是栈。上面的iconst_1、iconst_2两条指令,分别向一个叫做“求值栈”(evaluation stack,也叫做operand stack“操作数栈”或者expression stack“表达式栈”)的地方压入整型常量1、2。iadd指令则从求值栈顶弹出2个值,将值相加,然后把结果压回到栈顶。istore_0指令从求值栈顶弹出一个值,并将值保存到局部变量区的第一个位置(slot 0)。<br> 零地址形式的指令集一般就是通过“基于栈的架构”来实现的。请一定要注意,这个栈是指“求值栈”,而不是与系统调用栈(system call stack,或者就叫system stack)。千万别弄混了。有些虚拟机把求值栈实现在系统调用栈上,但两者概念上不是一个东西。<br><br> 由于指令的源与目标都是隐含的,零地址指令的“密度”可以非常高——可以用更少空间放下更多条指令。因此在空间紧缺的环境中,零地址指令是种可取的设计。但零地址指令要完成一件事情,一般会比二地址或者三地址指令许多更多条指令。上面Java字节码做的加法,如果用x86指令两条就能完成了:<br><div class="dp-highlighter"> <div class="bar"> <div class="tools">X86 asm代码 &nbsp;<a title="收藏这段代码"><img class="star" src="http://www.iteye.com/images/icon_star.png" alt="收藏代码"></a></div> </div> <ol class="dp-default" start="1"><li><span><span>mov&nbsp;&nbsp;eax,&nbsp;</span><span class="number">1</span><span>&nbsp;&nbsp;</span></span></li><li><span>add&nbsp;&nbsp;eax,&nbsp;<span class="number">2</span><span>&nbsp;&nbsp;</span></span></li></ol></div> <br> (好吧我犯规了,istore_0对应的保存我没写。但假如局部变量比较少的话也不必把EAX的值保存(“溢出”,register spilling)到调用栈上,就这样吧 =_=<br> 其实就算把结果保存到栈上也就是多一条指令而已……)<br><br> 一些比较老的解释器,例如<a href="http://www.ruby-lang.org/" rel="nofollow">CRuby</a>在1.9引入<a href="http://www.atdot.net/yarv/" rel="nofollow">YARV</a>作为新的VM之前的解释器,还有SquirrleFish之前的老JavaScriptCore,它们内部是树遍历式解释器;解释器递归遍历树,树的每个节点的操作依赖于解释其各个子节点返回的值。这种解释器里没有所谓的求值栈,也没有所谓的虚拟寄存器,所以不适合以“基于栈”或“基于寄存器”去描述。<br><br> 而像V8那样直接编译JavaScript生成机器码,而不通过中间的字节码的中间表示的JavaScript引擎,它内部有虚拟寄存器的概念,但那只是普通native编译器的正常组成部分。我觉得也不应该用“基于栈”或“基于寄存器”去描述它。<br> V8在内部也用了“求值栈”(在V8里具体叫“表达式栈”)的概念来简化生成代码的过程,使用所谓“虚拟栈帧”来记录局部变量与求值栈的状态;但在真正生成代码的时候会做窥孔优化,消除冗余的push/pop,将许多对求值栈的操作转变为对寄存器的操作,以此提高代码质量。于是最终生成出来的代码看起来就不像是基于栈的代码了。<br><br> 关于JavaScript引擎的实现方式,下文会再提到。<br><br><br><span style="font-size:12px;"><strong>基于栈与基于寄存器架构的VM,用哪个好?</strong></span><br><br> 如果是要模拟现有的处理器,那没什么可选的,原本处理器采用了什么架构就只能以它为源。但HLL VM的架构通常可以自由构造,有很大的选择余地。为什么许多主流HLL VM,诸如JVM、CLI、CPython、CRuby 1.9等,都采用了基于栈的架构呢?我觉得这有三个主要原因:<br><br> ·实现简单<br> 由于指令中不必显式指定源与目标,VM可以设计得很简单,不必考虑为临时变量分配空间的问题,求值过程中的临时数据存储都让求值栈包办就行。<br><span style="color:#FF0000;">更新:回帖中cscript指出了这句不太准确,应该是针对基于栈架构的指令集生成代码的编译器更容易实现,而不是VM更容易实现。</span><br><br> ·该VM是为某类资源非常匮乏的硬件而设计的<br> 这类硬件的存储器可能很小,每一字节的资源都要节省。零地址指令比其它形式的指令更紧凑,所以是个自然的选择。<br><br> ·考虑到可移植性<br> 处理器的特性各个不同:典型的CISC处理器的通用寄存器数量很少,例如32位的<a href="http://en.wikipedia.org/wiki/X86" rel="nofollow">x86</a>就只有8个32位通用寄存器(如果不算EBP和ESP那就是6个,现在一般都算上);典型的RISC处理器的各种寄存器数量多一些,例如<a href="http://en.wikipedia.org/wiki/ARM_architecture" rel="nofollow">ARM</a>有16个32位通用寄存器,Sun的<a href="http://en.wikipedia.org/wiki/SPARC" rel="nofollow">SPARC</a>在一个寄存器窗口里则有24个通用寄存器(8 in,8 local,8 out)。<br> 假如一个VM采用基于寄存器的架构(它接受的指令集大概就是二地址或者三地址形式的),为了高效执行,一般会希望能把源架构中的寄存器映射到实际机器上寄存器上。但是VM里有些很重要的辅助数据会经常被访问,例如一些VM会保存源指令序列的程序计数器(program counter,PC),为了效率,这些数据也得放在实际机器的寄存器里。如果源架构中寄存器的数量跟实际机器的一样,或者前者比后者更多,那源架构的寄存器就没办法都映射到实际机器的寄存器上;这样VM实现起来比较麻烦,与能够全部映射相比效率也会大打折扣。<br> 如果一个VM采用基于栈的架构,则无论在怎样的实际机器上,都很好实现——它的源架构里没有任何通用寄存器,所以实现VM时可以比较自由的分配实际机器的寄存器。于是这样的VM可移植性就比较高。作为优化,基于栈的VM可以用编译方式实现,“求值栈”实际上也可以由编译器映射到寄存器上,减轻数据移动的开销。<br><br> 回到主题,基于栈与基于寄存器的架构,谁更快?看看现在的实际处理器,大多都是基于寄存器的架构,从侧面反映出它比基于栈的架构更优秀。<br> 而对于VM来说,源架构的求值栈或者寄存器都可能是用实际机器的内存来模拟的,所以性能特性与实际硬件又有点不同。一般认为基于寄存器的架构对VM来说也是更快的,原因是:虽然零地址指令更紧凑,但完成操作需要更多的load/store指令,也意味着更多的指令分派(instruction dispatch)次数与内存访问次数;访问内存是执行速度的一个重要瓶颈,二地址或三地址指令虽然每条指令占的空间较多,但总体来说可以用更少的指令完成操作,指令分派与内存访问次数都较少。<br><p>这方面有篇被引用得很多的论文讲得比较清楚,<a href="http://www.usenix.org/events/vee05/full_papers/p153-yunhe.pdf" rel="nofollow">Virtual Machine Showdown: Stack Versus Registers</a>,是在VEE 2005发表的。VEE是Virtual Execution Environment的缩写,是ACM下SIGPLAN组织的一个会议,专门研讨虚拟机的设计与实现的。可以去找找这个会议往年的论文,很多都值得读</p> <p><br></p> <p><span style="font-size:12px;"><strong>基于栈与基于寄存器架构的VM的一组图解</strong></span><br><br> 要是拿两个分别实现了基于栈与基于寄存器架构、但没有直接联系的VM来对比,效果或许不会太好。现在恰巧有两者有紧密联系的例子——JVM与Dalvik VM。JVM的字节码主要是零地址形式的,概念上说JVM是基于栈的架构。Google Android平台上的应用程序的主要开发语言是Java,通过其中的<a href="http://en.wikipedia.org/wiki/Dalvik_virtual_machine" rel="nofollow">Dalvik VM</a>来运行Java程序。为了能正确实现语义,Dalvik VM的许多设计都考虑到与JVM的兼容性;但它却采用了基于寄存器的架构,其字节码主要是二地址/三地址混合形式的,乍一看可能让人纳闷。考虑到Android有明确的目标:面向移动设备,特别是最初要对ARM提供良好的支持。ARM9有16个32位通用寄存器,Dalvik VM的架构也常用16个虚拟寄存器(一样多……没办法把虚拟寄存器全部直接映射到硬件寄存器上了);这样Dalvik VM就不用太顾虑可移植性的问题,优先考虑在ARM9上以高效的方式实现,发挥基于寄存器架构的优势。<br> Dalvik VM的主要设计者<a href="http://www.milk.com/home/danfuzz/" rel="nofollow">Dan Bornstein</a>在Google I/O 2008上做过一个<a href="http://sites.google.com/site/io/dalvik-vm-internals" rel="nofollow">关于Dalvik内部实现</a>的演讲;同一演讲也在Google Developer Day 2008 China和Japan等会议上重复过。这个演讲中Dan特别提到了Dalvik VM与JVM在字节码设计上的区别,指出Dalvik VM的字节码可以用更少指令条数、更少内存访问次数来完成操作。(看不到YouTube的请自行想办法)<br><br> 眼见为实。要自己动手感受一下该例子,请先确保已经正确安装JDK 6,并从<a href="http://developer.android.com/sdk/" rel="nofollow">官网</a>获取Android SDK 1.6R1。连不上官网的也请自己想办法。<br><br> 创建Demo.java文件,内容为:<br></p> <div class="dp-highlighter"> <div class="bar"> <div class="tools">Java代码 &nbsp;<a title="收藏这段代码"><img class="star" src="http://www.iteye.com/images/icon_star.png" alt="收藏代码"></a></div> </div> <ol class="dp-j" start="1"><li><span><span class="keyword">public</span><span>&nbsp;</span><span class="keyword">class</span><span>&nbsp;Demo&nbsp;{&nbsp;&nbsp;</span></span></li><li><span>&nbsp;&nbsp;&nbsp;&nbsp;<span class="keyword">public</span><span>&nbsp;</span><span class="keyword">static</span><span>&nbsp;</span><span class="keyword">void</span><span>&nbsp;foo()&nbsp;{&nbsp;&nbsp;</span></span></li><li><span>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<span class="keyword">int</span><span>&nbsp;a&nbsp;=&nbsp;</span><span class="number">1</span><span>;&nbsp;&nbsp;</span></span></li><li><span>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<span class="keyword">int</span><span>&nbsp;b&nbsp;=&nbsp;</span><span class="number">2</span><span>;&nbsp;&nbsp;</span></span></li><li><span>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<span class="keyword">int</span><span>&nbsp;c&nbsp;=&nbsp;(a&nbsp;+&nbsp;b)&nbsp;*&nbsp;</span><span class="number">5</span><span>;&nbsp;&nbsp;</span></span></li><li><span>&nbsp;&nbsp;&nbsp;&nbsp;}&nbsp;&nbsp;</span></li><li><span>}&nbsp;&nbsp;</span></li></ol></div> <br> 通过javac编译,得到Demo.class。通过javap可以看到foo()方法的字节码是:<br><div class="dp-highlighter"> <div class="bar"> <div class="tools">Java bytecode代码 &nbsp;<a title="收藏这段代码"><img class="star" src="http://www.iteye.com/images/icon_star.png" alt="收藏代码"></a></div> </div> <ol class="dp-default" start="1"><li><span><span class="number">0</span><span>:&nbsp;&nbsp;iconst_1&nbsp;&nbsp;</span></span></li><li><span><span class="number">1</span><span>:&nbsp;&nbsp;istore_0&nbsp;&nbsp;</span></span></li><li><span><span class="number">2</span><span>:&nbsp;&nbsp;iconst_2&nbsp;&nbsp;</span></span></li><li><span><span class="number">3</span><span>:&nbsp;&nbsp;istore_1&nbsp;&nbsp;</span></span></li><li><span><span class="number">4</span><span>:&nbsp;&nbsp;iload_0&nbsp;&nbsp;</span></span></li><li><span><span class="number">5</span><span>:&nbsp;&nbsp;iload_1&nbsp;&nbsp;</span></span></li><li><span><span class="number">6</span><span>:&nbsp;&nbsp;iadd&nbsp;&nbsp;</span></span></li><li><span><span class="number">7</span><span>:&nbsp;&nbsp;iconst_5&nbsp;&nbsp;</span></span></li><li><span><span class="number">8</span><span>:&nbsp;&nbsp;imul&nbsp;&nbsp;</span></span></li><li><span><span class="number">9</span><span>:&nbsp;&nbsp;istore_2&nbsp;&nbsp;</span></span></li><li><span><span class="number">10</span><span>:&nbsp;return&nbsp;&nbsp;</span></span></li></ol></div> <br><br> 接着用Android SDK里platforms\android-1.6\tools目录中的dx工具将Demo.class转换为dex格式。转换时可以直接以文本形式dump出dex文件的内容。使用下面的命令:<br><div class="dp-highlighter"> <div class="bar"> <div class="tools">Command prompt代码 &nbsp;<a title="收藏这段代码"><img class="star" src="http://www.iteye.com/images/icon_star.png" alt="收藏代码"></a></div> </div> <ol class="dp-default" start="1"><li><span><span>dx&nbsp;--dex&nbsp;--verbose&nbsp;--dump-to=Demo.dex.txt&nbsp;--dump-method=Demo.foo&nbsp;--verbose-dump&nbsp;Demo.class&nbsp;&nbsp;</span></span></li></ol></div> <br> 可以看到foo()方法的字节码是:<br><div class="dp-highlighter"> <div class="bar"> <div class="tools">Dalvik bytecode代码 &nbsp;<a title="收藏这段代码"><img class="star" src="http://www.iteye.com/images/icon_star.png" alt="收藏代码"></a></div> </div> <ol class="dp-default" start="1"><li><span><span class="number">0000</span><span>:&nbsp;const/</span><span class="number">4</span><span>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;v0,&nbsp;#int&nbsp;</span><span class="number">1</span><span>&nbsp;//&nbsp;#</span><span class="number">1</span><span>&nbsp;&nbsp;</span></span></li><li><span><span class="number">0001</span><span>:&nbsp;const/</span><span class="number">4</span><span>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;v1,&nbsp;#int&nbsp;</span><span class="number">2</span><span>&nbsp;//&nbsp;#</span><span class="number">2</span><span>&nbsp;&nbsp;</span></span></li><li><span><span class="number">0002</span><span>:&nbsp;add-int/2addr&nbsp;v0,&nbsp;v1&nbsp;&nbsp;</span></span></li><li><span><span class="number">0003</span><span>:&nbsp;mul-int/lit8&nbsp;&nbsp;v0,&nbsp;v0,&nbsp;#int&nbsp;</span><span class="number">5</span><span>&nbsp;//&nbsp;#</span><span class="number">05</span><span>&nbsp;&nbsp;</span></span></li><li><span><span class="number">0005</span><span>:&nbsp;return-void&nbsp;&nbsp;</span></span></li></ol></div> <br> (原本的输出里还有些code-address、local-snapshot等,那些不是字节码的部分,可以忽略。)<br><br> 让我们看看两个版本在概念上是如何工作的。<br> JVM:<br><img src="http://dl.iteye.com/upload/attachment/157335/f2629890-07dc-34f5-9102-9274e5dafffc.gif" alt=""><br> (图中数字均以十六进制表示。其中字节码的一列表示的是字节码指令的实际数值,后面跟着的助记符则是其对应的文字形式。标记为红色的值是相对上一条指令的执行状态有所更新的值。下同)<br> 说明:Java字节码以1字节为单元。上面代码中有11条指令,每条都只占1单元,共11单元==11字节。<br> 程序计数器是用于记录程序当前执行的位置用的。对Java程序来说,每个线程都有自己的PC。PC以字节为单位记录当前运行位置里方法开头的偏移量。<br> 每个线程都有一个Java栈,用于记录Java方法调用的“活动记录”(activation record)。Java栈以帧(frame)为单位线程的运行状态,每调用一个方法就会分配一个新的栈帧压入Java栈上,每从一个方法返回则弹出并撤销相应的栈帧。<br> 每个栈帧包括局部变量区、求值栈(JVM规范中将其称为“操作数栈”)和其它一些信息。局部变量区用于存储方法的参数与局部变量,其中参数按源码中从左到右顺序保存在局部变量区开头的几个slot。求值栈用于保存求值的中间结果和调用别的方法的参数等。两者都以字长(32位的字)为单位,每个slot可以保存byte、short、char、int、float、reference和returnAddress等长度小于或等于32位的类型的数据;相邻两项可用于保存long和double类型的数据。每个方法所需要的局部变量区与求值栈大小都能够在编译时确定,并且记录在.class文件里。<br> 在上面的例子中,Demo.foo()方法所需要的局部变量区大小为3个slot,需要的求值栈大小为2个slot。Java源码的a、b、c分别被分配到局部变量区的slot 0、slot 1和slot 2。可以观察到Java字节码是如何指示JVM将数据压入或弹出栈,以及数据是如何在栈与局部变量区之前流动的;可以看到数据移动的次数特别多。动画里可能不太明显,iadd和imul指令都是要从求值栈弹出两个值运算,再把结果压回到栈上的;光这样一条指令就有3次概念上的数据移动了。<br><br> 对了,想提醒一下:Java的局部变量区并不需要把某个局部变量固定分配在某个slot里;不仅如此,在一个方法内某个slot甚至可能保存不同类型的数据。如何分配slot是编译器的自由。从类型安全的角度看,只要对某个slot的一次load的类型与最近一次对它的store的类型匹配,JVM的字节码校验器就不会抱怨。以后再找时间写写这方面。<br><br> Dalvik VM:<br><img src="http://dl.iteye.com/upload/attachment/157337/c6b17556-f5e0-3da2-979a-178cfe1f934f.gif" alt=""><br> 说明:Dalvik字节码以16位为单元(或许叫“双字节码”更准确 =_=|||)。上面代码中有5条指令,其中mul-int/lit8指令占2单元,其余每条都只占1单元,共6单元==12字节。<br> 与JVM相似,在Dalvik VM中每个线程都有自己的PC和调用栈,方法调用的活动记录以帧为单位保存在调用栈上。PC记录的是以16位为单位的偏移量而不是以字节为单位的。<br> 与JVM不同的是,Dalvik VM的栈帧中没有局部变量区与求值栈,取而代之的是一组虚拟寄存器。每个方法被调用时都会得到自己的一组虚拟寄存器。常用v0-v15这16个,也有少数指令可以访问v0-v255范围内的256个虚拟寄存器。与JVM相同的是,每个方法所需要的虚拟寄存器个数都能够在编译时确定,并且记录在.dex文件里;每个寄存器都是字长(32位),相邻的一对寄存器可用于保存64位数据。方法的参数按源码中从左到右的顺序保存在末尾的几个虚拟寄存器里。<br> 与JVM版相比,可以发现Dalvik版程序的指令数明显减少了,数据移动次数也明显减少了,用于保存临时结果的存储单元也减少了。<br><br> 你可能会抱怨:上面两个版本的代码明明不对应:JVM版到return前完好持有a、b、c三个变量的值;而Dalvik版到return-void前只持有b与c的值(分别位于v0与v1),a的值被刷掉了。<br> 但注意到a与b的特征:它们都只在声明时接受过一次赋值,赋值的源是常量。这样就可以对它们应用<a href="http://en.wikipedia.org/wiki/Constant_folding" rel="nofollow">常量传播</a>,将<br><div class="dp-highlighter"> <div class="bar"> <div class="tools">Java代码 &nbsp;<a title="收藏这段代码"><img class="star" src="http://www.iteye.com/images/icon_star.png" alt="收藏代码"></a></div> </div> <ol class="dp-j" start="1"><li><span><span class="keyword">int</span><span>&nbsp;c&nbsp;=&nbsp;(a&nbsp;+&nbsp;b)&nbsp;*&nbsp;</span><span class="number">5</span><span>;&nbsp;&nbsp;</span></span></li></ol></div> <br> 替换为<br><div class="dp-highlighter"> <div class="bar"> <div class="tools">Java代码 &nbsp;<a title="收藏这段代码"><img class="star" src="http://www.iteye.com/images/icon_star.png" alt="收藏代码"></a></div> </div> <ol class="dp-j" start="1"><li><span><span class="keyword">int</span><span>&nbsp;c&nbsp;=&nbsp;(</span><span class="number">1</span><span>&nbsp;+&nbsp;</span><span class="number">2</span><span>)&nbsp;*&nbsp;</span><span class="number">5</span><span>;&nbsp;&nbsp;</span></span></li></ol></div> <br> 然后可以再对c的初始化表达式应用常量折叠,进一步替换为:<br><div class="dp-highlighter"> <div class="bar"> <div class="tools">Java代码 &nbsp;<a title="收藏这段代码"><img class="star" src="http://www.iteye.com/images/icon_star.png" alt="收藏代码"></a></div> </div> <ol class="dp-j" start="1"><li><span><span class="keyword">int</span><span>&nbsp;c&nbsp;=&nbsp;</span><span class="number">15</span><span>;&nbsp;&nbsp;</span></span></li></ol></div> <br> 把变量的每次状态更新(包括初始赋值在内)称为变量的一次“定义”(definition),把每次访问变量(从变量读取值)称为变量的一次“使用”(use),则可以把代码整理为“使用-定义链”(简称UD链,<a href="http://en.wikipedia.org/wiki/Use-define_chain" rel="nofollow">use-define chain</a>)。显然,一个变量的某次定义要被使用过才有意义。上面的例子经过常量传播与折叠后,我们可以分析得知变量a、b、c都只被定义而没有被使用。于是它们的定义就成为了无用代码(dead code),可以安全的被消除。<br> 上面一段的分析用一句话描述就是:由于foo()里没有产生外部可见的副作用,所以foo()的整个方法体都可以被优化为空。经过dx工具处理后,Dalvik版程序相对JVM版确实是稍微优化了一些,不过没有影响程序的语义,程序的正确性是没问题的。这是其一。<br><br> 其二是Dalvik版代码只要多分配一个虚拟寄存器就能在return-void前同时持有a、b、c三个变量的值,指令几乎没有变化:<br><div class="dp-highlighter"> <div class="bar"> <div class="tools">Dalvik bytecode代码 &nbsp;<a title="收藏这段代码"><img class="star" src="http://www.iteye.com/images/icon_star.png" alt="收藏代码"></a></div> </div> <ol class="dp-default" start="1"><li><span><span class="number">0000</span><span>:&nbsp;const/</span><span class="number">4</span><span>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;v0,&nbsp;#int&nbsp;</span><span class="number">1</span><span>&nbsp;//&nbsp;#</span><span class="number">1</span><span>&nbsp;&nbsp;</span></span></li><li><span><span class="number">0001</span><span>:&nbsp;const/</span><span class="number">4</span><span>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;v1,&nbsp;#int&nbsp;</span><span class="number">2</span><span>&nbsp;//&nbsp;#</span><span class="number">2</span><span>&nbsp;&nbsp;</span></span></li><li><span><span class="number">0002</span><span>:&nbsp;add-int&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;v2,&nbsp;v0,&nbsp;v1&nbsp;&nbsp;</span></span></li><li><span><span class="number">0004</span><span>:&nbsp;mul-int/lit8&nbsp;v2,&nbsp;v2,&nbsp;#int&nbsp;</span><span class="number">5</span><span>&nbsp;//&nbsp;#</span><span class="number">05</span><span>&nbsp;&nbsp;</span></span></li><li><span><span class="number">0006</span><span>:&nbsp;return-void&nbsp;&nbsp;</span></span></li></ol></div> <br> 这样比原先的版本多使用了一个虚拟寄存器,指令方面也多用了一个单元(add-int指令占2单元);但指令的条数没变,仍然是5条,数据移动的次数也没变。<br><br> 题外话1:Dalvik VM是基于寄存器的,x86也是基于寄存器的,但两者的“寄存器”却相当不同:前者的寄存器是每个方法被调用时都有自己一组私有的,后者的寄存器则是全局的。也就是说,Dalvik VM字节码中不用担心保护寄存器的问题,某个方法在调用了别的方法返回过来后自己的寄存器的值肯定跟调用前一样。而x86程序在调用函数时要考虑清楚<a href="http://en.wikipedia.org/wiki/Calling_convention" rel="nofollow">calling convention</a>,调用方在调用前要不要保护某些寄存器的当前状态,还是说被调用方会处理好这些问题,麻烦事不少。Dalvik VM这种虚拟寄存器让人想起一些实际处理器的“寄存器窗口”,例如SPARC的<a href="http://www.usenix.org/events/sec01/full_papers/frantzen/frantzen_html/node5.html" rel="nofollow">Register Windows</a>也是保证每个函数都觉得自己有“私有的一组寄存器”,减轻了在代码里处理寄存器保护的麻烦——扔给硬件和操作系统解决了。<a href="http://en.wikipedia.org/wiki/Itanium" rel="nofollow">IA-64</a>也有寄存器窗口的概念。<br><br> 题外话2:Dalvik的.dex文件在未压缩状态下的体积通常比同等内容的.jar文件在deflate压缩后还要小。但光从字节码看,Java字节码几乎总是比Dalvik的小,那.dex文件的体积是从哪里来减出来的呢?这主要得益与.dex文件对常量池的压缩,一个.dex文件中所有类都共享常量池,使得相同的字符串、相同的数字常量等都只出现一次,自然能大大减小体积。相比之下,.jar文件中每个类都持有自己的常量池,诸如"Ljava/lang/Object;"这种常见的字符串会被重复多次。Sun自己也有进一步压缩JAR的工具,Pack200,对应的标准是<a href="http://jcp.org/en/jsr/detail?id=200" rel="nofollow">JSR 200</a>。它的主要应用场景是作为JAR的网络传输格式,以更高的压缩比来减少文件传输时间。在<a href="http://java.sun.com/j2se/1.5.0/docs/guide/deployment/deployment-guide/pack200.html" rel="nofollow">官方文档</a>提到了Pack200所用到的压缩技巧,<br><div class="quote_title">JDK 5.0 Documentation 写道</div> <div class="quote_div">Pack200 works most efficiently on Java class files. It uses several techniques to efficiently reduce the size of JAR files:<br><ul><li>It merges and sorts the constant-pool data in the class files and co-locates them in the archive.</li><li>It removes redundant class attributes.</li><li>It stores internal data structures.</li><li>It use delta and variable length encoding.</li><li>It chooses optimum coding types for secondary compression.</li></ul></div> 可见.dex文件与Pack200采用了一些相似的减小体积的方法。很可惜目前还没有正式发布的JVM支持直接加载Pack200格式的归档,毕竟网络传输才是Pack200最初构想的应用场景。<br><br> 再次提醒注意,<strong><span style="color:#FF0000;">上面的描述是针对概念上的JVM与Dalvik VM,而不是针对它们的具体实现</span></strong>。实现VM时可以采用许多优化技巧去减少性能损失,使得实际的运行方式与概念中的不完全相符,只要最终的运行结果满足原本概念上的VM所实现的语义就行<br><p></p> </div> </div> </article>
2067 次点击  
加入收藏 微博
暂无回复
添加一条新回复 (您需要 登录 后才能回复 没有账号 ?)
  • 请尽量让自己的回复能够对别人有帮助
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`
  • 支持 @ 本站用户;支持表情(输入 : 提示),见 Emoji cheat sheet
  • 图片支持拖拽、截图粘贴等方式上传