要给大一新生搞个计算机讲座,他们什么都不懂,讲点什么好呢?课本上没有的?实用的.非电脑专业.
黑洞计算机
Seth Lloyd 和 Y.Jack NG
为了与时俱进,研究人员可以把物理学定律看作计算机程序,把宇宙看作一台计算机。 黑洞计算机可能听起来荒诞不经,然而,宇宙学和基础物理学的研究人员正在证明它是一个有用的概念工具。如果物理学家能够在粒子加速器中创造黑洞(有预言认为10年之内可能实现),他们可能确实能观察到黑洞在执行运算。计算机与宇宙黑洞有区别吗?这个问题乍听起来,就像某个微软笑话的开场白。然而,它却是当今物理学最深奥的问题之一。在大多数人看来,计算机是专门化的新发明:流线型的台式机箱或者咖啡壶内的手指甲般芯片。而对一名物理学家来说,所有自然系统都是计算机。岩石、原子弹及星系可能不运行Linux程序,但它们也记录和处理信息。每个电子、光子及其他基本粒子都存储数据比特值。大自然与信息是纠缠在一起的,正如美国普林斯顿大学的物理学家John Wheeler所说,“它来自比特。”
黑洞可能看起来像是对万物计算规则的一个例外,将信息输入到黑洞中并无困难。然而根据爱因斯坦广义相对论,从黑洞中取出信息则是不可能的。进入黑洞的物质被同一化,其成分与细节已不可恢复地损失了。1970年代,英国剑桥大学的斯蒂芬·霍金曾表明,当考虑量子力学时,黑洞确有输出:它们灼热燃烧正像一块热煤。然而在霍金的分析中,这一辐射是紊乱随机的;它没有携带关于什么进入其中的任何信息。如果一头大象落入其中,则大象的能量值会漏出去——然而这能量将会是一团大杂烩。它不能被利用(即使在原则上),也不能重新造出这头大象。
因为量子力学定律是保持信息的,所以信息的明显损失就提出了一系列难题。其他一些科学家,包括美国斯坦福大学的Leonard Susskind、加州理工学院的John Preskill及荷兰乌特勒支(Utrecht)大学Gerard't Hooft等人争辩说,事实上,向外发出的辐射不是随机的,而是落入黑洞物质的一种被处理过的形式。2004年夏,霍金已转而同意他们的观点,认为黑洞也在进行计算。
黑洞只不过是宇宙登记和处理信息的普遍原理的最大特例。这个原理本身并不新。在19世纪,统计力学的奠基者们发展了后来称为信息论的知识,以解释热力学的诸定律。乍一看,热力学和信息论是两个分离的范畴:一个是用来描述蒸汽机,另一个使通讯最优化;然而,熵这个热力学量限定了蒸汽机做有用功的能力,而熵又正比于物质内由分子的位置与速度所记录的比特数。20世纪的量子力学将这一发现置于坚实的定量基础之上,并使科学家具有显著的量子信息概念。组成宇宙的各比特值是量子比特,或称“昆比”(qubits),较之于普通比特,它具有远为丰富的性质。
借助于比特和字节对宇宙进行分析,并不能替代力和能量等量的常规分析,却揭示出许多令人惊异的新事实。例如,它解开了统计力学领域称为“麦克斯韦妖魔”的佯谬现象——这一佯谬似乎允许永动机存在。在最近几年内,我们和其他物理学家一直以相同的见解看待宇宙学及基础物理学:黑洞的本质、时空的精细尺度结构、宇宙暗物质的行为以及自然界的某些极端规律等。宇宙不仅是一个巨型计算机,而且还是一个巨型量子计算机,正如意大利帕多瓦(Padova)大学的物理学Paola Zizzi所说,“它来自量子比特。”
千兆也嫌慢
物理学与信息论(源于量子力学的中心原理)合流了:说到底,离散是自然的本性;一个自然系统可以用有限的比特值来描述。在系统内,每个粒子的行为正像一台计算机的逻辑门。它的自旋“轴”能指向两个方向中的一个,因此可以编码一个比特,并且可以翻转,由此执行一个简单的计算操作。
系统在时间上也是离散的。传递一个比特所取时间是最小量值。精确量值由一个定理所给出,该定理是由信息处理物理学的两位先驱所命名的:一位是美国麻省理工学院的Normam Margolus,另一位是波士顿大学的Lev Levitin。该定理与海森堡的测不准原理相关联(测不准原理描述了诸如对位置与动量或者时间与能量两个相关物理量进行测量时,存在着固有的折衷取舍),它声称,传递一个比特所取时间t依赖于你所施加的能量E,施加的能量愈多,时间则可能愈短。数学表达式是T≥h/4E,其中h是普朗克常数(量子理论的主要参数)。例如,一种类型的实验量子计算机用质子来存储信息比特,而用磁场来翻转各比特值。这些运算是在由Margolus-Levitin定理所允许的最小时间内发生的。
从这个定理出发,可以推导出包括时空的几何极限到整个宇宙的计算能力在内的大量结论。作为预习,试考虑普通物质的计算能力的极限——在此情况内,取占有一升体积的一千克物质,我们且称其为“极端掌上计算机”。
它的电池能源就是其物质本身,通过爱因斯坦著名的公式E=mc*2直接转换为能量。如果将这些能量全数投入到翻转的比特位中,则计算机每秒钟能进行10*51次运算;随着能量的降低其运算逐渐变慢。计算机的存储容量可以用热力学计算:当一千克物质转变为一升体积内的能量时,它的温度是10亿开氏度。熵正比于能量除以温度,相应地达到10*31比特的信息量。“极端掌上计算机”是在基本粒子的微观运动及位置中存储信息的,而这些粒子在其体积内四处运动,因此热力学定律所允许的每一个信息比特都投入了使用。
极端计算怎样才算一台计算机?这是一个复杂得惊人的问题。不论你如何精确地定义,它都不只是那些人们通常称为“计算机”的东西,而可以是世界上的任何物体。自然界的物体能解决广义的逻辑和数学问题,尽管它们的输入和输出可能不是对人类有意义的那种形式。自然计算机具有内在的数字性:以离散的量子态存储数据,如基本粒子的自旋。它们的指令集合是量子物理学。
粒子无论何时发生相互作用,都会引起彼此取向的翻转。这一过程可以借助于诸如C或Java等编程语言来想像:粒子就是一些变量,它们的相互作用就是诸如加法等运算行为。每一比特信息在每秒钟内能翻转10*20次,这等效于时钟速度为100GG赫兹。事实上,系统变化太快,不能由中心时钟来控制。将一个数位比特翻转所用时间,近似等于从一个数位将信号传送到相邻数位的时间。因此,极端便掌上计算机是高度平行运作的:它的运行不像单一处理器,而是像多个处理器的一个巨大阵列;每个处理器的工作几乎独立,并将其运算结果传送到其他相对较慢的处理器上。
比较来看,一台常规计算机每秒钟翻转其信息比特大约10*9次,存储约10*12比特的信息,且只包含单一的处理器。如果摩尔(More)定律能够保持的话,你的后世子孙将有可能在23世纪中期买到一台极端掌上计算机。工程师们将找到精确控制等离子体内粒子相互作用的方法,而该等离子体要比太阳的核心还要热,而且控制计算机和纠错将占用许多通讯带宽。工程师们也可能已经解决了某些节点封装的问题。
在某种意义上,如果你认对了人,你事实上已经能够买到这样的装置。一千克的一块物质完全转化为能量——这正是一颗2000万吨级氢弹的工作定义。爆炸的核武器正在处理巨量的信息,其初始结构给出其输入,其辐射给出其输出。
从纳米技术到塞米技术*
如果任何一块物质都可看作一台计算机的话,那么一个黑洞就正是一台压缩到最小尺寸的计算机。随着计算机的缩小,其部件之间的相互引力就增大,直至最终增大到没有物体能够逃逸出去。黑洞的尺寸(称为Schwarzschild半径)正比于它的质量。
一千克质量的黑洞有着大约10*-27米的半径(一个质子的半径是10*-15米)。压缩后的计算机并未改变其能量内容,因此它能像以前一样每秒执行10*51次运算。发生改变的仅是它的存储容量。当引力小到可忽略时,总存储容量正比于粒子数,也正比于体积。而当引力起支配作用时,它使各粒子之间相互联结,因此它们整体上所能存储的信息容量就较少。一个黑洞的总存储容量正比于它的表面积。1970年代,霍金和以色列希伯莱大学的Jacob Bekenstein计算一千克质量的黑洞能够记录大约10*16个比特的信息,比压缩前要少得多。
因为存储的信息量少,黑洞是个快得多的处理器。它传递一个比特所用的时间是10*-35秒,等于光从计算机一边传到另一边所用的时间。因此,较之高度并行的极端掌上计算机,黑洞是个串行计算机,它的行为如同一个独立的单元。
黑洞计算机将怎样实际运行呢?输入是不成问题的:只要将数据以物质或能量的形式编码,然后投入到黑洞内即可。通过适当制备投入黑洞的物质材料,黑客将能够为黑洞执行任何所需要的计算编制程序。一旦物质进入黑洞,它就永远消失了——所谓的“穹界”(event horizon)划分了一去不返的分界线。垂直落下的粒子彼此相互作用,在到达黑洞中心之前的有限时间内执行着运算。这个中心就是引力奇点,粒子到此则不复存在。物质在奇点处被挤压在一起,究竟发生了什么,这要取决于量子引力的细节,目前对此尚未可知。
黑洞计算机的输出采取霍金辐射的形式。如果一个一千克质量的黑洞放出霍金辐射,为了维持辐射能量,其质量将迅速衰减,在10*-21秒内完全消失。辐射的峰值波长等于黑洞的半径,对于一千克质量的黑洞,这一波长等于极强烈的伽玛射线的波长。粒子检测器能够俘获并解码此辐射,为人类所用。
霍金对于黑洞辐射的研究,使他的名字跟这一辐射连在了一起。他推翻了人们认为没有任何东西可逃出黑洞的传统智识。黑洞的辐射速率与其尺寸成反比,因此,诸如星系中心的那些大黑洞的能量损失,比它们吞噬物质要慢得多。然而,在将来实验人员可能在粒子加速器内创造某些微小黑洞,这些黑洞将随着一阵辐射而爆炸。一个黑洞可不被看作是固定的物体,而被看作是以最大可能速率执行运算的物质的短暂集合。
图片:
/pic/45/11566790940547160.jpg