预测未来的计算机会是怎么样,
发布网友
发布时间:2022-04-30 23:14
我来回答
共1个回答
热心网友
时间:2022-06-20 04:56
计算机科学从诞生的那一天起就和其他的学科有着密不可分的关系,它有力地促进其他学科的发展,同时也使自己迅速成长。在您看来,未来的计算机科学的发展趋势如何,它与其他学科之间的关系是否会愈来愈紧密?
李国杰院士:我在看待计算机科学发展趋势时,通常是把它分为三维考虑。一维是是向"高"的方向。性能越来越高,速度越来越快,主要表现在计算机的主频越来越高。像前几年我们使用的都是286、386、主频只有几十兆。90年代初,集成电路集成度已达到100万门以上,从VLSI开始进入ULSI,即特大规模集成电路时期。而且由于RISC技术的成熟与普及,CPU性能年增长率由80年代的35%发展到90年代的60%。到后来出现奔腾系列,到现在已出现了奔腾4微处理器,主频达到2GHz以上。而且计算机向高的方面发展不仅是芯片频率的提高,而且是计算机整体性能的提高。一个计算机中可能不只用一个处理器,而是用几百个几千个处理器,这就是所谓并行处理。也就是说提高计算机的性能有两个途径:一是提高器件速度,二是并行处理。与前所述,器件速度通过发明新器件(如量子器件等),采用纳米工艺、片上系统等技术还可以提高几个数量级。以大规模并行为标志的体系结构的创新与进步是提高计算机系统性能的另一重要途径。目前世界上性能最高的通用计算机已采用上万台计算机并行,美国的ASCI计划已经完成每秒12。3万亿次并行机。目前正在研制30万亿次和100万亿次并行计算机。美国另一项计划的目标是2010年左右推出每秒一千万亿次并行计算机(Petaflops计算机),其处理机将采用超导量子器件,每个处理机每秒100亿次,共用10万个处理机并行。专用计算机的并行程度比通用机更高。IBM公司正在研制一台用于计算蛋白质折叠结构的专用计算机,称做兰色基因(Blue Gene)计算机,一块芯片中就包括32个处理机,峰值速度达每秒一千万亿次,计划2004年实现。将几千几万台计算机连结起来构成一台并行机,就如同组织成千上万工人生产一个产品一样,决不是一件容易的事。并行计算机的关键技术是如何高效率地把大量计算机互相连接起来,即各处理机之间的高速通信,以及如何有效地管理成千上万台计算机使之协调工作,这就是并行计算机的系统软件---操作系统的功能。如何处理高性能与通用性以及应用软件可移植性的矛盾也是研制并行计算机必须面对的技术选择,也是计算机科学发展的重大课题。
另一个方向就是向“广”度方向发展,计算机发展的趋势就是无处不在,以至于像“没有计算机一样”。近年来更明显的趋势是网络化与向各个领域的渗透,即在广度上的发展开拓。国外称这种趋势为普适计算(Pervasive Computing)或叫无处不在的计算。举个例子,问你家里有多少马达,谁也说不清。洗衣机里有,电冰箱里有,录音机里也有,几乎无处不在,我们谁也不会去统计它。未来,计算机也会像现在的马达一样,存在于家中的各种电器中。那时问你家里有多少计算机,你也数不清。你的笔记本,书籍都已电子化。包括未来的中小学教材,再过十几、二十几年,可能学生们上课用的不再是教科书,而只是一个笔记本大小的计算机,所有的中小学的课程教材,辅导书,练习题都在里面。不同的学生可以根据自己的需要方便地从中查到想要的资料。而且这些计算机与现在的手机合为一体,随时随地都可以上网,相互交流信息。所以有人预言未来计算机可能像纸张一样便宜,可以一次性使用,计算机将成为不被人注意的最常用的日用品。
第三个方向是向"深"度方向发展,即向信息的智能化发展。网上有大量的信息,怎样把这些浩如烟海的东西变成你想要的知识,这是计算科学的重要课题,同时人机界面更加友好。未来你可以用你的自然语言与计算机打交道,也可以用手写的文字打交道,甚至可以用你的表情、手势来与计算机沟通,使人机交流更加方便快捷。电子计算机从诞生起就致力于模拟人类思维,希望计算机越来越聪明,不仅能做一些复杂的事情,而且能做一些需“智慧”才能做的事,比如推理、学习、联想等。自从1956年提出“人工智能”以来,计算机在智能化方向迈进的步伐不尽人意。科学家多次关于人工智能的预期目标都没有实现,这说明探索人类智能的本质是一件十分艰巨的任务。目前计算机"思维"的方式与人类思维方式有很大区别,人机之间的间隔还不小。人类还很难以自然的方式,如语言、手势、表情与计算机打交道,计算机难用已成为阻碍计算机进一步普及的巨大障碍。随着nternet的普及,普通老百姓使用计算机的需求日益增长,这种强烈需求将大大促进计算机智能化方向的研究。近几年来计算机识别文字(包括印刷体、手写体)和口语的技术已有较大提高,已初步达到商品化水平,估计5-10年内手写和口语输入将逐步成为主流的输入方式。手势(特别是哑语手势)和脸部表情识别也已取得较大进展。使人沉浸在计算机世界的虚拟现实(Virtual Reality)技术是近几年来发展较快的技术,21世纪将更加迅速的发展。
说到计算机科学同其他学科的关系,我认为有几个学科和计算机科学的发展关系很密切。从技术的角度说,通信技术与计算机科学是密不可分的,实际上,通信技术中的很多设备就是一台专用的计算机。另外是各种工业制造中也离不开计算机。例如,将来的汽车、飞机中的大量部件都是计算机构成的。未来一部汽车主要的成本可能不是车身、轮子、发动机,而是其中的微处理器芯片和软件。从科学的角度说,我认为计算机科学与生物学的关系会越来越密切。科学的发展的一般规律是每隔四五十年就会有新的技术出现,来拉动其他学科的发展。最近二三十年是以是以微电子、信息技术为标志的科技浪潮。这一段时期预计到2020年基本结束。下一次科技浪潮将是以生物技术为标志的科学的飞跃。而与以生物信息学为代表的生物与计算机科学的交叉学科正在蓬勃地兴起。例如用信息学的理论和方法去研究生命科学,未来可能会有很多学计算机的人去从事生物信息学的研究,这是未来研究的一大热点。
从另外一方面来说,其他学科反过来也会促进计算机科学的发展。目前计算机用的几乎都是半导体集成电路,但现在人们也在努力研究基于其他材料的计算机,如超导计算机,光学计算机,生物计算机等,比如我们常听到的生物芯片技术。但目前的生物芯片还只是作测试用,还不能够用来计算。虽然这些技术现在还都不成熟,与实际应用有很大的差距,但可以预计这些技术的发展必将使计算机科学的前景更加美好。
记 者:网络的出现极大地改变了我们的生活,也使得计算机技术走进了千家万户。它的发展前景十分美好。但是我们知道,在科学研究中经常会遇到意想不到的困难。您认为当前计算机科学发展遇到的主要困难什么?
李国杰院士:当前计算机科学的主要问题有三方面。首先是复杂性的问题。计算机科学的实质是动态的复杂性问题。一个芯片的晶体管有上亿甚至几十亿个,这个数目已和大脑里的神经元的数目一样多,如何保证这样一个复杂的系统能够正常的工作而不出现错误,这已不止是一般的测量能够解决的问题了。另外一个问题就是功耗。当前功耗似乎不是什么问题或者说不是重要问题,但再过十几年它就会变得十分重要。根据摩尔定律,大约每隔一年半,芯片的性能翻一翻,但是性能翻一翻可能会造成功耗也翻一翻。功耗越大,放热越多。现在一个芯片可能放热一两百瓦,还可以用风扇来散热,但再翻一翻几百瓦,相当于一个电炉了。这时的散热就十分困难了。所以,如何在提高性能的同时不增大功耗甚至减小功耗是当前计算机科学发展的重大问题。功耗问题极为复杂,由于集成电路的微型化,将来的工艺达到0.1微米以下,每一层芯片只有几个原子,这时的单位面积上的热量已经极高了。所以在计算机科学发展的早期就有一位著名的科学家说过计算机科学是制冷的科学。最后一个问题是智能化的问题。现在网上有很多信息,如何让计算机把这些信息变成你所需要的知识。这是一件很难的事情。这不是说简单的我点一个网站,里面能搜索到与我输入的字符匹配的内容,而是说计算机要将收集到的知识系统化。比如,你想找一个人,你问计算机:"拉登是什么人?" 未来的计算机有这个能力,它能在千千万万的网页中找到与拉登是什么人相关的内容,组织一篇文章来告诉你答案。再