时间:2023-09-19 16:27:39
开篇:写作不仅是一种记录,更是一种创造,它让我们能够捕捉那些稍纵即逝的灵感,将它们永久地定格在纸上。下面是小编精心整理的12篇超级计算机技术,希望这些内容能成为您创作过程中的良师益友,陪伴您不断探索和进步。
【关键词】 超级计算 物理学 研究
1 计算科学的重要性日益凸显
当前,超级计算已成为继理论和实验之后科学研究的第三大研究方法,已经渗透到科学研究与工程设计的各个层面,成为促进重大科学发现和科技进步的重要手段。在一些新兴的学科,如新材料新能源技术和生物技术领域,超级计算机已成为科学研究的必备工具。同时,超级计算也越来越多地渗透到能源开发、高端装备制造等一些传统产业,以提高生产效率、降低生产成本。金融、政府信息化、企业等更广泛的领域对超级计算的需求也迅猛增长。现今超级计算是国家科学技术创新发展的关键要素,是体现国家科学技术核心竞争力的重要标志,是支撑国家综合国力持续提升的关键领域之一。
同时,应用领域的快速扩展,也对超级计算发展提出了更大需求和更高要求。尤其当代科技对计算的要求越来越高,应用领域要达到全物理、全系统、三维、高分辨、高逼真的建模能力,这一要求已远远超过目前的计算能力。这是一个巨大的挑战,带来了一系列世界性难题,形成了当代科学计算的学科前沿。正是由于需求的牵引和计算科学自身发展的推动,各发达国家都大力发展超级计算。我国也在《国民经济和社会发展第十二个五年规划纲要》、《国家中长期科技发展规划纲要(2006-2020)》等关系国家战略发展方向的重要文件都指出,要大力发展新一代信息技术,突破制约高端信息技术产业发展的瓶颈,掌握超级计算、云计算、大数据等核心技术,以应用需求为导向,重视和加强创新,开发支撑和带动产业发展的技术和关键产品,促进产业改造和技术升级。
2 超级计算发展迅速及各国发展战略
超级计算的核心是超级计算机,超级计算机并没有明确定义,通常指能够执行一般个人电脑无法处理的大资料量与高速运算的电脑,具有很强的计算和处理数据的能力,配有多种外部和设备及丰富的、高功能的软件系统。1976年世界上首台商用巨型机Cray-1问世,成为超级计算机发展起步的标志。超级计算机发展迅速,截止2013年底,短短37年的时间,性能提升超过100,000,000倍,Cray-1浮点计算性能只有160Mflops(现在普通电脑的性能已达到1,000Mflops量级),而2013年排名世界第一的“天河二号”超级计算机峰值计算速度每秒达5.49亿亿次(54,900,000,000,000Mflops)、持续计算速度每秒3.39亿亿次[1]。
从技术发展角度来说,单个CPU性能提升基本满足“摩尔定律”,也就是每18个月左右CPU性能提升1倍,但是超级计算机性能的提升远高于高CPU性能提升的速度,基本按指数方式在提升(参看图1)。超级计算机之所以能获得如此卓越性能和发展速度,主要得益于并行技术的支撑[2]。
世界上许多国家对计算能力的建设和计算科学的发展都给予了高度重视,不少国家都制定了国家层面的计划[3,4,5]。
(1)美国:从1970年代起就实施了一系列推动计算科学发展的国家计划,包括“战略计算机计划”(SCP)、“高性能计算和通讯计划”(HPCC)、“加速战略计算计划”(ASCI)、“先进计算设施伙伴计划”(PACI)等。2005年,美国总统信息技术咨询委员会(PITAC)的报告《计算科学:确保美国的竞争力》中指出,“二十一世纪最伟大的科学突破将是计算科学所获得的成就”,建议“联邦政府、学术界和工业界必须共同制定一个数十年的发展蓝图,在科学和工程学科方面推动计算科学的发展。”并且警告说:“美国现正处在关键时刻,如果我们还不高瞻远瞩和承担自己的义务,长此以往,国家的科学领导地位、经济竞争力和国家安全后果不堪设想。”2006年,NSF提出了到2010年建设千万亿次计算规模的国家超级计算环境[6]。
(2)欧盟:欧盟“欧洲高性能计算任务组(HET―High Performance Computing in Europe Taskforce)”在2007年1月了欧洲在高性能计算领域的政策框架建议[7],提出在欧洲建立一个可持续的科学研究超级计算基础设施,其中包括一个位于“高性能计算生态系统(HPC Ecosystem)”金字塔顶端的千万亿次超级计算机。2010年6月,欧盟在西班牙巴塞罗那宣布启动一项投入经费5亿欧元的计划,该计划被命名为欧洲先进计算伙伴关系(PRACE),将联合欧委会与20个欧洲国家的力量,使欧洲科学家能够共享其它国家的超级计算机,运算速度将达到每秒1千兆次。通过PRACE计划,德国的目前欧洲最快运算速度的Jugene将成为第一个为欧洲科学家提供服务的超级计算机。到2015年,位于德国、法国、意大利和西班牙的更多超级计算机将陆续提供类似服务。该计划将对具有提供超级计算机落户条件的国家开放[8]。
(3)日本、澳大利亚、韩国等国家都对超级计算能力建设和应用高度重视,提出了国家级计划。日本在2002年依靠“地球模拟器”、2011年“京”两次获得世界排名第一,更是与2013年启动了“E”超级计算机的研制计划。
(4)中国:我国科技部的国家863计划于2006年启动了“高效能计算机及网格服务环境”重大专项,已连续“十五”、“十一五”、“十二五”三个五年计划支持我国超级计算发展,先后支持自主百亿次、千万亿次、十亿亿次超级计算机系统研制和应用。同时,我国也于近期启动了“E”级超级计算机研制计划。
3 物理研究中重大挑战性问题需要超级计算来解决
物理学研究是科技发展的重要基础,经过从近代物理到现代物理数百年的发展,物理学从理论到应用已经形成的比较完善的体系,但是在物理学研究领域面临的挑战性问题丝毫没有减少,而且越来越多的问题已经无法用单纯的理论或实验的方法进行解决,超级计算的发展使得计算在这些重大挑战性问题的研究中发挥越来越重要的作用。
3.1 高能物理与核物理
在该领域对超级计算的需求来源于两个方面。
(1)海量实验数据的分析和处理:以欧洲核子研究组织CERN的大型强子对撞机LHC为例,加速器每秒钟在检测器中心产生4000万次粒子碰撞事件。计算机实时地从这4000万事件中挑选出100个“好”事件,也就是符合物理学家要求的事件,并以每秒100-1000MB的速度记录在光盘或磁带上。加速器将产生空前的数据:每秒产生100MB原始数据,每年将产生需记录的事件约为1亿个,每年的数据量就达到15PB(1015Byte)。存储这15PB数据量每年需要使用两千万张CD,分析则需要使用100万台当今最快的计算机处理器。因此,在未来的二十年中,主要的高能物理实验,特别是大型强子对撞机,产生的海量数据会使高能物理以及计算科学研究面临前所未有的挑战。
(2)物质起源、物质相互作用的大规模模拟:在高能物理与核物理层面开展物质起源、物质相互作用研究,需要基于量子色动力学、相对论、量子场论等复杂理论,构建复杂数学模型对夸克、胶子、质子、中子等粒子进行大规模数值模拟,从而得到有价值的模拟结果来指导实现或理论研究,但这些大规模计算工作,必须要依赖超级计算的支撑。
3.2 材料物理
材料的组成、结构、性能、服役性能是材料研究的四大要素,传统的材料研究以实验室研究为主。但是,随着对材料性能的要求不断的提高,材料学研究对象的空间尺度在不断变小,只对微米级的显微结构进行研究不能揭示材料性能的本质,纳米结构、原子像已成为材料研究的内容,对功能材料甚至要研究到电子层次。因此,仅仅依靠实验室的实验来进行材料研究已难以满足现代新材料研究和发展的要求。然而计算机模拟技术可以根据有关的基本理论,在计算机虚拟环境下从纳观、微观、介观、宏观尺度对材料进行多层次研究,也可以模拟超高温、超高压等极端环境下的材料服役性能,模拟材料在服役条件下的性能演变规律、失效机理,进而实现材料服役性能的改善和材料设计。因此,在现代材料学领域中,随着计算材料学的不断发展,“计算实验”作用会越来越大,已成为与实验室的实验具有同样重要地位的研究手段。
3.3 流体力学
计算流体力学从20世纪中叶快速发展起来,目前已成为国际上一个强有力的研究领域,是进行传热、传质、动量传递及燃烧、多相流和化学反应研究的核心和重要技术,广泛应用于航天设计、汽车设计、生物医学工业、化工处理工业、涡轮机设计等诸多工程领域。计算流体力学领域最复杂、最具挑战性的问题是湍流的直接模拟,其一直受到计算机速度与容量的限制。主要困难在于湍流脉动运动中包含着大大小小不同尺度的涡运动,其最大尺度L可与平均运动的特征长度相比,而最小尺度则取决于粘性耗散尺度,即为Kolmogorov定义的内尺度,其尺度的比例随着雷诺数的升高而迅速增大。目前已经证明,直接数值模拟的计算量与雷诺数的三次方成正比。鉴于这些原因,目前直接数值模拟的雷诺数与实际的复杂流动还差好几个量级。即使目前最快的超级计算机也只能开展有限条件下的湍流直接模拟。
3.4 大气物理
大气物理是研究大气的物理现象、物理过程及其演变规律的学科,重点应用在数值气象预报和气候变化研究领域。气象预报基于大气物理等研究成果,形成可进行气象预报的业务系统,基于超级计算系统进行短期内时效性数值预报,因此为了保证给出更长时间的可靠预报,并保障预报结果及时,要求超级计算平台提供高性能、稳定的计算资源。气候变化基于大气物理开发的模式,依托超级计算系统进行长期的气候变化预测研究,由于气候变化研究成效越来越依赖于模拟覆盖区域范围及网格精度,而且模拟时限要达到数百年甚至上千年,因此它对超级计算平台的计算性能、数据访存性能、任务可扩展性都提出了挑战。气候气象领域是超级计算应用的传统领域,也是促进超级计算发展的重要动力。
3.5 地球物理
地球物理学是地球科学的主要学科,用物理学的方法和原理研究地球的形成和动力,研究广泛系列的地质现象。地球物理传统上又分为小地球物理和大地球物理,小地球物理主要是指油气等能源勘探过程中的地球物理研究,大地球物理主要是指侧重地质构造、地震及涉及水圈和大气层的系统性、大尺度研究。油气能源勘探中的地震法勘探数据的三维成像处理具有计算密集、访存密集、处理数据规模大等特点,需要大规模超级计算平台为支撑,特别是逆时偏移处理RTM、全波形反演FWI等新兴技术的发展,更是为超级计算发展提出了挑战。大地球物理研究领域的计算处理,虽然精度要求没有小地球物理高,但是由于系统尺度更大、系统更复杂,计算能力需求甚至更大。
3.6 天体物理与天文学
在天文学研究领域,不论是大规模天文观测数据处理,还是天文数值模拟领域都产生了大规模计算需求。现在我们已经进入精确天文学研究时代,数值模拟正扮演越来越重要的角色,为了开展宇宙演化模拟,美国、欧洲等开展的并行模拟规模达到了上万处理核心,产生的模拟数据超过100TB量级,其自身模拟计算和后续数据处理都需要超级计算平成。而在天文观测领域,现在大的天文望远镜系统每天采集的数据已经超过TB量级,而未来的SKA等系统每天观测数据会达到PB(1PB=1,000TB=1,000,000GB)级,必须用超强性能的超级计算系统来完成数据处理。
归结起来,物理学研究对超级计算带来的需求和挑战主要体现在四个方面:超强的计算性能,高速的互联通信网络,良好的数据访存(I/O),海量存储能力。新兴的超级计算技术正在努力从不同方面解决上面所面临的重大挑战。
4 新兴超级计算技术将为物理学研究带来新的挑战与机遇
随着以“天河一号”、“星云”等为代表的国产千万亿次异构超级计算机的研制成功,中国也成为继美国之后世界上第二个能够研制千万亿次超级计算机的国家。“天河一号”率先采用CPU+GPU异构架构,成为世界上首台异构架构的千万亿次超级计算机。新型的异构体系架构使超级计算机在性能、体积和功耗等方面取得的巨大进步,使中国成为全球当代异构融合超级计算机技术的典型代表。由于传统CPU受制作工艺和功耗限制,芯片单位面积内集成的晶体管已接近上限,在计算性能和功耗等方面有更有优势的GPU、MIC等加速芯片越来越多地应用于高性能计算,2013年世界排名前十中,已有近一半采用异构架构,因此异构架构成为超级计算机发展的主流趋势。
我国超级计算机的计算能力取得了突飞猛进的发展,旺盛的计算需求和日益成熟的高性能计算机技术极大地促进了高性能计算在各个领域的应用。然而我国超级计算机实际可有效利用的处理器核数相对较少,高性能计算应用软件的研发水平和性能水平与硬件相比相对滞后,如何高效利用以“天河一号”、“天河二号”为代表的超级计算机,成为物理学研究等领域的挑战。因为,新型体系架构的高性能计算实现,需要适应其体系架构的高性能软件的支持,在物理学研究领域,大量软件是历史积累软件,这就需要在新型编程框架、功能完善的开发及支持环境方面不断完善。
同时,异构体系架构超级计算机的发展,也给物理学研究带来了新的机遇。计算物理学研究领域,受超级计算能力制约,大量问题被简化、被分割,无法系统、全面的研究,新型体系机构的超级计算机实现了整体性能的大幅提升、功耗降低、稳定性增强等优势,为物理学研究带来了更强大的工具。
随着超级计算技术的不断发展和完善,与计算在物理学研究中作用的不断增强,超级计算与物理学研究的结合,必将产生更多影响人类社会发展的重大成果。
参考文献:
[1]http:///
[2]Parallel Supercomputing: Past, Present and Future, The Wall Street Journal, Irving Wladawsky-Berger, August 2,2013.
[3]http://.cn/server/jssc/htm2007/20070516_259532.shtml.
[4]http://.cn/article/2007/0517/A20070517592681.shtml.
[5]我院超级计算需求及布局研究,中国科学院超级计算专家委员会,2007年7月20日.
[6]Leadership-Class System Acquisition - Creating a Petascale Computing Environment for Science and Engineering(美国科学基金会建造千万亿次计算环境计划),2007年3月.
纽约Lime经纪公司COO约翰・贾考布著文称,现在高频股票自动交易规模迅速扩大,但是有的炒股商并未经过验证是否持有保证金,实际上是买空卖空。他告诫要防止出现“多种形式的多米诺式破产”,而不受约束的计算机处理股市交易可能对美国国家市场体系带来灾难性的损失。
世界金融危机充分暴露了美国经济结构的弱点:重虚拟而轻实体。或也正因此,在经济遭到重创后,美国金融产业很快恢复元气。2010年前3季度,银行连续盈利,第三季度净利145亿美元,远远超过上年同期的20亿。尤其是股票大经纪公司,炒股规模空前膨胀获得丰盈。其主要玄机之一是投资公司利用超级计算机以光速高频自动处理股市交易,以微小的差价购进、出手海量股票,瞬息之间巨额利润入账。
仅以设于新泽西州红岸市的Tradeworx对冲基金和金融技术公司为例,它利用预先编制的算法(algorithms)和超级计算机,一般每天自动高频进出6000万到8000万股股票。大量交易在下午三至四点之间进行,盈利多达上亿美元。公司主管马诺杰・纳伦说,公司可在1秒钟之内做成数千笔交易,一般情况下,股票只保留数分钟即出手。纳伦说,该公司属于美国50家高频交易大公司中的中等水平。公司同时利用超级计算机及时收集全国股市信息,分析行情趋势,以作出正确对策。它也可以把海量交易化整为零,分化成多笔300到500股小笔交易,用以迷惑竞争对手,使其难以摸透公司意向。
在Tradeworx总部,静谧异常,员工总共仅12人,他们都是拔尖院校的高才生,拥有理、工科和数学学位。每天上午一上班,就可处理1500万股交易,而无需动口,这里同喧嚣的纽约证券交易所相比真是两重天,堪称运筹帷幄,日进斗金。
5年前自动股市交易约占市场的30%,交易速度也慢得多,现在已占到61%,交易速度由于超级计算机技术升级而倍增,纽约证券交易所处理的股市交易量已由2005年的80%下降到现在的40%。现在在股市取胜之道主要依靠虚拟技术水平和超级计算机的功能。为此纽约证券交易所已于2010年春迁移至新泽西州马沃市,它在该市修建了有40万平方英尺的数据中心,配置的超级计算机运算速度达400亿次/秒,每秒可处理100万条信息,足以解决全球所有股市的每笔交易结算。另据报道,设在新泽西州东塞托凯特市的复兴技术对冲基金公司宣称,它的计算能力堪同美国主要核武器研制中心之一的劳伦斯・利弗莫尔国家实验室的超级计算机比肩。要知道,为了模拟核爆炸,美国速度最陕的超级计算机首先可是部署在该所。
随着计算机性能的提高,10年前股民做500股高频交易需要付费150美元,现已降为10美元。自动高频交易成为了股市交易方式的主流,但股市已为少数大户所操纵。据咨询公司Tabb集团估计,美国全国交易所每日处理10多亿股票,其中自动高频交易于2009年头蚧月盈利80亿美元。高频股市交易明显助长了炒股大户在股市兴风作浪的不法行为。参议员爱德华・考夫曼担心“美国股市正被少数大投机商利用政策的空子盈利”。国会证券交易委员会正在研究如何限制“闪电股票交易”。
牛津大学金融数学计划倡导人保罗・韦尔蒙特指出,现在股市交易规模愈来愈大,成交速度愈来愈快,参与股民愈来愈多,而且趋向一个模式交易,这很容易导致“股市暴跌”。美国金融IT专家伯纳德・杜纳弗认为,这种交易模式很可能导致出现1987年式小规模股市暴跌,当时股价一天猛降22%。而且人为的机器操作差错,比如重按一次机纽或编码出现纰漏,在数秒钟之内可使股市出现震荡,或者无股票可售,酿成大祸。
即便是高频股市交易商本人也对不测后果忧心忡忡。纽约Lime经纪公司首席营业官(COO)约翰・贾考布于2009年著文称,现在高频股票自动交易规模迅速扩大,但是有的炒股商并未经过验证是否持有保证金,实际上是买空卖空。他说服务器的算法每秒可处理1000笔交易,一旦出现人为差错,在2分钟内可错误处理12万笔交易,如果每笔1000股,每股均价20美元,这就会造成24亿美元的意外交易。他告诫要防止出现“多种形式的多米诺式破产”,指出“不受约束的计算机处理股市交易可能对美国国家市场体系带来灾难性的损失。”
超高速计算机采用平行处理技术改进计算机结构,使计算机系统同时执行多条指令或同时对多个数据进行处理,进一步提高计算机运行速度。超级计算机通常是由数百数千甚至更多的处理器(机)组成,能完成普通计算机和服务器不能计算的大型复杂任务。从超级计算机获得数据分析和模拟成果,能推动各个领域高精尖项目的研究与开发,为我们的日常生活带来各种各样的好处。最大的超级计算机接近于复制人类大脑的能力,具备更多的智能成份.方便人们的生活、学习和工作。世界上最受欢迎的动画片、很多耗巨资拍摄的电影中,使用的特技效果都是在超级计算机上完成的。日本、美国、以色列、中国和印度首先成为世界上拥有每秒运算1万亿次的超级计算机的国家,超级计算机已在科技界内引起开发与创新狂潮。
二、
计算机的发展将趋向超高速、超小型、并行处理和智能化。自从1944年世界上第一台电子计算机诞生以来,计算机技术迅猛发展,传统计算机的性能受到挑战,开始从基本原理上寻找计算机发展的突破口,新型计算机的研发应运而生。未来量子、光子和分子计算机将具有感知、思考、判断、学习以及一定的自然语言能力,使计算机进人人工智能时代。这种新型计算机将推动新一轮计算技术革命,对人类社会的发展产生深远的影响。
三、新型高性能计算机问世
硅芯片技术高速发展的同时,也意味看硅技术越来越接近其物理极限。为此,世界各国的研究人员正在加紧研究开发新型计算机,计算机的体系结构与技术都将产生一次量与质的飞跃。新型的量子计算机、光子计算机、分子计算机、纳米计算机等,将会在二十一世纪走进我们的生活,遍布各个领域。
1.量子计算机
量子计算机的概念源于对可逆计算机的研究,量子计算机是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。量子计算机是基于量子效应基础上开发的,它利用一种链状分子聚合物的特性来表示开与关的状态,利用激光脉冲来改变分子的状态.使信息沿着聚合物移动.从而进行运算。量子计算机中的数据用量子位存储。由于量子叠加效应,一个量子位可以是0或1,也可以既存储0又存储1。因此,一个量子位可以存储2个数据,同样数量的存储位,量子计算机的存储量比通常计算机大许多。同时量子计算机能够实行量子并行计算,其运算速度可能比目前计算机的PentiumDI晶片快10亿倍。除具有高速并行处理数据的能力外,量子计算机还将对现有的保密体系、国家安全意识产生重大的冲击。
无论是量子并行计算还是量子模拟计算,本质上都是利用了量子相干性。世界各地的许多实验室正在以巨大的热情追寻着这个梦想。目前已经提出的方案主要利用了原子和光腔相互作用、冷阱束缚离子、电子或核自旋共振、量子点操纵、超导量子干涉等。量子编码采用纠错、避错和防错等。量子计算机使计算的概念焕然一新。
2.光子计算机
光子计算机是利用光子取代电子进行数据运算、传翰和存储。光子计算机即全光数字计算机,以光子代替电子,光互连代替导线互连,光硬件代替计算机中的电子硬件,光运算代替电运算。在光子计算机中,不同波长的光代表不同的数据,可以对复杂度高、计算量大的任务实现快速地并行处理。光子计算机将使运算速度在目前基础上呈指数上升。
3.分子计算机
分子计算机体积小、耗电少、运算快、存储量大。分子计算机的运行是吸收分子晶体上以电荷形式存在的信息,并以更有效的方式进行组织排列。分子计算机的运算过程就是蛋白质分子与周围物理化学介质的相互作用过程。转换开关为酶,而程序则在酶合成系统本身和蛋白质的结构中极其明显地表示出来。生物分子组成的计算机具备能在生化环境下,甚至在生物有机体中运行,并能以其它分子形式与外部环境交换。因此它将在医疗诊治、遗传追踪和仿生工程中发挥无法替代的作用。目前正在研究的主要有生物分子或超分子芯片、自动机模型、仿生算法、分子化学反应算法等几种类型。分子芯片体积可比现在的芯片大大减小,而效率大大提高,分子计算机完成一项运算,所需的时间仅为10微微秒,比人的思维速度快100万倍。分子计算机具有惊人的存贮容量,1立方米的DNA溶液可存储1万亿亿的二进制数据。分子计算机消耗的能量非常小,只有电子计算机的十亿分之一。由于分子芯片的原材料是蛋白质分子,所以分子计算机既有自我修复的功能,又可直接与分子活体相联。美国已研制出分子计算机分子电路的基础元器件,可在光照几万分之一秒的时间内产生感应电流。以色列科学家已经研制出一种由DNA分子和酶分子构成的微型分子计算机。预计20年后,分子计算机将进人实用阶段。
4.纳米计算机
纳米计算机是用纳米技术研发的新型高性能计算机。纳米管元件尺寸在几到几十纳米范围,质地坚固,有着极强的导电性,能代替硅芯片制造计算机。“纳米”是一个计量单位,大约是氢原子直径的10倍。纳米技术是从20世纪80年代初迅速发展起来的新的前沿科研领域,最终目标是人类按照自己的意志直接操纵单个原子,制造出具有特定功能的产品。现在纳米技术正从微电子机械系统起步,把传感器、电动机和各种处理器都放在一个硅芯片上而构成一个系统。应用纳米技术研制的计算机内存芯片,其体积只有数百个原子大小,相当于人的头发丝直径的千分之一。纳米计算机不仅几乎不需要耗费任何能源,而且其性能要比今天的计算机强大许多倍。美国正在研制一种连接纳米管的方法,用这种方法连接的纳米管可用作芯片元件,发挥电子开关、放大和晶体管的功能。专家预测,10年后纳米技术将会走出实验室,成为科技应用的一部分。纳米计算机体积小、造价低、存量大、性能好,将逐渐取代芯片计算机,推动计算机行业的快速发展。
我们相信,新型计算机与相关技术的研发和应用,是二十一世纪科技领域的重大创新,必将推进全球经济社会高速发展,实现人类发展史上的重大突破。科学在发展,人类在进步,历史上的新生事物都要经过一个从无到有的艰难历程,随着一代又一代科学家们的不断努力,未来的计算机一定会是更加方便人们的工作、学习、生活的好伴侣。
参考文献:
[1]刘科伟,黄建国.量子计算与量子计算机.计算机工程与应用,2002,(38).
[2]王延汀.谈谈光子计算机.现代物理知识,2004,(16).
[3]陈连水,袁凤辉,邓放.分子计算机.分子信息学,2005,(3).
[4]官自强.纳米科技与计算机技术.现代物理知识,2003,(15).
[5]张镇九,张昭理.量子计算机进展,计算机工程,2004,(4).
EW:回溯近20年来中国超级计算机的发展历程,你觉得中间哪几个重要转折点不能不提?
LJ:20年前,中国高性能计算机是被西方禁运的,而现在我们已经基本实现了自主可控。这其中经历了四个阶段:第一个阶段是上世纪90年代中期,我们只能实现软件层面的自主,器件层面还是大量采购国外的部件来做机器。这也是现在中国高性能计算机生态环境不好的缘由之一,无法标准化,导致很多应用有问题,在商业化市场上,大家习惯的软件很难被应用。
第二个阶段是上世纪90年代后期,国家开始重视工业通用标准,很多器件甚至软件就都得用国外厂商的,离自主又远了一点。那个时候大部件都通过进口,就像汽车,可能分成几大块进口,只在国内组装。
第三个阶段是本世纪初期。2005年,我们就开始大量地把过去从国外进口的大部件自己进行设计。大概到2007年、2008年的时候,这些大部件已经完全可以自己设计,但是核心的那些器件、软件模块还是用国外的,这个问题一直延续到今天。
第四个阶段就是要真正地实现对所有技术的掌握和突破,而且让它能和今天的工业通用标准很好地衔接。如果最后这一步走出去了,我想中国这个产业就能跑到全球的潮头。
EW:目前中国超算行业格局是怎样的?
LJ:国内有三支队伍在做:国防科技大学、江南计算所、中科曙光。其他两家更多地可能是在某一领域去完成它的任务,它们能获得很多国家的资源支撑。而曙光则是跟外国企业在市场上靠商业竞争,且人力成本要高于其他两家。企业的特点是,它做什么东西,都要有市场价值。
在核心优势方面,国防科技大学有很好的网络技术,在自主高性能互联网络方面也非常独到;江南计算所有很好的CPU技术,在其他自主技术方面也很好;曙光则有很好的应用架构设计能力、工程设计能力、用户推广能力等,此外,曙光是三家机构中唯一完全市场化运作的企业,在商业化方面,曙光是做得比较好的,更加注重高性能计算机的产品化和市场占有率。
在与国际上的IBM等公司的市场竞争中,我们的策略是,产品做好、技术做好、做得稳定可靠,让机器好用又耐用,价格适中。市场竞争就是这么回事。
EW:中科曙光在超算业务上有哪些关键产品?
LJ:十多年前,“曙光4000A”是中国第一个进入全球高性能计算机TOP500排行榜且位列前十名的系统。这对于那时的我们来说,已经是非常好的成绩了,因为从过去的默默无名,突然排到了前十。后来到“曙光5000A”,也是排到了全球前十名。在“曙光6000”出来的时候,已经是全球第二名。“曙光6000”的设计目标是市场化的需求,所以它的应用非常好用,装在深圳超算中心,一年能收取两个亿的服务费,非常完美。
现在,曙光新一代高性能计算机正在研发。它是一款面向某一类特殊应用的机器,比如气象、航空航天等,大概明年就能完成。它针对某一族应用去做优化,因为不同类型的应用所需的架构都不一样。曙光新一代高性能计算机经历了长时间研制的原因就在于,它不断地根据应用的变化在调整。
EW:之前《华尔街日报》 报道“神威・太湖之光”时曾称,中国的超算已经超过了美国。对此,你怎么看?
LJ:虽然中国的“神威・太湖之光”的性能超过了美国现有计算机的性能,但这个性能是指Linpack的性能,这个话得说严谨。
从行业角度来说,我不认为中国超算已经超越美国。美国超算做得非常扎实,它的机器跟应用匹配着做,应用层面我们尽管在快速追赶,但仍然稍有脱节。系统和应用的结合、和应用的匹配,这是最重要的。这也是我们现在跟人家相比最大的短板:一方面,中国超算对应用的支持还不是很好;另一方面,它的应用领域也太窄,仅限于科学计算,还没有延伸到信息服务领域中去。
“神威・太湖之光”虽然在TOP500中已经排名第一,但它是独立自己做的CPU,很多市面上的应用它跑不了,而且本身架构不适合做信息的处理,它主要还是在解方程。
EW:能否详细讲述一下,超算是如何应用在这些科学尖端领域的,对我们日常生活又有哪些影响?
LJ:超算在包括航空航天、石油、电力、水利、生物、制药、环境、国防、教育、医疗、金融、电信、政务、互联网、云计算等各个领域都有着广泛的应用。在这些领域,以数字形式存在的海量信息,只有依靠这种大型计算机,才能进行处理和分析。
在尖端科学领域,以气象为例,由中科院大气物理所、曙光公司、中科院计算所、中科院计算机网络信息中心联合研发和创制的“地球数值模拟装置”原型系统,让科学家可以实现对大气、洋流、地壳、生态等的仿真研究,用于还原或预测地球自然变化过程,可用于应对全球变化、防灾减灾和环境治理等问题。
此外,2013年“嫦娥三号”在月面成功软着陆。这个过程中,曙光高性能计算机对“嫦娥三号”的轨道设计、实时计算、预报等也起到了非常重要的保障作用。
再举几个跟我们日常生活相关的例子。高性能计算集群能够助力雾霾预报,通过对污染源、区域污染数据的精细化分析,为污染防控提供决策指导。如大家熟悉的去年9月抗战胜利 70 周年阅兵期间的“阅兵蓝”和G20的“西湖蓝”都是基于超算的预测分析和追因溯源才得以实现的。
去年阅兵期间,以曙光高性能计算集群为核心的中国环境监测总站针对京津冀及周边区域大气污染过程进行不少于未来7天的预报预警、潜势预测以及污染源贡献追因。今年9月在杭州举办的 G20,曙光高性能计算机系统建立了适用于浙江省及杭州市的区域空气质量数值模型。利用这个模型,再结合气象条件、监测数据和大气污染物排放清单,制定了 G20 峰会空气质量保障控制措施。
从超算到E级超算
EW:时下超算已成为深度学习的引擎。曙光在人工智能方面有哪些想法?
LJ:当我们把这个超级计算机的应用扩展到信息服务、信息处理这个领域,包括大数据平台,大数据的处理、分析、挖掘,再加上一些新的技术,它就变成了人工智能,变成了可以通过机器去深度地学习。它的脉络就是这么过来的。不过,对于人工智能来说,虽然计算能力很重要,但更重要的还是算法、模型、软件等。二者相结合,加上市场上有商业利益驱动,我相信会发展得非常快。
对曙光自身来说,今年4月跟寒武纪签约合作,此前也跟如NVIDIA、致生联发等公司在人工智能方面有合作。以寒武纪为例,它的芯片技术在人工智能领域是比较优秀的,但因为人工智能的应用领域很广泛,只一个寒武纪是不行的,所以我们也在积极地跟其他企业寻求合作,面向E级机开发新一代的所谓的加速部件。比如,我们还跟NVIDIA一起合作进行这方面的研究,以便让我们的E级机在推出的时候能有非常好的面向人工智能应用的性能。
EW:“十三五”规划里面,国家对E级超算十分重视。研制E级超算的时间表是怎样的?
LJ:大型计算机的研制周期平均约为3~5年。E级超算还有一段相当长的路要走,计划在2020年去完成一台有百亿亿次计算能力的机器,其研发经费预计约为30亿元。
预计在2018年,能够拿出一个原型系统。它是一个缩小比例的、1/16计算能力的机器,但内部构造基本相同。按照预期目标,该原型系统能效比为10GFlops/W以上,保证可扩展至10万节点、PUE(Power Usage Effectiveness,是评价数据中心能源效率的指标)低至一定水平。在完成原型机的过程中,所有相关的技术就基本都完成了,再花两年左右的时间进一步完善,然后把规模做大。
在“十三五”规划里面,江南计算所、国防科技大学、中科曙光三家会一起来推动E级超算。最后根据对这三家原型系统的评估,谁的架构最优就以谁为主,另外两家合作。比如“十二五”规划的无锡那台超级计算机,虽然主计算分区是由江南计算所搭建,但服务分区是曙光搭建的。
EW:如今在全球范围内超算性能排第一的“神威・太湖之光”,它的性能峰值达到了125Pflops。如果再迈到E级超算,性能再提高一个数量级,会不会面临性能过剩而应用跟不上的情况?
LJ:现在的问题就是超级计算机的技术发展正面临左右两难的状况。很多超级计算机一味地去追求性能,而这种性能的测算体系是以一道题做基准去测出来的。比方如Linpack,它是一种数学方法,解一个方程组,看谁用的时间短,决定它的效率。但是在今天看,这一台大型计算机会解方程组,不代表它会做别的,超级计算机在面对不同算法、不同应用时,效率差距极大。
100Pflops级别的性能已经很好了,而未来的E级机,性能又高了10倍,如果依然像现在这样,应用层面依然做不好的话,等于弄了一堆废铁,肯定是不行的。所以要在追求应用灵活性、广泛性的基础上,兼顾它的性能峰值,这才是未来的方向。
EW:相较你刚才提到的Linpack测试,有没有更加能反映机器实际性能的测试方法?
LJ:Linpack的方法已经使用20年了。在20年前,因为超级计算机的应用领域很窄,基本上是以解代数方程为最主要的应用,所以那时的测试方法就用了Linpack。可是在今天,超级计算机的应用已经五花八门,用一个指标已经不能完全衡量其性能了。现在又出来如HPCG等一系列的测试方法,它们是一个综合体系,用一组应用进行测试,每个应用的测试结果最后进行加权,用一个算法平均出其综合的性能,这就更容易反映机器在复杂应用环境里面的真实性能。
EW:之前“神威・太湖之光”能效比是6GFlops/W,而按照当前国际公认标准, E级超算的能效比至少要达到50GFlops/W。实现这一跨越,会面临哪些方面的困难?
LJ:整个计算机里面,最耗电的就是CPU,其他如内存等相对耗电量很小。对于我们来说,似乎唯一的方法就是在相同功耗的情况下提高芯片的性能,或者说提高它的集成度。现在芯片都是用28纳米的工艺,很快就要用到14纳米甚至7纳米的工艺。在摩尔定律下,线宽越来越窄,它集成电路的数量就越来越多,并行起来的性能就越来越高。
此外,业界也有讨论用异构加速或异构综合的方式来降低功耗。目前有大量的算法是通过软件迭代来产生结果的,耗时非常长。异构加速这种加速部件,里面是硬件的CPU单元,它用硬件来处理一些特定的应用,能将耗时的、效率很低的东西,更高速地去进行处理和计算。未来超级计算机的架构,既要满足工业的通用标准,又要满足性能要求,这种异构的通过高性能加速部件来构成的超级计算机,在我看来是未来的主流。
最后,在能耗这方面还有一个名词叫PUE,“1”是最好的,我们追求的目标就是让它趋近于1,即不需要花额外的能耗去处理冷却的问题,这是一个终极目标。我想,我们的E级机在这个上面会有重要的突破,让PUE趋近于“1”,让机器自己来冷却自己。
EW:与现在相比,E级超算在应用层面会有哪些不同?
LJ:一方面,现在的超算在应用层面问题依然突出;另一方面,不同用户对应用的需求也不一样。这都是我们正在面临的挑战。
但在E级超算出来后,通过软件定义系统,一个大机器可以分成若干个适应不同应用的区域,通过软件来定义这个区域。比如如果是人工智能应用的话,我们的加速部件的性能和数量就要更多,这样的话,就可以通过软件在实时应用场景下去重新配置这个机器,让它更适合这类应用。
这样一来,在应用层面将几乎没有限制。在全球范围内,99%的科学计算应用,它都能良好地支持;同时能够支持采用全球工业通用标准的云计算、大数据,云服务、云存储等方面的应用。如果腾讯愿意,甚至微信也可以在这上面得到支持,但这里面就涉及一系列的技术,不在芯片上做文章是很难实现的。
战略布局再纵深
EW:国产芯片这个行业,它跟国外的差距到底有多大?
LJ:这就是全面的差距了。英特尔从1968年就开始了。在这几十年当中,数千亿美元、数万名工程师的投入,才造就了他们的现在。中国的龙芯是1998年开始,差30年,投入了数亿元人民币、数百名工程师,这个差距是显然的。但是从趋势上来看,国内芯片行业是越来越好了。
EW:未来在E级超算研发方面,中科曙光还有哪些重要举措?
LJ:我们目前一系列的技术创新都围绕着E级机在展开,这里面包括高性能的冷却系统、高性能的网络、高性能的计算部件等,都有不同的团队在工作。预计到明年年底,可以公布成果。
EW:这些团队的人才从何而来?
LJ:这里面就有中科院的优势,人才是中科院对这个产业的重大贡献之一。超算这个东西不仅要懂计算机,还得懂化学、力学等各个学科的知识,才能去帮助人家做一些事。而中科院有那么多不同领域的研究所和学习不同学科的学生,我们会从各个研究所找来这些跨界的人才。
EW:除了高端计算机,中科曙光其他业务现在发展得如何?
LJ:在存储方面,像今天互联网的应用,大规模的、高可靠性的数据存储,是并行存储的。曙光有一个分布式存储系统,完全自主,性能也非常好。这个东西我们做了接近10年的时间,一直在不断地发展,存储业务营收今年上半年增长了14.53%。另外,我们在信息安全等领域也都有不同的团队在做。
EW:据8月23日公布的中科曙光2016年中报,软件、系统集成及技术服务营收增速比较快,相较上年,增幅达到了60.63%。这和云计算以及智慧城市发展有关系吗?
LJ:有关系。2008年,我们在成都建立了全国第一个云计算中心。后来,随着我们“数据中国”战略往前发展,目前,曙光已在全国20多个城市建成了云计算中心,运行的政务应用和智慧城市应用种类超过了1000个。此外,中科曙光已经参与了30多个城市云的建设,汇集数据达30多PB。城市云和行业云的建设使得公司在全国范围初步建成了一个云数据服务网络。
包括云计算,包括大数据,市场上也有其他的一些公司在做,但中科曙光有自己的优势:第一是软硬件的体系,都是我们自己的,这使得我们能够更高效、更快速地提供更优质的服务;第二是我们的城市云,它不是万金油,而是完全针对这个城市的应用需求去设计,所以它涉及的目标极其明确,是非常收敛的系统。
EW:你是如何定义智慧城市这一概念的,它能够帮助人们改变生活中的哪些事情?
LJ:我们不叫智慧城市,就叫城市云――城市的数据体系。今天所谓的人工智能大部分是基于历史的数据记录,然后去预测未来,这样的人工智能,仅仅靠数学模型,它的精度还比较差。
我们的“数据中国”战略希望把超级计算机技术、今天的云计算技术以及大数据处理技术能做一个充分地融合。我们打算在各处,比方说在全国,在百个城市分别建立以城市云计算中心为载体的一个城市大脑,把一个城市所有信息放在里面,形成一个大的数据平台。
这个数据平台是一个可视化地理信息系统,简单来说就是一张大地图,在地图上有各种数据,这些数据分为不同的图层,一类数据就是一个图层,比如,老年人的住址、公交路线数据、天气状况等都可以成为一个图层。
在这样的大数据体系里面,通过应用把不同图层之间的数据联系起来,这些数据就像真的神经元,等这样的神经元联系建立得足够多,它就是个大脑了。今天已经能使用一些了,但还要边使用边完善,这是一个动态的过程。
EW:之前曙光还提出过“云和计划”,这是怎样一个体系呢?
LJ:在城市云的推动过程中,一家企业的力量还是太单薄了,所以我们希望在一个城市里面找到合作伙伴,能够并行地处理一些事。我们自己做,一年建设5个、7个已经是很大的工作量了,但请一些合伙人一起建设,这样能快一点。曙光也会为加盟者提供统一规划设计,包括当地智慧城市项目的顶层设计、技术架构,以及城市云中心的业务范围、发展规划等方面。
EW:在信息安全方面,目前国内整体发展状态是怎样的?
LJ:我们以前提“全面自主”,但全面自主并不意味着安全。现在已经开始提“安全可控”。信息安全这个东西最重要的一点是可控。可控指的是,发现问题后,我们有对策解决。对于我们产业界来说,就是要有自己的设计能力,这样一来,应对安全威胁的能力就大幅度提高了。
此外,安全也分不同的级别。不同的部门,不同的机构,对安全级别的要求千差万别。比方说国家的机要系统,对安全级别要求较高,而信息安全的威胁其中之一就是入侵,通过你的各种漏洞,软件的漏洞、硬件的漏洞入侵,去偷走你的数据。对这些系统来说,使用龙芯的机器就很难入侵,因为那些入口别人都不知道,因为标准是我们自己的而非通用的。不过,需要这一安全级别的机器占比不多,曙光的产品中每年约1万台,占比不到10%。
EW:对于超算来说,安全也是很重要的一个方面吗?
LJ:超级计算机最重要的追求倒不是信息安全,它更多的是从产业安全的角度出发。比如,在“神威・太湖之光”之前的“天河二号”使用了英特尔公司研发的芯片,而去年出台的一项美国出口禁令使该系统未能获得升级所需芯片。现在要做的就是,突破这些技术,达到自主可控。如果再给你禁运怎么办?不怕,可以自己做。
关键词: 网格技术 计算机 因特网 研究与应用
当今计算机网络已成为人们工作、生活不可或缺的一部分,计算机网络特别是Internet的出现使人类文明进入了一个新时代,它不仅使人们从日常繁杂的事务性工作中解脱出来,而且大大提高了劳动生产率。
一、网格技术出现的背景
因特网(Internet)始建于上世纪60年代,从60年代至80年代,互联网的典型应用是收发电子邮件、传输文件、文字新闻及言论等,我们称之为第一代互联网。进入20世纪90年代后,欧洲高能物理研究中心发明了超文本格式,把分布在网上的文件链接在一起。这样用户只要在图形界面上点击鼠标,就能从一个网页跳到另一个网页,不仅可以看到文字信息,而且可以欣赏到丰富多彩的图片、声音、动画等多媒体信息。这个阶段的互联网被称作环球网(又叫万维网),它用超文本和多媒体技术改造了第一代互联网,被称为第二代互联网。第二代互联网虽然比第一代互联网先进了许多,但它也暴露出了严重的弱点。一方面,由于Internet在早期缺乏规划,造成了IP地址分配“贫富不均”的现象,将严重制约互联网的发展。另一方面,互联网上的信息未经过有效的规范和整理,使用起来非常不方便。
克服第二代互联网所暴露问题的一个角度就是发展网格技术,来更好地管理网上的资源,将之虚拟成为一个空前强大的一体化信息系统,在动态变化的网络环境中,共享资源和协同解决问题,从而让用户从中享受可灵活控制的、智能的、协作式的信息服务,并获得前所未有的使用方便性和超强能力。
二、网格的发展历史
网格的思想早在1960年就被提出来了,但对网格的大规模研究只是近十年的事。以超级计算机为中心的计算模式存在明显的不足,超级计算机虽然是一台处理能力强大的巨无霸,但它造价极高。通常只有一些国家级的部门,如航天、气象等部门才有能力配置这样的设备。随着人们日常工作遇到的商业计算越来越复杂,人们越来越需要数据处理能力更强大的计算机。然而,超级计算机的价格阻止了它进入普通人的工作领域。于是,人们开始寻找一种造价低廉而数据处理能力超强的计算模式,最终科学家们找到了答案――网格计算。
网格技术是近年来国际上信息技术领域的热门课题。因此目前许多组织开发了支持网格计算的系统。我国同世界其他各国政府一样,为大幅度地提高我国的综合国力和国际竞争能力,对于网格的建设也十分关注,同时在网格计算方面做了大量基础性和前瞻性研究工作,并在863专项中提出了具体的目标,专项确立了“战略与系统综合研究”、“高性能计算机”、“网格结点”、“网格软件”和“应用网格”五个方面的课题。
三、网格的概念
网格就是一个集成的计算与资源环境,能够吸纳各种计算资源,并将它们转化成一种随处可得的、可靠的、标准的、经济的计算能力。除了各种类型的计算机,这里的计算资源还包括网络通信能力、数据资料、仪器设备,甚至是人等各种相关的资源。基于网格的问题求解就是网格计算,其应用包括分布式计算、高吞吐量计算、协同工程和数据查询等诸多功能。
网格是借鉴电力网的概念提出来的,网格的最终目的是希望用户在使用网格计算能力时,就如同现在使用电力一样方便。我们在使用电力时,不需要知道它是从哪个地点的发电站输送出来的,也不需要知道该电力是通过什么样的发电机产生的。不管是水力发电,还是通过核反应发电,我们使用的是一种统一形式的“电能”。网格也希望给最终的使用者提供的是与地理位置无关、与具体的计算设施无关的通用的计算能力。
清华大学李三立院士将网格与宽带网络作了比较,他说:“将先进计算基础设施(即网格)与信息高速公路(宽带网络)相比较,可以说,信息高速公路是信息传输和获取的信息基础设施;而先进计算基础设施则是信息处理的信息基础设施。虽然,国内外都有不断把信息高速公路扩充频带宽度、改进路由器性能的计划;但是,国外科学家认为:真正的下一代信息基础设施是先进计算基础设施。它将使以计算机为主体的信息处理发生根本性的变化。”
四、网格技术的应用领域
为什么需要网格?因为网格有非常广泛的应用领域。一旦建立起网格,就可以开展许多以前无法进行的工作和研究。
(一)在科学计算领域,网格计算可以在以下几个方面得到广泛应用。
1.分布式超级计算。网格计算可以把分布式的超级计算机集中起来,协同解决复杂的大规模的问题。使大量闲置的计算机资源得到有效的组织,提高了资源的利用效率,使用户的需求得到了及时满足。
2.高吞吐率计算。网格技术能够十分有效地提高计算的吞吐率,它利用CPU的周期窃取技术,将大量空闲的计算机的计算资源集中起来,提供给对时间不太敏感的问题,可作为计算资源的重要来源。
3.数据密集型计算。数据密集型的问题的求解往往同时产生很大的通讯和计算需求,需要网格能力才可以解决。如高能物理实验、数字化天空扫描、气象预测等都是数据密集型问题,网格可以在这类问题的求解中发挥巨大的作用。
(二)在社会经济生活领域,网格可以在如下领域得到应用。
1.基于广泛信息共享的人与人交互。原来人与人的交互受到地理位置、交互能力、共享对象,等等许多条件的限制。比如一个国际会议往往需要许多人在旅途上消耗大量的时间,如果每个人都可以在自己的工作地点,与参加会议的其他人员在一个虚拟的共享空间中进行交互,共同讨论问题,可以产生面对面的效果,无疑将会是十分理想的。网格的出现更加突破了人与人之间地理界线的限制,使得科技工作者之间的交流更加方便,从某种程度上可以说实现人与人之间的智慧共享。
2.更广泛的资源贸易。随着大型机的性能的提高和微机的更加普及,及其资源的闲置的问题也越来越突出,网格技术能够有效地组织这些闲置的资源,使得有大量的计算需求的用户能够获得这些资源,资源的提供者的应用也不会受到太大的干扰。需要计算能力的人可以不必购买大的计算机,只要根据自己的任务的需求,向网格购买计算能力就可以满足计算需求。除了计算资源,包括贵重仪器、程序、数据、信息、文化产品,等等,各种资源都可以在贸易的基础上广泛使用。
网格是一种面向问题和应用的技术,随着网格技术的不断完善和应用领域的不断扩展,网格可以在更多领域得到应用,如银行、航空、石油、气象、电子商务、远程教育、生命科学,等等。
网格技术仅仅是许多技术中的一种,它的出现不是要取代现有的技术,而更多的是对现有技术的补充。《福布斯》杂志预测,网格技术将在3、4年后进入迅速发展时期,在2020年网格技术产业年产值将达到20万亿美元。网格,一个更好应用的网络,其前景广阔,让我们共同迎接网格时代的到来。
参考文献:
[1]许乐平.计算机信息技术基础[M].南京:东南大学出版社,2003.
[2]胡存生.计算机网络基础[M].西安:电子工业出版社,2004.
[3]都志辉,陈渝,刘鹏.网格计算[M].北京:清华大学出版社,2002:3-5.
关键词:美国的计算机产业在世界上占主导地位,政府起了重要作用。美国政府对计算机产业的支持
之所以能够产生明显的效果,关键是政府职能明确,不断根据产业发展需要调整支持方向,改进资助体系和管理。总结美国联邦政府支持计算机技术研究开发的经验,对我国政府支持产业技术发展有着重要的借鉴作用。
一、美国政府对计算机技术发展的支持
第二次世界大战结束后,联邦政府一直是计算机技术的强有力支持者。按1995年不变价计算,1976-1995年间,联邦政府对计算机科学研究和技术开发的支持由1.8亿美元增加到9.6亿美元,增长了5倍。其中,基础研究投入由6500万美元增加到2.65亿美元;应用研究投入由1.16亿美元增加到7亿美元。联邦政府资助中约35-45%投向大学,其余55-65%投向政府实验室和产业界;政府基础研究资金的70%投向大学。联邦政府还对其他与计算机技术相关的研究给予资助。联邦政府对与计算机研究相关的其他技术和电子工程研究方面的投入由1972年的不到10亿美元增加到1995年的17亿美元,占联邦总投入的比重由5%增至7%。
联邦政府从其职能出发决定资助方向,政府资金主要投向以下几个方面。
(一)重点支持长期的基础性研究
美国政府在长期基础性研究和共性应用技术的研究开发方面发挥了重要作用。长期基础性研究的主要特点,一是其效益往往在短期内无法显现出来,风险较大。特别是在产业发展初期,企业没有实力进行这样的研究工作;二是其应用领域往往比较广泛,一家公司无法完全利用,而且又无力阻止竞争者利用其研究成果。因此,产业界较少对长期基础性研究进行投资。
美国联邦政府对计算机技术的长期基础性研究的资助项目已经取得了明显的效果。如,政府资助的计算机人工智能技术研究开始于70年代早期,直到1997年才研制出能够成功识别持续性语音的个人电脑。与此相似的是,国防基金从60年代就开始资助可用于三维图像的基础性系统研究,直到90年代才形成消费性产品。尽管这项成果在高性能仪器中早已开始应用,但近些年才广泛应用于医疗、娱乐及国防产业。
(二)资助计算机研究的基础设施
联邦政府在计算机基础设施建设方面发挥了关键作用,为美国发展计算机产业提供了源源不断的人才。
1.为产业发展培养了大量人力资源
联邦政府的资助计划培养了一大批电子工程和计算机科学的研究生和优秀研究人员,为计算机和电子工程的发展提供源源不断的后续人才。国家科学基金的数据表明,1985-1996年间,获得联邦资金资助的计算机和电子工程专业的研究生比例从14%增加到20%。联邦政府对研究生的资助主要采取助教奖学金的形式,助教奖学金占总资助额的75%以上。1985年到1995年,全国最好的计算机系里,如MIT、卡内基·梅隆、加利弗尼亚大学勃克力分校等的计算机和电子工程专业的研究生中约有56%得到了联邦政府的资助,其中一半是助教奖学金。1997年,斯坦福大学电子工业和计算机专业27%的研究生获得联邦政府资助,50-60%的博士得到资助。同时,政府资助的一些大型研究项目还培养了一批学术带头人。
2.为大学教育和研究提供了良好的设备和设施
配备和维护研究的硬件设备需要较高的资金投入,一般的大学很难筹集到这笔资金。联邦政
府采取多种形式来支持大学购买计算机设备,主要有两种形式:一种是为大学教学提供计算机设备;另一种是通过资助特定研究项目为大学提供精良设备。
联邦政府在支持大学研究设备方面的主要贡献,一是支持建立大学计算中心,资助大学计算机系开展研究工作。国家科学基金(以下简称“NSF”)于1956年就开始了为大学提供普通教学和研究用计算机的资助计划。该计划每年提供的资助金额增长很快,1958-1970年间,共资助了66,00万美元。60年代,国防部高级项目处(以下简称“DARPA”)重点资助了少数几个基础好的大学计算机系(如MIT,卡内基-梅隆大学,斯坦福大学)开展专门项目研究,资助项目的大部分资金用来采购设备。据估计,60年代,全美大学中约一半的计算设备是由政府机构资助提供。1981-1995年间,联邦政府资助了计算机科学系研究设备采购的65%,1985年高达83%。在电子工程方面,联邦政府的设备资助也维持在较高的水平,1982年为75%,1995年为60%。NSF启动了两套专门为计算机科学系提供设备的计划:计算机研究设备计划和一个更加广泛的协作实验研究计划。
二是研制高性能计算设备和建设网络设施。80年代中期,政府资助了IBM701等高性能计算机
的研制,造出了供研究人员进行各种研究使用的大型计算机系统。1985年,NSF启动了一项建立超级计算机中心的计划,资助建立了5个全国范围的计算机中心,为那些不能在普通计算机上进行的高级的、运算复杂的研究提供了条件。后来,这些中心成为高性能计算机的早期试验场,还对一些计算机科学系的教学起了重要作用。同时,这项计划还带动州、私人部门出资在其他大学建立超级计算机中心。
随着网络技术的发展,政府加大对网络设施的资助力度。1973年起,NSF着手进行一项科学网络的计划,每年提供60万美元到75万美元为大学的研究人员建立计算机网络。
(三)支持利用高新技术的大型应用系统的研究开发和推广
联邦政府有效资助了大型应用系统的研究开发项目。DARPA支持了计算机间相互联结的分批转换网络(ARPANET)的研究项目。这项研究促进了有关入网协议、分批转换及路线安排等项研究。同时也推进了对大型网络管理模式的开发研究,如,域名系统及开发电子邮件等。DARPA的研究成果显示了大型分批转换网络的价值,促进了其他网络的开发。NSF网络的建立形成了网络的基础。政府通过资助大型高新技术应用系统的开发,把学术界和产业界的研究者汇聚起来共同建立共用的实验室,交流思想,从而创造出一支有能力最终推动技术发展的研究力量。如,50年代的SAGE项目组织了来自MIT、IBM及其它研究实验室的研究者,整个项目过程中出现了许多创新思想,目前在计算机行业已经获得广泛认可的想法都是当时提出来的。许多计算机行业中的先驱人物也从50-60年代的控制计算机系统(SAGE)项目中获得了经验,后来这些人在代表着计算机及通讯事业新兴的公司及实验室中工作。SAGE的影响在后来的几十年中才逐步显现出来。
构造大型应用系统的实践表明,有些研究并不一定直接导致某一项技术的创新,而是导致开发与技术推广。应用开发是对已经研究出来的技术进行分析和合理组合,形成新的应用系统。如,建立大型应用系统的研究项目就是把电子通讯系统的原理应用到ARPANET项目开发中,形成了网络技术的基础。
(四)对产业技术的早期资助
20世纪50年代,联邦政府资助了绝大部分计算机技术的研究。那时,政府对计算机技术研究
开发的资助超过工业界R&D投入的3倍,几乎覆盖了整个计算机界的研究与开发。直到1963年,政府还资助着IBM计算机R&D的35%,Burroughs公司的50%,Control-Data公司的40%。从60年代末开始,因为整个计算机行业快速发展,政府对计算机R&D资助的比例急剧下降。直到70年代中期,政府资助仅占计算机R&D投入的25%,1979年达到战后的最低点15%。随着新项目的启动和里根执政时期的国防建设,1983年,政府对计算机技术研究的资助比例又有回升,约占20%。
美国政府对产业界的资助重点放在推动技术商业化方面。一是对产业界早期研究的资助。政府对企业实验室提出的一些有市场前景的技术给予资助,将其推向商业化。例如,IBM最先提出了相关性数据库的构想,但IBM考虑到这项技术构想可能对自己已经成熟的产品造成潜在的竞争威胁,没有继续进行商业化研究开发投入。而NSF资助加州大学伯克立分校对这一构想进行深入研究,并将其推向商业化;二是支持共性技术研究开发。有些研究开发具有商业价值,但属于共性技术,单个企业难以研究开发,或者企业担心难以控制竞争者使用技术成果。IBM最先开发了RISC(精简指令系统计算机),但直到DARPA资助加州大学伯克立分校及斯坦福大学进行深入研究时,RISC才实现了商业化。该研究是作为70年代末、80年代初“大规模集成电路”(VLSI)项目的一部分来进行的。后来许多公司把以RISC为基础的产品引入了市场领域。
(五)联邦政府的资助对创新起到重要作用
联邦政府的资助计划促进了计算机技术的创新。据统计,1993至1994年间,美国全国共批准了1619项与计算机产业有关的专利。尽管这些专利的所有者75%是美国企业,但它们所引用的论文大部分是由大学或政府的研究人员撰写的。在按资助来源分类统计的论文中,51%的资助来自于联邦政府,37%来自产业界的资助。政府资助中NSF占22%,DARPA占6%。尽管这些数据仅限于两年的专利统计,但反映出联邦所资助的项目,特别是在大学里进行的资助研究,推动了计算机行业的技术创新。
二、美国政府在计算机产业技术发展各阶段中的主要作用
政府在计算机科学技术发展过程中的作用,随计算机产业成长和发展阶段不同而变化。(一)50年代——计算机技术发展的初期阶段,政府的主要作用是用户和资助者在1960年以前,美国政府作为用户和资助者,主导着电子计算机技术的研究开发。这一期间,政府支持计算机技术主要出于国防需要,资助面比较窄,重点是对技术本身的试验,而且没有一个系统的长期战略计划。但是,这一时期的政府资助项目尝试了不同类型的资助机制,对私营部门产生了非常重要的影响。
50年代,几个主要计算机公司的R&D都得到过联邦政府的各种形式的资助。例如,在IBM公司的R&D投入中,政府合同资助投入占50%以上,直到1963年还有35%。联邦政府不仅在资金上对私营部门提供资助,而且从项目设计、技术思路、人力资源等方面提供了支持。资助的项目涉及到有关国家安全、人力资源培养等各方面,还包括一些综合性、高投入、不确定性大、具有长期影响的技术开发项目。政府资助的许多项目研究出了设备的原型,在这些原型基础上,研究人员可以进行更深入的探索。
(二)60-70年代——技术扩散和产业增长阶段,政府扶持的重点转向长期基础性研究和培养人才
60年代初期,美国的计算机行业开始商业化,可以独立于政府的资助和采购,全国出现了几个大型的计算机公司。这些大型公司建立了自己的实验室,并且有能力自己研究开发计算机应用技术,从而促进了计算机产业的商业化。如,IBM公司与美国航空公司在部分采用军事指挥和SAGE技术的基础上,开发了计算机订票系统(SABRE系统)。计算机定票系统的迅速发展成为推动计算机产业化的一个重要动力。与此同时,产业界对计算机人才的需求大大增加。出现了计算机科学领域,几个重要学校的计算机系已经成立。
随着计算机技术产业化和商业化,政府的资助重点开始转向长期基础性研究和培养人才。60年代后期至70年代,由于计算机产业界对R&D的投入增加,尽管政府资助产业界的绝对数额还在上升,但比例却急剧下降。
(三)80-90年代——计算机产业成熟阶段,政府积极组织和支持联合研究开发
随着产业界增加对计算机技术研究开发的投入,政府资助所占比例开始下降。80年代初期,日本的电子工程和计算机存储器等技术开发,使美国的计算机产业感到了竞争威胁。同时,美国半导体生产设备的国际市场份额从75%下降到了40%。“增强竞争力”成了美国80年代技术政策的关键字眼,国内要求政府采取行动的呼声提高。同时,大学与实业界开始以合资、协议等方式进行合作,或组织行业协会抵制来自日本的威胁。
为了提高美国计算机产业的竞争力,使其在世界占据领先地位,联邦政府不仅继续支持计算机科学和技术的研究,而且调整了支持重点和资助方式。政府对计算机技术的资助重点开始转向支持各界联合开发,通过支持行业协会等一些新机构,组织和促进产业界联合开发。1984年的国家合作研究法案从不信任法案中把研究协会的名字去掉了,从而使研究协会的合作合法化。政府支持半导体制造技术协会(SEMATECH)等行业性组织机构,发挥其在计算机技术联合开发中的组织作用。那一时期,半导体制造技术协会和高性能计算机研究所等受到政府资助的行业性机构,成为计算机技术研究开发和政策议程的主导者。
90年代,政府一方面对现存的政府所有的成熟的计算机基础设施实现商业化和私有化;另一
方面又开始资助新的更高层次的技术研究。如,NSF于1992年将其互联网向商业应用开放之后,又于1995年成功地把NSF的互联网推向私有化。与此同时,NSF和其他联邦机构还在继续进行下一代互联网(NGI)的开发与扩展工作,计划将互联网的数据传输速度提高100倍。NGI计划将建立一个试验性的、范围广阔的、可升级的测试系统,用以开发那些对国家至关重要的网络应用技术,如国防和医疗等。
三、几点启示
美国政府资助计算机技术发展的经验,对我们有以下几点启示。
(一)政府职能明确
在美国的计算机革命中,政府、产业界和学校起了不同的作用。政府主要引导大学和产业界研究机构的研究,特别在建立前沿研究需要的实物基础设施,培养大学生、研究生和技术队伍等方面起到关键性作用。尽管有些在市场中处于主导地位的大公司,如AT&T、IBM、微软和英特尔等在基础研究方面也投入了大量资金。但大公司更倾向投资于与其发展目标及产品开发有紧密联系的研究项目。而政府则在长期基础性研究、应用前途广泛的共性技术研究开发方面发挥了重要作用。
随着计算机产业从幼稚产业发展为成熟产业,美国联邦政府的作用经历了一系列变化。从50年代的用户和资助者,60-70年代的资助基础研究和培养人才,到80-90年代的合作者。资助机构和管理也从分散、无战略计划逐步发展到由专门机构统一协调。
(二)资助来源多元化和机制多样化,发挥政府机构的作用
联邦政府对于计算机技术与电子工程技术的资助主要是通过几个机构来完成的。例如国防部、国家科学基金、国家航空航天部、能源部及国家健康机构。这些机构的特点是,专业技术能力比较强,机构内部有许多专业技术人员,有些机构本身就是国家研究机构。除国家科学基金外,这些机构大都是计算机技术的直接需求和应用方,经常根据部门自身的需要资助计算机技术研究开发。
多元化的优点,一是有利于技术发展的多样性。由于计算机技术是工具性技术,各个领域有不同的需求,因此,每一个机构都有各自的资助重点及资助方式,从而促进计算机技术多样化发展;二是提供多种潜在的支持,增加了研究机构和研究人员的选择余地,有利于竞争;三是研究成果可以在不同的机构间转移,形成广泛的用途,提高了研究成果的利用效率。
(三)加强统一协调
尽管美国政府对计算机技术的资助计划是由专业管理部门分别执行的,但是,随着计算机产业的成熟和资助规模的扩大,各专业管理部门和联邦政府不断加强对计算机资助项目计划的统一协调和战略规划。60年代以前,军方对计算机技术的资助是根据各军兵种自己的需求分散进行的。60年代初,国防部成立了高级研究项目处,并成立了专门的信息处理技术办公室。一个重要目的就是协调军方各部门的长期战略性资助计划,实行统一管理。
90年代,美国国家科学技术委员会中设置计算机、信息和通讯委员会,该机构通过下级委员
会,协调12个政府部门或机构的有关计算机和通讯技术的R&D项目,并重点组织实施了5个具有长期战略意义的项目计划。
这种体制即发挥了专业机构的积极性和技术特长,又加强了统一协调,避免重复研究和
分散竞争资源的局面,提高了政府资助的整体效果。
(四)以多种方式支持计算机技术
除了资助研究开发以外,美国政府对计算机技术市场的形成发挥了重要作用。美国政府是高新技术的最大用户,政府采购为高新技术创造了巨大的市场。
从半导体到超级计算机,在许多领域中,政府创造了计算机及其技术的市场,促进新技术的标准化和核心技术在计算机行业的推广。例如,联邦政府为阿波罗号航天飞机采购的集成电路以及国防部的洲际弹道导弹项目都对集成电路生产能力的提高形成了一种刺激。为开发核武器,能源部及其前身机构对高性能计算机的需求驱动了早期超级计算机市场的形成。美国政府的统计体系也是早期计算机及其软件的大用户。在软件方面,通过建立联邦数据处理标准,联邦政府促使市场向“美国国家标准机构”制定的COBOL(面向商用的通用计算机语言)不断靠近;为使FORTRAN程序语言扩展应用于并联计算机,政府资助了高级FORTRAN论坛项目。
反垄断诉讼也具有深远的影响。例如,1952年出现了针对IBM的反垄断诉讼案,要求IBM公司出卖或出租其设备,以帮助其它公司进入这一商业领域。同时要求IBM公司对其包括电子计算机在内的所有有关信息处理设备的现有及未来专利实施许可制度,并规定了许可的比率。“司法部反垄断部门”的负责人认为,IBM诉讼案是“开放电子领域的一个进步”,为其他公司进入计算机行业打开了方便之门。
(五)保持战略产业在国际竞争中的领先地位
美国政府对计算机技术的贡献中最发人深省的是,政府不仅在计算机产业的发展初期发挥了作用,而且在计算机产业逐步趋于成熟时,仍然起着重要作用。
【关键词】生物技术;计算机;应用
【中图分类号】Q50 【文献标识码】A 【文章编号】1672-5158(2013)01―0046-01
进入二十一世纪以来,由于研究的深入,对知识的进一步认识和了解,许多学科之间都有了一些交叉,尤其是一些新兴学科之间的相互交叉,广泛渗透更是对科学的发展起了很大的促进作用,人们进一步提升对自然界的认识,对人类本身也有了进一步的了解。随着科学技术的不断发展,尤其是计算机技术的飞速发展,计算机在其中的应用范围也日益扩大,计算机和药学两者互相影响、互相渗透、互相结合,密不可分。
1、生物技术与信息技术的关系
信息技术和生物技术都是高新技术,二者在新经济中并非此消彼长的关系,而是相辅相成,共同推进21世纪经济的快速发展。信息技术为生物技术的发展提供强有力的计算工具。在现代生物技术发展过程中,计算机与高性能的计算技术发挥了巨大的推动作用。如今,人们越来越清醒地认识到,超级计算机在创造新品种的药物、治愈疾病以及最终使我们能够修复人类基因缺陷等方面是至关重要的,高性能计算可以为人类作出更大的贡献。生物技术推动超级计算机产业的发展。随着人类基因组计划各项任务的完成,有关核酸、蛋白质的序列和结构数据呈指数增长。面对如此巨大而复杂的数据,只有运用计算机进行数据管理、控制误差、加速分析过程,使得人类最终能够从中受益。然而要完成这些过程,并非一般的计算机力所能及,而需要具有超级计算能力的计算机。因此,生物技术的发展将对信息技术提出更高的需求,从而推动信息产业的发展。生物技术将从根本上突破计算机的物理极限。运用数学、计算机科学和生物学的各种工具,来阐明和理解大量基因组研究获得数据中所包含的生物学意义,生物学和信息学交叉、结合,从而形成了一个新的学科。生物信息学或信息生物学,它的进步所带来的效益是不可估量的。
2、计算机在生物技术中的应用分析
生物医学工程运用现代自然科学和技术科学的原理和方法,从工程学的角度研究人体的结构、功能及其相互关系以及其他生命现象。其目的是解决医学问题,即研究和开发为防病、治病以及人体功能辅助等医学应用的装置和系统。用技术科学的概念和方法来解释和描述人体各层次的成份、结构和功能,以及人体各种正常生理功能和病理状态之问的差异,这些内容形成了这个学科的基础部分。而防病、诊断、治疗及功能辅助的具体技术和设备则形成这个学科的应用部分。
2.1 计算机技术在生物信息学中的应用
生物信息学在今后的无论是生物医药科研还是开发中都具有广泛而关键的应用价值;而且,由于生物信息学是生物科学与计算科学、物理学、化学和计算机网络技术等密切结合的交叉性学科,使其具有非常强的专业性,这就使得专业的生物医药科研或开发机构自身难以胜任它们所必需的生物信息学业务,残酷的市场竞争及其所带来的市场高度专业化分工的趋势,使得专业的生物医药开发机构不可能在自身内部解决对生物信息学服务的迫切需求,学术界内的生物医药科研机构也是如此,而这种需求,仅靠那些高度分支化和学术化的分散的生物信息学科研机构是远远不能满足的。可见,在生命科学的新世纪,生物信息学综合服务将是一个非常重要的也是一个极具挑战性的领域。
2.2 计算机在微生物学中细菌生化反应上的应用
细菌学的计量检验是医学检验现代化的种重要手段。此检验技术是通过收集已确证的统计资料,并将系列生化反应试验的反应结果数值化,按照一定的数学模型进行多元分析,利计算机的运算速度和记忆能力,检验标本作出规范化的定量鉴定。实现这一计量鉴定,我采用了计算机辅助编码捡索系统(CAIS)菌科细菌系列生化反应机辅检索程序(CAE-15)、(eAE-I)输入微机。通过各项生化反应结果及增补试验结果所得的编码数经过人工查询,从计算机编程的“缩码检索手册”中直接查找指定编码的细菌概率分布和相应的补充试验。计算机在微生物中的应用,不仅节约了时间和人力,而且鉴定结果准确可靠,避免主观误。
2.3 计算机在破译遗传密码和管理基因数据方面的应用
计算机在破译遗传密码和管理基因数据方面的潜力,在加利福尼亚大学圣迭分校的生物化学教授杜利特尔及其同事的工作中得以体现。他们在年进行的工作中只通过分析计算机打印输出的数据就获得了一个重要的生物学发现。杜利特尔教授的研究小组比较了两个由计算机打印输出的蛋白质序列,发现一种与癌症发生有关的序列和一种与细胞生长有关的序列完全一样,揭示出癌基因引起了细胞的不正常生长。这一发现在没有进行过任何一实验的情况下就获得了。
2.4 计算机在创造生物的虚拟环境方面的应用
计算机还正被用于创造一个虚拟的生物环境,以便对复杂的生物网络和生态系统进行模拟。这种虚拟环境创造不同的情境,帮助研究人员产生新的假说,并在实验室里被用于检测新的农业和制药产品以及医学活体实验。在虚拟世界里,生物学家敲敲键盘就可以产生新的合成分,而在实验室经常需要几年时间才可能合成一个真正的分子。有了三维的计算机模型,研究人员可以在屏幕上将各种基因和分子进行组合,然后观察它们的相互作用情况。年,宾夕法尼亚州立大学和位于加利福尼亚拉霍亚的斯克里普斯临床研究所的研究人员,通过使用最先进的计算机首次设计了一种极有价值的合成分子。这种被命名为的化合物是在计算机屏幕上构想出来的,几家生物技术实验室正在进行该化合物的批量生产。科学家们打算通过使用新的信息时代的计算技术造出多种多样的新分子。
2.5 计算机在生物医学工程中的具体应用
生物医学工程运用现代自然科学和技术科学的原理和方法,从工程学的角度研究人体的结构、功能及其相互关系以及其他生命现象。其目的是解决医学问题,即研究和开发为防病、治病以及人体功能辅助等医学应用的装置和系统。用技术科学的概念和方法来解释和描述人体各层次的成份、结构和功能,以及人体各种正常生理功能和病理状态之间的差异,这些内容形成了这个学科的基础部分。而防病、诊断、治疗及功能辅助的具体技术和设备则形成这个学科的应用部分。
3、发展前景
计算机在生物医学工程中应用的例子还很多,并且发挥着越来越重要的作用,同时对计算机技术水平的要求也越来越高。比如在生物医学信号处理方面,普通的计算机已经很难胜任实时处理的能力,使人们转向研究处理速度更快的专门处理器件DSP芯片。在人工智能方面,往往还需要功耗更低、存储更大的微计算机。因此,生物医学工程在利用计算机的同时也促进了计算机的发展。二十一世纪是生物技术的世纪,信息生物学是自然科学中发展最迅速、最具活力和生气的领域,并且为人类带来了很大的便利与贡献。不难看出,生物计算机研制成功以后,又会带来一次革命,它将会给人类带来更多的福祉,世人将以期盼的心情等待它的出现。随着科技的发展,随着生物技术的发展,它将越来越离不开计算机。不但如此,计算机和生物技术更越来越紧密结合。将更快地促进两者的发展。
参考文献
[1]张宜,汤韧.计算机单机及局域网在药学领域应用发展回顾及现状[J].武汉总医院杂志,2005,13(4):12
关键词关键词:下一代数据保护技术;数据恢复;数据安全;数据保护
中图分类号:TP309 文献标识码:A 文章编号文章编号:16727800(2013)008012502
作者简介作者简介:李春霞(1975-),女,硕士,兰州文理学院网络中心讲师,研究方向为计算机技术。
0 引言
数据安全与保护一直是现代数据中心和超级计算中心的研究重点。随着互联网与高性能计算速度的快速发展,数据呈现几何级增长、数据更新频繁等特点。现代数据中心和超级计算中心都面临着快速备份和恢复的时间点越来越多,管理保存数据的成本及数据中心空间和能耗也变得越来越严重等问题,而传统的数据保护解决方案已经无法应对数据的过快增长以及复杂性的加剧,取而代之的是下一代数据保护(next-generation data protection,NGDP)技术。
而我们所有研究的新一代的数据保护方案,是基于磁盘的、备份/恢复为中心的全面的数据保护方案,是整合的数据保护技术平台,而不是一种单独的技术研究或者产品。
下一代数据保护方案考虑的研究要素,一个是如何提高数据备份的效率,另一个是缩短数据恢复的时间。数据备份效率的核心是数据备份技术,主要有数据重复删除技术、本地磁盘备份技术、深度集成智能备份和磁带库、异构快照和持续数据保护技术等。缩短数据恢复时间的核心是数据恢复技术,主要研究提高恢复数据的时间和恢复数据的有效率。
1 下一代数据保护技术研究现状
随着计算机系统和Internet服务的广泛应用,社会信息化程度不断提高,数据信息在当今社会已经成为非常重要的财富。作为信息的载体,存储系统的应用已经非常广泛,信息的可靠性存储对于企业来说生死攸关,一旦数据丢失,将会带来难以估量的损失。各种数据保护技术在人们对数据安全的需求下产生并不断地改进提高。较为传统的数据保护技术有备份和快照等,但是这些数据保护技术存在着明显的弱点,它们保证不了数据保护的连续性,而对于许多关键应用来说,一秒钟的数据都是极其宝贵的。
计算机存储的信息越来越多,而且越来越重要,为防止计算机中的数据意外丢失,现有主要的数据保护技术一般都采用许多重要的安全防护技术来确保数据的安全,在建立容灾系统时会涉及到多种技术,如:拷贝技术、备份(backup)技术、复制技术、镜像技术、RAID技术、快照(snapshot)技术、虚拟磁带库VTL技术等。
2 下一代数据保护技术实施方案和技术路线
下一代数据保护方案考虑的要素研究,一个是如何提高数据备份的效率,另一个缩短数据恢复时间。数据备份效率的核心是数据备份技术,主要有数据重复删除技术、本地磁盘备份技术、深度集成智能备份和磁带库、异构快照和持续数据保护技术等。缩短数据恢复时间的核心是数据恢复技术,主要研究提高恢复数据的时间和恢复数据的有效率。下一代数据保护技术平台是整合的数据保护技术平台,它要具备3个关键特征。首先,必须要全面,能够全面覆盖复杂的环境;其次,必须以磁盘为动力,从而能够利用现有的磁盘阵列投入并同时提高备份与恢复服务等级;第三,要以恢复为中心,备份操作能在任何时间都可进行最为快速有效的恢复。应将持续数据保护技术、重复数据删除技术和云存储灾备技术集成应用到下一代数据保护技术应用模型中。下一代数据保护技术应用模型如图1所示。
其次,在大型数据中心和超算中心数据保护平台内,采用磁盘阵列作为数据存储备份的存储介质,产生的庞大数据通过存储即能避免过度占用系统资源,也能避免浪费适应性重复数据删除技术,将冗余的数据进行删除并存储到磁盘阵列中用以容灾备份。在大型服务器和超级计算机系统中部署基于文件的持续数据保护技术,捕捉文件系统数据或者元数据的变化事件(如创建、修改、删除等),并及时将文件的变动以日志的形式进行记录,产生持续的日志链实现持续的数据保护。当系统内部发生灾难时,参考磁盘阵列中经过重复数据删除后的数据备份,实现任意时间点的快速系统恢复。
图1 下一代数据保护技术应用模型
最后,通过高速网络链接异地的远端云存储设备,在云灾备应用环境中,通过高性能、大容量云存储系统和远程数据备份软件,将用户业务数据存放在向企事业单位提供的空间租赁中。普通的企事业单位、中小企业可租用数据中心提供的空间服务和远程数据备份服务功能,建立自己的远程备份和容灾系统,以保证当本地发生重大灾难时,可通过远程备份或远程容灾系统进行快速恢复。
下一代数据保护技术解决了传统数据保护系统中运行维护成本高、备份和恢复效率慢、可靠性低的缺点,但是现行的持续数据保护技术和重复数据删除技术在系统资源占用和更加高效的数据保护方案之间的平衡性和复合构件数据中心问题上,还有很多的改进空间,下一代数据保护技术是未来数据保护市场的主要发展方向。
3 下一代数据保护技术创新点及推广应用
3.1 技术创新点
(1)研究了下一代数据保护技术综合应用模型,采用磁盘阵列作为数据存储备份的存储介质,产生的庞大数据通过存储即能避免过度占用系统资源,也能避免浪费适应性重复数据删除技术,将冗余的数据进行删除并存储到磁盘阵列中用以容灾备份。在大型服务器和超级计算机系统中部署基于文件的持续数据保护技术,捕捉文件系统数据或者元数据的变化事件(如创建、修改、删除等),并及时将文件的变动以日志的形式进行记录,产生持续的日志链实现持续的数据保护,实现任意时间点的快速系统恢复。
(2)在原有持续数据保护技术的基础上,提出了基于文件的持续数据保护技术,对恢复时间点附近的数据和日志的保存进行了改进,使资源占用和恢复时间得到均衡,消灭了传统数据保护技术中的备份窗口,实现了对数据的连续性保护,能够有效提高系统和数据恢复的RTO和RPO。
(3)本项目针对重复数据删除技术中数据对比检测算法繁琐问题,对重复数据删除技术提出了改进,降低了存储容量,大大缩短了多种应用程序的恢复时间,减少了对硬件设备的依赖,同时也降低了耗电量、冷却成本和占地面积,提高了资源效率。
(4)在下一代数据保护技术综合应用模型中,通过高速网络链接异地的远端云存储设备,在云灾备应用环境中,通过远程数据备份软件,将用户业务数据存放在云存储设备中,建立自己的远程备份和容灾系统,以保证当本地发生重大灾难时,可通过远程备份或远程容灾系统进行快速恢复。
3.2 推广应用
(1)下一代数据保护方案,解决了在传统数据保护系统中,由于数据快速增长,特别是云计算和物联网技术的兴起,导致的运行维护成本高、备份和恢复效率慢、可靠性低的缺点。
(2)针对持续数据保护技术和实际数据恢复的需求,研究的基于文件的持续数据保护技术,消灭了传统数据保护技术中的备份窗口,实现了对数据的连续性保护,提高了系统和数据恢复的RTO和RPO。
(3)针对重复数据删除技术中数据对比检测过程问题,对重复数据删除技术提出改进,降低了存储容量,大大缩短了多种应用程序的恢复时间,减少了对硬件设备的依赖,同时也降低了耗电量、冷却成本和占地面积,提高了资源效率。
(4)利用云存储进行容灾备份,是未来数据保护技术的发展趋势,客户可以利用云灾备快速实现灾备,降低灾备系统的总体拥有成本。
4 下一代数据保护技术经济效益
数据安全与保护一直是现代数据中心和超级计算中心的研究重点,随着互联网与高性能计算速度的快速发展,数据呈现几何级增长、数据更新频繁等特点。现代数据中心和超级计算中心都面临着快速备份和恢复的时间点越来越多、管理保存数据的成本及数据中心空间和能耗也变得越来越严重等问题,而传统的数据保护解决方案已经无法应对数据的过快增长以及复杂性的加剧,取而代之的是下一代数据保护(next-generation data protection,NGDP)技术。
随着数据的快速增长,特别是云计算和物联网技术的兴起,现代数据中心和超算中心面临着更加繁重的数据服务需求。另外,数据的不断增长也导致数据备份窗口和系统恢复时间的不断增加,每次的数据备份工作占用了大量系统资源,同时也增加了技术维护人员的工作量。各个数据中心和超算中心都在传统的数据保护技术基础上进行
改进,寻求更为高效、节能的数据保护技术。下一代数据保护技术的兴起,解决了传统数据保护系统中运行维护成本高、备份和恢复效率慢、可靠性低的缺点。
参考文献参考文献:
[1] 田全红,刘光明. 下一代数据保护技术研究与应用[J].计算机光盘软件与应用,2011(16).
[2] G DUZY.Match snaps to apps[M].Storage,Special Issue on Managing the Information that Drives the Enterprise[Z].2005.
[3] 薛华成.管理信息系统[M].北京:清华大学出版社,1999.
1.科研装备在科学发现活动中的作用
人类在认识自然、探索未知的科学发现活动中,始终都离不开从自然界中获取信息。这种获取信息的手段和方法有一个从简单到复杂的历史演进过程。在古代,希腊人获取信息的方法是靠感官直接感知的,并通过猜测性的思辩而提出了许多关于自然界是怎样形成的“科学假说”—本体论设想,“显然,在今天看来,古希腊人对万物运动原因的各种解释都是臆想,不过勇敢和大胆的探索精神却使人们惊叹。因为他们居然在几千年前企图用一个人的思想来回答人类全部科学所追求的东西”。圈‘P49’在近代,自伽利略研制出第一台望远镜开始,人类科学发现活动的手段主要依靠科学仪器和设备而实现,从而延长了人类的感官,扩大了人们感知自然的范围和种类,提高了人类对于自然界的感应能力和精确度。19世纪末至20世纪初以来,随着现代科学技术的发展和信息化的科学仪器设备的出现,人类科学发现活动的视野已从宏观进入到微观,从地面延伸到宇观。这种当代自然科学的发展向着两极延伸的根本性原因,就是由于现代化的科学仪器和设备为微观和宇观领域的科学发现提供了有力的工具和手段。正如国家自然科学基金委员会主任陈宜瑜院士所说“科学发展的历史表明,一种新的科研仪器或工具,往往成为开辟新研究领域的金钥匙。”[6J‘P,‘)美国新实验主义者罗伯特•阿克曼(R.J.AcKermann)早在20世纪80年代就指出“科学的进步的确是仪器与技术的进步。更好的仪器与技术告诉我们同一个世界里更多的东西,因此,它们经常迫使理论观念的改变。”t7J‘只溯而沃森和克里克1953年所发现的DNA双螺旋结构模型,就是借助了X线衍射法及其X线晶体仪才得以实现的,这一发现彻底导致了传统生物学所认为的生物遗传物质是蛋白质理论观念的革命性变革。同样,在微观领域里如果没有由数万台计算机联网构成的世界规模最大的粒子对撞机,欧洲核子研究中心是不可能发现所谓的“上帝粒子”—希格斯玻色子的。而在宇观领域里,正是由于有数字化、信息化、计算机化程度非常高的“好奇”号火星车,美国人才发现了火星的一些表面含有古老的河床及碎石的痕迹,以证明火星表面确曾有过水流淌过的历史;我国嫦娥二号飞往距地球150万公里的拉格朗日L2点绕太阳运行,对太阳及其行星进行深空探索,并最终飞往700万公里遥远的太空进行高深空探索,这正是由数字化、信息化、计算机化的现代空间飞行装备所完成的。总之,在当代自然科学的科学发现活动中,数字化、信息化、计算机化的科学仪器和设备始终起着核心作用。从光电显微镜到射电望远镜,从高能加速器到太空站,从粒子碰撞机到遥控遥感技术如此等等,能够感知夸克和宇宙天体等不同层次自然物及其特性和规律,无不与现代化的科学仪器息息相关。同时,我们应该知道,任何一种科学仪器和设备的研制成功都是依据一定的科技原理而产生的,科技原理的先进程度直接决定着仪器设备的先进性、可靠性和精密度,而仪器设备的先进性和精确度又在很大程度决取于其信息化、数字化和计算机化的程度。所以,运用已有的科技成果,构思先进的科技原理,设计各种不同的技术原理模型和科学仪器运行规则,开发具有不同特性和功能的软件控制系统,研制能够识别各种自然现象的数字化、信息化和自动化的科学仪器和设备,是我们从事科学研究的重要途径和手段。而且信息化程度愈高,其感知的精确度愈高,认识的范围更广泛,对自然界的物质、特性、规律把握得就更全面。例如:美籍华裔物理学家丁肇中1970年就发现了J粒子存在的现象,由于当时没有验证这一可疑现象的科学仪器和设备,他花费了好几年的时间才研制出了能够验证这一发现的科学仪器—双臂能谱仪,终于在1974年发现了J粒子,也就是所谓的“集夸克”,被记作为C,并因此于1976年获得了诺贝尔物理学奖。这一科学史案例说明了“在仪器精确度不高的早期实验,理论解释的分歧往往比较大,但是,‘仪器的进步可消除这些模糊,在那些理论预期导致观点分歧的地方,得到共同认可的数据将取而代之。”
2.科研装备在技术发明活动中的作用
技术原理的发明需要借助于现代信息技术和计算机技术。所谓技术原理是指所设想的技术系统的技术要素构成及其技术要素之间的有目的性的运作原理。它是运用已有的科技成果经过理论推导、技术论证、奇思异构等手段而形成的。其核心是为技术原理寻科学依据。因此,要提高技术原理的先进性、科学性和可靠性,作为发明创造者必须借助于计算机技术和现代信息技术,从网络信息和数据库中,了解和掌握最新的科技发展动态,搜集与发明创造对象相关的科技信息情报资料,寻找和发现各种科学原理、技术知识之间的关联规则,以求得技术原理上的突破。其基本过程是:从最新的科学理论研究成果中发现其初露出来的技术端倪,并经过理论推导和技术提炼产生出一般性的技术原理,为技术创新打造技术平台。正是由于美国生物学家内森斯和伯格从沃森和克里克1953年所发现的DNA双螺旋结构模型以及往后科学家们所发现的限制性内切酶等科学理论中所初露出来的技术端倪,发现了理论上升到技术的可能性,才使20世纪70年代初对基因片段的切割与重组技术变成现实,而且内森斯、伯格所实现的基因切割与重组技术又为现代生物工程技术奠定了基本的技术原理。同时,搜索和掌握已有的科学原理和技术知识,不论是旧有的还是新提出的,只要对发明创造对象的特性和功能有用的技术,都可以移植、借鉴和集成,并经过创造性的构思,形成具有特定技术要素构成的技术系统和技术原理,以实现其设定的技术特性和功能,1969年美国阿波罗登月计划中的飞船技术原理没有一项是新发明的技术,都是现有技术的集成与综合。需要指出的是:在技术原理的构思过程中,把所构思出来的技术原理数模化,利用超级计算机进行仿真实验,并通过对数模化的技术原理的不断修改,以达到技术原理的最优化。技术方法是一种知识形态的发明成果,一般表现为新的行为法则、操作方法或程序模式等。这种发明创造成果具有程式化、规范化的特征。作为行为法则、操作方法,它规定了操作主体应该做什么和怎样做的技术行为,如基因工程技术中关于基因的切割与重组的规范性要求,纳米材料在分子水平的研制方法就属于此类。这种技术方法的产生不仅需要现代化的科学仪器和检测设备来验证,其生产制作过程更需要信息化、自动化的生产工艺来完成。作为程序模式等发明创造成果,它是通过程序化信息的传递、加工、处理、变换和控制而实现技术系统的目的性运作,且其信息的传递是靠信息符号的识别、认知而进行的,例如一台数字化机床、一条现代化的生产工艺、一个管理系统、一个对飞行器之所以能够对其进行有效的控制都是通过数字化、信息化的软件系统或信息传递而实现的。然而,这种程序化的软件系统则是软件工程技术人员,经过构思、设计、创造出来的,更是利用现代化的科学仪器和检测设备通过技术试验而获得的。所以,发明一种技术方法需要科学仪器和设备,检验、测试一种技术方法更需要现代化的科学仪器和设备。技术物品也是发明创造的重要对象,它是一种物化形态的技术成果,一般表现为新设备、新工艺、新产品的模型或样品。因而,它还不是准备批量生产性的样机,它仅是一种发明创造物。在技术物品的发明创造过程中,所发明的技术物品是否为首创,需要运用现代信息技术、数据挖掘技术和专业化的图书资料,搜集相关的知识性和技术性的海量信息加以实证。(9J(P4,并把被挖掘出来的数字或信息,通过严密的技术论证、技术筛选、技术组合和技术推导,经过原理构思和方案设计,才能创造出一个数字化的技术产品模型或样品。另一方面,所发明的技术模型或样品其技术原理的先进性、技术结构的合理性、技术功能的可靠性以及构成技术系统的每一个零部件所用材料的各种物理化学特性,更需要现代化的科学仪器和设备进行技术试验和检测。这种试验或检测不是一次能完成的,它可能需要数百次乃至上千次,才可能取得满意的效果。在这样一个复杂性的技术试验和技术检测中,所使用的试验或检测的仪器和设备越先进,性能越好,其结论就越可靠。需要指出的是,在技术原理的构思设计中如果我们能够运用发明创造的方法(联想法、类比法、仿生法、综合法、转移法、经验法等),并借助于以D技术(计算机辅助设计技术)和计算机仿真实验的方法,必然会提高发明创造物构思设计的质量和速度。
3.科研装备在技术创新活动中的作用
技术创新是一个由原理构思、方案设计、技术试验、产品试制、技术鉴定、产品制造、市场销售等环节构成的复杂性过程。技术创新的成功,不仅取决于技术原理构思的先进性和技术方案设计的科学性,而且取决于在技术试验和产品研制中所使用的仪器、设备等研发设施的先进性和精密度。一般说来,在技术试验、产品试制和技术鉴定过程中所使用的仪器和设备,数字化、信息化、计算机化程序越高,其精密度、准确性也就越高。因为,只有这样才能对新产品、新工艺、新材料的硬度、强度、韧度、光滑度、耐磨性、抗腐蚀性、抗氧化性、抗疲劳性、耐高温高压性、超低温性以及灵敏度、感应性等物理化学特性、功能和技术参数给予准确的测试。〔“〕‘P•助同时,技术试验等过程中所产生的大量数据需要借助于现代化的超级计算机进行数理统计和分析处理,甚至需要运用超级计算机进行仿真试验。这种复杂性的技术试验、试制和鉴定对于一些大中型企业在开发技术密集性产品过程中显得尤为重要。因此,研制先进的科学仪器和设备,构思和设计数字化的测试系统,加强对技术试验本身所使用的仪器、设备的研究与开发,不断提高其数字化、计算机化和自动化的程度,不仅是我们在技术创新活动中的一个基础性装备问题,也是当今科学仪器的研发向着“多功能、自动化、智能化、网络化方向发展”。在产品制造过程中,计算机辅助制造(CAM)技术是当代社会制造业领域的核心技术。它不仅能够提高劳动生产率,而且对降低劳动生产成本,提高产品质量都是至关重要的。正因为如此,目前在全球范围内正在广泛开展着对数字化机床、计算机控制下的生产工艺流程等自动化生产设备的软件开发和工艺研制。从本质上讲,生产自动化就是在计算机控制下的信息接收、传递、加工和处理(转换)的程序化过程,只要我们善于构思,开发出适用于特定产品生产的计算机软件,并经过精心的工艺设计,我们就不难研制出具有特定功能的生产工艺和数字化机床。〔同时,我们应该看到,一种以软件开发、产品工艺设计和计算机管理活动为主的虚拟制造技术将成为今后制造业的重要生产方式。因此,运用现代计算机技术和信息技术,组建数字化的自动控制系统,加强对技术创新生产过程中所使用的劳动生产工具的信息化、数字化、计算机化和自动化水平的研究,是我们提高“中国制造”产品质量的重要环节,也是我们变“中国制造”为“中国创造”的必经之路。
作者:陈九龙 单位:西安交通大学
1新形势下的计算机技术
计算机应用技术是基于互联网和信息技术为核心的一种全新高新技术,其自身优势较多,计算能力突出,已经对我国社会经济发展做出巨大贡献。而程序设计、计算机维护、计算机管理,都少不了计算机智能化设备的支持。当下较为常见的计算机包含嵌入式计算机网络计算机、超级计算机工程控制计算机等,而在时代前沿,光子计算机和生物计算机的应用还有待推广。实际应用中要求相应操作人员能够掌握计算机应用技术的核心技术,同时自身有扎实的计算机理论基础和相应的使用经验,可以对信息进行分析、处理、归纳,还可以利用计算机软件系统完成一些复杂信息的处理工作。要求对应操作人员能灵活应变,根据行业不同单位不同,针对其诉求,对信息优化整合,以网络渠道传播信息,满足实际需求,发挥计算机应用技术的最大化价值。
2计算机应用技术的发展状况
计算机应用技术以及自身的优势受到大众追捧,各行各业都引进了相应的计算机技术。但是相较于西方发达国家,我国对计算机应用技术的研究领域还处于冰山一角,我国对该技术的研究时间较晚,虽投入大量精力,但整体发展仍和西方发达国家存在一定差距。此外,计算机应用技术的发展还受到我国东西部地区经济差异影响,在东部地区普及率高,而在西部地区普及率较低。由于人们对计算机应用技术的使用需求,计算机硬件设备发展速度迅猛,但现阶段一些半导体的研发已经进入瓶颈,要打破瓶颈,需尝试不同方向的努力,以不同途径优化计算机应用技术,满足市场需求。在计算机应用技术人才方面,我国整体展现出来的状况是缺乏高专业水平的应用型人才,这就导致我国计算机应用技术全面发展创新受到制约,所以大部分人员可采用计算机搜索相关资讯,完成简单操作,但这仅限于满足日常生活行业发展需要,专业化的人员完成安全维护工作,故障处理工作等专业化工作,要求其按照行业发展单位需求完成监督管理,还要能够针对客户的要求,开发有创意的软件、开发功能性较强的硬件,为客户提供优质化的服务。
3新形势下计算机应用技术如何实现创新
3.1进一步强化专业人员综合素质
时代在不断发展,我国计算机应用技术也会不断发展,但其发展必须依靠有专业能力且综合素质较强的优秀团队,以此为计算机应用技术发展提供源源不断的力量。基于此,需不断强化专业人员综合素质,满足技术发展要求。相应的,研发机构可针对机构现有人员的综合素质,为人员安排具有针对性和侧重点的培训,将国外发达国家的先进计算机应用技术引进研究机构中,引导科研人员对其攻破学习,并结合我国社会的发展状况,创新为适应我国经济发展规律的全新技术。此外,要对计算机领域出现的相关技术和信息给予重视,将国际前沿的研发理念及技术引入到实际的研究创新中,跟上国际上相关技术的发展步伐。此外,在人员聘用上,要求研究机构优先对高学历专业对口的技术人员优先录取,在人员聘用上开出较高的薪资待遇,以吸引综合素质较高的专业技术人员加入研究团队,实现技术创新,提供更多可能。研发公司可以和一些研发机构建立合作关系,聘请计算机专业人员到公司开展教学讲座,通过交流和协商的方式,进一步提高公司员工综合素质。必要情况下,可以针对研发各个阶段的要求,吸收一些国外研发工作人员,壮大公司实力也打破计算机技术创新瓶颈。
3.2强化应用技术创新
计算机应用技术已经对我们正常的工作和生活造成巨大的影响,且这个影响还在不断加深,经济发展和生活水平不断提高,使得人们对计算机业务技术的要求逐渐严格。在此背景下,对应工作人员需全面了解计算机应用技术,将应用技术和互联网+结合,开展新型计算机应用技术创新。在相关技术研发中,可以利用综合效率强,但实际成本较低的技术为基础,如半导体技术、封装技术、装配技术等,对现有的领域进行革新,在将其应用到计算机应用技术创新中。也可以将时代前沿快至人口的一些技术和计算机应用技术结合,如人工智能、人机交互、超级计算、嵌入式技术等,以此充分提高计算机性能,为用户提供良好的操作体验。此外,可以将先进的物联网技术,云计算,云储存技术应用到,实际的操作管理工作中去,构建新时期网络生态化的管理系统。例如在工业方面,可以以智能化的系统实现对整体生产过程的监督和管理,一些智能化的设备还可以代替人工提高生产效率和质量,减少不合格产品造成的成本浪费。再比如,在手机研发中,可针对不同受众的使用需求,开发智能机型,对APP进行优化,实现智能服务、精准服务、个性化服务。在医疗领域则可以利用人工智能技术,对一些医疗影像数据实现极速分析,设备对人体扫描之后迅速得出结果,为生判断和制定治疗方案,提供科学依据。一些计算机应用技术的创新研发,甚至会对未来工作轨迹造成重大影响,例如语音识别技术可强化人工智能虚拟助理研发,大大提高人们生活质量。比如以语音识别技术应用,在医疗领域可构建全新电子病历,配备对应的网站,使患者可以足不出户的和医生进行面对面交流,了解医嘱、也了解对应的检查结果。现阶段研发人员还需对以往的计算机应用技术有足够的经验,了解市场变化和社会需求,分析不同区域,不同行业的不同需求,从而研发出有针对性或应用性较全面的软件。同时,计算机系统的脆弱性及安全风险也是不能忽略的,技术研发需考虑到信息篡改,信息泄露可能对使用者造成的巨大损失,从而针对非法使用资源,网络资源错误等作出调整,设计好计算机系统的安全防护。例如可以将先进的人脸认证技术和声音认证技术引入到信息管理系统当中,只有对应使用者按照要求验证之后才能查阅信息。针对一些企业的核心研发技术,其对计算机系统的安全等级要求较高,可以在该类系统中加入信息数据加密技术,构成复杂且完善的整体,只有获得授权,且通过验证才能够解读相关信息。即使如此,也要注重防火墙技术的研发,不断引进入侵检测,做好病毒预防,不断更新防火墙。
3.3强化人才培养
在全新时展背景影响下,计算机的操作和软件逐渐向多元化和智能化方向进一步加深发展,相应的信息产业对其操作人员的专业化水平要求越来越高,社会用人单位的要求标准门槛也提高了,工作人员的计算机操作水平,互联网思维需达到一定程度,才能更好地生存。而同时计算机应用技术的发展,也需要源源不断的专业化人才。故需进一步强化人才培养。高职院校是国家技术性人才输送的重要场所之一,通过高职院校的教育,可以教给学生更多更专业的操作技术,从而直接满足社会各行各业的发展需求。当下众多高职院校已认识到自身的责任和义务,其积极开展计算机应用技术教学,完善教学体系,将更多的教育资源放在计算机技术的实践方面,强化校企合作,积极建设实践基地,开展实践教学。在此基础上,高职院校还应对计算机技术教学体系进行创新,进一步开展学校和校外计算机企业的合作交流,注重树立学生的互联网思维,不断拓宽学生的认知,让学生能够运用自身掌握的技术进行创新。此外,相应企业单位也要重视强化人才培养,主动和高职院校进行合作,开展人才定向培养班,派遣专业的技术人员担当实训教师,为学生提供切实且专业的计算机应用教学。计算机应用技术创新正处于发展关键阶段,其发展展现出多元化的特征,企业要吸纳更多具有新思维的专业人才,多多培养,致力于提高自身软件技术开发实力。
关键词:大学计算机基础;信息素养;自由学习;因材施教
在日新月异的信息化时代,社会对人才的信息技术能力的需求不断提高。计算机应用能力已成为社会衡量一个人全面素质的重要条件。教育部要求“应将其内容从侧重操作技能转向信息技术的基本理论知识以及运用信息技术处理实际问题的基本思维和规律”。因此,大学计算机基础课程最根本的教学任务应是培养学生的信息素养,培养学习信息技术的理论和实践基础,提高学生的计算机应用能力和综合素质[1]。
笔者在近十年的计算机基础教学中体会到“教就是学”。从学生的兴趣出发,找到理论与实践的结合点,引导学生进入学习的自由王国,是教与学的最好方法。基于此理念,下面详细阐述课堂教学与组织的具体措施和方法。
1依托精品课程网站,实现网络化自由学习
哈佛大学曾强调,学校要赋予学生三个“法宝”,即给学生学习上选择的自由;使学生在所擅长的学科上有施展才华的机会;使学生的学习从被动行为转化为自主行为,让学生从对教师的依赖和从属关系中解放出来。学生只有变成学习主体,其主观能动性和无限的潜力才会被充分激活[2],教师的教学才能取得成效。传统的课堂教学采用的是集中式的教学,学生的自由度比较小[3],而基于互联网的网络化教学平台,能够为学生提供自由学习的环境[4]。
我校“大学计算机基础”课程于2009年被评为省精品课程。在教学中,笔者依托精品课程网络平台,探索网络学习模式。网络学习效果的好坏决定于学习者的学习能力、学习态度以及学习环境[5]。因此,为了加强和促进网络学习,笔者主要做以下几方面的工作:
1) 通过思想教育和启发,转变学生的学习观念,让学生具有自我学习意识,提高学习动机。
2) 教会学生基本的网络操作,使学生具备网络学习的基本能力;通过专题讲座,引导学生掌握网络学习策略。
3) 组织教师改革课堂教学方式,并布置部分教学内容为学生网络学习内容。
4) 丰富网络资源,这是学生网络学习是否有效的关键条件。目前,我校精品课程网站上的主要栏目有:电子教材、教学课件、作业习题、参考资料、视频教学、课堂录像、在线作业、在线答疑等。我们一直不断组织教师扩充实验内容,提供参考资料,编写在线作业批阅系统。
5) 定期检查网络学习作业,在课堂中总结网络学习结果,使网络学习与课堂学习有效结合。
通过网络学习平台,学生们可以预先学习相关课程的知识。在不到一年的时间内,大学计算机基础精品课程的访问率达到了3万人次以上,有效地实现了学生的自由学习。
2小组学习、分层教学,实现因材施教
随着计算机教育的普及,中学的信息课已经使学生对计算机有一定的认识,学生不再是“零起点”,而且,不同地区由于教育资源的差异,学生的计算机基础参差不齐,这已成为计算机基础课程任课教师教学组织中的一个难题。在教学中,笔者采取了以下措施解决此问题。
2.1小组学习制
组织形式:五人一组,小组长负责制,以小组为单位进行检查和辅导。
选择基础较好的学生任组长,由组长和学生进行双向选择确定组员。实行分组学习后,学习效果得到提高。学生在课后实验总结上写道:“分组后,不会的问题可以马上问组长,基本上能完成任务了,觉得上课蛮有意思的,现在计算机课程是我大学里最有趣的课……”。究其原因,在于小组学习体现和促进了学生学习的自尊心和小组长的责任心,因此,学生的学习积极性明显高涨。实行小组长制后一个月内,学生95%都能按时完成任务,在实行小组长制后两个月,50%以上的同学取得了很大进步,不需要组长指导也能按时完成任务。
2.2分层教学,对不同学生提出不同要求
怎样让基础较差的学生学得懂,基础较好的学生学得有兴趣呢?为了解决这一问题,在教学时,笔者将教学内容分为“基础级”和“提高级”,学生根据自身能力选择学习内容和目标。表1为计算机软件系统部分知识模块的分层内容。
基于“案例教学”和“任务驱动”模式教学时,办公软件Office 2007的每次实验课程都准备了两份案例,一份是达到教学基本要求的案例,要求所有的学生都要完成。另一份是较高要求的案例,案例内容要求较难,甚至超出教材的要求,让学有余力的学生自选完成,这样,将基础实验和设计型实验相结合,基础较弱的学生能够掌握基本操作,基础好的学生可以提高能力。
3理论与实践相结合,实现兴趣驱动的自主学习
前不久,安徽11位教授给教育部长和全国教育界发出了一封题为“让我们直面‘钱学森之问’”的公开信,引发了一场全国范围的大讨论。无论在哪个时代,培养杰出人才的基本规律都没有发生根本变化。他们必须具有独立思考的品质、从实际出发不迷信经典和权威、具有科学的探索精神和求真欲望、善于发现问题并能够找到解决问题的途径和方法。学生的探索精神和求真欲望从哪里来?兴趣是最好的老师,也是最持久的学习动力。
3.1教学与实践相结合
例如,在计算机硬件系统组成的教学过程中组织一次市场调查任务。学生调查完后,上交调查报告和调查时所得的配置单。老师在分析学生的配置单的基础上,选取几份具有代表性的配置单,详细讲解相关的计算机配置参数,并以拍卖的形式要求学生对每一份配置单进行估价,课堂气氛非常活跃,学生在轻松愉快的情境中理解了各种专业参数和性价比等知识。每一阶段的学习结束后,选择一部分学生的优秀实验作品,进行演示和展示,使学生在学习中获得了较大的满足感和成就感,学习兴趣更加高涨。
3.2教学与时事相联系
目前,教材内容很难做到与计算机技术的最新发展同步,作为教学主导方的教师应该不断动态跟踪计算机技术的新发展、新方向,及时调整教学内容,将最新的知识传授给学生,以弥补教材内容滞后的不足。例如,“天河一号”超级计算机从一开始被报道,到亚洲第一、全球第五,最后技术升级优化跃居世界第一,笔者都在课堂上进行介绍,既让学生认识了超级计算机,又加深了运算速度等理论,还增强了学生的爱国热情。再如,笔者在讲解互联网应用时,与学生展开“网站如何盈利”的课堂讨论,以百度“凤巢”事件的原因为例,给学生上了一堂生动的互联网应用课。学生觉得学到了有用的知识,就会一直保持学习的兴趣。
4教学中“留白”,实现创新研究型学习
随着信息技术对人们生活和对社会的影响日益深入,社会对大学生信息技术的要求不再是简单的文字处理,而是要具备较好的计算机操作能力、网络应用能力及新技术的学习能力。所以,培养学生的学习能力是比传授书本知识更重要的任务。
4.1培养自学能力
计算机基础课程是一门实践性很强的课程,也是一门知识更新快、开放型的课程,涉及的知识面比较广,内容比较多。由于学时有限,不可能讲授所有的知识点,因此,培养学生的自学能力既是长远要求,也是教学需要。
自学计算机操作的一个常用方法就是一边看教材,一边操作,因此,培养学生学会看指导书,就是“授人以渔”。例如,在详细讲解Word、Excel内容的基础上,将PowerPoint的内容规定为学生自学。首先,给学生提供PowerPoint电子教程,使学生自学“有路可循”;其次,提供一个好的案例,使学生自学有参照和动力。另外,指导学生看每个软件的“帮助”文档,也是培养学生自学能力的手段之一。
4.2采用开放式教学内容
非计算机专业的计算机基础课程教学不同于计算机专业,也不同于普通的计算机操作职业培训。教学内容的选取对学生今后学习和工作具有指导意义。笔者在教学中尽量做到以下几点:
1) 不局限于微软的产品。例如,在讲解操作系统时,将Windows、MS-DOS、Linux三个系统的基本操作进行对比。既可以避免产品式教学,又能加深学生对操作系统的理解。
2)“高估”学生的水平,将最新技术引入到教学中。例如,打破教材的限制,与学生讨论一个CPU时的进程调度和双核CPU的进程调度,要求学生了解最新的CPU性能和相关技术。这样,既能开阔学生眼界,还能提高对本课程的知识理解。
5结语
教师是教学的设计者,是决定教学成功的关键因素之一。作为大学计算机基础教学的教师,需要对计算机科学的知识体系有较全面的了解,并在教学中高屋建瓴,结合学生实际,将其融会贯通,将清晰的思路用通俗易懂的方式传授给学生。以上所述方法和体会得到学生的认可和欢迎,课堂教学获得了学校教学簇拥活动二等奖,和2010年湖南省教学成果三等奖。社会越来越需要既熟悉专业又掌握信息技术的复合型人才。如何在有限课时的情况下夯实学生的计算机基础,提高他们的计算机应用能力是我们下一步课程改革的主题。
参考文献:
[1] 教育部高等学校非计算机专业计算机基础课程教学指导分委员会.关于进一步加强高等学校计算机基础教学的意见(征求意见稿)[J].中国大学教学,2005(5):11-18.
[2] 邱捷,杨鹏,王韫鹏.用“大成智慧学”教育理念设计培养方案培育创新人才[J].中国大学教学,2009(6):20-23.
[3] 李海颖.关于构建高校计算机基础教学新模式的探讨[J].教育与职业,2008(11):81-82.
[4] 张银霞,曲伟建,邓丈新.高校非计算机专业计算机基础教学存在的问题及对策[J].教育探索,2008(11):61-62.
[5] 毛淑贤,朱桂凤. 利用网络平台实行计算机应用基础实验教学改革的探讨[J]. 计算机教育,2009(8):45-46.
Teaching Method and Experience of College Fundamental Computer
YANG Chengqun, CHEN Zhen
(Department of Computer Science and Technology, Hunan International Economics University,
Changsha 410205, China)
Abstract:This article shares some teaching experience from a teacher’s aspect on the basis of difficulties in teaching, such as liberal studies depend on excellent course network; teach students in accordance with their aptitude by way of group instruction and delaminating teaching; autonomic learning motivated by interesting; blank-leaving in teaching and so on, according the requirement of college fundamental computer to improve the students’ information literacy.
英特尔40岁生日过后四个月,Core i7出现了。这块CPU包含了7.3亿个晶体管,是英特尔第一块CPU晶体管数量的32万倍。走到这一步,英特尔只花了不到40年时间。
英特尔或者AMD老牌芯片生产商的历史,可以看做是个人计算机行业发展史的一个缩影。从1971年英特尔开发出第一块通用型CPU产品4004到Corei7,CPU中的晶体管数目已经增大数十万倍,价格却没有变化太多。如果汽车行业也像CPU技术的发展一样,现在每辆汽车的售价可能只有一毛钱。
1975年,比尔・盖茨在报摊上看到一本《大众电子学》杂志的封面广告。就是这个广告让他退学创业,最终构建了庞大的微软帝国。当时那个广告上有一个方头方脑的盒子,面板上有一些二极管,盒子里面装了一块英特尔的8080CPU。这让比尔-盖茨看到了未来的计算机发展方向:体积小,速度快,而且售价便宜。
在比尔・盖茨和保罗・艾伦专注于这种新生事物的时候。英特尔其他的芯片制造商正在开发新的CPU。更快,更便宜,更多晶体管。
硬件和软件开始相互追赶,更快的硬件上运行着更强大的软件,更强大的软件又需要更快的硬件。两股线紧紧拧在一起,个人计算机的时代来到了。
新的更快的CPU源源不断地被设计和制造出来。1981年的80286,1985年的80386,1989年的80486。英特尔首次在一块处理器上突破了100万颗晶体管,计算机的功能也开始日益多元化。除了数字计算和文字处理之外,影音娱乐也开始成为人们选择计算机的重要考虑因素。
国内计算机用户最初的记忆,大都和286或者苹果的AppleⅡ有关。当年抱着几盒5寸软盘匆匆往返于学校机房和宿舍的情形依然如在眼前,那种惊喜和期待却早就不知所踪。计算机更新换代的速度越来越快,现在除了仓库堆满灰尘的角落或者博物馆里。其他地方很少能见到那些当年让我们魂牵梦萦的老古董。想想看,才不过是20多年时间。
20多年的时间,对于IT行业来说,却犹如传统行业的一个世纪般长久。
从286开始,个人计算机行业开始驶上了快车道。CPU的主频开始以百万赫兹为单位,进而变成了10亿赫兹、20亿赫兹、30亿赫兹:小小一块CPU中的晶体管数目从13万,变成27万、120万、2000万、8000万,直到上亿:单个晶体管的宽度从以微米为单位缩小到以数百纳米为单位,直到现在的45纳米技术……这一切,都发生在最近的20多年中。
到了今天,谁还能离得开计算机?
现在的45纳米制程CPU,绝缘层只有五个原子厚。要进一步提高CPU的运算速度,需要考虑别的办法。例如在一块CPU中安装多个计算核心,以数量换取速度。英特尔的首席技术官说,多核是未来的发展方向。
2005年,多核CPU奔腾D出现了。2006年上市的被网友们亲切地称为“扣肉2”的Core 2,采用和奔腾3―脉相承的技术,让多个计算核心协同工作。个人计算机的计算能力已经超过30年之前的超级计算机。
更逼真的游戏画面、更清晰的高清电影,这是对个人用户最大的诱惑。毕竟计算机早已经成为生活中不可缺少的工具,而人们的期望永远没有止境。更多,更快,更强。计算机展示给我们的另一个世界,让人们开始分不清现实和虚拟。