首页 » 智能 » 尖端计算机芯片若何加速人工智能革命_人工智能_芯片

尖端计算机芯片若何加速人工智能革命_人工智能_芯片

雨夜梧桐 2024-12-20 02:20:48 0

扫一扫用手机浏览

文章目录 [+]

随着人工智能芯片市场的持续增长,各大科技公司都在开拓自己的人工智能芯片,以知足人工智能对打算能力的巨大需求。
2024年6月4日《Nature》期刊揭橥了题为《尖端打算机芯片如何加速人工智能革命?》的文章,磋商了推动人工智能打算革命的尖端芯片技能,以及人工智能芯片在提高打算效率、降落能耗方面的创新和寻衅。

尖端计算机芯片若何加速人工智能革命_人工智能_芯片 尖端计算机芯片若何加速人工智能革命_人工智能_芯片 智能

尖端计算机芯片若何加速人工智能革命_人工智能_芯片 尖端计算机芯片若何加速人工智能革命_人工智能_芯片 智能
(图片来自网络侵删)

人工智能芯片的市场扩展

只管人工智能的潜在影响让人们对其既充满期待又有些担忧,但人工智能芯片市场仍在不断扩展。
目前,英伟达公司在这一领域霸占着主导地位,其产品的市场份额超过80%。
2023年,英伟达成功售出了55万块Hopper芯片,这些高性能芯片的单价至少为3万美元,并且它们紧张面向数据中央市场,而非个人电脑用户。
得益于此,英伟达的市值在今年大幅增长,达到了2万亿美元以上,使其成为环球市值排名第三的公司,超越了包括亚马逊和Alphabet在内的其他科技巨子。

在过去十年里,人工智能的显著进步并非源于奥妙的编程技巧,而是基于一个核心理念:模型越大越好。
越来越多的大措辞模型在弘大的数据集上进行演习,这就须要更强大的打算能力。
据悉,OpenAI最新推出的GPT-4模型,其演习所需的打算资源是其前一代的100倍。
像Meta这样的公司已经建立了依赖于英伟达高性能芯片的数据中央。
此外,包括谷歌和IBM在内的其他公司,乃至一些规模较小的公司也在研发人工智能芯片。
与此同时,研究职员正在探索各种芯片设计,包括一些针对小型设备优化的设计。
这些芯片的共同特点是它们采取了包括并行打算、易于访问的储存和数字速记等技能,这些技能帮助它们战胜了传统打算的限定,提升了处理速率。

人工智能芯片的兴起与演进

自20世纪70年代以来,中心处理器(CPU)的改进呈指数级增长。
随着晶体管的缩小,它们在芯片上的密度每两年翻一番(这一趋势被称为“摩尔定律”),晶体管变得更小也更快。
CPU的进步如此迅速,以至于定制设计其他类型的芯片变得毫无意义。
然而,大约在2005年,晶体管尺寸的缩小速率开始放缓,工程师们面临一个寻衅:他们担心无法连续让晶体管变得更小。
CPU进展的放缓匆匆使打算机工程师负责考虑其他类型的芯片。

事实上,视觉处理器(GPU)的早期版本自20世纪70年代末以来就已经存在,当时的GPU设计用于为视频游戏进行重复打算,例如尽可能快地渲染屏幕上像素的颜色。
与CPU按顺序处理指令不同,GPU可以并行处理更多指令。
常日,CPU中有一些强大的核心组件,并可以在这些核心组件中进行打算。
每个单独的处理单元吸收指令,并由多个缓存进行支持,这些缓存可以在短期内存储数据,这种架构使CPU非常适宜繁芜打算。
比较之下,GPU有数百或数千个较小的核心组件,每个核心组件由较少的赞助系统支持。
拥有许多较小的核心组件许可GPU比CPU更快地并行实行许多大略、重复的打算。

2012年,神经网络的早期倡导者之一、多伦多大学打算机科学家杰弗里·辛顿(Geoffrey Hinton)和他的学生阿莱克斯·克里兹维斯基(Alex Krizhevsky)、伊利亚·索特思科瓦(Ilya Sutskever)意识到利用GPU演习的神经网络可能会做得更好,由于机器学习的基本是大略、重复的打算。
为此,他们利用两个GPU来演习神经网络,称为AlexNet,并在2012年度ImageNet竞赛中得到冠军。
当时,利用CPU的程序来区分相似图像的准确率最多只能达到75%,而利用GPU的AlexNet准确率可达到85%。
在一两年内,每个ImageNet的参赛者都开始利用GPU,从那时起,人工智能研究职员就开始严重依赖这些GPU。

只管GPU像CPU一样仍旧受到晶体管的约束,但它们并行打算的能力使它们能够加速人工智能任务。
为了演习拥有1750亿个参数的大措辞模型GPT-3,OpenAI的研究职员不得不连续运行1024个GPU一个月,这花费了数百万美元,这些GPU实行了10^23次浮点运算,同样的演习在CPU上须要数百到数千倍的韶光。
只管GPU一贯是人工智能革命的核心,但它们并不是唯一的选择。
随着人工智能运用的激增,人工智能芯片的种类也在增加。

人工智能芯片的创新与打破

现场可编程门阵列(Field Programmable Gate Array,FPGA)的设计许可打算机工程师直接对芯片的电路进行编程,使其能够按照特定的命令实行任务,而不须要等待外部的指令。
FPGA就像一盒乐高积木,工程师可以根据他们的想象将FPGA电路逐个构建成任何设计,无论是用于洗衣机传感器还是辅导自动驾驶汽车的人工智能。
包括英特尔旗下位于美国加州圣何塞的Altera在内的一些公司,将FPGA推向了包括医学成像在内的各种人工智能运用市场。
研究职员也创造,FPGA在处理粒子对撞机数据等分外任务上非常有用。
此外,FPGA的易于编程性也使它们在芯片原型设计中具有代价,工程师们会考试测验利用FPGA来设计人工智能芯片。

人工智能芯片最繁重的事情之一可能是进行乘法运算。
2010年,谷歌面临一个问题:公司希望为大量日常用户供应语音转录做事。
然而,要演习一个能够自动处理这项任务的人工智能,须要进行大量的乘法运算。
为此,谷歌的打算机工程师们开拓一种新型芯片,即张量处理器(Tensor Processing Unit,TPU),并将其作为谷歌人工智能的平台。
TPU专门设计用于支撑人工智能的乘法运算。
当TPU吸收到一个指令时,它不是实行一个操作,而是可以实行超过10万个操作。
TPU可实行大量操作而只需有限地等待指令的能力使得谷歌能够加快人工智能项目的进展。

人工智能芯片的能耗寻衅与未来发展

人工智能芯片的设计会只管即便避免让芯片影象过多信息。
在微处理器和存储器之间来回传输数据可能非常耗时且耗能。
人工智能的电力花费并不是一个小问题,据估计,演习GPT-3花费了1300兆瓦时(MWh)的电力。
纵然在演习完成后,利用人工智能运用也可能花费无穷无尽的能源。
为理解决这个问题,许多GPU在单个芯片上直接集成了大量内存,如英伟达的Blackwell芯片大约有200GB的内存。
当人工智能芯片安装在做事器中的时候,它们还可以共享内存,这使得各个芯片之间的网络连接更大略,耗电量也更少。
只管芯片设计的进步可以提高效率,但随着模型的增大,人工智能的能耗本钱仍在逐年增加。

人工智能芯片的发展,如GPU的涌现,并不虞味着CPU退出历史舞台。
相反,这些芯片之间的界线正在变得模糊,现在的CPU比较早期版本更善于并行打算,而GPU也具有更多的功能。
英伟达的Blackwell芯片的一个版本可以直接将GPU与CPU配对;位于美国田纳西州橡树岭国家实验室的超级打算机Frontier将CPU和GPU结合利用。
考虑到过去十年的变革速率,研究职员表示很难预测芯片的未来,将来的人工智能芯片或许会利用光子芯片或量子打算芯片。
与此同时,一些研究者认为,让"大众年夜众更加理解人工智能芯片可以帮助人们揭开人工智能领域的神秘面纱,并纠正人们对人工智能无所不能的误解。
未来,人工智能芯片技能的不断进步与创新将加速人工智能的发展与运用。

免责声明:本文转自元计策。
文章内容系原作者个人不雅观点,本"大众年夜众号编译/转载仅为分享、传达不同不雅观点,如有任何异议,欢迎联系我们!

转自丨元计策

研究所简介

国际技能经济研究所(IITE)成立于1985年11月,是从属于国务院发展研究中央的非营利性研究机构,紧张职能是研究我国经济、科技社会发展中的重大政策性、计策性、前瞻性问题,跟踪和剖析天下科技、经济发展态势,为中心和有关部委供应决策咨询做事。
“环球技能舆图”为国际技能经济研究所官方微信账号,致力于向公众通报前沿技能资讯和科技创新洞见。

地址:北京市海淀区小南庄20号楼A座

电话:010-82635522

微信:iite_er

相关文章

物联网时代的芯片家当新趋势_芯片_产物

芯片企业的应对之策面对当前的物联网竞争局势,芯片厂商也有了他们的新的应对之策。如在追逐性能方面,大家不再是一味求快求新,而是须要自...

智能 2024-12-21 阅读0 评论0