设为首页|收藏本站|
开启左侧

[科技] 抢电、圈地、对赌,深聊科技巨头的千亿美元AI能源大战

[复制链接]
范飞飞 发表于 7 天前 | 显示全部楼层
 
听说,OpenAI练习GPT-6的时辰,把微软电网给搞崩了?小伙伴们,你们有没有想过,天生式AI武备比赛延续之际,AI会有多耗电吗?
OpenAI练习GPT-3大要消耗了1300兆瓦的电力,假如将这些电用来看收集流媒体视频,可以播放1625000小时,也就是185.5年
我们再换一个方式显现,研讨职员发现,将大模子用于AI文生图,均匀下来每天生一张图片的耗电量,就能把一个手机布满。
再来一个宏概念的例子,我们做这期视频的2024年,全美AI数据中心的耗电量将占据全美总用电量的2.5%。
但这,只是起头。硅谷的科技的大厂们:英伟达、谷歌、微软、亚马逊、Meta、特斯拉、甲骨文等一众巨头起头搭建大型数据中心之际,OpenAI间接联手微软打造了耗资1000亿美圆的数据中心“星际之门”(Stargate)。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第1张图片


随着上万张GPU显卡集群成为练习天生式AI的标配,硅谷起头卷多模态大模子,Scaling law(范围法例)仍然是万能解药,不可思议,耗电量会指数级上涨。
接待大师来到硅谷101,这期内容我们就来聊聊,AI成长将会带来的能源应战。首先我们往返答一个题目:为什么练习大模子会如此耗电。
01 为何天生式AI如此耗电?

1961年,为IBM效力的物理学家Rolf Landauer提出了Landauer's Principle(兰道尔道理)
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第2张图片


指出计较机中存储的信息发生不成逆的变化时,系统的熵会增加,且陪伴着能量的耗散。简单来说,处置信息是有能量本钱的。
1.1 AI练习与推理:处置信息能量本钱
自从天生式AI建立利用Transformer架构并遵守“Scaling law”用巨量参数以来,AI大模子和“大量计较”就绑定在了一路。这就意味着,大模子运作中的“练习”(Training)和“推理”(Inference)城市触及大量计较和信息处置,大概说,庞大的能量本钱。
前者,在练习阶段,AI大模子需要收集和预处置大量的文本数据,然后初始化参数,处置数据,天生输出,调剂,优化等等,而且随着模子的迭代,需要处置的参数是指数级此外增加:GPT3是1750亿个参数,GPT4是1.8万亿个,GPT5能够会冲破10万亿参数,而传闻正在练习的GPT6则能够数百万亿甚至万万亿参数的量级。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第3张图片


而硅谷顶级孵化器YC的前总监Kyle Corbitt在他的推特上爆料说,他在跟一个微软工程师聊天时,对方告诉他GPT-6的练习已经让微软电网超负荷解体,所以没法在同一个州摆设跨越10万颗H100的GPU。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第4张图片


电网为什么会解体我们稍后会诠释,但这里想跟大师说的是,可见练习GPT-6的耗电有何等可怕。而在练习终了以后,“推理”一样需要很是大的算力和电力支持。
徐熠兴(Ethan)
微软能源计谋部资深项目司理
我的了解是现在我们还处在就是AI练习大模子的一个阶段,这些模子练习出来以后,它以后的利用,它的推理利用等等,那才是最大消耗能源的地方,那用电量的话能够要比你练习那几个月AI模子的用电量要大的多的。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第5张图片


我们晓得,Transformer是自回归模子,这意味着推理进程中触及多轮反复计较;而在以后的天生阶段,每天生一个token,都需要与显存停止数据交互。
我们在开首说了,一张AI文生图的均匀耗电量是能把手机布满电的电量。而聊天利用ChatGPT天天响应约2亿个需求,消耗跨越50万度电力,相当于1.7万个美国家庭均匀一天的用电量。
所以,不管是练习还是推理阶段,模子的参数目越大,需要处置的数据越多,所需的计较劲就越大,消耗的能量也就越大,开释的热量也越多。而反过来,这又需要更强大的芯片这样的追求是无止尽的
John Yue
Inference.ai开创人兼首席履行官
我小我感受他这对这芯片的要求应当是没有绝顶的,就比如我training(练习)一个工具我6个月,那我竞品能够说OK,那我多买几个GPU吧?我三个月,那他三个月,我现在就要两个月,那我两个月,他就要一个月,那这个工具实在是没有绝顶的,由于大师总想要更快。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第6张图片


更快,更大,更强。
这对AI芯片提出了更高的要求。为了支持起如此庞大的计较劲,科技巨头们纷纷建起了自己的数据中心Data Center(数据中心),将上万GPU互联互通,来支持AI大算力。
假如说AI练习和推剃头生的能量是冰山一角的话,那末数据中心自己的耗电才是埋在海中的庞大冰山
而再往深一步说,更大的能耗还来自于芯片上的电流,以及全部数据中心配套设备。
1.2 万卡Data Center:焦耳定律和冷却系统的吞电狂魔
我们都晓得,AI算力靠的是GPU芯片的并行计较。在每个芯片中,现在有着以亿为单元的晶体管,比如说,英伟达比来公布的Blackwell架构GPU就具有2080亿个晶体管。这些晶体管在运转时,就会发生电流。回首一下物理学的焦耳定律,电畅经过这些晶体管发生的热量跟电流的二次方成反比,跟导体的电阻成反比,跟通电的时候成反比(公式:Q=I²Rt)。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第7张图片


所以,万亿参数的AI大模子练习与推理,运转在上万GPU芯片上的千亿晶体管上,所发生的耗电和热量,不可思议。
除了芯片上自己的能耗之外,数据中心还触及到冷却系统的大量能耗。在数据中心的能耗上,有一个评价的权衡目标叫“电力利用效力”(Power Usage Effectiveness),简称PUE,也就是消耗的一切能源除以IT装备能耗的比值。PUE这个目标越接近1,数据中心浪费的能源越少。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第8张图片


按照数据中心标准构造Uptime Institute的报告,2020年全球大型数据中心的均匀PUE大约是在1.59。也就是说,数据中心的IT装备每消耗1度电,配套装备就会消耗0.59度电。其中,大部分的这些配套能耗是被用于冷却系统,在很大都据中心,冷却系统能耗可以到达总能耗的40%
是以,比来几年,随着天生式AI赛道的腾飞,科技大厂们敏捷圈地大兴修建新AI数据中心。巨头们并不在意电价,而“那里有电”,成了它们在意的题目。
John Yue
Inference.ai开创人兼首席履行官
就是由于我们本来设想Data Center(数据中心)的时辰,大师实在没有斟酌数据中心需要用到这么多电,它都是斟酌到我的这个带宽什么的,它会建在离这类ISP(收集营业供给商)近一点的地方,这样保证它这个带宽有上风。可是现在就发现我们实在是这个需要离电近一点,不是需要离带宽近一点,就是假如你要建这个,就是这类accelerate compute(加速计较)的这类数据中心,像他这类32,000张GPU的话,那实在对带宽要求远远不如对电的这个要求啊。
陈茜: 所以建在电廉价的地方?
John Yue
Inference.ai开创人兼首席履行官
不是,现在已经不是斟酌电廉价不廉价了?现在就没有电。嗯,现在是你要看Data Center这一层人,大师在干的事都是shopping for power(购电)。就是你哪块开一个很大的电站,立马就有人赶紧去把那块地先给建个Data Center(数据中心)。
Bank of America比来公布给机构客户的一份研报上以为,2023年到2028年时代,全球数据中心的能耗会以每年百分之25到33的复合增加率快速飙升。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第9张图片


徐熠兴(Ethan)
微软能源计谋部资深项目司理
AI实在它对一个国家的经济也是很是重要的,就比如说一个很大略的一个评价了,就是每一兆瓦的AI的这个数据中心的这个负荷,大要可以带来1000万美圆左右的年支出,假如是一兆瓦时的话,它的本钱能够只要30美圆到50美圆左右。所以这是很是高的一个经济效益。所以这也是为什么,一切的科技公司都不管这个电价有多高,只要有电,那我就愿意去建(数据中心)。
如此有益润潜力的高回报买卖,巨头们若何不押注?国际能源署(IEA)公布的一份报告显现,2022年全球数据中心、野生智能和加密货币的耗电量到达460TWh,占全球能耗的近2%。IEA猜测,在最糟糕的情况下,到2026年这些范畴的用电量将达1000TWh,与全部日本的用电量相当
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第10张图片


今朝出现的题目是,用电需求快速增加,但包括美国在内的很多地域的电网基建,却已经很多年没有创新过,完全跟不上AI增加的节奏,所以,“电荒”,“断电”,”电网瘫痪“,这些关键词,将极能够会成为接下来频仍的消息头条。接下来我们说说,AI耗电将若何造玉成球的电荒。
02 电荒何起:陈旧的基建与飙升的新需求?

在我们开首提到的,YC前总监KyleCorbitt的推特中,他说微软工程师跟他爆料,由于已经微软在一个州,摆设跨越10万颗H100的GPU,用来练习GPT-6,让微软电网超负荷而解体的。为什么会出现这个题目呢?
徐熠兴(Ethan)
微软能源计谋部资深项目司理
电网它的设想,根基上会针对你的用电负荷来停止设想的,就是说之前的数据中心,它实在是一个稳定的用电量,它一天24小时每刻的用电量,根基上是一个比力平稳的状态。可是AI的练习也好、推理也好,它会显现出很纷歧样的用电特征,在练习的时辰,大概在利用的时辰,会出现很是大的摆幅,比如说能够衡幅100%的用电量,一会儿降到10%的用电量,大概下一秒钟又会再升到100%的用电量,它在几秒钟之内,甚至在一秒钟之内,就会出现比力大的这类用电的摆伏,这样的这个情况,会给电网再带来不愿意接管的利用震动,会对电网的稳定性会形成一定的影响。
实在数据中心一向很耗电,但随着AI爆发,各大巨头都展开了摆设AI的“武备比赛”,是以在大范围新建数据中心,但数据中心的负荷太重,发电系统没法供给这么高的功率,就算添置发电设备,老旧的电力传输设备也难以承当如此负荷,很轻易超越电网原本的承受上限,加上欧美地域的用电量在曩昔相当长时候都连结平稳,这意味着电网基建已经接近20年时候没有更新。
在曩昔20年里,虽然美国的经济不竭提升,但由于“去产业化”的理念,整体的经济增加与用电量并不相关,每年的用电增加率只要0.5%,这和亚洲的一些成长中国家情况大不不异。美国的工程师在这20年里,都没有碰到过如此大的电力增加需求,从而致使全部电网计划时,对这类情况没有预案,同时由于扶植才能较为亏弱,短期内没法跟上成长需求,所以在未来的三到五年内,能够美国很多地域都将出现用电严重。
徐熠兴(Ethan)
微软能源计谋部资深项目司理
对于政策的制定者来说也是一样庞大的应战。由于在美国你要扶植电网,需要扶植电站,需要扶植传输线,而这些能够城市触及到千万万万的居民。由于美国的很多地盘都是私有的,也就意味着假如你要扶植电网,升级电网的话,你的传输线必定要经过很多这个私营的这个土田主,那怎样可以压服他们要答应扶植电网,答应扶植传输线,这都将是一个很是大的应战。
所以,《纽约客》比来的一篇文章中,更是将AI的能源需求用“Obscene”(下贱)来描述,用词很是不客套。但巨头们并没有由于电网的应战而停下脚步,反观微软和OpenAI甚至投入1000亿美圆,计划打造一个有史以来最大的AI超级计较机项目:Stargate。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第11张图片


03 千亿美圆、吉瓦量级的Stargate

我们将硅谷的几大巨头盘点下,Meta今朝有65万张H100,今年计划花8亿美圆,做一个AI数据中心,亚马逊则筹算在数据中心上投资6.5亿美圆,谷歌更是大手笔,投资10亿美圆建数据中心,但这些在微软眼前,不外是一点零头
按照美国科技媒体The Information报道,OpenAI联手微软计划花费1000亿美圆打造一台AI超级计较机,名为“星际之门”Stargate,这个投资范围比今朝运营的其他数据中心,横跨了100倍。要晓得,OpenAI的投资也才130亿美圆,这些钱充足打造8个OpenAI了。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第12张图片


星际之门这个项目估计在2028年完成,采购的芯片不再是H100,而是数百万个英伟达最新的B200芯片,最重要的是,这个项目标电力需求将会到达数吉瓦的量级
今朝虽然星际之门的项目还在较早的计划阶段且未获正式核准,能够还会有所变更,但这个计划的出台告诉了我们很明白的信号:谁把握了算力,谁就把握了未来。
而如此庞大的电力需求,将会对美国的电力系统形成不成估量的缺口,能够你想问:微软为什么不斟酌到其他国家扶植星际之门,以减轻美国的电力负担呢?
项江
瀚海聚能CEO
数据它现在是一个资产,而且是一个甚至到了计谋资产这样一个职位。而且对于AI下一步的成长的话,首先这现在是芯片欠缺,再是数据欠缺,再是能源欠缺,这个重要性已经都凸显在这儿了,数据现实上已经现在出现了欠缺的题目了。你说把数据中心建在此本国家,然后再去练习,甚至操纵当地国家的数据,我感觉这是不成设想的工作。
这么聊下来,美国的电荒危机将继续扩大。那末要保证像Stargate这类量级的项目,能耗的题目,到底该若何处理呢?
从The Information爆料出的Stargate内部会商来看,更高效的数据中心优化,以及核能等替换能源,都是急需技术冲破的偏向。我们先来聊聊芯片和数据中心的优化。
04 数据中心优化:芯片效力及液冷技术

我们在前面讲到数据中心的电力利用效力PUE,假如PUE越接近1,能耗效力就越高对吧。那末,若何优化数据中心的PUE呢?诶,老黄给出了一些可行性答案。
在2024年的英伟达大会上,黄仁勋说,新一代Blackwell GB200的能耗是前一代Hopper架构的四分之一。英伟达的BlackwellGB200是若何实现能耗优化的呢?我们来经过英伟达的动画演示仔细解读一下。
这是Blackwell的GPU焦点,在动画中,两个焦点拼接在一路,组成了B100的焦点。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第13张图片


这六个方块,就是焦点旁边的HBM(High Bandwidth Memory高带宽内存)。旁边是8个内存卡,这就是一个GPU。这六个方块,就是焦点旁边的HBM(High Bandwidth Memory高带宽内存)。旁边是8个内存卡,这就是一个GPU。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第14张图片


这是加了他们的Grace CPU,CPU是首要大脑,带动了两块GPU。这个就叫GB200(3:55)阿谁G就是它阿谁 Grace CPU。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第15张图片


两块GB200装入机柜后,就组成了一个NODE,计较节点。这里加入的卡是Infiniband,首要功用是让各计较单元之间高速通讯。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第16张图片


除了Infiniband,NODE还加入了DPU(Data Processing Unit),用来处置数据,减轻CPU负担。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第17张图片


英伟达会将18个NODE组合。这是英伟达的NVLink Switch芯片,大师可以把这层了解为交换机,用于连通NODE。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第18张图片


并加上局域网加速卡,组成了全部机组。再经过不竭增加机组,最初成为了数据中心。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第19张图片


诠释完GTC上的这段动画,相信大师也了解了Blackwell和B200是什么。在GTC上,老黄先容过Blackwell GPU具有2080亿个晶体管,用于AI练习时,速度将比H100快1倍,而推理速度则快5倍。最重要的是,对于不异的AI练习量,GB200的功耗是之前的四分之一。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第20张图片


这么看来,从一定水平上,随着B200的问世,AI数据中心的耗电题目将有所减缓,究竟英伟达占据了95%的AI市场。
在能耗上,还有一点很重要。让以上英伟达数据中心这一切能顺遂运转的,是行将成为行业标配的“液体冷却技术”。Bank of America在研报上诠释,接下来,随着数据中心功率密度的进步,传统的风冷系统方式能够不再适用,需要采用液体冷却处理计划,这会帮助进步数据中心的效能。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第21张图片


我们之前在英伟达GTC展会上采访了Supermicro的人,对方也说了一样的话:在英伟达Blackwell架构以后的AI数据中心城市转向液体冷却计划。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第22张图片


液冷技术实在已经成长了相当的时候了,今朝分为直抵芯片液体冷却,和浸入式液体冷却这两种技术偏向。中心的技术细节先不说了,总而言之,液冷不但缔造了下降数据中心能耗的机遇,还能将电力利用效力(PUE)降至接近1的理想状态。
但留意,我这里说的是“理想状态”。那现实呢?
John Yue
Inference.ai开创人兼首席履行官
就是这个B100比之前的H100会tricky(刁钻)很多,由于这个liquid cooling(液体冷却)现在市场上是没有标准,很多这类数据中心大概这类担忧,他实在不敢擅自去碰这个liquid cooling。由于英伟达它有要求,由于英伟达它交货的时辰,它里头是不带liquid cooling的,所以你要装liquid cooling,你实在把它自带那套工具给拆了。那你装了今后假如出题目,英伟达不保修了。所以很多人他是不敢乱碰这个liquid cooling。
首先,最大的题目是产能,即使Blackwell出来了,但H100仍然处于求过于供的情况,想把H100全换成B100,不说有没有这么多卡,在全部行业缺算力时,企业的挑选只要增配,而非替换。
其次,就算想用B100换成H100,技术上也存在题目。数据中心设想时,全部配套装备如变压器、导线、散热,都要与芯片婚配,非论是B100、B200还是GB200,其配套计划都与上一代分歧,所以现有的数据中心将难以间接更换
John Yue
Inference.ai开创人兼首席履行官
现在还没有任何人在英伟达之外成功的摆设了一个B100,所以要怎样摆设大师还不肯定。由于它确切跟H100不太一样。视频里放的阿谁,把阿谁扣翻开,H100拿出来,B100插进去,阿谁是很是理想化的,实在你要改很多工具。B100能够还稍微好一些,像他说阿谁B200大师要都用上,我感觉时候就长了。
由于阿谁机柜能够要重新改,他耗电太大啊。你要重新建数据中心,要否则就是由于你阿谁cooling(冷却)的阿谁功率不够,你能够要把你的这数据中心重新摆排。大概你机柜离太近太热了,然后你的阿谁冷却达不到标的话,你想要把这些机柜全都离远一点,这个很是省事。
最初,由于合作存在,本钱对算力的需求,将是永无尽头的。也就是说,芯片和数据中心在能耗效力上的进步比起市场上的整体需求上涨,仍然没法改良算力欠缺,总能耗仍然在快速飙升。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第23张图片


在PC快速成长的时代,出现过安迪-比尔定理,非论英特尔若何提升芯片性能,这部分很快会被微软的软件需求给吃掉。到了现在的AI时代,类似的定律能够会再次上演。
徐熠兴(Ethan)
我感觉在GPU上有能够也会出现类似的情况,就是它的能耗下降了很多,很快,可是由于能耗的下降,能够会致使更多的人,在更多的利用,会需要更多的GPU,最初还是会致使能耗的整体能耗的增加。
那末,有没有更强大的帮我们处理能耗题目标处理计划呢?
05 能源终极计划:核聚变?

迁往它国不可,下降能耗不够,AI成长也不能停,在如此大的电力缺口眼前,巨头们该何去何从呢?
徐熠兴(Ethan)提到了一个思绪,在短期内,散布式储能会是比力重要的计划。例如成长光伏充电,让每家每户都装上太阳能板,以此来减轻家庭用电对电网的依靠,将更多电能用于AI产业。究竟我们前面也提到过,AI对国家经济很是重要,所以政府是有动力去推动这项计划的。
同时,由于发电厂是延续发电,但总有一些时候电网负荷量低,这时没用上的电,也就白白流失了,是以扶植储能装备也能让发电厂的电,获得充实操纵。今朝支流的储能装备是电池,有些地方则会用到抽水蓄电,也就是在用电低谷时,将水抽到阵势高的地方,等高峰时再开释,经过水的流势来发电。
但是,散布式储能和新能源供电只能短时候内供给电力上的帮助,今朝看来并不能作为持久AI成长中的牢靠能源支持,没法处理持久需求
徐熠兴(Ethan)
微软能源计谋部资深项目司理
之所以会出现这样的情况,最首要的一个缘由就是,我们现在依靠的很多清洁能源,比如说风能和太阳能,他们都不是完全可控的,有风、有太阳的时辰你有能源,没有风和太阳的时辰你就没有这些能源了。
为此,像微软这样的巨头,正积极地和美国各电力公司合作,甚至Sam Altman间接投资了一家名为HelionEnergy的能源公司。
Lex Fridman:你若何处理能源题目?核聚变?
Sam Altman:那是我认可的
Lex Fridman:谁来处理这个题目?
Sam Altman:我以为Helion做得最好
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第24张图片


没错,核能,这是巨头们所深信的偏向。核聚变是将氘、氚经过一定手段,使其成为等离子态,发生核聚变后发生能量,一旦外力停止,等离子态会消失,反应竣事,相对而言更可控、更平安。
Helion走的就是核聚变的门路,他们还和微软签定了对赌协议,许诺在2028年之前起头经过核聚变发电,并在一年以后以0.01美圆每千瓦时的价格为微软供给方针为最少50兆瓦的发电量,否则将付出罚款。这个激进的“对赌协议”被以为是核聚变发电范畴的首个贸易协议。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第25张图片


项江
瀚海聚能CEO
它的底气就是在于它现在采用的技术线路,扶植的装配的本钱很是低。假如用托卡马克一个装配要上百亿、四五百亿来建造的话,那末它的技术迭代周期就会到达10年以上。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第26张图片


项江
瀚海聚能CEO
它采用的是,直线型场反位形的这样一个技术线路,这样大幅下降了它的资金门坎。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第27张图片


那今朝核聚变又成长到什么水平了呢?
项江
瀚海聚能CEO
实在说现在的技术成长水平来说的话,现在核聚变是完全可以用于发电的,只不外我们今朝还在处于做尝试的阶段,我们现在用的是氘-氘停止反应做尝试,要用到核电站的这样的发电效力的话,最少用氘-氚聚变来发电,而且它现在叫有价无市,每克氚大如果在两三百万这样群众币的这样一个价格。
想用核聚变来发电,还得处理热传导、涡轮机电、供电并网等设备,这其中的投资又是几十亿,所以,业内很多声音实在对Helion公司在2029年起头给微软用核聚变供电连结很是思疑的态度。但实在,微软自己也对核聚变技术的到来也并不自觉悲观
徐熠兴(Ethan)
微软能源计谋部资深项目司理
实在微软投资这个公司大概签这个条约的首要目标,是在于可以前期就给他们需求侧的一个激烈的信号,经过这样的方式去支持这样的创新公司,去帮助他们,去削减他们面临的风险。
微软和几个至公司,包括亚马逊,包括谷歌等等,实在都一向在用自己的投资部分,去投资分歧的新科技,这其中就有核能,包括核聚变。他们的希望也是经过投资这些技术,让这些技术公司可以成长的更好,可以用更快的速度、更低的本钱实现范围化,可以把这个核聚变尽能够实现。
虽然核聚变何时能到来还是一个庞大的未知数,但明显,核能将是接下来巨头们瞄准的市场。近来,亚马逊采办了一个具有核能供给的宾夕法尼亚州数据中心地址。按照两位介入谈判的人士流露,微软也曾会商竞标一样的地址。所以,接下来,有核能供给的数据中心选址,能够将是下一个科技巨头们的兵家必争之地。
文章的最初,我们再来聊聊一个更现实的题目:今朝硅谷科技巨头们开启了抢电大战,但他们许诺的碳中和方针怎样办
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第28张图片


06 更贵、更难的碳中和方针

还有个很重要的题目,就是环保,众所周知,现在全球推动碳中和方针,但随着AI庞大的耗电需求,碳中和的实现难度和本钱将能够翻倍。
当前天生式AI的武备比赛无疑是打乱了一众科技巨头的碳排放计划,由于满足AI Scaling law(范围法例)的成长实在太耗能源了,可以说是很是高碳的经济活动。
徐熠兴(Ethan)
微软能源计谋部资深项目司理
在更早的时辰就已经起头开启了能源转型的门路,所以像很多的大的公司,包括微软、谷歌、亚马逊、Meta等等,他们在AI出现之前就已经向公众作出了这个许诺,那时是没有斟酌到AI的。
微软许诺2030年实现100%没有任何碳排放的清洁能源利用、实现碳中和,亚马逊许诺2040年之前实现碳中和,谷歌和Meta许诺2030年之前实现全部运营和代价链上的碳中和,但由于这轮AI的出现,这些许诺似乎更难以到达了
徐熠兴(Ethan)
微软能源计谋部资深项目司理
此前这些公司在做这些许诺的时辰,他们的方针就已经设得充足高、充足难了,在没有AI之前,要实现能源转型的本钱就很高,假如加上AI以后,本钱有能够会翻倍。当能源转型停止到最初的那5%、10%的时辰,想再实现95%甚至99%的清洁能源的时辰,这个本钱就几近是指数性的增加。
除了电能之外,水能源实在也遭受着类似的应战。近年来,在AI大模子范畴领先的科技公司们,也都面临水消耗大幅增加的场面,数据显现,野生智能聊天机械人ChatGPT每发出10到50次对话提醒,就会“吞下”500毫升水。
2023年6月,微软公司公布了2022年度情况可延续成长报告,其中用水一项,有跨越34%的明显增加。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第29张图片


谷歌公司也类似,甚至激发了2023年年中,在乌拉圭都城的公众抗议,这个南美国家蒙受74年来最严重的干旱之际,试图阻止谷歌在当地扶植数据中心的计划。
而我们在文章中提到的液态冷却技术,和系统的进一步提高和应用,也将继续对水资本有着延续的需求。
在技术成长和能源消耗之间的挑选,很是两难。一面需要稳定、大量的电力来打AI技术和贸易之战,一面需要向社会实行环保许诺来打碳中和之战,不管是哪一场战争,都是高贵且困难的。业内风行着一句话:AGI的绝顶是能源。假如人类到达AGI之前可控核聚变技术没法实现,那末现有的能源计划能带我们走多远?这是一个庞大的不肯定性。
同时,在科技公司们计较AI本钱时,我们也不要忘了社会本钱。政府间天气变化专门委员会(IPCC)的报告指出,假如我们不能在本世纪内有用控制全球温升,天气变化超出临界点将会致使极端天气事务加倍频仍。Climate Policy Initiative的研讨报告估计,天气风险带来的累计损失到2100年能够高达数百万亿美圆。
抢电、圈地、对赌,深聊科技巨头的千亿美圆AI能源大战 第30张图片


假如AI的成长将推高碳排放、推后碳中和且致使更多天气损失,那末这也要算入AI本钱中。届时,人类对AI技术成长的这笔经济帐,还能否算得过来呢?


上一篇:马可波罗的地产负感化:被多家房企坏账“包围”,业绩压力何解?
下一篇:华为智能眼镜 2 方框太阳镜公布,鞭策智能眼镜赛道不竭进化
 
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

排行榜
活跃网友
返回顶部快速回复上一主题下一主题返回列表APP下载手机访问
Copyright © 2016-2028 CTLIVES.COM All Rights Reserved.  西兔生活网  小黑屋| GMT+8, 2024-5-22 04:10