发布日期:2024-04-15 14:46 点击次数:110
(原标题:AWS的芯片计谋)
如果您但愿不错时时碰面,宽饶标星储藏哦~
起原:内容由半导体行业不雅察(ID:icbank)编译自nextplatform,谢谢。
也曾有一段时间——似乎并不是很久往常——数据中心芯片市集是一个资金淳朴但相对简便的市集,来自英特尔、AMD 和 Arm 的 CPU 试图强行干与,而 GPU 则主要来自 Nvidia AMD 和英特尔的一些公司但愿强行干与。还有许多东谈主工智能初创公司并莫得确切在数据中心销售太多。
频年来,情况发生了雄壮变化。
仍然有英特尔、AMD、Nvidia 和 Arm,但在芯片方面也有更多聘任。正在生成和分析遍及且不休增长的数据,而最近出现的生成式东谈主工智能和大型谈话模子正在催生无数但愿站稳脚跟的芯片初创公司。
然后还有亚马逊蕴蓄作事、微软过甚行将推出的 Maia 100和谷歌云过甚张量处理单位等超大畛域企业,它们正在制造我方的国产处理器。
市集上有遍及的芯片聘任,云基础技艺提供商将在统共这些奈何整合在一齐方面推崇进击作用。刻下,纵脱70% 的东谈主工智能使命负载齐在云霄,况兼跟着企业选定该技能并推广其使命负载,这一数字有望增长。
关于AWS来说,它有我方的Trainium(彰着是为了教化东谈主工智能使命负载)和Inferentia(彰着是为了东谈主工智能推理) ——更毋庸说它的Graviton CPU和Nitro DPU了,这一切齐要归功于它2015年收购了以色列芯片想象公司Annapurna。AWS 也领有遍及 Nvidia GPU,它们是东谈主工智能计较的基石。但东谈主工智能的兴起——以及最近新兴的生成式东谈主工智能技能的加快翻新和选定——正在创建一个流体处理器环境,该公司和其他云提供商将不得不独揽这个环境。
Amazon EC2 居品防守总监 Chetan Kapoor 暗示,AWS 刻下已准备好使用 Nvidia GPU、Trainium 和 Inferentia,但翌日奈何发展还需要拭目以俟。
“咱们正处于了解奈何治理这一问题的早期阶段,”卡普尔告诉The Next Platform。“咱们所知谈的是,基于您在这个领域看到的快速增长,咱们还有很大的空间无间扩大基于 Nvidia 的居品的踪迹,同期,咱们将无间扩大咱们的 Trainium 和 Inferentia 容量。当今判断这个市集将奈何发展还为时过早。但这不是咱们所合计的零和游戏。由于这种指数级增长,咱们的 Nvidia GPU 群将无间出现露出增长,但与此同期,咱们将无间寻找契机姿色将 Trainium 和 Inferentia 引入外部和里面使用。”
与竞争敌手一样,AWS 全力发展东谈主工智能,但它在里面能作念什么以及在市集上投资了什么。AWS 上月底向东谈主工智能公司 Anthropic又投资了 27.5 亿好意思元,使其总投资达到 40 亿好意思元。几周前,这家云提供商暗示 Anthropic 的 Claude 3 系列模子正在 Amazon Bedrock AI 托管作事上运行。这与微软与 OpenAI(投资跳跃 100 亿好意思元)以及谷歌与 Anthropic(投资跳跃 20 亿好意思元)的合营伙伴关系相呼应。
为了运行这一切,AWS 坚握使用现存的 Nvidia 和我方的芯片,但本质上慎重 EC2 硬件加快业务的 Kapoor 暗示,该公司“将无间与其他提供商保握合营”如果英特尔或 AMD 等其他供应商领有确切引东谈主精通标居品,咱们合计不错补充咱们基于 Nvidia 的治理有考虑,我很是乐意在该市集与他们合营。”
AWS 在最近的 GTC 2024 展会上加大了对 Nvidia 的报复力度,暗示——正如微软 Azure、谷歌云和 Oracle 云基础技艺所作念的那样——正在选定加快器制造商的新式 Blackwell GPU,包括大型GB200 Grace Blackwell 超等芯片,它有两个 B200 GPU通过 600 GB/秒 NVLink 互连连结到单个 Grace CPU。
其他东谈主工智能芯片是否好像强行干与 AWS 环境尚不了了。Groq、Mythic 和SambaNova Systems等公司正在为东谈主工智能使命负载拼装处理器,但卡普尔暗示,这不单是是加快器自己。OpenAI 首席施行官 Sam Altman 提议了该公司想象我方的东谈主工智能教化和推理芯片的思法,以补充弥留的市集,该市集对 Nvidia GPU 的需求猛增,以得志东谈主工智能使命负载的需求。
“制造芯片确切很难,”他说。“构建作事器、防守和部署汗牛充栋(如果不是数十万)的加快器就愈加穷困。但更具挑战性的是莳植一个诳骗这种才气的开拓者生态系统。凭据咱们的劝诫,这不单是是硅的问题。硅是居品的一部分。然而,咱们奈何将其建设为计较平台呢?咱们奈何防守和推广它?这很进击,但最进击的是什么?该治理有考虑的易用性奈何?您的居品有哪些可用的开拓者生态系统?基本上,客户能多快完成使命?”
生成式东谈主工智能的加快选定并不成让组织消耗数月时间学习和使用新的硬件架构。他们使用的需如果一个既易于使用又具有老本效益的举座架构。
卡普尔说:“它必须有一个围绕它的开拓者社区,才能在该领域产生诱导力。” “如果有一家初创公司好像竣事这一豪举,那就太好了,他们将会顺利。但进击的是要确切从这个角度来看它需要高性能、需要低廉、需要平凡可用况兼很是易于使用,天创优配即使关于大公司来说,确切作念到这小数也很是很是穷困。”
组织靠近着选定东谈主工智能以保握与竞争敌手的竞争力的雄壮压力。关于公司来说,在研究他们使用的基础技艺时,运行这些东谈主工智能使命负载时时取决于性能与老本。
“咱们将看到这种趋势,其中一些客户只心绪上市时间,而不太心绪确保优化开销,”他说。“他们往往更可爱基于 Nvidia 的治理有考虑,因为这使他们好像尽快干与市集。另一方面,咱们也曾运行看到这种趋势,其中一些客户会研究这一老本并说,“好吧,我莫得预算来支柱这小数,”他们会寻找替代治理有考虑,为他们提供所需的性能,但同期为他们提供一条出息,使他们教化和部署这些模子所需的总老本检朴 30% 或 40%。这等于咱们或其他芯片合营伙伴提供的一些替代治理有考虑推崇作用的场地。”
也等于说,对 Nvidia 居品的需求将握续存在。卡普尔暗示,许多新的基础模子齐是在供应商的 GPU 上构建的,因为接头和科学界在使用 Nvidia 硬件和软件构建和教化东谈主工智能模子方面领有丰富的劝诫。此外,Nvidia 将无间扩大系统可提供的原始性能方面的上风。他暗示,这家 GPU 制造商“不仅很是很是擅长构建芯片,而且还擅长构建这些系统,而且他们在优化性能方面也很是出色,以确保他们的客户好像从这些很是很是高尚的加快器中得到最大收益”。
因此,超大畛域企业必须密切心绪组织告诉他们的信息,因为天然刻下约 70% 的东谈主工智能使命负载齐在云霄,但这一数字在翌日几年将会增长。AWS 和其他公司在 Nvidia 的 A100 或H100 芯片上运行的系统也曾很是复杂且畛域化,跟着 Blackwell 的推出,这种情况只会增多,Blackwell 需要选定液体冷却等技能的机架集成居品,致使更高的密度。
“想象、构建和实验部署此类机器需要更多握久的复杂性,因此咱们预测之前好像在土产货部署系统的客户将会碰到许多挑战,”Kapoor说。“他们可能莫得液体冷却基础技艺。他们可能莫得提供富余电力的机架位置,他们将倾向于云,因为咱们将为他们完成统共这些笨重的使命,况兼这些资源将仅通过 API 供他们使用和启动。一样的事情也适用于安全方面。今天,在让咱们的客户服气他们的学问产权(时时是模子参数、权重和偏差)方面,咱们领有很是很是强劲的姿态,他们不错十足访谒他们的学问产权。”
他们很快还将领有东谈主工智能超等计较机来处理这些东谈主工智能和机器学习使命负载。AWS 正在与 Nvidia 合营开展“Project Ceiba”,以构建这么一个系统,该系统当今将包括 Blackwell GPU 和 NVLink Switch 4 互连,正如咱们所详细的那样。此外,据报谈,微软和 OpenAI 正在推断打算“星际之门”超等计较机,或者正如咱们所指出的,可能是构成超等计较机的多个数据中心。
https://www.nextplatform.com/2024/04/12/aws-hedges-its-bets-with-nvidia-gpus-and-homegrown-ai-chips/
点这里加心绪,锁定更多原创内容
*免责声明:本文由作家原创。著作内容系作家个东谈主不雅点,半导体行业不雅察转载仅为了传达一种不同的不雅点,不代表半导体行业不雅察对该不雅点赞同或支柱,如果有任何异议,宽饶关连半导体行业不雅察。
今天是《半导体行业不雅察》为您共享的第3734期内容,宽饶心绪。
『半导体第一垂直媒体』
及时 专科 原创 深度
公众号ID:icbank
可爱咱们的内容就点“在看”共享给小伙伴哦
Powered by 天创优配 @2013-2022 RSS地图 HTML地图
建站@kebiseo; 2013-2024 万生优配app下载官网 版权所有