AMD发布新芯片以支持更快的AI训练

导读 AMD希望人们记住,英伟达并不是唯一一家销售人工智能芯片的公司。它宣布推出适用于运行大型语言模型(LLM)的新加速器和处理器。该芯片制造商

AMD希望人们记住,英伟达并不是唯一一家销售人工智能芯片的公司。它宣布推出适用于运行大型语言模型(LLM)的新加速器和处理器。

该芯片制造商推出了InstinctMI300X加速器和InstinctM1300A加速处理单元(APU),该公司表示,它们可用于训练和运行法学硕士。该公司表示,MI300X的内存容量是之前M1250X版本的1.5倍。AMD表示,这两款新产品都比前代产品拥有更好的内存容量和更高的能效。

AMD首席执行官苏姿丰(LisaSu)表示:“法学硕士的规模和复杂性不断增加,需要大量内存和计算。”“我们知道GPU的可用性是人工智能采用的最重要的驱动因素。”

Su在一次演讲中表示,MI300X“是世界上性能最高的加速器”。她声称MI300X在训练LLM方面与Nvidia的H100芯片相当,但在推理方面表现更好——与Meta的Llama2(一个700亿参数的LLM)一起使用时,比H100好1.4倍。

AMD与Microsoft合作,将MI300X放入其Azure虚拟机中。作为Su演讲嘉宾之一的Microsoft首席技术官KevinScott还宣布,AzureNDMI300X虚拟机(于11月首次发布)现已推出预览版。Meta还宣布将在其数据中心部署MI300处理器。

Su表示,AMD发布了用于数据中心的MI300AAPU,预计该产品将使其潜在市场总额增长至450亿美元。APU通常结合CPU和GPU以实现更快的处理速度。AMD表示,MI300A提供更高性能的计算、更快的模型训练以及30倍的能效提升。AMD表示,与H100相比,它的内存容量是H100的1.6倍。它还具有统一内存,因此无需再从不同设备移动数据。

MI300A将为惠普企业在劳伦斯利弗莫尔国家实验室建造的ElCapitan超级计算机提供动力。ElCapitan被认为是最强大的超级计算机之一,预计将提供超过2exaflops的性能。

MI300AAPU“现已投入生产,并将被内置到数据中心中。”

定价信息无法立即获得。

苏在代码大会上调侃了MI300芯片,称AMD很高兴有机会吸引更多芯片用户,不仅来自云提供商,还来自企业和初创公司。

AMD还宣布了其Ryzen处理器的最新成员Ryzen8040,它可以将更多原生AI功能引入移动设备。该公司表示,8040系列的AI处理性能是之前型号的1.6倍,并集成了神经处理单元(NPU)。

该公司表示,Ryzen8040不会仅限于AI处理,因为它声称与英特尔芯片等竞争产品相比,视频编辑速度将提高65%,游戏速度将提高77%。

AMD预计宏碁、华硕、戴尔、惠普、联想和Razer等制造商将在2024年第一季度发布集成Ryzen8040芯片的产品。

Su表示,下一代StrixPointNPU将于2024年发布。

AMD还宣布RyzenAI软件平台现已广泛使用,这将使开发人员能够在Ryzen驱动的笔记本电脑上构建AI模型,将模型卸载到NPU中,从而降低CPU的功耗。用户将获得对语音识别模型Whisper等基础模型和Llama2等法学硕士的支持。

为了为人工智能模型提供动力,并利用当前对该技术的炒作,AMD、Nvidia和英特尔等公司已经陷入了一场基本上是人工智能芯片的军备竞赛。到目前为止,Nvidia凭借其备受追捧的H100GPU占据了最大的市场份额,该GPU用于训练OpenAI的GPT等模型。

版权声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。