AMD发布MI300X芯片,1530亿晶体管,支持800亿参数模型

2025-05-03 20:16:30 股市动态 facai888

数据中心人工智能加速器市场正迎来爆发式增长。只是,这样的增长并非没有波澜。AMD CEO苏姿丰日前透露,数据中心人工智能加速器市场总额将从2022年的300亿美元增长到2027年的1500亿美元以上。尽管如此,AMD股价在活动过程中却表现不佳,收跌3.61%,而同行英伟达则逆势上涨3.90%,市值首次突破1万亿美元大关。

面对市场竞争,AMD推出了针对大语言模型LLM的优化版芯片——MI300X,这款芯片拥有192GB的HBM3内存、5.2TB/秒的带宽和896GB/秒的Infinity Fabric带宽。更令人瞩目的是,AMD将1530亿个晶体管集成在共12个5纳米的小芯片中。

值得一提的是,AMD曾在14日展示了用于训练大模型的GPU Instinct MI300A,号称是全球首款针对AI和高性能计算的加速处理器。MI300A在13个小芯片中遍布1460亿个晶体管,采用CDNA 3 GPU架构和24个Zen 4 CPU内核。与前代MI250相比,MI300的性能提升八倍,效率提高五倍。

据DoNews6月14日报道,AMD展示了即将推出的GPU专用AI芯片MI300X,这款加速器可以加快ChatGPT等聊天机器人使用的生成式人工智能的处理速度,并可以使用高达192GB的内存。而英伟达的H100芯片仅支持120GB内存,AMD的这一举措可能会对英伟达在新兴市场的主导地位构成挑战。值得注意的是,AMD尚未公布其AI芯片的价格。

在硬件性能方面,AMD发布了AMD Instinct平台,它拥有八个MI300X,采用行业标准OCP设计,提供总计1.5TB的HBM3内存。AMD CEO苏姿丰表示,适用于CPU和GPU的版本MI300A目前已出样,MI300X和八个GPU的Instinct平台预计将在第三季度出样,第四季度正式推出。

据悉,MI300X提供的HBM密度是英伟达AI芯片H100的2.4倍,其HBM带宽是H100的1.6倍。这意味着,AMD的芯片可以运行比英伟达芯片更大的模型。单个MI300X可以运行一个参数多达800亿的模型。

此外,AMD还推出了新的Zen 4c内核。与标准Zen 4内核相比,Zen 4c内核密度更高,体积更小,且保持了100%的软件兼容性。这一创新将为数据中心人工智能加速器市场带来更多可能性。


人工智能技术正以前所未有的速度推动产业变革。AMD MI300X的诞生,无疑为这一变革注入了强大的动力。这款AI芯片,不仅标志着AMD在技术创新上的新高度,更将为未来智能应用带来前所未有的可能性。

大模型训练加速,MI300X引领AI新篇章

在我国,MI300X的应用案例同样丰富。例如,某知名互联网公司正在利用MI300X加速其AI语音识别系统的训练。通过MI300X的高性能加速,该公司的语音识别系统在准确率和效率上均得到了显著提升。

市场格局变化:MI300X挑战英伟达霸主地位

展望未来,我们有理由相信,MI300X将助力AI技术迈向新的高峰,为我们的生活带来更多惊喜。

搜索
最近发表
标签列表