来源: 发布时间:2026-03-16

Meta自研AI芯片战略解析:四代产品布局与算力保障路径
近日,Meta官方对外披露了其自研AI芯片的最新规划,宣布将在2027年底前陆续推出四款自主研发的人工智能芯片,核心目标是满足自身AI业务快速增长的计算需求,逐步降低对外部芯片供应商的依赖,构建自主可控的算力体系。据介绍,这四款芯片均隶属于“Meta Training and Inference Accelerator(MTIA)”系列,主要用于支撑公司内部AI模型的训练与推理任务,覆盖内容推荐、生成式AI等多个核心场景。
自研AI芯片推进:四代产品并行开发,进度明确
Meta此次公布的四款自研芯片分别为MTIA 300、MTIA 400、MTIA 450和MTIA 500,目前各产品正处于不同的推进阶段,整体按照既定路线图有序落地。其中,MTIA 300已正式进入量产阶段,现阶段主要应用于公司内部内容排序、推荐系统等场景的模型训练,为核心业务提供基础算力支撑;MTIA 400(内部代号“Iris”)已顺利完成实验室测试,正逐步推进规模化部署前期工作,即将投入实际应用。
更为先进的MTIA 450和MTIA 500(内部代号分别为“Arke”和“Astrid”),预计将在2027年实现大规模部署。Meta工程副总裁Yee Jiun Song透露,这四款芯片采用并行开发模式,并非依次推进,其中MTIA 450计划于2027年初正式推出,MTIA 500则将在其亮相约六个月后跟进发布,确保算力供给能够跟上AI业务的发展节奏。
作为Meta自主研发的定制化AI芯片系列,MTIA芯片的核心定位是优化推荐算法、内容排名等专属AI工作负载,区别于通用芯片的设计逻辑。该系列芯片采用ASIC架构与RISC-V指令集,通过硬件与软件堆栈的深度集成,大幅提升特定场景下的计算效率,更好地适配Meta自身业务的算力需求。
回顾MTIA系列芯片的发展历程,Meta的自研之路始于2020年,当年成功开发出首代MTIA v1原型芯片,采用7nm制程工艺;2023年5月,MTIA v1正式发布,功耗控制在25W,专注于推荐系统的算力优化;2024年4月,MTIA v2如期推出,性能较前代提升3倍,并完成了16个数据中心的部署,实现规模化应用。
2024年推出的MTIA v2芯片,采用台积电5nm制程工艺,内置256MB片上内存和128GB LPDDR5片外存储,主频提升至1.35GHz,功耗达到90瓦。其硬件架构包含由72个加速器组成的机架式系统,具备处理低复杂性与高复杂性AI模型的能力,同时软件堆栈与初代版本保持兼容,降低了应用迁移成本。
按照Meta最初的规划,MTIA芯片主要应用于Facebook、Instagram等平台的内容推荐算法训练、广告排名优化,以及每日处理亿级用户请求的推荐系统。随着生成式AI的快速发展,Meta计划将该系列芯片的应用场景进一步拓展,逐步覆盖Llama语言模型训练等生成式AI工作负载,全方位支撑AI业务升级。
自研之路:机遇与挑战并存,借力并购加速突破
Meta在自研AI芯片的道路上并非一帆风顺,期间遭遇了诸多挑战,也通过战略并购不断补齐短板。据悉,去年Meta创始人扎克伯格曾因自研芯片进展未达预期而表示不满,随后公司尝试收购韩国芯片初创公司FuriosaAI,不过在提出8亿美元报价后遭到对方拒绝。此后,Meta转而收购了总部位于美国加州的Rivos Inc.,并吸纳了该公司400多名核心员工,进一步充实了自身的芯片研发团队。
此次并购带来的人才资源,为Meta的MTIA研发团队注入了强劲动力,使其具备了同时推进多个芯片项目的能力。目前,该团队的核心研发方向是打造更高效的计算架构,重点满足Meta内部多场景的算力需求,涵盖Instagram内容推荐系统、排序算法优化,以及大规模生成式AI推理任务等。
Meta高管表示,自研芯片的核心优势在于能够针对公司特定应用场景进行定制化优化,从而在提升计算效率的同时降低成本。Yee Jiun Song明确表示:“我们并非为通用市场设计芯片,因此不需要冗余的通用功能,去掉不必要的功能模块,能够显著降低芯片的研发与生产成本。”
尽管优势显著,但芯片研发本身属于高投入、长周期的工程领域。从芯片设计、测试到交由第三方晶圆厂量产,往往需要投入数十亿美元的资金,且耗时长达数年。据Yee Jiun Song介绍,Meta研发团队通常需要约两年时间,才能将一款芯片从设计阶段推进至量产阶段,研发难度与周期可见一斑。
除此之外,Meta的芯片战略还面临着技术层面的挑战。此前有消息称,Meta已正式取消其最先进的一款AI训练芯片项目,该项目内部代号为“Olympus”,取消原因主要是芯片设计难度远超预期,研发进度难以推进。不过,Meta并未因此放弃自研之路,公司首席财务官Susan Li近日明确表示,Meta仍将持续发力,最终目标是开发出能够支撑大型AI模型训练的自研处理器。
算力保障双轨制:外购与自研并行,支撑大规模AI部署
“如果看看整体AI发展,仅仅在过去两三个月里,速度就已经快到让所有人震惊。芯片项目必须跟上工作负载演进的步伐,因此我们会不断审视路线图,确保打造出最有价值的产品。”Yee Jiun Song在谈及Meta芯片战略时表示。近年来,Meta正持续加大AI领域的投入,全力开发具有竞争力的AI模型与产品,这也带来了前所未有的算力需求,倒逼其构建多元化的算力保障体系。
为支撑AI业务的大规模部署,Meta制定了宏大的算力扩张计划:计划在本十年内部署数十亿千瓦的数据中心计算能力,未来甚至将进一步提升至数百亿千瓦及以上。Meta创始人兼CEO扎克伯格今年1月在社交媒体上透露,公司去年已投入720亿美元用于人工智能数据中心的建设,未来还计划继续投入高达1350亿美元的资金,夯实算力基础设施。
鉴于自研芯片仍需时间逐步落地,目前Meta仍需大量采购外部芯片,以满足当下激增的算力需求。据悉,公司近期已与英伟达、AMD两大芯片巨头达成合作,双方的AI硬件采购协议规模均达到数百亿美元级别,形成了“外购补缺口、自研谋长远”的双轨制算力保障模式。
2026年2月24日,Meta正式宣布与AMD达成一项长期AI芯片合作协议,计划在未来五年内部署多达6吉瓦(千兆瓦)的AMD人工智能芯片,用于自身数据中心的扩张。根据协议内容,Meta将批量采购AMD最新一代AI芯片MI450系列,预计从2026年晚些时候开始,逐步部署首个千兆瓦级别的算力。扎克伯格在协议公布后表示:“在我们实现计算多样化的过程中,这是Meta的重要一步。我预计AMD将在未来许多年成为重要的合作伙伴。”此外,Meta还计划对采购的AMD芯片进行定制化优化,使其更适配自身的AI推理任务。
在此之前,Meta已与英伟达达成一项多年期、价值数十亿美元的芯片采购协议。根据协议,Meta将采购数百万枚英伟达最新一代AI加速芯片,其中包括即将推出的Vera Rubin系列,并承诺大规模部署英伟达独立中央处理器(CPU),用于运行自身的人工智能模型。
NVIDIA创始人兼首席执行官黄仁勋对双方的合作给予高度评价:“目前还没有哪家企业能像Meta一样大规模部署AI,将前沿研究与工业级基础设施相结合,为数十亿用户提供全球规模最大的个性化服务和推荐系统。通过跨CPU、GPU、网络和软件的深度协同设计,我们将为Meta的研究人员和工程师提供完整的NVIDIA平台,助力他们构建下一代AI前沿的基础。”
扎克伯格也表示:“我们很高兴能够扩大与NVIDIA的合作,借助NVIDIA的Vera Rubin平台构建先进的集群,为全球每一个人提供超级智能。”
小结与展望
当前,AI技术正处于高速发展阶段,Meta作为全球AI领域的重要玩家,大规模部署AI业务的雄心背后,是对算力的巨大需求。为应对这一需求,Meta采取了“外购与自研并行”的双轨策略:一方面通过与英伟达、AMD等巨头合作,采购外部芯片,快速填补当下的算力缺口;另一方面,持续推进自研MTIA系列芯片,从2020年原型开发到2027年底四代产品落地,逐步构建自主可控的算力体系,降低对外部供应商的依赖。
尽管Meta的自研芯片之路面临研发周期长、技术难度高、项目调整等挑战,但通过战略并购吸纳人才、优化研发路线,其自研进程已逐步步入正轨。从MTIA 300量产到MTIA 500的规划部署,不难看出Meta在自研芯片领域的决心与投入。未来,随着四款自研芯片的陆续落地,以及与英伟达、AMD合作的深化,Meta的算力保障能力将进一步提升,其在AI领域的布局也将更加完善,有望为全球AI技术的发展注入新的动力,其后续发展值得行业持续关注。