您的位置:主页 > 公司动态 > 每日行情 > 每日行情

这波AI浪潮里被萧条的Meta,要自研芯片了-国际原

Meta 宣布了自研芯片的希望。名为Meta Training and Inference Accelerator,即Meta 训练和推理加速芯片,简称MTIA。它预计将于2025年公布。

Meta 宣称 MTIA 是提高效率和水平的主要工具, 定制化的 MTIA 接纳 ASIC 架构,可并行执行多个义务,适用于AI加速盘算,从而成为 Meta 人工智能训练和推理芯片家族中主要的组成部门。

Meta强调,虽然芯片的内存和网络等功效还需要进一步优化,但MTIA在每瓦性能方面“显著”提升了效率,可以辅助Meta更好探索人工智能前沿手艺。

此外Meta还示意,MTIA将专注于人工智能推理,而不是训练。

*代MTIA 由 Meta 在2020年确立,使用了7纳米工艺,在Meta自己设计的性能测试中,它被以为在“中低庞漂亮”的AI模子方面相比GPU具有优势。

Meta AI 官方关于MTIA芯片的示意简图

除了MTIA,Meta还在开发另一种芯片,被称为Meta可扩展视频处置器(MSVP),顾名思义,MSVP主要的事情是将视频内容——不管是短视频照样直播,都只管通过MSVP来加载整合,知足差异平台渠道对码率、分辨率和低延迟等需求,制止让基础视频需求接纳软件编码形式处置,进而加速整个视频事情流程。

Meta 在几个月前确立了天生式AI团队,听说扎克伯格,CTO Andrew Bosworth 花了大量的时间和这个团队讨论Meta在人工智能领域能做些什么。上周他们刚推出了针对广告客户的内容设计工具。

Meta 在人工智能的希望已往集中在审核过滤和广告推荐算法这些领域,许多时刻这些负载是使用CPU组合运行的,再加上定制的专门用于加速的AI芯片。

没开玩笑,搭子越多的人越孤独

随着天生式AI的发作,Meta已经采购了大量的英伟达芯片,原来的芯片方案已经被放弃。

Meta 基础设施副总裁Alexis Bjorlin在TechCrunch的采访中将自研芯片形容为“构建对客栈所有层面的控制能力”,这和百度的AI战略思绪很相似,从数据中央设计到训练框架再到数据集和算法,Meta试图在AI方面追上竞争对手,最先举行对自己AI全链条资源的整合。

自研芯片紧锣密鼓提上日程,形成对比的是现在所有人都还在依赖英伟达的芯片。

Meta现在训练大模子所使用的是名为Research SuperCluster (RSC)的超级盘算机,它内置了2000个英伟达DGX A100系统,包罗16000块A100 GPU。

谷歌和微软也都有自己的超级盘算机,微软把它整合在了自己的Azure云上(然后又和OpenAI连系在一起,后者使用微软的资源训练大模子),谷歌的超算则有26000块H100 GPU。

超算资源直接和大模子开发训练以及推理的进度有关,但也意味着会受到英伟达产能的“卡脖子”,因此各家都在推动自研芯片希望。

Google很早就研发了名为TPU的训练芯片,AlphaGo就由其驱动。上个月有新闻传出,微软在隐秘研发自己的AI芯片,相助同伴是英伟达对手AMD。

Meta 走向自研之路是顺理成章的,强化在AI领域的垂直整合能力不仅可以降低成本,定制芯片还能利便凭证自家营业需求定制功效,更容易打造差异化竞争点。

若是Meta的大模子一方面能在传统的社交营业上支持内容广告营销(这部门详细的运行模式Meta自己认可也还在探索中),另一方面将天生式AI接入元宇宙,辅助用户天生数字孪生形象和相关的代码,那么其增进潜力将会极其伟大,扎克伯格在2月份就示意要致力于提高Meta的人工智能算力,押注AI的未来看上去是必由之路,Meta 的自研芯片是向这条蹊径进发的最新实验。