人工智能少不了算力支撑,就像真正的元宇宙少不了AI的赋能。
1月25日,扎克伯格宣布,Meta将要建造全球最快的AI超算——人工智能研究超级集群( AI Research SuperCluster,缩写RSC),集成1.6万个英伟达A100 GPU,算力高达5 EFLOPS(混合精度)。
顾名思义,AI超算便是专门用于人工智能计算的超级计算机,主要负责相关AI模型的训练、运算等。
据了解,目前全球最快的超算是日本的富岳,其在混合精度下的最高算力仅为2 EFLOPS。然而即将于今年年中完成建设的Meta超算RSC,却是能够达到富岳的2.5倍。
当然,这里需要提及的一点,混合精度指的是训练AI模型时,单精度(FP32)和半精度(FP16)两种不同类型数据的混用训练状态,既可以加快训练时间,又能减少模型训练时所占用的内存。而这里强调混合精度的概念,亦是为了突出RSC的AI运算性能。
毫无疑问,想要真正建设好元宇宙,AI技术肯定是基石之一。然而在深度学习还未得到实质性突破的今天,想要更为优秀的元宇宙场景,只能将模型建得更大、参数定义得更多,才可以得出更准确的结果。
Meta多次在公开消息中表示:开发超算的目的之一便是帮助实现公司的元宇宙愿景。用超算跑AI也是因为,AI驱动的应用和产品将在元宇宙中发挥重要作用。
事实上,做CV(计算机视觉)也好,NLP(自然语言处理)也罢,只要没有摆脱深度学习的范畴,在狭义上,其算力的需求就是无止境的。坊间大热的专用AI芯片是这个道理,终端的算力预埋、硬件堆砌也是这个道理。
只不过令人意想不到的是,Meta此次AI超算的组建,却没有配置专用AI芯片,而是选择了英伟达的A100 GPU。据悉,A100 GPU首发于2020年,基于安培架构,拥有 438 个第三代 Tensor Core,算力可达2000TOPS。但同样需要注意的一点是,该芯片的功耗很大,甚至高达800W。
Meta的AI布局很早,彼时还是Facebook的它,早在2017年的时候便推出了AI框架PyTorch。现如今,该深度学习框架不仅在学术界里倍受推崇,产业界也尤为流行。或许会问,AI三大基石不是算力、算法、数据来着,与所谓的框架有何关系?
简单理解,AI框架集成了一堆常用算法和计算过程,开发者只需了解计算目的、选择适当算法、提供结构化原始数据,就可以进行识别和推理,是一种提高效率的工具。
就像现在的元宇宙,我们或许能够看到的只是AR、VR、XR等各种摸得到的端口,但实际上,在冰山之下面还隐藏着更多需要“创造”的东西,包括专用的操作系统、专用的芯片、专用的数据库……
显而易见,为了将元宇宙真正落在实处,Meta已经开始逐渐铺路,其原先在AI领域的沉淀,相信也会很快排上用场。而关于本次AI超算的项目,RSC的第一阶段已经启动运行,由760个Nvidia DGX A100系统组成,共包含6080个GPU。
总而言之,尽管现阶段呈现出来的元宇宙行业并不清晰,也没有办法确定Meta的做法是否正确。但好消息是,总有那么一些人在不确定之中能够找到属于自己的确定。
【注意:文章版权归属汽车公社,严禁未经授权私自转载,否则追究法律责任,需转载请联系官方微信号:汽车公社】