68个GPU,斯坦福大学教授李飞飞:堪比登月投资

【金色港湾资讯网为您推荐阅读】

自从大型模型取得突破以来,无论是行业巨头还是学术界都在努力获取足够的计算资源。 去年9月,甲骨文董事长埃里森和特斯拉CEO马斯克在硅谷一家豪华餐厅向黄仁勋“乞求”GPU的场景还历历在目。 近日,人工智能领域知名学者、斯坦福大学教授李飞飞再次表​​达了担忧:高校的人工智能研究受到GPU成本高昂的拖累,正在逐渐被人工智能技术落后。行业。

Meta最多可以购买35万个GPU用于模型训练,但斯坦福大学的自然语言处理小组总共只有68个GPU。 这种“万”与“一”的差距,揭示了算力差距的残酷现实。 。 为此,李飞飞提出建立“国家算力和数据集仓库”的计划,并称其与“登月投资”同等重要。

对于我国来说,情况同样严峻。 以GPU等AI芯片为代表的稀缺计算资源优先被少数大企业占据。 高校、中小微企业因成本过高而无法参与。

在此背景下,超大规模智能计算中心的建设或可为解决算力短缺问题提供思路,成为我国在全球人工智能竞争中保持优势的重要组成部分。

68个GPU,斯坦福大学教授李飞飞:堪比登月投资(图1)

事实上,我国在计算基础设施方面早已展开积极布局。 作为国家级工程,“东数西数”工程规划了全国八大枢纽节点和十大数据集群,并取得了重大进展。

以十大集群之一的韶关集群为例。 不久前,首批华南数据谷智能计算中心上线。 其一期规划算力(1P约等于每秒1000万亿次计算),位居广东第一。 港澳大湾区排名第一。 预计到2025年初,韶关集群智能算力将达到规模,成为大湾区、广东省乃至整个华南地区最大的智能计算能力。 这些计算资源不仅可以满足高校的科研需求,还可以为中小企业等行业提供实时高效的计算支持。

然而,超大规模智能计算中心的建设并不容易。 它需要突破一系列核心技术,其中异构算力的协调与调度尤为关键。 异构计算,即多种算力的混合使用,对于实现全国算力中心统一、优化资源利用至关重要。 在多个数据中心或智能计算中心互联的复杂场景下,异构计算面临着前所未有的挑战。 通信内容认知国家重点实验室研究员张东明表示,在异构算力建设和发展过程中,国产AI芯片将发挥越来越重要的作用。 但目前来看,由于配套软件、固件支持等生态系统限制,国内能够有效支持大型模型训练的计算集群并不多。

这些情况都被有关部门敏锐地捕捉到了。 今年年初,工信部等七部门联合印发的《关于促进未来产业创新发展的实施意见》提到:“加快突破GPU芯片、集群低时延互联等技术网络、异构资源管理。建设超大规模智能计算中心,满足大型模型迭代训练和应用推理的需求。”

专家认为,现阶段计算性能的提升大部分主要来自于“系统集成”。 有基于小芯片技术的芯片级集成、基于一卡多核技术的板级集成、基于液冷和高互连的机架级集成。 因此,建议在强化单芯片能力的同时,还应重点提升AI算力的系统集成能力,从单点突破转向横向扩展,在核心芯片、液冷、互联等方面持续投入。等相关技术,进一步实现AI算力系统的高算力、高性能、高稳定性、高性价比。

当前,智能计算中心正在成为通用人工智能发展的关键。 超大规模智能计算中心正在成为不断演进的智能计算中心的未来形态。 随着智能计算中心的成熟,“开箱即用”的智能计算服务有望成为主流。 当然,这需要产学界和政府的合作。

在算力资源整体配置方面,业内人士建议,政府可以通过行政手段,以协同建设的方式集中采购,通过“云化”以P价出售算力,然后以“算力”的形式进行补贴。力量券”推动中小科研机构人工智能研究与应用发展。

顶一下
(0)
0.00%
踩一下
0
0.00%

您可能还会对下面的文章感兴趣: