一个扎心事实:美国的顶级开源大模型,中国大部分实验室用不了!
2025年2月25日
近日,Arc Institute、英伟达、斯坦福大学等机构的科学家们联合发布了生物学大模型Evo2。
作为目前最大的开源生物学模型,Evo2拥有高达400亿参数,如此规模的数据量,自然需要足够的算力支持,官方表示:Evo2在英伟达DGX Cloud 上训练,使用了2000多张H100 GPU。(注:H100是英伟达当前最强大的GPU之一,代表着全球最顶级的计算能力)
2000块H100是什么概念?下图是截至2024年10月全球机构拥有H100数量排行榜可以看到,从数量来说,2000块H100已可以入围全球前十,是欧洲云服务巨头Scaleway拥有数量的近两倍,其所能提供的算力是极为庞大的。Evo2的诞生绝非偶然,它再次验证了Scaling Law在生物学的适用性,当斯坦福等院所的科学家们调用相当于全球前十的H100储备量的计算资源时,本质上是史无前例的算力和数据来探索生命科学的认知边界。而像这种量级的算力投入当下可能只会发生在美国,其拥有以英伟达为代表的全球最尖端的高性能算力厂商,在算力资源上遥遥领先。在生物技术领域,这种算力碾压更为明显:当硅谷用2000张H100训练生物大模型时,国内绝大多数实验室使用的还是消费级显卡(40系、30系)。这种情况下,大部分中国科研机构别说研究出Evo2,就仅仅是本地部署Evo2,都难以实现。(注:Evo2要求计算能力≥8.9的GPU,如英伟达H100或更高规格)
而去年诺贝尔物理学奖、化学奖花落AI领域,传递出这样一个强烈信号:未来的科学研究离不开AI。
尤其是生命科学,其数据的增长在各个领域中名列前茅,作为拥有14亿多人口的大国,我国每年产生海量医疗与生物数据,这背后是亟需填补的算力鸿沟。
要打破这个困境,一方面要加快算力基础设施建设,通过企业合作、自建算力平台或租用云服务器来满足需求,这将是将是不少AI Infra企业的机遇。
另一方面,也需要发挥我们在算法创新上的优势,优化训练过程,进一步提高算力资源使用效率。
需要说明的是,Evo2并不是“生物学DeepSeek”,因为其并不符合DeepSeek最为精髓的“极致性价比”策略,而更像是“力大砖飞”的又一次力证。
而重大的突破往往发生在约束条件下的创造性重构,就像DeepSeek,在算力约束下以极低的训练成本做到了与海外顶尖模型同一水平的成就。
所以我无比相信,真正的“生物学DeepSeek”将在中国诞生。