与此同时,国内互联网厂商因大模型急速增长的算力需求,又加剧了这种紧张的局面。
先是国内大模型数量激增,10月份统计数据显示,国内已发布了238个大模型。
每一个大模型背后都意味着海量算力的投入,综述《A Survey of Large Language Models》显示,650亿参数大模型LLaMA,在2048块80G A100上训练了21天;而700亿大模型LLaMA 2,同样用了2000块80G A100训练。
然而,AI算力需求还会持续上涨。
据OpenAI测算,自2012年以来,人工智能模型训练算力需求每3~4个月就翻一番,每年训练AI模型所需算力增长幅度高达10倍。