Elon Musk透露其人工智能公司xAI已经以10万组NVIDIA H100加速元件构建超级计算机,并且在近期正式上线,预计在未来几个月内让规格规模再扩大一倍。
目前xAI已经获得包含Valor Equity Partners、Vy Capital、Andreessen Horowitz (A16Z)、红杉资本、Fidelity、Prince Alwaleed Bin Talal及Kingdom Holding等机构投资,预计以获得60亿美元扩建其人工智能基础建设。
而xAI将此超级计算机命名为“Colossus” (注),键置时间约花费122天,并且标榜为全球最强大的人工智能训练系统,后续计划从现行的10万组NVIDIA H100加速元件,增加为20万组,其中更包含5万组H200加速元件。
除了xAI藉由堆叠GPU为主的加速运算元件推动人工智能技术发展,目前包含Google、OpenAI、Meta、微软在内业者也均以相同作法进行人工智能军备竞争,包含Intel、AMD与NVIDIA都因此获利,但由于许多人工智能训练更仰赖GPU加速,藉此缩短原本所需冗长的训练时间,因此更让GPU加速效能更高的NVIDIA获利。
即便NVIDIA日前传出其代号“Blackwell”的加速元件延后至年底出货,甚至可能因为设计问题影响实际交货时间,但仍吸引不少业者下订。