Илон Маск раскрыл планы по созданию «самого мощного» ИИ-кластера из 100 000 GPU NVIDIA
Илон Маск поделился новыми деталями о планах xAI по созданию GPU-кластера для обучения модели искусственного интеллекта, получившего «элегантное» имя Grok. После прекращения сотрудничества с Oracle, xAI решила самостоятельно построить «самый мощный тренировочный кластер в мире» — напомним, что рангее Oracle предоставила 24 000 GPU Nvidia Hopper для обучения модели Grok 2, которая, по словам Маска, будет готова к выпуску в августе.
Маск считает, что создание системы из 100 000 GPU внутри компании необходимо для конкуренции с другими ИИ-компаниями и достижения «самого быстрого времени обучения». Он подчеркивает важность скорости для «фундаментальной конкурентоспособности» xAI. Правда, нигде не сказано, не придется ли ради этой скорости жертвовать безопасностью — будет очень грустно, если человечество погибнет от «рук» чего-то с именем Грок.
Система начнет обучение в этом месяце и, по мнению Маска, станет «самым мощным тренировочным кластером в мире, причем с большим отрывом».
Ранее Маск заявлял о планах построить многомиллиардную систему с использованием около 300 000 GPU NVIDIA Blackwell B200. Учитывая цены, озвученные главной Nvidia Дженсеном Хуангом, стоимость такой системы может достигать 9 миллиардов долларов.
Пока непонятно, каким образом и насколько активно аудитория пользуется Гроком. В отличие от ChatGPT, Claude и других систем, ИИ Маска доступен только через вкладку социальной сети X. Можно не сомневаться, что компания Маска очень активно прожигает деньги инвесторов в попытке догнать конкурентов.