пн. - пт.: 10.00 - 19.00, сб., вс. - выходной
Наши центры
Оставить заявку

Cerebras развернёт инфраструктуру на более чем 1000 ускорителей CS-3 в пяти штатах США, Канаде и Франции

12.03.2025

Калифорнийский стартап Cerebras Systems приступил к масштабному развёртыванию своих ускорителей CS-3 для AI-инференса, планируя создать одну из крупнейших инфраструктур в Северной Америке и Европе.

Как сообщили на конференции HumanX AI в Лас-Вегасе, к концу года компания запустит новые дата-центры в Техасе, Миннесоте, Оклахоме и Джорджии, а также первые объекты в Монреале (Канада) и Франции. Из них Cerebras полностью владеет центрами в Оклахома-Сити и Монреале, остальные строятся совместно с облачным подразделением эмиратского холдинга G42.

Самый мощный объект в Миннеаполисе (Миннесота), который заработает во втором квартале 2025 года, будет оснащён 512 ускорителями CS-3, обеспечивающими 64 экзафлопс вычислений в формате FP16. В отличие от большинства AI-суперкомпьютеров, Cerebras использует собственные процессоры размером 46 225 мм2, каждый из которых содержит 4 трлн транзисторов, 900 000 ядер и 44 ГБ SRAM-памяти.

Иллюстрация: нейросеть DALL-E

Хотя тысяча CS-3 кажется скромной на фоне сотен тысяч GPU от гигантов вроде Nvidia, каждый такой ускоритель выдаёт 125 петафлопс в разрежённых FP-вычислениях — в 25 раз больше, чем H100, и в 25 раз превосходя Blackwell. Для инференса модели Llama 3.1 70B система Cerebras демонстрирует скорость до 2100 токенов в секунду. Ключевым преимуществом стала пропускная способность памяти — 21 петабайт/с против 3,35 ТБ/с у H100.

Однако основной прирост скорости (до 6×) достигается за счёт спекулятивного декодирования: меньшая модель генерирует черновик ответа, а крупная проверяет его точность. Этот подход важен для «рассуждающих» моделей, таких как DeepSeek-R1 и QwQ, где цепочки размышлений могут занимать тысячи токенов.

Слабым местом Cerebras остаётся ограниченный объём памяти: для работы Llama 3.3 70B в 16-битной точности требуется минимум четыре CS-3, а Llama 3.1 405B — свыше 20 ускорителей. Тем не менее, стартап уже привлёк клиентов вроде Mistral AI, Perplexity и AlphaSense, последний из которых переходит с проприетарных моделей на открытые, работающие на CS-3.

Дополнительный импульс Cerebras получил благодаря интеграции с Hugging Face: через единый API разработчики теперь могут подключаться к его инфраструктуре наряду с SambaNova и Together.ai. Это расширяет доступ к экосистеме, где скорость генерации токенов становится ключевым аргументом в условиях растущего спроса на сложные AI-расчёты.

Источник: theregister.com