Триста или четыреста гигабайт скоростной памяти вскоре станут стандартом не только для видеокарт, но и для специализированных ИИ-процессоров. Такой скачок со средних 100 ГБ отражает смену архитектуры дата-центров, где роль центрального чипа в работе с нейросетями становится всё более значимой.
По данным отраслевых источников, новое поколение процессоров для искусственного интеллекта по объему памяти вплотную приблизится к флагманским ускорителям вроде Nvidia Vera Rubin или AMD Instinct 400. Если раньше чипы этого класса ограничивались скромными показателями, то актуальный Google TPU 8i уже получил 288 ГБ. Производители намерены и дальше наращивать эти цифры, фактически стирая грань между классическими графическими решениями и вычислительными узлами.Главным драйвером изменений стал переход к агентным ИИ-системам, требующим более гибкого распределения мощностей. В современных центрах обработки данных соотношение графических ядер к центральным процессорам уже сместилось с 8:1 до 4:1, а в перспективе рынок ожидает паритета. Это не означает сокращение закупок GPU, но указывает на кратный рост числа самих процессоров в инфраструктуре. В результате огромные массивы памяти HBM, которые раньше поглощались только видеокартами, теперь будут распределяться между всеми ключевыми компонентами серверных стоек.
Комментарии (0)
Пока нет комментариев. Будьте первым!