Исследователи из Yandex Research и НИУ ВШЭ представили метод SwD, позволяющий радикально ускорить работу диффузионных моделей. Технология оптимизирует создание графики в FLUX и Stable Diffusion 3.5, снижая вычислительные затраты без потери качества картинки.
Традиционный процесс генерации требует множества циклов вычислений в высоком разрешении, что замедляет работу нейросетей. Разработанный метод Scale-wise Distillation (SwD) меняет этот алгоритм: система начинает отрисовку с низкого разрешения и постепенно уточняет детали по мере снижения шума.Дистилляция и ускорение обучения
Технология использует принцип «учитель — ученик», где упрощенная модель воспроизводит результаты тяжелых нейросетей, таких как Stable Diffusion 3.5. Для этого авторы применили новую функцию потерь MMD, которая сопоставляет внутренние представления изображений у обеих моделей. Это позволило сократить время одной итерации обучения в 7 раз.Внедрение SwD дает возможность сократить число шагов генерации с нескольких десятков до 4–6 итераций. В результате на создание одного изображения уходит всего 0,3–0,4 секунды. Работа российских исследователей была отобрана для презентации на международной конференции ICLR 2026.
Комментарии (0)
Пока нет комментариев. Будьте первым!