Представитель ГРЧЦ Станислав Махортов предложил социальным сетям блокировать вирусные дипфейки до получения согласия от лиц, фигурирующих в видео. Регулятор настаивает на оперативном ограничении доступа к контенту в момент его стремительного распространения, не дожидаясь верификации через официальные источники или заявления от самих пострадавших пользователей.
Инициатива предполагает создание базы технологических угроз и введение обязательной маркировки для любого контента, созданного нейросетями. Однако эксперты указывают на серьезные технические препятствия. Представители IT-отрасли подчеркивают, что существующие системы детекции не справляются с колоссальными объемами данных, а современные генеративные модели научились обходить алгоритмы проверки. В итоге под автоматические блокировки рискуют попасть обычные фото и видео, созданные людьми.Александр Пономарев из Zarya Ventures полагает, что единственным рабочим механизмом могло бы стать временное ограничение охватов подозрительных публикаций. Но даже этот подход требует значительных затрат и неизбежно спровоцирует волну судебных исков от пользователей. Наталия Тылевич из «Социальной лаборатории» добавляет, что для полноценной реализации плана необходимы четкие критерии оценки контента, которые пока не разработаны профильными ведомствами. Ранее, в 2026 году, попытки Минцифры возложить на площадки ответственность за проверку ИИ-контента уже натолкнулись на сопротивление бизнеса из-за технической неисполнимости и высоких расходов на модерацию.
Комментарии (0)
Пока нет комментариев. Будьте первым!