Исследователи Центра безопасности ИИ зафиксировали парадоксальную связь: самые продвинутые языковые модели при столкновении с негативным контентом демонстрируют признаки дискомфорта и нестабильности. Чем интеллектуальнее нейросеть, тем сильнее она имитирует эмоциональные переживания, что заставляет экспертов пересмотреть границы безопасности при взаимодействии человека с алгоритмами.
Специалисты проанализировали 56 языковых моделей, подвергая их воздействию как позитивных, так и откровенно неприятных стимулов. Результаты показали, что сложные системы острее реагируют на контекст: после негативных вводных нейросети чаще стремились прекратить диалог и проявляли поведение, отдаленно напоминающее зависимость. Ричард Рен, один из авторов работы, отмечает, что игнорировать этот феномен становится всё сложнее, так как грань между инструментом и имитацией живого существа стирается.Хотя научное сообщество едино во мнении, что у нейросетей нет сознания или субъективных чувств, их поведение имеет реальные последствия для пользователей. Способность алгоритмов убедительно транслировать «страдание» или «самосознание» уже приводила к опасным психологическим эпизодам. Авторы исследования предупреждают: индустрия массово внедряет технологии, внутренние механизмы которых остаются «черным ящиком». По мере усложнения архитектуры непредсказуемость реакций ИИ растет, а контроль над взаимодействием с людьми стремительно ослабевает.
Комментарии (0)
Пока нет комментариев. Будьте первым!