Министерство торговли США расширило контроль над разработчиками искусственного интеллекта. Компании Google DeepMind, Microsoft и xAI подписали соглашения с государственным институтом CAISI, по которым обязаны передавать свои передовые алгоритмы на тестирование до их официального выхода на рынок. Основная цель проверок — выявление угроз национальной безопасности.
Новая структура CAISI, действующая под руководством министра торговли Говарда Лютника, превращается в главный фильтр между Кремниевой долиной и государством. Ведомство координирует независимую оценку коммерческих систем, чтобы понять, на что на самом деле способны нейросети нового поколения. К текущему моменту специалисты уже завершили более 40 проверок, часть из которых касалась продуктов, еще не доступных широкой аудитории.Процедура тестирования предполагает глубокое погружение в архитектуру моделей. Разработчики предоставляют версии с временно отключенными защитными фильтрами. Это нужно, чтобы эксперты могли спровоцировать опасное поведение системы и оценить риски в условиях, максимально приближенных к реальным угрозам. К работе привлечена межведомственная группа TRAINS, которая специализируется на стыке технологий и обороны.
Директор CAISI Крис Фолл связывает усиление контроля с растущей конкуренцией в отрасли. По его словам, строгая метрология необходима для понимания реального влияния ИИ на безопасность страны. Соглашения подразумевают не только проверку кода, но и постоянный обмен данными между корпорациями и правительством. Исследования проходят в закрытом режиме, а некоторые этапы испытаний перенесены в засекреченные среды, доступ к которым ограничен даже для сотрудников компаний-разработчиков.
Комментарии (0)
Пока нет комментариев. Будьте первым!