Исследователи НИУ ВШЭ обучили языковую модель специфике российской научной терминологии, добившись резкого роста производительности. Новая система работает в 2,7 раза быстрее стандартных аналогов и требует на 73% меньше оперативной памяти, что позволяет развертывать ее на обычном пользовательском оборудовании вместо дорогостоящих серверных мощностей.
Коллектив Института статистических исследований и экономики знаний (ИСИЭЗ) НИУ ВШЭ столкнулся с проблемой доминирования английского языка в глобальных нейросетях. Существующие чат-боты часто поверхностно интерпретируют узкопрофессиональные запросы, что создает риски для качественной аналитики. Чтобы исправить ситуацию, разработчики использовали массив данных iFORA-QA, сформированный силами 150 экспертов из реальных отчетов и патентов.В текущем году команда планирует дополнить модель функционалом для предотвращения галлюцинаций — поисковик будет опираться исключительно на верифицированные научные источники. Система также получит способность выстраивать графы связей между понятиями и вести диалог, уточняя у пользователя недостающие данные перед выдачей итогового анализа. Итогом проекта станет мультиагентная среда, где искусственный интеллект выступает полноценным партнером исследователя, автоматизируя рутинную работу с массивами научной информации.
Комментарии (0)
Пока нет комментариев. Будьте первым!