Российские ученые из T-Bank AI Research представили новую методику обучения больших языковых моделей (LLM), которая позволяет повысить точность ответов нейронных сетей до 15%. Эта разработка, как сообщает ТАСС, значительно улучшит качество работы виртуальных ассистентов и чат-ботов в самых разных сферах, включая образование и медицину.
По словам исследователей, современные языковые модели сталкиваются с проблемами потери качества при длительном обучении на больших объемах данных. Для решения этой задачи была предложена инновационная методика, основанная на принципах Trust Region, которая вносит изменения в процесс обучения LLM.
Новый подход обеспечивает улучшение качества ответов искусственного интеллекта по пяти ключевым критериям, включая точность, логическую связность, стиль и информативность. Применение данного метода позволяет снизить количество случайных ошибок и избежать генерации неуместных текстов, которые могут возникнуть при узкопрофильном обучении.
Уникальность разработки заключается в её простой реализации и высокой совместимости с уже существующими технологиями. Суть метода заключается в периодическом обновлении «настройки по умолчанию» языковой модели, что помогает избежать отклонений и быстрее достигать целевых результатов.