Пятница, 5 декабрь 2025, 07:33

Эксперты рассказали, как снизить риски ИИ‑галлюцинаций

   Эксперты рассказали, как снизить риски ИИ‑галлюцинаций
Специалисты назвали ключевые способы борьбы с галлюцинациями нейросетей.

Специалисты назвали ключевые способы борьбы с галлюцинациями нейросетей — генерацией текста, который выглядит правдоподобно, но содержит вымышленные факты, неточные данные или ссылки на несуществующие источники. Подобные ошибки способны не только создать для пользователя серьезные затруднения при работе с информацией, но и привести к финансовым и репутационным рискам для бизнеса.

- Бывают случаи, когда нейросеть предлагает несуществующие книги в списке рекомендаций или формирует условия продукта, которых на самом деле нет. Модель не проверяет факты, а подбирает наиболее вероятный ответ, поэтому такие ошибки выглядят правдоподобно, но вводят в заблуждение. В первую очередь, снизить количество галлюцинаций можно за счет четко сформулированных запросов. Чем точнее и понятнее формулировка, тем меньше вероятность, что модель начнет фантазировать. Но все же самый надежный способ контроля — это внимательная проверка результата человеком, — сообщил Лев Меркушов, руководитель направления разработки ИИ-решений ВТБ.

Как отметил лидер команды по разработке моделей Алексей Пустынников, для предотвращения искажений информации со стороны ИИ важно понимать и учитывать и характер самих ошибок. Языковые модели не понимают смысл информации и не проверяют ее достоверность в реальном времени, поэтому сбои проявляются по‑разному. В одних случаях система искажает проверяемые данные, в других — формирует вымышленные сведения или неправильно следует заданным инструкциям.

- Галлюцинации в работе языковых моделей можно условно разделить на несколько типов. Есть фактические галлюцинации, когда модель выдает проверяемую информацию с ошибками: например, указывает неправильное имя изобретателя или дату события, либо создает несуществующую связь между объектами. Есть фабрикация фактов, когда нейросеть просто придумывает данные, которые невозможно подтвердить, либо преувеличивает их значение. И отдельная группа — галлюцинации при следовании инструкциям: модель может выполнить другую операцию вместо заданной, не учесть контекст или допустить логические ошибки, например, утверждать, что дважды два равно шести, — сказал Алексей Пустынников.

Причины возникновения ИИ‑галлюцинаций связаны с особенностями обучения и работы языковых моделей. Они формируют ответы на основе вероятностных связей в данных, а не на понимании фактов, поэтому при нехватке или противоречивости информации стремятся «додумать» ответ. Дополнительную роль играют ограничения обучающей выборки: модели не обладают сведениями о событиях, произошедших после окончания сбора данных, не имеют доступа к проверке фактов в реальном времени. В результате ошибки могут возникать как из‑за недостатка знаний в редких областях, так и из‑за неточностей или искажений, изначально содержащихся в используемых данных.

- Другой распространенной причиной ИИ-галлюцинаций являются сложные и абстрактные задачи, которые значительно повышают вероятность ошибок в работе больших языковых моделей. Чтобы снизить такие ошибки, мы рекомендуем использовать несколько подходов. Один из них — продуманная постановка вопросов и инструкций для модели, чтобы она лучше понимала задачу. Еще один способ — так называемая цепочка рассуждений, когда сложный запрос разбивают на простые шаги. Часто применяют и специальные системы, которые перед формированием ответа ищут информацию в проверенных базах данных. Кроме того, модели дообучают на данных из конкретной области, чтобы они лучше понимали термины и нюансы. А специальные защитные механизмы — AI guardrails — помогают отслеживать ответы и вовремя останавливать модель, если она выдает что‑то неверное, — подчеркнул Лев Меркушов.

В практике банка применяются каскадные решения, когда несколько моделей последовательно обрабатывают данные и корректируют результаты друг друга. Подобный подход используется, например, в задачах распознавания текста и речи, прогнозирования снятия наличности и инкассации банкоматов. В области генеративного искусственного интеллекта ведется разработка каскадных моделей для создания умного поиска по корпоративным базам знаний.

Помимо этого, отдельное внимание эксперты уделяют качеству исходных данных. «Один из базовых подходов — фильтрация данных, при котором в обучающие выборки включаются только тексты с минимальным количеством недостоверной информации и источники, в достоверности которых можно быть уверенными. Такой процесс нередко включает проверку материалов экспертами, что повышает качество, но одновременно увеличивает стоимость обучения моделей», — добавил Алексей Пустынников.

Эксперты подчеркивают, что использование искусственного интеллекта требует не только технологической зрелости, но и ответственного отношения к качеству данных, прозрачности алгоритмов и контролю за результатами. Такой подход позволяет внедрять ИИ‑инструменты, которые действительно помогают бизнесу, минимизируют ошибки и формируют устойчивое доверие со стороны клиентов.

Ярослава Соболева
Подписывайтесь на «БрянскToday» в Яндекс.Дзен. Будьте в курсе дневных новостей

Похожие материалы

Добавить комментарий

Оставляя свой комментарий, Вы соглашаетесь с добавления комментариев.
  • Содержание комментариев на опубликованные материалы является мнением лиц их написавших, и не является мнением администрации сайта.
  • Каждый автор комментария несет полную ответственность за размещенную им информацию в соответствии с законодательством Российской Федерации, а также соглашается с тем, что комментарии, размещаемые им на сайте, будут доступны для других пользователей, как непосредственно на сайте, так и путем воспроизведения различными техническими средствами со ссылкой на первоначальный источник.
  • Администрация сайта оставляет за собой право удалить комментарии пользователей без предупреждения и объяснения причин, если в них содержатся:
    • прямые или косвенные нецензурные и грубые выражения, оскорбления публичных фигур, оскорбления и принижения других участников комментирования, их родных или близких;
    • призывы к нарушению действующего законодательства, высказывания расистского характера, разжигание межнациональной и религиозной розни, а также всего того, что попадает под действие Уголовного Кодекса РФ;
    • малосодержательная или бессмысленная информация;
    • реклама или спам;
    • большие цитаты;
    • сообщения транслитом или заглавными буквами за исключением всего того, что пишется заглавными буквами в соответствии с нормами русского языка;
    • ссылки на материалы, не имеющие отношения к теме комментируемой статьи, а также ссылки, оставленные в целях "накручивания трафика";
    • номера телефонов, icq или адреса email.
  • Администрация сайта не несет ответственности за содержание комментариев.
  • Запрещается использование "гостями" сайта "Имен" (Никнеймов), которые вводят в заблуждение других пользователей, о причастности человека, оставившего комментарий, к "команде сайта". Например, администратор, админ, руководитель сайта и другие. Все комментарии от лица под такими именами (Никнеймами) будут удалены. а пользователь заблокирован.
  • Администрация сайта может ограничить доступ к сайту пользователей с определёнными IP-адресами (диапазонами адресов), вслучае если посчитает это нужным.
  • Все комментарии публикуются без премодерации.
Отправить

Комментарии  

0
Котов
30 ИЮЛЬ 16:11 #2
Котов
Сразу вспоминаю Т1000, страшновато становится. Права была Сара Конор
0
соник
30 ИЮЛЬ 16:09 #1
соник
ИИ галлюцинации