Как обманывает ИИ: не всему сказанному им надо верить

Способность нейросетей генерировать правдоподобную, но ложную информацию, известная как "галлюцинации", может приводить к серьезным проблемам, особенно в критически важных областях. Рассмотрим причины этого явления и возможные пути его смягчения.

Нейросети умеют обманывать

Ярким примером последствий таких "галлюцинаций" стал случай американского адвоката Стивена Шварца в 2023 году. Готовясь к делу против авиакомпании, он поручил ChatGPT найти схожие судебные прецеденты. Чат-бот предоставил шесть убедительно описанных, но полностью вымышленных дел.

Обман вскрылся во время заседания, что повлекло за собой дисциплинарные взыскания для адвоката, который, по его словам, ошибочно полагал, что ChatGPT является продвинутой поисковой системой. Этот инцидент наглядно демонстрирует феномен галлюцинаций искусственного интеллекта – генерацию информации, которая выглядит достоверно, но не соответствует действительности.

Ошибки ИИ в медицине и образовании

Проблема "галлюцинаций" ИИ особенно остро стоит в медицине. Несмотря на успехи, такие как диагностика по рентгеновским снимкам, зафиксированы случаи, когда ИИ-ассистенты, предназначенные для расшифровки разговоров врачей с пациентами, генерировали полностью вымышленный текст. Другой пример – применение ИИ в анестезиологии для оценки рисков и рекомендаций по дозировке.

Поскольку большие языковые модели часто обучаются на данных ограниченной группы (например, взрослых со средним весом), они могут "галлюцинировать" при работе с данными пациентов, выходящих за рамки этой группы (дети, люди с ожирением), выдавая неточные или даже опасные рекомендации из-за нехватки релевантных знаний.

Сфера образования также активно внедряет ИИ, где чат-боты помогают создавать конспекты, оценивать работы и предлагать упражнения. Однако и здесь проявляются галлюцинации: ИИ способен смешивать реальные факты с вымыслом. Характерный пример – генерация списков литературы, где наряду с реальными работами известных авторов могут фигурировать несуществующие статьи.

Почему нейросети "галлюцинируют"

Одна из причин кроется в самом принципе их работы: ИИ генерирует текст, подбирая наиболее вероятное следующее слово, исходя из предыдущих, но не проверяя при этом факты. Так рождаются утверждения, которые выглядят правдоподобно, но являются ложными. Другой важный фактор – это данные, на которых нейросеть училась.

Если эти данные были неполными, содержали ошибки или были несбалансированными, ИИ может не только воспроизвести эти неточности, но и усилить их. Проблема усугубляется, если на этапе предобучения модель учится давать ответы, не имея доступа к корректной информации.

Например, если ИИ для распознавания рака обучить на недостаточном количестве снимков здоровых тканей, он будет склонен ставить ошибочные диагнозы, фактически "додумывая" информацию. Эта способность к "домысливанию" – неотъемлемая часть креативности генеративного ИИ, но она же порождает ошибки.

Борьба с "галлюцинациями" ИИ: как она ведется

Разработчики постоянно совершенствуют методы минимизации "ИИ-галлюцинаций". Во-первых, огромное внимание уделяется качеству обучающих данных: они должны быть разнообразными, сбалансированными, структурированными, полученными из надежных источников, регулярно обновляться и проверяться экспертами.

Во-вторых, одним из самых перспективных методов считается поисково-дополненная генерация (RAG). Эта технология позволяет ИИ перед тем, как сгенерировать ответ, обращаться к внешним базам знаний и документам, чтобы получить актуальную и проверенную информацию. Это значительно снижает риск "выдумывания" фактов.

Наконец, повлиять на точность ИИ можно с помощью промпт-инжиниринга – искусства составления правильных запросов. Чем точнее и понятнее инструкция для нейросети, тем меньше вероятность "галлюцинаций". Расплывчатые или слишком общие вопросы провоцируют ИИ на "догадки". Поэтому рекомендуется четко формулировать запрос, давать контекст, уточнять область поиска и просить ИИ указывать источники информации.

Нашли нарушение? Пожаловаться на содержание

А у вас были случаи, когда нейросеть выдавала неверную информацию?
Комментарии 0
Подписаться
Я хочу получать
Правила публикации
Редактирование комментария возможно в течении пяти минут после его создания, либо до момента появления ответа на данный комментарий.