Искусственный интеллект (ИИ) в России и по всему миру пережил глобальный бум, породив ажиотаж и прогнозы о скорой замене человека в ключевых сферах. Однако со временем эйфорию сменило разочарование. Стало понятно, что искусственный интеллект не так-то просто развивать, да и ошибок он допускает немало.

Нехватка и недоступность информации
Специалисты, поработав над развитием ИИ, поняли, что для обучения искусственного интеллекта не хватает высококачественной информации. Под ней подразумеваются научные статьи, диссертации, описание и результаты исследований, классическая литература. Зато низкокачественной информации хоть отбавляй. Это различные данные из соцсетей, форумов, развлекательный контент. Дисбаланс в области информации создает фундаментальную проблему: обучение ИИ преимущественно на обширных массивах низкокачественных данных неизбежно ведет к тому, что искусственный интеллект лишается способности к глубокому анализу, выдает поверхностные суждения.

Проблема усугубляется ограниченной доступностью необходимых данных из-за соображений конфиденциальности, строгих законодательных норм и монополизации информации крупными корпорациями. Теоретически разработчики могут получать доступ, нарушая какие-либо правила и обходя запреты. Но на практике такой путь совершенно не желателен, так как, пойдя по нему, придется нести ответственность.

Ошибки ИИ
Ошибки искусственного интеллекта, связанные с генерацией недостоверной информации, возникают из-за ограничений в обучении моделей и неспособности ИИ критически оценивать контекст. Например, нейросети часто выдают ошибочные или вымышленные факты в ответ на сложные запросы.

Известны случаи, когда ChatGPT предложил адвокату несуществующие судебные прецеденты, а медицинский ИИ IBM Watson дал небезопасные рекомендации по лечению онкологии. Также можно привести пример, связанный с беспилотным транспортом. ИИ некорректно распознает объекты, неадекватно реагирует на нештатные ситуации. Из-за ошибок происходят аварии.

Невозможность заменить человека
Обещания ИИ полностью заменить людей в творческих или сложных задачах оказались сильно преувеличены. На практике генерация контента часто требует столько же, а то и больше усилий по верификации и доводке, чем его создание с нуля. Яркий пример – опыт авиакомпании «Уральские авиалинии»: попытка создать с помощью ИИ образы городов присутствия в виде животных заняла больше месяца. Если бы человек выполнял эту задачу, то он, скорее всего, справился бы быстрее.

Другой пример связан с «Газпром-Медиа». Специалисты компании однажды попросили ИИ написать сценарий на определенную тему и загрузили все свои сценарии. На выходе получилась полная ерунда.

Огромные вложения и отсутствие гарантий окупаемости
Разработка систем искусственного интеллекта требует огромных финансовых и технических ресурсов. Что нужно: дорогостоящее оборудование, вычислительные мощности, а также привлечение высококвалифицированных специалистов. Несмотря на высокий уровень вложений, окупаемость и успех проектов далеко не гарантированы.

Например, известно, что глава компании SoftBank потерял около $150 млрд за время своих инвестиций в ИИ. Стоит упомянуть и OpenAI. Поддержка работы чат-бота ChatGPT обходится компании примерно в $700 тыс. ежедневно. При этом проект пока не приносит желаемой прибыли. OpenAI работает в убыток, но продолжает развивать продукт благодаря масштабным внешним инвестициям.

Таким образом, ИИ нельзя назвать простой и идеальной технологией. Ожидания не оправдались. Но со временем может все измениться, ведь наука не стоит на месте, и инвестирование в развитие искусственного интеллекта продолжается.
Нашли нарушение? Пожаловаться на содержание