Для робота зебра и "зебра" не различимы: можно ли научить ИИ здравому смыслу

Здравый смысл не является обычным явлением, особенно когда дело касается искусственного интеллекта. Компьютеры с трудом проводят четкие различия, которые люди принимают как должное. Вот почему веб-сайты требуют, чтобы вы подтвердили свою человечность перед входом в систему или совершением покупки: большинство ботов не могут отличить пешеходный переход от зебры.

Задача искусственного интеллекта

На симпозиуме USC AI Futures on AI with Common Sense в начале этого месяца более 20 исследователей USC сообщили о технических причинах этого и различных направлениях исследований для решения проблемы. Развитие здравого смысла ИИ улучшит услуги, ориентированные на людей, от расширенных социальных услуг для лучшего обслуживания общества до личных помощников, которые лучше предсказывают наш контекст и потребности.

Комментарий специалиста

«Сегодня системы искусственного интеллекта помогают нам заказать книгу, найти песню или пропылесосить полы», - сказал Яннис Йорцос, декан инженерной школы Университета Калифорнии в Витерби. - Но у них нет здравого смысла, чтобы знать, что мы читаем книги для обучения и для удовольствия, что музыка расслабляет нас и что опрятные дома приносят больше удовольствия.

Для решения проблемы здравого смысла для ИИ необходимо применять образ мышления, учитывающий человеческое взаимодействие. Поскольку мы закладываем основы для того, чтобы ИИ был ответственным и этичным, а также значимым образом влиял на общество».

ИИ по-прежнему совершает "глупые ошибки"

Сегодняшние системы искусственного интеллекта не могут делать предположений относительно ситуаций или информации, с которыми люди сталкиваются ежедневно. Например, камера телефона считывает визуальную информацию в кадре и фокусируется на конкретном объекте с помощью ИИ.

Но различие между белой рубашкой и белой стеной может привести к сбою ИИ, потому что он не распознает другие различия, кроме цвета. Чтобы помочь преодолеть эту проблему, исследователи используют несколько источников обычных знаний, таких как Викиданные, для получения «аргументированного» ответа ИИ.

Филип Илиевски, научный сотрудник Института информационных наук (ISI) USC и организатор симпозиума, разработал программу на основе искусственного интеллекта, используя несколько источников здравого смысла для завершения истории, инициированной человеком. Например, пользователь может ввести: «Я дома и хочу согреться, но одеяла нет», и ИИ ответит: «Используйте куртку». Задача завсегдатаев- научить ИИ не совершать "глупых ошибок".

Нашли нарушение? Пожаловаться на содержание

В каких сферах жизни человек не заменим роботом?
Комментариев 1
Подписаться
Я хочу получать
Правила публикации
0
мне кажется, что робот никогда не научится подтексту и тому смыслу слов, которое иногда вкладывается человеком, например, слово "бабки": вряд ли роботу можно объяснить, почему означает деньги))
Копировать ссылку
Редактирование комментария возможно в течении пяти минут после его создания, либо до момента появления ответа на данный комментарий.