"А если бы, то...": что такое контрфактический подход и как он поможет нам понять работу искусственного интеллекта

Искусственный интеллект все более уверенно входит в жизнь людей. Подобные сети сегодня используются в банках, при постановке медицинских диагнозов, поисках преступников и пр. Тем не менее ИИ для специалистов разных областей остается своего рода «черным ящиком», поскольку никто толком не знает, как он работает.

Между тем в развитии ИИ существует целая философия. Есть также идея, называемая контрфактическим объяснением, способная приоткрыть «черный ящик» и сделать работу ИИ более понятной для обычных людей.

Почему важны объяснения

Когда ИИ используется для принятия судьбоносных решений, люди, безусловно, должны знать, как именно было принято это решение. Это признают, в том числе и специалисты, ответственные за процессы, происходящие в социуме.

ИИ еще несовершенен и может давать сбои. В качестве примера можно привести случай в Австралии, когда ИИ поручили прогнозировать уровни долгов для лиц, получающих социальное пособие. Выполняя эту работу, машина допустила много ошибок. Многие люди были загнаны в долги, и чтобы решить проблему, пришлось собирать королевскую комиссию.

Объяснить, почему алгоритм принял именно такое решение, тогда удалось. Однако ИИ становится все сложнее и дать объяснение его решениям не представляется зачастую возможным уже сегодня.

Контрфактический подход

При использовании котрфактического метода сложная система остается не вскрытой. Но при этом изучаются ее входы и выходы. Контрфактом, как известно, называется утверждение о том, что произошло бы, если бы обстоятельства сложились иначе. В контексте ИИ это означает рассмотрение того, как выходные данные ИИ могут отличаться, если машина получит разные входные данные.

К примеру, банк передает своей системе ИИ информацию о женщине, решившей взять кредит. Исходя из этого, банк вычисляет, что наименьшее изменение, которое нужно внести женщине в свою жизнь для получения займа — это увеличить свой доход. Возможность такого контрфактуального объяснения многими рассматривается, как приемлемое.

Однако, как утверждают исследователи, оно может считаться неадекватным. Ведь со стороны банка может быть ошибкой сообщить женщине о том, что ей отказано в кредите в связи с низким доходом. Женщина может вполне обоснованно признать такое решение неадекватным.

Отсутствие адекватных объяснений же грозит существенным увеличением несправедливости, с которой столкнутся люди. Не зная о причинах ошибок ИИ, нельзя будет их и исправить. К счастью, на помощь может придти философия.

Философия

Как известно, за века философы разработали ряд методов извлечения объяснительной информации из моря корреляций, а также разработали сложные теории о том, как работает объяснение.

Опираясь на философские идеи, человечество в конечном итоге сможет разработать более сложные и эффективные подходы к объяснимой нейросети. К сожалению, пока между философией и информатикой по этой теме существует не слишком много совпадений. Чтобы бороться с несправедливостью, людям потребуется боле комплексный подход, объединяющий работу в этих областях.

Нашли нарушение? Пожаловаться на содержание

Как вы считаете, получится ли у человечества найти решение и не опускать того, чтобы ИИ делал ошибки?
Комментарии 0
Подписаться
Я хочу получать
Правила публикации
Редактирование комментария возможно в течении пяти минут после его создания, либо до момента появления ответа на данный комментарий.