Искусственный интеллект все более уверенно входит в жизнь людей. Подобные сети сегодня используются в банках, при постановке медицинских диагнозов, поисках преступников и пр. Тем не менее ИИ для специалистов разных областей остается своего рода «черным ящиком», поскольку никто толком не знает, как он работает.
Между тем в развитии ИИ существует целая философия. Есть также идея, называемая контрфактическим объяснением, способная приоткрыть «черный ящик» и сделать работу ИИ более понятной для обычных людей.
Почему важны объяснения
Когда ИИ используется для принятия судьбоносных решений, люди, безусловно, должны знать, как именно было принято это решение. Это признают, в том числе и специалисты, ответственные за процессы, происходящие в социуме.
ИИ еще несовершенен и может давать сбои. В качестве примера можно привести случай в Австралии, когда ИИ поручили прогнозировать уровни долгов для лиц, получающих социальное пособие. Выполняя эту работу, машина допустила много ошибок. Многие люди были загнаны в долги, и чтобы решить проблему, пришлось собирать королевскую комиссию.
Объяснить, почему алгоритм принял именно такое решение, тогда удалось. Однако ИИ становится все сложнее и дать объяснение его решениям не представляется зачастую возможным уже сегодня.
Контрфактический подход
При использовании котрфактического метода сложная система остается не вскрытой. Но при этом изучаются ее входы и выходы. Контрфактом, как известно, называется утверждение о том, что произошло бы, если бы обстоятельства сложились иначе. В контексте ИИ это означает рассмотрение того, как выходные данные ИИ могут отличаться, если машина получит разные входные данные.
К примеру, банк передает своей системе ИИ информацию о женщине, решившей взять кредит. Исходя из этого, банк вычисляет, что наименьшее изменение, которое нужно внести женщине в свою жизнь для получения займа — это увеличить свой доход. Возможность такого контрфактуального объяснения многими рассматривается, как приемлемое.
Однако, как утверждают исследователи, оно может считаться неадекватным. Ведь со стороны банка может быть ошибкой сообщить женщине о том, что ей отказано в кредите в связи с низким доходом. Женщина может вполне обоснованно признать такое решение неадекватным.
Отсутствие адекватных объяснений же грозит существенным увеличением несправедливости, с которой столкнутся люди. Не зная о причинах ошибок ИИ, нельзя будет их и исправить. К счастью, на помощь может придти философия.
Философия
Как известно, за века философы разработали ряд методов извлечения объяснительной информации из моря корреляций, а также разработали сложные теории о том, как работает объяснение.
Опираясь на философские идеи, человечество в конечном итоге сможет разработать более сложные и эффективные подходы к объяснимой нейросети. К сожалению, пока между философией и информатикой по этой теме существует не слишком много совпадений. Чтобы бороться с несправедливостью, людям потребуется боле комплексный подход, объединяющий работу в этих областях.
Нашли нарушение? Пожаловаться на содержание