Проблема социальной справедливости искусственного интеллекта: он усиливает человеческие предубеждения

Внедрение технологий искусственного интеллекта во многих сферах облегчило задачи принятия решений. Хотя ИИ по-прежнему имеет вполне определенные ограничения в плане реализации как аналога человеческого мозга, это не мешает пользоваться доступными возможностями. И они впечатляют, если взглянуть на работу внутренних механизмов. Но вместе с технологической эффективностью применения ИИ есть и другая сторона. Такие системы не просто наследуют, а иногда и усиливают роль человеческих предубеждений в принятии решений. Как результат, практика их использования повышает уровень социальной несправедливости.

Ценность искусственного интеллекта

На современном этапе технологического развития системы ИИ достигли уровня, когда их возможности анализа и обработки данных способны заменять человеческие по некоторым параметрам. Грубо говоря, компьютер не может решать узкоспециализированные задачи, в том числе требующие творческого мышления и креатива, но ему под силу делать выводы и принимать на их основе решения. Причем в отличие от людей ИИ делает это быстро и на основе обширного массива входных данных. В итоге работу, которую мог бы выполнить человек за недели и месяцы, машина делает за минуты.

Алгоритмы принятия решений

Типичный алгоритм в системе машинного обучения основывается на элементарной логике, принцип которой заложен в основу программы принятия решений. Например, в базе знаний присутствует набор критериев определения того или иного животного – скажем, собаки. Компьютер «знает», что у животного должен быть хвост, лапы, уши, определенные параметры туловища, что оно умеет издавать характерные звуки. На основе входных визуальных и аудиоданных компьютер выполняет анализ на сопоставление объекта и делает выводы о его принадлежности к целевому животному.

И все бы ничего, однако при решении более сложных и ответственных задач в такие алгоритмы нередко интегрируются критерии оценки с социальными предубеждениями относительно тех или иных групп.

Актуальная проблематика

На усиление социальной несправедливости ИИ указала Шалини Кантайя, американский режиссер и общественный активист. Ее обеспокоили алгоритмы, по которым системы машинного обучения принимают важные для общества решения.

В своем документальном фильме об ИИ под названием Coded Bias Кантайя рассматривает сферы применения алгоритмов машинного обучения в области образования, финансов, медицины и др. Например, сегодня ИИ может анализировать, кому лучше предоставить социальную помощь, кто поступит в университет, как эффективнее распределить финансовую поддержку бизнеса, кто более склонен совершать те или иные преступления и т. д.

Кантайя отмечает, что новые исследования данных алгоритмов выявляют фактор наличия предубеждений, которые лежат в основе неравенства и социальной несправедливости внутри общества. В частности, это касается женщин и темнокожих людей.

Алгоритмы сегодняшнего дня

Как подчеркивает Кантайя, подобные механизмы принятия решений не являются практикой далекого будущего. Они уже работают в современном обществе, и для многих компаний вопрос об их применении решен. Но есть и передовые корпорации, которые также выявили недостатки ИИ в определенных сферах применения и отказались от них. Например, это касается механизма анализа кандидатов на рабочие места. Система ИИ анализирует резюме, в том числе отталкиваясь от портретов входящих в штат сотрудников. Если большинство из них мужчины, то у женщины изначально будет меньше шансов на трудоустройство. И это лишь один из примеров того, как прямо сейчас компьютеры усиливают действие гендерных и расовых предрассудков на практике.

Нашли нарушение? Пожаловаться на содержание

А как вы относитесь к практике внедрения искусственного интеллекта?
Комментарии 0
Подписаться
Я хочу получать
Правила публикации
Редактирование комментария возможно в течении пяти минут после его создания, либо до момента появления ответа на данный комментарий.