Всегда ли искусственный интеллект объективен и хочет угодить человеку, или Как компьютеры принимают странные решения

Искусственный интеллект развивается так быстро, что многие начинают испытывать тревогу: не сможет ли он скоро испытывать эмоции и принимать собственные решения. Будь то бот, автономный автомобиль или лицо, принимающее решения в бизнесе и науке: искусственный интеллект проникает во все сферы нашей жизни и общества. Мозги машины считаются логичными, неэмоциональными и беспристрастными, но практика показывает, что они не всегда все решают непредвзято.

Искусственный интеллект незаменим там, где важно распознавать шаблоны в больших объемах данных и принимать решения на их основе. Но в будущем системы искусственного интеллекта могли бы также использоваться в областях, где наше благосостояние и даже наша жизнь напрямую зависят от выводов – в медицине, в подборе рабочих мест, выдаче кредитов и в правосудии.

Насколько объективно и нравственно правильно принимает решение искусственный интеллект? Можем ли мы действительно доверить машинному мозгу принимать такие потенциально важные решения?

Искусственный интеллект используется во всех сферах

Даже сейчас адаптивные алгоритмы используются во многих областях нашей повседневной жизни. Есть цифровые помощники для понимания голосовых команд и вопросов. В Интернете веб-боты помогают поддерживать и контролировать веб-сайты, так что их трудно отличить от людей. Даже при обнаружении поддельных новостей и манипуляций с изображениями задействованы системы искусственного интеллекта.

Системы ИИ также выполняют свою работу в промышленности, бизнесе и даже правительстве. Они оптимизируют и контролируют производственные процессы, регулируют логистику контейнерных портов и крупных складов или ведут бухгалтерский учет. В страховых компаниях и банках уже есть первые интеллектуальные программы для проверки поданных заявок или принятия решений о выплатах. В Ikea, Deutsche Telekom и многих других компаниях, ЮНИСЕФе или в библиотеках виртуальные помощники занимаются обслуживанием клиентов.

Большой объем данных обрабатывается для обучения

Все это возможно благодаря способности систем ИИ быстро анализировать огромные объемы данных, выявлять закономерности и корреляции. Например, алгоритм учится на бесчисленных фотографиях домашних животных с соответствующими названиями. После периода обучения система может выбирать совершенно новые фотографии нужных видов. Она самостоятельно распознает соответствующие различия.

Многие другие системы ИИ используют тексты в качестве основы для обучения. Они оценивают контекст, в котором стоит слово, и изучают его семантическое значение, а также связи с похожими словами или синонимами. Эти смысловые отношения переводят программы в математические выражения и таким образом изучают даже сложные семантические контексты.

Только благодаря этой способности искусственный интеллект может, например, оценивать медицинские данные и медицинские записи и выводить из них характеристики клинических картинок. На основании этих результатов системы ИИ уже используются в качестве диагностических помощников, они распознают различные виды рака, признаки болезни Альцгеймера, суицидные состояния и опасный уровень сахара при диабете.

Но как бы это ни звучало привлекательно, все больше и больше ИИ имеет большой недостаток. Чем дальше искусственный интеллект проникает практически во все сферы нашего общества, тем больше потенциальные последствия его решений. От его суждения зависит финансовое или профессиональное будущее человека или даже его жизнь.

Решения ИИ, которые могут стоить жизни

Например, если ИИ ставит неправильный диагноз в медицине, не подвергаясь сомнению, пациент может подвергнуться неправильному лечению или даже умереть. Военные используют автономную систему оружия, которая принимает неправильные решения. Например, ИИ не может отличить убегающего друга от врага, невинные погибают.

Алгоритмы ИИ уже используются в судах в США. Они прогнозируют вероятности рецидива для правонарушителей в суде. Их оценка часто влияет на решение суда и, следовательно, на приговор осужденному.

Если ИИ принимает решение о кредитах

Точно так же решение в области финансов и страхования может повлиять, получит человек кредит или нет. Эти системы обычно обучаются с использованием баз данных.

И здесь ИИ ищет закономерности: какие люди обычно возвращают свои кредиты, а какие - нет? Он разрабатывает свои процедуры оценки и принимает соответствующие решения. В частности, это означает, что люди с неправильным местом жительства или родом занятий не будут получать кредиты, независимо от того, насколько они готовы платить, несмотря на эти обстоятельства.

При таком распределении обязанностей с компьютерами, человек будет только помощником по исполнению решений кибермозгов. И это уже происходит.

Кто несет ответственность в случае ошибок?

Еще одна проблема развития ИИ: чем сложнее принципы принятия решений, тем труднее их понять людям. Это также поднимает вопрос о том, кто несет ответственность в случае ошибок.

Участились случаи аварий при управлении автомобилей автопилотом: кто виноват в том, что некоторые ситуации не заложены в память или ИИ делает неправильные выводы. А может, он делает самостоятельные выводы? Уже есть такие примеры.

Играющие боты выработали свои правила в процессе игры

Для этого исследования исследователи позволили 100 умным ботам взаимодействовать друг с другом в игре на уступки. Каждый из них должен решить, жертвуют ли они что-нибудь кому-то из своей команды или участнику игры извне.

Удивительно, но со временем боты стали все больше и больше исключать чужие группы и делать пожертвования только своим членам команды.

Причина этого: умные боты адаптировали свою игровую стратегию, копируя поведение товарищей, которые собрали больше всего денег и были наиболее успешными. Таким образом, появились группы ботов, которые вели себя одинаково и последовательно исключали несвязанных участников игры. Постоянно создавая нечто, что быстрее него считает, анализирует и принимает решения, человечество однажды потеряет контроль над своим творением, за действиями которого не сможет уследить.

По мнению ученых, это очевидно: искусственный интеллект не нуждается в искусственных данных, чтобы быть предвзятым, достаточно иметь вокруг себя другие машины. Потому что даже это может создать групповой разум, который известен из человеческих сообществ. Поэтому, используя ИИ, люди должны оставлять принятие решения за собой.

Комментарии
Думаю-станут