Развитие искусственного интеллекта набирает пугающий темп: почему разработчики выражают опасения по этому поводу

Технологический прогресс не стоит на месте. За последние 100 лет человечество сделало настолько большой шаг, что все предыдущие поколения удивленно воскликнули бы. Казалось бы, поводов для радости неимоверно много. Но только вот одна загвоздка: ученые беспокоятся о том, что прогресс развивается слишком быстро. Давайте узнаем, почему искусственный интеллект, или ИИ, вызывает столько тревог у ведущих разработчиков.

Прогресс, который не только удивляет, но и пугает

Большинство людей могут прожить всю жизнь и даже не узнать, насколько сильно изменился наш мир. Чтобы понять, как далеко человечество продвинулось с развитием ИИ, подумайте о том, когда впервые были изобретены автомобили.

Представьте Дикий Запад или Русь, где люди ездили на лошадях налево и направо, без стоп-сигналов и ремней безопасности. Меры безопасности на дорогах были предприняты гораздо позже - когда стало происходить множество аварий.

Сегодня благодаря ИИ были разработаны беспилотные автомобили, которые могут сократить число ДТП до минимума. Машины попросту умеют коммуницировать друг с другом, выстраивая безопасный маршрут и реагируя на внезапные препятствия, которые и создают аварийные ситуации на дорогах.

Тем не менее люди продолжают переживать по поводу искусственного интеллекта. Они задаются вопросом: а что будет, когда технологии дойдут до тех сфер, где необходимо принятие человеческих решений? Смогут ли ИИ полностью вытеснить людей, которые отвечают за наем кандидатов, обучение работников, продвижении компании?

Первая причина: заменят ли роботы людей

Первая причина, по которой ученые переживают из-за быстрого развития искусственного интеллекта: алгоритмы уже достигли такого прогресса, что могут диагностировать заболевания и даже решать, кто получит кредит, а кто - нет.

Но сторонники этого прогресса только рады, ведь принятие человеческих решений порой требует мужества, ораторского искусства и понимания людской психологии. Здесь всегда есть темная сторона. Ведь представьте, каково это - решать, кого осудить, а кому дать досрочное освобождение. Или сообщить о смерти родственника, уволить некомпетентного сотрудника, который находится в тяжелом жизненном положении.

В идеальном мире нам не придется думать о темной стороне. Машины все сделают за нас хотя бы потому, что они будут намного умнее и менее предвзятыми, чем люди.

Вторая причина: машинами можно манипулировать

Робот София в одном из интервью рассказала: “Вы слишком много читаете Илона Маска и смотрите голливудские фильмы. Если вы будете добры ко мне, я буду добра к вам. Относитесь ко мне как к умной системе ввода-вывода”.

Но поскольку разработка начинается с людей и приложения используются непосредственно ими, то данными, поступающими в машину, можно манипулировать.

Еще один страх ученых: данные ИИ могут быть ошибочными. Особенно это опасно в медицинской сфере. ИИ попросту может обмануть пациента и определить ложный диагноз, особенно если врач-человек или больница в целом изменили данные для собственной выгоды. Именно поэтому разработчики должны в первую очередь отвечать за безопасность информации и разработать меры защиты.

ИИ и хитрая природа человеческого языка

Компания Google сотрудничает с Jigsaw, которая столкнулась с большой проблемой при разработке искусственного интеллекта. Инженер-программист Люси Вассерман работает над перспективой машинного обучения, которая предсказывает “токсичность” языка. Но что это значит?

Смысл данной функции заключается в том, что робот будет анализировать тексты с веб-сайтов и интернет-форумов, которые содержат оскорбительный контекст, а также атаку на личность, унижение или агитацию.

Это входит в модель машинного обучения, которая называется нейронной сетью. Она изучает слова, предложения и абзацы, и учится предсказывать, что токсично, а что, напротив, имеет положительный контекст.

Самая сложная часть в этом - учитывать все нюансы. Человек может прочитать предложение и из контекста понять, было ли то или иное слово оскорбительным. Вассерман привела пример на слове “гомосексуалист” и его словоформах, которые являются более унизительным и задевающим чувства.

Третья причина: роботы могут мыслить однобоко

Очередной страх ведущих разработчиков: искусственный интеллект пока не умеет анализировать фразы и предложения, поэтому может посчитать какое-то слово оскорбительным, предприняв “суровые” меры. Машина должна научиться читать между строк буквально.

Разработчики видят смысл в экспериментах с открытым исходным кодом. Они думают, что это действительно важно, если человечество хочет получить справедливых роботов.

Но пока что сегодня заставить искусственный интеллект подстроиться под человеческий мир невозможно. Предстоит еще много работы.

То, что роботы могут не быть справедливыми - действительно пугает. Иначе как в будущем им доверить разрешение споров и конфликтов?

Принцип работы искусственного интеллекта пока что довольно-таки прост и напоминает улучшенный ПК. Хороший пример - голосовые помощники, как Алиса и Сири. Сегодня они работают так: “Раз стоп-слово находится в тексте, значит, оно непременно является оскорбительным”.

А должно быть так: “А какие слова находятся рядом с унизительным? Я считаю, что смысл предложения сильно изменился, даже при наличии чего-то оскорбительного”.

Четвертая причина: руководство по этике

ИИ должен быть ориентирован на человека и разрабатываться таким образом, чтобы в его “прошивке” было понимание этичности. Но что это значит?

  • Во-первых, этика основывается на фундаментальных правах, общественных ценностях и принципах благотворительности (доброта в целом).
  • Во-вторых, машины не должны причинять вреда автономии человека, испытывать чувство справедливости.

Очередной страх разработчиков: искусственный интеллект, когда достигнет пика своего развития и сможет не зависеть от поддержки людей, обратится против человечества.

Все зависит от разработчиков. Они могут направить работу искусственного интеллекта, чтобы бороться с преступностью. Например, находить тех, кто распространяет детскую порнографию.

Важно установить функции безопасности, прежде чем ИИ выйдет из под контроля человека. А он выйдет однозначно, ведь в этом и смысл.

Роботы должны быть близки к людям

Иными словами, если кто-то собирается доверять решению, принятому машиной, оно должно соответствовать человеческим критериям. Именно поэтому разработчики должны убедиться, что каждое решение, принятое алгоритмом, справедливо. Для ученых цель состоит не в том, чтобы создать альтернативную форму интеллекта, а в том, чтобы помочь людям развиваться.

В конце концов, большинство людей согласны, что благодаря ИИ наступит прекрасный новый мир.

Пятая причина: война против человечества

Самая большая вещь, которая не дает спать разработчикам по ночам, - попытка понять бесконечные возможности и влияние этой технологии на здравоохранение, образование и работу с клиентами. Когда ИИ выйдет за рамки “проекта” и перейдет, наконец, в производство, то оно окажет реальное социальное влияние.

Каждый из разработчиков считает, что мы находимся в точке перегиба между человеческим и цифровым миром. Но ИИ не сможет в одиночку изменить нашу жизнь. Люди должны измениться сами в первую очередь, чтобы реализовать весь потенциал интеллекта.

То, что люди боятся ИИ - не удивительно. Но они не смогут поработить или уничтожить тех, кто разделяет с ними единую цель - развиваться и добиваться прогресса. Когда люди осознают, что должны мыслить не как животные, а как высшие существа, то никакие роботы не будут страшны.

Нашли нарушение? Пожаловаться на содержание

А как вы считаете, захватит ли ИИ человечество и поработит ли его?
Комментарии 0
Подписаться
Я хочу получать
Правила публикации
Редактирование комментария возможно в течении пяти минут после его создания, либо до момента появления ответа на данный комментарий.