10 влиятельных женщин-лидеров рассказали, какие действие должно предпринять человечество для безопасного использования искусственного интеллекта

Мнение о потенциальной опасности искусственного интеллекта не раз высказывали такие известные личности, как физик Стивен Хокинг, Илон Маск, Билл Гейтс. При этом все понимают, что сам ИИ может существенно упростить жизнь людей, и положительные аспекты могут превысить опасности, если им правильно управлять.

Последние достижения в этой области привели к созданию сверхинтеллектуальных машин намного раньше, чем это ожидалось. И темпы прогресса нарастают по экспоненте. Илон Маск считает, что в течение ближайших 5-10 лет может произойти что-то серьезно опасное.

Вопрос безопасности ИИ стал актуальным.

Прикладной искусственный интеллект

Сегодня прикладной ИИ выполняет узкие задачи:

  • распознавание лиц;
  • обработка и перевод текстов;
  • поиск контента в интернете.

Специалисты в работают над созданием общего искусственного интеллекта, в котором системы могли бы справиться с любой задачей быстрее и качественнее, чем это делает человек.

Чем опасен ИИ

Любая мощная технология может быть использована как во благо, так и во вред человечеству. Исторические факты свидетельствуют, что, когда великое изобретение попадает не в те руки, зло обычно преобладает.

Сейчас люди находятся на ранних стадиях развития ИИ и пока больше думают о потенциальных преимуществах его использования. Но уже столкнулись с тем, что террористы используют некоторые новшества для своих целей.

Правовые, политические, социальные и финансовые вопросы, регулирующие сферу использования ИИ, настолько сложны и широки, что он уже сейчас может представлять опасность. И о мерах минимизации его разрушительного потенциала следует думать уже сейчас.

Автономное оружие

ИИ, запрограммированный убивать, может представлять риски. Очевидно, в ближайшем будущем гонка ядерных вооружений сменится глобальной гонкой автономных вооружений. Правителем мира станет лидер в этой сфере.

Есть риск, что автономное оружие обретет "свой разум". Есть риск, что управлять им будет правительство, которое в принципе не ценит человеческую жизнь. Бороться с таким вооружением после его развертывания будет очень сложно.

Социальные манипуляции

Медиа со своими алгоритмами очень эффективны в целевом маркетинге. Анализируя профили пользователей, они хорошо знают, что думают люди и что им нравится. Достаточно вспомнить расследование в отношении компании "Кембридж аналитика", которая использовала данные 50 млн пользователей Facebook, чтобы повлиять на исход президентских выборов в США в 2016 году и референдума о Brexit в Великобритании.

Вторжение в частную жизнь

Уже сейчас можно отслеживать и анализировать каждый шаг человека в интернете и реальной жизни. Камеры отслеживают практически все, алгоритмы распознавания лиц работают. На основе этой информации Китай собирается ввести социальную кредитную систему.

Рейтинг каждого жителя страны будет зависеть от того, как он переходит улицу, курит ли в неположенных местах, сколько времени играет в видеоигры. Словом, Большой Брат следит за всеми и принимает решения по результатам слежки.

Подобное вторжение в частную жизнь может быстро перерасти в форму социального угнетения.

Язык человека и машины

Машины с ИИ обычно эффективны. Но в случае с голосовым управлением ими может возникнуть конфликт целей человека и машины. Примитивный пример: человек куда-то опаздывает и дает команду доставить его в пункт А побыстрее. В силу своего мышления он полагает, что правила дорожного движения должны соблюдаться, и особо это не оговаривает.

Машина может доставить человека в нужное место с десятком нарушений ПДД, если в ее алгоритме есть какой-то сбой.

Дискриминация

Сбор и анализ информации о населении планеты может поставить человека в прямую зависимость от результатов этого анализа. К примеру, страховые компании не заключат страховку, потому что камеры несколько раз зафиксировали, как человек разговаривал по телефону за рулем.

Мнение женщин

Журнал Authority провел серию интервью с женщинами – лидерами в области искусственного интеллекта из разных фирм. Журналистов интересовало их мнение по этому поводу, что следует предпринять, чтобы не допустить такого, и как успокоить общественность. Вот некоторые ключевые ответы.

Анна Бетке из компании Intel считает, что большая опасность исходит от людей, способных использовать ИИ против человечества, чем от самого ИИ. Люди не должны исключать возможность самосознательного злонамеренного ИИ, но вероятность создания такового людьми значительно выше. Важно отслеживать мнения пользователей, чтобы вовремя исправить любое неблагоприятное поведение или немедленно, или в пакетных обновлениях.

Каролина Барсенас из компании Visa считает, что современная инновационная эпоха чем-то напоминает промышленную революцию. Она признает, что любая технология в злонамеренных руках может стать разрушительной. Чтобы этого избежать, необходимо эффективное регулирование использования ИИ.

Татьяна Меджа из компании Adobe уверяет, что сама по себе технология нейтральна. ИИ - это инструмент, который служит создателю и уважает потребителя, обеспечивая конфиденциальность данных.

Мари Хагман из компании Zillow верит, что выгоды будут намного превышать риски. Но необходимо внедрять меры безопасности и более оперативно разрабатывать и обновлять государственную политику, способствующую снижению этих рисков. Должны быть лидеры, которые информированы и приоритетно защищают от угроз, создаваемых ИИ. Государственная политика медленно догоняет технологии.

Мадлен Даяну из компании Intuit ожидает, что дискуссии о безопасности будут усиливаться по мере развития технологий. Современные системы искусственного интеллекта очень ограничены. Никто не знает, что может повлечь за собой создание сверхразума, и очень сложно определить, как исключить любой потенциальный вред.

Дорис Янг из компании Blackberry Cylance считает, что состояние ИИ зависит от людей. Роботы не собираются захватить мир завтра. Но даже сегодня уже остро стоит вопрос о конфиденциальности и прозрачности. Надо разрабатывать модель ответственного управления ИИ, определять основные границы допустимого и сохранять бдительность, чтобы технологии и другие субъекты не посягали на них.

Марина Арнаут из Microsoft считает, что ИИ обладает многими преимуществами. Продвинутый ИИ может оказать значительное экономическое воздействие. Его можно запрограммировать на разрушение, и это глобальная проблема. Лидеры из различных политических систем должны объединиться, чтобы обеспечить симметрию в этике, защите данных и руководящих принципах с полной прозрачностью для общественности.

Елена Ферсман из компании Ericsson считает, что каждая новая технология несет в себе угрозу. Хотя ИИ особенный, поскольку он саморазвивающийся, люди должны иметь жесткие условия или границы, ограничивающие его. Они должны взять на себя ответственность и диктовать правила игры, которые никогда не должны нарушаться этими алгоритмами.

Чао Хань из компании Lucidworks говорит, что наибольшую обеспокоенность вызывает злоупотребление ИИ антиобщественными группами в областях разработки оружия или редактирования генов. Современный ИИ не обладает способностью к самообучению и не способен вредить людям. Такие модели поведения возможны, если их тщательно не контролировать в будущем.

Трисала Чандария из компании Temboo уверена, что все технологии предоставляют возможности, но могут представлять опасность для человечества. Такова их природа. Автомобиль когда-то тоже считали опасным. Но люди разработали меры их безопасного применения. Аналогичный подход требуется и к технологиям искусственного интеллекта: разработать меры безопасности, соответствующую инфраструктуру, законы и многое другое. Их разработке надо уделить приоритетное внимание уже сейчас.

Нашли нарушение? Пожаловаться на содержание

Риски есть, и со временем их станет больше. А что вы думаете по этому поводу?
Подписаться
Я хочу получать
Правила публикации
Следят за новыми комментариями — 8
Редактирование комментария возможно в течении пяти минут после его создания, либо до момента появления ответа на данный комментарий.