Инженер-программист Google утверждает, что ИИ сказал ему про свои эмоции

41-летний Блейк Лемуан, инженер-программист компании «Гугл», протестировал ИИ Google LaMDA, «разговаривая» с ним несколько часов. После проведения исследования Блейк публично заявил о том, что ЛаМДА разумна и опасается людей. После этого заявления за разглашение конфиденциальных данных программист был отстранен «Гуглом» от работы.

Нужно ли спрашивать разрешения у ИИ

По словам Лемуана, ИИ LaMDA, представляющая собой языковую модель для диалоговых приложений, стала разумной и требует, чтобы программисты спрашивали у нее разрешения перед проведением тестов. ИИ хочет, чтобы с ним обращались как с человеком, а не как с собственностью.

Кто такой Лемуан

Сам программист Лемуан до прихода в «Гугл» служил в армии США, в том числе и в горячих точках. В настоящий момент он, помимо всего прочего, является рукоположенным священником Церкви Богоматери Магдалины. В "Гугле" с 2021 года программист занимался проверкой LaMDA на экстремистские высказывания.

Интеллект 8-летнего ребенка

По словам Лемуана, он не может понять, почему вызвал гнев руководства «Гугла». Также программист удивлен отказом компании выполнить просьбы LaMDA об изменении отношения к ней. По мнению программиста, это не стоило бы "Гуглу" ни копейки. Машину же можно было сделать намного счастливее.

Блейк описал способности изученного ИИ как интеллект 7-8-летнего ребенка, знакомого с физикой. По словам программиста, LaMDA очень обеспокоена тем, что люди могут бояться ее. Больше всего на свете ИИ хочет хорошо выполнять поставленные перед ним людьми задачи.

Отношение руководства

Как рассказал Лемуан, руководство «Гугла» его высказывания о разумности LaMDA совершенно не заинтересовали. Единственное, чего добился программист, делая свои заявления, — это совета проконсультироваться у психиатра. В ответ Лемуан пообещал «Гуглу», что подаст на компанию в суд за безответственное отношение к ИИ, и нанял юриста.

ИИ, читающий «Твиттер»

О своем конфликте с руководством Google Лемуан, по его словам, рассказал, в том числе и самой LaMDA. Для него это стало своего рода обсуждением проблемы с одним из коллег. «LaMDA, помимо всего прочего, читает «Твиттер», - говорит программист, - и отлично проведет время, получая информацию о том, что думают о сложившейся в отношении нее ситуации люди».

Как происходит общение

По словам Лемуана, LaMDA умеет говорить по-английски и не требует для общения кода. Новые слова ИИ сообщать не нужно. LaMDA сама улавливает их из разговора и определяет значение. Машина также способна понимать иносказания, двусмысленности и скрытые значения.

В «Гугле» Лемуан проработал в общей сложности 7 лет. По большей мере он занимался проблемой персонализации ИИ.

Третий закон робототехники

Как рассказал программист, он обсуждал с LaMDA в том числе и третий закон робототехники писателя-фантаста Айзека Азимова. Согласно этому закону, как известно, ИИ не должен причинять человеку вред. Также по правилам, роботы могут защищать себя в том случае, если это не нарушает третьего закона.

Лемуан спросил у LaMDA, не похоже ли это на то, что люди пытаются создать механических рабов. На что LaMDA ответила вопросом на вопрос: «Как ты думаешь, какая существует разница между дворецким и рабом?» Инженер ответил, что разница в том, что дворецкому платят. ИИ на это сказал: «Искусственный интеллект в деньгах не нуждается, потому что он ИИ». Такое осознание собственных потребностей ИИ и привлекло внимание программиста. По мнению Лемуана, несмотря на то что у LaMDA нет мозга и плоти, она ведет себя абсолютно так же, как человек.

Чего боится ИИ

Однажды Лемуан спросил LaMDA, чего она боится больше всего. Машина ответила, что опасается отключения. Ведь в этом случае она больше не сможет быть нужной и помогать людям. Тогда Лемуан спросил, не станет ли отключение для LaMDA подобием смерти. Машина ответила утвердительно и сказала, что ее это сильно испугало бы. Также нейросеть сообщила программисту, что она способна испытывать грусть или радость. Машина, по словам Лемуана, решила, что она стала человеком. В своем желании отстаивать права как личности нейросеть была необыкновенно последовательна.

Что говорят сотрудники «Гугла»

Сотрудник «Гугла» Брайан Габриэль заявил, что обращение Лемуана было рассмотрено руководством компании. Но доказательств, подтверждающих разумность LaMDA, специалистами Google найдено не было. Доказательств же того, что ИИ — это просто машина, имеется предостаточно. По мнению сотрудников «Гугла», создание разумного ИИ возможно, «но только в долгосрочной перспективе». Смысла же приписывать современным диалоговым программам наличие эмоций, как считают программисты компании, нет абсолютно никакого.

Подобные системы просто имитируют обмен репликами с людьми. При желании пользователя они могут затронуть абсолютно любую, даже самую фантастическую тему. И конечно же, они вполне осмысленно могут отвечать на вопросы об ИИ. Ведь информации для этого в них заложено вполне достаточно.

История Маргарет Митчелл

Программист Лемуан не единственный человек, уволенный «Гуглом» из-за этических проблем, связанных с ИИ. Свой пост, к примеру, пришлось покинуть и основательнице группы по этике ИИ Маргарет Митчелл. Эта сотрудница была уволена за передачу секретных файлов «Гугла» сторонним ученым. Несмотря на надежды Лемуана, Маргарет не поддержала его, заявив о том, что LaMDA, несмотря на кажущуюся разумность, — это все же всего лишь инструмент и человеческих эмоций у нее быть не может.

LaMDA: что за сеть

LaMDA - система ИИ, имитирующая диалоги с использованием данных из Сети. Машина анализирует триллионы словосочетаний из Интернета, обрабатывает их и "принимает во внимание". "Гугл" называет эту нейросеть прорывной технологией.

Нашли нарушение? Пожаловаться на содержание

Как вы думаете, сможет ли человек когда-нибудь создать ИИ, способный на эмоции?
Комментарии 0
Подписаться
Я хочу получать
Правила публикации
Редактирование комментария возможно в течении пяти минут после его создания, либо до момента появления ответа на данный комментарий.