Ученые и инженеры предупреждают о вреде искусственного интеллекта

Открытое письмо, в котором призывают к осторожному обращению с искусственным интеллектом, подписало огромное количество людей, в том числе и ведущие исследователи и ученые в этой области. Авторы считают, что искусственный интеллект не должен выходить за пределы нашего контроля.

Опасения, связанные с искусственным интеллектом

Такие фильмы, как «Терминатор», дают нам полное представление о том, что случится, когда роботы перестанут выполнять наши команды. Поэтому опасения многих людей, и ученых в том числе, нельзя назвать необоснованными. Учитывая темпы развития компьютерных технологий, мы все ближе подходим к точке, когда придется решать эти вопросы.

В декабре Стивен Хокинг дал старт новой волне обсуждений вокруг этой темы. Учитывая то, что способности Хокинга к общению зависят от передовых компьютерных технологий, его вряд ли можно причислить к луддитам, но его мысли, несомненно, привлекают внимание.

Письмо было инициировано Институтом будущей жизни – это добровольная организация, которая описывает свои задачи как «смягчение экзистенциальных рисков, стоящих перед человечеством».

О чем идет речь в письме

В открытом письме отмечается, что существует возможность в этих областях переступить порог, отделяющий лабораторные исследования и развитие экономически ценных технологий, хотя даже незначительные улучшения в производительности стоят огромных денег. Это становится причиной увеличения инвестиционных потоков в исследования. В настоящее время становится понятным, что исследование искусственного интеллекта неуклонно прогрессирует, и его воздействие на общество, скорее всего, увеличится. Потенциальные выгоды огромны, так как все, что может предложить цивилизация, является продуктом человеческого разума. Мы не в состоянии предсказать, чего сможем достичь, если станем использовать искусственный интеллект, но искоренение болезней и бедности не является чем-то непостижимым. Учитывая большой потенциал искусственного интеллекта, важно понять, как воспользоваться его преимуществами, избегая потенциальных ловушек.

Авторы добавляют, что наши системы искусственного интеллекта должны делать только то, что мы хотим от них получить, и не приносить при этом вред людям. Также в письме изложены приоритетные направления исследований, которые, по мнению авторов, могут принести максимальные блага для общества.

Возможно, вам стоит присоединиться?

Любой желающий может подписать это письмо, и тысячи людей уже сделали это. Хотя многие подписавшие являются обычными людьми, но такие имена, как Элон Маск и сам Хокинг, легко узнаваемы. Многие другие имена в списке - ведущие исследователи в сфере IT и философии, в том числе и команда IBM.

Комментарии