Ученые и инженеры предупреждают о вреде искусственного интеллекта
Открытое письмо, в котором призывают к осторожному обращению с искусственным интеллектом, подписало огромное количество людей, в том числе и ведущие исследователи и ученые в этой области. Авторы считают, что искусственный интеллект не должен выходить за пределы нашего контроля.
Опасения, связанные с искусственным интеллектом
Такие фильмы, как «Терминатор», дают нам полное представление о том, что случится, когда роботы перестанут выполнять наши команды. Поэтому опасения многих людей, и ученых в том числе, нельзя назвать необоснованными. Учитывая темпы развития компьютерных технологий, мы все ближе подходим к точке, когда придется решать эти вопросы.
В декабре Стивен Хокинг дал старт новой волне обсуждений вокруг этой темы. Учитывая то, что способности Хокинга к общению зависят от передовых компьютерных технологий, его вряд ли можно причислить к луддитам, но его мысли, несомненно, привлекают внимание.
Письмо было инициировано Институтом будущей жизни – это добровольная организация, которая описывает свои задачи как «смягчение экзистенциальных рисков, стоящих перед человечеством».
О чем идет речь в письме
В открытом письме отмечается, что существует возможность в этих областях переступить порог, отделяющий лабораторные исследования и развитие экономически ценных технологий, хотя даже незначительные улучшения в производительности стоят огромных денег.
Авторы добавляют, что наши системы искусственного интеллекта должны делать только то, что мы хотим от них получить, и не приносить при этом вред людям. Также в письме изложены приоритетные направления исследований, которые, по мнению авторов, могут принести максимальные блага для общества.
Возможно, вам стоит присоединиться?
Любой желающий может подписать это письмо, и тысячи людей уже сделали это. Хотя многие подписавшие являются обычными людьми, но такие имена, как Элон Маск и сам Хокинг, легко узнаваемы. Многие другие имена в списке - ведущие исследователи в сфере IT и философии, в том числе и команда IBM.