Страх перед восстанием роботов сдерживает развитие искусственного интеллекта

Вокруг темы искусственного интеллекта (ИИ) снова поднялась волна дискуссий. Их цель – помешать человечеству привести себя к апокалипсису в стиле «Терминатора». Однако все это сдерживает научные исследования и разработку новых технологий, что потенциально наносит вред обществу. рискиПотенциальные выгоды от использования искусственного интеллекта, такие как развитие машин и более эффективное производство, смогут революционизировать общество, если только мы сможем побороть свой страх. Об этом говорит директор Microsoft Research Крис Бишоп.роботы

Существуют ли потенциальные риски?

По его словам, общество слишком много внимания обращает на негативные аспекты ИИ, к примеру те, которые были изображены в фильме «Терминатор». Он говорит, что не согласен с громкими заявлениями людей, которые выступают против искусственного интеллекта, хотя признает, что потенциальные риски все же существуют. искуственый интеллект Однако, по словам Бишопа, дело не в истреблении человечества, хотя именно этой версии развития событий чаще всего боятся. Вместо этого искусственный интеллект может развивать потенциально вредные пристрастия.риски

Мнение известных общественных деятелей

Стивен Хокинг и Элон Маск публично признают риски, связанные с развитием искусственного интеллекта. Развитие полного ИИ может означать конец для человеческой расы - такое мнение высказал Хокинг в прошлом году. роботыВ то же время Маск заявляет, что все мы должны быть очень осторожными с искусственным интеллектом. По его словам, именно в ИИ заключается наша самая большая экзистенциальная угроза. Не так давно Билл Гейтс также поддержал эту точку зрения.риски

Однако Бишоп говорит, что разговоры об искусственном интеллекте не помогут, если важные общественные деятели станут увековечивать эти идеи таким образом. Ранее он говорил о том, что Хокинг смотрит далеко в будущее. роботыСам Крис Бишоп утверждает, что очень сложно делать прогнозы того, как будут развиваться технологии в следующие 10 лет. Что уж говорить о 1000-летнем сроке! Очевидно, что человечество столкнется со многими проблемами. Однако те же технологии могут иметь потенциал для решения этих проблем.искуственый интеллект

Роботы-убийцы

Справедливости ради нужно сказать, что боязнь развития ИИ имеет некоторые законные основания. В прошлом месяце увидел свет отчет "Хьюман Райтс Вотч", в котором ООН призывают запретить использовать роботов-убийц на войне, прежде чем они станут нормой.искуственый интеллект В докладе утверждается, что производство военных летательных беспилотных аппаратов, которые способны не только обнаружить, но и убить человека, может быть запущено всего спустя несколько лет. В ООН должны запретить их до того, как начнется их выпуск.

Нашли нарушение? Пожаловаться на содержание

Статья закончилась. Вопросы остались?
Комментарии 0
Подписаться
Я хочу получать
Правила публикации
Редактирование комментария возможно в течении пяти минут после его создания, либо до момента появления ответа на данный комментарий.