Самые необычные и мрачные сценарии развития ИИ в будущем

Появление искусственного интеллекта (ИИ) произошло так быстро, словно случилось за одну ночь. А ведь только год назад в диковинку были генераторы изображений с ИИ, а чат-боты с ИИ не могли создавать связные предложения. Сегодня целые статьи могут быть написаны с помощью ИИ. Изучая такое стремительное развитие, аналитики предполагают, что сценарии будущего развития ИИ будут лишены оптимизма.

Дипфейки могут привести к политической дезинформации

Доступные в настоящее время модели ИИ могут реалистично генерировать любое изображение или голос и все чаще способны создавать целые видеоклипы. Это только вопрос времени, когда злоумышленники воспользуются этими возможностями, чтобы оклеветать высокопоставленных лиц.

Дипфейки могут привести к международному конфликту

Дипфейки можно использовать для самых разных целей, включая фальсификацию приказов военных лидеров, сея замешательство среди населения и даже придавая легитимность войнам и восстаниям. ИИ совершенствуется с каждым годом, и, если сегодня опытный пользователь ПК может отличить дипфейк от реального видео, то уже через несколько лет это, возможно, смогут сделать лишь некоторые люди или только специальные программы.

Правоохранительные органы могут использовать ИИ для круглосуточного наблюдения за гражданами

В фильме «Особое мнение» полицейский участок арестовывает людей до совершения преступления, полагаясь на существ, которые могут видеть будущее. Кажется само собой разумеющимся, что такой сценарий был бы ужасающим с этической точки зрения и привел бы ко многим неправомерным арестам. Но развитие ИИ может сделать эту утопическую выдумку вполне реальной уже через несколько лет. Даже сегодня правоохранительные органы используют программы, где хранится информация о человеке, который раньше привлекался, а также программы распознавания лиц.

Эти уже существующие инструменты могут легко привести к чрезмерному полицейскому контролю, более высокому уровню досудебного задержания и более суровым приговорам.

Предвзятость в моделях ИИ может привести к развитию социального неравенства

В 2014 году Amazon создала инструмент искусственного интеллекта для помощи в найме сотрудников. У программы была простая задача: рассмотреть заявления о приеме на работу и выбрать лучших кандидатов. Но к 2015 году гигант электронной коммерции понял, что программа ориентирована на кандидатов-мужчин. Она понижала рейтинг резюме, содержащих слово «женщины», наряду с любыми школами, которые исторически были женскими колледжами. Проблема заключалась в том, что в Amazon, как и в большей части технологической индустрии, уже было большинство сотрудников-мужчин. Когда ИИ обучился на существующем наборе сотрудников, он научился отдавать предпочтение кандидатам-мужчинам. Amazon закрыл программу в 2018 году.

Неудавшийся проект ИИ с наймом иллюстрирует, что человеческие предубеждения влияют на алгоритм программы в процессе ее обучения. Дискриминация — одна из самых больших и наиболее хорошо известных опасностей, и ее, как известно, трудно избежать. Такие компании, как OpenAI, пытались решить эту проблему, оснастив ChatGPT правилами самоцензуры. Тем не менее заставить чат-бота извергать расовые оскорбления без особых подсказок все еще возможно.

Галлюцинации в ответах

Одной из наиболее значительных проблем современных языковых моделей является их склонность к так называемым галлюцинациям, когда ИИ выдает ложную информацию. Иногда галлюцинации незначительны, например когда ChatGPT настаивает на том, что конкретная модель телефона имеет функции, которых у нее нет. Но некоторые из них менее безобидны, и, если пользователь примет совет ИИ за чистую монету, это может привести к реальному вреду.

Представьте себе, что поисковая система по ошибке отвечает на вопрос, как долго можно оставить курицу на прилавке, заявляя, что она останется свежей до недели. В результате пользователь может подвергнуться пищевому отравлению или сальмонеллезу.

Хотя легко предположить, что никто не будет слепо доверять ИИ, неясно, понимает ли широкая публика, насколько подвержены ошибкам современные модели ИИ. Определенные демографические группы, такие как пожилые люди или люди с когнитивными нарушениями, могут быть особенно восприимчивы к принятию результатов поиска за чистую монету.

Торговые боты с искусственным интеллектом могут обрушить фондовый рынок

По мере того как системы искусственного интеллекта становились все более функциональными, на фондовом рынке наблюдался массовый рост торговли ботами. Эти боты используют сложные алгоритмы для ставок на акции, покупая и продавая от имени своего клиента на основе колебаний рынка.

Но эти боты относительно просты, они полагаются на логику «если... то» для совершения своих сделок, что делает их легко предсказуемыми. Модели ИИ текущего поколения намного сложнее и, следовательно, непредсказуемы. Если они развернуты трейдерами в больших масштабах, они могут легко вызвать массовые потрясения на рынке. Например, представьте, что многие трейдеры используют платформу ИИ, которая на основе галлюцинации решает, что акции Kellogg вот-вот упадут, и продает этот актив для всех своих пользователей, одновременно покупая акции General Mills, повергая тем самым рынок в хаос.

ИИ может сделать поиск в Интернете бесполезным

Владельцы поисковых систем считают, что за ИИ будущее, и хотят внедрить его как можно скорее. Но для веб-сайтов, которые полагаются на посещения страниц для получения дохода от рекламы, это может стать проблемой. ИИ будет считывать информацию из ресурсов и доставлять ее пользователю без необходимости переходить на тот или иной ресурс. Это приведет к массовому краху рынка цифровой рекламы. Небольшие сайты "упадут" первыми, но даже гиганты, такие как Facebook, могут уйти вместе с ними.

Даже если основные функции поисковых систем останутся нетронутыми, генеративный ИИ все равно может сделать их бесполезными. Интернет уже наполнен SEO-спамом, поэтому вы должны прокручивать бесконечные бесполезные статьи, прежде чем найдете стоящую информацию. Но, к сожалению, ни один человек не сможет так точно настроить SEO, как искусственный интеллект. А это означает, что количество бесполезных переспамленых текстов будет быстро расти в Интернете.

ИИ может сделать Интернет непригодным для использования

Языковые модели генеративного ИИ в настоящее время обучаются в Интернете, который основан на тексте. Затем эти модели выдают новый текст, якобы принадлежащий им. Пройдет совсем немного времени, и тексты в Сеть будут писать не люди, а ИИ.

Даже сегодня уже достаточно сложно пользоваться Интернетом, не сталкиваясь с ботами и SEO-спамом, а также с большим количеством бессмысленного текста, созданного реальными людьми. Добавьте к этому почти бесконечное количество текста ИИ, и может стать настолько сложно найти что-либо ценное в Интернете, что весь Интернет станет принципиально непригодным для использования.

ИИ может ускорить изменение климата

ИИ, способный анализировать сложные и разрозненные точки данных, может стать важным инструментом в разработке новых решений для предотвращения экологической катастрофы. Даже сейчас он может помочь сделать целые компании более энергоэффективными за счет выявления расточительных методов и автоматизации использования энергии.

С другой стороны, для такой объемной работы ИИ требуется огромное количество энергии. По мере того как модели ИИ становятся все больше, их энергопотребление растет вместе с ними. Некоторые современные модели искусственного интеллекта потребляют столько энергии, сколько необходимо для питания мобильного телефона, в то время как другие используют годовой эквивалент среднего домохозяйства за один раз.

Нашли нарушение? Пожаловаться на содержание

Что вы думаете о будущем искусственного интеллекта?
Комментарии 0
Подписаться
Я хочу получать
Правила публикации
Редактирование комментария возможно в течении пяти минут после его создания, либо до момента появления ответа на данный комментарий.