Google проверил искусственный интеллект DeepMind в условиях "дилеммы заключенного"

Технологии Электроника

Выглядит вполне вероятным, что искусственный интеллект (ИИ) станет предвестником следующей технологической революции. Если ИИ получит развитие до точки, когда будет способен учиться, думать и даже «чувствовать», и все это без какого-либо участия человека, все, что мы знаем о мире, изменится практически в одночасье. Настанет эра действительно умного искусственного интеллекта.

DeepMind

Вот почему нам так интересно отслеживать основные вехи в развитии ИИ, которые происходят сегодня, в том числе разработку нейронной сети DeepMind от Google. Эта нейронная сеть уже смогла победить человека в игровом мире, и новое исследование, проведенное Google, показывает, что создатели DeepMind пока еще не уверены, предпочитает ли ИИ более агрессивное, или же кооперативное поведение.искусственный интеллект

Команда Google создала два относительно простых сценария, с помощью которых можно проверить, смогут ли нейронные сети работать вместе, или же начнут уничтожать друг друга, когда столкнутся с проблемой недостатка ресурсов.

Сбор ресурсов

Во время первой ситуации под названием Gathering участвующим двум версиям DeepMind — красной и синей — была поставлена ​​задача уборки зеленых «яблок» внутри замкнутого пространства. Но исследователей интересовал вопрос не только о том, кто первым придет к финишу. Обе версии DeepMind были вооружены лазерами, которые они могли использовать, чтобы в любое время стрелять в противника и временно отключать его. Эти условия предполагали два основных варианта развития событий: одна из версий DeepMind должна была уничтожить другую и собрать все яблоки, или же они позволили бы друг другу получить примерно одинаковое количество.искусственный интеллект

Запуская моделирование не менее тысячи раз, исследователи Google обнаружили, что DeepMind был очень мирным и готовым к сотрудничеству, когда в замкнутом пространстве оставалось много яблок. Но по мере уменьшения ресурсов красная или синяя версии DeepMind начинали атаковать или отключать друг друга. Такая ситуация в значительной степени напоминает реальную жизнь большинства животных, включая человека.искусственный интеллект

Что еще более существенно, меньшие и менее «интеллектуальные» нейронные сети предпочитали более тесное сотрудничество во всем. Более сложные, крупные сети, как правило, предпочитали предательство и эгоизм на протяжении серии экспериментов.

Поиск «жертвы»

Во втором сценарии, названном Wolfpack, красную и синюю версии попросили выследить невзрачную форму «жертвы». Они могли бы попытаться поймать ее отдельно, но для них было бы более выгодно пытаться сделать это вместе. В конце концов, намного проще загнать жертву в угол, если вы действуете в паре.искусственный интеллект

Хотя результаты были смешанными в случае с небольшими сетями, большие версии быстро поняли, что сотрудничество, а не конкуренция в этой ситуации будет более выгодно.

«Дилемма заключенного»

Так что же эти две простые версии «дилеммы заключенного» нам показывают? DeepMind знает, что лучше всего сотрудничать, если необходимо выследить цель, но когда ресурсы ограничены, хорошо работает именно предательство.искусственный интеллект

Наверное, самое страшное в этих результатах то, что «инстинкты» искусственного интеллекта слишком похожи на человеческие, а мы ведь хорошо знаем, к чему они иногда приводят.

  • Подписаться
  • Поделиться
  • Рассказать
  • Рекоммендовать