Новая задача робототехники - научить искусственный интеллект ориентироваться в помещении. Это приблизит роботов к человеку

С первых десятилетий существования искусственного интеллекта гуманоидные роботы стали одними из основных персонажей разного рода фантастических произведений — книг, фильмов, сериалов. ИИ существует уже долгие годы, однако в реальности человекоподобные роботы учеными и инженерами до сих пор созданы не были.

Можно ли сделать робота, похожего на человека?

Объясняется отсутствие андроидов в наши дни в первую очередь необыкновенной сложностью их создания. Многие собственные человеческие интуитивные навыки моторики и планирования мы воспринимаем как должное. Однако подобные умения на самом деле очень сложны. Ориентирование в неизвестной местности, поиск и сбор каких-либо объектов, выбор маршрутов и пр — обычные для человека вещи. Но превратить все это в компьютерные алгоритмы и программы — задача очень даже непростая.

Новая виртуальная среда обучения

Тем не менее, безусловно, разработка роботов, способных физически ощущать мир и взаимодействовать с окружающей средой и сегодня остается одной из самых важных задач, которые ставят перед собой ученые. Не так давно, к примеру, специалисты Массачусетского технологического Стэнфордского университетов разработали тест, представляющий собой особую виртуальную среду для обучения роботов.

С помощью этого теста можно будет оценивать способность агентов ИИ эффективно планировать задачи и цели, а также взаимодействовать с разного рода объектами окружающей среды. Этот тест был представлен учеными на одной из крупных научных онлайн-конференций, посвященных компьютерному зрению и распознаванию объектов.

Каким образом сегодня обучаются агенты

Конечно же, настоящих роботов с ИИ ученые на настоящий момент не обучают. Подобная работа была бы слишком дорогостоящей. Ведь создание робота, внешне похожего на человека — дело не дешевое. Тренируют искусственный интеллект ученые с использованием обычных агентов-симуляторов.

При обучении такой агент помещается в виртуальную среду, имитирующую какой-нибудь участок реального мира. При этом он получает определенную задачу вместе с заданным набором действий, которые он может применить к этой среде. Выполнив задачу, агент получает определенную награду, в зависимости от степени достижения цели.

В самом начале обучения симуляторы обычно ничего не знают о той среде, в которую они попали. Действия в этот момент они совершают абсолютно случайные. По мере получения обратной связи от окружения, агенты ИИ вырабатывают последовательность действий, позволяющую им получить максимальное вознаграждение.

Сложности при создании среды

При создании таких смоделированных сред, ученые бывают вынуждены решать множество сложных проблем. Разработка правильных состояний, действий и наград — дело непростое. Ведь при обучении агенты помещаются в непрерывные среды со сложной совокупностью самых разных факторов — гравитации, ветров, физического взаимодействия с другими объектами.

Сложно ученым подбирать и собственно сами данные для обучения. Ведь агенты должны уметь правильно вести себя в миллионах непохожих друг на друга эпизодах, повторяющих эпизоды реальной жизни.

До настоящего момента большинство смоделированных для симуляторов сред являлись лишь грубым приближением к настоящему миру. Это значительно замедляло обучение агентов правильным действиям в реальном мире. Чтобы убрать это ограничение в технологии обучения, ученые двух крупнейших университетов мира и решили создать максимально реалистичную среду для симуляторов.

Что представляет собой разработка

Построена новая среда для агентов учеными была на основе платформы ThreeDWorld. Эта универсальная виртуальная платформа удобна тем, что способна поддерживать редеринг фотореалистичных изображений и реалистичное физическое взаимодействие между агентами и объектами виртуального мира.

Действие в разработанной учеными среде происходит в жилом доме с большим количеством комнат. Помимо всего прочего, в помещениях этого виртуального мира имеется мебель, разложены всевозможные предметы и установлены контейнеры.

В задачу агента входит поиск и сбор одного или нескольких предметов в комнатах и складирование их в указанном месте. Агент симулирует робота с двумя руками. Поэтому одновременно он может нести не более двух предметов. В качестве альтернативы робот может использовать для перемещения найденных им объектов один из контейнеров. Таким образом симулятор получает возможность сократить количество ходов для достижения задачи.

На каждом этапе обучения робот может выбирать одно из нескольких доступных ему действий — поворот, движение вперед, захват объекта и пр. Если агент выполняет задачу по сбору предметом и не превышает при этом максимально разрешенное количество ходов, он получает вознаграждение. С поставленными в процессе обучения роботу задачами девятилетний ребенок, к примеру, справился бы за несколько минут. Для ИИ же достижение таких целей — процесс очень сложный и долгий.

Продвинутый агент

Сама среда учеными была разработана очень сложная и подробная. Однако полностью реальный мир она, конечно же, все же не повторяет. То же самое касается и самого агента. Обучаемый в новой среде робот Magnebot имеет две руки с 9 степенями свободы движений. То есть у него имеются суставы, как в плечах, так и локтях и запястьях. Однако пальцев у этого агента нет. Захватывает предметы робот с помощью магнита.

Но как бы там ни было, новая среда позволяет обучать агентов гораздо эффективнее чем те, что использовались ранее. Ученые, разработавшие этот виртуальный мир, надеются, что его использование станет большим шагом вперед в плане создания роботов, предназначенных для использования на складах и в домашнем хозяйстве.

Нашли нарушение? Пожаловаться на содержание

Хотели ли бы вы видеть у себя дома робота-помощника?
Комментарии 0
Подписаться
Я хочу получать
Правила публикации
Редактирование комментария возможно в течении пяти минут после его создания, либо до момента появления ответа на данный комментарий.