[Учимся на ошибках] Исследователи Google создали компьютерную программу, которая самостоятельно обучается прохождению компьютерных игр, а в перспективе сможет соперничать даже с опытными геймерами

отметили
14
человека
в архиве
[Учимся на ошибках] Исследователи Google создали компьютерную программу, которая самостоятельно обучается прохождению компьютерных игр, а в перспективе сможет соперничать даже с опытными геймерами
Последнее детище студии под названием Deep Q-Network (DQN) способно обыграть живого человека в классические игры для Atari. Вполне возможно, именно эта сущность через какое-то время займет место водителя в беспилотном автомобиле Google.

Демис Хассабис, основатель DeepMind Technologies, рассказал NBC, что в работе над искусственным интеллектом студия опирается на модель функционирования человеческого разума. В отличие от искуственного интеллекта, против которого вы играете, к примеру, в StarCraft, DQN не действует согласно паттернам, вложенным в него разработчиком, а познает игру в процессе и самостоятельно обучается.

И речь не о правилах игры: система просто ищет наиболее эффективный способ набрать больше очков, чем в прошлый раз. Интеллект обнаруживает лазейки путем проб и ошибок и может даже позволить обыграть себя в первой партии. Но затем будет работать над улучшением результата.

В DeepMind Technologies отмечают, что наибольших успехов система добивается в тех играх, где нет элемента исследования. Например, интеллект не смог освоить Ms. Pac-Man, где необходимо анализировать и предугадывать действия противников и планировать собственный маршрут.

Текущая версия DQN обладает слишком короткой памятью и запоминает лишь последние четыре кадра сыгранной партии, делает на их основе выводы и корректирует поведение для следующей игры. Расширение объема памяти позволит интеллекту освоить и более сложные игры.

«Как раз сейчас мы переходим к играм девяностых, гонкам и трехмерным экшенам», — пояснил Хассабис.

Программа «агент», как ее окрестили исследователи из подразделения ответственного за разработку искусственного интеллекта (ИИ) Deep Mind, самостоятельно освоила 49 различных ретро-игр и «придумала» свои способы их прохождения. По утверждению разработчиков, в некоторых случаях, компьютер принимал такие решения, до которых они сами не сразу додумались бы.

В качестве наглядной демонстрации возможностей «агента», Deep Mind опубликовали видео, на котором «молодой ИИ» учится играть в «Арканоид»: при помощи платформы, он отбивал виртуальный мяч и разбивал «стену», состоящую из небольших блоков. И если поначалу он едва понимал, что от него вообще требуется, то спустя 600 партий «агент» не только научился стабильно отбивать «мяч», но и отправлять его за «стену», проделывая в ней туннели.

Свое изобретение ученые называют не иначе как прорывом в области создания ИИ.

В сорока трех из сорока девяти протестированных системой игр DQN показала большую эффективность, чем любой другой искусственный интеллект. А в двадцать две сыграла лучше, чем человек. Будущее наступает!

источник: gm1.s-ports.ru

This AI Learned Atari Games Like Humans Do — And Now it Beats Them
Добавил suare suare 26 Февраля 2015
проблема (1)
Комментарии участников:
suare
0
suare, 26 Февраля 2015 , url
В отличие от разработанного в 1997 году компанией «Ай-би-эм» компьютера и одноименной программы Deep Blue, которая в 1997 году одержала сенсационную победу в шахматной партии против самого Гарри Каспарова, «агент» может обучаться в буквальном смысле с нуля.

«Создавая Deep Blue, инженеры и программисты заложили в программу необходимые знания, — пояснил основатель Deep Mind Демис Хассабис, добавив, что разработанные его командой алгоритмы позволяют „агенту“ учиться на своих ошибках и обучаться самостоятельно, не обладая никакими начальными знаниями.

»Это первый шаг, доказывающий, что программы могут обучаться самостоятельно, — заявил Хассабис.

Помимо развлечений, создатели алгоритма видят его применение и во вполне серьезных сферах — например, при создании автономных автомобилей, передвигающихся без участия водителя.

И хотя в нынешнем виде «агент» не способен накапливать большой массив данных и принимать долгосрочные стратегические решения, он вполне может быть доработан, уверены исследователи. Сейчас в Deep Mind работают над созданием «памяти» программы и надеются, что это поможет ей освоиться с прохождением более современных трехмерных игр.
suare
0
suare, 26 Февраля 2015 , url
источник: img.gazeta.ru
Школа для Терминатора
Искусственный интеллект успешно осваивает старые компьютерные игры


Искусственный интеллект научился играть в старые игры, вышедшие на игровой приставке Atari в 1980-х годах, лучше человека. Об этом рассказали представители подразделения DeepMind компании Google. Посвященное этому феномену исследование они опубликовали в журнале Nature. В 29 играх из 46 искусственный интеллект Deep Q оказался лучше человека, а в игре в пинбол он превзошел людей в 26 раз.

Суть эксперимента заключалась не в том, чтобы заставить компьютер играть с самим собой. Для имитации ИИ (искусственного интеллекта) часто разрабатывают довольно сложные сценарии поведения компьютерного игрока для конкретных игровых ситуаций и условий.

Однако в данном случае программа ничего «не знала» об играх, которым обучалась, и смогла выработать успешный опыт для достижения цели игры в большинстве случаев. В отдельных случаях компьютер предложил такую стратегию поведения, которую не могли спрогнозировать сами ученые.

Более того, разработчики добились того, чтобы одна копия программы могла обучать другую. Коллеги специалистов из Google DeepMind, не участвовавшие в проекте, отметили, что это впечатляющее достижение в области развития искусственного интеллекта, и это только начало.

Игры 80-х – это всего лишь забавный «полигон» для обучения «общей системы машинного самообучения».

Подобные исследования помогут создать интеллектуальных роботов, способных адаптироваться к неожиданным ситуациям в сложных условиях. Есть и более обыденное применение – тренировка персонального помощника для человека. Такой помощник сможет изучить предпочтения хозяина и мгновенно запланировать маршрут путешествия с учетом мест, которые захотел бы посетить человек, покупки, которые могут ему понравиться, забронировать соответствующие ситуации вид транспорта и отель.

Исполнительный директор и сооснователь компании Nevosoft Павел Ряйкконен считает, что в данном контексте игру стоит рассмотреть не как развлекательный сервис или продукт, а как некую сложную систему со своими правилами и допущениями.

«Зачастую в играх в зависимости от жанра отражаются некие элементы из реальной жизни. Так что использование игр для обучения как машинных алгоритмов, так и людей вполне имеет перспективу», — считает Ряйкконен.

Google DeepMind не первыми начали тренировать искусственный интеллект на старых играх. В январе 2015 года на ежегодном соревновании, организованном Ассоциацией продвинутого искусственного интеллекта (AAAI), конкурсанты представили компьютерную среду на основе известной игры о водопроводчике Марио. Игрок мог управлять Марио при помощи голосовых команд без использования контроллера, при этом у героя была система обучения, ощущений и мотивации. Он мог накапливать знания и воспроизводить синтезированным голосом свои ощущения. Как и в случае Deep Q, разные герои (Марио и Луиджи) могли обмениваться опытом, разговаривая друг с другом.



Однако многих волнует столь быстрое развитие искусственного интеллекта.

Так, основатель Tesla Motors, известный серийный предприниматель Элон Маск очень обеспокоен этим и предупреждает, что разработка компьютерного разума может таить опасность для человечества, и требует ответственного подхода с соблюдением необходимых мер безопасности.

Он направил $10 млн в фонд общественной организации Future of Life Institute, цель которой – снижение рисков, грозящих человечеству в будущем.

Однако пока что опасения Маска не подтверждаются. Deep Q преуспел не во всех играх. В частности, в Pacman детище Google DeepMind играет плохо. Дело в том, что уклонение от встречи с медузами, врагами главного героя игры, требует планирования действий на более длительную перспективу, чем в других играх, и система самообучения пока что с этим не справляется. Однако разработчики не собираются останавливаться на достигнутом и намерены обучить Deep Q играть в существенно более сложные игры, например в стратегию «Цивилизация», в которой нужно развивать общество, города и технологии, а также воевать. На результат в такой игре влияет очень много факторов.

По мнению Павла Ряйкконена, искусственный интеллект может нести потенциальную опасность людям, но это дело достаточно отдаленного будущего. «Большую опасность для человечества представляют уже существующие и гораздо более простые технологии», — резюмировал эксперт.
suare
+1
suare, 26 Февраля 2015 , url
ИИ от Google самостоятельно освоил 49 старых игр Atari

Компания Google создала систему искусственного интеллекта, которая играет лучше человека во многие аркадные игры. Программа научилась играть, не зная правил и не имея доступа к коду, а просто наблюдая за картинкой на экране.

Эта разработка не такая легкомысленная, как может показаться. Универсальная самообучаемая система когда-нибудь может найти применение, например, в автономных автомобилях и других проектах, где нужно анализировать состояние окружающих объектов и принимать решения. Скажем, при установке в автономный автомобиль ИИ методом проб и ошибок определит, на какой сигнал светофора лучше проезжать перекрёсток. Если без шуток, то программа способна находить решение для широкого спектра задач, независимо от правил и начальных условий.

Интересно ещё и то, что в 20 играх ИИ не смог превзойти человека. Например, он серьёзно облажался в игре Pac-Man, так и не научившись планировать свои действия на несколько секунд вперёд. Он также не понял, что съев определённые волшебные шарики можно пожирать призраков. В итоге, программа сумела набрать всего 13% от рекорда, поставленного лучшим профессиональным игроком.

Тренировку нейросети под названием DQN осуществило лондонское подразделение Google DeepMind. Искусственному интеллекту не сообщали правила игры. Нейросеть сама анализировала состояние и искала способ, каким образом набрать максимальное количество очков. При обучении и принятии решения она учитывала только четыре последних кадра.

В результате DQN смогла в 22 из 49 игр превзойти лучший результат людей-игроков и в 43 из 49 игр победить любой другой специализированный компьютерный алгоритм.

Это действительно первый в мире алгоритм, который соответствует человеческому уровню на большом разнообразии сложных задач», — говорит Демис Хассабис (Demis Hassabis), сооснователь DeepMind.

Результаты исследования опубликованы в журнале Nature.



Обучаемые нейросети часто используют в системах распознавания образов, а DeepMind использовала метод обучения с подкреплением, когда ИИ получает «вознаграждение» за выполнение определённых действий — и самостоятельно улучшает результат по мере накопления опыта.

Программа лучше всего проявила себя в простых играх вроде пинбола (2439% от результата человека), бокса (1607%) и в игре Breakout (1227%), где нужно отбивать мячик, расчищая блоки на экране. Она даже освоили трюк профессиональных игроков, когда в массиве блоков пробивается туннель и шарик запускается в верхнюю часть экрана!

«Это очень удивило нас, — сказал Хассабис. — Такая стратегия полностью вытекает из лежащей в основе игровой механики».

Компьютеры давно используются для управления игровым процессом, но современные системы ИИ вышли на новый уровень. Самообучение DQN предполагало анализ информации на экране в реальном времени, то есть обработку примерно 2 млн пикселей в секунду. Такими темпами ИИ в будущем сможет научиться анализировать окружающую действительность настоящего мира в реальном времени, снимая всё вокруг себя с помощью видеокамер. Это открывает для него совершенно новые области применения.


Войдите или станьте участником, чтобы комментировать