Ученые из Google DeepMind обучили робота Robotis OP3 играть в футбол, используя технику обучения искусственного интеллекта, называемую «глубокое обучение с подкреплением».
Эта методика машинного обучения является результатом объединения различных методов обучения ИИ. Алгоритм работает по принципу искусственных нейронов и устроен аналогично человеческому мозгу.
По сравнению с роботами, не обученными с помощью ИИ, роботы, обученные с помощью этой техники, двигались на 181% быстрее, поворачивались на 302% быстрее, били по мячу на 34% быстрее и тратили на 63% меньше времени на восстановление после падений в моделируемых матчах.

Из предоставленного учеными видео видно, что после обучения с помощью искусственного интеллекта роботы могут выполнять сложные движения, такие как дриблинг, блокирование, пас, забивание голов... сравнительно искусно и на высокой скорости.
Исследователи добавили, что робот разработал чрезвычайно сложные для программирования экстренные движения в футболе, такие как вращение вокруг своей оси для обмана соперников, поворот угла стопы...
Результаты показывают, что данная методика обучения ИИ может помочь гуманоидным роботам в целом выполнять простые, но относительно безопасные движения. После этого роботов можно будет усовершенствовать, добавив им более сложные движения и применяя их в более реальных ситуациях.
Подобная технология была успешно применена и позволила роботу приготовить кофе всего за 10 часов обучения.