Исследователи из Google Robotics сумели модифицировать алгоритмы, с помощью которых четвероногий робот в течение нескольких часов самостоятельно научился ходить вперед-назад и поворачивать. Команда изменила существующую систему – в первую очередь разработчики убрали механизм моделирования окружающей среды.
Как правило, перед тем как научить робота ходить, алгоритмы испытывают на виртуальном устройстве с помощью моделирования. Такой подход позволяет избежать повреждений настоящего робота, однако в модели достаточно сложно симулировать разные покрытия, такие как гравий или мягкие поверхности.
Именно поэтому разработчики решили сразу испытывать новый алгоритм на настоящем роботе в реальном мире, где устройству потребовалось быстрее приспосабливаться к особенностям среды, таким как ступеньки и неровности. Разумеется, людям все равно пришлось вмешаться – в ходе обучения инженеры более сотни раз пришли на помощь роботу. Впоследствии эту проблему также удалось решить за счет ограничения территории и расширения тренировки на несколько маневров одновременно. Если роботу удавалось дойти до границы заданного поля, двигаясь вперед, он определял свое расположение и начинал движение обратно. Таким образом, система не только получала новый навык, но и справлялась с задачей без вмешательства человека.
Новый алгоритм позволил роботу методом проб и ошибок самостоятельно научиться передвигаться по разным поверхностям, в результате он смог двигаться полностью автономно – это чрезвычайно важно для общей эффективности роботов. Однако у исследования есть и ограничения – на данном этапе устройство определяет свое местоположение с помощью расположенной сверху камеры, которую не всегда можно будет установить в реальных условиях. Тем не менее, разработчики рассчитывают адаптировать алгоритмы для роботов других типов или даже для совместного обучения нескольких роботов. Подобные исследования помогут лучше понять принципы обучения, которые пригодятся во многих проектах по робототехнике.
Источник: robogeek.ru