[뉴스에프엔 조남준 기자] 코넬대학교 연구팀이 단 하나의 사용법 영상을 본 뒤 실제 작업을 수행할 수 있는 로봇 학습 시스템을 개발했다. ‘RHyME’로 명명된 이 프레임워크는 인간처럼 비디오를 참고해 스스로 작업을 유추하고 실행하는 ‘모방 학습’ 기반 기술로, 로봇 개발 및 훈련에 필요한 시간과 비용을 획기적으로 줄일 수 있을 것으로 기대된다.
“로봇은 까다로운 학습자다.” 코넬대 박사과정생 쿠샬 케디아(Kushal Kedia)의 말처럼, 전통적인 로봇은 수많은 데이터와 정밀한 단계별 프로그래밍이 있어야만 비로소 단순 작업을 수행할 수 있었다. 그러나 케디아를 포함한 연구팀은 이러한 문제를 정면으로 돌파하는 새로운 로봇 학습 시스템, ‘RHyME(Retrieval for Hybrid Imitation under Mismatched Execution)’를 개발했다.
RHyME의 가장 큰 특징은 로봇이 단 한 편의 사용법 영상을 보고도 작업을 수행할 수 있다는 점이다. 영상 속 사람의 행동이 로봇의 구동 방식과 다르더라도, 로봇이 자체 메모리를 활용해 유사 동작을 검색하고 스스로 실행 방식을 유추한다.
예를 들어, 사람이 머그잔을 꺼내 싱크대에 놓는 영상을 본 로봇은, 과거에 학습한 컵을 집는 동작이나 물건을 내려놓는 동작을 결합해 해당 작업을 재구성한다. 이를 통해 로봇은 단 30분 분량의 훈련 데이터만으로도 다단계 작업을 수행할 수 있으며, 기존 방식 대비 성공률이 50% 이상 향상됐다는 것이 연구진의 설명이다.
컴퓨터공학 조교수이자 연구 책임자인 산지반 초우두리(Sanjiban Choudhury)는 “RHyME는 인간이 프랑스어를 영어로 번역하듯, 사람의 행동을 로봇의 동작 언어로 변환하는 것”이라고 설명했다. 기존에는 로봇이 인간의 동작과 완전히 일치해야만 학습이 가능했지만, RHyME는 이 불일치를 극복할 수 있는 ‘원칙 있는 방법’을 제시했다는 것이다.
이번 연구는 5월 미국 애틀랜타에서 열리는 IEEE 국제 로봇·자동화 컨퍼런스에서 발표될 예정이며, 논문은 이미 arXiv에 사전 공개됐다.
초우두리는 “수천 시간의 조작 데이터를 요구하는 기존 방식은 현실적으로 지속 불가능하다”며 “RHyME는 보다 적응력 있고 확장 가능한 로봇 교육의 새 장을 열 것”이라고 말했다.