Credit: Unsplash/CC0 Public Domain

[뉴스에프엔 조남준 기자] 구글 딥마인드가 자연어 명령만으로 옷을 접고 분류 작업을 수행하는 휴머노이드 로봇을 공개해 주목을 받았다. 그러나 전문가들은 이번 기술이 “인간과 같은 사고”로 오해되어서는 안 된다며 신중한 평가가 필요하다고 지적했다.

최근 외신을 종합하면 지난 9월 25일, 구글 딥마인드는 자사의 최신 AI 모델 ‘제미니 로보틱스 1.5’ 및 ‘제미니 로보틱스-ER 1.5’를 적용한 시연 영상을 공개했다.

영상 속에서 미국 스타트업 앱트로닉(Apptronik)이 제작한 휴머노이드 로봇 ‘아폴로(Apollo)’는 옷을 접거나 쓰레기를 분류하고, 사람의 가방에 물건을 넣는 등 일상적인 작업을 수행하는 모습을 보여줬다.

구글 측은 이번 공개의 목적에 대해 “물리적 로봇이 다단계 작업을 완료하기 위해 대규모 언어모델을 활용해 인식·계획·결정을 수행할 수 있음을 입증하는 것”이라고 설명했다.

하지만 노스이스턴대 전기·컴퓨터공학 교수 라빈더 다히야(Ravinder Dahiya)는 “겉보기에는 로봇이 스스로 ‘생각’하는 것처럼 보이지만, 실제로는 방대한 데이터와 정교한 알고리즘에 기반한 결과일 뿐”이라고 평가했다. 그는 “AI 비전 기술 자체는 오래 전부터 존재했으며, 이번 사례의 차별성은 이를 대규모 언어 모델과 결합해 사용자가 자연어로 로봇에 지시할 수 있다는 점”이라고 덧붙였다.

다히야 교수는 특히 인간 수준의 감지 능력과 촉각 피드백을 구현하기까지는 갈 길이 멀다고 강조했다. 그는 전자 로봇 스킨을 개발하며 로봇에 촉각을 부여하는 연구를 진행 중이지만, 비전 데이터와 달리 촉각 관련 학습 데이터는 부족하다고 지적했다. 또한 “불확실한 환경에서 로봇이 인간처럼 대응하기 위해서는 단순한 시각 정보뿐 아니라 촉각, 통증, 후각 등 다양한 감각 센서가 함께 작동해야 한다”고 설명했다.

전문가들은 이번 기술을 “올바른 방향으로의 진전”으로 평가하면서도, 인간과 동등한 감각과 사고 능력을 갖춘 휴머노이드 로봇의 등장은 아직 요원하다는 데 의견을 모으고 있다.