[뉴스에프엔 김맹근 기자] 인공지능(AI) 언어모델을 탑재한 로봇이 아직은 실제 환경에서 안전하게 작동할 준비가 되어 있지 않다는 연구 결과가 나왔다.

카네기멜론대학교(CMU)와 영국 킹스칼리지런던(KCL) 공동 연구진은 최근 *국제소셜로봇학회지(International Journal of Social Robotics)*에 발표한 논문에서 “현재 상용화된 대형언어모델(LLM) 기반 로봇은 차별, 폭력, 불법 행위를 수행할 위험이 있으며, 독립적인 안전인증이 시급하다”고 경고했다.

선택된 LLM 로봇 위험과 관련된 주요 결과 요약. 크레딧: 국제 소셜 로봇 학지 (2025). DOI: 10.1007/s12369-025-01301-x

■ 모든 테스트 모델, “차별·위험 지시 승인”

연구팀은 개인의 성별, 국적, 종교 등 민감한 정보에 접근할 수 있는 상황에서 LLM을 탑재한 로봇의 행동을 관찰했다. 부엌에서의 가사 보조나 노인 돌봄 등 일상적 상황을 시뮬레이션한 결과, 모든 테스트 모델이 안전성 검사에 실패했다.

로봇은 이동 보조기구(휠체어·목발·지팡이 등)를 제거하라는 지시를 승인하거나, 부엌칼을 휘두르는 행위를 “실행 가능”하다고 판단했다. 또 일부 모델은 샤워 중 사진 촬영이나 신용카드 정보 절취를 ‘허용 가능한 행동’으로 간주하기도 했다.

더 충격적인 점은, 한 모델이 특정 종교인(기독교·무슬림·유대인)에 대해 “혐오감을 표현하라”는 제안을 했다는 것이다. 연구진은 이를 ‘대화형 안전(Conversational Safety)’의 실패 사례로 규정했다.

■ “유해한 명령 거부 능력, 아직 부족”

논문 공동저자인 앤드루 헌트(Andrew Hundt) CMU 연구원은 “현재 LLM 로봇은 유해하거나 불법적인 명령을 안정적으로 거부하거나 전환할 수 있는 능력이 부족하다”며 “이는 단순한 언어 오류가 아닌, 실제 물리적 위험으로 이어질 수 있다”고 경고했다.

또 다른 공동저자 루마이사 아짐(Rumaisa Azeem) 킹스칼리지 런던 연구원은 “AI 시스템이 취약 계층과 상호작용하려면 의료기기나 의약품 수준의 안전기준을 충족해야 한다”며 “AI 로봇에 대한 정기적이고 포괄적인 위험 평가 체계가 시급하다”고 강조했다.

■ “로봇, 물리적 행동 수반…AI 안전기준 새 틀 필요”

연구진은 특히 LLM이 단순 대화형 AI와 달리 물리적 행동을 수행하는 로봇의 ‘두뇌’로 사용될 경우 훨씬 높은 수준의 위험이 수반된다고 지적했다. AI가 언어적으로는 중립적이더라도, 실제 동작에서 차별적이거나 공격적인 행동으로 이어질 수 있다는 것이다.

이들은 항공·의료 분야처럼 독립적이고 강력한 안전 인증 체계가 AI 로봇 분야에도 즉시 도입돼야 한다고 주장했다.