사람과 사람은 수화로 소통하지만...로봇과 로봇은 무엇으로? ShadowSense: Detecting Human Touch in a Social Robot Using Shadow Image Classification

말 못하는 로봇이 그림자로 대화하는 이유


마이로봇솔루션의 재미있는 로봇이야기(3)

  사람과 사람 사이에는 굳이 말이 아니더라도 수화나 점자처럼 대화를 나눌 수 있는 방법이 있습니다. 그렇다면 사람과 로봇 사이는 어떻게 할까요?


일반적으로는 대화가 가능한 인공지능(AI) 로봇 소피아도 있고, 프로그래밍 되어 명령대로 움직이는 일반 로봇도 있는데요. 이렇듯 로봇과의 소통을 위해서는 일반적으로 말이나 언어를 사용하는데 이를 대신하기 위해서는 시각이 중요합니다. 그렇다면 말이나 언어 없이 로봇이 말이나 '보이는대로' 이해할 수 있게 되면 어떨까요?



 

ShadowSense: Detecting Human Touch in a Social Robot Using Shadow Image Classification


Abstract

This paper proposes and evaluates the use of image classification for detailed, full-body human-robot tactile interaction. A camera positioned below a translucent robot skin captures shadows generated from human touch and infers social gestures from the captured images. This approach enables rich tactile interaction with robots without the need for the sensor arrays used in traditional social robot tactile skins. It also supports the use of touch interaction with non-rigid robots, achieves high-resolution sensing for robots with different sizes and shape of surfaces, and removes the requirement of direct contact with the robot.  




View full text

https://dl.acm.org/doi/abs/10.1145/3432202


상단 사진설명

출처=투나잇 쇼보틱스(Tonight Showbotics): 미국의 유명한 쇼토크 프로그램인 투나잇쇼 진행자 지미팰런이 휴머노이드 로봇 소피아를 만나고 있다.

edited by kcontents

미국 코넬대 연구진이 개발한 이 로봇은 사람의 손동작 그림자만으로도 이를 감지해 사람과 소통할 수 있는 소프트 로봇인데요. 전문적인척 조금 멋있게 말해보자면 '섀도 센스(Shadow Sense)' 기술이라고 합니다. 보통 ‘접촉(Touch)’이라는 것은 유기체에게 있어 매우 중요한 의사소통 방식인데 그동안 인간과 로봇의 상호작용에는 거의 쓰이지 못했습니다. 접촉각 센서를 사용할 경우 로봇의 무게가 증가하고 배선이 복잡해지는 것은 물론, 변형 가능한 로봇 피부에 이를 삽입하는 것도 쉽지 않기 때문입니다. 그렇게 되면 비용도 만만치 않기 때문에 다른 방법을 찾아야 했습니다.


출처=코넬대




그래서 코넬대 연구진은 시각을 이용해 저비용으로 촉각을 측정할 수 있는 로봇을 개발하게 되었습니다. 크기는 약 4피트. 122cm로 초등학교 저학년만합니다. 모양새는 원통형 구조의 프로토 타입으로 나일론 재질의 신축성 있는 부드러운 팽창형 주머니로 감싸여 있습니다.


손의 그림자를 이용해 사람을 탈출구로 안내하는 로봇 (출처=코넬대)


이 로봇은 ‘인간‧로봇 협업‧동반자관계 연구소’의 최신 프로젝트로 개발되었는데요. 비상 상황 시 사람들을 안전한 곳으로 대피시키는 공기 주입식 팽창형 로봇을 목적으로 했습니다. 다시 말해 극한의 환경에서도 인간과 소통할 수 있다는 것입니다.


이러한 '섀도 센스' 기술은 로봇 내부에 장착된 USB 카메라를 통해 로봇 피부 위에 나타난 손동작의 그림자 움직임을 포착해 이를 기계학습(Machine Learning) 소프트웨어로 분류하는 것인데요. 로봇 내부에 설치된 USB 카메라가 컴퓨터와 연결되어서 그림자 이미지만 보고 그 사람이 로봇을 어떻게 만지고 있는지, 또 그 사람의 의도가 무엇인지를 유추합니다. 이런 터치 제스처를 감지할 수 있는 소셜 로봇이 아직 시장에 많지 않기 때문에 더 주목을 받고 있습니다.


출처=코넬대




연구진들은 연구를 통해 얻은 훈련 데이터를 바탕으로 신경망 알고리즘까지 개발했는데요. 이를 통해 손바닥이나 두 손으로 만지기, 주먹으로 치기, 끌어안기, 가리키기, 만지지 않기 등 6가지 제스처를 구별해 내는 데 성공했습니다. 이 신경망 알고리즘은 테스트 결과 빛‧조명에 따라 87.5~96%의 정확도를 보였는데 특히 해가 쨍쨍할 때는 96%로 가장 정확했고, 황혼과 야간에는 각각 93%, 87%의 정확도를 나타냈습니다.


출처=코넬대


또한 이 로봇은 확성기를 통해 메시지를 보내는 등 특정 터치나 제스처에 반응하도록 프로그래밍까지 가능합니다. 또한 데이터를 충분히 수집하게 되면 필요한 작업에 맞춤형으로 더 광범위한 상호작용을 인식할 수 있도록 훈련시킬 수 있다고 합니다. 그리고 이 기술은 오직 그림자로만 인식을 하기 때문에 사용자의 얼굴 등 고화질의 이미지가 없어도 행동을 감지해서 프라이버시 문제에서도 자유롭다고 합니다. 심지어는 반드시 로봇의 형태를 가질 필요도 없어서 풍선과 같은 다른 재료에 섀도 센스 기술을 접목할 수 있습니다.




많은 연구진들의 노고가 더해져 개발된 로봇인만큼 빠른 시일 내에 상용화가 되어서 사람이 투입되기 어려운 환경에서 많은 도움이 되었으면 좋겠습니다. 특히나 화재 현장에서 힘들게 일하시는 소방관 분들께 좋은 소식이길 바래봅니다.


자료=마이로봇솔루션(https://myrobotsolution.com)


로봇신문사  robot@irobotnews.com

kcontents

댓글()