사람 표정 보고 따라하는 로봇 VIDEO:Animatronic Robotic Face Driven with Learned Models

 

  이 카메라 앞에서 웃으세요, 그러면 파란 로봇이 여러분을 향해 바로 웃을 것입니다.

 

지난 5년 동안, 컬럼비아 대학의 크리에이티브 머신 랩의 AI 연구원들은 여러분을 지켜보고 표정을 흉내낼 수 있는 동물 로봇인 EVA를 연구해왔다.

 

A camera captures images of a person's face. Through the algorithm developed by the Creative Machines Lab, the robot can use the details of the face in the image to learn and mimic the facial expression in real time. (Creative Machines Lab/Columbia Engineering) 

 

 

https://www.ctvnews.ca/sci-tech/this-robot-can-mimic-your-facial-expression-by-watching-you-1.5448167

 

크리에이티브 머신 랩의 책임자인 호드 립슨 컬럼비아 공대 교수는 "EVA로봇에 대한 아이디어는 몇 년 전 학생들과 제가 플라스틱으로 된 고글링 눈으로 우리를 응시하고 있다는 것을 알아차리기 시작했을 때 구체화되었다"고 보도자료에서 말했다.

 

립슨은 식료품점에서 본 고글리 눈동자와 재입고 로봇에 부착된 이름표 등 인간적인 특징도 알아챘다.

 

"사람들은 로봇 동료들에게 눈, 아이덴티티, 혹은 이름을 줌으로써 인간화시키는 것처럼 보였다,"라고 그는 말했다. "이것은, 눈과 옷이 효과가 있다면, 초표현적이고 반응성이 뛰어난 인간의 얼굴을 가진 로봇을 만드는 것이 어떨까 하는 생각을 갖게 했다."

 

via youtube

 

EVA로봇에는 미리 입력된 것은 없다. 오히려, 카메라가 사람의 얼굴을 보며 촬영한다. 크리에이티브 머신 랩이 개발한 알고리즘을 통해 EVA는 이미지 속 얼굴 디테일을 활용해 실시간으로 얼굴 표정을 익히고 흉내낼 수 있다.

 

연구원들은 EVA가 자신의 얼굴을 통제하는 데 익숙해지도록 하기 위해, EVA의 얼굴 모터가 무작위로 얼굴을 만드는 동안 몇 시간 동안 EVA의 영상을 촬영하기도 했다. 이는 EVA가 인간의 감독 없이 자신의 얼굴을 통제하는 방법을 배우고 이해하도록 하기 위한 것이었다.

 

황기철 콘페이퍼 에디터

Ki Chul Hwang Conpaper editor 

 

Animatronic Robotic Face Driven with Learned Models

https://youtu.be/1vBLI-q04kM

kcontents

댓글()