美 메릴랜드대, 사람 걸음걸이로 감정 읽는 로봇용 알고리즘 개발


82.47% 확률로 감정 예측


     미국 메릴랜드대(University of Maryland) 연구팀이 사람의 걸음걸이를 분석해 감정을 읽어내는 알고리즘을 개발했다고 IT 전문 매체 와이어드가 보도했다.


이 알고리즘은 '프록스이모(ProxEmo)'라 불리며 사람의 걸음걸이를 실시간으로 분석해 인간의 감정을 이해할 수 있도록 설계됐다. 이 알고리즘을 사용하는 로봇은 사람의 감정 상태에 따라 공간을 제공할 경로를 선택할 수 있다. 예를 들어 보행자가 화난 상태라고 판단되면 공간을 넓히는 반면 행복한 상태라고 판단되면 공간을 좁힌다.


gamma.umd.edu

edited by kcontents


 

Robot Analyzes Your Gait to Detect Your Feelings


Researchers at the University of Maryland have developed ProxEmo, an “end-to-end emotion prediction algorithm for socially aware robot navigation among pedestrians.”




ProxEmo is designed to help robots interpret human feeling, based on their gait. This enables a robot equipped with ProxEmo to better interact with humans, giving them more or less space depending on their mood.


According to the researchers—Venkatraman Narayanan, Bala Murali Manoghar, Vishnu Sashank Dorbala, Dinesh Manocha, Aniket Bera—ProxEmo “achieves a mean average emotion prediction precision of 82.47% on the Emotion-Gait benchmark dataset,” and outperforms competing algorithms.


via youtube


View full text

https://www.webpronews.com/robot-analyzes-your-gait-to-detect-your-feelings


edited by kcontents


연구팀은 해당 시스템을 구축하기 위해 사람을 대상으로 실험을 진행했다. 한 무리의 사람들이 다른 사람들이 걷는 모습을 관찰하게 한 후, 이들이 어떤 감정 상태인 것처럼 보이는지 질문했다. 주관적인 실험처럼 보일지 모르지만, 여러 관찰 데이터를 각 사람의 걸음걸이에 관한 데이터와 연결시켜 객관성을 확보했다는 게 연구팀 설명이다.


 

ProxEmo



(걸음걸이 종류에 따른 감정상태 분류 결과물)


걸음걸이 종류를 구분할 수 있는 데이터도 마련했다. 연구팀은 목, 어깨, 무릎 등을 포함한 16개의 관절로 이루어진 여러 사람의 골격 이미지를 사용해 영상을 분석하는 알고리즘을 적용했다. 이어 딥러닝 알고리즘을 사용해 시스템이 특정 걸음걸이와 감정 데이터를 연결시키도록 했다.


연구팀은 카메라가 장착된 로봇을 활용해 알고리즘을 테스트했다고 밝혔다. 로봇은 카메라로 지나가는 보행자를 지켜보는 동시에 16개 관절로 이루어진 뼈대로 파악, 이를 감정 상태 데이터와 연결했다. 테스트 결과 평균 82.47%에 달하는 감정 예측 정밀도를 달성했다고 한다.


와이어드는 프록스이모를 얼굴 신호를 읽는 시스템과 함께 사용하면 로봇이 도움이 필요한 사람을 가려내는 등 보다 복잡한 감정지능을 구현하는 게 가능할 것이라고 지적했다.


MIT 과학자인 '디나 카타비(Dina Katabi)'는 "로봇이 부자연스럽게 행동하면 사람들이 불편해질 뿐만 아니라 이 로봇이 어떻게 움직이는지 추측할 수 없어 충돌 위험이 크다. 따라서 로봇이 너무 가까워져 사람들을 불편하게 만드는 것을 피할 수 있다면 유익할 것이다”라고 말했다.

조상협  robot3@irobotnews.com 로봇신문사




ProxEmo: Gait-based Emotion Learning and Multiview Proxemic Fusion for Social-Aware Robot Navigation 

 kcontents


Posted by engi, conpaper Engi-

댓글을 달아 주세요