MIT, 촉감으로 물체 3D 인식하는 로봇 개발 VIDEO: MIT Created a Robot That Maps 3D Objects by Touch
MIT, 촉감으로 물체 3D 인식하는 로봇 개발
젤사이트(GelSight) 센서로 텍스처 3D 지도 제작
AI가 급속도로 발전하고 있지만 물리적 세계를 컴퓨터가 이해할 수 있는 데이터로 변환하는 데 필요한 센서를 개발하는 일은 아직 갈 길이 멀다. 시각과 소리가 약간 앞서가고 있지만 우리의 다른 감각들은 디지털 세계에서 실용적인 응용이 거의 없다. 하지만 로봇의 경우는 그렇지 않다.
'익스트림테크'에 따르면 MIT는 최근 젤사이트(GelSight) 센서를 이용해 새로운 로봇을 개발했다. 이 센서는 로봇이 만지는 물체를 볼 수 있고, 이를 더 잘 이해할 수 있도록 텍스처 3D 지도를 만든다. 아래 비디오는 일반적으로 항공 우주 분야에 사용되는 젤사이트 기술이 어떻게 로봇이 만지는 것을 보도록 할 수 있는지를 보여준다.
젤사이트는 현실 세계를 디지털 정보로 변환하는 인상적이고 상세한 방법을 제공한다. 하지만 그렇다고 해서 지능형 로봇이 되는 것은 아니다. 지능이 제어하는 데 필요한 매우 유용한 손가락일 뿐이다.
MIT Created a Robot That Maps 3D Objects by Touch/extremetech.com
edited by kcontents
MIT는 이러한 잠재력을 보고 젤사이트 센서에서 생성된 상세한 3차원 맵을 사용해 접촉하는 물체 위에서 자신을 훈련시키는 AI 모델을 가진 로봇을 만들었다. 이 로봇은 기존의 광학적인 의미에서 실제 무엇을 만지는 지는 알지 못하지만 센서를 통해 너무 많은 데이터를 수신해 그 데이터를 시각적 정보로 변환하고 일반적인 이미지 지향적 컨볼루션 신경망(CNN)과 마찬가지로 그것으로부터 배울 수 있다.
MIT의 로봇은 젤사이트 센서 터치 데이터 1만2000개의 비디오 녹화를 통해 200개의 가정용 물체에 대한 정지 이미지 프레임으로 분할했다. 촉각 데이터와 결합하여 로봇은 센서가 접촉하는 물질을 이해할 수 있다. 이 프로젝트의 수석 저자인 MIT 컴퓨터과학 및 인공지능연구소(CSAIL) 박사과정 학생은 그들의 시스템이 무엇을 달성할 수 있는지 설명한다.
MIT Created a Robot That Maps 3D Objects by Touch By Adam Dachis on June 26, 2019 at 9:24 am 0 Comments While AI continues to rapidly advance, we still have a long road ahead when developing the necessary sensors to translate the physical world to data a computer can understand. While sight and sound had a bit of a head start, our other senses have few practical applications in the digital world—but that’s not the case with robots. MIT recently created a new robot using GelSight sensors that allow it to see the objects it touches and create a 3D map of the texture to better understand it. The video below demonstrates how the GelSight technology, typically used for aerospace applications, can “see” what it touches. View Full Text https://www.extremetech.com/extreme/293610-mit-created-a-robot-that-maps-3d-objects-by-touch |
edited by kcontents
"어떤 장면을 보면 우리 모델은 평평한 표면이나 날카로운 모서리에 닿는 느낌을 상상할 수 있다. 또 무작위로 주위를 만짐으로써 순수한 촉각적 감각으로 주변 환경과 상호작용을 예측할 수 있다. 이 두 가지 감각을 함께 사용하면 로봇에 힘을 실어주고 물체를 조작하고 잡는 작업에 필요한 데이터를 줄일 수 있다"고 설명한다.
extremetech.com
edited by kcontents
아직 초기 단계에 있지만 MIT의 시스템은 꽤 잘 작동하는 것으로 알려진다. 이는 접근법 자체에서 오는 장점 때문이다. 많은 AI 연구자들과 개발자들은 인간의 뇌가 어떻게 작용하는지에 근거해 모델을 만드는 경향이 있지만 종종 이치에 맞지 않는다. 어떤 경우에는 우리는 AI가 인간으로 기능하기를 갈망한다. AI의 목적이 인간에 가깝게 묘사하거나 인간의 프로세스를 시뮬레이션함으로써 우리 자신에 대해 더 많이 배울 수 있도록 돕는다고 생각하기 떄문이다.
MIT는 AI가 사용할 수 있는 연산 능력을 인간이 추정할 수 있는 것보다 훨씬 정밀하게 활용할 수 있는 센서를 선택했다. 인간의 접근을 강요하기보다는 컴퓨터의 고유한 장점을 이용하겠다는 것이다. 연구팀은 블라인드 터치식 식별 작업에서 인간을 능가할 수 있는 잠재력을 가진 로봇을 만들었고 어떤 특정한 상황에서는 이미 그 목적을 달성했다.
해결해야 할 가장 중요한 문제는 아닐수도 있지만 촉각은 실제로 로봇공학에서 중요한 역할을 한다. 틈새 애플리케이션에서는 면과 나일론의 차이를 느낄 수 있는 로봇 능력을 이용할 수 있지만 더 광범위한 애플리케이션의 경우는 훨씬 더 많은 것을 제공할 수 있다. 촉각이 없는 로봇에게 모든 물체는 똑같이 느낀다. 이 경우 어떤 것들을 시각적으로 이해할 수 있다고 해도 충분하지 않은 것이 사실이다.
extremetech.com
edited by kcontents
만약 당신이 만진 모든 것이 똑같이 느껴지거나, 혹은 더 정확히 말해 전혀 아무것도 느껴지지 않는다면 당신의 하루를 어떻게 보낼지 생각해 보라. 케이블을 연결할 때 얼마나 많은 힘을 사용해야 하는지 전혀 모를 수 있다. 촉각이 없다면 사포와 사포로 인쇄된 이미지의 실질적인 차이를 파악할 능력이 없을 것이다.
로봇에게 촉각과 이를 통해 배울 수 있는 능력을 제공함으로써 로봇은 닿는 물질에 대해 더 나은 판단을 내릴 수 있다. 그것은 단순히 표준적인 시각 감각에서 배울 수 있는 것보다 더 빠르고 정확하게 학습할 수 있게 된다. 그런 다음 해당 정보를 사용해 처리하는 자료의 성질에 맞는 조치를 취할 수 있다. 혹은 적어도 이것이 미래의 이상적인 목표가 될 수 있다. 로봇들이 만지는 것을 이해할 수 있다면 의도하지 않은 해를 입힐 위험이 줄어든다.
via youtube
edited by kcontents
지금 당장 지능형 로봇에게 물풍선을 가지고 다니라고 한다면 아마 대부분은 어떻게 잡으면 물풍선을 파괴하지 않는지 전혀 모를 것이다. 촉각은 잘 훈련된 AI 모델을 통해 로봇에게 다양한 종류의 물체를 다루는 법을 인식하고 그에 따라 행동할 수 있는 능력을 준다.
MIT는 더 우수하고, 더 지능적인 로봇 구성요소를 이제 막 만들어냈지만 방향성은 매우 긍정적이다. 터치를 통해 획득한 데이터를 이해하고 통합하도록 설계된 로봇은 그렇지 않은 로봇보다 전반적인 안전성에 있어서 훨씬 더 낫기 때문이다. 잠재적인 사고에 대비한 안전장치를 만드는 것은 이와 같은 개발의 역할이다.
김지영 robot3@irobotnews.com 로봇신문사
kcontents