美 버클리대, 로봇팔의 잡기 훈련용 AI 개발 VIDEO; AI Startup Covariant.ai Building ‘Universal AI for Robots’
美 버클리대, 로봇팔의 잡기 훈련용 AI 개발···애플 아이폰·AR키트 활용
덱스넷 AR···산업용 최첨단 시스템과 유사한 95%의 정확도
미국 버클리 캘리포니아주립대(버클리대)가 애플의 아이폰X(텐) 단말기 및 AR키트를 활용하는 자체 개발한 인공지능(AI) 알고리즘으로 물류센터 로봇팔이 물건들을 95%의 정확도로 잡을 수(grasping) 있도록 훈련시키는 데 성공했다.
‘벤처비트’는 버클리 대 인공지능(AI) 연구진이 개발한 '덱스-넷 AR(Dex-Net AR)' AI의 이같은 성과를 소개했다. 기존에 사용되던 비싼 산업용 최첨단 시스템을 사용하지 않고도 이와 유사한 95%의 정확도를 냈다는 것이 자랑이다.
TechCrunch
AI Startup Covariant.ai Building ‘Universal AI for Robots’ Covariant last month secured a US$40 million Series B funding round led by Index Ventures to push its total funding to US$67 million. One could be excused for confusing the Investor’s list on the Covariant.ai website with the all-star lineup for a top AI conference. The names include 2018 Turing Award winners Geoffrey Hinton and Yann LeCun, Google AI lead Jeff Dean, Director of the Stanford Artificial Intelligence Lab Fei-Fei Li and Berkeley Artificial Intelligence Research (BAIR) Lab Founding Co-Director Trevor Darrell. Covariant last month secured a US$40 million Series B funding round led by Index Ventures to push its total funding to US$67 million. The ever-astute Professor Hinton recently tweeted he wishes he’d invested a hundred times more. View full text https://syncedreview.com/2020/06/16/ai-startup-covariant-ai-building-universal-ai-for-robots |
로봇의 물체 잡기는 물체를 집어 들거나, 움직이거나, 조작하거나, 물체를 잡는 것을 가르치는 문제에 초점을 맞춘 특정한 로봇학의 한 분야다. 로봇이 재빠르게 물체를 잡는 방법을 익힐 수 있는 능력은 아마존 같은 전자상거래업체의 물류배송(풀필먼트) 센터같은 자동화 창고의 미래가 어떻게 될지에 큰 영향을 미친다.
버클리대 오토랩은 덱스넷 AR로 8개의 물체를 대상으로 한 잡기 훈련 초기 실험 결과 ABB 유미(YuMi) 로봇이 95%의 성공률로 물체를 잡을 수 있었다고 밝혔다.
로봇의 물건 집기 연구에서 버클리대는 자신들이 개발한 덱스넷 AI는 로봇이 높은 성공률로 물체를 잡을 수 있도록 애플 AR키트 기반 스캐닝 내용을 심도 지도(depth map)로 변환해 준다. 이 때 애플의 AR키트는 RGB(Red Green Blue) 카메라를 물체 주위로 2분 동안 이동시켜 생성된 데이터로부터 포인트 클라우드를 만들어 낸다. 포인트 클라우드는 라이다 센서 같은 심도 카메라로 수집되는 데이터를 기록해 신호별로 거리정보를 계산하면 생성되는 각각의 포인트(점)들이 모인 3차원 집합(3D cloud)를 일컫는다. 애플의 AR키트는 RGB(Red Green Blue) 카메라를 물체 주위로 2분 동안 이동시켜 생성된 데이터로부터 포인트 클라우드를 만든다.
미국 버클리 캘리포니아주립대(버클리대)가 애플의 아이폰X(텐) 단말기 및 AR키트를 이용하는 분산방식의 딥러닝 AI 알고리즘을 개발했다. 이 알고리즘은 물류센터용 로봇팔이 물건들을 95%의 정확도로 잡을 수 있게 훈련시켜 준다. (사진=버클리 대)
edited by kcontents
최근 발간된 덱스넷 AR을 자세히 설명하는 논문은 “카메라가 공간을 자세히 이동할수록 포인트 클라우드의 밀도가 높아져 물체의 표면을 더 잘 감지하고 규정해 (로봇손이) 잡을 수 있게 된다”고 쓰고 있다. 또 “덱스넷 AR은 값비싼 산업용 심도센서에 의존하는 최첨단 시스템과 유사한 정확도로 로봇팔의 잡기를 만들어 낼 수 있다. 또 고정된 뷰에서 이미지를 캡처하는 대다수 톱다운 방식 심도카메라 시스템에 비교할 때 이들과 달리 사용자가 스마트폰 카메라를 대상 물체 전체로 이동시켜 대상 물체의 8개 면에 대한 3차원 포인트 클라우드 데이터를 수집할 수 있도록 했다”고 덧붙였다.
덱스넷 AR은 특이값 제거 알고리즘(outlier removal algorithm)과 최근접 이웃 알고리즘(k-nearest neighbor algorithm)을 사용해 AR키트가 생성한 추정 오류로 인한 포인트 클라우드 내 노이즈를 제거해 주었다. 그런 다음 덱스넷 그립 플래너가 로봇이 어떻게 물체를 집어야(pick-up)하는지를 평가토록 했다.
각각의 AR키트 스캔은 물체당 고정적으로 2분씩 걸렸기 때문에, 향후 연구자들은 물체를 더 빨리 스캔할 수 있는 방법을 찾게 될 것이다.
논문에서 저자들은 “제한된 데이터만 주어진 가운데 포인트 클라우드 데이터를 늘리고 완성하기 위해 학습 기반 방법을 사용함으로써 비디오 캡처 시간을 단축시키려 노력한 점은 잠재적 개선점 가운데 하나다”라고 밝혔다.
연구진은 또 아이폰X 심도감지 센터 카메라를 더 잘 사용함으로써 더 깨끗한 포인트 클라우드 데이터를 수집할 수 있는지에 대한 방안도 깊이 모색할 계획이다.
덱스넷 AR은 지난주 국제로봇자동화회의(ICRA)에서 소개됐다. 이 회의에서 발표된 다른 논문들에는 인간과 4족 로봇이 하체로 이상적으로 걷는 방법들을 탐구한 성과가 포함돼 있다. 스탠포드 연구소는 공공버스를 활용해 배달 비용과 에너지 소비를 줄이는 멀티드론 관리 시스템을 공유했다. 구글 브레인, 인텔 AI랩, 오토랩 등도 AI가 훈련시킨 영상 관찰 기반의 로봇 수술용 AI인 ‘모션 2벡(Motion 2Vec)’을 소개했다.
이성원 sungwonly09@gmail.com 로봇신문사
Dex-Net AR 2020 Physical Experiments Supplementary Video (ICRA 2020 Video Submission)
kcontents