악천후 시 시야 확보해 주는 레이더 VIDEO: Upgraded Radar Can Enable Self-Driving Cars to See Clearly No Matter the Weather


美 샌디에이고대, 악천후에서 시야 확보해 주는 레이더 개발


두 정보 융합해 잡음없는 새 이미지 만드는 알고리즘 개발


     눈,비, 안개같은 좋지 않은 기상 상황에서도 물체를 감지해 안전한 주행을 보장해 줄 자율주행차용 고성능 레이더 기술이 개발됐다.


‘더로봇리포트’는 미 캘리포니아 샌디에이고 주립대의 전기 기술자들이 기존 레이더 센서의 영상 포착 능력을 향상시켜 현장에 있는 물체의 모양과 크기를 정확하게 예측해 보여주는 기발한 방법을 개발했다고 보도했다.



ucsdnews.ucsd.edu


 

Upgraded Radar Can Enable Self-Driving Cars to See Clearly No Matter the Weather




A new kind of radar could make it possible for self-driving cars to navigate safely in bad weather. Electrical engineers at the University of California San Diego developed a clever way to improve the imaging capability of existing radar sensors so that they accurately predict the shape and size of objects in the scene. The system worked well when tested at night and in foggy conditions.

The team will present their work at the Sensys conference Nov. 16 to 19.


Inclement weather conditions pose a challenge for self-driving cars. These vehicles rely on technology like LiDAR and radar to “see” and navigate, but each has its shortcomings. LiDAR, which works by bouncing laser beams off surrounding objects, can paint a high-resolution 3D picture on a clear day, but it cannot see in fog, dust, rain or snow. On the other hand, radar, which transmits radio waves, can see in all weather, but it only captures a partial picture of the road scene.


Enter a new UC San Diego technology that improves how radar sees.

“It’s a LiDAR-like radar,” said Dinesh Bharadia, a professor of electrical and computer engineering at the UC San Diego Jacobs School of Engineering. It’s an inexpensive approach to achieving bad weather perception in self-driving cars, he noted. “Fusing LiDAR and radar can also be done with our techniques, but radars are cheap. This way, we don’t need to use expensive LiDARs.”


View full text

https://ucsdnews.ucsd.edu/pressrelease/upgraded-radar-can-enable-self-driving-cars-to-see-clearly-no-matter-the-weather


edited by kcontents


시험 결과 이 시스템은 야간과 안개 낀 조건에서 시험했을 때 잘 작동했다. 궂은 날씨는 자율주행차의 정확한 주변 상황 파악에 어려움을 주는 요건이다. 이 차량들은 라이다나 레이더와 같은 기술에 의존해 보고 주행하지만 각각 단점이 있다.




상단사진 설명

실시간 차량 차원을 예측하는 다중레이더 시스템. 빨간색 상자는 예측이고, 파란색 상자는 지상 교정(地上較正) 차원(dimension)이다. (사진=크시티즈 반살)


라이다는 물체에 레이저 광선을 쏘아보내 튕겨나오는 것을 인식하는 방식으로 작동하는데 맑은 날에는 고해상도 3D로 물체를 인식하지만 안개,먼지,눈,비가 오는 날씨에는 볼 수 없다. 반면 전파를 송출하는 레이더는 모든 날씨에서 볼 수 있지만 도로 현장의 일부 사진만 포착한다.


디네시 바라디아 캘리포니아 샌디에이고 공대 제이콥스 공학부 전기·컴퓨터 공학과 교수는 “이것은 '라이다같은 레이더'이며 악천후에 주행하는 자율주행차에서 물체를 인식하게 할 수 있는 저렴한 접근법”이라고 말했다. 그는 “우리기술로 라이다와 레이더를 융합할 수도 있지만 레이더가 싸다. 이 기술을 사용하면 비싼 라이다를 쓸 필요가 없다”고 강조했다.


이 시스템은 차량 후드에 2개의 레이더 센서를 장착하는 방식으로 구성되며, 평균적으로 자동차 폭(1.5m) 정도의 간격을 둔다. 이 방식으로 두 개의 레이더 센서를 배치하는 것이 중요하다. 이들은 이 시스템을 통해 단일 레이더 센서보다 더 넓은 공간에 대한 더 자세한 정보를 볼 수 있었다.




맑은 날과 밤에 시험 주행하는 동안, 이 시스템은 라이다와 함께 교통흐름 속에서 이동하는 자동차의 거리를 결정하는 데 사용됐다. 안개 낀 날씨에서 거리를 측정하는 시뮬레이션 테스트에서도 그 성능은 변하지 않았다. 연구팀은 안개 기계를 이용해 또 다른 차량을 안개 속에 숨겼고, 이들의 시스템은 3차원(3D)로 차량의 배열을 예측했다. 라이다 센서만 사용했을 때는 기본적으로 이 테스트에 실패했다.


전통적으로 레이더 영상 화질이 떨어지는 이유는 전파가 물체에서 전송돼 튕겨나올 때 센서에 반사돼 오는 신호가 극히 일부에 불과하기 때문이다. 그 결과 차량, 보행자, 기타 물체가 희박한 점집합으로 나타난다.


 

미 캘리포니아 샌디에이고 주립대의 전기 기술자들이 기존 레이더 센서의 영상 포착 능력을 향상시켜 현장에 있는 물체의 모양과 크기를 정확하게 예측하는 현장. (사진=샌디에이고대)


샌디에이고대 컴퓨터공학 박사과정 학생인 크시티즈 밴살은 “단일 레이더로 영상을 촬영하는 것이 문제다. 이 경우 현장을 대표할 수 있는 포인트가 몇 개 안 되기 때문에 인지도가 떨어진다. 주변환경에 보이지 않는 다른 차들이 있을 수 있다”고 말했다. 그는 “하나의 레이더가 이러한 맹점을 초래한다면 다중 레이더 설정은 반사되는 점의 수를 증가시킴으로써 인식력을 향상시키게 될 것이다”라고 말했다.


연구팀은 차량 후드에 1.5m 간격으로 레이더 센서 2개를 띄우는 것이 최적의 배열이라는 것을 알아냈다.


밴살은 “중첩된 시야를 가진 서로 다른 위치에 레이더 2대를 배치함으로써 우리는 존재하는 물체를 탐지할 가능성이 높은 고해상도 영역을 만들어낸다”고 말했다.




2대의 레이더 이야기

이 시스템은 레이더의 또 다른 문제인 노이즈를 극복한다. 레이더 영상에는 일반적으로 어떤 물체에도 속하지 않는 임의의 점들이 나타난다. 이 센서는 또한 에코 신호(echo signals)로 불리는 것을 찝어내는데, 이것은 탐지되고 있는 물체로부터 직접 전달되지 않는 반사 전파다.


via youtube

edited by kcontents


바라디아는 레이더가 많아지면 노이즈도 더 많아진다고 지적했다. 그래서 그의 연구팀은 두 개의 서로 다른 레이더 센서로부터 정보를 융합해 잡음이 없는 새로운 이미지를 만들 수 있는 새로운 알고리즘(인공지능)을 개발했다.


연구팀의 또 다른 혁신은 두개의 레이더 데이터를 결합한 첫 번째 데이터 세트를 구축했다는 것이다.


바라디아는 “현재 이런 종류의 데이터를 가진 공개된 데이터세트는 없다”고 말했다. 이어 “우리는 자체 데이터를 수집하고 알고리즘을 교육하고 테스트하기 위해 자체 데이터 세트를 구축했다”고 밝혔다.


이 데이터 세트는 실제 교통상황과 모의실험 조건 속 주야 간 주행장면이 들어간 5만4000개 레이더 프레임으로 구성됐다.




앞으로의 작업에는 빗속에서 더 많은 데이터를 수집하는 것이 포함된다. 이를 위해 팀은 먼저 하드웨어에 더 나은 보호 커버를 씌울 필요가 있다. 이 팀은 현재 도요타와 협력해 이 새로운 레이더 기술을 카메라와 융합시키고 있다. 연구원들은 이것이 잠재적으로 라이다를 대체시킬 수 있을 것이라고 말한다.


바라디아는 “레이더만으로는 차의 색이나 제조사, 차종을 알 수 없다. 이러한 특징은 자율주행차에서 인지 능력 향상에 중요하다”고 말했다.

이성원  sungwonly09@gmail.com 로봇신문사


http://www.irobotnews.com/news/articleView.html?idxno=23095


Radar imaging through fog

 kcontents

댓글()