DGIST 전기전자컴퓨터공학과 임성훈 교수팀이 단안 카메라를 이용하여 3D 객체의 위치를 높은 정확도로 추정할 수 있는 딥러닝 기술을 개발했습니다. 3D 객체 추정은 자율주행에 필요한 핵심기술로서, 기존의 자율주행 기술의 원가를 줄이고 차량을 경량화하는 등의 응용이 가능할 것으로 기대됩니다.
3D 객체 추정은 자율주행차가 주변 환경을 인식하고, 그에 따라 안전하게 움직일 수 있게 하는 중요한 기술인데요. 이 기술을 통해 자율주행차는 주변의 사람, 도로 표지판, 다른 차량 등의 위치와 거리 및 크기를 정확하게 파악하여 안전한 주행이 가능합니다.
기존에 많이 사용되고 있는 단안 카메라를 이용한 객체 추정 방법은, 비용이 절감된다는 큰 장점이 있습니다. 그러나, 한 장의 이미지만으로 3D 정보를 얻어내는 것이 어렵다는 문제점을 가지고 있습니다. 특히, 객체와 카메라 간의 거리를 정확히 추정하는데 어려움이 있어 다소 성능이 떨어진다는 문제가 있었죠.
임성훈 교수팀은 이러한 문제점을 해결하기 위해, 신경망이 객체의 깊이를 잘 구분할 수 있도록 돕는 새로운 메트릭 학습 기법을 제안했습니다. 이 기법은 각각의 객체의 깊이 정보를 이용하여 신경망이 형성하는 특징 공간을 정렬하게 함으로써, 깊이를 쉽게 구분하도록 도와줍니다.
제안된 메트릭 학습 기법은 거의 모든 기존의 단안 카메라 추정 신경망에 적용이 가능합니다. 또한, 이미지 내에서 객체의 위치를 특정하는 과정에서 발생하는 오류를 보정할 수 있는 새로운 방법을 제안해 깊이 추정과 전체적인 3D객체 추정의 성능을 효과적으로 개선할 수 있었습니다.
DGIST 전기전자컴퓨터공학과 임성훈 교수는 “이번 연구를 통해 개발한 학습기법은 자율주행 시각인지 모델의 연산 시간을 유지하면서 성능을 크게 향상시키는 기술”이라 며 “앞으로 이 기술을 더욱 발전시킨다면 자율주행 기술의 발전에 매우 긍정적인 영향을 미칠 것으로 기대된다.”고 말했습니다.