‘값 싸고 정확하게’ 주변 환경 3D로 인식하는 자율주행 핵심 기술 개발
‘값 싸고 정확하게’ 주변 환경 3D로 인식하는 자율주행 핵심 기술 개발
  • 함예솔
  • 승인 2023.12.31 18:31
  • 조회수 1202
  • 댓글 0
이 기사를 공유합니다

DGIST 전기전자컴퓨터공학과 임성훈 교수팀이 단안 카메라를 이용하여 3D 객체의 위치를 높은 정확도로 추정할 수 있는 딥러닝 기술을 개발했습니다. 3D 객체 추정은 자율주행에 필요한 핵심기술로서, 기존의 자율주행 기술의 원가를 줄이고 차량을 경량화하는 등의 응용이 가능할 것으로 기대됩니다.

 

3D 객체 추정은 자율주행차가 주변 환경을 인식하고, 그에 따라 안전하게 움직일 수 있게 하는 중요한 기술인데요. 이 기술을 통해 자율주행차는 주변의 사람, 도로 표지판, 다른 차량 등의 위치와 거리 및 크기를 정확하게 파악하여 안전한 주행이 가능합니다.

 

기존에 많이 사용되고 있는 단안 카메라를 이용한 객체 추정 방법은, 비용이 절감된다는 큰 장점이 있습니다. 그러나, 한 장의 이미지만으로 3D 정보를 얻어내는 것이 어렵다는 문제점을 가지고 있습니다. 특히, 객체와 카메라 간의 거리를 정확히 추정하는데 어려움이 있어 다소 성능이 떨어진다는 문제가 있었죠.

임성훈 교수팀은 이러한 문제점을 해결하기 위해, 신경망이 객체의 깊이를 잘 구분할 수 있도록 돕는 새로운 메트릭 학습 기법을 제안했습니다. 이 기법은 각각의 객체의 깊이 정보를 이용하여 신경망이 형성하는 특징 공간을 정렬하게 함으로써, 깊이를 쉽게 구분하도록 도와줍니다. 

추정된 3D 객체 예시. 왼쪽 열은 이미지에서의 객체 추정 시각화, 오른쪽 열은 Bird-eye-view 시각화 결과이다. 오른쪽 열에서 볼 수 있듯이, 제안된 방법을 적용하였을 때, 기존의 방법에 비해 깊이 추정 오류가 감소하는 것을 확인할 수 있다. (초록: Ground-truth, 파랑: 기존의 방법, 빨강: 제안된 방법). 출처 : DGIST
추정된 3D 객체 예시. 왼쪽 열은 이미지에서의 객체 추정 시각화, 오른쪽 열은 Bird-eye-view 시각화 결과이다. 오른쪽 열에서 볼 수 있듯이, 제안된 방법을 적용하였을 때, 기존의 방법에 비해 깊이 추정 오류가 감소하는 것을 확인할 수 있다. (초록: Ground-truth, 파랑: 기존의 방법, 빨강: 제안된 방법). 출처 : DGIST

제안된 메트릭 학습 기법은 거의 모든 기존의 단안 카메라 추정 신경망에 적용이 가능합니다. 또한, 이미지 내에서 객체의 위치를 특정하는 과정에서 발생하는 오류를 보정할 수 있는 새로운 방법을 제안해 깊이 추정과 전체적인 3D객체 추정의 성능을 효과적으로 개선할 수 있었습니다. 

 

DGIST 전기전자컴퓨터공학과 임성훈 교수는 “이번 연구를 통해 개발한 학습기법은 자율주행 시각인지 모델의 연산 시간을 유지하면서 성능을 크게 향상시키는 기술”이라 며 “앞으로 이 기술을 더욱 발전시킨다면 자율주행 기술의 발전에 매우 긍정적인 영향을 미칠 것으로 기대된다.”고 말했습니다.

 


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • 충청남도 보령시 큰오랏3길
  • 법인명 : 이웃집과학자 주식회사
  • 제호 : 이웃집과학자
  • 청소년보호책임자 : 정병진
  • 등록번호 : 보령 바 00002
  • 등록일 : 2016-02-12
  • 발행일 : 2016-02-12
  • 발행인 : 김정환
  • 편집인 : 정병진
  • 이웃집과학자 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2016-2024 이웃집과학자. All rights reserved. mail to contact@scientist.town
ND소프트