KR102019594B1 - 저해상도 카메라를 위한 보정 기법을 이용한 차량 간 거리 추정 방법 및 그 장치 - Google Patents

저해상도 카메라를 위한 보정 기법을 이용한 차량 간 거리 추정 방법 및 그 장치 Download PDF

Info

Publication number
KR102019594B1
KR102019594B1 KR1020180026450A KR20180026450A KR102019594B1 KR 102019594 B1 KR102019594 B1 KR 102019594B1 KR 1020180026450 A KR1020180026450 A KR 1020180026450A KR 20180026450 A KR20180026450 A KR 20180026450A KR 102019594 B1 KR102019594 B1 KR 102019594B1
Authority
KR
South Korea
Prior art keywords
distance
vehicle
led
camera
determining
Prior art date
Application number
KR1020180026450A
Other languages
English (en)
Other versions
KR20190091174A (ko
Inventor
유명식
두트렁홉
최진석
Original Assignee
숭실대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숭실대학교산학협력단 filed Critical 숭실대학교산학협력단
Publication of KR20190091174A publication Critical patent/KR20190091174A/ko
Application granted granted Critical
Publication of KR102019594B1 publication Critical patent/KR102019594B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/11Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
    • H04B10/114Indoor or close-range type systems
    • H04B10/116Visible light communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

저해상도 카메라를 위한 보정 기법을 이용한 차량 간 거리 추정 방법 및 그 장치가 개시된다. 일 실시예에 따라 제1 차량 및 제2 차량 간의 거리를 추정하는 방법은 상기 제1 차량 및 상기 제2 차량 간의 거리에 관한 이전 추정 값, 상기 제1 차량의 속도, 상기 제2 차량의 속도 및 추정 시간 간격에 기초하여 상기 제1 차량 및 상기 제2 차량 간의 제1 추정 거리를 결정하는 단계, 상기 제1 차량에 설치된 제1 카메라 및 제2 카메라로 상기 제2 차량의 LED를 촬영하여 제1 촬영 이미지 및 제2 촬영 이미지를 획득하는 단계, 상기 제1 촬영 이미지 내 상기 LED에 대응하는 제1 LED 픽셀 및 상기 제2 촬영 이미지 내 상기 LED에 대응하는 제2 LED 픽셀을 검출하는 단계, 상기 제1 LED 픽셀 및 상기 제2 LED 픽셀 각각을 복수의 가상 픽셀로 분할하는 단계, 상기 복수의 가상 픽셀 각각 및 상기 LED 간의 기하학적 관계에 기초하여 제2 추정 거리를 결정하는 단계, 칼만 필터에 기초하여 상기 제1 추정 거리에 대응하는 제1 오차 분포 및 상기 제2 추정 거리에 대응하는 제2 오차 분포를 결정하는 단계, 상기 제1 오차 분포 및 상기 제2 오차 분포에 기초하여 최적의 거리를 결정하는 단계, 및 상기 최적의 거리에 기초하여 상기 제1 차량 및 상기 제2 차량 간의 거리를 추정하는 단계를 포함한다.

Description

저해상도 카메라를 위한 보정 기법을 이용한 차량 간 거리 추정 방법 및 그 장치{VEHICLE TO VEHICLE DISTANCE ESTIMATION METHOD USING COMPENSATION TECHNIQUE FOR LOW RESOLUTION CAMERA AND APPARATUS THEREOF}
아래 실시예들은 저해상도 카메라를 위한 보정 기법을 이용한 차량 간 거리 추정 방법 및 그 장치에 관한 것이다.
가시광 통신(visible light communication, VLC)은 무선 스펙트럼의 포화를 완화할 수 있는 새로운 기술로서, 이 새롭고 유망한 무선 통신 기술은 앞으로 수십 년 동안 상당한 관심을 받을 수 있다. VLC는 저비용, 환경 친화성, 유지보수 용이성, 높은 보안성, 제어 용이성 등으로 인해 널리 보급될 수 있다. LED(light emitting diode) 기반의 VLC 시스템은 차량용으로 적합하며 이러한 용도로 많은 도로 관련 애플리케이션 및 서비스가 존재한다. 이 시스템은 운전자가 안전을 유지하고 교통 법규를 준수할 수 있도록 도와줄 수 있다. VLC 시스템은 도로 교통 안전 정보를 제공하고 사고 가능성을 최소화하며 도로상의 교통 흐름을 증가시킬 수 있다.
VLC 기술은 전 세계 많은 연구 기관에서 상용화를 목표로 개발 중이며 수중 VLC 장비, Picapicamera 등 이미 일부 제품이 출시되었다. 최근 연구자들은 차량 대 차량 위치 확인을 위해 이미지 센서 기반 VLC를 사용한다. 이는 주행 안전을 향상시키는 지능형 교통 시스템 (intelligent transport system, ITS)의 기본 구조를 구성할 수 잇다. ITS는 도로 교통 및 교통 순환 효율에 관한 문제를 해결하고 환경 부하를 줄이는 최신 정보 기술 시스템을 통해 사람, 도로 및 차량을 조정한다.
관련 선행기술로는 공개특허 제10- 2007-0089140호가 있다.
일 실시예에 따르면 제1 차량 및 제2 차량 간의 거리를 추정하는 방법은 상기 제1 차량 및 상기 제2 차량 간의 거리에 관한 이전 추정 값, 상기 제1 차량의 속도, 상기 제2 차량의 속도 및 추정 시간 간격에 기초하여 상기 제1 차량 및 상기 제2 차량 간의 제1 추정 거리를 결정하는 단계; 상기 제1 차량에 설치된 제1 카메라 및 제2 카메라로 상기 제2 차량의 LED를 촬영하여 제1 촬영 이미지 및 제2 촬영 이미지를 획득하는 단계; 상기 제1 촬영 이미지 내 상기 LED에 대응하는 제1 LED 픽셀 및 상기 제2 촬영 이미지 내 상기 LED에 대응하는 제2 LED 픽셀을 검출하는 단계; 상기 제1 LED 픽셀 및 상기 제2 LED 픽셀 각각을 복수의 가상 픽셀로 분할하는 단계; 상기 복수의 가상 픽셀 각각 및 상기 LED 간의 기하학적 관계에 기초하여 제2 추정 거리를 결정하는 단계; 칼만 필터(Kalman filter)에 기초하여 상기 제1 추정 거리에 대응하는 제1 오차 분포 및 상기 제2 추정 거리에 대응하는 제2 오차 분포를 결정하는 단계; 상기 제1 오차 분포 및 상기 제2 오차 분포에 기초하여 최적의 거리를 결정하는 단계; 및 상기 최적의 거리에 기초하여 상기 제1 차량 및 상기 제2 차량 간의 거리를 추정하는 단계를 포함한다.
일 실시예에 따르면 제1 차량 및 제2 차량 간의 거리를 추정하는 장치는 제1 카메라 및 제2 카메라로 상기 제2 차량의 LED를 촬영하여 제1 촬영 이미지 및 제2 촬영 이미지를 생성하는 촬영부; 상기 제1 차량 및 상기 제2 차량 간의 거리에 관한 이전 추정 값, 상기 제1 차량의 속도, 상기 제2 차량의 속도 및 추정 시간 간격에 기초하여 상기 제1 차량 및 상기 제2 차량 간의 제1 추정 거리를 결정하고, 상기 제1 촬영 이미지 내 상기 LED에 대응하는 제1 LED 픽셀 및 상기 제2 촬영 이미지 내 상기 LED에 대응하는 제2 LED 픽셀을 검출하고, 상기 제1 LED 픽셀 및 상기 제2 LED 픽셀 각각을 복수의 가상 픽셀로 분할하고, 상기 복수의 가상 픽셀 각각 및 상기 LED 간의 기하학적 관계에 기초하여 제2 추정 거리를 결정하고, 칼만 필터(Kalman filter)에 기초하여 상기 제1 추정 거리에 대응하는 제1 오차 분포 및 상기 제2 추정 거리에 대응하는 제2 오차 분포를 결정하고, 상기 제1 오차 분포 및 상기 제2 오차 분포에 기초하여 최적의 거리를 결정하는 연산부; 및 상기 최적의 거리에 기초하여 상기 제1 차량 및 상기 제2 차량 간의 거리를 추정하는 거리 추정부를 포함한다.
도 1은 일 실시예에 따른 거리 추정 시스템을 나타낸 도면.
도 2는 일 실시예에 따른 촬영 이미지에서 LED 픽셀을 추출하는 과정을 나타낸 도면.
도 3은 일 실시예에 따른 실제 LED 및 촬영 이미지 내 LED 픽셀 간의 기하학적인 관계를 나타낸 도면.
도 4는 일 실시예에 따른 카메라의 표준 자세 및 카메라의 임의 자세를 나타낸 도면.
도 5는 일 실시예에 따른 저해상도 촬영 이미지 및 고해상도 촬영 이미지를 나타낸 도면.
도 6은 일 실시예에 따른 가상 픽셀을 이용하여 저해상도 이미지를 보정하는 과정을 나타낸 도면.
도 7은 일 실시예에 따른 거리 추정 방법을 나타낸 동작 흐름도.
도 8은 일 실시예에 따른 최적의 거리 결정 방법을 나타낸 동작 흐름도.
도 9는 일 실시예에 따른 가상 픽셀 및 LED 간의 기하학적 관계에 기초하여 추정 거리를 결정하는 방법을 나타낸 동작 흐름도.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.
본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 “~사이에”와 “바로~사이에” 또는 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, “포함하다” 또는 “가지다” 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명은 이미지 센서 기반 가시광 통신(visible light communication, VLC)을 통해 차량 간의 거리를 결정하는 기법을 제안하며, 본 발명에 따라 제안되는 기법은 지능형 교통 시스템(intelligent transport system, ITS)에 적용될 수 있다. 본 발명은 두 대의 카메라 내 두 이미지 센서를 사용하며, 하나의 LED를 통해 거리를 추정할 수 있다. 또한 차량에 설치된 카메라는 해상도가 떨어질 수 있고, 이는 이미지 센서상의 픽셀의 좌표를 정확하게 결정하기에는 불충분할 수 있는데, 본 발명은 카메라 해상도가 낮을 때 두 차량 간의 거리를 정확하게 결정하는 방법을 제공함으로써 이 문제를 해결할 수 있다.
본 발명에서는 카메라 기반 VLC를 사용하여 두 차량 간의 거리를 결정할 수 있다. 카메라는 차량의 전방에 있는 LED를 포착하기 위해 차량에 장착될 수 있으며 두 차량 사이의 거리는 촬영된 이미지를 사용하여 결정될 수 있다. LED의 고휘도 및 콤팩트한 형상으로 인해 촬영된 이미지의 LED가 쉽게 감지될 수 있다. 또한, 통신 능력에 의해, 위치 결정에 유용한 정보가 차량들 사이에서 전송 될 수 있고, 차량 LED의 빛은 차량 LED를 배경의 다른 조명 개체와 구별 할 수 있도록 모듈화 된 깜박임 패턴을 가질 수 있다.
기존 알고리즘은 카메라가 최소한 3개 또는 4개의 LED를 촬영해야 한다. 그러나 실제로 도로의 교통으로 인해 나머지 LED가 숨겨져 있기 때문에 카메라는 단 하나의 LED 만 촬영하는 경우가 다수 존재한다. 또한 고해상도 카메라의 비용이 높기 때문에 차량에는 보통 낮은 해상도의 카메라가 사용될 수 있다. 카메라의 해상도가 낮으면 LED의 이미지 좌표를 정확하게 결정하기가 어렵고, 이에 따라 거리 오차가 커질 수 있다.
본 발명에 따르면 이러한 문제가 해결될 수 있다. LED가 가려지면 카메라는 하나의 LED만 촬영 할 수 있으므로 두 대의 카메라로 하나의 LED를 촬영하여 차량의 위치를 추정할 수 있다. 두 대의 카메라가 차량에 설치될 경우, 본 발명은 하나의 LED만 사용하여 두 차량 간의 거리를 추정할 수 있다. 저해상도와 관련하여 본 발명은 이미지의 픽셀을 여러 가상 픽셀로 세분화하는 보정 방법을 제공할 수 있다. 그런 다음 LED가 존재할 수 있는 가상 픽셀을 설정하여 두 자동차 간의 거리를 더 정확하게 추정할 수 있다. 그 후, 칼만 필터와 중앙 값 선택 방법을 통해 두 차량 간의 거리가 세밀하게 추정될 수 있다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일 실시예에 따른 거리 추정 시스템을 나타낸 도면이다.
도 1을 참조하면, 장치(115)는 촬영부(116), 연산부(117) 및 거리 추정부(118)를 포함한다. 장치(115)는 제1 차량(110)에 포함될 수 있으며, 촬영부(116), 연산부(117) 및 거리 추정부(118)를 이용하여 제1 차량(110) 및 제2 차량(120) 간의 거리를 추정할 수 있다.
촬영부(116)는 제1 카메라(10) 및 제2 카메라(20)를 포함할 수 있고, 제1 카메라(10) 및 제2 카메라(20)로 제2 차량(120)의 LED(30)를 촬영하여 제1 촬영 이미지 및 제2 촬영 이미지를 생성할 수 있다. LED(30)를 포함하는 촬영 이미지가 생성되면, 촬영 이미지 내 LED(30)에 대응하는 LED 픽셀의 좌표를 결정하기 위해 데이터 추출 프로세스가 수행될 수 있다. 데이터 추출 프로세스는 아래에서 상세히 설명한다.
도 2는 일 실시예에 따른 촬영 이미지에서 LED 픽셀을 추출하는 과정을 나타낸 도면이다.
도 2를 참조하면, 촬영 이미지(210)는 전방의 조명 객체 및 비조명 객체를 포함한다. 촬영 이미지(210) 내 조명 객체는 전방 차량(211)의 LED(212)를 포함한다. 촬영 이미지(220)는 촬영 이미지(210)에서 LED(212)가 추출된 상태를 나타낸다. LED(212)는 촬영 이미지(220)에 LED 픽셀(213)로 나타나 있다.
LED(212)의 휘도(luminance)는 백그라운드의 비조명 객체의 휘도보다 크게 높을 수 있다. 따라서 촬영 이미지(210)의 LED(212)에 해당하는 픽셀 값은 배경에 해당하는 픽셀 값보다 크게 높다. 따라서 이러한 특성을 이용하여 촬영 이미지(210) 내의 LED(212)의 픽셀 좌표가 검출될 수 있다. 가로등과 같은 조명 객체가 존재할 수 있는데, LED(212)는 주변의 조명 객체와의 구분을 위해 깜박임 패턴을 출력할 수 있다. 따라서 촬영 이미지(210) 내 조명 객체들 중 깜빡임 패턴을 갖는 객체가 식별될 수 있고, 식별된 객체가 LED(212)로 결정될 수 있다.
주간 환경에서는 촬영 이미지(210) 내 LED(212)와 배경 간의 대비가 야간 환경보다 낮다. 그러나 LED(212)의 휘도는 차체나 노면과 같은 다른 물체의 휘도보다 여전히 높기 때문에 LED(212)가 검출될 수 있다. 현재 대부분의 상용 차량은 주간 환경에서 볼 때 높은 휘도를 보이는 주간 주행 등(daytime runninglights, DRL)으로 생산된다. 현재 LED를 이용한 차량 통신에 관한 기존 기술에서 주간 환경에서의 LED 검출이 가능한 것이 밝혀진 상태이다.
본 발명에서는 촬영 이미지(210)에 왜곡이 발생하지 않는 것을 가정한다. 왜곡은 렌즈의 결함 등으로 인해 발생할 수 있다. 그러나 이 효과는 현재 대부분의 상업용 카메라에 내장된 다양한 종류의 교정 알고리즘을 사용하여 보정할 수 있다. 교정 알고리즘이 없는 카메라의 경우 데이터 추출 과정을 수행하기 전에 왜곡 효과를 없애기 위해 일부 종류의 교정 알고리즘이 촬영된 이미지에 적용될 수 있다.
또한 장거리에서 먼지나 안개로 인한 LED(212)의 밝기 감소가 미미할 정도로 공기 매체가 합리적인 것을 가정한다. 차량 사이의 거리가 멀어지면 촬영 이미지(210)에서 LED(212)의 크기가 줄어든다. 거리가 너무 멀면 LED(212)의 이미지 사이즈가 너무 작아서 LED(212)의 감지가 어려워질 수 있다. 그러나 이것은 거리를 추정하는 현재 차량에 대해 위협 등의 영향을 주지 않기 때문에 고려되지 않을 수 있다. 다시 말해 매우 먼 거리에 위치하는 차량에 대한 거리 추정은 불필요할 수 있다.
다시 도 1을 참조하면, 연산부(117)는 제1 촬영 이미지 및 제2 촬영 이미지 각각에 나타난 LED(30)의 LED 픽셀, 및 LED(30) 간의 기하학적인 관계에 기초하여 두 차량(110, 120) 사이의 거리를 추정하기 위한 데이터들을 처리할 수 있다. 거리 추정부(119)는 연산부(117)의 처리 결과에 기초하여 제1 차량(110) 및 제2 차량(120) 간의 거리를 추정할 수 있다. 거리 추정과 관련된 동작은 아래에서 상세히 설명한다.
도 3은 일 실시예에 따른 실제 LED 및 촬영 이미지 내 LED 픽셀 간의 기하학적인 관계를 나타낸 도면이다.
차량에서 가로등까지의 거리는 실제 세계(real world)의 가로등과 촬영 이미지에 나타난 가로등 사이의 기하학적 관계에 따라 결정될 수 있다. 또한 제1 차량에서 제2 차량까지의 거리는 실제 세계에서 제2 차량의 LED 라이트와 촬영 이미지에 나타난 LED 라이트 사이의 기하학적 관계에 따라 결정될 수 있다. 아래에서는 차량 간의 거리를 추정하는 기법을 설명하겠으나, 아래의 설명은 차량에서 가로등까지의 거리를 추정하는데도 이용될 수 있다.
두 대의 카메라가 서로 옆에 배치되어 단일 LED(350)의 이미지를 촬영한다. LED(340)의 월드 좌표는 X이다. 각 카메라에는 도로에 수직인 센서 평면과 도로에 평행한 센서의 넓은 에지가 있다. 도 3에는 제1 카메라의 제1 카메라 평면(310) 및 제2 카메라의 평면(320)이 도시되어 있다. 제1 카메라 평면(310)은 제1 촬영 이미지에 대응할 수 있고, 제2 카메라 평면(320)은 제2 촬영 이미지에 대응할 수 있다. 카메라가 도로의 평행한 상태는 카메라가 표준 포즈를 갖는 것으로 지칭될 수 있으며, 이와 구분하여 카메라가 도로에 평행하지 않은 상태는 카메라가 임의 포즈를 갖는 것으로 지칭될 수 있다. 카메라가 표준 포즈를 갖는 경우 및 임의 포즈를 갖는 경우의 차이점은 후술한다.
두 카메라는 알려진 측면 거리(lateral distance)의 동일한 평면에 장축(major axis, 330)을 공유하는 동일 선상에 설치되고, 두 카메라의 렌즈 초점 거리가 같다고 가정한다. 따라서 두 카메라는 초점 면(focal plane, 340)을 공유한다. 도 3에서 f는 렌즈의 초점 거리를 나타내고, D는 두 카메라 간의 간격을 나타낸다. f와 D는 미리 알려질 수 있다.
LED(350)에서 각 카메라까지의 거리
Figure 112018022623772-pat00001
,
Figure 112018022623772-pat00002
는 아래 계산 과정을 통해 정밀하게 계산될 수 있다. 거리를 계산하는 절차에서 카메라의 초점 거리와 이미지 센서의 해상도를 포함한 카메라 사양이 이용될 수 있다.
Figure 112018022623772-pat00003
,
Figure 112018022623772-pat00004
각각은 이미지 센서의 중심 및 이미지 센서 상의 픽셀 사이의 거리로 설정될 수 있다. 예를 들어 이미지 센서 상의 픽셀은 LED(350)에 대응하는 제1 이미지 평면(310) 상의 제1 LED 픽셀
Figure 112018022623772-pat00005
, 혹은 제2 이미지 평면(320) 상의 제2 LED 픽셀
Figure 112018022623772-pat00006
을 포함할 수 있다. 이 경우
Figure 112018022623772-pat00007
은 제1 카메라의 센서 중심
Figure 112018022623772-pat00008
및 제1 LED 픽셀
Figure 112018022623772-pat00009
간의 거리를 나타낼 수 있고,
Figure 112018022623772-pat00010
는 제2 카메라의 센서 중심
Figure 112018022623772-pat00011
및 제2 LED 픽셀
Figure 112018022623772-pat00012
간의 거리를 나타낼 수 있다. 그러면 이미지 센서의 장축(330)에 대한
Figure 112018022623772-pat00013
,
Figure 112018022623772-pat00014
의 투영은 각각
Figure 112018022623772-pat00015
Figure 112018022623772-pat00016
가 된다. 이에 따라 수학식 1을 구할 수 있다.
Figure 112018022623772-pat00017
여기서 a는 제1 LED 픽셀
Figure 112018022623772-pat00018
및 제1 카메라의 중심 I 간의 거리를 나타내고, b는 제2 LED 픽셀
Figure 112018022623772-pat00019
및 제2 카메라의 중심 J 간의 거리를 나타낸다.
도 3에서 각도 α 및 β는 핀홀 카메라 모델을 통해 LED 및 이미지 센서 공간으로부터 형성된 각도를 나타낸다. 각도 α는 제1 카메라의 중심 I를 꼭지점으로 하여 형성되거나, 혹은 LED(350)를 꼭지점으로 하여 형성될 수 있다. 또한, 각도 β는 제2 카메라의 중심 J를 꼭지점으로 하여 형성되거나, 혹은 상LED(350)를 꼭지점으로 하여 형성될 수 있다. 이러한 각도 α 및 β를 갖는 합동 삼각형(similar triangle)에 기초하여 거리
Figure 112018022623772-pat00020
,
Figure 112018022623772-pat00021
가 계산될 수 있다.
우선 합동 삼각형의 특성에 따라 수학식 2 및 수학식 3가 도출될 수 있다.
Figure 112018022623772-pat00022
Figure 112018022623772-pat00023
여기서 h는 초점 면(340) 및 LED(350) 간의 거리를 나타내고,
Figure 112018022623772-pat00024
은 LED(350) 및 제1 카메라의 중심 I 간의 거리를 나타내고,
Figure 112018022623772-pat00025
는 LED(350) 및 제2 카메라의 중심 J 간의 거리를 나타내고, O는 초점 면(340)에 대한 LED(450)의 수선의 발을 나타낸다. 직선 OA 및 직선 OB는 직선 IJ에 평행하다. 수학식 3을 이용하여 h를 수학식 4와 같이 나타낼 수 있다.
Figure 112018022623772-pat00026
또한, 탄젠트 법칙을 이용하여 각도 α 및 각도 β를 수학식 5를 통해 구할 수 있다.
Figure 112018022623772-pat00027
초점 거리 f를 알고 있다면, 제1 센서 중심
Figure 112018022623772-pat00028
및 제1 LED 픽셀
Figure 112018022623772-pat00029
간의 거리
Figure 112018022623772-pat00030
, 및 초점 거리 f에 기초하여 각도 α가 계산될 수 있고, 제2 센서 중심
Figure 112018022623772-pat00031
및 제2 LED 픽셀
Figure 112018022623772-pat00032
간의 거리
Figure 112018022623772-pat00033
, 및 초점 거리 f에 기초하여 각도 β가 계산될 수 있다. 거리
Figure 112018022623772-pat00034
Figure 112018022623772-pat00035
는 수학식 6을 사용하여 계산될 수 있다.
Figure 112018022623772-pat00036
다음으로 수학식 7을 통해
Figure 112018022623772-pat00037
가 계산될 수 있으며, 계산된
Figure 112018022623772-pat00038
에 기초하여 차량 간의 거리가 추정될 수 있다.
Figure 112018022623772-pat00039
여기서
Figure 112018022623772-pat00040
는 제1 카메라의 중심 I 및 제2 카메라의 중심 J 간의 중점 M에서 LED(350)까지의 거리를 나타낸다.
도 4는 일 실시예에 따른 카메라의 표준 자세 및 카메라의 임의 자세를 나타낸 도면이다.
도 4를 참조하면 카메라(410)는 차량(420)에 대해 표준 자세를 가지고 있고, 카메라(430)는 차량(440)에 대해 임의 자세를 가지고 있다.
실제로, 카메라는 표준 자세와는 다른 임의의 자세를 가질 수 있다. 이 경우 두 카메라에서 촬영된 이미지는 이들 카메라에서 표준 자세로 촬영된 것처럼 변환될 수 있다. 이 변환은 두 카메라의 자세와 관련된 정보가 카메라와 함께 설치된 관성 센서를 통해 얻어지는 경우 수행될 수 있다. 그 후, 전술된 알고리즘이 변환된 이미지에 적용되어 두 차량 간의 거리가 추정될 수 있다.
변환은 핀홀 카메라 모델을 통해 수행될 수 있다. 이 모델에는 3D 세계 좌표계와 2D 이미지 좌표계가 포함된다. 검출된 LED가
Figure 112018022623772-pat00041
의 월드 좌표를 가지고 있다고 가정하면, 그 것의 2D 이미지 좌표
Figure 112018022623772-pat00042
는 수학식 8과 같이 나타낼 수 있다.
Figure 112018022623772-pat00043
K는 카메라의 고유 행렬(intrinsic matrix)을 나타내고, R은 3 Х 3 회전 행렬을 나타내고, T는 3 Х 3 변환 행렬을 나타낸다. 변환 행렬 T는 수학식 9와 같이 나타낼 수 있다.
Figure 112018022623772-pat00044
고유 행렬 K는 초점 길이 및 센서 크기와 같은 카메라의 고유 파라미터를 통해 수학식 10과 같이 나타낼 수 있다.
Figure 112018022623772-pat00045
카메라의 현재 자세에서 카메라의 표준 자세로 이미지 센서의 회전을 나타내기 위해, 월드 좌표에서 회전 행렬이 결정된다. 관성 센서는 회전 행렬을 형성하기 위해 x, y 및 z 축의 기울기에 관한 정보를 추출한다. 관성 센서는 매우 민감하므로 전체 시스템의 응답 시간에 영향을 주지 않으면서 움직임의 작은 변화가 즉시 수집되고 처리된다. 회전 행렬을 형성하기 위해 x, y, z 축에 해당하는 관성 센서에서 측정된 편차로 각도 φ, ø, θ가 고려된다. 행렬 곱셈에 의해 회전된 세 행렬 요소로부터 얻은 회전 행렬은 수학식 11과 같이 나타낼 수 있다.
Figure 112018022623772-pat00046
Figure 112018022623772-pat00047
임의 자세에 대응하는 현재 이미지 내 모든 픽셀에 수학식 12에 따른 변환을 적용하여 현재 이미지는 표준 자세에 대응하도록 변환될 수 있다.
Figure 112018022623772-pat00048
여기서 x는 임의 자세에 대응하는 이미지 내 이미지 좌표를 나타내고,
Figure 112018022623772-pat00049
는 표준 자세에 대응하는 이미지에서 x에 대응하는 이미지 좌표를 나타낸다.
일단 변환된 이미지를 얻으면,
Figure 112018022623772-pat00050
Figure 112018022623772-pat00051
를 계산하기 위해 수학식 6이 이용될 수 있고, 수학식 7을 통해 두 차량 간의 거리가 결정될 수 있다.
도 5는 일 실시예에 따른 저해상도 촬영 이미지 및 고해상도 촬영 이미지를 나타낸 도면이다.
이미지 센서의 해상도는 카메라를 통한 위치 및 거리 추정 시 문제가 될 수 있다. 카메라가 LED를 촬영하면 이미지 센서의 특정한 행 및 열에 LED의 이미지가 나타낸다. 도 5를 참조하면, 저해상도 촬영 이미지(510)의 경우 LED 이미지가 픽셀(510) 내 어느 위치에 있든, 다시 말해 LED 이미지가 픽셀(510)의 왼쪽 위 좌표(512)에 있든 픽셀의 오른쪽 아래 좌표(513)에 있든 픽셀(510)의 중심 좌표(514)에 있는 것으로 처리된다. 고해상도 촬영 이미지(520)의 경우 저해상도 촬영 이미지(510)에 나타난 두 좌표(512, 513)가 다르게 처리될 수 있다. 따라서 이미지 센서의 해상도가 낮으면 이미지에서 감지된 LED의 픽셀 좌표가 위치 및 거리 추정 알고리즘에 정확한 정보를 제공하지 못한다. 결과적으로 저해상도 이미지 센서로 추정한 거리는 그 오차가 클 수 있다. 본 발명에서는 이미지 센서의 저해상도로 인한 오차를 보상하여 저해상도 이미지 센서로도 높은 거리 추정 정확도를 얻을 수 있는 기법이 제안된다.
도 6은 일 실시예에 따른 가상 픽셀을 이용하여 저해상도 이미지를 보정하는 과정을 나타낸 도면이다.
제2 차량의 LED는 제1 차량에 장착된 두 대의 카메라로 촬영된다. 두 카메라의 두 이미지가 처리되어 두 이미지의 LED 픽셀 좌표 A 및 B가 검출된다. 두 이미지에 나타난 LED 픽셀 및 실제 세계의 LED 간의 기하학적인 관계에 기초한 상술된 거리 추정 알고리즘을 사용하기 전에 두 차량 간의 거리 ED가 시스템의 물리적 모델을 통해 추정된다. 여기서 추정된 거리는 제1 추정 거리로 지칭될 수 있다. 그 후 이 두 픽셀은 각각 n개의 가상 픽셀로 나뉘어진다. 가상 픽셀
Figure 112018022623772-pat00052
Figure 112018022623772-pat00053
의 각 쌍에 대해 LED는 두 이미지에서 이 두 픽셀에 나타나고, 차량 거리
Figure 112018022623772-pat00054
는 상술된 거리 추정 알고리즘을 통해 추정된다. 여기서 추정된 거리는 제2 추정 거리로 지칭될 수 있다. 그런 다음 칼만 필터(Kalman filter)를 사용하여
Figure 112018022623772-pat00055
및 ED에서 보다 정확한 거리
Figure 112018022623772-pat00056
를 얻는다. 마지막으로, 중앙 값 선택 방법을 통해
Figure 112018022623772-pat00057
개의 거리
Figure 112018022623772-pat00058
중에서 최상의 거리
Figure 112018022623772-pat00059
가 결정된다.
제1 차량의 속도는 속도계를 통해 알 수 있고, 제2 차량의 속도는 VLC를 통해 알 수 있다. 즉 제2 차량은 자신의 속도계를 통해 자신의 속도를 측정하고, 측정된 자신의 속도를 VLC를 통해 제1 차량에 전송할 수 있다. 실시예에 따라 제2 차량의 속도는 RF(radio frequency) 통신과 같은 VLC 이외의 다양한 통신 방법을 통해 제1 차량에 제공될 수 있다. 거리 추정은 일정한 시간 간격으로 수행될 수 있는데, 이 때 인접한 두 추정 사이의 시간 간격은 미리 알려진 것으로 가정한다. 이 경우 두 차량 간의 거리는 시스템의 물리적 모델을 통해 추정될 수 있다.
보다 구체적으로
Figure 112018022623772-pat00060
을 제1 차량의 속도로 두고,
Figure 112018022623772-pat00061
를 제2 차량의 속도로 두고,
Figure 112018022623772-pat00062
를 이전 추정에서 얻어진 차량 간 거리로 두고,
Figure 112018022623772-pat00063
를 두 추정 사이의 시간 간격으로 두면, 두 차량 간의 거리는 수학식 13의 물리적 모델을 통해 추정될 수 있다.
Figure 112018022623772-pat00064
다음으로 두 차량 간의 거리를 추정하는데 상술된 거리 추정 알고리즘이 사용될 수 있다. LED가 포함된 이미지가 촬영되면, 촬영 이미지에서 LED 픽셀(A, B)이 검출된다. 고해상도 카메라를 사용하면 감지된 LED 픽셀 좌표를 사용하여 차량 간의 거리가 정확하게 추정될 수 있지만, 카메라의 해상도가 낮으면 거리 추정의 오차는 증가될 수 있다. 따라서 두 이미지의 LED 픽셀(A, B)은 n개의 가상 픽셀
Figure 112018022623772-pat00065
,
Figure 112018022623772-pat00066
, ...,
Figure 112018022623772-pat00067
Figure 112018022623772-pat00068
,
Figure 112018022623772-pat00069
, ...,
Figure 112018022623772-pat00070
으로 나뉘어진다. 두 이미지에서 LED 픽셀의 실제 위치는 가상 픽셀 중 하나의 쌍
Figure 112018022623772-pat00071
,
Figure 112018022623772-pat00072
라고 가정한다. i는 LED 픽셀(A) 내 가상 픽셀을 구분하기 위한 인덱스를 나타내고, j는 LED 픽셀(B) 내 가상 픽셀을 구분하기 위한 인덱스를 나타낸다. 이 경우
Figure 112018022623772-pat00073
가 도 3의 제1 LED 픽셀
Figure 112018022623772-pat00074
인 것으로 보고,
Figure 112018022623772-pat00075
가 도 3의 제2 LED 픽셀
Figure 112018022623772-pat00076
인 것으로 볼 수 있으며, 도 3에서 설명된 기하학적 관계에 기반한 거리 추정 방법이 그대로 사용될 수 있다.
LED 픽셀의 실제 위치를
Figure 112018022623772-pat00077
,
Figure 112018022623772-pat00078
라고 가정하면 상술된 거리 추정 알고리즘을 통해 두 차량 간의 거리가 추정될 수 있다. 이 추정 거리는
Figure 112018022623772-pat00079
로 표시된다. 단위 LED 픽셀(A, B)이 n개의 가상 픽셀로 나누어진 뒤 쌍
Figure 112018022623772-pat00080
,
Figure 112018022623772-pat00081
가 선택되면 차량 간의 거리가 보다 정밀하게 추정될 수 있다. 이를 위해 우선 상술된 거리 추정 알고리즘 기반으로 칼만 필터를 사용하여 거리 추정의 정확도를 향상시킬 수 있다.
Figure 112018022623772-pat00082
와 ED가 한 쌍 주어진다면, 상술된 거리 추정 알고리즘 및 물리적 모델을 통해 차량 간 거리가 각각 추정된다. Kalman 필터는 추정된 거리를 미세 조정하여보다 정확한 거리를 얻는 데 사용된다.
상술된 거리 추정 알고리즘을 통해
Figure 112018022623772-pat00083
가 계산되고, 물리적 모델을 통해 ED가 계산되면,
Figure 112018022623772-pat00084
및 ED의 쌍이 주어지게 된다. 이 쌍을 통해 추정된 거리의 미세 조정을 위해 칼만 필터가 이용될 수 있다.
칼만 필터는 두 단계로 구성된다. 첫 번째 단계인 예측 단계에서는, 물리적 모델을 통해 차량 거리 ED가 계산되며, 오차 분포가 결정된다. 여기서 결정된 오차 분포는 제1 오차 분포로 지칭될 수 있다. 예측 단계를 위한 물리적 모델의 오차 분포는 수학식 14와 같이 나타낼 수 있다.
Figure 112018022623772-pat00085
Figure 112018022623772-pat00086
여기서
Figure 112018022623772-pat00087
는 공분산
Figure 112018022623772-pat00088
를 갖는 제로 평균 다변량 정규 분포(zero mean multivariatenormal distribution)
Figure 112018022623772-pat00089
으로부터 추출되는 프로세스 잡음이다.
두 번째 단계인 갱신 단계에서는 상술된 거리 추정 알고리즘을 사용하여 차량 거리
Figure 112018022623772-pat00090
를 추정하고 오차 분포를 결정한다. 여기서 결정된 오차 분포는 제2 오차 분포로 지칭될 수 있다. 최적의 칼만 게인(Kalman gain)은 물리적 모델로부터 결정된 제1 오차 분포 및 상술된 거리 추정 알고리즘을 사용하여 얻은 제2 오차 분포로부터 계산될 수 있다. 두 거리 ED와
Figure 112018022623772-pat00091
로부터 최적의 칼만 게인을 적용하여 최적의 거리에 관한 후보
Figure 112018022623772-pat00092
를 얻는다. 여기서 k = i Х n + j이다. 최적의 거리에 관한 후보
Figure 112018022623772-pat00093
는 ED와
Figure 112018022623772-pat00094
보다 더 정확한 값을 가질 수 있다.
상술된 거리 추정 알고리즘을 사용하여 추정된 거리의 오차 분포는 수학식 15와 같이 나타낼 수 있다.
Figure 112018022623772-pat00095
여기서
Figure 112018022623772-pat00096
는 공분산
Figure 112018022623772-pat00097
를 갖는 제로 평균 가우시안 백색 잡음(zero mean Gaussian white noise)으로 가정된 관측 잡음(observation noise)이다.
ED 및
Figure 112018022623772-pat00098
의 오차 분포로부터, 최적의 칼만 게인은 수학식 16과 같이 계산된다.
Figure 112018022623772-pat00099
최적의 칼만 게인을 사용하면 최적의 거리에 관한 후보가 수학식 17과 같이 계산될 수 있다.
Figure 112018022623772-pat00100
칼만 필터를 적용한 후에, 가상 픽셀의 각 쌍
Figure 112018022623772-pat00101
,
Figure 112018022623772-pat00102
로부터 최적의 거리에 관한 후보
Figure 112018022623772-pat00103
가 얻어지며, 총
Figure 112018022623772-pat00104
개의 최적의 거리에 관한 후보가 존재하게 된다. 이 중 가장 정확한 거리, 즉 최적의 거리를 찾기 위해, 수학식 18과 같이 중앙 값 선택 방법이 적용될 수 있다.
Figure 112018022623772-pat00105
여기서
Figure 112018022623772-pat00106
는 중앙 값 선택을 통해 결정된 최적의 거리이며,
Figure 112018022623772-pat00107
Figure 112018022623772-pat00108
는 각각 최적의 거리에 관한 후보들이 오름차순으로 정렬된 후
Figure 112018022623772-pat00109
Figure 112018022623772-pat00110
에서의 거리이다.
도 7은 일 실시예에 따른 거리 추정 방법을 나타낸 동작 흐름도이다.
도 7을 참조하면, 단계(710)에서 물리적 모델에 기초하여 제1 차량 및 제2 차량 간의 제1 추정 거리가 결정된다. 단계(710)는 도 1의 연산부(117)에 의해 수행될 수 있다. 제1 추정 거리가 결정되는 단계(710) 및 제2 추정 거리가 결정되는 단계(720 내지 750)의 수행 순서는 바뀔 수 있다. 예를 들어 단계(720 내지 750)가 수행된 이후에 단계(710)가 수행될 수 있다.
단계(720)에서 제1 차량에 설치된 제1 카메라 및 제2 카메라로 제2 차량의 LED를 촬영하여 제1 촬영 이미지 및 제2 촬영 이미지가 획득된다. 단계(720)은 도 1의 촬영부(116)에 의해 수행될 수 있다.
단계(720)가 수행되면 실시예에 따라 카메라의 자세가 임의 자세에서 표준 자세로 변환될 수 있다. 즉 제1 카메라 및 제2 카메라로 제2 차량의 LED를 촬영하여 제1 촬영 이미지 및 제2 촬영 이미지가 획득되었고, 제1 카메라 및 제2 카메라의 자세가 임의 자세에 해당한다면, 제1 카메라 및 제2 카메라의 자세는 표준 자세로 변환될 수 있다. 카메라의 자세를 표준 자세로 변환하는 방법은 도 4에서 설명되었다. 카메라의 자세가 표준 자세로 변환된 이후에는 아래에서 설명되는 과정을 통해 차량 간의 거리가 추정될 수 있다.
단계(730)에서 제1 촬영 이미지 내 LED에 대응하는 제1 LED 픽셀 및 제2 촬영 이미지 내 LED에 대응하는 제2 LED 픽셀이 검출된다. 단계(740)에서 제1 LED 픽셀 및 제2 LED 픽셀 각각이 복수의 가상 픽셀로 분할되고, 단계(750)에서 가상 픽셀 및 LED 간의 기하학적 관계에 기초하여 제2 추정 거리가 결정된다. 단계(760)에서 칼만 필터에 기초하여 제1 추정 거리에 대응하는 제1 오차 분포 및 제2 추정 거리에 대응하는 제2 오차 분포가 결정되고, 단계(770)에서 제1 오차 분포 및 제2 오차 분포에 기초하여 최적의 거리가 결정된다. 단계(730 내지 770)는 도 1의 연산부(117)에 의해 수행될 수 있다.
단계(780)에서 최적의 거리에 기초하여 제1 차량 및 제2 차량 간의 거리가 추정된다. 단계(780)는 도 1의 거리 추정부(118)에 의해 수행될 수 있다.
도 8은 일 실시예에 따른 최적의 거리 결정 방법을 나타낸 동작 흐름도이다.
도 8을 참조하면, 단계(810)에서 제1 오차 분포 및 제2 오차 분포에 기초하여 최적의 거리에 관한 후보들을 결정되고, 단계(820)에서 후보들에 관한 중간 값 선택에 기초하여 최적의 거리가 결정된다. 단계(810, 820)는 도 1의 연산부(117)에 의해 수행될 수 있다. 단계(810, 820)는 도 7의 단계(760) 이후에 수행될 수 있으며, 단계(810, 820)가 수행된 이후에 도 7의 단계(780)가 수행될 수 있다. 그 밖에 최적의 거리 결정 방법에는 상술된 사항이 적용될 수 있으며, 보다 상세한 설명은 생략한다.
도 9는 일 실시예에 따른 가상 픽셀 및 LED 간의 기하학적 관계에 기초하여 추정 거리를 결정하는 방법을 나타낸 동작 흐름도이다. 전술된 것처럼 본 실시예에 따른 가상 픽셀
Figure 112018022623772-pat00111
,
Figure 112018022623772-pat00112
는 도 3의 LED 픽셀
Figure 112018022623772-pat00113
,
Figure 112018022623772-pat00114
로 간주될 수 있고, 이에 따라 도 3에서 설명된 기하학적 관계에 기반한 거리 추정 방법이 그대로 적용될 수 있다.
도 9를 참조하면, 단계(910)에서 제1 각도를 기초로 하는 합동 삼각형의 특성을 이용하여 LED 및 제1 카메라 중심 간의 제1 거리가 결정되고, 단계(920)에서 제2 각도를 기초로 하는 합동 삼각형의 특성을 이용하여 LED 및 제2 카메라 중심 간의 제2 거리가 결정된다. 여기서 제1 각도, 제2 각도, 제1 거리 및 제2 거리는 각각 도 3의 α, β,
Figure 112018022623772-pat00115
Figure 112018022623772-pat00116
에 대응할 수 있다. 단계(940)에서 제1 거리 및 제2 거리에 기초하여 제1 카메라 중심 및 제2 카메라 중심 간의 중점에서 LED까지의 제3 거리가 결정된다. 단계(910, 920, 930)는 도 1의 연산부(117)에 의해 수행될 수 있다. 그 밖에 거리 추정 방법에는 상술된 사항이 적용될 수 있으며, 보다 상세한 설명은 생략한다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(Arithmetic Logic Unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(Field Programmable Gate Array), PLU(Programmable Logic Unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (10)

  1. 제1 차량 및 제2 차량 간의 거리를 추정하는 방법에 있어서,
    상기 제1 차량 및 상기 제2 차량 간의 거리에 관한 이전 추정 값, 상기 제1 차량의 속도, 상기 제2 차량의 속도 및 추정 시간 간격에 기초하여 상기 제1 차량 및 상기 제2 차량 간의 제1 추정 거리를 결정하는 단계;
    상기 제1 차량에 설치된 제1 카메라 및 제2 카메라로 상기 제2 차량의 LED를 촬영하여 제1 촬영 이미지 및 제2 촬영 이미지를 획득하는 단계;
    상기 제1 촬영 이미지 내 상기 LED에 대응하는 제1 LED 픽셀 및 상기 제2 촬영 이미지 내 상기 LED에 대응하는 제2 LED 픽셀을 검출하는 단계;
    상기 제1 LED 픽셀 및 상기 제2 LED 픽셀 각각을 복수의 가상 픽셀로 분할하는 단계;
    상기 복수의 가상 픽셀 각각 및 상기 LED 간의 기하학적 관계에 기초하여 제2 추정 거리를 결정하는 단계;
    칼만 필터(Kalman filter)에 기초하여 상기 제1 추정 거리에 대응하는 제1 오차 분포 및 상기 제2 추정 거리에 대응하는 제2 오차 분포를 결정하는 단계;
    상기 제1 오차 분포 및 상기 제2 오차 분포에 기초하여 최적의 거리를 결정하는 단계; 및
    상기 최적의 거리에 기초하여 상기 제1 차량 및 상기 제2 차량 간의 거리를 추정하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서,
    상기 최적의 거리를 결정하는 단계는
    상기 제1 오차 분포 및 상기 제2 오차 분포에 기초하여 상기 최적의 거리에 관한 후보들을 결정하는 단계; 및
    상기 후보들에 관한 중간 값 선택에 기초하여 상기 최적의 거리를 결정하는 단계
    를 포함하는, 방법
  3. 제2항에 있어서,
    상기 중간 값 선택은 아래 수학식에 기초하여 수행되는,
    Figure 112018022623772-pat00117

    -상기 수학식에서
    Figure 112018022623772-pat00118
    는 상기 중간 값 선택을 통해 결정된 최적의 거리를 나타내고,
    Figure 112018022623772-pat00119
    Figure 112018022623772-pat00120
    는 각각 최적의 거리에 관한 후보들이 오름차순으로 정렬된 후
    Figure 112018022623772-pat00121
    Figure 112018022623772-pat00122
    에서의 거리를 나타냄-
    방법.
  4. 제1항에 있어서,
    상기 제1 오차 분포는 아래 수학식에 기초하여 결정되는,
    Figure 112018022623772-pat00123
    ,
    Figure 112018022623772-pat00124

    -상기 수학식에서
    Figure 112018022623772-pat00125
    는 상기 제1 오차 분포를 나타내고,
    Figure 112018022623772-pat00126
    는 공분산
    Figure 112018022623772-pat00127
    를 갖는 제로 평균 다변량 정규 분포(zero mean multivariatenormal distribution)
    Figure 112018022623772-pat00128
    으로부터 추출된 프로세스 잡음을 나타내고,
    Figure 112018022623772-pat00129
    는 상기 추정 시간 간격을 나타내고, k = i x n + j이고, n은 상기 제1 LED 픽셀 및 상기 제2 LED 픽셀 중 어느 하나에 포함된 가상 픽셀의 수를 나타내고, i는 상기 제1 LED 픽셀 내 가상 픽셀을 구분하기 위한 인덱스를 나타내고, j는 상기 제2 LED 픽셀 내 가상 픽셀을 구분하기 위한 인덱스를 나타냄-
    방법.
  5. 제1항에 있어서,
    상기 제2 오차 분포는 아래 수학식에 기초하여 결정되는,
    Figure 112018022623772-pat00130

    - 상기 수학식에서
    Figure 112018022623772-pat00131
    는 상기 제2 오차 분포를 나타내고,
    Figure 112018022623772-pat00132
    는 공분산
    Figure 112018022623772-pat00133
    를 갖는 제로 평균 가우시안 백색 잡음(zero mean Gaussian white noise)의 관측 잡음(observation noise)을 나타내고, k = i x n + j이고, n은 상기 제1 LED 픽셀 및 상기 제2 LED 픽셀 중 어느 하나에 포함된 가상 픽셀의 수를 나타내고, i는 상기 제1 LED 픽셀 내 가상 픽셀을 구분하기 위한 인덱스를 나타내고, j는 상기 제2 LED 픽셀 내 가상 픽셀을 구분하기 위한 인덱스를 나타냄-
    방법.
  6. 제1항에 있어서,
    상기 제2 추정 거리를 결정하는 단계는
    상기 제1 카메라의 제1 카메라 중심을 꼭지점으로 하여 형성되거나, 혹은 상기 LED를 꼭지점으로 하여 형성되는 제1 각도를 기초로 하는 합동 삼각형의 특성을 이용하여, 상기 LED 및 상기 제1 카메라 중심 간의 제1 거리를 결정하는 단계;
    상기 제2 카메라의 제2 카메라 중심을 꼭지점으로 하여 형성되거나, 혹은 상기 LED를 꼭지점으로 하여 형성되는 제2 각도를 기초로 하는 합동 삼각형의 특성을 이용하여, 상기 LED 및 상기 제2 카메라 중심 간의 제2 거리를 결정하는 단계; 및
    상기 제1 거리 및 상기 제2 거리에 기초하여 상기 제1 카메라 중심 및 상기 제2 카메라 중심 간의 중점에서 상기 LED까지의 제3 거리를 결정하는 단계
    를 포함하는, 방법.
  7. 제6항에 있어서,
    상기 제1 각도는
    상기 제1 카메라 및 상기 제2 카메라가 공유하는 초점 면(focal plane)에 대한 상기 LED의 수선의 발, 상기 LED 및, 상기 제1 카메라 중심에 의해 형성되거나, 혹은 상기 제1 카메라의 제1 센서 중심, 상기 제1 카메라 중심, 및 상기 제1 촬영 이미지 내 상기 LED에 대응하는 제1 LED 픽셀에 의해 형성되는, 방법.
  8. 제6항에 있어서,
    상기 제2 각도는
    상기 제1 카메라 및 상기 제2 카메라가 공유하는 초점 면(focal plane)에 대한 상기 LED의 수선의 발, 상기 LED, 및 상기 제2 카메라의 제2 카메라 중심에 의해 형성되거나, 혹은 상기 제2 카메라의 제2 센서 중심, 상기 제2 카메라 중심, 및 상기 제2 촬영 이미지 내 상기 LED에 대응하는 제2 LED 픽셀에 의해 형성되는, 방법.
  9. 제6항에 있어서,
    상기 제1 거리를 결정하는 단계는 상기 제1 카메라의 제1 센서 중심 및 상기 제1 촬영 이미지 내 상기 LED에 대응하는 제1 LED 픽셀 간의 거리, 및 상기 제1 카메라 및 상기 제2 카메라의 초점 거리에 기초하여, 상기 제1 각도를 결정하는 단계를 포함하고,
    상기 제2 거리를 결정하는 단계는 상기 제2 카메라의 제2 센서 중심 및 상기 제2 촬영 이미지 내 상기 LED에 대응하는 제2 LED 픽셀 간의 거리, 및 상기 제1 카메라 및 상기 제2 카메라의 초점 거리에 기초하여, 상기 제2 각도를 결정하는 단계를 포함하는, 방법.
  10. 제1 차량 및 제2 차량 간의 거리를 추정하는 장치에 있어서,
    제1 카메라 및 제2 카메라로 상기 제2 차량의 LED를 촬영하여 제1 촬영 이미지 및 제2 촬영 이미지를 생성하는 촬영부;
    상기 제1 차량 및 상기 제2 차량 간의 거리에 관한 이전 추정 값, 상기 제1 차량의 속도, 상기 제2 차량의 속도 및 추정 시간 간격에 기초하여 상기 제1 차량 및 상기 제2 차량 간의 제1 추정 거리를 결정하고, 상기 제1 촬영 이미지 내 상기 LED에 대응하는 제1 LED 픽셀 및 상기 제2 촬영 이미지 내 상기 LED에 대응하는 제2 LED 픽셀을 검출하고, 상기 제1 LED 픽셀 및 상기 제2 LED 픽셀 각각을 복수의 가상 픽셀로 분할하고, 상기 복수의 가상 픽셀 각각 및 상기 LED 간의 기하학적 관계에 기초하여 제2 추정 거리를 결정하고, 칼만 필터(Kalman filter)에 기초하여 상기 제1 추정 거리에 대응하는 제1 오차 분포 및 상기 제2 추정 거리에 대응하는 제2 오차 분포를 결정하고, 상기 제1 오차 분포 및 상기 제2 오차 분포에 기초하여 최적의 거리를 결정하는 연산부; 및
    상기 최적의 거리에 기초하여 상기 제1 차량 및 상기 제2 차량 간의 거리를 추정하는 거리 추정부
    를 포함하는 장치.
KR1020180026450A 2018-01-26 2018-03-06 저해상도 카메라를 위한 보정 기법을 이용한 차량 간 거리 추정 방법 및 그 장치 KR102019594B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180010010 2018-01-26
KR1020180010010 2018-01-26

Publications (2)

Publication Number Publication Date
KR20190091174A KR20190091174A (ko) 2019-08-05
KR102019594B1 true KR102019594B1 (ko) 2019-09-09

Family

ID=67615997

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180026450A KR102019594B1 (ko) 2018-01-26 2018-03-06 저해상도 카메라를 위한 보정 기법을 이용한 차량 간 거리 추정 방법 및 그 장치

Country Status (1)

Country Link
KR (1) KR102019594B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102503266B1 (ko) * 2021-12-08 2023-02-23 인천대학교 산학협력단 광학 무선 통신 시스템에서 전방에 위치하는 수신기의 위치에 따라 광신호의 전송 방향을 조정할 수 있는 광신호 전송 장치 및 그 동작 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5304980A (en) 1991-01-24 1994-04-19 Mitsubishi Denki Kabushiki Kaisha Distance detecting apparatus for a vehicle
JP2010097561A (ja) 2008-10-20 2010-04-30 Honda Motor Co Ltd 車両周辺監視装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140065210A (ko) * 2012-11-21 2014-05-29 엘지전자 주식회사 차랑용 거리 측정 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5304980A (en) 1991-01-24 1994-04-19 Mitsubishi Denki Kabushiki Kaisha Distance detecting apparatus for a vehicle
JP2010097561A (ja) 2008-10-20 2010-04-30 Honda Motor Co Ltd 車両周辺監視装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
VO THI BICH TRAM1 AND MYUNGSIK YOO, "Vehicle-to-Vehicle Distance Estimation Using a Low-Resolution Camera Based on Visible Light Communications", Publisher: IEEE, Date of Publication: 15 January 2018.*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102503266B1 (ko) * 2021-12-08 2023-02-23 인천대학교 산학협력단 광학 무선 통신 시스템에서 전방에 위치하는 수신기의 위치에 따라 광신호의 전송 방향을 조정할 수 있는 광신호 전송 장치 및 그 동작 방법

Also Published As

Publication number Publication date
KR20190091174A (ko) 2019-08-05

Similar Documents

Publication Publication Date Title
KR102186299B1 (ko) 카메라를 이용한 차량 환경 모델링
US11183067B2 (en) Image generating apparatus, image generating method, and recording medium
JP7052663B2 (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
US11138750B2 (en) Distance estimating method and apparatus
US20180194286A1 (en) Determining a road surface characteristic
Negru et al. Image based fog detection and visibility estimation for driving assistance systems
US8861787B2 (en) Environment recognition device and environment recognition method
US9454816B2 (en) Enhanced stereo imaging-based metrology
US11010622B2 (en) Infrastructure-free NLoS obstacle detection for autonomous cars
KR101191308B1 (ko) 지능형 운송 시스템의 도로 및 차선 검출 시스템 및 방법
JP2020052695A (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
JP7226368B2 (ja) 物体状態識別装置
JP2011209896A (ja) 障害物検知装置、障害物検知方法及び障害物検知プログラム
JP2018073275A (ja) 画像認識装置
KR102019594B1 (ko) 저해상도 카메라를 위한 보정 기법을 이용한 차량 간 거리 추정 방법 및 그 장치
KR102001339B1 (ko) 두 대의 카메라와 한 개의 led를 사용하는 차량 대 차량 거리 추정 방법 및 그 장치
JP7390899B2 (ja) レーンマーク認識装置
KR20190070235A (ko) 비전 기반 위치 추정 기법을 이용한 6-자유도 상대 변위 추정 방법 및 그 장치
US11417012B2 (en) Estimation of position coordinates of light sources in images of the surrounding environment
JP2020077297A (ja) 位置姿勢推定装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant