KR102063454B1 - 차량들 간의 거리를 결정하는 방법 및 그 방법을 수행하는 전자 장치 - Google Patents

차량들 간의 거리를 결정하는 방법 및 그 방법을 수행하는 전자 장치 Download PDF

Info

Publication number
KR102063454B1
KR102063454B1 KR1020180140927A KR20180140927A KR102063454B1 KR 102063454 B1 KR102063454 B1 KR 102063454B1 KR 1020180140927 A KR1020180140927 A KR 1020180140927A KR 20180140927 A KR20180140927 A KR 20180140927A KR 102063454 B1 KR102063454 B1 KR 102063454B1
Authority
KR
South Korea
Prior art keywords
image
target vehicle
vehicle
distance
area
Prior art date
Application number
KR1020180140927A
Other languages
English (en)
Inventor
최현규
박찬규
Original Assignee
주식회사 넥스트칩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넥스트칩 filed Critical 주식회사 넥스트칩
Priority to KR1020180140927A priority Critical patent/KR102063454B1/ko
Application granted granted Critical
Publication of KR102063454B1 publication Critical patent/KR102063454B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • B60W2550/10
    • B60W2550/147
    • B60W2550/308
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/35Road bumpiness, e.g. potholes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

차량 및 타겟 차량 간의 거리를 결정하기 위해, 차량의 카메라가 생성한 초기 이미지에 기초하여 타겟 차량의 특징이 나타날 수 있는 특징 이미지가 생성되고, 특징 이미지 내의 타겟 차량의 바닥 영역이 결정되며, 타겟 차량의 바닥 영역에 기초하여 차량 및 타겟 차량 간의 거리가 결정된다.

Description

차량들 간의 거리를 결정하는 방법 및 그 방법을 수행하는 전자 장치{METHOD FOR DETERMINING DISTANCE BETWEEN VEHICELES AND ELECTRINOC DEVICE PERFORMING THE METHOD}
아래의 실시예들은 차량들 간의 거리를 결정하는 기술에 관한 것이고, 보다 상세하게 차량의 카메라가 촬영한 이미지를 이용하여 차량들 간의 거리를 결정하는 기술에 관한 것이다.
자율 주행 차량 또는 첨단 운전자 지원 시스템(Advanced Driver Assistance System: ADAS)을 지원하는 차량을 구현하기 위해서는 차량들 간의 거리를 결정하는 것이 필수적이다. 차량들 간의 거리를 결정하기 위한 방법으로 레이더(Rader) 및 라이더(Lidar)와 같은 거리 측정 센서를 이용하는 방법 및 영상 정보를 이용하는 방법이 있다. 거리 측정 센서를 이용하는 방법은 영상 정보를 이용하는 방법에 비해 정확도가 높지만, 더 비싸다.
일 실시예는 차량들 간의 거리를 결정하는 방법 및 전자 장치를 제공할 수 있다.
다른 일 실시예는 카메라가 생성한 이미지를 이용하여 차량들 간의 거리를 결정하는 방법 및 전자 장치를 제공할 수 있다.
일 측면에 따른, 차량에 포함된 전자 장치에 의해 수행되는, 차량 및 타겟 차량 간의 거리를 결정하는 방법은, 차량 전방의 장면을 촬영한 초기 이미지를 카메라로부터 수신하는 단계, 상기 초기 이미지 내에 타겟 차량이 존재하는 타겟 차량 영역을 결정하는 단계, 상기 초기 이미지 내의 차량의 바닥면을 나타낼 수 있는 특징 영역을 포함하는 특징 이미지를 생성하는 단계, 상기 타겟 차량 영역 및 상기 특징 이미지에 기초하여 상기 특징 영역 중 상기 타겟 차량의 바닥 영역을 결정하는 단계, 및 상기 바닥 영역에 기초하여 상기 차량 및 타겟 차량 간의 거리를 결정하는 단계를 포함한다.
상기 초기 이미지 내에 타겟 차량이 존재하는 타겟 차량 영역을 결정하는 단계는, 상기 초기 이미지 내의 상기 타겟 차량을 검출하는 단계, 및 상기 검출된 타겟 차량에 기초하여 상기 타겟 차량 영역을 결정하는 단계를 포함할 수 있다.
상기 특징 이미지를 생성하는 단계는, 상기 초기 이미지를 전처리함으로써 후보 도로면 이미지(candidate road surface image)를 생성하는 단계, 및 상기 후보 도로면 이미지에 기초하여 상기 특징 이미지를 생성하는 단계를 포함할 수 있다.
상기 초기 이미지를 전처리함으로써 후보 도로면 이미지를 생성하는 단계는, 측정된 실제 밝기 및 상기 초기 이미지에 기초하여 제1 이미지를 생성하는 단계, 및 상기 제1 이미지, 미리 설정된 밝기 조건 및 채도 조건에 기초하여 상기 후보 도로면 이미지를 생성하는 단계를 포함할 수 있다.
상기 후보 도로면 이미지에 기초하여 상기 특징 이미지를 생성하는 단계는, 상기 후보 도로면 이미지 내의 특징들을 강화한 침식 이미지를 생성하는 단계, 상기 침식 이미지에 기초하여 강화된 특징들을 감소시키는 팽창 이미지를 생성하는 단계, 및 상기 침식 이미지 및 상기 팽창 이미지에 기초하여 상기 특징 이미지를 생성하는 단계를 포함할 수 있다.
상기 후보 도로면 이미지에 기초하여 상기 특징 이미지를 생성하는 단계는, 상기 팽창 이미지에 기초하여 반전 팽창 이미지를 생성하는 단계를 더 포함하고, 상기 특징 이미지는 상기 침식 이미지 및 상기 반전 팽창 이미지에 기초하여 생성될 수 있다.
상기 타겟 차량 영역 및 상기 특징 이미지에 기초하여 상기 특징 영역 중 상기 타겟 차량의 바닥 영역을 결정하는 단계는, 상기 특징 이미지 내에 상기 타겟 차량 영역에 대응하는 타겟 영역을 설정하는 단계, 및 상기 타겟 영역 중 미리 설정된 차량의 바닥면 조건을 만족하는 영역을 상기 타겟 차량의 바닥 영역으로 결정하는 단계를 포함할 수 있다.
상기 차량들 간의 거리 결정 방법은, RANSAC(RANdom SAmple Consensus) 알고리즘을 이용하여 상기 바닥 영역을 처리함으로써 바닥 선(bottom line)을 생성하는 단계를 더 포함하고, 상기 차량 및 타겟 차량 간의 거리는 상기 바닥 선에 기초하여 결정될 수 있다.
상기 바닥 영역에 기초하여 상기 차량 및 타겟 차량 간의 거리를 결정하는 단계는, 상기 카메라로부터 상기 타겟 차량 간의 제1 거리를 계산하는 단계, 및 상기 카메라로부터 상기 차량의 앞 부분 간의 제2 거리 및 상기 제1 거리에 기초하여 상기 차량 및 상기 타겟 차량 간의 거리를 결정하는 단계를 포함할 수 있다.
상기 제1 거리를 계산하는 단계는, 상기 카메라의 수평 축 및 상기 타겟 차량의 바닥 면 간의 각도를 계산하는 단계 - 상기 타겟 차량의 바닥 면은 상기 바닥 영역 영역에 대응함 -, 및 상기 각도 및 상기 카메라의 설치 높이에 기초하여 상기 제1 거리를 계산하는 단계를 포함할 수 있다.
상기 차량은 자율 주행 차량 또는 첨단 운전자 지원 시스템(Advanced Driver Assistance System: ADAS)을 지원하는 차량일 수 있다.
다른 일 측면에 따른, 차량 및 타겟 차량 간의 거리를 계산하는 전자 장치는, 차량 및 타겟 차량 간의 거리를 계산하기 위한 프로그램이 기록된 메모리, 및 상기 프로그램을 수행하는 프로세서를 포함하고, 상기 프로그램은, 차량 전방의 장면을 촬영한 초기 이미지를 카메라로부터 수신하는 단계, 상기 초기 이미지 내에 타겟 차량이 존재하는 타겟 차량 영역을 결정하는 단계, 상기 초기 이미지 내의 차량의 바닥면을 나타낼 수 있는 특징 영역을 포함하는 특징 이미지를 생성하는 단계, 상기 타겟 차량 영역 및 상기 특징 이미지에 기초하여 상기 특징 영역 중 상기 타겟 차량의 바닥 영역을 결정하는 단계, 및 상기 바닥 영역에 기초하여 상기 차량 및 타겟 차량 간의 거리를 결정하는 단계를 수행한다.
상기 초기 이미지 내에 타겟 차량이 존재하는 타겟 차량 영역을 결정하는 단계는, 상기 초기 이미지 내의 상기 타겟 차량을 검출하는 단계, 및 상기 검출된 타겟 차량에 기초하여 상기 타겟 차량 영역을 결정하는 단계를 포함할 수 있다.
상기 특징 이미지를 생성하는 단계는, 상기 초기 이미지를 전처리함으로써 후보 도로면 이미지(candidate road surface image)를 생성하는 단계, 및 상기 후보 도로면 이미지에 기초하여 상기 특징 이미지를 생성하는 단계를 포함할 수 있다.
상기 타겟 차량 영역 및 상기 특징 이미지에 기초하여 상기 특징 영역 중 상기 타겟 차량의 바닥 영역을 결정하는 단계는, 상기 특징 이미지 내에 상기 타겟 차량 영역에 대응하는 타겟 영역을 설정하는 단계, 및 상기 타겟 영역 중 미리 설정된 차량의 바닥 면 조건을 만족하는 영역을 상기 타겟 차량의 바닥 영역으로 결정하는 단계를 포함할 수 있다.
차량들 간의 거리를 결정하는 방법 및 전자 장치가 제공된다.
카메라가 생성한 이미지를 이용하여 차량들 간의 거리를 결정하는 방법 및 전자 장치가 제공된다.
도 1은 일 예에 따른 차량들 간의 거리를 나타낸다.
도 2는 일 실시예에 따른 전자 장치의 구성도이다.
도 3은 일 실시예에 따른 차량 및 타겟 차량 간의 거리를 계산하는 방법의 흐름도이다.
도 4는 일 예에 따른 초기 이미지 내에 타겟 차량이 존재하는 타겟 차량 영역을 결정하는 방법의 흐름도이다.
도 5는 일 예에 따른 초기 이미지 및 결정된 타겟 차량 영역을 도시한다.
도 6은 일 예에 따른 초기 이미지 내의 차량의 바닥면을 나타낼 수 있는 특징 영역을 포함하는 특징 이미지를 생성하는 방법의 흐름도이다.
도 7은 일 예에 따른 초기 이미지, 필터링된 초기 이미지 및 후보 도로면 이미지이다.
도 8은 일 예에 따른 후보 도로면 이미지에 기초하여 특징 이미지를 생성하는 방법의 흐름도이다.
도 9는 일 예에 따른 도로면 이미지에 기초하여 생성된 특징 이미지이다.
도 10은 일 예에 따른 특징 영역 중 타겟 차량의 바닥 영역을 결정하는 방법의 흐름도이다.
도 11은 일 예에 따른 특징 이미지 내에 결정된 타겟 차량의 바닥 영역을 도시한다.
도 12는 일 예에 따른 바닥 영역을 처리함으로써 바닥 선을 생성하는 방법의 흐름도이다.
도 13은 일 예에 따른 차량 및 타겟 차량 간의 거리를 결정하는 방법의 흐름도이다.
도 14는 일 예에 따른 카메라로부터 타겟 차량 간의 거리를 계산하는 방법의 흐름도이다.
도 15는 일 예에 따른 차랑 및 타겟 차랑 간의 거리를 계산하는 방법을 도시한다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 예에 따른 차량들 간의 거리를 나타낸다.
차량(100) 및 차량(100) 주의의 타겟 차량(130) 간의 거리(140)는 차량(100)의 앞 부분(예를 들어, 앞 범퍼)과 타겟 차랑(130)의 뒷 부분(예를 들어, 뒷 범퍼) 간의 거리일 수 있다.
일 측면에 따르면, 차량(100)은 차량(100)의 전방을 촬영하는 카메라(120)를 이용하여 거리(140)를 계산할 수 있다. 예를 들어, 차량(100)에 포함된 전자 장치(110)는 카메라(120)가 촬영한 이미지를 이용하여 타겟 차량(130)의 뒷 부분을 검출하고, 카메라(120)와 타겟 차랑(130)의 뒷 부분 간의 거리를 계산할 수 있다. 추가적으로, 카메라(120)와 차량(100)의 앞 부분 간의 거리가 미리 알려져 있다면, 거리(140)가 계산될 수 있다. 상기의 과정 중 이미지를 이용하여 타겟 차량(130)의 뒷 부분을 검출하는 과정은 이미지 내에서 타겟 차량을 검출하고, 타겟 차량의 바닥면을 검출하는 기술이 요구된다.
아래에서 도 2 내지 도 15를 참조하여, 이미지 내의 타겟 차량의 바닥면을 검출함으로써 차량들 간의 거리를 계산하는 방법이 상세하게 설명된다.
도 2는 일 실시예에 따른 전자 장치의 구성도이다.
일 측면에 따르면, 전자 장치(200)는 통신부(210), 프로세서(220), 및 메모리(230)를 포함한다. 전자 장치(200)는 도 1을 참조하여 전술된 전자 장치(110)에 대응할 수 있다. 전자 장치(200)은 차량에 포함될 수 있다. 예를 들어, 전자 장치(200)는 차량의 ECU(Electronic Control Unit)일 수 있다. 다른 예로, 전자 장치(200)는 차량의 ECU와 연결될 수 있다.
전자 장치(110)가 포함된 차량은 자율 주행 차량 또는 첨단 운전자 지원 시스템(Advanced Driver Assistance System: ADAS)을 지원하는 차량일 수 있다.
통신부(210)는 프로세서(220), 및 메모리(230)와 연결되어 데이터를 송수신한다. 통신부(210)는 외부의 다른 장치(예를 들어, 카메라(120))와 연결되어 데이터를 송수신할 수 있다.
통신부(210)는 전자 장치(200) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(210)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(210)는 전자 장치(200)와 외부의 장치를 연결하는 요소일 수 있다. 통신부(210)는 인터페이스(interface)일 수 있다. 통신부(210)는 외부의 장치로부터 데이터를 수신하여, 프로세서(220) 및 메모리(230)에 데이터를 전송할 수 있다.
프로세서(220)는 통신부(210)가 수신한 데이터 및 메모리(230)에 저장된 데이터를 처리한다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.
프로세서(220)는 메모리(예를 들어, 메모리(230))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(220)에 의해 유발된 인스트럭션들을 실행한다.
메모리(230)는 통신부(210)가 수신한 데이터 및 프로세서(220)가 처리한 데이터를 저장한다. 예를 들어, 메모리(230)는 프로그램을 저장할 수 있다. 저장되는 프로그램은 차량 및 타겟 차량 간의 거리를 결정할 수 있도록 코딩되어 프로세서(220)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.
일 측면에 따르면, 메모리(230)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.
메모리(230)는 전자 장치(200)를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장한다. 전자 장치(200)를 동작 시키는 명령어 세트는 프로세서(220)에 의해 실행된다.
통신부(210), 프로세서(220), 메모리(230) 및 레이더에 대해, 아래에서 도 3 내지 도 15를 참조하여 상세히 설명된다.
도 3은 일 실시예에 따른 차량 및 타겟 차량 간의 거리를 계산하는 방법의 흐름도이다.
아래의 단계들(310 내지 350)은 도 2를 참조하여 전술된 전자 장치(200)에 의해 수행된다.
단계(310)에서, 전자 장치(200)는 차량 전방의 장면을 촬영할 초기 이미지를 카메라로부터 수신한다. 예를 들어, 카메라는 차량 내부에 설치된 블랙 박스의 카메라일 수 있다.
단계(320)에서, 전자 장치(200)는 초기 이미지 내에 타겟 차량이 존재하는 타겟 차량 영역을 결정한다. 일 측면에 따르면, 전자 장치(200)는 차량 인식 알고리즘을 이용하여 초기 이미지 내의 타겟 차량을 검출한다. 차량 인식 알고리즘은 다양한 차량들을 검출할 수 있도록 미리 훈련될 수 있다. 검출된 차량에 대응하는 픽셀들을 포함하도록 타겟 차량 영역이 설정될 수 있다. 예를 들어, 타겟 차량 영역은 바운딩 박스(bounding box)일 수 있다. 타겟 차량 영역을 결정하는 방법에 대해, 아래에서 도 4 및 5를 참조하여 상세히 설명된다.
단계(330)에서, 전자 장치(200)는 초기 이미지 내의 차량의 바닥면을 나타낼 수 있는 특징 영역을 포함하는 특징 이미지를 생성한다. 타겟 차량이 도로 상을 주행하는 경우, 타겟 차량의 바닥면의 위치를 특정할 수 있다면, 타겟 차량의 위치가 특정될 수 있다. 특징 이미지를 생성하는 방법에 대해, 아래에서 도 6 내지 9를 참조하여 상세히 설명된다.
단계(340)에서, 전자 장치(200)는 타겟 차량 영역 및 특징 이미지에 기초하여 특징 영역 중 타겟 차량의 바닥 영역을 결정한다. 특징 이미지 내에 타겟 차량의 바닥 영역을 결정하는 방법에 대해, 아래에서 도 10 및 11을 참조하여 상세히 설명된다.
단계(350)에서, 전자 장치(200)는 바닥 영역에 기초하여 차량 및 타겟 차량 간의 거리를 결정한다. 차량 및 타겟 차량 간의 거리를 결정하는 방법에 대해, 도 13 내지 15를 참조하여 상세히 설명된다.
도 4는 일 예에 따른 초기 이미지 내에 타겟 차량이 존재하는 타겟 차량 영역을 결정하는 방법의 흐름도이다.
도 3을 참조하여 전술된 단계(320)는 아래의 단계들(410 및 420)을 포함할 수 있다.
단계(410)에서, 전자 장치(200)는 초기 이미지 내의 타겟 차량을 검출한다. 예를 들어, 전자 장치(200)는 미리 훈련된 차량 검출 알고리즘을 이용하여 초기 이미지 내의 타겟 차량을 검출할 수 있다.
단계(420)에서, 전자 장치(200)는 검출된 타겟 차량에 기초하여 타겟 차량 영역을 결정한다. 예를 들어, 검출된 차량에 대응하는 픽셀들을 포함하도록 타겟 차량 영역이 설정될 수 있다. 타겟 차량이 복수 개인 경우, 복수 개의 타겟 차량 각각에 대한 타겟 차량 영역이 설정될 수 있다.
도 5는 일 예에 따른 초기 이미지 및 결정된 타겟 차량 영역을 도시한다.
전자 장치(200)와 연결된 카메라는 차량의 정면을 촬영함으로써 초기 이미지(510)를 생성한다. 초기 이미지(510)는 픽셀들로 구성되며, 각각의 픽셀은 픽셀 값 만을 가지며, 추가적인 정보는 포함되지 않는다. 이에 따라, 초기 이미지(510) 내의 정보를 검출하기 위해서는 이미지 처리 알고리즘을 요구된다.
예를 들어, 전자 장치(200)는 차량 검출 알고리즘을 이용하여 초기 이미지(510) 분석함으로써 초기 이미지(510) 내의 타겟 차량들(530, 540, 550)을 검출할 수 있다. 전자 장치(200)는 검출된 타겟 차량들(530, 540, 550)에 대응하는 픽셀들을 포함하는 타겟 차량 영역들(532, 542, 552)을 설정한다. 예를 들어, 타겟 차량 영역들(532, 542, 552)은 사각형의 형태일 수 있다. 예를 들어, 타겟 차량(530)에 대응하는 픽셀들 중 x축의 최좌측 픽셀, x축의 최우측 픽셀, y축의 최하단 픽셀, 및 y축의 최상단 픽셀의 좌표를 이용하여 타겟 차량 영역(532)가 설정될 수 있다.
도 6은 일 예에 따른 초기 이미지 내의 차량의 바닥면을 나타낼 수 있는 특징 영역을 포함하는 특징 이미지를 생성하는 방법의 흐름도이다.
도 3을 참조하여 전술된 단계(330)는 아래의 단계들(610 및 620)을 포함할 수 있다.
단계(610)에서, 전자 장치(200)는 초기 이미지를 전처리함으로써 후보 도로면 이미지를 생성한다.
예를 들어, 전처리는 초기 이미지의 각각의 픽셀의 밝기 값을 이용한 필터링을 포함할 수 있다. 예를 들어, 픽셀의 밝기 값의 범위가 0(가장 어두움) 내지 255(가장 밝음)인 경우, 초기 이미지 내의 픽셀들 중 초기 밝기 값이 미리 설정된 임계 값 이상인 픽셀의 밝기 값을 255로 설정하고, 초기 이미지 내의 픽셀들 중 초기 밝기 값이 미리 설정된 임계 값 미만인 픽셀의 밝기 값을 0으로 설정할 수 있다. 처리된 초기 이미지는 필터링된 초기 이미지일 수 있다.
추가적으로, 전자 장치(200)는 도로면에 대해 미리 설정된 조건들을 만족하는 초기 이미지 내의 픽셀들을 결정할 수 있다. 예를 들어, 도로면에 대해 미리 설정된 조건들은, 도로면은 무채색에 가깝고, 밝기 값이 매우 어두울 경우에는 도로면이 아님을 포함할 수 있다. 상기의 조건들은 픽셀의 초기 채도(Saturation) 값이 100 미만일 것, 및 픽셀의 초기 밝기 값이 40을 초과할 것일 수 있다.
필터링된 초기 이미지 내의 필터링에 의해 밝기 값이 0(가장 어두움)으로 설정된 픽셀들 중, 상기의 조건들을 만족하는 픽셀들을 포함하도록 후보 도로면 이미지가 생성될 수 있다. 후보 도로면 이미지에 대해, 아래에서 도 7을 참조하여 상세히 설명된다.
단계(620)에서, 전자 장치(200)는 후보 도로면 이미지에 기초하여 특징 이미지를 생성한다. 특징 이미지는 타겟 차량의 바닥면이 나타내는 특징을 포함할 수 있다. 특징 이미지를 생성하는 방법에 대해, 아래에서 도 8 및 9를 참조하여 상세히 설명된다.
도 7은 일 예에 따른 초기 이미지, 필터링된 초기 이미지 및 후보 도로면 이미지이다.
전자 장치(200)는 초기 이미지(710)를 필터링함으로써 필터링된 초기 이미지(720)를 생성할 수 있다. 예를 들어, 초기 이미지(720)내의 픽셀들의 각각은 밝기 값으로 0(가장 어두움) 또는 255(가장 밝음)를 갖는다.
전자 장치(200)는 필터링된 초기 이미지(720) 내의 픽셀들 중 미리 설정된 도로면 조건들을 만족하는 픽셀들을 이용하여 후보 도로면 이미지(730)를 생성할 수 있다.
도 8은 일 예에 따른 후보 도로면 이미지에 기초하여 특징 이미지를 생성하는 방법의 흐름도이다.
도 6을 참조하여 전술된 단계(620)는 아래의 단계들(810 내지 840)을 포함할 수 있다.
단계(810)에서, 전자 장치(200)는 후보 도로면 이미지 내의 특징들을 강화한 침식(erode) 이미지를 생성한다. 예를 들어, 침식 이미지는 침식 연산을 통해 생성될 수 있다. 침식 연산은 미리 설정된 횟수만큼 반복 수행될 수 있다.
추가적으로, 침식 이미지를 생성하기 전에, 후보 도로면 이미지에 노이즈 감소 필터를 적용함으로써 노이즈가 감소된 후보 도로면 이미지가 생성되고, 생성된 노이즈가 감소된 후보 도로면 이미지가 침식 이미지를 생성하기 위해 이용될 수 있다.
단계(820)에서, 전자 장치(200)는 침식 이미지에 기초하여 강화된 특징들을 감소시키는 팽창(dilate) 이미지를 생성한다. 예를 들어, 팽창 이미지는 팽창 연산을 통해 생성될 수 있다. 팽창 연산은 미리 설정된 횟수만큼 반복 수행될 수 있다. 팽창 연산의 횟수는 침식 연산의 횟수와 동일할 수 있다.
단계(830)에서, 전자 장치(200)는 팽창 이미지에 기초하여 반전 팽창 이미지를 생성한다. 미리 설정된 반전 필터를 이용하여 반전 팽창 이미지가 생성될 수 있다. 예를 들어, 반전 필터는 팽창 이미지 내의 픽셀들 중 밝기 값이 0인 픽셀의 밝기 값을 50으로 설정하고, 밝기 값이 255인 픽셀의 밝기 값을 0으로 설정하는 필터일 수 있다. 밝기 값 50은 시스템의 설정에 따라 달라질 수 있다.
단계(830)에서, 전자 장치(200)는 침식 이미지 및 반전 팽창 이미지에 기초하여 특징 이미지를 생성한다. 예를 들어, 침식 이미지 및 반전 팽창 이미지 내에서 같은 좌표를 나타내는 픽셀들의 밝기 값을 더함으로써 특징 이미지가 생성될 수 있다.
도 9는 일 예에 따른 도로면 이미지에 기초하여 생성된 특징 이미지이다.
후보 도로면 이미지(910)는 노이즈 필터가 적용된 이미지일 수 있다. 후보 도로면 이미지(910)에 대해 침식 연산이 수행됨으로써 침식 이미지(920)가 생성된다. 침식 이미지(920)에 대해 팽창 연산이 수행됨으로써 팽창 이미지(930)가 생성된다. 팽창 이미지(930)에 반전 필터를 적용함으로써 반전 팽창 이미지(940)가 생성된다. 침식 이미지(920) 및 반전 팽창 이미지(940)를 병합함으로써 특징 이미지(950)가 생성된다.
도 10은 일 예에 따른 특징 영역 중 타겟 차량의 바닥 영역을 결정하는 방법의 흐름도이다.
도 3을 참조하여 전술된 단계(340)는 아래의 단계들(1010 및 1020)을 포함할 수 있다.
단계(1010)에서, 전자 장치(200)는 특징 이미지 내에 타겟 차량 영역에 대응하는 타겟 영역을 설정한다. 전술된 단계(420)를 통해 결정된 타겟 차량 영역을 나타내는 좌표가 특징 이미지 내에 설정될 수 있다.
단계(1020)에서, 전자 장치(200)는 타겟 영역 중 차량의 바닥면 조건을 만족하는 영역을 타겟 차량의 바닥 영역으로 결정한다. 차량의 바닥면 조건은 차량 바닥면은 검정색인 조건 및 차량 바닥면은 도로면과 연속적으로 맞닿아 있는 조건을 포함할 수 있다.
도 11은 일 예에 따른 특징 이미지 내에 결정된 타겟 차량의 바닥 영역을 도시한다.
전자 장치(200)는 특징 이미지(950) 내에 타겟 영역들(1110, 1120, 1130)을 설정한다. 타겟 영역들(1110, 1120, 1130)은 도 5를 참조하여 전술된 타겟 차량 영역들(532, 542, 552)에 대응한다.
전자 장치(200)는 타겟 영역들(1110, 1120, 1130) 중 차량의 바닥면 조건을 만족하는 영역을 타겟 차량의 바닥 영역들(1111, 1121, 1131)로 결정한다. 바닥 영역들(1111, 1121, 1131)은 바닥면이 검정색인 조건 및 도로면과 연속적으로 맞닿아 있는 조건을 만족하는 영역들일 수 있다.
도 12는 일 예에 따른 바닥 영역을 처리함으로써 바닥 선을 생성하는 방법의 흐름도이다.
일 측면에 따르면, 도 3을 참조하여 전술된 단계(340)이 수행된 후 아래의 단계(1210)가 더 수행될 수 있다.
단계(1210)에서, 전자 장치(200)는 RANSAC(RANdom SAmple Consensus) 알고리즘을 이용하여 바닥 영역을 처리함으로써 바닥 선(bottom line)을 생성한다. 바닥 선은 타겟 차량의 위치를 특정하기 위해 이용될 수 있다.
도 13은 일 예에 따른 차량 및 타겟 차량 간의 거리를 결정하는 방법의 흐름도이다.
도 3을 참조하여 전술된 단계(350)는 아래의 단계들(1310 및 1320)을 포함한다.
단계(1310)에서, 전자 장치(200)는 초기 이미지를 생성한 카메라로부터 타겟 차량 간의 제1 거리를 계산한다. 제1 거리는 카메라의 수평 축 또는 소실점으로의 축 방향을 기준으로 하는 거리일 수 있다. 제1 거리를 계산하는 방법에 대해, 아래에서 도 14를 참조하여 상세히 설명된다.
단계(1320)에서, 전자 장치(200)는 카메라로부터 차량의 앞 부분 간의 제2 거리 및 제1 거리에 기초하여 차량 및 타겟 차량 간의 거리를 결정한다. 제2 거리는 카메라의 수평 축 또는 소실점으로의 축 방향을 기준으로 하는 거리일 수 있고, 미리 설정될 수 있다.
도 14는 일 예에 따른 카메라로부터 타겟 차량 간의 거리를 계산하는 방법의 흐름도이고, 도 15는 거리를 계산하는 방법을 도시한다.
도 13을 참조하여 전술된 단계(1310)는 아래의 단계들(1410 및 1420)을 포함한다.
단계(1410)에서, 전자 장치(200)는 카메라(1505)의 수평 축(1520) 및 타겟 차량(1508)의 바닥 면(1510) 간의 각도를 계산한다. 바닥 면(1510)은 특징 이미지의 바닥 영역(예를 들어, 바닥 영역(1111))에 대응한다. 일 측면에 따르면, 계산의 정확도를 높이기 위해 바닥 영역(1111)에 기초하여 생성된 바닥 선이 이용될 수 있다.
전자 장치(200)는 카메라(1505)의 화각(angle of view) 및 초기 이미지의 높이에 기초하여 카메라(1505)의 수평 축(1520) 및 바닥 영역(1510) 간의 각도를 계산할 수 있다. 상기의 각도는 아래의 [수학식 1]로 계산된다.
[수학식 1]
Figure 112018113831190-pat00001
[수학식 1]에서, acamera는 카메라(1505)의 각도이고, aview는 화각(angle of view)이고, himage는 초기 이미지의 전체 높이이고, yvehicle은 특징 이미지 내의 바닥 영역 또는 바닥 선의 높이이다.
단계(1420)에서, 전자 장치(200)는 계산된 각도 및 카메라(1505)의 설치 높이(1540)에 기초하여 제1 거리(1550)를 계산한다. 제1 거리(1550)는 아래의 [수학식 2]로 계산된다.
[수학식 2]
Figure 112018113831190-pat00002
[수학식 2]에서, hcamera는 카메라(1505)의 설치 높이(1540)이고, dc2v는 제1 거리(1550)이다.
카메라(1508)로부터 차량(1500)의 앞 부분 간의 제2 거리(1560)가 알려져 있는 경우, 차량(1500) 및 타겟 차량(1508) 간의 거리(1570)는 제1 거리(1550)에서 제2 거리(1560)를 뺌으로써 계산될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.
200: 전자 장치
210: 통신부
220: 프로세서
230: 메모리

Claims (16)

  1. 차량에 포함된 전자 장치에 의해 수행되는, 차량 및 타겟 차량 간의 거리를 결정하는 방법은,
    차량 전방의 장면을 촬영한 초기 이미지를 카메라로부터 수신하는 단계;
    상기 초기 이미지 내에 타겟 차량이 존재하는 타겟 차량 영역을 결정하는 단계;
    상기 초기 이미지 내의 차량의 바닥면을 나타낼 수 있는 특징 영역을 포함하는 특징 이미지를 생성하는 단계;
    상기 타겟 차량 영역 및 상기 특징 이미지에 기초하여 상기 특징 영역 중 상기 타겟 차량의 바닥 영역을 결정하는 단계; 및
    상기 바닥 영역에 기초하여 상기 차량 및 타겟 차량 간의 거리를 결정하는 단계
    를 포함하고,
    상기 특징 이미지를 생성하는 단계는,
    상기 초기 이미지를 전처리함으로써 후보 도로면 이미지(candidate road surface image)를 생성하는 단계;
    상기 후보 도로면 이미지 내의 특징들을 강화한 침식 이미지를 생성하는 단계;
    상기 침식 이미지에 기초하여 강화된 특징들을 감소시키는 팽창 이미지를 생성하는 단계; 및
    상기 침식 이미지 및 상기 팽창 이미지에 기초하여 상기 특징 이미지를 생성하는 단계
    를 포함하는,
    차량들 간의 거리 결정 방법.
  2. 제1항에 있어서,
    상기 초기 이미지 내에 타겟 차량이 존재하는 타겟 차량 영역을 결정하는 단계는,
    상기 초기 이미지 내의 상기 타겟 차량을 검출하는 단계; 및
    상기 검출된 타겟 차량에 기초하여 상기 타겟 차량 영역을 결정하는 단계
    를 포함하는,
    차량들 간의 거리 결정 방법.
  3. 삭제
  4. 제1항에 있어서,
    상기 초기 이미지를 전처리함으로써 후보 도로면 이미지를 생성하는 단계는,
    측정된 실제 밝기 및 상기 초기 이미지에 기초하여 제1 이미지를 생성하는 단계; 및
    상기 제1 이미지, 미리 설정된 밝기 조건 및 채도 조건에 기초하여 상기 후보 도로면 이미지를 생성하는 단계
    를 포함하는,
    차량들 간의 거리 결정 방법.
  5. 삭제
  6. 제1항에 있어서,
    상기 특징 이미지를 생성하는 단계는,
    상기 팽창 이미지에 기초하여 반전 팽창 이미지를 생성하는 단계
    를 더 포함하고,
    상기 특징 이미지는 상기 침식 이미지 및 상기 반전 팽창 이미지에 기초하여 생성되는,
    차량들 간의 거리 결정 방법.
  7. 제1항에 있어서,
    상기 타겟 차량 영역 및 상기 특징 이미지에 기초하여 상기 특징 영역 중 상기 타겟 차량의 바닥 영역을 결정하는 단계는,
    상기 특징 이미지 내에 상기 타겟 차량 영역에 대응하는 타겟 영역을 설정하는 단계; 및
    상기 타겟 영역 중 미리 설정된 차량의 바닥면 조건을 만족하는 영역을 상기 타겟 차량의 바닥 영역으로 결정하는 단계
    를 포함하는,
    차량들 간의 거리 결정 방법.
  8. 제1항에 있어서,
    RANSAC(RANdom SAmple Consensus) 알고리즘을 이용하여 상기 바닥 영역을 처리함으로써 바닥 선(bottom line)을 생성하는 단계
    를 더 포함하고,
    상기 차량 및 타겟 차량 간의 거리는 상기 바닥 선에 기초하여 결정되는,
    차량들 간의 거리 결정 방법.
  9. 제1항에 있어서,
    상기 바닥 영역에 기초하여 상기 차량 및 타겟 차량 간의 거리를 결정하는 단계는,
    상기 카메라로부터 상기 타겟 차량 간의 제1 거리를 계산하는 단계; 및
    상기 카메라로부터 상기 차량의 앞 부분 간의 제2 거리 및 상기 제1 거리에 기초하여 상기 차량 및 상기 타겟 차량 간의 거리를 결정하는 단계
    를 포함하는,
    차량들 간의 거리 결정 방법.
  10. 제9항에 있어서,
    상기 제1 거리를 계산하는 단계는,
    상기 카메라의 수평 축 및 상기 타겟 차량의 바닥 면 간의 각도를 계산하는 단계 - 상기 타겟 차량의 바닥 면은 상기 바닥 영역에 대응함 -; 및
    상기 각도 및 상기 카메라의 설치 높이에 기초하여 상기 제1 거리를 계산하는 단계
    를 포함하는,
    차량들 간의 거리 결정 방법.
  11. 제1항에 있어서,
    상기 차량은 자율 주행 차량 또는 첨단 운전자 지원 시스템(Advanced Driver Assistance System: ADAS)을 지원하는 차량인,
    차량들 간의 거리 결정 방법.
  12. 제1항, 제2항, 제4항, 제6항 내지 제11항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
  13. 차량 및 타겟 차량 간의 거리를 계산하는 전자 장치는,
    차량 및 타겟 차량 간의 거리를 계산하기 위한 프로그램이 기록된 메모리; 및
    상기 프로그램을 수행하는 프로세서
    를 포함하고,
    상기 프로그램은,
    차량 전방의 장면을 촬영한 초기 이미지를 카메라로부터 수신하는 단계;
    상기 초기 이미지 내에 타겟 차량이 존재하는 타겟 차량 영역을 결정하는 단계;
    상기 초기 이미지 내의 차량의 바닥면을 나타낼 수 있는 특징 영역을 포함하는 특징 이미지를 생성하는 단계;
    상기 타겟 차량 영역 및 상기 특징 이미지에 기초하여 상기 특징 영역 중 상기 타겟 차량의 바닥 영역을 결정하는 단계; 및
    상기 바닥 영역에 기초하여 상기 차량 및 타겟 차량 간의 거리를 결정하는 단계
    를 수행하고,
    상기 특징 이미지를 생성하는 단계는,
    측정된 실제 밝기 및 상기 초기 이미지에 기초하여 제1 이미지를 생성하는 단계;
    상기 제1 이미지, 미리 설정된 밝기 조건 및 채도 조건에 기초하여 후보 도로면 이미지(candidate road surface image)를 생성하는 단계; 및
    상기 후보 도로면 이미지에 기초하여 상기 특징 이미지를 생성하는 단계
    를 포함하는,
    전자 장치.
  14. 제13항에 있어서,
    상기 초기 이미지 내에 타겟 차량이 존재하는 타겟 차량 영역을 결정하는 단계는,
    상기 초기 이미지 내의 상기 타겟 차량을 검출하는 단계; 및
    상기 검출된 타겟 차량에 기초하여 상기 타겟 차량 영역을 결정하는 단계
    를 포함하는,
    전자 장치.
  15. 삭제
  16. 제13항에 있어서,
    상기 타겟 차량 영역 및 상기 특징 이미지에 기초하여 상기 특징 영역 중 상기 타겟 차량의 바닥 영역을 결정하는 단계는,
    상기 특징 이미지 내에 상기 타겟 차량 영역에 대응하는 타겟 영역을 설정하는 단계; 및
    상기 타겟 영역 중 미리 설정된 차량의 바닥면 조건을 만족하는 영역을 상기 타겟 차량의 바닥 영역으로 결정하는 단계
    를 포함하는,
    전자 장치.
KR1020180140927A 2018-11-15 2018-11-15 차량들 간의 거리를 결정하는 방법 및 그 방법을 수행하는 전자 장치 KR102063454B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180140927A KR102063454B1 (ko) 2018-11-15 2018-11-15 차량들 간의 거리를 결정하는 방법 및 그 방법을 수행하는 전자 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180140927A KR102063454B1 (ko) 2018-11-15 2018-11-15 차량들 간의 거리를 결정하는 방법 및 그 방법을 수행하는 전자 장치

Publications (1)

Publication Number Publication Date
KR102063454B1 true KR102063454B1 (ko) 2020-01-09

Family

ID=69154806

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180140927A KR102063454B1 (ko) 2018-11-15 2018-11-15 차량들 간의 거리를 결정하는 방법 및 그 방법을 수행하는 전자 장치

Country Status (1)

Country Link
KR (1) KR102063454B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002327635A (ja) * 2001-04-27 2002-11-15 Nissan Motor Co Ltd 車両用走行制御装置
KR101748780B1 (ko) * 2016-12-02 2017-06-19 (주) 비전에스티 스테레오 카메라를 이용한 도로객체 인식방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002327635A (ja) * 2001-04-27 2002-11-15 Nissan Motor Co Ltd 車両用走行制御装置
KR101748780B1 (ko) * 2016-12-02 2017-06-19 (주) 비전에스티 스테레오 카메라를 이용한 도로객체 인식방법 및 장치

Similar Documents

Publication Publication Date Title
US11288833B2 (en) Distance estimation apparatus and operating method thereof
US20140071240A1 (en) Free space detection system and method for a vehicle using stereo vision
US11200432B2 (en) Method and apparatus for determining driving information
US20180129883A1 (en) Detection method and apparatus of a status of a parking lot and electronic equipment
KR102521656B1 (ko) 객체를 인식하는 방법 및 장치
CN106183979A (zh) 一种根据车距对车辆进行提醒的方法和装置
US20200363809A1 (en) Method and system for fusing occupancy maps
WO2017130285A1 (ja) 車両判定装置、車両判定方法及び車両判定プログラム
KR20140056510A (ko) 자동 노출 제어 장치 및 자동 노출 제어 방법
KR101268282B1 (ko) 차량용 내비게이션의 차선 이탈 알림 시스템 및 방법
US20200193184A1 (en) Image processing device and image processing method
US11373327B2 (en) Image processing device and method that determine a stop position in a parking frame using images from two cameras
KR102063454B1 (ko) 차량들 간의 거리를 결정하는 방법 및 그 방법을 수행하는 전자 장치
US10783350B2 (en) Method and device for controlling a driver assistance system by using a stereo camera system including a first and a second camera
CN114037977B (zh) 道路灭点的检测方法、装置、设备及存储介质
KR101875517B1 (ko) 영상 처리 방법 및 장치
KR20110012317A (ko) 빛 줄무늬 감지 방법, 목표 위치 검출 방법 및 그를 이용한 주차 보조 장치
JP6877636B2 (ja) 車載カメラ装置
JP2018077705A (ja) 駐車枠認識装置
KR20230013397A (ko) 카메라 기반 헤드라이트 조사각 제어장치 및 방법
JP7064400B2 (ja) 物体検知装置
JP7134780B2 (ja) ステレオカメラ装置
KR102400726B1 (ko) 이미지에 기초한 차량 검출 방법 및 장치
CN117121075A (zh) 物体检测方法以及物体检测装置
WO2018088263A1 (ja) 駐車枠認識装置

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant