KR102371592B1 - Apparatus and method for estimating inter-vehicle distance - Google Patents

Apparatus and method for estimating inter-vehicle distance Download PDF

Info

Publication number
KR102371592B1
KR102371592B1 KR1020160145244A KR20160145244A KR102371592B1 KR 102371592 B1 KR102371592 B1 KR 102371592B1 KR 1020160145244 A KR1020160145244 A KR 1020160145244A KR 20160145244 A KR20160145244 A KR 20160145244A KR 102371592 B1 KR102371592 B1 KR 102371592B1
Authority
KR
South Korea
Prior art keywords
vehicle
lane
image
detected
distance
Prior art date
Application number
KR1020160145244A
Other languages
Korean (ko)
Other versions
KR20180048094A (en
Inventor
최진혁
장재환
박태곤
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020160145244A priority Critical patent/KR102371592B1/en
Publication of KR20180048094A publication Critical patent/KR20180048094A/en
Application granted granted Critical
Publication of KR102371592B1 publication Critical patent/KR102371592B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/10Path keeping
    • B60Y2300/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/14Cruise control
    • B60Y2300/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

본 발명은 차간 거리 추정 장치 및 방법에 관한 것으로, 카메라를 통해 영상을 획득하고, 상기 영상에서 차량 및 차선을 검출하고, 상기 영상 내 검출된 차량의 위치좌표 및 상기 영상 내 검출된 차선의 차선각과 차선폭 비율을 검출하여 고정 차선각과 고정 차선폭 비율과 비교하여 유사도를 판단하고, 상기 유사도에 따라 상기 검출된 차량의 위치좌표를 보정하여 자차량으로부터 상기 검출된 차량까지의 거리를 추정한다.The present invention relates to an apparatus and method for estimating an inter-vehicle distance, acquiring an image through a camera, detecting a vehicle and a lane from the image, and determining the position coordinates of the vehicle detected in the image and the lane angle of the detected lane in the image The lane width ratio is detected and the similarity is determined by comparing the fixed lane angle and the fixed lane width ratio, and the distance from the own vehicle to the detected vehicle is estimated by correcting the position coordinates of the detected vehicle according to the similarity.

Description

차간 거리 추정 장치 및 방법{APPARATUS AND METHOD FOR ESTIMATING INTER-VEHICLE DISTANCE}Apparatus and method for estimating inter-vehicle distance

본 발명은 노면 지오메트리(geometry) 또는 차량 진동에 의해 영상의 수직방향의 흔들림을 차선정보를 이용하여 보정하고 이를 통해 자차량으로부터 전방차량까지의 거리를 추정하는 차간 거리 추정 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for estimating an inter-vehicle distance for estimating a distance from a host vehicle to a vehicle in front through the use of lane information to correct shake in the vertical direction of an image due to road surface geometry or vehicle vibration.

일반적으로, 자율주행시스템은 레이더(radar)와 레이저(laser)와 같은 일정 범위 내 물체 인식이 가능한 센서를 주로 이용한다. 이때, 센서로부터 나오는 값 자체가 거리값이며 이를 이용하여 물체의 거리 및 속도 등을 계산하여 자차 거동을 결정한다. 그러나, 다양한 센서들의 적용은 제조단가를 증가시키는 문제점이 있다.In general, an autonomous driving system mainly uses a sensor capable of recognizing an object within a certain range, such as a radar and a laser. At this time, the value from the sensor itself is a distance value, and using this, the distance and speed of the object are calculated to determine the behavior of the vehicle. However, there is a problem in that the application of various sensors increases the manufacturing cost.

이에, 자율주행시스템에 카메라만을 이용하여 물체를 인식하여 인식한 물체와의 거리를 측정하는 알고리즘이 개발되고 있다. 기존의 영상 기반 거리 측정 기술에서는 카메라와 노면의 지오메트리(geometry) 정보를 이용하여 거리를 추정한다. 이때, 노면은 차량으로부터 평행하다는 전제를 바탕으로 노면과 카메라 사이의 관계식을 이용해 인식된 물체에 대한 거리를 구하게 된다. Accordingly, an algorithm for recognizing an object using only a camera in an autonomous driving system and measuring the distance to the recognized object is being developed. In the existing image-based distance measurement technology, the distance is estimated using the geometry information of the camera and the road surface. At this time, on the premise that the road surface is parallel to the vehicle, the distance to the recognized object is obtained using the relational expression between the road surface and the camera.

그러나, 실제 도로의 노면은 크랙(crack), 수직적인 굴곡 또는 방지턱 등으로 인해 이상적인 평면이 아니며, 차량은 자체적으로 진동이 발생하므로, 카메라를 통해 영상 획득 시 수직방향으로의 이동이 잦게 된다. 따라서, 기존의 노면과 차체가 평행하다는 전제가 성립하지 않으므로, 정밀하게 거리를 추정(측정)할 수 없다.However, the actual road surface is not an ideal plane due to cracks, vertical curves, or bumps, and the vehicle itself vibrates. Therefore, since the premise that the existing road surface and the vehicle body are parallel does not hold, it is impossible to accurately estimate (measure) the distance.

KR 101463513 B1KR 101463513 B1

본 발명은 카메라를 통해 자차량의 전방영상을 획득하고, 획득한 영상으로부터 차선정보를 검출하여 검출한 차선정보에 근거하여 노면 지오메트리 및 차량 진동 등에 의한 영상 내 수직방향으로의 이동 변화를 연산하고 이를 고려하여 자차량으로부터 전방차량까지의 거리를 추정하는 차간 거리 추정 장치 및 방법을 제공하고자 한다.The present invention acquires a front image of the own vehicle through a camera, detects lane information from the acquired image, and calculates a change in movement in the vertical direction in an image due to road surface geometry and vehicle vibration, etc. based on the detected lane information, and An object of the present invention is to provide an inter-vehicle distance estimation apparatus and method for estimating the distance from the host vehicle to the vehicle in front.

상기한 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 차간 거리 추정 방법은 카메라를 통해 영상을 획득하는 단계, 상기 영상에서 차량 및 차선을 검출하는 단계, 상기 영상 내 검출된 차량의 위치좌표 및 상기 영상 내 검출된 차선의 차선각과 차선폭 비율을 검출하는 단계, 상기 차선각과 차선폭 비율을 고정 차선각과 고정 차선폭 비율과 비교하여 유사도를 판단하는 단계 및 상기 유사도에 따라 상기 검출된 차량의 위치좌표를 보정하여 자차량으로부터 상기 검출된 차량까지의 거리를 추정하는 단계를 포함하는 것을 특징으로 한다.In order to solve the above problems, a method for estimating an inter-vehicle distance according to an embodiment of the present invention includes: acquiring an image through a camera; detecting a vehicle and a lane from the image; and detecting a lane angle and a lane width ratio of the detected lane in the image, comparing the lane angle and lane width ratio with a fixed lane angle and a fixed lane width ratio to determine a similarity, and the detected vehicle according to the similarity and estimating a distance from the host vehicle to the detected vehicle by correcting the position coordinates.

상기 차량의 위치좌표는, 상기 영상 내에서 상기 검출된 차량의 바퀴가 노면과 접촉한 지점의 y좌표인 것을 특징으로 한다.The position coordinate of the vehicle is characterized in that it is a y-coordinate of a point in which the detected wheel of the vehicle contacts the road surface in the image.

상기 차선폭 비율은, 실제 차선폭과 상기 차선폭 간의 비율인 것을 특징으로 한다.The lane width ratio may be a ratio between an actual lane width and the lane width.

상기 유사도를 판단하는 단계는, 상기 차선각과 차선폭 비율 및 고정 차선각과 고정 차선폭 비율 간의 유사도를 연산하고 연산된 유사도가 임계치 이상인지를 확인하는 것을 특징으로 한다.The determining of the similarity may include calculating the similarity between the lane angle and the lane width ratio and the fixed lane angle and the fixed lane width ratio, and determining whether the calculated similarity is greater than or equal to a threshold value.

상기 거리를 추정하는 단계는, 상기 유사도가 임계치 이상이면 상기 검출된 차량의 위치좌표를 이용하여 거리를 추정하는 것을 특징으로 하는 차간 거리 추정 방법.The estimating of the distance may include estimating the distance using the detected vehicle location coordinates if the similarity is greater than or equal to a threshold.

상기 거리를 추정하는 단계는, 상기 유사도가 임계치 미만이면, 상기 영상으로부터 호모그래피를 추출하는 단계; 상기 호모그래피를 이용하여 상기 검출된 차량의 위치좌표를 평면 시점에서의 좌표로 변환하는 단계; 상기 평면 시점에서의 좌표에 고정 좌표변환 행렬식을 적용하여 기준 카메라 지오메트리에서의 좌표로 변환하는 단계; 및 상기 기준 카메라 지오메트리에서의 좌표를 이용하여 거리를 추정하는 단계를 포함하는 것을 특징으로 한다.The estimating of the distance may include: if the similarity is less than a threshold, extracting a homography from the image; converting the detected position coordinates of the vehicle into coordinates in a plane view using the homography; converting into coordinates in a reference camera geometry by applying a fixed coordinate transformation determinant to coordinates in the plane view; and estimating the distance using coordinates in the reference camera geometry.

한편, 본 발명의 일 실시예에 따른 차간 거리 추정 장치는 영상을 획득하는 카메라, 고정 차선각 및 고정 차선폭 비율을 저장하고 있는 메모리 및 상기 영상에서 차량 및 차선을 검출하고, 검출된 차량의 위치좌표 및 검출된 차선의 차선각과 차선폭 비율을 검출하여 상기 고정 차선각 및 상기 고정 차선폭 비율과 비교하여 유사도를 판단하고 상기 유사도에 따라 상기 검출된 차량의 위치좌표를 보정하여 자차량으로부터 상기 검출된 차량까지의 거리를 추정하는 처리기를 포함하는 것을 특징으로 한다.On the other hand, the apparatus for estimating the inter-vehicle distance according to an embodiment of the present invention detects a vehicle and a lane from a camera for acquiring an image, a memory storing a fixed lane angle and a fixed lane width ratio, and the image, and the position of the detected vehicle Detecting the coordinates and the ratio of the lane angle and the lane width of the detected lane, comparing the fixed lane angle and the fixed lane width ratio to determine the similarity, and correcting the position coordinates of the detected vehicle according to the similarity degree to detect the detection from the own vehicle It characterized in that it comprises a processor for estimating the distance to the vehicle.

상기 차량의 위치좌표는, 상기 영상 내에서 상기 검출된 차량의 바퀴가 노면과 접촉한 지점의 y좌표인 것을 특징으로 한다.The position coordinate of the vehicle is characterized in that it is a y-coordinate of a point where the wheel of the vehicle detected in the image is in contact with the road surface.

상기 차선폭 비율은, 실제 차선폭과 상기 차선폭 간의 비율인 것을 특징으로 한다.The lane width ratio may be a ratio between an actual lane width and the lane width.

상기 처리기는, 상기 차선각 및 차선폭 비율과 상기 고정 차선각 및 고정 차선폭 비율 간의 유사도를 연산하고 연산된 유사도가 임계치 이상인지를 확인하는 것을 특징으로 한다.The processor may calculate a similarity between the ratio of the lane angle and the lane width and the ratio of the fixed lane angle and the fixed lane width, and check whether the calculated similarity is equal to or greater than a threshold value.

상기 처리기는, 상기 유사도가 임계치 이상이면 상기 검출된 차량의 위치좌표를 이용하여 거리를 추정하는 것을 특징으로 한다.The processor may estimate the distance using the detected vehicle position coordinates if the similarity is greater than or equal to a threshold value.

상기 처리기는, 상기 유사도가 임계치 미만이면, 상기 영상으로부터 호모그래피를 추출하고, 상기 호모그래피를 이용하여 상기 검출된 차량의 위치좌표를 평면 시점에서의 좌표로 변환하고, 상기 평면 시점에서의 좌표에 고정 좌표변환 행렬식을 적용하여 기준 카메라 지오메트리에서의 좌표로 변환하고, 상기 기준 카메라 지오메트리에서의 좌표를 이용하여 거리를 추정하는 것을 특징으로 한다.If the degree of similarity is less than a threshold, the processor extracts a homography from the image, converts the detected position coordinates of the vehicle into coordinates in a plane viewpoint using the homography, and converts the coordinates in the plane viewpoint to the coordinates in the plane viewpoint. It is characterized in that it is converted into coordinates in a reference camera geometry by applying a fixed coordinate transformation determinant, and the distance is estimated using the coordinates in the reference camera geometry.

본 발명은 카메라를 통해 자차량의 전방영상을 획득하고, 획득한 영상으로부터 차선정보를 검출하여 그 차선정보에 근거하여 노면 지오메트리 및 차량 진동 등에 의한 영상 내 수직방향으로의 이동 변화를 연산하고 이를 고려하여 자차량으로부터 전방차량까지의 거리를 추정하므로, 카메라만을 이용하여 자차량으로부터 전방차량까지의 거리를 정밀하게 추정할 수 있다.The present invention acquires a front image of the own vehicle through a camera, detects lane information from the acquired image, calculates a change in movement in the vertical direction in the image due to road surface geometry and vehicle vibration, etc., based on the lane information, and considers this Therefore, since the distance from the own vehicle to the vehicle in front is estimated, the distance from the own vehicle to the vehicle in front can be accurately estimated using only the camera.

도 1은 본 발명의 일 실시예에 따른 차간 거리 추정 장치의 블록구성도.
도 2는 고정 좌표변화 행렬식을 설명하기 위한 도면.
도 3은 거리 추정 함수의 도출을 설명하기 위한 도면.
도 4는 차량의 위치좌표, 차선각 및 차선폭 비율 검출을 설명하기 위한 도면.
도 5는 차량의 위치좌표 보정을 설명하기 위한 도면.
도 6은 본 발명의 일 실시예에 따른 차간 거리 추정 방법을 도시한 흐름도.
1 is a block diagram of an apparatus for estimating an inter-vehicle distance according to an embodiment of the present invention;
2 is a diagram for explaining a fixed coordinate change determinant;
3 is a diagram for explaining derivation of a distance estimation function;
4 is a view for explaining the detection of a vehicle position coordinates, a lane angle, and a lane width ratio;
5 is a view for explaining the position coordinate correction of the vehicle.
6 is a flowchart illustrating a method for estimating an inter-vehicle distance according to an embodiment of the present invention.

본 명세서에 기재된 "포함하다", "구성하다", "가지다" 등의 용어는 특별히 반대되는 기재가 없는 한 해당 구성요소가 내재될 수 있음을 의미하는 것이므로 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Terms such as "include", "comprise", "have" and the like described in this specification mean that the corresponding component may be embedded unless otherwise stated, so it does not exclude other components but other components It means that it can contain more elements.

또한, 본 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일", "하나" 및 "그" 등의 관사는 본 발명을 기술하는 문맥에 있어서 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.In addition, terms such as “…unit”, “…group”, and “module” described in this specification mean a unit that processes at least one function or operation, which may be implemented by hardware or software or a combination of hardware and software. can In addition, articles such as "a", "an" and "the" in the context of describing the present invention are meant to include both the singular and the plural unless otherwise indicated herein or otherwise clearly contradicted by the context. can be used

이하에서는 첨부된 도면들을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명은 노면 및 진동 등에 의해 카메라 지오메트리(geometry)가 변경되면 영상에서 검출된 물체의 거리를 정밀하게 추정(측정)할 수 없는 문제를 해결하기 위하여, 카메라를 통해 영상을 획득하고, 영상 내 차량 및 차선을 검출하여 검출한 차선정보를 이용하여 노면 지오메트리(geometry) 및 차량 진동 등에 의한 영상 내 수직변화를 연산하고, 연산된 수직변화를 고려하여 자차량으로부터 타차량까지의 거리를 추정하는 것입니다.The present invention obtains an image through a camera and the vehicle in the image in order to solve the problem that the distance of the object detected in the image cannot be accurately estimated (measured) when the camera geometry is changed due to the road surface and vibration, etc. And using the lane information detected by detecting the lane, calculates the vertical change in the image due to road surface geometry and vehicle vibration, etc., and estimates the distance from the own vehicle to another vehicle by considering the calculated vertical change. .

도 1은 본 발명의 일 실시예에 따른 차간 거리 추정 장치의 블록구성도이고, 도 2는 고정 좌표변화 행렬식을 설명하기 위한 도면이며, 도 3은 거리 추정 함수의 도출을 설명하기 위한 도면이고, 도 4는 차량의 위치좌표, 차선각 및 차선폭 비율 검출을 설명하기 위한 도면이며, 도 5는 차량의 위치좌표 보정을 설명하기 위한 도면이다.1 is a block diagram of an inter-vehicle distance estimation apparatus according to an embodiment of the present invention, FIG. 2 is a diagram for explaining a fixed coordinate change determinant, and FIG. 3 is a diagram for explaining derivation of a distance estimation function, 4 is a diagram for explaining the detection of a vehicle position coordinate, a lane angle, and a lane width ratio, and FIG. 5 is a diagram for explaining a vehicle position coordinate correction.

도 1에 도시된 바와 같이, 차간 거리 추정 장치는 카메라(110), 메모리(120) 및 처리기(130)를 포함한다.As shown in FIG. 1 , the apparatus for estimating the inter-vehicle distance includes a camera 110 , a memory 120 , and a processor 130 .

카메라(110)는 차량에 설치되어 자차량의 전방영상을 실시간으로 획득한다. 이때, 카메라(110)는 원근 시점(perspective view)에서 영상을 획득한다. 카메라(110)는 획득한 영상을 처리기(130)로 전달한다. 본 실시예에서는 카메라(110)를 차량 내 전방에 설치하여 자차량의 전방영상만을 획득하는 것을 예로 들어 설명하고 있으나, 이에 한정되지 않고 카메라(110)를 차량의 전방, 후방 및 측방에 설치하여 자차량의 전방영상, 후방영상 및 측방영상을 획득하도록 구현할 수도 있다.The camera 110 is installed in the vehicle to acquire a front image of the own vehicle in real time. In this case, the camera 110 acquires an image from a perspective view. The camera 110 transmits the acquired image to the processor 130 . In this embodiment, the camera 110 is installed in the front of the vehicle to obtain only the front image of the own vehicle as an example, but the present invention is not limited thereto. It may be implemented to acquire a front image, a rear image, and a side image of the vehicle.

카메라(110)는 CCD(charge coupled device) 영상센서(image sensor), CMOS(complementary metal oxide semi-conductor) 영상센서, CPD(charge priming device) 영상센서 및 CID(charge injection device) 영상센서 등과 같은 영상센서들 중 어느 하나의 영상센서로 구현될 수 있다.The camera 110 includes images such as a charge coupled device (CCD) image sensor, a complementary metal oxide semi-conductor (CMOS) image sensor, a charge priming device (CPD) image sensor, and a charge injection device (CID) image sensor. It may be implemented as an image sensor of any one of the sensors.

메모리(120)는 고정 좌표변환 행렬식(inverse homography, iH), 고정 차선폭 비율, 및 고정 차선각 등을 저장하고 있다. 메모리(120)는 처리기(130)의 동작을 위한 프로그램을 저장할 수 있고, 입력 및/또는 출력되는 데이터들을 임시로 저장할 수도 있다.The memory 120 stores a fixed coordinate transformation determinant (inverse homography, iH), a fixed lane width ratio, and a fixed lane angle. The memory 120 may store a program for the operation of the processor 130 , and may temporarily store input and/or output data.

고정 좌표 변환 행렬식은 다음과 같은 과정으로 사전에 미리 구한다. 먼저, 일반 도로(노면이 이상적 평면인 도로) 상의 중앙에 차량(V)이 위치할 때 카메라를 이용하여 원근(perspective view) 영상(Img1) 및 평면(top-view) 영상(Img2)을 획득한다. 여기서, 원근 영상(Img1)은 기준 카메라 지오메트리 상황에서 획득한 영상이다. 획득한 원근 영상(Img1) 및 평면 영상(Img2)에서 각각 차량(V)와 차선(L1, L2, L3, 및 L4)를 검출한다. 그리고, 원근 영상(Img1)에서 검출된 차선(L1 및 L2)과 y=y1 및 y=y2의 교차점(P1, P2, P3, P4)을 검출하고, 평면 영상(Img2)에서 검출된 차선(L3 및 L4)과 y=y1 및 y=y2의 교차점(P'1, P'2, P'3, P'4)을 검출한다. 원근 영상(Img1)의 교차점(P1, P2, P3, P4)과 평면 영상(Img2)의 교차점(P'1, P'2, P'3, P'4)의 관계를 호모그래피(homography) H로 표현할 수 있다. 즉, 원근 영상(Img1)을 평면 영상(Img2)으로 변환하는 관계식을 호모그래피 H로 구한다. 호모그래피 H는 3×3 행렬이다. 구해진 호모그래피 H의 역행렬(inverser)을 고정 좌표변환 행렬식(iH)을 구한다.The fixed coordinate transformation determinant is obtained in advance through the following process. First, a perspective view image Img1 and a top-view image Img2 are acquired using a camera when the vehicle V is positioned in the center of a general road (a road with an ideal road surface). . Here, the perspective image Img1 is an image acquired in a reference camera geometry situation. A vehicle V and lanes L1, L2, L3, and L4 are detected from the acquired perspective image Img1 and the plane image Img2, respectively. Then, the intersections (P 1 , P 2 , P 3 , P 4 ) of the lanes L1 and L2 detected in the perspective image Img1 and y=y1 and y=y2 are detected, and detected in the plane image Img2 The intersections (P' 1 , P' 2 , P' 3 , P' 4 ) of the traffic lanes L3 and L4 and y=y1 and y=y2 are detected. Homography the relationship between the intersection (P 1 , P 2 , P 3 , P 4 ) of the perspective image (Img1) and the intersection (P' 1 , P' 2 , P' 3 , P' 4 ) of the planar image (Img2) It can be expressed as (homography) H. That is, the relational expression for converting the perspective image Img1 into the planar image Img2 is obtained as homography H. Homography H is a 3×3 matrix. A fixed coordinate transformation determinant (iH) is obtained from the inverse of the obtained homography H.

고정 차선각은 원근 영상(Img1)에서 검출된 차선 사이의 각도(θ)이고, 고정 차선폭 비율(α)은 실제 차선폭(d)와 원근 영상(Img1) 내 차선폭(p) 사이의 비율이다. 차선폭 비율(α)을 연산하는 식은 [수학식 1]과 같이 나타낼 수 있다.The fixed lane angle is the angle θ between lanes detected in the perspective image Img1, and the fixed lane width ratio α is the ratio between the actual lane width d and the lane width p in the perspective image Img1. am. The equation for calculating the lane width ratio α can be expressed as [Equation 1].

Figure 112016107214310-pat00001
Figure 112016107214310-pat00001

또한, 메모리(120)는 거리 추정 함수(f)를 저장할 수 있다. 거리 추정 함수는 최소자승법에 기반하여 실제 거리별 y좌표(영상 내 차량 하단의 y축 위치)를 모델링한다(도 3의 그래프 참조). 이러한 모델링을 통해 [수학식 2]의 분모함수 기반의 거리 추정 함수를 도출한다.Also, the memory 120 may store a distance estimation function f. The distance estimation function models the y-coordinate (the y-axis position of the bottom of the vehicle in the image) for each actual distance based on the least-squares method (refer to the graph of FIG. 3 ). Through this modeling, a distance estimation function based on the denominator of [Equation 2] is derived.

Figure 112016107214310-pat00002
Figure 112016107214310-pat00002

여기서, x는 실제 거리이고, y는 영상 내 차량의 위치좌표이다.Here, x is the actual distance, and y is the location coordinates of the vehicle in the image.

메모리(120)는 플래시 메모리(flash memory), 하드디스크(hard disk), SD 카드(Secure Digital Card), 램(Random Access Memory, RAM), 롬(Read Only Memory, ROM), 웹 스토리지(web storage) 등의 저장매체 중 어느 하나 이상의 저장매체로 구현될 수 있다.Memory 120 is a flash memory (flash memory), hard disk (hard disk), SD card (Secure Digital Card), RAM (Random Access Memory, RAM), ROM (Read Only Memory, ROM), web storage (web storage) ) may be implemented as any one or more of the storage media.

처리기(130)는 카메라(110)로부터 입력받은 영상(원근 영상)에서 차량과 차선을 검출한다. 이때, 처리기(130)는 학습 기반의 영상 내 차량 및 차선 검출 기술을 이용한다.The processor 130 detects a vehicle and a lane from the image (perspective image) received from the camera 110 . In this case, the processor 130 uses a learning-based vehicle and lane detection technology in the image.

처리기(130)는 영상 내 차량을 검출하면 검출한 차량의 위치좌표(차량의 바퀴와 노면이 접촉한 위치)를 추출(검출)한다. 다시 말해서, 처리기(130)는 영상 내 차량의 하단이 위치하는 y좌표를 검출한다. 여기서, y좌표는 영상 좌표계에서의 y축 값을 의미한다. 예컨대, 처리기(130)는 도 4에서와 같이 영상 내 전방차량(V)이 검출되면 검출된 차량의 하단이 위치하는 y축 값 yV를 검출한다. 여기서, 전방차량(V)는 자차량이 주행하는 차로의 전방에 위치하는 차량을 의미한다.When a vehicle in the image is detected, the processor 130 extracts (detects) the position coordinates of the detected vehicle (a position where the wheels of the vehicle and the road surface are in contact). In other words, the processor 130 detects the y-coordinate at which the lower end of the vehicle is located in the image. Here, the y-coordinate means a y-axis value in the image coordinate system. For example, the processor 130 detects the y-axis value y V in which the lower end of the detected vehicle is located when the vehicle V in front is detected in the image as shown in FIG. 4 . Here, the front vehicle V means a vehicle located in front of a lane on which the host vehicle travels.

처리기(130)는 영상에서 검출된 차선 사이의 각(θ')을 검출한다. 예를 들어, 처리기(130)는 도 4와 같은 영상에서 검출된 차선 L5 및 L6가 이루는 각 θ'을 검출한다.The processor 130 detects an angle θ' between lanes detected in the image. For example, the processor 130 detects an angle θ′ formed by the lanes L5 and L6 detected in the image shown in FIG. 4 .

처리기(130)는 영상에서 검출된 차선(L5 및 L6)을 이용하여 차선폭 비율(α')을 검출한다. 처리기(130)는 실제 차선폭(d)은 고정 차선폭 비율을 산출할 때 사용한 실제 차선폭과 동일하다고 가정하고 영상 내 차선폭(p)를 구한다(도 4 참조). 처리기(130)는 [수학식 2]를 이용하여 실제 차선폭(d)과 구한 차선폭(p)의 비율을 연산한다.The processor 130 detects a lane width ratio α′ using the lanes L5 and L6 detected in the image. The processor 130 calculates the lane width p in the image, assuming that the actual lane width d is the same as the actual lane width used when calculating the fixed lane width ratio (see FIG. 4 ). The processor 130 calculates the ratio of the actual lane width d to the obtained lane width p using [Equation 2].

처리기(130)는 입력받은 영상으로부터 차선각과 차선폭 비율을 검출하면, 검출한 차선각과 차선폭 비율을 메모리(120)에 저장된 고정 차선각과 고정 차선폭 비율와 비교하여 유사도를 판단한다.When the processor 130 detects the ratio of the lane angle and the lane width from the received image, the processor 130 compares the detected lane angle and the lane width ratio with the fixed lane angle and the fixed lane width ratio stored in the memory 120 to determine the similarity.

유사도μ는 [수학식 3]을 이용하여 연산한다. The similarity μ is calculated using [Equation 3].

Figure 112016107214310-pat00003
Figure 112016107214310-pat00003

여기서, ρ는 차선각 게인(gain) 이고, σ는 차선폭비율 게인(gain) 이다.Here, ρ is a lane angle gain, and σ is a lane width ratio gain.

처리기(130)는 유사도가 임계치(예: 0.7) 이상이면 영상 내 차량의 하단 위치 좌표(yV)를 이용하여 자차량으로부터 전방차량까지의 거리 f(yV)를 추정한다.If the similarity is greater than or equal to a threshold (eg, 0.7), the processor 130 estimates the distance f(y V ) from the own vehicle to the vehicle in front by using the coordinates (y V ) of the lower end of the vehicle in the image.

한편, 처리기(130)는 유사도가 임계치 미만이면 영상의 수직방향으로 변화가 크게 발생했다고 판단하여 카메라(110)로부터 입력 받은 영상에서 호모그래피 H'을 추출한다. 예컨대, 처리기(130)는 노면에 의해 카메라 지오메트리가 변경되면 카메라(110)를 통해 획득한 영상으로부터 호모그래피 H'를 추출한다.On the other hand, if the similarity is less than the threshold, the processor 130 determines that a large change has occurred in the vertical direction of the image and extracts homography H' from the image input from the camera 110 . For example, when the camera geometry is changed by the road surface, the processor 130 extracts the homography H' from the image acquired through the camera 110 .

처리기(130)는 추출한 호모그래피 H'을 이용하여 차량의 위치좌표 y를 평면 시점에서의 좌표 y'로 변환한다. 즉, 처리기(130)는 도 5에 도시된 바와 같이, 차량의 위치좌표 y에 호모그래피 H'을 곱하여 평면 시점에서의 차량의 위치좌표 y'을 연산한다. 처리기(130)는 고정 좌표변환 행렬식(iH)을 이용하여 변환된 좌표 y'를 기준 카메라 지오메트리에서의 y"을 구한다. 도 5에 도시된 바와 같이, 처리기(130)는 변환된 좌표 y'에 고정 좌표변환 행렬식(iH)을 곱하여 보정된 차량의 위치좌표 y"을 구한다.The processor 130 converts the position coordinate y of the vehicle into the coordinate y' in the plane view using the extracted homography H'. That is, as shown in FIG. 5 , the processor 130 calculates the position coordinate y' of the vehicle in a plan view by multiplying the position coordinate y of the vehicle by the homography H'. The processor 130 obtains the transformed coordinate y' in the reference camera geometry by using the fixed coordinate transformation determinant (iH). As shown in FIG. 5, the processor 130 is the transformed coordinate y' By multiplying the fixed coordinate transformation determinant (iH), the corrected vehicle position coordinate y" is obtained.

도 6은 본 발명의 일 실시예에 따른 차간 거리 추정 방법을 도시한 흐름도이다.6 is a flowchart illustrating a method for estimating an inter-vehicle distance according to an embodiment of the present invention.

차간 거리 추정 장치의 처리기(130)는 카메라(110)로부터 영상을 입력 받는다(S110). 카메라(110)는 자차량의 전방영상을 획득하여 처리기(130)로 전달한다. 여기서, 전방영상은 원근 시점에서 획득한 영상이다.The processor 130 of the inter-vehicle distance estimation apparatus receives an image from the camera 110 (S110). The camera 110 acquires the front image of the own vehicle and transmits it to the processor 130 . Here, the front image is an image obtained from a perspective view.

처리기(130)는 입력받은 영상에서 차량 및 차선을 검출한다(S120). 처리기(130)는 학습 기반 차량 검출 알고리즘을 이용하여 영상 내 차량을 검출한다. 또한, 처리기(130)는 학습 기반 차선 검출 알고리즘을 이용하여 영상 내 차선을 검출한다.The processor 130 detects a vehicle and a lane from the received image (S120). The processor 130 detects a vehicle in the image using a learning-based vehicle detection algorithm. Also, the processor 130 detects a lane in the image using a learning-based lane detection algorithm.

처리기(130)는 검출한 차량의 위치좌표 및 검출한 차선의 차선각 및 차선폭 비율을 추출(연산)한다(S130). 차량의 위치좌표는 영상 내 차량의 하단이 위치하는 y축의 값(y좌표)이다. 차선각은 검출된 두 차선(자차량이 주행하고 있는 차로의 양 차선)이 이루는 각이고, 차선폭 비율은 실제 차선폭과 영상 내 차선폭의 비율이다.The processor 130 extracts (calculates) the position coordinates of the detected vehicle and the ratio of the lane angle and the lane width of the detected lane ( S130 ). The location coordinates of the vehicle are the values of the y-axis (y-coordinates) where the lower end of the vehicle in the image is located. The lane angle is the angle formed by the detected two lanes (both lanes of the lane in which the own vehicle is traveling), and the lane width ratio is the ratio of the actual lane width to the lane width in the image.

처리기(130)는 추출한 차선각과 차선폭 비율을 메모리(120)에 저장된 고정 차선각과 고정 차선폭 비율과 비교하여 유사성을 판단한다(S140). 다시 말해서, 처리기(130)는 추출한 차선각 및 차선폭 비율과 고정 차선각 및 고정 차선폭 비율을 이용하여 유사성을 연산하고, 연산한 유사성이 임계치 이상인지를 확인한다.The processor 130 compares the extracted lane angle and lane width ratio with the fixed lane angle and fixed lane width ratio stored in the memory 120 to determine similarity ( S140 ). In other words, the processor 130 calculates the similarity using the extracted lane angle and lane width ratio and the fixed lane angle and fixed lane width ratio, and checks whether the calculated similarity is greater than or equal to a threshold value.

처리기(130)는 연산한 유사성이 임계치 이상이면 영상에서 검출한 차량의 위치좌표(y)를 이용하여 자차량으로부터 검출한 차량까지의 거리(d')를 추정한다(S150). 즉, 처리기(130)는 거리 추정 함수 f에 영상에서 검출한 차량의 위치좌표(y)를 적용하여 거리(d')를 추정한다.If the calculated similarity is equal to or greater than the threshold, the processor 130 estimates the distance d' from the host vehicle to the detected vehicle using the position coordinate y of the vehicle detected from the image (S150). That is, the processor 130 estimates the distance d' by applying the location coordinates y of the vehicle detected from the image to the distance estimation function f.

S140에서, 처리기(130)는 유사성이 임계치 미만이면, 영상으로부터 호모그래피 H'를 추출한다(S170).In S140, if the similarity is less than the threshold, the processor 130 extracts the homography H' from the image (S170).

처리기(130)는 추출한 호모그래피(H') 및 고정 좌표변환 행렬식(iH)를 이용하여 영상 내 차량의 위치좌표(y)를 보정한다(S180). 처리기(130)는 영상 내 차량의 위치좌표(y)에 추출한 호모그래피(H')을 곱하여 영상 내 차량의 위치좌표(y)를 평면 시점에서의 차량의 위치좌표(y')로 변환한다. 처리기(130)는 평면 시점에서의 차량의 위치좌표(y')에 고정 좌표변환 행렬식(iH)를 적용하여 기준 카메라 지오메트리 상황에서의 차량의 위치좌표(y")를 구한다. 다시 말해서, 처리기(130)는 영상 내 차량의 위치좌표를 이상적 평면인 노면 상에 차량이 위치하는 경우 원근 시점에서의 영상 내 차량의 위치좌표로 변환하는 것이다. 따라서, 처리기(130)는 카메라(110)로부터 입력받은 영상에 포함된 노면 형상 및 진동에 의한 수직방향의 흔들림을 보정한다.The processor 130 corrects the position coordinate (y) of the vehicle in the image using the extracted homography (H') and the fixed coordinate transformation determinant (iH) ( S180 ). The processor 130 converts the location coordinates (y) of the vehicle in the image by multiplying the location coordinates (y) of the vehicle in the image by the extracted homography (H') into the location coordinates (y') of the vehicle in the plan view. The processor 130 applies the fixed coordinate transformation determinant (iH) to the position coordinates (y') of the vehicle in a plane view to obtain the position coordinates (y") of the vehicle in the reference camera geometry situation. In other words, the processor ( 130) is to convert the position coordinates of the vehicle in the image into the position coordinates of the vehicle in the image in the perspective view when the vehicle is located on an ideal plane road surface. Corrects vertical shake caused by road surface shape and vibration included in the image.

처리기(130)는 보정된 차량의 위치좌표(y")를 이용하여 자차량으로부터 검출한 차량까지의 거리(d')을 추정한다(S190).The processor 130 estimates the distance d' from the host vehicle to the detected vehicle using the corrected position coordinates y" of the vehicle (S190).

본 발명의 일 실시예에 따르면, 본 발명의 차간 거리 추정 기술은 영상 기반 자율주행 시 영상에서 검출된 물체의 정밀한 거리를 측정할 수 있다.According to an embodiment of the present invention, the inter-vehicle distance estimation technology of the present invention can measure a precise distance of an object detected in an image during image-based autonomous driving.

또한, 본 발명의 차간 거리 추정 기술은 차량 검출 알고리즘 및 보행자 검출 알고리즘 등에 적용하여 자차량으로부터 검출된 타차량까지의 거리 및/또는 검출된 보행자까지의 거리를 추정하는데 사용될 수 있다.In addition, the inter-vehicle distance estimation technique of the present invention may be applied to a vehicle detection algorithm and a pedestrian detection algorithm to estimate the distance from the own vehicle to another vehicle detected and/or the detected distance to the pedestrian.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다.In the above, even though all the components constituting the embodiment of the present invention are described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all the components may operate by selectively combining one or more. In addition, although all the components may be implemented as one independent hardware, some or all of the components are selectively combined to perform some or all of the functions of the combined hardware in one or a plurality of hardware program modules It may be implemented as a computer program having Codes and code segments constituting the computer program can be easily inferred by those skilled in the art of the present invention. Such a computer program is stored in a computer readable storage medium (Computer Readable Media), read and executed by the computer, thereby implementing the embodiment of the present invention.

110: 카메라
120: 메모리
130: 처리기
110: camera
120: memory
130: handler

Claims (12)

카메라를 통해 영상을 획득하는 단계;
상기 영상에서 차량 및 차선을 검출하는 단계;
상기 영상 내 검출된 차량의 위치좌표 및 상기 영상 내 검출된 차선 사이의 차선각과 차선폭 비율을 검출하는 단계;
상기 차선각과 차선폭 비율을 고정 차선각과 고정 차선폭 비율과 비교하여 유사도를 판단하는 단계; 및
상기 유사도에 근거하여 상기 영상 획득 시 수직방향으로 이동 변화가 발생했다고 판단되면, 상기 검출된 차량의 위치좌표를 보정하여 자차량으로부터 상기 검출된 차량까지의 거리를 추정하는 단계를 포함하는 것을 특징으로 하는 차간 거리 추정 방법.
acquiring an image through a camera;
detecting a vehicle and a lane from the image;
detecting a ratio of a lane angle and a lane width between a position coordinate of a vehicle detected in the image and a lane detected in the image;
determining a similarity by comparing the ratio of the lane angle and the lane width with the ratio of the fixed lane angle and the fixed lane width; and
and estimating a distance from the own vehicle to the detected vehicle by correcting the position coordinates of the detected vehicle when it is determined that a movement change in the vertical direction occurs when the image is acquired based on the similarity A method of estimating the inter-vehicle distance.
제1항에 있어서,
상기 차량의 위치좌표는,
상기 영상 내에서 상기 검출된 차량의 바퀴가 노면과 접촉한 지점의 y좌표인 것을 특징으로 하는 차간 거리 추정 방법.
According to claim 1,
The position coordinates of the vehicle are,
The method for estimating the inter-vehicle distance, characterized in that the y-coordinate of a point where the detected wheel of the vehicle contacts the road surface in the image.
제1항에 있어서,
상기 차선폭 비율은,
실제 차선폭과 상기 차선폭 간의 비율인 것을 특징으로 하는 차간 거리 추정 방법.
According to claim 1,
The lane width ratio is
An inter-vehicle distance estimation method, characterized in that it is a ratio between the actual lane width and the lane width.
제1항에 있어서,
상기 유사도를 판단하는 단계는,
상기 차선각과 차선폭 비율 및 고정 차선각과 고정 차선폭 비율 간의 유사도를 연산하고 연산된 유사도가 임계치 이상인지를 확인하는 것을 특징으로 하는 차간 거리 추정 방법.
According to claim 1,
The step of determining the similarity is:
The method for estimating an inter-vehicle distance, comprising calculating a similarity between the lane angle and the lane width ratio and the fixed lane angle and the fixed lane width ratio, and checking whether the calculated similarity is equal to or greater than a threshold value.
제4항에 있어서,
상기 거리를 추정하는 단계는,
상기 유사도가 임계치 이상이면 상기 검출된 차량의 위치좌표를 이용하여 거리를 추정하는 것을 특징으로 하는 차간 거리 추정 방법.
5. The method of claim 4,
The step of estimating the distance is
If the similarity is greater than or equal to a threshold value, the inter-vehicle distance estimation method of claim 1, wherein the distance is estimated using the detected vehicle location coordinates.
제4항에 있어서,
상기 거리를 추정하는 단계는,
상기 유사도가 임계치 미만이면, 상기 영상으로부터 호모그래피를 추출하는 단계;
상기 호모그래피를 이용하여 상기 검출된 차량의 위치좌표를 평면 시점에서의 좌표로 변환하는 단계;
상기 평면 시점에서의 좌표에 고정 좌표변환 행렬식을 적용하여 기준 카메라 지오메트리에서의 좌표로 변환하는 단계; 및
상기 기준 카메라 지오메트리에서의 좌표를 이용하여 거리를 추정하는 단계를 포함하는 것을 특징으로 하는 차간 거리 추정 방법.
5. The method of claim 4,
The step of estimating the distance is
if the similarity is less than a threshold, extracting a homography from the image;
converting the detected vehicle position coordinates into coordinates in a plane view using the homography;
converting into coordinates in a reference camera geometry by applying a fixed coordinate transformation determinant to coordinates in the plane view; and
and estimating the distance using coordinates in the reference camera geometry.
영상을 획득하는 카메라;
고정 차선각 및 고정 차선폭 비율을 저장하고 있는 메모리; 및
상기 영상에서 차량 및 차선을 검출하고, 검출된 차량의 위치좌표 및 검출된 차선 사이의 차선각과 차선폭 비율을 검출하여 상기 고정 차선각 및 상기 고정 차선폭 비율과 비교하여 유사도를 판단하고 상기 유사도에 근거하여 상기 영상 획득 시 수직방향으로 이동 변화가 발생했다고 판단되면, 상기 검출된 차량의 위치좌표를 보정하여 자차량으로부터 상기 검출된 차량까지의 거리를 추정하는 처리기를 포함하는 것을 특징으로 하는 차간 거리 추정 장치.
a camera for acquiring an image;
a memory storing a fixed lane angle and a fixed lane width ratio; and
A vehicle and a lane are detected from the image, the position coordinates of the detected vehicle and the ratio of the lane angle and the lane width between the detected lanes are detected, and the degree of similarity is determined by comparing the fixed lane angle and the fixed lane width ratio to the similarity. and a processor for estimating the distance from the own vehicle to the detected vehicle by correcting the position coordinates of the detected vehicle when it is determined that a movement change in the vertical direction has occurred when acquiring the image based on the estimation device.
제7항에 있어서,
상기 차량의 위치좌표는,
상기 영상 내에서 상기 검출된 차량의 바퀴가 노면과 접촉한 지점의 y좌표인 것을 특징으로 하는 차간 거리 추정 장치.
8. The method of claim 7,
The position coordinates of the vehicle are,
The inter-vehicle distance estimation apparatus, characterized in that the y-coordinate of a point where the detected wheel of the vehicle contacts the road surface in the image.
제7항에 있어서,
상기 차선폭 비율은,
실제 차선폭과 상기 차선폭 간의 비율인 것을 특징으로 하는 차간 거리 추정 장치.
8. The method of claim 7,
The lane width ratio is
The inter-vehicle distance estimating device, characterized in that it is a ratio between the actual lane width and the lane width.
제7항에 있어서,
상기 처리기는,
상기 차선각 및 차선폭 비율과 상기 고정 차선각 및 고정 차선폭 비율 간의 유사도를 연산하고 연산된 유사도가 임계치 이상인지를 확인하는 것을 특징으로 하는 차간 거리 추정 장치.
8. The method of claim 7,
The processor is
and calculating a similarity between the ratio of the lane angle and the lane width and the ratio of the fixed lane angle and the fixed lane width, and checking whether the calculated similarity is equal to or greater than a threshold value.
제10항에 있어서,
상기 처리기는,
상기 유사도가 임계치 이상이면 상기 검출된 차량의 위치좌표를 이용하여 거리를 추정하는 것을 특징으로 하는 차간 거리 추정 장치.
11. The method of claim 10,
The processor is
If the similarity is greater than or equal to a threshold, the inter-vehicle distance estimation apparatus according to claim 1, wherein the distance is estimated using the detected vehicle position coordinates.
제10항에 있어서,
상기 처리기는,
상기 유사도가 임계치 미만이면, 상기 영상으로부터 호모그래피를 추출하고, 상기 호모그래피를 이용하여 상기 검출된 차량의 위치좌표를 평면 시점에서의 좌표로 변환하고, 상기 평면 시점에서의 좌표에 고정 좌표변환 행렬식을 적용하여 기준 카메라 지오메트리에서의 좌표로 변환하고, 상기 기준 카메라 지오메트리에서의 좌표를 이용하여 거리를 추정하는 것을 특징으로 하는 차간 거리 추정 장치.
11. The method of claim 10,
The processor is
If the similarity is less than the threshold, a homography is extracted from the image, the detected vehicle position coordinates are converted to coordinates in a plane viewpoint using the homography, and coordinates are fixed to coordinates in the plane viewpoint. Converting to coordinates in the reference camera geometry by applying , and estimating the distance using the coordinates in the reference camera geometry.
KR1020160145244A 2016-11-02 2016-11-02 Apparatus and method for estimating inter-vehicle distance KR102371592B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160145244A KR102371592B1 (en) 2016-11-02 2016-11-02 Apparatus and method for estimating inter-vehicle distance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160145244A KR102371592B1 (en) 2016-11-02 2016-11-02 Apparatus and method for estimating inter-vehicle distance

Publications (2)

Publication Number Publication Date
KR20180048094A KR20180048094A (en) 2018-05-10
KR102371592B1 true KR102371592B1 (en) 2022-03-07

Family

ID=62184657

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160145244A KR102371592B1 (en) 2016-11-02 2016-11-02 Apparatus and method for estimating inter-vehicle distance

Country Status (1)

Country Link
KR (1) KR102371592B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200040374A (en) 2018-10-10 2020-04-20 삼성전자주식회사 Method and device to estimate distance
CN112150558B (en) * 2020-09-15 2024-04-12 阿波罗智联(北京)科技有限公司 Obstacle three-dimensional position acquisition method and device for road side computing equipment

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005041360A (en) * 2003-07-23 2005-02-17 Nissan Motor Co Ltd Driving operation assisting device for vehicle, and vehicle having it
KR100948886B1 (en) * 2009-06-25 2010-03-24 주식회사 이미지넥스트 Tolerance compensating apparatus and method for automatic vehicle-mounted camera
JP2010191661A (en) 2009-02-18 2010-09-02 Nissan Motor Co Ltd Traveling path recognition device, automobile, and traveling path recognition method
JP2011075437A (en) * 2009-09-30 2011-04-14 Denso It Laboratory Inc Device, method and program for displaying vehicle periphery
KR101454153B1 (en) 2013-09-30 2014-11-03 국민대학교산학협력단 Navigation system for unmanned ground vehicle by sensor fusion with virtual lane
JP2015205522A (en) 2014-04-17 2015-11-19 いすゞ自動車株式会社 Vehicle state estimation apparatus
JP2016517106A (en) 2013-04-01 2016-06-09 パク,ス−ミン Automobile navigation system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3284845B2 (en) * 1995-09-20 2002-05-20 三菱自動車工業株式会社 Obstacle recognition device
KR101463513B1 (en) 2013-05-10 2014-11-19 전자부품연구원 Method for Estimating Front Traveling Vehicle Distance and Apparatus using the same

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005041360A (en) * 2003-07-23 2005-02-17 Nissan Motor Co Ltd Driving operation assisting device for vehicle, and vehicle having it
JP2010191661A (en) 2009-02-18 2010-09-02 Nissan Motor Co Ltd Traveling path recognition device, automobile, and traveling path recognition method
KR100948886B1 (en) * 2009-06-25 2010-03-24 주식회사 이미지넥스트 Tolerance compensating apparatus and method for automatic vehicle-mounted camera
JP2011075437A (en) * 2009-09-30 2011-04-14 Denso It Laboratory Inc Device, method and program for displaying vehicle periphery
JP2016517106A (en) 2013-04-01 2016-06-09 パク,ス−ミン Automobile navigation system
KR101454153B1 (en) 2013-09-30 2014-11-03 국민대학교산학협력단 Navigation system for unmanned ground vehicle by sensor fusion with virtual lane
JP2015205522A (en) 2014-04-17 2015-11-19 いすゞ自動車株式会社 Vehicle state estimation apparatus

Also Published As

Publication number Publication date
KR20180048094A (en) 2018-05-10

Similar Documents

Publication Publication Date Title
JP5293815B2 (en) Image processing apparatus, image processing method, and image processing program
JP6670071B2 (en) Vehicle image recognition system and corresponding method
JP6760114B2 (en) Information processing equipment, data management equipment, data management systems, methods, and programs
JP6151150B2 (en) Object detection device and vehicle using the same
US8126210B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP5251800B2 (en) Object tracking device and program
US20160075280A1 (en) System for estimating lane and method thereof
KR101621370B1 (en) Method and Apparatus for detecting lane of road
KR102441075B1 (en) Apparatus and method for estmating position of vehicle base on road surface display
CN106183979A (en) A kind of method and apparatus vehicle reminded according to spacing
JP2017004176A (en) Road surface marking detection device and road surface marking detection method
WO2014132490A1 (en) Vehicle specifications measurement processing device, vehicle specifications measuring method, and recording medium
JP2007220013A (en) Device for detecting white line for vehicle
KR102371592B1 (en) Apparatus and method for estimating inter-vehicle distance
EP2926317B1 (en) System and method for detecting pedestrians using a single normal camera
JP6488226B2 (en) Runway parameter estimation apparatus and program
US9183748B2 (en) Apparatus for determining available parking space and method thereof
JP5097681B2 (en) Feature position recognition device
JP2008146154A (en) Vehicle type determination device
US20220221291A1 (en) Method and device for locating a vehicle
JP2016162130A (en) Device and method for detecting pedestrian crossing and computer for pedestrian crossing detection
EP3333828B1 (en) Step detection device and step detection method
JP6577595B2 (en) Vehicle external recognition device
US10783350B2 (en) Method and device for controlling a driver assistance system by using a stereo camera system including a first and a second camera
CN110570680A (en) Method and system for determining position of object using map information

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant