KR102371592B1 - Apparatus and method for estimating inter-vehicle distance - Google Patents
Apparatus and method for estimating inter-vehicle distance Download PDFInfo
- Publication number
- KR102371592B1 KR102371592B1 KR1020160145244A KR20160145244A KR102371592B1 KR 102371592 B1 KR102371592 B1 KR 102371592B1 KR 1020160145244 A KR1020160145244 A KR 1020160145244A KR 20160145244 A KR20160145244 A KR 20160145244A KR 102371592 B1 KR102371592 B1 KR 102371592B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- lane
- image
- detected
- distance
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000009466 transformation Effects 0.000 claims description 10
- 238000001514 detection method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 6
- 238000004590 computer program Methods 0.000 description 3
- 238000009795 derivation Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000037452 priming Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
- B60W30/16—Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/42—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/802—Longitudinal distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/10—Path keeping
- B60Y2300/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/14—Cruise control
- B60Y2300/16—Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
본 발명은 차간 거리 추정 장치 및 방법에 관한 것으로, 카메라를 통해 영상을 획득하고, 상기 영상에서 차량 및 차선을 검출하고, 상기 영상 내 검출된 차량의 위치좌표 및 상기 영상 내 검출된 차선의 차선각과 차선폭 비율을 검출하여 고정 차선각과 고정 차선폭 비율과 비교하여 유사도를 판단하고, 상기 유사도에 따라 상기 검출된 차량의 위치좌표를 보정하여 자차량으로부터 상기 검출된 차량까지의 거리를 추정한다.The present invention relates to an apparatus and method for estimating an inter-vehicle distance, acquiring an image through a camera, detecting a vehicle and a lane from the image, and determining the position coordinates of the vehicle detected in the image and the lane angle of the detected lane in the image The lane width ratio is detected and the similarity is determined by comparing the fixed lane angle and the fixed lane width ratio, and the distance from the own vehicle to the detected vehicle is estimated by correcting the position coordinates of the detected vehicle according to the similarity.
Description
본 발명은 노면 지오메트리(geometry) 또는 차량 진동에 의해 영상의 수직방향의 흔들림을 차선정보를 이용하여 보정하고 이를 통해 자차량으로부터 전방차량까지의 거리를 추정하는 차간 거리 추정 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for estimating an inter-vehicle distance for estimating a distance from a host vehicle to a vehicle in front through the use of lane information to correct shake in the vertical direction of an image due to road surface geometry or vehicle vibration.
일반적으로, 자율주행시스템은 레이더(radar)와 레이저(laser)와 같은 일정 범위 내 물체 인식이 가능한 센서를 주로 이용한다. 이때, 센서로부터 나오는 값 자체가 거리값이며 이를 이용하여 물체의 거리 및 속도 등을 계산하여 자차 거동을 결정한다. 그러나, 다양한 센서들의 적용은 제조단가를 증가시키는 문제점이 있다.In general, an autonomous driving system mainly uses a sensor capable of recognizing an object within a certain range, such as a radar and a laser. At this time, the value from the sensor itself is a distance value, and using this, the distance and speed of the object are calculated to determine the behavior of the vehicle. However, there is a problem in that the application of various sensors increases the manufacturing cost.
이에, 자율주행시스템에 카메라만을 이용하여 물체를 인식하여 인식한 물체와의 거리를 측정하는 알고리즘이 개발되고 있다. 기존의 영상 기반 거리 측정 기술에서는 카메라와 노면의 지오메트리(geometry) 정보를 이용하여 거리를 추정한다. 이때, 노면은 차량으로부터 평행하다는 전제를 바탕으로 노면과 카메라 사이의 관계식을 이용해 인식된 물체에 대한 거리를 구하게 된다. Accordingly, an algorithm for recognizing an object using only a camera in an autonomous driving system and measuring the distance to the recognized object is being developed. In the existing image-based distance measurement technology, the distance is estimated using the geometry information of the camera and the road surface. At this time, on the premise that the road surface is parallel to the vehicle, the distance to the recognized object is obtained using the relational expression between the road surface and the camera.
그러나, 실제 도로의 노면은 크랙(crack), 수직적인 굴곡 또는 방지턱 등으로 인해 이상적인 평면이 아니며, 차량은 자체적으로 진동이 발생하므로, 카메라를 통해 영상 획득 시 수직방향으로의 이동이 잦게 된다. 따라서, 기존의 노면과 차체가 평행하다는 전제가 성립하지 않으므로, 정밀하게 거리를 추정(측정)할 수 없다.However, the actual road surface is not an ideal plane due to cracks, vertical curves, or bumps, and the vehicle itself vibrates. Therefore, since the premise that the existing road surface and the vehicle body are parallel does not hold, it is impossible to accurately estimate (measure) the distance.
본 발명은 카메라를 통해 자차량의 전방영상을 획득하고, 획득한 영상으로부터 차선정보를 검출하여 검출한 차선정보에 근거하여 노면 지오메트리 및 차량 진동 등에 의한 영상 내 수직방향으로의 이동 변화를 연산하고 이를 고려하여 자차량으로부터 전방차량까지의 거리를 추정하는 차간 거리 추정 장치 및 방법을 제공하고자 한다.The present invention acquires a front image of the own vehicle through a camera, detects lane information from the acquired image, and calculates a change in movement in the vertical direction in an image due to road surface geometry and vehicle vibration, etc. based on the detected lane information, and An object of the present invention is to provide an inter-vehicle distance estimation apparatus and method for estimating the distance from the host vehicle to the vehicle in front.
상기한 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 차간 거리 추정 방법은 카메라를 통해 영상을 획득하는 단계, 상기 영상에서 차량 및 차선을 검출하는 단계, 상기 영상 내 검출된 차량의 위치좌표 및 상기 영상 내 검출된 차선의 차선각과 차선폭 비율을 검출하는 단계, 상기 차선각과 차선폭 비율을 고정 차선각과 고정 차선폭 비율과 비교하여 유사도를 판단하는 단계 및 상기 유사도에 따라 상기 검출된 차량의 위치좌표를 보정하여 자차량으로부터 상기 검출된 차량까지의 거리를 추정하는 단계를 포함하는 것을 특징으로 한다.In order to solve the above problems, a method for estimating an inter-vehicle distance according to an embodiment of the present invention includes: acquiring an image through a camera; detecting a vehicle and a lane from the image; and detecting a lane angle and a lane width ratio of the detected lane in the image, comparing the lane angle and lane width ratio with a fixed lane angle and a fixed lane width ratio to determine a similarity, and the detected vehicle according to the similarity and estimating a distance from the host vehicle to the detected vehicle by correcting the position coordinates.
상기 차량의 위치좌표는, 상기 영상 내에서 상기 검출된 차량의 바퀴가 노면과 접촉한 지점의 y좌표인 것을 특징으로 한다.The position coordinate of the vehicle is characterized in that it is a y-coordinate of a point in which the detected wheel of the vehicle contacts the road surface in the image.
상기 차선폭 비율은, 실제 차선폭과 상기 차선폭 간의 비율인 것을 특징으로 한다.The lane width ratio may be a ratio between an actual lane width and the lane width.
상기 유사도를 판단하는 단계는, 상기 차선각과 차선폭 비율 및 고정 차선각과 고정 차선폭 비율 간의 유사도를 연산하고 연산된 유사도가 임계치 이상인지를 확인하는 것을 특징으로 한다.The determining of the similarity may include calculating the similarity between the lane angle and the lane width ratio and the fixed lane angle and the fixed lane width ratio, and determining whether the calculated similarity is greater than or equal to a threshold value.
상기 거리를 추정하는 단계는, 상기 유사도가 임계치 이상이면 상기 검출된 차량의 위치좌표를 이용하여 거리를 추정하는 것을 특징으로 하는 차간 거리 추정 방법.The estimating of the distance may include estimating the distance using the detected vehicle location coordinates if the similarity is greater than or equal to a threshold.
상기 거리를 추정하는 단계는, 상기 유사도가 임계치 미만이면, 상기 영상으로부터 호모그래피를 추출하는 단계; 상기 호모그래피를 이용하여 상기 검출된 차량의 위치좌표를 평면 시점에서의 좌표로 변환하는 단계; 상기 평면 시점에서의 좌표에 고정 좌표변환 행렬식을 적용하여 기준 카메라 지오메트리에서의 좌표로 변환하는 단계; 및 상기 기준 카메라 지오메트리에서의 좌표를 이용하여 거리를 추정하는 단계를 포함하는 것을 특징으로 한다.The estimating of the distance may include: if the similarity is less than a threshold, extracting a homography from the image; converting the detected position coordinates of the vehicle into coordinates in a plane view using the homography; converting into coordinates in a reference camera geometry by applying a fixed coordinate transformation determinant to coordinates in the plane view; and estimating the distance using coordinates in the reference camera geometry.
한편, 본 발명의 일 실시예에 따른 차간 거리 추정 장치는 영상을 획득하는 카메라, 고정 차선각 및 고정 차선폭 비율을 저장하고 있는 메모리 및 상기 영상에서 차량 및 차선을 검출하고, 검출된 차량의 위치좌표 및 검출된 차선의 차선각과 차선폭 비율을 검출하여 상기 고정 차선각 및 상기 고정 차선폭 비율과 비교하여 유사도를 판단하고 상기 유사도에 따라 상기 검출된 차량의 위치좌표를 보정하여 자차량으로부터 상기 검출된 차량까지의 거리를 추정하는 처리기를 포함하는 것을 특징으로 한다.On the other hand, the apparatus for estimating the inter-vehicle distance according to an embodiment of the present invention detects a vehicle and a lane from a camera for acquiring an image, a memory storing a fixed lane angle and a fixed lane width ratio, and the image, and the position of the detected vehicle Detecting the coordinates and the ratio of the lane angle and the lane width of the detected lane, comparing the fixed lane angle and the fixed lane width ratio to determine the similarity, and correcting the position coordinates of the detected vehicle according to the similarity degree to detect the detection from the own vehicle It characterized in that it comprises a processor for estimating the distance to the vehicle.
상기 차량의 위치좌표는, 상기 영상 내에서 상기 검출된 차량의 바퀴가 노면과 접촉한 지점의 y좌표인 것을 특징으로 한다.The position coordinate of the vehicle is characterized in that it is a y-coordinate of a point where the wheel of the vehicle detected in the image is in contact with the road surface.
상기 차선폭 비율은, 실제 차선폭과 상기 차선폭 간의 비율인 것을 특징으로 한다.The lane width ratio may be a ratio between an actual lane width and the lane width.
상기 처리기는, 상기 차선각 및 차선폭 비율과 상기 고정 차선각 및 고정 차선폭 비율 간의 유사도를 연산하고 연산된 유사도가 임계치 이상인지를 확인하는 것을 특징으로 한다.The processor may calculate a similarity between the ratio of the lane angle and the lane width and the ratio of the fixed lane angle and the fixed lane width, and check whether the calculated similarity is equal to or greater than a threshold value.
상기 처리기는, 상기 유사도가 임계치 이상이면 상기 검출된 차량의 위치좌표를 이용하여 거리를 추정하는 것을 특징으로 한다.The processor may estimate the distance using the detected vehicle position coordinates if the similarity is greater than or equal to a threshold value.
상기 처리기는, 상기 유사도가 임계치 미만이면, 상기 영상으로부터 호모그래피를 추출하고, 상기 호모그래피를 이용하여 상기 검출된 차량의 위치좌표를 평면 시점에서의 좌표로 변환하고, 상기 평면 시점에서의 좌표에 고정 좌표변환 행렬식을 적용하여 기준 카메라 지오메트리에서의 좌표로 변환하고, 상기 기준 카메라 지오메트리에서의 좌표를 이용하여 거리를 추정하는 것을 특징으로 한다.If the degree of similarity is less than a threshold, the processor extracts a homography from the image, converts the detected position coordinates of the vehicle into coordinates in a plane viewpoint using the homography, and converts the coordinates in the plane viewpoint to the coordinates in the plane viewpoint. It is characterized in that it is converted into coordinates in a reference camera geometry by applying a fixed coordinate transformation determinant, and the distance is estimated using the coordinates in the reference camera geometry.
본 발명은 카메라를 통해 자차량의 전방영상을 획득하고, 획득한 영상으로부터 차선정보를 검출하여 그 차선정보에 근거하여 노면 지오메트리 및 차량 진동 등에 의한 영상 내 수직방향으로의 이동 변화를 연산하고 이를 고려하여 자차량으로부터 전방차량까지의 거리를 추정하므로, 카메라만을 이용하여 자차량으로부터 전방차량까지의 거리를 정밀하게 추정할 수 있다.The present invention acquires a front image of the own vehicle through a camera, detects lane information from the acquired image, calculates a change in movement in the vertical direction in the image due to road surface geometry and vehicle vibration, etc., based on the lane information, and considers this Therefore, since the distance from the own vehicle to the vehicle in front is estimated, the distance from the own vehicle to the vehicle in front can be accurately estimated using only the camera.
도 1은 본 발명의 일 실시예에 따른 차간 거리 추정 장치의 블록구성도.
도 2는 고정 좌표변화 행렬식을 설명하기 위한 도면.
도 3은 거리 추정 함수의 도출을 설명하기 위한 도면.
도 4는 차량의 위치좌표, 차선각 및 차선폭 비율 검출을 설명하기 위한 도면.
도 5는 차량의 위치좌표 보정을 설명하기 위한 도면.
도 6은 본 발명의 일 실시예에 따른 차간 거리 추정 방법을 도시한 흐름도.1 is a block diagram of an apparatus for estimating an inter-vehicle distance according to an embodiment of the present invention;
2 is a diagram for explaining a fixed coordinate change determinant;
3 is a diagram for explaining derivation of a distance estimation function;
4 is a view for explaining the detection of a vehicle position coordinates, a lane angle, and a lane width ratio;
5 is a view for explaining the position coordinate correction of the vehicle.
6 is a flowchart illustrating a method for estimating an inter-vehicle distance according to an embodiment of the present invention.
본 명세서에 기재된 "포함하다", "구성하다", "가지다" 등의 용어는 특별히 반대되는 기재가 없는 한 해당 구성요소가 내재될 수 있음을 의미하는 것이므로 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Terms such as "include", "comprise", "have" and the like described in this specification mean that the corresponding component may be embedded unless otherwise stated, so it does not exclude other components but other components It means that it can contain more elements.
또한, 본 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일", "하나" 및 "그" 등의 관사는 본 발명을 기술하는 문맥에 있어서 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.In addition, terms such as “…unit”, “…group”, and “module” described in this specification mean a unit that processes at least one function or operation, which may be implemented by hardware or software or a combination of hardware and software. can In addition, articles such as "a", "an" and "the" in the context of describing the present invention are meant to include both the singular and the plural unless otherwise indicated herein or otherwise clearly contradicted by the context. can be used
이하에서는 첨부된 도면들을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
본 발명은 노면 및 진동 등에 의해 카메라 지오메트리(geometry)가 변경되면 영상에서 검출된 물체의 거리를 정밀하게 추정(측정)할 수 없는 문제를 해결하기 위하여, 카메라를 통해 영상을 획득하고, 영상 내 차량 및 차선을 검출하여 검출한 차선정보를 이용하여 노면 지오메트리(geometry) 및 차량 진동 등에 의한 영상 내 수직변화를 연산하고, 연산된 수직변화를 고려하여 자차량으로부터 타차량까지의 거리를 추정하는 것입니다.The present invention obtains an image through a camera and the vehicle in the image in order to solve the problem that the distance of the object detected in the image cannot be accurately estimated (measured) when the camera geometry is changed due to the road surface and vibration, etc. And using the lane information detected by detecting the lane, calculates the vertical change in the image due to road surface geometry and vehicle vibration, etc., and estimates the distance from the own vehicle to another vehicle by considering the calculated vertical change. .
도 1은 본 발명의 일 실시예에 따른 차간 거리 추정 장치의 블록구성도이고, 도 2는 고정 좌표변화 행렬식을 설명하기 위한 도면이며, 도 3은 거리 추정 함수의 도출을 설명하기 위한 도면이고, 도 4는 차량의 위치좌표, 차선각 및 차선폭 비율 검출을 설명하기 위한 도면이며, 도 5는 차량의 위치좌표 보정을 설명하기 위한 도면이다.1 is a block diagram of an inter-vehicle distance estimation apparatus according to an embodiment of the present invention, FIG. 2 is a diagram for explaining a fixed coordinate change determinant, and FIG. 3 is a diagram for explaining derivation of a distance estimation function, 4 is a diagram for explaining the detection of a vehicle position coordinate, a lane angle, and a lane width ratio, and FIG. 5 is a diagram for explaining a vehicle position coordinate correction.
도 1에 도시된 바와 같이, 차간 거리 추정 장치는 카메라(110), 메모리(120) 및 처리기(130)를 포함한다.As shown in FIG. 1 , the apparatus for estimating the inter-vehicle distance includes a
카메라(110)는 차량에 설치되어 자차량의 전방영상을 실시간으로 획득한다. 이때, 카메라(110)는 원근 시점(perspective view)에서 영상을 획득한다. 카메라(110)는 획득한 영상을 처리기(130)로 전달한다. 본 실시예에서는 카메라(110)를 차량 내 전방에 설치하여 자차량의 전방영상만을 획득하는 것을 예로 들어 설명하고 있으나, 이에 한정되지 않고 카메라(110)를 차량의 전방, 후방 및 측방에 설치하여 자차량의 전방영상, 후방영상 및 측방영상을 획득하도록 구현할 수도 있다.The
카메라(110)는 CCD(charge coupled device) 영상센서(image sensor), CMOS(complementary metal oxide semi-conductor) 영상센서, CPD(charge priming device) 영상센서 및 CID(charge injection device) 영상센서 등과 같은 영상센서들 중 어느 하나의 영상센서로 구현될 수 있다.The
메모리(120)는 고정 좌표변환 행렬식(inverse homography, iH), 고정 차선폭 비율, 및 고정 차선각 등을 저장하고 있다. 메모리(120)는 처리기(130)의 동작을 위한 프로그램을 저장할 수 있고, 입력 및/또는 출력되는 데이터들을 임시로 저장할 수도 있다.The
고정 좌표 변환 행렬식은 다음과 같은 과정으로 사전에 미리 구한다. 먼저, 일반 도로(노면이 이상적 평면인 도로) 상의 중앙에 차량(V)이 위치할 때 카메라를 이용하여 원근(perspective view) 영상(Img1) 및 평면(top-view) 영상(Img2)을 획득한다. 여기서, 원근 영상(Img1)은 기준 카메라 지오메트리 상황에서 획득한 영상이다. 획득한 원근 영상(Img1) 및 평면 영상(Img2)에서 각각 차량(V)와 차선(L1, L2, L3, 및 L4)를 검출한다. 그리고, 원근 영상(Img1)에서 검출된 차선(L1 및 L2)과 y=y1 및 y=y2의 교차점(P1, P2, P3, P4)을 검출하고, 평면 영상(Img2)에서 검출된 차선(L3 및 L4)과 y=y1 및 y=y2의 교차점(P'1, P'2, P'3, P'4)을 검출한다. 원근 영상(Img1)의 교차점(P1, P2, P3, P4)과 평면 영상(Img2)의 교차점(P'1, P'2, P'3, P'4)의 관계를 호모그래피(homography) H로 표현할 수 있다. 즉, 원근 영상(Img1)을 평면 영상(Img2)으로 변환하는 관계식을 호모그래피 H로 구한다. 호모그래피 H는 3×3 행렬이다. 구해진 호모그래피 H의 역행렬(inverser)을 고정 좌표변환 행렬식(iH)을 구한다.The fixed coordinate transformation determinant is obtained in advance through the following process. First, a perspective view image Img1 and a top-view image Img2 are acquired using a camera when the vehicle V is positioned in the center of a general road (a road with an ideal road surface). . Here, the perspective image Img1 is an image acquired in a reference camera geometry situation. A vehicle V and lanes L1, L2, L3, and L4 are detected from the acquired perspective image Img1 and the plane image Img2, respectively. Then, the intersections (P 1 , P 2 , P 3 , P 4 ) of the lanes L1 and L2 detected in the perspective image Img1 and y=y1 and y=y2 are detected, and detected in the plane image Img2 The intersections (P' 1 , P' 2 , P' 3 , P' 4 ) of the traffic lanes L3 and L4 and y=y1 and y=y2 are detected. Homography the relationship between the intersection (P 1 , P 2 , P 3 , P 4 ) of the perspective image (Img1) and the intersection (P' 1 , P' 2 , P' 3 , P' 4 ) of the planar image (Img2) It can be expressed as (homography) H. That is, the relational expression for converting the perspective image Img1 into the planar image Img2 is obtained as homography H. Homography H is a 3×3 matrix. A fixed coordinate transformation determinant (iH) is obtained from the inverse of the obtained homography H.
고정 차선각은 원근 영상(Img1)에서 검출된 차선 사이의 각도(θ)이고, 고정 차선폭 비율(α)은 실제 차선폭(d)와 원근 영상(Img1) 내 차선폭(p) 사이의 비율이다. 차선폭 비율(α)을 연산하는 식은 [수학식 1]과 같이 나타낼 수 있다.The fixed lane angle is the angle θ between lanes detected in the perspective image Img1, and the fixed lane width ratio α is the ratio between the actual lane width d and the lane width p in the perspective image Img1. am. The equation for calculating the lane width ratio α can be expressed as [Equation 1].
또한, 메모리(120)는 거리 추정 함수(f)를 저장할 수 있다. 거리 추정 함수는 최소자승법에 기반하여 실제 거리별 y좌표(영상 내 차량 하단의 y축 위치)를 모델링한다(도 3의 그래프 참조). 이러한 모델링을 통해 [수학식 2]의 분모함수 기반의 거리 추정 함수를 도출한다.Also, the
여기서, x는 실제 거리이고, y는 영상 내 차량의 위치좌표이다.Here, x is the actual distance, and y is the location coordinates of the vehicle in the image.
메모리(120)는 플래시 메모리(flash memory), 하드디스크(hard disk), SD 카드(Secure Digital Card), 램(Random Access Memory, RAM), 롬(Read Only Memory, ROM), 웹 스토리지(web storage) 등의 저장매체 중 어느 하나 이상의 저장매체로 구현될 수 있다.
처리기(130)는 카메라(110)로부터 입력받은 영상(원근 영상)에서 차량과 차선을 검출한다. 이때, 처리기(130)는 학습 기반의 영상 내 차량 및 차선 검출 기술을 이용한다.The
처리기(130)는 영상 내 차량을 검출하면 검출한 차량의 위치좌표(차량의 바퀴와 노면이 접촉한 위치)를 추출(검출)한다. 다시 말해서, 처리기(130)는 영상 내 차량의 하단이 위치하는 y좌표를 검출한다. 여기서, y좌표는 영상 좌표계에서의 y축 값을 의미한다. 예컨대, 처리기(130)는 도 4에서와 같이 영상 내 전방차량(V)이 검출되면 검출된 차량의 하단이 위치하는 y축 값 yV를 검출한다. 여기서, 전방차량(V)는 자차량이 주행하는 차로의 전방에 위치하는 차량을 의미한다.When a vehicle in the image is detected, the
처리기(130)는 영상에서 검출된 차선 사이의 각(θ')을 검출한다. 예를 들어, 처리기(130)는 도 4와 같은 영상에서 검출된 차선 L5 및 L6가 이루는 각 θ'을 검출한다.The
처리기(130)는 영상에서 검출된 차선(L5 및 L6)을 이용하여 차선폭 비율(α')을 검출한다. 처리기(130)는 실제 차선폭(d)은 고정 차선폭 비율을 산출할 때 사용한 실제 차선폭과 동일하다고 가정하고 영상 내 차선폭(p)를 구한다(도 4 참조). 처리기(130)는 [수학식 2]를 이용하여 실제 차선폭(d)과 구한 차선폭(p)의 비율을 연산한다.The
처리기(130)는 입력받은 영상으로부터 차선각과 차선폭 비율을 검출하면, 검출한 차선각과 차선폭 비율을 메모리(120)에 저장된 고정 차선각과 고정 차선폭 비율와 비교하여 유사도를 판단한다.When the
유사도μ는 [수학식 3]을 이용하여 연산한다. The similarity μ is calculated using [Equation 3].
여기서, ρ는 차선각 게인(gain) 이고, σ는 차선폭비율 게인(gain) 이다.Here, ρ is a lane angle gain, and σ is a lane width ratio gain.
처리기(130)는 유사도가 임계치(예: 0.7) 이상이면 영상 내 차량의 하단 위치 좌표(yV)를 이용하여 자차량으로부터 전방차량까지의 거리 f(yV)를 추정한다.If the similarity is greater than or equal to a threshold (eg, 0.7), the
한편, 처리기(130)는 유사도가 임계치 미만이면 영상의 수직방향으로 변화가 크게 발생했다고 판단하여 카메라(110)로부터 입력 받은 영상에서 호모그래피 H'을 추출한다. 예컨대, 처리기(130)는 노면에 의해 카메라 지오메트리가 변경되면 카메라(110)를 통해 획득한 영상으로부터 호모그래피 H'를 추출한다.On the other hand, if the similarity is less than the threshold, the
처리기(130)는 추출한 호모그래피 H'을 이용하여 차량의 위치좌표 y를 평면 시점에서의 좌표 y'로 변환한다. 즉, 처리기(130)는 도 5에 도시된 바와 같이, 차량의 위치좌표 y에 호모그래피 H'을 곱하여 평면 시점에서의 차량의 위치좌표 y'을 연산한다. 처리기(130)는 고정 좌표변환 행렬식(iH)을 이용하여 변환된 좌표 y'를 기준 카메라 지오메트리에서의 y"을 구한다. 도 5에 도시된 바와 같이, 처리기(130)는 변환된 좌표 y'에 고정 좌표변환 행렬식(iH)을 곱하여 보정된 차량의 위치좌표 y"을 구한다.The
도 6은 본 발명의 일 실시예에 따른 차간 거리 추정 방법을 도시한 흐름도이다.6 is a flowchart illustrating a method for estimating an inter-vehicle distance according to an embodiment of the present invention.
차간 거리 추정 장치의 처리기(130)는 카메라(110)로부터 영상을 입력 받는다(S110). 카메라(110)는 자차량의 전방영상을 획득하여 처리기(130)로 전달한다. 여기서, 전방영상은 원근 시점에서 획득한 영상이다.The
처리기(130)는 입력받은 영상에서 차량 및 차선을 검출한다(S120). 처리기(130)는 학습 기반 차량 검출 알고리즘을 이용하여 영상 내 차량을 검출한다. 또한, 처리기(130)는 학습 기반 차선 검출 알고리즘을 이용하여 영상 내 차선을 검출한다.The
처리기(130)는 검출한 차량의 위치좌표 및 검출한 차선의 차선각 및 차선폭 비율을 추출(연산)한다(S130). 차량의 위치좌표는 영상 내 차량의 하단이 위치하는 y축의 값(y좌표)이다. 차선각은 검출된 두 차선(자차량이 주행하고 있는 차로의 양 차선)이 이루는 각이고, 차선폭 비율은 실제 차선폭과 영상 내 차선폭의 비율이다.The
처리기(130)는 추출한 차선각과 차선폭 비율을 메모리(120)에 저장된 고정 차선각과 고정 차선폭 비율과 비교하여 유사성을 판단한다(S140). 다시 말해서, 처리기(130)는 추출한 차선각 및 차선폭 비율과 고정 차선각 및 고정 차선폭 비율을 이용하여 유사성을 연산하고, 연산한 유사성이 임계치 이상인지를 확인한다.The
처리기(130)는 연산한 유사성이 임계치 이상이면 영상에서 검출한 차량의 위치좌표(y)를 이용하여 자차량으로부터 검출한 차량까지의 거리(d')를 추정한다(S150). 즉, 처리기(130)는 거리 추정 함수 f에 영상에서 검출한 차량의 위치좌표(y)를 적용하여 거리(d')를 추정한다.If the calculated similarity is equal to or greater than the threshold, the
S140에서, 처리기(130)는 유사성이 임계치 미만이면, 영상으로부터 호모그래피 H'를 추출한다(S170).In S140, if the similarity is less than the threshold, the
처리기(130)는 추출한 호모그래피(H') 및 고정 좌표변환 행렬식(iH)를 이용하여 영상 내 차량의 위치좌표(y)를 보정한다(S180). 처리기(130)는 영상 내 차량의 위치좌표(y)에 추출한 호모그래피(H')을 곱하여 영상 내 차량의 위치좌표(y)를 평면 시점에서의 차량의 위치좌표(y')로 변환한다. 처리기(130)는 평면 시점에서의 차량의 위치좌표(y')에 고정 좌표변환 행렬식(iH)를 적용하여 기준 카메라 지오메트리 상황에서의 차량의 위치좌표(y")를 구한다. 다시 말해서, 처리기(130)는 영상 내 차량의 위치좌표를 이상적 평면인 노면 상에 차량이 위치하는 경우 원근 시점에서의 영상 내 차량의 위치좌표로 변환하는 것이다. 따라서, 처리기(130)는 카메라(110)로부터 입력받은 영상에 포함된 노면 형상 및 진동에 의한 수직방향의 흔들림을 보정한다.The
처리기(130)는 보정된 차량의 위치좌표(y")를 이용하여 자차량으로부터 검출한 차량까지의 거리(d')을 추정한다(S190).The
본 발명의 일 실시예에 따르면, 본 발명의 차간 거리 추정 기술은 영상 기반 자율주행 시 영상에서 검출된 물체의 정밀한 거리를 측정할 수 있다.According to an embodiment of the present invention, the inter-vehicle distance estimation technology of the present invention can measure a precise distance of an object detected in an image during image-based autonomous driving.
또한, 본 발명의 차간 거리 추정 기술은 차량 검출 알고리즘 및 보행자 검출 알고리즘 등에 적용하여 자차량으로부터 검출된 타차량까지의 거리 및/또는 검출된 보행자까지의 거리를 추정하는데 사용될 수 있다.In addition, the inter-vehicle distance estimation technique of the present invention may be applied to a vehicle detection algorithm and a pedestrian detection algorithm to estimate the distance from the own vehicle to another vehicle detected and/or the detected distance to the pedestrian.
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다.In the above, even though all the components constituting the embodiment of the present invention are described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all the components may operate by selectively combining one or more. In addition, although all the components may be implemented as one independent hardware, some or all of the components are selectively combined to perform some or all of the functions of the combined hardware in one or a plurality of hardware program modules It may be implemented as a computer program having Codes and code segments constituting the computer program can be easily inferred by those skilled in the art of the present invention. Such a computer program is stored in a computer readable storage medium (Computer Readable Media), read and executed by the computer, thereby implementing the embodiment of the present invention.
110: 카메라
120: 메모리
130: 처리기110: camera
120: memory
130: handler
Claims (12)
상기 영상에서 차량 및 차선을 검출하는 단계;
상기 영상 내 검출된 차량의 위치좌표 및 상기 영상 내 검출된 차선 사이의 차선각과 차선폭 비율을 검출하는 단계;
상기 차선각과 차선폭 비율을 고정 차선각과 고정 차선폭 비율과 비교하여 유사도를 판단하는 단계; 및
상기 유사도에 근거하여 상기 영상 획득 시 수직방향으로 이동 변화가 발생했다고 판단되면, 상기 검출된 차량의 위치좌표를 보정하여 자차량으로부터 상기 검출된 차량까지의 거리를 추정하는 단계를 포함하는 것을 특징으로 하는 차간 거리 추정 방법.
acquiring an image through a camera;
detecting a vehicle and a lane from the image;
detecting a ratio of a lane angle and a lane width between a position coordinate of a vehicle detected in the image and a lane detected in the image;
determining a similarity by comparing the ratio of the lane angle and the lane width with the ratio of the fixed lane angle and the fixed lane width; and
and estimating a distance from the own vehicle to the detected vehicle by correcting the position coordinates of the detected vehicle when it is determined that a movement change in the vertical direction occurs when the image is acquired based on the similarity A method of estimating the inter-vehicle distance.
상기 차량의 위치좌표는,
상기 영상 내에서 상기 검출된 차량의 바퀴가 노면과 접촉한 지점의 y좌표인 것을 특징으로 하는 차간 거리 추정 방법.
According to claim 1,
The position coordinates of the vehicle are,
The method for estimating the inter-vehicle distance, characterized in that the y-coordinate of a point where the detected wheel of the vehicle contacts the road surface in the image.
상기 차선폭 비율은,
실제 차선폭과 상기 차선폭 간의 비율인 것을 특징으로 하는 차간 거리 추정 방법.
According to claim 1,
The lane width ratio is
An inter-vehicle distance estimation method, characterized in that it is a ratio between the actual lane width and the lane width.
상기 유사도를 판단하는 단계는,
상기 차선각과 차선폭 비율 및 고정 차선각과 고정 차선폭 비율 간의 유사도를 연산하고 연산된 유사도가 임계치 이상인지를 확인하는 것을 특징으로 하는 차간 거리 추정 방법.
According to claim 1,
The step of determining the similarity is:
The method for estimating an inter-vehicle distance, comprising calculating a similarity between the lane angle and the lane width ratio and the fixed lane angle and the fixed lane width ratio, and checking whether the calculated similarity is equal to or greater than a threshold value.
상기 거리를 추정하는 단계는,
상기 유사도가 임계치 이상이면 상기 검출된 차량의 위치좌표를 이용하여 거리를 추정하는 것을 특징으로 하는 차간 거리 추정 방법.
5. The method of claim 4,
The step of estimating the distance is
If the similarity is greater than or equal to a threshold value, the inter-vehicle distance estimation method of claim 1, wherein the distance is estimated using the detected vehicle location coordinates.
상기 거리를 추정하는 단계는,
상기 유사도가 임계치 미만이면, 상기 영상으로부터 호모그래피를 추출하는 단계;
상기 호모그래피를 이용하여 상기 검출된 차량의 위치좌표를 평면 시점에서의 좌표로 변환하는 단계;
상기 평면 시점에서의 좌표에 고정 좌표변환 행렬식을 적용하여 기준 카메라 지오메트리에서의 좌표로 변환하는 단계; 및
상기 기준 카메라 지오메트리에서의 좌표를 이용하여 거리를 추정하는 단계를 포함하는 것을 특징으로 하는 차간 거리 추정 방법.
5. The method of claim 4,
The step of estimating the distance is
if the similarity is less than a threshold, extracting a homography from the image;
converting the detected vehicle position coordinates into coordinates in a plane view using the homography;
converting into coordinates in a reference camera geometry by applying a fixed coordinate transformation determinant to coordinates in the plane view; and
and estimating the distance using coordinates in the reference camera geometry.
고정 차선각 및 고정 차선폭 비율을 저장하고 있는 메모리; 및
상기 영상에서 차량 및 차선을 검출하고, 검출된 차량의 위치좌표 및 검출된 차선 사이의 차선각과 차선폭 비율을 검출하여 상기 고정 차선각 및 상기 고정 차선폭 비율과 비교하여 유사도를 판단하고 상기 유사도에 근거하여 상기 영상 획득 시 수직방향으로 이동 변화가 발생했다고 판단되면, 상기 검출된 차량의 위치좌표를 보정하여 자차량으로부터 상기 검출된 차량까지의 거리를 추정하는 처리기를 포함하는 것을 특징으로 하는 차간 거리 추정 장치.
a camera for acquiring an image;
a memory storing a fixed lane angle and a fixed lane width ratio; and
A vehicle and a lane are detected from the image, the position coordinates of the detected vehicle and the ratio of the lane angle and the lane width between the detected lanes are detected, and the degree of similarity is determined by comparing the fixed lane angle and the fixed lane width ratio to the similarity. and a processor for estimating the distance from the own vehicle to the detected vehicle by correcting the position coordinates of the detected vehicle when it is determined that a movement change in the vertical direction has occurred when acquiring the image based on the estimation device.
상기 차량의 위치좌표는,
상기 영상 내에서 상기 검출된 차량의 바퀴가 노면과 접촉한 지점의 y좌표인 것을 특징으로 하는 차간 거리 추정 장치.
8. The method of claim 7,
The position coordinates of the vehicle are,
The inter-vehicle distance estimation apparatus, characterized in that the y-coordinate of a point where the detected wheel of the vehicle contacts the road surface in the image.
상기 차선폭 비율은,
실제 차선폭과 상기 차선폭 간의 비율인 것을 특징으로 하는 차간 거리 추정 장치.
8. The method of claim 7,
The lane width ratio is
The inter-vehicle distance estimating device, characterized in that it is a ratio between the actual lane width and the lane width.
상기 처리기는,
상기 차선각 및 차선폭 비율과 상기 고정 차선각 및 고정 차선폭 비율 간의 유사도를 연산하고 연산된 유사도가 임계치 이상인지를 확인하는 것을 특징으로 하는 차간 거리 추정 장치.
8. The method of claim 7,
The processor is
and calculating a similarity between the ratio of the lane angle and the lane width and the ratio of the fixed lane angle and the fixed lane width, and checking whether the calculated similarity is equal to or greater than a threshold value.
상기 처리기는,
상기 유사도가 임계치 이상이면 상기 검출된 차량의 위치좌표를 이용하여 거리를 추정하는 것을 특징으로 하는 차간 거리 추정 장치.
11. The method of claim 10,
The processor is
If the similarity is greater than or equal to a threshold, the inter-vehicle distance estimation apparatus according to claim 1, wherein the distance is estimated using the detected vehicle position coordinates.
상기 처리기는,
상기 유사도가 임계치 미만이면, 상기 영상으로부터 호모그래피를 추출하고, 상기 호모그래피를 이용하여 상기 검출된 차량의 위치좌표를 평면 시점에서의 좌표로 변환하고, 상기 평면 시점에서의 좌표에 고정 좌표변환 행렬식을 적용하여 기준 카메라 지오메트리에서의 좌표로 변환하고, 상기 기준 카메라 지오메트리에서의 좌표를 이용하여 거리를 추정하는 것을 특징으로 하는 차간 거리 추정 장치.11. The method of claim 10,
The processor is
If the similarity is less than the threshold, a homography is extracted from the image, the detected vehicle position coordinates are converted to coordinates in a plane viewpoint using the homography, and coordinates are fixed to coordinates in the plane viewpoint. Converting to coordinates in the reference camera geometry by applying , and estimating the distance using the coordinates in the reference camera geometry.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160145244A KR102371592B1 (en) | 2016-11-02 | 2016-11-02 | Apparatus and method for estimating inter-vehicle distance |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160145244A KR102371592B1 (en) | 2016-11-02 | 2016-11-02 | Apparatus and method for estimating inter-vehicle distance |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180048094A KR20180048094A (en) | 2018-05-10 |
KR102371592B1 true KR102371592B1 (en) | 2022-03-07 |
Family
ID=62184657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160145244A KR102371592B1 (en) | 2016-11-02 | 2016-11-02 | Apparatus and method for estimating inter-vehicle distance |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102371592B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200040374A (en) | 2018-10-10 | 2020-04-20 | 삼성전자주식회사 | Method and device to estimate distance |
CN112150558B (en) * | 2020-09-15 | 2024-04-12 | 阿波罗智联(北京)科技有限公司 | Obstacle three-dimensional position acquisition method and device for road side computing equipment |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005041360A (en) * | 2003-07-23 | 2005-02-17 | Nissan Motor Co Ltd | Driving operation assisting device for vehicle, and vehicle having it |
KR100948886B1 (en) * | 2009-06-25 | 2010-03-24 | 주식회사 이미지넥스트 | Tolerance compensating apparatus and method for automatic vehicle-mounted camera |
JP2010191661A (en) | 2009-02-18 | 2010-09-02 | Nissan Motor Co Ltd | Traveling path recognition device, automobile, and traveling path recognition method |
JP2011075437A (en) * | 2009-09-30 | 2011-04-14 | Denso It Laboratory Inc | Device, method and program for displaying vehicle periphery |
KR101454153B1 (en) | 2013-09-30 | 2014-11-03 | 국민대학교산학협력단 | Navigation system for unmanned ground vehicle by sensor fusion with virtual lane |
JP2015205522A (en) | 2014-04-17 | 2015-11-19 | いすゞ自動車株式会社 | Vehicle state estimation apparatus |
JP2016517106A (en) | 2013-04-01 | 2016-06-09 | パク,ス−ミン | Automobile navigation system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3284845B2 (en) * | 1995-09-20 | 2002-05-20 | 三菱自動車工業株式会社 | Obstacle recognition device |
KR101463513B1 (en) | 2013-05-10 | 2014-11-19 | 전자부품연구원 | Method for Estimating Front Traveling Vehicle Distance and Apparatus using the same |
-
2016
- 2016-11-02 KR KR1020160145244A patent/KR102371592B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005041360A (en) * | 2003-07-23 | 2005-02-17 | Nissan Motor Co Ltd | Driving operation assisting device for vehicle, and vehicle having it |
JP2010191661A (en) | 2009-02-18 | 2010-09-02 | Nissan Motor Co Ltd | Traveling path recognition device, automobile, and traveling path recognition method |
KR100948886B1 (en) * | 2009-06-25 | 2010-03-24 | 주식회사 이미지넥스트 | Tolerance compensating apparatus and method for automatic vehicle-mounted camera |
JP2011075437A (en) * | 2009-09-30 | 2011-04-14 | Denso It Laboratory Inc | Device, method and program for displaying vehicle periphery |
JP2016517106A (en) | 2013-04-01 | 2016-06-09 | パク,ス−ミン | Automobile navigation system |
KR101454153B1 (en) | 2013-09-30 | 2014-11-03 | 국민대학교산학협력단 | Navigation system for unmanned ground vehicle by sensor fusion with virtual lane |
JP2015205522A (en) | 2014-04-17 | 2015-11-19 | いすゞ自動車株式会社 | Vehicle state estimation apparatus |
Also Published As
Publication number | Publication date |
---|---|
KR20180048094A (en) | 2018-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5293815B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6670071B2 (en) | Vehicle image recognition system and corresponding method | |
JP6760114B2 (en) | Information processing equipment, data management equipment, data management systems, methods, and programs | |
JP6151150B2 (en) | Object detection device and vehicle using the same | |
US8126210B2 (en) | Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP5251800B2 (en) | Object tracking device and program | |
US20160075280A1 (en) | System for estimating lane and method thereof | |
KR101621370B1 (en) | Method and Apparatus for detecting lane of road | |
KR102441075B1 (en) | Apparatus and method for estmating position of vehicle base on road surface display | |
CN106183979A (en) | A kind of method and apparatus vehicle reminded according to spacing | |
JP2017004176A (en) | Road surface marking detection device and road surface marking detection method | |
WO2014132490A1 (en) | Vehicle specifications measurement processing device, vehicle specifications measuring method, and recording medium | |
JP2007220013A (en) | Device for detecting white line for vehicle | |
KR102371592B1 (en) | Apparatus and method for estimating inter-vehicle distance | |
EP2926317B1 (en) | System and method for detecting pedestrians using a single normal camera | |
JP6488226B2 (en) | Runway parameter estimation apparatus and program | |
US9183748B2 (en) | Apparatus for determining available parking space and method thereof | |
JP5097681B2 (en) | Feature position recognition device | |
JP2008146154A (en) | Vehicle type determination device | |
US20220221291A1 (en) | Method and device for locating a vehicle | |
JP2016162130A (en) | Device and method for detecting pedestrian crossing and computer for pedestrian crossing detection | |
EP3333828B1 (en) | Step detection device and step detection method | |
JP6577595B2 (en) | Vehicle external recognition device | |
US10783350B2 (en) | Method and device for controlling a driver assistance system by using a stereo camera system including a first and a second camera | |
CN110570680A (en) | Method and system for determining position of object using map information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |