KR101894731B1 - System and method for vehicle collision avoidance - Google Patents

System and method for vehicle collision avoidance Download PDF

Info

Publication number
KR101894731B1
KR101894731B1 KR1020160159018A KR20160159018A KR101894731B1 KR 101894731 B1 KR101894731 B1 KR 101894731B1 KR 1020160159018 A KR1020160159018 A KR 1020160159018A KR 20160159018 A KR20160159018 A KR 20160159018A KR 101894731 B1 KR101894731 B1 KR 101894731B1
Authority
KR
South Korea
Prior art keywords
image
value
vehicle
parallax
ground
Prior art date
Application number
KR1020160159018A
Other languages
Korean (ko)
Other versions
KR20180060024A (en
Inventor
정승원
박지열
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020160159018A priority Critical patent/KR101894731B1/en
Publication of KR20180060024A publication Critical patent/KR20180060024A/en
Application granted granted Critical
Publication of KR101894731B1 publication Critical patent/KR101894731B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

충돌방지 시스템 및 그 방법이 개시된다.
본 발명의 실시예에 따른 충돌방지 시스템은 차량에 구비되어 스테레오 영상을 촬영하는 카메라부; 스테레오 영상에서 지면의 시차(disparity)값을 나타내는 그라운드맵(ground map)을 생성하는 그라운드맵 생성부; 그라운드맵의 시차값에 따라 매칭되는 제1 영상의 픽셀과 제2 영상의 픽셀간의 차이값을 산출하여 강조영상을 생성하는 강조영상 생성부; 및 강조영상을 이용하여 지면에 존재하는 객체가 차량에 접근시, 차량에 구비된 알람을 활성화시키는 제어부를 포함할 수 있다.
A collision avoidance system and method are disclosed.
According to an embodiment of the present invention, there is provided an anti-collision system comprising: a camera unit provided in a vehicle for capturing a stereo image; A ground map generation unit for generating a ground map indicating a disparity value of a ground in a stereo image; A weighted image generating unit for generating a weighted image by calculating a difference value between a pixel of the first image and a pixel of the second image matched according to the parallax value of the ground map; And a control unit for activating an alarm provided in the vehicle when an object existing on the ground approaches the vehicle by using the highlighted image.

Description

차량의 충돌방지시스템 및 그 방법{SYSTEM AND METHOD FOR VEHICLE COLLISION AVOIDANCE} [0001] SYSTEM AND METHOD FOR VEHICLE COLLISION AVOIDANCE [0002]

본 발명은 충돌방지시스템에 관한 것으로 보다 상세하게는, 스테레오 카메라를 이용한 차량의 충돌방지시스템 및 그 방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a collision avoidance system, and more particularly, to a collision avoidance system and method of a vehicle using a stereo camera.

3차원 영상 획득을 위해서는 3차원 장면의 거리정보를 표현하는 깊이 지도를 획득해야한다. 깊이정보를 이용하면 실제로 획득하지 못한 시점의 영상을 깊이 영상 기반 렌더링(Depth Image Based Rendering)을 통해서 합성할 수 있다 In order to acquire three-dimensional images, depth maps representing distance information of three-dimensional scenes should be acquired. Using depth information, images at the point in time that are not actually acquired can be synthesized through Depth Image Based Rendering

깊이 정보는 능동적 깊이 센서 방식(active depth sensors), 수동적 깊이 센서 방식(passive depth sensors)으로 획득할 수 있다. Depth information can be obtained with active depth sensors and passive depth sensors.

능동형 센서 방식은 물리적 센서 장치를 이용하여 깊이 정보를 직접 획득하는 반면에, 수동적 센서 방식은 두 대 이상의 카메라로 얻은 영상으로부터 깊이 정보를 계산해서 획득한다 The active sensor method acquires the depth information directly using the physical sensor device, whereas the passive sensor method acquires and acquires the depth information from the image obtained with two or more cameras

수동형 센서 방식의 하나인 스테레오 매칭(stereo matching)은 기본적으로 좌/우 영상에 존재하는 시차(disparity)를 계산하는 기술로서, 두 영상의 에피폴라 라인(epipolar line)선 상에서 픽셀들의 대응점을 구하는 방식으로 수행된다. Stereo matching, which is one of the passive sensor methods, is basically a technique for calculating the disparity existing in left / right images. It is a method of finding correspondence points of pixels on an epipolar line of two images .

그러므로 일반적으로 픽셀 단위로 시차가 계산이 되며, 픽셀 단위의 시차 값으로 구성된 영상을 시차 맵 (disparity map) 또는 깊이 맵 (depth map)으로 정의할 수 있다. Therefore, in general, parallax is calculated on a pixel-by-pixel basis, and an image composed of parallax values on a pixel-by-pixel basis can be defined as a disparity map or a depth map.

스테레오 매칭에서 계산되는 시차는 가까이 있는 객체에 크고 멀리 있는 객체에 작게 계산된다. The parallax calculated in stereo matching is small for objects close to and large for objects far away.

스테레오 카메라는 다양한 디지털 카메라 및 스마트폰에 장착되어 출시되었다. Stereo cameras are available in a variety of digital cameras and smartphones.

스테레오 매칭을 통하여 추출한 시차 맵은 영상 포커싱 조정 (image refocusing) 이나 3차원 영상 복원 (3D image reconstruction)과 같은 영역에 활발하게 활용되고 있다. 한편 차량에서도 영상 센서를 이용하여 컴퓨터 비전 기술을 적용하기 위한 다양한 시도가 있어 왔다. The parallax map extracted through stereo matching is actively used in areas such as image refocusing and 3D image reconstruction. On the other hand, various attempts have been made to apply computer vision technology using image sensors in vehicles.

특히 라이다(lidar)센서를 사용하여 장면의 깊이를 추출하고 이를 토대로 차량 충돌방지시스템을 구축하는 기술이 대표적이다. Especially, the technique of extracting scene depth using lidar sensor and constructing vehicle collision prevention system based on this is typical.

라이다 센서와 스테레오 카메라를 같이 사용한 시스템 또한 많이 연구되어 왔다.Much research has been done on systems that use both Raidasensor and stereo cameras.

한국특허공개 10-2016-0116432 (2016.10.10 공개)Korean Patent Publication No. 10-2016-0116432 (published October 10, 2016)

본 발명은 스테레오 영상을 이용하여 차량의 충돌을 방지하는 시스템 및 그 방법을 제공하고자 한다. The present invention provides a system and method for preventing collision of a vehicle using a stereo image.

또한, 고가인 라이다 센서를 스테레오 카메라로 대체하여, 저비용으로 차량의 충돌을 방지하는 시스템 및 그 방법을 제공하고자 한다.It is also intended to provide a system and method for avoiding collision of a vehicle at low cost by replacing the expensive Lidar sensor with a stereo camera.

본 발명의 일 측면에 따르면, 차량에 구비되어 스테레오 영상을 촬영하는 카메라부; 상기 스테레오 영상에서 지면의 시차(disparity)값을 나타내는 그라운드맵(ground map)을 생성하는 그라운드맵 생성부; 상기 그라운드맵의 시차값에 따라 매칭되는 제1 영상의 픽셀과 제2 영상의 픽셀간의 차이값을 산출하여 강조영상을 생성하는 강조영상 생성부; 및 상기 강조영상을 이용하여 상기 지면에 존재하는 객체가 상기 차량에 접근시, 상기 차량에 구비된 알람을 활성화시키는 제어부를 포함하는 충돌방지시스템이 제공될 수 있다. According to an aspect of the present invention, there is provided an image processing apparatus including a camera unit for photographing a stereo image provided in a vehicle; A ground map generating unit for generating a ground map representing a disparity value of the ground in the stereo image; A weighted image generating unit for generating a weighted image by calculating a difference value between a pixel of the first image and a pixel of the second image matched according to the parallax value of the ground map; And a control unit for activating an alarm provided in the vehicle when an object existing on the ground using the emphasis image approaches the vehicle.

또한, 상기 그라운드맵 생성부는 상기 스테레오 영상에서 상기 차량의 진행방향에서 지면이 존재할 가능성이 높은 영역으로 미리 지정된 관심영역내에 포함된 영상만을 이용하여 그라운드맵을 생성할 수 있다. Also, the ground map generator may generate the ground map using only the image included in the interest area, which is previously designated as the area where the ground is likely to exist in the moving direction of the vehicle in the stereo image.

여기서, 상기 관심영역은 상기 스테레오 영상의 영상 중앙 하단부일 수 있다. Here, the region of interest may be the lower part of the center of the image of the stereo image.

여기서, 상기 그라운드맵은 스캔라인마다 대표시차값을 가질 수 있다. Here, the ground map may have a representative parallax value for each scan line.

또한, 상기 그라운드맵 생성부는 상기 스테레오 영상내에서, 하단 스캔라인의 대표시차값을 산출후, 상단 스캔라인의 대표시차값을 산출하되, 하단 스캔라인의 대표시차값보다 작거나 같은 범위내에서 상단 스캔라인의 시차를 탐색할 수 있다. Also, the ground map generator calculates a representative parallax value of the upper scan line, calculates a representative parallax value of the upper scan line in the stereo image, and calculates a representative parallax value of the upper scan line, The time difference of the scan line can be searched.

또한, 상기 강조영상 생성부는, 상기 차이값이 지정된 차이임계값을 초과하는 경우 1을, 이하인 경우는 0을 할당하여 상기 강조영상을 이진 영상으로 생성할 수 있다. In addition, the emphasized image generating unit may generate the emphasized image as a binary image by assigning 1 when the difference value exceeds the specified difference threshold value or 0 when the difference value is less than the specified difference threshold value.

또한, 상기 제어부는 상기 강조영상에서 값이 1인 픽셀의 개수를 Y축 방향으로 누적하여 히스토그램을 산출하고, 히스토그램의 피크(peak)값으로 지면상에 존재하는 객체를 감지할 수 있다. Also, the controller may calculate the histogram by accumulating the number of pixels having a value of 1 in the Y-axis direction in the emphasized image, and may detect an object existing on the ground as a peak value of the histogram.

또한, 상기 제어부는 상기 히스토그램의 피크값을 이용하여 상기 객체의 X축 방향 위치와, 상기 객체의 이동방향을 추정할 수 있다. Also, the controller may estimate a position of the object in the X-axis direction and a moving direction of the object using the peak value of the histogram.

또한, 상기 제어부는, 상기 객체의 이동방향의 상기 X축의 중심방향으로 이동하는 경우 상기 차량에 구비된 알람을 활성화시킬 수 있다. In addition, the controller may activate an alarm provided in the vehicle when moving in the center direction of the X-axis in the moving direction of the object.

또한, 상기 제어부는, 상기 강조영상에서 픽셀 값이 1이고 X축 좌표가 상기 피크값에서 지정된 범위내에 있는 픽셀에 대하여 스테레오 매칭(stereo matching)을 수행하되, 미리 지정된 위험 시차 범위내에서 매칭이 되는 픽셀의 개수가 위험임계값을 초과하는 경우, 상기 차량의 알람을 활성화시킬 수 있다. Also, the controller may perform stereo matching on pixels in the emphasized image having a pixel value of 1 and an X-axis coordinate within a range specified by the peak value, wherein the stereo matching is performed within a predetermined dangerous parallax range If the number of pixels exceeds the danger threshold, the alarm of the vehicle can be activated.

여기서, 상기 위험 시차 범위는 상기 차량의 주행속도가 클 수록 상대적으로 큰 시차범위를 가질 수 있다. Here, the danger parallax range may have a relatively large parallax range as the traveling speed of the vehicle is large.

본 발명의 다른 실시예에 따르면, 지면상의 객체와 차량간의 충돌을 방지 하는 방법에 있어서, (a) 차량 전방의 스테레오 영상을 획득하는 단계; (b) 상기 스테레오 영상에서 지면의 시차(disparity)값을 나타내는 그라운드맵(ground map)을 생성하는 단계; (c) 상기 그라운드맵의 시차값에 따라 매칭되는 좌우영상의 픽셀간의 차이값을 산출하여 강조영상을 생성하는 단계; 및 (d) 상기 강조영상을 이용하여 상기 객체가 상기 차량에 접근시, 상기 차량에 구비된 알람을 활성화시키는 단계를 포함하는 충돌 방지 방법이 제공될 수 있다. According to another embodiment of the present invention, there is provided a method of preventing collision between an object on a ground and a vehicle, comprising the steps of: (a) obtaining a stereo image in front of the vehicle; (b) generating a ground map representing a disparity value of the ground in the stereo image; (c) calculating a difference value between pixels of the left and right images matching the parallax value of the ground map to generate a highlight image; And (d) activating an alarm on the vehicle when the object approaches the vehicle using the highlighted image.

또한, 상기 (b)단계는 상기 스테레오 영상에서 상기 차량의 진행방향에서 지면이 존재할 가능성이 높은 영역으로 미리 지정된 관심영역내에 포함된 영상만을 이용하여 그라운드맵을 생성할 수 있다. Also, the step (b) may generate the ground map using only the image included in the region of interest, which is previously designated as the region where the ground is likely to exist in the moving direction of the vehicle in the stereo image.

또한, 상기 (b)단계는 상기 스테레오 영상내에서, 하단 스캔라인의 대표시차값을 산출후, 상단 스캔라인의 대표시차값을 산출하되, 하단 스캔라인의 대표시차값보다 작거나 같은 범위내에서 상단 스캔라인의 시차를 탐색하는 단계를 포함할 수 있다. In the step (b), a representative parallax value of the upper scan line may be calculated after calculating a representative parallax value of the lower scan line in the stereo image, and a representative parallax value of the upper scan line may be calculated And searching for the parallax of the upper scan line.

또한, 상기 (c)단계는 상기 차이값이 지정된 차이임계값을 초과하는 경우 1을, 이하인 경우는 0을 할당하여 상기 강조영상을 이진 영상으로 생성할 수 있다. In addition, the step (c) may generate the binary image by assigning 1 when the difference value exceeds the specified difference threshold value or 0 when the difference value is less than the specified difference threshold value.

또한, 상기 (d)단계는 (d1)상기 강조영상에서 값이 1인 픽셀의 개수를 Y축 방향으로 누적하여 히스토그램을 산출하는 단계; 및 (d2) 상기 히스토그램의 피크(peak)값으로 지면상에 존재하는 객체를 감지하는 단계를 포함할 수 있다. The step (d) includes the steps of: (d1) calculating a histogram by accumulating the number of pixels having a value of 1 in the weighted image in the Y-axis direction; And (d2) detecting an object existing on the ground as a peak value of the histogram.

또한, 상기 (d)단계는 (d3) 상기 히스토그램의 피크값을 이용하여 상기 객체의 x축 방향 위치와, 상기 객체의 이동방향을 추정하는 단계를 더 포함할 수 있다. The step (d) may further include estimating a position of the object in the x-axis direction and a moving direction of the object using the peak value of the histogram (d3).

또한, 상기 (d)단계는 (d4) 상기 객체의 이동방향이 상기 X축의 중심방향인 경우 상기 차량에 구비된 알람을 활성화시키는 단계를 더 포함할 수 있다. The step (d) may further include activating an alarm provided in the vehicle when the moving direction of the object is the center of the X-axis.

또한, 상기 (d)단계는 (d4) 상기 강조영상에서 픽셀 값이 1이고 X축 좌표가 상기 피크값에서 지정된 범위내에 있는 픽셀에 대하여 스테레오 매칭(stereo matching)을 수행하되, 미리 지정된 위험 시차 범위내에서 매칭이 되는 픽셀의 개수가 위험임계값을 초과하는 경우, 상기 차량의 알람을 활성화시키는 단계를 더 포함할 수 있다. The step (d) may further include the steps of: (d4) performing stereo matching on pixels in the emphasized image having a pixel value of 1 and an X-axis coordinate within a predetermined range of the peak value, And activating an alarm of the vehicle if the number of pixels matched within the threshold exceeds a critical threshold value.

본 발명의 또 다른 실시예에 따르면, 상술한 충돌 방지 방법 중 어느 하나의 방법을 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 제공될 수 있다. According to another embodiment of the present invention, a computer-readable recording medium having recorded thereon a program for performing any one of the above-described methods for preventing collision can be provided.

본 발명의 실시예에 따른 충돌방지시스템 및 그 방법은 스테레오 영상을 이용하여 차량의 충돌을 방지할 수 있다는 장점이 있다. The collision avoidance system and method according to the embodiment of the present invention has an advantage that a collision of a vehicle can be prevented by using a stereo image.

또한, 고가인 라이다 센서를 스테레로 카메라로 대체하여, 저비용으로 차량의 충돌을 방지할 수 있다는 장점이 있다. In addition, it is advantageous to replace the expensive Lidar sensor with a stereo camera to prevent collision of the vehicle at low cost.

도 1은 본 발명의 실시예에 따른 차량의 충돌방지시스템의 내부 구성을 예시한 도면.
도 2는 스테레오 영상의 일 례(KITTI data set).
도 3은 본 발명의 실시예에 따른 그라운드맵의 일 례.
도 4에는 본 발명의 실시예에 따른 강조영상의 일 례.
도 5는 본 발명의 실시예에 따라 제어부가 생성한 히스토그램의 일 례.
도 6은 객체가 차량의 진행방향으로 접근하는 상황에서 촬영한 연속영상.
도 7은 도면 6 영상에서 획득한 강조영상.
도 8은 도면 7로부터 획득한 강조영상에서 값이 1인 픽셀의 개수를 Y축 방향으로 누적하여 생성한 히스토그램.
도 9는 객체가 차량의 진행방향에서 멀어지는 경우에 촬영된 연속영상의 일 례.
도 10은 도 9 영상에서 획득한 강조영상.
도 11은 도 9에서 획득한 강조영상에서 값이 1인 픽셀의 개수를 Y축 방향으로 누적하여 생성한 히스토그램.
도 12는 옆 차선의 차량이 차선을 유지하면서 운전자의 차량을 추월하는 경우의 스테레오 영상.
도 13은 도 12의 영상에서 획득한 강조영상.
도 14는 도 12의 영상에서 획득한 강조영상에서 값이 1인 픽셀의 개수를 Y축 방향으로 누적하여 생성한 히스토그램.
도 15는 본 발명의 실시예에 따른 차량의 충돌 방지 방법을 예시한 순서도.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram illustrating an internal configuration of a vehicle collision avoidance system according to an embodiment of the present invention; FIG.
2 is an example of a stereo image (KITTI data set).
3 is an example of a ground map according to an embodiment of the present invention.
4 is an example of a highlight image according to an embodiment of the present invention.
5 is an example of a histogram generated by the control unit according to an embodiment of the present invention.
6 is a sequential image taken in a situation in which the object is approaching the traveling direction of the vehicle.
7 is a highlight image obtained from the image of FIG.
FIG. 8 is a histogram generated by accumulating the number of pixels having a value of 1 in the Y-axis direction in the emphasized image acquired from FIG.
9 is an example of a continuous image captured when the object moves away from the traveling direction of the vehicle.
10 is a highlight image obtained from the image of FIG.
11 is a histogram generated by accumulating the number of pixels having a value of 1 in the Y-axis direction in the emphasized image acquired in FIG.
12 shows a stereo image in a case where a vehicle in a side lane passes a driver's vehicle while maintaining a lane.
13 is a highlight image obtained from the image of Fig.
FIG. 14 is a histogram generated by accumulating the number of pixels having a value of 1 in the Y-axis direction in the emphasized image acquired from the image of FIG.
15 is a flowchart illustrating a vehicle collision avoidance method according to an embodiment of the present invention;

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In addition, numerals (e.g., first, second, etc.) used in the description of the present invention are merely an identifier for distinguishing one component from another.

또한, 명세서 전체에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.Also, throughout the specification, when an element is referred to as being "connected" or "connected" with another element, the element may be directly connected or directly connected to the other element, It should be understood that, unless an opposite description is present, it may be connected or connected via another element in the middle.

또한, 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하나 이상의 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 조합으로 구현될 수 있음을 의미한다.Also, throughout the specification, when an element is referred to as "including" an element, it is understood that the element may include other elements as well, without departing from the other elements unless specifically stated otherwise. Also, the terms "a "," module ", and the like in the description mean a unit for processing at least one function or operation, which means that it can be implemented by one or more hardware or software or a combination of hardware and software .

이하, 첨부된 도면들을 참조하여 본 발명의 실시예를 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 차량의 충돌방지시스템(100)의 내부 구성을 예시한 도면이고, 도 2는 스테레오 영상의 일 례(KITTI data set)이며, 도 3은 본 발명의 실시예에 따른 그라운드맵의 일 례이다. FIG. 1 is a diagram illustrating an internal configuration of a vehicle collision avoidance system 100 according to an embodiment of the present invention. FIG. 2 is an example of a stereo image (KITTI data set) As shown in FIG.

도 1을 참고하면 본 발명의 실시예에 따른 차량의 충돌방지시스템(100)은 카메라부(110), 그라운드맵 생성부(120), 강조영상 생성부(130), 제어부(140) 및 알람부(150)를 포함할 수 있다. 1, a vehicle collision avoidance system 100 according to an embodiment of the present invention includes a camera unit 110, a ground map generation unit 120, a highlight image generation unit 130, a control unit 140, (150).

도 1에 예시된 구성부는 본 발명의 이해와 설명의 편의를 위해, 주요 구성부를 별도로 표기하였으나, 기존 차량에 구비된 구성부의 일부로 구현될 수 있다. The components illustrated in FIG. 1 are shown separately for the sake of understanding and explanatory convenience of the present invention, but may be implemented as a part of the components provided in the existing vehicle.

카메라부(110)는 스테레오 카메라로 스테레오 영상(즉, 좌우영상)을 촬영할 수 있다, The camera unit 110 can photograph a stereo image (i.e., left and right images) with a stereo camera.

본 실시예에서는 차량의 전방에 구비된 것으로 설명하나, 본 발명이 적용되는 환경에 따라 차량의 여러 측면에 구비될 수 있다. Although the present embodiment is described as being provided in front of the vehicle, it may be provided on various sides of the vehicle according to the environment to which the present invention is applied.

도 2에는 스테레오 영상의 일 례로 KITTI data set이 예시되어 있으며, 이하 본 명세서에서는 카메라부(110)가 도 2에 예시된 영상을 촬영한 경우로 가정하여 설명한다. In FIG. 2, a KITTI data set is illustrated as an example of a stereo image. In the following description, it is assumed that the camera 110 captures the image illustrated in FIG. 2.

그라운드맵 생성부(120)는 카메라부(110)로부터 획득한 스테레오영상에서, 지면의 시차(disparity)값만을 고려한 시차영상을 생성할 수 있다. 이하, 본 명세서에서 영상에서 지면의 시차값을 나타내는 영상을 '그라운드맵'이라 칭한다. The ground map generating unit 120 may generate a parallax image considering only the disparity value of the ground in the stereo image acquired from the camera unit 110. [ Hereinafter, an image representing a parallax value of a ground in an image is referred to as a 'ground map' in the present specification.

본 발명의 실시예에 따르면, 그라운드맵 생성부(120)는 카메라부(110)로부터 획득되는 스테레오 영상에서, 미리 지정된 방법에 따라 관심영역을 설정하고, 관심영역에서 그라운드 맵을 생성할 수 있다. According to the embodiment of the present invention, the ground map generating unit 120 may set a region of interest according to a predetermined method in a stereo image acquired from the camera unit 110, and generate a ground map in a region of interest.

여기서, 관심영역은 차량의 진행방향에서 지면일 가능성이 높은 미리 지정된 영역이다. Here, the ROI is a predetermined area that is likely to be a ground in the traveling direction of the vehicle.

예를 들어, 상술한 바와 같이 카메라부(110)가 차량의 전방에 구비되는 경우, 관심영역은 스테레오 영상에서 중앙 하단부에 미리 지정될 수 있다. For example, in the case where the camera unit 110 is provided in front of the vehicle as described above, the ROI can be previously designated in the center lower part of the stereo image.

예를 들어, 카메라부(110)가 차량의 우측방에 구비되는 경우, 관심영역은 스테레오 영상에서 중앙 하단부 뿐만 아니라, 좌측 및 우측 하단부 중 하나 이상을 더 포함할 수 있으며, 본 발명이 적용되는 환경에 따라 다양하게 수정되어 적용될수 있다. For example, when the camera unit 110 is provided on the right side of the vehicle, the region of interest may further include at least one of the left and right lower ends as well as the central lower end of the stereo image. And can be applied variously according to the requirements.

따라서, 본 발명의 실시예에 따르면 그라운드맵 생성부(120)는 스테레오 영상의 모든 영역에 대해서 연산처리 할 필요없이, 미리 지정된 관심영역에 포함된 영상정보만을 처리함으로서, 연산 부하를 줄일 수 있다는 장점이 있다. Therefore, according to the embodiment of the present invention, the ground map generation unit 120 can reduce the calculation load by processing only the image information included in the predetermined region of interest, without performing the arithmetic processing on all the regions of the stereo image .

그라운드맵 생성부(120)는 스테레오 영상의 관심영역 내에서, 시차값만을 이용하여 그라운드맵을 생성할 수 있다. The ground map generator 120 can generate the ground map using only the parallax values in the interest area of the stereo image.

픽셀의 시차를 구하기 위해 사용되는 가장 기본적인 지역적(local) 방법은, 우선적으로 좌영상에 존재하는 픽셀에 대응하는 우 영상의 픽셀을 찾는 방법으로, 두영상의 정렬화 과정을 거친후, 에피폴라 선(epipolar line) 선상의 특정 탐색 범위(search range)내에서 가장 유사한 색상값을 갖는 픽셀 쌍을 찾는 방법을 이용한다. The most basic local method used to calculate the parallax of a pixel is to find pixels of the right image corresponding to the pixels existing in the left image first and then to align the two images, a method of finding a pixel pair having the most similar color value within a specific search range on an epipolar line is used.

본 발명의 실시예에 따른 그라운드맵에서는, 각 픽셀이 독립적인 시차를 가지 않고 각 스캔라인(scan line)마다 대표적인 시차값인 스캔라인 대표시차값을 가질 수 있다. 따라서, 본 실시예에 따른 그라운드맵 생성부(120)는 스테레오영상의 좌우영상간에서 스캔라인 별 대표시차값을 구한다. In the ground map according to the embodiment of the present invention, each pixel may have a representative scan line parallax value, which is a representative parallax value for each scan line, without having an independent parallax. Therefore, the ground map generation unit 120 according to the present embodiment obtains a representative parallax value for each scan line between the left and right images of the stereo image.

본 발명의 실시예에 따른 그라운드맵 생성부(120)는 스캔라인의 대표 시차를 구하기 위하여 좌 영상의 각 픽셀에 대하여 우 영상의 탐색 영역 내부 픽셀들과 매칭을 수행할 수 있다. The ground map generator 120 according to the embodiment of the present invention may perform matching with the pixels in the search area of the right image with respect to each pixel of the left image in order to obtain the representative parallax of the scan line.

여기서, 그라운드맵 생성부(120)는 매칭을 위하여 픽셀의 칼라 값을 비교하거나 Gradient 값을 비교할 수 있고, 또는 Cencus transform 등의 방식을 적용하여 추출한 특징 벡터 (feature vector)를 비교할 수 있다. Here, the ground map generator 120 may compare color values of pixels or compare gradient values for matching, or may compare feature vectors extracted by applying a Cencus transform or the like.

본 발명의 실시예에 따른 그라운드맵 생성부(120)는 좌 영상의 각 픽셀에 대하여 우 영상의 탐색 영역 내부 픽셀과의 절대값의 차이를 이용할 수 있다. 즉, 우 영상의 탐색 영역 내부 픽셀들에 대하여, 매칭의 오차가 작을수록 (또는 유사도가 클수록) 해당 픽셀이 좌 영상의 픽셀의 대응 픽셀이 될 가능성이 크다고 할 수 있다. The ground map generator 120 according to the embodiment of the present invention can use the difference between absolute values of pixels in the search area of the right image for each pixel of the left image. That is, the smaller the matching error (or the greater the similarity), the greater the likelihood that the corresponding pixel will be the corresponding pixel of the left image pixel with respect to the pixels in the search region of the right image.

예를 들어, 그라운드맵 생성부(120)는 좌 영상 x, y좌표 (10,1)에 대응하는 픽셀을 우 영상에서 찾을 때 우 영상 x, y좌표 (10-i, 1)에서 픽셀의 절대 값의 차이(absolute difference)를 계산한다. 이때 i는 시차를 의미하며 탐색 영역 내부의 후보 i 값 중에서 가장 낮은 절대 값의 차이를 갖는 시차 값을 해당 픽셀의 시차값으로 결정할 수 있다. For example, when the pixel corresponding to the left image x, y coordinate (10, 1) is searched in the right image, the ground map generator 120 calculates the absolute value of the pixel in the right image x, y coordinate (10-i, Calculate the absolute difference. In this case, i denotes a time difference, and a parallax value having a difference of the absolute value of the lowest among the candidate i values in the search area can be determined as a parallax value of the corresponding pixel.

또한, 그라운드맵 생성부(120)는 스캔라인 전체의 픽셀에 대해 매칭을 수행하고, 절대 값의 차이가 가장 낮을 때의 시차 값을 축적하여 히스토그램화 할 수 있다. 그리고, 그라운드맵 생성부(120)는 산출된 히스토그램에서 가장 높은 값에 해당하는 시차 값을 해당 스캔라인의 대표시차값으로 사용할 수 있다. Also, the ground map generator 120 may perform a matching operation on the pixels of the entire scan line, accumulate the parallax values when the absolute difference is the lowest, and histogramize the parallax values. The ground map generator 120 may use the parallax value corresponding to the highest value in the calculated histogram as the representative parallax value of the corresponding scan line.

본 실시예에서는, 상술한 바와 같이 차량의 전방에 카메라부(110)가 구비된 것으로 가정하였다. 따라서, 차량에 부착된 카메라부(110)로부터 영상을 획득하기 때문에, 스테레오 영상에서 아래쪽이 차량으로부터 가까운 지면에 해당하고 위쪽으로 갈수록 지면이 멀어지는 특성을 가질 수 있다. In the present embodiment, it is assumed that the camera unit 110 is provided in front of the vehicle as described above. Therefore, since the image is acquired from the camera unit 110 attached to the vehicle, the stereo image has a feature that the bottom corresponds to the ground nearer to the vehicle and the ground moves away from the vehicle toward the upper side.

따라서, 스테레오 영상의 관심 영역 내부에서 아래쪽 부분이 위 쪽보다 시차값이 큰 것으로(즉, 깊이값이 작은 것으로) 가정할 수 있다. Therefore, it can be assumed that the lower portion in the region of interest of the stereo image has a larger parallax value than the upper portion (i.e., the depth value is smaller).

따라서, 본 발명의 실시예에 따른 그라운드맵 생성부(120)는 스테레오 영상의 관심영역내에서, 가장 아래에 있는 스캔라인에서부터 계산하여 대표시차값을 산출하고, 그 다음 위 스캔라인에서는 아래 스캔라인에서 찾은 대표시차값보다 더 작거나 같은 범위안에서만 시차 탐색을 수행할 수 있다. Therefore, the ground map generator 120 calculates the representative parallax value from the lowest scan line in the region of interest of the stereo image, and in the next upper scan line, The parallax search can be performed within a range that is smaller than or equal to the representative parallax value found in the parallax search range.

이러한 방식을 통하여, 그라운드맵 생성부(120)는 아래에서 위로 갈수록 시차는 적어지는, 다시 말하여 위로 갈수록 멀어지는 지면을 잘 나타내는 그라운드맵을 구할 수 있다. Through this method, the ground map generation unit 120 can obtain a ground map which shows a parallax with increasing distance from the bottom to the top, that is, a ground which is getting farther upward.

도 3에는 본 발명의 실시예에 따른 그라운드맵의 일 례가 예시되어 있는데, 본 발명의 이해와 설명의 편의를 도모하기 위하여 그라운드맵의 시차값을 밝기값으로 변환하여 예시하였다. 도 3을 참고하면, 아래에서 높은 시차값(즉, 도 3에는 높은 밝기값)를 갖고, 위로 갈수록 낮은 시차값(즉, 도 3에는 낮은 밝기값)을 가지는 것을 확인할 수 있다. FIG. 3 illustrates an example of a ground map according to an embodiment of the present invention. In order to facilitate understanding and explanation of the present invention, a parallax value of a ground map is converted into a brightness value and illustrated. Referring to FIG. 3, it can be seen that the lower parallax value (that is, the higher brightness value in FIG. 3) and the lower parallax value (that is, the lower brightness value in FIG.

다시 도 1을 참고하면, 강조영상 생성부(130)는 그라운드맵의 시차값에 따라 매칭되는 스테레오 영상의 픽셀간의 차이값을 산출하여 강조영상을 생성할 수 있다. Referring back to FIG. 1, the emphasis image generator 130 may generate a highlight image by calculating a difference value between pixels of a stereo image matched according to a parallax value of a ground map.

보다 상세하게는, 강조영상 생성부(130)는 좌 영상의 모든 픽셀에 대하여 그라운드맵으로 구한 대표시차값에 해당하는 우 영상의 픽셀들과의 차이 값을 계산하고, 이에 기초하여 강조영상을 생성할 수 있다. More specifically, the emphasis image generation unit 130 calculates a difference value between the pixels of the right image corresponding to the representative parallax value obtained by the ground map for all the pixels of the left image, and generates a highlight image based thereon can do.

본 발명의 실시예에 따르면, 좌 영상 픽셀들이 지면에 속할 경우, 대표시차값으로 인하여 대응되는 우 영상의 픽셀들 또한 유사한 픽셀 값을 갖기 때문에 차이 값이 낮게 계산될 수 있다. According to the embodiment of the present invention, when the left image pixels belong to the ground, the difference value can be calculated to be low because the pixels of the right image corresponding to the representative parallax values also have similar pixel values.

반대로, 좌 영상 픽셀이 지면에 놓여 있는 객체 (자동차, 보행자 등)에 속할 경우, 대표시차값으로 대응되는 우 영상의 픽셀이 객체와는 다른 위치를 가리키게 되어 대응 픽셀 값의 차이가 클 수 있다. In contrast, when the left image pixel belongs to an object (automobile, pedestrian, etc.) lying on the ground, the pixel of the right image corresponding to the representative parallax value points to a position different from the object, and the difference of the corresponding pixel value may be large.

그러므로 두 대응 픽셀간의 절대 값의 차이가 설정된 임계값(threshold) 보다 높으면 해당 픽셀은 지면 위에 존재하는 객체 영역에 해당하는 픽셀이라고, 후술하는 제어부(140)가 판단할 수 있다. Therefore, if the difference between the absolute values of the two corresponding pixels is higher than a predetermined threshold value, the control unit 140 can determine that the pixel is a pixel corresponding to the object region existing on the ground.

본 발명의 실시에에 따른 강조영상 생성부(130)는 그라운드맵의 대표시차값으로 대응되는 좌우영상간의 픽셀간의 절대값의 차이값이 지정된 차이임계값을 초과하면 1을, 이하인 경우 0으로 할당하여 강조영상을 이진영상으로 생성할 수 있다. The emphasis image generation unit 130 according to the embodiment of the present invention assigns 1 to a value of 1 if the difference value of the absolute value between the pixels between the corresponding right and left images corresponding to the representative parallax value of the ground map exceeds the specified difference threshold value, So that a highlight image can be generated as a binary image.

도 4에는 본 발명의 실시예에 따른 강조영상의 일 례가 도시 되어 있다. 다만, 도 4에 예시된 강조영상은 본 발명의 이해를 도모하기 위하여, 강조영상에서 1의 값을 값는 픽셀에 대하여 원래의 칼라 값을 할당하여 가시화하여 예시하였다. FIG. 4 shows an example of a highlight image according to an embodiment of the present invention. However, in order to understand the present invention, the emphasis image illustrated in FIG. 4 is exemplified by assigning an original color value to a pixel having a value of 1 in a highlight image, and visualizing it.

다시 도 1를 참고하면, 제어부(140)는 강조영상을 이용하여 지면에 존재하는 객체가 차량에 접근시 차량에 구비된 알람을 활성화시킬 수 있다. Referring again to FIG. 1, the control unit 140 can activate an alarm provided in the vehicle when an object existing on the ground approaches the vehicle using a highlight image.

이를 위하여, 제어부(140)는 강조영상에서 객체의 X 축방향위치와, 이동방향을 추정하고, 객체의 이동방향이 x축의 중심방향인 경우, 차량에 구비된 알람을 활성화시킬 수 있다. To this end, the controller 140 estimates the X-axis direction position and the movement direction of the object in the highlighted image, and activates the alarm provided in the vehicle when the object movement direction is the x-axis center direction.

이하, 제어부(140)의 기능에 대해서 상세히 설명한다. Hereinafter, the function of the control unit 140 will be described in detail.

앞서 생성한 강조영상은 지면 위에 존재할 가능성이 높은 픽셀들만 추려낸 결과일 수 있다. 즉, 스테레오 영상의 매 프레임마다 얻어지는 강조영상에서, 관심 영역 내부에 위치하며 그라운드맵의 시차를 갖지 않는 픽셀들(즉, 강조영상에서 픽셀값이 1인 픽셀들)의 개수와 지정된 개수임계값을 비교할 수 있다. 이때, 개수임계값을 초과하는 경우 객체가 차량의 전방 가까운 부근에 존재할 가능성이 높은 경우에 해당한다. The previously generated highlight image may be a result of only picking pixels that are likely to be on the ground. That is, in the emphasized image obtained every frame of the stereo image, the number of pixels located within the region of interest and having no parallax of the ground map (i.e., pixels having a pixel value of 1 in the emphasized image) Can be compared. If the number threshold is exceeded, it is likely that the object is near the front of the vehicle.

따라서, 이 경우 제어부(140)는 추가적으로 충돌 가능성이 있는 객체를 검출하기 위하여, 관심 영역 내부의 강조영상에서 픽셀값이 1인 픽셀의 개수를 Y축 방향으로 누적하여 합친 히스토그램을 생성할 수 있다. Accordingly, in this case, the controller 140 may generate a histogram in which the number of pixels having a pixel value of 1 is accumulated in the Y-axis direction in the emphasis image in the ROI in order to detect an object having a possibility of collision.

여기서, 히스토그램의 밀도가 특정 위치에 높은 값을 가진다면 해당 위치에 객체가 있을 확률이 높다는 것을 의미한다. Here, if the density of the histogram has a high value at a specific position, it means that there is a high probability that the object exists at the corresponding position.

도 5는 본 발명의 실시예에 따라 제어부가 생성한 히스토그램의 일 례이다. 5 is an example of a histogram generated by the controller according to an embodiment of the present invention.

도 4 및 도 5를 참고하면, 영상의 오른쪽 부분에 위치하는 객체 위치에서 히스토그램의 밀도가 높은 것을 확인할 수 있다. 4 and 5, it can be seen that the density of the histogram is high at the position of the object located on the right side of the image.

제어부(140)는 히스토그램에서 피크(peak)값을 갖는 X좌표를 산출하여, 객체의 위치를 수치화할 수 있다. The controller 140 may calculate an X coordinate having a peak value in the histogram to digitize the position of the object.

한편, 히스토그램이 스테레오 영상의 노이즈나 그라운드맵 생성시 포함된 오류 등으로 인하여 다소 불안정하게 획득될 수 있다. 이 경우, 제어부(140)는 히스토그램을 먼저 스무딩(smoothing)하고 나서 피크(peak)의 X좌표를 산출할 수 있다. On the other hand, the histogram can be acquired somewhat unstably due to the noise included in the stereo image or errors included in the generation of the ground map. In this case, the controller 140 may first calculate the X-coordinate of the peak after smoothing the histogram.

또한, 본 발명의 다른 실시예에 따르면 제어부(140)는 가우시안 모델(Gaussian model)또는 가우시안 병합 모델 (Gaussian mixture model)을 히스토그램에 적용하여 가우시안 모델의 평균에 해당하는 위치를 피크값으로 보고 X좌표를 산출할 수 있다. According to another embodiment of the present invention, the controller 140 applies a Gaussian model or a Gaussian mixture model to the histogram to find a position corresponding to the average of the Gaussian model as a peak value, Can be calculated.

제어부(140)는 매 영상프레임에 대하여 관심 영역 내부의 강조영상 에서 픽셀값이 1인 픽셀의 개수가 개수임계값보다 큰 경우, 피크의 X축 위치를 산출할 수 있다. The control unit 140 can calculate the X-axis position of the peak when the number of pixels having the pixel value of 1 in the emphasized image within the ROI is greater than the number threshold value for every image frame.

또한, 제어부(140)는 피크의 위치 변화 패턴으로부터 객체의 이동방향을 추정할 수 있다. Also, the controller 140 can estimate the moving direction of the object from the peak position change pattern.

도 6은 객체가 차량의 진행방향으로 접근하는 상황에서 촬영한 연속영상이고, 도 7은 도면 6 영상에서 획득한 강조영상이며, 도 8은 도면 7로부터 획득한 강조영상에서 값이 1인 픽셀의 개수를 Y축 방향으로 누적하여 생성한 히스토그램이다. FIG. 6 is a continuous image taken in a state in which the object approaches the traveling direction of the vehicle, FIG. 7 is a weighted image obtained in the image of FIG. 6, and FIG. The histogram is generated by accumulating the number in the Y-axis direction.

도 6 내지 도 8을 참고하면, 객체가 차량의 진행방향으로 접근하는 경우, 도 8에서 히스토그램의 피크값의 위치가 X축 중심방향으로 이동하는 것을 알 수 있다. Referring to FIGS. 6 to 8, when the object approaches the traveling direction of the vehicle, it can be seen that the position of the peak value of the histogram moves in the X-axis center direction in FIG.

따라서, 제어부(140)는 히스토그램의 피크값의 X축 위치가 X축 중심방향으로 이동하는 경우, 객체가 차량의 진행방향으로 접근하는 것을 감지하고, 차량에 구비된 알람을 활성화 할 수 있다. Accordingly, when the X-axis position of the peak value of the histogram moves in the X-axis center direction, the controller 140 detects that the object is approaching the traveling direction of the vehicle, and activates the alarm provided in the vehicle.

여기서, 제어부(140)가 활성화하는 알람은 기존 차량에 구비되어, 차량의 운전자에게 지정된 음향, 조명 등이 될 수 있으며, 추가적으로 경적 등을 통하여 외부에 접근하는 객체에 전하는 알람도 포함할 수 있다. Here, the alarm activated by the control unit 140 may be provided to an existing vehicle, and may be sound, illumination, or the like designated to the driver of the vehicle, and may further include an alarm to be transmitted to an object approaching the outside through a horn or the like.

도 9는 객체가 차량의 진행방향에서 멀어지는 경우에 촬영된 연속영상의 일 례이며, 도 10은 도 9 영상에서 획득한 강조영상이며, 도 11은 도 9에서 획득한 강조영상에서 값이 1인 픽셀의 개수를 Y축 방향으로 누적하여 생성한 히스토그램이다. 9 is an example of a continuous image taken when the object moves away from the traveling direction of the vehicle, FIG. 10 is a highlight image obtained from the image of FIG. 9, and FIG. The histogram is generated by accumulating the number of pixels in the Y-axis direction.

도 9 내지 도 11을 참고하면, 객체가 차량의 진행 방향에서 멀어지는 경우, 히스토그램의 피크위치가 X축 중심에서 멀어지는 것을 알 수 있다. 9 to 11, when the object moves away from the traveling direction of the vehicle, it can be seen that the peak position of the histogram moves away from the center of the X axis.

따라서, 제어부(140)는 히스토그램의 피크값의 X축 위치가 X축 중앙에서 멀어지는 방향으로 이동하는 경우, 알람을 활성화 하지 않으며 활성화된 알람이 있을 경우에는 해제할 수 있다. Accordingly, the controller 140 does not activate the alarm when the X-axis position of the peak value of the histogram moves away from the X-axis center, and can release the activated alarm.

강조 영상의 피크값의 X축 위치가 X축 중심방향(즉, 차량의 진행방향) 위치로 이동한다고 하는 모든 객체가 위험한 객체는 아닐 수 있다. 예를 들어, 옆 차선의 차량이 옆 차선을 계속 유지하면서, 운전자 차량을 추월하는 경우를 가정해 볼수 있다. All the objects for which the X axis position of the peak value of the emphasis image moves to the X axis center direction (i.e., the traveling direction of the vehicle) may not be a dangerous object. For example, assume that a vehicle in a side lane keeps a side lane and overtakes the driver's vehicle.

도 12는 옆 차선의 차량이 차선을 유지하면서 운전자의 차량을 추월하는 경우의 스테레오 영상이며, 도 13은 도 12의 영상에서 획득한 강조영상이며, 도 14는 도 12의 영상에서 획득한 강조영상에서 값이 1인 픽셀의 개수를 Y축 방향으로 누적하여 생성한 히스토그램이다. FIG. 12 is a stereo image in the case where the vehicle in the side lane keeps the lane and overtakes the driver's vehicle, FIG. 13 is a highlight image obtained from the image in FIG. 12, FIG. 14 is a highlight image obtained in the image in FIG. Is a histogram generated by accumulating the number of pixels having a value of 1 in the Y-axis direction.

본 발명의 실시예에 따르면, 제어부(140)는 위험한 객체만을 검출하기 위해 히스토그램의 피크의 위치가 X축 중심방향으로 이동하는 경우, 피크값에서 지정된 범위내에 있는 픽셀들에 대하여 스테레오 매칭(stereo matching)을 수행하되, 미리 지정된 위험 시차 범위내에서 매칭이 되는 픽셀의 개수가 위험임계값을 초과하는 경우, 차량의 알람을 활성화 할 수 있다. According to the embodiment of the present invention, when the position of the peak of the histogram moves in the X-axis center direction in order to detect only a dangerous object, the controller 140 performs stereo matching ), The alarm of the vehicle can be activated when the number of pixels matched within the predetermined danger parallax range exceeds the danger threshold value.

본 발명의 실시예에 따르면, 차량의 주행속도를 고려하여, 차량의 진행방향 전방으로 촬영한 영상에서 차량과 충돌할 위험이 있는 위험한 위치에 대응하는 시차범위가 미리 지정될 수 있다. According to the embodiment of the present invention, in consideration of the running speed of the vehicle, a parallax range corresponding to a dangerous position at which there is a risk of collision with the vehicle in an image photographed in the forward direction of the vehicle can be specified in advance.

예를 들어, 차량의 주행속도가 높을 수록 더 넓은 범위의 시차 영역이 지정될 수 있고, 반대의 경우 좁은 범위의 시차범위가 지정될 수 있다. For example, the higher the traveling speed of the vehicle, the wider the range of parallax can be specified, and vice versa, a narrower range of parallax can be specified.

따라서, 제어부(140)는 미리 지정된 위험시차범위내에서 스테레오 매칭이 될 경우(즉, 좌우영상의 대응픽셀의 절대값의 차이가 지정된 매칭임계값 이하인 경우), 해당 픽셀이 위험시차 영역내부에 있는 것으로 판단할 수 있다. 그리고, 제어부(140)는 위험 시차 범위내에서 매칭이 되는 픽셀의 개수가 지정된 위험임계값을 초과하는 경우, 차량에 구비된 알람을 활성화할 수 있다. Accordingly, when the stereo matching is performed within a predetermined dangerous parallax range (i.e., when the difference between the absolute values of the corresponding pixels of the left and right images is less than or equal to the specified matching threshold value) . If the number of pixels to be matched within the dangerous parallax range exceeds the designated danger threshold value, the control unit 140 can activate an alarm provided in the vehicle.

지금까지 도 1에 예시된 충돌방지시스템(100)의 내부 구성을, 도 2 내지 도 14를 참고하여 상세히 설명하였다. The internal construction of the anti-collision system 100 illustrated in FIG. 1 has been described in detail with reference to FIGS. 2 to 14. FIG.

여기서, 도 1에 예시된 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. Here, it is to be clarified that the division of the components illustrated in FIG. 1 is merely a division by main functions that each component is responsible for.

즉, 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. That is, two or more constituent parts may be combined into one constituent part, or one constituent part may be divided into two or more functions according to functions that are more subdivided.

그리고 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다. In addition, each of the constituent units may additionally perform some or all of the functions of the other constituent units in addition to the main functions of the respective constituent units, and some of the main functions of the constituent units are dedicated to the other constituent units Of course.

도 15는 본 발명의 실시예에 따른 차량의 충돌 방지 방법을 예시한 순서도이다. 15 is a flowchart illustrating a vehicle collision avoidance method according to an embodiment of the present invention.

이하. 도 15을 참고하여 본 발명의 실시예에 따른 충돌 방지 방법을 설명함에 있어서, 상술한 바와 같이 도 1의 충돌방지시스템(100)의 내부 구성은 다양하게 변경되어 구현될 수 있으므로, 주체를 충돌방지시스템(100)으로 하여 설명한다. Below. 15, the internal structure of the anti-collision system 100 of FIG. 1 can be variously modified and implemented as described above. Therefore, System 100 will be described.

또한, 충돌방지 방법의 이해와 설명의 편의를 도모하기 위해, 도 1 내지 도 14를 참고하여 설명한 부분과 중복된 설명은 간략히 하거나 생략한다. In order to facilitate understanding and explanation of the collision avoidance method, a description overlapping with those described with reference to Figs. 1 to 14 will be simplified or omitted.

단계 S1510에서 차량의 충돌방지시스템(100)은 차량에 구비된 카메라를 통하여 스테레오 영상을 획득할 수 있다. In step S1510, the vehicle collision avoidance system 100 may acquire a stereo image through a camera provided in the vehicle.

이어서, 단계 S1520에서, 충돌방지시스템(100)은 스테레오 영상에서 지면의 시차값만을 반영한 그라운드맵을 생성할 수 있다. Subsequently, in step S1520, the anti-collision system 100 may generate a ground map reflecting only the parallax value of the ground in the stereo image.

이 단계에서, 충돌방지시스템(100)은 스테레오 영상의 모든 픽셀에 대해서 연산을 하지 아니하고, 미리 지정된 관심영역, 즉 지면이 존재할 가능성이 높은 영역(예를 들어, 영상의 중앙 하단부)에 대해서만 수행할 수 있다. At this stage, the collision avoidance system 100 does not operate on all the pixels of the stereo image, but performs only the predetermined region of interest, that is, only the region where the ground is likely to exist (for example, the lower center portion of the image) .

또한, 충돌방지스템은 관심영역내에서 스캔라인별로 대표시차값을 산출하여 그라운드맵을 생성할 수 있다. Also, the collision avoidance stem may generate a ground map by calculating a representative parallax value for each scan line in the ROI.

또한, 충돌방지시스템(100)은 관심영역내에서 최하단의 스캐라인에서 대표시차값을 산출후, 그위 스캔라인에서는 하단의 대표시차값보다 작거나 같은 범위내에서 시차를 탐색할 수 있다. In addition, the collision avoidance system 100 may calculate the representative parallax value in the lowermost scalar line within the region of interest, and then search for the parallax within a range smaller than or equal to the representative parallax value of the lower edge in the scribe line.

이어서, 단계 S1530에서 충돌방지시스템(100)은 그라운드맵의 시차값에 따라 매칭되는 좌우영상의 픽셀간의 차이값을 산출하여 강조영상을 생성할 수 있다. Subsequently, in step S1530, the anti-collision system 100 may generate a highlight image by calculating a difference value between pixels of the left and right images matching the parallax value of the ground map.

또한, 충돌방지시스템(100)은 산출된 차이값이 지정된 차이임계값을 초과하는 경우 1을, 이하인 경우는 0을 할당하여 강조영상을 이진 영상으로 생성할 수 있다. In addition, the collision avoidance system 100 may generate a binary image by assigning 1 when the calculated difference value exceeds the specified difference threshold value, or 0 when the calculated difference value exceeds the specified difference threshold value.

이어서, 단계 S1540에서 충돌방지시스템(100)은 강조영상에서 값이 1인 픽셀의 개수를 Y축 방향으로 누적하여 히스토그램을 산출하고, 히스토그램의 피크(peak)값으로 지면상에 존재하는 객체를 감지할 수 있다. In step S1540, the collision avoidance system 100 calculates a histogram by accumulating the number of pixels having a value of 1 in the emphasis image in the Y-axis direction, and detects an object existing on the ground as a peak value of the histogram can do.

보다 상세하게는, 히스토그램의 피크값의 X축 위치를 산출하고, X축 위치변화에 따른 객체의 이동방향을 추정하여 객체를 감지할 수 있다. More specifically, the object can be detected by calculating the X axis position of the peak value of the histogram and estimating the moving direction of the object according to the X axis position change.

이어서, 단계 S1550에서 충돌방지시스템(100)은 감지된 객체의 X축 이동방향이 차량의 진행방향인 경우 단계 S1560에서 차량에 구비된 알람을 활성화할 수 있다. Then, in step S1550, the collision avoidance system 100 can activate the alarm provided in the vehicle in step S1560 if the X-axis movement direction of the sensed object is the vehicle's travel direction.

여기서, 충돌방지시스템(100)은 위함한 객체만을 검출하기 위해 Here, the collision avoidance system 100 may be configured to detect only the object

히스토그램의 피크의 위치가 X축 중심방향으로 이동하는 경우, 피크값에서 지정된 범위내에 있는 픽셀들에 대하여 스테레오 매칭(stereo matching)을 수행하되, 미리 지정된 위험 시차 범위내에서 매칭이 되는 픽셀의 개수가 위험임계값을 초과하는 경우, 차량의 알람을 활성화 할 수 있다. When the position of the peak of the histogram moves in the direction of the center of the X axis, stereo matching is performed on the pixels within the specified range from the peak value, and the number of pixels matched within the predetermined danger parallax range is If the danger threshold is exceeded, the vehicle alarm can be activated.

본 발명의 실시예에 따르면, 차량의 주행속도를 고려하여, 차량의 진행방향 전방으로 촬영한 영상에서 차량과 충돌할 위험이 있는 위험한 위치에 대응하는 시차범위가 미리 지정될 수 있다. According to the embodiment of the present invention, in consideration of the running speed of the vehicle, a parallax range corresponding to a dangerous position at which there is a risk of collision with the vehicle in an image photographed in the forward direction of the vehicle can be specified in advance.

예를 들어, 차량의 주행속도가 높을 수록 더 넓은 범위의 시차 영역이 지정될 수 있고, 반대의 경우 좁은 범위의 시차범위가 지정될 수 있다. For example, the higher the traveling speed of the vehicle, the wider the range of parallax can be specified, and vice versa, a narrower range of parallax can be specified.

지금까지 도 15를 참고하여 본 발명의 실시예에 따른 충돌방지방법에 대해서 설명하였다. The anti-collision method according to the embodiment of the present invention has been described with reference to FIG.

상술한 본 발명의 실시예에 따른 충돌방지방법은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다. The above-described collision avoidance method according to the embodiment of the present invention can be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording media storing data that can be decoded by a computer system. For example, it may be a ROM (Read Only Memory), a RAM (Random Access Memory), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, or the like. In addition, the computer-readable recording medium may be distributed and executed in a computer system connected to a computer network, and may be stored and executed as a code readable in a distributed manner.

이상에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 쉽게 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the following claims And changes may be made without departing from the spirit and scope of the invention.

100: 충돌방지시스템 110: 카메라부
120: 그라운드맵 생성부 130: 강조영상 생성부
140: 제어부
100: Collision avoidance system 110:
120: a ground map generating unit 130: a highlight image generating unit
140:

Claims (20)

차량에 구비되어 스테레오 영상을 촬영하는 카메라부;
상기 스테레오 영상에서 지면의 시차(disparity)값을 나타내는 그라운드맵(ground map)을 생성하는 그라운드맵 생성부;
상기 그라운드맵의 시차값에 따라 매칭되는 제1 영상의 픽셀과 제2 영상의 픽셀간의 차이값을 산출하여 강조영상을 생성하는 강조영상 생성부-여기서, 상기 제1 영상 및 상기 제2 영상은 상기 카메라부에 의해 획득된 좌/우 영상의 어느 하나 및 다른 하나임-; 및
상기 강조영상을 이용하여 상기 지면에 존재하는 객체가 상기 차량에 접근시, 상기 차량에 구비된 알람을 활성화시키는 제어부를 포함하고,
상기 그라운드맵 생성부는,
X축 방향의 해당 스캔라인의 상기 제1 영상의 각 픽셀별로 상기 제2 영상의 탐색 영역 내부의 픽셀들과의 매칭을 수행한 결과에 따라, 상호 간 픽셀값의 절대값의 차이가 가장 낮게 나오는 시차값을 상기 스테레오 영상의 각 픽셀별로의 시차값으로 결정한 후, 상기 결정된 시차값들을 축적한 히스토그램을 생성하였을 때 가장 높은 값에 해당하는 시차값을 해당 스캔라인의 대표시차값으로 설정함으로써, X축 방향의 스캔라인마다 대표시차값을 갖는 그라운드맵을 생성하는 것을 특징으로 하는, 충돌방지시스템.
A camera unit provided in the vehicle for photographing a stereo image;
A ground map generating unit for generating a ground map representing a disparity value of the ground in the stereo image;
A weighted image generating unit for generating a weighted image by calculating a difference value between a pixel of the first image and a pixel of the second image that match the parallax value of the ground map, One of the left / right images acquired by the camera unit and the other; And
And a controller for activating an alarm provided in the vehicle when an object existing on the ground approaches the vehicle using the emphasis image,
Wherein the ground map generator comprises:
The difference between the absolute values of the pixel values of the pixels in the first image of the corresponding scan line in the X-axis direction is the lowest A parallax value corresponding to a highest value is set as a representative parallax value of the corresponding scan line when a histogram storing the determined parallax values is generated after determining a parallax value as a parallax value for each pixel of the stereo image, And generates a ground map having a representative parallax value for every scan line in the axial direction.
제1항에 있어서, 상기 그라운드맵 생성부는
상기 스테레오 영상에서 상기 차량의 진행방향에서 지면이 존재할 가능성이 높은 영역으로 미리 지정된 관심영역내에 포함된 영상만을 이용하여 그라운드맵을 생성하는, 충돌방지시스템
The apparatus of claim 1, wherein the ground map generator
And generating a ground map using only an image included in a region of interest that is predetermined in an area in which the ground is likely to exist in the moving direction of the vehicle in the stereo image,
제2항에 있어서,
상기 관심영역은 상기 스테레오 영상의 영상 중앙 하단부인, 충돌방지시스템.
3. The method of claim 2,
Wherein the region of interest is the bottom of the image center of the stereo image.
삭제delete 제1항에 있어서, 상기 그라운드맵 생성부는
상기 스테레오 영상내에서, 하단 스캔라인의 대표시차값을 산출후, 상단 스캔라인의 대표시차값을 산출하되, 하단 스캔라인의 대표시차값보다 작거나 같은 범위내에서 상단 스캔라인의 시차를 탐색하는, 충돌방지시스템.
The apparatus of claim 1, wherein the ground map generator
A representative parallax value of the upper scan line is calculated and a parallax of the upper scan line is searched within a range smaller than or equal to the representative parallax value of the lower scan line in the stereo image , Collision avoidance system.
제1항에 있어서,
상기 강조영상 생성부는,
상기 차이값이 지정된 차이임계값을 초과하는 경우 1을, 이하인 경우는 0을 할당하여 상기 강조영상을 이진 영상으로 생성하는, 충돌방지시스템.
The method according to claim 1,
Wherein the emphasized image generating unit comprises:
And generates 1 if the difference value exceeds a specified difference threshold value, or 0 if the difference value is less than a specified difference threshold value, to generate the emphasized image as a binary image.
제6항에 있어서,
상기 제어부는 상기 강조영상에서 값이 1인 픽셀의 개수를 Y축 방향으로 누적하여 히스토그램을 산출하고, 히스토그램의 피크(peak)값으로 지면상에 존재하는 객체를 감지하는, 충돌방지시스템
The method according to claim 6,
Wherein the control unit calculates a histogram by accumulating the number of pixels having a value of 1 in the emphasis image in the Y axis direction and detects an object existing on the ground as a peak value of the histogram,
제7항에 있어서,
상기 제어부는 상기 히스토그램의 피크값을 이용하여 상기 객체의 x축 방향 위치와, 상기 객체의 이동방향을 추정하는, 충돌방지시스템
8. The method of claim 7,
Wherein the controller estimates a position of the object in the x-axis direction and a moving direction of the object using the peak value of the histogram,
제8항에 있어서,
상기 제어부는, 상기 객체의 이동방향이 상기 X축의 중심방향인 경우 상기 차량에 구비된 알람을 활성화시키는, 충돌방지시스템.
9. The method of claim 8,
Wherein the controller activates an alarm provided in the vehicle when the moving direction of the object is the center of the X-axis.
제8항에 있어서,
상기 제어부는, 상기 강조영상에서 픽셀 값이 1이고 X축 좌표가 상기 피크값에서 지정된 범위내에 있는 픽셀에 대하여 스테레오 매칭(stereo matching)을 수행하되, 미리 지정된 위험 시차 범위내에서 매칭이 되는 픽셀의 개수가 위험임계값을 초과하는 경우, 상기 차량의 알람을 활성화시키는, 충돌방지시스템.
9. The method of claim 8,
Wherein the control unit performs stereo matching on pixels having a pixel value of 1 and a X-axis coordinate within a range specified by the peak value in the emphasized image, And activates an alarm of the vehicle if the number exceeds a critical threshold.
제10항에 있어서,
상기 위험 시차 범위는 상기 차량의 주행속도가 클 수록 상대적으로 큰 시차범위를 가지는, 충돌방지시스템.
11. The method of claim 10,
Wherein the dangerous parallax range has a relatively large parallax range as the running speed of the vehicle is greater.
지면상의 객체와 차량간의 충돌을 방지 하는 방법에 있어서,
(a) 차량 전방의 스테레오 영상을 획득하는 단계;
(b) 상기 스테레오 영상에서 지면의 시차(disparity)값을 나타내는 그라운드맵(ground map)을 생성하는 단계;
(c) 상기 그라운드맵의 시차값에 따라 매칭되는 좌영상과 우영상의 픽셀간의 차이값을 산출하여 강조영상을 생성하는 단계; 및
(d) 상기 강조영상을 이용하여 상기 객체가 상기 차량에 접근시, 상기 차량에 구비된 알람을 활성화시키는 단계를 포함하고,
상기 (b) 단계는, X축 방향의 해당 스캔라인의 상기 좌영상의 각 픽셀별로 상기 우영상의 탐색 영역 내부의 픽셀들과의 매칭을 수행한 결과에 따라, 상호 간 픽셀값의 절대값의 차이가 가장 낮게 나오는 시차값을 상기 스테레오 영상의 각 픽셀별로의 시차값으로 결정한 후, 상기 결정된 시차값들을 축적한 히스토그램을 생성하였을 때 가장 높은 값에 해당하는 시차값을 해당 스캔라인의 대표시차값으로 설정함으로써, X축 방향의 스캔라인마다 대표시차값을 갖는 그라운드맵을 생성하는 단계를 포함하는, 충돌 방지 방법.
A method for preventing collision between an object on the ground and a vehicle,
(a) obtaining a stereo image in front of the vehicle;
(b) generating a ground map representing a disparity value of the ground in the stereo image;
(c) calculating a difference value between pixels of a left image and a right image matched according to a parallax value of the ground map to generate a highlight image; And
(d) activating an alarm provided in the vehicle when the object approaches the vehicle using the emphasis image,
The step (b) may further include the step of, for each pixel of the left image of the corresponding scan line in the X-axis direction, matching an absolute value of pixel values between the pixels in the search area of the right image The parallax value corresponding to the highest value when the histogram in which the determined parallax values are accumulated is determined as the parallax value for each pixel of the stereo image, , Thereby generating a ground map having a representative parallax value for every scan line in the X-axis direction.
제12항에 있어서,
상기 (b)단계는 상기 스테레오 영상에서 상기 차량의 진행방향에서 지면이 존재할 가능성이 높은 영역으로 미리 지정된 관심영역내에 포함된 영상만을 이용하여 그라운드맵을 생성하는, 충돌 방지 방법.
13. The method of claim 12,
Wherein the step (b) comprises: generating a ground map using only an image included in a region of interest that is predetermined as an area in which the ground is likely to exist in the moving direction of the vehicle in the stereo image.
제12항에 있어서,
상기 (b)단계는
상기 스테레오 영상내에서, 하단 스캔라인의 대표시차값을 산출후, 상단 스캔라인의 대표시차값을 산출하되, 하단 스캔라인의 대표시차값보다 작거나 같은 범위내에서 상단 스캔라인의 시차를 탐색하는 단계를 포함하는, 충돌 방지 방법.
13. The method of claim 12,
The step (b)
A representative parallax value of the upper scan line is calculated and a parallax of the upper scan line is searched within a range smaller than or equal to the representative parallax value of the lower scan line in the stereo image The method comprising the steps of:
제12항에 있어서,
상기 (c)단계는
상기 차이값이 지정된 차이임계값을 초과하는 경우 1을, 이하인 경우는 0을 할당하여 상기 강조영상을 이진 영상으로 생성하는 단계를 포함하는, 충돌 방지 방법.
13. The method of claim 12,
The step (c)
Generating a binary image by assigning 1 if the difference value exceeds a specified difference threshold value, and 0 if the difference value is less than or equal to a specified difference threshold value.
제15항에 있어서,
상기 (d)단계는
(d1)상기 강조영상에서 값이 1인 픽셀의 개수를 Y축 방향으로 누적하여 히스토그램을 산출하는 단계; 및
(d2) 상기 히스토그램의 피크(peak)값으로 지면상에 존재하는 객체를 감지하는 단계를 포함하는, 충돌 방지 방법.
16. The method of claim 15,
The step (d)
(d1) calculating a histogram by accumulating the number of pixels having a value of 1 in the weighted image in the Y-axis direction; And
(d2) detecting an object existing on the ground as a peak value of the histogram.
제16항에 있어서,
상기 (d)단계는
(d3) 상기 히스토그램의 피크값을 이용하여 상기 객체의 x축 방향 위치와, 상기 객체의 이동방향을 추정하는 단계를 더 포함하는, 충돌 방지 방법.
17. The method of claim 16,
The step (d)
(d3) estimating a position of the object in the x-axis direction and a moving direction of the object using the peak value of the histogram.
제17항에 있어서,
상기 (d)단계는
(d4) 상기 객체의 이동방향이 상기 X축의 중심방향인 경우 상기 차량에 구비된 알람을 활성화시키는 단계를 더 포함하는, 충돌 방지 방법.
18. The method of claim 17,
The step (d)
(d4) activating an alarm provided in the vehicle when the direction of movement of the object is the center of the X-axis.
제17항에 있어서,
상기 (d)단계는
(d4) 상기 강조영상에서 픽셀 값이 1이고 X축 좌표가 상기 피크값에서 지정된 범위내에 있는 픽셀에 대하여 스테레오 매칭(stereo matching)을 수행하되, 미리 지정된 위험 시차 범위내에서 매칭이 되는 픽셀의 개수가 위험임계값을 초과하는 경우, 상기 차량의 알람을 활성화시키는 단계를 더 포함하는, 충돌방지 방법.
18. The method of claim 17,
The step (d)
(d4) stereo matching is performed on pixels in the emphasized image in which the pixel value is 1 and the X-axis coordinate is within the range specified by the peak value, and the number of pixels matched within the predetermined danger parallax range Further comprising activating an alarm of the vehicle if the risk exceeds a critical threshold.
제 12항 내지 제 19항 중 어느 하나의 충돌방지 방법을 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for performing a collision avoidance method according to any one of claims 12 to 19.
KR1020160159018A 2016-11-28 2016-11-28 System and method for vehicle collision avoidance KR101894731B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160159018A KR101894731B1 (en) 2016-11-28 2016-11-28 System and method for vehicle collision avoidance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160159018A KR101894731B1 (en) 2016-11-28 2016-11-28 System and method for vehicle collision avoidance

Publications (2)

Publication Number Publication Date
KR20180060024A KR20180060024A (en) 2018-06-07
KR101894731B1 true KR101894731B1 (en) 2018-09-04

Family

ID=62621392

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160159018A KR101894731B1 (en) 2016-11-28 2016-11-28 System and method for vehicle collision avoidance

Country Status (1)

Country Link
KR (1) KR101894731B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099997A (en) * 2000-09-26 2002-04-05 Mitsubishi Motors Corp Detection device for moving object
JP2005267030A (en) * 2004-03-17 2005-09-29 Daihatsu Motor Co Ltd Pedestrian outline extraction method and pedestrian outline extraction device
JP2006064653A (en) * 2004-08-30 2006-03-09 Nissan Motor Co Ltd Object detecting device and method
JP2006234682A (en) * 2005-02-25 2006-09-07 Toyota Central Res & Dev Lab Inc Object discriminating device
JP2013257151A (en) * 2012-06-11 2013-12-26 Ricoh Co Ltd Parallax value calculation device and parallax value calculation system including the same, moving surface area recognition system, parallax value calculation method, and program for parallax value calculation
JP2014096185A (en) * 2014-02-07 2014-05-22 Fuji Heavy Ind Ltd Vehicle detection device
KR101464489B1 (en) * 2013-05-24 2014-11-25 모본주식회사 Method and system for detecting an approaching obstacle based on image recognition

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101163042B1 (en) * 2009-11-26 2012-07-05 재단법인대구경북과학기술원 Apparatus and Method for Extracting Vehicle
US8848978B2 (en) * 2011-09-16 2014-09-30 Harman International (China) Holdings Co., Ltd. Fast obstacle detection
JP5947938B1 (en) * 2015-03-06 2016-07-06 ヤマハ発動機株式会社 Obstacle detection device and moving body equipped with the same
KR20160116432A (en) 2015-03-30 2016-10-10 주식회사 만도 Control system for collision avoidance of vehicle and control method of the same

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099997A (en) * 2000-09-26 2002-04-05 Mitsubishi Motors Corp Detection device for moving object
JP2005267030A (en) * 2004-03-17 2005-09-29 Daihatsu Motor Co Ltd Pedestrian outline extraction method and pedestrian outline extraction device
JP2006064653A (en) * 2004-08-30 2006-03-09 Nissan Motor Co Ltd Object detecting device and method
JP2006234682A (en) * 2005-02-25 2006-09-07 Toyota Central Res & Dev Lab Inc Object discriminating device
JP2013257151A (en) * 2012-06-11 2013-12-26 Ricoh Co Ltd Parallax value calculation device and parallax value calculation system including the same, moving surface area recognition system, parallax value calculation method, and program for parallax value calculation
KR101464489B1 (en) * 2013-05-24 2014-11-25 모본주식회사 Method and system for detecting an approaching obstacle based on image recognition
JP2014096185A (en) * 2014-02-07 2014-05-22 Fuji Heavy Ind Ltd Vehicle detection device

Also Published As

Publication number Publication date
KR20180060024A (en) 2018-06-07

Similar Documents

Publication Publication Date Title
JP5870273B2 (en) Object detection apparatus, object detection method, and program
JP5926228B2 (en) Depth detection method and system for autonomous vehicles
JP6299291B2 (en) Road edge detection method and road edge detection device
US10776946B2 (en) Image processing device, object recognizing device, device control system, moving object, image processing method, and computer-readable medium
US10832431B2 (en) Image processing apparatus, object recognition apparatus, equipment control system, image processing method, and computer-readable recording medium
JP2013109760A (en) Target detection method and target detection system
US20150036887A1 (en) Method of determining a ground plane on the basis of a depth image
JP6597795B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP6021689B2 (en) Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program
JP6712775B2 (en) Road surface estimation device, vehicle control device, road surface estimation method, and program
JP2023164425A (en) Three-dimensional point group data generating method
WO2018211930A1 (en) Object detection device, object detection method, and computer-readable recording medium
JP6547841B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP2016152027A (en) Image processing device, image processing method and program
KR101699014B1 (en) Method for detecting object using stereo camera and apparatus thereof
JP6572696B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP6543935B2 (en) PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM
CN110443228B (en) Pedestrian matching method and device, electronic equipment and storage medium
JPWO2016151977A1 (en) MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT
KR101894731B1 (en) System and method for vehicle collision avoidance
US20220410942A1 (en) Apparatus and method for determining lane change of surrounding objects
JP2007233487A (en) Pedestrian detection method, device, and program
JP2021051348A (en) Object distance estimation apparatus and object distance estimation method
JP2020027057A (en) Stereo camera device
KR102660089B1 (en) Method and apparatus for estimating depth of object, and mobile robot using the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant