KR101163042B1 - Apparatus and Method for Extracting Vehicle - Google Patents

Apparatus and Method for Extracting Vehicle Download PDF

Info

Publication number
KR101163042B1
KR101163042B1 KR1020090114985A KR20090114985A KR101163042B1 KR 101163042 B1 KR101163042 B1 KR 101163042B1 KR 1020090114985 A KR1020090114985 A KR 1020090114985A KR 20090114985 A KR20090114985 A KR 20090114985A KR 101163042 B1 KR101163042 B1 KR 101163042B1
Authority
KR
South Korea
Prior art keywords
parallax
map
road
obstacle
vehicle
Prior art date
Application number
KR1020090114985A
Other languages
Korean (ko)
Other versions
KR20110058262A (en
Inventor
이충희
임영철
권순
이종훈
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020090114985A priority Critical patent/KR101163042B1/en
Publication of KR20110058262A publication Critical patent/KR20110058262A/en
Application granted granted Critical
Publication of KR101163042B1 publication Critical patent/KR101163042B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 스테레오 카메라를 이용하여 도로를 촬영한 이미지에 맺힌 물체의 시차 정보를 이용하여 거리 정보를 추출하여 시차맵을 생성하고 상기 시차맵 생성기에 의해 생성한 시차맵으로부터 v-변위맵을 생성하고 생성된 v-변위 맵에서 도로 성분만을 추출하고, 추출된 도로성분을 기준으로 시차맵의 각 행별과 비교하여 장애물을 검출하고 각각의 장애물의 위치를 검출하고 도로접점 여부와 가로/세로 비율, 각각의 장애물의 시차값 대비 크기 중 하나 또는 하나 이상을 계산하여 차량을 검출하는 차량 검출 장치 및 방법을 제공한다.According to the present invention, a parallax map is generated by extracting distance information using parallax information of an object formed on an image photographing a road using a stereo camera, and a v-displacement map is generated from the parallax map generated by the parallax map generator. Only the road components are extracted from the generated v-displacement map, and the obstacles are detected by comparing each row of the parallax map based on the extracted road components, and the position of each obstacle is detected. Provided is a vehicle detection apparatus and method for detecting a vehicle by calculating one or more than one of the magnitudes of parallax values of obstacles.

스테레오, 비전, 시차맵, Stereo, Vision, Parallax Maps,

Description

차량 검출 장치 및 방법{Apparatus and Method for Extracting Vehicle }Apparatus and Method for Extracting Vehicle}

본 발명은 차량 검출 장치 및 방법에 관한 것이다. 더욱 상세하게는, 스테레오 비전을 이용하여 차량을 검출하기 위해 차량 검출 장치 및 방법에 관한 것이다.The present invention relates to a vehicle detection apparatus and method. More particularly, the present invention relates to a vehicle detection apparatus and method for detecting a vehicle using stereo vision.

3차원 공간에서 장애물 위치 결정(Obstacle Localization)은 지능형 차량과 로봇 항법에서 중요한 문제 중 하나이다. 특히, 지능형 차량에서 필수 기능 중 하나인 자동 순항 제어(ACC: Adaptive Cruise Control)와 차선 유지 시스템(LKS: Lane Keeping System)의 구현에서 매우 중요하다. 장애물의 위치를 결정하기 위해서는 카메라, 소나(Sonar), 레이더, 광선 레이더(Lidar)와 같은 다양한 센서들을 이용한다. 최근에는 컴퓨터 성능과 통합 기술(Integration Technology)의 향상으로 데이터 처리 시간이 감소하여, 많은 연구자가 컴퓨터 비전(Computer Vision)을 이용하여 장애물 위치 결정을 수행하고 있다.Obstacle Localization in three-dimensional space is one of the important problems in intelligent vehicle and robot navigation. This is especially important in the implementation of Adaptive Cruise Control (ACC) and Lane Keeping System (LKS), which are one of the essential functions in intelligent vehicles. In order to determine the location of obstacles, various sensors such as cameras, sonar, radar, and ray radar are used. Recently, data processing time has been reduced due to the improvement of computer performance and integration technology, and many researchers are using computer vision to perform obstacle positioning.

컴퓨터 비전은 데이터 처리 시간과 관련된 몇 가지 문제점들이 있지만, 하나의 센서로부터 많은 정보를 이용할 수 있는 사람의 시각과 유사한 많은 장점들이 있다. 최근 모노 비전(Mono Vision)의 많은 문제점을 극복할 수 있는 스테레오 비전(Stereo Vision)이 연구되어 왔다. Computer vision has some problems with data processing time, but there are many advantages that are similar to human vision, where a lot of information is available from a single sensor. Recently, Stereo Vision (Stereo Vision) has been studied to overcome many problems of Mono Vision.

스테레오 비전을 이용하여 장애물을 검출하는 방법에는 v-변위맵(V-disparity map), IPM(Inverse Perspective Mapping), 컬럼 검출(Column detection) 등 여러 가지 방법이 있다. 그러나 이들의 방법은 장애물 자체의 인식성능이 떨어져 특정 장애물만을 검출하는 능력은 거의 없는 문제점이 있었다. Obstacles can be detected using stereo vision, such as a V-disparity map, inverse perspective mapping (IPM), and column detection. However, these methods have a problem in that the recognition performance of the obstacle itself is poor and there is almost no ability to detect only a specific obstacle.

따라서 장애물 검출 결과의 후처리를 통해 특정장애물을 검출한다. 대표적인 후처리로는 뉴럴 네트워크(Neural network) 기반의 인식 기술이 가장 많이 사용되고 있으나, 이는 성능은 좋으나, 대부분 선행학습을 통하여 인식모듈을 학습을 시켜야하는데, 이는 많은 노력과 시간이 필요로 한다. 또한 실제 인식 시에서도 많은 시간을 필요로 함으로써, 실제 적용하기에는 무리가 따른다. Therefore, the specific obstacle is detected through post-processing of the obstacle detection result. Neural network-based recognition technology is most commonly used as a representative post-process. However, it is good in performance, but most of it requires learning the recognition module through prior learning, which requires a lot of effort and time. In addition, the actual recognition requires a lot of time, it is too difficult to apply the actual.

기존의 장애물 검출 방법으로, 먼저 시차맵을 이용하여 장애물을 검출한다. 검출단계에는 인식 성능이 떨어지기 때문에 차량뿐만 아니라, 표지만, 가로수, 도로면 등과 같은 다양한 장애물이 검출된다. 이중에서 특정한 장애물(예, 차량)만을 검출하기 위해서는 검출된 결과에서 후처리를 수행하는데, 보통 데이터베이스 학습기반의 뉴럴네트워크 인식모듈을 사용한다. In the existing obstacle detection method, obstacles are first detected using a parallax map. In the detection step, since the recognition performance is poor, various obstacles such as not only a vehicle but a cover, a roadside road, a road surface, etc. are detected. In order to detect only specific obstacles (eg, vehicles), post-processing is performed on the detected results. Usually, a neural network recognition module based on database learning is used.

그러나 이 방법은 학습 시에도 많은 데이터가 필요할 뿐만 아니라, 많은 시간이 소요되며, 실제 수행 시에도 많은 시간을 필요로 하여 실시간 적용이 어려운 문제점이 있었다.However, this method not only requires a lot of data when learning, but also takes a lot of time, and it requires a lot of time even in actual execution, which makes it difficult to apply in real time.

전술한 문제점을 해결하기 위해 본 발명은, 도로상의 차량을 검출함에 있어 서 주변 장애물과 대비가 되는 특징을 이용하여 차량만을 검출하는 장치 및 방법을 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION In order to solve the above problems, an object of the present invention is to provide an apparatus and method for detecting only a vehicle by using a feature contrasting with surrounding obstacles in detecting a vehicle on a road.

또한, 본 발명은 도로상의 표지판, 가로수, 도로면, 중앙분리대 등과 차량의 특징 및 크기, 위치 등을 고려하여 실시간으로 차량을 검출할 수 있는 장치 및 방법을 제공하는데 다른 목적이 있다.Another object of the present invention is to provide an apparatus and method for detecting a vehicle in real time in consideration of signs, roads, road surfaces, median separators, and the like, and the size and location of the vehicle.

전술한 목적을 달성하기 위해 본 발명은, 스테레오 카메라를 이용하여 도로를 촬영한 이미지에 맺힌 물체의 시차 정보를 이용하여 거리 정보를 추출하여 시차맵을 생성하는 시차맵 생성기; 상기 시차맵 생성기에 의해 생성한 시차맵으로부터 v-변위맵을 생성하는 v-변위맵 생성기; 생성된 v-변위 맵에서 도로 성분만을 추출하고, 추출된 도로성분을 기준으로 시차맵의 각 행별과 비교하여 장애물을 검출하는 컬럼 검출기; 및 각각의 장애물의 위치를 검출하고 도로접점 여부와 가로/세로 비율, 각각의 장애물의 시차값 대비 크기 중 하나 또는 하나 이상을 계산하여 차량을 검출하는 후처리기를 포함하는 차량 검출 장치를 제공한다.In order to achieve the above object, the present invention provides a parallax map generator for generating a parallax map by extracting distance information using parallax information of an object formed on an image of a road using a stereo camera; A v-displacement map generator for generating a v-displacement map from the disparity map generated by the disparity map generator; A column detector extracting only road components from the generated v-displacement map and comparing obstacles with each row of the parallax map based on the extracted road components; And a post-processor for detecting a vehicle by detecting a position of each obstacle and calculating one or more of a road contact point, a horizontal / vertical ratio, and a size compared to a parallax value of each obstacle.

또다른 측면에서 본 발명은, 스테레오 카메라를 이용하여 도로를 촬영한 이미지에 맺힌 물체의 시차 정보를 이용하여 거리 정보를 추출하여 시차맵을 생성하는 시차맵 생성단계; 상기 시차맵 생성단계에서 생성한 시차맵으로부터 v-변위맵을 생성하하는 v-변위맵 생성단계; 생성된 v-변위 맵에서 도로 성분만을 추출하고, 추출된 도로성분을 기준으로 시차맵의 각 행별과 비교하여 장애물을 검출하는 컬럼 검출단계; 및 각각의 장애물의 위치를 검출하고 도로접점 여부와 가로/세로 비율, 각각의 장애물의 시차값 대비 크기 중 하나 또는 하나 이상을 계산하여 차량을 검 출하는 후처리단계를 포함하는 차량 검출 방법을 제공한다.In another aspect, the present invention, a parallax map generation step of generating a parallax map by extracting the distance information using the parallax information of the object formed on the image of the road using a stereo camera; A v-displacement map generation step of generating a v-displacement map from the disparity map generated in the disparity map generation step; A column detection step of extracting only road components from the generated v-displacement map and comparing obstacles with each row of the parallax map based on the extracted road components; And a post-processing step of detecting a location of each obstacle and detecting a vehicle by calculating one or more of a road contact point, a horizontal / vertical ratio, and a size compared to a parallax value of each obstacle. do.

이상에서 설명한 바와 같이 본 발명에 의하면, 도로상의 차량을 검출함에 있어서 주변 장애물과 대비가 되는 특징을 이용하여 차량만을 검출할 수 있는 효과가 있다. As described above, according to the present invention, there is an effect that only the vehicle can be detected by using a feature that contrasts with the surrounding obstacle in detecting the vehicle on the road.

또한, 본 발명에 의하면, 도로상의 표지판, 가로수, 도로면, 중앙분리대 등과 차량의 특징 및 크기, 위치 등을 고려하여 실시간으로 차량을 검출할 수 있는 다른 효과가 있다. In addition, according to the present invention, there is another effect that can detect the vehicle in real time in consideration of the characteristics, size, location, etc. of the sign, roadside, road surface, the central separator and the like on the road.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are assigned to the same components as much as possible even though they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the component of this invention, terms, such as 1st, 2nd, A, B, (a), (b), can be used. These terms are intended to distinguish the constituent elements from other constituent elements, and the terms do not limit the nature, order or order of the constituent elements. If a component is described as being "connected", "coupled" or "connected" to another component, that component may be directly connected or connected to that other component, but between components It will be understood that may be "connected", "coupled" or "connected".

이하에서는 본 발명의 실시예를 설명하는 데 있어서, 영상 내의 임의의 대상이 도로인 것으로 가정한다. 즉, 차량에 탑재된 컴퓨터 비전 시스템이 두 개 이상의 카메라를 이용하여 도로를 촬영하고 촬영된 도로에 대한 이미지에서 장애물을 검출하기 위해 도로의 특징 정보를 추출하는 것을 예를 들어, 본 발명의 실시예를 설명한다. 다만, 이러한 가정은 설명의 편의를 위한 것일 뿐, 본 발명은 영상 내의 임의의 대상으로서 도로뿐만 아니라 인도, 책상, 실내, 운동장 등의 사물이거나 얼굴, 볼, 복부, 다리 등 사람의 신체 일부 등 다양한 형태의 물체일 수 있다.In the following description of an embodiment of the present invention, it is assumed that any object in the image is a road. That is, for example, the computer vision system mounted on a vehicle may photograph a road using two or more cameras and extract feature information of the road to detect an obstacle in an image of the photographed road. Explain. However, these assumptions are merely for convenience of explanation, and the present invention may be any object in the image, as well as roads, objects such as sidewalks, desks, indoors, playgrounds, or various body parts such as faces, cheeks, abdomen, and legs. It may be an object in the form.

도 1은 본 발명의 일실시예에 따른 차량 검출 방법을 설명하기 위한 순서도이다. 1 is a flowchart illustrating a vehicle detection method according to an embodiment of the present invention.

차량 검출 방법은 스테레오 카메라를 이용하여 도로를 촬영한 이미지에 맺힌 물체의 시차 정보를 이용하여 거리 정보를 추출하여 시차맵을 생성하는 시차맵 생성단계(S10); 상기 시차맵 생성단계(S10)에서 생성한 시차맵으로부터 v-변위맵을 생성하하는 v-변위맵 생성단계(S20); 생성된 v-변위 맵에서 도로 성분만을 추출하고, 추출된 도로성분을 기준으로 시차맵의 각 행별과 비교하여 장애물을 검출하는 컬럼 검출단계(S30); 및 각각의 장애물의 위치를 검출하고 도로접점 여부와 가로/세로 비율, 각각의 장애물의 시차값 대비 크기 중 하나 또는 하나 이상을 계산하여 차량을 검출하는 후처리단계(S40)를 포함한다. The vehicle detection method includes a parallax map generation step (S10) of generating distance parallax by extracting distance information using parallax information of an object formed on an image of a road by using a stereo camera; A v-displacement map generation step (S20) of generating a v-displacement map from the disparity map generated in the disparity map generation step (S10); A column detection step (S30) of extracting only road components from the generated v-displacement map and comparing obstacles with each row of the parallax map based on the extracted road components (S30); And a post-processing step (S40) of detecting the position of each obstacle and detecting the vehicle by calculating one or more of a road contact point, a horizontal / vertical ratio, and a size compared to a parallax value of each obstacle.

도 2는 도 1의 차량 검출 방법을 보다 구체화한 차량 검출 방법의 순서도이 다. 도 3 및 도 4은 스테레오 비전 기반의 좌ㆍ우 영상이다. 도 5는 좌ㆍ우 영상으로부터시차맵을 나타낸 예시도이다. 도 6는 많은 장애물이 있는 경우에 대한 v-변위맵을 나타낸 예시도이다.FIG. 2 is a flow chart of a vehicle detection method more embodying the vehicle detection method of FIG. 3 and 4 are stereo vision based left and right images. 5 is an exemplary diagram illustrating a disparity map from left and right images. 6 is an exemplary diagram illustrating a v-displacement map for a case where there are many obstacles.

먼저 스테레오 비전 기반으로 좌ㆍ우 영상을 입력받아서 시차맵을 형성한다(S110). 시차맵을 형성하는 방법에는 여러 가지 방법이 있으며, 시차맵은 거리정보를 밝기 값으로 표현한 것으로서, 가까운 곳은 밝은 값으로, 먼 곳은 어두운 값으로 나타낸다. First, a parallax map is formed by receiving left and right images based on stereo vision (S110). There are various methods of forming a parallax map. A parallax map expresses distance information as a brightness value, and a near point is represented by a bright value and a far point is represented by a dark value.

스테레오 비전 시스템은 좌ㆍ우 2 개의 카메라(즉, 스테레오 카메라)를 이용하여 대상으로서 도로를 촬영한 이미지에 맺힌 물체의 시차 정보를 획득하고, 획득된 시차 정보를 이용하여 거리 정보를 추출하며, 추출된 거리 정보를 그레이값(Gray Value)으로 표현함으로써 시차맵을 생성할 수 있다. The stereo vision system obtains parallax information of an object formed on an image of a road as an object by using two left and right cameras (ie, a stereo camera), extracts distance information by using the acquired parallax information, and extracts the extracted distance information. A parallax map can be generated by expressing the distance information as a gray value.

도 3 및 도 4을 참조하면, 스테레오 비전 기반으로 좌ㆍ우 영상은 일정부분 수평으로 이동되어 있음을 알 수 있다. 이를 이용하여 시차맵을 생성하는 것이다. 도 5는 좌ㆍ우 영상으로부터 시차맵을 생성한 결과로서, 거리별로 밝기 다르게 나타남을 알 수 있다. 거리가 가까운 부분은 밝게, 먼 곳은 어둡게 나타남을 알 수 있다. Referring to FIGS. 3 and 4, it can be seen that the left and right images are partially moved horizontally based on the stereo vision. This is to create a parallax map. FIG. 5 shows a result of generating a parallax map from left and right images, and the brightness is different for each distance. It can be seen that the near distance is bright and the far is dark.

다음으로, 생성한 시차맵으로부터 v-변위맵을 생성한다(S112).Next, a v-displacement map is generated from the generated parallax map (S112).

도 6를 참조하면, 시차맵으로부터 생성된 v-변위맵의 수평축은 시차값(0~255)을 나타내고 수직축은 영상의 수직라인과 동일한 축을 나타낸다. 즉, 시차맵의 수직라인별로 그에 해당하는 수평 라인의 값(시차값)을 누적한다. 그 결과 도 6에 도시한 바와 같이 도로와 같이 평면 성분은 v-변위맵 상에 대각 직선의 형태로 나타나게 되고, 장애물은 v-변위 맵 상에 수직라인형태로 나타나게 된다. Referring to FIG. 6, the horizontal axis of the v-displacement map generated from the parallax map represents the parallax value (0 to 255), and the vertical axis represents the same axis as the vertical line of the image. In other words, the horizontal lines corresponding to the vertical lines of the parallax map (disparity values) are accumulated. As a result, as shown in FIG. 6, the planar component appears as a diagonal line on the v-displacement map, and the obstacle appears as a vertical line on the v-displacement map.

도로와 같은 평면 성분은 수직 라인값이 증가할수록 시차값이 커짐을 알 수 있다. 이는 카메라에 입력되는 영상을 기준으로 볼 때, 수직 라인값이 큰 하단 부분은 거리가 가까운 부분이므로 시차값이 높고, 수직 라인값이 작은 상단 부분은 거리가 먼 부분이므로 시차값이 작다. Planar components such as roads can be seen that the parallax value increases as the vertical line value increases. This is based on the image input to the camera, the lower portion of the large vertical line value is a distance closer to the distance is higher, the parallax value is higher, the lower portion of the vertical line value is far from the distance is smaller parallax value.

그리고 평면 성분은 거리가 점차 변하기 때문에, 도 6에 도시한 바와 같이 대부분 대각 직선으로 나타나고, 장애물은 특정 피크값(Peak Value)을 가지므로 수직 성분으로 나타난다. Since the planar component gradually changes in distance, as shown in FIG. 6, most of the planar components appear as diagonal straight lines, and obstacles appear as vertical components because they have a specific peak value.

다음으로 생성된 v-변위맵의 위에서 기재한 특성을 이용하여 도로 특징 정보를 추출한다(S114).Next, road feature information is extracted using the above-described properties of the generated v-displacement map (S114).

한편 v-변위맵 상에서 직접적으로 장애물을 검출하는 것은 장애물의 수가 많고 도로가 휘어진 경우 오류가 많이 발생하기 때문에, 본 실시예에서는 v-변위맵 상에서 직접적으로 장애물을 검출하지 않고, v-변위맵 상에서는 도로 성분만 추출하고 이 정보를 이용한 컬럼 검출 방법을 수행한다. On the other hand, since detecting an obstacle directly on the v-displacement map generates a large number of obstacles and a lot of errors when the road is bent, the present embodiment does not directly detect an obstacle on the v-displacement map, but on the v-displacement map. Only road components are extracted and a column detection method using this information is performed.

따라서 생성된 v-변위맵에서 도로 성분만을 추출하고, 이를 기준으로 시차맵의 각 행별과 비교함으로써 장애물을 좀 더 강건하게 검출한다(S116).Accordingly, only road components are extracted from the generated v-displacement map, and the obstacles are more robustly detected by comparing the road components with each row of the disparity map (S116).

도 7은 생성된 v-변위맵에서 도로 성분만을 추출하고 이를 기준으로 시차맵의 각 행별과 비교함으로써 장애물을 검출하는 과정을 나타낸 도면들이다.FIG. 7 is a diagram illustrating a process of detecting an obstacle by extracting only a road component from a generated v-displacement map and comparing it with each row of a parallax map based on this.

도 7을 참조하면, 도 7의 중간도면은 도 5와 동일한 시차맵이며, 각 행별로 값을 읽어(파란선) 도로성분과 비교한다. Referring to FIG. 7, the middle view of FIG. 7 is the same parallax map as in FIG. 5, and the values are read for each row (blue line) and compared with the road components.

도 7의 좌측도면은 기준이 되는 도로 성분(붉은 점선)과 시차맵의 임의의 한 행값(파란선)을 v-변위맵 상에 함께 표현한 도면이다. 도 7의 좌측도면에 도시한 바와 같이, 시차맵의 한 행값에서 장애물에 해당되는 성분(A, B)은 기준이 되는 도로성분(붉은점선)보다 값이 크다는 것을 알 수 있다. 이를 이용하여 도로상의 장애물을 검출하는데, 이는 시차맵의 전체 행에서 모두 이루어진다. 7 is a diagram in which a road component (red dotted line) as a reference and an arbitrary row value (blue line) of the parallax map are expressed together on the v-displacement map. As shown in the left figure of FIG. 7, it can be seen that the components A and B corresponding to the obstacles in one row value of the parallax map are larger than the reference road components (red dotted line). This is used to detect obstacles on the road, which is done in all rows of the parallax map.

전체 결과를 보면 도 7의 우측도면에서와 같이 장애물부분만 검출됨을 알 수 있다. 그러나 이는 상기에서 설명한 바와 같이 인식기능이 없으므로 인해서, 도로상의 모든 장애물이 검출됨을 알 수 있다. 여기서 도로면이 검출된 것은 시차맵 상의 에러 등으로 인해 실제 장애물이 아닌 부분도 검출이 될 수 있음을 보인 것이다. Looking at the overall result it can be seen that only the obstacle portion is detected as shown in the right view of FIG. However, this is because there is no recognition function as described above, it can be seen that all obstacles on the road is detected. In this case, the detection of the road surface shows that a part which is not an actual obstacle may be detected due to an error on a parallax map.

상기의 과정을 통하여 검출된 장애물 영역(ROI : Region Of Interest)에서 차량만 검출하기 위하여 후처리를 수행한다(S118). Post-processing is performed to detect only the vehicle in the region of interest (ROI) detected through the above process (S118).

먼저 잡영을 제거하고(S120), 각각의 장애물의 위치를 검출한다(S122). First, the joongyoung is removed (S120), and the position of each obstacle is detected (S122).

그 후 분리된 각각의 장애물 영역 내에서 추가적인 세그멘테이션(segmentation)을 수행한다(S124). 이는 분리된 장애물 영역내에서도 추가적인 분리와 병합을 통하여 좀 더 정확한 장애물 검출을 위함이다. Thereafter, additional segmentation is performed in each of the separated obstacle areas (S124). This is for more accurate obstacle detection through additional separation and merging within the separated obstacle area.

다음으로 최종적으로 검출된 모든 장애물을 대상으로 차량여부를 판단한다.Next, whether or not the vehicle is determined based on all obstacles finally detected.

먼저 차량의 경우 도로면에 접하고 있으므로, 도로 접점여부를 판단한다(S126). 차량이 도로에 접하면, 접점부위에서 시차값은 동일할 것이다. 즉 시차 맵 상에서 장애물의 하단부분의 시차값과 주변의 도로 시차값은 유사할 것이다. First, since the vehicle is in contact with the road surface, it is determined whether the road contact (S126). When the vehicle is in contact with the road, the parallax value at the contact point will be the same. That is, the parallax value of the lower portion of the obstacle on the parallax map will be similar to the parallax value of the surrounding road.

도8은 장애물의 도로 접점 여부를 확인하는 과정을 나타낸 도면들이다.8 is a diagram illustrating a process of checking whether or not an obstacle contacts a road.

도 8을 참조하면, 도 8의 중간도면은 시차맵 상에 추출된 장애물을 나타내었는데, 도로 접점여부를 판단하기 위하여 각각의 장애물의 하단부분 시차값을 읽는다(A1, B1, C1, D1). Referring to FIG. 8, the middle view of FIG. 8 illustrates obstacles extracted on the parallax map, and the parallax value of each lower portion of each obstacle is read to determine whether the road contact point is performed (A1, B1, C1, and D1).

이를 장애물 각각의 주변 도로 시차값과 비교를 하는데, 이를 위하여 v-변위맵 상에서 도로성분 값을 이용한다. 도 8의 좌측도면을 참조하면 각각의 장애물 하단의 시차값 즉, 표지판(A1), 차량(B1), 도로면(C1), 가로수(D1)의 시차값을 그 수직라인에 해당하는 v-변위맵 상에서의 도로 성분값인 A, B, C, D값과 각각 비교하여 그 차이가 적으면 그 장애물은 도로에 접하고 있다고 볼 수 있다. 예를 들어 표지판의 경우 표지판 내 하단부분의 시차값(A1)은 어느 정도의 값을 가지고 있으나, v-변위맵 상에서 그 수직위치에서의 시차값인 A는 0에 가까우므로 그 차이인 abs(A-A1)값은 큰 값이 되므로, 표지판은 도로에 접하고 있지 않다고 판단하는 것이다. 그 결과를 도 8의 우측도면에 나타내었다. 이때 중요한 것은 A1~D1을 읽을 때, 0값은 장애물이 아닌 배경이므로 계산에서 제외한다. This is compared with the parallax value of the road around each obstacle. For this, the road component value is used on the v-displacement map. Referring to the left figure of FIG. 8, the parallax value at the bottom of each obstacle, that is, the parallax value of the sign A1, the vehicle B1, the road surface C1, and the roadside number D1, corresponds to the v-displacement corresponding to the vertical line. When the difference is small compared to the road component values A, B, C, and D on the map, the obstacle is in contact with the road. For example, in the case of a sign, the parallax value A1 at the lower part of the sign has a certain value, but since the parallax value A at the vertical position on the v-displacement map is close to 0, the difference abs (A -A1) is a big value, so the sign determines that you are not on the road. The result is shown in the right figure of FIG. Importantly, when reading A1 ~ D1, 0 value is excluded from calculation because it is background, not obstacle.

또한 분리된 장애물의 가로ㆍ세로 비율을 계산한다(S128). 통상적으로 차량은 가로/세로값은 1~ 2사이값을 가지고 있다. 사람이나 가로수의 경우 그 이상의 값을 가지므로 제거할 수 있다. In addition, the aspect ratio of the separated obstacle is calculated (S128). Typically, the vehicle has a horizontal / vertical value between 1 and 2. People or roadside trees have more values and can be removed.

또한 각각의 장애물의 시차값 대비 크기(화소수)를 계산한다(S130). 시차값이 클수록 근거리에 있으므로 그 장애물의 크기(화소수)는 클 것이고, 시차값이 작 을수록 원거리에 있으므로 그 장애물의 크기(화소수)는 작음을 이용하는 것이다. 즉 차량의 보편적인 거리대비 크기를 이용하여 차량유무를 판단하는 것이다. In addition, the size (number of pixels) of the parallax value of each obstacle is calculated (S130). The larger the parallax value is, the nearer it is, so the size of the obstacle is larger, and the smaller the parallax value is, the farther it is, so the size of the obstacle is smaller. In other words, the presence or absence of a vehicle is determined using the general distance-to-distance of the vehicle.

S126 및 S128, S130의 3단계를 이용하여 검출된 모든 장애물을 대상으로 차량여부를 판단한다(S132).It is determined whether the vehicle targets all obstacles detected using the three steps S126, S128, and S130 (S132).

S126 및 S128, S130의 3단계를 이용하여 차량으로 인정되는 장애물에 대하여 추가적인 확인과정을 거친다. 시차맵의 에러로 인해서 검출되는 도로면이나, 중앙분리대와 같은 장애물은 도로에도 접하고 있으며, 그 비율이나, 크기등이 차량과 유사할 수 있다. Further checks are made for obstacles that are recognized as vehicles using the three steps of S126, S128 and S130. Obstacles such as road surfaces or median separators detected by errors in the parallax maps are also in contact with the roads, and their proportions and sizes may be similar to vehicles.

이를 제거하기 위하여 텍스쳐와 대칭성 정보를 계산한다(S134). 먼저 대칭성을 보면 차량은 후면에서 봤을 때, 좌우가 거의 대칭인 특징이 있으므로 이를 이용하는 것이다. 그리고 차량은 그레이 영상으로 살펴보면, 그 내부에서 영상값의 변화가 심하다. 이와 같을 경우 콘트라스트(contrast), 엔트로피(entropy), 비유사성값(dissimilarity)이 높게 나타나고, 동질성값(homogeneity)등은 낮게 나타난다. To remove this, texture and symmetry information are calculated (S134). First, the symmetry shows that the vehicle has a characteristic of being almost symmetrical when viewed from the rear. When the vehicle is viewed as a gray image, there is a significant change in the image value therein. In this case, contrast, entropy, dissimilarity are high, and homogeneity is low.

그러나, 도로면이나, 중앙분리대와 같은 장애물은 그 그레이 영상 내에서 영상값의 변화가 거의 없어 콘트라스트(contrast), 엔트로피(entropy), 비유사성값(dissimilarity)과 같은 상기 값들은 낮게 나타나고, 동질성값(homogeneity)등은 높게 나타난다. 즉 텍스쳐 정보를 이용하면 차량을 좀 더 정확하게 검출할수 있다. 그러나 관심영역(ROI) 내에서 원하는 장애물 외에 배경이 있을 경우, 텍스쳐 계산이 에러 요인이 될 수 있다. However, obstacles such as road surfaces or median have little change in image values within the gray image, resulting in low values such as contrast, entropy, dissimilarity, and homogeneity values. Homogeneity is high. In other words, by using the texture information, the vehicle can be detected more accurately. However, if there is a background other than a desired obstacle in the ROI, texture calculation may be an error factor.

따라서 본 실시예에서는 배경을 제외한 장애물만을 이용하여 텍스쳐를 계산 함으로써 신뢰성을 향상시킨다. Therefore, in this embodiment, reliability is improved by calculating the texture using only obstacles excluding the background.

도 9는 텍스쳐/대칭성 계산을 통한 차량을 검출하는 과정을 나타낸 도면들이다.9 is a diagram illustrating a process of detecting a vehicle through texture / symmetry calculation.

도 9을 참조하면, 도 9의 (a)는 시차맵 상 장애물의 추출 결과인데, 배경이 분리된(0값) 결과이다. 도 9의 (b)는 그레이 영상에서 장애물이 검출된 결과인데, 배경이 분리되지는 않았다. 도 9의 (c)는 도 9의 (a)와 도 9의 (b)를 이용하여 생성한 결과로서 그레이 영상에서 배경이 분리된 결과이다. Referring to FIG. 9, (a) of FIG. 9 is an extraction result of an obstacle on a parallax map, and a background is separated (zero value). 9B illustrates a result of detecting an obstacle in a gray image, but the background is not separated. FIG. 9C is a result generated by using FIGS. 9A and 9B, and shows a result of separating a background from a gray image.

이를 이용하여 텍스쳐를 계산하면 좀더 정확한 값을 얻을 수 있으며, 이는 곧 검출성능의 향상으로 이어진다. 물론 이 과정에서 0값은 장애물이 아닌 배경이므로 계산에서 제외하였다. 도 9의 (d)는 대칭성 및 텍스쳐 계산을 통하여 검출된 최종 차량 검출 결과이다. By calculating the texture using this, a more accurate value can be obtained, which leads to an improvement in detection performance. Of course, in this process, the value of zero is excluded from the calculation because it is a background, not an obstacle. 9 (d) shows the final vehicle detection result detected through symmetry and texture calculation.

최종적으로 원하는 장애물체 여부를 판단하여(S136), 차량만을 검출한다(S138). Finally, it is determined whether or not the desired obstacle (S136), only the vehicle is detected (S138).

도 10은 제안된 최종 차량 검출 결과로서 기타 장애물이 제거되고, 차량만 적절하게 검출된 결과를 나타낸다. FIG. 10 shows a result of removing other obstacles as a result of the proposed final vehicle detection and properly detecting only the vehicle.

도 11은 본 발명의 다른 실시예에 따른 장애물 검출 장치를 간략하게 나타낸 블록 구성도이다.11 is a block diagram schematically illustrating an obstacle detecting apparatus according to another embodiment of the present invention.

본 발명의 일 실시예에 따른 장애물 검출 장치(1000)는 시차맵 생성기(1010), v-변위맵 생성기(1020), 컬럼 검출기(1030) 및 후처리기(1040)를 포함할 수 있다. The obstacle detecting apparatus 1000 according to the exemplary embodiment may include a parallax map generator 1010, a v-displacement map generator 1020, a column detector 1030, and a post processor 1040.

이러한 장애물 검출 장치(1000)는 컴퓨터 비전 시스템(Computer Vision System)이나 컴퓨터 비전 시스템 내의 영상 처리 장치로 구현될 수 있다. 이러한 컴퓨터 비전 시스템 또는 영상 처리 장치는 데이터 또는 명령어를 입력받는 키보드, 마우스 등과 같은 입력 장치, 데이터를 출력하는 모니터, 프린터, 액정 화면과 같은 출력 장치, 영상을 처리하기 위한 데이터 또는 프로그램을 저장하는 메모리, 입력되는 데이터 또는 명령어나 메모리에 저장된 데이터를 이용하여 메모리에 저장된 프로그램의 알고리즘에 따라 영상을 처리하는 마이크로프로세서 등을 구비할 수 있다.The obstacle detecting apparatus 1000 may be implemented as a computer vision system or an image processing apparatus in a computer vision system. Such a computer vision system or image processing apparatus includes an input device such as a keyboard or a mouse that receives data or commands, a monitor for outputting data, a printer, an output device such as a liquid crystal display, and a memory for storing data or a program for processing an image. The apparatus may include a microprocessor for processing an image according to an algorithm of a program stored in a memory by using input data or instructions or data stored in a memory.

시차맵 생성기(1010)는 좌ㆍ우 2 개의 카메라(즉, 스테레오 카메라)를 이용하여 대상으로서 도로를 촬영한 이미지에 맺힌 물체의 시차 정보를 획득하고, 획득된 시차 정보를 이용하여 거리 정보를 추출하며, 추출된 거리 정보를 그레이값(Gray Value)으로 표현함으로써 시차맵을 생성할 수 있다. The parallax map generator 1010 acquires parallax information of an object formed on an image photographing a road as an object using two left and right cameras (ie, a stereo camera), and extracts distance information using the obtained parallax information. The parallax map may be generated by expressing the extracted distance information as a gray value.

v-변위맵 생성기(1020)는 시차맵 생성기(1010)에 의해 생성한 시차맵으로부터 v-변위맵을 생성한다. v-변위맵 생성기(1020)는 수평축으로 시차값(0~255)을 나타내고 시차맵의 수직라인별로 그에 해당하는 수평 라인의 값(시차값)을 누적한다. 그 결과 도 6에 도시한 바와 같이 도로와 같이 평면 성분은 v-변위맵 상에 대각 직선의 형태로 나타나게 되고, 장애물은 v-변위 맵 상에 수직라인형태로 나타나게 된다. The v-displacement map generator 1020 generates a v-displacement map from the disparity map generated by the disparity map generator 1010. The v-displacement map generator 1020 represents a parallax value (0 to 255) on the horizontal axis and accumulates the horizontal line value (disparity value) corresponding to each vertical line of the parallax map. As a result, as shown in FIG. 6, the planar component appears as a diagonal line on the v-displacement map, and the obstacle appears as a vertical line on the v-displacement map.

도 5에 도시한 시차맵에서 도로와 같은 평면은 거리가 점차 멀어지므로 그 밝기값이 일정하게 감소한다. 그 평면상에 장애물이 놓이면, 평면과 달리 그 장애물로 인해 장애물 부분의 밝기값이 증가하는 현상이 발생한다. 따라서, 이러한 시차맵 상의 현상을 이용하여 장애물을 검출할 수 있다.In the parallax map shown in FIG. 5, the plane such as a road gradually decreases in distance so that its brightness is constantly reduced. If an obstacle is placed on the plane, unlike the plane, the phenomenon that the brightness value of the obstacle portion increases due to the obstacle. Therefore, the obstacle can be detected using the phenomenon on the parallax map.

컬럼 검출기(130)는 생성된 v-변위 맵에서 도로 성분만을 추출하고, 이를 기준으로 시차맵의 각 행별과 비교함으로써 장애물을 검출하였다.The column detector 130 detects obstacles by extracting only road components from the generated v-displacement map and comparing them with each row of the disparity map.

도 11 및 도 7의 (a)를 참조하면, 컬럼 검출기(1030)는 시차맵의 한 행값에서 장애물에 해당되는 성분(A, B)은 기준이 되는 도로성분(붉은점선)보다 값이 큰 것을 이용하여 도로상의 장애물을 검출한다. 위에서 설명한 바와 같이 도 7의 (c)는 컬럼 컴출기(1030)에 의해 같이 장애물부분만 검출한 결과이다.Referring to FIGS. 11 and 7 (a), the column detector 1030 indicates that the components A and B corresponding to the obstacles in one row of the parallax map have a larger value than the reference road component (red dotted line). To detect obstacles on the road. As described above, FIG. 7C illustrates a result of detecting only an obstacle portion by the column extractor 1030.

후처리기(1040)는 검출된 장애물 영역(ROI : Region Of Interest)에서 차량만 검출하기 위하여 후처리를 수행한다. 후처리기(1040)는 먼저 잡영을 제거하고, 각각의 장애물의 위치를 검출한다. 후처리기(1040)는 그 후 분리된 각각의 장애물 영역 내에서 추가적인 세그멘테이션(segmentation)을 수행한다. The post-processor 1040 performs post-processing to detect only the vehicle in the detected region of interest (ROI). The post processor 1040 first removes the ghosting and detects the position of each obstacle. Post-processor 1040 then performs additional segmentation within each of the separated obstacle regions.

다음으로 후처리기(1040)는 최종적으로 검출된 모든 장애물을 대상으로 차량여부를 판단한다. 후처리기(1040)는 도로접점 여부와 가로/세로 비율, 각각의 장애물의 시차값 대비 크기를 각각 계산하고, 차량으로 인정되는 장애물에 대하여 추가적인 확인과정을 수행한다. 도 8의 우측도면은 도로접점 여부 판단을 통한 장애물을 제거한 결과를 나타내고 있다.Next, the post-processor 1040 determines whether the vehicle targets all the obstacles finally detected. The post-processor 1040 calculates the road contact status, the ratio of the width / length, and the disparity value of each obstacle, and performs an additional checking process on the obstacles recognized as vehicles. 8 shows the result of removing the obstacle through the road contact determination.

후처리기(1040)는 시차맵의 에러로 인해서 검출되는 도로면이나 도로에 접한 중앙분리대와 같은 장애물을 제거하기 위하여 텍스쳐와 대칭성 정보를 이용한다. 대칭성은 후면에서 봤을 때 차량의 좌우의 대칭성을 이용하고, 차량의 그레이 영상 내에서 영상값의 변화가 거의 없어 콘트라스트(contrast), 엔트로피(entropy), 비유사성값(dissimilarity)과 같은 상기 값들은 낮고 동질성값(homogeneity)등은 높은 텍스쳐 정보를 이용하여, 차량을 좀 더 정확하게 검출할 수 있다. 이때 배경을 제외한 장애물만을 이용하여 텍스쳐를 계산함으로써 신뢰성을 향상시킬 수 있다. 도 9의 (d)는 대칭성 및 텍스쳐 계산을 통하여 검출된 최종 차량 검출 결과이다. The post-processor 1040 uses texture and symmetry information to remove obstacles such as road surfaces or central separators that are detected due to errors in the parallax map. Symmetry uses the symmetry of the vehicle left and right when viewed from the rear, and there is little change in the image value in the gray image of the vehicle, such that the values such as contrast, entropy and dissimilarity are low. Homogeneity and the like can more accurately detect a vehicle using high texture information. In this case, the reliability can be improved by calculating the texture using only obstacles excluding the background. 9 (d) shows the final vehicle detection result detected through symmetry and texture calculation.

도 10은 제안된 최종 차량 검출 결과로서 기타 장애물이 제거되고, 차량만 적절하게 검출된 결과를 나타낸다. FIG. 10 shows a result of removing other obstacles as a result of the proposed final vehicle detection and properly detecting only the vehicle.

또한, 도 11에는 도시하지 않았지만, 차량 검출 장치(1000)는 스테레오 비전 시스템과 연결되지 않거나 외부로부터 시차맵이 입력되지 않는 경우, 대상 즉, 도로를 촬영하는 촬영기와 촬영된 이미지의 물체에 대한 시차 정보로부터 거리 정보를 추출하여 시차맵을 생성하는 스테레오 정합기를 추가로 포함할 수도 있다.In addition, although not shown in FIG. 11, when the vehicle detection apparatus 1000 is not connected to the stereo vision system or a parallax map is not input from the outside, the vehicle detection apparatus 1000 may disparity the object, that is, a camera photographing a road and an object of a photographed image. The apparatus may further include a stereo matcher which extracts distance information from the information to generate a parallax map.

위에서 설명한 실시예들에 의하면, 도로상의 차량을 검출함에 있어서 주변 장애물과 대비가 되는 특징을 이용하여 차량만을 검출하고 도로상의 표지판, 가로수, 도로면, 중앙분리대 등과 차량의 특징 및 크기, 위치 등을 고려하여 실시간으로 차량을 검출할 수 있다.According to the embodiments described above, in detecting a vehicle on the road, only the vehicle is detected by using a feature that contrasts with surrounding obstacles, and features, sizes, locations, etc. of signs, roads, road surfaces, median separators, and the like on the road are detected. In consideration of this, the vehicle can be detected in real time.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구 성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. In other words, within the scope of the present invention, all of the components may be selectively operated in combination with one or more. In addition, although all of the components may be implemented in one independent hardware, a program in which some or all of each component is selectively combined to perform some or all functions combined in one or a plurality of hardware. It may be implemented as a computer program having a module. Codes and code segments constituting the computer program may be easily inferred by those skilled in the art. Such a computer program may be stored in a computer readable storage medium and read and executed by a computer, thereby implementing embodiments of the present invention. The storage medium of the computer program may include a magnetic recording medium, an optical recording medium, a carrier wave medium, and the like.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Furthermore, the terms "comprises", "comprising", or "having" described above mean that a component can be implanted unless otherwise specifically stated, But should be construed as including other elements. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Terms used generally, such as terms defined in a dictionary, should be interpreted to coincide with the contextual meaning of the related art, and shall not be interpreted in an ideal or excessively formal sense unless explicitly defined in the present invention.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질 적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The description above is merely illustrative of the technical idea of the present invention and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.

도 1은 본 발명의 일실시예에 따른 차량 검출 방법을 설명하기 위한 순서도이다. 1 is a flowchart illustrating a vehicle detection method according to an embodiment of the present invention.

도 2는 도 1의 차량 검출 방법을 보다 구체화한 차량 검출 방법의 순서도이다. FIG. 2 is a flowchart of a vehicle detection method in which the vehicle detection method of FIG. 1 is further embodied.

도 3 및 도 4은 스테레오 비전 기반의 좌ㆍ우 영상이다. 3 and 4 are stereo vision based left and right images.

도 5는 좌ㆍ우 영상으로부터 시차맵을 나타낸 예시도이다. 5 is an exemplary diagram illustrating a parallax map from left and right images.

도 6는 많은 장애물이 있는 경우에 대한 v-변위맵을 나타낸 예시도이다.6 is an exemplary diagram illustrating a v-displacement map for a case where there are many obstacles.

도 7은 생성된 v-변위맵에서 도로 성분만을 추출하고 이를 기준으로 시차맵의 각 행별과 비교함으로써 장애물을 검출하는데 사용되는 도면들이다.FIG. 7 is a diagram used to detect an obstacle by extracting only road components from the generated v-displacement map and comparing them with each row of the parallax map based on the extracted road components.

도 7은 생성된 v-변위맵에서 도로 성분만을 추출하고 이를 기준으로 시차맵의 각 행별과 비교함으로써 장애물을 검출하는 과정을 나타낸 도면들이다.FIG. 7 is a diagram illustrating a process of detecting an obstacle by extracting only a road component from a generated v-displacement map and comparing it with each row of a parallax map based on this.

도8은 장애물의 도로 접점 여부를 확인하는 과정을 나타낸 도면들이다.8 is a diagram illustrating a process of checking whether or not an obstacle contacts a road.

도 9는 텍스쳐/대칭성 계산을 통한 차량을 검출하는 과정을 나타낸 도면들이다.9 is a diagram illustrating a process of detecting a vehicle through texture / symmetry calculation.

도 10은 제안된 최종 차량 검출 결과로서 기타 장애물이 제거되고, 차량만 적절하게 검출된 결과를 나타낸다. FIG. 10 shows a result of removing other obstacles as a result of the proposed final vehicle detection and properly detecting only the vehicle.

도 11은 본 발명의 다른 실시예에 따른 장애물 검출 장치를 간략하게 나타낸 블록 구성도이다.11 is a block diagram schematically illustrating an obstacle detecting apparatus according to another embodiment of the present invention.

Claims (8)

스테레오 카메라를 이용하여 도로를 촬영한 이미지에 맺힌 물체의 시차 정보를 이용하여 거리 정보를 추출하여 시차맵을 생성하는 시차맵 생성기; A parallax map generator for generating a parallax map by extracting distance information by using parallax information of an object formed on an image of a road photographed using a stereo camera; 상기 시차맵 생성기에 의해 생성한 시차맵으로부터 v-변위맵을 생성하는 v-변위맵 생성기;A v-displacement map generator for generating a v-displacement map from the disparity map generated by the disparity map generator; 생성된 v-변위 맵에서 도로 성분만을 추출하고, 추출된 도로성분을 기준으로 시차맵의 각 행별과 비교하여 장애물을 검출하는 컬럼 검출기; 및 A column detector extracting only road components from the generated v-displacement map and comparing obstacles with each row of the parallax map based on the extracted road components; And 각각의 장애물의 위치를 검출하고 도로접점 여부와 가로/세로 비율, 각각의 장애물의 시차값 대비 크기 중 하나 또는 하나 이상을 계산하여 차량을 검출하는 후처리기를 포함하는 차량 검출 장치.And a post-processor for detecting a vehicle by detecting a location of each obstacle and calculating one or more of a road contact point, a horizontal / vertical ratio, and a size relative to a parallax value of each obstacle. 제 1 항에 있어서, The method of claim 1, 상기 후처리기는 대칭성정보 또는 텍스쳐 정보 중 하나 또는 하나 이상을 추가로 계산하여 차량을 검출하는 것을 특징으로 하는 차량 검출 장치.The post processor detects the vehicle by further calculating one or more of symmetry information or texture information. 제 2 항에 있어서, The method of claim 2, 상기 텍스쳐 정보는 콘트라스트(contrast), 엔트로피(entropy), 비유사성값(dissimilarity), 동질성값(homogeneity) 중 하나 또는 하나 이상인 것을 특징으로 하는 차량 검출 장치.And the texture information is one or more of contrast, entropy, dissimilarity, and homogeneity. 제 3 항에 있어서, The method of claim 3, wherein 상기 후처리기는 배경을 제외한 장애물만을 이용하여 텍스쳐를 계산하는 것을 특징으로 하는 차량 검출 장치.The post processor calculates a texture using only obstacles excluding a background. 스테레오 카메라를 이용하여 도로를 촬영한 이미지에 맺힌 물체의 시차 정보를 이용하여 거리 정보를 추출하여 시차맵을 생성하는 시차맵 생성단계; Generating a parallax map by extracting distance information by using parallax information of an object formed on an image of a road by using a stereo camera; 상기 시차맵 생성단계에서 생성한 시차맵으로부터 v-변위맵을 생성하하는 v-변위맵 생성단계;A v-displacement map generation step of generating a v-displacement map from the disparity map generated in the disparity map generation step; 생성된 v-변위 맵에서 도로 성분만을 추출하고, 추출된 도로성분을 기준으로 시차맵의 각 행별과 비교하여 장애물을 검출하는 컬럼 검출단계; 및 A column detection step of extracting only road components from the generated v-displacement map and comparing obstacles with each row of the parallax map based on the extracted road components; And 각각의 장애물의 위치를 검출하고 도로접점 여부와 가로/세로 비율, 각각의 장애물의 시차값 대비 크기 중 하나 또는 하나 이상을 계산하여 차량을 검출하는 후처리단계를 포함하는 차량 검출 방법.And a post-processing step of detecting a vehicle by detecting a location of each obstacle and calculating one or more of a road contact point, a horizontal / vertical ratio, and a size relative to a parallax value of each obstacle. 제 5 항에 있어서, 6. The method of claim 5, 상기 후처리단계는 대칭성정보 또는 텍스쳐 정보 중 하나 또는 하나 이상을 추가로 계산하여 차량을 검출하는 것을 특징으로 하는 차량 검출 방법.The post-processing step is a vehicle detection method, characterized in that for detecting the vehicle by further calculating one or more of the symmetry information or texture information. 제 6 항에 있어서, The method of claim 6, 상기 텍스쳐 정보는 콘트라스트(contrast), 엔트로피(entropy), 비유사성값(dissimilarity), 동질성값(homogeneity) 중 하나 또는 하나 이상인 것을 특징으로 하는 차량 검출 방법.And the texture information is one or more of contrast, entropy, dissimilarity, and homogeneity. 제 7 항에 있어서, The method of claim 7, wherein 상기 후처리단계는 배경을 제외한 장애물만을 이용하여 텍스쳐를 계산하는 것을 특징으로 하는 차량 검출 방법.The post-processing step is a vehicle detection method, characterized in that for calculating the texture using only obstacles excluding the background.
KR1020090114985A 2009-11-26 2009-11-26 Apparatus and Method for Extracting Vehicle KR101163042B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090114985A KR101163042B1 (en) 2009-11-26 2009-11-26 Apparatus and Method for Extracting Vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090114985A KR101163042B1 (en) 2009-11-26 2009-11-26 Apparatus and Method for Extracting Vehicle

Publications (2)

Publication Number Publication Date
KR20110058262A KR20110058262A (en) 2011-06-01
KR101163042B1 true KR101163042B1 (en) 2012-07-05

Family

ID=44393785

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090114985A KR101163042B1 (en) 2009-11-26 2009-11-26 Apparatus and Method for Extracting Vehicle

Country Status (1)

Country Link
KR (1) KR101163042B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015093823A1 (en) * 2013-12-16 2015-06-25 엘지전자 주식회사 Vehicle driving assistance device and vehicle equipped with same
WO2015099463A1 (en) * 2013-12-24 2015-07-02 엘지전자 주식회사 Vehicle driving assist device and vehicle having same
WO2015099465A1 (en) * 2013-12-24 2015-07-02 엘지전자 주식회사 Vehicle driving aid device and vehicle having same
US9524557B2 (en) 2013-12-24 2016-12-20 Hyundai Motor Company Vehicle detecting method and system
WO2017119557A1 (en) * 2016-01-04 2017-07-13 엘지전자 주식회사 Driving assistance device and control method therefor

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101285106B1 (en) * 2011-11-16 2013-07-17 재단법인대구경북과학기술원 Obstacle detection method using image data fusion and apparatus
CN103123722B (en) * 2011-11-18 2016-04-27 株式会社理光 Road object detection method and system
KR101362462B1 (en) * 2012-07-16 2014-02-12 한양대학교 산학협력단 Apparatus and method for detecting an obstacle using stereo cameras
KR101452628B1 (en) * 2013-04-16 2014-10-23 한양대학교 산학협력단 Method for detecting critical area for pedestrian protection system and apparatus therefor
KR101894731B1 (en) * 2016-11-28 2018-09-04 동국대학교 산학협력단 System and method for vehicle collision avoidance

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100411875B1 (en) 2001-06-15 2003-12-24 한국전자통신연구원 Method for Stereo Image Disparity Map Fusion And Method for Display 3-Dimension Image By Using it
KR100882670B1 (en) 2007-12-06 2009-02-06 현대자동차주식회사 System for sensing the obstacle for vehicle
KR100929689B1 (en) 2008-09-08 2009-12-03 재단법인대구경북과학기술원 Traffic accident record apparatus using stereo image information and controlling method for the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100411875B1 (en) 2001-06-15 2003-12-24 한국전자통신연구원 Method for Stereo Image Disparity Map Fusion And Method for Display 3-Dimension Image By Using it
KR100882670B1 (en) 2007-12-06 2009-02-06 현대자동차주식회사 System for sensing the obstacle for vehicle
KR100929689B1 (en) 2008-09-08 2009-12-03 재단법인대구경북과학기술원 Traffic accident record apparatus using stereo image information and controlling method for the same

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015093823A1 (en) * 2013-12-16 2015-06-25 엘지전자 주식회사 Vehicle driving assistance device and vehicle equipped with same
WO2015099463A1 (en) * 2013-12-24 2015-07-02 엘지전자 주식회사 Vehicle driving assist device and vehicle having same
WO2015099465A1 (en) * 2013-12-24 2015-07-02 엘지전자 주식회사 Vehicle driving aid device and vehicle having same
KR20150074750A (en) * 2013-12-24 2015-07-02 엘지전자 주식회사 Driver assistance apparatus and Vehicle including the same
KR20150074752A (en) * 2013-12-24 2015-07-02 엘지전자 주식회사 Driver assistance apparatus and Vehicle including the same
KR101582572B1 (en) 2013-12-24 2016-01-11 엘지전자 주식회사 Driver assistance apparatus and Vehicle including the same
KR101632179B1 (en) * 2013-12-24 2016-07-01 엘지전자 주식회사 Driver assistance apparatus and Vehicle including the same
CN105916750A (en) * 2013-12-24 2016-08-31 Lg电子株式会社 Vehicle driving aid device and vehicle having same
US9524557B2 (en) 2013-12-24 2016-12-20 Hyundai Motor Company Vehicle detecting method and system
US10055650B2 (en) 2013-12-24 2018-08-21 Lg Electronics Inc. Vehicle driving assistance device and vehicle having the same
WO2017119557A1 (en) * 2016-01-04 2017-07-13 엘지전자 주식회사 Driving assistance device and control method therefor
KR101768500B1 (en) * 2016-01-04 2017-08-17 엘지전자 주식회사 Drive assistance apparatus and method for controlling the same

Also Published As

Publication number Publication date
KR20110058262A (en) 2011-06-01

Similar Documents

Publication Publication Date Title
KR101163042B1 (en) Apparatus and Method for Extracting Vehicle
Zaarane et al. Distance measurement system for autonomous vehicles using stereo camera
CN109271944B (en) Obstacle detection method, obstacle detection device, electronic apparatus, vehicle, and storage medium
RU2568777C2 (en) Device to detect moving bodies and system to detect moving bodies
US20160104047A1 (en) Image recognition system for a vehicle and corresponding method
CN110826499A (en) Object space parameter detection method and device, electronic equipment and storage medium
KR101551026B1 (en) Method of tracking vehicle
CN110443225A (en) Virtual and real lane line identification method and device based on feature pixel statistics
WO2020154990A1 (en) Target object motion state detection method and device, and storage medium
US10984263B2 (en) Detection and validation of objects from sequential images of a camera by using homographies
Liu et al. Vehicle detection and ranging using two different focal length cameras
CN114419098A (en) Moving target trajectory prediction method and device based on visual transformation
CN111539907A (en) Image processing method and device for target detection
CN113408324A (en) Target detection method, device and system and advanced driving assistance system
CN115327572A (en) Method for detecting obstacle in front of vehicle
CN113971801A (en) Target multi-dimensional detection method based on four-type multi-modal data fusion
JP2005156199A (en) Vehicle detection method and vehicle detector
CN112529011A (en) Target detection method and related device
KR101032660B1 (en) Method for extracting obstacle
KR102003387B1 (en) Method for detecting and locating traffic participants using bird's-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program
Soquet et al. Free space estimation for autonomous navigation
Xiong et al. A 3d estimation of structural road surface based on lane-line information
Huang et al. Rear obstacle warning for reverse driving using stereo vision techniques
Du et al. Validation of vehicle detection and distance measurement method using virtual vehicle approach
KR20130052405A (en) Obstacle detection and division method using stereo vision and apparatus for performing the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150623

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160419

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170328

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180406

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190325

Year of fee payment: 8