KR101464489B1 - Method and system for detecting an approaching obstacle based on image recognition - Google Patents

Method and system for detecting an approaching obstacle based on image recognition Download PDF

Info

Publication number
KR101464489B1
KR101464489B1 KR20130058829A KR20130058829A KR101464489B1 KR 101464489 B1 KR101464489 B1 KR 101464489B1 KR 20130058829 A KR20130058829 A KR 20130058829A KR 20130058829 A KR20130058829 A KR 20130058829A KR 101464489 B1 KR101464489 B1 KR 101464489B1
Authority
KR
South Korea
Prior art keywords
obstacle
image
vehicle
boundary
road
Prior art date
Application number
KR20130058829A
Other languages
Korean (ko)
Inventor
반재민
Original Assignee
모본주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모본주식회사 filed Critical 모본주식회사
Priority to KR20130058829A priority Critical patent/KR101464489B1/en
Application granted granted Critical
Publication of KR101464489B1 publication Critical patent/KR101464489B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a method and a system for detecting an obstacle approaching a vehicle based on image recognition. According to the present invention, input images can be accurately read and the obstacle can be detected even when only a single pantoscopic camera of an around-view system is used. The method for detecting an obstacle approaching a vehicle based on image recognition according to the present invention includes a first step for correcting a radial distortion in an image that is captured by a camera of a vehicle; a second step for setting an area of the corrected image where a vehicle collision risk is present as an attention area; a third step for extracting a road sign in at least the attention area and performing weakening processing thereon; a fourth step for extracting a boundary (hereinafter, referred to as an ″obstacle lower end boundary″) between a lower end of the obstacle and a ground surface in the image in which the road sign is weakening-processed; a fifth step for detecting an obstacle having a movement (hereinafter, referred to as a ″moving obstacle″) by using the obstacle lower end boundary; a sixth step for determining whether a lower end boundary of the moving obstacle intrudes into the attention area; and a seventh step for issuing a warning event when the intrusion is considered to occur as a result of the determination in the sixth step.

Description

영상 인식 기반의 차량 접근 장애물 감지 방법 및 시스템{METHOD AND SYSTEM FOR DETECTING AN APPROACHING OBSTACLE BASED ON IMAGE RECOGNITION}[0001] METHOD AND SYSTEM FOR DETECTING AN APPROACHING OBSTACLE BASED ON IMAGE RECOGNITION [0002]

본 발명은 차량 접근 장애물 감지 방법 및 시스템에 관한 것으로서, 보다 상세하게는 차량에 설치된 카메라(특히, 어라운드 뷰)를 통해 촬영된 영상을 판독하여 차량에 접근하는 장애물을 검출하고 이를 운전자에게 알려줄 수 있는 영상 인식 기반의 차량 접근 장애물 감지 방법 및 시스템에 관한 것이다.
The present invention relates to a method and system for detecting a vehicle obstacle, and more particularly, to a method and system for detecting an obstacle approaching a vehicle by reading an image captured through a camera (in particular, And more particularly, to a method and system for detecting vehicle access obstacles based on image recognition.

차량 주변에는 다양한 형태의 장애물이 존재하며 이와 같은 잠재적인 충돌 가능성을 가진 위험 요소로부터 보호 받기 위하여 장애물 검출을 시도한다.Various types of obstacles exist around the vehicle and attempt to detect obstacles to protect them from potential risk factors.

일반적으로 차량 접근 장애물 감지 장치 내지 시스템은 초음파, 레이저 등의 센서를 통해 차량과 매우 근접한 거리에 있는 장애물을 탐지하고 이를 운전자에게 알려주도록 구성된다.2. Description of the Related Art In general, a vehicle access obstacle sensing device or system detects an obstacle at a very close distance from a vehicle through a sensor such as an ultrasonic wave or a laser, and informs the driver of the obstacle.

그런데, 이처럼 초음파 내지 레이저 센서 대신 차량에 설치된 카메라를 통해 촬영된 영상을 이용하여 차량 접근 장애물을 감지하기 위해서는 상기의 센서와는 다른 방법이 필요하게 된다.However, in order to detect a vehicle access obstacle by using an image captured through a camera installed in a vehicle instead of the ultrasonic sensor or the laser sensor, a method different from the above sensor is required.

카메라 기반의 장애물 검출은 초음파나 레이저 센서와 다르게 장애물 유무의 감지뿐 아니라 장애물에 대한 세부 정보를 제공할 수 있다.Camera-based obstacle detection can provide details about obstacles as well as detection of obstacles as opposed to ultrasonic or laser sensors.

특히 카메라가 어라운드 뷰(Around View) 시스템일 경우 이러한 어라운드 뷰 시스템은 넓은 시야를 확보할 수 있는 광각 카메라를 사용하는 것이 일반적이다.In particular, when the camera is an Around View system, it is common to use a wide angle camera capable of securing a wide field of view.

그런데, 광각 카메라는 볼록 렌즈의 굴절률에 의하여 왜곡 정도가 결정되는 방사 왜곡이 필연적으로 발생하게 되고, 이에 따라 표시 영상의 시각적인 왜곡은 물론 이미지 처리 장치(즉, 영상인식 처리부)의 이미지 인식에 심각한 오차를 야기할 수 있다.However, in the wide-angle camera, radial distortion in which the degree of distortion is determined by the refractive index of the convex lens inevitably arises, and consequently, the visual distortion of the display image as well as the image recognition of the image processing apparatus It may cause an error.

이처럼 광각 카메라에 의할 경우, 카메라에 맺히는 위치에 따라 특징이 달라지므로, 광각 카메라로부터 획득되는 이미지로부터 장애물을 인식하기 위해서는 소정의 기술이 요구된다.In the case of using the wide-angle camera, since the feature varies depending on the position of the camera, a predetermined technique is required to recognize the obstacle from the image obtained from the wide-angle camera.

종래 영상 인식을 통해 장애물을 검출하는 방법 내지 시스템을 살펴보면, 선행특허 1 내지 선행특허 3과 같이 스테레오 비전이라고 하는 두 개의 카메라를 한 셋트로 이용하여 거리를 측정하고 이에 기반하여 장애물을 검출하도록 구성하는 것이 일반적이었다.A conventional method and system for detecting obstacles through image recognition include a method of measuring distances using two sets of cameras, i.e., stereo vision, as in the prior arts 1 to 3, and detecting obstacles based on the distance It was common.

그러나, 어라운드 뷰 시스템은 차량의 앞뒤와 좌우 사이드 미러 하단에 1개씩 설치되는 4개의 카메라로 구성하는 것이 일반적이고 효율적인데, 종래와 같이 장애물 검출을 위한 영상 인식을 위해 차량의 4개 측면에 2개씩 총 8개의 카메라를 설치하는 것은 매우 비효율적인 바, 단일 광각 카메라만을 이용하여 영상을 인식하고 장애물을 검출할 수 있는 기술이 필요한 실정이다.
However, it is common and efficient that the AroundView system is composed of four cameras installed at the front and rear of the vehicle and one at the bottom of the left and right side mirrors. In order to recognize the image for obstacle detection, It is very inefficient to install a total of eight cameras, and it is necessary to use a single wide-angle camera to recognize images and detect obstacles.

선행특허 1 : 한국공개실용신안 제20-1999-0026799호(공개일자: 1999년07월15일)Prior Art 1: Korean Utility Model No. 20-1999-0026799 (Published on July 15, 1999) 선행특허 2 : 한국등록특허 제10-0882670호(등록일자: 2009년02월02일)Prior Art 2: Korean Patent No. 10-0882670 (Registered Date: February 02, 2009) 선행특허 3 : 한국특허공개 제10-2000-0037604호(공개일자: 2000년07월05일)Prior Patent 3: Korean Patent Laid-Open No. 10-2000-0037604 (Disclosure Date: July 05, 2000)

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 특히 어라운드 뷰 시스템을 단일 광각 카메라만으로 구성하더라도 이로부터 입력되는 영상을 정확히 판독하고 장애물을 검출할 수 있는 영상 인식 기반의 차량 접근 장애물 감지 방법 및 시스템을 제공하는 것이다.
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of the present invention to provide an image recognition system capable of accurately reading an input image and detecting an obstacle, And a method and system for detecting a vehicle access obstacle.

상기 목적을 달성하기 위한 본 발명에 따른 영상 인식 기반의 차량 접근 장애물 감지 방법은, 차량의 카메라를 통해 촬영된 이미지에서 방사 왜곡을 보정하는 제1 단계와; 상기 보정된 이미지에서 차량과 충돌 위험이 있는 영역을 관심 영역으로 설정하는 제2 단계와; 적어도 상기 관심 영역 내의 도로 표식을 추출하여 이를 약화 처리하는 제3 단계와; 상기 도로 표식이 약화 처리된 이미지에서 장애물 하단과 지면 간의 경계(이하, '장애물 하단 경계'라 함)를 추출하는 제4 단계와; 상기 장애물 하단 경계를 이용하여, 이동이 있는 장애물(이하, '이동 장애물'이라 함)을 검출하는 제5 단계와; 상기 이동 장애물의 하단 경계가 상기 관심 영역 내로 침범하였는지 여부를 판별하는 제6 단계; 및 상기 제6 단계의 판별 결과, 상기 침범에 해당시 경고 이벤트를 발생시키는 제7 단계;를 포함하는 것을 특징으로 한다.
According to an aspect of the present invention, there is provided a method for detecting a vehicle-access obstacle based on image recognition, the method comprising: a first step of correcting radial distortion in an image taken through a camera of a vehicle; A second step of setting an area of interest in the corrected image as a region of interest with a vehicle; Extracting a road mark in at least the ROI and weakening it; A fourth step of extracting a boundary between the bottom of the obstacle and the ground (hereinafter, referred to as an 'obstacle bottom boundary') in the image in which the road marking is weakened; A fifth step of detecting a moving obstacle (hereinafter referred to as a moving obstacle) using the lower boundary of the obstacle; A sixth step of determining whether a lower boundary of the moving obstacle has invaded into the ROI; And a seventh step of generating a warning event when the invasion is detected as a result of the sixth step.

본 발명에 따른 영상 인식 기반의 차량 접근 장애물 감지 방법 및 시스템에 의하면, 어라운드 뷰 시스템의 단일 광각 카메라만으로도 입력 영상을 정확히 판독하고 접근 장애물을 감지할 수 있어, 장애물 감지 장치 내지 시스템의 금전적, 공간적 효율성을 극대화할 수 있고, 더 나아가 장애물 유무의 감지뿐 아니라 장애물에 대한 세부 정보를 제공할 수 있어 저속 운행 시 운전 미숙이나 운전 부주의에 의해 발생되는 충돌사고를 방지할 수 있는 효과가 있다.
According to the method and system for detecting a vehicle access obstacle based on image recognition according to the present invention, an input image can be accurately read and an obstacle can be detected by using only a single wide-angle camera of the surround view system. Thus, the monetary and spatial efficiency And it is possible to provide detailed information on obstacles as well as detection of the presence of obstacles, thereby preventing crashes caused by insufficient driving or carelessness during low-speed operation.

도 1은 본 발명에 따른 영상 인식 기반의 차량 접근 장애물 감지 시스템의 전체 구성도.
도 2는 도 1에 도시된 영상인식 처리부의 세부 구성을 도시한 블록 구성도.
도 3은 본 발명에 따른 영상 인식 기반의 차량 접근 장애물 감지 방법의 흐름을 도시한 블록 순서도.
도 4는 본 발명에 따른 이미지 보정 알고리즘을 설명하기 위한 개념도.
도 5(a)는 본 발명의 이미지 보정 단계 전 왜곡 이미지를 보여주는 일례.
도 5(b)는 본 발명의 이미지 보정 단계에 의한 보정 이미지를 보여주는 일례.
도 6은 본 발명의 바람직한 실시예에 따라 설정된 관심 영역을 나타낸 일례.
도 7(a)는 본 발명에 따른 촬영 영상의 최초 입력 이미지의 일례.
도 7(b)는 본 발명에 따라 도로 표식이 약화 처리된 이미지를 보여주는 일례.
도 8은 본 발명의 장애물 하단 경계 검출 방법에 따라 처리된 수평 성분 크기 이미지의 일례.
도 9는 본 발명에 따라 이진화된 장애물 하단 경계 영역을 나타낸 이진화 영상의 일례.
도 10은 본 발명에 따른 장애물 하단 경계 검출을 나타낸 일례.
도 11은 본 발명에 따른 차량 정차 시의 이동 장애물 검출 결과를 나타낸 일 례.
도 12는 본 발명에 따른 엔트로피 기반의 장애물 후보 영역 추출 이미지를 나타낸 일례.
도 13은 본 발명에 따른 절대값 차이 이미지의 일례.
도 14는 본 발명의 영상 인식 기반의 차량 접근 장애물 감지 시스템이 차량 주행 시 이동 장애물 검출 결과를 보여주는 일례.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an overall block diagram of a vehicle access obstacle detection system based on image recognition according to the present invention; FIG.
FIG. 2 is a block diagram showing a detailed configuration of the image recognition processing unit shown in FIG. 1. FIG.
3 is a block flow diagram illustrating a flow of a method for detecting a vehicle access obstacle based on image recognition according to the present invention.
4 is a conceptual diagram for explaining an image correction algorithm according to the present invention.
FIG. 5 (a) is an example showing an image distortion step of the image correction step of the present invention.
5 (b) is an example showing a corrected image by the image correction step of the present invention.
6 illustrates an example of a region of interest set according to a preferred embodiment of the present invention.
7 (a) is an example of the first input image of the photographed image according to the present invention.
7 (b) is an example showing an image in which a road mark is weakened according to the present invention.
8 is an example of a horizontal component size image processed according to the obstacle bottom boundary detection method of the present invention.
9 is an example of a binarized image showing a binarized lower boundary region of an obstacle according to the present invention.
10 is an example of the detection of the lower boundary of the obstacle according to the present invention.
11 is a diagram showing a result of detection of a moving obstacle during a vehicle stop according to the present invention.
12 is an example of an entropy-based obstacle candidate region extraction image according to the present invention.
13 is an example of an absolute value difference image according to the present invention.
FIG. 14 is an example of the detection result of a mobile obstacle during driving of a vehicle access obstacle detection system based on the image recognition of the present invention.

본 발명에서 사용하는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.Also, in this specification, when an element is referred to as being "connected" or "connected" with another element, the element may be directly connected or directly connected to the other element, It should be understood that, unless an opposite description is present, it may be connected or connected via another element in the middle.

이하에서, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예, 장점 및 특징에 대하여 상세히 설명하도록 한다.In the following, preferred embodiments, advantages and features of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 영상 인식 기반의 차량 접근 장애물 감지 시스템의 전체 구성도이고, 도 2는 도 1에 도시된 영상인식 처리부의 세부 구성을 도시한 블록 구성도이다.FIG. 1 is an overall block diagram of a vehicle access obstacle detection system based on image recognition according to the present invention, and FIG. 2 is a block diagram illustrating a detailed configuration of an image recognition processor shown in FIG.

도 1 및 도 2를 참조하면, 본 발명에 따른 영상 인식 기반의 차량 접근 장애물 감지 시스템은 카메라(10), 영상인식 처리부(30) 및 경고 출력부(20)를 포함하도록 구성된다.1 and 2, the vehicle-based obstacle detection system based on image recognition according to the present invention is configured to include a camera 10, an image recognition processing unit 30, and a warning output unit 20.

본 발명의 카메라(10)는 차량에 장착되어 차량 주변의 주행도로를 촬영하여 영상을 획득하는 구성부로서, 바람직하게는 CMOS 카메라 또는 CCD 카메라를 채용할 수 있다.The camera 10 of the present invention is a component mounted on a vehicle and photographing a running road around the vehicle to acquire an image. Preferably, a CMOS camera or a CCD camera can be employed.

본 발명의 카메라(10)는 특히 어라운드 뷰(Around View) 시스템일 수 있는데, 이러한 어라운드 뷰(Around View) 시스템은 넓은 시야를 확보할 수 있는 광각 카메라를 사용하는 것이 일반적이다. 여기서, 어라운드 뷰 시스템은 차량의 앞뒤와 좌우 사이드 미러 하단에 적어도 1개씩 설치되는 적어도 4개의 카메라를 포함하여 구성된다.The camera 10 of the present invention may in particular be an Around View system, and such an Around View system typically uses a wide angle camera capable of securing a wide field of view. Here, the surround view system includes at least four cameras installed at least one at the front and rear of the vehicle and at the bottom of the left and right side mirrors.

본 발명의 영상인식 처리부(30)는 카메라(10)에 의해 획득된 영상에서 장애물을 인식 검출하고 이의 충돌 위험성을 판단하는 연산 처리를 수행함으로써, 도로를 주행 중이거나 또는 정차 중인 차량의 충돌 사고를 방지하는 기능을 실현한다.The image recognition processing unit 30 of the present invention recognizes an obstacle in an image acquired by the camera 10 and performs arithmetic processing for determining the risk of collision with the obstacle, .

영상인식 처리부(30)의 세부 구성을 기능적으로 분리하면, 이미지 보정부(31), 이미지 구획부(32), 도로 표식 처리부(33), 장애물하단경계 추출부(34), 이동장애물 검출부(35), 충돌위험 판별부(36)로 나눌 수 있다.The road marking processing unit 33, the obstacle bottom boundary extracting unit 34, the moving obstacle detecting unit 35 (see FIG. 3) ), And a collision risk discrimination section (36).

본 발명의 이미지 보정부(31)는 카메라(10)로부터 입력되는 이미지에서 방사 왜곡을 보정하는 기능을 한다.The image correcting unit 31 of the present invention corrects the radiation distortion in the image input from the camera 10. [

바람직한 실시예에 따르면, 이미지 보정부(31)는 상기 촬영된 이미지의 가로 및 세로 길이를 이용하여 상기 방사 왜곡을 보정하도록 구성된다.According to the preferred embodiment, the image correcting unit 31 is configured to correct the radial distortion using the horizontal and vertical lengths of the photographed image.

본 발명의 이미지 구획부(32)는 이미지 보정부(31)를 통해 보정된 이미지에서 차량과 충돌 위험이 있는 영역을 관심 영역으로 구획하여 설정하는 기능을 한다.The image partitioning unit 32 of the present invention divides an area having a risk of collision with a vehicle into an area of interest in the image corrected through the image correction unit 31 and sets the area.

바람직한 실시예에 따르면, 이미지 구획부(32)는 관심 영역을 사다리꼴 모양으로 설정하되, 상기 사다리꼴의 윗변은 상기 보정된 이미지에서 소실선의 하측 영역에 위치하도록 설정하고, 상기 사다리꼴은 상부 영역과 하부 영역으로 이루어진 2개의 영역으로 분할하여 설정하도록 구성된다.According to a preferred embodiment, the image partition 32 sets the region of interest as a trapezoidal shape, with the upper side of the trapezoid being located in the lower region of the missing line in the corrected image, As shown in FIG.

본 발명의 도로 표식 처리부(33)는 적어도 상기 관심 영역 내의 도로 표식을 추출하여 이를 약화 처리하는 기능을 한다.The road marking processing unit 33 of the present invention extracts road markings at least in the area of interest and performs a function of weakening the extracted road markings.

바람직한 실시예에 따르면, 도로 표식 처리부(33)는 상기 추출된 도로 표식의 픽셀값을 재조정하거나 대체하는 방식으로 상기 약화 처리를 수행하도록 구성된다.According to a preferred embodiment, the road marking processing unit 33 is configured to perform the weakening process by re-adjusting or replacing pixel values of the extracted road markings.

또한, 도로 표식 처리부(33)는 지면과 도로 표식 간의 밝기 차이를 이용하여 도로 표식을 추출하되, 상기 관심 영역을 복수 개의 영역으로 분할하여 각각의 영역에 대하여 다른 임계값을 설정하여 도로 표식을 추출하도록 구성된다.The road marking processing unit 33 extracts road markings using the brightness difference between the ground and the road markers, divides the area of interest into a plurality of areas, sets different threshold values for the respective areas, and extracts road markers .

본 발명의 장애물하단경계 추출부(34)는 도로 표식 처리부(33)를 통해 도로 표식이 약화 처리된 이미지에서 장애물 하단과 지면 간의 경계(이하, '장애물 하단 경계'라 함)를 검출하는 기능을 한다.The obstacle bottom boundary extracting unit 34 of the present invention has a function of detecting a boundary between the bottom of the obstacle and the ground (hereinafter, referred to as an 'obstacle bottom boundary') in the image in which the road marking is weakened through the road marking processor 33 do.

바람직한 실시예에 따르면, 장애물하단경계 추출부(34)는 도로 표식이 약화 처리된 이미지에서 소벨 오퍼레이터(Sobel Operator)를 통해 산출된 수평 성분을 이용하여 추출하도록 구성된다.According to the preferred embodiment, the obstacle bottom boundary extracting unit 34 is configured to extract the road mark using the horizontal component calculated through the Sobel operator in the image subjected to the weakened road marking.

또한, 장애물하단경계 추출부(34)는 소벨 오퍼레이터를 통해 추출된 장애물 하단 경계의 수평 성분을 기반으로 하여, 도로 표식에 의한 잔여 노이즈가 제거된 장애물 하단 경계를 최종적으로 추출하도록 구성된다.In addition, the obstacle bottom boundary extracting unit 34 is configured to finally extract the obstacle bottom boundary from which the residual noise due to the road marking is removed based on the horizontal component of the obstacle bottom boundary extracted through the Sobel operator.

여기서, 잔여 노이즈란 도로 표식 처리부(33)를 통해 도로 표식을 제거(즉 약화 처리)하더라도 해당 도로 표식은 완전히 제거되지 않고 여전히 노이즈로 작용하는 것을 지칭한다. 따라서, 관심 영역 내에서는 도록 표식 영역의 경계가 여전히 낮은 값으로 존재하기 때문에 이는 노이즈로 작용하며, 이와 같은 도로 표식에 의한 잔여 노이즈를 제거하는 작업을 더 수행하는 것이 바람직하다.Here, the residual noise refers to the fact that even if the road markers are removed (that is, weakened) through the road marking processor 33, the corresponding road markers are not completely removed and still function as noise. Therefore, since the boundary of the landmark area is still low in the area of interest, it acts as noise, and it is desirable to further perform the operation of removing residual noise due to such road markings.

이 때, 잔여 노이즈 제거는 스무딩(Smoothing) 및 모폴로지 오퍼레이터 (Morphology Operator)를 통하여 수행되도록 구성된다.At this time, the residual noise removal is configured to be performed through smoothing and a morphology operator.

본 발명의 이동장애물 검출부(35)는 장애물하단경계 추출부(34)를 통해 추출된 장애물 하단 경계를 이용하여, 움직임 내지 이동이 있는 장애물(이하, '이동 장애물'이라 함)을 검출하는 기능을 한다.The moving obstacle detecting unit 35 of the present invention has a function of detecting an obstacle having motion or movement (hereinafter referred to as a moving obstacle) by using the lower boundary of the obstacle extracted through the obstacle lower boundary extracting unit 34 do.

바람직한 실시예에 따르면, 이동장애물 검출부(35)는 장애물하단경계 추출부(34)를 통해 추출된 장애물 하단 경계를 이용하되, 관심 영역의 임의의 구간 내에서 상기 장애물 하단 경계의 상단 픽셀을 대상으로 해당 장애물이 이동(움직임)이 있는지 여부를 검출하도록 구성된다.According to a preferred embodiment, the moving obstacle detecting unit 35 uses the lower boundary of the obstacle extracted through the obstacle lower boundary extracting unit 34, and detects the upper pixel of the lower boundary of the obstacle within an arbitrary section of the region of interest And is configured to detect whether the obstacle has movement (movement).

여기서, 차량이 정지 상태이면, 이동 평균 이미지와 현재 이미지의 절대값 차이 이미지를 함께 이용하여 상기 이동 장애물을 검출하도록 구성된다.Here, if the vehicle is at rest, it is configured to use the moving average image and the absolute value difference image of the current image together to detect the moving obstacle.

만약 차량이 주행 중이면, 상기 장애물 하단 경계의 상측 영역에 대한 로컬 엔트로피(Local Entropy) 계산에 의해 추출되는 텍스쳐(Texture) 정보, 이미지의 현재 이미지와 이전 이미지의 절대값 차이 이미지, 및 상기 절대값 차이 이미지로부터 산출되는 모션(Motion) 정보를 이용하여 상기 이동 장애물을 검출하도록 구성된다.If the vehicle is in motion, texture information extracted by local entropy calculation for the upper region of the obstacle lower boundary, absolute image difference image of the current image of the image and the previous image, And to detect the moving obstacle by using motion information calculated from the difference image.

본 발명의 충돌위험 판별부(36)는 이동장애물 검출부(35)를 통해 검출된 이동 장애물의 하단 경계가 상기 관심 영역 내로 침범하였는지 여부를 판별하는 기능을 한다.The collision risk judging unit 36 of the present invention determines whether or not the lower boundary of the moving obstacle detected through the moving obstacle detecting unit 35 has invaded into the area of interest.

바람직한 실시예에 따르면, 충돌위험 판별부(36)는 이동장애물 검출부(35)를 통해 검출된 이동 장애물의 하단 경계의 세로축 위치 정보를 이용하여 상기 침범 여부를 판별하도록 구성된다.According to a preferred embodiment, the collision risk determiner 36 is configured to determine whether or not the collision is detected using the vertical axis position information of the lower boundary of the moving obstacle detected through the moving obstacle detector 35.

또한, 검출된 이동 장애물의 세로축 좌표의 높이에 해당하는 지점에 대응하는 상기 관심 영역의 가로 폭의 크기를 산출한 후, 이를 이용하여 상기 관심 영역에 침범한 이동 장애물과 차량 간의 거리(차량에 대한 장애물의 접근 정도)를 더 판별하도록 구성된다.The distance between the moving obstacle and the vehicle, which is located in the area of interest, is calculated by calculating the width of the area of interest corresponding to the height of the vertical axis of the detected moving obstacle The degree of approach of the obstacle).

본 발명의 경고 출력부(20)는 충돌위험 판별부(36)가 보내온 신호에 따라 시각적 또는 청각적 경보를 외부로 출력하여 운전자가 해당 사실을 인지할 수 있도록 하는 기능을 한다.The alarm output unit 20 of the present invention functions to output a visual or audible alarm to the outside according to the signal sent by the collision risk discrimination unit 36 so that the driver can recognize the fact.

바람직한 실시예에 따르면, 경고 출력부(20)는 차량이 관심 영역의 상부 영역으로 진입시 충돌 위험 장애물이 출현했음을 예비 경고하고, 차량이 관심 영역의 상부 영역을 넘어 하부 영역까지 침범시 충돌 위험이 임박했음을 최종 경고하도록 구성된다. 여기서, 예비 경고와 최종 경고에 대응하는 외부 출력 형태는 상호 다르게 형성하여 운자자로 하여금 현 상황을 정확히 파악할 수 있도록 구성하는 것이 바람직하다.According to a preferred embodiment, the warning output unit 20 preliminarily warns that a collision danger obstacle has appeared when the vehicle has entered an upper area of the area of interest, and when the vehicle is moving beyond the upper area of the area of interest to the lower area, The final warning is issued. Here, it is preferable that the external output forms corresponding to the preliminary warning and the final warning are formed to be different from each other so that the operator can grasp the current situation accurately.

이하에서는, 전술한 바와 같은 영상인식 처리부(30)를 기반으로 입력 영상에서 차량 접근 장애물을 검출하는 방법과, 이에 따라 차량 운전자에게 위험을 경보하는 방법에 대하여 상세히 설명하도록 한다.Hereinafter, a method of detecting a vehicle access obstacle in an input image based on the image recognition processing unit 30 as described above and a method of alarming a danger to a driver of the vehicle will be described in detail.

도 3은 본 발명에 따른 영상 인식 기반의 차량 접근 장애물 감지 방법의 흐름을 도시한 블록 순서도이다.3 is a block flow diagram illustrating a flow of a method for detecting a vehicle access obstacle based on image recognition according to the present invention.

도 3을 참조하면, 본 발명에 따른 영상 인식 기반의 차량 접근 장애물 감지 방법은 차량의 카메라를 통해 촬영된 이미지에서 방사 왜곡을 보정하는 단계(단계 1)와; 상기 보정된 이미지에서 차량과 충돌 위험이 있는 영역을 관심 영역으로 설정하는 단계(단계 2)와; 적어도 상기 관심 영역 내의 도로 표식을 추출하여 이를 약화 처리하는 단계(단계 3)와; 상기 약화 처리된 이미지에서 장애물 하단과 지면 간의 경계를 추출하는 단계(단계 4)와; 상기 장애물 하단 경계를 이용하여 이동이 있는 장애물을 검출하는 단계(단계 5); 상기 이동 장애물의 하단 경계가 상기 관심 영역 내로 침범하였는지 여부를 판별하는 단계(단계 6); 및 상기 제6 단계의 판별 결과, 침범에 해당시 경고 이벤트를 발생시키는 제7 단계를 포함하는 것을 특징으로 한다.Referring to FIG. 3, the method for detecting a vehicle approaching obstacle based on image recognition according to the present invention includes: (1) correcting radial distortion in an image taken through a camera of a vehicle; Setting a region of interest in the corrected image as a region of concern with the vehicle (Step 2); Extracting at least the road markings in the ROI and weakening the extracted road markings (step 3); Extracting a boundary between the bottom of the obstacle and the ground in the weakened image (step 4); Detecting an obstacle with movement using the obstacle bottom boundary (step 5); Determining whether the lower boundary of the moving obstacle has invaded into the area of interest (step 6); And a seventh step of generating a warning event when it is determined that the invasion is detected as a result of the sixth step.

바람직하게는, 상기 단계 5는 상기 약화 처리된 이미지에서 상기 도로 표식의 의한 노이즈를 제거하여, 상기 노이즈가 제거된 이미지에서 상기 장애물 하단 경계를 검출하도록 구성된다.Advantageously, said step 5 is configured to remove noise from said road markings in said weakened image, and to detect said obstacle lower boundary in said noise-removed image.

바람직하게는, 상기 단계 3의 도로표식의 약화 처리는 상기 추출된 도로 표식 픽셀값을 재조정하거나 대체하는 방식으로 처리하도록 구성된다.Preferably, the attenuation of the road mark in step 3 is configured to process the extracted road mark pixel value in a manner such that it is readjusted or replaced.

이하에서는 각 단계의 구체적인 실시예에 대해 상세히 설명하도록 한다.Hereinafter, specific embodiments of the respective steps will be described in detail.

<단계 1(S10)>&Lt; Step 1 (S10)

본 발명의 카메라는 특히 어라운드 뷰(Around View) 시스템일 수 있는데, 이러한 어라운드 뷰(Around View) 시스템은 넓은 시야를 확보할 수 있는 광각 카메라를 사용하는 것이 일반적이다. 그런데, 광각 카메라는 볼록 렌즈의 굴절률에 의하여 왜곡 정도가 결정되는 방사 왜곡이 필연적으로 발생하게 되고, 이에 따라 표시 영상의 시각적인 왜곡은 물론 이미지 처리 장치(즉, 영상인식 처리부)의 이미지 인식에 심각한 오차를 야기할 수 있다.The camera of the present invention may be an Around View system in particular, and such an Around View system generally uses a wide angle camera capable of securing a wide field of view. However, in the wide-angle camera, radial distortion in which the degree of distortion is determined by the refractive index of the convex lens inevitably arises, and consequently, the visual distortion of the display image as well as the image recognition of the image processing apparatus It may cause an error.

본 발명의 단계 1은 이와 같이 차량의 카메라 특히 어라운드 뷰 시스템을 통해 촬영된 이미지에서 방사 왜곡을 보정하여, 영상인식 처리부(30)가 촬영 이미지를 보다 정확히 인식할 수 있도록 하는 단계이다.Step 1 of the present invention is a step of correcting radial distortion in an image photographed through a camera of the vehicle, in particular an arousal view system, so that the image recognition processor 30 can recognize the photographed image more accurately.

종래의 이미지 왜곡 보정은 일반적으로 왜곡 보정 다항식에 체스보드와 같은 알려진 패턴을 이용하여 측량된 파라미터를 대입하는 방식으로 수행하였는데, 이는 이미지 잡음에 민감한 단점이 존재한다.Conventional image distortion correction is generally performed by assigning a measured parameter to a distortion correction polynomial using a known pattern such as a chess board, which is disadvantageous to image noise.

반면, 본 발명의 이미지 왜곡 보정은 촬영 이미지의 가로 및 세로 길이를 이용하여 방사 왜곡에 의하여 왜곡된 영역을 보정하는 이미지 보정 알고리즘을 따르도록 구성된 것을 특징으로 한다.On the other hand, the image distortion correction of the present invention is characterized in that it is configured to follow an image correction algorithm for correcting a distorted area by radial distortion using the horizontal and vertical lengths of the photographed image.

도 4는 본 발명에 따른 이미지 보정 알고리즘을 설명하기 위한 개념도이다. 도 4의 왜곡된 이미지의 좌표(x,y)와, 본 발명의 이미지 보정 알고리즘에 따라 왜곡이 보정된 이미지의 좌표(x',y')의 관계는 다음의 수학식 1 및 수학식 2와 같다. 한편, 이미지의 가로 길이(가로 폭)과 세로 길이(세로 폭)의 비율은 반드시 1:1의 비율이 아니기 때문에 X축과 Y축에 대하여 각각 다른 비례식을 적용한다.4 is a conceptual diagram for explaining an image correction algorithm according to the present invention. The relationship between the coordinates (x, y) of the distorted image of FIG. 4 and the coordinates (x ', y') of the image whose distortion has been corrected according to the image correction algorithm of the present invention is expressed by the following equations (1) and same. On the other hand, since the ratio of the horizontal length (horizontal width) to the vertical length (vertical width) of an image is not necessarily 1: 1, a different proportional expression is applied to each of the X and Y axes.

Figure 112013045924361-pat00001
Figure 112013045924361-pat00001

Figure 112013045924361-pat00002
Figure 112013045924361-pat00002

(수학식 1 및 2에서,(In equations (1) and (2)

x,y : 왜곡 이미지 좌표,x, y: distortion image coordinates,

x',y' : 왜곡이 보정된 이미지 좌표(보정 이미지 좌표),x ', y': Image coordinates (corrected image coordinates) in which the distortion is corrected,

xu,yu : 이미지 중심 좌표,x u , y u : image center coordinate,

W,H : 이미지의 가로 길이 및 세로 길이,W, H: width and height of the image,

LX,LY : 이미지 중심 좌표와, 왜곡 이미지 좌표 간 x,y 방향 3차원 거리)L X , L Y : Three-dimensional distance in the x and y directions between the image center coordinate and the distortion image coordinate)

바람직하게는, 단계 1의 이미지 보정을 위한 처리의 실시간성을 보장하기 위하여, 수학식 1 및 2에 의해 산출된 보정 좌표를 저장할 메모리를 할당하고, 각 왜곡 이미지 좌표에 대응하는 보정 이미지 좌표를 룩업 테이블(Lookup Table)로 저장한다.Preferably, a memory for storing the correction coordinates calculated by the equations (1) and (2) is allocated to ensure real-time processing of the image correction for step 1, and the corrected image coordinates corresponding to the respective distorted image coordinates are stored in a lookup And stores it as a lookup table.

도 5(a)는 본 발명의 이미지 보정 단계 전 왜곡 이미지를 보여주는 일례이고, 도 5(b)는 본 발명의 이미지 보정 단계에 의한 보정 이미지를 보여주는 일례이다.FIG. 5A is an example showing an image distortion in the image correction step of the present invention, and FIG. 5B is an example showing an image corrected by the image correction step of the present invention.

도 5를 참조하면, 어라운드 뷰(Around View) 시스템에 의해 촬영된 이미지는 방사 왜곡에 의해 이미지 중심에서 멀어질수록 왜곡이 심해지고 있음을 알 수 있고, 본 발명의 이미지 보정 알고리즘에 따라 보정된 이미지의 경우 왜곡 이미지와 달리 중심에서의 거리가 멀어져도 왜곡이 거의 없어 수평, 수직 구조를 유지할 수 있으며, 이와 같은 점을 이용하여 도로면 내지 지면(이하, 지면으로 통칭)을 판단하고, 다음의 단계들을 통해 지면 위에 존재하는 불특정 장애물을 감지할 수 있게 된다.Referring to FIG. 5, it can be seen that the image photographed by the Around View system is getting worse as the image is farther from the center of the image due to the radial distortion, and the image corrected according to the image correction algorithm of the present invention The horizontal and vertical structures can be maintained even if the distance from the center is far different from that of the distorted image, and it is possible to maintain the horizontal and vertical structure, and it is judged from the road surface to the ground (hereinafter referred to as the ground) It is possible to detect an unspecified obstacle existing on the ground.

<단계 2(S20)>&Lt; Step 2 (S20)

본 발명의 단계 2는 단계 1을 통해 획득된 보정 이미지에서 소정 영역을 구획하여 관심 영역으로 설정하는 단계로서, 이미지 구획부(32)에 의해 수행된다. 여기서, 보정 이미지에서 구획되는 관심 영역(Region Of Interest, ROI)이란 카메라를 통해 촬영된 이미지의 전체 영역에서 임의로 구획된 일부 영역으로서, 이는 특히 전진 중인 해당 차량에 대하여 충돌이 발생할 수 있는 영역(즉, 차량과 충돌 위험이 있는 영역)을 의미한다.Step 2 of the present invention is performed by the image dividing section 32, by dividing a predetermined region in the corrected image obtained through Step 1 and setting it as a region of interest. Here, the region of interest (ROI), which is defined in the correction image, is a partial area arbitrarily partitioned in the entire area of the image photographed by the camera. This area is an area in which a collision may occur , A region where there is a risk of collision with the vehicle).

바람직한 실시예에 따르면, 소실선 하측 영역에서 관심 영역의 상단 경계를 설정하고, 지면과 차량 전단(또는 후단)의 경계(이하, '차량 경계'라 함)를 관심 영역의 하단 경계로 설정할 수 있다. 여기서, 소실선은 이미지 전체에 있어서 세로축을 따라 가로 방향으로 분할하는 다수의 라인 중 지평선과 만나는 지점(소실점)에 대응되는 라인을 의미하며, 이미지에서의 소실선은 지면으로부터 카메라 설치 높이, 기울어진 각도, 및 초점거리를 이용하여 계산할 수 있다.According to a preferred embodiment, the upper boundary of the ROI can be set in the lower region of the disappearance line, and the boundary between the ground and the vehicle front end (or the rear end) (hereinafter, referred to as 'vehicle boundary') can be set as the lower boundary of the ROI . Herein, the disappearance line means a line corresponding to a point (vanishing point) which meets with the horizon among a plurality of lines which are divided in the horizontal direction along the vertical axis in the whole image, and the disappearance line in the image is the height of the camera from the ground, Angle, and focal length.

이는, 촬영을 통해 획득된 이미지 상에서 지면 위에 존재하는 모든 장애물의 하단 경계면은 소실선의 하측 영역과 차량 경계(예컨대, 차량 후드(hood))의 상측 영역에 존재하게 되고, 소실선 부근에 존재하는 장애물의 경우 거리가 매우 멀어 저속 주행 환경인 어라운드 뷰 시스템에서는 감지할 필요가 없기 때문이다.This is because the lower boundary surface of all the obstacles existing on the ground on the image obtained through photographing is present in the lower region of the disappearance line and the upper region of the vehicle boundary (for example, the vehicle hood) The distance is very long, so it is not necessary to detect it in the surrounding view system which is a low-speed driving environment.

도 6은 본 발명의 바람직한 실시예에 따라 설정된 관심 영역을 나타낸 일례이다. 도 6 실시예의 경우, 관심 영역(40)은 사다리꼴 형태로 구성하되, 사디리꼴의 윗변(즉, 관심 영역(40)의 상단 경계)은 소실선의 하측에서 설정되고, 밑변(즉, 관심 영역(40)의 하단 경계)은 차량 전단(또는 후단) 경계 내지 그 근방에 설정되게 구성하였다.FIG. 6 is an example showing an area of interest set according to a preferred embodiment of the present invention. In the embodiment of FIG. 6, the region of interest 40 is configured in a trapezoidal shape, with the upper side of the sadrilok (i.e., the upper boundary of the region of interest 40) ) Is configured to be set at the boundary or near the front end (or the rear end) of the vehicle.

또한, 관심 영역(40)은 상부 영역(41)과 하부 영역(42)으로 이루어진 2개의 영역으로 분할하여, 차량이 상부 영역(41)으로 진입시 충돌 위험 장애물이 출현했음을 경보하고, 차량이 상부 영역(41)을 넘어 하부 영역(42)까지 침범시 충돌 위험이 임박했음을 경고하도록 구성된다.The area of interest 40 is also divided into two areas consisting of an upper area 41 and a lower area 42 to alert the vehicle that a dangerous obstacle has appeared on entry into the upper area 41, (41) to warn that the risk of collision is imminent when invading the lower region (42).

바람직하게는, 상부 영역(41)과 하부 영역(42)은 관심 영역(40)의 사다리꼴 형상에 있어서 사다리꼴 높이의 1/2 지점을 기준으로 소실선에 가까운 영역을 상부 영역(41)으로 설정하고, 차량 경계에 가까운 영역을 하부 영역(42)으로 설정할 수 있다.Preferably, the upper region 41 and the lower region 42 define an upper region 41 as a region close to the vanishing line with respect to a half point of the trapezoidal height in the trapezoidal shape of the region of interest 40 , And a region close to the vehicle boundary can be set as the lower region 42. [

한편, 탑승자 운전 차량에 대한 장애물의 접근 정도 즉, 상부 영역(41) 진입과 하부 영역(42) 침범은 관심 영역(40) 내 검출된 장애물의 세로 좌표의 높이에 해당하는 지점에 대응하는 차량 폭(즉, 관심 영역(40)의 가로 폭)의 크기를 계산하여 장애물이 어느 정도 위치에 접근했는지를 판단할 수 있다.In other words, the approaching degree of the obstacle to the occupant driving vehicle, that is, the inflow of the upper region 41 and the inflow of the lower region 42, is determined by the vehicle width corresponding to the height of the vertical coordinates of the detected obstacle in the ROI 40 (I. E., The width of the area of interest 40) to determine how far the obstacle has approached the location.

<단계 3(S30)>&Lt; Step 3 (S30) >

본 발명의 단계 3은 도로 표식(50)(예컨대, 차선, 방향 안내선 등)을 추출하여 해당 이미지 상에서 이를 약화시키는 처리를 수행하는 단계로서, 추출 대상인 도로 표식(50)은 바람직하게는 단계 2를 통해 설정된 관심 영역(40) 내에 존재하는 도로 표식을 대상으로 하나, 이미지 전체에 나타나는 도로 표식 모두를 추출 대상으로 할 수도 있는 바 상기 경우를 배제하지는 않는다.Step 3 of the present invention is a step of extracting a road sign 50 (e.g., a lane, a direction guide, etc.) and performing a process of weakening the road mark 50 on the image, The road markings existing in the ROI 40 may be targeted, but all of the road markings appearing in the entire image may be extracted. However, this case is not excluded.

단계 3은 도로표식 처리부(33)에 의해 수행되며, 특히 상기 도로표식(50)의 약화 처리는 이의 픽셀값을 재조정하거나 대체하는 방식으로 이루어지는 것을 특징으로 한다.Step 3 is performed by the road marking processing unit 33, and in particular, the weakening processing of the road marking 50 is performed by re-adjusting or replacing the pixel values thereof.

단계 2를 통해 설정된 관심 영역에서 도로 표식은 지면(도로면) 상에 존재하기 때문에 그 높이를 '0'이라 가정할 수 있으며, 다음과 같은 도로 표식의 특성을 이용하여 관심 영역 내의 도로 표식을 추출할 수 있다.Since the road mark is located on the ground (road surface) in the area of interest set in step 2, the height can be assumed to be '0', and the road markers in the ROI can be extracted can do.

즉, 도로 표식(50)은 항상 소실선의 하측 영역에 존재한다. 또한, 어라운드 뷰 시스템에서는 도로 표식이 항상 소실선(소실점)을 향하지 않으며 도로 표식의 색상은 다양한 색상으로 나타나게 된다. 또한, 도로 표식은 도로면에 비하여 항상 밝은 값을 가지고 있는 경우가 대부분이다. 또한, 장애물과 도로면의 경계는 항상 매우 어두운 값을 갖게 된다.That is, the road mark 50 always exists in the lower area of the disappearance line. Also, in the surround-view system, the road marking is not always directed toward the disappearance line (vanishing point), and the color of the road marking is displayed in various colors. In addition, the road marking often has a bright value in comparison with the road surface. Also, the boundary between the obstacle and the road surface always has a very dark value.

따라서, 상기와 같은 도로 표식의 특성 즉, 지면과 도로 표식 간의 밝기 차이를 이용하여 도로 표식을 추출하되, 카메라와 도로 상태에 따른 다양한 도로 표식을 고려하여 관심 영역을 다시 복수 개(바람직하게는 3개)의 영역으로 나누고 각각의 영역에 대하여 다른 임계값을 설정하여 도로 표식 후보 영역을 추출한다.Therefore, the road markers are extracted using the difference in brightness between the ground and the road markers, and the road markers are divided into a plurality of road markers (preferably 3 And a road mark candidate area is extracted by setting a different threshold value for each area.

보다 상세히 설명하면, 바람직하게는 도로 표식 중 가장 어두운 부분을 노란색 도로 표식으로 가정하였기 때문에 촬영 영상에서 노란색 도로 표식의 픽셀값을 실험을 통하여 추출하여 다양한 임계값을 확보한다. 이는 카메라 센서의 성능에 따라 변동될 수 있다.In more detail, since the darkest portion of the road markers is assumed to be a yellow road mark, the pixel values of the yellow road markers are extracted from the photographed image through experiments to secure various threshold values. This can vary depending on the performance of the camera sensor.

또한, 관심 영역을 다시 복수 개의 영역으로 나누어 각 영역에 대하여 다른 임계값을 적용한 이유는 광각 카메라에서는 같은 장애물일지라도 나타나는 좌표에 따라 다른 픽셀값을 가지기 때문이다.Also, the reason why different regions of interest are divided into plural regions and different threshold values are applied to each region is that the wide-angle camera has different pixel values according to coordinates appearing even if they are the same obstacle.

상기와 같은 방법에 따라 도로 표식의 추출이 완료되면, 이를 해당 이미지 상에서 약화시키는 처리를 하게 되는데, 이는 추출된 도로 표식의 픽셀값을 조작함으로써 수행된다. 즉, 픽셀값의 조작이란, 도로 표식의 최초 픽셀값을 다른 픽셀값으로 재조정 또는 대체하는 것인데, 추출된 도로 표식에 대체할 픽셀값은 도로 표식 후보 영역 픽셀에서의 최근접 픽셀을 참조하여 값을 할당한다.When the extraction of the road marking is completed according to the above method, the process of weakening the extracted road marking is performed by manipulating the pixel values of the extracted road marking. That is, the manipulation of the pixel value is to readjust or replace the initial pixel value of the road marking with another pixel value. The pixel value to be substituted for the extracted road marking refers to the closest pixel in the road marking candidate region pixel, .

도 7(a)는 본 발명에 따른 촬영 영상의 최초 입력 이미지이고, 도 7(b)는 본 발명에 따라 도로 표식이 약화 처리된 이미지를 보여주는 일례이다. 도 7에서 알 수 있듯이, 카메라를 통해 입력된 최초 이미지는 지면 상에 도로 표식(50)이 선명하고 강하게 표시되고 있으나, 본 발명에 따라 도로 표식이 약화 처리된 이미지는 도로 표식(51)이 거의 제거되어 있음을 알 수 있다.FIG. 7 (a) is an initial input image of the photographed image according to the present invention, and FIG. 7 (b) is an example showing an image in which a road mark is weakened according to the present invention. As can be seen from FIG. 7, the first image inputted through the camera is displayed clearly and strongly on the ground. However, according to the present invention, the road marking 51 has a weak road mark It can be seen that it is removed.

<단계 4(S40)>&Lt; Step 4 (S40)

본 발명의 단계 4는 단계 3을 통해 도로 표식의 픽셀값이 재조정된 이미지에서 장애물 하단과 지면 간의 경계(이하, '장애물 하단 경계'라 함)를 추출하는 단계이다.Step 4 of the present invention is a step of extracting a boundary between the bottom of the obstacle and the ground (hereinafter, referred to as 'obstacle bottom boundary') in the image in which the pixel values of the road markers are readjusted through step 3.

바람직한 실시예에 따르면, 단계 4의 장애물 하단 경계 검출 방법은 단계 3을 통해 도로 표식이 약화 처리된 이미지에서 소벨 오퍼레이터(Sobel Operator)를 통해 수행되며, 이에 의해 해당 이미지에서 수평 성분의 크기 이미지를 생성하며, 이렇게 생성된 수평 성분은 장애물 하단 경계를 추출하는데 사용된다.According to a preferred embodiment, the obstacle bottom boundary detection method of step 4 is carried out through the step 3 through the Sobel operator in the image in which the road marking is weakened, thereby generating a magnitude image of the horizontal component in the image And the horizontal component thus generated is used to extract the lower boundary of the obstacle.

여기서, 수평 성분을 산출하기 위한 소벨 오퍼레이터는 다음의 수학식 3과 같다.Here, the Sobel operator for calculating the horizontal component is expressed by the following equation (3).

Figure 112013045924361-pat00003
Figure 112013045924361-pat00003

(수학식 3에서,(In Equation 3,

f : 수평 성분 크기 이미지,f: horizontal component size image,

Gx : 수평 방향 소벨(Sobel) 이미지)Gx: Horizontal Sobel image)

소벨 오퍼레이터는 다양한 크기와 형태의 마스크(Mask)를 사용할 수 있으며, 실시간성을 만족하나 근사화하기 때문에 부정확성이 존재한다. 따라서, 바람직한 실시예에 따르면, 소벨 연산을 위한 마스크는 다음과 같이 사용한다.Sobel operators can use masks of various sizes and shapes, and inaccuracies exist because they satisfy or approximate real-time properties. Thus, according to a preferred embodiment, the mask for the Sobel operation is used as follows.

먼저, 크기가 큰 마스크를 사용하면 많은 수의 픽셀을 이용하기 때문에 보다 정확한 결과를 얻을 수 있지만 도로 표식이 제거된 영역까지 다시 나타나는 단점이 있다. 여기서, 크기가 큰 마스크란 '5×5' 이상의 마스크를 의미한다.First, using a large mask has a disadvantage that it can obtain more accurate results because it uses a large number of pixels, but it also reappears to the area where the road mark is removed. Here, a mask having a large size means a mask of 5x5 or more.

다음으로, 작은 크기의 마스크는 잡음에 민감하여 도로면에 존재하는 작은 불연속적인 영역까지 추출하지만 크게 부각되지 않기 때문에 작은 크기의 마스크를 사용하는 것이 바람직하다. 여기서, 작은 크기의 마스크란 '1×3' 또는 '3×3'의 크기를 가지는 마스크를 의미한다.Next, the mask of small size is sensitive to noise, so that even a small discontinuous area existing on the road surface is extracted, but it is not remarkable, so it is preferable to use a mask of small size. Here, a small size mask means a mask having a size of '1 × 3' or '3 × 3'.

도 8은 전술한 장애물 하단 경계 검출 방법에 따라 처리된 수평 성분 크기 이미지의 일례이다. 수평 관심 영역 내에서 장애물의 하단 경계(60) 부분에서 수평 성분이 높은 값을 갖는다. 이에 따라 도 8과 같이, 단계 4의 소벨 오퍼레이터에 의한 연산을 통해 단계 3의 이미지에서 수평 성분의 크기를 추출할 수 있게 된다.8 is an example of a horizontal component size image processed according to the above-described obstacle bottom boundary detection method. The horizontal component has a high value at the lower boundary 60 portion of the obstacle within the horizontal interest region. Thus, as shown in FIG. 8, the magnitude of the horizontal component can be extracted from the image of the step 3 through the operation by the Sobel operator in step 4.

이와 같이 단계 4의 소벨 연산을 통해 추출된 수평 성분은 바로 장애물 하단 경계(60)로 처리되도록 구성할 수도 있으나, 상기 경우 도포 표식에 의한 노이즈(55)에 의해 부정확성이 존재하게 된다.In this way, the horizontal component extracted through the Sobel operation in Step 4 may be directly processed to the obstacle lower boundary 60, but in this case, there is an inaccuracy due to the noise 55 due to the application marker.

따라서, 전술한 보다 정확한 이미지 인식 및 장애물 하단 경계의 검출을 위해서는 잔여 노이즈를 제거한 후 이루어지도록 구성하는 것이 바람직하다. 여기서 잔여 노이즈(55)란 단계 3을 통해 도로 표식을 제거(즉 약화 처리)하더라도 해당 도로 표식은 완전히 제거되지 않고 여전히 노이즈로 작용하는 것을 지칭한다.Therefore, in order to more accurately recognize the image and detect the lower boundary of the obstacle, it is preferable to perform the removal after the residual noise is removed. Here, the residual noise 55 refers to that the road mark is not completely removed even if the road mark is removed (i.e., weakened) through step 3, and still acts as noise.

관심 영역 내에서는 도록 표식 영역의 경계가 여전히 낮은 값으로 존재하기 때문에 이는 노이즈로 작용하며, 이와 같은 도로 표식에 의한 잔여 노이즈를 제거하는 작업을 더 포함하는 것이 바람직하다. 여기서, 잔여 노이즈를 제거하는 단계를 '단계 4-1'로 칭하기로 한다.In the region of interest, since the boundary of the landmark region still exists at a low value, it acts as noise, and it is preferable to further include a task of removing residual noise due to such road markings. Here, the step of removing the residual noise will be referred to as 'step 4-1'.

<단계 4-1(S41)>&Lt; Step 4-1 (S41) >

본 발명의 단계 4-1은 단계 4의 소벨 오퍼레이터를 통해 추출된 장애물 하단 경계의 수평 성분을 기반으로 하여, 도로 표식에 의한 노이즈(55)를 제거한 이미지에서 장애물 하단 경계를 최종적으로 추출하는 단계이다.Step 4-1 of the present invention is a step of finally extracting the obstacle bottom boundary from the image obtained by removing the noise 55 from the road marking based on the horizontal component of the obstacle bottom boundary extracted through the Sobel operator in step 4 .

바람직한 실시예에 따르면, 단계 4-1의 노이즈 제거는 특히 스무딩 (Smoothing) 및 모폴로지 오퍼레이터(Morphology Operator)를 통하여 수행되는 것을 특징으로 하며, 이의 구체적인 처리 흐름은 다음과 같다.According to a preferred embodiment, the noise cancellation in step 4-1 is performed particularly through smoothing and a morphology operator, and a specific processing flow thereof is as follows.

(1) 마스크 내의 평균값을 계산하는 심플 블러 마스크(Simple Blur Mask)를 이용하여 관심 영역의 픽셀값을 평탄화한다. 상기 경우 이미지의 전체적인 픽셀값이 낮아지기 때문에 낮은 값을 가지는 불연속점이 제거된다.(1) A pixel value of a region of interest is flattened using a simple blur mask that calculates an average value in a mask. In this case, since the overall pixel value of the image is lowered, discontinuous points having lower values are eliminated.

(2) 모폴로지(Morphology) 연산을 통해 도로 표식의 경계와 도로면 잡음 성분을 제거한다. 여기서, 도로 표식 영역의 수평 성분은 값이 일정하게 유지되지 않으며 심플 블러(Simple Blur)만으로는 완벽하게 제거될 수 없기 때문에 클로징(Closing) 연산을 통해 연결성이 작은 영역을 제거한다.(2) Morphology operation removes the road marking boundary and road surface noise components. Here, since the horizontal component of the road marking area is not maintained constant and can not be completely removed only by simple blur, a region with small connectivity is removed through a closing operation.

(3) 가우시안 블러(Gaussian Blur)를 통해, 장애물 하단 경계 영역은 보존하고 그 외의 영역들에 대해서는 제거한다. 가우시안 블러(Gaussian Blur)는 이웃 픽셀과 연관성을 많이 고려하기 때문에 마스크의 크기를 크게 설정하여 주변 값들과의 상관성이 적은 에지(Edge) 부분을 평탄하게 나타나도록 하는 효과가 있다.(3) Through the Gaussian Blur, the obstacle bottom border area is preserved and other areas are removed. Gaussian blur has a large effect of associating neighboring pixels, so that the size of the mask is set to be large and the edge portion having a small correlation with the surrounding values is made flat.

여기서, 가우시안 블러는 '5×5' 이상의 크기부터 효과가 눈에 보일 정도로 나타나기 때문에, 상기 마스크의 크기는 '5×5'의 크기 이상의 마스크를 사용하는 것이 바람직하다.Here, since the Gaussian blur appears so that the effect is noticeable from a size of 5 × 5 or more, it is preferable to use a mask having a size of 5 × 5 or more.

(4) 관심 영역의 수평 성분 이미지에 대하여 누적 히스토그램을 생성하고 이진화를 수행한다. '0'부터 '255'의 누적 히스토그램에서 하위 70% ~ 80% 범위(바람직하게는 75%)내에서 선택된 어느 하나의 수치에 해당하는 픽셀값을 계산하고, 이렇게 산출된 픽셀값은 이진화 영상을 생성하기 위한 임계값으로 사용된다.(4) A cumulative histogram is generated for the horizontal component image of the region of interest and binarization is performed. The pixel value corresponding to any one of the values selected from the lower 70% to 80% range (preferably 75%) in the cumulative histogram of '0' to '255' is calculated. Is used as a threshold value for generation.

(5) 관심 영역 각 가로 픽셀 기준으로 '0'이 아닌 값을 가지는 세로축 픽셀 중 최하단 값을 검사한다. 즉, 가로 픽셀을 좌측으로부터 우측(바람직하게는 좌측 최상단으로부터 우측 최상단)으로 이동하며 세로축에 대하여 '0'이 아닌 값을 가지는 최하단 값을 검출한다. 그리고 검출된 최하단 값들을 버퍼에 저장한다. 이때 값이 존재하지 않거나 소실선(소실점) 이상의 영역에서 최하단 값이 검출되면 표시하지 않는다.(5) Inspect the lowest value among vertical pixels having a value other than '0' on the basis of each horizontal pixel of interest. That is, the horizontal pixel is shifted from the left side to the right side (preferably from the upper left corner to the upper right corner), and a lowermost value having a value other than '0' is detected with respect to the vertical axis. And stores the detected lowermost values in a buffer. At this time, if the value does not exist or the lowermost value is detected in the region above the disappearance line (vanishing point), it is not displayed.

상기와 같은 과정을 통해 버퍼에 저장되는 값은 단계 4에서 추출하고자 하는 장애물 하단 경계에 대응하게 되며, 이는 도 9와 같은 이미지 형태로 표시된다. 참고로, 도 9는 본 발명에 따라 이진화된 장애물 하단 경계 영역(61)을 나타낸 이진화 영상의 일례로서, 도 9에 표시되는 검은색은 픽셀값 '0'에 해당하고, 흰색 즉, 장애물 하단 경계 영역은 픽셀값 '255'에 해당한다.The value stored in the buffer through the above process corresponds to the lower boundary of the obstacle to be extracted in step 4, and is displayed in an image form as shown in FIG. 9 is an example of a binarized image showing an obstacle lower boundary region 61 according to the present invention. The black color shown in FIG. 9 corresponds to a pixel value '0' The region corresponds to the pixel value '255'.

도 10은 본 발명에 따른 장애물 하단 경계 검출을 나타낸 일례이다. 전술한 단계를 통해 추출된 장애물 하단 경계(62)는 정지된 장애물의 감지뿐 아니라 이동 장애물을 검출하는 단계에도 적용된다. 즉, 임의로 지정한 구간(바람직하게는, 관심 영역)에 장애물이 존재하면 소정의 이벤트를 발생하여 추후 충돌의 위험의 정도를 판단하는데 사용된다.10 is an example of the detection of the lower boundary of the obstacle according to the present invention. The obstacle bottom boundary 62 extracted through the above-described steps is applied not only to the detection of the stationary obstacle, but also to the step of detecting the moving obstacle. That is, if an obstacle exists in an arbitrarily designated period (preferably, the region of interest), a predetermined event is generated and used to determine the degree of risk of collision later.

이하에서는 이동 장애물 검출 단계(단계 5, S50)에 대하여 상세히 설명하도록 한다.Hereinafter, the moving obstacle detection step (step 5, S50) will be described in detail.

<단계 5(S50)>&Lt; Step 5 (S50)

본 발명의 단계 5는 장애물 하단 경계를 이용하여 이동이 있는 장애물(이하, '이동 장애물'이라 함)을 검출하는 단계이다. 이동 장애물 검출 단계는 추출된 장애물 하단 경계를 이용하는데, 구체적으로는 관심 영역 내의 임의의 구간 내에서 장애물 하단 경계의 상단 픽셀을 대상으로 해당 장애물의 움직임 여부를 검출한다. 이 때, 차량이 정지 상태이면 이동 평균 이미지와 절대값 차이 이미지를 이용하며, 차량이 주행 중이면 이미지의 텍스쳐(Texture)와 모션(Motion) 정보, 절대값 차이 이미지를 이용하여 이동 장애물을 검출한다. Step 5 of the present invention is a step of detecting a moving obstacle (hereinafter referred to as a moving obstacle) by using the obstacle bottom boundary. The moving obstacle detection step uses the extracted lower boundary of the obstacle. Specifically, it detects whether or not the obstacle moves in the upper pixel of the lower boundary of the obstacle within an arbitrary section within the area of interest. At this time, if the vehicle is in a stopped state, a moving average image and an absolute value difference image are used. If the vehicle is running, a moving obstacle is detected using texture, motion information, and absolute difference image of the image .

(1) 차량 정차 시의 이동 장애물 검출(1) Detect moving obstacles when the vehicle is stopped

차량 정차 시의 이동 장애물 검출은 차이 이미지를 기반으로 동작한다. 실외 환경에서 획득된 이미지는 조명의 변화, 날씨 등의 환경 요인에 의하여 이전 이미지와 현재 이미지가 상이하게 변할 수 있기 때문에 그 변화를 최소화하기 위하여 가우시안 블러(Gaussian Blur)를 수행한다.Moving obstacle detection at the time of stopping the vehicle operates based on the difference image. Gaussian blur is performed to minimize the change of the image obtained in the outdoor environment because the previous image and the current image may be different due to environmental factors such as illumination change and weather.

그리고, 흔들리는 나뭇가지와 같이 움직이는 배경 요소에 강건하게 동작하기 위하여 이동 평균 이미지를 이용한다. 이동 평균 이미지는 다음의 수학식 4와 같이 정의된다.And, moving averages are used to operate robustly against moving background elements like shaking branches. The moving average image is defined by the following equation (4).

Figure 112013045924361-pat00004
Figure 112013045924361-pat00004

(수학식 4에서,(In Equation 4,

St : 이동 평균 이미지,S t : moving average image,

St -1 : t-1 번째까지 누적된 평균 이미지,S t -1 : average image accumulated up to t-1,

It -1 : t-1 번째 이미지I t -1 : t-1 th image

α: t 번째 이미지에 대한 가중치)α: weight for the t-th image)

여기서, 'α'값은 이전 프레임까지 누적된 평균 이미지의 영향을 조절하는 파라미터로 최근 값이 이전의 값보다 큰 가중치를 가지도록 하여 일반 평균 이미지보다 더욱 큰 평균값을 가지도록 한다.Here, 'α' is a parameter for adjusting the influence of the average image accumulated up to the previous frame, so that the recent value has a larger weight than the previous value, so that it has a larger average value than the general average image.

이동 평균 이미지 St와 현재 이미지 It의 각 픽셀 절대값 차이를 계산하여 차이 이미지를 생성한다. 이동 평균 이미지에서 현재 이미지를 뺀 후 큰 변화가 존재하는 부분을 전경으로 추출한다. 여기서, 상기 전경은 움직임이 있는 이동 장애물을 포함한다.A difference image is generated by calculating the absolute difference value of each pixel of the moving average image S t and the current image I t . Subtracts the current image from the moving average image, and extracts the portion where the large change exists in the foreground. Here, the foreground includes moving obstacles with motion.

그리고, 모폴로지(Morphology) 연산의 팽창(Dilation)과 가우시안 블러(Gaussian Blur), 중간값 필터(Median Filter)를 이용하여 추출된 전경 영역에서 잡음 성분은 제거하고 장애물의 움직임을 감지한다.Then, the noise component is removed from the extracted foreground region using the dilation of the morphology operation, the Gaussian Blur, and the median filter, and the motion of the obstacle is detected.

도 11은 본 발명에 따른 차량 정차 시의 이동 장애물 검출 결과를 나타낸 일 례로서, 도 11의 사각형 블록(65) 내에 잡힌 장애물이 이동 장애물임 나타내고 있다.FIG. 11 shows an example of the results of detection of moving obstacles at the time of vehicle stop according to the present invention. In FIG. 11, the obstacle caught in the square block 65 is a moving obstacle.

(2) 차량 주행 시의 이동 장애물 검출(2) Detect moving obstacles when driving

차량 주행 시의 이동 장애물 검출은 모션(Motion) 정보와 텍스쳐(Texture) 정보, 절대값 차이 이미지를 이용한다. 차량 주행 시에는 차량 정차 시의 방법을 적용하면 배경으로 작용하는 영역도 표현되기 때문에 텍스쳐 정보를 이용하여 후보 영역을 추출하고, 모션 정보에 절대값 차이 이미지를 가중치로 하여 적용한다.Motion detection, motion information, texture information, and absolute difference images are used to detect moving obstacles when driving. In the case of vehicle driving, when the vehicle stopping method is applied, a region serving as a background is also expressed. Therefore, the candidate region is extracted using the texture information, and the absolute difference image is applied to the motion information as the weight.

텍스쳐(Texture)를 이용하여 장애물 존재 후보 영역을 추출하기 위하여 장애물 하단 경계 영역 이상의 영역에 대하여 로컬 엔트로피(Local Entropy)를 계산한다. 엔트로피(Entropy)는 불균일한 영역에서 높은 값을 나타내며 도로 위에 존재하는 장애물은 대부분 불균일한 영역을 포함하고 있다고 가정할 수 있기 때문에 임의의 크기를 가진 블록(Block) 내에서 엔트로피를 계산한다.Local entropy is calculated for the region beyond the lower boundary region of the obstacle in order to extract the obstacle candidate region using the texture. Entropy is a high value in a non-uniform region, and entropy is calculated within a block of arbitrary size because it can be assumed that obstacles existing on the road mostly include non-uniform regions.

여기서, 상기 임의의 크기를 가진 블록은 영상 크기에 따라 변경될 수 있으며, 바람직하게는, 영상의 가로 길이와 세로 길이의 공약수를 계산하여 설정할 수 있다. 예컨대, 영상 크기가 '320×240' 라면, 블록의 크기는 '16×16', '8×8', '4×4' 등으로 이루어진 군으로 구성될 수 있다.Here, the block having the arbitrary size may be changed according to the image size, and preferably, a common divisor between the horizontal length and the vertical length of the image may be calculated and set. For example, if the image size is '320 × 240', the size of the block may be '16 × 16', '8 × 8', '4 × 4', or the like.

블록 내 엔트로피를 산출하기 위한 방법은 다음의 수학식 5와 같다.The method for calculating the entropy in the block is expressed by Equation (5).

Figure 112013045924361-pat00005
Figure 112013045924361-pat00005

(수학식 5에서,(In equation (5)

Pi : i 번째 Gray Level의 확률,P i : probability of i-th gray level,

ni : i 번째 Gray Level의 빈도수,n i : frequency of i-th gray level,

M,N : 블록의 가로, 세로 크기,M, N: the horizontal and vertical size of the block,

e : 블록 내의 엔트로피)e: entropy in the block)

도 12는 본 발명에 따른 엔트로피 기반의 장애물 후보 영역 추출 이미지를 나타낸 일례로서, 이미지를 임의 크기의 블록(Block)(70)으로 나누어 엔트로피가 높은 영역을 추출 표시하였다. 도 12을 참조하면, 장애물의 크기 변화에 강인한 특성을 갖도록 높은 엔트로피를 가질수록 작은 크기의 블록으로 분할하여 분할된 블록(70) 내에서 엔트로피를 다시 계산한다. 높은 엔트로피를 가진 영역은 장애물 후보 영역으로 설정하고 설정된 후보 영역에 대해서만 모션(Motion) 정보를 추출한다.FIG. 12 shows an example of an entropy-based obstacle candidate region extraction image according to the present invention. The image is divided into blocks 70 of an arbitrary size and an area having a high entropy is extracted and displayed. Referring to FIG. 12, entropy is recalculated in a divided block 70 by dividing the block into small blocks having a high entropy so as to have robust characteristics with respect to the size change of the obstacle. The region having a high entropy is set as an obstacle candidate region, and motion information is extracted only for a set candidate region.

모션(Motion) 정보의 추출을 위하여 Lucas-Kanade Optical Flow를 이용한다. Lucas-Kanade Optical Flow는 연속된 프레임에서 오차가 최소 오차 이하로 나타나는 픽셀에 대해서만 속도 벡터를 계산하며 그 외에는 계산에서 배제한다. Lucas-Kanade Optical Flow is used to extract motion information. Lucas-Kanade Optical Flow computes the velocity vector only for pixels whose errors appear below the minimum error in consecutive frames, and excludes otherwise.

실제 차량 이미지에서 Lucas-Kanade Optical Flow는 작고 일관된 움직임이라는 가정을 위배하므로 정확도가 떨어지며 모션 정보를 가진 절대값 차이 이미지를 이용하여 독립적인 이동 장애물에 대한 모션 정보를 추출한다.In the real vehicle image, Lucas-Kanade Optical Flow violates the assumption of small and consistent motion, so motion information for independent moving obstacles is extracted using the absolute difference image with low accuracy.

도 13은 본 발명에 따른 절대값 차이 이미지의 일례로서, 차량 정차 시와 달리 이동 평균을 이용하지 않는 절대값 차이 이미지이다. 도 13의 차이 이미지에서 엔트로피를 이용한 장애물 후보 영역에 대한 픽셀 값만을 추출하여 움직이는 물체를 감지 및 표시한다. 도 13의 경우 흰색의 라인(80)으로 표시된 부분이 이에 해당한다.13 is an example of an absolute value difference image according to the present invention, which is an absolute value difference image which does not use a moving average unlike the case where the vehicle is stopped. In the difference image of FIG. 13, only a pixel value for an obstacle candidate region using entropy is extracted and a moving object is detected and displayed. In FIG. 13, this corresponds to a portion indicated by a white line 80.

이 때, 차량이 이동 중일 때 배경에 해당하는 영역에서도 이미지 내 움직임이 존재하고 이에 따른 누적된 이전 프레임들의 정보는 오히려 잡음으로 나타나므로 현재 프레임(이미지)과 이전 프레임(이미지)의 차이만을 이용하여 모션 정보의 가중치로 사용되며 가중치를 적용하는 수식은 다음의 수학식 6과 같다.In this case, since the motion of the image exists even in the area corresponding to the background when the vehicle is moving, and information of accumulated previous frames is rather noise, only the difference between the current frame (image) and the previous frame The equation for applying the weight is used as the weight of the motion information, as shown in Equation (6).

Figure 112013045924361-pat00006
Figure 112013045924361-pat00006

(수학식 6에서,(In Equation 6,

w(x,y) : (x,y)좌표에 대한 모션 정보의 가중치,w (x, y): weight of motion information with respect to (x, y)

d(x,y) : 절대값 차이 이미지의 (x,y)좌표 픽셀값,d (x, y) is the (x, y) coordinate pixel value of the absolute difference image,

α : 상수)α: constant)

그리고, 수학식 6에 의해 산출된 가중치를 다음의 수학식 7과 같이 각 픽셀에 대한 속도 벡터에 곱하여 모션 정보를 계산한다. 모션 정보는 이동 장애물의 속도 벡터의 값을 크게 하고 그 외의 배경 영역에 대한 속도 벡터를 억제된 결과로 계산된다.Then, the motion vector is calculated by multiplying the velocity vector for each pixel by the weight calculated by Equation (6) as shown in the following Equation (7). The motion information is calculated as a result of increasing the value of the velocity vector of the moving obstacle and restricting the velocity vector to other background areas.

Figure 112013045924361-pat00007
Figure 112013045924361-pat00007

전술한 방법을 통해 산출된 속도벡터 중 특정 임계값 이상의 속도벡터만을 추출하면 도 14와 같이 차량 주행 시의 이동 장애물이 검출되며, 도 14의 경우 '90'으로 표시한 블록이 차량 주행 시의 이동 장애물에 해당하게 된다.14, if a speed vector of a speed vector equal to or higher than a specific threshold value is extracted from the speed vectors calculated through the above-described method, a moving obstacle at the time of driving the vehicle is detected as shown in FIG. 14, It becomes an obstacle.

여기서, 상기 특정 임계값 이상의 속도벡터만을 추출함은 속도 벡터가 '1' 이상인 벡터만을 추출하는 것을 의미할 수 있다. 장애물이 움직이는 경우 수학식 6의 가중치 수식에 의해 '1' 이상의 속도 벡터를 가지기 때문이다.Here, extracting only the velocity vector exceeding the specific threshold value may mean extracting only a vector having a velocity vector of '1' or more. Since the velocity vector of '1' or more is obtained by the weighting formula of Equation (6) when the obstacle moves.

<단계 6(S60)>&Lt; Step 6 (S60)

본 발명의 단계 6은 단계 5를 통해 검출된 이동 장애물의 하단 경계가 관심 영역 내로 침범하였는지 여부를 판별하는 단계로서, 구체적으로는 감지된 장애물 하단 경계의 세로축 위치 정보를 이용하여 상기 침범 여부를 판별하고, 더 나아가 해당 장애물과 차량 간의 거리에 따라 세분화된 경고 이벤트를 발생시킬 수 있도록 구성된다.Step 6 of the present invention is a step of determining whether or not the lower boundary of the moving obstacle detected through step 5 has invaded into the ROI, and more specifically, determining whether the invasion has occurred using the vertical axis position information of the detected lower boundary of the obstacle And further to generate a detailed warning event according to the distance between the obstacle and the vehicle.

바람직한 실시예에 따르면, 해당 장애물과 차량 간의 거리는 다음과 같이 차량 폭 산출 방식을 통해 산출되도록 구성할 수 있다. 차량에 대한 장애물의 접근 정도 즉, 장애물과 차량 간의 거리는 관심 영역 내 검출된 장애물의 세로축 좌표의 높이에 해당하는 지점에 대응하는 관심 영역의 가로 폭(즉, 차량 폭)의 크기를 계산한 후, 이에 의해 산출되는 관심 영역 가로 폭 크기의 상대적 변화를 이용하여 장애물이 어느 정도 위치에 접근했는지를 판단할 수 있다.According to a preferred embodiment, the distance between the obstacle and the vehicle may be calculated through a vehicle width calculation method as follows. The distance between the obstacle and the vehicle is calculated by calculating the size of the width of the area of interest (i.e., width of the vehicle) corresponding to the point corresponding to the height of the vertical axis of the detected obstacle in the area of interest, The relative change in the width of the area of interest calculated thereby can be used to determine how far the obstacle has approached the location.

<단계 7(S70)>&Lt; Step 7 (S70)

본 발명의 단계 7은 단계 6을 통해 이동 장애물의 하단 경계가 관심 영역 내로 침범하였음을 감지하였을 경우, 이를 차량 운전자에게 청각적 또는(및) 시각적으로 알려주는 단계이다.Step 7 of the present invention is a step of audibly or visually informing a driver of the vehicle that the lower boundary of the obstacle has entered the ROI through step 6.

정지 장애물의 경우 해당 장애물의 하단 경계가 이미지의 하단으로 이동하지 않으면 충돌 위험이 없기 때문에 장애물 하단의 도로면 경계 부분만 표시하고 특정 거리에 장애물이 존재함을 알려주는 이벤트를 수행할 수 있다.In the case of a stationary obstacle, since there is no risk of collision if the lower boundary of the obstacle does not move to the bottom of the image, only an edge of the road surface at the bottom of the obstacle is displayed and an event indicating that an obstacle exists at a specific distance can be performed.

이동 장애물의 경우 움직임의 변위가 크기 때문에 임의로 정의된 영역(예컨대 관심 영역) 내에 이동 장애물 하단 경계가 침범하였을 경우, 경고 이벤트를 수행하도록 구성된다.And is configured to perform a warning event when a moving obstacle bottom boundary has entered an arbitrarily defined area (for example, a region of interest) due to the large displacement of motion in the case of a moving obstacle.

바람직한 실시예에 따르면, 도 6과 같이 관심 영역(40)을 상부 영역(41)과 하부 영역(42)으로 이루어진 2개의 영역으로 분할하여, 차량이 상부 영역(41)으로 진입시 충돌 위험 장애물이 출현했음을 예비 경고하고, 차량이 상부 영역(41)을 넘어 하부 영역(42)까지 침범시 충돌 위험이 임박했음을 최종 경고하도록 구성할 수 있다. 여기서, 장애물이 관심 영역 중 상부 영역에 진입하였는지 또는 하부 영역까지 침범하였는지 여부는 전술한 차량 폭 산출 방식을 통해 판별 가능하다.According to a preferred embodiment, the region of interest 40 is divided into two regions consisting of an upper region 41 and a lower region 42, as shown in FIG. 6, so that when the vehicle enters the upper region 41, And to warn that the risk of collision is imminent when the vehicle goes over the upper region 41 to the lower region 42. [ Here, whether or not the obstacle has entered the upper area or the lower area of the ROI can be determined through the vehicle width calculation method described above.

한편, 동일한 속도로 움직이는 물체의 경우 충돌 위험성이 적다고 판단하기 때문에 모션(Motion) 정보를 이용하여 상단으로 향하는 물체로 판별될 경우 경고 이벤트를 수행하지 않도록 구성할 수 있다.
On the other hand, since it is determined that the risk of collision is small in the case of an object moving at the same speed, it is possible to configure not to perform the warning event when it is determined that the object is moving toward the top using motion information.

상기에서 본 발명의 바람직한 실시예가 특정 용어들을 사용하여 설명 및 도시되었지만 그러한 용어는 오로지 본 발명을 명확히 설명하기 위한 것일 뿐이며, 본 발명의 실시예 및 기술된 용어는 다음의 청구범위의 기술적 사상 및 범위로부터 이탈되지 않고서 여러가지 변경 및 변화가 가해질 수 있는 것은 자명한 일이다. 이와 같이 변형된 실시예들은 본 발명의 사상 및 범위로부터 개별적으로 이해되어져서는 안되며, 본 발명의 청구범위 안에 속한다고 해야 할 것이다.
While the preferred embodiments of the present invention have been described and illustrated above using specific terms, such terms are used only for the purpose of clarifying the invention, and it is to be understood that the embodiment It will be obvious that various changes and modifications can be made without departing from the spirit and scope of the invention. Such modified embodiments should not be understood individually from the spirit and scope of the present invention, but should be regarded as being within the scope of the claims of the present invention.

10: 카메라, 20: 경고 출력부
30: 영상인식 처리부 31: 이미지 보정부
32: 이미지 구획부 33: 도로표식 처리부
34: 장애물하단경계 추출부 35: 이동장애물 검출부
36: 충돌위험 판별부 40: 관심 영역
50,51: 도로 표식 62: 장애물 하단 경계
10: camera, 20: alarm output unit
30: image recognition processing unit 31: image correction unit
32: image dividing unit 33: road marking processing unit
34: obstacle bottom boundary extracting unit 35: moving obstacle detecting unit
36: Collision risk discrimination part 40: Interest area
50,51: Road marking 62: Obstacle bottom boundary

Claims (14)

차량의 카메라를 통해 촬영된 이미지에서 방사 왜곡을 보정하는 제1 단계;
상기 보정된 이미지에서 차량과 충돌 위험이 있는 영역을 관심 영역으로 설정하는 제2 단계;
적어도 상기 관심 영역 내의 도로 표식을 추출하여 이를 약화 처리하는 제3 단계;
상기 도로 표식이 약화 처리된 이미지에서 장애물 하단과 지면 간의 경계(이하, '장애물 하단 경계'라 함)를 추출하는 제4 단계;
상기 장애물 하단 경계를 이용하여, 이동이 있는 장애물(이하, '이동 장애물'이라 함)을 검출하는 제5 단계;
상기 이동 장애물의 하단 경계가 상기 관심 영역 내로 침범하였는지 여부를 판별하는 제6 단계; 및
상기 제6 단계의 판별 결과, 상기 침범에 해당시 경고 이벤트를 발생시키는 제7 단계;를 포함하는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
A first step of correcting the radiation distortion in the image photographed through the camera of the vehicle;
A second step of setting an area in which there is a risk of collision with a vehicle in the corrected image as an area of interest;
A third step of extracting road markings in at least the area of interest and weakening the extracted road markings;
A fourth step of extracting a boundary between the bottom of the obstacle and the ground (hereinafter referred to as an 'obstacle bottom boundary') in the image in which the road marking is weakened;
A fifth step of detecting a moving obstacle (hereinafter referred to as a moving obstacle) using the lower boundary of the obstacle;
A sixth step of determining whether a lower boundary of the moving obstacle has invaded into the ROI; And
And a seventh step of generating a warning event when it is detected as a result of the determination of the sixth step.
제1 항에 있어서,
상기 제3 단계의 상기 약화 처리는, 상기 추출된 도로 표식의 픽셀값을 재조정하거나 대체하는 방식으로 처리하도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
The method according to claim 1,
Wherein the weakening process of the third step is configured to process a pixel value of the extracted road marking by a method of rearranging or replacing the pixel value of the extracted road marking.
제1 항에 있어서,
상기 제3 단계의 도로 표식의 추출은 지면과 도로 표식 간의 밝기 차이를 이용하여 추출하되, 상기 관심 영역을 복수 개의 영역으로 분할하여 각각의 영역에 대하여 다른 임계값을 설정하여 도로 표식을 추출하도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
The method according to claim 1,
The road markers of the third step are extracted by using the brightness difference between the ground and the road markers, and the road markers are extracted by dividing the ROI into a plurality of regions and setting different threshold values for the respective regions Wherein the obstacle detection means detects the vehicle obstacle based on the image recognition.
제1 항에 있어서,
상기 제4 단계의 장애물 하단 경계 추출은, 상기 제3 단계를 통해 도로 표식이 약화 처리된 이미지에서 소벨 오퍼레이터(Sobel Operator)를 통해 산출된 수평 성분을 이용하여 추출되도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
The method according to claim 1,
Wherein the step of extracting the lower boundary of the obstacle in the fourth step is performed using the horizontal component calculated through the Sobel operator in the image obtained by weakening the road marking through the third step. Based vehicle access obstacle detection method.
제4 항에 있어서,
상기 제4 단계는,
상기 소벨 오퍼레이터를 통한 상기 수평 성분 산출 이후,
심플 블러 마스크(Simple Blur Mask)를 이용하여 관심 영역의 픽셀값을 평탄화하는 제4-1 단계;
모폴로지(Morphology) 연산을 통해 도로 표식의 경계와 도로면 잡음 성분을 제거하는 제4-2 단계;
가우시안 블러(Gaussian Blur)를 통해 장애물 하단 경계 영역은 보존하고 그 외의 영역들은 제거하는 제4-3 단계;
상기 수평 성분에 대해 누적 히스토그램을 생성하고 이진화를 수행하는 제4-4 단계; 및
상기 관심 영역의 각 가로 픽셀을 기준으로 '0'이 아닌 값을 가지는 세로축 픽셀 중 최하단 값을 검출하여 이를 버퍼에 저장하는 제4-5 단계를 포함하는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
5. The method of claim 4,
In the fourth step,
After calculating the horizontal component through the Sobel operator,
(4-1) planarizing pixel values of a region of interest using a simple blur mask;
(4-2) removing a road marking boundary and a road surface noise component through a morphology operation;
A fourth step of preserving the lower boundary region of the obstacle through the Gaussian Blur and removing the other regions;
A fourth step of generating an accumulated histogram for the horizontal component and performing binarization; And
And a fourth step of detecting a lowest value among vertical pixels having a value other than '0' based on each horizontal pixel of the ROI, and storing the lowest value in a buffer. Detection method.
제5 항에 있어서,
상기 제4-4 단계는, '0'부터 '255'의 누적 히스토그램에서 하위 70% ~ 80% 범위 내에서 선택된 적어도 어느 하나의 수치에 해당하는 픽셀값을 산출하고, 상기 산출된 픽셀값을 이진화 영상을 생성하기 위한 임계값으로 사용하도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
6. The method of claim 5,
In the step 4-4, a pixel value corresponding to at least one selected from the range of 70% to 80% in a cumulative histogram of '0' to '255' is calculated, and the calculated pixel value is binarized Wherein the threshold value is used as a threshold value for generating an image.
제1 항에 있어서,
상기 제5 단계는,
상기 제4 단계를 통해 추출된 장애물 하단 경계를 이용하되, 상기 관심 영역의 임의의 구간 내에서 상기 장애물 하단 경계의 상단 픽셀을 대상으로 해당 장애물이 이동이 있는지 여부를 검출하도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
The method according to claim 1,
In the fifth step,
Wherein the controller is configured to detect whether or not the obstacle is moved on an upper pixel of the obstacle bottom boundary within an arbitrary section of the ROI using the lower boundary of the obstacle extracted through the fourth step (Method of detecting vehicle access obstacle based on image recognition).
제7 항에 있어서,
차량이 정지 상태이면, 이동 평균 이미지와 현재 이미지의 절대값 차이 이미지를 이용하여 상기 이동 장애물을 검출하고,
차량이 주행 중이면, 상기 장애물 하단 경계의 상측 영역에 대한 로컬 엔트로피(Local Entropy) 계산에 의해 추출되는 텍스쳐(Texture) 정보, 현재 이미지와 이전 이미지의 절대값 차이 이미지, 및 상기 절대값 차이 이미지로부터 산출되는 모션(Motion) 정보를 이용하여 상기 이동 장애물을 검출하도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
8. The method of claim 7,
Detecting a moving obstacle using a moving average image and an absolute value difference image of the current image if the vehicle is in a stopped state,
If the vehicle is running, texture information extracted by local entropy calculation for the upper region of the obstacle lower boundary, absolute difference image of the current image and the previous image, And detecting the moving obstacle based on the calculated motion information.
제1 항에 있어서,
상기 제6 단계는,
상기 제5 단계를 통해 검출된 이동 장애물의 하단 경계의 세로축 위치 정보를 이용하여 상기 침범 여부를 판별하도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
The method according to claim 1,
In the sixth step,
Wherein the step of determining whether the vehicle is approaching is based on the vertical axis position information of the lower boundary of the moving obstacle detected through the fifth step.
제9 항에 있어서,
상기 검출된 이동 장애물의 세로축 좌표의 높이에 해당하는 지점에 대응하는 상기 관심 영역의 가로 폭의 크기를 산출한 후, 이를 이용하여 상기 관심 영역에 침범한 이동 장애물과 차량 간의 거리(차량에 대한 장애물의 접근 정도)를 더 판별하도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
10. The method of claim 9,
And calculates a distance between the moving obstacle and the vehicle that has entered the area of interest using the distance between the moving obstacle and the vehicle, The method comprising the steps of: (a) detecting an obstacle in a vehicle;
제1 항에 있어서,
상기 제1 단계는, 상기 촬영된 이미지의 가로 및 세로 길이를 이용하여 상기 방사 왜곡을 보정하도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
The method according to claim 1,
Wherein the first step is configured to correct the radial distortion using the horizontal and vertical lengths of the photographed image.
제1 항에 있어서,
상기 제2 단계의 관심 영역은 사다리꼴 모양으로 설정되되, 상기 사다리꼴의 윗변은 상기 보정된 이미지에서 소실선의 하측 영역에 위치하도록 설정되고, 상기 사다리꼴은 상부 영역과 하부 영역으로 이루어진 2개의 영역으로 분할되어 설정되도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
The method according to claim 1,
Wherein the area of interest in the second step is set in a trapezoidal shape, wherein the upper side of the trapezoid is set to be located in a lower area of the missing line in the corrected image, and the trapezoid is divided into two areas of an upper area and a lower area Wherein the obstacle detection means detects the vehicle obstacle based on the detected obstacle.
제12 항에 있어서,
상기 제7 단계는,
차량이 상기 상부 영역으로 진입시 충돌 위험 장애물이 출현했음을 예비 경고하고, 차량이 상부 영역을 넘어 하부 영역까지 침범시 충돌 위험이 임박했음을 최종 경고하도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
13. The method of claim 12,
In the seventh step,
Wherein the vehicle is configured to warn that a collision hazard obstacle has appeared when the vehicle has entered the upper region, and to warn that the risk of a collision is imminent when the vehicle goes beyond the upper region to the lower region. Way.
차량 주변을 촬영하여 이미지를 획득하는 카메라;
상기 카메라로부터 입력되는 이미지에서 방사 왜곡을 보정하는 이미지 보정부;
상기 보정된 이미지에서 차량과 충돌 위험이 있는 영역을 관심 영역으로 구획하여 설정하는 이미지 구획부;
적어도 상기 관심 영역 내의 도로 표식을 추출하여 이를 약화 처리하는 도로 표식 처리부;
상기 도로 표식이 약화 처리된 이미지에서 장애물 하단과 지면 간의 경계(이하, '장애물 하단 경계'라 함)를 검출하는 장애물하단경계 추출부;
상기 장애물 하단 경계를 이용하여, 이동이 있는 장애물(이하, '이동 장애물'이라 함)을 검출하는 이동장애물 검출부;
상기 이동 장애물의 하단 경계가 상기 관심 영역 내로 침범하였는지 여부를 판별하는 충돌위험 판별부; 및
상기 충돌위험 판별부의 판별 결과, 상기 침범에 해당시 경고 이벤트를 발생시키는 경고 출력부;를 포함하는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 시스템.
A camera for photographing the vicinity of the vehicle to acquire an image;
An image correcting unit correcting a radiation distortion in an image input from the camera;
An image dividing unit for dividing and setting an area where there is a risk of collision with a vehicle in the corrected image as a region of interest;
A road marking processor for extracting road markings in the ROI and attenuating the road markings;
An obstacle bottom boundary extracting unit for detecting a boundary between the bottom of the obstacle and the ground (hereinafter, referred to as 'obstacle bottom edge') in the image in which the road marking is weakened;
A moving obstacle detector for detecting an obstacle with movement (hereinafter referred to as a 'moving obstacle') using the obstacle lower boundary;
A collision risk judging unit for judging whether or not the lower boundary of the moving obstacle has invaded into the region of interest; And
And a warning output unit for generating a warning event when the collision risk discrimination unit discriminates that the collision is detected.
KR20130058829A 2013-05-24 2013-05-24 Method and system for detecting an approaching obstacle based on image recognition KR101464489B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130058829A KR101464489B1 (en) 2013-05-24 2013-05-24 Method and system for detecting an approaching obstacle based on image recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130058829A KR101464489B1 (en) 2013-05-24 2013-05-24 Method and system for detecting an approaching obstacle based on image recognition

Publications (1)

Publication Number Publication Date
KR101464489B1 true KR101464489B1 (en) 2014-11-25

Family

ID=52291414

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130058829A KR101464489B1 (en) 2013-05-24 2013-05-24 Method and system for detecting an approaching obstacle based on image recognition

Country Status (1)

Country Link
KR (1) KR101464489B1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016104842A1 (en) * 2014-12-26 2016-06-30 재단법인 다차원 스마트 아이티 융합시스템 연구단 Object recognition system and method of taking account of camera distortion
KR20160131579A (en) * 2015-05-08 2016-11-16 엘지전자 주식회사 Autonomous drive apparatus and vehicle including the same
KR101713986B1 (en) 2016-02-17 2017-03-08 한국항공대학교산학협력단 Optical flow estimator for moving object detection and method thereof
KR20180060024A (en) * 2016-11-28 2018-06-07 동국대학교 산학협력단 System and method for vehicle collision avoidance
WO2019054719A1 (en) * 2017-09-15 2019-03-21 엘지전자 주식회사 Vehicle driving assistance device and vehicle
KR20190069958A (en) * 2017-12-12 2019-06-20 연세대학교 산학협력단 Apparatus and Method for Detecting Moving Object
KR20200054615A (en) * 2018-11-12 2020-05-20 재단법인대구경북과학기술원 Method and system for detecting a plurality of lowest points of a single segment in an image
CN111332200A (en) * 2018-12-18 2020-06-26 现代自动车株式会社 Vehicle and control method of vehicle
KR20210069847A (en) * 2019-12-04 2021-06-14 배재대학교 산학협력단 System and method for controlling power tailgate based on 3d sensor
CN114291077A (en) * 2021-12-23 2022-04-08 海宁奕斯伟集成电路设计有限公司 Vehicle anti-collision early warning method and device
KR102500051B1 (en) * 2022-08-18 2023-02-16 주식회사 이노메트릭스 How to operate the gantry collision prevention system
CN117278697A (en) * 2023-11-21 2023-12-22 中汽传媒(天津)有限公司 System and method for collecting panoramic video of automobile collision

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120009591A (en) * 2010-07-19 2012-02-02 주식회사 이미지넥스트 Vehicle Collision Alarm System and Method
KR20130007243A (en) * 2011-06-30 2013-01-18 (주)베라시스 Method and system for warning forward collision using camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120009591A (en) * 2010-07-19 2012-02-02 주식회사 이미지넥스트 Vehicle Collision Alarm System and Method
KR20130007243A (en) * 2011-06-30 2013-01-18 (주)베라시스 Method and system for warning forward collision using camera

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016104842A1 (en) * 2014-12-26 2016-06-30 재단법인 다차원 스마트 아이티 융합시스템 연구단 Object recognition system and method of taking account of camera distortion
KR20160131579A (en) * 2015-05-08 2016-11-16 엘지전자 주식회사 Autonomous drive apparatus and vehicle including the same
KR102043060B1 (en) * 2015-05-08 2019-11-11 엘지전자 주식회사 Autonomous drive apparatus and vehicle including the same
KR101713986B1 (en) 2016-02-17 2017-03-08 한국항공대학교산학협력단 Optical flow estimator for moving object detection and method thereof
KR20180060024A (en) * 2016-11-28 2018-06-07 동국대학교 산학협력단 System and method for vehicle collision avoidance
KR101894731B1 (en) * 2016-11-28 2018-09-04 동국대학교 산학협력단 System and method for vehicle collision avoidance
WO2019054719A1 (en) * 2017-09-15 2019-03-21 엘지전자 주식회사 Vehicle driving assistance device and vehicle
KR102002228B1 (en) * 2017-12-12 2019-07-19 연세대학교 산학협력단 Apparatus and Method for Detecting Moving Object
WO2019117374A1 (en) * 2017-12-12 2019-06-20 연세대학교 산학협력단 Apparatus and method for detecting dynamic object
KR20190069958A (en) * 2017-12-12 2019-06-20 연세대학교 산학협력단 Apparatus and Method for Detecting Moving Object
KR20200054615A (en) * 2018-11-12 2020-05-20 재단법인대구경북과학기술원 Method and system for detecting a plurality of lowest points of a single segment in an image
KR102134811B1 (en) * 2018-11-12 2020-07-16 재단법인대구경북과학기술원 Method and system for detecting a plurality of lowest points of a single segment in an image
CN111332200A (en) * 2018-12-18 2020-06-26 现代自动车株式会社 Vehicle and control method of vehicle
KR20210069847A (en) * 2019-12-04 2021-06-14 배재대학교 산학협력단 System and method for controlling power tailgate based on 3d sensor
KR102280460B1 (en) * 2019-12-04 2021-07-21 배재대학교 산학협력단 System and method for controlling power tailgate based on 3d sensor
CN114291077A (en) * 2021-12-23 2022-04-08 海宁奕斯伟集成电路设计有限公司 Vehicle anti-collision early warning method and device
KR102500051B1 (en) * 2022-08-18 2023-02-16 주식회사 이노메트릭스 How to operate the gantry collision prevention system
CN117278697A (en) * 2023-11-21 2023-12-22 中汽传媒(天津)有限公司 System and method for collecting panoramic video of automobile collision
CN117278697B (en) * 2023-11-21 2024-03-15 中汽传媒(天津)有限公司 System and method for collecting panoramic video of automobile collision

Similar Documents

Publication Publication Date Title
KR101464489B1 (en) Method and system for detecting an approaching obstacle based on image recognition
KR101613740B1 (en) Runway Surveillance System and Method
JP6174975B2 (en) Ambient environment recognition device
WO2016076449A1 (en) Method and system for detecting an approaching obstacle based on image recognition
KR101392850B1 (en) Method and system for lane departure warning based on image recognition
JP5997276B2 (en) Three-dimensional object detection device and foreign object detection device
US4970653A (en) Vision method of detecting lane boundaries and obstacles
JP6054777B2 (en) Stereo camera device
EP2928178B1 (en) On-board control device
JP6072064B2 (en) Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine
JP2007156626A (en) Object type determination device and object type determination method
KR101584907B1 (en) Method and Apparatus for recognizing lane using region of interest
Liu et al. Development of a vision-based driver assistance system with lane departure warning and forward collision warning functions
Bhujbal et al. Lane departure warning system based on Hough transform and Euclidean distance
KR101483742B1 (en) Lane Detection method for Advanced Vehicle
JP5548212B2 (en) Crosswalk sign detection method and crosswalk sign detection device
Lion et al. Smart speed bump detection and estimation with kinect
KR101568745B1 (en) Vehicle assistant apparatus and method based on infrared images
JP6701905B2 (en) Detection device, parallax value derivation device, object recognition device, device control system, and program
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP5785515B2 (en) Pedestrian detection device and method, and vehicle collision determination device
KR100976142B1 (en) detection method of road vehicles
KR101531313B1 (en) Apparatus and method for object detection of vehicle floor
WO2023095489A1 (en) External environment recognition device

Legal Events

Date Code Title Description
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170405

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181120

Year of fee payment: 5