KR101464489B1 - Method and system for detecting an approaching obstacle based on image recognition - Google Patents
Method and system for detecting an approaching obstacle based on image recognition Download PDFInfo
- Publication number
- KR101464489B1 KR101464489B1 KR20130058829A KR20130058829A KR101464489B1 KR 101464489 B1 KR101464489 B1 KR 101464489B1 KR 20130058829 A KR20130058829 A KR 20130058829A KR 20130058829 A KR20130058829 A KR 20130058829A KR 101464489 B1 KR101464489 B1 KR 101464489B1
- Authority
- KR
- South Korea
- Prior art keywords
- obstacle
- image
- vehicle
- boundary
- road
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000033001 locomotion Effects 0.000 claims abstract description 27
- 230000003313 weakening effect Effects 0.000 claims abstract description 11
- 238000001514 detection method Methods 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 230000005855 radiation Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 18
- 238000003702 image correction Methods 0.000 description 12
- 239000013598 vector Substances 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 230000008034 disappearance Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000009545 invasion Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000037007 arousal Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 차량 접근 장애물 감지 방법 및 시스템에 관한 것으로서, 보다 상세하게는 차량에 설치된 카메라(특히, 어라운드 뷰)를 통해 촬영된 영상을 판독하여 차량에 접근하는 장애물을 검출하고 이를 운전자에게 알려줄 수 있는 영상 인식 기반의 차량 접근 장애물 감지 방법 및 시스템에 관한 것이다.
The present invention relates to a method and system for detecting a vehicle obstacle, and more particularly, to a method and system for detecting an obstacle approaching a vehicle by reading an image captured through a camera (in particular, And more particularly, to a method and system for detecting vehicle access obstacles based on image recognition.
차량 주변에는 다양한 형태의 장애물이 존재하며 이와 같은 잠재적인 충돌 가능성을 가진 위험 요소로부터 보호 받기 위하여 장애물 검출을 시도한다.Various types of obstacles exist around the vehicle and attempt to detect obstacles to protect them from potential risk factors.
일반적으로 차량 접근 장애물 감지 장치 내지 시스템은 초음파, 레이저 등의 센서를 통해 차량과 매우 근접한 거리에 있는 장애물을 탐지하고 이를 운전자에게 알려주도록 구성된다.2. Description of the Related Art In general, a vehicle access obstacle sensing device or system detects an obstacle at a very close distance from a vehicle through a sensor such as an ultrasonic wave or a laser, and informs the driver of the obstacle.
그런데, 이처럼 초음파 내지 레이저 센서 대신 차량에 설치된 카메라를 통해 촬영된 영상을 이용하여 차량 접근 장애물을 감지하기 위해서는 상기의 센서와는 다른 방법이 필요하게 된다.However, in order to detect a vehicle access obstacle by using an image captured through a camera installed in a vehicle instead of the ultrasonic sensor or the laser sensor, a method different from the above sensor is required.
카메라 기반의 장애물 검출은 초음파나 레이저 센서와 다르게 장애물 유무의 감지뿐 아니라 장애물에 대한 세부 정보를 제공할 수 있다.Camera-based obstacle detection can provide details about obstacles as well as detection of obstacles as opposed to ultrasonic or laser sensors.
특히 카메라가 어라운드 뷰(Around View) 시스템일 경우 이러한 어라운드 뷰 시스템은 넓은 시야를 확보할 수 있는 광각 카메라를 사용하는 것이 일반적이다.In particular, when the camera is an Around View system, it is common to use a wide angle camera capable of securing a wide field of view.
그런데, 광각 카메라는 볼록 렌즈의 굴절률에 의하여 왜곡 정도가 결정되는 방사 왜곡이 필연적으로 발생하게 되고, 이에 따라 표시 영상의 시각적인 왜곡은 물론 이미지 처리 장치(즉, 영상인식 처리부)의 이미지 인식에 심각한 오차를 야기할 수 있다.However, in the wide-angle camera, radial distortion in which the degree of distortion is determined by the refractive index of the convex lens inevitably arises, and consequently, the visual distortion of the display image as well as the image recognition of the image processing apparatus It may cause an error.
이처럼 광각 카메라에 의할 경우, 카메라에 맺히는 위치에 따라 특징이 달라지므로, 광각 카메라로부터 획득되는 이미지로부터 장애물을 인식하기 위해서는 소정의 기술이 요구된다.In the case of using the wide-angle camera, since the feature varies depending on the position of the camera, a predetermined technique is required to recognize the obstacle from the image obtained from the wide-angle camera.
종래 영상 인식을 통해 장애물을 검출하는 방법 내지 시스템을 살펴보면, 선행특허 1 내지 선행특허 3과 같이 스테레오 비전이라고 하는 두 개의 카메라를 한 셋트로 이용하여 거리를 측정하고 이에 기반하여 장애물을 검출하도록 구성하는 것이 일반적이었다.A conventional method and system for detecting obstacles through image recognition include a method of measuring distances using two sets of cameras, i.e., stereo vision, as in the prior arts 1 to 3, and detecting obstacles based on the distance It was common.
그러나, 어라운드 뷰 시스템은 차량의 앞뒤와 좌우 사이드 미러 하단에 1개씩 설치되는 4개의 카메라로 구성하는 것이 일반적이고 효율적인데, 종래와 같이 장애물 검출을 위한 영상 인식을 위해 차량의 4개 측면에 2개씩 총 8개의 카메라를 설치하는 것은 매우 비효율적인 바, 단일 광각 카메라만을 이용하여 영상을 인식하고 장애물을 검출할 수 있는 기술이 필요한 실정이다.
However, it is common and efficient that the AroundView system is composed of four cameras installed at the front and rear of the vehicle and one at the bottom of the left and right side mirrors. In order to recognize the image for obstacle detection, It is very inefficient to install a total of eight cameras, and it is necessary to use a single wide-angle camera to recognize images and detect obstacles.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 특히 어라운드 뷰 시스템을 단일 광각 카메라만으로 구성하더라도 이로부터 입력되는 영상을 정확히 판독하고 장애물을 검출할 수 있는 영상 인식 기반의 차량 접근 장애물 감지 방법 및 시스템을 제공하는 것이다.
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of the present invention to provide an image recognition system capable of accurately reading an input image and detecting an obstacle, And a method and system for detecting a vehicle access obstacle.
상기 목적을 달성하기 위한 본 발명에 따른 영상 인식 기반의 차량 접근 장애물 감지 방법은, 차량의 카메라를 통해 촬영된 이미지에서 방사 왜곡을 보정하는 제1 단계와; 상기 보정된 이미지에서 차량과 충돌 위험이 있는 영역을 관심 영역으로 설정하는 제2 단계와; 적어도 상기 관심 영역 내의 도로 표식을 추출하여 이를 약화 처리하는 제3 단계와; 상기 도로 표식이 약화 처리된 이미지에서 장애물 하단과 지면 간의 경계(이하, '장애물 하단 경계'라 함)를 추출하는 제4 단계와; 상기 장애물 하단 경계를 이용하여, 이동이 있는 장애물(이하, '이동 장애물'이라 함)을 검출하는 제5 단계와; 상기 이동 장애물의 하단 경계가 상기 관심 영역 내로 침범하였는지 여부를 판별하는 제6 단계; 및 상기 제6 단계의 판별 결과, 상기 침범에 해당시 경고 이벤트를 발생시키는 제7 단계;를 포함하는 것을 특징으로 한다.
According to an aspect of the present invention, there is provided a method for detecting a vehicle-access obstacle based on image recognition, the method comprising: a first step of correcting radial distortion in an image taken through a camera of a vehicle; A second step of setting an area of interest in the corrected image as a region of interest with a vehicle; Extracting a road mark in at least the ROI and weakening it; A fourth step of extracting a boundary between the bottom of the obstacle and the ground (hereinafter, referred to as an 'obstacle bottom boundary') in the image in which the road marking is weakened; A fifth step of detecting a moving obstacle (hereinafter referred to as a moving obstacle) using the lower boundary of the obstacle; A sixth step of determining whether a lower boundary of the moving obstacle has invaded into the ROI; And a seventh step of generating a warning event when the invasion is detected as a result of the sixth step.
본 발명에 따른 영상 인식 기반의 차량 접근 장애물 감지 방법 및 시스템에 의하면, 어라운드 뷰 시스템의 단일 광각 카메라만으로도 입력 영상을 정확히 판독하고 접근 장애물을 감지할 수 있어, 장애물 감지 장치 내지 시스템의 금전적, 공간적 효율성을 극대화할 수 있고, 더 나아가 장애물 유무의 감지뿐 아니라 장애물에 대한 세부 정보를 제공할 수 있어 저속 운행 시 운전 미숙이나 운전 부주의에 의해 발생되는 충돌사고를 방지할 수 있는 효과가 있다.
According to the method and system for detecting a vehicle access obstacle based on image recognition according to the present invention, an input image can be accurately read and an obstacle can be detected by using only a single wide-angle camera of the surround view system. Thus, the monetary and spatial efficiency And it is possible to provide detailed information on obstacles as well as detection of the presence of obstacles, thereby preventing crashes caused by insufficient driving or carelessness during low-speed operation.
도 1은 본 발명에 따른 영상 인식 기반의 차량 접근 장애물 감지 시스템의 전체 구성도.
도 2는 도 1에 도시된 영상인식 처리부의 세부 구성을 도시한 블록 구성도.
도 3은 본 발명에 따른 영상 인식 기반의 차량 접근 장애물 감지 방법의 흐름을 도시한 블록 순서도.
도 4는 본 발명에 따른 이미지 보정 알고리즘을 설명하기 위한 개념도.
도 5(a)는 본 발명의 이미지 보정 단계 전 왜곡 이미지를 보여주는 일례.
도 5(b)는 본 발명의 이미지 보정 단계에 의한 보정 이미지를 보여주는 일례.
도 6은 본 발명의 바람직한 실시예에 따라 설정된 관심 영역을 나타낸 일례.
도 7(a)는 본 발명에 따른 촬영 영상의 최초 입력 이미지의 일례.
도 7(b)는 본 발명에 따라 도로 표식이 약화 처리된 이미지를 보여주는 일례.
도 8은 본 발명의 장애물 하단 경계 검출 방법에 따라 처리된 수평 성분 크기 이미지의 일례.
도 9는 본 발명에 따라 이진화된 장애물 하단 경계 영역을 나타낸 이진화 영상의 일례.
도 10은 본 발명에 따른 장애물 하단 경계 검출을 나타낸 일례.
도 11은 본 발명에 따른 차량 정차 시의 이동 장애물 검출 결과를 나타낸 일 례.
도 12는 본 발명에 따른 엔트로피 기반의 장애물 후보 영역 추출 이미지를 나타낸 일례.
도 13은 본 발명에 따른 절대값 차이 이미지의 일례.
도 14는 본 발명의 영상 인식 기반의 차량 접근 장애물 감지 시스템이 차량 주행 시 이동 장애물 검출 결과를 보여주는 일례.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an overall block diagram of a vehicle access obstacle detection system based on image recognition according to the present invention; FIG.
FIG. 2 is a block diagram showing a detailed configuration of the image recognition processing unit shown in FIG. 1. FIG.
3 is a block flow diagram illustrating a flow of a method for detecting a vehicle access obstacle based on image recognition according to the present invention.
4 is a conceptual diagram for explaining an image correction algorithm according to the present invention.
FIG. 5 (a) is an example showing an image distortion step of the image correction step of the present invention.
5 (b) is an example showing a corrected image by the image correction step of the present invention.
6 illustrates an example of a region of interest set according to a preferred embodiment of the present invention.
7 (a) is an example of the first input image of the photographed image according to the present invention.
7 (b) is an example showing an image in which a road mark is weakened according to the present invention.
8 is an example of a horizontal component size image processed according to the obstacle bottom boundary detection method of the present invention.
9 is an example of a binarized image showing a binarized lower boundary region of an obstacle according to the present invention.
10 is an example of the detection of the lower boundary of the obstacle according to the present invention.
11 is a diagram showing a result of detection of a moving obstacle during a vehicle stop according to the present invention.
12 is an example of an entropy-based obstacle candidate region extraction image according to the present invention.
13 is an example of an absolute value difference image according to the present invention.
FIG. 14 is an example of the detection result of a mobile obstacle during driving of a vehicle access obstacle detection system based on the image recognition of the present invention.
본 발명에서 사용하는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.Also, in this specification, when an element is referred to as being "connected" or "connected" with another element, the element may be directly connected or directly connected to the other element, It should be understood that, unless an opposite description is present, it may be connected or connected via another element in the middle.
이하에서, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예, 장점 및 특징에 대하여 상세히 설명하도록 한다.In the following, preferred embodiments, advantages and features of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 영상 인식 기반의 차량 접근 장애물 감지 시스템의 전체 구성도이고, 도 2는 도 1에 도시된 영상인식 처리부의 세부 구성을 도시한 블록 구성도이다.FIG. 1 is an overall block diagram of a vehicle access obstacle detection system based on image recognition according to the present invention, and FIG. 2 is a block diagram illustrating a detailed configuration of an image recognition processor shown in FIG.
도 1 및 도 2를 참조하면, 본 발명에 따른 영상 인식 기반의 차량 접근 장애물 감지 시스템은 카메라(10), 영상인식 처리부(30) 및 경고 출력부(20)를 포함하도록 구성된다.1 and 2, the vehicle-based obstacle detection system based on image recognition according to the present invention is configured to include a
본 발명의 카메라(10)는 차량에 장착되어 차량 주변의 주행도로를 촬영하여 영상을 획득하는 구성부로서, 바람직하게는 CMOS 카메라 또는 CCD 카메라를 채용할 수 있다.The
본 발명의 카메라(10)는 특히 어라운드 뷰(Around View) 시스템일 수 있는데, 이러한 어라운드 뷰(Around View) 시스템은 넓은 시야를 확보할 수 있는 광각 카메라를 사용하는 것이 일반적이다. 여기서, 어라운드 뷰 시스템은 차량의 앞뒤와 좌우 사이드 미러 하단에 적어도 1개씩 설치되는 적어도 4개의 카메라를 포함하여 구성된다.The
본 발명의 영상인식 처리부(30)는 카메라(10)에 의해 획득된 영상에서 장애물을 인식 검출하고 이의 충돌 위험성을 판단하는 연산 처리를 수행함으로써, 도로를 주행 중이거나 또는 정차 중인 차량의 충돌 사고를 방지하는 기능을 실현한다.The image
영상인식 처리부(30)의 세부 구성을 기능적으로 분리하면, 이미지 보정부(31), 이미지 구획부(32), 도로 표식 처리부(33), 장애물하단경계 추출부(34), 이동장애물 검출부(35), 충돌위험 판별부(36)로 나눌 수 있다.The road
본 발명의 이미지 보정부(31)는 카메라(10)로부터 입력되는 이미지에서 방사 왜곡을 보정하는 기능을 한다.The
바람직한 실시예에 따르면, 이미지 보정부(31)는 상기 촬영된 이미지의 가로 및 세로 길이를 이용하여 상기 방사 왜곡을 보정하도록 구성된다.According to the preferred embodiment, the
본 발명의 이미지 구획부(32)는 이미지 보정부(31)를 통해 보정된 이미지에서 차량과 충돌 위험이 있는 영역을 관심 영역으로 구획하여 설정하는 기능을 한다.The image partitioning
바람직한 실시예에 따르면, 이미지 구획부(32)는 관심 영역을 사다리꼴 모양으로 설정하되, 상기 사다리꼴의 윗변은 상기 보정된 이미지에서 소실선의 하측 영역에 위치하도록 설정하고, 상기 사다리꼴은 상부 영역과 하부 영역으로 이루어진 2개의 영역으로 분할하여 설정하도록 구성된다.According to a preferred embodiment, the
본 발명의 도로 표식 처리부(33)는 적어도 상기 관심 영역 내의 도로 표식을 추출하여 이를 약화 처리하는 기능을 한다.The road
바람직한 실시예에 따르면, 도로 표식 처리부(33)는 상기 추출된 도로 표식의 픽셀값을 재조정하거나 대체하는 방식으로 상기 약화 처리를 수행하도록 구성된다.According to a preferred embodiment, the road
또한, 도로 표식 처리부(33)는 지면과 도로 표식 간의 밝기 차이를 이용하여 도로 표식을 추출하되, 상기 관심 영역을 복수 개의 영역으로 분할하여 각각의 영역에 대하여 다른 임계값을 설정하여 도로 표식을 추출하도록 구성된다.The road
본 발명의 장애물하단경계 추출부(34)는 도로 표식 처리부(33)를 통해 도로 표식이 약화 처리된 이미지에서 장애물 하단과 지면 간의 경계(이하, '장애물 하단 경계'라 함)를 검출하는 기능을 한다.The obstacle bottom
바람직한 실시예에 따르면, 장애물하단경계 추출부(34)는 도로 표식이 약화 처리된 이미지에서 소벨 오퍼레이터(Sobel Operator)를 통해 산출된 수평 성분을 이용하여 추출하도록 구성된다.According to the preferred embodiment, the obstacle bottom
또한, 장애물하단경계 추출부(34)는 소벨 오퍼레이터를 통해 추출된 장애물 하단 경계의 수평 성분을 기반으로 하여, 도로 표식에 의한 잔여 노이즈가 제거된 장애물 하단 경계를 최종적으로 추출하도록 구성된다.In addition, the obstacle bottom
여기서, 잔여 노이즈란 도로 표식 처리부(33)를 통해 도로 표식을 제거(즉 약화 처리)하더라도 해당 도로 표식은 완전히 제거되지 않고 여전히 노이즈로 작용하는 것을 지칭한다. 따라서, 관심 영역 내에서는 도록 표식 영역의 경계가 여전히 낮은 값으로 존재하기 때문에 이는 노이즈로 작용하며, 이와 같은 도로 표식에 의한 잔여 노이즈를 제거하는 작업을 더 수행하는 것이 바람직하다.Here, the residual noise refers to the fact that even if the road markers are removed (that is, weakened) through the
이 때, 잔여 노이즈 제거는 스무딩(Smoothing) 및 모폴로지 오퍼레이터 (Morphology Operator)를 통하여 수행되도록 구성된다.At this time, the residual noise removal is configured to be performed through smoothing and a morphology operator.
본 발명의 이동장애물 검출부(35)는 장애물하단경계 추출부(34)를 통해 추출된 장애물 하단 경계를 이용하여, 움직임 내지 이동이 있는 장애물(이하, '이동 장애물'이라 함)을 검출하는 기능을 한다.The moving
바람직한 실시예에 따르면, 이동장애물 검출부(35)는 장애물하단경계 추출부(34)를 통해 추출된 장애물 하단 경계를 이용하되, 관심 영역의 임의의 구간 내에서 상기 장애물 하단 경계의 상단 픽셀을 대상으로 해당 장애물이 이동(움직임)이 있는지 여부를 검출하도록 구성된다.According to a preferred embodiment, the moving
여기서, 차량이 정지 상태이면, 이동 평균 이미지와 현재 이미지의 절대값 차이 이미지를 함께 이용하여 상기 이동 장애물을 검출하도록 구성된다.Here, if the vehicle is at rest, it is configured to use the moving average image and the absolute value difference image of the current image together to detect the moving obstacle.
만약 차량이 주행 중이면, 상기 장애물 하단 경계의 상측 영역에 대한 로컬 엔트로피(Local Entropy) 계산에 의해 추출되는 텍스쳐(Texture) 정보, 이미지의 현재 이미지와 이전 이미지의 절대값 차이 이미지, 및 상기 절대값 차이 이미지로부터 산출되는 모션(Motion) 정보를 이용하여 상기 이동 장애물을 검출하도록 구성된다.If the vehicle is in motion, texture information extracted by local entropy calculation for the upper region of the obstacle lower boundary, absolute image difference image of the current image of the image and the previous image, And to detect the moving obstacle by using motion information calculated from the difference image.
본 발명의 충돌위험 판별부(36)는 이동장애물 검출부(35)를 통해 검출된 이동 장애물의 하단 경계가 상기 관심 영역 내로 침범하였는지 여부를 판별하는 기능을 한다.The collision
바람직한 실시예에 따르면, 충돌위험 판별부(36)는 이동장애물 검출부(35)를 통해 검출된 이동 장애물의 하단 경계의 세로축 위치 정보를 이용하여 상기 침범 여부를 판별하도록 구성된다.According to a preferred embodiment, the
또한, 검출된 이동 장애물의 세로축 좌표의 높이에 해당하는 지점에 대응하는 상기 관심 영역의 가로 폭의 크기를 산출한 후, 이를 이용하여 상기 관심 영역에 침범한 이동 장애물과 차량 간의 거리(차량에 대한 장애물의 접근 정도)를 더 판별하도록 구성된다.The distance between the moving obstacle and the vehicle, which is located in the area of interest, is calculated by calculating the width of the area of interest corresponding to the height of the vertical axis of the detected moving obstacle The degree of approach of the obstacle).
본 발명의 경고 출력부(20)는 충돌위험 판별부(36)가 보내온 신호에 따라 시각적 또는 청각적 경보를 외부로 출력하여 운전자가 해당 사실을 인지할 수 있도록 하는 기능을 한다.The
바람직한 실시예에 따르면, 경고 출력부(20)는 차량이 관심 영역의 상부 영역으로 진입시 충돌 위험 장애물이 출현했음을 예비 경고하고, 차량이 관심 영역의 상부 영역을 넘어 하부 영역까지 침범시 충돌 위험이 임박했음을 최종 경고하도록 구성된다. 여기서, 예비 경고와 최종 경고에 대응하는 외부 출력 형태는 상호 다르게 형성하여 운자자로 하여금 현 상황을 정확히 파악할 수 있도록 구성하는 것이 바람직하다.According to a preferred embodiment, the
이하에서는, 전술한 바와 같은 영상인식 처리부(30)를 기반으로 입력 영상에서 차량 접근 장애물을 검출하는 방법과, 이에 따라 차량 운전자에게 위험을 경보하는 방법에 대하여 상세히 설명하도록 한다.Hereinafter, a method of detecting a vehicle access obstacle in an input image based on the image
도 3은 본 발명에 따른 영상 인식 기반의 차량 접근 장애물 감지 방법의 흐름을 도시한 블록 순서도이다.3 is a block flow diagram illustrating a flow of a method for detecting a vehicle access obstacle based on image recognition according to the present invention.
도 3을 참조하면, 본 발명에 따른 영상 인식 기반의 차량 접근 장애물 감지 방법은 차량의 카메라를 통해 촬영된 이미지에서 방사 왜곡을 보정하는 단계(단계 1)와; 상기 보정된 이미지에서 차량과 충돌 위험이 있는 영역을 관심 영역으로 설정하는 단계(단계 2)와; 적어도 상기 관심 영역 내의 도로 표식을 추출하여 이를 약화 처리하는 단계(단계 3)와; 상기 약화 처리된 이미지에서 장애물 하단과 지면 간의 경계를 추출하는 단계(단계 4)와; 상기 장애물 하단 경계를 이용하여 이동이 있는 장애물을 검출하는 단계(단계 5); 상기 이동 장애물의 하단 경계가 상기 관심 영역 내로 침범하였는지 여부를 판별하는 단계(단계 6); 및 상기 제6 단계의 판별 결과, 침범에 해당시 경고 이벤트를 발생시키는 제7 단계를 포함하는 것을 특징으로 한다.Referring to FIG. 3, the method for detecting a vehicle approaching obstacle based on image recognition according to the present invention includes: (1) correcting radial distortion in an image taken through a camera of a vehicle; Setting a region of interest in the corrected image as a region of concern with the vehicle (Step 2); Extracting at least the road markings in the ROI and weakening the extracted road markings (step 3); Extracting a boundary between the bottom of the obstacle and the ground in the weakened image (step 4); Detecting an obstacle with movement using the obstacle bottom boundary (step 5); Determining whether the lower boundary of the moving obstacle has invaded into the area of interest (step 6); And a seventh step of generating a warning event when it is determined that the invasion is detected as a result of the sixth step.
바람직하게는, 상기 단계 5는 상기 약화 처리된 이미지에서 상기 도로 표식의 의한 노이즈를 제거하여, 상기 노이즈가 제거된 이미지에서 상기 장애물 하단 경계를 검출하도록 구성된다.Advantageously, said step 5 is configured to remove noise from said road markings in said weakened image, and to detect said obstacle lower boundary in said noise-removed image.
바람직하게는, 상기 단계 3의 도로표식의 약화 처리는 상기 추출된 도로 표식 픽셀값을 재조정하거나 대체하는 방식으로 처리하도록 구성된다.Preferably, the attenuation of the road mark in step 3 is configured to process the extracted road mark pixel value in a manner such that it is readjusted or replaced.
이하에서는 각 단계의 구체적인 실시예에 대해 상세히 설명하도록 한다.Hereinafter, specific embodiments of the respective steps will be described in detail.
<단계 1(S10)>≪ Step 1 (S10)
본 발명의 카메라는 특히 어라운드 뷰(Around View) 시스템일 수 있는데, 이러한 어라운드 뷰(Around View) 시스템은 넓은 시야를 확보할 수 있는 광각 카메라를 사용하는 것이 일반적이다. 그런데, 광각 카메라는 볼록 렌즈의 굴절률에 의하여 왜곡 정도가 결정되는 방사 왜곡이 필연적으로 발생하게 되고, 이에 따라 표시 영상의 시각적인 왜곡은 물론 이미지 처리 장치(즉, 영상인식 처리부)의 이미지 인식에 심각한 오차를 야기할 수 있다.The camera of the present invention may be an Around View system in particular, and such an Around View system generally uses a wide angle camera capable of securing a wide field of view. However, in the wide-angle camera, radial distortion in which the degree of distortion is determined by the refractive index of the convex lens inevitably arises, and consequently, the visual distortion of the display image as well as the image recognition of the image processing apparatus It may cause an error.
본 발명의 단계 1은 이와 같이 차량의 카메라 특히 어라운드 뷰 시스템을 통해 촬영된 이미지에서 방사 왜곡을 보정하여, 영상인식 처리부(30)가 촬영 이미지를 보다 정확히 인식할 수 있도록 하는 단계이다.Step 1 of the present invention is a step of correcting radial distortion in an image photographed through a camera of the vehicle, in particular an arousal view system, so that the
종래의 이미지 왜곡 보정은 일반적으로 왜곡 보정 다항식에 체스보드와 같은 알려진 패턴을 이용하여 측량된 파라미터를 대입하는 방식으로 수행하였는데, 이는 이미지 잡음에 민감한 단점이 존재한다.Conventional image distortion correction is generally performed by assigning a measured parameter to a distortion correction polynomial using a known pattern such as a chess board, which is disadvantageous to image noise.
반면, 본 발명의 이미지 왜곡 보정은 촬영 이미지의 가로 및 세로 길이를 이용하여 방사 왜곡에 의하여 왜곡된 영역을 보정하는 이미지 보정 알고리즘을 따르도록 구성된 것을 특징으로 한다.On the other hand, the image distortion correction of the present invention is characterized in that it is configured to follow an image correction algorithm for correcting a distorted area by radial distortion using the horizontal and vertical lengths of the photographed image.
도 4는 본 발명에 따른 이미지 보정 알고리즘을 설명하기 위한 개념도이다. 도 4의 왜곡된 이미지의 좌표(x,y)와, 본 발명의 이미지 보정 알고리즘에 따라 왜곡이 보정된 이미지의 좌표(x',y')의 관계는 다음의 수학식 1 및 수학식 2와 같다. 한편, 이미지의 가로 길이(가로 폭)과 세로 길이(세로 폭)의 비율은 반드시 1:1의 비율이 아니기 때문에 X축과 Y축에 대하여 각각 다른 비례식을 적용한다.4 is a conceptual diagram for explaining an image correction algorithm according to the present invention. The relationship between the coordinates (x, y) of the distorted image of FIG. 4 and the coordinates (x ', y') of the image whose distortion has been corrected according to the image correction algorithm of the present invention is expressed by the following equations (1) and same. On the other hand, since the ratio of the horizontal length (horizontal width) to the vertical length (vertical width) of an image is not necessarily 1: 1, a different proportional expression is applied to each of the X and Y axes.
(수학식 1 및 2에서,(In equations (1) and (2)
x,y : 왜곡 이미지 좌표,x, y: distortion image coordinates,
x',y' : 왜곡이 보정된 이미지 좌표(보정 이미지 좌표),x ', y': Image coordinates (corrected image coordinates) in which the distortion is corrected,
xu,yu : 이미지 중심 좌표,x u , y u : image center coordinate,
W,H : 이미지의 가로 길이 및 세로 길이,W, H: width and height of the image,
LX,LY : 이미지 중심 좌표와, 왜곡 이미지 좌표 간 x,y 방향 3차원 거리)L X , L Y : Three-dimensional distance in the x and y directions between the image center coordinate and the distortion image coordinate)
바람직하게는, 단계 1의 이미지 보정을 위한 처리의 실시간성을 보장하기 위하여, 수학식 1 및 2에 의해 산출된 보정 좌표를 저장할 메모리를 할당하고, 각 왜곡 이미지 좌표에 대응하는 보정 이미지 좌표를 룩업 테이블(Lookup Table)로 저장한다.Preferably, a memory for storing the correction coordinates calculated by the equations (1) and (2) is allocated to ensure real-time processing of the image correction for step 1, and the corrected image coordinates corresponding to the respective distorted image coordinates are stored in a lookup And stores it as a lookup table.
도 5(a)는 본 발명의 이미지 보정 단계 전 왜곡 이미지를 보여주는 일례이고, 도 5(b)는 본 발명의 이미지 보정 단계에 의한 보정 이미지를 보여주는 일례이다.FIG. 5A is an example showing an image distortion in the image correction step of the present invention, and FIG. 5B is an example showing an image corrected by the image correction step of the present invention.
도 5를 참조하면, 어라운드 뷰(Around View) 시스템에 의해 촬영된 이미지는 방사 왜곡에 의해 이미지 중심에서 멀어질수록 왜곡이 심해지고 있음을 알 수 있고, 본 발명의 이미지 보정 알고리즘에 따라 보정된 이미지의 경우 왜곡 이미지와 달리 중심에서의 거리가 멀어져도 왜곡이 거의 없어 수평, 수직 구조를 유지할 수 있으며, 이와 같은 점을 이용하여 도로면 내지 지면(이하, 지면으로 통칭)을 판단하고, 다음의 단계들을 통해 지면 위에 존재하는 불특정 장애물을 감지할 수 있게 된다.Referring to FIG. 5, it can be seen that the image photographed by the Around View system is getting worse as the image is farther from the center of the image due to the radial distortion, and the image corrected according to the image correction algorithm of the present invention The horizontal and vertical structures can be maintained even if the distance from the center is far different from that of the distorted image, and it is possible to maintain the horizontal and vertical structure, and it is judged from the road surface to the ground (hereinafter referred to as the ground) It is possible to detect an unspecified obstacle existing on the ground.
<단계 2(S20)>≪ Step 2 (S20)
본 발명의 단계 2는 단계 1을 통해 획득된 보정 이미지에서 소정 영역을 구획하여 관심 영역으로 설정하는 단계로서, 이미지 구획부(32)에 의해 수행된다. 여기서, 보정 이미지에서 구획되는 관심 영역(Region Of Interest, ROI)이란 카메라를 통해 촬영된 이미지의 전체 영역에서 임의로 구획된 일부 영역으로서, 이는 특히 전진 중인 해당 차량에 대하여 충돌이 발생할 수 있는 영역(즉, 차량과 충돌 위험이 있는 영역)을 의미한다.
바람직한 실시예에 따르면, 소실선 하측 영역에서 관심 영역의 상단 경계를 설정하고, 지면과 차량 전단(또는 후단)의 경계(이하, '차량 경계'라 함)를 관심 영역의 하단 경계로 설정할 수 있다. 여기서, 소실선은 이미지 전체에 있어서 세로축을 따라 가로 방향으로 분할하는 다수의 라인 중 지평선과 만나는 지점(소실점)에 대응되는 라인을 의미하며, 이미지에서의 소실선은 지면으로부터 카메라 설치 높이, 기울어진 각도, 및 초점거리를 이용하여 계산할 수 있다.According to a preferred embodiment, the upper boundary of the ROI can be set in the lower region of the disappearance line, and the boundary between the ground and the vehicle front end (or the rear end) (hereinafter, referred to as 'vehicle boundary') can be set as the lower boundary of the ROI . Herein, the disappearance line means a line corresponding to a point (vanishing point) which meets with the horizon among a plurality of lines which are divided in the horizontal direction along the vertical axis in the whole image, and the disappearance line in the image is the height of the camera from the ground, Angle, and focal length.
이는, 촬영을 통해 획득된 이미지 상에서 지면 위에 존재하는 모든 장애물의 하단 경계면은 소실선의 하측 영역과 차량 경계(예컨대, 차량 후드(hood))의 상측 영역에 존재하게 되고, 소실선 부근에 존재하는 장애물의 경우 거리가 매우 멀어 저속 주행 환경인 어라운드 뷰 시스템에서는 감지할 필요가 없기 때문이다.This is because the lower boundary surface of all the obstacles existing on the ground on the image obtained through photographing is present in the lower region of the disappearance line and the upper region of the vehicle boundary (for example, the vehicle hood) The distance is very long, so it is not necessary to detect it in the surrounding view system which is a low-speed driving environment.
도 6은 본 발명의 바람직한 실시예에 따라 설정된 관심 영역을 나타낸 일례이다. 도 6 실시예의 경우, 관심 영역(40)은 사다리꼴 형태로 구성하되, 사디리꼴의 윗변(즉, 관심 영역(40)의 상단 경계)은 소실선의 하측에서 설정되고, 밑변(즉, 관심 영역(40)의 하단 경계)은 차량 전단(또는 후단) 경계 내지 그 근방에 설정되게 구성하였다.FIG. 6 is an example showing an area of interest set according to a preferred embodiment of the present invention. In the embodiment of FIG. 6, the region of
또한, 관심 영역(40)은 상부 영역(41)과 하부 영역(42)으로 이루어진 2개의 영역으로 분할하여, 차량이 상부 영역(41)으로 진입시 충돌 위험 장애물이 출현했음을 경보하고, 차량이 상부 영역(41)을 넘어 하부 영역(42)까지 침범시 충돌 위험이 임박했음을 경고하도록 구성된다.The area of
바람직하게는, 상부 영역(41)과 하부 영역(42)은 관심 영역(40)의 사다리꼴 형상에 있어서 사다리꼴 높이의 1/2 지점을 기준으로 소실선에 가까운 영역을 상부 영역(41)으로 설정하고, 차량 경계에 가까운 영역을 하부 영역(42)으로 설정할 수 있다.Preferably, the
한편, 탑승자 운전 차량에 대한 장애물의 접근 정도 즉, 상부 영역(41) 진입과 하부 영역(42) 침범은 관심 영역(40) 내 검출된 장애물의 세로 좌표의 높이에 해당하는 지점에 대응하는 차량 폭(즉, 관심 영역(40)의 가로 폭)의 크기를 계산하여 장애물이 어느 정도 위치에 접근했는지를 판단할 수 있다.In other words, the approaching degree of the obstacle to the occupant driving vehicle, that is, the inflow of the
<단계 3(S30)>≪ Step 3 (S30) >
본 발명의 단계 3은 도로 표식(50)(예컨대, 차선, 방향 안내선 등)을 추출하여 해당 이미지 상에서 이를 약화시키는 처리를 수행하는 단계로서, 추출 대상인 도로 표식(50)은 바람직하게는 단계 2를 통해 설정된 관심 영역(40) 내에 존재하는 도로 표식을 대상으로 하나, 이미지 전체에 나타나는 도로 표식 모두를 추출 대상으로 할 수도 있는 바 상기 경우를 배제하지는 않는다.Step 3 of the present invention is a step of extracting a road sign 50 (e.g., a lane, a direction guide, etc.) and performing a process of weakening the
단계 3은 도로표식 처리부(33)에 의해 수행되며, 특히 상기 도로표식(50)의 약화 처리는 이의 픽셀값을 재조정하거나 대체하는 방식으로 이루어지는 것을 특징으로 한다.Step 3 is performed by the road marking processing
단계 2를 통해 설정된 관심 영역에서 도로 표식은 지면(도로면) 상에 존재하기 때문에 그 높이를 '0'이라 가정할 수 있으며, 다음과 같은 도로 표식의 특성을 이용하여 관심 영역 내의 도로 표식을 추출할 수 있다.Since the road mark is located on the ground (road surface) in the area of interest set in
즉, 도로 표식(50)은 항상 소실선의 하측 영역에 존재한다. 또한, 어라운드 뷰 시스템에서는 도로 표식이 항상 소실선(소실점)을 향하지 않으며 도로 표식의 색상은 다양한 색상으로 나타나게 된다. 또한, 도로 표식은 도로면에 비하여 항상 밝은 값을 가지고 있는 경우가 대부분이다. 또한, 장애물과 도로면의 경계는 항상 매우 어두운 값을 갖게 된다.That is, the
따라서, 상기와 같은 도로 표식의 특성 즉, 지면과 도로 표식 간의 밝기 차이를 이용하여 도로 표식을 추출하되, 카메라와 도로 상태에 따른 다양한 도로 표식을 고려하여 관심 영역을 다시 복수 개(바람직하게는 3개)의 영역으로 나누고 각각의 영역에 대하여 다른 임계값을 설정하여 도로 표식 후보 영역을 추출한다.Therefore, the road markers are extracted using the difference in brightness between the ground and the road markers, and the road markers are divided into a plurality of road markers (preferably 3 And a road mark candidate area is extracted by setting a different threshold value for each area.
보다 상세히 설명하면, 바람직하게는 도로 표식 중 가장 어두운 부분을 노란색 도로 표식으로 가정하였기 때문에 촬영 영상에서 노란색 도로 표식의 픽셀값을 실험을 통하여 추출하여 다양한 임계값을 확보한다. 이는 카메라 센서의 성능에 따라 변동될 수 있다.In more detail, since the darkest portion of the road markers is assumed to be a yellow road mark, the pixel values of the yellow road markers are extracted from the photographed image through experiments to secure various threshold values. This can vary depending on the performance of the camera sensor.
또한, 관심 영역을 다시 복수 개의 영역으로 나누어 각 영역에 대하여 다른 임계값을 적용한 이유는 광각 카메라에서는 같은 장애물일지라도 나타나는 좌표에 따라 다른 픽셀값을 가지기 때문이다.Also, the reason why different regions of interest are divided into plural regions and different threshold values are applied to each region is that the wide-angle camera has different pixel values according to coordinates appearing even if they are the same obstacle.
상기와 같은 방법에 따라 도로 표식의 추출이 완료되면, 이를 해당 이미지 상에서 약화시키는 처리를 하게 되는데, 이는 추출된 도로 표식의 픽셀값을 조작함으로써 수행된다. 즉, 픽셀값의 조작이란, 도로 표식의 최초 픽셀값을 다른 픽셀값으로 재조정 또는 대체하는 것인데, 추출된 도로 표식에 대체할 픽셀값은 도로 표식 후보 영역 픽셀에서의 최근접 픽셀을 참조하여 값을 할당한다.When the extraction of the road marking is completed according to the above method, the process of weakening the extracted road marking is performed by manipulating the pixel values of the extracted road marking. That is, the manipulation of the pixel value is to readjust or replace the initial pixel value of the road marking with another pixel value. The pixel value to be substituted for the extracted road marking refers to the closest pixel in the road marking candidate region pixel, .
도 7(a)는 본 발명에 따른 촬영 영상의 최초 입력 이미지이고, 도 7(b)는 본 발명에 따라 도로 표식이 약화 처리된 이미지를 보여주는 일례이다. 도 7에서 알 수 있듯이, 카메라를 통해 입력된 최초 이미지는 지면 상에 도로 표식(50)이 선명하고 강하게 표시되고 있으나, 본 발명에 따라 도로 표식이 약화 처리된 이미지는 도로 표식(51)이 거의 제거되어 있음을 알 수 있다.FIG. 7 (a) is an initial input image of the photographed image according to the present invention, and FIG. 7 (b) is an example showing an image in which a road mark is weakened according to the present invention. As can be seen from FIG. 7, the first image inputted through the camera is displayed clearly and strongly on the ground. However, according to the present invention, the road marking 51 has a weak road mark It can be seen that it is removed.
<단계 4(S40)>≪ Step 4 (S40)
본 발명의 단계 4는 단계 3을 통해 도로 표식의 픽셀값이 재조정된 이미지에서 장애물 하단과 지면 간의 경계(이하, '장애물 하단 경계'라 함)를 추출하는 단계이다.Step 4 of the present invention is a step of extracting a boundary between the bottom of the obstacle and the ground (hereinafter, referred to as 'obstacle bottom boundary') in the image in which the pixel values of the road markers are readjusted through step 3.
바람직한 실시예에 따르면, 단계 4의 장애물 하단 경계 검출 방법은 단계 3을 통해 도로 표식이 약화 처리된 이미지에서 소벨 오퍼레이터(Sobel Operator)를 통해 수행되며, 이에 의해 해당 이미지에서 수평 성분의 크기 이미지를 생성하며, 이렇게 생성된 수평 성분은 장애물 하단 경계를 추출하는데 사용된다.According to a preferred embodiment, the obstacle bottom boundary detection method of step 4 is carried out through the step 3 through the Sobel operator in the image in which the road marking is weakened, thereby generating a magnitude image of the horizontal component in the image And the horizontal component thus generated is used to extract the lower boundary of the obstacle.
여기서, 수평 성분을 산출하기 위한 소벨 오퍼레이터는 다음의 수학식 3과 같다.Here, the Sobel operator for calculating the horizontal component is expressed by the following equation (3).
(수학식 3에서,(In Equation 3,
f : 수평 성분 크기 이미지,f: horizontal component size image,
Gx : 수평 방향 소벨(Sobel) 이미지)Gx: Horizontal Sobel image)
소벨 오퍼레이터는 다양한 크기와 형태의 마스크(Mask)를 사용할 수 있으며, 실시간성을 만족하나 근사화하기 때문에 부정확성이 존재한다. 따라서, 바람직한 실시예에 따르면, 소벨 연산을 위한 마스크는 다음과 같이 사용한다.Sobel operators can use masks of various sizes and shapes, and inaccuracies exist because they satisfy or approximate real-time properties. Thus, according to a preferred embodiment, the mask for the Sobel operation is used as follows.
먼저, 크기가 큰 마스크를 사용하면 많은 수의 픽셀을 이용하기 때문에 보다 정확한 결과를 얻을 수 있지만 도로 표식이 제거된 영역까지 다시 나타나는 단점이 있다. 여기서, 크기가 큰 마스크란 '5×5' 이상의 마스크를 의미한다.First, using a large mask has a disadvantage that it can obtain more accurate results because it uses a large number of pixels, but it also reappears to the area where the road mark is removed. Here, a mask having a large size means a mask of 5x5 or more.
다음으로, 작은 크기의 마스크는 잡음에 민감하여 도로면에 존재하는 작은 불연속적인 영역까지 추출하지만 크게 부각되지 않기 때문에 작은 크기의 마스크를 사용하는 것이 바람직하다. 여기서, 작은 크기의 마스크란 '1×3' 또는 '3×3'의 크기를 가지는 마스크를 의미한다.Next, the mask of small size is sensitive to noise, so that even a small discontinuous area existing on the road surface is extracted, but it is not remarkable, so it is preferable to use a mask of small size. Here, a small size mask means a mask having a size of '1 × 3' or '3 × 3'.
도 8은 전술한 장애물 하단 경계 검출 방법에 따라 처리된 수평 성분 크기 이미지의 일례이다. 수평 관심 영역 내에서 장애물의 하단 경계(60) 부분에서 수평 성분이 높은 값을 갖는다. 이에 따라 도 8과 같이, 단계 4의 소벨 오퍼레이터에 의한 연산을 통해 단계 3의 이미지에서 수평 성분의 크기를 추출할 수 있게 된다.8 is an example of a horizontal component size image processed according to the above-described obstacle bottom boundary detection method. The horizontal component has a high value at the
이와 같이 단계 4의 소벨 연산을 통해 추출된 수평 성분은 바로 장애물 하단 경계(60)로 처리되도록 구성할 수도 있으나, 상기 경우 도포 표식에 의한 노이즈(55)에 의해 부정확성이 존재하게 된다.In this way, the horizontal component extracted through the Sobel operation in Step 4 may be directly processed to the obstacle
따라서, 전술한 보다 정확한 이미지 인식 및 장애물 하단 경계의 검출을 위해서는 잔여 노이즈를 제거한 후 이루어지도록 구성하는 것이 바람직하다. 여기서 잔여 노이즈(55)란 단계 3을 통해 도로 표식을 제거(즉 약화 처리)하더라도 해당 도로 표식은 완전히 제거되지 않고 여전히 노이즈로 작용하는 것을 지칭한다.Therefore, in order to more accurately recognize the image and detect the lower boundary of the obstacle, it is preferable to perform the removal after the residual noise is removed. Here, the
관심 영역 내에서는 도록 표식 영역의 경계가 여전히 낮은 값으로 존재하기 때문에 이는 노이즈로 작용하며, 이와 같은 도로 표식에 의한 잔여 노이즈를 제거하는 작업을 더 포함하는 것이 바람직하다. 여기서, 잔여 노이즈를 제거하는 단계를 '단계 4-1'로 칭하기로 한다.In the region of interest, since the boundary of the landmark region still exists at a low value, it acts as noise, and it is preferable to further include a task of removing residual noise due to such road markings. Here, the step of removing the residual noise will be referred to as 'step 4-1'.
<단계 4-1(S41)>≪ Step 4-1 (S41) >
본 발명의 단계 4-1은 단계 4의 소벨 오퍼레이터를 통해 추출된 장애물 하단 경계의 수평 성분을 기반으로 하여, 도로 표식에 의한 노이즈(55)를 제거한 이미지에서 장애물 하단 경계를 최종적으로 추출하는 단계이다.Step 4-1 of the present invention is a step of finally extracting the obstacle bottom boundary from the image obtained by removing the
바람직한 실시예에 따르면, 단계 4-1의 노이즈 제거는 특히 스무딩 (Smoothing) 및 모폴로지 오퍼레이터(Morphology Operator)를 통하여 수행되는 것을 특징으로 하며, 이의 구체적인 처리 흐름은 다음과 같다.According to a preferred embodiment, the noise cancellation in step 4-1 is performed particularly through smoothing and a morphology operator, and a specific processing flow thereof is as follows.
(1) 마스크 내의 평균값을 계산하는 심플 블러 마스크(Simple Blur Mask)를 이용하여 관심 영역의 픽셀값을 평탄화한다. 상기 경우 이미지의 전체적인 픽셀값이 낮아지기 때문에 낮은 값을 가지는 불연속점이 제거된다.(1) A pixel value of a region of interest is flattened using a simple blur mask that calculates an average value in a mask. In this case, since the overall pixel value of the image is lowered, discontinuous points having lower values are eliminated.
(2) 모폴로지(Morphology) 연산을 통해 도로 표식의 경계와 도로면 잡음 성분을 제거한다. 여기서, 도로 표식 영역의 수평 성분은 값이 일정하게 유지되지 않으며 심플 블러(Simple Blur)만으로는 완벽하게 제거될 수 없기 때문에 클로징(Closing) 연산을 통해 연결성이 작은 영역을 제거한다.(2) Morphology operation removes the road marking boundary and road surface noise components. Here, since the horizontal component of the road marking area is not maintained constant and can not be completely removed only by simple blur, a region with small connectivity is removed through a closing operation.
(3) 가우시안 블러(Gaussian Blur)를 통해, 장애물 하단 경계 영역은 보존하고 그 외의 영역들에 대해서는 제거한다. 가우시안 블러(Gaussian Blur)는 이웃 픽셀과 연관성을 많이 고려하기 때문에 마스크의 크기를 크게 설정하여 주변 값들과의 상관성이 적은 에지(Edge) 부분을 평탄하게 나타나도록 하는 효과가 있다.(3) Through the Gaussian Blur, the obstacle bottom border area is preserved and other areas are removed. Gaussian blur has a large effect of associating neighboring pixels, so that the size of the mask is set to be large and the edge portion having a small correlation with the surrounding values is made flat.
여기서, 가우시안 블러는 '5×5' 이상의 크기부터 효과가 눈에 보일 정도로 나타나기 때문에, 상기 마스크의 크기는 '5×5'의 크기 이상의 마스크를 사용하는 것이 바람직하다.Here, since the Gaussian blur appears so that the effect is noticeable from a size of 5 × 5 or more, it is preferable to use a mask having a size of 5 × 5 or more.
(4) 관심 영역의 수평 성분 이미지에 대하여 누적 히스토그램을 생성하고 이진화를 수행한다. '0'부터 '255'의 누적 히스토그램에서 하위 70% ~ 80% 범위(바람직하게는 75%)내에서 선택된 어느 하나의 수치에 해당하는 픽셀값을 계산하고, 이렇게 산출된 픽셀값은 이진화 영상을 생성하기 위한 임계값으로 사용된다.(4) A cumulative histogram is generated for the horizontal component image of the region of interest and binarization is performed. The pixel value corresponding to any one of the values selected from the lower 70% to 80% range (preferably 75%) in the cumulative histogram of '0' to '255' is calculated. Is used as a threshold value for generation.
(5) 관심 영역 각 가로 픽셀 기준으로 '0'이 아닌 값을 가지는 세로축 픽셀 중 최하단 값을 검사한다. 즉, 가로 픽셀을 좌측으로부터 우측(바람직하게는 좌측 최상단으로부터 우측 최상단)으로 이동하며 세로축에 대하여 '0'이 아닌 값을 가지는 최하단 값을 검출한다. 그리고 검출된 최하단 값들을 버퍼에 저장한다. 이때 값이 존재하지 않거나 소실선(소실점) 이상의 영역에서 최하단 값이 검출되면 표시하지 않는다.(5) Inspect the lowest value among vertical pixels having a value other than '0' on the basis of each horizontal pixel of interest. That is, the horizontal pixel is shifted from the left side to the right side (preferably from the upper left corner to the upper right corner), and a lowermost value having a value other than '0' is detected with respect to the vertical axis. And stores the detected lowermost values in a buffer. At this time, if the value does not exist or the lowermost value is detected in the region above the disappearance line (vanishing point), it is not displayed.
상기와 같은 과정을 통해 버퍼에 저장되는 값은 단계 4에서 추출하고자 하는 장애물 하단 경계에 대응하게 되며, 이는 도 9와 같은 이미지 형태로 표시된다. 참고로, 도 9는 본 발명에 따라 이진화된 장애물 하단 경계 영역(61)을 나타낸 이진화 영상의 일례로서, 도 9에 표시되는 검은색은 픽셀값 '0'에 해당하고, 흰색 즉, 장애물 하단 경계 영역은 픽셀값 '255'에 해당한다.The value stored in the buffer through the above process corresponds to the lower boundary of the obstacle to be extracted in step 4, and is displayed in an image form as shown in FIG. 9 is an example of a binarized image showing an obstacle
도 10은 본 발명에 따른 장애물 하단 경계 검출을 나타낸 일례이다. 전술한 단계를 통해 추출된 장애물 하단 경계(62)는 정지된 장애물의 감지뿐 아니라 이동 장애물을 검출하는 단계에도 적용된다. 즉, 임의로 지정한 구간(바람직하게는, 관심 영역)에 장애물이 존재하면 소정의 이벤트를 발생하여 추후 충돌의 위험의 정도를 판단하는데 사용된다.10 is an example of the detection of the lower boundary of the obstacle according to the present invention. The
이하에서는 이동 장애물 검출 단계(단계 5, S50)에 대하여 상세히 설명하도록 한다.Hereinafter, the moving obstacle detection step (step 5, S50) will be described in detail.
<단계 5(S50)>≪ Step 5 (S50)
본 발명의 단계 5는 장애물 하단 경계를 이용하여 이동이 있는 장애물(이하, '이동 장애물'이라 함)을 검출하는 단계이다. 이동 장애물 검출 단계는 추출된 장애물 하단 경계를 이용하는데, 구체적으로는 관심 영역 내의 임의의 구간 내에서 장애물 하단 경계의 상단 픽셀을 대상으로 해당 장애물의 움직임 여부를 검출한다. 이 때, 차량이 정지 상태이면 이동 평균 이미지와 절대값 차이 이미지를 이용하며, 차량이 주행 중이면 이미지의 텍스쳐(Texture)와 모션(Motion) 정보, 절대값 차이 이미지를 이용하여 이동 장애물을 검출한다. Step 5 of the present invention is a step of detecting a moving obstacle (hereinafter referred to as a moving obstacle) by using the obstacle bottom boundary. The moving obstacle detection step uses the extracted lower boundary of the obstacle. Specifically, it detects whether or not the obstacle moves in the upper pixel of the lower boundary of the obstacle within an arbitrary section within the area of interest. At this time, if the vehicle is in a stopped state, a moving average image and an absolute value difference image are used. If the vehicle is running, a moving obstacle is detected using texture, motion information, and absolute difference image of the image .
(1) 차량 정차 시의 이동 장애물 검출(1) Detect moving obstacles when the vehicle is stopped
차량 정차 시의 이동 장애물 검출은 차이 이미지를 기반으로 동작한다. 실외 환경에서 획득된 이미지는 조명의 변화, 날씨 등의 환경 요인에 의하여 이전 이미지와 현재 이미지가 상이하게 변할 수 있기 때문에 그 변화를 최소화하기 위하여 가우시안 블러(Gaussian Blur)를 수행한다.Moving obstacle detection at the time of stopping the vehicle operates based on the difference image. Gaussian blur is performed to minimize the change of the image obtained in the outdoor environment because the previous image and the current image may be different due to environmental factors such as illumination change and weather.
그리고, 흔들리는 나뭇가지와 같이 움직이는 배경 요소에 강건하게 동작하기 위하여 이동 평균 이미지를 이용한다. 이동 평균 이미지는 다음의 수학식 4와 같이 정의된다.And, moving averages are used to operate robustly against moving background elements like shaking branches. The moving average image is defined by the following equation (4).
(수학식 4에서,(In Equation 4,
St : 이동 평균 이미지,S t : moving average image,
St -1 : t-1 번째까지 누적된 평균 이미지,S t -1 : average image accumulated up to t-1,
It -1 : t-1 번째 이미지I t -1 : t-1 th image
α: t 번째 이미지에 대한 가중치)α: weight for the t-th image)
여기서, 'α'값은 이전 프레임까지 누적된 평균 이미지의 영향을 조절하는 파라미터로 최근 값이 이전의 값보다 큰 가중치를 가지도록 하여 일반 평균 이미지보다 더욱 큰 평균값을 가지도록 한다.Here, 'α' is a parameter for adjusting the influence of the average image accumulated up to the previous frame, so that the recent value has a larger weight than the previous value, so that it has a larger average value than the general average image.
이동 평균 이미지 St와 현재 이미지 It의 각 픽셀 절대값 차이를 계산하여 차이 이미지를 생성한다. 이동 평균 이미지에서 현재 이미지를 뺀 후 큰 변화가 존재하는 부분을 전경으로 추출한다. 여기서, 상기 전경은 움직임이 있는 이동 장애물을 포함한다.A difference image is generated by calculating the absolute difference value of each pixel of the moving average image S t and the current image I t . Subtracts the current image from the moving average image, and extracts the portion where the large change exists in the foreground. Here, the foreground includes moving obstacles with motion.
그리고, 모폴로지(Morphology) 연산의 팽창(Dilation)과 가우시안 블러(Gaussian Blur), 중간값 필터(Median Filter)를 이용하여 추출된 전경 영역에서 잡음 성분은 제거하고 장애물의 움직임을 감지한다.Then, the noise component is removed from the extracted foreground region using the dilation of the morphology operation, the Gaussian Blur, and the median filter, and the motion of the obstacle is detected.
도 11은 본 발명에 따른 차량 정차 시의 이동 장애물 검출 결과를 나타낸 일 례로서, 도 11의 사각형 블록(65) 내에 잡힌 장애물이 이동 장애물임 나타내고 있다.FIG. 11 shows an example of the results of detection of moving obstacles at the time of vehicle stop according to the present invention. In FIG. 11, the obstacle caught in the
(2) 차량 주행 시의 이동 장애물 검출(2) Detect moving obstacles when driving
차량 주행 시의 이동 장애물 검출은 모션(Motion) 정보와 텍스쳐(Texture) 정보, 절대값 차이 이미지를 이용한다. 차량 주행 시에는 차량 정차 시의 방법을 적용하면 배경으로 작용하는 영역도 표현되기 때문에 텍스쳐 정보를 이용하여 후보 영역을 추출하고, 모션 정보에 절대값 차이 이미지를 가중치로 하여 적용한다.Motion detection, motion information, texture information, and absolute difference images are used to detect moving obstacles when driving. In the case of vehicle driving, when the vehicle stopping method is applied, a region serving as a background is also expressed. Therefore, the candidate region is extracted using the texture information, and the absolute difference image is applied to the motion information as the weight.
텍스쳐(Texture)를 이용하여 장애물 존재 후보 영역을 추출하기 위하여 장애물 하단 경계 영역 이상의 영역에 대하여 로컬 엔트로피(Local Entropy)를 계산한다. 엔트로피(Entropy)는 불균일한 영역에서 높은 값을 나타내며 도로 위에 존재하는 장애물은 대부분 불균일한 영역을 포함하고 있다고 가정할 수 있기 때문에 임의의 크기를 가진 블록(Block) 내에서 엔트로피를 계산한다.Local entropy is calculated for the region beyond the lower boundary region of the obstacle in order to extract the obstacle candidate region using the texture. Entropy is a high value in a non-uniform region, and entropy is calculated within a block of arbitrary size because it can be assumed that obstacles existing on the road mostly include non-uniform regions.
여기서, 상기 임의의 크기를 가진 블록은 영상 크기에 따라 변경될 수 있으며, 바람직하게는, 영상의 가로 길이와 세로 길이의 공약수를 계산하여 설정할 수 있다. 예컨대, 영상 크기가 '320×240' 라면, 블록의 크기는 '16×16', '8×8', '4×4' 등으로 이루어진 군으로 구성될 수 있다.Here, the block having the arbitrary size may be changed according to the image size, and preferably, a common divisor between the horizontal length and the vertical length of the image may be calculated and set. For example, if the image size is '320 × 240', the size of the block may be '16 × 16', '8 × 8', '4 × 4', or the like.
블록 내 엔트로피를 산출하기 위한 방법은 다음의 수학식 5와 같다.The method for calculating the entropy in the block is expressed by Equation (5).
(수학식 5에서,(In equation (5)
Pi : i 번째 Gray Level의 확률,P i : probability of i-th gray level,
ni : i 번째 Gray Level의 빈도수,n i : frequency of i-th gray level,
M,N : 블록의 가로, 세로 크기,M, N: the horizontal and vertical size of the block,
e : 블록 내의 엔트로피)e: entropy in the block)
도 12는 본 발명에 따른 엔트로피 기반의 장애물 후보 영역 추출 이미지를 나타낸 일례로서, 이미지를 임의 크기의 블록(Block)(70)으로 나누어 엔트로피가 높은 영역을 추출 표시하였다. 도 12을 참조하면, 장애물의 크기 변화에 강인한 특성을 갖도록 높은 엔트로피를 가질수록 작은 크기의 블록으로 분할하여 분할된 블록(70) 내에서 엔트로피를 다시 계산한다. 높은 엔트로피를 가진 영역은 장애물 후보 영역으로 설정하고 설정된 후보 영역에 대해서만 모션(Motion) 정보를 추출한다.FIG. 12 shows an example of an entropy-based obstacle candidate region extraction image according to the present invention. The image is divided into
모션(Motion) 정보의 추출을 위하여 Lucas-Kanade Optical Flow를 이용한다. Lucas-Kanade Optical Flow는 연속된 프레임에서 오차가 최소 오차 이하로 나타나는 픽셀에 대해서만 속도 벡터를 계산하며 그 외에는 계산에서 배제한다. Lucas-Kanade Optical Flow is used to extract motion information. Lucas-Kanade Optical Flow computes the velocity vector only for pixels whose errors appear below the minimum error in consecutive frames, and excludes otherwise.
실제 차량 이미지에서 Lucas-Kanade Optical Flow는 작고 일관된 움직임이라는 가정을 위배하므로 정확도가 떨어지며 모션 정보를 가진 절대값 차이 이미지를 이용하여 독립적인 이동 장애물에 대한 모션 정보를 추출한다.In the real vehicle image, Lucas-Kanade Optical Flow violates the assumption of small and consistent motion, so motion information for independent moving obstacles is extracted using the absolute difference image with low accuracy.
도 13은 본 발명에 따른 절대값 차이 이미지의 일례로서, 차량 정차 시와 달리 이동 평균을 이용하지 않는 절대값 차이 이미지이다. 도 13의 차이 이미지에서 엔트로피를 이용한 장애물 후보 영역에 대한 픽셀 값만을 추출하여 움직이는 물체를 감지 및 표시한다. 도 13의 경우 흰색의 라인(80)으로 표시된 부분이 이에 해당한다.13 is an example of an absolute value difference image according to the present invention, which is an absolute value difference image which does not use a moving average unlike the case where the vehicle is stopped. In the difference image of FIG. 13, only a pixel value for an obstacle candidate region using entropy is extracted and a moving object is detected and displayed. In FIG. 13, this corresponds to a portion indicated by a
이 때, 차량이 이동 중일 때 배경에 해당하는 영역에서도 이미지 내 움직임이 존재하고 이에 따른 누적된 이전 프레임들의 정보는 오히려 잡음으로 나타나므로 현재 프레임(이미지)과 이전 프레임(이미지)의 차이만을 이용하여 모션 정보의 가중치로 사용되며 가중치를 적용하는 수식은 다음의 수학식 6과 같다.In this case, since the motion of the image exists even in the area corresponding to the background when the vehicle is moving, and information of accumulated previous frames is rather noise, only the difference between the current frame (image) and the previous frame The equation for applying the weight is used as the weight of the motion information, as shown in Equation (6).
(수학식 6에서,(In Equation 6,
w(x,y) : (x,y)좌표에 대한 모션 정보의 가중치,w (x, y): weight of motion information with respect to (x, y)
d(x,y) : 절대값 차이 이미지의 (x,y)좌표 픽셀값,d (x, y) is the (x, y) coordinate pixel value of the absolute difference image,
α : 상수)α: constant)
그리고, 수학식 6에 의해 산출된 가중치를 다음의 수학식 7과 같이 각 픽셀에 대한 속도 벡터에 곱하여 모션 정보를 계산한다. 모션 정보는 이동 장애물의 속도 벡터의 값을 크게 하고 그 외의 배경 영역에 대한 속도 벡터를 억제된 결과로 계산된다.Then, the motion vector is calculated by multiplying the velocity vector for each pixel by the weight calculated by Equation (6) as shown in the following Equation (7). The motion information is calculated as a result of increasing the value of the velocity vector of the moving obstacle and restricting the velocity vector to other background areas.
전술한 방법을 통해 산출된 속도벡터 중 특정 임계값 이상의 속도벡터만을 추출하면 도 14와 같이 차량 주행 시의 이동 장애물이 검출되며, 도 14의 경우 '90'으로 표시한 블록이 차량 주행 시의 이동 장애물에 해당하게 된다.14, if a speed vector of a speed vector equal to or higher than a specific threshold value is extracted from the speed vectors calculated through the above-described method, a moving obstacle at the time of driving the vehicle is detected as shown in FIG. 14, It becomes an obstacle.
여기서, 상기 특정 임계값 이상의 속도벡터만을 추출함은 속도 벡터가 '1' 이상인 벡터만을 추출하는 것을 의미할 수 있다. 장애물이 움직이는 경우 수학식 6의 가중치 수식에 의해 '1' 이상의 속도 벡터를 가지기 때문이다.Here, extracting only the velocity vector exceeding the specific threshold value may mean extracting only a vector having a velocity vector of '1' or more. Since the velocity vector of '1' or more is obtained by the weighting formula of Equation (6) when the obstacle moves.
<단계 6(S60)>≪ Step 6 (S60)
본 발명의 단계 6은 단계 5를 통해 검출된 이동 장애물의 하단 경계가 관심 영역 내로 침범하였는지 여부를 판별하는 단계로서, 구체적으로는 감지된 장애물 하단 경계의 세로축 위치 정보를 이용하여 상기 침범 여부를 판별하고, 더 나아가 해당 장애물과 차량 간의 거리에 따라 세분화된 경고 이벤트를 발생시킬 수 있도록 구성된다.Step 6 of the present invention is a step of determining whether or not the lower boundary of the moving obstacle detected through step 5 has invaded into the ROI, and more specifically, determining whether the invasion has occurred using the vertical axis position information of the detected lower boundary of the obstacle And further to generate a detailed warning event according to the distance between the obstacle and the vehicle.
바람직한 실시예에 따르면, 해당 장애물과 차량 간의 거리는 다음과 같이 차량 폭 산출 방식을 통해 산출되도록 구성할 수 있다. 차량에 대한 장애물의 접근 정도 즉, 장애물과 차량 간의 거리는 관심 영역 내 검출된 장애물의 세로축 좌표의 높이에 해당하는 지점에 대응하는 관심 영역의 가로 폭(즉, 차량 폭)의 크기를 계산한 후, 이에 의해 산출되는 관심 영역 가로 폭 크기의 상대적 변화를 이용하여 장애물이 어느 정도 위치에 접근했는지를 판단할 수 있다.According to a preferred embodiment, the distance between the obstacle and the vehicle may be calculated through a vehicle width calculation method as follows. The distance between the obstacle and the vehicle is calculated by calculating the size of the width of the area of interest (i.e., width of the vehicle) corresponding to the point corresponding to the height of the vertical axis of the detected obstacle in the area of interest, The relative change in the width of the area of interest calculated thereby can be used to determine how far the obstacle has approached the location.
<단계 7(S70)>≪ Step 7 (S70)
본 발명의 단계 7은 단계 6을 통해 이동 장애물의 하단 경계가 관심 영역 내로 침범하였음을 감지하였을 경우, 이를 차량 운전자에게 청각적 또는(및) 시각적으로 알려주는 단계이다.Step 7 of the present invention is a step of audibly or visually informing a driver of the vehicle that the lower boundary of the obstacle has entered the ROI through step 6.
정지 장애물의 경우 해당 장애물의 하단 경계가 이미지의 하단으로 이동하지 않으면 충돌 위험이 없기 때문에 장애물 하단의 도로면 경계 부분만 표시하고 특정 거리에 장애물이 존재함을 알려주는 이벤트를 수행할 수 있다.In the case of a stationary obstacle, since there is no risk of collision if the lower boundary of the obstacle does not move to the bottom of the image, only an edge of the road surface at the bottom of the obstacle is displayed and an event indicating that an obstacle exists at a specific distance can be performed.
이동 장애물의 경우 움직임의 변위가 크기 때문에 임의로 정의된 영역(예컨대 관심 영역) 내에 이동 장애물 하단 경계가 침범하였을 경우, 경고 이벤트를 수행하도록 구성된다.And is configured to perform a warning event when a moving obstacle bottom boundary has entered an arbitrarily defined area (for example, a region of interest) due to the large displacement of motion in the case of a moving obstacle.
바람직한 실시예에 따르면, 도 6과 같이 관심 영역(40)을 상부 영역(41)과 하부 영역(42)으로 이루어진 2개의 영역으로 분할하여, 차량이 상부 영역(41)으로 진입시 충돌 위험 장애물이 출현했음을 예비 경고하고, 차량이 상부 영역(41)을 넘어 하부 영역(42)까지 침범시 충돌 위험이 임박했음을 최종 경고하도록 구성할 수 있다. 여기서, 장애물이 관심 영역 중 상부 영역에 진입하였는지 또는 하부 영역까지 침범하였는지 여부는 전술한 차량 폭 산출 방식을 통해 판별 가능하다.According to a preferred embodiment, the region of
한편, 동일한 속도로 움직이는 물체의 경우 충돌 위험성이 적다고 판단하기 때문에 모션(Motion) 정보를 이용하여 상단으로 향하는 물체로 판별될 경우 경고 이벤트를 수행하지 않도록 구성할 수 있다.
On the other hand, since it is determined that the risk of collision is small in the case of an object moving at the same speed, it is possible to configure not to perform the warning event when it is determined that the object is moving toward the top using motion information.
상기에서 본 발명의 바람직한 실시예가 특정 용어들을 사용하여 설명 및 도시되었지만 그러한 용어는 오로지 본 발명을 명확히 설명하기 위한 것일 뿐이며, 본 발명의 실시예 및 기술된 용어는 다음의 청구범위의 기술적 사상 및 범위로부터 이탈되지 않고서 여러가지 변경 및 변화가 가해질 수 있는 것은 자명한 일이다. 이와 같이 변형된 실시예들은 본 발명의 사상 및 범위로부터 개별적으로 이해되어져서는 안되며, 본 발명의 청구범위 안에 속한다고 해야 할 것이다.
While the preferred embodiments of the present invention have been described and illustrated above using specific terms, such terms are used only for the purpose of clarifying the invention, and it is to be understood that the embodiment It will be obvious that various changes and modifications can be made without departing from the spirit and scope of the invention. Such modified embodiments should not be understood individually from the spirit and scope of the present invention, but should be regarded as being within the scope of the claims of the present invention.
10: 카메라, 20: 경고 출력부
30: 영상인식 처리부 31: 이미지 보정부
32: 이미지 구획부 33: 도로표식 처리부
34: 장애물하단경계 추출부 35: 이동장애물 검출부
36: 충돌위험 판별부 40: 관심 영역
50,51: 도로 표식 62: 장애물 하단 경계10: camera, 20: alarm output unit
30: image recognition processing unit 31: image correction unit
32: image dividing unit 33: road marking processing unit
34: obstacle bottom boundary extracting unit 35: moving obstacle detecting unit
36: Collision risk discrimination part 40: Interest area
50,51: Road marking 62: Obstacle bottom boundary
Claims (14)
상기 보정된 이미지에서 차량과 충돌 위험이 있는 영역을 관심 영역으로 설정하는 제2 단계;
적어도 상기 관심 영역 내의 도로 표식을 추출하여 이를 약화 처리하는 제3 단계;
상기 도로 표식이 약화 처리된 이미지에서 장애물 하단과 지면 간의 경계(이하, '장애물 하단 경계'라 함)를 추출하는 제4 단계;
상기 장애물 하단 경계를 이용하여, 이동이 있는 장애물(이하, '이동 장애물'이라 함)을 검출하는 제5 단계;
상기 이동 장애물의 하단 경계가 상기 관심 영역 내로 침범하였는지 여부를 판별하는 제6 단계; 및
상기 제6 단계의 판별 결과, 상기 침범에 해당시 경고 이벤트를 발생시키는 제7 단계;를 포함하는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
A first step of correcting the radiation distortion in the image photographed through the camera of the vehicle;
A second step of setting an area in which there is a risk of collision with a vehicle in the corrected image as an area of interest;
A third step of extracting road markings in at least the area of interest and weakening the extracted road markings;
A fourth step of extracting a boundary between the bottom of the obstacle and the ground (hereinafter referred to as an 'obstacle bottom boundary') in the image in which the road marking is weakened;
A fifth step of detecting a moving obstacle (hereinafter referred to as a moving obstacle) using the lower boundary of the obstacle;
A sixth step of determining whether a lower boundary of the moving obstacle has invaded into the ROI; And
And a seventh step of generating a warning event when it is detected as a result of the determination of the sixth step.
상기 제3 단계의 상기 약화 처리는, 상기 추출된 도로 표식의 픽셀값을 재조정하거나 대체하는 방식으로 처리하도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
The method according to claim 1,
Wherein the weakening process of the third step is configured to process a pixel value of the extracted road marking by a method of rearranging or replacing the pixel value of the extracted road marking.
상기 제3 단계의 도로 표식의 추출은 지면과 도로 표식 간의 밝기 차이를 이용하여 추출하되, 상기 관심 영역을 복수 개의 영역으로 분할하여 각각의 영역에 대하여 다른 임계값을 설정하여 도로 표식을 추출하도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
The method according to claim 1,
The road markers of the third step are extracted by using the brightness difference between the ground and the road markers, and the road markers are extracted by dividing the ROI into a plurality of regions and setting different threshold values for the respective regions Wherein the obstacle detection means detects the vehicle obstacle based on the image recognition.
상기 제4 단계의 장애물 하단 경계 추출은, 상기 제3 단계를 통해 도로 표식이 약화 처리된 이미지에서 소벨 오퍼레이터(Sobel Operator)를 통해 산출된 수평 성분을 이용하여 추출되도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
The method according to claim 1,
Wherein the step of extracting the lower boundary of the obstacle in the fourth step is performed using the horizontal component calculated through the Sobel operator in the image obtained by weakening the road marking through the third step. Based vehicle access obstacle detection method.
상기 제4 단계는,
상기 소벨 오퍼레이터를 통한 상기 수평 성분 산출 이후,
심플 블러 마스크(Simple Blur Mask)를 이용하여 관심 영역의 픽셀값을 평탄화하는 제4-1 단계;
모폴로지(Morphology) 연산을 통해 도로 표식의 경계와 도로면 잡음 성분을 제거하는 제4-2 단계;
가우시안 블러(Gaussian Blur)를 통해 장애물 하단 경계 영역은 보존하고 그 외의 영역들은 제거하는 제4-3 단계;
상기 수평 성분에 대해 누적 히스토그램을 생성하고 이진화를 수행하는 제4-4 단계; 및
상기 관심 영역의 각 가로 픽셀을 기준으로 '0'이 아닌 값을 가지는 세로축 픽셀 중 최하단 값을 검출하여 이를 버퍼에 저장하는 제4-5 단계를 포함하는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
5. The method of claim 4,
In the fourth step,
After calculating the horizontal component through the Sobel operator,
(4-1) planarizing pixel values of a region of interest using a simple blur mask;
(4-2) removing a road marking boundary and a road surface noise component through a morphology operation;
A fourth step of preserving the lower boundary region of the obstacle through the Gaussian Blur and removing the other regions;
A fourth step of generating an accumulated histogram for the horizontal component and performing binarization; And
And a fourth step of detecting a lowest value among vertical pixels having a value other than '0' based on each horizontal pixel of the ROI, and storing the lowest value in a buffer. Detection method.
상기 제4-4 단계는, '0'부터 '255'의 누적 히스토그램에서 하위 70% ~ 80% 범위 내에서 선택된 적어도 어느 하나의 수치에 해당하는 픽셀값을 산출하고, 상기 산출된 픽셀값을 이진화 영상을 생성하기 위한 임계값으로 사용하도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
6. The method of claim 5,
In the step 4-4, a pixel value corresponding to at least one selected from the range of 70% to 80% in a cumulative histogram of '0' to '255' is calculated, and the calculated pixel value is binarized Wherein the threshold value is used as a threshold value for generating an image.
상기 제5 단계는,
상기 제4 단계를 통해 추출된 장애물 하단 경계를 이용하되, 상기 관심 영역의 임의의 구간 내에서 상기 장애물 하단 경계의 상단 픽셀을 대상으로 해당 장애물이 이동이 있는지 여부를 검출하도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
The method according to claim 1,
In the fifth step,
Wherein the controller is configured to detect whether or not the obstacle is moved on an upper pixel of the obstacle bottom boundary within an arbitrary section of the ROI using the lower boundary of the obstacle extracted through the fourth step (Method of detecting vehicle access obstacle based on image recognition).
차량이 정지 상태이면, 이동 평균 이미지와 현재 이미지의 절대값 차이 이미지를 이용하여 상기 이동 장애물을 검출하고,
차량이 주행 중이면, 상기 장애물 하단 경계의 상측 영역에 대한 로컬 엔트로피(Local Entropy) 계산에 의해 추출되는 텍스쳐(Texture) 정보, 현재 이미지와 이전 이미지의 절대값 차이 이미지, 및 상기 절대값 차이 이미지로부터 산출되는 모션(Motion) 정보를 이용하여 상기 이동 장애물을 검출하도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
8. The method of claim 7,
Detecting a moving obstacle using a moving average image and an absolute value difference image of the current image if the vehicle is in a stopped state,
If the vehicle is running, texture information extracted by local entropy calculation for the upper region of the obstacle lower boundary, absolute difference image of the current image and the previous image, And detecting the moving obstacle based on the calculated motion information.
상기 제6 단계는,
상기 제5 단계를 통해 검출된 이동 장애물의 하단 경계의 세로축 위치 정보를 이용하여 상기 침범 여부를 판별하도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
The method according to claim 1,
In the sixth step,
Wherein the step of determining whether the vehicle is approaching is based on the vertical axis position information of the lower boundary of the moving obstacle detected through the fifth step.
상기 검출된 이동 장애물의 세로축 좌표의 높이에 해당하는 지점에 대응하는 상기 관심 영역의 가로 폭의 크기를 산출한 후, 이를 이용하여 상기 관심 영역에 침범한 이동 장애물과 차량 간의 거리(차량에 대한 장애물의 접근 정도)를 더 판별하도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
10. The method of claim 9,
And calculates a distance between the moving obstacle and the vehicle that has entered the area of interest using the distance between the moving obstacle and the vehicle, The method comprising the steps of: (a) detecting an obstacle in a vehicle;
상기 제1 단계는, 상기 촬영된 이미지의 가로 및 세로 길이를 이용하여 상기 방사 왜곡을 보정하도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
The method according to claim 1,
Wherein the first step is configured to correct the radial distortion using the horizontal and vertical lengths of the photographed image.
상기 제2 단계의 관심 영역은 사다리꼴 모양으로 설정되되, 상기 사다리꼴의 윗변은 상기 보정된 이미지에서 소실선의 하측 영역에 위치하도록 설정되고, 상기 사다리꼴은 상부 영역과 하부 영역으로 이루어진 2개의 영역으로 분할되어 설정되도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
The method according to claim 1,
Wherein the area of interest in the second step is set in a trapezoidal shape, wherein the upper side of the trapezoid is set to be located in a lower area of the missing line in the corrected image, and the trapezoid is divided into two areas of an upper area and a lower area Wherein the obstacle detection means detects the vehicle obstacle based on the detected obstacle.
상기 제7 단계는,
차량이 상기 상부 영역으로 진입시 충돌 위험 장애물이 출현했음을 예비 경고하고, 차량이 상부 영역을 넘어 하부 영역까지 침범시 충돌 위험이 임박했음을 최종 경고하도록 구성되는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 방법.
13. The method of claim 12,
In the seventh step,
Wherein the vehicle is configured to warn that a collision hazard obstacle has appeared when the vehicle has entered the upper region, and to warn that the risk of a collision is imminent when the vehicle goes beyond the upper region to the lower region. Way.
상기 카메라로부터 입력되는 이미지에서 방사 왜곡을 보정하는 이미지 보정부;
상기 보정된 이미지에서 차량과 충돌 위험이 있는 영역을 관심 영역으로 구획하여 설정하는 이미지 구획부;
적어도 상기 관심 영역 내의 도로 표식을 추출하여 이를 약화 처리하는 도로 표식 처리부;
상기 도로 표식이 약화 처리된 이미지에서 장애물 하단과 지면 간의 경계(이하, '장애물 하단 경계'라 함)를 검출하는 장애물하단경계 추출부;
상기 장애물 하단 경계를 이용하여, 이동이 있는 장애물(이하, '이동 장애물'이라 함)을 검출하는 이동장애물 검출부;
상기 이동 장애물의 하단 경계가 상기 관심 영역 내로 침범하였는지 여부를 판별하는 충돌위험 판별부; 및
상기 충돌위험 판별부의 판별 결과, 상기 침범에 해당시 경고 이벤트를 발생시키는 경고 출력부;를 포함하는 것을 특징으로 하는 영상 인식 기반의 차량 접근 장애물 감지 시스템.A camera for photographing the vicinity of the vehicle to acquire an image;
An image correcting unit correcting a radiation distortion in an image input from the camera;
An image dividing unit for dividing and setting an area where there is a risk of collision with a vehicle in the corrected image as a region of interest;
A road marking processor for extracting road markings in the ROI and attenuating the road markings;
An obstacle bottom boundary extracting unit for detecting a boundary between the bottom of the obstacle and the ground (hereinafter, referred to as 'obstacle bottom edge') in the image in which the road marking is weakened;
A moving obstacle detector for detecting an obstacle with movement (hereinafter referred to as a 'moving obstacle') using the obstacle lower boundary;
A collision risk judging unit for judging whether or not the lower boundary of the moving obstacle has invaded into the region of interest; And
And a warning output unit for generating a warning event when the collision risk discrimination unit discriminates that the collision is detected.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130058829A KR101464489B1 (en) | 2013-05-24 | 2013-05-24 | Method and system for detecting an approaching obstacle based on image recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130058829A KR101464489B1 (en) | 2013-05-24 | 2013-05-24 | Method and system for detecting an approaching obstacle based on image recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101464489B1 true KR101464489B1 (en) | 2014-11-25 |
Family
ID=52291414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR20130058829A KR101464489B1 (en) | 2013-05-24 | 2013-05-24 | Method and system for detecting an approaching obstacle based on image recognition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101464489B1 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016104842A1 (en) * | 2014-12-26 | 2016-06-30 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | Object recognition system and method of taking account of camera distortion |
KR20160131579A (en) * | 2015-05-08 | 2016-11-16 | 엘지전자 주식회사 | Autonomous drive apparatus and vehicle including the same |
KR101713986B1 (en) | 2016-02-17 | 2017-03-08 | 한국항공대학교산학협력단 | Optical flow estimator for moving object detection and method thereof |
KR20180060024A (en) * | 2016-11-28 | 2018-06-07 | 동국대학교 산학협력단 | System and method for vehicle collision avoidance |
WO2019054719A1 (en) * | 2017-09-15 | 2019-03-21 | 엘지전자 주식회사 | Vehicle driving assistance device and vehicle |
KR20190069958A (en) * | 2017-12-12 | 2019-06-20 | 연세대학교 산학협력단 | Apparatus and Method for Detecting Moving Object |
KR20200054615A (en) * | 2018-11-12 | 2020-05-20 | 재단법인대구경북과학기술원 | Method and system for detecting a plurality of lowest points of a single segment in an image |
CN111332200A (en) * | 2018-12-18 | 2020-06-26 | 现代自动车株式会社 | Vehicle and control method of vehicle |
KR20210069847A (en) * | 2019-12-04 | 2021-06-14 | 배재대학교 산학협력단 | System and method for controlling power tailgate based on 3d sensor |
CN114291077A (en) * | 2021-12-23 | 2022-04-08 | 海宁奕斯伟集成电路设计有限公司 | Vehicle anti-collision early warning method and device |
KR102500051B1 (en) * | 2022-08-18 | 2023-02-16 | 주식회사 이노메트릭스 | How to operate the gantry collision prevention system |
CN117278697A (en) * | 2023-11-21 | 2023-12-22 | 中汽传媒(天津)有限公司 | System and method for collecting panoramic video of automobile collision |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120009591A (en) * | 2010-07-19 | 2012-02-02 | 주식회사 이미지넥스트 | Vehicle Collision Alarm System and Method |
KR20130007243A (en) * | 2011-06-30 | 2013-01-18 | (주)베라시스 | Method and system for warning forward collision using camera |
-
2013
- 2013-05-24 KR KR20130058829A patent/KR101464489B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120009591A (en) * | 2010-07-19 | 2012-02-02 | 주식회사 이미지넥스트 | Vehicle Collision Alarm System and Method |
KR20130007243A (en) * | 2011-06-30 | 2013-01-18 | (주)베라시스 | Method and system for warning forward collision using camera |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016104842A1 (en) * | 2014-12-26 | 2016-06-30 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | Object recognition system and method of taking account of camera distortion |
KR20160131579A (en) * | 2015-05-08 | 2016-11-16 | 엘지전자 주식회사 | Autonomous drive apparatus and vehicle including the same |
KR102043060B1 (en) * | 2015-05-08 | 2019-11-11 | 엘지전자 주식회사 | Autonomous drive apparatus and vehicle including the same |
KR101713986B1 (en) | 2016-02-17 | 2017-03-08 | 한국항공대학교산학협력단 | Optical flow estimator for moving object detection and method thereof |
KR20180060024A (en) * | 2016-11-28 | 2018-06-07 | 동국대학교 산학협력단 | System and method for vehicle collision avoidance |
KR101894731B1 (en) * | 2016-11-28 | 2018-09-04 | 동국대학교 산학협력단 | System and method for vehicle collision avoidance |
WO2019054719A1 (en) * | 2017-09-15 | 2019-03-21 | 엘지전자 주식회사 | Vehicle driving assistance device and vehicle |
KR102002228B1 (en) * | 2017-12-12 | 2019-07-19 | 연세대학교 산학협력단 | Apparatus and Method for Detecting Moving Object |
WO2019117374A1 (en) * | 2017-12-12 | 2019-06-20 | 연세대학교 산학협력단 | Apparatus and method for detecting dynamic object |
KR20190069958A (en) * | 2017-12-12 | 2019-06-20 | 연세대학교 산학협력단 | Apparatus and Method for Detecting Moving Object |
KR20200054615A (en) * | 2018-11-12 | 2020-05-20 | 재단법인대구경북과학기술원 | Method and system for detecting a plurality of lowest points of a single segment in an image |
KR102134811B1 (en) * | 2018-11-12 | 2020-07-16 | 재단법인대구경북과학기술원 | Method and system for detecting a plurality of lowest points of a single segment in an image |
CN111332200A (en) * | 2018-12-18 | 2020-06-26 | 现代自动车株式会社 | Vehicle and control method of vehicle |
KR20210069847A (en) * | 2019-12-04 | 2021-06-14 | 배재대학교 산학협력단 | System and method for controlling power tailgate based on 3d sensor |
KR102280460B1 (en) * | 2019-12-04 | 2021-07-21 | 배재대학교 산학협력단 | System and method for controlling power tailgate based on 3d sensor |
CN114291077A (en) * | 2021-12-23 | 2022-04-08 | 海宁奕斯伟集成电路设计有限公司 | Vehicle anti-collision early warning method and device |
KR102500051B1 (en) * | 2022-08-18 | 2023-02-16 | 주식회사 이노메트릭스 | How to operate the gantry collision prevention system |
CN117278697A (en) * | 2023-11-21 | 2023-12-22 | 中汽传媒(天津)有限公司 | System and method for collecting panoramic video of automobile collision |
CN117278697B (en) * | 2023-11-21 | 2024-03-15 | 中汽传媒(天津)有限公司 | System and method for collecting panoramic video of automobile collision |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101464489B1 (en) | Method and system for detecting an approaching obstacle based on image recognition | |
KR101613740B1 (en) | Runway Surveillance System and Method | |
JP6174975B2 (en) | Ambient environment recognition device | |
WO2016076449A1 (en) | Method and system for detecting an approaching obstacle based on image recognition | |
KR101392850B1 (en) | Method and system for lane departure warning based on image recognition | |
JP5997276B2 (en) | Three-dimensional object detection device and foreign object detection device | |
US4970653A (en) | Vision method of detecting lane boundaries and obstacles | |
JP6054777B2 (en) | Stereo camera device | |
EP2928178B1 (en) | On-board control device | |
JP6072064B2 (en) | Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine | |
JP2007156626A (en) | Object type determination device and object type determination method | |
KR101584907B1 (en) | Method and Apparatus for recognizing lane using region of interest | |
Liu et al. | Development of a vision-based driver assistance system with lane departure warning and forward collision warning functions | |
Bhujbal et al. | Lane departure warning system based on Hough transform and Euclidean distance | |
KR101483742B1 (en) | Lane Detection method for Advanced Vehicle | |
JP5548212B2 (en) | Crosswalk sign detection method and crosswalk sign detection device | |
Lion et al. | Smart speed bump detection and estimation with kinect | |
KR101568745B1 (en) | Vehicle assistant apparatus and method based on infrared images | |
JP6701905B2 (en) | Detection device, parallax value derivation device, object recognition device, device control system, and program | |
JP4765113B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP4788399B2 (en) | Pedestrian detection method, apparatus, and program | |
JP5785515B2 (en) | Pedestrian detection device and method, and vehicle collision determination device | |
KR100976142B1 (en) | detection method of road vehicles | |
KR101531313B1 (en) | Apparatus and method for object detection of vehicle floor | |
WO2023095489A1 (en) | External environment recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170405 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20181120 Year of fee payment: 5 |