KR101982298B1 - Method and apparatus for detecting sudden moving objecj appearance at vehicle - Google Patents

Method and apparatus for detecting sudden moving objecj appearance at vehicle Download PDF

Info

Publication number
KR101982298B1
KR101982298B1 KR1020170137166A KR20170137166A KR101982298B1 KR 101982298 B1 KR101982298 B1 KR 101982298B1 KR 1020170137166 A KR1020170137166 A KR 1020170137166A KR 20170137166 A KR20170137166 A KR 20170137166A KR 101982298 B1 KR101982298 B1 KR 101982298B1
Authority
KR
South Korea
Prior art keywords
boundary
area
image
obstacle
moving object
Prior art date
Application number
KR1020170137166A
Other languages
Korean (ko)
Other versions
KR20180058624A (en
Inventor
이성환
오영석
곽인엽
석흥일
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Publication of KR20180058624A publication Critical patent/KR20180058624A/en
Application granted granted Critical
Publication of KR101982298B1 publication Critical patent/KR101982298B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/34Protecting non-occupants of a vehicle, e.g. pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • G06K9/00362
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R2021/003Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks characterised by occupant or pedestian

Abstract

본 발명의 일 실시예에 따른, 차량에서의 이동 객체 출현을 탐지하는 방법에 있어서, 도로에서의 주행 가능 영역과 나머지 영역을 분류하는 제 1 학습 분류 모델 및 장애물 영역을 추출하는 제 2학습 분류 모델에 기초하여, 주행 시 촬영한 주행 영상으로부터 도로에서의 주행 가능 영역과 장애물 영역을 추출하는 단계; 미리 설정한 제약 조건에 따라 도로와 장애물을 분할하는 분할 경계를 추출하되, 경계를 이루는 픽셀들의 에너지 함수가 최소가 되도록 하는 경계를 분할 경계로서 추출하는 단계; 분할 경계에 위치하는 장애물의 높이를 각각 추정하고, 장애물의 높이 변화가 임계값 이상이 되는 영역을 잠재적 위험 영역으로 특정하는 단계; 및 주행 영상에 영상 처리에 기반한 이동 객체 탐지 알고리즘을 적용하여 이동 객체를 탐지하는 단계를 포함하되, 이동 객체를 탐지하는 단계는 주행 영상 중 잠재적 위험 영역에 대하여 이동 객체 탐지 알고리즘을 가장 우선적으로 적용하거나, 슬라이딩 윈도우의 배치 밀도를 가장 높게 설정하여 이동 객체를 탐지하는 단계를 포함하는 이동 객체 탐지 방법일 수 있다.In accordance with an embodiment of the present invention, there is provided a method for detecting appearance of a moving object in a vehicle, the method comprising: a first learning classification model for classifying a travelable area and a remaining area on a road; Extracting a travelable area and an obstacle area on the road from a traveling image photographed at the time of traveling; Extracting a boundary for dividing a road and an obstacle according to a predetermined constraint condition as a boundary for dividing the energy function of the pixels constituting the boundary into a minimum; Estimating heights of the obstacles located at the partition boundary, and specifying a region where the height change of the obstacle is equal to or greater than a threshold value as a potential danger area; And detecting a moving object by applying a moving object detection algorithm based on image processing to the moving image, wherein the step of detecting the moving object includes applying a moving object detecting algorithm to the potential dangerous area among the running images with the highest priority , And detecting the moving object by setting the arrangement density of the sliding window to the highest.

Description

차량에서의 돌발적으로 출현한 이동 객체를 탐지하는 방법 및 장치{METHOD AND APPARATUS FOR DETECTING SUDDEN MOVING OBJECJ APPEARANCE AT VEHICLE}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a method and apparatus for detecting an abruptly emerging moving object in a vehicle,

본 발명은 주행 환경 이해에 기반을 둔 갑작스러운 보행자 출현 경고 방법 및 시스템에 관한 것이다.The present invention relates to a sudden pedestrian emergence warning method and system based on understanding the driving environment.

완성차 시장에서 보행자 충돌 방지를 위한 기존의 ADAS(advanced driver assistance system) 기술들은 거리 센서를 기반으로 개발되어 왔다. 대표적으로 ADAS 기술은 레이저 센서, 라이다(Lidar) 등과 같은 장비들이 사용되어 왔다.Conventional advanced driver assistance system (ADAS) technologies for preventing pedestrian collision in the finished car market have been developed based on distance sensors. Typically, ADAS technology has been used with laser sensors and Lidar.

거리 센서 기반의 ADAS 기술은 주변 장애물 및 객체들의 거리를 정확하게 측정할 수 있다. 그러므로 거리 센서 기반의 ADAS 기술은 장애물 검출과 그에 따른 차량 제어가 용이하다는 장점이 있다. 그러나 거리 센서 기반의 ADAS 기술은 센서로 들어오는 정보가 극히 제한되어 있어, 주변 상황에 대한 정확한 이해를 하기는 힘들다. 또한, 거리 센서 기반의 ADAS 기술은 센서의 종류에 따라 차체의 흔들림이나 기상 상황 변화에 쉽게 영향을 받을 수 있다. 거리 센서 기반의 ADAS 기술은 정밀성을 보장하기 위해 차량 외부에 노출된 형태로 설치되어야 하므로 차체의 외형을 변형시켜야만 하고, 설치비용이 비싸다ADAS technology based on distance sensors can accurately measure distances between surrounding obstacles and objects. Therefore, the ADAS technology based on the distance sensor has an advantage that it is easy to detect the obstacle and control the vehicle accordingly. However, ADAS technology based on the distance sensor has very limited information coming into the sensor, so it is difficult to understand the surrounding situation accurately. Also, the ADAS technology based on the distance sensor can be easily influenced by the shaking of the car body or the change of the weather condition depending on the sensor type. The ADAS technology based on the distance sensor must be installed in a form exposed to the outside of the vehicle to ensure precision, so the outer shape of the vehicle body must be deformed and the installation cost is high

그러므로 최근에는 블랙박스와 같은 영상 센서를 활용한 컴퓨터 비전 기술에 기초한 보행자 충돌 방지 기술과 같은 ADAS 기술이 주목을 받고 있다. 컴퓨터 비전 기반의 보행자 충돌 방지 기술들은 통상적으로 슬라이딩 윈도우에 기반하여 보행자의 탐색을 수행하고, 주행 경로 상에 보행자가 탐지되면 위험 상황을 알려준다. 하지만 종래의 기법들은 이미지 전체를 탐색해야 한다는 점에서 많은 계산량을 요구하게 되며, 주행 환경에 따라 오인식이 자주 발생할 수도 있다.Therefore, recently, ADAS technology such as a pedestrian collision prevention technique based on a computer vision technique using an image sensor such as a black box is attracting attention. Computer vision based pedestrian collision avoidance techniques typically perform a search for pedestrians based on a sliding window and notify a dangerous situation when pedestrians are detected on a driving route. However, the conventional techniques require a large amount of calculation in that the entire image must be searched, and misunderstandings may occur frequently depending on the driving environment.

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 주행 환경 이해에 기반을 둔 갑작스러운 보행자 출현 경고 방법 및 시스템을 제공한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems of the conventional art, and provides a sudden pedestrian appearance warning method and system based on understanding of the driving environment.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.It should be understood, however, that the technical scope of the present invention is not limited to the above-described technical problems, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른, 차량에서의 이동 객체 출현을 탐지하는 방법에 있어서, 도로에서의 주행 가능 영역과 나머지 영역을 분류하는 제 1 학습 분류 모델 및 장애물 영역을 추출하는 제 2학습 분류 모델에 기초하여, 주행 시 촬영한 주행 영상으로부터 도로에서의 주행 가능 영역과 장애물 영역을 추출하는 단계; 미리 설정한 제약 조건에 따라 도로와 장애물을 분할하는 분할 경계를 추출하되, 경계를 이루는 픽셀들의 에너지 함수가 최소가 되도록 하는 경계를 분할 경계로서 추출하는 단계; 분할 경계에 위치하는 장애물의 높이를 각각 추정하고, 장애물의 높이 변화가 임계값 이상이 되는 영역을 잠재적 위험 영역으로 특정하는 단계; 및 주행 영상에 영상 처리에 기반한 이동 객체 탐지 알고리즘을 적용하여 이동 객체를 탐지하는 단계를 포함하되, 이동 객체를 탐지하는 단계는 주행 영상 중 잠재적 위험 영역에 대하여 이동 객체 탐지 알고리즘을 가장 우선적으로 적용하거나, 슬라이딩 윈도우의 배치 밀도를 가장 높게 설정하여 이동 객체를 탐지하는 단계를 포함하는 이동 객체 탐지 방법일 수 있다.According to an aspect of the present invention, there is provided a method for detecting appearance of a moving object in a vehicle, the method comprising the steps of: Extracting a travelable area and an obstacle area on the road from a traveling image photographed during driving based on a second learning classification model for extracting a model and an obstacle area; Extracting a boundary for dividing a road and an obstacle according to a predetermined constraint condition as a boundary for dividing the energy function of the pixels constituting the boundary into a minimum; Estimating heights of the obstacles located at the partition boundary, and specifying a region where the height change of the obstacle is equal to or greater than a threshold value as a potential danger area; And detecting a moving object by applying a moving object detection algorithm based on image processing to the moving image, wherein the step of detecting the moving object includes applying a moving object detecting algorithm to the potential dangerous area among the running images with the highest priority , And detecting the moving object by setting the arrangement density of the sliding window to the highest.

본 발명의 다른 일 실시예에 따른, 차량에서의 이동 객체 출현을 탐지하는 장치에 있어서, 자율 주행 차량에 배치된 카메라로부터 수신한 주행 영상이 저장되고, 위험 탐지 방법을 구현하는 프로그램이 저장된 메모리 및 메모리에 저장된 프로그램을 실행하여 상기 주행 영상으로부터 위험 탐지 동작을 실행하는 프로세서를 포함하되, 프로세서는 도로에서의 주행 가능 영역과 나머지 영역을 분류하는 제 1 학습 분류 모델 및 장애물 영역을 추출하는 제 2학습 분류 모델에 기초하여, 주행시 촬영한 영상으로부터 도로에서 주행 가능 영역과 장애물 영역을 추출하고, 미리 설정한 제약 조건에 따라 도로와 장애물을 분할하는 분할 경계를 추출하되, 경계를 이루는 픽셀들의 에너지 함수가 최소가 되도록 하는 경계를 상기 분할 경계로서 추출하고, 상기 분할 경계에 위치하는 장애물의 높이를 각각 추정하고, 장애물의 높이 변화가 임계값 이상이 되는 영역을 잠재적 위험 영역으로 특정하고, 상기 도로 영상에 영상 처리에 기반한 이동 객체 탐지 알고리즘을 적용하여 이동 객체를 탐지하되, 프로세서는 상기 영상 중 상기 잠재적 위험 영역에 대하여 이동 객체 탐지 알고리즘을 가장 우선적으로 적용하거나, 슬라이딩 윈도우의 배치 밀도를 가장 높게 설정하여 이동 객체를 탐지하는 것인 이동 객체 탐지 장치일 수 있다.According to another aspect of the present invention, there is provided an apparatus for detecting appearance of a moving object in a vehicle, the apparatus comprising: a memory storing a running image received from a camera disposed in an autonomous vehicle, And a processor for executing a risk detection operation from the running image by executing a program stored in a memory, wherein the processor includes: a first learning classification model for classifying the travelable area and the remaining area on the road; and a second learning Based on the classification model, a travelable area and an obstacle area are extracted from a road from a photographed image, and a division boundary for dividing a road and an obstacle is extracted according to a predetermined constraint condition, and an energy function of the pixels forming the boundary is extracted Extracts a boundary to be the minimum as the division boundary, Estimating a height of an obstacle located at a boundary, specifying a region where a height change of the obstacle is equal to or greater than a threshold value as a potential dangerous area, applying a moving object detection algorithm based on image processing to the road image, The processor may be a moving object detection device that applies the moving object detection algorithm to the potential dangerous area with the highest priority among the images, or detects the moving object by setting the arrangement density of the sliding window to the highest.

본 발명은 주변 환경 정보를 인식하고 장애물 영역과 주행 가능 영역 사이의 경계를 추출함 돌발적인 상황에서의 보행자 출현 경고 정확성을 향상시킬 수 있다.The present invention recognizes the surrounding environment information and extracts the boundary between the obstacle area and the travelable area. It is possible to improve the warning accuracy of the appearance of the pedestrian in an unexpected situation.

본 발명은 추출된 경계선을 따라 잠재적인 돌발 상황 발생 영역을 추정하게 된다. 본 발명은 추정된 영역을 이용하여 보행자를 탐색하게 되면 기존의 방식에서 영상 전체 영역을 탐색하는 것보다 효과적으로 탐색을 수행 할 수 있다. 그러므로 본 발명은 계산량을 줄일 수 있게 된다. 또한, 본 발명은 거리 변화량 정보가 아닌, 영상 분할과 장애물 높이 추정에 기반을 둔 잠재적 위험 영역 추정 방법을 제안함으로써, 다양한 주행 환경에서도 기존 방법보다 정확하게 위험 영역 추정을 수행 할 수 있다. 그리고 본 발명은 영상 분할과정에서 시간적/공간적 제약 조건들을 기반으로 영상을 저차원 그래프로 표현함으로써, 처리 계산량을 추가적으로 줄이는 효과도 가지게 된다.The present invention estimates a potential incipient occurrence area along the extracted boundary line. If the pedestrian is searched using the estimated area, the search can be performed more effectively than searching the whole area of the image in the conventional method. Therefore, the present invention can reduce the amount of calculation. In addition, the present invention proposes a potential risk area estimation method based on image segmentation and obstacle height estimation rather than distance variation information, and can more accurately perform danger area estimation than existing methods even in various driving environments. The present invention also has the effect of further reducing the amount of processing computation by expressing an image as a low-dimensional graph based on temporal / spatial constraints in the image segmentation process.

부수적인 효과로써, 본 발명은 주변 상황 정보를 추출하는 과정에서 보행자 및 위험 상황 오인식을 줄일 수 있는 장점이 있다. 또한, 본 발명에서는 도로 면이나 지평선 등의 정보를 장애물 영역 추정 과정에서 함께 다루기 때문에 위험 상황을 잘못 인식하여 경고하거나, 나무와 전봇대 등의 물체가 보행자로 오인식되는 문제를 줄일 수 있다.As an incidental effect, the present invention has an advantage in that it can reduce the pedestrian and the misidentification of the dangerous situation in the process of extracting the surrounding situation information. In addition, since the information such as the road surface and the horizon line are handled together in the obstacle area estimation process, the present invention can reduce the problem of erroneously recognizing and warning a dangerous situation or misidentifying an object such as a tree or a pole as a pedestrian.

도 1은 본 발명의 일 실시예에 따른 보행자로 인한 위험 상황에 대한 예시도이다.
도 2는 본 발명의 일 실시예에 따른 차량에서의 이동 객체 출현을 탐지시스템 구성도이다.
도 3은 본 발명의 일 실시예에 따른 학습 정보의 특징 중 하나인 색상 기반 형태 정보의 예시도이다.
도 4는 본 발명의 일 실시예에 따른 학습 정보의 특징 중 하나인 윤곽선 정보의 예시도이다.
도 5은 본 발명의 일 실시에 따른 학습 정보의 특징 중 하나인 광흐름 정보의 예시도이다.
도 6a 및 도 6b는 본 발명의 일 실시예에 따른 장애물과 도로의 경계를 추정한 결과의 예시도이다.
도 7은 본 발명의 일 실시예에 따른 장애물의 높이 추정의 예시도이다.
도 8는 본 발명의 일 실시예에 따른 잠재적 위험 영역의 예시도이다.
도 9a 및 도 9b는 본 발명의 일 실시예에 따른 정보 제공 방식의 예시도이다.
도 10은 본 발명의 일 실시예에 따른, 이동 객체를 탐지하는 과정을 나타낸 흐름도이다.
도 11은 본 발명의 일 실시예에 따른 차량에서의 이동 객체 출현을 탐지하는 장치의 구성을 나타낸 도면이다.
1 is an exemplary diagram illustrating a dangerous situation caused by a pedestrian according to an embodiment of the present invention.
2 is a block diagram of a system for detecting the appearance of moving objects in a vehicle according to an embodiment of the present invention.
3 is an exemplary diagram of color-based type information, which is one of the characteristics of learning information according to an embodiment of the present invention.
4 is an exemplary diagram of contour information, which is one of the characteristics of learning information according to an embodiment of the present invention.
5 is an exemplary diagram of optical flow information, which is one of the characteristics of learning information according to an embodiment of the present invention.
6A and 6B are views illustrating the results of estimating a boundary between an obstacle and a road according to an embodiment of the present invention.
7 is a diagram illustrating an example of height estimation of an obstacle according to an embodiment of the present invention.
Figure 8 is an illustration of a potential hazard area according to one embodiment of the present invention.
9A and 9B are diagrams illustrating an information providing method according to an embodiment of the present invention.
10 is a flowchart illustrating a process of detecting a moving object according to an embodiment of the present invention.
11 is a diagram illustrating a configuration of an apparatus for detecting the appearance of a moving object in a vehicle according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when a part is referred to as " including " an element, it does not exclude other elements unless specifically stated otherwise.

도 1 은 본 발명의 일 실시예에 따른 보행자로 인한 위험 상황에 대한 예시도이다. 1 is an exemplary diagram illustrating a dangerous situation caused by a pedestrian according to an embodiment of the present invention.

먼저 도 1을 살펴보면 보행자-차량 간의 충돌 상황은 두 가지로 형태로 정의 될 수 있다.First, referring to FIG. 1, a collision situation between a pedestrian and a vehicle can be defined in two forms.

첫 번째 상황은 위험 상황으로 보행자의 신체 대부분의 영역이 운전자의 시선에 노출되어 있어, 보행자 탐지가 용의하며, 행동 인식, 궤적분석 등의 다양한 분석을 통해 보행자의 상태를 판단 할 수 있는 상황이다.The first situation is that the most part of the body of the pedestrian is exposed to the driver's gaze in a dangerous situation, so pedestrian detection is useful, and it is possible to judge the condition of the pedestrian through various analysis such as behavior recognition and trajectory analysis .

다음 상황은 돌발 상황으로 보행자의 신체가 일정 이상 가려져 있어, 통상적인 보행자 인식기로 인식이 제대로 되지 않아 추출할 수 있는 정보가 거의 없어 위험 상황 판단이 어려운 상태이다. 이때, 돌발 상황의 예로는 골목길이나 차량 주변에서 갑작스러운 보행자의 등장이나 차량에서의 하차를 예로 들 수 있다.The following situation is that pedestrian's body is covered by an unexpected situation and it is difficult to judge the risk situation because there is not enough information to extract because it is not recognized as a normal pedestrian recognizer. Examples of unexpected situations include the appearance of sudden pedestrians or getting off the vehicle in an alleyway or around the vehicle.

생활권 도로에서의 주행은 도로의 폭이 협소하고 주변 장애물(주차된 차량, 벽 등)과 주행 차량 사이의 거리가 짧은 특성이 있다. 따라서 보행자가 완전히 도로 상에 진입한 상태에서 경고를 내릴 경우 이미 차량을 제동하기 힘든 경우가 발생 할 수 있다. 그러므로 이러한 상황에서는 보행자가 가려진 상태에서 빠르게 상황을 판단하는 것이 중요하다.Driving on a life zone road has a characteristic that the width of the road is narrow and the distance between the surrounding obstacle (parked vehicle, wall, etc.) and the driving vehicle is short. Therefore, when the warning is issued while the pedestrian completely enters the road, it may be difficult to braking the vehicle already. Therefore, it is important for pedestrians to quickly determine the situation in such a situation.

하지만 이러한 돌발 상황은 매우 짧은 구간에서 짧은 시간 동안 발생한다. 그리고 이러한 돌발 상황은 주행 차량 또한 이동하는 상황이다. 그러므로 돌발적인 상황을 경고하는 시스템은 전처리에서 최종 경고까지 매우 짧은 시간 안에 처리해야 함으로 기존의 보행자 탐지 및 충돌 예측 시스템으로는 처리에 어려움이 있다.However, this unexpected situation occurs for a short period of time in a very short interval. And this unexpected situation is also the case that the driving vehicle is moving. Therefore, the system which warns of sudden situation must be processed within a very short time from the preprocessing to the final warning, which makes it difficult to handle with the existing pedestrian detection and collision prediction system.

종래의 기술들은 영상 전체의 모든 위치에 대하여 순차적으로 탐색하기 때문에 많은 계산량을 요구로 한다. 여기서 위험 상황 판단을 위한 계산 시간의 주요 요소는 보행자 탐지 시간과 검색 윈도우 이동으로 인한 시간이 주를 이룰 수 있다. 보행자 탐지 시간의 경우는 이미 GPU 기반 계산 및 알고리즘이 상당 부분 개선이 이루어져 있어 추가적인 개선이 어렵다. 따라서 기존의 보행자 탐지의 프레임워크에서 계산 시간을 줄이기 위해서는 보행자 탐지에 사용될 후보 영역의 범위를 줄이는 것이 시간을 줄일 수 있는 유효한 방법이 될 수 있다.Conventional techniques require a large amount of calculation because they sequentially search all the positions of the entire image. Here, the main factor of calculation time for risk situation judgment can be predominantly the time due to the detection time of the pedestrian and the movement of the search window. In the case of pedestrian detection time, GPU-based calculations and algorithms have been significantly improved, making further improvements difficult. Therefore, in order to reduce the computation time in the existing pedestrian detection framework, reducing the range of the candidate region to be used for the detection of the pedestrian can be an effective method for reducing the time.

본 발명은 주변의 장애물 영역을 인식하고 이를 바탕으로 보행자 탐색 후보 영역들을 줄임으로써, 돌발 상황 경고에 적합한 시스템을 제안한다. The present invention proposes a system suitable for sudden situation warning by recognizing surrounding obstacle areas and reducing the number of pedestrian search candidate areas based thereon.

종래에도 위험 영역을 정의하고 보행자 탐지 시간을 줄이는 방식이 존재하였다. 하지만 종래의 방법은 레이저 센서나 양안 카메라 기반의 거리 혹은 깊이 정보를 활용한다. 종래의 방법은 블랙박스 카메라 영상과 같이 단안 카메라 환경에서 수행이 불가능하다. 또한, 종래의 발명은 오직 주변 환경 중 시간에 따른 거리 변화가 큰 곳을 위험 영역이라고 정의하고 보행자 탐색에서 시간적 우선순위를 할당할 수 있다. 그러므로 종래의 발명은 실제 주행 환경에서 발생할 수 있는 다양한 돌발 상황에 대처하기 어렵다.Conventionally, there is a method of defining a dangerous area and reducing the detection time of a pedestrian. However, the conventional method utilizes distance information or depth information based on a laser sensor or a binocular camera. The conventional method can not be performed in a monocular camera environment like a black box camera image. In addition, the conventional invention can define only a dangerous area in which a change in distance with time is large in the surrounding environment, and assign a temporal priority in the search for a pedestrian. Therefore, the conventional invention is difficult to cope with various unexpected situations that may occur in an actual driving environment.

거리 변화량의 지역 최소 점과 지역 최대 점에 기반에 잠재적 위험 영역 선택은 주행 상황에서의 차체의 움직임 및 주변 환경의 구성 등의 여러 변수에 의해 잘못된 위치를 위험 영역으로 추정하는 상황이 자주 발생할 수 있다. 또한, 종래의 방법은 고정된 장애물이 아닌 변화하는 장애물(하차 시 차문 등)에 의한 상황에 취약점이 존재한다. The selection of the potential danger zone based on the local minimum point and the local maximum point of the distance variation may often result in the estimation of the wrong position as a dangerous area by various variables such as body movement and surrounding environment configuration in the driving situation . In addition, the conventional method is vulnerable to a situation caused by a changing obstacle (a car door upon getting off) rather than a fixed obstacle.

본 발명에서는 이러한 문제를 장애물-주행가능 영역의 경계선을 따라 문맥 정보를 활용하여 장애물의 위치 및 크기를 인식함으로써 잠재적 위험 영역 선택과 관련된 문제를 개선한다.The present invention improves the problem related to the selection of the potential danger area by recognizing the position and the size of the obstacle by utilizing the context information along the boundary line of the obstacle-drivable area.

도 2 는 본 발명의 일 실시예에 따른 차량에서의 이동 객체 출현을 탐지시스템 구성도이다.2 is a block diagram of a system for detecting the appearance of moving objects in a vehicle according to an embodiment of the present invention.

도 2를 참조하면 본 차량에서의 이동 객체 출현을 탐지하는 시스템은 영상 입력 모듈(a), 주변 환경 이해 모듈(b), 잠재적 위험 영역 추정 및 보행자 검출 모듈(c) 및 위험 상황 경고 모듈(d)을 포함하는 프로세서를 이용한다.Referring to FIG. 2, a system for detecting the appearance of moving objects in the vehicle includes an image input module (a), a surrounding environment understanding module (b), a potential danger area estimation and pedestrian detection module (c) ). ≪ / RTI >

먼저 영상 입력 모듈(a)은 주행 중인 차량의 주변 상황 정보를 수신하는 역할을 수행한다. 따라서, 촬영을 수행하는 장치는 돌발 상황의 특성을 고려하여 HD급 이상의 화질 및 30fps 이상의 영상을 촬영할 수 있는 카메라를 필요로 할 수 있으나, 이에 한정된 것은 아니다. 즉, 입력 영상 모듈(a)은 HD 급보다 낮은 해상도에서도 위험 상황에 대한 경고 수행이 가능하다. 또한, 입력 영상을 촬영하는 카메라가 단안 카메라뿐만 아니라, 다중 카메라 및 스테레오 카메라와 같은 별도의 제약은 본 발명에서 한정하지 않는다.First, the video input module (a) plays a role of receiving the surrounding situation information of the moving vehicle. Therefore, the apparatus for photographing may require a camera capable of capturing an image of HD class or higher and an image of 30 fps or higher in consideration of the characteristics of an unexpected situation, but the present invention is not limited thereto. That is, the input image module (a) can warn a dangerous situation even at a lower resolution than the HD grade. In addition, the present invention is not limited to the single-camera camera for photographing the input image, and other constraints such as the multi-camera and the stereo camera.

다음으로 영상 입력 모듈(a)을 통해 수신한 영상을 주변 환경 이해 모듈(b)을 통해 각 픽셀에 대한 특징 정보를 추출하게 된다. 이때 추출한 특징 정보들을 이용하여 본 발명에서 기존에 학습된 사전 정보모델을 활용하여 영상에서 차량이 주행할 수 있는 영역과 그 외 영역을 구분하고, 최적의 경계선을 추정하게 된다.Next, the image received through the image input module (a) is extracted from the feature information of each pixel through the surrounding environment understanding module (b). At this time, the extracted feature information is used to distinguish the region where the vehicle can travel from the image and the optimal region by using the previously learned prior information model in the present invention.

여기서 주변 환경을 이해하기 위하여 주행 가능한 영역과 그 외 영역을 구분하기 위한 정보는 사전에 학습해야 한다. 예를 들어, 주변 환경의 색상의 형태나 윤곽선 광흐름 정보를 통해 차량이 주행할 수 있는 영역과 장애물, 그 외 영역을 분할된 이미지 형태로 표현할 수 있게 되고, 이에 대한 더 자세한 설명은 추후 서술하기로 한다.Here, in order to understand the surrounding environment, information for distinguishing the travelable area and the other area should be learned in advance. For example, the area, obstacle, and other areas in which the vehicle can travel can be expressed in the form of a divided image through the shape of the color of the surrounding environment or the outline light flow information, and a detailed description thereof will be described later .

그 후 주행 가능 영역과 장애물 영역의 경계를 기준으로 보행자 탐색 영역을 축소하고, 보행자를 검출하는 역할을 수행하는 것이 잠재적 위험 영역 추정 및 보행자 검출 모듈(c)이다.After that, the pedestrian detection area is reduced based on the boundary between the travelable area and the obstacle area, and the pedestrian detection module and the pedestrian detection module perform the role of detecting the pedestrian.

마지막으로 위험 상황 경고 모듈(d)을 통해 앞서 추정한 잠재적 위험 영역에 대해서 운전자가 주행 중 주의를 할 수 있도록 주변 환경에 대한 정보를 제공한다. 이때 정보는 디스플레이나 경고음과 같은 음향 신호를 통해 운전자에게 전달할 수 있으나, 경고 방식이 본 발명을 제한하지는 않는다.Finally, the risk warning module (d) provides information on the surrounding environment so that the driver can take precautions while driving in the previously estimated potential danger area. At this time, the information can be transmitted to the driver through an acoustic signal such as a display or a warning sound, but the warning method does not limit the present invention.

도 3 내지 도 5는 본 발명의 일 실시예에 따른, 발명의 장치가 주변 환경을 학습하기 위해 필요한 특징 정보들의 예시도이다. 따라서, 각각의 도면에 대한 상세설명을 진행하기 전에 학습 데이터의 구조와 학습방식을 먼저 설명한다. FIGS. 3 to 5 are exemplary views of feature information necessary for an apparatus of the present invention to learn the surrounding environment, according to an embodiment of the present invention. Therefore, before proceeding to the detailed description of each drawing, the structure of the learning data and the learning method will be described first.

학습 데이터는 주행 가능 영역(301), 장애물 영역(302), 나머지 영역(303)으로 분할된 프레임 이미지와 실제 주행 영상 및 영상 내의 픽셀 위치에 대한 클래스 정보들로 이루어질 수 있다. 이때, 학습 데이터는 30fps 기준으로 30분 분량 이상의 데이터에 의해 학습되는 것이 바람직하다. The learning data may be composed of a frame image divided into the travelable area 301, the obstacle area 302 and the remaining area 303, the actual traveling image, and class information on the pixel position in the image. At this time, it is preferable that the learning data is learned by 30 minutes or more of data based on 30 fps.

본 발명의 일 실시예에 따르면, 사전 정보를 통한 학습을 진행하는 모델로써, 적어도 다음과 같은 2가지 모델이 사용될 수 있다.According to an embodiment of the present invention, at least two following models can be used as a model for progressing learning through dictionary information.

먼저 주행 가능 영역(301)과 그 외 영역(장애물 영역(302)과 나머지 영역(303))을 분할하는 분류 모델이 사용될 수 있다. 해당 모델은 내부적으로 3가지 특징(색상 기반의 형태, 윤곽선, 광흐름)을 이용하여 학습이 수행될 수 있다.A classification model that divides the travelable area 301 and the other areas (the obstacle area 302 and the remaining area 303) may be used first. The model can internally be trained using three features (color-based shape, contour, light flow).

모델의 파라메터는 각 특징을 이용하여 산출한 평균과 분산으로 표현될 수 있다. 모델 파라메터는 이진 분류 모델 또는 클러스터링 방법과 같은 기계학습 기법을 통하여 학습될 수 있는데, 이때 기계학습 기법의 예시로는 Gaussian Mixture Model(GMM), K-means Clustering, Fuzzy C Clustering, Kernel Density Estimation(KDE), RBF based Neural Network, SVM 등이 될 수 있다. The parameters of the model can be expressed by the mean and variance calculated using each feature. Model parameters can be learned through machine learning techniques such as binary classification or clustering methods. Examples of machine learning techniques include Gaussian Mixture Model (GMM), K-means Clustering, Fuzzy C Clustering, and Kernel Density Estimation ), RBF based Neural Network, and SVM.

이하에서는 기계학습 기법 중 GMM을 기반으로 한 파라메터 획득 방법을 일 예로 설명한다.Hereinafter, a method of acquiring parameters based on GMM among machine learning techniques will be described as an example.

이에 따르면, 본 발명의 일 실시예에 따른 프로세서는 2개의 Gaussian Mixture를 설정하고 전체 학습 데이터를 각 Mixture에 할당할 수 있다. 이때, 할당의 기준은 초기에 설정한 임의의 평균과 분산값을 사용하고, 각 Mixture에 대한 확률 분포를 계산하고 높은 확률 값을 가지는 Mixture로 데이터를 할당할 수 있다. 이와 같은 과정을 EM 알고리즘을 통하여 반복적으로 수행하여 최적의 확률 분포를 추정할 수 있다. 이에 따라, 전체 데이터를 가장 잘 표현 할 수 있는 2개의 확률 분포에 대한 파라메터가 구해질 수 있다. 또한, 앞에서 설명한 과정을 각 특징 데이터마다 적용하여 반복하는 경우, 한 특징에 대하여 2 클래스에 대한 평균과 분산을 구할 수 있으므로, 총 3개의 특징에 대하여 12개의 파라메터가 구해질 수 있다.Accordingly, the processor according to an embodiment of the present invention can set two Gaussian Mixtures and assign the entire learning data to each Mixture. At this time, the allocation criterion can be determined by using the arbitrary average and dispersion values set at the initial stage, calculating the probability distribution for each mixture, and allocating the data to the mixture having a high probability value. This process can be repeatedly performed through the EM algorithm to estimate the optimal probability distribution. Thus, parameters for two probability distributions that can best represent the entire data can be obtained. In addition, when the above-described process is repeated for each feature data, the average and variance for two classes can be obtained for one feature, so 12 parameters can be obtained for three features in total.

다음으로 장애물 영역을 추출하기 위한 인식 모델이 사용될 수 있다. 인식 모델 모델도 분류 모델과 마찬가지로 내부적으로 3가지 특징(색상 기반의 형태, 윤곽선, 광흐름)을 통해 학습이 수행될 수 있다.Next, a recognition model for extracting the obstacle area can be used. Recognition model models can be trained internally through three features (color-based shape, contour, light flow) as well as classification models.

또한, 장애물 영역(302)의 추출을 위해 앞서 언급되었던 클러스터링이나 분류 기법들이 사용될 수 있으며, 예컨대, KDE나 Deep Neural Network와 같이 비모수적 추정 기법이 사용될 수 있다.Also, clustering or classification schemes mentioned above may be used for extraction of the obstacle region 302, and non-parametric estimation techniques such as KDE or Deep Neural Network may be used.

이하에서는, 모델에 대해 학습이 수행되는데 사용되는 특징에 대해서 보다 구체적으로 설명하고자 한다.Hereinafter, the features used for learning about the model will be described in more detail.

먼저, 도 3은 본 발명의 일 실시예에 따른 학습 정보의 특징 중 하나인 색상 기반 형태 정보의 예시도이다.3 is an exemplary diagram of color-based type information, which is one of the characteristics of learning information according to an exemplary embodiment of the present invention.

색상 기반의 형태 정보는 일종의 세그맨테이션(Segmentation)정보로서 도 3과 같은 형태로 사전 정보가 구상된다. 색상 기반의 형태 정보는 픽셀 값의 평균과 분산 값에 기초하여 주행 가능 영역(301), 장애물 영역(302), 나머지 영역(303)과 같은 3개의 클레스로 레이블링하여 색상 기반으로 표현한 것일 수 있다.The color-based morphology information is a kind of segmentation information, and the pre-information is conceived in the form as shown in FIG. The color-based shape information may be color-based by labeling with three classes such as the travelable area 301, the obstacle area 302, and the remaining area 303 based on the average and variance values of the pixel values.

두 번째로 도 4는 본 발명의 일 실시예에 따른 학습 정보의 특징 중 하나인 윤곽선 정보의 예시도이다.Secondly, FIG. 4 is an example of contour information, which is one of the features of learning information according to an embodiment of the present invention.

윤곽선 정보는 영상이나 이미지 속의 객체들의 경계(Boundary)를 뜻하는 정보로 질감을 표현할 수 있다. 윤곽선 정보에는 장애물의 모양(Shape)과 방향성(Direction)을 포함하고 있다. 일반적으로 윤곽선 정보는 도 4와 같은 맵의 형태로 만들어진 후 특징 정보로 사용된다.The outline information can represent the texture as information indicating the boundaries of the objects in the image or image. The contour information includes the shape and direction of the obstacle. Generally, the outline information is created in the form of a map as shown in FIG. 4 and then used as feature information.

도 5은 본 발명의 일 실시에 따른 학습 정보의 특징 중 하나인 광흐름 정보의 예시도이다.5 is an exemplary diagram of optical flow information, which is one of the characteristics of learning information according to an embodiment of the present invention.

광흐름 정보는 영상 속 특정 프레임의 위치변화를 벡터(305)형식으로 추출한 특징점 정보이다. 특징점은 힘과 방향이 포함되고, 주로 움직이는 물체를 기준으로 밀집되어 있다. 따라서 장애물(객체)의 특징점 분포를 이용하여, 확률 분포 기반의 에너지 함수를 계산할 수 있다.The optical flow information is feature point information obtained by extracting a position change of a specific frame in an image in a form of a vector (305). Feature points include force and direction, and are mainly based on moving objects. Therefore, the energy function based on the probability distribution can be calculated using the feature point distribution of the obstacle (object).

앞에서 설명한 3가지 특징 정보를 이용하면, 주행 가능 영역(301)과 장애물 영역(302)을 구분할 수 있다. 이때, 주행 가능 영역(301)과 장애물 영역(302)이 맞닿는 곳을 경계(304)로 설정할 수 있으며, 이를 나타낸 것이 본 발명의 일 실시예에 따른 도 6a와 도6b이다.By using the three feature information described above, it is possible to distinguish between the travelable area 301 and the obstacle area 302. [ At this time, a boundary 304 can be set where the travelable area 301 and the obstacle area 302 are in contact with each other, which is shown in FIGS. 6A and 6B according to an embodiment of the present invention.

도 6a 및 도 6b를 참고하여 설명하면, 경계(304)는 아래의 3가지 조건을 따르게 된다. Referring to FIGS. 6A and 6B, the boundary 304 follows the following three conditions.

첫 번째는 경계(304)의 위치에 관한 것으로 장애물-도로의 경계(304)는 수평선 보다 이하에 위치해야 한다는 것이다. 그 이유는 차량이 고가 도로로 진입할 때와 같은 특별한 경우를 제외하면, 일반적인 생활권 도로에서 소실점은 수평선의 아래에 존재하기 때문이다. 따라서 경계(304)도 수평선 아래에 위치하도록 조건을 정의해야 한다.The first relates to the location of the boundary 304, where the obstacle-road boundary 304 should be below the horizon. This is because the vanishing point is below the horizon on a common life road, except in special cases such as when the vehicle enters a highway. Therefore, the condition must be defined such that the boundary 304 also lies below the horizon.

두 번째는 경계(304)를 구성하는 점들은 연속적이며, 영상의 좌-우에 위치하는 선이어야 한다. 도로는 주행 하는 차량의 전방으로 뻗어 있고, 이때 도로 주변의 장애물들은 도로를 따라 존재한다. 따라서 본 발명에서의 경계(304)는 영상을 기준으로 상-하의 픽셀 정보보다는 좌-우의 픽셀정보를 중요시하도록 설정한다. 또한, 본 발명에서 경계(304)는 영상을 픽셀 너비 숫자만큼 기둥처럼 분할하여 각각을 하나의 그래프 노드처럼 활용할 수 있다.The second is that the points constituting the boundary 304 are continuous and should be located on the left-right side of the image. The road extends to the front of the running vehicle, where obstacles along the road exist along the road. Therefore, the boundary 304 in the present invention sets the left-right pixel information to be more important than the upper-lower pixel information based on the image. Also, in the present invention, the boundary 304 divides the image into columns as many as the pixel width, and each of the segments can be utilized as one graph node.

세 번째는 경계(305)를 구성하는 픽셀들은 주변에 위치하는 픽셀들에게서만 영향을 받는다고 가정한다. 그 이유는 영상 내에 존재하는 특정 픽셀들이 그 주변에 위치한 픽셀들에 의해서만 영향을 받는다고 가정한다면, 확률 모델을 가정함에 있어서 필요한 계산량을 줄일 수가 있다. Third, it is assumed that the pixels constituting the boundary 305 are affected only by surrounding pixels. The reason for this is that assuming that certain pixels in the image are only affected by the surrounding pixels, it is possible to reduce the amount of computation required in assuming the probability model.

만약, 종래의 발명에서처럼 사전에 정해진 조건 없이 영상 전체의 픽셀들에 대한 경계를 추정하게 된다면, 계산량이 많아 실시간 처리가 어렵고 최적의 값을 보장하기 어렵기 때문이다.If the boundary of pixels of the whole image is estimated without a predetermined condition as in the conventional invention, it is difficult to real-time process because of a large amount of calculation, and it is difficult to guarantee an optimum value.

따라서 본 발명에서 경계(304)를 설정 시 앞에서 설명한 3가지 제약을 걸기 때문에 경계(304)를 추정함에 필요한 계산을 저차원 그래프 분할 문제로 함축시킬 수 있다. 이때, 저차원 그래프 최적화 문제는 기존의 시퀸스 모델링이나 베이지안 기반의 확률 모델들을 기반으로 해결할 수 있다.Accordingly, in the present invention, since the three constraints described above are set when setting the boundary 304, the calculation necessary for estimating the boundary 304 can be implied as a low dimensional graph segmentation problem. At this time, the low dimensional graph optimization problem can be solved based on existing sequence modeling or Bayesian based probability models.

예를 들면 저차원 그래프 최적화 문제를 해결하는 대표적인 시퀸스 모델링으로는 Markov Random Field (MRF), Conditional Random Field (CRF), Hidden Markov Model (HMM), Deep Recurrent Neural Network (DRNN)와 같은 구조화된 연속형 데이터 예측 기법이 사용될 수 있고, 베이지안 기반의 확률 모델로는 MRF 프레임워크가 있을 수 있다.For example, typical sequence modeling that solves low-dimensional graph optimization problem is structured continuous type such as Markov Random Field (MRF), Conditional Random Field (CRF), Hidden Markov Model (HMM) and Deep Recurrent Neural Network A data prediction technique may be used, and a Bayesian based probability model may be an MRF framework.

이하는 베이지안 기반의 확률 모델인 MRF 프레임 워크로 저차원 그래프 최적화 문제의 해결하는 방법을 일 예를 설명한다.  The following explains an example of how to solve low-dimensional graph optimization problem with Bayesian-based probabilistic model MRF framework.

MRF는 이미지상에서 분할된 경계(304)를 이루는 픽셀들에 대한 에너지 함수를 계산하고, 그 값이 최소가 되는 지점을 찾는 용도로 사용한다. 이때 에너지 함수는 이전에 학습한 파라메터를 기반으로 현재 픽셀들의 특징 값이 분할 경계인지 여부를 로그 함수의 형태로 표현한 것이다. The MRF is used to calculate the energy function for the pixels constituting the divided boundary 304 on the image and to find the point where the value is minimum. In this case, the energy function expresses whether the feature value of the current pixels is the partition boundary based on the previously learned parameter in the form of a log function.

이때 영상의 분할을 위한 에너지 함수는 "클래스 소속 점수"와 "주변 가중치"라는 2가지 요소로 이루어질 수 있다.At this time, the energy function for segmentation of the image can be composed of two factors, "class belonging score" and "surrounding weight".

클래스 소속 점수는 특정 픽셀이 특정 클래스에 소속될 확률 분포 값을 뜻하며, 이는 특정 위치에서의 픽셀이 특정 클래스에 적합 여부를 나타낸다. 또한, 주변 가중치는 특정 위치의 픽셀과 그 주변의 픽셀을 확률분포를 바탕으로 비교한 후 두 픽셀의 비교 결과값이 얼마나 일치하는지를 수치화 한 것이다. 이때 주변 가중치는 이미지를 분할한 관점에서 주변의 픽셀과 추론 값이 일치하지 않을수록 "+페널티"를 받게 되고, 일치할수록 ?-페널티"를 받게 된다. 따라서 주변 위치와 추정 결과가 일치하지 않을수록 에너지 함수의 값은 커지게 되고, 해당 위치의 픽셀이 분할 경계로 선택되지 않을 가능성이 커지게 된다.The class membership score refers to a probability distribution value that a particular pixel belongs to a specific class, which indicates whether the pixel at a specific position is suitable for a particular class. In addition, the surrounding weights are obtained by comparing the pixels of a specific position and the surrounding pixels based on the probability distribution, and then quantifying how the comparison results of the two pixels match. In this case, the surrounding weights are subjected to a "+ penalty" as the surrounding pixels and the inferred values do not match in the viewpoint of dividing the image, and the "- penalty" The value of the energy function becomes large, and the possibility that the pixel at the position is not selected as the division boundary becomes large.

여기서 확률 분포를 추정하는 방법에는 가우시안 분포를 사용할 수 있고, 일반화된 에너지 함수를 구하는 공식은 하기 수학식 1과 같다.Here, a Gaussian distribution can be used as a method for estimating the probability distribution, and a formula for obtaining a generalized energy function is shown in Equation 1 below.

[수학식 1][Equation 1]

Figure 112017104192672-pat00001
Figure 112017104192672-pat00001

영상 분할의 관점에서, 수학식 1의 첫번째 항은 클래스 소속 점수를 의미하며 두번째 항은 주변 픽셀들에 대한 가중치 점수를 의미한다. From the viewpoint of image segmentation, the first term of Equation (1) means the class belonging score and the second term means the weighting score for the surrounding pixels.

즉, 영상 분할의 수행 과정에서 에너지 함수는 데이터와 특징들에 대한 확률 모델 파라메터가 주어졌을 때, 각 클래스에 대한 픽셀들의 클래스 소속 점수와 주변 픽셀과의 일치 정도를 영상 전체에 대하여 계산한 것이다. 여기서, 에너지가 낮을수록 영상의 분할 결과가 잘 수행되었음을 의미하게 된다.In other words, energy function in the process of image segmentation is calculated for the entire image when the probability model parameters for data and features are given, and the degree of correspondence between the pixel belonging to each class and the surrounding pixels. Here, the lower the energy, the better the result of image segmentation.

영상 내에서 에너지 함수를 바탕으로 그래프가 구성되고, 분할 경계가 계산될 수 있다. 그래프의 노드의 값은 각 픽셀의 클래스 소속 점수로 계산되며, 각 그래프의 주변 픽셀들과의 관계는 그래프에서 간선의 가중치 값으로 표현될 수 있다.A graph is constructed based on the energy function in the image, and the division boundary can be calculated. The value of the node of the graph is calculated by the class membership score of each pixel, and the relationship with neighboring pixels of each graph can be represented by the weight value of the trunk in the graph.

이 때, 그래프를 구성하는 노드는 앞에서 설명한 첫 번째 제약에 의해 영상 내 수평선보다 낮은 위치에 존재해야 하며, 노드는 두 번째 제약에 의해서 경계선은 좌-우를 횡단하는 선의 형태를 가짐으로 좌측에서 우측으로 탐색을 하게 되며, 상-하 방향으로의 픽셀 관계는 고려되지 않을 수 있다. In this case, the nodes constituting the graph must exist at a position lower than the horizontal line in the image due to the first constraint described above, and the nodes have the form of a line crossing the left and right by the second constraint, And the pixel relation in the up-down direction may not be considered.

위의 과정을 통해 최종적으로 본 발명은 그래프에 대하여 최소 에너지를 가지는 영상 분할 경계(304)를 찾는 과정을 수행할 수 있다. 이때, 본 발명은 최적화한 해를 찾는 방법으로 Graph Cut 알고리즘, Cutting Plane 알고리즘 등이 사용될 수 있다.Through the above process, the present invention can perform a process of finding an image segmentation boundary 304 having a minimum energy with respect to a graph. At this time, the present invention can use a graph cut algorithm, a cutting plane algorithm, or the like as a method for finding an optimized solution.

본 발명의 일 실시예에 따라 앞에서 도출한 경계(304)와 장애물 영역(302) 및 장애물 영역의 높이(306)을 사용하면, 주행 가능 영역(301)에서 이동 객체의 탐색 영역을 함축할 수 있다. 또한 이동 객체의 탐색 영역 중 이동 객체의 출현 가능성이 높은 영역을 잠재적 위험 영역(307)을 설정하여 탐색에 대한 우선순위를 부여한다.Using the boundary 304, the obstacle region 302 and the height 306 of the obstacle region derived above according to an embodiment of the present invention, the search region of the moving object can be implied in the travelable region 301 . In addition, a potential danger area 307 is set as an area in which a moving object is highly likely to appear among the search areas of the moving object, thereby giving priority to the search.

또한, 잠재적 위험 영역(307)은 일반화 된 단일 프레임 워크로 처리기법을 사용하여 탐색할 수 있다.Further, the potential risk area 307 can be searched using a generalized single framework processing technique.

구체적으로 설명하면, 잠재적 위험 영역(307)을 추론하기 위해서는 먼저 앞에서 추론한 특징 정보인 광흐름, 윤곽선 및 색상 정보를 활용하여 경계(304) 주변 장애물 영역의 높이(306)를 추정할 필요가 있다. 이때, 장애물의 높이를 추정하는 이유는 앞에서 도출한 경계(304)만으로는 해당 도로의 상황을 정확하게 파악하기 어렵기 때문이다. 특히 장애물과 장애물 주변의 영역은 다른 영역들보다 이동 객체가 등장할 가능성이 높기에 해당 영역은 이동 객체의 탐색에서 높은 가중치를 받을 필요가 있다.More specifically, in order to infer the potential dangerous area 307, it is necessary to estimate the height 306 of the obstacle area around the boundary 304 by using the light flow, contour, and color information, . At this time, the reason for estimating the height of the obstacle is that it is difficult to accurately grasp the situation of the road only by the boundary 304 derived from the above. Especially, since the area around the obstacle and the obstacle is more likely to appear than the other areas, the area needs to receive a high weight in the search of the moving object.

따라서, 도 7은 본 발명의 일 실시예에 따른 장애물의 높이 추정의 예시도이다.Accordingly, FIG. 7 is an exemplary view of height estimation of an obstacle according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 일 실시예에 따라 경계(304)를 기준으로 세로 방향으로 장애물의 높이(306)를 계산할 수 있다. Referring to FIG. 7, the height 306 of the obstacle can be calculated in the longitudinal direction with respect to the boundary 304, according to an embodiment of the present invention.

이때 높이에 대한 정확도를 높이기 위해 경계(304) 주변 영역에 존재하는 픽셀의 색상 및 윤곽선 정보를 이용하여, 장애물 영역(302)의 픽셀과의 일치도를 산출하고, 이를 기초로 높이를 판단할 수 있게 된다.At this time, in order to increase the accuracy with respect to the height, the degree of matching with the pixels of the obstacle region 302 is calculated using the color and contour information of the pixels existing in the region around the boundary 304, do.

도 8는 본 발명의 일 실시예에 따른 잠재적 위험 영역의 예시도이다.Figure 8 is an illustration of a potential hazard area according to one embodiment of the present invention.

앞에서 설명한 것과 같이 산출된 장애물 영역의 높이(306)를 이용하여, 잠재적 위험 영역(307)을 추정할 수 있다. By using the height 306 of the obstacle area calculated as described above, the potential danger zone 307 can be estimated.

이를 자세히 설명하면, 잠재적 위험 영역(307)은 주행중인 차량이 보는 시점에서 발생하는 장애물 영역(302)과 주변 환경과의 높이의 차이를 통해 설정할 수 있다. 특히, 잠재적 위험 영역(307)이 설정되기 시작하는 높이의 차이는 학습이나 경험적으로 얻은 임계값의 설정을 통해 가능하다.To be more specific, the potential dangerous area 307 can be set by a difference in height between the obstacle area 302 and the surrounding environment, which occurs at the time when the vehicle under running is viewed. In particular, the difference in height at which the potential hazardous area 307 begins to be set is possible through learning or setting an empirically derived threshold value.

잠재적 위험 영역(307) 주변은 공간적으로 밀도 높게 슬라이딩 윈도우를 배치하고 그렇지 않은 영역들은 좀 더 낮은 밀도로 슬라이딩 윈도우를 배치하여, 다른 영역들보다도 잠재적 위험 영역(307) 주변을 운전자가 가장 먼저 탐색할 수 있게 만들고, 그 후에 장애물 영역(302)이나 경계(304) 주변이 탐색할 수 있도록 만들 수 있다.A sliding window is arranged spatially around the potential dangerous area 307 and the sliding windows are disposed at a lower density so that the driver can navigate around the potential dangerous area 307 more than other areas And then make it possible for the surroundings of the obstacle region 302 and the boundary 304 to be explored.

그리고, 슬라이딩 윈도우에서 이동 객체 탐색기하기 위해서는 기존에 프레임워크를 활용할 수 있으며, 대표적인 탐색기로는 가려진 대상에 대한 강인한 인식이 가능한 Deformable 모델 기반의 보행자 인식기 등이 사용될 수 있다.In the sliding window, a framework can be used to search for a moving object. A typical explorer can be a deformable model-based pedestrian recognizer capable of robust recognition of an obscured object.

도 9a 및 도 9b는 본 발명의 일 실시예에 따른 정보 제공 방식의 예시도이다.9A and 9B are diagrams illustrating an information providing method according to an embodiment of the present invention.

본 발명의 일 실시예에 따라, 주행 중인 도로에서 이동 객체가 검출이 되었을 때 시스템은 위험 상황 경고 모듈(d)을 통해 운전자가 인지할 수 있도록 위험 상황 정보를 제공한다. 이때, 정보 제공은 헤드업 디스플레이(HUD)나 내비게이션 화면 등을 통해 제공할 수 있으며, 운전자에게 위험상황을 알리는 디스플레이나 경고의 표기방식이 본 발명을 제한하지는 않는다. According to an embodiment of the present invention, when a moving object is detected on the road under travel, the system provides dangerous situation information through the dangerous situation warning module (d) so that the driver can recognize it. At this time, information can be provided through a head-up display (HUD), a navigation screen, etc., and a display method or a warning indicating a dangerous situation to the driver is not limited to the present invention.

예를 들어, 이하에서는 헤드업 디스플레이 기반의 증강현실을 일 예로 설명한다.For example, in the following, an augmented reality based on a head-up display will be described as an example.

위험 상황 경고는 안전한 상황에서의 주행 환경 정보 제공과 돌발 상황 발생 시 경고의 두 단계로 이루어져 있다. 먼저, 안전한 상황에서의 주행 환경 정보 제공 단계에서는 운전자에게 안전한 주행 영역과 주의해야 할 장소에 대한 정보를 제공한다. The risk warning consists of two steps: providing the driving environment information in a safe situation and warning when an unexpected situation occurs. First, in the driving environment information providing step in a safe situation, the driver is informed about a safe driving area and a place to watch out for.

도 9a는 본 발명의 일 실시예에 따른 안전한 상황에서의 주행 환경 정보 제공 방식을 표현한 예시도이다. FIG. 9A is an exemplary view illustrating a driving environment information providing method in a safe situation according to an embodiment of the present invention. FIG.

도 9a를 참조하면, 본 발명은 주행 경로 주변의 이동객체가 등장할 수 있는 잠재적 위험 영역(307)의 위치를 노란색 박스형태(308)로 표시하고 있으며, 그 상단에는 보행자 주의 표지판을 표시할 수 있다. 이때 표지판의 경우 운전자의 시야를 가릴 수 있기에, 본 발명은 표지의 상단에 표시하도록 하였고, 잠재적 위험 지역이 차량과 멀리 떨어져있다고 판단 될 경우 경고를 표시하지 않도록 하였다.Referring to FIG. 9A, the position of a potential dangerous area 307 in which a moving object around a traveling route can appear is displayed in a yellow box form 308, and a pedestrian warning sign can be displayed on the top have. At this time, since the signboard can obscure the driver's view, the present invention is displayed at the top of the cover, and warning is not displayed when the potential dangerous area is judged to be far away from the vehicle.

또한 추가적으로 주행 가능한 영역(301)에 옅은 녹색 그라데이션으로 표시하거나, HUD 좌측 하단의 녹색 상태 등을 표시할 수 있다. 이를 통해 운전자는 현재 주변 환경이 안전한 상태임을 인지할 수 있게 된다.Further, it is possible to display a light green gradient in the travelable area 301, or a green state at the lower left of the HUD. This allows the driver to recognize that the surrounding environment is now safe.

반대로, 도 9b는 본 발명의 일 실시예에 따른, 돌발 상황이 발생한 상황에서의 정보 제공 방식을 표현한 예시도이다.9B is an exemplary diagram illustrating an information providing method in a situation where an unexpected situation occurs according to an embodiment of the present invention.

앞서 설명한 것과 반대로 이동 객체가 주행 가능 영역(301)을 침범할 시 운전자가 이동 객체에게 시선을 빠르게 유도할 수 있도록 한다. 이때 이동 객체를 빨간색 박스형태의(309)로 로 표시하고, 그 상단에는 정지 표지판을 표시할 수 있다. In contrast to the above-described case, when a moving object invades the travelable area 301, the driver can quickly guide the moving object to the moving object. At this time, the moving object may be displayed as a red box (309), and a stop sign may be displayed on the upper side thereof.

또한, 주행 가능한 영역(301)을 옅은 붉은색 그라데이션으로 표시하거나, HUD 좌측 하단의 붉은색 상태 등을 표시함으로 운전자의 빠른 대처를 유도할 수 있게 된다. In addition, by displaying the travelable region 301 in a light red color gradient or displaying a red state in the lower left of the HUD, it is possible to prompt the driver to take a quick action.

도 10은 본 발명의 일 실시예에 따른, 이동 객체를 탐지하는 과정을 나타낸 흐름도이다.10 is a flowchart illustrating a process of detecting a moving object according to an embodiment of the present invention.

도 10을 살펴보면, 차량 혹은 운전자 보조 시스템 단말(100)에 부착되어 있는 카메라 모듈을 통해 주행 중인 도로에 대한 시각적인 정보를 수신한다(S210).Referring to FIG. 10, visual information on the road under travel is received through the camera module attached to the vehicle or the driver assistance system terminal 100 (S210).

단계(S210)에서 수신한 시각정보는 프로세서에 내장되어 있는 알고리즘을 통해 주행 가능 영역(301)과 장애물 영역(302)으로 분리하는 과정을 거친다(S220).The time information received in step S210 is divided into the travelable area 301 and the obstacle area 302 through an algorithm built in the processor (S220).

앞서 분리한 두 영역 사이의 경계(304)를 설정하고(S230), 경계(304)를 기준으로 장애물 영역(302)의 높이에 따른 임계값을 계산한다(S240).A boundary 304 between the two separated areas is set in step S230 and a threshold value according to the height of the obstacle area 302 is calculated based on the boundary 304 in step S240.

임계값에 따라서 장애물로 가려지는 영역 중 일부를 잠재적 위험 영역(307)을 설정하고(S250), 위험 영역을 중심으로 출현할 수 있는 이동 객체에 대한 탐지를 진행하는 것으로 단계를 마치게 된다(S260).A step S250 is reached in which a potential danger area 307 is set as a part of the area covered by the obstacle according to the threshold value at step S250 and the detection of the moving object that can appear around the dangerous area is performed at step S260. .

도 11은 본 발명의 일 실시예에 따른 차량에서의 이동 객체 출현을 탐지하는 운전자 보조 시스템 단말의 구성을 나타낸 도면이다.11 is a diagram illustrating a configuration of a driver assistance system terminal that detects occurrence of a moving object in a vehicle according to an embodiment of the present invention.

도 11을 참조하면, 본 발명의 일 실시예에 따른 차량에서의 이동 객체 출현을 탐지하는 단말(100)은 프로세서(110), 메모리(120), 카메라 모듈(130) 및 디스플레이 모듈(140)을 포함한다.Referring to FIG. 11, a terminal 100 for detecting the appearance of moving objects in a vehicle according to an embodiment of the present invention includes a processor 110, a memory 120, a camera module 130, and a display module 140 .

상세히 설명하면, 메모리(120)는 차량에서의 이동 객체 출현을 탐지하는 방법을 수행하기 위한 프로그램이 기록된다. 또한, 프로세서(110)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다.In detail, the memory 120 records a program for performing a method of detecting the appearance of moving objects in the vehicle. In addition, the processor 110 performs a function of temporarily or permanently storing data to be processed.

프로세서(110)는 일종의 중앙처리장치로서 차량에서의 이동 객체 출현을 탐지하는 방법을 제공하는 전체 과정을 제어한다. 프로세서(110)는 디스플레이 모듈, 카메라 모듈 및 메모리에서 수행되는 작업을 제외한 모든 작업을 제어하게 된다.The processor 110 controls the entire process as a kind of central processing unit to provide a method for detecting the appearance of moving objects in a vehicle. The processor 110 controls all operations except those performed in the display module, the camera module, and the memory.

디스플레이 모듈(140)은 차량에서의 이동 객체 출현을 탐지하는 방법을 수행하기 위한 인터페이스를 표시하는 기능을 수행한다. 디스플레이 모듈(140)의 출력 형태는 앞에서 서술한 것과 같이 다양한 형태를 지닐 수 있고, 본 발명을 제한하지는 않는다.The display module 140 functions to display an interface for performing a method of detecting the appearance of moving objects in the vehicle. The output format of the display module 140 may have various forms as described above, and the present invention is not limited thereto.

카메라 모듈(130)은 차량에서의 이동 객체 출현을 탐지하는 방법을 수행하기 위해 주변 환경을 촬영하는 장치로서 앞에서 서술한 영상 입력 모듈(a)의 기능을 수행한다.The camera module 130 is an apparatus for photographing the surrounding environment to perform a method of detecting the appearance of moving objects in the vehicle, and performs the function of the image input module (a) described above.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.One embodiment of the present invention may also be embodied in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. The computer-readable medium may also include computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.While the methods and systems of the present invention have been described in connection with specific embodiments, some or all of those elements or operations may be implemented using a computer system having a general purpose hardware architecture.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

100: 운전자 보조 시스템 단말
110: 프로세서 120: 메모리
130: 카메라 모듈 140: 디스플레이 모듈
301: 주행 가능 영역 302: 장애물 영역
303: 나머지 영역 304: 경계
305: 벡터 306: 장애물의 높이
307: 잠재적 위험 영역
100: Driver assistance system terminal
110: Processor 120: Memory
130: camera module 140: display module
301: travelable area 302: obstacle area
303: remaining area 304: border
305: Vector 306: height of obstacle
307: Potential Hazard Areas

Claims (12)

차량에서의 이동 객체 출현을 탐지하는 방법에 있어서,
도로에서의 주행 가능 영역과 나머지 영역을 분류하는 제 1 학습 분류 모델 및 장애물 영역을 추출하는 제 2학습 분류 모델에 기초하여, 주행시 촬영한 주행 영상으로부터 도로에서의 주행 가능 영역과 장애물 영역을 추출하는 단계;
미리 설정한 제약 조건에 따라 도로와 장애물을 분할하는 분할 경계를 추출하되, 경계를 이루는 픽셀들의 에너지 함수가 최소가 되도록 하는 경계를 상기 분할 경계로서 추출하는 단계;
상기 분할 경계에 위치하는 장애물의 높이를 각각 추정하고, 장애물의 높이 변화가 임계값 이상이 되는 영역을 잠재적 위험 영역으로 특정하는 단계; 및
상기 주행 영상에 영상 처리에 기반한 이동객체 탐지 알고리즘을 적용하여 이동객체를 탐지하는 단계를 포함하되,
상기 이동객체를 탐지하는 단계는 상기 주행 영상 중 상기 잠재적 위험 영역에 대하여 슬라이딩 윈도우의 배치 밀도를 가장 높게 설정하여 이동객체를 탐지하는 단계를 포함하는 이동 객체 탐지 방법.
A method for detecting the appearance of a moving object in a vehicle,
Based on the first learning classification model for classifying the travelable area and the remaining area on the road, and the second learning classification model for extracting the obstacle area, the travelable area and the obstacle area on the road are extracted from the traveling image photographed during traveling step;
Extracting a boundary for dividing a road and an obstacle in accordance with a predetermined constraint condition as the dividing boundary so that an energy function of the pixels forming the boundary is minimized;
Estimating heights of the obstacles located at the divisional boundaries and specifying a region where the height variation of the obstacle is equal to or greater than a threshold value as a potential dangerous area; And
Detecting a moving object by applying a moving object detection algorithm based on image processing to the traveling image,
Detecting the moving object comprises detecting a moving object by setting a placement density of a sliding window to a highest level with respect to the potential dangerous area of the traveling image.
제 1 항에 있어서,
상기 제 1 학습 분류 모델은 컬러 기반 형태, 대상체의 윤곽선 및 영상에서의 광흐름(optical flow) 정보를 특징 정보로서 학습한 것으로, 이들 특징 정보들을 기초로 각 영상의 주행 가능 영역과 나머지 영역을 분류하는 것이고,
상기 제 2 학습 분류 모델은 상기 광흐름 정보, 질감 정보 및 색상 정보를 특징 정보로서 학습한 것으로, 이들 특징 정보들을 기초로 각 영상의 장애물 영역을 분류하는 것인 이동 객체 탐지 방법.
The method according to claim 1,
The first learning classification model learns color flow, shape of object, and optical flow information in the image as feature information. Based on these feature information, the travelable area and the remaining area of each image are classified However,
Wherein the second learning classification model learns the optical flow information, texture information, and color information as feature information, and classifies the obstacle region of each image based on the feature information.
제 1 항에 있어서,
상기 탐지된 이동 객체의 주변에 하이라이트 표시를 오버레이하여 디스플레이를 통해 출력하는 단계를 더 포함하는 이동 객체 탐지 방법.
The method according to claim 1,
And overlaying a highlight indication on the periphery of the detected moving object and outputting through the display.
제 1 항에 있어서,
상기 분할 경계를 추출하는 단계는
상기 미리 설정한 제약 조건으로서, 상기 도로와 장애물의 경계는 수평선과 같거나 그 보다 낮은 위치에 존재한다는 제 1 제약 조건, 상기 도로와 장애물의 경계를 구성하는 점들은 연속적이며, 상기 영상을 수평방향으로 횡단한다는 제 2 제약 조건 및 경계선을 구성하는 점들은 주변에 위치하는 픽셀들에서만 영향을 받는다는 제 3 제약 조건을 사용하는 것인 이동 객체 탐지 방법.
The method according to claim 1,
The step of extracting the division boundary
A first constraint that the boundary between the road and the obstacle is present at a position lower than or equal to the horizontal line, a point constituting the boundary between the road and the obstacle is continuous, And the third constraint condition that the points constituting the boundary line are affected only by surrounding pixels.
제 1 항에 있어서,
상기 잠재적 위험 영역으로 특정하는 단계는
미리 설정된 영상의 특징 정보를 기초로 경계선으로부터 수직 상방으로 탐색하면서 특징 정보가 일치하는 정도를 기초로 각 장애물의 높이를 추정하되,
상기 영상의 특징 정보로는 광흐름 정보, 질감 정보 및 색상 정보를 사용하는 것인 이동 객체 탐지 방법.
The method according to claim 1,
The step of identifying as the potential danger zone
Estimating the height of each obstacle based on the degree of coincidence of the feature information while searching vertically upward from the boundary line based on the feature information of the preset image,
Wherein the feature information of the image includes light flow information, texture information, and color information.
차량에서의 이동 객체 출현을 탐지하는 장치에 있어서,
자율 주행 차량에 배치된 카메라로부터 수신한 주행 영상이 저장되고, 위험 탐지 방법을 구현하는 프로그램이 저장된 메모리 및
상기 메모리에 저장된 프로그램을 실행하여 상기 주행 영상으로부터 위험 탐지 동작을 실행하는 프로세서를 포함하되,
상기 프로세서는 도로에서의 주행 가능 영역과 나머지 영역을 분류하는 제 1 학습 분류 모델 및 장애물 영역을 추출하는 제 2학습 분류 모델에 기초하여, 주행시 촬영한 영상으로부터 도로에서 주행 가능 영역과 장애물 영역을 추출하고, 미리 설정한 제약 조건에 따라 도로와 장애물을 분할하는 분할 경계를 추출하되, 경계를 이루는 픽셀들의 에너지 함수가 최소가 되도록 하는 경계를 상기 분할 경계로서 추출하고, 상기 분할 경계에 위치하는 장애물의 높이를 각각 추정하고, 장애물의 높이 변화가 임계값 이상이 되는 영역을 잠재적 위험 영역으로 특정하고, 상기 도로 영상에 영상 처리에 기반한 이동객체 탐지 알고리즘을 적용하여 이동객체를 탐지하되,
상기 프로세서는 상기 영상 중 상기 잠재적 위험 영역에 대하여 슬라이딩 윈도우의 배치 밀도를 가장 높게 설정하여 이동객체를 탐지하는 것인 이동 객체 탐지 장치.
An apparatus for detecting the appearance of moving objects in a vehicle,
A memory for storing a traveling image received from a camera disposed in an autonomous vehicle and storing a program for implementing a risk detection method,
And a processor for executing a program stored in the memory to execute a danger detection operation from the running image,
The processor extracts a travelable area and an obstacle area from the road based on a first learning classification model for classifying the travelable area and the remaining area on the road and a second learning classification model for extracting the obstacle area on the road, Extracting a boundary for dividing roads and obstacles according to a preset constraint condition as a boundary for minimizing an energy function of pixels constituting the boundary, And detecting a moving object by applying a moving object detection algorithm based on image processing to the road image,
Wherein the processor detects the moving object by setting the placement density of the sliding window to the highest level with respect to the potentially dangerous area of the image.
제 6 항에 있어서,
상기 제 1 학습 분류 모델은 컬러 기반 형태, 대상체의 윤곽선 및 영상에서의 광흐름(optical flow) 정보를 특징 정보로서 학습한 것으로, 이들 특징 정보들을 기초로 각 영상의 주행 가능 영역과 나머지 영역을 분류하는 것이고,
상기 제 2 학습 분류 모델은 상기 광흐름 정보, 질감 정보 및 색상 정보를 특징 정보로서 학습한 것으로, 이들 특징 정보들을 기초로 각 영상의 장애물 영역을 분류하는 것인 이동 객체 탐지 장치.
The method according to claim 6,
The first learning classification model learns color flow, shape of object, and optical flow information in the image as feature information. Based on these feature information, the travelable area and the remaining area of each image are classified However,
Wherein the second learning classification model learns the optical flow information, texture information, and color information as feature information, and classifies an obstacle region of each image based on the feature information.
제 6 항에 있어서,
상기 프로세서는 상기 탐지된 이동 객체의 주변에 하이라이트 표시를 오버레이하여 상기 자율 주행 차량에 배치된 디스플레이를 통해 출력하는 것인 이동 객체 탐지 장치.
The method according to claim 6,
Wherein the processor overlays a highlight indication in the vicinity of the detected moving object and outputs it via a display disposed in the autonomous vehicle.
제 6 항에 있어서,
상기 프로세서는 상기 미리 설정한 제약 조건으로서, 상기 도로와 장애물의 경계는 수평선과 같거나 그 보다 낮은 위치에 존재한다는 제 1 제약 조건, 상기 도로와 장애물의 경계를 구성하는 점들은 연속적이며, 상기 영상을 수평방향으로 횡단한다는 제 2 제약 조건 및 경계선을 구성하는 점들은 주변에 위치하는 픽셀들에서만 영향을 받는다는 제 3 제약 조건을 사용하는 것인 이동 객체 탐지 장치.
The method according to claim 6,
Wherein the processor is a predetermined constraint condition that a boundary between the road and an obstacle exists at a position equal to or lower than a horizontal line, the points constituting the boundary between the road and the obstacle are continuous, Wherein the second constraint condition that the first boundary condition and the second boundary condition intersect each other in the horizontal direction and the points constituting the boundary line are affected only by surrounding pixels.
제 6 항에 있어서,
상기 프로세서는 미리 설정된 영상의 특징 정보를 기초로 경계선으로부터 수직 상방으로 탐색하면서 특징 정보가 일치하는 정도를 기초로 각 장애물의 높이를 추정하되, 상기 영상의 특징 정보로는 광흐름 정보, 질감 정보 및 색상 정보를 사용하는 것인 이동 객체 탐지 장치.
The method according to claim 6,
The processor estimates the height of each obstacle on the basis of the degree of coincidence of the feature information while searching vertically upward from the boundary line based on the feature information of the preset image, and the feature information of the image includes optical flow information, texture information, And color information.
제1항에 있어서,
상기 이동객체를 탐지하는 단계는 상기 주행 영상 중 상기 잠재적 위험 영역에 대하여 상기 이동객체 탐지 알고리즘을 가장 우선적으로 적용하는 단계를 포함하는, 이동 객체 탐지 방법.
The method according to claim 1,
Wherein the step of detecting the moving object comprises applying the moving object detection algorithm to the potential dangerous area among the traveling images with the highest priority.
제6항에 있어서,
상기 프로세서는 상기 주행 영상 중 상기 잠재적 위험 영역에 대하여 상기 이동객체 탐지 알고리즘을 가장 우선적으로 적용하여 이동객체를 탐지하는 것인, 이동 객체 탐지 장치.
The method according to claim 6,
Wherein the processor detects the moving object by first applying the moving object detection algorithm to the potential dangerous area of the traveling image.
KR1020170137166A 2016-11-24 2017-10-23 Method and apparatus for detecting sudden moving objecj appearance at vehicle KR101982298B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160157418 2016-11-24
KR1020160157418 2016-11-24

Publications (2)

Publication Number Publication Date
KR20180058624A KR20180058624A (en) 2018-06-01
KR101982298B1 true KR101982298B1 (en) 2019-05-24

Family

ID=62635290

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170137166A KR101982298B1 (en) 2016-11-24 2017-10-23 Method and apparatus for detecting sudden moving objecj appearance at vehicle

Country Status (1)

Country Link
KR (1) KR101982298B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021254000A1 (en) * 2020-06-16 2021-12-23 华为技术有限公司 Method and device for planning vehicle longitudinal motion parameters

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109063547B (en) * 2018-06-13 2021-10-08 中山大学中山眼科中心 Cell type identification method based on deep learning
CN110738081B (en) * 2018-07-19 2022-07-29 杭州海康威视数字技术股份有限公司 Abnormal road condition detection method and device
KR102003387B1 (en) * 2018-10-11 2019-07-24 한국과학기술원 Method for detecting and locating traffic participants using bird's-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program
KR102127312B1 (en) * 2018-12-10 2020-06-29 재단법인대구경북과학기술원 Moving body, particularly agricultural working vehicle and system of controlling the same
CN109829361B (en) * 2018-12-17 2023-03-31 深圳先进技术研究院 Image processing method, robot and device applying same
KR102636739B1 (en) * 2018-12-18 2024-02-15 현대자동차주식회사 Vehicle and control method thereof
KR20200131664A (en) * 2019-05-14 2020-11-24 삼성전자주식회사 Electronic apparatus and method for assisting driving of a vehicle
US11741675B2 (en) * 2020-03-10 2023-08-29 Niantic, Inc. Determining traversable space from single images
CN111783700B (en) * 2020-07-06 2023-11-24 中国交通通信信息中心 Automatic recognition and early warning method and system for pavement foreign matters
CN115690162B (en) * 2022-12-28 2023-03-10 武汉凡德智能科技有限公司 Method and device for detecting moving large target in fixed video
CN116611603B (en) * 2023-07-20 2023-11-28 青岛迪迪车联信息技术有限公司 Vehicle path scheduling method, device, computer and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316790A (en) * 2006-05-24 2007-12-06 Nissan Motor Co Ltd Pedestrian detection device and pedestrian detection method
JP2013120551A (en) * 2011-12-08 2013-06-17 Denso It Laboratory Inc Driving support device for vehicle
WO2014132747A1 (en) * 2013-02-27 2014-09-04 日立オートモティブシステムズ株式会社 Object sensing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316790A (en) * 2006-05-24 2007-12-06 Nissan Motor Co Ltd Pedestrian detection device and pedestrian detection method
JP2013120551A (en) * 2011-12-08 2013-06-17 Denso It Laboratory Inc Driving support device for vehicle
WO2014132747A1 (en) * 2013-02-27 2014-09-04 日立オートモティブシステムズ株式会社 Object sensing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021254000A1 (en) * 2020-06-16 2021-12-23 华为技术有限公司 Method and device for planning vehicle longitudinal motion parameters

Also Published As

Publication number Publication date
KR20180058624A (en) 2018-06-01

Similar Documents

Publication Publication Date Title
KR101982298B1 (en) Method and apparatus for detecting sudden moving objecj appearance at vehicle
US9245188B2 (en) Lane detection system and method
KR102099265B1 (en) System and method for pedestrian-vehicle collision warning based on pedestrian state
KR101912453B1 (en) Apparatus And Method Detectinc Obstacle And Alerting Collision
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
CN106647776B (en) Method and device for judging lane changing trend of vehicle and computer storage medium
JP4456086B2 (en) Vehicle periphery monitoring device
JP5938569B2 (en) Advanced driver support system considering azimuth information and operation method thereof
US11727799B2 (en) Automatically perceiving travel signals
KR101891460B1 (en) Method and apparatus for detecting and assessing road reflections
US20180038689A1 (en) Object detection device
CN112349144B (en) Monocular vision-based vehicle collision early warning method and system
KR20180060784A (en) Method and apparatus for determining abnormal object
KR101103526B1 (en) Collision Avoidance Method Using Stereo Camera
CN108162858B (en) Vehicle-mounted monitoring device and method thereof
KR20090014124A (en) Method and apparatus for evaluating an image
Aytekin et al. Increasing driving safety with a multiple vehicle detection and tracking system using ongoing vehicle shadow information
CN103770704A (en) System and method for recognizing parking space line markings for vehicle
US20220001873A1 (en) System and method for providing vehicle safety distance and speed alerts under slippery road conditions
CN111611853A (en) Sensing information fusion method and device and storage medium
KR20160135482A (en) Apparatus and method for predicting moving of on-road obstable
EP3842307A1 (en) System and method for providing vehicle safety distance and speed alerts under slippery road conditions
CN113297881A (en) Target detection method and related device
JP2008310440A (en) Pedestrian detection device
CN114067292A (en) Image processing method and device for intelligent driving

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant