KR101537559B1 - Device for detecting object, device for detecting object for vehicle and method thereof - Google Patents

Device for detecting object, device for detecting object for vehicle and method thereof Download PDF

Info

Publication number
KR101537559B1
KR101537559B1 KR1020130166368A KR20130166368A KR101537559B1 KR 101537559 B1 KR101537559 B1 KR 101537559B1 KR 1020130166368 A KR1020130166368 A KR 1020130166368A KR 20130166368 A KR20130166368 A KR 20130166368A KR 101537559 B1 KR101537559 B1 KR 101537559B1
Authority
KR
South Korea
Prior art keywords
frame
movement amount
background
current frame
calculating
Prior art date
Application number
KR1020130166368A
Other languages
Korean (ko)
Other versions
KR20150077654A (en
Inventor
황태호
김동순
권진산
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020130166368A priority Critical patent/KR101537559B1/en
Publication of KR20150077654A publication Critical patent/KR20150077654A/en
Application granted granted Critical
Publication of KR101537559B1 publication Critical patent/KR101537559B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • G06T5/94

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

객체 검출 방법이 개시된다. 이 방법은 옵티컬 플로우 방식을 이용하여 모든 화소들에 대한 이전 프레임과 현재 프레임 사이에서의 평균 이동량를 계산하는 과정과 계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 구성하는 과정과, 상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 구성된 배경 프레임 간의 각 화소들의 이동량을 계산하는 과정 및 기 설정된 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 과정을 포함한다. An object detection method is disclosed. The method includes calculating an average movement amount between a previous frame and a current frame for all the pixels using the optical flow method and compensating a background movement amount of the background frame of the previous frame by a calculated average movement amount, Calculating a movement amount of each pixel between the current frame and the configured background frame by using the optical flow method; calculating a movement amount of each pixel between the current frame and the configured background frame by using the optical flow method; Calculating coordinates of each pixel, and detecting the detected coordinate value as an object region in the current frame.

Description

객체 검출 장치, 차량용 객체 검출 장치 및 이들의 방법{DEVICE FOR DETECTING OBJECT, DEVICE FOR DETECTING OBJECT FOR VEHICLE AND METHOD THEREOF}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object detecting apparatus,

본 발명은 객체 검출 장치, 차량용 객체 검출 장치 및 이들의 방법에 관한 것으로서, 보다 상세하게는 카메라와 같은 영상 획득 수단이 이동하는 환경에서 획득된 영상 내의 배경으로부터 객체를 검출하는 객체 검출 장치 및 이의 방법에 관한 것이다.
The present invention relates to an object detecting apparatus, a vehicle object detecting apparatus and a method thereof, and more particularly, to an object detecting apparatus and method for detecting an object from a background in an image acquired in an environment in which an image acquiring means such as a camera moves .

일반적으로 영상 정보만을 이용하여 움직이는 물체 또는 사람과 같은 객체를 검출하는 방법에는 옵티컬 플로우(optical flow) 기술과 배경 분리(background subtraction) 기술이 대표적이다.In general, optical flow technique and background subtraction technique are typical methods for detecting an object such as a moving object or a person using only image information.

옵티컬 플로우 기술은 두 영상 프레임 사이에서 각 화소들이 움직인 방향과 거리 벡터를 계산하여 비슷한 형질을 가지는 벡터들을 군집하는 방법으로 객체를 검출하는 방식이다.The optical flow technique is a method of detecting the object by grouping vectors having similar characteristics by calculating the direction and distance vector of each pixel between two image frames.

배경 분리 방법은 영상 프레임을 순차적으로 입력받아서, 프레임 단위로 각 영상 프레임의 화소값 정보를 누적하여 배경 프레임을 만들고 움직이는 물체 부분을 현재 프레임과 배경 프레임의 차이가 큰 부분으로 정의하여, 이러한 차이에 기초해 객체를 검출하는 방식이다.In the background separation method, the image frame is sequentially received, the pixel value information of each image frame is accumulated on a frame basis, a background frame is created, and a moving object part is defined as a part having a large difference between the current frame and the background frame. It is a method to detect an object based on

그러나, 상기와 같은 종래의 기술들은 모두 한 장소에 고정 설치된 카메라, 예를 들어 CCTV에서 수집된 영상에 대해서만 움직이는 객체를 오류 없이 찾아낼 수 있으며, 카메라가 움직임으로써 배경도 함께 움직이는 일반적인 영상에 대해서는 벡터들을 군집하지 못하거나 화소값의 차이로 인해 배경 프레임을 누적하지 못하고 객체를 정확히 찾을 수 없는 문제점이 있다.
However, all of the above-described conventional techniques can find an object moving only on a camera installed in a place, for example, a CCTV, without errors, and for a general image in which a background moves as a camera moves, The background frame can not be accumulated due to the difference of the pixel values, and the object can not be accurately searched.

따라서, 본 발명의 목적은 카메라와 같은 영상 획득 수단이 이동하는 환경에서 획득된 영상에서 객체를 오류 없이 검출하는 객체 검출 장치, 차량용 객체 검출 장치 및 이의 방법을 제공하는 데 있다.
Accordingly, it is an object of the present invention to provide an object detection apparatus, an object detection apparatus for a vehicle, and a method thereof, which detect an object without error in an image acquired in an environment in which an image acquisition means such as a camera moves.

상기와 같은 목적을 달성하기 위한 본 발명의 일면에 따른 객체 검출 방법은, 옵티컬 플로우 방식을 이용하여 이전 프레임과 현재 프레임 간의 각 화소들의 평균 이동량를 계산하는 과정과, 계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 구성하는 과정과, 상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 구성된 배경 프레임 간의 각 화소들의 이동량을 계산하는 과정 및 기 설정된 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 과정을 포함한다.According to another aspect of the present invention, there is provided an object detecting method comprising: calculating an average moving amount of each pixel between a previous frame and a current frame using an optical flow method; The method comprising the steps of: constructing the background frame compensated for background movement amount as a background frame of the current frame by compensating a background movement amount of the background frame; calculating a movement amount of each pixel between the current frame and the configured background frame Calculating a coordinate value of each pixel corresponding to a movement amount exceeding a preset threshold value, and detecting the detected coordinate value as an object region in the current frame.

본 발명의 다른 일면에 따른 객체 검출 장치는, 이동 환경에서 주변 상황을 촬영하여 이전 프레임과 현재 프레임을 순차적으로 출력하는 영상 획득부와, 옵티컬 플로우 방식을 이용하여 이전 프레임과 현재 프레임 간의 각 화소들의 평균 이동량를 계산하고, 계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 추출하는 배경 추출부 및 상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 보상된 배경 프레임 간의 각 화소들의 이동량을 계산하고, 기 설정된 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 객체 검출부를 포함한다.According to another aspect of the present invention, there is provided an apparatus for detecting an object, comprising: an image acquisition unit that captures a surrounding situation in a mobile environment and sequentially outputs a previous frame and a current frame; A background extracting unit for calculating an average movement amount, compensating a background movement amount of the background frame of the previous frame by the calculated average movement amount, and extracting the background frame compensated for the background movement amount as a background frame of the current frame; Calculates a movement amount of each pixel between the current frame and the compensated background frame, calculates a coordinate value of each pixel corresponding to a movement amount exceeding a preset threshold value, detects the detected coordinate value as an object area in the current frame And an object detection unit.

본 발명의 또 다른 일면에 따른 차량용 객체 검출 장치에 있어서, 상기 차량 주행 중에 상기 차량의 주변 상황을 촬영하여 이전 프레임과 현재 프레임을 순차적으로 출력하는 영상 획득부와, 옵티컬 플로우 방식을 이용하여 이전 프레임과 현재 프레임 간의 각 화소들의 평균 이동량를 계산하고, 계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 추출하는 배경 추출부 및 상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 보상된 배경 프레임 간의 각 화소들의 이동량을 계산하고, 상기 차량 내의 전자 제어 유닛으로부터 제공되는 차량의 주행 속도값에 따라 임계치를 결정하고, 결정된 상기 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 객체 검출부를 포함한다.In the vehicle object detecting apparatus according to another aspect of the present invention, there is provided an apparatus for detecting an object for a vehicle, the apparatus comprising: an image acquiring unit for photographing a circumstance of the vehicle during driving of the vehicle and successively outputting a previous frame and a current frame; And a background extracting unit for calculating a background movement amount of the background frame of the previous frame by the calculated average movement amount and extracting the background frame compensated for the background movement amount as a background frame of the current frame, Calculating an amount of movement of each pixel between the current frame and the compensated background frame using the optical flow method, determining a threshold value according to a running speed value of the vehicle provided from an electronic control unit in the vehicle, Corresponding to the movement amount exceeding the threshold value And an object detection unit for calculating coordinate values of the respective pixels and detecting the detected coordinate values as the object region in the current frame.

본 발명의 또 다른 일면에 따른 차량용 객체 검출 장치를 이용한 객체 검출 방법에 있어서, 상기 차량 주행 중에 상기 차량의 주변 상황을 촬영하여 이전 프레임과 현재 프레임을 순차적으로 출력하는 과정과, 옵티컬 플로우 방식을 이용하여 이전 프레임과 현재 프레임 간의 각 화소들의 평균 이동량를 계산하고, 계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 추출하는 과정 및 상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 보상된 배경 프레임 간의 각 화소들의 이동량을 계산하고, 상기 차량 내의 전자 제어 유닛으로부터 제공되는 차량의 주행 속도값에 따라 임계치를 결정하고, 결정된 상기 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 과정을 포함한다.
A method of detecting an object using a vehicle object detecting apparatus according to another aspect of the present invention, the method comprising: capturing a surrounding situation of the vehicle during driving of the vehicle, sequentially outputting a previous frame and a current frame; Calculates the average movement amount of each pixel between the previous frame and the current frame, compensates the background movement amount of the background frame of the previous frame by the calculated average movement amount, extracts the background frame with the background movement amount compensated as the background frame of the current frame Calculating a movement amount of each pixel between the current frame and the compensated background frame using the optical flow method, determining a threshold value according to a running speed value of the vehicle provided from an electronic control unit in the vehicle, The movement amount exceeding the threshold value By calculating the coordinate values of the respective pixels, the coordinate values of the detected current includes the step of detecting the object region in the frame.

본 발명에 의하면, 이동하는 카메라에서 획득한 영상에서 배경의 이동량을 계산하고, 계산된 이동량만큼 영상을 보정하여 카메라의 이동에 따른 배경 오차를 보상하여 배경을 추출함으로써, 카메라가 이동하는 환경에서 배경의 움직임이 그대로 반영한 상태로 객체를 추출함에 따른 객체 검출 오차를 줄일 수 있다. 또한 옵티컬 플로우와 배경 분리 방법을 결합함으로써, 움직이는 객체 검출의 정확도를 효율적으로 높일 수 있다.
According to the present invention, the amount of movement of the background is calculated from the image acquired by the moving camera, the image is corrected by the calculated amount of movement, and the background is extracted by compensating the background error due to the movement of the camera. The object detection error due to the extraction of the object in a state in which the motion of the object is reflected as it is can be reduced. In addition, by combining optical flow and background separation methods, the accuracy of moving object detection can be efficiently increased.

도 1은 본 발명의 일 실시 예에 따른 객체 검출 장치의 내부 구성을 개략적으로 보여주는 블록도이다.
도 2는 도 1에 도시된 배경 추출부의 구성을 보여주는 블록도이다.
도 3은 도 1에 도시된 객체 검출부의 구성을 보여주는 블록도이다.
도 4는 도 1에 도시된 객체 검출부의 다른 실시 예를 보여주는 블록도이다.
도 5는 도 1에 도시된 객체 검출부의 또 다른 실시 예를 보여주는 블록도이다.
도 6은 본 발명의 일 실시 예에 따른 객체 검출 방법을 보여주는 순서도이다.
1 is a block diagram schematically illustrating an internal configuration of an object detecting apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram showing the configuration of the background extracting unit shown in FIG. 1. FIG.
3 is a block diagram showing the configuration of the object detection unit shown in FIG.
4 is a block diagram showing another embodiment of the object detection unit shown in FIG.
FIG. 5 is a block diagram showing another embodiment of the object detection unit shown in FIG. 1. FIG.
6 is a flowchart illustrating an object detection method according to an embodiment of the present invention.

본 발명은 움직이는 카메라에서 촬영한 영상에서 배경의 이동량을 계산하고,The present invention calculates a background movement amount in an image captured by a moving camera,

이동량만큼 영상을 움직여 카메라의 움직임을 보상한 배경을 추출함으로써, 배경의 움직임이 그대로 반영되는 종래 기술과는 달리, 움직임이 보상된 배경과 입력 영상을 이용하여 움직이는 객체를 검출하는 방법을 제공한다. 또한 옵티컬 플로우와 배경 분리 방법을 결합하여 움직이는 객체 검출의 정확도를 높이는 방법을 제공한다. 이렇게 함으로써, 카메라의 시점이 이동 중에도 배경의 움직임을 보상하면서 움직이는 객체를 검출 할 수 있으므로, 팬 틸트 기능이 있는 CCTV나 자동차의 전후방카메라 등과 같이 카메라가 이동하는 환경에서 취득한 영상에서 움직이는 객체를 찾아 사용자에게 경고하는 등의 후속 처리를 위한 다양한 기술분야에서 활용될 수 있다.The present invention provides a motion compensated background and a method of detecting an object moving using an input image, unlike the prior art in which motion of a background is directly reflected by extracting a background compensating a motion of a camera by moving an image by a movement amount. It also provides a way to increase the accuracy of moving object detection by combining optical flow and background separation methods. Accordingly, it is possible to detect a moving object while compensating for the movement of the background even when the camera's viewpoint is moving. Therefore, it is possible to detect a moving object in a video captured in an environment where a camera moves, such as a CCTV having a pan- And may be utilized in various technical fields for subsequent processing such as warning.

이하, 첨부된 도면을 참조하여 본 발명의 일 실시 예에 대해 상세히 설명하기로 한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 용이하게 이해할 수 있도록 제공되는 것이며, 본 발명은 청구항의 기재에 의해 정의된다. 한편, 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자 이외의 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. And the present invention is defined by the description of the claims. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. It is noted that " comprises, " or "comprising," as used herein, means the presence or absence of one or more other components, steps, operations, and / Do not exclude the addition.

도 1은 본 발명의 일 실시 예에 따른 객체 검출 장치의 구성을 개략적으로 보여주는 블록도이다.1 is a block diagram schematically showing the configuration of an object detecting apparatus according to an embodiment of the present invention.

본 발명의 일 실시 예에 따른 객체 검출 장치는(100)는 옵티컬 플로우 방식을 이용하여 카메라가 움직이는 환경에서 프레임간에서 발생하는 배경 이동량을 보상하고, 옵티컬 플로우 방식을 이용하여 현재 프레임과 보상된 배경 이동량에 따라 구성된 배경 프레임 간의 이동량에 기초해 영상 내의 객체를 검출한다.The object detecting apparatus 100 according to an embodiment of the present invention compensates for the amount of background movement occurring between frames in an environment in which a camera moves using an optical flow method, And detects an object in the image based on the movement amount between the background frames configured according to the movement amount.

이를 위해, 본 발명의 일 실시 예에 따른 객체 검출 장치는(100)는 도 1에 도시된 바와 같이, 영상 획득부(110), 프레임 메모리(120), 배경 추출부(130) 및 객체 검출부(140)를 포함한다. 1, the object detection apparatus 100 includes an image acquisition unit 110, a frame memory 120, a background extraction unit 130, and an object detection unit 140).

영상 획득부(110)는 주변 상황을 촬영하여 이전 영상 프레임(I(n-1): 이하, 이전 프레임이라 한다.)과 현재 영상 프레임(I(n): 이하, 현재 프레임)의 영상을 순차적으로 출력하는 구성으로서, 팬 틸트 기능을 갖는 카메라 또는 차량에 장착되는 전후방 카메라일 수 있으며, 이에 특별히 한정되지 않고, 이동 환경에서 주변 상황을 촬영할 수 있는 모든 종류의 촬영 수단을 포함한다.The image acquiring unit 110 photographs the surrounding situation and sequentially displays the images of the previous image frame I (n-1) (hereafter referred to as the previous frame) and the current image frame I (n: And may be a camera having a pan / tilt function or a front / rear camera mounted on a vehicle. The present invention is not particularly limited to this, and includes all kinds of photographing means capable of photographing a surrounding situation in a moving environment.

프레임 메모리(120)는 상기 영상 획득부(110)로부터 현재 프레임(I(n))을 입력받아서 일시적으로 저장하는 일종의 버퍼로서, 상기 현재 프레임(I(n))의 입력에 따라 이전에 저장된 이전 프레임(I(n-1))을 출력한다.The frame memory 120 is a kind of buffer for receiving a current frame I (n) from the image acquisition unit 110 and storing the current frame I (n) temporarily. The previous frame I (n) And outputs the frame I (n-1).

배경 추출부(130)는 상기 영상 획득부(110)로부터의 현재 프레임(I(n))과 프레임 메모리(120)로부터의 이전 프레임(I(n-1))을 입력받고, 이전 프레임(I(n-1))과 현재 프레임(I(n)) 간의 옵티컬 플로우를 이용하여 상기 이전 프레임(I(n-1))에 포함된 이전의 배경 영상 프레임(B(n-1): 이하, 이전 배경 프레임이라 한다.)을 보상하고, 보상된 이전의 배경 프레임 (B(n-1)')을 현재의 프레임의 배경 프레임(B(n))으로서 추출(분리 또는 구성)한다. 이에 대한 구체적인 설명은 아래의 도 2를 참조하여 상세히 설명하기로 한다.The background extraction unit 130 receives the current frame I (n) from the image acquisition unit 110 and the previous frame I (n-1) from the frame memory 120 and outputs the previous frame I (n-1) included in the previous frame I (n-1) using the optical flow between the current frame I (n-1) and the current frame I (n) (Separates or configures) the compensated previous background frame B (n-1) 'as the background frame B (n) of the current frame. A specific description thereof will be described in detail with reference to FIG. 2 below.

객체 검출부(140)는 배경 추출부(130)로부터의 보상된 배경 프레임(B(n-1)' 또는 B(n))과 상기 현재 프레임(I(n)) 간의 옵티컬 플로우를 이용하여 상기 현재 프레임(I(n)) 내의 객체 영역을 검출한다. 이에 대한 구체적인 설명은 아래의 도 3 내지 도 5를 참조하여 상세히 설명하기로 한다.The object detection unit 140 detects the current frame I (n) using the optical flow between the compensated background frame B (n-1) 'or B (n) from the background extraction unit 130 and the current frame I And detects an object area in the frame I (n). A detailed description thereof will be made in detail with reference to FIGS. 3 to 5 below.

먼저, 도 1에 도시된 배경 추출부(130)의 일 실시 예에 대해 상세히 설명한다.
First, an embodiment of the background extraction unit 130 shown in FIG. 1 will be described in detail.

도 2는 도 1에 도시된 배경 추출부의 구성을 보여주는 블록도이다.FIG. 2 is a block diagram showing the configuration of the background extracting unit shown in FIG. 1. FIG.

도 2를 참조하면, 배경 추출부(130)은 제1 옵티컬 플로우(OF) 계산부(132), 배경 OF 기준값 생성부(134), 배경 보상부(136) 및 프레임 메모리(138)를 포함한다.2, the background extraction unit 130 includes a first optical flow (OF) calculation unit 132, a background OF reference value generation unit 134, a background compensation unit 136, and a frame memory 138 .

제1 OF 계산부(132)는 모든 화소들에 대해 이전 프레임(I(n-1))과 현재 프레임(I(n)) 사이에서의 이동량(옵티컬 플로우값 또는 이동 벡터값)을 계산하고, 계산된 결과를 현재 프레임(I(n))에 대한 제1 OF 프레임(OF1(n))으로서 출력한다. 이때, 출력되는 제1 OF 프레임(OF1(n))는 배경 이동량과 객체 이동량을 모두 포함한 형태로 출력된다. 일례로, 이동량의 계산은 T.Brox에 의해 제안된 "High accuracy optical flow estimation based on a theory for warping" 방법에 따라 계산될 수 있다.The first OF calculator 132 calculates the amount of movement (optical flow value or motion vector value) between the previous frame I (n-1) and the current frame I (n) And outputs the calculated result as the first OF frame OF1 (n) for the current frame I (n). At this time, the output first OF frame (OF1 (n)) is outputted in a form including both the background movement amount and the object movement amount. For example, the calculation of the travel can be calculated according to the "High accuracy optical flow estimation based on a theory for warping" method proposed by T. Brox.

배경 OF 기준값 생성부(134)는 제1 OF 프레임(OF1(n))에 포함된 배경 이동량과 객체 이동량 중에서 배경 이동량을 분리(추출 또는 검출)하여 이를 이전 프레임(I(n-1))의 배경 프레임(B(n-1))을 보상하기 위한 기준값(REF)으로 생성한다. 이를 위해, 배경 OF 기준값 생성부(134)는 제1 OF 프레임(OF1(n)) 내의 모든 화소들의 이동량을 크기 순으로 배열하고, 크기 순으로 배열된 이동량을 일정 단위의 구간으로 등분하는 과정을 수행한다. 이후, 등분된 구간들 중 가장 많은 이동량이 분포한 구간을 선정하고, 선정된 상기 구간 내에 분포한 이동량들의 평균치(또는 평균 이동량)를 상기 배경 OF 기준값(RFE)으로 생성한다. 예컨대, 제1 OF 프레임(OF1(n)) 내의 최대 이동량(최대 옵티컬 플로우값 또는 최대 이동 벡터값)과 최소 이동량(최소 옵티컬 플로우값 또는 최소 이동 벡터값) 사이 구간을 100 등분하여 모든 화소들에 대한 이동량을 등분된 구간들로 분류한 후, 가장 많은 개수의 이동량들을 포함하고 있는 구간을 선정하고, 선정된 구간의 중앙값 또는 평균값을 이전 프레임(I(n-1))의 배경 프레임(B(n-1))을 보상하기 위한 기준값(RFE)으로 사용한다. 이를 히스토그램 상에서 살펴보면, 히스토그램 상 최대빈도 구간의 중앙값이다.The background OF reference value generator 134 separates (extracts or detects) the background movement amount from the background movement amount and the object movement amount included in the first OF frame OF1 (n) and outputs it to the previous frame I (n-1) And generates a reference value REF for compensating the background frame B (n-1). To this end, the background OF reference value generator 134 arranges the movement amounts of all the pixels in the first OF frame (OF1 (n)) in order of magnitude, and divides the movement amounts arranged in the order of magnitude into equal intervals . Then, an interval in which the largest amount of movement is distributed among the divided sections is selected, and an average value (or an average movement amount) of the movement amounts distributed in the selected section is generated as the background OF reference value RFE. For example, the interval between the maximum movement amount (maximum optical flow value or maximum movement vector value) and the minimum movement amount (minimum optical flow value or minimum movement vector value) in the first OF frame OF1 (n) (N) of the previous frame (I (n-1)) by dividing the moving distance of the previous frame I (n-1) into a plurality of divided sections and then selecting a section including the largest number of movement amounts. n-1)) is used as the reference value RFE. This is the median of the maximum frequency interval on the histogram.

배경 보상부(136)는 배경 OF 기준값 생성부(134)로부터의 상기 배경 OF 기준값(RFE)을 이용하여 뒷단의 프레임 메모리(138)로부터의 이전 프레임(I(n-1))의 배경 프레임(B(n-1))을 보상하는 구성으로서, 상기 배경 OF 기준값(RFE)인 평균 이동량만큼 상기 이전 프레임(I(n-1))의 배경 프레임(B(n-1)) 내에 존재하는 각 화소들을 이동량을 보상한다. 만일, 프레임 메모리(138)에 이전에 보상된 배경 프레임이 없는 경우, 즉, 최초 프레임 자체를 이전에 구성한(생성한 또는 분리한) 배경 프레임으로 간주한다. 이렇게 보상된 배경 프레임(B(n-1)')을 구성한 배경 보상부(136)는 영상 획득부(110)로부터의 현재 프레임(I(n))을 더 입력 받아서, 상기 보상된 배경 프레임(B(n-1)')의 화소들을 상기 입력 받은 현재 프레임(I(n))의 대응하는 화소들의 화소값으로 대체(맵핑 또는 보상)한다. 이렇게 함으로써, 배경 이동량이 보상된 최종 배경 프레임을 분리 추출한다. 이때, 상기 보상된 배경 프레임(B(n-1)')의 화소들을 현재 프레임(I(n))의 대응하는 화소들의 화소값에 그대로 대체(맵핑 또는 보상)하지 않고, 현재 프레임(I(n))의 대응하는 화소들의 화소값을 사전에 설정한 학습 계수(예컨대, 0.1)만큼 곱한 화소값으로 보상하고, 상기 보상된 배경 프레임(B(n-1)')의 화소들을 상기 학습 계수에 의해 보상된 화소값으로 대체(맵핑 또는 보상)할 수도 있다. 즉, B(n)의 화소값은, 이동시킨 B(n-1) 프레임을 기준으로 특정 위치에 있는 화소값에, I(n)의 해당 위치의 화소값과 이동된 B(n-1)프레임에서의 화소값과의 차이와 학습계수를 곱한 결과값을 더한 값과 같다. 이를 수학식으로 표현하면, 아래의 수학식 1과 같다.The background compensating unit 136 uses the background OF reference value RFE from the background OF reference value generator 134 to calculate the background frame of the previous frame I (n-1) from the frame memory 138 (N-1)) of the previous frame I (n-1) by an average movement amount that is the background OF reference value RFE, Thereby compensating the movement amounts of the pixels. If there is no previously compensated background frame in the frame memory 138, i. E. The initial frame itself is regarded as a previously configured (created or detached) background frame. The background compensator 136 composing the compensated background frame B (n-1) 'further receives the current frame I (n) from the image acquiring unit 110, (Mapping or compensating) the pixels of B (n-1) ') with the pixel values of the corresponding pixels of the input current frame I (n). By doing so, the final background frame, in which the background movement amount is compensated, is separately extracted. At this time, instead of directly replacing (mapping or compensating) the pixels of the compensated background frame B (n-1) 'with the pixel values of the corresponding pixels of the current frame I (n) (n-1) ') by a learning value (for example, 0.1) multiplied by a predetermined learning coefficient (e.g., 0.1), and supplies the pixels of the compensated background frame B (Mapped or compensated) by the pixel value compensated by the compensated pixel value. That is, the pixel value of B (n) is obtained by adding the pixel value at the corresponding position of I (n) to the pixel value at the specific position with respect to the moved B (n-1) It is equal to the value obtained by multiplying the difference between the pixel value in the frame and the learning coefficient. This can be expressed by the following equation (1).

Figure 112013120072303-pat00001
Figure 112013120072303-pat00001

여기서, k는 학습 계수이다. Here, k is a learning coefficient.

이하, 상기 배경 추출부(130)에 의해 분리 추출된 배경 프레임을 이용하여 객체 영역을 추출하는 객체 추출부(140)에 대해 상세히 설명하기로 한다.Hereinafter, the object extracting unit 140 for extracting the object region using the background frame separated and extracted by the background extracting unit 130 will be described in detail.

도 3은 도 1에 도시된 객체 검출부의 구성을 보여주는 블록도이다.3 is a block diagram showing the configuration of the object detection unit shown in FIG.

도 3을 참조하면, 객체 검출부(140)는 제2 OF 계산부(142) 및 객체 영역 분리부(144)를 포함한다.Referring to FIG. 3, the object detecting unit 140 includes a second OF calculating unit 142 and an object region separating unit 144.

제2 OF 계산부(142)는 상기 배경 추출부(130)로부터의 배경 이동량이 보상된 배경 프레임(B(n))과 상기 영상 획득부(110)로부터의 현재 프레임(I(n))을 입력 받아서, 옵티컬 플로우를 이용하여 모든 화소들에 대해 상기 배경 프레임(B(n))과 현재 프레임(I(n)) 간의 이동량을 계산하여, 상기 현재 프레임(I(n))에 대한 제2 OP 프레임(OF2(n))을 출력한다. 여기서, 제2 OP 프레임(OF2(n))은 앞에서 설명한 제1 OF 계산부(132)로부터 출력되는 제1 OP 프레임(OF2(n))와는 달리 배경 이동량이 보상된 배경 프레임(B(n))을 현재 프레임(I(n))의 배경 프레임으로 간주할 수 있으므로, 현재 프레임(I(n))의 객체를 구성하는 화소들의 이동량이 두드러지게 나타난 형태로 출력될 것이다.The second OF calculator 142 calculates the background frame B (n) compensated for the background movement amount from the background extractor 130 and the current frame I (n) from the image obtaining unit 110 Calculates an amount of movement between the background frame B (n) and the current frame I (n) with respect to all the pixels using the optical flow to calculate the amount of movement between the background frame B (n) and the current frame I (n) And outputs an OP frame OF2 (n). Unlike the first OP frame OF2 (n) output from the first OF calculator 132 described above, the second OP frame OF2 (n) is a background frame B (n) Can be regarded as a background frame of the current frame I (n), and thus the amount of movement of the pixels constituting the object of the current frame I (n) will be output in a prominent manner.

객체 영역 분리부(144)는 설계자에 의해 설정된 임계값(TH)을 이용하여 제2 OP 프레임(OF2(n)) 내의 객체 영역을 분리 추출한다. 예컨대, 상기 임계값 이상에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출할 수 있다. 이때, 배경 분리 마스크를 이용하여 객체 검출의 정확도를 높일 수 있다. 이에 대한 설명은 아래의 도 4를 참조하여 설명하기로 한다.The object region separator 144 separates and extracts the object region in the second OP frame OF2 (n) using the threshold value TH set by the designer. For example, the coordinate value of each pixel corresponding to the threshold value or more may be calculated, and the detected coordinate value may be detected as an object region in the current frame. At this time, the accuracy of object detection can be increased by using a background separation mask. The description will be made with reference to FIG. 4 below.

도 4는 도 1에 도시된 객체 검출부의 다른 실시 예를 보여주는 블록도이다.4 is a block diagram showing another embodiment of the object detection unit shown in FIG.

도 4에 도시된 다른 실시 예에 따른 객체 검출부(140)는 도 3의 실시 예에 마스크 생성부(146)와 필터부(148)를 추가한 점을 제외하면, 도 3의 실시 예와 동일한 동작 및 기능을 수행한다.The object detecting unit 140 according to another embodiment shown in FIG. 4 has the same operation as the embodiment of FIG. 3 except that the mask generating unit 146 and the filter unit 148 are added to the embodiment of FIG. And functions.

마스크 생성부(146)는 객체 검출의 정확도를 높이기 위해, 배경 분리 마스크를 생성하는 구성으로서, 현재 프레임(I(n))과 배경 이동량이 보상된 배경 프레임(B(n))을 입력받아서, 이들 프레임들의 차이에 해당하는 마스크 프레임(47)을 생성하고, 이를 상기 배경 분리 마스크로 출력한다. The mask generation unit 146 receives the background frame B (n) in which the current frame I (n) and the background movement amount are compensated, and generates a background separation mask in order to increase the accuracy of object detection, Generates a mask frame 47 corresponding to the difference between these frames, and outputs the mask frame 47 as the background separation mask.

필터부(148)는 상기 마스트 생성부(146)로부터의 마스크 프레임(47)을 이용하여 객체 영역 분리부(144)로부터 출력되는 객체 영역에 포함된 노이즈를 필터링 한다. 이렇게 함으로써, 객체 검출의 정확도를 높일 수 있다. The filter unit 148 filters the noise included in the object region output from the object region separation unit 144 using the mask frame 47 from the mast generation unit 146. By doing so, the accuracy of object detection can be increased.

한편, 객체 영역 분리부(144)에 적용되는 임계값(TH)을 카메라의 이동 속도를 고려하여 다양하게 설정함으로써, 객체 검출의 정확도를 높일 수도 있다. 이에 대해서는 도 5를 참조하여 설명하기로 한다. On the other hand, by setting the threshold value TH applied to the object region separation unit 144 in consideration of the moving speed of the camera, the accuracy of object detection can be increased. This will be described with reference to FIG.

도 5는 도 1에 도시된 객체 검출부의 또 다른 실시 예를 보여주는 블록도이다.FIG. 5 is a block diagram showing another embodiment of the object detection unit shown in FIG. 1. FIG.

도 5에서는 본 발명의 객체 검출 장치(100)가 차량에 탑재된 경우, 차량의 주행 속도 즉, 차량에 장착된 카메라의 이동 속도에 따라 임계치(TH)가 조정되는 예를 설명한 것이다. 본 발명의 객체 검출 장치(100)가 차량에 적용되는 경우, 본 발명의 또 다른 실시 예에 따른 객체 검출부(140)는 CAN 통신 또는 LIN 통신과 같은 차량 내의 네트워크 통신(40)을 통해 차량 내의 전자 제어 유닛(200)으로부터 차량의 주행 속도를 제공받을 수 있다.5 illustrates an example in which the threshold value TH is adjusted according to the running speed of the vehicle, that is, the moving speed of the camera mounted on the vehicle, when the object detecting apparatus 100 of the present invention is mounted on a vehicle. When the object detecting apparatus 100 of the present invention is applied to a vehicle, the object detecting unit 140 according to another embodiment of the present invention detects the presence or absence of electrons in the vehicle through the network communication 40 in the vehicle such as CAN communication or LIN communication. The driving speed of the vehicle can be provided from the control unit 200. [

상기 전자 제어 유닛(200)으로부터 차량이 주행 속도를 제공받는 객체 검출부(140)는 도 3에 도시된 구성들에 추가로 임계값 생성부(149)를 더 포함할 수 있다. 이러한 임계값 생성부(149)는 설계자에 의해 설정된 기준 속도(예컨대, 10 Km/h)와 전자 제어 유닛(200)로부터 수신된 차량의 주행 속도를 비교하고, 차량의 주행 속도가 상기 기준속도보다 낮으며, 제1 임계치(TH1)를 상기 객체 영역 분리부(144)로 출력하고, 반대로 차량의 주행 속도가 상기 기준속도보다 높으면, 상기 제1 임계치(TH1)보다 큰 제2 임계치(TH2)를 상기 객체 영역 분리부(144)으로 출력한다. 그러면, 객체 영역 분리부(144)는 현재의 차량 주행 속도 즉, 카메라의 이동 속도에 따라 임계치를 조절하여 제2 OF 프레임(OF2(n)) 내이 객체 영역을 적응적으로 검출할 수 있다. 차량의 속도가 높은 경우, 즉, 카메라의 이동속도가 높은 환경에서 획득된 프레임들의 경우, 그 인접한 프레임들 간의 옵티컬 플로우의 이동량 편차는 크므로, 이런 경우에, 낮은 임계치를 적용하게 되면, 정확한 객체 검출이 어렵다. 반대로 카메라의 이동속도가 낮은 환경에서 획득된 프레임들의 경우, 인접한 프레임들 간의 옵티컬 플로우의 이동량 편차는 작으므로, 이런 경우에 높은 임계치를 적용하게 되면, 마찬가지로 정확한 객체 검출이 어렵다. 그러나, 본 발명에서는 위와 같이, 카메라의 이동속도가 높은 경우에는 높은 임계치를 적용하고, 반대의 경우에는 낮은 임계치를 적용함으로써, 객체 검출의 정확도를 높일 수 있다.The object detection unit 140 receiving the vehicle traveling speed from the electronic control unit 200 may further include a threshold value generation unit 149 in addition to the configurations shown in FIG. The threshold value generator 149 compares the reference speed (for example, 10 Km / h) set by the designer with the traveling speed of the vehicle received from the electronic control unit 200, and determines whether the traveling speed of the vehicle is greater than the reference speed And outputs the first threshold TH1 to the object region separator 144. If the traveling speed of the vehicle is higher than the reference speed, the second threshold TH2, which is larger than the first threshold TH1, And outputs it to the object region separator 144. Then, the object region separation unit 144 may adaptively detect the object region in the second OF frame (OF2 (n)) by adjusting the threshold value according to the current vehicle running speed, that is, the moving speed of the camera. In the case where the speed of the vehicle is high, that is, in the case of the frames obtained in an environment in which the moving speed of the camera is high, the shift amount of the optical flow between the adjacent frames is large. In this case, when a low threshold is applied, Detection is difficult. Conversely, in the case of frames obtained in an environment in which the moving speed of the camera is low, the shift amount of the optical flow between adjacent frames is small, and therefore, if a high threshold value is applied in this case, accurate object detection is similarly difficult. However, in the present invention, as described above, a high threshold is applied when the moving speed of the camera is high, and a low threshold is applied when the moving speed of the camera is high.

본 실시 예에서는, 객체 검출의 정확도를 높이기 위한 방안으로, 도 4와 도 5의 2가지 실시 예를 제시하고 있지만, 이들 실시 예들의 결합을 통해 객체 검출의 정확도를 더욱 높일 수 도 있다. 이러한 결합된 실시 예는 당업자라면 도 4와 도 5의 설명을 통해 충분히 구현할 수 있는 것이므로, 이에 대한 구체적인 설명은 생략하기로 한다.In this embodiment, although two embodiments of FIGS. 4 and 5 are shown as methods for improving the accuracy of object detection, the accuracy of object detection can be further improved through the combination of these embodiments. Those skilled in the art will appreciate that such a combined embodiment can be sufficiently implemented through the description of FIGS. 4 and 5, so a detailed description thereof will be omitted.

도 6은 본 발명의 일 실시 예에 따른 객체 검출 방법을 보여주는 순서도로서, 도 6에 도시된 각 단계의 수행 주체는 도 1 내지 도 5의 설명을 통해 명확히 이해될 수 있으므로, 아래의 설명에서는 각 단계의 수행 주체를 언급하지 않는다.FIG. 6 is a flowchart showing an object detection method according to an embodiment of the present invention. The subject of each step shown in FIG. 6 can be clearly understood by referring to FIG. 1 to FIG. 5, It does not refer to the person performing the step.

도 6을 참조하면, 먼저, S610에서, 옵티컬 플로우 방식을 이용하여 모든 화소들에 대한 이전 프레임과 현재 프레임 사이에서의 평균 이동량을 계산하는 과정이 수행된다. 평균 이동량을 계산하는 과정은 이전 프레임과 현재 프레임 간의 각 화소들의 이동량를 계산하여, 상기 각 화소들의 이동량을 크기 순으로 배열하는 과정과, 크기 순으로 배열된 이동량을 일정 단위의 구간으로 등분하고, 등분된 구간들 중 가장 많은 이동량이 분포한 구간을 선정하는 과정 및 선정된 상기 구간 내에 분포한 이동량들의 평균치를 상기 평균 이동량으로 계산하는 과정을 포함한다. Referring to FIG. 6, in step S610, an average movement amount between a previous frame and a current frame is calculated for all pixels using an optical flow scheme. Calculating an average movement amount includes: calculating a movement amount of each pixel between a previous frame and a current frame, and arranging the movement amounts of the pixels in order of magnitude; dividing the movement amount arranged in the size order into a predetermined unit interval, And a step of calculating an average value of the movement amounts distributed in the predetermined interval as the average movement amount.

이어, S620에서, 계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 구성하는 과정이 수행된다. 이 과정은 상기 현재 프레임의 배경 프레임 내의 각 화소들의 화소값을 추출하는 과정과, 추출된 상기 화소값과, 상기 화소값의 위치에 해당하는 상기 보상된 배경 프레임의 화소값의 차이에 기 설정된 학습 계수를 연산하는 과정 및 상기 연산 결과에 따른 화소값을 상기 보상된 배경 프레임 내의 각 화소들의 화소값으로 대체하는 과정을 포함한다. Next, in step S620, the process of compensating the background movement amount of the background frame of the previous frame by the calculated average movement amount and constructing the background frame with the background movement amount compensated as the background frame of the current frame is performed. The method includes the steps of extracting a pixel value of each pixel in a background frame of the current frame, performing a predetermined learning on a difference between the extracted pixel value and a pixel value of the compensated background frame corresponding to a position of the pixel value, And a step of replacing the pixel value according to the calculation result with the pixel value of each pixel in the compensated background frame.

이어, S630에서, 상기 화소값으로 대체된 배경 프레임을 현재 프레임 내의 배경 프레임의 구성하는 과정이 수행된다. In step S630, a background frame replaced with the pixel value is constructed as a background frame in the current frame.

이어, S640에서, 상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 구성된 배경 프레임 간의 각 화소들의 이동량을 계산하는 과정이 수행된 후, S650에서, 기 설정된 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 과정이 수행된다. 이때, 객체 영역의 검출 정확도를 높이기 위해, 상기 보상된 배경 프레임과 현재 프레임 간이 차이에 해당하는 마스크 프레임을 생성하는 과정과, 상기 검출된 객체 영역을 상기 마스크 프레임을 이용하여 필터링하는 과정 및 필터링된 상기 객체 영역을 상기 현재 프레임 내의 최종 객체 영역으로 검출하는 과정이 더 수행될 수 있다. 선택적으로, 카메라의 이동 속도값에 따라 상기 임계치를 적응적으로 조절하는 과정이 더 수행될 수 있다. 예컨대, 차량에 탑재된 카메라의 경우, 차량의 주행 속도가 상기 기준속도보다 낮으며, 제1 임계치(TH1) 이상의 이동량에 해당하는 각 화소들의 좌표값을 객체 영역으로 검출하고, 차량의 주행 속도가 상기 기준속도보다 높으면, 상기 제1 임계치(TH1)보다 큰 제2 임계치(TH2) 이상이 이동량에 해당하는 각 화소들의 좌표값을 객체 영역으로 검출할 수 있다.In step S640, the process of computing the movement amount of each pixel between the current frame and the configured background frame is performed using the optical flow method. In step S650, the coordinate value of each pixel corresponding to the movement amount exceeding the preset threshold value And detecting the detected coordinate value as the object region in the current frame is performed. In order to increase the detection accuracy of the object region, a mask frame corresponding to the difference between the compensated background frame and the current frame is generated. The detected object region is filtered using the mask frame, And detecting the object region as a final object region in the current frame. Alternatively, the threshold value may be adaptively adjusted according to the moving speed value of the camera. For example, in the case of a camera mounted on a vehicle, a coordinate value of each pixel corresponding to a moving amount exceeding the first threshold value TH1 is detected as an object area, When the reference speed is higher than the reference speed, the coordinate value of each pixel corresponding to the movement amount equal to or larger than the second threshold value TH2 larger than the first threshold value TH1 can be detected as the object area.

이상 설명한 바와 같이, 본 발명은 옵티컬 플로우를 이용한 배경 분리 방법을 제공함으로써, 영상에서 두 개의 연속적인 프레임을 입력 받아 옵티컬 플로우를 통해 영상 화소 전체의 이동량(또는, 이동 벡터)를 계산하고, 계산 결과 동일한 이동량의 개수를 기준으로 예컨대, 7할 이상을 차지하는 이동량을 이전 프레임에 역으로 적용하여 배경의 움직임을 보상한다. 그러면, 보상된 이전 프레임과 현재 프레임을 이용하여 통해 배경 프레임을 분리한다. 분리된 배경 프레임과 현재 프레임을 다시 옵티컬 플로우를 통해 이동하는 객체들에 대한 군집화된 이동량(벡터)를 얻는다. 군집의 개수에 따라 선형적으로 이동체를 구분하는 이동량의 기준값(벡터 경계값)을 자동 결정하여 이동량이 가장 큰 소수의 군집들만 결정한다. 결정된 군집들에 대해 배경 분리 마스크와 같은 이미지 노이즈 저감 필터들을 적용하고, 배경 프레임과 현재 프레임을 배경 분리 방법을 통해 얻은 배경 분리 마스크를 결정된 군집에 적용하여 정확도를 높인다. 마스크 프레임까지 통과한 군집에 한해 군집들의 이동량(벡터) 위치를 원본 영상의 좌표계로 변환하여 출력함으로써, 최종 객체 영역을 검출한다.As described above, the present invention provides a background separation method using an optical flow, in which two consecutive frames are input from an image and a movement amount (or a motion vector) of the entire image pixel is calculated through an optical flow, For example, a moving amount occupying more than 70% is applied to the previous frame in reverse based on the same number of movement amounts to compensate for background motion. Then, the background frame is separated using the compensated previous frame and the current frame. We obtain clustering movement vector (vector) for separated background frame and objects moving through the optical flow back to the current frame. The reference value (vector boundary value) of the movement amount that linearly divides the moving object is automatically determined according to the number of clusters, and only a small number of clusters having the largest movement amount are determined. Image noise reduction filters such as a background separation mask are applied to the determined clusters, and the background separation mask obtained through background separation of the background frame and the current frame is applied to the determined clusters to increase the accuracy. The vector of the movement of the clusters is transformed into the coordinate system of the original image and outputted, thereby detecting the final object area.

이제까지 본 발명의 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The embodiments of the present invention have been described above. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

Claims (8)

옵티컬 플로우 방식을 이용하여 모든 화소들에 대한 이전 프레임과 현재 프레임 사이에서의 평균 이동량를 계산하는 과정;
계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 구성하는 과정;
상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 구성된 배경 프레임 간의 각 화소들의 이동량을 계산하는 과정; 및
기 설정된 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 과정을 포함하되,
상기 평균 이동량을 계산하는 과정은,
이전 프레임과 현재 프레임 간의 각 화소들의 이동량를 계산하여, 상기 각 화소들의 이동량을 크기 순으로 배열하는 과정;
크기 순으로 배열된 이동량을 일정 단위의 구간으로 등분하고, 등분된 구간들 중 가장 많은 이동량이 분포한 구간을 선정하는 과정; 및
선정된 상기 구간 내에 분포한 이동량들의 평균치를 상기 평균 이동량으로 계산하는 과정;
을 포함하는 객체 검출 방법.
Calculating an average movement amount between a previous frame and a current frame for all pixels using an optical flow scheme;
Compensating the background movement amount of the background frame of the previous frame by the calculated average movement amount and constructing the background frame in which the background movement amount is compensated as the background frame of the current frame;
Calculating a movement amount of each pixel between the current frame and the configured background frame using the optical flow scheme; And
Calculating a coordinate value of each pixel corresponding to a movement amount equal to or greater than a predetermined threshold value and detecting the detected coordinate value as an object region in the current frame,
The step of calculating the average movement amount includes:
Calculating a movement amount of each pixel between a previous frame and a current frame, and arranging movement amounts of the pixels in order of magnitude;
A step of equally dividing the movement amount arranged in the order of magnitude into a predetermined unit interval, and selecting an interval in which the greatest amount of movement is distributed among the equally divided intervals; And
Calculating an average value of the movement amounts distributed in the predetermined interval as the average movement amount;
/ RTI >
삭제delete 제1항에 있어서, 상기 배경 프레임으로 구성하는 과정은,
상기 현재 프레임의 배경 프레임 내의 각 화소들의 화소값을 추출하는 과정;
추출된 상기 화소값에 기 설정된 학습 계수를 연산한 보상된 화소값을 계산하는 과정; 및
상기 보상된 화소값을 상기 배경 이동량이 보상된 배경 프레임 내의 각 화소들의 화소값으로 대체하는 과정;
을 포함하는 객체 검출 방법.
2. The method of claim 1, wherein the background frame comprises:
Extracting a pixel value of each pixel in a background frame of the current frame;
Calculating a compensated pixel value by calculating a predetermined learning coefficient for the extracted pixel value; And
Replacing the compensated pixel value with a pixel value of each pixel in the background frame compensated for by the background movement amount;
/ RTI >
제1항에 있어서, 상기 현재 프레임 내의 객체 영역으로 검출하는 과정은,
상기 보상된 배경 프레임과 현재 프레임 간이 차이에 해당하는 마스크 프레임을 생성하는 과정;
상기 검출된 객체 영역을 상기 마스크 프레임을 이용하여 필터링하는 과정; 및
필터링된 상기 객체 영역을 상기 현재 프레임 내의 최종 객체 영역으로 검출하는 과정;
을 포함하는 객체 검출 방법.
The method of claim 1, wherein the step of detecting an object region in the current frame comprises:
Generating a mask frame corresponding to a difference between the compensated background frame and the current frame;
Filtering the detected object region using the mask frame; And
Detecting the filtered object region as a final object region in the current frame;
/ RTI >
제1항에 있어서, 상기 기 설정된 임계치는,
상기 이전 프레임과 현재 프레임을 획득하는 카메라의 이동 속도값에 따라 결정되는 것인 객체 검출 방법.
2. The apparatus of claim 1,
The current frame is determined according to a moving speed value of a camera that acquires the previous frame and the current frame.
이동 환경에서 주변 상황을 촬영하여 이전 프레임과 현재 프레임을 순차적으로 출력하는 영상 획득부;
옵티컬 플로우 방식을 이용하여 모든 화소들에 대해 이전 프레임과 현재 프레임 사이에서의 평균 이동량를 계산하고, 계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 추출하는 배경 추출부; 및
상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 보상된 배경 프레임 간의 각 화소들의 이동량을 계산하고, 기 설정된 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 객체 검출부를 포함하되,
상기 배경 추출부는,
이전 프레임과 현재 프레임 간의 각 화소들의 이동량를 계산하여, 상기 각 화소들의 이동량을 크기 순으로 배열하고, 크기 순으로 배열된 이동량을 일정 단위의 구간으로 등분하고, 등분된 구간들 중 가장 많은 이동량이 분포한 구간을 선정하여, 선정된 상기 구간 내에 분포한 이동량들의 평균치를 상기 평균 이동량으로 계산함을 특징으로 하는 객체 추출 장치.
An image acquiring unit that photographs a surrounding situation in a mobile environment and sequentially outputs a previous frame and a current frame;
Calculates an average movement amount between the previous frame and the current frame for all the pixels using the optical flow method, compensates the background movement amount of the background frame of the previous frame by the calculated average movement amount, To a background frame of the current frame; And
Calculating a movement amount of each pixel between the current frame and the compensated background frame using the optical flow method, calculating coordinate values of each pixel corresponding to a movement amount exceeding a preset threshold value, And an object detection unit for detecting the object region in the object region,
The background extracting unit extracts,
The amount of movement of each pixel between the previous frame and the current frame is calculated, the movement amounts of the pixels are arranged in order of magnitude, the movement amount arranged in the order of magnitude is equally divided into a predetermined unit interval, And selecting an interval and calculating an average value of the movement amounts distributed in the selected interval as the average movement amount.
차량에 탑재된 차량용 객체 검출 장치에 있어서,
상기 차량 주행 중에 상기 차량의 주변 상황을 촬영하여 이전 프레임과 현재 프레임을 순차적으로 출력하는 영상 획득부;
옵티컬 플로우 방식을 이용하여 모든 화소들에 대해 이전 프레임과 현재 프레임 사이에서의 평균 이동량를 계산하고, 계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 추출하는 배경 추출부; 및
상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 보상된 배경 프레임 간의 각 화소들의 이동량을 계산하고, 상기 차량 내의 전자 제어 유닛으로부터 제공되는 차량의 주행 속도값에 따라 임계치를 결정하고, 결정된 상기 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 객체 검출부를 포함하되,
상기 배경 추출부는,
이전 프레임과 현재 프레임 간의 각 화소들의 이동량를 계산하여, 상기 각 화소들의 이동량을 크기 순으로 배열하고, 크기 순으로 배열된 이동량을 일정 단위의 구간으로 등분하고, 등분된 구간들 중 가장 많은 이동량이 분포한 구간을 선정하여, 선정된 상기 구간 내에 분포한 이동량들의 평균치를 상기 평균 이동량으로 계산함을 특징으로 하는 객체 추출 장치.
A vehicle object detecting apparatus mounted on a vehicle,
An image acquiring unit that photographs a surrounding situation of the vehicle while the vehicle is running, and sequentially outputs a previous frame and a current frame;
Calculates an average movement amount between the previous frame and the current frame for all the pixels using the optical flow method, compensates the background movement amount of the background frame of the previous frame by the calculated average movement amount, To a background frame of the current frame; And
Calculating a movement amount of each pixel between the current frame and the compensated background frame using the optical flow method, determining a threshold value according to a running speed value of the vehicle provided from an electronic control unit in the vehicle, And an object detecting unit for calculating coordinate values of each pixel corresponding to the movement amount and detecting the detected coordinate value as an object region in the current frame,
The background extracting unit extracts,
The amount of movement of each pixel between the previous frame and the current frame is calculated, the movement amounts of the pixels are arranged in order of magnitude, the movement amount arranged in the order of magnitude is equally divided into a predetermined unit interval, And selecting an interval and calculating an average value of the movement amounts distributed in the selected interval as the average movement amount.
차량에 탑재된 차량용 객체 검출 장치를 이용한 객체 검출 방법에 있어서,
상기 차량 주행 중에 상기 차량의 주변 상황을 촬영하여 이전 프레임과 현재 프레임을 순차적으로 출력하는 과정
옵티컬 플로우 방식을 이용하여 모든 화소들에 대해 이전 프레임과 현재 프레임 사이에서의 평균 이동량를 계산하고, 계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 추출하는 과정; 및
상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 보상된 배경 프레임 간의 각 화소들의 이동량을 계산하고, 상기 차량 내의 전자 제어 유닛으로부터 제공되는 차량의 주행 속도값에 따라 임계치를 결정하고, 결정된 상기 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 과정;을 포함하되,
상기 현재 프레임의 배경 프레임으로 추출하는 과정에서 상기 평균 이동량을 계산하는 과정은,
이전 프레임과 현재 프레임 간의 각 화소들의 이동량를 계산하여, 상기 각 화소들의 이동량을 크기 순으로 배열하는 과정;
크기 순으로 배열된 이동량을 일정 단위의 구간으로 등분하고, 등분된 구간들 중 가장 많은 이동량이 분포한 구간을 선정하는 과정; 및
선정된 상기 구간 내에 분포한 이동량들의 평균치를 상기 평균 이동량으로 계산하는 과정을 포함하는 차량에 탑재된 차량용 객체 검출 장치를 이용한 객체 검출 방법.
A method of detecting an object using a vehicle object detecting apparatus mounted on a vehicle,
A step of photographing a surrounding situation of the vehicle during driving of the vehicle and successively outputting a previous frame and a current frame
Calculates an average movement amount between the previous frame and the current frame for all the pixels using the optical flow method, compensates the background movement amount of the background frame of the previous frame by the calculated average movement amount, Extracting a current frame as a background frame of the current frame; And
Calculating a movement amount of each pixel between the current frame and the compensated background frame using the optical flow method, determining a threshold value according to a running speed value of the vehicle provided from an electronic control unit in the vehicle, Calculating a coordinate value of each pixel corresponding to the movement amount and detecting the detected coordinate value as an object region in the current frame,
Wherein the step of calculating the average movement amount in the process of extracting the background frame of the current frame includes:
Calculating a movement amount of each pixel between a previous frame and a current frame, and arranging movement amounts of the pixels in order of magnitude;
A step of equally dividing the movement amount arranged in the order of magnitude into a predetermined unit interval, and selecting an interval in which the greatest amount of movement is distributed among the equally divided intervals; And
And calculating an average value of the movement amounts distributed in the predetermined interval as the average movement amount.
KR1020130166368A 2013-12-30 2013-12-30 Device for detecting object, device for detecting object for vehicle and method thereof KR101537559B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130166368A KR101537559B1 (en) 2013-12-30 2013-12-30 Device for detecting object, device for detecting object for vehicle and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130166368A KR101537559B1 (en) 2013-12-30 2013-12-30 Device for detecting object, device for detecting object for vehicle and method thereof

Publications (2)

Publication Number Publication Date
KR20150077654A KR20150077654A (en) 2015-07-08
KR101537559B1 true KR101537559B1 (en) 2015-07-20

Family

ID=53790364

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130166368A KR101537559B1 (en) 2013-12-30 2013-12-30 Device for detecting object, device for detecting object for vehicle and method thereof

Country Status (1)

Country Link
KR (1) KR101537559B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102015939B1 (en) * 2018-09-27 2019-08-28 주식회사 크라우드웍스 Method, apparatus and program for sampling a learning target frame image of video for image learning of artificial intelligence and image learning method thereof

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102474837B1 (en) * 2015-09-14 2022-12-07 주식회사 한화 Foreground area extracting method and apparatus
EP3290905B1 (en) * 2016-09-05 2022-10-19 F. Hoffmann-La Roche AG Signal offset determination and correction
KR102631964B1 (en) * 2016-11-23 2024-01-31 엘지이노텍 주식회사 Method, Apparatus, System, Program and Recording Medium for Analyzing Image using Vehicle Driving Information
KR102211541B1 (en) * 2019-01-16 2021-02-02 연세대학교 산학협력단 Apparatus and method for validating image data for learning
CN111753762B (en) 2020-06-28 2024-03-15 北京百度网讯科技有限公司 Method, device, equipment and storage medium for identifying key identification in video

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944681A (en) * 1995-08-01 1997-02-14 Matsushita Electric Ind Co Ltd Moving object area detector
KR20030087960A (en) * 2002-05-09 2003-11-15 마츠시타 덴끼 산교 가부시키가이샤 Monitoring device, monitoring method and program for monitoring

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944681A (en) * 1995-08-01 1997-02-14 Matsushita Electric Ind Co Ltd Moving object area detector
KR20030087960A (en) * 2002-05-09 2003-11-15 마츠시타 덴끼 산교 가부시키가이샤 Monitoring device, monitoring method and program for monitoring

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
방송공학회 논문 "객체 추적 카메라 제어를 위한 고속의 움직임 검출 및 추적 알고리즘" *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102015939B1 (en) * 2018-09-27 2019-08-28 주식회사 크라우드웍스 Method, apparatus and program for sampling a learning target frame image of video for image learning of artificial intelligence and image learning method thereof
WO2020067632A1 (en) * 2018-09-27 2020-04-02 주식회사 크라우드웍스 Method, apparatus, and program for sampling learning target frame image of video for ai image learning, and method of same image learning
US11295169B2 (en) 2018-09-27 2022-04-05 Crowdworks Inc. Method, device, and program for sampling frame image of object to be learned in video for artificial intelligence video learning, and image learning method thereof

Also Published As

Publication number Publication date
KR20150077654A (en) 2015-07-08

Similar Documents

Publication Publication Date Title
KR101537559B1 (en) Device for detecting object, device for detecting object for vehicle and method thereof
JP6439820B2 (en) Object identification method, object identification device, and classifier training method
KR101310213B1 (en) Method and apparatus for improving quality of depth image
KR102182695B1 (en) Method and Apparatus for Noise Reduction
KR101299237B1 (en) Apparatus and method for detecting object using PTZ camera
US9202263B2 (en) System and method for spatio video image enhancement
US20120019728A1 (en) Dynamic Illumination Compensation For Background Subtraction
US10867166B2 (en) Image processing apparatus, image processing system, and image processing method
EP2632160A1 (en) Method and apparatus for image processing
US11132538B2 (en) Image processing apparatus, image processing system, and image processing method
KR100953076B1 (en) Multi-view matching method and device using foreground/background separation
WO2008020598A1 (en) Subject number detecting device and subject number detecting method
WO2016021147A1 (en) Image processing system for detecting retention of moving body from image, image processing method, and recording medium
KR20110136152A (en) Apparatus and method of creating high dynamic range image empty ghost image by using filtering
KR20170038144A (en) Attention detection apparatus and attention detection method
US20110085026A1 (en) Detection method and detection system of moving object
US20160035107A1 (en) Moving object detection
JP2014110020A (en) Image processor, image processing method and image processing program
US9113142B2 (en) Method and device for providing temporally consistent disparity estimations
US20210049773A1 (en) Image-based target tracking
KR20140045834A (en) Method and apparatus for monitoring video for estimating size of single object
CN109313808B (en) Image processing system
Wong et al. Shared-use motion vector algorithm for moving objects detection for automobiles
US20160093062A1 (en) Method and apparatus for estimating absolute motion values in image sequences
KR101505360B1 (en) A disparity search range estimation apparatus and method

Legal Events

Date Code Title Description
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180627

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190708

Year of fee payment: 5