KR20130119741A - Apparatus and method for automatic detection of object from image taken by multiple color filter aperture camera - Google Patents

Apparatus and method for automatic detection of object from image taken by multiple color filter aperture camera Download PDF

Info

Publication number
KR20130119741A
KR20130119741A KR1020120042770A KR20120042770A KR20130119741A KR 20130119741 A KR20130119741 A KR 20130119741A KR 1020120042770 A KR1020120042770 A KR 1020120042770A KR 20120042770 A KR20120042770 A KR 20120042770A KR 20130119741 A KR20130119741 A KR 20130119741A
Authority
KR
South Korea
Prior art keywords
color
image frame
motion vector
background
distance information
Prior art date
Application number
KR1020120042770A
Other languages
Korean (ko)
Other versions
KR101371369B1 (en
Inventor
백준기
이승원
이정현
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020120042770A priority Critical patent/KR101371369B1/en
Priority to US14/376,770 priority patent/US20150029312A1/en
Priority to PCT/KR2012/009308 priority patent/WO2013125768A1/en
Publication of KR20130119741A publication Critical patent/KR20130119741A/en
Application granted granted Critical
Publication of KR101371369B1 publication Critical patent/KR101371369B1/en
Priority to US15/805,812 priority patent/US20180063511A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed is an automatic object detection device and method of an image photographed by a camera having a multiple color filter aperture. A background generation unit generates a background image frame by detecting movement from a current image frame of a plurality of temporally continuous image frames which are photographed by the camera having different color filters mounted on a plurality of openings formed in the aperture thereof. An object detection unit detects an object area based on the difference between each of color channels of current image frame and each of color channels of background image frame. According to the present invention, the object can be automatically detected by the background image frame which is repetitively renewed, and the information of object can be exactly estimated by reflecting characteristics of MCA camera to separately detect the object for each color channel. [Reference numerals] (110) Background generation unit;(120) Object detection unit;(130) Color moving vector estimation unit;(140) Distance information estimation unit

Description

다중 컬러 필터 조리개를 구비한 촬상 장치에 의해 촬영된 영상의 자동 객체 검출장치 및 방법{Apparatus and method for automatic detection of object from image taken by multiple color filter aperture camera}Apparatus and method for automatic detection of object from image taken by multiple color filter aperture camera}

본 발명은 다중 컬러 필터 조리개를 구비한 촬상 장치에 의해 촬영된 영상의 자동 객체 검출장치 및 방법에 관한 것으로, 보다 상세하게는, 서로 다른 색상의 복수의 컬러 필터가 설치된 조리개를 구비한 촬상 장치에 의해 촬영된 영상으로부터 객체 영역을 자동으로 검출하는 장치 및 방법에 관한 것이다.The present invention relates to an automatic object detecting apparatus and method for an image captured by an imaging device having a multi-color filter aperture, and more particularly, to an imaging apparatus having an aperture provided with a plurality of color filters of different colors. The present invention relates to an apparatus and a method for automatically detecting an object region from a captured image.

영상의 객체 검출 및 깊이 정보 추정은 보안 시스템, 지능형 교통 시스템, 3차원 기반 디지털 카메라 및 차량용 첨단 안전 시스템 등과 같은 비디오 분석 응용분야에 있어서 중요하며, 어려운 문제로 다루어지고 있다.Object detection and depth information estimation of images are important and difficult problems in video analysis applications such as security systems, intelligent traffic systems, three-dimensional digital cameras and advanced safety systems for vehicles.

일반적인 카메라에 의해 얻어지는 2차원 영상은 깊이 정보를 추정하기에 충분한 정보를 제공하지 못하므로, 3차원 깊이 정보의 추정에 관한 연구가 오랫동안 이루어져 왔다. 가장 일반적인 깊이 정보 추정 기법은 스테레오 비전과 같은 복수의 이미지 또는 명암, 초점 및 움직임과 같은 추가적인 신호를 사용하는 방법이다.Since a two-dimensional image obtained by a general camera does not provide enough information for estimating depth information, research on estimation of three-dimensional depth information has been made for a long time. The most common depth information estimation technique is to use a plurality of images such as stereo vision or additional signals such as contrast, focus and motion.

스테레오 매칭(Stereo matching)은 스테레오 카메라에 의해 생성된 양안 시차(binocular disparity)를 이용하는 깊이 정보 추정 방법이다. 이러한 방법은 많은 장점을 가짐에도 불구하고, 시간적 및 공간적으로 동기화된 두 대의 카메라에 의해 얻어진 동일 장면의 영상들을 필요로 한다는 근본적인 한계를 가진다.Stereo matching is a depth information estimation method that uses binocular disparity generated by a stereo camera. Although this method has many advantages, it has a fundamental limitation that it requires images of the same scene obtained by two cameras synchronized in time and space.

이러한 양안(binocular) 시스템의 대안으로서 단안(monocular) 시스템에 관한 연구도 진행되어 왔다. 초점 흐려짐(defocus)으로부터의 깊이 정보 추정은 단일 카메라 기반의 깊이 정보 추정 방법으로, 동일 장면에 대해 상이한 초점 설정으로 촬영된 영상들로부터 초점 흐려짐의 양을 측정하는 방법이다. 그러나 이러한 방법은 복수의 초점이 흐려진 영상들을 촬영하기 위해 카메라의 시각이 고정되어 있어야 하기 때문에 정지 사진에만 제한적으로 적용될 수 있다는 단점이 있다.As an alternative to such a binocular system, research on a monocular system has also been conducted. Depth information estimation from defocus is a method of estimating depth information based on a single camera, and is a method of measuring the amount of defocus from images captured at different focus settings for the same scene. However, this method has a disadvantage in that it can be applied only to still pictures because the camera's vision must be fixed to capture a plurality of defocused images.

최근에는 계산 카메라(computational camera)가 개발되어 기존의 디지털 카메라로부터 얻어질 수 없는 새로운 정보들을 얻을 수 있게 되었으며, 그에 따라 소비자 비디오 장비에 있어서 새로운 가능성들을 제공하게 되었다. 계산 카메라는 새로운 광학 및 계산의 조합을 사용하여 최종 영상을 생성하며, 이러한 카메라로 인하여 향상된 시야, 분광 해상도 증가 및 확대된 동적 범위 등과 같이 기존의 카메라로는 달성할 수 없었던 새로운 영상 기능들이 생겨나게 되었다.In recent years, computational cameras have been developed to provide new information that cannot be obtained from existing digital cameras, thereby providing new possibilities in consumer video equipment. Computational cameras use a combination of new optics and calculations to generate the final image, which has created new imaging features that traditional cameras could not achieve, such as improved field of view, increased spectral resolution, and increased dynamic range. .

한편, 복수의 컬러 필터가 설치된 조리개(Multiple Color-filter Aperture : MCA)를 사용하는 색상 이동 모델은 영상의 컬러 채널들 사이의 상대적인 이동 방향 및 이동량에 따라 카메라로부터 서로 다른 거리에 위치하는 객체들의 깊이 정보를 제공할 수 있다. 그런데 기존의 MCA 기반의 깊이 정보 추정 방법들은 객체의 깊이 정보를 추정하기 위해 사전에 영상에서 객체 부분을 수동으로 선택하는 과정을 필요로 한다.On the other hand, the color shift model using a multiple color filter aperture (MCA) installed with a plurality of color filters, the depth of the objects located at different distances from the camera depending on the relative movement direction and the amount of movement between the color channels of the image Information can be provided. However, existing MCA-based depth information estimation methods require a process of manually selecting an object part in an image in order to estimate depth information of an object.

한국공개특허 제2009-0083030호에는 서로 다른 색상의 복수의 컬러 필터가 설치된 조리개 장치 및 이러한 조리개 장치가 구비된 카메라에 의해 얻어진 영상에서 컬러 채널을 이동시킴으로써 영상의 초점을 복원하는 방법이 개시되어 있다. 이와 같이 영상의 초점 복원을 위해 사용되는 컬러 채널의 이동을 기반으로 영상에서 객체의 깊이 정보를 추정하되, 객체의 검출 역시 자동으로 수행할 수 있는 방법이 필요하다.Korean Patent Laid-Open Publication No. 2009-0083030 discloses an aperture device in which a plurality of color filters of different colors are installed, and a method of restoring the focus of an image by moving a color channel in an image obtained by a camera equipped with the aperture device. . As such, there is a need for a method of estimating depth information of an object in an image based on movement of a color channel used for focus reconstruction of an image, and automatically detecting an object.

본 발명이 이루고자 하는 기술적 과제는, 앞에서 설명한 바와 같이 컬러 채널의 이동 특성에 의해 초점이 복원되는 영상에서 객체를 자동으로 검출하고, 검출된 객체의 깊이 정보를 추정할 수 있는 다중 컬러 필터 조리개를 구비한 촬상 장치에 의해 촬영된 영상의 자동 객체 검출장치 및 방법을 제공하는 데 있다.The technical problem to be achieved by the present invention, as described above, is provided with a multi-color filter aperture that can automatically detect the object in the image is refocused by the movement characteristics of the color channel, and can estimate the depth information of the detected object An object and method for detecting an automatic object of an image photographed by an imaging device is provided.

본 발명이 이루고자 하는 다른 기술적 과제는, 앞에서 설명한 바와 같이 컬러 채널의 이동 특성에 의해 초점이 복원되는 영상에서 객체를 자동으로 검출하고, 검출된 객체의 깊이 정보를 추정할 수 있는 다중 컬러 필터 조리개를 구비한 촬상 장치에 의해 촬영된 영상의 자동 객체 검출방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다.Another technical problem to be solved by the present invention is to provide a multi-color filter aperture capable of automatically detecting an object in an image whose focus is restored by the movement characteristics of a color channel and estimating depth information of the detected object. The present invention provides a computer-readable recording medium having recorded thereon a program for executing an automatic object detection method of an image photographed by an imaging device.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 다중 컬러 필터 조리개를 구비한 촬상 장치에 의해 촬영된 영상의 자동 객체 검출장치는, 조리개에 형성된 복수의 개구부에 각각 상이한 컬러 필터가 설치된 촬상 장치에 의해 촬영되며, 시간적으로 연속하는 복수의 영상프레임 중 현재 영상프레임으로부터 움직임을 검출하여 상기 현재 영상프레임에 대응하는 배경 영상프레임을 생성하는 배경 생성부; 및 상기 현재 영상프레임의 복수의 컬러 채널 각각과 상기 배경 영상프레임의 복수의 컬러 채널 각각의 차분을 기초로 상기 현재 영상프레임에 포함된 객체영역을 검출하는 객체 검출부;를 구비한다.In order to achieve the above technical problem, an automatic object detecting apparatus for an image photographed by an imaging apparatus having a multi-color filter aperture according to the present invention is provided in an imaging apparatus in which different color filters are respectively provided in a plurality of openings formed in the aperture. A background generator configured to generate a background image frame corresponding to the current image frame by detecting a movement from the current image frame among a plurality of image frames that are photographed by time; And an object detector configured to detect an object area included in the current image frame based on a difference between each of the plurality of color channels of the current image frame and each of the plurality of color channels of the background image frame.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 다중 컬러 필터 조리개를 구비한 촬상 장치에 의해 촬영된 영상의 자동 객체 검출방법은, 조리개에 형성된 복수의 개구부에 각각 상이한 컬러 필터가 설치된 촬상 장치에 의해 촬영되며, 시간적으로 연속하는 복수의 영상프레임 중 현재 영상프레임으로부터 움직임을 검출하여 상기 현재 영상프레임에 대응하는 배경 영상프레임을 생성하는 배경 생성단계; 및 상기 현재 영상프레임의 복수의 컬러 채널 각각과 상기 배경 영상프레임의 복수의 컬러 채널 각각의 차분을 기초로 상기 현재 영상프레임에 포함된 객체영역을 검출하는 객체 검출단계;를 갖는다.In order to achieve the above technical problem, an automatic object detection method of an image photographed by an imaging device having a multi-color filter aperture according to the present invention is provided in an imaging apparatus in which different color filters are respectively provided in a plurality of openings formed in the aperture. A background generation step of generating a background image frame corresponding to the current image frame by detecting a movement from the current image frame among a plurality of image frames that are photographed by time; And an object detecting step of detecting an object region included in the current image frame based on a difference between each of the plurality of color channels of the current image frame and each of the plurality of color channels of the background image frame.

본 발명에 따른 다중 컬러 필터 조리개를 구비한 촬상 장치에 의해 촬영된 영상의 자동 객체 검출장치 및 방법에 의하면, 반복적으로 갱신되는 배경 영상프레임에 의해 자동으로 객체를 검출할 수 있으며, MCA 카메라의 특성을 반영하여 각 컬러 채널마다 별도로 객체를 검출함으로써 객체의 정보를 정확하게 추정할 수 있다. 또한 객체의 위치에 따라 상이한 색상 이동 벡터가 얻어지는 특성을 사용함으로써 카메라로부터 객체까지의 실제 거리 정보를 추정할 수 있다.According to the automatic object detection apparatus and method of the image photographed by the imaging device having a multi-color filter aperture according to the present invention, it is possible to automatically detect the object by the background image frame is repeatedly updated, the characteristics of the MCA camera By reflecting this, the object information can be accurately estimated by detecting the object separately for each color channel. In addition, it is possible to estimate the actual distance information from the camera to the object by using the property that a different color movement vector is obtained according to the position of the object.

도 1은 MCA 카메라의 구조를 도시한 도면,
도 2는 MCA 카메라로부터 객체의 거리에 따른 영상의 특징을 나타낸 도면,
도 3은 본 발명에 따른 다중 컬러 필터 조리개를 구비한 촬상 장치에 의해 촬영된 영상의 자동 객체 검출장치에 대한 바람직한 실시예의 구성을 도시한 블록도,
도 4는 본 발명에 의한 객체 검출의 일 실시예를 나타낸 도면,
도 5는 컬러 채널들 사이의 위치관계 및 색상 이동 벡터를 나타낸 도면,
도 6은 서로 다른 거리에 위치하는 두 객체를 MCA 카메라에 의해 촬영한 영상을 나타낸 도면,
도 7은 MCA 카메라로부터 17 내지 49 미터의 거리범위에서 객체를 이동시키면서 연속적으로 촬영하여 얻어진 영상을 나타낸 도면,
도 8은 연속적인 영상프레임마다 추정되는 색상 이동 벡터의 각 성분의 크기를 정규화하여 도시한 그래프,
도 9는 움직이는 복수의 객체가 포함된 영상 프레임으로부터 객체영역을 검출하고 거리 정보를 추정하는 실시예를 나타낸 도면, 그리고,
도 10은 본 발명에 따른 다중 컬러 필터 조리개를 구비한 촬상 장치에 의해 촬영된 영상의 자동 객체 검출방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도이다.
1 is a diagram illustrating a structure of an MCA camera;
2 is a view illustrating characteristics of an image according to a distance of an object from an MCA camera;
3 is a block diagram showing the configuration of a preferred embodiment of an automatic object detection apparatus for an image captured by an imaging apparatus having a multi-color filter aperture according to the present invention;
4 is a view showing an embodiment of object detection according to the present invention;
5 is a diagram illustrating a positional relationship and color shift vectors between color channels;
FIG. 6 is a diagram illustrating an image captured by an MCA camera of two objects located at different distances;
7 is a view showing an image obtained by continuously shooting while moving the object in the distance range of 17 to 49 meters from the MCA camera,
8 is a graph showing normalized magnitudes of components of a color shift vector estimated in successive image frames;
9 is a diagram illustrating an embodiment of detecting an object region and estimating distance information from an image frame including a plurality of moving objects;
10 is a flowchart illustrating a preferred embodiment of a method for automatically detecting an object of an image captured by an imaging device having a multi-color filter aperture according to the present invention.

이하에서 첨부된 도면들을 참조하여 본 발명에 따른 다중 컬러 필터 조리개를 구비한 촬상 장치에 의해 촬영된 영상의 자동 객체 검출장치 및 방법의 바람직한 실시예에 대해 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the automatic object detection apparatus and method of the image photographed by the imaging device having a multi-color filter aperture according to the present invention.

본 발명의 상세한 구성 및 동작을 설명하기 위하여, 먼저 본 발명의 배경이라 할 수 있는 다중 컬러 필터 조리개를 구비한 촬상 장치(이하, 'MCA 카메라'라 한다)의 원리에 관하여 설명한 후 본 발명의 동작을 각 구성요소별로 상세히 설명한다.In order to explain the detailed configuration and operation of the present invention, the operation of the present invention will first be described after explaining the principle of an imaging apparatus (hereinafter referred to as an "MCA camera") having a multi-color filter aperture which can be referred to as the background of the present invention. Will be described in detail for each component.

도 1은 MCA 카메라의 구조를 도시한 도면이다.1 is a diagram illustrating a structure of an MCA camera.

도 1을 참조하면, MCA 카메라의 렌즈 사이에 삽입되는 조리개에는 세 개의 개구부가 형성되어 있으며, 각각의 개구부에는 적색(R), 녹색(G) 및 청색(B)의 상이한 컬러 필터가 설치되어 있다. 또한 조리개는 세 개의 개구부 사이의 중심이 카메라의 광축과 일치하도록 구비된다.Referring to FIG. 1, three apertures are formed in the aperture inserted between the lenses of the MCA camera, and each aperture is provided with different color filters of red (R), green (G), and blue (B). . The aperture is also provided such that the center between the three openings coincides with the optical axis of the camera.

이러한 조리개의 각 개구부에 설치된 컬러 필터를 통과한 광은 렌즈와 객체 사이의 거리에 따라 카메라 센서의 서로 다른 위치에 결상되며, 객체가 카메라의 초점거리로부터 벗어난 지점에 위치하는 경우에는 얻어진 영상에서 색상 편차(color deviation)가 발생하게 된다.The light passing through the color filter installed in each opening of the aperture is formed at different positions of the camera sensor according to the distance between the lens and the object. When the object is located at a point away from the focal length of the camera, the color in the obtained image is obtained. Color deviation will occur.

도 2는 MCA 카메라로부터 객체의 거리에 따른 영상의 특징을 나타낸 도면으로, 도 2의 (a)는 객체가 카메라의 초점거리로부터 먼 지점에 위치하는 경우, (b)는 객체까지의 거리가 카메라의 초점거리와 일치하는 경우, 그리고 (c)는 객체가 카메라의 초점거리보다 가까운 지점에 위치하는 경우를 나타낸 것이다.FIG. 2 is a view showing characteristics of an image according to an object's distance from an MCA camera. FIG. 2 (a) shows when the object is located at a point far from the focal length of the camera. (C) shows the case where the object is located closer to the focal length of the camera.

도 2를 참조하면, (b)와 같이 객체의 위치가 카메라의 초점거리와 일치하는 경우에는 센서에 결상된 영상에서 색상 편차가 발생하지 않으나, 객체가 초점거리로부터 멀어지거나 가까워지면 도 2의 (a) 및 (c)와 같이 영상에서 각 컬러 채널들 사이에 어긋남이 발생하는 것을 확인할 수 있다. 따라서 하나의 영상이라 하더라도 각각의 컬러 채널에서 객체에 해당하는 영역의 위치에는 차이가 발생하게 된다.Referring to FIG. 2, when the position of the object coincides with the focal length of the camera as shown in (b), color deviation does not occur in the image formed by the sensor. However, when the object moves away from or close to the focal length, As shown in a) and (c), it can be seen that a deviation occurs between the respective color channels in the image. Therefore, even in one image, a difference occurs in the position of the region corresponding to the object in each color channel.

본 발명은 이와 같이 MCA 카메라에 의해 촬영된 영상에서 나타나는 색상 편차를 반영하여 영상으로부터 객체를 자동으로 검출하고, 또한 색상 편차의 정도를 기초로 MCA 카메라로부터 객체까지의 거리 정보를 추정하는 구성을 가진다.The present invention has a configuration that automatically detects the object from the image by reflecting the color deviation appearing in the image taken by the MCA camera, and also estimates the distance information from the MCA camera to the object based on the degree of color deviation. .

도 3은 본 발명에 따른 다중 컬러 필터 조리개를 구비한 촬상 장치에 의해 촬영된 영상의 자동 객체 검출장치에 대한 바람직한 실시예의 구성을 도시한 블록도이다.3 is a block diagram showing the configuration of a preferred embodiment of an automatic object detection apparatus for an image captured by an imaging apparatus with a multi-color filter aperture according to the present invention.

도 3을 참조하면, 본 발명에 따른 자동 객체 검출장치는, 배경 생성부(110), 객체 검출부(120), 색상 이동 벡터 추정부(130) 및 거리 정보 추정부(140)를 구비한다.Referring to FIG. 3, the automatic object detecting apparatus according to the present invention includes a background generating unit 110, an object detecting unit 120, a color motion vector estimating unit 130, and a distance information estimating unit 140.

배경 생성부(110)는 MCA 카메라에 의해 촬영되며 시간적으로 연속하는 복수의 영상프레임 중 현재 영상프레임으로부터 움직임을 검출하여 현재 영상프레임에 대응하는 배경 영상프레임을 생성한다. 즉, 본 발명에 따른 자동 객체 검출장치는 연속하는 복수의 영상프레임으로 이루어진 비디오 영상의 각 영상프레임마다 실시간으로 배경을 생성하고 객체를 검출할 수 있다.The background generator 110 detects a motion from a current video frame among a plurality of video frames that are photographed by an MCA camera and generate a background video frame corresponding to the current video frame. That is, the automatic object detecting apparatus according to the present invention may generate a background and detect an object in real time for each image frame of a video image composed of a plurality of consecutive image frames.

배경 생성부(110)는 현재 영상프레임에 대응하는 배경 영상프레임을 생성하기 위해 광류(optical flow)를 사용하여 현재 영상프레임의 움직임을 추정할 수 있다. 현재 영상프레임의 각 화소에 대응하는 광류 정보는 다음의 수학식 1과 같이 현재 영상프레임과 현재 영상프레임에 시간적으로 앞서는 이전 영상프레임 사이의 관계로부터 얻어질 수 있다.The background generator 110 may estimate the motion of the current image frame using optical flow to generate a background image frame corresponding to the current image frame. The optical flow information corresponding to each pixel of the current image frame may be obtained from a relationship between the current image frame and the previous image frame temporally preceding the current image frame as shown in Equation 1 below.

Figure pat00001
Figure pat00001

여기서, D(x,y)는 현재 영상프레임의 (x,y) 화소에 대응하는 광류 정보, ft는 현재 영상프레임, ft-1은 이전 영상프레임, (dx,dy)는 (x,y) 화소에서의 이동을 나타내며, D(x,y)를 최소화하는 값이다. 또한 수학식 1에서 탐색영역의 크기는 (2w+1)×(2w+1)과 같이 설정된다.Here, D (x, y) is the current video frame (x, y) optical flows corresponding to the pixel information, f t is the current image frame, f t-1 is the previous image frame, (d x, d y) is ( x, y) represents a shift in pixels, and minimizes D (x, y). In addition, in Equation 1, the size of the search area is set as (2w + 1) × (2w + 1).

현재 영상프레임의 (x,y) 화소에서의 광류 정보 D(x,y)의 값이 사전에 설정된 유클리드 거리 임계치보다 작으면 해당 화소는 배경에 속하는 것으로 결정되고, 배경 생성부(110)는 현재 영상프레임에서 이와 같이 배경에 속하는 것으로 결정된 화소들을 사용하여 이전 영상프레임에 대응하여 생성된 배경 영상프레임을 갱신한다.If the value of the optical flow information D (x, y) in the (x, y) pixel of the current image frame is smaller than a preset Euclidean distance threshold, the pixel is determined to belong to the background, and the background generator 110 The background image frame generated corresponding to the previous image frame is updated using the pixels determined to belong to the background in the image frame.

Figure pat00002
Figure pat00002

여기서, fB t 및 fB t-1은 각각 현재 영상프레임에 대응하는 배경 영상프레임 및 이전 영상프레임에 대응하는 배경 영상프레임을 나타내며, α는 [0,1]의 범위에서 사전에 설정되는 혼합비이다.Here, f B t and f B t-1 represent a background video frame corresponding to the current video frame and a background video frame corresponding to the previous video frame, respectively, and α is a mixture ratio preset in the range of [0,1]. to be.

객체 검출부(120)는 이와 같이 얻어진 현재 영상프레임의 배경 영상프레임과 현재 영상프레임 사이의 차분을 기초로 현재 영상프레임에 포함된 객체영역을 검출한다. 이때 기존 방법들에서는 객체 검출을 위해 영상프레임 사이의 차분만을 산출한 반면, 본 발명에 따른 자동 객체 검출장치의 객체 검출부(120)는 현재 영상프레임과 배경 영상프레임을 구성하는 복수의 컬러 채널 사이의 차분을 산출함으로써 현재 영상프레임의 각 컬러 채널별로 객체영역을 검출한다.The object detector 120 detects the object area included in the current image frame based on the difference between the background image frame and the current image frame of the current image frame. In this case, in the conventional methods, only the difference between image frames is calculated for object detection, whereas the object detector 120 of the automatic object detecting apparatus according to the present invention is configured between a plurality of color channels constituting the current image frame and the background image frame. By calculating the difference, the object region is detected for each color channel of the current video frame.

즉, 현재 영상프레임의 R 채널과 배경 영상프레임의 R 채널 사이의 차분을 산출하면 현재 영상프레임의 R 채널에 대응하는 객체영역이 얻어지며, G 채널 및 B 채널에 대하여도 동일한 과정에 의해 각각 객체영역이 얻어지게 된다. 이와 같이 영상프레임의 각 컬러 채널별로 객체영역을 검출함에 따라 도 2에 도시된 바와 같은 MCA 카메라의 특성, 즉 객체의 위치가 초점거리와 일치하지 않는 경우에 나타나는 색상 편차를 객체 검출 과정에 반영할 수 있다.That is, when the difference between the R channel of the current video frame and the R channel of the background video frame is calculated, an object region corresponding to the R channel of the current video frame is obtained. The area is obtained. As described above, as the object region is detected for each color channel of the image frame, the characteristics of the MCA camera as shown in FIG. 2, that is, the color deviation that appears when the position of the object does not match the focal length may be reflected in the object detection process. Can be.

구체적으로, 객체 검출부(120)는 다음의 수학식 3에 의해 현재 영상프레임으로부터 객체영역을 검출할 수 있다.In detail, the object detector 120 may detect the object region from the current image frame by Equation 3 below.

Figure pat00003
Figure pat00003

여기서, here,

fO c는 현재 영상프레임의 컬러 채널에 대응하는 이진영상으로, fO c에서 1의 값을 가지는 화소들이 해당 컬러 채널로부터 검출되는 객체영역을 나타낸다.f O c is a binary image corresponding to the color channel of the current image frame, and represents an object region in which pixels having a value of 1 in f O c are detected from the corresponding color channel.

객체 검출부(120)는 이상와 같이 객체영역을 검출한 후, 각각의 컬러 채널에서 서로 유사한 지점에 위치하는 객체영역은 동일 객체 모폴로지 필터(morphological filter)를 사용하여 추가적으로 노이즈 제거를 수행할 수 있다.After detecting the object region as described above, the object detector 120 may additionally remove noise by using the same object morphological filter on the object regions positioned at similar points in each color channel.

도 4는 본 발명에 의한 객체 검출의 일 실시예를 나타낸 도면으로, 도 4의 (a)는 현재 영상프레임, (b)는 현재 영상프레임에 대응하는 배경 영상프레임, (c)는 검출된 객체영역, 그리고 (d)는 객체영역에 마스크(mask)가 적용된 결과를 나타낸다.4 is a diagram illustrating an embodiment of object detection according to the present invention, in which (a) of FIG. 4 is a current image frame, (b) is a background image frame corresponding to the current image frame, and (c) is a detected object. Area, and (d) shows the result of applying a mask to the object area.

도 4의 (a)와 같이 현재 영상프레임에는 복수의 객체가 포함되어 있으며, 도 4의 (c)를 참조하면, 앞에서 설명한 바 있는 MCA 카메라로부터의 객체의 거리에 따른 색상 편차 특성에 의해 초점이 맞은 객체영역에서는 색상 편차가 나타나지 않으나, 초점이 맞지 않은 객체영역에서는 컬러 채널들 사이의 어긋남이 발생한 것을 확인할 수 있다.As shown in (a) of FIG. 4, a plurality of objects are included in the current image frame. Referring to FIG. 4 (c), the focal point is focused by the color deviation characteristic according to the distance of the object from the MCA camera described above. The color deviation does not appear in the right object area, but the deviation between the color channels occurs in the unfocused object area.

한편, 본 발명에 따른 자동 객체 검출장치는 객체 검출부(120)에 의해 검출된 객체영역에 포함된 색상 이동 정도를 사용하여 MCA 카메라로부터 해당 객체영역에 대응하는 객체까지의 거리 정보, 즉 깊이 정보를 추정할 수 있다.Meanwhile, the automatic object detecting apparatus according to the present invention uses the color shift degree included in the object region detected by the object detecting unit 120 to obtain distance information, that is, depth information from an MCA camera to an object corresponding to the object region. It can be estimated.

객체의 깊이 정보를 추정하기 위해서는 앞에서 설명한 바와 같이 컬러 채널들 사이의 어긋남이 발생한 객체영역에 대하여 채널 정렬 과정이 수행되어야 한다. 컬러 채널의 정렬 과정은 특정 컬러 채널(예를 들면, G 채널)을 중심으로 한 다른 컬러 채널(예를 들면, R 채널 및 B 채널)의 방향 및 거리 정보를 나타내는 색상 이동 벡터(Color Shift Vector : CSV)를 추정함으로써 수행될 수 있다.In order to estimate the depth information of the object, as described above, the channel alignment process should be performed on the object region where the color channel misalignment occurs. The alignment process of a color channel includes a color shift vector representing direction and distance information of another color channel (eg, R channel and B channel) about a specific color channel (eg, G channel). By estimating CSV).

도 5는 컬러 채널들 사이의 위치관계 및 색상 이동 벡터를 나타낸 도면이다. 도 5의 (a)에 도시된 바와 같이 MCA 카메라의 조리개에서 각각의 컬러 채널은 정삼각형의 각 꼭지점에 위치하며, 이러한 특성을 사용하면 객체의 깊이 정보를 추정하기 위한 계산량을 감소시키면서 정확하게 깊이 정보를 추정할 수 있다. 이하 설명하는 색상 이동 벡터 추정 및 객체까지의 거리 정보 추정 과정은 현재 영상프레임으로부터 복수의 객체영역이 검출될 경우에 각각의 객체영역에 대하여 별개로 수행된다.5 is a diagram illustrating a positional relationship and color shift vectors between color channels. As shown in (a) of FIG. 5, each color channel of the aperture of the MCA camera is located at each vertex of an equilateral triangle. Using this characteristic, depth information can be accurately obtained while reducing the amount of computation for estimating depth information of an object. It can be estimated. The color motion vector estimation and distance information estimation to the object described below are performed separately for each object region when a plurality of object regions are detected from the current image frame.

구체적으로, 복수의 객체영역 중 i번째 객체영역에서 G 채널을 중심으로 하는 R 채널과 B 채널의 색상 이동 벡터는 다음의 수학식 4와 같이 나타낼 수 있다.In detail, the color shift vector of the R channel and the B channel centering on the G channel in the i-th object area of the plurality of object areas may be expressed by Equation 4 below.

Figure pat00004
Figure pat00004

여기서,

Figure pat00005
Figure pat00006
은 각각 GB 채널(G 채널과 B 채널)에 대한 색상 이동 벡터 및 GR 채널(G 채널과 R 채널)에 대한 색상 이동 벡터를 나타낸다. 또한 도 5의 (a)와 같은 MCA 카메라의 특성으로 인해 수학식 4에 나타난 두 색상 이동 벡터는 다음의 수학식 5와 같은 관계를 가진다.here,
Figure pat00005
And
Figure pat00006
Denotes a color shift vector for the GB channel (G channel and B channel) and a color shift vector for the GR channel (G channel and R channel), respectively. In addition, due to the characteristics of the MCA camera as shown in (a) of FIG. 5, the two color shift vectors shown in Equation 4 have the same relationship as in Equation 5 below.

Figure pat00007
Figure pat00007

이때 색상 이동 벡터

Figure pat00008
Figure pat00009
은 다음 수학식 6의 2차 에러 함수를 최소화함으로써 추정될 수 있다.Color shift vector
Figure pat00008
And
Figure pat00009
Can be estimated by minimizing the quadratic error function of Equation 6 below.

Figure pat00010
Figure pat00010

여기서, EGB는 GB 채널의 색상 이동 벡터에 대응하는 에러 함수, EGR은 GR 채널의 색상 이동 벡터에 대응하는 에러 함수, 그리고 Ω는 객체영역을 나타낸다. 또한 수학식 6을 참조하면, GR 채널의 색상 이동 벡터에 대응하는 에러 함수는 앞에서 설명한 색상 이동 벡터 사이의 관계를 참조하여 GB 채널의 색상 이동 벡터로 나타낼 수 있다.Here, E GB represents an error function corresponding to the color shift vector of the GB channel, E GR represents an error function corresponding to the color shift vector of the GR channel, and Ω represents an object region. In addition, referring to Equation 6, an error function corresponding to the color shift vector of the GR channel may be represented by the color shift vector of the GB channel with reference to the relationship between the color shift vectors described above.

결과적으로, 수학식 6의 에러 함수는

Figure pat00011
의 비선형 함수이므로, 수학식 6을 최소화하는
Figure pat00012
를 찾기 위해 뉴튼-랩슨(Newton-Raphson) 알고리즘과 같은 반복 접근법을 사용할 수 있다.As a result, the error function of Equation 6
Figure pat00011
Since it is a nonlinear function of, minimizing
Figure pat00012
We can use an iterative approach such as the Newton-Raphson algorithm to find.

수학식 6의 에러 함수에 대한 1차 테일러 급수 추정은 다음의 수학식 7과 같이 나타낼 수 있다.The first order Taylor series estimation for the error function of Equation 6 may be expressed as Equation 7 below.

Figure pat00013
Figure pat00013

여기서, 컬러 채널

Figure pat00014
에 대하여,
Figure pat00015
와 같이 산출되며,
Figure pat00016
Figure pat00017
는 각각
Figure pat00018
의 수평 및 수직 방향 도함수이다.Where color channel
Figure pat00014
about,
Figure pat00015
Is calculated as
Figure pat00016
Wow
Figure pat00017
Respectively
Figure pat00018
Is the derivative of the horizontal and vertical directions.

또한 추정된 에러를 벡터 형태로 나타내면 다음의 수학식 8과 같다.In addition, when the estimated error is expressed in a vector form, the following Equation 8 is obtained.

Figure pat00019
Figure pat00019

여기서, s=ft이고,

Figure pat00020
,
Figure pat00021
Figure pat00022
와 같이 정의된다.Where s = f t ,
Figure pat00020
,
Figure pat00021
And
Figure pat00022
Respectively.

E(v)는 벡터 v의 2차함수이므로, 에러를 최소화하는 v는 다음의 수학식 9와 같이 에러함수를 v에 대해 미분한 결과를 0으로 만드는 값을 찾음으로써 얻어질 수 있다.E (v) because it is a quadratic function of the vector v, v that minimizes the error may be obtained by finding the value of making the results of the differential for the error function to v, as shown in the following equation (9) to zero.

Figure pat00023
Figure pat00023

수학식 9는 선형 방정식이므로, 최종적으로 벡터 v는 다음의 수학식 10과 같이 얻어질 수 있다.Since Equation 9 is a linear equation, the vector v can finally be obtained as in Equation 10 below.

Figure pat00024
Figure pat00024

여기서,

Figure pat00025
이고,
Figure pat00026
이다. 또한 검출된 객체영역의 크기가 충분히 크며 영상에 충분한 내용이 포함되어 있다면, 수학식 10에서 행렬 C는 역행렬이 존재하는 것으로 볼 수 있다.here,
Figure pat00025
ego,
Figure pat00026
to be. In addition, if the size of the detected object region is large enough and the image contains sufficient content, it can be seen that the matrix C in Equation 10 exists as an inverse matrix.

한편, 수학식 10은 MCA 카메라의 특성을 기초로 더욱 간소화될 수 있다. 만약 G 채널과 B 채널의 수평축이 동일하다면, 색상 이동 벡터의 수직 성분인

Figure pat00027
는 0이 된다. 따라서 벡터 v는 도 5의 (b)에 도시된 것과 같은 삼각 특성 및 조리개의 컬러 필터 사이의 각도를 사용하여 단일 파라미터
Figure pat00028
에 의해 표현될 수 있으며, 이는 다음의 수학식 11과 같다.On the other hand, Equation 10 may be further simplified based on the characteristics of the MCA camera. If the horizontal axes of the G and B channels are the same, the vertical component of the color shift vector
Figure pat00027
Becomes zero. Thus, the vector v is a single parameter using the angle between the triangular characteristic and the color filter of the aperture as shown in Fig. 5 (b).
Figure pat00028
It can be expressed by, which is represented by the following equation (11).

Figure pat00029
Figure pat00029

여기서,

Figure pat00030
,
Figure pat00031
이고,
Figure pat00032
이다.here,
Figure pat00030
,
Figure pat00031
ego,
Figure pat00032
to be.

수학식 11의 분자와 분모는 모두 1×1 행렬로서, 역행렬을 사용하지 않고 각각의 컬러 채널에 대응하여 추정된 색상 이동 벡터들의 결합인 최종 이동 벡터 v를 추정할 수 있다.The numerator and denominator of Equation 11 are all 1x1 matrices, and the final motion vector v which is a combination of estimated color motion vectors for each color channel can be estimated without using an inverse matrix.

도 6은 서로 다른 거리에 위치하는 두 객체를 MCA 카메라에 의해 촬영한 영상을 나타낸 도면이다. 도 6의 (a)는 영상에 포함된 두 객체(A, B)에 대하여 각각 추정되는 컬러 채널의 이동을 나타내고, (b) 및 (c)는 각각 A 객체 및 B 객체를 중심으로 컬러 채널이 정렬된 결과를 나타낸다.FIG. 6 is a diagram illustrating an image captured by an MCA camera of two objects located at different distances. (A) of FIG. 6 shows the movement of the estimated color channels with respect to the two objects A and B included in the image, and (b) and (c) show the color channels around the A and B objects, respectively. Shows sorted results.

도 6의 (b)에서 A 객체에 대응하는 영역에 대하여 추정된 최종 이동 벡터는

Figure pat00033
이며, 도 6의 (c)에서 B 객체에 대응하는 영역에 대하여 추정된 최종 이동 벡터는
Figure pat00034
이다. 이와 같이 A 객체와 B 객체가 MCA 카메라로부터 서로 다른 거리에 위치함에 따라 상이한 이동 벡터가 얻어지므로, A 객체와 B 객체 사이의 상대적인 거리를 추정하는 것이 가능하다.In FIG. 6B, the final motion vector estimated for the area corresponding to the A object is
Figure pat00033
In FIG. 6C, the final motion vector estimated for the region corresponding to the B object is
Figure pat00034
to be. In this way, since different motion vectors are obtained as the A and B objects are located at different distances from the MCA camera, it is possible to estimate the relative distance between the A and B objects.

본 발명에 따른 자동 객체 검출장치는 MCA 카메라로부터 객체까지의 절대적인 거리 정보를 추정하기 위해 거리 정보 추정부(140)를 더 구비할 수 있으며, 거리 정보 추정부(140)는 최종 이동 벡터 v의 크기 정보를 기초로 객체영역에 포함된 객체와 MCA 카메라 사이의 거리 정보를 추정한다.The automatic object detecting apparatus according to the present invention may further include a distance information estimator 140 for estimating absolute distance information from the MCA camera to the object, and the distance information estimator 140 may have a magnitude of the final motion vector v . The distance information between the object included in the object area and the MCA camera is estimated based on the information.

구체적으로, 사전에 객체까지의 거리와 컬러 채널의 이동량, 즉 이동 벡터의 크기 사이의 관계를 나타내는 변환 함수가 설정될 수 있다. 변환 함수는 MCA 카메라로부터 일정 거리마다 객체를 위치시킨 후 각 객체의 위치마다 객체가 포함된 동일 장면을 반복적으로 촬영하여 색상 이동 벡터를 추정함으로써 얻어질 수 있다.In detail, a conversion function may be set that indicates a relationship between the distance to the object and the movement amount of the color channel, that is, the magnitude of the movement vector. The transform function may be obtained by locating objects from a MCA camera at a predetermined distance, and then repeatedly capturing the same scene including the object at each position of each object to estimate a color shift vector.

도 7은 MCA 카메라로부터 17 내지 49 미터의 거리범위에서 객체를 이동시키면서 연속적으로 촬영하여 얻어진 영상을 나타낸 도면이다. 도 7의 (a) 내지 (c)는 각각 시간적으로 연속하여 얻어진 영상프레임들 중 30번째, 330번째, 660번째 영상프레임을 나타내며, (d) 내지 (f)는 (a) 내지 (c)의 영상프레임으로부터 검출된 객체영역에 대하여 컬러 채널 정렬을 수행한 결과를 나타낸 것이다.7 is a view showing an image obtained by continuously photographing while moving the object in the distance range of 17 to 49 meters from the MCA camera. (A) to (c) of FIG. 7 show the 30th, 330th, and 660th image frames, respectively, obtained sequentially in time, and (d) to (f) of (a) to (c). The color channel alignment is performed on the object region detected from the image frame.

이와 같은 컬러 채널 정렬 과정에서 색상 이동 벡터의 두 성분

Figure pat00035
Figure pat00036
가 추정될 수 있으며, 도 8은 연속적인 영상프레임마다 추정되는 색상 이동 벡터의 각 성분의 크기를 정규화하여 도시한 그래프이다. 도 8의 (a)는 영상프레임의 번호에 따른 색상 이동 벡터의 크기 정보를 도시한 것이고, (b)는 MCA 카메라로부터 객체까지의 거리에 따른 색상 이동 벡터의 크기 정보를 도시한 것이다.Two components of the color shift vector in this color channel alignment process
Figure pat00035
And
Figure pat00036
8 may be estimated. FIG. 8 is a graph showing normalized sizes of components of the color motion vector estimated for each successive image frame. FIG. 8 (a) shows size information of the color motion vector according to the number of the image frame, and (b) shows size information of the color motion vector according to the distance from the MCA camera to the object.

도 7 및 도 8의 (a)를 참조하면, 객체가 MCA 카메라의 초점위치(약 21미터)에 가까워질수록, 즉 영상프레임의 번호가 증가할수록 이동 벡터의 크기는 0으로 수렴하는 것을 확인할 수 있다. 객체가 초점위치를 지나쳐 MCA 카메라를 향해 접근하면 도 8의 (a)에 도시된 것과 같이 이동 벡터의 크기는 발산하게 된다. 또한 도 8의 (b)는 MCA 카메라로부터 객체까지의 거리를 1미터 단위로 양자화하여 이동 벡터의 크기를 나타낸 것이다.Referring to FIGS. 7 and 8 (a), it can be seen that as the object gets closer to the focal position (about 21 meters) of the MCA camera, that is, as the number of image frames increases, the magnitude of the motion vector converges to zero. have. When the object approaches the MCA camera past the focal position, the magnitude of the motion vector is diverged as shown in (a) of FIG. 8. 8 (b) shows the size of the motion vector by quantizing the distance from the MCA camera to the object in units of 1 meter.

거리 정보 추정부(140)는 도 8의 (b)와 같은 그래프가 사전에 구축되어 있을 경우, 현재 영상프레임으로부터 검출된 객체영역에 대응하는 이동 벡터의 크기 정보를 그래프에 대입하여 객체영역에 포함된 객체까지의 정확한 거리 정보를 추정할 수 있다.When the graph as shown in FIG. 8B is constructed in advance, the distance information estimator 140 substitutes the size information of the motion vector corresponding to the object region detected from the current image frame into the graph and includes it in the object region. Accurate distance information to the object can be estimated.

도 9는 움직이는 복수의 객체가 포함된 영상 프레임으로부터 객체영역을 검출하고 거리 정보를 추정하는 실시예를 나타낸 도면이다.9 is a diagram illustrating an embodiment of detecting an object region and estimating distance information from an image frame including a plurality of moving objects.

도 9의 (a)는 원본 영상의 각 영상프레임들을 나타낸 것이고, (b)는 각각의 영상프레임으로부터 객체영역이 검출된 결과, (c)는 각각의 객체영역에 대응하여 컬러 채널의 정렬 과정이 수행된 결과, 그리고 (d)는 각각의 객체영역에 대하여 거리 정보가 추정된 결과를 나타낸 것이다.(A) of FIG. 9 shows each image frame of the original image, (b) shows that the object region is detected from each image frame, and (c) shows that the color channel alignment process corresponds to each object region. (D) shows the result of the distance information is estimated for each object area.

도 9를 참조하면, 영상에 복수의 객체가 포함되어 있는 경우에도 각각의 객체에 대응하여 서로 다른 색상 이동 벡터가 추정되므로, 각각의 객체에 대하여 거리 정보를 추정할 수 있다.Referring to FIG. 9, even when a plurality of objects are included in an image, since different color motion vectors are estimated for each object, distance information may be estimated for each object.

도 10은 본 발명에 따른 다중 컬러 필터 조리개를 구비한 촬상 장치에 의해 촬영된 영상의 자동 객체 검출방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도이다.10 is a flowchart illustrating a preferred embodiment of a method for automatically detecting an object of an image captured by an imaging device having a multi-color filter aperture according to the present invention.

도 10을 참조하면, 배경 생성부(110)는 MCA 카메라에 의해 촬영된 연속하는 영상프레임들 중 현재 영상프레임으로부터 움직임을 검출하여 현재 영상프레임에 대응하는 배경 영상프레임을 생성한다(S1010). 또한 객체 검출부(120)는 현재 영상프레임의 복수의 컬러 채널 각각과 배경 영상프레임의 복수의 컬러 채널 각각의 차분을 기초로 현재 영상프레임에 포함된 객체영역을 검출한다(S1020). 이로써 본 발명은 영상프레임이 입력될 때마다 실시간으로 객체영역을 검출할 수 있으며, 이러한 과정은 사전에 객체 부분을 지정하지 않고 자동으로 수행될 수 있다.Referring to FIG. 10, the background generator 110 detects a motion from a current video frame among consecutive video frames captured by an MCA camera and generates a background video frame corresponding to the current video frame (S1010). In addition, the object detector 120 detects an object area included in the current image frame based on the difference between each of the plurality of color channels of the current image frame and each of the plurality of color channels of the background image frame (S1020). Accordingly, the present invention can detect the object region in real time whenever an image frame is input, and this process can be performed automatically without specifying the object part in advance.

더 나아가 색상 이동 벡터 추정부(130)는 현재 영상프레임의 각각의 컬러 채널로부터 검출된 객체영역들 사이의 이동 방향 및 거리를 나타내는 색상 이동 벡터를 추정하고, 각각의 컬러 채널에 대응하여 추정된 색상 이동 벡터들을 결합하여 객체영역에 대응하는 최종 이동 벡터를 산출한다(S1030).Furthermore, the color shift vector estimator 130 estimates a color shift vector representing a direction and distance of movement between object regions detected from each color channel of the current image frame, and estimates the color corresponding to each color channel. The final motion vector corresponding to the object region is calculated by combining the motion vectors (S1030).

또한 거리 정보 추정부(140)는 최종 이동 벡터의 크기 정보를 기초로 객체영역에 포함된 객체까지의 거리 정보를 추정할 수 있다(S1040). 이때 앞에서 설명한 바와 같이 사전에 이동 벡터의 크기와 거리 정보 사이의 변환 함수가 설정되어 있는 것이 바람직하다.In addition, the distance information estimator 140 may estimate distance information of the object included in the object region based on the size information of the final motion vector (S1040). In this case, as described above, it is preferable that a conversion function between the magnitude and the distance information of the motion vector is set in advance.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation in the embodiment in which said invention is directed. It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the scope of the appended claims.

110 - 배경 생성부
120 - 객체 검출부
130 - 색상 이동 벡터 추정부
140 - 거리 정보 추정부
110-background generator
120-object detector
130-color shift vector estimator
140-distance information estimator

Claims (13)

조리개에 형성된 복수의 개구부에 각각 상이한 컬러 필터가 설치된 촬상 장치에 의해 촬영되며, 시간적으로 연속하는 복수의 영상프레임 중 현재 영상프레임으로부터 움직임을 검출하여 상기 현재 영상프레임에 대응하는 배경 영상프레임을 생성하는 배경 생성부; 및
상기 현재 영상프레임의 복수의 컬러 채널 각각과 상기 배경 영상프레임의 복수의 컬러 채널 각각의 차분을 기초로 상기 현재 영상프레임에 포함된 객체영역을 검출하는 객체 검출부;를 포함하는 것을 특징으로 하는 자동 객체 검출장치.
The image capturing apparatus, which is photographed by a different color filter in each of the plurality of openings formed in the aperture, detects a motion from a current video frame among a plurality of video frames that are temporally continuous to generate a background video frame corresponding to the current video frame. A background generator; And
And an object detector configured to detect an object region included in the current image frame based on a difference between each of the plurality of color channels of the current image frame and each of the plurality of color channels of the background image frame. Detection device.
제 1항에 있어서,
상기 현재 영상프레임의 각각의 컬러 채널로부터 검출된 상기 객체영역들 사이의 이동 방향 및 거리를 나타내는 색상 이동 벡터를 추정하고, 상기 각각의 컬러 채널에 대응하여 추정된 색상 이동 벡터들을 결합하여 상기 객체영역에 대응하는 최종 이동 벡터를 산출하는 색상 이동 벡터 추정부; 및
상기 최종 이동 벡터의 크기 정보를 기초로 상기 객체영역에 포함된 객체와 상기 촬상 장치 사이의 거리 정보를 추정하는 거리 정보 추정부;를 더 포함하는 것을 특징으로 하는 자동 객체 검출장치.
The method of claim 1,
Estimating a color shift vector representing a direction and distance of movement between the object regions detected from each color channel of the current image frame, and combining the estimated color shift vectors corresponding to each color channel to the object region. A color motion vector estimator for calculating a final motion vector corresponding to the color shift vector; And
And a distance information estimator for estimating distance information between the object included in the object area and the image pickup device based on the size information of the final motion vector.
제 2항에 있어서,
상기 색상 이동 벡터 추정부는 상기 각각의 색상 이동 벡터에 의해 표현되는 상기 컬러 채널들 간의 편차를 나타내는 에러 함수를 최소화하는 벡터를 산출하여 상기 최종 이동 벡터로 결정하는 것을 특징으로 하는 자동 객체 검출장치.
3. The method of claim 2,
And the color motion vector estimator calculates a vector for minimizing an error function representing a deviation between the color channels represented by the color motion vectors and determines the final motion vector.
제 2항에 있어서,
상기 거리정보 추정부는 사전에 설정된 상기 최종 이동 벡터의 크기 정보와 상기 객체까지의 실제 거리 사이의 변환 함수를 기초로 상기 거리 정보를 추정하는 것을 특징으로 하는 자동 객체 검출장치.
3. The method of claim 2,
And the distance information estimating unit estimates the distance information based on a preset function of the magnitude information of the final motion vector and the actual distance to the object.
제 2항에 있어서,
상기 객체 검출부는 상기 현재 영상프레임으로부터 복수의 객체영역을 검출하며,
상기 색상 이동 벡터 추정부는 상기 복수의 객체영역 각각에 대응하는 최종 이동 벡터를 산출하고,
상기 거리 정보 추정부는 상기 복수의 객체영역 각각에 포함된 객체의 거리 정보를 추정하는 것을 특징으로 하는 자동 객체 검출장치.
3. The method of claim 2,
The object detector detects a plurality of object regions from the current image frame,
The color motion vector estimator calculates a final motion vector corresponding to each of the plurality of object regions,
The distance information estimating unit estimates distance information of an object included in each of the plurality of object areas.
제 1항 내지 제 5항 중 어느 한 항에 있어서,
상기 배경 생성부는 상기 현재 영상프레임의 화소들 중 움직임의 크기가 사전에 설정된 임계치보다 작은 화소들을 상기 현재 영상프레임에 시간적으로 앞서는 이전 영상프레임에 대응하는 배경 영상프레임에 추가하여 상기 배경 영상프레임을 갱신하는 것을 특징으로 하는 자동 객체 검출장치.
6. The method according to any one of claims 1 to 5,
The background generator updates the background image frame by adding pixels having a smaller motion size than a preset threshold among pixels of the current image frame to a background image frame corresponding to a previous image frame temporally preceding the current image frame. Automatic object detection apparatus characterized in that.
조리개에 형성된 복수의 개구부에 각각 상이한 컬러 필터가 설치된 촬상 장치에 의해 촬영되며, 시간적으로 연속하는 복수의 영상프레임 중 현재 영상프레임으로부터 움직임을 검출하여 상기 현재 영상프레임에 대응하는 배경 영상프레임을 생성하는 배경 생성단계; 및
상기 현재 영상프레임의 복수의 컬러 채널 각각과 상기 배경 영상프레임의 복수의 컬러 채널 각각의 차분을 기초로 상기 현재 영상프레임에 포함된 객체영역을 검출하는 객체 검출단계;를 포함하는 것을 특징으로 하는 자동 객체 검출방법.
The image capturing apparatus, which is photographed by a different color filter in each of the plurality of openings formed in the aperture, detects a motion from a current video frame among a plurality of video frames that are temporally continuous to generate a background video frame corresponding to the current video frame. Background generation step; And
And an object detecting step of detecting an object region included in the current image frame based on a difference between each of the plurality of color channels of the current image frame and each of the plurality of color channels of the background image frame. Object detection method.
제 7항에 있어서,
상기 현재 영상프레임의 각각의 컬러 채널로부터 검출된 상기 객체영역들 사이의 이동 방향 및 거리를 나타내는 색상 이동 벡터를 추정하고, 상기 각각의 컬러 채널에 대응하여 추정된 색상 이동 벡터들을 결합하여 상기 객체영역에 대응하는 최종 이동 벡터를 산출하는 색상 이동 벡터 추정단계; 및
상기 최종 이동 벡터의 크기 정보를 기초로 상기 객체영역에 포함된 객체와 상기 촬상 장치 사이의 거리 정보를 추정하는 거리 정보 추정단계;를 더 포함하는 것을 특징으로 하는 자동 객체 검출방법.
8. The method of claim 7,
Estimating a color shift vector representing a direction and distance of movement between the object regions detected from each color channel of the current image frame, and combining the estimated color shift vectors corresponding to each color channel to the object region. A color motion vector estimating step of calculating a final motion vector corresponding to; And
And a distance information estimating step of estimating distance information between the object included in the object area and the image pickup device based on the size information of the final motion vector.
제 8항에 있어서,
상기 색상 이동 벡터 추정단계에서, 상기 각각의 색상 이동 벡터에 의해 표현되는 상기 컬러 채널들 간의 편차를 나타내는 에러 함수를 최소화하는 벡터를 산출하여 상기 최종 이동 벡터로 결정하는 것을 특징으로 하는 자동 객체 검출방법.
The method of claim 8,
In the color motion vector estimation step, an automatic object detection method comprising determining a final motion vector by calculating a vector for minimizing an error function representing a deviation between the color channels represented by each color motion vector. .
제 8항에 있어서,
상기 거리정보 추정단계에서, 사전에 설정된 상기 최종 이동 벡터의 크기 정보와 상기 객체까지의 실제 거리 사이의 변환 함수를 기초로 상기 거리 정보를 추정하는 것을 특징으로 하는 자동 객체 검출방법.
The method of claim 8,
And in the distance information estimating step, estimating the distance information based on a predetermined conversion function between the size information of the final motion vector and the actual distance to the object.
제 8항에 있어서,
상기 객체 검출단계에서, 상기 현재 영상프레임으로부터 복수의 객체영역을 검출하며,
상기 색상 이동 벡터 추정단계에서, 상기 복수의 객체영역 각각에 대응하는 최종 이동 벡터를 산출하고,
상기 거리 정보 추정단계에서, 상기 복수의 객체영역 각각에 포함된 객체의 거리 정보를 추정하는 것을 특징으로 하는 자동 객체 검출방법.
The method of claim 8,
In the object detecting step, detecting a plurality of object areas from the current image frame,
In the color motion vector estimating step, a final motion vector corresponding to each of the plurality of object regions is calculated,
In the distance information estimation step, the automatic object detection method characterized in that for estimating the distance information of the object included in each of the plurality of object areas.
제 7항 내지 제 11항 중 어느 한 항에 있어서,
상기 배경 생성단계에서, 상기 현재 영상프레임의 화소들 중 움직임의 크기가 사전에 설정된 임계치보다 작은 화소들을 상기 현재 영상프레임에 시간적으로 앞서는 이전 영상프레임에 대응하는 배경 영상프레임에 추가하여 상기 배경 영상프레임을 갱신하는 것을 특징으로 하는 자동 객체 검출방법.
12. The method according to any one of claims 7 to 11,
In the background generating step, the background image frame is added by adding pixels having a motion size smaller than a preset threshold among pixels of the current image frame to a background image frame corresponding to a previous image frame temporally preceding the current image frame. Automatic object detection method characterized in that for updating.
제 7항 내지 제 11항 중 어느 한 항에 기재된 자동 객체 검출방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the automatic object detecting method according to any one of claims 7 to 11.
KR1020120042770A 2012-02-21 2012-04-24 Apparatus and method for automatic detection of object from image taken by multiple color filter aperture camera KR101371369B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020120042770A KR101371369B1 (en) 2012-04-24 2012-04-24 Apparatus and method for automatic detection of object from image taken by multiple color filter aperture camera
US14/376,770 US20150029312A1 (en) 2012-02-21 2012-11-07 Apparatus and method for detecting object automatically and estimating depth information of image captured by imaging device having multiple color-filter aperture
PCT/KR2012/009308 WO2013125768A1 (en) 2012-02-21 2012-11-07 Apparatus and method for automatically detecting object and depth information of image photographed by image pickup device having multiple color filter aperture
US15/805,812 US20180063511A1 (en) 2012-02-21 2017-11-07 Apparatus and method for detecting object automatically and estimating depth information of image captured by imaging device having multiple color-filter aperture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120042770A KR101371369B1 (en) 2012-04-24 2012-04-24 Apparatus and method for automatic detection of object from image taken by multiple color filter aperture camera

Publications (2)

Publication Number Publication Date
KR20130119741A true KR20130119741A (en) 2013-11-01
KR101371369B1 KR101371369B1 (en) 2014-03-12

Family

ID=49850665

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120042770A KR101371369B1 (en) 2012-02-21 2012-04-24 Apparatus and method for automatic detection of object from image taken by multiple color filter aperture camera

Country Status (1)

Country Link
KR (1) KR101371369B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4057623A4 (en) * 2019-11-12 2023-01-11 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Subject detection method and apparatus, electronic device, and computer-readable storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261828A (en) 1999-03-04 2000-09-22 Toshiba Corp Stereoscopic video image generating method
KR101051389B1 (en) * 2009-08-31 2011-07-22 주식회사 이미지넥스트 Adaptive background-based object detection and tracking device and method
KR101327228B1 (en) * 2009-11-11 2013-11-11 중앙대학교 산학협력단 Image pick-up device with an aperture estimating distance information of object

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4057623A4 (en) * 2019-11-12 2023-01-11 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Subject detection method and apparatus, electronic device, and computer-readable storage medium

Also Published As

Publication number Publication date
KR101371369B1 (en) 2014-03-12

Similar Documents

Publication Publication Date Title
US11665427B2 (en) Still image stabilization/optical image stabilization synchronization in multi-camera image capture
US20180063511A1 (en) Apparatus and method for detecting object automatically and estimating depth information of image captured by imaging device having multiple color-filter aperture
CN106412426B (en) Total focus camera and method
KR101824936B1 (en) Focus error estimation in images
US20070189750A1 (en) Method of and apparatus for simultaneously capturing and generating multiple blurred images
US8305485B2 (en) Digital camera with coded aperture rangefinder
KR101290197B1 (en) Apparatus and method for estimating depth information of image
US7941042B2 (en) Auto-focus method, medium, and apparatus for image-capturing
KR101125765B1 (en) Apparatus and method for registration between color channels based on depth information of image taken by multiple color filter aperture camera
US8836765B2 (en) Apparatus and method for generating a fully focused image by using a camera equipped with a multi-color filter aperture
KR101566619B1 (en) Apparatus and method for estimating distance using dual off-axis color filter aperture
JP2013127601A (en) Imaging apparatus
JP7378219B2 (en) Imaging device, image processing device, control method, and program
KR101327228B1 (en) Image pick-up device with an aperture estimating distance information of object
CN115760912A (en) Moving object tracking method, device, equipment and computer readable storage medium
CN105335959B (en) Imaging device quick focusing method and its equipment
TW201643391A (en) Method for determining the complex amplitude of the electromagnetic field associated to a scene
KR101371369B1 (en) Apparatus and method for automatic detection of object from image taken by multiple color filter aperture camera
JP2015207090A (en) Image processor, and control method thereof
CN107622514B (en) Autonomous calibration method for convex lens model of camera
KR101216668B1 (en) Apparatus and method for estimating object information of image taken by multiple color filter aperture camera
Teng et al. Single-shot 3D tracking based on polarization multiplexed Fourier-phase camera
Lee et al. Single camera-based full depth map estimation using color shifting property of a multiple color-filter aperture
JP7489253B2 (en) Depth map generating device and program thereof, and depth map generating system
CN109923585B (en) Method and apparatus for depth detection using stereoscopic image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170103

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171227

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181122

Year of fee payment: 6