KR100926520B1 - Apparatus and method of matching binocular/multi-view stereo using foreground/background separation and image segmentation - Google Patents

Apparatus and method of matching binocular/multi-view stereo using foreground/background separation and image segmentation Download PDF

Info

Publication number
KR100926520B1
KR100926520B1 KR1020070106174A KR20070106174A KR100926520B1 KR 100926520 B1 KR100926520 B1 KR 100926520B1 KR 1020070106174 A KR1020070106174 A KR 1020070106174A KR 20070106174 A KR20070106174 A KR 20070106174A KR 100926520 B1 KR100926520 B1 KR 100926520B1
Authority
KR
South Korea
Prior art keywords
binocular
image
background
area
disparity map
Prior art date
Application number
KR1020070106174A
Other languages
Korean (ko)
Other versions
KR20080052363A (en
Inventor
엄기문
김태원
허남호
김진웅
이수인
이상욱
장주용
김태훈
이경무
Original Assignee
한국전자통신연구원
재단법인서울대학교산학협력재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원, 재단법인서울대학교산학협력재단 filed Critical 한국전자통신연구원
Publication of KR20080052363A publication Critical patent/KR20080052363A/en
Application granted granted Critical
Publication of KR100926520B1 publication Critical patent/KR100926520B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Abstract

본 발명은 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치 및 그 방법에 관한 것으로, 영상 장치로부터 획득된 양안/다시점 영상을 객체 및 배경 영역으로 구분하고, 각 구분된 영역별로 양안/다시점 영상을 영상 분할하여 분할된 영역(Segment)을 기반으로 스테레오 정합함으로써, 차폐 영역에 의한 오정합을 줄일 수 있으며 그로 인해 더욱 정확한 변이지도를 얻을 수 있게 하는, 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치 및 그 방법을 제공하고자 한다.The present invention relates to a binocular / multi-view stereo matching apparatus and method using object / background separation and image segmentation. The present invention relates to a binocular / multi-view image obtained from an imaging apparatus, divided into an object and a background area, and to each divided area. By dividing binocular / multi-view images and stereo matching based on the segmented segment, object / background separation and image, which can reduce misalignment due to the shielding region, thereby obtaining a more accurate disparity map. An object of the present invention is to provide a binocular / multi-view stereo matching device using segmentation.

이를 위하여, 본 발명은 양안/다시점 영상의 영역을 객체 영역 및 배경 영역으로 각각 구분하여 판단하고, 상기 판단 결과에 따라 상기 양안/다시점 영상에 대한 객체 및 배경 분리 정보를 생성하기 위한 영역 판단 수단; 상기 양안/다시점 영상을 유사 영역별로 영상분할하고, 상기 영상분할된 양안/다시점 영상과 상기 생성된 객체 및 배경 분리 정보를 이용하여 객체 변이지도 및 배경 변이지도를 개별적으로 구하기 위한 변이 추정 수단; 및 상기 객체 변이지도와 상기 배경 변이지도를 합성하여 상기 양안/다시점 영상에 대한 장면 변이지도를 생성하기 위한 변이지도 합성 수단을 포함한다.To this end, the present invention divides the area of the binocular / multi-view image into an object area and a background area, respectively, and determines an area for generating object and background separation information for the binocular / multi-view image according to the determination result. Way; Disparity estimating means for dividing the binocular / multi-view image for each similar region and individually obtaining an object disparity map and a background disparity map by using the divided binocular / multi-view image and the generated object and background separation information ; And disparity map synthesizing means for synthesizing the object disparity map and the background disparity map to generate a scene disparity map for the binocular / multi-view image.

변이지도, 다시점 스테레오 정합, 양안 다시점 영상, 3차원 영상 처리, 차폐영역, 객체 영역, 배경 영역, 영상분할, 오정합, 세그먼트 기반 스테레오 정합 Disparity Map, Multiview Stereo Matching, Binocular Multiview Image, 3D Image Processing, Shielding Area, Object Area, Background Area, Image Segmentation, Mismatching, Segment Based Stereo Matching

Description

객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치 및 그 방법{APPARATUS AND METHOD OF MATCHING BINOCULAR/MULTI-VIEW STEREO USING FOREGROUND/BACKGROUND SEPARATION AND IMAGE SEGMENTATION}Binocular / Multi-view Stereo Matching Device Using Object / Background Separation and Image Segmentation and Its Method

본 발명은 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치 및 그 방법에 관한 것으로, 더욱 상세하게는 영상 장치로부터 획득된 양안/다시점 영상을 객체 및 배경 영역으로 구분하고, 각 구분된 영역별로 양안/다시점 영상을 영상 분할하여 분할된 영역(Segment)을 기반으로 스테레오 정합함으로써, 차폐 영역에 의한 오정합을 줄일 수 있으며 그로 인해 더욱 정확한 변이지도를 얻을 수 있게 하는, 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치 및 그 방법에 관한 것이다.The present invention relates to a binocular / multi-view stereo matching apparatus and method using object / background separation and image segmentation. More particularly, the present invention relates to a binocular / multi-view image obtained from an imaging apparatus. By dividing the binocular / multi-view image by the divided area and stereo matching based on the segment, the misalignment caused by the shielding area can be reduced, thereby making it possible to obtain more accurate disparity map. A binocular / multi-view stereo matching device using background separation and image segmentation and a method thereof are provided.

본 발명은 정보통신부 및 정보통신연구진흥원의 IT차세대핵심기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2005-S-403-02, 과제명: 지능형 통합정보방송(Smart TV)기술].The present invention is derived from the research conducted as part of the next generation core technology development project of the Ministry of Information and Communication and the Ministry of Information and Telecommunication Research and Development. [Task Management Number: 2005-S-403-02, Title: Intelligent Integrated Information Broadcasting (Smart TV) )Technology].

3차원 정보를 추출하는 다시점(스테레오) 영상 정합 기술은 로봇 운항이나 영상 기반 렌더링 또는 최근의 3차원 디스플레이 등의 분야를 위한 기반 기술로서 그 중요성이 부각되고 있다.Multi-view (stereo) image matching technology for extracting three-dimensional information is emerging as a foundation technology for the field of robot navigation, image-based rendering or the recent three-dimensional display.

다시점(양안) 영상 정합 기술의 핵심은 주어진 다시점(스테레오) 영상에 대한 변이지도를 생성하는 것이다. 변이란 주어진 두 영상 간에 대응하는 두 화소의 위치 차이를 의미한다. 일반적으로 스테레오(양안식) 영상에서는 주어진 두 영상이 카메라 보정 및 영상 보정되어 있다고 가정한다. 그리고 이러한 가정 속에서 대응점을 찾기 위한 변이 탐색 범위는 1차원의 에피폴라(Epipolar) 라인으로 제한된다. 하지만, 이러한 제한 조건에도 스테레오 영상을 정합할 때 이용되는 설정으로 인해 정확한 변이를 계산하지 못한다는 문제점이 있다.The key to multiview image matching is to generate a disparity map for a given multiview (stereo) image. The edge refers to a position difference between two pixels corresponding to two given images. In general, in a stereo (binocular) image, it is assumed that two given images are camera calibrated and image calibrated. And within this hypothesis, the range of variation search for finding the corresponding point is limited to the one-dimensional epipolar line. However, even in such a constraint, there is a problem in that it is not possible to calculate an accurate variation due to the setting used when matching stereo images.

종래의 다시점(양안) 정합 기법들은 크게 윈도우 기반의 국소적 방법과 에너지 최소화 기법을 사용하는 광역적 기법으로 나눌 수 있다. 국소적 방법은 수행 속도가 빠르다는 장점이 있으나 전체적인 변이지도의 오차가 크다는 단점이 있다. 또한, 광역적 기법은 속도는 상대적으로 느리지만 비교적 정확한 결과를 낼 수 있다는 장점을 가진다.Conventional multi-view (binocular) matching techniques can be largely divided into window-based local methods and global techniques using energy minimization techniques. The local method has the advantage of fast performance, but has the disadvantage that the error of the overall disparity map is large. In addition, the global technique has the advantage of being relatively slow but capable of producing relatively accurate results.

특히, 종래의 광역적 기법을 살펴보면, 종래의 광역적 기법에서의 비용 함수는 일반적으로 데이터 항과 평활화 항으로 이루어진다. 데이터 항은 모델링을 통해 두 화소 간의 컬러 또는 밝기가 얼마나 유사한가를 나타내는 항이고, 평활화 항은 모델링을 통해 복원하고자 하는 대상이 얼마나 평활한가를 나타내는 항이다.In particular, in the conventional global technique, the cost function in the conventional global technique generally consists of a data term and a smoothing term. The data term is a term indicating how similar the color or brightness is between two pixels through modeling, and the smoothing term is a term indicating how smooth the object to be restored through modeling is.

하지만, 이러한 종래의 광역적 기법에서의 일반적인 비용 함수에는 대상 객 체의 가리워짐(차폐)에 대한 효과가 반영되어 있지 않다. 종래의 스테레오 정합 기법들은 가리워짐(차폐)에 강인하지 않은 결과를 산출한다는 문제점이 있다. 또한, 최근 차폐 영역을 고려한 스테레오 정합 모델이 제안되고 있지만, 스테레오 정합에서 차폐 영역에 대한 문제를 완전히 해결하지 못하고 있어서 정확한 다시점(양안) 정합 결과를 얻기 곤란하다는 문제점이 있다.However, the general cost function in this conventional global technique does not reflect the effect on the shielding of the object. Conventional stereo matching techniques have the problem of producing a result that is not robust to masking (shielding). In addition, although a stereo matching model has recently been proposed in consideration of the shielding area, there is a problem that it is difficult to obtain an accurate multi-view (binocular) matching result because the problem of the shielding area in the stereo matching is not completely solved.

상기와 같이 종래의 다시점(양안) 영상 정합 기술은, 다시점(양안) 영상을 정합할 때 이용되는 설정으로 인해 정확한 변이를 계산하지 못한다는 문제점이 있다. 특히, 이러한 종래의 스테레오 영상 정합 기술 중 광역적 기법을 이용한 다시점(양안) 영상 정합 기술에서는, 대상 객체의 가리워짐(차폐)에 대한 효과가 반영되지 않아 가리워짐(차폐)에 강인하지 않은 결과를 산출한다는 문제점이 있으며, 이러한 문제점을 해결하고자 하는 것이 본 발명의 과제이다.As described above, the conventional multi-view (binocular) image matching technique has a problem that it is not possible to calculate the exact shift due to the setting used when matching the multi-view (binocular) image. In particular, in the conventional stereoscopic image matching technique, the multi-view (binocular) image matching technique using the global technique does not reflect the effect of the masking (shielding) of the target object, and thus is not robust to the masking (shielding). There is a problem that calculates the problem, and to solve this problem is an object of the present invention.

따라서 본 발명은 영상 장치로부터 획득된 양안/다시점 영상을 객체 및 배경 영역으로 구분하고, 각 구분된 영역별로 양안/다시점 영상을 영상 분할하여 분할된 영역(Segment)을 기반으로 스테레오 정합함으로써, 차폐 영역에 의한 오정합을 줄일 수 있으며 그로 인해 더욱 정확한 변이지도를 얻을 수 있게 하는, 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치 및 그 방법을 제공하는데 그 목적이 있다.Accordingly, the present invention divides the binocular / multi-view image obtained from the imaging apparatus into an object and a background area, and performs stereo matching based on the segmented by dividing the binocular / multi-view image by each divided area. It is an object of the present invention to provide a binocular / multi-view stereo matching device and method using object / background separation and image segmentation, which can reduce mismatching due to a shielding area and thereby obtain a more accurate disparity map.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention which are not mentioned above can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.

본 발명은 상기 문제점을 해결하기 위하여 제안된 것으로, 영상 장치로부터 획득된 양안/다시점 영상을 객체 및 배경 영역으로 구분하고, 각 구분된 영역별로 양안/다시점 영상을 영상 분할하여 분할된 영역(Segment)을 기반으로 스테레오 정합하는 것을 특징으로 한다.The present invention has been proposed in order to solve the above problem, and divided the binocular / multi-view image obtained from the imaging device into an object and a background area, and divided the image by dividing the binocular / multi-view image for each divided area ( Segment) is characterized in that the stereo matching.

더욱 구체적으로, 본 발명의 장치는, 양안/다시점 영상의 영역을 객체 영역 및 배경 영역으로 각각 구분하여 판단하고, 상기 판단 결과에 따라 상기 양안/다시점 영상에 대한 객체 및 배경 분리 정보를 생성하기 위한 영역 판단 수단; 상기 양안/다시점 영상을 유사 영역별로 영상분할하고, 상기 영상분할된 양안/다시점 영상과 상기 생성된 객체 및 배경 분리 정보를 이용하여 객체 변이지도 및 배경 변이지도를 개별적으로 구하기 위한 변이 추정 수단; 및 상기 객체 변이지도와 상기 배경 변이지도를 합성하여 상기 양안/다시점 영상에 대한 장면 변이지도를 생성하기 위한 변이지도 합성 수단을 포함한다.More specifically, the apparatus of the present invention divides the area of the binocular / multi-view image into an object area and a background area, respectively, and determines the object and background separation information for the binocular / multi-view image according to the determination result. Area determining means for performing; Disparity estimating means for dividing the binocular / multi-view image for each similar region and individually obtaining an object disparity map and a background disparity map by using the divided binocular / multi-view image and the generated object and background separation information ; And disparity map synthesizing means for synthesizing the object disparity map and the background disparity map to generate a scene disparity map for the binocular / multi-view image.

또한, 상기 본 발명의 장치는, 외부의 영상 장치로부터 양안/다시점 영상을 획득하기 위한 다시점 영상 획득 수단; 상기 획득된 양안/다시점 영상에 대한 카메라 보정을 통해 카메라 정보 및 기반 행렬 데이터를 계산하기 위한 카메라정보 추출 수단; 및 상기 변이지도 합성 수단에서 생성된 장면 변이지도를 저장하기 위한 변이지도 저장 수단을 더 포함한다.In addition, the apparatus of the present invention, the multi-view image acquisition means for obtaining a binocular / multi-view image from an external imaging device; Camera information extracting means for calculating camera information and base matrix data through camera correction on the obtained binocular / multiview image; And variation map storage means for storing the scene variation map generated by the variation map synthesizing means.

한편, 본 발명의 방법은, 양안/다시점 영상의 영역을 객체 영역 및 배경 영역으로 각각 구분하여 판단하고, 상기 판단 결과에 따라 상기 양안/다시점 영상에 대한 객체 및 배경 분리 정보를 생성하는 영역 판단 단계; 상기 양안/다시점 영상을 유사 영역별로 영상분할하고, 상기 영상분할된 양안/다시점 영상과 상기 생성된 객체 및 배경 분리 정보를 이용하여 객체 변이지도 및 배경 변이지도를 개별적으로 구하는 변이 추정 단계; 및 상기 객체 변이지도와 상기 배경 변이지도를 합성하여 상기 양안/다시점 영상에 대한 장면 변이지도를 생성하는 변이지도 합성 단계를 포함한다.Meanwhile, in the method of the present invention, an area of the binocular / multi-view image is divided into an object area and a background area, respectively, and is determined. Determination step; A variation estimating step of dividing the binocular / multi-view image for each similar region and separately obtaining an object disparity map and a background disparity map using the divided binocular / multi-view image and the generated object and background separation information; And synthesizing the object disparity map and the background disparity map to generate a scene disparity map for the binocular / multi-view image.

또한, 상기 본 발명의 방법은, 상기 양안/다시점 영상에 대한 카메라 보정을 통해 카메라 정보 및 기반 행렬 데이터를 계산하는 카메라정보 추출 단계를 더 포함한다.The method may further include a camera information extracting step of calculating camera information and base matrix data through camera correction for the binocular / multi-view image.

상기와 같은 본 발명은, 영상 장치로부터 획득된 양안/다시점 영상을 객체 및 배경 영역으로 구분하고, 각 구분된 영역별로 양안/다시점 영상을 영상 분할하여 분할된 영역(Segment)을 기반으로 스테레오 정합함으로써, 차폐 영역에 의한 오 정합을 줄일 수 있는 효과가 있다.As described above, the present invention divides the binocular / multi-view image obtained from the imaging apparatus into an object and a background area, and divides the binocular / multi-view image for each divided area into an image based stereo segment. Matching has an effect of reducing mismatching caused by the shielding area.

더 나아가, 본 발명은, 차폐 영역에 의한 오정합을 줄이고 그로 인해 객체 및 배경 경계에서 더욱 정확한 변이지도를 얻을 수 있게 하는 효과가 있다.Furthermore, the present invention has the effect of reducing mismatch by the shielding area and thereby obtaining a more accurate disparity map at the object and background boundary.

또한, 본 발명은, 객체 및 배경 영역에 대한 변이지도를 개별적으로 구함으로써, 스테레오 정합의 수행시간을 단축할 수 있는 효과가 있다.In addition, the present invention has an effect of reducing the execution time of stereo matching by separately obtaining the disparity maps for the object and the background area.

상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되어 있는 상세한 설명을 통하여 보다 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다.The above objects, features, and advantages will become more apparent from the detailed description given hereinafter with reference to the accompanying drawings, and accordingly, those skilled in the art to which the present invention pertains may share the technical idea of the present invention. It will be easy to implement. In addition, in describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1 은 본 발명에 따른 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치의 일실시예 구성도이다.1 is a diagram illustrating an embodiment of a binocular / multi-view stereo matching device using object / background separation and image segmentation according to the present invention.

도 1에 도시된 바와 같이, 본 발명에 따른 양안/다시점 스테레오 정합 장치(100)는 양안/다시점 영상 획득부(110), 카메라정보 추출부(120), 영역 판단부(130), 변이 추정부(140), 변이지도 합성부(150), 및 변이지도 저장부(160)를 포함한다.As shown in FIG. 1, the binocular / multi-view stereo matching device 100 according to the present invention includes a binocular / multi-view image acquisition unit 110, a camera information extractor 120, an area determination unit 130, and variation. The estimation unit 140, the variation map synthesizing unit 150, and the variation map storage unit 160 are included.

상기 양안/다시점 영상 획득부(110)는 복수의 비디오 카메라(다시점 카메라)로부터 동일 시각의 양안/다시점 영상을 각각 획득한다. 즉, 양안/다시점 영상 획득부(110)는 비디오 카메라 1로부터는 제1 시점 영상, 비디오 카메라 2로부터는 제2 시점 영상, 및 비디오 카메라 3으로부터는 제3 시점 영상을 각각 획득하고, 획득된 다시점 영상의 동기를 맞추어 저장한다. 여기서, 양안/다시점 영상은 객체가 없는 배경 영상과, 배경 영상에 객체가 있는 장면 영상을 포함한다.The binocular / multi-view image acquisition unit 110 obtains binocular / multi-view images of the same time from a plurality of video cameras (multi-view cameras), respectively. That is, the binocular / multiview image acquisition unit 110 obtains a first viewpoint image from the video camera 1, a second viewpoint image from the video camera 2, and a third viewpoint image from the video camera 3, respectively, Store and synchronize the multi-view images. Here, the binocular / multi-view image includes a background image without an object and a scene image with an object in the background image.

그리고 카메라정보 추출부(120)는 양안/다시점 영상 획득부(110)에서 획득된 다시점 영상에 대한 카메라 보정(Calibration) 과정을 통해, 초점거리 등의 카메라 정보 및 각 시점 간의 상호 위치관계를 나타내는 기반 행렬(Fundamental matrix)을 계산한다. 이때, 구해진 카메라 정보 및 기반 행렬 데이터는 데이터 저장장치 또는 컴퓨터 메모리(도면에 도시되지 않음) 상에 저장된 후, 변이지도 변환 등에 이용된다.In addition, the camera information extracting unit 120 performs a camera calibration process on the multi-view image acquired by the binocular / multi-view image obtaining unit 110, and displays the camera information such as the focal length and the mutual positional relationship between each viewpoint. Compute the fundamental matrix represented. At this time, the obtained camera information and the base matrix data are stored on a data storage device or a computer memory (not shown), and then used for transforming the disparity map.

한편, 객체와 배경 영역에 대한 변이지도를 생성하는 과정을 살펴보면, 먼저 분리된 배경 영역의 변이지도를 생성하기 위해 객체가 제외된 배경 영상만을 이용하여 배경 영역의 변이지도를 사전에 계산한다. 그리고 객체 영역의 변이지도를 생성하기 위해서 객체 영역의 화소들에 대해서만 스테레오 정합 기법을 적용하여 수행 시간을 줄인다. 이후, 배경 영역의 변이지도와 객체 영역의 변이지도를 합성하여 최종적으로 장면 변이지도를 얻어낸다.Meanwhile, referring to a process of generating a disparity map of an object and a background area, first, in order to generate a disparity map of a separated background area, a disparity map of a background area is calculated in advance using only a background image from which an object is excluded. In order to generate the disparity map of the object region, the stereo matching technique is applied only to the pixels of the object region to reduce the execution time. Thereafter, the disparity map of the background area and the disparity map of the object area are synthesized to finally obtain a scene disparity map.

이하, 전술한 객체와 배경 영역의 분리 과정 및 변이지도 생성 과정을 상세하게 살펴보면 다음과 같다.Hereinafter, a process of separating the object and the background region and generating the disparity map will be described in detail.

영역 판단부(130)는 카메라정보 추출부(120)에서 카메라 보정된 양안/다시점 영상의 영역을 객체 영역 및 배경 영역으로 각각 구분하여 판단하고, 그 판단 결과에 따라 양안/다시점 영상의 영역에 대한 객체 및 배경 분리 정보를 생성한다. 즉, 영역 판단부(130)는 객체/배경 분리 기법을 이용하여 시간에 따라 컬러나 밝기 변화가 적은 배경 영역과, 시간에 따라 컬러나 밝기 변화가 큰 객체 영역으로 분리한다. 그리고 영역 판단부(130)는 분리된 객체 영역과 배경 영역에 대한 객체 및 배경 분리 정보를 생성한다. 영역 판단부(130)의 상세 구성요소는 도 2를 참조하여 상세하게 후술하기로 한다. 일례로, 영역 판단부(130)는 카메라정보 추출부(120)에서 카메라 보정된 다시점 영상이 3 시점 이상이면, 다시점 영상 중 임의의 영상과 인접한 나머지 영상 중 하나의 영상을 하나의 영상 쌍으로 정하고, 각 영상 쌍마다 객체 영역 및 배경 영역으로 각각 구분할 수 있다.The area determiner 130 determines the area of the binocular / multiview image corrected by the camera by the camera information extractor 120 into an object area and a background area, respectively, and determines the area of the binocular / multiview image according to the determination result. Create object and background separation information for. That is, the area determiner 130 separates the background area having a small color or brightness change with time and the object area having a large color or brightness change with time using an object / background separation technique. The region determiner 130 generates object and background separation information about the separated object region and the background region. Detailed components of the area determination unit 130 will be described later in detail with reference to FIG. 2. For example, if the multiview image corrected by the camera by the camera information extractor 120 is three or more views, the area determination unit 130 may select one image pair from one of the remaining images adjacent to the random image among the multiview images and one image pair. Each image pair may be divided into an object region and a background region.

이후, 변이 추정부(140)는 영역 판단부(130)로부터 전달된 양안/다시점 영상을 유사 영역별로 영상분할한다. 그리고 변이 추정부(140)는 영상분할된 양안/다시점 영상과 객체 및 배경 분리 정보를 이용하여 개별적으로 변이지도를 추정한다. 즉, 변이 추정부(140)는 배경 영상을 이용하여 배경 영역에 대한 변이지도(배경 변이지도)를 추정하고, 장면 영상과 객체 및 배경 분리 정보를 이용하여 객체 영역에 대한 변이지도(객체 변이지도)를 추정한다.Thereafter, the variation estimator 140 splits the binocular / multi-view image transmitted from the region determiner 130 for each similar region. The disparity estimator 140 estimates the disparity map individually by using the image-divided binocular / multi-view image and the object and the background separation information. That is, the variation estimator 140 estimates a variation map (background variation map) for the background region using the background image, and a variation map (object variation map) for the object region using the scene image and the object and the background separation information. ) Is estimated.

그리고 변이지도 합성부(150)는 변이 추정부(140)에서 추정된 배경 변이지도와 객체 변이지도를 합성하여 최종 장면 영상에 대한 변이지도(장면 변이지도)를 생성한다.The disparity map synthesis unit 150 generates a disparity map (scene disparity map) for the final scene image by synthesizing the background disparity map and the object disparity map estimated by the disparity estimator 140.

그리고 변이지도 저장부(160)는 변이지도 합성부(150)에서 각 화소에 대해 생성된 장면 변이지도를 저장한다. 이때, 변이지도 저장부(160)는 변이지도 형태의 디지털 영상으로 저장할 수 있다. 이후, 장면 변이지도는 카메라정보 추출부(120)에서 구한 카메라 정보를 이용하여 3차원 점 구름이나 3차원 모델로 변환될 수 있다.The variation map storage unit 160 stores the scene variation map generated for each pixel in the variation map synthesis unit 150. In this case, the variation map storage unit 160 may store the variation map as a digital image. Thereafter, the scene variation map may be converted into a 3D point cloud or a 3D model using camera information obtained by the camera information extractor 120.

도 2 는 본 발명에 따른 도 1의 영역 판단부의 일실시예 상세 구성도이다.FIG. 2 is a detailed block diagram of an embodiment of the area determiner of FIG. 1 according to the present invention. FIG.

도 2에 도시된 바와 같이, 영역 판단부(130)는 분포모델 추정부(21), 영역 분류부(22), 혼합 분포모델 추정부(23), 및 객체 및 배경 영역 판단부(24)를 포함한다. 영역 판단부(130)는 전술한 대로 객체/배경 분리 기법을 이용하여 주어진 영상을 시간에 따라 컬러나 밝기 변화가 적은 배경 영역과, 시간에 따라 컬러나 밝기 변화가 큰 객체 영역으로 분리한다.As shown in FIG. 2, the region determiner 130 may include a distribution model estimator 21, a region classifier 22, a mixed distribution model estimator 23, and an object and background region determiner 24. Include. As described above, the area determiner 130 separates a given image into a background area having a small color or brightness change with time and an object area having a large color or brightness change with time using the object / background separation technique.

도 2를 참조하여 상세하게 살펴보면, 분포모델 추정부(21)는 양안/다시점 영상 중 물체가 제외된 배경 영상을 이용하여 각 화소의 컬러 또는 밝기에 대한 분포모델(예를 들면, 가우시안(Gaussian) 모델)을 추정한다. 이때, 배경 영상은 양안/다시점 획득부(110)에서 미리 획득되거나 기저장된 배경 영상일 수 있다. 여기서, 가우시안 모델(Gaussian Model)은 하기의 [수학식 1]과 같이 정의된다.Referring to FIG. 2, the distribution model estimator 21 uses a background image in which the object is excluded from the binocular / multi-view image to determine a distribution model of color or brightness of each pixel (eg, Gaussian). ) Model). In this case, the background image may be a background image previously obtained or pre-stored by the binocular / backview acquirer 110. Here, the Gaussian model is defined as in Equation 1 below.

Figure 112007075385515-pat00001
Figure 112007075385515-pat00001

그리고 영역 분류부(22)는 양안/다시점 영상의 각 화소에 대한 색상발생확률을 계산한다. 즉, 영역 분류부(22)는 상기의 [수학식 1]과 같이 추정된 가우시안 모델을 이용하여 양안/다시점 영상의 각 화소에 대해서 컬러 또는 밝기가 나올 확률을 계산한다. 그리고 영역 분류부(22)는 계산된 색상발생확률과 미리 정의된 임계범위와의 비교에 따라 그 화소를 배경, 객체 또는 아직 결정되지 않은 화소로 분류한다.The area classifier 22 calculates a color generation probability for each pixel of the binocular / backview image. That is, the area classifier 22 calculates the probability of color or brightness of each pixel of the binocular / multiview image using the Gaussian model estimated as in Equation 1 above. The area classifier 22 classifies the pixel as a background, an object, or an undetermined pixel according to a comparison between the calculated color generation probability and a predefined threshold range.

이어서, 혼합 분포모델 추정부(23)는 영역 분류부(22)에서 분류된 배경 또는 객체에 속한 화소들의 컬러 값을 이용하여 배경과 객체에 대한 가우시안 믹스쳐(Gaussian Mixture) 모델(가우시안 혼합 모델)을 추정한다. 가우시안 믹스쳐 모델은 하기의 [수학식 2]와 같이 정의된다.Subsequently, the mixed distribution model estimator 23 uses a Gaussian Mixture model (Gaussian mixed model) for the background and the object by using color values of pixels belonging to the background or the object classified by the area classifier 22. Estimate The Gaussian mixture model is defined as in Equation 2 below.

Figure 112007075385515-pat00002
Figure 112007075385515-pat00002

여기서,

Figure 112007075385515-pat00003
는 상기의 [수학식 1]과 같이 정의된 가우시안 모델을 나타낸다.
Figure 112007075385515-pat00004
는 각각의 가우시안 모델의 가중치를 나타내는 변수로서,
Figure 112007075385515-pat00005
을 만족시킨다.here,
Figure 112007075385515-pat00003
Denotes a Gaussian model defined as in Equation 1 above.
Figure 112007075385515-pat00004
Is a variable representing the weight of each Gaussian model.
Figure 112007075385515-pat00005
Satisfies

그리고 객체 및 배경 영역 판단부(24)는 혼합 분포모델 추정부(23)에서 추정 된 배경과 객체에 대한 가우시안 믹스쳐 모델과 평활화 구속조건을 결합하여 하기의 [수학식 3]과 같은 에너지 함수를 정의한다.The object and background region determiner 24 combines a Gaussian mixture model and smoothing constraints for the background and the object estimated by the mixed distribution model estimator 23 to form an energy function as shown in Equation 3 below. define.

Figure 112007075385515-pat00006
Figure 112007075385515-pat00006

여기서,

Figure 112007075385515-pat00007
는 에너지 함수,
Figure 112007075385515-pat00008
는 객체 및 배경 영역을 나타내는 함수,
Figure 112007075385515-pat00009
는 각각 추정된 배경에 대한 가우시안 믹스쳐 모델,
Figure 112007075385515-pat00010
는 각각 추정된 객체에 대한 가우시안 믹스쳐 모델을 나타낸다.
Figure 112007075385515-pat00011
는 두 인자가 서로 다른 값을 가질 때에는 1, 같은 값을 가질 때에는 0의 값을 가지는 함수로서 평활화 구속조건을 나타낸다. 한편, 상기의 [수학식 3]과 같이 정의된 에너지 함수를 최적화하는 기법으로 그래프 컷(Graph cut) 기법이 적용될 수 있다.here,
Figure 112007075385515-pat00007
Is an energy function,
Figure 112007075385515-pat00008
Is a function representing the object and background area,
Figure 112007075385515-pat00009
Is a Gaussian mix model for each estimated background,
Figure 112007075385515-pat00010
Represents a Gaussian mixture model for each estimated object.
Figure 112007075385515-pat00011
Is a function that has a value of 1 when two arguments have different values, and a value of 0 when they have the same value, indicating a smoothing constraint. Meanwhile, a graph cut technique may be applied as a technique for optimizing an energy function defined as in Equation 3 above.

이어서, 객체 및 배경 영역 판단부(24)는 정의된 에너지 함수를 이용하여 객체 영역 또는 배경 영역으로 판단하고 판단 결과에 따라 객체 및 배경 분리 정보를 생성한다. 즉, 객체 및 배경 영역 판단부(24)는 상기 [수학식 3]의 에너지 함수가 최소화되도록 에너지를 반복적으로 계산하여 객체 영역 또는 배경 영역 중 최소값에 수렴하는 영역으로 판단한다. 일례로, 객체 및 배경 영역 판단부(24)는 판단하고자 하는 영역 또는 화소를 임의로 객체 또는 배경 영역으로 가정한다. 그리고 객 체 및 배경 영역 판단부(24)는 가정된 영역별로 구한 에너지 함수의 최소값을 영역별로 비교하여 더 낮은 값을 가지는 객체 또는 배경 영역 중 어느 하나의 영역으로 판단한다.Subsequently, the object and background region determiner 24 determines the object region or the background region using the defined energy function and generates the object and background separation information according to the determination result. That is, the object and background region determiner 24 repeatedly calculates energy to minimize the energy function of Equation 3 and determines that the object and background region are converged to the minimum value of the object region or the background region. For example, the object and background region determiner 24 arbitrarily assumes an area or a pixel to be determined as an object or a background region. The object and background region determiner 24 compares the minimum value of the energy function obtained for each of the hypothesized regions for each region and determines that the object and the background region are any one of an object or a background region having a lower value.

다음으로, 변이 추정부(140)는 전술한 객체 및 배경 분리 정보를 이용하여 객체와 배경 영역에 대한 변이지도를 별도로 추정한다.Next, the disparity estimator 140 separately estimates the disparity map of the object and the background area by using the aforementioned object and background separation information.

도 3 은 본 발명에 따른 도 1의 변이 추정부의 일실시예 상세 구성도이다.3 is a detailed block diagram of an embodiment of the variation estimator of FIG. 1 according to the present invention.

도 3에 도시된 바와 같이, 변이 추정부(140)는 영상분할부(31), 평면 계수 추출부(32), 에너지 함수 계산부(33), 및 변이지도 생성부(34)를 포함한다.As illustrated in FIG. 3, the disparity estimator 140 includes an image splitter 31, a plane coefficient extractor 32, an energy function calculator 33, and a disparity map generator 34.

먼저, 영상분할부(31)는 객체 및 배경 영역 판단부(24)에서 생성된 객체 및 배경 분리 정보에 따라 객체 영역 또는 배경 영역으로 구분된, 양안/다시점 영상을 유사 영역 단위인 세그먼트 단위로 영상 분할한다. 예를 들어, 이러한 영상분할 알고리즘에는 "D. Comaniciu"에 의해서 2002년에 발행된 "Mean Shift: A Robust Approach Toward Feature Space Analysis, PAMI"에 상세히 기술되어 있는 평균 이동 알고리즘 등이 사용될 수 있다.First, the image divider 31 divides the binocular / multi-view image, which is divided into an object region or a background region according to the object and background separation information generated by the object and background region determiner 24, into a segment unit that is a similar region unit. Split the image. For example, the image segmentation algorithm may use an average shift algorithm described in detail in "Mean Shift: A Robust Approach Toward Feature Space Analysis, PAMI" published in 2002 by "D. Comaniciu".

다음으로, 평면 계수 추출부(32)는 영상분할부(31)에서 영상 분할된 각각의 세그먼트에 대한 평면 계수를 추출한다.Next, the plane coefficient extractor 32 extracts a plane coefficient for each segment of the image segmented by the image divider 31.

평면 계수 추출 과정을 상세하게 살펴보면, 평면 계수 추출부(32)는 3×3 윈도우 내에서 SSD(Sum of Squared Difference) 등 유사도 계산 함수를 이용하여 초기 변이지도를 추정한다. 그리고 평면 계수 추출부(32)는 각각의 세그먼트별로 반복적 계산 방법을 사용하여 평면 계수를 계산한다. 이때, 평면 계수 추출부(32)는 각각의 반복 과정마다 좌우 변이의 상호 비교(cross check)를 통해 얻어진 신뢰성 있는 변이 값들만을 이용하며, 큰 세그먼트에 대해서만 평면 계수 추정을 시행할 수 있다. 이러한 강인한 평면 계수 추출 방법으로는 "H. Tao"에 의해서 2001년에 발행된 "A global matching framework for stereo computation, ICCV"에 발표된 논문에서 사용된 기법이 사용될 수 있다.Looking at the plane coefficient extraction process in detail, the plane coefficient extractor 32 estimates the initial disparity map using a similarity calculation function such as a sum of squared difference (SSD) within a 3 × 3 window. The plane coefficient extracting unit 32 calculates the plane coefficient by using an iterative calculation method for each segment. In this case, the plane coefficient extractor 32 uses only reliable disparity values obtained through cross checks of the left and right sides of each repetition process, and may perform plane coefficient estimation only for a large segment. This robust planar coefficient extraction method can be used in the paper published in "A global matching framework for stereo computation (ICCV)" published in 2001 by "H. Tao".

그리고 에너지 함수 계산부(33)는 평면 계수 추출부(32)에서 추출된 평면 계수들을 이용하여 차폐 영역으로 인해 가리워진 화소의 제거를 위한 하기의 [수학식 4]와 같은 세그먼트별 에너지 함수를 정의한다.In addition, the energy function calculation unit 33 defines an energy function for each segment as shown in Equation 4 below to remove the pixels hidden by the shielding area by using the plane coefficients extracted by the plane coefficient extraction unit 32. do.

Figure 112007075385515-pat00012
Figure 112007075385515-pat00012

여기서,

Figure 112007075385515-pat00013
는 데이터 항,
Figure 112007075385515-pat00014
는 평활화 항,
Figure 112007075385515-pat00015
는 가리워짐 항을 나타낸다.here,
Figure 112007075385515-pat00013
Is the data term,
Figure 112007075385515-pat00014
Smoothing term,
Figure 112007075385515-pat00015
Indicates a hidden term.

에너지 함수 계산부(33)는 이러한 에너지 함수를 이용하여 세그먼트 단위로 정합을 수행한다. 또한, 에너지 함수 계산부(33)는 변이의 단위로 기존의 변이 라벨이 아닌 평면 계수 추출부(32)에서 추출된 평면 계수를 이용한다. The energy function calculation unit 33 performs matching on a segment basis by using this energy function. In addition, the energy function calculation unit 33 uses the plane coefficient extracted from the plane coefficient extraction unit 32 instead of the existing variation label as the unit of the variation.

여기서, 에너지 함수를 살펴보면, 첫 번째 항은 데이터 항으로서 대응하는 화소들의 컬러가 얼마나 유사한지를 나타낸다. 두 번째 항은 평활화 항으로서 하기 의 [수학식 5]와 같은 포츠 모델이 사용된다.Here, looking at the energy function, the first term indicates how similar the colors of the corresponding pixels are as data terms. The second term is a smoothing term, and a Pots model such as Equation 5 below is used.

Figure 112007075385515-pat00016
Figure 112007075385515-pat00016

여기서,

Figure 112007075385515-pat00017
,
Figure 112007075385515-pat00018
는 서로 인접한 세그먼트의 평면 계수,
Figure 112007075385515-pat00019
는 두 세그먼트 사이의 공통된 경계 길이를 나타낸다.here,
Figure 112007075385515-pat00017
,
Figure 112007075385515-pat00018
Is the plane coefficient of adjacent segments,
Figure 112007075385515-pat00019
Denotes a common boundary length between two segments.

일반적인 평활화 항과 다르게 상기 [수학식 5]는 인접한 세그먼트의 평면 계수가 다를 때(

Figure 112007075385515-pat00020
), 두 세그먼트 사이의 공통된 경계 길이(
Figure 112007075385515-pat00021
)에 비례하는 에너지 값을 부과한다.Unlike the general smoothing term, Equation 5 is different when the plane coefficients of adjacent segments are different (
Figure 112007075385515-pat00020
), The common boundary length between two segments (
Figure 112007075385515-pat00021
Impose an energy value proportional to

마지막 항은 가리워짐 항으로서,

Figure 112007075385515-pat00022
는 세그먼트
Figure 112007075385515-pat00023
Figure 112007075385515-pat00024
사이의 모든 가리워진 화소들의 데이터 항의 합을 나타낸다. 가리워진 화소들은 평면 계수
Figure 112007075385515-pat00025
,
Figure 112007075385515-pat00026
를 사용하여 그에 대응하는 각각의 세그먼트
Figure 112007075385515-pat00027
Figure 112007075385515-pat00028
를 워핑함으로써 얻어질 수 있으며, 이는 도 7에 나타나 있다. 즉, 에너지 함수는 데이터 항, 평활화 항, 및 차폐 영역으로 인해 가리워진 화소에 대한 가리워짐 항을 포함한다. 여기서, 에너지 함수에서의 가리워짐 항은 가리워진 화소들의 중복되는 데이터 항을 제거하는 기능을 수행한다. 이는 차폐 영역에 강인한 스테레오 정합 기법을 적용하기 위함이다.The last term is the hidden term,
Figure 112007075385515-pat00022
Is a segment
Figure 112007075385515-pat00023
Wow
Figure 112007075385515-pat00024
It represents the sum of the data terms of all hidden pixels in between. Hidden pixels are plane coefficients
Figure 112007075385515-pat00025
,
Figure 112007075385515-pat00026
Each segment corresponding to it using
Figure 112007075385515-pat00027
Wow
Figure 112007075385515-pat00028
Can be obtained by warping, which is shown in FIG. That is, the energy function includes a data term, a smoothing term, and a hidden term for the pixel that is hidden due to the shielding area. Here, the hidden term in the energy function serves to remove the overlapping data term of the hidden pixels. This is to apply a robust stereo matching technique to the shielding area.

변이 추정부(140)의 변이지도 생성부(34)는 상기의 [수학식 5]에 정의된 에너지 함수를 이용하여 객체 및 배경 영역에 대한 변이지도를 개별적으로 생성한다. 즉, 변이지도 생성부(34)는 에너지 함수가 최소화되는 에너지 함수 파라미터(예를 들면, 평면 계수)를 이용하여 객체 영역 및 배경 영역별로 변이지도를 각각 생성한다. 예를 들어, 변이지도 생성부(34)는 마르코프 랜덤 필드(Markov Random Field)를 이용한 추론 기법인 신뢰도 확산 기법 등을 이용하여 에너지 함수를 최소화시킬 수 있다.The disparity map generator 34 of the disparity estimator 140 individually generates disparity maps for the object and the background area by using the energy function defined in Equation 5 above. That is, the disparity map generator 34 generates a disparity map for each object region and background region by using an energy function parameter (for example, plane coefficient) in which the energy function is minimized. For example, the variation map generator 34 may minimize an energy function by using a reliability diffusion technique, which is an inference technique using a Markov Random Field.

도 4 는 본 발명에 따른 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 방법에 대한 일실시예 흐름도이다.4 is a flowchart illustrating a binocular / multi-view stereo matching method using object / background separation and image segmentation according to the present invention.

먼저, 양안/다시점 영상 획득부(110)는 복수의 비디오카메라(양안/다시점 카메라)로부터 동일 시각에 대한 양안/다시점 영상을 획득한다(402).First, the binocular / multi-view image acquisition unit 110 acquires the binocular / multi-view image for the same time from a plurality of video cameras (binocular / multi-view camera) (402).

그리고 양안/다시점 영상 획득부(110)는 획득된 양안/다시점 영상의 동기를 맞추어 저장한다(404).The binocular / multiview image acquisition unit 110 synchronizes and stores the obtained binocular / multiview image in operation 404.

이어서, 카메라정보 추출부(120)는 양안/다시점 영상 획득부(110)에서 획득된 양안/다시점 영상을 이용하여 카메라 보정(calibration) 과정을 통해 초점거리 등의 카메라 정보 및 각 시점 간의 상호 위치관계를 나타내는 기반 행렬(Fundamental matrix)을 계산한다(406).Subsequently, the camera information extracting unit 120 uses the binocular / multiview image acquired by the binocular / multiview image obtaining unit 110 to perform camera calibration such as focal length and mutual information between each viewpoint through a camera calibration process. A fundamental matrix representing a positional relationship is calculated (406).

이후, 영역 판단부(130)는 양안/다시점 영상의 영역을 객체 영역 및 배경 영역으로 각각 구분하여 판단하고 판단 결과에 따라 양안/다시점 영상의 영역에 대한 객체 및 배경 분리 정보를 생성한다(408). 즉, 영역 판단부(130)는 객체 및 배경 분리 기법을 이용하여 양안/다시점 영상을 시간에 따라 컬러나 밝기 변화가 적은 배경 영역과 시간에 따라 컬러나 밝기 변화가 큰 객체 영역으로 분리하고, 분리 결과는 객체 및 배경 분리 정보라 한다.Subsequently, the area determining unit 130 classifies the area of the binocular / multi-view image into the object area and the background area, respectively, and generates object and background separation information on the area of the binocular / multi-view image according to the determination result ( 408). That is, the area determiner 130 separates the binocular / multi-view image into a background area having a small color or brightness change with time and an object area having a large color or brightness change with time using an object and background separation technique. The separation result is called object and background separation information.

그리고 변이 추정부(140)는 객체 영역 및 배경 영역으로 구분된 양안/다시점 영상을 유사 영역별로 영상 분할하고, 양안/다시점 영상과 객체 및 배경 분리 정보를 이용하여 영상 분할된 객체 영역에 대한 객체 변이지도 및 배경 영역에 대한 배경 변이지도를 개별적으로 구한다(410).The disparity estimator 140 splits the binocular / multi-view image divided into the object area and the background area for each similar area, and uses the binocular / multi-view image and the object and the background separation information on the image segmented object area. In operation 410, the object disparity map and the background disparity map for the background region are separately obtained.

이어서, 변이지도 합성부(150)는 객체 변이지도와 배경 변이지도를 합성하여 양안/다시점 영상에 대한 장면 변이지도를 생성한다. 즉, 변이지도 합성부(150)는 추정된 배경 영역에 대한 변이지도와 객체 영역에 대한 변이지도를 합성하여 최종 장면에 대한 변이지도를 생성한다(412).Subsequently, the disparity map synthesis unit 150 synthesizes the object disparity map and the background disparity map to generate a scene disparity map for the binocular / multiview image. That is, the variation map synthesis unit 150 generates a variation map for the final scene by synthesizing the variation map for the estimated background region and the variation map for the object region (412).

각 화소에 대해 계산된 최종 변이는 변이지도 형태의 디지털 영상으로 저장된다. 이 변이지도는 카메라 정보를 이용하여 3차원 점 구름이나 3차원 모델로 변환될 수 있다.The final variation calculated for each pixel is stored as a digital image in the form of a disparity map. The disparity map can be converted into a 3D point cloud or a 3D model using camera information.

도 5 는 본 발명에 따른 가우시안 모델을 이용한 영역 판단 방법에 대한 일실시예 상세 흐름도이다.FIG. 5 is a detailed flowchart illustrating an area determination method using a Gaussian model according to the present invention. FIG.

먼저, 분포모델 추정부(21)는 객체가 제외된 기저장된 배경 영상을 획득한다(502). 이때, 배경 영상은 양안/다시점 영상 획득부(110)에서 미리 획득될 수 있다.First, the distribution model estimator 21 acquires a pre-stored background image from which an object is excluded (502). In this case, the background image may be acquired in advance by the binocular / backview image acquirer 110.

그리고 분포모델 추정부(21)는 배경 영상에 대한 각 화소의 컬러 혹은 밝기 에 대한 가우시안(Gaussian) 모델을 상기의 [수학식 1]과 같이 추정한다(504).The distribution model estimator 21 estimates a Gaussian model for the color or brightness of each pixel of the background image as shown in Equation 1 (504).

영역 분류부(22)는 상기의 [수학식 1]과 같이 추정된 가우시안 모델을 이용하여, 객체가 포함된 입력 영상이 주어졌을 때 각 화소에 대해서 그러한 컬러 혹은 밝기가 나올 확률을 계산한다. 그리고 영역 분류부(22)는 계산된 확률 값에 따라 각 화소를 배경, 객체, 또는 아직 결정되지 않은 화소로 분류한다(506).The area classifier 22 calculates a probability that such color or brightness occurs for each pixel when an input image including an object is given using a Gaussian model estimated as shown in Equation 1 above. The area classifier 22 classifies each pixel into a background, an object, or a pixel that has not yet been determined according to the calculated probability value (506).

그리고 혼합 분포모델 추정부(23)는 분류된 배경 또는 객체에 속한 화소들의 컬러 값을 이용하여 배경과 객체에 대한 가우시안 믹스쳐(Gaussian Mixture) 모델을 상기의 [수학식 2]와 같이 추정한다(508).The mixed distribution model estimator 23 estimates a Gaussian Mixture model for the background and the object using the color values of the pixels belonging to the classified background or the object as shown in Equation 2 above. 508).

객체 및 배경 영역 판단부(24)는 전술한 바와 같이 추정된 가우시안 믹스쳐 모델을 사용하여 정의된 에너지 함수를 이용하여 객체 영역 또는 배경 영역으로 판단하고 판단 결과에 따라 객체 및 배경 분리 정보를 생성한다(510).The object and background region determiner 24 determines the object region or the background region using an energy function defined using the estimated Gaussian mixture model as described above, and generates the object and background separation information according to the determination result. (510).

도 6 은 본 발명에 따른 에너지 함수를 이용한 변이지도 생성 방법에 대한 일실시예 상세 흐름도이다.6 is a detailed flowchart of an embodiment of a method for generating a disparity map using an energy function according to the present invention.

영상분할부(31)는 객체 및 배경 분리 정보에 따라 각각 구분된 객체 영역 및 배경 영역별로 컬러가 유사한 영역인 세그먼트 단위로 영상분할한다(602).The image splitter 31 divides the image into segments based on the object and the background separated by the object and the background separation information.

평면 계수 추출부(32)는 "602" 과정에서 나누어진 영상분할 결과를 이용하여 초기 변이 및 각각의 컬러 세그먼트에 대한 평면 계수를 추출한다(604).The plane coefficient extractor 32 extracts an initial variation and a plane coefficient for each color segment by using the image segmentation result divided in step 602 (604).

에너지 함수 계산부(33)는 추출된 평면 계수들을 이용하여 상기의 [수학식 4]와 같은 에너지 함수를 정의한다(606).The energy function calculator 33 defines an energy function as shown in Equation 4 above using the extracted plane coefficients (606).

그리고 변이지도 생성부(34)는 정의된 에너지 함수를 이용하여 객체 영역 및 배경 영역에 대한 변이지도를 개별적으로 생성한다(608).The disparity map generator 34 generates disparity maps for the object region and the background region separately using the defined energy function (608).

도 7 은 본 발명에 따른 차폐 영역에 대한 일실시예 설명도이다.7 is a diagram illustrating an embodiment of a shielding area according to the present invention.

도 7에 도시된 바와 같이, 임의의 두 영상 영역(710, 720)을 시점을 달리하여 살펴보면, 카메라의 시점에 따라 가리워지는 영역으로 인해 차폐 영역(730)이 발생한다. 또한, 임의의 두 영상 영역(710, 720)에서는 인접한 세그먼트에 따라 가리워진 화소가 발생할 수 있다.As shown in FIG. 7, when the two arbitrary image areas 710 and 720 are viewed at different viewpoints, the shielding area 730 is generated due to the area that is covered by the viewpoint of the camera. In addition, in two arbitrary image areas 710 and 720, pixels hidden according to adjacent segments may occur.

본 발명에 따른 에너지 함수 계산부(33)는 임의의 두 영상 영역(710, 720)으로 인해 나타나는 차폐 영역(730)을 고려하여 에너지 함수를 계산한다. 즉, 에너지 함수 계산부(33)는 상기의 [수학식 4]에서와 같이 전체 데이터 항에 포함된 차폐 영역만큼의 에너지를 전체 에너지에서 빼서 차페 영역(가리워진 화소)(730)을 고려하여 에너지를 구한다.The energy function calculation unit 33 according to the present invention calculates the energy function in consideration of the shielding area 730 that appears due to the two arbitrary image areas 710 and 720. That is, the energy function calculation unit 33 subtracts the energy of the shielding area included in the entire data term from the total energy as in [Equation 4] above to consider the shielding area (obscured pixel) 730. Obtain

한편, 전술한 바와 같은 본 발명의 방법은 컴퓨터 프로그램으로 작성이 가능하다. 그리고 상기 프로그램을 구성하는 코드 및 코드 세그먼트는 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 작성된 프로그램은 컴퓨터가 읽을 수 있는 기록매체(정보저장매체)에 저장되고, 컴퓨터에 의하여 판독되고 실행됨으로써 본 발명의 방법을 구현한다. 그리고 상기 기록매체는 컴퓨터가 판독할 수 있는 모든 형태의 기록매체를 포함한다.On the other hand, the method of the present invention as described above can be written in a computer program. And the code and code segments constituting the program can be easily inferred by a computer programmer in the art. In addition, the written program is stored in a computer-readable recording medium (information storage medium), and read and executed by a computer to implement the method of the present invention. The recording medium may include any type of computer readable recording medium.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by the drawings.

도 1 은 본 발명에 따른 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치의 일실시예 구성도,1 is a block diagram of an embodiment of a binocular / multi-view stereo matching device using object / background separation and image segmentation according to the present invention;

도 2 는 본 발명에 따른 도 1의 영역 판단부의 일실시예 상세 구성도,2 is a detailed configuration diagram of an embodiment of the region determination unit of FIG. 1 according to the present invention;

도 3 은 본 발명에 따른 도 1의 변이 추정부의 일실시예 상세 구성도,3 is a detailed configuration diagram of an embodiment of the variation estimator of FIG. 1 according to the present invention;

도 4 는 본 발명에 따른 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 방법에 대한 일실시예 흐름도,4 is a flowchart illustrating an embodiment of a binocular / multi-view stereo matching method using object / background separation and image segmentation according to the present invention;

도 5 는 본 발명에 따른 가우시안 모델을 이용한 영역 판단 방법에 대한 일실시예 상세 흐름도,5 is a detailed flowchart illustrating an area determination method using a Gaussian model according to the present invention;

도 6 은 본 발명에 따른 에너지 함수를 이용한 변이지도 생성 방법에 대한 일실시예 상세 흐름도,6 is a detailed flowchart illustrating an embodiment of a method for generating a disparity map using an energy function according to the present invention;

도 7 은 본 발명에 따른 차폐 영역에 대한 일실시예 설명도이다.7 is a diagram illustrating an embodiment of a shielding area according to the present invention.

* 도면의 주요 부분에 대한 부호 설명* Explanation of symbols on the main parts of the drawing

110: 양안/다시점 영상 획득부 120: 카메라정보 추출부110: binocular / multi-view image acquisition unit 120: camera information extraction unit

130: 영역 판단부 140: 변이 추정부130: region determination unit 140: mutation estimation unit

150: 변이지도 합성부 160: 변이지도 저장부150: variation map synthesis unit 160: variation map storage unit

21: 분포모델 추정부 22: 영역 분류부21: distribution model estimation unit 22: region classification unit

23: 혼합 분포모델 추정부 24: 객체 및 배경 영역 판단부23: mixed distribution model estimation unit 24: object and background region determination unit

31: 영상분할부 32: 평면 계수 추출부31: image segmentation unit 32: plane coefficient extraction unit

33: 에너지 함수 계산부 34: 변이지도 생성부33: energy function calculation unit 34: disparity map generator

Claims (12)

양안/다시점을 시간에 따라 컬러나 밝기의 변화가 적은 배경 영역과 시간에 따라 컬러나 밝기의 변화가 큰 객체 영역으로 각각 구분하여 판단하고, 상기 판단 결과에 따라 상기 양안/다시점 영상에 대한 객체 및 배경 분리 정보를 생성하기 위한 영역 판단 수단;The binocular / backview is divided into a background area having a small change in color or brightness over time and an object area with a large change in color or brightness over time, and judged according to the determination result. Area determining means for generating object and background separation information; 상기 분리된 양안/다시점 영상을 세그먼트 단위의 유사 영역별로 영상분할하고, 상기 영상분할된 양안/다시점 영상과 상기 생성된 객체 및 배경 분리 정보를 이용하여 객체 변이지도 및 배경 변이지도를 개별적으로 구하기 위한 변이 추정 수단; 및The separated binocular / multi-view image is divided into similar areas in segment units, and the object variation map and the background disparity map are separately generated by using the divided binocular / multi-view image and the generated object and background separation information. Variation estimation means for obtaining; And 상기 객체 변이지도와 상기 배경 변이지도를 합성하여 상기 양안/다시점 영상에 대한 장면 변이지도를 생성하기 위한 변이지도 합성 수단Disparity map synthesizing means for synthesizing the object disparity map and the background disparity map to generate a scene disparity map for the binocular / multi-view image 을 포함하는 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치.A binocular / multi-view stereo matching device using object / background separation and image segmentation. 제 1 항에 있어서,The method of claim 1, 외부의 영상 장치로부터 양안/다시점 영상을 획득하기 위한 다시점 영상 획득 수단;Multi-view image acquisition means for acquiring binocular / multi-view images from an external imaging device; 상기 획득된 양안/다시점 영상에 대한 카메라 보정을 통해 카메라 정보 및 기반 행렬 데이터를 계산하기 위한 카메라정보 추출 수단; 및Camera information extracting means for calculating camera information and base matrix data through camera correction on the obtained binocular / multiview image; And 상기 변이지도 합성 수단에서 생성된 장면 변이지도를 저장하기 위한 변이지 도 저장 수단Disparity map storage means for storing a scene disparity map generated by the disparity map synthesizing means 을 더 포함하는 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치.A binocular / multi-view stereo matching device using object / background separation and image segmentation further comprising. 제 2 항에 있어서,The method of claim 2, 상기 영역 판단 수단은,The area determining means, 상기 영상 장치로부터 획득된 다시점 영상이 3 시점 이상이면, 상기 획득된 다시점 영상 중 임의의 영상과 인접한 나머지 한 영상을 하나의 영상 쌍으로 정하고, 각 영상 쌍마다 객체 영역 및 배경 영역으로 각각 구분하는 것을 특징으로 하는 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치.If the multiview image acquired from the imaging apparatus is three or more views, the remaining one image adjacent to an arbitrary image among the acquired multiview images is defined as one image pair, and each image pair is divided into an object region and a background region, respectively. A binocular / multi-view stereo matching device using object / background separation and image segmentation. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 3, 상기 영역 판단 수단은,The area determining means, 객체가 제외된 배경 영상을 미리 획득하고, 상기 배경 영상의 각 화소에 대한 분포모델을 추정하기 위한 분포모델 추정 수단;Distribution model estimating means for obtaining a background image from which an object is excluded in advance and estimating a distribution model for each pixel of the background image; 상기 추정된 분포모델을 이용하여 상기 양안/다시점 영상의 각 화소에 대한 색상발생확률을 계산하고, 상기 계산된 색상발생확률과 기설정된 임계범위와의 비교에 따라 상기 양안/다시점 영상의 영역을 분류하기 위한 영역 분류 수단;Calculate the color generation probability for each pixel of the binocular / multi-view image using the estimated distribution model, and compare the calculated color generation probability with a preset threshold range according to the area of the binocular / multi-view image. Area classification means for classifying the data; 상기 분류된 영역의 각 화소의 컬러 값을 이용하여 가우시안 혼합 분포모델을 추정하기 위한 혼합 분포모델 추정 수단; 및Mixture distribution model estimation means for estimating a Gaussian mixture distribution model using color values of each pixel of the classified region; And 상기 추정된 가우시안 혼합 분포모델을 사용하여 하기 <수학식 6>과 같이 정의된 에너지 함수를 이용하여 객체 영역 또는 배경 영역으로 판정하고, 상기 판정 결과에 따라 객체 및 배경 분리 정보를 생성하기 위한 객체 및 배경 영역 판단 수단An object for determining an object region or a background region using the estimated Gaussian mixture distribution model using an energy function defined as in Equation 6 below, and generating object and background separation information according to the determination result; Background Area Judgment Means 을 포함하는 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치,Binocular / multi-view stereo matching device using object / background separation and image segmentation, including <수학식 6><Equation 6>
Figure 112009034892829-pat00036
Figure 112009034892829-pat00036
여기서,
Figure 112009034892829-pat00037
는 에너지 함수,
Figure 112009034892829-pat00038
는 객체 및 배경 영역을 나타내는 함수,
Figure 112009034892829-pat00039
는 각각 추정된 배경에 대한 가우시안 믹스쳐 모델,
Figure 112009034892829-pat00040
는 각각 추정된 객체에 대한 가우시안 믹스쳐 모델을 나타내고,
Figure 112009034892829-pat00041
는 두 인자가 서로 다른 값을 가질 때에는 1, 같은 값을 가질 때에는 0의 값을 가지는 함수이다.
here,
Figure 112009034892829-pat00037
Is an energy function,
Figure 112009034892829-pat00038
Is a function representing the object and background area,
Figure 112009034892829-pat00039
Is a Gaussian mix model for each estimated background,
Figure 112009034892829-pat00040
Represents a Gaussian mixture model for each estimated object,
Figure 112009034892829-pat00041
Is a function that has a value of 1 if the two arguments have different values, and 0 if they have the same value.
제 4 항에 있어서,The method of claim 4, wherein 상기 변이 추정 수단은,The variation estimating means, 상기 양안/다시점 영상을 유사 영역 단위인 세그먼트 단위로 영상분할하기 위한 영상 분할 수단;Image segmentation means for dividing the binocular / multi-view image into segment units which are similar region units; 상기 영상분할된 각각의 세그먼트에 대한 평면 계수를 추출하기 위한 평면 계수 추출 수단;Plane coefficient extracting means for extracting plane coefficients for each segmented image segment; 상기 추출된 평면 계수들을 이용하여 차폐 영역으로 인해 가리워진 화소의 제거를 위해 하기 <수학식 7>과 같이 세그먼트 단위로 에너지 함수를 정의하기 위한 에너지 함수 계산 수단; 및Energy function calculation means for defining an energy function in units of segments as shown in Equation (7) to remove the pixels hidden by the shielding area using the extracted plane coefficients; And 상기 각 정의된 세그먼트별 에너지 함수를 하기 <수학식 8>을 이용하여 상기 에너지 함수가 최소화되는 에너지 파라미터로 객체 및 배경 영역에 대한 변이지도를 개별적으로 생성하기 위한 변이지도 생성 수단Disparity map generation means for individually generating disparity maps for an object and a background region as energy parameters for minimizing the energy function using Equation (8) 을 포함하는 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치,Binocular / multi-view stereo matching device using object / background separation and image segmentation, including <수학식 7><Equation 7>
Figure 112009059467712-pat00042
Figure 112009059467712-pat00042
여기서,
Figure 112009059467712-pat00043
는 데이터 항,
Figure 112009059467712-pat00044
는 평활화 항,
Figure 112009059467712-pat00045
는 가리워짐(차폐) 항을 나타내며,
here,
Figure 112009059467712-pat00043
Is the data term,
Figure 112009059467712-pat00044
Smoothing term,
Figure 112009059467712-pat00045
Represents a hidden (shielded) term,
<수학식 8><Equation 8>
Figure 112009059467712-pat00046
Figure 112009059467712-pat00046
여기서,
Figure 112009059467712-pat00047
,
Figure 112009059467712-pat00048
는 서로 인접한 세그먼트의 평면 계수,
Figure 112009059467712-pat00049
는 두 세그먼트 사이의 공통된 경계 길이를 나타내며, 상기 <수학식 7>은 인접한 세그먼트의 평면 계수가 다를 때(
Figure 112009059467712-pat00050
), 두 세그먼트 사이의 공통된 경계 길이(
Figure 112009059467712-pat00051
)에 비례하는 에너지 값을 부과한다.
here,
Figure 112009059467712-pat00047
,
Figure 112009059467712-pat00048
Is the plane coefficient of adjacent segments,
Figure 112009059467712-pat00049
Denotes a common boundary length between two segments, and Equation 7 is different when the plane coefficients of adjacent segments are different (
Figure 112009059467712-pat00050
), The common boundary length between two segments (
Figure 112009059467712-pat00051
Impose an energy value proportional to
삭제delete 양안/다시점 영상을 시간에 따라 컬러나 밝기의 변화가 적은 배경 영역과 시간에 따라 컬러나 밝기의 변화가 큰 객체 영역으로 각각 구분하여 판단하고, 상기 판단 결과에 따라 상기 양안/다시점 영상에 대한 객체 및 배경 분리 정보를 생성하는 영역 판단 단계;The binocular / multi-view image is divided into a background area having a small change in color or brightness over time and an object area with a large change in color or brightness over time, and judged according to the determination result. An area determination step of generating object and background separation information about the object; 상기 분리된 양안/다시점 영상을 세그먼트 단위의 유사 영역별로 영상분할하고, 상기 영상분할된 양안/다시점 영상과 상기 생성된 객체 및 배경 분리 정보를 이용하여 객체 변이지도 및 배경 변이지도를 개별적으로 구하는 변이 추정 단계; 및The separated binocular / multi-view image is divided into similar areas in segment units, and the object variation map and the background disparity map are separately generated by using the divided binocular / multi-view image and the generated object and background separation information. Obtaining a variation estimation step; And 상기 객체 변이지도와 상기 배경 변이지도를 합성하여 상기 양안/다시점 영상에 대한 장면 변이지도를 생성하는 변이지도 합성 단계Disparity map synthesis step of generating a scene disparity map for the binocular / multi-view image by synthesizing the object disparity map and the background disparity map 를 포함하는 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 방법.A binocular / multi-view stereo matching method using object / background separation and image segmentation comprising a. 제 7 항에 있어서,The method of claim 7, wherein 상기 양안/다시점 영상을 획득한 후 상기 영역 판단 단계 이전에 카메라 보정을 통해 카메라 정보 및 기반 행렬 데이터를 계산하는 카메라정보 추출 단계Camera information extraction step of calculating the camera information and the base matrix data through the camera correction before the region determination step after the binocular / multi-view image is obtained 를 더 포함하는 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 방법.A binocular / multi-view stereo matching method using object / background separation and image segmentation further comprising. 제 8 항에 있어서,The method of claim 8, 상기 영역 판단 단계는,The area determining step, 외부의 영상 장치로부터 획득된 다시점 영상이 3 시점 이상이면, 상기 획득된 다시점 영상 중 임의의 영상과 인접한 나머지 한 영상을 하나의 영상 쌍으로 정하고, 각 영상 쌍마다 객체 영역 및 배경 영역으로 각각 구분하는 것을 특징으로 하는 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 방법.If a multiview image acquired from an external imaging apparatus is 3 or more views, the remaining one image adjacent to an arbitrary image among the obtained multiview images is defined as one image pair, and each image pair is an object region and a background region, respectively. A binocular / multi-view stereo matching method using object / background separation and image segmentation characterized in that it is divided. 제 7 항 내지 제 9 항 중 어느 한 항에 있어서,The method according to any one of claims 7 to 9, 상기 영역 판단 단계는,The area determining step, 객체가 제외된 배경 영상을 미리 획득하고, 상기 배경 영상의 각 화소에 대한 가우시안 분포모델을 추정하는 분포모델 추정 단계;A distribution model estimating step of acquiring a background image including an object in advance and estimating a Gaussian distribution model for each pixel of the background image; 상기 추정된 가우시안 분포모델을 이용하여 상기 양안/다시점 영상의 각 화소에 대하여 컬러 또는 밝기가 나올 색상발생확률을 계산하고, 상기 계산된 색상발생확률과 기설정된 임계범위와의 비교에 따라 배경 영역 또는 객체 영역 또는 미결정 영역으로 분류하는 영역 분류 단계;Using the estimated Gaussian distribution model, a color generation probability for color or brightness is calculated for each pixel of the binocular / multi-view image, and a background region is compared with the calculated color generation probability with a preset threshold range. Or an area classification step of classifying the object area or the undetermined area; 상기 분류된 영역의 각 화소의 컬러 값을 이용하여 가우시안 혼합 분포모델을 추정하는 혼합 분포모델 추정 단계; 및A mixture distribution model estimating step of estimating a Gaussian mixture distribution model using color values of each pixel of the classified region; And 상기 추정된 가우시안 혼합 분포모델을 사용하여 하기 <수학식 <9>와 같이 정의된 에너지 함수를 이용하여 객체 영역 또는 배경 영역으로 판정하고, 상기 판정 결과에 따라 객체 및 배경 분리 정보를 생성하는 객체 및 배경 영역 판단 단계An object using the estimated Gaussian mixture distribution model to determine an object region or a background region using an energy function defined as in Equation (9), and generating object and background separation information according to the determination result; Background Area Determination Step 를 포함하는 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 방법,Binocular / multi-view stereo matching method using object / background separation and image segmentation, including <수학식 9><Equation 9>
Figure 112009034892829-pat00052
Figure 112009034892829-pat00052
여기서,
Figure 112009034892829-pat00053
는 에너지 함수,
Figure 112009034892829-pat00054
는 객체 및 배경 영역을 나타내는 함수,
Figure 112009034892829-pat00055
는 각각 추정된 배경에 대한 가우시안 믹스쳐 모델,
Figure 112009034892829-pat00056
는 각각 추정된 객체에 대한 가우시안 믹스쳐 모델을 나타내고,
Figure 112009034892829-pat00057
는 두 인자가 서로 다른 값을 가질 때에는 1, 같은 값을 가질 때에는 0의 값을 가지는 함수이다.
here,
Figure 112009034892829-pat00053
Is an energy function,
Figure 112009034892829-pat00054
Is a function representing the object and background area,
Figure 112009034892829-pat00055
Is a Gaussian mix model for each estimated background,
Figure 112009034892829-pat00056
Represents a Gaussian mixture model for each estimated object,
Figure 112009034892829-pat00057
Is a function that has a value of 1 if the two arguments have different values, and 0 if they have the same value.
제 10 항에 있어서,The method of claim 10, 상기 변이 추정 단계는,The variation estimating step, 상기 양안/다시점 영상을 유사 영역 단위인 세그먼트 단위로 영상분할하는 영상분할 단계;An image division step of dividing the binocular / multi-view image into segment units which are similar area units; 상기 영상분할된 각각의 세그먼트에 대한 평면 계수를 추출하는 평면 계수 추출 단계;A plane coefficient extraction step of extracting plane coefficients for each segmented image segment; 상기 추출된 평면 계수들을 이용하여 차폐 영역으로 인해 가리워진 화소의 제거를 위해 하기 <수학식 10>과 같이 세그먼트 단위로 에너지 함수를 정의하는 에너지 함수 계산 단계; 및An energy function calculation step of defining an energy function in units of segments as shown in Equation 10 to remove the pixels hidden by the shielding area using the extracted plane coefficients; And 상기 각 정의된 세그먼트별 에너지 함수를 하기 <수학식 11>을 이용하여 상기 에너지 함수가 최소화되는 에너지 파라미터로 객체 및 배경 영역에 대한 변이지도를 개별적으로 생성하는 변이지도 생성 단계Disparity map generation step of separately generating a disparity map for an object and a background area as an energy parameter that minimizes the energy function by using the energy function for each segment defined below. 를 포함하는 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 방법,Binocular / multi-view stereo matching method using object / background separation and image segmentation, including <수학식 10><Equation 10>
Figure 112009034892829-pat00058
Figure 112009034892829-pat00058
여기서,
Figure 112009034892829-pat00059
는 데이터 항,
Figure 112009034892829-pat00060
는 평활화 항,
Figure 112009034892829-pat00061
는 가리워짐(차폐) 항을 나타내며,
here,
Figure 112009034892829-pat00059
Is the data term,
Figure 112009034892829-pat00060
Smoothing term,
Figure 112009034892829-pat00061
Represents a hidden (shielded) term,
<수학식 11><Equation 11>
Figure 112009034892829-pat00062
Figure 112009034892829-pat00062
여기서,
Figure 112009034892829-pat00063
,
Figure 112009034892829-pat00064
는 서로 인접한 세그먼트의 평면 계수,
Figure 112009034892829-pat00065
는 두 세그먼트 사이의 공통된 경계 길이를 나타내며, 상기 <수학식 7>은 인접한 세그먼트의 평면 계수가 다를 때(
Figure 112009034892829-pat00066
), 두 세그먼트 사이의 공통된 경계 길이(
Figure 112009034892829-pat00067
)에 비례하는 에너지 값을 부과한다.
here,
Figure 112009034892829-pat00063
,
Figure 112009034892829-pat00064
Is the plane coefficient of adjacent segments,
Figure 112009034892829-pat00065
Denotes a common boundary length between two segments, and Equation 7 is different when the plane coefficients of adjacent segments are different (
Figure 112009034892829-pat00066
), The common boundary length between two segments (
Figure 112009034892829-pat00067
Impose an energy value proportional to
삭제delete
KR1020070106174A 2006-12-05 2007-10-22 Apparatus and method of matching binocular/multi-view stereo using foreground/background separation and image segmentation KR100926520B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020060122512 2006-12-05
KR20060122512 2006-12-05

Publications (2)

Publication Number Publication Date
KR20080052363A KR20080052363A (en) 2008-06-11
KR100926520B1 true KR100926520B1 (en) 2009-11-12

Family

ID=39807184

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070106174A KR100926520B1 (en) 2006-12-05 2007-10-22 Apparatus and method of matching binocular/multi-view stereo using foreground/background separation and image segmentation

Country Status (1)

Country Link
KR (1) KR100926520B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102208116A (en) * 2010-03-29 2011-10-05 卡西欧计算机株式会社 3D modeling apparatus and 3D modeling method
US9445071B2 (en) 2011-01-03 2016-09-13 Samsung Electronics Co., Ltd. Method and apparatus generating multi-view images for three-dimensional display

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100953738B1 (en) * 2008-05-29 2010-04-19 한국외국어대학교 연구산학협력단 Apparatus for segmenting multi-view images
KR101282196B1 (en) 2009-12-11 2013-07-04 한국전자통신연구원 Apparatus and method for separating foreground and background of based codebook In a multi-view image
KR101385522B1 (en) * 2012-09-27 2014-04-15 서울시립대학교 산학협력단 Method and terminal for providing facsimile function
KR102078312B1 (en) * 2013-04-10 2020-02-18 삼성디스플레이 주식회사 Method for generating depth map
US9489741B2 (en) 2014-08-28 2016-11-08 Nokia Technologies Oy Method, apparatus and computer program product for disparity estimation of foreground objects in images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH026517A (en) * 1988-06-24 1990-01-10 Toagosei Chem Ind Co Ltd Preparation of polyester (meth)acrylate
JP2005001119A (en) * 2003-06-09 2005-01-06 Insutetsuku Kk Method and apparatus for monitoring spray powder supply state in paper ejection part of sheet-fed printing machine
KR20050058085A (en) * 2003-12-11 2005-06-16 한국전자통신연구원 3d scene model generation apparatus and method through the fusion of disparity map and depth map
KR20060063558A (en) * 2004-12-06 2006-06-12 한국전자통신연구원 A depth information-based stereo/multi-view stereo image matching apparatus and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH026517A (en) * 1988-06-24 1990-01-10 Toagosei Chem Ind Co Ltd Preparation of polyester (meth)acrylate
JP2005001119A (en) * 2003-06-09 2005-01-06 Insutetsuku Kk Method and apparatus for monitoring spray powder supply state in paper ejection part of sheet-fed printing machine
KR20050058085A (en) * 2003-12-11 2005-06-16 한국전자통신연구원 3d scene model generation apparatus and method through the fusion of disparity map and depth map
KR20060063558A (en) * 2004-12-06 2006-06-12 한국전자통신연구원 A depth information-based stereo/multi-view stereo image matching apparatus and method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
논문(2005.11.19)
논문(2006.5.17)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102208116A (en) * 2010-03-29 2011-10-05 卡西欧计算机株式会社 3D modeling apparatus and 3D modeling method
US9445071B2 (en) 2011-01-03 2016-09-13 Samsung Electronics Co., Ltd. Method and apparatus generating multi-view images for three-dimensional display

Also Published As

Publication number Publication date
KR20080052363A (en) 2008-06-11

Similar Documents

Publication Publication Date Title
US10679361B2 (en) Multi-view rotoscope contour propagation
KR100931311B1 (en) Depth estimation device and its method for maintaining depth continuity between frames
KR100926520B1 (en) Apparatus and method of matching binocular/multi-view stereo using foreground/background separation and image segmentation
KR100953076B1 (en) Multi-view matching method and device using foreground/background separation
KR100793076B1 (en) Edge-adaptive stereo/multi-view image matching apparatus and its method
EP1958149B1 (en) Stereoscopic image display method and apparatus, method for generating 3d image data from a 2d image data input and an apparatus for generating 3d image data from a 2d image data input
KR102434406B1 (en) Augmented Reality device based on recognition spacial structure and method thereof
EP2533191B1 (en) Image processing system, image processing method, and program
KR100745691B1 (en) Binocular or multi-view stereo matching apparatus and its method using occlusion area detection
Pearson et al. Plenoptic layer-based modeling for image based rendering
KR100560464B1 (en) Multi-view display system with viewpoint adaptation
CN104780355A (en) Depth-based cavity repairing method in viewpoint synthesis
KR101181199B1 (en) Stereoscopic image generation method of background terrain scenes, system using the same and recording medium for the same
EP2757789A1 (en) Image processing system, image processing method, and image processing program
US9661307B1 (en) Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
KR100927734B1 (en) Multi-view image generating device and method
KR20100091864A (en) Apparatus and method for the automatic segmentation of multiple moving objects from a monocular video sequence
KR101086274B1 (en) Apparatus and method for extracting depth information
Ma et al. Depth-guided inpainting algorithm for free-viewpoint video
CN110717962B (en) Dynamic photo generation method, device, photographing equipment and storage medium
KR100960694B1 (en) System and Method for matting multi-view image, Storage medium storing the same
KR20140118083A (en) System for producing stereo-scopic image or video and method for acquiring depth information
CN112991419B (en) Parallax data generation method, parallax data generation device, computer equipment and storage medium
KR101233398B1 (en) Method and apparatus for generating depth map
Guillemaut et al. Stereoscopic content production of complex dynamic scenes using a wide-baseline monoscopic camera set-up

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130506

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20131028

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee