KR100926520B1 - Apparatus and method of matching binocular/multi-view stereo using foreground/background separation and image segmentation - Google Patents
Apparatus and method of matching binocular/multi-view stereo using foreground/background separation and image segmentation Download PDFInfo
- Publication number
- KR100926520B1 KR100926520B1 KR1020070106174A KR20070106174A KR100926520B1 KR 100926520 B1 KR100926520 B1 KR 100926520B1 KR 1020070106174 A KR1020070106174 A KR 1020070106174A KR 20070106174 A KR20070106174 A KR 20070106174A KR 100926520 B1 KR100926520 B1 KR 100926520B1
- Authority
- KR
- South Korea
- Prior art keywords
- binocular
- image
- background
- area
- disparity map
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0092—Image segmentation from stereoscopic image signals
Abstract
본 발명은 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치 및 그 방법에 관한 것으로, 영상 장치로부터 획득된 양안/다시점 영상을 객체 및 배경 영역으로 구분하고, 각 구분된 영역별로 양안/다시점 영상을 영상 분할하여 분할된 영역(Segment)을 기반으로 스테레오 정합함으로써, 차폐 영역에 의한 오정합을 줄일 수 있으며 그로 인해 더욱 정확한 변이지도를 얻을 수 있게 하는, 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치 및 그 방법을 제공하고자 한다.The present invention relates to a binocular / multi-view stereo matching apparatus and method using object / background separation and image segmentation. The present invention relates to a binocular / multi-view image obtained from an imaging apparatus, divided into an object and a background area, and to each divided area. By dividing binocular / multi-view images and stereo matching based on the segmented segment, object / background separation and image, which can reduce misalignment due to the shielding region, thereby obtaining a more accurate disparity map. An object of the present invention is to provide a binocular / multi-view stereo matching device using segmentation.
이를 위하여, 본 발명은 양안/다시점 영상의 영역을 객체 영역 및 배경 영역으로 각각 구분하여 판단하고, 상기 판단 결과에 따라 상기 양안/다시점 영상에 대한 객체 및 배경 분리 정보를 생성하기 위한 영역 판단 수단; 상기 양안/다시점 영상을 유사 영역별로 영상분할하고, 상기 영상분할된 양안/다시점 영상과 상기 생성된 객체 및 배경 분리 정보를 이용하여 객체 변이지도 및 배경 변이지도를 개별적으로 구하기 위한 변이 추정 수단; 및 상기 객체 변이지도와 상기 배경 변이지도를 합성하여 상기 양안/다시점 영상에 대한 장면 변이지도를 생성하기 위한 변이지도 합성 수단을 포함한다.To this end, the present invention divides the area of the binocular / multi-view image into an object area and a background area, respectively, and determines an area for generating object and background separation information for the binocular / multi-view image according to the determination result. Way; Disparity estimating means for dividing the binocular / multi-view image for each similar region and individually obtaining an object disparity map and a background disparity map by using the divided binocular / multi-view image and the generated object and background separation information ; And disparity map synthesizing means for synthesizing the object disparity map and the background disparity map to generate a scene disparity map for the binocular / multi-view image.
변이지도, 다시점 스테레오 정합, 양안 다시점 영상, 3차원 영상 처리, 차폐영역, 객체 영역, 배경 영역, 영상분할, 오정합, 세그먼트 기반 스테레오 정합 Disparity Map, Multiview Stereo Matching, Binocular Multiview Image, 3D Image Processing, Shielding Area, Object Area, Background Area, Image Segmentation, Mismatching, Segment Based Stereo Matching
Description
본 발명은 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치 및 그 방법에 관한 것으로, 더욱 상세하게는 영상 장치로부터 획득된 양안/다시점 영상을 객체 및 배경 영역으로 구분하고, 각 구분된 영역별로 양안/다시점 영상을 영상 분할하여 분할된 영역(Segment)을 기반으로 스테레오 정합함으로써, 차폐 영역에 의한 오정합을 줄일 수 있으며 그로 인해 더욱 정확한 변이지도를 얻을 수 있게 하는, 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치 및 그 방법에 관한 것이다.The present invention relates to a binocular / multi-view stereo matching apparatus and method using object / background separation and image segmentation. More particularly, the present invention relates to a binocular / multi-view image obtained from an imaging apparatus. By dividing the binocular / multi-view image by the divided area and stereo matching based on the segment, the misalignment caused by the shielding area can be reduced, thereby making it possible to obtain more accurate disparity map. A binocular / multi-view stereo matching device using background separation and image segmentation and a method thereof are provided.
본 발명은 정보통신부 및 정보통신연구진흥원의 IT차세대핵심기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2005-S-403-02, 과제명: 지능형 통합정보방송(Smart TV)기술].The present invention is derived from the research conducted as part of the next generation core technology development project of the Ministry of Information and Communication and the Ministry of Information and Telecommunication Research and Development. [Task Management Number: 2005-S-403-02, Title: Intelligent Integrated Information Broadcasting (Smart TV) )Technology].
3차원 정보를 추출하는 다시점(스테레오) 영상 정합 기술은 로봇 운항이나 영상 기반 렌더링 또는 최근의 3차원 디스플레이 등의 분야를 위한 기반 기술로서 그 중요성이 부각되고 있다.Multi-view (stereo) image matching technology for extracting three-dimensional information is emerging as a foundation technology for the field of robot navigation, image-based rendering or the recent three-dimensional display.
다시점(양안) 영상 정합 기술의 핵심은 주어진 다시점(스테레오) 영상에 대한 변이지도를 생성하는 것이다. 변이란 주어진 두 영상 간에 대응하는 두 화소의 위치 차이를 의미한다. 일반적으로 스테레오(양안식) 영상에서는 주어진 두 영상이 카메라 보정 및 영상 보정되어 있다고 가정한다. 그리고 이러한 가정 속에서 대응점을 찾기 위한 변이 탐색 범위는 1차원의 에피폴라(Epipolar) 라인으로 제한된다. 하지만, 이러한 제한 조건에도 스테레오 영상을 정합할 때 이용되는 설정으로 인해 정확한 변이를 계산하지 못한다는 문제점이 있다.The key to multiview image matching is to generate a disparity map for a given multiview (stereo) image. The edge refers to a position difference between two pixels corresponding to two given images. In general, in a stereo (binocular) image, it is assumed that two given images are camera calibrated and image calibrated. And within this hypothesis, the range of variation search for finding the corresponding point is limited to the one-dimensional epipolar line. However, even in such a constraint, there is a problem in that it is not possible to calculate an accurate variation due to the setting used when matching stereo images.
종래의 다시점(양안) 정합 기법들은 크게 윈도우 기반의 국소적 방법과 에너지 최소화 기법을 사용하는 광역적 기법으로 나눌 수 있다. 국소적 방법은 수행 속도가 빠르다는 장점이 있으나 전체적인 변이지도의 오차가 크다는 단점이 있다. 또한, 광역적 기법은 속도는 상대적으로 느리지만 비교적 정확한 결과를 낼 수 있다는 장점을 가진다.Conventional multi-view (binocular) matching techniques can be largely divided into window-based local methods and global techniques using energy minimization techniques. The local method has the advantage of fast performance, but has the disadvantage that the error of the overall disparity map is large. In addition, the global technique has the advantage of being relatively slow but capable of producing relatively accurate results.
특히, 종래의 광역적 기법을 살펴보면, 종래의 광역적 기법에서의 비용 함수는 일반적으로 데이터 항과 평활화 항으로 이루어진다. 데이터 항은 모델링을 통해 두 화소 간의 컬러 또는 밝기가 얼마나 유사한가를 나타내는 항이고, 평활화 항은 모델링을 통해 복원하고자 하는 대상이 얼마나 평활한가를 나타내는 항이다.In particular, in the conventional global technique, the cost function in the conventional global technique generally consists of a data term and a smoothing term. The data term is a term indicating how similar the color or brightness is between two pixels through modeling, and the smoothing term is a term indicating how smooth the object to be restored through modeling is.
하지만, 이러한 종래의 광역적 기법에서의 일반적인 비용 함수에는 대상 객 체의 가리워짐(차폐)에 대한 효과가 반영되어 있지 않다. 종래의 스테레오 정합 기법들은 가리워짐(차폐)에 강인하지 않은 결과를 산출한다는 문제점이 있다. 또한, 최근 차폐 영역을 고려한 스테레오 정합 모델이 제안되고 있지만, 스테레오 정합에서 차폐 영역에 대한 문제를 완전히 해결하지 못하고 있어서 정확한 다시점(양안) 정합 결과를 얻기 곤란하다는 문제점이 있다.However, the general cost function in this conventional global technique does not reflect the effect on the shielding of the object. Conventional stereo matching techniques have the problem of producing a result that is not robust to masking (shielding). In addition, although a stereo matching model has recently been proposed in consideration of the shielding area, there is a problem that it is difficult to obtain an accurate multi-view (binocular) matching result because the problem of the shielding area in the stereo matching is not completely solved.
상기와 같이 종래의 다시점(양안) 영상 정합 기술은, 다시점(양안) 영상을 정합할 때 이용되는 설정으로 인해 정확한 변이를 계산하지 못한다는 문제점이 있다. 특히, 이러한 종래의 스테레오 영상 정합 기술 중 광역적 기법을 이용한 다시점(양안) 영상 정합 기술에서는, 대상 객체의 가리워짐(차폐)에 대한 효과가 반영되지 않아 가리워짐(차폐)에 강인하지 않은 결과를 산출한다는 문제점이 있으며, 이러한 문제점을 해결하고자 하는 것이 본 발명의 과제이다.As described above, the conventional multi-view (binocular) image matching technique has a problem that it is not possible to calculate the exact shift due to the setting used when matching the multi-view (binocular) image. In particular, in the conventional stereoscopic image matching technique, the multi-view (binocular) image matching technique using the global technique does not reflect the effect of the masking (shielding) of the target object, and thus is not robust to the masking (shielding). There is a problem that calculates the problem, and to solve this problem is an object of the present invention.
따라서 본 발명은 영상 장치로부터 획득된 양안/다시점 영상을 객체 및 배경 영역으로 구분하고, 각 구분된 영역별로 양안/다시점 영상을 영상 분할하여 분할된 영역(Segment)을 기반으로 스테레오 정합함으로써, 차폐 영역에 의한 오정합을 줄일 수 있으며 그로 인해 더욱 정확한 변이지도를 얻을 수 있게 하는, 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치 및 그 방법을 제공하는데 그 목적이 있다.Accordingly, the present invention divides the binocular / multi-view image obtained from the imaging apparatus into an object and a background area, and performs stereo matching based on the segmented by dividing the binocular / multi-view image by each divided area. It is an object of the present invention to provide a binocular / multi-view stereo matching device and method using object / background separation and image segmentation, which can reduce mismatching due to a shielding area and thereby obtain a more accurate disparity map.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention which are not mentioned above can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.
본 발명은 상기 문제점을 해결하기 위하여 제안된 것으로, 영상 장치로부터 획득된 양안/다시점 영상을 객체 및 배경 영역으로 구분하고, 각 구분된 영역별로 양안/다시점 영상을 영상 분할하여 분할된 영역(Segment)을 기반으로 스테레오 정합하는 것을 특징으로 한다.The present invention has been proposed in order to solve the above problem, and divided the binocular / multi-view image obtained from the imaging device into an object and a background area, and divided the image by dividing the binocular / multi-view image for each divided area ( Segment) is characterized in that the stereo matching.
더욱 구체적으로, 본 발명의 장치는, 양안/다시점 영상의 영역을 객체 영역 및 배경 영역으로 각각 구분하여 판단하고, 상기 판단 결과에 따라 상기 양안/다시점 영상에 대한 객체 및 배경 분리 정보를 생성하기 위한 영역 판단 수단; 상기 양안/다시점 영상을 유사 영역별로 영상분할하고, 상기 영상분할된 양안/다시점 영상과 상기 생성된 객체 및 배경 분리 정보를 이용하여 객체 변이지도 및 배경 변이지도를 개별적으로 구하기 위한 변이 추정 수단; 및 상기 객체 변이지도와 상기 배경 변이지도를 합성하여 상기 양안/다시점 영상에 대한 장면 변이지도를 생성하기 위한 변이지도 합성 수단을 포함한다.More specifically, the apparatus of the present invention divides the area of the binocular / multi-view image into an object area and a background area, respectively, and determines the object and background separation information for the binocular / multi-view image according to the determination result. Area determining means for performing; Disparity estimating means for dividing the binocular / multi-view image for each similar region and individually obtaining an object disparity map and a background disparity map by using the divided binocular / multi-view image and the generated object and background separation information ; And disparity map synthesizing means for synthesizing the object disparity map and the background disparity map to generate a scene disparity map for the binocular / multi-view image.
또한, 상기 본 발명의 장치는, 외부의 영상 장치로부터 양안/다시점 영상을 획득하기 위한 다시점 영상 획득 수단; 상기 획득된 양안/다시점 영상에 대한 카메라 보정을 통해 카메라 정보 및 기반 행렬 데이터를 계산하기 위한 카메라정보 추출 수단; 및 상기 변이지도 합성 수단에서 생성된 장면 변이지도를 저장하기 위한 변이지도 저장 수단을 더 포함한다.In addition, the apparatus of the present invention, the multi-view image acquisition means for obtaining a binocular / multi-view image from an external imaging device; Camera information extracting means for calculating camera information and base matrix data through camera correction on the obtained binocular / multiview image; And variation map storage means for storing the scene variation map generated by the variation map synthesizing means.
한편, 본 발명의 방법은, 양안/다시점 영상의 영역을 객체 영역 및 배경 영역으로 각각 구분하여 판단하고, 상기 판단 결과에 따라 상기 양안/다시점 영상에 대한 객체 및 배경 분리 정보를 생성하는 영역 판단 단계; 상기 양안/다시점 영상을 유사 영역별로 영상분할하고, 상기 영상분할된 양안/다시점 영상과 상기 생성된 객체 및 배경 분리 정보를 이용하여 객체 변이지도 및 배경 변이지도를 개별적으로 구하는 변이 추정 단계; 및 상기 객체 변이지도와 상기 배경 변이지도를 합성하여 상기 양안/다시점 영상에 대한 장면 변이지도를 생성하는 변이지도 합성 단계를 포함한다.Meanwhile, in the method of the present invention, an area of the binocular / multi-view image is divided into an object area and a background area, respectively, and is determined. Determination step; A variation estimating step of dividing the binocular / multi-view image for each similar region and separately obtaining an object disparity map and a background disparity map using the divided binocular / multi-view image and the generated object and background separation information; And synthesizing the object disparity map and the background disparity map to generate a scene disparity map for the binocular / multi-view image.
또한, 상기 본 발명의 방법은, 상기 양안/다시점 영상에 대한 카메라 보정을 통해 카메라 정보 및 기반 행렬 데이터를 계산하는 카메라정보 추출 단계를 더 포함한다.The method may further include a camera information extracting step of calculating camera information and base matrix data through camera correction for the binocular / multi-view image.
상기와 같은 본 발명은, 영상 장치로부터 획득된 양안/다시점 영상을 객체 및 배경 영역으로 구분하고, 각 구분된 영역별로 양안/다시점 영상을 영상 분할하여 분할된 영역(Segment)을 기반으로 스테레오 정합함으로써, 차폐 영역에 의한 오 정합을 줄일 수 있는 효과가 있다.As described above, the present invention divides the binocular / multi-view image obtained from the imaging apparatus into an object and a background area, and divides the binocular / multi-view image for each divided area into an image based stereo segment. Matching has an effect of reducing mismatching caused by the shielding area.
더 나아가, 본 발명은, 차폐 영역에 의한 오정합을 줄이고 그로 인해 객체 및 배경 경계에서 더욱 정확한 변이지도를 얻을 수 있게 하는 효과가 있다.Furthermore, the present invention has the effect of reducing mismatch by the shielding area and thereby obtaining a more accurate disparity map at the object and background boundary.
또한, 본 발명은, 객체 및 배경 영역에 대한 변이지도를 개별적으로 구함으로써, 스테레오 정합의 수행시간을 단축할 수 있는 효과가 있다.In addition, the present invention has an effect of reducing the execution time of stereo matching by separately obtaining the disparity maps for the object and the background area.
상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되어 있는 상세한 설명을 통하여 보다 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다.The above objects, features, and advantages will become more apparent from the detailed description given hereinafter with reference to the accompanying drawings, and accordingly, those skilled in the art to which the present invention pertains may share the technical idea of the present invention. It will be easy to implement. In addition, in describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1 은 본 발명에 따른 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치의 일실시예 구성도이다.1 is a diagram illustrating an embodiment of a binocular / multi-view stereo matching device using object / background separation and image segmentation according to the present invention.
도 1에 도시된 바와 같이, 본 발명에 따른 양안/다시점 스테레오 정합 장치(100)는 양안/다시점 영상 획득부(110), 카메라정보 추출부(120), 영역 판단부(130), 변이 추정부(140), 변이지도 합성부(150), 및 변이지도 저장부(160)를 포함한다.As shown in FIG. 1, the binocular / multi-view
상기 양안/다시점 영상 획득부(110)는 복수의 비디오 카메라(다시점 카메라)로부터 동일 시각의 양안/다시점 영상을 각각 획득한다. 즉, 양안/다시점 영상 획득부(110)는 비디오 카메라 1로부터는 제1 시점 영상, 비디오 카메라 2로부터는 제2 시점 영상, 및 비디오 카메라 3으로부터는 제3 시점 영상을 각각 획득하고, 획득된 다시점 영상의 동기를 맞추어 저장한다. 여기서, 양안/다시점 영상은 객체가 없는 배경 영상과, 배경 영상에 객체가 있는 장면 영상을 포함한다.The binocular / multi-view
그리고 카메라정보 추출부(120)는 양안/다시점 영상 획득부(110)에서 획득된 다시점 영상에 대한 카메라 보정(Calibration) 과정을 통해, 초점거리 등의 카메라 정보 및 각 시점 간의 상호 위치관계를 나타내는 기반 행렬(Fundamental matrix)을 계산한다. 이때, 구해진 카메라 정보 및 기반 행렬 데이터는 데이터 저장장치 또는 컴퓨터 메모리(도면에 도시되지 않음) 상에 저장된 후, 변이지도 변환 등에 이용된다.In addition, the camera information extracting unit 120 performs a camera calibration process on the multi-view image acquired by the binocular / multi-view
한편, 객체와 배경 영역에 대한 변이지도를 생성하는 과정을 살펴보면, 먼저 분리된 배경 영역의 변이지도를 생성하기 위해 객체가 제외된 배경 영상만을 이용하여 배경 영역의 변이지도를 사전에 계산한다. 그리고 객체 영역의 변이지도를 생성하기 위해서 객체 영역의 화소들에 대해서만 스테레오 정합 기법을 적용하여 수행 시간을 줄인다. 이후, 배경 영역의 변이지도와 객체 영역의 변이지도를 합성하여 최종적으로 장면 변이지도를 얻어낸다.Meanwhile, referring to a process of generating a disparity map of an object and a background area, first, in order to generate a disparity map of a separated background area, a disparity map of a background area is calculated in advance using only a background image from which an object is excluded. In order to generate the disparity map of the object region, the stereo matching technique is applied only to the pixels of the object region to reduce the execution time. Thereafter, the disparity map of the background area and the disparity map of the object area are synthesized to finally obtain a scene disparity map.
이하, 전술한 객체와 배경 영역의 분리 과정 및 변이지도 생성 과정을 상세하게 살펴보면 다음과 같다.Hereinafter, a process of separating the object and the background region and generating the disparity map will be described in detail.
영역 판단부(130)는 카메라정보 추출부(120)에서 카메라 보정된 양안/다시점 영상의 영역을 객체 영역 및 배경 영역으로 각각 구분하여 판단하고, 그 판단 결과에 따라 양안/다시점 영상의 영역에 대한 객체 및 배경 분리 정보를 생성한다. 즉, 영역 판단부(130)는 객체/배경 분리 기법을 이용하여 시간에 따라 컬러나 밝기 변화가 적은 배경 영역과, 시간에 따라 컬러나 밝기 변화가 큰 객체 영역으로 분리한다. 그리고 영역 판단부(130)는 분리된 객체 영역과 배경 영역에 대한 객체 및 배경 분리 정보를 생성한다. 영역 판단부(130)의 상세 구성요소는 도 2를 참조하여 상세하게 후술하기로 한다. 일례로, 영역 판단부(130)는 카메라정보 추출부(120)에서 카메라 보정된 다시점 영상이 3 시점 이상이면, 다시점 영상 중 임의의 영상과 인접한 나머지 영상 중 하나의 영상을 하나의 영상 쌍으로 정하고, 각 영상 쌍마다 객체 영역 및 배경 영역으로 각각 구분할 수 있다.The area determiner 130 determines the area of the binocular / multiview image corrected by the camera by the camera information extractor 120 into an object area and a background area, respectively, and determines the area of the binocular / multiview image according to the determination result. Create object and background separation information for. That is, the area determiner 130 separates the background area having a small color or brightness change with time and the object area having a large color or brightness change with time using an object / background separation technique. The region determiner 130 generates object and background separation information about the separated object region and the background region. Detailed components of the
이후, 변이 추정부(140)는 영역 판단부(130)로부터 전달된 양안/다시점 영상을 유사 영역별로 영상분할한다. 그리고 변이 추정부(140)는 영상분할된 양안/다시점 영상과 객체 및 배경 분리 정보를 이용하여 개별적으로 변이지도를 추정한다. 즉, 변이 추정부(140)는 배경 영상을 이용하여 배경 영역에 대한 변이지도(배경 변이지도)를 추정하고, 장면 영상과 객체 및 배경 분리 정보를 이용하여 객체 영역에 대한 변이지도(객체 변이지도)를 추정한다.Thereafter, the
그리고 변이지도 합성부(150)는 변이 추정부(140)에서 추정된 배경 변이지도와 객체 변이지도를 합성하여 최종 장면 영상에 대한 변이지도(장면 변이지도)를 생성한다.The disparity map synthesis unit 150 generates a disparity map (scene disparity map) for the final scene image by synthesizing the background disparity map and the object disparity map estimated by the
그리고 변이지도 저장부(160)는 변이지도 합성부(150)에서 각 화소에 대해 생성된 장면 변이지도를 저장한다. 이때, 변이지도 저장부(160)는 변이지도 형태의 디지털 영상으로 저장할 수 있다. 이후, 장면 변이지도는 카메라정보 추출부(120)에서 구한 카메라 정보를 이용하여 3차원 점 구름이나 3차원 모델로 변환될 수 있다.The variation
도 2 는 본 발명에 따른 도 1의 영역 판단부의 일실시예 상세 구성도이다.FIG. 2 is a detailed block diagram of an embodiment of the area determiner of FIG. 1 according to the present invention. FIG.
도 2에 도시된 바와 같이, 영역 판단부(130)는 분포모델 추정부(21), 영역 분류부(22), 혼합 분포모델 추정부(23), 및 객체 및 배경 영역 판단부(24)를 포함한다. 영역 판단부(130)는 전술한 대로 객체/배경 분리 기법을 이용하여 주어진 영상을 시간에 따라 컬러나 밝기 변화가 적은 배경 영역과, 시간에 따라 컬러나 밝기 변화가 큰 객체 영역으로 분리한다.As shown in FIG. 2, the
도 2를 참조하여 상세하게 살펴보면, 분포모델 추정부(21)는 양안/다시점 영상 중 물체가 제외된 배경 영상을 이용하여 각 화소의 컬러 또는 밝기에 대한 분포모델(예를 들면, 가우시안(Gaussian) 모델)을 추정한다. 이때, 배경 영상은 양안/다시점 획득부(110)에서 미리 획득되거나 기저장된 배경 영상일 수 있다. 여기서, 가우시안 모델(Gaussian Model)은 하기의 [수학식 1]과 같이 정의된다.Referring to FIG. 2, the
그리고 영역 분류부(22)는 양안/다시점 영상의 각 화소에 대한 색상발생확률을 계산한다. 즉, 영역 분류부(22)는 상기의 [수학식 1]과 같이 추정된 가우시안 모델을 이용하여 양안/다시점 영상의 각 화소에 대해서 컬러 또는 밝기가 나올 확률을 계산한다. 그리고 영역 분류부(22)는 계산된 색상발생확률과 미리 정의된 임계범위와의 비교에 따라 그 화소를 배경, 객체 또는 아직 결정되지 않은 화소로 분류한다.The
이어서, 혼합 분포모델 추정부(23)는 영역 분류부(22)에서 분류된 배경 또는 객체에 속한 화소들의 컬러 값을 이용하여 배경과 객체에 대한 가우시안 믹스쳐(Gaussian Mixture) 모델(가우시안 혼합 모델)을 추정한다. 가우시안 믹스쳐 모델은 하기의 [수학식 2]와 같이 정의된다.Subsequently, the mixed
여기서, 는 상기의 [수학식 1]과 같이 정의된 가우시안 모델을 나타낸다. 는 각각의 가우시안 모델의 가중치를 나타내는 변수로서, 을 만족시킨다.here, Denotes a Gaussian model defined as in Equation 1 above. Is a variable representing the weight of each Gaussian model. Satisfies
그리고 객체 및 배경 영역 판단부(24)는 혼합 분포모델 추정부(23)에서 추정 된 배경과 객체에 대한 가우시안 믹스쳐 모델과 평활화 구속조건을 결합하여 하기의 [수학식 3]과 같은 에너지 함수를 정의한다.The object and
여기서, 는 에너지 함수, 는 객체 및 배경 영역을 나타내는 함수, 는 각각 추정된 배경에 대한 가우시안 믹스쳐 모델, 는 각각 추정된 객체에 대한 가우시안 믹스쳐 모델을 나타낸다. 는 두 인자가 서로 다른 값을 가질 때에는 1, 같은 값을 가질 때에는 0의 값을 가지는 함수로서 평활화 구속조건을 나타낸다. 한편, 상기의 [수학식 3]과 같이 정의된 에너지 함수를 최적화하는 기법으로 그래프 컷(Graph cut) 기법이 적용될 수 있다.here, Is an energy function, Is a function representing the object and background area, Is a Gaussian mix model for each estimated background, Represents a Gaussian mixture model for each estimated object. Is a function that has a value of 1 when two arguments have different values, and a value of 0 when they have the same value, indicating a smoothing constraint. Meanwhile, a graph cut technique may be applied as a technique for optimizing an energy function defined as in Equation 3 above.
이어서, 객체 및 배경 영역 판단부(24)는 정의된 에너지 함수를 이용하여 객체 영역 또는 배경 영역으로 판단하고 판단 결과에 따라 객체 및 배경 분리 정보를 생성한다. 즉, 객체 및 배경 영역 판단부(24)는 상기 [수학식 3]의 에너지 함수가 최소화되도록 에너지를 반복적으로 계산하여 객체 영역 또는 배경 영역 중 최소값에 수렴하는 영역으로 판단한다. 일례로, 객체 및 배경 영역 판단부(24)는 판단하고자 하는 영역 또는 화소를 임의로 객체 또는 배경 영역으로 가정한다. 그리고 객 체 및 배경 영역 판단부(24)는 가정된 영역별로 구한 에너지 함수의 최소값을 영역별로 비교하여 더 낮은 값을 가지는 객체 또는 배경 영역 중 어느 하나의 영역으로 판단한다.Subsequently, the object and
다음으로, 변이 추정부(140)는 전술한 객체 및 배경 분리 정보를 이용하여 객체와 배경 영역에 대한 변이지도를 별도로 추정한다.Next, the
도 3 은 본 발명에 따른 도 1의 변이 추정부의 일실시예 상세 구성도이다.3 is a detailed block diagram of an embodiment of the variation estimator of FIG. 1 according to the present invention.
도 3에 도시된 바와 같이, 변이 추정부(140)는 영상분할부(31), 평면 계수 추출부(32), 에너지 함수 계산부(33), 및 변이지도 생성부(34)를 포함한다.As illustrated in FIG. 3, the
먼저, 영상분할부(31)는 객체 및 배경 영역 판단부(24)에서 생성된 객체 및 배경 분리 정보에 따라 객체 영역 또는 배경 영역으로 구분된, 양안/다시점 영상을 유사 영역 단위인 세그먼트 단위로 영상 분할한다. 예를 들어, 이러한 영상분할 알고리즘에는 "D. Comaniciu"에 의해서 2002년에 발행된 "Mean Shift: A Robust Approach Toward Feature Space Analysis, PAMI"에 상세히 기술되어 있는 평균 이동 알고리즘 등이 사용될 수 있다.First, the
다음으로, 평면 계수 추출부(32)는 영상분할부(31)에서 영상 분할된 각각의 세그먼트에 대한 평면 계수를 추출한다.Next, the
평면 계수 추출 과정을 상세하게 살펴보면, 평면 계수 추출부(32)는 3×3 윈도우 내에서 SSD(Sum of Squared Difference) 등 유사도 계산 함수를 이용하여 초기 변이지도를 추정한다. 그리고 평면 계수 추출부(32)는 각각의 세그먼트별로 반복적 계산 방법을 사용하여 평면 계수를 계산한다. 이때, 평면 계수 추출부(32)는 각각의 반복 과정마다 좌우 변이의 상호 비교(cross check)를 통해 얻어진 신뢰성 있는 변이 값들만을 이용하며, 큰 세그먼트에 대해서만 평면 계수 추정을 시행할 수 있다. 이러한 강인한 평면 계수 추출 방법으로는 "H. Tao"에 의해서 2001년에 발행된 "A global matching framework for stereo computation, ICCV"에 발표된 논문에서 사용된 기법이 사용될 수 있다.Looking at the plane coefficient extraction process in detail, the
그리고 에너지 함수 계산부(33)는 평면 계수 추출부(32)에서 추출된 평면 계수들을 이용하여 차폐 영역으로 인해 가리워진 화소의 제거를 위한 하기의 [수학식 4]와 같은 세그먼트별 에너지 함수를 정의한다.In addition, the energy function calculation unit 33 defines an energy function for each segment as shown in Equation 4 below to remove the pixels hidden by the shielding area by using the plane coefficients extracted by the plane
여기서, 는 데이터 항, 는 평활화 항, 는 가리워짐 항을 나타낸다.here, Is the data term, Smoothing term, Indicates a hidden term.
에너지 함수 계산부(33)는 이러한 에너지 함수를 이용하여 세그먼트 단위로 정합을 수행한다. 또한, 에너지 함수 계산부(33)는 변이의 단위로 기존의 변이 라벨이 아닌 평면 계수 추출부(32)에서 추출된 평면 계수를 이용한다. The energy function calculation unit 33 performs matching on a segment basis by using this energy function. In addition, the energy function calculation unit 33 uses the plane coefficient extracted from the plane
여기서, 에너지 함수를 살펴보면, 첫 번째 항은 데이터 항으로서 대응하는 화소들의 컬러가 얼마나 유사한지를 나타낸다. 두 번째 항은 평활화 항으로서 하기 의 [수학식 5]와 같은 포츠 모델이 사용된다.Here, looking at the energy function, the first term indicates how similar the colors of the corresponding pixels are as data terms. The second term is a smoothing term, and a Pots model such as Equation 5 below is used.
여기서, , 는 서로 인접한 세그먼트의 평면 계수, 는 두 세그먼트 사이의 공통된 경계 길이를 나타낸다.here, , Is the plane coefficient of adjacent segments, Denotes a common boundary length between two segments.
일반적인 평활화 항과 다르게 상기 [수학식 5]는 인접한 세그먼트의 평면 계수가 다를 때(), 두 세그먼트 사이의 공통된 경계 길이()에 비례하는 에너지 값을 부과한다.Unlike the general smoothing term, Equation 5 is different when the plane coefficients of adjacent segments are different ( ), The common boundary length between two segments ( Impose an energy value proportional to
마지막 항은 가리워짐 항으로서, 는 세그먼트 와 사이의 모든 가리워진 화소들의 데이터 항의 합을 나타낸다. 가리워진 화소들은 평면 계수 , 를 사용하여 그에 대응하는 각각의 세그먼트 와 를 워핑함으로써 얻어질 수 있으며, 이는 도 7에 나타나 있다. 즉, 에너지 함수는 데이터 항, 평활화 항, 및 차폐 영역으로 인해 가리워진 화소에 대한 가리워짐 항을 포함한다. 여기서, 에너지 함수에서의 가리워짐 항은 가리워진 화소들의 중복되는 데이터 항을 제거하는 기능을 수행한다. 이는 차폐 영역에 강인한 스테레오 정합 기법을 적용하기 위함이다.The last term is the hidden term, Is a segment Wow It represents the sum of the data terms of all hidden pixels in between. Hidden pixels are plane coefficients , Each segment corresponding to it using Wow Can be obtained by warping, which is shown in FIG. That is, the energy function includes a data term, a smoothing term, and a hidden term for the pixel that is hidden due to the shielding area. Here, the hidden term in the energy function serves to remove the overlapping data term of the hidden pixels. This is to apply a robust stereo matching technique to the shielding area.
변이 추정부(140)의 변이지도 생성부(34)는 상기의 [수학식 5]에 정의된 에너지 함수를 이용하여 객체 및 배경 영역에 대한 변이지도를 개별적으로 생성한다. 즉, 변이지도 생성부(34)는 에너지 함수가 최소화되는 에너지 함수 파라미터(예를 들면, 평면 계수)를 이용하여 객체 영역 및 배경 영역별로 변이지도를 각각 생성한다. 예를 들어, 변이지도 생성부(34)는 마르코프 랜덤 필드(Markov Random Field)를 이용한 추론 기법인 신뢰도 확산 기법 등을 이용하여 에너지 함수를 최소화시킬 수 있다.The
도 4 는 본 발명에 따른 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 방법에 대한 일실시예 흐름도이다.4 is a flowchart illustrating a binocular / multi-view stereo matching method using object / background separation and image segmentation according to the present invention.
먼저, 양안/다시점 영상 획득부(110)는 복수의 비디오카메라(양안/다시점 카메라)로부터 동일 시각에 대한 양안/다시점 영상을 획득한다(402).First, the binocular / multi-view
그리고 양안/다시점 영상 획득부(110)는 획득된 양안/다시점 영상의 동기를 맞추어 저장한다(404).The binocular / multiview
이어서, 카메라정보 추출부(120)는 양안/다시점 영상 획득부(110)에서 획득된 양안/다시점 영상을 이용하여 카메라 보정(calibration) 과정을 통해 초점거리 등의 카메라 정보 및 각 시점 간의 상호 위치관계를 나타내는 기반 행렬(Fundamental matrix)을 계산한다(406).Subsequently, the camera information extracting unit 120 uses the binocular / multiview image acquired by the binocular / multiview
이후, 영역 판단부(130)는 양안/다시점 영상의 영역을 객체 영역 및 배경 영역으로 각각 구분하여 판단하고 판단 결과에 따라 양안/다시점 영상의 영역에 대한 객체 및 배경 분리 정보를 생성한다(408). 즉, 영역 판단부(130)는 객체 및 배경 분리 기법을 이용하여 양안/다시점 영상을 시간에 따라 컬러나 밝기 변화가 적은 배경 영역과 시간에 따라 컬러나 밝기 변화가 큰 객체 영역으로 분리하고, 분리 결과는 객체 및 배경 분리 정보라 한다.Subsequently, the
그리고 변이 추정부(140)는 객체 영역 및 배경 영역으로 구분된 양안/다시점 영상을 유사 영역별로 영상 분할하고, 양안/다시점 영상과 객체 및 배경 분리 정보를 이용하여 영상 분할된 객체 영역에 대한 객체 변이지도 및 배경 영역에 대한 배경 변이지도를 개별적으로 구한다(410).The
이어서, 변이지도 합성부(150)는 객체 변이지도와 배경 변이지도를 합성하여 양안/다시점 영상에 대한 장면 변이지도를 생성한다. 즉, 변이지도 합성부(150)는 추정된 배경 영역에 대한 변이지도와 객체 영역에 대한 변이지도를 합성하여 최종 장면에 대한 변이지도를 생성한다(412).Subsequently, the disparity map synthesis unit 150 synthesizes the object disparity map and the background disparity map to generate a scene disparity map for the binocular / multiview image. That is, the variation map synthesis unit 150 generates a variation map for the final scene by synthesizing the variation map for the estimated background region and the variation map for the object region (412).
각 화소에 대해 계산된 최종 변이는 변이지도 형태의 디지털 영상으로 저장된다. 이 변이지도는 카메라 정보를 이용하여 3차원 점 구름이나 3차원 모델로 변환될 수 있다.The final variation calculated for each pixel is stored as a digital image in the form of a disparity map. The disparity map can be converted into a 3D point cloud or a 3D model using camera information.
도 5 는 본 발명에 따른 가우시안 모델을 이용한 영역 판단 방법에 대한 일실시예 상세 흐름도이다.FIG. 5 is a detailed flowchart illustrating an area determination method using a Gaussian model according to the present invention. FIG.
먼저, 분포모델 추정부(21)는 객체가 제외된 기저장된 배경 영상을 획득한다(502). 이때, 배경 영상은 양안/다시점 영상 획득부(110)에서 미리 획득될 수 있다.First, the
그리고 분포모델 추정부(21)는 배경 영상에 대한 각 화소의 컬러 혹은 밝기 에 대한 가우시안(Gaussian) 모델을 상기의 [수학식 1]과 같이 추정한다(504).The
영역 분류부(22)는 상기의 [수학식 1]과 같이 추정된 가우시안 모델을 이용하여, 객체가 포함된 입력 영상이 주어졌을 때 각 화소에 대해서 그러한 컬러 혹은 밝기가 나올 확률을 계산한다. 그리고 영역 분류부(22)는 계산된 확률 값에 따라 각 화소를 배경, 객체, 또는 아직 결정되지 않은 화소로 분류한다(506).The
그리고 혼합 분포모델 추정부(23)는 분류된 배경 또는 객체에 속한 화소들의 컬러 값을 이용하여 배경과 객체에 대한 가우시안 믹스쳐(Gaussian Mixture) 모델을 상기의 [수학식 2]와 같이 추정한다(508).The mixed
객체 및 배경 영역 판단부(24)는 전술한 바와 같이 추정된 가우시안 믹스쳐 모델을 사용하여 정의된 에너지 함수를 이용하여 객체 영역 또는 배경 영역으로 판단하고 판단 결과에 따라 객체 및 배경 분리 정보를 생성한다(510).The object and
도 6 은 본 발명에 따른 에너지 함수를 이용한 변이지도 생성 방법에 대한 일실시예 상세 흐름도이다.6 is a detailed flowchart of an embodiment of a method for generating a disparity map using an energy function according to the present invention.
영상분할부(31)는 객체 및 배경 분리 정보에 따라 각각 구분된 객체 영역 및 배경 영역별로 컬러가 유사한 영역인 세그먼트 단위로 영상분할한다(602).The
평면 계수 추출부(32)는 "602" 과정에서 나누어진 영상분할 결과를 이용하여 초기 변이 및 각각의 컬러 세그먼트에 대한 평면 계수를 추출한다(604).The
에너지 함수 계산부(33)는 추출된 평면 계수들을 이용하여 상기의 [수학식 4]와 같은 에너지 함수를 정의한다(606).The energy function calculator 33 defines an energy function as shown in Equation 4 above using the extracted plane coefficients (606).
그리고 변이지도 생성부(34)는 정의된 에너지 함수를 이용하여 객체 영역 및 배경 영역에 대한 변이지도를 개별적으로 생성한다(608).The
도 7 은 본 발명에 따른 차폐 영역에 대한 일실시예 설명도이다.7 is a diagram illustrating an embodiment of a shielding area according to the present invention.
도 7에 도시된 바와 같이, 임의의 두 영상 영역(710, 720)을 시점을 달리하여 살펴보면, 카메라의 시점에 따라 가리워지는 영역으로 인해 차폐 영역(730)이 발생한다. 또한, 임의의 두 영상 영역(710, 720)에서는 인접한 세그먼트에 따라 가리워진 화소가 발생할 수 있다.As shown in FIG. 7, when the two
본 발명에 따른 에너지 함수 계산부(33)는 임의의 두 영상 영역(710, 720)으로 인해 나타나는 차폐 영역(730)을 고려하여 에너지 함수를 계산한다. 즉, 에너지 함수 계산부(33)는 상기의 [수학식 4]에서와 같이 전체 데이터 항에 포함된 차폐 영역만큼의 에너지를 전체 에너지에서 빼서 차페 영역(가리워진 화소)(730)을 고려하여 에너지를 구한다.The energy function calculation unit 33 according to the present invention calculates the energy function in consideration of the
한편, 전술한 바와 같은 본 발명의 방법은 컴퓨터 프로그램으로 작성이 가능하다. 그리고 상기 프로그램을 구성하는 코드 및 코드 세그먼트는 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 작성된 프로그램은 컴퓨터가 읽을 수 있는 기록매체(정보저장매체)에 저장되고, 컴퓨터에 의하여 판독되고 실행됨으로써 본 발명의 방법을 구현한다. 그리고 상기 기록매체는 컴퓨터가 판독할 수 있는 모든 형태의 기록매체를 포함한다.On the other hand, the method of the present invention as described above can be written in a computer program. And the code and code segments constituting the program can be easily inferred by a computer programmer in the art. In addition, the written program is stored in a computer-readable recording medium (information storage medium), and read and executed by a computer to implement the method of the present invention. The recording medium may include any type of computer readable recording medium.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by the drawings.
도 1 은 본 발명에 따른 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 장치의 일실시예 구성도,1 is a block diagram of an embodiment of a binocular / multi-view stereo matching device using object / background separation and image segmentation according to the present invention;
도 2 는 본 발명에 따른 도 1의 영역 판단부의 일실시예 상세 구성도,2 is a detailed configuration diagram of an embodiment of the region determination unit of FIG. 1 according to the present invention;
도 3 은 본 발명에 따른 도 1의 변이 추정부의 일실시예 상세 구성도,3 is a detailed configuration diagram of an embodiment of the variation estimator of FIG. 1 according to the present invention;
도 4 는 본 발명에 따른 객체/배경 분리 및 영상분할을 이용한 양안/다시점 스테레오 정합 방법에 대한 일실시예 흐름도,4 is a flowchart illustrating an embodiment of a binocular / multi-view stereo matching method using object / background separation and image segmentation according to the present invention;
도 5 는 본 발명에 따른 가우시안 모델을 이용한 영역 판단 방법에 대한 일실시예 상세 흐름도,5 is a detailed flowchart illustrating an area determination method using a Gaussian model according to the present invention;
도 6 은 본 발명에 따른 에너지 함수를 이용한 변이지도 생성 방법에 대한 일실시예 상세 흐름도,6 is a detailed flowchart illustrating an embodiment of a method for generating a disparity map using an energy function according to the present invention;
도 7 은 본 발명에 따른 차폐 영역에 대한 일실시예 설명도이다.7 is a diagram illustrating an embodiment of a shielding area according to the present invention.
* 도면의 주요 부분에 대한 부호 설명* Explanation of symbols on the main parts of the drawing
110: 양안/다시점 영상 획득부 120: 카메라정보 추출부110: binocular / multi-view image acquisition unit 120: camera information extraction unit
130: 영역 판단부 140: 변이 추정부130: region determination unit 140: mutation estimation unit
150: 변이지도 합성부 160: 변이지도 저장부150: variation map synthesis unit 160: variation map storage unit
21: 분포모델 추정부 22: 영역 분류부21: distribution model estimation unit 22: region classification unit
23: 혼합 분포모델 추정부 24: 객체 및 배경 영역 판단부23: mixed distribution model estimation unit 24: object and background region determination unit
31: 영상분할부 32: 평면 계수 추출부31: image segmentation unit 32: plane coefficient extraction unit
33: 에너지 함수 계산부 34: 변이지도 생성부33: energy function calculation unit 34: disparity map generator
Claims (12)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060122512 | 2006-12-05 | ||
KR20060122512 | 2006-12-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20080052363A KR20080052363A (en) | 2008-06-11 |
KR100926520B1 true KR100926520B1 (en) | 2009-11-12 |
Family
ID=39807184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070106174A KR100926520B1 (en) | 2006-12-05 | 2007-10-22 | Apparatus and method of matching binocular/multi-view stereo using foreground/background separation and image segmentation |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100926520B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102208116A (en) * | 2010-03-29 | 2011-10-05 | 卡西欧计算机株式会社 | 3D modeling apparatus and 3D modeling method |
US9445071B2 (en) | 2011-01-03 | 2016-09-13 | Samsung Electronics Co., Ltd. | Method and apparatus generating multi-view images for three-dimensional display |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100953738B1 (en) * | 2008-05-29 | 2010-04-19 | 한국외국어대학교 연구산학협력단 | Apparatus for segmenting multi-view images |
KR101282196B1 (en) | 2009-12-11 | 2013-07-04 | 한국전자통신연구원 | Apparatus and method for separating foreground and background of based codebook In a multi-view image |
KR101385522B1 (en) * | 2012-09-27 | 2014-04-15 | 서울시립대학교 산학협력단 | Method and terminal for providing facsimile function |
KR102078312B1 (en) * | 2013-04-10 | 2020-02-18 | 삼성디스플레이 주식회사 | Method for generating depth map |
US9489741B2 (en) | 2014-08-28 | 2016-11-08 | Nokia Technologies Oy | Method, apparatus and computer program product for disparity estimation of foreground objects in images |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH026517A (en) * | 1988-06-24 | 1990-01-10 | Toagosei Chem Ind Co Ltd | Preparation of polyester (meth)acrylate |
JP2005001119A (en) * | 2003-06-09 | 2005-01-06 | Insutetsuku Kk | Method and apparatus for monitoring spray powder supply state in paper ejection part of sheet-fed printing machine |
KR20050058085A (en) * | 2003-12-11 | 2005-06-16 | 한국전자통신연구원 | 3d scene model generation apparatus and method through the fusion of disparity map and depth map |
KR20060063558A (en) * | 2004-12-06 | 2006-06-12 | 한국전자통신연구원 | A depth information-based stereo/multi-view stereo image matching apparatus and method |
-
2007
- 2007-10-22 KR KR1020070106174A patent/KR100926520B1/en not_active IP Right Cessation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH026517A (en) * | 1988-06-24 | 1990-01-10 | Toagosei Chem Ind Co Ltd | Preparation of polyester (meth)acrylate |
JP2005001119A (en) * | 2003-06-09 | 2005-01-06 | Insutetsuku Kk | Method and apparatus for monitoring spray powder supply state in paper ejection part of sheet-fed printing machine |
KR20050058085A (en) * | 2003-12-11 | 2005-06-16 | 한국전자통신연구원 | 3d scene model generation apparatus and method through the fusion of disparity map and depth map |
KR20060063558A (en) * | 2004-12-06 | 2006-06-12 | 한국전자통신연구원 | A depth information-based stereo/multi-view stereo image matching apparatus and method |
Non-Patent Citations (2)
Title |
---|
논문(2005.11.19) |
논문(2006.5.17) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102208116A (en) * | 2010-03-29 | 2011-10-05 | 卡西欧计算机株式会社 | 3D modeling apparatus and 3D modeling method |
US9445071B2 (en) | 2011-01-03 | 2016-09-13 | Samsung Electronics Co., Ltd. | Method and apparatus generating multi-view images for three-dimensional display |
Also Published As
Publication number | Publication date |
---|---|
KR20080052363A (en) | 2008-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10679361B2 (en) | Multi-view rotoscope contour propagation | |
KR100931311B1 (en) | Depth estimation device and its method for maintaining depth continuity between frames | |
KR100926520B1 (en) | Apparatus and method of matching binocular/multi-view stereo using foreground/background separation and image segmentation | |
KR100953076B1 (en) | Multi-view matching method and device using foreground/background separation | |
KR100793076B1 (en) | Edge-adaptive stereo/multi-view image matching apparatus and its method | |
EP1958149B1 (en) | Stereoscopic image display method and apparatus, method for generating 3d image data from a 2d image data input and an apparatus for generating 3d image data from a 2d image data input | |
KR102434406B1 (en) | Augmented Reality device based on recognition spacial structure and method thereof | |
EP2533191B1 (en) | Image processing system, image processing method, and program | |
KR100745691B1 (en) | Binocular or multi-view stereo matching apparatus and its method using occlusion area detection | |
Pearson et al. | Plenoptic layer-based modeling for image based rendering | |
KR100560464B1 (en) | Multi-view display system with viewpoint adaptation | |
CN104780355A (en) | Depth-based cavity repairing method in viewpoint synthesis | |
KR101181199B1 (en) | Stereoscopic image generation method of background terrain scenes, system using the same and recording medium for the same | |
EP2757789A1 (en) | Image processing system, image processing method, and image processing program | |
US9661307B1 (en) | Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D | |
KR100927734B1 (en) | Multi-view image generating device and method | |
KR20100091864A (en) | Apparatus and method for the automatic segmentation of multiple moving objects from a monocular video sequence | |
KR101086274B1 (en) | Apparatus and method for extracting depth information | |
Ma et al. | Depth-guided inpainting algorithm for free-viewpoint video | |
CN110717962B (en) | Dynamic photo generation method, device, photographing equipment and storage medium | |
KR100960694B1 (en) | System and Method for matting multi-view image, Storage medium storing the same | |
KR20140118083A (en) | System for producing stereo-scopic image or video and method for acquiring depth information | |
CN112991419B (en) | Parallax data generation method, parallax data generation device, computer equipment and storage medium | |
KR101233398B1 (en) | Method and apparatus for generating depth map | |
Guillemaut et al. | Stereoscopic content production of complex dynamic scenes using a wide-baseline monoscopic camera set-up |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130506 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20131028 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |