KR100776649B1 - A depth information-based Stereo/Multi-view Stereo Image Matching Apparatus and Method - Google Patents

A depth information-based Stereo/Multi-view Stereo Image Matching Apparatus and Method Download PDF

Info

Publication number
KR100776649B1
KR100776649B1 KR1020050028382A KR20050028382A KR100776649B1 KR 100776649 B1 KR100776649 B1 KR 100776649B1 KR 1020050028382 A KR1020050028382 A KR 1020050028382A KR 20050028382 A KR20050028382 A KR 20050028382A KR 100776649 B1 KR100776649 B1 KR 100776649B1
Authority
KR
South Korea
Prior art keywords
image
depth information
variation
information
depth
Prior art date
Application number
KR1020050028382A
Other languages
Korean (ko)
Other versions
KR20060063558A (en
Inventor
엄기문
안충현
이수인
김승만
김강연
이관행
Original Assignee
한국전자통신연구원
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원, 광주과학기술원 filed Critical 한국전자통신연구원
Publication of KR20060063558A publication Critical patent/KR20060063558A/en
Application granted granted Critical
Publication of KR100776649B1 publication Critical patent/KR100776649B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

1. 청구범위에 기재된 발명이 속한 기술분야 1. TECHNICAL FIELD OF THE INVENTION

본 발명은 깊이 정보 기반 스테레오/다시점 영상 정합 장치 및 방법에 관한 것임. The present invention relates to a depth information based stereo / multi-view image registration device and method.

2. 발명이 해결하려고 하는 기술적 과제 2. The technical problem to be solved by the invention

본 발명은, 한 쌍 이상의 스테레오 영상을 정합하여 얻어지는 기준 영상에 대한 변이 지도의 정확도를 향상시키기 위하여 깊이 카메라 등에 의해 얻어진 기준시점에 대한 깊이 정보를 이용하여 스테레오 정합의 변이 탐색 범위 및 정합 창틀을 적응적으로 결정함으로써 변이 지도의 정확도를 향상시키면서도 변이 탐색 범위를 최소화할 수 있는 스테레오/다시점 영상 정합 장치 및 방법을 제공하는데 그 목적이 있음. The present invention adapts the variation search range and matching window frame of stereo matching using depth information about a reference time point obtained by a depth camera or the like to improve the accuracy of the disparity map for the reference image obtained by matching one or more stereo images. The purpose of the present invention is to provide a stereo / multiview image matching device and method that can minimize the range of the disparity search while improving the accuracy of the disparity map.

3. 발명의 해결방법의 요지 3. Summary of Solution to Invention

본 발명은, 다시점 비디오 카메라 및 깊이 정보 획득 장치로부터 획득한 다시점 영상 및 기준 시점에 대한 깊이 정보를 이용하여 변이 지도를 작성하여 3차원 영상 정보를 획득하기 위한 깊이 정보 기반 스테레오/다시점 영상 정합 장치로서, 상기 다시점 영상을 이용하여 각 시점의 카메라 정보를 추출하기 위한 카메라보정수단; 상기 깊이 정보를 기준시점에 대한 변이로 변환하기 위한 깊이정보변환수단; 및 기준 시점에 대한 변이 지도를 계산하기 위하여 상기 다시점 영상을 입력받아 기준 시점 영상과 정합할 대상 영상의 극상선(epipolar line)을 일치시키는 영상 보정(image rectification)을 수행하기 위한 영상보정수단을 포함함. The present invention provides a depth information based stereo / multiview image for obtaining a 3D image information by creating a disparity map using a multiview image obtained from a multiview video camera and a depth information obtaining apparatus and depth information of a reference view point. A matching device, comprising: camera correction means for extracting camera information of each viewpoint using the multi-view image; Depth information converting means for converting the depth information into a variation with respect to a reference time point; And an image correction means for performing image rectification by receiving the multi-view image and calculating an epipolar line of a target image to be matched with the reference viewpoint image to calculate a disparity map with respect to a reference viewpoint. Included.

4. 발명의 중요한 용도 4. Important uses of the invention

본 발명은 다시점 영상 기반 장면 모델링 시스템 등에 이용됨.The present invention is used for a multiview image based scene modeling system.

변이 지도, 스테레오 정합, 다시점 영상, 3차원 영상 처리  Disparity Map, Stereo Matching, Multi-view Image, 3D Image Processing

Description

깊이 정보 기반 스테레오/다시점 영상 정합 장치 및 방법{A depth information-based Stereo/Multi-view Stereo Image Matching Apparatus and Method}A depth information-based stereo / multi-view stereo image matching apparatus and method}

도 1은 본 발명에 따른 깊이 정보 기반 스테레오/다시점 영상 정합 장치의 일실시예 구성도,1 is a configuration diagram of an embodiment of a depth-based stereo / multi-view image registration device according to the present invention,

도 2는 본 발명에 따른 깊이 정보 기반 스테레오/다시점 영상 정합 방법에 대한 일실시예 흐름도,2 is a flowchart illustrating a depth information based stereo / multiview image matching method according to the present invention;

도 3은 본 발명의 바람직한 실시예에 따라 다시점 영상 보정부로부터 계산된 3시점 보정 영상의 예시도로서, 3차원 공간상의 점 P와 보정된 다시점 영상 및 극상선 간의 위치 관계를 3시점 영상으로 나타낸 도면,3 is an exemplary diagram of a three-view corrected image calculated from a multi-view image corrector according to a preferred embodiment of the present invention. Drawing,

도 4는 본 발명에 따른 정합 창틀 선택 및 탐색 범위 설정 과정에 대한 일실시예 흐름도,4 is a flowchart illustrating a process of selecting a matching window frame and setting a search range according to the present invention;

도 5는 본 발명에 따른 깊이 정보를 이용한 변이 탐색 범위 설정 과정에 대한 일실시예 설명도이다.5 is a diagram illustrating an embodiment of a process of setting a variation search range using depth information according to an embodiment of the present invention.

* 도면의 주요 부분에 대한 부호의 설명* Explanation of symbols for the main parts of the drawings

101 : 다시점 비디오카메라 102 : 깊이 카메라101: multi-view video camera 102: depth camera

110 : 다시점비디오 저장부 120 : 깊이 정보 저장부110: multi-view video storage unit 120: depth information storage unit

130 : 카메라 보정부 140 : 깊이 정보 변환부130: camera correction unit 140: depth information converter

150 : 다시점영상 보정부 160 : 정합창틀 선택부150: multi-view image correction unit 160: registration window frame selection unit

170 : 변이탐색영역 계산부 180 : 변이 탐색부170: mutation search region calculation unit 180: mutation search unit

190 : 변이 선택부 200 : 변이지도 생성/저장부190: variation selection unit 200: variation map generation / storage unit

본 발명은 깊이 정보 기반 스테레오/다시점 영상 정합 장치 및 방법에 관한 것으로, 더욱 상세하게는 3차원 장면이나 객체의 모델링에 많이 사용되는 깊이 카메라, 스캐너 등의 능동적 깊이 정보 획득 장치에 의해 얻어진 기준 시점의 깊이 정보를 이용하여 변이 지도를 작성하고 이를 이용하여 3차원 영상 정보를 획득하기 위한 깊이 정보 기반 스테레오/다시점 영상 정합 장치 및 그 방법에 관한 것이다.The present invention relates to a depth information-based stereo / multi-view image registration device and method, and more particularly, to a reference viewpoint obtained by an active depth information acquisition device such as a depth camera, a scanner, etc. which are frequently used for modeling a 3D scene or an object. The present invention relates to a depth-based stereo / multi-view image registration device and a method for creating a disparity map using depth information and obtaining the 3D image information using the depth map.

객체나 장면의 3차원 정보를 획득하는 방법은 크게 능동적 방법과 수동적 방법으로 구분할 수 있다.Methods of acquiring 3D information of an object or a scene can be largely divided into an active method and a passive method.

상기 능동적 방법은 3차원 스캐너, 구조적 밝기(structured light) 또는 3차원 깊이 카메라(depth camera) 등의 능동적 3차원 정보 획득 장치를 이용하여 여러 시점에서 깊이 정보(깊이지도, depth map)를 획득하고, 이를 공통 3차원 좌표계 상에서 정렬하거나, 상대적인 변환 관계를 구하여 정렬/결합함으로써 3차원 모델을 구성한다(참조 문헌 : I. Stamos, P. K. Allen, "3-D Model Construction Using Range and Image Data," IEEE International conference on Computer Vision and Pattern Recognition, pp.531-536, June 2000). The active method acquires depth information (depth map) at various points of time using an active three-dimensional information acquisition device such as a three-dimensional scanner, structured light or a three-dimensional depth camera, They can be aligned on a common three-dimensional coordinate system, or a relative transformation relationship can be obtained to align / combine them (see I. Stamos, PK Allen, "3-D Model Construction Using Range and Image Data," IEEE International). conference on Computer Vision and Pattern Recognition , pp.531-536, June 2000).

이러한 능동적 방법은 비교적 신속하면서도 정확한 3차원 점들을 제공하며, 조광 조건의 영향을 받지 않는 장점이 있다. 하지만, 그 해상도에 제약이 있으며, 고가의 장비가 필요하다는 단점이 있다.This active method provides relatively fast and accurate three-dimensional points and has the advantage of not being affected by dimming conditions. However, there is a limitation in the resolution, the disadvantage is that expensive equipment is required.

한편, 상기 수동적 방법은 여러 시점의 광학 카메라로부터 얻어진 영상으로부터 텍스처 정보를 이용하여 3차원 정보를 생성하기 위한 방법이며, 스테레오 정합(stereo matching) 방법이 대표적이다(참조 문헌 : Soon-Yong Park and Murai Subbarao, "A Range Image Refinement Technique for Multi-view 3D Model Reconstruction," Proceedings of International Conference on 3-D Digital Imaging and Modeling 2003, October 2003). Meanwhile, the passive method is a method for generating three-dimensional information using texture information from images obtained from optical cameras of various viewpoints, and a stereo matching method is typical (Soon-Yong Park and Murai). Subbarao, "A Range Image Refinement Technique for Multi-view 3D Model Reconstruction," Proceedings of International Conference on 3-D Digital Imaging and Modeling 2003 , October 2003).

상기 스테레오 정합은 두 대의 좌우 카메라로부터 취득된 영상 중 하나를 기준 영상으로, 다른 영상을 탐색 영상으로 놓았을 때, 이 두 영상에서 공간상의 동일한 한 점에 대한 기준 영상과 탐색 영상에서의 영상 좌표의 차이를 계산하는데 이를 변이(disparity)라고 한다. 상기 변이를 기준 영상의 각 화소에 대하여 계산하면, 영상의 형태로 변이가 저장되는데 이를 변이 지도(disparity map)이라고 한다.The stereo matching is based on one of the images acquired from the two left and right cameras as the reference image, and when the other image is placed as the search image, the coordinates of the reference image and the search image in the search image for the same point in space in these two images. The difference is calculated, called disparity. When the variation is calculated for each pixel of the reference image, the variation is stored in the form of an image, which is called a disparity map.

즉, 수동적 방법은 이러한 변이 지도를 여러 시점의 영상으로부터 여러 개 추출하고, 이들을 카메라 정보를 이용하여 공통 좌표계 상에서 정렬, 결합함으로써 3차원 정보를 획득한다.That is, the passive method extracts a plurality of such disparity maps from images of various viewpoints, and obtains three-dimensional information by aligning and combining them on a common coordinate system using camera information.

이러한 수동적 방법은 상기 능동적 방법에 비해 저가의 비용으로 3차원 정보를 얻을 수 있으며, 영상의 해상도가 높아서 더욱 정밀한 결과를 얻을 수 있고, 텍스쳐 정보를 포함하고 있으므로 생성된 모델에 텍스쳐 정보를 투영하여 보다 사실적인 3차원 모델을 얻을 수 있다는 장점이 있다. 하지만, 조광 조건 및 텍스쳐 정보의 영향이 크며, 차폐 지역에서 오차가 크며, 조밀한 변이 지도를 얻기 위해서는 수행 시간이 길다는 단점이 있다.This passive method can obtain three-dimensional information at a lower cost than the active method, and obtains more accurate results due to the higher resolution of the image, and includes texture information, thereby projecting texture information onto the generated model. The advantage is that a realistic three-dimensional model can be obtained. However, there are disadvantages in that the lighting conditions and texture information are largely influenced, the errors are large in the shielding area, and the execution time is long to obtain a dense disparity map.

최근에는 자외선 등 능동 센서를 이용하여 3차원 정보를 얻고, 동시에 카메라에 의해 그 영역에 대한 영상 텍스쳐 정보를 얻을 수 있는 3차원 깊이 카메라가 발표되기도 하였다(3DV Systems, Zcam™).Recently, three-dimensional depth cameras have been announced (3DV Systems, Zcam ™) that can obtain three-dimensional information by using active sensors such as ultraviolet rays and at the same time obtain image texture information of the area by the camera.

전술한 상기 두 가지 종류의 3차원 정보 획득 방법은 각각 장단점이 있으므로, 최근에는 이러한 능동적 방법과 수동적 방법의 결합을 통하여 3차원 정보의 정확도를 개선하기 위한 기술들(예: S. Weik, "Registration of 3-D Partial Surface Models using Luminance and Depth Information," Proceedings of International Conference on Recent Advances in 3-D Digital Imaging and Modeling, pp. 93-100, May 1997)이 발표되고 있다. Since the two types of three-dimensional information acquisition methods described above have advantages and disadvantages, recently, techniques for improving the accuracy of three-dimensional information through the combination of the active and passive methods (eg, S. Weik, "Registration of 3-D Partial Surface Models using Luminance and Depth Information, " Proceedings of International Conference on Recent Advances in 3-D Digital Imaging and Modeling , pp. 93-100, May 1997).

하지만, 이러한 방법들도 카메라 보정 오차에 의한 오류를 해결할 수 없다는 문제점이 있으며, 단순하게 레인지(range) 데이터의 정확한 정렬을 위한 보조적인 수단으로서 영상 데이터를 활용함으로써 활용도가 제한적인 문제점이 있다. However, these methods also have a problem that the error due to the camera correction error can not be solved, there is a problem that the utilization is limited by simply using the image data as an auxiliary means for the accurate alignment of the range (range) data.

또한, 최근에는 능동적 방법에 의해 얻어진 데이터와 수동적 방법에 의한 데이터의 융합을 통하여 두 방법의 장단점을 보완하는 기술(참조 문헌 : 대한민국 등록특허 1004118750000, 엄기문외, 스테레오 영상 시차지도 융합 방법 및 그를 이용한 3차원 영상 표시 방법)도 연구되고 있다. 하지만, 상기 기술 역시 전술한 두 방법에 의한 깊이지도 데이터가 부정확할 경우 융합된 깊이지도 데이터의 정확도도 부정확하게 된다는 단점이 있다. 즉 두 입력 깊이 데이터의 정확도에 의존적이라는 문제점이 있다.In addition, recently, a technique for compensating the advantages and disadvantages of the two methods through fusion of data obtained by an active method and data by a passive method (Ref .: Korea Patent No. 1004118750000, Um Ki-Moon et al., Stereo image parallax map fusion method and 3 3D image display method) is also being studied. However, the above technique also has a disadvantage in that the accuracy of the fused depth map data is also incorrect when the depth map data by the above-described two methods are incorrect. That is, there is a problem in that it depends on the accuracy of the two input depth data.

따라서 단순한 결과만의 융합이 아니라 능동적 방법 및 수동적 방법에 의한 깊이 정보의 획득 과정에서 상호 보완적으로 두 데이터를 이용하는 기법의 개발이 요구된다.Therefore, it is necessary to develop a technique that uses two data complementarily in the process of acquiring depth information by an active method and a passive method, rather than merely fusion of results.

본 발명은 상기 요구에 부응하기 위하여 제안된 것으로, 한 쌍 이상의 스테레오 영상을 정합하여 얻어지는 기준 영상에 대한 변이 지도의 정확도를 향상시키기 위하여 깊이 카메라 등에 의해 얻어진 기준시점에 대한 깊이 정보를 이용하여 스테레오 정합의 변이 탐색 범위 및 정합 창틀을 적응적으로 결정함으로써 변이 지도의 정확도를 향상시키면서도 변이 탐색 범위를 최소화할 수 있는 스테레오/다시점 영상 정합 장치 및 방법을 제공하는데 그 목적이 있다.The present invention has been proposed to meet the above requirements, and stereo matching is performed by using depth information on a reference viewpoint obtained by a depth camera or the like to improve the accuracy of the disparity map for a reference image obtained by matching one or more stereo images. It is an object of the present invention to provide a stereo / multiview image registration device and a method for adaptively determining a disparity search range and a matching window frame to minimize the disparity search range while improving the accuracy of the disparity map.

또한, 본 발명은 깊이 카메라 등에 의해 획득된 깊이 정보 및 두 대 이상의 카메라에 의해 동일 시간에 촬영된 한 쌍 이상의 스테레오/다시점 영상을 이용하여 기준 시점에 대한 변이 지도를 계산하여, 변이 탐색 범위의 설정 및 정합 창틀 종류 선택에 깊이 정보를 이용함으로써 변이 지도의 정확도를 향상시키면서도 변이 탐색 범위를 최소화하여 3차원 영상 정보를 획득할 수 있는 스테레오/다시점 영상 정합 장치 및 방법을 제공하는데 그 목적이 있다.In addition, the present invention calculates the disparity map for the reference viewpoint by using the depth information obtained by the depth camera, etc. and one or more pairs of stereo / multi-view images captured at the same time by two or more cameras, The purpose of the present invention is to provide a stereo / multi-view image registration device and method that can obtain three-dimensional image information by minimizing the range of the disparity search while improving the accuracy of the disparity map by using depth information for setting and selecting the window frame type. .

본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 더욱 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.

상기 목적을 달성하기 위한 본 발명의 장치는, 다시점 비디오 카메라 및 깊이 정보 획득 장치로부터 획득한 다시점 영상 및 기준 시점에 대한 깊이 정보를 이용하여 변이 지도를 작성하여 3차원 영상 정보를 획득하기 위한 깊이 정보 기반 스테레오/다시점 영상 정합 장치로서, 상기 다시점 영상을 이용하여 각 시점의 카메라 정보를 추출하기 위한 카메라보정수단; 상기 깊이 정보를 기준시점에 대한 변이로 변환하기 위한 깊이정보변환수단; 및 기준 시점에 대한 변이 지도를 계산하기 위하여 상기 다시점 영상을 입력받아 기준 시점 영상과 정합할 대상 영상의 극상선(epipolar line)을 일치시키는 영상 보정(image rectification)을 수행하기 위한 영상보정수단을 포함하는 것을 특징으로 한다.The apparatus of the present invention for achieving the above object is to create a disparity map using the multi-view image obtained from the multi-view video camera and the depth information acquisition device and the depth information for the reference view to obtain the 3D image information 1. A depth information based stereo / multiview image matching device, comprising: camera correction means for extracting camera information of each viewpoint using the multiview image; Depth information converting means for converting the depth information into a variation with respect to a reference time point; And an image correction means for performing image rectification by receiving the multi-view image and calculating an epipolar line of a target image to be matched with the reference viewpoint image to calculate a disparity map with respect to a reference viewpoint. It is characterized by including.

또한, 본 발명의 장치는 상기 깊이 정보 및 다시점 영상 정보를 이용하여 정합 창틀의 종류를 선택하기 위한 정합창틀선택수단; 상기 깊이정보변환수단에서 변환된 변이를 이용하여 변이 탐색 범위를 계산하기 위한 변이탐색영역계산수단; 상기 정합창틀선택수단에서 선택된 정합 창틀을 이용하여 선택된 탐색 범위 내에서 유사도가 가장 높은 변이를 탐색하기 위한 변이탐색수단; 여러 시점으로부터 얻어진 동일점의 변이들을 비교하여 유사도가 가장 높은 스테레오 영상 쌍의 변이를 선택하기 위한 변이선택수단; 및 상기 다시점 영상의 기준 시점에 대하여 각 화소의 변이를 계산하여 변이지도를 생성하고 디지털 영상으로 기록하기 위한 변이지도생성/저장수단을 더 포함하는 것을 특징으로 한다.In addition, the apparatus of the present invention comprises: matching window frame selection means for selecting a type of matching window frame using the depth information and the multi-view image information; Variation search region calculation means for calculating a variation search range using the variation transformed by the depth information converting means; Mutation search means for searching for a variation having the highest similarity within a selected search range using the matching window frame selected by the matching window frame selecting means; Variation selecting means for selecting the variation of the stereo image pair having the highest similarity by comparing the variation of the same point obtained from several viewpoints; And disparity map generation / storing means for generating a disparity map by calculating the disparity of each pixel with respect to the reference viewpoint of the multi-view image and recording it as a digital image.

한편, 본 발명의 방법은 다시점 비디오 카메라 및 깊이 정보 획득 장치로부터 획득한 다시점 영상 및 기준 시점에 대한 깊이 정보를 이용하여 변이 지도를 작성하여 3차원 영상 정보를 획득하기 위한 깊이 정보 기반 스테레오/다시점 영상 정합 방법으로서, 상기 다시점 영상 및 기준 시점의 깊이정보를 입력받는 입력 단계; 각 시점의 카메라 정보를 추출하는 카메라 보정 단계; 상기 깊이 정보를 기준시점에 대한 변이로 변환하는 깊이 정보 변환 단계; 기준 시점에 대한 변이 지도를 계산하기 위하여 기준 시점 영상과 정합할 대상 영상의 극상선(epipolar line)을 일치시키는 영상 보정(image rectification) 단계; 상기 깊이 정보 및 다시점 영상 정보를 이용하여 정합 창틀의 종류를 선택하는 정합 창틀 선택 단계; 상기 변환된 변이로부터 변이 탐색 범위를 계산하는 변이 탐색 범위 계산 단계; 상기 선택된 창틀을 이용하여 선택된 탐색 범위 내에서 유사도가 가장 높은 변이를 탐색하는 단 계; 여러 시점으로부터 얻어진 동일점의 변이들을 비교하여 유사도가 가장 높은 스테레오 영상 쌍의 변이를 선택하는 단계; 및 각 화소의 변이를 계산하여 변이 지도를 생성하고 디지털 영상으로 기록하는 단계를 포함하는 것을 특징으로 한다.On the other hand, the method of the present invention is a depth information based stereo / to obtain a three-dimensional image information by creating a disparity map using the depth information of the multi-view image and the reference viewpoint obtained from the multi-view video camera and the depth information acquisition device / A multi-view image matching method, comprising: an input step of receiving depth information of the multi-view image and a reference viewpoint; A camera correction step of extracting camera information of each viewpoint; A depth information converting step of converting the depth information into a variation with respect to a reference time point; An image rectification step of matching an epipolar line of a target image to be matched with the reference viewpoint image to calculate a disparity map with respect to the reference viewpoint; A matching window frame selection step of selecting a type of matching window frame using the depth information and the multi-view image information; A variation search range calculation step of calculating a variation search range from the transformed variation; Searching for a variation having the highest similarity within a selected search range using the selected window frame; Comparing the variations of the same point obtained from several viewpoints and selecting the variation of the stereo image pair having the highest similarity; And calculating a variation of each pixel to generate a variation map and to record the digital image.

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 더욱 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.The above objects, features, and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, whereby those skilled in the art may easily implement the technical idea of the present invention. There will be. In addition, in describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 깊이 정보 기반 스테레오/다시점 영상 정합 장치의 일실시예 구성도로서, 다시점 비디오 카메라(101) 및 깊이 카메라(102)를 이용한 깊이 정보 기반 스테레오/다시점 영상 정합 장치의 구성도이다.1 is a configuration diagram of a depth information based stereo / multiview image matching device according to an exemplary embodiment of the present invention, and a depth information based stereo / multiview image matching device using a multiview video camera 101 and a depth camera 102. The configuration diagram.

도 1에 도시된 바와 같이, 본 발명에 따른 깊이 정보 기반 스테레오/다시점 영상 정합 장치는 다시점 비디오 카메라(본 실시예에서는 3시점 카메라, 101)와 기준 시점에 대한 깊이 정보 획득 장치인 깊이 카메라(102)로부터 다시점 영상 및 기준 시점의 깊이 정보를 입력받아 저장하는 다시점비디오저장부(110)와 깊이 정보저장부(120), 각 시점의 카메라 정보를 추출하는 카메라 보정부(130), 깊이 정보를 기준시점에 대한 변이로 변환하는 깊이 정보 변환부(140), 기준 시점을 포함한 다시점 영상을 입력으로 하여 기준 시점에 대한 변이 지도를 계산하기 위하여 기준 시점 영상과 정합할 대상 영상의 극상선(epipolar line)을 일치시키는 영상 보정(image rectification)을 수행하는 다시점영상 보정부(150), 상기 깊이 정보 및 영상정보를 이용하여 적용할 정합 창틀의 종류를 선택하는 정합창틀선택부(160), 변환된 변이로부터 변이 탐색 범위를 계산하는 변이탐색영역 계산부(170), 선택된 창틀을 이용하여 선택된 탐색 범위 내에서 유사도가 가장 높은 변이를 탐색하는 변이 탐색부(180), 여러 시점으로부터 얻어진 동일점의 변이들을 비교하여 유사도가 가장 높은 스테레오 영상 쌍의 변이를 선택하는 변이 선택부(190), 기준 시점에 대하여 각 화소의 변이를 계산하여 변이 지도를 생성하고 이를 디지털 영상으로 기록하는 변이지도 생성/저장부(200)를 포함한다. 또한, 상기 변이 지도를 입력받아 카메라 정보를 이용하여 3차원 공간상의 점 구름(point cloud) 또는 3차원 모델로 변환하는 3차원 정보 변환 수단을 더 포함할 수 있다(미도시).As shown in FIG. 1, the depth information-based stereo / multiview image matching device according to the present invention includes a multiview video camera (three-view camera 101 in this embodiment) and a depth camera which is a depth information acquisition device for a reference viewpoint. Multi-view video storage unit 110 and depth information storage unit 120 for receiving and storing the multi-view image and depth information of the reference view from the 102, the camera correction unit 130 for extracting the camera information of each view, The depth information converting unit 140 converts the depth information into a variation about the reference view, and inputs a multiview image including the reference view as an input to calculate the disparity map for the reference view. A multi-viewpoint image corrector 150 performing image rectification that matches an epipolar line, and a type of matching window frame to be applied using the depth information and the image information. Matching window frame selection unit 160 to select, the variation search area calculation unit 170 for calculating the variation search range from the transformed variation, the variation search unit for searching for the variation having the highest similarity in the selected search range using the selected window frame (180) a variation selector 190 for selecting the variation of the stereo image pair having the highest similarity by comparing the variation of the same point obtained from several viewpoints, generating a variation map by calculating the variation of each pixel with respect to the reference viewpoint; The variation map generation / storage unit 200 records the digital image. The apparatus may further include three-dimensional information converting means for receiving the disparity map and converting the transformed map into a point cloud or a three-dimensional model in a three-dimensional space using camera information (not shown).

도 2는 본 발명에 따른 깊이 정보 기반 스테레오/다시점 영상 정합 방법에 대한 일실시예 흐름도이다.2 is a flowchart illustrating a depth information based stereo / multiview image matching method according to the present invention.

먼저, 다시점 비디오카메라와 기준 시점에 대한 깊이 정보 획득 장치인 깊이 카메라 등으로부터 다시점 영상 및 기준 시점의 깊이 정보를 획득하고(201), 획득된 다시점 영상과 깊이 정보를 저장한다(202).First, a multiview image and depth information of a reference view are acquired from a multiview video camera and a depth camera, which is a depth information acquisition device for a reference view (201), and the obtained multiview image and depth information are stored (202). .

이어서, 각 시점의 카메라 정보를 추출하고 기반행렬을 계산하는 카메라 보 정을 수행하고(203), 깊이 정보를 기준시점에 대한 변이로 변환하는 깊이 지도 변환을 수행한다(204).Subsequently, camera correction is performed to extract camera information of each viewpoint and calculate a base matrix (203), and a depth map transformation is performed to convert depth information into a variation of a reference viewpoint (204).

이어서, 기준 시점에 대한 변이 지도를 계산하기 위하여 기준 시점 영상과 정합할 대상 영상의 극상선(epipolar line)을 일치시키는 영상 보정을 수행하고(205), 깊이 정보 기반 변이를 추출하여 깊이 정보 기반 스테레오 정합을 수행한다(206).Subsequently, in order to calculate a disparity map with respect to the reference view, image correction is performed to match an epipolar line of the target image to be matched with the reference view image (205). The registration is performed (206).

이어서, 변이지도를 생성하여 저장하며(207), 이 때 변이지도를 카메라 정보를 이용하여 3차원 공간상의 점 구름(point cloud) 또는 3차원 모델로 변환/생성하는 과정을 부가적으로 수행할 수 있다(208).Subsequently, a disparity map is generated and stored (207), and the disparity map may be additionally performed by converting / generating the disparity map into a point cloud or a three-dimensional model in three-dimensional space using camera information. 208.

이하, 본 발명의 바람직한 실시예에 따른 상기 구성 요소의 동작 원리 및 상세 기능을 상호 결합 관계를 중심으로 관련 도면을 참조하여 상술한다.Hereinafter, the operation principle and the detailed function of the component according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings with a focus on the mutual coupling relationship.

도 1을 참조하여 전술한 바와 같이, 본 발명에 따른 깊이 정보 기반 스테레오/다시점 영상 정합 장치는 적어도 두 대 이상의 비디오카메라(다시점 카메라)로부터 동일시간에 취득된 다시점 영상과, 깊이 카메라 등에 의해 취득된 기준 시점에 대한 깊이 정보를 입력받아 다시점 비디오 저장부(110)와 깊이 정보 저장부(120)에 저장한다. As described above with reference to FIG. 1, the depth information-based stereo / multiview image matching device according to the present invention includes a multiview image acquired at the same time from at least two video cameras (multiview cameras), a depth camera, or the like. The depth information about the reference view obtained by the controller is received and stored in the multiview video storage 110 and the depth information storage 120.

카메라 보정부(130)는 다시점 비디오 저장부(110)로부터 입력받은 다시점 영상을 이용하여 카메라 보정(calibration)을 통해 초점거리 등의 카메라 정보 및 각 시점 간의 상호 위치관계를 나타내는 기반 행렬(Fundamental matrix)을 계산한다. 이 때, 구해진 카메라 정보 및 기반 행렬 데이터는 데이터 저장장치 또는 컴퓨터 메모리상에 저장된다. The camera correction unit 130 uses a multiview image received from the multiview video storage 110 to perform a camera calibration to display a base matrix representing camera information such as focal length and mutual positional relationship between respective viewpoints. matrix) At this time, the obtained camera information and the base matrix data are stored in a data storage device or a computer memory.

깊이 정보 변환부(140)는 깊이 정보 변환부(103)로부터 입력받은 깊이 정보를 카메라 보정부(130)로부터 출력된 카메라 정보(카메라 내외부 파라미터)를 이용하여 기준시점 영상에 대한 변이정보로 변환한다. 이 때, 변환은 아래의 [수학식 1]과 [수학식 2]를 이용한다.The depth information converting unit 140 converts the depth information received from the depth information converting unit 103 into the variation information on the reference view image using camera information (camera internal and external parameters) output from the camera correction unit 130. . At this time, the conversion uses Equations 1 and 2 below.

disparity_1= (f*b)/depthdisparity_1 = (f * b) / depth

여기서, disparity_1은 변환된 변이값으로서 실제 거리 단위로 주어지며, f는 카메라의 초점거리, b는 기준 카메라와 대상 카메라 간격(베이스라인 길이), depth는 실제거리 단위로 주어지는 깊이 정보이다.Here, disparity_1 is a transformed variation value, which is given in actual distance units, f is a focal length of a camera, b is a distance between a reference camera and a target camera (baseline length), and depth is depth information given in actual distance units.

이 때, disparity_1의 스케일이 매우 작은 값이므로 카메라의 실제 CCD 셀 하나의 크기(cell size)를 이용하여 최종적으로 탐색영역 설정에 사용될 화소단위의 변이를 아래의 [수학식 2]를 이용하여 계산한다.At this time, since the scale of disparity_1 is a very small value, the pixel unit variation to be finally used for setting the search area is calculated by using the actual CCD cell size of the camera using Equation 2 below. .

disparity_2 = disparity_1/cell_size disparity_2 = disparity_1 / cell_size

여기서, cell_size는 카메라 CCD의 실제 셀 크기이다.Here, cell_size is the actual cell size of the camera CCD.

이와 같이 계산된 변이는 스테레오 영상의 정합에 필요한 탐색영역을 설정하는데 사용된다.The calculated variation is used to set a search area required for matching stereo images.

도 3은 본 발명의 바람직한 실시예에 따라 다시점 영상 보정부로부터 계산된 3시점 보정 영상의 예시도로서, 3차원 공간상의 점 P와 보정된 다시점 영상 및 극상선 간의 위치 관계를 3시점 영상으로 나타낸 도면이다.3 is an exemplary diagram of a three-view corrected image calculated from a multi-view image corrector according to a preferred embodiment of the present invention. It is a figure shown.

다시점 영상 보정부(150)는 카메라 보정부(130)에서 구해진 기반 행렬(fundamental matrix)을 이용하여, 기준 카메라에 의해 취득된 영상의 극상선(epipolar line)과 다른 시점의 카메라에 의해 취득된 영상의 극상선이 서로 일치하며, 또한 영상의 스캔라인(scan line)과 일치하도록 영상 보정을 수행한다. 이렇게 함으로써 변이추출 시 변이 탐색 범위를 줄일 수 있다.The multi-view image corrector 150 acquires the image obtained by the camera at a point in time different from the epipolar line of the image acquired by the reference camera, using a fundamental matrix obtained by the camera corrector 130. The image correction is performed so that the superfine lines of the image coincide with each other and coincide with the scan line of the image. In this way, the variation search range can be reduced when extracting mutations.

도 3에 도시된 바와 같이, 각 시점의 영상은 동일한 초점 거리를 가지고 있음을 알 수 있다.As shown in FIG. 3, it can be seen that the images at each viewpoint have the same focal length.

도 4는 본 발명에 따른 정합 창틀 선택 및 탐색 범위 설정 과정에 대한 일실시예 흐름도이다.4 is a flowchart illustrating a process of selecting a matching window frame and setting a search range according to the present invention.

먼저, 정합창틀 선택부(105)는 깊이 정보 저장부(101) 및 다시점영상 보정부(104)로부터 기준시점 영상과 대상 영상에 대한 영상 정보 및 기준 시점 깊이 정보를 입력받는다(300).First, the registration window frame selector 105 receives image information about the reference viewpoint image and the target image and reference viewpoint depth information from the depth information storage unit 101 and the multiview image correction unit 104 (300).

이어서, 변이를 구하고자 하는 화소에 일정한 크기의 사각형 중심 창틀을 씌우고, 창틀내 모든 화소에 대한 컬러영상의 밝기 변화량(color gradient) 및 깊이 변화량(depth gradient)을 조사하여, 상기 두 변화량 중의 어느 한 값이 미리 정한 임계값 1(Th1)과 임계값 2(Th2)보다 큰 화소가 존재하는지 여부를 판단한다(301).Subsequently, a rectangular center window frame having a constant size is put on the pixel for which the variation is to be obtained, and the color gradient and the depth gradient of the color image of all the pixels in the window frame are examined to determine any one of the two variations. It is determined whether there is a pixel whose value is larger than the predetermined threshold 1 Th1 and the threshold 2 Th2 (301).

상기 판단 결과, 존재하는 경우에는 차폐(occlusion)가 발생할 가능성이 크다고 판단하여 기존의 단일 고정 크기의 창틀 대신 다중 적응크기 창틀을 사용한다(302).As a result of the determination, it is determined that occlusion is likely to occur when present, and thus, multiple adaptive size window frames are used instead of the existing single fixed size window frames (302).

다중 적응크기 창틀의 예로는 오쿠토미(Okutomi) 등이 사용한 다중 창틀이 있으며(참조 문헌 : M. Okutomi, Y. Katauama, and S. Oka,"A simple stereo algorithm to recover precise object boundaries and smooth surfaces," International Journal of Computer Vision, vol. 47, pp. 261-273, 2002), 이는 필요에 따라 다른 창틀 설정방법으로 대치가능하다. An example of a multi-adaptive window frame is the multiple window frame used by Okutomi et al. (M. Okutomi, Y. Katauama, and S. Oka, "A simple stereo algorithm to recover precise object boundaries and smooth surfaces, " International Journal of Computer Vision , vol. 47, pp. 261-273, 2002), which can be replaced by other window frame setting methods as needed.

한편, 상기 판단 결과, 존재하지 않는 경우에는 기존의 단일 고정 크기의 창틀을 사용하여(303) 이하, 변이 탐색을 수행하게 된다.On the other hand, as a result of the determination, if it does not exist, the transition search is performed using the existing single fixed size window frame (303) or less.

이어서, 변이탐색영역 계산부(160)는 입력된 깊이 정보의 존재 유무에 따라 변이 탐색 범위를 달리하기 위해 깊이 정보가 존재하는 여부를 판단한다(304). Next, the variation search region calculation unit 160 determines whether the depth information exists in order to change the variation search range according to the presence or absence of the input depth information (304).

상기 판단 결과, 존재하는 경우에는 깊이 정보 값이 존재하는 화소에 대하여 상술한 깊이 정보 변환부(140)로부터 구해진 변이값(dc)을 이용하여 아래의 [수학식 3]과 같은 변이 탐색 범위를 설정하고(305), 존재하지 않는 경우의 화소에 대해서는 미리 설정된 전체 변이 탐색 범위를 설정한다(306). 여기서, 상기 변이 탐색 범위 설정 과정 과정은 도 5를 참조하여 상세히 후술한다. As a result of the determination, if present, the variation search range is set as shown in Equation 3 below using the shift value dc obtained from the depth information converter 140 for the pixel having the depth information value. In step 305, a preset full range search range is set for the pixel in the case where there is no pixel (306). Here, the process of setting the variation search range will be described in detail with reference to FIG. 5.

이어서, 전술한 바와 같이 결정된 정합 창틀과 변이 탐색 범위를 이용하여 최소 오차 또는 최대 유사도를 가지는 정합점을 찾고, 이에 해당하는 변이를 계산한다. 이 과정은 기준시점 영상을 포함한 다른 스테레오 영상 쌍에 대해서도 반복되며, 이들 중에서 오차가 최소이거나 유사도가 최대인 스테레오 영상 쌍의 변이를 선택하게 된다(307).Subsequently, a matching point having a minimum error or maximum similarity is found using the matching window frame and the variation search range determined as described above, and the corresponding variation is calculated. This process is repeated for other stereo image pairs including the reference view image, and among them, the variation of the stereo image pairs having the smallest error or the maximum similarity is selected (307).

이렇게 선택된 변이는 차폐 영역 검출을 위하여 기준 영상과 대상 영상을 바꿔 정합을 수행함으로써 차폐 영역을 검출한다(308). 상기 검출된 차폐 영역의 변이는 보간 등을 통하여 주위 화소의 변이에 의해 채워지며, 구해진 최종 변이는 변이 지도 형태로 저장된다. 상기 변이 지도는 카메라 정보를 이용하여 3차원 점 구름이나 3차원 모델로 변환될 수 있다(미도시).The selected variation detects the shielding area by performing matching by switching the reference image and the target image to detect the shielding area (308). The detected variation of the shielding region is filled by the variation of the surrounding pixels through interpolation or the like, and the obtained final variation is stored in the form of a variation map. The disparity map may be converted into a 3D point cloud or a 3D model using camera information (not shown).

도 5는 본 발명의 바람직한 실시예에 따른 깊이 정보를 이용한 변이 탐색 범위 설정 과정에 대한 설명도로서, 기준 시점 영상(가운데 영상) 내 한 점 p(x o ,y o)에 대한 좌측 영상 내 대응점을 찾기 위한 탐색 범위 설정 방법을 나타내고 있다.5 is an explanatory view of a preferred embodiment mutant search range setting process using the depth information in accordance with the present invention, the reference viewpoint image (middle picture) within a point p (x o, y o) corresponding points in the left image to the Shows how to set the search range to find.

깊이 정보 변환부(140)에서 구해진 변이값(dc)만큼 좌측 영상의 p(x o ,y o) 위치로부터 극상선(epipolar line)의 라인 방향(x 방향)으로 이동한 점 p'(x',y o)를 구하고, p'(x',y o)를 중심으로 error_rate 만큼 좌우 여유를 두어 탐색 범위를 설정한다. 이를 수학식으로 표현하면 아래의 [수학식 3]과 같다.The point p ' ( x moved from the position of p ( x o , y o ) of the left image in the line direction (x direction) of the epipolar line by the shift value d c obtained by the depth information converter 140. ', y o) to obtain, p' (x ', y o) and the center set the right and left free to leave the search range as the error_rate. If this is expressed as Equation 3, Equation 3 below.

x'-error_rate*dc < x < x'+error_rate*dc, x'= xo+dc
여기서, x'은 깊이 정보 변환부(140)에서 변환된 변이 정보(dc)만큼 이동된 정합할 영상 화소의 x 좌표, dc는 깊이 정보 변환부(140)에서 변환된 변이 정보, error_rate는 깊이 정보의 신뢰도에 따라 결정되는 변수이다. 예를 들어 도 5와 같이 깊이 카메라로부터 얻어진 깊이 정보의 신뢰도를 80%라고 하면 error_rate는 0.2의 값을 가진다. 또한, 영상보정 오차를 고려하여 유사한 방법으로 y방향 탐색영역을 추가로 설정할 수 있다.
x'-error_rate * dc <x <x '+ error_rate * dc, x' = x o + dc
Here, x 'is the x coordinate of the image pixel to be matched shifted by the disparity information dc converted by the depth information converter 140, dc is the disparity information converted by the depth information converter 140, and error_rate is depth information. This variable is determined by the reliability of. For example, if the reliability of the depth information obtained from the depth camera is 80% as shown in FIG. 5, the error_rate has a value of 0.2. In addition, the y-direction search region may be additionally set in a similar manner in consideration of the image correction error.

삭제delete

상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. 이러한 과정은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있으므로 더 이상 상세히 설명하지 않기로 한다. 또한, 이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.As described above, the method of the present invention may be implemented as a program and stored in a recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.) in a computer-readable form. Since this process can be easily implemented by those skilled in the art will not be described in more detail. In addition, the present invention described above is capable of various substitutions, modifications and changes within the scope without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains to the embodiments and It is not limited by the accompanying drawings.

상기와 같은 본 발명은, 깊이 카메라 등에 의해 얻어진 기준시점에 대한 깊이 정보를 이용하여 스테레오 정합의 변이 탐색 범위 및 정합 창틀을 적응적으로 결정함으로써 변이 지도의 정확도를 향상시키면서도 변이 탐색 범위를 최소화할 수 있는 스테레오/다시점 영상 정합 장치 및 방법을 제공할 수 있는 효과가 있다.The present invention as described above, by using the depth information about the reference point obtained by the depth camera, etc. adaptively determine the variation search range and the matching window frame of the stereo matching can improve the accuracy of the variation map while minimizing the variation search range. There is an effect that can provide a stereo / multi-view image registration device and method.

또한, 본 발명은, 깊이 카메라 등에 의해 기준 시점에 대한 깊이 정보를 이용하여 적응적으로 변이 탐색영역을 설정하고, 정합 창틀의 종류를 선택함으로써, 3차원 깊이 또는 변이 정보의 정확도를 개선하는 효과가 있으며, 이로 인하여 종래의 스테레오 정합 기법이 가지는 깊이 불연속이나 차폐 영역에서 정확도가 저하되는 문제점을 해결할 수 있는 효과가 있다. In addition, the present invention has an effect of improving the accuracy of the three-dimensional depth or the disparity information by adaptively setting the disparity search area by using the depth information of the reference viewpoint using a depth camera or the like, and selecting the type of the matching window frame. As a result, there is an effect that can solve the problem that the accuracy is reduced in the depth discontinuity or shielding area of the conventional stereo matching technique.

또한, 본 발명은 향상된 정확도를 갖는 변이정보를 제공함으로써, 3차원 모델링 또는 임의시점 영상 생성에 효율적으로 적용될 수 있으며, 특히 임의시점 영상 생성시에 영상의 깨짐을 감소시킬 수 있는 효과가 있다.In addition, the present invention can be efficiently applied to 3D modeling or random view image generation by providing disparity information with improved accuracy, in particular, there is an effect that can reduce the breakage of the image during random view image generation.

Claims (11)

다시점 비디오 카메라 및 깊이 정보 획득 장치로부터 획득한 다시점 영상 및 기준 시점에 대한 깊이 정보를 이용하여 변이 지도를 작성하여 3차원 영상 정보를 획득하기 위한 깊이 정보 기반 스테레오/다시점 영상 정합 장치로서,A depth information-based stereo / multiview image matching device for acquiring 3D image information by creating a disparity map by using a multiview image obtained from a multiview video camera and a depth information obtaining device and depth information of a reference view, 상기 다시점 영상을 이용하여 각 시점의 카메라 정보를 추출하기 위한 카메라보정수단;Camera correction means for extracting camera information of each viewpoint using the multi-view image; 상기 깊이 정보를 기준시점에 대한 변이로 변환하기 위한 깊이정보변환수단; 및Depth information converting means for converting the depth information into a variation with respect to a reference time point; And 기준 시점에 대한 변이 지도를 계산하기 위하여 상기 다시점 영상을 입력받아 기준 시점 영상과 정합할 대상 영상의 극상선(epipolar line)을 일치시키는 영상 보정(image rectification)을 수행하기 위한 영상보정수단Image correction means for performing image rectification by receiving the multi-view image and calculating an epipolar line of the target image to be matched with the reference viewpoint image in order to calculate a disparity map for a reference viewpoint. 을 포함하는 깊이 정보 기반 스테레오/다시점 영상 정합 장치.Depth information based stereo / multi-view image registration device comprising a. 제 1 항에 있어서,The method of claim 1, 상기 깊이 정보 및 다시점 영상 정보를 이용하여 정합 창틀의 종류를 선택하기 위한 정합창틀선택수단;Matching window frame selecting means for selecting a type of matching window frame using the depth information and the multi-view image information; 상기 깊이정보변환수단에서 변환된 변이를 이용하여 변이 탐색 범위를 계산하기 위한 변이탐색영역계산수단;Variation search region calculation means for calculating a variation search range using the variation transformed by the depth information converting means; 상기 정합창틀선택수단에서 선택된 정합 창틀을 이용하여 선택된 탐색 범위 내에서 유사도가 가장 높은 변이를 탐색하기 위한 변이탐색수단; Mutation search means for searching for a variation having the highest similarity within a selected search range using the matching window frame selected by the matching window frame selecting means; 여러 시점으로부터 얻어진 동일점의 변이들을 비교하여 유사도가 가장 높은 스테레오 영상 쌍의 변이를 선택하기 위한 변이선택수단; 및Variation selecting means for selecting the variation of the stereo image pair having the highest similarity by comparing the variation of the same point obtained from several viewpoints; And 상기 다시점 영상의 기준 시점에 대하여 각 화소의 변이를 계산하여 변이지도를 생성하고 디지털 영상으로 기록하기 위한 변이지도생성/저장수단Disparity map generation / storing means for generating a disparity map by calculating the disparity of each pixel with respect to the reference viewpoint of the multiview image and recording it as a digital image 을 더 포함하는 깊이 정보 기반 스테레오/다시점 영상 정합 장치.Depth information-based stereo / multi-view image matching device further comprising. 제 2 항에 있어서,The method of claim 2, 상기 변이 지도를 입력받아 카메라 정보를 이용하여 3차원 공간상의 점 구름(point cloud) 또는 3차원 모델로 변환하기 위한 3차원정보변환수단3D information converting means for receiving the disparity map and converting it into a point cloud or a 3D model in 3D space using camera information 을 더 포함하는 깊이 정보 기반 스테레오/다시점 영상 정합 장치.Depth information-based stereo / multi-view image matching device further comprising. 제 1 항에 있어서,The method of claim 1, 상기 깊이정보변환수단은,The depth information converting means, 상기 깊이 정보를 카메라 정보를 이용하여 아래의 [수학식 1]과 [수학식 2]를 이용하여 변이정보로 변환하는 것을 특징으로 하는 깊이 정보 기반 스테레오/다시점 영상 정합 장치.The depth information-based stereo / multi-view image registration device, characterized in that for converting the depth information to the disparity information using the following [Equation 1] and [Equation 2]. [수학식 1][Equation 1] disparity_1= (f*b)/depthdisparity_1 = (f * b) / depth [수학식 2][Equation 2] disparity_2 = disparity_1/cell_size disparity_2 = disparity_1 / cell_size (여기서, disparity_1은 변환된 변이값으로서 실제 거리 단위로 주어지며, f는 카메라의 초점거리, b는 기준 카메라와 대상 카메라 간격(베이스라인 길이), depth는 실제거리 단위로 주어지는 깊이 정보, cell_size는 카메라 CCD의 실제 셀 크기이고 disparity_2는 최종적으로 탐색영역 설정에 사용될 화소단위의 변이임.)Where disparity_1 is a transformed variation value, given in actual distance units, f is the focal length of the camera, b is the distance between the reference camera and the target camera (baseline length), and depth is depth information given in the actual distance unit, and cell_size is The actual cell size of the camera CCD and disparity_2 is the pixel unit variation that will be used to finally set the search area.) 제 2 항에 있어서,The method of claim 2, 상기 정합창틀선택수단은, The matching window frame selection means, 중심 창틀 내 화소의 컬러 영상의 밝기 변화량 및 깊이 변화량을 조사하여 상기 변화량이 각각에 대한 소정의 임계값 이상인 화소가 존재하면 다중 적응 크기 창틀을 사용하고, 존재하지 않으면 단일 고정 크기 창틀을 사용하는 것을 특징으로 하는 깊이 정보 기반 스테레오/다시점 영상 정합 장치.Investigate the brightness variation and the depth variation of the color image of the pixel in the center window frame, and if there is a pixel whose variation is greater than or equal to a predetermined threshold for each, use a multi-adaptation size window frame, and if not, use a single fixed size window frame. A depth information based stereo / multiview image matching device. 제 2 항에 있어서,The method of claim 2, 변이탐색영역계산수단은, The mutation search region calculation means, 깊이정보가 존재하면 깊이정보에 기초한 변이 탐색 범위를 계산하고, 존재하지 않으면 미리 설정된 전체 변이 탐색 범위 내에서 변이 탐색을 수행하는 것을 특징으로 하는 깊이 정보 기반 스테레오/다시점 영상 정합 장치.The depth information based stereo / multipoint image matching device, wherein the depth search range is calculated based on the depth information if the depth information is present, and if the depth information is not present, the shift search is performed within a preset full variation search range. 제 6 항에 있어서, The method of claim 6, 상기 깊이정보가 존재하는 경우에 변이 탐색 범위를 아래의 [수학식 3]을 이용하여 계산하는 것을 특징으로 하는 깊이 정보 기반 스테레오/다시점 영상 정합 장치.Depth information based stereo / multi-view image registration device, characterized in that if the depth information is present to calculate the variation search range using Equation 3 below. [수학식 3][Equation 3] x'-error_rate*dc < x < x'+error_rate*dc, x'= xo+dcx'-error_rate * dc <x <x '+ error_rate * dc, x' = x o + dc (여기서, x'은 깊이 정보 변환부(140)에서 변환된 변이 정보(dc)만큼 이동된 정합할 영상 화소의 x 좌표, dc는 깊이 정보 변환부(140)에서 변환된 변이 정보, error_rate는 깊이 정보의 신뢰도에 따라 결정되는 변수임)Where x 'is the x-coordinate of the image pixel to be matched shifted by the disparity information dc converted by the depth information converter 140, dc is the disparity information converted by the depth information converter 140, and error_rate is the depth. Variable is determined by the reliability of the information) 다시점 비디오 카메라 및 깊이 정보 획득 장치로부터 획득한 다시점 영상 및 기준 시점에 대한 깊이 정보를 이용하여 변이 지도를 작성하여 3차원 영상 정보를 획득하기 위한 깊이 정보 기반 스테레오/다시점 영상 정합 방법으로서, A depth information based stereo / multiview image matching method for acquiring 3D image information by creating a disparity map using a multiview image acquired from a multiview video camera and a depth information obtaining device and depth information of a reference view, 상기 다시점 영상 및 기준 시점의 깊이정보를 입력받는 입력 단계; An input step of receiving depth information of the multiview image and the reference view point; 각 시점의 카메라 정보를 추출하는 카메라 보정 단계; A camera correction step of extracting camera information of each viewpoint; 상기 깊이 정보를 기준시점에 대한 변이로 변환하는 깊이 정보 변환 단계; A depth information converting step of converting the depth information into a variation with respect to a reference time point; 기준 시점에 대한 변이 지도를 계산하기 위하여 기준 시점 영상과 정합할 대상 영상의 극상선(epipolar line)을 일치시키는 영상 보정(image rectification) 단계; An image rectification step of matching an epipolar line of a target image to be matched with the reference viewpoint image to calculate a disparity map with respect to the reference viewpoint; 상기 깊이 정보 및 다시점 영상 정보를 이용하여 정합 창틀의 종류를 선택하는 정합 창틀 선택 단계;A matching window frame selection step of selecting a type of matching window frame using the depth information and the multi-view image information; 상기 변환된 변이로부터 변이 탐색 범위를 계산하는 변이 탐색 범위 계산 단계; A variation search range calculation step of calculating a variation search range from the transformed variation; 상기 선택된 창틀을 이용하여 선택된 탐색 범위 내에서 유사도가 가장 높은 변이를 탐색하는 단계; Searching for a variation having the highest similarity within a selected search range using the selected window frame; 여러 시점으로부터 얻어진 동일점의 변이들을 비교하여 유사도가 가장 높은 스테레오 영상 쌍의 변이를 선택하는 단계; 및Comparing the variations of the same point obtained from several viewpoints and selecting the variation of the stereo image pair having the highest similarity; And 각 화소의 변이를 계산하여 변이 지도를 생성하고 디지털 영상으로 기록하는 단계Computing the variation of each pixel to generate a disparity map and to record the digital image 를 포함하는 특징으로 하는 깊이 정보 기반 스테레오/다시점 영상 정합 방법.Depth-based stereo / multi-view image matching method comprising a. 제 8 항에 있어서,The method of claim 8, 상기 깊이 정보 변환 단계는,The depth information conversion step, 상기 깊이 정보를 카메라 정보를 이용하여 아래의 [수학식 1]과 [수학식 2]를 이용하여 변이정보로 변환하는 것을 특징으로 하는 깊이 정보 기반 스테레오/다시점 영상 정합 방법.The depth information-based stereo / multi-view image registration method, characterized in that for converting the depth information to the disparity information using [Equation 1] and [Equation 2] below using the camera information. [수학식 1][Equation 1] disparity_1= (f*b)/depthdisparity_1 = (f * b) / depth [수학식 2][Equation 2] disparity_2 = disparity_1/cell_size disparity_2 = disparity_1 / cell_size (여기서, disparity_1은 변환된 변이값으로서 실제 거리 단위로 주어지며, f는 카메라의 초점거리, b는 기준 카메라와 대상 카메라 간격(베이스라인 길이), depth는 실제거리 단위로 주어지는 깊이 정보, cell_size는 카메라 CCD의 실제 셀 크기이고 disparity_2는 최종적으로 탐색영역 설정에 사용될 화소단위의 변이임.)Where disparity_1 is a transformed variation value, given in actual distance units, f is the focal length of the camera, b is the distance between the reference camera and the target camera (baseline length), and depth is depth information given in the actual distance unit, and cell_size is The actual cell size of the camera CCD and disparity_2 is the pixel unit variation that will be used to finally set the search area.) 제 8 항에 있어서,The method of claim 8, 상기 정합 창틀 선택 단계는, The matching window frame selection step, 중심 창틀 내 화소의 컬러 영상의 밝기 변화량 및 깊이 변화량을 조사하여 상기 변화량이 각각에 대한 소정의 임계값 이상인 화소가 존재하면 다중 적응 크기 창틀을 사용하고, 존재하지 않으면 단일 고정 크기 창틀을 사용하는 것을 특징으로 하는 깊이 정보 기반 스테레오/다시점 영상 정합 방법.Investigate the amount of change in brightness and depth of the color image of a pixel in the center window frame. A depth information based stereo / multiview image matching method. 제 8 항에 있어서,The method of claim 8, 상기 변이 탐색 범위 계산 단계는, The variation search range calculation step, 상기 변이 탐색 범위를 아래의 [수학식 3]을 이용하여 계산하는 것을 특징으로 하는 깊이 정보 기반 스테레오/다시점 영상 정합 방법.Depth information based stereo / multi-view image registration method, characterized in that for calculating the disparity search range using Equation 3 below. [수학식 3][Equation 3] x'-error_rate*dc < x < x'+error_rate*dc, x'= xo+dcx'-error_rate * dc <x <x '+ error_rate * dc, x' = x o + dc (여기서, x'은 깊이 정보 변환부(140)에서 변환된 변이 정보(dc)만큼 이동된 정합할 영상 화소의 x 좌표, dc는 깊이 정보 변환부(140)에서 변환된 변이 정보, error_rate는 깊이 정보의 신뢰도에 따라 결정되는 변수임).Where x 'is the x-coordinate of the image pixel to be matched shifted by the disparity information dc converted by the depth information converter 140, dc is the disparity information converted by the depth information converter 140, and error_rate is the depth. Variable determined by the reliability of the information).
KR1020050028382A 2004-12-06 2005-04-06 A depth information-based Stereo/Multi-view Stereo Image Matching Apparatus and Method KR100776649B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20040101773 2004-12-06
KR1020040101773 2004-12-06

Publications (2)

Publication Number Publication Date
KR20060063558A KR20060063558A (en) 2006-06-12
KR100776649B1 true KR100776649B1 (en) 2007-11-19

Family

ID=37159534

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050028382A KR100776649B1 (en) 2004-12-06 2005-04-06 A depth information-based Stereo/Multi-view Stereo Image Matching Apparatus and Method

Country Status (1)

Country Link
KR (1) KR100776649B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100953076B1 (en) 2007-12-13 2010-04-13 한국전자통신연구원 Multi-view matching method and device using foreground/background separation
KR101066550B1 (en) * 2008-08-11 2011-09-21 한국전자통신연구원 Method for generating vitual view image and apparatus thereof
KR101086274B1 (en) * 2008-12-05 2011-11-24 한국전자통신연구원 Apparatus and method for extracting depth information
KR101158678B1 (en) * 2009-06-15 2012-06-22 (주)알파캠 Stereoscopic image system and stereoscopic image processing method
CN103379350A (en) * 2012-04-28 2013-10-30 中国科学院深圳先进技术研究院 Virtual viewpoint image post-processing method
US9842400B2 (en) 2015-01-27 2017-12-12 Samsung Electronics Co., Ltd. Method and apparatus for determining disparity
US11900561B2 (en) 2020-11-25 2024-02-13 Electronics And Telecommunications Research Institute Deep learning-based image stitching method and apparatus

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100795482B1 (en) * 2006-11-23 2008-01-16 광주과학기술원 A method and apparatus for encoding or decoding frames of different views in multiview video using rectification, and a storage medium using the same
KR100931311B1 (en) * 2006-12-04 2009-12-11 한국전자통신연구원 Depth estimation device and its method for maintaining depth continuity between frames
KR100926520B1 (en) * 2006-12-05 2009-11-12 한국전자통신연구원 Apparatus and method of matching binocular/multi-view stereo using foreground/background separation and image segmentation
US8125510B2 (en) * 2007-01-30 2012-02-28 Ankur Agarwal Remote workspace sharing
KR100897542B1 (en) * 2007-05-17 2009-05-15 연세대학교 산학협력단 Method and Device for Rectifying Image in Synthesizing Arbitary View Image
KR100891549B1 (en) * 2007-05-22 2009-04-03 광주과학기술원 Method and apparatus for generating depth information supplemented using depth-range camera, and recording medium storing program for performing the method thereof
KR20090055803A (en) * 2007-11-29 2009-06-03 광주과학기술원 Method and apparatus for generating multi-viewpoint depth map, method for generating disparity of multi-viewpoint image
KR100924432B1 (en) * 2007-12-06 2009-10-29 한국전자통신연구원 Apparatus and method for controlling perceived depth of multi-view images
KR101420684B1 (en) 2008-02-13 2014-07-21 삼성전자주식회사 Apparatus and method for matching color image and depth image
KR20100000671A (en) 2008-06-25 2010-01-06 삼성전자주식회사 Method for image processing
KR101004758B1 (en) * 2009-02-17 2011-01-04 포항공과대학교 산학협력단 Method for multi-perspective image generation using planview
KR101236475B1 (en) * 2009-04-14 2013-02-22 한국전자통신연구원 Apparatus for detecting face and method for estimating distance using the same
KR101626057B1 (en) 2009-11-19 2016-05-31 삼성전자주식회사 Method and device for disparity estimation from three views
KR101598855B1 (en) 2010-05-11 2016-03-14 삼성전자주식회사 Apparatus and Method for 3D video coding
KR101686171B1 (en) * 2010-06-08 2016-12-13 삼성전자주식회사 Apparatus for recognizing location using image and range data and method thereof
KR20120072165A (en) * 2010-12-23 2012-07-03 한국전자통신연구원 Apparatus and method for 3-d effect adaptation
KR101289003B1 (en) * 2011-12-19 2013-07-23 광주과학기술원 Method and Device for Stereo Matching of Images
KR101893788B1 (en) 2012-08-27 2018-08-31 삼성전자주식회사 Apparatus and method of image matching in multi-view camera
KR102550931B1 (en) * 2016-11-29 2023-07-04 삼성전자주식회사 Method and apparatus for stereo matching
CN110895822B (en) 2018-09-13 2023-09-01 虹软科技股份有限公司 Method of operating a depth data processing system
CN112765390A (en) * 2019-10-21 2021-05-07 南京深视光点科技有限公司 Stereo matching method with double search intervals
CN115022612B (en) * 2022-05-31 2024-01-09 北京京东方技术开发有限公司 Driving method and device of display device and display equipment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09126738A (en) * 1995-10-27 1997-05-16 Nec Corp Three-dimensional shape measuring device and method therefor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09126738A (en) * 1995-10-27 1997-05-16 Nec Corp Three-dimensional shape measuring device and method therefor

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100953076B1 (en) 2007-12-13 2010-04-13 한국전자통신연구원 Multi-view matching method and device using foreground/background separation
KR101066550B1 (en) * 2008-08-11 2011-09-21 한국전자통신연구원 Method for generating vitual view image and apparatus thereof
KR101086274B1 (en) * 2008-12-05 2011-11-24 한국전자통신연구원 Apparatus and method for extracting depth information
KR101158678B1 (en) * 2009-06-15 2012-06-22 (주)알파캠 Stereoscopic image system and stereoscopic image processing method
CN103379350A (en) * 2012-04-28 2013-10-30 中国科学院深圳先进技术研究院 Virtual viewpoint image post-processing method
US9842400B2 (en) 2015-01-27 2017-12-12 Samsung Electronics Co., Ltd. Method and apparatus for determining disparity
US11900561B2 (en) 2020-11-25 2024-02-13 Electronics And Telecommunications Research Institute Deep learning-based image stitching method and apparatus

Also Published As

Publication number Publication date
KR20060063558A (en) 2006-06-12

Similar Documents

Publication Publication Date Title
KR100776649B1 (en) A depth information-based Stereo/Multi-view Stereo Image Matching Apparatus and Method
KR100513055B1 (en) 3D scene model generation apparatus and method through the fusion of disparity map and depth map
KR100793076B1 (en) Edge-adaptive stereo/multi-view image matching apparatus and its method
KR100745691B1 (en) Binocular or multi-view stereo matching apparatus and its method using occlusion area detection
US9025862B2 (en) Range image pixel matching method
CN109840922B (en) Depth acquisition method and system based on binocular light field camera
KR20120058828A (en) System for extracting 3-dimensional coordinate and method thereof
KR20090055803A (en) Method and apparatus for generating multi-viewpoint depth map, method for generating disparity of multi-viewpoint image
CN101960860A (en) System and method for depth map extraction using region-based filtering
WO2007052191A2 (en) Filling in depth results
Zeller et al. From the calibration of a light-field camera to direct plenoptic odometry
Zhou et al. A two-step calibration method of lenslet-based light field cameras
CN111028281B (en) Depth information calculation method and device based on light field binocular system
CN104331890B (en) A kind of global disparity method of estimation and system
KR100574227B1 (en) Apparatus and method for separating object motion from camera motion
JP2015019346A (en) Parallax image generator
JP2005250994A (en) Stereo image processor
Frese et al. Robust depth estimation by fusion of stereo and focus series acquired with a camera array
Um et al. Three-dimensional scene reconstruction using multiview images and depth camera
CN114935316B (en) Standard depth image generation method based on optical tracking and monocular vision
Li et al. Accurate depth estimation using structured light and passive stereo disparity estimation
CN115719320A (en) Tilt correction dense matching method based on remote sensing image
US20230419524A1 (en) Apparatus and method for processing a depth map
JP6595878B2 (en) Element image group generation apparatus and program thereof
KR20110133677A (en) Method and apparatus for processing 3d image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121031

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20131024

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20141027

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee