KR100776649B1 - A depth information-based Stereo/Multi-view Stereo Image Matching Apparatus and Method - Google Patents
A depth information-based Stereo/Multi-view Stereo Image Matching Apparatus and Method Download PDFInfo
- Publication number
- KR100776649B1 KR100776649B1 KR1020050028382A KR20050028382A KR100776649B1 KR 100776649 B1 KR100776649 B1 KR 100776649B1 KR 1020050028382 A KR1020050028382 A KR 1020050028382A KR 20050028382 A KR20050028382 A KR 20050028382A KR 100776649 B1 KR100776649 B1 KR 100776649B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- depth information
- variation
- information
- depth
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Abstract
1. 청구범위에 기재된 발명이 속한 기술분야 1. TECHNICAL FIELD OF THE INVENTION
본 발명은 깊이 정보 기반 스테레오/다시점 영상 정합 장치 및 방법에 관한 것임. The present invention relates to a depth information based stereo / multi-view image registration device and method.
2. 발명이 해결하려고 하는 기술적 과제 2. The technical problem to be solved by the invention
본 발명은, 한 쌍 이상의 스테레오 영상을 정합하여 얻어지는 기준 영상에 대한 변이 지도의 정확도를 향상시키기 위하여 깊이 카메라 등에 의해 얻어진 기준시점에 대한 깊이 정보를 이용하여 스테레오 정합의 변이 탐색 범위 및 정합 창틀을 적응적으로 결정함으로써 변이 지도의 정확도를 향상시키면서도 변이 탐색 범위를 최소화할 수 있는 스테레오/다시점 영상 정합 장치 및 방법을 제공하는데 그 목적이 있음. The present invention adapts the variation search range and matching window frame of stereo matching using depth information about a reference time point obtained by a depth camera or the like to improve the accuracy of the disparity map for the reference image obtained by matching one or more stereo images. The purpose of the present invention is to provide a stereo / multiview image matching device and method that can minimize the range of the disparity search while improving the accuracy of the disparity map.
3. 발명의 해결방법의 요지 3. Summary of Solution to Invention
본 발명은, 다시점 비디오 카메라 및 깊이 정보 획득 장치로부터 획득한 다시점 영상 및 기준 시점에 대한 깊이 정보를 이용하여 변이 지도를 작성하여 3차원 영상 정보를 획득하기 위한 깊이 정보 기반 스테레오/다시점 영상 정합 장치로서, 상기 다시점 영상을 이용하여 각 시점의 카메라 정보를 추출하기 위한 카메라보정수단; 상기 깊이 정보를 기준시점에 대한 변이로 변환하기 위한 깊이정보변환수단; 및 기준 시점에 대한 변이 지도를 계산하기 위하여 상기 다시점 영상을 입력받아 기준 시점 영상과 정합할 대상 영상의 극상선(epipolar line)을 일치시키는 영상 보정(image rectification)을 수행하기 위한 영상보정수단을 포함함. The present invention provides a depth information based stereo / multiview image for obtaining a 3D image information by creating a disparity map using a multiview image obtained from a multiview video camera and a depth information obtaining apparatus and depth information of a reference view point. A matching device, comprising: camera correction means for extracting camera information of each viewpoint using the multi-view image; Depth information converting means for converting the depth information into a variation with respect to a reference time point; And an image correction means for performing image rectification by receiving the multi-view image and calculating an epipolar line of a target image to be matched with the reference viewpoint image to calculate a disparity map with respect to a reference viewpoint. Included.
4. 발명의 중요한 용도 4. Important uses of the invention
본 발명은 다시점 영상 기반 장면 모델링 시스템 등에 이용됨.The present invention is used for a multiview image based scene modeling system.
변이 지도, 스테레오 정합, 다시점 영상, 3차원 영상 처리 Disparity Map, Stereo Matching, Multi-view Image, 3D Image Processing
Description
도 1은 본 발명에 따른 깊이 정보 기반 스테레오/다시점 영상 정합 장치의 일실시예 구성도,1 is a configuration diagram of an embodiment of a depth-based stereo / multi-view image registration device according to the present invention,
도 2는 본 발명에 따른 깊이 정보 기반 스테레오/다시점 영상 정합 방법에 대한 일실시예 흐름도,2 is a flowchart illustrating a depth information based stereo / multiview image matching method according to the present invention;
도 3은 본 발명의 바람직한 실시예에 따라 다시점 영상 보정부로부터 계산된 3시점 보정 영상의 예시도로서, 3차원 공간상의 점 P와 보정된 다시점 영상 및 극상선 간의 위치 관계를 3시점 영상으로 나타낸 도면,3 is an exemplary diagram of a three-view corrected image calculated from a multi-view image corrector according to a preferred embodiment of the present invention. Drawing,
도 4는 본 발명에 따른 정합 창틀 선택 및 탐색 범위 설정 과정에 대한 일실시예 흐름도,4 is a flowchart illustrating a process of selecting a matching window frame and setting a search range according to the present invention;
도 5는 본 발명에 따른 깊이 정보를 이용한 변이 탐색 범위 설정 과정에 대한 일실시예 설명도이다.5 is a diagram illustrating an embodiment of a process of setting a variation search range using depth information according to an embodiment of the present invention.
* 도면의 주요 부분에 대한 부호의 설명* Explanation of symbols for the main parts of the drawings
101 : 다시점 비디오카메라 102 : 깊이 카메라101: multi-view video camera 102: depth camera
110 : 다시점비디오 저장부 120 : 깊이 정보 저장부110: multi-view video storage unit 120: depth information storage unit
130 : 카메라 보정부 140 : 깊이 정보 변환부130: camera correction unit 140: depth information converter
150 : 다시점영상 보정부 160 : 정합창틀 선택부150: multi-view image correction unit 160: registration window frame selection unit
170 : 변이탐색영역 계산부 180 : 변이 탐색부170: mutation search region calculation unit 180: mutation search unit
190 : 변이 선택부 200 : 변이지도 생성/저장부190: variation selection unit 200: variation map generation / storage unit
본 발명은 깊이 정보 기반 스테레오/다시점 영상 정합 장치 및 방법에 관한 것으로, 더욱 상세하게는 3차원 장면이나 객체의 모델링에 많이 사용되는 깊이 카메라, 스캐너 등의 능동적 깊이 정보 획득 장치에 의해 얻어진 기준 시점의 깊이 정보를 이용하여 변이 지도를 작성하고 이를 이용하여 3차원 영상 정보를 획득하기 위한 깊이 정보 기반 스테레오/다시점 영상 정합 장치 및 그 방법에 관한 것이다.The present invention relates to a depth information-based stereo / multi-view image registration device and method, and more particularly, to a reference viewpoint obtained by an active depth information acquisition device such as a depth camera, a scanner, etc. which are frequently used for modeling a 3D scene or an object. The present invention relates to a depth-based stereo / multi-view image registration device and a method for creating a disparity map using depth information and obtaining the 3D image information using the depth map.
객체나 장면의 3차원 정보를 획득하는 방법은 크게 능동적 방법과 수동적 방법으로 구분할 수 있다.Methods of acquiring 3D information of an object or a scene can be largely divided into an active method and a passive method.
상기 능동적 방법은 3차원 스캐너, 구조적 밝기(structured light) 또는 3차원 깊이 카메라(depth camera) 등의 능동적 3차원 정보 획득 장치를 이용하여 여러 시점에서 깊이 정보(깊이지도, depth map)를 획득하고, 이를 공통 3차원 좌표계 상에서 정렬하거나, 상대적인 변환 관계를 구하여 정렬/결합함으로써 3차원 모델을 구성한다(참조 문헌 : I. Stamos, P. K. Allen, "3-D Model Construction Using Range and Image Data," IEEE International conference on Computer Vision and Pattern Recognition, pp.531-536, June 2000). The active method acquires depth information (depth map) at various points of time using an active three-dimensional information acquisition device such as a three-dimensional scanner, structured light or a three-dimensional depth camera, They can be aligned on a common three-dimensional coordinate system, or a relative transformation relationship can be obtained to align / combine them (see I. Stamos, PK Allen, "3-D Model Construction Using Range and Image Data," IEEE International). conference on Computer Vision and Pattern Recognition , pp.531-536, June 2000).
이러한 능동적 방법은 비교적 신속하면서도 정확한 3차원 점들을 제공하며, 조광 조건의 영향을 받지 않는 장점이 있다. 하지만, 그 해상도에 제약이 있으며, 고가의 장비가 필요하다는 단점이 있다.This active method provides relatively fast and accurate three-dimensional points and has the advantage of not being affected by dimming conditions. However, there is a limitation in the resolution, the disadvantage is that expensive equipment is required.
한편, 상기 수동적 방법은 여러 시점의 광학 카메라로부터 얻어진 영상으로부터 텍스처 정보를 이용하여 3차원 정보를 생성하기 위한 방법이며, 스테레오 정합(stereo matching) 방법이 대표적이다(참조 문헌 : Soon-Yong Park and Murai Subbarao, "A Range Image Refinement Technique for Multi-view 3D Model Reconstruction," Proceedings of International Conference on 3-D Digital Imaging and Modeling 2003, October 2003). Meanwhile, the passive method is a method for generating three-dimensional information using texture information from images obtained from optical cameras of various viewpoints, and a stereo matching method is typical (Soon-Yong Park and Murai). Subbarao, "A Range Image Refinement Technique for Multi-view 3D Model Reconstruction," Proceedings of International Conference on 3-D Digital Imaging and Modeling 2003 , October 2003).
상기 스테레오 정합은 두 대의 좌우 카메라로부터 취득된 영상 중 하나를 기준 영상으로, 다른 영상을 탐색 영상으로 놓았을 때, 이 두 영상에서 공간상의 동일한 한 점에 대한 기준 영상과 탐색 영상에서의 영상 좌표의 차이를 계산하는데 이를 변이(disparity)라고 한다. 상기 변이를 기준 영상의 각 화소에 대하여 계산하면, 영상의 형태로 변이가 저장되는데 이를 변이 지도(disparity map)이라고 한다.The stereo matching is based on one of the images acquired from the two left and right cameras as the reference image, and when the other image is placed as the search image, the coordinates of the reference image and the search image in the search image for the same point in space in these two images. The difference is calculated, called disparity. When the variation is calculated for each pixel of the reference image, the variation is stored in the form of an image, which is called a disparity map.
즉, 수동적 방법은 이러한 변이 지도를 여러 시점의 영상으로부터 여러 개 추출하고, 이들을 카메라 정보를 이용하여 공통 좌표계 상에서 정렬, 결합함으로써 3차원 정보를 획득한다.That is, the passive method extracts a plurality of such disparity maps from images of various viewpoints, and obtains three-dimensional information by aligning and combining them on a common coordinate system using camera information.
이러한 수동적 방법은 상기 능동적 방법에 비해 저가의 비용으로 3차원 정보를 얻을 수 있으며, 영상의 해상도가 높아서 더욱 정밀한 결과를 얻을 수 있고, 텍스쳐 정보를 포함하고 있으므로 생성된 모델에 텍스쳐 정보를 투영하여 보다 사실적인 3차원 모델을 얻을 수 있다는 장점이 있다. 하지만, 조광 조건 및 텍스쳐 정보의 영향이 크며, 차폐 지역에서 오차가 크며, 조밀한 변이 지도를 얻기 위해서는 수행 시간이 길다는 단점이 있다.This passive method can obtain three-dimensional information at a lower cost than the active method, and obtains more accurate results due to the higher resolution of the image, and includes texture information, thereby projecting texture information onto the generated model. The advantage is that a realistic three-dimensional model can be obtained. However, there are disadvantages in that the lighting conditions and texture information are largely influenced, the errors are large in the shielding area, and the execution time is long to obtain a dense disparity map.
최근에는 자외선 등 능동 센서를 이용하여 3차원 정보를 얻고, 동시에 카메라에 의해 그 영역에 대한 영상 텍스쳐 정보를 얻을 수 있는 3차원 깊이 카메라가 발표되기도 하였다(3DV Systems, Zcam™).Recently, three-dimensional depth cameras have been announced (3DV Systems, Zcam ™) that can obtain three-dimensional information by using active sensors such as ultraviolet rays and at the same time obtain image texture information of the area by the camera.
전술한 상기 두 가지 종류의 3차원 정보 획득 방법은 각각 장단점이 있으므로, 최근에는 이러한 능동적 방법과 수동적 방법의 결합을 통하여 3차원 정보의 정확도를 개선하기 위한 기술들(예: S. Weik, "Registration of 3-D Partial Surface Models using Luminance and Depth Information," Proceedings of International Conference on Recent Advances in 3-D Digital Imaging and Modeling, pp. 93-100, May 1997)이 발표되고 있다. Since the two types of three-dimensional information acquisition methods described above have advantages and disadvantages, recently, techniques for improving the accuracy of three-dimensional information through the combination of the active and passive methods (eg, S. Weik, "Registration of 3-D Partial Surface Models using Luminance and Depth Information, " Proceedings of International Conference on Recent Advances in 3-D Digital Imaging and Modeling , pp. 93-100, May 1997).
하지만, 이러한 방법들도 카메라 보정 오차에 의한 오류를 해결할 수 없다는 문제점이 있으며, 단순하게 레인지(range) 데이터의 정확한 정렬을 위한 보조적인 수단으로서 영상 데이터를 활용함으로써 활용도가 제한적인 문제점이 있다. However, these methods also have a problem that the error due to the camera correction error can not be solved, there is a problem that the utilization is limited by simply using the image data as an auxiliary means for the accurate alignment of the range (range) data.
또한, 최근에는 능동적 방법에 의해 얻어진 데이터와 수동적 방법에 의한 데이터의 융합을 통하여 두 방법의 장단점을 보완하는 기술(참조 문헌 : 대한민국 등록특허 1004118750000, 엄기문외, 스테레오 영상 시차지도 융합 방법 및 그를 이용한 3차원 영상 표시 방법)도 연구되고 있다. 하지만, 상기 기술 역시 전술한 두 방법에 의한 깊이지도 데이터가 부정확할 경우 융합된 깊이지도 데이터의 정확도도 부정확하게 된다는 단점이 있다. 즉 두 입력 깊이 데이터의 정확도에 의존적이라는 문제점이 있다.In addition, recently, a technique for compensating the advantages and disadvantages of the two methods through fusion of data obtained by an active method and data by a passive method (Ref .: Korea Patent No. 1004118750000, Um Ki-Moon et al., Stereo image parallax map fusion method and 3 3D image display method) is also being studied. However, the above technique also has a disadvantage in that the accuracy of the fused depth map data is also incorrect when the depth map data by the above-described two methods are incorrect. That is, there is a problem in that it depends on the accuracy of the two input depth data.
따라서 단순한 결과만의 융합이 아니라 능동적 방법 및 수동적 방법에 의한 깊이 정보의 획득 과정에서 상호 보완적으로 두 데이터를 이용하는 기법의 개발이 요구된다.Therefore, it is necessary to develop a technique that uses two data complementarily in the process of acquiring depth information by an active method and a passive method, rather than merely fusion of results.
본 발명은 상기 요구에 부응하기 위하여 제안된 것으로, 한 쌍 이상의 스테레오 영상을 정합하여 얻어지는 기준 영상에 대한 변이 지도의 정확도를 향상시키기 위하여 깊이 카메라 등에 의해 얻어진 기준시점에 대한 깊이 정보를 이용하여 스테레오 정합의 변이 탐색 범위 및 정합 창틀을 적응적으로 결정함으로써 변이 지도의 정확도를 향상시키면서도 변이 탐색 범위를 최소화할 수 있는 스테레오/다시점 영상 정합 장치 및 방법을 제공하는데 그 목적이 있다.The present invention has been proposed to meet the above requirements, and stereo matching is performed by using depth information on a reference viewpoint obtained by a depth camera or the like to improve the accuracy of the disparity map for a reference image obtained by matching one or more stereo images. It is an object of the present invention to provide a stereo / multiview image registration device and a method for adaptively determining a disparity search range and a matching window frame to minimize the disparity search range while improving the accuracy of the disparity map.
또한, 본 발명은 깊이 카메라 등에 의해 획득된 깊이 정보 및 두 대 이상의 카메라에 의해 동일 시간에 촬영된 한 쌍 이상의 스테레오/다시점 영상을 이용하여 기준 시점에 대한 변이 지도를 계산하여, 변이 탐색 범위의 설정 및 정합 창틀 종류 선택에 깊이 정보를 이용함으로써 변이 지도의 정확도를 향상시키면서도 변이 탐색 범위를 최소화하여 3차원 영상 정보를 획득할 수 있는 스테레오/다시점 영상 정합 장치 및 방법을 제공하는데 그 목적이 있다.In addition, the present invention calculates the disparity map for the reference viewpoint by using the depth information obtained by the depth camera, etc. and one or more pairs of stereo / multi-view images captured at the same time by two or more cameras, The purpose of the present invention is to provide a stereo / multi-view image registration device and method that can obtain three-dimensional image information by minimizing the range of the disparity search while improving the accuracy of the disparity map by using depth information for setting and selecting the window frame type. .
본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 더욱 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.
상기 목적을 달성하기 위한 본 발명의 장치는, 다시점 비디오 카메라 및 깊이 정보 획득 장치로부터 획득한 다시점 영상 및 기준 시점에 대한 깊이 정보를 이용하여 변이 지도를 작성하여 3차원 영상 정보를 획득하기 위한 깊이 정보 기반 스테레오/다시점 영상 정합 장치로서, 상기 다시점 영상을 이용하여 각 시점의 카메라 정보를 추출하기 위한 카메라보정수단; 상기 깊이 정보를 기준시점에 대한 변이로 변환하기 위한 깊이정보변환수단; 및 기준 시점에 대한 변이 지도를 계산하기 위하여 상기 다시점 영상을 입력받아 기준 시점 영상과 정합할 대상 영상의 극상선(epipolar line)을 일치시키는 영상 보정(image rectification)을 수행하기 위한 영상보정수단을 포함하는 것을 특징으로 한다.The apparatus of the present invention for achieving the above object is to create a disparity map using the multi-view image obtained from the multi-view video camera and the depth information acquisition device and the depth information for the reference view to obtain the 3D image information 1. A depth information based stereo / multiview image matching device, comprising: camera correction means for extracting camera information of each viewpoint using the multiview image; Depth information converting means for converting the depth information into a variation with respect to a reference time point; And an image correction means for performing image rectification by receiving the multi-view image and calculating an epipolar line of a target image to be matched with the reference viewpoint image to calculate a disparity map with respect to a reference viewpoint. It is characterized by including.
또한, 본 발명의 장치는 상기 깊이 정보 및 다시점 영상 정보를 이용하여 정합 창틀의 종류를 선택하기 위한 정합창틀선택수단; 상기 깊이정보변환수단에서 변환된 변이를 이용하여 변이 탐색 범위를 계산하기 위한 변이탐색영역계산수단; 상기 정합창틀선택수단에서 선택된 정합 창틀을 이용하여 선택된 탐색 범위 내에서 유사도가 가장 높은 변이를 탐색하기 위한 변이탐색수단; 여러 시점으로부터 얻어진 동일점의 변이들을 비교하여 유사도가 가장 높은 스테레오 영상 쌍의 변이를 선택하기 위한 변이선택수단; 및 상기 다시점 영상의 기준 시점에 대하여 각 화소의 변이를 계산하여 변이지도를 생성하고 디지털 영상으로 기록하기 위한 변이지도생성/저장수단을 더 포함하는 것을 특징으로 한다.In addition, the apparatus of the present invention comprises: matching window frame selection means for selecting a type of matching window frame using the depth information and the multi-view image information; Variation search region calculation means for calculating a variation search range using the variation transformed by the depth information converting means; Mutation search means for searching for a variation having the highest similarity within a selected search range using the matching window frame selected by the matching window frame selecting means; Variation selecting means for selecting the variation of the stereo image pair having the highest similarity by comparing the variation of the same point obtained from several viewpoints; And disparity map generation / storing means for generating a disparity map by calculating the disparity of each pixel with respect to the reference viewpoint of the multi-view image and recording it as a digital image.
한편, 본 발명의 방법은 다시점 비디오 카메라 및 깊이 정보 획득 장치로부터 획득한 다시점 영상 및 기준 시점에 대한 깊이 정보를 이용하여 변이 지도를 작성하여 3차원 영상 정보를 획득하기 위한 깊이 정보 기반 스테레오/다시점 영상 정합 방법으로서, 상기 다시점 영상 및 기준 시점의 깊이정보를 입력받는 입력 단계; 각 시점의 카메라 정보를 추출하는 카메라 보정 단계; 상기 깊이 정보를 기준시점에 대한 변이로 변환하는 깊이 정보 변환 단계; 기준 시점에 대한 변이 지도를 계산하기 위하여 기준 시점 영상과 정합할 대상 영상의 극상선(epipolar line)을 일치시키는 영상 보정(image rectification) 단계; 상기 깊이 정보 및 다시점 영상 정보를 이용하여 정합 창틀의 종류를 선택하는 정합 창틀 선택 단계; 상기 변환된 변이로부터 변이 탐색 범위를 계산하는 변이 탐색 범위 계산 단계; 상기 선택된 창틀을 이용하여 선택된 탐색 범위 내에서 유사도가 가장 높은 변이를 탐색하는 단 계; 여러 시점으로부터 얻어진 동일점의 변이들을 비교하여 유사도가 가장 높은 스테레오 영상 쌍의 변이를 선택하는 단계; 및 각 화소의 변이를 계산하여 변이 지도를 생성하고 디지털 영상으로 기록하는 단계를 포함하는 것을 특징으로 한다.On the other hand, the method of the present invention is a depth information based stereo / to obtain a three-dimensional image information by creating a disparity map using the depth information of the multi-view image and the reference viewpoint obtained from the multi-view video camera and the depth information acquisition device / A multi-view image matching method, comprising: an input step of receiving depth information of the multi-view image and a reference viewpoint; A camera correction step of extracting camera information of each viewpoint; A depth information converting step of converting the depth information into a variation with respect to a reference time point; An image rectification step of matching an epipolar line of a target image to be matched with the reference viewpoint image to calculate a disparity map with respect to the reference viewpoint; A matching window frame selection step of selecting a type of matching window frame using the depth information and the multi-view image information; A variation search range calculation step of calculating a variation search range from the transformed variation; Searching for a variation having the highest similarity within a selected search range using the selected window frame; Comparing the variations of the same point obtained from several viewpoints and selecting the variation of the stereo image pair having the highest similarity; And calculating a variation of each pixel to generate a variation map and to record the digital image.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 더욱 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.The above objects, features, and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, whereby those skilled in the art may easily implement the technical idea of the present invention. There will be. In addition, in describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 깊이 정보 기반 스테레오/다시점 영상 정합 장치의 일실시예 구성도로서, 다시점 비디오 카메라(101) 및 깊이 카메라(102)를 이용한 깊이 정보 기반 스테레오/다시점 영상 정합 장치의 구성도이다.1 is a configuration diagram of a depth information based stereo / multiview image matching device according to an exemplary embodiment of the present invention, and a depth information based stereo / multiview image matching device using a
도 1에 도시된 바와 같이, 본 발명에 따른 깊이 정보 기반 스테레오/다시점 영상 정합 장치는 다시점 비디오 카메라(본 실시예에서는 3시점 카메라, 101)와 기준 시점에 대한 깊이 정보 획득 장치인 깊이 카메라(102)로부터 다시점 영상 및 기준 시점의 깊이 정보를 입력받아 저장하는 다시점비디오저장부(110)와 깊이 정보저장부(120), 각 시점의 카메라 정보를 추출하는 카메라 보정부(130), 깊이 정보를 기준시점에 대한 변이로 변환하는 깊이 정보 변환부(140), 기준 시점을 포함한 다시점 영상을 입력으로 하여 기준 시점에 대한 변이 지도를 계산하기 위하여 기준 시점 영상과 정합할 대상 영상의 극상선(epipolar line)을 일치시키는 영상 보정(image rectification)을 수행하는 다시점영상 보정부(150), 상기 깊이 정보 및 영상정보를 이용하여 적용할 정합 창틀의 종류를 선택하는 정합창틀선택부(160), 변환된 변이로부터 변이 탐색 범위를 계산하는 변이탐색영역 계산부(170), 선택된 창틀을 이용하여 선택된 탐색 범위 내에서 유사도가 가장 높은 변이를 탐색하는 변이 탐색부(180), 여러 시점으로부터 얻어진 동일점의 변이들을 비교하여 유사도가 가장 높은 스테레오 영상 쌍의 변이를 선택하는 변이 선택부(190), 기준 시점에 대하여 각 화소의 변이를 계산하여 변이 지도를 생성하고 이를 디지털 영상으로 기록하는 변이지도 생성/저장부(200)를 포함한다. 또한, 상기 변이 지도를 입력받아 카메라 정보를 이용하여 3차원 공간상의 점 구름(point cloud) 또는 3차원 모델로 변환하는 3차원 정보 변환 수단을 더 포함할 수 있다(미도시).As shown in FIG. 1, the depth information-based stereo / multiview image matching device according to the present invention includes a multiview video camera (three-
도 2는 본 발명에 따른 깊이 정보 기반 스테레오/다시점 영상 정합 방법에 대한 일실시예 흐름도이다.2 is a flowchart illustrating a depth information based stereo / multiview image matching method according to the present invention.
먼저, 다시점 비디오카메라와 기준 시점에 대한 깊이 정보 획득 장치인 깊이 카메라 등으로부터 다시점 영상 및 기준 시점의 깊이 정보를 획득하고(201), 획득된 다시점 영상과 깊이 정보를 저장한다(202).First, a multiview image and depth information of a reference view are acquired from a multiview video camera and a depth camera, which is a depth information acquisition device for a reference view (201), and the obtained multiview image and depth information are stored (202). .
이어서, 각 시점의 카메라 정보를 추출하고 기반행렬을 계산하는 카메라 보 정을 수행하고(203), 깊이 정보를 기준시점에 대한 변이로 변환하는 깊이 지도 변환을 수행한다(204).Subsequently, camera correction is performed to extract camera information of each viewpoint and calculate a base matrix (203), and a depth map transformation is performed to convert depth information into a variation of a reference viewpoint (204).
이어서, 기준 시점에 대한 변이 지도를 계산하기 위하여 기준 시점 영상과 정합할 대상 영상의 극상선(epipolar line)을 일치시키는 영상 보정을 수행하고(205), 깊이 정보 기반 변이를 추출하여 깊이 정보 기반 스테레오 정합을 수행한다(206).Subsequently, in order to calculate a disparity map with respect to the reference view, image correction is performed to match an epipolar line of the target image to be matched with the reference view image (205). The registration is performed (206).
이어서, 변이지도를 생성하여 저장하며(207), 이 때 변이지도를 카메라 정보를 이용하여 3차원 공간상의 점 구름(point cloud) 또는 3차원 모델로 변환/생성하는 과정을 부가적으로 수행할 수 있다(208).Subsequently, a disparity map is generated and stored (207), and the disparity map may be additionally performed by converting / generating the disparity map into a point cloud or a three-dimensional model in three-dimensional space using camera information. 208.
이하, 본 발명의 바람직한 실시예에 따른 상기 구성 요소의 동작 원리 및 상세 기능을 상호 결합 관계를 중심으로 관련 도면을 참조하여 상술한다.Hereinafter, the operation principle and the detailed function of the component according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings with a focus on the mutual coupling relationship.
도 1을 참조하여 전술한 바와 같이, 본 발명에 따른 깊이 정보 기반 스테레오/다시점 영상 정합 장치는 적어도 두 대 이상의 비디오카메라(다시점 카메라)로부터 동일시간에 취득된 다시점 영상과, 깊이 카메라 등에 의해 취득된 기준 시점에 대한 깊이 정보를 입력받아 다시점 비디오 저장부(110)와 깊이 정보 저장부(120)에 저장한다. As described above with reference to FIG. 1, the depth information-based stereo / multiview image matching device according to the present invention includes a multiview image acquired at the same time from at least two video cameras (multiview cameras), a depth camera, or the like. The depth information about the reference view obtained by the controller is received and stored in the
카메라 보정부(130)는 다시점 비디오 저장부(110)로부터 입력받은 다시점 영상을 이용하여 카메라 보정(calibration)을 통해 초점거리 등의 카메라 정보 및 각 시점 간의 상호 위치관계를 나타내는 기반 행렬(Fundamental matrix)을 계산한다. 이 때, 구해진 카메라 정보 및 기반 행렬 데이터는 데이터 저장장치 또는 컴퓨터 메모리상에 저장된다. The
깊이 정보 변환부(140)는 깊이 정보 변환부(103)로부터 입력받은 깊이 정보를 카메라 보정부(130)로부터 출력된 카메라 정보(카메라 내외부 파라미터)를 이용하여 기준시점 영상에 대한 변이정보로 변환한다. 이 때, 변환은 아래의 [수학식 1]과 [수학식 2]를 이용한다.The depth
여기서, disparity_1은 변환된 변이값으로서 실제 거리 단위로 주어지며, f는 카메라의 초점거리, b는 기준 카메라와 대상 카메라 간격(베이스라인 길이), depth는 실제거리 단위로 주어지는 깊이 정보이다.Here, disparity_1 is a transformed variation value, which is given in actual distance units, f is a focal length of a camera, b is a distance between a reference camera and a target camera (baseline length), and depth is depth information given in actual distance units.
이 때, disparity_1의 스케일이 매우 작은 값이므로 카메라의 실제 CCD 셀 하나의 크기(cell size)를 이용하여 최종적으로 탐색영역 설정에 사용될 화소단위의 변이를 아래의 [수학식 2]를 이용하여 계산한다.At this time, since the scale of disparity_1 is a very small value, the pixel unit variation to be finally used for setting the search area is calculated by using the actual CCD cell size of the camera using Equation 2 below. .
여기서, cell_size는 카메라 CCD의 실제 셀 크기이다.Here, cell_size is the actual cell size of the camera CCD.
이와 같이 계산된 변이는 스테레오 영상의 정합에 필요한 탐색영역을 설정하는데 사용된다.The calculated variation is used to set a search area required for matching stereo images.
도 3은 본 발명의 바람직한 실시예에 따라 다시점 영상 보정부로부터 계산된 3시점 보정 영상의 예시도로서, 3차원 공간상의 점 P와 보정된 다시점 영상 및 극상선 간의 위치 관계를 3시점 영상으로 나타낸 도면이다.3 is an exemplary diagram of a three-view corrected image calculated from a multi-view image corrector according to a preferred embodiment of the present invention. It is a figure shown.
다시점 영상 보정부(150)는 카메라 보정부(130)에서 구해진 기반 행렬(fundamental matrix)을 이용하여, 기준 카메라에 의해 취득된 영상의 극상선(epipolar line)과 다른 시점의 카메라에 의해 취득된 영상의 극상선이 서로 일치하며, 또한 영상의 스캔라인(scan line)과 일치하도록 영상 보정을 수행한다. 이렇게 함으로써 변이추출 시 변이 탐색 범위를 줄일 수 있다.The
도 3에 도시된 바와 같이, 각 시점의 영상은 동일한 초점 거리를 가지고 있음을 알 수 있다.As shown in FIG. 3, it can be seen that the images at each viewpoint have the same focal length.
도 4는 본 발명에 따른 정합 창틀 선택 및 탐색 범위 설정 과정에 대한 일실시예 흐름도이다.4 is a flowchart illustrating a process of selecting a matching window frame and setting a search range according to the present invention.
먼저, 정합창틀 선택부(105)는 깊이 정보 저장부(101) 및 다시점영상 보정부(104)로부터 기준시점 영상과 대상 영상에 대한 영상 정보 및 기준 시점 깊이 정보를 입력받는다(300).First, the registration window frame selector 105 receives image information about the reference viewpoint image and the target image and reference viewpoint depth information from the depth
이어서, 변이를 구하고자 하는 화소에 일정한 크기의 사각형 중심 창틀을 씌우고, 창틀내 모든 화소에 대한 컬러영상의 밝기 변화량(color gradient) 및 깊이 변화량(depth gradient)을 조사하여, 상기 두 변화량 중의 어느 한 값이 미리 정한 임계값 1(Th1)과 임계값 2(Th2)보다 큰 화소가 존재하는지 여부를 판단한다(301).Subsequently, a rectangular center window frame having a constant size is put on the pixel for which the variation is to be obtained, and the color gradient and the depth gradient of the color image of all the pixels in the window frame are examined to determine any one of the two variations. It is determined whether there is a pixel whose value is larger than the predetermined threshold 1 Th1 and the threshold 2 Th2 (301).
상기 판단 결과, 존재하는 경우에는 차폐(occlusion)가 발생할 가능성이 크다고 판단하여 기존의 단일 고정 크기의 창틀 대신 다중 적응크기 창틀을 사용한다(302).As a result of the determination, it is determined that occlusion is likely to occur when present, and thus, multiple adaptive size window frames are used instead of the existing single fixed size window frames (302).
다중 적응크기 창틀의 예로는 오쿠토미(Okutomi) 등이 사용한 다중 창틀이 있으며(참조 문헌 : M. Okutomi, Y. Katauama, and S. Oka,"A simple stereo algorithm to recover precise object boundaries and smooth surfaces," International Journal of Computer Vision, vol. 47, pp. 261-273, 2002), 이는 필요에 따라 다른 창틀 설정방법으로 대치가능하다. An example of a multi-adaptive window frame is the multiple window frame used by Okutomi et al. (M. Okutomi, Y. Katauama, and S. Oka, "A simple stereo algorithm to recover precise object boundaries and smooth surfaces, " International Journal of Computer Vision , vol. 47, pp. 261-273, 2002), which can be replaced by other window frame setting methods as needed.
한편, 상기 판단 결과, 존재하지 않는 경우에는 기존의 단일 고정 크기의 창틀을 사용하여(303) 이하, 변이 탐색을 수행하게 된다.On the other hand, as a result of the determination, if it does not exist, the transition search is performed using the existing single fixed size window frame (303) or less.
이어서, 변이탐색영역 계산부(160)는 입력된 깊이 정보의 존재 유무에 따라 변이 탐색 범위를 달리하기 위해 깊이 정보가 존재하는 여부를 판단한다(304). Next, the variation search
상기 판단 결과, 존재하는 경우에는 깊이 정보 값이 존재하는 화소에 대하여 상술한 깊이 정보 변환부(140)로부터 구해진 변이값(dc)을 이용하여 아래의 [수학식 3]과 같은 변이 탐색 범위를 설정하고(305), 존재하지 않는 경우의 화소에 대해서는 미리 설정된 전체 변이 탐색 범위를 설정한다(306). 여기서, 상기 변이 탐색 범위 설정 과정 과정은 도 5를 참조하여 상세히 후술한다. As a result of the determination, if present, the variation search range is set as shown in Equation 3 below using the shift value dc obtained from the
이어서, 전술한 바와 같이 결정된 정합 창틀과 변이 탐색 범위를 이용하여 최소 오차 또는 최대 유사도를 가지는 정합점을 찾고, 이에 해당하는 변이를 계산한다. 이 과정은 기준시점 영상을 포함한 다른 스테레오 영상 쌍에 대해서도 반복되며, 이들 중에서 오차가 최소이거나 유사도가 최대인 스테레오 영상 쌍의 변이를 선택하게 된다(307).Subsequently, a matching point having a minimum error or maximum similarity is found using the matching window frame and the variation search range determined as described above, and the corresponding variation is calculated. This process is repeated for other stereo image pairs including the reference view image, and among them, the variation of the stereo image pairs having the smallest error or the maximum similarity is selected (307).
이렇게 선택된 변이는 차폐 영역 검출을 위하여 기준 영상과 대상 영상을 바꿔 정합을 수행함으로써 차폐 영역을 검출한다(308). 상기 검출된 차폐 영역의 변이는 보간 등을 통하여 주위 화소의 변이에 의해 채워지며, 구해진 최종 변이는 변이 지도 형태로 저장된다. 상기 변이 지도는 카메라 정보를 이용하여 3차원 점 구름이나 3차원 모델로 변환될 수 있다(미도시).The selected variation detects the shielding area by performing matching by switching the reference image and the target image to detect the shielding area (308). The detected variation of the shielding region is filled by the variation of the surrounding pixels through interpolation or the like, and the obtained final variation is stored in the form of a variation map. The disparity map may be converted into a 3D point cloud or a 3D model using camera information (not shown).
도 5는 본 발명의 바람직한 실시예에 따른 깊이 정보를 이용한 변이 탐색 범위 설정 과정에 대한 설명도로서, 기준 시점 영상(가운데 영상) 내 한 점 p(x o ,y o)에 대한 좌측 영상 내 대응점을 찾기 위한 탐색 범위 설정 방법을 나타내고 있다.5 is an explanatory view of a preferred embodiment mutant search range setting process using the depth information in accordance with the present invention, the reference viewpoint image (middle picture) within a point p (x o, y o) corresponding points in the left image to the Shows how to set the search range to find.
깊이 정보 변환부(140)에서 구해진 변이값(dc)만큼 좌측 영상의 p(x o ,y o) 위치로부터 극상선(epipolar line)의 라인 방향(x 방향)으로 이동한 점 p'(x',y o)를 구하고, p'(x',y o)를 중심으로 error_rate 만큼 좌우 여유를 두어 탐색 범위를 설정한다. 이를 수학식으로 표현하면 아래의 [수학식 3]과 같다.The point p ' ( x moved from the position of p ( x o , y o ) of the left image in the line direction (x direction) of the epipolar line by the shift value d c obtained by the
여기서, x'은 깊이 정보 변환부(140)에서 변환된 변이 정보(dc)만큼 이동된 정합할 영상 화소의 x 좌표, dc는 깊이 정보 변환부(140)에서 변환된 변이 정보, error_rate는 깊이 정보의 신뢰도에 따라 결정되는 변수이다. 예를 들어 도 5와 같이 깊이 카메라로부터 얻어진 깊이 정보의 신뢰도를 80%라고 하면 error_rate는 0.2의 값을 가진다. 또한, 영상보정 오차를 고려하여 유사한 방법으로 y방향 탐색영역을 추가로 설정할 수 있다.
Here, x 'is the x coordinate of the image pixel to be matched shifted by the disparity information dc converted by the
삭제delete
상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. 이러한 과정은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있으므로 더 이상 상세히 설명하지 않기로 한다. 또한, 이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.As described above, the method of the present invention may be implemented as a program and stored in a recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.) in a computer-readable form. Since this process can be easily implemented by those skilled in the art will not be described in more detail. In addition, the present invention described above is capable of various substitutions, modifications and changes within the scope without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains to the embodiments and It is not limited by the accompanying drawings.
상기와 같은 본 발명은, 깊이 카메라 등에 의해 얻어진 기준시점에 대한 깊이 정보를 이용하여 스테레오 정합의 변이 탐색 범위 및 정합 창틀을 적응적으로 결정함으로써 변이 지도의 정확도를 향상시키면서도 변이 탐색 범위를 최소화할 수 있는 스테레오/다시점 영상 정합 장치 및 방법을 제공할 수 있는 효과가 있다.The present invention as described above, by using the depth information about the reference point obtained by the depth camera, etc. adaptively determine the variation search range and the matching window frame of the stereo matching can improve the accuracy of the variation map while minimizing the variation search range. There is an effect that can provide a stereo / multi-view image registration device and method.
또한, 본 발명은, 깊이 카메라 등에 의해 기준 시점에 대한 깊이 정보를 이용하여 적응적으로 변이 탐색영역을 설정하고, 정합 창틀의 종류를 선택함으로써, 3차원 깊이 또는 변이 정보의 정확도를 개선하는 효과가 있으며, 이로 인하여 종래의 스테레오 정합 기법이 가지는 깊이 불연속이나 차폐 영역에서 정확도가 저하되는 문제점을 해결할 수 있는 효과가 있다. In addition, the present invention has an effect of improving the accuracy of the three-dimensional depth or the disparity information by adaptively setting the disparity search area by using the depth information of the reference viewpoint using a depth camera or the like, and selecting the type of the matching window frame. As a result, there is an effect that can solve the problem that the accuracy is reduced in the depth discontinuity or shielding area of the conventional stereo matching technique.
또한, 본 발명은 향상된 정확도를 갖는 변이정보를 제공함으로써, 3차원 모델링 또는 임의시점 영상 생성에 효율적으로 적용될 수 있으며, 특히 임의시점 영상 생성시에 영상의 깨짐을 감소시킬 수 있는 효과가 있다.In addition, the present invention can be efficiently applied to 3D modeling or random view image generation by providing disparity information with improved accuracy, in particular, there is an effect that can reduce the breakage of the image during random view image generation.
Claims (11)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20040101773 | 2004-12-06 | ||
KR1020040101773 | 2004-12-06 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20060063558A KR20060063558A (en) | 2006-06-12 |
KR100776649B1 true KR100776649B1 (en) | 2007-11-19 |
Family
ID=37159534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020050028382A KR100776649B1 (en) | 2004-12-06 | 2005-04-06 | A depth information-based Stereo/Multi-view Stereo Image Matching Apparatus and Method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100776649B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100953076B1 (en) | 2007-12-13 | 2010-04-13 | 한국전자통신연구원 | Multi-view matching method and device using foreground/background separation |
KR101066550B1 (en) * | 2008-08-11 | 2011-09-21 | 한국전자통신연구원 | Method for generating vitual view image and apparatus thereof |
KR101086274B1 (en) * | 2008-12-05 | 2011-11-24 | 한국전자통신연구원 | Apparatus and method for extracting depth information |
KR101158678B1 (en) * | 2009-06-15 | 2012-06-22 | (주)알파캠 | Stereoscopic image system and stereoscopic image processing method |
CN103379350A (en) * | 2012-04-28 | 2013-10-30 | 中国科学院深圳先进技术研究院 | Virtual viewpoint image post-processing method |
US9842400B2 (en) | 2015-01-27 | 2017-12-12 | Samsung Electronics Co., Ltd. | Method and apparatus for determining disparity |
US11900561B2 (en) | 2020-11-25 | 2024-02-13 | Electronics And Telecommunications Research Institute | Deep learning-based image stitching method and apparatus |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100795482B1 (en) * | 2006-11-23 | 2008-01-16 | 광주과학기술원 | A method and apparatus for encoding or decoding frames of different views in multiview video using rectification, and a storage medium using the same |
KR100931311B1 (en) * | 2006-12-04 | 2009-12-11 | 한국전자통신연구원 | Depth estimation device and its method for maintaining depth continuity between frames |
KR100926520B1 (en) * | 2006-12-05 | 2009-11-12 | 한국전자통신연구원 | Apparatus and method of matching binocular/multi-view stereo using foreground/background separation and image segmentation |
US8125510B2 (en) * | 2007-01-30 | 2012-02-28 | Ankur Agarwal | Remote workspace sharing |
KR100897542B1 (en) * | 2007-05-17 | 2009-05-15 | 연세대학교 산학협력단 | Method and Device for Rectifying Image in Synthesizing Arbitary View Image |
KR100891549B1 (en) * | 2007-05-22 | 2009-04-03 | 광주과학기술원 | Method and apparatus for generating depth information supplemented using depth-range camera, and recording medium storing program for performing the method thereof |
KR20090055803A (en) * | 2007-11-29 | 2009-06-03 | 광주과학기술원 | Method and apparatus for generating multi-viewpoint depth map, method for generating disparity of multi-viewpoint image |
KR100924432B1 (en) * | 2007-12-06 | 2009-10-29 | 한국전자통신연구원 | Apparatus and method for controlling perceived depth of multi-view images |
KR101420684B1 (en) | 2008-02-13 | 2014-07-21 | 삼성전자주식회사 | Apparatus and method for matching color image and depth image |
KR20100000671A (en) | 2008-06-25 | 2010-01-06 | 삼성전자주식회사 | Method for image processing |
KR101004758B1 (en) * | 2009-02-17 | 2011-01-04 | 포항공과대학교 산학협력단 | Method for multi-perspective image generation using planview |
KR101236475B1 (en) * | 2009-04-14 | 2013-02-22 | 한국전자통신연구원 | Apparatus for detecting face and method for estimating distance using the same |
KR101626057B1 (en) | 2009-11-19 | 2016-05-31 | 삼성전자주식회사 | Method and device for disparity estimation from three views |
KR101598855B1 (en) | 2010-05-11 | 2016-03-14 | 삼성전자주식회사 | Apparatus and Method for 3D video coding |
KR101686171B1 (en) * | 2010-06-08 | 2016-12-13 | 삼성전자주식회사 | Apparatus for recognizing location using image and range data and method thereof |
KR20120072165A (en) * | 2010-12-23 | 2012-07-03 | 한국전자통신연구원 | Apparatus and method for 3-d effect adaptation |
KR101289003B1 (en) * | 2011-12-19 | 2013-07-23 | 광주과학기술원 | Method and Device for Stereo Matching of Images |
KR101893788B1 (en) | 2012-08-27 | 2018-08-31 | 삼성전자주식회사 | Apparatus and method of image matching in multi-view camera |
KR102550931B1 (en) * | 2016-11-29 | 2023-07-04 | 삼성전자주식회사 | Method and apparatus for stereo matching |
CN110895822B (en) | 2018-09-13 | 2023-09-01 | 虹软科技股份有限公司 | Method of operating a depth data processing system |
CN112765390A (en) * | 2019-10-21 | 2021-05-07 | 南京深视光点科技有限公司 | Stereo matching method with double search intervals |
CN115022612B (en) * | 2022-05-31 | 2024-01-09 | 北京京东方技术开发有限公司 | Driving method and device of display device and display equipment |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09126738A (en) * | 1995-10-27 | 1997-05-16 | Nec Corp | Three-dimensional shape measuring device and method therefor |
-
2005
- 2005-04-06 KR KR1020050028382A patent/KR100776649B1/en not_active IP Right Cessation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09126738A (en) * | 1995-10-27 | 1997-05-16 | Nec Corp | Three-dimensional shape measuring device and method therefor |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100953076B1 (en) | 2007-12-13 | 2010-04-13 | 한국전자통신연구원 | Multi-view matching method and device using foreground/background separation |
KR101066550B1 (en) * | 2008-08-11 | 2011-09-21 | 한국전자통신연구원 | Method for generating vitual view image and apparatus thereof |
KR101086274B1 (en) * | 2008-12-05 | 2011-11-24 | 한국전자통신연구원 | Apparatus and method for extracting depth information |
KR101158678B1 (en) * | 2009-06-15 | 2012-06-22 | (주)알파캠 | Stereoscopic image system and stereoscopic image processing method |
CN103379350A (en) * | 2012-04-28 | 2013-10-30 | 中国科学院深圳先进技术研究院 | Virtual viewpoint image post-processing method |
US9842400B2 (en) | 2015-01-27 | 2017-12-12 | Samsung Electronics Co., Ltd. | Method and apparatus for determining disparity |
US11900561B2 (en) | 2020-11-25 | 2024-02-13 | Electronics And Telecommunications Research Institute | Deep learning-based image stitching method and apparatus |
Also Published As
Publication number | Publication date |
---|---|
KR20060063558A (en) | 2006-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100776649B1 (en) | A depth information-based Stereo/Multi-view Stereo Image Matching Apparatus and Method | |
KR100513055B1 (en) | 3D scene model generation apparatus and method through the fusion of disparity map and depth map | |
KR100793076B1 (en) | Edge-adaptive stereo/multi-view image matching apparatus and its method | |
KR100745691B1 (en) | Binocular or multi-view stereo matching apparatus and its method using occlusion area detection | |
US9025862B2 (en) | Range image pixel matching method | |
CN109840922B (en) | Depth acquisition method and system based on binocular light field camera | |
KR20120058828A (en) | System for extracting 3-dimensional coordinate and method thereof | |
KR20090055803A (en) | Method and apparatus for generating multi-viewpoint depth map, method for generating disparity of multi-viewpoint image | |
CN101960860A (en) | System and method for depth map extraction using region-based filtering | |
WO2007052191A2 (en) | Filling in depth results | |
Zeller et al. | From the calibration of a light-field camera to direct plenoptic odometry | |
Zhou et al. | A two-step calibration method of lenslet-based light field cameras | |
CN111028281B (en) | Depth information calculation method and device based on light field binocular system | |
CN104331890B (en) | A kind of global disparity method of estimation and system | |
KR100574227B1 (en) | Apparatus and method for separating object motion from camera motion | |
JP2015019346A (en) | Parallax image generator | |
JP2005250994A (en) | Stereo image processor | |
Frese et al. | Robust depth estimation by fusion of stereo and focus series acquired with a camera array | |
Um et al. | Three-dimensional scene reconstruction using multiview images and depth camera | |
CN114935316B (en) | Standard depth image generation method based on optical tracking and monocular vision | |
Li et al. | Accurate depth estimation using structured light and passive stereo disparity estimation | |
CN115719320A (en) | Tilt correction dense matching method based on remote sensing image | |
US20230419524A1 (en) | Apparatus and method for processing a depth map | |
JP6595878B2 (en) | Element image group generation apparatus and program thereof | |
KR20110133677A (en) | Method and apparatus for processing 3d image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
J201 | Request for trial against refusal decision | ||
B701 | Decision to grant | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20121031 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20131024 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20141027 Year of fee payment: 8 |
|
LAPS | Lapse due to unpaid annual fee |