KR20020095752A - Method for Stereo Image Disparity Map Fusion And Method for Display 3-Dimension Image By Using it - Google Patents

Method for Stereo Image Disparity Map Fusion And Method for Display 3-Dimension Image By Using it Download PDF

Info

Publication number
KR20020095752A
KR20020095752A KR1020010033943A KR20010033943A KR20020095752A KR 20020095752 A KR20020095752 A KR 20020095752A KR 1020010033943 A KR1020010033943 A KR 1020010033943A KR 20010033943 A KR20010033943 A KR 20010033943A KR 20020095752 A KR20020095752 A KR 20020095752A
Authority
KR
South Korea
Prior art keywords
parallax
image
matching
edge
feature
Prior art date
Application number
KR1020010033943A
Other languages
Korean (ko)
Other versions
KR100411875B1 (en
Inventor
엄기문
허남호
김형남
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR10-2001-0033943A priority Critical patent/KR100411875B1/en
Publication of KR20020095752A publication Critical patent/KR20020095752A/en
Application granted granted Critical
Publication of KR100411875B1 publication Critical patent/KR100411875B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation

Abstract

PURPOSE: A method for fusing stereo image disparity map and a method for displaying 3D images by the same are provided to fuse two matching results by adaptively applying regulations according to pixel kind for obtaining precise disparity map. CONSTITUTION: A method for fusing stereo image disparity map includes the steps of initiating index for displaying a position in an image(301), checking whether a reference image pixel at the position displayed by the index is an edge image(302), carrying out edge pixel fusion if yes and moving to a next position to proceed to the second step(303,306), and carrying out non-edge pixel fusion in the other case and moving a next position to proceed to the second step(305,306).

Description

스테레오 영상 시차 지도 융합 방법 및 그를 이용한 3차원 영상 표시 방법{Method for Stereo Image Disparity Map Fusion And Method for Display 3-Dimension Image By Using it}Method for Stereo Image Disparity Map Fusion And Method for Display 3-Dimension Image By Using it}

본 발명은 스테레오 영상 시차 지도 융합 방법 및 그를 이용한 3차원 영상 표시 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것으로, 특히 영역 기반 정합 방법과 특징 기반 정합 방법을 사용하여 디지털 스테레오 좌우 영상을 정합함으로써 얻어진 두 시차 지도를 일정한 규칙에 의해 융합함으로써 두 정합 방법 결과의 단점을 해결하고, 보다 정확한 시차 지도를 얻는 스테레오 영상 시차 지도 융합 방법 및 그를 이용한 3차원 영상 표시 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.The present invention relates to a stereo image parallax map fusion method, a three-dimensional image display method using the same, and a computer-readable recording medium recording a program for realizing the method. In particular, an area-based matching method and a feature-based matching method are used. The two disparity maps obtained by matching the digital stereo left and right images by a certain rule to solve the shortcomings of the results of the two matching methods, and to obtain a more accurate disparity map, a stereo image disparity map fusion method and a three-dimensional image display method using the same; A computer readable recording medium having recorded thereon a program for realizing the method.

두 대의 좌우 카메라로부터 취득된 스테레오 영상 중 하나를 기준 영상으로, 다른 영상을 탐색 영상으로 놓았을 때, 이 두 영상에서 공간상의 동일한 한 점에 대한 기준 영상과 탐색 영상에서의 영상 좌표의 차이를 시차라고 하며, 이 시차를 추출하거나 시차의 정확도를 개선하기 위한 연구는 스테레오 비전 분야에서 많은연구가 진행되어 왔다.When one of stereo images acquired from two left and right cameras is used as a reference image and another image is placed as a search image, the difference in image coordinates between the reference image and the search image for the same point in space in these two images is parallax. Many studies have been conducted in the field of stereo vision to extract this parallax or improve the parallax accuracy.

스테레오 영상으로부터 시차를 구하기 위해서는 기준 영상의 임의의 점에 해당하는 대응점을 탐색 영상에서 찾아야 하는데, 이를 위한 종래의 기술은 크게 두 가지로 분류할 수 있다.In order to obtain parallax from a stereo image, a corresponding point corresponding to an arbitrary point of the reference image needs to be found in the search image. There are two conventional technologies for this.

첫 번째 방법은 영역 기반 방법이다.The first is the area based method.

이 방법은 기준 영상의 화소를 중심으로 일정한 크기의 창틀 내의 화소들과, 대응점이라고 간주되는 탐색 영상의 화소들을 중심으로 하는 같은 크기의 창틀 내의 화소들 간의 유사도를 계산하여, 가장 유사도가 큰 값을 갖는 화소를 대응점이라고 규정함으로써 시차를 구하는 방법이다.This method calculates the similarity between the pixels in the window frame of constant size centered on the pixels of the reference image and the pixels in the window frame of the same size centered on the pixels of the searched image considered to be corresponding points. It is a method of calculating parallax by defining the pixel to have as a corresponding point.

이 방법의 예로서는 "대한민국 특허공개 1999-0080598호(정합 화소 수를 이용한 유사도 측정 방법 및 이를 구현하기 위한 장치, 김형곤 외 2명)", 일본 특허 공개 "P2000-356514호(스테레오 카메라를 이용한 거리 측정 방법 및 거리 측정 장치, 주식회사 도시바)" 등이 있다.Examples of this method include "Korean Patent Publication No. 1999-0080598 (Method for Measuring Similarity Using Number of Matched Pixels and Apparatus for Implementing It, Kim Hyung-gon and Two Others)" and Japanese Patent Publication "P2000-356514 (Distance Measurement Using Stereo Camera) Method and distance measuring device, Toshiba Corporation).

두 번째 방법은 특징 기반 방법이다.The second method is feature based.

이 방법은 기준 영상과 탐색 영상에서 에지, 영 교차점 등 공간상의 정합 특징 (Matching Primitive)을 추출하고, 이 특징들 간의 유사도를 계산함으로써 대응되는 정합 특징 쌍을 선택하여 시차를 구하는 방법이다.This method extracts matching primitives such as edges and zero crossings from reference images and search images, and calculates the parallax by selecting corresponding matching feature pairs by calculating similarities between the features.

이 방법의 예로서는 일본 특허 공개 "P2000-172884호(3차원 모델의 작성방법, 주식회사 명전사)", 논문 "Hierachical Waveform Matching: A New Feature-based Stereo Technique(D. M. McKeown and Y. Hsieh, Proceeding of theConference on Computer Vision and Pattern Recognition, Urban Champlain, III, June 16-18, 1992)" 등이 있다.Examples of this method include Japanese Patent Laid-Open No. P2000-172884 (Method of Creating Three-Dimensional Model, Myungjeon Co., Ltd.), and Paper "Hierachical Waveform Matching: A New Feature-based Stereo Technique (DM McKeown and Y. Hsieh, Proceeding of the Conference). on Computer Vision and Pattern Recognition, Urban Champlain, III, June 16-18, 1992).

그러나, 이러한 방법들 중에서 절대적으로 가장 우수한 성능을 가졌다고 말할 수 있는 방법은 없으며, 영상의 종류나 정합 화소의 위치에 따라 다른 성능을 보이고 있다.However, none of these methods can be said to have the absolute best performance, and shows different performance depending on the type of image or the position of the matching pixel.

예를 들어, 영역 기반 정합 방법은 연속적으로 시차 변화가 발생하는 모든 화소에 대해 시차를 계산하므로 계산시간이 오래 걸리며, 밝기가 유사한 화소들이 많은 영역이나 시차 불연속 지점의 시차 계산에서 정합 오차를 발생시키는 문제점을 가지고 있다.For example, the region-based matching method calculates the parallaxes for all the pixels whose parallax changes continuously, and it takes a long calculation time and generates a matching error in the parallax calculation of regions where parallax discontinuities have many similar brightness. I have a problem.

또한, 특징 기반 정합 방법은 정합 특징이 존재하는 부분에서만 시차를 계산하므로 계산시간이 짧고, 시차 불연속 지점의 시차를 비교적 정확하게 구할 수 있다는 장점이 있는 반면, 모든 화소의 시차를 구할 수 없어 보간 과정이 필요하다는 문제점이 있다.In addition, the feature-based matching method calculates the parallax only in the region where there is a matching feature, so that the computation time is short and the parallax of the disparity discontinuity point can be obtained relatively accurately, whereas the parallax of all pixels cannot be obtained. There is a problem that it is necessary.

따라서, 최근에는 이 두 방법의 장단점을 보완할 수 있는 여러 가지 방법이 제안되었는데, 그 중 하나가 두 정합의 결과를 일정한 규칙에 의해 융합함으로써 보다 정확한 시차 지도를 얻기 위한 방법이 있다. 이러한 예로는 "D. M. McKeown, Jr." 등의 논문 "Refinement of Disparity Estimates Through the Fusion of Monocular Image Segmentations(Proceedings of Computer Vision and Pattern Recognition, pp. 486-492, 1992)", "Hseih" 등의 논문 "Performance Evaluation of Scene Registration and Stereo Matching for Cartographic FeatureExtraction(IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 14, no. 2, Feb. 1992)", 그리고 "엄 기문" 등의 "Refinement of Disparity Map using the Rule-based Fusion of Area and Feature-based Matching Results(Proceedings of International Symposium on Remote Sensing, pp. 304-309, Nov. 1999)" 논문 등이 있다.Therefore, in recent years, various methods have been proposed to supplement the advantages and disadvantages of these two methods, and one of them is a method for obtaining more accurate disparity maps by fusing the results of the two matches by a certain rule. An example of this is "D. M. McKeown, Jr." Et al. "Refinement of Disparity Estimates Through the Fusion of Monocular Image Segmentations (Proceedings of Computer Vision and Pattern Recognition, pp. 486-492, 1992)", "Hseih" et al. "Performance Evaluation of Scene Registration and Stereo Matching for Cartographic Feature Extraction (IEEE Trans. On Pattern Analysis and Machine Intelligence, vol. 14, no. 2, Feb. 1992), and "Refinement of Disparity Map using the Rule-based Fusion of Area and Feature-" based Matching Results (Proceedings of International Symposium on Remote Sensing, pp. 304-309, Nov. 1999).

이 중 "D. M. McKeown, Jr." 등이 제안한 방법은 여러 종류의 영상 분할 알고리즘을 이용하여 기준 영상을 여러 개의 영역으로 분할하고, 각 영역 내에서 두 시차 지도의 시차 빈도 (Disparity Histogram)를 계산한 다음, 시차 빈도 값이 큰 시차를 선택 하는 방법이다.Of these, "D. M. McKeown, Jr." The proposed method divides the reference image into several regions by using various image segmentation algorithms, calculates the disparity histograms of two disparity maps within each region, and then calculates the disparity having a large disparity frequency value. How to choose.

그러나, 이 방법은 영역 분할 결과에 따라 결과가 달라질 수 있으며, 미정합이나 오정합이 많이 발생하는 시차 불연속 지점에서 잘못된 시차를 선택할 수 있다는 문제점이 있다.However, this method has a problem in that the result may vary according to the result of the region division, and the wrong parallax may be selected at the disparity discontinuity point where many mismatches or mismatches occur.

또한, "Hseih" 등이 제안한 방법은 영역 기반 정합과 특징 기반 정합에 의해 얻어진 두 시차 중에서, 시차에 의해 정합된 점으로 구해진 두 화소를 중심으로 한 일정 크기의 창틀 내에서 기준 영상과 탐색 영상의 밝기 차이를 계산하여 두 시차 중에서 그 차이가 작은 시차를 선택하는 방법이다.In addition, the method proposed by "Hseih" et al. Is a method of the reference image and the search image in a window frame of a predetermined size centered on two pixels obtained from the point matched by the parallax among the two parallaxes obtained by the region-based matching and the feature-based matching. The difference in brightness is calculated by selecting the difference between two parallaxes.

그러나, 이 방법은 구현이 간단하다는 장점에도 불구하고, 기준 영상과 탐색 영상 간에 밝기 차이가 크거나, 차폐지역이 존재하는 경우에는 잘못된 시차를 선택할 수 있다는 문제점이 있다.However, this method has a problem in that an incorrect parallax may be selected when the brightness difference between the reference image and the search image is large or when there is a shielded area despite the advantage of simplicity of implementation.

또한, "엄 기문" 등이 제안한 방법은 상기 방법들의 단점을 보완하기 위해에지 영상과, 일정한 크기(3X3)의 창틀 내에서 각 시차 지도의 표준 편차 등 통계적 특성을 이용하여, 만들어진 규칙에 의해 시차를 선택하는 방법이다.In addition, the method proposed by Um Ki-mun et al. Uses parametric images such as edge images and statistical characteristics such as standard deviation of each disparity map within a window frame of a constant size (3 × 3) to compensate for the shortcomings of the methods. How to choose.

그러나, 이 방법은 실제적인 융합이 에지 부분에서만 이루어진다는 문제점이 있다.However, this method has a problem that the actual fusion is performed only at the edge portion.

본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 제안된 것으로, 디지털 입체 영상을 스테레오 정합(Stereo Matching)하여 얻어진 영역 기반 정합과 특징 기반 정합 시차 지도에서 에지 정보, 시차 지도의 통계적인 특성 등을 이용한 규칙에 의해 적절한 시차를 선택함으로써 시차 지도의 정확성을 높이는 스테레오 영상 시차 지도 융합 방법 및 그를 이용한 3차원 영상 표시 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것을 제공하는데 그 목적이 있다.The present invention has been proposed to solve the problems described above, using edge information, statistical characteristics of parallax map, etc. in region-based matching and feature-based matching disparity map obtained by stereo matching of digital stereoscopic images. Provided are a stereo image parallax map fusion method for enhancing the accuracy of a parallax map by selecting an appropriate parallax according to a rule, a 3D image display method using the same, and a computer-readable recording medium recording a program for realizing the method. The purpose is.

도 1 은 본 발명이 적용되는 3차원 영상 표시 시스템의 일실시예 구성도.1 is a configuration diagram of an embodiment of a three-dimensional image display system to which the present invention is applied.

도 2 는 본 발명에 따른 3차원 영상 표시 방법에 대한 일실시예 흐름도.2 is a flowchart illustrating a three-dimensional image display method according to the present invention;

도 3 은 본 발명에 따른 스테레오 영상 시차 지도 융합 방법에 대한 일실시예 흐름도.3 is a flowchart illustrating a stereo image disparity map fusion method according to the present invention;

도 4 는 본 발명에 따른 스테레오 영상 시차 지도 융합 방법에 있어서 에지 화소 융합 과정에 대한 일실시예 동작 흐름도.4 is a flowchart illustrating an operation of an edge pixel fusion process in the stereo image parallax map fusion method according to the present invention;

도 5 는 본 발명에 따른 스테레오 영상 시차 지도 융합 방법에 있어서 에지 화소 융합 과정 중 시차의 타당성 검증 과정에 대한 일실시예 동작 흐름도.FIG. 5 is a flowchart illustrating an exemplary operation of validating parallax among edge pixel fusion processes in the stereo image parallax map fusion method according to the present invention; FIG.

도 6 은 본 발명에 따른 스테레오 영상 시차 지도 융합 방법에 있어서 비에지 화소 융합 과정에 대한 일실시예 동작 흐름도.6 is a flowchart illustrating an embodiment of a non-edge pixel fusion process in the stereo image parallax map fusion method according to the present invention;

* 도면의 주요 부분에 대한 부호의 설명* Explanation of symbols for the main parts of the drawings

11-1 : 좌측 카메라11-2 : 우측 카메라11-1: Left Camera 11-2: Right Camera

12-1 : 좌측 에지 추출부12-2 : 우측 에지 추출부12-1: Left edge extracting unit 12-2: Right edge extracting unit

13 : 영역 기반 정합부14 : 특징 기반 정합부13 region-based matching unit 14 feature-based matching unit

15 : 융합 처리부16 : 보간부15: fusion processing unit 16: interpolation unit

17 : 시차 지도 기록부18 : 3차원 영상 표시부17: parallax map recording unit 18: 3D image display unit

상기 목적을 달성하기 위한 본 발명은, 스테레오 영상 시차 지도 융합 장치에 적용되는 스테레오 영상 시차 지도 융합 방법에 있어서, 영상내의 위치를 표시하기 위한 색인을 초기화하는 제 1 단계; 상기 색인값이 표시하는 위치의 기준 영상 화소가 에지 영상인지를 확인하는 제 2 단계; 상기 제 2 단계의 확인 결과, 에지 영상이면 에지 화소 융합을 하고 다음 위치로 이동하여 상기 제 2 단계로 진행하는 제 3 단계; 및 상기 제 2 단계의 확인 결과, 에지 영상이 아니면 비에지 화소 융합을 하고 다음 위치로 이동하여 상기 제 2 단계로 진행하는 제 4 단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a stereo image disparity map fusion method applied to a stereo image parallax map fusion device, comprising: a first step of initializing an index for indicating a position in an image; A second step of checking whether the reference image pixel at the position indicated by the index value is an edge image; A third step of performing edge pixel fusion, moving to a next position, and proceeding to the second step if it is an edge image as a result of the checking of the second step; And a fourth step of performing a non-edge pixel fusion, moving to a next position, and proceeding to the second step if the edge image is not confirmed as the second step.

또한, 본 발명은, 3차원 영상 표시 장치에 적용되는 스테레오 영상 시차 지도 융합 방법을 이용한 3차원 영상 표시 방법에 있어서, 좌우 영상 입력 장치로부터 각각 좌우 영상을 입력받고, 상기 입력받은 영상으로부터 좌우 에지 영상을 추출하는 제 1 단계; 상기 좌우 영상과 상기 좌우 에지 영상을 입력으로 하여 구해진 영역 기반 정합 시차 지도와 특징 기반 정합 시차 지도를 이용하여 화소의 에지 여부 및 시차 지도의 특성에 따라 시차를 선택하는 제 2 단계; 상기 선택된 시차를 합쳐 디지털 영상으로 기록하는 제 3 단계; 및 시차 지도를 3차원적 모형으로 영상 표시하는 제 4 단계를 포함한다.In addition, the present invention, in the three-dimensional image display method using a stereo image parallax map fusion method applied to the three-dimensional image display device, the left and right images are respectively input from the left and right image input device, the left and right edge image from the input image Extracting the first step; Selecting a parallax according to characteristics of edges of the pixels and characteristics of the parallax map using an area-based matched parallax map and a feature-based matched parallax map obtained by inputting the left and right images and the left and right edge images; A third step of recording the selected parallax into a digital image; And a fourth step of image displaying the parallax map in a three-dimensional model.

한편, 본 발명은, 프로세서를 구비한 영상 시차 지도 융합 장치에, 영상내의 위치를 표시하기 위한 색인을 초기화하는 제 1 기능; 상기 색인값이 표시하는 위치의 기준 영상 화소가 에지 영상인지를 확인하는 제 2 기능; 상기 제 2 기능에 의한 확인 결과, 에지 영상이면 에지 화소 융합을 하고 다음 위치로 이동하여 상기 제 2 기능으로 진행하는 제 3 기능; 및 상기 제 2 기능에 의한 확인 결과, 에지 영상이 아니면 비에지 화소 융합을 하고 다음 위치로 이동하여 상기 제 2 기능으로 진행하는 제 4 기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 포함한다.Meanwhile, the present invention provides a video parallax map fusion device having a processor, comprising: a first function of initializing an index for displaying a position in an image; A second function of checking whether a reference image pixel at a position indicated by the index value is an edge image; A third function of performing edge pixel fusion, moving to a next position, and proceeding to the second function if an edge image is confirmed by the second function; And a computer-readable recording medium having recorded thereon a program for realizing a fourth function of performing non-edge pixel fusion and moving to the next position and proceeding to the second function as a result of the confirmation by the second function. Include.

또한, 본 발명은, 프로세서를 구비한 3차원 영상 표시 장치에, 좌우 영상 입력 장치로부터 각각 좌우 영상을 입력받고, 상기 입력받은 영상으로부터 좌우 에지 영상을 추출하는 제 1 기능; 상기 좌우 영상과 상기 좌우 에지 영상을 입력으로 하여 구해진 영역 기반 정합 시차 지도와 특징 기반 정합 시차 지도를 이용하여 화소의 에지 여부 및 시차 지도의 특성에 따라 시차를 선택하는 제 2 기능; 상기 선택된 시차를 합쳐 디지털 영상으로 기록하는 제 3 기능; 및 시차 지도를 3차원적 모형으로 영상 표시하는 제 4 기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 포함한다.The present invention also provides a three-dimensional image display device having a processor, comprising: a first function of receiving left and right images respectively from a left and right image input apparatus and extracting left and right edge images from the received images; A second function of selecting a parallax according to characteristics of an edge of a pixel and a parallax map using an area-based matching parallax map and a feature-based matching parallax map obtained by inputting the left and right images and the left and right edge images; A third function of adding the selected disparity and recording the digital image; And a computer-readable recording medium having recorded thereon a program for realizing a fourth function of displaying a parallax map as a three-dimensional model.

상술한 목적, 특징들 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명한다.The above objects, features and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1 은 본 발명이 적용되는 3차원 영상 표시 시스템의 일실시예 구성도이다.1 is a configuration diagram of an embodiment of a three-dimensional image display system to which the present invention is applied.

도 1 에 도시된 바와 같이, 3차원 영상 표시 시스템은 두 대의 카메라(11-1, 11-2)로부터 촬영된 각각의 기준 영상과 탐색 영상을 에지 추출부(12-1, 12-2), 영역 기반 정합부(13)와 특징 기반 정합부(14)로 입력시키고, 각각의 출력으로 나온 에지 영상과 시차 지도를 다시 융합 처리부(16)에 입력시켜 상기 시차 지도에서의 시차 존재 여부 및 에지 여부에 따라 정해진 규칙을 이용하여 적절한 시차를 선택하며, 또한 필요에 따라 융합 처리부(16) 앞단에서 정합되지 않은 화소의 시차를 구하기 위한 보간부(15)를 거쳐 보간된 시차 지도를 융합 처리부(16)로 입력하며, 최종적으로 각 화소에 대해 구해진 시차를 디지털 영상으로 기록하는 시차 지도 기록부(17), 시차 지도와 기준 영상을 합성하여 3차원 영상으로 표시하는 3차원 영상 표시부(28)를 포함한다.As shown in FIG. 1, the three-dimensional image display system includes edge extracting units 12-1 and 12-2, respectively, for extracting reference images and search images from two cameras 11-1 and 11-2. The area-based matching unit 13 and the feature-based matching unit 14 are inputted, and the edge image and the parallax map outputted from the respective outputs are input again to the fusion processing unit 16 so that the presence or absence of parallax in the parallax map Selects an appropriate parallax using a rule set according to the above, and optionally, interpolates the parallax map interpolated through an interpolation unit 15 for obtaining parallax of an unmatched pixel at the front end of the fusion processor 16. And a parallax map recording unit 17 which finally records the parallax obtained for each pixel as a digital image, and a three-dimensional image display unit 28 for synthesizing the parallax map and the reference image and displaying the three-dimensional image.

여기서, 에지 추출부(12-1, 12-2)에서 추출된 에지 영상은 사용된 영역 기반 정합 방법 및 특징 기반 정합 방법에 따라 영역 기반 정합부(13)와 특징 기반 정합부(14)로 기준 및 탐색 영상과 함께 입력으로 사용 가능하다.Here, the edge images extracted by the edge extractors 12-1 and 12-2 are referred to as the region-based matching unit 13 and the feature-based matching unit 14 according to the region-based matching method and the feature-based matching method used. And it can be used as an input along with the search image.

상기와 같이 구성된 본 발명이 적용되는 3차원 영상 표시 시스템의 동작을 도 2 를 참조하여 살펴보면 다음과 같다.The operation of the 3D image display system to which the present invention configured as described above is applied will now be described with reference to FIG. 2.

도 2 는 본 발명에 따른 3차원 영상 표시 방법에 대한 일실시예 흐름도이다.2 is a flowchart illustrating a three-dimensional image display method according to the present invention.

도 2 에 도시된 바와 같이, 먼저 좌우 카메라(11-1, 11-2)로부터 취득된 각 영상을 에지 추출부(12), 영역 기반 정합부(13) 및 특징 기반 정합부(14)로 입력하고, 에지 추출부(12)에서는 상기 좌우 카메라(11-1, 11-2)로부터 취득된 각 영상으로부터 "Prewitt"이나 "Canny" 에지 추출 연산자를 이용하여 에지 영상을 추출하여(201) 영역 기반 정합부(13) 및 특징 기반 정합부(14)로 입력하고, 좌우 카메라(11-1, 11-2)로부터 취득된 영상과 에지 추출부(12)에서 획득한 에지 영상을 입력받은 영역 기반 정합부(13)와 특징 기반 정합부(14)에서 각각의 시차 지도를 획득한다(202).As shown in FIG. 2, first, each image obtained from the left and right cameras 11-1 and 11-2 is input to the edge extractor 12, the area-based matcher 13, and the feature-based matcher 14. In addition, the edge extractor 12 extracts an edge image from each of the images acquired from the left and right cameras 11-1 and 11-2 by using a "Prewitt" or "Canny" edge extraction operator (201), based on a region. Area-based matching, input to the matching unit 13 and the feature-based matching unit 14, and receiving the images acquired from the left and right cameras 11-1 and 11-2 and the edge image acquired from the edge extractor 12. Each of the disparity maps is acquired by the unit 13 and the feature-based matching unit 14 (202).

그리고, 보간부(15)에서는 상기 특징 기반 정합에 의한 시차 지도와 에지 영상을 다시 입력으로 받아 특징 기반 정합에 의한 시차 지도의 비에지 화소에 대해 보간을 수행하여 보간된 특징 기반 정합에 의한 시차 지도를 얻는다(203).The interpolation unit 15 receives the parallax map and the edge image based on the feature-based matching again and performs interpolation on the non-edge pixels of the parallax map by the feature-based matching. (203).

그리고, 융합 처리부(16)에서는 상기 영역 기반 정합부(13)와 상기 특징 기반 정합부(14)에서 획득한 각각의 시차 지도와 상기 에지 추출부(12)에서 획득한 에지 영상을 이용해 먼저 시차를 계산할 화소를 에지 화소와 비에지 화소로 분류하며, 분류된 화소는 각각 정해진 규칙에 따라 적절한 시차를 선택한다(204).The fusion processor 16 first performs parallax using each disparity map acquired by the region-based matcher 13 and the feature-based matcher 14 and the edge image obtained by the edge extractor 12. Pixels to be calculated are classified into edge pixels and non-edge pixels, and the classified pixels select appropriate parallaxes according to predetermined rules, respectively (204).

그리고, 시차 지도 기록부(17)에서 상기 선택된 각 화소의 시차를 디지털 영상으로 기록하며(205), 이를 3차원 영상 표시부(18)에서 3차원 그래픽을 이용하여 기준 영상과 시차지도를 합성하여 3차원 영상으로 표시한다(206).In addition, the parallax map recording unit 17 records the parallax of each selected pixel as a digital image (205), and the 3D image display unit 18 synthesizes the reference image and the parallax map by using the 3D graphic to 3D. An image is displayed (206).

도 3 은 본 발명에 따른 스테레오 영상 시차 지도 융합 방법에 대한 일실시예 흐름도이다.3 is a flowchart illustrating a stereo image disparity map fusion method according to the present invention.

여기서, 영상 내의 위치를 표시하기 위한 색인(index)으로서 i, j를 두어 본 도에 대한 설명을 하기로 한다. 이때, i는 행 위치 좌표 색인으로 "0"부터 "영상의 행 방향 최대 크기-1"까지 변하며, j는 열 위치 좌표 색인으로 "0"부터 "영상의 열 방향 최대 크기-1"까지 변한다.Here, the description will be made with reference to i and j as indexes for indicating positions in the image. In this case, i varies from "0" to "row direction maximum size-1 of the image" as the row position coordinate index, and j varies from "0" to "maximum size of column direction-1 of the image" as the column position coordinate index.

우선, 영상 내의 위치를 표시하기 위한 색인인 i, j를 0으로 초기화한다(301).First, i and j, which are indexes for indicating a position in an image, are initialized to 0 (301).

그리고, i와 j의 좌표(0, 0)인 화소부터 Pref,i,j가 에지인지를 확인한다(302). 여기서 Pref,i,j는 좌표가 (i, j)로 주어지는 기준 영상(좌측 영상)의 한 화소를 의미하며, 에지인지 조사하는 부분은 에지 영상에서 해당 위치 화소의 밝기 값을 조사하여 에지 화소 여부를 판단하게 된다. 통상의 경우, 에지 영상은 에지 화소인 경우 255의 밝기를 할당하고, 그렇지 않은 경우에는 0의 밝기를 할당한다.Then, it is checked whether Pref, i, j is an edge from the pixel having coordinates (0, 0) of i and j (302). Here, Pref, i, j means one pixel of the reference image (left image) whose coordinates are given by (i, j), and the part for checking whether the edge is an edge pixel by examining the brightness value of the corresponding position pixel in the edge image. Will be judged. In the normal case, the edge image allocates 255 brightness in the case of the edge pixel, and 0 brightness in the other case.

상기의 확인 결과, 에지인 경우에는 에지 화소 융합을 수행하고(303), 에지가 아닌 경우에는 특징 기반 정합 시차 지도의 비에지 화소의 시차를 보간하고(304) 비에지 화소 융합을 수행한다(305).As a result of the check, edge pixel fusion is performed in the case of an edge (303), and parallax of the non-edge pixel of the feature-based matching parallax map is interpolated (304), and non-edge pixel fusion is performed (305). ).

그리고, 상기에서와 같이 한 화소에 대해 에지 화소 융합 또는 비에지 화소 융합을 수행한 후 다음 화소로 이동함으로써, 전체 화소에 대해 상기 전 과정(302-305)을 반복한다(306-309).As described above, after performing edge pixel fusion or non-edge pixel fusion on one pixel and then moving to the next pixel, the entire process (302-305) is repeated for all pixels (306-309).

이하의 본 발명에서 제시하는 시차 선택 규칙의 기본적인 가정은 에지 부분 화소의 경우에는 에지 화소로 정합되며 수직 화소 및 수평 화소와 같은 방향성도 일치해야 한다는 것이다. 또한, 수직 에지 화소의 경우에는 특징 기반 정합 결과가 영역 기반 정합 결과에 비해 정확할 확률이 높으며, 수평 에지 부분 화소의 경우에는 특징 기반 정합 결과에 비해 영역 기반 정합 결과가 정확할 확률이 높다고 가정하여 시차를 선택하게 된다.The basic assumption of the parallax selection rule proposed in the present invention below is that in the case of the edge partial pixel, the edge pixel is matched and the same directionality as the vertical pixel and the horizontal pixel must match. In addition, parallax is assumed assuming that the feature-based matching result is more accurate than the region-based matching result in the case of the vertical edge pixel, and that the area-based matching result is more accurate than the feature-based matching result in the case of the horizontal edge partial pixel. Will be chosen.

도 4 는 본 발명에 따른 스테레오 영상 시차 지도 융합 방법에 있어서 에지 화소 융합 과정에 대한 일실시예 동작 흐름도이다.4 is a flowchart illustrating an operation of an edge pixel fusion process in the stereo image parallax map fusion method according to the present invention.

우선, 본 도에서 사용하는 변수에 대해 살펴보면, Ptarget,i,j,area는 영역 기반 정합(Area-based Matching)방법에 의해 얻어진 Pref,i,j의 시차로부터 구한 대상 영상(Target Image)내 정합점을 의미하며, Ptarget,i,j,ftr은 특징 기반 정합(Feature-based Matching) 방법에 의해 얻어진 Pref,i,j의 시차로부터 구한 대상 영상(Target Image)내 정합점을 의미한다.First, referring to the variables used in this figure, Ptarget, i, j, area is matched in the target image obtained from parallax of Pref, i, j obtained by the area-based matching method. Ptarget, i, j, ftr means a matching point in a target image obtained from parallax of Pref, i, j obtained by a feature-based matching method.

또한, dnew,i,j는 융합에 의해 새로 얻어진 Pref,i,j의 시차를 의미하며,darea,i,j는 영역 기반 정합 방법에 의해 얻어진 시차이며, dftr,i,j는 특징 기반 정합 방법에 의해 얻어진 Pref,i,j의 시차이다.In addition, dnew, i, j means the parallax of Pref, i, j newly obtained by fusion, darea, i, j is the parallax obtained by the area-based matching method, dftr, i, j is a feature-based matching method It is the parallax of Pref, i, j obtained by.

그 과정을 보면, 원래 정합하려는 Pref,i,j가 에지 화소이므로, 원래 그 정합점도 에지 화소이어야 한다. 따라서, 두 정합 방법에 의해 구해진 정합점 중 에지 화소인 점이 정확한 정합점일 확률이 높기 때문에 Ptarget,i,j,area와 Ptarget,i,j,ftr가 둘 다 에지 화소인지를 확인한다(401).In the process, since Pref, i, j to be originally matched is an edge pixel, the matching point should also be an edge pixel. Accordingly, since the probability that the point which is the edge pixel among the matching points obtained by the two matching methods is the exact match point is high, it is checked whether Ptarget, i, j, area and Ptarget, i, j, ftr are both edge pixels.

그리고, 상기 확인 결과, Ptarget,i,j,area와 Ptarget,i,j,ftr가 둘 다 에지 화소이면, Pref,i,j와 Ptarget,i,j,area, Pref,i,j와 Ptarget,i,j,ftr의 에지 방향이 같은 지를 확인한다(404). 이때, 방향은 에지 화소인 경우 그 화소가 속한 선소(연결된 에지)의 방향에 의해 또는, 해당 화소의 밝기 변화에 대한 그라디안트 (Gradient)값에 의해 그 화소의 에지 방향을 알 수 있으므로, 정합된 두 점의 에지 방향을 비교하여 방향의 유사성이 높은 두 점을 정합점으로 선택하기 위해 사용된다.If, as a result of the check, Ptarget, i, j, area and Ptarget, i, j, ftr are both edge pixels, Pref, i, j and Ptarget, i, j, area, Pref, i, j and Ptarget, It is checked whether the edge directions of i, j, ftr are the same (404). In this case, when the edge pixel is an edge pixel, the edge direction of the pixel may be determined by the direction of the line element (connected edge) to which the pixel belongs or by the gradient value of the brightness change of the pixel. It is used to select the two points with high similarity in direction as matching points by comparing the edge directions of the two points.

Pref,i,j와 Ptarget,i,j,area의 에지 방향이 같고 또한, Pref,i,j와 Ptarget,i,j,ftr의 에지 방향이 같으면, Pref,i,j의 방향이 수평인지를 확인하여 수평이면(407), darea,i,j를 dnew,i,j로 하고(413), Pref,i,j의 방향이 수평인지를 확인하여 수평이 아니면(407), dftr,i,j를 dnew,i,j로 한다(412).If the edge directions of Pref, i, j and Ptarget, i, j, area are the same, and the edge directions of Pref, i, j and Ptarget, i, j, ftr are the same, whether the directions of Pref, i, j are horizontal If it is horizontal (407), darea, i, j is dnew, i, j (413), and if the direction of Pref, i, j is horizontal (407), dftr, i, j Is dnew, i, j (412).

여기서, 방향의 수평 여부를 확인하는 이유는, 본 발명에서는 방향 유사성의 판단은 수평 방향과 수직 방향으로 구분하는 기준을 정하고, 이 기준에 따라 수평 방향 화소인지 수직 방향 화소인지 여부만으로 수행하게 되는데 만약, 에지 화소여부와 방향이 모두 유사한 점이 두 결과 모두에서 나올 경우 또는 정합된 두 점이 모두 에지 화소가 아닐 경우에는 수평 방향 에지 정합 결과가 특징 기반 정합에서 영역 기반 정합에 비해 일반적으로 오차가 클 확률이 높다고 판단하여 수평 방향의 경우에는 영역 기반 정합 결과를, 그렇지 않을 경우에는 특징 기반 정합 결과를 선택하기 위해서이다.Here, the reason for confirming whether the direction is horizontal is, in the present invention, the determination of the direction similarity determines a criterion for dividing the horizontal direction from the vertical direction, and according to this criterion is performed only whether the horizontal pixel or vertical pixel. In the case where both points of similarity and direction are similar in both results, or when the two matched points are not edge pixels, the result of the horizontal edge matching generally has a higher probability of error in the feature-based matching than the area-based matching. The reason for this is to select a region-based matching result in the horizontal direction and to select a feature-based matching result in the horizontal direction.

그리고, Pref,i,j와 Ptarget,i,j,ftr의 에지 방향만 같으면(405), dftr,i,j를 dnew,i,j로 한다(411). 또한, Pref,i,j와 Ptarget,i,j,area의 에지 방향만 같으면(406), 시차의 타당성을 검토하는 과정을 거쳐 정합점을 찾는다(414). 또한, 모두 방향이 다르면, Pref,i,j의 방향이 수평인지를 확인하여 수평이면(408), darea,i,j를 dnew,i,j로 하고(410), Pref,i,j의 방향이 수평인지를 확인하여 수평이 아니면(408), dftr,i,j를 dnew,i,j로 한다(411).If only the edge directions of Pref, i, j and Ptarget, i, j, ftr are the same (405), dftr, i, j is dnew, i, j (411). In addition, if only the edge directions of Pref, i, j and Ptarget, i, j, area are the same (406), a matching point is found through a process of examining the validity of parallax (414). Also, if the directions are all different, check whether the directions of Pref, i, j are horizontal, and if horizontal (408), darea, i, j is dnew, i, j (410), and the direction of Pref, i, j If it is not horizontal (408), dftr, i, j is dnew, i, j (411).

그리고, Ptarget,i,j,area가 에지가 아니거나 Ptarget,i,j,ftr가 에지가 아니면(401), Ptarget,i,j,ftr가 에지인 경우(402)에는 dftr,i,j를 dnew,i,j로 한다(409). 또한, Ptarget,i,j,area가 에지인 경우(403)에는 시차의 타당성을 검토하는 과정을 거쳐 정합점을 찾는다(414). 또한, 모두 에지가 아닌 경우에는 Pref,i,j의 방향이 수평인지를 확인하여 수평이면(408), darea,i,j를 dnew,i,j로 하고(410), Pref,i,j의 방향이 수평인지를 확인하여 수평이 아니면(408), dftr,i,j를 dnew,i,j로 한다(411).If Ptarget, i, j, area is not an edge or Ptarget, i, j, ftr is not an edge (401), and if Ptarget, i, j, ftr is an edge (402), dftr, i, j Let dnew, i, j (409). If Ptarget, i, j, area is an edge (403), a matching point is found through a process of examining the validity of parallax (414). If all of the edges are not edges, it is checked whether the direction of Pref, i, j is horizontal (step 408), and if darea, i, j is dnew, i, j (410), the pref, i, j If it is not horizontal (408), dftr, i, j is dnew, i, j (411).

도 5 는 본 발명에 따른 스테레오 영상 시차 지도 융합 방법에 있어서 에지 화소 융합 과정 중 시차의 타당성 검증 과정에 대한 일실시예 동작 흐름도이다.FIG. 5 is a flowchart illustrating an operation of validating a parallax during an edge pixel fusion process in the stereo image parallax map fusion method according to the present invention.

먼저, 사용된 각 주요 변수의 설명은 다음과 같다.First, the description of each major variable used is as follows.

우선, avgarea,i,j는 darea,i,j에 대한 3X3 창틀 내 영역 기반 정합 시차 지도의 평균시차를 의미하고, stdarea,i,j는 darea,i,j에 대한 3X3 창틀 내 영역 기반 정합 시차 지도의 시차에 대한 표준 편차를 의미한다.First, avgarea, i, j is the mean time difference of the area-based matching parallax in the 3X3 window frame for darea, i, j, and stdarea, i, j is the area-based matching parallax in the 3X3 window frame for darea, i, j Mean standard deviation of the time difference of the map.

또한, diffi,j는 영역 기반 정합에 의해 얻어진 시차인 darea,i,j와 3×3 창틀 내 평균 시차 avgarea,i,j의 절대값 차이를 의미하며, 이는 darea,i,j가 주위 시차들과 비교하였을 때 두드러지게 차이가 많이 나는 점인지를 조사하고, 차이가 클 경우 잘못 정합된 점일 확률이 높으므로 이를 선택하지 않기 위해 사용된다.Also, diffi, j means the difference between the absolute values of the parallax darea, i, j obtained by region-based matching and the average parallax avgarea, i, j in the 3 × 3 window frame, where darea, i, j is the peripheral parallaxes. It is used to check whether the point is significantly different when compared with, and if the difference is large, it is highly likely that it is a mismatched point.

또한, Th1는 diffi,j와 stdarea,i,j사이의 차이를 판별하기 위한 임계치이고, Th2은 diffi,j 즉, 영역 기반 시차 darea,i,j와 avgarea,i,j 와의 차이를 판별하기 위한 임계치이다.In addition, Th1 is a threshold for determining a difference between diffi, j and stdarea, i, j, and Th2 is a diffi, j, that is, for determining a difference between area-based parallax darea, i, j and avgarea, i, j Threshold.

그 동작을 살펴보면, 우선 avgarea,i,j와 stdarea,i,j를 계산한다(501).Looking at the operation, first calculates avgarea, i, j and stdarea, i, j (501).

그리고, diffi,j를 stdarea,i,j값과 비교하여 그 차이가 임계치 Th1보다 작으면(502) diffi,j를 임계치 Th2와 stdarea,i,j값 중 작은 값과 비교하여(503) diffi,j가 작으면 유효한 시차일 확률이 있다고 보아 darea,i,j를 선택하고(504) 그렇지 않으면 dftr,i,j를 dnew,i,j로 선택한다(505). 여기서, 503의 과정은 502의 과정에서 정확한 시차일 확률이 높아진 darea,i,j의 정확성을 보다 확실하게 조사하기 위한 것이다.If diffi, j is compared with the stdarea, i, j value and the difference is less than the threshold Th1 (502), diffi, j is compared with the smaller value of the threshold Th2 and stdarea, i, j value (503) diffi, If j is small, it is determined that there is a probability of valid parallax (504). Otherwise, dftr, i, j is selected as dnew, i, j (505). Here, the process of 503 is to more reliably investigate the accuracy of darea, i, j, which has a higher probability of accurate parallax in the process of 502.

그리고, diffi,j를 stdarea,i,j값과 비교하여 그 차이가 임계치 Th1보다 작지 않으면(502) darea,i,j를 정확하지 않은 시차로 판단하여 특징 기반 정합에 의한 시차 dftr,i,j를 dnew,i,j로 선택한다(505).In addition, if diffi, j is compared with stdarea, i, j and the difference is not smaller than the threshold Th1 (502), darea, i, j is judged to be an incorrect parallax and parallax dftr, i, j by feature-based matching Is selected as dnew, i, j (505).

도 6 은 본 발명에 따른 스테레오 영상 시차 지도 융합 방법에 있어서 비에지 화소 융합 과정에 대한 일실시예 동작 흐름도이다.6 is a flowchart illustrating an embodiment of a non-edge pixel fusion process in the stereo image parallax map fusion method according to the present invention.

먼저, 도 6 에 사용된 각 주요 변수들에 대해 설명하면, Histarea[d], Histftr[d], Histmax[d]는 (i,j)를 중심으로 한 3×3 창틀 내에서 영역기반 정합, 특징기반 정합에 의해 얻어진 시차 지도상에서 계산된 시차 d의 히스토그램 및 최대 빈도 수를 가지는 시차 d를 나타낸다.First, each of the main variables used in FIG. 6 will be described. Histarea [d], Histftr [d], and Histmax [d] are region-based registration in a 3 × 3 window frame centered on (i, j), It shows the histogram of parallax d and the parallax d with the maximum frequency count calculated on the parallax map obtained by feature-based matching.

본 발명에서는 특징 기반 정합 시차 지도의 비에지 화소에 대한 시차 보간을 한 후(304) 비에지 화소에 대한 융합을 수행한다. 비에지 화소에 대한 융합을 위해 우선, 비에지 화소 융합을 할 대상인 3×3 창틀을 설정한다(601).In the present invention, parallax interpolation is performed on non-edge pixels of a feature-based matched parallax map (304), and then fusion is performed on non-edge pixels. In order to fuse the non-edge pixels, first, a 3 × 3 window frame to be subjected to non-edge pixels is set (601).

그리고, 설정된 3×3 창틀 내에서 중심화소(i,j)를 제외한 나머지 8개 화소(창틀내의 주위 화소)의 에지 여부를 에지 영상으로부터 조사하여(602) 에지 화소가 있을 경우에는 히스토그램 조사에서 제외시키고 창틀 내 다음 화소에 대해(603) 다시 에지 화소 여부를 조사한다(602). 일반적으로 시차 변화가 불연속적으로 일어나는 부분이 존재하는 경우가 많으므로 시차 분포가 에지 화소를 경계로 달라진다. 따라서, 시차 변화가 비교적 완만하게 일어나는 화소들만 선택하기 위해 에지 화소를 제외하는 것이다.Then, the edge image is irradiated from the edge image to determine whether the remaining eight pixels (the surrounding pixels in the window frame) except the center pixel (i, j) are set within the set 3x3 window frame (602). Then, the next pixel in the window frame (603) and whether the edge pixel is checked again (602). In general, since there are many parts where disparity changes occur discontinuously, the parallax distribution varies with the edge pixels. Therefore, the edge pixel is excluded in order to select only those pixels in which the parallax variation is relatively gentle.

그리고, 상기에서 에지 화소를 제외하고 나면. 각 시차 지도의 히스토그램을 계산하여(604), 두 시차 지도에서 각각 최대 빈도수를 가지는 시차를 구하고, 다시 두 최대 빈도수를 가지는 시차를 조사하여 둘 중 최대 빈도수를 가지는 시차가 영역기반 정합에 의한 시차이면(605), darea,i,j를 dnew,i,j로 선택하고(606) 그렇지 않으면 특징 기반 정합에 의한 시차 dftr,i,j를 dnew,i,j로 선택한다(607).And, except for the edge pixel above. By calculating the histogram of each disparity map (604), the parallax having the maximum frequency in each of the two disparity maps is obtained, and the parallax having the maximum frequency is examined again, and if the disparity having the maximum frequency is the disparity due to the area-based matching 605, darea, i, j is selected as dnew, i, j (606), otherwise parallax dftr, i, j by feature-based matching is selected as dnew, i, j (607).

상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다.As described above, the method of the present invention may be implemented as a program and stored in a recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.) in a computer-readable form.

이상에서 설명한 본 발명은 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하다는 것이 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.The present invention described above is not limited to the above-described embodiments and the accompanying drawings, and various substitutions, modifications, and changes are possible in the technical field of the present invention without departing from the technical spirit of the present invention. It will be clear to those of ordinary knowledge.

상기한 바와 같은 본 발명은, 종래의 영역 기반 정합 시스템 또는 방법과 특징 기반 정합 시스템 또는 방법이 가지는 단점을 보완하기 위해 적절한 규칙을 통해 두 정합 결과를 융합함으로써 보다 정확한 시차 지도를 얻을 수 있는 효과가 있다.As described above, the present invention has the effect of obtaining a more accurate disparity map by fusing two matching results through appropriate rules to compensate for the disadvantages of the conventional area-based matching system or method and the feature-based matching system or method. have.

또한, 본 발명은 기존의 시차 융합 방법이 화소 종류에 관계없이 하나의 규칙을 적용하거나 에지 화소에 대해서만 규칙을 적용함으로써 발생하는 문제점을, 화소 종류에 따라 다른 규칙을 적응적으로 적용함으로써 보다 정확한 시차지도를 얻을 수 있는 효과가 있다.In addition, the present invention provides a more accurate disparity by adaptively applying a different rule according to the pixel type to solve the problem caused by the conventional parallax fusion method applying one rule irrespective of the pixel type or only the rule for the edge pixel. It has the effect of obtaining a map.

Claims (13)

스테레오 영상 시차 지도 융합 장치에 적용되는 스테레오 영상 시차 지도 융합 방법에 있어서,A stereo image parallax map fusion method applied to a stereo image parallax map fusion device, 영상내의 위치를 표시하기 위한 색인을 초기화하는 제 1 단계;A first step of initializing an index for indicating a position in the image; 상기 색인값이 표시하는 위치의 기준 영상 화소가 에지 영상인지를 확인하는 제 2 단계;A second step of checking whether the reference image pixel at the position indicated by the index value is an edge image; 상기 제 2 단계의 확인 결과, 에지 영상이면 에지 화소 융합을 하고 다음 위치로 이동하여 상기 제 2 단계로 진행하는 제 3 단계; 및A third step of performing edge pixel fusion, moving to a next position, and proceeding to the second step if it is an edge image as a result of the checking of the second step; And 상기 제 2 단계의 확인 결과, 에지 영상이 아니면 비에지 화소 융합을 하고 다음 위치로 이동하여 상기 제 2 단계로 진행하는 제 4 단계As a result of the checking of the second step, if the edge image is not the fourth step of non-edge pixel fusion and moving to the next position to proceed to the second step 를 포함하는 스테레오 영상 시차 지도 융합 방법.Stereo image parallax map fusion method comprising a. 제 1 항에 있어서,The method of claim 1, 상기 제 3 단계의 에지 화소 융합 과정은,The edge pixel fusion process of the third step, 영역 기반 정합 방법에 의한 대상 영상의 정합점과 특징 기반 정합 방법에 의한 대상 영상의 정합점이 에지 영상인지를 확인하는 제 5 단계;A fifth step of checking whether the matching point of the target image by the region-based matching method and the matching point of the target image by the feature-based matching method are edge images; 상기 제 5 단계의 확인 결과, 상기 특징 기반 정합 방법에 의한 대상 영상의 정합점이 에지 영상인 경우 특징 기반 정합 방법에 의한 시차를 선택하는 제 6 단계;A sixth step of selecting a parallax by a feature-based matching method when the matching point of the target image by the feature-based matching method is an edge image as a result of the checking of the fifth step; 상기 제 5 단계의 확인 결과, 상기 영역 기반 정합 방법에 의한 대상 영상의 정합점이 에지 영상인 경우 시차의 타당성을 검증하여 시차를 선택하는 제 7 단계;A seventh step of verifying validity of the parallax when the matching point of the target image by the region-based matching method is an edge image as a result of the checking of the fifth step; 상기 제 5 단계의 확인 결과, 에지 영상이 아닌 경우, 상기 기준 영상 화소의 방향을 확인하여 수평이면 상기 영역 기반 정합 방법에 의한 시차를 선택하고 수평이 아니면 상기 특징 기반 정합 방법에 의한 시차를 선택하는 제 8 단계; 및As a result of the checking of the fifth step, when it is not an edge image, the direction of the reference image pixel is checked to select a parallax based on the region-based matching method if it is horizontal, and to select a parallax based on the feature-based matching method if it is not horizontal. Eighth step; And 상기 제 5 단계의 확인 결과, 에지 영상이면, 상기 특징 기반 정합 방법에 의한 대상 영상의 정합점, 상기 영역 기반 정합 방법에 의한 대상 영상의 정합점 및 상기 기준 영상 화소의 방향에 따라 시차를 선택하는 제 9 단계As a result of the checking of the fifth step, if the edge image is selected, parallax is selected according to a matching point of the target image by the feature-based matching method, a matching point of the target image by the region-based matching method, and a direction of the reference image pixel. 9th step 를 포함하는 스테레오 영상 시차 지도 융합 방법.Stereo image parallax map fusion method comprising a. 제 2 항에 있어서,The method of claim 2, 상기 제 9 단계는,The ninth step, 상기 특징 기반 정합 방법에 의한 대상 영상의 정합점과 상기 기준 영상 화소 및 상기 영역 기반 정합 방법에 의한 대상 영상의 정합점과 상기 기준 영상 화소의 방향의 동일 여부를 확인하는 제 10 단계;A tenth step of checking whether the matching point of the target image by the feature-based matching method and the reference point of the reference image pixel and the target image by the region-based matching method are the same as the directions of the reference image pixel; 상기 제 10 단계의 확인 결과, 상기 특징 기반 정합 방법에 의한 대상 영상의 정합점과 상기 기준 영상 화소가 서로 방향이 동일한 경우 특징 기반 정합 방법에 의한 시차를 선택하는 제 11 단계;An eleventh step of selecting a parallax by a feature-based matching method when the matching point of the target image and the reference image pixel are in the same direction as each other as a result of the checking of the tenth step; 상기 제 10 단계의 확인 결과, 상기 영역 기반 정합 방법에 의한 대상 영상의 정합점과 상기 기준 영상 화소가 서로 방향이 동일한 경우 시차의 타당성을 검증하여 시차를 선택하는 제 12 단계;A twelfth step of selecting a disparity by verifying validity of the disparity when the matching point of the target image and the reference image pixel are in the same direction as the result of the checking of the tenth step; 상기 제 10 단계의 확인 결과, 상기 특징 기반 정합 방법에 의한 대상 영상의 정합점과 상기 기준 영상 화소 및 상기 영역 기반 정합 방법에 의한 대상 영상의 정합점과 상기 기준 영상 화소의 방향이 틀린 경우 상기 기준 영상 화소의 방향을 확인하여 수평이면 상기 영역 기반 정합 방법에 의한 시차를 선택하고 수평이 아니면 상기 특징 기반 정합 방법에 의한 시차를 선택하는 제 13 단계; 및When the matching point of the target image by the feature-based matching method, the reference image pixel and the matching point of the target image by the region-based matching method, and the direction of the reference image pixel are different as a result of the checking in the tenth step, the reference Checking a direction of an image pixel to select a parallax based on the region-based matching method if horizontal, and selecting a parallax based on the feature-based matching method if not horizontal; And 상기 제 10 단계의 확인 결과, 상기 특징 기반 정합 방법에 의한 대상 영상의 정합점과 상기 기준 영상 화소 및 상기 영역 기반 정합 방법에 의한 대상 영상의 정합점과 상기 기준 영상 화소의 방향이 같은 경우 상기 기준 영상 화소의 방향을 확인하여 수평이면 상기 영역 기반 정합 방법에 의한 시차를 선택하고 수평이 아니면 상기 특징 기반 정합 방법에 의한 시차를 선택하는 제 14 단계The reference point when the matching point of the target image by the feature-based matching method, the reference image pixel and the matching point of the target image by the region-based matching method, and the direction of the reference image pixel are the same. A fourteenth step of checking a direction of an image pixel and selecting a parallax based on the region-based matching method if it is horizontal; 를 포함하는 스테레오 영상 시차 지도 융합 방법.Stereo image parallax map fusion method comprising a. 제 2 항 또는 제 3 항에 있어서,The method of claim 2 or 3, 상기 시차의 타당성을 검증하여 시차를 선택하는 과정은,The process of selecting the parallax by verifying the validity of the parallax, 소정의 영역내의 영역 기반 정합 시차 지도의 평균시차와 영역 기반 정합 시차 지도의 시차에 대한 표준 편차를 계산하는 제 15 단계;Calculating a standard deviation between the mean parallax of the area-based matched parallax map and the parallax of the area-based matched parallax map in the predetermined area; 상기 영역 기반 정합 시차 지도의 시차에 대한 표준 편차와 상기 영역 기반 정합에 의해 얻어진 시차와 상기 소정의 영역내 평균 시차의 절대값 차이를 비교하여 그 차이가 제 1 임계치보다 크거나 같으면 특징 기반 정합 방법에 의한 시차를 선택하는 제 16 단계; 및Comparing the standard deviation of the parallax of the region-based matching parallax with the absolute value difference between the parallax obtained by the region-based matching and the average parallax in the predetermined region, and if the difference is greater than or equal to a first threshold, the feature-based matching method. A sixteenth step of selecting a parallax by; And 상기 영역 기반 정합 시차 지도의 시차에 대한 표준 편차와 상기 영역 기반 정합에 의해 얻어진 시차와 상기 소정의 영역내 평균 시차의 절대값 차이를 비교하여 그 차이가 상기 제 1 임계치보다 작으면, 상기 영역 기반 정합에 의해 얻어진 시차와 상기 소정의 영역내 평균 시차의 절대값 차이를, 상기 영역 기반 정합 시차 지도의 시차에 대한 표준 편차와 제 2 임계치 중 작은 값과 비교하여, 상기 영역 기반 정합에 의해 얻어진 시차와 상기 소정의 영역내 평균 시차의 절대값 차이가 작으면 영역 기반 정합 방법에 의한 시차를 선택하고, 크거나 같으면 특징 기반 정합 방법에 의한 시차를 선택하는 제 17 단계Comparing the standard deviation of the parallax of the area-based matching parallax with the absolute difference between the parallax obtained by the area-based matching and the mean parallax in the predetermined area, and if the difference is less than the first threshold, the area-based The parallax obtained by the area-based matching by comparing the difference between the absolute value of the parallax obtained by the matching and the mean parallax in the predetermined area with a smaller value among the standard deviation and the second threshold for the parallax of the area-based matching parallax map. And a seventeenth step of selecting a time difference based on a region-based matching method if the absolute difference between the average time differences within the predetermined region is small, and selecting a time difference based on a feature-based matching method if the difference is large or equal. 를 포함하는 스테레오 영상 시차 지도 융합 방법.Stereo image parallax map fusion method comprising a. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 3, 상기 제 4 단계의 비에지 화소 융합 과정은,The non-edge pixel fusion process of the fourth step, 상기 특징 기반 정합 시차 지도의 비에지 화소의 시차를 보간하는 제 15 단계;A fifteenth step of interpolating a parallax of a non-edge pixel of the feature-based matched parallax map; 소정의 영역을 설정하고 영역내의 에지 화소를 제외한 화소에 대해 영역 지반 정합에 의한 시차의 히스토그램과 특징 기반 정합에 의한 시차의 히스토그램을 계산하는 제 16 단계;Setting a predetermined area and calculating a histogram of parallax by region ground matching and a histogram of parallax by feature-based matching for pixels excluding edge pixels in the area; 상기 영역 지반 정합에 의한 시차의 히스토그램과 상기 특징 기반 정합에 의한 시차의 히스토그램 중 최대 빈도수를 가지는 히스토그램을 조사하는 제 17 단계; 및A seventeenth step of examining a histogram having a maximum frequency among the histograms of the parallaxes by the region ground matching and the histograms of the parallaxes by the feature-based matching; And 상기 조사 결과, 상기 최대 빈도수를 가지는 히스토그램이 상기 영역 지반 정합에 의한 시차의 히스토그램이면 영역 기반 정합 방법에 의한 시차를 선택하고, 상기 최대 빈도수를 가지는 히스토그램이 상기 특징 지반 정합에 의한 시차의 히스토그램이면 특징 기반 정합 방법에 의한 시차를 선택하는 제 18 단계If the histogram having the maximum frequency is the histogram of the parallax due to the area ground matching, the parallax is selected by the area-based matching method, and if the histogram having the maximum frequency is the histogram of the parallax due to the feature ground matching, Eighteenth Step of Selecting Parallax by Based Matching Method 를 포함하는 스테레오 영상 시차 지도 융합 방법.Stereo image parallax map fusion method comprising a. 3차원 영상 표시 장치에 적용되는 스테레오 영상 시차 지도 융합 방법을 이용한 3차원 영상 표시 방법에 있어서,A three-dimensional image display method using a stereo image parallax map fusion method applied to a three-dimensional image display device, 좌우 영상 입력 장치로부터 각각 좌우 영상을 입력받고, 상기 입력받은 영상으로부터 좌우 에지 영상을 추출하는 제 1 단계;Receiving a left and right image from the left and right image input devices, and extracting a left and right edge image from the received image; 상기 좌우 영상과 상기 좌우 에지 영상을 입력으로 하여 구해진 영역 기반 정합 시차 지도와 특징 기반 정합 시차 지도를 이용하여 화소의 에지 여부 및 시차 지도의 특성에 따라 시차를 선택하는 제 2 단계;Selecting a parallax according to characteristics of edges of the pixels and characteristics of the parallax map using an area-based matched parallax map and a feature-based matched parallax map obtained by inputting the left and right images and the left and right edge images; 상기 선택된 시차를 합쳐 디지털 영상으로 기록하는 제 3 단계; 및A third step of recording the selected parallax into a digital image; And 시차 지도를 3차원적 모형으로 영상 표시하는 제 4 단계Fourth step to visually display parallax maps in three-dimensional model 를 포함하는 스테레오 영상 시차 지도 융합 방법을 이용한 3차원 영상 표시 방법.3D image display method using a stereo image parallax map fusion method comprising a. 제 6 항에 있어서,The method of claim 6, 상기 제 2 단계의 시차 선택 과정은,The parallax selection process of the second step, 영상내의 위치를 표시하기 위한 색인을 초기화하는 제 5 단계;A fifth step of initializing an index for indicating a position in the image; 상기 색인값이 표시하는 위치의 기준 영상 화소가 에지 영상인지를 확인하는 제 6 단계;A sixth step of checking whether the reference image pixel at the position indicated by the index value is an edge image; 상기 제 6 단계의 확인 결과, 에지 영상이면 에지 화소 융합을 하고 다음 위치로 이동하여 상기 제 6 단계로 진행하는 제 7 단계; 및A seventh step of performing edge pixel fusion, moving to a next position, and proceeding to the sixth step if it is an edge image as a result of the checking of the sixth step; And 상기 제 6 단계의 확인 결과, 에지 영상이 아니면 비에지 화소 융합을 하고 다음 위치로 이동하여 상기 제 6 단계로 진행하는 제 8 단계As a result of the checking of the sixth step, if the edge image is not the eighth step to perform the non-edge pixel fusion and move to the next position to the sixth step 를 포함하는 스테레오 영상 시차 지도 융합 방법를 이용한 3차원 영상 표시 방법.3D image display method using a stereo image parallax map fusion method comprising a. 제 7 항에 있어서,The method of claim 7, wherein 상기 제 7 단계의 에지 화소 융합 과정은,The edge pixel fusion process of the seventh step, 영역 기반 정합 방법에 의한 대상 영상의 정합점과 특징 기반 정합 방법에 의한 대상 영상의 정합점이 에지 영상인지를 확인하는 제 9 단계;A ninth step of checking whether the matching point of the target image by the region-based matching method and the matching point of the target image by the feature-based matching method are edge images; 상기 제 9 단계의 확인 결과, 상기 특징 기반 정합 방법에 의한 대상 영상의 정합점이 에지 영상인 경우 특징 기반 정합 방법에 의한 시차를 선택하는 제 10 단계;A tenth step of selecting a parallax by a feature-based matching method when the matching point of the target image by the feature-based matching method is an edge image as a result of the checking of the ninth step; 상기 제 9 단계의 확인 결과, 상기 영역 기반 정합 방법에 의한 대상 영상의 정합점이 에지 영상인 경우 시차의 타당성을 검증하여 시차를 선택하는 제 11 단계;An eleventh step of selecting a disparity by verifying validity of the disparity when the matching point of the target image by the region-based matching method is an edge image as a result of the checking of the ninth step; 상기 제 9 단계의 확인 결과, 에지 영상이 아닌 경우, 상기 기준 영상 화소의 방향을 확인하여 수평이면 상기 영역 기반 정합 방법에 의한 시차를 선택하고 수평이 아니면 상기 특징 기반 정합 방법에 의한 시차를 선택하는 제 12 단계; 및As a result of the checking of the ninth step, when the edge image is not an edge image, the direction of the reference image pixel is checked to select a parallax based on the region-based matching method if the image is horizontal, and a parallax based on the feature-based matching method if the image is not horizontal. Twelfth step; And 상기 제 9 단계의 확인 결과, 에지 영상이면, 상기 특징 기반 정합 방법에 의한 대상 영상의 정합점, 상기 영역 기반 정합 방법에 의한 대상 영상의 정합점 및 상기 기준 영상 화소의 방향에 따라 시차를 선택하는 제 13 단계As a result of the checking in the ninth step, if the edge image is selected, parallax is selected according to a matching point of the target image by the feature-based matching method, a matching point of the target image by the region-based matching method, and a direction of the reference image pixel. 13th step 를 포함하는 스테레오 영상 시차 지도 융합 방법을 이용한 3차원 영상 표시 방법.3D image display method using a stereo image parallax map fusion method comprising a. 제 8 항에 있어서,The method of claim 8, 상기 제 13 단계는,The thirteenth step, 상기 특징 기반 정합 방법에 의한 대상 영상의 정합점과 상기 기준 영상 화소 및 상기 영역 기반 정합 방법에 의한 대상 영상의 정합점과 상기 기준 영상 화소의 방향의 동일 여부를 확인하는 제 14 단계;A fourteenth step of checking whether the matching point of the target image by the feature-based matching method and the reference point of the reference image pixel and the direction of the reference image pixel by the region-based matching method are the same; 상기 제 14 단계의 확인 결과, 상기 특징 기반 정합 방법에 의한 대상 영상의 정합점과 상기 기준 영상 화소만이 서로 방향이 동일한 경우 특징 기반 정합 방법에 의한 시차를 선택하는 제 15 단계;A fifteenth step of selecting a parallax by a feature-based matching method when only the matching point of the target image and the reference image pixel are the same in direction as the result of the checking in the fourteenth step; 상기 제 14 단계의 확인 결과, 상기 영역 기반 정합 방법에 의한 대상 영상의 정합점과 상기 기준 영상 화소가 서로 방향이 동일한 경우 시차의 타당성을 검증하여 시차를 선택하는 제 16 단계;A step 16 of selecting a disparity by verifying validity of the disparity when the matching point of the target image and the reference image pixel are in the same direction as each other as a result of the checking of the fourteenth step; 상기 제 14 단계의 확인 결과, 상기 특징 기반 정합 방법에 의한 대상 영상의 정합점과 상기 기준 영상 화소 및 상기 영역 기반 정합 방법에 의한 대상 영상의 정합점과 상기 기준 영상 화소의 방향이 틀린 경우 상기 기준 영상 화소의 방향을 확인하여 수평이면 상기 영역 기반 정합 방법에 의한 시차를 선택하고 수평이 아니면 상기 특징 기반 정합 방법에 의한 시차를 선택하는 제 17 단계; 및As a result of the checking in step 14, when the matching point of the target image by the feature-based matching method and the reference point of the reference image pixel and the target image by the region-based matching method are different from the direction of the reference image pixel, the reference point Checking a direction of an image pixel to select a parallax based on the region-based matching method if horizontal, and selecting a parallax based on the feature-based matching method if not horizontal; And 상기 제 14 단계의 확인 결과, 상기 특징 기반 정합 방법에 의한 대상 영상의 정합점과 상기 기준 영상 화소 및 상기 영역 기반 정합 방법에 의한 대상 영상의 정합점과 상기 기준 영상 화소의 방향이 같은 경우 상기 기준 영상 화소의 방향을 확인하여 수평이면 상기 영역 기반 정합 방법에 의한 시차를 선택하고 수평이 아니면 상기 특징 기반 정합 방법에 의한 시차를 선택하는 제 18 단계As a result of the checking of step 14, when the matching point of the target image by the feature-based matching method and the reference image pixel and the direction of the reference image pixel by the region-based matching method are the same, the reference point An eighteenth step of checking a direction of an image pixel and selecting a parallax based on the region-based matching method if it is horizontal, and selecting a parallax based on the feature-based matching method if it is not horizontal 를 포함하는 스테레오 영상 시차 지도 융합 방법을 이용한 3차원 영상 표시방법.3D image display method using a stereo image parallax map fusion method comprising a. 제 8 항 또는 제 9 항에 있어서,The method according to claim 8 or 9, 상기 시차의 타당성을 검증하여 시차를 선택하는 과정은,The process of selecting the parallax by verifying the validity of the parallax, 소정의 영역내의 영역 기반 정합 시차 지도의 평균시차와 영역 기반 정합 시차 지도의 시차에 대한 표준 편차를 계산하는 제 19 단계;Calculating a standard deviation between the mean parallax of the area-based matched parallax map and the parallax of the area-based matched parallax map in the predetermined area; 상기 영역 기반 정합 시차 지도의 시차에 대한 표준 편차와 상기 영역 기반 정합에 의해 얻어진 시차와 상기 소정의 영역내 평균 시차의 절대값 차이를 비교하여 그 차이가 제 1 임계치보다 크면 특징 기반 정합 방법에 의한 시차를 선택하는 제 20 단계; 및The standard deviation of the parallax of the area-based matching parallax map is compared with the absolute value difference between the parallax obtained by the area-based matching and the mean parallax in the predetermined area, and if the difference is greater than a first threshold, the feature-based matching method is performed. A twentieth step of selecting a parallax; And 상기 영역 기반 정합 시차 지도의 시차에 대한 표준 편차와 상기 영역 기반 정합에 의해 얻어진 시차와 상기 소정의 영역내 평균 시차의 절대값 차이를 비교하여 그 차이가 상기 제 1 임계치보다 작으면, 상기 영역 기반 정합에 의해 얻어진 시차와 상기 소정의 영역내 평균 시차의 절대값 차이를, 상기 영역 기반 정합 시차 지도의 시차에 대한 표준 편차와 제 2 임계치 중 작은 값과 비교하여, 상기 영역 기반 정합에 의해 얻어진 시차와 상기 소정의 영역내 평균 시차의 절대값 차이가 작으면 영역 기반 정합 방법에 의한 시차를 선택하고, 크면 특징 기반 정합 방법에 의한 시차를 선택하는 제 21 단계Comparing the standard deviation of the parallax of the region-based matching parallax map with the absolute value difference between the parallax obtained by the region-based matching and the average parallax in the predetermined region, and if the difference is smaller than the first threshold, the region-based The parallax obtained by the area-based matching by comparing the difference between the absolute value of the parallax obtained by the matching and the mean parallax in the predetermined area with a smaller value among the standard deviation and the second threshold for the parallax of the area-based matching parallax map. A twenty-first step of selecting a parallax based on a region-based matching method if the absolute difference between the average parallaxes in the predetermined region is small; 를 포함하는 스테레오 영상 시차 지도 융합 방법을 이용한 3차원 영상 표시방법.3D image display method using a stereo image parallax map fusion method comprising a. 제 7 항 내지 제 9 항 중 어느 한 항에 있어서,The method according to any one of claims 7 to 9, 상기 제 8 단계의 비에지 화소 융합 과정은,In the eighth step of the non-edge pixel fusion process, 상기 특징 기반 정합 시차 지도의 비에지 화소의 시차를 보간하는 제 19 단계;A nineteenth step of interpolating a parallax of a non-edge pixel of the feature-based matched parallax map; 소정의 영역을 설정하고 영역내의 에지 화소를 제외한 화소에 대해 영역 지반 정합에 의한 시차의 히스토그램과 특징 기반 정합에 의한 시차의 히스토그램을 계산하는 제 20 단계;Setting a predetermined area and calculating a histogram of parallax by region ground matching and a histogram of parallax by feature-based matching for pixels excluding edge pixels in the area; 상기 영역 지반 정합에 의한 시차의 히스토그램과 상기 특징 기반 정합에 의한 시차의 히스토그램 중 최대 빈도수를 가지는 히스토그램을 조사하는 제 21 단계; 및A twenty-first step of examining a histogram having a maximum frequency among the histograms of the parallaxes by the region ground matching and the histograms of the parallaxes by the feature-based matching; And 상기 조사 결과, 상기 최대 빈도수를 가지는 히스토그램이 상기 영역 지반 정합에 의한 시차의 히스토그램이면 영역 기반 정합 방법에 의한 시차를 선택하고, 상기 최대 빈도수를 가지는 히스토그램이 상기 특징 지반 정합에 의한 시차의 히스토그램이면 특징 기반 정합 방법에 의한 시차를 선택하는 제 22 단계If the histogram having the maximum frequency is the histogram of the parallax due to the area ground matching, the parallax is selected based on a region-based matching method; and if the histogram having the maximum frequency is the histogram of the parallax due to the feature ground matching The twenty-second step of selecting parallax by the based matching method 를 포함하는 스테레오 영상 시차 지도 융합 방법을 이용한 3차원 영상 표시 방법.3D image display method using a stereo image parallax map fusion method comprising a. 프로세서를 구비한 영상 시차 지도 융합 장치에,In a video parallax map fusion device having a processor, 영상내의 위치를 표시하기 위한 색인을 초기화하는 제 1 기능;A first function of initializing an index for indicating a position within an image; 상기 색인값이 표시하는 위치의 기준 영상 화소가 에지 영상인지를 확인하는 제 2 기능;A second function of checking whether a reference image pixel at a position indicated by the index value is an edge image; 상기 제 2 기능에 의한 확인 결과, 에지 영상이면 에지 화소 융합을 하고 다음 위치로 이동하여 상기 제 2 기능으로 진행하는 제 3 기능; 및A third function of performing edge pixel fusion, moving to a next position, and proceeding to the second function if an edge image is confirmed by the second function; And 상기 제 2 기능에 의한 확인 결과, 에지 영상이 아니면 비에지 화소 융합을 하고 다음 위치로 이동하여 상기 제 2 기능으로 진행하는 제 4 기능A fourth function for performing non-edge pixel fusion, moving to the next position and proceeding to the second function if it is not an edge image as a result of the confirmation by the second function; 을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for realizing this. 프로세서를 구비한 3차원 영상 표시 장치에,In a three-dimensional image display device having a processor, 좌우 영상 입력 장치로부터 각각 좌우 영상을 입력받고, 상기 입력받은 영상으로부터 좌우 에지 영상을 추출하는 제 1 기능;A first function of receiving left and right images from left and right image input apparatuses and extracting left and right edge images from the received images; 상기 좌우 영상과 상기 좌우 에지 영상을 입력으로 하여 구해진 영역 기반 정합 시차 지도와 특징 기반 정합 시차 지도를 이용하여 화소의 에지 여부 및 시차 지도의 특성에 따라 시차를 선택하는 제 2 기능;A second function of selecting a parallax according to characteristics of an edge of a pixel and a parallax map using an area-based matching parallax map and a feature-based matching parallax map obtained by inputting the left and right images and the left and right edge images; 상기 선택된 시차를 합쳐 디지털 영상으로 기록하는 제 3 기능; 및A third function of adding the selected disparity and recording the digital image; And 시차 지도를 3차원적 모형으로 영상 표시하는 제 4 기능Fourth function to image parallax maps in three-dimensional model 을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for realizing this.
KR10-2001-0033943A 2001-06-15 2001-06-15 Method for Stereo Image Disparity Map Fusion And Method for Display 3-Dimension Image By Using it KR100411875B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2001-0033943A KR100411875B1 (en) 2001-06-15 2001-06-15 Method for Stereo Image Disparity Map Fusion And Method for Display 3-Dimension Image By Using it

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2001-0033943A KR100411875B1 (en) 2001-06-15 2001-06-15 Method for Stereo Image Disparity Map Fusion And Method for Display 3-Dimension Image By Using it

Publications (2)

Publication Number Publication Date
KR20020095752A true KR20020095752A (en) 2002-12-28
KR100411875B1 KR100411875B1 (en) 2003-12-24

Family

ID=27709463

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2001-0033943A KR100411875B1 (en) 2001-06-15 2001-06-15 Method for Stereo Image Disparity Map Fusion And Method for Display 3-Dimension Image By Using it

Country Status (1)

Country Link
KR (1) KR100411875B1 (en)

Cited By (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030005512A (en) * 2001-07-09 2003-01-23 (주)브이알그래픽스 apparatus and method for dual DVD player same period control for cubic image screening
KR100601958B1 (en) * 2004-07-15 2006-07-14 삼성전자주식회사 Method for estimting disparity for 3D object recognition
KR100762670B1 (en) * 2006-06-07 2007-10-01 삼성전자주식회사 Method and device for generating disparity map from stereo image and stereo matching method and device therefor
KR100850561B1 (en) 2007-01-03 2008-08-06 (주)폴리다임 Method of eliminating horizontal pixel-line from digital image
KR100888459B1 (en) * 2007-03-14 2009-03-19 전자부품연구원 Method and system for calculating depth information of object in image
US8989480B2 (en) 2009-11-19 2015-03-24 Samsung Electronics Co., Ltd. Method, computer-readable medium and apparatus estimating disparity of three view images
KR101509003B1 (en) * 2011-12-16 2015-04-07 도꾸리쯔교세이호징 가가꾸 기쥬쯔 신꼬 기꼬 Feature extraction method, subject classification method, subject identification method, feature extraction device, subject classification device, subject identification device, feature extraction/subject classification/subject identification program and recording medium recording said program
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US9082176B2 (en) 2010-10-25 2015-07-14 Samsung Electronics Co., Ltd. Method and apparatus for temporally-consistent disparity estimation using detection of texture and motion
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9521289B2 (en) 2011-06-10 2016-12-13 Flir Systems, Inc. Line based image processing and flexible memory system
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9635220B2 (en) 2012-07-16 2017-04-25 Flir Systems, Inc. Methods and systems for suppressing noise in images
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US9706139B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Low power and small form factor infrared imaging
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US9723227B2 (en) 2011-06-10 2017-08-01 Flir Systems, Inc. Non-uniformity correction techniques for infrared imaging devices
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9807319B2 (en) 2009-06-03 2017-10-31 Flir Systems, Inc. Wearable imaging devices, systems, and methods
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
CN107677682A (en) * 2017-11-07 2018-02-09 泉州创力模具有限公司 A kind of footwear mould surface damage detection device and detection method
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US9918023B2 (en) 2010-04-23 2018-03-13 Flir Systems, Inc. Segmented focal plane array architecture
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
CN112214273A (en) * 2020-10-14 2021-01-12 合肥芯颖科技有限公司 Digital clock display method and device, electronic equipment and storage medium
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor
CN116665034A (en) * 2022-11-11 2023-08-29 中国消防救援学院 Three-dimensional matching and flame space positioning method based on edge characteristics

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100991671B1 (en) 2008-12-15 2010-11-04 재단법인대구경북과학기술원 Image Matching Method and Apparatus and Object Detection Apparatus Using Same
KR101163042B1 (en) 2009-11-26 2012-07-05 재단법인대구경북과학기술원 Apparatus and Method for Extracting Vehicle

Cited By (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030005512A (en) * 2001-07-09 2003-01-23 (주)브이알그래픽스 apparatus and method for dual DVD player same period control for cubic image screening
KR100601958B1 (en) * 2004-07-15 2006-07-14 삼성전자주식회사 Method for estimting disparity for 3D object recognition
KR100762670B1 (en) * 2006-06-07 2007-10-01 삼성전자주식회사 Method and device for generating disparity map from stereo image and stereo matching method and device therefor
US7876954B2 (en) 2006-06-07 2011-01-25 Samsung Electronics Co., Ltd Method and device for generating a disparity map from stereo images and stereo matching method and device therefor
KR100850561B1 (en) 2007-01-03 2008-08-06 (주)폴리다임 Method of eliminating horizontal pixel-line from digital image
KR100888459B1 (en) * 2007-03-14 2009-03-19 전자부품연구원 Method and system for calculating depth information of object in image
US10033944B2 (en) 2009-03-02 2018-07-24 Flir Systems, Inc. Time spaced infrared image enhancement
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US9807319B2 (en) 2009-06-03 2017-10-31 Flir Systems, Inc. Wearable imaging devices, systems, and methods
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9843743B2 (en) 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
US8989480B2 (en) 2009-11-19 2015-03-24 Samsung Electronics Co., Ltd. Method, computer-readable medium and apparatus estimating disparity of three view images
US9918023B2 (en) 2010-04-23 2018-03-13 Flir Systems, Inc. Segmented focal plane array architecture
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US9082176B2 (en) 2010-10-25 2015-07-14 Samsung Electronics Co., Ltd. Method and apparatus for temporally-consistent disparity estimation using detection of texture and motion
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US9723228B2 (en) 2011-06-10 2017-08-01 Flir Systems, Inc. Infrared camera system architectures
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
US9723227B2 (en) 2011-06-10 2017-08-01 Flir Systems, Inc. Non-uniformity correction techniques for infrared imaging devices
US9716844B2 (en) 2011-06-10 2017-07-25 Flir Systems, Inc. Low power and small form factor infrared imaging
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9521289B2 (en) 2011-06-10 2016-12-13 Flir Systems, Inc. Line based image processing and flexible memory system
US9706139B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Low power and small form factor infrared imaging
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US10250822B2 (en) 2011-06-10 2019-04-02 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US10230910B2 (en) 2011-06-10 2019-03-12 Flir Systems, Inc. Infrared camera system architectures
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US9538038B2 (en) 2011-06-10 2017-01-03 Flir Systems, Inc. Flexible memory systems and methods
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
KR101509003B1 (en) * 2011-12-16 2015-04-07 도꾸리쯔교세이호징 가가꾸 기쥬쯔 신꼬 기꼬 Feature extraction method, subject classification method, subject identification method, feature extraction device, subject classification device, subject identification device, feature extraction/subject classification/subject identification program and recording medium recording said program
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9635220B2 (en) 2012-07-16 2017-04-25 Flir Systems, Inc. Methods and systems for suppressing noise in images
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor
CN107677682A (en) * 2017-11-07 2018-02-09 泉州创力模具有限公司 A kind of footwear mould surface damage detection device and detection method
CN107677682B (en) * 2017-11-07 2024-03-08 泉州创力模具有限公司 Shoe mold surface damage detection device and detection method
CN112214273A (en) * 2020-10-14 2021-01-12 合肥芯颖科技有限公司 Digital clock display method and device, electronic equipment and storage medium
CN112214273B (en) * 2020-10-14 2023-04-21 合肥芯颖科技有限公司 Digital clock display method and device, electronic equipment and storage medium
CN116665034A (en) * 2022-11-11 2023-08-29 中国消防救援学院 Three-dimensional matching and flame space positioning method based on edge characteristics
CN116665034B (en) * 2022-11-11 2023-10-31 中国消防救援学院 Three-dimensional matching and flame space positioning method based on edge characteristics

Also Published As

Publication number Publication date
KR100411875B1 (en) 2003-12-24

Similar Documents

Publication Publication Date Title
KR100411875B1 (en) Method for Stereo Image Disparity Map Fusion And Method for Display 3-Dimension Image By Using it
CN108369741B (en) Method and system for registration data
Hong et al. Segment-based stereo matching using graph cuts
EP2811423A1 (en) Method and apparatus for detecting target
EP2064675B1 (en) Method for determining a depth map from images, device for determining a depth map
US5734743A (en) Image processing method and apparatus for block-based corresponding point extraction
CN111066065A (en) System and method for hybrid depth regularization
US20170161546A1 (en) Method and System for Detecting and Tracking Objects and SLAM with Hierarchical Feature Grouping
KR100953076B1 (en) Multi-view matching method and device using foreground/background separation
JPH07336669A (en) Stereo image corresponding method and stereo image parallax measuring method
Kordelas et al. Content-based guided image filtering, weighted semi-global optimization, and efficient disparity refinement for fast and accurate disparity estimation
Buades et al. Reliable multiscale and multiwindow stereo matching
KR20070061011A (en) Binocular or multi-view stereo matching apparatus and its method using occlusion area detection
Oliveira et al. Selective hole-filling for depth-image based rendering
CN110675442B (en) Local stereo matching method and system combined with target recognition technology
KR20110021500A (en) Method for real-time moving object tracking and distance measurement and apparatus thereof
CN108399360A (en) A kind of continuous type obstacle detection method, device and terminal
CN107578419B (en) Stereo image segmentation method based on consistency contour extraction
El Ansari et al. Temporal consistent fast stereo matching for advanced driver assistance systems (ADAS)
Zhang et al. Moving object distance estimation method based on target extraction with a stereo camera
Kovacs et al. Edge detection in discretized range images
Ratajczak et al. Vehicle size estimation from stereoscopic video
Song et al. Edge-guided depth map enhancement
CN117315210B (en) Image blurring method based on stereoscopic imaging and related device
Engler et al. Recursive 3D scene estimation with multiple camera pairs

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20081202

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee