KR101260213B1 - Image processing device, image processing method, and recording medium - Google Patents

Image processing device, image processing method, and recording medium Download PDF

Info

Publication number
KR101260213B1
KR101260213B1 KR1020117011774A KR20117011774A KR101260213B1 KR 101260213 B1 KR101260213 B1 KR 101260213B1 KR 1020117011774 A KR1020117011774 A KR 1020117011774A KR 20117011774 A KR20117011774 A KR 20117011774A KR 101260213 B1 KR101260213 B1 KR 101260213B1
Authority
KR
South Korea
Prior art keywords
image
matching
divided
unit
images
Prior art date
Application number
KR1020117011774A
Other languages
Korean (ko)
Other versions
KR20110090946A (en
Inventor
도시유끼 가미야
히로유끼 야그유우
히로까즈 고이즈미
Original Assignee
엔이씨 시스템 테크놀로지 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엔이씨 시스템 테크놀로지 가부시키가이샤 filed Critical 엔이씨 시스템 테크놀로지 가부시키가이샤
Publication of KR20110090946A publication Critical patent/KR20110090946A/en
Application granted granted Critical
Publication of KR101260213B1 publication Critical patent/KR101260213B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B11/00Recording on or reproducing from the same record carrier wherein for these two operations the methods are covered by different main groups of groups G11B3/00 - G11B7/00 or by different subgroups of group G11B9/00; Record carriers therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Abstract

서로 대응하는 블록 화상(61a(m, n), 62a(m, n))에 기초하여, 서로 대응하는 매칭 화상(SMA1, SMA2)을 각각 설정한다. 그리고, 한쪽의 매칭 화상에 포함되는 특징점의 대응점을, 다른 쪽의 매칭 화상으로부터 추출할 수 없었던 경우에는, 시차의 발생 방향에 인접하는 블록 화상끼리를 결합하여, 새로운 블록 화상(61a(m, (n-1)-(n+1)), 62a(m, (n-1)-(n+1)))을 각각 규정한다. 다음으로, 새롭게 규정된 블록 화상에 기초하여, 다시 매칭 화상을 설정한다.Based on the block images 61a (m, n) and 62a (m, n) corresponding to each other, matching images SMA1 and SMA2 corresponding to each other are set, respectively. When the corresponding point of the feature points included in one matching image cannot be extracted from the other matching image, block images adjacent to the generation direction of parallax are combined to form a new block image 61a (m, ( n-1)-(n + 1)) and 62a (m, (n-1)-(n + 1))), respectively. Next, based on the newly defined block image, the matching image is set again.

Description

화상 처리 장치, 화상 처리 방법 및 기록 매체{IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, AND RECORDING MEDIUM}Image processing apparatus, image processing method and recording medium {IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, AND RECORDING MEDIUM}

본 발명은, 화상 처리 장치, 화상 처리 방법 및 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체에 관한 것으로, 더욱 상세하게는, 서로 다른 위치로부터 촬영된 1조의 화상에 대하여, 스테레오 매칭 처리를 행하는 화상 처리 장치, 서로 다른 위치로부터 촬영된 1조의 화상에 대하여, 스테레오 매칭 처리를 행하기 위한 화상 처리 방법 및 기록 매체에 관한 것이다.The present invention relates to a computer-readable recording medium recording an image processing apparatus, an image processing method and a program, and more particularly, an image processing apparatus which performs stereo matching processing on a set of images photographed from different positions; An image processing method and a recording medium for performing stereo matching processing on a set of images photographed from different positions.

지형 해석 등의 분야에서는, 상이한 시점으로부터 촬영함으로써 얻어진 1조의 화상에 대하여, 스테레오 매칭 처리를 실시함으로써, 토지의 형상이나 건물의 위치 및 높이 등의 3차원 정보를 산출하는 방법이 자주 이용된다(예를 들면 특허 문헌 1 참조). 스테레오 매칭 처리란, 예를 들면 면적 상관법 등을 이용하여, 2매의 화상 중의 한쪽의 화상 중의 특징점, 예를 들면 화상 중에 찍혀 들어간 건물의 코너나, 지표로부터 급격하게 돌출되는 부분에 대응하는 점과, 다른 쪽의 화상 중의 대응점을 추출하고, 추출한 특징점과 대응점의 위치 정보에 기초하여, 피사체의 위치 정보 및 높이 정보를 포함하는 3차원 정보를 취득하는 처리이다.In the field of terrain analysis and the like, a method of calculating three-dimensional information such as the shape of a land, the position and the height of a building is frequently used by performing stereo matching on a set of images obtained by photographing from different viewpoints (Example See, for example, Patent Document 1). The stereo matching process corresponds to a feature point in one of the two images, for example, a corner of a building taken in the image or a portion rapidly protruding from the surface by using an area correlation method or the like. And a corresponding point in the other image and extracting three-dimensional information including the positional information and the height information of the subject based on the extracted feature point and the positional information of the corresponding point.

이 스테레오 매칭 처리에서는, 처리 대상으로 되는 화상이, 예를 들면 고층빌딩군 등이 수많이 존재하는 도시부를 촬상하여 얻어진 화상 등인 경우에는, 1매의 화상 중의 특징점의 수가 방대해지게 된다. 따라서, 처리에 요하는 시간을 단축하기 위해서, 처리의 대상으로 되는 1조의 화상 각각을 복수의 화상으로 분할하고, 분할한 화상(이하, 간단히 분할 화상이라고 함)마다 스테레오 매칭 처리를 행하는 방법이 제안되어 있다(예를 들면 비특허 문헌 1 참조).In this stereo matching process, when the image to be processed is, for example, an image obtained by photographing an urban part in which a large number of high-rise buildings and the like exist, the number of feature points in one image is enormous. Therefore, in order to shorten the time required for processing, a method of dividing each set of images to be processed into a plurality of images and performing stereo matching processing for each divided image (hereinafter, simply referred to as a divided image) is proposed. (For example, refer nonpatent literature 1).

특허 문헌 1 : 일본 특허 출원 공개 평 8-16930호 공보Patent Document 1: Japanese Patent Application Laid-open No. Hei 8-16930

비특허 문헌 1 : 정보처리학회 전국 대회 강연 논문집, VOL.64th, NO.4(PAGE. 4.767 내지 4.770)Non-Patent Document 1: Proceedings of the Korea Information Processing Society Conference, VOL.64th, NO.4 (PAGE. 4.767-4.770)

전술한 방법에서는, 스테레오 매칭 처리에서 한번에 핸들링되는 데이터량이 적어지기 때문에, 1조의 화상에 대한 처리를 단시간에 행하는 것이 가능하게 된다. 그러나, 고층 빌딩 등 높은 건물의 상부 등에서는, 처리 대상으로 되는 1조의 화상간의 시차가 커지게 되어, 특징점에 대응하는 대응점이, 대응 관계에 있는 분할 화상에 포함되지 않게 되는 경우가 있다. 이 경우에는, 스테레오 매칭 처리를 할 수 없게 되거나, 혹은 처리 결과가 불충분해진다.In the above-described method, since the amount of data handled at a time in the stereo matching process is reduced, it is possible to perform a process for a set of images in a short time. However, in the upper part of a high building etc., such as a high-rise building, the parallax between a set of images used as a process object becomes large, and the correspondence point corresponding to a characteristic point may not be included in the division | segmentation image which corresponds. In this case, stereo matching processing cannot be performed or the processing results are insufficient.

본 발명은, 전술한 사정 하에 이루어진 것으로, 화상 처리의 고속화를 도모하면서, 처리 정밀도의 향상을 실현하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made under the foregoing circumstances, and an object thereof is to realize an improvement in processing accuracy while increasing the speed of image processing.

본 발명의 제1 관점에 따른 화상 처리 장치는, 서로 다른 위치로부터 촬영된 제1 화상과 제2 화상에 대하여, 스테레오 매칭 처리를 행하는 화상 처리 장치로서, 상기 제1 화상 및 상기 제2 화상 각각을 복수의 화상으로 분할하고, 상기 제1 화상의 분할 화상과, 상기 분할 화상에 대응하는 제2 화상의 분할 화상을 각각 제1 매칭 화상 및 제2 매칭 화상으로 설정하는 설정부와, 상기 제1 매칭 화상에 포함되는 점에 대응하는, 상기 제2 매칭 화상에 포함되는 대응점을 추출하는 추출부와, 상기 추출부가 상기 대응점을 추출할 수 없었던 경우에, 상기 제1 매칭 화상으로 설정된 분할 화상, 및 상기 제2 매칭 화상으로 설정된 분할 화상 각각에, 그 분할 화상에 인접하는 다른 분할 화상을 결합함으로써 얻어진 결합 화상을, 각각 제1 매칭 화상 및 제2 매칭 화상으로 다시 설정하는 재설정부와, 상기 제1 화상의 매칭 화상에 포함되는 점, 및 상기 제2 화상의 매칭 화상에 포함되는 대응점 각각의 3차원 정보를 산출하는 연산부를 구비하는 것을 특징으로 한다.An image processing apparatus according to a first aspect of the present invention is an image processing apparatus that performs stereo matching processing on a first image and a second image photographed from different positions, each of the first image and the second image. A setting unit for dividing into a plurality of images, setting a divided image of the first image, a divided image of a second image corresponding to the divided image, as a first matching image and a second matching image, respectively, and the first matching An extracting unit for extracting a corresponding point included in the second matching image corresponding to a point included in the image, a split image set as the first matching image when the extracting unit cannot extract the corresponding point, and the A combined image obtained by combining another divided image adjacent to the divided image with each of the divided images set as the second matching image, is a first matching image and a second matching image, respectively. Characterized in that it comprises a setting and reset state, the operation for calculating the point, and three-dimensional information of the corresponding point is included in each of the matching image of the second image included in the image matching of the first image.

또한, 본 발명의 제2 관점에 따른 화상 처리 장치는, 서로 다른 위치로부터 촬영된 제1 화상과 제2 화상에 대하여, 스테레오 매칭 처리를 행하는 화상 처리 장치로서, 상기 제1 화상 및 상기 제2 화상 각각을 복수의 화상으로 분할하고, 상기 제1 화상의 분할 화상 및 그 주위의 마진 영역과, 상기 분할 화상에 대응하는 제2 화상의 분할 화상 및 그 주위의 마진 영역을 각각 제1 매칭 화상 및 제2 매칭 화상으로 설정하는 설정부와, 상기 제1 매칭 화상에 포함되는 점에 대응하는, 상기 제2 매칭 화상에 포함되는 대응점을 추출하는 추출부와, 상기 추출부가 상기 대응점을 추출할 수 없었던 경우에, 상기 제1 매칭 화상에 포함되는 분할 화상, 및 상기 제2 매칭 화상에 포함되는 분할 화상 각각에, 그 분할 화상에 인접하는 다른 분할 화상을 결합함으로써 얻어진 결합 화상 및 그 주위의 마진 영역을, 다시 제1 매칭 화상 및 제2 매칭 화상으로 설정하는 재설정부와, 상기 제1 매칭 화상에 포함되는 점, 및 상기 제2 매칭 화상에 포함되는 대응점 각각의 3차원 정보를 산출하는 연산부를 구비하는 것을 특징으로 한다.Moreover, the image processing apparatus which concerns on the 2nd viewpoint of this invention is an image processing apparatus which performs a stereo matching process with respect to the 1st image and the 2nd image photographed from a different position, The said 1st image and the said 2nd image Each is divided into a plurality of images, and the first matching image and the first matching image are divided into a divided image of the first image and a margin area around it, and a divided image of the second image corresponding to the divided image and a margin area around the first image, respectively. A setting unit for setting a matching image, an extraction unit for extracting a corresponding point included in the second matching image corresponding to a point included in the first matching image, and the extraction unit cannot extract the corresponding point Is obtained by combining another divided image adjacent to the divided image with each of the divided images included in the first matching image and the divided images included in the second matching image. A reset unit for setting the sum image and the margin area around the sum image to the first matching image and the second matching image, a point included in the first matching image, and three corresponding points included in the second matching image. And an operation unit for calculating the dimensional information.

또한, 본 발명의 제3 관점에 따른 화상 처리 방법은, 서로 다른 위치로부터 촬영된 제1 화상과 제2 화상에 대하여, 스테레오 매칭 처리를 행하기 위한 화상 처리 방법으로서, 상기 제1 화상 및 상기 제2 화상 각각을 복수의 화상으로 분할하고, 상기 제1 화상의 분할 화상과, 상기 분할 화상에 대응하는 제2 화상의 분할 화상을 각각 제1 매칭 화상 및 제2 매칭 화상으로 설정하는 설정 공정과, 상기 제1 매칭 화상에 포함되는 점에 대응하는, 상기 제2 매칭 화상에 포함되는 대응점을 추출하는 추출 공정과, 상기 추출 공정에서 상기 대응점을 추출할 수 없었던 경우에, 상기 제1 매칭 화상으로 설정된 분할 화상, 및 상기 제2 매칭 화상으로 설정된 분할 화상 각각에, 그 분할 화상에 인접하는 다른 분할 화상을 결합함으로써 얻어진 결합 화상을, 각각 제1 매칭 화상 및 제2 매칭 화상으로 다시 설정하는 재설정 공정과, 상기 제1 화상의 매칭 화상에 포함되는 점, 및 상기 제2 화상의 매칭 화상에 포함되는 대응점 각각의 3차원 정보를 산출하는 연산 공정을 포함하는 것을 특징으로 한다.Further, an image processing method according to a third aspect of the present invention is an image processing method for performing stereo matching processing on a first image and a second image photographed from different positions, wherein the first image and the first image are performed. A setting step of dividing each of the two images into a plurality of images and setting the divided image of the first image and the divided image of the second image corresponding to the divided image as a first matching image and a second matching image, respectively; An extraction step of extracting a corresponding point included in the second matching image corresponding to a point included in the first matching image; and when the corresponding point cannot be extracted in the extraction step, the first matching image is set to the first matching image. The first matching image is obtained by combining the divided image and the combined image obtained by combining the divided image set as the second matching image with another divided image adjacent to the divided image, respectively. And a resetting step of resetting to a second matching image, and calculating a three-dimensional information of each of the points included in the matching image of the first image and the corresponding points included in the matching image of the second image. It is characterized by.

또한, 본 발명의 제4 관점에 따른 화상 처리 방법은, 서로 다른 위치로부터 촬영된 제1 화상과 제2 화상에 대하여, 스테레오 매칭 처리를 행하기 위한 화상 처리 방법으로서, 상기 제1 화상 및 상기 제2 화상 각각을 복수의 화상으로 분할하고, 상기 제1 화상의 분할 화상 및 그 주위의 마진 영역과, 상기 분할 화상에 대응하는 제2 화상의 분할 화상 및 그 주위의 마진 영역을 각각 제1 매칭 화상 및 제2 매칭 화상으로 설정하는 설정 공정과, 상기 제1 매칭 화상에 포함되는 점에 대응하는, 상기 제2 매칭 화상에 포함되는 대응점을 추출하는 추출 공정과, 상기 추출 공정에서 상기 대응점을 추출할 수 없었던 경우에, 상기 제1 매칭 화상에 포함되는 분할 화상, 및 상기 제2 매칭 화상에 포함되는 분할 화상 각각에, 그 분할 화상에 인접하는 다른 분할 화상을 결합함으로써 얻어진 결합 화상 및 그 주위의 마진 영역을, 다시 제1 매칭 화상 및 제2 매칭 화상으로 설정하는 재설정 공정과, 상기 제1 매칭 화상에 포함되는 점, 및 상기 제2 매칭 화상에 포함되는 대응점 각각의 3차원 정보를 산출하는 연산 공정을 포함하는 것을 특징으로 한다.Further, an image processing method according to a fourth aspect of the present invention is an image processing method for performing stereo matching processing on a first image and a second image photographed from different positions, wherein the first image and the first image are performed. Each of the two images is divided into a plurality of images, and the first matching image is divided into a divided image of the first image and a margin area around the first image, and a divided image of the second image corresponding to the divided image and a margin area around the first image, respectively. And a setting step of setting a second matching image, an extraction step of extracting a corresponding point included in the second matching image corresponding to a point included in the first matching image, and extracting the corresponding point in the extraction step. In the case where it was not possible, each of the divided images included in the first matching image and the divided images included in the second matching image are combined with other divided images adjacent to the divided images. And a resetting step of setting the combined image and the margin area around the same as the first matching image and the second matching image, the points included in the first matching image, and the corresponding points included in the second matching image, respectively. Comprising a calculation process for calculating the three-dimensional information of the.

또한, 본 발명의 제5 관점에 따른 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체는, 컴퓨터를, 서로 다른 위치로부터 촬영된 상기 제1 화상 및 상기 제2 화상 각각을 복수의 화상으로 분할하고, 상기 제1 화상의 분할 화상과, 상기 분할 화상에 대응하는 제2 화상의 분할 화상을 각각 제1 매칭 화상 및 제2 매칭 화상으로 설정하는 설정부와, 상기 제1 매칭 화상에 포함되는 점에 대응하는, 상기 제2 매칭 화상에 포함되는 대응점을 추출하는 추출부와, 상기 추출부가 상기 대응점을 추출할 수 없었던 경우에, 상기 제1 매칭 화상으로 설정된 분할 화상, 및 상기 제2 매칭 화상으로 설정된 분할 화상 각각에, 그 분할 화상에 인접하는 다른 분할 화상을 결합함으로써 얻어진 결합 화상을, 각각 제1 매칭 화상 및 제2 매칭 화상으로 다시 설정하는 재설정부와, 상기 제1 화상의 매칭 화상에 포함되는 점, 및 상기 제2 화상의 매칭 화상에 포함되는 대응점 각각의 3차원 정보를 산출하는 연산부로서 기능시키기 위한 프로그램을 기록하는 것을 특징으로 한다.The computer-readable recording medium having recorded thereon the program according to the fifth aspect of the present invention divides a computer into a plurality of images by dividing each of the first image and the second image photographed from different positions. A setting unit for setting a divided image of the image and a divided image of the second image corresponding to the divided image as a first matching image and a second matching image, respectively, and corresponding points included in the first matching image. An extraction unit for extracting a corresponding point included in a second matching image, and a split image set as the first matching image, and a divided image set as the second matching image, respectively, when the extraction unit cannot extract the corresponding point. A resetting unit for resetting the combined image obtained by combining other divided images adjacent to the divided images to the first matching image and the second matching image, respectively; And a program for functioning as an operation unit for calculating three-dimensional information of each point included in the matching image of the first image and the corresponding point included in the matching image of the second image.

또한, 본 발명의 제6 관점에 따른 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체는, 컴퓨터를, 서로 다른 위치로부터 촬영된 제1 화상과 제2 화상 각각을 복수의 화상으로 분할하고, 상기 제1 화상의 분할 화상 및 그 주위의 마진 영역과, 상기 분할 화상에 대응하는 제2 화상의 분할 화상 및 그 주위의 마진 영역을 각각 제1 매칭 화상 및 제2 매칭 화상으로 설정하는 설정부와, 상기 제1 매칭 화상에 포함되는 점에 대응하는, 상기 제2 매칭 화상에 포함되는 대응점을 추출하는 추출부와, 상기 추출부가 상기 대응점을 추출할 수 없었던 경우에, 상기 제1 매칭 화상에 포함되는 분할 화상, 및 상기 제2 매칭 화상에 포함되는 분할 화상 각각에, 그 분할 화상에 인접하는 다른 분할 화상을 결합함으로써 얻어진 결합 화상 및 그 주위의 마진 영역을, 다시 제1 매칭 화상 및 제2 매칭 화상으로 설정하는 재설정부와, 상기 제1 매칭 화상에 포함되는 점, 및 상기 제2 매칭 화상에 포함되는 대응점 각각의 3차원 정보를 산출하는 연산부로서 기능시키기 위한 프로그램을 기록하는 것을 특징으로 한다.A computer-readable recording medium having recorded thereon a program according to the sixth aspect of the present invention divides a computer into a plurality of images by dividing each of a first image and a second image photographed from different positions. A setting unit for setting the divided image and the margin region around it, the divided image of the second image corresponding to the divided image, and the margin region around the divided image as a first matching image and a second matching image, respectively, and the first matching An extracting unit for extracting a corresponding point included in the second matching image corresponding to a point included in the image, a split image included in the first matching image when the extracting unit could not extract the corresponding point, and The combined image obtained by combining another divided image adjacent to the divided image to each of the divided images included in the second matching image, and the margin area around the first sheet again. A resetting unit for setting an image and a second matching image, a program for functioning as a calculating unit for calculating three-dimensional information of each of the points included in the first matching image and the corresponding points included in the second matching image; It is characterized by.

상이한 1조의 화상에 대한 스테레오 매칭 처리를, 단시간에, 또한 정밀도 좋게 행할 수 있다.Stereo matching processing for different sets of images can be performed in a short time and with high accuracy.

도 1은 본 발명의 일 실시 형태에 따른 스테레오 화상 처리 장치의 블록도.
도 2는 화상 데이터의 설명을 하기 위한 도면.
도 3a는 화상 데이터로서의 화상을 도시하는 도면.
도 3b는 화상 데이터로서의 화상을 도시하는 도면.
도 4a는 분할 화상에 기초하는 매칭 화상을 도시하는 도면.
도 4b는 분할 화상에 기초하는 매칭 화상을 도시하는 도면.
도 5a는 분할 화상에 기초하는 매칭 화상을 도시하는 도면.
도 5b는 분할 화상에 기초하는 매칭 화상을 도시하는 도면.
도 6a는 결합 화상에 기초하는 매칭 화상을 도시하는 도면.
도 6b는 결합 화상에 기초하는 매칭 화상을 도시하는 도면.
도 7은 스테레오 화상 처리 장치의 동작을 도시하는 플로우차트.
도 8a는 스테레오 화상 처리의 변형예를 설명하기 위한 도면.
도 8b는 스테레오 화상 처리의 변형예를 설명하기 위한 도면.
도 9는 스테레오 화상 처리 장치를 컴퓨터에 실장하는 경우의, 물리적인 구성예를 도시하는 블록도.
1 is a block diagram of a stereo image processing apparatus according to an embodiment of the present invention.
2 is a diagram for explaining image data.
3A is a diagram showing an image as image data;
3B is a diagram showing an image as image data;
4A is a diagram showing a matching image based on the divided image.
4B is a diagram showing a matching image based on the divided image.
5A is a diagram illustrating a matching image based on the divided image.
5B is a diagram showing a matching image based on the divided image.
6A illustrates a matching image based on the combined image.
6B is a diagram showing a matching image based on the combined image.
7 is a flowchart showing the operation of the stereo image processing apparatus.
8A is a diagram for explaining a modification of stereo image processing.
8B is a diagram for explaining a modification of stereo image processing.
Fig. 9 is a block diagram showing a physical configuration example in the case where a stereo image processing apparatus is mounted on a computer.

이하 본 발명의 일 실시 형태를 도 1∼도 7에 기초하여 설명한다. 도 1은 본 실시 형태에 따른 스테레오 화상 처리 장치(10)의 블록도이다. 도 1에 도시된 바와 같이, 스테레오 화상 처리 장치(10)는, 데이터 입력부(11), 화상 추출부(12), 화상 분할부(13), 매칭 화상 설정부(14), 대응점 추출부(15), 매칭 미스 검출부(16), 분할 화상 결합부(17), 3차원 정보 연산부(18)를 포함하여 구성되어 있다.EMBODIMENT OF THE INVENTION Hereinafter, one Embodiment of this invention is described based on FIGS. 1 is a block diagram of a stereo image processing apparatus 10 according to the present embodiment. As shown in FIG. 1, the stereo image processing apparatus 10 includes a data input unit 11, an image extraction unit 12, an image division unit 13, a matching image setting unit 14, and a corresponding point extraction unit 15. ), A matching miss detector 16, a split image combiner 17, and a three-dimensional information calculator 18.

데이터 입력부(11)에는, 촬상 장치 등의 외부 장치 등으로부터 화상 데이터가 입력된다. 이 화상 데이터는, 예를 들면 촬상 장치 등에 의해 지표를 촬상함으로써 얻어진 촬상 화상 등이다. 도 2는 화상 데이터의 설명을 하기 위한 도면이다. 본 실시 형태에서는, 일례로서 도 2에 도시된 바와 같이, X축 방향으로 카메라를 이동시키면서, 건조물(71)과 건조물(72)을 포함하는 지표 F 상의 영역을 촬상함으로써 취득된 2개의 화상이 입력된 것으로서 설명을 행한다. 또한, 설명의 편의상, 도 2의 파선으로 나타내어지는 위치 P1에서의 디지털 카메라(70)의 광축과, 실선으로 나타내어지는 위치 P2에서의 디지털 카메라(70)의 광축은 평행한 것으로 하고, 2매의 화상간에서 에피폴라선은 일치하고 있는 것으로 한다. 또한, 에피폴라선이란, 스테레오 화상에서 한쪽의 화상 중의 임의의 점에 대하여, 다른 쪽의 화상 중에서 그 점에 대응하는 점의 존재 범위로서 그을 수 있는 직선을 말한다.Image data is input to the data input unit 11 from an external device such as an imaging device. This image data is a picked-up image etc. which were obtained by imaging an index | index by an imaging device etc., for example. 2 is a diagram for explaining image data. In this embodiment, as shown in FIG. 2 as an example, two images acquired by imaging the area | region on the index F containing the building 71 and the building 72 are input while moving a camera to an X-axis direction. The explanation will be made as follows. In addition, for convenience of description, the optical axis of the digital camera 70 in the position P1 shown by the broken line of FIG. 2, and the optical axis of the digital camera 70 in the position P2 shown by the solid line shall be parallel, It is assumed that epipolar lines coincide between images. In addition, an epipolar line means the straight line which can be drawn as an existence range of the point corresponding to the point in the other image with respect to the arbitrary point in one image in a stereo image.

화상 추출부(12)는, 1조의 화상 각각으로부터, 오버랩한 영역을 검출하고, 이 영역에 대응하는 화상을 1조의 화상 각각으로부터 추출한다. 도 3a 및 도 3b는, 화상 데이터로서의 화상을 도시하는 도면이다. 일례로서, 도 3a에는, 디지털 카메라(70)가 위치 P1로부터 촬상한 화상(61)이 도시되고, 도 3b에는, 디지털 카메라(70)가, 위치 P1의 +X측에 있는 위치 P2로부터 촬상한 화상(62)이 도시되어 있다. 화상 추출부(12)는, 화상(61)과 화상(62)을 비교하여, 화상(61) 및 화상(62) 각각으로부터, 서로 공통되는 영역이 찍혀 있는 추출 화상(61a, 62a)을 추출한다.The image extraction unit 12 detects an overlapped region from each of a set of images, and extracts an image corresponding to this region from each of a set of images. 3A and 3B are diagrams showing an image as image data. As an example, FIG. 3A shows the image 61 which the digital camera 70 picked up from the position P1, and FIG. 3B shows that the digital camera 70 picked up from the position P2 on the + X side of the position P1. Image 62 is shown. The image extraction part 12 compares the image 61 and the image 62, and extracts the extraction image 61a, 62a which the area | region common to each other is imprinted from each of the image 61 and the image 62. FIG. .

화상 분할부(13)는, 예를 들면 화상(61)으로부터 추출된 추출 화상(61a), 및 화상(62)으로부터 추출된 추출 화상(62a) 각각을, 3행 5열의 매트릭스 형상으로 배치된 블록 화상으로 분할한다. 이하, 추출 화상(61a)의 m열째의 n번째의 블록 화상을 참조 부호 61a(m, n)으로 표시하고, 추출 화상(62a)의 m열째의 n번째의 블록 화상을 참조 부호 62a(m, n)으로 표시한다.The image dividing unit 13 is, for example, a block in which each of the extracted image 61a extracted from the image 61 and the extracted image 62a extracted from the image 62 is arranged in a matrix form of three rows and five columns. Split into images. Hereinafter, the n-th block image of the m-th column of the extracted image 61a is represented by 61a (m, n), and the n-th block image of the m-th column of the extracted image 62a is referred to 62a (m, n).

매칭 화상 설정부(14)는, 추출 화상(61a)의 블록 화상(61a(m, n))과, 추출 화상(62a)의 블록 화상(62a(m, n))에 기초하여, 서로 대응하는 매칭 화상을 설정한다. 도 4a 및 도 4b는 분할 화상에 기초하는 매칭 화상을 도시하는 도면이다. 예를 들면, 블록 화상(61a(1, 1)) 및 블록 화상(62a(1, 1))에 기초하여, 매칭 화상을 설정하는 경우에는, 도 4a 및 도 4b를 참작하면 알 수 있는 바와 같이, 매칭 화상 설정부(14)는, 블록 화상(61a(1, 1)) 및 블록 화상(62a(1, 1))의 주위에 마진 영역 M을 부가한다. 그리고, 매칭 화상 설정부(14)는, 블록 화상(61a(1, 1)) 및 마진 영역 M을 포함하는 영역을, 스테레오 매칭 처리가 행해지는 매칭 화상 SMA1(1, 1)로 설정하고, 블록 화상(62a(1, 1)) 및 마진 영역 M을 포함하는 영역을 매칭 화상 SMA2(1, 1)로 설정한다. 이하, 매칭 화상 설정부(14)는, 블록 화상(61a(1, 2))∼블록 화상(61a(3, 5)), 및 블록 화상(62a(1, 2))∼블록 화상(62a(3, 5))에 대하여, 마찬가지의 처리를 행한다.The matching image setting unit 14 corresponds to each other based on the block image 61a (m, n) of the extracted image 61a and the block image 62a (m, n) of the extracted image 62a. Set a matching image. 4A and 4B are diagrams showing a matching image based on the divided image. For example, when setting a matching image based on the block image 61a (1, 1) and the block image 62a (1, 1), as will be understood when referring to Figs. 4A and 4B. The matching image setting unit 14 adds a margin area M around the block image 61a (1, 1) and the block image 62a (1, 1). And the matching image setting part 14 sets the area | region containing the block image 61a (1, 1) and the margin area M to the matching image SMA1 (1, 1) to which a stereo matching process is performed, and blocks The area including the image 62a (1, 1) and the margin area M is set as the matching image SMA2 (1, 1). Hereinafter, the matching image setting unit 14 includes block images 61a (1, 2) to block images 61a (3 and 5), and block images 62a (1 and 2) to block images 62a ( 3, 5)), the same process is performed.

또한, 이 마진 영역 M은, 특징점과 대응점과의 사이의 시차가 있는 경우에, 이 특징점에 대응하는 대응점이, 특징점이 포함되는 매칭 화상에 대응하는 매칭 화상에 포함되도록 설정되는 것이다. 이 때문에, 마진 영역이 클수록, 큰 시차가 있는 특징점과 대응점이, 대응하는 매칭 화상에 포함되게 된다.In addition, this margin area M is set so that when there is a parallax between the feature point and the corresponding point, the corresponding point corresponding to this feature point is included in the matching image corresponding to the matching image including the feature point. For this reason, the larger the margin area, the larger the parallax feature point and the corresponding point are included in the corresponding matching image.

대응점 추출부(15)는, 서로 대응하는 매칭 화상 SMA1(m, n)에 포함되는 특징점에 대한, 매칭 화상 SMA2(m, n)에 포함되는 대응점의 추출을 행한다. 이 처리는, 예를 들면 매칭 화상 SMA1(m, n)에 포함되는 화상 중의 소영역과, 매칭 화상 SMA2(m, n)에 포함되는 화상 중의 소영역과의 상관을 조사하는 것에 의한 면적 상관법 등을 이용하여 행해진다.The correspondence point extraction unit 15 extracts a correspondence point included in the matching image SMA2 (m, n) with respect to the feature points included in the matching image SMA1 (m, n) corresponding to each other. This process is, for example, an area correlation method by examining a correlation between a small area in an image included in matching image SMA1 (m, n) and a small area in an image included in matching image SMA2 (m, n). Or the like.

예를 들면, 도 4a 및 도 4b를 참작하면 알 수 있는 바와 같이, 대응점 추출부(15)는, 매칭 화상 SMA1(1, 1)에 포함되는, 건조물(71)의 특징점 a1∼a4에 대한 대응점으로서, 매칭 화상 SMA2(1, 1)에 포함되는 점 b1∼b4를 추출한다.For example, as will be seen when referring to Figs. 4A and 4B, the correspondence point extraction unit 15 corresponds to the feature points a1 to a4 of the building 71 included in the matching image SMA1 (1, 1). As a point, points b1 to b4 included in the matching image SMA2 (1, 1) are extracted.

매칭 미스 검출부(16)는, 매칭 화상 SMA1(m, n)에 포함되는 특징점에 대응하는 대응점이, 모두 매칭 화상 SMA2(m, n) 중에 존재하는지의 여부를 판단한다.The matching miss detection unit 16 determines whether all of the corresponding points corresponding to the feature points included in the matching image SMA1 (m, n) exist in the matching image SMA2 (m, n).

예를 들면, 도 4a 및 도 4b를 참작하면 알 수 있는 바와 같이, 매칭 미스 검출부(16)는, 매칭 화상 SMA1(1, 1)에 포함되는 특징점 a1∼a4에 대한 모든 대응점 b1∼b4가, 매칭 화상 SMA2(1, 1)에 포함되어 있는 경우에는, 대응점의 추출이 성공한 것으로 판단한다. 도 5a 및 도 5b는 분할 화상에 기초하는 매칭 화상을 도시하는 도면이다. 한편, 예를 들면 도 5a 및 도 5b를 참작하면 알 수 있는 바와 같이, 매칭 미스 검출부(16)는, 매칭 화상 SMA1(2, 3)에, 건조물(72)의 특징점 c1∼c4 중 특징점 c1 및 특징점 c3만이 포함되고, 매칭 화상 SMA2(2, 3)에, 건조물(72)의 특징점 c1 및 특징점 c3에 대응하는 대응점 d1 및 대응점 d3이 포함되어 있지 않은 경우에, 대응점의 추출이 실패한 것으로 판단한다.For example, as can be seen by referring to Figs. 4A and 4B, the matching miss detection unit 16 has all the corresponding points b1 to b4 with respect to the feature points a1 to a4 included in the matching image SMA1 (1, 1), When it is contained in matching image SMA2 (1, 1), it is determined that extraction of a corresponding point was successful. 5A and 5B are diagrams showing a matching image based on the divided image. On the other hand, for example, referring to FIG. 5A and FIG. 5B, the matching miss detection unit 16 matches the matching images SMA1 (2, 3) with the feature points c1 and the feature points c1 to c4 of the building 72. When only the feature point c3 is included and the matching image SMA2 (2, 3) does not include the corresponding point d1 and the corresponding point d3 corresponding to the feature point c1 and the feature point c3 of the building 72, it is determined that extraction of the corresponding point has failed. .

3차원 정보 연산부(18)는, 매칭 화상 SMA1의 특징점과, 매칭 화상 SMA2로부터 추출된 특징점에 대응하는 대응점의 3차원 정보를 산출한다. 구체적으로는, 예를 들면, 위치 P1에 있을 때의 디지털 카메라(70)의 시점을 원점으로 하는 특징점과 대응점과의 위치와, 삼각 측량에 이용되는 방법을 이용하여, 건조물(71, 72)의 높이 등을 포함하는, 3차원 정보(DSM(Digital Surface Map) 데이터)를 생성한다.The three-dimensional information calculation unit 18 calculates three-dimensional information of the feature points of the matching image SMA1 and the corresponding points corresponding to the feature points extracted from the matching image SMA2. Specifically, for example, by using the method used for triangulation and the position of the feature point and the corresponding point which make the viewpoint of the digital camera 70 the origin at the position P1, and the method of triangulation, Three-dimensional information (DSM (Digital Surface Map Data) data) including height and the like is generated.

분할 화상 결합부(17)는, 매칭 검출부(16)에서 매칭 미스가 검출된 경우에, 미스가 검출된 매칭 화상에 포함되는 블록 화상에, 화상(61)과 화상(62)에서 시차가 생겨 있는 방향인 X축 방향으로 인접하는 블록 화상을 결합함으로써, 화상(61) 및 화상(62)의 새로운 블록 화상을 규정한다.When the match detection unit 16 detects a matching miss, the split image combining unit 17 generates a parallax between the image 61 and the image 62 in the block image included in the matching image in which the miss is detected. By combining adjacent block images in the X-axis direction, which is the direction, new block images of the image 61 and the image 62 are defined.

도 6a 및 도 6b는 결합 화상에 기초하는 매칭 화상을 도시하는 도면이다. 예를 들면, 도 6a 및 도 6b를 참작하면 알 수 있는 바와 같이, 분할 화상 결합부(17)는, 블록 화상(61a(2, 3))에, 그 블록 화상(61a(2, 3))의 +X측 및 -X측으로 인접하는 블록 화상(61a(2, 2)) 및 블록 화상(61a(2, 4))을 결합하여, 새로운 블록 화상(61a(2, 2-4))을 규정한다. 또한, 블록 화상(62a(2, 3))에, 그 블록 화상(62a(2, 3))의 +X측 및 -X측으로 인접하는 블록 화상(62a(2, 2)) 및 블록 화상(62a(2, 4))을 결합하여, 새로운 블록 화상(62a(2, 2-4))을 규정한다.6A and 6B are diagrams showing a matching image based on the combined image. 6A and 6B, for example, as shown in FIG. 6A, the split image combiner 17 has a block image 61a (2, 3) in the block image 61a (2, 3). The block image 61a (2, 2) and the block image 61a (2, 4) adjacent to the + X side and the -X side of the image are combined to define a new block image 61a (2, 2-4). do. Further, the block image 62a (2, 2) and the block image 62a adjacent to the block image 62a (2, 3) on the + X side and -X side of the block image 62a (2, 3). (2, 4) are combined to define a new block image 62a (2, 2-4).

매칭 화상 설정부(14)는, 분할 화상 결합부(17)에 의해 블록 화상이 규정되면, 이 블록 화상에 기초하여, 매칭 화상을 다시 설정한다.When the block image is defined by the split image combiner 17, the matching image setting unit 14 sets the matching image again based on the block image.

예를 들면, 도 6a 및 도 6b를 참작하면 알 수 있는 바와 같이, 매칭 화상 설정부(14)는, 블록 화상(61a(2, 2-4)) 및 블록 화상(62a(2, 2-4))의 주위에 마진 영역 M을 부가한다. 그리고, 매칭 화상 설정부(14)는, 블록 화상(61a(2, 2-4)) 및 마진 영역 M을 포함하는 영역을, 스테레오 매칭 처리가 행해지는 매칭 화상 SMA1(2, 2-4)로 설정하고, 블록 화상(62a(2, 2-4)) 및 마진 영역 M을 포함하는 영역을, 스테레오 매칭 처리가 행해지는 매칭 화상 SMA2(2, 2-4)로 설정한다.6A and 6B, for example, the matching image setting unit 14 includes a block image 61a (2, 2-4) and a block image 62a (2, 2-4). A margin area M is added around)). And the matching image setting part 14 turns the area | region containing the block image 61a (2, 2-4) and the margin area M into matching image SMA1 (2, 2-4) to which a stereo matching process is performed. The area including the block image 62a (2, 2-4) and the margin area M is set to the matching image SMA2 (2, 2-4) where stereo matching processing is performed.

또한, 대응점 추출부(15)는, 매칭 화상 SMA1(2, 2-4)와 매칭 화상 SMA2(2, 2-4)가 설정되면, 매칭 화상 SMA1(2, 2-4)에 포함되는 특징점에 대한, 매칭 화상 SMA2(2, 2-4)에 포함되는 대응점의 추출을 행한다.If the matching image SMA1 (2, 2-4) and the matching image SMA2 (2, 2-4) are set, the correspondence point extracting unit 15 is provided to the feature points included in the matching image SMA1 (2, 2-4). The corresponding point included in the matching image SMA2 (2, 2-4) is extracted.

도 6a 및 도 6b를 참작하면 알 수 있는 바와 같이, 여기서는, 매칭 화상 SMA1(2, 2-4)에 포함되는, 건조물(72)의 특징점 c1∼c4에 대한 대응점으로서, 매칭 화상 SMA2(2, 2-4)에 포함되는 점 d1∼d4가 추출된다. 또한, 이 경우에는, 매칭 화상 SMA1(2, 2-4)에 포함되는 특징점 c1∼c4의 대응점이, 모두 매칭 화상 SMA2(2, 2-4)에 포함되기 때문에, 매칭 미스 검출부(16)는 매칭 미스를 검출하지 않는다.As can be seen by referring to Figs. 6A and 6B, the matching image SMA2 (2, 2) as a corresponding point to the feature points c1 to c4 of the building 72 included in the matching image SMA1 (2, 2-4) here. The points d1 to d4 included in 2-4) are extracted. In this case, since the corresponding points of the feature points c1 to c4 included in the matching image SMA1 (2, 2-4) are all included in the matching image SMA2 (2, 2-4), the matching miss detector 16 No matching miss is detected.

다음으로, 스테레오 화상 처리 장치(10)의 동작에 대하여, 도 7에 도시된 플로우차트를 이용하여 설명한다. 스테레오 화상 처리 장치(10)는, 데이터 입력부(11)에 화상 데이터가 입력되면, 도 7의 플로우차트에 도시된 일련의 처리를 개시한다.Next, the operation of the stereo image processing apparatus 10 will be described using the flowchart shown in FIG. 7. When the image data is input to the data input unit 11, the stereo image processing apparatus 10 starts a series of processes shown in the flowchart of FIG.

처음의 스텝 S101에서는, 화상 추출부(12)는, 도 3a 및 도 3b에 도시된 데이터 입력부(11)에 입력된 화상(61), 및 화상(62)으로부터, 서로 오버랩한 영역에 대응하는 화상(61a, 62a)을 추출한다. 또한, 화상이 공통되는(오버랩하는) 영역이면, 화상 추출부(12)는, 임의의 영역을 추출할 수 있다.In the first step S101, the image extraction unit 12 corresponds to an image 61 input to the data input unit 11 shown in FIGS. 3A and 3B, and an image corresponding to an area overlapping each other from the image 62. (61a, 62a) are extracted. In addition, as long as an image is a common (overlapping) region, the image extraction unit 12 can extract an arbitrary region.

다음의 스텝 S102에서는, 화상 분할부(13)는, 도 3a 및 도 3b에 도시된 추출된 화상(61a, 62a)을 블록 화상(61a(m, n), 62a(m, n))으로 분할한다. 또한, 화상 분할부(13)는, 임의의 형상으로 이루어지는 복수의 영역에 화상을 분할할 수도 있다.In following step S102, the image division part 13 divides the extracted image 61a, 62a shown to FIG. 3A and FIG. 3B into the block image 61a (m, n), 62a (m, n). do. The image dividing unit 13 can also divide an image into a plurality of regions having arbitrary shapes.

다음의 스텝 S103에서는, 매칭 화상 설정부(14)는, 도 4a 및 도 4b에 도시한 바와 같이, 블록 화상(61a(m, n), 62a(m, n)) 각각에 마진 영역 M을 부가하여, 매칭 화상 SMA1, SMA2를 설정한다. 또한, 마진 영역 M은, 블록 화상(61a) 및 블록 화상(62a)의 외연부에 상당하는 임의의 영역이다.In the next step S103, the matching image setting unit 14 adds a margin area M to each of the block images 61a (m, n) and 62a (m, n), as shown in Figs. 4A and 4B. Then, matching images SMA1 and SMA2 are set. In addition, the margin area M is an arbitrary area corresponding to the outer edges of the block image 61a and the block image 62a.

다음의 스텝 S104에서는, 대응점 추출부(15)는, 매칭 화상 SMA1에 포함되는 특징점에 대응하는, 매칭 화상 SMA2에 포함되는 대응점을 추출한다. 예를 들면, 대응점 추출부(15)는, 도 4a 및 도 4b에 도시한 바와 같이, 매칭 화상 SMA1(1, 1)에 포함되는, 건조물(71)의 특징점 a1∼a4에 대한 대응점으로서, 매칭 화상 SMA2(1, 1)에 포함되는 점 b1∼b4를 추출한다.In following step S104, the correspondence point extraction part 15 extracts the correspondence point contained in matching image SMA2 corresponding to the feature point contained in matching image SMA1. For example, as shown in FIGS. 4A and 4B, the corresponding point extracting unit 15 is a matching point corresponding to the feature points a1 to a4 of the building 71 included in the matching image SMA1 (1, 1). The points b1 to b4 included in the images SMA2 (1, 1) are extracted.

다음의 스텝 S105에서는, 매칭 미스 검출부(16)는, 매칭 화상 SMA1에 포함되는 특징점에 대응하는 대응점이, 대응하는 매칭 화상 SMA2에 모두 포함되는지의 여부의 사실로부터, 매칭 미스를 검출한다. 예를 들면, 매칭 미스 검출부(16)는, 도 5a 및 도 5b에 도시한 바와 같이, 매칭 화상 SMA1(2, 3)에, 건조물(72)의 특징점 c1∼c4 중 특징점 c1 및 특징점 c3만이 포함되고, 매칭 화상 SMA2(2, 3)에, 건조물(72)의 특징점 c1 및 특징점 c3에 대응하는 대응점 d1 및 대응점 d3이 포함되어 있지 않은 경우에, 대응점의 추출이 실패한 것으로 판단한다.In following step S105, the matching miss detection part 16 detects a matching miss from the fact whether the corresponding point corresponding to the feature point contained in matching image SMA1 is contained in all the matching image SMA2. For example, as shown in FIGS. 5A and 5B, the matching miss detection unit 16 includes only the feature point c1 and the feature point c3 among the feature points c1 to c4 of the building 72 in the matching image SMA1 (2, 3). When the matching image SMA2 (2, 3) does not contain the corresponding point d1 and the corresponding point d3 corresponding to the feature point c1 and the feature point c3 of the building 72, it is determined that extraction of the correspondence point has failed.

그리고, 매칭 미스를 검출한 경우(스텝 S105; 예)에는, 스텝 S106의 처리가 실행되고, 매칭 미스를 검출하지 않았던 경우(스텝 S105; 아니오)에는, 스텝 S107의 처리가 실행된다.When a matching miss is detected (step S105; YES), the process of step S106 is executed, and when a matching miss is not detected (step S105; NO), the process of step S107 is executed.

스텝 S106에서는, 분할 화상 결합부(17)는, 미스가 검출된 매칭 화상에 포함되는 블록 화상에, 화상(61)과 화상(62)에서 시차가 생겨 있는 방향인 X축 방향으로 인접하는 블록 화상을 결합함으로써, 새로운 블록 화상을 규정한다. 예를 들면, 분할 화상 결합부(17)는, 도 6a 및 도 6b에 도시한 바와 같이, 블록 화상(61a(2, 3))에, 그 블록 화상(61a(2, 3))의 +X측 및 -X측으로 인접하는 블록 화상(61a(2, 2)) 및 블록 화상(61a(2, 4))을 결합하여, 새로운 블록 화상(61a(2, 2-4))을 규정한다. 또한, 블록 화상(62a(2, 3))에, 그 블록 화상(62a(2, 3))의 +X측 및 -X측으로 인접하는 블록 화상(62a(2, 2)) 및 블록 화상(62a(2, 4))을 결합하여, 새로운 블록 화상(62a(2, 2-4))을 규정한다.In step S106, the divided image combining unit 17 is a block image adjacent to the block image included in the matching image from which the miss is detected, in the X-axis direction, which is a direction in which parallax occurs in the image 61 and the image 62. By combining, a new block image is defined. For example, as shown in Figs. 6A and 6B, the divided image combiner 17 adds + X of the block image 61a (2, 3) to the block image 61a (2, 3). A new block image 61a (2, 2-4) is defined by combining the block image 61a (2, 2) and the block image 61a (2, 4) adjacent to the side and -X side. Further, the block image 62a (2, 2) and the block image 62a adjacent to the block image 62a (2, 3) on the + X side and -X side of the block image 62a (2, 3). (2, 4) are combined to define a new block image 62a (2, 2-4).

스텝 S107에서는, 3차원 정보 연산부(18)는, 매칭 화상 SMA1의 특징점과, SMA2로부터 추출된 특징점에 대응하는 대응점과의 위치 정보에 기초하여, 3차원 정보(DSM 데이터)를 생성한다.In step S107, the three-dimensional information calculation unit 18 generates three-dimensional information (DSM data) based on the positional information between the feature point of the matching image SMA1 and the corresponding point corresponding to the feature point extracted from SMA2.

이상 설명한 바와 같이, 본 실시 형태에서는, 블록 화상(61a(m, n)) 및 블록 화상(62a(m, n))에 기초하여, 서로 대응하는 매칭 화상 SMA1 및 매칭 화상 SMA2가 설정된다. 그리고, 매칭 화상 SMA1에 포함되는 특징점의 대응점이, 매칭 화상 SMA2로부터 추출할 수 없었던 경우에는, 시차의 발생 방향으로 인접하는 블록 화상(61a(m, n))끼리가 결합됨으로써, 새로운 블록 화상(61a(m, (n-1)-(n+1)), 62a(m, (n-1)-(n+1)))이 규정되고, 이들 블록 화상(61a(m, (n-1)-(n+1)), 62a(m, (n-1)-(n+1)))에 기초하여, 다시 매칭 화상 SMA1 및 매칭 화상 SMA2가 설정된다. 이에 의해, 특징점과 대응점이, 서로 대응하는 매칭 화상에 포함되게 된다. 따라서, 화면(61) 및 화면(62)에 대한 스테레오 매칭 처리를, 분할한 화상마다 행하는 경우에도, 정밀도 좋게 행할 수 있다.As described above, in the present embodiment, the matching image SMA1 and the matching image SMA2 corresponding to each other are set based on the block image 61a (m, n) and the block image 62a (m, n). When the corresponding points of the feature points included in the matching image SMA1 cannot be extracted from the matching image SMA2, the block images 61a (m, n) adjacent to each other in the generation direction of the parallax are combined to form a new block image ( 61a (m, (n-1)-(n + 1)) and 62a (m, (n-1)-(n + 1)) are defined, and these block images 61a (m, (n-1) Based on)-(n + 1)) and 62a (m, (n-1)-(n + 1))), the matching picture SMA1 and the matching picture SMA2 are set again. As a result, the feature point and the corresponding point are included in the matching image corresponding to each other. Therefore, even when the stereo matching process for the screen 61 and the screen 62 is performed for each divided image, it can be performed with high precision.

또한, 본 실시 형태에서는, 도 6a 또는 도 6b를 참작하면 알 수 있는 바와 같이, 분할 화상 결합부(17)가, 3개의 블록 화상을 결합하여 결상 화상을 형성하는 것으로 하였지만, 이에 한정하지 않고, 화상(61) 중의 특징점과, 화상(62) 중의 대응점과의 시차가 큰 경우에는, 4개 이상의 화상을 결합하고, 이 결합 화상에 기초하여 매칭 화상을 설정해도 된다.In addition, in this embodiment, as will be understood when referring to FIG. 6A or FIG. 6B, the divided image combiner 17 combines three block images to form an image image, but is not limited thereto. When the parallax between the feature point in the image 61 and the corresponding point in the image 62 is large, four or more images may be combined and a matching image may be set based on the combined image.

도 8a 및 도 8b는 스테레오 화상 처리의 변형예를 설명하기 위한 도면이다. 또한, 예를 들면, 도 8a 및 도 8b를 참작하면 알 수 있는 바와 같이, 화상(61)에서는, 건조물이 2개의 블록 화상에 걸쳐 찍혀 있지만, 화상(62)에서는, 건조물이 1개의 블록 화상에 들어간 상태로 찍혀 있는 경우 등에는, 2개의 블록 화상을 결합하여 결합 화상을 형성해도 된다.8A and 8B are diagrams for explaining a modification of the stereo image processing. 8A and 8B, for example, in the image 61, the building is taken over two block images. In the image 62, the building is placed in one block image. In the case of being taken in the entered state, or the like, two block images may be combined to form a combined image.

또한, 본 실시 형태에서는, 추출 화상(61a, 62a) 각각을, 15의 블록 화상으로 분할하였지만, 이에 한하지 않고, 추출 화상(61a, 62a) 각각을, 더욱 세분화해도 되고, 또한 15보다 적은 블록 화상으로 분할해도 된다.In addition, in this embodiment, although each extraction image 61a, 62a was divided into 15 block images, it is not limited to this, Each of extraction image 61a, 62a may be further subdivided, and also less than 15 blocks You may divide into an image.

또한, 본 실시 형태에서는, 설명의 편의상, 화상(61)과 화상(62) 사이에서 에피폴라선이 일치하고 있는 것으로서 설명하였지만, 화상(61)에서의 에피폴라선과 화상(62)에서의 에피폴라선이 일치하고 있지 않은 경우에는, 화상 추출부(12)에 의한 처리가 실행되기 전에, 예를 들면 일본 특허 출원 공개 제2002-157576호 공보에 개시되어 있는 방법을 이용하여, 화상(61)과 화상(62)에서 대응하는 점이, 동일 라인상(예를 들면 X축에 평행한 라인상)에 오도록 하는 평행화 처리를 실시해도 된다. 이 처리를 행함으로써, 양 화상간의 시차의 발생 방향이 X축 방향으로 되고, 상기 실시 형태에서 설명한 처리를 실시함으로써, 마찬가지로 3차원 데이터를 생성할 수 있다.In addition, in this embodiment, for convenience of explanation, it demonstrated as the epipolar line coinciding between the image 61 and the image 62, However, the epipolar line in the image 61 and the epipolar in the image 62 are described. If the lines do not coincide with each other, the image 61 and the image 61 may be used, for example, using the method disclosed in Japanese Patent Application Laid-Open No. 2002-157576 before the processing by the image extraction unit 12 is executed. The parallelization process may be performed such that the corresponding point in the image 62 is on the same line (for example, on a line parallel to the X axis). By performing this process, the direction of generation of parallax between both images becomes the X-axis direction, and three-dimensional data can be similarly generated by performing the process described in the above embodiment.

또한, 본 실시 형태에서는, 블록 화상(61a(m, n), 62a(m, n))과, 그 블록 화상(61a(m, n), 62a(m, n))의 주위의 마진 영역 M을 포함하는 영역을 매칭 화상 SMA1, SMA2로 설정하였지만, 이에 한하지 않고, 마진 영역 M을 포함시키지 않고, 분할 화상과 동등한 크기의 매칭 화상 SMA1, SMA2를 설정해도 된다. 이 경우에도, 매칭 화상 SMA1에 포함되는 특징점에 대응하는 대응점을, 매칭 화상 SMA1에 대응하는 매칭 화상 SMA2로부터 추출할 수 없을 때는, 분할 화상이 시차의 발생 방향으로 결합되어, 매칭 화상이 확대된다. 이 때문에, 최종적으로, 매칭 화상 SMA1에 포함되는 특징점에 대응하는 대응점을, 매칭 화상 SMA1에 대응하는 매칭 화상 SMA2로부터 추출하는 것이 가능하게 된다.In the present embodiment, the margin areas M around the block images 61a (m, n) and 62a (m, n) and the block images 61a (m, n) and 62a (m, n). Although the area including the above is set to the matching images SMA1 and SMA2, the present invention is not limited to this, and the matching images SMA1 and SMA2 having the same size as the divided images may be set without including the margin area M. FIG. Also in this case, when the corresponding point corresponding to the feature point included in the matching image SMA1 cannot be extracted from the matching image SMA2 corresponding to the matching image SMA1, the divided images are combined in the direction of generation of parallax, and the matching image is enlarged. Therefore, finally, the corresponding point corresponding to the feature point included in the matching image SMA1 can be extracted from the matching image SMA2 corresponding to the matching image SMA1.

또한, 본 실시 형태에서는, 화상 데이터가, 디지털 카메라(70)에 촬상된 1조의 화상(61) 및 화상(62)인 것으로서 설명하였지만, 이에 한하지 않고, 화상 데이터는, 위성 사진이 디지털화됨으로써 형성된 화상이나, 일반적인 아날로그 카메라로 촬영된 사진을 스캐닝하여 얻어지는 디지털 화상이어도 된다.In addition, in this embodiment, although image data was demonstrated as being a set of image 61 and the image 62 image | photographed by the digital camera 70, it is not limited to this, The image data was formed by digitizing a satellite photograph. It may be a digital image obtained by scanning an image or a photograph taken by a general analog camera.

또한, 본 실시 형태에서는, 면적 상관법을 이용하여, 화상(61) 중의 특징점에 대응하는, 화상(62) 중의 대응점을 추출하였지만, 이에 한하지 않고, 다른 방법, 예를 들면 일본 특허 출원 공개 평8-16930호 공보에 기재된 방법을 이용해도 된다.In addition, in this embodiment, although the correspondence point in the image 62 corresponding to the characteristic point in the image 61 was extracted using the area correlation method, it is not limited to this, Another method, for example, Japanese Patent Application Laid-Open You may use the method of 8-16930.

도 9는 스테레오 화상 처리 장치(10)를 컴퓨터에 실장하는 경우의, 물리적인 구성의 일례를 도시하는 블록도이다. 본 실시 형태에 따른 스테레오 화상 처리 장치(10)는, 일반적인 컴퓨터 장치와 마찬가지의 하드웨어 구성에 의해 실현할 수 있다. 스테레오 화상 처리 장치(10)는, 도 9에 도시된 바와 같이, 제어부(21), 주기억부(22), 외부 기억부(23), 조작부(24), 표시부(25) 및 입출력부(26)를 구비한다. 주기억부(22), 외부 기억부(23), 조작부(24), 표시부(25) 및 입출력부(26)는 모두 내부 버스(20)를 통하여 제어부(21)에 접속되어 있다.9 is a block diagram showing an example of a physical configuration when the stereo image processing apparatus 10 is mounted on a computer. The stereo image processing apparatus 10 according to the present embodiment can be realized by a hardware configuration similar to that of a general computer apparatus. As shown in FIG. 9, the stereo image processing apparatus 10 includes a control unit 21, a main memory unit 22, an external storage unit 23, an operation unit 24, a display unit 25, and an input / output unit 26. It is provided. The main memory unit 22, the external storage unit 23, the operation unit 24, the display unit 25, and the input / output unit 26 are all connected to the control unit 21 via the internal bus 20.

제어부(21)는 CPU(Central Processing Unit) 등으로 구성되고, 외부 기억부(23)에 기억되어 있는 제어 프로그램(30)에 따라서, 스테레오 매칭 처리를 실행한다.The control unit 21 is composed of a CPU (Central Processing Unit) or the like, and performs stereo matching processing in accordance with the control program 30 stored in the external storage unit 23.

주기억부(22)는 RAM(Random-Access Memory) 등으로 구성되고, 외부 기억부(23)에 기억되어 있는 제어 프로그램(30)을 로드하고, 제어부(21)의 작업 영역으로서 이용된다.The main memory section 22 is composed of a RAM (Random-Access Memory) or the like. The main memory section 22 loads the control program 30 stored in the external storage section 23 and is used as a work area of the control section 21.

외부 기억부(23)는, 플래시 메모리, 하드디스크, DVD-RAM(Digital Versatile Disc Random-Access Memory), DVD-RW(Digital Versatile Disc ReWritable) 등의 불휘발성 메모리로 구성되고, 상기의 처리를 제어부(21)에 행하게 하기 위한 제어 프로그램(30)을 미리 기억하고, 또한 제어부(21)의 지시에 따라서, 이 제어 프로그램(30)이 기억하는 데이터를 제어부(21)에 공급하고, 제어부(21)로부터 공급된 데이터를 기억한다.The external storage unit 23 is composed of a nonvolatile memory such as a flash memory, a hard disk, a digital versatile disc random-access memory (DVD-RAM), a digital versatile disc re-writable (DVD-RW), and controls the above process. The control program 30 to be made to the 21 is stored in advance, and according to the instruction of the control unit 21, the data stored in the control program 30 is supplied to the control unit 21, and the control unit 21 is provided. Store the data supplied from

조작부(24)는 키보드 및 마우스 등의 포인팅 디바이스 등과, 키보드 및 포인팅 디바이스 등을 내부 버스(20)에 접속하는 인터페이스 장치로 구성되어 있다. 조작부(24)를 통하여, 화상 데이터의 입력, 송수신 등의 지시, 표시하는 화상의 지시 등이 입력되어, 제어부(21)에 공급된다.The operation unit 24 is composed of a pointing device such as a keyboard and a mouse and the like, and an interface device for connecting the keyboard and pointing device to the internal bus 20. Through the operation unit 24, an instruction such as input of image data, transmission and reception, an instruction of an image to be displayed, and the like are input and supplied to the controller 21.

표시부(25)는, CRT(Cathode Ray Tube) 또는 LCD(Liquid Crystal Display) 등으로 구성되고, 화상이나 스테레오 매칭 처리된 결과를 표시한다.The display unit 25 is composed of a cathode ray tube (CRT), a liquid crystal display (LCD), or the like, and displays an image or a result of stereo matching.

입출력부(26)는, 무선 송수신기, 무선 모뎀 또는 망 종단 장치, 및 그들과 접속하는 시리얼 인터페이스 또는 LAN(Local Area Network) 인터페이스 등으로 구성되어 있다. 입출력부(26)를 통하여, 화상 데이터를 수신하고, 또한 계산한 결과를 송신할 수 있다.The input / output unit 26 is composed of a wireless transceiver, a wireless modem or a network termination device, and a serial interface or a local area network (LAN) interface connected thereto. Via the input / output unit 26, image data can be received and the result of the calculation can be transmitted.

도 1에 도시된 스테레오 화상 처리 장치(10)의, 데이터 입력부(11), 화상 추출부(12), 화상 분할부(13), 매칭 화상 설정부(14), 대응점 추출부(15), 매칭 미스 검출부(16), 분할 화상 결합부(17), 3차원 정보 연산부(18)의 처리는, 제어 프로그램(30)이, 제어부(21), 주기억부(22), 외부 기억부(23), 조작부(24), 표시부(25) 및 입출력부(26) 등을 자원으로서 이용하여 처리함으로써 실행된다.In the stereo image processing apparatus 10 shown in FIG. 1, the data input unit 11, the image extraction unit 12, the image division unit 13, the matching image setting unit 14, the correspondence point extraction unit 15, and matching The control of the control program 30 includes the control unit 21, the main storage unit 22, the external storage unit 23, and the processing of the miss detection unit 16, the divided image combiner 17, and the three-dimensional information calculation unit 18. It executes by processing using the operation part 24, the display part 25, the input / output part 26, etc. as a resource.

그 밖에, 상기의 하드웨어 구성이나 플로우차트는 일례이며, 임의로 변경 및 수정이 가능하다.In addition, the above-mentioned hardware configuration and flowchart are an example, and can be changed and modified arbitrarily.

제어부(21), 주기억부(22), 외부 기억부(23), 조작부(24), 입출력부(26) 및 내부 버스(20) 등으로 구성되는 스테레오 화상 처리 장치(10)의 처리를 행하는 중심으로 되는 부분은, 전용의 시스템에 상관없이, 통상의 컴퓨터 시스템을 이용하여 실현 가능하다. 예를 들면, 상기의 동작을 실행하기 위한 컴퓨터 프로그램을, 컴퓨터가 판독 가능한 기록 매체(플렉시블 디스크, CD-ROM, DVD-ROM 등)에 저장하여 배포하고, 그 컴퓨터 프로그램을 컴퓨터에 인스톨함으로써, 상기의 처리를 실행하는 스테레오 화상 처리 장치(10)를 구성해도 된다. 또한, 인터넷 등의 통신 네트워크 상의 서버 장치가 갖는 기억 장치에 그 컴퓨터 프로그램을 저장해 놓고, 통상의 컴퓨터 시스템이 다운로드하거나 함으로써 스테레오 화상 처리 장치(10)를 구성해도 된다.Center for performing processing of the stereo image processing apparatus 10 including the control unit 21, the main memory unit 22, the external storage unit 23, the operation unit 24, the input / output unit 26, the internal bus 20, and the like. The part to be realized can be realized using a normal computer system, regardless of a dedicated system. For example, by storing and distributing a computer program for performing the above operation on a computer-readable recording medium (flexible disc, CD-ROM, DVD-ROM, etc.), and installing the computer program on the computer, You may comprise the stereo image processing apparatus 10 which performs the process of. In addition, the stereo image processing apparatus 10 may be configured by storing the computer program in a storage device of a server device on a communication network such as the Internet and downloading it by a normal computer system.

또한, 스테레오 화상 처리 장치(10)의 기능을, OS(오퍼레이팅 시스템)와 어플리케이션 프로그램의 분담, 또는 OS와 어플리케이션 프로그램과의 협동에 의해 실현하는 경우 등에는, 어플리케이션 프로그램 부분만을 기록 매체나 기억 장치에 저장해도 된다.In addition, when the function of the stereo image processing apparatus 10 is realized by sharing the OS (operating system) and the application program or by cooperating with the OS and the application program, only the application program portion is stored in the recording medium or the storage device. You may save it.

또한, 반송파에 컴퓨터 프로그램을 중첩하고, 통신 네트워크를 통하여 배신하는 것도 가능하다. 예를 들면, 통신 네트워크상의 게시판(BBS, Bulletin Board System)에 상기 컴퓨터 프로그램을 게시하고, 네트워크를 통하여 상기 컴퓨터 프로그램을 배신해도 된다. 그리고, 이 컴퓨터 프로그램을 기동하고, OS의 제어 하에서, 다른 어플리케이션 프로그램과 마찬가지로 실행함으로써, 상기의 처리를 실행할 수 있도록 구성해도 된다.It is also possible to superimpose a computer program on a carrier wave and distribute it through a communication network. For example, the computer program may be posted on a bulletin board system (BBS) on a communication network, and the computer program may be distributed through a network. Then, the computer program may be started, and under the control of the OS, the computer program may be executed in the same manner as in other application programs to execute the above process.

또한, 본원에 대해서는, 일본 특허 출원 2008-300220호를 기초로 하는 우선권을 주장하고, 본 명세서 중에 일본 특허 출원 2008-300220호의 명세서, 특허 청구 범위, 도면 전체를 참조로서 인용하는 것으로 한다.In addition, about this application, the priority based on Japanese Patent Application 2008-300220 is claimed, and the specification, patent claim, and drawing of Japanese Patent Application 2008-300220 are referred to in this specification by reference.

10 : 스테레오 화상 처리 장치
11 : 데이터 입력부
12 : 화상 추출부
13 : 화상 분할부
14 : 매칭 화상 설정부
15 : 대응점 추출부
16 : 매칭 미스 검출부
17 : 분할 화상 결합부
18 : 3차원 정보 연산부
21 : 제어부
22 : 주기억부
23 : 외부 기억부
24 : 조작부
25 : 표시부
26 : 입출력부
30 : 제어 프로그램
61, 62 : 화상
61a, 62a : 추출 화상
61a(m, n), 62a(m, n) : 블록 화상
SMA1, SMA2 : 매칭 화상
70 : 디지털 카메라
71, 72 : 건조물
10: stereo image processing device
11: data input unit
12: image extraction unit
13: image segmentation unit
14: matching image setting unit
15: correspondence point extraction unit
16: matching miss detection unit
17: split image combiner
18: three-dimensional information calculation unit
21:
22: main memory
23: external storage
24: control panel
25:
26: input and output unit
30: control program
61, 62: burns
61a, 62a: Extraction image
61a (m, n), 62a (m, n): block image
SMA1, SMA2: Matching Images
70: digital camera
71, 72: dry matter

Claims (7)

서로 다른 위치로부터 촬영된 제1 화상과 제2 화상에 대하여, 스테레오 매칭 처리를 행하는 화상 처리 장치로서,
상기 제1 화상 및 상기 제2 화상 각각을 복수의 화상으로 분할하고, 상기 제1 화상의 분할 화상 및 그 주위의 마진 영역과, 상기 분할 화상에 대응하는 제2 화상의 분할 화상 및 그 주위의 마진 영역을 각각 제1 매칭 화상 및 제2 매칭 화상으로 설정하는 설정부와,
상기 제1 매칭 화상에 포함되는 점에 대응하는, 상기 제2 매칭 화상에 포함되는 대응점을 추출하는 추출부와,
상기 추출부가 상기 대응점을 추출할 수 없었던 경우에, 상기 제1 매칭 화상으로 설정된 분할 화상, 및 상기 제2 매칭 화상으로 설정된 분할 화상 각각에, 그 분할 화상에 인접하는 다른 분할 화상을 결합함으로써 얻어진 결합 화상 및 그 주위의 마진 영역을, 각각 제1 매칭 화상 및 제2 매칭 화상으로 다시 설정하는 재설정부와,
상기 제1 화상의 매칭 화상에 포함되는 점, 및 상기 제2 화상의 매칭 화상에 포함되는 대응점 각각의 3차원 정보를 산출하는 연산부
를 구비하는 화상 처리 장치.
An image processing apparatus which performs stereo matching processing on a first image and a second image photographed from different positions,
Each of the first image and the second image is divided into a plurality of images, and the divided image of the first image and the margin area around it, the divided image of the second image corresponding to the divided image, and the margin around it A setting unit that sets the area to the first matching image and the second matching image, respectively;
An extraction unit for extracting a corresponding point included in the second matching image corresponding to a point included in the first matching image;
A combination obtained by combining another divided image adjacent to the divided image to each of the divided image set to the first matching image and the divided image set to the second matching image, when the extracting unit cannot extract the corresponding point. A resetting unit for resetting the image and the margin area around the image to the first matching image and the second matching image, respectively;
A calculation unit for calculating three-dimensional information of each point included in the matching image of the first image and a corresponding point included in the matching image of the second image
An image processing apparatus having a.
제1항에 있어서,
상기 재설정부는, 제1 화상과 제2 화상과의 사이의 시차가 생기는 방향으로 인접하는 분할 화상을 결합하는 화상 처리 장치.
The method of claim 1,
And the reset unit combines adjacent divided images in a direction in which parallax occurs between the first image and the second image.
서로 다른 위치로부터 촬영된 제1 화상과 제2 화상에 대하여, 스테레오 매칭 처리를 행하기 위한 화상 처리 방법으로서,
상기 제1 화상 및 상기 제2 화상 각각을 복수의 화상으로 분할하고, 상기 제1 화상의 분할 화상 및 그 주위의 마진 영역과, 상기 분할 화상에 대응하는 제2 화상의 분할 화상 및 그 주위의 마진 영역을 각각 제1 매칭 화상 및 제2 매칭 화상으로 설정하는 설정 공정과,
상기 제1 매칭 화상에 포함되는 점에 대응하는, 상기 제2 매칭 화상에 포함되는 대응점을 추출하는 추출 공정과,
상기 추출 공정에서 상기 대응점을 추출할 수 없었던 경우에, 상기 제1 매칭 화상으로 설정된 분할 화상, 및 상기 제2 매칭 화상으로 설정된 분할 화상 각각에, 그 분할 화상에 인접하는 다른 분할 화상을 결합함으로써 얻어진 결합 화상 및 그 주위의 마진 영역을, 각각 제1 매칭 화상 및 제2 매칭 화상으로 다시 설정하는 재설정 공정과,
상기 제1 화상의 매칭 화상에 포함되는 점, 및 상기 제2 화상의 매칭 화상에 포함되는 대응점 각각의 3차원 정보를 산출하는 연산 공정
을 포함하는 화상 처리 방법.
As an image processing method for performing stereo matching processing on a first image and a second image photographed from different positions,
Each of the first image and the second image is divided into a plurality of images, and the divided image of the first image and the margin area around it, the divided image of the second image corresponding to the divided image, and the margin around it A setting step of setting the areas as the first matching image and the second matching image, respectively;
An extraction step of extracting a corresponding point included in the second matching image corresponding to a point included in the first matching image;
In the case where the corresponding point cannot be extracted in the extraction step, the respective divided images set as the first matching image and the divided images set as the second matching image are obtained by combining another divided image adjacent to the divided image. A resetting process of resetting the combined image and the margin area around the combined image to the first matching image and the second matching image, respectively,
Calculating step of calculating three-dimensional information of each point included in the matching image of the first image and the corresponding point included in the matching image of the second image
Image processing method comprising a.
컴퓨터를, 서로 다른 위치로부터 촬영된 제1 화상 및 제2 화상 각각을 복수의 화상으로 분할하고, 상기 제1 화상의 분할 화상 및 그 주위의 마진 영역과, 상기 분할 화상에 대응하는 제2 화상의 분할 화상 및 그 주위의 마진 영역을 각각 제1 매칭 화상 및 제2 매칭 화상으로 설정하는 설정부와,
상기 제1 매칭 화상에 포함되는 점에 대응하는, 상기 제2 매칭 화상에 포함되는 대응점을 추출하는 추출부와,
상기 추출부가 상기 대응점을 추출할 수 없었던 경우에, 상기 제1 매칭 화상으로 설정된 분할 화상, 및 상기 제2 매칭 화상으로 설정된 분할 화상 각각에, 그 분할 화상에 인접하는 다른 분할 화상을 결합함으로써 얻어진 결합 화상 및 그 주위의 마진 영역을, 각각 제1 매칭 화상 및 제2 매칭 화상으로 다시 설정하는 재설정부와,
상기 제1 화상의 매칭 화상에 포함되는 점, 및 상기 제2 화상의 매칭 화상에 포함되는 대응점 각각의 3차원 정보를 산출하는 연산부
로서 기능시키는 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.
The computer divides each of the first image and the second image photographed from different positions into a plurality of images, and divides the first image and a margin area around the first image and a second image corresponding to the divided image. A setting unit which sets the divided image and the margin area around it as the first matching image and the second matching image, respectively;
An extraction unit for extracting a corresponding point included in the second matching image corresponding to a point included in the first matching image;
A combination obtained by combining another divided image adjacent to the divided image to each of the divided image set to the first matching image and the divided image set to the second matching image, when the extracting unit cannot extract the corresponding point. A resetting unit for resetting the image and the margin area around the image to the first matching image and the second matching image, respectively;
An operation unit for calculating three-dimensional information of each point included in the matching image of the first image and a corresponding point included in the matching image of the second image
A computer-readable recording medium having recorded thereon a program to function as a computer.
삭제delete 삭제delete 삭제delete
KR1020117011774A 2008-11-25 2009-11-25 Image processing device, image processing method, and recording medium KR101260213B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2008-300220 2008-11-25
JP2008300220A JP5126020B2 (en) 2008-11-25 2008-11-25 Image processing apparatus, image processing method, and program
PCT/JP2009/069885 WO2010061858A1 (en) 2008-11-25 2009-11-25 Image processing device, image processing method, and recording medium

Publications (2)

Publication Number Publication Date
KR20110090946A KR20110090946A (en) 2011-08-10
KR101260213B1 true KR101260213B1 (en) 2013-05-06

Family

ID=42225731

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117011774A KR101260213B1 (en) 2008-11-25 2009-11-25 Image processing device, image processing method, and recording medium

Country Status (4)

Country Link
JP (1) JP5126020B2 (en)
KR (1) KR101260213B1 (en)
CN (1) CN102224522B (en)
WO (1) WO2010061858A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013206431A (en) * 2012-03-29 2013-10-07 Fujitsu Ltd Image processing device, image processing method and image processing program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003187261A (en) * 2001-12-14 2003-07-04 Canon Inc Device and method for generating three-dimensional image, three-dimensional image processing apparatus, three-dimensional image photographing display system, three-dimensional image processing method and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816930B2 (en) * 1989-11-28 1996-02-21 アジア航測株式会社 Method to obtain three-dimensional numerical data from stereo image data
JP3513219B2 (en) * 1994-07-12 2004-03-31 キヤノン株式会社 Corresponding point matching method and apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003187261A (en) * 2001-12-14 2003-07-04 Canon Inc Device and method for generating three-dimensional image, three-dimensional image processing apparatus, three-dimensional image photographing display system, three-dimensional image processing method and storage medium

Also Published As

Publication number Publication date
CN102224522B (en) 2015-04-22
KR20110090946A (en) 2011-08-10
JP2010128621A (en) 2010-06-10
CN102224522A (en) 2011-10-19
WO2010061858A1 (en) 2010-06-03
JP5126020B2 (en) 2013-01-23

Similar Documents

Publication Publication Date Title
CN109547766B (en) Panoramic image generation method and device
JP4378571B2 (en) MAP CHANGE DETECTION DEVICE, MAP CHANGE DETECTION METHOD, AND PROGRAM
US8675997B2 (en) Feature based image registration
CN111598993A (en) Three-dimensional data reconstruction method and device based on multi-view imaging technology
JP5229733B2 (en) Stereo matching processing device, stereo matching processing method and program
US8520940B1 (en) Automatic city block segmentation in aerial imagery for parallel processing
US10027947B2 (en) Image processing apparatus and image processing method
US10241317B2 (en) Image processing apparatus and imaging apparatus
WO2012063594A1 (en) Object display device and object display method
KR101260213B1 (en) Image processing device, image processing method, and recording medium
US20100128971A1 (en) Image processing apparatus, image processing method and computer-readable recording medium
US9508132B2 (en) Method and device for determining values which are suitable for distortion correction of an image, and for distortion correction of an image
CN110619597A (en) Semitransparent watermark removing method and device, electronic equipment and storage medium
CN115439328A (en) Image splicing method and device, electronic equipment and storage medium
CN117501303A (en) Image stitching method and device
JP6716769B1 (en) Image inspection method, image inspection apparatus, and image inspection program
US20100128973A1 (en) Stereo image processing apparatus, stereo image processing method and computer-readable recording medium
JPWO2017209213A1 (en) Image processing apparatus, image processing method, and program
JP5041382B2 (en) Stereo matching processing device, stereo matching processing method, and program
CN112037114A (en) Picture processing method and related device
US20130235084A1 (en) Multi-source multiple documents comparison display (presentation or discussion) system
WO2017090705A1 (en) Image processing device, image processing method and computer-readable recording medium
CN116704129B (en) Panoramic view-based three-dimensional image generation method, device, equipment and storage medium
JP5636966B2 (en) Error detection apparatus and error detection program
US20160179913A1 (en) Apparatus and method for data processing

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180403

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190328

Year of fee payment: 7