KR20110058476A - Method and apparatus for detecting depth of object - Google Patents
Method and apparatus for detecting depth of object Download PDFInfo
- Publication number
- KR20110058476A KR20110058476A KR1020090115288A KR20090115288A KR20110058476A KR 20110058476 A KR20110058476 A KR 20110058476A KR 1020090115288 A KR1020090115288 A KR 1020090115288A KR 20090115288 A KR20090115288 A KR 20090115288A KR 20110058476 A KR20110058476 A KR 20110058476A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- depth
- correlation
- maximum
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000001514 detection method Methods 0.000 claims abstract description 38
- 230000003287 optical effect Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 10
- 238000004088 simulation Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/22—Measuring arrangements characterised by the use of optical techniques for measuring depth
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/17—Systems in which incident light is modified in accordance with the properties of the material investigated
- G01N21/25—Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
- G01N21/31—Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry
- G01N21/35—Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry using infrared light
- G01N21/3504—Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry using infrared light for analysing gases, e.g. multi-gas analysis
- G01N2021/3509—Correlation method, e.g. one beam alternating in correlator/sample field
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/17—Systems in which incident light is modified in accordance with the properties of the material investigated
- G01N21/59—Transmissivity
- G01N21/5907—Densitometers
- G01N2021/5957—Densitometers using an image detector type detector, e.g. CCD
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
본 발명은 3차원 영상 기술에 관한 것으로, 상세하게는 3차원 영상에 포함된 물체의 깊이 검출 방법 및 장치에 관한 것이다.The present invention relates to 3D imaging technology, and more particularly, to a depth detection method and apparatus for an object included in a 3D image.
최근 3차원 물체 인식에 관한 연구 및 시스템 구현에 대해 많은 연구가 진행되고 있다. 특히 3차원 물체 인식을 위해 3차원 영상을 기록하고 복원할 수 있는 집적영상 기술이 도입되고 있다. Recently, a lot of researches have been conducted on the research on the 3D object recognition and the system implementation. In particular, integrated image technology capable of recording and reconstructing 3D images for 3D object recognition has been introduced.
집적영상 기술은 픽업과 복원 과정을 포함한다. 픽업 과정은 3차원 물체에 대한 렌즈 배열을 통하여 요소 영상 배열(EIA : Elemental Image Array)의 형태로 저장하는 단계이다. Integrated imaging techniques include pickup and retrieval processes. The pickup process is a step of storing in the form of an elemental image array (EIA) through a lens array for a three-dimensional object.
복원 과정은 요소 영상 배열을 디스플레이하고, 다시 렌즈 배열을 통과시켜 원래의 위치에 3차원 영상을 복원하는 단계이다.The reconstruction process is a step of displaying the element image array and restoring the 3D image to its original position by passing the lens array again.
복원 과정을 거친 3차원 영상은 깊이 별 평면 영상으로 표현할 수 있다. 이 때, 종래 물체 인식 방법은 각 평면 영상들과 특정 물체를 나타내는 참조 영상 간의 코릴레이션을 이용하여 3차원 영상에 포함된 참조 영상이 나타내는 물체를 인식한다.The 3D image that has been reconstructed may be represented as a planar image for each depth. In this case, the conventional object recognition method recognizes an object indicated by the reference image included in the 3D image by using a correlation between the planar images and the reference image representing the specific object.
이러한 물체 인식 방법은 참조 영상을 미리 저장하여야 하는 제약이 있다.Such an object recognition method has a limitation of storing a reference image in advance.
본 발명이 해결하고자 하는 과제는 집적 영상을 복원한 평면 복원 영상을 컴퓨터적 픽업 방법을 이용하여 다시 픽업함으로써, 미리 저장된 참조 영상 없이 물체의 깊이를 제공하는 것이다.An object of the present invention is to pick up a planar reconstructed image reconstructed from an integrated image by using a computer pickup method, thereby providing a depth of an object without a previously stored reference image.
본 발명이 제시하는 이외의 기술적 과제들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.Technical problems other than the present invention will be easily understood through the following description.
본 발명의 일 측면에 따르면, 물체를 촬영하여 참조 영상을 생성하는 제1 픽업부;상기 참조 영상을 복원하여 깊이 별 평면 복원 영상을 생성하는 복원부; 상기 평면 복원 영상을 픽업하여 대상 영상을 생성하는 제2 픽업부; 상기 참조 영상과 상기 대상 영상의 단위 블록 간의 상관도를 산출하는 상관도 산출부; 상기 참조 영상의 단위 블록에 상응하는 상기 상관도 중 최대값인 최대 상관도를 검출하는 최대 상관도 검출부; 및 각 깊이에 상응하는 최대 상관도 검출 횟수를 산출하고, 상기 깊이 중 상기 최대 상관도 검출 횟수가 최대인 깊이를 상기 물체의 깊이로 검출하는 깊이 검출부를 포함하는 깊이 검출 장치가 제공된다.According to an aspect of the present invention, a first pickup unit for photographing an object to generate a reference image; a restoration unit for generating a planar reconstruction image for each depth by reconstructing the reference image; A second pickup unit which picks up the planar reconstructed image and generates a target image; A correlation calculator calculating a correlation between the reference image and the unit block of the target image; A maximum correlation detector configured to detect a maximum correlation that is a maximum value among the correlations corresponding to the unit block of the reference image; And a depth detector configured to calculate a maximum correlation detection number corresponding to each depth, and detect a depth having the maximum number of correlation detection times among the depths as the depth of the object.
본 발명의 다른 측면에 따르면, 깊이 검출 장치가 입체 영상에 포함된 물체의 깊이를 검출하는 방법에 있어서, 물체를 촬영하여 참조 영상을 생성하는 단계;상기 참조 영상을 복원하여 깊이 별 평면 복원 영상을 생성하는 단계;상기 평면 복원 영상을 픽업하여 대상 영상을 생성하는 단계;상기 참조 영상과 상기 대상 영상의 단위 블록 간의 상관도를 산출하는 단계;상기 참조 영상의 단위 블록에 상응하는 상기 상관도 중 최대값인 최대 상관도를검출하는 단계; 및 각 깊이에 상응하는 최대 상관도 검출 횟수를 산출하고, 상기 깊이 중 상기 최대 상관도 검출 횟수가 최대인 깊이를 상기 물체의 깊이로 검출하는 단계를 포함하는 깊이 검출 방법이 제공된다.According to another aspect of the present invention, a depth detecting apparatus detects a depth of an object included in a stereoscopic image, the method comprising: photographing an object to generate a reference image; reconstructing the reference image to generate a planar reconstruction image for each depth Generating a target image by picking up the planar reconstruction image; calculating a correlation between the reference image and a unit block of the target image; a maximum of the correlations corresponding to a unit block of the reference image Detecting a maximum correlation that is a value; And calculating a maximum correlation detection number corresponding to each depth, and detecting, as the depth of the object, a depth having the maximum correlation detection frequency among the depths as the depth of the object.
본 발명의 일 실시예에 따르면, 미리 저장된 참조 영상 없이 3차원 영상에 포함된 물체의 깊이를 제공함으로써, 참조 영상이 미리 준비되지 않은 물체에 대한 깊이를 추출할 수 있다.According to an embodiment of the present invention, by providing a depth of an object included in a 3D image without a previously stored reference image, a depth of an object for which a reference image is not prepared in advance may be extracted.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발 명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In the following description of the present invention with reference to the accompanying drawings, the same components are denoted by the same reference numerals regardless of the reference numerals, and redundant explanations thereof will be omitted. In describing the present invention, when it is determined that the detailed description of the related well-known technology may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.
도 1은 본 발명의 일 실시예에 따른 깊이 검출 장치를 예시한 도면이다.1 is a diagram illustrating a depth detection apparatus according to an embodiment of the present invention.
도 1을 참조하면, 물체 인식 장치는 렌즈부(110), 광학 픽업부(120), 복원부(140), 컴퓨터 픽업부(150), 상관도 산출부(160), 최대 상관도 검출부(170) 및 깊이 검출부(180)를 포함한다.Referring to FIG. 1, the object recognition apparatus includes a
렌즈부(110)는 집적 영상의 촬상 및 디스플레이를 위한 복수의 렌즈 또는 핀홀 배열을 포함한다. The
광학 픽업부(120)는 렌즈부(110)를 투과하여 투사된 빛을 감지하여 영상 데이터를 생성한다. 즉, 광학 픽업부(120)는 렌즈부(110)를 투과하여 투사된 빛을 감지하여 복수의 요소 영상(Elemental Image)를 포함하는 집적 영상인 참조 영상을 생성한다. 이하 참조 영상을 구성하는 요소 영상을 참조 요소 영상이라 지칭한다. 광학 픽업부(120)는 CCD 또는 CMOS를 포함할 수 있다.The
복원부(140)는 참조 영상을 컴퓨터적 복원 방법을 이용하여 평면 복원 영상(POI: Plane Object Image)를 생성한다. 이하, 참조 영상을 복원한 평면 복원 영상을 참조 복원 영상이라 지칭하도록 한다.The
컴퓨터 픽업부(150)는 복원부(140)에서 복원된 각 평면 복원 영상을 렌즈 배열 또는 핀홀 배열을 통해 생성되는 과정을 시뮬레이션하여 집적 영상을 생성한다. 이하 시뮬레이션을 통해 생성된 집적 영상을 대상 영상이라 지칭하도록 한다. 즉, 컴퓨터 픽업부(150)는 가상의 컴퓨터 그래픽 모델을 렌즈 배열을 통해 감지하는 과정을 가상으로 수행하는 시뮬레이션을 통해 집적 영상을 생성하는 컴퓨터적 픽업 방법을 이용하여, 각 평면 복원 영상에 상응하는 집적 영상인 대상 영상을 생성한다. 이 때, 대상 영상을 구성하는 요소 영상을 대상 요소 영상이라 지칭하도록 한다. 평면 복원 영상의 대상 영상을 생성하는 과정은 추후 도 5를 참조하여 상세히 설명하도록 한다. 컴퓨터 픽업부(150)는 픽업한 대상 영상을 상관도 산출부(160)로 전송한다.The
상관도 산출부(160)는 광학 픽업부(120)로부터 참조 영상을 수신하고, 컴퓨터 픽업부(150)로부터 대상 영상을 수신한다.The
상관도 산출부(160)는 참조 영상과 이에 상응하는 대상 영상 간의 상관도를 산출한다. 본 실시예에서는 상관도를 NCC(Normalized Cross-Correlation)인 것으로 하여 설명하도록 하지만, 상관도가 NCC 이외의 다른 코릴레이션 방식으로 산출될 수 있음은 당업자에게 자명하다.The
상관도 산출부(160)는 대상 영상과 참조 영상 간의 상관도를 하기 수학식 1을 통해 산출할 수 있다.The
[수학식 1][Equation 1]
이 때, S는 대상 영상에 포함된 특정 픽셀의 값이고, T는 참조 영상의 포함 된 특정 픽셀의 값이고, S와 T는 동일 좌표에 위치한 픽셀의 값이고, NCC(S, T)는 대상 영상 및 참조 영상의 픽셀 간의 상관도이고, E(T)는 T가 포함된 참조 영상에 포함된 픽셀의 값들의 평균이고, E(S)는 S가 포함된 참조 영상에 포함된 픽셀의 값들의 평균이다. In this case, S is a value of a specific pixel included in the target image, T is a value of a specific pixel included in the reference image, S and T are values of pixels located at the same coordinates, and NCC (S, T) is a target. Correlation between pixels of an image and a reference image, E (T) is the average of the values of pixels included in the reference image containing T, and E (S) is the value of the pixels included in the reference image containing S Average.
즉, 상관도 산출부(160)는 수학식 1을 이용하여 깊이 별 대상 영상과 참조 영상에 포함된 동일 좌표의 픽셀 간의 상관도를 산출한다. 상관도 산출부(160)는 산출한 상관도를 위치 검출부(170)로 전송한다.That is, the
최대 상관도 검출부(170)는 요소 영상 별 최대 상관도를 검출한다. 예를 들어, 최대 상관도 검출부(170)는 대상 요소 영상 및 참조 요소 영상을 구성하는 각 픽셀 간의 상관도를 그룹화한다. 최대 상관도 검출부(170)는 각 그룹의 상관도 중 최대값인 해당 그룹의 대표 상관도를 산출한다. 즉, 최대 상관도 검출부(170)는 대상 요소 영상과 참조 요소 영상의 짝에 상응하는 대표 상관도를 산출한다. 깊이 검출부(170)는 대표 상관도와 상응하는 참조 요소 영상의 위치가 동일한 대표 상관도끼리 그룹화한다. 이어서, 깊이 검출부(170)는 각 그룹의 대표 상관도 중 최대값인 최대 상관도를 선정한다.The
깊이 검출부(180)는 최대 상관도 검출부(170)로부터 검출된 최대 상관도를 분석하여 물체의 깊이를 검출한다. 예를 들어, 깊이 검출부(180)는 최대 상관도 검출부(170)에서 최대 상관도를 검출할 경우, 해당 최대 상관도에 상응하는 깊이의 최대 상관도 검출 횟수를 카운트한다. 이 때, 최대 상관도 검출 횟수는 각 깊이에 상응하는 최대 상관도가 검출된 수이다. 깊이 검출부(170)는 전체 깊이 중 최대 상 관도 검출 횟수가 최대인 깊이를 물체의 깊이로 검출한다.The
도 2a는 본 발명의 일 실시예에 따른 픽업 과정을 예시한 도면이고, 도 2b는 본 발명의 일 실시예에 따른 복원 과정을 예시한 도면이다.2A illustrates a pickup process according to an embodiment of the present invention, and FIG. 2B illustrates a restoration process according to an embodiment of the present invention.
도 2a를 참조하면, 3차원 물체로부터 반사된 빛이 렌즈부(110)를 통해 광학 픽업부(120)로 투사되고, 광학 픽업부(120)는 투사된 빛을 CCD 또는 CMOS 등의 센서를 통해 감지하여 디지털 영상을 생성한다. 광학 픽업부(120)가 생성한 영상은 복수의 요소 영상을 포함하는 집적 영상으로 렌즈부(110)를 통해 역투사될 경우, 입체 영상이 디스플레이될 수 있다.Referring to FIG. 2A, the light reflected from the 3D object is projected to the
도 2b를 참조하면, 광학 픽업부(120)를 통해 픽업된 영상을 디스플레이 패널(dispaly panel)과 같은 디스플레이 장치를 통해 렌즈부(110)로 집적 영상을 투사하면, 렌즈부(110)의 전면에 입체 영상이 디스플레이될 수 있다.Referring to FIG. 2B, when the integrated image is projected onto the
집적 영상을 복원하는 방법으로는 광학적 집적 영상 복원 방식(OIIR : Optical Integral Imaging Reconstruction) 또는 컴퓨터적 집적 영상 복원 방식(CIIR : Computational Integral Imaging Reconstruction)이 있다. The integrated image reconstruction method may include an optical integrated image reconstruction method (OIIR) or a computer integrated image reconstruction method (CIIR: Computational Integral Imaging Reconstruction).
도 2b에 예시된 복원 방식은 상술한 광학적 집적 영상 복원 방식이다. 광학적 집적 영상 복원 방식은 회적과 수차 등과 같은 광학적 장치의 물리적인 제한에 의해 야기되는 요소 영상들 간의 불충분한 오버랩과 디스플레이된 3차원 영상의 저하된 화질로 인해 저해상도의 3차원 영상이 디스플레이되는 등의 문제점이 있다. 이러한 결점을 보완하기 위해 기하광학의 디지털 시뮬레이션을 통해 컴퓨터로 3차 원 영상을 복원하는 컴퓨터적 집적 영상 복원 방식이 복원 방식으로 사용된다. 이하 컴퓨터적 집적 영상 복원 방식을 도 3을 참조하여 설명하도록 한다.The restoration method illustrated in FIG. 2B is the above-described optical integrated image restoration method. The optically integrated image reconstruction method is used to display low resolution three-dimensional images due to insufficient overlap between element images caused by physical limitations of the optical device such as rotation and aberration, and deteriorated image quality of the displayed three-dimensional image. There is a problem. To compensate for this drawback, computer integrated image reconstruction, which reconstructs three-dimensional images to a computer through digital simulation of geometric optics, is used as the reconstruction method. Hereinafter, a computer integrated image restoration method will be described with reference to FIG. 3.
도 3은 본 발명의 일 실시예에 따른 컴퓨터적 집적 영상 복원 방식을 예시한 개념도이다.3 is a conceptual diagram illustrating a computer integrated image restoration method according to an embodiment of the present invention.
도 3을 참조하면, 복원부(140)는 핀홀 배열을 통하여 복원 평면으로 집적 영상을 투사한다. 이 때, 핀홀 배열 대신 렌즈 배열을 이용하여 집적 영상을 복원 평면으로 투사할 수 있음은 자명하다. 도 3에 예시된 바와 같이, 복원부(140)는 핀홀 배열로부터 z만큼 떨어진 복원 평면에 투사된 각 요소 영상 간의 일부는 중첩되어 평면 복원 영상(POI)를 생성한다. 이 때, 복원부(140)는 깊이 z를 변경하여 복수의 평면 복원 영상을 생성할 수 있다. 즉, 복원부(140)는 복수의 깊이 별 평면 복원 영상을 생성할 수 있다.Referring to FIG. 3, the
복원부(140)는 상술한 과정을 기하광학에 따른 디지털 시뮬레이션을 통해, 핀홀 배열 또는 렌즈 배열을 이용하지 않고 깊이 별 평면 복원 영상을 생성할 수 있다.The
도 4는 본 발명의 일 실시예에 따른 깊이 검출 장치가 물체의 깊이를 검출하는 방법을 예시한 도면이다. 4 is a diagram illustrating a method of detecting a depth of an object by a depth detecting apparatus according to an embodiment of the present invention.
도 4를 참조하면, 렌즈부(110)로부터 거리가 z만큼 떨어진 물체를 광학 픽업부(120)가 픽업하여 참조 영상(410)을 생성한다.Referring to FIG. 4, the
복원부(140)는 도 3을 참조하여 상술한 컴퓨터적 집적 영상 복원 방법(CIIR)을 이용하여 참조 복원 영상(420)을 각 깊이 별로 생성한다.The
이어서, 컴퓨터 픽업부(150)는 각 참조 복원 영상을 컴퓨터적 픽업 방법을 이용하여 픽업한다. 즉, 컴퓨터 픽업부(150)는 평면 영상인 참조 복원 영상을 물체로 지정하고, 이를 렌즈 배열을 통해 픽업하는 과정을 가상의 시뮬레이션을 통해 픽업하여 대상 영상(430)을 생성한다. 광학 픽업부(120), 복원부(140) 및 컴퓨터 픽업부(150)의 기능 수행 과정은 추후 도 5를 참조하여 상세히 설명하도록 한다.Subsequently, the
상관도 산출부(160)는 참조 영상(410)과 각 대상 영상(430) 간의 상관도를 산출한다.The
최대 상관도 검출부(170)는 참조 영상(410)과 각 대상 영상(430)의 상관도 중 최대값인 최대 상관도를 검출한다. 예를 들어, 도 4와 같이 깊이 검출부(170)는 참조 영상(410)의 (4,5)에 위치한 참조 요소 영상과 대상 영상(431)의 (4,5)에 위치한 대상 요소 영상에 포함된 픽셀에 상응하는 상관도의 최대값인 대표 상관도를 검출한다. 깊이 검출부(170)는 참조 영상(410)의 (4,5)에 위치한 참조 요소 영상과 나머지 대상 영상(431)의 (4,5)에 위치한 대상 요소 영상들에 상응하는 대표 상관도를 각각 검출한다. 대표 상관도를 깊이에 따라 그래프로 나타내면 440과 같이 예시된다. 이어서 깊이 검출부(160)는 검출한 대표 상관도 중 최대값인 최대 상관도를 검출한다. 예를 들어, 440에 따르면, 깊이 75mm에서 대표 상관도가 가장 크다. 따라서, 깊이 검출부(170)는 깊이 75mm에 상응하는 최대 상관도를 검출한다.The
이 때, 깊이 검출부(180)는 깊이 75mm에 상응하는 최대 상관도의 검출 횟수 를 1 증가시킨다. 깊이 검출부(180)는 상술한 최대 상관도 검출 과정을 모든 요소 영상에 대해서 수행하고, 각 최대 상관도 검출에 따른 깊이 별 최대 상관도의 검출 횟수를 카운트한다. 450과 같이 최대 상관도의 검출 횟수를 깊이에 따른 그래프로 나타낼 수 있다. At this time, the
깊이 검출부(180)는 최대 상관도 검출 횟수가 가장 큰 깊이를 물체가 위치한 깊이로 검출한다. 예를 들어, 그래프 450에서 최대 상관도 검출 횟수는 75mm에서 가장 크기 때문에, 깊이 검출부(180)는 75mm로 물체의 깊이를 검출할 수 있다.The
도 5는 본 발명의 일 실시예에 따른 광학적 픽업 및 컴퓨터 픽업 과정을 예시한 도면이다.5 is a diagram illustrating an optical pickup and computer pickup process according to an embodiment of the present invention.
도 5를 참조하면, 광학 픽업부(120)는 렌즈부(110)를 통과한 물체에서 반사된 빛을 감지하여 참조 영상을 생성한다.Referring to FIG. 5, the
이어서, 복원부(140)는 참조 영상을 깊이 zi(i = 1,..., n, n은 임의의 자연수)에 상응하는 평면 복원 영상인 참조 복원 영상을 생성한다. Subsequently, the
컴퓨터 픽업부(150)는 복원부(140)로부터 참조 복원 영상을 깊이 zi 에 위치한 평면 물체로 설정하여 픽업 과정을 수행한다. 이 때, 참조 복원 영상은 디지털 데이터 형태이기 때문에 컴퓨터적 픽업 방식을 이용하여 픽업할 수 있다. 즉, 컴퓨터 픽업부(150)는 컴퓨터적 픽업 방식을 이용하여 하나의 참조 복원 영상에 상응하는 하나의 집적 영상인 대상 영상을 생성할 수 있다.The
도 1 내지 도 5를 참조하여 상술한 깊이 검출 장치는 요소 영상을 단위로 대표 상관도를 산출하는 것으로 설명하였지만, 구현 방법에 따라 대상 영상 및 참조 영상을 지정된 크기의 블록으로 분할하고, 각 블록 별로 대표 상관도를 산출하여 깊이 검출 과정을 수행할 수 있음은 당업자에게 자명하다. Although the depth detection apparatus described above with reference to FIGS. 1 to 5 has been described as calculating a representative correlation degree based on the element image, the target image and the reference image are divided into blocks having a specified size according to an implementation method, and for each block. It will be apparent to those skilled in the art that a depth detection process may be performed by calculating a representative correlation.
도 6a는 본 발명의 일 실시예에 따른 요소 영상을 단위로 산출된 대표 상관도를 깊이에 따라 나타낸 그래프이고, 도 6b는 본 발명의 다른 실시예에 따른 요소 영상을 2x2로 분할한 크기의 블록을 단위로 산출된 대표 상관도를 깊이에 따라 나타낸 그래프이다.FIG. 6A is a graph illustrating a representative correlation chart calculated in units of depths of an element image according to an embodiment of the present disclosure, and FIG. 6B is a block having a size obtained by dividing an element image by 2 × 2 according to another embodiment of the present invention. This is a graph showing the representative correlations calculated in units of depth.
도 6a와 같이 요소 영상을 단위로 대표 상관도를 산출하는 방식에 비해, 도 6b는 요소 영상보다 작은 블록 별로 대표 상관도를 생성함으로써, 대표 상관도의 개수가 증가하여 좀 더 정확한 물체의 깊이를 검출할 수 있다.Compared to the method of calculating the representative correlation for each element image as shown in FIG. 6A, FIG. 6B generates a representative correlation for each block smaller than the element image, thereby increasing the number of representative correlations to more accurately determine the depth of the object. Can be detected.
도 7은 본 발명의 일 실시예에 따른 깊이 검출 장치의 깊이를 검출하는 과정을 예시한 순서도이다.7 is a flowchart illustrating a process of detecting a depth of a depth detection apparatus according to an embodiment of the present invention.
깊이 검출 장치는 물체를 광학적 픽업 방법을 이용하여 참조 영상을 생성한다(710).The depth detecting apparatus generates a reference image by using an optical pickup method (710).
깊이 검출 장치는 참조 영상을 컴퓨터적 집적 영상 복원 방법을 이용하여 평면 복원 영상으로 복원한다(720).The depth detecting apparatus restores the reference image to the planar reconstructed image by using the computer integrated image reconstructing method (720).
깊이 검출 장치는 컴퓨터적 픽업 방식을 이용하여 복원된 평면 복원 영상을 픽업하여 대상 영상을 생성한다(730). 예를 들어, 깊이 검출 장치는 단계 720에서 복원된 평명 복원 영상 각각을 컴퓨터적 픽업 방식을 이용하여 픽업함으로써, 복수의 대상 영상을 생성한다.The depth detection apparatus picks up the reconstructed plane reconstructed image by using a computer pick-up method and generates a target image (730). For example, the depth detecting apparatus generates a plurality of target images by picking up each of the flattened restored images restored in
깊이 검출 장치는 대상 영상과 참조 영상 간의 상관도를 산출한다(740). 예를 들어, 깊이 검출 장치는 대상 영상의 각 픽셀과 참조 영상의 픽셀 중 동일한 픽셀 간의 상관도를 산출한다.The depth detection apparatus calculates a correlation between the target image and the reference image (740). For example, the depth detecting apparatus calculates a correlation between each pixel of the target image and the same pixel among pixels of the reference image.
깊이 검출 장치는 단위 블록 별로 상관도를 그룹화한다(750). 즉, 깊이 검출 장치는 대상 영상 및 참조 영상의 픽셀을 단위 블록 별로 분할하고, 각 픽셀에 상응하는 상관도를 단위 블록 별로 그룹화한다.The depth detection apparatus groups the correlations by unit block (750). That is, the depth detection apparatus divides the pixels of the target image and the reference image by unit blocks, and groups the correlations corresponding to the pixels by unit blocks.
깊이 검출 장치는 단위 블록 별 최대 상관도를 검출하고, 각 깊이에 상응하는 최대 상관도 검출 횟수를 카운트한다(760). 깊이 검출 장치는 단위 블록 별로 그룹화된 상관도 중 최대값을 검출하고, 해당 상관도에 상응하는 깊이에 대한 최대 상관도 검출 횟수에 1을 더한다.The depth detecting apparatus detects the maximum correlation for each unit block and counts the maximum correlation detection number corresponding to each depth (760). The depth detecting apparatus detects a maximum value among correlations grouped for each unit block and adds 1 to the maximum correlation detection frequency for a depth corresponding to the correlation.
깊이 검출 장치는 최대 상관도 검출 횟수가 가장 큰 깊이를 물체가 위치한 깊이로 검출한다(770).The depth detecting apparatus detects a depth at which the object has the largest correlation detection number as the depth at which the object is located (770).
이제까지 본 발명에 대하여 그 실시 예를 중심으로 살펴보았다. 전술한 실시 예 외의 많은 실시 예들이 본 발명의 특허청구범위 내에 존재한다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이 다. 그러므로 개시된 실시 예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far I looked at the center of the embodiment for the present invention. Many embodiments other than the above-described embodiments are within the claims of the present invention. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. The disclosed embodiments should, therefore, be considered in an illustrative rather than a restrictive sense. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.
도 1은 본 발명의 일 실시예에 따른 물체 인식 장치를 예시한 도면.1 is a diagram illustrating an object recognition apparatus according to an embodiment of the present invention.
도 2a는 본 발명의 일 실시예에 따른 픽업 과정을 예시한 도면.2A illustrates a pickup process in accordance with one embodiment of the present invention.
도 2b는 본 발명의 일 실시예에 따른 복원 과정을 예시한 도면.2B is a diagram illustrating a restoration process according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 컴퓨터적 집적 영상 복원 방식을 예시한 개념도.3 is a conceptual diagram illustrating a computer integrated image restoration method according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 깊이 검출 장치가 물체의 깊이를 검출하는 방법을 예시한 도면.4 is a diagram illustrating a method of detecting a depth of an object by a depth detecting apparatus according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 광학적 픽업 및 컴퓨터 픽업 과정을 예시한 도면.5 illustrates an optical pickup and computer pickup process in accordance with an embodiment of the present invention.
도 6a는 본 발명의 일 실시예에 따른 요소 영상을 단위로 산출된 대표 상관도를 깊이에 따라 나타낸 그래프.FIG. 6A is a graph illustrating a representative correlation chart calculated in units of element images according to depths according to an embodiment of the present invention. FIG.
도 6b는 본 발명의 다른 실시예에 따른 요소 영상을 2x2로 분할한 크기의 블록을 단위로 산출된 대표 상관도를 깊이에 따라 나타낸 그래프.FIG. 6B is a graph illustrating representative correlations calculated according to depths of blocks having a size obtained by dividing an element image into 2 × 2 units according to another embodiment of the present invention. FIG.
도 7은 본 발명의 일 실시예에 따른 깊이 검출 장치의 깊이를 검출하는 과정을 예시한 순서도.7 is a flowchart illustrating a process of detecting a depth of a depth detecting apparatus according to an embodiment of the present invention.
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090115288A KR101088722B1 (en) | 2009-11-26 | 2009-11-26 | Method and apparatus for detecting depth of object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090115288A KR101088722B1 (en) | 2009-11-26 | 2009-11-26 | Method and apparatus for detecting depth of object |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110058476A true KR20110058476A (en) | 2011-06-01 |
KR101088722B1 KR101088722B1 (en) | 2011-12-01 |
Family
ID=44393968
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090115288A KR101088722B1 (en) | 2009-11-26 | 2009-11-26 | Method and apparatus for detecting depth of object |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101088722B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9500470B2 (en) | 2014-08-11 | 2016-11-22 | Electronics And Telecommunications Research Institute | Apparatus and method for measuring quality of holographic image |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100781941B1 (en) | 2006-06-30 | 2007-12-04 | 강원대학교산학협력단 | Method for reconstructing orthoscopic image of 3-dimensional imaging system and method for controlling integral depth of reconstructed image |
-
2009
- 2009-11-26 KR KR1020090115288A patent/KR101088722B1/en active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9500470B2 (en) | 2014-08-11 | 2016-11-22 | Electronics And Telecommunications Research Institute | Apparatus and method for measuring quality of holographic image |
Also Published As
Publication number | Publication date |
---|---|
KR101088722B1 (en) | 2011-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7250709B2 (en) | Method and system for simultaneous localization and mapping using convolutional image transformation | |
JP7403528B2 (en) | Method and system for reconstructing color and depth information of a scene | |
KR102674646B1 (en) | Apparatus and method for obtaining distance information from a view | |
US10366504B2 (en) | Image processing apparatus and image processing method for performing three-dimensional reconstruction of plurality of images | |
US20130335535A1 (en) | Digital 3d camera using periodic illumination | |
JP7337091B2 (en) | Reduced output behavior of time-of-flight cameras | |
WO2014044126A1 (en) | Coordinate acquisition device, system and method for real-time 3d reconstruction, and stereoscopic interactive device | |
KR100891161B1 (en) | Method for finding location of 3D integral image reconstruction and Apparatus thereof | |
TW201118791A (en) | System and method for obtaining camera parameters from a plurality of images, and computer program products thereof | |
CN111080776B (en) | Human body action three-dimensional data acquisition and reproduction processing method and system | |
JP2013500536A5 (en) | ||
TW201225658A (en) | Imaging device, image-processing device, image-processing method, and image-processing program | |
JP7312026B2 (en) | Image processing device, image processing method and program | |
KR100942271B1 (en) | Method and Apparatus for Reconstruction Integral Image Using Depth | |
KR101104296B1 (en) | Method and apparatus for detecting object | |
JP6409769B2 (en) | 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program | |
KR101088722B1 (en) | Method and apparatus for detecting depth of object | |
KR101289008B1 (en) | Method for obtaining of Three-Dimensional Integral Imaging using the Depth Camera and Display System thereof | |
KR101100784B1 (en) | Method and apparatus for recognizing object | |
KR101121132B1 (en) | Method and apparatus for reconstructing integral image | |
JP2018133064A (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
KR20090025420A (en) | Apparatus for volumetric image computational reconstruction using scale-variant mapping technique | |
KR101093758B1 (en) | Method and apparatus for reconstructing integral image | |
CN114205575A (en) | Operation video three-dimensional reconstruction method, device, equipment and storage medium | |
KR20110058517A (en) | Method and apparatus for reconstructing integral image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
N231 | Notification of change of applicant | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20151125 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20161123 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20171106 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20191104 Year of fee payment: 9 |