KR20140041012A - Multi 3-dimension camera using multi pattern beam and method of the same - Google Patents

Multi 3-dimension camera using multi pattern beam and method of the same Download PDF

Info

Publication number
KR20140041012A
KR20140041012A KR1020120107812A KR20120107812A KR20140041012A KR 20140041012 A KR20140041012 A KR 20140041012A KR 1020120107812 A KR1020120107812 A KR 1020120107812A KR 20120107812 A KR20120107812 A KR 20120107812A KR 20140041012 A KR20140041012 A KR 20140041012A
Authority
KR
South Korea
Prior art keywords
pattern
depth information
image
dimensional image
pattern beam
Prior art date
Application number
KR1020120107812A
Other languages
Korean (ko)
Other versions
KR101399274B1 (en
Inventor
오승태
Original Assignee
오승태
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=50650915&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=KR20140041012(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 오승태 filed Critical 오승태
Priority to KR1020120107812A priority Critical patent/KR101399274B1/en
Publication of KR20140041012A publication Critical patent/KR20140041012A/en
Application granted granted Critical
Publication of KR101399274B1 publication Critical patent/KR101399274B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

The present invention relates to a three-dimensional imaging device using a plurality of pattern beams. The three-dimensional imaging device using the pattern beams includes an image camera obtaining a two-dimensional image about an object; a plurality of pattern beam emitting units emitting a pattern beam to the object; a pattern collection unit collecting pattern change on the radiated pattern beam; and a signal processing unit generating a three-dimensional image by calculating depth information by each part of the two-dimensional image according to the collected pattern change information.

Description

다중 패턴 빔을 이용하는 3차원 촬영 장치 및 방법{multi 3-DIMENSION CAMERA USING MULTI PATTERN BEAM AND METHOD OF THE SAME}TECHNICAL FIELD [0001] The present invention relates to a three-dimensional imaging apparatus and method using a multi-pattern beam,

본 발명은 다중 패턴 빔을 이용하는 3차원 이미지 촬영 장치에 관한 것으로서, 정해진 패턴 빔을 오브젝트에 복수로 조사하여 발생하는 각 단일 패턴 빔의 변화와 다중 패턴 빔 간의 중첩 패턴 변화를 관측하고, 상기 관측된 패턴 변화를 바탕으로 깊이 값을 추출하고, 도출된 깊이 값을 2차원 이미지에 반영하여 3차원 이미지를 생성하는 장치 및 방법에 관한 것이다.The present invention relates to a three-dimensional image photographing apparatus using a multi-pattern beam, which observes a change of each single pattern beam generated by irradiating a predetermined pattern beam onto a plurality of objects and a change of an overlapping pattern between the multiple pattern beams, The present invention relates to an apparatus and method for generating a three-dimensional image by extracting a depth value based on a pattern change and reflecting the derived depth value on a two-dimensional image.

3차원 영상(3-dimensional image)은 2차원 영상보다 현실감이 뛰어나 멀티미디어 시대의 차세대 영상 시스템으로 점차 활용도가 높아지고 있다.The 3-dimensional image is more realistic than the 2-dimensional image, and the utilization rate is gradually increasing as the next generation image system of the multimedia age.

이러한 3차원 영상은, 우선적으로 3DTV 및 입체영화로 구현되어 활용될 것이며, 원격 제어용 영상, 훈련 시뮬레이션, 입체 화상통신 등에도 유용하게 응용될 것으로 예상된다.Such a 3D image will be primarily implemented and used as 3DTV and stereoscopic movies, and it is expected to be usefully applied to a remote control image, a training simulation, a stereoscopic image communication, and the like.

3차원 입체 영상을 재현하는 가장 기본적인 방법은 두 눈과 같이 좌우 두 대의 카메라를 이용하여 영상을 얻고 이 각각의 영상을 양 눈에 보여 주는 것인데, 이를 양안 또는 스테레오(stereo) 입체 영상이라고 한다.The most basic method to reproduce 3D stereoscopic images is to obtain images using two cameras, such as two eyes, and to show each of these images in both eyes, which is called binocular or stereoscopic stereoscopic image.

이러한 입체 영상 획득용 카메라를 양안 카메라 또는 스테레오 카메라(stereoscopic camera)라 한다.Such a camera for acquiring stereoscopic images is called a binocular camera or a stereoscopic camera.

상술한 입체 영상 획득용 카메라를 이용하는 양안 입체 영상에서는 촬영된 입체 영상만을 수동적으로 볼 수 밖에 없으며, 시청자가 움직임에 따라, 다른 입체 면을 볼 수 있는 운동시차(Motion parallax)는 주어지지 않는 문제점이 있으나, 양안 카메라 시스템의 단순성 때문에 널리 사용되고 있다.In the binocular stereoscopic image using the above-described stereoscopic image acquisition camera, only the stereoscopic images captured are inevitably viewed manually, and motion parallax for viewing other stereoscopic images is not given according to the motion of the viewer However, it is widely used because of the simplicity of a binocular camera system.

입체 카메라가 사람의 눈에서와 같이 자연스럽고 선명한 양질의 입체 영상을 획득하기 위해서는 인간의 주요 시각 기능 중 최소한 세가지 기본 기능인 양안 시차(binocular parallax) 제어 기능, 초점(focus) 제어 기능, 그리고 주시각 제어(vergence control) 기능이 유기적으로 자동 제어 되도록 설계 및 구현되어야만 한다.In order to obtain stereoscopic images of natural and clear quality as in the human eye, stereoscopic cameras require at least three basic functions of the human vision function, namely binocular parallax control function, focus control function, (vergence control) function must be designed and implemented so that it is controlled automatically and organically.

현재, 3차원 영상의 제작에 사용되는 대부분의 입체 카메라는 수동으로 조작하거나 정해진 거리로 미리 맞추어 놓고 한정된 영역에서 촬영하고 있으므로 자동화된 시스템이 요구되고 있다.Currently, most of the stereoscopic cameras used in the production of three-dimensional images are manually operated or are preset in predetermined distances and shot in a limited area, so an automated system is required.

즉, 촬영 시 시간이 많이 소요되고 이동 촬영에 불편하며, 좌우 카메라의 주시각 조정 및 정렬에 대한 정확도가 떨어지기 때문에 실제와 같은 3차원 영상을 재현하지 못하게 되며, 또한 이러한 영상은 시청시 시각 피로감을 유발하는 문제를 야기시킬 수 있다.In other words, it takes a lot of time to take a picture and is inconvenient for a moving picture, and the accuracy of adjusting and aligning the main time of the left and right cameras is lowered so that the three-dimensional image can not be reproduced. And the like.

따라서, 시청 피로감이 없도록 주시각이 자동 제어되고, 카메라 조작이 편리한 양안 입체 카메라의 제작이 절실히 요구되고 있다.Therefore, it is urgently required to manufacture a binocular stereoscopic camera in which the main time is automatically controlled so as to avoid viewing fatigue and camera operation is convenient.

이러한 요구에 힘입어, 양안식 입체 카메라에 관한 연구로, 미국의 경우에는 Columbia, Carnegie-Mellon대학 등 많은 대학에서 양안 입체 카메라 장치 연구가 있었다. 오스트레일리아의 Curtin University에서는 수평 이동축 카메라 연구를 통하여 수중 탐사용 카메라를 연구 제작하고 있다.As a result of these demands, studies on Binocular stereoscopic cameras have been conducted in many universities in the United States such as Columbia and Carnegie-Mellon universities. At Curtin University in Australia, researchers are studying underwater cameras using horizontal axis camera research.

영국의 원자력 관련 연구 기관인 AEA에서는 수동에 의하여 카메라의 초점 및 주시각이 제어되고 있는 SD(Standard Definition)급의 원격 작업용 수평 이동 축 입체 카메라를 개발하였다. The AEA, a nuclear research institute in the UK, developed a SD (Standard Definition) telescopic horizontal moving axis stereoscopic camera, in which the focus and the time of the camera are controlled manually.

일본은 TAO에서 학연산 공동으로 대학 및 NHK, Ikegami 카메라 회사 등이 정부의 지원 하에 양안 및 다안식 입체 카메라를 연구하고 있다. 여기에서 초점 및 주시각이 별도 제어되는 방식이며 양안식 교차 축 형태의 방송용 HDTV화질의 입체 카메라(3D-HDTV Camera)를 제작하였으며, 현재는 수평 축 카메라 개발이 진행 중이다.In Japan, universities, NHK, Ikegami camera companies and other companies are studying binocular and multi-view stereoscopic cameras under the auspices of the government. Here, 3D-HDTV camera with HDTV image quality for broadcast-type cross-axis type is produced and the horizontal axis camera is under development.

네덜란드 필립스 연구소에서도 교차축 방식을 개발하였고 최근 수평이동축의 개발을 추진하고 있다.Philips research institute in the Netherlands has also developed a cross-axis method and has recently been developing horizontal coax.

본 발명은 3차원 이미지를 얻기 위한 오브젝트 면의 깊이 정보를 산출하기 위해, 오브젝트에 복수의 패턴 빔을 투여하고 투여된 각 패턴 빔의 거리별 확산에 정도와 패턴 빔들간의 중첩 정도를 측정하여, 오브젝트 면의 깊이 정보를 산출하는 장치 및 기 산출된 깊이 정보를 바탕으로 오브젝트의 2D 이미지에 반영하여, 오브젝트의 3차원 이미지를 구성하는 장치에 관한 것이다. In order to calculate depth information of an object plane for obtaining a three-dimensional image, a plurality of pattern beams are administered to an object, the degree of diffusion of each pattern beam diffused by the distance and the degree of overlap between pattern beams are measured, An apparatus for calculating depth information of an object plane, and an apparatus for constructing a three-dimensional image of an object by reflecting the calculated depth information on a 2D image of the object.

본 발명은 각각 일정한 패턴 빔을 오브젝트에 조사하는 복수의 패턴 빔 조사부; 상기 조사된 패턴 빔에 대한 패턴 변화를 수집하는 하나 이상의 패턴 수광부; 및 상기 수집된 패턴 변화에 따라 오브젝트 이미지의 각 부분별 깊이 정보를 산출하는, 신호처리부를 포함하는, 오브젝트의 이미지의 깊이 정보 산출 장치에 관한 것이다.The present invention provides a projection exposure apparatus comprising: a plurality of pattern beam irradiating units each irradiating an object with a predetermined pattern beam; At least one pattern light receiving unit for collecting pattern changes with respect to the irradiated pattern beam; And a signal processing unit for calculating depth information of each part of the object image according to the collected pattern change.

상기 패턴 빔은 위치가 인식되는 점, 직선, 곡선, 도형, 및 비정규 문양 중에서 적어도 하나의 형태를 포함한다.The pattern beam includes at least one of a point at which the position is recognized, a straight line, a curve, a figure, and an irregular pattern.

상기 장치는 거리별 패턴 변형 정보가 기록된 라이브러리 또는 거리별 패턴 변형 공식을 저장하는 저장부를 더 포함하고, 상기 신호처리부는 상기 라이브러리 또는 상기 변형 공식을 참조하여, 상기 수집된 패턴 변화에 따라 상기 각 부분별 깊이 정보를 산출한다.Wherein the apparatus further comprises a storage unit for storing a library or a pattern variation formula for each distance in which pattern variation information for each distance is recorded, and the signal processing unit refers to the library or the modification formula, And calculates depth information per part.

다른 측면으로서, 본 발명은 상기 오브젝트의 이미지의 깊이 정보 산출 장치를 이용하는 오브젝트의 이미지의 깊이 정보 산출 방법을 제공하며, 상기 방법은 복수 패턴 빔을 오브젝트에 조사하고, 하나 이상의 패턴 수광부를 이용하여 상기 조사된 패턴 빔 변화를 수집하는 단계; 및 상기 수집된 패턴 변화에 따라, 상기 라이브러리 또는 상기 변형 공식을 참조하여, 오브젝트의 각 부분별 깊이 정보를 산출하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of calculating depth information of an image of an object using an apparatus for calculating depth information of an object, the method comprising: irradiating an object with a plurality of pattern beams; Collecting the irradiated pattern beam variation; And calculating depth information of each part of the object with reference to the library or the modification formula according to the collected pattern change.

또 다른 측면으로서, 본 발명은 오브젝트에 대한 2차원 이미지를 획득하는 이미지 카메라; 일정한 패턴 빔을 상기 오브젝트에 조사하는 패턴 빔 조사부로서 상기 조사는 거리별로 패턴 정보가 변하는 패턴 빔 조사인, 복수의 패턴 빔 조사부; 상기 조사된 패턴 빔에 대한 패턴 변화를 수집하는 하나 이상의 패턴 수광부; 거리별 패턴 정보가 기록된 라이브러리를 저장하는 저장부; 및 상기 수집된 패턴 변화에 따라 상기 2차원 이미지의 각 부분별 깊이 정보를 산출하여, 3차원 이미지를 생성하는 신호처리부를 포함하고, 상기 신호처리부는 상기 저장된 라이브러리를 참조하여, 상기 수집된 패턴 변화에 따라 상기 각 부분별 깊이 정보를 산출하는 3차원 이미지 촬영 장치를 제공한다.In another aspect, the present invention provides an image processing apparatus comprising: an image camera for obtaining a two-dimensional image of an object; A pattern beam irradiating unit for irradiating a predetermined pattern beam onto the object, wherein the irradiation is a pattern beam irradiation in which pattern information is changed for each distance; At least one pattern light receiving unit for collecting pattern changes with respect to the irradiated pattern beam; A storage unit for storing a library in which pattern information for each distance is recorded; And a signal processing unit for calculating depth information of each part of the two-dimensional image according to the collected pattern change and generating a three-dimensional image, wherein the signal processing unit refers to the stored library, Dimensional depth information of each part according to the depth information.

본 발명은 복수의 패턴 빔을 활용하는 점에 일 특징이 있으며, 단수의 패턴 빔을 오브젝트에 투여하여 오브젝트 면의 깊이 값이 차이에 따른 패턴의 변형을 인식하여 오브젝트 면의 깊이 정보를 산출하는 방법은 예를 들어, 본 발명자에 의해 출원된 출원번호 제 10-2011-0077990호가 참조된다. 이에 대한 내용은 본원에 그대로 참조로서 통합되어 있다.The present invention is characterized in that a plurality of pattern beams are utilized, and a method of calculating depth information of an object plane by recognizing deformation of a pattern corresponding to a difference in depth value of an object plane by applying a single pattern beam to an object For example, refer to Application No. 10-2011-0077990, filed by the present inventor. The contents of which are incorporated herein by reference in their entirety.

단수의 패턴 빔을 오브젝트에 조사하면 오브젝트에 의한 패턴 빔의 그림자 현상이 생길 수 있다. 다수의 패턴빔 조사부, 단수의 이미지 카메라 및 다수의 패턴 수광부 구성 하면, 다수의 패턴 빔을 다양한 각도로 오브젝트에 조사하여, 이런 그림자 현상을 제거 할 수 있다. 또한 각 패턴빔의 조사각도의 차이에 의해 거리별로 중첩되어 생성되는 패턴이 상이하여, 거리별 패턴 빔의 중첩에 의한 패턴 변형에 따라 깊이 정보를 정밀하게 산출할 수 있다.When a single pattern beam is irradiated on an object, shadowing of the pattern beam due to the object may occur. By configuring a plurality of pattern beam irradiating units, a single image camera, and a plurality of pattern light receiving units, it is possible to eliminate a shadow phenomenon by irradiating objects with a plurality of pattern beams at various angles. In addition, the patterns generated by overlapping each distance by the difference of the irradiation angle of each pattern beam are different, and the depth information can be precisely calculated according to the pattern deformation by the overlapping of the pattern beams by the distance.

또한, 본 발명의 장치에서, 상기 복수의 패턴 빔 조사부 및 상기 복수의 패턴 수광부는 상기 오브젝트의 다방향의 둘 이상의 면을 조사하고 이를 수광하도록 구성되어, 상기 오브젝트의 다방향의 면의 깊이 정보를 산출할 수 있다.Further, in the apparatus of the present invention, the plurality of pattern beam irradiating portions and the plurality of pattern light receiving portions are configured to irradiate and receive two or more faces in multiple directions of the object, and to receive depth information of the multi- Can be calculated.

단수의 패턴 수광부 및 이미지 카메라의 경우 한쪽 면에서 보여지는 이미지의 깊이 정보를 산출할 수 있지만, 다수의 패턴 빔과 다수의 패턴 수광부 및 이미지 카메라를 여러 각도에서 배치하여 사용하면, 패턴 수광부에서 보는 모든 면의 깊이 정보를 추가로 산출하여 여러 각도의 3차원 이미지를 재구성하여, 경우에 따라 360도의 3차원 이미지를 구성 할 수 있다.
However, if a plurality of pattern beams, a plurality of pattern light-receiving units, and an image camera are arranged at a plurality of angles, it is possible to obtain the depth information of all the images viewed from the pattern light- The depth information of the surface is further calculated to reconstruct a three-dimensional image at various angles, thereby constructing a 360-degree three-dimensional image in some cases.

관습에 따라 도면의 다양한 특징들은 실측에 따라 도시되지 않을 수 있다. 따라서, 다양한 특징들의 치수들은 간명성을 위하여 임의로 확대되거나 감소될 수 있다. 또한, 도면의 일부가 간명성을 위해 단순화될 수 있다. 따라서, 도면은 제시된 장치(예를 들어 디바이스) 또는 방법의 모든 컴포넌트들을 도시하지 않을 수도 있다. 마지막으로, 유사한 도면번호들이 상세한 설명 및 도면 전반에서 유사한 특징들을 나타내는데 사용될 수 있다.
According to convention, various features of the drawings may not be shown by actual measurement. Thus, the dimensions of the various features may optionally be enlarged or reduced for simplicity. Also, some of the figures may be simplified for simplicity. Accordingly, the drawings may not show all components of the presented device (e.g., device) or method. Finally, like reference numerals may be used to indicate similar features throughout the description and drawings.

본 발명의 실시예에 따르면, 미리 디자인된 복수의 패턴 빔을 오브젝트에 여러 위치 혹은 여러 각도에서 투사하고, 단수 혹은 복수의 패턴 수광부를 배치하여 사용함으로써, 단수의 패턴빔의 경우 생길 수 있는 패턴빔의 그림자 효과를 제거하고, 혹은 여러각도에서 오브젝트의 깊이 정보를 수집하여, 오브젝트의 깊이 값의 정밀도를 향상 시키고, 바람직하게는 360도 전방향의 3차원 깊이 값을 생성할 수 있으며, 단수 혹은 복수의 오브젝트의 2차원 이미지 촬영장치를 통한 오브젝트 이미지에 반영하여 3차원 이미지로 만들 수 있다.According to the embodiment of the present invention, a plurality of pre-designed pattern beams are projected from an object at various positions or at various angles and a single or a plurality of pattern light receiving portions are disposed and used. Or the depth information of the object at various angles to improve the accuracy of the depth value of the object and preferably to generate a three dimensional depth value in all directions 360 degrees, Dimensional image of the object of the image of the object of the two-dimensional image can be made into a three-dimensional image.

도 1은 본 발명의 일실시예에 따른 3차원 이미지 촬영 장치를 이용하여 3차원 이미지를 생성하는 실시예를 설명하는 도면이다.
도 2는 본 발명의 일실시예에 따른 3차원 이미지 촬영 장치를 설명하는 블록도이다.
도 3a는 본 발명의 일실시예에 따른 패턴 빔을 설명하기 위한 도면이다.
도 3b는 본 발명의 패턴 빔으로서 짧은 선(short line)이 랜덤하게 배치된 패턴에 기초한 패턴 빔을 예시한다.
도 4 및 도 5는 본 발명의 일실시예에 따른 패턴 빔을 이용하여 깊이 정보를 산출하는 다양한 실시예를 설명하는 도면이다.
도 6 는 본 발명의 일실시예에 따른 3차원 이미지 촬영 방법을 설명하는 흐름도이다.
도 7 에서 도 12은 본 발명의 일실시예에 따른 다중 패턴 조사부를 이용하여 그림자 효과 개선과 다 각도의 이미지 3차원 정보를 획득 예시이다.
1 is a view for explaining an embodiment of generating a three-dimensional image using a three-dimensional image photographing apparatus according to an embodiment of the present invention.
2 is a block diagram illustrating a three-dimensional image photographing apparatus according to an exemplary embodiment of the present invention.
3A is a view for explaining a pattern beam according to an embodiment of the present invention.
FIG. 3B illustrates a pattern beam based on a pattern in which short lines are randomly arranged as a pattern beam of the present invention.
4 and 5 are views for explaining various embodiments for calculating depth information using a pattern beam according to an embodiment of the present invention.
6 is a flowchart illustrating a three-dimensional image capturing method according to an embodiment of the present invention.
FIG. 7 through FIG. 12 illustrate examples of obtaining shadow image enhancement and multi-angle image three-dimensional information using a multi-pattern irradiator according to an exemplary embodiment of the present invention.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 사용자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The terminologies used herein are terms used to properly represent preferred embodiments of the present invention, which may vary depending on the user, the intent of the operator, or the practice of the field to which the present invention belongs. Therefore, the definitions of these terms should be based on the contents throughout this specification. Like reference symbols in the drawings denote like elements.

도 1은 본 발명의 일실시예에 따른 3차원 이미지 촬영 장치를 이용하여 3차원 이미지를 생성하는 시스템(110)을 설명하는 도면이다.1 is a diagram illustrating a system 110 for generating a three-dimensional image using a three-dimensional image capturing apparatus according to an embodiment of the present invention.

본 발명의 일실시예에 따른 3차원 이미지 촬영 장치는 피사체(오브젝트)의 2차원 이미지를 획득하고, 상기 획득한 2차원 이미지의 각 부분에 깊이 정보를 부여하여 3차원 이미지로 가공할 수 있다.A three-dimensional image pickup apparatus according to an embodiment of the present invention can acquire a two-dimensional image of a subject (object) and impart depth information to each part of the obtained two-dimensional image to process the three-dimensional image.

본 발명의 일실시예에 따른 3차원 이미지 촬영 장치는 촬영부(110), 신호처리부(120), 및 영상 출력부(130)로 구분될 수 있다.The apparatus for photographing a three-dimensional image according to an embodiment of the present invention may be divided into a photographing unit 110, a signal processing unit 120, and an image output unit 130.

또한, 본 발명의 일실시예에 따른 촬영부(110)는 제 1 패턴 빔 조사부(111), 패턴 수광부(112), 이미지 카메라(113) 및 제 2 패턴 빔 조사부(114)를 포함할 수 있다. 패턴 빔 조사부는 2개에 한정되는 것이 아니며, 오브젝트의 정보를 더 많이 얻고, 깊이의 정보를 더 정확히 하기 위해 더 많은 수일 수 있다. 또한 패턴 수광부와 이미지 카메라도 둘 이상일 수 있다.The photographing unit 110 may include a first pattern beam irradiating unit 111, a pattern light receiving unit 112, an image camera 113, and a second pattern beam irradiating unit 114 according to an embodiment of the present invention . The pattern beam irradiating unit is not limited to two, but may be a larger number in order to obtain more information of the object and more accurate information of the depth. Also, there may be more than one of the pattern light receiving unit and the image camera.

이를 위해, 본 발명의 일실시예에 따른 3차원 이미지 촬영 장치는 일반 카메라인 이미지 카메라(113)를 이용하여, 상기 2차원 이미지를 획득할 수 있다.To this end, the three-dimensional image photographing apparatus according to an embodiment of the present invention can acquire the two-dimensional image using an image camera 113, which is a general camera.

또한, 복수의 패턴 빔 조사부(111, 114)는 상기 오브젝트에 다양한 패턴을 조사할 수 있다.In addition, the plurality of pattern beam irradiators 111 and 114 can irradiate the object with various patterns.

상기 오브젝트에 조사되는 패턴 빔은 위치 인식이 가능한, 점, 직선 및 곡선 등의 선, 사각형, 삼각형, 원, 및 다각형 등의 도형, 숫자, 문자, 그물 구조, 트리(tree) 구조, 및 스타(star) 구조 등의 정규 혹은 비정규 모양 등의 다양한 형태의 패턴일 수 있으며, 빔 조사부는 복수일 수 있다. 도 7과 같은 패턴이 일 예일 수 있다. 또한 패턴 빔은 이미지 카메라의 신호에 간섭을 일으키지 않는 파장의 광원이나, 시간적 변조를 사용 할 수 있다.The pattern beam irradiated on the object may include at least one of a shape, a number, a character, a net structure, a tree structure, and a star (e.g., a line, a rectangle, a triangle, a circle and a polygon) star structure, and the like, or may be a plurality of beam irradiation units. The pattern shown in Fig. 7 may be an example. The pattern beam may also be a light source of a wavelength that does not interfere with the signal of the image camera, but temporal modulation.

패턴 수광부(112)를 통해 수집된 패턴 빔은 상기 패턴 빔이 상기 오브젝트에 의해서 왜곡, 변형 또는 중첩되는 정도를 수집하고, 상기 신호처리부(120)는 상기 수집된 왜곡, 변형 또는 중첩되는 정도에 기초하여 상기 2차원 이미지의 각 부분별 깊이 정보를 산출할 수 있다.The pattern beam collected through the pattern light receiving portion 112 collects the degree to which the pattern beam is distorted, deformed, or superimposed by the object, and the signal processing portion 120 calculates the degree of distortion based on the collected distortion, So that depth information of each part of the two-dimensional image can be calculated.

이렇게 산출된 각 부분별 깊이 정보는 2차원 이미지에 반영되어 3차원 이미지로 생성될 수 있다. 이때 사용되는 패턴 수광부(112) 및 이미지 카메라 (113)는 복수일 수 있다. 생성된 3차원 이미지는 영상 출력 장치(130)에 표시될 수 있다.The depth information of each part thus calculated can be reflected in the two-dimensional image and can be generated as a three-dimensional image. The pattern light receiving unit 112 and the image camera 113 used at this time may be plural. The generated three-dimensional image can be displayed on the video output device 130.

각 패턴빔 조사부, 패턴 수광부 또는 이미지 카메라의 위치 또는 각도를 달리하여, 깊이 정보의 정확도를 높이거나 여러 각도의 오브젝트 정보를 생성 및 통합 할 수 있다.By varying the position or angle of each pattern beam irradiating unit, pattern light receiving unit, or image camera, it is possible to increase the accuracy of the depth information or to generate and integrate object information of various angles.

본 발명의 일실시예에 따르면, 미리 디자인된 복수의 패턴 빔을 오브젝트에 투사함으로써, 오브젝트에 대한 깊이 정보를 수집하여 신속하고 정확하게 2차원 이미지를 3차원 이미지로 만들 수 있다.According to an embodiment of the present invention, by projecting a plurality of pre-designed pattern beams onto an object, depth information on the object can be collected to quickly and accurately make a two-dimensional image into a three-dimensional image.

도 2는 본 발명의 일실시예에 따른 3차원 이미지 촬영 장치(200)를 설명하는 블록도이다.2 is a block diagram illustrating a three-dimensional image photographing apparatus 200 according to an embodiment of the present invention.

본 발명의 일실시예에 따른 3차원 이미지 촬영 장치(200)는 이미지 카메라(210), 패턴 빔 조사부(220), 패턴 수광부(230), 및 신호처리부(240)를 포함할 수 있다.The apparatus 200 may include an image camera 210, a pattern beam irradiating unit 220, a pattern receiving unit 230, and a signal processing unit 240.

이미지 카메라(210)는 오브젝트에 대한 2차원 이미지를 획득할 수 있다.The image camera 210 may obtain a two-dimensional image of the object.

패턴 빔 조사부(220)는 상기 이미지 카메라(210)에 대응하여, 상기 오브젝트에 패턴 빔을 조사할 수 있다.The pattern beam irradiating unit 220 may irradiate a pattern beam to the object corresponding to the image camera 210.

상기 조사되는 패턴 빔은 위치 인식이 가능한 점, 선(직선, 곡선), 도형(사각형, 삼각형, 원, 다각형, 및 이들의 변형), 비정규 문양(그물 구조, tree 구조, 및 star 구조 등), 이미지(추상화, 사람, 동물, 및 나무 등)의 단독 또는 그들의 조합으로 구성될 수 있다. 뿐만 아니라, 상기 조사되는 패턴 빔은 문양의 정규적/비정규 배치가 가능하다.The pattern beam to be irradiated may include at least one of a point, a line (straight line, a curve), a figure (a rectangle, a triangle, a circle, a polygon and a variation thereof), an irregular pattern (a net structure, a tree structure, Images (abstraction, people, animals, and trees, etc.), or combinations thereof. In addition, the irradiated pattern beam can be regularly or irregularly arranged.

또한, 패턴 빔 조사부(220)는 coherent 또는 in-coherent 형태의 광원 일수 있으며, 2차원 이미지의 획득에 영향을 주지 않는 특성을 갖는 것이 바람직하기 때문에 비가시광선 영역의 빛을 이용하여 상기 패턴 빔을 조사할 수 있다. 또한 시간적으로 변조를 갖는 패턴 빔일 수 있다.In addition, since the pattern beam irradiating unit 220 may be a coherent or in-coherent light source and preferably has characteristics that do not affect the acquisition of a two-dimensional image, it is preferable to use the light in the non- You can investigate. It may also be a pattern beam having temporal modulation.

다양한 패턴 빔을 형성하기 위해서, 패턴 빔 조사부(220)는 레이져 다이오드(Laser Diode), LED(Light Emitting Diode), OLED(Organic Light Emitting Diode), 위상 마스크(phase mask) 소자, 진폭 마스크(amplitude mask) 소자, 회절 광학 소자(Diffractive Optical Element), 및 LCD(Liquid Crystal Display) 패널 등의 수동/능동 소자를 포함할 수 있다.In order to form various pattern beams, the pattern beam irradiating unit 220 may include a laser diode, an LED (Light Emitting Diode), an OLED (Organic Light Emitting Diode), a phase mask device, an amplitude mask ) Element, a diffractive optical element, and a liquid crystal display (LCD) panel.

조사되는 패턴 빔은 도 3에서 구체적으로 설명한다.The pattern beam to be irradiated is described in detail in Fig.

도 3은 본 발명의 일실시예에 따른 패턴 빔을 설명하기 위한 도면이다.3 is a view for explaining a pattern beam according to an embodiment of the present invention.

일례로, 조사되는 패턴 빔은 회절 광학 소자를 이용하여 다양한 패턴으로 표현될 수 있다.As an example, the pattern beam to be irradiated can be expressed in various patterns using a diffractive optical element.

즉, 상기 조사되는 패턴 빔은 multiline 패턴(310), Crosshair 패턴(320), dot 패턴(330), circle 패턴(340), line square 패턴(350), cross and circle 패턴(360), rings 패턴(370), dot line 패턴(380), single line(390) 등으로 표현될 수 있다.That is, the pattern beam to be irradiated may include a multiline pattern 310, a crosshair pattern 320, a dot pattern 330, a circle pattern 340, a line square pattern 350, a cross and circle pattern 360, 370, a dot line pattern 380, a single line 390, and the like.

이 밖에도, 패턴 빔 조사부(220)는 선 및 점으로 이뤄진 패턴 빔 이외에도 그물 구조, tree 구조, 및 star 구조 등의 비정규 문양이나, 추상화, 사람, 동물, 및 나무 등의 이미지를 표현하는 패턴 빔을 조사할 수 있다.In addition, the pattern beam irradiating unit 220 may be configured to irradiate a pattern beam representing an image of an irregular pattern such as a net structure, a tree structure, and a star structure, an abstraction, an image of a person, an animal, and a tree, You can investigate.

바람직하게, 본 발명의 패턴 빔은 짧은 선(short line, - ), 꺽은선 (ㄱ), 혹은 십자선 (+) 이 단일 혹은 복합으로 랜덤하게 배치된 패턴일 수 있다.Preferably, the pattern beam of the present invention may be a pattern in which a short line (-), a bent line (a), or a cross line (+) are arranged singly or in combination.

다시 도 2를 참조하면, 패턴 수광부(230)는 상기 조사된 패턴 빔에 대한 패턴 변화를 수집할 수 있다.Referring again to FIG. 2, the pattern light receiving unit 230 may collect a pattern change of the irradiated pattern beam.

즉, 패턴 수광부(230)는 상기 오브젝트에 투영된 후 왜곡, 이동, 소실, 확대, 및 축소 등이 반영되어 변화된 상기 패턴 빔을 수집할 수 있다.That is, the pattern light receiving unit 230 may collect the pattern beam that has been reflected on the object and reflected by distortion, movement, disappearance, enlargement, reduction, and the like.

일례로, 패턴 수광부(230)는 패턴의 정보만 수집할 수 있도록 하는 것이 바람직하기에 대역 통과 필터(band pass filter) 또는 컬러 필터(color filter) 등이 장착된 카메라로 해석될 수 있다.For example, the pattern light receiving unit 230 may be interpreted as a camera equipped with a band pass filter, a color filter, or the like, as it is preferable to collect only pattern information.

신호처리부(240)는 상기 수집된 패턴 변형 정보를 바탕으로 상기 2차원 이미지의 각 부분별 깊이 정보를 산출할 수 있다.The signal processing unit 240 may calculate depth information of each part of the two-dimensional image based on the collected pattern deformation information.

신호처리부(240)는 상기 수집된 패턴 변화에 따라 각 부분별 깊이(depth) 정보를 산출하고, 이미지 카메라(210)가 생성한 상기 2차원 이미지의 각 부분별로 깊이 정보를 부여할 수 있다. 복수의 이미지 카메라를 사용하여 여러 각도의 이미지를 생성할 경우 각도 별 이미지를 바탕으로 하나의 오브젝트 이미지를 생성하고, 각 부분별 깊이 정보를 부여할 수 있다.The signal processing unit 240 may calculate depth information of each part according to the collected pattern change and may provide depth information for each part of the two-dimensional image generated by the image camera 210. [ When an image of a plurality of angles is generated by using a plurality of image cameras, one object image can be generated based on the angular image, and depth information of each part can be given.

영상 출력 장치는 상기 부여된 깊이 정보를 이용하여, 상기 2차원 이미지를 3차원 이미지로 출력할 수 있다.The image output apparatus can output the two-dimensional image as a three-dimensional image using the provided depth information.

즉, 영상 출력 장치는 상기 2차원 이미지의 각 부분별로 부여된 깊이 정보를 이용하여, 깊이 들어간 부분은 깊이 들어간 것으로 명암을 넣어 표시하고, 반대로 볼록 튀어나온 부분은 상대적으로 밝게 하여 볼록 튀어나오게 표시할 수 있다.That is, the image output apparatus displays the depth information by using the depth information assigned to each part of the two-dimensional image. The depth image is displayed by putting the darkness into the depth of the depth image, and the protruding part is relatively bright .

신호처리부(240)는 상기 패턴의 변형을 이용하여, 각 부분별로 깊이 정보를 산출하기 위해서, 선정된 공식이 적용된 알고리즘이나, 연산의 신속성과 정확도를 높이기 위해 변형정보가 저장된 라이브러리를 사용하는 알고리즘을 이용할 수 있다.The signal processing unit 240 may use an algorithm that uses a predetermined formula to calculate depth information for each part using a variation of the pattern or an algorithm that uses a library in which deformation information is stored in order to increase the speed and accuracy of the computation Can be used.

예를 들어, 세부 패턴의 숫자, 확대, 축소, 소실, 이동, 형태 왜곡 등의 변형 양상을 공식화하여 수식으로 계산하여 깊이 정보를 산출 할 수 있다. For example, it is possible to calculate depth information by calculating formulas such as number, enlargement, reduction, loss, movement, and shape distortion of detailed patterns.

또 다른 예로 계산의 신속성과 정확성을 위해 미리 거리별로 계산된 정보를 라이브러리화 하여 저장하고, 신호처리부는 패턴 변형 정도를 라이브러리에서 참조하여 거리값을 산출할 수 있다. As another example, in order to speed up and accuracy of calculation, the information calculated in advance by distance is stored in a library, and the signal processor can calculate the distance value by referring to the library in the degree of pattern deformation.

본 발명의 일실시예에 따른 신호처리부(240)는 계산과정에서 부분적으로 샘플링된 ROI(region of interest)를 형성하여 분석할 수 있으며, 또한 전체적인 패턴의 변형을 계산하여 깊이 정보를 환산하거나, ROI간 연관성을 바탕으로 거리 값을 산출할 수도 있다.The signal processing unit 240 according to an exemplary embodiment of the present invention can form and analyze a partially sampled region of interest (ROI) in the calculation process, and can calculate the deformation of the entire pattern to convert depth information, The distance value can also be calculated based on the inter-correlation.

도 4 내지 도 5는 본 발명의 일실시예에 따른 패턴 빔을 이용하여 깊이 정보를 산출하는 다양한 실시예를 설명하는 도면이다.4 to 5 are views for explaining various embodiments for calculating depth information using a pattern beam according to an embodiment of the present invention.

먼저, 도 4는 패턴 빔의 일례로서 슬릿 빔(slit beam)을 이용하여, 오브젝트의 각 부분별로 깊이 정보를 산출하는 실시예를 도시한다.First, FIG. 4 shows an embodiment in which depth information is calculated for each part of an object by using a slit beam as an example of a pattern beam.

본 발명의 일실시예에 따른 3차원 이미지 촬영 장치는 이미지 카메라(430)를 이용하여, 오브젝트(410)를 촬영함으로써 2차원 이미지를 획득한다.A three-dimensional image capturing apparatus according to an embodiment of the present invention captures a two-dimensional image by capturing an object 410 using an image camera 430.

이에 대응하여, 패턴 빔 조사부(420)를 통해서 오브젝트(410)에 슬릿 빔 형태의 패턴 빔을 조사한다.In response to this, a pattern beam in the form of a slit beam is irradiated onto the object 410 through the pattern beam irradiating unit 420.

조사된 슬릿 빔은 별도의 패턴 빔 수광부(440)를 이용하여 도면부호 440과 같은 영상을 얻을 수 있다.The irradiated slit beam can acquire an image as denoted by reference numeral 440 by using a separate pattern beam receiving unit 440.

예를 들어, 이미지 카메라(430)에 상기 조사된 패턴 빔을 수집하는 상기 패턴 빔 수광부의 기능이 내장된 경우, 이미지 카메라(430)에서 패턴 빔 조사부(420)가 조사한 상기 슬릿 빔을 수집할 수 있다.For example, when the function of the pattern beam light receiving unit for collecting the irradiated pattern beam is built in the image camera 430, the image camera 430 can collect the slit beam irradiated by the pattern beam irradiating unit 420 have.

이에, 상기 수집된 슬릿 빔은 도면부호 440에 도시된 영상(450)을 얻는다. 상기 쵤영된 영상(450)을 해석하면, 이미지 카메라(430)의 입장에서 왼쪽 부분이 오브젝트와 더 가깝고 오른쪽으로 갈수록 멀어지는 깊이 정보를 알 수 있다. Thus, the collected slit beam acquires an image 450 shown at reference numeral 440. [ By analyzing the image 450, the left part of the image camera 430 is closer to the object, and the depth information of the image camera 430 is farther to the right.

도 5는 도 3에서 언급한 multiline 패턴을 이용하여, 오브젝트에 대한 깊이 정보를 산출하는 구성을 설명한다.FIG. 5 illustrates a structure for calculating depth information on an object using the multiline pattern described in FIG.

도 5를 살펴보면, 참조가 되는 패턴인 참조 이미지(520)에 대해서, 실제로 오브젝트에 조사되어 일부 변형된 빔 패턴에 기초해서 생성된 측정 이미지(510)를 비교하여 깊이 정보가 반영된 3차원 이미지를 생성할 수 있다.Referring to FIG. 5, a reference image 520, which is a reference pattern, is compared with a measurement image 510 generated based on a partially modified beam pattern actually irradiated on an object to generate a three-dimensional image reflecting the depth information can do.

측정 이미지(510) 및 참조 이미지(520)는 위상이 반영된 수식으로 표현될 수 있는데, 이러한 위상 값은 알려진 4-버킷 알고리즘(4-bucket algorithm)에 의해 산출할 수 있다.The measured image 510 and the reference image 520 can be represented by a phase-reflected mathematical formula, which can be calculated by a known 4-bucket algorithm.

측정 이미지(510) 및 참조 이미지(520)의 각각의 위상 값은 각각의 깊이 정보를 의미할 수 있는데, 결국, 참조 이미지(520)로부터 상기 4-버킷 알고리즘에 의해 산출한 위상 값과, 측정 이미지(510)로부터 상기 4-버킷 알고리즘에 의해 산출된 위상을 비교하여, 상기 오브젝트에 대한 깊이 정보를 산출할 수가 있다.Each phase value of the measurement image 510 and the reference image 520 may mean respective depth information so that the phase value calculated by the 4-bucket algorithm from the reference image 520, The depth information of the object can be calculated by comparing the phase calculated by the 4-bucket algorithm with the phase calculated by the 4-bucket algorithm.

결국, 측정한 2차원 이미지에 상기 산출한 깊이 정보를 반영하여, 모아레 이미지(moire image) 형태의 3차원 이미지(530)를 생성할 수 있다.As a result, the calculated depth information is reflected on the measured two-dimensional image to generate a three-dimensional image 530 in the form of a moire image.

이와 유사하게 다중 dot 패턴이 사용될 수 있다. 즉, 다중 dot 패턴을 투사하고 그 영상을 참고하여 오브젝트가 있을 때 다중 dot 패턴의 크기, 형태 왜곡, 이동, 세부 패턴의 개수 등의 변화를 측정하여 깊이 값을 산출할 수 있다. Similarly, multiple dot patterns can be used. That is, when a multi-dot pattern is projected and the image is referenced, the depth value can be calculated by measuring changes in size, shape distortion, movement, number of detailed patterns, etc. of the multi-dot pattern when the object exists.

결국, 본 발명이 일실시예에 따른 3차원 이미지 촬영 장치는 피사체(오브젝트)의 2차원 이미지를 획득하고, 다양한 패턴 빔을 이용해서 상기 획득한 2차원 이미지의 각 부분에 깊이 정보를 산출하여 3차원 이미지로 가공할 수 있다.As a result, the three-dimensional image capturing apparatus according to an embodiment of the present invention acquires a two-dimensional image of a subject (object) and calculates depth information at each part of the obtained two-dimensional image using various pattern beams, Dimensional image.

패턴빔 조사부에 의해 오브젝트에 패턴이 조사되고, 패턴빔 수광부에 의해 오브젝트상에 변형된 패턴을 수집하며, 상기 수집된 패턴 이미지의 ROI(region of interest)를 형성하여 각 ROI의 패턴 특징을 상기 거리별 패턴 변형특징 공식을 포함한 알고리즘, 혹은 거리별 패턴 변형 특징이 포함된 라이브러리를 참조하는 알고리즘을 통해 거리로 환산하여, 상기 수집된 ROI의 깊이 값을 산출하고, 상기 산출된 깊이 값에 기초하여, 오브젝트의 3차원 이미지를 추출한다.A pattern is irradiated on an object by a pattern beam irradiating unit, a pattern deformed on an object is collected by a pattern beam light receiving unit, and a ROI (region of interest) of the collected pattern image is formed, Calculating a depth value of the collected ROI in terms of a distance by using an algorithm including a star pattern variation feature or an algorithm referring to a library including a pattern variation feature for each distance, And extracts a three-dimensional image of the object.

예를 들어 거리별 패턴 변형 특징 공식은, 해당 ROI에 존재하는 점, 선 혹은 도형 등의 세부 패턴의 개수, 위치, 크기, 세부패턴들 간의 상관관계 혹은 상기 특징을 복합화한 값을 나타내는 공식일 수 있다. 라이브러리는 이 연산 속도를 높이거나, 정확성을 높일 수 있도록 일부 정보 혹은 전체 정보를 그래프 혹은 차트 등의 데이터 형태의 값 일 수 있다.For example, the formula for distance-dependent pattern variation may be a number of detailed patterns such as points, lines, or figures existing in the ROI, a position, a size, a correlation between the detailed patterns, have. The library can be a value of some type of data, such as a graph or a chart, to increase or speed up the computation, or to increase accuracy.

도 6은 본 발명의 실시예에 따른 3차원 이미지 촬영 방법을 설명하는 흐름도이다.6 is a flowchart illustrating a three-dimensional image capturing method according to an embodiment of the present invention.

본 발명의 일실시예에 따른 3차원 이미지 촬영 방법은 오브젝트에 대한 2차원 이미지를 획득할 수 있다(단계 601).A three-dimensional image capturing method according to an exemplary embodiment of the present invention may acquire a two-dimensional image of an object (step 601).

다음으로, 본 발명의 일실시예에 따른 3차원 이미지 촬영 방법은 다양한 형태의 패턴 빔을 상기 오브젝트에 조사하고(단계 602), 상기 조사된 패턴 빔에 대한 패턴 변화를 수집할 수 있다(단계 603).Next, a three-dimensional image capturing method according to an exemplary embodiment of the present invention may irradiate various types of pattern beams to the object (Step 602) and collect pattern variations of the irradiated pattern beams (Step 603 ).

상기 패턴 빔은 위치 인식을 할 수 있는 정보로서, 점, 선(직선, 곡선 등), 도형(사각형, 삼각형, 원, 다각형, 및 그들의 변형 등), 비정규 문양(그물 구조, tree 구조, star 구조 등), 이미지(추상화, 사람, 동물, 나무 등), 및 그들의 조합 중에서 어느 하나의 형태로 구현될 수 있다. 뿐만 아니라, 상기 패턴 빔은 문양의 배치 또한 정규적/비정규 배치가 가능하다.The pattern beam is information capable of recognizing the position, and may be a point, a line (a straight line, a curve), a figure (a rectangle, a triangle, a circle, a polygon, Etc.), images (abstraction, human, animal, tree, etc.), and combinations thereof. In addition, the pattern beam can be regularly / irregularly arranged.

본 발명의 일실시예에 따른 3차원 이미지 촬영 방법은 상기 수집된 패턴 변화에 따라 상기 2차원 이미지의 각 부분별 깊이 정보를 산출할 수 있다(단계 604).The 3D image capturing method according to an embodiment of the present invention can calculate depth information of each part of the two-dimensional image according to the collected pattern change (step 604).

본 발명의 일실시예에 따른 3차원 이미지 촬영 방법은 상기 2차원 이미지의 각 부분별 깊이 정보를 산출하기 위해, 복수의 각 패턴 빔에 따라서 촬상되는 패턴이 거리에 따라 변형 혹은 중첩되는 양상을 공식화하여 수식으로 만들고, 이러한 수식을 바탕으로 촬상된 패턴을 분석하여 거리를 계산할 수도 있다.In order to calculate depth information of each part of the two-dimensional image, a three-dimensional image capturing method according to an embodiment of the present invention forms a pattern in which a pattern captured according to a plurality of respective pattern beams is deformed or overlapped with a distance It is also possible to calculate the distance by analyzing the captured pattern based on the formula.

다른 예로, 본 발명의 일실시예에 따른 3차원 이미지 촬영 방법은 상기 2차원 이미지의 각 부분별 깊이 정보를 산출하기 위해, 해당 거리별 패턴 변형 정보가 기록된 라이브러리를 참조하여, 상기 각 부분별 깊이 정보를 산출할 수 있다.As another example, in order to calculate the depth information of each part of the two-dimensional image, the three-dimensional image capturing method according to an embodiment of the present invention refers to a library in which pattern deformation information for each distance is recorded, Depth information can be calculated.

복수의 패턴빔을 활용한 특징의 예시는 도 7 내지 10에 있다. 도 7은 패턴을 예시한다. 도 8은 2차원 이미지의 예이다. 도 9는 단일 패턴 빔을 조사하였을 때 패턴 수광부로부터 얻은 이미지이다. 도 10은 복수의 패턴 빔을 조사하였을 때의 패턴 수광부로부터 얻은 이미지이다. 도 11은 복수의 패턴 수광부의 다른 각도에서 수집된 패턴 영상으로 오브젝트의 다른 각도의 3차원 깊이 정보를 확보 할 수 있어, 바람직하게는 오브젝트의 360도 깊이 정보를 바탕으로 전 방향의 3D 정보 혹은 이미지를 생성할 수 있다. Examples of features utilizing multiple pattern beams are shown in Figures 7-10. Figure 7 illustrates a pattern. Figure 8 is an example of a two-dimensional image. 9 is an image obtained from a pattern light receiving portion when a single pattern beam is irradiated. 10 is an image obtained from a pattern light receiving portion when a plurality of pattern beams are irradiated. 11 is a view showing an example of a case where a pattern image collected at different angles of a plurality of pattern light receiving units can acquire three-dimensional depth information of another angle of an object, Lt; / RTI >

도 12은 복수의 패턴 빔과 물체의 위치를 개략적으로 표시하는 도면이다. 12 schematically shows the positions of a plurality of pattern beams and objects.

도 12에서와 같이 두 개의 다른 위치에서 패턴 빔을 조사하면, 단일 패턴을 조사한 이미지(도 9)와 달리, 그림자 효과가 없고, 패턴빔 중첩효과가 추가된 도 10과 같은 이미지를 얻을 수 있다. 또한 다각도 혹은 위치의 수광부를 복수로 배치하면 오브젝트의 다른 각도의 깊이 정보를 확보 할 수 있으므로 바람직하게는 오브젝트의 360도 전방향의 3차원 정보 혹은 이미지를 생성할 수 있다. As shown in FIG. 12, when the pattern beam is irradiated at two different positions, an image as shown in FIG. 10 in which a shadow effect is not added and a pattern beam overlap effect is added is obtained unlike the image (FIG. 9) irradiated with a single pattern. In addition, if a plurality of light receiving units of multiple angles or positions are arranged, depth information of other angles of the object can be secured, so that it is possible to generate three-dimensional information or an image of 360 degrees forward direction of the object.

본 발명의 일 실시예에 따른 3차원 이미지 촬영 방법은 산출된 상기 2차원 이미지의 각 부분별 깊이 정보를 이용하여, 3차원 이미지를 생성할 수 있다(단계 605).The three-dimensional image capturing method according to an embodiment of the present invention can generate a three-dimensional image using the depth information of each part of the two-dimensional image (step 605).

본 발명의 일실시예에 따른 3차원 이미지 촬영 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The three-dimensional image capturing method according to an exemplary embodiment of the present invention may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

Claims (6)

각각 일정한 패턴 빔을 오브젝트에 조사하는 복수의 패턴 빔 조사부;
상기 조사된 패턴 빔에 대한 패턴 변화를 수집하는 하나 이상의 패턴 수광부; 및
상기 수집된 패턴 변화에 따라 오브젝트 이미지의 각 부분별 깊이 정보를 산출하는, 신호처리부를 포함하는,
오브젝트의 깊이 정보 산출 장치.
A plurality of pattern beam irradiation units each irradiating a predetermined pattern beam to the object;
At least one pattern light receiver configured to collect pattern changes of the irradiated pattern beams; And
And a signal processing unit for calculating depth information of each part of the object image according to the collected pattern change,
An apparatus for calculating depth information of an object.
제 1항에 있어서,
상기 패턴 빔은 위치가 인식되는 점, 직선, 곡선, 도형, 및 비정규 문양 중에서 적어도 하나의 형태를 포함하는,
오브젝트의 깊이 정보 산출 장치.
The method according to claim 1,
Wherein the pattern beam comprises at least one of a point at which the position is recognized, a straight line, a curve, a graphic, and an irregular pattern.
An apparatus for calculating depth information of an object.
제 1항에 있어서,
거리별 패턴 변형 정보가 기록된 라이브러리 또는 거리별 패턴 변형 공식을 저장하는 저장부를 더 포함하고,
상기 신호처리부는 상기 라이브러리 또는 상기 변형 공식을 참조하여, 상기 수집된 패턴 변화에 따라 상기 각 부분별 깊이 정보를 산출하는,
오브젝트의 깊이 정보 산출 장치.
The method according to claim 1,
Further comprising a storage unit for storing a library or a pattern transformation formula for each distance,
Wherein the signal processing unit calculates depth information of each part according to the collected pattern change with reference to the library or the modification formula,
An apparatus for calculating depth information of an object.
제 1항에 있어서,
상기 복수의 패턴 빔 조사부 및 상기 복수의 패턴 수광부는 상기 오브젝트의 다방향의 둘 이상의 면을 조사하고 이를 수광하도록 구성되어, 상기 오브젝트의 다방향의 면의 깊이 정보를 산출하는,
오브젝트의 깊이 정보 산출 장치.
The method according to claim 1,
The plurality of pattern beam irradiators and the plurality of pattern light receivers are configured to irradiate and receive two or more surfaces in the multi-direction of the object, thereby calculating depth information of the multi-directional surfaces of the object.
An apparatus for calculating depth information of an object.
제 1항 내지 제 4항 중 어느 하나의 오브젝트의 이미지의 깊이 정보 산출 장치를 이용하는 오브젝트의 이미지의 깊이 정보 산출 방법으로서,
복수 패턴 빔을 오브젝트에 조사하고, 상기 조사된 패턴 빔 변화를 수집하는 단계; 및
상기 수집된 패턴 변화에 따라, 상기 라이브러리 또는 상기 변형 공식을 참조하여, 오브젝트 이미지의 각 부분별 깊이 정보를 산출하는 단계를 포함하는,
이미지의 깊이 정보 산출 방법.
As the depth information calculation method of the image of the object using the depth information calculation apparatus of the image of any one of Claims 1-4,
Irradiating the object with a plurality of pattern beams and collecting the irradiated pattern beam changes; And
Calculating depth information for each part of an object image by referring to the library or the deformation formula according to the collected pattern change.
A method for calculating depth information of an image.
오브젝트에 대한 2차원 이미지를 획득하는 이미지 카메라;
일정한 패턴 빔을 상기 오브젝트에 조사하는 패턴 빔 조사부로서 상기 조사는 거리별 패턴 정보가 변화는 패턴 빔 조사인, 패턴 빔 조사부;
상기 조사된 패턴 빔에 대한 패턴 변화를 수집하는 패턴 수광부;
거리별 패턴 정보가 기록된 라이브러리를 저장하는 저장부; 및
상기 수집된 패턴 변화에 따라 상기 2차원 이미지의 각 부분별 깊이 정보를 산출하여, 3차원 이미지를 생성하는 신호처리부를 포함하고,
상기 신호처리부는 상기 저장된 라이브러리를 참조하여, 상기 수집된 패턴 변화에 따라 상기 각 부분별 깊이 정보를 산출하는
3차원 이미지 촬영 장치.
An image camera for acquiring a two-dimensional image of the object;
A pattern beam irradiating part for irradiating a predetermined pattern beam onto the object, wherein the irradiation is a pattern beam irradiation with a change in pattern information per distance;
A pattern light receiving unit for collecting a pattern change with respect to the irradiated pattern beam;
A storage unit which stores a library in which pattern information for each distance is recorded; And
And a signal processing unit for calculating depth information of each part of the two-dimensional image according to the collected pattern change and generating a three-dimensional image,
The signal processor is configured to calculate depth information of each part according to the collected pattern change by referring to the stored library.
Three-dimensional image shooting device.
KR1020120107812A 2012-09-27 2012-09-27 multi 3-DIMENSION CAMERA USING MULTI PATTERN BEAM AND METHOD OF THE SAME KR101399274B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120107812A KR101399274B1 (en) 2012-09-27 2012-09-27 multi 3-DIMENSION CAMERA USING MULTI PATTERN BEAM AND METHOD OF THE SAME

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120107812A KR101399274B1 (en) 2012-09-27 2012-09-27 multi 3-DIMENSION CAMERA USING MULTI PATTERN BEAM AND METHOD OF THE SAME

Publications (2)

Publication Number Publication Date
KR20140041012A true KR20140041012A (en) 2014-04-04
KR101399274B1 KR101399274B1 (en) 2014-05-27

Family

ID=50650915

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120107812A KR101399274B1 (en) 2012-09-27 2012-09-27 multi 3-DIMENSION CAMERA USING MULTI PATTERN BEAM AND METHOD OF THE SAME

Country Status (1)

Country Link
KR (1) KR101399274B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019088659A1 (en) * 2017-10-30 2019-05-09 Samsung Electronics Co., Ltd. Method and apparatus for processing image
WO2020189923A1 (en) * 2019-03-15 2020-09-24 엘지전자 주식회사 Optical device, and camera device and electronic device having same
CN112955844A (en) * 2020-06-30 2021-06-11 深圳市大疆创新科技有限公司 Target tracking method, device, system and storage medium
WO2021215752A1 (en) * 2020-04-22 2021-10-28 엘지전자 주식회사 Optical device, and camera device and electronic apparatus comprising same
US11657520B2 (en) 2018-02-27 2023-05-23 Samsung Electronics Co., Ltd. Electronic device and method for controlling same

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101902283B1 (en) * 2016-05-26 2018-09-28 주식회사 골프존 Camera sensing device for obtaining three-dimensional information of object and virtual golf simulation apparatus using the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101083069B1 (en) * 2009-05-29 2011-11-16 한국 한의학 연구원 Apparatus for obtaining 3 dimensional information to classify oriental medical constitution and method thereof
KR101259835B1 (en) * 2009-06-15 2013-05-02 한국전자통신연구원 Apparatus and method for generating depth information

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019088659A1 (en) * 2017-10-30 2019-05-09 Samsung Electronics Co., Ltd. Method and apparatus for processing image
US11094073B2 (en) 2017-10-30 2021-08-17 Samsung Electronics Co., Ltd. Method and apparatus for processing image
US11657520B2 (en) 2018-02-27 2023-05-23 Samsung Electronics Co., Ltd. Electronic device and method for controlling same
WO2020189923A1 (en) * 2019-03-15 2020-09-24 엘지전자 주식회사 Optical device, and camera device and electronic device having same
WO2021215752A1 (en) * 2020-04-22 2021-10-28 엘지전자 주식회사 Optical device, and camera device and electronic apparatus comprising same
CN112955844A (en) * 2020-06-30 2021-06-11 深圳市大疆创新科技有限公司 Target tracking method, device, system and storage medium

Also Published As

Publication number Publication date
KR101399274B1 (en) 2014-05-27

Similar Documents

Publication Publication Date Title
US10560687B2 (en) LED-based integral imaging display system as well as its control method and device
KR101399274B1 (en) multi 3-DIMENSION CAMERA USING MULTI PATTERN BEAM AND METHOD OF THE SAME
US20130335535A1 (en) Digital 3d camera using periodic illumination
US10657664B2 (en) Method and system for image-based image rendering using a multi-camera and depth camera array
US10021340B2 (en) Method and an apparatus for generating data representative of a light field
US10852821B2 (en) Virtual ray tracing method and dynamic light field refocusing display system
US20150146032A1 (en) Light field processing method
CN110462686A (en) For obtaining the device and method of depth information from scene
US10560683B2 (en) System, method and software for producing three-dimensional images that appear to project forward of or vertically above a display medium using a virtual 3D model made from the simultaneous localization and depth-mapping of the physical features of real objects
JP2016537901A (en) Light field processing method
JP2012014690A (en) Apparatus and method for providing three-dimensional augmented reality
Wang et al. 3D scene reconstruction by multiple structured-light based commodity depth cameras
US11682165B2 (en) Methods and systems for augmenting depth data from a depth sensor, such as with data from a multiview camera system
Ziegler et al. Acquisition system for dense lightfield of large scenes
US20150146082A1 (en) Specular and diffuse image generator using polarized light field camera and control method thereof
KR20140121529A (en) Method and apparatus for formating light field image
KR20120045269A (en) Method and apparatus for generating hologram based on 3d mesh modeling and evolution
EP3350772A1 (en) An apparatus and a method for calibrating an optical acquisition system
JP5252703B2 (en) 3D image display device, 3D image display method, and 3D image display program
JP6882266B2 (en) Devices and methods for generating data representing pixel beams
CN105578173A (en) Rapid three-dimensional space projection and camera shooting visual identification system
KR20130019582A (en) 3-dimension camera using focus variable liquid lens applied and method of the same
KR101289008B1 (en) Method for obtaining of Three-Dimensional Integral Imaging using the Depth Camera and Display System thereof
KR20160039447A (en) Spatial analysis system using stereo camera.
Hahne The standard plenoptic camera: Applications of a geometrical light field model

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
J204 Invalidation trial for patent
J301 Trial decision

Free format text: TRIAL NUMBER: 2018100000335; TRIAL DECISION FOR INVALIDATION REQUESTED 20180201

Effective date: 20181227