KR101914469B1 - Camera system and method for generating three dimensional image - Google Patents
Camera system and method for generating three dimensional image Download PDFInfo
- Publication number
- KR101914469B1 KR101914469B1 KR1020120012207A KR20120012207A KR101914469B1 KR 101914469 B1 KR101914469 B1 KR 101914469B1 KR 1020120012207 A KR1020120012207 A KR 1020120012207A KR 20120012207 A KR20120012207 A KR 20120012207A KR 101914469 B1 KR101914469 B1 KR 101914469B1
- Authority
- KR
- South Korea
- Prior art keywords
- light pattern
- subject
- distance
- photographing
- depth information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/14—Details
- G03B21/20—Lamp housings
- G03B21/2006—Lamp housings characterised by the light source
- G03B21/2033—LED or laser light sources
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
본 발명은 카메라 시스템 및 3차원 이미지 생성 방법에 관한 것이다.
즉, 본 발명은 피사체에 광 패턴을 출사하는 광원과; 상기 광 패턴이 포함된 피사체를 촬영하는 촬영부와; 상기 촬영부에서 촬영된 광 패턴의 두께를 검출하는 광 패턴 두께 검출부와; 상기 광 패턴 두께 검출부에서 검출된 광 패턴의 두께로, 상기 광패턴에 대응되는 피사체 영역들과 상기 촬영부의 거리를 추출하는 거리 추출부와; 상기 거리 추출부에서 추출된 상기 피사체 영역들과 상기 촬영부의 거리로 깊이(depth) 정보를 변환하는 제어부와; 상기 제어부에서 변환된 깊이 정보로 상기 피사체의 이미지를 3차원 이미지로 생성하는 3차원 이미지 생성부를 포함한다.The present invention relates to a camera system and a method for generating a three-dimensional image.
That is, the present invention provides a light source device comprising: a light source for emitting a light pattern to a subject; A photographing unit photographing a subject including the light pattern; A light pattern thickness detector for detecting a thickness of the light pattern photographed by the photographing unit; A distance extracting unit for extracting the object regions corresponding to the light pattern and the distance of the photographing unit with the thickness of the light pattern detected by the light pattern thickness detecting unit; A controller for converting depth information into a distance between the subject areas extracted by the distance extracting unit and the photographing unit; And a three-dimensional image generator for generating an image of the subject as a three-dimensional image with the depth information converted by the controller.
Description
본 발명은 카메라 시스템 및 3차원 이미지 생성 방법에 관한 것이다.
The present invention relates to a camera system and a method for generating a three-dimensional image.
일반적으로 3차원 이미지를 획득하기 위해서는 스테레오 카메라(stereo camera)로 피사체를 촬영하는 기술이 사용된다.Generally, in order to acquire a three-dimensional image, a technique of photographing a subject with a stereo camera is used.
이때, 3차원 이미지는, 3차원 공간에 있는 것처럼 보이는 이미지를 말한다.At this time, the three-dimensional image refers to an image that appears to be in a three-dimensional space.
즉, 스테레오 카메라는 두 개의 카메라를 이용하여 피사체를 촬영함으로써, 사용자의 두 눈 사이 간격에 의한 양안 시차에 의한 3차원 입체 이미지를 구현하여, 사용자로 하여금 3차원의 깊이감과 입체감을 느낄 수 있도록 한 것이다.That is, the stereoscopic camera implements the three-dimensional stereoscopic image by the binocular parallax by the interval between the two eyes of the user by photographing the object using the two cameras, thereby enabling the user to feel depth and stereoscopic feeling in three dimensions will be.
인간이 깊이감과 입체감을 느끼는 요인으로는 두 눈 사이의 간격에 의한 양안 시차를 들 수 있지만, 이외에도 심리적, 기억적 요인에도 깊은 관계가 있으며, 이에 따라 3차원 입체 이미지는 상기 양안 시차 및 심리적, 기억적 요인을 활용한 다양한 원리에 의해 구현하는 것이 가능하다.In addition, there is a strong relationship between psychological and memory factors, and therefore, the three-dimensional image can be classified into the binocular parallax, the psychological, and the memory It is possible to implement it by various principles using enemy factors.
이러한 스테레오 카메라로 3차원 이미지를 획득하는 방법은, 스테레오 카메라의 앵글(angle) 오차가 최소화되어야 하므로 제조상에 어려움이 있고, 최소화하더라도 앵글 오차에 의한 이미지 결함이 존재하는 단점이 있다.
A method of acquiring a three-dimensional image using such a stereo camera is disadvantageous in that the angle error of the stereo camera must be minimized, which is difficult to manufacture, and even if minimized, image defects due to angle error exist.
본 발명은 단일 촬영부로 촬영된 피사체 이미지에서 3차원 이미지를 생성할 수 있는 과제를 해결하는 것이다.
The present invention solves the problem that a three-dimensional image can be generated from a subject image photographed with a single photographing part.
본 발명은, According to the present invention,
피사체에 광 패턴을 출사하는 광원과; A light source for emitting a light pattern to a subject;
상기 광 패턴이 포함된 피사체를 촬영하는 촬영부와; A photographing unit photographing a subject including the light pattern;
상기 촬영부에서 촬영된 광 패턴의 두께를 검출하는 광 패턴 두께 검출부와; A light pattern thickness detector for detecting a thickness of the light pattern photographed by the photographing unit;
상기 광 패턴 두께 검출부에서 검출된 광 패턴의 두께로, 상기 광패턴에 대응되는 피사체 영역들과 상기 촬영부의 거리를 추출하는 거리 추출부와; A distance extracting unit for extracting the object regions corresponding to the light pattern and the distance of the photographing unit with the thickness of the light pattern detected by the light pattern thickness detecting unit;
상기 거리 추출부에서 추출된 상기 피사체 영역들과 상기 촬영부의 거리로 깊이(depth) 정보를 변환하는 제어부와; A controller for converting depth information into a distance between the subject areas extracted by the distance extracting unit and the photographing unit;
상기 제어부에서 변환된 깊이 정보로 상기 피사체의 이미지를 3차원 이미지로 생성하는 3차원 이미지 생성부를 포함하는 카메라 시스템이 제공된다.
And a three-dimensional image generating unit for generating an image of the subject as a three-dimensional image with the depth information converted by the controller.
그리고, 본 발명의 일실시예는 상기 광원은, 레이저광을 출사하는 레이저와; 상기 레이저에서 출사된 레이저광을 퍼지게 하는 발산(發散) 렌즈를 포함할 수 있다.According to an embodiment of the present invention, the light source includes: a laser emitting laser light; And a divergent lens for spreading the laser light emitted from the laser.
또한, 상기 광원은, 발광 다이오드(Light emitting diode)일 수 있다.Also, the light source may be a light emitting diode.
더불어, 상기 광 패턴은, 격자 무늬의 광 패턴일 수 있다.In addition, the light pattern may be a lattice pattern light pattern.
또, 상기 깊이 정보는, 상기 피사체 영역들을 X,Y,Z의 좌표로 변환한 데이터일 수 있다.The depth information may be data obtained by converting the subject areas into X, Y, and Z coordinates.
게다가, 상기 피사체 영역들과 상기 촬영부의 거리에 대한 깊이 정보가 수록되어 있는 룩업 테이블(Look-up table)이 저장되어 있는 저장부를 포함하며, 상기 제어부는, 상기 저장부의 룩업 테이블을 이용하여, 상기 추출된 상기 피사체 영역들과 상기 촬영부의 거리에 대응하는 깊이 정보를 변환할 수 있다.In addition, the image processing apparatus may further include a storage unit storing a look-up table in which depth information on the distance between the subject areas and the photographing unit is stored, and the controller uses the lookup table of the storage unit, The depth information corresponding to the distance between the extracted subject areas and the photographing part can be converted.
또, 상기 광원과 상기 촬영부는 일체로 형성될 수 있다.
The light source and the photographing unit may be integrally formed.
본 발명은, According to the present invention,
피사체에 광 패턴을 출사하는 단계와;Emitting a light pattern on a subject;
상기 광 패턴이 포함된 피사체를 촬영부에서 촬영하는 단계와;Capturing an image of a subject including the light pattern in a photographing unit;
상기 촬영된 광 패턴의 두께를 검출하는 단계와;Detecting a thickness of the photographed light pattern;
상기 검출된 광 패턴의 두께로, 상기 광패턴에 대응되는 피사체 영역들과 상기 촬영부의 거리를 추출하는 단계와;Extracting a distance between the object regions corresponding to the light pattern and the photographing unit with the thickness of the detected light pattern;
상기 추출된 상기 피사체 영역들과 상기 촬영부의 거리로 깊이(depth) 정보를 변환하는 단계와;Converting depth information into a distance between the extracted subject areas and the photographing part;
상기 변환된 깊이 정보로 상기 피사체의 이미지를 3차원 이미지로 생성하는 단계를 포함하는 3차원 이미지 생성 방법이 제공된다.
And generating a three-dimensional image of the subject using the converted depth information.
그리고, 본 발명의 일실시예는 상기 추출된 상기 피사체 영역들과 상기 촬영부의 거리로 깊이 정보를 변환하는 단계는, 상기 피사체 영역들과 상기 촬영부의 거리에 대한 깊이 정보가 수록되어 있는 저장부의 룩업 테이블(Look-up table)을 이용하여, 상기 추출된 상기 피사체 영역들과 상기 촬영부의 거리에 대응하는 깊이 정보를 변환하는 단계일 수 있다.According to an embodiment of the present invention, the step of converting the depth information into the extracted distance between the subject areas and the photographing part may include a step of searching for a lookup area of the storage part in which depth information on the distance between the subject areas and the photographing part is stored A step of converting depth information corresponding to the extracted distance between the subject areas and the photographing section using a look-up table.
또, 상기 광 패턴은, 격자 무늬의 광 패턴일 수 있다.
In addition, the light pattern may be a lattice pattern light pattern.
본 발명은 스테레오 카메라(stereo camera)를 사용하지 않더라도, 3차원 이미지를 생성할 수 있는 효과가 있다.The present invention has the effect of generating a three-dimensional image even without using a stereo camera.
또한, 본 발명은 단일 촬영부로 촬영된 피사체 이미지에서 3차원 이미지를 생성함으로써, 스테레오 카메라의 앵글(angle) 오차에 의한 이미지 결함을 방지할 수 있는 효과가 있다.
In addition, the present invention has the effect of preventing an image defect due to an angle error of a stereo camera by generating a three-dimensional image from an object image photographed by a single photographing unit.
도 1은 본 발명의 일 실시예의 카메라 시스템의 구성 블록도
도 2는 본 발명의 일 실시예의 카메라 시스템의 광원 및 촬영부를 설명하기 위한 모식적인 도면
도 3은 본 발명의 일 실시예의 카메라 시스템의 광원에서 피사체로 광 패턴이 출사된 상태를 설명하기 위한 모식적인 도면
도 4는 본 발명의 일 실시예의 카메라 시스템의 3차원 이미지 생성 방법의 흐름도이다.1 is a block diagram of a camera system according to an embodiment of the present invention;
2 is a schematic drawing for explaining a light source and a photographing unit of a camera system according to an embodiment of the present invention
3 is a schematic diagram for explaining a state in which a light pattern is emitted from a light source of a camera system according to an embodiment of the present invention to a subject;
4 is a flowchart of a method for generating a three-dimensional image of a camera system according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 설명하면 다음과 같다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
이 과정에서 도면에 도시된 구성요소의 크기나 형상 등은 설명의 명료성과 편의상 과장되게 도시될 수 있다. 또한, 본 발명의 구성 및 작용은 고려하여 특별히 정의된 용어들은 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 한다.
The sizes and shapes of the components shown in the drawings may be exaggerated for clarity and convenience. In addition, terms specifically defined in consideration of the structure and operation of the present invention may vary depending on the intention or custom of the user, the operator. Definitions of these terms should be based on the content of this specification.
도 1은 본 발명의 일 실시예의 카메라 시스템의 구성 블록도이다.1 is a block diagram of the configuration of a camera system according to an embodiment of the present invention.
본 발명의 일 실시예의 카메라 시스템은 피사체에 광 패턴을 출사하는 광원(110)과; 상기 광 패턴이 포함된 피사체를 촬영하는 촬영부(120)와; 상기 촬영부(120)에서 촬영된 광 패턴의 두께를 검출하는 광 패턴 두께 검출부(130)와; 상기 광 패턴 두께 검출부(130)에서 검출된 광 패턴의 두께로, 상기 광패턴에 대응되는 피사체 영역들과 상기 촬영부(120)의 거리를 추출하는 거리 추출부(140)와; 상기 거리 추출부(140)에서 추출된 상기 피사체 영역들과 상기 촬영부(120)의 거리로 깊이(depth) 정보를 변환하는 제어부(160)와; 상기 제어부(160)에서 변환된 깊이 정보로 상기 피사체의 이미지를 3차원 이미지로 생성하는 3차원 이미지 생성부(170)를 포함한다.A camera system according to an embodiment of the present invention includes a light source (110) for emitting a light pattern to a subject; A photographing
그러므로, 카메라 시스템은 상기 광원(110)에서 피사체에 광 패턴을 출사하고, 상기 촬영부(120)는 상기 광 패턴이 포함된 피사체를 촬영한다.Therefore, the camera system emits a light pattern to the subject from the
그리고, 상기 광 패턴 두께 검출부(130)는 상기 촬영부(120)에서 촬영된 광 패턴의 두께를 검출하고, 상기 거리 추출부(140)는 상기 광 패턴 두께 검출부(130)에서 검출된 광 패턴의 두께로, 상기 광패턴에 대응되는 피사체 영역들과 상기 촬영부(120)의 거리를 추출한다.The light
그리고, 상기 제어부(160)는 상기 거리 추출부(140)에서 추출된 상기 피사체 영역들과 상기 촬영부(120)의 거리로 깊이(depth) 정보를 변환하며, 상기 3차원 이미지 생성부(170)는 상기 제어부(160)에서 변환된 깊이 정보로 상기 피사체의 이미지를 3차원 이미지로 생성하게 된다.The
여기서, 상기 깊이 정보는 상기 피사체 영역들을 X,Y,Z의 좌표로 변환한 데이터일 수 있다.Here, the depth information may be data obtained by converting the subject areas into X, Y, Z coordinates.
또한, 본 발명의 카메라 시스템은 피사체 영역들과 상기 촬영부(120)의 거리에 대한 깊이 정보가 수록되어 있는 룩업 테이블(Look-up table)이 저장되어 있는 저장부(150)를 포함할 수 있고, 이때, 상기 제어부(160)는 상기 저장부(150)의 룩업 테이블을 이용하여, 상기 추출된 상기 피사체 영역들과 상기 촬영부의 거리에 대응하는 깊이 정보를 변환할 수 있도록 구성할 수 있다.In addition, the camera system of the present invention may include a
따라서, 본 발명은 스테레오 카메라(stereo camera)를 사용하지 않더라도, 3차원 이미지를 생성할 수 있는 것이다.Therefore, the present invention can generate a three-dimensional image without using a stereo camera.
그리고, 본 발명은 단일 촬영부로 촬영된 피사체 이미지에서 3차원 이미지를 생성함으로써, 스테레오 카메라의 앵글(angle) 오차에 의한 이미지 결함을 방지할 수 있다.
In addition, the present invention can prevent image defects due to an angle error of a stereo camera by generating a three-dimensional image from a subject image photographed with a single photographing unit.
도 2는 본 발명의 일 실시예의 카메라 시스템의 광원 및 촬영부를 설명하기 위한 모식적인 도면이고, 도 3은 본 발명의 일 실시예의 카메라 시스템의 광원에서 피사체로 광 패턴이 출사된 상태를 설명하기 위한 모식적인 도면이다.FIG. 2 is a schematic view illustrating a light source and a photographing unit of a camera system according to an embodiment of the present invention. FIG. 3 is a diagram illustrating a state in which a light pattern is emitted from a light source of a camera system of an embodiment of the present invention to a subject. It is a schematic drawing.
카메라 시스템의 광원(110)은 도 2와 같이, 피사체로 패턴된 광인 광 패턴(A)이 출사된다.As shown in Fig. 2, the
그리고, 상기 광원(110)에서 출사된 광 패턴(A)은 상기 피사체의 영역들에 조사되고, 상기 광 패턴이 포함된 피사체의 이미지(B)를 촬영부(120)에서 촬영하는 경우, 도 3에 도시된 바와 같이, 광 패턴 '300'은 촬영된 피사체(200)의 이미지에 나타나게 된다.When the light pattern A emitted from the
이때, 상기 촬영된 피사체의 이미지에 나타나는 광 패턴은 상기 피사체의 영역들과 촬영부 간의 거리에 따라 상기 광 패턴(A)의 두께는 달라진다.At this time, the thickness of the light pattern A varies depending on the distance between the regions of the subject and the photographing unit, which is shown in the photographed image of the subject.
즉, 상기 광 패턴의 두께가 두꺼우면 멀리 있는 사물이고, 두께가 얇으면 상대적으로 가까이 있는 사물이다.That is, if the thickness of the light pattern is thick, the object is far away, and if the thickness is thin, it is relatively close to the object.
상기 광원(110)에서 출사된 광 패턴(A)은 상기 피사체의 영역들에 조사되고, 상기 피사체의 영역들과 촬영부(120) 간의 거리에 따라 상기 광 패턴(A)의 두께는 달라진다.The light pattern A emitted from the
한편, 상기 광원(110)은 레이저광을 출사하는 레이저와; 상기 레이저에서 출사된 레이저광을 퍼지게 하는 발산(發散) 렌즈를 포함하여 구성할 수 있다.The
또한, 상기 광원(110)은 발광 다이오드(Light emitting diode)로 구성할 수 있다.In addition, the
그리고, 상기 광원(110)에서 출사된 광 패턴은 격자 무늬의 광 패턴일 수 있다.The light pattern emitted from the
또, 상기 광원(110)과 상기 촬영부(120)는 일체로 형성되어 있을 수 있다.
In addition, the
도 4는 본 발명의 일 실시예의 카메라 시스템의 3차원 이미지 생성 방법의 흐름도이다.4 is a flowchart of a method for generating a three-dimensional image of a camera system according to an embodiment of the present invention.
본 발명의 일 실시예의 카메라 시스템의 3차원 이미지 생성 방법은 피사체에 광 패턴을 출사한다.(S100단계)A method of generating a three-dimensional image of a camera system according to an embodiment of the present invention emits a light pattern to a subject (step S100)
이어서, 상기 광 패턴이 포함된 피사체를 촬영부에서 촬영한다.(S110단계)Subsequently, the photographing unit photographs the subject including the light pattern (step S110)
그 후, 상기 촬영된 광 패턴의 두께를 검출한다.(S120단계)Thereafter, the thickness of the photographed light pattern is detected (step S120)
연이어, 상기 검출된 광 패턴의 두께로, 상기 광패턴에 대응되는 피사체 영역들과 상기 촬영부의 거리를 추출한다.(S130단계)Subsequently, the object regions corresponding to the light pattern and the distance of the photographing unit are extracted by the thickness of the detected light pattern (Step S130)
그 다음, 상기 추출된 상기 피사체 영역들과 상기 촬영부의 거리로 깊이(depth) 정보를 변환한다.(S140단계)Next, depth information is converted into the distance between the extracted subject areas and the photographing part (step S140)
여기서, 상기 'S140단계'는 상기 피사체 영역들과 상기 촬영부의 거리에 대한 깊이 정보가 수록되어 있는 저장부의 룩업 테이블(Look-up table)을 이용하여, 상기 추출된 상기 피사체 영역들과 상기 촬영부의 거리에 대응하는 깊이 정보를 변환하는 단계일 수 있다.In step S140, a look-up table of a storage unit storing depth information on the distance between the subject areas and the photographing unit is used. The extracted subject areas and the photographing unit And converting the depth information corresponding to the distance.
계속, 상기 변환된 깊이 정보로 상기 피사체의 이미지를 3차원 이미지로 생성한다.(S150단계)
Subsequently, the image of the subject is generated as a three-dimensional image with the converted depth information (step S150)
이상에서 본 발명에 따른 실시예들이 설명되었으나, 이는 예시적인 것에 불과하고, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 범위의 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 다음의 특허청구범위에 의해서 정해져야 할 것이다.While the present invention has been described in connection with certain exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. Accordingly, the true scope of the present invention should be determined by the following claims.
Claims (10)
상기 광 패턴이 포함된 피사체를 촬영하는 촬영부와;
상기 촬영부에서 촬영된 광 패턴의 라인의 두께를 길이 단위로 검출하는 광 패턴 라인 두께 검출부와;
상기 광 패턴 라인 두께 검출부에서 검출된 광 패턴의 라인의 두께로, 상기 광 패턴에 대응되는 피사체 영역들과 상기 촬영부의 거리를 추출하는 거리 추출부와;
상기 거리 추출부에서 추출된 상기 피사체 영역들과 상기 촬영부의 거리로 깊이(depth) 정보를 변환하는 제어부와;
상기 제어부에서 변환된 깊이 정보로 상기 피사체의 이미지를 3차원 이미지로 생성하는 3차원 이미지 생성부를 포함하는 카메라 시스템.A light source for emitting a light pattern to a subject;
A photographing unit photographing a subject including the light pattern;
A light pattern line thickness detector for detecting the thickness of a line of the light pattern photographed by the photographing unit in units of length;
A distance extracting unit for extracting the object regions corresponding to the light pattern and the distance of the photographing unit with the line thickness of the light pattern detected by the light pattern line thickness detecting unit;
A controller for converting depth information into a distance between the subject areas extracted by the distance extracting unit and the photographing unit;
And a three-dimensional image generation unit for generating a three-dimensional image of the subject based on the depth information converted by the control unit.
상기 광원은,
레이저광을 출사하는 레이저와;
상기 레이저에서 출사된 레이저광을 퍼지게 하는 발산(發散) 렌즈를 포함하는 카메라 시스템.
The method according to claim 1,
The light source includes:
A laser emitting a laser beam;
And a diverging lens for spreading the laser light emitted from the laser.
상기 광원은,
발광 다이오드(Light emitting diode)인 카메라 시스템.
The method according to claim 1,
The light source includes:
A camera system that is a light emitting diode.
상기 광 패턴은,
격자 무늬의 광 패턴인 카메라 시스템.
The method according to claim 1,
The light pattern may include,
A camera system that is a patterned light pattern.
상기 깊이 정보는,
상기 피사체 영역들을 X,Y,Z의 좌표로 변환한 데이터인 카메라 시스템.
The method according to claim 1,
Wherein,
Wherein the subject areas are data obtained by converting the subject areas into X, Y, Z coordinates.
상기 피사체 영역들과 상기 촬영부간의 거리와 상기 광 패턴의 라인의 두께간의 관계를 나타내는 깊이 정보가 수록되어 있는 룩업 테이블(Look-up table)이 저장되어 있는 저장부를 포함하며,
상기 제어부는,
상기 저장부의 룩업 테이블을 이용하여, 상기 추출된 상기 피사체 영역들과 상기 촬영부의 거리에 대응하는 깊이 정보를 변환하는 카메라 시스템.The method according to claim 1,
And a storage unit in which a look-up table storing depth information indicating a relationship between a distance between the subject areas and the photographing unit and a thickness of the line of the optical pattern is stored,
Wherein,
And the depth information corresponding to the distance between the extracted subject areas and the photographing part is converted using the lookup table of the storage part.
상기 광원과 상기 촬영부는 일체로 형성되어 있고,
상기 촬영부는 상기 거리 추출부에서 추출된 깊이 정보를 획득한 이후, 상기 광 패턴이 없는 상태의 피사체를 다시 촬영하고,
상기 광 패턴이 없는 상태에서 촬영된 피사체에 대한 영상과 상기 깊이 정보를 합성하여 3D 이미지를 생성함으로써, 2차례 촬영을 통해 하나의 촬영부로 3D 이미지를 생성하는 카메라 시스템.The method of claim 6,
Wherein the light source and the photographing unit are integrally formed,
Wherein the photographing unit photographs the subject without the light pattern again after acquiring the depth information extracted by the distance extracting unit,
And a 3D image is generated by combining the image of the photographed subject and the depth information in a state in which there is no light pattern, thereby generating a 3D image by one photographing unit through two photographing operations.
상기 광 패턴이 포함된 피사체를 촬영부에서 촬영하는 단계와;
상기 촬영된 광 패턴의 라인의 두께를 길이 단위로 검출하는 단계와;
상기 검출된 광 패턴의 라인의 두께로, 상기 광 패턴에 대응되는 피사체 영역들과 상기 촬영부의 거리를 추출하는 단계와;
상기 추출된 상기 피사체 영역들과 상기 촬영부의 거리로 깊이(depth) 정보를 변환하는 단계와;
상기 변환된 깊이 정보로 상기 피사체의 이미지를 3차원 이미지로 생성하는 단계를 포함하는 3차원 이미지 생성 방법.Emitting a light pattern on a subject;
Capturing an image of a subject including the light pattern in a photographing unit;
Detecting a thickness of a line of the photographed light pattern in units of length;
Extracting a distance between the object regions corresponding to the light pattern and the photographing unit with a line thickness of the detected light pattern;
Converting depth information into a distance between the extracted subject areas and the photographing part;
And generating a three-dimensional image of the subject using the converted depth information.
상기 추출된 상기 피사체 영역들과 상기 촬영부의 거리로 깊이 정보를 변환하는 단계는,
상기 피사체 영역들과 상기 촬영부의 거리에 대한 깊이 정보가 수록되어 있는 저장부의 룩업 테이블(Look-up table)을 이용하여, 상기 추출된 상기 피사체 영역들과 상기 촬영부의 거리에 대응하는 깊이 정보를 변환하는 단계인 3차원 이미지 생성 방법.
The method of claim 8,
Wherein the step of converting the depth information into the distance between the extracted subject areas and the photographing part comprises:
The depth information corresponding to the distance between the extracted subject areas and the photographing part is converted using a look-up table of the storage part in which depth information on the distance between the subject areas and the photographing part is stored, A method of generating a three-dimensional image.
상기 광 패턴은,
격자 무늬의 광 패턴인 3차원 이미지 생성 방법.
The method of claim 8,
The light pattern may include,
A method for generating a three-dimensional image, which is a pattern of lattice patterns.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120012207A KR101914469B1 (en) | 2012-02-07 | 2012-02-07 | Camera system and method for generating three dimensional image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120012207A KR101914469B1 (en) | 2012-02-07 | 2012-02-07 | Camera system and method for generating three dimensional image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130091015A KR20130091015A (en) | 2013-08-16 |
KR101914469B1 true KR101914469B1 (en) | 2018-11-02 |
Family
ID=49216361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120012207A KR101914469B1 (en) | 2012-02-07 | 2012-02-07 | Camera system and method for generating three dimensional image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101914469B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102073211B1 (en) * | 2019-07-30 | 2020-02-05 | 주식회사 나이콤 | Apparatus and method for detecting modify book |
KR102450629B1 (en) * | 2021-05-07 | 2022-10-07 | 한국자동차연구원 | Thermal image camera apparatus and control method thereof |
KR102673660B1 (en) * | 2023-12-22 | 2024-06-11 | 주식회사 텐일레븐 | Rendering device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003090716A (en) * | 1998-05-25 | 2003-03-28 | Matsushita Electric Ind Co Ltd | Camera |
JP2003269915A (en) * | 2002-03-13 | 2003-09-25 | Omron Corp | Monitor for three-dimensional space |
JP2005091115A (en) * | 2003-09-16 | 2005-04-07 | Sanyo Electric Co Ltd | Depth measuring instrument |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101408959B1 (en) * | 2006-03-14 | 2014-07-02 | 프라임센스 엘티디. | Depth-varying light fields for three dimensional sensing |
KR20110006776A (en) * | 2009-07-15 | 2011-01-21 | 현대로템 주식회사 | Stereoscopic image acquisition apparatus |
-
2012
- 2012-02-07 KR KR1020120012207A patent/KR101914469B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003090716A (en) * | 1998-05-25 | 2003-03-28 | Matsushita Electric Ind Co Ltd | Camera |
JP2003269915A (en) * | 2002-03-13 | 2003-09-25 | Omron Corp | Monitor for three-dimensional space |
JP2005091115A (en) * | 2003-09-16 | 2005-04-07 | Sanyo Electric Co Ltd | Depth measuring instrument |
Also Published As
Publication number | Publication date |
---|---|
KR20130091015A (en) | 2013-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108369742B (en) | Optimized object scanning using sensor fusion | |
CN106550228B (en) | The equipment for obtaining the depth map of three-dimensional scenic | |
KR102130187B1 (en) | Active stereo with satellite device or devices | |
JP5260705B2 (en) | 3D augmented reality provider | |
KR101816170B1 (en) | Apparatus and method for obtaining 3D depth information | |
KR101394809B1 (en) | A method and systems for obtaining an improved stereo image of an object | |
JP6187640B2 (en) | Image composition method and apparatus | |
JP6940843B2 (en) | Underwater observation system | |
KR20210090134A (en) | Apparatus and method for extracting depth map | |
EP2239538A1 (en) | Apparatus for detecting three-dimensional distance | |
JP2013033206A (en) | Projection display device, information processing device, projection display system, and program | |
KR20110133587A (en) | A method for determining the relative position of a first and a second imaging device and devices therefore | |
WO2009069958A3 (en) | Method and apparatus for generating multi-viewpoint depth map, method for generating disparity of multi-viewpoint image | |
TW201413646A (en) | Image processing system | |
WO2007058900A3 (en) | Calibrating an imaging device for generating three dimensional suface models of moving objects | |
EP3531688A3 (en) | Range differentiators for auto-focusing in optical imaging systems | |
KR101914469B1 (en) | Camera system and method for generating three dimensional image | |
JP2017115388A5 (en) | ||
CN108876840A (en) | A method of vertical or forward projection 3-D image is generated using virtual 3d model | |
JP2013042379A (en) | Imaging apparatus | |
TW201734708A (en) | Three-dimensional imaging using frequency domain-based processing | |
KR20130067842A (en) | Image based object information detecting method and apparatus | |
KR101578891B1 (en) | Apparatus and Method Matching Dimension of One Image Up with Dimension of the Other Image Using Pattern Recognition | |
US10334233B2 (en) | Portable device that controls photography mode, and control method therefor | |
KR101275127B1 (en) | 3-dimension camera using focus variable liquid lens applied and method of the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |