KR20170076477A - Method and device for acquiring distance information - Google Patents
Method and device for acquiring distance information Download PDFInfo
- Publication number
- KR20170076477A KR20170076477A KR1020150186778A KR20150186778A KR20170076477A KR 20170076477 A KR20170076477 A KR 20170076477A KR 1020150186778 A KR1020150186778 A KR 1020150186778A KR 20150186778 A KR20150186778 A KR 20150186778A KR 20170076477 A KR20170076477 A KR 20170076477A
- Authority
- KR
- South Korea
- Prior art keywords
- projection
- light
- subject
- projection light
- order
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000003287 optical effect Effects 0.000 claims description 63
- 230000033001 locomotion Effects 0.000 claims description 39
- 230000000737 periodic effect Effects 0.000 claims description 19
- 230000008859 change Effects 0.000 description 23
- 238000003384 imaging method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000002310 reflectometry Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 4
- 230000001934 delay Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 229910001218 Gallium arsenide Inorganic materials 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/32—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4814—Constructional features, e.g. arrangements of optical elements of transmitters alone
- G01S7/4815—Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4912—Receivers
- G01S7/4915—Time delay measurement, e.g. operational details for pixel components; Phase measurement
-
- H04N13/0022—
-
- H04N13/0203—
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Measurement Of Optical Distance (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
Abstract
디바이스가 피사체에 대한 거리 정보를 획득함에 있어서, 투사하는 투사광을 제어하여 오차를 효율적으로 감소시킬 수 있는 거리 정보 획득 방법이 제공된다.There is provided a distance information acquiring method capable of efficiently reducing an error by controlling a projection light to be projected when a device acquires distance information with respect to a subject.
Description
개시된 내용은 거리 정보를 획득하는 디바이스가 거리 정보를 획득하는 방법에 관한 것으로, 더욱 상세하게는 디바이스가 3차원 영상을 획득하는 방법에 관한 것이다.The disclosed subject matter relates to a method for obtaining distance information by a device that obtains distance information, and more particularly to a method for a device to obtain a three-dimensional image.
최근, 깊이감 있는 영상을 표시할 수 있는 3D 디스플레이 장치의 발전 및 수요 증가와 함께 3D 컨텐츠의 중요성이 부각되고 있다. 이에 따라, 일반 사용자가 3D 컨텐츠를 직접 제작할 수 있는 3D 카메라와 같은 3차원 영상 획득 장치가 연구되고 있다. 이러한 3D 카메라는 한번의 촬영으로 기존의 2차원 컬러 영상 정보와 함께 깊이(depth) 정보도 얻을 수 있어야 한다.In recent years, the importance of 3D contents has been highlighted along with the development of 3D display devices capable of displaying deep-seated images and the increasing demand. Accordingly, a three-dimensional image acquiring device such as a 3D camera capable of directly producing 3D contents by a general user is being studied. Such a 3D camera should be able to acquire depth information together with existing two-dimensional color image information in one shot.
피사체의 표면들과 3D 카메라 사이의 거리에 관한 깊이 정보는, 두 대의 카메라를 이용한 양안 입체시(Stereo Vision) 방법이나 구조광(Structured Light)과 카메라를 이용한 삼각 측량법(Triangulation)을 이용하여 얻을 수 있다. 그러나 이러한 방법은 피사체의 거리가 멀어질수록 깊이 정보에 대한 정확도가 급격히 저하되고 피사체의 표면 상태에 의존적이어서 정밀한 깊이 정보를 얻기 어렵다.Depth information on the distance between the surface of the subject and the 3D camera can be obtained by using a stereoscopic vision method using two cameras or a triangulation method using a structured light and a camera have. However, in this method, it is difficult to obtain accurate depth information because the accuracy of the depth information is drastically deteriorated as the distance of the subject becomes farther away, and it depends on the surface condition of the subject.
이러한 문제를 개선하기 위하여 광시간비행법(Time-of-Flight; TOF)이 도입되었다. TOF 기술은 조명광을 피사체에 조사한 후, 피사체로부터 반사되는 광이 수광부에서 수광되기까지의 광 비행시간을 측정하는 방법이다. TOF 기술에 따르면, 발광 다이오드(LED) 또는 레이저 다이오드(LD)를 포함하는 조명 광학계를 이용하여 특정 파장의 빛(예컨대, 850nm의 근적외선)을 피사체에 투사하고, 피사체로부터 반사된 동일한 파장의 빛을 수광부에서 수광한 후, 기지의 이득 파형을 갖는 변조기로 상기 수광된 빛을 변조하는 등 깊이 정보를 획득하기 위한 일련의 처리 과정을 거치게 된다. 이러한 일련의 광 처리 과정에 따라 다양한 TOF 기술이 소개되어 있다.Time-of-flight (TOF) has been introduced to solve this problem. TOF technology is a method of measuring the light flight time from the time when the light reflected from the subject is received by the light receiving unit after illuminating the subject with the illumination light. According to the TOF technique, light of a specific wavelength (for example, near-infrared light of 850 nm) is projected to a subject using an illumination optical system including a light emitting diode (LED) or a laser diode (LD), and light of the same wavelength After receiving the light by the light receiving unit, the received light is modulated by a modulator having a known gain waveform, and a series of processes are performed to obtain depth information. A variety of TOF technologies are introduced in this series of optical processes.
디바이스가 피사체에 대한 거리 정보를 획득함에 있어서, 투사하는 투사광을 제어하여 오차를 효율적으로 감소시킬 수 있는 거리 정보 획득 방법이 제공된다.There is provided a distance information acquiring method capable of efficiently reducing an error by controlling a projection light to be projected when a device acquires distance information with respect to a subject.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제 1 측면은, 디바이스가 피사체에 대한 정보를 획득하는 방법에 있어서, 상기 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 상기 피사체의 위치 및/또는 외부 수신 입력에 기초하여 결정하는 단계; 상기 투사광의 투사 순서에 따라 상기 N개의 상이한 투사광을 상기 피사체에 순차적으로 투사하는 단계; 상기 피사체에서 반사된 N개의 반사광을 변조(modulation)하여 N개의 변조된 반사광을 획득하는 단계; 및 상기 N개의 변조된 반사광을 이용하여 상기 피사체에 대한 거리 정보를 획득하는 단계를 포함할 수 있다.According to a first aspect of the present invention, there is provided a method of acquiring information about a subject, the method comprising: acquiring N images sequentially projected on the subject, wherein N is a natural number of 3 or more ) Based on the position of the object and / or an external received input; Sequentially projecting the N different projection lights onto the subject according to a projection order of the projection light; Modulating N reflected light reflected from the subject to obtain N modulated reflected light; And obtaining distance information on the object using the N modulated reflected light.
또한, 상기 투사광의 투사 순서를 상기 피사체의 위치 및/또는 상기 외부 수신 입력에 기초하여 결정하는 단계는 상기 디바이스 및 상기 피사체간의 거리 정보를 획득하고, 상기 획득한 거리 정보에 기초하여 상기 투사광의 투사 순서를 결정할 수 있다.The step of determining the projection order of the projection light on the basis of the position of the object and / or the external reception input may include: acquiring distance information between the device and the object; projecting the projection light on the basis of the obtained distance information; The order can be determined.
또한, 상기 디바이스 및 상기 피사체간의 거리 정보는 실시간으로 획득될 수 있다.In addition, distance information between the device and the subject can be obtained in real time.
또한, 상기 투사광의 투사 순서를 상기 피사체의 위치 및/또는 상기 외부 수신 입력에 기초하여 결정하는 단계는 상기 디바이스 및 상기 피사체간의 거리 정보를 획득하고, 상기 획득한 거리 정보에 기초하여 상기 피사체에 대한 모션 블러(motion blur)를 최소화시키기 위한 상기 투사광의 투사 순서를 결정할 수 있다.The step of determining the projection order of the projection light on the basis of the position of the subject and / or the external reception input may further include acquiring distance information between the device and the subject, and determining, based on the obtained distance information, The projection order of the projection light for minimizing the motion blur can be determined.
또한, 상기 투사광의 투사 순서를 상기 피사체의 위치 및/또는 상기 외부 수신 입력에 기초하여 결정하는 단계는 기설정된 복수개의 투사 순서들 중에서 상기 피사체에 대한 모션 블러를 최소화시키는 투사 순서를 상기 투사광의 투사 순서로 결정할 수 있다.The step of determining the projection order of the projection light on the basis of the position of the object and / or the external reception input may include determining a projection order that minimizes motion blur for the object among a plurality of predetermined projection orders, Can be determined in order.
또한, 상기 N개의 상이한 투사광은 주기가 서로 같고, 크기와 위상 중에서 적어도 하나가 서로 다른 주기파를 포함할 수 있다.In addition, the N different projection lights may include periodic waves having the same period and at least one of a magnitude and a phase different from each other.
또한, 상기 피사체에서 반사된 상기 N개의 반사광을 변조(modulation)하여 상기 N개의 변조된 반사광을 획득하는 단계는 이득 파형을 갖는 광변조 신호를 이용해 상기 N개의 반사광을 변조(modulation)하여 상기 N개의 변조된 반사광을 획득할 수 있다.The step of modulating the N reflected light reflected from the subject to obtain the N modulated reflected light may include modulating the N reflected light using an optical modulated signal having a gain waveform to generate N The modulated reflected light can be obtained.
또한, 상기 광변조 신호는 투사광과 동일한 주기를 갖는 주기파를 포함할 수 있다.In addition, the optical modulation signal may include a periodic wave having the same period as the projected light.
또한, 상기 N의 상이한 투사광은 서로 위상이 상이하고, 상기 N개의 상이한 투사광 사이에 360도를 N 등분한 위상차가 존재할 수 있다.In addition, the N different projected lights may have different phases from each other, and there may be a phase difference of N degrees of 360 degrees between the N different projected lights.
또한, 상기 투사광의 투사 순서를 상기 피사체의 위치 및/또는 상기 외부 수신 입력에 기초하여 결정하는 단계는 사용자의 입력에 기초하여 결정된 외부 수신 입력에 기초하여 상기 투사광의 투사 순서를 결정할 수 있다.The step of determining the projection order of the projection light based on the position of the object and / or the external reception input may determine the projection order of the projection light based on the external reception input determined based on the input of the user.
또한, 본 개시의 제 2 측면은, 피사체에 대한 정보를 획득하는 디바이스에 있어서, 상기 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 상기 피사체의 위치 및/또는 외부 수신 입력에 기초하여 결정하는 투사광 제어부; 상기 투사광의 투사 순서에 따라 상기 N개의 상이한 투사광을 상기 피사체에 순차적으로 투사하는 광원; 상기 피사체에서 반사된 N개의 반사광을 변조(modulation)하여 N개의 변조된 반사광을 획득하는 변조부(modulator); 및 상기 N개의 변조된 반사광을 이용하여 상기 피사체에 대한 거리 정보를 획득하는 제어부를 포함할 수 있다.According to a second aspect of the present disclosure, there is provided a device for acquiring information on a subject, the device comprising: a projecting sequence of N projected light beams to be projected sequentially to the subject (where N is a natural number of 3 or more) And / or an external reception input; A light source sequentially projecting the N different projection lights onto the subject according to a projection order of the projection lights; A modulator for modulating N reflected light reflected from the subject to obtain N modulated reflected light; And a controller for obtaining distance information on the object using the N modulated reflected lights.
또한, 상기 투사광 제어부는 상기 디바이스 및 상기 피사체간의 거리 정보를 획득하고, 상기 획득한 거리 정보에 기초하여 상기 투사광의 투사 순서를 결정할 수 있다.The projection light control unit may acquire distance information between the device and the subject, and may determine a projection order of the projection light based on the obtained distance information.
또한, 상기 디바이스 및 상기 피사체간의 거리 정보는 실시간으로 획득될 수 있다.In addition, distance information between the device and the subject can be obtained in real time.
또한, 상기 투사광 제어부는 상기 디바이스 및 상기 피사체간의 거리 정보를 획득하고, 상기 획득한 거리 정보에 기초하여 상기 피사체에 대한 모션 블러(motion blur)를 최소화시키기 위한 상기 투사광의 투사 순서를 결정할 수 있다.In addition, the projection light control unit may acquire distance information between the device and the subject, and may determine a projection order of the projection light to minimize motion blur for the subject based on the obtained distance information .
또한, 상기 투사광 제어부는 기설정된 복수개의 투사 순서들 중에서 상기 피사체에 대한 모션 블러를 최소화시키는 투사 순서를 상기 투사광의 투사 순서로 결정할 수 있다.In addition, the projection light control unit may determine a projection order that minimizes motion blur for the subject among a plurality of preset projection orders in the projection order of the projection light.
또한, 상기 N개의 상이한 투사광은 주기가 서로 같고, 크기와 위상 중에서 적어도 하나가 서로 다른 주기파를 포함할 수 있다.In addition, the N different projection lights may include periodic waves having the same period and at least one of a magnitude and a phase different from each other.
또한, 상기 변조부는 이득 파형을 갖는 광변조 신호를 이용해 상기 N개의 반사광을 변조(modulation)하여 상기 N개의 변조된 반사광을 획득할 수 있다.The modulator may modulate the N reflected light using the optical modulating signal having a gain waveform to obtain the N modulated reflected light.
또한, 상기 광변조 신호는 투사광과 동일한 주기를 갖는 주기파를 포함할 수 있다.In addition, the optical modulation signal may include a periodic wave having the same period as the projected light.
또한, 상기 N의 상이한 투사광은 서로 위상이 상이하고, 상기 N개의 상이한 투사광 사이에 360도를 N 등분한 위상차가 존재할 수 있다.In addition, the N different projected lights may have different phases from each other, and there may be a phase difference of N degrees of 360 degrees between the N different projected lights.
또한, 본 개시의 제 3 측면은 제 1 측면의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 비일시적 기록 매체를 제공할 수 있다.In addition, the third aspect of the present disclosure can provide a computer-readable non-transitory medium in which a program for implementing the method of the first aspect is recorded.
디바이스가 피사체에 대한 거리 정보를 획득함에 있어서, 투사하는 투사광을 제어함으로써, 오차를 효율적으로 감소시킬 수 있다.In the case where the device obtains the distance information with respect to the object, the error can be effectively reduced by controlling the projection light to be projected.
도 1은 광시간비행법(TOF)을 이용하여 거리 정보를 획득할 수 있는 디바이스의 예시적인 구조를 개략적으로 도시한다.
도 2는 N개의 상이한 반사광을 변조한 후 촬상소자에서 N개의 상이한 영상을 생성하는 과정을 도시한다.
도 3은 하나의 동일한 투사광과 N개의 상이한 광변조 신호로 N개의 상이한 영상을 생성하는 과정을 도시한다.
도 4는 위상이 서로 상이한 4개의 투사광으로 4개의 상이한 영상을 생성하고, 생성된 4개의 상이한 영상을 이용하여 거리 정보를 획득하는 방법을 도시한다.
도 5는 반사광 및 광변조 신호를 이용하여 CIS(Contact Image Sensors) 이미지를 획득하는 방법을 도시한다.
도 6은 위상이 서로 상이한 4개의 투사광의 일 예를 도시한다.
도 7은 피사체가 움직일 경우 위상이 서로 상이한 4개의 투사광에 의해 획득되는 영상의 밝기 변화를 나타내는 도면이다.
도 8은 피사체가 움직일 경우 투사되는 투사광의 순서를 제어하여 거리 정보를 획득하는 일례를 도시한다.
도 9는 피사체가 움직일 경우 투사되는 투사광의 순서를 제어하여 거리 정보를 획득하는 다른 예를 도시한다.
도 10은 피사체와 디바이스간의 거리에 따라 투사광의 투사 순서를 결정하는 방법을 설명하기 위한 도면이다.
도 11은 피사체와 디바이스간의 거리에 따라 투사광의 순서를 제어하여 거리 정보를 획득하는 일례를 나타내는 도면이다.
도 12는 일 실시 예에 따른 디바이스의 구성을 설명하기 위한 블록도이다.
도 13은 투사광의 제어를 통해 거리 정보를 획득하는 디바이스의 예시적인 구조를 개략적으로 도시한다.
도 14는 일 실시 예에 따른 디바이스가 N개의 투사광을 이용하여 거리 정보를 획득하는 방법을 나타내는 흐름도이다.
도 15는 일 실시 예에 따른 디바이스가 N개의 위상이 상이한 투사광을 이용하여 거리 정보를 획득하는 방법을 나타내는 흐름도이다.
도 16는 일 실시 예에 따른 디바이스가 외부 수신 입력에 기초하여 결정된 투사광의 투사 순서를에 따라 상이한 투사광을 투사하여 거리 정보를 획득하는 방법을 나타내는 흐름도이다.Figure 1 schematically illustrates an exemplary structure of a device that can acquire distance information using optical time-of-flight (TOF).
FIG. 2 shows a process of modifying N different reflected lights and then generating N different images in the imaging device.
3 shows a process of generating N different images with one and the same projection light and N different optical modulation signals.
FIG. 4 shows a method of generating four different images with four projected lights having different phases and acquiring distance information using the generated four different images.
5 illustrates a method of obtaining Contact Image Sensors (CIS) images using reflected light and light modulated signals.
Fig. 6 shows an example of four projected lights whose phases are different from each other.
FIG. 7 is a diagram showing a change in brightness of an image obtained by four projected lights whose phases are different from each other when a subject moves. FIG.
Fig. 8 shows an example in which distance information is acquired by controlling the order of the projected light when the subject moves.
9 shows another example of obtaining distance information by controlling the order of the projected light when the subject moves.
10 is a diagram for explaining a method of determining the projection order of the projection light according to the distance between the subject and the device.
11 is a view showing an example of obtaining distance information by controlling the order of projection light according to the distance between a subject and a device.
12 is a block diagram illustrating a configuration of a device according to an embodiment.
Fig. 13 schematically shows an exemplary structure of a device for obtaining distance information through the control of projection light.
14 is a flowchart illustrating a method for a device according to an embodiment to acquire distance information using N projected lights.
15 is a flow diagram illustrating a method for a device according to an embodiment to acquire distance information using N different-phase projected lights.
16 is a flowchart showing a method of a device according to an embodiment for projecting different projection light according to a projection order of projection light determined based on an external reception input to acquire distance information.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Brief Description of the Drawings The advantages and features of the present invention, and how to accomplish them, will become apparent with reference to the embodiments described hereinafter with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. The terms used in this specification will be briefly described and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.When an element is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements, without departing from the spirit or scope of the present invention. Also, as used herein, the term "part " refers to a hardware component such as software, FPGA or ASIC, and" part " However, "part" is not meant to be limited to software or hardware. "Part" may be configured to reside on an addressable storage medium and may be configured to play back one or more processors. Thus, by way of example, and not limitation, "part (s) " refers to components such as software components, object oriented software components, class components and task components, and processes, Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functions provided in the components and "parts " may be combined into a smaller number of components and" parts " or further separated into additional components and "parts ".
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.
명세서 전체에서 “거리(distance)”란 공간적으로 떨어진 길이를 의미할 수 있으며, “깊이(depth)”는 거리의 일종일 수 있다. 예를 들면, 거리 정보(distance information)는 깊이 정보(depth information)를 포함할 수 있다.Throughout the specification, " distance " can mean a spatially separated length, and " depth " For example, the distance information may include depth information.
명세서 전체에서 이미지(image)는 CCD(Charge Coupled Device) 이미지 및 CIS(Contact Image Sensors 또는 CMOS Image Sensors) 이미지를 포함하나 이에 제한되지 않는다.Throughout the specification, the image includes, but is not limited to, a CCD (Charge Coupled Device) image and a CIS (Contact Image Sensors or CMOS Image Sensors) image.
이하, '영상'은 비디오의 정지영상 또는 이미지이거나 동영상, 즉 비디오 그 자체를 나타낼 수 있다.Hereinafter, an 'image' may represent a still image or an image of the video, or a moving image, that is, the video itself.
이하, 첨부된 도면들을 참조하여, 거리 정보 획득 방법 및 디바이스에 대해 상세하게 설명한다. 이하의 도면들에서 동일한 참조부호는 동일한 구성요소를 지칭하며, 도면상에서 각 구성요소의 크기는 설명의 명료성과 편의상 과장되어 있을 수 있다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a method and apparatus for acquiring distance information will be described in detail with reference to the accompanying drawings. In the following drawings, like reference numerals refer to like elements, and the size of each element in the drawings may be exaggerated for clarity and convenience of explanation.
도 1은 광시간비행법(TOF)을 이용하여 거리 정보를 획득할 수 있는 일 실시예에 따른 디바이스(100)의 예시적인 구조를 개략적으로 도시하고 있다. 도 1을 참조하면, 디바이스(100)는 소정의 파장을 갖는 광을 발생시키는 광원(101), 상기 광원(101)을 구동시키기 위한 광원 구동부(102), 피사체(200)로부터 반사된 광을 광변조하기 위한 광변조기(103), 광변조기(103)를 구동시키기 위한 광변조기 구동부(104), 광변조기(103)에 의해 광변조된 광으로부터 영상을 생성하는 촬상소자(105), 촬상소자(105)의 출력을 기초로 거리 정보를 계산하기 위한 거리 정보 영상 처리부(distance image processor)(107), 및 상기 광원 구동부(102), 광변조기 구동부(104), 촬상소자(105), 거리 정보 영상 처리부(107)의 동작을 제어하기 위한 제어부(106)를 포함할 수 있다. 또한, 광변조기(103)의 광입사면에는 반사광을 광변조기(103)의 영역 내에 집광하기 위한 제 1 렌즈(108)와 소정의 파장을 갖는 광만을 투과시키는 필터(109)가 더 배치될 수 있다. 그리고, 광변조기(103)와 촬상소자(105) 사이에는 광변조된 영상을 촬상소자(105)의 영역 내에 집광하기 위한 제 2 렌즈(110)가 더 배치될 수 있다.1 schematically illustrates an exemplary structure of a
광원(101)은, 예를 들어, 안전을 위해 인간의 눈에는 보이지 않는 약 800nm 내지 약 1100nm의 근적외선(NIR) 파장을 갖는 광을 방출시킬 수 있는 발광 다이오드(LED) 또는 레이저 다이오드(LD)일 수 있지만, 파장의 대역과 광원의 종류는 제한을 받지 않는다. 광원 구동부(102)는 제어부(106)로부터 수신된 제어 신호에 따라 광원(101)을 예를 들어 크기(amplitude) 변조 또는 위상(phase) 변조 방식으로 구동할 수 있다. 광원 구동부(102)의 구동 신호에 따라, 광원(101)으로부터 피사체(200)로 투사되는 투사광은 소정의 주기를 갖는 주기적인 연속 함수의 형태를 가질 수 있다. 예를 들어, 투사광은 사인파, 램프파, 사각파 등과 같이 특수하게 정의된 파형을 가질 수도 있지만, 정의되지 않은 일반적인 형태의 파형을 가질 수도 있다.The
광변조기(103)는 피사체(200)로부터 반사된 광을 광변조기 구동부(104)의 제어에 따라 광변조한다. 광변조기 구동부(104)는 제어부(106)로부터 수신된 제어 신호에 따라 광변조기(103)를 구동시킨다. 예를 들어, 광변조기(103)는 광변조기 구동부(104)에 의해 제공된 소정의 파형을 갖는 광변조 신호에 따라 이득을 변화시켜 반사광의 크기를 변조시킬 수 있다. 이를 위해, 광변조기(103)는 가변 이득을 갖는다. 광변조기(103)는 거리에 따른 빛의 위상차 또는 이동 시간을 식별하기 위해 수십~수백 MHz의 높은 광변조 속도로 동작할 수 있다. 이에 부합하는 광변조기(103)로서, 예를 들어 MCP(Multi-Channel Plate)를 구비한 영상증배관, GaAs 계열의 고체 변조기 소자, 전광(Electro-Optic) 물질을 이용한 박형의 변조기 소자 등이 사용될 수 있다. 도 1에는 광변조기(103)가 투과형인 것으로 도시되어 있지만, 반사형 광변조기를 사용하는 것도 가능하다.The
촬상소자(105)는 광변조기(103)에 의해 광변조된 반사광을 제어부(106)의 제어에 따라 검출하여 영상을 생성하는 역할을 한다. 만약 피사체(200)의 어느 한 점까지의 거리만을 측정하고자 하는 경우, 촬상소자(105)는 예를 들어 포토다이오드나 적분기와 같은 하나의 단일한 광센서를 사용할 수도 있다. 그러나 피사체(200) 상의 다수의 점들까지의 거리들을 동시에 측정하고자 하는 경우, 촬상소자(105)는 다수의 포토다이오드 또는 다른 광검출기들의 2차원 또는 1차원 어레이를 가질 수도 있다. 예를 들어, 상기 촬상소자(105)는 2차원 어레이를 갖는 CCD(Charge Coupled Device) 이미지 센서 또는 CMOS(Complementary metal oxide semiconductor) 이미지 센서일 수도 있다. 거리 정보 영상 처리부(107)는 촬상소자(105)의 출력을 기초로, 거리 정보 획득 알고리즘에 따라 거리 정보를 계산하는 역할을 한다. 거리 정보 획득 알고리즘은 기설정되어 있을 수 있다. 거리 정보 영상 처리부(107)는 예를 들어 전용의 집적회로(IC)로 구현될 수도 있으며, 또는 디바이스(100) 내에 설치된 소프트웨어로도 구현될 수 있다. 소프트웨어로 구현되는 경우, 거리 정보 영상 처리부(107)는 별도의 이동 가능한 저장 매체에 저장될 수도 있다.The
이하에서는, 상술한 구조를 갖는 디바이스(100)의 동작을 개략적으로 설명한다.Hereinafter, the operation of the
먼저, 광원(101)은 제어부(106) 및 광원 구동부(102)의 제어에 따라 소정의 주기 및 파형을 갖는 N개의 상이한 투사광을 차례로 피사체(200)에 투사한다. 여기서 N은 3 이상의 자연수일 수 있다. 예를 들어, 4개의 상이한 투사광을 사용하는 경우, 시간 T1 동안 투사광1을 발생시켜 피사체(200)에 투사하고, 다음의 시간 T2 동안 투사광2를 발생시켜 피사체(200)에 투사하고, 시간 T3 동안 투사광3을 발생시켜 피사체(200)에 투사하고, 이어서 시간 T4 동안 투사광4를 피사체(200)에 투사할 수 있다. 이렇게 피사체(200)에 순차적으로 투사되는 투사광들은 사인파와 같은 특정 주기를 갖는 연속 함수의 형태를 가질 수 있다. 예를 들어, 투사광1 내지 투사광4는 동일한 주기 및 파형을 가지면서 크기 또는 위상만이 서로 다른 주기파(periodic wave)일 수 있다. 다른 예로, 투사광1 내지 투사광4는 동일한 주기, 파형 및 크기를 가지면서 위상만이 서로 다른 주기파일 수 있다. 일 예로, 투사광1 내지 투사광4는 위상이 90도씩 차이날 수 있고 이 경우, 투사광1의 위상이 투사광2 보다 90도 느리고, 투사광2의 위상이 투사광3 보다 90도 느리고, 투사광3의 위상이 투사광4 보다 90도 느릴 수 있다. 또는 이 경우, 투사광1의 위상이 투사광2 보다 90도 빠르고, 투사광2의 위상이 투사광3 보다 90도 빠르고, 투사광3의 위상이 투사광4 보다 90도 빠를 수 있다.First, the
피사체(200)에 투사된 투사광은 피사체(200)의 표면에서 반사된 후, 제 1 렌즈(108)로 입사한다. 일반적으로 피사체(200)는 디바이스(100)로부터의 거리, 즉 거리(distance)가 서로 다른 다수의 표면들을 갖는다. 도 1에는 설명의 단순화를 위하여 거리가 서로 다른 5개의 표면(P1~P5)을 갖는 피사체(200)가 예시적으로 도시되어 있다. 거리가 상이한 5개의 표면(P1~P5)에서 각각 투사광이 반사되면서, 상이하게 시간 지연된(즉, 위상이 상이한) 5개의 반사광이 각각 발생한다. 예를 들어, 투사광1이 피사체(200)의 5개의 표면(P1~P5)에서 각각 반사되면서 위상이 상이한 5개의 반사광1이 발생하며, 투사광2가 피사체(200)의 5개의 표면(P1~P5)에서 각각 반사되면서 위상이 상이한 5개의 반사광2가 발생하고, 마찬가지로 투사광N도 피사체(200)의 5개의 표면(P1~P5)에서 각각 반사되면서 위상이 상이한 5개의 반사광N이 발생한다. 디바이스(100)로부터의 거리가 가장 먼 표면(P1)에서 반사된 반사광은 ΦP1 만큼의 시간 지연 후 제 1 렌즈(108)에 도달하고, 디바이스(100)로부터의 거리가 가장 가까운 표면(P5)에서 반사된 반사광은 ΦP1보다 작은 ΦP5 만큼의 시간 지연 후 제 1 렌즈(108)에 도달할 것이다.The projection light projected on the subject 200 is reflected by the surface of the subject 200, and is then incident on the
제 1 렌즈(108)는 반사광을 광변조기(103)의 영역 내에 포커싱한다. 제 1 렌즈(108)와 광변조기(103) 사이에는 사용 파장 이외의 배경광이나 잡광을 제거하기 위하여 소정의 파장을 갖는 광만을 투과시키는 필터(109)가 배치될 수 있다. 예를 들어, 광원(101)이 약 850nm의 근적외선(NIR) 파장을 갖는 광을 방출하는 경우, 상기 필터(109)는 약 850nm의 근적외선 파장 대역을 통과시키는 근적외선 대역 통과 필터(IR band pass Filter)일 수 있다. 따라서, 광변조기(103)에 입사하는 광은 광원(101)으로부터 방출되어 피사체(200)에서 반사된 광이 지배적일 수 있다. 도 1에는 제 1 렌즈(108)와 광변조기(103) 사이에 필터(109)가 배치된 것으로 도시되어 있지만, 제 1 렌즈(108)와 필터(109)의 위치는 서로 바뀔 수도 있다. 예를 들어, 필터(109)를 먼저 통과한 근적외선광이 제 1 렌즈(108)에 의해 광변조기(103)로 포커싱될 수도 있다.The
그러면, 광변조기(103)는 소정의 파형을 갖는 광변조 신호로 반사광을 변조한다. 광변조기(103)에서의 이득 파형의 주기는 투사광의 파형 주기와 동일할 수 있다. 도 1에 도시된 예에서, 광변조기(103)는 피사체(200)의 5개의 표면(P1~P5)에서 각각 반사된 5개의 반사광1을 광변조하여 촬상소자(105)에 제공하고, 이어서 5개의 반사광2 내지 5개의 반사광N을 차례로 광변조하여 촬상소자(105)에 제공할 수 있다.Then, the
광변조기(103)에 의해 크기가 변조된 광은 제 2 렌즈(110)를 통과하면서 배율 조정 및 재포커싱된 후 촬상소자(105)에 도달한다. 따라서, 변조된 광은 제 2 렌즈(110)에 의해 촬상소자(105)의 영역 내에 집광된다. 촬상소자(105)는 상기 변조된 광을 소정의 노출 시간 동안 수광하여 영상을 생성한다. 예를 들어 촬상소자(105)는, 도 2에서 (A)로 표시된 바와 같이, 피사체(200)의 5개의 표면(P1~P5)에서 각각 반사된 후 변조된 5개의 반사광1을 소정의 노출 시간 동안 수광하여 영상1을 생성한다. 이어서, 도 2에서 (B)로 표시된 바와 같이, 촬상소자(105)는 피사체(200)의 5개의 표면(P1~P5)에서 각각 반사된 후 변조된 5개의 반사광2를 소정의 노출 시간 동안 수광하여 영상2를 생성한다. 이와 같은 과정을 반복하면서 마지막으로, 도 2에서 (C)로 표시된 바와 같이, 촬상소자(105)는 피사체(200)의 5개의 표면(P1~P5)에서 각각 반사된 후 변조된 5개의 반사광N을 소정의 노출 시간 동안 수광하여 영상N을 생성한다. 이러한 방식으로, 도 2에서 (D)로 표시된 바와 같이, N 개의 상이한 영상들을 순차적으로 얻을 수 있다. 이렇게 얻은 각각의 영상1~N은 거리 정보를 갖는 한 프레임의 영상을 만들기 위한 서브 프레임(sub-frame) 영상일 수 있다. 예를 들어, 한 프레임의 주기를 Td라고 한다면, N개의 영상1~N의 각각을 얻기 위한 촬상소자(105)에서의 노출 시간은 대략적으로 Td/N일 수 있다.The light modulated in size by the
다시 도 2의 (A)를 참조하면, 첫번째 서브 프레임에서, 광원(101)으로부터 피사체(200)에 투사된 투사광1이 피사체(200)의 5개의 표면(P1~P5)에서 각각 반사되어 5개의 반사광1이 생성된다. 5개의 반사광1은 광변조기(103)에 의해 변조된 후 촬상소자(105)에 도달한다. 도 2에는, 설명의 용이함을 위해 촬상소자(105)가 5개의 표면(P1~P5)에 각각 대응하는 5개의 화소만을 갖는 것으로 도시되어 있다. 따라서, 5개의 반사광1은 대응하는 5개의 화소에 각각 입사할 수 있다. 도 2의 (A)에 도시된 바와 같이, 각각의 표면(P1~P5)에서 반사된 5개의 반사광1은 디바이스(100)로부터 표면(P1~P5)까지의 거리에 따라 상이한 위상 지연(ΦP1~ΦP5)을 각각 갖는다. 촬상소자(105)는 예컨대 대략 Td/N의 노출 시간 동안 반사광1을 촬영하여 영상1을 생성할 수 있다. 위와 동일한 방식으로, 두 번째 서브 프레임부터 N번째 서브 프레임까지 영상2 내지 영상N이 생성될 수 있다. 도 2의 (B) 및 (C)에 도시된 바와 같이, 2~N번째 서브 프레임에서도 거리가 다른 5개의 표면(P1~P5)으로부터 상이한 위상 지연(ΦP1~ΦP5)이 발생한다.2 (A), in the first sub-frame, the
도 2에서는 N개의 상이한 투사광과 반사광을 사용하여 서로 다른 N개의 영상을 생성하는 경우에 대해 설명하였다. 그러나, 모든 서브 프레임에서 동일한 투사광을 사용하고, 각각의 서브 프레임마다 광변조기(103)가 상이한 이득 파형으로 반사광을 변조하는 것도 가능하다. 도 3은 하나의 동일한 투사광과 N개의 상이한 이득 파형으로 N개의 상이한 영상을 생성하는 과정을 도시하고 있다. 도 3을 참조하면, 피사체(200)로부터 반사된 반사광은 모든 서브 프레임에서 동일한 파형과 위상을 갖는다. 각 서브 프레임의 반사광에는 앞서 설명한 바와 같이 피사체(200)의 표면(P1~P5)에 따라 상이한 위상 지연(ΦP1~ΦP5)들이 존재한다. 도 3의 (A)~(C)에 각각 도시된 바와 같이, 첫 번째 서브 프레임에서 광변조기(103)는 광변조 신호1로 반사광을 변조하며, 두 번째 서브 프레임에서 광변조기(103)는 광변조 신호1과 다른 광변조 신호2로 반사광을 변조하고, N 번째 서브 프레임에서 광변조기(103)는 또 다른 광변조 신호N으로 반사광을 변조한다. 여기서, 광변조 신호1~N은 완전히 서로 다른 파형의 신호일 수도 있지만, 주기와 파형은 동일하고 단지 위상만이 다른 신호일 수도 있다. 그러면, 도 3의 (D)에 각각 도시된 바와 같이, 서로 다른 N개의 영상1~N을 얻을 수 있다.In FIG. 2, N different images are generated using N different projected lights and reflected lights. However, it is also possible to use the same projection light in all the subframes, and to modulate the reflected light with different gain waveforms in the
상술한 방식으로 얻은 N개의 영상들은 거리 정보 영상 처리부(107)로 전달된다. 거리 정보 영상 처리부(107)는 상기 N개의 영상들을 이용하여 기설정된 알고리즘에 따라 거리 정보를 획득할 수 있다. 예를 들면 디바이스(100)는 평균화 알고리즘을 이용하여 거리 정보를 획득할 수 있다. The N images obtained in the above-described manner are transmitted to the distance information
도 4는 위상이 서로 상이한 4개의 투사광으로 4개의 상이한 영상을 생성하고, 생성된 4개의 상이한 영상을 이용하여 거리 정보를 획득하는 방법을 도시한다. FIG. 4 shows a method of generating four different images with four projected lights having different phases and acquiring distance information using the generated four different images.
제1 부분(410)에서 확인할 수 있는 바와 같이, 일 실시 예에 따른 디바이스(100)는 순차적인 촬영을 통해 4장의 강도 이미지(intensity image)를 획득할 수 있다. 예를 들면 일 실시 예에 따른 디바이스(100)는 위상차가 0도인 강도 이미지인 , 위상차가 90도인 강도 이미지인 , 위상차가 180도인 강도 이미지인 및 위상차가 270도인 강도 이미지인 를 획득할 수 있다. 일 실시 예에 따른 디바이스(100)는 움직임 평균(moving average)를 이용하여 4개의 CIS 이미지를 획득할 수 있다. 본 명세서에서 변조된 영상의 표시를 CIS 이미지로 표시하였지만, 촬상 소자(105)는 CIS로 한정되지 않는다.As can be seen in the
일 실시 예에 따른 디바이스(100)는 [수학식 1]과 같은 순서로 4개의 이미지를 획득할 수 있다.The
일 실시 예에 따른 디바이스(100)는 2개의 새로운 이미지를 획득하고, 2개의 기존 이미지를 순차적으로 제거하는 방식으로 [수학식 2]와 같이 4개 이미지의 조합을 획득할 수 있다.The
(여기서 p는 임의의 수) (Where p is an arbitrary number)
예를 들면, 일 실시 예에 따른 디바이스(100)는 현재 획득한 4개의 이미지가 인 경우, 앞에 획득한 2개의 이미지를 순차적으로 제거하고 새로운 이미지 두개를 획득하여 의 4개 이미지 조합을 획득할 수 있다. 예를 들면, 제1 이미지(411)는 제거되고, 제 2 이미지(413)는 추가될 수 있다. 다른 예로, 일 실시 예에 따른 디바이스(100)는 현재 획득한 4개의 이미지가 인 경우, 앞에 획득한 2개의 이미지를 순차적으로 제거하고 새로운 이미지 두개를 획득하여 의 4개 이미지 조합을 획득할 수 있다.For example, the
일 실시 예에 따른 디바이스(100)는 현재 획득한 4개의 이미지(412)를 이용하여 [수학식 3]에서와 같이 깊이 영상을 획득할 수 있다. 현재 획득한 4개의 이미지(412)는 4개의 강도 이미지를 포함할 수 있다.The
구체적으로, 제2 부분(422)에서 확인할 수 있는 바와 같이, 일 실시 예에 따른 디바이스(100)는 - 로 나타내어지는 제1 중간 이미지(421) 및 - 로 나타내어지는 제2 중간 이미지(422)를 획득할 수 있다. 또한, 제3 부분(430)에서 확인할 수 있는 바와 같이 일 실시 예에 따른 디바이스(100)는 제1 중간 이미지(421) 및 제2 중간 이미지(422)를 이용하여 깊이 이미지(431)를 획득할 수 있다.Specifically, as can be seen in the
따라서, 일 실시 예에 따른 디바이스(100)는 2장의 IR 이미지를 획득하는 시간에 1장의 깊이 이미지를 획득할 수 있다.Thus, the
도 5는 반사광 및 광변조 신호를 이용하여 CIS(Contact Image Sensors) 이미지를 획득하는 방법을 도시한다. 도 5에서 IR 광의 광처리 과정이 설명될 수 있다.5 illustrates a method of obtaining Contact Image Sensors (CIS) images using reflected light and light modulated signals. In Fig. 5, the light-irradiation process of the IR light can be explained.
본 명세서에서, 는 S번째 투사광의 광출력(s-th emitting light optical power), 는 S번째 투사광의 위상차(phase shift of the s-th emitting light), 는 출력광의 DC 오프셋 (emitting light DC offset), 는 S번째 수신된 반사광의 광출력(s-th receiving light optical power), 는 수신된 외광(receiving ambient light), r은 피사체 표면의 광 감쇠(light attenuation of the object surface), G는 셔터 이득(shutter gain), 는 셔터 이득 DC 오프셋(shutter gain DC offset), w는 동작 주파수(operationg frequency), 는 TOF(Time of Flight)에 따른 위상 지연(phase delay due to TOF)을 의미할 수 있다.In the present specification, (S-th emitting light optical power) of the S th projection light, A phase shift of the S-th emission light, Is a DC offset of the output light, (S-th receiving light optical power) of the S-th received reflected light, R is the light attenuation of the object surface, G is the shutter gain, A shutter gain DC offset, w is an operation frequency, May refer to a phase delay due to TOF (Time of Flight).
S번째 투사광의 광출력은 [수학식 4]와 같이 표현될 수 있다.The light output of the S th projection light can be expressed as shown in Equation (4).
여기서 rect는 구형파(AC)에 DC 성분이 더해진 형태일 수 있다.Where rect can be in the form of a square wave (AC) plus a DC component.
필터를 통과한 후의 반사광()은 [수학식 5]와 같이 표현될 수 있다. 필터를 통과한 후의 반사광은 피사체의 표면에서 반사되어 돌아오므로, 물체의 표면 반사도, 렌즈의 크기 등이 종합적으로 고려된 반사도인 r이 곱해진 형태이고, TOF에 의한 위상차가 존재하고, 외광이 존재할 수 있다.Reflected light after passing through filter Can be expressed as: " (5) " Since the reflected light after passing through the filter is reflected and reflected on the surface of the object, the surface reflectance of the object, the size of the lens, etc. are multiplied by r, which is the reflectivity considered together, and there is a phase difference due to TOF, Can exist.
셔터의 변조 파형(Gain)은 [수학식 6]과 같이 표현될 수 있다.The modulated waveform Gain of the shutter can be expressed by the following equation (6).
예를 들면, 셔터의 변조 파형(G(t))은 사인파(AC)에 DC 성분이 더해진 형태일 수 있다.For example, the modulation waveform G (t) of the shutter may be a form in which a DC component is added to a sine wave AC.
촬영 소자(105)에 도달하는 광은 [수학식 7]과 같이 표현될 수 있다.The light reaching the photographing
촬영 소자(105)로부터 획득되는 이미지는 [수학식 8]과 같이 표현될 수 있다.The image obtained from the photographing
상술된 [수학식 8]로부터 연속으로 획득되는 4장의 이미지가 [수학식 9] 내지 [수학식 12]로 표현될 수 있다.The four images successively obtained from the above-described [Equation 8] can be expressed by [Equation 9] to [Equation 12].
또한, [수학식 9] 내지 [수학식 12]는 [수학식 13]의 조건을 만족할 수 있다.Further, the equations (9) to (12) can satisfy the condition of (13).
[수학식 4]에서 표현된 S번째 투사광의 광출력이 삼각파(sine)로 구현되는 경우에도 상술된 수식 전개가 가능하며, 이 경우 결과적으로 A가 상이한 값(A’)이 될 수 있다. 예를 들면, A’은 [수학식 14]와 같이 표현될 수 있다. In the case where the light output of the S th projection light expressed by Equation (4) is realized by a triangular wave sine, the above equation expansion can be performed. As a result, A may be a different value A '. For example, A 'can be expressed as: " (14) "
상술된 [수학식 9] 내지 [수학식 12]에서 미지수인 r, A, B를 소거하여 에 대해서 풀면, 상술된 [수학식 3] 또는 아래의 [수학식 15]와 같은 깊이에 의한 위상차를 획득할 수 있다.The unknowns r, A, and B are canceled in the above-mentioned Equations (9) to (12) to solve the phase difference due to the depths as in the above-mentioned [Equation 3] or [Equation 15] Can be obtained.
상술된 [수학식 9] 내지 [수학식 15]는 정지 영상의 경우에 적용할 수 있다. 예를 들면, 상술된 [수학식 9] 내지 [수학식 15]는 움직임이 없는 피사체에 대해서 적용이 가능하다.The above-mentioned equations (9) to (15) can be applied to still images. For example, the above-mentioned Equations (9) to (15) are applicable to a subject without motion.
또한, [수학식 3] 및 [수학식 15]로부터 [수학식 16]을 획득할 수 있다.Further, Equation (16) can be obtained from Equations (3) and (15).
도 6은 위상이 서로 상이한 4개의 투사광의 일 예를 도시한다.Fig. 6 shows an example of four projected lights whose phases are different from each other.
일 실시 예에 따른 서로 상이한 4개의 투사광은 제1 투사광(610), 제2 투사광(620), 제3 투사광(630) 및 제4 투사광(640)일 수 있다. 제1 투사광 내지 제4 투사광은 위상이 90도씩 차이날 수 있다. 예를 들면, 제1 투사광(610)의 위상차(phase delay)는 0도이고, 제2 투사광(620)의 위상차(phase delay)는 90도이고, 제3 투사광(630)의 위상차(phase delay)는 180도이고, 제4 투사광(640)의 위상차(phase delay)는 270도일 수 있다.The four different projection lights may be
일 실시 예에 따른 셔터의 변조 파형(G(t))(650)은 사인파(AC)에 DC 성분이 더해진 형태일 수 있다.The modulated waveform G (t) 650 of the shutter according to one embodiment may be in the form of a sine wave (AC) plus a DC component.
도 7은 피사체가 움직일 경우 위상이 서로 상이한 4개의 투사광에 의해 획득되는 영상의 밝기 변화를 나타내는 도면이다.FIG. 7 is a diagram showing a change in brightness of an image obtained by four projected lights whose phases are different from each other when a subject moves. FIG.
시간의 흐름에 따라 피사체로부터 반사되어 획득되는 반사광의 밝기가 변경될수 있다. 예를 들면, i번째 프레임(710)의 밝기가 I인 경우 시간이 경과하면 i+1번째 프레임(720)의 밝기가 I+Δ일 수 있다. 연속으로 촬영되어 획득되는 i번째 프레임(710)의 밝기와 i+1번째 프레임(720)의 밝기가 상이할 수 있다.The brightness of the reflected light obtained by reflecting from the subject can be changed with the passage of time. For example, when the brightness of the i-
제1 투사광(610)의 위상차(phase delay)는 0도이고, 제2 투사광(620)의 위상차(phase delay)는 90도이고, 제3 투사광(630)의 위상차(phase delay)는 180도이고, 제4 투사광(640)의 위상차(phase delay)는 270도일 때, 제1 투사광(610) 내지 제4 투사광(640)이 순차적으로 피사체에 투사되는 경우에 대해 설명한다.The phase delay of the
일 실시 예에 따라, 시간의 경과에도 불구하고 피사체로부터 반사되어 획득되는 반사광의 밝기에 변화가 없는 경우, 제1 투사광(610)에 의해 획득되는 제1 프레임(731), 제2 투사광(620)에 의해 획득되는 제2 프레임(732), 제3 투사광(630)에 의해 획득되는 제3 프레임(733) 및 제4 투사광(640)에 의해 획득되는 제4 프레임(734)의 밝기는 동일할 수 있다. According to one embodiment, when there is no change in the brightness of the reflected light obtained by reflection from the subject despite the lapse of time, the
일 실시 예에 따라, 시간의 경과에 따라 피사체로부터 반사되어 획득되는 반사광의 밝기에 변화가 있는 경우, 제1 투사광(610)에 의해 획득되는 제1 프레임(741), 제2 투사광(620)에 의해 획득되는 제2 프레임(742), 제3 투사광(630)에 의해 획득되는 제3 프레임(743) 및 제4 투사광(640)에 의해 획득되는 제4 프레임(744)의 밝기는 상이할 수 있다. 예를 들면, 제1 프레임(741)에서 제4 프레임(744)으로 갈수록 밝아질 수 있다. 일 예로, 제1 프레임(741)의 밝기가 I인 경우, 제2 프레임(742)의 밝기는 I+Δ이고, 제3 프레임(743)의 밝기는 I+2Δ이고, 제4 프레임(744)의 밝기는 I+3Δ일 수 있다. 밝기의 변화는 피사체에 조사되는 빛의 변화나 피사체가 움직이는 경우 발생할 수 있으나 이에 제한되지 않는다.According to one embodiment, when there is a change in the brightness of the reflected light obtained by reflection from the subject over time, the
일 실시 예에 따라, 시간의 경과에 따라 피사체로부터 반사되어 획득되는 반사광의 밝기에 변화가 있는 경우, 상술된 [수학식 9] 내지 [수학식 12]는 [수학식 17]로 표현될 수 있다.According to one embodiment, when there is a change in the brightness of the reflected light obtained by reflection from the subject over time, the above-described Equations (9) to (12) can be expressed by Equation (17) .
[수학식 17]을 반영하면 상술된 [수학식 16]은 [수학식 18]로 표현될 수 있다.When the equation (17) is reflected, the above-described equation (16) can be expressed by the following equation (18).
[수학식 18]에 개시된 바와 같이 밝기 변화율 Δ는 [수학식 18]의 분모 및 분자에 서로 다른 부호로 개입하게 되어 있어서, 깊이 계산에 오차를 발생시킨다. 따라서 밝기 변화율인 Δ가 클수록 또는 피사체의 움직임이 클수록 모션 블러(motion blur)가 커질 수 있다.As described in the expression (18), the rate of change in brightness? Is interposed between the denominator and the numerator of the equation (18) with different signs, thereby causing an error in the depth calculation. Therefore, the larger the variation rate of the brightness? Or the greater the motion of the subject, the greater the motion blur.
일 실시 예에 따른 디바이스(100)는 투사되는 투사광의 순서를 제어하여 모션 블러가 감소된 거리 정보를 획득할 수 있다.The
도 8은 피사체가 움직일 경우 투사되는 투사광의 순서를 제어하여 거리 정보를 획득하는 일례를 도시한다.Fig. 8 shows an example in which distance information is acquired by controlling the order of the projected light when the subject moves.
일 실시 예에 따른 디바이스(100)는 투사광의 순서를 제어할 수 있다. 예를 들면, 일 실시 예에 따른 디바이스(100)는 투사광들간의 투사 순서를 상호 변경할 수 있다. 일 예로, 일 실시 예에 따른 디바이스(100)는 제2 투사광(620)과 제4 투사광(640)의 투사 순서를 바꾸어, 제1 투사광(610), 제4 투사광(640), 제3 투사광(630) 및 제2 투사광(620)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다. The
일 예에 따라, 디바이스(100)가 투사광의 순서를 제어하여, 제1 투사광(610), 제4 투사광(640), 제3 투사광(630) 및 제2 투사광(620)의 순서로 순차적으로 피사체에 투사하는 경우에 대해 설명한다.According to one example, the
일 실시 예에 따라, 시간의 경과에도 불구하고 피사체로부터 반사되어 획득되는 반사광의 밝기에 변화가 없는 경우, 제1 투사광(610)에 의해 획득되는 제1 프레임(810), 제4 투사광(640)에 의해 획득되는 제2 프레임(820), 제3 투사광(630)에 의해 획득되는 제3 프레임(830) 및 제2 투사광(620)에 의해 획득되는 제4 프레임(840)의 밝기는 동일할 수 있다. According to one embodiment, when there is no change in the brightness of the reflected light obtained by reflection from the subject despite the passage of time, the
일 실시 예에 따라, 시간의 경과에 따라 피사체로부터 반사되어 획득되는 반사광의 밝기에 변화가 있는 경우, 제1 투사광(610)에 의해 획득되는 제1 프레임(850), 제4 투사광(640)에 의해 획득되는 제2 프레임(860), 제3 투사광(630)에 의해 획득되는 제3 프레임(870) 및 제2 투사광(620)에 의해 획득되는 제4 프레임(880)의 밝기는 상이할 수 있다. 예를 들면, 제1 프레임(850)에서 제4 프레임(880)으로 갈수록 밝아질 수 있다. 일 예로, 제1 프레임(850)의 밝기가 I인 경우, 제2 프레임(860)의 밝기는 I+Δ이고, 제3 프레임(870)의 밝기는 I+2Δ이고, 제4 프레임(880)의 밝기는 I+3Δ일 수 있다. 밝기의 변화는 피사체에 조사되는 빛의 변화나 피사체가 움직이는 경우 발생할 수 있으나 이에 제한되지 않는다.The
일 실시 예에 따라, 시간의 경과에 따라 피사체로부터 반사되어 획득되는 반사광의 밝기에 변화가 있는 경우, 상술된 [수학식 9] 내지 [수학식 12]는 [수학식 19]로 표현될 수 있다.According to one embodiment, when there is a change in the brightness of the reflected light obtained by reflection from the subject with the lapse of time, the above-mentioned Equations (9) to (12) can be expressed by Equation (19) .
[수학식 19]를 반영하면 상술된 [수학식 16]은 [수학식 20]으로 표현될 수 있다.Reflecting the expression (19), the above-described expression (16) can be expressed by the expression (20).
[수학식 20]에서 확인할 수 있는 바와 같이 밝기 변화율 Δ는 [수학식 20]의 분모 분자에 서로 같은 부호로 개입하게 되어 있어서, 디바이스(100)는 투사광의 투사 순서를 제어하여, 깊이 계산 결과의 오차를 [수학식 18]의 경우보다 작게 함으로써 모션 블러 효과를 감소시킬 수 있다.As can be seen from Equation (20), the brightness change rate? Intervenes in the denominator of Equation (20) with the same sign, so that the
도 9는 피사체가 움직일 경우 투사되는 투사광의 순서를 제어하여 거리 정보를 획득하는 다른 예를 도시한다.9 shows another example of obtaining distance information by controlling the order of the projected light when the subject moves.
일 실시 예에 따른 디바이스(100)는 투사광의 순서를 제어할 수 있다. 예를 들면, 일 실시 예에 따른 디바이스(100)는 투사광의 위상차를 전체적으로 시프트(shift)시킬 수 있다. 일 예로, 일 실시 예에 따른 디바이스(100)는 제2 투사광(620), 제3 투사광(630), 제4 투사광(640) 및 제1 투사광(610)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.The
일 예에 따라, 디바이스(100)가 투사광의 순서를 제어하여, 제2 투사광(620), 제3 투사광(630), 제4 투사광(640) 및 제1 투사광(610)의 순서로 순차적으로 피사체에 투사하는 경우에 대해 설명한다.According to one example, the
일 실시 예에 따라, 시간의 경과에도 불구하고 피사체로부터 반사되어 획득되는 반사광의 밝기에 변화가 없는 경우, 제2 투사광(620)에 의해 획득되는 제1 프레임(910), 제3 투사광(630)에 의해 획득되는 제2 프레임(920), 제4 투사광(640)에 의해 획득되는 제3 프레임(930) 및 제1 투사광(610)에 의해 획득되는 제4 프레임(940)의 밝기는 동일할 수 있다. According to one embodiment, when there is no change in the brightness of the reflected light obtained by reflection from the subject despite the passage of time, the
일 실시 예에 따라, 시간의 경과에 따라 피사체로부터 반사되어 획득되는 반사광의 밝기에 변화가 있는 경우, 제2 투사광(620)에 의해 획득되는 제1 프레임(950), 제3 투사광(630)에 의해 획득되는 제2 프레임(960), 제4 투사광(640)에 의해 획득되는 제3 프레임(970) 및 제1 투사광(610)에 의해 획득되는 제4 프레임(980)의 밝기는 상이할 수 있다. 예를 들면, 제1 프레임(950)에서 제4 프레임(980)으로 갈수록 밝아질 수 있다. 일 예로, 제1 프레임(950)의 밝기가 I인 경우, 제2 프레임(960)의 밝기는 I+Δ이고, 제3 프레임(970)의 밝기는 I+2Δ이고, 제4 프레임(980)의 밝기는 I+3Δ일 수 있다. 밝기의 변화는 피사체에 조사되는 빛의 변화나 피사체가 움직이는 경우 발생할 수 있으나 이에 제한되지 않는다.According to one embodiment, when there is a change in the brightness of the reflected light obtained from the subject as time elapses, the
일 실시 예에 따라, 시간의 경과에 따라 피사체로부터 반사되어 획득되는 반사광의 밝기에 변화가 있는 경우, 상술된 [수학식 9] 내지 [수학식 12]는 [수학식 21]로 표현될 수 있다.According to one embodiment, when there is a change in the brightness of the reflected light obtained by reflection from the subject over time, the above-mentioned Equations (9) to (12) can be expressed by Equation (21) .
[수학식 21]를 반영하면 상술된 [수학식 16]은 [수학식 22]로 표현될 수 있다.When the following expression (21) is reflected, the above-described expression (16) can be expressed by the expression (22).
[수학식 22]에서 확인할 수 있는 바와 같이 밝기 변화율 Δ는 [수학식 22]의 분모 분자에 서로 같은 부호로 개입하게 되어 있어서, 디바이스(100)는 투사광의 투사 순서를 제어하여, 깊이 계산 결과의 오차를 [수학식 18]의 경우보다 작게 함으로써 모션 블러 효과를 감소시킬 수 있다.As can be seen from Equation (22), the brightness change rate? Intervenes in the denominator of Equation (22) with the same sign, so that the
도 8 및 도 9에서 개시된 투사광 순서 제어 방법은 일 실시 예일 뿐이며, 디바이스(100)가 투사광의 순서를 제어하는 방법은 도 8 및 도 9에서 개시된 실시 예에 제한되지 않는다. 예를 들면, 일 실시 예에 따른 디바이스(100)는 4개의 투사광이 있는 경우, 4!인 24가지 투사 순서 중 하나를 투사광의 투사 순서로 결정할 수 있다.8 and 9 is only one embodiment, and the method by which the
도 10은 피사체와 디바이스간의 거리에 따라 투사광의 투사 순서를 결정하는 방법을 설명하기 위한 도면이다.10 is a diagram for explaining a method of determining the projection order of the projection light according to the distance between the subject and the device.
일 실시 예에 따른 디바이스(100)는 피사체와 디바이스(100)간의 거리에 따라 투사광의 투사 순서를 결정할 수 있다.The
첫번째 실시 예로, 피사체와 디바이스(100)간의 거리가 0~1m 또는 4~5m인 경우, 디바이스(100)는 시프트 없이 제1 투사광(610), 제2 투사광(620), 제3 투사광(630), 및 제4 투사광(640)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다. 일 실시 예에 따른 디바이스(100)는 피사체와 디바이스(100)간의 거리가 0~1m 또는 4~5m인 경우, 모션 블러를 감소시키기 위한 투사광의 투사 순서를 제1 그래프(1010)를 통해서 결정할 수 있다.In the first embodiment, when the distance between the subject and the
두번째 실시 예로, 피사체와 디바이스(100)간의 거리가 2~3m 또는 6~7m인 경우, 디바이스(100)는 좌측으로 위상차를 1번 시프트하여 제2 투사광(620), 제3 투사광(630), 제4 투사광(640) 및 제1 투사광(610)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다. 일 실시 예에 따른 디바이스(100)는 피사체와 디바이스(100)간의 거리가 2~3m 또는 6~7m인 경우, 모션 블러를 감소시키기 위한 투사광의 투사 순서를 제2 그래프(1020)를 통해서 결정할 수 있다.In the second embodiment, when the distance between the subject and the
세번째 실시 예로, 피사체와 디바이스(100)간의 거리가 0~1m 또는 4~5m인 경우, 디바이스(100)는 좌측으로 위상차를 2번 시프트하여 제3 투사광(630), 제4 투사광(640), 제1 투사광(610) 및 제2 투사광(620)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다. 일 실시 예에 따른 디바이스(100)는 피사체와 디바이스(100)간의 거리가 0~1m 또는 4~5m인 경우, 모션 블러를 감소시키기 위한 투사광의 투사 순서를 제3 그래프(1030)를 통해서 결정할 수 있다.In the third embodiment, when the distance between the subject and the
네번째 실시 예로, 피사체와 디바이스(100)간의 거리가 2~3m 또는 6~7m인 경우, 디바이스(100)는 좌측으로 위상차를 3번 시프트하여 제4 투사광(640), 제1 투사광(610), 제2 투사광(620) 및 제3 투사광(630)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다. 일 실시 예에 따른 디바이스(100)는 피사체와 디바이스(100)간의 거리가 2~3m 또는 6~7m인 경우, 모션 블러를 감소시키기 위한 투사광의 투사 순서를 제4 그래프(1040)를 통해서 결정할 수 있다.In the fourth embodiment, when the distance between the subject and the
도 10에서 도시된 거리에 따른 투사광의 투사 순서는 일 실시 예일 뿐이고, 디바이스(100)의 동작 범위는 도 10의 실시 예로 제한되지 않는다.The projection order of the projection light according to the distance shown in Fig. 10 is only an embodiment, and the operation range of the
도 11은 피사체와 디바이스간의 거리에 따라 투사광의 순서를 제어하여 거리 정보를 획득하는 일례를 나타내는 도면이다.11 is a view showing an example of obtaining distance information by controlling the order of projection light according to the distance between a subject and a device.
피사체가 2m거리에 있는 경우, 일 실시 예에 따른 디바이스(100)가 제1 투사광(610), 제2 투사광(620), 제3 투사광(630), 및 제4 투사광(640)의 순서로 순차적으로 투사광을 피사체에 투사한 경우에 대해 설명한다. 제1 테스트 영역(1110) 내에서 피사체와 디바이스(100)간의 거리 차이의 변동은 작다. 그러나 파사체가 움직이는 경우, 제1 테스트 영역(1110) 내에서 거리 차이의 변동이 인식됨을 확인할 수 있다. 또한, 이 경우, 제1 그래프(1130)를 통해 표준 편차가 65.3mm라는 것을 확인할 수 있다.When the subject is at a distance of 2 m, the
피사체가 2m거리에 있는 경우, 다른 실시 예에 따른 디바이스(100)가 제2 투사광(620), 제3 투사광(630), 제4 투사광(640) 및 제1 투사광(610)의 순서로 순차적으로 투사광을 피사체에 투사한 경우에 대해 설명한다. 제2 테스트 영역(1120) 내에서 피사체와 디바이스(100)간의 거리 차이의 변동은 작다. 그러나 파사체가 움직이는 경우, 제1 테스트 영역(1120) 내에서 거리 차이의 변동이 인식됨을 확인할 수 있다. 그러나 투사광의 투사 순서를 변경함으로써 인식되는 거리 차이의 변동이 감소하였음을 확인할 수 있다. 또한, 이 경우, 제2 그래프(1140)를 통해 표준 편차가 38mm로 감소하였음을 확인할 수 있다.When the subject is at a distance of 2 m, the
따라서, 일 실시 예에 따른 디바이스(100)는 투사광의 투사 순서를 제어함으로써, 모션 블러를 감소시킬 수 있다. Thus, the
예를 들면, 일 실시 예에 따른 디바이스(100)는 피사체와 디바이스(100)간의 거리에 따라 투사광의 투사 순서를 결정하여 투사광을 피사체에 투사할 수 있다. 이 경우, 일 실시 예에 따른 디바이스(100)는 피사체와 디바이스(100)간의 거리에 대한 정보를 실시간으로 획득하고, 실시간으로 획득한 거리 정보에 따라 투사광의 투사 순서를 결정하여 투사광을 피사체에 투사할 수 있다.For example, the
다른 예로, 일 실시 예에 따른 디바이스(100)는 외부에서 수신되는 수신 입력에 따라 투사광의 투사 순서를 결정하여 투사광을 피사체에 투사할 수 있다.As another example, the
도 12 및 도 13은 다양한 실시 예에 따른 디바이스(100)의 일 실시 예이다. 디바이스(100)는 상술한 거리 정보 획득 방법을 수행할 수 있는 장치로, 도1 내지 도 11 및 도 14 내지 도 16에서 개시된 거리 정보를 획득하는 방법을 수행하기 위한 모든 실시 예의 구현이 가능하다.12 and 13 are one embodiment of a
도 12는 일 실시 예에 따른 디바이스(100)의 구성을 설명하기 위한 블록도이다.12 is a block diagram illustrating a configuration of a
도 12에 도시된 바와 같이, 일 실시 예에 따른 디바이스(100)는 광원(101), 제어부(1240) 및 변조부(1230)를 포함할 수 있다. 그러나 도시된 구성요소보다 많은 구성요소에 의해 디바이스(100)가 구현될 수도 있고, 도시된 구성요소보다 적은 구성요소에 의해 디바이스(100) 가 구현될 수도 있다. 다른 실시 예에 따른 디바이스(100)는 광원(101), 제어부(1240), 변조부(1230) 및 입력 디바이스(1250)를 포함할 수 있다. 또한, 제어부(1240)는 투사광 제어부(1210)를 포함할 수 있다.12, the
이하 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.
일 실시 예에 따른 투사광 제어부(1210)는 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 피사체의 위치 및/또는 외부 수신 입력에 기초하여 결정한다.The projection
N개의 상이한 투사광은 주기가 서로 같고, 크기와 위상 중에서 적어도 하나가 서로 다른 주기파를 포함할 수 있다.The N different projection lights may include periodic waves having the same period and different at least one of magnitude and phase.
일 실시 예에 따른 광원(101)는 제어부(1240)의 제어에 따라 피사체에 순차적으로 4개의 위상이 상이한 투사광을 투사할 수 있다. 예를 들면, 투사광1 내지 투사광4는 동일한 주기, 파형 및 크기를 가지면서 위상만이 서로 다른 주기파일 수 있다. 일 예로, 투사광1의 위상이 투사광2 보다 90도 느리고, 투사광2의 위상이 투사광3 보다 90도 느리고, 투사광3의 위상이 투사광4 보다 90도 느릴 수 있다. 다른 예로, 투사광1의 위상이 투사광2 보다 90도 빠르고, 투사광2의 위상이 투사광3 보다 90도 빠르고, 투사광3의 위상이 투사광4 보다 90도 빠를 수 있다.The
일 실시 예에 따른 변조부(1230)는 3개의 서브 프레임 영상, 3개의 CIS 이미지 또는 3개의 CCD 이미지를 이용하여, 광시간비행법에 따른 광파의 위상차, 피사체 표면의 반사도 및 외광을 이용하여 깊이(depth) 이미지를 획득할 수 있다. The
일 실시 예에 따른 변조부(1230)는 4개의 서브 프레임 영상, 4개의 CIS 이미지 또는 4개의 CCD 이미지를 이용하여 모션 블러가 감소된 깊이 이미지를 획득할 수 있다. 일 실시 예에 따른 변조부(1230)가 4개의 4개의 CIS 이미지를 이용하여 깊이 이미지를 획득하는 경우, 4개의 CIS 이미지는 서로 다른 위상차를 갖는 4개의 투사광에 의해 획득될 수 있다. 예를 들면, 투사광1 내지 투사광4는 동일한 주기, 파형 및 크기를 가지면서 위상만이 90도씩 차이나는 주기파일 수 있다.The
일 실시 예에 따른 투사광 제어부(1210)는 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 피사체의 위치에 기초하여 결정할 수 있다. 예를 들면, 일 실시 예에 따른 투사광 제어부(1210)는 피사체와 디바이스(100)간의 거리에 따라 투사광의 투사 순서를 결정하고, 결정된 투사광의 투사 순서대로 투사광을 피사체에 투사하도록 광원(101)을 제어할 수 있다.The projection
일 실시 예에 따른 투사광 제어부(1210)는 기설정된 복수개의 투사광의 투사 순서 중에서 디바이스(100)와 피사체간의 거리에 대응되는 투사 순서를 광원(101)이 피사체에 순차적으로 투사할 투사광의 투사 순서로 결정할 수 있다. 예를 들면, N이 4인 경우, 24개의 투사 순서가 모두 기설정된 거리에 각각 대응되고, 24개의 투사 순서 중 디바이스(100)와 피사체간의 거리에 대응되는 투사 순서가 광원(101)이 피사체에 순차적으로 투사할 투사광의 투사 순서로 결정될 수 있다. 예를 들면, 디바이스(100)와 피사체간의 거리가 1m이내인 경우 제1 투사 순서를, 디바이스(100)와 피사체간의 거리가 2m~3m인 경우 제2 투사 순서를, 디바이스(100)와 피사체간의 거리가 3m~4m인 경우 제3 투사 순서를 일 실시 예에 따른 투사광 제어부(1210)는 투사광의 투사 순서로 결정할 수 있다.The projection
일 실시 예에 따른 투사광 제어부(1210)는 기설정된 복수개의 투사 순서들 중에서 피사체에 대한 모션 블러를 최소화시키는 투사 순서를 투사광의 투사 순서로 결정할 수 있다. 예를 들면, 일 실시 예에 따른 투사광 제어부(1210)는 피사체에 순차적으로 투사할 투사광의 투사 순서를 피사체의 위치 및/또는 외부 수신 입력에 기초하여, 기설정된 복수개의 투사 순서들 중에서 피사체에 대한 모션 블러를 최소화시키는 투사 순서를 투사광의 투사 순서로 결정할 수 있다. The
일 실시 예에 따른 광원(101)은 투사광 제어부(1210)에서 결정된 투사광의 투사 순서에 따라 N개의 상이한 투사광을 피사체에 순차적으로 투사한다.The
예를 들면, 일 실시 예에 따른 광원(101)은 투사광 제어부(1210) 결정된 투사광의 투사 순서에 따라 제1 투사광(610), 제2 투사광(620), 제3 투사광(630) 및 제4 투사광(640)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.For example, the
다른 예로, 일 실시 예에 따른 광원(101)은 투사광 제어부(1210)에서 결정된 투사광의 투사 순서에 따라 제1 투사광(610), 제4 투사광(640), 제3 투사광(630) 및 제2 투사광(620)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.The first projection light 640, the third projection light 640, and the third projection light 630 in accordance with the projection order of the projection light determined by the projection
다른 예로, 일 실시 예에 따른 광원(101)은 투사광 제어부(1210)에서 결정된 투사광의 투사 순서에 따라 제3 투사광(630), 제2 투사광(620), 제1 투사광(610) 및 제4 투사광(640)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.The
다른 예로, 일 실시 예에 따른 광원(101)은 투사광 제어부(1210)에서 결정된 투사광의 투사 순서에 따라 제2 투사광(620), 제3 투사광(630), 제4 투사광(640) 및 제1 투사광(610)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.The second projection light 630, the fourth projection light 640, and the fourth projection light 640 according to the projection order of the projection light determined by the projection
다른 예로, 일 실시 예에 따른 광원(101)은 투사광 제어부(1210)에서 결정된 투사광의 투사 순서에 따라 제3 투사광(630), 제4 투사광(640), 제1 투사광(610) 및 제2 투사광(620)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.In another example, the
다른 예로, 일 실시 예에 따른 광원(101)은 투사광 제어부(1210)에서 결정된 투사광의 투사 순서에 따라 제4 투사광(640), 제1 투사광(610), 제2 투사광(620) 및 제3 투사광(630)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.The
도 12에서 개시된 투사광의 투사 순서는 일 실시 예이며 본 도에서 개시된 실시 예로 제한되지 않는다.The projection order of the projection light disclosed in Fig. 12 is one embodiment and is not limited to the embodiment disclosed in this drawing.
일 실시 예에 따른 변조부(1230)는 피사체에서 반사된 N개의 반사광(1205)을 변조(modulation)하여 N개의 변조된 반사광을 획득한다.A
일 실시 예에 따른 변조부(1230)는 광원(101)에서 투사된 N개의 상이한 투사광이 피사체에서 반사된 반사광(1205)을 획득할 수 있다. 일 실시 예에 따른 변조부(1230)는 획득한 반사광(1205)을 변조하여 N개의 변조된 반사광을 획득할 수 있다. The
일 실시 예에 따른 변조부(1230)는 이득 파형을 갖는 광변조 신호를 이용해 N개의 반사광(1205)을 변조하여 N개의 변조된 반사광을 획득할 수 있다. 광변조 신호는 투사광과 동일한 주기를 갖는 주기파를 포함할 수 있다.The
반사광(1205)을 획득하여 변조하는 구체적인 방법은 도 1 내지 3에서 상술하였다.A specific method of acquiring and modulating the reflected light 1205 has been described above with reference to Figs.
일 실시 예에 따른 제어부(1240)는 변조부(1230)에서 획득한 N개의 변조된 반사광을 이용하여 피사체에 대한 거리 정보를 획득한다.The
예를 들면, 일 실시 예에 따른 제어부(1240)는 변조부(1230)에서 획득한 N개의 변조된 반사광을 이용하여 피사체에 대한 3차원 영상 또는 깊이 이미지를 획득할 수 있다.For example, the
변조된 반사광을 이용하여 피사체에 대한 3차원 영상 또는 깊이 이미지를 획득하는 구체적인 방법에 대해서는 도 1 내지 3에서 상술하였다.A specific method of acquiring a three-dimensional image or depth image with respect to the object using the modulated reflected light has been described above with reference to Figs.
피사체가 움직이는 경우, 피사체에 비춰지는 외광의 세기가 변하는 경우, 피사체 표면의 반사도가 시간에 따라 변하는 경우 등과 같이 피사체에 시간에 따른 변화가 있는 경우, 모션 블러가 발생할 수 있다.When the subject moves, when the intensity of the external light reflected on the subject changes, or when the subject changes with time, such as when the reflectivity of the subject surface changes with time, motion blur may occur.
일 실시 예에 따른 제어부(1240)는 투사광 제어부(1210)에서 결정된 투사광의 투사 순서에 따라 복수개의 투사광을 투사하는 경우, 획일적인 투사 순서에 따라 복수개의 투사광을 투사하는 경우보다 모션 블러가 적은 깊이 이미지를 획득할 수 있다.The
또한, 도 4 내지 도 11에서 상술한 바와 같이 일 실시 예에 따른 투사광 제어부(1210)는 복수의 투사 순서 중에서 모션 블러를 감소시키기 위한 투사 순서를 결정할 수 있다. 일 실시 예에 따른 광원(101)은 결정된 투사 순서에 따라 투사광을 투사하고, 투사된 투사광이 반사되어 획득되는 반사광(1205)을 획득하고, 획득한 반사광(1205)을 변조하여 깊이 이미지를 획득할 수 있다. 이 경우, 일 실시 예에 따른 제어부(1240)는 획일적인 투사 순서에 따라 복수개의 투사광을 투사하는 경우보다 모션 블러가 적은 깊이 이미지를 획득할 수 있다.In addition, as described above with reference to FIGS. 4 to 11, the projection
일 실시 예에 따른 제어부(1240)는 투사광 제어부(1210)로부터 투사광의 투사 순서에 대한 정보를 수신하고, 수신한 정보를 이용하여 LD(Laser Diode)를 제어하여, LD에서 광을 투사함으로써 위상 이미지 및 깊이 이미지를 획득할 수 있다.The
다른 실시 예에 따른 제어부(1240)는 투사광 제어부(1210)로부터 투사광의 투사 순서에 대한 정보를 수신하고, 수신한 정보를 이용하여 셔터(shutter)를 제어하여, 셔터를 변조함으로써 위상 이미지 및 깊이 이미지를 획득할 수 있다.The
또한 투사광 제어부(1210)는 획득된 깊이 이미지를 피드백으로 수신하여 투사광의 투사 순서를 결정할 때 이용할 수 있다.Also, the projection
일 실시 예에 따른 제어부(1240)는 외부 수신 입력으로부터 투사광의 투사 순서에 대한 정보를 수신하고, 수신한 정보를 이용하여 LD를 제어하여, LD에서 광을 투사함으로써 위상 이미지 및 깊이 이미지를 획득할 수 있다.The
다른 실시 예에 따른 제어부(1240)는 외부 수신 입력으로부터 투사광의 투사 순서에 대한 정보를 수신하고, 수신한 정보를 이용하여 셔터(shutter)를 제어하여, 셔터를 변조함으로써 위상 이미지 및 깊이 이미지를 획득할 수 있다.The
도 13은 투사광의 제어를 통해 거리 정보를 획득하는 디바이스(100)의 예시적인 구조를 개략적으로 도시한다.FIG. 13 schematically illustrates an exemplary structure of a
도 12를 참조하면, 일 실시 예에 따른 제어부(1240)는 제어부(106), 투사광 제어부(1210), 광원 구동부(102), 광변조기 구동부(104) 및 거리 정보 영상 처리부(107)를 포함할 수 있다. 또한, 일 실시 예에 따른 변조부(1230)는 제 1 렌즈(108), 필터(109), 광변조기(103), 제 2 렌즈(110) 및 촬상소자(105)를 포함할 수 있다.12, the
도 13의 각 구성 요소의 동작에 대해서는 도 1 및 도 12의 내용을 참조할 수 있다.The operation of each component in Fig. 13 can be referred to the contents of Fig. 1 and Fig.
도 14는 일 실시 예에 따른 디바이스가 N개의 투사광을 이용하여 거리 정보를 획득하는 방법을 나타내는 흐름도이다.14 is a flowchart illustrating a method for a device according to an embodiment to acquire distance information using N projected lights.
단계 S1410에서 일 실시 예에 따른 디바이스(100)는 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 피사체의 위치 및/또는 외부 수신 입력에 기초하여 결정한다.In step S1410, the
N개의 상이한 투사광은 주기가 서로 같고, 크기와 위상 중에서 적어도 하나가 서로 다른 주기파를 포함할 수 있다.The N different projection lights may include periodic waves having the same period and different at least one of magnitude and phase.
일 실시 예에 따른 디바이스(100)는 피사체에 순차적으로 4개의 위상이 상이한 투사광을 투사할 수 있다. 예를 들면, 투사광1 내지 투사광4는 동일한 주기, 파형 및 크기를 가지면서 위상만이 서로 다른 주기파일 수 있다. 일 예로, 투사광1의 위상이 투사광2 보다 90도 느리고, 투사광2의 위상이 투사광3 보다 90도 느리고, 투사광3의 위상이 투사광4 보다 90도 느릴 수 있다. 다른 예로, 투사광1의 위상이 투사광2 보다 90도 빠르고, 투사광2의 위상이 투사광3 보다 90도 빠르고, 투사광3의 위상이 투사광4 보다 90도 빠를 수 있다.The
일 실시 예에 따른 디바이스(100)는 3개의 서브 프레임 영상, 3개의 CIS 이미지 또는 3개의 CCD 이미지를 이용하여, 광시간비행법에 따른 광파의 위상차, 피사체 표면의 반사도 및 외광을 이용하여 깊이(depth) 이미지를 획득할 수 있다. The
일 실시 예에 따른 디바이스(100)는 4개의 서브 프레임 영상, 4개의 CIS 이미지 또는 4개의 CCD 이미지를 이용하여 모션 블러가 감소된 깊이 이미지를 획득할 수 있다. 일 실시 예에 따른 디바이스(100)가 4개의 4개의 CIS 이미지를 이용하여 깊이 이미지를 획득하는 경우, 4개의 CIS 이미지는 서로 다른 위상차를 갖는 4개의 투사광에 의해 획득될 수 있다. 예를 들면, 투사광1 내지 투사광 4는 동일한 주기, 파형 및 크기를 가지면서 위상만이 90도씩 차이나는 주기파일 수 있다.The
일 실시 예에 따른 디바이스(100)는 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 피사체의 위치에 기초하여 결정할 수 있다. 예를 들면, 일 실시 예에 따른 디바이스(100)는 피사체와 디바이스(100)간의 거리에 따라 투사광의 투사 순서를 결정하여 투사광을 피사체에 투사할 수 있다.The
일 실시 예에 따른 디바이스(100)는 기설정된 복수개의 투사광의 투사 순서 중에서 디바이스(100)와 피사체간의 거리에 대응되는 투사 순서를 디바이스(100)가 피사체에 순차적으로 투사할 투사광의 투사 순서로 결정할 수 있다. 예를 들면, N이 4인 경우, 24개의 투사 순서가 모두 기설정된 거리에 각각 대응되고, 24개의 투사 순서 중 디바이스(100)와 피사체간의 거리에 대응되는 투사 순서가 디바이스(100)가 피사체에 순차적으로 투사할 투사광의 투사 순서로 결정될 수 있다. 예를 들면, 디바이스(100)와 피사체간의 거리가 1m이내인 경우 제1 투사 순서를, 디바이스(100)와 피사체간의 거리가 2m~3m인 경우 제2 투사 순서를, 디바이스(100)와 피사체간의 거리가 3m~4m인 경우 제3 투사 순서를 일 실시 예에 따른 디바이스(100)는 투사광의 투사 순서로 결정할 수 있다.The
일 실시 예에 따른 디바이스(100)는 기설정된 복수개의 투사 순서들 중에서 피사체에 대한 모션 블러를 최소화시키는 투사 순서를 투사광의 투사 순서로 결정할 수 있다. 예를 들면, 일 실시 예에 따른 디바이스(100)는 피사체에 순차적으로 투사할 투사광의 투사 순서를 피사체의 위치 및/또는 외부 수신 입력에 기초하여, 기설정된 복수개의 투사 순서들 중에서 피사체에 대한 모션 블러를 최소화시키는 투사 순서를 투사광의 투사 순서로 결정할 수 있다. The
단계 S1420에서 일 실시 예에 따른 디바이스(100)는 단계 S1410에서 결정된 투사광의 투사 순서에 따라 N개의 상이한 투사광을 피사체에 순차적으로 투사한다.In step S1420, the
예를 들면, 일 실시 예에 따른 디바이스(100)는 단계 S1410에서 결정된 투사광의 투사 순서에 따라 제1 투사광(610), 제2 투사광(620), 제3 투사광(630) 및 제4 투사광(640)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.For example, the
다른 예로, 일 실시 예에 따른 디바이스(100)는 단계 S1410에서 결정된 투사광의 투사 순서에 따라 제1 투사광(610), 제4 투사광(640), 제3 투사광(630) 및 제2 투사광(620)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.As another example, the
다른 예로, 일 실시 예에 따른 디바이스(100)는 단계 S1410에서 결정된 투사광의 투사 순서에 따라 제3 투사광(630), 제2 투사광(620), 제1 투사광(610) 및 제4 투사광(640)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.As another example, the
다른 예로, 일 실시 예에 따른 디바이스(100)는 단계 S1410에서 결정된 투사광의 투사 순서에 따라 제2 투사광(620), 제3 투사광(630), 제4 투사광(640) 및 제1 투사광(610)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.As another example, the
다른 예로, 일 실시 예에 따른 디바이스(100)는 단계 S1410에서 결정된 투사광의 투사 순서에 따라 제3 투사광(630), 제4 투사광(640), 제1 투사광(610) 및 제2 투사광(620)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.In another example, the
다른 예로, 일 실시 예에 따른 디바이스(100)는 단계 S1410에서 결정된 투사광의 투사 순서에 따라 제4 투사광(640), 제1 투사광(610), 제2 투사광(620) 및 제3 투사광(630)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.As another example, the
단계 S1420에서 개시된 투사광의 투사 순서는 일 실시 예이며 단계 S1420에서 개시된 실시 예로 제한되지 않는다.The projection order of the projection light started in step S1420 is one embodiment and is not limited to the embodiment disclosed in step S1420.
단계 S1430에서 일 실시 예에 따른 디바이스(100)는 피사체에서 반사된 N개의 반사광을 변조(modulation)하여 N개의 변조된 반사광을 획득한다.In step S1430, the
일 실시 예에 따른 디바이스(100)는 단계 S1420에서 투사된 N개의 상이한 투사광이 피사체에서 반사된 반사광을 획득할 수 있다. 일 실시 예에 따른 디바이스(100)는 획득한 반사광을 변조하여 N개의 변조된 반사광을 획득할 수 있다. The
일 실시 예에 따른 디바이스(100)는 이득 파형을 갖는 광변조 신호를 이용해 N개의 반사광을 변조하여 N개의 변조된 반사광을 획득할 수 있다. 광변조 신호는 투사광과 동일한 주기를 갖는 주기파를 포함할 수 있다.The
반사광을 획득하여 변조하는 구체적인 방법은 도 1 내지 3에서 상술하였다.A specific method of acquiring and modulating reflected light has been described above with reference to Figs.
단계 S1440에서 일 실시 예에 따른 디바이스(100)는 단계 S1430에서 획득한 N개의 변조된 반사광을 이용하여 피사체에 대한 거리 정보를 획득한다.In step S1440, the
예를 들면, 일 실시 예에 따른 디바이스(100)는 단계 S1430에서 획득한 N개의 변조된 반사광을 이용하여 피사체에 대한 3차원 영상 또는 깊이 이미지를 획득할 수 있다.For example, the
변조된 반사광을 이용하여 피사체에 대한 3차원 영상 또는 깊이 이미지를 획득하는 구체적인 방법에 대해서는 도 1 내지 3에서 상술하였다.A specific method of acquiring a three-dimensional image or depth image with respect to the object using the modulated reflected light has been described above with reference to Figs.
피사체가 움직이는 경우, 피사체에 비춰지는 외광의 세기가 변하는 경우, 피사체 표면의 반사도가 시간에 따라 변하는 경우 등과 같이 피사체에 시간에 따른 변화가 있는 경우, 모션 블러가 발생할 수 있다.When the subject moves, when the intensity of the external light reflected on the subject changes, or when the subject changes with time, such as when the reflectivity of the subject surface changes with time, motion blur may occur.
일 실시 예에 따른 디바이스(100)는 단계 S1410에서 결정된 투사광의 투사 순서에 따라 복수개의 투사광을 투사하는 경우, 획일적인 투사 순서에 따라 복수개의 투사광을 투사하는 경우보다 모션 블러가 적은 깊이 이미지를 획득할 수 있다.When projecting a plurality of projected lights in accordance with the projection order of the projection light determined in step S1410, the
또한, 도 4 내지 도 11에서 상술한 바와 같이 일 실시 예에 따른 디바이스(100)는 복수의 투사 순서 중에서 모션 블러를 감소시키기 위한 투사 순서를 결정할 수 있다. 일 실시 예에 따른 디바이스(100)는 결정된 투사 순서에 따라 투사광을 투사하고, 투사된 투사광이 반사되어 획득되는 반사광을 획득하고, 획득한 반사광을 변조하여 깊이 이미지를 획득할 수 있다. 이 경우, 일 실시 예에 따른 디바이스(100)는 획일적인 투사 순서에 따라 복수개의 투사광을 투사하는 경우보다 모션 블러가 적은 깊이 이미지를 획득할 수 있다.In addition, as described above with reference to FIGS. 4 through 11, the
도 15는 일 실시 예에 따른 디바이스가 N개의 위상이 상이한 투사광을 이용하여 거리 정보를 획득하는 방법을 나타내는 흐름도이다.15 is a flow diagram illustrating a method for a device according to an embodiment to acquire distance information using N different-phase projected lights.
단계 S1510에서 일 실시 예에 따른 디바이스(100)는 디바이스(100) 및 피사체간의 거리 정보를 획득한다.In step S1510, the
예를 들면, 일 실시 예에 따른 디바이스(100)는 이미 획득된 깊이 이미지 또는 3차원 영상을 이용하여 디바이스(100)와 피사체간의 거리를 획득할 수 있다. For example, the
다른 예로, 일 실시 예에 따른 디바이스(100)는 피사체와 디바이스(100)간의 거리에 대한 정보를 실시간으로 획득할 수 있다. 예를 들면, 일 실시 예에 따른 디바이스(100)는 실시간으로 새롭게 획득된 깊이 이미지 또는 3차원 영상을 피드백으로 수신하여 수신한 깊이 이미지 또는 3차원 영상을 이용하여 디바이스(100)와 피사체간의 거리를 획득할 수 있다. 다른 예로, 일 실시 예에 따른 디바이스(100)는 후술되는 단계 S1560에서 획득되는 거리 정보를 디바이스 및 피사체간의 거리 정보로 획득할 수 있다.In another example, the
단계 S1520에서 일 실시 예에 따른 디바이스(100)는 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 획득한 거리 정보에 기초하여 결정 한다.In step S1520, the
일 실시 예에 따른 디바이스(100)는 디바이스(100) 및 피사체간의 거리 정보를 획득하고, 획득한 거리 정보에 기초하여 피사체에 대한 모션 블러를 최소화시키기 위한 투사광의 투사 순서를 결정할 수 있다.The
일 실시 예에 따른 디바이스(100)는 단계 S1510에서 획득한 거리에 대응하는 투사 순서를 투사광의 투사 순서로 결정할 수 있다. 예를 들면, 일 실시 예에 따른 디바이스(100)는 단계 S1510에서 획득한 거리에서 모션 블러를 최소화시킬 수 있는 투사 순서를 투사광의 투사 순서로 결정할 수 있다. 거리에 따라 모션 블러를 최소화시킬 수 있는 투사 순서는 미리 결정되어 있을 수 있고, 계산되어질 수도 있다. 피사체와 디바이스(100)간의 거리에 따라 투사광의 투사 순서를 결정하는 구체적인 예는 도 10에서 상술하였다.The
단계 S1530에서 일 실시 예에 따른 디바이스(100)는 단계 S1520에서 결정된 투사광의 투사 순서에 따라 N개의 위상이 상이한 투사광을 피사체에 순차적으로 투사한다. N개의 위상이 상이한 투사광 사이에 360도를 N 등분한 위상차가 존재할 수 있다.In step S1530, the
일 실시 예에 따른 디바이스(100)가 단계 S1520에서 결정된 투사광의 투사 순서에 따라 N개의 상이한 투사광을 피사체에 순차적으로 투사하는 구체적인 방법은 단계 S1420에서 상술하였다.The specific method by which the
단계 S1540에서 일 실시 예에 따른 디바이스(100)는 피사체에서 반사된 N개의 반사광을 획득한다.In step S1540, the
일 실시 예에 따른 디바이스(100)는 단계 S1530에서 투사된 투사광이 피사체에서 반사된 N개의 반사광을 획득할 수 있다. 반사광은 피사체의 반사도에 영향을 받아 결정될 수 있다. 반사광을 획득하는 구체적인 방법은 도 1 내지 도 3에서 상술하였다.The
단계 S1550 및 단계 S1560은 각각 단계 S1430 및 단계 S1440에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.Steps S1550 and S1560 correspond to steps S1430 and S1440, respectively, and therefore, a detailed description thereof will be omitted for the sake of simplicity.
도 16는 일 실시 예에 따른 디바이스가 외부 수신 입력에 기초하여 결정된 투사광의 투사 순서를에 따라 상이한 투사광을 투사하여 거리 정보를 획득하는 방법을 나타내는 흐름도이다.16 is a flowchart showing a method of a device according to an embodiment to project distance-based information by projecting different projection light according to a projection order of projection light determined based on an external reception input.
단계 S1630 내지 단계 S1650은 단계 S1420 내지 단계 S1440에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.Since steps S1630 to S1650 correspond to steps S1420 to S1440, a detailed description will be omitted for the sake of simplicity.
단계 S1610에서 일 실시 예에 따른 디바이스(100)는 외부로부터 입력을 수신한다.In step S1610, the
일 실시 예에 따른 디바이스(100)는 사용자 입력을 수신할 수 있다. 예를 들면, 일 실시 예에 따른 디바이스(100)는 수신한 사용자 입력에 기초하여 결정된 외부 수신 입력을 수신할 수 있다. 사용자 입력은, 터치 입력, 키보드 입력, 음성 입력, 소리 입력, 버튼 입력, 제스쳐 입력 및 다중(multimodal) 입력 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.The
일 실시 예에 따른 디바이스(100)는 외부 수신 입력을 수신할 수 있다. 예를 들면, 무선 또는 유선 방식을 통해 일 실시 예에 따른 디바이스(100)는 외부 수신 입력을 수신할 수 있다. 다른 예로, 일 실시 예에 따른 디바이스(100)는 디바이스(100) 외부의 서버 또는 디바이스(100) 외부의 외부 디바이스로부터 외부 수신 입력을 수신할 수 있다.The
단계 S1620에서 일 실시 예에 따른 디바이스(100)는 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 외부 수신 입력에 기초하여 결정한다.In step S1620, the
예를 들면, 일 실시 예에 따른 디바이스(100)는 피사체에 순차적으로 투사할 투사광의 투사 순서를 외부 수신 입력에 기초하여, 기설정된 복수개의 투사 순서들 중에서 피사체에 대한 모션 블러를 최소화시키는 투사 순서를 투사광의 투사 순서로 결정할 수 있다.For example, the
일 실시 예에 따른 디바이스(100)는 기설정된 복수개의 투사광의 투사 순서 중에서 외부 수신 입력에 대응되는 투사 순서를 디바이스(100)가 피사체에 순차적으로 투사할 투사광의 투사 순서로 결정할 수 있다. 예를 들면, N이 4인 경우, 24개의 투사 순서 중 외부 수신 입력에 따라 결정된 투사 순서가 디바이스(100)가 피사체에 순차적으로 투사할 투사광의 투사 순서로 결정될 수 있다.The
이상에서 전술한 일 실시 예에 따른 정보 획득 방법 및 장치는 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있고 컴퓨터에 의해 실행됨으로써 전술한 기능들이 실행될 수 있다. The information obtaining method and apparatus according to the embodiment described above can be recorded in a computer-readable recording medium and executed by a computer so that the above-described functions can be executed.
또한, 이러한 코드는 전술한 기능들을 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조 되어야 하는지에 대한 메모리 참조 관련 코드를 더 포함할 수 있다. In addition, such code may further include memory reference related code as to what additional information or media needed to cause the processor of the computer to execute the aforementioned functions should be referenced at any location (address) of the internal or external memory of the computer .
이상에서 전술한 바와 같은 프로그램을 기록한 컴퓨터로 읽힐 수 있는 기록매체는, 일례로, ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 미디어 저장장치 등이 있다. The computer-readable recording medium on which the above-described program is recorded includes ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical media storage, and the like.
각 실시 예에 따른 정보 획득 방법 및 장치를 실행시키기 위한 프로그램인 애플리케이션을 기록한 기록매체를 읽을 수 있는 컴퓨터는, 일반적인 데스크 탑이나 노트북 등의 일반 PC 뿐만 아니라, 스마트 폰, 태블릿 PC, PDA(Personal Digital Assistants) 및 이동통신 단말기 등의 모바일 단말을 포함할 수 있으며, 이뿐만 아니라, 컴퓨팅(Computing) 가능한 모든 기기로 해석되어야 할 것이다. A computer capable of reading a recording medium on which an application, which is a program for executing the information obtaining method and apparatus according to each embodiment, can be read is not limited to a general PC such as a general desktop or a notebook computer, but also a smart phone, a tablet PC, Assistants, and mobile terminals. In addition, it should be interpreted as all devices capable of computing.
이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. It is to be understood that the terms "comprises", "comprising", or "having" as used in the foregoing description mean that the constituent element can be implanted unless specifically stated to the contrary, But should be construed as further including other elements.
이상의 설명은 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 해당 기술 분야에서 통상의 지식을 가진 자라면 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 개시된 실시 예들은 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 기술 사상의 범위가 한정되는 것은 아니다. 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of technical ideas, and various modifications and changes may be made without departing from the essential characteristics of those skilled in the art. Therefore, the disclosed embodiments are intended to be illustrative rather than limiting, and the scope of the technical idea is not limited by these embodiments. The scope of protection is to be interpreted by the following claims, and all technical ideas within the scope of equivalents should be interpreted as being included in the scope of the right.
Claims (20)
상기 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 상기 피사체의 위치 및/또는 외부 수신 입력에 기초하여 결정하는 단계;
상기 투사광의 투사 순서에 따라 상기 N개의 상이한 투사광을 상기 피사체에 순차적으로 투사하는 단계;
상기 피사체에서 반사된 N개의 반사광을 변조(modulation)하여 N개의 변조된 반사광을 획득하는 단계; 및
상기 N개의 변조된 반사광을 이용하여 상기 피사체에 대한 거리 정보를 획득하는 단계를 포함하는 거리 정보 획득 방법.A method for a device to obtain information about a subject,
Determining a projection sequence of N projected light beams to be sequentially projected onto the subject (where N is a natural number of 3 or more) based on the position of the subject and / or an external received input;
Sequentially projecting the N different projection lights onto the subject according to a projection order of the projection light;
Modulating N reflected light reflected from the subject to obtain N modulated reflected light; And
And obtaining distance information on the object using the N modulated reflected light.
상기 투사광의 투사 순서를 상기 피사체의 위치 및/또는 상기 외부 수신 입력에 기초하여 결정하는 단계는
상기 디바이스 및 상기 피사체간의 거리 정보를 획득하고, 상기 획득한 거리 정보에 기초하여 상기 투사광의 투사 순서를 결정하는 거리 정보 획득 방법.The method according to claim 1,
Wherein the step of determining the projection order of the projection light based on the position of the subject and /
Acquiring distance information between the device and the subject, and determining a projection order of the projection light based on the obtained distance information.
상기 디바이스 및 상기 피사체간의 거리 정보는 실시간으로 획득되는 거리 정보 획득 방법.The method according to claim 1,
Wherein the distance information between the device and the subject is obtained in real time.
상기 투사광의 투사 순서를 상기 피사체의 위치 및/또는 상기 외부 수신 입력에 기초하여 결정하는 단계는
상기 디바이스 및 상기 피사체간의 거리 정보를 획득하고, 상기 획득한 거리 정보에 기초하여 상기 피사체에 대한 모션 블러(motion blur)를 최소화시키기 위한 상기 투사광의 투사 순서를 결정하는 거리 정보 획득 방법.The method according to claim 1,
Wherein the step of determining the projection order of the projection light based on the position of the subject and /
Acquiring distance information between the device and the subject, and determining a projection order of the projection light for minimizing motion blur for the subject based on the obtained distance information.
상기 투사광의 투사 순서를 상기 피사체의 위치 및/또는 상기 외부 수신 입력에 기초하여 결정하는 단계는
기설정된 복수개의 투사 순서들 중에서 상기 피사체에 대한 모션 블러를 최소화시키는 투사 순서를 상기 투사광의 투사 순서로 결정하는 거리 정보 획득 방법.The method according to claim 1,
Wherein the step of determining the projection order of the projection light based on the position of the subject and /
And a projection order in which a motion blur for the subject is minimized among a plurality of predetermined projection orders is determined as a projection order of the projection light.
상기 N개의 상이한 투사광은 주기가 서로 같고, 크기와 위상 중에서 적어도 하나가 서로 다른 주기파를 포함하는 거리 정보 획득 방법.The method according to claim 1,
Wherein the N different projection lights have the same period and at least one of a magnitude and a phase includes different periodic waves.
상기 피사체에서 반사된 상기 N개의 반사광을 변조(modulation)하여 상기 N개의 변조된 반사광을 획득하는 단계는
이득 파형을 갖는 광변조 신호를 이용해 상기 N개의 반사광을 변조(modulation)하여 상기 N개의 변조된 반사광을 획득하는 거리 정보 획득 방법.The method according to claim 1,
Wherein the step of modulating the N reflected light reflected from the subject to obtain the N modulated reflected light comprises:
And modulating the N reflected light by using an optical modulated signal having a gain waveform to obtain the N modulated reflected light.
상기 광변조 신호는 투사광과 동일한 주기를 갖는 주기파를 포함하는 거리 정보 획득 방법.8. The method of claim 7,
Wherein the optical modulating signal includes a periodic wave having the same period as the projected light.
상기 N개의 상이한 투사광은 서로 위상이 상이하고, 상기 N개의 상이한 투사광 사이에 360도를 N 등분한 위상차가 존재하는 거리 정보 획득 방법.The method according to claim 1,
Wherein the N different projected lights have different phases from each other and a phase difference of 360 degrees divided by N is present between the N different projected lights.
상기 투사광의 투사 순서를 상기 피사체의 위치 및/또는 상기 외부 수신 입력에 기초하여 결정하는 단계는
사용자의 입력에 기초하여 결정된 외부 수신 입력에 기초하여 상기 투사광의 투사 순서를 결정하는 거리 정보 획득 방법.
The method according to claim 1,
Wherein the step of determining the projection order of the projection light based on the position of the subject and /
And a projection order of the projection light is determined based on an external reception input determined based on a user's input.
상기 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 상기 피사체의 위치 및/또는 외부 수신 입력에 기초하여 결정하는 투사광 제어부;
상기 투사광의 투사 순서에 따라 상기 N개의 상이한 투사광을 상기 피사체에 순차적으로 투사하는 광원;
상기 피사체에서 반사된 N개의 반사광을 변조(modulation)하여 N개의 변조된 반사광을 획득하는 변조부(modulator); 및
상기 N개의 변조된 반사광을 이용하여 상기 피사체에 대한 거리 정보를 획득하는 제어부를 포함하는 디바이스.A device for acquiring information on a subject, the device comprising:
A projection light control unit for determining a projection sequence of N different projection light sequentially projected onto the object (where N is a natural number of 3 or more) based on the position of the object and / or an external reception input;
A light source sequentially projecting the N different projection lights onto the subject according to a projection order of the projection lights;
A modulator for modulating N reflected light reflected from the subject to obtain N modulated reflected light; And
And a controller for obtaining distance information on the object using the N modulated reflected lights.
상기 투사광 제어부는
상기 디바이스 및 상기 피사체간의 거리 정보를 획득하고, 상기 획득한 거리 정보에 기초하여 상기 투사광의 투사 순서를 결정하는 디바이스.12. The method of claim 11,
The projection-
Obtain distance information between the device and the subject, and determine a projection order of the projection light based on the obtained distance information.
상기 디바이스 및 상기 피사체간의 거리 정보는 실시간으로 획득되는 디바이스.12. The method of claim 11,
Wherein distance information between the device and the subject is obtained in real time.
상기 투사광 제어부는
상기 디바이스 및 상기 피사체간의 거리 정보를 획득하고, 상기 획득한 거리 정보에 기초하여 상기 피사체에 대한 모션 블러(motion blur)를 최소화시키기 위한 상기 투사광의 투사 순서를 결정하는 디바이스.12. The method of claim 11,
The projection-
Obtains distance information between the device and the subject, and determines a projection order of the projection light for minimizing motion blur for the subject based on the obtained distance information.
상기 투사광 제어부는
기설정된 복수개의 투사 순서들 중에서 상기 피사체에 대한 모션 블러를 최소화시키는 투사 순서를 상기 투사광의 투사 순서로 결정하는 디바이스.12. The method of claim 11,
The projection-
And a projection order in which a motion blur for the subject is minimized among a plurality of predetermined projection orders is determined as a projection order of the projection light.
상기 N개의 상이한 투사광은 주기가 서로 같고, 크기와 위상 중에서 적어도 하나가 서로 다른 주기파를 포함하는 디바이스.12. The method of claim 11,
Wherein the N different projected lights include periodic waves having the same period and at least one of a magnitude and a phase being different from each other.
상기 변조부는
이득 파형을 갖는 광변조 신호를 이용해 상기 N개의 반사광을 변조(modulation)하여 상기 N개의 변조된 반사광을 획득하는 디바이스.12. The method of claim 11,
The modulator
A device for modulating the N reflected light using an optical modulated signal having a gain waveform to obtain the N modulated reflected light.
상기 광변조 신호는 투사광과 동일한 주기를 갖는 주기파를 포함하는 디바이스.18. The method of claim 17,
Wherein the optical modulating signal comprises a periodic wave having the same period as the projected light.
상기 N개의 상이한 투사광은 서로 위상이 상이하고, 상기 N개의 상이한 투사광 사이에 360도를 N 등분한 위상차가 존재하는 디바이스.12. The method of claim 11,
Wherein the N different projected lights have different phases from each other and a phase difference of 360 degrees divided by N is present between the N different projected lights.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150186778A KR102610830B1 (en) | 2015-12-24 | 2015-12-24 | Method and device for acquiring distance information |
US15/209,123 US10509125B2 (en) | 2015-12-24 | 2016-07-13 | Method and device for acquiring distance information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150186778A KR102610830B1 (en) | 2015-12-24 | 2015-12-24 | Method and device for acquiring distance information |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170076477A true KR20170076477A (en) | 2017-07-04 |
KR102610830B1 KR102610830B1 (en) | 2023-12-06 |
Family
ID=59088288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150186778A KR102610830B1 (en) | 2015-12-24 | 2015-12-24 | Method and device for acquiring distance information |
Country Status (2)
Country | Link |
---|---|
US (1) | US10509125B2 (en) |
KR (1) | KR102610830B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10545237B2 (en) | 2016-08-22 | 2020-01-28 | Samsung Electronics Co., Ltd. | Method and device for acquiring distance information |
KR20210008773A (en) * | 2019-07-15 | 2021-01-25 | 한국과학기술원 | Three dimensional image generating method and apparatus |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107241591A (en) * | 2017-06-30 | 2017-10-10 | 中国航空工业集团公司雷华电子技术研究所 | A kind of embedded 3D video image display methods of airborne radar and system |
KR102646902B1 (en) | 2019-02-12 | 2024-03-12 | 삼성전자주식회사 | Image Sensor For Distance Measuring |
JP2020148510A (en) * | 2019-03-11 | 2020-09-17 | ソニーセミコンダクタソリューションズ株式会社 | Distance measuring device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101357120B1 (en) * | 2013-04-23 | 2014-02-05 | 김태민 | Method of measuring distance based on optical signals and apparatuse thereof |
KR20140121710A (en) * | 2013-04-08 | 2014-10-16 | 삼성전자주식회사 | An 3D image apparatus and method for generating a depth image in the 3D image apparatus |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5081530A (en) | 1987-06-26 | 1992-01-14 | Antonio Medina | Three dimensional camera and range finder |
US4935616A (en) | 1989-08-14 | 1990-06-19 | The United States Of America As Represented By The Department Of Energy | Range imaging laser radar |
IL114278A (en) | 1995-06-22 | 2010-06-16 | Microsoft Internat Holdings B | Camera and method |
CN1101056C (en) | 1995-06-22 | 2003-02-05 | 3Dv系统有限公司 | Improved optical ranging camera |
US6088086A (en) | 1995-09-11 | 2000-07-11 | Sandia Corporation | Range determination for scannerless imaging |
AU5876798A (en) | 1998-02-08 | 1999-08-23 | 3Dv Systems Ltd. | Large aperture optical image shutter |
US6118946A (en) | 1999-06-29 | 2000-09-12 | Eastman Kodak Company | Method and apparatus for scannerless range image capture using photographic film |
US6856355B1 (en) | 1999-11-30 | 2005-02-15 | Eastman Kodak Company | Method and apparatus for a color scannerless range image system |
US6794628B2 (en) | 2000-01-03 | 2004-09-21 | 3Dv Systems, Ltd. | Solid state optical shutter |
WO2005036372A2 (en) | 2003-10-09 | 2005-04-21 | Honda Motor Co., Ltd. | Systems and methods for determining depth using shuttered light pulses |
JP4161910B2 (en) | 2004-01-28 | 2008-10-08 | 株式会社デンソー | Distance image data generation device, generation method, and program |
US20060241371A1 (en) | 2005-02-08 | 2006-10-26 | Canesta, Inc. | Method and system to correct motion blur in time-of-flight sensor systems |
JP2009065605A (en) | 2007-09-10 | 2009-03-26 | Hitachi Ltd | Mobile-type imaging device and imaging method |
US8619354B2 (en) | 2008-12-24 | 2013-12-31 | Samsung Electronics Co., Ltd. | High speed optical shutter, method of operating the same and apparatus including the same |
RU2431876C2 (en) | 2008-12-24 | 2011-10-20 | Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." | Three-dimensional image camera with photomodulator |
KR101520029B1 (en) | 2008-12-31 | 2015-05-15 | 삼성전자주식회사 | Optical Modulator with Pixelization Patterns |
KR101547327B1 (en) | 2009-01-15 | 2015-09-07 | 삼성전자주식회사 | Optical image modulator and optical apparatus comprising the same and methods of manufacturing and operating optical image modulator |
KR101603778B1 (en) | 2009-01-19 | 2016-03-25 | 삼성전자주식회사 | Optical image shutter |
KR101623960B1 (en) | 2009-06-04 | 2016-05-25 | 삼성전자주식회사 | Optoelectronic shutter, method of operating the same and optical apparatus employing the optoelectronic shutter |
KR101638974B1 (en) | 2009-06-17 | 2016-07-13 | 삼성전자주식회사 | Optical modulator, methods of manufacturing and operating the same and optical apparatus comprising optical modulator |
KR101706354B1 (en) | 2009-06-24 | 2017-02-13 | 삼성전자주식회사 | High speed optical modulator and method of modulating light using the same |
EP2521926B1 (en) * | 2010-01-06 | 2020-07-29 | Heptagon Micro Optics Pte. Ltd. | Demodulation sensor with separate pixel and storage arrays |
KR101675111B1 (en) | 2010-01-08 | 2016-11-11 | 삼성전자주식회사 | Optical image shutter and method of fabricating the same |
KR101675112B1 (en) | 2010-01-21 | 2016-11-22 | 삼성전자주식회사 | Method of extractig depth information and optical apparatus employing the method |
KR101638973B1 (en) | 2010-01-22 | 2016-07-12 | 삼성전자주식회사 | Optical modulator and method of fabricating the same |
KR101753312B1 (en) | 2010-09-17 | 2017-07-03 | 삼성전자주식회사 | Apparatus and method for generating depth image |
KR101598547B1 (en) | 2010-12-03 | 2016-03-02 | 삼성전자주식회사 | Optical image modulator and method of manufacturing the same |
KR101660408B1 (en) | 2010-12-20 | 2016-09-27 | 삼성전자주식회사 | Optical image modulator having correction function for incident angle of incident light and optical apparatus comprising the same |
KR101722641B1 (en) | 2010-12-23 | 2017-04-04 | 삼성전자주식회사 | 3D image acquisition apparatus and method of extractig depth information in the 3D image acquisition apparatus |
KR20120075182A (en) | 2010-12-28 | 2012-07-06 | 삼성전자주식회사 | Optical modulator using multiple fabry-perot resonant modes and 3d image acquisition apparatus |
KR101669219B1 (en) | 2010-12-30 | 2016-10-26 | 삼성전자주식회사 | Light modulator and optical apparatus employing the same |
KR101799521B1 (en) | 2011-05-24 | 2017-11-20 | 삼성전자 주식회사 | Light modulator with photonic crystal and 3D image acquisition apparatus employing the same |
CN104137150B (en) | 2011-07-04 | 2016-12-28 | 李·文森特·斯特里特 | Motion compensation in range finding imaging |
US20150260830A1 (en) * | 2013-07-12 | 2015-09-17 | Princeton Optronics Inc. | 2-D Planar VCSEL Source for 3-D Imaging |
KR102194237B1 (en) | 2014-08-29 | 2020-12-22 | 삼성전자주식회사 | Method and apparatus for generating depth image |
-
2015
- 2015-12-24 KR KR1020150186778A patent/KR102610830B1/en active IP Right Grant
-
2016
- 2016-07-13 US US15/209,123 patent/US10509125B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140121710A (en) * | 2013-04-08 | 2014-10-16 | 삼성전자주식회사 | An 3D image apparatus and method for generating a depth image in the 3D image apparatus |
KR101357120B1 (en) * | 2013-04-23 | 2014-02-05 | 김태민 | Method of measuring distance based on optical signals and apparatuse thereof |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10545237B2 (en) | 2016-08-22 | 2020-01-28 | Samsung Electronics Co., Ltd. | Method and device for acquiring distance information |
KR20210008773A (en) * | 2019-07-15 | 2021-01-25 | 한국과학기술원 | Three dimensional image generating method and apparatus |
Also Published As
Publication number | Publication date |
---|---|
US10509125B2 (en) | 2019-12-17 |
US20170184722A1 (en) | 2017-06-29 |
KR102610830B1 (en) | 2023-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107765260B (en) | Method, apparatus, and computer-readable recording medium for acquiring distance information | |
KR102486385B1 (en) | Apparatus and method of sensing depth information | |
KR101722641B1 (en) | 3D image acquisition apparatus and method of extractig depth information in the 3D image acquisition apparatus | |
KR101854188B1 (en) | 3D image acquisition apparatus and method of acqiring depth information in the 3D image acquisition apparatus | |
KR102040152B1 (en) | An 3D image apparatus and method for generating a depth image in the 3D image apparatus | |
JP5739174B2 (en) | Distance information extraction method and optical apparatus employing the method | |
KR102611080B1 (en) | Imaging devices with autofocus control | |
KR102056904B1 (en) | 3D image acquisition apparatus and method of driving the same | |
KR101975971B1 (en) | Depth camera, multi-depth camera system, and synchronizing method thereof | |
KR102610830B1 (en) | Method and device for acquiring distance information | |
KR101955334B1 (en) | 3D image acquisition apparatus and method of extractig depth information in the 3D image acquisition apparatus | |
KR102194237B1 (en) | Method and apparatus for generating depth image | |
US10264240B2 (en) | Method and apparatus for generating depth image | |
KR102237828B1 (en) | Gesture detection device and detecting method of gesture using the same | |
US9746547B2 (en) | Method and apparatus for generating depth image | |
US10663593B2 (en) | Projector apparatus with distance image acquisition device and projection method | |
JP2014062982A (en) | Image projection device with three-dimensional information acquisition function | |
CN114207474A (en) | Unwrapped phase of time-of-flight modulated light | |
KR102389380B1 (en) | Apparatus and method of extracting depth information of the 3D image | |
US20230260143A1 (en) | Using energy model to enhance depth estimation with brightness image | |
JP2017133931A (en) | Image creation device, and distance image and color image creation method | |
WO2023156561A1 (en) | Using energy model to enhance depth estimation with brightness image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |