KR20170076477A - Method and device for acquiring distance information - Google Patents

Method and device for acquiring distance information Download PDF

Info

Publication number
KR20170076477A
KR20170076477A KR1020150186778A KR20150186778A KR20170076477A KR 20170076477 A KR20170076477 A KR 20170076477A KR 1020150186778 A KR1020150186778 A KR 1020150186778A KR 20150186778 A KR20150186778 A KR 20150186778A KR 20170076477 A KR20170076477 A KR 20170076477A
Authority
KR
South Korea
Prior art keywords
projection
light
subject
projection light
order
Prior art date
Application number
KR1020150186778A
Other languages
Korean (ko)
Other versions
KR102610830B1 (en
Inventor
박용화
윤희선
이지산
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150186778A priority Critical patent/KR102610830B1/en
Priority to US15/209,123 priority patent/US10509125B2/en
Publication of KR20170076477A publication Critical patent/KR20170076477A/en
Application granted granted Critical
Publication of KR102610830B1 publication Critical patent/KR102610830B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4915Time delay measurement, e.g. operational details for pixel components; Phase measurement
    • H04N13/0022
    • H04N13/0203

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)

Abstract

디바이스가 피사체에 대한 거리 정보를 획득함에 있어서, 투사하는 투사광을 제어하여 오차를 효율적으로 감소시킬 수 있는 거리 정보 획득 방법이 제공된다.There is provided a distance information acquiring method capable of efficiently reducing an error by controlling a projection light to be projected when a device acquires distance information with respect to a subject.

Description

거리 정보를 획득하는 방법 및 디바이스 {Method and device for acquiring distance information}[0001] The present invention relates to a method and device for acquiring distance information,

개시된 내용은 거리 정보를 획득하는 디바이스가 거리 정보를 획득하는 방법에 관한 것으로, 더욱 상세하게는 디바이스가 3차원 영상을 획득하는 방법에 관한 것이다.The disclosed subject matter relates to a method for obtaining distance information by a device that obtains distance information, and more particularly to a method for a device to obtain a three-dimensional image.

최근, 깊이감 있는 영상을 표시할 수 있는 3D 디스플레이 장치의 발전 및 수요 증가와 함께 3D 컨텐츠의 중요성이 부각되고 있다. 이에 따라, 일반 사용자가 3D 컨텐츠를 직접 제작할 수 있는 3D 카메라와 같은 3차원 영상 획득 장치가 연구되고 있다. 이러한 3D 카메라는 한번의 촬영으로 기존의 2차원 컬러 영상 정보와 함께 깊이(depth) 정보도 얻을 수 있어야 한다.In recent years, the importance of 3D contents has been highlighted along with the development of 3D display devices capable of displaying deep-seated images and the increasing demand. Accordingly, a three-dimensional image acquiring device such as a 3D camera capable of directly producing 3D contents by a general user is being studied. Such a 3D camera should be able to acquire depth information together with existing two-dimensional color image information in one shot.

피사체의 표면들과 3D 카메라 사이의 거리에 관한 깊이 정보는, 두 대의 카메라를 이용한 양안 입체시(Stereo Vision) 방법이나 구조광(Structured Light)과 카메라를 이용한 삼각 측량법(Triangulation)을 이용하여 얻을 수 있다. 그러나 이러한 방법은 피사체의 거리가 멀어질수록 깊이 정보에 대한 정확도가 급격히 저하되고 피사체의 표면 상태에 의존적이어서 정밀한 깊이 정보를 얻기 어렵다.Depth information on the distance between the surface of the subject and the 3D camera can be obtained by using a stereoscopic vision method using two cameras or a triangulation method using a structured light and a camera have. However, in this method, it is difficult to obtain accurate depth information because the accuracy of the depth information is drastically deteriorated as the distance of the subject becomes farther away, and it depends on the surface condition of the subject.

이러한 문제를 개선하기 위하여 광시간비행법(Time-of-Flight; TOF)이 도입되었다. TOF 기술은 조명광을 피사체에 조사한 후, 피사체로부터 반사되는 광이 수광부에서 수광되기까지의 광 비행시간을 측정하는 방법이다. TOF 기술에 따르면, 발광 다이오드(LED) 또는 레이저 다이오드(LD)를 포함하는 조명 광학계를 이용하여 특정 파장의 빛(예컨대, 850nm의 근적외선)을 피사체에 투사하고, 피사체로부터 반사된 동일한 파장의 빛을 수광부에서 수광한 후, 기지의 이득 파형을 갖는 변조기로 상기 수광된 빛을 변조하는 등 깊이 정보를 획득하기 위한 일련의 처리 과정을 거치게 된다. 이러한 일련의 광 처리 과정에 따라 다양한 TOF 기술이 소개되어 있다.Time-of-flight (TOF) has been introduced to solve this problem. TOF technology is a method of measuring the light flight time from the time when the light reflected from the subject is received by the light receiving unit after illuminating the subject with the illumination light. According to the TOF technique, light of a specific wavelength (for example, near-infrared light of 850 nm) is projected to a subject using an illumination optical system including a light emitting diode (LED) or a laser diode (LD), and light of the same wavelength After receiving the light by the light receiving unit, the received light is modulated by a modulator having a known gain waveform, and a series of processes are performed to obtain depth information. A variety of TOF technologies are introduced in this series of optical processes.

디바이스가 피사체에 대한 거리 정보를 획득함에 있어서, 투사하는 투사광을 제어하여 오차를 효율적으로 감소시킬 수 있는 거리 정보 획득 방법이 제공된다.There is provided a distance information acquiring method capable of efficiently reducing an error by controlling a projection light to be projected when a device acquires distance information with respect to a subject.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제 1 측면은, 디바이스가 피사체에 대한 정보를 획득하는 방법에 있어서, 상기 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 상기 피사체의 위치 및/또는 외부 수신 입력에 기초하여 결정하는 단계; 상기 투사광의 투사 순서에 따라 상기 N개의 상이한 투사광을 상기 피사체에 순차적으로 투사하는 단계; 상기 피사체에서 반사된 N개의 반사광을 변조(modulation)하여 N개의 변조된 반사광을 획득하는 단계; 및 상기 N개의 변조된 반사광을 이용하여 상기 피사체에 대한 거리 정보를 획득하는 단계를 포함할 수 있다.According to a first aspect of the present invention, there is provided a method of acquiring information about a subject, the method comprising: acquiring N images sequentially projected on the subject, wherein N is a natural number of 3 or more ) Based on the position of the object and / or an external received input; Sequentially projecting the N different projection lights onto the subject according to a projection order of the projection light; Modulating N reflected light reflected from the subject to obtain N modulated reflected light; And obtaining distance information on the object using the N modulated reflected light.

또한, 상기 투사광의 투사 순서를 상기 피사체의 위치 및/또는 상기 외부 수신 입력에 기초하여 결정하는 단계는 상기 디바이스 및 상기 피사체간의 거리 정보를 획득하고, 상기 획득한 거리 정보에 기초하여 상기 투사광의 투사 순서를 결정할 수 있다.The step of determining the projection order of the projection light on the basis of the position of the object and / or the external reception input may include: acquiring distance information between the device and the object; projecting the projection light on the basis of the obtained distance information; The order can be determined.

또한, 상기 디바이스 및 상기 피사체간의 거리 정보는 실시간으로 획득될 수 있다.In addition, distance information between the device and the subject can be obtained in real time.

또한, 상기 투사광의 투사 순서를 상기 피사체의 위치 및/또는 상기 외부 수신 입력에 기초하여 결정하는 단계는 상기 디바이스 및 상기 피사체간의 거리 정보를 획득하고, 상기 획득한 거리 정보에 기초하여 상기 피사체에 대한 모션 블러(motion blur)를 최소화시키기 위한 상기 투사광의 투사 순서를 결정할 수 있다.The step of determining the projection order of the projection light on the basis of the position of the subject and / or the external reception input may further include acquiring distance information between the device and the subject, and determining, based on the obtained distance information, The projection order of the projection light for minimizing the motion blur can be determined.

또한, 상기 투사광의 투사 순서를 상기 피사체의 위치 및/또는 상기 외부 수신 입력에 기초하여 결정하는 단계는 기설정된 복수개의 투사 순서들 중에서 상기 피사체에 대한 모션 블러를 최소화시키는 투사 순서를 상기 투사광의 투사 순서로 결정할 수 있다.The step of determining the projection order of the projection light on the basis of the position of the object and / or the external reception input may include determining a projection order that minimizes motion blur for the object among a plurality of predetermined projection orders, Can be determined in order.

또한, 상기 N개의 상이한 투사광은 주기가 서로 같고, 크기와 위상 중에서 적어도 하나가 서로 다른 주기파를 포함할 수 있다.In addition, the N different projection lights may include periodic waves having the same period and at least one of a magnitude and a phase different from each other.

또한, 상기 피사체에서 반사된 상기 N개의 반사광을 변조(modulation)하여 상기 N개의 변조된 반사광을 획득하는 단계는 이득 파형을 갖는 광변조 신호를 이용해 상기 N개의 반사광을 변조(modulation)하여 상기 N개의 변조된 반사광을 획득할 수 있다.The step of modulating the N reflected light reflected from the subject to obtain the N modulated reflected light may include modulating the N reflected light using an optical modulated signal having a gain waveform to generate N The modulated reflected light can be obtained.

또한, 상기 광변조 신호는 투사광과 동일한 주기를 갖는 주기파를 포함할 수 있다.In addition, the optical modulation signal may include a periodic wave having the same period as the projected light.

또한, 상기 N의 상이한 투사광은 서로 위상이 상이하고, 상기 N개의 상이한 투사광 사이에 360도를 N 등분한 위상차가 존재할 수 있다.In addition, the N different projected lights may have different phases from each other, and there may be a phase difference of N degrees of 360 degrees between the N different projected lights.

또한, 상기 투사광의 투사 순서를 상기 피사체의 위치 및/또는 상기 외부 수신 입력에 기초하여 결정하는 단계는 사용자의 입력에 기초하여 결정된 외부 수신 입력에 기초하여 상기 투사광의 투사 순서를 결정할 수 있다.The step of determining the projection order of the projection light based on the position of the object and / or the external reception input may determine the projection order of the projection light based on the external reception input determined based on the input of the user.

또한, 본 개시의 제 2 측면은, 피사체에 대한 정보를 획득하는 디바이스에 있어서, 상기 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 상기 피사체의 위치 및/또는 외부 수신 입력에 기초하여 결정하는 투사광 제어부; 상기 투사광의 투사 순서에 따라 상기 N개의 상이한 투사광을 상기 피사체에 순차적으로 투사하는 광원; 상기 피사체에서 반사된 N개의 반사광을 변조(modulation)하여 N개의 변조된 반사광을 획득하는 변조부(modulator); 및 상기 N개의 변조된 반사광을 이용하여 상기 피사체에 대한 거리 정보를 획득하는 제어부를 포함할 수 있다.According to a second aspect of the present disclosure, there is provided a device for acquiring information on a subject, the device comprising: a projecting sequence of N projected light beams to be projected sequentially to the subject (where N is a natural number of 3 or more) And / or an external reception input; A light source sequentially projecting the N different projection lights onto the subject according to a projection order of the projection lights; A modulator for modulating N reflected light reflected from the subject to obtain N modulated reflected light; And a controller for obtaining distance information on the object using the N modulated reflected lights.

또한, 상기 투사광 제어부는 상기 디바이스 및 상기 피사체간의 거리 정보를 획득하고, 상기 획득한 거리 정보에 기초하여 상기 투사광의 투사 순서를 결정할 수 있다.The projection light control unit may acquire distance information between the device and the subject, and may determine a projection order of the projection light based on the obtained distance information.

또한, 상기 디바이스 및 상기 피사체간의 거리 정보는 실시간으로 획득될 수 있다.In addition, distance information between the device and the subject can be obtained in real time.

또한, 상기 투사광 제어부는 상기 디바이스 및 상기 피사체간의 거리 정보를 획득하고, 상기 획득한 거리 정보에 기초하여 상기 피사체에 대한 모션 블러(motion blur)를 최소화시키기 위한 상기 투사광의 투사 순서를 결정할 수 있다.In addition, the projection light control unit may acquire distance information between the device and the subject, and may determine a projection order of the projection light to minimize motion blur for the subject based on the obtained distance information .

또한, 상기 투사광 제어부는 기설정된 복수개의 투사 순서들 중에서 상기 피사체에 대한 모션 블러를 최소화시키는 투사 순서를 상기 투사광의 투사 순서로 결정할 수 있다.In addition, the projection light control unit may determine a projection order that minimizes motion blur for the subject among a plurality of preset projection orders in the projection order of the projection light.

또한, 상기 N개의 상이한 투사광은 주기가 서로 같고, 크기와 위상 중에서 적어도 하나가 서로 다른 주기파를 포함할 수 있다.In addition, the N different projection lights may include periodic waves having the same period and at least one of a magnitude and a phase different from each other.

또한, 상기 변조부는 이득 파형을 갖는 광변조 신호를 이용해 상기 N개의 반사광을 변조(modulation)하여 상기 N개의 변조된 반사광을 획득할 수 있다.The modulator may modulate the N reflected light using the optical modulating signal having a gain waveform to obtain the N modulated reflected light.

또한, 상기 광변조 신호는 투사광과 동일한 주기를 갖는 주기파를 포함할 수 있다.In addition, the optical modulation signal may include a periodic wave having the same period as the projected light.

또한, 상기 N의 상이한 투사광은 서로 위상이 상이하고, 상기 N개의 상이한 투사광 사이에 360도를 N 등분한 위상차가 존재할 수 있다.In addition, the N different projected lights may have different phases from each other, and there may be a phase difference of N degrees of 360 degrees between the N different projected lights.

또한, 본 개시의 제 3 측면은 제 1 측면의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 비일시적 기록 매체를 제공할 수 있다.In addition, the third aspect of the present disclosure can provide a computer-readable non-transitory medium in which a program for implementing the method of the first aspect is recorded.

디바이스가 피사체에 대한 거리 정보를 획득함에 있어서, 투사하는 투사광을 제어함으로써, 오차를 효율적으로 감소시킬 수 있다.In the case where the device obtains the distance information with respect to the object, the error can be effectively reduced by controlling the projection light to be projected.

도 1은 광시간비행법(TOF)을 이용하여 거리 정보를 획득할 수 있는 디바이스의 예시적인 구조를 개략적으로 도시한다.
도 2는 N개의 상이한 반사광을 변조한 후 촬상소자에서 N개의 상이한 영상을 생성하는 과정을 도시한다.
도 3은 하나의 동일한 투사광과 N개의 상이한 광변조 신호로 N개의 상이한 영상을 생성하는 과정을 도시한다.
도 4는 위상이 서로 상이한 4개의 투사광으로 4개의 상이한 영상을 생성하고, 생성된 4개의 상이한 영상을 이용하여 거리 정보를 획득하는 방법을 도시한다.
도 5는 반사광 및 광변조 신호를 이용하여 CIS(Contact Image Sensors) 이미지를 획득하는 방법을 도시한다.
도 6은 위상이 서로 상이한 4개의 투사광의 일 예를 도시한다.
도 7은 피사체가 움직일 경우 위상이 서로 상이한 4개의 투사광에 의해 획득되는 영상의 밝기 변화를 나타내는 도면이다.
도 8은 피사체가 움직일 경우 투사되는 투사광의 순서를 제어하여 거리 정보를 획득하는 일례를 도시한다.
도 9는 피사체가 움직일 경우 투사되는 투사광의 순서를 제어하여 거리 정보를 획득하는 다른 예를 도시한다.
도 10은 피사체와 디바이스간의 거리에 따라 투사광의 투사 순서를 결정하는 방법을 설명하기 위한 도면이다.
도 11은 피사체와 디바이스간의 거리에 따라 투사광의 순서를 제어하여 거리 정보를 획득하는 일례를 나타내는 도면이다.
도 12는 일 실시 예에 따른 디바이스의 구성을 설명하기 위한 블록도이다.
도 13은 투사광의 제어를 통해 거리 정보를 획득하는 디바이스의 예시적인 구조를 개략적으로 도시한다.
도 14는 일 실시 예에 따른 디바이스가 N개의 투사광을 이용하여 거리 정보를 획득하는 방법을 나타내는 흐름도이다.
도 15는 일 실시 예에 따른 디바이스가 N개의 위상이 상이한 투사광을 이용하여 거리 정보를 획득하는 방법을 나타내는 흐름도이다.
도 16는 일 실시 예에 따른 디바이스가 외부 수신 입력에 기초하여 결정된 투사광의 투사 순서를에 따라 상이한 투사광을 투사하여 거리 정보를 획득하는 방법을 나타내는 흐름도이다.
Figure 1 schematically illustrates an exemplary structure of a device that can acquire distance information using optical time-of-flight (TOF).
FIG. 2 shows a process of modifying N different reflected lights and then generating N different images in the imaging device.
3 shows a process of generating N different images with one and the same projection light and N different optical modulation signals.
FIG. 4 shows a method of generating four different images with four projected lights having different phases and acquiring distance information using the generated four different images.
5 illustrates a method of obtaining Contact Image Sensors (CIS) images using reflected light and light modulated signals.
Fig. 6 shows an example of four projected lights whose phases are different from each other.
FIG. 7 is a diagram showing a change in brightness of an image obtained by four projected lights whose phases are different from each other when a subject moves. FIG.
Fig. 8 shows an example in which distance information is acquired by controlling the order of the projected light when the subject moves.
9 shows another example of obtaining distance information by controlling the order of the projected light when the subject moves.
10 is a diagram for explaining a method of determining the projection order of the projection light according to the distance between the subject and the device.
11 is a view showing an example of obtaining distance information by controlling the order of projection light according to the distance between a subject and a device.
12 is a block diagram illustrating a configuration of a device according to an embodiment.
Fig. 13 schematically shows an exemplary structure of a device for obtaining distance information through the control of projection light.
14 is a flowchart illustrating a method for a device according to an embodiment to acquire distance information using N projected lights.
15 is a flow diagram illustrating a method for a device according to an embodiment to acquire distance information using N different-phase projected lights.
16 is a flowchart showing a method of a device according to an embodiment for projecting different projection light according to a projection order of projection light determined based on an external reception input to acquire distance information.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Brief Description of the Drawings The advantages and features of the present invention, and how to accomplish them, will become apparent with reference to the embodiments described hereinafter with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. The terms used in this specification will be briefly described and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.When an element is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements, without departing from the spirit or scope of the present invention. Also, as used herein, the term "part " refers to a hardware component such as software, FPGA or ASIC, and" part " However, "part" is not meant to be limited to software or hardware. "Part" may be configured to reside on an addressable storage medium and may be configured to play back one or more processors. Thus, by way of example, and not limitation, "part (s) " refers to components such as software components, object oriented software components, class components and task components, and processes, Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functions provided in the components and "parts " may be combined into a smaller number of components and" parts " or further separated into additional components and "parts ".

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.

명세서 전체에서 “거리(distance)”란 공간적으로 떨어진 길이를 의미할 수 있으며, “깊이(depth)”는 거리의 일종일 수 있다. 예를 들면, 거리 정보(distance information)는 깊이 정보(depth information)를 포함할 수 있다.Throughout the specification, " distance " can mean a spatially separated length, and " depth " For example, the distance information may include depth information.

명세서 전체에서 이미지(image)는 CCD(Charge Coupled Device) 이미지 및 CIS(Contact Image Sensors 또는 CMOS Image Sensors) 이미지를 포함하나 이에 제한되지 않는다.Throughout the specification, the image includes, but is not limited to, a CCD (Charge Coupled Device) image and a CIS (Contact Image Sensors or CMOS Image Sensors) image.

이하, '영상'은 비디오의 정지영상 또는 이미지이거나 동영상, 즉 비디오 그 자체를 나타낼 수 있다.Hereinafter, an 'image' may represent a still image or an image of the video, or a moving image, that is, the video itself.

이하, 첨부된 도면들을 참조하여, 거리 정보 획득 방법 및 디바이스에 대해 상세하게 설명한다. 이하의 도면들에서 동일한 참조부호는 동일한 구성요소를 지칭하며, 도면상에서 각 구성요소의 크기는 설명의 명료성과 편의상 과장되어 있을 수 있다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a method and apparatus for acquiring distance information will be described in detail with reference to the accompanying drawings. In the following drawings, like reference numerals refer to like elements, and the size of each element in the drawings may be exaggerated for clarity and convenience of explanation.

도 1은 광시간비행법(TOF)을 이용하여 거리 정보를 획득할 수 있는 일 실시예에 따른 디바이스(100)의 예시적인 구조를 개략적으로 도시하고 있다. 도 1을 참조하면, 디바이스(100)는 소정의 파장을 갖는 광을 발생시키는 광원(101), 상기 광원(101)을 구동시키기 위한 광원 구동부(102), 피사체(200)로부터 반사된 광을 광변조하기 위한 광변조기(103), 광변조기(103)를 구동시키기 위한 광변조기 구동부(104), 광변조기(103)에 의해 광변조된 광으로부터 영상을 생성하는 촬상소자(105), 촬상소자(105)의 출력을 기초로 거리 정보를 계산하기 위한 거리 정보 영상 처리부(distance image processor)(107), 및 상기 광원 구동부(102), 광변조기 구동부(104), 촬상소자(105), 거리 정보 영상 처리부(107)의 동작을 제어하기 위한 제어부(106)를 포함할 수 있다. 또한, 광변조기(103)의 광입사면에는 반사광을 광변조기(103)의 영역 내에 집광하기 위한 제 1 렌즈(108)와 소정의 파장을 갖는 광만을 투과시키는 필터(109)가 더 배치될 수 있다. 그리고, 광변조기(103)와 촬상소자(105) 사이에는 광변조된 영상을 촬상소자(105)의 영역 내에 집광하기 위한 제 2 렌즈(110)가 더 배치될 수 있다.1 schematically illustrates an exemplary structure of a device 100 in accordance with one embodiment that can obtain distance information using optical time of flight (TOF). 1, a device 100 includes a light source 101 for generating light having a predetermined wavelength, a light source driving unit 102 for driving the light source 101, An optical modulator driving section 104 for driving the optical modulator 103, an imaging device 105 for generating an image from light optically modulated by the optical modulator 103, A distance image processor 107 for calculating distance information based on the output of the light source driving unit 102, the optical modulator driving unit 104, the image pickup device 105, And a control unit 106 for controlling the operation of the processing unit 107. [ A first lens 108 for condensing the reflected light in the region of the optical modulator 103 and a filter 109 for transmitting only light having a predetermined wavelength can be further disposed on the light incident surface of the optical modulator 103 have. Between the optical modulator 103 and the imaging device 105, a second lens 110 for condensing the optically modulated image into the area of the imaging device 105 may be further disposed.

광원(101)은, 예를 들어, 안전을 위해 인간의 눈에는 보이지 않는 약 800nm 내지 약 1100nm의 근적외선(NIR) 파장을 갖는 광을 방출시킬 수 있는 발광 다이오드(LED) 또는 레이저 다이오드(LD)일 수 있지만, 파장의 대역과 광원의 종류는 제한을 받지 않는다. 광원 구동부(102)는 제어부(106)로부터 수신된 제어 신호에 따라 광원(101)을 예를 들어 크기(amplitude) 변조 또는 위상(phase) 변조 방식으로 구동할 수 있다. 광원 구동부(102)의 구동 신호에 따라, 광원(101)으로부터 피사체(200)로 투사되는 투사광은 소정의 주기를 갖는 주기적인 연속 함수의 형태를 가질 수 있다. 예를 들어, 투사광은 사인파, 램프파, 사각파 등과 같이 특수하게 정의된 파형을 가질 수도 있지만, 정의되지 않은 일반적인 형태의 파형을 가질 수도 있다.The light source 101 may be, for example, a light emitting diode (LED) or a laser diode (LD) capable of emitting light having a near infrared (NIR) wavelength of about 800 nm to about 1100 nm which is invisible to the human eye for safety However, the wavelength band and the type of the light source are not limited. The light source driving unit 102 may drive the light source 101 according to a control signal received from the control unit 106, for example, by amplitude modulation or phase modulation. The projection light projected from the light source 101 to the subject 200 may have a form of a periodic continuous function having a predetermined period in accordance with the driving signal of the light source driving unit 102. [ For example, the projection light may have a specially defined waveform such as a sine wave, a ramp wave, a square wave, etc., but may have a waveform of a general type that is not defined.

광변조기(103)는 피사체(200)로부터 반사된 광을 광변조기 구동부(104)의 제어에 따라 광변조한다. 광변조기 구동부(104)는 제어부(106)로부터 수신된 제어 신호에 따라 광변조기(103)를 구동시킨다. 예를 들어, 광변조기(103)는 광변조기 구동부(104)에 의해 제공된 소정의 파형을 갖는 광변조 신호에 따라 이득을 변화시켜 반사광의 크기를 변조시킬 수 있다. 이를 위해, 광변조기(103)는 가변 이득을 갖는다. 광변조기(103)는 거리에 따른 빛의 위상차 또는 이동 시간을 식별하기 위해 수십~수백 MHz의 높은 광변조 속도로 동작할 수 있다. 이에 부합하는 광변조기(103)로서, 예를 들어 MCP(Multi-Channel Plate)를 구비한 영상증배관, GaAs 계열의 고체 변조기 소자, 전광(Electro-Optic) 물질을 이용한 박형의 변조기 소자 등이 사용될 수 있다. 도 1에는 광변조기(103)가 투과형인 것으로 도시되어 있지만, 반사형 광변조기를 사용하는 것도 가능하다.The optical modulator 103 optically modulates the light reflected from the subject 200 under the control of the optical modulator driving unit 104. The optical modulator driving unit 104 drives the optical modulator 103 according to the control signal received from the control unit 106. [ For example, the optical modulator 103 can modulate the magnitude of the reflected light by changing the gain according to the optical modulated signal having the predetermined waveform provided by the optical modulator driver 104. [ To this end, the optical modulator 103 has a variable gain. The optical modulator 103 can operate at a high optical modulation rate of several tens to several hundreds of megahertz to identify the phase difference or travel time of light along the distance. As the optical modulator 103 in conformity with this, for example, an image intensifier having a multi-channel plate (MCP), a GaAs-based solid-state modulator device, and a thin-type modulator device using an electro- . Although FIG. 1 shows the optical modulator 103 as a transmission type, it is also possible to use a reflective optical modulator.

촬상소자(105)는 광변조기(103)에 의해 광변조된 반사광을 제어부(106)의 제어에 따라 검출하여 영상을 생성하는 역할을 한다. 만약 피사체(200)의 어느 한 점까지의 거리만을 측정하고자 하는 경우, 촬상소자(105)는 예를 들어 포토다이오드나 적분기와 같은 하나의 단일한 광센서를 사용할 수도 있다. 그러나 피사체(200) 상의 다수의 점들까지의 거리들을 동시에 측정하고자 하는 경우, 촬상소자(105)는 다수의 포토다이오드 또는 다른 광검출기들의 2차원 또는 1차원 어레이를 가질 수도 있다. 예를 들어, 상기 촬상소자(105)는 2차원 어레이를 갖는 CCD(Charge Coupled Device) 이미지 센서 또는 CMOS(Complementary metal oxide semiconductor) 이미지 센서일 수도 있다. 거리 정보 영상 처리부(107)는 촬상소자(105)의 출력을 기초로, 거리 정보 획득 알고리즘에 따라 거리 정보를 계산하는 역할을 한다. 거리 정보 획득 알고리즘은 기설정되어 있을 수 있다. 거리 정보 영상 처리부(107)는 예를 들어 전용의 집적회로(IC)로 구현될 수도 있으며, 또는 디바이스(100) 내에 설치된 소프트웨어로도 구현될 수 있다. 소프트웨어로 구현되는 경우, 거리 정보 영상 처리부(107)는 별도의 이동 가능한 저장 매체에 저장될 수도 있다.The image pickup element 105 serves to detect reflected light optically modulated by the optical modulator 103 under the control of the control unit 106 and generate an image. If only the distance to a point on the subject 200 is desired to be measured, the imaging device 105 may use one single optical sensor, for example a photodiode or an integrator. However, when it is desired to simultaneously measure the distances up to a plurality of points on the subject 200, the imaging device 105 may have a two-dimensional or one-dimensional array of photodiodes or other photodetectors. For example, the imaging device 105 may be a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor having a two-dimensional array. The distance information image processing unit 107 calculates the distance information based on the distance information acquisition algorithm on the basis of the output of the image pickup device 105. The distance information acquisition algorithm may be pre-set. The distance information image processing unit 107 may be implemented, for example, by a dedicated integrated circuit (IC) or software installed in the device 100. [ When implemented in software, the distance information image processing unit 107 may be stored in a separate removable storage medium.

이하에서는, 상술한 구조를 갖는 디바이스(100)의 동작을 개략적으로 설명한다.Hereinafter, the operation of the device 100 having the above-described structure will be schematically described.

먼저, 광원(101)은 제어부(106) 및 광원 구동부(102)의 제어에 따라 소정의 주기 및 파형을 갖는 N개의 상이한 투사광을 차례로 피사체(200)에 투사한다. 여기서 N은 3 이상의 자연수일 수 있다. 예를 들어, 4개의 상이한 투사광을 사용하는 경우, 시간 T1 동안 투사광1을 발생시켜 피사체(200)에 투사하고, 다음의 시간 T2 동안 투사광2를 발생시켜 피사체(200)에 투사하고, 시간 T3 동안 투사광3을 발생시켜 피사체(200)에 투사하고, 이어서 시간 T4 동안 투사광4를 피사체(200)에 투사할 수 있다. 이렇게 피사체(200)에 순차적으로 투사되는 투사광들은 사인파와 같은 특정 주기를 갖는 연속 함수의 형태를 가질 수 있다. 예를 들어, 투사광1 내지 투사광4는 동일한 주기 및 파형을 가지면서 크기 또는 위상만이 서로 다른 주기파(periodic wave)일 수 있다. 다른 예로, 투사광1 내지 투사광4는 동일한 주기, 파형 및 크기를 가지면서 위상만이 서로 다른 주기파일 수 있다. 일 예로, 투사광1 내지 투사광4는 위상이 90도씩 차이날 수 있고 이 경우, 투사광1의 위상이 투사광2 보다 90도 느리고, 투사광2의 위상이 투사광3 보다 90도 느리고, 투사광3의 위상이 투사광4 보다 90도 느릴 수 있다. 또는 이 경우, 투사광1의 위상이 투사광2 보다 90도 빠르고, 투사광2의 위상이 투사광3 보다 90도 빠르고, 투사광3의 위상이 투사광4 보다 90도 빠를 수 있다.First, the light source 101 projects N different projected lights having a predetermined period and waveform to the subject 200 in succession under the control of the control unit 106 and the light source driving unit 102. Where N may be a natural number of 3 or greater. For example, in the case of using four different projected lights, the projection light 1 is generated for a time T1 and projected onto the subject 200. The projected light 2 is projected onto the subject 200 for the next time T2, The projection light 3 may be generated during the time T3 to be projected onto the subject 200 and then projected to the subject 200 during the time T4. The projected lights sequentially projected onto the subject 200 may have the form of a continuous function having a specific period such as a sinusoidal wave. For example, the projection light 1 to the projection light 4 may be periodic waves having the same period and waveform but different in magnitude or phase from each other. As another example, the projection light 1 to the projection light 4 may have periodic files having the same period, waveform, size, and different phases only. In this case, the phase of the projection light 1 is 90 degrees slower than that of the projection light 2, the phase of the projection light 2 is 90 degrees slower than the projection light 3, The phase of the projection light 3 may be 90 degrees slower than the projection light 4. [ Or in this case, the phase of the projection light 1 is 90 degrees faster than the projection light 2, the phase of the projection light 2 is 90 degrees faster than the projection light 3, and the phase of the projection light 3 is 90 degrees faster than the projection light 4.

피사체(200)에 투사된 투사광은 피사체(200)의 표면에서 반사된 후, 제 1 렌즈(108)로 입사한다. 일반적으로 피사체(200)는 디바이스(100)로부터의 거리, 즉 거리(distance)가 서로 다른 다수의 표면들을 갖는다. 도 1에는 설명의 단순화를 위하여 거리가 서로 다른 5개의 표면(P1~P5)을 갖는 피사체(200)가 예시적으로 도시되어 있다. 거리가 상이한 5개의 표면(P1~P5)에서 각각 투사광이 반사되면서, 상이하게 시간 지연된(즉, 위상이 상이한) 5개의 반사광이 각각 발생한다. 예를 들어, 투사광1이 피사체(200)의 5개의 표면(P1~P5)에서 각각 반사되면서 위상이 상이한 5개의 반사광1이 발생하며, 투사광2가 피사체(200)의 5개의 표면(P1~P5)에서 각각 반사되면서 위상이 상이한 5개의 반사광2가 발생하고, 마찬가지로 투사광N도 피사체(200)의 5개의 표면(P1~P5)에서 각각 반사되면서 위상이 상이한 5개의 반사광N이 발생한다. 디바이스(100)로부터의 거리가 가장 먼 표면(P1)에서 반사된 반사광은 ΦP1 만큼의 시간 지연 후 제 1 렌즈(108)에 도달하고, 디바이스(100)로부터의 거리가 가장 가까운 표면(P5)에서 반사된 반사광은 ΦP1보다 작은 ΦP5 만큼의 시간 지연 후 제 1 렌즈(108)에 도달할 것이다.The projection light projected on the subject 200 is reflected by the surface of the subject 200, and is then incident on the first lens 108. In general, the subject 200 has a number of surfaces with different distances, i.e. distances, from the device 100. In FIG. 1, for the sake of simplicity of description, an object 200 having five surfaces P1 to P5 having different distances is exemplarily shown. The projection light is reflected on each of the five surfaces P1 to P5 having different distances, and five reflected lights having different time delay (i.e., different phases) are generated. For example, when the projection light 1 is reflected on five surfaces P1 to P5 of the subject 200, five reflected lights 1 having different phases are generated, and the projection light 2 is reflected on five surfaces P1 To P5, and the five reflected lights 2 having different phases are generated. Likewise, the projected lights N are reflected by the five surfaces P1 to P5 of the subject 200, and five reflected lights N having different phases are generated . The reflected light reflected at the surface P1 that is the farthest from the device 100 reaches the first lens 108 after a time delay of PHI P1 and reaches the distance from the device 100 to the nearest surface P5 The reflected reflected light will reach the first lens 108 after a time delay of PHI P5 that is less than PHI P1.

제 1 렌즈(108)는 반사광을 광변조기(103)의 영역 내에 포커싱한다. 제 1 렌즈(108)와 광변조기(103) 사이에는 사용 파장 이외의 배경광이나 잡광을 제거하기 위하여 소정의 파장을 갖는 광만을 투과시키는 필터(109)가 배치될 수 있다. 예를 들어, 광원(101)이 약 850nm의 근적외선(NIR) 파장을 갖는 광을 방출하는 경우, 상기 필터(109)는 약 850nm의 근적외선 파장 대역을 통과시키는 근적외선 대역 통과 필터(IR band pass Filter)일 수 있다. 따라서, 광변조기(103)에 입사하는 광은 광원(101)으로부터 방출되어 피사체(200)에서 반사된 광이 지배적일 수 있다. 도 1에는 제 1 렌즈(108)와 광변조기(103) 사이에 필터(109)가 배치된 것으로 도시되어 있지만, 제 1 렌즈(108)와 필터(109)의 위치는 서로 바뀔 수도 있다. 예를 들어, 필터(109)를 먼저 통과한 근적외선광이 제 1 렌즈(108)에 의해 광변조기(103)로 포커싱될 수도 있다.The first lens 108 focuses the reflected light in the area of the optical modulator 103. A filter 109 for transmitting only light having a predetermined wavelength may be disposed between the first lens 108 and the optical modulator 103 in order to remove background light or other light other than the wavelength used. For example, when the light source 101 emits light having a near-infrared (NIR) wavelength of about 850 nm, the filter 109 may include a near-IR band pass filter for passing a near-infrared wavelength band of about 850 nm, Lt; / RTI > Accordingly, the light incident on the optical modulator 103 may be emitted from the light source 101, and the light reflected from the subject 200 may dominate. Although the filter 109 is shown in FIG. 1 as being disposed between the first lens 108 and the optical modulator 103, the positions of the first lens 108 and the filter 109 may be interchanged. For example, the near-infrared light having first passed through the filter 109 may be focused by the first lens 108 to the optical modulator 103.

그러면, 광변조기(103)는 소정의 파형을 갖는 광변조 신호로 반사광을 변조한다. 광변조기(103)에서의 이득 파형의 주기는 투사광의 파형 주기와 동일할 수 있다. 도 1에 도시된 예에서, 광변조기(103)는 피사체(200)의 5개의 표면(P1~P5)에서 각각 반사된 5개의 반사광1을 광변조하여 촬상소자(105)에 제공하고, 이어서 5개의 반사광2 내지 5개의 반사광N을 차례로 광변조하여 촬상소자(105)에 제공할 수 있다.Then, the optical modulator 103 modulates the reflected light with an optical modulated signal having a predetermined waveform. The period of the gain waveform in the optical modulator 103 may be the same as the waveform period of the projection light. 1, the optical modulator 103 optically modulates the five reflected light 1 reflected from the five surfaces P1 to P5 of the subject 200 to provide them to the imaging element 105, Two to five reflected light N can be sequentially optically modulated and provided to the image pickup device 105. [

광변조기(103)에 의해 크기가 변조된 광은 제 2 렌즈(110)를 통과하면서 배율 조정 및 재포커싱된 후 촬상소자(105)에 도달한다. 따라서, 변조된 광은 제 2 렌즈(110)에 의해 촬상소자(105)의 영역 내에 집광된다. 촬상소자(105)는 상기 변조된 광을 소정의 노출 시간 동안 수광하여 영상을 생성한다. 예를 들어 촬상소자(105)는, 도 2에서 (A)로 표시된 바와 같이, 피사체(200)의 5개의 표면(P1~P5)에서 각각 반사된 후 변조된 5개의 반사광1을 소정의 노출 시간 동안 수광하여 영상1을 생성한다. 이어서, 도 2에서 (B)로 표시된 바와 같이, 촬상소자(105)는 피사체(200)의 5개의 표면(P1~P5)에서 각각 반사된 후 변조된 5개의 반사광2를 소정의 노출 시간 동안 수광하여 영상2를 생성한다. 이와 같은 과정을 반복하면서 마지막으로, 도 2에서 (C)로 표시된 바와 같이, 촬상소자(105)는 피사체(200)의 5개의 표면(P1~P5)에서 각각 반사된 후 변조된 5개의 반사광N을 소정의 노출 시간 동안 수광하여 영상N을 생성한다. 이러한 방식으로, 도 2에서 (D)로 표시된 바와 같이, N 개의 상이한 영상들을 순차적으로 얻을 수 있다. 이렇게 얻은 각각의 영상1~N은 거리 정보를 갖는 한 프레임의 영상을 만들기 위한 서브 프레임(sub-frame) 영상일 수 있다. 예를 들어, 한 프레임의 주기를 Td라고 한다면, N개의 영상1~N의 각각을 얻기 위한 촬상소자(105)에서의 노출 시간은 대략적으로 Td/N일 수 있다.The light modulated in size by the optical modulator 103 passes through the second lens 110 and is scaled and refocused and then reaches the imaging element 105. Thus, the modulated light is condensed by the second lens 110 in the region of the image pickup element 105. [ The image pickup device 105 receives the modulated light for a predetermined exposure time and generates an image. For example, as shown in (A) of Fig. 2, the image pickup element 105 may emit five reflected light 1 modulated after being respectively reflected by five surfaces P1 to P5 of the subject 200 to a predetermined exposure time The image 1 is generated. Subsequently, as shown by (B) in Fig. 2, the image pickup element 105 receives the five reflected light 2 modulated after being respectively reflected by the five surfaces P1 to P5 of the subject 200 for a predetermined exposure time And generates an image 2. 2, the image pickup element 105 picks up five reflected light beams N (N), which are respectively reflected by the five surfaces P1 to P5 of the subject 200 and then modulated, For a predetermined exposure time to generate an image N. In this way, as shown in (D) in Fig. 2, N different images can be sequentially obtained. Each of the images 1 to N thus obtained may be a sub-frame image for generating an image of one frame having distance information. For example, if the period of one frame is Td, the exposure time in the image pickup device 105 for obtaining each of the N images 1 to N may be approximately Td / N.

다시 도 2의 (A)를 참조하면, 첫번째 서브 프레임에서, 광원(101)으로부터 피사체(200)에 투사된 투사광1이 피사체(200)의 5개의 표면(P1~P5)에서 각각 반사되어 5개의 반사광1이 생성된다. 5개의 반사광1은 광변조기(103)에 의해 변조된 후 촬상소자(105)에 도달한다. 도 2에는, 설명의 용이함을 위해 촬상소자(105)가 5개의 표면(P1~P5)에 각각 대응하는 5개의 화소만을 갖는 것으로 도시되어 있다. 따라서, 5개의 반사광1은 대응하는 5개의 화소에 각각 입사할 수 있다. 도 2의 (A)에 도시된 바와 같이, 각각의 표면(P1~P5)에서 반사된 5개의 반사광1은 디바이스(100)로부터 표면(P1~P5)까지의 거리에 따라 상이한 위상 지연(ΦP1~ΦP5)을 각각 갖는다. 촬상소자(105)는 예컨대 대략 Td/N의 노출 시간 동안 반사광1을 촬영하여 영상1을 생성할 수 있다. 위와 동일한 방식으로, 두 번째 서브 프레임부터 N번째 서브 프레임까지 영상2 내지 영상N이 생성될 수 있다. 도 2의 (B) 및 (C)에 도시된 바와 같이, 2~N번째 서브 프레임에서도 거리가 다른 5개의 표면(P1~P5)으로부터 상이한 위상 지연(ΦP1~ΦP5)이 발생한다.2 (A), in the first sub-frame, the projection light 1 projected from the light source 101 onto the subject 200 is reflected by the five surfaces P1 to P5 of the subject 200, 1 < / RTI > The five reflected lights 1 are modulated by the optical modulator 103 and then arrive at the imaging element 105. In Fig. 2, for ease of explanation, the imaging element 105 is shown as having only five pixels corresponding to five surfaces P1 to P5, respectively. Therefore, the five reflected light 1 can be incident on the corresponding five pixels, respectively. As shown in Fig. 2A, the five reflected light 1 reflected from each of the surfaces P1 to P5 has different phase delays? P1 to P5 depending on the distance from the device 100 to the surfaces P1 to P5, Respectively. The image pickup element 105 can generate the image 1 by photographing the reflected light 1 for an exposure time of, for example, approximately Td / N. In the same manner as above, the images 2 to N can be generated from the second sub-frame to the N-th sub-frame. As shown in Figs. 2 (B) and 2 (C), different phase delays? PH1 to? P5 are generated from the five surfaces P1 to P5 having different distances from the second to the Nth subframes.

도 2에서는 N개의 상이한 투사광과 반사광을 사용하여 서로 다른 N개의 영상을 생성하는 경우에 대해 설명하였다. 그러나, 모든 서브 프레임에서 동일한 투사광을 사용하고, 각각의 서브 프레임마다 광변조기(103)가 상이한 이득 파형으로 반사광을 변조하는 것도 가능하다. 도 3은 하나의 동일한 투사광과 N개의 상이한 이득 파형으로 N개의 상이한 영상을 생성하는 과정을 도시하고 있다. 도 3을 참조하면, 피사체(200)로부터 반사된 반사광은 모든 서브 프레임에서 동일한 파형과 위상을 갖는다. 각 서브 프레임의 반사광에는 앞서 설명한 바와 같이 피사체(200)의 표면(P1~P5)에 따라 상이한 위상 지연(ΦP1~ΦP5)들이 존재한다. 도 3의 (A)~(C)에 각각 도시된 바와 같이, 첫 번째 서브 프레임에서 광변조기(103)는 광변조 신호1로 반사광을 변조하며, 두 번째 서브 프레임에서 광변조기(103)는 광변조 신호1과 다른 광변조 신호2로 반사광을 변조하고, N 번째 서브 프레임에서 광변조기(103)는 또 다른 광변조 신호N으로 반사광을 변조한다. 여기서, 광변조 신호1~N은 완전히 서로 다른 파형의 신호일 수도 있지만, 주기와 파형은 동일하고 단지 위상만이 다른 신호일 수도 있다. 그러면, 도 3의 (D)에 각각 도시된 바와 같이, 서로 다른 N개의 영상1~N을 얻을 수 있다.In FIG. 2, N different images are generated using N different projected lights and reflected lights. However, it is also possible to use the same projection light in all the subframes, and to modulate the reflected light with different gain waveforms in the optical modulator 103 for each subframe. FIG. 3 illustrates a process of generating N different images using one and the same projection light and N different gain waveforms. Referring to FIG. 3, the reflected light reflected from the subject 200 has the same waveform and phase in all subframes. As described above, there are different phase delays? P1 to? P5 depending on the surfaces P1 to P5 of the subject 200 in the reflected light of each subframe. As shown in Figures 3A-3C, the optical modulator 103 modulates the reflected light in the first subframe and the optical modulator 103 modulates the reflected light in the second subframe, Modulates the reflected light with the modulated signal 1 and modulates the reflected light with the other optical modulated signal N in the Nth sub-frame. Here, the optical modulation signals 1 to N may be signals of totally different waveforms, but they may be signals having the same period and waveform but different phases only. Then, as shown in FIG. 3 (D), N different images 1 to N can be obtained.

상술한 방식으로 얻은 N개의 영상들은 거리 정보 영상 처리부(107)로 전달된다. 거리 정보 영상 처리부(107)는 상기 N개의 영상들을 이용하여 기설정된 알고리즘에 따라 거리 정보를 획득할 수 있다. 예를 들면 디바이스(100)는 평균화 알고리즘을 이용하여 거리 정보를 획득할 수 있다. The N images obtained in the above-described manner are transmitted to the distance information image processing unit 107. The distance information image processing unit 107 may obtain distance information according to a predetermined algorithm using the N images. For example, the device 100 may obtain distance information using an averaging algorithm.

도 4는 위상이 서로 상이한 4개의 투사광으로 4개의 상이한 영상을 생성하고, 생성된 4개의 상이한 영상을 이용하여 거리 정보를 획득하는 방법을 도시한다. FIG. 4 shows a method of generating four different images with four projected lights having different phases and acquiring distance information using the generated four different images.

제1 부분(410)에서 확인할 수 있는 바와 같이, 일 실시 예에 따른 디바이스(100)는 순차적인 촬영을 통해 4장의 강도 이미지(intensity image)를 획득할 수 있다. 예를 들면 일 실시 예에 따른 디바이스(100)는 위상차가 0도인 강도 이미지인

Figure pat00001
, 위상차가 90도인 강도 이미지인
Figure pat00002
, 위상차가 180도인 강도 이미지인
Figure pat00003
및 위상차가 270도인 강도 이미지인
Figure pat00004
를 획득할 수 있다. 일 실시 예에 따른 디바이스(100)는 움직임 평균(moving average)를 이용하여 4개의 CIS 이미지를 획득할 수 있다. 본 명세서에서 변조된 영상의 표시를 CIS 이미지로 표시하였지만, 촬상 소자(105)는 CIS로 한정되지 않는다.As can be seen in the first portion 410, the device 100 according to one embodiment may acquire four intensity images through sequential shooting. For example, the device 100 according to one embodiment may be a intensity image with a phase difference of zero degrees
Figure pat00001
, Intensity image with a phase difference of 90 degrees
Figure pat00002
, Intensity image with a phase difference of 180 degrees
Figure pat00003
And intensity image with a phase difference of 270 degrees.
Figure pat00004
Can be obtained. The device 100 according to one embodiment may obtain four CIS images using a moving average. Although the display of the modulated image is represented by the CIS image in this specification, the image pickup element 105 is not limited to the CIS.

일 실시 예에 따른 디바이스(100)는 [수학식 1]과 같은 순서로 4개의 이미지를 획득할 수 있다.The device 100 according to an embodiment can acquire four images in the same order as in Equation (1).

Figure pat00005
Figure pat00005

일 실시 예에 따른 디바이스(100)는 2개의 새로운 이미지를 획득하고, 2개의 기존 이미지를 순차적으로 제거하는 방식으로 [수학식 2]와 같이 4개 이미지의 조합을 획득할 수 있다.The device 100 according to an embodiment may obtain a combination of four images as shown in Equation (2) by acquiring two new images and successively removing the two existing images.

Figure pat00006
Figure pat00006

(여기서 p는 임의의 수)  (Where p is an arbitrary number)

예를 들면, 일 실시 예에 따른 디바이스(100)는 현재 획득한 4개의 이미지가

Figure pat00007
인 경우, 앞에 획득한 2개의 이미지를 순차적으로 제거하고 새로운 이미지 두개를 획득하여
Figure pat00008
의 4개 이미지 조합을 획득할 수 있다. 예를 들면, 제1 이미지(411)는 제거되고, 제 2 이미지(413)는 추가될 수 있다. 다른 예로, 일 실시 예에 따른 디바이스(100)는 현재 획득한 4개의 이미지가
Figure pat00009
인 경우, 앞에 획득한 2개의 이미지를 순차적으로 제거하고 새로운 이미지 두개를 획득하여
Figure pat00010
의 4개 이미지 조합을 획득할 수 있다.For example, the device 100 according to one embodiment may include four currently acquired images
Figure pat00007
, Two previously acquired images are sequentially removed and two new images are acquired
Figure pat00008
Of the image. For example, the first image 411 may be removed and the second image 413 may be added. As another example, a device 100 according to one embodiment may include four currently acquired images
Figure pat00009
, Two previously acquired images are sequentially removed and two new images are acquired
Figure pat00010
Of the image.

일 실시 예에 따른 디바이스(100)는 현재 획득한 4개의 이미지(412)를 이용하여 [수학식 3]에서와 같이 깊이 영상을 획득할 수 있다. 현재 획득한 4개의 이미지(412)는 4개의 강도 이미지를 포함할 수 있다.The device 100 according to an embodiment can acquire a depth image as in Equation (3) using the four images 412 currently acquired. The four images 412 currently acquired may include four intensity images.

구체적으로, 제2 부분(422)에서 확인할 수 있는 바와 같이, 일 실시 예에 따른 디바이스(100)는

Figure pat00011
-
Figure pat00012
로 나타내어지는 제1 중간 이미지(421) 및
Figure pat00013
-
Figure pat00014
로 나타내어지는 제2 중간 이미지(422)를 획득할 수 있다. 또한, 제3 부분(430)에서 확인할 수 있는 바와 같이 일 실시 예에 따른 디바이스(100)는 제1 중간 이미지(421) 및 제2 중간 이미지(422)를 이용하여 깊이 이미지(431)를 획득할 수 있다.Specifically, as can be seen in the second portion 422, the device 100 according to one embodiment
Figure pat00011
-
Figure pat00012
A first intermediate image 421 and a second intermediate image 422,
Figure pat00013
-
Figure pat00014
The second intermediate image 422 may be obtained. Also, as can be seen in the third part 430, the device 100 according to one embodiment obtains the depth image 431 using the first intermediate image 421 and the second intermediate image 422 .

Figure pat00015
Figure pat00015

따라서, 일 실시 예에 따른 디바이스(100)는 2장의 IR 이미지를 획득하는 시간에 1장의 깊이 이미지를 획득할 수 있다.Thus, the device 100 according to one embodiment can acquire one depth image at the time of acquiring two IR images.

도 5는 반사광 및 광변조 신호를 이용하여 CIS(Contact Image Sensors) 이미지를 획득하는 방법을 도시한다. 도 5에서 IR 광의 광처리 과정이 설명될 수 있다.5 illustrates a method of obtaining Contact Image Sensors (CIS) images using reflected light and light modulated signals. In Fig. 5, the light-irradiation process of the IR light can be explained.

본 명세서에서,

Figure pat00016
는 S번째 투사광의 광출력(s-th emitting light optical power),
Figure pat00017
는 S번째 투사광의 위상차(phase shift of the s-th emitting light),
Figure pat00018
는 출력광의 DC 오프셋 (emitting light DC offset),
Figure pat00019
는 S번째 수신된 반사광의 광출력(s-th receiving light optical power),
Figure pat00020
는 수신된 외광(receiving ambient light), r은 피사체 표면의 광 감쇠(light attenuation of the object surface), G는 셔터 이득(shutter gain),
Figure pat00021
는 셔터 이득 DC 오프셋(shutter gain DC offset), w는 동작 주파수(operationg frequency),
Figure pat00022
는 TOF(Time of Flight)에 따른 위상 지연(phase delay due to TOF)을 의미할 수 있다.In the present specification,
Figure pat00016
(S-th emitting light optical power) of the S th projection light,
Figure pat00017
A phase shift of the S-th emission light,
Figure pat00018
Is a DC offset of the output light,
Figure pat00019
(S-th receiving light optical power) of the S-th received reflected light,
Figure pat00020
R is the light attenuation of the object surface, G is the shutter gain,
Figure pat00021
A shutter gain DC offset, w is an operation frequency,
Figure pat00022
May refer to a phase delay due to TOF (Time of Flight).

S번째 투사광의 광출력은 [수학식 4]와 같이 표현될 수 있다.The light output of the S th projection light can be expressed as shown in Equation (4).

Figure pat00023
Figure pat00023

여기서 rect는 구형파(AC)에 DC 성분이 더해진 형태일 수 있다.Where rect can be in the form of a square wave (AC) plus a DC component.

필터를 통과한 후의 반사광(

Figure pat00024
)은 [수학식 5]와 같이 표현될 수 있다. 필터를 통과한 후의 반사광은 피사체의 표면에서 반사되어 돌아오므로, 물체의 표면 반사도, 렌즈의 크기 등이 종합적으로 고려된 반사도인 r이 곱해진 형태이고, TOF에 의한 위상차가 존재하고, 외광이 존재할 수 있다.Reflected light after passing through filter
Figure pat00024
Can be expressed as: " (5) " Since the reflected light after passing through the filter is reflected and reflected on the surface of the object, the surface reflectance of the object, the size of the lens, etc. are multiplied by r, which is the reflectivity considered together, and there is a phase difference due to TOF, Can exist.

Figure pat00025
Figure pat00025

셔터의 변조 파형(Gain)은 [수학식 6]과 같이 표현될 수 있다.The modulated waveform Gain of the shutter can be expressed by the following equation (6).

Figure pat00026
Figure pat00026

예를 들면, 셔터의 변조 파형(G(t))은 사인파(AC)에 DC 성분이 더해진 형태일 수 있다.For example, the modulation waveform G (t) of the shutter may be a form in which a DC component is added to a sine wave AC.

촬영 소자(105)에 도달하는 광은 [수학식 7]과 같이 표현될 수 있다.The light reaching the photographing element 105 can be expressed as shown in Equation (7).

Figure pat00027
Figure pat00027

촬영 소자(105)로부터 획득되는 이미지는 [수학식 8]과 같이 표현될 수 있다.The image obtained from the photographing element 105 can be expressed as shown in Equation (8).

Figure pat00028
Figure pat00028

상술된 [수학식 8]로부터 연속으로 획득되는 4장의 이미지가 [수학식 9] 내지 [수학식 12]로 표현될 수 있다.The four images successively obtained from the above-described [Equation 8] can be expressed by [Equation 9] to [Equation 12].

Figure pat00029
Figure pat00029

Figure pat00030
Figure pat00030

Figure pat00031
Figure pat00031

Figure pat00032
Figure pat00032

또한, [수학식 9] 내지 [수학식 12]는 [수학식 13]의 조건을 만족할 수 있다.Further, the equations (9) to (12) can satisfy the condition of (13).

Figure pat00033
Figure pat00033

[수학식 4]에서 표현된 S번째 투사광의 광출력이 삼각파(sine)로 구현되는 경우에도 상술된 수식 전개가 가능하며, 이 경우 결과적으로 A가 상이한 값(A’)이 될 수 있다. 예를 들면, A’은 [수학식 14]와 같이 표현될 수 있다. In the case where the light output of the S th projection light expressed by Equation (4) is realized by a triangular wave sine, the above equation expansion can be performed. As a result, A may be a different value A '. For example, A 'can be expressed as: " (14) "

Figure pat00034
Figure pat00034

상술된 [수학식 9] 내지 [수학식 12]에서 미지수인 r, A, B를 소거하여 에 대해서 풀면, 상술된 [수학식 3] 또는 아래의 [수학식 15]와 같은 깊이에 의한 위상차를 획득할 수 있다.The unknowns r, A, and B are canceled in the above-mentioned Equations (9) to (12) to solve the phase difference due to the depths as in the above-mentioned [Equation 3] or [Equation 15] Can be obtained.

Figure pat00035
Figure pat00035

상술된 [수학식 9] 내지 [수학식 15]는 정지 영상의 경우에 적용할 수 있다. 예를 들면, 상술된 [수학식 9] 내지 [수학식 15]는 움직임이 없는 피사체에 대해서 적용이 가능하다.The above-mentioned equations (9) to (15) can be applied to still images. For example, the above-mentioned Equations (9) to (15) are applicable to a subject without motion.

또한, [수학식 3] 및 [수학식 15]로부터 [수학식 16]을 획득할 수 있다.Further, Equation (16) can be obtained from Equations (3) and (15).

Figure pat00036
Figure pat00036

도 6은 위상이 서로 상이한 4개의 투사광의 일 예를 도시한다.Fig. 6 shows an example of four projected lights whose phases are different from each other.

일 실시 예에 따른 서로 상이한 4개의 투사광은 제1 투사광(610), 제2 투사광(620), 제3 투사광(630) 및 제4 투사광(640)일 수 있다. 제1 투사광 내지 제4 투사광은 위상이 90도씩 차이날 수 있다. 예를 들면, 제1 투사광(610)의 위상차(phase delay)는 0도이고, 제2 투사광(620)의 위상차(phase delay)는 90도이고, 제3 투사광(630)의 위상차(phase delay)는 180도이고, 제4 투사광(640)의 위상차(phase delay)는 270도일 수 있다.The four different projection lights may be first projection light 610, second projection light 620, third projection light 630, and fourth projection light 640 according to one embodiment. The first to fourth projected lights may differ in phase by 90 degrees. For example, the phase delay of the first projection light 610 is 0 degrees, the phase delay of the second projection light 620 is 90 degrees, and the phase difference of the third projection light 630 the phase delay of the fourth projection light 640 may be 180 degrees, and the phase delay of the fourth projection light 640 may be 270 degrees.

일 실시 예에 따른 셔터의 변조 파형(G(t))(650)은 사인파(AC)에 DC 성분이 더해진 형태일 수 있다.The modulated waveform G (t) 650 of the shutter according to one embodiment may be in the form of a sine wave (AC) plus a DC component.

도 7은 피사체가 움직일 경우 위상이 서로 상이한 4개의 투사광에 의해 획득되는 영상의 밝기 변화를 나타내는 도면이다.FIG. 7 is a diagram showing a change in brightness of an image obtained by four projected lights whose phases are different from each other when a subject moves. FIG.

시간의 흐름에 따라 피사체로부터 반사되어 획득되는 반사광의 밝기가 변경될수 있다. 예를 들면, i번째 프레임(710)의 밝기가 I인 경우 시간이 경과하면 i+1번째 프레임(720)의 밝기가 I+Δ일 수 있다. 연속으로 촬영되어 획득되는 i번째 프레임(710)의 밝기와 i+1번째 프레임(720)의 밝기가 상이할 수 있다.The brightness of the reflected light obtained by reflecting from the subject can be changed with the passage of time. For example, when the brightness of the i-th frame 710 is I, the brightness of the (i + 1) -th frame 720 may be I +?. The brightness of the i-th frame 710 and the brightness of the (i + 1) -th frame 720 may be different from each other.

제1 투사광(610)의 위상차(phase delay)는 0도이고, 제2 투사광(620)의 위상차(phase delay)는 90도이고, 제3 투사광(630)의 위상차(phase delay)는 180도이고, 제4 투사광(640)의 위상차(phase delay)는 270도일 때, 제1 투사광(610) 내지 제4 투사광(640)이 순차적으로 피사체에 투사되는 경우에 대해 설명한다.The phase delay of the first projection light 610 is 0 degrees and the phase delay of the second projection light 620 is 90 degrees and the phase delay of the third projection light 630 is 180 degrees and the phase delay of the fourth projection light 640 is 270 degrees, the first projection light 610 to the fourth projection light 640 are sequentially projected onto the object.

일 실시 예에 따라, 시간의 경과에도 불구하고 피사체로부터 반사되어 획득되는 반사광의 밝기에 변화가 없는 경우, 제1 투사광(610)에 의해 획득되는 제1 프레임(731), 제2 투사광(620)에 의해 획득되는 제2 프레임(732), 제3 투사광(630)에 의해 획득되는 제3 프레임(733) 및 제4 투사광(640)에 의해 획득되는 제4 프레임(734)의 밝기는 동일할 수 있다. According to one embodiment, when there is no change in the brightness of the reflected light obtained by reflection from the subject despite the lapse of time, the first frame 731, the second projection light (obtained by the first projection light 610) The third frame 733 obtained by the third projection light 630 and the fourth frame 734 obtained by the fourth projection light 640 obtained by the first projection light 620, Can be the same.

일 실시 예에 따라, 시간의 경과에 따라 피사체로부터 반사되어 획득되는 반사광의 밝기에 변화가 있는 경우, 제1 투사광(610)에 의해 획득되는 제1 프레임(741), 제2 투사광(620)에 의해 획득되는 제2 프레임(742), 제3 투사광(630)에 의해 획득되는 제3 프레임(743) 및 제4 투사광(640)에 의해 획득되는 제4 프레임(744)의 밝기는 상이할 수 있다. 예를 들면, 제1 프레임(741)에서 제4 프레임(744)으로 갈수록 밝아질 수 있다. 일 예로, 제1 프레임(741)의 밝기가 I인 경우, 제2 프레임(742)의 밝기는 I+Δ이고, 제3 프레임(743)의 밝기는 I+2Δ이고, 제4 프레임(744)의 밝기는 I+3Δ일 수 있다. 밝기의 변화는 피사체에 조사되는 빛의 변화나 피사체가 움직이는 경우 발생할 수 있으나 이에 제한되지 않는다.According to one embodiment, when there is a change in the brightness of the reflected light obtained by reflection from the subject over time, the first frame 741, the second projection light 620 (obtained by the first projection light 610) The brightness of the fourth frame 744 obtained by the second frame 742 obtained by the third projection light 630, the third frame 743 obtained by the third projection light 630 and the fourth projection light 640 is Can be different. For example, it may become brighter as it goes from the first frame 741 to the fourth frame 744. For example, if the brightness of the first frame 741 is I, the brightness of the second frame 742 is I +?, The brightness of the third frame 743 is I + 2 ?, and the brightness of the fourth frame 744 is I + Lt; RTI ID = 0.0 > I + 3. < / RTI > The change in brightness may occur, but not limited to, a change in light irradiated to the subject or movement of the subject.

일 실시 예에 따라, 시간의 경과에 따라 피사체로부터 반사되어 획득되는 반사광의 밝기에 변화가 있는 경우, 상술된 [수학식 9] 내지 [수학식 12]는 [수학식 17]로 표현될 수 있다.According to one embodiment, when there is a change in the brightness of the reflected light obtained by reflection from the subject over time, the above-described Equations (9) to (12) can be expressed by Equation (17) .

Figure pat00037
Figure pat00037

[수학식 17]을 반영하면 상술된 [수학식 16]은 [수학식 18]로 표현될 수 있다.When the equation (17) is reflected, the above-described equation (16) can be expressed by the following equation (18).

Figure pat00038
Figure pat00038

[수학식 18]에 개시된 바와 같이 밝기 변화율 Δ는 [수학식 18]의 분모 및 분자에 서로 다른 부호로 개입하게 되어 있어서, 깊이 계산에 오차를 발생시킨다. 따라서 밝기 변화율인 Δ가 클수록 또는 피사체의 움직임이 클수록 모션 블러(motion blur)가 커질 수 있다.As described in the expression (18), the rate of change in brightness? Is interposed between the denominator and the numerator of the equation (18) with different signs, thereby causing an error in the depth calculation. Therefore, the larger the variation rate of the brightness? Or the greater the motion of the subject, the greater the motion blur.

일 실시 예에 따른 디바이스(100)는 투사되는 투사광의 순서를 제어하여 모션 블러가 감소된 거리 정보를 획득할 수 있다.The device 100 according to one embodiment may control the order of the projected projection light so that the motion blur may obtain reduced distance information.

도 8은 피사체가 움직일 경우 투사되는 투사광의 순서를 제어하여 거리 정보를 획득하는 일례를 도시한다.Fig. 8 shows an example in which distance information is acquired by controlling the order of the projected light when the subject moves.

일 실시 예에 따른 디바이스(100)는 투사광의 순서를 제어할 수 있다. 예를 들면, 일 실시 예에 따른 디바이스(100)는 투사광들간의 투사 순서를 상호 변경할 수 있다. 일 예로, 일 실시 예에 따른 디바이스(100)는 제2 투사광(620)과 제4 투사광(640)의 투사 순서를 바꾸어, 제1 투사광(610), 제4 투사광(640), 제3 투사광(630) 및 제2 투사광(620)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다. The device 100 according to one embodiment can control the order of the projected light. For example, the device 100 according to one embodiment may change the projection order between the projection lights. For example, the device 100 according to one embodiment may change the order of projection of the second projection light 620 and the fourth projection light 640, and may change the projection order of the first projection light 610, the fourth projection light 640, The third projection light 630 and the second projection light 620 can sequentially project the projection light onto the object.

일 예에 따라, 디바이스(100)가 투사광의 순서를 제어하여, 제1 투사광(610), 제4 투사광(640), 제3 투사광(630) 및 제2 투사광(620)의 순서로 순차적으로 피사체에 투사하는 경우에 대해 설명한다.According to one example, the device 100 controls the order of the projected light so that the order of the first projected light 610, the fourth projected light 640, the third projected light 630, and the second projected light 620 To the subject sequentially.

일 실시 예에 따라, 시간의 경과에도 불구하고 피사체로부터 반사되어 획득되는 반사광의 밝기에 변화가 없는 경우, 제1 투사광(610)에 의해 획득되는 제1 프레임(810), 제4 투사광(640)에 의해 획득되는 제2 프레임(820), 제3 투사광(630)에 의해 획득되는 제3 프레임(830) 및 제2 투사광(620)에 의해 획득되는 제4 프레임(840)의 밝기는 동일할 수 있다. According to one embodiment, when there is no change in the brightness of the reflected light obtained by reflection from the subject despite the passage of time, the first frame 810 and the fourth projection light 810 obtained by the first projection light 610, The brightness of the fourth frame 840 obtained by the second frame 820 obtained by the first projection light 640, the third frame 830 obtained by the third projection light 630 and the second projection light 620, Can be the same.

일 실시 예에 따라, 시간의 경과에 따라 피사체로부터 반사되어 획득되는 반사광의 밝기에 변화가 있는 경우, 제1 투사광(610)에 의해 획득되는 제1 프레임(850), 제4 투사광(640)에 의해 획득되는 제2 프레임(860), 제3 투사광(630)에 의해 획득되는 제3 프레임(870) 및 제2 투사광(620)에 의해 획득되는 제4 프레임(880)의 밝기는 상이할 수 있다. 예를 들면, 제1 프레임(850)에서 제4 프레임(880)으로 갈수록 밝아질 수 있다. 일 예로, 제1 프레임(850)의 밝기가 I인 경우, 제2 프레임(860)의 밝기는 I+Δ이고, 제3 프레임(870)의 밝기는 I+2Δ이고, 제4 프레임(880)의 밝기는 I+3Δ일 수 있다. 밝기의 변화는 피사체에 조사되는 빛의 변화나 피사체가 움직이는 경우 발생할 수 있으나 이에 제한되지 않는다.The first frame 850 and the fourth projection light 640 obtained by the first projection light 610 can be obtained when the brightness of the reflected light obtained by reflection from the subject varies with the lapse of time, The brightness of the fourth frame 880 obtained by the second frame 860 obtained by the third projection light 630, the third frame 870 obtained by the third projection light 630 and the second projection light 620 is Can be different. For example, it may become brighter from the first frame 850 to the fourth frame 880. For example, if the brightness of the first frame 850 is I, the brightness of the second frame 860 is I +?, The brightness of the third frame 870 is I + 2 ?, and the brightness of the fourth frame 880 is I + Lt; RTI ID = 0.0 > I + 3. < / RTI > The change in brightness may occur, but not limited to, a change in light irradiated to the subject or movement of the subject.

일 실시 예에 따라, 시간의 경과에 따라 피사체로부터 반사되어 획득되는 반사광의 밝기에 변화가 있는 경우, 상술된 [수학식 9] 내지 [수학식 12]는 [수학식 19]로 표현될 수 있다.According to one embodiment, when there is a change in the brightness of the reflected light obtained by reflection from the subject with the lapse of time, the above-mentioned Equations (9) to (12) can be expressed by Equation (19) .

Figure pat00039
Figure pat00039

[수학식 19]를 반영하면 상술된 [수학식 16]은 [수학식 20]으로 표현될 수 있다.Reflecting the expression (19), the above-described expression (16) can be expressed by the expression (20).

Figure pat00040
Figure pat00040

[수학식 20]에서 확인할 수 있는 바와 같이 밝기 변화율 Δ는 [수학식 20]의 분모 분자에 서로 같은 부호로 개입하게 되어 있어서, 디바이스(100)는 투사광의 투사 순서를 제어하여, 깊이 계산 결과의 오차를 [수학식 18]의 경우보다 작게 함으로써 모션 블러 효과를 감소시킬 수 있다.As can be seen from Equation (20), the brightness change rate? Intervenes in the denominator of Equation (20) with the same sign, so that the device 100 controls the projection order of the projected light, The motion blur effect can be reduced by making the error smaller than in the case of (18).

도 9는 피사체가 움직일 경우 투사되는 투사광의 순서를 제어하여 거리 정보를 획득하는 다른 예를 도시한다.9 shows another example of obtaining distance information by controlling the order of the projected light when the subject moves.

일 실시 예에 따른 디바이스(100)는 투사광의 순서를 제어할 수 있다. 예를 들면, 일 실시 예에 따른 디바이스(100)는 투사광의 위상차를 전체적으로 시프트(shift)시킬 수 있다. 일 예로, 일 실시 예에 따른 디바이스(100)는 제2 투사광(620), 제3 투사광(630), 제4 투사광(640) 및 제1 투사광(610)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.The device 100 according to one embodiment can control the order of the projected light. For example, the device 100 according to one embodiment may shift the phase difference of the projected light as a whole. For example, the device 100 according to one embodiment may sequentially project the second projection light 620, the third projection light 630, the fourth projection light 640, and the first projection light 610 in this order, The light can be projected onto the object.

일 예에 따라, 디바이스(100)가 투사광의 순서를 제어하여, 제2 투사광(620), 제3 투사광(630), 제4 투사광(640) 및 제1 투사광(610)의 순서로 순차적으로 피사체에 투사하는 경우에 대해 설명한다.According to one example, the device 100 controls the order of the projected light so that the order of the second projected light 620, the third projected light 630, the fourth projected light 640, and the first projected light 610 To the subject sequentially.

일 실시 예에 따라, 시간의 경과에도 불구하고 피사체로부터 반사되어 획득되는 반사광의 밝기에 변화가 없는 경우, 제2 투사광(620)에 의해 획득되는 제1 프레임(910), 제3 투사광(630)에 의해 획득되는 제2 프레임(920), 제4 투사광(640)에 의해 획득되는 제3 프레임(930) 및 제1 투사광(610)에 의해 획득되는 제4 프레임(940)의 밝기는 동일할 수 있다. According to one embodiment, when there is no change in the brightness of the reflected light obtained by reflection from the subject despite the passage of time, the first frame 910 and the third projection light 910 obtained by the second projection light 620, The third frame 930 obtained by the fourth projection light 640 and the fourth frame 940 obtained by the first projection light 610 obtained by the first projection light 630, Can be the same.

일 실시 예에 따라, 시간의 경과에 따라 피사체로부터 반사되어 획득되는 반사광의 밝기에 변화가 있는 경우, 제2 투사광(620)에 의해 획득되는 제1 프레임(950), 제3 투사광(630)에 의해 획득되는 제2 프레임(960), 제4 투사광(640)에 의해 획득되는 제3 프레임(970) 및 제1 투사광(610)에 의해 획득되는 제4 프레임(980)의 밝기는 상이할 수 있다. 예를 들면, 제1 프레임(950)에서 제4 프레임(980)으로 갈수록 밝아질 수 있다. 일 예로, 제1 프레임(950)의 밝기가 I인 경우, 제2 프레임(960)의 밝기는 I+Δ이고, 제3 프레임(970)의 밝기는 I+2Δ이고, 제4 프레임(980)의 밝기는 I+3Δ일 수 있다. 밝기의 변화는 피사체에 조사되는 빛의 변화나 피사체가 움직이는 경우 발생할 수 있으나 이에 제한되지 않는다.According to one embodiment, when there is a change in the brightness of the reflected light obtained from the subject as time elapses, the first frame 950 obtained by the second projection light 620, the third projected light 630 The third frame 970 obtained by the fourth projection light 640 and the fourth frame 980 acquired by the first projection light 610 are obtained by the following equation Can be different. For example, it may become brighter from the first frame 950 to the fourth frame 980. If the brightness of the first frame 950 is I, the brightness of the second frame 960 is I +?, The brightness of the third frame 970 is I + 2 ?, and the brightness of the fourth frame 980 is I + Lt; RTI ID = 0.0 > I + 3. < / RTI > The change in brightness may occur, but not limited to, a change in light irradiated to the subject or movement of the subject.

일 실시 예에 따라, 시간의 경과에 따라 피사체로부터 반사되어 획득되는 반사광의 밝기에 변화가 있는 경우, 상술된 [수학식 9] 내지 [수학식 12]는 [수학식 21]로 표현될 수 있다.According to one embodiment, when there is a change in the brightness of the reflected light obtained by reflection from the subject over time, the above-mentioned Equations (9) to (12) can be expressed by Equation (21) .

Figure pat00041
Figure pat00041

[수학식 21]를 반영하면 상술된 [수학식 16]은 [수학식 22]로 표현될 수 있다.When the following expression (21) is reflected, the above-described expression (16) can be expressed by the expression (22).

Figure pat00042
Figure pat00042

[수학식 22]에서 확인할 수 있는 바와 같이 밝기 변화율 Δ는 [수학식 22]의 분모 분자에 서로 같은 부호로 개입하게 되어 있어서, 디바이스(100)는 투사광의 투사 순서를 제어하여, 깊이 계산 결과의 오차를 [수학식 18]의 경우보다 작게 함으로써 모션 블러 효과를 감소시킬 수 있다.As can be seen from Equation (22), the brightness change rate? Intervenes in the denominator of Equation (22) with the same sign, so that the device 100 controls the projection order of the projected light, The motion blur effect can be reduced by making the error smaller than in the case of (18).

도 8 및 도 9에서 개시된 투사광 순서 제어 방법은 일 실시 예일 뿐이며, 디바이스(100)가 투사광의 순서를 제어하는 방법은 도 8 및 도 9에서 개시된 실시 예에 제한되지 않는다. 예를 들면, 일 실시 예에 따른 디바이스(100)는 4개의 투사광이 있는 경우, 4!인 24가지 투사 순서 중 하나를 투사광의 투사 순서로 결정할 수 있다.8 and 9 is only one embodiment, and the method by which the device 100 controls the order of the projected light is not limited to the embodiment disclosed in Figs. For example, the device 100 according to one embodiment may determine one of 24 projective orders of 4 in a projection order of projected light if there are four projected lights.

도 10은 피사체와 디바이스간의 거리에 따라 투사광의 투사 순서를 결정하는 방법을 설명하기 위한 도면이다.10 is a diagram for explaining a method of determining the projection order of the projection light according to the distance between the subject and the device.

일 실시 예에 따른 디바이스(100)는 피사체와 디바이스(100)간의 거리에 따라 투사광의 투사 순서를 결정할 수 있다.The device 100 according to one embodiment may determine the projection order of the projection light according to the distance between the subject and the device 100. [

첫번째 실시 예로, 피사체와 디바이스(100)간의 거리가 0~1m 또는 4~5m인 경우, 디바이스(100)는 시프트 없이 제1 투사광(610), 제2 투사광(620), 제3 투사광(630), 및 제4 투사광(640)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다. 일 실시 예에 따른 디바이스(100)는 피사체와 디바이스(100)간의 거리가 0~1m 또는 4~5m인 경우, 모션 블러를 감소시키기 위한 투사광의 투사 순서를 제1 그래프(1010)를 통해서 결정할 수 있다.In the first embodiment, when the distance between the subject and the device 100 is 0 to 1 m or 4 to 5 m, the device 100 can transmit the first projection light 610, the second projection light 620, The first projection light 630, and the fourth projection light 640 in this order. The device 100 according to one embodiment can determine the projection order of the projection light to reduce the motion blur through the first graph 1010 when the distance between the subject and the device 100 is 0 to 1 m or 4 to 5 m have.

두번째 실시 예로, 피사체와 디바이스(100)간의 거리가 2~3m 또는 6~7m인 경우, 디바이스(100)는 좌측으로 위상차를 1번 시프트하여 제2 투사광(620), 제3 투사광(630), 제4 투사광(640) 및 제1 투사광(610)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다. 일 실시 예에 따른 디바이스(100)는 피사체와 디바이스(100)간의 거리가 2~3m 또는 6~7m인 경우, 모션 블러를 감소시키기 위한 투사광의 투사 순서를 제2 그래프(1020)를 통해서 결정할 수 있다.In the second embodiment, when the distance between the subject and the device 100 is 2 to 3 m or 6 to 7 m, the device 100 shifts the phase difference to the left by one shift to generate the second projection light 620, the third projection light 630 ), The fourth projection light 640, and the first projection light 610 in this order. The device 100 according to an embodiment can determine the projection order of the projection light to reduce the motion blur through the second graph 1020 when the distance between the subject and the device 100 is 2 to 3 m or 6 to 7 m have.

세번째 실시 예로, 피사체와 디바이스(100)간의 거리가 0~1m 또는 4~5m인 경우, 디바이스(100)는 좌측으로 위상차를 2번 시프트하여 제3 투사광(630), 제4 투사광(640), 제1 투사광(610) 및 제2 투사광(620)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다. 일 실시 예에 따른 디바이스(100)는 피사체와 디바이스(100)간의 거리가 0~1m 또는 4~5m인 경우, 모션 블러를 감소시키기 위한 투사광의 투사 순서를 제3 그래프(1030)를 통해서 결정할 수 있다.In the third embodiment, when the distance between the subject and the device 100 is 0 to 1 m or 4 to 5 m, the device 100 shifts the phase difference to the left by two times to output the third projection light 630, the fourth projection light 640 ), The first projection light 610, and the second projection light 620 in this order. The device 100 according to an exemplary embodiment can determine the projection order of the projection light for reducing the motion blur through the third graph 1030 when the distance between the subject and the device 100 is 0 to 1 m or 4 to 5 m have.

네번째 실시 예로, 피사체와 디바이스(100)간의 거리가 2~3m 또는 6~7m인 경우, 디바이스(100)는 좌측으로 위상차를 3번 시프트하여 제4 투사광(640), 제1 투사광(610), 제2 투사광(620) 및 제3 투사광(630)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다. 일 실시 예에 따른 디바이스(100)는 피사체와 디바이스(100)간의 거리가 2~3m 또는 6~7m인 경우, 모션 블러를 감소시키기 위한 투사광의 투사 순서를 제4 그래프(1040)를 통해서 결정할 수 있다.In the fourth embodiment, when the distance between the subject and the device 100 is 2 to 3 m or 6 to 7 m, the device 100 shifts the phase difference to the left by three times to output the fourth projection light 640, the first projection light 610 ), The second projection light 620, and the third projection light 630 in this order. The device 100 according to one embodiment can determine the projection order of the projection light to reduce the motion blur through the fourth graph 1040 when the distance between the subject and the device 100 is 2 to 3 m or 6 to 7 m have.

도 10에서 도시된 거리에 따른 투사광의 투사 순서는 일 실시 예일 뿐이고, 디바이스(100)의 동작 범위는 도 10의 실시 예로 제한되지 않는다.The projection order of the projection light according to the distance shown in Fig. 10 is only an embodiment, and the operation range of the device 100 is not limited to the embodiment of Fig.

도 11은 피사체와 디바이스간의 거리에 따라 투사광의 순서를 제어하여 거리 정보를 획득하는 일례를 나타내는 도면이다.11 is a view showing an example of obtaining distance information by controlling the order of projection light according to the distance between a subject and a device.

피사체가 2m거리에 있는 경우, 일 실시 예에 따른 디바이스(100)가 제1 투사광(610), 제2 투사광(620), 제3 투사광(630), 및 제4 투사광(640)의 순서로 순차적으로 투사광을 피사체에 투사한 경우에 대해 설명한다. 제1 테스트 영역(1110) 내에서 피사체와 디바이스(100)간의 거리 차이의 변동은 작다. 그러나 파사체가 움직이는 경우, 제1 테스트 영역(1110) 내에서 거리 차이의 변동이 인식됨을 확인할 수 있다. 또한, 이 경우, 제1 그래프(1130)를 통해 표준 편차가 65.3mm라는 것을 확인할 수 있다.When the subject is at a distance of 2 m, the device 100 according to one embodiment may transmit the first projection light 610, the second projection light 620, the third projection light 630, and the fourth projection light 640, The projection light is sequentially projected onto the object in the following order. The variation of the distance difference between the subject and the device 100 in the first test region 1110 is small. However, if the subject moves, it can be seen that the variation of the distance difference is recognized in the first test area 1110. In this case, it can be confirmed that the standard deviation is 65.3 mm through the first graph 1130.

피사체가 2m거리에 있는 경우, 다른 실시 예에 따른 디바이스(100)가 제2 투사광(620), 제3 투사광(630), 제4 투사광(640) 및 제1 투사광(610)의 순서로 순차적으로 투사광을 피사체에 투사한 경우에 대해 설명한다. 제2 테스트 영역(1120) 내에서 피사체와 디바이스(100)간의 거리 차이의 변동은 작다. 그러나 파사체가 움직이는 경우, 제1 테스트 영역(1120) 내에서 거리 차이의 변동이 인식됨을 확인할 수 있다. 그러나 투사광의 투사 순서를 변경함으로써 인식되는 거리 차이의 변동이 감소하였음을 확인할 수 있다. 또한, 이 경우, 제2 그래프(1140)를 통해 표준 편차가 38mm로 감소하였음을 확인할 수 있다.When the subject is at a distance of 2 m, the device 100 according to another embodiment may reflect the second projection light 620, the third projection light 630, the fourth projection light 640, and the first projection light 610 A description will be given of a case in which projection light is sequentially projected onto a subject in order. The variation of the distance difference between the subject and the device 100 in the second test region 1120 is small. However, if the subject moves, it can be seen that the variation of the distance difference is recognized in the first test area 1120. However, it can be confirmed that the change in the recognized distance difference is reduced by changing the projection order of the projection light. Also, in this case, it can be confirmed that the standard deviation is reduced to 38 mm through the second graph 1140.

따라서, 일 실시 예에 따른 디바이스(100)는 투사광의 투사 순서를 제어함으로써, 모션 블러를 감소시킬 수 있다. Thus, the device 100 according to one embodiment can reduce the motion blur by controlling the projection order of the projected light.

예를 들면, 일 실시 예에 따른 디바이스(100)는 피사체와 디바이스(100)간의 거리에 따라 투사광의 투사 순서를 결정하여 투사광을 피사체에 투사할 수 있다. 이 경우, 일 실시 예에 따른 디바이스(100)는 피사체와 디바이스(100)간의 거리에 대한 정보를 실시간으로 획득하고, 실시간으로 획득한 거리 정보에 따라 투사광의 투사 순서를 결정하여 투사광을 피사체에 투사할 수 있다.For example, the device 100 according to one embodiment can determine the projection order of the projection light according to the distance between the subject and the device 100, and project the projection light onto the subject. In this case, the device 100 according to an embodiment obtains information on the distance between the subject and the device 100 in real time, determines the projection order of the projection light according to the distance information obtained in real time, It can be projected.

다른 예로, 일 실시 예에 따른 디바이스(100)는 외부에서 수신되는 수신 입력에 따라 투사광의 투사 순서를 결정하여 투사광을 피사체에 투사할 수 있다.As another example, the device 100 according to one embodiment can determine the projection order of the projection light according to the reception input received from the outside, and project the projection light onto the object.

도 12 및 도 13은 다양한 실시 예에 따른 디바이스(100)의 일 실시 예이다. 디바이스(100)는 상술한 거리 정보 획득 방법을 수행할 수 있는 장치로, 도1 내지 도 11 및 도 14 내지 도 16에서 개시된 거리 정보를 획득하는 방법을 수행하기 위한 모든 실시 예의 구현이 가능하다.12 and 13 are one embodiment of a device 100 according to various embodiments. The device 100 is an apparatus capable of performing the above-described distance information acquisition method. It is possible to implement all the embodiments for performing the method of acquiring the distance information disclosed in Figs. 1 to 11 and Figs. 14 to 16.

도 12는 일 실시 예에 따른 디바이스(100)의 구성을 설명하기 위한 블록도이다.12 is a block diagram illustrating a configuration of a device 100 according to an embodiment.

도 12에 도시된 바와 같이, 일 실시 예에 따른 디바이스(100)는 광원(101), 제어부(1240) 및 변조부(1230)를 포함할 수 있다. 그러나 도시된 구성요소보다 많은 구성요소에 의해 디바이스(100)가 구현될 수도 있고, 도시된 구성요소보다 적은 구성요소에 의해 디바이스(100) 가 구현될 수도 있다. 다른 실시 예에 따른 디바이스(100)는 광원(101), 제어부(1240), 변조부(1230) 및 입력 디바이스(1250)를 포함할 수 있다. 또한, 제어부(1240)는 투사광 제어부(1210)를 포함할 수 있다.12, the device 100 according to one embodiment may include a light source 101, a control unit 1240, and a modulation unit 1230. [ However, the device 100 may be implemented by more components than the components shown, and the device 100 may be implemented by fewer components than the components shown. The device 100 according to another embodiment may include a light source 101, a control unit 1240, a modulation unit 1230, and an input device 1250. In addition, the controller 1240 may include a projection light controller 1210.

이하 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

일 실시 예에 따른 투사광 제어부(1210)는 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 피사체의 위치 및/또는 외부 수신 입력에 기초하여 결정한다.The projection light control unit 1210 according to an exemplary embodiment determines the projection order of N projected light beams that are sequentially projected onto a subject (where N is a natural number of 3 or more) based on the position of the subject and / or the external received input .

N개의 상이한 투사광은 주기가 서로 같고, 크기와 위상 중에서 적어도 하나가 서로 다른 주기파를 포함할 수 있다.The N different projection lights may include periodic waves having the same period and different at least one of magnitude and phase.

일 실시 예에 따른 광원(101)는 제어부(1240)의 제어에 따라 피사체에 순차적으로 4개의 위상이 상이한 투사광을 투사할 수 있다. 예를 들면, 투사광1 내지 투사광4는 동일한 주기, 파형 및 크기를 가지면서 위상만이 서로 다른 주기파일 수 있다. 일 예로, 투사광1의 위상이 투사광2 보다 90도 느리고, 투사광2의 위상이 투사광3 보다 90도 느리고, 투사광3의 위상이 투사광4 보다 90도 느릴 수 있다. 다른 예로, 투사광1의 위상이 투사광2 보다 90도 빠르고, 투사광2의 위상이 투사광3 보다 90도 빠르고, 투사광3의 위상이 투사광4 보다 90도 빠를 수 있다.The light source 101 according to an exemplary embodiment may project the projection light of four different phases sequentially to the object under the control of the controller 1240. [ For example, the projection light 1 to the projection light 4 may have periodic files having the same period, waveform, size, and different phases only. For example, the phase of the projection light 1 may be 90 degrees slower than the projection light 2, the phase of the projection light 2 may be 90 degrees slower than the projection light 3, and the phase of the projection light 3 may be 90 degrees slower than the projection light 4. In another example, the phase of the projection light 1 is 90 degrees faster than the projection light 2, the phase of the projection light 2 is 90 degrees faster than the projection light 3, and the phase of the projection light 3 is 90 degrees faster than the projection light 4.

일 실시 예에 따른 변조부(1230)는 3개의 서브 프레임 영상, 3개의 CIS 이미지 또는 3개의 CCD 이미지를 이용하여, 광시간비행법에 따른 광파의 위상차, 피사체 표면의 반사도 및 외광을 이용하여 깊이(depth) 이미지를 획득할 수 있다. The modulator 1230 according to an exemplary embodiment uses the three subframe images, three CIS images, or three CCD images to measure the depth of light using the phase difference of the light wave according to the optical time-flight method, the reflectivity of the surface of the object, a depth image can be obtained.

일 실시 예에 따른 변조부(1230)는 4개의 서브 프레임 영상, 4개의 CIS 이미지 또는 4개의 CCD 이미지를 이용하여 모션 블러가 감소된 깊이 이미지를 획득할 수 있다. 일 실시 예에 따른 변조부(1230)가 4개의 4개의 CIS 이미지를 이용하여 깊이 이미지를 획득하는 경우, 4개의 CIS 이미지는 서로 다른 위상차를 갖는 4개의 투사광에 의해 획득될 수 있다. 예를 들면, 투사광1 내지 투사광4는 동일한 주기, 파형 및 크기를 가지면서 위상만이 90도씩 차이나는 주기파일 수 있다.The modulator 1230 according to an embodiment can acquire a motion image with a reduced depth of motion using four subframe images, four CIS images, or four CCD images. When the modulator 1230 according to the embodiment acquires a depth image using four four CIS images, the four CIS images can be obtained by four projected lights having different phase differences. For example, the projection light 1 to the projection light 4 may be periodic files having the same period, waveform, and size, but differing in phase by 90 degrees.

일 실시 예에 따른 투사광 제어부(1210)는 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 피사체의 위치에 기초하여 결정할 수 있다. 예를 들면, 일 실시 예에 따른 투사광 제어부(1210)는 피사체와 디바이스(100)간의 거리에 따라 투사광의 투사 순서를 결정하고, 결정된 투사광의 투사 순서대로 투사광을 피사체에 투사하도록 광원(101)을 제어할 수 있다.The projection light control unit 1210 according to an exemplary embodiment may determine the projection order of N projection light beams sequentially projected to the object (where N is a natural number of 3 or more) based on the position of the object. For example, the projection light control unit 1210 according to an embodiment determines the projection order of the projection light according to the distance between the subject and the device 100, and outputs the projection light to the light source 101 Can be controlled.

일 실시 예에 따른 투사광 제어부(1210)는 기설정된 복수개의 투사광의 투사 순서 중에서 디바이스(100)와 피사체간의 거리에 대응되는 투사 순서를 광원(101)이 피사체에 순차적으로 투사할 투사광의 투사 순서로 결정할 수 있다. 예를 들면, N이 4인 경우, 24개의 투사 순서가 모두 기설정된 거리에 각각 대응되고, 24개의 투사 순서 중 디바이스(100)와 피사체간의 거리에 대응되는 투사 순서가 광원(101)이 피사체에 순차적으로 투사할 투사광의 투사 순서로 결정될 수 있다. 예를 들면, 디바이스(100)와 피사체간의 거리가 1m이내인 경우 제1 투사 순서를, 디바이스(100)와 피사체간의 거리가 2m~3m인 경우 제2 투사 순서를, 디바이스(100)와 피사체간의 거리가 3m~4m인 경우 제3 투사 순서를 일 실시 예에 따른 투사광 제어부(1210)는 투사광의 투사 순서로 결정할 수 있다.The projection light control unit 1210 according to an exemplary embodiment of the present invention may be arranged such that the projection order corresponding to the distance between the device 100 and the object in the projection order of a predetermined plurality of projection lights is a projection order of the projection light for sequentially projecting the light source 101 to the object . For example, in the case of N = 4, all of the 24 projection sequences correspond to predetermined distances, and the projection sequence corresponding to the distances between the device 100 and the subject in the 24 projection sequences is obtained by the light source 101 And the projection order of the projection light to be sequentially projected. For example, when the distance between the device 100 and the subject is within 1 m, the first projection order is set. When the distance between the device 100 and the subject is 2 m to 3 m, the second projection order is set between the device 100 and the subject When the distance is 3m to 4m, the projection light control unit 1210 according to the embodiment can determine the third projection order by the projection order of the projection light.

일 실시 예에 따른 투사광 제어부(1210)는 기설정된 복수개의 투사 순서들 중에서 피사체에 대한 모션 블러를 최소화시키는 투사 순서를 투사광의 투사 순서로 결정할 수 있다. 예를 들면, 일 실시 예에 따른 투사광 제어부(1210)는 피사체에 순차적으로 투사할 투사광의 투사 순서를 피사체의 위치 및/또는 외부 수신 입력에 기초하여, 기설정된 복수개의 투사 순서들 중에서 피사체에 대한 모션 블러를 최소화시키는 투사 순서를 투사광의 투사 순서로 결정할 수 있다. The projection light controller 1210 according to an exemplary embodiment may determine a projection sequence that minimizes motion blur for a subject among a plurality of predetermined projection sequences as a projection order of projection light. For example, the projection light control unit 1210 according to an exemplary embodiment may set the projection order of the projection light to be sequentially projected on a subject to a subject in a predetermined plurality of projection orders, based on the position of the subject and / It is possible to determine the projection sequence that minimizes the motion blur for the projection light.

일 실시 예에 따른 광원(101)은 투사광 제어부(1210)에서 결정된 투사광의 투사 순서에 따라 N개의 상이한 투사광을 피사체에 순차적으로 투사한다.The light source 101 according to one embodiment sequentially projects N different projected lights onto a subject according to a projection order of the projection lights determined by the projection light controller 1210. [

예를 들면, 일 실시 예에 따른 광원(101)은 투사광 제어부(1210) 결정된 투사광의 투사 순서에 따라 제1 투사광(610), 제2 투사광(620), 제3 투사광(630) 및 제4 투사광(640)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.For example, the light source 101 according to an exemplary embodiment may include a first projection light 610, a second projection light 620, a third projection light 630, and a third projection light 630 according to the projection order of the projection light determined by the projection light control unit 1210. [ And the fourth projection light 640 sequentially in this order.

다른 예로, 일 실시 예에 따른 광원(101)은 투사광 제어부(1210)에서 결정된 투사광의 투사 순서에 따라 제1 투사광(610), 제4 투사광(640), 제3 투사광(630) 및 제2 투사광(620)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.The first projection light 640, the third projection light 640, and the third projection light 630 in accordance with the projection order of the projection light determined by the projection light control unit 1210. In other words, And the second projection light 620 in this order.

다른 예로, 일 실시 예에 따른 광원(101)은 투사광 제어부(1210)에서 결정된 투사광의 투사 순서에 따라 제3 투사광(630), 제2 투사광(620), 제1 투사광(610) 및 제4 투사광(640)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.The second projection light 620, the first projection light 610, and the second projection light 610 according to the projection order of the projection light determined by the projection light control unit 1210. [ And the fourth projection light 640 sequentially in this order.

다른 예로, 일 실시 예에 따른 광원(101)은 투사광 제어부(1210)에서 결정된 투사광의 투사 순서에 따라 제2 투사광(620), 제3 투사광(630), 제4 투사광(640) 및 제1 투사광(610)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.The second projection light 630, the fourth projection light 640, and the fourth projection light 640 according to the projection order of the projection light determined by the projection light control unit 1210. In other words, And the first projection light 610 can be sequentially projected onto the object in this order.

다른 예로, 일 실시 예에 따른 광원(101)은 투사광 제어부(1210)에서 결정된 투사광의 투사 순서에 따라 제3 투사광(630), 제4 투사광(640), 제1 투사광(610) 및 제2 투사광(620)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.In another example, the light source 101 according to an exemplary embodiment may include a third projection light 630, a fourth projection light 640, a first projection light 610, and a second projection light 640 according to the projection order of the projection light determined by the projection light control unit 1210. [ And the second projection light 620 in this order.

다른 예로, 일 실시 예에 따른 광원(101)은 투사광 제어부(1210)에서 결정된 투사광의 투사 순서에 따라 제4 투사광(640), 제1 투사광(610), 제2 투사광(620) 및 제3 투사광(630)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.The first projection light 610, the second projection light 620, and the second projection light 620 according to the projection order of the projection light determined by the projection light control unit 1210. In other words, And the third projection light 630 in this order.

도 12에서 개시된 투사광의 투사 순서는 일 실시 예이며 본 도에서 개시된 실시 예로 제한되지 않는다.The projection order of the projection light disclosed in Fig. 12 is one embodiment and is not limited to the embodiment disclosed in this drawing.

일 실시 예에 따른 변조부(1230)는 피사체에서 반사된 N개의 반사광(1205)을 변조(modulation)하여 N개의 변조된 반사광을 획득한다.A modulator 1230 according to an embodiment modulates N reflected light 1205 reflected from an object to obtain N modulated reflected light.

일 실시 예에 따른 변조부(1230)는 광원(101)에서 투사된 N개의 상이한 투사광이 피사체에서 반사된 반사광(1205)을 획득할 수 있다. 일 실시 예에 따른 변조부(1230)는 획득한 반사광(1205)을 변조하여 N개의 변조된 반사광을 획득할 수 있다. The modulator 1230 according to one embodiment may obtain the reflected light 1205 in which N different projected lights projected from the light source 101 are reflected from the subject. The modulator 1230 according to an embodiment can acquire N modulated reflected light by modulating the obtained reflected light 1205. [

일 실시 예에 따른 변조부(1230)는 이득 파형을 갖는 광변조 신호를 이용해 N개의 반사광(1205)을 변조하여 N개의 변조된 반사광을 획득할 수 있다. 광변조 신호는 투사광과 동일한 주기를 갖는 주기파를 포함할 수 있다.The modulator 1230 according to one embodiment can modulate N reflected light 1205 using an optical modulating signal having a gain waveform to obtain N modulated reflected light. The optical modulated signal may include a periodic wave having the same period as the projected light.

반사광(1205)을 획득하여 변조하는 구체적인 방법은 도 1 내지 3에서 상술하였다.A specific method of acquiring and modulating the reflected light 1205 has been described above with reference to Figs.

일 실시 예에 따른 제어부(1240)는 변조부(1230)에서 획득한 N개의 변조된 반사광을 이용하여 피사체에 대한 거리 정보를 획득한다.The control unit 1240 according to an embodiment obtains distance information on the object using the N modulated reflected lights acquired by the modulator 1230. [

예를 들면, 일 실시 예에 따른 제어부(1240)는 변조부(1230)에서 획득한 N개의 변조된 반사광을 이용하여 피사체에 대한 3차원 영상 또는 깊이 이미지를 획득할 수 있다.For example, the control unit 1240 according to an exemplary embodiment may acquire a three-dimensional image or a depth image of a subject using N modulated reflected light acquired by the modulator 1230. [

변조된 반사광을 이용하여 피사체에 대한 3차원 영상 또는 깊이 이미지를 획득하는 구체적인 방법에 대해서는 도 1 내지 3에서 상술하였다.A specific method of acquiring a three-dimensional image or depth image with respect to the object using the modulated reflected light has been described above with reference to Figs.

피사체가 움직이는 경우, 피사체에 비춰지는 외광의 세기가 변하는 경우, 피사체 표면의 반사도가 시간에 따라 변하는 경우 등과 같이 피사체에 시간에 따른 변화가 있는 경우, 모션 블러가 발생할 수 있다.When the subject moves, when the intensity of the external light reflected on the subject changes, or when the subject changes with time, such as when the reflectivity of the subject surface changes with time, motion blur may occur.

일 실시 예에 따른 제어부(1240)는 투사광 제어부(1210)에서 결정된 투사광의 투사 순서에 따라 복수개의 투사광을 투사하는 경우, 획일적인 투사 순서에 따라 복수개의 투사광을 투사하는 경우보다 모션 블러가 적은 깊이 이미지를 획득할 수 있다.The controller 1240 according to an exemplary embodiment of the present invention may be configured such that when a plurality of projection lights are projected according to the projection order of the projection light determined by the projection light controller 1210, Can obtain a depth image with a small depth.

또한, 도 4 내지 도 11에서 상술한 바와 같이 일 실시 예에 따른 투사광 제어부(1210)는 복수의 투사 순서 중에서 모션 블러를 감소시키기 위한 투사 순서를 결정할 수 있다. 일 실시 예에 따른 광원(101)은 결정된 투사 순서에 따라 투사광을 투사하고, 투사된 투사광이 반사되어 획득되는 반사광(1205)을 획득하고, 획득한 반사광(1205)을 변조하여 깊이 이미지를 획득할 수 있다. 이 경우, 일 실시 예에 따른 제어부(1240)는 획일적인 투사 순서에 따라 복수개의 투사광을 투사하는 경우보다 모션 블러가 적은 깊이 이미지를 획득할 수 있다.In addition, as described above with reference to FIGS. 4 to 11, the projection light control unit 1210 according to an exemplary embodiment may determine a projection sequence for reducing motion blur among a plurality of projection sequences. The light source 101 according to one embodiment projects the projection light according to the determined projection order, acquires the reflected light 1205 obtained by reflecting the projected projection light, modulates the obtained reflected light 1205, Can be obtained. In this case, the controller 1240 according to an exemplary embodiment can acquire a depth image having less motion blur than a case of projecting a plurality of projected lights according to a uniform projection order.

일 실시 예에 따른 제어부(1240)는 투사광 제어부(1210)로부터 투사광의 투사 순서에 대한 정보를 수신하고, 수신한 정보를 이용하여 LD(Laser Diode)를 제어하여, LD에서 광을 투사함으로써 위상 이미지 및 깊이 이미지를 획득할 수 있다.The control unit 1240 according to an exemplary embodiment receives information on the projection order of the projection light from the projection light control unit 1210, controls the LD (Laser Diode) using the received information, Images and depth images.

다른 실시 예에 따른 제어부(1240)는 투사광 제어부(1210)로부터 투사광의 투사 순서에 대한 정보를 수신하고, 수신한 정보를 이용하여 셔터(shutter)를 제어하여, 셔터를 변조함으로써 위상 이미지 및 깊이 이미지를 획득할 수 있다.The control unit 1240 according to another embodiment receives the information on the projection order of the projection light from the projection light control unit 1210, controls the shutter using the received information, modulates the shutter, Images can be obtained.

또한 투사광 제어부(1210)는 획득된 깊이 이미지를 피드백으로 수신하여 투사광의 투사 순서를 결정할 때 이용할 수 있다.Also, the projection light control unit 1210 can be used to receive the acquired depth image as feedback and determine the projection order of the projection light.

일 실시 예에 따른 제어부(1240)는 외부 수신 입력으로부터 투사광의 투사 순서에 대한 정보를 수신하고, 수신한 정보를 이용하여 LD를 제어하여, LD에서 광을 투사함으로써 위상 이미지 및 깊이 이미지를 획득할 수 있다.The control unit 1240 according to an embodiment receives the information on the projection order of the projection light from the external reception input, controls the LD using the received information, and obtains the phase image and the depth image by projecting light from the LD .

다른 실시 예에 따른 제어부(1240)는 외부 수신 입력으로부터 투사광의 투사 순서에 대한 정보를 수신하고, 수신한 정보를 이용하여 셔터(shutter)를 제어하여, 셔터를 변조함으로써 위상 이미지 및 깊이 이미지를 획득할 수 있다.The control unit 1240 according to another embodiment receives the information on the projection order of the projection light from the external reception input, and controls the shutter using the received information to acquire the phase image and the depth image by modulating the shutter can do.

도 13은 투사광의 제어를 통해 거리 정보를 획득하는 디바이스(100)의 예시적인 구조를 개략적으로 도시한다.FIG. 13 schematically illustrates an exemplary structure of a device 100 for acquiring distance information through control of projected light.

도 12를 참조하면, 일 실시 예에 따른 제어부(1240)는 제어부(106), 투사광 제어부(1210), 광원 구동부(102), 광변조기 구동부(104) 및 거리 정보 영상 처리부(107)를 포함할 수 있다. 또한, 일 실시 예에 따른 변조부(1230)는 제 1 렌즈(108), 필터(109), 광변조기(103), 제 2 렌즈(110) 및 촬상소자(105)를 포함할 수 있다.12, the control unit 1240 includes a control unit 106, a projection light control unit 1210, a light source driving unit 102, an optical modulator driving unit 104, and a distance information image processing unit 107 can do. The modulator 1230 according to an embodiment may include a first lens 108, a filter 109, an optical modulator 103, a second lens 110, and an image pickup device 105.

도 13의 각 구성 요소의 동작에 대해서는 도 1 및 도 12의 내용을 참조할 수 있다.The operation of each component in Fig. 13 can be referred to the contents of Fig. 1 and Fig.

도 14는 일 실시 예에 따른 디바이스가 N개의 투사광을 이용하여 거리 정보를 획득하는 방법을 나타내는 흐름도이다.14 is a flowchart illustrating a method for a device according to an embodiment to acquire distance information using N projected lights.

단계 S1410에서 일 실시 예에 따른 디바이스(100)는 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 피사체의 위치 및/또는 외부 수신 입력에 기초하여 결정한다.In step S1410, the device 100 according to the embodiment determines the projection order of N projected light beams (here, N is a natural number equal to or greater than 3) to be sequentially projected on the subject based on the position of the subject and / do.

N개의 상이한 투사광은 주기가 서로 같고, 크기와 위상 중에서 적어도 하나가 서로 다른 주기파를 포함할 수 있다.The N different projection lights may include periodic waves having the same period and different at least one of magnitude and phase.

일 실시 예에 따른 디바이스(100)는 피사체에 순차적으로 4개의 위상이 상이한 투사광을 투사할 수 있다. 예를 들면, 투사광1 내지 투사광4는 동일한 주기, 파형 및 크기를 가지면서 위상만이 서로 다른 주기파일 수 있다. 일 예로, 투사광1의 위상이 투사광2 보다 90도 느리고, 투사광2의 위상이 투사광3 보다 90도 느리고, 투사광3의 위상이 투사광4 보다 90도 느릴 수 있다. 다른 예로, 투사광1의 위상이 투사광2 보다 90도 빠르고, 투사광2의 위상이 투사광3 보다 90도 빠르고, 투사광3의 위상이 투사광4 보다 90도 빠를 수 있다.The device 100 according to an exemplary embodiment may project projection light sequentially different in four phases to a subject. For example, the projection light 1 to the projection light 4 may have periodic files having the same period, waveform, size, and different phases only. For example, the phase of the projection light 1 may be 90 degrees slower than the projection light 2, the phase of the projection light 2 may be 90 degrees slower than the projection light 3, and the phase of the projection light 3 may be 90 degrees slower than the projection light 4. In another example, the phase of the projection light 1 is 90 degrees faster than the projection light 2, the phase of the projection light 2 is 90 degrees faster than the projection light 3, and the phase of the projection light 3 is 90 degrees faster than the projection light 4.

일 실시 예에 따른 디바이스(100)는 3개의 서브 프레임 영상, 3개의 CIS 이미지 또는 3개의 CCD 이미지를 이용하여, 광시간비행법에 따른 광파의 위상차, 피사체 표면의 반사도 및 외광을 이용하여 깊이(depth) 이미지를 획득할 수 있다. The device 100 according to an exemplary embodiment uses the three subframe images, three CIS images, or three CCD images to measure the depth of a subject using the phase difference of the optical wave according to the optical time-flight method, the reflectivity of the subject's surface, depth image.

일 실시 예에 따른 디바이스(100)는 4개의 서브 프레임 영상, 4개의 CIS 이미지 또는 4개의 CCD 이미지를 이용하여 모션 블러가 감소된 깊이 이미지를 획득할 수 있다. 일 실시 예에 따른 디바이스(100)가 4개의 4개의 CIS 이미지를 이용하여 깊이 이미지를 획득하는 경우, 4개의 CIS 이미지는 서로 다른 위상차를 갖는 4개의 투사광에 의해 획득될 수 있다. 예를 들면, 투사광1 내지 투사광 4는 동일한 주기, 파형 및 크기를 가지면서 위상만이 90도씩 차이나는 주기파일 수 있다.The device 100 according to one embodiment can obtain a depth-reduced image with motion blur using four subframe images, four CIS images, or four CCD images. When the device 100 according to an embodiment acquires a depth image using four four CIS images, the four CIS images can be obtained by four projected lights having different phase differences. For example, the projection light 1 to the projection light 4 may be periodic files having the same period, waveform, and size, but differing in phase by 90 degrees.

일 실시 예에 따른 디바이스(100)는 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 피사체의 위치에 기초하여 결정할 수 있다. 예를 들면, 일 실시 예에 따른 디바이스(100)는 피사체와 디바이스(100)간의 거리에 따라 투사광의 투사 순서를 결정하여 투사광을 피사체에 투사할 수 있다.The device 100 according to the embodiment can determine the projection order of N projected light beams sequentially projected to the subject (where N is a natural number of 3 or more) based on the position of the subject. For example, the device 100 according to one embodiment can determine the projection order of the projection light according to the distance between the subject and the device 100, and project the projection light onto the subject.

일 실시 예에 따른 디바이스(100)는 기설정된 복수개의 투사광의 투사 순서 중에서 디바이스(100)와 피사체간의 거리에 대응되는 투사 순서를 디바이스(100)가 피사체에 순차적으로 투사할 투사광의 투사 순서로 결정할 수 있다. 예를 들면, N이 4인 경우, 24개의 투사 순서가 모두 기설정된 거리에 각각 대응되고, 24개의 투사 순서 중 디바이스(100)와 피사체간의 거리에 대응되는 투사 순서가 디바이스(100)가 피사체에 순차적으로 투사할 투사광의 투사 순서로 결정될 수 있다. 예를 들면, 디바이스(100)와 피사체간의 거리가 1m이내인 경우 제1 투사 순서를, 디바이스(100)와 피사체간의 거리가 2m~3m인 경우 제2 투사 순서를, 디바이스(100)와 피사체간의 거리가 3m~4m인 경우 제3 투사 순서를 일 실시 예에 따른 디바이스(100)는 투사광의 투사 순서로 결정할 수 있다.The device 100 according to the embodiment may determine the projection order corresponding to the distance between the device 100 and the object in the projection order of a predetermined plurality of projection lights by the projection order of the projection light that the device 100 sequentially projects to the object . For example, when N is 4, the 24 projection sequences all correspond to predetermined distances, and the projection order corresponding to the distances between the device 100 and the subject in the 24 projection sequences is the device 100 And the projection order of the projection light to be sequentially projected. For example, when the distance between the device 100 and the subject is within 1 m, the first projection order is set. When the distance between the device 100 and the subject is 2 m to 3 m, the second projection order is set between the device 100 and the subject When the distance is 3m to 4m, the third projection order can be determined by the projection order of the projection light according to the embodiment.

일 실시 예에 따른 디바이스(100)는 기설정된 복수개의 투사 순서들 중에서 피사체에 대한 모션 블러를 최소화시키는 투사 순서를 투사광의 투사 순서로 결정할 수 있다. 예를 들면, 일 실시 예에 따른 디바이스(100)는 피사체에 순차적으로 투사할 투사광의 투사 순서를 피사체의 위치 및/또는 외부 수신 입력에 기초하여, 기설정된 복수개의 투사 순서들 중에서 피사체에 대한 모션 블러를 최소화시키는 투사 순서를 투사광의 투사 순서로 결정할 수 있다. The device 100 according to an exemplary embodiment may determine a projection sequence that minimizes motion blur for a subject among a predetermined plurality of projection sequences in a projection order of projection light. For example, the device 100 according to an embodiment may be arranged such that the projection order of the projection light to be sequentially projected on a subject is determined based on the position of the subject and / or the external reception input, The projection order that minimizes blur can be determined by the projection order of the projection light.

단계 S1420에서 일 실시 예에 따른 디바이스(100)는 단계 S1410에서 결정된 투사광의 투사 순서에 따라 N개의 상이한 투사광을 피사체에 순차적으로 투사한다.In step S1420, the device 100 according to one embodiment sequentially projects N different projection lights onto the subject in accordance with the projection order of the projection light determined in step S1410.

예를 들면, 일 실시 예에 따른 디바이스(100)는 단계 S1410에서 결정된 투사광의 투사 순서에 따라 제1 투사광(610), 제2 투사광(620), 제3 투사광(630) 및 제4 투사광(640)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.For example, the device 100 according to an exemplary embodiment may include a first projection light 610, a second projection light 620, a third projection light 630, and a fourth projection light 640 according to the projection order of the projection light determined in step S1410. And the projection light 640 can be sequentially projected onto the object in this order.

다른 예로, 일 실시 예에 따른 디바이스(100)는 단계 S1410에서 결정된 투사광의 투사 순서에 따라 제1 투사광(610), 제4 투사광(640), 제3 투사광(630) 및 제2 투사광(620)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.As another example, the device 100 according to an embodiment may calculate the first projection light 610, the fourth projection light 640, the third projection light 630, and the second projection 640 in accordance with the projection order of the projection light determined in step S1410. And the light 620 can be projected to the object sequentially.

다른 예로, 일 실시 예에 따른 디바이스(100)는 단계 S1410에서 결정된 투사광의 투사 순서에 따라 제3 투사광(630), 제2 투사광(620), 제1 투사광(610) 및 제4 투사광(640)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.As another example, the device 100 according to one embodiment may further include a third projection light 630, a second projection light 620, a first projection light 610, and a fourth projection light 620 according to the projection order of the projection light determined in step S1410. And the light 640 in this order.

다른 예로, 일 실시 예에 따른 디바이스(100)는 단계 S1410에서 결정된 투사광의 투사 순서에 따라 제2 투사광(620), 제3 투사광(630), 제4 투사광(640) 및 제1 투사광(610)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.As another example, the device 100 according to one embodiment may be configured such that the second projection light 620, the third projection light 630, the fourth projection light 640, and the first projection light 630, in accordance with the projection order of the projection light determined in step S1410, And the light 610 are sequentially projected onto the object.

다른 예로, 일 실시 예에 따른 디바이스(100)는 단계 S1410에서 결정된 투사광의 투사 순서에 따라 제3 투사광(630), 제4 투사광(640), 제1 투사광(610) 및 제2 투사광(620)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.In another example, the device 100 according to one embodiment may further include a third projection light 630, a fourth projection light 640, a first projection light 610, and a second projection light 640 according to the projection order of the projection light determined in step S1410. And the light 620 can be projected to the object sequentially.

다른 예로, 일 실시 예에 따른 디바이스(100)는 단계 S1410에서 결정된 투사광의 투사 순서에 따라 제4 투사광(640), 제1 투사광(610), 제2 투사광(620) 및 제3 투사광(630)의 순서로 순차적으로 투사광을 피사체에 투사할 수 있다.As another example, the device 100 according to one embodiment may further include a fourth projection light 640, a first projection light 610, a second projection light 620, and a third projection light 610. In accordance with the projection order of the projection light determined in step S1410, The light 630 can be projected to the object sequentially in this order.

단계 S1420에서 개시된 투사광의 투사 순서는 일 실시 예이며 단계 S1420에서 개시된 실시 예로 제한되지 않는다.The projection order of the projection light started in step S1420 is one embodiment and is not limited to the embodiment disclosed in step S1420.

단계 S1430에서 일 실시 예에 따른 디바이스(100)는 피사체에서 반사된 N개의 반사광을 변조(modulation)하여 N개의 변조된 반사광을 획득한다.In step S1430, the device 100 according to one embodiment modulates N reflected light reflected from the subject to obtain N modulated reflected light.

일 실시 예에 따른 디바이스(100)는 단계 S1420에서 투사된 N개의 상이한 투사광이 피사체에서 반사된 반사광을 획득할 수 있다. 일 실시 예에 따른 디바이스(100)는 획득한 반사광을 변조하여 N개의 변조된 반사광을 획득할 수 있다. The device 100 according to one embodiment can obtain the reflected light in which the N different projected lights projected in step S1420 are reflected from the subject. The device 100 according to one embodiment can obtain the N modulated reflected light by modulating the obtained reflected light.

일 실시 예에 따른 디바이스(100)는 이득 파형을 갖는 광변조 신호를 이용해 N개의 반사광을 변조하여 N개의 변조된 반사광을 획득할 수 있다. 광변조 신호는 투사광과 동일한 주기를 갖는 주기파를 포함할 수 있다.The device 100 according to one embodiment can modulate N reflected light using an optical modulated signal having a gain waveform to obtain N modulated reflected light. The optical modulated signal may include a periodic wave having the same period as the projected light.

반사광을 획득하여 변조하는 구체적인 방법은 도 1 내지 3에서 상술하였다.A specific method of acquiring and modulating reflected light has been described above with reference to Figs.

단계 S1440에서 일 실시 예에 따른 디바이스(100)는 단계 S1430에서 획득한 N개의 변조된 반사광을 이용하여 피사체에 대한 거리 정보를 획득한다.In step S1440, the device 100 according to one embodiment acquires distance information on the object using the N modulated reflected light obtained in step S1430.

예를 들면, 일 실시 예에 따른 디바이스(100)는 단계 S1430에서 획득한 N개의 변조된 반사광을 이용하여 피사체에 대한 3차원 영상 또는 깊이 이미지를 획득할 수 있다.For example, the device 100 according to one embodiment may obtain a three-dimensional image or a depth image for a subject using the N modulated reflected light obtained in step S1430.

변조된 반사광을 이용하여 피사체에 대한 3차원 영상 또는 깊이 이미지를 획득하는 구체적인 방법에 대해서는 도 1 내지 3에서 상술하였다.A specific method of acquiring a three-dimensional image or depth image with respect to the object using the modulated reflected light has been described above with reference to Figs.

피사체가 움직이는 경우, 피사체에 비춰지는 외광의 세기가 변하는 경우, 피사체 표면의 반사도가 시간에 따라 변하는 경우 등과 같이 피사체에 시간에 따른 변화가 있는 경우, 모션 블러가 발생할 수 있다.When the subject moves, when the intensity of the external light reflected on the subject changes, or when the subject changes with time, such as when the reflectivity of the subject surface changes with time, motion blur may occur.

일 실시 예에 따른 디바이스(100)는 단계 S1410에서 결정된 투사광의 투사 순서에 따라 복수개의 투사광을 투사하는 경우, 획일적인 투사 순서에 따라 복수개의 투사광을 투사하는 경우보다 모션 블러가 적은 깊이 이미지를 획득할 수 있다.When projecting a plurality of projected lights in accordance with the projection order of the projection light determined in step S1410, the device 100 according to the embodiment may display a depth image having less motion blur than a case of projecting a plurality of projected lights according to a uniform projection order Can be obtained.

또한, 도 4 내지 도 11에서 상술한 바와 같이 일 실시 예에 따른 디바이스(100)는 복수의 투사 순서 중에서 모션 블러를 감소시키기 위한 투사 순서를 결정할 수 있다. 일 실시 예에 따른 디바이스(100)는 결정된 투사 순서에 따라 투사광을 투사하고, 투사된 투사광이 반사되어 획득되는 반사광을 획득하고, 획득한 반사광을 변조하여 깊이 이미지를 획득할 수 있다. 이 경우, 일 실시 예에 따른 디바이스(100)는 획일적인 투사 순서에 따라 복수개의 투사광을 투사하는 경우보다 모션 블러가 적은 깊이 이미지를 획득할 수 있다.In addition, as described above with reference to FIGS. 4 through 11, the device 100 according to an embodiment may determine a projection order for reducing motion blur among a plurality of projection orders. The device 100 according to an embodiment can project the projection light according to the determined projection order, obtain the reflected light obtained by reflecting the projected projection light, and modulate the obtained reflected light to obtain the depth image. In this case, the device 100 according to an exemplary embodiment can acquire a depth image having less motion blur than a case of projecting a plurality of projected lights according to a uniform projection order.

도 15는 일 실시 예에 따른 디바이스가 N개의 위상이 상이한 투사광을 이용하여 거리 정보를 획득하는 방법을 나타내는 흐름도이다.15 is a flow diagram illustrating a method for a device according to an embodiment to acquire distance information using N different-phase projected lights.

단계 S1510에서 일 실시 예에 따른 디바이스(100)는 디바이스(100) 및 피사체간의 거리 정보를 획득한다.In step S1510, the device 100 according to one embodiment obtains distance information between the device 100 and the subject.

예를 들면, 일 실시 예에 따른 디바이스(100)는 이미 획득된 깊이 이미지 또는 3차원 영상을 이용하여 디바이스(100)와 피사체간의 거리를 획득할 수 있다. For example, the device 100 according to one embodiment may obtain the distance between the device 100 and the subject using the depth image or the three-dimensional image that has already been obtained.

다른 예로, 일 실시 예에 따른 디바이스(100)는 피사체와 디바이스(100)간의 거리에 대한 정보를 실시간으로 획득할 수 있다. 예를 들면, 일 실시 예에 따른 디바이스(100)는 실시간으로 새롭게 획득된 깊이 이미지 또는 3차원 영상을 피드백으로 수신하여 수신한 깊이 이미지 또는 3차원 영상을 이용하여 디바이스(100)와 피사체간의 거리를 획득할 수 있다. 다른 예로, 일 실시 예에 따른 디바이스(100)는 후술되는 단계 S1560에서 획득되는 거리 정보를 디바이스 및 피사체간의 거리 정보로 획득할 수 있다.In another example, the device 100 according to one embodiment may obtain information about the distance between the subject and the device 100 in real time. For example, the device 100 according to an exemplary embodiment receives a newly acquired depth image or a three-dimensional image as a feedback in real time and receives a depth image or a three-dimensional image to receive a distance between the device 100 and a subject Can be obtained. As another example, the device 100 according to one embodiment may acquire the distance information obtained in step S1560, which will be described later, as distance information between the device and the object.

단계 S1520에서 일 실시 예에 따른 디바이스(100)는 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 획득한 거리 정보에 기초하여 결정 한다.In step S1520, the device 100 according to one embodiment determines the projection order of N projected light beams (here, N is a natural number equal to or greater than 3) to be projected sequentially on the basis of the distance information obtained.

일 실시 예에 따른 디바이스(100)는 디바이스(100) 및 피사체간의 거리 정보를 획득하고, 획득한 거리 정보에 기초하여 피사체에 대한 모션 블러를 최소화시키기 위한 투사광의 투사 순서를 결정할 수 있다.The device 100 according to one embodiment may obtain the distance information between the device 100 and the subject and may determine the projection order of the projection light to minimize motion blur for the subject based on the obtained distance information.

일 실시 예에 따른 디바이스(100)는 단계 S1510에서 획득한 거리에 대응하는 투사 순서를 투사광의 투사 순서로 결정할 수 있다. 예를 들면, 일 실시 예에 따른 디바이스(100)는 단계 S1510에서 획득한 거리에서 모션 블러를 최소화시킬 수 있는 투사 순서를 투사광의 투사 순서로 결정할 수 있다. 거리에 따라 모션 블러를 최소화시킬 수 있는 투사 순서는 미리 결정되어 있을 수 있고, 계산되어질 수도 있다. 피사체와 디바이스(100)간의 거리에 따라 투사광의 투사 순서를 결정하는 구체적인 예는 도 10에서 상술하였다.The device 100 according to one embodiment may determine the projection order corresponding to the distance obtained in step S1510 as the projection order of the projection light. For example, the device 100 according to one embodiment may determine the projection order that minimizes motion blur in the distance obtained in step S1510, in terms of the projection order of the projection light. The projection order, which can minimize motion blur according to distance, may be predetermined and calculated. A specific example of determining the projection order of the projection light according to the distance between the subject and the device 100 has been described above with reference to FIG.

단계 S1530에서 일 실시 예에 따른 디바이스(100)는 단계 S1520에서 결정된 투사광의 투사 순서에 따라 N개의 위상이 상이한 투사광을 피사체에 순차적으로 투사한다. N개의 위상이 상이한 투사광 사이에 360도를 N 등분한 위상차가 존재할 수 있다.In step S1530, the device 100 according to an embodiment sequentially projects projection light of N different phases to the subject in accordance with the projection order of the projection light determined in step S1520. There may be a phase difference N divided by 360 degrees between the N projected lights having different phases.

일 실시 예에 따른 디바이스(100)가 단계 S1520에서 결정된 투사광의 투사 순서에 따라 N개의 상이한 투사광을 피사체에 순차적으로 투사하는 구체적인 방법은 단계 S1420에서 상술하였다.The specific method by which the device 100 according to one embodiment sequentially projects N different projection lights to the subject in accordance with the projection order of the projection light determined in step S1520 has been described above in step S1420.

단계 S1540에서 일 실시 예에 따른 디바이스(100)는 피사체에서 반사된 N개의 반사광을 획득한다.In step S1540, the device 100 according to one embodiment obtains N reflected light reflected from the subject.

일 실시 예에 따른 디바이스(100)는 단계 S1530에서 투사된 투사광이 피사체에서 반사된 N개의 반사광을 획득할 수 있다. 반사광은 피사체의 반사도에 영향을 받아 결정될 수 있다. 반사광을 획득하는 구체적인 방법은 도 1 내지 도 3에서 상술하였다.The device 100 according to an embodiment can acquire N reflected light projected from the object in step S1530. The reflected light can be determined by being influenced by the reflectivity of the subject. A specific method of obtaining reflected light has been described in Figs.

단계 S1550 및 단계 S1560은 각각 단계 S1430 및 단계 S1440에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.Steps S1550 and S1560 correspond to steps S1430 and S1440, respectively, and therefore, a detailed description thereof will be omitted for the sake of simplicity.

도 16는 일 실시 예에 따른 디바이스가 외부 수신 입력에 기초하여 결정된 투사광의 투사 순서를에 따라 상이한 투사광을 투사하여 거리 정보를 획득하는 방법을 나타내는 흐름도이다.16 is a flowchart showing a method of a device according to an embodiment to project distance-based information by projecting different projection light according to a projection order of projection light determined based on an external reception input.

단계 S1630 내지 단계 S1650은 단계 S1420 내지 단계 S1440에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.Since steps S1630 to S1650 correspond to steps S1420 to S1440, a detailed description will be omitted for the sake of simplicity.

단계 S1610에서 일 실시 예에 따른 디바이스(100)는 외부로부터 입력을 수신한다.In step S1610, the device 100 according to one embodiment receives input from the outside.

일 실시 예에 따른 디바이스(100)는 사용자 입력을 수신할 수 있다. 예를 들면, 일 실시 예에 따른 디바이스(100)는 수신한 사용자 입력에 기초하여 결정된 외부 수신 입력을 수신할 수 있다. 사용자 입력은, 터치 입력, 키보드 입력, 음성 입력, 소리 입력, 버튼 입력, 제스쳐 입력 및 다중(multimodal) 입력 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.The device 100 according to one embodiment may receive user input. For example, device 100 according to one embodiment may receive an external receive input determined based on a received user input. The user input may include at least one of a touch input, a keyboard input, a voice input, a sound input, a button input, a gesture input, and a multimodal input, but is not limited thereto.

일 실시 예에 따른 디바이스(100)는 외부 수신 입력을 수신할 수 있다. 예를 들면, 무선 또는 유선 방식을 통해 일 실시 예에 따른 디바이스(100)는 외부 수신 입력을 수신할 수 있다. 다른 예로, 일 실시 예에 따른 디바이스(100)는 디바이스(100) 외부의 서버 또는 디바이스(100) 외부의 외부 디바이스로부터 외부 수신 입력을 수신할 수 있다.The device 100 according to one embodiment may receive an external receive input. For example, the device 100 according to one embodiment may receive an external receive input via a wireless or wired manner. In another example, a device 100 according to one embodiment may receive an external receive input from a server external to the device 100 or from an external device external to the device 100.

단계 S1620에서 일 실시 예에 따른 디바이스(100)는 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 외부 수신 입력에 기초하여 결정한다.In step S1620, the device 100 according to the embodiment determines the projection order of N projected light beams (here, N is a natural number equal to or greater than 3) to be projected on the object sequentially based on the external reception input.

예를 들면, 일 실시 예에 따른 디바이스(100)는 피사체에 순차적으로 투사할 투사광의 투사 순서를 외부 수신 입력에 기초하여, 기설정된 복수개의 투사 순서들 중에서 피사체에 대한 모션 블러를 최소화시키는 투사 순서를 투사광의 투사 순서로 결정할 수 있다.For example, the device 100 according to an exemplary embodiment may be arranged such that a projection order of projection light to be sequentially projected on a subject is determined based on an external reception input, a projection order in which motion blur for a subject is minimized among a predetermined plurality of projection orders As the projection order of the projection light.

일 실시 예에 따른 디바이스(100)는 기설정된 복수개의 투사광의 투사 순서 중에서 외부 수신 입력에 대응되는 투사 순서를 디바이스(100)가 피사체에 순차적으로 투사할 투사광의 투사 순서로 결정할 수 있다. 예를 들면, N이 4인 경우, 24개의 투사 순서 중 외부 수신 입력에 따라 결정된 투사 순서가 디바이스(100)가 피사체에 순차적으로 투사할 투사광의 투사 순서로 결정될 수 있다.The device 100 according to the embodiment may determine the projection order corresponding to the external reception input among the projection orders of the predetermined plurality of projection lights by the projection order of the projection light that the device 100 sequentially projects to the object. For example, when N is 4, the projection order determined according to the external reception input among the 24 projection orders can be determined in accordance with the projection order of the projection light that the device 100 sequentially projects to the object.

이상에서 전술한 일 실시 예에 따른 정보 획득 방법 및 장치는 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있고 컴퓨터에 의해 실행됨으로써 전술한 기능들이 실행될 수 있다. The information obtaining method and apparatus according to the embodiment described above can be recorded in a computer-readable recording medium and executed by a computer so that the above-described functions can be executed.

또한, 이러한 코드는 전술한 기능들을 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조 되어야 하는지에 대한 메모리 참조 관련 코드를 더 포함할 수 있다. In addition, such code may further include memory reference related code as to what additional information or media needed to cause the processor of the computer to execute the aforementioned functions should be referenced at any location (address) of the internal or external memory of the computer .

이상에서 전술한 바와 같은 프로그램을 기록한 컴퓨터로 읽힐 수 있는 기록매체는, 일례로, ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 미디어 저장장치 등이 있다. The computer-readable recording medium on which the above-described program is recorded includes ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical media storage, and the like.

각 실시 예에 따른 정보 획득 방법 및 장치를 실행시키기 위한 프로그램인 애플리케이션을 기록한 기록매체를 읽을 수 있는 컴퓨터는, 일반적인 데스크 탑이나 노트북 등의 일반 PC 뿐만 아니라, 스마트 폰, 태블릿 PC, PDA(Personal Digital Assistants) 및 이동통신 단말기 등의 모바일 단말을 포함할 수 있으며, 이뿐만 아니라, 컴퓨팅(Computing) 가능한 모든 기기로 해석되어야 할 것이다. A computer capable of reading a recording medium on which an application, which is a program for executing the information obtaining method and apparatus according to each embodiment, can be read is not limited to a general PC such as a general desktop or a notebook computer, but also a smart phone, a tablet PC, Assistants, and mobile terminals. In addition, it should be interpreted as all devices capable of computing.

이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. It is to be understood that the terms "comprises", "comprising", or "having" as used in the foregoing description mean that the constituent element can be implanted unless specifically stated to the contrary, But should be construed as further including other elements.

이상의 설명은 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 해당 기술 분야에서 통상의 지식을 가진 자라면 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 개시된 실시 예들은 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 기술 사상의 범위가 한정되는 것은 아니다. 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of technical ideas, and various modifications and changes may be made without departing from the essential characteristics of those skilled in the art. Therefore, the disclosed embodiments are intended to be illustrative rather than limiting, and the scope of the technical idea is not limited by these embodiments. The scope of protection is to be interpreted by the following claims, and all technical ideas within the scope of equivalents should be interpreted as being included in the scope of the right.

Claims (20)

디바이스가 피사체에 대한 정보를 획득하는 방법에 있어서,
상기 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 상기 피사체의 위치 및/또는 외부 수신 입력에 기초하여 결정하는 단계;
상기 투사광의 투사 순서에 따라 상기 N개의 상이한 투사광을 상기 피사체에 순차적으로 투사하는 단계;
상기 피사체에서 반사된 N개의 반사광을 변조(modulation)하여 N개의 변조된 반사광을 획득하는 단계; 및
상기 N개의 변조된 반사광을 이용하여 상기 피사체에 대한 거리 정보를 획득하는 단계를 포함하는 거리 정보 획득 방법.
A method for a device to obtain information about a subject,
Determining a projection sequence of N projected light beams to be sequentially projected onto the subject (where N is a natural number of 3 or more) based on the position of the subject and / or an external received input;
Sequentially projecting the N different projection lights onto the subject according to a projection order of the projection light;
Modulating N reflected light reflected from the subject to obtain N modulated reflected light; And
And obtaining distance information on the object using the N modulated reflected light.
제 1 항에 있어서,
상기 투사광의 투사 순서를 상기 피사체의 위치 및/또는 상기 외부 수신 입력에 기초하여 결정하는 단계는
상기 디바이스 및 상기 피사체간의 거리 정보를 획득하고, 상기 획득한 거리 정보에 기초하여 상기 투사광의 투사 순서를 결정하는 거리 정보 획득 방법.
The method according to claim 1,
Wherein the step of determining the projection order of the projection light based on the position of the subject and /
Acquiring distance information between the device and the subject, and determining a projection order of the projection light based on the obtained distance information.
제 1 항에 있어서,
상기 디바이스 및 상기 피사체간의 거리 정보는 실시간으로 획득되는 거리 정보 획득 방법.
The method according to claim 1,
Wherein the distance information between the device and the subject is obtained in real time.
제 1 항에 있어서,
상기 투사광의 투사 순서를 상기 피사체의 위치 및/또는 상기 외부 수신 입력에 기초하여 결정하는 단계는
상기 디바이스 및 상기 피사체간의 거리 정보를 획득하고, 상기 획득한 거리 정보에 기초하여 상기 피사체에 대한 모션 블러(motion blur)를 최소화시키기 위한 상기 투사광의 투사 순서를 결정하는 거리 정보 획득 방법.
The method according to claim 1,
Wherein the step of determining the projection order of the projection light based on the position of the subject and /
Acquiring distance information between the device and the subject, and determining a projection order of the projection light for minimizing motion blur for the subject based on the obtained distance information.
제 1 항에 있어서,
상기 투사광의 투사 순서를 상기 피사체의 위치 및/또는 상기 외부 수신 입력에 기초하여 결정하는 단계는
기설정된 복수개의 투사 순서들 중에서 상기 피사체에 대한 모션 블러를 최소화시키는 투사 순서를 상기 투사광의 투사 순서로 결정하는 거리 정보 획득 방법.
The method according to claim 1,
Wherein the step of determining the projection order of the projection light based on the position of the subject and /
And a projection order in which a motion blur for the subject is minimized among a plurality of predetermined projection orders is determined as a projection order of the projection light.
제 1 항에 있어서,
상기 N개의 상이한 투사광은 주기가 서로 같고, 크기와 위상 중에서 적어도 하나가 서로 다른 주기파를 포함하는 거리 정보 획득 방법.
The method according to claim 1,
Wherein the N different projection lights have the same period and at least one of a magnitude and a phase includes different periodic waves.
제 1 항에 있어서,
상기 피사체에서 반사된 상기 N개의 반사광을 변조(modulation)하여 상기 N개의 변조된 반사광을 획득하는 단계는
이득 파형을 갖는 광변조 신호를 이용해 상기 N개의 반사광을 변조(modulation)하여 상기 N개의 변조된 반사광을 획득하는 거리 정보 획득 방법.
The method according to claim 1,
Wherein the step of modulating the N reflected light reflected from the subject to obtain the N modulated reflected light comprises:
And modulating the N reflected light by using an optical modulated signal having a gain waveform to obtain the N modulated reflected light.
제 7 항에 있어서,
상기 광변조 신호는 투사광과 동일한 주기를 갖는 주기파를 포함하는 거리 정보 획득 방법.
8. The method of claim 7,
Wherein the optical modulating signal includes a periodic wave having the same period as the projected light.
제 1 항에 있어서,
상기 N개의 상이한 투사광은 서로 위상이 상이하고, 상기 N개의 상이한 투사광 사이에 360도를 N 등분한 위상차가 존재하는 거리 정보 획득 방법.
The method according to claim 1,
Wherein the N different projected lights have different phases from each other and a phase difference of 360 degrees divided by N is present between the N different projected lights.
제 1 항에 있어서,
상기 투사광의 투사 순서를 상기 피사체의 위치 및/또는 상기 외부 수신 입력에 기초하여 결정하는 단계는
사용자의 입력에 기초하여 결정된 외부 수신 입력에 기초하여 상기 투사광의 투사 순서를 결정하는 거리 정보 획득 방법.
The method according to claim 1,
Wherein the step of determining the projection order of the projection light based on the position of the subject and /
And a projection order of the projection light is determined based on an external reception input determined based on a user's input.
피사체에 대한 정보를 획득하는 디바이스에 있어서,
상기 피사체에 순차적으로 투사할 N개(여기서, N은 3 이상의 자연수)의 상이한 투사광의 투사 순서를 상기 피사체의 위치 및/또는 외부 수신 입력에 기초하여 결정하는 투사광 제어부;
상기 투사광의 투사 순서에 따라 상기 N개의 상이한 투사광을 상기 피사체에 순차적으로 투사하는 광원;
상기 피사체에서 반사된 N개의 반사광을 변조(modulation)하여 N개의 변조된 반사광을 획득하는 변조부(modulator); 및
상기 N개의 변조된 반사광을 이용하여 상기 피사체에 대한 거리 정보를 획득하는 제어부를 포함하는 디바이스.
A device for acquiring information on a subject, the device comprising:
A projection light control unit for determining a projection sequence of N different projection light sequentially projected onto the object (where N is a natural number of 3 or more) based on the position of the object and / or an external reception input;
A light source sequentially projecting the N different projection lights onto the subject according to a projection order of the projection lights;
A modulator for modulating N reflected light reflected from the subject to obtain N modulated reflected light; And
And a controller for obtaining distance information on the object using the N modulated reflected lights.
제 11 항에 있어서,
상기 투사광 제어부는
상기 디바이스 및 상기 피사체간의 거리 정보를 획득하고, 상기 획득한 거리 정보에 기초하여 상기 투사광의 투사 순서를 결정하는 디바이스.
12. The method of claim 11,
The projection-
Obtain distance information between the device and the subject, and determine a projection order of the projection light based on the obtained distance information.
제 11 항에 있어서,
상기 디바이스 및 상기 피사체간의 거리 정보는 실시간으로 획득되는 디바이스.
12. The method of claim 11,
Wherein distance information between the device and the subject is obtained in real time.
제 11 항에 있어서,
상기 투사광 제어부는
상기 디바이스 및 상기 피사체간의 거리 정보를 획득하고, 상기 획득한 거리 정보에 기초하여 상기 피사체에 대한 모션 블러(motion blur)를 최소화시키기 위한 상기 투사광의 투사 순서를 결정하는 디바이스.
12. The method of claim 11,
The projection-
Obtains distance information between the device and the subject, and determines a projection order of the projection light for minimizing motion blur for the subject based on the obtained distance information.
제 11 항에 있어서,
상기 투사광 제어부는
기설정된 복수개의 투사 순서들 중에서 상기 피사체에 대한 모션 블러를 최소화시키는 투사 순서를 상기 투사광의 투사 순서로 결정하는 디바이스.
12. The method of claim 11,
The projection-
And a projection order in which a motion blur for the subject is minimized among a plurality of predetermined projection orders is determined as a projection order of the projection light.
제 11 항에 있어서,
상기 N개의 상이한 투사광은 주기가 서로 같고, 크기와 위상 중에서 적어도 하나가 서로 다른 주기파를 포함하는 디바이스.
12. The method of claim 11,
Wherein the N different projected lights include periodic waves having the same period and at least one of a magnitude and a phase being different from each other.
제 11 항에 있어서,
상기 변조부는
이득 파형을 갖는 광변조 신호를 이용해 상기 N개의 반사광을 변조(modulation)하여 상기 N개의 변조된 반사광을 획득하는 디바이스.
12. The method of claim 11,
The modulator
A device for modulating the N reflected light using an optical modulated signal having a gain waveform to obtain the N modulated reflected light.
제 17 항에 있어서,
상기 광변조 신호는 투사광과 동일한 주기를 갖는 주기파를 포함하는 디바이스.
18. The method of claim 17,
Wherein the optical modulating signal comprises a periodic wave having the same period as the projected light.
제 11 항에 있어서,
상기 N개의 상이한 투사광은 서로 위상이 상이하고, 상기 N개의 상이한 투사광 사이에 360도를 N 등분한 위상차가 존재하는 디바이스.
12. The method of claim 11,
Wherein the N different projected lights have different phases from each other and a phase difference of 360 degrees divided by N is present between the N different projected lights.
제 1 항 내지 제 10 항 중 어느 한 항의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 비일시적 기록 매체.A computer readable nonvolatile recording medium on which a program for implementing the method of any one of claims 1 to 10 is recorded.
KR1020150186778A 2015-12-24 2015-12-24 Method and device for acquiring distance information KR102610830B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150186778A KR102610830B1 (en) 2015-12-24 2015-12-24 Method and device for acquiring distance information
US15/209,123 US10509125B2 (en) 2015-12-24 2016-07-13 Method and device for acquiring distance information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150186778A KR102610830B1 (en) 2015-12-24 2015-12-24 Method and device for acquiring distance information

Publications (2)

Publication Number Publication Date
KR20170076477A true KR20170076477A (en) 2017-07-04
KR102610830B1 KR102610830B1 (en) 2023-12-06

Family

ID=59088288

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150186778A KR102610830B1 (en) 2015-12-24 2015-12-24 Method and device for acquiring distance information

Country Status (2)

Country Link
US (1) US10509125B2 (en)
KR (1) KR102610830B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10545237B2 (en) 2016-08-22 2020-01-28 Samsung Electronics Co., Ltd. Method and device for acquiring distance information
KR20210008773A (en) * 2019-07-15 2021-01-25 한국과학기술원 Three dimensional image generating method and apparatus

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107241591A (en) * 2017-06-30 2017-10-10 中国航空工业集团公司雷华电子技术研究所 A kind of embedded 3D video image display methods of airborne radar and system
KR102646902B1 (en) 2019-02-12 2024-03-12 삼성전자주식회사 Image Sensor For Distance Measuring
JP2020148510A (en) * 2019-03-11 2020-09-17 ソニーセミコンダクタソリューションズ株式会社 Distance measuring device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101357120B1 (en) * 2013-04-23 2014-02-05 김태민 Method of measuring distance based on optical signals and apparatuse thereof
KR20140121710A (en) * 2013-04-08 2014-10-16 삼성전자주식회사 An 3D image apparatus and method for generating a depth image in the 3D image apparatus

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5081530A (en) 1987-06-26 1992-01-14 Antonio Medina Three dimensional camera and range finder
US4935616A (en) 1989-08-14 1990-06-19 The United States Of America As Represented By The Department Of Energy Range imaging laser radar
IL114278A (en) 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method
CN1101056C (en) 1995-06-22 2003-02-05 3Dv系统有限公司 Improved optical ranging camera
US6088086A (en) 1995-09-11 2000-07-11 Sandia Corporation Range determination for scannerless imaging
AU5876798A (en) 1998-02-08 1999-08-23 3Dv Systems Ltd. Large aperture optical image shutter
US6118946A (en) 1999-06-29 2000-09-12 Eastman Kodak Company Method and apparatus for scannerless range image capture using photographic film
US6856355B1 (en) 1999-11-30 2005-02-15 Eastman Kodak Company Method and apparatus for a color scannerless range image system
US6794628B2 (en) 2000-01-03 2004-09-21 3Dv Systems, Ltd. Solid state optical shutter
WO2005036372A2 (en) 2003-10-09 2005-04-21 Honda Motor Co., Ltd. Systems and methods for determining depth using shuttered light pulses
JP4161910B2 (en) 2004-01-28 2008-10-08 株式会社デンソー Distance image data generation device, generation method, and program
US20060241371A1 (en) 2005-02-08 2006-10-26 Canesta, Inc. Method and system to correct motion blur in time-of-flight sensor systems
JP2009065605A (en) 2007-09-10 2009-03-26 Hitachi Ltd Mobile-type imaging device and imaging method
US8619354B2 (en) 2008-12-24 2013-12-31 Samsung Electronics Co., Ltd. High speed optical shutter, method of operating the same and apparatus including the same
RU2431876C2 (en) 2008-12-24 2011-10-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Three-dimensional image camera with photomodulator
KR101520029B1 (en) 2008-12-31 2015-05-15 삼성전자주식회사 Optical Modulator with Pixelization Patterns
KR101547327B1 (en) 2009-01-15 2015-09-07 삼성전자주식회사 Optical image modulator and optical apparatus comprising the same and methods of manufacturing and operating optical image modulator
KR101603778B1 (en) 2009-01-19 2016-03-25 삼성전자주식회사 Optical image shutter
KR101623960B1 (en) 2009-06-04 2016-05-25 삼성전자주식회사 Optoelectronic shutter, method of operating the same and optical apparatus employing the optoelectronic shutter
KR101638974B1 (en) 2009-06-17 2016-07-13 삼성전자주식회사 Optical modulator, methods of manufacturing and operating the same and optical apparatus comprising optical modulator
KR101706354B1 (en) 2009-06-24 2017-02-13 삼성전자주식회사 High speed optical modulator and method of modulating light using the same
EP2521926B1 (en) * 2010-01-06 2020-07-29 Heptagon Micro Optics Pte. Ltd. Demodulation sensor with separate pixel and storage arrays
KR101675111B1 (en) 2010-01-08 2016-11-11 삼성전자주식회사 Optical image shutter and method of fabricating the same
KR101675112B1 (en) 2010-01-21 2016-11-22 삼성전자주식회사 Method of extractig depth information and optical apparatus employing the method
KR101638973B1 (en) 2010-01-22 2016-07-12 삼성전자주식회사 Optical modulator and method of fabricating the same
KR101753312B1 (en) 2010-09-17 2017-07-03 삼성전자주식회사 Apparatus and method for generating depth image
KR101598547B1 (en) 2010-12-03 2016-03-02 삼성전자주식회사 Optical image modulator and method of manufacturing the same
KR101660408B1 (en) 2010-12-20 2016-09-27 삼성전자주식회사 Optical image modulator having correction function for incident angle of incident light and optical apparatus comprising the same
KR101722641B1 (en) 2010-12-23 2017-04-04 삼성전자주식회사 3D image acquisition apparatus and method of extractig depth information in the 3D image acquisition apparatus
KR20120075182A (en) 2010-12-28 2012-07-06 삼성전자주식회사 Optical modulator using multiple fabry-perot resonant modes and 3d image acquisition apparatus
KR101669219B1 (en) 2010-12-30 2016-10-26 삼성전자주식회사 Light modulator and optical apparatus employing the same
KR101799521B1 (en) 2011-05-24 2017-11-20 삼성전자 주식회사 Light modulator with photonic crystal and 3D image acquisition apparatus employing the same
CN104137150B (en) 2011-07-04 2016-12-28 李·文森特·斯特里特 Motion compensation in range finding imaging
US20150260830A1 (en) * 2013-07-12 2015-09-17 Princeton Optronics Inc. 2-D Planar VCSEL Source for 3-D Imaging
KR102194237B1 (en) 2014-08-29 2020-12-22 삼성전자주식회사 Method and apparatus for generating depth image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140121710A (en) * 2013-04-08 2014-10-16 삼성전자주식회사 An 3D image apparatus and method for generating a depth image in the 3D image apparatus
KR101357120B1 (en) * 2013-04-23 2014-02-05 김태민 Method of measuring distance based on optical signals and apparatuse thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10545237B2 (en) 2016-08-22 2020-01-28 Samsung Electronics Co., Ltd. Method and device for acquiring distance information
KR20210008773A (en) * 2019-07-15 2021-01-25 한국과학기술원 Three dimensional image generating method and apparatus

Also Published As

Publication number Publication date
US10509125B2 (en) 2019-12-17
US20170184722A1 (en) 2017-06-29
KR102610830B1 (en) 2023-12-06

Similar Documents

Publication Publication Date Title
CN107765260B (en) Method, apparatus, and computer-readable recording medium for acquiring distance information
KR102486385B1 (en) Apparatus and method of sensing depth information
KR101722641B1 (en) 3D image acquisition apparatus and method of extractig depth information in the 3D image acquisition apparatus
KR101854188B1 (en) 3D image acquisition apparatus and method of acqiring depth information in the 3D image acquisition apparatus
KR102040152B1 (en) An 3D image apparatus and method for generating a depth image in the 3D image apparatus
JP5739174B2 (en) Distance information extraction method and optical apparatus employing the method
KR102611080B1 (en) Imaging devices with autofocus control
KR102056904B1 (en) 3D image acquisition apparatus and method of driving the same
KR101975971B1 (en) Depth camera, multi-depth camera system, and synchronizing method thereof
KR102610830B1 (en) Method and device for acquiring distance information
KR101955334B1 (en) 3D image acquisition apparatus and method of extractig depth information in the 3D image acquisition apparatus
KR102194237B1 (en) Method and apparatus for generating depth image
US10264240B2 (en) Method and apparatus for generating depth image
KR102237828B1 (en) Gesture detection device and detecting method of gesture using the same
US9746547B2 (en) Method and apparatus for generating depth image
US10663593B2 (en) Projector apparatus with distance image acquisition device and projection method
JP2014062982A (en) Image projection device with three-dimensional information acquisition function
CN114207474A (en) Unwrapped phase of time-of-flight modulated light
KR102389380B1 (en) Apparatus and method of extracting depth information of the 3D image
US20230260143A1 (en) Using energy model to enhance depth estimation with brightness image
JP2017133931A (en) Image creation device, and distance image and color image creation method
WO2023156561A1 (en) Using energy model to enhance depth estimation with brightness image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right