KR20220083059A - Tof 카메라 장치와 그 구동방법 - Google Patents

Tof 카메라 장치와 그 구동방법 Download PDF

Info

Publication number
KR20220083059A
KR20220083059A KR1020200172917A KR20200172917A KR20220083059A KR 20220083059 A KR20220083059 A KR 20220083059A KR 1020200172917 A KR1020200172917 A KR 1020200172917A KR 20200172917 A KR20200172917 A KR 20200172917A KR 20220083059 A KR20220083059 A KR 20220083059A
Authority
KR
South Korea
Prior art keywords
light
subject
area
size
density control
Prior art date
Application number
KR1020200172917A
Other languages
English (en)
Inventor
경규민
신승철
길민선
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020200172917A priority Critical patent/KR20220083059A/ko
Priority to US17/398,113 priority patent/US11778161B2/en
Priority to CN202111453727.1A priority patent/CN114624730A/zh
Publication of KR20220083059A publication Critical patent/KR20220083059A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4868Controlling received signal intensity or exposure of sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof

Abstract

TOF(Time of Flight) 카메라 장치와 그 구동방법이 제공된다. TOF 카메라 장치는 펄스 신호를 생성하는 펄스 생성기, 펄스 신호에 응답하여 출력광을 피사체에 조사하는 광 조사 장치, 제1 프레임 동안 출력광이 피사체에 반사된 반사광을 수신하는 3D 센서, 3D 센서의 출력을 제공받고 거리 데이터 신호를 생성하는 거리 계산 장치 및 거리 계산 장치로부터 거리 데이터 신호를 제공받고 이를 기초로 광 조사 장치가 조사하는 출력광이 피사체에 조사되는 영역의 크기를 결정하는 광 밀도 제어 신호를 출력하는 광 밀도 제어 장치를 포함하되, 광 조사 장치는, 제1 프레임 동안 광 밀도 제어 신호에 대응하는 밀도의 출력광을 피사체에 조사한다.

Description

TOF 카메라 장치와 그 구동방법{Time of flight camera device and driving method thereof}
본 발명은 TOF 카메라 장치와 그 구동방법에 관한 것이다.
TOF(Time of Flight) 카메라는 소정 주파수로 변조(modulation)된 빛이 피사체에서 반사되어 되돌아 오는 과정에서 발생되는 위상(phase)의 지연 등을 이용하여 피사체를 탐지하는 것으로서, 지형측량 분야 또는 피사체의 자세제어 분야 등에 널리 이용되고 있다.
TOF 카메라의 동작원리를 살펴보면, TOF 카메라는 소정의 중심파장을 갖는 빛을 출사하는 광원을 포함하고 있으며, 그러한 광원에서 조사되는 빛을 소정 주파수로 변조시켜 탐지하는 피사체에 조사를 한다. 이후 피사체에 조사된 빛은 반사되어 TOF 카메라로 되돌아 오게 되며, TOF 카메라는 내장된 센서를 이용하여 되돌아오는 빛을 검출한다. 이 경우 TOF 카메라에서 조사되는 빛과 피사체에 반사되어 되돌아오는 빛의 위상을 대비하면 피사체까지의 거리를 알 수 있게 된다.
이때, TOF 카메라의 정확도는 TOF 카메라에서 조사되는 빛의 변조 주파수(modulation frequency), 다이나믹 레인지(dynamic range) 또는 민감도(sensitivity) 등에 영향을 받게 되며, 그 결과 원하는 수준 이상의 정확도를 확보하기 위해서는 해당 거리에 적합한 주파수로 빛을 변조시켜 피사체에 조사하여야 한다. 종래의 TOF 카메라에서는 변조 주파수가 고정되어 있어서 피사체까지의 거리가 소정 거리를 벗어나는 경우 그 정확성을 보장할 수 없는 문제점이 있다.
본 발명이 해결하고자 하는 과제는 광 밀도를 제어하여 피사체의 위치를 정확하게 파악하는 TOF 카메라 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 다른 과제는 광 밀도를 제어하여 피사체의 위치를 정확하게 파악하는 TOF 카메라 장치의 구동방법을 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 해결하기 위한 일 실시예에 따른 TOF 카메라 장치는 펄스 신호를 생성하는 펄스 생성기, 펄스 신호에 응답하여 출력광을 피사체에 조사하는 광 조사 장치, 제1 프레임 동안 출력광이 피사체에 반사된 반사광을 수신하는 3D 센서, 3D 센서의 출력을 제공받고 거리 데이터 신호를 생성하는 거리 계산 장치 및 거리 계산 장치로부터 거리 데이터 신호를 제공받고 이를 기초로 광 조사 장치가 조사하는 출력광이 피사체에 조사되는 영역의 크기를 결정하는 광 밀도 제어 신호를 출력하는 광 밀도 제어 장치를 포함하되, 광 조사 장치는, 제1 프레임 동안 광 밀도 제어 신호에 대응하는 밀도의 출력광을 피사체에 조사한다.
상기 과제를 해결하기 위한 일 실시예에 따른 TOF 카메라 장치의 구동 방법은 펄스 신호를 생성하고, 펄스 신호에 응답하여 출력광을 피사체에 조사하고, 제1 프레임 동안 출력광이 피사체에 반사된 반사광을 수신하고, 수신된 반사광으로부터 거리 데이터 신호를 생성하고, 거리 데이터 신호를 제공받고 이를 기초로 출력광이 피사체에 조사되는 영역의 크기를 결정하는 광 밀도 제어 신호를 출력하는 것을 포함하되, 제1 프레임 동안, 광 밀도 제어 신호에 대응하는 밀도의 출력광을 피사체에 조사한다.
상기 과제를 해결하기 위한 다른 실시예에 따른 TOF 카메라 장치의 구동 방법은 제1 프레임동안, 광 조사 장치로부터 제1 출력광을 제1 피사체의 제1 영역에 조사하고, 제1 프레임동안, 제1 피사체에 반사된 제1 반사광을 기초로 제1 출력광이 제1 피사체에 조사되는 영역을 제1 영역에서 제2 영역으로 변경하고, 제1 프레임에 후속하는 제2 프레임 동안, 광 조사 장치로부터 제2 출력광을 제2 피사체의 제3 영역에 조사하고, 제2 프레임동안, 제2 피사체에 반사된 제2 반사광을 기초로 제2 출력광이 제2 피사체에 조사되는 영역을 제3 영역에서 제4 영역으로 변경하는 것을 포함하되, 제2 영역의 크기와 제4 영역의 크기는 서로 다르다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
도 1은 TOF 카메라 장치를 도시한 블록도이다.
도 2는 몇몇 실시예에 따른 광 밀도 제어부 개구의 크기에 따른 피사체의 광면적을 나타낸 도면이다.
도 3은 다른 몇몇 실시예에 따른 광 밀도 제어부 개구의 크기에 따른 피사체의 광면적을 나타낸 도면이다.
도 4는 또 다른 몇몇 실시예에 따른 광 밀도 제어부 개구의 크기에 따른 피사체의 광면적을 나타낸 도면이다.
도 5는 몇몇 실시예 따른 3D 센서가 3D 뎁스맵을 생성하는 과정을 나타낸 도면이다.
도 6는 다른 몇몇 실시예 따른 3D 센서가 3D 뎁스맵을 생성하는 과정을 나타낸 도면이다.
도 7은 TOF 카메라 장치의 구동방법을 도시한 순서도이다.
도 8은 몇몇 실시예에 따른 광 밀도 제어부 개구의 크기에 따른 제1 피사체 및 제2 피사체의 광면적을 나타낸 도면이다.
도 9는 제1 피사체 및 제2 피사체의 뎁스맵을 나타낸 도면이다.
도 10은 도 8의 제1 피사체를 선택한 경우를 나타낸 도면이다.
도 11은 도 10에 따른 제1 피사체 및 제2 피사체의 광면적을 나타낸 도면이다.
도 12는 도 8의 제2 피사체를 선택한 경우를 나타낸 도면이다.
도 13은 도 12에 따른 제1 피사체 및 제2 피사체의 광면적을 나타낸 도면이다.
도 14는 다른 몇몇 실시예에 따른 TOF 카메라 장치 구동방법의 순서도이다.
도 15는 다른 몇몇 실시예에 따른 광 밀도 제어부 개구의 크기에 따른 제1 피사체 및 제2 피사체의 광면적을 나타낸 도면이다.
도 16은 제1 프레임동안 제1 피사체에 출력광을 조사한 도면이다.
도 17은 도 16에 따른 제1 피사체의 광면적을 나타낸 도면이다.
도 18은 제2 프레임동안 제2 피사체에 출력광을 조사한 도면이다.
도 19는 도 18에 따른 제2 피사체의 광면적을 나타낸 도면이다.
도 20은 도 1에 도시된 TOF 카메라 장치를 포함하는 컴퓨터 시스템의 몇몇 실시예를 나타낸다.
도 21은 도 1에 도시된 TOF 카메라 장치를 포함하는 컴퓨터 시스템의 다른 몇몇 실시예를 나타낸다.
도 22는 도 1에 도시된 TOF 카메라 장치를 포함하는 컴퓨터 시스템의 또 다른 몇몇 실시예를 나타낸다.
이하, 첨부된 도면을 참조하여 본 발명의 기술적 사상에 따른 실시예들에 대해 설명한다.
도 1은 TOF 카메라 장치를 도시한 블록도이다. 도 2는 몇몇 실시예에 따른 광 밀도 제어부 개구의 크기에 따른 피사체의 광면적을 나타낸 도면이다. 도 3은 다른 몇몇 실시예에 따른 광 밀도 제어부 개구의 크기에 따른 피사체의 광면적을 나타낸 도면이다. 도 4는 또 다른 몇몇 실시예에 따른 광 밀도 제어부 개구의 크기에 따른 피사체의 광면적을 나타낸 도면이다.
도 1을 참조하면, TOF 카메라 장치(100)는 광 조사 장치(light module, 110), 광 밀도 제어 장치(Light Density Control Device, 120), 거리 계산기(Distance Calculator, 130), 3D 센서(3D Sensor, 140), 메모리 장치(memory device, 150), ISP(Image Signal Processor, 160) 및 펄스 생성기(pulse generator, 170)를 포함할 수 있다.
광 조사 장치(110)는 광원(111)과 광 밀도 제어부(LDC: Light Density Controller, 112)를 포함할 수 있다.
광원(111)은 펄스 생성기(170)로부터 생성된 펄스 신호(P)에 응답하여 출력광(OL)을 피사체(OJ)에 조사(ray)할 수 있다.
광 밀도 제어부(112)는 광 밀도 제어 장치(120)에서 생성된 광 밀도 제어 신호(LCON)에 응답하여 출력광(OL)이 조사되는 개구(opening)의 크기를 제어할 수 있다. 구체적으로, 광 밀도 제어부(112)는 피사체(OJ)의 위치에 따른 광 밀도 제어 신호(LCON)에 응답하여 출력광(OL)이 조사되는 개구의 크기를 제어할 수 있다.
예를 들어, 도 2를 참조하면, 광 조사 장치(110)는 피사체(OJ)에 출력광(OL)을 조사할 수 있다. 이 때, 광 밀도 제어부(112)의 간격은 제1 간격(d1)일 수 있다. 그리고, 피사체(OJ)에 출력광(OL)이 조사되는 광면적의 크기는 제1 영역(S11)일 수 있다.
예를 들어, 도 3을 참조하면, 광 조사 장치(110)와 피사체(OJ)의 거리가 도 2에 도시된 광 조사 장치(110)와 피사체(OJ)의 거리보다 가까운 경우, 광 밀도 제어 신호(LCON)가 변할 수 있다. 그리고, 광 밀도 제어부(112)는 광 밀도 제어 신호(LCON)에 응답하여 광 밀도 제어부(112) 개구의 크기를 크게 할 수 있다.
즉, 광 밀도 제어부(112)는 광 밀도 제어 신호(LCON)에 응답하여 출력광(OL)이 조사되는 개구의 크기를 조절할 수 있다
도 3에서, 광 밀도 제어부(112)의 간격은 제2 간격(d2)일 수 있다. 제2 간격(d2)의 크기는 제1 간격(도 2의 d1)의 크기보다 클 수 있다.
그 결과, 피사체(OJ)에 조사되는 출력광(OL)의 광면적이 커질 수 있다. 즉, 피사체(OJ)에 출력광(OL)이 조사되는 광면적의 크기는 제1 영역(도 2의 S11)에서 제2 영역(S12)으로 커질 수 있다.
이와 반대로 예를 들어, 도 4를 참조하면, 광 조사 장치(110)와 피사체(OJ)의 거리가 도 2에 도시된 광 조사 장치(110)와 피사체(OJ)의 거리보다 먼 원거리인 경우, 광 밀도 제어 신호(LCON)에 응답하여 광 밀도 제어부(112) 개구의 크기는 작아질 수 있다.
도 4에서, 광 밀도 제어부(112)의 간격은 제3 간격(d3)일 수 있다. 제3 간격(d3)의 크기는 제1 간격(d1)의 크기보다 작을 수 있다. 제3 간격(d3)의 크기는 제2 간격(d2)의 크기보다 작을 수 있다.
그 결과, 피사체(OJ)에 조사되는 출력광(OL)의 광면적이 작아질 수 있다. 즉, 피사체(OJ)에 출력광(OL)이 조사되는 광면적의 크기가 제1 영역(도 2의 S11)에서 제3 영역(S13)으로 작아질 수 있다.
이처럼, 광 밀도 제어부(112) 개구의 크기에 따라 피사체(OJ)에 조사되는 출력광(OL)의 광면적의 크기가 달라질 수 있다.
다시 도 1을 참조하면, 출력광(OL)은 일정한 주파수(frequency)를 가질 수 있다. 예를 들어, 광 조사 장치(110)는 적외선 영역대(infra light wavelength range)의 광원을 사용할 수 있으나 실시예들이 이에 제한되는 것은 아니다.
피사체(OJ)에 조사된 출력광(OL)은 반사되어 3D 센서(140)로 수신될 수 있다. 피사체(OJ)에 반사된 반사광(RL)의 위상은 변화될 수 있다.
예를 들어, 광원(111)으로부터 조사된 출력광(OL)의 위상과 비교하면, 반사광(RL)의 위상은 피사체(OJ)와의 거리에 따라 위상의 변화가 있을 수 있다.
3D 센서(140)는 제1 프레임동안, 출력광(OL)이 피사체(OJ)에 반사된 반사광(RL)을 수신할 수 있다. 3D 센서(140)는 반사광(RL)에 대한 위상차 정보를 메모리 장치(150)에 저장할 수 있다.
3D 센서(140)는 광 조사 장치(110)의 출력광(OL)과 피사체(OJ)에 반사된 반사광(RL) 사이의 위상차 정보에 기초하여 수신된 반사광(RL)의 시간 정보를 생성할 수 있다. 상기 시간 정보에 기초하여 3D 센서(140)는 피사체(OJ)의 3D 뎁스맵(DM)을 생성할 수 있다.
3D 센서(140)가 3D 뎁스맵(DM)을 생성하는 것에 대해서는 도 5 및 도 6을 참조하여 후술하기로 한다.
거리 계산 장치(130)는 3D 센서(140)의 출력을 제공받아 거리 데이터 신호(DCON)를 생성할 수 있다. 여기서, 3D 센서(140)의 출력은 예를 들어, 3D 뎁스맵(DM)일 수 있다.
거리 데이터 신호(DCON)는 출력광(OL)과 반사광(RL) 사이의 시간 정보에 따른 신호일 수 있다.
광 밀도 제어 장치(120)는 거리 계산 장치(130)로부터 거리 데이터 신호(DCON)를 제공받아 이를 기초로 광 조사 장치(110)가 조사하는 출력광(OL)이 피사체에 조사되는 영역의 크기를 결정하는 광 밀도 제어 신호(LCON)를 출력할 수 있다.
광 밀도 제어 장치(140)는 거리 데이터 신호(DCON)를 제공받아 광 밀도 제어 신호(LCON)를 생성할 수 있다.
광 밀도 제어 신호(LCON)는 광 밀도 제어부(112)의 출력광(OL)이 조사되는 개구의 크기를 조절할 수 있다.
메모리 장치(150)는 3D 센서(140)로부터 제공받은 정보를 저장할 수 있다. 메모리 장치(150)는 3D 센서(140)로부터 생성된 3D 뎁스맵(DM), 이미지 및 위상차 정보 등을 ISP(160)로 전송할 수 있다.
ISP(160)는 상기 위상차 정보를 이용하여 피사체(OJ)와 TOF 카메라 장치(100) 간의 거리를 계산할 수 있다. ISP(160)는 상기 계산된 정보 또는 상기 이미지를 디스플레이 장치(200)로 전송할 수 있다.
디스플레이 장치(200)는 상기 이미지를 재생할 수 있다.
도 5는 몇몇 실시예 따른 3D 센서가 3D 뎁스맵을 생성하는 과정을 나타낸 도면이다. 도 6은 다른 몇몇 실시예 따른 3D 센서가 3D 뎁스맵을 생성하는 과정을 나타낸 도면이다.
도 5를 참조하면, 3D 센서(140)는 피사체에 반사된 반사광(RL)을 각각 조합하여 3D 뎁스맵(DM)을 생성할 수 있다.
예를 들어, 3D 센서(140)는 제1 프레임동안 피사체(OJ)에 반사된 반사광들을 수신할 수 있다. 3D 센서(140)는 반사광들을 각각을 조합하여 3D 뎁스맵(DM)을 생성할 수 있다.
도 6을 참조하면, 도 5와는 달리 3D 센서(140)는 피사체에 반사된 반사광(RL)을 연속적으로 조합한 3D 뎁스맵(DM)을 생성할 수 있다.
예를 들어, 3D 센서(140)는 제1 프레임동안 피사체(OJ)에 반사된 반사광들을 수신할 수 있다. 3D 센서(140)는 반사광들을 연속적으로 조합하여 하나의 반사광(SRL1~SRLn)으로 생성하여 3D 뎁스맵(DM)을 생성할 수 있다.
도 7은 TOF 카메라 장치의 구동방법을 도시한 순서도이다.
도 7을 참조하면, 펄스 신호를 생성한다(S110).
예를 들어, 도 1을 참조하면, 펄스 생성기(170)는 펄스 신호(P)를 생성할 수 있다. 이하에서는 앞서 설명한 TOF 카메라 장치(100)의 구조를 이용하여 본 발명의 기술적 사상에 따른 TOF 카메라 장치의 구동방법을 설명할 것이나. 실시예들이 이에 제한되는 것은 아니다.
다음, 상기 펄스 신호에 응답하여 출력광을 피사체에 조사한다(S110).
예를 들어, 도 1을 참조하면, 펄스 생성기(170)에서 생성된 펄스 신호(P)에 응답하여 광 조사 장치(110)는 출력광(OL)을 피사체(OJ)에 조사할 수 있다. 광원(111)은 펄스 신호(P)에 응답하여 출력광(OL)을 피사체(OJ)에 조사할 수 있다.
다음, 상기 피사체에 반사된 반사광을 수신한다(S120).
예를 들어, 도 1을 참조하면, 3D 센서(140)는 피사체(OJ)에서 반사된 반사광(RL)을 수신할 수 있다.
다음, 수신된 반사광으로 3D 뎁스맵을 생성한다(S130).
예를 들어, 도 1을 참조하면, 3D 센서(140)는 광 조사 장치(110)의 출력광(OL)과 피사체(OJ)에 반사된 반사광(RL) 사이의 위상차 정보에 기초하여 수신된 반사광(RL)의 시간 정보를 생성할 수 있다. 상기 시간 정보에 기초하여 3D 센서(140)는 피사체(OJ)의 3D 뎁스맵(DM)을 생성할 수 있다.
예를 들어, 도 6을 참조하면, 3D 센서(140)가 3D 뎁스맵(DM)을 생성하는 경우, 피사체(OJ)에 반사된 반사광(RL)을 연속적으로 조합하여 하나의 반사광(SRL1~SRLm)으로 3D 뎁스맵(DM)을 생성할 수도 있다. 즉, 각각의 프레임(F1~Fn)마다 하나의 반사광(SRL1~SRLm)으로 3D 뎁스맵(DM)을 생성할 수도 있다.
도 5을 참조하면, 3D 센서(140)가 3D 뎁스맵(DM)을 생성하는 경우, 피사체(OJ)에 반사된 반사광들을 각각 조합하여 3D 뎁스맵(DM)을 생성할 수 있다.
다음, 생성된 3D 뎁스맵으로부터 거리 데이터 신호를 생성한다(S140).
예를 들어, 도 1을 참조하면, 거리 계산 장치(130)는 거리 데이터 신호(DCON)를 생성할 수 있다. 거리 계산 장치(130)는 3D 센서(140)의 출력인 3D 뎁스맵(DM)을 제공받아 거리 데이터 신호(DCON)를 생성할 수 있다.
마지막으로, 상기 거리 데이터 신호로부터 상기 출력광이 상기 피사체에 조사되는 영역의 크기를 결정하는 광 밀도 제어 신호를 출력한다(S150).
예를 들어, 도 1을 참조하면, 광 밀도 제어 장치(120)는 광 밀도 제어 신호(LCON)를 생성할 수 있다. 광 밀도 제어 신호(120)는 광 조사 장치(110)가 조사하는 출력광(OL)이 피사체에 조사되는 영역의 크기를 결정할 수 있다. 광 밀도 장치(120)는 거리 데이터 신호(DCON)를 제공받고 이를 기초로 광 밀도 제어 신호(LCON)를 출력할 수 있다.
따라서, 광 밀도 제어부(120)는 광 밀도 제어 신호(DCON)에 응답하여 출력광(OL)이 조사되는 개구의 크기를 조절할 수 있다. 광 밀도 제어 신호(DCON)에 대응하는 출력광(OL)을 피사체(OJ)에 조사할 수 있다.
도 1 내지 도 7에서 제1 프레임동안 피사체(OJ)가 1개인 경우에 대해 서술하였다면, 이하에서는 제1 프레임동안 피사체가 2개 이상인 경우를 예로 들어 설명한다. 이하에서는 도 1 내지 도 7과 중복되는 설명은 생략하고 차이점을 위주로 설명한다.
도 8은 몇몇 실시예에 따른 광 밀도 제어부 개구의 크기에 따른 제1 피사체 및 제2 피사체의 광면적을 나타낸 도면이다. 도 9는 제1 피사체 및 제2 피사체의 뎁스맵을 나타낸 도면이다. 도 10은 도 8의 제1 피사체를 선택한 경우를 나타낸 도면이다. 도 11은 도 10에 따른 제1 피사체 및 제2 피사체의 광면적을 나타낸 도면이다. 도 12는 도 8의 제2 피사체를 선택한 경우를 나타낸 도면이다. 도 13은 도 12에 따른 제1 피사체 및 제2 피사체의 광면적을 나타낸 도면이다.
도 8을 참조하면, 제1 피사체(OJ1)는 광 조사 장치(110)로부터 제1 거리(D1) 떨어져 있고, 제2 피사체(OJ2)는 광 조사 장치(110)로부터 제1 거리(D1)보다 먼 제2 거리(D2) 떨어져 있을 수 있다.
제1 프레임동안 펄스 신호(P)에 응답하여 광원(111)은 출력광(OL)을 제1 피사체(OJ1)와 제2 피사체(OJ2)에 조사할 수 있다. 즉, 광 조사 장치(110)에서 조사되는 출력광(OL)은 제1 피사체(OJ1)와 제2 피사체(OJ2) 모두에 조사될 수 있다.
이 때, 제1 피사체(OJ1)에 출력광(OL)이 조사되는 영역은 제1 영역(S1)일 수 있고, 제2 피사체(OJ2)에 출력광(OL)이 조사되는 영역은 제2 영역(S2)일 수 있다.
3D 센서(140)는 제1 프레임동안 출력광(OL)이 제1 피사체(OJ1)에 반사된 제1 반사광(RL1)과 제2 피사체(OJ2)에 반사된 제2 반사광(RL2)을 수신할 수 있다. 3D 센서(140)는 제1 피사체(OJ1)의 깊이와 제2 피사체(OJ2)의 깊이를 조합하여 3D 뎁스맵(OJS)을 생성할 수 있다.
도 9를 참조하면, 제1 피사체(OJ1)는 제2 피사체(OJ2)보다 광 조사 장치(110)로부터 상대적으로 가까운 제1 거리(D1)에 위치하므로 면 깊이(flood depth)로 뎁스맵이 생성될 수 있다. 제2 피사체(OJ)는 제1 피사체(OJ)보다 광 조사 장치(110)로부터 상대적으로 먼 거리인 제2 거리(D2)에 위치하므로 점 깊이(spot depth)로 뎁스맵이 생성될 수 있다. 제1 피사체(OJ1)와 제2 피사체(OJ)의 깊이를 조합하면 제2 피사체의 점 깊이의 뎁스맵보다 촘촘한 뎁스맵(DMS)이 생성될 수 있다.
다시 도 8을 참조하면, 거리 계산 장치(130)는 제1 피사체(OJ1)와 제2 피사체(OJ2)를 조합한 3D 뎁스맵(OJS)을 제공받아 거리 데이터 신호(DCON)를 생성할 수 있다. 광 밀도 제어 장치(120)는 거리 데이터 신호(DCON)를 제공받아 이를 기초로 광 밀도 제어 신호(LCON)를 출력할 수 있다.
예를 들어, 광 밀도 제어 장치(120)는 제1 피사체(OJ1)와 제2 피사체(OJ2)가 있는 경우, 제1 프레임동안 제1 피사체(OJ1)와 제2 피사체(OJ2) 중 어느 하나를 선택하고 선택된 피사체를 기초로 광 밀도 제어 신호(LCON)를 출력할 수 있다.
이하, 도 10 및 도 11을 참조하여, 광 밀도 제어 장치(120)가 제1 피사체(OJ1)를 선택하고, 제1 피사체(OJ1)을 기초로 제1 광 밀도 제어 신호(LCON1)을 출력하는 예에 대해 설명한다.
즉, 제1 광 밀도 제어 신호(LCON1)에 따라 제1 피사체(OJ1)와 제2 피사체(OJ2)의 출력광(OL)이 조사되는 광면적이 변하는 것을 설명한다.
도 10 및 도 11을 참조하면, 거리 계산 장치(130)는 3D 센서(140)로부터 생성된 3D 뎁스맵(DM1)을 제공받고 제1 거리 데이터 신호(DCON1)를 생성할 수 있다. 제1 피사체(OJ1)는 광 조사 장치(110)로부터 제1 거리(D1) 떨어져 있으므로 거리 계산 장치(130)는 제1 거리 데이터 신호(DCON1)를 생성할 수 있다.
광 밀도 제어 장치(120)는 거리 계산 장치(130)로부터 생성된 제1 거리 데이터 신호(DCON1)를 제공받고 제1 광 밀도 제어 신호(LCON1)를 생성할 수 있다. 즉, 제1 거리 데이터 신호(DCON1)에 대응하여 광 밀도 제어 장치(120)는 제1 광 밀도 제어 신호(LCON1)를 생성할 수 있다.
제1 광 밀도 제어 신호(LCON1)는 제1 거리 데이터 신호(DCON1)를 기초로 광 조사 장치(110)가 조사하는 출력광(OL)이 제1 피사체(OJ1)와 제2 피사체(OJ2)에 조사되는 영역의 크기를 결정할 수 있다.
광 밀도 제어부(112)는 제1 광 밀도 제어 신호(LCON1)에 응답하여 출력광(OL)이 조사되는 개구의 크기를 조절할 수 있다.
제1 광 밀도 제어 신호(LCON1)에 의해 광 밀도 제어부(112)의 개구의 간격은 제2 간격(d5)이 될 수 있다. 제2 간격(d2)의 크기는 제1 간격(d4)의 크기보다 클 수 있다.
이처럼, 광 밀도 제어부(112) 개구의 간격이 제2 간격(d5)이 됨으로써 출력광(OL)이 제1 피사체(OJ1)에 조사되는 광면적은 제3 영역(S3)로 변경될 수 있다. 즉, 제1 피사체(OJ1)에 조사되는 광면적은 제1 광 밀도 제어 신호(LCON1)에 따라 제1 영역(S1)에서 제3 영역(S3)으로 변경될 수 있다. 제3 영역(S3)의 크기는 제1 영역(S1)의 크기보다 클 수 있다. 다시 말해, 제1 영역(S1)의 크기는 제3 영역(S3)의 크기보다 작을 수 있다.
마찬가지로, 광 밀도 제어부(112) 개구의 간격이 제2 간격(d5)이 됨으로써 출력광(OL)이 제2 피사체(OJ2)에 조사되는 광면적은 제4 영역(S4)로 변경될 수 있다. 제2 피사체(OJ2)에 조사되는 광면적은 제1 광 밀도 제어 신호(LCON1)에 따라 제2 영역(S2)에서 제4 영역(S4)으로 변경될 수 있다. 제4 영역(S4)의 크기는 제2 영역(S2)의 크기보다 클 수 있다. 다시 말해, 제2 영역(S2)의 크기는 제4 영역(S4)의 크기보다 작을 수 있다.
다음, 도 12 및 도 13을 참조하여, 광 밀도 제어 장치(120)가 제2 피사체(OJ2)를 선택하고, 제2 피사체(OJ2)을 기초로 제2 광 밀도 제어 신호(LCON2)을 출력하는 예에 대해 설명한다.
즉, 제2 광 밀도 제어 신호(LCON2)에 따라 제1 피사체(OJ1)와 제2 피사체(OJ2)의 출력광(OL)이 조사되는 광면적이 변하는 것을 설명한다.
거리 계산 장치(130)는 3D 센서(140)로부터 생성된 3D 뎁스맵(DM2)을 제공받고 제2 거리 데이터 신호(DCON2)를 생성할 수 있다. 제2 피사체(OJ2)는 광 조사 장치(110)로부터 제1 거리(D1)보다 먼 제2 거리(D2) 떨어져 있으므로 거리 계산 장치(130)는 제2 거리 데이터 신호(DCON2)를 생성할 수 있다.
광 밀도 제어 장치(120)는 거리 계산 장치(130)로부터 생성된 제2 거리 데이터 신호(DCON2)를 제공받고 제2 광 밀도 제어 신호(LCON2)를 생성할 수 있다. 즉, 제2 거리 데이터 신호(DCON2)에 대응하여 광 밀도 제어 장치(120)는 제2 광 밀도 제어 신호(LCON2)를 생성할 수 있다.
제2 광 밀도 제어 신호(LCON2)는 제2 거리 데이터 신호(DCON2)를 기초로 광 조사 장치(110)가 조사하는 출력광(OL)이 제2 피사체(OJ2)와 제1 피사체(OJ1)에 조사되는 영역의 크기를 결정할 수 있다.
광 밀도 제어부(112)는 제2 광 밀도 제어 신호(LCON2)에 응답하여 출력광(OL)이 조사되는 개구의 크기를 조절할 수 있다.
제2 광 밀도 제어 신호(LCON2)에 의해 광 밀도 제어부(112)의 개구의 간격은 제3 간격(d6)이 될 수 있다. 제3 간격(d6)의 크기는 제1 간격(도 10의 d4)의 크기보다 작을 수 있다. 다시 말해, 제1 간격(도 10의 d4)의 크기는 제3 간격(d6)의 크기보다 클 수 있다.
따라서, 광 밀도 제어부(112) 개구의 크기가 제3 간격(d3)이 됨으로써 출력광(OL)이 제2 피사체(OJ2)에 조사되는 광면적은 제6 영역(S6)으로 변경될 수 있다. 제2 피사체(OJ2)에 조사되는 광면적은 제2 광 밀도 제어 신호(LCON2)에 따라 제2 영역(S2)에서 제6 영역(S6)으로 변경될 수 있다. 제6 영역(S6)은 제2 영역(S2)보다 작을 수 있다. 다시 말해, 제2 영역(S2)은 제6 영역(S6)보다 클 수 있다.
마찬가지로, 광 밀도 제어부(112) 개구의 크기가 제3 간격(d6)이 됨으로써 출력광(OL)이 제1 피사체(OJ1)에 조사되는 광면적은 제5 영역(S5)으로 변경될 수 있다. 제1 피사체(OJ1)에 조사되는 광면적은 제2 광 밀도 제어 신호(LCON2)에 따라 제1 영역(S1)에서 제5 영역(S5)으로 변경될 수 있다. 제5 영역(S5)은 제1 영역(S1)보다 작을 수 있다. 다시 말해, 제1 영역(S1)은 제5 영역(S5)보다 클 수 있다.
도 14는 다른 몇몇 실시예에 따른 TOF 카메라 장치 구동방법의 순서도이다. 도 15는 다른 몇몇 실시예에 따른 광 밀도 제어부 개구의 크기에 따른 제1 피사체 및 제2 피사체의 광면적을 나타낸 도면이다. 도 16은 제1 프레임동안 제1 피사체에 출력광을 조사한 도면이다. 도 17은 도 16에 따른 제1 피사체의 광면적을 나타낸 도면이다. 도 18은 제2 프레임동안 제2 피사체에 출력광을 조사한 도면이다. 도 19는 도 18에 따른 제2 피사체의 광면적을 나타낸 도면이다.
도 14를 참조하면, 제1 프레임동안, 광 조사 장치로부터 제1 출력광을 제1 피사체에 조사한다(S200).
예를 들어, 도 15를 참조하면, 제1 프레임동안 제1 피사체(OJ3)는 광 조사 장치(110)로부터 제1 거리(D1) 떨어진 위치에 배치될 수 있다.
광 조사 장치(110)의 광원(111)은 제1 피사체(OJ3)에 제1 출력광(OL3)을 조사할 수 있다. 이 경우에, 제1 출력광(OL3)이 조사되는 광 밀도 제어부(112) 개구의 간격은 제1 간격(d7)일 수 있다. 제1 출력광(OL3)이 제1 피사체(OJ3)에 조사되는 영역은 제1 영역(S6)일 수 있다.
다음, 상기 제1 프레임동안, 상기 제1 피사체에 반사된 제1 반사광을 기초로 상기 제1 출력광이 상기 제1 피사체에 조사되는 영역을 제1 영역에서 제2 영역으로 변경한다(S210).
예를 들어, 도 16 및 도 17을 참조하면, 3D센서(140)는 제1 피사체(OJ3)에 반사된 제1 반사광(RL3)을 수신할 수 있다. 3D 센서(140)는 제1 반사광(RL3)을 기초로 제3 3D 뎁스맵(DM3)을 생성할 수 있다. 3D 센서(140)가 제3 3D 뎁스맵(DM3)을 생성하는 것은 도 5 및 도 6을 참조하여 설명하였으므로 구체적인 설명은 생략하기로 한다.
거리 계산 장치(130)는 3D 센서(140)가 생성한 제3 3D 뎁스맵(DM3)을 제공받아 제3 거리 데이터 신호(DCON3)를 생성할 수 있다. 광 밀도 제어 장치(120)는 제3 거리 데이터 신호(DCON3)를 제공받아 제3 광 밀도 제어 신호(LCON3)를 출력할 수 있다.
제3 광 밀도 제어 신호(LCON3)는 광 조사 장치(120)가 조사하는 제1 출력광(OL3)이 제1 피사체(OJ3)에 조사되는 영역의 크기를 결정할 수 있다.
광 밀도 제어부(112)는 제3 광 밀도 제어 신호(LCON3)에 응답하여 개구의 간격이 조절될 수 있다. 즉, 광 밀도 제어부(112) 개구의 간격이 제1 간격(d7)에서 제2 간격(d8)으로 변경될 수 있다. 제1 간격(d7)의 크기는 제2 간격(d8)의 크기보다 작을 수 있다. 제2 간격(d8)의 크기는 제1 간격(d7)의 크기보다 클 수 있다.
광 밀도 제어부(112) 개구의 간격이 변함에 따라 제1 출력광(OL3)이 제1 피사체(OJ3)에 조사되는 영역이 제1 영역(S7)에서 제2 영역(S8)으로 변경될 수 있다. 제1 영역(S7)의 크기는 제2 영역(S8)의 크기보다 작을 수 있다.
다음, 도 14를 참조하면, 상기 제1 프레임에 후속하는 제2 프레임동안, 상기 광 조사 장치로부터 제2 출력광을 제2 피사체의 제3 영역에 조사한다(S220).
예를 들어, 도 15 및 도 18을 참조하면, 제2 프레임동안 제2 피사체(OJ4)는 광 조사 장치(110)로부터 제2 거리(D2) 떨어진 위치에 배치될 수 있다. 제2 거리(D2)는 제1 거리(D1)와 다를 수 있다. 다시 말해, 제2 거리(D2)는 제1 거리(D1)보다 멀 수 있다.
광 조사 장치(110)의 광원(111)은 제2 피사체(OJ4)에 제2 출력광(OL4)을 조사할 수 있다. 이 경우에, 제2 출력광(OL4)이 조사되는 광 밀도 제어부(112) 개구의 간격은 제1 간격(d7)일 수 있다. 제2 출력광(OL4)이 제2 피사체(OJ4)에 조사되는 영역은 제3 영역(S9)일 수 있다.
마지막으로, 상기 제2 프레임동안, 상기 제2 피사체에 반사된 제2 반사광을 기초로 상기 제2 출력광이 상기 제2 피사체에 조사되는 영역을 제3 영역에서 제4 영역으로 변경한다(S230).
예를 들어, 도 18 및 도 19를 참조하면, 제2 프레임동안 3D센서(140)는 제2 피사체(OJ4)에 반사된 제2 반사광(RL4)을 수신할 수 있다. 3D 센서(140)는 제2 반사광(RL4)을 기초로 제4 3D 뎁스맵(DM4)을 생성할 수 있다. 3D 센서(140)가 3D 뎁스맵(DM)을 생성하는 것은 도 5 및 도 6에 설명하였으므로 생략하기로 한다.
거리 계산 장치(130)는 3D 센서(140)가 생성한 제4 3D 뎁스맵(DM4)을 제공받아 제4 거리 데이터 신호(DCON4)를 생성할 수 있다. 광 밀도 제어 장치(120)는 제4 거리 데이터 신호(DCON4)를 제공받아 제4 광 밀도 제어 신호(LCON4)를 출력할 수 있다.
제4 광 밀도 제어 신호(LCON4)는 광 조사 장치(110)가 조사하는 제2 출력광(OL4)이 제2 피사체(OJ4)에 조사되는 영역의 크기를 결정할 수 있다.
광 밀도 제어부(112)는 제4 광 밀도 제어 신호(LCON4)에 응답하여 개구의 간격이 조절될 수 있다. 즉, 광 밀도 제어부(112) 개구의 간격이 제1 간격(d7)에서 제2 간격(d9)으로 변경될 수 있다. 제1 간격(d7)의 크기는 제2 간격(d9)의 크기보다 클 수 있다. 다시 말해, 제2 간격(d9)의 크기는 제1 간격(d7)의 크기보다 작을 수 있다.
광 밀도 제어부(112) 개구의 간격이 변함에 따라 제2 출력광(OL4)이 제2 피사체(OJ4)에 조사되는 영역이 제3 영역(S9)에서 제4 영역(S10)으로 변경될 수 있다. 제3 영역(S9)의 크기는 제4 영역(S10)의 크기보다 클 수 있다. 다시 말해, 제4 영역(S10)의 크기는 제3 영역(S9)의 크기보다 작을 수 있다.
따라서, 제1 프레임동안 제1 피사체(OJ3)에 조사된 제2 영역(S8)의 크기와 제2 프레임동안 제2 피사체(OJ4)에 조사된 제4 영역(S10)의 크기는 다를 수 있다. 제 4영역(S10)의 크기는 제2 영역(S8)의 크기보다 작을 수 있다. 다시 말해, 제2 영역(S8)의 크기는 제4 영역(S10)의 크기보다 클 수 있다.
도 20은 도 1에 도시된 TOF 카메라 장치를 포함하는 컴퓨터 시스템의 몇몇 실시예를 나타낸다.
도 20을 참조하면, 컴퓨터 시스템(300)은 스마트 폰(smart-phone), PDA (personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 또는 MP4 플레이어 등으로 구현될 수 있다.
컴퓨터 시스템(300)은 메모리 장치(301), 메모리 장치(301)을 제어하는 메모리 컨트롤러를 포함하는 애플리케이션 프로세서(302), 무선 송수신기(303), 안테나(304), 입력 장치(305) 및 디스플레이 장치(306)를 포함할 수 있다.
무선 송수신기(303)는 안테나(304)를 통하여 무선 신호를 주거나 받을 수 있다. 예컨대, 무선 송수신기(303)는 안테나(304)를 통하여 수신된 무선 신호를 애플리케이션 프로세서(302)에서 처리될 수 있는 신호로 변경할 수 있다.
따라서, 애플리케이션 프로세서(302)는 무선 송수신기(303)로부터 출력된 신호를 처리하고 처리된 신호를 디스플레이 장치(306)로 전송할 수 있다. 또한, 무선 송수신기(303)는 애플리케이션 프로세서(3022)으로부터 출력된 신호를 무선 신호로 변경하고 변경된 무선 신호를 안테나(304)를 통하여 외부 장치로 출력할 수 있다.
입력 장치(305)는 애플리케이션 프로세서(302)의 동작을 제어하기 위한 제어 신호 또는 애플리케이션 프로세서(302)에 의하여 처리될 데이터를 입력할 수 있는 장치로서, 터치 패드 (touch pad)와 컴퓨터 마우스(computer mouse)와 같은 포인팅 장치(pointing device), 키패드(keypad), 또는 키보드로 구현될 수 있다.
또한, 컴퓨터 시스템(300)은 대상과의 거리를 측정하기 위한 TOF 카메라 장치(307) 및 정지 영상 또는 동영상을 촬영하기 위한 이미지 센서(308)을 더 포함할 수 있다. 애플리케이션 프로세서(302)는 이미지 센서(308)로부터 수신된 정지 영상 또는 동영상 그리고 대상과의 거리 정보를 디스플레이 장치(306)로 전송할 수 있다.
TOF 카메라 장치(307)는 예를 들어, 도 1에 도시된 TOF 카메라 장치(100)로 구현될 수 있다.
도 21은 도 1에 도시된 TOF 카메라 장치를 포함하는 컴퓨터 시스템의 다른 몇몇 실시예를 나타낸다.
도 21을 참조하면, 컴퓨터 시스템(400)은 PC(personal computer), 네트워크 서버(Network Server), 태블릿(tablet) PC(personal computer), 넷-북(net-book), e-리더(e-reader)로 구현될 수 있다.
컴퓨터 시스템(400)은 메모리 장치(401)와 메모리 장치(401)의 데이터 처리 동작을 제어할 수 있는 메모리 컨트롤러를 포함하는 애플리케이션 프로세서(402), 입력 장치(405) 및 디스플레이 장치(406)를 포함한다.
애플리케이션 프로세서(402)는 입력 장치(405)를 통하여 입력된 데이터에 따라 메모리 장치(401)에 저장된 데이터를 디스플레이 장치(406)를 통하여 디스플레이할 수 있다. 예컨대, 입력 장치(405)는 터치 패드 또는 컴퓨터 마우스와 같은 포인팅 장치, 키패드, 또는 키보드로 구현될 수 있다. 애플리케이션 프로세서(402)는 컴퓨터 시스템(400)의 전반적인 동작을 제어할 수 있다.
또한, 컴퓨터 시스템(400)은 대상과의 거리를 측정하기 위한 TOF 카메라 장치(407) 및 정지 영상 또는 동영상을 촬영하기 위한 이미지 센서(408)을 더 포함할 수 있다. 애플리케이션 프로세서(402)는 이미지 센서(408)로부터 수신된 정지 영상 또는 동영상 그리고 대상과의 거리 정보를 디스플레이 장치(406)로 전송할 수 있다.
TOF 카메라 장치(407)는 예를 들어, 도 1에 도시된 TOF 카메라 장치(100)로 구현될 수 있다.
도 22는 도 1에 도시된 TOF 카메라 장치를 포함하는 컴퓨터 시스템의 또 다른 몇몇 실시예를 나타낸다.
도 22를 참조하면, 컴퓨터 시스템(500)은 이미지 처리 장치(Image Process Device), 예컨대 디지털 카메라 또는 디지털 카메라가 부착된 이동 전화기, 스마트 폰(smart phone) 또는 테블릿(tablet)으로 구현될 수 있다.
컴퓨터 시스템(500)은 메모리 장치(501)와 메모리 장치(501)의 데이터 처리 동작, 예컨대 라이트(write) 동작 또는 리드(read) 동작을 제어할 수 있는 메모리 컨트롤러를 포함하는 애플리케이션 프로세서(502), 입력 장치(501), 이미지 센서(508), 디스플레이 장치(506) 및 TOF 카메라 장치(507)를 포함할 수 있다.
이미지 센서(508)는 광학 이미지를 디지털 신호들로 변환하고, 변환된 디지털 신호들은 애플리케이션 프로세서(502)로 전송된다. 애플리케이션 프로세서(502)의 제어에 따라, 상기 변환된 디지털 신호들은 디스플레이 장치(506통하여 디스플레이되거나 메모리 장치(501)에 저장될 수 있다.
TOF 카메라 장치(507)는 대상과의 거리를 측정할 수 있다. 애플리케이션 프로세서(502)는 거리 정보를 디스플레이 장치(506)로 전송할 수 있다. 또한, 애플리케이션 프로세서(502)는 메모리 장치(501)에 저장된 영상 데이터를 디스플레이 장치(506)로 전송할 수 있다.
TOF 카메라 장치(507)는 예를 들어, 도 1에 도시된 TOF 카메라 장치(100)로 구현될 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였으나, 본 발명은 상기 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 제조될 수 있으며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
100: TOF 카메라 장치 110: 광 조사 장치
111: 광원 112: 광 밀도 제어부
120: 광 밀도 제어 장치 130: 거리 계산 장치
140: 3D 센서

Claims (10)

  1. 펄스 신호를 생성하는 펄스 생성기;
    상기 펄스 신호에 응답하여 출력광을 피사체에 조사하는 광 조사 장치;
    제1 프레임 동안 상기 출력광이 상기 피사체에 반사된 반사광을 수신하는 3D 센서;
    상기 3D 센서의 출력을 제공받고 거리 데이터 신호를 생성하는 거리 계산 장치; 및
    상기 거리 계산 장치로부터 상기 거리 데이터 신호를 제공받고 이를 기초로 상기 광 조사 장치가 조사하는 상기 출력광이 상기 피사체에 조사되는 영역의 크기를 결정하는 광 밀도 제어 신호를 출력하는 광 밀도 제어 장치를 포함하되,
    상기 광 조사 장치는, 상기 제1 프레임 동안, 상기 광 밀도 제어 신호에 대응하는 밀도의 상기 출력광을 상기 피사체에 조사하는 TOF(Time of Flight) 카메라 장치.
  2. 제1항에 있어서,
    상기 3D 센서는 상기 광 조사 장치의 출력광과 상기 피사체에 반사된 반사광 사이의 위상차 정보에 기초하여 상기 수신된 반사광의 시간 정보를 생성하고, 상기 시간 정보에 기초하여 상기 피사체의 3D 뎁스 맵(depth map)을 생성하는 TOF 카메라 장치.
  3. 제1항에 있어서,
    상기 광 조사 장치는, 광 밀도 제어부를 포함하고,
    상기 광 밀도 제어부는 상기 광 밀도 제어 신호에 응답하여 상기 출력광이 조사되는 개구(opening)의 크기를 조절하는 TOF 카메라 장치.
  4. 제3항에 있어서,
    상기 광 밀도 제어부는 상기 광 밀도 제어 신호에 응답하여 상기 개구의 크기를 제1 크기에서 상기 제1 크기보다 작은 제2 크기로 조절하는 TOF 카메라 장치.
  5. 제3항에 있어서,
    상기 피사체는 상기 광 조사 장치로부터 제1 거리 떨어진 제1 피사체와 상기 제1 거리보다 먼 제2 거리 떨어진 제2 피사체를 포함하고,
    상기 광 밀도 제어 장치는 상기 제1 피사체와 상기 제2 피사체 중 어느 하나를 선택하고 선택된 피사체를 기초로 상기 광 밀도 제어 신호를 출력하는 TOF 카메라 장치.
  6. 펄스 신호를 생성하고,
    상기 펄스 신호에 응답하여 출력광을 피사체에 조사하고,
    제1 프레임 동안 상기 출력광이 상기 피사체에 반사된 반사광을 수신하고,
    상기 수신된 반사광으로부터 거리 데이터 신호를 생성하고,
    상기 거리 데이터 신호를 제공받고 이를 기초로 상기 출력광이 상기 피사체에 조사되는 영역의 크기를 결정하는 광 밀도 제어 신호를 출력하는 것을 포함하는 TOF(Time of Flight) 카메라 장치의 구동방법.
  7. 제6항에 있어서,
    상기 광 밀도 제어 신호는 상기 출력광이 조사되는 개구(opening)의 크기를 조절하는 TOF 카메라 장치의 구동방법.
  8. 제1 프레임동안, 광 조사 장치로부터 제1 출력광을 제1 피사체의 제1 영역에 조사하고,
    상기 제1 프레임동안, 상기 제1 피사체에 반사된 제1 반사광을 기초로 상기 제1 출력광을 상기 제1 피사체에 조사되는 영역을 제1 영역에서 제2 영역으로 변경하고,
    상기 제1 프레임에 후속하는 제2 프레임 동안, 상기 광 조사 장치로부터 제2 출력광을 제2 피사체의 제3 영역에 조사하고,
    상기 제2 프레임동안, 상기 제2 피사체에 반사된 제2 반사광을 기초로 상기 제2 출력광을 상기 제2 피사체에 조사되는 영역을 제3 영역에서 제4 영역으로 변경하는 것을 포함하되,
    상기 제2 영역의 크기와 상기 제4 영역의 크기는 서로 다른 TOF 카메라 장치의 구동방법.
  9. 제8항에 있어서,
    상기 제1 피사체는, 상기 광 조사 장치로부터 제1 거리 떨어진 위치에 배치되고,
    상기 제2 피사체는, 상기 광 조사 장치로부터 상기 제1 거리와 다른 위치에 배치되는 TOF 카메라 장치의 구동방법.
  10. 제8항에 있어서,
    상기 제1 피사체는, 상기 광 조사 장치로부터 제1 거리 떨어진 위치에 배치되고,
    상기 제2 피사체는, 상기 광 조사 장치로부터 상기 제1 거리보다 먼 위치에 배치되고,
    상기 제4 영역의 크기는 상기 제2 영역의 크기보다 작은 TOF 카메라 장치의 구동방법.
KR1020200172917A 2020-12-11 2020-12-11 Tof 카메라 장치와 그 구동방법 KR20220083059A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020200172917A KR20220083059A (ko) 2020-12-11 2020-12-11 Tof 카메라 장치와 그 구동방법
US17/398,113 US11778161B2 (en) 2020-12-11 2021-08-10 TOF camera device and method of driving the same
CN202111453727.1A CN114624730A (zh) 2020-12-11 2021-12-01 Tof相机设备及其驱动方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200172917A KR20220083059A (ko) 2020-12-11 2020-12-11 Tof 카메라 장치와 그 구동방법

Publications (1)

Publication Number Publication Date
KR20220083059A true KR20220083059A (ko) 2022-06-20

Family

ID=81897750

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200172917A KR20220083059A (ko) 2020-12-11 2020-12-11 Tof 카메라 장치와 그 구동방법

Country Status (3)

Country Link
US (1) US11778161B2 (ko)
KR (1) KR20220083059A (ko)
CN (1) CN114624730A (ko)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0358040A (ja) * 1989-07-27 1991-03-13 Canon Inc カメラのストロボ撮影制御装置
GB0921461D0 (en) 2009-12-08 2010-01-20 Qinetiq Ltd Range based sensing
KR20120111013A (ko) 2011-03-31 2012-10-10 삼성전자주식회사 3차원 이미지 센서 및 이를 이용한 거리 측정 방법
JP2014009997A (ja) 2012-06-28 2014-01-20 Ricoh Co Ltd 測距装置
EP2869263A1 (en) 2013-10-29 2015-05-06 Thomson Licensing Method and apparatus for generating depth map of a scene
KR101961666B1 (ko) 2017-12-21 2019-03-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN110161786B (zh) 2018-02-12 2021-08-31 深圳富泰宏精密工业有限公司 光投射模块、三维影像感测装置及其感测方法
DE112020001131T5 (de) * 2019-03-08 2022-01-27 Osram Gmbh Komponente für ein Lidar-Sensorsystem, Lidar-Sensorsystem, Lidar-Sensorgerät, Verfahren für ein Lidar-Sensorsystem und Verfahren für ein Lidar-Sensorgerät

Also Published As

Publication number Publication date
US11778161B2 (en) 2023-10-03
US20220191461A1 (en) 2022-06-16
CN114624730A (zh) 2022-06-14

Similar Documents

Publication Publication Date Title
JP6030184B2 (ja) 持続波超音波信号を使用したタッチレス感知およびジェスチャー認識
US8654153B2 (en) Projection device, projection device control method, and projection device control program
US9560449B2 (en) Distributed wireless speaker system
US11852493B1 (en) System and method for sensing walked position
CN108139460B (zh) 使用超声脉冲和无线电信号的云协调定位系统
RU2635836C2 (ru) Способ и устройство для управления вспышкой и терминал
US20020006807A1 (en) Method and arrangement for entering data in an electronic apparatus and an electronic apparatus
US10444865B2 (en) Tracking of position and orientation of objects in virtual reality systems
TW201421074A (zh) 藉由所關注之物體之可調適照射之深度成像方法及裝置
CN107637076B (zh) 电子设备及其控制方法
US20150003616A1 (en) Navigation with three dimensional audio effects
JPWO2014142057A1 (ja) サーバ装置、渋滞予兆情報表示システム、渋滞予兆情報配信方法、渋滞予兆情報表示方法およびプログラム
US9924286B1 (en) Networked speaker system with LED-based wireless communication and personal identifier
US10509125B2 (en) Method and device for acquiring distance information
CN101310247A (zh) 测量对象和光学输入设备在一速度范围中的相对运动的方法
KR20220083059A (ko) Tof 카메라 장치와 그 구동방법
KR20150025646A (ko) 음원 생성 방법 및 그 전자 장치
US9618604B1 (en) Audio localization using multilateration
KR101956608B1 (ko) 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법, 서버, 기기 및 프로그램
US20140348300A1 (en) Apparatus, method and non-transitory computer-readable medium for detecting x-rays
CN110327077B (zh) 一种血流显示方法、装置及超声设备和存储介质
CN114019486A (zh) 激光雷达参数标定装置及激光雷达
KR20220047155A (ko) 전자 장치 및 그 제어 방법
KR20190062923A (ko) TOF(Time-Of-Flight) 카메라를 이용한 거리 측정 장치 및 방법
KR20150024571A (ko) 적외선을 이용한 센서 장치를 갖는 전자 장치 및 그 동작 방법

Legal Events

Date Code Title Description
A201 Request for examination