KR20100025228A - 깊이 영상 획득 장치 및 방법 - Google Patents

깊이 영상 획득 장치 및 방법 Download PDF

Info

Publication number
KR20100025228A
KR20100025228A KR1020080083914A KR20080083914A KR20100025228A KR 20100025228 A KR20100025228 A KR 20100025228A KR 1020080083914 A KR1020080083914 A KR 1020080083914A KR 20080083914 A KR20080083914 A KR 20080083914A KR 20100025228 A KR20100025228 A KR 20100025228A
Authority
KR
South Korea
Prior art keywords
light
irradiation light
pulse width
tof
irradiation
Prior art date
Application number
KR1020080083914A
Other languages
English (en)
Other versions
KR101483462B1 (ko
Inventor
김성진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR20080083914A priority Critical patent/KR101483462B1/ko
Priority to US12/379,255 priority patent/US8217327B2/en
Priority to PCT/KR2009/002870 priority patent/WO2010024516A2/en
Priority to EP09810121.5A priority patent/EP2327223B1/en
Priority to JP2011524885A priority patent/JP5757871B2/ja
Publication of KR20100025228A publication Critical patent/KR20100025228A/ko
Application granted granted Critical
Publication of KR101483462B1 publication Critical patent/KR101483462B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length-Measuring Devices Using Wave Or Particle Radiation (AREA)

Abstract

깊이 영상 획득 장치가 제공된다. 제1 광 조사부는 제1 조사 광을 조사하고, 제2 광 조사부는 제2 조사 광을 조사하며, 수광부는 상기 제1 조사 광에 의한 제1 반사광 및 상기 제2 조사 광에 의한 제2 반사광을 수광한다. 한편, 처리부는 상기 수광부의 제1 화소로부터 제공되는 전하량에 기초하여, 상기 제1 화소에 대응하는 깊이 값(depth)를 계산한다.
깊이 영상, Depth camera, 3D Modeling, 3D Camera, Virtual Reality

Description

깊이 영상 획득 장치 및 방법{Apparatus and Method For Obtaining a Depth Image}
본 발명에 따른 실시예들은 깊이 영상 획득 장치 및 방법에 관한 것으로, 보다 구체적으로, 정확도의 희생 없이 최대 측정 거리가 긴 깊이 영상 획득 장치 및 방법에 관한 것이다.
최근 3D 정보(3-dimensional information)의 응용 분야가 확대되고 있다. 일반적으로 3D 정보는 형상(geometry) 정보와 칼라(color) 정보로 구성된다.
형상 정보는 깊이(depth) 영상을 이용하여 얻어질 수 있다. 그리고 상기 깊이 영상을 취득하는 방법에는, 깊이 카메라(depth camera)와 같은 하드웨어 장비를 통하여 직접적으로 취득하는 방법과, 컴퓨터 비전(Computer Vision) 기술로 불리는 소프트웨어적인 영상 처리를 통하여 간접적으로 취득하는 방법이 있다.
한편, 알려진 깊이 카메라의 깊이 영상 획득 방법에는 조사된 빛이 객체에 반사되어 돌아오는 시간(Time of Flight; TOF)을 측정하는 것이 널리 사용되고 있다.
상기 TOF(Time of Flight)를 측정하는 방식에는 SPAD와 같이 빛에 매우 민감 한 소자를 사용하여 반사 광이 수광부에 도달하는 순간을 감지하고 이를 이용해 TOF를 측정하는 직접(direct) 방식과, 포토 다이오드(photodiode)를 사용하여 변조된 펄스 빛이 반사 되어 오는 경우 위상 차를 전하량으로 검출하여 계산하는 간접(indirect) 방식이 있다.
상기 간접 방식에서, 펄스 폭(pulse width)이 큰 빛을 사용하는 경우 최대 측정 거리가 증가하지만, 깊이 영상의 정밀도는 낮아지고, 펄스 폭이 작은 빛을 사용하는 경우 깊이 영상의 정밀도는 높아지나, 최대 측정 거리가 짧아진다.
본 발명에 따른 일부 실시예들은, 최대 측정 거리를 확장하면서 깊이 영상의 정밀도를 높이는 깊이 영상 획득 장치를 제공하기 위한 것이다.
본 발명의 또 다른 실시예들은, 깊이 영상의 정밀도의 희생 없이 최대 측정 거리를 확장하는 깊이 영상 획득 방법을 제공하기 위한 것이다.
상기의 목적을 이루기 위하여, 본 발명의 일측에 따르면, 제1 조사 광을 조사하는 제1 광 조사부, 제2 조사 광을 조사하는 제2 광 조사부, 상기 제1 조사 광에 의한 제1 반사광 및 상기 제2 조사 광에 의한 제2 반사광을 수광하는 수광부, 및 상기 수광부의 제1 화소로부터 제공되는 전하량에 기초하여, 상기 제1 화소에 대응하는 깊이 값(depth)를 계산하는 처리부를 포함하는 깊이 영상 획득 장치가 제공된다.
본 발명의 또 다른 일측에 따르면, 상기 제1 조사 광의 펄스 폭(pulse width)과 상기 제2 조사 광의 펄스 폭은 서로 다르다.
본 발명의 또 다른 일측에 따르면, 상기 제1 광 조사부 및 상기 제2 광 조사부는 상기 수광부를 중심으로 서로 대칭으로 배치된다.
본 발명의 또 다른 일측에 따르면, 상기 깊이 영상 획득 장치는 상기 제1 광 조사부, 상기 제2 광 조사부, 및 상기 수광부 중 적어도 하나의 구동을 제어하는 제어부를 더 포함한다.
본 발명의 또 다른 일측에 따르면, 상기 제어부는, 제1 모드에서 상기 제1 조사 광과 동위상(in phase)인 제1 제어 신호를 상기 수광부에 제공함으로써 상기 수광부를 구동하고, 제2 모드에서 상기 제1 조사 광과 제1 위상 차를 갖는 제2 제어 신호를 상기 수광부에 제공함으로써 상기 수광부를 구동한다.
본 발명의 또 다른 일측에 따르면, 상기 깊이 영상 획득 장치의 상기 처리부는, 상기 제1 전하량, 및 상기 제2 전하량에 기초하여, 제1 TOF(Time of flight) 값을 계산하고, 상기 제1 TOF 값이 상기 제1 조사광의 펄스 폭 및 상기 제2 조사광의 펄스 폭보다 작거나 같은 경우, 상기 제1 TOF 값에 기초하여 상기 제1 화소에 대응하는 깊이 값을 계산하고, 상기 제1 TOF 값이 상기 제1 조사광의 펄스 폭 및 상기 제2 조사광의 펄스 폭 중 적어도 하나보다 큰 경우, 상기 제1 전하량, 및 상기 제2 전하량에 기초하여 제2 TOF 값을 계산하고, 상기 제2 TOF 값에 기초하여 상기 제1 화소에 대응하는 깊이 값을 계산한다.
본 발명의 또 다른 일측에 따르면, 제1 조사 광 및 제2 조사 광을 조사하는 단계, 및 상기 제1 조사 광 및 상기 제2 조사 광의 반사광에 의해 발생된 전하량을 측정하는 단계를 포함하는 깊이 영상 획득 방법이 제공된다.
본 발명의 또 다른 일측에 따르면, 상기 제1 조사 광의 펄스 폭과 상기 제2 조사 광의 펄스 폭은 서로 다르다.
본 발명에 따른 일부 실시예들에 따르면, 깊이 영상 획득 장치의 최대 측정 거리를 확장하면서, 깊이 영상의 정밀도를 높일 수 있다.
본 발명의 또 다른 실시예들에 따르면, 깊이 영상의 정밀도의 희생 없이 최대 측정 거리를 확장하여, 깊이 영상 획득의 효율성과 정확성이 향상된다.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
도 1은 본 발명의 일 실시예에 따른 깊이 영상 획득 장치를 도시한다.
제1 광 조사부(110)에서 제1 조사 광(112)이 조사된다. 상기 제1 조사 광은 제1 펄스 폭을 갖는다. 제2 광 조사부(120)에서 제2 조사 광(122)이 조사된다. 상기 제2 조사 광은 제2 펄스 폭을 갖는다. 본 발명의 일 실시예에 따르면, 상기 제1 조사 광의 펄스 폭과 상기 제2 조사 광의 펄스 폭은 서로 다르다. 상기 제1 수광부 및/또는 상기 제2 수광부는 적외선 LED일 수 있다.
수광부(130)는 상기 제1 조사 광(112)에 대한 제1 반사광(도시되지 않음), 및 상기 제2 조사 광(122)에 대한 제2 반사광(도시되지 않음)을 수광한다. 본 발명의 일 실시예에 따르면, 상기 수광부(130)는 복수 개의 화소로 구성된다. 상기 각 화소는 빛이 수광되는 경우 빛의 양 및/또는 지속시간에 비례하는 전하량을 방출한다.
처리부(140)는 상기 수광부(130)의 각 화소로부터 제공되는 전하량에 기초하여, 상기 각 화소에 대응하는 깊이 값을 계산한다.
제어부(150)은, 상기 제1 광 조사부(110)에게 상기 제1 조사 광의 펄스 폭 및/또는 위상을 조정하는 제어신호(111)를 제공한다. 그리고, 상기 제어부(150)는 상기 제2 광 조사부(120)에게 상기 제2 조사 광의 펄스 폭 및/또는 위상을 조정하는 제어신호(121)를 제공한다. 또한, 제어부(150)는 상기 수광부(130)에게, 제어신호(131)을 제공한다. 상기 수광부(130)는 상기 제어신호(131)에 의해 구동되는데, 본 발명의 일 실시예에 따르면, 상기 제어신호(131)가 고수준(high level)인 경우에 상기 수광부(130)가 빛을 수광하여 전하량을 방출한다. 따라서, 상기 제어신호(131)은 전자적 셔터(electronic shutter) 기능을 갖는다.
도 2는 본 발명의 일 실시예에 따른 제1 TOF에서의 조사 광 및 반사 광을 도시한다.
제1 광 조사부(110)로부터 조사된 제1 조사 광(210)의 펄스 폭(201)은, 제2 광 조사부(120)로부터 조사된 제2 조사 광(220)의 펄스 폭보다 크다. 제어신호(200)는 제1 조사 광(210)과 동위상(in phase)이며, 펄스 폭이 동일하다. 상기 제어신호(200)이 고 수준(high level)인 경우, 수광부(130)가 작동하여 제1 조사 광(210)에 대한 제1 반사 광(211) 및 제2 조사 광(220)에 대한 제2 반사 광(221)을 수광한다.
상기 수광부(130)는 수광하는 빛의 양에 비례하는 전하량을 방출한다.
상기 수광부(130)가 수광하는 상기 제1 반사 광(211)은 상기 제1 조사 광(210)과 제1 TOF(230)의 위상 차를 갖는다. 따라서, 상기 제어신호(200)에 의해 구동되는 동안, 상기 수광부(130)가 상기 제1 반사 광(211)을 수광하여 방출하는 전하량은 영역(212)의 넓이에 비례한다. 한편, 영역(213)의 넓이에 비례하는 전하 량은 제어신호(200)에 의해 구동되는 동안 상기 수광부(130)에 의해 감지되지 않는다.
그리고 상기 수광부(130)가 수광하는 상기 제2 반사 광(221)은 상기 제2 조사 광(220)과 제1 TOF(230)의 위상 차를 갖는다. 따라서, 상기 제어신호(200)에 의해 구동되는 동안, 상기 수광부(130)가 상기 제2 반사 광(221)을 수광하여 방출하는 전하량은 영역(222)의 넓이에 비례한다. 한편, 영역(223)의 넓이에 비례하는 전하량은 제어신호(200)에 의해 구동되는 동안 상기 수광부(130)에 의해 감지되지 않는다.
도 3은 본 발명의 일 실시예에 따른 제2 TOF에서의 조사 광 및 반사 광을 도시한다.
제1 조사 광(310)은 도 2의 제1 조사 광(210)에 대응하고, 제1 조사 광의 펄스 폭(201)을 갖는다. 그리고 제2 조사 광(320)은 제2 조사 광(220)에 대응하고, 제2 조사 광의 펄스 폭(202)을 갖는다. 제어신호(300)는 제어신호(200)에 대응한다.
상기 수광부(130)가 수광하는 상기 제1 반사 광(311)은 상기 제1 조사 광(310)과 제2 TOF(330)의 위상 차를 갖는다. 따라서, 상기 제어신호(300)에 의해 구동되는 동안, 상기 수광부(130)가 상기 제1 반사 광(311)을 수광하여 방출하는 전하량은 영역(312)의 넓이에 비례한다. 한편, 영역(313)의 넓이에 비례하는 전하량은 제어신호(300)에 의해 구동되는 동안 상기 수광부(130)에 의해 감지되지 않는다.
그러나, 제2 TOF(330)은 상기 제2 조사 광의 펄스 폭(202)보다 크다. 따라서, 제1 반사광(311)과는 달리, 상기 제2 반사 광(321)의 영역(322)의 넓이에 비례하는 전하량은 제어신호(300)에 의해 구동되는 동안 상기 수광부(130)에 의해 감지되지 않는다.
도 4는 본 발명의 일 실시예에 따른 제1 TOF에서, 제1 제어 신호에 의한 반사 광 측정을 도시한다.
본 발명의 일 실시예에 따르면, 제1 조사 광(410)은, 제2 조사 광에 비해 2배의 펄스 폭을 갖는다. 상기 제어부(150)가 제1 모드에서 제공하는 제1 제어신호(400)는 상기 제1 조사 광(410)과 펄스 폭이 동일하고, 동위상(in phase)이다. 제1 TOF(430)는 제2 조사 광(420)의 펄스 폭보다 작다. 상기 제1 제어 신호(400)에 의해 구동되는 상기 수광부(130)가 방출하는 전하량은 다음 수학식 1 내지 수학식 3으로부터 구할 수 있다.
QA = a*(2TOT - TOF) (단, TOF <= TOT)
상기 수학식 1에서, QA는 상기 제1 제어신호(400)에 의해 구동되는 동안, 상기 수광부(130)가 제1 반사 광(411)을 수광하여 방출하는 전하량으로서, 영역(412)의 넓이에 비례한다. 그리고 a는 본 발명의 일 실시예에 따른 비례 상수로서, 제1 조사 광 및 제 2 조사 광의 세기가 같다고 가정하였으며 반사율, quantum efficiency 등을 포함한다. 한편 TOT는 제2 조사 광(420)의 펄스 폭이며, 2TOT는 제1 조사 광(410)의 펄스 폭이다.
QB = a*(TOT - TOF) (단, TOF <= TOT)
상기 수학식 2에서, QB는 상기 제1 제어신호(400)에 의해 구동되는 동안, 상기 수광부(130)가 상기 제2 반사 광(421)을 수광하여 방출하는 전하량으로서, 영역(422)의 넓이에 비례한다. 그리고, a 는 본 발명의 일 실시예에 따른 비례 상수이다.
Q1 = QA + QB
= a*(3TOT - 2TOF) (단, TOF <= TOT)
상기 수학식 3에서, Q1은 상기 제1 제어신호(400)에 의해 구동되는 동안, 상기 수광부(130)가 방출하는 전하량으로서, 상기 영역(412) 및 상기 영역(422)의 넓이의 합에 비례한다.
도 5는 본 발명의 일 실시예에 따른 제2 TOF에서, 제1 제어 신호에 의한 반사 광 측정을 도시한다.
제1 조사 광(510)은, 상기 도 4의 제1 조사 광(410)에 대응하며, 제2 조사 광(520)에 비해 2배의 펄스 폭을 갖는다. 상기 제1 제어신호(400)는 상기 제1 조사 광(510)과 펄스 폭이 동일하고, 동위상(in phase)이다. 본 실시예에서 제2 TOF(530)는 제2 조사 광(520)의 펄스 폭보다 크다. 상기 제1 제어신호(400)에 의해 구동되는 동안 상기 수광부(130)가 방출하는 전하량은 다음 수학식 4 내지 수학식 6으로부터 구할 수 있다.
QA = a*(2TOT - TOF) (단, TOF > TOT)
상기 수학식 4에서, QA는 상기 제1 제어신호(400)에 의해 구동되는 동안, 상기 수광부(130)가 상기 제1 반사 광(511)을 수광하여 방출하는 전하량으로서, 영역(512)의 넓이에 비례한다. 그리고 a는 본 발명의 일 실시예에 따른 비례 상수이다. 한편 TOT는 제2 조사 광(520)의 펄스 폭이며, 2TOT는 제1 조사 광(510)의 펄스 폭이다
QB = 0 (단, TOF > TOT)
상기 제2 반사 광(521)은 제1 제어신호(400)에 의해 구동되는 동안, 상기 수광부(130)에서 검출되지 않는다. 따라서, 상기 수학식 5에서, QB는 0이다.
Q1 = QA + QB
= a*(2TOT - TOF) (단, TOF > TOT)
상기 수학식 6에서, Q1은 상기 제1 제어신호(400)에 의해 구동되는 동안, 상기 수광부(130)가 방출하는 전하량으로서, 상기 수학식 4의 QA와 같다. 본 실시예에서 알 수 있듯이, 제2 조사 광(520)의 펄스 폭보다 큰 TOF에서는 제2 반사광은 상기 제1 제어신호(400)에 의해 구동되는 동안 상기 수광부(130)에서 검출되지 않는다.
도 6은 본 발명의 일 실시예에 따라, TOF에 따른 제1 전하량의 변화를 도시 한다.
x축은 TOF값에 대응하고, y축은 제1 제어신호(400)에 의해 구동되는 동안, 상기 수광부(130)에서 검출되는 전하량에 대응한다. 한편 그래프(610)은 QA 값의 변화, 그래프(620)은 QB 값의 변화, 그리고 그래프(630)은 제1 전하량 Q1 값의 변화에 대응한다.
일반적으로 상기 간접 방식에서, 물체의 반사도에 관계없이 깊이 영상을 얻기 위해서 상기 제 1 제어 신호와는 다른 제 2 제어 신호에 의한 반사 광 측정을 할 수도 있다. 이는 상기 수학식의 비례 상수 a로 나타난다.
도 7은 본 발명의 일 실시예에 따른 제1 TOF에서, 제2 제어 신호에 의한 반사 광 측정을 도시한다.
본 발명의 일 실시예에 따르면, 제1 조사 광(710)은, 도 4의 제1 조사 광(410)에 대응한다. 따라서 제2 조사 광(720)에 비해 2배의 펄스 폭을 갖는다. 그리고 상기 제어부(150)가 제2 모드에서 제공하는 제2 제어신호(700)는 상기 제1 조사 광(710)과 펄스 폭이 동일하고, 180도 반대위상(out phase)이다. 제1 TOF(430)는 제2 조사 광(720)의 펄스 폭보다 작다. 상기 제2 제어 신호(700)에 의해 구동되는 상기 수광부(130)가 방출하는 전하량은 다음 수학식 7 내지 수학식 9로부터 구할 수 있다.
QA = a* TOF (단, TOF <= TOT)
상기 수학식 7에서, QA는 상기 제2 제어신호(700)에 의해 구동되는 동안, 상 기 수광부(130)가 제1 반사 광(711)을 수광하여 방출하는 전하량으로서, 영역(712)의 넓이에 비례한다. 그리고 a는 본 발명의 일 실시예에 따른 비례 상수이다. 한편 TOT는 제2 조사 광(720)의 펄스 폭이다.
QB = a*TOF (단, TOF <= TOT)
상기 수학식 8에서, QB는 상기 제2 제어신호(700)에 의해 구동되는 동안, 상기 수광부(130)가 상기 제2 반사 광(721)을 수광하여 방출하는 전하량으로서, 영역(722)의 넓이에 비례한다. 그리고, a는 본 발명의 일 실시예에 따른 비례 상수이다.
Q2 = QA + QB
= a*2TOF (단, TOF <= TOT)
상기 수학식 9에서, Q2는 상기 제2 제어신호(700)에 의해 구동되는 동안, 상기 수광부(130)가 방출하는 전하량으로서, 상기 영역(712) 및 상기 영역(722)의 넓이의 합에 비례한다.
도 8은 본 발명의 일 실시예에 따른 제2 TOF에서, 제2 제어 신호에 의한 반사 광 측정을 도시한다.
제1 조사 광(810)은, 상기 도 7의 제1 조사 광(710)에 대응하며, 제2 조사 광(820)에 비해 2배의 펄스 폭을 갖는다. 제2 제어신호(700)는 상기 제1 조사 광(810)과 펄스 폭이 동일하고, 180도 반대위상(out phase)이다. 본 실시예에서 제2 TOF(530)는 제2 조사 광(820)의 펄스 폭보다 크다. 상기 제2 제어신호(700)에 의해 구동되는 동안 상기 수광부(130)가 방출하는 전하량은 다음 수학식 10 내지 수학식 12로부터 구할 수 있다.
QA = a*TOF (단, TOF > TOT)
상기 수학식 10에서, QA는 상기 제2 제어신호(700)에 의해 구동되는 동안, 상기 수광부(130)가 상기 제1 반사 광(811)을 수광하여 방출하는 전하량으로서, 영역(812)의 넓이에 비례한다. 그리고 a는 본 발명의 일 실시예에 따른 비례 상수이다. 한편 TOT는 제2 조사 광(820)의 펄스 폭이다.
QB = a*TOT (단, TOF > TOT)
상기 수학식 11에서 QB는 상기 제2 제어신호(700)에 의해 구동되는 동안, 상기 수광부(130)가 상기 제2 반사 광(821)을 수광하여 방출하는 전하량으로서, 영역(822)의 넓이에 비례한다. 그리고 a는 본 발명의 일 실시예에 따른 비례 상수이다. 상기 수학식 5에서와 달리 QB는 0이 아니다.
Q2 = QA + QB
= a*TOF + aTOT (단, TOF > TOT)
상기 수학식 12에서, Q2는 상기 제2 제어신호(700)에 의해 구동되는 동안, 상기 수광부(130)가 방출하는 전하량으로서, 상기 영역(812) 및 상기 영역(822)의 넓이의 합에 비례한다.
도 9는 본 발명의 일 실시예에 따라, TOF에 따른 제2 전하량의 변화를 도시한다.
x축은 TOF값에 대응하고, y축은 제2 제어신호(700)에 의해 구동되는 동안, 상기 수광부(130)에서 검출되는 전하량에 대응한다. 한편 그래프(910)은 QA 값의 변화, 그래프(920)은 QB 값의 변화, 그리고 그래프(930)은 제2 전하량 Q2 값의 변화에 대응한다.
본 발명의 일 실시예에 따라, 상기 수학식 3과 상기 수학식 9를 조합하면, TOF <= TOT인 경우, 제1 전하량 Q1, 제2 전하량 Q2, 및 TOF 값의 관계는 다음 수학식 13에 의해 구해진다.
TOF = 1.5*TOT*Q2/(Q1+Q2) (단, TOF <= TOT)
본 발명의 또 다른 실시예에 따라, 상기 수학식 6과 상기 수학식 12를 조합하면, TOF > TOT인 경우, 제1 전하량 Q1, 제2 전하량 Q2, 및 TOF 값의 관계는 다음 수학식 14에 의해 구해진다.
TOF = TOT*(2Q2 - Q1)/(Q1 + Q2) (단, TOF > TOT)
그리고, 깊이 값 Depth는,
Depth = c * TOF/2 (단, c는 광속)
이다.
본 발명의 또 다른 실시예들에 따르면, 도 4내지 도 9에서 도시된 제1 조사 광, 제2 조사 광 및 제어신호는 다른 파형, 이를테면 정현파, 또는 삼각파이다. 또한, 제1 조사 광과 제2 조사 광의 펄스 폭도 다양할 수 있다. 다만, 이러한 응용예들에서는 상기 수학식들이 변경되어야 하며, 이는 본 기술 분야의 통상의 지식을 가진 자라면, 용이하게 도출할 수 있다.
그리고, 도 4내지 도 9의 실시예들에서는, 제1 제어신호는 제1 조사 광과 위상(in phase)이고, 제2 제어신호는 제1 조사 광과 180도의 위상 차를 갖는 것으로 제시되었으나, 본 발명은 이에 한정되지 않는다. 이를테면, 제1 제어신호는 제1 조사 광과 동위상이고, 제2 제어신호는 제1 조사 광과 90도의 위상차를 갖도록 조정될 수 있다. 이 경우 상기 수학식들은 당업자의 기술 수준에서 용이하게 변경될 수 있다.
도 10은 본 발명의 일 실시예에 따른 깊이 영상 획득 장치의 광 조사부 및 수광부를 도시한다.
제1 광 조사부(1010) 및 제2 광 조사부(1020)는 각각 적외선 LED일 수 있다. 한편, LED 하나가 공급할 수 있는 빛의 세기가 제한적이므로, 도 10에서와 같이 복수 개의 LED를 도입할 수 있으며, 이 경우 제1 광 조사부의 LED들(1010)과 제2 광 조사부의 LED들(1020)은 수광부(1030)를 기준으로 서로 대칭하게 배치된다.
제1 광 조사부(1010) 및 제2 광 조사부(1020)로부터 조사되는 빛의 펄스 폭(pulse width)이 조정될 수 있다. 또한, 조사되는 빛의 세기(amplitude)는 상기 LED의 개수를 조정하여 다양하게 변경할 수도 있다. 이 경우 상기 수학식들은 당업자의 기술 수준에서 용이하게 변경될 수 있다.
본 발명의 또 다른 실시예에 따르면, 제1 광 조사부(1010), 제2 광 조사부(1020) 이외에, 제3 광 조사부 등(도시되지 않음)을 도입하여, 3개 이상의 서로 다른 펄스 폭을 갖는 광 조사부를 도입한다. 이 경우, 상기 수학식을 변경함으로써 수광부가 방출하는 전하량, TOF, 및 깊이 값을 구할 수 있다.
도 11은 본 발명의 일 실시예에 따른 입력 깊이 영상 획득 방법을 도시한다.
단계(1110)에서, 제1 조사 광 및 제2 조사 광이 조사된다. 본 발명의 일 실시예에 따르면, 상기 제1 조사 광 및 상기 제2 조사 광은 구형 파이며, 상기 제1 조사 광은 상기 제2 조사 광에 비해 2 배의 펄스 폭을 갖는다.
다만, 응용예에 따라서는, 상기한 바와 같이 상기 제1 조사 광, 상기 제2 조사 광의 파형, 펄스 폭을 다양하게 변경할 수 있다.
단계(1120)에서, 제1 제어신호에 의해 구동되는 동안, 상기 수광부(130)의 제1 화소로부터 방출되는 제1 전하량 Q1이 측정된다. 상기 제1 제어신호는 상기 제1 조사 광과 펄스 폭이 동일하며, 동위상이다.
단계(1130)에서, 제2 제어신호에 의해 구동되는 동안, 상기 수광부(130)의 제1 화소로부터 방출되는 제2 전하량 Q2가 측정된다. 상기 제2 제어신호는 상기 제1 제어신호와 180도 위상차를 갖는다. 다만, 본 발명의 다른 실시예에서는 상기 위상차는 변경될 수 있다. 한편, 상기 제1 전하량 및/또는 상기 제2 전하량은 처리부에 의해 측정될 수 있으며, 또 다른 응용 예에서는 수광부의 제1 화소에서 측 정되어 Q1, Q2 값이 처리부로 제공될 수도 있다.
단계(1140)에서, TOF <= TOT라는 가정 하에, 상기 수학식 13에 의해 제1 TOF가 계산된다. 따라서, 제1 TOF = 1.5*TOT*Q2/(Q1+Q2)이다. 여기서, TOT는 제2 조사 광의 펄스 폭이다.
단계(1150)에서, 상기 가정이 타당한지 판단한다. 즉, 단계(1140)에서 계산된 상기 제1 TOF 값이, 상기 제1 조사 광 및 상기 제2 조사 광의 펄스 폭보다 작은지의 여부가 판단된다.
만약 단계(1150)에서의 판단 결과가 YES인 경우, 단계(1160)에서, 최종 TOF 값이 상기 제1 TOF 값으로 결정된다.
그리고, 단계(1190)에서 제1 화소의 깊이 값이 상기 수학식 15에 의해 결정된다.
그러나, 단계(1150)에서의 판단 결과가 NO인 경우에는, 상기 가정은 잘못된 것이다. 따라서, TOF > TOT인 경우이다. 따라서, 단계(1170)에서, 상기 수학식 14에 의해 제2 TOF가 계산된다. 그래서 제2 TOF = TOT*(2Q2 - Q1)/(Q1 + Q2)이다.
이 경우, 단계(1180)에서 최종 TOF 값이 상기 제2 TOF 값으로 결정된다.
그리고, 단계(1190)에서 제1 화소의 깊이 값이 계산된다. 상기 단계들을 상기 수광부(130)의 복수 개의 화소들에 대해 반복하면, 복수 개의 화소로 구성된 깊이 영상이 획득된다.
본 발명에 따른 영상 처리 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
도 1은 본 발명의 일 실시예에 따른 깊이 영상 획득 장치를 도시한다.
도 2는 본 발명의 일 실시예에 따른 제1 TOF에서의 조사 광 및 반사 광을 도시한다.
도 3은 본 발명의 일 실시예에 따른 제2 TOF에서의 조사 광 및 반사 광을 도시한다.
도 4는 본 발명의 일 실시예에 따른 제1 TOF에서, 제1 제어 신호에 의한 반사 광 측정을 도시한다.
도 5는 본 발명의 일 실시예에 따른 제2 TOF에서, 제1 제어 신호에 의한 반사 광 측정을 도시한다.
도 6은 본 발명의 일 실시예에 따라, TOF에 따른 제1 전하량의 변화를 도시한다.
도 7은 본 발명의 일 실시예에 따른 제1 TOF에서, 제2 제어 신호에 의한 반사 광 측정을 도시한다.
도 8은 본 발명의 일 실시예에 따른 제2 TOF에서, 제2 제어 신호에 의한 반사 광 측정을 도시한다.
도 9는 본 발명의 일 실시예에 따라, TOF에 따른 제2 전하량의 변화를 도시한다.
도 10은 본 발명의 일 실시예에 따른 깊이 영상 획득 장치의 광 조사부 및 수광부를 도시한다.
도 11은 본 발명의 일 실시예에 따른 입력 깊이 영상 획득 방법을 도시한다.

Claims (16)

  1. 제1 조사 광을 조사하는 제1 광 조사부;
    제2 조사 광을 조사하는 제2 광 조사부;
    상기 제1 조사 광에 의한 제1 반사광 및 상기 제2 조사 광에 의한 제2 반사광을 수광하는 수광부; 및
    상기 수광부의 제1 화소로부터 제공되는 전하량에 기초하여, 상기 제1 화소에 대응하는 깊이 값(depth)를 계산하는 처리부
    를 포함하는 깊이 영상 획득 장치.
  2. 제1항에 있어서,
    상기 제1 조사 광의 펄스 폭(pulse width)과 상기 제2 조사 광의 펄스 폭이 서로 다른 깊이 영상 획득 장치.
  3. 제1항에 있어서,
    상기 제1 광 조사부 및 상기 제2 광 조사부는 상기 수광부를 중심으로 서로 대칭으로 배치되는 깊이 영상 획득 장치.
  4. 제1항에 있어서,
    상기 제1 광 조사부, 상기 제2 광 조사부, 및 상기 수광부 중 적어도 하나의 구동을 제어하는 제어부를 더 포함하는 깊이 영상 획득 장치.
  5. 제4항에 있어서,
    상기 제어부는,
    제1 모드에서 상기 제1 조사 광과 동위상(in phase)인 제1 제어 신호를 상기 수광부에 제공함으로써 상기 수광부를 구동하고,
    제2 모드에서 상기 제1 조사 광과 제1 위상 차를 갖는 제2 제어 신호를 상기 수광부에 제공함으로써 상기 수광부를 구동하는 깊이 영상 획득 장치.
  6. 제5항에 있어서,
    상기 제1 제어 신호와 상기 제2 제어 신호는 180도의 위상 차를 갖는 깊이 영상 획득 장치.
  7. 제5항에 있어서,
    상기 처리부는,
    상기 제1 모드에서 상기 수광부의 제1 화소로부터 제공되는 제1 전하량, 및 상기 제2 모드에서 상기 제1 화소로부터 제공되는 제2 전하량에 기초하여, 상기 제1 화소에 대응하는 깊이 값(depth)를 계산하는 깊이 영상 획득 장치.
  8. 제7항에 있어서,
    상기 처리부는,
    상기 제1 전하량, 및 상기 제2 전하량에 기초하여, 제1 TOF(Time of flight) 값을 계산하고,
    상기 제1 TOF 값이 상기 제1 조사광의 펄스 폭 및 상기 제2 조사광의 펄스 폭보다 작거나 같은 경우, 상기 제1 TOF 값에 기초하여 상기 제1 화소에 대응하는 깊이 값을 계산하고,
    상기 제1 TOF 값이 상기 제1 조사광의 펄스 폭 및 상기 제2 조사광의 펄스 폭 중 적어도 하나보다 큰 경우, 상기 제1 전하량, 및 상기 제2 전하량에 기초하여 제2 TOF 값을 계산하고, 상기 제2 TOF 값에 기초하여 상기 제1 화소에 대응하는 깊이 값을 계산하는 깊이 영상 획득 장치.
  9. 제1항에 있어서,
    상기 제2 조사광의 펄스 폭은 상기 제1 조사광의 펄스 폭의 두 배인 깊이 영상 획득 장치.
  10. 제1항에 있어서,
    상기 제2 조사광의 펄스 폭은 상기 제1 조사광의 펄스 폭의 두 배인 깊이 영상 획득 장치.
  11. 제10항에 있어서,
    상기 제1 조사 광의 펄스 폭과 상기 제2 조사 광의 펄스 폭이 서로 다른 깊이 영상 획득 방법.
  12. 제10항에 있어서,
    상기 전하량을 측정하는 단계는,
    상기 제1 조사 광과 동위상인 제1 제어 신호에 기초하여 제1 전하량을 측정하는 단계; 및
    상기 제1 조사 광과 제1 위상 차를 갖는 제2 제어 신호에 기초하여 제2 전하량을 측정하는 단계
    를 포함하는 깊이 영상 획득 방법.
  13. 제12항에 있어서,
    상기 제1 제어 신호와 상기 제2 제어 신호는 180도의 위상 차를 갖는 깊이 영상 획득 장치.
  14. 제12항에 있어서,
    상기 제1 전하량 및 상기 제2 전하량에 기초하여 제1 화소에 대응하는 깊이 값을 계산하는 단계
    를 더 포함하는 깊이 영상 획득 방법
  15. 제14항에 있어서,
    상기 제1 화소에 대응하는 깊이 값을 계산하는 단계는,
    상기 제1 전하량 및 제2 전하량에 기초하여, 제1 TOF(Time of flight) 값을 계산하는 단계;
    상기 제1 TOF 값이 상기 제1 조사광의 펄스 폭, 및 상기 제2 조사광의 펄스 폭보다 작거나 같은 경우, 상기 제1 TOF 값에 기초하여 상기 제1 화소에 대응하는 깊이 값을 계산하는 단계; 및
    상기 제1 TOF 값이 상기 제1 조사광의 펄스 폭, 및 상기 제2 조사광의 펄스 폭 중 적어도 하나보다 큰 경우, 상기 제1 전하량, 및 상기 제2 전하량에 기초하여 제2 TOF 값을 계산하고, 상기 제2 TOF 값에 기초하여 상기 제1 화소에 대응하는 깊이 값을 계산하는 단계
    를 포함하는 깊이 영상 획득 방법.
  16. 제10항 내지 제16항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.
KR20080083914A 2008-08-27 2008-08-27 깊이 영상 획득 장치 및 방법 KR101483462B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR20080083914A KR101483462B1 (ko) 2008-08-27 2008-08-27 깊이 영상 획득 장치 및 방법
US12/379,255 US8217327B2 (en) 2008-08-27 2009-02-17 Apparatus and method of obtaining depth image
PCT/KR2009/002870 WO2010024516A2 (en) 2008-08-27 2009-05-29 Apparatus and method of obtaining depth image
EP09810121.5A EP2327223B1 (en) 2008-08-27 2009-05-29 Apparatus and method of obtaining depth image
JP2011524885A JP5757871B2 (ja) 2008-08-27 2009-05-29 深さ映像獲得装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20080083914A KR101483462B1 (ko) 2008-08-27 2008-08-27 깊이 영상 획득 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20100025228A true KR20100025228A (ko) 2010-03-09
KR101483462B1 KR101483462B1 (ko) 2015-01-16

Family

ID=41722055

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20080083914A KR101483462B1 (ko) 2008-08-27 2008-08-27 깊이 영상 획득 장치 및 방법

Country Status (5)

Country Link
US (1) US8217327B2 (ko)
EP (1) EP2327223B1 (ko)
JP (1) JP5757871B2 (ko)
KR (1) KR101483462B1 (ko)
WO (1) WO2010024516A2 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140123079A (ko) * 2012-01-23 2014-10-21 마이크로소프트 코포레이션 3차원 줌 이미저
US8953152B2 (en) 2011-03-24 2015-02-10 Samsung Electronics Co., Ltd. Depth sensors, depth information error compensation methods thereof, and signal processing systems having the depth sensors
KR20150018026A (ko) * 2013-08-08 2015-02-23 엘지전자 주식회사 3차원 카메라
US9167230B2 (en) 2010-11-30 2015-10-20 Samsung Electronics Co., Ltd. Image sensor for simultaneously obtaining color image and depth image, method of operating the image sensor, and image processing system including the image sensor
US9366759B2 (en) 2010-06-25 2016-06-14 Samsung Electronics Co., Ltd. Apparatus and method for generating depth image
US9874637B2 (en) 2010-12-14 2018-01-23 Samsung Electronics Co., Ltd. Illumination optical system and 3D image acquisition apparatus including the same

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101483462B1 (ko) * 2008-08-27 2015-01-16 삼성전자주식회사 깊이 영상 획득 장치 및 방법
US9857469B2 (en) * 2010-10-22 2018-01-02 Heptagon Micro Optics Pte. Ltd. System and method for multi TOF camera operation using phase hopping
EP2469294A1 (en) * 2010-12-23 2012-06-27 André Borowski 2D/3D real-time imager and corresponding imaging methods
EP2469301A1 (en) * 2010-12-23 2012-06-27 André Borowski Methods and devices for generating a representation of a 3D scene at very high speed
FR2980586A1 (fr) * 2011-09-22 2013-03-29 St Microelectronics Grenoble 2 Dispositif et procede de determination de la distance a un objet
CN102761768A (zh) * 2012-06-28 2012-10-31 中兴通讯股份有限公司 一种实现立体成像的方法及装置
EP2703836B1 (en) * 2012-08-30 2015-06-24 Softkinetic Sensors N.V. TOF illuminating system and TOF camera and method for operating, with control means for driving electronic devices located in the scene
TWI571827B (zh) * 2012-11-13 2017-02-21 財團法人資訊工業策進會 決定3d物件影像在3d環境影像中深度的電子裝置及其方法
WO2014097539A1 (ja) * 2012-12-20 2014-06-26 パナソニック株式会社 3次元測定装置および3次元測定方法
EP4016981A3 (en) * 2013-12-24 2022-09-21 Sony Depthsensing Solutions A time-of-flight camera system
DE102014101206A1 (de) * 2014-01-31 2015-08-06 Huf Hülsbeck & Fürst Gmbh & Co. Kg Montagemodul für ein Kraftfahrzeug
US9823355B2 (en) * 2015-09-09 2017-11-21 The United States Of America As Represented By The Secretary Of The Navy Method and apparatus for bistatic laser range imaging
DE102015116368A1 (de) * 2015-09-28 2017-03-30 Sick Ag Verfahren zur Detektion eines Objekts
EP3414599B1 (en) 2016-02-08 2019-12-18 Denso Corporation Time-of-flight distance measuring device and method for detecting multipath error
EP3497477A1 (en) 2016-08-12 2019-06-19 Fastree3D SA Method and device for measuring a distance to a target in a multi-user environment by means of at least one detector
FR3056332A1 (fr) * 2016-09-21 2018-03-23 Stmicroelectronics (Grenoble 2) Sas Dispositif comportant un capteur d'image 2d et un capteur de profondeur
US10321115B2 (en) 2016-12-02 2019-06-11 Samsung Electronics Co., Ltd. Three-dimensional depth sensor
US10810753B2 (en) 2017-02-27 2020-10-20 Microsoft Technology Licensing, Llc Single-frequency time-of-flight depth computation using stereoscopic disambiguation
DE102017222969A1 (de) 2017-12-15 2019-06-19 Ibeo Automotive Systems GmbH Verfahren zur verbesserten Nah- und Ferndetektion einer LIDAR Empfangseinheit
DE102017222970A1 (de) 2017-12-15 2019-06-19 Ibeo Automotive Systems GmbH LIDAR Messsystem
CN112929516B (zh) * 2019-12-05 2023-08-08 北京小米移动软件有限公司 图像采集模组、终端设备、图像处理方法及装置
KR102274033B1 (ko) * 2020-03-04 2021-07-08 (주)미래컴퍼니 다중 주파수를 이용하여 모션 블러를 저감하는 깊이 영상 획득 장치

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5852672A (en) * 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects
RU2182385C2 (ru) * 1996-09-05 2002-05-10 Рудольф ШВАРТЕ Способ и устройство для определения информации об амплитуде и фазе электромагнитной волны
EP0837418A3 (en) * 1996-10-18 2006-03-29 Kabushiki Kaisha Toshiba Method and apparatus for generating information input using reflected light image of target object
US6324296B1 (en) * 1997-12-04 2001-11-27 Phasespace, Inc. Distributed-processing motion tracking system for tracking individually modulated light points
JP4334069B2 (ja) 1999-07-08 2009-09-16 Hoya株式会社 3次元画像検出装置のレーザ発光装置
JP4369575B2 (ja) * 1999-11-19 2009-11-25 Hoya株式会社 3次元画像検出装置
US6748259B1 (en) * 2000-06-15 2004-06-08 Spectros Corporation Optical imaging of induced signals in vivo under ambient light conditions
US6535275B2 (en) * 2000-08-09 2003-03-18 Dialog Semiconductor Gmbh High resolution 3-D imaging range finder
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US8570378B2 (en) * 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US7391409B2 (en) * 2002-07-27 2008-06-24 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to multi-channel mixed input
JP4235729B2 (ja) * 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
EP1467225A1 (de) * 2003-04-10 2004-10-13 IEE International Electronics &amp; Engineering S.A.R.L. Einparkhilfe für ein Fahrzeug
JP4161910B2 (ja) * 2004-01-28 2008-10-08 株式会社デンソー 距離画像データ生成装置及び生成方法,プログラム
US7711179B2 (en) * 2004-04-21 2010-05-04 Nextengine, Inc. Hand held portable three dimensional scanner
US7379163B2 (en) * 2005-02-08 2008-05-27 Canesta, Inc. Method and system for automatic gain control of sensors in time-of-flight systems
US20060241371A1 (en) * 2005-02-08 2006-10-26 Canesta, Inc. Method and system to correct motion blur in time-of-flight sensor systems
US7283213B2 (en) * 2005-02-08 2007-10-16 Canesta, Inc. Method and system to correct motion blur and reduce signal transients in time-of-flight sensor systems
US7408627B2 (en) * 2005-02-08 2008-08-05 Canesta, Inc. Methods and system to quantify depth data accuracy in three-dimensional sensors using single frame capture
US7994465B1 (en) * 2006-02-06 2011-08-09 Microsoft Corporation Methods and devices for improved charge management for three-dimensional and color sensing
EP1901093B1 (de) * 2006-09-15 2018-11-14 Triple-IN Holding AG Aufnahme von Entfernungsbildern
US8781151B2 (en) * 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
US7791715B1 (en) * 2006-10-02 2010-09-07 Canesta, Inc. Method and system for lossless dealiasing in time-of-flight (TOF) systems
US20080231835A1 (en) * 2007-03-23 2008-09-25 Keigo Iizuka Divergence ratio distance mapping camera
US8629976B2 (en) * 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
KR101344490B1 (ko) * 2007-11-06 2013-12-24 삼성전자주식회사 영상 생성 방법 및 장치
KR101467509B1 (ko) * 2008-07-25 2014-12-01 삼성전자주식회사 이미지 센서 및 이미지 센서 동작 방법
KR101483462B1 (ko) * 2008-08-27 2015-01-16 삼성전자주식회사 깊이 영상 획득 장치 및 방법
KR101502372B1 (ko) * 2008-11-26 2015-03-16 삼성전자주식회사 영상 획득 장치 및 방법
KR101613133B1 (ko) * 2009-05-14 2016-04-18 삼성전자주식회사 3차원 영상 처리 장치 및 그 방법
KR101590767B1 (ko) * 2009-06-09 2016-02-03 삼성전자주식회사 영상 처리 장치 및 방법
KR101605046B1 (ko) * 2009-07-29 2016-03-21 삼성전자주식회사 싱글 게이트 픽셀 및 싱글 게이트 픽셀 동작 방법
KR20110093212A (ko) * 2010-02-12 2011-08-18 삼성전자주식회사 이미지 센서의 픽셀 및 픽셀 동작 방법
JP5039808B2 (ja) * 2010-03-16 2012-10-03 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、及びプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9366759B2 (en) 2010-06-25 2016-06-14 Samsung Electronics Co., Ltd. Apparatus and method for generating depth image
US9167230B2 (en) 2010-11-30 2015-10-20 Samsung Electronics Co., Ltd. Image sensor for simultaneously obtaining color image and depth image, method of operating the image sensor, and image processing system including the image sensor
US9874637B2 (en) 2010-12-14 2018-01-23 Samsung Electronics Co., Ltd. Illumination optical system and 3D image acquisition apparatus including the same
US8953152B2 (en) 2011-03-24 2015-02-10 Samsung Electronics Co., Ltd. Depth sensors, depth information error compensation methods thereof, and signal processing systems having the depth sensors
KR20140123079A (ko) * 2012-01-23 2014-10-21 마이크로소프트 코포레이션 3차원 줌 이미저
KR20150018026A (ko) * 2013-08-08 2015-02-23 엘지전자 주식회사 3차원 카메라

Also Published As

Publication number Publication date
KR101483462B1 (ko) 2015-01-16
EP2327223B1 (en) 2013-11-06
EP2327223A4 (en) 2012-10-17
WO2010024516A3 (en) 2011-03-10
JP2012501435A (ja) 2012-01-19
JP5757871B2 (ja) 2015-08-05
US20100051836A1 (en) 2010-03-04
US8217327B2 (en) 2012-07-10
WO2010024516A2 (en) 2010-03-04
EP2327223A2 (en) 2011-06-01

Similar Documents

Publication Publication Date Title
KR101483462B1 (ko) 깊이 영상 획득 장치 및 방법
US8611610B2 (en) Method and apparatus for calculating a distance between an optical apparatus and an object
KR102561099B1 (ko) ToF(time of flight) 촬영 장치 및 다중 반사에 의한 깊이 왜곡 저감 방법
JP6241793B2 (ja) 3次元測定装置および3次元測定方法
US10264240B2 (en) Method and apparatus for generating depth image
JP6805504B2 (ja) 距離測定装置、移動体装置及び距離測定方法
US9746547B2 (en) Method and apparatus for generating depth image
US9628774B2 (en) Image processing method and apparatus
KR20120071970A (ko) 3차원 영상 획득 장치 및 상기 3차원 영상 획득 장치에서 깊이 정보를 추출하는 방법
WO2016143482A1 (ja) 光学式検知装置
KR20120030196A (ko) 뎁스 영상 생성 장치 및 방법
JP2009192499A (ja) 距離画像生成装置
JP2020003446A (ja) 光測距装置
KR20130106094A (ko) 깊이 카메라, 다중 깊이 카메라 시스템, 그리고 그것의 동기 방법
TWI282406B (en) Displacement sensor including automatic setting device for measurement area
KR102664396B1 (ko) 라이다 장치 및 그 동작 방법
US20210263137A1 (en) Phase noise and methods of correction in multi-frequency mode lidar
WO2021210415A1 (ja) 光測距装置
JP2009508096A (ja) 3d画像化方法及び装置
KR20170076477A (ko) 거리 정보를 획득하는 방법 및 디바이스
WO2020257969A1 (zh) 结构光投射装置、结构光投射方法及三维测量系统
JP2020160044A (ja) 測距装置および測距方法
JP7068364B2 (ja) 物体検知装置
US20220276358A1 (en) Distance-measuring imaging device
KR102389380B1 (ko) 3차원 영상의 깊이 정보 추출 장치 및 그 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171219

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181220

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20191217

Year of fee payment: 6