KR102432765B1 - Tof 카메라 시스템 및 그 시스템과의 거리를 측정하는 방법 - Google Patents

Tof 카메라 시스템 및 그 시스템과의 거리를 측정하는 방법 Download PDF

Info

Publication number
KR102432765B1
KR102432765B1 KR1020177000302A KR20177000302A KR102432765B1 KR 102432765 B1 KR102432765 B1 KR 102432765B1 KR 1020177000302 A KR1020177000302 A KR 1020177000302A KR 20177000302 A KR20177000302 A KR 20177000302A KR 102432765 B1 KR102432765 B1 KR 102432765B1
Authority
KR
South Korea
Prior art keywords
scene
light
indirect
complex data
pixels
Prior art date
Application number
KR1020177000302A
Other languages
English (en)
Other versions
KR20170041681A (ko
Inventor
데르 템펠 바르드 반
Original Assignee
소니 뎁쓰센싱 솔루션즈 에스에이/엔브이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 뎁쓰센싱 솔루션즈 에스에이/엔브이 filed Critical 소니 뎁쓰센싱 솔루션즈 에스에이/엔브이
Publication of KR20170041681A publication Critical patent/KR20170041681A/ko
Application granted granted Critical
Publication of KR102432765B1 publication Critical patent/KR102432765B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4911Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • G01S7/4876Extracting wanted echo signals, e.g. pulse detection by removing unwanted signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/493Extracting wanted echo signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

본 발명은 씬의 물체(object) 및 타임-오브-플라이트(Time-Of-Flight; TOF) 카메라 시스템 간의 거리를 측정하고 상기 물체의 깊이 맵을 제공하는 방법으로서, 상기 TOF 카메라 시스템은 조명 유닛, 픽셀들의 매트릭스를 갖는 이미징 센서 및 이미지 처리 수단을 포함하며, 상기 방법은 : 서로 다른 입사 강도들로 각각 상기 씬의 기본(elementary) 영역들을 조명하여 직접 입사광선들을 간접 입사광선들과 구별하기 위해, 상기 조명 유닛의 조명을 이산적인 방식으로 변경하는 단계; 상기 센서의 매트릭스의 픽셀들 상에서 상기 기본 영역들에 의해 반사된 빔들을 수신하며, 그리고 대응 데이터를 상기 이미지 처리 수단에게 제공하는 단계; 상기 물체의 깊이 맵에서 상기 간접 광선들의 영향을 제거하기 위해, 상기 대응 데이터를 처리하는 단계를 포함하는 것을 특징으로 하는, 방법에 관한 것이다.

Description

TOF 카메라 시스템 및 그 시스템과의 거리를 측정하는 방법 {A TOF camera system and a method for measuring a distance with the system}
본 발명은 (i) 타임 오브 플라이트(Time-Of-Flightl TOF) 카메라 시스템 및 씬(scene)의 물체(object) 간의 거리를 측정하는 방법, 그리고 (ii) 상기 방법과 연관된 타임-오브-플라이트 카메라 시스템에 관한 것이다. 특히, 본 발명은 씬 내의 광의 직접 반사 및 간접 반사의 문제와 관련되며, 그리고 이러한 다중 반사들에 의해 유도되는 깊이 측정의 오차에 관한 것이다. 씬은 광선이 직접적으로 또는 간접적으로 반사될 수 있는 물체를 둘러싸는 모든 표면들을 의미한다는 것이 이해되어야 한다.
타임-오브-플라이트(TOF)는 깊이 인식을 위한 유망한 기술이다. 표준 TOF 카메라 시스템(3)의 잘-알려진 기본적인 동작 원리는 도 1에 도시되어 있다. 상기 TOF 카메라 시스템(3)은 전용 조명 유닛(18)으로부터 물체까지의 광의 비행시간을 분석함으로써 씬(15)의 3D 이미지들을 캡처한다. TOF 카메라 시스템(3)은 카메라(예를 들어, 픽셀들의 매트릭스(1)) 및 데이터 처리 수단(4)을 포함한다. 상기 씬(15)은 상기 전용 조명 유닛(18)을 사용하여 미리 정해진 파장의 변조된 광(16)으로, 예를 들면 적어도 하나의 미리 정해진 주파수의 일부 광 펄스들로, 능동적으로 조명된다. 상기 변조된 광은 그 씬 내의 물체들로부터 반대로 반사된다. 렌즈(2)는 그 반사된 광(17)을 모으며, 그리고 상기 카메라의 이미징 센서(1) 상에 상기 물체들의 이미지를 형성한다. 상기 카메라로부터 물체들까지의 거리에 따라, 상기 변조된 광의 방사(예를 들면, 소위 광 펄스들의 방사)와 상기 카메라에서의 상기 반사된 광 펄스들의 수신 사이에 지연이 존재한다. 반사 물체들과 카메라 간의 거리는 관찰된 지연 시간 및 광속 상수 값의 함수로서 결정될 수 있다.
이 기술의 단점들 중 하나는 도 2에 도시되어 있으며, 이는 소위 다중 경로 현상과 관련이 있다. 여러 방향으로 씬(24)에 조명을 비추기 위한 조명 유닛(8), 방출된 광의 반사들을 검출하기 위한 TOF 센서(6), 그리고 상기 TOF 센서(6)에 의해 수집된 데이터를 처리하기 위한 처리 수단(7)을 포함하는 표준 TOF 카메라 시스템(9)이 도시되어 있다.
상기 TOF 센서(6)의 픽셀들(도시되어 있지 않음)은 상기 조명 유닛(8)으로부터 상기 씬(24)까지, 그리고 상기 씬(24)으로부터 다시 상기 픽셀들까지의 직경로(25)를 측정한다. 그러나 2차 반사들(26) 또는 더 높은 차수의 반사들은 동일한 픽셀 상에서 캡처될 수 있을뿐만 아니라, 1차 직접 반사(25)에 대한 상기 인지된 지연을 왜곡할 수도 있다. 상기 센서(6)에 의해 캡처된 광은 상기 직경로(25) 및 상기 2차 반사(26) 모두로부터 유래할 수 있으며, 이로써, 상기 씬의 각각의 포인트와 연관된 깊이를 도시하는 측정된 깊이맵(27)에는 오류가 있다.
종래기술에서, 충돌하는 광의 직접 성분(direct component)을 회수하기 위한 몇 가지 방법이 구현되어왔다. 예를 들어, 여러 주파수 접근법들은 서로 다른 변조 주파수들을 갖는 한 세트의 깊이 측정들을 획득함으로써 수행되어 왔지만, 획득된 해상도는 낮게 유지된다.
다른 접근법은 예를 들어 DLP(Digital Light Processing) 프로젝터에 의해 생성되는 한 세트의 서로 다른 공간 패턴들을 사용한다. 패턴의 검은색 부분으로부터 획득된 깊이는 오직 다중 경로에서 발생하는 간접 신호에 의해서만 생성되기 때문에, 씬(scene)에 어둡고 밝은 패치들을 형성함으로써, 직접 및 간접 성분들이 분리될 수 있다. 서로 다른 패턴들은 씬의 각 부분이 검은 상황에서 캡처되는 방식으로 선택된다. 에지-효과들은 충분한 겹침이 있는 패턴들을 정의함으로써 상쇄된다. 그러나 이러한 서로 다른 패턴들을 생성하는 것은 비용이 많이 든다.
씬의 물체들과 TOF 카메라 시스템 사이의 거리들의 더 정확한 측정들을 수행하기 위해, 가장 비용 효율적으로 반사광의 직접 성분만을 추출하기 위한 해결책이 제안되어야 한다.
본 발명은 씬(scene)의 물체(object) 및 타임-오브-플라이트(Time-Of-Flight; TOF) 카메라 시스템 간의 거리를 측정하고 상기 물체의 깊이 맵을 제공하는 방법으로서, 상기 TOF 카메라 시스템은 조명 유닛, 픽셀들의 매트릭스를 갖는 이미징 센서 및 이미지 처리 수단을 포함하며, 상기 방법은 :
- 서로 다른 입사 강도들로 각각 상기 씬의 기본(elementary) 영역들을 조명하여 직접 입사광선들을 간접 입사광선들과 구별하기 위해, 상기 조명 유닛의 조명을 이산적인 방식으로 변경하는 단계;
- 상기 센서의 매트릭스의 픽셀들 상에서 상기 기본 영역들에 의해 반사된 빔들을 수신하며, 그리고 대응 데이터를 상기 이미지 처리 수단에게 제공하는 단계;
- 상기 물체의 깊이 맵에서 상기 간접 광선들의 영향을 제거하기 위해, 상기 대응 데이터를 처리하는 단계를 포함하는 것을 특징으로 하는, 방법에 관한 것이다.
유리하게는, 상기 데이터를 처리할 때, 상기 방법은 오직 간접 입사광들만이 충돌할 수 있는 기본 영역들과 연관된 피크들을, 예를 들어 중간 깊이 맵들(이에 제한되지 않음) 상에서, 식별하는 단계를 포함할 수 있다. 그러한 피크들을 식별함으로써, 상기 데이터는 간접 광선들의 영향을 제거하고 상기 씬의 정확한 최종 깊이 맵을 얻도록 처리될 수 있다.
본 발명은 씬의 물체 및 타임-오브-플라이트(Time-Of-Flight; TOF) 카메라 시스템 간의 거리를 측정하고 상기 물체의 깊이 맵을 제공하는 타임-오브-플라이트(TOF) 카메라 시스템으로서, 상기 TOF 카메라 시스템은 :
- 변조된 광으로 상기 씬에 조명을 비추기 위한 조명 유닛;
- 픽셀들의 매트릭스를 갖는 이미징 센서로서, 상기 센서의 매트릭스의 픽셀들 상에서 상기 씬에 의해 반사된 빔들을 수신하는 이미징 센서;
- 상기 이미징 센서로부터 상기 반사된 빔들에 대응하는 데이터를 수신하며, 그리고 상기 대응 데이터를 처리하는 이미징 처리 수단을 포함하며,
상기 TOF 카메라 시스템은 서로 다른 입사 강도들로 각각 상기 씬의 기본(elementary) 영역들을 조명하여 직접 입사광선들을 간접 입사광선들과 구별하기 위해, 상기 조명 유닛의 조명을 이산적인 방식으로 변경하며, 그리고 상기 대응 데이터를 처리할 때, 상기 물체의 깊이 맵에서 상기 간접 광선들의 영향을 제거하는 패터닝 수단(30)을 더 포함하는 것을 특징으로 하는, TOF 카메라 시스템에 관한 것이다.
유리하게는, 상기 조명의 변경은 상기 조명 유닛을 이산적인 방식으로 마스킹함으로써 수행된다. 예를 들어 상기 패터닝 수단은 직접 입사광선들이 상기 씬의 일부 기본 영역들 상에 충돌하는 것을 방지하는 마스크일 수 있다.
더 유리하게는, 상기 패터닝 수단은 보다 용이한 데이터 처리를 가능하게 하는 일련의 동일한 패턴 그룹들을 포함할 수 있다.
본 발명의 다른 장점들 및 신규한 특징들은 첨부 도면들을 참조하여 다음의 상세한 설명들로부터 더욱 명백해질 것이다.
본 발명은 이하의 설명 및 첨부 도면에 비추어 보다 잘 이해될 것이다.
도 1은 TOF 카메라 시스템의 기본 작동 원리를 보여준다.
도 2는 다중 경로 현상을 도시한다.
도 3은 본 발명의 일실시예에 따른 TOF 카메라 시스템을 도시한다.
도 4는 패터닝 수단의 예를 도시한다.
도 5는 씬의 중간 깊이 맵 및 TOF 카메라 시스템의 연관 픽셀들을 도시한다.
도 6은 씬, 그리고 2 개의 서로 다른 공간 구역들을 포함하는 상기 씬에 투영된 광 패턴을 도시한다.
본 발명의 이점들 및 신규한 특징들은 첨부된 도면과 관련하여 다음의 상세한 설명으로부터 더욱 명백해질 것이다.
도 3은 본 발명의 일실시예에 따른 TOF 카메라 시스템(10)을 도시한다. 상기 타임 오브 플라이트 카메라 시스템(10)은 변조된 광으로 씬(24)에 조명을 비추기 위해 조명 유닛(20)을 포함한다. 이러한 조명 유닛(20)에 의해 방출된 광은 TOF 기술을 사용하여 거리들을 측정하기에 적합하도록 조정된다. 예를 들어, 상기 조명 유닛(20)은 적절한 펄스폭을 갖는 광 펄스들을 방출하도록 배열될 수 있다. 실제로, 펄스들을 사용할 때, 각 광 펄스의 펄스폭은 카메라 범위를 결정한다. 예를 들어, 50 ns의 펄스폭에 대해, 상기 범위는 7.5 m로 제한된다. 그 결과, 씬의 조명은 TOF 카메라 시스템의 작동에 중요하게 되며, 그리고 조명 유닛들에 대한 고속 구동 주파수 요건들은 그러한 짧은 광 펄스들을 생성하기 위해 발광 다이오드(LED) 또는 레이저들과 같은 특수한 광원들의 사용을 필요로 한다. 상기 조명 유닛은 도 3에 도시된 다수의 방출된 광선들(25, 26, 28)에 의해 표시된 바와 같이 다-방향 광들을 방출하도록 조정된다.
상기 TOF 카메라 시스템은 반사된 빔을 수신 및 검출하고 상기 씬(24)의 이미지를 형성하기 위해 픽셀들의 매트릭스 어레이를 일반적으로 포함하는 이미징 센서(21)를 더 포함한다. 명료성 및 설명을 위해, 도 3에는 오직 2 개의 픽셀들(22, 23)만이 도시되어 있지만, 본 발명은 2 개의 픽셀들의 매트릭스로 제한되어서는 안 된다. 픽셀에 의해, 광 전자기 방사(light electromagnetic radiation)에 민감한 화소 및 그와 연관된 전자 회로가 이해되어야 한다. 픽셀들의 출력은 상기 조명 유닛(20)으로부터 상기 씬(24) 내의 물체까지, 그리고 상기 물체로부터 상기 이미징 TOF 센서(21)까지 다시 반사되는 광의 TOF를 결정하는데 사용될 수 있다.
상기 TOF 카메라 시스템(10)은 상기 씬(24) 상에 광 패턴을 생성하기 위한 패터닝 수단(30)을 더 포함한다. 상기 광 패턴은 레이저 광 간섭들로부터 직접적으로 얻어지는 본래의 레이저 스펙클(speckle) 패턴일 수 있으며, 또는 상기 조명 유닛(20)의 전방에 배치될 수 있는 패터닝 수단으로부터 얻어질 수 있으며, 또는 레이저 스펙클 및 패터닝 수단(20)의 조합일 수 있다. 상기 패터닝 수단(30)을 사용할 때, 상기 조명 유닛(20)에 의해 방출된 광은 이러한 패터닝 수단을 통과하며, 상기 패터닝 수단은 상기 광이 변경될 수 있게 유발하며, 그리고 상기 광이 상기 씬 상에 상이한 강도들의 기본 경계 영역들(delimited elementary areas)(31, 32)을 갖는 광 패턴을 형성하도록 유발한다. 상기 씬(24)에 충돌하기 전에, 상기 조명 유닛(20)에 의해 방출된 광은 상기 패터닝 수단(30)의 주어진 영역들 상에서 차단되거나 그 강도가 감소될 수 있으며, 그리고 다른 영역들에서는 차단되지 않을 수 있다. 이는 각각 상기 씬 상에 낮은 광 강도를 갖는 영역(31) 및 높은 광 강도를 갖는 영역(32)의 형성을 야기한다. 설명을 위해, 이러한 영역들은 두꺼운 선들(31, 32)에 의해 도시되어 있지만, 상기 씬에 형성된 광 패턴은 상기 씬(24)에 부착된 견고하거나 물리적인 패턴이 아니지만 상기 조명 유닛(20)의 전방에 배치된 상기 패턴 수단(30)으로부터 기인한 광 효과들의 결과임이 이해되어야 한다. 상기 광 패턴은 상기 조명 유닛(20)에 의해 상기 씬 상에 투영된다. 상기 패터닝 수단(30)은 필터링 수단, 마스크, 그리드, 또는 조명을 이산적으로 변형시킬 수 있는 임의의 수단일 수 있다. 이상적으로는, 상기 패터닝 수단은 오직 2차 반사들만이 측정되는 영역들(31)을 용이하게 검색하기 위해, 상기 씬 상에 공간적으로 주기적인 광 패턴(31, 32, 45, 46)을 제공해야 한다. 또한, 상기 패터닝 수단(30)은 도 4에 도시된 바와 같이 일련의 동일한 패턴 그룹들(50), 또는 TOF 카메라 프레임 레이트의 배수와 시간적으로 동시에 순차적으로 사용될 수 있는 일련의 서로 다른 패턴 그룹들을 포함할 수 있다.
본 발명은 100 %의 콘트라스트를 갖는 패턴을 필요로 하지 않으며, 패터닝 수단을 이미지 센서에 정렬시킬 필요가 없다는 것에 주목하는 것이 중요하다.
상기 TOF 카메라 시스템(10)은 조명에 의해 방출되는 광의 비행시간(TOF)을 결정하고 이로써 상기 씬(24)의 물체 및 상기 이미징 센서(21) 간의 거리를 결정하는 처리 수단(5)을 더 포함한다. 상기 처리 수단(30)은 상기 이미징 센서(21)의 픽셀들로부터 데이터를 수신하도록, 그리고 상기 물체의 깊이 맵에서 간접 광선들의 영향을 제거하기 위해 상기 데이터를 처리하도록 조정된다. 이러한 거리, 그리고 상기 물체의 최종적이고 정확한 깊이 맵을 결정하는 방법은 다음 단락들에서 설명될 것이다. 비행시간은 TOF 센서(21)에 연결될 수 있거나 또는 TOF 센서 그 자체로 직접 통합될 수 있는 별도의 처리 유닛에서 계산될 수 있다. 도 3에서, 상기 처리 수단(5)은 상기 조명 유닛(20)에 연결된 것으로 도시되어 있지만, 본 발명은 이에 제한되지 않는다.
이제, 씬의 물체와 TOF 카메라 시스템 사이의 거리를 측정하고 상기 물체의 깊이 맵을 제공하는 방법으로서, 상기 TOF 카메라 시스템(10)은 조명 유닛(20), 픽셀들(22, 23)의 매트릭스를 갖는 이미징 센서(21) 및 이미지 처리 수단(30)을 포함하는 것인, 방법이 도 3, 도 4, 도 5 및 도 6을 참조하여 설명될 것이다.
상기 방법은, 각각 직접 입사광선(25)을 간접 입사광선(26, 28)과 구별하기 위해 서로 다른 입사 강도들로 상기 씬의 기본 영역들(31, 32)을 조명을 비추도록 상기 조명 유닛(20)의 조명을 이산적인 방식으로 변경하는 단계를 포함한다. 예를 들어, 이러한 변경은 씬 상에 높고 낮은 광 강도를 갖는 기본 경계 영역들(delimited elementary areas)(31, 32)을 포함하는 광 패턴을 형성함으로써 수행될 수 있다. 이러한 광 패턴은 상기 패터닝 수단(30)을 상기 조명 유닛(20)의 전방에 배치함으로써, 그리고 이에 따라 상기 씬에 광 패턴을 투사함으로써 형성될 수 있다.
상기 센서(21)의 픽셀들은 이러한 기본 영역들(31, 32)에 의해 반사된 빔들을 수신하며, 그리고 이에 대응하는 데이터를 상기 이미지 처리 수단(30)에게 제공한다.
그 다음, 이러한 데이터는 간접 광선들의 영향을 제거하고 상기 물체의 정확한 깊이 맵을 얻기 위해 처리된다.
상기 씬 상에 투영된 상기 광 패턴은 중간 깊이 맵(29)에서 검색될 수 있다. 이는 도 3 및 도 5에 도시되어 있다. 패터닝 수단을 사용하지 않은 도 2의 깊이 맵(27) 및 패터닝 수단을 사용한 도 3의 깊이 맵(29)을 비교함으로써, 피크들(33)의 출현을 인지할 수 있다. 이러한 피크들(33)은 오직 2차 반사들만이 측정되는 상기 씬(24)의 영역들(31)에 대응한다. 실제로, 이러한 영역들에서, 2차 반사들이 없으면, 상기 이미징 센서(21)의 픽셀들은 광을 측정하지 않거나 작은 강도의 광을 측정해야한다. 왜냐하면, 정의에 따르면, 이러한 영역들(31)은 상기 광이 차단되거나 광 강도가 감소되는 패터닝 수단(30)의 영역들과 연관되기 때문이다. 참조번호 23의 픽셀 상에서 측정된 광은 상기 2차 반사(28)에 의해 더 지배되는 반면, 참조번호 22의 픽셀 상에서 측정된 광은 직접 성분(25) 및 간접 성분(26) 모두에 대응한다. 예를 들어 중간 깊이 맵(29) 상에서, 직접 입사 광선이 충돌할 수 없는 기본 영역들(31)을 식별하는 사실은 간접 입사광들의 영향을 제거하고 상기 물체의 최종적이고 정확한 깊이 맵을 획득하기 위해 사용될 수 있다. 참조번호 23의 픽셀에서 간접 성분들에 의해 지배되는 광의 TOF 측정에 의해 획득된 복소 데이터는, 예를 들어, 참조번호 22의 픽셀에서 직접 성분 및 간접 성분 모두에 의해 획득된 복소 데이터로부터 감산되어, 새로운 복소 데이터 NC를 형성할 수 있다. 복소 데이터에 대한 간접 성분의 기여도가 참조번호 22의 픽셀과 참조번호 23의 픽셀에서 동일하다면, 결과물인 복소 데이터 NC는 오직 직접 성분으로부터의 정보만을 포함한다. 참조번호 23의 픽셀이 상기 패터닝 수단(30)의 제한된 콘트라스트로 인해 여전히 작은 직접 성분을 수신했다할지라도, 결과물인 복소 데이터 NC는 더 작은 진폭을 가질 것이지만, 상기 직접 성분의 비행시간을 나타내는 정확한 위상을 가질 것이다.
도 5는 상기 씬(29)의 물체의 중간 깊이 맵 및 상기 TOF 카메라 시스템의 연관 픽셀들을 도시한다. 참조번호 40의 픽셀들은 오직 간접 성분들만을 측정하며, 그리고 더 높은 깊이 및 피크들(33)과 연관되는 반면, 참조번호 41의 픽셀들은 직접 성분 및 간접 성분 모두를 측정하며, 그리고 상기 깊이 맵(29)의 영역들(34)과 연관된다. 또한 상기 영역들(31)에 대응하는 상기 픽셀들의 식별은 신호 강도 맵을 사용하여 수행될 수 있으며, 이 경우 이러한 픽셀들은 누락된 직접 성분들로 인해 더 낮은 강도를 가질 것이다. 상기 영역들(31)과 관련된 픽셀들을 식별하기 위해 신뢰도 맵들 또는 노이즈 맵들 또한 사용될 수 있다.
도 3을 참조하면, 예를 들어 참조번호 22의 픽셀에 대해, 반사광의 직접 성분(25)만을 판단하기 위해, 참조번호 23의 픽셀에 의해 측정된 복소값에서 참조번호 22의 픽셀에 의해 측정된 복소값을 감산하여 새로운 복소값 NC를 형성할 수 있다.
실제 시스템에서, 2 개 이상의 픽셀들이 존재할 것이고, 그리고 간접 성분 함수는 참조번호 31의 영역들 상에서 취해진 샘플들에 의해 구성될 수 있다. 그 다음, 이러한 간접 성분 함수는 직접 성분 및 간접 성분 모두를 갖는 모든 픽셀들에 대해 보간되고 이러한 픽셀들에서 감산될 수 있으며, 이로써 직접 성분들만을 남겨둔다.
상기 씬이 매우 단순하고 상기 씬의 반사율이 이상적일 때, 간접 성분들과 연관된 값은 모든 영역들(31)에 의해 쉽게 샘플링될 수 있는 연속 함수이다. 왜냐하면, 간접 성분들은 상기 씬(24)의 Lambertian 반사율에 기인하기 때문이다.
상기 씬이 더 복잡할 때, 계산은 상이하게 수행될 수 있다. 예를 들어 도 6의 씬(40)은 문을 가진 제1 벽(43), 그리고 주어진 깊이를 가진 찬장(cupboard)(42)이 장착되어 있는 제2 벽을 포함한다. 이 예에서, 상기 찬장(42)의 반사에서 기인하는 간접 반사들 또는 상기 벽(43)에서 기인하는 간접 반사들은 유사한 측정들을 초래하지 않는다. 반사광의 직접 성분을 결정하기 위해, 상기 씬(40) 상의 광 패턴의 상이한 공간 존들(45, 46)이 결정될 수 있다. 설명을 위해, 도 6에서 서로 다른 형상들이 사용되었지만, 참조번호 45의 광 서브-패턴 및 참조번호 46의 광 서브-패턴 모두 상기 TOF 카메라 시스템(10)의 조명 유닛(20)의 전방에 배치된 동일한 패터닝 수단(30)으로부터 비롯된다는 것이 이해되어야 한다. 이제, 먼저, 상기 씬은 이용 가능한 깊이 데이터 또는 상기 씬을 분할하기에 유용한 임의의 추가 데이터를 사용하여 분할된다. 상기 씬의 각각의 세그먼트에 대해, 연속 함수는 각 세그먼트에 속하는 상기 영역들(31)에 의해 각각 샘플링될 수 있는 간접 성분들과 연관될 수 있다. 그 다음, 각 세그먼트와 연관된 간접 성분 함수는 직접 성분 및 간접 성분 모두를 갖는 픽셀들 내에 존재하는 원하지 않는 간접 성분들을 보완하는데 사용될 수 있다.

Claims (8)

  1. 씬(24, 40)의 물체(object)와 타임-오브-플라이트(Time-Of-Flight; TOF) 카메라 시스템(10) 간의 거리를 측정하고 상기 물체의 깊이 맵을 제공하는 방법으로서,
    상기 TOF 카메라 시스템(10)은 조명 유닛(20), 픽셀들(22, 23)의 매트릭스를 갖는 이미징 센서(21) 및 이미지 처리 수단(5)을 포함하고,
    상기 방법은:
    - 서로 다른 입사 강도들로 각각 상기 씬의 기본(elementary) 영역들(31, 32)을 조명하여 직접 입사광선들(25)을 간접 입사광선들(26, 28)과 구별하기 위해, 상기 조명 유닛(20)의 조명을 이산적인 방식으로 변경하는 단계;
    - 상기 센서(21)의 매트릭스의 픽셀들 상에서 상기 기본 영역들(31, 32)에 의해 반사된 빔들을 수신하고 광의 비행 시간 측정에 의해 획득된 대응하는 복소 데이터를 상기 이미지 처리 수단(5)에게 제공하는 단계;
    - 중간 깊이 맵(29) 상에서, 직접 입사광선이 충돌할 수 없는 기본 영역들(31)을 식별하는 단계로서, 이러한 영역들(31)은 광이 차단되거나 광 세기가 감소되는 패터닝 수단(30)의 영역들과 연관되는, 단계;
    - 직접 입사광선들 및 간접 입사광선들 모두에 의해 획득되는 복소 데이터에서, 입사광선들이 충돌할 수 있는 영역들에서 상기 간접 입사광선들에 의해 지배되는 광의 비행 시간 측정에 의해 획득된 복소 데이터를 감산하여 정확한 최종 맵에 대응하는 새로운 복소 데이터를 형성함으로써 상기 물체의 깊이 맵에서 간접 광선들의 영향을 제거하기 위해, 상기 대응하는 복소 데이터를 처리하는 단계
    를 포함하는 것을 특징으로 하는, 방법.
  2. 청구항 1에 있어서,
    상기 조명을 변경하는 단계는 직접 입사광선이 충돌할 수 없는 상기 씬 상의 기본 영역들(31)을 형성하기 위해 상기 조명 유닛(20)을 이산적인 방식으로 마스킹하는 단계인, 방법.
  3. 청구항 1 또는 청구항 2에 있어서,
    상기 대응하는 복소 데이터를 처리하는 단계는 오직 간접 입사광선들만이 충돌할 수 있는 기본 영역들(31)을 식별하는 단계를 포함하는, 방법.
  4. 청구항 1 또는 청구항 2에 있어서,
    각각 상기 픽셀들(22, 23)의 매트릭스의 서로 다른 픽셀들의 세트들과 연관된, 상기 씬(24, 40) 상의 기본 영역들의 서로 다른 두 개의 공간 존들(45, 46)을 결정하는 단계를 더 포함하는, 방법.
  5. 씬(24, 40)의 물체(object)와 타임-오브-플라이트(Time-Of-Flight; TOF) 카메라 시스템(10) 간의 거리를 측정하고 상기 물체의 깊이 맵을 제공하는 타임-오브-플라이트(TOF) 카메라 시스템(10)으로서,
    상기 TOF 카메라 시스템은:
    - 변조된 광으로 상기 씬(24)에 조명을 비추기 위한 조명 유닛(20);
    - 픽셀들(22, 23)의 매트릭스를 갖는 이미징 센서(21)로서, 상기 센서(21)의 매트릭스의 픽셀들 상에서 상기 씬(24, 40)에 의해 반사된 빔들을 수신하는 이미징 센서(21);
    - 상기 이미징 센서(21)로부터 상기 반사된 빔들에 대응하고 광의 비행 시간 측정에 의해 획득된 복소 데이터를 수신하고 상기 대응하는 복소 데이터를 처리하는 이미지 처리 수단(5)
    을 포함하고,
    상기 TOF 카메라 시스템은 서로 다른 입사 강도들로 각각 상기 씬의 기본(elementary) 영역들(31, 32)을 조명하여 직접 입사광선들(25)을 간접 입사광선들(26, 28)과 구별하기 위해, 상기 조명 유닛(20)의 조명을 이산적인 방식으로 변경하는 패터닝 수단(30)을 더 포함하고,
    상기 이미지 처리 수단(5)은, 상기 대응하는 복소 데이터를 처리할 때, 직접 입사광선들 및 간접 입사광선들 모두에 의해 획득되는 복소 데이터에서 상기 간접 입사광선들에 의해 지배되는 광의 비행 시간 측정에 의해 획득된 복소 데이터를 감산하여 새로운 복소 데이터를 형성함으로써 상기 물체의 깊이 맵에서 간접 광선들의 영향을 제거하도록 구성되는 것을 특징으로 하는, TOF 카메라 시스템.
  6. 청구항 5에 있어서,
    상기 패터닝 수단(30)은 상기 씬 상에 광 패턴(31, 32, 45, 46)을 투영하기 위해 조명 유닛(20)의 전방에 배치되는, TOF 카메라 시스템.
  7. 청구항 5 또는 청구항 6에 있어서,
    상기 패터닝 수단(30)은 일련의 동일한 패턴 그룹들(50)을 포함하는, TOF 카메라 시스템.
  8. 청구항 5 또는 청구항 6에 있어서,
    상기 패터닝 수단(30)은 직접 입사광선들이 상기 씬(24, 40)의 일부 기본 영역들(31) 상에 충돌하는 것을 방지하는 마스크를 포함하는, TOF 카메라 시스템.
KR1020177000302A 2014-06-11 2015-06-11 Tof 카메라 시스템 및 그 시스템과의 거리를 측정하는 방법 KR102432765B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14171985.6A EP2955544B1 (en) 2014-06-11 2014-06-11 A TOF camera system and a method for measuring a distance with the system
EP14171985.6 2014-06-11
PCT/EP2015/063015 WO2015189311A1 (en) 2014-06-11 2015-06-11 A tof camera system and a method for measuring a distance with the system

Publications (2)

Publication Number Publication Date
KR20170041681A KR20170041681A (ko) 2017-04-17
KR102432765B1 true KR102432765B1 (ko) 2022-08-17

Family

ID=50927987

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177000302A KR102432765B1 (ko) 2014-06-11 2015-06-11 Tof 카메라 시스템 및 그 시스템과의 거리를 측정하는 방법

Country Status (7)

Country Link
US (1) US10901090B2 (ko)
EP (1) EP2955544B1 (ko)
JP (2) JP2017517737A (ko)
KR (1) KR102432765B1 (ko)
CN (1) CN106662651B (ko)
BE (1) BE1022486B1 (ko)
WO (1) WO2015189311A1 (ko)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10302768B2 (en) * 2016-05-09 2019-05-28 Microsoft Technology Licensing, Llc Multipath signal removal in time-of-flight camera apparatus
US10928489B2 (en) * 2017-04-06 2021-02-23 Microsoft Technology Licensing, Llc Time of flight camera
US10598768B2 (en) 2017-05-24 2020-03-24 Microsoft Technology Licensing, Llc Multipath mitigation for time of flight system
EP3460508A1 (en) * 2017-09-22 2019-03-27 ams AG Semiconductor body and method for a time-of-flight measurement
US10215856B1 (en) 2017-11-27 2019-02-26 Microsoft Technology Licensing, Llc Time of flight camera
US11662433B2 (en) * 2017-12-22 2023-05-30 Denso Corporation Distance measuring apparatus, recognizing apparatus, and distance measuring method
US10901087B2 (en) * 2018-01-15 2021-01-26 Microsoft Technology Licensing, Llc Time of flight camera
CN108259744B (zh) * 2018-01-24 2020-06-23 北京图森智途科技有限公司 图像采集控制方法及其装置、图像采集系统和tof相机
JP7253323B2 (ja) * 2018-02-14 2023-04-06 オムロン株式会社 3次元計測システム及び3次元計測方法
JP6918210B2 (ja) 2018-03-29 2021-08-11 ヌヴォトンテクノロジージャパン株式会社 距離情報取得装置、マルチパス検出装置およびマルチパス検出方法
EP3791210A1 (en) 2018-05-09 2021-03-17 Sony Semiconductor Solutions Corporation Device and method
CN109459738A (zh) * 2018-06-06 2019-03-12 杭州艾芯智能科技有限公司 一种多台tof相机相互避免干扰的方法及系统
US11609313B2 (en) * 2018-07-31 2023-03-21 Waymo Llc Hybrid time-of-flight and imager module
JP2020020681A (ja) 2018-08-01 2020-02-06 ソニーセミコンダクタソリューションズ株式会社 光源装置、イメージセンサ、センシングモジュール
KR102570059B1 (ko) * 2018-08-16 2023-08-23 엘지이노텍 주식회사 센싱 방법 및 장치
US11353588B2 (en) 2018-11-01 2022-06-07 Waymo Llc Time-of-flight sensor with structured light illuminator
US11029149B2 (en) 2019-01-30 2021-06-08 Microsoft Technology Licensing, Llc Multipath mitigation for time of flight system
JP7208052B2 (ja) * 2019-02-15 2023-01-18 株式会社豊田中央研究所 光学的測距装置
US11698441B2 (en) * 2019-03-22 2023-07-11 Viavi Solutions Inc. Time of flight-based three-dimensional sensing system
JPWO2020218283A1 (ko) * 2019-04-22 2020-10-29
TWI732424B (zh) * 2019-05-02 2021-07-01 大陸商廣州印芯半導體技術有限公司 具有距離感測功能的影像感測器及其操作方法
US11070757B2 (en) 2019-05-02 2021-07-20 Guangzhou Tyrafos Semiconductor Technologies Co., Ltd Image sensor with distance sensing function and operating method thereof
US11479849B2 (en) * 2019-06-03 2022-10-25 Taiwan Semiconductor Manufacturing Company, Ltd. Physical vapor deposition chamber with target surface morphology monitor
US11644571B2 (en) 2019-07-01 2023-05-09 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
CN112213730B (zh) * 2019-07-10 2024-05-07 睿镞科技(北京)有限责任公司 三维测距方法和装置
CN110378946B (zh) * 2019-07-11 2021-10-01 Oppo广东移动通信有限公司 深度图处理方法、装置以及电子设备
CN112824935B (zh) * 2019-11-20 2023-02-28 深圳市光鉴科技有限公司 基于调制光场的深度成像系统、方法、设备及介质
CN112824934B (zh) * 2019-11-20 2024-05-07 深圳市光鉴科技有限公司 基于调制光场的tof多径干扰去除方法、系统、设备及介质
CN111045030B (zh) * 2019-12-18 2022-09-13 奥比中光科技集团股份有限公司 一种深度测量装置和方法
KR20210084752A (ko) * 2019-12-27 2021-07-08 삼성전자주식회사 광원 및 ToF 센서를 포함하는 전자 장치 및 라이다 시스템
US20210255327A1 (en) * 2020-02-17 2021-08-19 Mediatek Inc. Emission And Reception Of Patterned Light Waves For Range Sensing
WO2022201848A1 (ja) * 2021-03-22 2022-09-29 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
WO2022203717A1 (en) * 2021-03-26 2022-09-29 Qualcomm Incorporated Mixed-mode depth imaging
RU2770153C1 (ru) * 2021-06-15 2022-04-14 Самсунг Электроникс Ко., Лтд. Способ корректировки ошибки измерения глубины tof-камеры
CN113665904B (zh) * 2021-09-07 2023-04-07 钟放鸿 基于tof技术的条盒香烟缺包检测方法
US11922606B2 (en) 2021-10-04 2024-03-05 Samsung Electronics Co., Ltd. Multipass interference correction and material recognition based on patterned illumination without frame rate loss
CN113945951B (zh) * 2021-10-21 2022-07-08 浙江大学 Tof深度解算中的多径干扰抑制方法、tof深度解算方法及装置
CN118541725A (zh) * 2021-12-17 2024-08-23 艾迈斯-欧司朗亚太私人有限公司 用于生成深度图的方法
JP2023172742A (ja) * 2022-05-24 2023-12-06 Toppanホールディングス株式会社 距離画像撮像装置、及び距離画像撮像方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130088726A1 (en) * 2011-10-07 2013-04-11 Vivek K. Goyal Method and Apparatus to Determine Depth Information For A Scene of Interest
US20150253429A1 (en) * 2014-03-06 2015-09-10 University Of Waikato Time of flight camera system which resolves direct and multi-path radiation components
US20160178737A1 (en) * 2013-08-21 2016-06-23 Pmdtechnologies Gmbh Scattered light reference pixel

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040213463A1 (en) * 2003-04-22 2004-10-28 Morrison Rick Lee Multiplexed, spatially encoded illumination system for determining imaging and range estimation
US9002511B1 (en) * 2005-10-21 2015-04-07 Irobot Corporation Methods and systems for obstacle detection using structured light
JP2008309551A (ja) 2007-06-13 2008-12-25 Nikon Corp 形状測定方法、記憶媒体、および形状測定装置
US20100157280A1 (en) * 2008-12-19 2010-06-24 Ambercore Software Inc. Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions
JP2012513694A (ja) * 2008-12-22 2012-06-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 単光子計数機能を備えるcmos撮像装置
US8491135B2 (en) * 2010-01-04 2013-07-23 Microvision, Inc. Interactive projection with gesture recognition
EP2395369A1 (en) 2010-06-09 2011-12-14 Thomson Licensing Time-of-flight imager.
US9753128B2 (en) 2010-07-23 2017-09-05 Heptagon Micro Optics Pte. Ltd. Multi-path compensation using multiple modulation frequencies in time of flight sensor
DE102011081561B4 (de) 2011-08-25 2024-06-13 pmdtechnologies ag Lichtlaufzeitkamerasystem mit Signalpfadüberwachung
JP2013078433A (ja) * 2011-10-03 2013-05-02 Panasonic Corp 監視装置、プログラム
US9329035B2 (en) * 2011-12-12 2016-05-03 Heptagon Micro Optics Pte. Ltd. Method to compensate for errors in time-of-flight range cameras caused by multiple reflections
WO2013121267A1 (en) * 2012-02-15 2013-08-22 Mesa Imaging Ag Time of flight camera with stripe illumination
US9472005B1 (en) * 2012-04-18 2016-10-18 Amazon Technologies, Inc. Projection and camera system for augmented reality environment
US9696427B2 (en) * 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
US9857166B2 (en) 2012-09-19 2018-01-02 Canon Kabushiki Kaisha Information processing apparatus and method for measuring a target object
JP6071363B2 (ja) 2012-09-19 2017-02-01 キヤノン株式会社 距離計測装置及び方法
US9069080B2 (en) * 2013-05-24 2015-06-30 Advanced Scientific Concepts, Inc. Automotive auxiliary ladar sensor
US10302768B2 (en) * 2016-05-09 2019-05-28 Microsoft Technology Licensing, Llc Multipath signal removal in time-of-flight camera apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130088726A1 (en) * 2011-10-07 2013-04-11 Vivek K. Goyal Method and Apparatus to Determine Depth Information For A Scene of Interest
US20160178737A1 (en) * 2013-08-21 2016-06-23 Pmdtechnologies Gmbh Scattered light reference pixel
US20150253429A1 (en) * 2014-03-06 2015-09-10 University Of Waikato Time of flight camera system which resolves direct and multi-path radiation components

Also Published As

Publication number Publication date
BE1022486B1 (fr) 2016-05-03
JP7191921B2 (ja) 2022-12-19
US10901090B2 (en) 2021-01-26
JP2021039131A (ja) 2021-03-11
CN106662651A (zh) 2017-05-10
WO2015189311A1 (en) 2015-12-17
KR20170041681A (ko) 2017-04-17
EP2955544B1 (en) 2020-06-17
EP2955544A1 (en) 2015-12-16
JP2017517737A (ja) 2017-06-29
US20170123067A1 (en) 2017-05-04
CN106662651B (zh) 2019-08-06

Similar Documents

Publication Publication Date Title
KR102432765B1 (ko) Tof 카메라 시스템 및 그 시스템과의 거리를 측정하는 방법
US20200309914A1 (en) Spatially self-similar patterned illumination for depth imaging
US9709387B2 (en) Image generation device for acquiring distances of objects present in image space
CN110709722B (zh) 飞行时间摄像机
US11536804B2 (en) Glare mitigation in LIDAR applications
US8150142B2 (en) Depth mapping using projected patterns
WO2020150131A1 (en) Three-dimensional sensor including bandpass filter having multiple passbands
US20120098935A1 (en) 3d time-of-flight camera and method
US20150319347A1 (en) Methods and apparatus for imaging in scattering environments
US10533846B2 (en) Image generation device, image generating method, and pattern light generation device
US10151837B2 (en) Optoelectronic sensor
US11073379B2 (en) 3-D environment sensing by means of projector and camera modules
US20140362385A1 (en) Measuring device of measurement object, calculating device, measurement method, and method for producing item
CN109673159B (zh) 基于多结构化照明的3d传感技术
KR20210008023A (ko) 디바이스 및 방법
KR102402477B1 (ko) ToF 모듈
JP2014070936A (ja) 誤差画素検出装置、誤差画素検出方法、および誤差画素検出プログラム
US20090115993A1 (en) Device and Method for Recording Distance Images
US9992472B1 (en) Optoelectronic devices for collecting three-dimensional data
CN116209921A (zh) 用于飞行时间相机系统的动态扩展的方法和设备
CN108462819B (zh) 用于运行相机用的光源的方法、光源、相机
CN112946602A (zh) 多路径误差补偿的方法和多路径误差补偿的间接飞行时间距离计算装置
US20230224428A1 (en) Information processing device, composite video generation method, and program
WO2020262446A1 (ja) 車両用灯具
JP2020139821A (ja) 検査装置、検査システム及び検査方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant