KR102432765B1 - Tof 카메라 시스템 및 그 시스템과의 거리를 측정하는 방법 - Google Patents
Tof 카메라 시스템 및 그 시스템과의 거리를 측정하는 방법 Download PDFInfo
- Publication number
- KR102432765B1 KR102432765B1 KR1020177000302A KR20177000302A KR102432765B1 KR 102432765 B1 KR102432765 B1 KR 102432765B1 KR 1020177000302 A KR1020177000302 A KR 1020177000302A KR 20177000302 A KR20177000302 A KR 20177000302A KR 102432765 B1 KR102432765 B1 KR 102432765B1
- Authority
- KR
- South Korea
- Prior art keywords
- scene
- light
- indirect
- complex data
- pixels
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4911—Transmitters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
- G01S7/487—Extracting wanted echo signals, e.g. pulse detection
- G01S7/4876—Extracting wanted echo signals, e.g. pulse detection by removing unwanted signals
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/493—Extracting wanted echo signals
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/46—Indirect determination of position data
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
본 발명은 씬의 물체(object) 및 타임-오브-플라이트(Time-Of-Flight; TOF) 카메라 시스템 간의 거리를 측정하고 상기 물체의 깊이 맵을 제공하는 방법으로서, 상기 TOF 카메라 시스템은 조명 유닛, 픽셀들의 매트릭스를 갖는 이미징 센서 및 이미지 처리 수단을 포함하며, 상기 방법은 : 서로 다른 입사 강도들로 각각 상기 씬의 기본(elementary) 영역들을 조명하여 직접 입사광선들을 간접 입사광선들과 구별하기 위해, 상기 조명 유닛의 조명을 이산적인 방식으로 변경하는 단계; 상기 센서의 매트릭스의 픽셀들 상에서 상기 기본 영역들에 의해 반사된 빔들을 수신하며, 그리고 대응 데이터를 상기 이미지 처리 수단에게 제공하는 단계; 상기 물체의 깊이 맵에서 상기 간접 광선들의 영향을 제거하기 위해, 상기 대응 데이터를 처리하는 단계를 포함하는 것을 특징으로 하는, 방법에 관한 것이다.
Description
본 발명은 (i) 타임 오브 플라이트(Time-Of-Flightl TOF) 카메라 시스템 및 씬(scene)의 물체(object) 간의 거리를 측정하는 방법, 그리고 (ii) 상기 방법과 연관된 타임-오브-플라이트 카메라 시스템에 관한 것이다. 특히, 본 발명은 씬 내의 광의 직접 반사 및 간접 반사의 문제와 관련되며, 그리고 이러한 다중 반사들에 의해 유도되는 깊이 측정의 오차에 관한 것이다. 씬은 광선이 직접적으로 또는 간접적으로 반사될 수 있는 물체를 둘러싸는 모든 표면들을 의미한다는 것이 이해되어야 한다.
타임-오브-플라이트(TOF)는 깊이 인식을 위한 유망한 기술이다. 표준 TOF 카메라 시스템(3)의 잘-알려진 기본적인 동작 원리는 도 1에 도시되어 있다. 상기 TOF 카메라 시스템(3)은 전용 조명 유닛(18)으로부터 물체까지의 광의 비행시간을 분석함으로써 씬(15)의 3D 이미지들을 캡처한다. TOF 카메라 시스템(3)은 카메라(예를 들어, 픽셀들의 매트릭스(1)) 및 데이터 처리 수단(4)을 포함한다. 상기 씬(15)은 상기 전용 조명 유닛(18)을 사용하여 미리 정해진 파장의 변조된 광(16)으로, 예를 들면 적어도 하나의 미리 정해진 주파수의 일부 광 펄스들로, 능동적으로 조명된다. 상기 변조된 광은 그 씬 내의 물체들로부터 반대로 반사된다. 렌즈(2)는 그 반사된 광(17)을 모으며, 그리고 상기 카메라의 이미징 센서(1) 상에 상기 물체들의 이미지를 형성한다. 상기 카메라로부터 물체들까지의 거리에 따라, 상기 변조된 광의 방사(예를 들면, 소위 광 펄스들의 방사)와 상기 카메라에서의 상기 반사된 광 펄스들의 수신 사이에 지연이 존재한다. 반사 물체들과 카메라 간의 거리는 관찰된 지연 시간 및 광속 상수 값의 함수로서 결정될 수 있다.
이 기술의 단점들 중 하나는 도 2에 도시되어 있으며, 이는 소위 다중 경로 현상과 관련이 있다. 여러 방향으로 씬(24)에 조명을 비추기 위한 조명 유닛(8), 방출된 광의 반사들을 검출하기 위한 TOF 센서(6), 그리고 상기 TOF 센서(6)에 의해 수집된 데이터를 처리하기 위한 처리 수단(7)을 포함하는 표준 TOF 카메라 시스템(9)이 도시되어 있다.
상기 TOF 센서(6)의 픽셀들(도시되어 있지 않음)은 상기 조명 유닛(8)으로부터 상기 씬(24)까지, 그리고 상기 씬(24)으로부터 다시 상기 픽셀들까지의 직경로(25)를 측정한다. 그러나 2차 반사들(26) 또는 더 높은 차수의 반사들은 동일한 픽셀 상에서 캡처될 수 있을뿐만 아니라, 1차 직접 반사(25)에 대한 상기 인지된 지연을 왜곡할 수도 있다. 상기 센서(6)에 의해 캡처된 광은 상기 직경로(25) 및 상기 2차 반사(26) 모두로부터 유래할 수 있으며, 이로써, 상기 씬의 각각의 포인트와 연관된 깊이를 도시하는 측정된 깊이맵(27)에는 오류가 있다.
종래기술에서, 충돌하는 광의 직접 성분(direct component)을 회수하기 위한 몇 가지 방법이 구현되어왔다. 예를 들어, 여러 주파수 접근법들은 서로 다른 변조 주파수들을 갖는 한 세트의 깊이 측정들을 획득함으로써 수행되어 왔지만, 획득된 해상도는 낮게 유지된다.
다른 접근법은 예를 들어 DLP(Digital Light Processing) 프로젝터에 의해 생성되는 한 세트의 서로 다른 공간 패턴들을 사용한다. 패턴의 검은색 부분으로부터 획득된 깊이는 오직 다중 경로에서 발생하는 간접 신호에 의해서만 생성되기 때문에, 씬(scene)에 어둡고 밝은 패치들을 형성함으로써, 직접 및 간접 성분들이 분리될 수 있다. 서로 다른 패턴들은 씬의 각 부분이 검은 상황에서 캡처되는 방식으로 선택된다. 에지-효과들은 충분한 겹침이 있는 패턴들을 정의함으로써 상쇄된다. 그러나 이러한 서로 다른 패턴들을 생성하는 것은 비용이 많이 든다.
씬의 물체들과 TOF 카메라 시스템 사이의 거리들의 더 정확한 측정들을 수행하기 위해, 가장 비용 효율적으로 반사광의 직접 성분만을 추출하기 위한 해결책이 제안되어야 한다.
본 발명은 씬(scene)의 물체(object) 및 타임-오브-플라이트(Time-Of-Flight; TOF) 카메라 시스템 간의 거리를 측정하고 상기 물체의 깊이 맵을 제공하는 방법으로서, 상기 TOF 카메라 시스템은 조명 유닛, 픽셀들의 매트릭스를 갖는 이미징 센서 및 이미지 처리 수단을 포함하며, 상기 방법은 :
- 서로 다른 입사 강도들로 각각 상기 씬의 기본(elementary) 영역들을 조명하여 직접 입사광선들을 간접 입사광선들과 구별하기 위해, 상기 조명 유닛의 조명을 이산적인 방식으로 변경하는 단계;
- 상기 센서의 매트릭스의 픽셀들 상에서 상기 기본 영역들에 의해 반사된 빔들을 수신하며, 그리고 대응 데이터를 상기 이미지 처리 수단에게 제공하는 단계;
- 상기 물체의 깊이 맵에서 상기 간접 광선들의 영향을 제거하기 위해, 상기 대응 데이터를 처리하는 단계를 포함하는 것을 특징으로 하는, 방법에 관한 것이다.
유리하게는, 상기 데이터를 처리할 때, 상기 방법은 오직 간접 입사광들만이 충돌할 수 있는 기본 영역들과 연관된 피크들을, 예를 들어 중간 깊이 맵들(이에 제한되지 않음) 상에서, 식별하는 단계를 포함할 수 있다. 그러한 피크들을 식별함으로써, 상기 데이터는 간접 광선들의 영향을 제거하고 상기 씬의 정확한 최종 깊이 맵을 얻도록 처리될 수 있다.
본 발명은 씬의 물체 및 타임-오브-플라이트(Time-Of-Flight; TOF) 카메라 시스템 간의 거리를 측정하고 상기 물체의 깊이 맵을 제공하는 타임-오브-플라이트(TOF) 카메라 시스템으로서, 상기 TOF 카메라 시스템은 :
- 변조된 광으로 상기 씬에 조명을 비추기 위한 조명 유닛;
- 픽셀들의 매트릭스를 갖는 이미징 센서로서, 상기 센서의 매트릭스의 픽셀들 상에서 상기 씬에 의해 반사된 빔들을 수신하는 이미징 센서;
- 상기 이미징 센서로부터 상기 반사된 빔들에 대응하는 데이터를 수신하며, 그리고 상기 대응 데이터를 처리하는 이미징 처리 수단을 포함하며,
상기 TOF 카메라 시스템은 서로 다른 입사 강도들로 각각 상기 씬의 기본(elementary) 영역들을 조명하여 직접 입사광선들을 간접 입사광선들과 구별하기 위해, 상기 조명 유닛의 조명을 이산적인 방식으로 변경하며, 그리고 상기 대응 데이터를 처리할 때, 상기 물체의 깊이 맵에서 상기 간접 광선들의 영향을 제거하는 패터닝 수단(30)을 더 포함하는 것을 특징으로 하는, TOF 카메라 시스템에 관한 것이다.
유리하게는, 상기 조명의 변경은 상기 조명 유닛을 이산적인 방식으로 마스킹함으로써 수행된다. 예를 들어 상기 패터닝 수단은 직접 입사광선들이 상기 씬의 일부 기본 영역들 상에 충돌하는 것을 방지하는 마스크일 수 있다.
더 유리하게는, 상기 패터닝 수단은 보다 용이한 데이터 처리를 가능하게 하는 일련의 동일한 패턴 그룹들을 포함할 수 있다.
본 발명의 다른 장점들 및 신규한 특징들은 첨부 도면들을 참조하여 다음의 상세한 설명들로부터 더욱 명백해질 것이다.
본 발명은 이하의 설명 및 첨부 도면에 비추어 보다 잘 이해될 것이다.
도 1은 TOF 카메라 시스템의 기본 작동 원리를 보여준다.
도 2는 다중 경로 현상을 도시한다.
도 3은 본 발명의 일실시예에 따른 TOF 카메라 시스템을 도시한다.
도 4는 패터닝 수단의 예를 도시한다.
도 5는 씬의 중간 깊이 맵 및 TOF 카메라 시스템의 연관 픽셀들을 도시한다.
도 6은 씬, 그리고 2 개의 서로 다른 공간 구역들을 포함하는 상기 씬에 투영된 광 패턴을 도시한다.
본 발명의 이점들 및 신규한 특징들은 첨부된 도면과 관련하여 다음의 상세한 설명으로부터 더욱 명백해질 것이다.
도 1은 TOF 카메라 시스템의 기본 작동 원리를 보여준다.
도 2는 다중 경로 현상을 도시한다.
도 3은 본 발명의 일실시예에 따른 TOF 카메라 시스템을 도시한다.
도 4는 패터닝 수단의 예를 도시한다.
도 5는 씬의 중간 깊이 맵 및 TOF 카메라 시스템의 연관 픽셀들을 도시한다.
도 6은 씬, 그리고 2 개의 서로 다른 공간 구역들을 포함하는 상기 씬에 투영된 광 패턴을 도시한다.
본 발명의 이점들 및 신규한 특징들은 첨부된 도면과 관련하여 다음의 상세한 설명으로부터 더욱 명백해질 것이다.
도 3은 본 발명의 일실시예에 따른 TOF 카메라 시스템(10)을 도시한다. 상기 타임 오브 플라이트 카메라 시스템(10)은 변조된 광으로 씬(24)에 조명을 비추기 위해 조명 유닛(20)을 포함한다. 이러한 조명 유닛(20)에 의해 방출된 광은 TOF 기술을 사용하여 거리들을 측정하기에 적합하도록 조정된다. 예를 들어, 상기 조명 유닛(20)은 적절한 펄스폭을 갖는 광 펄스들을 방출하도록 배열될 수 있다. 실제로, 펄스들을 사용할 때, 각 광 펄스의 펄스폭은 카메라 범위를 결정한다. 예를 들어, 50 ns의 펄스폭에 대해, 상기 범위는 7.5 m로 제한된다. 그 결과, 씬의 조명은 TOF 카메라 시스템의 작동에 중요하게 되며, 그리고 조명 유닛들에 대한 고속 구동 주파수 요건들은 그러한 짧은 광 펄스들을 생성하기 위해 발광 다이오드(LED) 또는 레이저들과 같은 특수한 광원들의 사용을 필요로 한다. 상기 조명 유닛은 도 3에 도시된 다수의 방출된 광선들(25, 26, 28)에 의해 표시된 바와 같이 다-방향 광들을 방출하도록 조정된다.
상기 TOF 카메라 시스템은 반사된 빔을 수신 및 검출하고 상기 씬(24)의 이미지를 형성하기 위해 픽셀들의 매트릭스 어레이를 일반적으로 포함하는 이미징 센서(21)를 더 포함한다. 명료성 및 설명을 위해, 도 3에는 오직 2 개의 픽셀들(22, 23)만이 도시되어 있지만, 본 발명은 2 개의 픽셀들의 매트릭스로 제한되어서는 안 된다. 픽셀에 의해, 광 전자기 방사(light electromagnetic radiation)에 민감한 화소 및 그와 연관된 전자 회로가 이해되어야 한다. 픽셀들의 출력은 상기 조명 유닛(20)으로부터 상기 씬(24) 내의 물체까지, 그리고 상기 물체로부터 상기 이미징 TOF 센서(21)까지 다시 반사되는 광의 TOF를 결정하는데 사용될 수 있다.
상기 TOF 카메라 시스템(10)은 상기 씬(24) 상에 광 패턴을 생성하기 위한 패터닝 수단(30)을 더 포함한다. 상기 광 패턴은 레이저 광 간섭들로부터 직접적으로 얻어지는 본래의 레이저 스펙클(speckle) 패턴일 수 있으며, 또는 상기 조명 유닛(20)의 전방에 배치될 수 있는 패터닝 수단으로부터 얻어질 수 있으며, 또는 레이저 스펙클 및 패터닝 수단(20)의 조합일 수 있다. 상기 패터닝 수단(30)을 사용할 때, 상기 조명 유닛(20)에 의해 방출된 광은 이러한 패터닝 수단을 통과하며, 상기 패터닝 수단은 상기 광이 변경될 수 있게 유발하며, 그리고 상기 광이 상기 씬 상에 상이한 강도들의 기본 경계 영역들(delimited elementary areas)(31, 32)을 갖는 광 패턴을 형성하도록 유발한다. 상기 씬(24)에 충돌하기 전에, 상기 조명 유닛(20)에 의해 방출된 광은 상기 패터닝 수단(30)의 주어진 영역들 상에서 차단되거나 그 강도가 감소될 수 있으며, 그리고 다른 영역들에서는 차단되지 않을 수 있다. 이는 각각 상기 씬 상에 낮은 광 강도를 갖는 영역(31) 및 높은 광 강도를 갖는 영역(32)의 형성을 야기한다. 설명을 위해, 이러한 영역들은 두꺼운 선들(31, 32)에 의해 도시되어 있지만, 상기 씬에 형성된 광 패턴은 상기 씬(24)에 부착된 견고하거나 물리적인 패턴이 아니지만 상기 조명 유닛(20)의 전방에 배치된 상기 패턴 수단(30)으로부터 기인한 광 효과들의 결과임이 이해되어야 한다. 상기 광 패턴은 상기 조명 유닛(20)에 의해 상기 씬 상에 투영된다. 상기 패터닝 수단(30)은 필터링 수단, 마스크, 그리드, 또는 조명을 이산적으로 변형시킬 수 있는 임의의 수단일 수 있다. 이상적으로는, 상기 패터닝 수단은 오직 2차 반사들만이 측정되는 영역들(31)을 용이하게 검색하기 위해, 상기 씬 상에 공간적으로 주기적인 광 패턴(31, 32, 45, 46)을 제공해야 한다. 또한, 상기 패터닝 수단(30)은 도 4에 도시된 바와 같이 일련의 동일한 패턴 그룹들(50), 또는 TOF 카메라 프레임 레이트의 배수와 시간적으로 동시에 순차적으로 사용될 수 있는 일련의 서로 다른 패턴 그룹들을 포함할 수 있다.
본 발명은 100 %의 콘트라스트를 갖는 패턴을 필요로 하지 않으며, 패터닝 수단을 이미지 센서에 정렬시킬 필요가 없다는 것에 주목하는 것이 중요하다.
상기 TOF 카메라 시스템(10)은 조명에 의해 방출되는 광의 비행시간(TOF)을 결정하고 이로써 상기 씬(24)의 물체 및 상기 이미징 센서(21) 간의 거리를 결정하는 처리 수단(5)을 더 포함한다. 상기 처리 수단(30)은 상기 이미징 센서(21)의 픽셀들로부터 데이터를 수신하도록, 그리고 상기 물체의 깊이 맵에서 간접 광선들의 영향을 제거하기 위해 상기 데이터를 처리하도록 조정된다. 이러한 거리, 그리고 상기 물체의 최종적이고 정확한 깊이 맵을 결정하는 방법은 다음 단락들에서 설명될 것이다. 비행시간은 TOF 센서(21)에 연결될 수 있거나 또는 TOF 센서 그 자체로 직접 통합될 수 있는 별도의 처리 유닛에서 계산될 수 있다. 도 3에서, 상기 처리 수단(5)은 상기 조명 유닛(20)에 연결된 것으로 도시되어 있지만, 본 발명은 이에 제한되지 않는다.
이제, 씬의 물체와 TOF 카메라 시스템 사이의 거리를 측정하고 상기 물체의 깊이 맵을 제공하는 방법으로서, 상기 TOF 카메라 시스템(10)은 조명 유닛(20), 픽셀들(22, 23)의 매트릭스를 갖는 이미징 센서(21) 및 이미지 처리 수단(30)을 포함하는 것인, 방법이 도 3, 도 4, 도 5 및 도 6을 참조하여 설명될 것이다.
상기 방법은, 각각 직접 입사광선(25)을 간접 입사광선(26, 28)과 구별하기 위해 서로 다른 입사 강도들로 상기 씬의 기본 영역들(31, 32)을 조명을 비추도록 상기 조명 유닛(20)의 조명을 이산적인 방식으로 변경하는 단계를 포함한다. 예를 들어, 이러한 변경은 씬 상에 높고 낮은 광 강도를 갖는 기본 경계 영역들(delimited elementary areas)(31, 32)을 포함하는 광 패턴을 형성함으로써 수행될 수 있다. 이러한 광 패턴은 상기 패터닝 수단(30)을 상기 조명 유닛(20)의 전방에 배치함으로써, 그리고 이에 따라 상기 씬에 광 패턴을 투사함으로써 형성될 수 있다.
상기 센서(21)의 픽셀들은 이러한 기본 영역들(31, 32)에 의해 반사된 빔들을 수신하며, 그리고 이에 대응하는 데이터를 상기 이미지 처리 수단(30)에게 제공한다.
그 다음, 이러한 데이터는 간접 광선들의 영향을 제거하고 상기 물체의 정확한 깊이 맵을 얻기 위해 처리된다.
상기 씬 상에 투영된 상기 광 패턴은 중간 깊이 맵(29)에서 검색될 수 있다. 이는 도 3 및 도 5에 도시되어 있다. 패터닝 수단을 사용하지 않은 도 2의 깊이 맵(27) 및 패터닝 수단을 사용한 도 3의 깊이 맵(29)을 비교함으로써, 피크들(33)의 출현을 인지할 수 있다. 이러한 피크들(33)은 오직 2차 반사들만이 측정되는 상기 씬(24)의 영역들(31)에 대응한다. 실제로, 이러한 영역들에서, 2차 반사들이 없으면, 상기 이미징 센서(21)의 픽셀들은 광을 측정하지 않거나 작은 강도의 광을 측정해야한다. 왜냐하면, 정의에 따르면, 이러한 영역들(31)은 상기 광이 차단되거나 광 강도가 감소되는 패터닝 수단(30)의 영역들과 연관되기 때문이다. 참조번호 23의 픽셀 상에서 측정된 광은 상기 2차 반사(28)에 의해 더 지배되는 반면, 참조번호 22의 픽셀 상에서 측정된 광은 직접 성분(25) 및 간접 성분(26) 모두에 대응한다. 예를 들어 중간 깊이 맵(29) 상에서, 직접 입사 광선이 충돌할 수 없는 기본 영역들(31)을 식별하는 사실은 간접 입사광들의 영향을 제거하고 상기 물체의 최종적이고 정확한 깊이 맵을 획득하기 위해 사용될 수 있다. 참조번호 23의 픽셀에서 간접 성분들에 의해 지배되는 광의 TOF 측정에 의해 획득된 복소 데이터는, 예를 들어, 참조번호 22의 픽셀에서 직접 성분 및 간접 성분 모두에 의해 획득된 복소 데이터로부터 감산되어, 새로운 복소 데이터 NC를 형성할 수 있다. 복소 데이터에 대한 간접 성분의 기여도가 참조번호 22의 픽셀과 참조번호 23의 픽셀에서 동일하다면, 결과물인 복소 데이터 NC는 오직 직접 성분으로부터의 정보만을 포함한다. 참조번호 23의 픽셀이 상기 패터닝 수단(30)의 제한된 콘트라스트로 인해 여전히 작은 직접 성분을 수신했다할지라도, 결과물인 복소 데이터 NC는 더 작은 진폭을 가질 것이지만, 상기 직접 성분의 비행시간을 나타내는 정확한 위상을 가질 것이다.
도 5는 상기 씬(29)의 물체의 중간 깊이 맵 및 상기 TOF 카메라 시스템의 연관 픽셀들을 도시한다. 참조번호 40의 픽셀들은 오직 간접 성분들만을 측정하며, 그리고 더 높은 깊이 및 피크들(33)과 연관되는 반면, 참조번호 41의 픽셀들은 직접 성분 및 간접 성분 모두를 측정하며, 그리고 상기 깊이 맵(29)의 영역들(34)과 연관된다. 또한 상기 영역들(31)에 대응하는 상기 픽셀들의 식별은 신호 강도 맵을 사용하여 수행될 수 있으며, 이 경우 이러한 픽셀들은 누락된 직접 성분들로 인해 더 낮은 강도를 가질 것이다. 상기 영역들(31)과 관련된 픽셀들을 식별하기 위해 신뢰도 맵들 또는 노이즈 맵들 또한 사용될 수 있다.
도 3을 참조하면, 예를 들어 참조번호 22의 픽셀에 대해, 반사광의 직접 성분(25)만을 판단하기 위해, 참조번호 23의 픽셀에 의해 측정된 복소값에서 참조번호 22의 픽셀에 의해 측정된 복소값을 감산하여 새로운 복소값 NC를 형성할 수 있다.
실제 시스템에서, 2 개 이상의 픽셀들이 존재할 것이고, 그리고 간접 성분 함수는 참조번호 31의 영역들 상에서 취해진 샘플들에 의해 구성될 수 있다. 그 다음, 이러한 간접 성분 함수는 직접 성분 및 간접 성분 모두를 갖는 모든 픽셀들에 대해 보간되고 이러한 픽셀들에서 감산될 수 있으며, 이로써 직접 성분들만을 남겨둔다.
상기 씬이 매우 단순하고 상기 씬의 반사율이 이상적일 때, 간접 성분들과 연관된 값은 모든 영역들(31)에 의해 쉽게 샘플링될 수 있는 연속 함수이다. 왜냐하면, 간접 성분들은 상기 씬(24)의 Lambertian 반사율에 기인하기 때문이다.
상기 씬이 더 복잡할 때, 계산은 상이하게 수행될 수 있다. 예를 들어 도 6의 씬(40)은 문을 가진 제1 벽(43), 그리고 주어진 깊이를 가진 찬장(cupboard)(42)이 장착되어 있는 제2 벽을 포함한다. 이 예에서, 상기 찬장(42)의 반사에서 기인하는 간접 반사들 또는 상기 벽(43)에서 기인하는 간접 반사들은 유사한 측정들을 초래하지 않는다. 반사광의 직접 성분을 결정하기 위해, 상기 씬(40) 상의 광 패턴의 상이한 공간 존들(45, 46)이 결정될 수 있다. 설명을 위해, 도 6에서 서로 다른 형상들이 사용되었지만, 참조번호 45의 광 서브-패턴 및 참조번호 46의 광 서브-패턴 모두 상기 TOF 카메라 시스템(10)의 조명 유닛(20)의 전방에 배치된 동일한 패터닝 수단(30)으로부터 비롯된다는 것이 이해되어야 한다. 이제, 먼저, 상기 씬은 이용 가능한 깊이 데이터 또는 상기 씬을 분할하기에 유용한 임의의 추가 데이터를 사용하여 분할된다. 상기 씬의 각각의 세그먼트에 대해, 연속 함수는 각 세그먼트에 속하는 상기 영역들(31)에 의해 각각 샘플링될 수 있는 간접 성분들과 연관될 수 있다. 그 다음, 각 세그먼트와 연관된 간접 성분 함수는 직접 성분 및 간접 성분 모두를 갖는 픽셀들 내에 존재하는 원하지 않는 간접 성분들을 보완하는데 사용될 수 있다.
Claims (8)
- 씬(24, 40)의 물체(object)와 타임-오브-플라이트(Time-Of-Flight; TOF) 카메라 시스템(10) 간의 거리를 측정하고 상기 물체의 깊이 맵을 제공하는 방법으로서,
상기 TOF 카메라 시스템(10)은 조명 유닛(20), 픽셀들(22, 23)의 매트릭스를 갖는 이미징 센서(21) 및 이미지 처리 수단(5)을 포함하고,
상기 방법은:
- 서로 다른 입사 강도들로 각각 상기 씬의 기본(elementary) 영역들(31, 32)을 조명하여 직접 입사광선들(25)을 간접 입사광선들(26, 28)과 구별하기 위해, 상기 조명 유닛(20)의 조명을 이산적인 방식으로 변경하는 단계;
- 상기 센서(21)의 매트릭스의 픽셀들 상에서 상기 기본 영역들(31, 32)에 의해 반사된 빔들을 수신하고 광의 비행 시간 측정에 의해 획득된 대응하는 복소 데이터를 상기 이미지 처리 수단(5)에게 제공하는 단계;
- 중간 깊이 맵(29) 상에서, 직접 입사광선이 충돌할 수 없는 기본 영역들(31)을 식별하는 단계로서, 이러한 영역들(31)은 광이 차단되거나 광 세기가 감소되는 패터닝 수단(30)의 영역들과 연관되는, 단계;
- 직접 입사광선들 및 간접 입사광선들 모두에 의해 획득되는 복소 데이터에서, 입사광선들이 충돌할 수 있는 영역들에서 상기 간접 입사광선들에 의해 지배되는 광의 비행 시간 측정에 의해 획득된 복소 데이터를 감산하여 정확한 최종 맵에 대응하는 새로운 복소 데이터를 형성함으로써 상기 물체의 깊이 맵에서 간접 광선들의 영향을 제거하기 위해, 상기 대응하는 복소 데이터를 처리하는 단계
를 포함하는 것을 특징으로 하는, 방법. - 청구항 1에 있어서,
상기 조명을 변경하는 단계는 직접 입사광선이 충돌할 수 없는 상기 씬 상의 기본 영역들(31)을 형성하기 위해 상기 조명 유닛(20)을 이산적인 방식으로 마스킹하는 단계인, 방법. - 청구항 1 또는 청구항 2에 있어서,
상기 대응하는 복소 데이터를 처리하는 단계는 오직 간접 입사광선들만이 충돌할 수 있는 기본 영역들(31)을 식별하는 단계를 포함하는, 방법. - 청구항 1 또는 청구항 2에 있어서,
각각 상기 픽셀들(22, 23)의 매트릭스의 서로 다른 픽셀들의 세트들과 연관된, 상기 씬(24, 40) 상의 기본 영역들의 서로 다른 두 개의 공간 존들(45, 46)을 결정하는 단계를 더 포함하는, 방법. - 씬(24, 40)의 물체(object)와 타임-오브-플라이트(Time-Of-Flight; TOF) 카메라 시스템(10) 간의 거리를 측정하고 상기 물체의 깊이 맵을 제공하는 타임-오브-플라이트(TOF) 카메라 시스템(10)으로서,
상기 TOF 카메라 시스템은:
- 변조된 광으로 상기 씬(24)에 조명을 비추기 위한 조명 유닛(20);
- 픽셀들(22, 23)의 매트릭스를 갖는 이미징 센서(21)로서, 상기 센서(21)의 매트릭스의 픽셀들 상에서 상기 씬(24, 40)에 의해 반사된 빔들을 수신하는 이미징 센서(21);
- 상기 이미징 센서(21)로부터 상기 반사된 빔들에 대응하고 광의 비행 시간 측정에 의해 획득된 복소 데이터를 수신하고 상기 대응하는 복소 데이터를 처리하는 이미지 처리 수단(5)
을 포함하고,
상기 TOF 카메라 시스템은 서로 다른 입사 강도들로 각각 상기 씬의 기본(elementary) 영역들(31, 32)을 조명하여 직접 입사광선들(25)을 간접 입사광선들(26, 28)과 구별하기 위해, 상기 조명 유닛(20)의 조명을 이산적인 방식으로 변경하는 패터닝 수단(30)을 더 포함하고,
상기 이미지 처리 수단(5)은, 상기 대응하는 복소 데이터를 처리할 때, 직접 입사광선들 및 간접 입사광선들 모두에 의해 획득되는 복소 데이터에서 상기 간접 입사광선들에 의해 지배되는 광의 비행 시간 측정에 의해 획득된 복소 데이터를 감산하여 새로운 복소 데이터를 형성함으로써 상기 물체의 깊이 맵에서 간접 광선들의 영향을 제거하도록 구성되는 것을 특징으로 하는, TOF 카메라 시스템. - 청구항 5에 있어서,
상기 패터닝 수단(30)은 상기 씬 상에 광 패턴(31, 32, 45, 46)을 투영하기 위해 조명 유닛(20)의 전방에 배치되는, TOF 카메라 시스템. - 청구항 5 또는 청구항 6에 있어서,
상기 패터닝 수단(30)은 일련의 동일한 패턴 그룹들(50)을 포함하는, TOF 카메라 시스템. - 청구항 5 또는 청구항 6에 있어서,
상기 패터닝 수단(30)은 직접 입사광선들이 상기 씬(24, 40)의 일부 기본 영역들(31) 상에 충돌하는 것을 방지하는 마스크를 포함하는, TOF 카메라 시스템.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14171985.6 | 2014-06-11 | ||
EP14171985.6A EP2955544B1 (en) | 2014-06-11 | 2014-06-11 | A TOF camera system and a method for measuring a distance with the system |
PCT/EP2015/063015 WO2015189311A1 (en) | 2014-06-11 | 2015-06-11 | A tof camera system and a method for measuring a distance with the system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170041681A KR20170041681A (ko) | 2017-04-17 |
KR102432765B1 true KR102432765B1 (ko) | 2022-08-17 |
Family
ID=50927987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020177000302A KR102432765B1 (ko) | 2014-06-11 | 2015-06-11 | Tof 카메라 시스템 및 그 시스템과의 거리를 측정하는 방법 |
Country Status (7)
Country | Link |
---|---|
US (1) | US10901090B2 (ko) |
EP (1) | EP2955544B1 (ko) |
JP (2) | JP2017517737A (ko) |
KR (1) | KR102432765B1 (ko) |
CN (1) | CN106662651B (ko) |
BE (1) | BE1022486B1 (ko) |
WO (1) | WO2015189311A1 (ko) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170323429A1 (en) * | 2016-05-09 | 2017-11-09 | John Peter Godbaz | Multiple patterns in time-of-flight camera apparatus |
US10928489B2 (en) * | 2017-04-06 | 2021-02-23 | Microsoft Technology Licensing, Llc | Time of flight camera |
US10598768B2 (en) | 2017-05-24 | 2020-03-24 | Microsoft Technology Licensing, Llc | Multipath mitigation for time of flight system |
EP3460508A1 (en) * | 2017-09-22 | 2019-03-27 | ams AG | Semiconductor body and method for a time-of-flight measurement |
US10215856B1 (en) | 2017-11-27 | 2019-02-26 | Microsoft Technology Licensing, Llc | Time of flight camera |
US11662433B2 (en) * | 2017-12-22 | 2023-05-30 | Denso Corporation | Distance measuring apparatus, recognizing apparatus, and distance measuring method |
US10901087B2 (en) | 2018-01-15 | 2021-01-26 | Microsoft Technology Licensing, Llc | Time of flight camera |
CN108259744B (zh) * | 2018-01-24 | 2020-06-23 | 北京图森智途科技有限公司 | 图像采集控制方法及其装置、图像采集系统和tof相机 |
JP7253323B2 (ja) * | 2018-02-14 | 2023-04-06 | オムロン株式会社 | 3次元計測システム及び3次元計測方法 |
WO2019188348A1 (ja) | 2018-03-29 | 2019-10-03 | パナソニックIpマネジメント株式会社 | 距離情報取得装置、マルチパス検出装置およびマルチパス検出方法 |
EP3791210A1 (en) * | 2018-05-09 | 2021-03-17 | Sony Semiconductor Solutions Corporation | Device and method |
CN109459738A (zh) * | 2018-06-06 | 2019-03-12 | 杭州艾芯智能科技有限公司 | 一种多台tof相机相互避免干扰的方法及系统 |
US11609313B2 (en) | 2018-07-31 | 2023-03-21 | Waymo Llc | Hybrid time-of-flight and imager module |
JP2020020681A (ja) | 2018-08-01 | 2020-02-06 | ソニーセミコンダクタソリューションズ株式会社 | 光源装置、イメージセンサ、センシングモジュール |
KR102570059B1 (ko) * | 2018-08-16 | 2023-08-23 | 엘지이노텍 주식회사 | 센싱 방법 및 장치 |
US11353588B2 (en) | 2018-11-01 | 2022-06-07 | Waymo Llc | Time-of-flight sensor with structured light illuminator |
US11029149B2 (en) | 2019-01-30 | 2021-06-08 | Microsoft Technology Licensing, Llc | Multipath mitigation for time of flight system |
JP7208052B2 (ja) * | 2019-02-15 | 2023-01-18 | 株式会社豊田中央研究所 | 光学的測距装置 |
US11698441B2 (en) * | 2019-03-22 | 2023-07-11 | Viavi Solutions Inc. | Time of flight-based three-dimensional sensing system |
WO2020218283A1 (ja) * | 2019-04-22 | 2020-10-29 | 株式会社小糸製作所 | ToFカメラ、車両用灯具、自動車 |
CN111965655A (zh) * | 2019-05-02 | 2020-11-20 | 广州印芯半导体技术有限公司 | 应用飞时测距的多媒体系统及其操作方法 |
US11070757B2 (en) | 2019-05-02 | 2021-07-20 | Guangzhou Tyrafos Semiconductor Technologies Co., Ltd | Image sensor with distance sensing function and operating method thereof |
US11479849B2 (en) * | 2019-06-03 | 2022-10-25 | Taiwan Semiconductor Manufacturing Company, Ltd. | Physical vapor deposition chamber with target surface morphology monitor |
US11644571B2 (en) | 2019-07-01 | 2023-05-09 | Samsung Electronics Co., Ltd. | Electronic apparatus and control method thereof |
CN112213730B (zh) * | 2019-07-10 | 2024-05-07 | 睿镞科技(北京)有限责任公司 | 三维测距方法和装置 |
CN110378946B (zh) | 2019-07-11 | 2021-10-01 | Oppo广东移动通信有限公司 | 深度图处理方法、装置以及电子设备 |
CN112824934B (zh) * | 2019-11-20 | 2024-05-07 | 深圳市光鉴科技有限公司 | 基于调制光场的tof多径干扰去除方法、系统、设备及介质 |
CN112824935B (zh) * | 2019-11-20 | 2023-02-28 | 深圳市光鉴科技有限公司 | 基于调制光场的深度成像系统、方法、设备及介质 |
CN111045030B (zh) * | 2019-12-18 | 2022-09-13 | 奥比中光科技集团股份有限公司 | 一种深度测量装置和方法 |
KR20210084752A (ko) * | 2019-12-27 | 2021-07-08 | 삼성전자주식회사 | 광원 및 ToF 센서를 포함하는 전자 장치 및 라이다 시스템 |
US20210255327A1 (en) * | 2020-02-17 | 2021-08-19 | Mediatek Inc. | Emission And Reception Of Patterned Light Waves For Range Sensing |
WO2022201848A1 (ja) * | 2021-03-22 | 2022-09-29 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
KR20230161951A (ko) * | 2021-03-26 | 2023-11-28 | 퀄컴 인코포레이티드 | 혼합 모드 깊이 이미징 |
RU2770153C1 (ru) * | 2021-06-15 | 2022-04-14 | Самсунг Электроникс Ко., Лтд. | Способ корректировки ошибки измерения глубины tof-камеры |
CN113665904B (zh) * | 2021-09-07 | 2023-04-07 | 钟放鸿 | 基于tof技术的条盒香烟缺包检测方法 |
US11922606B2 (en) | 2021-10-04 | 2024-03-05 | Samsung Electronics Co., Ltd. | Multipass interference correction and material recognition based on patterned illumination without frame rate loss |
CN113945951B (zh) * | 2021-10-21 | 2022-07-08 | 浙江大学 | Tof深度解算中的多径干扰抑制方法、tof深度解算方法及装置 |
CN118541725A (zh) * | 2021-12-17 | 2024-08-23 | 艾迈斯-欧司朗亚太私人有限公司 | 用于生成深度图的方法 |
JP2023172742A (ja) * | 2022-05-24 | 2023-12-06 | Toppanホールディングス株式会社 | 距離画像撮像装置、及び距離画像撮像方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130088726A1 (en) * | 2011-10-07 | 2013-04-11 | Vivek K. Goyal | Method and Apparatus to Determine Depth Information For A Scene of Interest |
US20150253429A1 (en) * | 2014-03-06 | 2015-09-10 | University Of Waikato | Time of flight camera system which resolves direct and multi-path radiation components |
US20160178737A1 (en) * | 2013-08-21 | 2016-06-23 | Pmdtechnologies Gmbh | Scattered light reference pixel |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040213463A1 (en) * | 2003-04-22 | 2004-10-28 | Morrison Rick Lee | Multiplexed, spatially encoded illumination system for determining imaging and range estimation |
US9002511B1 (en) * | 2005-10-21 | 2015-04-07 | Irobot Corporation | Methods and systems for obstacle detection using structured light |
JP2008309551A (ja) | 2007-06-13 | 2008-12-25 | Nikon Corp | 形状測定方法、記憶媒体、および形状測定装置 |
US20100157280A1 (en) * | 2008-12-19 | 2010-06-24 | Ambercore Software Inc. | Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions |
WO2010073137A1 (en) * | 2008-12-22 | 2010-07-01 | Koninklijke Philips Electronics N.V. | Cmos imager with single photon counting capability |
US8491135B2 (en) * | 2010-01-04 | 2013-07-23 | Microvision, Inc. | Interactive projection with gesture recognition |
EP2395369A1 (en) * | 2010-06-09 | 2011-12-14 | Thomson Licensing | Time-of-flight imager. |
US9753128B2 (en) | 2010-07-23 | 2017-09-05 | Heptagon Micro Optics Pte. Ltd. | Multi-path compensation using multiple modulation frequencies in time of flight sensor |
DE102011081561B4 (de) * | 2011-08-25 | 2024-06-13 | pmdtechnologies ag | Lichtlaufzeitkamerasystem mit Signalpfadüberwachung |
JP2013078433A (ja) * | 2011-10-03 | 2013-05-02 | Panasonic Corp | 監視装置、プログラム |
US9329035B2 (en) * | 2011-12-12 | 2016-05-03 | Heptagon Micro Optics Pte. Ltd. | Method to compensate for errors in time-of-flight range cameras caused by multiple reflections |
JP6309459B2 (ja) * | 2012-02-15 | 2018-04-11 | ヘプタゴン・マイクロ・オプティクス・ピーティーイー・エルティーディーHeptagon Micro Optics Pte.Ltd. | ストライプ照明の飛行時間型カメラ |
US9472005B1 (en) * | 2012-04-18 | 2016-10-18 | Amazon Technologies, Inc. | Projection and camera system for augmented reality environment |
US9696427B2 (en) * | 2012-08-14 | 2017-07-04 | Microsoft Technology Licensing, Llc | Wide angle depth detection |
JP6071363B2 (ja) | 2012-09-19 | 2017-02-01 | キヤノン株式会社 | 距離計測装置及び方法 |
US9857166B2 (en) | 2012-09-19 | 2018-01-02 | Canon Kabushiki Kaisha | Information processing apparatus and method for measuring a target object |
US9069080B2 (en) * | 2013-05-24 | 2015-06-30 | Advanced Scientific Concepts, Inc. | Automotive auxiliary ladar sensor |
US20170323429A1 (en) * | 2016-05-09 | 2017-11-09 | John Peter Godbaz | Multiple patterns in time-of-flight camera apparatus |
-
2014
- 2014-06-11 EP EP14171985.6A patent/EP2955544B1/en active Active
- 2014-07-25 BE BE2014/0578A patent/BE1022486B1/fr not_active IP Right Cessation
-
2015
- 2015-06-11 US US15/317,367 patent/US10901090B2/en active Active
- 2015-06-11 CN CN201580036607.8A patent/CN106662651B/zh active Active
- 2015-06-11 WO PCT/EP2015/063015 patent/WO2015189311A1/en active Application Filing
- 2015-06-11 JP JP2016572252A patent/JP2017517737A/ja active Pending
- 2015-06-11 KR KR1020177000302A patent/KR102432765B1/ko active IP Right Grant
-
2020
- 2020-11-26 JP JP2020195625A patent/JP7191921B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130088726A1 (en) * | 2011-10-07 | 2013-04-11 | Vivek K. Goyal | Method and Apparatus to Determine Depth Information For A Scene of Interest |
US20160178737A1 (en) * | 2013-08-21 | 2016-06-23 | Pmdtechnologies Gmbh | Scattered light reference pixel |
US20150253429A1 (en) * | 2014-03-06 | 2015-09-10 | University Of Waikato | Time of flight camera system which resolves direct and multi-path radiation components |
Also Published As
Publication number | Publication date |
---|---|
KR20170041681A (ko) | 2017-04-17 |
US10901090B2 (en) | 2021-01-26 |
BE1022486B1 (fr) | 2016-05-03 |
JP2021039131A (ja) | 2021-03-11 |
JP2017517737A (ja) | 2017-06-29 |
JP7191921B2 (ja) | 2022-12-19 |
US20170123067A1 (en) | 2017-05-04 |
EP2955544A1 (en) | 2015-12-16 |
EP2955544B1 (en) | 2020-06-17 |
CN106662651A (zh) | 2017-05-10 |
CN106662651B (zh) | 2019-08-06 |
WO2015189311A1 (en) | 2015-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102432765B1 (ko) | Tof 카메라 시스템 및 그 시스템과의 거리를 측정하는 방법 | |
US20200309914A1 (en) | Spatially self-similar patterned illumination for depth imaging | |
US9709387B2 (en) | Image generation device for acquiring distances of objects present in image space | |
CN110709722B (zh) | 飞行时间摄像机 | |
US11536804B2 (en) | Glare mitigation in LIDAR applications | |
US9194953B2 (en) | 3D time-of-light camera and method | |
US8150142B2 (en) | Depth mapping using projected patterns | |
WO2020150131A1 (en) | Three-dimensional sensor including bandpass filter having multiple passbands | |
US10151837B2 (en) | Optoelectronic sensor | |
US20150319347A1 (en) | Methods and apparatus for imaging in scattering environments | |
US11073379B2 (en) | 3-D environment sensing by means of projector and camera modules | |
US10533846B2 (en) | Image generation device, image generating method, and pattern light generation device | |
CN110121659A (zh) | 用于对车辆的周围环境进行特征描述的系统 | |
KR102402477B1 (ko) | ToF 모듈 | |
CN109673159B (zh) | 基于多结构化照明的3d传感技术 | |
KR20210008023A (ko) | 디바이스 및 방법 | |
JP2014070936A (ja) | 誤差画素検出装置、誤差画素検出方法、および誤差画素検出プログラム | |
US20090115993A1 (en) | Device and Method for Recording Distance Images | |
US9992472B1 (en) | Optoelectronic devices for collecting three-dimensional data | |
CN116209921A (zh) | 用于飞行时间相机系统的动态扩展的方法和设备 | |
CN108462819B (zh) | 用于运行相机用的光源的方法、光源、相机 | |
US20230224428A1 (en) | Information processing device, composite video generation method, and program | |
WO2020262446A1 (ja) | 車両用灯具 | |
JP2020139821A (ja) | 検査装置、検査システム及び検査方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |