KR20180073571A - 물체까지의 거리를 결정하기 위한 시스템 및 방법 - Google Patents

물체까지의 거리를 결정하기 위한 시스템 및 방법 Download PDF

Info

Publication number
KR20180073571A
KR20180073571A KR1020187011086A KR20187011086A KR20180073571A KR 20180073571 A KR20180073571 A KR 20180073571A KR 1020187011086 A KR1020187011086 A KR 1020187011086A KR 20187011086 A KR20187011086 A KR 20187011086A KR 20180073571 A KR20180073571 A KR 20180073571A
Authority
KR
South Korea
Prior art keywords
light
time window
predetermined time
amount
pixels
Prior art date
Application number
KR1020187011086A
Other languages
English (en)
Inventor
더크 밴 딕
조안 밴 댄 보쉬
Original Assignee
제노마틱스 엔브이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 제노마틱스 엔브이 filed Critical 제노마틱스 엔브이
Publication of KR20180073571A publication Critical patent/KR20180073571A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/18Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S17/936
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

본 발명은 물체까지의 거리를 결정하기 위한 시스템에 관한 것으로서, 시스템은 펄스들의 시퀀스로 물체를 향해 레이저 광의 불연속 스폿들의 패턴을 투영하는 고체 상태의 광원; 상기 펄스들과 동기화하여 물체에 의해 반사된 불연속 스폿들의 패턴을 나타내는 광을 검출하기 위한 복수의 화소들을 포함하는 검출기; 및 물체까지의 거리를 상기 화소들에 의해 생성된 노출 값들의 함수로서 계산하는 처리 수단을 포함한다. 화소들은 상기 시퀀스의 각각의 펄스에 대해, 제1 시간 창 동안 상기 물체에 의해 반사된 제1 광량을 나타내는 제1 전하량, 및 제2 시간 창 동안 상기 물체에 의해 반사된 제2 광량을 나타내는 제2 전하를 축적함으로써 노출 값들을 생성하도록 구성되고, 상기 제2 시간 창은 상기 제1 시간 창 후에 발생한다.

Description

물체까지의 거리를 결정하기 위한 시스템 및 방법
본 발명은 물체까지의 거리를 결정하기 위한 시스템들의 분야, 특히, 장면 또는 그것의 일부의 특성화를 위해 사용되는 비행 시간 기반 감지 시스템들(time-of-flight based sensing systems)에 관한 것이다.
자동차 및 산업 환경, 게임 애플리케이션들, 및 매핑 애플리케이션들(mapping applications)과 같은, 그러나 이에 제한되지 않는 많은 제어 및 네비게이션 애플리케이션들에 사용되는 원격 감지 기술의 분야에서, 주로 주변 환경의 고해상도 지도들을 만드는 용도에서, 센서로부터의 물체들의 거리를 결정하기 위해 비행 시간 기반 감지를 사용하는 것이 알려져 있다. 비행 시간 기반 기법들은 RF 변조 소스들, 범위 게이팅 이미저들(range gated imagers), 및 직접 비행 시간(direct time-of-flight)(DToF) 이미저들의 사용을 포함한다. RF 변조 소스들 및 범위 게이팅 이미저들의 사용을 위해, 변조 또는 펄스 소스들로 관심 있는 전체 장면을 밝게 하는 것이 필요하다. 대부분의 LIDAR들과 같은 직접 비행 시간 시스템들은 펄스 빔으로 관심 있는 영역을 기계적으로 스캔하고, 펄스 빔의 반사는 펄스 검출기로 감지된다.
방출된 RF 변조 신호를 검출된 반사 신호와 상관시키는 것이 가능하기 위해서는, 방출된 신호가 다수의 제약 조건들을 충족시켜야 한다. 실제로, 이러한 제약 조건들은 RF 변조 시스템들이 운송 수단 시스템들에서의 사용에 매우 비실용적이게 한다는 것이 드러난다: 종래의 안전 한계들 내에 그리고 일반 운송 수단들(vehicles)의 전력 예산 내에 있는 신호 강도들에 대해 달성 가능한 검출의 범위는 매우 제한된다.
대부분의 LIDAR 시스템들에서 사용되는 것과 같은 직접 TOF(direct TOF)(DToF) 이미저는 강력한 펄스 레이저(나노초 펄스 영역에서 작동), 1D 점 측정(1D point measurement)으로부터 3D 지도를 취득하는 기계적 스캐닝 시스템, 및 펄스 검출기를 포함한다. 이 유형의 시스템들은 현재 캘리포니아주 모건 힐(Morgan Hill)의 Velodyne Lidar를 포함하는 판매사들로부터 이용 가능하다. 최신 시스템들의 예로서, Velodyne HDL-64E는 초당 5 내지 15 회전의 기계적으로 회전하는 구조에서 64개의 고출력 레이저 및 64개의 검출기(애벌런치 다이오드들)를 사용한다. 이러한 DToF LIDAR 시스템들에 의해 요구되는 광 전력은 너무 높아서 전력이 5 내지 6 자릿수 더 낮은 범위 내인 반도체 레이저들로는 취득될 수 없다. 추가로, 스캐닝 목적들을 위한 기계적으로 회전하는 요소들의 사용은 이러한 유형의 시스템의 소형화, 신뢰성, 및 비용 감소에 대한 전망들을 제한한다.
Trilumina 명의의 미국 특허 출원 공개 제2015/0063387호는 20ns의 펄스 폭을 갖는 펄스에서 50mW의 총 에너지를 전달하는 VCSEL을 개시한다. 상업적으로 이용 가능한 Optek OPV310 VCSEL은 10ns의 지속 시간을 갖는 펄스에서 총 60mW의 총 에너지를 전달하며 100mW의 최대 광 출력 전력(maximum optical output power)을 갖는 것이 외삽법으로 추정될 수 있다. 이 값은 열 문제들로 인한 불안정성을 피하기 위해 최적의 듀티 사이클(duty cycle) 및 짧은 펄스 폭을 의미하는 매우 엄격한 작동 조건들에서만 실현된다. Trilumina의 개시 내용 및 Optek 시스템 둘 다는 VCSEL 설계에 본질적으로 연계된 열 제약 조건들로 인해, 연속파 VCSEL 시스템들이 광 피크 전력 출력과 관련하여 그들의 물리적 한계들에 도달하고 있음을 예시한다. 이 펄스 에너지 레벨들에서, DToF 애플리케이션들에서 현재 사용되는 것과 같은 ns 펄스들을 사용하면, 120m의 거리에서 물체에 의해 유용하게 반사될 것으로 예상될 수 있는 광자들의 단순 개수가 너무 낮아서, 그것은 CMOS 또는 CCD 또는 SPAD 어레이와 같은 종래의 반도체 센서들에 의한 검출을 무력화한다. 따라서, 공지된 DToF 시스템들의 범위를 확장시키기 위해 요구되는 대로 VCSEL 전력 출력들을 5 또는 6 자릿수만큼 증가시키는 것은 물리적으로 불가능하다.
적은 복귀 광자들을 포착하기에 이론적으로는 충분히 민감한 애벌런치 다이오드들(AD 또는 SPAD)의 사용조차도 알려진 LIDAR 시스템 아키텍쳐들에 유용하게 배치될 수 없다. SPAD들의 어레이의 고체 상태 구현은 직렬로 판독되어야 한다. 원하는 정확도를 달성하기 위해 많은 수의 SPAD들이 요구된다. 고체 상태 구현의 직렬 판독 제약 조건들은 시스템의 대역폭을 제한하여, 원하는 정확도에 대해 그것을 부적절하게 만든다. Velodyne 시스템의 정확도(0.02m 내지 0.04m, 거리에 관계 없음)와 같은 정확도를 위해 요구되는 판독 데이터 속도는 오늘날의 IC 구현의 경우 실용적으로 달성할 수 있는 대역폭을 초과한다. 120m에서의 작동을 위해, 500x500 픽셀들의 SPAD 어레이가 요구되며, 이는 IC 기반 구현에서 직렬로 판독되어야 한다. 앞서 언급된 Velodyne 시스템과 동일한 정밀도의 경우, 그것은 밀리초당 1000 펄스를 필요로 하고 그러므로 밀리초당 1000 프레임을 필요로 하며, 이는 초당 250 기가픽셀의 판독 속도로 변환된다. 이것은 현재 SPAD IC 기술의 맥락에서 기술적으로 실현 불가능한 것으로 여겨진다.
Neil E. Newman 등에 의한 논문 "단범위 LIDAR 애플리케이션들에서의 하이 피크 파워 VCSEL들(High Peak Power VCSELs in Short Range LIDAR Applications)" (Journal of Undergraduate Research in Physics, 2013, http://www.jurp.org/2013/12017EXR.pdf)은 VCSEL 기반 LIDAR 애플리케이션을 기술한다. 이 논문은 기술된 프로토타입 시스템의 최대 출력 전력이 0.75m보다 큰 범위에서 와이드 필드 LIDAR를 수행할 만큼 충분히 크지 않다고 말한다. 저자들은 상대적으로 포커싱된 빔(1m 거리에서 0.02m 스폿 크기)을 사용하여, 1m까지의 거리에서 표적 물체의 범위를 정할 수 있었다.
위의 예들은 현재의 반도체 레이저들에 의해 방출된 광 전력이 자동차 애플리케이션들(예를 들어, 120m까지의 범위들에 대해)에서 실용적인 사용을 위해 알려진 LIDAR 시스템들에서의 작동들에 필요한 전력 요건들을 충족시킬 수 없음을 명확하게 나타낸다.
Avago Technologies General IP(Singapore) Pte. Ltd. 명의의 미국 특허 번호 제7,544,945호는 더 컴팩트하고 비용 효과적인 LIDAR 기능성을 제공하기 위해 다수의 레이저들을 사용하는 운송 수단 기반 LIDAR 시스템들 및 방법들을 개시한다. 레이저들의 어레이 내의 각각의 레이저는 레이저들의 어레이에 대해 장착된 상응하는 광학 요소가 실질적으로 상이한 방향들로 각각의 질문 빔들(interrogation beams)을 생성하도록 순차적으로 활성화될 수 있다. 이러한 빔들로부터의 광은 운송 수단의 환경에 있는 물체들에 의해 반사되고, 운송 수단 운영자 및/또는 승객들에게 물체들에 대한 정보를 제공하기 위해 검출된다. 본 특허는 알려진 DToF LIDAR 시스템들에서 알려진 기계적 스캐닝을 대체하기 위해 개별 레이저들이 연속적으로 활성화되는 고체 상태 프로젝터를 제공한다.
비행 시간 검출을 사용하지 않는 운송 수단들에 대한 고정확도 중거리 서라운드 감지 시스템은 본 출원인 명의의 국제 특허 출원 공개 WO 2015/004213 A1호로부터 알려진다. 그 공개에서, 물체들의 위치 파악은 펄스 복사 스폿들의 투영, 및 미리 결정된 참조 스폿 위치들을 참조하는 검출된 스폿들의 변위의 분석에 기초한다. 특히, 인용된 공개의 시스템은 삼각 측량을 사용한다. 그러나, 달성될 수 있는 정확도는 삼각 측량 기저와 관련이 있으며, 이는 달성될 수 있는 추가의 소형화를 제한한다.
미국 특허 출원 공개 US 2012/0038903 A1호는 장면의 조명을 적응적으로 제어하기 위한 방법들 및 시스템들을 개시한다. 특히, 장면이 조명되고, 장면으로부터 반사된 광이 검출된다. 장면 내의 상이한 영역들에 상응하는 다수의 픽셀 검출기의 상이한 픽셀들에 의해 수신된 광 강도의 레벨들에 관한 정보, 및/또는 장면 내의 영역에 대한 범위에 관한 정보가 수신된다. 다음으로, 그 정보는 장면 내의 조명의 레벨들을 제어하는 피드백 신호로 사용된다. 특히, 장면의 상이한 영역들은 피드백 신호에 응답하여 조명의 상이한 레벨들을 제공받을 수 있다.
유럽 특허 출원 공개 EP 2 322 953 A1호는 거리 해상도를 감소시키지 않고 범위 측정 범위를 확대할 수 있는 거리 이미지 센서를 개시한다. 복사 소스(radiation source)는 시간 축 상에 순서대로 배열된 제1 내지 제5 프레임들에서 복사 펄스들로서 물체에 조사된 제1 내지 제5 펄스 열들을 제공한다. 각각의 프레임들에서, 각각의 프레임의 시작점으로부터 미리 결정된 시간의 지점들에서 이미징 시간들(imaging times)이 규정되며, 또한, 펄스들은 제1 내지 제5 프레임들의 시작점으로부터 서로 상이한 시프트 량만큼 각각 시프트된다. 픽셀 어레이는 5개의 프레임 각각에서 이미징 창들 A 및 B를 사용하여 서로 상이한 거리 범위들에서 물체의 거리 정보를 각각 갖는 요소 이미지 신호들을 생성한다. 처리 유닛은 요소 이미지 신호들을 결합함으로써 이미지 신호를 생성한다. 5회의 비행 시간 측정이 사용되기 때문에, 넓은 거리 범위에서 물체의 거리 정보를 취득하기 위해 복사 펄스의 폭이 증가될 필요가 없으며, 거리 해상도가 감소되지 않는다.
유럽 특허 출원 공개 EP 2 290 402 A1호는 반도체 기판 상에 제공되는 범위 이미지 센서를 개시하며, 여기서 이미징 영역은 복수의 2차원적으로 배열된 유닛들로 구성되고 그렇게 함으로써 유닛들로부터 출력되는 전하량들에 기초하여 범위 이미지를 획득한다. 유닛들 중 하나는 입사광에 응답하여 전하들이 생성되는 전하 생성 영역(전달 전극 외측 영역), 전하 생성 영역으로부터 전하들을 수집하기 위해 공간적으로 이격되어 배열된 적어도 2개의 반도체 영역들(3), 및 위상이 상이한 전하 전달 신호를 고려하여 반도체 영역(3)의 각각의 주변에 설치되고 반도체 영역(3)을 둘러싸는 전달 전극(5)을 구비한다.
Shoji Kawahito 등에 의한 논문 "필드 산화물 상의 게이트들 구조를 갖는 CMOS 비행 시간 범위 이미지 센서(A CMOS Time-of-Flight Range Image Sensor With Gates-on-Field-Oxide Structure)" (IEEE Sensors Journal, Vol. 7, no. 12, p. 1578-1586)는 광 변환 및 전하 전달을 위해 필드 산화물 구조 상에 단일 층 게이트들을 사용하는 CMOS 비행 시간(time-of-flight)(TOF) 범위 이미지 센서의 한 유형을 개시한다. 이 구조는 표준 CMOS 프로세스에서 15 × 15㎛2 픽셀들을 갖는 조밀한 TOF 범위 이미징 어레이의 실현을 허용한다. 고속 전하 전달에 필요한 n형 매복 층을 생성하기 위한 추가의 프로세스 단계만이 제조 프로세스에 추가된다. 센서는 능동 조명 광원으로부터 역 반사된 적외선 광 펄스들에 의해 유도된 광전하의 시간 지연 의존 변조에 기초하여 작동한다. 배경 광의 영향을 감소시키기 위해, 작은 듀티 사이클 광 펄스가 사용되며 전하 배출 구조들이 픽셀에 포함된다. 제조된 TOF 센서 칩은 초당 30 프레임에서 2.35cm의 범위 분해능, 100ns의 펄스 폭으로 초당 3 프레임에서 0.74cm로의 향상을 측정한다.
자율 주행 보조 시스템(autonomous driving assistance system)(ADAS) 애플리케이션들 및 자율 주행 애플리케이션들과 같은 복잡한 운송 수단 서라운드 감지 애플리케이션들에서 극단적인 소형화 및/또는 장거리를 합리적인 비용 및 컴팩트한 반도체 집적 폼 팩터에서 획득할 계속적인 필요가 있다.
본 발명의 실시예들의 목적은 변위 기반 운송 수단 서라운드 감지 시스템들(displacement-based vehicular surround sensing systems)을 위한 더 소형화되고 더 장거리인 대안을 제공하는 것이다. 또한, 본 발명의 실시예들의 목적은 알려진 LIDAR 시스템들에 대한 완전한 고체 상태 대안을 제공하는 것이다.
본 발명의 양태에 따라, 펄스들의 시퀀스로 물체를 향해 레이저 광의 불연속 스폿들의 패턴을 투영하도록 되어 있는 고체 상태의 광원; 복수의 화소들(picture elements)을 포함하는 검출기 - 검출기는 상기 펄스들의 시퀀스와 동기화하여 물체에 의해 반사된 불연속 스폿들의 패턴을 나타내는 광을 검출하도록 구성됨 -; 및 상기 검출된 광에 응답하여 물체까지의 거리를 상기 화소들에 의해 생성된 노출 값들의 함수로서 계산하도록 구성된 처리 수단을 포함하는, 물체까지의 거리를 결정하기 위한 시스템이 제공되며, 여기서 화소들은 상기 시퀀스의 각각의 펄스에 대해, 제1의 미리 결정된 시간 창 동안 상기 물체에 의해 반사된 제1 광량을 나타내는 제1 전하량, 및 제2의 미리 결정된 시간 창 동안 상기 물체에 의해 반사된 제2 광량을 나타내는 제2 전하를 축적함으로써 상기 노출 값들을 생성하도록 구성되고, 상기 제2의 미리 결정된 시간 창은 상기 제1의 미리 결정된 시간 창 후에 발생한다.
본 발명은 직접 비행 시간 기반 범위 측정 시스템들과 동일한 물리적 원리들 즉, 광은 주어진 거리를 이동하기 위해 항상 특정한 양의 시간을 소비한다는 사실에 의존한다. 그러나, 본 발명은 표적 물체에 의해 전달되고 그 뒤에 반사된 광 펄스에 의해 이동된 거리를 결정하기 위해 범위 게이팅(range gating)을 사용한다. 본 발명은 그 중에서도 범위 게이팅(range gating), 적어도 부분적으로 동시적인 스폿 패턴 투영(새로운 조명 방식에 기초함), 및 저전력 반도체 광원을 결합함으로써, 실질적으로 소형화된 완전 고체 상태 및 에너지 효율적인 장거리 거리 검출 방법이 취득될 수 있다는 발명자들의 통찰에 기초한다. 본 명세서에 사용된 용어 "패턴"은 동시에 투영된 스폿들의 공간 분포를 나타낸다. 3차원 공간에서 검출된 스폿 반사의 위치를 결정하기 위해, 범위 측정 단계(ranging step)로부터 취득된 거리 정보와 각도 정보를 결합하여 나머지 2개의 공간 좌표를 고정할 필요가 있다. 반사가 검출되는 픽셀을 식별함으로써, 추가적인 각도 정보를 제공하기 위해, 픽셀 어레이 및 적절하게 배열된 광학기(optics)를 포함하는 카메라가 사용될 수 있다.
본 발명의 실시예들은, 원하는 범위들에서 LIDAR 시스템 내의 고체 상태 광원들에 의해 생성된 스폿 패턴들을 사용할 수 있도록 하기 위해, 광 전력 제한들(optical power limitations)을 우회하기 위한 방법이 필요하다는 발명자들의 추가의 통찰에 기초한다. 본 발명자들은 펄스 지속 시간을 연장시킴으로써, 그리고 적어도 2개의 반도체 센서 우물 내에서 또는 적어도 2개의 픽셀 내에서 다수의 VCSEL 생성 광 펄스들의 반사된 에너지를 적분하고, 그에 후속하여 적분된 전하의 단일 판독(single read-out)을 행함으로써, 현재 고체 상태 구현들로 가능한 것보다 현저하게 더 큰 작동 범위를 갖는 고체 상태의 LIDAR 시스템이 획득될 수 있다는 것을 발견했다. 이하, "저장"이라는 용어는 광자들의 검출에 응답하여 전하가 축적되는 우물 또는 픽셀을 지칭하기 위해 사용될 것이다.
본 발명의 이점은 고체 상태 광원 및 고체 상태 센서(예를 들어, CMOS 센서, CCD 센서, SPAD 어레이 등)가 동일한 반도체 기판 상에 집적될 수 있다는 것이다. 고체 상태 광원은 VCSEL 어레이, 또는 원하는 패턴을 생성하도록 적응된 격자를 갖는 레이저를 포함할 수 있다.
또한, 2개의 연속 시간 창에서 검출된 반사 광 에너지를 평가하고 2개의 연속 창에서 축적된 전체 전하를 정규화함으로써, 조사 중인 물체의 다양한 반사율의 영향 및 주변 광의 기여가 거리 계산 알고리즘에서 적절하게 설명될 수 있다.
화소들에서, 충돌 광을 나타내는 전하가 우물 레벨에서 또는 픽셀 레벨에서 축적될 수 있다. 우물 레벨에서의 전하 축적의 이점은 판독 잡음이 최소화된다는 것이며, 이는 더 좋은 신호 대 잡음비로 이어진다.
펄스들의 시퀀스의 전송 및 검출은 주기적으로 반복될 수 있다.
본 발명에 따른 시스템의 실시예에서, 제1의 미리 결정된 시간 창 및 제2의 미리 결정된 시간 창은 실질적으로 동일한 지속 시간을 갖고 연속적으로(back-to-back) 발생한다.
주위의 픽셀들로부터 평균화된 축적된 주변 광의 감산을 수행함으로써 거리 계산식에서의 주변 광의 기여가 쉽게 상쇄될 수 있다는 것이 이 실시예의 이점이다.
특정 실시예에서, 복수의 화소들의 각각은 적어도 2개의 전하 저장 우물을 포함하고, 제1 광량의 검출 및 상기 제2 광량의 상기 검출은 상기 적어도 2개의 전하 저장 우물 중 각각의 우물들에서 발생한다 .
용어 "전하 저장 우물(charge storage well)"은 반도체 기판 상에 제공되는 저장소, 예를 들어 픽셀 상에 충돌하는 광자들의 변환에 의해 생성된 전하들을 저장하는 커패시터를 지칭한다. 이 특정 실시예의 목적은 센서의 전체 범위를 개선시키는 더 좋은 신호 대 잡음비를 실현하는 것이다.
본 발명의 양태에 따르면, 운송 수단이 제공되며, 이 운송 수단은 상기 운송 수단을 둘러싸는 영역의 적어도 일부를 작동 가능하게(operatively) 커버하도록 되어 있는 전술한 시스템을 포함한다.
본 발명에 따른 시스템은 특히, 전기 제어 유닛(electrical control unit)(ECU)과 같은, 그러나 이에 제한되지 않는 ADAS 또는 자율 주행 제어 유닛을 갖는 운송 수단에서 유리하다. 운송 수단은 시스템으로부터 측정 정보를 수신하고 ADAS 제어 또는 자율 주행 결정을 위해 그 정보를 사용하도록 적응된 운송 수단 제어 유닛을 더 포함할 수 있다. 운송 수단을 둘러싼 영역의 일부는 운송 수단의 앞, 옆, 또는 뒤의 노면을 포함할 수 있다. 따라서, 시스템은 능동 서스펜션 또는 반 능동 서스펜션을 위해 사용되는, 차량 전방의 표면의 도로 프로파일 정보를 제공할 수 있다.
본 발명의 양태에 따르면, 카메라가 제공되는데, 카메라는 전술한 바와 같은 시스템을 포함하며, 시스템은 시스템으로부터 취득된 정보에 기초하여 카메라 이미지에 3D 정보를 추가하여 3D 이미지를 생성하는 것을 가능하게 하도록 적응된다.
본 발명의 양태에 따르면, 물체까지의 거리를 결정하기 위한 방법이 제공되며, 방법은, 펄스들의 시퀀스로 물체를 향해 레이저 광의 불연속 스폿들의 패턴을 투영하기 위해 고체 상태 광원을 사용하는 단계; 상기 펄스들의 시퀀스와 동기화하여 물체에 의해 반사된 상기 불연속 스폿들의 패턴을 나타내는 광을 검출하기 위해 복수의 화소들을 포함하는 검출기를 사용하는 단계; 및 상기 검출된 광에 응답하여 물체까지의 거리를 상기 화소들에 의해 생성된 노출 값들의 함수로서 계산하는 단계를 포함하고, 여기서 화소들은 상기 시퀀스의 각각의 펄스에 대해, 제1의 미리 결정된 시간 창 동안 상기 물체에 의해 반사된 제1 광량을 나타내는 제1 전하량, 및 제2의 미리 결정된 시간 창 동안 상기 물체에 의해 반사된 제2 광량을 나타내는 제2 전하량을 축적시킴으로써 노출 값들을 생성하고, 상기 제2의 미리 결정된 시간 창은 상기 제1의 미리 결정된 시간 창 후에 발생한다.
본 발명에 따른 방법의 실시예에서, 제1의 미리 결정된 시간 창 및 제2의 미리 결정된 시간 창은 실질적으로 동일한 지속 시간을 갖고 연속적으로 발생한다.
본 발명에 따른 방법의 실시예에서, 복수의 화소들의 각각은 적어도 2개의 전하 저장 우물을 포함하고, 여기서 제1 광량의 검출 및 제2 광량의 검출은 적어도 2개의 전하 저장 우물 중의 각각의 우물들에서 발생한다.
본 발명에 따른 방법의 실시예에서, 투영하는 단계, 검출하는 단계, 및 계산하는 단계는 주기적으로 반복된다.
본 발명의 양태에 따르면, 프로세서로 하여금 전술한 방법을 수행하게 하도록 구성된 코드 수단을 포함하는 컴퓨터 프로그램 제품이 제공된다.
본 발명에 따른 카메라, 운송 수단, 방법, 및 컴퓨터 프로그램 제품의 실시예들의 기술적인 효과들 및 이점들은, 필요한 부분만 약간 수정하여 본 발명에 따른 시스템의 상응하는 실시예들의 기술적인 효과들 및 이점들에 상응한다.
본 발명의 이러한 및 다른 양태들 및 이점들은 이제 첨부 도면들을 참조하여 더 상세하게 기술될 것이다.
도 1은 본 발명에 따른 방법의 실시예의 흐름도를 나타낸다.
도 2는 본 발명에 따른 시스템의 실시예를 개략적으로 나타낸다.
도 3은 본 발명의 실시예들에서 광 투영 및 검출에 대한 타이밍 다이어그램(timing diagram)을 나타낸다.
도 4는 대수 톤 매핑(위) 및 다중선형 톤 매핑(아래)에 의해 취득된 입사광 전력의 함수에서의 예시적인 픽셀 출력의 다이어그램들을 제공한다.
도 5는 고 동적 범위 다중 출력 픽셀에 의해 취득된 입사광 전력의 함수에서의 예시적인 픽셀 출력들의 다이어그램을 제공한다.
도 6은 본 발명의 실시예들에서의 사용을 위한 고 동적 범위 픽셀의 구조를 개략적으로 예시한다.
도 7은 본 발명의 실시예들에서의 사용을 위한 개별 전달 게이트를 각각 갖는 2개의 전하 우물(빈들(bins))을 갖는 픽셀 아키텍쳐의 실시예를 개략적으로 예시한다.
도 8은 본 발명의 실시예들에서의 사용을 위한 제1 예시적인 광학 배열을 개략적으로 예시한다.
도 9는 본 발명의 실시예들에서의 사용을 위한 제2 예시적인 광학 배열을 개략적으로 예시한다.
도 10은 본 발명의 실시예들에서의 사용을 위한 제3 예시적인 광학 배열을 개략적으로 예시한다.
도 11은 제4 예시적인 광학 배열을 개략적으로 예시한다.
본 출원인 명의의 국제 특허 출원 공개 WO 2015/004213 A1호에 개시된 유형의 서라운드 감지 시스템들은 광범위한 장면을 다수의 불연속이고 잘 정의된 스폿들, 특히, 미리 정의된 스폿 패턴으로 동시에 또는 부분적으로 동시에 조명하면서, 그 장면을 관찰하는 이점을 갖는다. 탁월한 번들 품질과 매우 협소한 출력 스펙트럼들을 가진 VCSEL 레이저들을 사용함으로써, 일광(daylight)이 존재하는 경우에도 제한된 양의 출력 전력으로 검출 범위를 취득하는 것이 가능하다. WO 2015/004213 A1호의 시스템에서 수행되는 실제 범위 측정은 변위 검출, 특히, 삼각 측량에 의존하는데, 이는 전력 예산의 관점에서 필요한 긴(준 정적(quasi-stationary)) 펄스 지속 시간들의 맥락에서 실용적으로 이용 가능한 유일한 방법으로 이해되었다. 현재까지도, 컴팩트한 반도체 기반의 비행 시간 기반 시스템으로 동일한 전력/성능 특성을 달성하는 것이 가능하지 않았다.
본 발명은 비행 시간 기반 시스템이 작동하는 방식을 근본적으로 변화시킴으로써 이러한 제한을 극복한다. 본 발명은 개별 펄스들의 지속 시간을 증가시킴으로써, 그리고 다수의 개별 펄스들의 시퀀스로 구성된 가상 "합성 펄스(composite pulse)"를 생성함으로써, 각각의 비행 시간 측정을 위해 방출되는 광 에너지의 총량(그리고 그에 따른, 각각의 비행 시간 측정을 위해 검출기에서 이용 가능한 광자들의 수)을 증가시킨다. 이러한 연장된 펄스들의 번들링은 발명자들이 저전력 VCSEL들로 원하는 작동 범위에 요구되는 광 에너지(광자들)의 양을 취득하는 것을 허용한다.
이미 존재하는 LIDAR 시스템들의 개별 펄스가 1ns의 지속 시간을 가질 수 있는 데 반해, 본 발명에 따른 시스템들은 VCSEL들과 같은 반도체 레이저들의 상대적으로 낮은 전력 레벨을 부분적으로 보상하기 위해 실질적으로 더 긴 펄스 지속 시간으로부터 이익을 얻으며; 본 발명의 실시예들에서, 시퀀스 내의 개별 펄스들은 1㎲의 예시적인 지속 시간을 가질 수 있다(이것은 설명을 명확하고 간단하게 하기 위해 본 명세서에서 선택된 하나의 가능한 값이며; 보다 일반적으로, 본 발명의 실시예들에서, 펄스 지속 시간은 예를 들어 500ns 이상, 바람직하게는 750ns 이상, 가장 바람직하게는 900ns 이상일 수 있음). 본 발명에 따른 예시적인 시스템에서, 시퀀스는 1000 펄스 사이클로 구성될 수 있으며, 따라서 합산하여 1ms의 지속 시간으로 된다. 광이 100m의 거리에 있는 표적까지 이동하고 검출기로 되돌아가기 위해 약 0.66㎲를 필요로 할 수 있다는 사실을 고려할 때, 이 자릿수의 거리에서 범위 측정을 위해 이 지속 시간의 합성 펄스를 사용하는 것이 가능하고; 통상의 기술자는 요구되는 펄스 사이클들의 수를 선택된 펄스 폭 및 원하는 범위의 함수로 조정할 수 있을 것이다. 시퀀스의 검출은 바람직하게는 VCSEL-기반 광원과 동기화하여 개별 펄스들을 검출하고, 판독 이전에 전체 시퀀스에 대해 픽셀 우물 레벨에서 들어오는 광자들에 응답하여 생성된 전하들을 축적하는 것을 포함한다. 이하에서, "노출 값"이라는 용어는 시퀀스에 대해 적분된 전하(그리고 그에 따른 픽셀에서 수신된 광의 양)를 나타내는 값을 지정하기 위해 사용된다. 시퀀스 방출 및 검출은 주기적으로 반복될 수 있다.
본 발명은 범위 게이팅(range gating)을 사용함으로써 작동한다. 범위 게이팅 이미저들은 펄스의 지속 시간 동안 방출된 펄스의 반사의 검출된 전력을 적분한다. 펄스 방출 창과 반사된 펄스의 도달 사이의 시간적 중첩의 양은 광 펄스의 복귀 시간에 의존하고, 그에 따라 펄스에 의해 이동된 거리에 의존한다. 따라서, 적분된 전력은 펄스에 의해 이동된 거리와 상관된다. 본 발명은 상술한 펄스들의 시퀀스들에 적용된 바와 같이, 범위 게이팅의 원리를 사용한다. 이하의 설명에서, 전체 시퀀스의 측정을 취득하기 위한 화소 레벨에서의 시퀀스의 개별 펄스들의 적분이 암묵적으로 이해된다.
도 1은 본 발명에 따른 방법의 실시예의 흐름도를 나타낸다. 보편성을 잃지 않고, 범위 측정 방법이 범위 게이팅 알고리즘을 참조하여 기술된다. 제1 시간 창(10)에서, 방법은 고체 상태 광원(210)을 포함하는 광원으로부터 장면의 표적 영역 내의 임의의 물체 상으로 레이저 광의 스폿들의 패턴(예를 들어, 스폿들의 규칙적 또는 불규칙적 공간 패턴)을 투영하는 단계(110)를 포함한다. 공간 패턴은 펄스들의 시퀀스로 반복적으로 투영된다.
위에서 나타난 바와 같이, 고체 상태 광원은 VCSEL 어레이 또는 원하는 패턴을 생성하도록 적응된 격자를 갖는 레이저를 포함할 수 있다. 시스템이 장거리들 및 높은 레벨의 주변 광(예를 들어, 일광)에서도 최적으로 작동하기 위해서는, 본 발명의 실시예들에서의 사용을 위한 VCSEL은 바람직하게는 단위 면적 당 스폿 당 최대 광 전력을 방출하도록 배열된다. 따라서, 좋은 빔 품질(낮은 M2-팩터)을 갖는 레이저들이 선호된다. 보다 바람직하게는, 레이저들은 최소 파장 확산(minimal wavelength spread)을 가져야 하고; 모노모드 레이저들(monomode lasers)로 특히 낮은 파장 확산이 달성될 수 있다. 따라서, 실질적으로 동일한 것이 필요한 공간적 및 시간적 정확도를 가지며 재현 가능하게 생성될 수 있다.
펄스가 방출되는 동일한 시간 창 동안, 또는 실질적으로 중첩되는 시간 창 내에서, 관심 있는 물체에 의해 반사된 스폿들의 패턴을 나타내는 제1 광량은 검출기에서 검출되고(120), 검출기는 바람직하게는 가능한 한 광원에 가까이 배치된다. 스폿 패턴의 투영(110)과 그것의 반사의 제1 검출(120) 사이의 동시성 또는 근사 동시성은 이러한 단계들의 나란한 배열에 의해 흐름도에 예시된다. 후속하는 제2의 미리 결정된 시간 창(20)에서, 반사된 광 스폿을 나타내는 제2 광량이 검출기에서 검출된다(130). 이 제2 창(20) 동안, 고체 상태 광원은 비활성이다. 다음으로, 물체까지의 거리는 반사된 광의 제1 양 및 반사된 광의 제2 양의 함수로서 계산될 수 있다(140).
제1의 미리 결정된 시간 창(10) 및 제2의 미리 결정된 시간 창(20)은 검출된 양들 중 하나를 다른 것으로부터 감산함으로써 잡음 및 주변 광 소거를 용이하게 하기 위해, 바람직하게는 실질적으로 동일한 지속 시간의 연속적(back-to-back) 창들이다. 예시적인 타이밍 방식은 도 3과 관련하여 이하에서 더 상세히 기술될 것이다.
검출기는 복수의 화소들을 포함하는데, 즉, 화소 상에 장면의 이미지(조명된 스폿들을 포함함)를 투영하도록 배열된 적절한 광학기를 갖는 화소 어레이로 구성된다. 본 명세서에서 사용되는 바와 같이 "화소"라는 용어는 픽셀의 개별 감광 영역 또는 우물, 또는 전체 픽셀(이는 다수의 우물들을 포함할 수 있음, 아래 참조)을 지칭할 수 있다. 모든 주어진 투영된 스폿에 대해, 제1 광량의 검출(120) 및 제2 광량의 검출(130)은 복수의 화소들 중 동일한 것 또는 동일한 그룹에서 발생한다.
보편성을 잃지 않고, 각각의 화소는 적어도 2개의 전하 저장 우물(221, 222)을 포함하는 픽셀일 수 있고, 그에 의해, 제1 광량의 검출(120) 및 제2 광량의 검출(130)은 동일한 픽셀 또는 픽셀 그룹의 각각의 전하 저장 우물들(221, 222)에서 발생할 수 있게 된다.
도 2는 관심 있는 장면 내의 물체(99)와 관련하여, 본 발명에 따른 시스템의 실시예를 개략적으로 나타낸다. 시스템(200)은 주기적으로 반복될 수 있는 스폿들의 시퀀스의 패턴을 물체(99) 상에 투영하기 위한 고체 상태의 광원(210)을 포함한다. 검출기(220)는 광원 근처에 배치되고 물체에 의해 반사된 광을 검출하도록 구성된다.
물체(99)로부터 튀어 나오는 광 빔은 점선들에서 화살표로 예시되고, 광원(210)으로부터 물체(99)로 이동하여 검출기(220)로 되돌아간다. 이 표현은 엄밀하게 개략적이며, 임의의 실제의 상대적인 거리들 또는 각도들을 표시하도록 의도되지 않는다는 것이 주목되어야 한다.
종래의 클럭 회로(clock circuit) 또는 발진기를 포함할 수 있는 동기화 수단(230)은 제1의 미리 결정된 시간 창들(10) 동안 물체 상에 스폿들의 패턴을 투영하기 위해 고체 상태 광원(210)을 작동시키고, 실질적으로 동일한 시간에 물체(99)에 의해 반사된 광 스폿(들)을 나타내는 제1 광량을 검출하기 위해 검출기(220)를 작동시키도록 구성된다. 또한, 그것은 각각의 후속하는 제2의 미리 결정된 시간 창들(20) 동안 물체(99)에 의해 반사된 광 스폿들을 나타내는 제2 광량을 검출하기 위해 검출기(220)를 작동시킨다. 적절한 처리 수단(240)은 물체까지의 거리를 제1 반사 광량 및 제2 반사 광량의 함수로서 계산하도록 구성된다.
도 3은 본 발명의 실시예들에서의 광 투영 및 검출을 위한 타이밍 다이어그램을 나타낸다. 명확성을 이유로, 도 1의 주기적으로 반복되는 펄스 시퀀스의 단일 펄스만이 예시되며, 이는 제1 시간 창(10) 및 제2 시간 창(20)으로 구성된다.
도 3a에서 알 수 있는 바와 같이, 제1 시간 창(10) 동안, 고체 상태의 광원(210)은 광 스폿들의 패턴을 장면 상에 방출하는 그것의 "온(ON)"상태에 있다. 제2 시간 창(20) 동안, 고체 상태 광원(210)은 그것의 "오프(OFF)"상태에 있다.
검출기(220)에서의 반사광의 도달은 투영의 시작에 비해 이동된 거리에 비례하는 시간 량(자유 공간에서 약 3.3ns/m)만큼 지연된다. 이 지연으로 인해, 반사광의 일부만이 제1 시간 창(10) 동안에만 활성화되는 검출기(220)의 제1 우물(221)에서 검출될 것이다. 따라서, 제1 우물의 활성화 기간(제1 시간 창(10)) 동안 이 제1 우물에 축적된 전하는 반사된 펄스의 도달 이전에 픽셀 상에 충돌하는 잡음 및 주변 광만을 나타내는 부분, 및 잡음, 주변 광, 및 반사된 펄스의 앞 가장자리(leading edge)를 나타내는 부분으로 구성된다.
반사된 펄스의 후자의 부분은 제2 시간 창(20) 동안에만 활성화되는 검출기(220)의 제2 우물(222)에서 검출되며, 제2 시간 창은 바람직하게는 제1 시간 창(10)의 바로 뒤에 위치한다. 따라서, 제2 우물의 활성화 기간(제2 시간 창(20)) 동안 이 제2 우물에서 축적된 전하는 잡음, 주변 광, 및 반사된 펄스의 끝 가장자리(trailing edge)를 나타내는 부분, 및 반사된 펄스의 도달 후에 픽셀 상에 충돌하는 주변 광 및 잡음만을 나타내는 부분으로 구성된다.
반사하는 물체(99)와 시스템(200) 사이의 거리가 멀수록, 제1 우물(221)에서 검출될 펄스의 비율은 작아지고, 제2 우물(222)에서 검출될 펄스의 비율은 더 커진다.
반사된 펄스의 앞 가장자리가 제1 우물(221)의 폐쇄 후에(즉, 제1 시간 창(10)의 종료 후에) 도달하는 경우, 제2 우물(222)에서 검출될 수 있는 반사된 펄스의 비율은 비행 시간 지연이 증가함에 따라 다시 감소할 것이다.
물체(99)의 다양한 거리들에 대한 각각의 우물들(221, 222)의 각각에서의 전하의 결과적인 양(A, B)은 도 3b에 도시된다. 표현을 단순화하기 위해, 역제곱 법칙에 따른, 거리에 따른 광의 감쇠 효과는 다이어그램에서 고려되지 않았다. 제1 시간 창(10)과 제2 시간 창(20)의 결합된 지속 시간까지의 비행 시간 지연들에 대해, 비행 시간 지연은 원칙적으로 A 및 B의 값들로부터 명백하게 도출될 수 있음이 명백하다.
- 제1 시간 창(10)의 지속 시간까지의 비행 시간 지연들에 대하여, B는 물체(99)의 거리에 비례한다. 절대 거리의 결정에 쉽게 도달하기 위해, 정규화된 값 B/(B+A)가 사용될 수 있고, 검출된 물체의 비 완전 반사율(non-perfect reflectivity) 및 역제곱 법칙의 영향을 제거한다.
- 제1 시간 창(10)의 지속 시간을 초과하는 비행 시간 지연들에 대해, A는 일광 및 잡음 기여들로만 구성되며(예시되지 않음), C-B는 (역제곱 법칙을 보정한 후) 물체(99)까지의 거리에 실질적으로 비례하고, 여기서 C는 오프셋 값이다.
도 3a 및 도 3b는 시간 창(10)에서 방출된 단일 펄스와 관련하여 본 발명의 원리를 예시하지만, 예시된 펄스는 위에서 정의된 바와 같이 펄스들의 시퀀스의 일부임이 이해되어야 한다. 도 3c는 그러한 시퀀스의 예시적인 타이밍 특성들을 개략적으로 예시한다. 예시된 바와 같이, 조명 방식(40)은 개별 펄스들(10)의 시퀀스(30)의 반복된 방출로 구성된다. 개별 펄스들(10)의 폭은 최대 작동 범위에 의해 결정된다. 전체 시퀀스는, 예를 들어 60Hz의 주파수에서 반복될 수 있다.
본 발명에 따른 범위 측정 시스템은 WO 2015/004213 A1호에 따른 삼각 측량 기반 시스템과 적분될 수 있다. 소형화를 목표로 하는 경우, 삼각 측량 기반 시스템은 결국 그것의 프로젝터와 그것의 검출기 사이의 비교적 짧은 거리를 갖게 될 것이고, 그에 따라 그것을 감소된 작동 범위로 남겨 둔다. 그러나, 삼각 측량 기반 시스템은 비행 시간 기반 시스템이 충분히 정확하게 작동할 수 없는 거리들을 커버할 수 있기 때문에, 결합이 그것의 이점을 제시하는 것은 정확하게는 근거리에서이다.
전체 범위 측정 프로세스는 시간에 걸쳐 검출된 물체 또는 물체들까지의 거리를 모니터링하기 위해 반복적으로 반복될 수 있다. 따라서, 이 방법의 결과는 상급 운전자 보조 시스템들, 능동 서스펜션을 갖는 운송 수단들, 또는 자율 운송 수단들과 같이, 계속적으로 검출된 물체들까지의 거리에 관한 정보를 필요로 하는 프로세스들에서 사용될 수 있다.
기술된 바와 같은 시스템의 모든 요소들이 최적으로 작동하기 위해, 시스템이 열적으로 안정적이어야 한다. 열적 안정성은 다른 것들 중에서도, 광학 요소들의 원하지 않는 파장 시프트들(열 드리프트)을 회피하고, 그러한 파장 시프트들은 회피되지 않으면 광학 필터들 및 광학 체인의 다른 요소들의 적절한 기능을 손상시킬 것이다. 본 발명에 따른 시스템의 실시예들은 그들의 설계에 의해 열 안정성을 달성하거나, PID 유형 제어기를 갖는 온도 제어 루프에 의한 능동 조절에 의해 열 안정성을 달성한다.
WO 2015/004213 A1호는 검출 간격들 동안 픽셀들에 도달하는 주변 광의 양을 최소화하고, 그에 따라 패턴화된 레이저 스폿들의 검출의 정확도를 향상시키는 다양한 기법들을 개시한다. 이러한 기법들이 LIDAR 시스템의 맥락에서 개시되지는 않았지만, 본 발명의 발명자들은 수 개의 그러한 기법들이 본 발명의 실시예들과 결합할 때 우수한 결과들을 산출한다는 것을 발견했다. 이는 검출기에서의 협대역 통과 필터들(narrow bandpass filters)의 사용, 및 반사된 광이 필터들 상에 거의 수직으로 입사하는 것을 보장하는 적절한 광학적 배열들의 사용에 대해 특히 그러하다. WO 2015/004213 A1호에 나타난 바와 같은 이러한 배열들의 세부 사항은 본원에 참조로 포함된다. 추가의 특징들 및 세부 사항은 이하에 제공된다.
WO 2015/004213 A1호로부터 알려진 다양한 기법들이 검출 간격들 동안 픽셀들에 도달하는 주변 광의 양을 최소화하기 위해 본 발명의 실시예들에 적용될 수 있지만, 특정 양의 주변 광은 피할 수 없다. 다중 픽셀 시스템에서, 픽셀들 중 일부만이 반사된 스폿들에 의해 조명될 것인 한편, 다른 픽셀들은 잔류 주변 광에 의해서만 조명될 것이다. 후자의 픽셀 그룹의 신호 레벨들은 관심 있는 픽셀들에서 신호들에 대한 주변 광의 기여를 추정하고, 이에 따라 그 기여도를 감산하기 위해 사용될 수 있다. 추가적으로 또는 대안적으로, 배경 광 또는 주변 광은 픽셀 레벨에서 검출된 신호로부터 감산될 수 있다. 이것은 2회의 노출, 즉 레이저 펄스의 도달 동안의 1회의 노출, 및 펄스가 없을 때의 1회의 노출을 필요로 한다.
몇몇 실시예들에서, 검출기는 고 동적 범위 검출기, 즉 적어도 90dB, 바람직하게는 적어도 120dB의 동적 범위를 갖는 검출기일 수 있다. 고 동적 범위 센서, 즉 장면의 가장 어두운 부분에서 강도 레벨들의 충분한 식별을 유지하면서 포화 없이 많은 양의 광자들을 취득할 수 있는 센서의 존재는 이러한 센서의 사용의 이점이고; 그것은 매우 긴 범위를 가지면서도 포화를 겪지 않고서 짧은 거리(반사광이 상대적으로 강한 곳)에 있는 물체들을 검출할 수 있는 채로 남아있는 센서를 허용한다. 본 발명자들은 진정한 고 동적 범위 센서의 사용이 톤 매핑(tone mapping)을 적용하는 센서의 사용보다 이롭다는 것을 발견했다. 톤 매핑에서, 센서 선형 범위는 더 높은 해상도를 향해 압축된다. 문헌에서, 대수 압축 또는 다중선형 압축과 같은 수 개의 압축 방법들이 문서화되어 있다(도 4 참조). 그러나, 이러한 비선형 압축은 릴리프 정보(relief information)를 추출하기 위해 포착된 장면에 대한 논리적 또는 산술적 연산들을 수행하기 전에 신호들의 재선형화(relinearisation)를 필요하게 만든다. 따라서, 본 발명에 따른 해결책은 계산 요구 사항들을 증가시키지 않고 검출 정밀도를 증가시킨다. 도 5에 제시된 바와 같이 완전 선형 고 동적 범위 센서를 사용하는 것이 몇몇 실시예들의 추가의 이점이다. 원하는 동적 범위 특성들을 제공할 수 있는 픽셀 아키텍쳐 및 광학 검출기가 미국 특허 출원 공개 US 2014/353472 A1호, 특히 65-73 및 88 단락들에 개시되며, 그것의 내용은 통상의 기술자가 본 발명의 이 양태를 실시하는 것을 허용하기 위해 참조로 포함된다.
본 발명의 실시예들은 고 동적 범위 픽셀을 사용한다. 이것은 전하 저장소(charge reservoir)의 상당한 전체-우물 용량(sizeable full-well capacity)에 의해, 또는 픽셀 당 전자 잡음을 제한하는 설계에 의해, 또는 전하 전달에 잡음을 추가하지 않는 CCD 게이트들의 사용에 의해, 또는 큰 검출 양자 효율(detection quantum efficiency)(DQE)(예를 들어, 전방 조명의 경우 50%, 후방 희석(back thinning)이라고도 알려진 후방 조명의 경우 90%)을 갖는 설계를 통해, 또는 도 6에서 도시된 바와 같은 특수 설계를 통해(아래 참조), 또는 나열된 개선들의 임의의 조합에 의해 취득될 수 있다. 또한, 동적 범위는 픽셀의 전방 측에 있는 오버레이에서 오버플로우 용량을 픽셀에 부가함으로써 더 확대될 수 있다(이 구현은 후방 희석을 필요로 함). 바람직하게, 픽셀 설계는 안티 블루밍 메커니즘(anti-blooming mechanism)을 구현한다.
도 6은 고 동적 범위를 갖는 픽셀의 유리한 구현의 개략적 예시를 제시한다. 이 도면에서 예는 부동 확산(floating diffusion)에 연결된 2개의 저장 게이트(7, 8)를 사용한다. 노출 후, 장면에 의해 생성된 전자, 및 레이저 펄스는 전달 게이트(11)를 사용하여 부동 확산 상에서 전달된다. Vgate1 및 Vgate2 게이트 전압들 둘 다는 높게 설정된다. 다음으로, 전하들이 커패시터들 둘 다에 퍼져서, 현저한 전체 우물(Full Well)을 실현한다. 일단 이러한 높은 전체-우물 데이터가 증폭기에의 연결을 통해 판독되면, 전압 Vgate2는 낮게 설정된다. 전자들은 커패시터(7)를 향해 리플로우(reflow)하여 총 픽셀 이득을 증가시킨다. 데이터는 증폭기를 통해 판독될 수 있다. 나중에 Vgate1에 저전압을 인가하여 훨씬 더 높은 이득을 달성하는 것이 더 가능하다. 전자들은 부동 확산(2)을 향해 리플로우한다.
도 7은 CMOS 기술에 사용되는 예측된 픽셀의 가능한 이중-우물 또는 이중-빈(dual-bin) 구현을 나타낸다. 충돌 신호는 2개의 전하 저장소에 분산된다. 각각의 저장소는 레이저 소스들의 펄스들과 동기화되는 외부 펄스에 의해 제어되는 별도의 전달 게이트를 갖는다.
도 8-10은 본 발명의 실시예들에 사용될 수 있는 카메라들을 예시하며, 광 복사 소스는 단색광을 방출하고, 적어도 하나의 검출기는 상응하는 협대역 통과 필터, 및 상기 협대역 통과 필터로의 입사각을 수정하고 상기 입사각을 상기 협대역 통과 필터의 주 표면의 법선 주위의 미리 결정된 범위로 한정하도록 되어 있는 광학기를 구비하며, 상기 광학기는 이미지-공간 텔레센트릭 렌즈(image-space telecentric lens)를 포함한다. "카메라"라는 용어는 본 명세서에서 센서 및 관련 광학기(렌즈들, 렌즈 어레이들, 필터)의 조합으로서 사용된다. 특히, 도 9에서, 광학기는 이미지-공간 텔레센트릭 렌즈와 적어도 하나의 검출기 사이에 배치된 미니렌즈 어레이를 더 포함하며, 그에 의해, 미니렌즈 어레이의 개별 미니렌즈들은 입사광을 적어도 하나의 검출기의 개별 픽셀들의 각각의 감광 영역들 상에 포커싱하게 된다. 이러한 픽셀 당 1 미니렌즈 배치의 이점은 픽셀들의 감광 부분에 모든 입사광을 광학적으로 안내함으로써, 기본 센서의 충전율(fill factor)로 인한 손실이 감소될 수 있다는 것이다.
이들 예들 모두는 복사가 필터 매질을 통해 실질적으로 동일한 길이를 이동하는 결과를 초래하거나, 다시 말해서, 입사하는 복사가 필터 표면에 실질적으로 직교하는 결과를 초래하며, 즉 그것은 필터 표면의 법선 주위의 미리 결정된 범위 내의 입사각으로 한정되고, 그에 따라 스폿들이 주광을 능가하기 위해, 그리고 예를 들어, 일광, 햇빛을 필터링하기 위해 협소한 대역폭 내에서의 정확한 필터링을 허용한다.
입사각의 보정은 운송 수단 주위의 전체 공간이 제한된 수의 센서들, 예를 들어 8개의 센서로 모니터링되며, 그에 의해 입사 광선들이 예를 들어, 1 x 1rad의 입체각에 걸쳐 확장되는 본 발명의 실시예들에서 특히 중요하다. 도 8은 이러한 유형의 제1 광학 배치를 개략적으로 예시한다. 그것은 이미지 공간 텔레센트릭 구성에서 대략 동일한 초점 거리(f)를 갖는 제1 렌즈(1030) 및 제2 렌즈(1040)를 포함한다. 그것은 모든 주 광선들(구경 조리개의 중심을 통과하는 광선들)이 이미지 평면에 수직이라는 것을 의미한다. 0.16의 예시적인 개구수는 9.3°의 원추 각(반 원추 각)에 상응한다. 그에 따라, 렌즈 시스템(1030-1040)과 센서(102) 사이에 배치된 협대역 필터(1060) 상의 최대 입사각은 9.3°일 것이다.
도 9에 예시된 바와 같이, 바람직한 설계는 이미지-공간 텔레센트릭 구성(구성은 또한 임의적으로(optionally) 물체-공간 텔레센트릭(object-space telecentric)임)에서, 대략 동일한 초점 거리(f)를 갖는 2개의 렌즈(1130, 1140)의 탠덤(tandem), 미니렌즈 어레이의 평면 스택(planar stack)(1150), 스펙트럼 필터(1160), 및 CMOS 검출기(102)로 구성된다. 제1 렌즈(1130)의 중심(O)이 제2 렌즈(1140)의 초점에 있기 때문에, O를 가로지르는 모든 광선은 광축에 평행한 방향으로 제2 렌즈(1140)에 의해 굴절될 것이다. 이하에서는, 제1 렌즈(1130)의 초점 거리에 비교하여 매우 긴 거리에 위치된 특정 레이저 스폿(S)(1110)을 고찰하기로 한다. 따라서, 제1 렌즈(1130)에 의한 이 스폿(1110)의 이미지는 이 렌즈의 초점 평면에 가까이 위치되고 그에 따라 정확하게 제2 렌즈(1140)의 중앙 평면에 있는 지점 P이다. 스폿(S)(1110)으로부터 방출되어 제1 렌즈(1130)에 의해 포착된 광선들은 제2 렌즈(1140)의 지점 P를 향해 수렴하는 광 원추를 형성한다. 이 광 원추의 중앙 축은 지점(O)을 가로지르고 광축에 평행하게 굴절되고 그에 따라 스펙트럼 필터(1160)에 수직하게 굴절되어, 최적의 스펙트럼 감도를 달성한다. 따라서, 제2 렌즈(1140)는 입사광 빔의 각도에 대해 보정하는 렌즈로서 작용한다. 원추의 다른 광선들은 또한 지점(P)이 미니렌즈(1150)의 초점에 위치되도록 하는 방식으로 제2 렌즈(1140) 뒤에 작은 볼록 미니렌즈(1150)를 사용함으로써 광축에 평행한 광선들의 번들로 구부러질 수 있다. 이러한 방식으로, 스폿(S)(1110)의 모든 이미징 광선들은 스펙트럼 필터에 거의 수직한 방향으로 구부러진다. 이것은 이제 CMOS 검출기의 모든 픽셀 앞에 위치된 미니렌즈들의 어레이를 사용함으로써 모든 픽셀 앞에서 별도로 수행될 수 있다. 이러한 구성에서, 미니렌즈들은 이미지 텔레센트릭 기능을 갖는다. 주된 이점은 미니렌즈(1150) 내의 국소 보정 광학기에 의한 구면 수차의 증가를 보상하면서 제1 렌즈(1030)의 동공이 확대될 수 있거나 조리개가 제거될 수 있다는 것이다. 이러한 방식으로, 센서 어셈블리의 감도가 향상될 수 있다. 제2 미니렌즈 어레이(도 11에 도시되지 않음)는 충전율을 최대화하도록 평행 광선들을 픽셀들의 포토다이오드들로 다시 포커싱하기 위해 스펙트럼 필터(1160)와 CMOS 픽셀들(102) 사이에 추가될 수 있다,
제1 렌즈(1130) 및 제2 렌즈(1140)에는, 상업적으로 이용 가능한 렌즈들이 사용될 수 있다. 통상의 기술자는 다른 스마트폰 카메라들 또는 비교 가능한 품질의 웹캠들에서 통상적으로 사용되는 렌즈들이 또한 사용될 수 있다는 것을 이해할 것이다. 앞서 언급된 iSight 카메라는 8메가픽셀, 1.5㎛ 픽셀 크기, f/2.2의 매우 큰 조리개, 약 f = 7mm의 대물렌즈 초점 거리, 및 약 3.2mm의 동공 지름을 갖는 6 x 3mm CMOS 센서를 갖는다. 시야각은 1rad x 1rad 정도이다. 우리가 카메라의 해상도가 대략 픽셀 크기(1.5미크론)라고 가정하는 경우, 우리는 렌즈의 수차들이 조리개에 의해 선택된 시야각의 모든 광선들에 대해 보정된다고 결론을 내릴 수 있다(Abbe의 법칙으로부터).
도 10은 단일 리소그래피 프로세스에서의 제조를 위해 최적화된 도 11의 배열의 변형을 예시한다. 제1 렌즈(1230)는 이전 실시예의 제1 렌즈(1130)와 유사하지만, 각도 보정 제2 렌즈(1140)는 동일한 초점 거리 f를 갖는 프레넬 렌즈(Fresnel lens)(1240)로 대체되고, 미니렌즈 어레이들(1150)은 프레넬 렌즈 어레이들(1250)로 대체된다. 이점은 그들이 완전히 평평하고 나노 전자 기술(불연속 위상 구역들이 있음)에 의해 생산될 수 있다는 것이다. 제2 미니렌즈 어레이(1270)는 충전율을 최대화하도록 평행 광선들을 픽셀들의 광다이오드들로 다시 포커싱하기 위해, 스펙트럼 필터(1260)와 CMOS 픽셀들(102) 사이에 추가될 수 있다. 따라서, 카메라는 본질적으로 iSight와 같은 표준 카메라이지만, CMOS 센서는 모든 구성 요소들이 동일한 리소그래피 프로세스에서 하나의 통합된 블록으로 생성되는 특수 설계된 다층 센서로 대체된다. 이 다층 센서는 대량 생산이 저렴하고 컴팩트하며 견고하며 정렬될 필요가 없다. 이들 5개 층(1240, 1250, 1260, 1270, 102)의 각각은 본 발명에 의해 부과된 요구 사항들을 충족시키는 자체 기능을 갖는다.
직경 d의 렌즈에 의해 생성된 원추의 최소 각은 λ/d 정도이며, λ는 광의 파장이고, 미니렌즈 직경 d = 8.5㎛ 및 λ = 850nm에 대해 최소 원추 각은 1/10 라디안이다. 좋은 품질의 스펙트럼 간섭 필터를 사용하면, 이것은 약 3nm의 스펙트럼 창에 상응한다.
도 11은 돔(1310)(예를 들어, 굽은 유리판)을 포함하는 대안적인 광학 배열을 예시하며, 협대역 통과 필터(1320)는 돔의 내부(예시된 바와 같이) 또는 외부(예시되지 않음) 상에 배치된다. 돔(1310)의 내부에 필터(1320)를 배치하는 것의 이점은 돔(1310)이 외부 힘들로부터 필터(1320)를 보호한다는 것이다. 돔(1310)과 필터(1320)는 입사광이 돔의 표면에 실질적으로 수직인 방향을 따라 필터(1320)를 통과하는 것을 보장하기 위해 광학적으로 협동한다. 어안 렌즈 광학기(Fish-eye optics)(1330)는 돔-필터 어셈블리와 CMOS 또는 CCD 센서 또는 SPAD 어레이일 수 있는 센서(102) 사이에 제공된다. 어안 렌즈 광학기(1330)는 돔-필터 어셈블리를 통과한 광을 센서의 감지 영역을 향해 안내하도록 배치된다.
임의적으로, 프로젝터에 추가 어안 광학기가 제공된다. 특정 실시예에서, 복수의 VCSEL들이 1 x n 또는 m x n 구성으로 장착됨으로써, 레이저 빔의 출사 각은 m × 1rad의 높이 및 n × 1rad의 폭의 공간 각에 걸쳐 실현될 수 있다.
본 발명의 몇몇 실시예들에서, 스폿들의 강도는 검출기에서 계단형 또는 가변 감쇠 필터를 적용함으로써 전체 깊이 범위에 걸쳐 실질적으로 일정하게 유지될 수 있다. 대안적으로 또는 추가로, 또한, 비대칭 렌즈 동공은 검출기에 더 가까운 스폿들의 강도를 약하게 하기 위해 제공될 수 있는 반면, 검출기로부터 더 멀리 떨어진 스폿들의 강도는 최대 강도로 수신된다. 이러한 방식으로, 검출기의 클리핑(clipping)이 회피되고, 평균 강도가 모든 스폿들에 대해 실질적으로 동일하게 만들어질 수 있다.
몇몇 실시예들에서, 복사 소스는 상이한 구역들에서 분할될 수 있으며, 이에 따라 레이저 온 시간(laser ON time)이 상이한 영역들에 대해 제어되는 VCSEL일 수 있다. 따라서, 스폿들의 이미지들은 일정한 강도, 예를 들어, A/D 범위의 2/3를 갖도록 제어될 수 있다. 대안적으로, 구동 전압은 다시 일정한 강도를 취득하기 위해 스폿들의 어레이에 걸쳐 높이의 함수로서 구동될 수 있다. 이러한 제어는 포화 회피 서보 루프(saturation avoidance servoing loop)로 불릴 수 있다. 어레이 내의 상이한 VCSEL들은 강도에 대해 개별적으로 제어될 수 있으며, 패턴의 개별 VCSEL들이 동시에 투영되는 동안 그것들의 강도를 변경한다.
본 발명의 몇몇 다른 실시예들에서, 복사가 필터 상에 +9°와 -9° 사이의 입사각 내에 입사하도록, 협대역 필터 앞에서 마이크로 프리즘 매트릭스가 사용될 수 있다. 이것은 협대역폭 필터링을 획득하는 것을 허용한다. 프리즘 매트릭스는 예를 들어, 플라스틱 몰딩(plastic moulding)에 의해 만들어질 수 있다.
예를 들어, 능동 서스펜션 운송 수단 애플리케이션들이 고려되는 본 발명의 실시예들에서, 스폿 패턴의 투영은 유리하게 아래쪽으로, 즉 길을 향해 지향된다.
본 발명에 따른 시스템은 전용 하드웨어(예를 들어, ASIC), 구성 가능한 하드웨어(예를 들어, FPGA), 프로그램 가능한 구성 요소들(예를 들어, 적절한 소프트웨어를 갖는 DSP 또는 범용 프로세서), 또는 이들의 임의의 조합으로 위에서 기술된 방법들의 단계들의 구현을 포함할 수 있다. 동일한 구성 요소(들)는 다른 기능들을 포함할 수도 있다. 또한, 본 발명은 위에서 기술된 방법들의 단계들을 구현하는 코드 수단을 포함하는 컴퓨터 프로그램 제품에 관한 것이고, 그러한 제품은 광학, 자기, 또는 고체 상태 캐리어와 같은 컴퓨터 판독 가능 매질 상에 제공될 수 있다.
본 발명은 또한 위에서 기술된 시스템을 포함하는 운송 수단에 관한 것이다.
본 발명의 실시예들은 실내 및 실외 둘 다, 단거리 또는 장거리에서, 자동차 애플리케이션들, 산업 애플리케이션들, 게임 애플리케이션들 등을 포함하지만 그에 한정되지는 않는 매우 다양한 애플리케이션들에 유리하게 사용될 수 있다. 몇몇 애플리케이션들에서, 본 발명의 실시예들에 따른 상이한 센서들은 바람직하게는 완전한 원형(360°의 시야)에 걸쳐 파노라마 적용 범위를 생성하도록 결합(예를 들어, 데이지 체인(daisy-chained))될 수 있다.
본 발명은 별개의 시스템 및 방법의 실시예들을 참조하여 위에서 기술되었지만, 이는 단지 명확하게 하기 위한 목적으로 행해졌다. 통상의 기술자는 시스템에만 관련하여 기술되거나 방법에만 관련하여 기술된 특징들이 또한 동일한 기술적 효과들 및 이점들을 갖고서 방법 또는 시스템 각각에 적용될 수 있다는 것을 이해할 것이다. 또한, 본 발명의 범위는 이들 실시예들로 제한되는 것이 아니라, 첨부된 청구항들에 의해 정의된다.

Claims (10)

  1. 물체까지의 거리를 결정하기 위한 시스템(200)으로서,
    주기적으로 반복되는 펄스들의 시퀀스로 상기 물체를 향해 레이저 광의 불연속 스폿들의 패턴을 투영하도록 되어 있는 고체 상태의 광원(210);
    복수의 화소들(picture elements)을 포함하는 검출기(220) - 상기 검출기(220)는 상기 펄스들의 시퀀스와 동기화하여 상기 물체에 의해 반사된 상기 불연속 스폿들의 패턴을 나타내는 광을 검출하도록 구성됨 -; 및
    상기 검출된 광에 응답하여 상기 물체까지의 상기 거리를 상기 화소들에 의해 생성된 노출 값들의 함수로서 계산하도록 구성된 처리 수단(240)
    을 포함하고,
    상기 화소들(220)은 상기 시퀀스의 상기 펄스들 전부에 대해, 제1의 미리 결정된 시간 창(predetermined time window)(10) 동안 상기 물체에 의해 반사된 제1 광량을 나타내는 제1 전하량, 및 제2의 미리 결정된 시간 창(20) 동안 상기 물체에 의해 반사된 제2 광량을 나타내는 제2 전하를 축적함으로써 상기 노출 값들을 생성하도록 구성되고, 상기 제2의 미리 결정된 시간 창(20)은 상기 제1의 미리 결정된 시간 창(10) 후에 발생하는, 시스템.
  2. 제1항에 있어서,
    상기 제1의 미리 결정된 시간 창 및 상기 제2의 미리 결정된 시간 창은 실질적으로 동일한 지속 시간을 갖고 연속적으로(back-to-back) 발생하는, 시스템.
  3. 제1항 또는 제2항에 있어서,
    상기 복수의 화소들의 각각은 적어도 2개의 전하 저장 우물(charge storage wells)을 포함하고, 상기 제1 광량의 상기 검출 및 상기 제2 광량의 상기 검출은 상기 적어도 2개의 전하 저장 우물 중 각각의 전하 저장 우물들에서 발생하는, 시스템.
  4. 운송 수단(vehicle)으로서,
    상기 운송 수단을 둘러싸는 영역의 적어도 일부를 작동 가능하게(operatively) 커버하도록 되어 있는, 제1항 내지 제3항 중 어느 한 항에 따른 시스템(100)을 포함하는, 운송 수단.
  5. 카메라로서,
    제1항 내지 제3항 중 어느 한 항에 따른 시스템(100)을 포함하고, 상기 시스템(100)은 상기 시스템으로부터 취득된 정보에 기초하여 카메라 이미지에 3D 정보를 부가하여, 3D 이미지를 생성하게 하는 것을 가능하게 하도록 적응되는, 카메라.
  6. 물체까지의 거리를 결정하기 위한 방법으로서,
    주기적으로 반복되는 펄스들의 시퀀스로 상기 물체를 향해 레이저 광의 불연속 스폿들의 패턴을 투영(110)하기 위해 고체 상태의 광원(210)을 사용하는 단계;
    상기 펄스들의 시퀀스와 동기화하여 상기 물체에 의해 반사된 상기 불연속 스폿들의 패턴을 나타내는 광을 검출(120; 130)하기 위해 복수의 화소들을 포함하는 검출기(220)를 사용하는 단계; 및
    상기 검출된 광에 응답하여 상기 물체까지의 상기 거리를 상기 화소들에 의해 생성된 노출 값들의 함수로서 계산하는 단계(140)
    를 포함하고,
    상기 화소들(220)은 상기 시퀀스의 펄스들 전부에 대해, 제1의 미리 결정된 시간 창(10) 동안 상기 물체에 의해 반사된 제1 광량을 나타내는 제1 전하량, 및 제2의 미리 결정된 시간 창(20) 동안 상기 물체에 의해 반사된 제2 광량을 나타내는 제2 전하량을 축적함으로써 상기 노출 값들을 생성하고, 상기 제2의 미리 결정된 시간 창(20)은 상기 제1의 미리 결정된 시간 창(10) 후에 발생하는, 방법.
  7. 제6항에 있어서,
    상기 제1의 미리 결정된 시간 창 및 상기 제2의 미리 결정된 시간 창은 실질적으로 동일한 지속 시간을 갖고 연속적으로 발생하는, 방법.
  8. 제6항 또는 제7항에 있어서,
    상기 복수의 화소들의 각각은 적어도 2개의 전하 저장 우물을 포함하고, 상기 제1 광량을 검출하는 단계 및 상기 제2 광량을 검출하는 단계는, 상기 적어도 2개의 전하 저장 우물 중 각각의 전하 저장 우물들에서 발생하는, 방법.
  9. 제6항 내지 제8항 중 어느 한 항에 있어서,
    상기 투영하는 단계(110), 상기 검출하는 단계(120; 130), 및 상기 계산하는 단계(140)는 주기적으로 반복되는, 방법.
  10. 컴퓨터 프로그램 제품으로서,
    제6항 내지 제9항 중 어느 한 항에 따른 방법을 프로세서가 수행하게 하도록 구성된 코드 수단을 포함하는, 컴퓨터 프로그램 제품.
KR1020187011086A 2015-10-23 2016-10-24 물체까지의 거리를 결정하기 위한 시스템 및 방법 KR20180073571A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15191288.8A EP3159711A1 (en) 2015-10-23 2015-10-23 System and method for determining a distance to an object
EP15191288.8 2015-10-23
PCT/EP2016/075589 WO2017068199A1 (en) 2015-10-23 2016-10-24 System and method for determining a distance to an object

Publications (1)

Publication Number Publication Date
KR20180073571A true KR20180073571A (ko) 2018-07-02

Family

ID=54360174

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187011086A KR20180073571A (ko) 2015-10-23 2016-10-24 물체까지의 거리를 결정하기 위한 시스템 및 방법

Country Status (7)

Country Link
US (1) US10921454B2 (ko)
EP (2) EP3159711A1 (ko)
JP (1) JP6938472B2 (ko)
KR (1) KR20180073571A (ko)
CN (1) CN108139483B (ko)
BE (1) BE1023788B1 (ko)
WO (1) WO2017068199A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220004625A (ko) * 2019-03-28 2022-01-11 상하이 안예예 테크놀로지 컴퍼니 리미티드 마이크로형 고체 레이저 레이더 및 그 데이터 처리 방법

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9992477B2 (en) 2015-09-24 2018-06-05 Ouster, Inc. Optical system for collecting distance information within a field
EP3159711A1 (en) 2015-10-23 2017-04-26 Xenomatix NV System and method for determining a distance to an object
US10761195B2 (en) 2016-04-22 2020-09-01 OPSYS Tech Ltd. Multi-wavelength LIDAR system
US20180341009A1 (en) * 2016-06-23 2018-11-29 Apple Inc. Multi-range time of flight sensing
US11317808B2 (en) * 2016-07-13 2022-05-03 Naked Labs Austria Gmbh Optical marker to adjust the turntable of a 3D body scanner
WO2018039432A1 (en) 2016-08-24 2018-03-01 Ouster, Inc. Optical system for collecting distance information within a field
EP3301479A1 (en) 2016-10-03 2018-04-04 Xenomatix NV Method for subtracting background light from an exposure value of a pixel in an imaging array, and pixel for use in same
EP3301478A1 (en) 2016-10-03 2018-04-04 Xenomatix NV System for determining a distance to an object
EP3301480A1 (en) 2016-10-03 2018-04-04 Xenomatix NV System and method for determining a distance to an object
EP3301477A1 (en) 2016-10-03 2018-04-04 Xenomatix NV System for determining a distance to an object
EP3343246A1 (en) 2016-12-30 2018-07-04 Xenomatix NV System for characterizing surroundings of a vehicle
WO2018142878A1 (ja) * 2017-02-06 2018-08-09 パナソニックIpマネジメント株式会社 3次元モーション取得装置、及び3次元モーション取得方法
US11105925B2 (en) 2017-03-01 2021-08-31 Ouster, Inc. Accurate photo detector measurements for LIDAR
US10884126B2 (en) 2017-03-01 2021-01-05 Ouster, Inc. Accurate photo detector measurements for LIDAR
US11151447B1 (en) * 2017-03-13 2021-10-19 Zoox, Inc. Network training process for hardware definition
US11016178B2 (en) 2017-03-13 2021-05-25 OPSYS Tech Ltd. Eye-safe scanning LIDAR system
US10520590B2 (en) * 2017-04-18 2019-12-31 Bae Systems Information And Electronic Systems Integration Inc. System and method for ranging a target with a digital-pixel focal plane array
EP3392674A1 (en) 2017-04-23 2018-10-24 Xenomatix NV A pixel structure
EP3615901A4 (en) 2017-05-15 2020-12-16 Ouster, Inc. OPTICAL IMAGING TRANSMITTER WITH BRIGHTNESS IMPROVEMENT
US10775501B2 (en) * 2017-06-01 2020-09-15 Intel Corporation Range reconstruction using shape prior
WO2019005260A1 (en) 2017-06-29 2019-01-03 Apple Inc. FLIGHT TIME DEPTH MAPPING WITH PARALLAX COMPENSATION
US10754033B2 (en) 2017-06-30 2020-08-25 Waymo Llc Light detection and ranging (LIDAR) device range aliasing resilience by multiple hypotheses
DE102017115385B4 (de) * 2017-07-10 2022-08-11 Basler Ag Vorrichtung und Verfahren zur Erfassung eines dreidimensionalen Tiefenbilds
WO2019014494A1 (en) * 2017-07-13 2019-01-17 Apple Inc. EARLY-DELAYED PULSE COUNTING FOR DEPTH SENSORS EMITTING LIGHT
KR20220119769A (ko) 2017-07-28 2022-08-30 옵시스 테크 엘티디 작은 각도 발산을 갖는 vcsel 어레이 lidar 송신기
US10627492B2 (en) 2017-08-01 2020-04-21 Waymo Llc Use of extended detection periods for range aliasing detection and mitigation in a light detection and ranging (LIDAR) system
EP3652555B1 (en) 2017-08-31 2024-03-06 SZ DJI Technology Co., Ltd. A solid state light detection and ranging (lidar) system system and method for improving solid state light detection and ranging (lidar) resolution
JP6856784B2 (ja) * 2017-08-31 2021-04-14 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 固体光検出及び測距(lidar)システム、固体光検出及び測距(lidar)分解能を改善するためのシステム及び方法
US20190072771A1 (en) * 2017-09-05 2019-03-07 Facebook Technologies, Llc Depth measurement using multiple pulsed structured light projectors
US10585176B2 (en) * 2017-09-19 2020-03-10 Rockwell Automation Technologies, Inc. Pulsed-based time of flight methods and system
US10663565B2 (en) 2017-09-19 2020-05-26 Rockwell Automation Technologies, Inc. Pulsed-based time of flight methods and system
US10955552B2 (en) 2017-09-27 2021-03-23 Apple Inc. Waveform design for a LiDAR system with closely-spaced pulses
EP3470872B1 (en) 2017-10-11 2021-09-08 Melexis Technologies NV Sensor device
KR102589319B1 (ko) 2017-11-15 2023-10-16 옵시스 테크 엘티디 잡음 적응형 솔리드-스테이트 lidar 시스템
DE102017222017A1 (de) * 2017-12-06 2019-06-06 Robert Bosch Gmbh Verfahren und System zum Ermitteln und Bereitstellen eines Bodenprofils
EP3550329A1 (en) * 2018-04-04 2019-10-09 Xenomatix NV System and method for determining a distance to an object
EP3625589B1 (en) 2017-12-15 2020-11-18 Xenomatix NV System and method for determining a distance to an object
CN111465870B (zh) 2017-12-18 2023-08-29 苹果公司 使用可寻址发射器阵列的飞行时间感测
JP7324518B2 (ja) 2018-04-01 2023-08-10 オプシス テック リミテッド 雑音適応型固体ライダシステム
US10996324B2 (en) 2018-05-14 2021-05-04 Rockwell Automation Technologies, Inc. Time of flight system and method using multiple measuring sequences
US11002836B2 (en) 2018-05-14 2021-05-11 Rockwell Automation Technologies, Inc. Permutation of measuring capacitors in a time-of-flight sensor
DE102018208647A1 (de) * 2018-05-30 2019-12-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Lasermesseinrichtung zur Messung einer Distanz zu einem Objekt sowie Verfahren zum Betreiben derselben
DE102018004782A1 (de) * 2018-06-15 2019-12-19 Daimler Ag Verfahren und Vorrichtung zum Erfassen einer Umgebung, sowie Fahrzeug mit einer solchen Vorrichtung
US10969476B2 (en) 2018-07-10 2021-04-06 Rockwell Automation Technologies, Inc. High dynamic range for sensing systems and methods
US10739189B2 (en) 2018-08-09 2020-08-11 Ouster, Inc. Multispectral ranging/imaging sensor arrays and systems
US10732032B2 (en) 2018-08-09 2020-08-04 Ouster, Inc. Scanning sensor array with overlapping pass bands
CN108957470B (zh) * 2018-08-22 2021-02-26 上海炬佑智能科技有限公司 飞行时间测距传感器及其测距方法
US10789506B2 (en) 2018-09-24 2020-09-29 Rockwell Automation Technologies, Inc. Object intrusion detection system and method
CN109636857B (zh) * 2018-10-16 2021-10-15 歌尔光学科技有限公司 对位方法及标定系统
WO2020086903A1 (en) * 2018-10-24 2020-04-30 Red Leader Technologies, Inc. Lidar system and method of operation
JP7331098B2 (ja) * 2018-10-24 2023-08-22 レッド リーダー テクノロジーズ,インコーポレイテッド ライダシステムおよび動作方法
DE102018126841B4 (de) 2018-10-26 2021-05-06 Sick Ag 3D-Lichtlaufzeitkamera und Verfahren zur Erfassung dreidimensionaler Bilddaten
KR20210093306A (ko) * 2018-11-20 2021-07-27 센스 포토닉스, 인크. 공간적으로 분포된 스트로빙을 위한 방법들 및 시스템들
US10855896B1 (en) * 2018-12-13 2020-12-01 Facebook Technologies, Llc Depth determination using time-of-flight and camera assembly with augmented pixels
US10791286B2 (en) 2018-12-13 2020-09-29 Facebook Technologies, Llc Differentiated imaging using camera assembly with augmented pixels
US10791282B2 (en) 2018-12-13 2020-09-29 Fenwick & West LLP High dynamic range camera assembly with augmented pixels
US11585906B2 (en) 2018-12-26 2023-02-21 Ouster, Inc. Solid-state electronic scanning laser array with high-side and low-side switches for increased channels
EP3887852A1 (en) 2019-02-11 2021-10-06 Apple Inc. Depth sensing using a sparse array of pulsed beams
US20220155417A1 (en) * 2019-03-05 2022-05-19 Hamamatsu PhotonicsK.K. Light-receiving device and method for manufacturing light-receiving device
JP2020153796A (ja) 2019-03-19 2020-09-24 株式会社リコー 測距装置、及び測距方法
WO2020196378A1 (ja) * 2019-03-26 2020-10-01 パナソニックIpマネジメント株式会社 距離画像の取得方法、及び、距離検出装置
CN113692540A (zh) 2019-04-09 2021-11-23 欧普赛斯技术有限公司 带激光控制的固态lidar发送器
US11846728B2 (en) 2019-05-30 2023-12-19 OPSYS Tech Ltd. Eye-safe long-range LIDAR system using actuator
KR102538137B1 (ko) 2019-06-10 2023-05-31 옵시스 테크 엘티디 눈-안전 장거리 고체 상태 lidar 시스템
US11500094B2 (en) 2019-06-10 2022-11-15 Apple Inc. Selection of pulse repetition intervals for sensing time of flight
US11555900B1 (en) 2019-07-17 2023-01-17 Apple Inc. LiDAR system with enhanced area coverage
JP2022551388A (ja) 2019-09-03 2022-12-09 ゼノマティクス・ナムローゼ・フエンノートシャップ ソリッドステートlidarシステム用のプロジェクタ
EP3789787A1 (en) 2019-09-03 2021-03-10 Xenomatix NV Solid-state lidar system for determining distances to a scene
EP3798673A1 (en) 2019-09-25 2021-03-31 Xenomatix NV Method and device for determining distances to a scene
CN110673152A (zh) * 2019-10-29 2020-01-10 炬佑智能科技(苏州)有限公司 飞行时间传感器及其测距方法
CN110673153A (zh) * 2019-10-29 2020-01-10 炬佑智能科技(苏州)有限公司 飞行时间传感器及其测距方法
US10902623B1 (en) 2019-11-19 2021-01-26 Facebook Technologies, Llc Three-dimensional imaging with spatial and temporal coding for depth camera assembly
DE102019131988A1 (de) 2019-11-26 2021-05-27 Sick Ag 3D-Lichtlaufzeitkamera und Verfahren zur Erfassung dreidimensionaler Bilddaten
US11733359B2 (en) 2019-12-03 2023-08-22 Apple Inc. Configurable array of single-photon detectors
US11647175B2 (en) * 2019-12-06 2023-05-09 Omnivision Technologies, Inc. Determining depth information from a single camera
TWI765337B (zh) * 2019-12-13 2022-05-21 旺矽科技股份有限公司 雷射晶片檢測方法及設備
US11194160B1 (en) 2020-01-21 2021-12-07 Facebook Technologies, Llc High frame rate reconstruction with N-tap camera sensor
JP2021120630A (ja) * 2020-01-30 2021-08-19 ソニーセミコンダクタソリューションズ株式会社 測距装置及び測距方法
US12000931B2 (en) 2020-05-15 2024-06-04 Analog Devices International Unlimited Company Continuous wave time of flight system
CN111880189B (zh) * 2020-08-12 2022-07-15 中国海洋大学 连续光距离选通激光雷达
US11360217B2 (en) 2020-10-13 2022-06-14 Red Leader Technologies, Inc. Lidar system and method of operation
CN112346076A (zh) * 2020-11-25 2021-02-09 Oppo(重庆)智能科技有限公司 电子装置的控制方法、电子装置及计算机可读存储介质
WO2022253422A1 (en) * 2021-06-02 2022-12-08 Fastree3D Sa 3d image detection and related 3d imaging sensors
US11681028B2 (en) 2021-07-18 2023-06-20 Apple Inc. Close-range measurement of time of flight using parallax shift
US11762095B2 (en) 2022-02-01 2023-09-19 Red Leader Technologies, Inc. Lidar system and method of operation
WO2023155093A1 (zh) * 2022-02-17 2023-08-24 华为技术有限公司 探测装置及探测方法
EP4231046A1 (en) 2022-02-17 2023-08-23 XenomatiX NV System for measuring a distance to an object from behind a transparent element

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11508359A (ja) * 1995-06-22 1999-07-21 3ディブイ・システムズ・リミテッド 改善された光学測距カメラ
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
JP3832441B2 (ja) 2002-04-08 2006-10-11 松下電工株式会社 強度変調光を用いた空間情報の検出装置
US6906302B2 (en) * 2002-07-30 2005-06-14 Freescale Semiconductor, Inc. Photodetector circuit device and method thereof
US6888122B2 (en) 2002-08-29 2005-05-03 Micron Technology, Inc. High dynamic range cascaded integration pixel cell and method of operation
US6814171B2 (en) * 2002-08-30 2004-11-09 Motorola, Inc. Automotive drive assistance system and method
DE10305010B4 (de) * 2003-02-07 2012-06-28 Robert Bosch Gmbh Vorrichtung und Verfahren zur Bilderzeugung
JP4280822B2 (ja) 2004-02-18 2009-06-17 国立大学法人静岡大学 光飛行時間型距離センサ
GB0405014D0 (en) 2004-03-05 2004-04-07 Qinetiq Ltd Movement control system
EP1813964B1 (en) 2006-01-29 2010-09-15 Rafael-Armament Development Authority Ltd. LADAR with passive fibre-optical scanner
US7544945B2 (en) 2006-02-06 2009-06-09 Avago Technologies General Ip (Singapore) Pte. Ltd. Vertical cavity surface emitting laser (VCSEL) array laser scanner
JP5171158B2 (ja) 2007-08-22 2013-03-27 浜松ホトニクス株式会社 固体撮像装置及び距離画像測定装置
JP5356726B2 (ja) * 2008-05-15 2013-12-04 浜松ホトニクス株式会社 距離センサ及び距離画像センサ
JP5585903B2 (ja) * 2008-07-30 2014-09-10 国立大学法人静岡大学 距離画像センサ、及び撮像信号を飛行時間法により生成する方法
US8995485B2 (en) 2009-02-17 2015-03-31 Trilumina Corp. High brightness pulsed VCSEL sources
JP4473337B1 (ja) * 2009-07-31 2010-06-02 株式会社オプトエレクトロニクス 光学的情報読取装置及び光学的情報読取方法
DE102009037596B4 (de) 2009-08-14 2014-07-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Pixelstruktur, System und Verfahren zur optischen Abstandsmessung sowie Steuerschaltung für die Pixelstruktur
JP5211007B2 (ja) 2009-10-07 2013-06-12 本田技研工業株式会社 光電変換素子、受光装置、受光システム及び測距装置
JP2011169701A (ja) * 2010-02-17 2011-09-01 Sanyo Electric Co Ltd 物体検出装置および情報取得装置
JP2011191221A (ja) * 2010-03-16 2011-09-29 Sanyo Electric Co Ltd 物体検出装置および情報取得装置
US8736818B2 (en) * 2010-08-16 2014-05-27 Ball Aerospace & Technologies Corp. Electronically steered flash LIDAR
JP2012083220A (ja) * 2010-10-12 2012-04-26 Hamamatsu Photonics Kk 距離センサ及び距離画像センサ
US9329035B2 (en) 2011-12-12 2016-05-03 Heptagon Micro Optics Pte. Ltd. Method to compensate for errors in time-of-flight range cameras caused by multiple reflections
US8686367B2 (en) 2012-03-01 2014-04-01 Omnivision Technologies, Inc. Circuit configuration and method for time of flight sensor
CN202977967U (zh) * 2012-12-25 2013-06-05 山东省科学院海洋仪器仪表研究所 阵列式封装半导体激光器照明面板
JP6145826B2 (ja) 2013-02-07 2017-06-14 パナソニックIpマネジメント株式会社 撮像装置及びその駆動方法
US8908063B2 (en) 2013-03-11 2014-12-09 Texas Instruments Incorporated Method and apparatus for a time-of-flight sensor with charge storage
US10497737B2 (en) 2013-05-30 2019-12-03 Caeleste Cvba Enhanced dynamic range imaging
WO2015004213A1 (en) 2013-07-09 2015-01-15 Xenomatix Bvba Surround sensing system
US20150260830A1 (en) 2013-07-12 2015-09-17 Princeton Optronics Inc. 2-D Planar VCSEL Source for 3-D Imaging
US9443310B2 (en) * 2013-10-09 2016-09-13 Microsoft Technology Licensing, Llc Illumination modules that emit structured light
CN108919294B (zh) 2013-11-20 2022-06-14 新唐科技日本株式会社 测距摄像系统以及固体摄像元件
US9182490B2 (en) 2013-11-27 2015-11-10 Semiconductor Components Industries, Llc Video and 3D time-of-flight image sensors
US10230914B2 (en) 2014-02-07 2019-03-12 National University Corporation Shizuoka University Charge modulation element and solid-state imaging device
US9874638B2 (en) 2014-03-06 2018-01-23 University Of Waikato Time of flight camera system which resolves direct and multi-path radiation components
GB201407267D0 (en) 2014-04-24 2014-06-11 Cathx Res Ltd Underwater surveys
US9753140B2 (en) 2014-05-05 2017-09-05 Raytheon Company Methods and apparatus for imaging in scattering environments
WO2016020073A1 (en) 2014-08-08 2016-02-11 Cemb S.P.A. Vehicle equipment with scanning system for contactless measurement
WO2016076796A1 (en) 2014-11-12 2016-05-19 Heptagon Micro Optics Pte. Ltd. Optoelectronic modules for distance measurements and/or multi-dimensional imaging
JP6478725B2 (ja) 2015-03-09 2019-03-06 キヤノン株式会社 計測装置及びロボット
US20160295122A1 (en) 2015-04-03 2016-10-06 Canon Kabushiki Kaisha Display control apparatus, display control method, and image capturing apparatus
US20160295133A1 (en) 2015-04-06 2016-10-06 Heptagon Micro Optics Pte. Ltd. Cameras having a rgb-ir channel
CN107615093B (zh) 2015-05-28 2021-07-06 新唐科技日本株式会社 测距摄像装置、其测距方法以及固体摄像装置
JP6406449B2 (ja) 2015-06-24 2018-10-17 株式会社村田製作所 距離センサ
EP3159711A1 (en) 2015-10-23 2017-04-26 Xenomatix NV System and method for determining a distance to an object

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220004625A (ko) * 2019-03-28 2022-01-11 상하이 안예예 테크놀로지 컴퍼니 리미티드 마이크로형 고체 레이저 레이더 및 그 데이터 처리 방법

Also Published As

Publication number Publication date
EP3365700A1 (en) 2018-08-29
US10921454B2 (en) 2021-02-16
EP3365700B1 (en) 2020-09-02
BE1023788B1 (nl) 2017-07-26
JP2018531374A (ja) 2018-10-25
US20180299554A1 (en) 2018-10-18
BE1023788A1 (nl) 2017-07-26
JP6938472B2 (ja) 2021-09-22
CN108139483A (zh) 2018-06-08
WO2017068199A1 (en) 2017-04-27
CN108139483B (zh) 2022-03-01
EP3159711A1 (en) 2017-04-26

Similar Documents

Publication Publication Date Title
CN108139483B (zh) 用于确定到对象的距离的系统和方法
EP3519860B1 (en) System and method for determining a distance to an object
KR102677519B1 (ko) 물체까지의 거리를 결정하기 위한 시스템 및 방법
KR102451010B1 (ko) 물체까지의 거리를 결정하기 위한 시스템
EP3519855B1 (en) System for determining a distance to an object
JP2018531374A6 (ja) 物体までの距離を測定するためのシステムおよび方法
EP3550329A1 (en) System and method for determining a distance to an object

Legal Events

Date Code Title Description
E902 Notification of reason for refusal