KR102656212B1 - Lidar 시스템 및 방법 - Google Patents

Lidar 시스템 및 방법 Download PDF

Info

Publication number
KR102656212B1
KR102656212B1 KR1020237022935A KR20237022935A KR102656212B1 KR 102656212 B1 KR102656212 B1 KR 102656212B1 KR 1020237022935 A KR1020237022935 A KR 1020237022935A KR 20237022935 A KR20237022935 A KR 20237022935A KR 102656212 B1 KR102656212 B1 KR 102656212B1
Authority
KR
South Korea
Prior art keywords
light
view
field
processor
lidar
Prior art date
Application number
KR1020237022935A
Other languages
English (en)
Other versions
KR20230110646A (ko
Inventor
줄리앙 블라이코
오머 데이비드 킬라프
오렌 부스키라
아미트 스테인버그
로넨 에셀
Original Assignee
이노비즈 테크놀로지스 엘티디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이노비즈 테크놀로지스 엘티디 filed Critical 이노비즈 테크놀로지스 엘티디
Priority to KR1020247011385A priority Critical patent/KR102714940B1/ko
Publication of KR20230110646A publication Critical patent/KR20230110646A/ko
Application granted granted Critical
Publication of KR102656212B1 publication Critical patent/KR102656212B1/ko

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/0017Devices integrating an element dedicated to another function
    • B60Q1/0023Devices integrating an element dedicated to another function the element being a sensor, e.g. distance sensor, camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4812Constructional features, e.g. arrangements of optical elements common to transmitter and receiver transmitted and received beams following a coaxial path
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4868Controlling received signal intensity or exposure of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • G01S7/4876Extracting wanted echo signals, e.g. pulse detection by removing unwanted signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4911Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4918Controlling received signal intensity, gain or exposure of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/0816Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements
    • G02B26/0833Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements the reflecting element being a micromechanical device, e.g. a MEMS mirror, DMD
    • G02B26/0858Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements the reflecting element being a micromechanical device, e.g. a MEMS mirror, DMD the reflecting means being moved or deformed by piezoelectric means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2111/00Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
    • G05D2111/10Optical signals
    • G05D2111/17Coherent light, e.g. laser signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Optical Distance (AREA)
  • Mechanical Optical Scanning Systems (AREA)

Abstract

시스템 및 방법은, 예를 들어 환경 내의 물체를 검출하는데 LIDAR 기술을 사용한다. 일 실시예에서, LIDAR 시스템은, 적어도 하나의 광원으로부터 광을 이용하여 시야의 스캔에 걸쳐 광 플럭스를 변화시킬 수 있는 방식으로 적어도 하나의 광원을 제어하는 단계; 시야를 스캔하기 위해 상기 적어도 하나의 광원으로부터 광을 편향시키도록 적어도 하나의 광 편향기를 제어하는 단계; 제1 거리에서 상기 제1 부분에 제1 물체의 존재를 결정하기 위해 시야의 제1 부분의 스캔과 연관된 제1 검출 반사를 이용하는 단계; 상기 제1 거리에서 상기 시야의 제 2 부분에 물체의 부재를 결정하는 단계; 제1 반사의 검출 및 제2 부분에서의 물체의 부재의 결정에 이어서, 시야의 제1 부분을 향해 투영되는 것보다 많은 광이 시야의 제2 부분을 향해 투영되도록 광원 파라미터를 변경하는 단계; 상기 제1 거리보다 큰 제2 거리에서 제2 물체의 존재를 결정하기 위해 상기 시야의 제2 부분에서 제2 검출 반사를 이용하는 단계를 수행하도록 구성된 적어도 하나의 프로세서를 포함한다.

Description

LIDAR 시스템 및 방법{LIDAR SYSTEMS AND METHODS}
본 출원은 2016년 9월 20일자로 제출된 미국 가출원 제62/396,858호, 2016년 9월 20일자로 제출된 미국 가출원 제 62/396,863호, 2016년 9월 21일 제출된 미국 가출원 제62/397,379호, 2016년 10월 9일 제출된 미국 가출원 제62/405,928호, 2016년 10월 25일 제출된 미국 가출원 제62/412,294호, 2016년 10월 30일 제출된 제62/414,740호, 2016년 11월 7일 제출된 제62/418,298호, 2016년 11월 16일 제출된 제62/422,602호, 2016년 11월 22일 제출된 제62/425,089호, 2017년 1월 3일 제출된 제62/441,574호, 2017년 1월 3일 제출된 제62/441,581호, 2017년 1월 3일 제출된 제62/441,583호, 2017년 1월 18일 제출된 제62/521,450호의 우선권을 주장한다. 전술한 모든 출원의 전체 내용이 원용에 의해 본 명세서에 그 전체로서 본원에 참고로 포함된다.
기술 분야
본 발명은 일반적으로 주변 환경을 스캔하기 위한 측량 기술에 관한 것으로, 보다 구체적으로는 LIDAR 기술을 사용하여 주변 환경 내의 대상물을 검출하는 시스템 및 방법에 관한 것이다.
배경 정보
운전자 보조 시스템 및 자율 주행 차량의 출현으로 자동차는 장애물, 위험 요소, 대상 및 차량의 운전에 영향을 줄 수 있는 다른 물리적 파라미터를 식별하는 것을 포함하여 안정적으로 주변을 감지하고 해석할 수 있는 시스템을 구비해야 한다. 이를 위해 레이더, LIDAR, 카메라 기반 시스템을 단독 또는 중복 방식으로 운영하는 등 다양한 기술이 제안되었다.
운전자 보조 시스템 및 자율 주행 차량에 대한 고려 사항 중 하나는 비, 안개, 어둠, 밝은 빛 및 눈을 포함하는 여러 조건에서 주변을 결정하는 시스템의 기능이다. 광 검출 및 거리 측정 시스템 (LIDAR, LADAR라고도 알려짐)은 여러 조건에서 잘 작동 할 수 있는 기술의 한 예시로, 빛으로 물체를 비추고 센서를 사용하여 반사된 펄스를 측정함으로써 물체까지의 거리를 측정한다. 레이저는 LIDAR 시스템에서 사용할 수 있는 광원의 한 예시이다. 여느 감지 시스템과 마찬가지로 LIDAR 기반 감지 시스템이 자동차 산업에 완전히 채택되도록 하려면 시스템은 멀리 떨어진 물체를 검출할 수 있는 신뢰할 수 있는 데이터를 제공해야만 한다. 그러나 현재 LIDAR 시스템의 최대 조명 세기는 LIDAR 시스템이 안구에 안전하도록(eye-safe)(즉, 투영된 광의 방출이 눈의 각막 및 렌즈에 흡수될 때 망막에 열 손상을 일으킬 수 있으므로 인간의 안구를 손상시키지 않도록) 만들기 위해 제한된다.
본 개시의 시스템 및 방법은 안구 안전 규정을 준수하면서 LIDAR 시스템의 성능을 향상시키는 것에 관한 것이다.
본 개시와 일치하는 실시예는 LIDAR 기술을 사용하여 주변 환경 내의 대상물을 검출하는 시스템 및 방법을 제공한다.
개시된 실시예와 일치하여, LIDAR 시스템은, 적어도 하나의 광원으로부터 광을 이용하여 시야의 스캔에 걸쳐 광 플럭스를 변화시킬 수 있는 방식으로 적어도 하나의 광원을 제어하는 단계; 시야를 스캔하기 위해 상기 적어도 하나의 광원으로부터 광을 편향시키도록 적어도 하나의 광 편향기를 제어하는 단계; 제1 거리에서 상기 제1 부분에 제1 물체의 존재를 결정하기 위해 시야의 제1 부분의 스캔과 연관된 제1 검출 반사를 이용하는 단계; 상기 제1 거리에서 상기 시야의 제 2 부분에 물체의 부재를 결정하는 단계; 제1 반사의 검출 및 제2 부분에서의 물체의 부재의 결정에 이어서, 시야의 제1 부분을 향해 투영되는 것보다 많은 광이 시야의 제2 부분을 향해 투영되도록 광원 파라미터를 변경하는 단계; 상기 제1 거리보다 큰 제2 거리에서 제2 물체의 존재를 결정하기 위해 상기 시야의 제2 부분에서 제2 검출 반사를 이용하는 단계를 수행하도록 구성된 적어도 하나의 프로세서를 포함할 수 있다.
개시된 실시예와 일치하여, LIDAR 시스템은, 적어도 하나의 광원으로부터 광을 이용하여 시야의 스캔에 걸쳐 광 플럭스를 변화시킬 수 있는 방식으로 적어도 하나의 광원을 제어하는 단계; 상기 시야의 제1 부분에서 제1 거리에 물체의 부재를 결정하기 위해 상기 시야의 제1 부분을 향하는 적어도 제1 발광의 투영을 제어하는 단계; 적어도 제 1 발광에 기초하여 시야의 제1 부분에 물체의 부재가 결정될 때, 상기 시야의 제1 부분에서 상기 제1 거리보다 더 먼 제2 거리에 물체를 검출하기 위해 상기 시야의 제1 부분을 향하는 적어도 제2 발광의 투영을 제어하는 단계; 및 상기 시야의 제1 부분에서 상기 제2 거리보다 더 먼 제3 거리에 물체의 존재를 결정하기 위해 상기 시야의 제1 부분을 향하는 적어도 제3 발광의 투영을 제어하는 단계를 수행하도록 구성된 적어도 하나의 프로세서를 포함할 수 있다.
개시된 실시예와 일치하여, LIDAR 시스템은, 시야의 스캔에 걸쳐 광 플럭스가 변화할 수 있는 방식으로 적어도 하나의 광원을 제어하는 단계 - 상기 시야는 제1 부분 및 제2 부분을 포함함 -; 적어도 하나의 센서로부터 신호를 픽셀 단위 기준(pixel-by-pixel basis)으로 수신하는 단계 - 상기 신호는 상기 적어도 하나의 센서와 연관된 노이즈와 결합된 상기 시야 내의 물체에 의해 반사된 주변광 및 상기 적어도 하나의 광원으로부터의 광을 나타냄 -; 상기 시야의 상기 제1 부분과 연관된 상기 신호들의 적어도 일부에서 노이즈를 추정하는 단계; 상기 시야의 제 1 부분의 노이즈 추정에 기초하여 상기 시야의 제1 부분과 연관된 반사에 대한 센서 감도를 변경하는 단계; 상기 시야의 상기 제 2 부분과 연관된 상기 신호들의 적어도 일부에서 노이즈를 추정하는 단계; 및 상기 시야의 제2 부분의 노이즈의 추정에 기초하여 상기 시야의 제 2 부분과 연관된 반사에 대한 센서 감도를 변경하는 단계 - 상기 제2 부분과 연관된 반사에 대한 변경된 센서 감도는 상기 제1 부분과 연관된 변경된 센서 감도와 다름 - 를 수행하도록 구성되는 적어도 하나의 프로세서를 포함할 수 있다.
개시된 실시예와 일치하여, LIDAR 시스템은, 적어도 하나의 광원으로부터의 광을 이용하여 시야의 스캔에 걸쳐 광 세기를 변화시킬 수 있는 방식으로 적어도 하나의 광원을 제어하는 단계; 시야를 스캔하기 위해 적어도 하나의 광원으로부터 광을 편향시키기 위해 적어도 하나의 광 편향기를 제어하는 단계; 상기 시야에서 적어도 하나의 별개의 관심 영역의 식별을 획득하는 단계; 및 제 1 스캐닝 사이클 이후에 적어도 하나의 별개의 관심 영역과 연관된 적어도 하나의 후속하는 제2 스캐닝 사이클의 광 세기는 상기 적어도 하나의 별개의 관심 영역과 연관된 위치의 제1 스캐닝 사이클의 광 세기보다 크도록 다른 영역에 비해 상기 별개의 관심 영역의 광 할당을 증가시키는 단계를 수행하도록 구성된 적어도 하나의 프로세서를 포함할 수 있다.
개시된 실시예에 일치하여, LIDAR 시스템은, 적어도 하나의 광원으로부터의 광을 이용하여 시야의 스캔에 걸쳐 광 플럭스를 변화시킬 수 있는 방식으로 적어도 하나의 광원을 제어하는 단계; 시야를 스캔하기 위해 상기 적어도 하나의 광원으로부터 광을 편향시키기 위해 적어도 하나의 광 편향기를 제어하는 단계; 적어도 하나의 센서로부터, 시야 내의 물체로부터 반사된 광을 나타내는 반사 신호를 수신하는 단계; 초기 발광의 반사 신호에 기초하여, 물체가 상기 LIDAR 시스템의 인접 영역에 그리고 상기 적어도 하나의 광 편향기로부터의 임계 거리 내에 위치 하는지 여부를 결정하는 단계 - 상기 임계 거리는 안전 거리와 연관되며, 상기 인접 영역에서 물체가 검출되지 않는 때 상기 적어도 하나의 광원을 제어하여 추가의 발광이 상기 인접 영역을 향해 투영됨으로써 상기 인접 영역을 벗어나는 물체의 검출을 할 수 있게 함 -; 및 상기 인접 영역에서 물체가 검출될 때, 상기 적어도 하나의 광원과 상기 적어도 하나의 광 편향기 중 적어도 하나를 조절하여 상기 인접 영역에서의 광의 누적된 에너지 밀도가 최대 허용 노출을 초과하는 것을 방지하는 단계를 수행하도록 구성된 적어도 하나의 프로세서를 포함할 수 있다.
개시된 실시예에 일치하여, LIDAR 시스템은, 광원의 발광을 제어하는 단계; 상기 광원의 아웃바운드 경로에 위치한 적어도 하나의 광 편향기를 반복적으로 이동시킴으로써 시야를 스캔하는 단계 - 상기 시야의 단일 스캐닝 사이클 동안, 상기 적어도 하나의 광 편향기는 순간적으로 복수의 위치에 위치됨 -; 상기 적어도 하나의 광 편향기가 특정 순간 위치에 있는 동안, 상기 적어도 하나의 광 편향기를 통해 복귀 경로를 따라 단일 광 빔 스팟의 반사를 센서에 수신하는 단계; 상기 센서로부터 빔 스팟 단위 기준(beam-spot-by-beam-spot basis)으로 각각의 빔 스팟의 이미지와 연관된 신호를 수신하는 단계 - 상기 센서는 복수의 검출기를 포함하며, 빔 스팟 단위 기준으로 각 광 빔 스팟의 이미지가 복수의 검출기에 충돌하도록 각 검출기의 크기는 각 광 빔 스팟의 이미지보다 작음 -; 상기 복수의 검출기 상에 충돌로 인한 신호로부터 상기 단일 광 빔 스팟의 이미지와 연관된 적어도 두 개의 상이한 범위 측정치를 결정하는 단계를 수행하도록 구성되는 적어도 하나의 프로세서를 포함할 수 있다.
개시된 실시예에 일치하여, LIDAR 시스템은, 적어도 하나의 편향기가 특정 순간 위치에 있는 동안 시야를 형성하는 복수의 영역을 향하여 복수의 아웃바운드 경로를 따라 복수의 광원으로부터 광을 편향시키도록 상기 적어도 하나의 편향기를 제어하는 단계; 적어도 하나의 편향기가 특정 순간 위치에 있는 동안, 시야로부터의 광 반사가 적어도 하나의 편향기의 적어도 하나의 공통 영역 상에 수신되도록 적어도 하나의 편향기를 제어하는 단계 - 상기 적어도 하나의 공통 영역에서 상기 복수의 광원 중 적어도 일부의 광 반사 중 적어도 일부는 서로 충돌함 -; 상기 적어도 하나의 편향기가 상기 특정 순간 위치에 있는 동안 상기 적어도 하나의 공통 영역으로부터의 광 반사를 나타내는 적어도 하나의 신호를 복수의 검출기 각각으로부터 수신하는 단계를 수행하도록 구성되는 적어도 하나의 프로세서를 포함할 수 있다.
개시된 실시예와 일치하여, LIDAR 시스템은, 메모리에 저장된 광 버짓에 액세스하는 단계-상기 광 버짓은 적어도 하나의 광원과 연관되고, 상기 적어도 하나의 광원에 의해 미리 규정된 시간 주기에서 방출 가능한 광량을 규정함 -; 상기 LIDAR 시스템에 대한 플랫폼 조건을 나타내는 정보를 수신하는 단계; 상기 수신된 정보에 기초하여, LIDAR 시스템의 시야에 상기 광 버짓을 동적으로 할당하는 단계 - 상기 수신된 정보는 스캐닝 속도, 스캐닝 패턴, 스캐닝 각도, 공간 광 분포, 및 시간적 광 분포 중 적어도 2 개임 -; 상기 동적으로 할당된 광 버짓에 따라 시야의 스캔에 걸쳐 광 플럭스가 변화할 수 있는 방식으로 적어도 하나의 광원을 제어하기 위한 신호를 출력하는 단계를 수행하도록 구성되는 적어도 하나의 프로세서를 포함할 수 있다.
개시된 실시예와 일치하여, 차량에 사용하도록 구성된 LIDAR용 진동 억제 시스템은, 시야의 스캔에 걸쳐 적어도 하나의 광원으로부터의 광 플럭스를 변화시킬 수 있는 방식으로 적어도 하나의 광원을 제어하는 단계; 상기 시야를 스캔하기 위해 상기 적어도 하나의 광원으로부터 광을 편향시키기 위한 적어도 하나의 광 편향기의 위치 설정을 제어하는 단계; 차량의 진동을 나타내는 데이터를 획득하는 단계; 상기 획득된 데이터에 기초하여, 상기 차량의 진동을 보상하기 위해 상기 적어도 하나의 광 편향기의 위치 설정에 대한 조절을 결정하는 단계; 시야의 스탠하는 것에 대한 차량의 진동의 영향의 적어도 일부를 적어도 하나의 광 편향기에서 억제하기 위해 상기 적어도 하나의 광 편향기의 상기 위치 설정에 대한 상기 결정된 조절을 수행하는 단계를 실행하도록 구성되는 적어도 하나의 프로세서를 포함할 수 있다.
개시된 실시예와 일치하여, LIDAR 시스템은, 적어도 하나의 광원으로부터의 광 플럭스를 시야의 스캐닝 사이클에 걸쳐 변화시킬 수 있는 방식으로 적어도 하나의 광원을 제어하는 단계 - 상기 적어도 하나의 광원으로부터 투영된 광은 시야를 스캔하기 위해 적어도 하나의 편향기로 지향됨 -; 상기 시야 내의 물체로부터 반사된 광을 나타내는 적어도 하나의 센서 반사 신호를 수신하는 단계; 스캐닝 사이클에서 시야의 적어도 세 개의 섹터를 발생시키는 방식으로 스캔하고 광 플럭스를 조정하는(coordinate) 단계 - 상기 세 개의 섹터는 제1 광 플럭스 및 연관된 제1 검출 범위를 갖는 제1 섹터, 제2 광 플럭스 및 제2 검출 범위를 가지는 제2 섹터, 제3 광 플럭스 및 제3 검출 범위를 갖는 제3 섹터를 포함하고, 상기 제2 광 플럭스는 상기 제1 광 플럭스 및 상기 제3 광 플럭스 각각보다 큼 -; 상기 적어도 하나의 센서로부터의 입력에 기초하여, 상기 제1 검출 범위 및 상기 제3 검출 범위를 벗어난 거리에 위치한 상기 제2 섹터 내의 물체를 검출하는 단계를 수행하도록 구성되는 적어도 하나의 프로세서를 포함할 수 있다.
개시된 실시예와 일치하여, LIDAR 시스템은, 적어도 하나의 광원의 광 플럭스가 시야의 복수의 스캔에 걸쳐 변화할 수 있는 방식으로 적어도 하나의 광원을 제어하는 단계 - 시야는 근거리장 부분 및 원거리장 부분을 포함함 -; 상기 시야를 스캔하는 방식으로 상기 적어도 하나의 광원으로부터 광을 편향시키기 위해 적어도 하나의 광 편향기를 제어하는 단계; 상기 근거리장 부분을 커버하는 스캐닝 사이클과 연관된 제1 프레임에 대한 제1 스캐닝 속도 및 상기 원거리장 부분을 커버하는 스캐닝 사이클과 연관된 제2 프레임에 대한 제2 스캐닝 속도를 구현하는 단계 - 상기 제1 스캐닝 속도는 상기 제2 속도보다 큼 -; 상기 근거리장 부분과 연관된 복수의 순차적인 제1 프레임에서 물체의 검출을 가능하게 하는 광을 투영한 후에, 상기 적어도 하나의 광원을 제어하여 상기 광원 파라미터를 변경함으로써 상기 원거리장 부분과 연관된 제2 프레임 내의 물체의 검출을 가능하게 하는 방식으로 광을 투영하는 단계를 수행하도록 구성되는 적어도 하나의 프로세서를 포함할 수 있다.
개시된 실시예와 일치하여, 차량에 사용하기 위한 LIDAR 시스템은, 적어도 하나의 광원의 광 플럭스가 시야의 스캔에 걸쳐 변화할 수 있는 방식으로 적어도 하나의 광원을 제어하는 단계; 시야를 스캔하기 위하여, 상기 적어도 하나의 광원으로부터 광을 편향시키기 위해 적어도 하나의 광 편향기를 제어하는 단계; 차량의 현재 주행 환경을 나타내는 입력을 수신하는 단계; 상기 현재의 주행 환경에 기초하여, 상기 적어도 하나의 광 편향기의 제어와 상기 적어도 하나의 광원의 제어를 조정하여 투영되는 광량 및 광의 공간 광 분포를 변화시킴으로써 순간 검출 거리를 동적으로 조절하는 단계를 수행하도록 구성되는 적어도 하나의 프로세서를 포함할 수 있다.
개시된 실시예와 일치하여, 차량에 사용하기 위한 LIDAR 시스템은, 적어도 하나의 광원으로부터의 광의 광 플럭스가 시야의 스캐닝 사이클에 걸쳐 변화할 수 있는 방식으로 적어도 하나의 광원을 제어하는 단계; 시야를 스캔하기 위해 적어도 하나의 광원으로부터 광을 편향시키기 위해 적어도 하나의 편향기를 제어하는 단계; 차량의 임박한 교차선 회전을 나타내는 입력을 획득하는 단계; 상기 임박한 교차선 회전을 나타내는 상기 입력에 응답하여, 상기 적어도 하나의 광원의 제어와 적어도 하나의 광 편향기의 제어를 조정하여, 시야의 다른 부분에 비해 교차선 회전의 방향에 반대되고 차량이 합류하는 먼 차선을 포함하는 상기 차량의 한 면 상의 광 플럭스를 증가시켜서, 교차선 회전의 반대 방향의 검출 범위가 교차선 회전의 방향을 향하는 검출 범위를 일시적으로 초과하게 하는 단계를 수행하도록 구성되는 적어도 하나의 프로세서를 포함할 수 있다.
개시된 실시예와 일치하여, 고속도로를 주행하는 도로 차량과 함께 사용하기 위한 LIDAR 시스템은, 적어도 하나의 광원으로부터의 광의 광 플럭스가 시야의 스캐닝 사이클에 걸쳐 변화할 수 있는 방식으로 적어도 하나의 광원을 제어하는 단계; 시야를 스캔하기 위해 적어도 하나의 광원으로부터 광을 편향시키는 적어도 하나의 편향기를 제어하는 단계 - 상기 시야는 차량이 주행하는 고속도로에 일반적으로 대응하는 중앙 영역, 상기 고속도로의 우측 영역에 일반적으로 대응하는 우측 주변 영역, 상기 고속도로의 좌측 영역에 일반적으로 대응하는 좌측 주변 영역으로 분할 가능함 -; 차량이 고속도로 주행에 대응하는 모드에 있다는 입력을 획득하는 단계; 상기 차량이 고속도로 주행에 대응하는 모드에 있다는 상기 입력에 응답하여, 상기 적어도 하나의 광 편향기의 제어와 상기 적어도 하나의 광원의 제어를 조정하여서 중앙 영역, 우측 주변 영역, 및 좌측 주변 영역을 포위하는 시야를 스캔하는 동안에 더 많은 광이 상기 우측 주변 영역과 상기 좌측 주변 영역보다 상기 중심 영역에 지향하도록 하는 단계를 수행하도록 구성된 적어도 하나의 프로세서를 포함할 수 있다.
개시된 실시예와 일치하여, LIDAR 시스템은, 적어도 하나의 광원으로부터의 광의 광 플럭스가 시야의 스캔에 걸쳐 변화할 수 있는 방식으로 적어도 하나의 광원을 제어하는 단계; 시야를 스캔하기 위해 적어도 하나의 광원으로부터 광을 편향시키기 위해 적어도 하나의 편향기를 제어하는 단계; 시야 내의 주변광을 나타내는 정보를 적어도 하나의 센서로부터 수신하는 단계; 상기 수신된 정보에서 상기 시야의 제2 부분보다 더 많은 주변광을 갖는 상기 시야의 제1 부분의 표시를 식별하는 단계; 시야를 스캔할 때, 시야의 제1 부분을 향하여 투영된 광의 광 플럭스가 시야의 제2 부분을 향하여 투영된 광의 광 플럭스보다 크도록 광원 파라미터를 변경하는 단계를 수행하도록 구성된 적어도 하나의 프로세서를 포함할 수 있다.
개시된 실시예와 일치하여, 차량에 사용하기 위한 LIDAR 시스템은, 차량의 환경에서 복수의 물체를 조명하기 위해 시야를 향하여 광을 투영하도록 구성된 적어도 하나의 광원; 적어도 하나의 프로세서로서, 상기 적어도 하나의 광원으로부터 광의 광 플럭스가 상기 시야의 복수의 부분의 스캔에 걸쳐 변화할 수 있는 방식으로 상기 적어도 하나의 광원을 제어하는 단계 - 상기 시야를 스캔하는 동안에는 적어도 하나의 시스템 구성 요소로부터 열이 방사됨 -; 적어도 하나의 시스템 구성 요소와 연관된 온도가 임계값을 초과한다는 것을 나타내는 정보를 수신하는 단계; 상기 온도가 임계값을 초과한다는 것을 나타내는 수신된 정보에 응답하여, 적어도 하나의 후속 스캐닝 사이클 동안 이전 스캐닝 사이클에서보다 더 적은 광이 상기 시야에 전달되도록 상기 시야의 두 부분 사이의 조명비를 수정하는 단계를 수행하도록 구성되는, 프로세서를 포함할 수 있다.
개시된 실시예와 일치하여, LIDAR 시스템은 빛을 수신하기 위한 윈도우; 편향된 광을 제공하기 위해 광을 편향시키는 미세전자기계(microelectromechanical, MEMS) 미러; 프레임; 액추에이터들; 및 상기 액추에이터와 상기 MEMS 미러 사이에 기계적으로 연결된 상호연결 요소를 포함할 수 있고, 각각의 액추에이터는 바디 및 압전 소자를 포함하며, 상기 압전 소자는 전계를 받을 때 상기 바디를 굴곡하고 상기 MEMS 미러를 이동시키도록 구성되며, 상기 MEMS 미러가 아이들 위치에 위치 될 때 상기 MEMS 미러는 상기 윈도우에 대해 배향된다.
다른 개시된 실시예들과 일관되게, 방법은 상술한 임의의 프로세서 - 실행 단계들 중 하나 이상의 단계들을 포함할 수 있고 및/또는 본원에 기술된 임의의 단계들을 포함할 수 있다.
또 다른 개시된 실시예와 일치하여, 비휘발성 컴퓨터 판독가능한 저장 매체는 적어도 하나의 처리 디바이스에 의해 실행되고 본원에 기술된 방법들 중 임의의 방법을 수행하는 프로그램 명령들이 저장될 수 있다.
전술한 일반적인 설명 및 이하의 상세한 설명은 단지 예시적이고 설명적인 것이며 청구 범위를 제한하지 않는다.
첨부된 도면은 본 개시에 통합되며 본 개시의 일부를 구성하고, 다양한 개시된 실시예를 도시한다.
도 1a는 개시된 실시예와 일치하는 예시적인 LIDAR 시스템을 도시하는 다이어그램이다.
도 1b는 개시된 실시예에 일치하는 차량에 장착된 LIDAR 시스템의 단일 스캐닝 사이클의 예시적인 출력을 도시하는 이미지이다.
도 1c는 개시된 실시예와 일치하는 LIDAR 시스템의 출력으로부터 결정된 포인트 클라우드 모델의 표현을 도시하는 다른 이미지이다.
도 2a 내지 도 2d는 본 개시의 일부 실시예에 따른 투영 유닛의 상이한 구성을 도시하는 다이어그램이다.
도 3a 내지 도 3d는 본 개시의 일부 실시예에 따른 스캐닝 유닛의 상이한 구성을 나타내는 다이어그램이다.
도 4a 내지도 4e는 본 개시의 일부 실시예에 따른 감지 유닛의 상이한 구성을 나타내는 다이어그램이다.
도 5a는 시야의 단일 부분에 대한 단일 프레임 시간에서의 방사 패턴을 도시하는 4개의 예시적인 다이어그램을 포함한다.
도 5b는 전체 시야에 대한 단일 프레임 시간에서의 방출 방식을 도시하는 3개의 예시적인 다이어그램을 포함한다.
도 5c는 전체 시야에 대해 단일 프레임 시간 동안 수신된 실제 투영되는 빛의 발광 및 반사를 나타내는 도면이다.
도 6a 내지 도 6c는 본 개시의 일부 실시예와 일치하는 제1 예시적인 구현을 도시하는 다이어그램이다.
도 6d는 본 개시의 일부 실시예와 일치하는 제2 예시적인 구현을 도시하는 다이어그램이다.
도 7은 본 개시의 일부 실시예와 일치하는 LIDAR 시스템을 사용하여 물체들을 검출하기 위한 예시적인 방법을 도시하는 흐름도이다.
도 8a는 본 개시의 일부 실시예와 일치하는 2차원 센서의 한 예시를 도시하는 다이어그램이다.
도 8b는 본 개시의 일부 실시예와 일치하는 1차원 센서의 한 예시를 도시하는 다이어그램이다.
도 9a는 본 개시의 일부 실시예와 일치하는 송신 및 반사의 정렬을 갖는 예시적인 LIDAR 디바이스를 도시하는 블록 다이어그램이다.
도 9b는 본 개시의 일부 실시예와 일치하는 송신 및 반사의 정렬을 갖는 다른 예시적인 LIDAR 디바이스를 도시하는 다른 블록 다이어그램이다.
도 10a는 본 개시의 일부 실시예와 일치하는 예시적인 제 1 시야 (field of view, FOV) 및 제 2 FOV의 일부 예시들을 도시하는 다이어그램이다.
도 10b는 본 개시의 일부 실시예와 일치하는 제 1 FOV를 가로지르는 제 2 FOV의 예시적인 스캔 패턴을 나타내는 다이어그램이다.
도 10c는 본 개시의 일부 실시예와 일치하는 제 1 FOV를 가로지르는 제 2 FOV의 다른 스캔 패턴을 나타내는 다이어그램이다.
도 11은 현재 개시된 실시예에 따라 LIDAR 시스템과 연관된 시야 및 연관된 깊이 맵 장면 표현의 개략도를 제공한다.
도 12는 현재 개시된 실시예에 따라 동적으로 변할 수 있는 광 플럭스를 갖는 LIDAR 시스템을 이용하여 생성된 연관된 깊이 맵 장면 표현 및 시야의 개략도를 제공한다.
도 13은 현재 개시된 실시예에 따라 LIDAR 시스템의 스캔된 시야에 걸쳐 광 플럭스를 동적으로 변화시키는 방법의 표현의 흐름도를 제공한다.
도 14는 현재 개시된 실시예에 따라 LIDAR 시스템과 연관된 시야 및 연관된 깊이 맵 장면 표현의 개략도를 제공한다.
도 15는 현재 개시된 실시예에 따라 동적으로 변할 수 있는 광 플럭스를 갖는 LIDAR 시스템을 이용하여 생성된 연관된 깊이 맵 장면 표현 및 시야의 개략도를 제공한다.
도 16은 현재 개시된 실시예에 따라 LIDAR 시스템의 스캔된 시야에 걸쳐 광 플럭스를 동적으로 변화시키는 방법의 표현의 흐름도를 제공한다.
도 17은 현재 개시된 일부 실시예에 따라 LIDAR 시스템에서 센서 감도를 변경하기 위한 예시적인 방법을 도시하는 흐름도이다.
도 18은 현재 개시된 일부 실시예에 따라 기대 신호를 추정하는 기능을 갖는 수신 신호의 예시를 도시하는 다이어그램이다.
도 19는 현재 개시된 일부 실시예에 따른 노이즈를 추정하는 기능을 갖는 수신 신호의 예시를 도시하는 다이어그램이다.
도 20은 LIDAR 시스템을 이용하여 관심 영역 내의 대상물을 검출하는 방법의 제1 예시를 도시하는 흐름도이다.
도 21은 LIDAR 시스템을 이용하여 관심 영역 내의 대상물을 검출하는 방법의 제 2 예시를 도시하는 흐름도이다.
도 22는 개시된 실시예와 일치하는 예시적인 LIDAR 시스템을 도시하는 또다른 다이어그램이다.
도 23은 본 개시의 실시예와 일치하는 LIDAR 시스템을 도시하는 개략도이다.
도 24는 본 개시의 실시예와 일치하는 발광을 제어하기 위한 예시적인 프로세스의 흐름도이다.
도 25a는 본 개시의 실시예와 일치하는 도 24에 도시된 프로세스의 예시적인 구현의 흐름도이다.
도 25b는 본 개시의 일부 실시예들와 일치하는, 물체들을 검출하기위한 예시적인 방법을 도시하는 흐름도이다.
도 26a는 본 개시의 일부 실시예와 일치하는 LIDAR를 이용하여 물체를 검출하기위한 예시적인 방법을 도시하는 흐름도이다.
도 26b는 본 개시의 일부 실시예와 일치하는 LIDAR를 이용하여 물체를 검출하기위한 다른 예시적인 방법을 도시하는 흐름도이다.
도 26c는 본 개시의 일부 실시예와 일치하는 LIDAR를 이용하여 물체를 검출하는 또 다른 예시적인 방법을 도시하는 흐름도이다.
도 27은 본 개시의 일부 실시예와 일치하는 복수의 광원 및 공통 편향기를 갖는 LIDAR 시스템의 다이어그램이다.
도 28은 본 개시의 일부 실시예와 일치하는 복수의 광원 및 공통 편향기를 갖는 다른 LIDAR 시스템의 도면이다.
도 29는 LIDAR 시스템(100)이 사용 가능한 광 버짓 및/또는 컴퓨터의 버짓을 배당하는데 의존 할 수 있는 다양한 정보 소스와 함께 LIDAR 시스템(100)의 표현의 블록 다이어그램을 제공한다.
도 30a는 개시된 실시예들과 일치하는 할당된 버짓에 기초하여 LIDAR 시스템을 제어하기 위한 방법(3000)의 일 예시를 제공하는 흐름도를 제공한다.
도 30b는 본 개시에 따른 LIDAR 시스템을 제어하기 위한 예시적인 방법의 표현의 흐름도를 제공한다.
도 31은 현재 개시된 실시예들과 일치하는 비 균일한 방식으로 광학 버짓의 배분을 정당화 할 수 있는 상황의 개략적인 예시를 제공한다.
도 32a 내지 도 32g는 예시된 실시예와 일치하는 차량, 진동 보상 시스템, 스티어링 디바이스, 중앙 처리 장치 (CPU), 액추에이터 미러, 듀얼축 MEMS 미러, 싱글축 MEMS 미러, 및 일부 실시예에 따른 라운드형 MEMS 미러를 도시하는 다이어그램이다.
도 33은 예시적인 개시된 실시예와 일치하는, 도로를 따라 감지된 모션을 보상 할 수 있는 LIDAR 시스템 설치를 도시하는 개략도이다.
도 34는 차량 진동 보상 시스템을 이용하는 방법을 도시하는 흐름도이다.
도 35a 내지 도 35d는 현재 개시된 실시예들과 일치하는 상이한 섹터들에서의 상이한 검출 범위들의 개략도이다.
도 36은 현재 개시된 실시예들과 일치하는, 시야 내의 상이한 섹터들을 도시하는 다이어그램이다.
도 37은 현재 개시된 실시예들과 일치하는, LIDAR 시스템을 이용하여 관심 영역 내의 물체들을 검출하는 방법의 일 예시를 도시하는 흐름도이다.
도 38은 본 개시의 실시예와 일치하는 LIDAR 시스템의 시야에 대한 개략도이다.
도 39는 본 개시의 실시예와 일치하는 LIDAR 시스템의 예시적인 시야의 개략도이다.
도 40a 및 도 40b는 본 개시의 실시예와 일치하는 스캔 프로세스의 예시적인 구현의 흐름도이다.
도 41a는 본 개시의 일부 실시예와 일치하는 LIDAR를 이용하여 차량의 경로 내의 물체를 검출하기 위한 예시적인 방법을 도시하는 흐름도이다.
도 41b는 본 개시의 일부 실시예와 일치하는 LIDAR를 이용하여 차량의 경로 내의 물체를 검출하기 위한 다른 예시적인 방법을 도시하는 흐름도이다.
도 42a는 본 개시의 일부 실시예와 일치하는 도시 환경에서의 차량의 예시를 도시한 다이어그램이다.
도 42b는 본 개시의 일부 실시예와 일치하는 농촌 환경에서의 차량의 예시를 도시한 다이어그램이다.
도 42c는 본 개시의 일부 실시예와 일치하는 교통 정체에서의 차량의 예시를 도시한 다이어그램이다.
도 42d는 본 개시의 일부 실시예와 일치하는 터널 내 차량의 예시를 도시하는 다이어그램이다.
도 42e는 본 개시의 일부 실시예와 일치하는 터널을 빠져 나가는 차량의 예시를 도시하는 다이어그램이다.
도 42f는 도 42a, 도 42b, 및 도 42c의 예시적인 차량을 본 개시의 일부 실시예와 일치하는 상이한 각도로부터 도시된 다이어그램이다.
도 43은 적어도 하나의 광편 향기의 공통 영역을 겨냥한 복수의 광원을 갖는 예시적인 LIDAR 시스템을 도시하는 도면이다.
도 44는 본 개시의 일부 실시예와 일치하는 교차로 차량 턴을 위한 LIDAR 검출 방식에 대한 예시적인 방법을 도시하는 흐름도이다.
도 45는 본 개시의 일부 실시예와 일치하는 LIDAR 검출 스캔 방식의 일 예시를 도시하는 다이어그램이다.
도 46a 및 46b는 본 개시의 일부 실시예들과 일치하는 교차로 차량 턴 및 다른 상황들에 대한 LIDAR 검출 방식들의 일 예시를 도시하는 다이어그램이다.
도 47은 예시적인 개시된 실시예와 일치하는 LIDAR 시스템의 도움으로 고속도로 환경에서 주행하는 차량의 개략도를 제공한다.
도 48a 내지 도 48d는 예시적인 개시된 실시예에 따른 고속도로 환경에서의 LIDAR 시스템에 의한 동적 조명 할당의 개략도이다.
도 49는 예시적인 개시된 실시예와 일치하는 LIDAR를 이용하여 차량의 경로 내의 물체를 검출하는 방법을 도시한다.
도 50은 예시적으로 개시된 실시예에 따른 LIDAR 시스템을 위한 감지 장치의 일 예시를 도시하는 도면이다.
도 51은 LIDAR 시야의 상이한 부분을 나타내는 개략도이다.
도 52는 LIDAR 시스템을 이용하여 관심 영역 내의 대상물을 검출하는 방법의 일 예시를 도시하는 흐름도이다.
도 53은 본 개시의 실시예와 일치하는 LIDAR 시스템의 개략도이다.
도 54는 본 개시의 실시예와 일치하는 온도 감소 프로세스의 예시적인 구현의 흐름도이다.
도 55는 본 개시의 실시예와 일치하는 온도 감소 프로세스의 예시적인 구현의 흐름도이다.
도 56 내지 84는 본 개시의 일부 실시예에 따른 LIDAR 시스템의 스캐닝 유닛에 통합된 MEMS 미러 및 연관된 컴포넌트의 다양한 예시를 도시하는 다이어그램이다.
이하의 발명의 상세한 설명은 첨부된 도면을 참조한다. 가능하면, 동일한 참조 번호는 도면 및 이하의 설명에서 동일하거나 유사한 부분을 나타내기 위해 사용된다. 몇몇 예시적인 실시예가 본원에 기술되지만, 수정, 적용, 및 기타 구현이 가능하다. 예를 들어, 도면들에 도시된 구성 요소에 대한 대체, 추가 또는 수정이 이루어질 수 있으며, 본원에 기술된 방법들은 개시된 방법에 단계들을 대체, 재정렬, 제거 또는 추가함으로써 수정될 수 있다. 따라서, 이하의 상세한 설명은 개시된 실시예 및 예시들에 한정되지 않는다. 대신, 적절한 범위는 첨부된 청구 범위에 의해 정의된다.
용어 정의
개시된 실시예는 광학 시스템을 포함할 수 있다. 본원에 사용된 "광학 시스템"은 광의 발생, 검출, 및/또는 조작에 사용되는 임의의 시스템을 광범위하게 포함한다. 단지 예시로서, 광학 시스템은 광을 생성, 검출, 및/또는 조작하기위한 하나 이상의 광학 구성 요소를 포함할 수 있다. 예를 들어, 광원, 렌즈, 미러, 프리즘, 빔 스플리터, 콜리메이터, 편광 광학계, 광 변조기, 광 스위치, 광 증폭기, 광 검출기, 광학 센서, 광섬유, 반도체 광학 구성 요소는 각각 필수적이지는 않지만 광학 시스템의 일부일 수 있다. 하나 이상의 광학 구성 요소 이외에, 광학 시스템은 또한 전기적 구성 요소, 기계적 구성 요소, 화학 반응 구성 요소, 및 반도체 구성 요소와 같은 다른 비 광학 구성 요소를 또한 포함할 수 있다. 비 광학 구성 요소는 광학 시스템의 광학 구성 요소와 협동할 수 있다. 예를 들어, 광학 시스템은 검출된 광을 분석하기 위한 적어도 하나의 프로세서를 포함할 수 있다.
본 개시와 일치하여, 광학 시스템은 LIDAR 시스템 일 수 있다. 본원에 사용된 바와 같이, 용어 "LIDAR 시스템"은 반사된 광에 기초하여 한 쌍의 유형 물체들 사이의 거리를 나타내는 파라미터 값을 결정할 수 있는 임의의 시스템을 포괄적으로 포함한다. 일 실시예에서, LIDAR 시스템은 LIDAR 시스템에 의해 방출된 광의 반사에 기초하여 한 쌍의 유형 물체들 사이의 거리를 결정할 수 있다. 본원에서 사용되는 용어 "거리 결정"은 한 쌍의 유형 물체들 사이의 거리를 나타내는 출력을 생성하는 것을 포괄적으로 포함한다. 결정된 거리는 한 쌍의 유형 물체들 사이의 물리적 차원을 나타낼 수 있다. 단지 예시로서, 결정된 거리는 LIDAR 시스템의 시야 내의 다른 유형의 물체와 LIDAR 시스템 사이의 비행 거리의 라인을 포함할 수 있다. 다른 실시예에서, LIDAR 시스템은 LIDAR 시스템에 의해 방출된 광의 반사에 기초하여 한 쌍의 유형 물체 간의 상대 속도를 결정할 수 있다. 한 쌍의 유형 물체 사이의 거리를 나타내는 출력의 예시는 : 유형 물체 간의 표준 길이 단위의 수 (예 : 미터 수, 인치 수, 킬로미터 수, 밀리미터 수), 임의의 길이 단위 수 (예 : LIDAR 시스템 길이의 수), 다른 길이에 대한 거리와의 비율 (예 : LIDAR 시스템의 시야에서 검출된 물체의 길이에 대한 비율), 시간의 양 (예 : 표준 단위로 주어진 임의의 단위 또는 비율, 예를 들어, 빛이 유형 물체 사이를 이동하는데 걸리는 시간), 하나 이상의 위치 (예 : 합의된 좌표계를 사용하여 지정된, 알려진 위치와 관련하여 지정된) 등을 포함할 수 있다.
LIDAR 시스템은 반사된 빛에 기반하여 한 쌍의 유형 물체들 사이의 거리를 결정할 수 있다. 일 실시예에서, LIDAR 시스템은, 광 신호의 방출과 센서에 의한 그것의 검출 시간 사이의 시간주기를 나타내는 시간정보를 생성하는 센서의 검출 결과를 처리할 수 있다. 이 기간은 때로는 광 신호의 "비행 시간"이라고도 한다. 일 예시에서, 광 신호는 짧은 펄스일 수 있고, 그의 상승 및/또는 하강 시간은 수신 시 검출될 수 있다. 관련 매질(보통 공기)에서 빛의 속도에 관한 공지된 정보를 사용하여 광 신호의 비행 시간에 관한 정보를 처리하여 광 신호의 방출과 검출 사이에 이동한 거리를 제공할 수 있다. 다른 실시예에서, LIDAR 시스템은 주파수 위상 천이(또는 다중 주파수 위상 천이)에 기초하여 거리를 결정할 수 있다. 구체적으로, LIDAR 시스템은 광 신호의 하나 이상의 변조 위상 천이 (예를 들어, 최종 측정을 제공하는 몇몇의 동시 방정식들을 풂으로써)를 나타내는 정보를 처리할 수 있다. 예를 들어, 방출된 광 신호는 하나 이상의 일정한 주파수로 변조될 수 있다. 방출된 신호와 검출된 반사 사이의 변조의 적어도 하나의 위상 천이는 광의 방출과 검출 사이에 이동한 거리를 나타낼 수 있다. 변조는 연속파 광 신호, 준 연속파 광 신호, 또는 다른 형태의 방출된 광 신호에 적용될 수 있다. 추가 정보는 거리, 예를 들어 투영 위치 간의 위치 정보(예를 들어, 상대 위치), 신호의 검출 위치(특히, 서로 떨어져있는 경우) 등을 결정하기 위해 LIDAR 시스템에 의해 사용될 수 있다.
일부 실시예에서, LIDAR 시스템은 LIDAR 시스템의 환경에서 복수의 물체를 검출하는데 사용될 수 있다. "LIDAR 시스템의 환경에서 물체를 검출"이란 용어는 광을 LIDAR 시스템과 연관된 검출기를 향해 빛을 반사한 물체를 나타내는 정보를 생성하는 것을 광범위하게 포함한다. 하나 이상의 물체가 LIDAR 시스템에 의해 검출되면, 서로 다른 물체에 관계된 생성된 정보, 예를 들어 도로에서 주행하는 자동차, 나무에 앉아 있는 새, 자전거를 타는 사람, 빌딩을 향해 움직이는 밴이 상호연결될 수 있다. LIDAR 시스템이 물체를 검출하는 환경의 차원은 구현 측면에서 변할 수 있다. 예를 들어, LIDAR 시스템은 LIDAR 시스템이 설치된 차량의 환경에서 100m (또는 200m, 300m 등)의 수평 거리, 10m (또는 25m, 50m 등)의 수직 거리까지의 복수의 물체를 검출하는데 사용될 수 있다. 다른 예시에서, LIDAR 시스템은 차량의 환경 또는 미리 규정된 수평 범위 (예를 들어, 25 °, 50 °, 100 °, 180 ° 등)와 미리 정의된 수직 고도 (예를 들어, ± 10 °, ± 20 °, + 40 ° -20 °, ± 90 °, 또는 0 ° -90 °) 내에서 복수의 물체를 검출하는데 사용될 수 있다.
본원에서 사용된 바와 같이, "물체 검출”이라는 용어는 물체의 존재(예를 들어, 물체가 LIDAR 시스템 및/또는 다른 기준 위치에 대해 특정 방향으로 존재할 수 있거나, 물체가 어떤 공간 볼륨에 존재할 수 있음)를 결정하는 것을 광범위하게 지칭할 수 있다. 추가적으로 또는 대안적으로, "물체 검출”이라는 용어는 물체와 다른 위치(예를 들어, LIDAR 시스템의 위치, 지구상의 위치 또는 다른 물체의 위치) 사이의 거리를 결정하는 것을 지칭할 수 있다. 추가적으로 또는 대안적으로, "물체 검출"이라는 용어는 물체를 식별하는 것 (예를 들어, 자동차, 식물, 나무, 도로와 같은 물체의 유형 분류), 특정 물체의 인식하는 것(예를 들어, 워싱턴 기념비), 번호판 번호를 결정하는 것, 물체의 구성(예를 들어, 고체, 액체, 투명, 반투명)을 결정하는 것, 물체의 운동학적 파라미터(예를 들어, 물체가 이동하고 있는지, 속도, 이동 방향, 물체의 팽창)를 결정하는 것을 지칭할 수 있다. 추가적으로 또는 대안적으로, "물체 검출"이라는 용어는 포인트 클라우드 맵의 하나 이상의 포인트들의 모든 포인트가 물체 내의 위치 또는 그 얼굴 상의 위치에 대응하는 포인트 클라우드 맵을 생성하는 것을 지칭할 수 있다. 일 실시예에서, 시야의 포인트 클라우드 맵 표현과 연관된 데이터 해상도는 시야의 0.1° x0.1° 또는 0.3° x0.3°와 연관될 수 있다.
본 개시와 일치하여, "물체"라는 용어는 광의 적어도 일부분으로부터 광을 반사할 수 있는 유한한 조성의 물질을 광범위하게 포함한다. 예를 들어, 물체는 적어도 부분적으로 고체(예를 들어, 자동차, 나무); 적어도 부분적으로 액체(예를 들어, 도로상의 웅덩이, 비); 적어도 부분적으로 가스(예를 들어, 연기, 구름); 수많은 별개의 입자(예를 들어, 모래 폭풍우, 안개, 스프레이)로 만들어진 것; 및 ~1밀리미터(mm), ~5mm, ~10mm, ~50mm, ~100mm, ~500mm, ~1미터(m), ~5m, ~10m, ~50m, ~100m 등과 같은 크기의 하나 이상의 스케일 일 수 있다. 이러한 예시들 사이의 임의의 크기 뿐만 아니라 더 작거나 더 큰 물체들 또한 검출될 수 있다. 다양한 이유로, LIDAR 시스템은 물체의 일부분만을 검출할 수 있다는 것을 유의해야 한다. 예를 들어, 어떤 경우에는 물체의 일부면에서만 광이 반사될 수 있고(예를 들어, LIDAR 시스템과 반대되는 면만 검출), 다른 경우에는 물체의 일부분에만 광이 투영될 수 있으며(예를 들어, 도로 또는 건물에 투영된 레이저 빔), 다른 경우에 물체는 LIDAR 시스템과 검출된 물체 사이의 다른 물체에 의해 부분적으로 차단될 수 있으며, 또 다른 경우에 LIDAR의 센서는 주변광 또는 다른 간섭이 물체의 일부분의 검출을 방해하기 때문에 물체의 일부로부터 반사된 광만을 검출할 수 있다.
본 개시와 일치하여, LIDAR 시스템은 LIDAR 시스템의 환경을 스캔함으로써 물체를 검출하도록 구성될 수 있다. “LIDAR 시스템의 환경 스캔"이라는 용어는 LIDAR 시스템의 시야 또는 시야의 일부를 조명하는 것을 포괄적으로 포함한다. 일 예시에서, LIDAR 시스템의 환경을 스캔하는 것은 광 편향기를 이동시키거나 피봇시킴으로써 시야의 상이한 부분을 향해 상이한 방향으로 광을 편향시켜 달성될 수 있다. 다른 예시에서, LIDAR 시스템의 환경을 스캔하는 것은 시야에 대해 센서의 위치(즉, 위치 및/또는 방향)를 변화시킴으로써 달성될 수 있다. 다른 예시에서, LIDAR 시스템의 환경을 스캔하는 것은 시야에 대해 광원의 위치(즉, 위치 및/또는 방향)를 변화시킴으로써 달성될 수 있다. 또 다른 예시에서, LIDAR 시스템의 환경을 스캔하는 것은 적어도 하나의 광원 및 적어도 하나의 센서의 위치를 시야에 대해 고정되어 이동하도록 위치를 변경함으로써 달성될 수 있다(즉, 적어도 하나의 센서와 적어도 하나의 광원의 상대적 거리 및 방향은 남아있다).
본원에 사용된 바와 같이, 용어 "LIDAR 시스템의 시야"는 물체가 검출될 수 있는 LIDAR 시스템의 관찰 가능한 환경의 범위를 광범위하게 포함할 수 있다. LIDAR 시스템의 FOV(field of view)는 LIDAR 시스템의 방향(예를 들어, LIDAR 시스템의 광축 방향), 환경에 대한 LIDAR 시스템의 위치(예를 들어, 지면 위의 거리 및 인접한 지형과 장애물), LIDAR 시스템의 작동 파라미터(예를 들어, 방출 전력, 계산 설정, 규정된 작동 각도) 등과 같은 다양한 조건에 의해 영향을 받을 수 있다는 점을 유의해야 한다. LIDAR 시스템의 시야는 예를 들어 입체각(예를 들어, φ와 θ 각을 사용하여 규정되며, 여기서 φ와 θ는 수직 평면, 예를 들어 LIDAR 시스템 및/또는 그것의 FOV의 대칭 축에 대해 규정된 각도)으로 규정될 수 있다. 일 예시에서, 시야는 또한 특정 범위(예를 들어, 최대 200m) 내에서 규정될 수 있다.
마찬가지로, "순간 시야"라는 용어는 주어진 순간에 물체가 LIDAR 시스템에 의해 검출될 수 있는 관찰 가능한 환경의 범위를 포괄적으로 포함할 수 있다. 예를 들어, 스캐닝 LIDAR 시스템의 경우 순간 시야가 LIDAR 시스템의 전체 FOV보다 좁으며 LIDAR 시스템의 FOV의 다른 부분을 검출할 수 있도록 LIDAR 시스템의 FOV 내에서 이동될 수 있다. LIDAR 시스템의 FOV 내의 순간 시야의 이동은 LIDAR 시스템의 광 편향기(또는 LIDAR 시스템의 외부)를 이동시킴으로써 달성될 수 있어서 광 빔을 LIDAR 시스템으로 및/또는 LIDAR 시스템으로부터 상이한 방향으로 편향시킬 수 있다. 일 실시예에서, LIDAR 시스템은 LIDAR 시스템이 작동하는 환경에서 장면을 스캔하도록 구성될 수 있다. 본원에서 사용되는 “장면”이라는 용어는 LIDAR 시스템의 동작 지속기간 내에서의 LIDAR 시스템의 시야 내에 있는 물체의 일부 또는 전부를 그들의 상대 위치와 그들의 현재 상태로 포함할 수 있다. 예를 들어, 장면에는 지상 요소(예를 들어, 땅, 도로, 잔디, 보도, 도로 표면 표시), 하늘, 인공물 (예를 들어, 차량, 건물, 간판), 식물, 사람, 동물, 투광 요소(예를 들어, 손전등, 태양, 다른 LIDAR 시스템)등을 포함할 수 있다.
개시된 실시예는 재구성된 3차원 모델을 생성하는데 사용하기 위한 정보를 얻는 것을 포함할 수 있다. 사용될 수 있는 재구성된 3차원 모델의 유형의 예시는 포인트 클라우드 모델 및 다각형 메쉬(예를 들어, 삼각형 메쉬)를 포함한다. "포인트 클라우드” 및 "포인트 클라우드 모델"이라는 용어는 당 업계에 널리 공지되어 있으며, 어떤 좌표계에서 공간적으로 위치하는 데이터 포인트들의 세트를 포함하는 것으로 해석되어야 한다(즉, 각각의 좌표계에 의해 기술된 공간에서 식별 가능한 위치를 가짐). “포인트 클라우드 포인트(point cloud point)”라는 용어는 공간 상의 한 포인트(무차원 또는 소형 셀룰러 공간, 예를 들어 1cm 3 일 수 있음)를 가르키며, 그 위치는 좌표 세트(예를 들어, (X, Y, Z), (r, φ, θ))를 사용하여 포인트 클라우드 모델에 의해 기술될 수 있다. 단지 예시로서, 포인트 클라우드 모델은 포인트의 일부 또는 전부에 대한 추가 정보(예를 들어, 카메라 이미지에서 생성된 포인트에 대한 색상 정보)를 저장할 수 있다. 마찬가지로, 재구성된 3 차원 모델의 임의의 다른 유형은 그 물체의 일부 또는 전부에 대한 추가 정보를 저장할 수 있다. 이와 유사하게, "다각형 메쉬” 및 "삼각형 메쉬"라는 용어는 당 업계에 널리 공지되어 있으며, 하나 이상의 (다면체 물체와 같은) 3D 물체의 형태를 규정하는 정점, 모서리, 면들의 세트와 다른 것들도 포함하는 것으로 해석되어야 한다. 상기 면은 삼각형(삼각형 메쉬), 사변형, 또는 기타 간단한 볼록다각형 중 하나 이상을 포함할 수 있고, 이는 렌더링을 단순하게 할 수 있다. 상기 면은 더 일반적인 오목다각형 또는 구멍을 가지는 다각형을 포함할 수도 있다. 다각형 메쉬는 정점-정점 메쉬, 면-정점 메쉬, 날개형 모서리 메쉬, 및 렌더 동적 메쉬와 같은 상이한 기술을 사용하여 표현될 수 있다. 다각형 메쉬의 다른 부분 (예를 들어, 정점, 면, 모서리)은 직접 및/또는 서로에 대해 일부 좌표계에서 공간적으로 위치한다(즉, 각 좌표계에 의해 기술된 공간에서 식별 가능한 위치를 가짐). 재구성된 3 차원 모델의 생성은 임의의 표준, 전용 및/또는 신규한 사진 측량 기술을 사용하여 구현될 수 있으며, 이 기술 중 다수는 당 업계에 공지되어 있다. 환경의 다른 유형의 모델은 LIDAR 시스템에 의해 생성될 수 있다는 것을 유의해야 한다.
개시된 실시예들과 일치하여, LIDAR 시스템은 광을 투영하도록 구성된 광원을 갖는 적어도 하나의 투영 유닛을 포함할 수 있다. 본원에 사용된 바와 같이, "광원"이라는 용어는 광을 방출하도록 구성된 임의의 디바이스를 광범위하게 지칭한다. 일 실시예에서, 광원은 고체 레이저, 레이저 다이오드, 고전력 레이저, 또는 발광 다이오드(LED) 기반 광원과 같은 대안적인 광원과 같은 레이저일 수 있다. 또한, 도면 전체에 걸쳐 도시된 바와 같은 광원(112)은 광 펄스, 연속파(continuous wave, CW), 준-CW 등과 같은 상이한 포맷으로 광을 방출할 수 있다. 예를 들어, 사용될 수 있는 광원의 한 유형은 수직 공동 표면 방출 레이저(vertical-cavity surface-emitting laser, VCSEL)이다. 사용될 수 있는 또 다른 유형의 광원은 외부 공동 다이오드 레이저(external cavity diode laser, ECDL)이다. 일부 예시에서, 광원은 약 650nm내지 1150nm의 파장의 광을 방출하도록 구성된 레이저 다이오드를 포함할 수 있다. 대안적으로, 광원은 약 800 nm 내지 약 1000 nm, 약 850 nm 내지 약 950 nm, 또는 약 1300 nm 내지 약 1600 nm의 파장에서 광을 방출하도록 구성된 레이저 다이오드를 포함할 수 있다. 달리 명시되지 않는 한, 숫자 값에 대한 "약"이라는 용어는 명시된 값에 대해 최대 5%까지의 분산으로 규정된다. 투영 유닛 및 적어도 하나의 광원에 대한 추가적인 세부 사항은 도 2a 내지 도 2c를 참조하여 이하에서 기술된다.
개시된 실시예에 일치하여, LIDAR 시스템은 시야를 스캔하기 위해 광원으로부터 광을 편향시키도록 구성된 적어도 하나의 광 편향기를 가진 적어도 하나의 스캐닝 유닛을 포함할 수 있다. "광 편향기"라는 용어는 광을 원래의 경로로부터 벗어나게 하도록 구성된 임의의 기구 또는 모듈을 광범위하게 포함하며, 예를 들어, 미러, 프리즘, 제어 가능한 렌즈, 기계적 미러, 기계적 스캔 다각형, 능동 회절 (예를 들어, 제어 가능한 LCD), 리슬리 프리즘, (Vscent에 의해 제작된 것과 같은) 비 기계식 전자 광학 빔 스티어링, (볼더(Boulder) 비선형 시스템에 의해 제공된 것과 같은) 편광 격자, 광학 위상 어레이(optical phased array, OPA) 등이 있다. 일 실시예에서, 광 편향기는 적어도 하나의 반사 요소(예를 들어, 미러), 적어도 하나의 굴절 요소(예를 들어, 프리즘, 렌즈) 등과 같은 복수의 광학 구성 요소를 포함할 수 있다. 일 예시에서, 광 편향기는 광을 다른 각도(예를 들어, 이산 각도 또는 연속적인 범위의 각도)로 벗어나게 하도록 이동 가능할 수 있다. 광 편향기는 선택적으로 상이한 방식(예를 들어, 각도 α로 편향, 편향각을 Δα만큼 변화, M mm만큼 광 편향기의 구성 요소를 이동, 편향각이 변화하는 속도를 변화)으로 제어 가능하다. 또한, 광 편향기는 선택적으로 단일 평면 (예를 들어, θ 좌표) 내에서 편향하는 각을 변화시키도록 작동될 수 있다. 광 편향기는 선택적으로 2 개의 비 평행면(예를 들어, θ 및 φ 좌표) 내에서 편향하는 각을 변화시키도록 작동될 수 있다. 대안적으로 또는 추가적으로, 광 편향기는 (예를 들어, 미리 규정된 스캐닝 경로를 따르는) 미리 규정된 설정 또는 그렇지 않은 상태 사이에서 편향하는 각을 변화시키도록 선택적으로 작동될 수 있다. LIDAR 시스템에서의 광 편향기의 사용과 관련하여, 광 편향기는 광원으로부터 광을 시야의 적어도 일부분으로 편향시키기 위해 아웃바운드 방향 (전송 방향 또는 TX라고도 함)으로 광 편향기가 사용될 수 있다는 것을 유의해야 한다. 그러나, 광 편향기는 또한 시야의 적어도 일부로부터의 광을 하나 이상의 광 센서로 편향시키기 위해 인바운드 방향 (수신 방향 또는 RX라고도 함)으로도 사용될 수 있다. 스캐닝 유닛 및 적어도 하나의 광 편향기에 대한 추가적인 세부 사항은 도 3a 내지 3c를 참조하여 이하에서 기술된다.
개시된 실시예는 시야를 스캔하기 위해 광 편향기를 피봇하는 것을 포함할 수 있다. 본원에서 사용되는 "피봇(pivoting)"이라는 용어는 대체로 회전 중심을 고정하여 유지하면서 하나 이상의 회전축을 중심으로 물체(특히 고체 물체)를 회전시키는 것을 포괄적으로 포함한다. 일 실시예에서, 광 편향기의 피봇은 고정축(예를 들어, 샤프트)에 대한 광 편향기의 회전을 포함할 수 있지만, 필수인 것은 아니다. 예를 들어, 일부 MEMS 미러 구현에서, MEMS 미러는은 미러에 연결된 복수의 벤더의 작동에 의해 움직일 수 있으며, 미러는 회전 이외에도 일부 공간 변환을 경험할 수 있다. 그럼에도 불구하고, 이러한 미러는 실질적으로 고정된 축을 중심으로 회전하도록 설계될 수 있으며, 따라서 본원과 일치하여 피봇되는 것으로 고려된다. 다른 실시예에서, 광 편향기의 일부 유형(예를 들어, 비 기계식 전자 광학 빔 스티어링, OPA)은 편향된 광의 편향각을 변화시키기 위해 임의의 이동 구성 요소 또는 내부 이동을 필요로 하지 않는다. 광 편향기의 이동 또는 피봇과 관련된 논의는 또한 광 편향기를 제어하는데 필요한 부분만 약간 수정하여 적용 가능하여서 광 편향기의 편향 가동을 변화시킨다. 예를 들어, 광 편향기를 제어하는 것은 적어도 하나의 방향으로부터 도달하는 광 빔의 편향각의 변화를 유발할 수 있다.
개시된 실시예는 광 편향기의 단일 순간 위치에 대응하는 시야의 일부와 연관된 반사를 수신하는 것을 포함할 수 있다. 본원에 사용 된 바와 같이, "광 편향기의 순간 위치("광 편향기의 상태"라고도 함)”는 광 편향기의 적어도 하나의 제어된 구성 요소가 순간 시점 또는 짧은 시간 범위에 걸쳐 위치하는 공간 내의 위치 또는 장소를 포괄적으로 지칭한다. 일 실시예에서, 광 편향기의 순간 위치는 기준 프레임에 대해 측정될 수 있다. 기준 프레임은 LIDAR 시스템에서 적어도 하나의 고정된 포인트와 관련될 수 있다. 또는, 예를 들어, 기준 프레임은 장면의 적어도 하나의 고정된 포인트와 관련될 수 있다. 일부 실시예에서, 광 편향기의 순간 위치는 광 편향기(예를 들어, 미러, 프리즘)의 하나 이상의 구성 요소의 일부 이동을 포함할 수 있는데, 이는 일반적으로 시야를 스캔하는 동안 변화의 최대 각도와 관련하여 제한된 각도이다. 예를 들어, LIDAR 시스템의 전체 시야의 스캐닝은 30 °의 범위에 걸쳐 광의 편향을 변화시키는 것을 포함할 수 있고, 적어도 하나의 광 편향기의 순간 위치는 0.05 ° 내에서 광 편향기의 각도 천이를 포함할 수 있다. 다른 실시예에서, "광 편향기의 순간 위치"라는 용어는, LIDAR 시스템에 의해 생성된 포인트 클라우드 (또는 다른 유형의 3D 모델)의 단일 포인트에 대한 데이터를 제공하도록 처리되는 광을 획득하는 동안 광 편향기의 위치를 가르킬 수 있다. 일부 실시예에서, 광 편향기의 순간 위치는 LIDAR 시야의 특정 서브 영역을 조명하는 동안 편향기가 짧은 시간 잠시 멈추는 고정된 위치 또는 방향과 일치할 수 있다. 다른 경우에, 광 편향기의 순간 위치는 광 편향기가 LIDAR 시야의 연속 또는 반-연속 스캔의 일부로서 통과하는 광 편향기의 위치/방향의 스캔된 범위를 따르는 소정의 위치/방향과 일치할 수 있다. 일부 실시예에서, 광 편향기는 LIDAR FOV의 스캐닝 사이클 동안 광 편향기가 상이한 복수의 순간 위치에 위치하도록 이동될 수 있다. 즉, 스캐닝 사이클이 발생하는 기간 동안, 편향기는 일련의 상이한 순간 위치/방향을 통해 이동될 수 있고, 편향기는 스캐닝 사이클 동안 상이한 시간에 상이한 순간 위치/방향 각각에 도달할 수 있다.
개시된 실시예들과 일치하게, LIDAR 시스템은 시야 내의 물체들로부터의 반사를 검출하도록 구성된 적어도 하나의 센서를 갖는 적어도 하나의 감지 유닛을 포함할 수 있다. "센서"라는 용어는 전자기파의 특성(예를 들어, 전력, 주파수, 위상, 펄스 시간, 펄스 지속 시간)을 측정하고 측정된 특성과 관련된 출력을 생성할 수 있는 모든 디바이스, 요소, 또는 시스템을 광범위하게 포함한다. 일부 실시예에서, 적어도 하나의 센서는 복수의 검출 요소로 구성된 복수의 검출기를 포함할 수 있다. 적어도 하나의 센서는 하나 이상의 유형의 광 센서를 포함할 수 있다. 적어도 하나의 센서는 다른 특성(예를 들어, 감도, 크기)들이 상이할 수 있는 동일한 유형의 다중 센서를 포함할 수 있다는 것을 유의해야 한다. 다른 유형의 센서가 또한 사용될 수 있다. 몇 가지 유형의 센서의 조합은 여러가지 이유: 다양한 범위(특히 근거리에서)의 검출 개선, 센서의 동적 범위 개선; 센서의 시간 응답 개선; 다양한 환경 조건(예를 들어, 대기 온도, 비 등)에서의 검출 개선 등을 이유로 사용될 수 있다.
일 실시예에서, 적어도 하나의 센서는 애벌랜치 광다이오드(avalanche photodiode, APD)와 단일 광자 애벌랜치 다이오드(single photon avalanche diode, SPAD)의 어레이로부터 만들어진 고체 상태 단일 광자 민감 디바이스인 SiPM(Silicon photomultipliers)을 포함하며, 이는 공통 실리콘 기판에서 검출 요소로서 작용한다. 일 예시에서, SPAD 사이의 전형적인 거리는 약 10㎛ 내지 약 50㎛ 일 수 있으며, 여기서 각 SPAD는 약 20ns 내지 약 100ns의 회복 시간을 가질 수 있다. 다른 비-실리콘 재료와 유사한 광전자 배증관을 사용할 수도 있다. SiPM 디바이스는 디지털/스위칭 모드로 작동하지만 SiPM은 모든 마이크로 셀을 병렬로 읽을 수 있기 때문에 아날로그 디바이스이며, 단일 광자에서부터 수백 개, 수천 개의 광자에 이르는 동적 범위 내에서 신호를 생성하는 것이 가능하다. 서로 다른 유형의 센서(예를 들어, SPAD, APD, SiPM, PIN 다이오드, 광 검출기)로부터의 출력은 LIDAR 시스템의 프로세서에 의해 처리될 수 있는 단일 출력으로 함께 결합될 수 있다는 것을 유의해야 한다. 감지 유닛 및 적어도 하나의 센서에 대한 추가의 세부 사항은 도 4a 내지 도 4c를 참조하여 이하에서 기술된다.
개시된 실시예들과 일치하여, LIDAR 시스템은 상이한 기능들을 실행하도록 구성된 적어도 하나의 프로세서를 포함할 수 있거나 적어도 하나의 프로세서와 통신할 수 있다. 적어도 하나의 프로세서는 입력 또는 입력에 대한 논리 동작을 수행하는 전기 회로를 가지는 임의의 물리적 디바이스를 구성할 수 있다. 예를 들어, 적어도 하나의 프로세서는, 주문형 집적 회로(Application-specific integrated circuit, ASIC)를 포함하는 하나 이상의 집적 회로(IC), 마이크로 칩, 마이크로 컨트롤러, 마이크로 프로세서, 중앙 처리 장치(CPU)의 전부 또는 일부, 그래픽 처리 장치(GPU), 디지털 신호 프로세서(DSP), 필드-프로그램 가능한 게이트 어레이(FPGA), 또는 명령들을 실행하거나 논리 동작들을 수행하기에 적합한 다른 회로들을 포함할 수 있다. 적어도 하나의 프로세서에 의해 실행되는 명령들은, 예를 들어 제어기에 통합 또는 내장된 메모리에 미리 로딩되거나 별도의 메모리에 저장될 수 있다. 메모리는 RAM (Random Access Memory), ROM (Read-Only Memory), 하드 디스크, 광 디스크, 자기 매체, 플래시 메모리, 다른 영구 메모리, 고정 메모리, 휘발성 메모리, 또는 명령을 저장할 수 있는 임의의 다른 메커니즘을 포함할 수 있다. 일부 실시예에서, 메모리는 LIDAR 시스템의 환경에서 물체에 대한 데이터를 나타내는 정보를 저장하도록 구성된다. 일부 실시예에서, 적어도 하나의 프로세서는 하나 이상의 프로세서를 포함할 수 있다. 각 프로세서는 유사한 구성을 가질 수도 있고, 또는 서로 전기적으로 연결되거나 서로 연결이 끊어진 상이한 구조의 프로세서 일 수 있다. 예를 들어, 프로세서는 별개의 회로이거나 단일 회로에 통합될 수 있다. 하나 이상의 프로세서가 사용되는 경우, 프로세서는 독립적으로 또는 공동으로 작동하도록 구성될 수 있다. 프로세서는 전기적, 자기적, 광학적, 음향적, 기계적으로 결합될 수 있고, 또는 이들을 상호 작용하게 할 수 있는 다른 수단에 의해 결합될 수 있다. 처리 유닛 및 적어도 하나의 프로세서에 관한 추가적인 세부 사항은 도 5a 내지 도 5c를 참조하여 이하에서 기술된다.
시스템 개요
도 1a는 투영 유닛(102), 스캐닝 유닛(104), 감지 유닛(106), 및 처리 유닛(108)을 포함하는 LIDAR 시스템(100)을 도시한다. LIDAR 시스템(100)은 차량(110) 상에 장착될 수 있다. 본 개시의 실시예와 일치하여, 투영 유닛(102)은 적어도 하나의 광원(112)을 포함할 수 있고, 스캐닝 유닛(104)은 적어도 하나의 광 편향기(114)를 포함할 수 있으며, 감지 유닛(106)은 적어도 하나의 센서(116)를 포함할 수 있고, 처리 유닛(108)은 적어도 하나의 프로세서(118)를 포함할 수 있다. 일 실시예에서, 적어도 하나의 프로세서(118)는 시야(120)를 스캔하기 위해 적어도 하나의 광 편향기(114)의 이동과 적어도 하나의 광원 (112)의 동작을 조정하도록 구성될 수 있다. 스캐닝 사이클 동안, 적어도 하나의 광 편향기(114)의 각각의 순간 위치는 시야(120)의 특정 부분(122)과 연관될 수 있다. 또한, LIDAR 시스템(100)은 시야(120)를 향하여 투영된 광을 지향하고 및/또는 시야(120) 내의 물체로부터 반사된 광을 수신하기 위한 적어도 하나의 선택적 광학 윈도우(124)를 포함할 수 있다. 선택적 광학 윈도우(124)는 투영 된 광의 시준 및 반사된 광의 포커싱과 같은 상이한 목적을 제공할 수 있다. 일 실시예에서, 선택적인 광학 윈도우(124)는 개구부, 평평한 윈도우, 렌즈, 또는 임의의 다른 유형의 광학 윈도우일 수 있다.
본 개시와 일치하여, LIDAR 시스템(100)은 자율 또는 반자율 주행 차량 (예를 들어, 자동차, 버스, 밴, 트럭, 및 임의의 다른 지상 차량)에 사용될 수 있다. LIDAR 시스템(100)을 갖춘 자율 주행 차량은 사람의 입력없이도 그들의 환경을 스캔하고 목적지로 주행할 수 있다. 유사하게, LIDAR 시스템 (100)은 또한 자율/반자율 공중 차량(예를 들어, UAV, 드론, 쿼드 코프터, 및 임의의 다른 공중 차량 또는 디바이스); 또는 자율 또는 반자율 수상 베젤(예를 들어, 보트, 배, 잠수함, 또는 기타 모든 선박)에서도 사용될 수 있다. LIDAR 시스템(100)을 구비한 자율 공중 차량 및 선박은 자신의 환경을 스캔하여 목적지까지 자율적으로 또는 원격 조작자를 이용하여 길을 찾을 수 있다. 일 실시예에 따르면, 차량(110) (주행 차량, 공중 차량, 또는 선박)은 차량(110)이 작동하고 있는 환경을 검출하고 스캔하는데 도움을 주기 위해 LIDAR 시스템(100)을 사용할 수 있다.
일부 실시예에서, LIDAR 시스템(100)은 차량(110) 주위의 환경을 스캔하기 위해 하나 이상의 스캐닝 유닛(104)을 포함할 수 있다. LIDAR 시스템(100)은 차량 (110)의 임의의 부분에 부착되거나 장착될 수 있다. 감지 유닛(106)은 차량(110)의 주변으로부터의 반사를 수신하고, 시야(120) 내의 물체로부터 반사된 광을 나타내는 반사 신호를 처리 유닛(108)으로 전달할 수 있다. 본 개시와 일치하여, 스캐닝 유닛(104)은 범퍼, 펜더, 사이드 패널, 스포일러, 루프, 전조등 조립체, 후미등 조립체, 후사경 미러 조립체, 후드, 트렁크, 또는 LIDAR 시스템의 적어도 일부분을 수용할 수 있는 차량(110)의 다른 적절한 부분에 통합되거나 장착될 수 있다. 어떤 경우에, LIDAR 시스템(100)은 차량(110)의 환경에 대한 완벽한 주변 경관을 포착할 수 있다. 따라서, LIDAR 시스템(100)은 360도의 수평 시야를 가질 수 있다. 일 예시에서, 도 1a에 도시된 바와 같이, LIDAR 시스템(100)은 루프 차량(110) 상에 장착된 단일 스캐닝 유닛(104)을 포함할 수 있다. 대안적으로, LIDAR 시스템(100)은 전체적으로 수평 시야가 차량(110) 주위의 360도 스캔에 의해 덮히도록 각각의 필드를 갖는 다수의 스캐닝 유닛 (예를 들어, 2개, 3개, 4개, 또는 더 많은 스캐닝 유닛(104))을 포함할 수 있다. 통상의 기술자는, LIDAR 시스템(100)이 임의의 방식으로 배열된 임의의 개수의 스캐닝 유닛(104)을 포함할 수 있으며, 각각의 스캐닝 유닛은 사용된 유닛의 개수에 따라 각각 80 ° 내지 120 °의 시야 또는 그 이하의 시야를 갖는다는 것을 이해할 것이다. 또한, 각각 단일 스캐닝 유닛(104)을 갖는 차량(110) 상에 다중 LIDAR 시스템(100)을 장착함으로써 360도 수평 시야가 얻어질 수도 있다. 그럼에도 불구하고, 하나 이상의 LIDAR 시스템(100)은 완전한 360 ° 시야를 제공할 필요는 없으며, 더 좁은 시야가 일부 상황에서는 유용할 수 있다는 것을 유의해야 한다. 예를 들어, 차량(110)은 차량의 전방을 바라보는 75 °의 시야를 갖는 제1 LIDAR 시스템(100)과 가능하다면 후방을 바라보는 (선택적으로 더 낮은 검출 범위를 갖는) 유사한 FOV를 갖는 제2 LIDAR 시스템(100)을 요구할 수 있다. 또한, 상이한 수직 시야각이 구현될 수도 있음을 유의해야 한다.
도 1b는 개시된 실시예와 일치하는 차량(110) 상에 장착된 LIDAR 시스템(100)의 단일 스캐닝 사이클로부터의 예시적인 출력을 도시하는 이미지이다. 이 예시에서, 스캐닝 유닛(104)은 차량(110)의 우측 헤드 라이트 조립체에 통합된다. 이미지의 모든 회색 점은 감지 유닛(106)에 의해 검출된 반사로부터 결정된 차량(110) 주변의 환경의 위치에 대응한다. 각 회색 점은 위치 이외에도 강도(예를 들어, 그 위치에서 얼마나 많은 빛이 되돌아오는지), 반사율, 다른 점과의 근접성 등과 같은 여러 유형의 정보와 연관될 수도 있다. 일 실시예에서, 예를 들어 차량(110) 주변의 환경의 포인트 클라우드 모델을 결정할 수 있도록, LIDAR 시스템(100)은 시야의 다수의 스캐닝 사이클의 검출된 반사로부터 복수의 포인트 클라우드 데이터 엔트리를 생성할 수 있다.
도 1c는 LIDAR 시스템(100)의 출력으로부터 결정된 포인트 클라우드 모델의 표현을 도시하는 이미지이다. 개시된 실시예와 일치하여, 차량(110) 주변의 환경의 생성된 포인트-클라우드 데이터 엔트리를 처리함으로써, 주변 경관 이미지가 포인트 클라우드 모델로부터 생성될 수 있다. 일 실시예에서, 포인트 클라우드 모델은 복수의 피쳐를 식별하기 위해 포인트 클라우드 정보를 처리하는 피쳐 추출 모듈에 제공될 수 있다. 각 피쳐는 차량(110) 주변의 환경 (예를 들어, 자동차, 나무, 사람, 및 도로)의 물체 및/또는 포인트 클라우드의 다양한 양태에 대한 데이터를 포함할 수 있다. 피쳐는 동일한 포인트 클라우드 모델의 해상도를 가질 수 있고(즉, 동일한 개수의 데이터 포인트를 가지며, 선택적으로 비슷한 크기의 2D 배열로 배열될 수도 있음), 또는 다른 해상도를 가질 수도 있다. 피쳐는 임의의 종류의 데이터 구조(예를 들어, 래스터, 벡터, 2D 배열, 1D 배열)에 저장될 수 있다. 또한, (예를 들어, 도 1b에 도시된 바와 같이) 이미지 내의 물체 또는 영역을 분리하는 바운딩 박스, 경계선, 또는 차량(110)을 나타내는 것과 같은 가상 피쳐와 하나 이상의 식별된 물체를 나타내는 아이콘은 최종 주변 경관 이미지를 형성하기 위한 포인트 클라우드 모델의 표현에 중첩될 수 있다. 예를 들어, 차량 (110)의 심볼은 주변-경관 이미지의 중앙에 중첩될 수 있다.
투영 유닛
도 2a 내지 도 2d는 LIDAR 시스템(100)에서 투영 유닛(102)의 다양한 구성과 그 역할을 도시한다. 구체적으로, 도 2a는 단일 광원을 갖는 투영 유닛(102)을 도시하는 도면이고, 도 2b는 공통의 광 편향기(114)를 지향하는 복수의 광원을 갖는 복수의 투영 유닛(102)을 도시하는 도면이며, 도 2c는 제1 및 제2 광원(112)을 갖는 투영 유닛(102)을 도시하는 도면이고, 도 2d는 투영 유닛(102)의 일부 구성에 사용되는 비대칭적인 편향기를 도시하는 도면이다. 통상의 기술자는 투영 유닛(102)의 도시된 구성들이 수많은 변형 및 수정을 가질 수 있다는 것을 이해할 것이다.
도 2a는 투영 유닛(102)이 단일 광원(112)을 포함하는 LIDAR 시스템(100)의 바이스태틱(bi-static) 구성의 예시를 도시한다. "바이스태틱 구성"이라는 용어는 LIDAR 시스템에서부터 나가는 투영된 광과 LIDAR 시스템으로 들어가는 반사된 광이 서로 다른 광 채널을 통과하는 LIDAR 시스템 구성을 포괄적으로 지칭한다. 특히, 아웃바운드 광 방사는 (도시되지 않은) 제1 광학 윈도우을 통과할 수 있고, 인바운드 광 방사는 (도시되지 않은) 다른 광학 윈도우를 통과할 수 있다. 도 2a에 도시된 예시에서, 바이스태틱 구성은 스캐닝 유닛(104)이 2개의 광 편향기, 즉 아웃바운드 광을 위한 제1 광 편향기(114A) 및 인바운드 광을 위한 제2 광 편향기(114B) (LIDAR 시스템에서의 인바운드 광은 장면 내의 물체로부터 반사된 방출 광을 포함하고, 또한 다른 광원으로부터 도달하는 주변광을 포함할 수도 있음)를 포함한다. 이러한 구성에서는 인바운드 경로와 아웃바운드 경로가 다르다.
이 실시예에서, LIDAR 시스템(100)의 모든 구성 요소는 단일 하우징(200) 내에 포함되거나 복수의 하우징으로 분할될 수 있다. 도시된 바와 같이, 투영 유닛(102)은 광(투영 광(204))을 방출하도록 구성된 레이저 다이오드(202A) (또는 함께 결합된 하나 이상의 레이저 다이오드)를 포함하는 단일 광원(112)과 연관된다. 하나의 비 제한적인 예시에서, 광원(112)에 의해 투영된 광은 약 800nm내지 950nm의 파장일 수 있고, 약 50mW내지 약 500mW의 평균 전력을 가질 수 있으며, 약 50W내지 약 200W의 피크 전력과 약 2ns내지 약 100ns 의 펄스 폭을 가질 수 있다. 또한, 광원(112)은 레이저 다이오드(202A)에 의해 방출된 광을 조작하기 위해 (예를 들어, 시준, 포커싱 등을 위해) 사용되는 광학 조립체(202B)와 선택적으로 연관될 수 있다. 다른 유형의 광원(112)이 사용될 수 있으며, 본 발명은 레이저 다이오드에 제한되지 않는다는 것을 유의해야 한다. 또한, 광원(112)은 광 펄스, 주파수 변조, 연속파(CW), 준-CW, 또는 채용된 특정 광원에 대응하는 임의의 다른 형태와 같은 상이한 포맷으로 그 광을 방출할 수 있다. 투영 포맷 및 다른 파라미터들은 처리 유닛(108)으로부터의 명령과 같은 상이한 인자들에 기초하여 때때로 광원에 의해 변경될 수 있다. 투영된 광은 투영된 광을 시야(120)에 지향시키기 위한 스티어링 요소로서 기능하는 아웃바운드 편향기(114A)를 향해 투영된다. 이 예시에서, 스캐닝 유닛(104)은 또한 시야(120) 내의 물체(208)로부터 다시 반사된 광자(반사된 광 (206))를 센서(116) 쪽으로 지향시키는 피봇 가능한 복귀 편향기(114B)를 포함한다. 반사된 광은 센서(116)에 의해 검출되고, 물체에 관한 정보 (예를 들어, 물체(212)까지의 거리)는 처리 유닛(108)에 의해 결정된다.
이 도면에서, LIDAR 시스템(100)은 호스트(210)에 연결된다. 본 개시와 일치하여, "호스트"라는 용어는 LIDAR 시스템(100)과 인터페이스 할 수 있는 임의의 컴퓨팅 환경을 지칭하며, 이는 차량 시스템 (예를 들어, 차량(110)의 일부), 테스트 시스템, 보안 시스템, 감시 시스템, 교통 제어 시스템, 도시 모델링 시스템, 또는 그 주변을 모니터하는 모든 시스템일 수 있다. 이러한 컴퓨팅 환경은 적어도 하나의 프로세서를 포함할 수 있고, 및/또는 클라우드를 통해 LIDAR 시스템 (100)에 연결될 수 있다. 일부 실시예에서, 호스트(210)는 또한 호스트(210)의 상이한 특성 (예를 들어, 가속, 핸들 편향 조종, 역방향 구동 등)을 측정하도록 구성된 카메라 및 센서와 같은 외부 디바이스에 대한 인터페이스를 포함할 수 있다. 본 개시와 일치하여, LIDAR 시스템(100)은 호스트(210)와 연관된 고정된 물체 (예를 들어, 건물, 삼각대) 또는 호스트 (210)와 연관된 휴대용 시스템 (예를 들어, 휴대용 컴퓨터, 영화 카메라)에 고정될 수 있다. 본 개시와 일치하여, LIDAR 시스템(100)은 LIDAR 시스템(100)의 출력(예를 들어, 3D 모델, 반사율 이미지)을 호스트(210)에 제공하기 위해 호스트 (210)에 연결될 수 있다. 특히, 호스트(210)는 호스트(210) 또는 임의의 다른 환경의 환경을 검출 및 스캔하는데 도움을 주기 위해 LIDAR 시스템(100)을 사용할 수 있다. 또한, 호스트(210)는 LIDAR 시스템(100)의 출력을 다른 감지 시스템(예를 들어, 카메라, 마이크, 레이더 시스템)의 출력과 통합하거나, 동기화하거나, 또는 함께 사용할 수 있다. 일 실시예에서, LIDAR 시스템(100)은 보안 시스템에 의해 사용될 수 있다. 이 실시예는 도 7을 참조하여 이하에서 더 상세하게 설명된다.
LIDAR 시스템(100)은 LIDAR 시스템(100) 내에서 정보를 전송하기 위한 서브 시스템들 및 구성 요소들을 상호연결하는 버스(212) (또는 다른 통신 메커니즘들)를 또한 포함할 수 있다. 선택적으로, 버스 (212) (또는 다른 통신 메커니즘)는 LIDAR 시스템(100)을 호스트 (210)와 상호연결하기 위해 사용될 수 있다. 도 2a의 예시에서, 처리 유닛(108)은 LIDAR 시스템(100)의 내부 피드백으로부터 수신된 정보에 적어도 부분적으로 기초하여 조정된 방식으로 투영 유닛(102), 스캐닝 유닛(104), 및 감지 유닛(106)의 동작을 조절하는 두 개의 프로세서(118)를 포함한다. 다시 말하면, 처리 유닛(108)은 폐루프에서 LIDAR 시스템(100)을 동적으로 동작시키도록 구성될 수 있다. 폐루프 시스템은 적어도 하나의 요소로부터 피드백을 가지고 수신된 피드백에 기초하여 하나 이상의 파라미터를 업데이트하는 것을 특징으로 한다. 더욱이, 폐루프 시스템은 그 피드백에 기초하여 적어도 부분적으로 피드백을 수신하고 자신의 동작을 업데이트할 수 있다. 동적 시스템 또는 요소는 작동 중에 업데이트 될 수 있는 것이다.
일부 실시예에 따르면, LIDAR 시스템 (100) 주위의 환경을 스캔하는 것은 광 펄스로 시야(120)를 조명하는 것을 포함할 수 있다. 광 펄스는 펄스 지속 시간, 펄스 각 분산, 파장, 순시 전력, 광원(112)으로부터의 상이한 거리에서의 광자 밀도, 평균 전력, 펄스 전력 세기, 펄스 폭, 펄스 반복율, 펄스 시퀀스, 펄스 듀티 사이클, 파장, 위상, 편광 등과 같은 파라미터를 가질 수 있다. LIDAR 시스템(100) 주위의 환경을 스캔하는 것은 또한 반사된 광의 다양한 양태를 검출하고 특성화하는 것을 포함할 수도 있다. 반사광의 특성은, 예를 들면 비행 시간 (즉, 방출부터 검출까지의 시간), 순시 전력 (예를 들어, 전원 특징), 복귀 펄스 전반에 걸친 평균 전력, 및 복귀 펄스 기간에 걸친 광자 분포/신호를 포함할 수 있다. 광 펄스의 특성을 대응하는 반사의 특성과 비교함으로써, 거리 및 가능하다면 물체(212)의 반사된 강도와 같은 물리적 특성이 추정될 수 있다. 다수의 인접부(122)에 걸쳐 이러한 프로세스를 반복함으로써, 미리 규정된 패턴 (예를 들어, 래스터(raster), 리사주(Lissajous), 또는 다른 패턴들)으로 시야(120)의 전체 스캔이 달성될 수 있다. 후술되는 바와 같이, 몇몇 상황에서, LIDAR 시스템(100)은 매 스캐닝 사이클마다 시야(120) 내의 일부분(122)에만 광을 지향할 수 있다. 이들 부분들은 서로 인접할 수 있지만 반드시 그런 것은 아니다.
다른 실시예에서, LIDAR 시스템(100)은 호스트(210) (예를 들어, 차량 제어기)와 통신하기 위한 네트워크 인터페이스(214)를 포함할 수 있다. LIDAR 시스템(100)과 호스트(210) 사이의 통신은 점선 화살표로 표시된다. 일 실시예에서, 네트워크 인터페이스(214)는 ISDN (Integrated Services Digital Network) 카드, 케이블 모뎀, 위성 모뎀, 또는 대응하는 유형의 전화선에 데이터 통신 연결을 제공하는 모뎀을 포함할 수 있다. 다른 예시로서, 네트워크 인터페이스(214)는 호환 가능한 LAN에 데이터 통신 연결을 제공하기 위한 근거리 통신망(LAN) 카드를 포함할 수 있다. 다른 실시예에서, 네트워크 인터페이스(214)는 라디오 주파수 수신기 및 송신기 및/또는 광학 (예를 들어, 적외선) 수신기 및 송신기에 연결된 이더넷 포트를 포함할 수 있다. 네트워크 인터페이스(214)의 특정 설계 및 구현은 LIDAR 시스템(100) 및 호스트(210)가 동작하도록 의도된 통신 네트워크(들)에 의존한다. 예를 들어, 네트워크 인터페이스(214)는 사용될 수 있는데, 예를 들어 3D 모델, LIDAR 시스템(100)의 동작 파라미터 등과 같은 LIDAR 시스템(100)의 출력을 외부 시스템에 제공하는데 사용될 수 있다. 다른 실시예에서, 통신 유닛은 예를 들어, 외부 시스템으로부터 명령을 수신하거나, 검사된 환경에 관한 정보를 수신하거나, 다른 센서로부터 정보를 수신하는 등에 사용될 수 있다.
도 2b는 복수의 투영 유닛(102)을 포함하는 LIDAR 시스템(100)의 모노스태틱 구성의 예시를 도시한다. "모노스태틱 구성"이라는 용어는 LIDAR 시스템에서부터 나가는 투영된 광과 LIDAR 시스템으로 들어가는 반사된 광이 적어도 부분적으로 공유된 광 경로를 통과하는 LIDAR 시스템 구성을 포괄적으로 지칭한다. 일 예시에서, 아웃바운드 광 빔 및 인바운드 광 빔은 상기 두 광 빔을 통해 적어도 하나의 광학 조립체를 공유할 수 있다. 다른 예시에서, 아웃바운드 광 방사선은 (도시되지 않은) 광학 윈도우을 통과할 수 있고, 인바운드 광 방사선은 동일한 광학 윈도우를 통과할 수 있다. 모노스태틱 구성은 스캐닝 유닛(104)이 투영된 광을 시야(120)를 향해 지향시키고, 반사된 광을 센서(116)를 향해 지향하는 단일의 광 편향기(114)를 포함하는 구성을 포함할 수 있다. 도시된 바와 같이, 투영된 광(204)과 반사된 광(206) 모두 비대칭 편향기(216)에 도달한다. “비대칭 편향기”라는 용어는 광의 빔을 한 면에서 때리면 이를 다른 방향, 즉 제2 면에서부터 때리는 방향으로 편향시키는, 광의 빔을 편향시킬 수 있는 두 개의 면을 가지는 임의의 광학 디바이스를 지칭한다. 일 예시에서, 비대칭 편향기는 투영된 광(204)을 편향시키지 않고 반사된 광(206)을 센서(116) 쪽으로 편향시킨다. 비대칭 편향기의 일 예시는 편광 빔 스플리터를 포함할 수 있다. 다른 예시에서, 비대칭(216)은 오직 한 방향으로만 광을 통과시키는 광 절연체를 포함할 수 있다. 본 개시과 일치하여, LIDAR 시스템(100)의 모노스태틱 구성은 반사된 광이 광원(112)에 부딪히지 않도록 방지하고 모든 반사된 광을 센서(116)를 향해 지향시키는 비대칭 편향기를 포함하여, 검출 감도를 증가시킨다.
도 2b의 실시예에서, LIDAR 시스템(100)은 공통 광 편향기(114)를 겨냥하는 단일의 광원(112)을 각각 갖는 3개의 투영 유닛(102)을 포함한다. 일 실시예에서, (2개 이상의 광원을 포함하는) 복수의 광원(112)은 실질적으로 동일한 파장을 갖는 광을 투영할 수 있고, 각각의 광원(112)은 일반적으로 시야의 상이한 영역(120A , 120B, 및 120C로서 도면에 표시됨)과 연관된다. 이는 광원(112)으로 달성될 수 있는 것보다 더 넓은 시야를 스캐닝 할 수 있게 한다. 다른 실시예에서, 복수의 광원(102)은 상이한 파장을 갖는 광을 투영할 수 있고, 모든 광원(112)은 시야(120)의 동일한 부분 (또는 중첩하는 부분)으로 지향될 수 있다.
도 2c는 투영 유닛(102)이 1차 광원(112A) 및 2차 광원(112B)을 포함하는 LIDAR 시스템(100)의 예시를 도시한다. 1차 광원(112A)은 SNR 및 검출 범위를 최적화하기 위해 인간의 눈에 민감한 것보다 긴 파장의 광을 투영할 수 있다. 예를 들어, 1차 광원(112A)은 약 750nm내지 1100nm의 파장을 갖는 광을 투영할 수 있다. 반대로, 2차 광원(112B)은 사람의 눈에 보이는 파장의 광을 투영할 수 있다. 예를 들어, 2차 광원(112B)은 약 400nm내지 700nm의 파장을 갖는 광을 투영할 수 있다. 일 실시예에서, 2차 광원(112B)은 1차 광원(112A)에 의해 투영된 광과 실질적으로 동일한 광 경로를 따라 광을 투영할 수 있다. 두 광원은 시간 동기화 될 수 있으며, 함께 발광하거나 인터리브 패턴으로 투영할 수 있다. 인터리브 패턴은 광원이 동시에 활성화되지 않아 상호 간섭을 완화할 수 있음을 의미한다. 통상의 기술자는 파장 범위 및 활성화 스케쥴의 다른 조합 또한 구현될 수 있다는 것을 쉽게 알 것이다.
일부 실시예와 일치하여, 2차 광원(112B)이 LIDAR 광 출력 포트에 너무 가까운 경우에 2차 광원(112B)은 사람 눈을 깜박이게할 수 있다. 이는 근적외선 스펙트럼을 이용하는 전형적인 레이저 소스에서는 실현 불가능한 안구 안전 메커니즘을 보장할 수 있다. 다른 실시예에서, 2차 광원(112B)은 차량(110)에 대해 지면으로부터 소정의 높이에 있는 특수한 반사기/패턴을 가지는 헤드 라이트의 캘리브레이션과 다소 유사한 방식으로 서비스 지점에서 캘리브레이션 및 신뢰성을 위해 사용될 수 있다. 서비스 지점의 조작자는 LIDAR 시스템(100)으로부터 지정된 거리에 있는 테스트 패턴 보드와 같은 주요 타겟을 통해 스캔된 패턴의 간단한 육안 검사에 의해 LIDAR의 캘리브레이션을 검사할 수 있다. 또한, 2차 광원(112B)은 LIDAR이 최종 사용자를 위해 작동하고 있다는 동작상의 신뢰성을 위한 수단을 제공할 수 있다. 예를 들어, 시스템은 인간이 그 동작을 테스트하기 위해 광 편향기(114) 앞에 손을 위치시키도록 구성될 수 있다.
2차 광원(112B)은 또한 1차 광원(112A)이 고장나는 경우에 백업 시스템으로서 두 배가 될 수 있는 비가시적인 요소를 가질 수 있다. 이 피쳐는 높은 기능 안전 등급을 가지는 안전 장치가 되어있는 디바이스에 유용할 수 있다. 2 차 광원(112B)이 가시적일 수도 있다는 것과 비용 및 복잡함의 이유 또한 고려해 볼 때, 2 차 광원(112B)은 1 차 광원(112A)과 비교하면 더 적은 전력과 연관될 수 있다. 따라서, 1 차 광원(112A)이 고장난 경우, 시스템 기능은 2 차 광원(112B)의 기능 및 성능의 세트로 되돌아 갈 것이다. 2 차 광원(112B)의 성능은 1 차 광원(112A)의 성능보다 열등할 수는 있지만, LIDAR 시스템(100) 시스템은 차량(110)이 그 목적지에 안전하게 도착할 수 있도록 하는 방식으로 설계될 수 있다.
도 2d는 LIDAR 시스템(100)의 일부일 수 있는 비대칭 편향기(216)를 도시한다. 도시된 예시에서, 비대칭 편향기(216)는 (미러와 같은) 반사 표면(218) 및 일방향 편향기(220)를 포함한다. 반드시 그런 것은 아니지만, 비대칭 편향기(216)는 선택적으로 정적 편향기 일 수 있다. 비대칭 편향기(216)는, 예를 들어, 도 2b 및 도 2c에 도시된 바와 같이, 적어도 하나의 편향기(114)를 통한 광의 전송 및 수신을 위한 공통 광 경로를 허용하기 위해 LIDAR 시스템(100)의 모노스태틱 구성에 사용될 수 있다. 그러나, 빔 스플리터와 같은 전형적인 비대칭 편향기는, 에너지 손실, 특히 수신 경로에서의 에너지 손실을 특징으로 하며, 수신 경로는 전송 경로보다 더 전력 손실에 민감할 수 있다.
도 2d에 도시된 바와 같이, LIDAR 시스템(100)은 송신 및 수신된 광 신호를 분리하기 위한 일방향 편향기(220)를 포함하는 송신 경로에 배치된 비대칭 편향기(216)를 포함할 수 있다. 선택적으로, 일방향 편향기(220)는 송신된 광에 대해 실질적으로 투명하고, 수신된 광에 대해 실질적으로 반사적일 수 있다. 투과된 광은 투영 유닛(102)에 의해 발생되고 일방향 편향기(220)를 통해 광 출구를 향해 편향시키는 스캐닝 유닛(104)으로 이동할 수 있다. 수신된 광은 광학 입구를 통해 반사 신호를 광원으로부터 멀어지고 감지 유닛(106)을 향하는 별개의 경로로 편향시키는 적어도 하나의 편향 요소(114)에 도달한다. 선택적으로, 비대칭 편향기(216)는 일방향 편향기(220)와 동일한 편광 축으로 선형 편광된 편광 광원(112)과 결합될 수 있다. 특히, 아웃바운드 광 빔의 횡단면은 반사 신호의 횡단면보다 훨씬 작다. 따라서, LIDAR 시스템(100)은 비대칭 편향기(216)의 면적에 방출된 편광된 광 빔을 포커싱하거나 그렇지 않으면 조작하기 위한 하나 이상의 광학 구성 요소(예를 들어, 렌즈, 콜리메이터)를 포함할 수 있다. 일 실시예에서, 일방향 편향기(220)는 편광된 광 빔에 사실상 투명한 편광 빔 스플리터일 수 있다.
일부 실시예와 일치하여, LIDAR 시스템(100)은 방출된 광의 편광을 수정하기 위한 광학기(222)(예를 들어, 1/4 파장판 리타더)를 더 포함할 수 있다. 예를 들어, 광학기(222)는 방출된 광 빔의 선형 편광을 원형 편광으로 수정할 수 있다. 시야로부터 시스템(100)으로 다시 반사된 광은 편향기(114)를 통해 다시 광학기(222)로 도달하며, 투과된 광에 대해 역전된 원형 편광을 지닌다. 그 다음, 광학기(222)는 수신된 역전된 편광 광을 편광된 빔 스플리터(216)의 것과 동일한 축 상에는 없는 선형 편광으로 변환할 것이다. 전술한 바와 같이, 수신된 광 패치는 타겟까지의 거리를 통해 횡단하는 빔의 광학 분산으로 인해, 투과된 광 패치보다 크다.
수신된 광의 일부는 약간의 전력 손실과 함께 센서(106) 쪽으로 광을 반사시키는 일방향 편향기(220) 상에 충돌할 것이다. 그러나, 수신된 광 패치의 다른 부분은 일방향 편향기(220)(예를 들어, 편광 빔 스플리터 슬릿)를 둘러싸는 반사 표면(218) 상에 떨어질 것이다. 반사 표면(218)은 실질적으로 제로 전력 손실을 갖는 감지 유닛(106)쪽으로 광을 반사시킬 것이다. 일방향 편향기(220)는 최종적으로 검출기에 도달할 다양한 편광 축 및 방향으로 구성된 광을 반사할 것이다. 선택적으로, 감지 유닛(106)은 레이저 편광에 대해 불가지론적인 센서(116)를 포함할 수 있고, 이는 특정 파장 범위에서 충돌하는 광자의 양에 주로 민감하다.
제안된 비대칭 편향기(216)는 그 안에 통로 구멍을 갖는 단순한 미러와 비교할 때 훨씬 우수한 성능을 제공한다는 것을 유의해야 한다. 구멍을 가지는 미러에서는 구멍에 도달하는 모든 반사된 광이 검출기로 손실된다. 그러나, 편향기(216)에서, 일방향 편향기(220)는 각각의 센서(116)를 향하여 그 광의 상당한 부분(예를 들어, 약 50%)을 편향시킨다. LIDAR 시스템에서, 원격 거리에서부터 LIDAR에 도달하는 광자의 개수는 매우 제한되어 있으므로 광자 캡처 속도의 향상이 중요하다.
일부 실시예에 따르면, 빔 스플릿 및 조종을 위한 디바이스가 기술된다. 편광된 빔은 제1 편광을 갖는 광원으로부터 방출될 수 있다. 방출된 빔은 편광된 빔 스플리터 조립체를 통해 통과하도록 지향될 수 있다. 편광된 빔 스플리터 조립체는 제1 면에 일방향 슬릿을, 반대 측면에 미러를 포함한다. 일방향 슬릿은 편광된 방출된 빔이 방출된 신호를 편광된 신호에서부터 선형 신호(또는 그 반대로)로 변화시키는 1/4 파장판/파 리타더를 향해 이동하도록 하여, 따라서 이에 후속하여 반사된 빔은 일방향 슬릿을 통과할 수 없다.
스캐닝 유닛
도 3a 내지 도 3d는 스캐닝 유닛(104)의 다양한 구성 및 LIDAR 시스템(100)에서의 그 역할을 도시한다. 구체적으로, 도 3a는 MEMS 미러(예를 들어, 정사각형)를 갖는 스캐닝 유닛(104)을 도시하는 다이어그램이고, 도 3b는 MEMS 미러(예를 들면, 둥근 형태)를 갖는 다른 스캐닝 유닛(104)을 도시하는 다이어그램이며, 도 3c는 모노스태틱 스캐닝 LIDAR 시스템에 사용되는 반사기의 어레이를 갖는 스캐닝 유닛(104)을 도시하는 다이어그램이고, 도 3d는 LIDAR 시스템(100) 주위의 환경을 기계적으로 스캔하는 예시적인 LIDAR 시스템(100)을 도시하는 다이어그램이다. 통상의 기술자는 스캐닝 유닛(104)의 도시된 구성이 단지 예시적인 것이며, 본 개시의 범위 내에서 다양한 변형 및 수정을 가질 수 있음을 이해할 것이다.
도 3a는 단일축 정사각형 MEMS 미러(300)를 갖는 예시적인 스캐닝 유닛(104)을 도시한다. 이 예시에서, MEMS 미러(300)는 적어도 하나의 편향기(114)로서 기능한다. 도시된 바와 같이, 스캐닝 유닛(104)은 하나 이상의 액추에이터(302) (구체적으로, 302A 및 302B)를 포함할 수 있다. 일 실시예에서, 액추에이터(302)는 반도체(예를 들어, 실리콘)로 제조될 수 있고, 작동 제어기, 반 도전층, 및 베이스 층에 의해 인가된 전기 신호에 응답하여 그 치수를 변화시키는 압전 층 (예를 들어, PZT, 리드 지르코네이트 티타네이트, 질화 알루미늄)을 포함한다. 일 실시예에서, 액추에이터(302)의 물리적 특성은 전류가 액추에이터를 통과할 때 액추에이터(302)가 겪는 기계적 응력을 결정할 수 있다. 압전 재료가 활성화되면, 압전 재료는 액추에이터(302)에 힘을 가하고 그것을 굽힌다. 일 실시예에서, 미러(300)가 특정 각도 위치에서 편향되고 휴식 상태(R휴식)에서 저항과 비교되는 경우, 하나 이상의 액추에이터(302)의 저항이 활성 상태(R활성)에서 측정될 수 있다. R활성을 포함하는 피드백은 예상된 각도와 비교하여 실제 미러 편향각을 결정하기 위한 정보를 제공할 수 있으며, 만약 필요하다면 미러(300) 편향이 보정될 수 있다. R휴식과 R활성 사이의 차이점은 루프를 닫을 수 있는 각도 편향 값으로의 미러 구동에 의해 상관 관계가 있을 수 있다. 이 실시예는 실제 미러 위치의 동적 트래킹에 사용될 수 있고 선형 모드 및 공진 모드 MEMS 미러 방식 모두에 대한 응답, 진폭, 편향 효율, 및 주파수를 최적화할 수 있다. 이 실시예는 도 32 내지 도 34를 참조하여 이하에서 보다 상세하게 기술된다.
스캔하는 동안, (도면에서 점선으로 표시된) 전류는 접촉부(304A)로부터 접촉부(304B)로 (액추에이터(302A), 스프링(306A), 미러(300), 스프링(306B), 및 액추에이터(302B)를 통해) 흐를 수 있다. 절연 갭(310)과 같은 반도체 프레임(308)의 절연 갭은 액추에이터(302A, 302B)가 스프링(306) 및 프레임(308)을 통해 전기적으로 연결된 2개의 분리된 섬이 되도록할 수 있다. 전류 흐름 또는 임의의 연관된 전기적 파라미터 (전압, 전류 주파수, 커패시턴스, 비유 전율 등)는 연관된 위치 피드백에 의해 모니터될 수 있다. 기계적 고장의 경우 - 구성 요소 중 하나가 손상된 경우 - 구조를 통과하는 전류 흐름이 변경되어 기능적으로 보정된 값으로부터 변한다. 극단적인 상황 (예를 들어, 스프링이 파손된 경우)에서는, 결함 요소로 인한 전기적 체인의 회로 차단으로 인해 전류가 완전히 중단된다.
도 3b는 듀얼축 원형 MEMS 미러(300)를 갖는 스캐닝 유닛(104)의 다른 예시를 도시한다. 이 예시에서, MEMS 미러(300)는 적어도 하나의 편향기(114)로서 기능한다. 일 실시예에서, MEMS 미러(300)는 약 1mm 내지 약 5mm의 직경을 가질 수 있다. 도시된 바와 같이, 스캐닝 유닛(104)은 각각 상이한 길이일 수 있는 4개의 액추에이터(302) (302A, 302B, 302C, 및 302D)를 포함할 수 있다. 도시된 예시에서, (도면에서 파선으로 나타낸) 전류는 접촉부 304A에서 접촉부 304D로 흐르지만, 다른 경우에는 접촉부 304A에서 접촉부 304B로, 접촉부 304A에서 접촉부 304C로, 접촉부 304B에서 접촉부 304B로, 접촉부 304B로부터 접촉부 304D으로, 또는 접촉부 304C로부터 접촉부 304D로 전류가 흐를 수 있다. 일부 실시예와 일치하여, 듀얼축 MEMS 미러는 광을 수평 방향 및 수직 방향으로 편향시키도록 구성될 수 있다. 예를 들어, 듀얼축 MEMS 미러의 편향 각은 수직 방향으로 약 0 ° 내지 30 °, 수평 방향으로 약 0 ° 내지 50 ° 일 수 있다. 통상의 기술자는 미러(300)의 도시된 구성이 많은 변형 및 수정을 가질 수 있다는 것을 이해할 것이다. 일 예시에서, 적어도 편향기(114)는 듀얼축 정사각형 미러 또는 싱글축 원형 미러를 가질 수 있다. 원형 및 정사각형 미러의 예시는 도 3a 및 도 3b에 단지 예시로서 도시되어 있다. 시스템 사양에 따라 어떤 모양이든 채용될 수 있다. 일 실시예에서, 액추에이터(302)는 적어도 편향기(114)의 필수적인 부분으로서 통합될 수 있어서 MEMS 미러(300)를 이동시키기 위한 전력이 그쪽으로 직접 인가된다. 또한, MEMS 미러(300)는 하나 이상의 강성 지지 요소에 의해 프레임(308)에 연결될 수 있다. 다른 실시예에서, 적어도 편향기(114)는 정전기 또는 전자기 MEMS 미러를 포함할 수 있다.
전술한 바와 같이, 모노스태틱 스캐닝 LIDAR 시스템은 투영된 광(204)을 방출하고 반사된 광(206)을 수신하기 위한 동일한 광학 경로의 적어도 일부분을 이용한다. 아웃바운드 경로의 광 빔은 시준되고 좁은 빔으로 초점을 맞추는 반면, 복귀 경로의 반사는 분산으로 인해 광의 더 큰 패치로 확산된다. 일 실시예에서, 스캐닝 유닛(104)은 복귀 경로에서 큰 반사 영역을 가질 수 있고, 반사 (즉, 반사된 광(206))를 센서(116)로 방향 전환시키는 비대칭 편향기(216)를 가질 수 있다. 일 실시예에서, 스캐닝 유닛(104)은 큰 반사 영역 및 시야와 프레임 속도 성능에 무시해도 될 정도의 영향을 갖는 MEMS 미러를 포함할 수 있다. 비대칭 편향기(216)에 대한 추가적인 세부 사항은 도 2d를 참조하여 이하에서 제공된다.
일부 실시예에서 (예를 들어, 도 3c에 예시된 바와 같이), 스캐닝 유닛(104)은 작은 광 편향기들 (예를 들어, 미러들)을 갖는 편향기 어레이 (예를 들어, 반사기 어레이)를 포함할 수 있다. 일 실시예에서, 동기화로 동작하는 더 작은 개별 광 편향기들의 그룹으로서 광 편향기(114)를 구현하는 것은 광 편향기(114)를 더 큰 편향각을 갖는 높은 스캔 속도로 수행할 수 있게 한다. 편향기 어레이는 본질적으로 유효 영역 면에서 대형 광 편향기(예를 들어, 대형 미러)로 작동할 수 있다. 편향기 어레이는 광원(112)에 의해 동시에 조명되는 시야(120)의 실질적으로 동일한 부분으로부터의 반사된 광자를 센서(116)가 수집하게 하는 공유된 스티어링 조립체 구성을 사용하여 작동될 수 있다. "동시에"라는 용어는 2 개의 선택된 기능이 일치 또는 중첩하는 시간 동안 발생하는 것을 의미하며, 하나가 나머지 하나의 기간 동안 시작하고 끝나는 것이거나 나중에 오는 하나가 다른 나머지 하나가 완료되기 전에 시작되는 것이다.
도 3c는 작은 미러를 갖는 반사기 어레이(312)를 갖는 스캐닝 유닛(104)의 예시를 도시한다. 이 실시예에서, 반사기 어레이(312)는 적어도 하나의 편향기(114)로서 기능한다. 반사기 어레이(312)는 시야(120)를 향해 광 펄스를 (개별적으로 또는 함께) 피봇시키고 조종하도록 구성된 복수의 반사기 유닛(314)을 포함할 수 있다. 예를 들어, 반사기 어레이(312)는 광원(112)으로부터 투영된 광의 아웃바운드 경로의 일부일 수 있다. 구체적으로, 반사기 어레이(312)는 투영된 광(204)을 시야(120)의 일부를 향해 지향시킬 수 있다. 반사기 어레이(312)는 또한 시야(120)의 조명된 부분 내에 위치한 물체의 표면으로부터 반사된 광에 대한 복귀 경로의 일부일 수 있다. 구체적으로, 반사기 어레이(312)는 반사된 광(206)을 센서(116)쪽으로 또는 비대칭 편향기(216)를 향하게 지향할 수 있다. 일 예시에서, 반사기 어레이(312)의 면적은 약 75㎜2와 약 150㎜2 사이일 수 있고, 각 반사기 유닛(314)은 약 10㎛의 폭을 가질 수 있고, 지지 구조는 100㎛보다 낮을 수 있다.
일부 실시예에 따르면, 반사기 어레이(312)는 조종 가능한 편향기의 하나 이상의 서브 그룹을 포함할 수 있다. 전기적으로 조종 가능한 편향기의 각 서브 그룹은 반사기 유닛(314)과 같은 하나 이상의 편향기 유닛을 포함할 수 있다. 예를 들어, 각각의 조종 가능한 편향기 유닛(314)은 MEMS 미러, 반사 표면 조립체, 및 전기 기계의 액추에이터 중 적어도 하나를 포함할 수 있다. 일 실시예에서, 각각의 반사기 유닛(314)은 (도시되지 않은) 개별 프로세서에 의해 개별적으로 제어되어 하나 또는 두 개의 개별 축을 따라 특정 각도로 기울어질 수 있다. 대안적으로, 반사기 어레이(312)는 반사기 유닛(314)의 이동을 동기적으로 관리하도록 구성된 공통 제어기 (예를 들어, 프로세서 (118))와 연관될 수 있어서, 이들 중 적어도 일부는 동시에 피봇될 것이고 거의 동일한 방향을 향하도록 할 것이다.
또한, 적어도 하나의 프로세서(118)는 아웃바운드 경로 (이하, "TX 미러"로 지칭됨)에 대한 적어도 하나의 반사기 유닛(314) 및 복귀 경로에 대한 반사기 유닛(314)의 그룹 (이하, "RX 미러"로 지칭됨)을 선택할 수 있다. 본 개시와 일치하여, TX 미러의 개수를 증가시키는 것은 반사된 광자 빔 확산을 증가시킬 수 있다. 또한, RX 미러의 개수를 줄이는 것은 수신 필드를 좁히고 주변광의 상태 (예를 들어, 구름, 비, 안개, 극한의 열, 및 기타 환경 조건)를 보완하며 신호 대 노이즈 비율을 향상시킬 수 있다. 또한, 전술한 바와 같이, 방출된 광 빔은 전형적으로 반사된 광의 패치보다 좁기 때문에, 편향 어레이의 작은 부분에 의해 완전히 편향될 수 있다. 또한, 송신을 위해 사용되는 편향 어레이 (예를 들어, TX 미러)의 부분으로부터 반사된 광이 센서(116)에 도달하는 것을 차단하는 것이 가능하므로, 시스템 작동에 대한 LIDAR 시스템(100)의 내부 반사의 효과를 감소시킬 수 있다. 또한, 적어도 하나의 프로세서(118)는 예컨대 열 및 이득 효과에 기인한 기계적 장애 및 표류를 극복하기 위해 하나 이상의 반사기 유닛(314)을 피봇할 수 있다. 일 예시에서, 하나 이상의 반사기 유닛(314)은 의도된 것(주파수, 비율, 속도 등)과 다르게 움직일 수 있고, 그들의 움직임은 편향기를 전기적으로 적절하게 제어함으로써 보상될 수 있다.
도 3d는 LIDAR 시스템(100)의 환경을 기계적으로 스캔하는 예시적인 LIDAR 시스템(100)을 도시한다. 이 예시에서, LIDAR 시스템(100)은 LIDAR 시스템(100)의 축을 중심으로 하우징(200)을 회전시키는 모터 또는 다른 메커니즘을 포함할 수 있다. 대안으로, 모터 (또는 다른 메커니즘)는 하나 이상의 광원(112) 및 하나 이상의 센서(116)가 설치된 LIDAR 시스템(100)의 강성 구조를 기계적으로 회전시킬 수 있음으로써 환경을 스캐닝할 수 있다. 전술한 바와 같이, 투영 유닛(102)은 발광을 투영하도록 구성된 적어도 하나의 광원(112)을 포함할 수 있다. 투영된 발광은 시야(120)를 향하는 아웃바운드 경로를 따라 이동할 수 있다. 구체적으로, 투영된 광(204)이 선택적인 광학 윈도우(124)를 향해 이동할 때 투영된 발광은 편향기(114A)에 의해 출구 애퍼처(314)를 통해 반사될 수 있다. 반사된 발광은 물체(208)로부터 감지 유닛(106)을 향해 복귀 경로를 따라 이동할 수 있다. 예를 들어, 반사된 광(206)은 반사된 광(206)이 감지 유닛(106)를 향해 이동할 때 편향기(114B)에 의해 반사될 수 있다. 통상의 기술자는 하나 이상의 광원 또는 하나 이상의 센서를 동기식으로 회전시키기 위한 회전 메커니즘을 갖는 LIDAR 시스템이 내부 광 편향기를 조종하는 대신에 (또는 이에 더하여) 이러한 동기화된 회전을 사용할 수 있다는 것을 이해할 것이다.
시야(120)의 스캐닝이 기계적인 실시예에서, 투영된 발광은 LIDAR 시스템(100)의 다른 부분으로부터 투영 유닛(102)을 분리하는 벽(316)의 일부인 출구 애퍼처(314)로 지향될 수 있다. 일부 예시에서, 벽(316)은 편향기(114B)를 형성하기 위해 반사 재료로 코팅된 투명한 재료(예를 들어, 유리)로부터 형성될 수 있다. 이 예시에서, 출구 애퍼처(314)는 반사 재료에 의해 코팅되지 않은 벽(316)의 일부에 대응할 수 있다. 추가적으로 또는 대안적으로, 출구 애퍼처(314)는 벽(316)에서 잘라낸 것 또는 구멍을 포함할 수 있다. 반사된 광(206)은 편향기(114B)에 의해 반사되고 감지 유닛(106)의 입구 애퍼처(318)를 향하여 지향된다. 일부 예시에서, 입구 애퍼처(318)는 특정 파장 범위의 파장이 감지 유닛(106)으로 들어가고 다른 파장을 감쇠시키도록 구성된 필터링 윈도우를 포함할 수 있다. 시야(120)로부터의 물체(208)의 반사는 편향기(114B) 및 타격 센서(116)에 의해 반사될 수 있다. 반사된 광(206)의 몇가지 특성을 투영된 광(204)과 비교함으로써, 물체(208)의 적어도 하나의 양태가 결정될 수 있다. 예를 들어, 투영된 광(204)이 광원(112)에 의해 방출된 시간과 센서(116)가 반사된 광(206)을 수신한 시간을 비교함으로써, 물체(208)와 LIDAR 시스템(100) 사이의 거리가 결정될 수 있다. 일부 예시에서, 형태, 색, 재료 등과 같은 물체(208)의 다른 양태들 또한 결정될 수 있다.
일부 예시에서, LIDAR 시스템(100) (또는 적어도 하나의 광원(112) 및 적어도 하나의 센서(116)를 포함하는 그 일부)은 LIDAR 시스템(100)의 주위의 3 차원 맵을 결정하기 위해 적어도 하나의 축을 중심으로 회전될 수 있다. 예를 들어, LIDAR 시스템(100)은 120의 필드를 스캔하기 위해 화살표(320)에 의해 도시된 바와 같이 실질적으로 수직인 축을 중심으로 회전될 수 있다. 도 3d는 LIDAR 시스템(100)이 화살표(320)에 의해 도시된 바와 같이 축을 중심으로 시계 방향으로 회전되는 것을 도시하지만, 추가적으로 또는 대안적으로, LIDAR 시스템(100)은 반시계 방향으로 회전될 수 있다. 일부 예시에서, LIDAR 시스템(100)은 수직축에 대해 360도 회전될 수 있다. 다른 예시에서, LIDAR 시스템(100)은 LIDAR 시스템(100)의 360도보다 작은 섹터를 따라 전후로 회전될 수 있다. 예를 들어, LIDAR 시스템(100)은 완전한 회전을 하지 않고 축을 중심으로 전후로 흔들리는 플랫폼 상에 장착될 수 있다.
감지 유닛
도 4a 내지 도 4e는 감지 유닛(106)의 다양한 구성 및 LIDAR 시스템(100)에서의 그 역할을 나타낸다. 구체적으로, 도 4a는 검출기 어레이를 갖는 예시적인 감지 유닛(106)을 도시하는 다이어그램이고, 도 4b는 2 차원 센서를 사용하는 모노스태틱 스캐닝을 도시하는 다이어그램이며, 도 4c는 2 차원 센서(116)의 일 예시를 도시하는 다이어그램이며, 도 4d는 센서(116)와 연관된 렌즈 어레이를 도시하는 다이어그램이고, 도 4e는 렌즈 구조를 도시하는 3 개의 다이어그램을 포함한다. 통상의 기술자는 감지 유닛(106)의 도시된 구성이 단지 예시적인 것이며, 본 개시의 원리와 일치하는 수많은 대안적인 변형 및 수정을 가질 수 있다는 것을 인식할 수 있을 것이다.
도 4a는 검출기 어레이(400)를 갖는 감지 유닛(106)의 예시를 도시한다. 이 예시에서, 적어도 하나의 센서(116)는 검출기 어레이(400)를 포함한다. LIDAR 시스템(100)은 LIDAR 시스템(100)으로부터 상이한 거리 (미터 또는 그 이상 일 수 있음)에 위치 된 시야(120)에서 물체(예를 들어, 자전거(208A) 및 구름(208B))를 검출하도록 구성된다. 물체(208)는 고체 물체 (예를 들어, 도로, 나무, 차, 사람), 유체 물체 (예를 들어, 안개, 물, 대기 입자), 또는 다른 유형의 물체 (예를 들어, 먼지 또는 가루같은 조면된 물체) 일 수 있다. 광원(112)으로부터 방출된 광자가 물체(208)를 때리면, 그들은 반사되거나 굴절되거나 흡수된다. 전형적으로, 도면에 도시된 바와 같이, 물체(208A)로부터 반사된 광자의 일부만이 선택적인 광학 윈도우(124)에 들어간다. 거리가 각각 ~15cm 변화 할 때, 1ns의 이동 시간 차이가 생기고 (광자가 광속으로 물체(208)로부터 이동하기 때문에), 상이한 물체를 때리는 서로 다른 광자의 이동 시간 사이의 시간차는 비행 시간 센서에 의해 충분히 빠른 응답으로 검출 가능하다.
센서(116)는 시야(120)로부터 다시 반사된 광자 펄스의 광자를 검출하기 위한 복수의 검출 요소(402)를 포함한다. 검출 요소는 (도시된 바와 같이) 직사각형 배열 또는 임의의 다른 배열을 가질 수 있는 검출기 어레이(400)에 모두 포함될 수 있다. 검출 요소(402)는 서로 동시에 또는 부분적으로 동시에 작동할 수 있다. 구체적으로, 각각의 검출 요소(402)는 모든 샘플링 기간 (예를 들어, 1 나노초 마다)에 대한 검출 정보를 발행할 수 있다. 일 예시에서, 검출기 어레이(400)는 공통 실리콘 기판 상에 단일 광자 애벌랜치 다이오드(SPAD, 검출 요소(402)로서 기능하는)의 어레이로부터 구축된 고체 상태 단일 광자 민감 디바이스인 SiPM (Silicon photomultipliers, 실리콘 광전자 배증관)일 수 있다. 다른 비 실리콘 재료들과 유사한 광전자 배증관이 또한 사용될 수도 있다. SiPM 디바이스는 디지털/스위칭 모드로 작동하지만 SiPM은 모든 마이크로 셀을 병렬로 읽을 수 있기 때문에 아날로그 디바이스이며, 상이한 SPAD에 의해 단일 광자에서부터 수백, 수천 개의 광자에 이르는 동적 범위 내에서 신호를 생성하는 것이 가능하다. 전술한 바와 같이, 하나 이상의 유형의 센서(예를 들어, SiPM 및 APD)가 구현될 수 있다. 가능하게는, 감지 유닛(106)은 별도의 또는 공통의 실리콘 기판 상의 SiPM 옆에 배치 된 적어도 하나의 APD 검출기 및/또는 SiPM 어레이에 통합 된 적어도 하나의 APD를 포함할 수 있다.
일 실시예에서, 검출 요소(402)는 복수의 영역(404)으로 그룹화될 수 있다. 상기 영역은 센서(116) 내의 (예를 들어, 검출기 어레이(400) 내의) 기하학적 위치 또는 환경이며, 상이한 형태 (예를 들어, 도시한 바와 같은 직사각형, 정사각형, 링 등, 또는 임의의 다른 형태)으로 형상화될 수 있다. 영역(404)의 기하학적 면적 내에 포함되는 모든 개별 검출기가 반드시 그 영역에 속하는 것은 아니지만, 영역 사이의 이음새에서 약간의 중첩이 요구되지 않는 한 대부분의 경우에 센서(310)의 다른 면적을 커버하는 다른 영역(404)에 속하지 않을 것이다. 도 4a에 도시된 바와 같이, 상기 영역들은 비-중첩 영역들(404) 일 수 있지만, 그렇지 않다면 중첩될 수 있다. 모든 영역은 그 영역과 연관된 지역 출력 회로망(406)과 연관될 수 있다. 지역 출력 회로망(406)은 대응하는 검출 요소(402)의 그룹의 영역 출력 신호를 제공할 수 있다. 예를 들어, 출력 회로망(406)의 영역은 합산 회로일 수 있지만, 개별 검출기의 조합된 출력의 다른 형태가 (스칼라, 벡터 또는 임의의 다른 형식 불문하고) 단일 출력으로 사용될 수 있다. 선택적으로, 각각의 영역(404)은 단일 SiPM이지만, 반드시 그런 것은 아니며, 영역은 단일 SiPM의 서브-부분, 몇몇 SiPM의 그룹, 또는 상이한 유형의 검출기의 조합일 수도 있다.
도시된 예시에서, 처리 유닛(108)은 호스트(210) (내부 또는 외부의) 분리된 하우징(200B)에 위치하고 (예를 들면, 차량 (110) 내부), 감지 유닛(106)은 반사된 광을 분석하기 위한 전용 프로세서(408)를 포함할 수 있다. 그렇지 않다면, 처리 유닛(108)은 반사된 광(206)을 분석하는데 사용될 수 있다. LIDAR 시스템(100)은 도시된 예시 이외의 다른 방식으로 다수의 하우징으로 구현될 수 있음을 유의해야 한다. 예를 들어, 광 편향기(114)는 투영 유닛(102) 및/또는 감지 모듈(106)과는 다른 하우징에 위치될 수 있다. 일 실시예에서, LIDAR 시스템(100)은 전기적 와이어 연결, 무선 연결 (예를 들어, RF 연결), 광섬유 케이블, 및 이들의 임의의 조합과 같은 서로 다른 방식으로 서로 연결된 다수의 하우징을 포함할 수 있다.
일 실시예에서, 반사된 광(206)을 분석하는 것은 상이한 영역의 개별 검출기의 출력에 기초하여 반사된 광(206)에 대한 비행 시간을 결정하는 것을 포함할 수 있다. 선택적으로, 프로세서(408)는 출력 신호들의 복수의 영역들에 기초하여 반사된 광(206)에 대한 비행 시간을 결정하도록 구성될 수 있다. 비행 시간 이외에, 처리 유닛(108)은 반사된 광(206)을 분석하여 복귀 펄스 전체에 걸쳐 평균 전력을 결정할 수 있고, 광자 분포/신호는 복귀 펄스 기간("펄스 형태")에 걸쳐 결정될 수 있다. 도시된 예시에서, 임의의 검출 요소(402)의 출력은 프로세서(408)에 직접 전송되지는 않지만, 대신 프로세서(408)로 전달되기 전에 영역(404)의 다른 검출기의 신호와 결합(예를 들어, 합산)될 수 있다. 그러나 이는 단지 예시일 뿐이며, 센서(116)의 회로망은 (영역 출력 회로망(406)을 통하지 않고) 다른 루트를 통해 검출 요소(402)로부터 프로세서(408)로 정보를 전송할 수 있다.
도 4b는 2차원 센서(116)를 사용하여 LIDAR 시스템(100)의 환경을 스캔하도록 구성된 LIDAR 시스템(100)을 도시하는 다이어그램이다. 도 4b의 예시에서, 센서(116)는 4X6 검출기(410)("픽셀"이라고도 함)의 매트릭스이다. 일 실시예에서, 픽셀 크기는 약 1×1mm 일 수 있다. 센서(116)는 2개의 평행하지 않은 축 (예를 들어, 도시된 예시에서 예시된 바와 같은 직각 축)에서 검출기 (410)의 하나 이상의 세트(예를 들어, 행, 열)를 갖는다는 의미에서 2차원이다. 센서(116)의 검출기(410)의 개수는 예를 들어, 원하는 분해능, 신호대 노이즈비(SNR), 원하는 검출 거리 등에 따라 상이한 구현 예들 사이에서 변할 수 있다. 예를 들어, 센서(116)는 5 내지 5,000 픽셀 사이의 어느 곳이라도 가질 수 있다. (도면에 도시되지 않은) 또 다른 예시에서, 센서(116)는 1차원 매트릭스 (예를 들어, 1X8 픽셀)일 수 있다.
각 검출기(410)는 애벌랜치 광 다이오드(APD), 단일 광자 애벌랜치 다이오드(SPAD), 및 애벌랜치 광 다이오드(APD)와 단일 광자 애벌랜치 다이오드(SPAD)의 조합과 같은 복수의 검출 요소, 또는 레이저 펄스 전송 이벤트로부터 수신 이벤트까지의 비행 시간과 수신된 광자의 세기 모두를 측정하는 검출 요소를 포함할 수 있다는 것을 유의해야 한다. 예를 들어, 각각의 검출기(410)는 20 내지 5,000 SPAD 사이의 어느 곳이라도 포함할 수 있다. 각각의 검출기(410) 내의 검출 요소(402)의 출력은 통일된 픽셀 출력을 제공하기 위해 합산되거나, 평균화되거나, 그렇지 않으면 결합될 수 있다.
도시된 예시에서, 감지 유닛(106)은 LIDAR 시스템(100)의 시야(120)보다 시야가 좁은 2차원 센서(116) (또는 복수의 2차원 센서(116))를 포함할 수 있다. 이 논의에서, 시야(120) (임의의 방향으로 이동, 회전, 또는 롤링 하지 않고 LIDAR 시스템(100)에 의해 스캔될 수 있는 전체 시야)는 "제1 FOV(412)"로 표시되고, 보다 작은 센서(116)의 FOV는 "제2 FOV(412)" ("순간 FOV"과 호환 가능함)로 표시된다. 제1 FOV(412)에 대한 제2 FOV(414)의 커버리지 면적은 LIDAR 시스템(100)의 특정 용도에 따라 다를 수 있고, 예를 들어 0.5% 내지 50% 일 수 있다. 일 예시에서, 제2 FOV(412)는 수직 차원으로 연장된 약 0.05° 내지 1° 일 수 있다. LIDAR 시스템(100)이 하나 이상의 2차원 센서(116)를 포함할지라도, 센서 어레이의 조합된 시야는 여전히 제1 FOV(412)보다 예를 들어 적어도 5배 만큼, 적어도 20배 만큼, 적어도 50배 만큼 작을 수 있다.
제1 FOV(412)를 커버하기 위해, 스캐닝 유닛(106)은 상이한 시간에 환경의 상이한 부분으로부터 도달하는 광자들을 센서(116)에 지향시킬 수 있다. 도시된 모노스태틱 구성에서, 투영된 광(204)을 시야(120)로 향하게 하는 것과 함께 적어도 하나의 광 편향기(114)가 순간 위치에 위치되는 경우에, 스캐닝 유닛(106)은 또한 반사된 광(206)을 센서(116)로 지향하게할 수 있다. 전형적으로, 제1 FOV(412)의 스캔하는 동안의 모든 순간에, LIDAR 시스템(100)에 의해 방출된 광 빔은 제2 FOV(414)(각도 개방 시)보다 넓은 환경의 일부를 커버하고, 스캐닝 유닛(104) 및 센서(116)에 의해 수집된 광이 존재하는 환경의 부분을 포함한다.
도 4c는 2차원 센서(116)의 일 예시를 도시하는 다이어그램이다. 이 실시예에서, 센서(116)는 8×5 매트릭스 검출기(410)이고, 각각의 검출기(410)는 복수의 검출 요소(402)를 포함한다. 일 예시에서, 검출기(410A)는 4X3 매트릭스 검출 요소(402)를 포함하는 센서(116)의 제2 열("R2"로 표시됨) 및 제3 행("C3"으로 표시됨)에 위치된다. 다른 예시에서, 센서(116)의 제4 열("R4"로 표시됨) 및 제6 행("C6"로 표시됨)에 위치한 검출기(410B)는 3X3 매트릭스의 검출 요소(402)를 포함한다. 따라서, 각각의 검출기(410)의 검출 요소(402)의 개수는 일정하거나 변할 수 있으며, 공통 어레이 내의 상이한 검출기(410)는 상이한 개수의 검출 요소(402)를 가질 수 있다. 각각의 검출기(410) 내의 모든 검출 요소(402)의 출력은 단일 픽셀-출력 값을 제공하기 위해 합산되거나, 평균화되거나, 그렇지 않으면 결합될 수 있다. 도 4c의 예시에서 검출기(410)는 직사각형 매트릭스(직선 열 및 직선 행)로 배열되지만, 다른 배열, 예를 들어 원형 배열 또는 벌집 배치가 사용될 수도 있음에 유의해야 한다.
일부 실시예에 따르면, 각각의 검출기(410)로부터의 측정은 광 펄스 방출 이벤트로부터 수신 이벤트까지의 비행 시간과 수신된 광자의 세기 결정을 가능하게할 수 있다. 수신 이벤트는 광 펄스가 물체(208)로부터 반사된 결과일 수 있다. 비행 시간은 반사 물체부터 선택적인 광학 윈도우(124)까지의 거리를 나타내는 타임스탬프 값일 수 있다. 비행 시간 값은, 시간 상관 단일 광자 계수법(Time Correlated Single Photon Counters, TCSPC)과 같은 광자 검출 및 계수 방법, (아날로그-디지털 변환기 또는 일반 비교기를 통한) 신호 통합 및 자격과 같은 광자 검출을 위한 아날로그 방법, 또는 기타 방법에 의해 실현될 수 있다.
일부 실시예와 도 4b를 참조하면, 스캐닝 사이클 동안, 적어도 하나의 광 편향기(114)의 각 순간 위치는 시야(120)의 특정 부분(122)과 연관될 수 있다. 센서(116)의 설계는 시야(120)의 단일 부분으로부터 반사된 광과 다수의 검출기(410) 사이의 연관을 가능하게 한다. 따라서, LIDAR 시스템의 스캐닝 해상도는 (스캐닝 사이클 당) 순간 위치의 개수에 센서(116)의 검출기 (410) 개수를 곱한 수에 의해 나타낼 수 있다. 각각의 검출기(410)로부터의 정보(즉, 각각의 픽셀)는 3차원 공간에서 캡쳐된 시야가 구축되는 기본 데이터 요소를 나타낸다. 이것은, 예를 들어, 공간 위치 및 연관된 반사 강도 값을 갖는 포인트 클라우드 표현의 기본 요소를 포함할 수 있다. 일 실시예에서, 다수의 검출기(410)에 의해 검출되는 시야(120)의 단일 부분으로부터의 반사는 시야(120)의 단일 부분에 위치한 상이한 물체로부터 복귀될 수 있다. 예를 들어, 시야(120)의 단일 부분은 원거리장에서 50x50cm보다 클 수 있으며, 이는 서로에 의해 부분적으로 커버되어 있는 2개, 3개, 또는 그 이상의 물체를 쉽게 포함할 수 있다.
도 4d는 본 명세서에 개시된 주제의 예시에 따른 센서(116)의 일부의 단면도이다. 센서(116)의 도시된 부분은 4개의 검출 요소(402) (예를 들어, 4개의 SPAD, 4개의 APD)를 포함하는 검출기 어레이(400)의 일부를 포함한다. 검출기 어레이(400)는 상보형 금속 산화물 반도체(complementary metal-oxide-semiconductor, CMOS)로 구현되는 광 검출기 센서일 수 있다. 각각의 검출 요소(402)는 기판 주변 내에 위치되는 민감한 영역을 갖는다. 반드시 그런 것은 아니지만, 센서(116)는 (예를 들어, 스캐닝 유닛(104)이 상이한 시간에 시야의 상이한 부분을 스캔하기 때문에) 좁은 시야를 갖는 모노스태틱 LiDAR 시스템에 사용될 수 있다. 들어오는 광 빔에 대한 좁은 시야는 - 만약, 구현된 경우 - 아웃 포커스 이미징의 문제를 제거한다. 도 4d에 예시된 바와 같이, 센서(116)는 복수의 렌즈(422) (예를 들어, 마이크로렌즈)를 포함할 수 있고, 각 렌즈(422)는 상이한 검출 요소(402)를 향해 (예를 들어, 검출 요소(402)의 활성 면적을 향하여) 입사광을 지향할 수 있고, 이는 아웃 포커스 이미징이 문제가 되지 않을 경우에 사용 가능할 수 있다. 센서(116)에 도달하는 대부분의 광이 검출 요소(402)의 활성 면적을 향해 편향될 수 있기 때문에, 렌즈(422)는 검출기 어레이(400)의 감도 및 광학 필 팩터(optical fill factor)를 증가시키기 위해 사용될 수 있다.
도 4d에 예시된 바와 같은 검출기 어레이(400)는 민감한 영역을 초래하는 다양한 방법 (예를 들어, 주입)에 의해 실리콘 기판에 내장된 몇 개의 층을 포함할 수 있고, 금속층 및 절연 요소에 요소(예를 들어, 얕은 트렌치 주입(shallow trench implant, STI), 가드 링, 광학 트렌치 등)를 접촉할 수 있다. 민감한 영역은 적절한 전압 바이어스가 디바이스에 인가되면 들어오는 광자를 전류 흐름으로 광학적으로 변환할 수 있는 CMOS 검출기의 체적 요소일 수 있다. APD/SPAD의 경우, 민감한 영역은 광자 흡수에 의해 생성된 전자를 광자 유도된 전자가 증폭되어 증식된 전자의 항복 애벌랜치가 생성되는 증배 영역으로 끌어 당기는 전기장의 조합이 된다.
(예를 들어, 도 4d에 도시된 바와 같이) 전방 측 조명 검출기는 반도체(실리콘)의 상부에 존재하는 금속층과 동일한 측에 입력 광 포트를 갖는다. 금속층은 바이어스 전압, 퀀칭/밸러스트 요소, 및 공통 어레이의 다른 광 검출기와 같은 다양한 요소와 함께 각 개별적인 광 검출기 요소(예를 들어, 애노드과 캐소드)의 전기적 연결을 실현하는데 필요하다. 광자가 검출기 민감 영역에 충돌하는 광 포트는 금속층을 통과하는 통로로 구성된다. 이 통로를 통과하는 일부 방향으로부터의 광의 통로는 하나 이상의 금속층 (예를 들어, 도 4d의 가장 왼쪽의 검출기 요소(402)에 대해 도시된 금속층(ML6))에 의해 차단될 수 있다는 것을 유의해야 한다. 이러한 차단은 검출기의 전체 광학적 광 흡수 효율을 감소시킨다.
도 4e는 본 명세서에 개시된 주제의 예시에 따라 각각 연관된 렌즈(422)를 가지는 3개의 검출 요소(402)를 도시한다. 402 (1), 402 (2), 및 402 (3)로 표시된 도 4e의 3 개의 검출 요소 각각은 센서(116)의 하나 이상의 검출 요소(402)와 연관하여 구현될 수 있는 렌즈 구성을 도시한다. 이들 렌즈 구성의 조합이 또한 구현될 수 있다는 것을 주목해야 한다.
검출 요소 402 (1)와 관련하여 도시된 렌즈 구성에서, 연관된 렌즈(422)의 초점은 반도체 표면 위에 위치될 수 있다. 선택적으로, 검출 요소의 상이한 금속층의 개구부는 연관된 렌즈(422)에 의해 생성된 포커싱 광의 원뿔에 맞추어 조정된 상이한 크기를 가질 수 있다. 이러한 구조는 전체 디바이스로서 어레이(400)의 해상도 및 신호 대 노이즈를 향상시킬 수 있다. 큰 금속층은 전원의 전달과 그라운드 쉴딩에 중요할 수 있다. 이 접근법은, 예를 들어 들어오는 광 빔이 평행 광선으로 구성되어 있고 이미징 포커스가 검출된 신호에 아무런 영향도 가지지 않는 좁은 시야를 가지는 모노스태틱 LiDAR 설계에서 유용할 수 있다.
검출 요소 402 (2)와 관련하여 도시된 렌즈 구성에서, 검출 요소(402)에 의한 광자 검출의 효율은 스윗 스팟을 식별함으로써 개선될 수 있다. 구체적으로, CMOS로 구현된 광 검출기는 애벌랜치 효과를 생성하는 광자의 확률이 가장 높은 민감한 부피 면적에 스윗 스팟을 가질 수 있다. 따라서, 렌즈(422)의 초점은 검출 요소 402 (2)에 의해 입증된 바와 같이 스윗 스팟 위치에서 민감한 부피 면적 내부에 위치될 수 있다. 렌즈 형태와 초점으로부터의 거리는 레이저 빔이 렌즈로부터 반도체 재료 내에 묻힌 민감한 스윗 스팟 위치로 가는 길을 따라서 통과하는 모든 요소의 굴절률을 고려할 수 있다.
도 4e의 우측에 있는 검출 요소와 관련하여 도시된 렌즈 구성에서, 반도체 재료에서의 광자 흡수의 효율은 산광기 및 반사 요소를 사용하여 개선될 수 있다. 구체적으로, 근적외선 파장은 통과하는 광자를 높은 가능성으로 흡수하기 위해 상당히 긴 실리콘 재료 경로를 요구한다. 전형적인 렌즈 구성에서, 광자는 민감한 면적을 횡단할 수 있으며 검출 가능한 전자 내로 흡수되지 않을 수 있다. 광자가 전자를 생성하는 가능성을 향상시키는 긴 흡수 경로는 민감한 면적의 크기를 전형적인 파운드리 공정으로 제조된 CMOS 디바이스에 대해 덜 실용적인 치수(예를 들어, 수십 ㎛)가 되도록 만든다. 도 4e의 가장 오른쪽의 검출기 요소는 들어오는 광자를 처리하는 기술을 보여준다. 연관된 렌즈(422)는 들어오는 광을 산광기 요소(424) 상으로 포커스한다. 일 실시예에서, 광 센서(116)는 검출기의 적어도 일부의 외부 표면으로부터 떨어진 갭에 위치된 산광기를 더 포함할 수 있다. 예를 들어, 산광기(424)는 민감한 면적 및 반사 광학 트렌치(426)를 향해 광 빔을 옆 방향으로 (예를 들어, 가능한 한 수직으로) 조종할 수 있다. 산광기는 초점, 초점 위, 또는 초점 아래에 위치된다. 이 실시예에서, 들어오는 광은 산광기 요소가 위치된 특정 위치 상에 포커스될 수 있다. 선택적으로, 검출기 요소(422)는 광자 유도된 전자가 손실되고 유효 검출 효율을 감소시키는 비활성 면적을 광학적으로 회피하도록 설계된다. 반사 광학 트렌치(426) (또는 다른 형태의 광학적 반사 구조)는 광자가 민감한 면적을 가로질러 앞뒤로 산란하게 함으로써 검출 가능성을 증가시킨다. 이상적으로, 광자가 흡수되고 전자/홀 쌍을 생성할 때까지 광자는 민감한 면적과 반사 트렌치로 구성된 캐비티에 갇히게 될 것이다.
본 개시와 일치하여, 충돌하는 광자가 흡수되고 더 높은 검출 확률에 기여할 수 있도록 긴 경로가 생성된다. 광학 트렌치는 다른 검출기로 누설되고 잘못된 검출 이벤트를 유발할 수 있는 애벌랜치 동안 생성된 기생 광자의 크로스토크 효과(cross talk effect)를 감소시키기 위해 검출 요소(422)에 또한 구현될 수 있다. 일부 실시예에 따르면, 광 검출기 어레이는 수신된 신호의 더 높은 수율이 이용되도록, 즉 수신된 신호의 많은 부분이 수신되고 신호의 내부 열화로 손실되는 신호가 적어지도록 최적화될 수 있다. 광 검출기 어레이는 (a) 선택적으로 기판 위에 금속층을 적절히 설계함으로써, 반도체 표면 위의 위치에서 초점을 이동시키고; (b) 상기 초점을 상기 기판의 가장 반응하는/민감한 면적(또는 "스윗 스팟")으로 조종하고, (c) 상기 신호를 상기 "스윗 스팟"을 향하여 조종하기 위해 상기 기판 위에 산광기를 추가하고 및/또는 상기 트렌치에 반사 물질을 추가함으써 편향된 신호가 다시 "스윗 스팟"으로 반사되도록 한다.
일부 렌즈 구성에서, 렌즈(422)는 그 초점이 대응하는 검출 요소(402)의 중심 위에 있도록 위치될 수 있지만, 반드시 그렇지는 않다는 것을 유의해야 한다. 다른 렌즈 구성에서는, 대응하는 검출 요소(402)의 중심에 대한 렌즈(422)의 초점 위치가 검출 어레이(400)의 중심으로부터의 각 검출 요소(402)의 거리에 기초하여 이동된다. 이는 상대적으로 더 큰 검출 어레이(400)에서 유용할 수 있는데, 여기서 중심으로부터 더 멀리 떨어진 검출기 요소는 점점 축을 벗어난 각도의 광을 수신한다. (예를 들어, 검출 어레이(400)의 중심을 향하여) 초점의 위치를 이동시키는 것은 입사각을 보정하는 것을 허용한다. 구체적으로, (예를 들어, 검출 어레이(400)의 중심을 향하여) 초점의 위치를 이동시키는 것은 검출기의 표면에 관하여 동일한 각도로 위치된 모든 검출 요소에 대해 실질적으로 동일한 렌즈(422)를 사용하면서 입사각을 보정하는 것을 허용한다.
검출 요소(402)의 어레이에 렌즈(422)의 어레이를 추가하는 것은 시야의 작은 부분만을 커버하는 상대적으로 작은 센서(116)를 사용할 때 유용할 수 있는데, 왜냐하면 이러한 경우에는 장면으로부터의 반사 신호가 실질적으로 동일한 각도로부터 검출기 어레이(400)에 도달하기 때문이며, 따라서 모든 광을 개별적인 검출기 상에 포커스하는 것이 용이할 것이다. 일 실시예에서, 렌즈(422)는 공간적 특수성을 희생시키면서 전체 어레이(400)의 전체적인 검출 확률을 증가시키는 것(검출기/서브-검출기 사이의 사각 지대에서 광자가 “낭비”되는 것을 방지)을 선호하기 위해 LIDAR 시스템(100)에서 사용될 수 있다는 것 또한 유의해야 한다. 이 실시예는 CMOS RGB 카메라와 같이 공간적 특수성에 우선 순위를 매기는 종래의 구현과는 대조적이다.(즉, 검출 요소(A)의 방향으로 전파하는 광은 렌즈에 의해 검출 요소(B)를 향해 지향되는 것, 즉, 어레이의 다른 검출 요소로 "번짐"이 허용되지 않음). 적어도 하나의 렌즈(422)는 제1 검출 요소(402)로 전파하는 광을 제2 검출 요소(402)를 향하여 편향시키는 반면에 센서(116)는 선택적으로 렌즈(422)의 어레이를 포함하고, 각각은 대응하는 검출 요소(402)와 상관된다(이로써, 전체 어레이의 전체적인 검출 확률이 증가될 수 있다).
특히, 본 개시의 실시예와 일치하여, 광 센서(116)는 광 검출기의 어레이(예를 들어, 검출기 어레이(400))를 포함할 수 있고, 각각의 광 검출기(예를 들어, 검출기(410))는 광이 각각의 검출기의 외부 표면을 통해 통과할 때 전기적 전류가 흐르게 하도록 구성된다. 또한, 광 센서(116)는 광 검출기의 어레이를 향하여 광을 지향하도록 구성된 적어도 하나의 마이크로 렌즈, 즉 초점을 갖는 적어도 하나의 마이크로 렌즈를 포함할 수 있다. 광 센서(116)는, 적어도 하나의 마이크로 렌즈와 광 검출기 어레이 사이에 끼워지고, 그 사이에 광이 상기 적어도 하나의 마이크로 렌즈로부터 상기 어레이로 통과하도록 하는 갭을 가지는 전도성 재료의 적어도 하나의 층을 포함할 수 있으며, 상기 적어도 하나의 층은 상기 적어도 하나의 마이크로 렌즈와 상기 어레이 사이의 공간을 유지하며 초점 (예를 들어, 초점은 평면일 수 있음)이 상기 갭 내에, 상기 광 검출기의 어레이의 검출 표면으로부터 이격된 위치에 위치하도록 크기가 정해진다.
관련된 실시예에서, 각각의 검출기는 복수의 단일 광자 애벌랜치 다이오드(SPAD) 또는 복수의 애벌랜치 광 다이오드(APD)를 포함할 수 있다. 전도성 재료는 다층 금속 수축부일 수 있고, 전도성 재료의 적어도 하나의 층은 어레이 내의 검출기에 전기적으로 연결될 수 있다. 일 예시에서, 전도성 물질의 적어도 하나의 층은 복수의 층을 포함한다. 또한, 갭은 적어도 하나의 마이크로 렌즈로부터 초점을 향하여 수렴하고, 초점의 영역으로부터 어레이를 향해 갈라지도록 형상화될 수 있다. 다른 실시예에서, 광 센서(116)는 각 광 검출기에 인접한 적어도 하나의 반사기를 더 포함할 수 있다. 일 실시예에서, 복수의 마이크로 렌즈는 렌즈 어레이에 배치될 수 있고, 복수의 검출기는 검출기 어레이에 배치될 수 있다. 다른 실시예에서, 복수의 마이크로 렌즈는 광을 어레이의 복수의 검출기에 투영하도록 구성된 단일 렌즈를 포함할 수 있다.
처리 유닛
도 5a 내지 도 5c는 본 발명의 일부 실시예에 따른 처리 유닛(108)의 상이한 기능을 묘사한다. 구체적으로, 도 5a는 시야의 단일 부분에 대한 단일 프레임 시간에서의 방사 패턴을 도시하는 다이어그램이고, 도 5b는 전체 시야에 대한 단일 프레임 시간에서의 방사 방식을 도시하는 다이어그램이며, 도 5c는 단일 스캐닝 사이클 동안 시야를 향해 투영된 실제 발광을 도시하는 다이어그램이다.
도 5a는 적어도 하나의 광 편향기(114)의 순간 위치와 연관된 시야(120)의 단일 부분(122)에 대한 단일 프레임 시간에서의 방사 패턴의 4가지 예시를 도시한다. 본 개시의 실시예와 일치하여, 처리 유닛(108)은 시야(120)의 스캔에 걸쳐 광 플럭스가 변할 수 있는 방식으로 적어도 하나의 광원(112) 및 광 편향기(114)를 제어(또는, 적어도 하나의 광원(112) 및 적어도 하나의 광 편향기(114)의 작동을 조정)할 수 있다. 다른 실시예와 일치하여, 처리 유닛(108)은 적어도 하나의 광원(112)만을 제어할 수 있고, 광 검출기(114)는 미리 정해진 고정된 패턴으로 이동되거나 피봇될 수 있다.
도 5a의 다이어그램 A 내지 D는 시간 경과에 따라 시야(120)의 단일 부분(122)을 향해 방출된 광의 전력을 묘사한다. 다이어그램 A에서, 프로세서(118)는 시야(120)의 스캐닝 동안 초기 발광이 시야(120)의 부분(122)을 향해 투영되는 방식으로 광원(112)의 작동을 제어할 수 있다. 투영 유닛(102)이 펄스된 광 광원을 포함하는 경우, 초기 발광은 하나 이상의 초기 펄스 (“파일럿 펄스”라고도 함)를 포함할 수 있다. 처리 유닛(108)은 센서(116)로부터 초기 발광과 연관된 반사에 대한 파일럿 정보를 수신할 수 있다. 일 실시예에서, 파일럿 정보는 하나 이상의 검출기들 (예를 들어, 하나 이상의 SPAD, 하나 이상의 APD, 하나 이상의 SiPM 등)의 출력에 기초한 단일 신호로서, 또는 다수 검출기의 출력에 기초한 복수의 신호들로서 나타날 수 있다. 일 예시에서, 파일럿 정보는 아날로그 및/또는 디지털 정보를 포함할 수 있다. 다른 예시에서, 파일럿 정보는 단일 값 및/또는 복수의 값 (예를 들어, 세그먼트의 상이한 시간 및/또는 부분)을 포함할 수 있다.
초기 발광과 연관된 반사에 대한 정보에 기초하여, 처리 유닛(108)은 시야(120)의 부분(122)을 향하여 투영되는 후속 발광의 유형을 결정하도록 구성될 수 있다. 시야(120)의 특정 부분에 대해 결정된 후속 발광은 동일한 스캐닝 사이클 (즉, 동일한 프레임) 또는 후속하는 스캐닝 사이클 (즉, 후속 프레임) 중에 만들어질 수 있다. 이 실시예는 도 23 내지 도 25를 참조하여 이하에서 보다 상세하게 기술된다.
다이어그램 B에서, 프로세서(118)는 시야(120)의 스캐닝 동안 상이한 세기의 광 펄스가 시야(120)의 단일 부분(122)을 향해 투영되는 방식으로 광원(112)의 작동을 제어할 수 있다. 일 실시예에서, LIDAR 시스템(100)은, 포인트 클라우드 모델, 다각형 메쉬, (이미지 또는 2D 어레이의 각각의 픽셀에 대한 깊이 이미지 정보를 유지하는) 깊이 이미지, 또는 장면의 3D 모델의 임의의 다른 유형 중 임의의 하나 또는 그 이상과 같은 하나 이상의 상이한 유형의 깊이 맵을 생성하도록 동작 가능할 수 있다. 깊이 맵들의 시퀀스는 상이한 시간에 생성되는 상이한 깊이 맵인, 시간 시퀀스일 수 있다. 스캐닝 사이클 ("프레임"과 호환 가능함)과 연관된 시퀀스의 각각의 깊이 맵은 대응하는 후속 프레임 시간의 지속 기간 내에 생성될 수 있다. 일 예시에서, 전형적인 프레임 시간은 1초 미만으로 지속될 수 있다. 일부 실시예에서, LIDAR 시스템(100)은 고정된 프레임 레이트(예를 들어, 초당 10 프레임, 초당 25 프레임, 초당 50 프레임)를 가질 수 있거나 동적인 프레임 레이트를 가질 수 있다. 다른 실시예에서, 상이한 프레임들의 프레임 시간은 시퀀스를 가로질러 동일하지 않을 수 있다. 예를 들어, LIDAR 시스템(100)은 100 밀리 초(평균), 92 밀리 초의 제2 프레임, 142 밀리 초의 제3 프레임 등으로 제1 깊이 맵을 생성하는 것을 포함하는 10 프레임/초 레이트를 구현할 수 있다.
다이어그램 C에서, 프로세서(118)는 시야(120)의 스캐닝 동안 상이한 지속 기간과 연관된 광 펄스가 시야(120)의 단일 부분(122)을 향해 투영되는 방식으로 광원(112)의 작동을 제어할 수 있다. 일 실시예에서, LIDAR 시스템(100)은 각 프레임에서 상이한 개수의 펄스를 생성하도록 동작 가능할 수 있다. 펄스의 개수는 0 내지 32 펄스 (예를 들어, 1, 5, 12, 28 또는 그 이상의 펄스) 사이에서 변할 수 있으며, 이전의 방출로부터 파생된 정보에 기초할 수 있다. 광 펄스 간의 시간은 원하는 검출 범위에 의존할 수 있으며, 500ns 내지 5000ns가 될 수 있다. 일 예시에서, 처리 유닛(108)은 각각의 광 펄스와 연관된 반사에 대한 정보를 센서(116)로부터 수신할 수 있다. 정보 (또는 정보의 부족)에 기초하여, 처리 유닛(108)은 추가적인 광 펄스가 필요한지를 결정할 수 있다. 다이어그램 A 내지 D에서의 처리 시간 및 방출 시간의 지속 시간은 일정한 비율로 도시된 것이 아니라는 것을 유의해야 한다. 구체적으로, 처리 시간은 방출 시간보다 실질적으로 더 길 수 있다. 다이어그램 D에서, 투영 유닛(102)은 연속파 광원을 포함할 수 있다. 일 실시예에서, 초기 발광은 광이 방출되는 시간의 기간을 포함할 수 있고, 후속 발광은 초기 발광의 연속이거나 또는 불연속일 수 있다. 일 실시예에서, 연속적인 방출의 세기는 시간에 따라 변할 수 있다.
본 개시의 일부 실시예와 일치하여, 방출 패턴은 시야(120)의 각 부분마다 결정될 수 있다. 다시 말해서, 프로세서(118)는 광의 방출을 제어하여 시야(120)의 상이한 부분의 조명을 구별할 수 있게 한다. 일 실시예에서, 프로세서(118)는 동일한 스캐닝 사이클(예를 들어, 초기 방출)로부터 반사된 광의 검출에 기초하여 시야(120)의 단일 부분(122)에 대한 방출 패턴을 결정할 수 있는데, 이는 LIDAR 시스템(100)을 매우 동적으로 만든다. 다른 예시에서, 프로세서(118)는 이전 스캐닝 사이클로부터 반사된 광의 검출에 기초하여 시야(120)의 단일 부분(122)에 대한 방출 패턴을 결정할 수 있다. 후속 방출의 패턴의 차이는 후속 방출에 대한
후속 방출의 전체적인 에너지;
후속 방출의 에너지 프로필;
한 프레임 당 광 펄스 반복의 개수;
지속 시간, 속도, 피크, 평균 전력, 및 펄스 형태와 같은 광 변조 특성; 및
편광, 파장 등과 같은 후속 방출의 파 특성 중 임의의 하나와 같은 광원 파라미터에 대해 다른 값들을 결정하는 것으로부터 발생할 수 있다.
본 개시와 일치하여, 후속 방출에서의 차별화는 다른 용도로 사용될 수 있다. 일 예시에서, 시야(120)의 다른 부분에 대해 더 높은 전력 레벨을 방출하면서 (따라서 신호 대 노이즈 비율 및 검출 범위를 개선하면서), 안전성이 고려되는 시야(120)의 한 부분에서 방출된 전력 레벨을 제한하는 것이 가능하다. 이는 안구 안전과 관련이 있지만, 피부 안전, 광학 시스템의 안전성, 민감한 재료의 안전성 등에도 또한 관련될 수 있다. 다른 예시에서, 동일한 프레임 또는 이전 프레임으로부터의 검출 결과에 기초하여 시야(120)의 다른 부분에 조명 에너지를 제한하면서, 보다 더 큰 사용을 하게 될 시야(120)의 부분 (예를 들어, 관심 영역, 멀리 떨어져 있는 타겟들, 낮은 반사 타겟들 등)을 향하여 더 많은 에너지를 지향하는 것이 가능하다. 처리 유닛(108)은 단일 스캐닝 프레임 시간 내에서 단일 순간 시야로부터의 검출된 신호를 여러 번 처리할 수 있다는 것을 유의해야 하며, 예를 들어, 후속 방출은 모든 펄스가 방출된 이후에 또는 다수의 펄스가 방출된 후에 결정될 수 있다.
도 5b는 시야(120)에 대한 단일 프레임 시간에서의 방출 방식의 3가지 예시를 도시한다. 본 개시의 실시예와 일치하여, 적어도 하나의 처리 유닛(108)은 획득된 정보를 사용하여 LIDAR 시스템(100)의 동작 모드를 동적으로 조절하고 및/또는 LIDAR 시스템(100)의 특정 구성 요소의 파라미터의 값을 결정할 수 있다. 획득된 정보는 시야(120)에서 캡쳐되거나 호스트(210)로부터 (직접 또는 간접적으로) 수신된 처리 데이터로부터 결정될 수 있다. 처리 유닛(108)은 획득된 정보를 사용하여 시야(120)의 상이한 부분을 스캔하기 위한 스캐닝 방식을 결정할 수 있다. 획득된 정보는 현재의 조명 조건, 현재의 기상 조건, 호스트 차량의 현재 주행 환경, 호스트 차량의 현재 위치, 호스트 차량의 현재 궤적, 호스트 차량을 둘러싼 도로의 현재 지형, 또는 광 반사를 통해 검출 가능한 임의의 다른 상태 또는 물체일 수 있다. 일부 실시예에서, 결정된 스캐닝 방식은 다음 중 적어도 하나: (a) 스캐닝 사이클의 일부로서 능동적으로 스캔될 시야(120) 내의 부분의 지정, (b) 시야(120)의 상이한 부분에서 발광 프로필을 한정하는 투영 유닛(120)에 대한 투영 플랜; (c) 예를 들어, 편향 방향, 주파수, 및 반사기 어레이 내의 아이들 요소 지정을 한정하는 스캐닝 유닛(104)에 대한 편향 플랜; 및 (d) 검출기 감도 또는 반응성 패턴을 한정하는 감지 유닛(106)에 대한 검출 플랜을 포함할 수 있다.
또한, 처리 유닛(108)은 시야(120) 내의 관심 영역 중 적어도 하나의 영역 및 시야(120) 내의 비관심 영역 중 적어도 하나의 식별을 획득함으로써 적어도 부분적으로 스캐닝 방식을 결정할 수 있다. 일부 실시예에서, 처리 유닛(108)은 관심이 많은 시야(120) 내 적어도 하나의 영역 및 관심이 적은 시야(120) 내 적어도 하나의 영역의 식별을 획득함으로써 적어도 부분적으로 스캐닝 방식을 결정할 수 있다. 시야(120) 내의 적어도 하나의 관심 영역의 식별은, 예를 들어 다른 센서(예를 들어 카메라, GPS)의 데이터에 기초하여 시야(120)에서 캡쳐된 데이터를 처리하거나, (직접적으로 또는 간접적으로) 호스트(210)로부터 수신되거나, 또는 이들의 임의의 조합으로부터 결정될 수 있다. 일부 실시예에서, 적어도 하나의 관심 영역의 식별은 모니터하기 위해 중요한 시야(120) 내의 부분, 면적, 섹션, 픽셀, 또는 물체의 식별을 포함할 수 있다. 관심 영역으로 식별될 수 있는 면적의 예시는, 횡단 보도, 이동 물체, 사람, 인근 차량, 또는 차량 운행에 도움이 될 수 있는 기타 환경 조건 또는 물체를 포함할 수 있다. 비관심 영역 (또는 관심이 적은 영역)으로 식별될 수 있는 면적의 예시로는 정적인 (움직이지 않는) 먼 건물, 스카이 라인, 수평선 위의 영역, 및 시야의 물체가 있다. 시야(120) 내에서 적어도 하나의 관심 영역의 식별을 획득하면, 처리 유닛(108)은 스캐닝 방식을 결정하거나 기존 스캐닝 방식을 변경할 수 있다. (상술한 바와 같이) 광원 파라미터를 결정 또는 변경하는 것 이외에도, 처리 유닛(108)은 적어도 하나의 관심 영역의 식별에 기초하여 검출기 자산을 할당할 수 있다. 일 예시에서, 노이즈를 줄이기 위해, 처리 유닛(108)은 관심 영역이 예상되는 곳에서 검출기(410)를 활성화하고 비관심 영역이 예상되는 곳에서 검출기(410)를 디스에이블할 수 있다. 다른 예시에서, 처리 유닛(108)은 예를 들어 반사된 전력이 낮은 긴 범위 검출에 대한 센서 감도를 증가시키는 것처럼 검출기 감도를 변경할 수 있다.
도 5b의 다이어그램 A 내지 C는 시야(120) 스캐닝에 대한 상이한 스캐닝 방식의 예시를 묘사한다. 시야(120) 내의 각 정사각형은 적어도 하나의 광 편향기(114)의 순간 위치와 연관된 상이한 부분(122)을 나타낸다. 범례 500은 사각형의 채우기 패턴에 의해 표현되는 광 플럭스의 레벨을 자세히 설명한다. 다이어그램 A는 모든 부분이 동일한 중요도/우선 순위를 가지며 디폴트 광 플럭스가 그에 할당된 제1 스캐닝 방식을 묘사한다. 제1 스캐닝 방식은 시동 단계에서 활용되거나 예상치 못한/새로운 물체에 대한 전체적인 시야를 모니터하기 위해 다른 스캐닝 방식과 주기적으로 인터리브될 수 있다. 일 예시에서, 제1 스캐닝 방식의 광원 파라미터는 일정한 진폭으로 광 펄스를 생성하도록 구성될 수 있다. 다이어그램 B는 시야(120)의 일부가 높은 광 플럭스로 할당되면서, 시야(120)의 나머지 부분은 디폴트 광 플럭스와 낮은 광 플럭스로 할당되는 제2 스캐닝 방식을 묘사한다. 시야(120)의 가장 관심이 적은 부분은 낮은 광 플럭스로 할당될 수 있다. 다이어그램 C는 소형 차량 및 버스 (실루엣 참조)가 시야(120)에서 식별되는 제3 스캐닝 방식을 묘사한다. 이러한 스캐닝 방식에서, 차량 및 버스의 모서리는 높은 전력으로 추적될 수 있으며 차량 및 버스의 중심 질량은 적은 광 플럭스로 (또는 광 플럭스 없이) 할당될 수 있다. 이러한 광 플럭스 할당은 식별된 물체의 모서리 상에 광 버짓을 더 집중시킬 수 있게 하며, 중요도가 낮은 그들의 중심에는 덜 집중시킬 수 있게 한다.
도 5c는 단일 스캐닝 사이클 동안 시야(120)를 향하는 광의 방출을 도시한다. 도시된 예시에서, 시야(120)는 8×9 매트릭스에 의해 나타나고, 여기서 72 개의 각각의 셀은 적어도 하나의 광 편향기(114)의 상이한 순간 위치와 연관된 별도의 부분(122)에 대응한다. 이러한 예시적인 스캐닝 사이클에서, 각 부분은 그 부분을 향하여 투영된 광 펄스의 개수를 나타내는 하나 이상의 백색 점을 포함하고, 일부는 센서(116)에 의해 검출된 부분으로부터의 반사된 광을 나타내는 검은 점을 포함한다. 도시된 바와 같이, 시야(120)는 3개의 섹터, 즉 시야(120)의 우측 상의 섹터(I), 시야(120)의 중앙의 섹터(II), 시야(120)의 좌측상의 섹터(III)로 분할된다. 이러한 예시적인 스캐닝 사이클에서, 섹터 I은 초기에 부분당 단일 광 펄스로 할당되고, 이전에 관심 영역으로 식별된 섹터 II는 초기에 부분당 3개의 광 펄스로 할당되며, 섹터 III는 초기에 부분당 2개의 광 펄스로 할당된다. 도시된 바와 같이, 시야(120)의 스캐닝은 4개의 물체(208), 즉 근거리장 (예를 들어, 5미터 내지 50미터 사이) 내의 2개의 자유형 물체, 중거리장의 둥근 사각형 물체(예를 들어, 50미터 내지 150미터), 원거리장의 삼각형 물체(예를 들어, 150미터 내지 500미터)를 드러낸다. 도 5c의 논의는 광 플럭스 할당의 일 예시로서 펄스의 개수를 사용하지만, 시야의 다른 부분에 대한 광 플럭스의 할당은 펄스 지속 시간, 펄스 각 분산, 파장, 순시 전력, 광원(112)으로부터의 상이한 거리에서의 광자 밀도, 평균 전력, 펄스 전력 세기, 펄스 폭, 펄스 반복율, 펄스 시퀀스, 펄스 듀티 사이클, 파장, 위상, 편광 등과 같은 다른 방식으로도 구현될 수 있음을 유의해야 한다. 도 5c의 단일 스캐닝 사이클로서의 발광을 도시한 것은 LIDAR 시스템(100)의 상이한 성능을 보여준다. 제1 실시예에서, 프로세서(118)는 2개의 광 펄스를 사용하여 제1 물체(예를 들어, 둥근 사각형 물체)를 제 1 거리에서 검출하고, 3개의 광 펄스를 사용하여 제2 물체(예를 들어, 삼각형 물체)를 제1 거리보다 먼 제2 거리에서 검출하도록 구성된다. 이러한 실시예는 도 11 내지 도 13을 참조하여 이하에서 보다 상세하게 기술된다. 제2 실시예에서, 프로세서(118)는 관심 영역으로 식별되는 시야의 부분에 더 많은 광을 할당하도록 구성된다. 구체적으로, 본 예시에서, 섹터 II는 관심 영역으로 식별되어서, 그에 따라 3개의 광 펄스로 할당되는 반면, 시야(120)의 나머지는 2개 이하의 광 펄스로 할당된다. 이 실시예는 도 20 내지 도 22를 참조하여 이하에서 보다 상세하게 기술된다. 제3 실시예에서, 프로세서(118)는, 초기에는 부분당 2개의 광 펄스로 할당된 섹터 III의 일부임에도 불구하고 오로지 단일 광 펄스만이 도 5c의 부분 B1, B2, 및 C1을 향하여 투영되는 방식으로 광원(112)을 제어하도록 구성된다. 이는 처리 유닛(108)이 제1 광 펄스에 기초하여 근거리장 내의 물체를 검출했기 때문에 발생한다. 이 실시예는 도 23 내지 도 25를 참조하여 이하에서 보다 상세하게 기술된다. 펄스의 최대량보다 적은 양의 할당은 다른 고려 사항의 결과일 수도 있다. 예를 들어, 적어도 일부 영역에서, 제1 거리(예를 들어, 근거리장)에서의 물체의 검출은 시야(120)의 이 부분으로 방출되는 전체 광량을 감소시킬 수 있다. 이 실시예는 도 14 내지 도 16을 참조하여 이하에서 보다 상세하게 기술된다. 다른 부분들에 대한 전력 할당을 결정하는 다른 이유들은 도 29 내지 도 31, 도 53 내지 도 55, 및 도 50 내지 도 52와 관련하여 이하에서 논의된다.
LIDAR 시스템(100)의 상이한 구성 요소들과 그들의 연관된 기능들에 대한 추가적인 세부 사항 및 예시들은 2016년 12월 28일 출원된 출원인의 미국 특허 출원 제 15/391,916호; 2016년 12월 29일 출원된 출원인의 미국 특허 출원 제 15/393,749호; 2016년12월29일 출원된 출원인의 미국 특허 출원 제 15/393,285호; 및 2016년 12월 29일 출원된 출원인의 미국 특허 출원 제 15/393,593호에 포함되어 있으며, 이는 그 전체 내용이 원용에 의해 본원에 포함된다.
구현 예시 : 차량
도 6a 내지 6c는 차량 (예를 들어, 차량(110))에서 LIDAR 시스템(100)의 구현을 도시한다. 상기 또는 이하에 기술된 LIDAR 시스템(100)의 임의의 양태는 범위 감지 차량을 제공하기 위해 차량(110)에 포함될 수 있다. 구체적으로, 이러한 예시에서, LIDAR 시스템(100)은 다수의 단일 스캐닝 유닛(104) 및 잠재적으로 다수의 투영 유닛(102)을 단일 차량에 통합한다. 일 실시예에서, 차량은 FOV의 민감한 부분 (예를 들어, 차량의 전진 방향)의 중복뿐만 아니라 중첩되는 존(zone)과 그 너머에서의 전력, 범위 및 정확도를 향상시키기 위해 그러한 LIDAR 시스템을 이용할 수 있다. 도 6a에 도시된 바와 같이, 차량(110)은 시야(120A)의 스캐닝을 제어하기 위한 제1 프로세서(118A), 시야(120B)의 스캐닝을 제어하기 위한 제2 프로세서(118B), 및 상기 두 시야의 스캐닝의 동기화를 제어하기 위한 제3 프로세서(118C)를 포함할 수 있다. 일 예시에서, 프로세서(118C)는 차량 제어기일 수 있고, 제1 프로세서(118A)와 제2 프로세서(118B) 사이의 공유 인터페이스를 가질 수 있다. 공유 인터페이스는 시간적 및/또는 공간적 공간에서 중첩을 형성하기 위해 중간 처리 레벨에서 데이터의 교환 및 결합된 시야의 스캐닝의 동기화를 할 수 있게 한다. 일 실시예에서, 공유 인터페이스를 사용하여 교환되는 데이터는 (a) 중첩된 시야 및/또는 그 부근의 픽셀과 연관된 수신된 신호의 비행 시간; (b) 레이저 스티어링 위치 상태; (c) 시야 내의 물체의 검출 상태일 수 있다.
도 6b는 시야(120A)와 시야(120B) 사이의 중첩 영역(600)을 도시한다. 묘사된 예시에서, 중첩 영역은 시야(120A)로부터의 24개 부분(122) 및 시야(120B)로부터의 24개 부분(122)과 연관된다. 중첩 영역이 프로세서(118A, 118B)에 의해 정의되고 알려지면, 각각의 프로세서는 다수의 소스 광에 걸친 안구 안전 한계를 따르거나 광 버짓을 유지하는 등의 다른 이유를 위해 중첩 영역(600)에서 방출되는 광량을 제한하도록 설계될 수 있다. 또한, 프로세서(118A, 118B)는 스캐닝 유닛(104A)과 스캐닝 유닛(104B) 사이의 느슨한 동기화, 및/또는 레이저 전송 타이밍의 제어 및/또는 타이밍을 가능하게 하는 검출 회로 제어에 의해 2개의 광원에 의해 방출된 광 사이의 간섭을 피할 수 있다.
도 6c는 시야(120A)와 시야(120B) 사이의 중첩 영역(600)이 차량(110)의 검출 거리를 증가시키는데 어떻게 사용될 수 있는지를 도시한다. 본 개시와 일치하여, 그들의 공칭 발광을 중첩 존으로 투영하는 2개 이상의 광원(112)은 유효 검출 범위를 증가시키기 위해 레버리지(leverage)될 수 있다. "검출 범위"라는 용어는 LIDAR 시스템(100)이 물체를 명확하게 검출할 수 있는 차량(110)으로부터의 대략적인 거리를 포함할 수 있다. 일 실시예에서, LIDAR 시스템(100)의 최대 검출 범위는 약 300미터, 약 400미터, 또는 약 500미터이다. 예를 들어, 200미터의 검출 범위에 대해, LIDAR 시스템(100)은 시간의 95% 이상, 99% 이상, 99.5% 이상 에서 차량(110)으로부터 200미터 (또는 그 미만)에 위치된 물체를 검출할 수 있다. 물체의 반사율이 50% 미만 (예를 들어, 20% 미만, 10% 미만, 또는 5% 미만)일 때도 있을 수 있다. 또한, LIDAR 시스템(100)은 1% 미만의 오경보율을 가질 수 있다. 일 실시예에서, 시공간 공간에 나란히 놓인 2개의 광원으로부터 투영된 광은 SNR을 향상시키기 위해 이용 될 수 있고, 따라서 중첩 영역에 위치된 물체에 대한 범위 및/또는 서비스 품질을 증가시킬 수 있다. 프로세서(118C)는 시야(120A, 120B)에서 반사된 광으로부터 고레벨 정보를 추출할 수 있다. "정보 추출"이라는 용어는, 통상의 기술자에게 알려진 임의의 수단에 의해 물체, 개인, 위치, 이벤트 등과 연관된 정보가 캡쳐된 이미지 데이터 내에서 식별되는 임의의 프로세스를 포함할 수 있다. 또한, 프로세서(118A, 118B)는 물체 (도로 구분자, 배경, 보행자, 차량 등) 및 모션 벡터와 같은 고레벨 정보를 공유하여 각 프로세서가 관심 영역이 될 주변 영역을 경계하도록할 수 있다. 예를 들어, 시야(120A) 내의 이동 물체는 곧 시야(120B)로 들어갈 것으로 결정될 수 있다.
구현 예시 : 감시 시스템
도 6d는 감시 시스템에서 LIDAR 시스템(100)의 구현을 도시한다. 전술한 바와 같이, LIDAR 시스템(100)은 더 넓은 시야를 획득하기 위해 LIDAR 시스템(100)의 하우징을 회전시키기 위한 모터 또는 다른 메커니즘을 포함할 수 있는 정지된 물체(650)에 고정될 수 있다. 대안적으로, 감시 시스템은 복수의 LIDAR 유닛을 포함할 수 있다. 도 6d에 묘사된 예시에서, 감시 시스템은 시야(120)를 나타내는 3D 데이터를 획득하고, 사람(652), 차량(654), 환경의 변화, 또는 보안 중요 데이터의 임의의 다른 형태를 검출하기 위하여 3D 데이터를 처리하기 위해, 단일의 회전 가능한 LIDAR 시스템(100)을 사용할 수 있다.
본 개시의 일부 실시예와 일치하여, 3D 데이터는 소매업 프로세스를 모니터하기 위해 분석될 수 있다. 일 실시예에서, 3D 데이터는 물리적 보안 (예를 들어, 소매 시설 내에서의 무단 침입의 검출, 소매 시설 내에서 또는 그 주위에서의 공공 기물 파손 행위의 검출, 보안 면적에 대한 무단 액세스의 검출, 및 주차장의 자동차 주위의 의심스러운 행동의 검출)을 포함하는 소매업 프로세스에서 사용될 수 있다. 다른 실시예에서, 3D 데이터는 공공 안전 (예를 들어, 사람들이 매장 부지에 미끄러지거나 떨어지는 것의 검출, 매장 바닥에 위험한 액체 유출이나 장애물의 검출, 매장 주차장에서의 폭행 또는 납치의 검출, 비상구의 장애물의 검출, 및 매장 면적이나 매장 외부에서 밀집의 검출)에 사용될 수 있다. 다른 실시예에서, 3D 데이터는 비즈니스 인텔리전스 데이터 수집 (예를 들어, 얼마나 많은 사람들이 통과하는지, 그들이 어디에 머무르는지, 그들이 얼마나 오래 머무르는지, 그들의 구매 습관과 비교하여 그들의 쇼핑 습관이 어떠한지를 결정하기 위해 매장 면적을 통해 사람들을 추적)하는데 사용될 수 있다.
본 개시의 다른 실시예들과 일치하여, 3D 데이터는 교통 단속을 위해 분석되고 사용될 수 있다. 구체적으로, 3D 데이터는 법적 속도 제한을 초과하거나 기타 도로 관련 법적 요구 사항을 어겨 달리는 차량을 식별하는데 사용될 수 있다. 일 예시에서, LIDAR 시스템(100)은 적색 신호등이 표시되는 동안 정지 라인 또는 지정된 정지 장소를 가로지르는 차량을 검출하는데 사용될 수 있다. 다른 예시에서, LIDAR 시스템(100)은 대중 교통을 위해 마련해둔 차선을 주행하는 차량을 식별하는데 사용될 수 있다. 또 다른 예시에서, LIDAR 시스템 (100)은 특정 턴이 적색으로 금지되는 교차로를 턴하는 차량을 식별하는데 사용될 수 있다.
다양한 개시된 실시예의 예시가 광 편향기의 스캔을 제어하는 제어 유닛에 관하여 상기 및 이하에 기술되었지만, 개시된 실시예의 다양한 특징은 이러한 시스템으로 제한되지 않는다는 것을 알아야한다. 오히려, LIDAR FOV의 다양한 부분에 광을 할당하는 기술은 상이한 광량을 시야의 상이한 부분으로 지향하게 하는 바램 또는 필요성이 있는 광 기반 감지 시스템(LIDAR 또는 다른 방식)의 유형에 적용 가능할 수 있다. 일부 경우에, 이러한 광 할당 기술은 본원에 기술된 바와 같이 검출 능력에 긍정적인 영향을 미칠 수 있고, 다른 장점도 또한 발생할 수 있다.
검출기-어레이 기반 스캐닝 LIDAR
현존하는 많은 LIDAR 시스템은 레이저를 장면에 플래시 하는 것을 제공한 다음, 반사를 생성하고 그 반사를 사용하여 장면의 이미지를 구성한다. 그러나, 이러한 시스템은 낮은 정밀도 (예를 들어, 저해상도)를 제공할 수 있으며, 측정 시 중복성을 제공하지 않을 수 있다.
따라서, 본 개시의 시스템 및 방법은 복수의 검출기를 가지는 이동 (또는 스캐닝) 레이저 스팟의 사용을 허용할 수 있다. 이에 따라, 각 스팟에 대한 측정의 다양성 뿐 아니라 현존하는 시스템과 비교하여 더 높은 정밀도가 얻어질 수 있다. 이러한 다양성은 추가적인 정밀도를 제공할 수 있고 및/또는 여분의 측정, 예를 들어 에러 정정에 사용하기 위한 여분의 측정을 제공할 수 있다.
도 7은 LIDAR 시스템을 사용하여 물체를 검출하기 위한 예시적인 방법(700)을 도시한다. 방법(700)은 하나 이상의 프로세서들 (예를 들어, 도 1a에 묘사된 LIDAR 시스템(100)의 처리 유닛 (108)의 적어도 하나의 프로세서(118) 및/또는 도 2a에 묘사된 LIDAR 시스템(100)의 처리 유닛의 두 개의 프로세서(118))에 의해 수행될 수 있다.
단계 701에서, 프로세서(118)는 광원 (예를 들어, 도 1a의 광원(112), 도 2a의 광원(112)의 레이저 다이오드(202) 및/또는 도 2b의 복수의 광원(102))의 발광을 제어한다. 예를 들어, 프로세서(118)는 광원에 전력을 공급하거나 광원에 전력을 차단할 수 있다. 또한, 프로세서(118)는 광원으로부터의 펄스의 타이밍을 변경할 수 있다. 대안적으로 또는 동시에, 프로세서(118)는 광원으로부터의 펄스의 길이를 변경시킬 수 있다. 추가 예시로서, 프로세서(118)는 대안적으로 또는 동시에 광원으로부터 방출된 광 펄스의 공간적 치수 (예를 들어, 길이 또는 폭 또는 단면적을 변경)를 변화시킬 수 있다. 또 다른 예시에서, 프로세서(118)는 대안적으로 또는 동시에 광원으로부터의 펄스들의 진폭 및/또는 주파수를 변화시킬 수 있다. 또 다른 예시에서, 프로세서(118)는 광원으로부터 연속파(CW) 또는 준-CW 발광 (예를 들어, 그 진폭, 변조, 그 위상 등)의 파라미터를 바꿀 수 있다. 광원은 "레이저"로 지칭될 수 있지만, 대안적인 광원이 레이저와 교대로 또는 동시에 사용될 수 있다. 예를 들어, 발광 다이오드(LED) 기반 광원 또는 그와 유사한 것이 광원으로서 사용될 수 있다. 일부 실시예에서, 발광의 제어는 광원 그 자체 이외에 방출 경로의 다른 구성 요소의 작동을 제어하는 것을 포함할 수 있다. 예를 들어, 프로세서(118)는 LIDAR 시스템의 전송 경로상의 다른 광학 구성 요소 및/또는 시준 광학계를 제어함으로써 광원을 추가로 제어할 수 있다.
단계 703에서, 프로세서(118)는 광원의 아웃바운드 경로에 위치한 적어도 하나의 광 편향기(예를 들어, 도 1a의 광 편향기(114), 도 2a의 편향기(114A) 및/또는 편향기(114B), 및/또는 도 2b의 일방향 편향기(114))를 반복적으로 이동시킴으로써 시야(예를 들어, 도 1a와 도 2a의 시야(120))를 스캔한다. 일부 실시예에서, 적어도 하나의 광 편향기는 피봇 가능한 MEMS 미러 (예를 들어,도 3a의 MEMS 미러(300))를 포함할 수 있다.
일부 실시예에서, 프로세서(118)는 시야의 단일 스캐닝 사이클 동안 적어도 하나의 광 편향기가 복수의 상이한 순간 위치에 위치될 수 있도록 적어도 하나의 광 편향기를 이동시킬 수 있다 (예를 들어, 편향기는 LIDAR FOV의 스캔 동안 편향기가 하나의 순간 위치로부터 또는 하나의 순간 위치를 통해 다른 순간 위치로 이동하도록 제어될 수 있다). 예를 들어, 적어도 하나의 광 편향기는 스캐닝 사이클 동안 복수의 위치 중 하나로부터 다른 위치로 (선택적으로 추가적인 위치 및/또는 반복과 함께) 연속적으로 또는 비연속적으로 이동될 수 있다. 본원에 사용된 바와 같이, "이동"이라는 용어는 편향기의 물리적 이동 또는 편향기의 광학 특성, 전기적 특성의 수정을 지칭할 수 있다 (예를 들어, 편향기가 MEMS 미러 또는 다른 압전기 또는 열전기 미러를 포함하는 경우, 편향기가 광학 위상 어레이(OPA)를 포함하는 경우 등). 적어도 하나의 편향기의 이동은 또한 적어도 하나의 편향기와 결합된 광원에 대해 구현될 수 있다. 예를 들어, LIDAR 시스템이 수직 공동 표면 방출 레이저(vertical-cavity surface-emitting laser, VCSEL) 어레이 또는 임의의 다른 유형의 발광기 어레이를 포함하는 경우, 적어도 하나의 편향기를 이동시키는 것은 어레이의 활성 레이저들의 조합을 수정하는 것을 포함할 수 있다. 그러한 구현에서, 편향기의 순간 위치는 VCSEL 어레이 (또는 다른 유형의 발광기 어레이)의 활성 광원들의 특정 조합에 의해 정의될 수 있다.
일부 실시예에서, 프로세서(118)는 적어도 하나의 광 편향기가 특정 순간 위치에 위치될 때 광원의 아웃 바운드 경로가 적어도 부분적으로 복귀 경로와 일치하도록 적어도 하나의 광 편향기 및 광원을 조정할 수 있다. 예를 들어,도 2b에 묘사된 바와 같이, 투영된 광(204)과 반사된 광(206)은 적어도 부분적으로 일치한다. 이러한 실시예에서, 적어도 하나의 편향기는 피봇 가능한 MEMS 미러를 포함할 수 있다.
유사하게, 일부 실시예에서, 아웃바운드 경로와 복귀 경로의 중첩 부분은 공통 광 편향 요소를 포함할 수 있다. 예를 들어, 도 2b에 묘사된 바와 같이, 광 편향기(114)는 투영된 광을 시야(120)를 향해 지향하고, 반사된 광을 센서(116)를 향해 지향한다. 일부 실시예에서, 공통 광 편향 요소는 이동 가능한 편향 요소 (즉, 복수의 순간 위치 사이에서 제어 가능하게 이동될 수 있는 편향 요소) 일 수 있다. 일부 실시예에서, 중첩 부분은 공통 광 편향 요소의 표면의 일부를 포함할 수 있다. 이에 따라, 특정 양태에서, 투영된 광이 공통 광 편향 요소의 전체 (또는 거의 전체의) 면적에 충돌하지 않는다 하더라도, 하나 이상의 반사가 공통 광 편향 요소의 전체 (또는 거의 전체의) 면적을 커버할 수 있다.
선택적으로 또는 동시에, 적어도 하나의 광 편향기는 적어도 하나의 아웃바운드 편향기 및 적어도 하나의 복귀 편향기를 포함할 수 있다. 예를 들어, 도 2a에 묘사된 바와 같이, 아웃바운드 편향기(114A)는 투영된 광(204)을 시야(120)를 향하여 지향하고, 반면에 복귀 편향기(114B)는 시야(120) 내의 물체(208)로부터 반사된 광(206)을 되돌려 지향한다. 이러한 실시예에서, 프로세서(118)는 적어도 하나의 복귀 편향기를 통해 아웃바운드 경로와 일치하지 않는 센서로의 복귀 경로를 따라 단일 광 빔 스팟의 반사를 수신할 수 있다. 예를 들어, 도 2a에 묘사된 바와 같이, 투영된 광(205)은 반사된 광(206)과 일치하지 않는 경로를 따라 이동한다.
상기 언급된 아웃바운드 경로 및 복귀 경로와 같은 광 경로는 적어도 부분적으로 LIDAR 시스템의 하우징 내에 있을 수 있다. 예를 들어, 아웃바운드 경로는 광원과 적어도 하나의 광 편향기 사이의 공간의 일부를 포함할 수 있고, 및/또는 적어도 하나의 광 편향기와 하우징 내의 하우징의 개구부 사이의 공간의 일부를 포함할 수 있다. 유사하게, 복귀 경로는 적어도 하나의 광 편향기 (또는 별개의 적어도 하나의 광 편향기)와 하우징의 개구부 사이의 공간의 일부 및/또는 센서와 하우징 내의 적어도 하나의 광 편향기(또는 별개의 적어도 하나의 광 편향기) 사이의 공간의 일부를 포함할 수 있다.
단계 705에서, 적어도 하나의 편향기가 특정 순간 위치에 있는 동안, 프로세서(118)는 적어도 하나의 편향기를 통해 복귀 경로를 따라 단일 광 빔 스팟의 반사를 센서 (예를 들어, 도1a, 도 2a, 도 2b, 및 도 2c의 감지 유닛(106)의 적어도 하나의 센서(116))에 수신한다. 본원에 사용된 바와 같이, "빔 스팟"이라는 용어는 시야로부터 하나 이상의 반사를 생성할 수 있는 광원으로부터의 광 빔의 일부를 지칭할 수 있다. "빔 스팟"은 단일 픽셀을 포함하거나 복수의 픽셀을 포함할 수 있다. 따라서, "빔 스팟"은 LIDAR 시스템의 단일 픽셀 또는 LIDAR 시스템의 수 개의 픽셀에 의해 검출되는 장면의 일부를 조명할 수 있고, 상기 장면의 각 부분은 전체 픽셀을 커버할 수 있지만 그 픽셀에 의해 검출되기 위해 그럴 필요는 없다. 또한, "빔 스팟"은 (예를 들어, 빔 스팟이 아웃바운드 경로 상의 편향기에 의해 편향될 때) 적어도 하나의 편향기보다 크기가 작거나, 대략 크기가 동일하거나, 또는 크기가 더 클 수 있다.
단계 707에서, 프로세서(118)는 빔 스팟 단위 기준으로 각 광 빔 스팟의 이미지와 연관된 신호를 센서로부터 수신한다. 예를 들어, 센서는 각 빔 스팟의 반사를 흡수할 수 있고, 흡수된 빔 스팟을 프로세서(118)로 전송하기 위해 전자 (또는 다른 디지털) 신호로 변환할 수 있다. 따라서, 센서는 공통 실리콘 기판 또는 전자기파의 특성(예를 들어, 전력, 주파수)을 측정할 수 있는 임의의 다른 디바이스 상에 SiPM (실리콘 광전자 증배관) 또는 애벌랜치 광 다이오드(APD, SPAD 등)의 어레이로부터 제조된 임의의 다른 고체 상태 디바이스를 포함할 수 있고, 상기 측정된 특성과 관련된 출력(예를 들어, 디지털 신호)을 생성한다.
일부 실시예에서, 센서는 복수의 검출기(예를 들어, 도 4a의 검출 어레이(400)의 검출 요소(402))를 포함할 수 있다. 특정 양태에서, 각 검출기의 크기는 각각의 광 빔 스팟의 이미지보다 작을 수 있어서, 빔 스팟 단위 기준으로 광 빔 스팟의 이미지는 복수의 검출기 상에 충돌한다. 따라서, 본원에서 사용되는 바와 같이, 복수의 광 빔 스팟은 이미지가 투영되는 모든 스팟을 포함할 필요는 없지만, 오히려 복수의 검출기보다 큰 적어도 2 개의 스팟을 포함할 필요가 있다.
일부 실시예에서, 센서의 복수의 검출기 중 각각의 검출기는 하나 이상의 서브 검출기를 포함할 수 있다. 예를 들어, 검출기는 SiPM을 포함할 수 있으며, SiPM은 복수의 개별 단일 광자 애벌랜치 다이오드(SPADs)를 포함할 수 있다. 이러한 예시에서, 센서는 복수(예를 들어, 5, 10, 20개 등)의 SiPM 검출기를 포함할 수 있고, 각각의 SiPM은 복수(예를 들어, 수십, 수백, 수천개)의 SPAD를 포함할 수 있다. 그런 이유로, 특정 양태에서 검출기는 생성된 출력 모델 (예를 들어, 생성된 3D 모델의 단일 데이터 포인트)에서 그 출력이 단일 데이터 포인트로 번역되는 최소 그룹을 포함한다.
일부 실시예에서, LIDAR 시스템은 복수의 광원을 포함할 수 있다. 이러한 실시예에서, 프로세서(118)는 공통 광 편향기를 겨냥한 복수의 광원의 발광을 동시에 제어할 수 있다. 예를 들어, 도 2b에 묘사된 바와 같이, 복수의 광원(102)은 공통 광 편향기(114)에 겨냥된다. 또한, 프로세서(118)는 상이한 복귀 경로를 따라 각각 위치된 복수의 센서로부터 상이한 광 빔 스팟의 이미지와 연관된 신호를 수신할 수 있다. 예를 들어, 도 2b에 더 묘사된 바와 같이, 복수의 센서(116)는 상이한 복귀 경로를 따라 반사를 수신한다. 따라서, 복수의 센서(116)는 상이한 광 빔 스팟의 이미지와 연관된 신호를 생성할 수 있다. 일부 실시예에서, 반사는 또한 적어도 하나의 스캐닝 광 편향기에 의해 편향될 수 있다. 예를 들어, 도 2b에 묘사된 바와 같이, 복수의 스캐닝 광 편향기(214)는 복수의 센서(116)에 도달하기 전에 상이한 복귀 경로를 따라 수신된 반사를 편향시킨다.
일부 실시예에서, 센서는 (예를 들어, 적어도 4개의 개별 검출기를 가지는) 검출기의 1차원 어레이를 포함할 수 있다. 다른 실시예에서, 센서는 (예를 들어, 적어도 8개의 개별 검출기를 가지는) 검출기의 2차원 어레이를 포함할 수 있다.
단계 709에서, 프로세서(118)는 복수의 검출기에 대한 충돌로 인한 신호들로부터 단일 광 빔 스팟의 이미지와 연관된 적어도 2개의 상이한 범위 측정치를 결정한다. 예를 들어, 적어도 2개의 상이한 범위 측정치는 적어도 2개의 상이한 거리에 대응할 수 있다. 유사한 예시에서, 센서는 단일 광 빔 스팟에 대해 적어도 2개의 상이한 비행 시간과 연관된 반사를 검출하도록 구성될 수 있다. 이러한 예시에서, 비행 측정 시간은 상이한 검출기에 관한 광 빔 스팟에 대해 이동된 거리의 차이 때문에 다를 수 있다. 유사하게, 주파수 위상 천이 측정 및/또는 변조 위상 천이 측정은 상이한 검출기에 관한 입사각 및/또는 거리의 차이 때문에 다를 수 있다.
일부 실시예에서, 적어도 2개의 상이한 범위 측정치는 센서(들) (예를 들어, 독립적으로 샘플링된 2개 이상의 SiPM 검출기들)의 2개 이상의 검출기에 의해 습득된 검출 정보로부터 도출될 수 있다. 또한, 적어도 2개의 상이한 범위 측정치는 LIDAR 시스템에 관한 2개의 상이한 방향과 연관될 수 있다. 예를 들어, 상기 센서(들)의 제1 검출기에 의해 검출된 제1 범위 측정치는 제1 검출 위치(예를 들어, 구면 좌표 θ1, φ1, D1)로 변환될 수 있고, 센서(들)의 제2 검출기에 의한 동일한 빔 스팟의 반사들로부터 검출된 제2 범위 측정치는 제2 검출 위치(예를 들어, 구면 좌표 θ2, φ2, D2)로 변환될 수 있으며, 이 때 적어도 2쌍의 좌표들의 임의의 조합은 제1 검출 위치와 제2 검출 위치 사이에서 다르다 (예를 들면, θ2≠ θ2이고, D1≠D2 등).
적어도 2개의 상이한 범위 측정치가 적어도 2개의 상이한 거리에 대응하는 또 다른 예시에서, 상기 적어도 2개의 상이한 범위 측정치는 물체의 일부분에 대한 제1 거리 측정치 및 물체의 환경 내의 요소에 대한 제2 거리 측정치를 포함할 수 있다. 예를 들어, 빔 스팟이 (나무, 건물, 차량 등과 같은) 물체와 (도로, 사람, 안개, 물, 먼지 등과 같은) 물체의 환경 내의 요소를 모두 커버하는 경우, 제1 범위 측정치는 (나뭇가지, 문, 헤드 라이트 등과 같은)물체의 일부까지의 거리를 나타낼 수 있고, 제2 범위 측정치는 배경 요소까지의 거리를 나타낼 수 있다. 적어도 2개의 상이한 범위 측정치가 적어도 2개의 상이한 거리에 대응하는 또 다른 예시에서, 상기 적어도 2 개의 상이한 범위 측정치는 물체의 제1 부분에 대한 제1 거리 측정치 및 물체의 제2 부분에 대한 제2 거리 측정치를 포함할 수 있다. 예를 들어, 물체가 차량인 경우, 제1 범위 측정치는 차량의 (범퍼, 헤드 라이트 등과 같은) 제1 부분까지의 거리를 나타낼 수 있고, 제2 범위 측정치는 차량의 (트렁크 핸들, 휠 등과 같은) 제2 부분까지의 거리를 나타낼 수 있다.
대안적으로 또는 동시에, 단일 광 빔 스팟의 이미지와 연관된 적어도 2개의 상이한 범위 측정치는 적어도 2개의 상이한 세기에 대응할 수 있다. 유사하게, 적어도 2개의 상이한 범위 측정치는 물체의 제1 부분과 연관된 제1 세기 측정치 및 물체의 제2 부분과 연관된 제2 세기 측정치를 포함할 수 있다.
일부 실시예에서, 프로세서(118)는 제1 광 빔 스팟의 이미지와 연관된 제1 복수의 범위 측정치 및 제2 광 빔 스팟의 이미지와 연관된 제2 복수의 범위 측정치를 동시에 결정할 수 있다. 특정 양태에서, 제1 복수의 범위 측정치는 제2 복수의 범위 측정치보다 클 수 있다. 예를 들어, 만약 제1 광 빔 스팟이 제2 광 빔 스팟보다 더 많은 세부 사항을 포함한다면, 프로세서(118)는 제2 광 빔 스팟보다 제1 광 빔 스팟으로부터 더 많은 범위 측정치를 결정할 수 있다. 이러한 예시에서, 만약 예를 들어 제2 광 빔 스팟이 적어도 부분적으로 하늘에 지향되거나 적어도 부분적으로 하늘을 포함하는 경우에, 제1 광 빔 스팟으로부터의 측정은 8개의 측정치를 포함할 수 있고, 제 2 광 빔 스팟으로부터의 측정은 5개의 측정치를 포함할 수 있다.
일부 실시예에서, 스캐닝 사이클에서 결정된 다수의 상이한 범위 측정치는 복수의 순간 위치보다 훨씬 클 수 있다. 예를 들어, 프로세서(118)는 단계 709를 참조하여 상기 기술된 바와 같이, 각각의 순간 위치에 대해 적어도 2개의 상이한 범위 측정치를 결정할 수 있다. 예를 들어, 만약 센서가 N개의 검출기를 포함하고 LIDAR 시스템이 각 스캐닝 사이클에서 편향기의 M개의 순간 위치에서 범위를 검출하는 경우, 결정되는 범위 측정치의 개수는 N×M까지 될 수 있다. 일부 실시예에서, 심지어 다수의 펄스가 FOV의 각 부분에 대해 방출되는 경우에도, 각 스캐닝 사이클에서 방출된 펄스의 개수는 생성된 포인트 클라우드 데이터 포인트 (또는 다른 3D 모델 데이터 포인트)의 개수보다 낮을 수 있다. 예를 들어, 만약 P 펄스들이 각각의 순간 위치에서 방출되는 경우, 펄스들의 개수는 스캐닝 사이클 동안 P×M 일 수 있고, 전술한 실시예들에서는, P<M이다.
방법 700은 추가적인 단계들을 포함할 수 있다. 예를 들어, 방법 700은 상이한 측정치가 LIDAR에 대해 상이한 방향과 연관되는 출력 데이터 (예를 들어, 3D 모델)를 생성하는 것을 포함할 수 있다. 이러한 예시에서, 프로세서(118)는 상이한 광 빔의 정보로부터 3D 모델 프레임 (또는 이와 유사한 3D 모델 프레임) 및 FOV의 상이한 각도로부터의 많은 픽셀들을 생성할 수 있다.
특정 양태에서, 상이한 방향들은 반사된 신호들이 적어도 하나의 검출기로 가는 그들의 길을 통하는 LIDAR의 광학 윈도우 또는 개구부에 대해 다를 수 있다. 예를 들어, 구면 좌표에서 φ 또는 θ 중 적어도 하나는 두 측정치 간에 다를 수 있다.
일부 실시예에서, 방법 700은 단일 광 빔 스팟의 반사로부터 복수의 포인트 클라우드 데이터 엔트리를 생성하는 것을 더 포함할 수 있다. 예를 들어, 프로세서(118)는 단일 광 빔 스팟의 반사로부터 도 1b에 묘사된 바와 같은 복수의 포인트 클라우드 데이터 엔트리를 생성할 수 있다. 프로세서(118)는 예를 들어, 단계 709로부터의 적어도 2개의 범위 측정을 이용하여 단일 광 빔 스팟으로부터 복수 개, 예컨대 2, 3, 4, 8 등을 생성할 수 있다.
복수의 포인트 클라우드 데이터 엔트리들은 2차원 평면을 정의할 수 있다. 예를 들어, 복수의 포인트 클라우드 데이터 엔트리는 도 1c에 묘사된 것과 같이 포인트 클라우드 모델의 일부를 형성할 수 있다.
방법 700은 시야의 상이한 부분이 상이한 시간에 검출되도록 수행될 수 있다. 이에 따라서, 시야의 다른 부분의 적어도 한 부분이 광원에 의해 조명되지 않는 동안, 시야의 한 부분은 조명될 수 있으며 복수의 범위 측정치의 결정을 초래할 수 있다. 따라서, 방법 700은 시야의 일부분의 스캔을 초래할 수 있으며, 이는 이후 시야의 다른 부분에 대해 반복되어 도 10b 및 10c의 예시들에 묘사된 바와 같이 시야의 복수의 "스캔 내 스캔"을 초래한다.
전술한 바와 같이, 도 4c는 도 7의 방법 700에서 사용될 수 있는 2차원 센서(116)의 예시를 도시하는 다이어그램이다. 도 8a는 도 4c의 센서(116) 대신에 또는 센서(116)와 조합하여 사용하기 위한 대체 센서(800)를 묘사한다. 예를 들어, 도 4c의 예시에서 검출기(410)는 직사각형이지만, 도 8a의 예시는 (검출기(846)와 같은) 개별 검출기로 구성된 복수의 육각형 픽셀 (예를 들어, 픽셀(844))을 묘사한다. 유사하게, 도 8b는 도 4c의 센서(116) 및/또는 도 8a의 센서(800) 대신에 또는 그와 조합하여 사용하기 위한 대안적인 1차원 센서(850)를 묘사한다. 도 8b의 예시에서, 픽셀의 1차원 행 (예를 들어, 픽셀(854))은 (검출기(856)와 같은) 개별 검출기로 구성된다. 도 8b에서는 1차원의 수직 열로 묘사되었지만, 다른 실시예는 검출기의 1차원의 수평 행을 포함할 수 있다.
도 9a 및 도 9b는 전송 및 반사의 정렬을 갖는 예시적인 LIDAR 디바이스를 도시하는 블록 다이어그램이다. 도 9a 및 도 9b의 LIDAR 시스템(900, 900')은 도 1의 LIDAR 시스템(100)의 구현을 나타낸다. 도 1a 내지 도 1c에 관해 논의된 기능 및 수정은 도 9a 및 도 9b의 실시예들에도 유사하게 적용될 수 있으며, 그 반대도 가능하다. 예를 들어, 도 9a 및 도 9b에 묘사된 바와 같이, LIDAR(900, 900')은 광자 검사 펄스 (또는 펄스)를 방출하기 위한 적어도 하나의 광자 펄스 방출기 조립체(910)를 포함할 수 있다. 방출기(910)는 도 1a, 도 2a, 또는 도 2b의 적어도 하나의 광원(112)을 갖는 투영 유닛(102)을 포함할 수 있다.
도 9a 및 도 9b에 더 묘사된 바와 같이, LIDAR(900, 900')은 스캔된 장면 세그먼트의 방향으로 광자 검사 펄스를 지향하고, 반사된 광자를 광자 검출 조립체(930)를 향하여 조종하기 위한 적어도 하나의 광자 스티어링 조립체(920)를 포함할 수 있다. 스티어링 조립체(920)는 제어 가능하게 조종 가능한 광학기 (예를 들어, 회전/이동 가능한 미러, 이동 가능한 렌즈 등)를 포함할 수 있으며, 또한 빔 스플리터와 같은 고정된 광학 구성 요소를 포함할 수도 있다. 예를 들어, 도 2a의 편향기 (114A, 114B) 및/또는 도 2b의 공통 광 편향기(114)와 복수의 스캐닝 광 편향기(214)가 스티어링 조립체(920)에 포함될 수 있다. 일부 광학 구성 요소 (예를 들어, 레이저 펄스의 시준에 사용되는 것)는 방출기(910)의 일부일 수 있는 반면, 다른 광학 구성 요소는 검출기(930)의 일부일 수 있다.
도 9a 및 도 9b에서, LIDAR(900, 900')는 스캔된 장면의 물체로부터 다시 반사되는 광자 검사 펄스의 광자를 검출하기 위한 적어도 하나의 광자 검출 조립체(930)를 더 포함할 수 있다. 검출 조립체(930)는, 예를 들어, 도 4c의 센서(116) 및/또는 도 8의 센서(800)와 같은 2차원 센서(932)를 포함할 수 있다. 일부 실시예에서, 검출 조립체(930)는 복수의 2차원 센서를 포함할 수 있다.
도 9a 및 도 9b에 묘사된 바와 같이, LIDAR(900, 900')는 스티어링 조립체(920) 및/또는 방출기(910) 및/또는 검출기(930)를 제어하기 위한 제어기(940)를 포함할 수 있다. 예를 들어, 제어기(940)는 적어도 하나의 프로세서 (예를 들어, 도 1a에 묘사된 LIDAR 시스템(100)의 처리 유닛(108)의 프로세서(118) 및/또는 도 2a에 도시된 LIDAR 시스템의 처리 유닛(108)의 2개의 프로세서(118))를 포함할 수 있다. 전술하고 이하에 설명된 바와 같이, 제어기(940)는 스티어링 조립체(920) 및/또는 방출기(910) 및/또는 검출기(930)를 다양한 조정 방식으로 제어할 수 있다. 이에 따라서, 제어기(940)는 본원에 개시된 방법의 전부 또는 일부를 실행할 수 있다.
도 9b에 묘사된 바와 같이, LIDAR(900')는 또한 적어도 하나의 비전 프로세서(950)를 포함한다. 비전 프로세서(950)는 광자 검출기(930)로부터 수집 데이터를 획득할 수 있고, 그들의 데이터를 생성하기 위해 상기 수집 데이터를 처리할 수 있다. 예를 들어, (선택적으로 제어기(940)와 조합된) 비전 프로세서(950)는 수집 데이터로부터 포인트 클라우드 데이터 엔트리를 생성할 수 있고 및/또는 그로부터 포인트 클라우드 데이터 모델을 생성할 수 있다.
모든 LIDAR(900, 900')에서 송신기(TX) 및 반사기(RX)는 제어기(940) (및 선택적으로 LIDAR(900')에 대해 비전 프로세서(950))를 사용하여 조정된다. 이러한 조정은 복수의 광 편향기 사이의 송신과 반사 모두의 조정을 사용하여 동기화된 편향 및/또는 공유된 편향기 내에서 송신과 반사 모두의 조정을 사용하여 동기화된 편향을 포함할 수 있다. 동기화는 광 편향기(들)의 압전기/열전기 조절 및/또는 물리적 이동을 포함할 수 있다.
도 10a는 제1 FOV(1000)의 예시 및 제2 FOV(1002, 1004)의 몇몇 예시들을 도시한다. 임의의 FOV의 각 크기 및 픽셀 치수는 도 10a에서 제공된 예시와 다를 수 있다.
도 10b는 도 10a의 제1 FOV(1000)를 가로지르는 도 10a의 제2 FOV(1002)의 예시적인 스캐닝 패턴을 도시한다. 도 10b에 묘사된 바와 같이, 제2 FOV(1002)는 스캔되고, 그 후 우측에서 좌측으로 수평 패턴으로 이동되며, FOV(1000)를 가로질러 좌측에서 우측으로 대각선 패턴이 이어진다. 이러한 패턴은 예시일 뿐이고, 본 개시의 시스템 및 방법은 제1 FOV를 가로질러 제2 FOV를 이동시키는 임의의 패턴을 사용할 수 있다.
도 10c는 도 10a의 제1 FOV(1000)를 가로지르는 제2 FOV(1006)의 예시적인 스캐닝 패턴을 도시한다. 도 10c에 묘사된 바와 같이, 제2 FOV(1006)는 스캔된 다음 FOV(1000)를 가로질러 우측에서 좌측으로 수평 패턴으로 이동될 수 있다. 이러한 패턴은 예시일 뿐이고, 본 개시의 시스템 및 방법은 제1 FOV를 가로질러 제2 FOV를 이동시키는 임의의 패턴을 사용할 수 있다. 도 10b 및 도 10c의 예시를 참조하면, 다이어그램에 사용된 어레이의 크기는 도 10a의 비제한적인 예시와 마찬가지로 단지 비제한적인 예시로서 사용되며, 각 어레이 내의 픽셀의 개수는 상당히 낮을 수도 있고 (예를 들어, 2x3, 3x5 등), 상당히 높을 수도 있으며 (예를 들어, 100x100 등), 또는 그 사이의 임의의 개수일 수도 있다.
도 10c의 예시에서, 제2 FOV(1006)는 제1 FOV(1000)의 높이에 대응하는 높이를 갖는다. 이에 따라, 도 10c에 도시된 바와 같이, 제2 FOV의 대응하는 치수의 적어도 하나를 제1 FOV와 매칭시킴으로써, 제1 FOV를 가로지르는 제2 FOV의 낮은 스캔 속도가 요구될 수 있다. 따라서, 본 개시와 일치하는 LIDAR 시스템은 제1 FOV의 적어도 하나의 치수에 대응하는 치수를 갖는 1D 센서 어레이를 포함할 수 있다.
도 10b의 예시로 돌아가서, 제2 FOV(1002)는 제1 FOV(1000)보다 양쪽 치수 모두가 더 작다. 이는 LIDAR 시스템이 더 작은 영역에 더 많은 에너지를 집중시킬 수 있게 하여 신호 대 노이즈 비율 및/또는 검출 거리를 향상시킬 수 있다.
제1 FOV를 가로질러 제2 FOV를 스캐닝함으로써, 본 발명의 시스템은 물체의 상대적으로 적은 스미어(smear)를 가지는 3D 모델의 생성을 허용할 수 있는데, 왜냐하면 부분적으로 물체의 더 큰 부분은 조종 가능한 2D 센서 어레이에 의해 동시에 검출될 수 있기 때문이다. 감소된 스미어 레벨은 센서 어레이의 하나 이상의 축 (예를 들어, (X, Y), (φ, θ)) 및/또는 깊이 축 (예를 들어, Z, r)에 걸쳐 달성될 수 있다. 낮은 레벨의 스미어는 높은 검출 정확도를 초래할 수 있다.
제1 FOV를 가로질러 제2 FOV를 스캔하는 것은 비교적 낮은 주파수에서의 스캐닝을 더 허용할 수 있다 (예를 들어, 만약 10개의 수직 픽셀이 센서 어레이에 구현되는 경우 약10 배 더 낮은 주파수에서 수직축에서 미러를 이동). 더 느린 스캔 속도는 더 큰 미러의 활용을 허용할 수 있다.
제1 FOV를 가로질러 제2 FOV를 스캔하는 것은 현존하는 시스템보다 더 약한 광원의 사용을 허용할 수 있으며, 이는 전력 소비를 감소시키고, 더 작은 LIDAR 시스템을 초래하며, 및/또는 안구 안전과 기타 안전 고려 사항을 개선시킨다. 이와 유사하게, 제1 FOV를 가로질러 제2 FOV를 스캔하는 것은 현존하는 시스템과 비교하여 상대적으로 작은 센서의 사용을 허용할 수 있으며, 이는 시스템의 크기, 중량, 비용 및/또는 복잡성을 감소시킬 수 있다. 현존하는 시스템보다 더 민감한 센서의 사용을 허용할 수도 있다.
제1 FOV를 가로질러 제2 FOV를 스캔하는 것은 또한 주변광 및/또는 노이즈를 적게 수집하는 것을 허용할 수 있다. 이는 현존하는 시스템과 비교하여 신호 대 노이즈 비율 및/또는 검출 거리를 향상시킬 수 있다.
검출 결과에 기초한 Lidar의 선택적인 조명
전술한 바와 같이, LIDAR 시스템(100)은 장면 내의 검출된 물체의 깊이 맵을 생성하는데 사용될 수 있다. 이러한 깊이 맵은 포인트 클라우드 모델, 다각형 메쉬, 깊이 이미지, 또는 장면의 3D 모델의 임의의 다른 유형을 포함할 수 있다. 그러나, 어떤 경우에는 특정 장면이나 특정 거리 범위 내에서 모든 물체보다 적은 물체가 LIDAR 시스템에 의해 검출될 수 있다. 예를 들어, LIDAR 시스템에 비교적 가까운 물체는 검출되어 장면의 3D 재구성에 포함될 수 있는 반면, 다른 물체 (예를 들어, 더 작거나, 덜 반사가 되거나, 멀리 떨어져있는 물체 등을 포함)는 LIDAR 시스템의 작동 파라미터의 특정 세트에 대해 검출되지 않을 수도 있다. 또한, 시스템의 신호 대 노이즈 비율은, 몇몇 경우에, LIDAR 시스템의 시야에서 물체의 검출을 가능하게 하는 레벨보다 낮거나, 바람직한 레벨보다 낮을 수 있다.
특정 실시예에서, 전술한 구성 중 임의의 것을 포함하여 현재 기술된 LIDAR 시스템은 FOV의 현재 스캔 동안 또는 FOV의 임의의 후속 스캔 동안 LIDAR FOV의 다른 섹션에 광 플럭스를 동적으로 변화시키기 위해 LIDAR 시스템의 하나 이상의 작동 파라미터의 변화를 가능하게 할 수 있다. 이렇게 함으로써, LIDAR 시스템(100)은 FOV 내의 검출된 물체의 개수를 증가시키는 능력을 제공할 수 있다. LIDAR 시스템(100)은 또한 신호 대 노이즈 비율(예를 들어, 태양광(또는 다른 조명의 소스)과 같은 방해 또는 노이즈의 다른 소스, 및 검출 회로망과 연관된 전기적 노이즈와 비교한 LIDAR 시스템으로부터의 조명의 비율)을 증가시킬 수 있다. 신호 대 노이즈 비율를 증가시키는 것은 시스템 감도와 해상도를 높일 수 있다. LIDAR FOV의 상이한 영역들에 제공된 광 플럭스의 이러한 동적 변화를 통해, LIDAR 시스템의 환경으로부터의 깊이 맵 (또는 장면의 다른 표현)이 생성될 수 있으며, 이는 검출되지 않을 수도 있는 하나 이상의 물체들의 표현을 포함할 수 있다.
스캔된 FOV의 특정 면적으로 광 플럭스를 동적으로 변경하기 위한 많은 상이한 가능성들이 있긴 하지만, 그 중 몇 가지 예시가 이하에서 보다 상세히 논의되며, 이러한 광 플럭스의 동적 변화는 스캔된 FOV 내에서 물체가 검출되는 경우에는 광 플럭스 레벨을 감소 또는 유지하고, 물체가 검출되지 않는 영역에서는 광 플럭스를 증가하는 것을 포함할 수 있다. 이러한 광 플럭스의 증가는 보다 먼 물체 또는 덜 반사하는 물체의 검출을 가능하게 할 수 있다. 이러한 광 플럭스의 증가는 또한 스캔된 FOV의 특정 영역에서 신호 대 노이즈 비율을 향상시킬 수 있다. 언급한 바와 같이, 이러한 효과는 보다 완전한 정보를 제공하는 LIDAR 시스템의 환경에서 물체의 깊이 맵의 생성을 가능하게 할 수 있다. 고정된 광 플럭스 스캔과 연관된 특정 범위 내에서 검출 가능한 물체 이외에, 시스템은 또한 스캐닝 동안 광 플럭스의 동적 조절을 통해 다른 물체를 식별할 수도 있다.
전술한 바와 같이, LIDAR 시스템(100)은 적어도 하나의 광원(112)을 포함하는 투영 유닛(102)을 포함할 수 있다. 처리 유닛(108)은 광원(112) 및 임의의 다른 가능한 광원들의 작동을 조정하도록 구성될 수 있다. 일부 경우에, 처리 유닛(108)은 적어도 하나의 광원(112)으로부터의 광을 사용하여 LIDAR 시스템의 시야의 스캔에 걸쳐 광 플럭스를 변화시킬 수 있는 방식으로 광원(112)을 제어할 수 있다. 처리 유닛(108)은 또한 시야를 스캔하기 위해 적어도 하나의 광원(112)으로부터 광을 편향시키기 위해 스캐닝 유닛(104)의 편향기(114)를 제어할 수 있다. 전술한 바와 같이, 처리 유닛(108)은 스캔된 FOV에서 (예를 들어, 반사가 입사하는 하나 이상의 센서에 의해 생성된 신호에 기초하여) 다양한 물체로부터의 반사를 모니터하기 위해 감지 유닛(106)과 상호 작용할 수 있다. 모니터된 반사에 기초하여, 처리 유닛(108)은 스캔된 FOV와 연관된 장면의 다른 재구성 또는 깊이 맵을 생성할 수 있다. 예를 들어, 처리 유닛(108)은 제1 거리에서 제1 부분의 제1 물체의 존재를 결정하기 위해 시야의 제1 부분의 스캔과 연관된 제1 검출된 반사를 사용할 수 있다. FOV의 스캔 중에, 처리 유닛(108)은 제1 거리에서 시야의 제2 부분에 있는 물체의 부재를 결정할 수 있다. 예를 들어, 처리 유닛(108)은 (반사된 광이 제1 범위 내에 존재할 경우, 물체로부터 왕복하는 것이 필요하기 때문에) 시야의 제2 부분을 향하는 광의 방출로 시작하여 측정된 제1 거리의 2배와 동일한 거리를 따라 광의 이동 시간에 대응하거나 그 이동 시간을 포함하는 기간에 걸쳐 수신된 센서 검출 신호를 처리함으로써, 제2 부분의 물체의 부재를 결정할 수 있다. 제1 반사의 검출 및 제2 부분에서의 물체의 부재의 결정에 후속하여, 처리 유닛(108)은 예를 들어 적어도 하나의 광원(112)과 연관된 광원 파라미터를 변경하여 더 많은 광이 시야의 제1 부분을 향하여 투영되는 것보다 시야의 제2 부분을 향하여 투영된다. 또한, 처리 유닛(108)은 제1 거리보다 큰 제2 거리에서 제2 물체의 존재를 결정하기 위해 시야의 제2 부분에서 제2 검출 반사를 사용할 수도 있다.
LIDAR 시스템 FOV의 스캔 동안, 처리 유닛(108)은 FOV의 특정 영역에 제공되는 (예를 들어, 투영된) 광 플럭스의 양을 변경하기 위해 이용 가능한 광원(112)과 연관된 하나 이상의 파라미터를 제어할 수 있다. 일부 경우, 광 플럭스의 변화는 FOV의 다른 영역에 제공된 광 플럭스의 양에 비해 FOV의 한 영역에서의 광 플럭스의 증가를 포함할 수 있다. 광 플럭스의 변화는 또한 다른 시간 주기(예를 들어, FOV의 특정 영역 내)에 비해 특정 시간 주기에 걸쳐 제공되는 광량의 증가를 포함할 수 있다. 특정 영역에 투영되거나 공급되는 더 많은 광에 대응하는 광 플럭스의 증가는 투영된 광의 다양한 정량적 특성을 포함할 수 있다. 예를 들어, 광 플럭스의 증가는 다음과 같은 것을 초래하거나 다음과 대응하는 것의 증가와 연관될 수 있다 : 입체각 당 전력, 방사 조도 대 FOV 부분, 투영된 광 펄스의 개수, 픽셀 당 전력, 단위 시간당 광자 개수, 스캐닝 사이클 당 광자의 개수, 특정 기간 동안 집계된 에너지 (예를 들어, W/m2로 측정), 생성된 포인트 클라우드 모델에서 데이터 포인트 당 방출되는 광자 개수, 생성된 포인트 클라우드 모델에서 데이터 포인트 당 집계된 에너지, 또는 증가하는 광 플럭스의 임의의 다른 특성.
적어도 하나의 광원(112)으로부터의 광을 편향시키도록 처리 유닛(108)에 의해 제어되는 편향기(114)는 편향기에 입사하는 광의 적어도 일부의 광 경로를 변경하기 위한 임의의 적절한 광학 요소를 포함할 수 있다. 예를 들어, 일부 실시예에서, 편향기(114)는 MEMS 미러 (예를 들어, 피봇 가능한 MEMS 미러)를 포함할 수 있다. 편향기는 다른 유형의 미러, 프리즘, 제어 가능한 렌즈, 기계적 미러, 기계적 스캐닝 다각형, 능동 회절 요소 (예를 들어, 제어 가능한 LCD), Risley 프리즘, 비-기계식 전자 광학 빔 조종기, 편광 격자, 광학적 위상 어레이(optical phased array, OPA), 또는 임의의 다른 적당한 광 스티어링 요소를 포함할 수 있다.
선택적으로, 제1 물체가 검출된 후, 처리 유닛(108)은 적어도 하나의 광원(112) 및/또는 적어도 하나의 편 향기를 제어할 수 있어서, 제2 물체의 검출에 사용된 FOV의 제 2 영역을 향하는 모든 방사는 추가적인 광이 제1 부분으로 (예를 들어, 후속 스캐닝 사이클에서)방출되기 전에 방출된다.
LIDAR FOV의 스캔하고, LIDAR FOV의 특정 영역에 제공되는 광 플럭스를 동적으로 변화시키는 이러한 기술은 도 11 및 도 12와 관련하여 보다 상세히 기술될 것이다. 도 11은 하나 이상의 광원(112) 및 적어도 하나의 편향기(114)를 제어하기 위해 처리 유닛(108)을 사용하여 스캔될 수 있는 FOV(120)의 개략도를 제공한다. 예를 들어, 전술한 바와 같이, FOV는 FOV(120)의 특정 부분(122)에 각각 대응하는 복수의 순간 위치를 통해 편향기(114)를 이동시킴으로써 스캔될 수 있다. FOV(120)는 복수의 실질적으로 동일한 크기의 부분(122) (예를 들어, 동일한 입체각으로 정의됨)을 포함할 수 있다는 것을 유의해야 한다. 그러나, 반드시 그런 것은 아니다. FOV (120)의 스캔 동안, 편향기(114)는 미리 결정된 양의 시간 동안 각각의 순간 위치에 머무를 수 있다는 것을 유의해야 한다. 그 시간 동안, 광은 연속파, 단일 펄스, 다중 펄스 등으로 FOV(120)의 대응하는 부분(122)에 투영될 수 있다. 또한, 특정 순간 위치에서 미리 결정된 유지 시간 동안, 장면 내의 물체로부터 반사된 광은 편향기(114)를 사용하여 (예를 들어, 모노스태틱 실시예에서) 하나 이상의 검출기 유닛으로 지향될 수 있다. 대안적으로, 편향기(114)는 FOV(120)의 스캔 동안 복수의 순간 위치를 통해 연속적으로 (또는 반 연속적으로) 이동할 수 있다. 이러한 연속 또는 반 연속 스캔 동안, 광은 연속파, 단일 펄스, 다중 펄스 등으로 FOV(120)의 순간 부분(122)에 투영될 수 있다. 또한, 이러한 연속 또는 반 연속 스캔 동안, 장면 내의 물체로부터 반사된 광은 편향기(114)를 사용하여 (예를 들어, 모노스태틱 실시예에서) 하나 이상의 검출기 유닛으로 지향될 수 있다.
FOV(120)의 스캔은, 예를 들어, 광원(112)으로부터의 광을 FOV(120)의 영역(1102)으로 투영하고, 영역(1102)으로부터 반사된 광을 수집하며, 반사를 생성한 영역(1102) 내의 하나 이상의 물체에 대한 거리를 결정하기 위해 투영되고 반사된 광에 기초하여 비행 시간 분석을 수행함으로써 진행될 수 있다. 영역(1102)으로부터 반사된 광을 수집한 후, 처리 유닛(108)은 편향기(114)가 FOV(120)의 다른 영역 (예를 들어, 인접 영역 또는 일부 다른 영역)으로 이동하게 하고 프로세스를 반복할 수 있다. 전체 FOV(120)는 (예를 들어, 영역(1102)에서 영역(1104)으로 이동한 다음 영역(1106)에서 끝나는 모든 추가 행을 스캐닝하는) 방식으로 스캔될 수 있다. 도 11과 연관된 스캐닝 패턴은 최상단 열에서 시작하는 각각의 연속적인 행에 대해 좌측에서 우측으로 그리고 우측에서 좌측으로 될 수 있지만, 임의의 적절한 스캐닝 패턴이 FOV(120)를 스캔하기 위해 (예를 들어, 수평 방향 중 어느 하나 또는 양쪽 방향으로 행마다; 수직 방향 중 어느 하나 또는 양쪽 방향으로 열마다 대각선 방향으로, 또는 임의의 개별 영역이나 영역의 서브 세트의 선택에 의해) 사용될 수 있다. 그리고 또한 상기 기술한 바와 같이, 깊이 맵 또는 임의의 유형의 재구성은 반사 및 물체 결정까지의 거리에 기초하여 생성될 수 있다.
처리 유닛(108)은, 편향기(114)가 광원(112)으로부터의 광을 FOV(120)의 다양한 영역(122)으로 다시 지향할 수 있게 하는 임의의 적절한 방식으로 편향기(114)를 제어할 수 있다. 예를 들어, 일부 실시예에서, 적어도 하나의 프로세서(118)는 적어도 하나의 광 편향기가 두 직교 축 또는 두 개의 실질적으로 수직인 축을 따라 피봇되도록 적어도 하나의 광 편향기(114)를 제어하도록 구성될 수 있다. 다른 실시예에서, 적어도 하나의 프로세서(118)는 적어도 하나의 광 편향기가 2 차원 스캔을 가능하게 할 수 있는 2 개의 선형 독립 축을 따라 피봇되도록 적어도 하나의 광 편향기(114)를 제어하도록 구성될 수 있다. 이러한 편향기 이동은 상술한 기술들 중 임의의 것에 의해 획득될 수 있다. 또한, 일부 경우, 처리 유닛(108)은 적어도 하나의 광 편향기를 조종하기 위해 회전 가능한 모터를 제어할 수 있다.
FOV(120)의 스캔이 진행됨에 따라, FOV의 특정 영역(예를 들어, 영역 (122))의 일부로부터의 광 반사가 FOV의 특정 영역 내의 물체의 존재를 결정하는데 사용될 수 있다. 예를 들어, 영역(1108)의 스캔 동안, 자동차(1110)로부터 수신된 반사는 처리 유닛(108)이 영역(1108) 내의 물체(즉, 차량)의 존재를 결정하고 또한 그 물체까지의 거리를 결정할 수 있게할 수 있다. 영역(1108)의 스캔의 결과로서, 처리 유닛(108)은 물체가 그 영역 내에 존재하고, 물체가 LIDAR 시스템(100)의 호스트에 대해 거리 D1에 상주한다고 결정할 수 있다. 선택적으로, 처리 유닛(108)은 FOV의 영역에 대해 단일 거리 이상을 결정할 수 있다는 것을 유의해야 한다. 이것은, 예를 들어, 만약 2 이상의 물체가 동일한 FOV에서 광을 반사하는 경우 (예를 들어, 도 12의 영역 (1120)에서, 자동차(1202) 및 도로로부터의 반사가 수신되고 분석 될 수 있음), 또는 만약 반사 물체가 거리의 범위 (예를 들어, 경사 표면)로부터의 광을 반사하는 방식으로 배치된 경우에 발생할 수 있다.
그러나 FOV(120)의 다른 영역의 스캔은 관찰 가능한 반사의 회귀를 초래하지 않을 수 있다. 이러한 경우에, 처리 유닛(108)은 이들 영역 내의 물체의 존재를 검출하지 않을 것이다. 예를 들어, 도 11에 도시된 바와 같이, FOV(120)의 영역(1120, 1122)은 이들 영역의 각각의 스캔 동안 관찰 가능한 반사를 회귀하지 않는다. 그 결과, FOV(120)의 영역에 대해 수행된 수신된 반사 및 거리 분석에 기초하여 생성된 깊이 맵은 영역(1120 또는 1122) 내의 임의의 물체의 존재를 나타내지 않을 것이다. 처리 유닛(108)은 LIDAR 시스템(100)이 주어진 작동 파라미터 세트에 대해 영역(1120, 1122) (및 다른 비반사 영역)에서 이용 가능한 반사의 부재에 기초하여 LIDAR 시스템(100)이 민감한 거리의 범위에서 이들 영역에 물체의 부재가 있음을 결정할 수 있다. 예를 들어, 처리 유닛(108)은 그 영역으로부터 수신된 반사에 기초하여 자동차(1110) (또는 자동차의 적어도 일부)가 영역(1108)에서 거리 D1에 존재한다고 결정할 수 있기 때문에, 처리 유닛(108)은 LIDAR 시스템(100)에 대해 거리 D1에서 영역(1120)에 존재하는 물체가 없다는 것을 결정할 수 있다. 이러한 결정은 거리 D1에서 영역(1120)에 존재하는 임의의 물체를 갖는다는 가정에 기초할 수 있고 (그러한 물체는 자동차(1110)와 유사한 반사율 특성을 가진다고 가정), 처리 유닛(108)은 영역(1108)에서 행하였던 것과 같이 그러한 물체의 존재를 식별할 것이다.
주목할 만한 것으로, FOV(120)의 특정 영역에서 물체의 부재의 결정은 특정 작동 파라미터 세트에 대한 LIDAR 시스템의 검출 성능에 기초할 수 있다. 이러한 작동 파라미터의 변경, 특히 LIDAR 시스템의 검출 감도를 증가시킬 수 있는 방식(예를 들어, 신호 대 노이즈 비율 증가)으로의 변경은 작동 파라미터를 변경하기 전에 어떤 물체도 검출되지 않은 영역의 물체의 식별을 야기할 수 있다.
처리 유닛(108)이 거리 D1 (예를 들어, 영역(1120 또는 1122))에서 물체들의 부재를 결정하는 FOV의 영역에서, 처리 유닛(108)은 물체가 검출되는 FOV 영역을 향하여 투영되는 것보다 더 많은 광이 FOV의 하나 이상의 영역을 향하여 투영되도록 광원 파라미터를 변경할 수 있다. 도 11에 도시된 예시와 관련하여, 영역(1120) 내(거리 D1 또는 다른 곳)의 임의의 물체를 검출하지 않은 후, 처리 유닛(108)은 더 많은 광이 영역(1108)(자동차(1110)의 일부가 검출된 곳)으로 지향된 것보다 더 많은 광이 영역(1120)에 투영되도록 광원 파라미터를 변경할 수 있다. 영역(1120)에 제공된 광량의 이러한 증가는 그 영역에서의 신호 대 노이즈 비율을 증가시키고, 그 영역에서의 LIDAR 시스템 감도를 증가시키며, 시스템이 더 낮은 반사율을 갖는 물체를 검출할 수 있게 할 수 있고, 및/또는 시스템이 더 멀리 떨어져 있을 수 있는 물체 (예를 들어, D1보다 큰 거리)를 검출할 수 있게 한다.
FOV의 특정 영역에 공급되는 광량을 증가시키기 위해 다양한 광원 파라미터가 변경될 수 있다. 예를 들어, 처리 유닛(108)은 광원(112)이 연속파 방출의 지속 기간을 증가시키고, 광 펄스의 총 개수를 증가 시키며, 방출된 광의 전체적인 광 에너지를 증가시키고, 및/또는 FOV의 특정 영역에 투영된 하나 이상의 광 펄스의 전력 (예를 들어, 피크 전력, 평균 전력 등)을 증가시킬 수 있다. 추가적으로 또는 대안적으로, FOV의 다른 영역에 비해 FOV의 한 영역에 더 많은 광 펄스가 공급되도록 스캔 당 광 펄스 반복 수를 증가시킬 수 있다. 보다 광범위하게는, 특정 거리 또는 거리의 범위에서 특정 영역 내의 물체의 부재를 결정한 후, 예를 들어, 또는 FOV의 특정 영역에 대한 검출 결과와 관련된 임의의 다른 기준에 기초하여, 시야의 한 부분(예를 들어, 영역 (1120))으로 지향되는 광 플럭스가 시야의 다른 부분(예를 들어, 영역 (1108))으로 지향되는 광 플럭스와 상이하도록(예를 들어, 더 커지도록) 임의의 광원 파라미터는 조절될 수 있다. 전술한 바와 같이, 특정 영역에 투영되는 더 많은 광에 대한 언급은: 입체각 당 제공된 추가 전력, 부분 크기에 대해 증가된 방사율, 추가적인 광 펄스, 픽셀 당 더 많은 전력, 주어진 시간 동안 더 많은 광자, 미리 정의된 시간에 걸쳐 에너지 집계의 증가, 높은 플럭스 밀도, W/m2, 스캐닝 사이클 당 광자의 더 많은 개수, 특정 기간에 걸쳐 더 집계된 에너지, 단일 스캐닝 사이클에 걸쳐 더 많이 집계된 에너지, 생성된 포인트 클라우드 모델에서 데이터 포인트 당 방출되는 더 많은 수의 광자, 생성된 포인트 클라우드 모델에서 데이터 포인트 당 더 많이 집계된 에너지 등 중 적어도 하나를 포함한다.
임의의 관찰된 기준에 따라 다양한 광원 파라미터의 변경이 일어날 수 있다. 예를 들어, 적어도 하나의 파일럿 펄스가 방출될 수 있고, 검출 결과는 적어도 하나의 파일럿 펄스의 습득한 반사에 기초하여 관찰될 수 있다. 적어도 하나의 파일럿 펄스가 방출된 특정 영역에 대해 검출 결과가 존재하지 않는다는 것을 나타내는 경우, 특정 거리 (예를 들어, D1)에 존재하는 물체가 없고, 예상되는 개수보다 물체가 더 적으며, 특정 거리 범위를 넘어서는 검출된 물체가 없으며, 낮은 반사율의 물체는 검출되며, 낮은 신호대 노이즈 비율(또는 임의의 다른 적절한 기준), 이후 처리 유닛(108)은 전술한 기술들(긴 연속파, 펄스 추가, 전력 등) 중 임의의 기술, 또는 또는 특정 영역에 더 많은 광을 공급할 수 있는 다른 기술을 사용하여 특정 영역에 더 많은 광을 공급하게 할 수 있다. 어떤 경우에, "파일럿 펄스"는 검출된 반사가 발광(예를 들어, 동일한 스캔 동안 FOV의 동일한 영역으로)을 따르는 것을 결정하기 위해 의도된 광의 펄스를 지칭할 수 있다. 파일럿 펄스는 후속하는 발광의 펄스보다 덜 활동적일 수 있지만, 반드시 그렇지는 않다. 일부 경우에, 파일럿 펄스는 LIDAR FOV의 특정 영역에 제공된 임의의 초기 광 펄스에 (방출 시퀀스에서) 대응할 수 있다.
다양한 광원 파라미터의 변경은 또한 미리 결정된 작동 시퀀스의 일부로서 발생할 수도 있다. 예를 들어, 일부 실시예에서, FOV(120)의 하나 이상의 영역(122)에 대한 미리 결정된 조명 시퀀스는 FOV(120)의 하나 이상의 영역(122)을 향하는 특정 일련의 광 펄스를 제공하는 것을 포함할 수 있다. 제1 광 펄스는 상대적으로 낮은 전력을 포함할 수 있고, 하나 이상의 후속 펄스는 제1 방출된 펄스보다 높은 전력 레벨을 포함할 수 있다. 일부 경우에, 광 펄스는 점진적으로 증가하는 전력 레벨로 방출될 수 있다. 그럼에도 불구하고, 일련의 펄스는 유사한 펄스 당 전력 레벨일 수 있고, 광량의 증가는 스캔하는 동안 축적된 방출량에서 달성된다.
FOV의 특정 영역에 제공된 광량의 증가는 LIDAR 시스템(100)의 작동 중 다양한 시간에 발생할 수 있다. 일부 실시예에서, FOV의 다른 영역 대 특정 영역에 공급되는 광의 증가는 FOV의 현재 스캔 동안 발생할 수 있다. 즉, FOV의 특정 스캔 동안 편향기(114)의 특정 순간 위치와 연관된 FOV의 일부에 공급되는 광량은 FOV의 특정 스캔 동안 편향기(114)의 다른 순간 위치에 대응하는 FOV의 부분에 제공되는 광량보다 클 수 있다. 따라서, 일부 실시예에서, 처리 유닛(108)은 FOV의 다른 영역에서 물체의 부재가 결정되었던(예를 들어, 특정 거리에서) 동일한 스캐닝 사이클에서 보다 많은 광 (예를 들어, 입체각 당 더 많은 방사 조도)이 FOV의 특정 영역을 향해 투영되도록 광원 파라미터를 변경하도록 구성될 수 있다.
대안으로, FOV의 다른 영역과 비교하여 특정 FOV 영역에 공급되는 광의 증가는 FOV의 상이한 스캔 동안 발생할 수 있다. 다시 말해, FOV의 완전한 스캔이 수행 될 수 있고, FOV의 후속 스캔에서, FOV의 이전 스캔의 결과에 기초하여 FOV의 다른 영역과 비교하여 더 많은 광이 FOV의 하나 이상의 영역에 공급될 수 있다. 어떤 경우에는, FOV의 특정 부분으로 회귀하기 전에 FOV의 완전한 스캔을 할 필요가 없고, FOV의 다른 부분에 공급되는 광량에 비례하여 특정 영역에 공급되는 광량을 증가시킬 수 있다. 오히려, 이러한 증가는 심지어 FOV의 특정 영역으로 회귀하기 전에 FOV의 부분 스캔 후에도 발생할 수 있으며, 이전 스캔(또는 부분 스캔) 동안 그 영역에 공급된 광량에 비례하거나 FOV의 다른 영역에 제공되는 광량에 비례하여 거기에 공급되는 광량을 증가시킨다.
영역(1120)과 같은 FOV의 특정 영역에 공급되는 광량의 증가는 물체 검출이 가능할 수 있는 추가의 반사를 가져올 수 있다. 특정 영역에 공급되는 광량의 증가에 비추어, 그 영역으로부터 수집된 광에 대한 신호 대 노이즈 비율을 증가시키는 것이 가능할 수 있다. 개선된 신호 대 노이즈 비율 및/또는 검출을 위해 이용 가능한 추가 광을 고려할 때 (적어도 몇몇 경우에는 더 높은 전력 광을 포함)의 결과로서, 특정 FOV 영역에서 적은 광량의 사용을 기초로 가능한 것보다 LIDAR 시스템으로부터 더 먼 거리에 있는 물체의 존재를 검출하는 것이 가능할 수 있다.
예시적인 예시로서, 일부 실시예들에서, 도 11의 FOV(120)의 스캔은 FOV의 각각의 특정 영역(122)에 공급 된 미리 결정된 광량 또는 디폴트 광량을 사용하여 개시할 수 있다. 예를 들어, 만약 영역(1108)과 같은 특정 영역에서 물체가 검출되면, 처리 유닛(108)은 추가의 광이 상기 영역(예를 들어, 영역(1108))에 방출됨 없이, FOV(120)의 다른 영역을 검사하기 위해 편향기(114)를 다른 순간 위치로 이동시킬 수 있다. 영역(1120)과 같은 특정 영역에서 어떠한 물체도 검출되지 않는 경우, 처리 유닛(108)은 추가의 광량을 그 영역에 공급하게 할 수 있다. 증가된 광량은 FOV의 현재 스캔 동안 그리고 편향기(114)가 새로운 순간 위치로 이동하기 전에 제공될 수 있다. 대안적으로, 광량의 증가, 예를 들어 영역(1120)으로의 광량의 증가는 FOV(120)의 후속 스캔 또는 부분 스캔 동안 만들어 질 수 있다. 어떤 경우에, 영역(1120)과 같은 영역에 공급되는 광량의 증가는 더 적은 광량을 사용하여 특정 FOV 영역을 검사하는 동안 검출되지 않은 물체의 검출을 초래할 수 있다. FOV(120)의 부분 스캔 동안 추가적인 광이 제공되는 예시는 제1 방향으로 스캔하는 동안 행의 각 영역에 파일럿 펄스가 방출되고, 물체의 부재가 결정된 영역에 반대 방향으로 다시 스캔하는 동안 추가적인 광이 방출되며, 다른 행의 스캐닝만 개시된다.
도시된 예시에서, 하나 이상의 파일럿 펄스에 기초하여 어떤 물체가 영역(1120)에서 검출되지 않거나 어떤 물체가 특정 거리(예를 들어, 자동차(1110)가 위치되어 있다고 결정된 거리 D1)를 넘어 영역(1120)에서 검출되지 않으면, 광량은 전술한 기술들 중 임의의 것을 사용하여 영역(1120)으로 증가될 수 있다. 예를 들어, 일 실시예에서, 하나 이상의 추가적인 광 펄스가 (선택적으로, 파일럿 펄스보다 높은 전력 레벨에서) 영역(1120)에 제공될 수 있다. 이러한 추가적인 광 펄스는 각각 감지 유닛(106)에 의해 검출 가능한 후속 반사를 초래할 수 있다. 결과적으로, 도 12에 도시된 바와 같이, 자동차(1202)와 같은 물체가 검출될 수 있다. 몇몇 경우에, 자동차(1202)와 같은 이 물체는 물체가 동일한 영역 또는 다른 영역(예를 들어, 거리 D1 및 점유 영역(1108)에 위치한 자동차(1110) 및 FOV의 근방 영역)에서 이전에 검출된 거리보다 큰 거리 D2에 위치될 수 있다. 따라서, 특정 (및 비 제한적인) 도시된 예시에서, 영역(1120)에 제공되는 광의 초기 파일럿 펄스 및 그의 후속되는 반사는 거리 D1-파일럿 펄스, 예를 들어 영역(1108)에 제공되는 파일럿 펄스에 기초하여 영역(1108)에서 자동차(1110)가 검출된 거리에 있는 어떠한 물체의 검출도 초래하지 않을 것이다. 영역(1120)에서 거리 D1에 관찰된 물체의 부재에 응답하여, 하나 이상의 추가 펄스 (선택적으로 더 높은 전력의 펄스 또는 연장된 연속파 등, 그러나 반드시 그런 것은 아님)가 영역(1120)에 더 많은 광을 제공하기 위해 영역(1120)에 공급된다. 영역(1120)에 제공된 이러한 하나 이상의 추가 펄스들 및 그들 각각의 후속되는 반사에 기초하여, 차(1202)와 같은 물체의 존재는 거리 D1보다 큰 거리 D2에서 결정될 수 있으며, 여기서 자동차(1110)는 영역 (1108)에서 검출된다.
광량의 증가 및 광량의 증가를 제공하기 위해 선택된 특정 프로토콜의 증가는 편향기(114)의 특정 순간 위치에 대응할 수 있는 영역(1120)과 같은 FOV의 특정 영역에 고유할 수 있다는 것을 유의해야 한다. 대안적으로, 광의 증가를 위해 선택된 특정 프로토콜은 영역(1120)과 같은 FOV의 특정 영역으로 한정되지 않을 것이며, 오히려 FOV의 복수의 영역에 의해 공유될 수 있다. 예를 들어, FOV(120)의 (도 12에서 점선으로 둘러싸인) 영역(1204)은 FOV의 4 개의 특정 영역을 포함할 수 있으며, 각각은 편향기(114)의 상이한 순간 위치에 대응한다. 일부 실시예에서, FOV 영역(1204)의 서브 영역 중 임의의 영역으로 광을 증가시키기 위해 선택된 프로토콜은 모든 서브 영역에 걸쳐 동일할 수 있다. 결과적으로, FOV 영역(1204)의 서브 영역들 각각에 공통 광 증가 프로토콜의 적용은 비슷한 거리 또는 거리 범위의 서브 영역들에서 다수의 물체 또는 단일 물체가 검출될 수 있는 결과를 초래할 것이다. 예를 들어, 도 12에 도시된 바와 같이, FOV 영역(1204)의 서브 영역을 가로지르는 공통 광 증가 프로토콜의 적용을 통해, 자동차(1202)의 부분들은 (예를 들어, 자동차(1110)가 검출된 거리 D1보다 큰 거리 D2에서) FOV 영역(1204)의 상이한 서브 영역들 각각에서 검출될 수 있다. 선택적으로, FOV의 한 영역에서 발광을 증가시킬지 여부의 결정은 FOV의 다른 영역의 반사 검출 정보에 (적어도 부분적으로) 의존할 수 있다는 것을 유의해야 한다.
FOV의 특정 영역에 광을 추가하여 더 먼 물체를 검출하는 기능을 제공하는 것 외에도, 광의 증가로 인해 다른 물체가 또한 검출될 수도 있다. 예를 들어, 도 11에 도시된 바와 같이, 영역(1122)에 공급된 광의 파일럿 펄스는 영역(1122) 내의 임의의 물체의 검출을 초래하지 않을 수 있다. 그러나, 영역(1122)에 공급된 광의 증가 및 적어도 하나의 결과 반사의 증가 이후에, 도 12에 도시된 바와 같이 거북이(1206)와 같은 영역(1122) 내의 물체의 검출을 가능하게 할 수 있다. 거북이(1206)는 D1보다 작은 (예를 들어, 차(1110)보다 LIDAR 시스템에 더 가까운) 거리 D3에 위치될 수 있지만, 거북이(1206)는 차(1110)보다 더 낮은 반사율을 가질 수 있고, 따라서 영역(1122)에 공급되는 초기 파일럿 펄스에 응답하여 검출되지 않을 수 있다. (거북(1206)의 낮은 반사율은 예를 들어 영역(112)에 대한 그 부분 크기 및/또는 그 쉘(shell)의 낮은 반사율 인자의 결과일 수 있다). 하나 이상의 후속하는 광 펄스, 예를 들어, 각각의 반사와 함께 영역(1122)에 제공된 하나 이상의 후속하는 광 펄스는 낮은 반사율 거북이(1206)의 검출을 가능하게 할 수 있다. FOV의 영역으로 광을 증가시키는 이러한 접근은, FOV의 영역에 공급된 초기 광량에 기초하여 검출되지 않은 다양한 물체의 검출을 가능하게 할 수 있다. 예를 들어, 도로(1214)의 먼 경계석(1208, 1210) 및/또는 지평선(1212)과 같은 물체는 (D1, D2, 및 D3보다 큰 거리 D4에서) 이 기술을 사용하여 검출될 수 있다. 동시에, 초기 펄스 (또는 이용 가능한 광 버짓의 일부)를 사용하여 자동차(1110) 또는 나무(1216)와 같은 물체가 검출되는 FOV의 영역에 대해, 추가적인 광 증가가 필요하지 않을 수 있으며, FOV 스캔은 편향기(114)의 상이한 순간 위치에서 계속된다.
편향기(114)는 FOV의 특정 영역 내의 물체를 검출한 후에 추가의 발광없이 새로운 순간 위치로 이동될 수 있지만, 경우에 따라서는 편향기가 여전히 FOV의 대응하는 특정 영역을 향하여 광을 지향시키면서 추가의 광이 방출될 수 있다. 보충적인 광으로 인한 반사는 FOV의 특정 영역에 대한 추가 정보를 제공할 수 있고 및/또는 동일한 영역에 제공되는 더 낮은 레벨의 광을 기초로 한 검출을 확인할 수 있다. 예를 들어, 도 11 및 도 12에 도시된 예시와 같이, 편향기(114)는 영역(1120)에 파일럿 펄스를 제공하기 위해 위치될 수 있다. 결과 반사는 영역(1120)의 임의의 물체의 검출을 초래하지 않을 수 있다. 다음에, 제2 펄스가 영역(1120)에 제공될 수 있다 (예를 들어, 파일럿 펄스보다 높은 전력 레벨에서). 제2 펄스로부터의 반사는 영역(1108)에 제공된 파일럿 펄스의 반사에 기초하여 자동차(1110)가 검출된 거리 D1보다 큰 거리 D2에서 차(1202)의 검출을 가능하게 할 수 있다. 그러나, 그 영역에서 차(1202)를 검출한 후에 영역(1120)으로부터 이동하는 것이 아니라, 편향기(114)는 그 영역(1120)에 대응하는 순간 위치에 남아있을 수 있다. 제3 펄스 (선택적으로 제2 펄스보다 높은 전력에서)가 영역(1120)에 제공될 수 있다. 제3 펄스의 후속적인 반사는 (가능할지라도) 영역(1120) 내의 어떠한 추가 물체들의 검출을 초래하지 않을 수 있다. 그러나, 제3 펄스의 반사는 거리 D1에서 영역(1120)에 물체가 존재하지 않는다는 결정 (예를 들어, 제2 펄스의 반사에 기초한)의 확인을 가능하게 할 수 있다. 제3 펄스의 반사는 또한 영역(1120)에 공급된 제2 펄스의 반사에 기초하여 결정된 거리 D2에서 차(1202)의 검출의 확인을 가능하게 할 수 있다. 아마도, 제1, 제2, 및 제3 펄스의 반사 중 어느 것도 각각의 영역에서 물체의 검출을 가능하게 할 수 없지만, 모든 반사의 조합은 가능할 수 있다는 것을 유의해야 한다. 이것은 SNR 개선의 결과일 수 있다. 또 다른 예시는 여러 펄스에 걸친 검출의 일관성을 점검할 수 있는 결정 알고리즘일 수 있다.
FOV의 다른 영역에 제공되는 광량, 또는 FOV의 동일하거나 이전의 스캔 동안 FOV의 특정 영역에 제공되는 광량과 관련하여 FOV(120)의 특정 영역에 제공된 광량의 증가는 임의의 원하는 프로토콜에 따라 진행될 수 있다는 것을 유의해야 한다. 이러한 프로토콜은 FOV의 모든 영역, FOV의 일부 영역, 또는 FOV의 단일 영역에 적용될 수 있다. FOV의 임의의 부분으로 광을 선택적으로 증가시키기 위한 프로토콜은, 예를 들어, FOV 스캔 동안 마주치는 다양한 기준 (예를 들어, 특정 영역 내의 물체의 검출, 등)에 기초하여 FOV의 스캔 동안 미리 결정되거나 발전될 수 있다. 특정 투영된 광량의 결과로서 특정 영역에서 물체가 검출되는 경우, FOV의 후속하는 스캔 동안, 유사한 정도의 광량이 특정 영역에 제공될 수 있다. 이러한 접근은 증가하는 광량을 사용하여 물체를 검색할 필요성을 잠재적으로 제거함으로써 물체 검출 및 FOV의 스캔을 가속화할 수 있다. 그러나 어떤 경우에는 FOV의 후속하는 스캔에서 특정 FOV 영역에 더 낮은 레벨의 광의 적용으로 돌아오는 것이 바람직할 수 있다. 예를 들어, LIDAR 시스템이 이전에 검출된 물체를 향하여 이동하는 경우, 원래의 검출에 사용된 더 높은 광량 대신에 낮은 광량을 사용하여 물체를 다시 검출하는 것이 가능할 수 있다.
LIDAR 시스템 FOV의 스캔 동안 상이한 영역에 제공되는 광량을 변화시킴으로써, LIDAR 시스템의 검출 성능 및/또는 해상도가 개선될 수 있다. 그리고 FOV의 상이한 영역 각각에서 검출된 물체에 기초하여, FOV와 연관된 장면의 3차원 맵 또는 재구성이 임의의 적절한 기술을 사용하여 생성될 수 있다. 예를 들어, 일부 실시예에서, FOV 내에서 검출된 물체의 일부 또는 전부를 나타내는 포인트 클라우드가 생성될 수 있다. 도 12의 예시로 돌아가서, 포인트 클라우드 (또는 다른 3D 구조)는 거리 D1에 자동차(1110), 거리 D2에 차(1202), 거리 D3에 거북이(1206)를 도시할 수 있으며, D3 <D1<D2 이다. 3D 구조로 표현된 각각의 검출된 물체는 특정 검출 방향 (φ /θ 또는 x/ y) 또는 각도 범위와 연관될 수 있다.
FOV의 상이한 부분들의 물체의 검출 및 물체의 부재에 기초한 FOV의 상이한 부분들을 향하는 선택적 발광은 LIDAR 시스템(100)이 다음 중 하나 이상과 같은 몇 가지 능력을 달성하게 할 수 있다 : (a) 증가하는 광량을 사용하여 물체를 검색할 필요를 잠재적으로 제거함으로써 물체 검출 및 FOV의 스캔의 속도를 높임, (b) FOV를 가로지르는 검출에 사용되는 전체적인 에너지를 감소, (c) 더 큰 영향을 미칠 수 있는 영역으로 에너지 할당을 전환할 수 있게 함, (d) LIDAR 시스템의 환경 영향을 감소, 예를 들어 물체가 존재하는 것으로 알려진 방향으로 과도한 발광을 줄임으로써 LIDAR 시스템의 환경 영향을 감소, 및 (e) 불필요하게 검출된 신호를 처리하기 위한 처리 요구 사항을 감소.
도 13은 LIDAR 시스템을 사용하여 물체를 검출하는 방법(1302)의 표현의 흐름도를 제공한다. 현재 개시된 실시예와 일치하는 방식으로 LIDAR 시스템(100)을 작동하는 동안, 임의의 또는 모든 단계는 적어도 하나의 광원으로부터의 광을 사용하여 시야의 스캔에 걸쳐 광 플럭스를 변화시킬 수 있는 방식으로 적어도 하나의 광원을 제어하는 것을 포함할 수 있다. 임의의 또는 모든 작동 단계는 또한 시야를 스캔하기 위해 적어도 하나의 광원으로부터의 광을 편향 시키도록 적어도 하나의 광 편향기를 제어하는 것을 포함할 수 있다. 단계(1308)에서, 방법(1302)은 제1 거리에서 제1 부분의 제1 물체의 존재를 결정하기 위해 시야의 제1 부분의 스캔과 연관된 제1 검출된 반사를 사용하는 것을 포함할 수 있다. 단계(1310)에서, 방법(1302)은 제1 거리에서 시야의 제2 부분의 물체의 부재를 결정하는 것을 포함할 수 있다. 단계(1312)에서, 방법(1302)은 제1 반사의 검출 및 제2 부분에서의 물체의 부재의 결정에 뒤따라 더 많은 광이 시야의 제1 부분을 향해 투영되는 것보다 시야의 제2 부분을 향해 투영되도록 광원 파라미터를 변경하는 것을 포함할 수 있다. 단계(1314)에서, 방법(1302)은 시야의 제2 부분에서 제2 검출된 반사를 사용하여 제1 거리보다 큰 제2 거리에서 제2 물체의 존재를 결정하는 것을 포함할 수 있다. 제2 부분에서 제2 물체를 검출하기 위한 광 플럭스의 증가는 FOV의 현재 스캔 동안 또는 FOV의 후속 스캔 동안 행해질 수 있음을 유의해야 한다. 선택적으로, 만약 스테이지(1310, 1312, 및 1314)이 스테이지(1308)의 검출 이후에 실행되면, 추가의 광이 제1 부분으로 (예를 들어, 이후 스캐닝 사이클에서) 방출되기 전에, 제2 물체의 검출에 사용된 제2 FOV 부분을 향하는 모든 방출이 방출된다.
일부 실시예에서, 상기 방법은 복수의 스캐닝 사이클에 걸쳐 FOV(120)의 스캐닝을 포함할 수 있으며, 단일 스캐닝 사이클은 복수의 순간 위치를 가로질러 적어도 하나의 광 편향기를 이동시키는 것을 포함한다. 적어도 하나의 광 편향기가 특정 순간 위치에 위치하는 동안, 상기 방법은 적어도 하나의 광원으로부터의 광 빔을 시야 내의 물체를 향하여 편향시키는 것, 물체로부터 수신된 반사를 적어도 하나의 센서를 향하여 편향시키는 것을 포함한다.
LIDAR 검출을 위한 점진적인 플럭스 할당
상술한 바와 같이, 광 플럭스는 LIDAR FOV의 상이한 영역에서 하나 이상의 물체가 검출되는 제1 거리 D1에서 그 영역에서 물체가 검출되지 않을 때 LIDAR FOV의 제2 영역으로 변할 수 있다. 추가적으로, 그러나, 일부 실시예에서 광 플럭스는 물체가 임의의 거리에서 그 영역에서 검출되는지 여부에 기초하여 LIDAR FOV의 특정 영역으로 변할 수 있다. 예를 들어, LIDAR FOV의 특정 영역에 제공된 제1 광량에 기초하여, 프로세서(118)는 LIDAR 시스템(100)으로부터 거리 S1 내의 그 영역에 물체가 상주하지 않는다는 결정을 내릴 수 있다. 이러한 결정에 응답하여, 프로세서(118)는 FOV의 특정 부분에 더 많은 광을 제공하게할 수 있다. 광이 증가함에 따라, 프로세서(118)는 LIDAR 시스템(100)으로부터 거리 S2 내의 특정 영역에 물체가 상주하지 않는다는 결정을 내릴 수 있는데, 여기서 S2>S1이다. 이러한 결정에 응답하여, 심지어 더 많은 광이 LIDAR FOV의 특정 영역에 제공될 수 있고, 광의 증가에 응답하여 프로세서(118)는 LIDAR 시스템(100)으로부터 거리 S3에 있는 하나 이상의 물체의 존재를 검출할 수 있으며, 여기서 S3>S2>S1이다. 따라서, LIDAR FOV의 특정 영역에 제공된 광의 이러한 증가는 특정 영역 내의 LIDAR 시스템의 검출 능력을 향상시킬 수 있다. 또한, 개시된 점진적 조명 방식을 사용하면 제한된 전력 소비로 장거리 범위에서 검출을 달성할 수 있다.
도 14는 LIDAR 시야(1410) 및 LIDAR 시스템(100)에 의해 생성될 수 있는 연관된 깊이 맵 장면 표현의 개략도를 제공한다. 도시된 바와 같이, LIDAR 시스템(100) (도 14의 관점)에 비교적 가까운 범위 S0 내의 거리에서, 장면의 물체가 검출될 수 있다. 범위 S0는 LIDAR 시스템(100)의 작동 파라미터에 따라 변화하는 거리 간격을 커버할 수 있다. 일부 경우에, S0는 0m에서 10m 사이의 범위를 나타낼 수 있다. 다른 경우에, S0는 0 m 내지 20 m, 30 m, 50 m 등의 범위에 대응할 수 있다.
어떤 경우들에서, LIDAR 시스템은 제1 거리 S1에서 시야의 제1 부분에서 검출된 물체들의 부재를 결정할 수 있다. 예를 들어, 도 14에 도시된 바와 같이, LIDAR 시스템(1410)의 특정 영역(1412)에 투영된 광 (예를 들어, 제1 발광)에 기초하여, LIDAR 시스템은 도로(1414)의 표면, 연석(1416) 및/또는 보도(1418)의 표면과 같은 다양한 전경 물체를 식별할 수 있다. 그러나, LIDAR 시스템(100)의 프로세서(118)는 거리 S1에서 영역(1412) 내의 임의의 물체를 검출할 수 없다. 즉, 프로세서(118)는 거리 S1 에서 (및 가능하게는 그를 넘어서) 영역(1412)에 물체가 부재한다는 결정을 내릴 수 있다. 일부 실시예에서, 거리 S1는 거리 S0보다 클 수 있다. 예를 들어, S0는 0m에서 최대 20m 거리 S1까지의 범위를 포함할 수 있다. 일부 예시에서, S1은 거리 S0와 동일하거나 및/또는 거리 S0보다 작을 수 있다. 예를 들어, 만약 관련 시나리오에서의 제1 발광 (예를 들어, 주변광 조건)이 LIDAR 시스템으로부터 최대 약 40 미터의 주어진 반사율 물체의 검출을 허용하는 경우, 제1 발광은 시스템이 20m, 30m, 39m, 및 가능하게는 심지어 40m의 거리에서 적어도 그러한 반사율의 물체의 부재를 결정할 수 있게할 수 있다.
LIDAR 시스템(100)이 영역(1412)에서 거리 S1에서 물체를 검출하지 못하는 몇 가지 이유가 있을 수 있다. 예를 들어, 일부 경우에는, 거리 S1에 그 영역 내에 어떠한 물체도 존재하지 않을 수 있다. 그러나, 다른 경우에서, 영역(1412)에 투영되는 광량은 거리 S1에서 물체를 검출하기에 불충분할 수 있으며, 그 물체가 낮은 반사율을 특징으로 하기 때문이거나 거리 S1이 특정 작동 파라미터 세트(예를 들어, 영역 (1412)에 투영된 광의 지속 시간, 강도, 전력 레벨 등)에 대해 LIDAR 시스템(100)의 작동 범위를 벗어나기 때문이다.
프로세서(118)는 영역(1412)에서 거리 S1에서의 물체의 검출을 포기하기보다는, 제1 발광에 기초하여 물체가 검출되지 않을 때, 만약 가능하다면, 프로세서(118)는 S1을 넘어서는 거리에 있는 물체를 검출하기 위해 영역(1412)에 추가적인 광 플럭스를 공급되게 할 수 있다. 다시 말해서, 프로세서(118)가 제1 발광에 기초하여 시야(1410)의 제1 부분(1412)에서 검출된 물체의 부재를 결정할 때, 프로세서(118)는 제1 거리 S1보다 큰 제2 거리 S2에서 영역(1412) 내의 물체의 검출을 가능하게 하기 위해 시야(1412)의 영역(1412)을 향하여 지향되는 적어도 제2 발광의 투영을 제어할 수 있다. 제2 방출은 거리 S2에서 물체를 검출하기 위한 능력을 잠재적으로 증가시킬 수 있을 뿐만 아니라, 제 2 방출은 또한 거리 S1에서 물체를 검출하는 LIDAR 시스템(100)에 대한 잠재력을 증가시킬 수 있다.
어떤 경우에, 프로세서(118)는 광 투영이기(112) 및 편향기(114)가 영역(1412)을 향하여 추가적인 광을 투영하게할 수 있다. 예를 들어, 프로세서(118)는 제1 거리 S1보다 큰 제2 거리 S2, 제2 거리 S2보다 큰 제3 거리 S3에서 영역(1412)의 물체의 존재를 결정하기 위해 시야(1410)의 영역(1412)을 향하여 지향된 적어도 제3 발광의 투영을 제어할 수 있다. 도 15에 도시된 바와 같이, 영역(1412)에 대한 제3 발광은 LIDAR 시스템(100)으로부터 거리 S3에 있는 보행자(1510) (또는 적어도 그 일부)의 검출을 가능하게 할 수 있다. 보행자(1510)는 영역(1412)을 향하여 지향되는 제1 또는 제2 발광에 응답하여 검출되지는 않았지만, 영역(1412)으로의 제3 방출은 거리 S3에서 보행자(1510)의 존재를 결정할 수 있게 한다. 또한, 제2 거리 S2 또는 제3 거리 S3에서 영역(1412) 내의 물체의 검출을 가능하게 하는 제2 및 제3 발광은 각각 LIDAR 시스템(100)이 거리 범위 S0을 넘어서 물체(예를 들어, 연석(1416), 도로 표면(1414), 및/또는 보도(1418))를 검출하게 할 수 있다. 예를 들어, 도 15에 도시된 바와 같이, 이러한 물체는 거리 S3까지의 거리와 그 이상의 거리에 대해 검출되고 매핑된다.
따라서, 전술한 바와 같이, 프로세서(118)는 물체가 다양한 거리에서 그 영역에서 검출되는지 여부에 기초하여 LIDAR FOV의 특정 영역을 향하여 추가적인 발광이 투영되도록 할 수 있다. 예를 들어, 일 실시예에서, 프로세서(118)는 제1 발광 및 제2 발광 중 적어도 하나의 검출에 기초하여, 물체의 부재가 제 1 거리(예를 들어, 도 14의 S1)에서 LIDAR FOV의 부분에서 결정될 때 LIDAR FOV의 특정 부분/영역을 향하여 지향되는 적어도 제3 발광의 투영을 제어하도록 구성될 수 있다. 또한, 프로세서(118)는, 적어도 제2 발광의 검출에 기초하여, 물체의 부재가 제2 거리(예를 들어, 도 14의 거리 S2)에서 LIDAR FOV의 부분에서 결정될 때 LIDAR FOV의 특정 영역/부분을 향하여 적어도 제3 발광의 투영을 제어하도록 구성될 수 있다.
거리 S1, S2, 및 S3는 LIDAR 시스템(100)의 특정 배치(예를 들어, 차량, 건물, 항공기 등)에 적합하거나, 특정 기상 조건(예를 들어, 맑은 날씨, 비, 눈)에 적합하거나, 또는 임의의 다른 환경 조건(예를 들어, 농촌 대 도시 환경 등)에 적합하도록 선택될 수 있는 특정 작동 파라미터에 의존할 수 있다. 그러나, 일부 실시예에서, 거리 S1는 LIDAR 시스템(100)로부터 20m 이하일 수 있다. 거리 S3은 100m보다 큰 거리를 포함할 수 있고, 거리 S2는 거리 S1과 S3 사이가 될 수 있다. LIDAR 시스템의 검출 거리의 개념과 관련하여 보다 상세히 논의된 바와 같이, 전술한 검출 거리(S0, S1, S2, S3)는 반드시 미리 정의될 필요는 없으며, 이들 거리는 LIDAR 시스템에 의해 사용된 발광 에너지 방식에 기초하여 결정될 수 있다. 더 나아가, 검출 거리는 날씨, 주변광 조건, 가시성, 타겟 반사율 등과 같은 다른 요인들에 의존할 수도 있다. 또한, 도 14 및 도 15에서, 검출 범위 S0는 단순화를 위해 LIDAR 시스템이 위치하는 수직면으로부터 균일하게 연장되는 것으로 도시되었다. 그러나, 언급한 바와 같이, 임의의 검출 범위는 FOV의 상이한 부분들에 걸쳐 반드시 균일할 필요는 없으며, 거리는 (도시된 바와 같이) 제로 거리 평면으로부터 보다는, LIDAR의 광학 윈도우 상에 위치된 지점으로부터 방사상으로 측정될 수 있다.
본원 및 임의의 개시된 실시예들과 관련하여, LIDAR FOV의 특정 부분 또는 영역은 몇몇 실시예에서 FOV의 스캔의 단일 픽셀을 가르킬 수 있다. 이들 실시예에서, FOV의 특정 부분은 LIDAR FOV를 스캔하기 위해 위치/방향의 범위를 통하여 이동함에 따라 편향기(114)의 단일 순간 위치에 대응할 수 있다. 도 14에 도시된 바와 같이, 예를 들어, 영역(1412) (예를 들어, LIDAR FOV의 일부)은 LIDAR FOV(1410)의 단일 픽셀을 나타낼 수 있다. 그러나, 다른 실시예에서, LIDAR FOV의 특정 영역은 다수의 픽셀을 포함할 수 있다. 예를 들어, LIDAR FOV의 영역(1520)은 각각 편향기(114)의 상이한 순간 위치에 대응하는 다수의 픽셀을 포함할 수 있다. FOV의 영역 또는 부분에 포함된 개별 픽셀은 영역(1520)에 포함된 픽셀과 같이 연속적일 수 있거나, 또는 불연속적일 수 있다. 일부 경우에, FOV의 일부는 LIDAR FOV 내의 특정 관심 영역을 나타낼 수 있고, 유사한 발광 프로토콜 등의 대상일 수 있다.
일부 실시예에서, LIDAR FOV 내의 LIDAR FOV의 특정 위치의 상대적 위치는 변할 수 있다. 예를 들어, 어떤 경우에, 편향기(114)는 각각 LIDAR FOV의 특정 영역에 대응하는 복수의 순간 위치를 통해 연속적으로 (예를 들어, 스위핑 패턴(sweeping pattern)으로, 래스터 패턴으로, 랜덤하게, 의사 랜덤하게) 이동될 수 있다. 전술한 프로세스에서, FOV의 특정 부분에 대한 제1 발광과 FOV의 동일한 부분에 대한 제2 발광 사이에는 약간의 시간이 존재할 수 있다. 그동안, 편향기(114)는 제1 방출 동안의 편향기의 정확한 순간 위치가 제2 방출 동안의 정확한 순간 위치와 다를 수 있도록 이동할 수 있다. 이와 유사하게, 제3 방출 동안의 편향기(114)의 정확한 순간 위치는 제1 및 제2 방출 동안의 정확한 순간 위치와 다를 수 있다. 결과적으로, 제1, 제2, 및 제3 방출에 의해 조명되는 LIDAR FOV의 영역은 서로에 대해 약간씩 다를 수 있다. 그러나, 본 개시의 목적 상, LIDAR FOV의 실질적으로 중첩되는 영역을 향해 투영된 발광 또는 그룹화된 발광은 LIDAR FOV의 동일한 영역으로 지향하는 것으로 여겨질 것이다. 다시 말하면, 일부 실시예에서, LIDAR FOV의 특정 부분은 편향기(114)의 단일 순간 위치에 대응할 수 있다. 다른 실시예에서, LIDAR FOV의 특정 부분은 편향기(114)의 2 이상의 순간 위치에 대응할 수 있다.
전술한 바와 같이, 센서(116)와 같은 하나 이상의 센서의 출력을 모니터 및/또는 처리함으로써, 프로세서(118)는 LIDAR FOV의 특정 영역 내의 물체의 존재 또는 동일한 영역 내의 물체의 부재 모두를 결정할 수 있다. 예를 들어, 도 14에 도시된 바와 같이, FOV 영역(1412)으로 투영된 광의 반사는 특히 S0 범위 내의 거리에서 도로 표면(1414), 연석(1416), 또는 보도(1418)와 같은 물체의 검출 및 깊이 맵핑을 가능하게 할 수 있다. 반면에, 영역(1412)에 대한 광의 동일한 투영은 LIDAR 시스템으로부터의 거리 S1 또는 더 먼 거리 S2에서의 물체에 대한 검출 또는 깊이 맵핑 능력을 초래하지 않을 수 있다. 그러한 경우에, 영역(1412)으로부터의 광의 이용 가능한 반사로부터 획득한 정보에 기초하여, 프로세서(118)는 S0, S1, S2 등을 넘어서는 거리에서 영역(1412)에 물체가 부재한다는 결정을 내릴 수 있다.
물체가 부재한다는 결정은 실제로 LIDAR FOV의 특정 영역에 존재하는 물체가 없다는 것을 의미하지는 않는다. 오히려, 전술한 바와 같이, 검출기(116)가 특정 영역으로부터 불충분한 광 반사를 수신하여 그 영역 내의 물체를 검출할 때 이러한 결정이 이루어질 수 있다. 예를 들어, 만약 반사가 수집되었지만, 적어도 하나의 반사원에 대한 범위 정보를 결정하기 위한 정보가 충분하지 않거나 수신된 반사(들)에 기초하여 깊이 맵을 생성하기에 충분한 정보가 존재하지 않는 경우, 물체의 부재의 결정이 또한 이루어질 수 있다. 그러나, 도 14 및 도 15와 관련하여 설명된 바와 같이, FOV의 특정 영역에 대한 광 플럭스 레벨을 증가시키면 이전에 검출되지 않은 물체의 검출을 초래할 수 있다. 그리고 물체 검출은 이진 프로세스를 포함하지 않을 수 있다 (예를 들어, 물체로부터의 반사가 수신되거나 또는 반사가 수신되지 않음). 오히려, 검출기(116)는 광이 투영된 특정 영역에서 물체의 존재를 인식하기 위해 프로세서(118)가 충분한 광 반사를 수신할 것을 요구할 수 있다. 따라서, 검출이 발생하는지 여부는 물체 반사율, 물체까지의 거리 등과 같은 다양한 요인에 의존할 수 있다. 본원에 기술된 바와 같이, 한 거리 또는 다른 곳에서 검출을 가능하게 하는 것으로 기술된 광 투영은 특정 레벨의 반사율(예를 들어, 적어도 2.5%, 5%, 10% 등의 반사율 레벨)을 갖는 물체를 포함하는 사례(예를 들어, 특정 특성의 세트의 광 투영을 포함하는 사례의 적어도 50%, 75%, 90%, 99%, 또는 그 이상)의 특정 백분율에서 긍정적인 검출을 초래하는 광 투영을 구성할 수 있다.
물체가 다양한 거리에서 그 영역에서 검출되는지 여부에 기초하여 LIDAR FOV의 특정 영역으로 광 플럭스를 증가시키기 위해 상기 기술된 프로세스를 사용하여 LIDAR FOV의 스캔이 수행될 수 있고, 이는 특정 FOV 영역과 연관된 광 투영 시퀀스 내 임의의 위치로부터의 광 투영을 사용하여 다수의 물체가 검출될 수 있다. 예를 들어, 어떤 경우에는 제1 발광만을 사용하여 LIDAR FOV의 한 영역에서 물체가 검출될 수 있다. LIDAR FOV의 다른 부분의 스캐닝은 제2 발광, 제3 발광 등이 이들 영역에 제공된 후에만 이들 영역에서 물체가 검출되는 것을 초래할 수 있다. 도 14 및 도 15에 나타난 예시적인 실시예에서, FOV 영역(1530)으로의 1 발광은 도로(1414)의 표면의 검출을 초래할 수 있다. 영역(1412)에서, 제1 발광은 적어도 특정 범위 (도 14에 도시된 바와 같이 S0 또는 S1)까지 보도(1418), 연석(1416), 및 도로(1414)와 같은 물체의 검출을 초래할 수 있다. 영역(1412)을 향하여 지향되는 후속 (예를 들어, 제2) 발광은 더 긴 범위 (예를 들어, S2)에서 보도(1418), 연석(1416), 및 도로(1414)의 검출을 초래할 수 있다. 영역(1412)을 향하여 지향되는 제3 발광은 거리 S3에서 보행자(1510)의 검출을 초래할 수 있다. FOV(1410)에서 하나 이상의 다른 영역에 대해서도 유사한 결과가 획득될 수 있다. 물론, 일부 영역은 오직 하나의 발광만을 수신할 수 있는 반면 (또는 심지어 전혀 발광이 없을 수 있으며), 다른 영역은 다수의 발광을 수신할 수 있다. 결과적으로, LIDAR FOV의 특정 스캔은 얼마나 많은 발광이 특정 영역을 향해 투영되었는지에 따라 제1 발광, 제2 발광, 및/또는 제3 발광 등에 기초하여 검출된 물체들을 포함할 수 있다.
LIDAR FOV의 특정 영역으로 광 플럭스를 증가시키는데 사용될 수 있는 다양한 기술이 있으며, 상기 기술되거나 이하에 기술된 것을 포함한다. 몇몇 경우에, FOV의 특정 영역으로 광 플럭스를 변화시키기 위해, 프로세서(118)는 광 투영이기(112) (예를 들어, 그 조준 방향, 전력 레벨, 광 세기, 파장, 펄스 폭, 연속파 적용 지속 기간 등)를 제어할 수 있다. 다른 경우에, 프로세서(118)는 광 플럭스를 변화시키기 위해 (예를 들어, 방향을 제어함으로써 따라서 FOV의 특정 영역을 향하는 투영의 방향을 제어하고, FOV의 특정 영역으로 투영되는 광량을 제어함으로써) 적어도 하나의 광 편향기(114)를 제어할 수 있다.
또한, 프로세서(118)는 FOV의 특정 영역에 의해 수신되는 광량을 제어하기 위해 광 투영이기(112)와 적어도 일 양태의 편향기(114) 모두의 적어도 일 양태를 제어할 수 있다. 예를 들어, 일부 실시예에서, 프로세서(118)는 광 에너지의 다중 방출을 방출하도록 광 투영이기(112)를 제어할 수 있다. 프로세서(118)는 또한 광 투영이기(112)에 의해 제공되는 제1 발광, 제2 발광, 및 제3 발광이 모두 광 편향기(114)의 단일 순간 위치(또는 적어도 밀접하게 이격된 편향기의 순간 위치)에 대응하는 LDIAR FOV의 특정 부분을 향해 투영되도록, 광 편향기(114)를 제어할 수 있다. 제1, 제2 및 제3 발광 각각은 유사한 특성 (예를 들어, 전력 레벨, 지속 시간, 펄스 개수, 파장 등)을 가질 수 있다. 대안적으로, 제1, 제2, 및 제3 발광 중 하나 이상은 상이한 특성을 가질 수 있다. 예를 들어, 하나 이상의 방출이 다른 것보다 높은 전력 레벨을 보일 수 있다. 일부 실시예에서, 제1, 제2, 및 제3 발광과 연관된 전력 레벨은 각각의 방출과 함께 점진적으로 증가할 수 있다. 그리고 일부 실시예에서, 프로세서(118)는 광 투영이기(112) (상이한 파장의 광을 방출할 수 있는 다중 파장 소스 또는 다중 소스를 포함할 수 있음)를 제어하도록 구성될 수 있으며, FOV의 특정 영역을 향하여 투영된 제1 발광은 FOV의 특정 영역을 향하여 지향된 제2 발광 및 제3 발광 모두와는 다른 파장을 갖는다. 일부 예시에서, 제1 발광, 제2 발광, 및 제3 발광 각각은 단일 펄스를 포함한다 (선택적으로, 이들 펄스는 유사한 특성일 수 있다). 일부 예시에서, 제1 발광, 제2 발광, 및 제3 발광 각각은 동일한 개수의 펄스를 포함한다 (선택적으로, 이들 펄스는 유사한 특성일 수 있다). 일부 예시에서, 제1 발광, 제2 발광, 및 제3 발광 각각은 하나 이상의 펄스를 포함한다 (선택적으로, 이들 펄스는 유사한 특성일 수 있다).
일부 실시예에서, LIDAR FOV의 특정 영역을 향하여 투영된 발광은 각각 유사한 광 세기 (예를 들어, 실질적으로 동일한 광 세기)를 가질 수 있다. 그러나, 다른 실시예에서, 프로세서(118)는 광 투영이기(112)로부터의 다양한 발광의 광 세기를 변화시킬 수 있다. 예를 들어, 프로세서(118)는 제2 발광이 FOV의 특정 영역에 관하여 광 투영이기(112)에 의해 제공된 제1 발광의 광 세기보다 큰 광 세기를 갖도록 광 투영이기(112)를 제어하도록 구성될 수 있다. 유사하게, 프로세서(118)는 광 투영이기(112)를 제어하여 FOV의 특정 영역에 관하여 광 투영이기(112)로부터의 제3 광 발광이 제2 광 발광의 광 세기보다 큰 광 세기를 갖도록 한다.
유사하게, LIDAR FOV의 특정 영역을 향하여 투영된 각각의 발광은 유사한 전력 레벨을 가질 수 있다. 그러나, 다른 실시예에서, 프로세서(118)는 광 투영이기(112)로부터의 다양한 발광의 광 전력 레벨이 변하게 할 수 있다. 예를 들어, 프로세서(118)는 제2 발광이 FOV의 특정 영역에 관하여 광 투영이기(112)에 의해 제공된 제1 발광의 전력 레벨보다 큰 전력 레벨을 갖도록 광 투영이기(112)를 제어하도록 구성될 수 있다. 유사하게, 프로세서(118)는 광 투영이기(112)를 제어하여 FOV의 특정 영역에 관한 광 투영이기(112)로부터의 제3 발광이 제2 발광의 전력 레벨보다 큰 전력 레벨을 갖도록 한다. 또 다른 경우에 있어서, LIDAR FOV의 특정 영역에 대한 제1 발광에 후속하는 하나 이상의 발광과 연관된 전력 레벨은 제1 발광과 연관된 전력 레벨보다 낮을 수 있다. LIDAR FOV의 특정 영역에 제공되는 추가적인 발광의 결과로서, 축적된 광 에너지는 그 다음의 방출 각각마다 증가할 수 있으며, 이는 점진적으로 더 먼 거리를 포함하여 그 면적에서의 물체 검출의 기회를 증가시킬 수 있다.
LIDAR FOV의 특정 부분에 제공된 광 에너지의 누적 효과를 고려해서, 상이한 발광 또는 펄스가 함께 사용되어 FOV의 해당 부분의 물체를 검출할 수 있다. 예를 들어, 일부 실시예에서, 프로세서(118)는 FOV의 해당 부분에 있는 물체의 존재를 결정하기 위해 그 영역을 향하여 투영된 제1 발광과 제2 발광 중 하나 또는 둘 모두와 함께 FOV의 특정 영역을 향해 투영된 제3 발광을 사용할 수 있다. 또한, 누적된 광 에너지는 증가된 검출 거리를 가능하게 할 수 있다. 제2 또는 제3 방출 중 하나 또는 둘 모두와 제1 방출을 사용함으로써, 프로세서(118)는 제1 방출 단독(예를 들어, S0) 또는 제2 방출 단독 (예를 들어, S2)과 연관된 검출 거리보다 먼 거리(예를 들어, S3)에 있는 물체를 검출하는 것이 가능할 수 있다.
물체를 검출하기 위해 다중 발광을 사용하는 것 이외에, 다중 발광은 또한 장면 내의 물체를 나타내는 깊이 맵을 생성하는데 사용하기 위한 데이터 포인트를 생성하는데 사용될 수 있다. 예를 들어, 일부 실시예에서, 깊이 맵에 대한 데이터 포인트는 LIDAR FOV의 특정 영역을 향하여 투영된 제1 발광에만 기초하여 생성될 수 있다. 다른 실시예에서, 깊이 맵에 대한 데이터 포인트는 FOV의 특정 영역을 향해 투영된 제1 방출 및 제2 방출 및/또는 제3 방출 (또는 그 이상)의 조합에 기초하여 생성될 수 있다.
또한, 특정 물체는 발광의 상이한 조합을 사용하여 상이한 시간 (예를 들어, LIDAR FOV의 상이한 스캔)에서 검출될 수 있다. 어떤 경우, 시간 T0에서 보행자(1510)(도 15)의 존재를 검출하기 위해 다수의 발광 (예를 들어, 2, 3 또는 그 이상의 방출)이 조합으로 요구될 수 있다. 보행자(1510)까지의 거리가 감소함에 따라 (예를 들어, LIDAR 시스템(100)이 배치되는 차량이 보행자(1510)에 접근함에 따라), 보행자(1510)를 검출하기 위해 더 적은 발광이 요구될 것이다. 예를 들어, 보행자(1510)까지의 거리가 S0보다 작은 경우, 보행자(1510)는 LIDAR FOV의 특정 영역에 대한 단일 발광에 기초하여 후속 FOV 스캔 중에 검출될 수 있다.
FOV를 스캔하는 동안 LIDAR FOV의 특정 영역에 제공되는 광 플럭스의 양을 동적으로 변경하기 위해 기술된 실시예에서, FOV를 스캔하는 동안 LIDAR FOV의 하나 이상의 다른 영역에 투영되는 것보다 많은 광이 FOV의 특정 영역에 투영될 수 있다. 예를 들어, 프로세서(118)는 LIDAR FOV의 제1 부분에 투영된 광과 연관된 광원 파라미터를 변경하도록 구성될 수 있어서, FOV의 동일한 스캐닝 사이클 동안 제1 부분으로 지향되는 광의 광 플럭스가 LIDAR FOV의 적어도 하나의 다른 부분으로 지향되는 광의 광 플럭스보다 크다. 프로세서(118)는 또한 FOV의 다양한 영역에 제공된 광량을 모니터하여 적용 가능한 규정을 준수하도록 보장할 수 있다. 예를 들어, 프로세서(118)는 LIDAR FOV의 임의의 특정 부분에 투영된 광의 축적된 에너지 밀도가 (FOV의 임의의 단일 스캔 내 또는 FOV의 다중 스캔에 걸쳐) 최대 허용 노출 한도를 초과하지 않도록 광 투영이기(112)를 제어하도록 구성될 수 있다.
예를 들어, 처리 유닛(108)은 LIDAR FOV의 부분 상으로의 광의 점진적인 투영을 제어할 수 있고, LIDAR FOV의 각각의 부분에서 물체가 검출되는 때를 간헐적으로 결정할 수 있으며, 물체가 검출될 때 처리 유닛(108)은 FOV의 해당 부분에 대한 발광을 검출된 물체에 해를 끼치지 않는 안전한 발광 한도 내에서 유지하도록 제어한다. 이들 기술은 상보적 방식으로 구현될 수 있다 : FOV의 하나 이상의 부분들 각각에서, 처리 유닛(108)은 추가적인 광이 필요한지 여부를 상보적인 방식으로 연속적으로 확인하면서 정지 조건(최대 허용 노출 한도의 삭제를 방지)을 함께 구현할 수 있다 (예를 들어, LIDAR FOV의 일부를 향하여 멀리 투영된 광이 물체의 유효한 검출을 위해 불충분하다는 것을 결정함으로써).
LIDAR 시스템(100)은, 특히 후속하는 발광이 동일한 스캐닝 사이클 내에서 수행되는 경우 및 특히 광 편향기가 여전히 실질적으로 동일한 순간 위치에 있을 때 후속하는 발광이 실행되는 경우, 후속하는 발광(예를 들어, 제2 발광, 제3 발광)에 관한 신속한 결정을 허용하게 하기 위해 조기 발광의 반사 신호를 빠른 방식으로 처리하기 위한 (도시되지 않은) 예비 신호 프로세서를 포함할 수 있다. 후속 방출에 관한 신속한 결정에는 추가 방출이 필요한지 여부 (예를 들어, 제2 방출, 제3 방출)에 대한 결정을 포함할 수 있으며, 또한 각 세그먼트에 대한 후속 방출에 대한 파라미터의 결정도 포함할 수 있다. 예비 신호 프로세서의 회로망의 일부 또는 전부는 3D 모델의 포인트 범위를 결정하는데 사용되는 범위 추정 모듈의 회로망과 다를 수 있음에 유의해야 한다. 이는 빠른 결정이 반드시 정확한 범위 추정을 필요로 하지는 않기 때문이다 (예를 들어, 물체의 존재 또는 부재의 결정만으로 충분할 수 있다). 다른 회로망을 사용하는 또 다른 이유는 주범위 추정 회로망이 적어도 하나의 광 편향기의 동일한 순간 위치에서 추가 발광을 방출하는데 필요한 속도로 결정을 내리기에 충분히 빠르지 않을 수 있기 때문이다. 이러한 예비 신호 프로세서의 처리 결과는 범위 추정에 대해 불충분 할 수 있다. 선택적으로, 예비 신호 프로세서는 아날로그 검출 신호들 (예를 들어, 전압들)을 처리하는 아날로그 프로세서일 수 있고, 주범위 추정기 모듈은 상기 검출 정보가 아날로그에서 디지털로 변환된 후에 처리하는 디지털 처리 모듈 (또는 포함) 일 수 있다. 또한, 이하에서 더 상세히 기술되는 바와 같이 동일한 (또는 유사한) 예비 신호 처리 모듈이 LIDAR 시스템(100)에서 구현될 수 있으며, (예를 들어, 안구 안전성이라는 이유를 위해) 과도한 광 에너지의 방출을 방지하기 위해 LIDAR 시스템의 인접한 면적에서 물체의 검출에 사용된다는 점을 유의해야 한다.
LIDAR FOV의 특정 부분에 제공된 광 플럭스의 증가는 임의의 적절한 프로토콜에 따라 진행될 수 있다. 예를 들어, 전술한 바와 같이 일부 실시예에서 편향기(114)가 FOV의 다른 영역을 스캔하기 위해 상이한 순간 위치로 이동되기 전에 제1, 제2, 및 제3 발광(또는 더 많거나 더 적은 방출)이 LIDAR FOV의 특정 영역에 투영될 수 있다. 즉, 프로세서(118)는 제1 발광, 제2 발광, 및 제3 발광이 단일 스캐닝 사이클에서 LIDAR FOV의 특정 부분을 향하여 투영되게 편향기(114)를 제어하도록 구성될 수 있다.
다른 경우에, LIDAR FOV의 특정 영역에 대해 지정된 다수의 발광은 FOV의 상이한 스캔 동안 FOV의 해당 부분을 향하여 투영될 수 있다. 예를 들어, 프로세서(118)는 제1 발광, 제2 발광, 및 제3 발광 중 하나 이상이 상이한 스캐닝 사이클에서 LIDAR FOV의 특정 부분을 향하여 각각 투영되게 편향기(114)를 제어하도록 구성될 수 있다.
개시된 실시예들은 LIDAR 시스템을 사용하여 물체들을 검출하는 방법을 수행하는데 사용될 수 있다. 예를 들어, 전술한 바와 같이, LIDAR 시스템(100)으로 물체를 검출하는 것은 적어도 하나의 광원으로부터의 광을 사용하여 LIDAR 시야의 스캔에 걸쳐 광 플럭스를 변화시킬 수 있는 방식으로 적어도 하나의 광원을 제어하는 것을 포함할 수 있다. 도 16에 도시된 바와 같이, LIDAR 시스템(100)으로 물체를 검출하는 방법은 또한 제1 거리에서 시야의 제1 부분에 있는 물체의 부재를 결정하기 위해(단계 1630) 시야의 제1 부분을 향하여 지향하는 적어도 하나의 제1 발광의 투영(단계 1620)를 제어하는 것을 포함한다. 상기 방법은 또한 적어도 하나의 제1 발광에 기초하여 시야의 제1 부분에서 물체의 부재가 결정될 때, 시야의 제1 부분의 물체가 제1 거리보다 큰 제2 거리에서 검출이 가능하게 하기 위해 시야의 제1 부분을 향하여 지향되는 적어도 제2 발광의 투영을 제어하는 것(단계 1640)을 포함할 수 있다. 또한, 본 방법은 시야의 제1 부분의 물체의 존재를 제2 거리보다 큰 제3 거리에서 결정하기 위해 시야의 제1 부분을 향하여 지향되는 적어도 제3 발광의 투영을 제어하는 것(단계 1650)을 포함할 수 있다.
시야의 상이한 부분에 대한 적응형 노이즈 완화
본 발명의 실시예들과 일치하는 LIDAR 시스템에서, 캡쳐된 신호들은 노이즈를 포함할 수 있다. 노이즈는 다양한 소스로부터 생길 수 있다. 예를 들어, 일부 노이즈는 검출기 (예를 들어, 도 4A 내지 도 4C의 감지 유닛(106))로부터 발생할 수 있고, 다크 노이즈, 증폭 노이즈 등을 포함할 수 있다. 또한, 일부 노이즈는 환경으로부터 발생할 수 있으며, 주변광 또는 그와 유사한 것을 포함할 수 있다. 예를 들어, 만약 LIDAR 시스템이 아주 멀리 있는 물체를 향하거나 반사가 최소화된 다른 영역을 향하도록 하늘로 광을 투영하는 경우, 반사 신호에 관하여 주변 노이즈가 강할 수 있다. 한편, 만약 LIDAR 시스템이 시야의 어두운 면적에 위치된 물체에 광을 투영하는 경우, 주변 노이즈는 반사 신호에 관하여 더 낮을 수 있다. 일 예시에서, 주변광은 외부 광원 (예를 들어, 태양, 차의 헤드 라이트, 전기 조명 장치)으로부터 직접 LIDAR 시스템에 도달하는 광을 포함할 수 있다. 추가 예시로서, 주변광은 FOV 내의 물체(예를 들어, 금속 또는 비금속 표면으로부터의 광의 반사, 대기에 의한 편향, 유리 또는 다른 투명 또는 반투명 물체 등)에 의해 편향 (예를 들어, 반사)된 후에 LIDAR 시스템에 도달하는 외부 광원으로부터의 광을 포함할 수 있다.
본 개시의 시스템 및 방법은 픽셀 단위 기준으로 데이터를 수집할 수 있다 (예를 들어, 감지 유닛(106)와 관련하여). 또한, 본 개시의 실시예들과 일치하는 LIDAR 시스템은 다양한 소스들로부터 발생하는 노이즈를 처리할 수 있고, 또한 픽셀 단위 기준으로 이를 수행할 수 있다.
본 명세서에서 사용되는 "픽셀"이라는 용어는 FOV 내의 물체들의 결과 모델의 요소로 처리되는 LIDAR 시스템의 FOV의 일부를 포함하도록 광범위하게 사용된다. 예를 들어, 만약 센서의 검출 데이터가 포인트 클라우드 모델에 제공되도록 처리되면, FOV의 "픽셀"은 포인트 클라우드 모델의 단일 데이터 포인트로 변환되는 FOV의 일부에 대응할 수 있다. 일 예시에서, 픽셀의 치수는 입체각 또는 그 각도 크기 (예를 들어, φ 및 θ)의 두 개의 각을 사용하여 주어질 수 있다. 일부 실시예에서, FOV의 단일 "픽셀"은 3D 모델의 대응하는 복수의 데이터 포인트를 제공하기 위해 복수의 센서(예를 들어, 다수의 SiPM 검출기)에 의해 검출될 수 있다. 스캐닝 시스템에서, FOV의 픽셀은 장면 상으로 투영된 레이저의 빔과 실질적으로 동일한 각도 크기일 수 있거나 (예를 들어, 만약 동일한 빔이 수 개의 픽셀을 커버하는 경우) 빔의 각도 크기보다 작을 수 있다. 동일한 크기의 레이저 빔 스팟인 픽셀은 FOV 부분 내에서 방출되는 레이저 빔의 대부분의 광자 (예를 들어, 50% 이상, 70% 이상, 90% 이상 등)가 각각의 픽셀로 정의된다는 것을 의미한다. 일부 실시예에서, FOV의 임의의 2개의 픽셀은 완전히 중첩되지 않을 수 있다. 그러나, 선택적으로, 일부 픽셀 쌍은 부분적으로 서로 중첩될 수 있다.
본 개시의 시스템 및 방법은, 예를 들어 검출기 (예를 들어, 도 4a 내지 도 4c의 감지 유닛(106))의 감도를 변경함으로써 노이즈 추정, 완화, 및 가능하다면 삭제를 허용할 수 있다. 도 17은 LIDAR 시스템에서 센서 감도를 변경하기 위한 예시적인 방법(1700)을 도시한다. 방법(1700)은 적어도 하나의 프로세서(예를 들어, 도 1a에 묘사된 바와 같은 LIDAR 시스템(100)의 처리 유닛(108)의 프로세서(118) 및/또는 도 2a에 묘사된 LIDAR 시스템의 처리 유닛(108)의 2개의 프로세서(118))에 의해 수행될 수 있다.
단계 1701에서, 프로세서(118)는 광 플럭스가 시야(예를 들어, 도 1a 및 2a의 시야(120))의 스캔에 걸쳐 변할 수 있는 방식으로 적어도 하나의 광원(예를 들어, 도 1a 의 광원(112), 도 2a의 광원(112)의 레이저 다이오드(202), 및/또는 도 2b의 복수의 광원(102))을 제어한다. 예를 들어, 프로세서(118)는 적어도 하나의 광원으로부터의 펄스의 타이밍을 변경할 수 있다. 대안적으로 또는 동시에, 프로세서(118)는 적어도 하나의 광원으로부터의 펄스의 길이를 변경할 수 있다. 추가적인 예시로서, 프로세서(118)는 적어도 하나의 광원으로부터의 펄스의 크기 (예를 들어, 길이, 또는 폭, 그렇지 않으면 단면적을 변경)를 택일적으로 또는 동시에 변화시킬 수 있다. 또 다른 추가적인 예시에서, 프로세서(118)는 적어도 하나의 광원으로부터 펄스의 진폭 및/또는 주파수를 택일적으로 또는 동시에 변화시킬 수 있다. 또 다른 예시에서, 프로세서(118)는 연속파(CW) 또는 준-CW 발광(예를 들어, 그 진폭, 그 변조, 그 위상 등)의 파라미터를 변경할 수 있다.
일부 실시예에서, 시야(예를 들어, 도 1a 및 도 2a의 시야(120))는 적어도 제1 부분 및 제2 부분을 포함할 수 있다. 예를 들어, 제1 부분 및 제2 부분은 시야에 의해 커버되는 면적의 절반, 4분의 1, 또는 다른 분수만큼 포함할 수 있다. 다른 예시에서, 제1 부분 및 제2 부분은 시야에 의해 커버되는 면적의 대칭 및/또는 분수가 아닌 불규칙한 부분을 포함할 수 있다. 또 다른 예시에서, 제1 부분 및 제2 부분은 시야에 의해 커버되는 면적의 불연속적인 부분을 포함할 수 있다. 일부 예시에서, FOV의 제1 부분은 하나의 FOV 픽셀일 수 있고, FOV의 제2 부분은 다른 픽셀일 수 있다. 또 다른 예시에서, FOV의 제1 부분은 다수의 FOV 픽셀을 포함할 수 있고, FOV의 제2 부분은 동일한 개수의 픽셀의 상이한 그룹을 포함할 수 있다. 일부 실시예에서, FOV의 제1 부분 및 제2 부분은 부분적으로 중첩될 수 있다. 대안적으로, 제1 부분과 제2 부분은 완전히 중첩되지 않을 수 있다.
단계 1701은 시야를 스캔하기 위해 적어도 하나의 광 편향기(예를 들어, 도 1a의 광 편향기(114), 도 2a의 편향기(114A) 및/또는 편향기(114B), 및/또는 도 2b의 일방향 편향기(114))를 제어하는 것을 더 포함할 수 있다. 예를 들어, 프로세서(118)는 시야를 스캔하기 위해 적어도 하나의 광 편향기의 기계적 이동을 야기한다. 대안적으로 또는 동시에, 프로세서(118)는 시야를 스캔하기 위해 적어도 하나의 편향기에서 압전기 또는 열전기 변화를 유도할 수 있다.
일부 실시예에서, 시야의 단일 스캐닝 사이클은 적어도 하나의 편향기를 이동하는 것을 포함할 수 있어서, 스캐닝 사이클 동안 적어도 하나의 광 편향기가 복수의 상이한 순간 위치에 위치된다 (예를 들어, 편향기가 제어되어 LIDAR FOV의 스캔 동안 편향기가 하나의 순간 위치로부터 또는 하나의 순간 위치를 통해 다른 순간 위치로 이동됨). 예를 들어, 적어도 하나의 광 편향기는 스캐닝 사이클 동안 복수의 위치 중 하나로부터 다른 위치로 (선택적으로, 추가적인 위치들 및/또는 반복과 함께) 연속적으로 또는 비 연속적으로 이동될 수 있다.
이러한 실시예에서, 프로세서(118)는 적어도 하나의 광 편향기 및 적어도 하나의 광원을 조정할 수 있어서, 적어도 하나의 광 편향기가 특정 순간 위치에 위치될 때, 광 빔은 적어도 하나의 광 편향기에 의해 적어도 하나의 광원으로부터 시야를 향하여 편향되고, 시야의 물체로부터의 반사는 적어도 하나의 광 편향기에 의해 적어도 하나의 센서를 향하여 편향된다. 이에 따라, 적어도 하나의 광 편향기는 시야를 향하여 광 빔을 지향할 수 있고, 또한 시야로부터 반사를 수신할 수도 있다. 예를 들어, 도 1a, 도 2b, 및 도 2c는 편향기가 시야를 향하여 광 빔을 지향하고, 시야로부터 반사를 수신하는 예시를 묘사한다. 특정 양태에서, 반사는 시야를 향하여 지향된 광 빔에 의해 야기될 수 있다. 다른 실시예에서, 적어도 하나의 광원으로부터의 광 빔은 시야로부터의 반사를 수신하는 적어도 하나의 다른 광 편향기로부터 분리된 적어도 하나의 광 편향기에 의해 시야를 향하여 지향될 수 있다. 예를 들어, 도 2a는 하나의 편향기가 시야를 향하여 광 빔을 지향하고, 별개의 편향기가 시야로부터 반사를 수신하는 예시를 묘사한다.
단계 1703에서, 프로세서(118)는 적어도 하나의 센서 (예를 들어, 도 4a 내지 도 4c의 감지 유닛(106)) 로부터의 신호를 픽셀 단위 기준으로 수신한다. 예를 들어, 신호는 주변광 및 시야의 물체에 의해 반사된 적어도 하나의 광원으로부터의 광 중 적어도 하나를 나타낼 수 있다. 전술한 바와 같이, 특정 양태, 예를 들어 물체가 어둡고 및/또는 멀리있는 양태에서, 주변광은 반사된 광보다 신호의 더 많은 부분을 차지할 수 있다. 다른 양태에서, 예를 들어 물체가 밝고 및/또는 가까이 있는 양태에서, 주변광은 반사된 광보다 신호의 더 작은 부분을 차지할 수 있다.
수신 신호들은 적어도 하나의 센서와 연관된 노이즈와 결합된 시야의 물체에 의해 반사된 적어도 하나의 광원으로부터의 광 및 주변광 중 적어도 하나를 추가로 나타낼 수 있다. 예를 들어, 다크 노이즈, 증폭 노이즈, 및/또는 그와 유사한 것들이 주변광 및/또는 반사된 광과 신호에서 결합될 수 있다. 특히, 적어도 하나의 센서로부터의 신호는 증폭 전자 장치로부터 비롯되는 노이즈를 포함할 수 있다.
수신 신호는 시야의 다양한 부분과 연관될 수 있다. 예를 들어, 적어도 하나의 신호는 시야의 제1 부분과 연관될 수 있는 반면, 적어도 하나의 다른 신호는 시야의 제2 부분과 연관될 수 있다. 일부 실시예에서, 각각의 신호는 시야의 특정 부분과 연관될 수 있다. 다른 실시예에서, 일부 및/또는 모든 신호는 (예를 들어, 시야의 일부가 중첩하는 섹션을 갖는 실시예에서) 시야의 다수의 부분과 연관될 수 있다.
일부 실시예에서, 단계(1703)는 상이한 시간에 상이한 픽셀들에 대한 신호를 수신하는 것을 더 포함할 수 있다. 예를 들어, 상기 기술된 바와 같이 만약 적어도 하나의 편향기가 스캐닝 사이클 동안 이동되는 경우, 프로세서(118)는 적어도 하나의 편향기가 특정 순간 위치에 있을 때 의존하는 상이한 시간에 상이한 픽셀에 대응하는 신호를 수신할 수 있다.
단계 1705에서, 프로세서(118)는 시야의 제1 부분과 연관된 신호들 중 적어도 하나의 노이즈를 추정한다. 프로세서(118)는 적어도 하나의 신호에서 노이즈를 추정하기 위해 개별적으로 또는 조합하여 다양한 노이즈 추정 기술을 사용할 수 있다. 노이즈 추정 기술의 예시가 도 18 및 도 19를 참조하여 이하에서 기술된다.
일부 실시예에서, 프로세서(118)는 적어도 하나의 광 편향기의 단일 위치와 연관된 반사 (각 부분은 시야의 10%, 5%, 1%, 0.1% 등보다 작을 수 있음)에 기초하여 시야의 각 부분에서의 노이즈를 추정할 수 있다. 예를 들어, 프로세서(118)는 추정된 노이즈를 단일 위치로부터 동일한 부분의 다른 위치로 추론할 수 있다. 일부 실시예에서, 추론법은 추정된 잡음을 단일 위치로부터 다른 위치로 복사하는 것을 포함할 수 있다.
다른 실시예에서, 추론법은 다른 위치에 대해 추정된 노이즈의 출력을 생성하기 위해 단일 위치로부터 추정된 노이즈에 하나 이상의 함수를 적용하는 것을 포함할 수 있다. 예를 들어, 함수는 다른 위치들과 단일 위치 사이의 거리, 단일 위치와 다른 위치들의 예측된 밝기 및/또는 실제 밝기 사이의 차이, 단일 위치에서의 현재 추정된 노이즈 및 다른 위치들에서의 이전에 추정된 노이즈 사이의 차이, 또는 그와 유사한 것에 의존할 수 있다. 이 함수는 다른 위치에 대한 추정치를 직접 출력할 수 있고, 단일 위치에 대해 추정된 노이즈를 다른 위치에 대한 추정치로 변환하기 위한 조절 계수 (예를 들어, 덧셈, 뺄셈, 곱셈 등)를 출력할 수 있으며, 또는 다른 위치 또는 조절 계수에 대한 추정치를 생산하기 위해 단일 위치에 대한 추정된 노이즈와 컨벌루션되거나 그렇지 않으면 다른 방식으로 연산될 수 있다. 마찬가지로, 일부 예시에서, 프로세서(118)는 예를 들어 FOV 부분을 둘러싸는 위치들로부터의 노이즈 추정치들을 평균화함으로써, FOV의 복수의 다른 부분들의 노이즈 추정치 (또는 원래 신호들)에 기초하여 단일 위치에 대한 노이즈를 추정할 수 있다.
일부 실시예에서, 각 부분은 시야의 10%보다 적게 포함할 수 있다. 특정 양태에서, 각 부분은 시야의 5%보다 적게 포함할 수 있다. 예를 들어, 각 부분은 시야의 1%보다 적게 포함할 수 있다. 또 다른 예시로서, 각 부분은 시야의 0.1%보다 적게 포함할 수 있다.
대안적으로 또는 동시에, 프로세서(118)는 적어도 하나의 이전 스캐닝 사이클에서 수신된 시야의 특정 부분과 연관된 신호의 비교에 기초하여 시야의 특정 부분과 연관된 신호의 노이즈를 추정할 수 있다. 예를 들어, 프로세서(118)는 적어도 하나의 이전 신호에 하나 이상의 함수를 적용하여 다른 위치에 대한 추정된 노이즈의 출력을 생성할 수 있다. 예를 들어, 함수는 이전 신호와 현재 신호 사이의 시간, 이전 신호와 현재 신호의 예측된 밝기 및/또는 실제 밝기 사이의 차이, 이전 신호의 이전에 추정된 노이즈, 또는 그와 유사한 것에 의존할 수 있다. 이 함수는 현재 신호에 대한 노이즈 추정치를 직접 출력할 수 있고, 이전 신호에 대해 추정된 노이즈를 현재 신호에 대한 추정치로 변환하기 위한 조절 계수 (예를 들어, 덧셈, 뺄셈, 곱셈 등)를 출력할 수 있으며, 또는 현재 신호 또는 조절 계수에 대한 추정치를 생산하기 위해 이전 신호에 대한 추정된 노이즈와 컨볼루션되거나 그렇지 않으면 다른 방식으로 작동할 수 있다.
단계 1707에서, 프로세서(118)는 시야의 제1 부분의 노이즈의 추정에 기초하여 시야의 제1 부분과 연관된 반사에 대한 센서 감도를 변경할 수 있다. 예를 들어, 센서 감도는 신호 임계값에 기초할 수 있다. 일부 실시예에서, 프로세서(118)는 제2 부분에 대한 신호 임계값에 비해 제1 부분에 대한 신호 임계값을 증가시킬 수 있다. 프로세서(118)는, 예를 들어 제1 부분에서의 노이즈 추정치가 제2 부분에서의 노이즈 추정치보다 높을 때 그렇게 할 수 있다. 따라서, 제1 부분의 신호 임계값이 더 높을수록 필터링 될 수 있는 추정된 노이즈가 더 많다.
일부 실시예에서, 센서 감도는 센서의 검출기(들)에서 변경될 수 있다. 대안적으로 또는 동시에, 센서 감도는 프로세서(118)에서 변경될 수 있다. 예를 들어, 신호 임계값은 전처리된 데이터 또는 후처리된 데이터에 관하여 변경될 수 있다. 일 예시에서, 센서는 디지털 샘플링 (예를 들어, 시간의 진폭 등)으로 변환될 수 있는 아날로그 데이터를 출력할 수 있다. 디지털 샘플링을 (도 18과 관련하여 후술되는 바와 같이) 예상 신호를 나타내는 함수에 상관 (예를 들어, 컨벌루션 등) 시킨 후에, 신호 임계값은 상관의 출력에 적용될 수 있다.
일부 실시예에서, 프로세서(118)는 프로세서(118)의 작동 파라미터를 변경함으로써 FOV의 일부와 연관된 반사에 대한 센서 감도를 변경할 수 있다. 이러한 경우의 작동 파라미터의 변경은 검출의 감도를 적어도 하나의 센서에 의해 습득된 노이즈 레벨 및/또는 신호 레벨로 변경함으로써 센서 감도를 수정할 수 있다. 예를 들어, 이전 문단에서 논의된 바와 같이, 프로세서(118)는 후컨벌루션 임계값을 변화시킴으로써 센서 감도 (예를 들어, 단계 1707 및/또는 단계 1711에서)를 변경할 수 있다. 그러나, 프로세서(118)의 다른 작동 파라미터는 센서 감도를 변경하기 위해 노이즈 레벨에 응답하여 프로세서(118)에 의해 추가적으로 또는 대안적으로 변경될 수 있다.
추가적인 예시로서, 프로세서(118)는 다크 노이즈 및/또는 증폭 노이즈로 인해 노이즈의 레벨을 추정할 수 있고, 센서 감도를 변경시켜 감도가 추정된 노이즈의 레벨보다 높은 최소 임계값을 갖도록 할 수 있다. 이에 따라, 추정된 노이즈는 삭제되거나 제거되지 않는다면 최소 임계값을 적절히 설정함으로써 최소화될 수 있다.
일부 실시예에서, 프로세서(118)는 적어도 하나의 광 편향기의 단일 순간 위치에 대응하는 시야의 일부 (예를 들어, 제1 부분)와 연관된 반사에 대한 센서 감도를 변경할 수 있다. 예를 들어, 프로세서(118)는 적어도 하나의 광 편향기가 특정 순간 위치에 있는 시간 동안에만 센서 감도를 변경할 수 있다. 다른 실시예에서, 프로세서(118)는 적어도 하나의 광 편향기의 복수의 순간 위치에 대응하는 시야의 일부 (예를 들어, 제1 부분)와 연관된 반사에 대한 센서 감도를 변경할 수 있다. 예를 들어, 프로세서(118)는 적어도 하나의 광 편향기가 복수의 순간 위치들 중 상이한 위치에 있는 변화하는 시간 동안 센서 감도를 변경할 수 있다. 특정 양태에서, 복수의 순간 위치들에 대한 변경된 감도는 동일할 수 있다 - 즉, 프로세서(118)는 적어도 하나의 광 편향기가 복수의 순간 위치들 중 하나에 있는 시간 동안 같은 방식으로 센서 감도를 변경할 수 있음 -. 다른 양태에서, 변경된 감도는 복수의 순간 위치에 대해 상이할 수 있다 - 즉, 프로세서(118)는 적어도 하나의 광 편향기가 복수의 순간 위치들 중 하나에 있는 시간 동안, 상기 적어도 하나의 광 편향기가 상기 복수의 순간 위치들 중 다른 하나에 있을 때와는 다른 방식으로 센서 감도를 변경할 수 있음 -.
대안적으로 또는 동시에, 단계 1707는 제1 부분 및 제2 부분과 연관된 반사에 대한 센서 감도를 개별적으로 변경하는 것을 더 포함할 수 있어서, 상기 제1 부분 및 상기 제2 부분을 향하여 투영된 동일한 광량에 대해 상기 제1 부분과 연관된 검출 거리는 상기 제2 부분과 연관된 검출 거리보다 더 크다(예를 들어, 적어도 50%의 계수 만큼). 따라서, 검출 거리를 증가시키기 위해 제1 부분의 센서 감도가 증가(및/또는 최소 임계값이 감소되거나 및/또는 최대 임계값이 증가)될 수 있다.
대안적으로 또는 동시에, 단계 1707는 제1 부분 및 제2 부분과 연관된 반사에 대한 센서 감도를 개별적으로 변경하는 것을 더 포함할 수 있어서, 상기 제1 부분 및 상기 제2 부분을 향하여 투영된 동일한 광량에 대해 제1 부분과 연관된 해상도가 제2 부분과 연관된 해상도보다 높다. 따라서, 해상도를 증가시키기 위해 제1 부분의 센서 감도가 증가(및/또는 최소 임계값이 감소되거나 및/또는 최대 임계값이 증가)될 수 있다.
일부 실시예에서, 단계 1707은 단계 1705가 완료된 후에만 수행될 수 있다. 또한, 일부 실시예에서, FOV의 일부 (예를 들어, 단계 1707 및 1711)에 대한 센서 감도의 변경은 FOV의 임의의 다른 부분에 대한 임의의 측정 없이 변경이 기초하는 FOV의 각 부분(예를 들어, 1705 및 1709 각각)에 대한 대응하는 노이즈 추정 이후에 수행될 수 있다. 유사하게, 일부 실시예에서, FOV의 일부 (예를 들어, 단계 1707 및 1711)에 대한 센서 감도의 변경은 적어도 하나의 편향기를 또다른 순간 위치로 이동시키지 않고 변경이 기초하는 FOV의 각 부분 (예를 들어, 1705 및 1709 각각)에 대한 대응하는 노이즈 추정 후에 수행될 수 있다.
단계 1709에서, 프로세서(118)는 시야의 제2 부분과 연관된 신호의 적어도 일부에서 노이즈를 추정한다. 상술한 바와 같이, 프로세서(118)는 신호들의 적어도 일부에서 노이즈를 추정하기 위해 개별적으로 또는 조합하여 다양한 노이즈 추정 기술들을 사용할 수 있다. 프로세서(118)는 단계 1705 및 1709에서 동일한 노이즈 추정 기술(들)을 사용할 수 있거나 단계 1705 및 1709에서 상이한 노이즈 추정 기술(들)을 사용할 수 있다. 특정 양태에서, 프로세서(118)는 특정 노이즈 추정 기술이 제1 부분에 더 적합하고 다른 노이즈 추정 기술이 제2 부분에 더 적합하다고 결정할 수 있다. 예를 들어, 프로세서(118)는, 예를 들어, 제2 부분보다 어두운 제1 부분으로 인하여 증폭이 더 높기 때문에, 제1 부분이 증폭으로부터 더 큰 노이즈 기여도를 갖는 것으로 결정할 수 있다. 이러한 예시에서, 프로세서(118)는 더 큰 증폭 노이즈를 설명하기 위해 제1 부분의 노이즈를 추정하는 다른 기술을 사용할 수 있다. 노이즈 추정 기술의 예시가 도 18 및 도 19를 참조하여 이하에서 기술된다. 선택적으로, 단계 1709에서 FOV의 제2 부분에서의 노이즈의 추정은 단계 1705의 결과에 의존할 수 있다. 대안적으로, FOV의 제1 부분 및 제2 부분 (각각 단계 1705 및 1709)에서의 노이즈의 추정은 서로 완전히 관련이 없고 서로 독립적일 수 있다.
일부 실시예에서, 프로세서(118)는 단계 1705 및/또는 단계 1709에서 생성된 노이즈 추정치를 다른 시스템 (예를 들어, 외부 서버)에 보고할 수 있다. 또한, 프로세서(118)는 프로세서(118)에 의해 획득된 각각의 노이즈 추정치에 기초하여 하나 이상의 노이즈 관련 파라미터 및/또는 하나 이상의 노이즈 표시 파라미터를 보고할 수 있다. 각각의 파라미터는 FOV의 각각의 부분에 또는 FOV의 각각의 부분을 포함하는 FOV의 더 큰 부분에 특정될 수 있다. 보고된 파라미터의 예시로는 노이즈 추정치, 하나 이상의 감도 설정치, 검출 거리, 검출 품질 인디케이터(indicator) 등이 있지만, 이에 한정되는 것은 아니다. 일부 실시예에서, 보고는 또한 단계 1707 및/또는 단계 1711로부터의 변경된 센서 감도를 나타내는 하나 이상의 파라미터를 포함할 수 있다.
단계 1711에서, 프로세서(118)는 시야의 제2 부분의 노이즈 추정에 기초하여 시야의 제2 부분과 연관된 반사에 대한 센서 감도를 변경한다. 예를 들어, 센서 감도는 신호 임계값을 포함할 수 있다. 일부 실시예에서, 프로세서(118)는 제1 부분에 대한 신호 임계값에 비해 제2 부분에 대한 신호 임계값을 증가시킬 수 있다. 프로세서(118)는, 예를 들어, 제2 부분에서의 노이즈 추정치가 제1 부분에서의 노이즈 추정치보다 높을 때 그렇게 할 수 있다. 따라서, 제1 부분에서의 더 높은 신호 임계값은 추정된 노이즈의 더 많은 부분을 필터링할 수 있다.
예시로서, 프로세서(118)는 다크 노이즈 및/또는 증폭 노이즈로 인해 노이즈의 레벨을 추정할 수 있고, 센서 감도를 변경시켜 감도가 추정된 노이즈의 레벨보다 높은 최소 임계값을 갖도록 할 수 있다. 따라서, 추정된 노이즈는 삭제되거나 제거되지 않는다면 최소 임계값을 설정함으로써 최소화될 수 있다. 제2 부분과 연관된 반사에 대한 변경된 센서 감도는 제1 부분과 연관된 반사에 대한 변경된 센서 감도와 다를 수 있다.
일부 실시예에서, 전술한 바와 같이, 프로세서(118)는 적어도 하나의 광 편향기의 단일 순간 위치에 대응하는 시야의 일부(예를 들어, 제 2 부분)와 연관된 반사에 대한 센서 감도를 변경할 수 있다. 다른 실시예에서, 전술한 바와 같이, 프로세서(118)는 적어도 하나의 광 편향기의 복수의 순간 위치에 대응하는 시야의 일부(예를 들어, 제2 부분)와 연관된 반사에 대한 센서 감도를 변경할 수 있다.
일부 실시예에서, 프로세서(118)는 제1 스캐닝 사이클에서 수신된 제1 부분과 연관된 제1 반사에 대한 센서 감도를 변경할 수 있고, 제2 스캐닝 사이클에서 제2 부분과 연관된 제2 반사에 대한 센서 감도를 변경할 수 있다. 예를 들어, 단계 1705 및 단계 1707은 제1 스캐닝 사이클에서 수행될 수 있고, 단계 1709 및 단계 1711은 제2 스캐닝 사이클에서 수행될 수 있다. 특정 양태에서, 제1 스캐닝 사이클은 시간적으로 제2 스캐닝 사이클 전에 발생할 수 있다. 대안적으로, 제2 스캐닝 사이클은 시간적으로 제1 스캐닝 사이클 전에 발생할 수 있다.
다른 실시예에서, 프로세서(118)는 제1 부분과 연관된 제1 반사 및 제2 부분과 연관된 제2 반사에 대한 센서 감도를 변경할 수 있으며, 제1 및 제2 반사는 단일 스캐닝 사이클에서 수신된다. 예를 들어, 단계 1705 및 단계 1707은 단계 1709 및 단계 1711과 동일한 스캐닝 사이클에서 수행될 수 있다.
단계 1707 및/또는 단계 1711은, 제1 부분에서 제1 거리에서 외부 광원을 검출한 후 제2 부분에서 제1 거리보다 큰 제2 거리에서 물체의 검출을 가능하게 하도록 상기 제1 부분 및 상기 제2 부분과 연관된 반사에 대해 센서 감도를 상이하게 변경하는 것을 더 포함한다. 따라서, 제2 부분의 노이즈를 초래할 수 있는 제1 부분의 외부 광원을 보상하기 위해 제2 부분의 센서 감도가 증가(및/또는 최소 임계값이 감소 및/또는 최대 임계값이 감소)될 수 있다. 다른 예시에서, 제1 부분의 제1 거리에서 물체를 검출한 후에, 프로세서(118)는 제2 부분의 물체를 넘어서 검출을 가능하게 하기 위해 센서 감도를 변경할 수 있다. 또 다른 예시에서, 프로세서(118)는 제1 부분의 증가된 노이즈로 인해 제1 부분에서 볼 수 없었던 제2 부분에서 물체의 검출을 가능하게 하기 위해 센서 감도를 변경할 수 있다.
추가 예시로서, 단계 1707 및/또는 단계 1711은, 제2 부분에서 제1 거리에서 외부 광원을 검출한 후 제1 부분에서 제1 거리보다 큰 제2 거리에서 물체의 검출을 가능하게 하도록 상기 제1 부분 및 상기 제2 부분과 연관된 반사에 대해 센서 감도를 상이하게 변경하는 것을 더 포함한다. 따라서, 제1 부분의 노이즈를 초래할 수 있는 제2 부분의 외부 광원을 보상하기 위해 제1 부분의 센서 감도가 증가될 수 있다.
대안적으로 또는 동시에, 단계 1711은 제1 및 제2 부분과 연관된 반사에 대한 센서 감도를 개별적으로 변경하는 것을 더 포함하여서, 제1 부분 및 제2 부분을 향하여 투영된 동일한 광량에 대해 제2 부분과 연관된 검출 거리는 제1 부분과 연관된 검출 거리보다 크다. 따라서, 검출 거리를 증가시키기 위해 제2 부분의 센서 감도가 증가(및/또는 최소 임계값이 감소 및/또는 최대 임계값이 증가)될 수 있다.
대안적으로 또는 동시에, 단계 1707 및 단계 1711은 제1 부분 및 제2 부분과 연관된 반사에 대한 센서 감도를 개별적으로 변경하는 것을 더 포함하여서, 제1 부분 및 제2 부분을 향하여 투영된 동일한 광량에 대해 제2 부분과 연관된 해상도는 제1 부분과 연관된 해상도보다 더 높을 수 있다. 따라서, 해상도를 증가시키기 위해 제2 부분에 관한 센서 감도가 증가(및/또는 최소 임계값이 감소 및/또는 최대 임계값이 증가)될 수 있다.
프로세서(118)가 감도 설정을 변경한 (예를 들어, 단계 1707 및/또는 1711에서) FOV의 각 부분에 대해, 프로세서(118)는 또한 변경된 감도 설정을 사용하여 FOV의 각각의 부분에서 물체를 검출할 수 있다. 프로세서(118)가 감도 설정을 변경한 FOV의 각 부분에 대해서, 프로세서(118)는 또한 FOV에 포함된 장면의 모델(예를 들어, 포인트 클라우드 모델과 같은 2D 또는 3D 모델, 등)에 데이터 포인트를 생성할 수 있다.
방법(1700)은 추가적인 단계들을 포함할 수 있다. 예를 들어, 방법(1700)은 제1 부분의 노이즈 추정에 기초하여 제1 부분 및 제2 부분과 다른 시야의 제3 부분과 연관된 반사에 대한 센서 감도를 변경하는 것을 더 포함할 수 있다. 예를 들어, 전술한 바와 같이, 프로세서(118)는 추정된 노이즈를 제1 부분으로부터 제3 부분으로 추론할 수 있다. 대안적으로, 방법(1700)은 제1 부분 및 제2 부분의 노이즈 추정에 기초하여 제1 부분 및 제2 부분과 다른 시야의 제3 부분과 연관된 반사에 대한 센서 감도를 변경하는 것을 더 포함할 수 있다.
일부 실시예들에서, 추론법은 추정된 노이즈를 제1 부분 및/또는 제2 부분으로부터 제3 부분으로 복사하는 것을 포함할 수 있다. 다른 실시예에서, 추론법은 제3 부분에 대해 추정된 노이즈의 출력을 생성하기 위해 제1 부분 및/또는 제2 부분으로부터 추정된 노이즈에 하나 이상의 함수를 적용하는 것을 포함할 수 있다. 예를 들어, 함수는 제1 부분 및/또는 제2 부분과 제3 부분 사이의 거리, 제1 부분 및/또는 제2 부분과 제3 부분의 실제 및/또는 예측된 밝기 사이의 차이, 제3 부분에서 이전에 추정된 노이즈와 제1 부분 및/또는 제2 부분에서 현재 추정된 노이즈와의 차이, 또는 그와 유사한 것에 의존할 수 있다. 함수는 제3 부분에 대한 추정치를 직접 출력할 수 있고, 제1 부분 및/또는 제2 부분에 대한 추정된 노이즈를 제3 부분에 대한 추정치로 변환하기 위한 조절 계수 (예를 들어, 덧셈, 뺄셈, 곱셈 등)를 출력할 수 있으며, 또는 제3 부분 또는 조절 계수에 대한 추정치를 생성하기 위해 제1 부분 및/또는 제2 부분에 대한 추정된 노이즈와 컨벌루션되거나 그렇지 않으면 다른 방식으로 작동할 수 있다.
센서 감도를 변경하는 것 이외에도, 프로세서(118)는 또한 FOV의 각 부분에서의 노이즈의 추정에 기초하여 FOV의 부분에 대해 적어도 하나의 광원의 하나 이상의 작동 특성을 변경할 수도 있다. 예를 들어, 프로세서(118)는 제1 부분으로 지향된 광 플럭스가 시야의 적어도 하나의 다른 부분으로 지향된 광 플럭스보다 커지도록 제1 부분과 연관된 광원 파라미터(예를 들어, 펄스 타이밍, 펄스 길이, 펄스 크기, 펄스 진폭, 펄스 주파수 및/또는 이와 유사한 것)를 변경할 수 있다. 대안적으로, 프로세서(118)는 제1 부분에 지향된 광 플럭스가 시야의 적어도 하나의 다른 부분으로 지향된 광 플럭스보다 작도록 제1 부분과 연관된 광원 파라미터를 변경할 수 있다. 프로세서(118)는 단계 1705 및/또는 단계 1709의 노이즈 추정에 기초하여 광원 파라미터를 변경할 수 있다. 예를 들어, 프로세서(118)는 제1 부분으로부터의 반사가 적은 노이즈를 포함하기 때문에 제1 부분으로 지향되는 광 플럭스가 감소될 수 있다고 결정할 수 있다. 추가 예시로서, 프로세서(118)는 제1 부분으로의 반사가 더 많은 노이즈를 포함하기 때문에 제1 부분으로 지향되는 광 플럭스가 증가될 수 있다고 결정할 수 있다. 따라서, 개별적으로 또는 센서 감도를 변경하는 것과 함께, 프로세서(118)는 시야의 부분으로 지향되는 광 플럭스를 변화시킴으로써 노이즈를 더 설명할 수 있다.
추가 예시로서, 프로세서(118)는 제2 부분을 향하여 투영되는 광량에 비해 제1 부분을 향하여 투영되는 광량을 증가시킬 수 있다. 프로세서(118)는, 예를 들어, 제1 부분에서의 노이즈 추정치가 제2 부분에서의 노이즈 추정치보다 높을 때 그렇게 할 수 있다. 전술한 바와 같이, 따라서, 프로세서(118)는 투영된 광량을 변화시킴으로써 노이즈를 설명할 수 있다. 대안적으로, 프로세서(118)는 제2 부분을 향하여 투영되는 광량에 비해 제1 부분을 향하여 투영되는 광량을 감소시킬 수 있다. 프로세서(118)는, 예를 들어, 제1 부분에서의 노이즈 추정치가 제2 부분에서의 노이즈 추정치보다 높을 때 그렇게 할 수 있다. 전술한 바와 같이, 따라서, 프로세서(118)는 투영된 광량을 변화시킴으로써 노이즈를 설명할 수 있다.
많은 잡음 추정 기술이 도 17의 방법(1700)과 함께 사용될 수 있다. 도 18은 예상 신호를 추정하는 기능을 가지는 수신 신호의 예시를 도시한다. 도 18에 도시된 바와 같이, 수신 신호(1801)는 수신된 노이즈를 포함하는 시야의 부분에 대한 총 신호를 나타낸다. 수신 신호(1801)는 이산화된 측정치이며, 따라서 기울기의 불연속 점을 가지는 함수로서 표현된다.
도 18에 더 도시된 바와 같이, 함수(1803)는 노이즈가 없는 예상 신호의 추정을 나타낼 수 있다. 예를 들어, 함수(1803)는 과거의 측정치 및/또는 측정되고 있는 알려진 속성들에 기초하여 개발될 수 있다. 예를 들어, 함수(1803)는 시야의 부분에서 이전에 수신 신호들 및/또는 시야의 부분에 있는 물체들의 속성들에 기초하여 프로세서(118)에 의해 발전될 수 있다 (예를 들어, 물체들의 알려진 위치, 물체들의 알려진 밝기 등). 프로세서(118)는 이전에 수신 신호들에 기초하여 물체들의 속성들을 유도할 수 있다.
노이즈를 설명하기 위해 수신 신호(1801)를 조절하기 위해, 프로세서(118)는 수신 신호(1801)를 함수(1803)에 적합하게 할 수 있다. 다른 실시예에서, 함수(1803)는 노이즈를 제거하기 위해 수신 신호(1801)와 컨벌루션되거나 그렇지 않으면 작동할 수 있는 함수를 나타낼 수 있다.
도 19는 예상 신호를 추정하기 위한 함수를 갖는 수신 신호의 일 예시를 묘사한다. 도 19에 도시되고, 도 18과 유사하게, 수신 신호(1901)는 수신된 노이즈를 포함하는 총 신호를 나타낸다. 수신 신호(1901)는 이산화된 측정치이며, 따라서 기울기의 불연속 점을 가지는 함수로서 표현된다.
도 19에 더 도시된 바와 같이, 함수(1903)는 예상 노이즈의 추정을 나타낼 수 있다. 예를 들어, 함수(1903)는 과거의 측정 및/또는 적어도 하나의 센서의 알려진 속성들에 기초하여 개발될 수 있다. 예를 들어, 함수(1903)는 시야의 부분에서 이전에 수신된 신호 및/또는 적어도 하나의 센서의 속성 (예를 들어, 알려진 다크 노이즈, 알려진 증폭 노이즈 등)에 기초하여 프로세서(118)에 의해 개발될 수 있다. 프로세서(118)는 제조 사양 및/또는 이전 측정치에 기초하여 적어도 하나의 센서의 속성을 유도할 수 있다.
노이즈를 설명하기 위해 수신 신호(1901)를 조절하기 위해, 프로세서(118)는 수신 신호(1901)로부터 함수(1903)를 뺄 수 있다. 다른 실시예에서, 함수(1903)는 수신 신호(1901)로부터 노이즈를 추정하기 위해 수신 신호(1901)와 컨벌루션되거나 그렇지 않으면 작동할 수 있는 함수를 나타낼 수 있다.
본 개시와 일치하는 시스템 및 방법은 임의의 적절한 노이즈 추정 기술을 포함할 수 있으며, 도 18 및 도 19의 예시들에 한정되지 않는다.
관심 영역의 검출 향상을 위한 LIDAR FOV 내의 가변 플럭스 할당
환경 내 실제 주변 환경으로부터 레이저 빔 반사를 검출함으로써, LIDAR 시스템(100)은 LIDAR 시스템의 FOV 내의 환경에서 물체의 3차원 재구성을 생성할 수 있다. 이러한 LIDAR 시스템은 광범위한 기술에 걸친 적용을 가질 수 있다. 그러한 많은 기술 중 하나는 자율 및 반자율 차량 분야이다. 자율 주행 기술에 대한 관심이 계속 높아짐에 따라, LIDAR 시스템은 자율 주행 차량의 작동에 중요한 구성 요소로 점점 더 주목받고 있다. LIDAR 시스템이 자동차 산업에 채택되기 위해서, 시스템은 주변에 있는 물체의 재구성을 신뢰할 수 있게 제공해야 한다. 따라서, LIDAR 시스템의 작동 능력의 개선은 자율 운전의 실현에 중요한 기여자로서 LIDAR를 강화시킬 수 있다. 이러한 개선은 스캐닝 해상도의 증가, 검출 범위의 증가, 및/또는 수신기의 감도 증가를 포함할 수 있다. 이러한 성능 이득은 고 에너지 레이저의 사용을 통해 실현될 수 있다. 그러나 현재 고 에너지 레이저의 사용은, 비용, 자동차 환경에서의 작동 온도, LIDAR 시스템의 최대 조명 전력은 LIDAR 시스템을 안구에 안전하게 (예를 들어, 투영된 발광이 안구에 흡수될 때 발생할 수 있는 망막 및 눈의 다른 부분에 대한 손상의 가능성을 피하도록) 만들 필요에 의해 제한된다는 점과 같은 상이한 이유들로 비현실적일 수 있다. 따라서, 안구 안전 규정을 준수하는 LIDAR 시스템을 필요로 하지만, 그와 동시에 통합된 기술 플랫폼 (예를 들어, 자율 주행 차량 등)에 대한 시스템의 유용성을 향상시키는 성능 특성을 제공하는 것을 필요로 한다.
일반적으로, 개시된 LIDAR 시스템 및 방법은 안구 안전 규정을 준수하면서 시스템 성능을 개선시킬 수 있다. 예를 들어, LIDAR 시스템의 시야를 가로지르는 가변 광 전력의 할당을 통해, 개시된 시스템은 검출 품질의 개선 및 관심 영역(region of interest, ROI)에서 후속하는 재구성의 개선을 보여줄 수 있다. 특정 ROI의 관심 레벨에 기초하여 시야에 전력을 할당함으로써, 심지어 ROI로부터 고품질, 유용한 데이터를 유지하면서도 또한 시스템의 효율성을 향상시킬 수 있다. 또한, FOV를 ROI의 상이한 레벨로 분리하고 특정 ROI에 대한 관심의 레벨에 기초하여 시야에 전력을 할당하는 것은 많은 장점을 생기게 할 수 있다. 예를 들어, LIDAR 시스템은 더 낮은 관심 면적에서 광 투영 및 검출 자원의 소비를 피함으로써 광 버짓을 보다 효율적으로 활용할 수 있다. 또한, 주변 환경(예를 들어, 다른 LIDAR 시스템 또는 거리의 보행자)의 방해를 줄일 수도 있다. 더 나아가, 결과를 준비하고 분석하는 계산상의 복잡성을 단순화할 수 있으며, 그와 연관된 비용을 줄일 수도 있다. 관심 영역은 LIDAR FOV의 모든 영역 또는 서브 영역을 구성할 수 있다. 일부 경우, ROI는 LIDAR FOV의 직사각형 영역 또는 임의의 다른 형태를 갖는 FOV의 영역을 포함하도록 결정될 수 있다. 일부 실시예에서, ROI는 LIDAR FOV에 걸쳐 불연속적인 세그먼트를 포함할 수 있는 불규칙한 패턴으로 확장될 수 있다. 추가적으로, ROI는 FOV의 임의의 특정 축에 맞추어 정렬될 필요는 없지만, 오히려 FOV에 관하여 자유 형식 방식으로 정의될 수 있다.
개시된 실시예와 일치하여, 도 22에서, LIDAR 시스템(100)은 예를 들어 처리 유닛(108) 내에 적어도 하나의 프로세서(118)를 포함할 수 있다. 적어도 하나의 프로세서(118)는 광 세기가 적어도 하나의 광원으로부터의 광을 사용하여 시야(120)의 스캔에 걸쳐 변화할 수 있는 방식으로 적어도 하나의 광원(102)을 제어할 수 있다. 적어도 하나의 프로세서(118)는 또한 적어도 하나의 광 편향기(114)를 제어하여 시야(120)를 스캔하기 위해 적어도 하나의 광원으로부터의 광을 편향시킬 수 있다. 또한, (예를 들어, 도 3에 도시된 바와 같이) 일부 실시예에서, 적어도 하나의 광 편향기(114)는 피봇 가능한 MEMS 미러(300)를 포함할 수 있다. 적어도 하나의 프로세서(118)는 시야(120)에서 적어도 하나의 별개의 관심 영역의 식별을 획득할 수 있다. 그 다음에, 적어도 하나의 프로세서(118)는 제1 스캐닝 사이클에 뒤이어, 적어도 하나의 별개의 관심 영역과 연관된 위치의 적어도 하나의 후속하는 제2 스캐닝 사이클의 광 세기가 적어도 하나의 별개의 관심 영역과 연관된 위치의 제1 스캐닝 사이클의 광 세기보다 높게 하기 위해 다른 영역과 비교하여 적어도 하나의 별개의 관심 영역에 대한 광 할당을 증가시킬 수 있다. 예를 들어, 광 세기는 입체각 당 전력 증가, FOV 부분 대 조사량 증가, 추가적인 광 펄스 방출, 픽셀 당 전력 증가, 단위 시간 당 추가적인 광자 방출, 특정 기간 동안 집계되는 에너지 증가, 생성된 포인트 클라우드 모델에서 데이터 포인트 당 추가적인 광자 방출, 생성된 포인트 클라우드 모델에서 데이터 포인트 당 집계되는 에너지 증가, 또는 증가하는 광 플럭스의 임의의 다른 특성에 의해 증가될 수 있다.
LIDAR 시스템(100)과 같은 개시된 시스템에서, 적어도 하나의 프로세서(118)는 적어도 하나의 광원(112)을 제어할 수 있다. 예를 들어, 적어도 하나의 프로세서(118)는 적어도 하나의 광원(112)이 더 높은 또는 더 낮은 광 플럭스를 생성하게 할 수 있으며, 예를 들어 LIDAR FOV와 연관된 관심 영역의 관심 레벨에 응답하여 생성하게 할 수 있다. (예를 들어, 도로 또는 스카이 라인으로부터 30 미터 떨어진 영역과 같은) 더 낮은 관심을 가지는 시야(120)의 부분들은 낮은 레벨의 광 플럭스로 할당될 수 있거나 심지어 아무런 광 플럭스로도 할당될 수 없다. 그러나, (예를 들어, 보행자 또는 이동하는 차가 포함된 영역과 같은) 더 높은 관심의 다른 영역은 더 높은 광 플럭스 레벨로 할당될 수 있다. 이러한 할당은 관심이 낮은 면적에서 광 투영 및 검출 자원의 소비를 피할 수 있으며, 관심이 더 높은 면적에서 해상도 및 기타 성능 특성을 향상시킬 수 있다. 물체 단위 기준(object-by-object basis)보다는 물체 부분 단위 기준(object-portion by object-portion basis)으로 광 할당을 변경하는 것 또한 가능하다. 예를 들어, 어떤 경우에는 물체의 모서리 위치 (예를 들어, 자동차와 같은 물체의 외부 모서리 또는 엔벨로프(envelope))와 관련하여 잘 정의된 정보를 가지는 것이 더 중요하고 유용할 수 있다. 따라서, 차량의 모서리가 상주하는 FOV 영역을 향하여 더 많은 광 플럭스를 할당하고, 외부 엔벨로프 내부에 상주하는 물체의 부분을 포함하는 FOV 영역을 향하여 더 적은 광 플럭스를 할당하는 것이 바람직할 수 있다. 단지 하나의 예시적인 예시로서, 도 5c에 도시된 바와 같이, 적어도 하나의 프로세서(118)는 물체의 모서리(예를 들어, 도 5c의 좌표 단위 (B, 1), (B, 2), (C, 1), (C, 2)에 있는 둥근 사각형 물체)를 포함하는 FOV 영역을 분석하는데 사용하기 위해 투영된 광의 2개의 광 펄스의 방출을 야기하도록 구성될 수 있다. 한편, 도 5c에 도시된 둥근 사각형 물체 내의 (좌표 (C, 5)에 있는) 중간 영역과 같이 물체의 내부와 연관된 FOV 영역 또는 적어도 검출된 외부 모서리에 의해 정의된 엔벨로프 내에서, 더 적은 광 플럭스가 이들 영역에 공급될 수 있다. 도 5c에 도시된 또다른 예시적인 예시로서, 제1 스캐닝 사이클 후에, 단지 하나의 광 펄스만이 둥근 사각형 형태의 내부 영역에 공급된다. 광 플럭스를 증가시키기 위한 임의의 적절한 기술이 특정 관심 영역에 대해 사용될 수 있다는 것을 유의해야 한다. 예를 들어, 광 플럭스는 추가적인 광 펄스 방출, 광 펄스 또는 더 긴 지속 시간의 연속파 방출, 광 세기 증가 등에 의해 증가될 수 있다.
적어도 하나의 프로세서(118)는, 예를 들어, 편향각을 바꾸기 위해 적어도 하나의 광 편향기(114)의 모션의 다양한 양태(예를 들어, 편향기의 각도 방향, 2개 이상의 축을 따르는 편향기의 회전 각도 등)를 제어할 수 있다. 추가적으로, 적어도 하나의 편향기(118)는 적어도 하나의 편향기(114)의 이동 속도, 적어도 하나의 편향기가 특정 순간 위치에 머물러 있는 시간, 적어도 하나의 편향기의 변환 등을 제어할 수 있다. 적어도 하나의 광 편향기(114)를 제어함으로써, 적어도 하나의 프로세서(118)는 LIDAR 시스템이 원하는 검출 감도의 레벨, 신호 대 노이즈 비율 등으로 시야의 관심 영역을 스캔할 수 있도록 하는 특정한 방식으로 LIDAR FOV 내의 하나 이상의 관심 영역을 향하여 투영된 광을 지향시킬 수 있다. 위에서 언급한 바와 같이, 광 편향기(114)는 피봇 가능한 MEMS 미러(300)를 포함할 수 있고, 적어도 하나의 프로세서 (118)는 MEMS 미러의 편향각, 편향 속도, 유지 시간 등을 제어할 수 있으며, 이들 중 어느 것이든 FOV 범위 및/또는 LIDAR 시스템의 프레임 속도에 영향을 미칠 수 있다. 처리 유닛(108)에 의한 적어도 하나의 광 편향기(114)의 제어는 LIDAR 시스템(100)에 의해 방출된 광의 편향 각 및/또는 FOV 내의 장면으로부터 다시 LIDAR 시스템(100)을 향하여 반사된 광의 편향각을 바꿀 수 있음을 유의해야 한다.
작동하는 동안, 적어도 하나의 프로세서(118)는 시야(120)에서 적어도 하나의 관심 영역의 식별을 획득하거나 그렇지 않으면 결정 또는 식별할 수 있다. 시야(120) 내의 적어도 하나의 관심 영역의 식별은 감지 유닛(106)으로부터 수집된 신호의 분석을 통해 결정될 수 있으며; FOV(120)에서 하나 이상의 물체, 물체 부분, 또는 물체 유형의 검출을 통해 결정될 수 있고; FOV(12)의 스캔 동안 실현되는 임의의 다양한 검출 특성들에 기초하여 결정될 수 있으며; 및/또는 호스트(210)로부터 (직접 또는 간접적으로) 수신된 정보에 기초할 수 있고; 또는 임의의 다른 적합한 기준에 기초할 수 있다.
도 22에 도시된 바와 같이, 처리 유닛(108)은 감지 유닛(106) 및 LIDAR 시스템(100)의 다른 구성 요소로부터 정보를 수신할 수 있을 뿐만 아니라 다양한 다른 시스템으로부터 정보를 수신할 수도 있다. 일부 실시예에서, 처리 유닛(108)은, 예를 들어 GPS(2207), 차량 네비게이션 시스템(2201), 레이더(2203), 다른 LIDAR 유닛(2209), 하나 이상의 카메라(2205), 및/또는 임의의 다른 센서 또는 정보 시스템 중 적어도 하나로부터 입력을 수신할 수 있다. 처리 유닛(108)은 LIDAR 시스템(100)으로부터의 검출 등에 기초하여 FOV(120) 내의 하나 이상의 특정 관심 영역을 결정하는 것에 더하여, 처리 유닛(108)은 또한 GPS(2207), 차량 네비게이션 시스템(2201), 레이더(2203), LIDAR 유닛(2209), 카메라(2205) 등의 하나 이상의 출력에 기초하여 FOV(120)의 하나 이상의 관심 영역을 식별할 수도 있다. 적어도 하나의 관심 영역은 FOV(120)와 연관된 부분, 면적, 섹션, 영역, 서브 영역, 픽셀 등을 포함할 수 있다.
시야(120) 내에서 적어도 하나의 관심 영역의 식별을 획득한 후에, 적어도 하나의 프로세서(118)는 새로운 스캐닝 방식을 결정할 수 있거나, 적어도 하나의 관심 영역에 관한 광 투영 및 후속 검출과 연관된 기존 스캐닝 방식을 바꿀 수 있다. 예를 들어, 적어도 하나의 관심 영역의 식별 이후에, 적어도 하나의 프로세서(118)는 (상술한 바와 같이) 광 투영이기(112)와 연관된 하나 이상의 광원 파라미터를 결정하거나 변경할 수 있다. 예를 들어, 적어도 하나의 프로세서(118)는 특정 관심 영역에 제공할 광 플럭스의 양, 투영할 광 플럭스의 개수, 광 투영의 전력 레벨, 연속파에 대한 투영의 시간, 또는 특정, 식별된 관심 영역에 제공되는 광 플럭스의 양에 잠재적으로 영향을 미치는 임의의 다른 특성을 결정할 수 있다.
적어도 하나의 프로세서(118)는 편향기(114)가 적어도 하나의 관심 영역의 스캔 동안 이동될 수 있는 특정 순간 위치를 결정할 수 있다. 처리 유닛(108)은 또한 결정된 순간 위치들 사이에서 이동하는 편향기(114)에 대한 결정된 순간 위치 및/또는 이동 특성과 연관된 유지 시간을 결정할 수 있다.
LIDAR FOV에서 관심 영역을 식별하기 전에, 일부 실시예에서, 디폴트 광량이 FOV의 스캔 동안 FOV의 각 영역에 투영될 수 있다. 예를 들어, FOV의 모든 부분이 동일한 중요도/우선 순위를 갖는 경우, 디폴트 광량이 FOV의 각 부분에 할당될 수 있다. FOV의 각 영역에 디폴트 광량을 전달하는 것은, FOV의 스캔 동안 각각의 FOV 영역에 유사한 개수의 광 펄스, 예를 들어, 유사한 진폭을 가지는 펄스가 제공되도록 가능한 광원을 제어하는 것을 포함할 수 있다. 그러나, 적어도 하나의 관심 영역의 식별 이후에, 적어도 하나의 프로세서(118)는 FOV의 하나 이상의 다른 영역에 관하여 관심 영역 내의 적어도 하나의 영역에 공급되는 광량을 증가시킬 수 있다. 도 5c의 도시된 예시에서, 섹터 II는 식별된 관심 영역을 나타낼 수 있다 (예를 들어, 섹터 II가 높은 밀도의 물체, 특정 유형의 물체 (보행자 등), LIDAR 시스템에 대한 특정 거리 범위에 있는 물체 (예를 들어, 50m 이내 또는 100m 이내), 호스트 차량의 경로에 있거나 근처에 있는 것으로 결정된 물체를 갖는 것으로 결정되거나, 또는 FOV(120) 내의 적어도 하나의 다른 영역보다 더 높은 관심 영역을 제안하는 임의의 다른 특성을 고려하여 결정되기 때문에). 관심 영역으로서 섹터 II의 상태를 고려하면, FOV 내의 나머지 영역보다 섹터 II에 포함된 서브 영역에 더 많은 광이 공급될 수 있다. 예를 들어, 도 5c에 도시된 바와 같이, 섹터 II 내의 (물체에 의해 점유되도록 결정된 영역을 제외한) 서브 영역은 3개의 광 펄스로 할당될 수 있다. 섹터 I 및 섹터 III와 같이 관심이 적은 다른 면적은 각각 하나의 광 펄스 또는 두 개의 광 펄스와 같이 더 적은 광을 수신할 수 있다.
일부 실시예들에서, 관심 영역 지정은 LIDAR 시스템에 대해 타겟 물체가 상주하는 거리에 의존할 수 있다. 타겟 물체가 상주하는 LIDAR 시스템으로부터 멀어질수록, 레이저 펄스가 이동해야 하는 경로가 길어질수록, 잠재적인 레이저 신호 손실은 더 커질 수 있다. 따라서, 먼 타겟은 원하는 신호 대 노이즈 비율을 유지하기 위해 가까운 타겟보다 높은 에너지의 발광을 필요로 할 수 있다. 이러한 광 에너지는 광원(112)의 전력 출력, 펄스 폭, 펄스 반복율, 또는 광원(112)의 출력 에너지에 영향을 미치는 임의의 다른 파라미터를 변조함으로써 달성될 수 있다. 가까운 물체는 쉽게 검출될 수 있으며, 따라서 어떤 경우에는 이러한 가까운 물체는 관심 영역 지정을 정당화하지 않을 수 있다. 한편, 보다 먼 물체는 타겟의 검출을 가능하게 하도록 적절한 신호 대 노이즈 비율을 달성하기 위해 더 많은 광 에너지를 요구할 수 있다. 이러한 먼 물체는 관심 영역 지정을 정당화할 수 있고, 물체가 상주하는 FOV의 각각의 영역에 공급되는 광 에너지의 증가를 정당화할 수 있다. 예를 들어, 도 5c에서, 단일 광 펄스는 제1 거리에서 제1 물체(예를 들어, 도 5c의 바닥 근처에 위치된 근거리 물체 중 하나)를 검출하도록 할당될 수 있고, 2개의 광 펄스는 제1 거리보다 큰 제2 거리에서 제2 물체(예를 들어, 둥근 사각형 형태를 갖는 중거리 물체)를 검출하도록 할당될 수 있으며, 3개의 광 펄스는 제1 거리 및 제2 거리보다 큰 제3 거리에서 제3 물체(예를 들어, 원거리 삼각형 물체)를 검출하도록 할당될 수 있다.
그러나, 다른 한편으로 가능한 레이저 에너지 레벨은 잠재적인 열적 및 전기적 제한과 함께 안구 안전 규정에 의해 제한될 수 있다. 따라서, LIDAR 시스템(100)을 사용하는 동안 안구 안전을 보장하기 위해, 적어도 하나의 프로세서(118)는 안구 안전 임계값에 기초하여 적어도 하나의 별개의 관심 영역에 축적된 광을 캡핑할(cap) 수 있다. 예를 들어, 적어도 하나의 프로세서(118)는 안구 안전 제한을 준수하기 위해 (예를 들어, 특정 지속 기간에 걸쳐) FOV의 별개의 영역 내에 투영된 광량을 제한하도록 프로그래밍 될 수 있다. 여기에서, 캡은 안구 안전 한계(또는 안전 마진을 제공하기 위해 상한보다 낮게 설정된 한계)의 상부 광량에 대응하는 지속 기간에 걸친 임계 광량을 지칭할 수 있다. 적어도 하나의 프로세서(118)는 LIDAR 시스템(100)의 작동 동안 캡이 초과되지 않도록 적어도 하나의 광원(112)을 제어할 수 있다. 따라서, 예를 들어, 관심이 낮은 영역은 눈으로 발견할 가능성이 높은 영역, 예를 들어, 차량의 운전자 면적, 보도 및 자전거 전용 도로 위의 특정 높이 등으로 정의된다. 그러한 맥락에서 영역에 대한 낮은 관심은, 반드시 다른 영역에 비해 그 영역에서의 검출이 덜 중요하다는 의미는 아니지만, 검출이 시스템의 안전한 작동을 유지하는 것보다 중요도(또는 관심)가 낮다는 것을 의미한다.
적어도 하나의 프로세서(118)는 임의의 적절한 소스로부터 수신된 정보에 기초하여 적어도 하나의 별개의 관심 영역의 식별을 결정할 수 있다. 일부 실시예에서, 적어도 하나의 프로세서(118)는 제1 스캐닝 사이클과 연관된 광의 반사를 검출하도록 구성된 적어도 하나의 센서로부터 적어도 하나의 관심 영역의 식별을 수신할 수 있다. 이러한 센서는, 예를 들어 하나 이상의 감광성 물체와 잠재적 관심 영역 또는 관심 영역의 적어도 하나의 식별자를 생성하도록 구성된 하나 이상의 논리 소자(예를 들어, 프로세서, DSP, 게이트 어레이 등)를 포함할 수 있는 감지 유닛(106)을 포함할 수 있다. 일부 실시예에서, 적어도 하나의 프로세서(118)는 예를 들어 감지 유닛(106)의 출력에 기초하여 관심 영역을 식별할 수 있다. 다른 실시예에서, 적어도 하나의 프로세서(118)는 LIDAR 시스템(100)에 대한 하나 이상의 주변 소스로부터 관심 영역의 적어도 하나의 인디케이터 또는 관심 영역의 식별을 수신할 수 있다. 예를 들어, 도 22에 도시된 바와 같이, 이러한 식별 또는 인디케이터는 차량 네비게이션 시스템(2201), 레이더(2203), 카메라(2205), GPS(2207), 또는 다른 LIDAR(2209)로부터 수신될 수 있다. 이러한 인디케이터 또는 식별자는 차량 네비게이션 시스템으로부터의 매핑된 물체 또는 특징, 방향의 헤딩(heading) 등과 연관될 수 있거나, 레이더(2203) 또는 LIDAR(2209) 또는 카메라(2205) 등에 의해 검출된 하나 이상의 물체, 물체의 클러스터 등과 연관될 수 있다. 선택적으로, 적어도 하나의 프로세서(118)는 Lidar 시스템(100)이 설치된 플랫폼 외부에 위치된 원격 소스로부터 수신된 정보에 기초하여 적어도 하나의 별개의 관심 영역의 식별을 결정할 수 있다. 예를 들어, 만약 LIDAR 시스템(100)이 복수의 차량에 의해 환경의 맵핑에 사용되는 경우, 관심 영역을 어떻게 결정하는지에 대한 정의가 상이한 차량의 작동을 조정하는 서버로부터 수신될 수 있다.
일부 예시에서, 관심 영역은 FOV의 제1 스캔 동안 또는 그에 후속하여 결정될 수 있고, 식별된 관심 영역으로의 광 증가는 FOV의 하나 이상의 후속하는 스캔에서 성취될 수 있다. 결과적으로, 적어도 하나의 별개의 관심 영역과 연관된 위치에서 적어도 하나의 후속하는 제2 스캐닝 사이클에서의 광 세기는 적어도 하나의 별개의 관심 영역과 연관된 위치에서 제1 스캐닝 사이클에서의 광 세기보다 높을 수 있다. 일부 예시에서, FOV의 적어도 하나의 후속하는 제2 스캐닝 사이클은 복수의 후속하는 제2 스캐닝 사이클을 포함한다. 이러한 경우에, FOV에서 적어도 하나의 별개의 관심 영역의 면적에서의 복수의 제2 스캐닝 사이클에 걸쳐 집계된 광 세기는 다른 비관심 영역에서의 복수의 제2 스캐닝 사이클에 걸쳐 집계된 광 세기보다 더 클 수 있다.
관심 영역을 식별하고, 관심이 낮은 영역에 비해 이들 영역에 공급되는 광량을 증가시킴으로써, 관심이 적은 영역에 비해 관심 영역에서 더 많은 물체 및/또는 더 먼 물체가 검출될 수 있다. 예를 들어, 관심 영역에서, 투영된 광의 반사는 제1 거리에서 적어도 하나의 별개의 관심 영역에서 제1 물체의 존재의 결정을 초래할 수 있다. 그리고, 이러한 제1 거리는, 비관심 영역에서 물체가 검출되지 않은 제2 거리보다 클 수 있다.
적어도 하나의 프로세서(118)는 다른 영역들에 비해 적어도 하나의 별개의 관심 영역에 대한 조명 해상도를 수정할 수 있다. 적어도 하나의 후속하는 제2 스캐닝 사이클에서 적어도 하나의 별개의 관심 영역의 3D 표현의 공간 해상도는 제1 스캐닝 사이클에서 적어도 하나의 별개의 관심 영역의 3D 표현의 공간 해상도보다 높다. 또한, 적어도 하나의 프로세서(118)는, 또한 적어도 하나의 후속하는 제2 스캐닝 사이클에서 적어도 하나의 별개의 관심 영역의 3D 표현의 시간적 해상도가 제1 스캐닝 사이클에서 적어도 하나의 별개의 관심 영역의 3D 표현의 시간적 해상도보다 높도록 하기 위해 조명 타이밍을 다른 영역에 비해 적어도 하나의 별개의 관심 영역으로 수정할 수 있다. 여기서, 예를 들어, 보다 높은 시간적 해상도는 프레임 레이트를 증가시킴으로써 획득될 수 있고, 그 반대의 경우도 마찬가지이나, 이에 한정되는 것은 아니다.
전술한 예시들과 같이, 적어도 하나의 관심 영역에 더 많은 광이 할당될 때, 더 높은 공간적 및/또는 시간적 해상도가 또한 획득될 수 있다. 반면에, 비관심 영역과 관심이 낮은 영역의 경우, 해당 지역을 향하는 광 할당이 감소될 수 있으며, 차례로, 더 낮은 공간적 및/또는 시간적 해상도가 획득될 수 있다. 공간적 및/또는 시간적 해상도의 증가는 보다 높은 광 세기 (예를 들어, 관심 영역의 면적을 좁히면 면적 당 더 많은 광 플럭스가 할당됨)를 사용하여 달성될 수 있지만, 이에 한정되는 것은 아니다. 유사하게, 공간적 및/또는 시간적 해상도의 감소는 보다 낮은 광 세기 (예를 들어, 비관심 영역의 면적을 넓혀서 면적 당 더 적은 광 플럭스가 할당됨)에 의해 달성될 수 있지만, 이에 한정되는 것은 아니다.
도 20은 LIDAR 시스템을 사용하여 관심 영역 내의 물체를 검출하기 위한 예시적인 방법(2000)의 흐름도이다. 단계 2001에서, 프로세서(예를 들어, 프로세서(118))는 적어도 하나의 광원으로부터의 광을 사용하여 시야(예를 들어, 시야(120))의 스캔에 걸쳐 광 세기를 변화할 수 있는 방식으로 적어도 하나의 광원(예를 들어, 광원(112))을 제어한다. 단계 2002에서, 프로세서(예를 들어, 프로세서(118))는 적어도 하나의 광원(예를 들어, 광원(112))으로부터의 광을 편향시켜 시야(예를 들어, 시야(120))를 스캔하기 위해 적어도 하나의 광 편향기 (예를 들어, 광 편향기(114))를 제어한다. 단계 2002에서 적어도 하나의 광원의 편향은 또한 적어도 하나의 센서 (예를 들어, 센서(116))의 방향으로 시야 (예를 들어, 시야(120))로부터 도달하는 반사광의 편향에 영향을 줄 수 있다. 단계 2003에서, 프로세서(예를 들어, 프로세서(118))는 시야(예를 들어, 시야(120))에서 적어도 하나의 별개의 관심 영역의 식별을 획득한다. 또한, 시야(예를 들어, 시야(120))에서 적어도 하나의 별개의 관심 영역의 획득된 식별은 제1 스캐닝 사이클과 연관된 광의 반사를 검출하도록 구성된 적어도 하나의 센서(예를 들어, 감지 유닛(106))로부터 올 수 있다. 또한, 일부 실시예에서, 시야(예를 들어, 시야(120))에서 적어도 하나의 별개의 관심 영역의 획득된 식별은 LIDAR 시스템이 배치된 차량의 현재 주행 모드에 기초할 수 있다. 일부 실시예에서, 시야(예를 들어, 시야(120))에서 적어도 하나의 별개의 관심 영역의 획득된 식별은 적어도 하나의 별개의 관심 영역에서 검출된 물체에 기초할 수 있다. 일부 실시예에서, 시야(예를 들어, 시야(120))에서 적어도 하나의 별개의 관심 영역의 획득된 식별은 GPS, 차량 네비게이션 시스템, 레이더, LIDAR, 및 카메라 중 적어도 하나로부터 올 수 있다.
단계 2004에서, 프로세서(예를 들어, 프로세서(118))는 제1 스캐닝 사이클에 뒤이어, 적어도 하나의 별개의 관심 영역과 연관된 위치의 적어도 하나의 후속하는 제2 스캐닝 사이클의 광 세기가 적어도 하나의 별개의 관심 영역과 연관된 위치의 제1 스캐닝 사이클의 광 세기보다 높게 하기 위해 다른 영역과 비교하여 적어도 하나의 별개의 관심 영역에 대한 광 할당을 증가시킬 수 있다. 또한, 적어도 하나의 후속하는 제2 스캐닝 사이클은 복수의 후속하는 제2 스캐닝 사이클을 포함하고, 복수의 제2 스캐닝 사이클에 걸쳐 적어도 하나의 별개의 관심 영역의 면적에서 집계된 광 세기는 복수의 제2 스캐닝 사이클에 걸쳐 다른 비관심 영역에서 집계된 광 세기보다 크다.
단계 2005에서, 프로세서(예를 들어, 프로세서(118))는 단일 스캐닝 사이클에서 다른 영역에 비해 적어도 하나의 별개의 관심 영역을 향하여 더 많은 광이 투영되도록 광 할당을 조절한다. 일부 상황에서, 프로세서(예를 들어, 적어도 하나의 프로세서(118))는, 적어도 하나의 후속하는 제2 스캐닝 사이클에서, 제1 스캐닝 사이클에서 복수의 영역을 향하여 투영되는 광량에 비해 비관심 영역으로 식별되는 복수의 영역에 더 적은 광을 할당한다.
도 21은 LIDAR 시스템을 이용하여 복수의 관심 영역에서 물체를 검출하기 위한 예시적인 방법(2100)의 흐름도이다. 단계 2001에서, 프로세서(예를 들어, 프로세서(118))는 적어도 하나의 광원으로부터의 광을 사용하여 시야(예를 들어, 시야(120))의 스캔에 걸쳐 광 세기를 변화할 수 있는 방식으로 적어도 하나의 광원(예를 들어, 광원(112))을 제어한다. 단계 2002에서, 프로세서(예를 들어, 프로세서(118))는 적어도 하나의 광원(예를 들어, 광원(112))으로부터의 광을 편향시켜 시야(예를 들어, 시야(120))를 스캔하기 위해 적어도 하나의 광 편향기 (예를 들어, 광 편향기(114))를 제어한다. 단계 2003에서, 프로세서(예를 들어, 적어도 하나의 프로세서(118))는 시야(예를 들어, 시야(120))에서 적어도 하나의 별개의 관심 영역의 식별을 획득한다. 또한, 시야(예를 들어, 시야(120))에서 적어도 하나의 별개의 관심 영역의 획득된 식별은 제1 스캐닝 사이클과 연관된 광의 반사를 검출하도록 구성된 적어도 하나의 센서(예를 들어, 감지 유닛(106))로부터 올 수 있다. 더 나아가, 일부 실시예에서, 시야(예를 들어, 시야(120))에서 적어도 하나의 별개의 관심 영역의 획득된 식별은 LIDAR 시스템이 배치된 차량의 현재 주행 모드에 기초할 수 있다. 일부 실시예에서, 시야(예를 들어, 시야(120))에서 적어도 하나의 별개의 관심 영역의 획득된 식별은 적어도 하나의 별개의 관심 영역에서 검출된 물체에 기초할 수 있다. 일부 실시예에서, 시야(예를 들어, 시야(120))에서 적어도 하나의 별개의 관심 영역의 획득된 식별은 GPS, 차량 네비게이션 시스템, 레이더, LIDAR, 및 카메라 중 적어도 하나로부터 올 수 있다.
단계 2101에서, 프로세서(예를 들어, 프로세서(118))는 복수의 관심 영역을 순위를 매길 수 있다. 예를 들어, 장면은 LIDAR 시스템에 의해 스캔될 수 있다. 장면의 관심 영역은 낮은 것과 높은 것 사이의 관심 레벨을 가지는 비관심 영역(RONI) 또는 관심 영역(ROI) 중 하나로 지정될 수 있다. 예를 들어, 도로 구분자 및 건물의 수직 평면은 높은 관심 영역(R2)으로 지정될 수 있으며, 보행자 및 이동 차량은 중간 관심 영역(R1) 내에서 지정될 수 있으며, 장면의 나머지는 일반적으로 낮은 관심 영역(R0)으로 고려될 수 있다. 스카이 라인은 RONI (R3)로 지정될 수 있다.
단계 2103에서, 프로세서(예를 들어, 프로세서(118))는 랭킹에 기초하여 광을 할당하고, 여기서 최상위 순위 관심 영역에 할당된 광량은 하위 순위 관심 영역에 할당된 광량보다 더 클 수 있다. 예를 들어, 상술한 예시적인 장면에 대한 전력 또는 자원 할당은 프로세서에 의해 결정될 수 있다. 순위에 기초하여, 프로세서는 가장 높은 관심 영역(R2)에 가장 많은 전력을 할당할 수 있고, 그 후 중간 관심 영역(R1)에 전력을 할당하며, 가장 낮은 관심 영역(R0)에 가장 적은 할당을 제공할 수 있다. 일부 전력은 RONI가 여전히 RONI인지 정기적으로 확인하기 위해 RONI R3에 할당될 수도 있다. 이 예시에서, 영역 2 (R2)는 가장 관심 영역으로 정의될 수 있다. 최고 품질의 서비스, 최대 레이저 전력, 최고 수신기 감도, 최고 각도 스캔 해상도, 최고 범위 해상도, 최고 프레임 레이트 등으로 인해 가장 긴 범위 검출 능력을 의미할 수 있다.
단계 2004에서, 프로세서(예를 들어, 프로세서(118))는 제1 스캐닝 사이클에 뒤이어, 적어도 하나의 별개의 관심 영역과 연관된 위치의 적어도 하나의 후속하는 제2 스캐닝 사이클의 광 세기가 적어도 하나의 별개의 관심 영역과 연관된 위치의 제1 스캐닝 사이클의 광 세기보다 높게 하기 위해 다른 영역과 비교하여 적어도 하나의 별개의 관심 영역에 대한 광 할당을 증가시킬 수 있다. 또한, 적어도 하나의 후속하는 제2 스캐닝 사이클은 복수의 후속하는 제2 스캐닝 사이클을 포함하고, 복수의 제2 스캐닝 사이클에 걸쳐 적어도 하나의 별개의 관심 영역의 면적에서 집계된 광 세기는 복수의 제2 스캐닝 사이클에 걸쳐 다른 비관심 영역에서 집계된 광 세기보다 크다.
단계 2005에서, 프로세서(예를 들어, 프로세서(118))는 단일 스캐닝 사이클에서 다른 영역에 비해 적어도 하나의 별개의 관심 영역을 향하여 더 많은 광이 투영되도록 광 할당을 조절한다. 일부 상황에서, 프로세서(예를 들어, 적어도 하나의 프로세서(118))는, 적어도 하나의 후속하는 제2 스캐닝 사이클에서, 제1 스캐닝 사이클에서 복수의 영역을 향하여 투영되는 광량에 비해 비관심 영역으로 식별되는 복수의 영역에 더 적은 광을 할당한다.
중간 검출 결과에 기초한 적응 Lidar 조명 기술
도 23은 광을 방출하고 LIDAR의 시야로부터 반사된 광자를 검출하는 LIDAR 시스템(2300)의 예시적인 실시예를 도시한다. 일부 실시예에서, LIDAR 시스템(2300)은 LIDAR 시스템(100)을 참조하여 전술한 바와 같이 작동할 수 있다. 검출 결과에 기초하여, LIDAR는 깊이 맵의 시퀀스를 생성할 수 있다. 이전에 기술된 바와 같이, LIDAR는 포인트 클라우드 모델(PC), 다각형 메쉬, (이미지 또는 2D 어레이의 각각의 픽셀에 대한 깊이 이미지 정보를 유지하는) 깊이 이미지, 또는 장면의 3D 모델의 임의의 다른 유형 중 임의의 하나 또는 그 이상과 같은 하나 이상의 상이한 유형의 깊이 맵을 생성하도록 작동 가능할 수 있다.
생성된 깊이 맵은 시간 특성을 포함할 수 있다. 예를 들어, 깊이 맵은 상이한 시간에 생성되는 상이한 깊이 맵인, 시간 시퀀스에서 생성될 수 있다. 시퀀스의 각 깊이 맵 (상호교환적으로 "프레임")은 LIDAR FOV의 스캔의 지속 기간 내에 생성될 수 있다. 일부 실시예에서, 이러한 스캔은 수 초의 기간 내에, 약 1 초 이내, 또는 1 초 미만 내에 발생할 수 있다.
일부 실시예에서, LIDAR 시스템(2300) (상호교환적으로 "LIDAR")은 시퀀스 (예를 들어, 초당 10 프레임 -FPS-25FPS 등) 또는 동적 프레임 레이트에 대해 고정된 프레임 속도를 가질 수 있다. 서로 다른 프레임의 프레임 시간은 시퀀스를 가로질러 반드시 동일하지는 않다. 예를 들어, 10 FPS LIDAR는 100 밀리초 (평균), 92 밀리초에서 다음 프레임, 142 밀리초에서 세 번째 프레임, 및 10 FPS 사양을 평균화하는 다양한 레이트에서 추가 프레임으로 하나의 깊이 맵을 생성할 수 있다.
프레임 시간은 검출이 프레임의 검출 정보를 발생시키고 각각의 깊이 맵 ("프레임")의 종료로 끝나는 광의 첫 투영으로 시작하는 시간의 기간을 지칭할 수 있다. "프레임-조명 지속 시간"은 검출이 프레임의 검출 정보를 발생시키는 광의 첫 투영으로 시작하여 프레임의 검출 정보에 영향을 주는 마지막 광자가 방출될 때 끝나는 시간의 기간이다 (즉, "프레임-조명 지속 시간"은 각각의 깊이 맵을 산출하기 위해 프레임의 검출 정보의 적어도 일부 처리의 지속 시간이 뒤따르는 각각의 프레임 시간의 제1 부분이다). 일부 실시예에서, 본 개시에서 동일한 프레임 시간에서 일어나는 것으로 기술되는 모든 동작, 프로세스, 또는 이벤트는 동일한 프레임-조명 지속 기간 (즉, 더 엄격한 시간 제약이 구현될 수 있음)에서 일어나도록 요구될 수 있다.
일부 실시예에서, 프레임 시간들은 부분적으로 중첩될 수 있으나 (예를 들어, N번째 깊이 맵의 처리는 (N+1) 번째 프레임의 빛으로 연장될 수 있음), 선택적으로 완전히 중첩되지 않을 수도 있다. 일부 실시예에서, 상이한 프레임들의 프레임 시간들 사이에 시간 갭이 있을 수 있다.
LIDAR에 의해 상당히 긴 프레임의 시퀀스가 생성될 수 있지만, 시퀀스의 깊이 맵의 개수는 3과 같거나 클 수 있다. 예를 들어, 시퀀스는 10개보다 많은 깊이 맵을 포함할 수 있다. 예를 들어, 시퀀스는 100개보다 많은 깊이 맵을 포함할 수 있다. 예를 들어, 시퀀스는 1,000개보다 많은 깊이 맵을 포함할 수 있다. 시퀀스는 LIDAR에 의해 생성된 모든 프레임을 반드시 포함하지는 않는다는 것을 유의해야 한다. 선택적으로, 깊이 맵들의 시퀀스는 시퀀스의 제1 및 최종 깊이 맵들 사이에서 LIDAR에 의해 생성된 모든 깊이 맵들을 포함할 수 있다.
시스템(2300)은 적어도 센서 인터페이스(2350) 및 광원 제어기(2360)를 포함할 수 있지만, 이하에서 논의되는 것과 같이 (그러나 이에 한정되는 것은 아닌) 추가 구성 요소를 포함할 수도 있다. 센서 인터페이스(2350)는 각각의 센서(들)에 의해 검출된 광량(또는 광량들)을 나타내는 검출 정보(예를 들어, 검출된 광자의 개수, 검출된 광의 축적된 에너지 등)를 LIDAR의 하나 이상의 센서(예를 들어, 센서 2344(1), 2344(2), 및 2344(3))로부터 수신하도록 구성될 수 있고, 동작 가능할 수 있다. 센서에 의해 검출된 광은 LIDAR에 의해 방출되고 LIDAR의 하나 이상의 검출기를 향하여 장면으로부터 다시 반사된 광자 - LIDAR의 시야(FOV)의 세그먼트 중 적어도 일부에 대해 - 를 포함할 수 있다.
LIDAR의 FOV는 서로 다른 타이밍으로 조명되는 여러 (2개 이상, 수백 개 또는 수천 개까지, 가능하다면 더 많은) 세그먼트를 포함할 수 있다. 각 세그먼트는 깊이 맵의 하나 이상의 아이템 (예를 들어, 하나 이상의 다각형, 하나 이상의 포인트-클라우드 점, 하나 이상의 깊이 이미지 픽셀)을 포함할 수 있고, (하나 이상의 검출 신호를 생성하는) 하나 이상의 센서에 의해 커버될 수 있다. 일부 실시예에서, FOV의 세그먼트는 중첩되지 않는 세그먼트를 포함할 수 있다. 다른 실시예에서, FOV의 세그먼트들 중 일부는 부분적으로 서로 중첩할 수 있다. 선택적으로, 깊이 맵은 하나 이상의 세그먼트에 대한 아이템을 포함하지 않을 수 있다 (예를 들어, 허용된 시간 프레임 내에 반사된 광자가 없거나 SNR이 검출하기에 너무 낮기 때문이다). 그러한 경우에, 깊이 맵은 데이터 부족에 대응하는 표시를 포함할 수 있지만, 반드시 그런 것은 아니다.
일부 실시예에서, LIDAR에 의해 생성된 깊이 맵은 (예를 들어, 중앙 세그먼트와 원주 세그먼트 사이의 선택적인 구별과 관련하여 구현될 수 있는) 예비 조명의 처리 없이 조명되는 세그먼트로부터의 광의 검출에 기초한 깊이 정보를 포함할 수 있다. LIDAR에 의해 생성된 깊이 맵은 조명되지 않고 및/또는 광의 검출에 기초하지 않는 FOV의 부분 (또는 세그먼트)에 대한 깊이 정보를 또한 포함할 수 있다. 예를 들어, 깊이 맵 (픽셀, PC 포인트, 다각형, 또는 이들의 부분)의 일부 아이템은 FOV의 조명된 부분에 대해 결정된 검출 기반 값의 보간법 또는 평균화에 기초할 수 있다.
예시적인 실시예에서, 센서 인터페이스(2350)는 시퀀스의 프레임 시간들 각각에서 LIDAR의 시야의 복수의 세그먼트들 중 각 세그먼트에 대해, 각각의 프레임 시간동안 LIDAR에 의해 방출되고, 각각의 세그먼트로부터 반사된 (또는 그렇지 않으면 분산된) 광의 예비 검출 정보를 (LIDAR의 하나 이상의 센서들로부터) 수신하도록 작동 가능하다. 일부 세그먼트의 경우, LIDAR에 의해 투영된 어떠한 광도 반사되지 않을 수 있으나 (예를 들어, 만약 LIDAR의 검출 범위 내에 타겟이 없는 경우), 적어도 일부 세그먼트의 경우 예비 검출 정보는 장면으로부터 반사되고 LIDAR의 하나 이상의 센서에 의해 검출된 투영된 광량을 나타낼 수 있다. 하나 이상의 센서에 의해 제공되는 검출 정보(예비 검출 정보를 포함함)와 함께, 하나 이상의 센서에 의해 생성된 신호들은 예를 들어 외부 방사선 (예를 들어, 태양광, 손전등, 및 LIDAR 시스템(100) 이외의 다른 광원/방사선원) 및 센서 노이즈(예를 들어, 암전류)로부터 기여를 포함할 수 있다.
예비 검출 정보는 단일 신호 (하나 이상의 센서의 출력에 기초한 -예를 들어, 하나 이상의 SPAD, 하나 이상의 APD, 하나 이상의 SiPM 등) 또는 복수의 신호 (예를 들어, 다중 센서의 출력)로서 획득할 수 있다. 예비 검출 정보는 아날로그 및/또는 디지털 정보를 포함할 수 있다. 예비 검출 정보는 단일 값 및/또는 복수의 값 (예를 들어, 세그먼트의 상이한 시간 및/또는 부분)을 포함할 수 있다. 예비 검출 정보는 깊이 맵의 하나 이상의 아이템들 (예를 들어, 하나 이상의 다각형, 하나 이상의 포인트-클라우드 점, 하나 이상의 깊이 이미지 픽셀 등)에 존재할 수 있다. 예비 정보는 나중에 FOV 내의 적어도 하나의 물체에 대한 거리의 결정에 사용될 수 있다는 것에 유의해야 한다.
광원 제어기(2360)는 LIDAR의 광원(2310)을 제어하도록, 특히 광원(2310)에 의한 광의 방출을 제어하도록 구성될 수 있고 동작 가능할 수 있다. 광원 제어기(2360)는 LIDAR의 광원(2310)에 의한 발광을 제어하는 유일한 독립체일 수 있지만, 반드시 그러한 것은 아니다. 만약 LIDAR가 하나 이상의 광원을 포함하는 경우, 광원 제어기(2360)는 이러한 광원들 중 하나 이상, 가능하면 그들 모두를 제어하도록 구성되고 작동 가능할 수 있다. 또한, 제어기(2360) 이외의 다양한 제어기는 LIDAR 시스템(100)과 연관된 광원의 적어도 하나의 작동 양태를 제어하거나 영향을 미칠 수 있다.
일부 실시예에서, 광원 제어기(2360)는 시퀀스의 각 프레임 시간에서 LIDAR에 의한 후속 발광을 제어하도록 구성된다. 예비 발광의 방출 (예비 검출 정보에 사용되는 방출) 이후에 (만약 광원 제어기(2360)에 의해 방출이 허용되는 경우) 후속 방출이 방출된다. 만약 LIDAR가 펄스 광을 방출하는 경우, 후속하는 발광은 하나 이상의 광 펄스를 포함할 수 있다.
광원 제어기(2360)는 복수의 세그먼트들 중 각 세그먼트의 예비 검출 정보에 기초하여, 시퀀스의 각 프레임 시간에서, 각각의 프레임 시간 동안 LIDAR에 의한 후속 발광을 각각의 세그먼트로 제어하도록 구성될 수 있다. 즉, 각각의 프레임 시간에서, 광원 제어기(2360)는 동일한 세그먼트에서 검출되고 동일한 프레임 시간에 LIDAR에 의해 방출된 광의 검출 및 처리에 기초하여 복수의 세그먼트 중 각 세그먼트 내의 후속 발광을 제어할 수 있다.
FOV의 세그먼트 당 후속 발광을 제어하는 것은, 거의 순간적인 입력과 함께 (예를 들어, FOV의 상이한 부분에서의 타겟의) 검출 결과를 나타내는 동일한 프레임으로부터의 반사광의 검출에 기초하여 LIDAR의 FOV의 상이한 세그먼트로의 광의 투영의 차별화를 허용한다. 이러한 차별화는 다음과 같은 다양한 목표를 달성하는데 사용될 수 있다.
안구 안전성 (피부 안전, 광학 시스템의 안전성, 민감한 물질의 안전성 및 그 밖의 물체의 안전성과 같은 다른 안전 고려 사항): FOV의 다른 부분에 더 높은 전력 레벨 (따라서 잠재적으로 신호 대 노이즈 비율 및 검출 범위를 향상시킴)을 방출하면서, 안전이 고려되는 LIDAR FOV의 하나 이상의 부분에서 방출된 전력 레벨을 제한하는 것이 가능하다.
전력 관리 : LIDAR FOV의 다른 부분으로 전달되는 빛 에너지를 제한하면서 더 큰 용도가 (예를 들어, 관심 영역, 멀리 떨어진 타겟, 낮은 반사 타겟 등)될 LIDAR FOV 부분을 향하여 더 많은 에너지를 지향하는 것이 가능할 수 있다. 안구 안전 또는 전력 관리 (또는 임의의 다른 목적)에 대한 이러한 광 할당은 현재 프레임 또는 임의의 선행 프레임으로부터의 검출 결과에 기초할 수 있다.
일부 실시예에서, FOV의 영역 또는 특정 세그먼트로의 광의 투영의 후속하는 방출의 제어는 후속 발광에 영향을 주기 위해 광원의 하나 이상의 파라미터를 제어(예를 들어, 변경)하는 것을 포함할 수 있다. 이러한 변경은 다음과 같은 (그러나 이에 한정되지는 않음) 투영된 광의 다양한 특성에 영향을 미칠 수 있다.
FOV의 현재 스캔 동안 또는 FOV의 후속 스캔 동안 임의의 하나 이상의 LIDAR FOV 세그먼트로의 광 투영을 증가, 감소, 제한, 또는 배제하는 것;
FOV를 가로지르거나 FOV의 임의의 부분에 공급되는 전체적인 광 에너지;
FOV의 임의의 부분에 공급되는 광의 에너지 프로필;
발광 지속 시간;
편광, 파장 등과 같은 FOV의 임의의 부분으로 투영된 광의 파 속성;
또한, 도 23은 FOV의 복수의 세그먼트를 도시한다. 통상의 기술자에게는 각 세그먼트가 3차원 원뿔의 섹션 (본질적으로 원뿔형 또는 원뿔대)을 나타낼 수 있음이 명백할 것이다. 설명의 간략화를 위해, 각 세그먼트의 단면만 도시되어 있다. 또한, 세그먼트 개수와 그들의 공간 구성은 크게 다를 수 있다. 예를 들어, 도면의 세그먼트는 3x6 2D 직사각형 어레이로 배열되지만, 그대신 1D 배열뿐만 아니라 다른 비 사각형 배열이 사용될 수도 있다.
시스템(2300)은 광 펄스 (또는 CW 레이저 조명과 같은 다른 형태의 투과광)를 사용하여 (여기서는 스캔되는 특정 시야(FOV)가 도시된) 장면의 영역 또는 세그먼트의 검사(또한 가능하다면 검사하도록)를 제어하도록 구성될 수 있다. 조명의 특성 (초기 조명, 후속 조명, 또는 LIDAR에 의한 임의의 다른 조명)은 다음 파라미터들 중 임의의 하나 또는 그 이상의 함수에 따라 선택될 수 있다 (LIDAR의 동작 중에 가능할 수도 있음).
검사중인 장면 세그먼트의 광학 특성.
검사중이 아닌 장면 세그먼트의 광학 특성.
검사중인 장면 세그먼트가 존재하는 장면 요소 또는 검사중인 장면 세그먼트의 근접 내에 존재하는 장면 요소.
검사중이 아닌 장면 세그먼트가 존재하는 장면 요소 또는 검사중이 아닌 장면 세그먼트의 근접 내에 존재하는 장면 요소.
스캐닝 또는 스티어링 디바이스의 작동 모드.
스캐닝 또는 스티어링 디바이스가 작동하는 호스트 플랫폼의 상황별 특징/특성.
LIDAR의 광원(2310)(상호교환적으로 “방출기” 및 “방출기 조립체”)는 유사하거나 상이한 작동 파라미터(예를 들어, 파장 , 전력, 초점, 발산 등)을 사용하여 작동할 수 있는 하나 이상의 개별적인 방출기(예를 들어, 하나 이상의 레이저, 하나 이상의 LED)를 포함할 수 있다. 광원 제어기(2360)는 광원(2310)의 개별 방출기들 중 하나, 일부, 또는 전부를 제어할 수 있다. 일부 실시예에서, 광원(2310)은 FOV를 향해 광 검사 펄스를 방출하도록 작동할 수 있다. 일부 실시예에서, 광원과 편향기터는 결합될 수 있다. 예를 들어, LIDAR 시스템은 수직 캐비티 표면 방출 레이저 또는 광학 위상 어레이를 포함할 수 있다.
LIDAR의 센서 조립체(2340) (상호교환적으로 "센서 어레이", "센서", "검출기 어레이", 및 "검출기 조립체")는 각각이 개별적인 검출 유닛을 포함할 수 있는 하나 이상의 감광성 검출기(2344)를 포함할 수 있다. 예를 들어, 각 검출기(2344)는 복수의 단일 광자 애벌랜치 다이오드(SPADs)를 포함하는 실리콘 광전자 증 배관(SiPM) 일 수 있다. 센서 조립체는 스캔된 장면의 물체로부터 다시 반사된 LIDAR에 의해 방출된 광자를 검출한다.
일부 실시예에서, LIDAR는 방출된 광을 스캔된 장면 세그먼트의 방향으로 지향시키고, 및/또는 반사된 광자를 센서 어레이(2340)를 향하여 조종하기 위한 스티어링 조립체(2330)를 더 포함할 수 있다. 스티어링 조립체(2330)는 제어 가능하고 조종 가능한 광학 장치 (예를 들어, 회전/이동 가능한 미러, 회전/이동 가능한 렌즈 등)를 포함할 수 있으며, 또한 빔 스플릿터, 미러, 및 렌즈와 같은 고정된 광학 구성 요소를 포함할 수 있다. (예를 들어, 레이저 펄스의 시준에 사용되는) 일부 광학 구성 요소는 방출기의 일부일 수 있지만, 다른 광학 구성 요소는 검출기 조립체의 일부일 수 있다. 일부 실시예에서, 스티어링 조립체(2330)는 미러들의 어레이를 포함할 수 있다.
일부 실시예에서, 광원 제어기(2360)는 전기 회로망 또는 다른 유선 연결과 같은 상이한 방식으로 무선 연결 등에 의해 광원(2310)에 연결될 수 있다. 광원 제어기(2360)는 또한 예비 검출 정보의 분석에 기초하여 방출된 및/또는 반사된 광의 스티어링 방향을 제어하기 위해 스티어링 조립체(2330)에 연결될 수 있다. 예를 들어, 만약 주어진 세그먼트에 대해 아무런 후속 조명도 필요하지 않으면, 스티어링 조립체는 장면의 다른 세그먼트를 조명하기 위해 즉시 다른 스티어링 상태로 바꾸도록 지시받을 수 있다.
LIDAR의 제어기(2320)는 감지 어레이(2340), 스티어링 조립체(2330) 및/또는 LIDAR의 다른 구성 요소를 제어하기 위해 구현될 수 있다. 제어기(2320)는 광원 제어기(2360)를 포함할 수 있지만, 광원 제어기(2360)는 또한 제어기(2320)(예를 들어, 호스트(230))의 외부 및/또는 독립일 수 있다. 후자의 경우에, 광원은 제어기(2320) 및 광원 제어기(2360) 모두에 의해 제어되는 것이 가능하다. 제어기(2320)는 조정된 방식으로 그리고 선택적으로 (예를 들어, 내부 피드백, 호스트 정보, 또는 기타 소스에 기초하여) 장면 세그먼트 검사 특성에 따라 방출기(2310), 스티어링 조립체(2330), 및 센서 조립체(2340)의 작동을 조절하기 위해 선택적으로 사용될 수 있다.
일부 실시예에 따르면, LIDAR에 의한 장면 세그먼트의 검사는 전송된 광 (예를 들어, 광자의 펄스)으로 장면 세그먼트 (상호교환적으로 "세그먼트", "영역", 및 "장면 영역")의 조명을 포함할 수 있다. 방출된 광은 방출기로부터의 상이한 거리에서의 광자 밀도, 순간 전력, 파장, 각도 분산, 지속 시간, 평균 전력, 전력 세기, 펄스 폭, 펄스 반복율, 펄스 시퀀스, 듀티 사이클, 파장, 위상, 편광 등과 같은 알려진 파라미터를 가질 수 있다.
영역의 검사는 반사된 광자를 검출하는 것과 이들 반사된 검사 광자의 다양한 양태를 특성화하는 것을 또한 포함할 수 있다. 반사된 검사 광자는 스캔된 장면 세그먼트 내에 존재하는 조명된 요소로부터 LIDAR를 향하여 다시 반사된 방출된 광의 광자를 포함할 수 있다.
반사된 광자는 검사 광자 및 그들이 반사되는 장면 요소로부터 생길 수 있으며, 따라서 수신된 반사된 신호는 그에 따라 분석될 수 있다. 방출된 광의 특성과 대응하는 반사 및 검출된 신호의 특성을 비교함으로써, 스캔된 장면 세그먼트에 존재하는 하나 이상의 장면 요소의 거리 및 가능하게는 (반사된 세기와 같은) 다른 물리적 특성이 추정될 수 있다. FOV의 다수 부분 (예를 들어, 래스터 패턴, 리사주 패턴, 또는 다른 패턴)에 걸쳐 이 프로세스를 반복함으로써 전체 장면은 장면의 깊이 맵을 생성하기 위해 스캔될 수 있다.
"장면 세그먼트"또는 "장면 영역"은, 예를 들어 주어진 방향의 광 빔에 대응하는, 예를 들어 구면 좌표계의 각도를 사용하여 정의될 수 있다. 주어진 방향으로 중심 방사형 벡터를 갖는 광 빔은 또한 각도 발산 값, 광 빔의 구면 좌표계 범위 등으로 특성지어 질 수 있다.
일부 실시예에서, 조명의 맥락에서 정의된 바와 같은 상이한 세그먼트는 검출(예를 들어, "픽셀” 또는 깊이 맵)의 맥락에서 차별화되는 부분 또는 FOV 부분의 크기와 반드시 동일하지는 않다. 예를 들어, LIDAR는 N×M 깊이 맵 (예를 들어, 100×100 깊이 이미지)을 생성할 수 있지만, 조명을 위해 동일한 FOV를 더 적은 세그먼트(예를 들어, 10x10 또는 20x1)로 구분한다. 다른 예시에서, 조명 세그먼트는 검출의 각도 해상도보다 적어도 한 치수가 더 좁을 수 있다.
일부 실시예에서, 범위 추정기(2390)는 센서 어레이(2340)에 의해 얻은 검출 정보를 획득하고, 깊이 맵을 생성하기 위해 정보를 처리한다. 처리는 비행 시간 분석 또는 당 업계에 공지된 임의의 다른 방법에 기초할 수 있다.
예비 검출 정보는 동시 방출 (예를 들어, 하나 이상의 펄스 또는 공간적으로 연속적인 조명)의 복수의 검출기 (예를 들어, 픽셀, SiPM)에 의한 검출에 기초할 수 있다. 광원 제어기(2360)는 복수의 검출기(예를 들어, 2340)에 의해 생성된 예비 검출 정보에 기초하여, 각각의 검출기 모두에 의해 검출 가능한 후속 방출을 어떻게 총괄하여 제어할지를 결정할 수 있다. 일부 실시예에서, 광원 제어기(2360)는, 비록 하나 또는 일부의 검출기 (그러나 전부는 아님)가 각각의 세그먼트로의 투영이 안전하지 않다는 것을 나타내더라도 전체 세그먼트에 대한 임의의 후속 방출을 차단할 수 있다.
도 24는 현재 개시된 실시예에 따른 방법(2400)의 일 예시를 도시하는 흐름도이다. 방법(2400)은 깊이 맵의 시퀀스를 생성하는 광 검출 및 범위 디바이스(LIDAR)의 작동을 제어하기 위한 방법이다. 시퀀스의 각 깊이 맵은 대응하는 서브 초 프레임 시간에서 생성될 수 있다. 일부 실시예에서, 방법(2400)은 빔 스팟 단위 기준 또는 픽셀 단위 기준에 기초하여 실행될 수 있다.
이전의 도면들과 관련하여 제시된 예시들을 참조하면, 방법(2400)은 시스템(2300)에 의해 실행될 수 있다. 방법(2400)은 시스템(2300)과 관련하여 논의된 임의의 기능성, 프로세스, 능력 등을 명시적으로 기술되지 않더라도 실행하는 것을 포함할 수 있다. 마찬가지로, 시스템(2300)은 명시적으로 기술되지 않더라도, 방법(2400)의 임의의 단계 또는 변형을 통합하도록 구성, 적응, 및/또는 동작 가능할 수 있다.
방법(2400)은 시퀀스의 프레임 시간들 각각에서 LIDAR의 시야의 복수의 세그먼트들 중 각 세그먼트에 대해 적어도 스테이지(2440) 및 스테이지(2450)를 실행하는 것을 포함할 수 있다. 일부 실시예에서, 방법(2400)은 FOV 내의 모든 세그먼트에 대해 실행 스테이지(2440) 및 스테이지(2450)를 포함하거나 포함하지 않을 수 있다. 다른 실시예에서, 방법(2400)은 FOV의 모든 조명 세그먼트에 대해 실행 스테이지(2440) 및 스테이지(2450)를 포함하거나 포함하지 않을 수 있다.
단계(2440)는 각각의 프레임 시간 동안 LIDAR에 의해 방출되고 각각의 세그먼트로부터 반사된 광에 기초하여 예비 검출 정보 (예를 들어, 하나 이상의 신호들)를 획득하는 것을 포함할 수 있다. 예비 검출 정보를 획득하는 것은 깊이 이미지의 단일 픽셀 (또는 다각형 메쉬의 PC 포인트 또는 다각형, 표면, 면, 모서리, 또는 다각형 메쉬의 정점과 같은 또 다른 유형의 깊이 맵의 아이템), 또는 하나 이상의 픽셀 (또는 아이템)에 대한 검출 정보를 획득하는 것을 포함할 수 있다. 이전의 도면들에 관하여 제시된 예시들을 참조하면, 스테이지(2440)는 센서 인터페이스(2350) 및/또는 센서 조립체(2340)에 의해 실행될 수 있다.
스테이지(2450)는 (동일한 프레임 시간에서 동일한 세그먼트에 대한 스테이지(2440)의) 예비 검출 정보에 기초하여, 동일한 각각의 프레임 시간 동안 LIDAR에 의한 후속 발광을 각각의 세그먼트로 선택적으로 제어하는 것을 포함할 수 있다. 이전의 도면들에 관하여 제시된 예시들을 참조하면, 스테이지(2450)는 예를 들어, 광원 제어기(2360)에 의해 실행될 수 있다. 스테이지(2450)의 제어는 예를 들어, 광원 제어기(2360)와 관련하여 논의된 임의의 형태의 제어를 포함할 수 있다. 일부 실시예에서, 스테이지(2450)는 후속 방출을 각각의 세그먼트로 지향하기 위해 LIDAR의 스티어링 조립체 (예를 들어, 스티어링 조립체(2330))를 제어하는 것을 포함할 수 있다.
일부 실시예에서, 각각의 프레임 시간에서 예비 검출 정보의 획득 및 (모든 세그먼트들에 대한) 선택적인 제어는 동일한 프레임 조명 지속 기간 (프레임 시간에서의 첫 번째 광자의 방출과 검출이 프레임의 깊이 맵에 영향을 미치는 마지막 광자의 방출 사이의 시간) 내에서 실행될 수 있다. 선택적으로, 선택적인 제어 및 후속 방출은 프레임 시간의 깊이 맵의 생성을 위한 검출 정보의 처리가 시작하기 전에 종료된다.
일부 실시예에서, 상이한 세그먼트가 조명되고 분석되는 상이한 순서가 구현될 수 있다. 예를 들어, 예비적으로 각 세그먼트를 조명하고, 각각의 예비 검출 정보를 획득하고(스테이지(2440)) 동일한 세그먼트(단계 2450)에 후속 조명을 선택적으로 제어하는 것은 다른 세그먼트에 대해 동일한 단계를 실행하기 전에 진행될 수 있다.
다른 실시예에서, 제1 세그먼트의 예비 조명과 그 후속 조명 (각각의 후속 방출과 함께) 사이에, 다른 세그먼트가 조명될 수 있다. 일부 실시예에서, 단일 세그먼트에 대한 후속 방출은 단일 세그먼트의 세그먼트 암-시간 (즉, LIDAR가 그 세그먼트에 어떠한 광도 투영하지 않는 동안)에 선행되며, 그 동안 복수의 세그먼트 중 다른 세그먼트가 LIDAR에 의해 조명된다.
방법(2400)은 LIDAR 시스템(100)이 안구에 안전 (예를 들어, 임의의 관련된 안구 안전 규정의 요구 사항에 따라 작동)하도록 보장하기 위해 사용될 수 있다. 일부 실시예에서, 선택적 제어 조명은, 예비 검출 정보에 기초하여 투영 필드 (예를 들어, 구형 섹터, 원뿔형, 또는 원뿔대)가 적어도 미리 결정된 개수의 프레임에 대해 적어도 안구 안전 범위 내에서 사람들에게 명확하다는 것을 결정하는 (도시되지 않은) 스테이지에 선행한다. 이러한 방식으로, LIDAR 시스템(100)은 사람들에게 명확하지 않은 FOV의 부분에 대해 전력이 안전 임계값을 초과하는 후속 방출을 방지할 수 있다. 안구 안전 범위 (예를 들어, 도 23의 "범위 임계값")는 미리 정해진 범위일 수 있지만, 반드시 그런 것은 아니다. 일부 경우에, 프로세서(118)는 LIDAR FOV의 특정 영역에 대한 하나 이상의 광 투영에 기초하여 (또는 초기 광 투영과 관련하여 변경된 적어도 하나의 특성을 가지는 후속 광 투영 또는 초기 광 투영을 기초로) 수신된 반사 신호에 기초하여 안전 거리와 연관된 임계값을 조절하도록 구성될 수 있다.
검출된 조건들 또는 시나리오에 의존하여, 스테이지(2450)의 선택적 제어는, 안구 안전 조명 한계보다 낮거나 떨어지지 않는 투영 필드로의 후속 발광의 투영 제어를 포함하며, 그러나 모든 경우 조명의 제어는 안구 안전 규정을 준수하는 방식으로 수행될 수 있다. 예를 들어, LIDAR 검출이 LIDAR FOV의 영역 또는 특정 영역에서 (인간 또는 기타) 눈을 지니고 있는 개인의 부족을 나타내는 경우, 그 영역 또는 영역 내의 후속 광 투영은 보통 안구 안전하지 않은 레벨에서 진행될 수 있다. 예를 들어, 눈을 지닌 개인이 나중에 검출되면, 예를 들어 그러한 개인이 이전에 점유하지 않았던 영역들 또는 영역으로 진입하는 경우, 광 투영이기의 하나 이상의 파라미터가 변경되어 점유된 영역으로의 후속 발광은 개인의 눈에 안전한 방식으로 수행될 수 있다. 다른 경우, 눈을 지닌 하나 이상의 개인은 LIDAR FOV의 특정 영역 내에서 검출될 수 있지만 안구 안전 임계 값을 넘는 곳(예를 들어, 안구 위험 거리)에서 검출될 수 있다. 그러한 경우, 광은 안구 안전 임계값 내에서 안구 안전하지 않을 수 있는 방식으로 그 영역에 투영될 수 있으나, 이는 개인이 검출되는 안구 안전 임계값을 넘어서 안구에 안전하다. 또 다른 경우에 있어서, 인간 및/또는 동물은 LIDAR 시스템의 인접한 면적 내의 범위 (예를 들어, 미리 결정된 안구 안전 임계 거리 내)에서 검출될 수 있다. 그러한 경우, 눈을 지닌 하나 이상의 개인이 검출되는 LIDAR의 인접한 면적에서 그러한 영역의 안구 안전을 유지하기 위해 광 투영이 변경될 수 있다. 안구 안전 프로토콜은 최대 전력 레벨 또는 축적된 에너지의 임계값을 시간에 따라 정의할 수 있다. 만약 후속 발광이 펄스들의 그룹을 포함한다면, 예를 들어, 안구 안전 준수는 그 펄스들의 집계된 에너지가 미리 결정된 임계 레벨을 초과하지 않을 것을 요구할 수 있다. 어떤 경우에, 물체(예를 들어, 사람)가 LIDAR 시스템의 인접한 면적에서 검출될 때, 프로세서(118)는 검출된 물체와 연관된 인접한 면적의 부분을 향하여 임의의 추가 발광을 방지하도록 구성될 수 있다. 다른 경우에, 물체가 인접한 면적에서 검출될 때, 적어도 하나의 프로세서는 추가적으로 적어도 하나의 광원과 적어도 하나의 광 편향기 중 적어도 하나를 조절하여 상기 인접한 면적을 향하여 가시광을 방출할 수 있도록 구성될 수 있다. 가시광은 거리의 결정에 광이 사용되는 광원과는 별도의 광원에 의해 방출될 수 있다는 것에 유의해야 한다.
"인접한 면적"이란 용어는 당해 기술 분야에서 널리 사용되며, LIDAR 시스템에 근접한 면적을 포함하도록 광범위하게 해석되어야 한다. 인접한 면적의 크기는 (LIDAR 시스템의 잠재적 위험 거리에 영향을 미치는) LIDAR 시스템의 전원 설정에 따라 달라질 수 있다. 인접한 면적은 (광이 LIDAR 시스템에 의해 방출될 수 있는) FOV의 모든 방향에서 실질적으로 동일한 지름일 수 있다 - 예를 들어, 최대 50%까지의 차이를 가짐 -. 그러나 반드시 그렇지는 않다. 선택적으로, LIDAR 시스템의 인접한 면적은 LIDAR 시스템에 의해 광이 방출될 수 있는 FOV의 모든 방향으로 정의된다.
일부 실시예에서, LIDAR FOV의 선택된 영역들에 투영된 광에 기초하여, 프로세서(118)와 같은 프로세서는 LIDAR FOV 내의 물체들로부터 반사된 광을 나타내는 적어도 하나의 센서 반사 신호로부터 수신할 수 있다. 프로세서(118)는 초기 발광으로부터 야기된 반사 신호에 기초하여 (예를 들어, LIDAR FOV의 특정 세그먼트 또는 FOV의 세그먼트의 그룹과 연관되고 적어도 하나의 광 편향기로부터 임계 거리 내에 있는 영역에서) 물체가 LIDAR 시스템의 인접한 면적에 위치하는지 여부를 결정할 수 있다. 임계 거리는 안구 안전 거리와 같은 안전 거리와 연관될 수 있다. FOV의 인접한 면적에서 아무런 물체도 검출되지 않을 때, 프로세서(118)는 추가 발광이 인접한 면적을 향해 투영될 수 있도록 적어도 하나의 광원을 제어할 수 있어서, 인접한 면적을 넘어서 물체의 검출을 가능하게 한다. 그러한 경우에, 예를 들어, 적어도 하나의 프로세서는 초기 발광 및 추가 발광을 사용하여 인접한 면적을 넘어서 위치한 물체의 거리를 결정하도록 구성될 수 있다. "반사 신호"라는 용어는 정반사, 확산 반사, 및 임의의 다른 형태의 광 산란을 포함하여 임의의 형태의 반사 및 광의 산란을 포함하도록 폭넓게 해석되어야 한다는 것을 유의해야 한다.
물체가 인접한 면적에서 검출될 때, 프로세서(118)는 적어도 하나의 광원 및 적어도 하나의 광 편향기 중 적어도 하나를 조절하여 인접한 면적에 투영된 광의 축적된 에너지 밀도가 최대 허용 노출량을 초과하는 것을 방지할 수 있다. 예를 들어, 투영 유닛 및/또는 광 편향 유닛의 다양한 파라미터는 (예를 들어, 안구 안전 파라미터와 관련된 적어도 하나의 양태와 다른) 적어도 하나의 양태에서 초기 발광과는 다른 특정 LIDAR FOV 세그먼트에 추가 발광을 제공하도록 변경될 수 있다. 추가 발광은 초기 발광이 이루어질 때와 동일한 FOV 스캔 동안 또는 임의의 후속 FOV 스캔 동안 특정 LIDAR FOV 세그먼트로 이루어질 수 있다.
LIDAR 시스템은 검출된 물체에 대한 거리 값 결정을 할 수 있으므로, 이러한 정보는 안구 안전 규정을 준수하기 위해 LIDAR 시스템에 의해 영향을 받을 수 있다. 예를 들어, 일단 물체가 검출되면, 프로세서(118)는 (예를 들어, 비행 시간 분석 등에 기초하여) 물체까지의 거리를 결정할 수 있다. 프로세서(118)는 (예를 들어, 검출된 거리와 소스(112)/편향기(114)로부터 투영된 광의 알려진 특성에 기초하여) 검출된 물체에서 투영된 광의 세기를 계산할 수 있다. 이러한 계산에 기초하여, 프로세서(118)는 물체까지의 거리에서 안구 안전한 광 노출 시간을 결정할 수 있다. 그 다음, 프로세서(118)는 광 노출 시간이 초과되지 않는 것을 보장하기 위해 광원(112) 및 편향기(114) 중 적어도 하나를 제어할 수 있다. 유사하게, 프로세서(118)는 최대 허용 노출과 연관된 값을 결정하도록 구성될 수 있으며, 이 결정은 적어도 하나의 광 편향기와 LIDAR 시스템의 인접한 면적에서 검출된 물체 사이의 결정된 거리에 기초할 수 있다.
이에 더하여, 또는 노출 시간의 결정 대신에, 프로세서(118)는 전술한 세기의 계산에 기초하여 물체까지의 거리에서 안구 안전한 허용 가능한 광 에너지를 결정할 수 있다. 노출 시간 및 허용 가능한 광 에너지 모두에 대해, 일부 예시에서, 프로세서(118)는 각각의 파라미터를 나타내는 값을 결정함으로써 간접적으로 각각의 파라미터를 결정할 수 있다는 것을 유의한다. (만약 구현된 경우) 허용 가능한 광 에너지의 결정은, 심지어 분명하게 정교하지는 않더라도 필요한 부분만 약간 수정하여 결정된 노출 시간이 사용된 것과 동일한 방식으로 사용될 수 있다.
또한, 적어도 하나의 광 편향기와 물체 사이의 거리는 직접적으로 또는 간접적으로 결정될 수 있다는 것을 유의한다. 그 거리의 간접적인 결정은, 예를 들어, 적어도 하나의 광원과 물체 사이의 거리와 같은 다른 거리를 결정함으로써 달성될 수 있다.
LIDAR FOV가 FOV의 스캔을 수행하기 위해 세그먼트 또는 섹터로 분할되는 실시예에서, 예를 들어, 각 세그먼트 또는 섹터는 LIDAR 시스템에 관하여 상이한 인접한 면적과 연관될 수 있다. 즉, 각 세그먼트 또는 섹터는 안구 안전 임계 거리와 함께 LIDAR 시스템 근처에서 별도의 인접한 면적을 정의할 수 있다. 일부 실시예에서, 프로세서(118)는 각 섹터에 대한 초기 발광으로부터 야기된 반사 신호에 기초하여, 물체가 복수의 섹터와 연관된 인접한 면적의 각각에 위치되는지 여부를 결정하도록 구성될 수 있다. 몇몇 경우 및 센서 유닛을 통해 특정 섹터로부터 수신된 반사 신호에 기초하여, 프로세서(118)는 제1 섹터와 연관된 제1 인접한 면적에서 물체를 검출하도록 구성될 수 있다. 이와 유사하게, 프로세서(118)는 제2 섹터와 연관된 제2 인접한 면적 내의 물체들의 부재를 결정하도록 구성될 수 있다. 그러한 경우에, 적어도 하나의 프로세서(118)는 추가적인 발광이 제2 인접한 면적을 향하여 투영되게 적어도 하나의 광원을 제어하도록 (예를 들어, 단일 스캐닝 사이클에서) 구성될 수 있다. 또한, 프로세서(118)는 광원 및/또는 광 편향기 중 적어도 하나를 조절하여 제1 인접한 면적의 광의 축적된 에너지 밀도가 최대 허용 노출을 초과하는 것을 방지할 수 있다.
LIDAR FOV가 섹터들로 분할되는 일부 실시예에서, 프로세서(118)는 각 섹터로부터의 초기 발광과 연관된 반사 신호들에 기초하여, 물체가 복수의 섹터와 연관된 인접한 각각의 면적에 위치되는지 여부를 결정하도록 구성될 수 있다. 프로세서(118)가 제1 섹터와 연관된 제1 인접한 면적 내의 물체를 검출하고 제2 섹터와 연관된 제2 인접한 면적에서 물체의 부재를 결정할 때, 프로세서(118)는 단일 스캐닝 사이클에서 추가 발광이 제2 인접한 면적을 향하여 투영될 수 있도록 적어도 하나의 광원을 제어할 수 있다. 프로세서(118)는 또한 제1 인접한 면적에서의 광의 축적된 에너지 밀도가 최대 허용 노출을 초과하는 것을 방지하기 위해 적어도 하나의 광원과 적어도 하나의 광 편향기 중 적어도 하나를 조절할 수 있다.
상술한 임의의 LIDAR 시스템 실시예가 본원에 기술된 안구 안전 광 투영 프로토콜과 함께 사용될 수 있음을 유의해야 한다. 예를 들어, 일부 실시예에서, 안구 안전용 LIDAR는, 시야의 특정 세그먼트의 물체로부터 반사된 광이 동일한 편향기에 의해 하나 이상의 센서를 향하여 지향되는 동안, 편향기가 시야의 특정 세그먼트를 향하여 투영된 광을 조종하기 위해 모노스태틱 편향기 구성을 포함할 수 있다. 또한, 광 편향기는 복수의 광 편향기를 포함할 수 있고, 프로세서(118)는 복수의 광 편향기가 협력하여 LIDAR FOV를 스캔하도록 구성될 수 있다. 일부 실시예에서, 적어도 하나의 광 편향기는 단일 광 편향기를 포함할 수 있고, 적어도 하나의 광원은 단일 광 편향기를 목표로 하는 복수의 광원을 포함할 수 있다.
다양한 상이한 광원들이 LIDAR 시스템(100)에 채용될 수 있다. 예를 들어, 일부 경우에, 광원은 1000nm 미만, 800nm 내지 1000nm 등의 파장으로 광을 투영하도록 구성될 수 있다.
일부 실시예에서, LIDAR 시스템(100)은 하나 이상의 광원을 포함할 수 있다. 그러한 경우에, 각각의 광원은 LIDAR FOV의 다른 면적과 연관될 수 있다. 프로세서(118)는 하나의 물체가 안전 거리보다 큰 거리에서 시야의 제1 면적에서 검출될 때, 다른 광원에 의해 시야의 제2 면적에 투영된 광의 에너지 밀도는 시야의 제2 면적과 연관된 최대 허용 노출을 뛰어넘지 않도록 하기 위해 적어도 하나의 광 편향기 및 복수의 광원들의 작동을 조정하도록 구성될 수 있다.
또한, 프로세서(118)는 다른 물체가 안전 거리보다 큰 거리에서 다른 면적에서 검출될 때, 시야의 다른 부분에 대한 적어도 하나의 광원에 의해 투영된 광의 에너지 밀도는 시야의 다른 부분과 연관된 최대 허용 노출을 뛰어넘지 않도록 하기 위해 적어도 하나의 광 편향기 및 적어도 하나의 광원을 조정하도록 구성될 수 있다. 일부 실시예에서, 안전 거리는 명목상의 안구 위험 거리(Nominal Ocular Hazard Distance, NOHD)이다.
일부 실시예들에서, 스테이지(2450)의 선택적 제어는 - 적어도 하나의 프레임 시간 동안 적어도 하나의 세그먼트에서 - 적어도 미리 결정된 개수의 프레임 시간 동안 사람들의 시야가 명확하지 않은 투영 필드에 대해, 전력이 안전 임계값을 초과하는 후속 방출을 방지하는 것을 포함할 수 있다. 일부 실시예에서, 적어도 하나의 프레임 시간에서 적어도 하나의 FOV 세그먼트에 대한 선택적 제어는 광 투영 전력 레벨을 유지하거나 심지어 증가시키는 것을 포함할 수 있는 반면, 동시에 적어도 하나의 FOV 세그먼트에 제공된 축적된 에너지 양을 감소시킨다. 예를 들어, 펄스 레이저 예시에서, 선행 조명의 펄스 (또는 펄스들)는 하나 이상의 후속 방출의 펄스 (또는 펄스들)와 동일한 피크 전력 (또는 더 낮은 전력 레벨)을 가질 수 있다. 그러나, 그럼에도 불구하고, 후속 조명의 축적된 에너지는 선행 방출 또는 방출들의 축적된 에너지보다 낮을 수 있다. 이러한 방식으로, 안구 안전 규정을 준수하며 여전히 작동하면서 신호 대 노이즈 비율 및/또는 검출 범위를 증가시키는 것이 가능할 수 있다. 물론, 다른 예시에서, 안구 안전 규정을 준수하면서 LIDAR 검출 목표를 성취하기 위해, 임의의 조합으로 전력 레벨, 축적된 에너지 특성, 또는 임의의 다른 발광 파라미터를 변경하는 것이 가능할 수 있다.
일부 실시예에서, 스테이지(2450)의 선택적 제어는 안구 안전 규정을 준수하기 위해 임의의 주어진 프레임 시간 내의 세그먼트의 그룹 또는 특정 FOV 세그먼트에 후속 발광을 정지 (또는 방지)하는 것을 포함할 수 있다. 이러한 제어는 또한 검출기 또는 검출 및/또는 처리 체인의 임의의 다른 구성 요소의 포화의 위험을 감소 또는 제거하도록 구현될 수 있다. 그러한 제어는 또한 절전 고려 사항을 지지할 수 있다 (예를 들어, 만약 이전 방출에 기초하여 연속적인 방출 없이 범위를 결정할 수 있는 경우 및/또는 물체가 검출될 수 있는 경우와 같이 필요하지 않은 곳에 에너지를 소비하지 않는다).
일부 실시예에서, 적어도 하나의 프레임 시간에서 LIDAR FOV의 적어도 하나의 세그먼트에 대한 선택적 제어는, 만약 예비 검출 정보가 미리 결정된 검출 기준을 충족시키는 경우 임의의 후속 방출의 방출을 방지하는 것을 포함할 수 있다. 일부 실시예에서, 선택적 제어는 세그먼트에 대한 깊이 정보를 산출하기 위해 (각각의 세그먼트에 대한 임의의 추가 후속 검출 정보 없이) 예비 검출 정보의 처리가 더 뒤따를 수 있다.
(예를 들어) 안구 안전과 관련하여, 방법(2400)은 하나 이상의 물체가 인간 및/또는 동물을 포함하는 결정된 가능성에 기초하여 하나 이상의 물체가 검출되는 FOV 영역에 잠재적으로 유해한 방출을 조명하는 것을 방지하기 위해 사용될 수 있다. 하나 이상의 물체가 눈을 지니는 개인을 포함할 가능성이 낮을지라도 특정 FOV 영역에 잠재적으로 유해한 방출은 중단될 수 있다. 특정 FOV에 잠재적으로 유해한 방출은 FOV 영역이 눈을 지니는 개인이 일반적으로 발견되는 영역으로 결정되는 경우, 개인(또는 물체)이 검출되지 않는 상황(예를 들어, 정지된 버스 근처, 횡단보도 근처, 보도 근처, 빌딩 입구 근처 등과 같은 검출된 전후 사정에 기초하여)에서도 중단(또는 달리 변경)될 수 있다. 눈을 지닌 개인을 포함하거나 그러한 개인을 포함할 것으로 예상/예측되는 것으로 결정되지 않은 FOV의 다른 영역에서는 더 높은 전력 방출이 그 지역에 제공될 수 있다. 결과적으로, (예를 들어, 더 높은 전력 방출 등 때문에) 생성된 깊이 맵은 안구 안전 제한을 받지 않는 면적에서 검출의 이익을 얻을 수 있으므로, 전체 FOV를 가로지르는 모든 발광이 눈을 지닌 개인의 존재를 가정한 전력 레벨 등에서 만들어진 경우보다 깊이 맵의 전체적인 품질이 더 높을 수 있다.
방법(2400)은 시퀀스의 단일 프레임 시간 내의 실행을 포함할 수 있다 : 대응하는 예비 검출 정보에 기초하여, 적어도 2 배 이상만큼 서로 상이한 전력 레벨을 갖는 상이한 FOV 세그먼트로의 후속 방출을 선택적으로 제어하는 것 (예를 들어, 하나의 FOV 세그먼트에 대한 후속 방출은 동일한 프레임 시간에서 다른 세그먼트에 대한 후속 방출의 적어도 2배 만큼 높은 전력 레벨을 가질 수 있다). 이 프레임 시간에 대한 깊이 맵이 생성될 수 있다 (예를 들어, 스테이지(580)). 이는, (예를 들어, 축적된 에너지 임계값의 관점에서) FOV의 다른 영역 또는 심지어 전체 FOV에 걸쳐 안구 안전 준수를 유지하면서, FOV의 일부에서 예를 들어 높은 SNR 또는 장거리 검출을 허용할 수 있다.
일부 실시예에서, 스테이지(2450)는 센서 검출 정보가 획득되는 검출 경로의 포화를 방지하기 위해 후속 방출을 선택적으로 제어하는 것을 포함할 수 있다. 이는 센서, 또는 검출 및/또는 처리 경로에 있는 LIDAR의 임의의 구성 요소, 예를 들어 증폭기, 아날로그 디지털 컨버터 등을 포함할 수 있다. 포화의 방지는 검출 결과의 진보된 처리 (예를 들어, 검출된 타겟의 반사도 레벨 추정)에 활용될 수 있다.
방법(2400)은 선행하는 프레임 (또는 프레임들) - 동일한 세그먼트 또는 다른 세그먼트들 중 하나의 검출 결과들에 기초하여 주어진 프레임 시간에서 주어진 FOV 세그먼트에 대한 방출 레벨들을 제한 (또는 그렇지 않다면 관리)하는 것을 포함할 수 있다. 방법(2400)은 (동일한 프레임 시간 또는 선행하는 프레임 시간에서의) 다른 세그먼트의 검출 결과에 기초하여 주어진 프레임 시간에서 주어진 세그먼트로 방출 레벨을 제한 (또는 그렇지 않다면 관리)하는 것을 포함할 수 있다.
방법(2400)은 동일한 프레임 시간에서 획득된 동일한 FOV 세그먼트 또는 FOV의 다른 세그먼트의 예비 검출 정보에 기초하여 (예를 들어, 동일한 프레임 시간에서) FOV의 세그먼트에 대한 후속 방출을 제어하는 것을 포함할 수 있다. 예를 들어, LIDAR의 인접한 면적 내에서 타겟의 특정 FOV 세그먼트, 특히 눈을 지닌 개인에 대응하는 FOV 세그먼트에서의 검출은 동일한 FOV 세그먼트에 제공되거나 하나 이상의 주변 FOV 세그먼트에 제공되는 후속 발광에 영향을 줄 수 있다. 예를 들어, 이러한 타겟은 2개 이상의 FOV 세그먼트에 걸쳐 있거나 인접한 FOV 세그먼트로 이동할 것으로 예상될 수 있다.
방법(2400)은 이전 프레임 시간 동안 수집된 검출 정보에 기초하여 예비 검출 정보의 획득 이전에 특정 FOV 세그먼트에 대한 예비 방출을 선택적으로 제어하는 것을 포함할 수 있다. 일부 실시예에서, 예비 조명 및 후속 조명을 위해 상이한 광원이 사용될 수 있다. 예를 들어, 후속 방출이 LIDAR의 주 광원에 의해 투영될 수 있는 동안, 예비 조명은 다른 광원 (예를 들어, 가시광 또는 심지어 다른 시스템의 광원)에 의해 투영될 수 있다. 선택적으로, 예비 검출 정보는 각각의 후속 방출 동안 투영하지 않는 LIDAR의 적어도 하나의 광원에 의해 방출된 적어도 하나의 광자의 검출에 기초한다. 상이한 광원은 단일 광원 제어기 또는 상이한 제어기에 의해 제어될 수 있다.
예비 검출 정보 및 후속 검출 정보의 검출은 상이한 센서에 의해 실행될 수 있다. 예를 들어, 예비 검출 정보는 근거리에 최적화된 적어도 하나의 센서에 의한 검출에 기초할 수 있는 반면, 방법(2400)은 또한 더 큰 범위 검출을 위해 최적화된 적어도 하나의 다른 센서에 의해 검출된 후속 방출의 반사된 광자의 검출 정보를 처리하는 것을 포함한다. 다른 유형의 센서 사용은 (예를 들어, 다른 센서에 최적화된 또는 그 반대) 다른 유형의 광원의 사용과 결합될 수 있지만, 반드시 그런 것은 아니다. 일 예시에서, 센서(116)는 단일 광자 애벌랜치 다이오드(SPAD)의 어레이에 추가하여 (또는 대안적으로) 근거리 물체 검출을 위한 애벌랜치 광다이오드(APD) 검출기를 포함할 수 있다.
FOV 세그먼트의 예비 조명은 FOV의 일부 세그먼트에서 사용될 수 있다 (예를 들어, 만약 예비 조명이 임계 레벨, 예컨대 안구 안전 임계값 이하인 경우). (예를 들어, 임계 레벨을 초과하는 에너지 레벨을 갖는) FOV의 다른 세그먼트들에 대한 조명은 관련 프레임들의 예비 검출 정보의 분석에 의해 통제될 수 있다. 예를 들어, 만약 FOV의 둘레 주위의 FOV의 영역이 눈을 지닌 개인에게 낮은 위험의 지표를 반환하는 경우, FOV의 중심은 보다 높은 광 투영을 사용하여 스캔될 수 있는 반면, FOV의 둘레는 예비 저레벨 조사 신호를 사용하여 분석될 수 있다.
방법(2400)은, 예를 들어 프레임 시간 동안 LIDAR에 의해 방출되고, FOV의 둘레에 위치된 적어도 하나의 세그먼트 내의 하나 이상의 물체들로부터 반사된 광에 기초한 둘레 검출 정보를 획득하는 것을 포함하는 FOV 스캔 단계들의 프레임 시간 내에서 실행하는 것을 포함할 수 있다. 단계들은 또한 둘레 검출 정보에 기초하여 FOV의 중심에 위치된 세그먼트들에 대한 발광을 선택적으로 제어하는 것을 포함할 수 있다.
방법(2400)을 전체적으로 참조하고, 그 임의의 변형이 위에서 논의된 바와 같이, 방법(2400)은 프로세서 (예를 들어, LIDAR의 제어기)에 의해 실행될 수 있는 컴퓨터 판독가능 코드로 구현될 수 있음을 유의한다. 깊이 맵의 시퀀스를 생성하는 광 검출 및 범위 디바이스(LIDAR)의 작동을 제어하기 위한 비일시적 컴퓨터 판독가능 매체가 본원에 개시된다 (시퀀스의 각각의 깊이 맵은 대응하는 서브 초 프레임 시간에서 생성된다). 상기 비휘발성 컴퓨터 판독가능 매체는, 프로세서 상에서 실행될 때, (a) 각각의 프레임 시간 동안 LIDAR에 의해 방출되고 각각의 세그먼트로부터 반사된 광의 예비 검출 정보를 획득하는 것 (b) 예비 검출 정보에 기초하여, 상기 각각의 프레임 시간 동안 각각의 세그먼트에 LIDAR에 의한 후속 발광을 선택적으로 제어하는 것을 포함하는 단계를 수행할 수 있는 명령들을 포함할 수 있다. 방법(2400)의 임의의 다른 단계는 또한 컴퓨터 판독가능 매체 상에 저장되고 프로세서에 의해 실행 가능한 명령들로서 구현될 수 있다.
도 25a는 본원에 개시된 대상에 따른 방법(2500)의 일례를 도시하는 흐름도이다. 방법(2500)은 방법(2400)의 가능한 구현 중 하나이다. 도 25a에 예시된 바와 같이, 선택적으로 동일한 프레임 시간으로부터의 검출 결과에 기초한 (주어진 프레임 시간의 주어진 세그먼트에서의) LIDAR에 의한 LIDAR에 의한 추가 발광의 선택적인 제어는 안전 프레임 시간에서 여러 번 반복될 수 있다. 예를 들어, 방출, 검출, 분석, 및 선택적 제어의 이러한 시퀀스는 특정 FOV 세그먼트에 대해 방출된 각 펄스에 대해 반복될 수 있다.
방법(2500)은, 일부 실시예에서 LIDAR의 범위 임계값 내에서 물체를 검출하고 물체가 검출되었는지 여부에 기초하여 후속 발광을 설정하는 것을 포함할 수 있다. LIDAR 시스템(100) 또는 도 23을 참조하여 전술한 LIDAR는 하나 이상의 광원(112)을 제어하여 인접한 면적을 향해 광 펄스를 방출할 수 있다. 광 펄스는 하나 이상의 편향기(114)에 의해 FOV의 특정 세그먼트를 향하여 지향될 수 있다. 물체가 FOV의 특정 세그먼트 내에 있으면, LIDAR 시스템(100)은 하나 이상의 센서(116) 또는 센서 어레이를 통해 그 물체로부터 반사된 광을 수신할 수 있다. 프로세서(118) 또는 범위 추정기(2390)는 반사된 광을 사용하여 물체와 LIDAR 시스템(100) 사이의 거리를 결정할 수 있다. 만약 물체가 임계 거리 내에 있으면, 프로세서(118)는 적어도 하나의 광원(112) 및 적어도 하나의 광 편향기(114)를 조절하여 인접한 면적에 투영된 광의 축적된 에너지 밀도가 최대 허용 노출을 초과하는 것을 방지할 수 있다. 어떤 물체도 검출되지 않으면, 후속하는 광의 펄스가 동일 세그먼트에서 방출되어 인접한 면적 너머 물체가 있는지 검출할 수 있다.
예를 들어, 만약 보행자가 검출되면, 이후 후속 발광 특성이 보행자의 존재를 설명하기 위해 결정될 수 있다. 일부 실시예에서, 보행자가 상주하도록 결정된 세그먼트 또는 특정 FOV 세그먼트에 대한 발광은 적용 가능한 안구 안전 규정을 준수하기 위해 전력 레벨, 집계된 에너지 레벨, 지속 시간 등으로 제한될 수 있다. 이 실시예의 장점은 지역 또는 연방 규정에 의해 안전하다고 간주되는 범위 내에서 방출 전력을 감소시킴으로써 LIDAR 면적의 보행자 또는 다른 사람들에게 증가된 안전성을 포함한다.
도 25b는 물체를 검출하기 위한 예시적인 방법(2500)을 도시한다. 방법(2500)은 적어도 하나의 프로세서(예를 들어, 도 1a에 묘사된 LIDAR 시스템(100)의 처리 유닛(108)의 프로세서(118) 및/또는 도 2a에 묘사된 LIDAR 시스템의 처리 유닛(108)의 두 프로세서(118))에 의해 수행될 수 있다. 단계 (2502)에서, 프로세서(118)는 적어도 하나의 광원으로부터의 광의 광 플럭스가 시야(예를 들어, 도 1a 및 도 2a의 시야(120))의 스캐닝 사이클에 걸쳐 변화할 수 있는 방식으로 적어도 하나의 광원(예를 들어, 도 1a의 광원(112), 도 2a의 광원(112)의 레이저 다이오드(202), 및/또는 도 2b의 복수의 광원(102))을 제어한다. 예를 들어, 프로세서(118)는 적어도 하나의 광원으로부터의 펄스의 타이밍을 변화시킬 수 있다. 대안적으로 또는 동시에, 프로세서(118)는 적어도 하나의 광원으로부터의 펄스의 길이를 변화시킬 수 있다. 추가 예시로서, 프로세서(118)는 적어도 하나의 광원으로부터의 펄스의 크기 (예를 들어, 길이, 폭, 또는 그렇지 않으면 단면적을 변경)를 택일적으로 또는 동시에 변화시킬 수 있다. 다른 추가적인 예시에서, 프로세서(118)는 적어도 하나의 광원으로부터 펄스의 진폭 및/또는 주파수를 택일적으로 또는 동시에 변화시킬 수 있다.
단계 2504는 시야를 스캔하기 위해 적어도 하나의 광원으로부터의 광을 편향시키도록 적어도 하나의 편향기(예를 들어, 도 1a의 광 편향기(114), 도 2a의 편향기(114A) 및/또는 편향기(114B), 및/또는 도 2b의 일방향 편향기(214))를 제어하는 것을 더 포함할 수 있다. 예를 들어, 프로세서(118)는 시야를 스캔하기 위해 적어도 하나의 광 편향기의 기계적 이동을 야기할 수 있다. 대안적으로 또는 동시에, 프로세서(118)는 시야를 스캔하기 위해 적어도 하나의 편향기에서 압전기 또는 열전기 변화를 유도할 수 있다.
단계(2506)에서, 프로세서(118)는 적어도 하나의 센서로부터(예를 들어, 도 1a의 센서(116)) 시야 내의 물체로부터 반사된 광을 나타내는 반사 신호를 수신할 수 있다. 일 실시예에서, 반사 신호는 시야의 단일 부분 (예를 들어, 도 4b의 제2 FOV(414))과 연관될 수 있다. 단계(2508)에서, 프로세서(118)는 초기 발광의 반사 신호에 기초하여 물체가 적어도 하나의 광 편 향기로부터의 임계 거리 내에서 시야의 인접한 면적에 위치하는지 여부를 결정할 수 있다. 일 실시예와 일치하여, 임계 거리는 안구 위험 거리와 연관될 수 있다. 즉, 프로세서(118)는 투영된 광량이 인접한 면적에 위치한 개인을 손상시킬 수 있는지 결정할 수 있다. 다른 실시예와 일치하여, 임계 거리는 센서 포화 거리와 연관될 수 있다. 다시 말해서, 프로세서(118)는 투영된 광량이 반사된 광이 센서(116)를 오버 플로우하게 할 수 있는지를 결정할 수 있다.
인접한 면적에서, 즉, 단계 2510에서 물체가 검출되지 않으면, 프로세서(118)는 추가 발광이 인접한 면적을 향해 투영되도록 하기 위해 적어도 하나의 광원을 제어함으로써 인접한 면적 너머의 물체의 검출을 가능하게 할 수 있다. 또한, 물체가 인접한 면적에서, 즉, 단계 (2512)에서 검출될 때, 프로세서(118)는 인접한 면적에서의 광의 축적된 에너지 밀도가 최대 허용 노출량을 초과하는 것을 방지하기 위해 적어도 하나의 광원 및 적어도 하나의 편향기 중 적어도 하나를 조절하는 것을 포함할 수 있다. 상술한 두 가지 실시예에 따르면, 최대 허용 노출은 인접한 면적에 위치한 개인을 손상시킬 수 있는 투영된 광량과 연관될 수 있고, 또는 반사된 광이 센서(116)를 기능적으로 손상될 수 있도록 오버 플로우하게 할 수 있는 투영된 광량과 연관될 수 있다.
조종 가능한 공통 편향기를 사용하는 Lidar에서의 평행 장면 스캐닝
본 개시의 실시예와 일치하는 LIDAR 시스템에서, 복수의 광원이 사용될 수 있다. 예를 들어, 복수의 광원을 사용하는 것은 상이한 파장, 세기 등의 광을 사용하여 시야의 스캐닝 및/또는 시야의 상이한 부분의 스캐닝을 동시에 가능하게 할 수 있다. 더 나아가, 본 개시의 실시예와 일치하는 LIDAR 시스템은 복수의 광원으로부터의 광을 조준하기 위해 공통 편향기를 사용할 수 있다. 예를 들어, 본 개시의 실시예와 일치하는 LIDAR 시스템은 단일 편향기를 사용하여 FOV에서 상이한 방향을 향하여 복수의 광원으로부터 광을 동시에 조준할 수 있다. 공통 편향기를 사용함으로써 LIDAR 시스템의 크기, 비용, 및/또는 복잡성이 감소될 수 있다. 일부 실시예에서, 본 개시의 실시예와 일치하는 LIDAR 시스템은 복수의 광원으로부터의 광을 조준하고 시야로부터 수신된 반사를 조준하기 위해 동일한 편향기를 사용할 수 있다. 일부 실시예에서, 복수의 광원의 광원은 (예를 들어, 플럭스 등을 증가시키기 위해) 한꺼번에 작동하는 복수의 개별 광원을 포함할 수 있다. 이러한 복수는 유사한 개별 광원들을 포함할 수 있지만, 상이한 종류 및/또는 상이한 특성을 갖는 개별 광원을 포함할 수도 있다.
도 26a, 도 26b, 및 도 26c는, 본원에 개시된 대상의 예시에 따라 (특히, 공통 편향기를 갖는) LIDAR를 사용하여 물체를 검출하기 위한 방법(2600), 방법(2630), 및 방법(2660)을 (각각) 도시한다. 방법(2600), 방법(2630), 및 방법(2660) 중 임의의 하나는 적어도 하나의 프로세서 (예를 들어, 도 1a에 묘사된 바와 같은 LIDAR 시스템(100)의 처리 유닛(108)의 프로세서(118), 도 2a에 묘사된 LIDAR 시스템의 처리 유닛(108)의 2개의 프로세서(118)), 도 27의 LIDAR 시스템(2700)의 적어도 하나의 프로세서(2702), 및/또는 도 28의 LIDAR 시스템(2800)의 적어도 하나의 프로세서(2802))에 의해 수행될 수 있다. 적어도 하나의 프로세서는 차량의 바디 (예를 들어, 후술하는 도 42a의 차량(4201), 도 42b의 차량(4205), 도 42c의 차량(4209), 또는 그와 유사한 것) 내에 위치될 수 있다. 방법(2600), 방법(2630), 및/또는 방법(2660)의 임의의 조합은 적어도 하나의 프로세서에 의해 구현될 수도 있다. 이러한 조합은 후술되는 임의의 방법(2600), 방법(2630), 및/또는 방법(2660)으로부터 임의의 2개 이상의 단계의 임의의 조합을 또한 포함할 수 있다. 또한, 방법(2600), 방법(2630), 및/또는 방법(2660)은 개시된 실시예와 일치하는 임의의 LIDAR 시스템에 의해 선택적으로 실행될 수 있다. 이러한 방법 중 임의의 하나의 맥락에서 LIDAR 시스템의 구성 요소(2600, 2630, 및 2660)와 관계된 모든 논의는 또한 다른 두 가지 방법에 대해 필요한 부분만 약간 수정하여 비 제한적으로 적용할 수 있다.
단계 2601에서, 적어도 하나의 프로세서(118) 또는 프로세서(2702) 또는 프로세서(2802)는, 적어도 하나의 편향기가 특정 순간 위치에 있는 동안 복수의 아웃바운드 경로를 따라 복수의 광원(예를 들어, 도 27의 LIDAR 시스템(2700)의 광원(2706, 2708, 및 2710) 및/또는 도 28의 LIDAR 시스템(2800)의 광원(2806, 2808)) 들로부터 시야(예를 들어, 도 27의 시야(2712) 및/또는 도 28의 시야(2810)) 를 형성하는 복수의 영역(예를 들어, 도 27의 영역(2712a, 2712b, 및 2712c 및/또는 도 28의 영역(2810a, 2810b) 을 향하여 광을 편향시키도록 적어도 하나의 편향기(예를 들어, 도 27의 LIDAR 시스템(2700)의 편향기(2704) 및/또는 도 28의 LIDAR 시스템(2800)의 편향기(2804))를 제어한다. 예를 들어, 적어도 하나의 편향기의 각 순간 위치에서, 상이한 광원의 각각의 광은, 예를 들어 도 2b, 도 27, 및 도 28에 묘사된 바와 같이 대응하는 영역의 부분으로 지향될 수 있다. 전술한 복수의 영역들(예를 들어, 2712a, 2712b)은 각각의 영역들 중 임의의 영역보다 더 큰 시야에 걸쳐 이어짐으로써 시야를 형성할 수 있다. 일부 실시예에서, 형성된 FOV는 (예를 들어, 도 27 및 도 28에서 예시된 바와 같이) 연속적일 수 있다. 대안적으로 또는 동시에, 형성된 FOV는 2 개 이상의 분리된 FOV 영역을 포함할 수 있다.
복수의 광원의 하나 이상의 속성이 변화할 수 있다. 예를 들어, 이하에 설명되는 바와 같이, 복수의 광원 중 적어도 2개의 광원으로부터 방출된 광의 파장이 다를 수 있다. 다른 추가적인 예시로서, 복수의 광원 중 적어도 2개의 광원의 최대 전력, 듀티 사이클, 펄스 타이밍, 펄스 길이 등이 다를 수 있다. 한편, 복수의 광원의 하나 이상의 속성은 광원 간에 동일하거나 적어도 실질적으로 유사할 수 있다.
예를 들어, 복수의 광원은 도 27에 묘사된 바와 같이 적어도 3개의 별개의 광원들을 포함할 수 있다. 일부 실시예에서, 복수의 광원으로부터의 광 사이의 각도는 스캐닝 내내 고정될 수 있다. 예를 들어, 제1 광원으로부터의 광은 상이한 시간 t에서 α1(t) 각도로 편향기의 표면 상에 충돌할 수 있고, 제2 광원으로부터의 광은 상이한 시간 t에서 α2(t)의 각도로 편향기의 동일한 표면 상에 충돌할 수 있으며, α1(t)-α2(t) 는 모두 다른 시간 t에 대해 일정할 수 있다. 광원이 단일 평면 상에 배열되지 않는 실시예에서, 2개의 각도는 편향기의 표면 상에 각 광원의 입사각을 식별하는데 사용될 수 있다. 일부 실시예에서, 각각의 광원은 일반적으로 시야의 상이한 영역과 연관될 수 있다. 예를 들어, 시야의 적어도 제1 영역 (예를 들어, 도 27의 영역(2712a))은 적어도 제2 영역(예를 들어, 도 27의 영역(2712b))에 인접할 수 있고, 적어도 제3 영역(예를 들어, 도 27의 영역(2712c))으로부터 이격될 수 있다. 대안적으로 또는 동시에, 이러한 예시에서, 시야의 적어도 각 영역은 시야의 상이한 각도 부분과 연관될 수 있다. 일부 실시예에서, 상이한 영역은 예를 들어 도 1a의 각각의 편향기(114)의 순간 위치의 범위에 의해 정의될 수 있는 유사한 크기(예를 들어, 유사한 각도 크기 또는 그와 유사한 것) 일 수 있다.
일부 실시예에서, 적어도 하나의 편향기는 도 27 및 도 28에 묘사된 바와 같이 2개의 독립된 축을 따라 피봇하도록 구성된 단일 편향기를 포함할 수 있다. 따라서, 단일 편향기는 2개의 독립된 축을 따라 광을 조종 및/또는 편향시킬 수 있다. 선택적으로 또는 동시에, 적어도 하나의 편향기는 도 3b에 묘사된 바와 같이, 개별적으로 피봇하도록 구성된 복수의 편향기를 갖는 편향기 어레이를 포함할 수 있다. 본원에서 사용되는 "피봇"이라는 용어는 편향기 또는 편향기 내의 반사기의 기계적 운동을 지칭할 수 있지만, 도 1a의 편향기(114)에 관해서 보다 상세하게 논의된 바와 같이 다른 순간 위치 사이에서 움직이는 임의의 다른 방식(예를 들어, OPA, VCSEL 어레이, MEMS 어레이, 또는 그와 유사한 것 등과 관련하여)을 지칭할 수도 있다.
특정 양태들에서, 스캐닝 사이클 동안, 적어도 하나의 광 편향기는 복수의 상이한 순간 위치들에 위치될 수 있다. 예를 들어, 적어도 하나의 광 편향기는 상이한 순간 위치들 사이에서 연속적인 스위핑 모션(sweeping motion)으로 이동될 수 있다. 대안적으로, 적어도 하나의 광 편향기는 연속적인 스위프로 움직이기보다는 복수의 이산 순간 위치들 사이에서 스캐닝 사이클 동안 이동될 수 있다.
일부 실시예에서, 적어도 하나의 편향기는 2차원 일 수 있고, 따라서 2개의 축을 정의할 수 있다. 이러한 실시예에서, 시야의 영역은 적어도 하나의 편향기의 하나의 축에 걸쳐 또는 둘 모두에 걸쳐 배치될 수 있다. 대안적으로 또는 동시에, FOV의 2개, 3개, 또는 그 이상의 영역은 직선을 따라 서로 평행하게, 예를 들어 각각 실질적으로 동일한 면적을 커버하면서 배치될 수 있다. 따라서, 스캐닝 사이클 내의 스캐닝은 적어도 하나의 축에 대한 다른 (실질적으로 수직한) 방향으로 병렬로 발생할 수 있다.
일부 실시예에서, 적어도 하나의 광 편향기는 복수의 광원 중 적어도 하나와 동일한 하우징 내에 포함될 수 있다. 다른 실시예에서, 적어도 하나의 광 편향기는 복수의 광원과는 별도의 하우징 내에 포함될 수 있다.
단계(2603)에서, 적어도 하나의 프로세서(118), 프로세서(2702), 또는 프로세서(2802)는 시야로부터의 광 반사가 적어도 하나의 편향기의 적어도 하나의 공통 면적(예를 들어, 도 27의 편향기(2704)의 공통 면적(2714), 도 27의 공통 면적(2748) 및/또는 도 28의 편향기(2804)의 공통 면적(2812)) 상에 수신되도록 하기 위해 적어도 하나의 편향기가 특정 순간 위치에 있는 동안 적어도 하나의 편향기를 제어한다. 특정 양태에서, 적어도 하나의 공통 면적에서, 복수의 광원 중 적어도 일부의 광 반사의 적어도 일부는 서로 충돌한다. 예를 들어, 하나의 광 반사가 수신되는 면적은 다른 광 반사가 수신되는 면적과 적어도 부분에서 중첩될 수 있다. 이러한 충돌은 동시에 일어날 수도 있고 다른 시간에 발생할 수도 있다. 예를 들어, 서로 다른 거리로부터 이동하는 광 반사는 별개의 시간에 도착할 수 있다. 다른 추가의 예시로서, 복수의 광원으로부터의 광은 상이한 타이밍으로 방출될 수 있으며, 이에 따라 상이한 시간에 반사를 생성할 수 있다. 이러한 타이밍은 복수의 광원에 걸쳐 변화할 수 있다.
단계 2605에서, 적어도 하나의 프로세서(118), 프로세서(2702), 또는 프로세서(2802)는 복수의 검출기 (예를 들어, 도 27의 센서(2716, 2718 및 2720)의 검출기 및/또는 도 28의 센서(2814)의 검출기) 각각으로부터 적어도 하나의 편향기가 특정 순간 위치에 있는 동안 적어도 하나의 공통 면적으로부터의 광 반사를 나타내는 적어도 하나의 신호를 수신한다. 예를 들어, 복수의 검출기는 적어도 하나의 프로세서(118), 프로세서(2702), 또는 프로세서(2802)로 전송하기 위해 광 반사를 흡수하고 흡수된 반사를 전기 신호, 디지털 신호 등으로 전환할 수 있다. 따라서, 복수의 검출기는 전자기파의 속성 (예를 들어, 전력, 주파수)을 측정할 수 있고, 측정된 속성과 관련된 출력 (예를 들어, 디지털 신호)을 생성할 수 있는 임의의 감광성 디바이스를 포함할 수 있다. 특정 양태들에서, 상술한 바와 같이, 수신된 광 반사는 공통 충돌 면적으로부터, 즉 2개 이상의 광원으로부터 반사가 부딪히는 면적들로부터 올 수 있다.
일부 실시예에서, 복수의 검출기는, 예를 들어 도 28에 묘사된 바와 같이, 적어도 하나의 광 편향기의 특정 위치와 연관된 적어도 2개의 다른 거리를 측정하도록 구성된 단일 센서의 일부일 수 있다. 예를 들어, 적어도 2개의 상이한 거리는 FOV의 상이한 부분과 연관될 수 있다. 대안적으로 또는 동시에, 적어도 2개의 상이한 거리는, 예를 들어, 서로 부분적으로 가려진 상이한 타겟으로부터 반사된 광자에 의해 동일한 픽셀에서 결정될 수 있다. 다른 실시예에서, 복수의 검출기는 서로 분리되고, LIDAR 시스템 내의 상이한 위치에 위치된 상이한 센서의 일부일 수 있다.
복수의 광원이 적어도 3개의 별개의 광원(및 복수의 광원이 2개의 광원을 포함하는 경우도 있음)을 포함하는 예시에서, 각각의 광원은 시야의 상이한 영역과 연관될 수 있으며, 시야의 적어도 제1 영역은 적어도 제2 영역에 인접하여 위치될 수 있고 적어도 제3 영역으로부터 이격될 수 있으며, 복수의 검출기는 적어도 3개의 별개의 센서(또는 2개, 예를 들어 2개의 광원을 가지는 센서)와 연관될 수 있다. 그러한 실시예들에서, 적어도 3개의 별개의 센서들 각각은 예를 들어 도 27에 묘사된 바와 같이 상이한 광원과 연관될 수 있다. 더 나아가, 이러한 실시예에서, 복수의 검출기는 시야의 제1 영역에 위치한 제1 물체와 시야의 제3 영역에 위치한 제2 물체를 동시에 검출하도록 구성될 수 있다. 이러한 검출은, 예를 들어, 제1 영역의 픽셀들 중 하나의 스캐닝 시간 내에서 동시적일 수 있다. 그러나, 그러한 동시적은 순간적으로 동시적일 수는 없다. 예를 들어, 상술한 바와 같이, 상이한 거리로부터 이동한 광 반사는 별개의 시간에 도달할 수 있다. 다른 추가의 예시로서, 복수의 광원으로부터의 광은 상이한 타이밍으로 방출될 수 있으며, 이에 따라 상이한 시간에 반사를 생성할 수 있다.
방법(2600)은 추가적인 단계들을 포함할 수 있다. 예를 들어, 방법(2600)은 전술한 바와 같이 적어도 하나의 편향기를 반복적으로 이동시킴으로써 시야를 스캔하는 것을 더 포함할 수 있다. 시야의 단일 스캐닝 사이클 동안, 적어도 하나의 편향기는 (상이한 시간에서) 복수의 상이한 순간 위치에 위치될 수 있다. 따라서, 상이한 순간 위치에서, 복수의 광원 및/또는 반사로부터의 광의 편향은 상이할 수 있다. 따라서, 광은 시야의 상이한 영역들로 지향될 수 있고 및/또는 반사는 시야의 상이한 영역들로부터 수신될 수 있다.
다른 추가적인 예시로서, 방법(2600)은 적어도 하나의 공통 면적으로부터의 광 반사에 기초하여, 시야의 상이한 영역과 연관된 복수의 거리 측정치를 결정하는 것을 포함할 수 있다. 예를 들어, 하나의 거리 측정치는 제1 영역에서 제1 차량에 대한 것일 수 있고, 다른 거리 측정치는 제2 영역에서의 제2 차량에 대한 것일 수 있다. 추가적인 예시로서, 하나의 거리 측정치는 제1 영역 내의 차량에 대한 것일 수 있고, 또 다른 거리 측정치는 제2 영역 내의 (예를 들어, 차량의 뒤, 앞 또는 옆) 도로에 대한 것일 수 있다. 또 다른 예시로서, 하나의 거리 측정치는 제1 영역 내의 제1 차량에 대한 것일 수 있고, 또 다른 거리 측정치는 제2 영역 내의 (예를 들어, 도로의 측면에 있는) 물체에 대한 것일 수 있다. 특정 양태에서, 일부 물체들은, 예를 들어 영역들이 부분적으로 중첩되거나 및/또는 물체가 2개의 영역들 사이의 경계 상에 위치하기 때문에 상이한 영역들에서 검출될 수 있다.
방법(2600)은 제1 광원이 적어도 하나의 편향기의 제1 순간 위치에서 제2 광원보다 적어도 하나의 편향기를 향하여 더 많은 광 플럭스를 방출하고(즉, 적어도 하나의 편향기는 제1 순간 위치에 남아있는 동안), 제2 광원은 적어도 하나의 편향기의 제2 순간 위치에서 제1 광원보다 적어도 하나의 편향기를 향해 더 많은 광 플럭스를 방출하도록 복수의 광원을 제어하는 것을 더 포함할 수 있다. 예를 들어, 적어도 하나의 프로세서(118), 프로세서(2702), 또는 프로세서(2802)는 제1 광원으로부터의 광이 직진으로 지향하는 때 제1 순간 위치에서 제1 광원으로부터의 광 플럭스를 증가시킬 수 있고, 제2 광원으로부터의 광이 직진으로 지향하는 때 제2 순간 위치에서 제2 광원으로부터의 광 플럭스를 증가시킬 수 있다. 따라서, 측면에 있는 물체를 볼 때 소비되는 것보다 직접적으로 앞쪽에 있는 물체를 볼 때 더 많은 에너지가 소비될 수 있다. 상술한 바와 같이, 적어도 하나의 프로세서(118), 프로세서(2702), 또는 프로세서(2802)는 복수의 광원으로부터의 펄스의 타이밍을 변화시키고, 복수의 광원으로부터의 펄스의 길이를 변화시키며, 복수의 광원으로부터의 펄스의 크기(예를 들어, 길이, 폭, 또는 그렇지 않으면 단면적을 변경)를 변화시키며, 복수의 광원으로부터의 펄스들의 진폭 및/또는 주파수를 변화시키며, 및/또는 복수의 광원으로부터의 연속파(CW) 또는 준 CW 발광의 파라미터(예를 들어, 그것의 진폭, 변조, 위상, 또는 그와 유사한 것)를 바꿀 수 있다. 일부 실시예에서, (상이한 광원에 의한) 상이한 영역에서의 플럭스 관리는 다른 영역들과 독립적으로 관리될 수 있다. 대안적으로 또는 동시에, 적어도 하나의 프로세서(118), 프로세서(2702), 또는 프로세서(2802)는 (예를 들어, 최대 전력 소비를 초과하지 않도록) 둘 이상의 영역 모두의 광 버짓 및/또는 전력 버짓 사이에서 균형을 유지할 수 있다.
도 26b에 도시된 방법(2630)을 참조하면, 단계 2631에서, 적어도 하나의 프로세서(118), 프로세서(2702), 또는 프로세서(2802)는 적어도 하나의 편향기가 특정 순간 위치에 있는 동안 시야를 형성하는 복수의 영역을 향하여 복수의 아웃바운드 경로를 따라 복수의 광원으로부터 광을 편향시키도록 적어도 하나의 편향기를 이동한다. "이동"이라는 용어는 상술한 몇 가지 예시와 함께 자세하게 논의된 것처럼 광범위하게 해석되어야 한다. 예를 들어, 적어도 하나의 편향기의 각 순간 위치에서, 상이한 광원의 각각의 광은, 예를 들어 도 2b, 도 27, 및 도 28에 묘사된 바와 같이 대응하는 영역의 부분으로 지향될 수 있다.
복수의 광원의 하나 이상의 속성은 도 26a의 방법(2600)을 참조하여 상술한 바와 같이 변화할 수 있다. 또한, 도 26a의 방법(2600)에서와 같이, 복수의 광원은 (예를 들어, 도 28에 묘사된 바와 같이) 적어도 2개, (예를 들어, 도 27에 묘사된 바와 같이) 적어도 3개, 또는 그 이상의 별개의 광원을 포함할 수 있다. 이러한 예시에서, 각각의 광원은 일반적으로 시야의 상이한 영역과 연관될 수 있다. 대안적으로 또는 동시에, 영역들은 적어도 부분적으로 중첩될 수 있다 (예를 들어, 성능을 향상시키고, 그 영역에서 최대 플럭스를 증가시키며, 2개의 면적 사이를 캘리브레이션하고, FOV의 중요한 부분에서 장애가 발생할 경우 백업을 허용하기 위해, 다른 파장에서 작동하는 때 등). 더 나아가, 이러한 예시에서, 시야의 적어도 제1 영역은 적어도 제2 영역에 인접할 수 있고, 적어도 제3 영역으로부터 이격될 수 있다. 대안적으로 또는 동시에, 이러한 예시에서, 시야의 적어도 각 영역은 시야의 상이한 각도 부분과 연관될 수 있다.
일부 실시예에서, 도 26a의 방법(2600)에서와 같이, 적어도 하나의 광 편향기는 복수의 광원 중 적어도 하나와 동일한 하우징 내에 포함될 수 있다. 다른 실시예에서, 적어도 하나의 광 편향기는 복수의 광원과는 별도의 하우징 내에 포함될 수 있다.
단계(2633)에서, 적어도 하나의 편향기가 특정 순간 위치에 있는 동안, 적어도 하나의 편향기는 적어도 하나의 편향기의 적어도 하나의 공통 영역에서 시야의 물체로부터 복수의 광원의 광 반사를 수신할 수 있다. 특정 양태에서, 적어도 하나의 공통 영역에서 적어도 일부의 광 반사가 서로 충돌한다. 예를 들어, 도 26a의 방법(2600)을 참조하여 상술한 바와 같이, 하나의 광 반사가 수신되는 면적은 다른 광 반사가 수신되는 면적과 적어도 부분적으로 중첩될 수 있다. 이러한 충돌은 동시에 일어날 수도 있고 다른 시간에 발생할 수도 있다. 예를 들어, 서로 다른 거리로부터 이동하는 광 반사는 별개의 시간에 도착할 수 있다. 다른 추가의 예시로서, 복수의 광원으로부터의 광은 상이한 타이밍으로 방출될 수 있으며, 이에 따라 상이한 시간에 반사를 생성할 수 있다. 이러한 타이밍은 복수의 광원에 걸쳐 변화할 수 있다.
단계(2635)에서, 복수의 검출기(예를 들어, 도 27의 센서(2716, 2718 및 2720)의 검출기 및/또는 도 28의 센서(2814)의 검출기)의 각각은 적어도 하나의 광 편향기가 순간 위치에 있을 때 적어도 하나의 공통 면적으로부터 광 반사를 수신할 수 있다. 예를 들어, 도 26a의 방법(2600)을 참조하여 상술한 바와 같이, 복수의 검출기는 전자기파의 속성 (예를 들어, 전력, 주파수)을 측정할 수 있고, 측정된 속성과 관련된 출력 (예를 들어, 디지털 신호)을 생성할 수 있는 임의의 감광성 디바이스를 포함할 수 있다. 특정 양태들에서, 상술한 바와 같이, 수신된 광 반사는 공통 충돌 면적으로부터, 즉 2개 이상의 광원으로부터 반사가 부딪히는 면적들로부터 올 수 있다.
일부 실시예에서, 도 26a의 방법(2600)에서와 같이, 복수의 검출기는, 예를 들어 도 28에 묘사된 바와 같이, 적어도 하나의 광 편향기의 특정 위치와 연관된 적어도 2개의 다른 거리를 측정하도록 구성된 단일 센서의 일부일 수 있다. 예를 들어, 적어도 2개의 상이한 거리는 FOV의 상이한 부분과 연관될 수 있다. 대안적으로 또는 동시에, 적어도 2개의 상이한 거리는, 예를 들어, 서로 부분적으로 가려진 상이한 타겟으로부터 반사된 광자에 의해 동일한 픽셀에서 결정될 수 있다.
방법(2630)은 방법(2600)과 관련하여 논의된 하나 이상의 단계들의 임의의 조합과 같은(그러나 이에 한정되지는 않음) 추가 단계들을 포함할 수 있다.
도 26c에 도시된 방법(2660)을 참조하면, 단계 2661에서, 적어도 하나의 프로세서(118), 프로세서(2702), 또는 프로세서(2802)는 적어도 하나의 편향기를 조준하기 위해 복수의 광원을 제어한다. 예를 들어, 방법 (2600)의 단계 (2601)에서와 같이, 적어도 하나의 프로세서(118), 프로세서(2702), 또는 프로세서(2802)는 복수의 광원으로부터의 펄스의 타이밍을 제어하고, 복수의 광원으로부터의 펄스의 길이를 제어하며, 복수의 광원으로부터의 펄스의 크기(예를 들어, 길이, 폭, 또는 그렇지 않으면 단면적을 변경)를 제어하며, 복수의 광원으로부터의 펄스들의 진폭 및/또는 주파수를 제어하며, 및/또는 복수의 광원으로부터의 연속파(CW) 또는 준 CW 발광의 파라미터(예를 들어, 그것의 진폭, 변조, 위상, 또는 그와 유사한 것)를 제어할 수 있다.
단계 2663에서, 적어도 하나의 프로세서(118), 프로세서(2702), 또는 프로세서(2802)는 복수의 광원으로부터의 반사를 검출하도록 구성된 복수의 검출기로부터 데이터를 수신한다. 일부 실시예에서, 도 26a의 방법(2600)에서와 같이, 복수의 검출기는, 예를 들어 도 28에 묘사된 바와 같이, 적어도 하나의 광 편향기의 특정 위치와 연관된 적어도 2개의 다른 거리를 측정하도록 구성된 단일 센서의 일부일 수 있다. 예를 들어, 적어도 2개의 상이한 거리는 FOV의 상이한 부분과 연관될 수 있다. 대안적으로 또는 동시에, 적어도 2개의 상이한 거리는, 예를 들어, 서로 부분적으로 가려진 상이한 타겟으로부터 반사된 광자에 의해 동일한 픽셀에서 결정될 수 있다.
단계 (2665)에서, 적어도 하나의 프로세서(118), 프로세서(2702), 또는 프로세서(2802)는 적어도 하나의 편향기가 특정 순간 위치에 있는 동안 시야를 형성하는 복수의 영역을 향하여 복수의 아웃바운드 경로를 따라 복수의 광원으로부터 광을 편향시키도록 적어도 하나의 편향기를 이동한다. "이동"이라는 용어는 상술한 몇 가지 예시와 함께 자세하게 논의된 것처럼 광범위하게 해석되어야 한다.
도 26a의 방법(2600)에서와 같이, 복수의 광원은 도 27에 묘사된 바와 같이 적어도 3개의 별개의 광원을 포함할 수 있다. 이러한 예시에서, 각각의 광원은 일반적으로 시야의 상이한 영역과 연관될 수 있다. 더 나아가, 이러한 예시에서, 시야의 적어도 제1 영역은 적어도 제2 영역에 인접할 수 있고, 적어도 제3 영역으로부터 이격될 수 있다. 대안적으로 또는 동시에, 이러한 예시에서, 시야의 적어도 각 영역은 시야의 상이한 각도 부분과 연관될 수 있다.
단계(2667)에서, 적어도 하나의 프로세서(118), 프로세서(2702), 또는 프로세서(2802)는 시야로부터의 광 반사가 적어도 하나의 편향기의 적어도 하나의 공통 면적 상에 수신되도록 하기 위해 적어도 하나의 편향기가 특정 순간 위치에 있는 동안 적어도 하나의 편향기를 제어한다. 특정 양태에서, 적어도 하나의 공통 면적에서, 복수의 광원 중 적어도 일부의 광 반사의 적어도 일부는 서로 충돌할 수 있다. 설명적인 예시들은 도 26a의 방법(2600)을 참조하여 상기에 제공된다.
단계(2669)에서, 적어도 하나의 프로세서(118), 프로세서(2702), 또는 프로세서(2802)는 복수의 검출기 각각으로부터 적어도 하나의 편향기가 특정 순간 위치에 있는 동안 적어도 하나의 공통 면적으로부터의 광 반사를 나타내는 적어도 하나의 신호를 수신한다. 설명적인 예시들은 도 26a의 방법(2600)을 참조하여 상기에 제공된다.
방법(2660)은 방법 (2600) 및/또는 방법(2630)과 관하여 논의된 하나 이상의 단계의 임의의 조합(이에 한정되지는 않음)과 같은 추가 단계를 포함할 수 있다.
다른 추가적인 예시로서, 도 26a의 방법(2600)에서와 같이, 방법(2660)은 적어도 하나의 공통 면적으로부터의 광 반사에 기초하여, 시야의 상이한 영역과 연관된 복수의 거리 측정치를 결정하는 것을 포함할 수 있다. 도 26a의 방법(2600)과 유사한 방법(2660)은 제1 광원이 적어도 하나의 편향기의 제1 순간 위치에서 제2 광원보다 적어도 하나의 편향기를 향하여 더 많은 광 플럭스를 방출하고(즉, 적어도 하나의 편향기는 제1 순간 위치에 남아있는 동안), 제2 광원은 적어도 하나의 편향기의 제2 순간 위치에서 제1 광원보다 적어도 하나의 편향기를 향해 더 많은 광 플럭스를 방출하도록 복수의 광원을 제어하는 것을 더 포함할 수 있다.
시야를 형성하는 완전히 별개의 영역을 사용하는 것으로 설명되었지만, 방법(2600), 방법(2630), 및/또는 방법(2660)은 부분적으로 중첩하는 FOV 영역의 적어도 한 쌍으로 구현될 수 있다. 이것은 성능을 향상시키고, 그 영역에서 최대 플럭스를 증가시키며, 2개의 면적 사이를 캘리브레이션하고, FOV의 중요한 부분에서 장애가 발생할 경우 백업을 허용하기 위해, 다른 파장에서 작동하는 때 등과 같은(그러나 이에 한정되지는 않음) 상이한 용도를 위해 구현될 수 있다. 이러한 용도 중 일부는 이하에서 더 자세히 논의된다.
복수의 광원이 적어도 2개의 별개의 광원을 포함할 수 있는 실시예에서, 각각의 광원은 상이한 파장 (예를 들어, 도 27 및 도 28의 광원)으로 광을 투영하도록 구성될 수 있다. 주어진 파장에서 작동하는 광원은 파장 대역에서 광을 방출할 수 있는데, 이는 협대역일 수 있다. (예를 들어, 파장이 600nm의 파장을 가지는 광원은 ± 2nm의 대역폭, 즉 598 내지 602nm 내에서 무시해도 될 정도가 아닌 양만큼 광을 방출할 수 있다. 특정 양태들에서, LIDAR 시스템(100), LIDAR 시스템(200), LIDAR 시스템(2700), 및/또는 LIDAR 시스템(2800)의 광원은, 예를 들어 투영된 광 파장들의 범위를 제한하기 위해 필터와 결합될 수 있다. 일부 실시예에서, 적어도 제1 광원은 400 내지 800nm 및/또는 800 내지 1000nm의 파장의 광을 투영하도록 구성될 수 있고, 적어도 제2 광원은 800nm(또는 850nm 또는 900nm 등) 및/또는 1500nm보다 큰 파장의 광을 방출하도록 구성된다. 특정 양태에서, 제1 광원은 제1 광원으로부터의 광과 제2 광원으로부터의 광이 모두 가시 범위를 완전히 넘어서도록 파장에서 광을 투영하도록 구성될 수 있다.
이러한 실시예에서, 적어도 2개의 광원은 시야의 실질적으로 중첩하는 영역에서 광을 투영하도록 구성될 수 있다. 실질적으로 중첩하는 영역들에서 상이한 파장들의 사용은 다른 파장으로 볼 수 없는 (또는 적어도 가시적이지 않은) 하나의 파장을 갖는 물체들의 검출을 허용할 수 있다.
또한, 복수의 광원이 동일한 (또는 실질적으로 동일한) 파장으로 광을 투영하도록 구성될 수 있는 실시예에서, 복수의 광원은 여전히 시야의 실질적으로 중첩되는 영역에서 광을 투영하도록 구성될 수 있다. 이러한 중첩은 결과의 정렬을 가능하게 하여, 캘리브레이션 또는 검출에서의 에러가 감소될 수 있고 및/또는 제2 광원을 사용할 때 하나의 광원으로부터의 노이즈가 감소될 수 있다. 또한, 이러한 중첩은 결함있는 광원, 검출기, 또는 그와 유사한 것과 같은 결함 있는 장치의 검출을 허용할 수 있다.
완전히 별개의 광원을 사용하는 것으로 기술되었지만, 방법(2600), 방법(2630) 및/또는 방법(2660)에서 사용되는 복수의 광원은 빔 스플리터와 결합된 단일 광원을 포함할 수 있다. 따라서, 빔 스플리터는 상이한 방향으로부터 적어도 하나의 편향기 상에 광 빔을 투영할 수 있고, 이로써 완전하게 별개의 광원처럼 기능한다.
도 27은 복수의 광원 및 공통 편향기를 갖는 예시적인 LIDAR 시스템(2700)을 도시하는 다이어그램이다. 도 27에 묘사된 바와 같이, 복수의 광원으로부터의 광은 적어도 하나의 광 편향기의 중첩 면적에 충돌할 수 있다. 추가적으로 또는 대안적으로, 복수의 광원으로부터 시작하여 장면으로부터 다시 반사된 광은 적어도 하나의 광 편향기의 중첩 면적 상에 충돌할 수 있다. 도 27에 묘사된 바와 같이, 시스템(2700)은 적어도 하나의 편향기(2704)를 제어하는 적어도 하나의 프로세서(2702)를 포함한다. 적어도 하나의 편향기(2704)는 스캐닝 사이클 동안 특정 순간 위치에 있을 수 있다. 적어도 하나의 프로세서(2702)는 또한 복수의 광원들(예를 들어, 광원(2706), 광원(2708), 및 광원(2710))을 제어할 수 있다.
복수의 광원(2706), 광원(2708), 및 광원(2710)은 시야 (2712)를 향하여 지향될 수 있다. 도 27에 묘사된 바와 같이, 시야(2712)는 제2 영역(2712b)에 인접하고 제3 영역(2712c)으로부터 이격된 제1 영역(2712a)을 포함한다. 도 27에서는 중첩되지 않는 것으로 묘사되어 있지만, 일부 실시예는 실질적으로 중첩하는 면적을 갖는 둘 이상의 영역을 포함할 수 있다.
도 27의 삽입부는 편향기(2704)의 표면 (예를 들어, 단일 직사각형 미러) 및 광 빔 단면(2742, 2744, 및 2746)으로 도시된 표면 상에 충돌하는 3개의 광원(2706, 2708, 및 2710)으로부터의 광 빔의 조명을 묘사한다. 상이한 음영 레벨은 하나의 광원에 의해 조명되고, 2개의 광원에 의해 조명되거나 3개의 광원 (예를 들어, 면적(2748))에 의해 조명되는 편향기(2704)의 각 면적의 축적된 조명 레벨을 나타낸다. 삽입부에 묘사된 바와 같이, 면적(2748)에서, 3개의 광원(2706, 2708, 및 2710)으로부터의 광은 편향기의 공통 면적 상에 (반드시 그런 것은 아니지만, 가능한 동시에) 충돌한다. 삽입부에 더 묘사된 바와 같이, 하나 이상의 광원(2706, 2708 및 2710)으로부터의 일부 광은 (점선 타원으로 나타낸 바와 같이) 편향기를 타격할 수 없다. 예를 들어, 광 빔은 (수직축으로 도시된 바와 같이) 표면의 치수를 초과할 수 있으며, 따라서 표면의 대응 치수보다 작을 수도 있다. 삽입부는 광 빔(2742, 2744, 및 2746)이 크기가 다를 수 있고 및/또는 적어도 부분적으로 서로 어긋나 있을 수 있음을 묘사한다. 일부 실시예에서, 반사 파면은 LIDAR 시스템(예를 들어, 시스템(2700))의 광학 개구부보다 훨씬 클 수 있기 때문에, 편향기(2704)는 복수의 광원으로부터의 반사된 광이 편향기의 전체 능동 편향 면적 상에 충돌하도록 크기 및/또는 위치될 수 있다.
도 27의 실시예에서, 적어도 하나의 편향기(2704)는 공통 면적(2714)을 갖는다. 복수의 광원(2706, 2708, 및 2710)은 공통 면적(2714)을 조준할 수 있다. 따라서, 복수의 광원(2706, 2708, 및 2710)은 영역(2712a, 2712b, 및 2712c)을 향하여 아웃바운드 경로(예를 들어, 경로(2722a, 2722b, 및 2722c))를 따라 대응하는 복수의 광 빔을 방출할 수 있다. 복수의 광 빔은 시야(2712) (또는 그 내부의 물체)로부터 복귀 경로 (예를 들어, 경로(2724a, 2724b, 및 2724c))를 따라 이동하는 복수의 대응하는 반사를 유발할 수 있다. 도 27의 예시에 더 묘사된 바와 같이, 각각의 반사는 적어도 하나의 편향기(2704)의 공통 면적(2714)을 사용하여 대응하는 센서(예를 들어, 센서(2716, 2718, 및 2720))로 지향될 수 있다. 도 27의 예시에 묘사된 바와 같이, 아웃바운드 경로(2722a, 2722b, 및 2722c) 중 어느 것도 일치하지 않으며 복귀 경로(2724a, 2724b, 및 2724c) 중 어느 것도 일치하지 않는다. 다른 실시예에서, 적어도 2개의 아웃바운드 경로 및/또는 적어도 2개의 복귀 경로가 일치할 수 있다.
도 28은 복수의 광원 및 공통 편향기를 갖는 다른 예시적인 LIDAR 시스템(2800)을 도시하는 다이어그램이다. 도 28에 묘사된 바와 같이, 복수의 광원으로부터의 광은 적어도 하나의 광 편향기의 중첩 면적에 충돌할 수 있다. 추가적으로 또는 대안적으로, 복수의 광원으로부터 시작하여 장면으로부터 다시 반사된 광은 적어도 하나의 광 편향기의 중첩 면적 상에 충돌할 수 있다. 도 28에 묘사된 바와 같이, 시스템(2800)은 적어도 하나의 편향기(2804)를 제어하는 적어도 하나의 프로세서(2802)를 포함한다. 적어도 하나의 편향기(2804)는 스캐닝 사이클 동안 특정 순간 위치에 있을 수 있다. 적어도 하나의 프로세서(2802)는 또한 복수의 광원들(예를 들어, 광원(2806, 2808))을 더 제어할 수 있다. 도 28의 예시에서, 광원(2806) 및 광원(2808)은 상이한 파장들을 가질 수 있다. 다른 실시예에서, 광원(2806, 2808)은 상이한 최대 전력, 듀티 사이클, 펄스 타이밍, 펄스 길이, 또는 그와 유사한 것을 가질 수 있다.
광원(2806, 2808)은 시야(2810)를 향하여 지향될 수 있다. 도 28에 묘사된 바와 같이, 시야(2810)는 제1 영역(2810a) 및 제2 영역(2810b)을 포함한다. 도 28에서는 중첩되지 않는 것으로 묘사되어 있지만, 일부 실시예는 실질적으로 중첩하는 면적을 갖는 둘 이상의 영역을 포함할 수 있다.
도 28의 실시예에서, 적어도 하나의 편향기(2804)는 공통 면적(2812)을 갖는다. 광원(2806, 2808)은 공통 면적(2812)을 조준할 수 있다. 따라서, 광원(2806, 2808)은 영역(2810a) 및 영역(2810b)을 향하는 아웃바운드 경로(예를 들어, 경로(2816a, 2816b))를 따라 대응하는 복수의 광 빔을 방출할 수 있다. 복수의 광빔은 시야(2810) (또는 그 내부의 물체)로부터 복귀 경로 (예를 들어, 경로(2818a, 2818b))를 따라 이동하는 복수의 대응하는 반사를 유발할 수 있다. 도 28의 예시에 더 묘사된 바와 같이, 각각의 반사는 적어도 하나의 편향기(2804)의 공통 면적(2812)을 사용하여 단일 센서(2814)로 지향될 수 있다. 도 28의 예시에 묘사된 바와 같이, 아웃바운드 경로(2816a, 2816b) 중 어느 것도 일치하지 않지만, 복귀 경로(2818a, 2818b)는 일치한다. 다른 실시예에서, 적어도 2개의 아웃바운드 경로가 일치할 수 있고 및/또는 적어도 2개의 복귀 경로가 일치하지 않을 수 있다.
일부 예시에서, 적어도 하나의 편향기(2704, 2804, 114), 또는 그와 유사한 것은, 도 3b에 도시된 바와 같이, 편향기의 어레이(예를 들어, 피봇한 압전의 미러의 어레이와 같은 피봇한 미러의 어레이, 또는 그와 유사한 것)를 포함할 수 있다. 이러한 편향기 어레이가 투영 및 검출(송신 및 수신 경로 모두) 모두에 사용되는 경우, 송신, 수신 및/또는 양방향 사용을 위한 개별적인 편향의 할당의 임의의 조합이 사용될 수 있다. 예시로서, FOV의 상이한 부분을 조명하기 위해 3개의 광원에 의해 사용되는 10개의 미러를 포함하는 어레이에서, 3개의 미러가 각각 하나의 광원에 대응하는 송신을 위해 사용될 수 있고 나머지 7개의 미러는 수신에 사용될 수 있다. 대안적으로, 1개 또는 2개의 미러가 (예를 들어, 그 미러들의 중첩 영역을 이용함으로써, 그 예시가 도 27에 묘사됨) 모든 광원의 송신에 사용될 수 있고, 모든 10개의 미러가 수신에 사용될 수 있다. 다른 조합 또한 사용될 수 있다. 특정 양태에서, 편향기 어레이의 개별 편향기 중 일부 또는 전부는 실질적으로 동일한 각도로 광을 편향하도록 동기화될 수 있다. 특정 양태에서, 편향기 어레이의 개별 편향기 중 일부 또는 전부는 이들 사이의 고정된 각도로 상이한 방향으로 광을 편향시키도록 동기화될 수 있다.
Lidar의 광 버짓 할당
본원에 기술된 바와 같이, LIDAR 시스템의 한 기능은, 환경에 광을 투영하고, 그 다음 환경 내의 물체로부터 광의 반사를 수집하고 분석함으로써 LIDAR 시스템을 둘러싼 환경의 3차원 깊이 맵을 생성하는 것일 수 있다. 일반적으로 LIDAR 시스템과 그 깊이 맵의 유용성은 생성된 깊이 맵의 해상도로 수집된 광으로부터 주워 모을 수 있는 정보의 레벨에 따라 증가할 수 있다. 그러나, LIDAR 시스템에 의해 환경으로 방출되는 광 에너지의 양을 단순히 늘림으로써 고해상도 깊이 맵의 생성을 방해할 수 있는 실질적인 제한이 존재할 수 있다. 첫째, 안구 안전은 LIDAR에 의해 출력될 수 있는 광 에너지의 양을 제한할 수 있는 주요 제약이다. 안구 안전을 보장하고 해당하는 규정을 준수하기 위해, LIDAR 시스템은 특정 기간에 걸쳐 특정 에너지 밀도를 초과하지 않는 광 투영으로 제한될 수 있다. 또한, 만일 안구 안전을 고려하지 않는다고 해도 LIDAR의 환경으로 경감되지 않은 발광을 금지하는 다른 실질적인 제한이 있을 수 있다. 예를 들어, LIDAR 시스템은 단순히 LIDAR FOV에 대한 발광의 블랭킷(blanket) 증가를 통해 검출 해상도를 증가시키는 LIDAR의 능력을 제한할 수 있는 유한한 컴퓨터의 버짓 및/또는 유한한 광 버짓을 가질 수 있다. 개념적으로, 광 버짓 및 컴퓨터의 버짓은 이용 가능한 광 출력과 컴퓨팅 전력 측면에서 특정 기간에 걸쳐 LIDAR 시스템의 최대 능력을 반영할 수 있다. LIDAR 시스템은 또한 전력 제한, 과열, 광원의 출력 등과 같은 기술적 제약에 의해 제약을 받을 수도 있다.
그러나, 이는 LIDAR 시스템에 의해 생성된 깊이 맵이 LIDAR FOV의 모든 면적에 걸쳐 절대적인 해상도 레벨로 무조건 제한되어야 한다고 말하는 것은 아니다. 오히려, 이하 및 본 개시의 다양한 섹션 전반에 걸쳐 논의되는 바와 같이, LIDAR 시스템의 광 버짓 및 컴퓨터의 버짓은 더 많은 자원(예를 들어, 광 버짓 및/또는 컴퓨터의 버짓의 더 많은 부분)이 LIDAR FOV의 다른 면적보다 LIDAR FOV의 특정 면적에 전념할 수 있는 방식으로 할당될 수 있다. 결과적으로, 일부 면적(예를 들어, 관심 영역에 대응하는 영역)에서 높은 해상도를, 다른 면적(예를 들어, 비관심 영역 또는 관심이 적은 영역)에서는 낮은 해상도를 갖는 대응하는 깊이 맵을 생성하는 것이 가능할 수 있다. 이하 및 본 개시의 많은 섹션 전반에 걸친 설명은, 광 버짓 및/또는 컴퓨터의 버짓의 불균일한 할당이 바람직할 수 있는 다양한 시나리오, 조건, 상황 등을 다룬다. 이하 및 전반적인 설명은, 또한 깊이 맵에 의해 커버되는 하나 이상의 관심 면적에서 잠재적으로 증가된 정보의 레벨을 제공할 수 있는 깊이 맵의 생성을 돕기 위해 가능한 광 버짓 및/또는 컴퓨터의 버짓이 어떻게 동적으로 할당되는지에 대한 예시를 제공한다.
도 29는 LIDAR 시스템(100)이 이용 가능한 광 버짓 및/또는 컴퓨터의 버짓을 할당하는데 의존할 수 있는 다양한 정보 소스와 함께 LIDAR 시스템(100)의 블록도 표현을 제공한다. 일부 실시예에서, LIDAR 시스템(100)은 메모리(2902)에 저장된 광 버짓(또는 광 버짓의 적어도 하나의 양태를 나타내거나 광 버짓이 유도되거나 결정될 수 있는 임의의 정보)에 액세스하도록 구성된 적어도 하나의 프로세서(118)를 포함할 수 있고, 상기 광 버짓은 적어도 하나의 광원(112)과 연관되고 적어도 하나의 광원에 의해 미리 결정된 시간주기에서 방출될 수 있는 광량을 정의한다. 메모리(2902)는, 도 29에 도시된 바와 같이 LIDAR 시스템(100)의 처리 유닛(108)과 연관될 수 있다. 그러나, 일부 실시예에서, 메모리(2902)는 LIDAR 시스템(100)이 배치되는 호스트(예를 들어, 차량, 차량-컴퓨터)와 연관될 수 있다. 예를 들어, 일부 경우에, 메모리(2902)는 호스트 차량의 전자 제어 유닛(2904)과 연관될 수 있고, 데이터 버스(2900)를 거쳐 프로세서(118)에 의해 액세스 가능할 수 있다. 다른 실시예에서, 메모리(2902)는 LIDAR 시스템(100) (또는 그 호스트)에 관하여 원격으로 위치된 시스템들 또는 시스템과 연관될 수 있다. 예를 들어, 일부 실시예에서, 메모리(2902)는 (도시되지 않은) 원격 서버와 연관될 수 있고, 예를 들어 클라우드(2916) (예를 들어, 인터넷 접속)를 통해 또는 무선 트랜시버(transceiver)(2901)를 통해 액세스 가능할 수 있다.
또한, 프로세서(118)는 LIDAR 시스템에 대한 플랫폼 조건을 나타내는 정보(예를 들어, 정보 소스들 (2904, 2906, 2908, 2910, 2912, 2914, 2916, 2918, 2920), 또는 임의의 다른 적합한 정보 소스)를 수신하도록 구성될 수 있다. LIDAR 시스템에 대한 플랫폼 조건은, LIDAR FOV 부분의 다른 그룹에 제공된 것보다 또는 특정 기간에 걸친 다른 스캐닝 사이클에서보다 하나의 스캐닝 사이클에서 LIDAR FOV 부분의 적어도 하나의 그룹에 더 많은 광을 할당하는 것을 정당화할 수 있는, LIDAR 시스템의 하나 이상의 양태, LIDAR 시스템의 주변 환경, LIDAR 시스템이 배치된 호스트 등과 관련된 임의의 작동 파라미터, 파라미터 값, 관찰된 조건, 명령, 정보 아이템 등을 지칭할 수 있다.
LIDAR 시스템(100) 외부의 하나 이상의 소스로부터 수신된 정보가 획득될 수 있는 반면, LIDAR 시스템에 대한 플랫폼 조건을 나타내는 정보는 또한 시스템(100) 내부의 소스로부터 (예를 들어, 광 투영이기(112), 편향기(114), 검출기(116), 피드백 요소 등을 포함하는 시스템의 하나 이상의 컴포넌트를 통하여) 획득된 정보를 포함할 수 있다. 수신된 정보에 기초하여, 프로세서(118)는, 예를 들어, 광원(112) 및/또는 편향기(114)와 연관된 2개 이상의 작동 파라미터를, 예를 들어, 스캐닝 속도, 스캐닝 패턴, 스캐닝 각, 공간 광 분포, 및/또는 시간 광 분포를 포함하는 작동 파라미터를 사용하여 LIDAR 시스템(100)의 시야에 광 버짓을 동적으로 할당할 수 있다. 프로세서(118)는 동적으로 할당된 광 버짓에 따라 광 플럭스가 LIDAR 시스템(100)의 시야의 스캐닝에 걸쳐 변화할 수 있는 방식으로 광원(112) 및/또는 편향기(114)를 제어하기 위한 신호를 더 출력할 수 있다.
광 버짓은 특정 기간에 걸쳐 LIDAR FOV로 방출될 수 있는 광량과 관련된 임의의 파라미터, 값, 또는 파라미터 또는 값의 세트와 관련하여 표현될 수 있다 (예를 들어, LIDAR 스캐닝 사이클, 밀리초, 초 등의 시간 측정치, 또는 임의의 다른 기간의 인디케이터). 일부 실시예에서, LIDAR 시스템의 광 버짓은 LIDAR 시스템에 포함된 하나 이상의 광원의 능력에 의존할 수 있다. 예를 들어, LIDAR 시스템(100)의 광 버짓은 광원(112)과 연관될 수 있으며, 광원(112)에 의해 미리 결정된 시간기간에서 방출될 수 있는 광량을 정의할 수 있다. 광량을 정의하는 것은 어떤 시간의 측정(예를 들어, 마이크로 초, 밀리 초, 초, 분 등)에 관하여 광량(예를 들어, 전력, 광도, 광 플럭스, 세기, 광자 개수, 광 펄스의 수, 듀티 사이클, 펄스 폭, 펄스 진폭, 조명 등)을 나타내는 임의의 파라미터 또는 파라미터 관계를 지칭할 수 있다.
일부 경우에, 광원(112)에 대한 평균 광 버짓은 약10 밀리 와트 내지 1,000 밀리 와트일 수 있다. 추가적으로 또는 대안적으로, 광 버짓은 LIDAR FOV의 단일 스캐닝 사이클에서 방출할 수 있는 광량을 참고할 수 있다. 예를 들어, LIDAR 시스템(100)에 대한 광 버짓은 (예를 들어, 각각 하나 이상의 픽셀과 연관된 1,000-10,000 개의 빔 위치를 커버하기 위한) 광원 당 스캐닝 사이클 당 10,000 펄스 내지 50,000 펄스일 수 있다. 일부 실시예들에서, 광 버짓은 (예를 들어, LIDAR 시스템(100)이 배치된 차량 또는 다른 호스트로부터의) 광원(112)에 의한 사용을 위해 이용 가능한 전력의 관점에서 표현될 수 있다. 광 버짓은 또한 표준 시간 단위(예를 들어, 밀리 초, 초, 분 등)로 광원(112) (또는 시스템(100)의 임의의 이용 가능한 광원)에 의해 방출될 수 있는 광량에 의해 정의될 수 있다.
경우에 따라 광 버짓은 고정되어 있을 수 있다. 다른 경우에, 메모리(2902)에 저장된 광 버짓은 수정되고 업데이트될 수 있다. 이러한 수정은, 예를 들어, LIDAR 시스템의 작동 파라미터 및 LIDAR 시스템에 의해 제공되는 검출 정보 중 적어도 하나에 기초하여 발생할 수 있다.
또한, 일부 실시예에서, 광 버짓은 단일 광원을 갖는 단일 LIDAR 시스템에만 대응할 수 있다. 다른 경우에, 광 버짓은 복수의 광원을 포함하는 단일 LIDAR 시스템을 지칭할 수 있다. 또 다른 경우에, 광 버짓은 각각 단일 광원 또는 복수의 광원을 포함하는 상이한 위치 (예를 들어, 차량 주위의 상이한 위치)에 배치된 복수의 LIDAR 시스템에 적용될 수 있다. 임의의 경우에, 광 버짓은 미리 결정된 시간 기간에서 복수의 광원 (또는 집계 내의 복수의 LIDAR 시스템)으로부터 할당될 수 있는 방출 가능한 광량을 정의할 수 있다. 프로세서(118)는 단일 LIDAR 시스템/광원의 광 버짓을 동적으로 할당할 수 있다. 다른 경우에, 프로세서(118)는 다수의 광원/LIDAR 시스템과 연관된 광 버짓을 동적으로 할당할 수 있다.
광 버짓 외에, LIDAR 시스템(100) (또는 복수의 LIDAR 시스템들의 조합)은 할당될 수 있는 컴퓨터의 버짓을 가질 수 있다. 컴퓨터의 버짓은 일반적으로 특정 기간에 걸쳐 LIDAR 시스템 또는 시스템들의 처리 능력을 지칭할 수 있다. 처리 능력은 (예를 들어, LIDAR 시스템의 다양한 양태를 제어하기 위해, 검출된 반사를 수신하고 처리하기 위해, 깊이 맵을 생성하기 위해, 물체 및 다른 상위 레벨 및 장면-이해 정보를 검출하기 위한 깊이 맵을 처리하기 위해, LIDAR 시스템 또는 LIDAR 시스템 그룹과 연관된 임의의 다른 기능을 수행하기 위해) 이용 가능한 프로세서의 개수에 의존할 수 있다. 처리 능력은 이용 가능한 프로세서의 개수에 의존할 뿐만 아니라, LIDAR 시스템의 특정 기능(예를 들어, 깊이 맵의 생성, FOV의 스캔 제어, 물체 검출, 식별 및/또는 분류 등)에 전용되는 하나 이상의 프로세서의 처리 능력의 부분, 하나 이상의 가능한 프로세서의 처리 속도, (예를 들어, 버스(2900)를 거친) 데이터 전송 속도, 하나 이상의 가능한 프로세서에 의해 수행될 수 있는 단위 시간 당 계산의 개수 등과 같은 다른 파라미터에 의존할 수도 있다.
이하의 설명은 광 버짓의 할당에 관한 세부 사항을 포함하지만, 컴퓨터의 버짓은 광 버짓 할당과 관련하여 기술된 것과 유사한 방식으로 할당될 수 있다. 예를 들어, 어떤 경우 컴퓨터의 버짓은 LIDAR가 검출한 것을 결정하기 위해 포인트 클라우드를 처리하는데 가능한 컴퓨터의 자원의 양과 관련될 수 있다. 일부 경우에, 포인트 클라우드와 관련한 처리는 상당한 컴퓨팅 자원-제한된 자원이 필요할 수 있다. 따라서, 어떤 경우에는, 특정 면적이 연관된 포인트 클라우드를 처리하기 위해 다른 면적보다 더 높은 관심/중요도인지 여부를 결정하는 것이 바람직할 수 있다. 예를 들어, 가능한 처리 전력의 상당 부분은 포인트 클라우드를 처리하고 차량의 전방 영역의 깊이 맵을 생성하는데 전용될 수 있으며, 그 면적은 특히 전방으로 이동하는 차량에 대하여 가장 중요할 수 있다. 반면에, 여전히 중요하긴 하지만, 차량의 측면으로부터 연장되는 시야에서 발생하는 검출은, 어떤 경우에는, (예를 들어, 차량이 선회 중이거나 멈춘 경우 등이 아니라면) 차량의 전방보다 덜 중요할 수 있다. 이러한 경우에, 호스트 차량으로부터 130m 떨어져 위치한 고도 반사 물체로부터 반사된 반사 신호로부터 LIDAR에 의해 그룹화된 검출이 검출되었다고 하더라도, 프로세서(118)는 컴퓨터의 버짓을 보존하기 위해 차량으로부터 40m의 거리까지(또는 130m 미만의 거리) 연관된 포인트 클라우드 만을 처리하도록 결정할 수 있다 (예를 들어, 130m에서 그룹화된 검출을 포함하는 전체 포인트 클라우드를 처리하기에는 컴퓨터의 관점에서 너무 비싸기 때문에, 특히 차량 측면의 예시에서와 같이 컴퓨터의 소비가 검출된 물체의 중요성에 의해 정당화되지 않는 경우).
컴퓨터의 버짓은 하나의 LIDAR 시스템이 이용 가능한 LIDAR 시스템 중에서 뿐만 아니라, 예를 들어, 하나 이상의 중앙 집중형 프로세서의 계산 용량을 다른 LIDAR 시스템보다 하나의 LIDAR 시스템에 더 많이 전용하는 것을 통해 다른 LIDAR 시스템보다 더 많은 계산 용량을 할당함으로써 하나의 LIDAR 시스템은 다른 LIDAR 시스템보다 더 많은 계산 용량을 제공받을 수 있다. 다른 예에서, 둘 이상의 LIDAR 시스템의 프로세서가 집계/네트워크화 될 수 있고, 집계된 처리 용량은 하나의 LIDAR 시스템으로부터의 프로세서가 상이한 LIDAR 시스템의 계산 태스크에 적어도 부분적으로 전용될 수 있도록 할당될 수 있다. 예를 들어, 복수의 이용 가능한 LIDAR 시스템으로부터의 처리 용량은 호스트 차량의 전방 영역, 즉 고해상도 물체 검출 및 깊이 매핑이 요구될 수 있는 영역과 연관된 계산 태스크에 전용될 수 있다.
컴퓨터의 버짓은 또한 FOV의 한 부분과 연관된 계산 태스크가 FOV의 다른 부분과 연관된 계산 태스크보다 많은 컴퓨터의 버짓을 수신할 수 있도록 특정 LIDAR FOV와 연관된 계산에 관하여 할당될 수 있다. 컴퓨터의 버짓이 어떻게 할당될 수 있는지에 대한 몇 가지 예시는, 예를 들어 : 검출/클러스터링(포인트 클라우드 포인트로부터 물체 레벨); 물체의 바운딩 박스(bounding box)를 조이는 것 ("바운딩 박스들"); 물체들/물체 유형의 분류; 물체의 추적 (예를 들어, 프레임 간); 물체의 특성 (예를 들어, 크기, 방향, 속도, 반사율 등) 결정을 포함한다. 컴퓨터의 버짓은 시간당 처리 용량 (예를 들어, GMAC, Gflops, 전력 등)과 관련된 용어로 표현될 수 있다. FOV의 상이한 부분에 대한 버짓 할당 - 특히 컴퓨터의 버짓 뿐만 아님 - 은 2D에서만 아니라 3D에서도 FOV 분배를 지칭할 수 있다. 예를 들어, 컴퓨터의 버짓은 FOV의 주어진 섹터 (예를 들어, 주어진 1° × 0.5° 섹터)에 할당될 수 있으며, 컴퓨터의 버짓의 70%는 70m를 초과하는 범위에서 검출을 처리하는 데에 할당되고, 컴퓨터의 버짓의 30%는 40m보다 LIDAR에 더 가까운 범위에서 검출을 처리하는데에 할당되며, 어떠한 컴퓨터의 버짓도 40 내지 70m 범위에 할당되지 않는다.
광 버짓으로 돌아가면, 이용 가능한 광 버짓은, 특정 기간 내의 다른 그룹의 LIDAR FOV 부분보다 하나의 LIDAR FOV 그룹에 더 많은 광이 선택적으로 제공될 수 있는 임의의 방식으로 할당될 수 있다. 이러한 맥락에서, LIDAR FOV 부분의 그룹은 특정 LIDAR FOV의 하나 이상의 부분(예를 들어, 특정 LIDAR FOV의 하나 이상의 픽셀, 영역, 서브 영역 등)을 지칭할 수도 있고, 또는 하나 이상의 전체 LIDAR FOV (예를 들어, 광 버짓이 다수의 LIDAR 시스템에 걸쳐 할당될 수 있는 경우)를 지칭할 수도 있다. 많은 광에 대한 언급은, 예를 들어 위에서 상세히 예시된 바와 같이, 증가된 광 플럭스, 증가된 광 밀도, 증가된 광자 개수 등을 지칭할 수 있다.
일부 경우, 광 버짓의 할당은 특정 LIDAR FOV와 연관된 스캐닝 속도, 스캐닝 패턴, 스캐닝 각도, 공간 광 분포 및/또는 시간적 광 분포의 변화를 통해 성취될 수 있다. (예를 들어, 하나 이상의 다른 LIDAR FOV 부분보다 LIDAR FOV 부분의 하나 이상의 그룹에 더 많은 광을 제공함) 시간적 광 분포는, 예를 들어, 제1 스캐닝 사이클에서 투영 된 전체 광량이 제2 후속 스캐닝 사이클에서 투영된 전체 광량보다 높도록 시간에 걸쳐 LIDAR FOV 부분의 그룹에 인가된 광량 또는 광 플럭스를 바꾸거나 제어하는 것을 포함할 수 있다. 일부 경우에, 광 버짓의 할당은 특정 LIDAR FOV 또는 특정 LIDAR FOV 부분과 연관된 스캐닝 속도, 스캐닝 패턴, 스캐닝 각도, 공간 광 분포, 또는 시간적 광 분포 중 2개 이상의 변화에 의해 성취될 수 있다. 이러한 변화는 하나 이상의 LIDAR FOV, 하나의 LIDAR FOV, LIDAR FOV의 부분 (예를 들어, 관심 영역), 하나의 스캐닝 사이클, 다수의 스캐닝 사이클 등에 관하여 수행될 수 있다.
광 버짓의 동적 할당 (예를 들어, LIDAR 시스템에 대한 적어도 하나의 플랫폼 조건과 관련하여 수신된 다른 정보 또는 피드백에 기초하여 할당을 바꿈 또는 업데이트하는 것)의 적어도 일부는 하나 이상의 LIDAR 시스템에 대한 스캐닝 속도의 결정에 의해 수행될 수 있다. 예를 들어, 적어도 하나의 프로세서는 LIDAR FOV의 근거리장 부분, 시야의 원거리장 부분, 시야의 협각 섹터 및/또는 시야의 광각 섹터 중 적어도 하나에 대한 스캐닝 속도를 결정하도록 구성될 수 있다.
언급된 바와 같이, 광적 할당은 또한 적어도 부분적으로 하나 이상의 LIDAR 시스템의 적어도 하나의 스캐닝 사이클에 대한 스캐닝 패턴의 결정에 의해 성취될 수도 있다. 스캐닝 패턴은: 고속도로 주행, 비포장 도로 주행, 비 속에서 주행, 눈 속에서 주행, 안개 속에서 주행, 도시 지역에서 주행, 시골 지역에서 주행, 터널을 통과하는 주행, 미리 정의된 시설 근처에서 주행, 좌회전, 우회전, 차선 바꿈, 교차로 접근, 및 횡단보도 접근의 시나리오 유형 중 적어도 하나의 인식에 기초하여 결정될 수 있다.
광 버짓 할당은 임의의 적절한 프로세서에 의해 달성될 수 있다. 일부 경우, LIDAR 시스템(100)의 프로세서(118)는 하나 이상의 소스로부터의 정보에 기초하여 광 버짓을 할당할 수 있다. 대안적으로 또는 추가적으로, 다른 LIDAR 시스템들로부터의 프로세서들이 광 버짓 (예를 들어, LIDAR 시스템들의 그룹과 연관된 광 버짓)의 할당하기 위해 사용될 수 있고, 및/또는 LIDAR 시스템 호스트와 연관된 하나 이상의 프로세서들 (예를 들어, 차량 ECU 등)이 사용될 수 있다. 임의의 다른 이용 가능한 프로세서들 또한 광 버짓을 할당하는데 사용될 수 있다.
언급했듯이, 광 버짓은 LIDAR FOV의 한 그룹에 다른 그룹보다 더 많은 광이 적용되도록 할 수 있다. 인가된 광량의 이러한 바뀜은, 예를 들어, 복수의 광원들 내의 제1 광원에 대한 광 버짓 할당 대 복수의 광원들 내의 제2 광원에 대한 광 버짓 할당의 비율 (또는 LIDAR 검출기 사이의 유사한 비율) 변화에 의해 달성될 수 있다. 광적 할당은 상이한 LIDAR FOV 부분 또는 상이한 시간에 관하여 상이한 이유로 적용될 수 있다. 예를 들어, LIDAR FOV의 일부 또는 스캐닝 사이클 동안의 일부 시간에서, 광적 할당은 특정 FOV 부분 또는 특정 시간 기간에서 해상도, 검출 품질 등의 증가를 지향할 수 있다. 다른 상황에서, 광적 할당은 특정 FOV 부분, 특정 FOV 서브 영역, 또는 특정 시간 기간과 연관된 검출 범위의 증가를 지향할 수 있다. 일반적으로, 광/전력 버짓은 상이한 프레임 습득 또는 습득된 프레임의 상이한 부분에서 상이한 목표를 달성하기 위해 사용될 수 있다. 이러한 방식으로 LIDAR 시스템은 상이한 ROI에 대해 일련의 유용하거나 고품질 프레임을 제공할 수 있으며, 각각 다른 이유로 유용하다. 이러한 방식으로, 광 버짓은 유용한 정보를 호스트 플랫폼 (예를 들어, 차량의 운전 시스템)에 반환하는 확률이 높은 것으로 결정된 방식으로 소비될 수 있다.
제어와 관련하여, 임의의 적합한 파라미터 또는 정보 요소는 광 버짓 및 할당을 하는 방법 및/또는 광 버짓 및 할당을 하는지 여부를 결정하는데 사용될 수 있다. 일부 실시예에서, LIDAR 시스템에 대한 플랫폼 조건은 광 버짓 할당을 위한 기초로서 사용될 수 있다. 전술한 바와 같이, LIDAR 시스템에 대한 플랫폼 조건은, LIDAR FOV 부분의 다른 그룹에 제공된 것보다 또는 특정 기간에 걸친 다른 스캐닝 사이클에서보다 하나의 스캐닝 사이클에서 LIDAR FOV 부분의 적어도 하나의 그룹에 더 많은 광을 할당하는 것을 정당화할 수 있는, LIDAR 시스템의 하나 이상의 양태, LIDAR 시스템의 주변 환경, LIDAR 시스템이 배치된 호스트 등과 관련된 임의의 작동 파라미터, 파라미터 값, 관찰된 조건, 명령, 정보 아이템 등을 지칭할 수 있다.
LIDAR 시스템에 대한 이러한 플랫폼 조건은 다양한 방법으로 임의의 적절한 정보 소스를 사용하여 결정될 수 있다. 일부 경우에, LIDAR 시스템의 플랫폼 조건은 LIDAR 시스템의 내부에서 결정될 수 있다. 예를 들어, 획득된 광 반사, 반사율 특징, 깊이 맵 등에 기초하여, 프로세서(118)는 LIDAR 시스템이 배치되는 환경과 연관된 하나 이상의 특성을 결정할 수 있다. 다른 경우에, LIDAR 시스템(PCLS)에 대한 플랫폼 조건은 LIDAR 시스템(100)으로부터 분리된 하나 이상의 소스로부터 수신된 정보에 기초하여 결정될 수 있다. 예를 들어, 도 29에 도시된 바와 같이, PCLS는 호스트 차량의 하나 이상의 전자 제어 유닛(2904), 하나 이상의 온도 센서(2906), GPS 수신기(2908), 차량 네비게이션 시스템(2910), RADAR 유닛(2912), 하나 이상의 다른 LIDAR 시스템(2914), 인터넷 또는 기타 네트워크 연결부(2916), 카메라(2920), 또는 임의의 다른 적절한 소스로부터의 정보에 기초하여 결정될 수 있다.
일부 경우에, PCLS를 나타내는 정보는 LIDAR FOV의 하나 이상의 영역을 다른 영역(예를 들어, 관심이 적은 영역 또는 비관심 영역)과 비교하여 컴퓨터의 버짓 또는 광 버짓의 높은 비율을 정당화할 수 있는 관심 영역으로 설정할 수 있다. 관심 영역은 임의의 정보 소스(2904, 2906, 2908, 2910, 2912, 2914, 2916, 2920) 중 하나 이상의 출력, LIDAR 시스템(100)으로부터의 하나 이상의 출력, 또는 이들의 임의의 조합에 기초하여 결정될 수 있는, LIDAR 시스템이 배치된 차량의 감지된 전류 구동 모드에 기초하여 식별될 수 있다. 일 예시에서, 감지된 전류 구동 모드에 기초한 관심 영역은 호스트 차량이 (네비게이션 시스템(2910), GPS 수신기(2908) 등에 의해 운반되는 것처럼) 방향을 바꾸고 있는 면적과 중첩하는 LIDAR FOV의 하나 이상의 부분을 포함할 수 있다. 다른 예시에서, 관심 영역은 LIDAR 시스템(100)이 다른 차량, 보행자, 장애물 등과 같은 물체를 검출한 LIDAR FOV의 하나 이상의 부분에 대응할 수 있다. 관심 영역의 다른 예시 및 이러한 영역이 어떻게 식별되는지는 본 개시의 다른 섹션에 포함된다.
광 할당 (또는 컴퓨터의 버짓)이 결정될 수 있는 PLCS를 나타내는 정보는, 무엇보다도, 차량 작동 파라미터, 환경 조건, 주행 결정, 차량의 운전 상태, 또는 전력 관리 모드 중 적어도 하나를 포함할 수 있다.
광 할당 (또는 컴퓨터의 버짓)이 기초할 수 있는 차량 작동 파라미터 또는 차량의 운전 상태의 예시는, (예를 들어, ECU(2904), GPS(2908)로부터) 현재 속도, (예를 들어, GPS(2908), 네비게이션 시스템(2910)로부터) 현재 차량의 진행방향, (예를 들어, GPS(2908), ECU(2904)로부터) 현재 제동 또는 가속 상태, (예를 들어, 네비게이션 시스템(2908), 카메라(2920), GPS(2908) 등으로부터) 호스트 차량이 교차선 상황을 운전하고 있는지 여부를 포함한다. 차량 작동 파라미터는 또한 LIDAR 시스템(100)이 배치되는 차량 플랫폼과 연관된 임의의 구성 요소의 상태 또는 조건, LIDAR 시스템(100) 자체의 임의의 구성 요소의 상태 또는 조건과 관련될 수 있다. 그러한 조건은 LIDAR 시스템의 적어도 하나의 구성 요소의 온도, FOV의 일부가 차단되는지 여부 (예를 들어, 비, 진흙, 파편 등에 의해), 렌즈가 긁혔는지 여부, 편향기(114)가 특정 순간 위치에 도달하는 것이 방해되는지 여부, 다른 각도와 비교하여 어떤 각도에서 내부 반사가 더 많이 발생하는지 여부를 포함할 수 있다. 차량의 운전 상태는 또한 3 차원 맵, 부분 맵, 2 차원 맵, 랜드마크, 또는 맵과 랜드마크의 임의의 조합 등에 관하여 호스트 차량의 위치를 포함할 수 있다. 맵은 미리 저장되거나, 통신 채널을 통해 수신되거나, (예를 들어, SLAM에 의해) 생성될 수 있다.
환경 조건의 예시는 날씨 조건 (예를 들어, 네비게이션 시스템(2910)으로부터의 정보에 기초하여 결정된 비, 눈, 안개 등); 조명 조건 예를 들어, LIDAR 시스템(100)으로부터의 정보에 기초하여 결정된 (주변광, 광원의 유형 등); (예를 들어, 온도 센서(2906)로부터의 출력에 기초한) 환경 온도; 및/또는 미리 결정된 유형의 시설에 대한 근접성(예를 들어, 네비게이션 시스템(2910), GPS(2908), 카메라(2920) 등으로부터의 입력에 기초하여 결정된 학교) 중 적어도 하나를 포함할 수 있다. 광 버짓(또는 컴퓨터의 버짓) 할당이 기초하는 환경 조건의 추가적인 예시는 날씨 조건, (예를 들어, LIDAR 시스템(100) 및/또는 호스트 차량에 관하여) 공간 내의 검출된 물체들의 위치 또는 분포, 공간 내의 물체의 검출된 특성 (예를 들어, 형태, 반사율, SNR에 영향을 주는 특성), 물체의 유형/클래스 (예를 들어, 보행자, 빌딩, 차량, 가로등), 태양 또는 다른 광원의 상대적 위치, 교통 상황 (예를 들어, 막히는 고속도로 대 뚫린 고속도로), 다른 호스트 차량 시스템들의 상태 (예를 들어, 주행과 관련된 센서 또는 다른 센서 - 어떤 경우에LIDAR 시스템(100)은 고장난 카메라(2920)를 보상할 수 있음), 도로 자체의 상태 (예를 들어, 울퉁불퉁, 거칠기, 오르막/내리막, 커브, 도로의 반사율), 데이터에 기초한 맵/GPS (예를 들어, 장면에서의 도로 위치 및 방향), 장면 내의 빌딩 위치 및 방향?(LIDAR는 빌딩의 먼 측면에 있는 물체로부터의 반사를 수신하는 것을 기대하지 않기 때문에 낮은 관심 영역은 빌딩 또는 다른 장애물에 관하여 설립될 수 있다), LIDAR 시스템(100) 주위의 주변 온도, 호스트 차량 환경의 주변 온도, 이전에 수집된 FOV 프레임으로부터의 데이터 분석 (예를 들어, 포인트 클라우드, 표면에 보통, 반사율, 신뢰도 등)을 포함할 수 있다. 일반적으로 광/전력 버짓은 환경에 대한 지식을 기초로 할당될 수 있다. 예를 들어, GPS 데이터, 맵 데이터, 이전 프레임의 처리 된 LIDAR 정보, 차량의 다른 센서로부터의 데이터, 또는 임의의 다른 소스는 주어진 범위 (예를 들어, 15m)에서 FOV 일부의 빌딩의 존재를 나타낼 수 있다. 그 빌딩이 높은 관심 영역에(예를 들어, 차량의 직접적인 전방)에 있을지라도, 그럼에도 불구하고 프로세서는 FOV의 이 부분에 상대적으로 낮은 전력을 할당하고 LIDAR FOV의 다른 부분에 잉여 에너지를 할당할 수 있어서, FOV의 그 방향에 할당될 수 있는 광량에 관계없이 빌딩 뒤에 숨겨진(예를 들어, 15m 이상) FOV의 부분에 버짓을 낭비하지 않고 도달될 수 없도록 한다.
광적 할당(또는 컴퓨터의 버짓)이 기초로 할 수 있는 주행 결정의 예시는 농촌 관련 지표, 도시 관련 지표, LIDAR 시스템을 포함하는 차량의 현재 속도, 조건부 주행 기법(추가적인 환경 정보가 있는 경우에만 완료될 수 있는 기법은 그렇게 하는 것이 안전하다는 것을 나타냄), 주행 네비게이션 이벤트, 수동 주행 지표, 및 자율 주행 지표 중 적어도 하나를 포함할 수 있다. 이러한 정보는 예를 들어, LIDAR 시스템(100 또는 2914), 네비게이션 시스템(2910), ECU(2904), GPS(2908), 이들 소스의 임의의 조합, 또는 PCLS의 인디케이터의 다른 잠재적인 소스에 의해 제공되는 출력에 기초하여 획득될 수 있다.
광 할당 (또는 컴퓨터의 버짓)이 기초할 수 있는 전력 관리 모드의 예시는 정상 전력 작동 모드 및 절전 모드 중 적어도 하나를 포함할 수 있다. 이러한 정보는 ECU(2904)로부터 획득될 수 있으며, 호스트 차량으로부터 이용 가능한 전력량을 반영할 수 있다. 전력 관리 모드의 다른 인디케이터는 LIDAR 시스템(100)의 하나 이상의 구성 요소의 감지된 상태(예를 들어, 임의의 구성 요소가 과열되거나 과열의 위험이 있는지 여부)에 기초할 수 있다.
몇 가지 예시가 광 버짓 또는 컴퓨터의 버짓 할당이 기초될 수 있는 PCLS의 수집을 더 설명할 수 있다. 예를 들어, 작동 중에, 프로세서(118)는 차량의 현재 주행 환경을 나타내는 입력을 수신할 수 있다. 예를 들어, 프로세서(118)는 농촌 관련 지표 및 도시 관련 지표 중 적어도 하나를 포함하는 입력을 수신할 수 있다. 추가적인 예시로서, 프로세서(118)는 적어도 하나의 농촌 관련 지표, 도시 관련 지표, 조명 상태와 연관된 지표, 날씨 상태와 연관된 지표, 및 차량의 속도와 연관된 정보를 포함하는 입력을 수신할 수 있다.
일부 실시예에서, 프로세서(118)는 프로세서(118) 자체에 의해 수행되는 결정으로부터 입력을 수신할 수 있다. 이러한 예시에서, 프로세서(118)는 시야의 하나 이상의 이전 (및/또는 현재) 스캔으로부터의 정보에 기초하여 현재의 주행 환경을 결정할 수 있다. 예를 들어, 프로세서는 차량에 근접한 빌딩 및/또는 다수의 차량의 존재에 기초하여 현재의 주행 환경이 도시라고 결정할 수 있다. 추가적인 예시로서, 프로세서는 다수의 나무 및/또는 평야의 존재에 기초하여 현재의 주행 환경이 시골이라고 결정할 수 있다. 프로세서(118)는 대안으로 또는 동시에 차량의 속도 및/또는 (저장되거나 수신될 수 있으며 업데이트 된 교통 정보를 포함할 수 있는) 맵 정보에 기초하여 현재의 주행 환경을 결정할 수 있다. 예를 들어, 프로세서(118)는 공지된 주간 고속도로 또는 고속도로와 정렬되는 차량의 위치에 기초하여 및/또는 차량의 지속되는 높은 속도에 기초하여, 현재의 주행 환경이 주간 고속도로 또는 고속도로인 것으로 결정할 수 있다. 추가적인 예시로서, 프로세서(118)는 공지된 교통 정체에 기초하여 및/또는 차량의 지속되는 낮은 속도와 빈번한 멈춤에 기초하여, 현재의 주행 환경이 교통 정체임을 결정할 수 있다.
선택적으로 또는 동시에, 프로세서(118)는 호스트 차량 처리 유닛(예를 들어, ECU(2904))으로부터 입력을 수신할 수 있다. 중앙 컴퓨터는 프로세서(118)에 관하여 전술한 기술을 사용하여 현재의 주행 환경을 결정할 수 있다. 마찬가지로, 프로세서(118)는 추가적으로 또는 대안 적으로 원격 시스템으로부터 입력을 수신할 수 있다. 예를 들어, 프로세서(118)는 날씨 서버 또는 업데이트된 날씨 정보의 다른 소스로부터 날씨의 지표를 수신할 수 있다. 유사하게, 프로세서(118)는 트래픽 서버 또는 업데이트된 교통 정보의 다른 소스로부터 교통 지표를 수신할 수 있다.
일부 실시예에서, 프로세서(118)는 도 29에 도시된 바와 같이, GPS, 차량 네비게이션 시스템, 차량 제어기, 레이더, LIDAR, 및 카메라 중 적어도 하나로부터 현재의 주행 환경을 나타내는 입력을 수신할 수 있다. 예를 들어, 상술한 바와 같이, 프로세서(118)는 현재의 주행 환경을 유도하기 위해 GPS 및/또는 차량 네비게이션 시스템에 의해 결정된 차량의 위치를 맵 및/또는 교통 정보와 함께 사용할 수 있다. 그러한 예시에서, 프로세서(118)는 차량의 GPS 위치를 맵과 정렬하여 차량이 주간 고속도로 상에 있다는 것을 결정할 수 있고 또는 차량의 GPS 위치를 교통 정보와 정렬하여 차량이 교통 정체에 처해 있는지를 결정할 수 있다. 유사하게, 프로세서(118)는 상술한 바와 같이 현재의 주행 환경을 유도하기 위해 차량 제어기로부터의 속도, 진행방향, 또는 그와 유사한 것을 사용할 수 있다. 추가적으로 또는 대안적으로, 프로세서(118)는 레이더, LIDAR, 및/또는 카메라로부터의 정보를 사용하여 현재의 주행 환경을 유도할 수 있다. 예를 들어, 프로세서(118)는 레이더, LIDAR, 및/또는 카메라를 사용하여 필드, 나무, 빌딩, 중앙 분리대, 또는 그와 유사한 것과 같은 물체를 하나 이상 식별할 수 있고, 식별된 물체를 사용하여 현재 주행 환경을 유도할 수 있다.
일단 광 버짓 또는 컴퓨터의 버짓이 할당되고, 할당된 버짓을 적용하기 위한 계획을 하면, 프로세서(118)(또는 다른 처리 디바이스)는 계획을 구현할 수 있다. 예를 들어, 프로세서(118)는, 동적으로 할당된 광 버짓에 따라 LIDAR FOV의 스캐닝에 걸쳐 광 플럭스를 변화시키는 방식으로 LIDAR FOV에 대한 광 플럭스에 (공간적 또는 시간적으로) 영향을 미치는 임의의 다른 구성 요소, 광 편향기(114) 및/또는 적어도 하나의 광원(112)를 제어하기 위한 신호를 출력할 수 있다. 일부 경우에, 할당된 광 버짓의 적용은 하나 이상의 LIDAR FOV의 특정 부분 (예를 들어, ROI)에 더 많은 광 플럭스를 초래할 수 있으며, 이는 결국 다른 면적 (예를 들어, 낮은 관심 영역 또는 비관심 영역)에 줄어든 광 플럭스를 요구할 수 있다. 할당된 광 버짓을 구현하기 위한 계획을 실행하기 위해, 프로세서(118)는 FOV를 스캔하기 위해 적어도 하나의 광 편향기(114)를 제어하도록 구성될 수 있고, 스캐닝 사이클 동안 적어도 하나의 광 편향기(114)는 복수의 상이한 순간 위치에 위치될 수 있다. 또한, 프로세서(118)는, 적어도 하나의 광 편향기가 특정 순간 위치에 위치될 때, 광 빔의 일부는 적어도 하나의 광 편향기에 의해 적어도 하나의 광원으로부터 시야 내의 물체를 향하여 편향되고, 물체로부터의 광 빔의 일부의 반사는 적어도 하나의 광 편향기에 의해 적어도 하나의 센서(116)를 향하여 편향되도록 하기 위해 적어도 하나의 광 편향기(114) 및 적어도 하나의 광원(112)을 조정(예를 들어 그들의 작동을 동기화)할 수 있다. 일부 경우에, LIDAR 시스템(100)은 적어도 하나의 광 편향기(114)를 조준하는 복수의 광원을 포함할 수 있고, 프로세서(118)는 적어도 하나의 광 편향기(114)가 특정 순간 위치에 위치될 때, 복수의 광원으로부터의 광이 LIDAR FOV의 복수의 독립 영역을 향하여 투영되도록 적어도 하나의 광 편향기(114)를 제어하도록 구성될 수 있다. 일반적으로, 프로세서(118)는 동적으로 할당된 광 버짓에 따라 적어도 하나의 광 편향기(114) 및 적어도 하나의 광원(112)을 조정할 수 있다. 단위 시간당 더 많은 광이 높은 관심 영역에 적용될 수 있으며, 할당된 광 버짓의 적용을 통해 더 적은 단위 시간당 광이 낮은 관심 영역에 적용될 수 있다. 또한, LIDAR FOV의 하나 이상의 부분에서의 물체의 검출에 기초하여, 프로세서(118)는 특정 부분 (예를 들어, 관심 영역 또는 낮은 관심 영역)에 투영된 광의 축적된 에너지 밀도가 최대 허용 노출량을 초과하는 것을 방지할 수 있다.
도 30a는 개시된 실시예들과 일치하는 할당된 버짓에 기초하여 LIDAR 시스템을 제어하기 위한 방법(3000)의 일 예시를 제공하는 흐름도를 제공한다. 예를 들어, 단계 3002에서, 프로세서(118) (또는 다른 이용 가능한 처리 디바이스)는 LIDAR 시스템(PCLS)의 하나 이상의 플랫폼 조건들을 나타내는 정보를 수신할 수 있다. 전술한 바와 같이, 이들 PCLS는 LIDAR 시스템(100) 또는 불균일한 광 배분이 요구되는 배치된 플랫폼 호스트와 연관된 임의의 조건을 포함할 수 있다. 단계 3004에서, 프로세서(118)는 광 버짓 또는 컴퓨터의 버짓 (예를 들어, 이용 가능한 광원의 광 출력 용량, 이용 가능한 CPU의 처리 용량 등)을 정의하는데 부분적으로 도움을 줄 수 있는 시스템 제약을 결정할 수 있다. 단계 3002 및 3004에서 획득된 정보에 기초하여, 프로세서(118)는 단계 3006에서 할당된 광 버짓 및/또는 할단된 컴퓨터의 버짓을 결정할 수 있다. 단계 3008에서, 프로세서(118)는 할당된 버짓을 하나 이상의 LIDAR 시스템의 작동에 적용하기 위한 스캐닝 계획을 개발할 수 있다. 단계 3010에서, 프로세서(118)는, 예를 들어 할당된 버짓에 기초하여 광원(112) 및 편향기(114)의 작동을 제어함으로써 빔 스팟 당 투영(예를 들어, 편향기(114)의 특정 순간 위치로부터의 광 투영)를 제어할 수 있다. 예를 들어, 더 관심이 적은 영역에 적용되는 것보다 단위 시간당 더 많은 광 플럭스가 관심 영역에 제공될 수 있다. 단계 3012에서, 프로세서는, 예를 들어, 검출기(116)의 출력에 기초하여 반사된 광을 검출하고 처리할 수 있다. 단계 3014에서, 프로세서(118)는 특정 빔 스팟에 대한 할당된 광 버짓의 규정된 적용이 완료되는지 여부를 결정할 수 있다. 그렇다면, 프로세스는 다른 빔 스팟에서 광 투영의 계속적인 제어를 위해 단계(3010)로 되돌아갈 수 있다. 그렇지 않다면, 단계(3016)에서, 프로세서(118)는 다른 빔 스팟 투영이 허용 가능한지 여부를 결정할 수 있다 (예를 들어, 다른 투영이 안구 안전 규정을 준수하는지 여부, 특정 빔 스팟에 대한 광 플럭스의 최대 허용 노출량이 초과되는지 여부 등). 만약 다른 투영이 허용되지 않으면, 프로세스는 다른 빔 스팟에서 광 투영의 계속적인 제어를 위해 단계(3010)로 되돌아갈 수 있다. 만약 다른 투영이 허용되면, 단계(3018)에서 프로세서(118)는 특정 빔 스팟에서의 다른 투영이 필요한지 여부(예를 들어, 특정 빔 스팟 또는 이전에 조명된 픽셀과 연관된 이전 투영에 기초하여 충분한 데이터 또는 검출이 획득되었는지 여부)를 결정할 수 있다. 추가적인 투영이 필요하지 않으면, 프로세스는 다른 빔 스팟에서 광 투영의 계속적인 제어를 위해 단계(3010)로 되돌아갈 수 있다. 선택적으로, 프로세서(118)는 동일한 스캐닝 사이클에서 적어도 하나의 다른 빔 스팟에 대해 현재 빔 스팟에 할당된 나머지 미사용 전력을 재분배할 것을 결정할 수 있다. 추가적인 투영이 보증된다면, 단계(3020)에서, 프로세서(118)는 반사된 광의 검출 및 처리를 위해 단계(3012)로 되돌아가기 전에 특정 빔 스팟에서 추가적인 광 투영을 야기할 수 있다.
도 30b는 현재 개시된 실시예에 따른 LIDAR 시스템을 제어하기 위한 예시적인 방법(3050)의 흐름도를 제공한다. 단계(3062)는 메모리에 저장된 광 버짓에 액세스하는 것을 포함할 수 있으며, 광 버짓은 적어도 하나의 광원과 연관되고 적어도 하나의 광원에 의해 미리 결정된 시간 기간에서 방출할 수 있는 광량을 정의한다. 단계(3064)는 환경 조건, 주행 결정, 및 전력 관리 모드 중 적어도 하나를 포함하는 차량 작동 파라미터에 관한 정보를 수신하는 것을 포함할 수 있다. 수신된 정보에 기초하여, 단계(3066)는 스캐닝 속도, 스캐닝 패턴, 스캐닝 각도, 공간 광 분포, 및 시간적 광 분포 중 적어도 2개에 기초하여 LIDAR 시스템의 시야에 광 버짓을 동적으로 할당하는 것을 포함할 수 있다. 단계(3068)는 동적으로 할당된 광 버짓에 따라 광 플럭스가 시야의 스캐닝에 걸쳐 변화할 수 있는 방식으로 적어도 하나의 광원을 제어하기 위한 신호를 출력하는 것을 포함할 수 있다.
일부 실시예에서, 공간적 광 분포에 기초하여 광 버짓을 동적으로 할당하는 것은, 단일 스캐닝 사이클 동안, 시야의 제2 부분을 향하는 것보다 시야의 제1 부분을 향하여 더 많은 광을 투영하는 것을 포함할 수 있다. 후속 스캐닝 사이클에서, 공간적 광 분포에 기초하여 광 버짓을 동적으로 할당하는 것은, 뒤따르는 스캐닝 사이클 동안, 시야의 제1 부분을 향하는 것보다 시야의 제2 부분을 향하여 더 많은 광을 투영하는 것을 포함할 수 있다. 이 방법은 관심 영역으로서 제1 부분의 식별 및 비관심 (또는 더 낮은 관심) 영역으로서 제2 부분의 식별을 획득하는 것을 더 포함할 수 있다. 상기 방법은 또한 제2 부분에서의 물체의 존재를 결정하는 것 및 제2 부분에서의 광의 축적된 에너지 밀도가 최대 허용 노출량을 초과하는 것을 방지하는 것을 포함할 수 있다.
할당된 광 버짓이 LIDAR 시스템의 작동 중에 어떻게 적용될 수 있는지에 대한 또 다른 예시에서, 프로세서(118)는 동일한 차량의 다른 LIDAR 시스템의 고장을 나타내는 PCLS에 기초하여 차량에 설치된 특정 LIDAR 시스템에 더 많은 광 버짓 (예를 들어, 더 많은 플럭스/FOV)을 할당하도록 구성될 수 있다. 그러한 할당은 고장난 LIDAR 시스템을 적어도 부분적으로 보완할 수 있다. 예를 들어, 작동중인 LIDAR 시스템으로의 할당은, 정상 작동 중에는 보통 펄스 (또는 거의 펄스)가 보내지지 않는 LIDAR의 FOV 부분에 펄스를 방출하는 것을 포함한다. 이러한 할당은, 또한 예를 들어 더 넓은 FOV를 스캔하기 위해 편향기 파라미터를 바꾸는 것을 포함할 수 있다.
이 예시를 더 설명하기 위해, 도 31은 차량의 상이한 위치에 위치된 7개의 설치된 LIDAR 시스템을 포함하는 차량의 개략도를 제공한다. 각각의 개별 LIDAR 디바이스는 시야, 범위, 해상도, 정확도 등의 측면에서 서로 다른 파라미터를 보일 수 있다. 설치된 LIDAR 시스템은 도 29에 도시된 바와 같이 시스템과 잠재적으로 다른 구성 요소 간의 통신 액세스를 제공하는 버스 (예를 들어, CAN 버스)에 의해 연결될 수 있다. 작동 중에, 다양한 LIDAR 디바이스는 주문형 상태 요청 또는 능력 교환 부팅(booting) 위상의 일부로서 서로의 작동 파라미터를 서로 알릴 수 있다. 이러한 정보의 교환은 LIDAR 시스템 #7과 같은 다른 LIDAR 시스템의 프로세서가 (예를 들어, 수신된 에러 메시지, 건강 상태 인디케이터 등에 기초하여) LIDAR 시스템 #2가 고장난 것을 인식하도록 할 수 있다. 일부 경우에, 버스에 결함이 있는 디바이스가 보고하지 못할 수 있다 (예를 들어, 전원 공급 장치가 끊어짐). 이 경우, 비보고 시스템은 더이상 공유된 버스에 연결되지 않으며 고장난 것으로 가정된다.
하나 이상의 다른 LIDAR 시스템이 고장난 LIDAR 디바이스를 적어도 부분적으로 보완하기 위한 동작을 취할 수 있다. 예를 들어, 도 31에 도시된 바와 같이, LIDAR 시스템 #2의 고장은 차량 감각 시스템에 대한 사각 지대를 초래할 수 있다. HW 또는 FW (주 제어기 또는 버스에 연결된 지정된 마스터 LiDAR 디바이스)의 모니터링 층은 LiDAR #2가 기능하지 않는 것을 검출하고, 시스템의 다른 LiDAR을 지정하여 유효 범위의 손실을 보완한다. 이러한 특정 예시에서 LiDAR #7은 확장된 능력을 감안할 때 유효 범위의 손실을 보상하기 위한 최상의 선택인 것으로 나타났다. LiDAR #7은 LIDAR #2 시야를 커버하기 위해 백업(backup) 모드로 작동하고 그 시야를 확장하도록 지정된다. LiDAR #7의 스캐닝 범위를 증가시키는 것은 일부 능력, 감소된 전체 범위, 해상도, 또는 프레임 속도의 손실이 야기될 수 있다. 차량 주 제어기의 레벨에서 전체 시스템은, 성능 파라미터의 감소된 세트로 업데이트된 센서 상태를 통지 받고 차량 행동을 보상한다. 차량을 80km/h로 제한하는 좁은 스페어 타이어(spare tire)와 유사하게 차량은 최고 속도로 제한될 수 있다. 결함이 있는 센서의 보상은 궁극적으로 사람의 개입없이 서비스 위치에 안전하게 도달할 수 있도록 최소한의 자율 레벨을 유지할 수 있는 자율 차량의 필요성에 의해 발생한다.
선택적으로, 컴퓨터의 자원은 2개 이상의 유형 (예를 들어, LIDAR, 카메라, 초음파 센서, 레이더)의 복수의 센서에 의해 공유될 수 있거나, 상이한 유형의 센서로부터 도착하는 검출 정보의 처리에 할당될 수 있다는 것을 유의한다. 이것은, 예를 들면 자율 차량과 같은 차량 내의 상이한 센서로부터의 정보를 통합하는 호스트 컴퓨터에 의해 구현될 수 있다. 컴퓨터의 버짓의 할당 (예를 들어, 방법(3000))에 대해 상기 개시된 방법 및 프로세스는 상이한 유형의 센서에 의해 수집된 정보를 처리하는 사이에 컴퓨터의 버짓을 할당할 수 있도록 확장될 수 있다. 선택적으로, 이는 차량 또는 차량에 설치된 임의의 시스템의 플랫폼 상태와 같은 다양한 파라미터에 기초하여 상이한 유형의 검출 데이터간에 컴퓨터의 자원을 이동시키면서, 상이한 유형의 복수의 센서 중 각 센서의 FOV 부분 사이에 컴퓨터의 버짓을 다르게 할당하도록 더 확장될 수 있다. 이러한 파라미터는, 예를 들어, 차량 작동 파라미터, 환경 조건, 주행 결정, 차량의 운전 상태, 전력 관리 모드, 또는 (LIDAR, 레이더 등과 같은) 하나 이상의 검출 시스템의 시스템 파라미터 중 하나 이상의 임의의 조합을 포함할 수 있다. 제1 유형의 제1 센서의 처리를 위한 컴퓨터의 버짓의 할당은 다른 유형의 다른 센서의 처리에 기초할 수 있다.
예를 들어, 만약 카메라가 ROI 중 하나에서 의심되는 물체를 검출하면, 할당 프로세서는 FOV의 다른 부분으로부터의 LIDAR 검출 정보를 처리하는 대신 FOV의 검출 정보의 처리를 위해 LIDAR 컴퓨터의 버짓을 더 많이 할당할 수 있다. 다른 예시에서, 할당 프로세서는 검출 결과 및/또는 플랫폼 파라미터에 기초하여 컴퓨터의 버짓을 할당하여 FOV의 일부분 (물론 2D에서뿐만 아니라 3D로 정의 될 수 있음)이 주로 제1 유형의 센서로부터의 검출 정보를 사용하여 분석될 수 있는 반면, FOV의 다른 부분은 주로 제2 유형의 센서로부터의 검출 정보를 사용하여 분석될 수 있다. 보다 더 진보된 할당 방식에서, 호스트 (또는 다른 프로세서)는 또한, 예를 들어 이전에 개시된 파라미터들 중 임의의 하나에 기초하고 전술한 고려 사항들 중 임의의 하나에 따라, 상이한 유형의 센서들 사이에서 전력 할당을 달라지게 할 수도 있다.
방법(3000)과 함께 (그리고 버짓 할당에 대한 전체 논의와 함께) 고려했을 때, 본 명세서 전반에 걸쳐 논의 된 LIDAR 시스템을 위한 많은 방법, 프로세스, 및 기술들은 개시된 방법, 프로세스, 및 기술들의 임의의 2개 이상을 결합하는 더 넓은 버짓 할당 방식의 일부가 될 수 있다는 점에 유의한다. 그러한 방법, 프로세스, 및 기술은 개시된 버짓 할당 방식의 상이한 장소에 적합할 수 있다. 예를 들어, 이러한 방법, 프로세스, 및 기술 중 일부는 FOV의 다른 부분에 버짓을 할당하는 요인을 결정하는데 사용될 수 있고; 이러한 방법, 프로세스, 및 기술 중 일부는 FOV의 다른 부분에 대한 버짓 할당을 제한하는 요소를 결정하는 데 사용될 수 있으며; 이러한 방법, 프로세스, 및 기술 중 일부는 FOV의 다른 부분에 할당된 버짓을 사용하는데 사용될 수 있다.
일부 실시예에 따르면, LIDAR 시스템(100)은 :
검사 광자의 펄스를 생성하기 위한, 투영 유닛(102) (또는 그 일부)과 같은 광자 방출기 조립체(PTX)로서, 상기 펄스는 적어도 하나의 펄스 파라미터에 의한, 광자 방출기 조립체(PTX);
물체로부터 다시 반사된 반사된 광자를 수신하는 광자 수신 및 검출 조립체(PRX)로서, (예를 들어, 프로세서(118)에 의해) 반사된 광자를 검출하고 검출된 장면 신호를 생성하는 검출기 (예를 들어, 검출기(116))를 포함하는 광자 수신 및 검출 조립체(PRX); 광자 수신 및 검출 조립체는 감지 유닛(106)(또는 그 일부) 및 처리 유닛(108)(또는 그 일부);
스캐닝 유닛(104)(또는 그 일부)와 같은 광자 스티어링 조립체(photonic steering assembly, PSY)로서, 검사된 장면 세그먼트 방향으로 검사 광자의 펄스를 지향하고 다시 PRX로 반사 광자를 돌아가도록 조종하기 위해 PTX와 PRX 모두와 기능적으로 연관된, 광자 스티어링 조립체(PSY);
(a) PTX, PRX, 및 PSY를 제어하기 위해, (b) 검출기로부터 검출된 장면 신호를 수신하기 위해, (c) 검출된 장면 신호에 적어도 부분적으로 기초하여 적어도 하나의 펄스 파라미터를 업데이트하기 위해, 처리 유닛(108)(또는 적어도 하나의 프로세서(118)과 같은 그의 일부)에 의해 구현될 수 있는 폐루프 제어기(이하 “제어기”)를 포함할 수 있다.
일부 실시예에 따르면, 적어도 하나의 펄스 파라미터는 펄스 전력 세기, 펄스 폭, 펄스 반복 속도 펄스 시퀀스, 펄스 듀티 사이클, 파장, 위상 및/또는 편광 그룹으로부터 선택될 수 있다.
일부 실시예에 따르면, 제어기는 검출된 장면 신호를 수신하여 스캐닝/작업 계획을 생성하는 상황 평가 유닛을 포함할 수 있다. 작업 계획은 결정된 버짓 할당의 일부 또는 전부를 포함할 수 있으며, 추가 작동 결정 (예를 들어, 스캐닝 패턴)을 포함할 수도 있다. 상황 평가 유닛은 광 스티어링 조립체로부터 광 스티어링 조립체 피드백을 수신할 수 있다. 상황 평가 유닛은 메모리에 저장된 정보를 수신할 수 있다. 선택적으로, 정보는 레이저 전력 버짓(또는 임의의 다른 형태의 광 버짓), 전기적 작동 특성 및/또는 캘리브레이션 데이터로부터 선택될 수 있다. 상황 평가 유닛은 스캐닝/작업 계획을 생성하기 위해 광자 스티어링 조립체 피드백을 사용할 수 있다. 광 버짓 (예를 들어, 레이저 전력 버짓)은 안구 안전 제한, 열적 버짓, 시간 경과에 따른 레이저 노화 등과 같은 제약에서 유도될 수 있다.
일부 실시예에 따르면, 작업 계획은 (a) 실시간으로 검출된 장면 신호, (b) 인트라프레임(intra-frame) 레벨 장면 신호 및 (c) 2개 이상의 프레임에 걸쳐 축적되고 분석되는 인터프레임(interframe) 간 레벨 장면 신호에 기초하여 생성될 수 있다.
일부 실시예에 따르면, 검출기는 하나 이상의 검출기 파라미터를 갖는 동적 검출기일 수 있고, 폐쇄 루프 제어기는 작업 계획에 기초하여 검출기 파라미터를 업데이트 할 수 있다. 검출기 파라미터는 스캐닝 방향, 프레임 속도, 샘플링 속도, 주변광 효과, 기계적 정적 및 동적 장애, 기생 광 감소를 위한 동적 게이팅(gating), 동적 감도, 동적 바이어스, 및/또는 열적 효과의 그룹으로부터 선택될 수 있다. PSY는 하나 이상의 스티어링 파라미터를 가질 수 있고, 폐 루프 제어기는 작업 계획에 기초하여 조종을 업데이트 할 수 있다. 스티어링 파라미터는 스캐닝 방법, 전력 변조, 단일 또는 다중 축 방법, 동기화 구성 요소의 그룹으로부터 선택될 수 있다. 선택적으로, 상황 평가 유닛은 호스트 디바이스로부터 호스트 피드백을 수신할 수 있고, 호스트 피드백을 사용하여 작업 계획을 작성하거나 기여할 수 있다.
일부 실시예에 따르면, 프로세서 (118)는 상황 평가 로직(situational assessment logic, SAL)과 같은 상황 평가 로직 또는 회로망을 포함할 수 있다. SAL은 검출기(116)로부터 검출된 장면 신호뿐만 아니라 스캐닝 유닛(104)의 내부 또는 외부의 추가 블록/요소로부터 정보를 수신할 수 있다.
일부 실시예에 따르면, 장면 신호는, (어떤 레이저 파라미터 버짓에서, 어떤 검출 파라미터 버짓에서, FOV 내의 어떤 픽셀들이 스캔되는지와 같은) 스캐닝 유닛(104)에 대한 작업 계획 신호와 같은 스캐닝/작업 계획을 결정하는 지역 및 전역 비용 함수의 가중된 수단으로 메모리(2902)에 저장된 광자 스티어링 조립체 피드백 PTX 피드백, PRX 피드백 및 호스트 피드백 및 정보와 같은 추가적인 피드백 신호와 함께 또는 없이 평가 및 계산될 수 있다. 따라서, 프로세서(118)는 시스템 피드백을 수신하고 그 피드백에 기초하여 시스템의 작동을 업데이트하는 폐루프 동적 제어기일 수 있다. 예를 들어, 스캐닝 작업 계획은 할당된 광 버짓 또는 컴퓨터의 버짓을 구현하기 위해 개발될 수 있다.
일부 실시예에 따르면, 장면 세그먼트라고도 하는 장면의 하나 이상의 세그먼트를 스캔하기 위한 스캐닝 유닛(104)이 제공될 수 있다. 디바이스는 스캐닝 프레임 동안 장면의 하나 이상의 장면 세그먼트 또는 영역의 능동 스캐닝을 동적으로 수행할 수 있도록 하기 위해 하나 이상의 광자 방출기 조립체(PTX), 하나 이상의 광자 수신 및 검출 조립체(PRX), 광자 스티어링 조립체(PSY), 및 PTX와 PRX와 PSY의 작동을 동기화하도록 조절된 상황 인식 프로세서를 포함할 수 있다. 능동 스캐닝은, 장면 세그먼트를 향하고 장면 세그먼트를 가로지르는 하나 이상의 광자 검사 펄스의 송신을 포함할 수 있으며, 장면 세그먼트 내에 존재하는 장면 요소가 검사 펄스에 의해 부딪힐 때, 장면 요소 상의 검사 펄스에 의해 부딪힌 점의 거리 및 (상대적인) 3차원 좌표를 추정하기 위해 요소와 부딪히고 돌아오는 그 반사의 펄스에 대한 왕복 비행 시간을 측정한다. 검사 펄스의 세트를 사용하여 요소 상의 한 세트의 점에 대한 좌표를 수집함으로써, 3차원 포인트 클라우드가 생성될 수 있고, 장면 요소를 검출, 등록, 및 가능하게는 식별하는데에 사용될 수 있다.
프로세서(118)는 상황 인식 제어기일 수 있고, 하나 이상의 검출된 및/또는 다른 공지된 장면 관련 상황 파라미터에 기초하여 PTX, PRX 및/또는 PSY의 작동 파라미터 및 작동 모드를 동적으로 조절할 수 있다. 일부 실시예에 따르면, 프로세서(118)는, 하나 이상의 장면 세그먼트 내에 존재하는 장면 요소와 같은 상황 파라미터의 이해에 기초하여, 상기 하나 이상의 장면 세그먼트를 스캔/커버하도록 의도된 스캐닝 프레임의 일부로서 할당된 광 버짓 또는 컴퓨터의 버짓을 구현하기 위해 장면의 일부를 스캔하기 위한 스캐닝 계획과 같은 작업 계획을 생성 및/또는 조절할 수 있다. 스캐닝 계획을 생성하는데 고려될 수 있는 다른 상황 파라미터는 실시예에 따른 디바이스를 운반하는 호스트 플랫폼의 위치 및/또는 궤적을 포함할 수 있다. 스캐닝 계획을 생성하는데 고려될 수 있는 또 다른 상황 파라미터는 지형을 포함할 수 있으며, 도로 기울기, 피치(pitch), 곡률, 및 실시예에 따른 디바이스를 운반하는 호스트 플랫폼을 둘러싸는 것을 포함한다.
스캐닝 계획은: (a) 스캐닝 프레임의 일부로서 능동적으로 스캔되는 장면 내의 장면 세그먼트의 지정, (b) 적어도 하나의 장면 세그먼트를 스캔하는데 사용되는 검사 펄스들의 세트의 개별적인 펄스 특성 및/또는 펄스 분포 패턴을 정의할 수 있는 검사 펄스 세트 방식(pulse set scheme, PSS), (c) 검출기 감도 또는 응답 패턴을 정의할 수 있는 검출 방식, (d) 스티어링 방향, 주파수, 스티어링 어레이 내의 지정된 아이들(idle) 요소, 및 그 이상을 정의할 수 있는 스티어링 방식을 포함할 수 있다. 바꾸어 말하면, 스캐닝 계획은 장면 분석, 할당된 광 버짓 및/또는 컴퓨터의 버짓에 기초하여 스캐닝 프레임이 능동적으로 스캔되도록 PTX 제어 신호, 스티어링 파라미터 제어, PRX 제어, 및/또는 검출기 제어 파라미터에 적어도 부분적으로 영향을 주고/결정할 수 있다.
이하의 논의는 결정된 광 버짓 및/또는 컴퓨터의 버짓에 기초하여 LIDAR FOV의 하나 이상의 스캔을 제어하는 추가적인 예시를 제공한다. 예를 들어, 현재 검출되거나 추론된 주행 환경에 기초하여, 프로세서(118)는 시야의 스캔에 걸쳐 공간적으로 적용되는 광 버짓의 양 변화에 의해 순간 검출 거리를 동적으로 조절하기 위해 적어도 하나의 광 편향기의 제어와 함께 적어도 하나의 광원의 제어를 조정할 수 있다. 예를 들어, 프로세서(118)는 투영되는 광량을 증가시키고 및/또는 광의 공간 분포를 감소시켜 FOV(관심 영역)의 특정 영역에서 순간 검출 거리를 증가시킬 수 있다. 추가적인 예시로서, 프로세서(118)는 투영된 광량을 감소시키고 및/또는 광의 공간 분포를 증가시켜 FOV의 다른 영역(낮은 관심 영역)의 순간 검출 거리를 감소시킬 수 있다.
Lidar의 편향기 피드백 제어
일부 실시예에서, 전술한 바와 같이, LIDAR 시스템(100)은 차량 상에 통합될 수 있다. 엔진 작동 및 도로와 기타 표면 위에서의 모션으로 인해 일정량의 진동이 발생할 수 있으며, 이 진동은 LIDAR 시스템(100)의 작동을 방해할 수 있다. 예를 들어, 진동은 LIDAR 시스템(100)의 임의의 구성 요소로 전달될 수 있으며, 시스템의 전체적인 성능 및/또는 그들의 성능에 영향을 미칠 수 있다. 어떤 경우에, 광원 및/또는 광 편향기의 진동은 LIDAR 시야("FOV")를 향하여 방출되는 광의 방향 진동, FOV 내의 물체로부터의 광의 감소된 수집, 편향기 위치 및/또는 순간 FOV 위치의 불확실성, 및/또는 편향기/센서 커플링에 도입된 비효율성을 야기할 수 있다. 결과적으로, LIDAR FOV의 영역들은 의도된 바와 같이 조명되지 않을 수 있으며 (예를 들어, 도 32a의 의도된 FOV(3220) 대 실제 FOV(3222) 간의 차이에 의해 예시됨), LIDAR FOV 내의 물체들은 검출되지 않을 수 있고, 물체가 잘못된 방향으로 검출될 수 있으며, 및/또는 물체 검출로 인해 바람직한 해상도 레벨보다 낮아질 수 있다.
이러한 효과에 대응하기 위해, 일부 실시예에서, LIDAR 시스템(100)은 진동 억제 시스템(3200) (예컨대, 도 32a 내지 도 32b)을 통합할 수 있다. 일부 경우에, LIDAR 시스템(100)은 진동의 존재를 결정할 수 있고, 그러한 진동의 영향을 줄이거나 없애기 위해 하나 이상의 동작을 취할 수 있다. LIDAR 시스템(100)은 임의의 적절한 기술을 통해 진동의 존재를 결정할 수 있다. 예를 들어, 일부 경우에는, 차량과 연관된 하나 이상의 센서 또는 LIDAR 시스템(100) 자체를 사용하여 진동이 검출될 수 있다. 이러한 센서는 하나 이상의 가속도계, 변형계, 또는 임의의 다른 적합한 유형의 센서를 포함할 수 있다. 어떤 경우에는, 진동은 편향기(114)로부터 수신된 피드백에 기초하여 검출될 수 있다. 즉, 어떤 경우에, LIDAR 시스템(100)의 진동 억제 시스템은 편향기(114)와 연관된 미러 위치 데이터에 기초하여 결정된 진동 피드백에 응답할 수 있다 (예를 들어, 도 62, 도 65, 도 67, 도 76, 도 77, 및 도 84 뿐만 아니라 진동으로부터 기인한 편향기(114)의 움직임을 검출하기 위해 도 32c에 도시된 미러 위치 피드백 센서를 사용). 진동의 결과로서의 미러 위치의 변화는 LIDAR 시스템(100)에 직접 또는 간접적으로 결합된 임의의 진동 원으로부터 일어날 수 있다. 예를 들어, 이러한 진동원은 엔진 작동, 도로 표면에서의 바퀴 굴림, 차량 구성 요소의 기계적 움직임 (LIDAR 시스템(100)의 구성 요소의 이동을 포함) 등으로부터 기인할 수 있다.
LIDAR 시스템(100)상의 진동 효과의 일부 또는 전부에 대응할 수 있는 것 이외에 - 또는 대안으로서 -, LIDAR 시스템(100)의 진동 억제 시스템(3200)은 또한 미러의 위치 결정의 불확실성에 의해 야기되는 영향에 대응할 수도 있다. 예를 들어, 압전으로 작동되는 MEMS 미러를 사용할 때, 압전 동작은 특정 양의 히스테리시스를 포함할 수 있는데, 이는 특정 제어 전압이 전압을 제어하는 것과 비교하여 미러 위치의 모호성 때문에 어쩔 수 없이 원하는 미러의 위치 설정을 초래하지 않을 수 있음을 의미한다. 따라서, 도 32c의 위치 피드백 메카니즘(3256) (예를 들어, 도 62, 도 65, 도 67, 도 76, 도 77, 및 도 84)과 같은 위치 피드백 메카니즘은, LIDAR 시스템(100)의 설치의 임의의 유형에 존재할 수 있는 이러한 효과에 대응하는데 유용할 수 있다 (예를 들어, 차량과 같은 움직이는 플랫폼 상의 설치물, 빌딩이나 인프라 등과 같은 고정된 물체 상의 설치물). 또한, 센서(3228) (예를 들어, 도 32b)는 적어도 하나의 광 편향기의 위치, 방향, 속도, 또는 가속도를 나타내는 데이터를 얻는데 사용될 수 있다. 이러한 결정된 광 편향기의 상태에 관한 정보는 필요한 부분만 약간 수정하여 전환(진동, 히스테리시스, 온도 영향)에 대한 이유에 상관없이 결정될 수 있으며, (예를 들어, 이하에 제공된 실시예에서) LIDAR 시스템(100)의 검출 정확도 및 운전성을 향상시키기 위해 광 편향기의 피드백 제어에 사용될 수 있다.
광 편향기 위치에서의 진동 또는 불확실성의 영향을 억제하도록 구성된 LIDAR 시스템에서, 시스템(3200)은 시야의 스캔에 걸쳐 적어도 하나의 광원으로부터의 광의 광 플럭스를 변화시킬 수 있는 방식으로 적어도 하나의 광원을 제어하는 단계; 상기 시야를 스캔하기 위해 상기 적어도 하나의 광원으로부터 광을 편향시키기 위한 적어도 하나의 광 편향기의 위치 설정을 제어하는 단계; LIDAR 시스템이 배치된 차량의 진동을 나타내는 데이터를 획득하는 단계를 수행하도록 구성된 적어도 하나의 프로세서를 포함할 수 있다. 감지된 진동을 나타내는 획득된 데이터에 기초하여, 적어도 하나의 프로세서는 차량의 진동을 보상하기 위해 적어도 하나의 광 편향기의 위치 설정에 대한 조절을 결정할 수 있다. 적어도 하나의 프로세서는 또한 시야의 스캐닝에 대한 차량의 진동의 영향의 적어도 일부를 적어도 하나의 광 편향기에서 억제하기 위해 적어도 하나의 광 편향기의 위치 설정에 대한 결정된 조절을 구현할 수 있다.
도 32a는 울퉁불퉁 한 도로 표면 상의 예시적인 진동 억제 시스템(3200) 및 차량(3210)을 도시한다. 차량(3210)은 감지된 진동과 연관된 특성 및/또는 진동의 존재를 검출하기 위한 다양한 유형의 센서가 구비될 수 있다. 예를 들어, 일부 실시예에서, 차량(3210)은 차량 상의 다양한 위치에 배치된 센서 유닛 및/또는 진동 센서를 포함할 수 있다. 이러한 센서는, 도로 또는 다른 표면을 가로지르는 차량의 이동, 차량 엔진의 작동, 차량의 하나 이상의 다른 구성 요소의 작동, 또는 차량(3210)에 부여된 임의의 다른 잠재적인 진동 소스로 인한 차량의 휠, 엔진, 바디 등과 연관된 진동을 감지할 수 있다. 예를 들어, 센서(3216)를 포함하는 센서 유닛(3206)은 차량 엔진 근처의 면적에 위치될 수 있고, 엔진과 연관된 진동을 모니터할 수 있다. 또한, 센서(3218)를 포함하는 하나 이상의 센서 유닛(3208)은 차량의 휠과 연관된 진동을 모니터하기 위해 차량과 연관된 휠 또는 그 근처 면적에 위치될 수 있다. 또한, 차량은 또한 LIDAR 시스템(100)에 또는 LIDAR 시스템(100)에 가까운 위치에서의 진동을 검출하기 위해 LIDAR 시스템(100) 상에, 또는 근처에 위치된 하나 이상의 진동 센서(3219)를 구비할 수 있다.
센서(3216), 센서(3218), 및/또는 센서(3219)는 예를 들어 힘, 가속도, 토크, 스트레인(strain), 압박, 전압, 광 편향 등을 포함하는 진동의 효과 또는 진동의 적어도 하나의 특성을 측정할 수 있는 임의의 유형의 센서를 포함할 수 있다. 이러한 센서(3216), 센서(3218), 및/또는 센서(3219)는 유선 또는 무선 연결을 통해 직접 또는 간접적으로 LIDAR 시스템(100)과 연관된 하나 이상의 프로세서에 연결될 수 있고, 감지된 진동을 나타내는 LIDAR 시스템 정보의 하나 이상의 프로세서와 통신할 수 있다.
센서(3216), 센서(3218), 및/또는 센서(3219)에 더하여, LIDAR 시스템(100)은 하나 이상의 센서를 구비할 수 있거나, 또는 진동의 존재 및/또는 감지 된 진동의 하나 이상의 특성을 검출하는 감지 능력으로 구성될 수 있다 (예를 들어, 도 32b의 센서(3228)). 이하에 보다 상세히 설명되는 바와 같이, LIDAR 시스템(100)과 연관된 하나 이상의 프로세서는, 예를 들어 편향기(114) 상에 존재하는 진동의 검출을 가능하게 하는 프로그래밍을 포함할 수 있다. 이러한 진동은, 예를 들어, LIDAR FOV 스캔의 일부로서 편향기(114)에 의도적으로 부여되지 않은 움직임을 포함하여, 편향기(114)의 움직임을 모니터함으로써 검출될 수 있다. 예를 들어, 도 32b는 스캐닝 유닛(104) 및 편향기(114)와 접촉하는 센서(3228) 뿐만 아니라 LIDAR 시스템(100) 구성 요소를 가지는 차량 진동 보상 시스템(3200)을 도시한다. 센서(3228)는 적어도 하나의 광 편향기(114)의 위치, 방향, 속도, 또는 가속도를 나타내는 데이터를 획득하는데 사용될 수 있다. 또한, 의도된 FOV 스캔(3220)은 편향기(114)에 의해 스캔된 바와 같은 실제 순간 FOV(3226) 및 순간 FOV(3224)를 통합한다. 스캐닝 유닛(104)에 존재하는 진동은 의도된 순간 시야와 실제 순간 시야 사이의 (각각 3224 및 3226) 불일치를 야기한다. 센서(3228)는 편향기(114)에 영향을 주는 진동을 검출할 수 있다. 도 32b는 바이스태틱 실시예를 도시하지만, 대안적인 경우들은 모노 스태틱 설계를 통합할 수 있다는 것을 더 유의해야 한다.
도 32a를 다시 참조하면, 차량(3210) 상의 진동의 존재는 LIDAR 시스템(100)의 작동을 방해할 수 있다. 예를 들어, 차량(3210)이 물체(3202)를 향하는 도로를 따라 진행함에 따라, LIDAR 시스템(100)은 LIDAR FOV의 스캔 중에 특정량의 광 플럭스를 물체(3202)쪽으로 향하게할 수 있다. 이전에 기술된 바와 같이, LIDAR FOV의 특정 서브 영역 (예를 들어, 물체(3202)가 상주하는 곳)으로 지향된 이 광 플럭스는 투영 유닛(102)이 순간 위치에 위치된 광 편향기(114)에 광을 제공함으로써 광이 물체(3202)를 포함하는 FOV 서브 영역을 향하여 투영되도록 한다. 그러나, 진동이 존재할 때, 편향기(114)는 광을 수신하도록 의도되지 않은 LIDAR FOV의 영역으로, 물체(3202)가 상주하는 서브 영역으로 지향되도록 의도된 광이 적어도 부분적으로 지향되도록 하는 움직임을 경험할 수 있다. 결과적으로, LIDAR 시스템(100)이 물체(3202)를 검출하고, 물체(3202)의 세부 사항 및 그 위치를 포함하는 적절한 깊이 맵을 생성하기에 충분한 정보를 제공하는 능력은 저하될 수 있다. 이러한 진동 효과를 방지하기 위해, LIDAR 시스템(100)의 처리 유닛(108)은 감지 유닛(106), 센서(116), 및/또는 편향기 위치 모니터링 유닛으로부터 수신된 출력에 기초하여 이러한 진동의 하나 이상의 특성을 포함하는 진동을 검출할 수 있다. 처리 유닛(108)은 편향기(114)가 광 투영, 수집, 또는 검출에 영향을 주는 LIDAR 시스템(100)의 임의의 다른 구성 요소, 감지 유닛(106), 광 투영 유닛(102), 또는 편향기(114)에 부여된 운동의 적어도 일부를 방해하는 방식으로 운동하게할 수 있다. 예를 들어, 일부 실시예에서, 하나 이상의 프로세서(118)를 포함하는 처리 유닛(108)은 편향기(114)의 위치 또는 방향을 모니터할 수 있고, 모니터된 위치를 의도된 순간 위치/방향과 비교하고, 만약 차이가 결정되면, 프로세서(118)는 편향기(114)가 의도된 순간 위치/방향을 향해 이동하도록할 수 있다. 이러한 피드백 접근법을 사용하여, 프로세서(118)는 편향기(114)를 의도된 위치 또는 방향으로부터 변위시키는 경향이 있는 진동의 영향을 상쇄시킬 수 있다. 일부 실시예에서, 프로세서(118)는 감지된 진동의 영향을 완화시키기 위해 LIDAR 시스템(100)의 임의의 이동가능한 구성 요소에 진동 감소 또는 상쇄 운동을 발생시키도록 구성될 수 있다.
이하 섹션에서는 시스템(3200)의 진동 검출 및 진동 억제 능력에 대해 자세히 설명한다.
현재 개시된 실시예는 적어도 하나의 광 편향기(114) (즉, 미러(3236))의 (예를 들어, θ, φ 좌표를 사용하여) 순간 각도 위치를 결정하도록 구성된 프로세서(118)(즉, CPU(3234))를 포함할 수 있다. "순간 각도 위치"라는 용어는 광이 (예를 들어, θ, φ로 표시된) 주어진 각도 방향으로 (및/또는 각도 방향으로부터) 편향되게 하는 적어도 하나의 편향기의 순간 위치를 지칭한다. 그러한 결정은 차량(3210) 또는 LIDAR 시스템(100)과 연관된 진동 센서(예를 들어, 광 편향기(114)와 연관된 센서)들 중 하나 이상으로부터의 광학 측정, 커패시턴스 측정, 압저항 측정, 유전 상수 측정, 및 압분극 측정 중 적어도 하나에 기초할 수 있다.
전술한 바와 같이, 진동은 하나 이상의 센서(3216), 센서(3218), 및/또는 센서(3219)를 사용하여 검출될 수 있다. 이러한 센서는 하나 이상의 가속도계, 변형계, 또는 적어도 하나의 진동 특성 또는 진동을 감지하기에 적합한 임의의 다른 유형의 센서를 포함할 수 있다. 또한, 언급한 바와 같이, LIDAR 시스템(100)은 전용 진동 센서(즉, 센서(3228))가 구비될 수 있거나, LIDAR FOV를 스캔하는데 사용되는 시스템의 하나 이상의 구성 요소를 사용하여 진동을 검출할 수 있다. 예를 들어, 일부 실시예에서, 진동은 도 32c에 도시된 위치 피드백 센서(3256) 및 편향기(114)를 사용하여 검출될 수 있다.
도 32c는 2개 이상의 축 (예를 들어, θ, φ)에서 이동될 수 있는 미러(3306)를 포함하는 예시적인 피봇 가능한 미러 구성이다. 도 32c 내지 도 32g에 나타난 바와 같이, 미러(3236)는 예를 들어, 직사각형, 정사각형, 원형, 또는 둥근 미러 형태를 포함하는 상이한 구성에 포함될 수 있다. 프로세서(118)는 LIDAR FOV의 스캔 동안, 예를 들어 미러(3236)의 위치를 포함하는 적어도 하나의 편향기(114)를 제어하도록 구성될 수 있다. 프로세서(118)는 또한 원하는 스캐닝 속도, 스캐닝 패턴, 공간적 광 분포, 시간적 광 분포 등을 제공하기 위해 미러(3236)의 움직임을 제어할 수 있다.
순간 방향 제어를 위해, 미러(3236)를 포함하는 스티어링 유닛(3232) (즉, 스캐닝 유닛(104))은 또한 액추에이션 구동기(3238)와 같은 전기적으로 제어 가능한 전기 기계식 구동기를 포함할 수 있다. 동작 구동기(3238)는 동작 또는 전력이 액추에이터(3240)와 같은 벤더(bender)/ 캔틸레버(cantilever)/액추에이터로 전달되도록할 수 있다. 액추에이터(3240)는 프레임(3241)과 같은 지지 프레임의 일부이거나 간접적으로 연결될 수 있다. 액추에이터(3242, 3244, 3246)와 같은 추가의 액추에이터는 도시된 바와 같은 추가적인 액추에이션 구동기에 의해 각각 제어/구동될 수 있으며, 각각은 (적절하게) 다중 층(3243, 3245, 3247)으로 이루어진 지지 프레임을 가질 수 있다. 프레임(3241), 프레임(3243), 프레임(3245), 및/또는 프레임(3247)은 모든 액추에이터들을 지지하는 단일 프레임을 포함할 수 있거나 복수의 상호연결된 프레임일 수 있다. 더 나아가, 프레임은 절연(Isn) 요소 또는 (도시된) 섹션에 의해 전기적으로 분리될 수 있다. 선택적으로, 스프링(3248)과 같은 가요성 상호연결 요소 또는 커넥터는 액추에이션 구동기(3238)로부터 미러(3236)로 전력 또는 이동을 전달하기 위해 미러(3236)에 액추에이터(3240)를 인접시키는데 이용될 수 있다. 액추에이터(3240)는 접촉부(3240A, 3240B, 3240C, 3240D)와 같은 2개 이상의 전기 접촉부를 포함할 수 있다. 선택적으로, 하나 이상의 접촉부(3240A), 접촉부(3240B), 접촉부(3240C), 및/또는 접촉부(3240D)는 프레임(3241) 및 액추에이터(3240)가 전자적으로 연결되는 경우 프레임(3241) 또는 액추에이터(3240) 상에 위치될 수 있다. 일부 실시예에 따르면, 액추에이터(3240)는 액추에이터(3240)가 액추에이터(3242) 및 액추에이터(3246) (각각)로부터 전자적으로 격리되도록 접촉부(3240A 내지 3240D)와 절연부(3250 및 3252) 사이에서 일반적으로 전도성이 되도록 도핑될 수 있는 반도체일 수 있다. 선택적으로, 액추에이터를 도핑하는 대신에, 액추에이터(3240)는, 액추에이터(3240)에 부착되거나, 그렇지 않으면 기계적으로, 또는 화학적으로 연결될 수 있는 전도성 요소를 포함할 수 있으며, 이 경우 절연 요소는 도전성 요소가 부착되지 않은 액추에이터(3240)의 면적에 내재할 수 있다. 액추에이터(3240)는 액추에이터(3240)를 통해 흐르는 전류가 액추에이터(3240)를 제어 가능하게 구부러지게 하는 압전의 섹션에서 반응을 일으킬 수 있도록 압전의 층을 포함할 수 있다.
예를 들어, 처리 유닛(108)에 통합될 수 있는 CPU(3234)는 θ, φ 파라미터에 의해 기술된 미러(3236)에 대한 원하는 각도 위치를 미러 구동기(3254)에 출력/전달할 수 있다. 미러 구동기(3254)는 미러(3236)의 움직임을 제어하도록 구성될 수 있으며, 액추에이션 구동기(3238)로 하여금 액추에이터(3240, 3242, 3244, 및 3246)의 굴곡에 기초한 미러(3236)의 θ, φ 편향값에 대한 특정 요청된 값을 달성하려고 시도하기 위해 특정 전압을 접촉부(3240C 및 3240D)에 가하도록할 수 있다. 일부 실시예에 따르면, 위치 피드백 제어 회로망은 접촉부(3240A) (또는 3240B)와 같은 접촉부에 (전압 또는 전류와 같은) 전원을 공급하도록 구성될 수 있고, 3240B (또는 3240A, 적절하게)와 같은 다른 접촉부는 액추에이터(3240)의 굴곡 및 적절하게 미러(3236)의 실제 편향을 결정하기 위해 액추에이터(3240)의 하나 이상의 전기적 파라미터를 측정하도록 이용될 수 있는 위치 피드백(3256) 내의 센서에 연결될 수 있다. 액추에이터(3240) 굴곡 및 적절하게는 편향 미러(3236)를 결정함으로써, CPU(3234)는 차례로 광 편향기의 실시간 위치를 결정한다는 것이 이해될 수 있다.
위치 피드백(3256)과 유사한 추가 위치 피드백 및 액추에이션 구동기(3288)와 유사한 추가 액추에이션 구동기는 각각의 액추에이터(3242 내지 3246)에 복제될 수 있으며, 미러 구동기(3254) 및 CPU(3234)는 미러 편향이 모든 방향에 대해 제어되도록 이들 요소를 또한 제어할 수 있다. 액추에이션 구동기(3238)를 포함하는 액추에이션 구동기는 액추에이터(3240 내지 3246)에서 전기 기계적 반응을 유발하는 신호를 전방으로 밀어내며, 액추에이터(3240 내지 3246)는 각각 순서대로 피드백을 위해 샘플링된다. 액추에이터(3240 내지 3246)의 위치들에 대한 피드백은 검출된 실제 편향에 기초하여 요청된 값을 정정하여 CPU(3234)에 의해 설정된 원하는 위치 θ, φ를 향하여 효율적으로 수렴하게 하는 미러 드라이버(3254)로 제공한다.
예를 들어, 3242A/B, 3244A/B, 또는 3246A/B와 위치 피드백 센서를 통하여 피드백 획득 및 미러(3236) 위치 설정의 기술된 작동 이외에도, 그러한 요소는 진동 검출에 사용될 수 있다. 예를 들어, 프로세서(118)는 차량 진동 (또는 LIDAR 시스템 진동)을 나타내는 데이터를 결정하기 위해 위치 피드백 센서로부터 피드백을 모니터할 수 있다. 전술한 바와 같이, 차량 진동 보상 시스템은 편향기로부터 획득된 측정된 반사된 광학 데이터를 이용할 수 있다. 도 3a 내지 도 3c에 도시된 것과 같은 스캐닝 유닛(104) 또는 LIDAR 시스템(100)은 시야(FOV)를 스캔하는 레이저 빔을 편향시키기 위해 압전 액추에이터 미소 전자 기계(MEMS) 미러 디바이스를 이용할 수 있다. 미러(3236) 편향은 액추에이터(3240) 상에 형성되는 압전 요소에 인가된 전압 전위/전류의 결과이다. 미러(3236) 편향은 특정 전압 레벨의 액추에이터(3240)가 일정한 변위 값으로 변환되지 않기 때문에 선형 방식으로 행동하지 않을 수 있는 각도 스캐닝 패턴으로 변환된다. 상이한 디바이스에 걸쳐 FOV 치수가 결정적이고 반복 가능한 스캐닝 LIDAR 시스템은 위치 피드백 및 센서(3256)로부터 미러 드라이버(3254) 및/또는 CPU(3234)로 각도 편향 피드백을 제공하는 폐루프 방법을 사용하여 최적으로 실현된다. 반사된 광학은 LIDAR 시스템에 대한 관련 데이터 (예를 들어, 깊이 맵 생성에 사용되는 LIDAR FOV의 특정 서브 영역으로부터의 반사광)를 제공할 수 있을 뿐 아니라, CPU(3234)는 또한 측정된 광 데이터를 진동 검출의 기준으로 사용할 수도 있다. 예를 들어, 특히 미러(3236)에 의해 센서(116) 상으로 반사된 광의 스팟이 센서에 대해 이동하도록 결정되는 경우, 특히 움직임이 진동과 연관된 주파수, 진폭 등과 일치하는 경우, 수집된 광 빔의 움직임의 정도 및 방향은 프로세서(118)가 진동의 존재 및 진동의 하나 이상의 특성을 또한 검출할 수 있게 한다.
다른 기술은 또한 진동의 존재를 검출하기 위해 프로세서(118)에 의해 사용될 수 있다. 도 32c로 돌아가고 전술한 바와 같이, 위치 피드백 센서는 또한 진동을 측정하는데 사용될 수 있다. 예를 들어, 위치 피드백 센서는 접촉부(3242A) 또는 접촉부(3242B), 접촉부(3244A) 또는 접촉부(3244B), 및/또는 접촉부(3246A) 또는 접촉부(3246B)를 통해 액추에이터(3242), 액추에이터(3244), 및/또는 액추에이터(3246)에서 신호를 감지할 수 있다. 감지된 신호는 액추에이터 움직임을 결정하는 데 사용될 수 있으며, 이는 진동을 나타낼 수 있다. 액추에이터 및/또는 위치 피드백 센서의 출력을 모니터링함으로써 진동 효과를 검출하는 일 예시에서, 프로세서(118)는 미러(3236)가 LIDAR FOV의 스캔의 일부로서 특정 순간 위치로 이동하게할 수 있다. 일단 미러(3236)가 (예를 들어, LIDAR FOV의 특정 서브 영역으로 광을 지향하기 위해) 지정된 순간 위치로 이동되면, 프로세서(118)는 미러가 다음 순간 위치로 이동하기 전에 미러가 특정 유지 시간 동안 그 위치에 남아있을 것을 기대할 수 있다. 유지 시간 동안, 미러(3236)는 앞서 상세히 논의된 바와 같이 특정 순간 FOV 로의 광의 연속적인 조종을 허용하는 페이스(pace)로 이동하거나, 지정된 순간 위치에서 고정되어 남아있을 것으로 예상될 수 있다. 따라서, 유지 시간 동안, 신호가 프로세서(118)에서 수신되어 미러(3236)가 그 예상된 방향으로부터 벗어났음을 나타내면, 특히 그 편차가 진동, 산발적, 무작위, 특정 주파수 이상, 특정 임계값 이상 등인 경우, 프로세서(118)는 유지 시간 동안의 이동/편차를 나타내는 신호가 진동을 나타낼 수 있다고 결정할 수 있다. 마찬가지로, 프로세서(118)는 또한 순간 위치 스캐닝 시간 동안의 이동/편차를 나타내는 신호가 미러에 인가된 외력을 나타내는지를 결정할 수 있다. 선택적으로, 프로세서(118)는 그 원인을 결정하지 않고 순간 위치 스캐닝 시간 동안의 움직임/편차를 나타내는 신호를 사용할 수 있다. (예를 들어, 상이한 순간 위치에서 유지 시간 사이에) 프로세서(118)가 미러(3236)를 이동하게 할 때, 만약 프로세서(118)가 금지된 이동에 대해 예상되는 신호와 일치하지 않는 위치 피드백 센서로부터의 신호를 관찰하면, 프로세서(118)는 불일치하는 신호는 진동 효과와 연관될 수 있다고 결정할 수 있다. (예를 들어, 상이한 순간 위치에서 유지 시간 사이에) 프로세서(118)가 미러(3236)를 이동하게 할 때, 만약 프로세서(118)가 금지된 이동에 대해 예상되는 신호와 일치하지 않는 위치 피드백 센서로부터의 신호를 관찰하면, 프로세서(118)는 위치 피드백 센서의 신호에 응답하여 미러(3236)의 적어도 하나의 액추에이터에 위치 제어 신호를 발행할 수 있다. 그러한 위치 제어 신호는 필요한 부분만 약간 수정하여 프로세서(118)에 의해 임의의 다른 유형의 광 편향기(114)에 발행될 수도 있음이 통상의 기술자에게는 명백할 것이다.
미러(3236)의 위치를 결정 및/또는 모니터하는 것은 진동을 검출하는데 유용할 뿐만 아니라, 의도하지 않은 미러 이동의 다른 원인에 대응하는데 유용할 수도 있다. 예를 들어, 도 32d는 특정 개시된 실시예에 따른 액추에이터-미러 결합 예시를 도시한다. 액추에이터(3240)는 수 개의 층들로 이루어질 수 있고, 압전층(3241), 반 전도성층(3243), 및 베이스층(3245)을 포함할 수 있다. 미러가 특정 각도 위치에서 편향되고 휴식 상태(R휴식)에서 저항과 비교되는 경우, 반도체 층(3243)의 저항은 활성 상태(도면에서 “R활성”으로 표시됨)에서 측정될 수 있다. R활성을 포함하는 피드백은 예상된 각도와 비교하여 실제 미러 편향각을 결정/측정하기 위한 정보를 제공할 수 있다. 이 정보에 기초하여, 만약 미러(3236)의 예상된 각도/방향/위치 사이에 차이가 있다면, 액추에이터(3240)는 예상되는 것과 일치하여 미러(3236)의 각도/방향/위치를 변경하기 위해 제어될 수 있다. 실리콘(또는 다른 반도체) 기반 액추에이터(3240)의 전기 전도도는 액추에이터(3240)가 겪는 기계적 응력에 응답하여 변화할 수 있다. 액추에이터(3240)가 휴식 상태에 있을 때, 2개의 접촉부(3240A 및 3240B)에서 나타나는 전기 전도도는 R휴식일 것이다. 층 3241의 압전 재료는, 만약 (예를 들어, 전압을 인가함으로써) 활성화되면, 액추에이터(3240)에 힘을 가하여 굴곡시킬 것이다. 또한, LIDAR 시스템(100)에 의해 겪는 진동은 미러(3236)의 의도하지 않은 움직임을 초래할 수 있으며, 이는 또한 액추에이터(3240)의 굽힘을 유발할 수도 있다. (압전층의 전기적 활성화 또는 진동의 결과로 유발되는지 여부에 관계없이) 기계적 힘에 대한 액추에이터(3240)의 굴곡은 2개의 접촉부(3240A 및 3240B)에서 나타나는 전기 전도도 R활성의 변화를 초래할 수 있다. R휴식과 R활성 사이의 차이는 루프를 폐쇄시키는 역할을 하는 각도 편향 값으로의 (도 32c의 미러 구동기(3254)와 같은) 미러 구동에 의해 상관될 수 있다. 이 방법은 실제 미러 위치의 동적인 추적에 사용될 수 있다. 그리고, 피드백 루프에서 이 정보를 사용하여, 프로세서(118)는 진동에 의해 야기되는 모션에 대항하도록 액추에이터(3240)에 전기적 신호(예를 들어, 공급 전류/전압)의 인가를 초래할 수 있다.
듀얼축 메모리(3280)의 도식적 표현을 제공하는 도 32f의 이중 축 메모리 (3270)의 도식적 표현을 제공하는도 32E의 각각, 및도 32F의 원형 메모리 미러 (3290)은 진동에 의해 야기되는 미러의 움직임을 검출하고 능동 피드백 루프를 통해 이러한 움직임에 대응하는 데 사용될 수 있는 미러 및 액추에이터 조립체의 예를 제공한다. 미러 및 액추에이터 결합은 특정 용도의 요구 사항에 따라 다양한 특성으로 구성될 수 있다. 예를 들어, 일부 실시예에서, 광 편향기(예를 들어, 액추에이터 프레임 내에 매달린 미러(3236))는 1000Hz 이하의 공진 주파수를 가질 수 있다. 또한, 상기 편향기는 MEMS 미러 어레이를 포함할 수 있으며, 개별 미러 각각은 광 편향기 요소를 구성한다. 일부 실시예에서, 각각의 광 편향기는 적어도 4.5mm의 폭을 갖는 단일 MEMS 미러를 포함할 수 있다. 다른 실시예에서, 각각의 광 편향기는 미러의 2차원 어레이를 포함할 수 있으며, 각각의 미러는 적어도 2mm의 폭을 갖는다. 언급된 바와 같이, (특히 진동을 나타내는 운동으로 한정되지는 않지만) 적어도 하나의 운동을 검출하면 - 예를 들어, 미러(3236)의 움직임의 하나 이상의 인디케이터를 모니터함으로써 -, 프로세서(118)는 움직임에 대응하기 위해 다양한 액추에이터를 제어할 수 있다. 이러한 제어는 제어가 미러(3236)의 의도된/예상된 위치 또는 이동과 미러(3236)의 관찰된 위치/운동/속도/가속도 사이의 차이를 줄이거나 제거하려고 하는 피드백 루프의 일부로서 수행될 수 있다. 미러(3236)의 의도된 위치/방향/속도/가속도와 미러(3236)의 관측된 위치/방향/속도/가속도 간의 차이의 감소 또는 제거는, 미러(3236)가 진동(또는 전술한, 임의의 다른 힘)에 의해 부여된 운동과 반대로 움직이도록 하거나, 그렇지 않으면 미러(3236)의 운동 특성을 수정하는 방식으로 액추에이터(예를 들어, 액추에이터(3240), 액추에이터(3242), 액추에이터(3244), 및/또는 액추에이터(3246))를 구동함으로써 성취될 수 있다. 미러(3236)의 위치/방향/속도/가속도를 연속적으로 모니터링하고, 피드백 루프의 일부로서 (LIDAR FOV의 스캔 동안) 미러(3236)의 의도된 순간 위치와 연관된 의도된 위치/방향을 향해 미러(3236)를 구동함으로써, 미러(3236)는 미러(3236)에 인가된 힘(예를 들어, 진동에 의해 야기된 힘)에도 불구하고 의도된 위치/방향으로 실질적으로 안내될 수 있다.
선택적으로 또는 추가적으로, 프로세서(118)는 센서(3216), 센서(3218), 및/또는 센서(3219)와 같은 하나 이상의 센서의 수신된 출력에 기초하여 미러(3236)의 위치를 제어할 수 있다. 이러한 실시예에서, 프로세서(118)는 관측된 진동에 대응하기 위한 조절을 결정할 수 있으며, 이는 미러(3236)를 의도된 순간 위치로 이동시키기 위해 적절한 축(θ, φ) 파라미터 조절을 계산하는 것을 포함할 수 있다. 일부 경우에, 이러한 조절들은 차량 자체와 연관된 센서로부터의 출력에 기초하여 결정된 계산된 가속도, 토크, 스트레인 등을 보상하기 위해 스티어링 디바이스(3232)와 함께 이동하는 편향기(114)를 포함할 수 있다.
진동 억제에 더하여, LIDAR 시스템(100)은 또한 LIDAR 시스템(100)이 장착되거나 그렇지 않으면 연관된 플랫폼 (예를 들어, 차량)과 연관될 수 있는 다른 움직임을 감지하고 이에 반응할 수도 있다. 예를 들어, 프로세서(예를 들어, 프로세서(118), CPU(3234) 등)는 차량의 경사를 나타내는 데이터를 수집하도록 추가로 구성될 수 있다 (예를 들어, 도 33). 차량의 경사를 나타내는 정보는 하나 이상의 가속도계, 하나 이상의 3차원 가속도계, 관성 측정 장치(inertial measurement unit, IMU) 등의 출력으로 제공할 수 있다. 이 정보에 기초하여, LIDAR 시스템(100)의 하나 이상의 양태에 조절이 이루어질 수 있다. 예를 들어, 일부 실시예에서, 하나 이상의 기계적 액추에이터가 차량 경사의 변화에 대응하는 방식으로 LIDAR 시스템(100)(또는 편향기(114)를 포함하는 그 구성 요소 중 하나 이상; 광 투영이기, 하나 이상의 광 편향기, 및 광 센서를 포함하는 광 투영이기 조립체; 또는 특정 장면에 대한 LIDAR FOV의 위치에 적어도 부분적으로 영향을 주는 LIDAR 시스템(100)의 임의의 다른 구성 요소)을 회전시키기 위해 활성화될 수 있다. 차량 경사의 이러한 대응은 예를 들어 차량 경사의 변화에도 불구하고 LIDAR FOV가 장면과 관련하여 (적어도 특정 기간 동안) 실질적으로 고정된 채로 유지될 수 있다. 다른 경우, LIDAR FOV는 장면에 따라 다를 수 있지만 보통 차량 경사의 특정 변화와 연관된 양보다 적다. 예를 들어, 차량이 언덕의 마루 (예를 들어, 음의 굴곡)에 접근함에 따라 LIDAR 시스템 (또는 하나 이상의 그 구성 요소)이 LIDAR FOV가 장면에 관하여 아래쪽으로 이동하도록 이동될 수 있다. 이러한 움직임은 LIDAR FOV가 하늘을 적게, 도로를 더 많이 중첩되도록할 수 있다. 유사하게, 차량이 도로에서 상향 굴곡 (예를 들어, 양의 굴곡)에 접근함에 따라 LIDAR 시스템 (또는 하나 이상의 그 구성 요소)이 LIDAR FOV가 장면에 관하여 위쪽으로 이동하도록 이동될 수 있다. 이러한 움직임은 LIDAR FOV가 상향 굴곡을 지나 도로의 더 먼 부분을 포함하여 장면의 영역과 중첩될 수 있게 한다.
설명적인 예시로서, 도 33은 트럭(3302)의 방향으로 내리막으로 주행하는 LIDAR 시스템(100)을 갖는 차량(110)을 포함하는 2개의 유사한 장면을 도시한다. 장면 A에서, LIDAR 시스템(100)은 트럭(3302)이 검출되지 않도록 최소 및 최대 고도 포인트를 갖는 고정된 시야(120A)를 갖는다. 이 경우에, LIDAR 시스템(100)은 이후의 시간까지 (예를 들어, 차량이 LIDAR FOV를 장면에 대해 상향으로 이동시키면서 트럭(3302)을 포함하는 영역과 중첩되도록 도로의 양의 굴곡을 통과할 때) 트럭(3302)을 검출하지 않을 것이다. 그러나, 장면 B에서, LIDAR 시스템(100)은, 예를 들어, 상술한 바와 같이 LIDAR 시스템(100) 또는 하나 이상의 그 구성 요소의 조준 방향을 조절함으로써 장면에 대해 위치될 수 있는 동적 시야(120B)를 갖는다. 이 예시에서, 언덕 아래로 주행하는 차량의 경사가 검출될 수 있고, 동적 FOV(120B)는 언덕의 바닥과 중첩되지 않도록 조절될 수 있지만 (장면 A 에서처럼), 대신 트럭(3302)이 상주하는 도로를 따라 더 먼 영역과 중첩되도록 조절될 수 있다. 결과적으로, LIDAR 시스템(100)은 동적 FOV 능력이 없는 것보다 빨리 트럭(3302)을 검출할 수 있다. 명백하게, 프로세서(118)는 차량(110)의 다양한 위치에 반응할 수 있으며, 내리막 주행은 단지 시나리오의 일례로서 제공된다.
처리 유닛(108) (예를 들어, CPU (3234)를 포함함)은 다양한 방식으로 이러한 조절을 성취할 수 있다. 예를 들어, CPU(3234)는 LIDAR 시스템(100)의 위치를 변경시키기 위해 차량과 연관된 다양한 센서 피드백에 의해 수집된 데이터로부터 일정한 피드백 루프를 구현할 수 있다. 대안적으로 또는 추가적으로, 편향기(114) (예를 들어, 미러(3236))는 차량 경사의 변화를 오프셋하는 방식으로 조종될 수 있다.
차량 상에 사용하기 위한 LIDAR 시스템의 진동을 억제하는 방법은 적어도 하나의 광원으로부터의 광 플럭스가 시야의 스캔에 걸쳐 변화할 수 있는 방식으로 적어도 하나의 광원을 제어하는 것을 포함할 수 있다. 상기 방법은 시야를 스캔하기 위해 적어도 하나의 광원으로부터의 광을 편향시키도록 적어도 하나의 광 편향기의 위치 설정을 제어하는 것을 포함할 수 있다. 이 방법은 차량의 진동을 나타내는 데이터를 획득한다. 획득된 데이터에 기초하여, 이 방법은 차량의 진동을 보상하기 위해 적어도 하나의 광 편향기의 위치 설정을 조절한다. 또한, 이 방법은 적어도 하나의 광 편향기의 위치 설정에 대한 결정된 조절을 구현하여 적어도 하나의 광 편향기 상에서 시야를 스캔하는 것에 대한 차량의 진동의 영향의 적어도 일부를 억제한다.
이제 도 34를 참조하면, 차량에 사용하도록 구성된 LIDAR의 진동을 억제하는 방법은 적어도 하나의 광원으로부터의 광의 광 플럭스를 시야의 스캔에 걸쳐 변화시킬 수 있는 방식으로 적어도 하나의 광원을 제어하는 것(단계 3410)을 포함할 수 있다고 더 이해된다. 또한, 일부 실시예에서, 광 편향기(114)는 1000Hz 이하의 공진 주파수를 갖는다. 단계(3420)에서, 시야는 적어도 하나의 광원으로부터의 광을 편향시키도록 광 편향기 위치 설정을 제어 또는 조종함으로써 스캔될 수 있다. 단계(3430)에서, 수집된 데이터의 몇 가지 예시가 상술된 차량의 진동을 나타내는 데이터가 획득될 수 있다. 그 후, 단계(3440)에서, 획득된 데이터에 기초하여, 차량의 진동을 보상하기 위해 적어도 하나의 광 편향기의 위치 설정에 대한 조절이 결정된다. 그리고 단계(3450)는 방법이 LIDAR FOV의 하나 이상의 스캔 상의 진동의 영향을 억제 또는 제거하기 위해 적어도 하나의 광 편향기의 위치 설정을 통해 결정된 조절이 구현될 수 있음을 나타낸다. 추가의 실시예는 광 편향기의 순간 각도 위치를 결정하고, 의도된 또는 요구된 위치와 순간 각도 위치 사이의 차이를 보상하기 위해 광 편향기의 순간 각도 위치를 변경하는 것을 더 포함할 수 있다.
조종 가능한 고 에너지 빔
자동차 산업에 의한 LIDAR 시스템의 채택을 돕기 위해, LIDAR 시스템에는 인간 시력의 특정 양태와 유사한 능력을 나타내는 관심이 있을 수 있다. 예를 들어, 인간의 시력은 한 개인이 3차원에서 한 장면을 인지할 수 있게 하는 (예를 들어, 두 눈이 약간 다른 위치에서 장면을 봄으로써 제공되는 시차(parallax)를 통해) 정보를 제공한다. 도로 상황에서, 이러한 능력은 사람이 높낮이가 있는 도로, 오르막길 세그먼트, 내리막길 세그먼트, 앞뒤로 흔들림, 기우뚱해짐, 스피드 범퍼, 급선회, 갓길, 급경사 경로 (예를 들어, 지하 차고) 등을 3차원 깊이로 인식할 수 있게 한다. 또한, 인간 시력은 개인이 면적에 집중할 수 있도록 하기 위해 개인이 시야 내(또는 장면 내)의 어떤 영역이 더 많은 관심을 필요로 하는지를 결정 및/또는 예측할 수 있게 한다. 예를 들어, 거리에서 주행할 때, 보행자와 차량이 상주하는 영역은 스카이 라인 또는 예를 들어, 개인의 차량과 상호 작용할 수 있는 물체를 포함하지 않는 장면의 영역, 또는 개인의 시야의 영역보다 더 주의를 요구할 수 있다. 따라서, 장면(또는 개인의 환경)에서 이러한 물체의 존재를 결정하는 것에 응답하여, 개인은 물체가 상주하는 영역에 보다 많은 주의를 기울일 수 있다. LIDAR 시스템에 유사한 능력을 제공하는 것이 바람직할 수 있다.
본 개시의 실시예와 일치하는 LIDAR 시스템에서, 시스템은 LIDAR 시스템의 FOV 내의 환경에서 물체의 3D 재구성을 생성할 수 있다. 개시된 LIDAR 시스템은 3 자유도(3 degrees of freedom, 3DOF)부터 6 자유도(6DOF)까지의 차량 모션 벡터 뿐만 아니라 환경, 도로 특징에 따라 특정 주변 영역을 향하여 활성 시야가 이동되는 인간의 시력 행동을 어느 정도 모방한 "응시"능력을 포함할 수 있다. 이러한 능력은 LIDAR 시스템이, 예를 들어, FOV를 상이한 레벨의 서비스 품질(quality of service, QoS)로 할당된 세그먼트로 적응적으로 분할함으로써 넓은 시야에 걸쳐 증가된 감지 성능을 제공할 수 있게 한다.
언급한 바와 같이, LIDAR 시스템(100)은 광원(112)으로 하여금 FOV의 특정 영역에서 더 높거나 더 낮은 광 플럭스를 생성하도록 적어도 하나의 광원(112)을 제어할 수 있는 예를 들어, 처리 유닛(108) 내의, 적어도 하나의 프로세서(118)를 포함할 수 있다. 예를 들어, FOV의 특정 영역과 연관된 관심 레벨에 응답하여, 더 많거나 더 적은 광이 관심 레벨에 비례하여 특정 영역에 제공될 수 있다. 보다 낮은 관심을 갖는 (예를 들어, 도 5b에 도시된 검출된 차로부터 떨어진 영역과 같은) 시야(120)의 부분은 더 낮은 레벨의 광 플럭스로 또는 심지어 전혀 광 플럭스 없이 할당될 수 있다. 그러나, (예를 들어,도 5b에 도시된 차량이 검출되는 영역 같이 물체가 검출되는 영역과 같은) 더 높은 관심의 다른 면적에는 더 높은 광 플럭스 레벨이 할당될 수 있다. 이러한 할당은 관심이 적은 면적에서 검출 자원 및 광 에너지의 소비를 피할 수 있지만, 관심이 높은 면적에서는 해상도 및 기타 성능 특성을 향상시킬 수 있다. 더 높거나 더 낮은 광 플럭스는, 제1 부분에 지향된 광 플럭스가 시야의 적어도 하나의 다른 부분에 지향된 광 플럭스보다 크도록 하기 위해 제1 부분과 연관된 광원 파라미터(예를 들어, 펄스 타이밍, 펄스 길이, 펄스 크기, 펄스 진폭, 펄스 주파수, 및/또는 그와 유사한 것)를 변경함으로써 생성될 수 있다. 대안적으로, 프로세서(118)는 제1 부분에 지향된 광 플럭스가 시야의 적어도 하나의 다른 부분에 지향된 광 플럭스보다 더 적도록 하기 위해 제1 부분과 연관된 광원 파라미터를 변경할 수 있다. 플럭스 차이는 또한 편향기 파라미터 (예를 들어, 스캐닝 패턴, 스티어링 속도)를 수정하고 광원과 편향기의 동기화를 바꿈으로써 달성될 수도 있다.
또한, 광 할당은 또한 FOV를 거쳐 미리 결정된 할당 패턴에 기초할 수도 있다. 도 35a는, 예를 들어 수평으로 가르키는 LIDAR 시스템에 대한 조감도로부터 본, 센서의 검출 평면에 수직인 평면에 걸친 FOV의 예시를 도시한다. 도 35a에 도시된 예시에서, FOV는 3개의 섹터로 분할되지만, 더 많거나 더 적은 섹터가 달성될 수 있다. 각 섹터에는 그에 지향된 특정 광 플럭스를 가질 수 있다. 결과적으로, 각 섹터는 대응하는 신호 대 노이즈 차별화 밸런스, 및/또는 각 섹터에 제공된 광량과 연관된 대응하는 검출 범위를 나타낼 수 있다. 도 35a에 묘사된 3개의 섹터 중, 섹터 II는 섹터 I 또는 섹터 III보다 큰 광 플럭스가 할당된다. 결과적으로, LIDAR 시스템은 섹터 I 또는 섹터 III보다 섹터 II에서 더 먼 범위에서 유사한 물체를 검출할 수 있다. 마찬가지로, 도시된 바와 같이, 섹터 Ⅲ은 섹터 Ⅰ보다 많은 광으로 할당되었지만, 섹터 Ⅱ보다는 적은 광으로 할당되었다. 결과적으로, 섹터 Ⅲ은 섹터 Ⅰ의 범위보다 큰 범위, 섹터 Ⅱ보다 작은 범위에서 물체의 검출이 가능할 수 있다. 물론 다른 광 할당 패턴이 가능할 수 있다. 예를 들어, 일부 실시예에서, 섹터 II는 최대 광 플럭스로 할당될 수 있고, 섹터 I 및 섹터 III는 각각 실질적으로 동일한 양의 광 플럭스로 할당될 수 있다. 제2 섹터로 지향되는 광 플럭스의 더 큰 레벨은 광원과 관심 타겟 사이의 거리에 걸친 레이저 신호 손실을 적어도 부분적으로 보상할 수 있다. 더욱이, 제2 섹터로 지향되는 더 큰 광 플럭스는 또한 시스템이 그 섹터에 제공할 수 있는 해상도를 향상시킬 수도 있고, 차례로 LIDAR 시스템 전체에 대한 그 섹터의 서비스 품질을 향상시킬 수 있다. 향상된 해상도는 시간적 해상도, 향상된 공간적 해상도, 또는 둘 모두의 조합을 향상시킬 수 있다.
FOV의 상이한 섹터에 상이한 레벨의 광 플럭스가 할당될 수 있을 뿐만 아니라, 섹터의 형태 및 크기 또한 변할 수도 있다. 예를 들어, 일부 실시예에서, 도 35a에 도시된 예시적인 실시예에서 도시된 바와 같이, 섹터 II (예를 들어, 도 35a 실시예에서 가장 높은 광 할당의 섹터)는 FOV의 중심 영역을 차지할 수 있다. 다시 말하면, 전술한 바와 같이, FOV는 다수의 서브 영역들로 분할될 수 있다. 프로세서(118)는 FOV 내의 임의의 영역/서브 영역을 섹터 II (또는 임의의 다른 섹터)로 지정할 수 있다. 따라서, 프로세서(118)에 의해 야기된 광 할당은 특정 섹터 내에 포함된 하나 이상의 서브 영역에 특정 광 플럭스 레벨을 공급하는 것을 포함할 수 있다. 또한, 각 섹터/서브 섹터는 적어도 하나의 픽셀을 포함한다. 본 발명의 시스템 및 방법은 픽셀 단위 기준으로 데이터를 수집할 수 있다. FOV를 스캔하기 위해, 프로세서(118)는 시야를 스캔하기 위해 적어도 하나의 광 편향기(예를 들어, 도 1a의 광 편향기(114), 및/또는 도 2a의 편향기(114A) 및/또는 편향기(114B), 및/또는 도 2b의 일방향 편향기(214))를 제어할 수 있다. 예를 들어, 프로세서(118)는 시야를 스캔하기 위해 적어도 하나의 광 편향기의 기계적 이동을 야기할 수 있다. 대안적으로 또는 동시에, 프로세서(118)는 시야를 스캔하기 위해 적어도 하나의 편향기에서 압전기 또는 열전기 변화를 유도할 수 있다.
LIDAR 시스템과 연관된 섹터는 임의의 적절한 크기, 임의의 방향, 또는 상이한 입체각을 포함할 수 있다. 예를 들어, 일부 실시예에서, 각 섹터는 유사한 크기를 가질 수 있다 (예를 들어, 비슷한 개수의 "픽셀", 비슷한 개수의 "빔 스팟"과 같은 비슷한 개수의 유사한 크기의 FOV 서브 영역을 차지할 수 있다). 그러나 다른 경우에, 섹터는 상이한 크기를 가질 수 있다. 예를 들어, 도 35c는 상이한 크기 및 형태를 갖는 상이한 섹터를 도시한다.
섹터는 다양한 방향으로 LIDAR FOV 내에 위치할 수도 있다. 도 35a에 도시된 예시적인 실시예에서, LIDAR FOV는 각각이 LIDAR FOV의 전체 높이를 차지하는 3개의 섹터(I, II, 및 III)로 수직으로 분할되도록 하기 위해 각 섹터는 LIDAR FOV의 전체 높이를 차지한다. 그러나, 모든 실시예에서 반드시 그런 것은 아니다. 오히려, 프로세서(118)가 임의의 FOV 서브 영역 또는 서브 영역들의 그룹을 특정 섹터에 배정할 수 있기 때문에, 그러한 섹터들은 FOV의 수직 슬라이스 (도 35a), FOV의 수평 슬라이스를 구성할 수 있거나, 또는 도 36과 관련하여 이하에서 보다 상세하게 설명되는 바와 같이, 다양한 다른 형태 또는 패턴을 가질 수 있다. 여기서, 예를 들어, 서브 영역은 적어도 하나의 편향기의 순간 위치 변경에 의해 FOV 내에서 이동될 수 있는 순간 FOV 일 수 있다.
또한, 각각의 섹터와 연관된 크기, 형태, 및/또는 범위는 상이한 스캐닝 사이클에서 바꿀 수 있다. 예를 들어, FOV의 스캐닝 사이클에 걸쳐 프레임을 얻은 후에, 다양한 섹터들로의 광 할당이 바뀔 수 있고, 섹터들의 개수가 바뀔 수 있으며, 섹터들의 크기가 바뀔 수 있고, 및/또는 FOV 내의 임의의 섹터의 상대적 위치는 바뀔 수 있다. 도 35b에 도시된 예시적인 실시예에서, FOV의 나중 스캔에서 섹터 III에 할당된 광은 FOV의 초기 스캔에서 도 35a에 표현된 바와 같이 섹터 III에 할당 된 광량에 비해 바뀌었다. 결과적으로, 도 35b 스캔의 섹터 III는 도 35a 스캔의 섹터 III과 비교하여 더 적은 광 플럭스에 연관될 수 있고, 따라서 더 짧은 검출 범위, 더 낮은 신호 대 노이즈 비율 등과 연관될 수 있다. 결과적으로, 도 35b에 도시된 바와 같이, 섹터 I 및 섹터 III는 동일한 검출 범위를 가질 수 있다.
또한, 상이한 섹터와 연관된 위치, 크기, 형태, 및/또는 광 플럭스는 검출 피드백에 기초하거나, 호스트 또는 다른 외부 시스템에 의해 제공된 명령 또는 정보에 기초하거나, 임의의 다른 적절한 기초에 기초하여 미리 결정된 패턴에 따라 다수의 스캐닝 사이클에 걸쳐 변화될 수 있다. 일부 실시예에서, 예를 들어, 특정 섹터의 상대 위치는 FOV의 2개 이상의 스캐닝 사이클에 걸쳐 FOV 내에서 바뀔 수 있다. 결과적으로, 섹터 II와 같은 특정 섹터는, 예를 들어, 다수의 스캔 (예를 들어, 래스터 패턴, 스위핑 모션 등)에 걸쳐 FOV를 스캔하도록 만들어질 수 있다. 또한, 이용 가능한 섹터들에 제공되는 광 플럭스의 양은 스캔마다 변화될 수 있다. 예를 들어, 도 35a와 연관된 스캔과 비교하면, 도 35b에 의해 나타낸 스캔은 섹터 III에 할당된 광량이 감소되었다는 것을 보여준다. 결과적으로, 섹터 Ⅲ의 검출 범위가 또한 바뀔 수 있다 (예를 들어, 감소). 이러한 광 할당의 변화는 피드백 (예를 들어, 차량 모션과 관련된 센서 출력, 하나 이상의 관심 물체의 LIDAR 검출, 다른 센서/검출기 등)에 기초한 미리 결정된 섹터 스캐닝 방식에 응답하여 프로세서(118)에 의해 이루어질 수 있다. 결과적으로, 도 35b에 도시된 바와 같이, 프로세서(118)는 FOV 내의 2개의 상이한 섹터들에 대해 동일한 검출 범위를 결정할 수 있다.
일 예시에서, 도 1a를 참조하면, LIDAR 시스템(100)은 차량(110) 상에 배치될 수 있고, 처리 유닛(108)은 차량의 주행 모드(예를 들어, 앞뒤로 흔들림, 기우뚱해짐, 완만하게 경사진, 정지 등)에 기초하여 (섹터 II와 같은) 특정 섹터에 대한 미리 정의된 스캐닝 패턴을 선택할 수 있다. 차량이 이동함에 따라, 처리 유닛(108)은 섹터 II가 스위핑 모션으로 스캔에서 스캔으로 이동하게할 수 있다. 이러한 위치의 변화는 LIDAR 시스템이 (관심 범위 또는 범위에 위치한 것을 포함하는) 타겟 물체를 효과적으로 검출할 수 있게 한다. 또한, LIDAR FOV의 다중 스캔에 걸친 특정 섹터의 스위핑은 시스템으로 하여금 복수의 스캔에 걸쳐 하나 이상의 관심 타겟을 추적할 수 있게할 수 있다. 예를 들어, 만약 스캔에서 스캔까지, 차량은 FOV에 대해 검출 섹터의 위치를 이동시킴(예를 들어, 복수의 스캔에 걸친 스위핑 모션으로 섹터 II를 이동시킴)으로써 검출된 물체에 대해 이동을 계속하며, LIDAR 시스템은 차량이 이러한 물체에 대해 이동할 때 하나 이상의 타겟 물체의 추적을 계속할 수 있다.
또 다른 예시적인 예시는 차량(110)이 방향을 바꾸는 상황(예를 들어, 좌회전 또는 우회전, U 턴, 주차 등)을 포함할 수 있다. 이러한 경우에, 복수의 스캐닝 사이클에 걸쳐 FOV를 가로지르는 특정 섹터를 스캔하는 것은, 그렇지 않으면 FOV를 가로지르는 특정 섹터의 스캐닝없이 검출되지 않을 (또는 원하는 해상도로 검출되지 않을 수 있는) 타겟 물체의 연속적인 추적을 가능하게할 수 있다. 이러한 스캐닝이 소정의 패턴 (예를 들어, 미리 결정된 비율, 위치 등에서의 FOV의 상대적인 위치의 규칙적인 스위핑)에 따라 발생할 수 있는 반면에, 특정 섹터의 스캐닝은 또한 임의의 다른 적절한 기준에 기초할 수 있다. 예를 들어, 일 실시예에서, 스캐닝은 상술한 바와 같이 차량 모션과 연관된 피드백에 기초할 수 있다. 차량이 움직이면서, 차량 상의 센서 (예를 들어, 속도 센서, 가속도계 등)는 차량의 속도와 방향을 모니터할 수 있다. 차례로, FOV의 특정 섹터의 위치는 차량의 감지된 모션을 적어도 부분적으로 설명하기 위해 하나의 스캐닝 사이클로부터 다음으로 바뀔 수 있다. 일 예시에서, 섹터 위치는 검출된 물체 (예를 들어, 다른 차량, 보행자 등)가 복수의 FOV 스캐닝 사이클의 과정 동안 특정 섹터(예를 들어, 도 35a 또는 도 35b의 섹터 II, 또는 도 35c의 섹터 IV) 내에서 적어도 부분적으로 추적될 수 있도록 바뀔 수 있다.
추가적으로, FOV 내의 섹터의 상대적인 움직임은 다른 유형의 피드백에 기초할 수 있다. 예를 들어, 만약 관심 물체가 FOV의 특정 섹터 (예를 들어, 섹터 II) 내에서 검출되고, 그 물체가 LIDAR 시스템에 대해 이동하는 것으로 결정되면, 관심 물체의 상대적인 움직임은 하나 이상의 후속 스캔 동안 FOV 내의 특정 섹터의 후속 위치를 배정할 때 고려될 수 있다. 예를 들어, 도 35c에 도시된 바와 같이, 만약 타겟 차량이 LIDAR 시스템을 포함하는 호스트 차량의 전방을 가로 지르고 우측에서 좌측으로 가로지르는 경우, FOV를 가로질러 우측에서 좌측으로 이동함에 따라 타겟의 모션을 추적하기 위해 특정 섹터(예를 들어, 섹터 IV)의 상대적 위치가 다수의 스캔에 걸쳐 FOV를 가로질러 스위프될 수 있다. 결과적으로, 섹터 IV의 위치는 FOV의 다수의 스캔에 걸쳐 FOV를 가로질러 우측에서 좌측으로 이동할 수 있다. 섹터가 FOV의 새로운 위치로 이동되는 속도 (예를 들어, 스캔에서부터 스캔까지 섹터 위치의 각도 변화)는 타겟 차량의 관측된 상대적 이동 특성 (예를 들어, 상대 속도, 가속도, 호스트 차량으로부터의 거리 등)에 의존할 수 있다. 따라서, 도 35d는 도 35c의 섹터에 대응하는 섹터로 분할된 FOV를 도시한다.
대안적으로 및 동시에, FOV 내의 섹터의 상대적인 움직임은 스위핑 패턴일 수 있다. "등대"의 투영 모드와 유사하게, 특정 섹터는 FOV 또는 FOV의 부분을 가로질러 임의의 이동 물체를 검출하고 추적하기 위해 움직일 수 있다.
대안적으로 및 동시에, 프로세서(118)는 더 넓은 장면 이해를 희생하면서 검출 범위를 증가하기 위해 호스트 차량의 속도에 기초하여 FOV 내의 특정 섹터(예를 들어, 섹터 II)에 대한 프레임 중심의 치수가 감소되는 것을 야기할 수 있다.
스캔에서부터 스캔으로 FOV를 가로질러 섹터(또는 하나 이상의 섹터)를 스위프하는 것은 연속적으로 이루어질 수 있다(예를 들어, 섹터의 각도 변화가 스캔에서 스캔까지 일정한 경우). 스위핑 또는 하나 이상의 섹터는 불연속 방식으로 이루어질 수도 있다(예를 들어, 스캔에서부터 스캔까지의 각도 변화가 일정하지 않은 경우).
FOV의 하나 이상의 섹터는 또한 광 플럭스를 거의 또는 전혀 수신하지 않도록 프로세서(118)에 의해 지정될 수도 있다. 예를 들어, 만약 데드 존(dead zone)이 검출되거나 (예를 들어, 관심 물체가 거의 또는 전혀 없는) 근처 물체가 FOV의 부분을 차단하는 경우, 하나 이상의 후속 스캔 중에 그 존으로부터의 추가 정보에 대한 필요성이 덜할 수 있다. 결과적으로, 낮은 광 플럭스 또는 심지어 전혀 광 플럭스가 없는 섹터는 FOV의 하나 이상의 후속 스캔 동안 데드 존과 중첩되도록 배정될 수 있다. 그런 식으로, LIDAR 시스템의 에너지 사용량/에너지 요구량은 줄어들 수 있다. 추가적으로 또는 대안적으로, 데드 존 섹터(들)로의 할당에 이용될 수 있었던 광 에너지는 하나 이상의 더 높은 관심의 다른 섹터로의 재할당을 위해 자유롭게될 수 있다.
전술한 바와 같이, FOV는 하나 이상의 섹터로 분할될 수 있으며, 각각의 섹터는 FOV를 갖는 임의의 하나 이상의 서브 영역으로 이루어진다. 이러한 섹터 분할은 FOV의 수직 섹션, FOV의 수평 섹션을 포함할 수 있거나, 또는 다양한 다른 패턴을 포함할 수 있다. 일 실시예에서, 도 36에 도시된 바와 같이, FOV는 3개의 섹터 (섹터 I, 섹터 II, 및 섹터 III)로 분할될 수 있다. 이 실시예에서, 섹터 I 및 섹터 III은 FOV의 수직 슬라이스를 포함한다. 그러나, 섹터 II는 제1 및 제3 섹터에 의해 완전히 둘러싸인 FOV의 서브 영역에 배정된다. 섹터 II의 위치는 스캔에서부터 스캔까지 FOV 내의 유사한 상대적 위치에 있거나, 또는 이동될 수 있다. 일부 실시예에서, 섹터 II는 각각의 스캐닝 사이클에서 제2 섹터의 적어도 부분이 레벨 또는 수평선 아래에 위치되도록 다수의 연이은 스캐닝 사이클에서 스위핑이 야기될 수 있다. 예를 들어, 높낮이가 있는 도로 상에서 주행하고, 관심 물체(예를 들어, 움푹 패인 곳, 다른 차량, 보행자 등)가 도로 상에서 검출될 때, 그 면적에서 해상도를 증가시키고 물체의 특성을 결정하는 능력을 향상시키기 위해 관심 물체의 영역을 향하여 더 많은 광 플럭스를 할당하는 것이 바람직할 것이다. 따라서, 전술한 방식으로, 프로세서(118)는 섹터 II가 감지된 차량 방향, 관심 물체의 상대적인 동작, 또는 임의의 다른 기준에 기초하여 스캔으로부터 스캔까지 관심 물체를 추적하도록 할 수 있다. 따라서 LIDAR 시스템이 상주해있는 차량이 언덕 아래로 주행할 때, 섹터 II는 전방 도로에서 관심 물체와의 중첩을 유지하기 위해 스캔으로부터 스캔으로 위쪽으로 이동하게 될 수 있다. 유사하게, 호스트 차량이 언덕 위로 주행할 때, FOV 내의 섹터 II의 위치는 스캔으로부터 스캔으로 아래쪽으로 이동하게 될 수 있다. 결과적으로, 높낮이가 있는 도로임에도 불구하고, FOV 내의 섹터 II의 위치(예를 들어, 높은 광 플럭스 할당 구역)는 섹터 II가 실질적으로 수평선 아래의 FOV 영역과 중첩하도록 위아래로 움직일 수 있다.
도 37은 LIDAR 시스템을 이용하여 물체를 검출하기 위한 예시적인 방법(3700)의 흐름도이다. 단계(3701)에서, 프로세서 (예를 들어, 프로세서(118))는 적어도 하나의 광원으로부터의 광의 광 플럭스가 시야의 스캐닝 사이클에 걸쳐 변화할 수 있는 방식으로 적어도 하나의 광원(예를 들어, 광원(112))을 제어할 수 있으며, 상기 적어도 하나의 광원으로부터 투영된 광은 시야를 스캔하기 위해 적어도 하나의 편향기(예를 들어, 광 편향기(114))로 지향된다. 단계(3702)에서, 프로세서(예를 들어, 프로세서(118))는 적어도 하나의 센서 (예를 들어, 센서(116))로부터 시야(예를 들어, 시야(120)) 내의 물체로부터 반사 된 광을 나타내는 반사 신호를 수신한다. 단계(3703)에서, 프로세서(예를 들어, 프로세서(118))는 적어도 3개의 섹터가 스캐닝 사이클에서 생기게 하는 방식으로 스캔하고 광 플럭스를 조정한다. 프로세서(118)는 유사하거나 상이한 레벨의 광 플럭스가 적어도 3개의 섹터들 각각에 공급되도록 할 수 있다. 일부 예시에서, 제2 섹터에 공급되는 광 플럭스는 제1 및 제3 섹터에 공급되는 광 플럭스보다 클 수 있다. 프로세서(118)는 또한 하나 이상의 이용 가능한 섹터에 대해 상이한 포인트 해상도를 야기할 수도 있다. "포인트 해상도"는 포인트 클라우드 맵의 하나 이상의 포인트의 모든 포인트가 물체 내의 위치 또는 그 페이스(face) 상의 위치에 대응하는 포인트 클라우드 맵의 해상도를 지칭할 수 있다. 즉, 만약 각 포인트 사이의 평균 공간이 축소되고, 포인트의 개수가 증가하면, 포인트 해상도가 높아질 수 있다. 그리고 포인트 해상도가 높아질수록 정보(예를 들어, 공간적 정보, 시간적 정보 등)가 더 정확해질 수 있다.
단계(3704)에서, 프로세서(예를 들어, 프로세서(118))는 제1 섹터에 공급된 광 플럭스가 제3 섹터에 공급된 광 플럭스와 실질적으로 동일하고, 제2 섹터에 공급된 광 플럭스는 제1 및 제3 영역에 공급된 광 플럭스보다 크도록 적어도 하나의 광원(예를 들어, 광원(112))을 제어할 수 있다. 그 결과, 제2 섹터와 연관된 검출 범위는 제1 섹터와 연관된 검출 범위 또는 제3 섹터와 연관된 검출 범위보다 적어도 50%만큼 연장될 수 있다. 단계(3705)에서, 프로세서(예를 들어, 프로세서(118))는 적어도 하나의 센서 (예를 들어, 센서(116))로부터의 입력에 기초하여 제1 섹터 또는 제3 섹터 중 하나에 의해 제공되는 포인트 해상도보다 높은 포인트 해상도로 제2 섹터 내의 물체를 검출할 수 있다. 단계(3706)에서, 프로세서(예를 들어, 프로세서(118))는 제1 섹터와 제3 섹터와 연관된 포인트 해상도의 포인트들 사이의 평균 공간의 약 50% 미만인 각 포인트 사이의 평균 공간을 갖는 제2 포인트 해상도를 이용하여 제2 섹터 내의 물체를 검출할 수 있다. 예를 들어, 제2 섹터에서 보다 정확한 정보가 요구될 때, 적어도 하나의 프로세서는 제2 섹터와 연관된 포인트 해상도에서 각 포인트 사이의 평균 공간을 감소시킴으로써 포인트 해상도를 향상시킬 수 있다. 단계(3707)에서, 프로세서(예를 들어, 프로세서(118))는 적어도 하나의 센서(예를 들어, 센서(116))로부터의 입력에 기초하여 제2 섹터의 물체를 검출할 수 있다.
상이한 속도에서 Lidar 프레임의 병렬 캡처
도 38은 LIDAR 시스템(3800)의 시야(3802)를 도시한 도면이다. LIDAR 시스템(3800)은 LIDAR 시스템(100)을 참조하여 전술한 바와 같이 작동할 수 있다. 일부 실시예에서, LIDAR 시스템(3800)은 광 플럭스가 시야(3802)의 스캔 횟수에 걸쳐 변화시킬 수 있는 방식으로 하나 이상의 광원을 제어하도록 구성된 하나 이상의 프로세서를 포함한다. 시야의 각 스캔은 캡쳐된 프레임을 초래할 수 있다. 각 프레임은 스캔 중에 광이 지향되고 수집되는 시야의 각 영역에 대한 센서 출력 정보를 포함할 수 있다. 시야는 근거리장 부분(3804) 및 원거리장 부분(3806)을 포함할 수 있다. 일부 경우에, 캡쳐된 프레임은 근거리장 부분의 물체의 검출을 타겟할 수 있다. 다른 경우, 캡쳐된 프레임은 원거리장 부분의 물체의 검출을 타겟할 수 있다. 아래에서보다 상세히 설명되는 바와 같이, 근거리장 (및 연관된 캡쳐된 프레임)으로 지향되는 스캔은 FOV의 원거리장 부분 (및 연관된 캡쳐된 프레임)에 지향되는 스캔과 비교하여 더 낮은 광 플럭스 및 더 빠른 스캔 속도를 포함할 수 있다.
전술한 바와 같이, 프로세서는 광원으로부터의 광을 편향시켜 시야(3802)를 스캔하도록 하나 이상의 광 편향기를 제어할 수 있다. 예를 들어, 제어기(118)는 원하는 스캔 속도를 제공하기 위해 하나 이상의 편향기의 이동을 제어할 수 있다. 프로세서는 시야의 근거리장 부분(3804)을 커버하는 스캐닝 사이클과 연관된 프레임에 대해 근거리장 스캐닝 속도를 구현할 수 있다. 프로세서(118)는 시야의 원거리장 부분(3806)을 커버하는 스캐닝 사이클과 연관된 프레임에 대해 원거리장 스캐닝 속도를 구현할 수 있다.
하나 이상의 대응하는 프레임을 캡쳐하기 위한 하나 이상의 스캔 동안, 프로세서(118)는 시야의 근거리장 부분(3804) 내의 물체의 검출을 가능하게 하는 방식으로 광원을 제어할 수 있다. 예를 들어, 프로세서(118)는 근거리장 내의 물체(예를 들어, 50미터 이내의 물체, 100미터 이내의 물체 등)의 검출에 적합하게 광원이 특정 양의 광 플럭스를 방출하고, 특정 전력 레벨에서 광을 방출하도록 할 수 있다. 다른 시간에, 프로세서(118)는 광이 원거리장 부분(3806) 내의 물체의 검출을 가능하게 하는 방식으로 방출되도록 광원을 제어할 수 있다. 예를 들어, 원거리장에서의 검출과 연관된 프레임 캡쳐에서, 광원은 보다 큰 거리에 있는 낮은 반사율 등을 가지는 물체에 대해 LIDAR 감도를 증가시키기 위해 보다 많은 양의 플럭스, 더 높은 전력 레벨의 광 등을 공급하게 할 수 있다. 이러한 광 플럭스의 증가는 또한 근거리장의 물체 (다른 물체와 비교하여 더 낮은 반사율의 물체를 포함)의 검출 또한 가능하게 할 수 있음을 유의해야 한다.
LIDAR 시스템(3800)이 차량과 연관되는 경우와 같은 일부 경우에, 물체가 LIDAR 시스템에 더 가까울 때, 검출된 물체에 반응하는 시간은 만약 물체가 멀리 떨어져 있는 때보다 더 적을 수 있다. 따라서, 일부 실시예에서, 근거리장 스캐닝 속도는 원거리장에 집중하는 프레임을 획득하기 위해 채용되는 스캐닝 속도보다 클 수 있으며, 여기서 반응 시간은 더 길 수 있다. 일부 실시예에서, 근거리장 스캐닝 속도는 원거리장 스캐닝 속도보다 적어도 5배 더 빠르다. 예를 들어, 일 예시에서, 시야의 근거리장 부분(3802)에 대한 스캐닝 속도는 초당 25 프레임일 수 있고, 시야의 원거리장 부분(3804)에 대한 스캐닝 속도는 초당 5프레임일 수 있다. 보다 빠른 스캐닝 속도는 짧은 시간 기간에 증가된 피드백을 제공할 수 있고, LIDAR 시스템이 검출된 근거리장 물체에 반응(예를 들어, 자율 또는 반자율 주행 시스템, 운전자 보조 시스템, 네비게이션 시스템 등에 의한 반응)하기 충분한 시간을 가지고 근거리장 물체를 검출할 수 있게 한다. 원거리장 검출은 (예를 들어, 더 높은 광 플럭스 레벨, 더 높은 광원 전력 레벨 등의 결과로서) 근거리장 검출보다 많은 광량 에너지를 요구할 수 있다. (예를 들어, 근거리장 검출에 초점을 맞출 수 있는 다른 스캔과 비교하여 FOV 스캔 속도를 감소시킴으로써) 근거리장 검출의 스캐닝 속도를 조절하는 것은 높은 스캐닝 속도의 원거리장 영역의 스캔과 비교하여 LIDAR 시스템의 전력 소모를 줄일 수 있는 이점을 제공할 수 있다.
LIDAR 시야의 근거리장 부분의 물체는 LIDAR 시스템에 상대적으로 가까운 곳에 위치된 물체를 포함할 수 있다. 예를 들어, 일부 실시예에서, 근거리장 물체는 LIDAR 시스템으로부터 50 미터 미만에 위치된 물체를 지칭할 수 있다. 유사하게, 원거리장 물체는 근거리장 물체보다 큰 거리에 위치된 물체를 포함할 수 있다. 예를 들어, 일부 실시예에서, 원거리장 물체는 LIDAR 시스템으로부터 100 미터 이상에 위치된 물체를 포함할 수 있다. 일부 실시예에서, 시야의 근거리장 부분 내의 물체는 LIDAR 시스템으로부터 100 미터 미만일 수 있다. 일부 실시예에서, 시야의 원거리장 부분 내의 물체는 LIDAR 시스템으로부터 50 미터 이상 떨어져 있을 수 있다. 예를 들어, 하나의 예시적인 실시예에서, LIDAR 시스템(3800)은 제1 프레임에서 근거리장, 예를 들어 30미터 떨어져 도로의 경계석에 주차된 제1 차를 검출할 수 있다. LIDAR 시스템(3800)은 제2 프레임에서 도로의 경계석에 주차된 제1 차 및 원거리장, 예를 들어, 200 미터 떨어진 차선에 있는 제2 차를 검출할 수 있다. 다시 말해서, 일부 실시예에서, 원거리장 프레임은 근거리장에 대해 수신된 정보의 속도가 방해받지 않도록 원거리장 정보 이외에 근거리장 정보를 제공할 수 있다.
일부 실시예에서, 원거리장 프레임과 연관된 LIDAR 시스템의 검출 거리는 근거리장 프레임과 연관된 검출 거리보다 적어도 50%까지 연장될 수 있다. 일부 실시예에서, 근거리장 및 원거리장 프레임과 연관된 검출 거리는, 예를 들어 광 플럭스/광 에너지 레벨을 조절함으로써 조절 가능할 수 있다. 원거리장 검출은 원거리장으로부터 물체 정보를 수집하는데 더 많은 광이 요구될 수 있으므로 근거리장 검출과 비교하여 더 많은 전력을 요구할 수 있다. 전술한 바와 같이, 원거리장 검출로부터의 증가된 전력 소비는 원거리장 검출과 연관된 프레임 획득에 대한 프레임 스캔 속도를 감소시킴으로써 완화될 수 있다.
프로세서는 스캐닝 사이클 동안 하나 이상의 광 편향기가 다수의 상이한 순간 위치에 위치되도록 제어할 수 있다. 일부 실시예에서, 광 편향기가 광원에 의해 생성된 광 빔의 부분을 시야 내의 물체로 편향시키고 상기 물체로부터의 반사를 하나 이상의 센서를 향하여 편향시키는 위치에 있도록 적어도 하나의 광 편향기(114) 및 적어도 하나의 광원(112)은 조정될 수 있다. 일부 실시예에서, 하나 이상의 광원은 프로세서가 광원으로부터의 광을 시야의 하나 이상의 독립 영역을 향하여 투영하게 편향기를 제어할 수 있도록 광 편향기의 공통 면적을 향하여 조준될 수 있다.
일부 실시예에서, 프로세서는 주어진 프레임에서 특정 공간적 광 분포 및 하나 이상의 후속 프레임에서 상이한 공간적 광 분포를 제공하도록 하나 이상의 광원을 제어할 수 있다. 추가적으로, 프로세서는 근거리장 프레임을 위한 특정 광 분포 방식 및 원거리장 프레임을 위한 상이한 광 분포 방식을 사용하도록 광원을 제어할 수 있다. 예를 들어, 도 39에 도시된 바와 같이, 원거리장 광 분포 방식에 따라 수평선 근처에 위치된 원거리장(3906) 내의 면적을 향하여 광이 방출될 수 있다. 또한, 근거리장 분포 방식에 따라 근거리장(3904) 내의 수평선을 향하여 더 적은 광이 방출될 수 있다. 방출된 광을 원거리장 수평선에 집중시킴으로써, LIDAR 시스템은 물체에 대한 근거리장의 더 많은 부분을 스캔하는 자원을 절약하면서 원거리장의 물체를 검출할 수 있다. 원거리장의 물체의 본질, 크기, 또는 다른 속성에 대한 정보는 검출된 물체가 LIDAR 시스템에 대해 더 가까운 거리에 있을 때까지 결정되거나 검출될 필요가 없을 수 있다.
일부 실시예에서, 프로세서는 원거리장에 위치된 물체(들)을 검출하기 위해 프레임과 연관된 하나 이상의 센서로부터 정보를 수신할 수 있다. 일부 실시예에서, 특정 프레임에서, 프로세서는 하나 이상의 물체가 원거리장에 위치되고 및/또는 하나 이상의 물체가 시야의 근거리장 부분에 위치되는 것을 나타내는 정보를 센서로부터 수신할 수 있다.
일부 실시예에서, 원거리장과 연관된 획득된 프레임의 해상도는 근거리장과 연관된 프레임의 해상도보다 낮을 수 있다. 이러한 해상도의 다양한 표현이 가능할 수 있지만, 일 예시에서, 근거리장 프레임 내의 포인트들 사이의 평균 공간은 원거리장 프레임의 포인트들 사이의 평균 공간의 약 75% 미만일 수 있다. 고해상도 프레임이 제1 프레임 속도에서 획득되고, 저해상도 프레임이 보다 높은 제2 프레임 속도에서 획득되는 경우, 유사한 차등 방식이 프레임 사이에서 필요한 부분만 약간 수정하여 사용될 수 있음을 유의한다.
일부 실시예에서, 근거리장 스캐닝 속도 및/또는 원거리장 스캐닝 속도는 LIDAR 시스템을 포함하는 차량의 주행 모드에 의존하여 구현될 수 있다. 예를 들어, 도시에서 주행하는 차량은 농촌 도로에서 주행하는 차량과 비교하여 근거리장 스캐닝에 더 집중하는데로부터 이익을 얻을 수 있다. 다른 실시예에서, 근거리장 스캐닝 속도 및/또는 원거리장 스캐닝 속도는 차량 속도에 의존하여 구현될 수 있다. 예를 들어, 차량 속도가 느려짐에 따라 원거리장 및 근거리장 중 하나 또는 둘 모두와 연관된 스캐닝 속도가 감소될 수 있다. 유사하게, 원거리장 및 근거리장 중 하나 또는 둘 모두와 연관된 스캐닝 속도는 차량 속도가 증가함에 따라 증가될 수 있다.
도 40a는 LIDAR 시스템으로부터 광을 방출하기 위한 예시적인 프로세스(4000)의 흐름도이다. 단계(4010)에서, 광원은 시야의 근거리장 부분의 하나 이상의 면적을 향하여 광을 방출한다. 만약 물체가 근거리장에 존재한다면, 광은 물체로부터 반사될 수 있고, 단계(4020)에서 LIDAR 시스템의 하나 이상의 센서에 의해 검출될 수 있다. 단계(4010) 및 단계(4020)의 조합은 하나의 스캐닝 사이클을 형성할 수 있다. 일부 실시예에서, 단계(4010) 및 단계(4020)의 시퀀스는 단일 스캐닝 사이클의 일부로서 1회 이상 반복될 수 있다.
다음 스캐닝 사이클의 시작시, 단계(4030)에서, 원거리장 스캐닝 속도로 광원으로부터 광이 방출될 수 있다. 만약 물체가 원거리장에 존재한다면, 광은 물체로부터 반사될 수 있고, 단계(4040)에서 LIDAR 시스템의 하나 이상의 센서에 의해 검출될 수 있다. 단계(4030) 및 단계(4040)의 조합은 또 다른 스캐닝 사이클을 형성할 수 있다. 일부 실시예에서, 단계(4030) 및 단계(4040)의 시퀀스는 단일 스캐닝 사이클의 일부로서 1회 이상 반복될 수 있다. 단계(4010) 내지 단계(4040)이 완료된 후, 스캐닝 사이클의 시퀀스는 단계(4010)으로부터 시작될 수 있다.
도 40b는 LIDAR 시스템(100)으로부터 광을 방출하는 또 다른 예시적인 프로세스의 흐름도이다. 단계(4502)에서, 프로세서(118)는 현재 FOV 프레임이 원거리장 스캐닝 속도로서 지정된 스캔 속도와 일치하는지 그렇지 않으면 달리 지정되는지 여부를 결정할 수 있다. 만약 그렇다면, 단계(4506)에서, 프로세서(118)는 원거리장 조명 방식에 따라 광원(112) 및 편향기(114)를 제어할 수 있다. 만약 그렇지 않다면, 단계(4504)에서, 프로세서(118)는 근거리장 조명 방식에 따라 광원(112) 및 편향기(114)를 제어할 수 있다. 단계(4508)에서, 반사된 광이 획득될 수 있다. 단계(4510)에서, 검출된 광이 분석될 수 있고, 단계(4512)에서, 3D 깊이 맵 표현이 검출된 광 반사에 기초하여 FOV에 대해 생성될 수 있다.
주행 환경에 기초한 동적 작동 모드
본 발명의 실시예와 일치하는 LIDAR 시스템을 가지는 차량에서, 주행 환경은 주행 코스를 통해 바뀔 수 있다. 예를 들어, 차량은 도시(또는 교외) 환경에서 출발하여 여행 중에 농촌 환경으로 이동할 수 있다. 다른 주행 환경은 주차장, 교통 정체, 터널, 교차점, 다리, 주간 고속도로 또는 고속도로 등을 포함할 수 있다. 환경의 다양한 인디케이터 (또는 시스템에 대한 직접적인 입력에 기초)에 기초하여, 본 개시의 실시예와 일치하는 LIDAR 시스템은 환경을 설명하기 위해 시야의 스캔의 하나 이상의 속성을 조절할 수 있다. 예를 들어, LIDAR 시스템은 순간 검출 거리, 공간적 해상도, 시간적 해상도, 신호 대 노이즈 비율, FOV를 가로지르는 플럭스 분포, 프레임 속도, 시야의 크기, 시야의 종횡비, 하나 이상의 펄스 송신 방식들, 또는 이와 유사한 것들을 조절할 수 있다.
따라서, 본 개시의 시스템 및 방법은, 예를 들어, 결정된 주행 환경에 응답하여 시야 스캔의 하나 이상의 속성의 조절을 허용할 수 있다. 도 41a는 LIDAR 시스템에서 검출 거리를 변경하기 위한 예시적인 방법(4100)을 도시한다. 도 41a의 방법(4100)이 검출 거리를 조절하지만, 전술한 바와 같은 다른 속성들이 추가적으로 또는 대안적으로 조절될 수 있다. 방법(4100)은 적어도 하나의 프로세서 (예를 들어, 도 1a에 묘사된 LIDAR 시스템(100)의 처리 유닛(108)의 프로세서(118) 및/또는 도 2a에 묘사된 LIDAR 시스템의 처리 유닛(108)의 2개의 프로세서들(118))에 의해 수행될 수 있다.
단계(4101)에서, 프로세서(118)는 적어도 하나의 광원의 광 플럭스가 시야(예를 들어, 도 1a 및 도 2a의 시야(120), 도 42a의 시야(4203), 도 42b의 시야(4207), 도 42c의 시야(4211), 도 42d의 시야(4215), 도 42e의 시야(4215'), 도 43의 시야(4311))의 스캔에 걸쳐 변화할 수 있는 방식으로 적어도 하나의 광원(예를 들어, 도 1a의 광원(112), 도 2a의 광원(112)의 레이저 다이오드(202), 및/또는 도 2b의 복수의 광원(102))을 제어한다. 예를 들어, 프로세서(118)는 적어도 하나의 광원으로부터의 펄스의 타이밍을 변화시킬 수 있다. 대안적으로 또는 동시에, 프로세서(118)는 적어도 하나의 광원으로부터의 펄스의 길이를 변화시킬 수 있다. 추가적인 예시로서, 프로세서(118)는 적어도 하나의 광원으로부터의 펄스의 크기 (예를 들어, 길이, 폭, 또는 그렇지 않으면 단면적을 변경)를 택일적으로 또는 동시에 변화시킬 수 있다. 다른 추가적인 예시에서, 프로세서(118)는 적어도 하나의 광원으로부터 펄스의 진폭 및/또는 주파수를 택일적으로 또는 동시에 변화시킬 수 있다.
단계(4103)에서, 프로세서(118)는 시야를 스캔하기 위해 적어도 하나의 광원으로부터 광을 편향시키기 위해 적어도 하나의 광 편향기(예를 들면, 도 1a의 광 편향기, 도 2a의 편향기(114A) 및/또는 편향기(114B), 및/또는 도 2b의 일방향 편향기(214))를 제어한다. 예를 들어, 프로세서(118)는 시야를 스캔하기 위해 적어도 하나의 광 편향기의 기계적 이동을 야기할 수 있다. 대안적으로 또는 동시에, 프로세서(118)는 시야를 스캔하기 위해 적어도 하나의 편향기에서 압전기 또는 열전기 변화를 유도할 수 있다. 선택적으로 또는 동시에, 프로세서(118)는 OPA의 상이한 방출 광원의 상대적인 진폭, 위상, 또는 다른 신호 특성을 수정함으로써 광학 위상 어레이(Optical Phased Array, OPA) 광원의 조종을 유도할 수 있다. 선택적으로 또는 동시에, 프로세서(118)는 수직 공동 표면 방출 레이저(vertical-cavity surface-emitting laser, VCSEL) 어레이의 활성 광 방출기의 변화를 유도할 수 있다.
일부 실시예에서, 시야(예를 들어, 도 42d의 시야(4215), 도 42e의 시야(4215'), 도 43의 시야(4311))는 복수의 부분 (예를 들어, 제1 부분 및 제2 부분)을 포함할 수 있다. 예를 들어, 상기 부분들은 시야에 의해 커버된 면적의 절반, 4 분의 1, 또는 다른 분수를 포함할 수 있다. 다른 예시들에서, 상기 부분들은 시야에 의해 커버된 면적의 대칭 및/또는 분수가 아닌 불규칙한 부분을 포함할 수 있다. 여전히 다른 예시에서, 상기 부분들은 시야에 의해 커버된 면적의 불연속 부분들을 포함할 수 있다.
일부 실시예에서, 프로세서(118)는 단일 스캐닝 사이클 동안, 적어도 하나의 광 편향기가 복수의 상이한 순간 위치에 위치되도록 적어도 하나의 광 편향기를 제어할 수 있다 (예를 들어, 편향기는 편향기가 LIDAR FOV를 스캔하는 동안 하나의 순간 위치로부터 또는 하나의 순간 위치를 통해 다른 순간 위치로 이동하도록 제어됨). 예를 들어, 적어도 하나의 광 편향기는 스캐닝 사이클 동안 복수의 위치 중 하나로부터 다른 위치로 (선택적으로 추가적인 위치들 및/또는 반복들과 함께) 연속적으로 또는 비연속적으로 이동될 수 있다.
이러한 실시예에서, 프로세서(118)는 적어도 하나의 광 편향기가 특정 순간 위치에 위치될 때, 광 빔의 부분은 적어도 하나의 광 편향기에 의해 적어도 하나의 광원으로부터 시야의 물체를 향하여 편향되고, 상기 물체로부터의 광 빔의 부분의 반사는 적어도 하나의 센서를 향하여 편향되도록, 적어도 하나의 광 편향기 및 적어도 하나의 광원을 조정할 수 있다. 따라서, 적어도 하나의 광 편향기는 광 빔의 부분을 시야를 향해 지향할 수 있고 또한 시야로부터 반사를 수신할 수 있다. 예를 들어, 도 1a, 도 2b, 및 도 2c는 편향기가 광 빔의 부분을 시야를 향해 지향하고 또한 시야로부터 반사를 수신하는 예시를 도시한다. 다른 실시예에서, 적어도 하나의 광원으로부터의 광 빔의 부분은 시야로부터 반사를 수신하는 적어도 하나의 다른 광 편향기로부터 분리된 적어도 하나의 광 편향기에 의해 시야를 향하게 지향될 수 있다. 예를 들어, 도 2a는 하나의 편향기가 광빔의 부분을 시야를 향하게 지향하고, 별개의 편향기가 시야로부터 반사를 수신하는 예시를 묘사한다. 일부 실시예에서, 적어도 하나의 편향기는 (송신)을 위한 하나 이상의 편향기의 제1 그룹 및 (수신)을 위한 하나 이상의 편향기의 제2 그룹을 포함할 수 있으며, 이들은 서로 다를 수 있다.
일부 실시예에서, 적어도 하나의 광원은 적어도 하나의 광 편향기의 공통 면적을 조준하는 복수의 광원을 포함할 수 있다. 이러한 실시예에서, 프로세서(118)는 적어도 하나의 광 편향기가 특정 순간 위치에 위치될 때, 복수의 광원으로부터의 광이 시야를 형성하는 복수의 독립 영역을 향하여 투영되도록 적어도 하나의 광 편향기를 제어할 수 있다. 그러한 실시예의 예시가 이하에서 논의되는 도 43에 묘사된다.
단계(4105)에서, 프로세서(118)는 차량의 현재 주행 환경을 나타내는 입력을 수신한다. 예를 들어, 프로세서(118)는 농촌 관련 지표 및 도시 관련 지표 중 적어도 하나를 포함하는 입력을 수신할 수 있다. 추가적인 예시로서, 프로세서(118)는 적어도 하나의 농촌 관련 지표, 도시 관련 지표, 광 상태와 연관된 지표, 날씨 상태와 연관된 지표, 및 차량의 속도와 연관된 정보를 포함하는 입력을 수신할 수 있다.
일부 실시예에서, 프로세서(118)는 프로세서(118) 자체에 의해 수행되는 결정으로부터 입력을 수신할 수 있다. 이러한 예시에서, 프로세서(118)는 시야의 하나 이상의 이전 (및/또는 현재) 스캔으로부터의 정보에 기초하여 현재 주행 환경을 결정할 수 있다. 예를 들어, 프로세서는 차량에 근접한 빌딩 및/또는 다수의 차량의 존재에 기초하여 현재의 주행 환경이 도시라고 결정할 수 있다. 추가적인 예시로서, 프로세서는 다수의 나무 및/또는 평야의 존재에 기초하여 현재의 주행 환경이 시골이라고 결정할 수 있다. 프로세서(118)는 대안으로 또는 동시에 차량의 속도 및/또는 (저장되거나 수신될 수 있으며 업데이트된 교통 정보를 포함할 수 있는) 맵 정보에 기초하여 현재 주행 환경을 결정할 수 있다. 예를 들어, 프로세서(118)는 공지된 주간 고속도로 또는 고속도로와 정렬되는 차량의 위치에 기초하여 및/또는 차량의 지속되는 높은 속도에 기초하여, 현재의 주행 환경이 주간 고속도로 또는 고속도로인 것으로 결정할 수 있다. 추가적인 예시로서, 프로세서(118)는 공지된 교통 정체에 기초하여 및/또는 차량의 지속되는 낮은 속도와 빈번한 멈춤에 기초하여, 현재의 주행 환경이 교통 정체임을 결정할 수 있다.
선택적으로 또는 동시에, 프로세서(118)는 호스트 처리 유닛, 예를 들어 프로세서(118)와 함께 차량에 위치된 중앙 컴퓨터로부터 입력을 수신할 수 있다. 중앙 컴퓨터는 프로세서(118)에 관하여 전술한 기술을 이용하여 현재의 주행 환경을 결정할 수 있다. 마찬가지로, 프로세서(118)는 추가적으로 또는 대안적으로 원격 시스템으로부터 입력을 수신할 수 있다. 예를 들어, 프로세서(118)는 날씨 서버 또는 업데이트된 날씨 정보의 다른 소스로부터 날씨의 지표를 수신할 수 있다. 유사하게, 프로세서(118)는 교통 서버 또는 업데이트된 교통 정보의 다른 소스로부터 교통 지표를 수신할 수 있다.
일부 실시예에서, 프로세서(118)는 GPS, 차량 네비게이션 시스템, 차량 제어기, 레이더, LIDAR, 및 카메라 중 적어도 하나로부터 현재의 주행 환경을 나타내는 입력을 수신할 수 있다. 예를 들어, 상술한 바와 같이, 프로세서(118)는 현재의 주행 환경을 유도하기 위해 맵 및/또는 교통 정보와 조합하여 GPS 및/또는 차량 네비게이션 시스템에 의해 결정된 차량의 위치를 이용할 수 있다. 그러한 예시에서, 프로세서(118)는 차량의 GPS 위치를 맵과 정렬하여 차량이 주간 고속도로 상에 있다는 것을 결정할 수 있고 또는 차량의 GPS 위치를 교통 정보와 정렬하여 차량이 교통 정체에 처해 있는지를 결정할 수 있다. 유사하게, 프로세서(118)는 상술한 바와 같이 현재의 주행 환경을 유도하기 위해 차량 제어기로부터의 속도, 진행방향, 또는 그와 유사한 것을 사용할 수 있다. 추가적으로 또는 대안적으로, 프로세서(118)는 레이더, LIDAR, 및/또는 카메라로부터의 정보를 이용하여 현재의 주행 환경을 유도할 수 있다. 예를 들어, 프로세서(118)는 레이더, LIDAR, 및/또는 카메라를 이용하여 필드, 나무, 빌딩, 중앙 분리대, 또는 그와 유사한 것과 같은 물체를 하나 이상 식별할 수 있고, 식별된 물체를 사용하여 현재 주행 환경을 유도할 수 있다.
단계(4107)에서, 현재 검출되거나 추측된 주행 환경에 기초하여, 프로세서(118)는 시야의 스캔을 가로지르는 광의 공간적 광 분포 및 투영되는 광량을 변화시킴으로써 순간 검출 거리를 동적으로 조절하기 위해 적어도 하나의 광 편향기의 제어와 함께 적어도 하나의 광원의 제어를 조정할 수 있다. 예를 들어, 프로세서(118)는 순간 검출 거리를 증가시키기 위해 투영된 광량을 증가시키고 및/또는 광의 공간적 분포를 감소시킬 수 있다. 추가적인 예시로서, 프로세서(118)는 순간 검출 거리를 감소시키기 위해 투영된 광량을 감소시키고 및/또는 광의 공간적 분포를 증가시킬 수 있다. 예를 들어, 프로세서(118)는 차량이 터널을 빠져나올 때를 결정할 수 있고, 도 42d 및 도 42e의 예시에 묘사된 바와 같이 차량이 터널에 있을 때 적어도 하나의 부분에서 이용되는 발광과 비교하여 시야의 적어도 하나의 부분의 발광을 증가시키기 위해 적어도 하나의 광 편향기 및 적어도 하나의 광원의 제어를 조정할 수 있다.
프로세서(118)는 적어도 하나의 광원으로부터의 펄스의 길이, 적어도 하나의 광원으로부터의 펄스의 진폭 및/또는 주파수, 또는 그와 유사한 것 등을 변화시킴으로써 시야의 스캔을 가로질러 투영되는 광량을 변화시킬 수 있다. 추가적으로 또는 대안적으로, 프로세서(118)는 (예를 들어, 적어도 하나의 광 편향기가 압전기 또는 열전기식인 실시예에서) 적어도 하나의 광 편향기의 세기, (예를 들어, 적어도 하나의 광원으로부터의 광 빔의 다소 확산을 초래하는) 적어도 하나의 광 편향기의 반사의 각도를 변화시킴으로써 시야의 스캔을 가로질러 광의 공간적 광 분포를 변화시킬 수 있다.
프로세서(118)는 현재의 주행 환경에서 순간 검출 거리의 동적 조절을 기반으로 할 수 있다. 예를 들어, 프로세서(118)는 농촌 환경에서 검출 거리를 증가시킬 수 있다. 농촌 환경은 도시 환경보다 더 드물게 물체를 가질 수 있으며, 따라서 더 긴 검출 거리는 더 증가된 드묾을 보완할 수 있다. 추가적인 예시로서, 프로세서(118)는 교통 체증에서 검출 거리를 감소시킬 수 있다. 교통 정체로 인해 속도가 현저히 느려지고 갑자기 중지되는 경우가 많아져서, 멀리있는 물체의 검출이 덜 중요해지도록 만들 수 있다. 더 긴 검출 범위를 위해 소비되지 않은 에너지는 단순히 저장될 수 있고, 또는 해상도, 프레임 속도, SNR 등과 같은 다른 검출 특성을 향상시키는데 사용될 수 있다.
단계(4107)에서, 프로세서(118)는 LIDAR 시스템의 다른 특성을 추가적으로 또는 대안적으로 조절할 수 있다. 예를 들어, 프로세서(118)는 시야의 스캔을 가로지르는 광의 공간적 광 분포 및 투영되는 광량을 변화시킴으로써 스캔 속도를 동적으로 조절하기 위해 적어도 하나의 광 편향기의 제어와 함께 적어도 하나의 광원의 제어를 조정할 수 있다. 이러한 예시에서, 프로세서(118)는 도시 환경에서 스캔 속도를 증가시킬 수 있다. 도시 환경은 이동하는 다른 차량 및 보행자를 상당수 가질 수 있으므로, 더 빠른 스캔 속도는 차량 앞에서 다른 차량이 멈추거나 보행자가 도로로 움직이는 것과 같은 이벤트를 조기에 검출하는 것을 허용할 수 있다. 다른 추가적인 예시로서, 프로세서(118)는 농촌 환경에서 스캔 속도를 감소시킬 수 있다. 농촌 환경은 도시 환경보다 적은 다른 차량 및 보행자를 가지므로, 빠른 스캔 속도의 필요성이 줄어들 수 있다. 예를 들어, 프로세서(118)는 차량이 도시 지역에 있을 때를 결정할 수 있고, 비도시 지역에 이용되는 스캐닝 사이클의 속도와 대조되도록 스캐닝 사이클의 속도의 증가를 야기하기 위해 적어도 하나의 광원의 제어 및 적어도 하나의 광 편향기의 제어를 조정할 수 있다.
다른 예시에서, 프로세서(118)는 시야의 스캔에 가로질러 광의 공간적 광 분포 및 투영된 광량을 변화시킴으로써 공간적 해상도를 동적으로 조절하기 위해 적어도 하나의 광 편향기의 제어와 함께 적어도 하나의 광원의 제어를 조정할 수 있다. 이러한 예시에서, 프로세서(118)는 비에서 공간 해상도를 증가시킬 수 있다. 도시 환경은 도시 환경보다 더 밀도 높게 물체를 가질 수 있으므로, 따라서 더 큰 공간적 해상도가 증가된 밀도를 보완할 수 있다. 다른 예로서, 프로세서(118)는 터널에서 스캔 속도를 감소시킬 수 있다. 터널은 차량 앞의 다른 차량들 외에도 세부 사항이 거의 없어 고해상도의 필요성이 줄어들 수 있다.
또 다른 예시에서, 프로세서(118)는 시야의 스캔에 가로질러 광의 시간적 광 분포 및 투영된 광량을 변화시킴으로써 시간적 해상도를 동적으로 조절하기 위해 적어도 하나의 광 편향기의 제어와 함께 적어도 하나의 광원의 제어를 조정할 수 있다. 이러한 예시에서, 프로세서(118)는 도시 환경에서 시간적 해상도를 증가시킬 수 있다. 도시 환경은 이동하는 다른 차량 및 보행자를 상당수 가질 수 있으므로, 시간적 해상도가 높아지면 다른 차량과 보행자의 움직임을 보다 자세히 모니터할 수 있다. 다른 추가적인 예시로서, 프로세서(118)는 농촌 환경에서의 시간적 해상도를 감소시킬 수 있다. 농촌 환경은 도시 환경보다 적은 다른 차량 및 보행자를 가지므로, 자세한 모니터의 필요성이 줄어들 수 있다.
또 다른 예시에서, 프로세서(118)는 시야의 스캔에 가로질러 광의 공간적 광 분포 및 투영된 광량을 변화시킴으로써 신호 대 노이즈 비율을 동적으로 조절하기 위해 적어도 하나의 광 편향기의 제어와 함께 적어도 하나의 광원의 제어를 조정할 수 있다. 이러한 예시에서, 프로세서(118)는 비에서의 신호 대 노이즈 비율을 증가시킬 수 있다. 비는 시야에서 반사의 양을 증가시킴으로써 환경 내의 노이즈를 증가시킬 수 있으며, 따라서 더 높은 신호 대 노이즈 비율은 증가된 노이즈의 영향을 감소시킬 수 있다. 추가적인 예시로서, 프로세서(118)는 밤에 신호 대 노이즈 비율을 감소시킬 수 있다. 노이즈는 밤에 감소될 수 있어서, 노이즈로부터 차별화된 더 강한 신호를 획득할 필요성이 줄어들 수 있다.
추가적인 예시에서, 프로세서(118)는 시야의 스캔에 가로질러 광의 공간적 광 분포 및 투영된 광량을 변화시킴으로써 시야의 크기를 동적으로 조절하기 위해 적어도 하나의 광 편향기의 제어와 함께 적어도 하나의 광원의 제어를 조정할 수 있다. 이러한 예시에서, 프로세서(118)는 농촌 환경에서 시야의 크기를 감소시킬 수 있다. 농촌 환경에는 더 적은 차선을 가지는 도로가 있어서 더 큰 시야에 대한 필요성이 줄어들 수 있다. 또 다른 예로서, 프로세서 (118)는 주간 주내에서 시야의 크기를 증가시킬 수 있다. 주간 고속도로는 많은 수의 차선을 가질 수 있으므로 더 큰 시야가 주간 고속도로가 수용 할 수 있는 많은 수의 차량을 모니터링 할 수 있다.
추가적인 예시에서, 프로세서(118)는 시야의 스캔에 가로질러 광의 공간적 광 분포 및 투영된 광량을 변화시킴으로써 하나 이상의 펄스 송신을 동적으로 조절하기 위해 적어도 하나의 광 편향기의 제어와 함께 적어도 하나의 광원의 제어를 조정할 수 있다. 예를 들어, 일부 방식은 노이즈 및/또는 주변광에 다소 민감할 수 있다. 따라서, 프로세서(118)는 비 또는 눈과 같은 높은 노이즈 환경에서 노이즈에 덜 민감한 펄스 송신 방식을 선택할 수 있으며, 도시 환경 또는 밤과 같이 주변광이 많은 환경에서 주변광에 덜 민감한 펄스 송신 방식을 선택할 수 있다.
시야가 복수의 부분을 갖는 실시예에서, 프로세서(118)는 시야의 제1 부분에서의 검출 거리가 이전 스캐닝 사이클로부터 증가되고, 시야의 제2 부분에서의 검출 거리는 이전 스캐닝 사이클로부터 감소되도록 단일 스캐닝 사이클에서 순간 검출 거리를 동적으로 조절할 수 있다. 예를 들어, 프로세서(118)는, 만약 차량이 교통 체증에 처해있고, 도로의 다른 측은 그렇지 않은 경우, 도로의 현재 측에 있는 차량의 전방의 시야의 부분에서의 검출 거리를 감소시킬 수 있고, 차량의 옆에 있고 도로의 다른 측을 가지는 시야의 다른 부분에서의 검출 거리를 증가시킬 수 있다. 이러한 예시에서, 도로의 다른 측을 포함하는 부분의 증가된 검출 거리는 만약 도로의 다른 측의 차량이 현재 측을 침범하고 있는 경우에 차량이 더 일찍 반응할 수 있게 한다. 또한, 현재 측을 포함하는 부분의 감소된 검출 거리는 차량이 이동하지 않기 때문에 불필요하게 에너지를 소비하는 것을 방지할 수 있다.
유사하게, 프로세서(118)는 시야의 제1 부분의 특성이 이전 스캐닝 사이클로부터 증가되고, 시야의 제2 부분의 특성이 이전 스캐닝 사이클로부터 감소되도록 스캔의 다른 특성을 동적으로 조절할 수 있다. 예를 들어, 프로세서(118)는 제1 부분의 공간적 해상도를 증가시킬 수 있고, 제2 부분의 공간적 해상도를 감소시킬 수 있다. 이러한 예시에서, 프로세서(118)는 차량이 터널에 있는 경우, 전방 부분에 대한 공간적 해상도를 증가시키고 측부 부분에 대한 공간적 해상도를 감소시킬 수 있다. 증가된 공간적 해상도는 차량의 전방에 있는 다른 차량의 모션을 더 많이 추적할 수 있게 하며, 감소된 공간적 해상도는 터널의 벽을 추적하는데 불필요한 에너지를 소비하는 것을 방지할 수 있다.
추가적인 예시로서, 프로세서(118)는 제1 부분의 시간적 해상도를 증가시킬 수 있고, 제2 부분의 시간적 해상도를 감소시킬 수 있다. 이러한 예시에서, 프로세서(118)는 만약 차량이 주간 고속도로 상에 있는 경우, 측부에 대한 시간적 해상도를 증가시킬 수 있고, 전방 부분에 대한 시간적 해상도를 감소시킬 수 있다. 만약 차량의 차선을 가로지르는 경우, 증가된 공간적 해상도는 신속한 응답을 필요로 할 수 있는 반대 방향으로 이동하는 다른 차량의 모션을 보다 자세하게 추적하는 것을 허용할 수 있고, 감소된 시간적 해상도는 차량 전방의 다른 차량을 추적하고 그 차량과 함께 이동할 때 불필요하게 에너지를 소비하는 것을 방지할 수 있다.
다른 예시에서, 프로세서(118)는 제1 부분의 신호 대 노이즈 비율을 증가시킬 수 있고, 제2 부분의 신호 대 노이즈 비율을 감소시킬 수 있다. 이러한 예시에서, 프로세서(118)는 만약 차량이 도시 환경에 있다면, 측부에 대한 신호 대 노이즈 비율을 증가시킬 수 있고, 전방 부분에 대한 신호 대 노이즈 비율을 감소시킬 수 있다. 증가된 신호 대 노이즈 비율은 도로 측면의 가로등에서 나오는 주변광을 보완할 수 있으며, 감소된 신호 대 노이즈 비율은 차량 전방의 다른 차량을 추적하고 그 차량과 함께 이동할 때 불필요하게 에너지를 소비하는 것을 방지할 수 있다.
또 다른 예시에서, 프로세서(118)는 시야의 제1 부분의 크기를 증가시킬 수 있고, 시야의 제2 부분의 크기를 감소시킬 수 있다. 이러한 예시에서, 프로세서(118)는 만약 차량이 농촌 환경에 있다면, 전방 부분의 시야를 증가시킬 수 있고, 측부 부분의 시야를 감소시킬 수 있다. 증가된 시야는 다가오는 선행 차량의 보다 빠른 가시성을 허용할 수 있으며, 감소된 시야는 도로 옆의 나무나 필드를 추적하는데에 불필요한 에너지를 소비하는 것을 방지할 수 있다.
다른 예시에서, 프로세서(118)는 제1 부분에서 펄스 송신 방식을 수정할 수 있고, 제2 부분에서 펄스 송신 방식을 다르게 수정할 수 있다. 그러한 예시에서, 프로세서(118)는 전방 부분에 대한 노이즈를 최소화하는 펄스 송신 방식을 선택할 수 있고, 차량이 밤에 농촌 환경에 있다면 측면 부분에 대한 노이즈에 더 민감한 펄스 송신 방식을 선택할 수 있다. 전자의 방식은 다가오는 차량의 밝은 헤드 라이트 또는 선행 차량의 후방 등으로부터의 노이즈를 설명할 수 있으며, 후자의 방식은 도로 측면의 물체로부터 이미 최소의 노이즈를 최소화하는 데 불필요하게 에너지를 소비하는 것을 방지할 수 있다.
유사하게, 일부 실시예에서, 프로세서(118)는 현재 주행 환경에 기초하여, 시야의 근거리장 부분의 물체를 검출하기 위한 스캐닝 사이클의 제1 속도 및 시야의 원거리장 부분의 물체를 검출하기 위한 스캐닝 사이클의 제2 속도를 동적으로 조절하기 위해 복수의 스캐닝 사이클에서 적어도 하나의 광원 및 적어도 하나의 광 편향기의 제어를 조정할 수 있다. 예를 들어, 프로세서(118)는 근거리장 부분의 물체를 원거리장 부분의 물체보다 더 빠른 속도로 스캔할 수 있다. 이는 프로세서(118)가 멀리있는 물체의 모션보다 더 가까운 물체의 모션을 더 자세하게 추적할 수 있게 한다. 대안적으로, 프로세서(118)는 원거리장 부분의 물체보다 더 낮은 속도로 근거리장 부분의 물체를 스캔할 수 있다.
방법(4100)은 추가적인 단계를 포함할 수 있다. 예를 들어, 방법(4100)은 시야의 제1 부분과 연관된 순간 포인트 해상도를 동적으로 조절하기 위해 적어도 하나의 스캐닝 사이클에서 적어도 하나의 광원 및 적어도 하나의 광 편향기의 제어를 조정하는 단계를 더 포함할 수 있다. 예를 들어, 적어도 하나의 광원으로부터의 광 빔은 보다 큰 개수의 픽셀을 가로질러 데이터를 생성하기 위해 더 큰 면적에 걸쳐 퍼질 수 있거나, 또는 더 작은 개수의 픽셀을 가로질러 데이터를 생성하기 위해 더 작은 면적으로 압축될 수 있다.
방법(4100)은 현재 주행 환경을 나타내는 수신된 입력에 대응하는 환경 유형에 기초하여 적어도 하나의 광원을 제어하는 단계를 더 포함할 수 있다. 예를 들어, 프로세서(118)는 광 플럭스, 파장, 또는 그와 유사한 것과 같은 적어도 하나의 광원의 특성을 조절할 수 있다. 그러한 예시에서, 프로세서(118)는 낮보다 밤 동안에 더 낮은 파장을 선택할 수 있거나, 도시 환경보다 농촌 환경에서 더 큰 세기를 선택할 수 있다.
방법(4100)은 현재 주행 환경에 기초하여 적어도 하나의 센서의 감도 모드를 조절하는 단계를 더 포함할 수 있다. 예를 들어, 프로세서(118)는 차량이 비에서 주행하는 때를 결정하고, 빗방울의 반사를 무시하기 위해 적어도 하나의 센서로부터의 출력과 연관된 감도 모드를 조절할 수 있다. 센서 감도의 수정은 센서 파라미터 (예를 들면, 작동 전압), 검출 경로 파라미터 (예를 들어, 신호 증폭 레벨, ADC 파라미터), 또는 심지어 프로세서 파라미터 (예를 들어, 프로세서 적용 임계값 또는 결정 규칙)을 수정함으로써 달성될 수 있다.
도 41b는 LIDAR 시스템에서 검출 거리를 변경하기 위한 예시적인 방법(4100')을 도시한다. 방법(4100')은 적어도 하나의 프로세서(예를 들어, 도 1a에 묘사된 LIDAR 시스템(100)의 처리 유닛(108)의 프로세서(118) 및/또는 도 2a에 묘사된 LIDAR 시스템의 처리 유닛(108)의 2개의 프로세서(118))에 의해 수행될 수 있다.
도 41b의 방법(4100')의 단계(4101), 단계(4103), 및 단계(4105)는 도 41a의 방법(4100)의 단계(4101), 단계(4103), 및 단계(4105)와 동일하다. 따라서, 여기서는 그 설명을 반복하지 않을 것이다.
단계(4107)에서, 현재 검출되거나 추측된 구동 환경에 기초하여, 프로세서(118)는 검출 작동 방식을 수정하기 위해 적어도 하나의 광 편향기의 제어와 함께 적어도 하나의 광원의 제어를 조정할 수 있다. 예를 들어, 도 17을 참조하여 상술한 바와 같이, 프로세서(118)는 적어도 하나의 센서 및/또는 프로세서(118)의 작동 파라미터를 변경할 수 있다. 예를 들어, 이러한 경우의 작동 파라미터의 변경은 적어도 하나의 센서에 의해 획득된 신호 레벨 및/또는 노이즈 레벨에 대한 검출의 감도를 바꿀 수 있다. 예를 들어, 프로세서(118)는 도 17을 참조하여 전술한 바와 같이, 후컨벌루션 임계값을 변화시킴으로써 센서 감도를 변경할 수 있다. 그러나, 적어도 하나의 센서 및/또는 프로세서(118)의 다른 작동 파라미터는 추가적으로 또는 대안적으로 프로세서(118)에 의해 변경될 수 있다.
상이한 주행 환경의 예시가 도 42a 내지 도 42e에 도시되어 있다. 도 42a의 예시에서, 차량(4201)은 차량 바디 및 차량 바디 내에 위치된 적어도 하나의 프로세서를 포함할 수 있다. 적어도 하나의 프로세서는 도 41의 방법(4100) 또는 그 변형을 실행할 수 있다. 도 42a의 예시에서, 차량(4201)은 도시 환경에서 주행 중 이다. 따라서, 차량의 LIDAR 시스템(4201)은 도 42a에 묘사된 바와 같이 더 높은 프레임 속도 (예를 들어, 초당 25 프레임 (frames per second, FPS)), 중간 거리(예를 들어, 100 미터), 및 넓은 수평 시야(예를 들어, 320°, 340°, 360° 등)로 시야(4203)를 스캔할 수 있다. 이는 도시 환경과 연관된 상태의 가능한 급격한 변화, 중간 속도, 높은 정밀도, 및 가까운 물체를 설명할 수 있다.
도 42b의 예시에서, 차량(4205)은 차량 바디 및 차량 바디 내에 위치된 적어도 하나의 프로세서를 포함할 수 있다. 적어도 하나의 프로세서는 도 41의 방법(4100) 또는 그 변형을 실행할 수 있다. 도 42b의 예시에서, 차량(4205)은 농촌 환경에서 주행 중이다. 따라서, 차량(4205)의 LIDAR 시스템은 도 42b에 도시된 바와 같이 중간 프레임 속도 (예를 들어, 초당 20 프레임 (FPS)), 더 큰 거리(예를 들어, 200 미터), 및 중간 수평 시야(예를 들어, 200 °, 150 °, 120 ° 등으로 시야(4207)를 스캔할 수 있다. 일부 실시예에서, 범위는 스캔에 걸쳐 예를 들어, 대부분의 스캔에 대해 100 미터에서 스캔하지만, 매 5 스캔마다 200 미터에서 스캔하는 것과 같이 변경될 수 있다. 이러한 설정은 농촌 환경과 연관된 상태의 느린 변화, 빠른 속도, 낮은 정밀도, 및 멀리있는 물체를 설명할 수 있다.
도 42c의 예시에서, 차량(4209)은 차량 바디 및 차량 바디 내에 위치된 적어도 하나의 프로세서를 포함할 수 있다. 적어도 하나의 프로세서는 도 41의 방법(4100) 또는 그 변형을 실행할 수 있다. 도 42c의 예시에서, 차량(4209)은 교통 정체에서 주행 중이다. 따라서, 차량(4209)의 LIDAR 시스템은 도 42c에 도시된 바와 같이 중간 프레임 레이트 (예를 들어, 초당 20 프레임 (FPS)), 짧은 거리 (예를 들어, 75 미터), 및 적당한 수평 시야(예를 들어, 200 °, 150 °, 120 ° 등)으로 시야(4211)를 스캔할 수 있다. 이러한 설정은 교통 체증과 연관된 상태의 일반적으로 느린 변화, 낮은 속도, 낮은 정밀도, 및 가까운 물체를 설명할 수 있다.
도 42d의 예시에서, 차량(4213)은 차량 바디 및 차량 바디 내에 위치된 적어도 하나의 프로세서를 포함할 수 있다. 적어도 하나의 프로세서는 도 41의 방법(4100) 또는 그 변형을 실행할 수 있다. 도 42d의 예시에서, 차량(4213)은 터널을 통과하여 주행하는 중이다. 따라서, 차량(4213)의 LIDAR 시스템은 영역(4217a) 및 영역(4217c)에서 영역(4217b)과는 상이한 특성을 이용하여 시야(4215)를 스캔할 수 있다. 영역(4217a) 및 영역(4217c)에서, 낮은 프레임 속도(예를 들어, 초당 10 프레임 (FPS)), 짧은 거리 (예를 들어, 75 미터), 및 낮은 공간적 및/또는 시간적 해상도는 터널의 벽을 추적하는데 있어서 필요성이 부족하다는 것을 설명하기 위해 이용될 수 있다. 반면에, 영역(4217b)에서, 중간 프레임 속도(예를 들어, 초당 20 프레임 (FPS)), 중간 거리 (예를 들어, 100 미터), 및 중간 공간적 및/또는 시간적 해상도는 차량(4213)을 선행하는 다른 차량의 가능한 갑작스러운 정지를 추적하는데 이용될 수 있다. 대안적으로, 도 42d에 묘사된 바와 같이, 영역(4217a) 및 영역(4217c)은 영역(4217b)이 스캔되는 동안 (“X"로 묘사된 바와 같이) 스캔되지 않을 수 있다.
도 42e의 예시에서, 차량(4213)은 이제 터널을 빠져 나간다. 따라서, 차량(4213)의 LIDAR 시스템은 영역(4217a) 및 영역(4217c)에서 이전에 사용 된 것보다 영역(4217a') 및 영역(4217c')의 상이한 특성을 이용하여 시야(4215')를 스캔할 수 있다. 예를 들어, 프레임 속도, 검출 거리, 및/또는 공간적 및/또는 시간적 해상도는 이들 영역에서 가능한 물체를 추적할 필요성을 설명하기 위해 증가될 수 있다. 한편, 영역(4217b')에서의 프레임 속도, 검출 거리, 및/또는 공간적 및/또는 시간적 해상도는 영역(4217b)에서 이용된 것과 동일하게 유지될 수 있다. 대안적으로, 영역(4217a) 및 영역(4217c)은 (도 42e에 묘사된 바와 같이) 동일한 특성 또는 상이한 특성을 갖는 영역(4217b)에 더하여 지금 스캔될 수 있다.
도 42f는 도 42a, 도 42b, 및 도 42c의 각각 대응하는 시야(4203, 4207, 4211)를 가지는 차량(4201, 4205, 4209)을 묘사한다. 도 42f에 묘사된 바와 같이, 도시 환경에서의 차량(4201)에 대한 시야(4203)는 중간 검출 거리 및 넓은 수평 시야를 갖는다. 도 42f에 더 묘사된 바와 같이, 농촌 환경에서의 차량(4205)에 대한 시야(4207)는 (도시 환경에서의) 시야(4203)보다 큰 검출 거리를 갖지만 (도시 환경에서) 시야(4203)와 비교하면 중간 수평 시야를 갖는다. 도 42f에 더 묘사된 바와 같이, 교통 체증에서의 차량(4209)에 대한 시야(4211)는 (도시 환경에서의) 시야(4203)보다 짧은 검출 거리를 갖지만, (도시 환경에서의 시야(4203)의 것과 유사한) 넓은 수평 시야를 갖는다.
도 42a 내지 도 42f에 묘사되지 않은 추가적인 주행 환경은 LIDAR 시스템의 하나 이상의 속성의 조절을 초래할 수 있다. 예를 들어, 비에서, 본 발명의 실시예와 일치하는 LIDAR 시스템은 각 프레임에서 더 큰 노이즈와 왜곡된 정밀도를 수용하기 위해 더 높은 프레임 속도 (예를 들어, 초당 25 프레임 (FPS)) 및 더 높은 공간적 및/또는 시간적 해상도로 시야를 스캔할 수 있다.
도 43은 적어도 하나의 광 편향기의 공통 면적을 조준하는 복수의 광원을 가지는 예시적인 LIDAR 시스템(4300)을 도시하는 도면이다. 도 43에 묘사된 바와 같이, 복수의 광원으로부터의 광은 적어도 하나의 광 편향기의 중첩 면적에 충돌할 수 있다. 추가적으로 또는 대안적으로, 복수의 광원으로부터 시작하여 장면으로부터 반사된 광은 적어도 하나의 광 편향기의 중첩 면적에 충돌할 수 있다. 도 43에 묘사된 바와 같이, 시스템(4300)은 복수의 광원 (예를 들어, 광원(4303a, 4303b, 4303c))과 함께 처리 유닛(예를 들어, 적어도 하나의 프로세서(4301))을 포함한다. 복수의 광원(4303a, 4303b, 4303c)은 대응하는 복수의 광 빔 (예를 들어, 광 빔(4305a, 4305b, 4305c))을 방출할 수 있다.
도 43의 실시예에서, LIDAR 시스템(4300)은 공통 면적(4307)을 갖는 적어도 하나의 편향기(4309)를 포함한다. 적어도 하나의 편향기(4309)는, 예를 들어 스캐닝 사이클 동안 특정 순간 위치에 있을 수 있다. 복수의 광원(4303a, 4303b, 4303c)은 공통 면적(4307)에 조준될 수 있고, 따라서 복수의 대응하는 광 빔(4305a, 4305b, 4305c)을 지향할 수 있다. 공통 면적(4307)은 복수의 광 빔(4305a, 4305b, 4305c)을 시야(4311)로 투영할 수 있다. 도 43의 실시예에서, 공통 면적(4307)은 시야(4311)를 형성하는 복수의 독립 영역 (예를 들어, 영역(4313a, 4313b, 4313c))을 향하여 복수의 광 빔(4305a, 4305b, 4305c)을 투영할 수 있다. 복수의 광 빔(4305a, 4305b, 4305c)은 시야(4311)로부터 (또는 그 내부의 물체로부터) 복수의 대응하는 반사(4315a, 4315b, 4315c)를 야기한다.
또한, 도 43의 예시에서는, 복수의 영역(4313a, 4313b, 4313c)에 대한 스캐닝 속도가 다를 수 있다. 예를 들어, 도 43에 묘사된 바와 같이, 영역(4313a)에 대한 스캔 속도는 영역(4313b)의 스캔 속도보다 느릴 수 있고, 영역(4313c)의 스캔 속도도 그럴 수 있다.
다른 실시예에서, 스캔의 추가적인 또는 대안적인 속성은 복수의 영역(4313a, 4313b, 4313c) 사이에서 다를 수 있다. 예를 들어, 순간 검출 거리, 공간적 해상도, 시간적 해상도, 신호 대 노이즈 비율, 시야의 크기, 하나 이상의 펄스 송신 방식, 또는 그와 유사한 것은 독립적으로 또는 조합되어 복수의 영역(4313a, 4313b, 4313c) 사이에서 다를 수 있다.
도 43의 예시에서, 광 빔(4305a, 4305b, 4305c) 및 대응하는 반사(4315a, 4315b, 4315c)는 모두 적어도 하나의 편향기(4309)의 공통 면적(4307)에 부딪힌다. 그러나, 다른 실시예에서, 광 빔(4305a, 4305b, 4305c)은 대응하는 반사(4315a, 4315b, 4315c)가 반사되는 것보다 하나 이상의 상이한 편향기에 의해 투영될 수 있다.
도 43의 예시에 더 묘사된 바와 같이, 각각의 반사(4315a, 4315b, 4315c)는 대응하는 적어도 하나의 편향기 및 센서 (예를 들어, 센서(4319a, 4319b, 4319c)와 대응하여 결합된 편향기(4317a, 4317b, 4317c))에 지향된다. 그러나, 다른 실시예에서, 임의의 추가 편향기들은 생략될 수 있다. 또한, 다른 실시예에서, 하나 이상의 반사는 단일 센서로 지향될 수 있다.
교차 차량 회전(Cross Traffic Turn)을위한 Lidar 검출 방식
교차선 회전은 특정 문제를 나타낼 수 있다. 예를 들어, 하나 이상의 차선을 가로지르는 경로를 따라 차량을 운전하는 것은 (예를 들어, 미국 교차로에서 좌회전하거나 영국의 교차점에서 우회전하는 경우), 다가오는 차량, 자전거, 및 보행자와의 교통량이 많을 때 어려울 수 있다. 사람의 운전 기사가 교차로에 진입하여서, 가속할 기회를 기다리고, 위험한 교차선 회전을 수행할 수 있다. 자율 또는 반자율 주행 차량에 대해서도 유사한 문제가 발생할 수 있다.
차선을 가로지르는 것을 포함하는 다른 도로 상황 또는 교차로를 운전하는 것을 돕기 위해, LIDAR 시스템(100)은 LIDAR FOV의 다른 영역과 비교하여 LIDAR FOV의 특정 영역에 비해 시스템의 하나 이상의 작동 특성을 변경하도록 구성될 수 있다. 예를 들어, 본 발명의 실시예에 일치하는 LIDAR 시스템에서, LIDAR FOV의 특정 영역 (예를 들어, 교차되는 차선과 중첩되는 FOV의 부분)의 검출 범위는 LIDAR FOV의 하나 이상의 다른 영역에 대해 증가될 수 있다. 예를 들어, 일 예시로, 만약 차량이 (자율적으로 또는 아닌 경우) 적어도 하나의 차선을 가로질러 좌회전을 하려고 시도하는 경우, 가로지르는 차선과 중첩되는 (예를 들어, 가로지르는 차선의 다가오는 교통과 마주하는 차량의 우측 전방 1/4에 대응할 수 있는, 일반적으로 FOV의 우측 절반 상에) LIDAR FOV의 하나 이상의 영역과 연관된 검출 범위는 (예를 들어, 가로지르는 차선의 다가오는 교통과 마주하지 않는 차량의 좌측 전방 1/4에 대응할 수 있는, 일반적으로 FOV의 좌측 절반 상에) FOV의 다른 영역의 검출 범위를 초과하도록 연장될 수 있다. LIDAR FOV는 연속적이든 아니든 간에 다중 스캐닝 영역의 집계를 포함할 수 있다는 것을 유의해야 한다. 예를 들어, 일부 실시예에서, LIDAR FOV는 입체각 값의 연속 범위에 중첩되는 복수의 부분으로 만들어질 수 있다. 다른 실시예에서, LIDAR FOV는 (도 45에 도시된 바와 같이) 상이한 방향으로 연장되는 축에 의해 각각 이등분되는 다수의 중첩되지 않거나 부분적으로 중첩되는 입체각 범위의 집계일 수 있다. 이러한 방식으로, LIDAR 시스템(100)은 다가오는 차량을 더 잘 검출할 수 있고, 교차될 차선과 연관되어 더 높은 해상도의 깊이 맵을 생성할 수 있다.
본 개시의 시스템 및 방법은 차량의 교차선 회전의 방향에 반대되는 방향의 검출 범위(예를 들어, 교차선 회전의 방향이 좌측일 때, FOV의 우측 절반상의 FOV의 하나 이상의 영역과 연관된 검출 범위)가 교차선 회전의 방향을 향하는 검출 범위를 일시적으로 초과하도록 허용할 수 있다. 이러한 검출 범위의 변화는, 예를 들어, 교차선 회전의 방향에 반대되고 차량이 합류하는 먼 차선을 포함하는 차량의 측면에서, 시야의 다른 부분에 비해 광 플럭스를 증가시키기 위해 적어도 하나의 광원의 제어와 적어도 하나의 광 편향기의 제어를 함께 조정함으로써 이루어질 수 있다.
도 44는 교차 차량 회전에 대한 LIDAR 검출 방식에 대한 예시적인 방법(4400)을 도시한다. 방법(4400)은 적어도 하나의 프로세서 (예를 들어, 도 1a에 묘사된 LIDAR 시스템(100)의 처리 유닛(108)의 프로세서(118) 및/또는 도 2a에 묘사된 LIDAR 시스템의 처리 유닛(108)의 2개의 프로세서(118))에 의해 수행될 수 있다. 단계(4401)에서, 프로세서(118)는 적어도 하나의 광원으로부터의 광의 광 플럭스를 시야(예를 들어, 도 1a 및 도 2a의 시야(120))의 스캐닝 사이클에 걸쳐 변화시킬 수 있는 방식으로 적어도 하나의 광원(예를 들어, 도 1a의 광원(112), 도 2a의 광원(112)의 레이저 다이오드(202), 및/또는 도 2b의 복수의 광원(102))을 제어한다. 예를 들어, 프로세서(118)는 적어도 하나의 광원으로부터의 펄스의 타이밍을 변경할 수 있다. 대안적으로 또는 동시에, 프로세서(118)는 적어도 하나의 광원으로부터의 펄스의 길이를 변경할 수 있다. 추가적인 예시로서, 프로세서(118)는 적어도 하나의 광원으로부터의 펄스의 (예를 들어, 길이, 폭, 또는 그렇지 않으면 단면적을 변경) 크기를 대안적으로 또는 동시에 변화시킬 수 있다. 또 다른 추가적인 예시에서, 프로세서(118)는 적어도 하나의 광원으로부터의 펄스의 진폭 및/또는 주파수를 대안적으로 또는 동시에 변화시킬 수 있다.
단계(4402)는 시야를 스캔하기 위해 적어도 하나의 광원으로부터의 광을 편향시키기 위해 적어도 하나의 편향기(예를 들어, 도 1a의 광 편향기(114), 도 2a의 편향기(114A) 및/또는 편향기(114B), 및/또는 도 2b의 일방향 편향기(214))를 제어하는 프로세서(118)를 더 포함할 수 있다. 예를 들어, 프로세서(118)는 시야를 스캔하기 위해 적어도 하나의 광 편향기의 기계적 이동을 야기할 수 있다. 대안적으로 또는 동시에, 프로세서(118)는 시야를 스캔하기 위해 적어도 하나의 편향기에서 압전 또는 열전기 변화를 유도할 수 있다.
일부 실시예에서, 시야의 단일 스캐닝 사이클은 스캐닝 사이클 동안, 적어도 하나의 광 편향기가 복수의 상이한 순간 위치에 위치되도록 적어도 하나의 편향기를 이동시키는 것을 포함할 수 있다 (예를 들어, 편향기는 LIDAR FOV의 스캔동안 편향기가 하나의 순간 위치로부터 또는 하나의 순간 위치를 통해 다른 순간 위치로 이동하도록 제어됨). 예를 들어, 적어도 하나의 광 편향기는 스캐닝 사이클 동안 복수의 위치 중 하나로부터 다른 위치로 (선택적으로 추가적인 위치 및/또는 반복들과 함께) 연속적으로 또는 불연속적으로 이동될 수 있다.
이러한 실시예에서, 프로세서(118)는, 적어도 하나의 광 편향기가 특정 순간 위치에 위치될 때, 광 빔은 적어도 하나의 광 편향기에 의해 적어도 하나의 광원으로부터 시야를 향하여 편향되고, 상기 시야의 물체로부터의 반사는 적어도 하나의 광 편향기에 의해 적어도 하나의 센서를 향하여 편향되도록 적어도 하나의 광 편향기 및 적어도 하나의 광원을 조정할 수 있다. 따라서, 적어도 하나의 광 편향기는 시야를 향하여 광 빔을 지향할 수 있고, 또한 시야로부터 반사를 수신할 수도 있다. 예를 들어, 도 1a, 도 2b, 및 도 2c는 편향기가 모두 시야를 향하여 광 빔을 지향하고, 시야로부터 반사를 수신하는 예시를 도시한다. 특정 양태에서, 반사는 시야를 향하여 지향되는 광 빔에 의해 야기될 수 있다. 다른 실시예에서, 적어도 하나의 광원으로부터의 광 빔은 시야로부터 반사를 수신하는 적어도 하나의 다른 광 편향기로부터 떨어진 적어도 하나의 광 편향기에 의해 시야를 향하여 지향될 수 있다. 예를 들어, 도 2a는 하나의 편향기가 광 빔을 시야를 향하게 지향하고, 별개의 편향기가 시야로부터 반사를 수신하는 예시를 묘사한다.
단계(4403)에서, 프로세서(118)는 차량의 임박한 교차선 회전을 나타내는 입력을 획득한다. 교차선 회전 기술의 예시는 도 45 및 도 46를 참조하여 이하에서 기술된다.
단계(4404)에서, 임박한 교차선 회전을 나타내는 입력에 응답하여, 프로세서(118)는 교차선 회전의 방향에 반대되는 방향의 검출 범위가 교차선 회전의 방향을 향하는 검출 범위를 일시적으로 초과하도록 교차선 회전의 방향에 반대되고 차량이 합류하는 먼 차선을 포함하는 (예를 들어, 방향, 각도, 관심 영역, 및 차량의 일부가 아닌) 차량의 측면에서 시야의 다른 부분에 비해 광 플럭스를 증가시키기 위해 적어도 하나의 광원의 제어와 적어도 하나의 광 편향기의 제어를 함께 조정할 수 있다.
일부 실시예에서, 프로세서(118)는 교차선 회전의 방향에 반대되고 차량이 합류하는 먼 차선을 포함하는 차량의 측면 상에서 시야의 다른 부분에 비해 광 플럭스를 증가시키도록 하나의 광원 또는 하나의 광 편향기를 제어할 수 있다. 예를 들어, 만약 편향기(예를 들어, 도 1a의 광 편향기(114), 도 2a의 편향기(114A) 및/또는 편향기(114B), 및/또는 도 2b의 일방향 편향기(214))가 고정된 스캔 스케줄에 따라 스캐닝을 계속 하면, 광원(112)의 파라미터는 교차선 회전에 의해 교차되는 하나 이상의 차선의 물체(예를 들어, 차량)가 발견될 수 있는 LIDAR FOV의 영역에서 검출 범위를 변화시키기 위해 바뀔 수 있다. 검출 범위가 (개별적으로 또는 집계되어) 증가될 수 있는 FOV의 이러한 영역은 관심 영역으로 지칭될 수 있다.
일부 실시예에서, 관심 영역 내의 검출 범위는 관심 영역 외부의 FOV의 영역에서의 검출 범위보다 높을 수 있다. 임의의 적합한 비율의 검출 범위가 달성될 수 있다. 일부 실시예에서, 관심 영역 내의 검출 범위는 관심 영역 외부의 검출 범위보다 적어도 2배 더 클 수 있다. 교차선 회전을 만드는 차량의 특정 예시에서, 프로세서(118)는 관심 영역 (예를 들어, 교차선과 중첩되는 LIDAR FOV의 특정 부분)에 대응하는 방향으로 범위(X)의 차량을 검출할 수 있고, 관심 영역이 아닌 LIDAR FOV의 영역에서 (예를 들어, 교차선과 중첩되지 않은) X/2 이하의 범위에서만 차량을 검출할 수 있다. 예를 들어, 만약 자율 주행 차량이 좌회전을 준비하고 있거나, 시작하고, 및/또는 좌회전을 하고 있다면, 관심 영역은 차량의 오른쪽 측면의 적어도 부분을 포함할 수 있는 LIDAR FOV의 오른쪽 절반에 있을 수 있다. 일부 경우에는, 차량의 바로 전방의 면적과 중첩하는 LIDAR FOV의 영역이 관심 영역의 외부로 떨어질 수 있다. 추가적으로 또는 대안적으로, LIDAR 시스템 FOV는 상이한 세그먼트들에 걸쳐 제공될 수 있으며, 각각의 세그먼트는 잠재적으로 차량을 둘러싼 상이한 존으로 지향될 수 있다. 이러한 경우, LIDAR FOV의 관심 영역은 차량의 조수석 측, 차량의 운전자 측, 차량의 후방, 차량에 대한 임의의 1/4 방향(예를 들어, 차량을 통과하는 종축과 횡축 사이) 등에 상주할 수 있다. 프로세서(118)는 LIDAR 시스템(100)의 다른 구성 요소 중 광원(112) (광 출력에 영향을 미치는 제어 가능한 파라미터들 중 임의의 것을 포함) 및 편향기(114)를, 관심 영역의 검출 범위를 증가시키고 더 낮은 관심의 LIDAR FOV의 영역에 대한 자원을 보존하는 방식으로 광원(112)을 제어할 수 있다.
방법(4400)은 추가적인 단계를 포함할 수 있다. 예를 들어, 방법(4400)은 시야의 스캐닝 사이클 동안 적어도 하나의 광 편향기가 복수의 상이한 순간 위치에 위치되도록 광 편향기를 제어하는 단계를 더 포함할 수 있다. 선택적으로, 방법(4400)은 광 편향기가 특정 순간 위치에 위치될 때, 광 빔의 부분은 적어도 하나의 광 편향기에 의해 적어도 하나의 광원으로부터 시야의 물체를 향하여 편향되고, 상기 물체로부터의 광 빔의 부분의 반사는 광 편향기에 의해 적어도 하나의 센서를 향하여 편향되도록, 상기 적어도 하나의 광 편향기 및 상기 적어도 하나의 광원을 조정하는 단계를 더 포함할 수 있다. 일부 실시예에서, LIDAR 시스템은 적어도 하나의 광 편향기를 조준하는 복수의 광원을 더 포함할 수 있다. 프로세서는 광 편향기가 특정 순간 위치에 위치할 때, 복수의 광원으로부터의 광이 시야 내의 복수의 독립 영역을 향하여 투영되도록 광 편향기를 제어할 수 있다.
프로세서(118)는 호스트 차량이 교차선 회전을 실행할 것을 계획하고 있거나 또는 다양한 소스에 기초하여 교차선 회전을 개시하였는지를 결정할 수 있다. 예를 들어, 일부 실시예에서, 프로세서(118)는 차량의 네비게이션 시스템으로부터 임박한 교차선 회전을 나타내는 입력을 수신할 수 있다. 다른 실시예에서, 프로세서(118)는 차량의 다른 시스템으로부터 (예를 들어, 하나 이상의 센서, 연동된 회전 신호, 휠 스티어링 방향, GPS 센서 등) 또는 차량 외부 시스템로부터 (예를 들어, 하나 이상의 자율 주행 차량 네비게이션 서버 시스템, 매핑 시스템 등) 임박한 교차선 회전을 나타내는 입력을 수신할 수 있다. 다른 실시예에서, 프로세서(118)는 적어도 하나의 광원으로부터 투영된 광과 연관된 반사를 검출하도록 구성된 적어도 하나의 센서 (예를 들어, 센서(116))로부터 수신된 정보에 기초하여 임박한 교차선 회전을 나타내는 입력을 결정할 수 있다. 다시 말해서, 프로세서(118)는 LIDAR 시스템(100)의 센서(116)의 출력에 기초하여 임박하거나 시작된 교차선 회전을 결정할 수 있다.
프로세서(118)는 교차될 차선 내에서 검출된 물체들의 하나 이상의 특성을 결정하도록 구성될 수 있다. 일부 경우에, 하나 이상의 특성은 검출된 물체까지의 거리 및/또는 물체의 유형 (예를 들어, 자동차, 트럭, 정지된 물체, 보행자 등)을 포함할 수 있다. 일부 실시예에서, 프로세서(118)는 또한 교차선에서 검출된 이동 물체의 속도 (예를 들어, 먼 차선의 교통량), (예를 들어, FOV의 2개 이상의 스캔에 걸쳐 위치를 모니터함으로써) 이동 방향, 또는 검출된 물체와 연관된 임의의 다른 특성을 결정할 수도 있다. 일부 실시예에서, 프로세서(118)는 호스트 차량의 모션 특성 (예를 들어, 속도, 가속도, 위치 등)을 모니터할 수 있고, 호스트 차량 및 검출된 물체가 충돌 코스 상에 있는지를 결정하기 위해 호스트 차량의 모션 특성 및 (예를 들어, 교차선에서) 검출된 물체의 모션 특성에 기초하여 결정할 수 있다. 그렇다면, 만약 호스트 차량 및 이동 물체가 충돌 코스 상에 있다고 결정되면, 프로세서(118)는 경보 (예를 들면, 경적 폭발, 시각적 경보, 검출된 물체와 연관된 제어기로의 무선 통신 등)를 울릴 수 있다. 다른 실시예에서, 충돌 코스의 결정은 다른 잠재적인 위험을 포함할 수 있다. 예를 들면, 심지어 만약 호스트 차량이 정지해도, 예를 들어, 접근하는 차량이 현재 위치에서 호스트 차량에 위험을 주거나 호스트 차량이 이동할 것으로 예상되는 경우, 호스트에 대한 경보가 발령될 수 있다. 일부 실시예에서, 프로세서(118)는 자율 모드뿐만 아니라 다른 모드 (예를 들어, 고급 운전자 보조 시스템 작동, 전체 운전자 제어 등)에서도 경보가 발령되도록 (청각적, 시각적, 또는 다른 방식으로) 야기할 수 있다.
일부 실시예에서, 프로세서(118)는 LIDAR 시야와 연관된 반사율 이미지를 생성할 수 있다. 반사율 이미지는 이동 물체의 다양한 부분으로부터 반사된 광량을 나타내는 검출된 이동 물체의 지문을 포함할 수 있다. 예를 들어, 광 투영이기(112)로부터의 광이 LIDAR 시스템(100)의 환경 내의 물체에 입사할 때, 그 물체의 반사율 특성에 기초하여, 프로세서(118)는 패턴을 검출할 수 있다. 예를 들어, 프로세서(118)는 검출된 물체 (예를 들어, 보행자, 차량, 도로 분할 장벽 등)와 연관된 유형 카테고리를 결정하기 위해 반사율 패턴 또는 지문을 식별할 수 있다. 프로세서(118)는 또한 검출된 물체와 연관된 서브 유형 (예를 들어, 검출된 차량이 버스, 소형차, 또는 밴인지 등)을 결정할 수 있다. 모든 차량은 차량의 형태 및 구성 (예를 들어, 자동차 번호판 위치 및 주변 윤곽; 차량 상의 헤드라이트 크기, 형태, 간격, 및 위치 등)에 기초하여 상이한 반사율 지문을 표시할 수 있다.
일부 실시예에서, 프로세서(118)는 검출된 반사율 패턴과 미리 결정된 반사율 템플릿(template) 간의 비교에 기초하여 검출된 물체의 하나 이상의 상태를 결정하도록 구성될 수 있다. 예를 들어, 일부 실시예에서, 프로세서(118)는 (예를 들어, 복수의 스캐닝 사이클에 걸쳐) 검출된 이동 물체에 대해 이동 물체가 우회전 신호를 보내는 차량인지 결정하기 위해 획득된 하나 이상의 반사율 지문을 복수의 미리 결정된/저장된 반사율 템플릿과 비교할 수 있다.
프로세서(118)는 또한 호스트 차량에 의해 검출된 기법에 기초하여 LIDAR FOV의 상이한 영역에 상이한 광 플럭스 레벨을 할당하도록 구성될 수 있다. 예를 들어, 일부 실시예에서, 프로세서(118)는 우회전에 대해 좌회전과 상이한 전력 할당 방식을 적용할 수 있다. 예를 들어, 광 플럭스의 변화에 따라, 프로세서(118)는 우회전과 다른 좌회전을 위한 상이한 전력을 할당할 수 있다. 전력 버짓 할당의 추가적인 예시가 도 29 내지 도 31과 관련하여 더 설명된다.
또 다른 실시예에서, 프로세서(118)는 현재의 주행 환경을 나타내는 입력을 수신하고 결정된 주행 환경에 의존하여 상이한 전력 할당 방식을 적용할 수 있다. 예를 들어, 프로세서(118)는 도시 지역의 교차선 회전보다 농촌 지역의 교차선 회전에 대해 상이한 전력 할당 방식을 적용할 수 있다. 예를 들어, 도시 지역에서는 보행자 또는 자전거 운전자가 차량 측면에서 호스트 차량에 접근할 가능성이 더 높다. 따라서 농촌 지역에 비해 도시 지역에서는 농촌 지역보다 더 정밀하게 호스트 차량에 대한 하나 이상의 방향(예를 들어, 운전자 측, 조수석 측, 후방 등)으로 물체를 검출할 필요성이 더 커질 수 있다. 반대로 농촌 지역에서는 보행자 및 다른 장애물이 적을 수 있다. 따라서, 특히 호스트 차량에 가까운 거리 범위에서, 호스트 차량 주위의 고해상도 깊이 맵에 대한 필요성이 더 적을 수 있다. 그러나 다른 한편으로 농촌 환경에서의 차량 속도는 교통량 감소 등 다양한 요인으로 인해 도시 지역보다 높은 경향이 있다. 결과적으로, 프로세서(118)는 (예를 들어, 약 40m, 20m 등 내에서) 호스트 차량에 아주 근접한 물체의 검출에 더 적은 자원을 할당할 수 있고, 그 대신에 더 멀리있는 물체의 검출에 더 많은 자원을 할당할 수 있다.
일부 실시예에서, 프로세서(118)는 차량의 우측과 연관된 제1 시야와 차량의 좌측과 연관된 제2 시야를 함께 스캔할 수 있게 하는 적어도 2개의 광원 및 적어도 2개의 편향기를 제어할 수 있다. 또 다른 실시예에서, 프로세서(118)는 차량이 합류하는 도로를 포함하는 시야의 제1 부분을 향하여 투영되는 광량이 도로에 인접한 빌딩을 포함하는 시야의 제2 부분에 제공된 광량보다 크도록 적어도 하나의 광원(112)을 제어할 수 있다.
전술한 바와 같이, LIDAR FOV의 특정 부분에 제공되는 광 플럭스의 증가는 그 영역에서의 다른 능력 중에서 검출 능력을 향상시킬 수 있다. 시야(예를 들어, 도 1a 및 도 2a의 시야(120))가 확대될 수 있다. 도 2c에서 기술된 바와 같이, 1차 광원(112A)은 검출 범위를 최적화하기 위해 보다 긴 파장의 광을 투영할 수 있다. 도 5a에서 더 설명되는 바와 같이, 광 펄스들 사이의 시간은 원하는 검출 범위에 의존할 수 있다. 구체적으로, 동일한 양의 광 펄스를 보다 짧은 시간 내에 전송하는 것은 광 플럭스를 증가시킬 수 있다. 도 5c에 기술된 바와 같이, 펄스들의 개수를 변화시키거나 펄스 간의 시간량을 바꾸는 것은 광 플럭스를 조절하는 유일한 방법이 아닐 수 있다. 광 플럭스의 변화는 또한 펄스 지속 시간, 펄스 각도 분산, 파장, 순간 전력, 광원(112)으로부터의 상이한 거리에서의 광자 밀도, 평균 전력, 펄스 전력 세기, 펄스 폭, 펄스 반복율, 펄스 시퀀스, 펄스 듀티 사이클, 파장, 위상, 편광 등과 같은 다른 방법으로 구현될 수 있다.
예시로서, 프로세서(118)는 적어도 하나의 광원 (예를 들어, 도 1a의 광원(112), 도 2a의 광원(112)의 레이저 다이오드(202), 및/또는 도 2b의 복수의 광원(102))을 적어도 하나의 광원으로부터의 광의 광 플럭스를 시야(예를 들어, 도 1a 및 도 2a의 시야(120))의 스캐닝 사이클에 걸쳐 변화시킬 수 있는 방식으로 제어할 수 있다.
도 45는 LIDAR 검출 스캐닝 방식의 예시를 도시하는 다이어그램(4500)을 포함한다. 묘사된 바와 같이, 접근 차량(4530)이 서에서 동으로 주행하는 동안 자율 주행 차량(4510)은 동에서 서로 주행한다. 자율 주행 차량(4510)은 (적어도 일부분에서 중첩될 수 있는) 7개 시야를 제공하기 위해 차량(4510)을 둘러싸는 환경의 7개의 상이한 영역을 향하여 광을 투영할 수 있는 LIDAR 시스템을 포함할 수 있다. 일부 실시예에서, LIDAR 시스템의 각 시야는 광원(112), 편향기(114), 검출기(116), 및 관련 광학 구성 요소(예를 들어, 렌즈 등)일 수 있는 대응하는 모듈과 연관될 수 있지만, 더 많거나 더 적은 구성 요소가 가능할 수 있다. 단순화를 위해, 이들 각각의 모듈은 상이한 시야를 식별하는 수단으로서 렌즈 시스템으로서 본원에 참조될 것이다. 렌즈 시스템을 통해 LIDAR 시스템은 시야 내의 물체로부터 반사된 광을 수신할 수 있다. 자율 주행 차량(4510)은 (예를 들어, 도 1a의 시야(120)와 유사한) 렌즈 시스템(4511)에 대응하는 시야(4521), 렌즈 시스템(4512)에 대응하는 시야(4522), 렌즈 시스템(4513)에 대응하는 시야(4523), 렌즈 시스템(4514)에 대응하는 시야(4524), 렌즈 시스템(4515)에 대응하는 시야(4525), 렌즈 시스템(4516)에 대응하는 시야(4526), 렌즈 시스템(4517)에 대응하는 시야(4527)를 가질 수 있다.
하나의 특정 (미도시) 예시에서, LIDAR 시스템(100)은 자동차 앞에 "보이는” 4개의 렌즈 시스템을 포함할 수 있다. 총 4개의 렌즈 시스템은 4개의 광원을 이용하여 집계된 160° 시야를 커버할 수 있으며, 예를 들어 공유된 편향기를 통해 40°의 수평 시야를 통해 각 스캐닝한다. 일부 실시예에서, 프로세서(118)는 (교차선과 같은 관심 영역과 실질적으로 중첩하지 않는 FOV 부분 및 다른 방향에 대응하는) 제2 광원에 대한 광 플럭스를 감소시키면서 동시에 (교차선이 위치될 수 있는 FOV의 부분에 대응하는) 제1 광원에 의해 광 플럭스를 증가시킬 수 있다. 두 신호의 반사는 공통 광 편향기(114) (예를 들어, 미러)에 충돌할 수 있다.
도 46a는 교차 차량 회전에 대한 LIDAR 검출 방식의 예시를 도시하는 다이어그램(4600)을 도시한다. 도 45의 자율 주행 차량(4510)은 교차선 회전을 위한 교차로에 진입할 수 있다. 다른 실시예에서, 자율 주행 차량은 T 차 교차점, Y 교차점, 또는 교차선 회전을 위한 임의의 다른 유형의 교차로/교차점에 진입할 수 있다. 자율 주행 차량(4510)은 교차선 회전을 위한 경로, 예를 들어, 궤적(4620)을 따라갈 수 있다. 자율 주행 차량(4510)이 교차점에 진입함에 따라 (또는 심지어 그 전에), 프로세서(118)는 광 플럭스 레벨을 FOV 부분(4525, 4522, 4523)에 의해 표현되는 LIDAR 시야의 부분까지 증가시킬 수 있다. 그 결과, 이들 부분과 연관된 잠재적인 검출 범위는 전체 LIDAR FOV의 다른 부분에 비해 증가할 수 있다. 예를 들어, 도시된 바와 같이, FOV 부분(4522) FOV 부분(4521)보다 큰 검출 범위를 가지며, FOV 부분(4523)는 FOV 부분(4524)보다 더 큰 검출 범위를 가지고, FOV 부분(4525)는 FOV 부분(4526)보다 큰 검출 범위를 가지며, 또한 FOV 부분(4522, 4523)보다 큰 검출 범위를 가진다. 일부 경우에, FOV 부분(4525)의 검출 범위는 다른 FOV 부분의 2 배보다 더 길 수 있다. 도 46a에 묘사된 바와 같이, 차량의 우측의 FOV 부분(4525)은 좌측 교차선 회전 중에 가장 높은 광 플럭스가 할당되고 가장 큰 검출 범위를 가질 수 있는데, 이는 관심 영역이 중첩되는 것으로 결정되는 방향이기 때문이다. 차량의 좌측상의 FOV 부분(4521, 4526, 4524)의 검출 범위는 (예를 들어, 도 46a에 도시된 교차선 회전 전에 도 45에 도시된 바와 같이) 그들의 디폴트 값에 대해 변하지 않고 유지될 수 있다. 대안적으로, 차량의 좌측상의 FOV 부분(4521, 4526, 4524) 중 임의의 것에 투영된 광 플럭스는 교차선 회전 중에 그들의 디폴트 값에 비해 감소될 수 있다. 도 46a의 교차 회전 상황 동안 자율 주행 차량(4510)의 전면을 캡쳐하는 FOV 부분(4527)은 비-교차선 상황에서 순방향 FOV 부분에 정상적으로 할당된 레벨보다 낮은 광 플럭스 레벨로 할당될 수 있다. 예를 들어, 도 45에 도시된 바와 같이, FOV 부분(4527)은 더 높은 광 플럭스 값으로 할당될 수 있으며, 이는 도로 상의 속도로 이동하는 차량과 같은 상황에서 FOV 부분(4527)에 대한 검출 범위를 차례로 증가시킬 수 있다. 속도가 도 45에 도시된 상황보다 낮을 수 있기 때문에, 교차선 상황에서 FOV 부분(4527)의 광 플럭스 레벨은 감소될 수 있다. 또한, 교차선 상황에서 다가오는 교통에 인접한 차량의 측면은 도 46a의 교차선 상황에서 차량의 전방으로 이동하는 방향과 비교하여 (예를 들어, 잠재적인 충돌 관점으로부터) 더 높은 관심 영역을 나타낼 수 있다. 물론, (예를 들어, 미국 및 기타 자동차가 오른쪽으로 주행하는 국가에서) 우회전은 교차선 상황을 포함하지 않을 수 있으므로, 차량의 좌측에 상주하는 LIDAR 시스템의 FOV 부분에서 광 플럭스를 증가시킬 필요가 없을 수 있다. 그러나, 일본 및 영국과 같은 국가에서는 우회전 교차선 상황 동안 차량의 좌측에 있는 FOV 부분에 공급되는 광 플럭스가 증가될 수 있다. 프로세서(118)는 (예를 들어, 차량 네비게이션 시스템, GPS 센서 등의 출력에 기초하여) 호스트 차량에 대한 위치를 자동으로 결정하고 그 결정된 위치에서 주행 관례/도로 구성에 따라 다양한 FOV 부분에 인가되는 광 플럭스를 제어하도록 구비될 수 있다.
도 46a에 더 묘사된 바와 같이, 프로세서(118)는 FOV 부분(4525)으로부터 연장된 검출 범위로 인해 교차선 회전 중에 차량(4610)을 검출할 수 있다. 예시로서, 프로세서(118)는 검출된 물체가 관심 물체인지, 예를 들어 움직이는 차량, 보행자 등인지를 결정할 수 있다. 프로세서(118)는 적어도 검출된 물체와 연관된 반사율 패턴에 기초하여 건물, 보도, 주차된 차량, 보행자, 및 이동 차량을 구별할 수 있다. 따라서, 프로세서(118)는 관심 물체(이동하는 차량 또는 보행자 등) 같은 것을 포함하도록 결정된 FOV 부분에 더 많은 레벨의 자원을 할당할 수 있고, 빌딩, 주차된 차, 또는 기타 고정된 물체를 포함하도록 결정된 FOV 부분에 대한 자원 소비를 감소(또는 증가하지 않음)시킴으로써 자원을 보존할 수 있다.
일부 실시예에서, 프로세서(118)는 FOV 부분의 특정 서브 영역에 공급되는 광 플럭스를 증가시킬 수 있다. 예를 들어, 도 46a에 도시된 교차선 상황에서, 이동 차량(4610)은 프로세서(118)에 의해 관심 물체가 되도록 결정될 수 있다. 따라서, 프로세서(118)는 차(4610)와 중첩하는 FOV 부분(4525)의 서브 영역에 더 많은 광속이 제공되도록 할 수 있다. 프로세서(118)는 또한 다른 상황에서 FOV 부분의 하나 이상의 서브 영역에 제공된 광 레벨을 증가시킬 수 있다. 예를 들어, 어떤 물체도 검출되지 않거나 특정 거리 너머의 물체가 FOV 부분의 특정 서브 영역 내에서 검출되지 않는 경우, 프로세서(118)는 보다 먼 거리 범위에서 물체를 검출하도록 시도하기 위해 증가된 광 플럭스를 이들 서브 영역에 할당할 수 있다.
도 46b는 교차 차량 회전을 위한 LIDAR 검출 방식의 또 다른 예시를 제공한다. 이 예시에서, 차량(4510)은 T- 교차로에 접근되어서, 멈추고, 먼 차선으로 좌회전 할 기회를 기다리고 있다. 이 상황에서, 차량(4510)의 후방 또는 차량(4510)의 좌측의 많은 부분으로부터의 물체 충돌의 위험이 거의 없을 수 있다. 오히려, 가장 관심있는 면적은 차량의 전방 좌측, 우측일 수 있다. 따라서, FOV (4526, 4524, 4523)에 대한 광 투영은 이러한 존에서 긴 검출 범위들 및/또는 고해상도 깊이 맵이 요구되지 않을 수 있기 때문에 감소될 수 있다. 일부 실시예에서, FOV (4526, 4524, 4523)로 투영된 광의 감소는 다른 시야와 관련하여 사용될 수 있는 자원을 자유롭게 할 수 있다. 예를 들어, 보다 큰 버전의 FOV(4526, 4524, 4523)에서 물체들을 검출하는데 사용되었던 발광 전력 및/또는 컴퓨터의 자원들은 FOV (4526, 4524, 4523)를 스캔하는 데 요구되는 자원을 감소함으로써 FOV (4521, 4522, 4527 또는 4525)와 같은 다른 FOV들에 재할당 될 수 있다.
중요한 면적에서 검출을 향상시키기 위해 더 많은 자원을 이용 가능하게 하기 위해, LIDAR 시스템(100)은 차량(4510)의 전방 및 좌측 면적에서 검출 범위를 증가시키기 위해 FOV(4521)로 투영되는 광 플럭스의 양을 증가시킬 수 있다. 그리고 FOV(4521)에 제공된 광 플럭스의 증가는 FOV의 모든 영역에 걸쳐 균일할 필요는 없다. 오히려, 도 46b에 도시된 바와 같이, FOV(4521)는 FOV 서브 영역(4680, 4682)으로 세그먼트화될 수 있다. 예를 들어, 두 서브 영역 모두가 FOV(4526)보다 많은 광 플럭스를 수신할 수 있지만, 서브 영역(4680)은 FOV(4526)의 하나 이상의 스캐닝 사이클 동안 서브 영역(4682)보다 더 많은 광 플럭스를 수신할 수 있다. 이러한 FOV 스캐닝 방식은 좌측으로부터 접근하는 차선의 검출 거리를 잠재적으로 증가시킬 수 있다.
도 46b에 도시된 T-교차점에서 좌회전을 할 때, 차량(4510)에 좌측으로부터 접근하는 차량들에 대한 검출 능력을 향상시키는 것이 중요할 수 있다. 따라서, 전술한 바와 같이, 보다 많은 광 플럭스가 FOV(4521)에 공급될 수 있고, 좌측으로부터 접근하는 차량에 대한 검출 성능을 향상시키기 위해, 전술한 바와 같이, 균일하게 또는 불균일하게 그 서브 영역에 분배될 수 있다. 그러나, 도 46b에 도시된 상황에서, 더욱 중요한 것은 우측으로부터 차량(4510)에 접근하는 교통의 검출 능력이다. 일반적으로 좌측과 우측에서 접근하는 교통은 유사한 속도로 차량(4510)에 접근 할 것으로 예상될 수 있어서, 우측에서 접근하는 차량과의 상호 작용 시간은 좌측에서 접근하는 차량의 상호 작용 시간보다 상당히 길 수 있다. 예를 들어, 도시된 T- 교차점에서 좌회전하기 위해, 차량(4510)은 임의의 차가 우측으로부터 접근하고 있는지, 정상 가속 상태 하에서 차량(4510)이 단순히 좌측 접근 차량 앞에서 떨어지기에 충분한 시간이 있는지 여부를 결정할 필요가 있을 수 있다. 일단 이러한 차량이 떨어지면, 차량(4510)과 왼쪽 접근 차량 간의 상호 작용이 종료될 수 있다.
반면에, 차량(4510)이 도시된 T- 교차로에서 좌회전하고 있다고 가정하면, 차량(4510)과 우측 접근 차량 간의 상호 작용 시간은 더 길 수 있다. 예를 들어, 차량(4510)이 우측 접근 차량 앞에서 운전할 충분한 시간이 있는지를 결정해야할 뿐만 아니라, 차량(4510)은 또한 그 차량(4510)이 좌회전을 완료한 후 그 가속 기간 동안 차량(4510)의 후방과 충돌하는 차량 없이 우측 접근 차량의 전진 속도까지 가속할 충분한 시간이 있을지를 결정해야만 한다. 따라서, 우측에서 접근하는 차량(4690)과 같은 차량을 검출하기 위한 더 큰 검출 범위에 대한 필요가 있을 뿐만 아니라, 좌측으로 접근하는 차량을 검출하는데 필요한 검출 범위보다 더 긴 검출 범위가 필요할 수도 있다. 따라서, 도시된 예시에서, FOV(4522, 4525) (차량(4510)의 전방 및 우측 영역의 유효 범위를 갖는 FOV)는 차량(4510)의 우측 및 전방 검출 능력을 증가시키기 위해 증가된 광 플럭스 레벨로 할당된다. 다시, 그러한 광 증가는 각각의 FOV의 모든 영역에 걸쳐 균일하게 이루어질 필요는 없다. 오히려, 도시된 바와 같이, FOV(4525)의 서브 영역(4675)은 FOV(4525)의 다른 서브 영역(4676)보다 많은 광이 할당될 수 있다. 실제로, 서브 영역(4675)에 공급된 광량은 서브 영역(4676)에 공급되는 광량보다 상당히 클 수 있다. 결과적으로, 서브 영역(4675)에서의 검출 범위는 서브 영역(4676)의 연관된 검출 범위보다 2배, 3배, 5배, 10배 (또는 그 이상) 더 클 수 있다.
유사하게, 증가된 광 레벨이 FOV(4522)에 적용될 수 있다. 도시된 바와 같이, 서브 영역(4679)이 서브 영역(4677)보다 더 높은 검출 범위를 제공할 수 있는 서브 영역(4678)보다 더 높은 검출 범위를 제공할 수 있도록 FOV (4522)는 3개의 서브 영역(4677, 4678, 4679)을 포함할 수 있고, 이러한 서브 영역에 인가된 광 플럭스 레벨은 서브 영역(4677)으로부터 서브 영역(4679)으로 계속적으로 증가될 수 있다. 이러한 방식으로 이용 가능한 자원 (예를 들어, 광 버짓)을 재할당함으로써, 차량(4510)이 차량(4690)의 앞에서 병합하고 속도를 가속하기에 충분한 시간을 갖는지 여부를 결정하기에 충분한 범위에서 우측 접근 차량(4690)이 검출될 수 있다.
고속도로 주행에서 동적 조명 할당
LIDAR 시스템(100)은 차량 (예를 들어, 차량의 몸체 또는 임의의 다른 적절한 위치) 상에 통합될 수 있다. 전술한 바와 같이, LIDAR 시스템(100)은 LIDAR FOV의 상이한 부분에 제공된 광 플럭스의 양을 동적으로 제어할 수 있다. 후술되는 일 예시에서, 프로세서(118)는 차량이 고속도로를 따라 주행하고 있다는 지표(예를 들어, 차량이 도시 환경에서 보다 전형적으로 발견되는 보행자, 자전거, 및 다른 차량과 같은 교차하는 장애물과 마주칠 위험이 적은, 보다 고속으로 주행할 수 있는 경우)를 결정하거나 그렇지 않으면 수신할 수 있다. 이러한 지표에 응답하여, 프로세서(118)는 LIDAR FOV의 하나 이상의 스캔에 걸쳐 더 많은 광 플럭스가 FOV의 주변 영역보다 FOV의 중앙 영역에 제공될 수 있도록 이용 가능한 광 버짓을 할당할 수 있다. 이러한 광 플럭스의 할당은 차량 앞의 검출 범위를 증가시킬 필요가 있고, FOV의 주변 영역에서 장거리 또는 고해상도 검출 능력을 유지할 필요성이 적은 고속도로 주행에 적합할 수 있다. 프로세서(118)는 호스트 차량이 고속도로 환경을 떠났고, 예를 들어, 교차하는 물체와의 충돌의 위험이 더 클 수도 있는 비 고속도로 도로 또는 환경 (예를 들어, 도시 환경)에 진입한 것으로 결정하는 경우, 프로세서(118)는 고속도로 주행 중에 FOV의 중앙 영역에 가해지는 여분의 광 플럭스가 주변 영역에 재할당되도록 광 버짓을 재할당한다.
보다 구체적으로, 일부 실시예에서, LIDAR 시스템(100)의 프로세서(118)는 적어도 하나의 광원으로부터의 광의 광 플럭스를 FOV의 스캐닝 사이클에 걸쳐 변화시킬 수 있는 방식으로 적어도 하나의 광원(112)을 제어할 수 있다. 프로세서(118)는 또한 차량이 이동하는 도로의 위치에 일반적으로 대응하는 중앙 영역, 상기 도로의 우측 면적에 일반적으로 대응하는 우측 주변 영역, 및 상기 도로의 좌측 면적에 일반적으로 대응하는 좌측 주변 영역으로 분할될 수 있는 FOV를 스캔하기 위해 광원(112)으로부터의 광을 편향 시키도록 적어도 하나의 편향기(114)를 제어할 수 있다. 프로세서(118)는 차량이 고속도로 이동에 대응하는 모드에 있는 입력을 획득할 수 있고, 입력에 응답하여 프로세서(118)는 FOV의 스캐닝 중에 더 많은 광이 우측 주변 영역 및 좌측 주변 영역보다 중앙 영역으로 지향되도록 광 편향기(114)의 제어와 광원(112)의 제어를 함께 조정할 수 있다.
프로세서(118)는 임의의 적합한 소스로부터 호스트 차량이 고속도로를 주행하고 있다는 지표를 수신할 수 있다. 일부 경우, 이 정보는 GPS 수신기와 맵 서버 또는 맵 어플리케이션을 통해, 차량 네비게이션 시스템(4740)(도 47)과의 통신을 통해, 하나 이상의 카메라로부터의 이미지의 분석을 통해, LIDAR 시스템(100) 자체의 출력에 기초하여, 다른 LIDAR 시스템의 출력에 기초하여 획득될 수 있다. 예를 들어, 일부 실시예에서, 네비게이션 시스템(4730)은 고속도로 또는 비 고속도로로서의 도로의 상태가 결정될 수 있는 하나 이상의 맵을 원격 서버로부터 통합, 액세스, 또는 수신할 수 있다. 프로세서(118)는 도로가 네비게이션 시스템(4730)으로부터 직접적으로 고속도로인지 여부의 지표를 수신할 수 있다. 다른 경우에, 프로세서(118)는 네비게이션 시스템(4730)에 의해 사용된 맵 정보 (예를 들어, 도로 상태 인디케이터, 특정 도로와 연관된 속도 제한 등)와 연관된 하나 이상의 인디케이터에 기초하여 도로 상태를 결정할 수 있다. 일부 경우에, 프로세서(118)는 2개 이상의 센서 또는 정보 소스로부터의 정보의 조합에 기초하여 고속도로 또는 비고속도로로서 도로 상태를 결정할 수 있다. 예를 들어, 네비게이션 정보(4730)로부터 수신된 정보와 결합하여, 프로세서(118)는 GPS 수신기로부터 위치 정보, 차량 센서 (예를 들어, 속도계)로부터의 속도 정보, 카메라로부터의 시각 정보, (프로세서(118)가 기초하는 시스템을 포함하는) 하나 이상의 LIDAR 시스템들 또는 임의의 다른 적합한 소스로부터 깊이 맵 정보를 수신할 수 있으며, 이동되는 도로가 고속도로인지를 결정하기 위해 정보 소스들의 조합을 이용할 수 있다. 이러한 보조 정보 소스는 차량 속도, 차량 위치, 식별된 차선 표시, 식별된 랜드 마크, 식별된 도로 장벽, 교통 흐름의 방향, 도로 폭, 차선 폭, 차선 구성, 식별된 교통 표지, 식별된 신호등 등을 나타내는 정보를 전할 수 있다. 프로세서(118)는 이 정보 중 임의의 것을 단독으로 또는 조합하여 도로 상태를 검증할 수 있다.
도 47은 예시적인 개시된 실시예와 일치하는 LIDAR 시스템의 도움으로 고속도로 환경에서 이동하는 차량의 개략적인 도시를 제공한다. 차량(4710)은 LIDAR 시스템(100) 및 어떤 경우에는 네비게이션 시스템(4730)이 구비될 수 있다. 도시된 바와 같이, LIDAR FOV(120)는 중앙 영역(4720), 우측 주변 영역(4724), 및 좌측 주변 영역(4722)으로 나뉘어질 수 있다. 광 투영이기(112) 및 편향기(114)의 작동을 조정함으로써, 프로세서(118)는 (예를 들어, 스캐닝 사이클 동안 상이한 시간에 복수의 상이한 순간 위치를 통해 연속적으로 또는 불연속적으로 편향기를 이동함으로써) FOV(120)가 하나 이상의 스캐닝 사이클 동안 스캔되는 것을 야기할 수 있다. 예를 들어, 프로세서(118)는, 광 편향기(114)가 특정 순간 위치에 위치될 때, 광 빔의 부분은 광 편향기에 의해 광원(112)으로부터 LIDAR FOV의 물체를 향하여 편향되고, 상기 물체로부터의 광 빔의 부분의 반사는 편향기에 의해 적어도 하나의 센서(116)를 향하여 편향되도록, 광 편향기(114) 및 광원(112)을 조정할 수 있다. 일부 실시예에서, 2개 이상의 광원이 이용될 수 있다. 예를 들어, 복수의 광원이 편향기(114)에 조준될 수 있고, 프로세서(118)는 편향기(114)가 특정 순간 위치에 위치될 때, 복수의 광원으로부터의 광이 LIDAR FOV의 복수의 독립 영역을 향하여 투영되도록 편향기(114)를 제어할 수 있다.
이용 가능한 광 버짓은 적절한 방식으로 LIDAR FOV의 하나 이상의 부분에 할당될 수 있다. 일부 실시예에서, 프로세서(118)가 차량이 고속도로에서 이동하고 있다고 판단하는 경우, 프로세서(118)는 중앙 영역(4720)이 우측 주변 영역(4724) 또는 좌측 주변 영역(4722)에 제공되는 것보다 많은 광 플럭스를 수신하도록 LIDAR FOV의 부분들에 이용 가능한 광 버짓을 할당할 수 있다. 예를 들어, 프로세서(118)는 제1 스캐닝 사이클 동안, 제1 광 플럭스를 갖는 광이 중앙 영역(4720)으로 지향되도록 편향기(114)의 제어와 광원(112)의 제어를 함께 조정하도록 구성될 수 있다. 차량이 고속도로상에서 이동하고 있다고 결정한 후, 프로세서(118)는 제2 스캐닝 사이클 동안 제2 광 플럭스를 갖는 광이 중앙 영역(4720)으로 지향되고, 제2 광 플럭스가 제1 광 플럭스보다 크도록 광 할당을 바꿀 수 있다. LIDAR FOV의 주변 영역에 비해 LIDAR FOV의 중앙 영역에서 증가된 광 플럭스의 결과로서, 중앙 영역에서의 검출 범위는 주변 영역에서의 검출 범위보다 클 수 있다. 일부 경우, 프로세서(118)는 중앙 영역에서의 검출 거리가 우측 주변 영역 및 좌측 주변 영역에서의 검출 거리보다 적어도 2배 이상 크도록 광원(112)을 제어할 수 있다.
물론, LIDAR FOV는 3개 이상 또는 이하의 영역으로 세그먼트화될 수 있다. 또한, 세그먼트들 중 임의의 세그먼트는 복수의 서브 영역들로 더 분할될 수 있다. 또한, 프로세서(118)는 시야를 스캔하는 동안 더 많은 광이 복수의 서브 영역 중 다른 하나보다 복수의 서브 영역 중 하나에 지향되도록 구성될 수 있다.
호스트 차량이 고속도로에서 이동하고 있다는 결정에 기초하여 광 할당이 바뀔 수 있는 것처럼, 프로세서(118)는 차량이 고속도로를 빠져나갔다는 결정 또는 차량의 환경이 고속도로 환경으로부터 바뀌었다는 결정에 기초하여 광 버짓을 재할당 할 수 있다. 예를 들어, 차량이 고속도로부터 도시로 가는 것과 같은 도로 유형이 전이하는 경우에, 프로세서(118)는 이용 가능한 광 버짓을 재할당 할 수 있다. 예를 들어, 고속도로 환경에서 도시 환경으로 바뀔 때, 프로세서(118)는 (하나 이상의 이전 스캐닝 사이클과 비교하여) 중앙 영역(4720)을 향해 투영된 광 플럭스를 감소시킬 수 있고, (하나 이상의 이전 스캔과 비교하여) 하나 이상의 주변 영역에 인가된 광을 증가시킬 수 있다.
LIDAR FOV의 선택된 영역들에 이용 가능한 광 버짓의 그러한 할당은 공간적 광 스캐닝 패턴을 정의하는 것으로 지칭될 수 있다. 일부 실시예에서, 프로세서(118)는 차량이 이동하는 도로의 유형을 나타내는 데이터를 획득할 때 복수의 스캐닝 사이클과 연관된 공간적 광 스캐닝 패턴을 결정할 수 있다. 전술한 바와 같이, 도로 유형은 도시 도로, 고속도로, 분할되지 않은 도로, 방향 당 단일 차선을 갖는 도로, 방향 당 복수의 차선을 갖는 도로, 또는 대중 교통 차선이 있는 도로 중 적어도 하나를 포함할 수 있다. 그리고, 차량이 이동하는 도로 유형의 변화를 나타내는 데이터 (예를 들어, 고속도로에서 분할되지 않은 도로까지)를 획득하면, 이전 스캐닝 사이클에 투영된 광과 비교하여 더 적은 광이 중앙 영역으로 지향될 수 있고, 더 많은 광이 우측 주변 영역 및 좌측 주변 영역으로 지향될 수 있다.
프로세서(118)는 호스트 차량이 이동하는 도로 유형의 결정에 의존하지 않고 이용 가능한 광 버짓을 할당할 수 있을 뿐만 아니라, 검출된 주행 이벤트에 기초하여 이용 가능한 광 버짓을 할당할 수 있다. 예를 들어, 도 48a는 전술한 바와 같은 시나리오를 나타낸다. 프로세서(118)는 차량이 고속도로에 진입했다는 것을 결정할 수 있고, 이 이벤트의 결과로서, 프로세서(118)는 보다 많은 광 플럭스(예를 들어, 더 높은 광 전력 레벨)가 우측 또는 좌측 주변 영역과 비교하여 중앙 영역에 공급될 수 있도록 이용 가능한 광 버짓을 할당할 수 있다.
도 48b에서, 프로세서는 차량이 양 쪽의 빌딩에 의해 폐쇄 경계된 도로인 면적에 진입했는지를 결정할 수 있다. 이러한 시나리오는 예를 들어 도시 환경에서 발생할 수 있다. 도시 도로 설정에 진입하는 주행 이벤트의 검출에 기초하여, 프로세서(118)는 중심 영역에 공급되는 것보다 더 많은 광 플럭스를 좌측 및 우측 주변 영역에 공급되게 할 수 있다. 이러한 광 버짓의 할당은 차량 속도가 고속도로 속도보다 전형적으로 낮은 도시 환경에 적합할 수 있다 (즉, 차량의 전방의 검출 범위는 도시 환경에서 그다지 클 필요가 없으며 고속도로 환경에서 선호될 수 있음을 의미한다). 또한, 도시 환경에서 차량의 어느 한 쪽에 있는 영역 (예를 들어, 도시된 빌딩에 인접한 보도)에 상주할 수 있는 보행자와 마주칠 위험이 더 클 수 있다. 따라서, 도시 환경에서, 중앙 영역에 비해 LIDAR FOV의 주변 영역에서 검출 범위 및/또는 해상도 능력을 향상시키는 것이 유리할 수 있다.
도 48c는 LIDAR FOV의 특정 영역에 이용 가능한 광 버짓의 할당의 변경을 촉발할 수 있는 검출된 주행 이벤트의 다른 예시를 제공한다. 예를 들어, 도시된 바와 같이, 다른 차량(102)은 호스트 차량에 인접한 차선에서 검출될 수 있으며, 차량(102)과 호스트 차량 모두는 동일한 방향으로 이동하는 것으로 결정된다. 이러한 시나리오에서, 프로세서(118)는 호스트 차량의 전방 및 오른쪽 면적이 차량(102)이 위치되는 영역인 것처럼 관심 영역을 구성하는 것으로 결정할 수 있다. 차량(102)의 검출 및/또는 추적을 돕기 위해, 프로세서(118)는 우측 주변 영역이 가장 높은 레벨의 광 플럭스를 수신하고, 중앙 영역이 그 다음으로 높은 레벨의 광 플럭스를 수신하며, 좌측 주변 영역은 가장 낮은 레벨의 광 플럭스를 수신하도록 하기 위해 이용 가능한 광 버짓이 할당될 수 있다.
도 48d는 LIDAR FOV의 특정 영역들에 이용 가능한 광 버짓의 할당 변화를 촉발할 수 있는 검출된 주행 이벤트의 또 다른 예시를 제공한다. 예를 들어, 도시된 바와 같이, 다른 차량(102)은 차량(102)과 함께 호스트 차량에 인접한 차선에서 검출될 수 있고, 호스트 차량은 반대 방향으로 움직이는 것으로 결정된다. 이러한 시나리오에서, 프로세서(118)는 호스트 차량의 전방 및 좌측의 면적이 차량(102)이 위치되는 영역 (및 다가오는 교통량이 발견될 것으로 예상되는 곳)인 관심 영역을 구성한다고 결정할 수 있다. 차량(102)의 검출 및/또는 추적을 돕기 위해, 프로세서(118)는 좌측 주변 영역이 가장 높은 레벨의 광 플럭스를 수신하고, 중앙 영역이 그 다음으로 높은 레벨의 광 플럭스를 수신하며, 우측 주변 영역은 가장 낮은 레벨의 광 플럭스를 수신하도록 하기 위해 이용 가능한 광 버짓이 할당될 수 있다. 또한, 도 48d에 도시된 바와 같이, 좌측 주변 영역의 특정 서브 영역이 한정될 수 있고, 프로세서(118)는 (좌측 주변 영역 내에서조차도) 가장 높은 레벨의 광 플럭스가 특정 서브 영역에 공급되도록 할 수 있다. 일부 경우에, 좌측 주변 영역의 정의된 서브 영역은 검출된 차량(102)의 위치와 중첩될 수 있다.
프로세서(118)는 검출된 다른 주행 이벤트들에 기초하여 이용 가능한 광 버짓을 할당하거나 재할당 할 수 있다. 예를 들어, 일부 실시예에서, 광 버짓의 할당 또는 재할당을 정당화하는 검출된 주행 이벤트는 교통 관련 이벤트, 도로 관련 이벤트, 미리 정의된 시설에 대한 접근, 및 날씨 관련 이벤트 중 적어도 하나를 포함할 수 있다. 이러한 유형의 이벤트의 검출 또는 지표에 기초하여, 프로세서(118)는 공간적 광 스캐닝 패턴을 하나의 스캐닝 사이클에서 다른 스캐닝 사이클로 변경시킬 수 있다. 예를 들어, 프로세서(118)는 이전 스캐닝 사이클에서 우측 주변 영역의 적어도 부분에 지향된 것보다 더 많은 광이 우측 주변 영역의 적어도 부분에 지향되도록, 이전 스캐닝 사이클에서 좌측 주변 영역의 적어도 부분에 지향되었던 것보다 더 많은 광이 좌측 주변 영역의 적어도 부분에 지향되도록, 이전 스캐닝 사이클에서 중앙 영역의 적어도 부분에 지향되었던 것보다 더 많은 광이 중앙 영역의 적어도 부분에 지향되도록 공간적 광 스캐닝 패턴을 변경할 수 있다.
도 49는 현재 개시된 실시예와 일치하는 LIDAR 시스템을 작동하는 방법(4900)의 흐름도 표현을 제공한다. 상기 방법은 적어도 하나의 광원으로부터의 광의 광 플럭스를 시야의 스캐닝 사이클에 걸쳐 변화시킬 수 있는 방식으로 적어도 하나의 광원을 제어하는 단계(단계(4910))를 포함할 수 있다. 이 방법은 시야를 스캔하기 위해 적어도 하나의 광원으로부터 광을 편향시키도록 적어도 하나의 편향기를 제어하는 단계를 포함하며, 시야는 차량이 이동하는 고속도로에 일반적으로 대응하는 중앙 영역, 고속도로의 우측 면적에 일반적으로 대응하는 우측 주변 영역, 및 고속도로의 좌측 면적에 일반적으로 대응하는 좌측 주변 영역(단계(4920))으로 분할 가능하다. 단계(4930)에서, 프로세서(118)는 차량이 고속도로 이동에 대응하는 모드에 있다는 입력을 획득할 수 있으며, 이에 응답하여, 단계(4940)에서 프로세서(118)는 중앙 영역, 우측 주변 영역, 및 좌측 주변 영역을 포함하는 시야를 스캔하는 동안, 더 많은 광이 우측 주변 영역 및 좌측 주변 영역보다 중앙 영역에 지향되도록 적어도 하나의 광원의 제어와 적어도 하나의 광 편향기의 제어를 함께 조정할 수 있다.
주변광 레벨에 반응하는 Lidar 조명 변화
LIDAR 시스템은 상이한 주변광의 레벨을 가지는 여러 상이한 환경에서 사용될 수 있다. 또한, 주변광의 레벨은 단일 장면에서 한 번에 크게 다를 수 있다. 예를 들어, 장면의 일부는 음영 처리되고, 다른 부분은 태양 광 또는 다른 광원에 의해 조명될 수 있으며, 또한 현장의 다른 부분은 램프, 헤드라이트, 개방된 화재 등과 같은 주변광원을 포함할 수 있다. 이러한 주변광은 노이즈를 유발할 수 있으며, 이는 LIDAR 시스템의 서비스 품질 (quality of service, QoS)을 낮출 수 있다. LIDAR 시스템(100)이 높은 주변광 (예를 들어, 밝은 햇빛 또는 인공 광원)의 존재하에 작동하는 상황에서, LIDAR 시스템(100)은 주변 노이즈로부터 상당한 노이즈를 경험할 수 있다. 반면에, 만약 LIDAR 시스템(100)이 주변광이 적은 환경에서 작동한다면, 노이즈는 더 적을 수 있다.
기술된 바와 같이, 현재 개시된 실시예들과 일치하는 시스템 및 방법은 광 반사 데이터를 수집하고 LIDAR FOV에 관하여 부분 단위 기준, 픽셀 단위 기준, 빔 스팟 단위 기준으로 광 플럭스를 할당할 수 있다 (이하의 설명에서, 전술한 베이스들 중 임의의 하나와 관련하여 논의된 구현들이 다른 2 개의 베이스들에 관하여 필요한 부분만 약간 수정하여 구현될 수 있다는 것을 유의한다). 일부 예에서, LIDAR FOV의 특정 부분에 할당된 광 플럭스의 양은 FOV의 특정 영역에서 검출된 주변광의 양에 의존할 수 있다. 특히, 주어진 스캐닝 사이클에서 LIDAR FOV의 특정 부분 (예를 들어, 특정 픽셀)에 할당된 광 플럭스의 양은 동일한 스캐닝 사이클에서 FOV의 특정 영역에서 검출된 주변광의 양에 의존할 수 있다. 일부 예에서, 적어도 하나의 광 편향기(114)의 주어진 순간 위치에서 LIDAR FOV의 특정 부분 (예를 들어, 특정 픽셀)에 할당된 광 플럭스의 양은, 적어도 하나의 광 편향기(114)가 특정 순간 위치에 남아있는 동안 FOV의 특정 부분에서 검출된 주변광의 양에 의존할 수 있다 (예를 들어, 주변광의 검출과 할당된 광 플럭스의 방출 사이에서 간헐적인 FOV의 임의의 다른 부분으로의 어떠한 방출 없이). 예를 들어, FOV의 특정 영역의 주변광의 양이 낮게 결정되면, 보다 적은 양의 광 플럭스가 특정 영역에 공급될 수 있다. 한편, FOV의 특정 영역 내에서 보다 많은 주변광이 검출될 때, 그 영역에 제공되는 광 플럭스의 양이 증가될 수 있다. 검출된 주변광의 레벨에 기초하여 LIDAR FOV의 영역에 광 할당을 변화시킴으로써, LIDAR 시스템(100)의 작동에 대한 노이즈의 영향이 감소되거나 제거될 수 있다.
일부 실시예에서, 시야 (예를 들어, 도 50에 도시된 바와 같은 FOV(120))는 각각이 편향기(114)의 상이한 순간 위치에 대응하는 복수의 부분을 포함할 수 있다. 상기 부분들 각각은 임의의 적절한 크기를 가질 수 있고 및/또는 FOV(120)의 임의의 적절한 부분을 차지할 수 있다.
적어도 하나의 프로세서(118)는 도 50에 도시된 바와 같이, 픽셀 단위 기준으로 적어도 하나의 센서(116)로부터 신호를 수신할 수 있다. 예를 들어, 적어도 하나의 센서는 픽셀 단위 기준(예를 들어, 도 51에 도시된 바와 같이 FOV(120)의 픽셀 A1, B1, C1, A2 등)으로 FOV의 특정 부분으로부터 수집된 광을 검출하고, 각각의 픽셀에 대해 수집된 광에 대응하는 신호를 생성할 수 있다. 신호는 FOV로부터 수집된 다수의 광원을 나타낼 수 있다. 예를 들어, 수집되고 센서(116)에 제공되는 광의 한 구성 요소는 주변광을 포함할 수 있다. 센서(116)에 수집되고 제공되는 광의 다른 구성 요소는 FOV의 특정 부분에 투영되고 시야의 특정 부분에서 하나 이상의 물체에 의해 반사되는 적어도 하나의 광원(112)으로부터의 광을 포함할 수 있다. 특정 상황 (예를 들어, 물체가 멀리 있거나 낮은 반사율을 갖는 곳)에서, LIDAR FOV의 특정 부분으로부터 수집된 주변광은 LIDAR 조명으로부터 유래된 반사된 광보다 센서(116)에 제공된 광의 더 많은 부분을 설명할 수 있다. (예를 들어, 물체가 더 가깝거나 더 높은 반사율을 갖는) 다른 상황에서, LIDAR FOV의 특정 부분으로부터 수집된 주변광은 반사된 광보다 센서(116)에 제공된 광의 더 작은 부분을 설명할 수 있다. 예를 들어, (도 51의 흰색으로 도시된 FOV의 특정 영역에 의해 표시된) LIDAR FOV의 제1 부분에서, 주변광은 (도 51에서 음영으로 도시된 FOV의 특정 영역들로 표시된) FOV(120)의 제2 부분으로부터 수집된 반사된 광보다 FOV(120)로부터 수집된 광의 더 많은 부분을 차지할 수 있다. LIDAR FOV의 제1 부분 및 제2 부분은 각각 도 51에 도시된 것보다 LIDAR FOV의 더 많거나 더 적은 특정 영역을 각각 포함할 수 있음을 주목해야 한다. 예를 들어, 일부 실시예에서, 제1 및/또는 제2 부분은 각각 FOV(120)의 단일 특정 영역에 대응할 수 있거나 (도시된 바와 같이) 복수의 부분을 포함할 수 있다.
센서(116)의 출력에 기초하여, 프로세서(118)는 물체로부터 반사된 투영된 광의 검출과는 별도로 LIDAR FOV의 특정 부분의 주변광을 검출하도록 구성될 수 있다. 예를 들어, 일부 실시예에서, 프로세서(118)는 반사된 광이 예상되지 않을 때 센서(116)의 출력을 샘플링 할 수 있다. 예를 들어, 투영이기(112)로부터 FOV의 특정 부분을 향한 발광 이전에, 광은 아직 거기에 투영되지 않았기 때문에 반사된 광은 FOV의 특정 부분으로부터 예상되지 않을 것이다. 따라서, 센서(116)/프로세서(118)에 의해 감지된 광은 주변광에 대응한다고 가정될 수 있다. 유사하게, 광이 특정 부분에 투영된 후에, 광 투영으로부터 어떠한 반사도 예상되지 않도록 충분한 시간이 경과한 후에 (예를 들어, 특정 발광을 위한 LIDAR 시스템의 최대 기대 범위로부터 및 그로부터의 광의 비행 시간에 대응하는 시간보다 크거나 같은 시간에서), FOV의 특정 부분으로부터 모아진 광은 주변광에 기인할 수 있다. 일부 실시예에서, 광 투영이기(112)에 의한 발광 후에, 센서(116)는 발광에 뒤따르는 제1 감지 지속 기간에서 시야로부터의 광의 반사를 검출할 수 있다. 그리고 센서(116)는 발광에 후속하는 제2 감지 지속 기간에서 시야 내의 주변광 레벨을 측정할 수 있다. 이러한 시간에 센서(116)의 출력을 모니터함으로써, FOV의 특정 부분의 주변광 레벨이 결정될 수 있다.
선택적으로, 프로세서(118)는 특정 부분에 투영된 광이 하나 이상의 물체로부터 반사되고 센서(116)에 의해 수신되는 시간 동안 FOV의 특정 부분에서 주변광의 양을 결정하도록 구성될 수 있다. 예를 들어, 일부 경우에, 투영된 광은, 예를 들어, 센서(116)의 출력 또는 하나 이상의 다른 센서에 기초하여 배경 주변광으로부터 감지 및/또는 구별될 수 있는 하나 이상의 특성 (예를 들어, 파장, 변조 패턴, 펄스 지속 기간 등)과 연관될 수 있다. 일부 경우에, LIDAR 시스템(100)은 시야 내의 물체로부터의 광의 반사를 검출하도록 구성된 제1 센서 및 시야의 주변광을 측정하도록 구성된 제2 센서를 포함할 수 있다. 다른 경우에서, 센서(116)는 물체 및 주변광으로부터의 반사를 모두 검출할 수 있다. 이러한 방식으로 주변광을 반사된 광과 차별화하면, FOV의 특정 부분에 존재하는 주변광의 양의 결정을 가능하게할 수 있다. 일부 예시에서, (예를 들어, 정합 필터(matching filter)에 기초하여) LIDAR에 의해 방출된 광의 반사 신호가 되도록 프로세서(118)에 의해 결정된 수신된 광은 주변광 레벨의 추정을 제공하기 위해 전체적인 수신 신호로부터 감산될 수 있다.
일부 실시예에서, 프로세서(118)는 LIDAR FOV의 특정 부분에서 검출된 주변광과 연관된 소스 또는 광원의 유형을 식별하도록 구성될 수 있다. 예를 들어, FOV의 특정 부분과 연관된 감지된 광 정보를 수신한 후에, 프로세서(118)는 수신된 정보를 주변광의 다양한 소스와 연관된 미리 저장된 노이즈 레벨 데이터와 비교할 수 있다. 이러한 비교에 기초하여, 프로세서(118)는 주변광이 유래되었을 수 있는 광원의 유형을 식별할 수 있다. 또한, 프로세서(118)는 광원의 유형의 식별을 위해 주변광의 다른 특성(예를 들어, 편광, 변동 레벨) 및/또는 다수의 픽셀로부터의 정보(예를 들어, 물리적 크기 추정, 광원 간의 거리)를 이용할 수 있다. 광원의 유형의 식별은 나중에 물체 분류를 위해 사용될 수 있으며 (예를 들어, 헤드 라이트는 헤드 라이트 사이의 거리에 기초하여 물체가 자동차 또는 세미 트레일러 트럭임을 나타낼 수 있음), 그 반대의 경우도 가능하다 (물체의 특성은 광원을 식별하는데 이용될 수 있다, 예를 들어, 빌딩의 높은 광원은 불이 켜진 창문으로 식별될 수 있음).
주변광 레벨이 LIDAR FOV의 특정 영역에서 감지되는 일부 실시예에서, 프로세서(118)는 감지된 주변광 레벨에 기초하여 FOV의 특정 부분에 투영될 광의 할당을 결정할 수 있다. 예를 들어, 만약 감지된 주변광 레벨이 미리 결정된 임계값/값 이하인 경우, 프로세서(118)는 추가의 광이 특정 FOV 부분에 투영될 필요가 없다고 결정할 수 있다. 다른 한편으로, 감지된 주변광 레벨이 미리 결정된 임계값/값 이상이면, 프로세서(118)는 추가 광이 특정 FOV 부분에 투영되어야 한다고 결정할 수 있다. 그러한 경우에, 프로세서(118)는 추가 광 플럭스가 FOV의 특정 부분에 공급되도록 할 수 있다.
도 51의 다이어그램으로 표현된 단지 하나의 예시로서, FOV의 제1 부분은 FOV의 15개의 특정 영역을 포함하고, FOV의 제2 부분은 25개의 특정 영역을 포함한다. 제2 부분의 영역은 모두 미리 결정된 레벨 이하의 주변광 레벨을 갖도록 결정되었다. 따라서, 이들 영역에서, 단지 하나의 광 펄스 (또는 특정 FOV 영역에 제공되는 광 플럭스의 양에 영향을 미치는 임의의 다른 유형의 광 투영) 만이 FOV의 제2 부분의 영역에 할당된다. 한편, 제1 부분의 FOV의 각 영역은 미리 결정된 주변광 레벨 임계값/값보다 높은 주변광 레벨을 갖도록 결정되었다. 그 결과, 프로세서(118)는 3개의 광 펄스를 FOV의 제2 부분에 포함된 영역들 각각을 향하여 투영되도록 할당되었다. 물론, FOV의 영역에 제공된 광 펄스의 개념은 단지 예시적이다. 임의의 다른 유형의 광 투영 기술이 FOV의 제1 부분의 영역에서 FOV의 제2 부분의 영역에 제공된 광량에 비하여 광 플럭스를 증가시키기 위해 사용될 수 있다.
또한, 각각의 스캐닝 사이클 동안 FOV의 상이한 부분들 (예를 들어, 상이한 픽셀들)에 제공될 플럭스의 양을 결정하기 위한 주변광 레벨의 검출에 추가하여, 다른 고려 사항들이 사용될 수 있음에 유의한다. 예를 들어, 프로세서(118)는, 만약 그 부분이 관심이 없는 미리 정의된 영역에 포함되는 경우, 광원이 검출되는 부분에 추가의 광을 할당하지 않기로 결정할 수 있다. 프로세서(118)는 FOV의 부분에서 결정된 주변광 레벨의 정보를 그 부분의 다른 노이즈 레벨을 나타내는 정보 또는 플럭스 레벨을 결정하는데 유용한 본 개시에 개시된 (동일한 스캐닝 사이클로부터의) 임의의 다른 유형의 정보와 조합할 수 있다.
프로세서(118)가 FOV의 특정 영역에 할당하는 광량은 또한 특정 영역에서 검출된 주변광과 연관된 결정된 유형의 광원에 의존할 수 있다. 예를 들어, 주변광이 예를 들어 전기 램프로부터 보다는 태양으로부터 비롯한 것으로 결정되면, 보다 많은 광이 특정 영역에 할당될 수 있다. 물론, 그 반대도 사실일 수 있다.
FOV (예를 들어, 도 50의 FOV(120))를 스캔하기 위해, 적어도 하나의 프로세서(118)는 적어도 하나의 광 편향기가 특정 순간 위치에 위치될 때, 광 빔은 적어도 하나의 광 편향기에 의해 적어도 하나의 광원으로부터 시야를 향하여 편향되고, 상기 시야의 물체로부터의 반사는 적어도 하나의 광 편향기에 의해 적어도 하나의 센서를 향하여 편향되도록 적어도 하나의 광 편향기 및 적어도 하나의 광원을 조정할 수 있다. 따라서, 적어도 하나의 광 편향기는 시야를 향하여 광 빔을 지향할 수 있고, 또한 시야로부터 반사를 수신할 수도 있다. 예를 들어, 도 1a, 도 2b, 및 도 2c는 편향기가 시야를 향하여 광 빔을 지향하고 또한 시야로부터 반사를 수신하는 예시를 묘사한다. 특정 양태에서, 반사는 시야를 향하여 지향되는 광 빔에 의해 야기될 수 있다. 다른 실시예에서, 적어도 하나의 광원으로부터의 광 빔은 시야로부터 반사를 수신하는 적어도 하나의 다른 광 편향기로부터 떨어진 적어도 하나의 광 편향기에 의해 시야를 향하여 지향될 수 있다. 예를 들어, 도 2a는 하나의 편향기가 광빔을 시야를 향하여 지향하고, 별개의 편향기가 시야로부터 반사를 수신하는 예시를 묘사한다.
일부 실시예에서, 센서(116)와 연관된 감도 레벨은 검출된 주변광 및/또는 광원이, 예를 들어 LIDAR FOV의 특정 영역에서 검출되는지 여부에 기초하여 (예를 들어, 동일한 스캐닝 사이클 동안, 그러나 꼭 그런 것은 아님) 제어될 수 있다. 예를 들어, 프로세서(118)는 센서(116)로부터 수신된 정보에 기초하여 LIDAR FOV의 특정 부분의 광원의 존재를 식별하도록 구성될 수 있다. 이러한 광원의 식별에 응답하여, 프로세서(118)는 LIDAR FOV의 특정 부분으로부터의 광 반사에 대한 센서 감도를 변경할 수 있다.
전술한 바와 같이, 보다 많은 주변광이 FOV의 특정 영역 내에서 검출되기 때문에, 노이즈의 영향을 감소 또는 제거하기 위해 그 영역에 제공되는 광 플럭스의 양이 증가될 수 있다. 적어도 하나의 프로세서(118)는 시야(예를 들어, 도 50의 시야(120))의 부분을 향하여 더 높은 광 플럭스를 투영하기 위해 적어도 하나의 광원(예를 들어, 도 50의 광원(112))을 야기할 수 있다. FOV의 특정 부분을 향하여 투영된 더 높은 광 플럭스는 신호 대 노이즈 비율을 개선할 수 있고 (또는, 그렇지 않으면, 예를 들어 상술한 바와 같이 FOV의 이 부분에서 검출 확률을 개선), 따라서 시야의 부분에 위치된 물체에 대한 QoS를 증가시킬 수 있다.
적어도 하나의 프로세서(118)는 또한 시야의 부분에서 적어도 하나의 별개의 관심 영역의 식별을 획득할 수 있고, 관심 영역에서 광 플럭스를 증가시킬 수 있다. 예를 들어, 광 플럭스는 입체각 당 광 펄스의 개수 증가, FOV 부분 대비 방사 조도 증가, 추가 광 펄스 방출, 픽셀 당 전력 증가, 단위 시간 당 추가 광자 방출, 특정 시간 기간 동안 집계된 에너지 증가, 생성된 포인트 클라우드 모델에서 데이터 포인트 당 추가 광자 방출, 생성된 포인트 클라우드에서 데이터 포인트 당 집계된 에너지 증가, 파장 변경, 광 펄스의 진폭 및/또는 주파수 증가, 또는 증가하는 광 플럭스의 임의의 다른 특성에 의해 증가될 수 있다. 일부 경우에, 관심 영역은 적어도 하나의 미리 결정된 특성 (예를 들어, 주변광 레벨, 광원의 유형, 밤 또는 낮시간 작동(밤에 헤드라이트를 나타내는 주변광원) 등)을 충족시키는 주변광의 레벨을 갖는 것으로 결정된 LIDAR FOV의 특정 영역일 수 있다.
시야의 부분에서 특정 관심 영역은 또한 GPS 유닛, 차량 네비게이션 시스템, 레이더, LIDAR, 및 카메라 등 중 적어도 하나로부터 수신된 정보에 기초하여 식별될 수 있다. 식별에 기초하여, 적어도 하나의 프로세서(118)는 적어도 하나의 광원 (예를 들어, 도 50의 광원(112))이 시야의 다른 부분에 투영된 것보다 시야의 부분을 향하여 더 높은 광 플럭스를 투영하도록 할 수 있다. 예를 들어, 카메라로부터의 신호는 LIDAR 시스템(100)이 밝은 환경 (예를 들어, 광원 아래 또는 태양 아래)에 있음을 나타낼 수 있다. 이러한 광원과 연관된 높은 레벨의 노이즈를 보완하기 위해, 적어도 하나의 프로세서(118)는 광원(112)이 LIDAR 시야의 부분을 향하여 더 높은 광 플럭스를 투영하도록 할 수 있다.
FOV의 부분을 향해 더 많은 광을 투영하기 위해, 적어도 하나의 프로세서(118)는 적어도 하나의 광원(112)이 더 많은 광 펄스를 투영하도록 할 수 있다. 예를 들어, 적어도 하나의 프로세서(118)는 적어도 하나의 광원으로부터 펄스의 타이밍을 변경할 수 있다. 부분의 광 펄스의 개수를 증가시키기 위해, 적어도 하나의 프로세서는 펄스의 타이밍을 단축시킬 수 있다. 추가적인 예시로서, 프로세서(118)는 적어도 하나의 광원으로부터 펄스의 전력 레벨을 대안적으로 또는 동시에 변화시킬 수 있다. 또 다른 추가적인 예시에서, 프로세서(118)는 적어도 하나의 광원으로부터 펄스의 진폭 및/또는 주파수를 대안적으로 또는 동시에 변화시킬 수 있다. 예를 들어, 도 51에서, 시스템은 픽셀 당 하나의 광 펄스를 디폴트로 투영하도록 결정할 수 있다. FOV(120)의 제1 부분은 더 높은 주변광을 포함할 수 있고, 수신된 신호는 미리 결정된 임계값보다 클 수 있기 때문에, 전술한 바와 같이 픽셀 당 하나 대신 3개의 광 펄스가 FOV의 제1 부분에 투영될 수 있다. 일부 실시예에서, 도 51의 FOV의 제1 부분의 영역으로 투영된 광의 세기는 도 51의 FOV의 제2 부분에 제공된 광의 세기보다 클 수 있다.
또한, 프로세서(118)는, 단일 스캐닝 사이클에서, 도 51에서 FOV의 제2 부분을 향해 투영된 입체각 당 광 펄스의 개수보다 더 많은 입체각 당 광 펄스가 FOV의 제1 부분을 향해 투영되도록 광 투영이기(112)와 연관된 광원 파라미터를 변경하도록 구성될 수 있다. 일부 경우에, 심지어 LIDAR FOV의 특정 영역에 디폴트 레벨의 광을 제공하는 것보다, 프로세서(118)는 LIDAR FOV에 대한 적어도 하나의 단일 스캐닝 사이클 동안, 도 51에 도시된 시야의 제2 부분을 향해 어떠한 광도 투영되지 않도록 광 투영이기(112)와 연관된 광원 파라미터를 변경하도록 구성될 수 있다. 다른 예시에서, 프로세서(118)는 또한 제1 부분을 향하여 투영된 광이 제2 부분을 향하여 투영된 광과 상이한 파장에 있도록 광원 파라미터를 변경하도록 구성될 수 있다.
도 52는 LIDAR 시스템을 사용하여 물체를 검출하기 위한 예시적인 방법 (5200)을 도시한다. 단계(5201)에서, 프로세서(118)는 시야(예를 들어, 도 1a 및 도 2a의 시야(120))의 스캔에 걸쳐 광 플럭스를 변화시킬 수 있는 방식으로 적어도 하나의 광원(예를 들어, 도 1a의 광원(112), 도 2a의 광원(112)의 레이저 다이오드(202), 및/또는 도 2b의 복수의 광원(102))을 제어할 수 있다. 단계(5202)에서, 적어도 하나의 프로세서(118)는 시야를 스캔하기 위해 적어도 하나의 광 편향기 (예를 들어, 도 1a의 광 편향기(114), 도 2a의 편향기(114A) 및/또는 편향기(114B), 및/또는 도 2b의 일방향 편향기(214))를 제어한다. 예를 들어, 프로세서(118)는 시야를 스캔하기 위해 적어도 하나의 광 편향기의 기계적 이동을 야기할 수 있다. 대안적으로 또는 동시에, 프로세서(118)는 시야를 스캔하기 위해 적어도 하나의 편향기에서 압전기 또는 열전기 변화를 유도할 수 있다. 일부 실시예에서, 시야의 단일 스캐닝 사이클은 스캐닝 사이클 동안 적어도 하나의 광 편향기가 순간적으로 복수의 위치에 위치되도록 적어도 하나의 편향기를 이동시키는 단계를 포함할 수 있다. 예를 들어, 적어도 하나의 광 편향기는 연속적인 스위프로 이동하기보다는 복수의 위치 중 하나로부터 다른 위치로 (선택적으로 추가적인 위치 및/또는 반복과 함께) 스캐닝 사이클 동안 이동될 수 있다.
단계(5203)에서, 적어도 하나의 프로세서(118)는 픽셀 단위 기준으로 적어도 하나의 센서 (예컨대, 도 51의 감지 유닛(106))로부터 신호를 수신한다. 예를 들어, 신호는 주변광 및 시야 내의 물체에 의해 반사된 적어도 하나의 광원으로부터의 광 중 적어도 하나를 나타낼 수 있다. 단계(5204)에서, 적어도 하나의 프로세서(118)는 수신된 정보로부터 주변 노이즈를 야기하고 적어도 하나의 광원(예를 들어, 도 1a의 광원(112), 도 2a의 광원(112)의 레이저 다이오드(202), 및/또는 도 2b의 복수의 광원(102))에 광 플럭스의 레벨을 할당하도록 결정하는 시야의 부분에서 광원의 유형을 식별할 수 있다. 단계(5205)에서, 전술한 바와 같이, 적어도 하나의 프로세서(118)는 시야(예를 들어, 도 1a 및 도 2a의 시야(120))의 부분을 향하여 더 높은 광 플럭스를 투영하도록 적어도 하나의 광원 (예를 들어, 도 1a의 광원(112), 도 2a의 광원(112)의 레이저 다이오드(202), 및/또는 도 2b의 복수의 광원(102))을 야기할 수 있다. 예를 들어, 적어도 하나의 프로세서(118)는 시야의 다른 부분으로 이동하기 전에 (예를 들어, 적어도 하나의 편향기는 여전히 동일한 순간 위치에 있는 동안) 시야의 부분을 향하여 더 높은 광 플럭스를 투영하도록 적어도 하나의 광원을 야기할 수 있다.
Lidar의 온도 기반 제어
LIDAR 시스템에서는 구성 요소 자체의 손상을 방지하고 안전상의 이유로 시스템 구성 요소의 온도를 조절하는 것이 중요할 수 있다. 또한 LIDAR 시스템의 일부 구성 요소는 온도 범위를 초과할 때 최적이 아닌 성능을 제공할 수 있으므로, 따라서 이는 LIDAR 시스템의 작동을 수정하여 그러한 차선의 조건에서 제공될 수 있는 성능을 최적화하는 것이 중요하다. 일부 실시예에서, LIDAR 시스템은 차량에 사용될 수 있다. LIDAR 시스템(100)은 차량의 환경에 있는 FOV(120) 내의 하나 이상의 물체를 조명하기 위해 FOV(120)를 향하여 광을 투영하기 위한 하나 이상의 광원(112)을 포함할 수 있다. LIDAR 시스템(100)은 광원(112)을 제어함으로써 FOV(120)의 하나 이상의 부분의 스캔에 걸쳐 광 플럭스를 변화시키는 하나 이상의 프로세서(118)를 포함할 수 있다. FOV(120)의 스캐닝 동안, 하나 이상의 LIDAR 시스템 구성 요소로부터 열이 방사될 수 있다. 시스템 구성 요소는 하나 이상의 광원, 편향기, 센서, 프로세서, 및/또는 기타 LIDAR 시스템 구성 요소를 포함할 수 있다. 열은 또한 LIDAR 시스템(100)이 설치된 차량으로부터 방사될 수 있다 (특히, LIDAR 시스템이 차량의 후드 아래와 같이 고온 및/또는 환기가 어려운 위치에 설치되는 경우). 또한 열은 날씨 또는 기타 주변 상태 (예를 들어, 창고 내 주행)으로 인해 발생할 수 있다. 또한, LIDAR 시스템(100)은 저온에 민감할 수 있으며, 이는 유사한 원인들로부터 또한 발생할 수 있다.
프로세서(118)는 하나 이상의 온도 센서를 통해 하나 이상의 구성 요소의 온도가 임계 온도를 초과하는 것을 나타내는 정보를 수신할 수 있다. 임계 온도는 프로세서에 의해 동적으로 결정될 수 있거나 고정된 미리 설정된 값일 수 있다. 임계 온도는 구성 요소 또는 시스템이 과열될 위험이 있는 온도 또는 그 이상일 수 있다. 일부 실시예에서, 임계 온도는 시스템 또는 시스템 구성 요소가 과식의 위험에 처해있는 온도의 백분율 일 수 있다. 예를 들어, 임계 온도는 시스템 또는 시스템 구성 요소가 과식의 위험에 처하는 온도의 80% 일 수 있다. 만약 시스템 또는 구성 요소가 과열되면, LIDAR 시스템이 손상되고, 화재 위험이 발생할 수 있으며, 및/또는 시스템 기능이 손상될 수 있다. 만약 하나 이상의 시스템 구성 요소들의 검출된 온도가 임계값을 충족하거나 및/또는 초과한다면, 프로세서(118)는 FOV(120)의 2개의 부분 간의 조명비를 수정하여 하나 이상의 후속 스캐닝 사이클 동안 FOV(120)에 더 적은 광이 전달되도록 한다.
전술한 바와 같이, 온도 임계값은 동적으로 결정될 수 있으며, LIDAR 시스템(100)의 다양한 구성 요소의 상태, 그것이 설치된 차량의 다양한 구성 요소의 상태, 및 다른 파라미터에 기초하여 수정될 수 있다. 또한 온도 임계값은 측정된 온도와 관련 될 수 있지만, 또한 다른 온도 기반 파라미터(예를 들어, 시간 경과에 따른 온도 변화, 다른 위치에서 측정된 복수의 온도 등)와 관련될 수도 있다는 것을 유의한다. 프로세서(118)가 이러한 복잡하고 및/또는 시간 의존적인 온도 임계값를 구현하는 구현에서, 프로세서(118)는 온도 결정 룰을 구현하는 것으로 간주될 수 있다. 프로세서(118)는 온도 임계값이 초과되는 때 극도로 높은 온도 및/또는 온도 상승 속도가 측정되도록 결정함으로써 LIDAR 시스템의 고온을 관리하도록 구성될 수 있다. 프로세서(118)는 온도 임계값이 초과되는 때 극도로 낮은 온도 및/또는 너무 빠른 온도 하강 속도가 측정되도록 결정함으로써 LIDAR 시스템의 저온을 관리하도록 구성될 수 있다.
도 53은 본 발명의 실시예에 따른 LIDAR 시스템의 개략도이다. 예를 들어, 도시된 바와 같이, LIDAR 시스템(5300)은 광원(5310), 센서 조립체(5340), 및 온도 감지 유닛(5380)을 포함할 수 있다. 일부 실시예에서, LIDAR 시스템(5300)은 LIDAR 시스템(100) 및 온도 감지 유닛(5380)의 구성 요소 전부 또는 일부를 포함할 수 있다. 일부 실시예에서, LIDAR 시스템(100)은 온도 감지 유닛(5380)을 포함할 수 있다. 온도 감지 유닛(5380)은 개별 시스템 구성 요소들의 온도 및/또는 LIDAR 시스템(5300)의 전체적인 온도를 검출하도록 구성될 수 있다.
일부 실시예에서, LIDAR 시스템(5300)은 센서 인터페이스(5350), 광원 제어기(5360), 및 온도 프로세서(5370)를 포함하는 제어 시스템(5300)을 포함할 수 있다. 온도 프로세서(5370)는 선택적 온도 검출기(5380) (또는 호스트로부터의 외부 온도 센서와 같은 다른 소스들로부터) 로부터 온도 정보를 수신할 수 있고, 수신된 정보를 처리하여 하나 이상의 시스템 구성 요소 또는 LIDAR 시스템(5300)의 온도가 임계 온도를 초과하는지 결정한다. 임계 온도가 초과되면 (예를 들어, 특정 스캐닝 사이클 동안), 온도 프로세서(5370)는 FOV의 두 부분 사이의 조명비를 수정하기 위해 광원 제어기(5360)와 통신할 수 있고, 따라서 더 적은 광이 FOV 후속 스캐닝 사이클동안 FOV에 전달되며, 이에 따라 하나 이상의 시스템 구성 요소 및/또는 LIDAR 시스템(5300)의 온도를 감소된다. 일부 실시예에서, LIDAR 시스템(5300)은 임계값을 만족하거나 초과하는 온도를 갖는 시스템 구성 요소를 냉각시키기 위한 냉각 구성 요소를 포함할 수 있다.
일부 실시예에서, 프로세서(118)는 FOV의 스캐닝 사이클 동안 하나 이상의 광 편향기(114)가 하나 이상의 상이한 순간 위치에 위치되도록 하나 이상의 광 편향기(114)를 제어하도록 구성될 수 있다. 또한, 프로세서(118)는 하나 이상의 광 편향기(114)가 특정 순간 위치에 위치될 때, 광 빔의 부분이 편향기(114)에 의해 광원(112)으로부터 FOV(120)의 물체를 향하여 편향되도록 하나 이상의 광 편향기(114) 및 하나 이상의 광원(112)을 또한 조정할 수 있다. 물체로부터의 광 빔의 일부의 반사는 하나 이상의 편향기(114)에 의해 하나 이상의 센서(116)를 향하여 편향될 수 있다. 일부 실시예에서, 하나 이상의 광원(112)은 하나 이상의 광 편향기(114)를 조준할 수 있다. 프로세서(118)는, 광 편향기(1140)가 특정 순간 위치에 위치될 때, 하나 이상의 광원(112)으로부터의 광은 FOV(120)의 몇몇 독립 영역을 향하여 투영될 수 있도록 하나 이상의 광 편향기(114)를 제어할 수 있다.
일부 실시예에서, 프로세서(118)는 온도 정보에 기초하여, FOV의 단일 스캐닝 사이클에서의 공간적 광 분포를 결정할 수 있고, 더 많은 광이 FOV의 제2 부분보다 FOV의 제1 부분을 향해 투영되도록 조명비를 수정할 수 있다. 일부 실시예에서, 프로세서(118)는, 온도 정보에 기초하여, 하나 이상의 후속 스캐닝 사이클 동안 이전 스캐닝 사이클에 투영된 것과 동일한 광량이 FOV의 부분을 향하여 투영되도록 하나 이상의 광원(112) 및 하나 이상의 광 편향기(114)의 제어를 조정할 수 있다. 일부 실시예에서, 프로세서(118)는, 온도 정보에 기초하여, FOV의 제2 부분을 향하는 것보다 많은 광 펄스를 제1 부분을 향하여 투영하도록 하나 이상의 광원(112) 및 하나 이상의 광 편향기(114)의 제어를 조정할 수 있다. 일부 실시예에서, 프로세서(118)는, 온도 정보에 기초하여, 하나 이상의 스캐닝 사이클에서 FOV의 제1 부분을 조명하기 위한 스캐닝 사이클의 속도 및 FOV의 제2 부분을 조명하기 위한 스캐닝 사이클의 속도를 동적으로 조절하도록 하나 이상의 광원(112) 및 하나 이상의 광 편향기(114)의 제어를 조정할 수 있다. 스캐닝 사이클을 조절하는 것은 하나 이상의 시스템 구성 요소의 온도를 낮출 수 있다. 일부 실시예에서, 프로세서(118)는 일단 시스템 또는 하나 이상의 구성 요소의 온도가 임계 온도보다 낮은 값으로 복귀하면 LIDAR 시스템(100)의 설정을 회복할 수 있다.
일부 실시예에서, 프로세서(118)는 FOV의 부분에서 관심 영역을 식별할 수 있고, 하나 이상의 후속 스캐닝 동안, 관심 영역을 포함하는 FOV 부분을 향하여 더 많은 광이 지향되도록 온도 정보에 기초하여 FOV의 부분과 FOV의 다른 부분 사이의 를 수정할 수 있다. 일부 실시예에서, 프로세서(118)는 FOV의 부분에서 비관심 영역을 식별할 수 있다. 관심 영역의 결정 및 온도 정보에 기초하여, 관심이 적거나 비관심 영역으로 결정된 LIDAR FOV의 영역보다 많은 광 플럭스가 관심 영역에 할당될 수 있다. 결과적으로, 관심 영역의 조명 (예를 들어, 상이한 스캐닝 속도, 전력 레벨, 광 세기, 광 플럭스, 펄스 지속 기간, 펄스 개수 등)은 투영된 광의 광 경로의 LIDAR 시스템의 하나 이상의 구성 요소(예를 들어, 편향기(114) 등)에서 국부적인 가열을 증가시킬 수 있다. 따라서, 여기에 기술된 광 할당 기술을 통한 온도 관리는 관심 영역이 조명될 때 시스템 구성 요소의 특정 부분에 대해 보다 중요하게 될 수 있다.
일부 실시예에서, 프로세서(118)는 LIDAR 시스템(100)의 하나 이상의 구성 요소 (또는 이들 구성 요소의 하나 이상의 부분)와 연관된 온도가 임계 온도를 초과하는 정보를 수신할 수 있다. 프로세서(118)는 유선 또는 무선 연결을 통해 온도 센서(5380)와 같은 온도 감지 구성 요소를 통해 온도 정보를 수신할 수 있다. 일부 실시예에서, 프로세서(118)는 하나 이상의 시스템 구성 요소의 온도가 임계값을 초과하는, 하나 이상의 추가 프로세서를 포함할 수 있는 차량 제어기로부터 정보를 수신할 수 있다.
일부 실시예에서, 프로세서(118)에 의해 수신된 온도 정보는 차량 외부 환경의 온도에 관한 정보, 차량의 엔진 열에 관한 정보, 하나 이상의 광원(112)의 온도에 관한 정보, 및/또는 프로세서(118)를 포함하는 하나 이상의 프로세서의 온도에 관한 정보를 포함할 수 있다.
일부 실시예에서, 프로세서(118)는 차량 주위 환경의 온도에 관한 정보에 기초하여 임계 온도에 대한 값을 결정할 수 있다. 예를 들어, 더운 날에는 태양으로부터의 외부 열 또는 LIDAR 시스템(100)을 둘러싸고있는 공기로부터의 외부 열을 설명하기 위해 임계 온도가 낮아질 수 있다.
일부 실시예에서, 프로세서(118)는 하나 이상의 시스템 구성 요소의 온도가 온도 임계값을 초과하는 경우 FOV의 일부에서 해상도를 감소시킬 수 있다. 해상도는 조명이 적은 FOV 면적에서 감소될 수 있지만, 검출 거리는 원래 해상도로 달성되는 검출 거리와 동일할 수 있다. 일부 실시예에서, 더 먼 검출 거리는 원래의 해상도보다 더 낮은 해상도로 달성된다.
도 54는 LIDAR 시스템(100)의 하나 이상의 구성 요소들의 온도를 검출하기 위한 예시적인 프로세스(5400)의 예시적인 흐름도이다. 단계(5402)에서, LIDAR 시스템(100)은 초기 스캐닝 속도로 스캐닝 사이클을 시작한다. 일부 실시예에서, 단계(5402)는 각각의 스캐닝 사이클 동안 오히려 미리 결정된 간격으로 발생하지 않을 수 있다. 다른 실시예에서, 단계(5402)는, 예를 들어, LIDAR 시스템이 켜지거나 또는 개시될 때 스캐닝 사이클 외부에서 발생할 수 있다. 단계(5404)에서, 프로세서(118)는 하나 이상의 시스템 구성 요소의 온도를 나타내는 정보를 하나 이상의 온도 센서(5380)로부터 수신할 수 있다. 프로세서(118)는 단계(5404)에서 시스템 구성 요소의 온도가 임계 온도를 충족시키거나 초과하는지 여부를 결정할 수 있다. 임계 온도가 충족되지 않으면, 구성 요소 또는 구성 요소들은 과열 (또는 택일적으로 동결)의 위험이 없으며, LIDAR 시스템(100)은 구성 요소의 온도를 변경하는 조치없이 후속 스캐닝 사이클을 실행할 수 있다. 임계 온도가 충족되거나 초과되면, 프로세서(118)는 FOV(단계 (5408))의 전체적으로 광을 적게 방출하도록 LIDAR 시스템(100)을 조절함으로써 구성 요소의 온도를 제한(예를 들어, 감소)하는 작용을 할 수 있고, 이에 따라 구성 요소의 온도를 감소시킬 수 있다. 일부 실시예에서, 프로세서(118)는 구성 요소의 온도가 임계 온도에 도달하는 것을 방지하도록 작용할 수 있다. 일부 실시예에서, 프로세서(118)는 후속 스캐닝 사이클 동안 FOV의 부분 간의 조명비를 조절할 수 있다. 어떤 구성 요소가 과열될 위험에 기초하여, 프로세서(118)는 상이한 열 감소 기술을 채택할 수 있다. 일부 실시예에서, 프로세서(118)는 후속 스캐닝 사이클에서 스캐닝 속도를 감소시킬 수 있다. 일부 실시예에서, 프로세서(118)는 후속 스캐닝 사이클에서 해상도를 감소시킬 수 있다. 다른 실시예에서, 프로세서(118)는 과열되거나 과열될 위험이 있는 구성 요소를 냉각시키기 위해 냉각 구성 요소를 제어할 수 있다. 다른 실시예에서, 프로세서(118)는 동결되거나 동결될 위험이 있는 구성 요소를 가열하기 위해 가열 구성 요소를 제어할 수 있다.
도 55는 임계 온도를 결정하고 차량의 LIDAR 시스템(100)의 하나 이상의 구성 요소의 온도를 검출하는 예시적인 프로세스(5500)의 예시적인 흐름도이다. 5502에서, LIDAR 시스템(100)은 구성 요소 온도를 결정하는 프로세스를 시작한다. 프로세서(118)는 온도 센서(5380)와 같은 하나 이상의 센서로부터 하나 이상의 시스템 구성 요소, 차량 엔진, 및/또는 차량 주위 환경의 온도를 나타내는 온도 정보를 수신할 수 있다. 단계(5504)에서, 프로세서(118)는 상술한 온도 센서들 중 하나 또는 하나로부터 정보를 수신할 수 있다. 단계(5506)에서, 프로세서(118)는 차량 엔진 온도, 차량 내부 온도, 및/또는 차량 주변 환경 온도에 기초하여 시스템 구성 요소에 대한 적절한 임계 온도를 결정하기 위해 알고리즘 또는 다른 계산 방법을 사용할 수 있다. 계산된 임계 온도는 또한 구성 요소가 차선으로 수행하기 시작하는 온도를 설명할 수 있다. 프로세서(118)는 단계(5508)에서 구성 요소 온도가 계산된 임계 온도 이상인지 여부를 결정할 수 있다. 온도가 임계값을 충족하지 않는다면, 프로세서(118)는 온도가 다음에 평가될 때까지 어떠한 동작도 취하지 않을 수 있다. 프로세스(5500)는 LIDAR 시스템(100) 스캐닝 사이클과 독립적인 미리 결정된 시간 간격에서 발생할 수 있다. 계산된 임계 온도는 각 스캐닝 사이클 동안 계산되거나 또는 다른 간격으로 반복적으로 계산될 수 있다. 예를 들어, 임계값은 5분, 30분, 2시간, 등마다 계산될 수 있다.
구성 요소 온도가 임계 온도보다 크거나 같으면, 프로세서(118)는 단계(5510)에서 FOV에서 더 적은 광을 방출하도록 장면 투영 방식을 수정할 수 있다. 전술한 바와 같이, 프로세서(118)는 여러 방식으로 구성 요소 온도를 감소시킬 수 있다. 프로세스(5500)는 그 다음 미리 결정된 간격에서 재시작될 수 있다. 일부 실시예에서, 단계(5510)에서 행해진 수정들이 역전될 수 있고, 이에 따라 구성 요소의 온도가 임계 온도 이하일 때 구성 요소의 성능을 복원한다.
MEMS 미러 및 액추에이션 기술
도 56은 스캐닝 디바이스 (예를 들어, 편향기(114), 이후 "스캐닝 디바이스(8202)") 및 처리 디바이스 (예를 들어, 프로세서(118), 이후 제어기(8204))의 예시적인 실시예를 도시한다. 본 개시와 일치하여, 제어기(8204)는 국부적일 수 있고, 스캐닝 디바이스(8202) 내에 포함될 수 있다. 제어기(8204)는 적어도 하나의 하드웨어 구성 요소, 하나 이상의 집적 회로, 하나 이상의 FPGA, 하나 이상의 ASIC, 하나 이상의 하드웨어 가속기, 또는 그와 유사한 것을 포함할 수 있다. 중앙 처리 유닛(CPU) 및 액추에이션 구동기는 제어기(8204)의 일부 예시이다.
도 56에 도시된 바와 같이, 미러 구성은 2개 이상의 축(θ, φ)으로 이동될 수 있는 미러(8206)를 포함할 수 있다. 미러(8206)는 액추에이션 구동기(8208)와 같은 전기적으로 제어 가능한 전기 기계적 구동기와 연관될 수 있다. 액추에이션 구동기(8208)는 동작 또는 전력이 액추에이터(8210)와 같은 액추에이터/캔틸레버/벤더로 전달되도록 할 수 있다. 액추에이터(8210)는 프레임(8211)과 같은 지지 프레임의 일부일 수 있다. 액추에이터(8212, 8214, 8216)와 같은 추가적인 액추에이터는 도시된 바와 같은 추가적인 액추에이션 구동기에 의해 각각 제어/구동될 수 있고, 각각 (적절하게) 지지 프레임(8213, 8215, 8217)을 가질 수 있다. 프레임(8211, 8213, 8215, 및/또는 8217)은 모든 액추에이터를 지지하는 단일 프레임을 포함할 수 있거나 복수의 상호연결된 프레임일 수 있음을 이해해야 한다. 또한, 프레임은 절연 요소 또는 섹션에 의해 전기적으로 분리될 수 있다. 선택적으로, 스프링(8218)과 같은 가요성 상호연결 요소 또는 커넥터 (상호연결)는 액추에이션 구동기(8208)로부터 스프링(8218)으로 전력 또는 이동을 전달하기 위해, 미러(8206)에 액추에이터(8210)를 인접시키는데 이용될 수 있다.
액추에이터(8210)는 접촉부(8210A, 8210B, 8210C, 8210D)와 같은 2개 이상의 전기 접촉부를 포함할 수 있다. 선택적으로, 하나 이상의 접촉부(8210A, 8210B, 8210C, 및/또는 8210D)는 전자적으로 연결된다면 프레임(8211) 또는 액추에이터(8210) 상에 위치될 수 있다. 일부 실시예에 따르면, 액추에이터(8210)는 도핑될 수 있는 반도체일 수 있어서, 액추에이터(8210) 섹션은 (절연성 압전 층을 제외하고는) 일반적으로 액추에이터(8212) 및 액추에이터(8216) (각각) 으로부터 액추에이터(8210)를 전자적으로 절연시키기 위해 접촉부(8210A 내지 210D) 사이는 전도적이며 절연부(8220, 8222)는 절연적이다. 선택적으로, 액추에이터를 도핑하는 대신에, 액추에이터(8210)는 액추에이터(8210)에 접착되거나 그렇지 않으면 기계적으로 또는 화학적으로 연결될 수 있는 전도성 요소를 포함할 수 있으며, 이 경우 절연 요소는 전도성 요소가 부착되지 않은 액추에이터(8210)의 면적에 내재할 수 있다. 액추에이터(8210)는 액추에이터(8210)를 통해 흐르는 전류가 액추에이터(8210)를 제어 가능하게 굴곡시킬 수 있는 압전 섹션에서 반응을 야기할 수 있도록 압전 층을 포함할 수 있다.
일부 실시예에 따르면, 제어기(8204)는 θ, φ 파라미터로 기술된 원하는 각도 위치를 미러 구동기(8224)에 출력/전달할 수 있다. 미러 구동기(8224)는 미러(8206)의 이동을 제어하도록 구성될 수 있으며, 액추에이터(8210, 8212, 8214, 8216)의 벤딩에 기초한 미러(8206)의 θ, φ 편향 값에 대한 특정 요청된 값을 달성하려고 시도하기 위해 액추에이션 구동기(8224)로 하여금 접촉부(8210C, 8210D)에 특정 전압 진폭을 가하도록 할 수 있다. 또한, 위치 피드백 제어 회로망은 접촉부(8210A) 또는 접촉부(8210B)와 같은 접촉부에 전기적 소스를 공급하도록 구성될 수 있고, 다른 접촉부는, 액추에이터(8210)의 벤딩과 미러(8206)의 실제 편향에 적절하게 결정하기 위해 액추에이터(8210)의 하나 이상의 전기적 파라미터를 측정하는데 이용될 수 있는 위치 피드백(8226) 내의 센서에 연결될 수 있다. 도시된 바와 같이, 위치 피드백(8226)과 유사한 추가 위치 피드백 및 액추에이션 구동기(8208)와 유사한 추가 액추에이션 구동기가 각각의 액추에이터(8212 내지 216) 및 미러 구동기(8224)에 대해 복제될 수 있고, 제어기(8204)는 미러 편향이 모든 방향에 대해 제어되도록 이들 요소를 또한 제어할 수 있다.
액츄에이션 구동기(8208)를 포함하는 액추에이션 구동기는 액추에이터(8210-216)에서 전기 기계적 반응을 야기하는 신호를 전방으로 밀어낼 수 있고, 각각 차례로 액추에이터는 다시 피드백에 대해 샘플된다. 액추에이터(8210-8216) 위치에 대한 피드백은 미러 구동기(8224)에 대한 신호로 작용하며, 제어기(8204)에 의해 설정된 원하는 위치 θ, φ 를 향하여 효율적으로 수렴하게 하여 검출된 실제 편향에 기초하여 요청된 값을 보정한다. 일부 실시예에 따르면, 스캐닝 디바이스 또는 LIDAR는 시야를 스캔하는 레이저 빔을 편향시키기 위해 압전 액추에이터 미세전자기계(MEMS) 미러 디바이스를 이용할 수 있다. 미러(8206) 편향은 액추에이터(8210) 상에 형성되는 압전 요소에 인가되는 전압 전위의 결과이다. 미러(8206) 편향은 특정 전압 레벨의 액추에이터(8210)가 일정한 변위 값으로 변환되지 않기 때문에 선형 방식으로 행동하지 않을 수 있는 각도 스캐닝 패턴으로 변환된다. 상이한 디바이스에 걸쳐 시야 치수가 결정적이고 반복 가능한 스캐닝 LIDAR 시스템(예를 들어, LIDAR 시스템(100))은 위치 피드백 및 센서(8226)로부터 미러 드라이버(8224) 및/또는 제어기(8204)로 각도 편향 피드백을 제공하는 폐루프 방법을 사용하여 최적으로 실현된다.
일부 실시예에서, 위치 피드백 및 센서(8226)는 신뢰성 피드백 모듈로서 이용될 수도 있다. 일부 실시예에 따르면, 복수의 요소는 반도체 또는 전도성 요소, 또는 층을 포함할 수 있으며, 이에 따라서 액추에이터(8201 내지 8216)는 반도체 요소를 적어도 부분적으로 포함할 수 있고, 스프링(8218, 8226, 8228, 8230)은 각각 반도체를 포함할 수 있으며, 미러(8206)를 포함할 수 있다. 위치 피드백(8226)을 통해 제1 액추에이터 접촉부에서 전력(전류 및/또는 전압)이 공급될 수 있고, 위치 피드백(8226)은 접촉부(8214A 또는 8214B, 및/또는 8216A 또는 8216B)를 통해 액추에이터(8212, 8214, 및/또는 8216)에서 적절한 신호를 감지할 수 있다. 다음 도면 중 일부는 MEMS 미러, 액추에이터, 및 상호연결부를 도시한다. 상호연결부의 개수, 상호연결부의 형태, 액추에이터의 개수, 액추에이터의 형태, MEMS 미러의 형태, 임의의 MEMS 미러 간의 공간적 관계, 액추에이터 및 상호연결부는 이하에 도시된 도면과 다를 수 있다.
상호연결부
도 57은 원형 MEMS 미러(9002)와 4개의 액추에이터(9011, 9012, 9013, 9014) 사이에 연결된 4개의 L자형 상호연결부(9021, 9022, 9023, 9024)를 도시한다. 각각의 L자형 상호연결부(예를 들어, 9021)는 제1 세그먼트(90212) 및 제2 세그먼트(90211)를 포함한다. 제1 및 제2 세그먼트는 서로 기계적으로 연결된다. 도 57에서, 제1 및 제2 세그먼트는 서로 수직이다. 도 57에서, 각 L자형 상호연결부의 제2 세그먼트는 액추에이터의 둘레에 연결되고, 각각의 L자형 상호연결부의 제1 세그먼트는 MEMS 미러의 둘레에 연결된다. 제2 세그먼트는 제1 액추에이터의 둘레에 수직이다. 제1 세그먼트는 MEMS 미러의 둘레에 수직이고, 및/또는 MEMS 미러가 아이들 위치에 있을 때 MEMS 미러의 중심을 향하여 지향된다. MEMS 미러에 결합된 모든 액추에이터가 굴곡 전기장을 받지 않을 때, MEMS 미러는 아이들 위치에있다.
일 실시예에서, L자형 상호연결부를 이용하는 것은 우수한 내구성 및 응력 완화를 제공할 수 있다. L자형 상호연결부를 이용하면 서로 수직인 두 회전축 (상호연결부(9024) 근처에서 AOR로 표시된 점선 참조)에 대한 매끄러운 이동이 용이해진다. 따라서, 액추에이터의 굴곡 및 비굴곡은 L자형 상호연결부에 과도한 응력을 가하지 않는다. 또한, L자형 상호연결부는 비교적 간편하며, 작은 부피를 가질 수 있으며, 이는 액추에이터에 부과된 기계적 부하를 감소시키며, MEMS 미러의 스캐닝 진폭을 증가시키는 것을 도울 수 있다. 상호연결부의 상이한 세그먼트들은 90도와 다른 각도들에 의해 서로에 대해 (및/또는 MEMS 미러에 관하여 및/또는 액추에이터에 관하여) 배향될 수 있다는 것을 유의해야 한다. 이들 각도는 실질적으로 90도 (실질적으로 5, 10, 15, 또는 20 퍼센트 등을 초과하지 않는 편차를 의미할 수 있다) 일 수 있다. 또한, L자형 상호연결부는 단일 세그먼트 또는 한 쌍 이상의 세그먼트를 포함하는 상호연결부로 대체될 수 있음을 또한 유의해야 한다. 단일 세그먼트보다 많은 세그먼트를 가지는 상호연결부는 서로 동일한 세그먼트 및/또는 서로 다른 세그먼트를 포함할 수 있다. 세그먼트는 형태, 크기, 단면적, 또는 임의의 다른 파라미터에 따라 다를 수 있다. 상호연결부는 또한 선형 세그먼트 및/또는 비선형 세그먼트를 포함할 수 있다. 상호연결부는 어떤 방식으로든 MEMS 미러 및/또는 액추에이터에 연결될 수 있다.
도 58은 원형 MEMS 미러(9002)와 4개의 액추에이터(9011, 9012, 9013, 9014) 사이에 연결된 4개의 상호연결부(9021’, 9022’, 9023’, 9024’)를 도시한다. 각 상호연결부의 제1 및 제2 세그먼트는 조인트(joint)에 의해 연결된다. 예를 들어, 상호연결부(9021')는 제1 세그먼트(90212), 제2 세그먼트(90211), 및 제1 및 제2 세그먼트에 연결되고 제1 및 제2 상호연결부 사이의 상대적 이동을 용이하게하는 조인트(90213)를 포함한다. 조인트는 볼 조인트 또는 임의의 다른 유형의 조인트일 수 있다.
도 59는 상호연결부의 비 제한적인 10가지 예시를 도시한다. 상호연결부(90215, 90216, 90217, 90218, 90219)는 조인트를 포함하지 않는다. 상호연결부(90215', 90216', 90217', 90218', 90219')는 적어도 하나의 조인트를 포함한다. 또한, 도 59는 선형 세그먼트, 비선형 세그먼트, 하나의 세그먼트, 2개의 세그먼트, 및 심지어 9개의 세그먼트를 포함하는 상호연결부를 도시한다. 상호연결부는 임의의 개수의 세그먼트를 포함할 수 있고, 임의의 형태의 세그먼트를 가질 수 있으며, 0 내지 다수의 조인트를 포함할 수 있다.
기계적 진동에 대한 응답
스캐닝 유닛(예를 들어, 스캐닝 유닛(104))은 MEMS 미러, 액추에이터, 상호연결부, 및 LIDAR 시스템의 다른 구조 요소를 포함할 수 있다. 스캐닝 유닛(104)은 상이한 방향을 따라 전파하는 기계적 진동을 받을 수 있다. 예를 들어, 차량에 설치된 LIDAR 시스템은 차량이 한 포인트에서 다른 포인트로 이동할 때 (다른 방향으로부터) 상이한 진동을 받을 수 있다. 만약 모든 액추에이터가 동일한 구조 및 치수를 갖는다면, 어떤 주파수에 대한 유닛의 응답이 매우 높을(높은 Q 인자) 수 있다. 액추에이터들 사이에 특정 비대칭을 도입함으로써, 스캐닝 유닛(104)은 더 많은 주파수에 반응할 수 있지만, 반응은 더 온화할 (낮은 Q 인자) 수 있다.
도 60은 서로 반대되고 제2 액추에이터 쌍 (9012 및 9014)의 액추에이터보다 더 짧은 (ΔL(9040)에 의해) 액추에이터(9011, 9013)의 제1 쌍을 도시한다. 액추에이터(9012, 9014)는 서로 반대되고 액추에이터(9011, 9013)에 배향된다. 도 60은 또한 L자형 상호연결부(9021, 9022, 9023, 9024), 및 원형 MEMS 미러(9002)를 도시한다. 유닛의 공진 주파수는 기계적 진동의 주파수 범위를 벗어날 수 있다. 유닛의 공진 주파수는 특정 주파수 범위의 최대 주파수를 적어도 2배 이상 초과할 수 있다. 유닛의 공진 주파수는 400Hz에서 1KHz 사이이다.
도 61a는 액추에이터(9011, 9012, 9013, 9014), 상호연결부(9021, 9022, 9023, 9024), 및 MEMS 미러(9002)를 둘러싸는 프레임(9050)을 도시한다. 액추에이터(9011, 9012, 9013, 9014)는 베이스(9071, 9072, 9072, 9074)에서 각각 프레임(9050)에 연결된다. 일 실시예에서, 베이스의 폭은 액추에이터의 전체 길이의 임의의 부분(예를 들어, 50% 이하) 일 수 있다. 또한, 베이스는 액추에이터와 상호연결부의 연결부의 포인트로부터 임의의 거리에 위치될 수 있다. 예를 들어, 베이스는 상호연결부에 연결된 연결부의 단부에 반대되는 액추에이터의 단부 근처에 위치될 수 있다.
도 61b는 본 명세서에 개시된 주제의 예시에 따라, 프레임(9550)의 평면과 다른 평면 상에 위치된 MEMS 미러(9002)에 샤프트(9590)를 통해 연결된 액추에이터(9511, 9512, 9513, 9514)를 둘러싸는 프레임을 도시한다. 액추에이터(9511, 9512, 9513, 9514)와 샤프트(9590) 사이의 상호연결부는 단순화를 위해 도시되지 않았다. 이들 상호연결부는 상호연결부(9021, 9022, 9023, 9024)에 관하여 전술한 것과 유사한 형태 및 특성을 가질 수 있지만, 반드시 그렇지는 않다. 도 61a에 예시된 바와 같이, MEMS 미러(9002)는 MEMS 미러(9002)의 평면과 다른 평면에 위치된 액추에이터에 의해 동작될 수 있다. 액추에이터(9511, 9512, 9513, 9514)의 이동은 그 일 단부가 액추에이터에 연결되고 다른 단부는 MEMS 미러(9002)의 베이스 표면에 연결된 샤프트(9590)에 의해 MEMS 미러(9002)에 전달된다. 샤프트(9590)는 임의의 종류의 강성 연결부로 대체될 수 있음에 유의한다. 샤프트를 움직이는 액추에이터 (당연히 도시된 바와 같이 4개가 아닌 다른 임의의 개수일 수 있음)를 참조하면, 이들 액추에이터는 이 개시에서 논의된 임의의 액추에이션 방법을 포함하는 임의의 종류의 액츄에이션 기술 -예를 들어, 압전 액츄에이션, 정전기 액츄에이션, 정자기 액추에이션, 전기기계 액추에이션 -을 이용한다. MEMS 미러는 1차원(1D) 스캐닝 또는 2차원(2D) 스캐닝에 대해 상이한 평면 상에서 액추에이션이 구현될 수 있음을 유의한다.
반사 표면 평면 뒤의 상이한 평면에서의 MEMS 미러(9002)의 액추에이션 조립체의 개시된 위치는 서로 아주 근접하여 위치된 복수의 반사기를 포함하는 (반사기 어레이(312)와 같은) 반사기 어레이 생성을 허용한다. 이는 반사기 어레이의 표면의 이용 가능한 부분을 증가시키며 (미러 표면이 아닌 반사기 조립체의 일부로부터 반사하는) 바람직하지 않은 반사의 양을 감소시킨다. 또한, MEMS 미러(9002)의 뒤쪽에 움직이는 액추에이터를 위치하는 것은 (그리고 시스템 내의 광의 광학 전송 경로로부터 멀어지게 위치하는 것은) 이동하는 액추에이터로부터 의도하지 않은 방향으로 반사되는 광자의 양을 감소시킴으로써, 따라서 시스템 내의 노이즈 레벨을 감소시킨다. MEMS 미러(9002) 및 (액추에이터 및 프레임(9550)을 포함하는) 액추에이션 표면은 2개의 상이한 웨이퍼 상에 제조될 수 있고, 당 업계에 공지된 것과 같은 상이한 방식으로 서로 연결될 수 있다.
가변 커패시터를 이용하여 MEMS 미러 모니터링
본 개시와 일치하여, MEMS 미러의 방향은 MEMS 미러에 (상호연결부를 통해) 연결된 액추에이터의 굽힘을 모니터함으로써 추정될 수 있다. 예를 들어, LIDAR 시스템(100)은 하나 이상의 가변 커패시터를 포함할 수 있다. 액추에이터 당 하나의 가변 커패시터, 액추에이터 당 단일 보다 많은 가변 커패시터, 및/또는 액추에이터보다 적은 가변 커패시터가 있을 수 있다. 각각의 가변 캐패시터에 대해, 가변 캐패시터의 캐패시턴스는 프레임과 액추에이터 사이의 공간적 관계를 나타낸다. 가변 커패시터의 커패시턴스는 액추에이터에 연결된 가변 커패시터의 하나 이상의 다른 플레이트, 특히 프레임을 마주하는 액추에이터의 둘레에 연결된 가변 커패시터의 하나 이상의 플레이트와 프레임에 연결된 가변 커패시터의 하나 이상의 플레이트 사이에 중첩 면적의 기능을 할 수 있다.
도 62는 액추에이터(9011, 9012, 9013, 9014), 상호연결부(9021, 9022, 9023, 9024), 및 MEMS 미러(9002)를 둘러싸는 프레임(9050)을 도시한다. 도 62는 또한 프레임(9050)과 액추에이터(9011) 사이에 형성된 가변 커패시터(9061)를 도시한다. 가변 커패시터(9061)는 액추에이터에 연결된 다수의 제1 플레이트(90612) 및 프레임에 연결된 다수의 제2 플레이트(90611)를 포함한다. 적어도 3개의 액추에이터와 프레임 사이에 적어도 3개의 가변 커패시터를 갖는 것이 이득일 수 있다. 설명의 단순화를 위해, 단지 단일 가변 커패시터 만이 도시된다. 가변 커패시터는 액추에이터의 둘레를 따라 어디에서나 상호연결부에 연결된 액추에이터의 둘레로부터 임의의 거리에 위치될 수 있다. 또한, 가변 커패시터의 위치는 가변 커패시터의 플레이트의 형상 및 크기, 및 액추에이터의 상이한 부분에 의해 경험될 수 있는 굴곡의 양에 기초하여 결정될 수 있다. 예를 들어, 가변 커패시터를 베이스 근처에 위치시키는 것은 제1 플레이트와 제2 플레이트 사이의 중첩 면적에서보다 작은 변화를 초래할 수 있고, 반면에 가변 커패시터를 상호연결부에 대한 연결부 포인트 근처에 위치시키는 것은 제1 및 제2 플레이트 사이 중첩의 부족을 초래할 수 있다.
또한, 도 62는 액추에이터가 계속 구부러 질 때 제1 플레이트(90612) 및 제2 플레이트(90611)가 완전히 중첩되고, 그 후 (액추에이터가 굴곡을 시작하는 때) 대부분 중첩(중첩 면적(9068))되며, 약간만 중첩(중첩 면적(9068))되는 것을 또한 (좌측으로부터 우측으로) 도시한다. 제1 플레이트(90612)는 서로 평행하게 결합된다. 제2 플레이트(90611)는 서로 평행하게 결합된다. 제1 및 제2 플레이트는 가변 커패시터의 커패시턴스를 감지하도록 구성된 커패시턴스 센서(9065)에 결합된다. LIDAR 시스템의 제어기는 하나 또는 가변 커패시터의 커패시턴스에 기초하여 MEMS 미러의 방향을 추정할 수 있다.
도 63는 액추에이터(9011, 9012, 9013, 9014), 상호연결부(9021, 9022, 9023, 9024), 및 MEMS 미러(9002)를 둘러싸는 프레임(9050)을 도시한다. 도 63은 또한 액추에이터(9011, 9012, 9013, 9014)에 연결된 전극(9081, 9082, 9083, 9084)을 도시한다. 전극은 액추에이터의 임의의 부분에 연결될 수 있다. 액추에이터는 다수의 전극에 연결될 수 있다. 전극은 대개 액추에이터의 중요한 영역을 따라 펼쳐진다.
더미(dummy) 압전 소자를 이용한 MEMS 미러 모니터링
본 개시와 일치하여, 제공된 전극은 액추에이터를 굴곡시키기 위한 및/또는 액추에이터의 굴곡을 감지하기 위한 전기 신호를 전달할 수 있다. 액추에이터의 굴곡은 더미 소자를 포함하는 액추에이터를 이용하여 모니터될 수 있다. 더미 소자는 더미 전극 및 더미 압전 소자 일 수 있다. 더미 압전 소자는 굴곡 전기장을 받는 압전 소자에 기계적으로 결합된다. 압전 소자는 굴곡되어 있다. 이 굴곡에 의해 더미 압전 소자가 굴곡된다. 더미 압전 소자의 굴곡은 더미 압전 소자에 결합된 전극에 의해 측정될 수 있다.
도 64는 액추에이터(9011, 9012, 9013, 9014), 상호연결부(9021, 9022, 9023, 9024), 및 MEMS 미러(9002)를 둘러싸는 프레임(9050)을 도시한다. 도 64는 또한 액추에이터(9011, 9012, 9013, 9014)의 압전 소자(9111, 9112, 9113, 9114)에 연결된 전극(9081, 9082, 9083, 9084)을 또한 도시한다. 전극(9081, 9082, 9083, 9084)은 굴곡 제어 신호를 전달하는 데 이용된다. 도 64는 액추에이터(9011, 9012, 9013, 9014)의 더미 압전 소자(9011', 9112', 9113’, 9114')에 연결된 전극(9091, 9092, 9093, 9094)를 또한 도시한다. 전극(9091, 9092, 9093, 9094)은 더미 압전 소자(9011', 9112', 9113', 9114')의 상태를 측정하는데 이용된다. 전극(9081, 9082, 9083, 9084, 9091, 9092, 9093, 9094)은 일반적으로 압전 소자의 상당 부분을 커버한다. 각 압전 소자는 한 쌍의 전극 사이에 위치되고, 도 64는 단지 외부 전극만을 도시한다는 것을 유의해야 한다. 액추에이터의 기판 (또는 바디)과 압전 소자 사이에 위치하는 내부 전극은 도시하지 않았다.
도 65는 액추에이터(9011), 피드백 센서(9142), 및 스티어링 소스 신호(9140)의 단면도이다. 액추에이터(9011)는 기판 (또는 바디) 층(9121), 내부 전극(9081'), 내부 더미 전극(9091'), 압전 소자(9111), 더미 압전 소자(9111'), 외부 전극(9081), 및 외부 더미 전극(9091)을 포함할 수 있다. 스티어링 신호 센서(9140)는 굴곡 엑츄에이터(9011) 용 외부 전극(9081) 및 내부 전극(9121)에 스티어링 신호(SS1) (9151) 및 SS2 (9152)를 보낸다. 느린 압전 소자(9111')의 굴곡을 감지한 피드백 센서(9142)는 내부 더미 전극(9091')과 외부 더미 전극(9091) 사이의 전기장을 측정한다. 단 하나의 스티어링 신호 만이 제공될 수 있음을 유의해야 한다.
도 66은 4개의 메이저(major) 층: 외부 전극층(9124, 9134, 9144, 9154), 압전층(9123, 9133, 9143, 9153), 내부 전극층(9122, 9132, 9142, 9152), 및 기판(또는 바디) 층(9121, 9131, 9141, 9151)으로부터 형성될 수 있는 액추에이터(9011, 9012, 9013, 9014) 중 각 액추에이터를 도시한다.
유전 계수 변화를 측정함으로써 MEMS 미러 모니터링
본 개시와 일치하여, 액추에이터의 굴곡은 압전 소자의 유전율을 바꿀 수 있다. 따라서, 액추에이터는 압전 소자의 유전 계수의 변화를 측정함으로써 모니터될 수 있다. 액추에이터에는 제어 신호원으로부터의 하나 이상의 제어 신호에 의해 유도된 전기장이 공급될 수 있고, 하나 이상의 제어 신호는 LIDAR 시스템(100)의 하나 이상의 전극, 예를 들어, 압전 소자의 반대 측면에 위치하는 전극의 쌍이 공급될 수 있다. 하나의 제어 신호, 제어 신호들 및/또는 제어 신호들 사이의 차이 모두는 교류 바이어스 성분 및 스티어링 성분을 갖는다. 바디의 굴곡은 스티어링 성분에 반응한다. 일부 실시예에서, 교류 바이어스 성분의 주파수는 스티어링 성분의 최대 주파수 (예를 들면, 적어도 10배)를 초과할 수 있고; 교류 바이어스 성분의 진폭은 임의의 인자, 예를 들어 100보다 작지 않은 인자에 의한 스티어링 성분의 진폭보다 낮을 수 있다. 예를 들어, 스티어링 성분은 수십V 일 수 있는 반면, 교류 바이어스 성분은 수십mV 내지 수백mV의 범위일 수 있다. 따라서, LIDAR 시스템(100)의 센서는 액추에이터의 굴곡으로 인해 액추에이터의 유전 계수 변화를 감지하도록 구성될 수 있다.
도 67은 외부 전극층(9124), 압전 층(9123), 내부 전극층(9122), 및 기판 층(9121)을 포함하는 액추에이터를 도시한다. 스티어링 신호원(9140)은 외부 전극층(9124)에 제어 신호 SS1(9151)을 보내고, 내부 전극층(9122)에 제어 신호 SS2(9152)를 보낸다. 제어 신호 SS1(9151) 및 제어 신호 SS2(9152) 중 적어도 하나 또는 제어 신호 들 간의 차이는 교류 바이어스 성분 및 스티어링 성분을 포함한다. 피드백 센서(9124)는 외부 전극층(9124)과 내부 전극층(9122)에 결합되고, 압전층(9123)의 유전 계수의 변화를 (직접적으로 또는 간접적으로) 감지할 수 있다. 피드백 센서(9124)는 예를 들어, 전류 진폭 센서 또는 전류 진폭 센서와 위상 천이 센서의 조합일 수 있다. LIDAR 센서는 (피드백 센서(9142)로부터) 유전 계수 변화에 관한 정보를 수신하고 MEMS 미러의 방향을 결정하도록 구성될 수 있는 제어기를 포함할 수 있다. 도 67은 또한 제어 신호 SS1(9151) 및 제어 신호 SS2(9152)의 스티어링 성분(9161, 9164)을 출력하는 초기 신호 소스(9141)를 포함하는 것으로서 스티어링 신호원(9140)를 도시한다. 이들 스티어링 성분은 (발진기(9162, 9165)에 의해 생성된) 교류 바이어스 성분과 (혼합기(9163, 9165)에 의해)) 혼합되어 제어 신호 SS1(9151) 및 제어 신호 SS2 (9152)를 생성한다. 액추에이터는 액추에이터의 저항을 감지함으로써 모니터될 수 있다.
도 68은 액추에이터(9011)의 2개의 반대되는 단부에 위치되고 액추에이터의 저항을 측정하기 위해 사용되는 2개의 전극(9211, 9212)을 도시한다. 전극(9135)은 액추에이터를 굴곡하기 위해 사용된다. 전극(9211, 9212, 9135)은 3개의 컨덕터(9201, 9202, 9203)에 전기적으로 결합된다.
도 69는 액추에이터(9011)에 형성된 응력 완화 애퍼처(9220)를 도시한다. 도 69의 응력 완화 애퍼처는 커브되어 서로 실질적으로 평행하다. 응력 완화 애퍼처의 개수는 4개와 다를 수 있으며, 슬롯은 임의의 형상 또는 크기를 가질 수 있고 서로 상이할 수 있다. 이전의 일부 도면에서 압전 소자는 기판 위에 위치되었다. 압전 소자는 기판 아래에 위치될 수 있음을 유의해야 한다. 압전 소자는 기판의 아래 및 위에 위치될 수 있다.
도 70은 7개의 메이저 층: 외부 전극층(9124), 압전층(9123), 내부 전극층(9122), 기판 (또는 바디)층(9121), 추가 내부 전극층(9129), 추가 압전층(9128), 및 추가 외부 전극층(9127)을 포함하는 액추에이터(9012)를 도시한다. 외부 전극층(9124), 압전층(9123), 및 내부 전극층(9122)은 기판층(9121) 위에 위치된다. 추가 내부 전극층(9129), 추가 압전층(9128), 및 추가 외부 전극층(9127)은 기판층(9121) 아래에 위치된다. 추가의 압전층(9128)은 압전층(9123)과 동일할 수 있거나, 크기, 형태, 그와 유사한 것 중 적어도 하나에 의해 압전층(9123)과 다를 수 있다. 구체적으로, 어느 전극층이더라도 동일할 수 있고, 서로 다를 수도 있다. 추가적인 압전층(9128) 및 압전층(9123)은 서로 독립적으로 또는 종속적인 방식으로 제어될 수 있다. 추가적인 압전층(9128)은 액추에이터를 아래쪽으로 굴곡하기 위해 사용될 수 있는 한편, 압전층(9123)은 액추에이터를 위쪽으로 굴곡하기 위해 사용될 수 있다. 추가적인 압전층(9128)은 압전층(9123)이 액추에이터를 굴곡하기 위해 활성될 때, (액추에이터를 모니터하기 위한) 더미 압전 센서로서 사용될 수 있다. 일 예시에서, 압전층(9122)은 압전층(9128)이 액추에이터를 굴곡하기 위해 활성될 때, (액추에이터를 모니터하기 위한) 더미 압전 센서로서 사용될 수 있다.
도 71은 상부에서 하부로, (i) 미러(9002)의 아이들 상태, (ii) MEMS 미러(9002)의 둘레를 낮추는 하부 굴곡 액추에이터, 및 (iii) MEMS 미러(9002)의 둘레를 높이는 상부 굴곡 액추에이터를 도시한다. MEMS 미러(9002)는 상호연결부(9300)를 통해 액추에이터에 결합된다. MEMS 미러(9002)는 보강 요소에 의해 보강되는 얇은 반사 표면을 포함할 수 있다.
도 72 및 도 73은 MEMS 미러(9002)의 프레임(9050) 및 후면을 도시한다. 설명의 간략화를 위해 액추에이터는 도시되지 않았다. 보강 요소(9003)는 동심원 링 및 방사상 세그먼트를 포함한다. 보강 요소의 임의의 배열 및 형태가 제공될 수 있다.
MEMS 미러의 방향은 MEMS 미러(9002)의 후면을 조명함으로써 모니터될 수 있다. MEMS 미러의 적어도 하나의 면적을 조명하고 적어도 3개의 위치에서 반사된 광을 감지하는 것이 이익일 수 있다. MEMS 미러의 방향은 MEMS 미러(9002)의 후면을 조명함으로써 모니터될 수 있다. MEMS 미러의 후면의 적어도 하나의 면적을 조명하고 적어도 3개의 위치에서 반사된 광을 감지하는 것이 이익일 수 있다. LIDAR 시스템(100)은 MEMS 미러의 후면을 조명하기위한 전용 광원을 포함할 수 있다. 전용 광원(예를 들어, LED)은 미러 뒤에 (즉, 적어도 하나의 광원(112)으로부터의 광의 편향을 위해 사용되는 주 반사 센서로부터 멀리) 위치될 수 있다. 대안적으로, LIDAR 시스템(100)은 미러의 후면으로 광을 편향하게 하는 광학부를 포함할 수 있다. 일부 예시에서, MEMS 미러의 후면에 지향된 광 (예를 들어, 전용 광원의 광)은 미러의 후면 면적에 한정되어, MEMS 미러의 주 반사 측에 도달하는 것이 방지된다. 후면 센서의 신호 처리는 프로세서(118)에 의해 실행될 수 있지만, 미러의 포장 내에 위치된 칩에 통합된 전용 회로망에 의해 처리될 수도 있다. 처리는 반사된 신호를 상이한 후면 센서 (예를 들어, 9231, 9232, 9233)와 비교하고, 그러한 신호를 빼고, 그러한 신호를 정규화하는 것 등을 포함할 수 있다. 이러한 신호의 처리는 캘리브레이션 단계 동안 수집된 정보에 기초할 수 있다.
도 74는 적어도 3개의 상이한 방향으로 반사되는 광을 감지하도록 배치되고, MEMS 미러 아래에 위치되어서 MEMS 미러의 방향을 감지하는 것을 허용하는 조명 영역(9030) 및 3개의 센서(9231, 9232, 9233)를 도시한다. 조명된 영역은 MEMS 미러의 후면의 어느 위치에나 위치될 수 있으며, 임의의 형태 및 크기를 가질 수 있다. 실시예에서, MEMS 미러는 Lidar 시스템의 윈도우와 평행하지 않을 수 있다. MEMS 미러는 Lidar 시스템의 윈도우를 통과하는 광을 수신할 수 있고 윈도우를 통과하여 Lidar 시스템의 다른 구성 요소 (광 센서 등)에 도달할 수 있는 편향된 광을 제공하기 위해 반사된 미러를 편향시킬 수 있다. 편향된 광의 일부는 MEMS 미러, 프레임, 또는 액추에이터를 향하여- (윈도우에 의해) 후면으로 반사될 수 있다. 그러나, MEMS 미러와 윈도우가 서로 평행할 때, MEMS 미러와 윈도우에 의해 광이 반복적으로 반사되어 불필요한 광 아티팩트(artifacts)를 발생시킬 수 있다. 이러한 광 아티팩트는 MEMS 미러의 광축과 윈도우의 광축이 서로 평행하지 않은 경우 또는 MEMS 미러와 평행하지 않은 윈도우를 제공함으로써 감쇠되거나 심지어 방지될 수 있다. MEMS 미러 및 윈도우 중 어느 하나가 커브되거나 서로 지향된 다수의 섹션을 갖는 경우, MEMS 미러의 어느 부분도 윈도우의 임의의 부분에 평행하지 않아야만 하는 것이 이익일 수 있다. 윈도우와 MEMS 미러 사이의 각도는 윈도우가 MEMS 미러를 향한 광을 반사하지 않도록, MEMS 미러가 아이들 위치에 있을 때 또는 심지어 MEMS 미러가 임의의 액추에이터에 의해 이동되는 경우에도 설정될 수 있다.
MEMS 미러의 후면을 조명하는 것은 미러의 후면이 실질적으로 균일하게 반사될 때 (예를 들어, 보강 리브(rib)가 없는 평평한 후면) 구현될 수 있음을 유의한다. 그러나, 반드시 그런 것은 아니며, 미러의 후면은 불균일한 식으로 패턴된 광을 반사하기 위한 디자인일 수 있다. 미러의 후면의 패턴된 반사 행동은 표면 기하학적 구조(예를 들어, 돌출, 침입), 표면 감촉, 상이한 재료 (예를 들어, 실리콘, 실리콘 산화물, 금속), 등과 같이 다양한 방식으로 달성될 수 있다. 선택적으로, MEMS 미러는 후면 조명의 (예를 들어, 전술한 후면 전용 광원으로부터의) 패턴화된 반사를 후면 센서 (예를 들어, 9231, 9232, 9233) 상으로 보내는 미러의 후면 표면의 적어도 일부에 반사율 패턴을 갖는 패턴화 된 후면을 포함할 수 있다. 패턴화된 후면은 선택적으로 MEMS 미러의 뒤에 위치하는 선택적인 보강 요소(9003)의 일부를 포함할 수 있지만, 반드시 그런 것은 아니다. 예를 들어, 보강 요소(9003)는 일부 각도에서 센서(9231) 등에 그림자를 생성하기 위해 (또는 광을 다른 각도로 편향시키도록) 이용될 수 있는데, 이는 미러의 움직임이 센서의 반사를 그림자에서부터 밝게 변경한다는 것을 의미한다.
선택적으로, 후면 센서(9231, 9232, 9233 등)의 출력 처리는 (예를 들어, 보강 리브의 패턴으로 인한) 후면의 반사율 패턴을 고려할 수 있다. 따라서, 처리는 처리되는 피드백의 일부로서 후면 표면 패턴으로부터 초래된 패터닝을 이용할 수 있다. 선택적으로, 본 명세서에서 논의된 후면 미러 피드백 옵션은 (균일 반사율 구현과 비교하여) 미러에 보다 근접하게 위치되는 후면 센서로부터의 데이터에 의해 처리될 수 있는 후면 반사율 패턴을 이용할 수 있으며, 이는 MEMS 조립체의 크기를 감소시키고 그것의 포장을 개선한다. 예를 들어, 후면 패턴은 반사 패턴이 어두운 반사와 밝은 반사 사이의 예리한 전이를 포함하도록 설계될 수 있다. 그 예리한 전이는 심지어 MEMS 미러의 각도/위치의 작은 변화조차도 가까운 거리에 위치되는 검출기로 반사되는 광에 중요한 변화를 일으킬 수 있음을 의미한다. (예를 들어, 광 또는 그림자) 또한, 상기 반사율 패턴은 예리한 모서리가 아닌 반사율 경사도와 연관될 수 있다. 이 실시예는 예리한 모서리의 제1 옵션으로부터 선형성을 가질 수 있으며, 따라서 후처리 프로세스를 용이하게 할 수 있고, 또한 더 큰 각도 범위를 지지하며 아마도 조립체 공차에 덜 민감할 것이다.
LIDAR 시스템의 윈도우와 평행하지 않은 MEMS 미러
본 개시와 일치하여, MEMS 미러는 윈도우를 통해 통과할 수 있고 LIDAR 시스템(100)의 (광 센서와 같은) 다른 구성 요소에 도달할 수 있는 편향된 광을 제공하기 위해 반사된 미러를 편향시킬 수 있고 LIDAR 시스템의 윈도우를 통해 통과할 수 있는 광을 수신할 수 있다. 편향된 광의 일부는 MEMS 미러, 프레임, 또는 액추에이터를 향해 (윈도우에 의해) 후방으로 반사될 수 있다. MEMS 미러와 윈도우가 서로 평행할 때, 광은 MEMS 미러와 윈도우에 의해 반복적으로 반사될 수 있으며, 이로 인해 원하지 않는 광 아티팩트를 생성할 수 있다. 이러한 광 아티팩트는 MEMS 미러의 광축과 윈도우의 광축이 서로 평행하지 않은 경우 또는 MEMS 미러와 평행하지 않은 윈도우를 제공함으로써 감쇠되거나 심지어 방지될 수 있다. MEMS 미러 및 윈도우 중 어느 하나가 커브되거나 서로 지향된 다수의 섹션을 갖는 경우, MEMS 미러의 어느 부분도 윈도우의 임의의 부분에 평행하지 않아야만 하는 것이 이익일 수 있다. 윈도우와 MEMS 미러 사이의 각도는 윈도우가 MEMS 미러를 향한 광을 반사하지 않도록, MEMS 미러가 아이들 위치에 있을 때 또는 심지어 MEMS 미러가 임의의 액추에이터에 의해 이동되는 경우에도 설정될 수 있다.
도 75는 윈도우(9322)을 포함하는 하우징(9320)을 도시한다. 하우징은 MEMS 미러(9002)를 둘러싼다. 하우징(9320)은 웨이퍼 레벨 포장 또는 임의의 다른 기술을 이용하여 제조될 수 있는 밀봉된 하우징일 수 있다. 하우징(9320)은 베이스(9310)를 포함한다. 베이스(9310)는 투명하거나 투명하지 않을 수 있다. 투명베이스는 MEMS 미러(9002)의 후면이 조명에 의해 모니터 될 때 유용할 수 있다. 광(9601)은 윈도우(9322)를 통과하여 MEMS 미러(9002)에 충돌한다. MEMS 미러(9002)는 편향된 광(9602)을 제공하기 위해 광을 편향시킨다. 편향된 광의 일부는 윈도우(9322)를 통과할 수 있지만, 다른 일부(9603)는 미러(9322)에 의해 하우징(9320)을 향해 반사된다. 따라서, 일부(9603)는 MEMS 미러(9002)를 향하여 반사되지 않을 수 있다.
도 76은 상부를 포함하는 하우징(9320)을 도시한다. 상부는 미러(9320) 및 2개의 측벽(9321, 9323)을 포함한다. 하우징의 중간 부분은 (9121 및 9122와 같은) 다양한 층들을 포함하는 집적 회로의 (프레임(9050)과 같은, 그러나 이에 제한되지는 않는) 외부 부분으로부터 형성될 수 있다. 집적 회로는 (상부 반사 표면(9004), 층(9121, 9122)의 다양한 중간 요소, 및 보강 요소(9003)를 가지는) MEMS 미러(9002), 상호연결부(9022, 9021), 액추에이터(9012, 9014)를 포함할 수 있다. 결합층(9301)은 집적 회로와 베이스(9310) 사이에 위치될 수 있다.
도 77은 투명 베이스를 포함하는 하우징(9320)을 도시한다. 설명의 간략화를 위해, 이 도면은 조명 유닛(9243), 빔 스플리터(9263), 및 센서(9253)를 도시한다. 조명 유닛(9243) 및 광 센서(9253)는 하우징 외부에 위치된다.
도 78은 액추에이터 및 상호연결부의 상부에 위치된 반사-방지층(9380)을 도시한다. 도 79는 액추에이터, 프레임, 및 상호연결부의 상부에 위치된 반사-방지층(9380)을 도시한다. 도 80은 프레임의 상부에 위치된 반사-방지층(9380)을 도시한다. 상기 언급된 반사-방지층 중 임의의 층은 층과 다를 수 있는 하나 이상의 반사-방지 요소로 대체될 수 있다. 반사-방지 요소는 윈도우와 평행할 수 있고, 윈도우 등과 관련하여 배향될 수 있다.
도 81은 MEMS 윈도우에 평행한 윈도우를 갖는 하우징을 도시한다. 상기 하우징은 투명베이스를 포함한다. 설명의 간략화를 위해, 이 도면은 조명 유닛(9243), 빔 스플리터(9263), 및 센서(9253)를 도시한다. 조명 유닛(9243) 및 광 센서(9253)는 하우징 외부에 위치된다. MEMS 미러는 임의의 형태 또는 크기일 수 있다. 예를 들어, MEMS 미러는 직사각형일 수 있다.
도 82 및 도 83은 직사각형 MEMS 미러(9402), 2개의 액추에이터(9404, 9407), 2개의 상호연결부(9403, 9406), 전극(9410, 9413), 및 상부 부분(9504), 하부 부분(9408) 및 프레임의 상부와 하부 부분 사이에 연결된 2개의 절연 부분(9411, 9422)을 포함하는 직사각형 프레임을 도시한다. 도 82에서, 액추에이터(9404, 9407)는 MEMS 미러의 반대 측면을 마주보고 서로 마주하여 평행하며, 프레임의 반대되는 부분에 연결된다. 도 83에서, 액추에이터(9404, 9407)는 MEMS 미러의 반대 측면을 마주보고 서로 마주하여 평행하며, 프레임의 동일한 측에 연결된다.
도 84는 직사각형 MEMS 미러(9402), 4개의 액추에이터(9404, 9407, 9424, 9427), 4개의 상호연결부(9403, 9406, 9423, 9436), 4개의 전극(9410, 9413, 9440, 9443), 상부 부분(9504), 하부 부분(9408) 및 프레임의 상부와 하부 부분 사이에 연결된 2개의 절연 부분(9411, 9422)을 포함하는 직사각형 프레임을 도시한다. 4개의 액추에이터는 MEMS 미러(9402)의 4개의 면을 마주하고 각각은 프레임의 상이한 면에 연결된다. 또한, 도 56 내지 도 84는 단일 MEMS 미러를 도시한다. LIDAR 시스템(100)은 다수의 MEMS 미러들의 어레이를 포함할 수 있다. 다수의 MEMS 미러들 중 임의의 것을 제어하는데 사용되는 피드백을 제공하기 위해 임의의 개수의 MEMS 미러가 모니터될 수 있다. 예를 들어, 만약 1과 N 사이의 임의의 개수보다 많은 N개의 MEMS 미러가 있는 경우, MEMS 미러가 모니터되어 N 개의 MEMS 미러의 임의의 수의 MEMS 미러를 모니터하는 데 이용될 수 있는 피드백을 제공할 수 있다.
일 실시예에서, LIDAR 시스템(100)은 광을 수신하기 위한 윈도우; 편향된 광을 제공하기 위해 광을 편향시키는 MEMS 미러; 프레임; 액추에이터; 액추에이터와 MEMS 미러 사이에 기계적으로 연결될 수 있는 상호연결 요소를 포함할 수 있다. 각 액추에이터는 바디와 압전 소자를 포함할 수 있다. 압전 소자는 전계를 받을 때 바디를 굴곡하며 MEMS 미러를 움직이도록 구성될 수 있다. MEMS 미러가 아이들 위치에 위치될 때, MEMS 미러는 윈도우에 대해 배향될 수 있다. 광은 LIDAR 시스템의 시야의 적어도 세그먼트 내에 있을 수 있는 반사된 광일 수 있다. 광은 LIDAR 시스템의 광원으로부터 투영된 광일 수 있다. 제1 기간 동안, 광은 LIDAR 시스템의 광원으로부터의 투영된 광이고, 제2 기간 동안 광은 LIDAR 시스템의 시야의 적어도 세그먼트 내의 반사된 광이다.
다른 실시예에서, LIDAR 시스템(100)은 윈도우와 프레임 사이에 위치될 수 있는 적어도 하나의 반사-방지 요소를 포함할 수 있다. 반사-방지 요소는 윈도우에 대해 배향될 수 있다. MEMS 미러와 윈도우 사이의 배향각은 20도 내지 70 도의 범위일 수 있다. 윈도우는 MEMS 미러를 향하여 편향된 광의 임의의 부분의 반사를 방지하도록 형상되고 위치될 수 있다. MEMS 미러는 심지어 액추에이터들 중 적어도 하나에 의해 이동 될 때 조차도 윈도우에 배향될 수 있다. 상호연결 요소들의 상호연결 요소는 MEMS 미러에 연결될 수 있는 제1 세그먼트 및 액추에이터에 연결될 수 있는 제2 세그먼트를 포함할 수 있으며, 제1 세그먼트와 제2 세그먼트는 서로 기계적으로 결합될 수 있다.
관련된 실시예들에서, 제1 세그먼트는 제2 세그먼트에 대해 실질적으로 90만큼 배향될 수 있고; 제1 세그먼트는 MEMS 미러의 둘레에 연결될 수 있으며, MEMS 미러의 둘레에 대해 실질적으로90만큼 배향될 수 있고; MEMS 미러가 아이들 위치에 위치될 때, 제1 세그먼트는 MEMS 미러의 중심을 향하여 지향될 수 있으며; 제2 세그먼트는 액추에이터의 둘레에 연결될 수 있으며, 액추에이터의 둘레에 대해 실질적으로90만큼 배향될 수 있고; 제2 세그먼트의 길이 방향 축은 액추에이터의 길이 방향 축에 실질적으로 평행할 수 있으며; 제1 세그먼트와 제2 세그먼트는 MEMS 미러가 아이들 위치에 위치될 때 L자형으로 배치될 수 있고; 상호연결 요소는 제1 세그먼트와 제2 세그먼트 사이를 기계적으로 결합시킬 수 있는 적어도 하나의 추가 세그먼트를 포함할 수 있고; 제1 세그먼트와 제2 세그먼트는 길이에 의해 서로 다를 수 있으며; 제1 세그먼트와 제2 세그먼트는 폭에 의해 서로 다를 수 있고; 제1 세그먼트와 제2 세그먼트는 단면적의 형태에 의해 서로 다를 수 있으며; 제1 세그먼트와 제2 세그먼트는 MEMS 미러가 아이들 위치에 위치될 때 동일한 평면에 위치될 수 있다. 제1 세그먼트와 제2 세그먼트는 액추에이터와 동일한 평면에 위치될 수 있다.
다른 실시예에서, LIDAR 시스템(100)은 타원 형태 (예를 들어, MEMS 미러가 원형일 수 있음)를 가질 수 있는 MEMS 미러를 포함할 수 있으며, 이 때 액추에이터는 적어도 3개의 독립적으로 제어되는 액추에이터를 포함할 수 있다. 액추에이터 및 상호연결 요소의 각 쌍은 프레임과 MEMS 미러 사이에 직접 연결될 수 있다. MEMS 미러는 약 2개의 회전축을 피봇하도록 동작할 수 있다.
관련된 실시예에서, 액추에이터는 적어도 4개의 독립적으로 제어되는 액추에이터를 포함할 수 있고; MEMS 미러의 길이 방향 축은 광 빔의 길이 방향 축에 대응하고; MEMS 미러의 길이 방향 축은 LIDAR 시스템의 검출기 어레이의 길이 방향 축에 대응하며; 액추에이터는 제1 방향을 따라 서로 반대될 수 있는 제1 액추에이터의 쌍 및 제2 방향을 따라 서로 반대될 수 있는 제2 액추에이터의 쌍을 포함할 수 있으며; 제1 액추에이터의 쌍은 제2 액추에이터의 쌍과 상이할 수 있으며; 윈도우, MEMS 미러, 프레임, 및 액추에이터는 유닛을 형성할 수 있고; 유닛은 제1 방향을 따라 전파하는 기계적 진동 및 제2 방향을 따라 전파하는 기계적 진동에 대해 상이하게 반응할 수 있으며; 아이들 일 때 제1 쌍의 액추에이터는, 아이들 일 때 제2 쌍의 액추에이터의 길이와 실질적으로 다른 길이를 가질 수 있고; 아이들 일 때 제1 쌍의 액추에이터는, 아이들 일 때 제2 쌍의 액추에이터의 형태와 실질적으로 다른 형태를 가질 수 있으며; 작동 중에, LIDAR 시스템은 특정 주파수 범위를 가지는 기계적 진동을 받을 수 있고; 유닛의 공진 주파수는 특정 주파수 범위 밖일 수 있고; 유닛의 공진 주파수는 적어도 2배 만큼 특정 주파수 범위의 최대 주파수를 초과할 수 있으며; 유닛의 공진 주파수는 400Hz 내지 1KHZ 일 수 있으며; 액추에이터는 액추에이터의 바디 아래에 위치될 수 있는 압전 소자를 포함할 수 있고, 다른 액추에이터는 다른 압전 소자의 바디 위에 위치될 수 있는 압전 소자를 포함할 수 있고; 액추에이터는 압전 소자의 바디 위에 위치될 수 있는 압전 소자를 포함할 수 있으며; LIDAR 시스템은 센서로부터 추가의 압전 소자의 상태의 지표를 수신하도록 구성될 수 있는 제어기를 더 포함할 수 있고; 제어기는 추가 압전 소자의 상태의 지표에 기초하여 액추에이터를 제어하도록 구성될 수 있으며; 제어기는 추가 압전 소자의 상태의 지표에 기초하여 MEMS 미러의 방향을 결정하도록 구성될 수 있다.
다른 실시예에서, LIDAR 시스템(100)은 가변 커패시터 및 센서를 포함할 수 있다. 가변 커패시터의 커패시턴스는 프레임과 액추에이터들의 액추에이터 사이의 공간적 관계를 나타내고, 센서는 가변 커패시터의 커패시턴스를 감지하도록 구성될 수 있다.
관련된 실시예에서, 가변 커패시터는 액추에이터에 연결될 수 있는 제1 플레이트 및 프레임에 연결될 수 있는 제2 플레이트를 포함할 수 있고; 프레임과 액추에이터 사이의 공간적 관계는 제1 플레이트와 제2 플레이트 사이의 중첩을 결정하며; 가변 커패시터는 액추에이터에 연결될 수 있는 다수의 제1 플레이트 및 프레임에 연결될 수 있는 다수의 제2 플레이트를 포함할 수 있고; 액추에이터는 프레임에 기계적으로 연결될 수 있는 제1 단부 및 상기 제1 단부와 반대될 수 있고, 상호연결 요소에 기계적으로 연결될 수 있는 제2 단부를 가지고; 가변 커패시터와 제1 단부 사이의 거리는 가변 커패시터와 제2 단부 사이의 거리를 초과하며; 액추에이터는 프레임에 기계적으로 연결될 수 있는 제1 단부 및 상기 제1 단부와 반대될 수 있고, 상호연결 요소에 기계적으로 연결될 수 있는 제2 단부를 가지며; 가변 커패시터와 제1 단부 사이의 거리는 가변 커패시터와 제2 단부 사이의 거리보다 작을 수 있다.
다른 실시예에서, LIDAR 시스템(100)은 가변 커패시터의 커패시턴스의 지표를 수신하고 가변 커패시터의 커패시턴스에 기초하여 MEMS 미러의 방향을 결정하도록 구성될 수 있는 제어기를 포함할 수 있다. 압전 소자는 제어 신호원으로부터의 제어 신호에 의해 유도된 전기장을 받을 때 바디를 굴곡하고 MEMS 미러를 이동시키도록 구성될 수 있으며, 제어 신호는 LIDAR 시스템의 전극에 공급될 수 있다.
제어 신호는 교류 바이어스 성분 및 스티어링 성분을 갖는다. 바디의 굴곡은 스티어링 성분에 응답할 수 있으며, 여기서 교류 바이어스 성분의 주파수는 스티어링 성분의 최대 주파수를 초과한다. 센서는 액추에이터의 굴곡으로 인해 액추에이터의 유전 계수 변화를 감지하도록 구성될 수 있다.
관련된 실시예에서, 센서는 전류 진폭 센서일 수 있고; 센서는 또한 전류 진폭 센서와 위상 천이 센서일 수 있으며; 교류 바이어스 성분의 진폭은 스티어링 성분의 진폭보다 적어도 100배 만큼 낮을 수 있으며; LIDAR 시스템은 유전 계수 변화에 대한 정보를 수신하고 MEMS 미러의 방향을 결정하도록 구성된 제어기를 더 포함할 수 있으며; 윈도우는 하우징에 속할 수 있다. 하우징은 MEMS 미러, 프레임, 및 액추에이터를 둘러싸는 밀봉된 하우징일 수 있으며; 하우징은 MEMS 미러 아래에 위치될 수 있는 투명 영역을 포함할 수 있고; LIDAR 시스템은 적어도 하나의 광학 센서 및 적어도 하나의 광원을 더 포함할 수 있고, 상기 적어도 하나의 광원은 상기 투명 영역을 통해 상기 MEMS 미러의 후면을 향하여 적어도 하나의 광 빔을 투과하도록 구성될 수 있으며; 적어도 하나의 광학 센서는 상기 MEMS 미러의 후면으로부터 광을 수신하도록 구성될 수 있으며; LIDAR 시스템은 적어도 하나의 광학 센서로부터의 정보에 기초하여 MEMS 미러의 방향을 결정하도록 구성될 수 있는 제어기를 포함할 수 있으며 하우징의 상이한 부분은 웨이퍼 레벨 패키징에 의해 형성될 수 있고; 프레임은 하우징의 하부 영역을 형성하는 집적 회로에 속할 수 있으며; 상호연결 요소들의 상호연결 요소는 적어도 하나의 조인트에 의해 서로를 기계적으로 결합할 수 있는 다수의 세그먼트를 포함할 수 있으며; 상기 조인트는 볼 조인트(ball joint)일 수 있고; 상기 조인트는 또한 MEMS 조인트일 수 있다.
전술한 설명은 설명의 목적으로 제공되었다. 이는 포괄적인 것이 아니며, 개시된 정확한 형태 또는 실시예에 제한되지 않는다. 통상의 기술자에게는 개시된 실시예들의 명세서 및 실시예를 고려하여 수정 및 변경이 명백할 것이다. 또한, 개시된 실시예의 양태가 메모리에 저장되는 것으로 설명되었지만, 통상의 기술자는 이러한 양태가 예를 들어, CD ROM, 다른 형태의 RAM 또는 ROM, USB 매체, DVD, 블루레이, 또는 기타 광 드라이브 매체와 같은 2차 저장 디바이스와 같은 다른 유형의 컴퓨터 판독가능 매체에 또한 저장될 수 있다는 것을 인식할 것이다.
쓰여진 설명과 개시된 방법에 기초한 컴퓨터 프로그램은 숙련된 개발자의 기술 범위 내에 있다. 다양한 프로그램 또는 프로그램 모듈은 통상의 기술자에게 공지된 임의의 기술을 이용하여 생성될 수 있거나 기존 소프트웨어와 연결하여 설계될 수 있다. 예를 들어, 프로그램 섹션 또는 프로그램 모듈은, NET Framework, NET Compact Framework (및 Visual Basic, C 등과 같은 관련 언어), Java, C ++, 오브젝티브-C, HTML, HTML/AJAX 조합, XML, 또는 포함된 Java 애플릿(applet)을 사용하는 HTML를 통해 설계될 수 있다.
또한, 예시적인 실시예가 본 명세서에 설명되었지만, 임의의 실시예 및 모든 실시예의 범위는 본 개시에 기초한 통상의 기술자에 의해 인식되는 것과 등가 요소, 수정, 생략, (예를 들어, 다양한 실시예에 걸쳐있는 양태의) 조합, 적응, 및/또는 변경을 갖는다. 청구 범위에서의 제한은 청구 범위에서 사용되는 언어에 기초하여 광범위하게 해석되어야 하며, 본 명세서에 기술된 예시들 또는 출원의 기소 중으로 제한되지 않는다. 실시예는 비배타적인 것으로 해석되어야 한다. 또한, 개시된 방법의 단계는 재정렬 단계 및/또는 삽입 또는 삭제 단계를 포함하는 임의의 방식으로 수정될 수 있다. 따라서, 상세한 설명 및 예시는 단지 설명을 위한 것으로서, 진정한 범위 및 사상은 이하의 청구 범위 및 그 균등물의 전체 범위에 의해 지시되는 것으로 간주되어야한다.

Claims (27)

  1. 차량에 사용하기 위한 LIDAR 시스템으로서,
    차량의 환경에서 복수의 물체를 조명하기 위해 시야를 향하여 광을 투영하도록 구성된 적어도 하나의 광원;
    적어도 하나의 프로세서
    를 포함하고, 상기 적어도 하나의 프로세서는
    상기 적어도 하나의 광원으로부터 광의 광 플럭스가 상기 시야의 복수의 부분의 스캔에 걸쳐 변화할 수 있는 방식으로 상기 적어도 하나의 광원을 제어하고 - 상기 시야의 스캐닝 동안 복수의 시스템 구성 요소 중에서 하나의 시스템 구성 요소로부터 열이 방사됨 -;
    복수의 시스템 구성 요소 중에서 적어도 하나의 시스템 구성 요소와 연관된 온도가 임계값을 초과한다는 것을 나타내는 정보를 수신하고;
    상기 온도가 임계값을 초과한다는 것을 나타내는 수신된 정보에 응답하여, 적어도 하나의 후속 스캐닝 사이클 동안 이전 스캐닝 사이클에서보다 더 적은 광이 상기 시야에 전달되도록 상기 시야의 두 부분 사이의 조명비를 수정하도록 구성되는, LIDAR 시스템.
  2. 제1항에 있어서,
    상기 적어도 하나의 프로세서는 상기 적어도 하나의 광 편향기를 제어하여 상기 시야의 스캐닝 사이클 동안 적어도 하나의 광 편향기가 복수의 상이한 순간 위치에 위치되도록 더 구성되는, LIDAR 시스템.
  3. 제2항에 있어서,
    상기 적어도 하나의 프로세서는 상기 적어도 하나의 광 편향기 및 적어도 하나의 광원을 조정하여, 상기 적어도 하나의 광 편향기가 특정 순간 위치에 위치되는 때에 광빔의 부분이 적어도 하나의 광 편향기에 의해 적어도 하나의 광원으로부터 시야의 물체를 향하여 편향되게 하고, 상기 물체로부터의 광빔의 일부의 반사는 적어도 하나의 광 편향기에 의해 적어도 하나의 센서를 향하여 편향되게 하도록 구성되는, LIDAR 시스템.
  4. 제2항에 있어서,
    상기 적어도 하나의 광 편향기를 겨냥한 복수의 광원을 더 포함하고,
    상기 적어도 하나의 프로세서는 상기 적어도 하나의 광 편향기를 제어하여, 적어도 하나의 광 편향기가 특정 순간 위치에 위치되는 때에 상기 복수의 광원으로부터의 광이 상기 시야의 복수의 독립 영역을 향하여 투영되도록 더 구성되는, LIDAR 시스템.
  5. 제2항에 있어서,
    상기 적어도 하나의 프로세서는 상기 시야의 단일 스캐닝 사이클에서 광의 공간적 광 분포를 결정하고, 상기 시야의 제2 부분을 향하는 것보다 시야의 제1 부분을 향하여 더 많은 광이 투영되도록 조명비를 수정하도록 더 구성되는, LIDAR 시스템.
  6. 제5항에 있어서,
    상기 적어도 하나의 프로세서는 상기 적어도 하나의 광 편향기 및 적어도 하나의 광원의 제어를 조정하여, 적어도 하나의 후속 스캐닝 사이클 동안 이전 스캐닝 사이클에서 투영된 것과 동일한 양의 광이 제1 부분을 향하여 투영되도록 더 구성되는, LIDAR 시스템.
  7. 제5항에 있어서,
    상기 적어도 하나의 프로세서는 상기 적어도 하나의 광 편향기 및 적어도 하나의 광원의 제어를 조정하여, 제2 부분을 향하여 투영된 광 펄스보다 제1 부분을 향하여 더 많은 광 펄스를 투영하도록 더 구성되는, LIDAR 시스템.
  8. 제5항에 있어서,
    상기 적어도 하나의 프로세서는 복수의 스캐닝 사이클에서 상기 적어도 하나의 광 편향기 및 적어도 하나의 광원의 제어를 조정하여, 상기 제1 부분을 조명하기 위한 스캐닝 사이클의 제1 속도 및 상기 제2 부분을 조명하기 위한 스캐닝 사이클의 제2 속도를 동적으로 조절하도록 더 구성되는, LIDAR 시스템.
  9. 제1항에 있어서,
    상기 적어도 하나의 프로세서는
    상기 시야의 제1 부분에서 관심 영역의 식별을 획득하고;
    시야의 제1 부분과 제2 부분 사이의 조명비를 수정하여 적어도 하나의 후속하는 스캐닝 사이클 동안 제2 부분을 향하는 것보다 더 많은 광이 제1 부분을 향하여 지향되도록 더 구성되는, LIDAR 시스템.
  10. 제9항에 있어서,
    상기 적어도 하나의 프로세서는 상기 시야의 제2 부분에서 비관심 영역의 식별을 획득하도록 더 구성되는, LIDAR 시스템.
  11. 제1항에 있어서,
    상기 적어도 하나의 프로세서는 적어도 하나의 시스템 구성 요소와 연관된 온도가 임계값을 초과하는 것을 나타내는 정보를 상기 적어도 하나의 프로세서에 연결 가능한 센서로부터 수신하도록 더 구성되는, LIDAR 시스템.
  12. 제1항에 있어서,
    상기 적어도 하나의 프로세서는 적어도 하나의 시스템 구성 요소와 연관된 온도가 임계값을 초과하는 것을 나타내는 정보를 차량 제어기로부터 수신하도록 더 구성되는, LIDAR 시스템.
  13. 제1항에 있어서,
    상기 수신된 정보는 차량 외부 환경의 온도에 관한 정보, 차량의 엔진 열에 관한 정보, 적어도 하나의 광원의 온도에 관한 정보, 및 적어도 하나의 프로세서의 온도에 관한 정보 중 적어도 하나를 포함하는, LIDAR 시스템.
  14. 제1항에 있어서,
    상기 적어도 하나의 프로세서는 차량 주위 환경의 온도에 관한 정보에 기초하여 상기 임계값에 대한 값을 결정하도록 더 구성되는, LIDAR 시스템.
  15. 제1항에 있어서,
    상기 적어도 하나의 프로세서는 상기 온도가 임계값을 초과한다는 것을 나타내는 수신된 정보에 응답하여, 상기 적어도 하나의 후속 스캐닝 사이클 동안 상기 시야의 일부의 해상도를 감소시키도록 더 구성되는, LIDAR 시스템.
  16. 차량으로서,
    차량 바디;
    상기 차량의 환경에서 복수의 물체를 조명하기 위해 시야를 향하여 광을 투영하도록 구성된 적어도 하나의 광원; 및
    상기 차량 바디 내에 위치된 적어도 하나의 프로세서
    를 포함하고, 상기 적어도 하나의 프로세서는,
    상기 시야의 복수의 부분의 스캔에 걸쳐 상기 적어도 하나의 광원으로부터의 광의 광 플럭스를 변화시킬 수 있는 방식으로 상기 적어도 하나의 광원을 제어하고 - 상기 시야의 스캐닝 동안 복수의 시스템 구성 요소 중에서 하나의 시스템 구성 요소로부터 열이 방사됨 -;
    복수의 시스템 구성 요소 중에서 적어도 하나의 시스템 구성 요소와 연관된 온도가 임계값을 초과한다는 것을 나타내는 정보를 수신하고;
    수신된 정보에 응답하여, 적어도 하나의 후속 스캐닝 사이클 동안 이전 스캐닝 사이클에서보다 더 적은 광이 시야에 전달되도록 상기 시야의 두 부분 사이의 조명비를 수정하도록 구성되는, 차량.
  17. 제16항에 있어서,
    상기 적어도 하나의 프로세서는 시야의 단일 스캐닝 사이클에서 광의 공간적 광 분포를 결정하고, 상기 시야의 제2 부분을 향하는 것보다 더 많은 광이 시야의 제1 부분을 향하여 투영되도록 조명비를 수정하도록 더 구성되는, 차량.
  18. 제16항에 있어서,
    상기 적어도 하나의 프로세서는 상기 적어도 하나의 광 편향기 및 적어도 하나의 광원의 제어를 조정하여, 후속 스캐닝 사이클 동안, 제1 부분을 향하여 투영된 광량은 이전 스캐닝 사이클에서 제1 부분을 향하여 투영된 광량과 실질적으로 동일하게 되도록 더 구성되는, 차량.
  19. 제16항에 있어서,
    상기 적어도 하나의 프로세서는
    상기 시야의 제1 부분의 관심 영역의 식별 및 상기 시야의 제2 부분의 비관심 영역의 식별을 획득하고,
    상기 시야의 제1 부분과 제2 부분 사이의 조명비를 수정하여, 적어도 하나의 후속 스캐닝 사이클 동안, 제2 부분을 향하는 것보다 더 많은 광이 제1 부분을 향하여 지향되게 하도록 더 구성되는, 차량.
  20. 제16항에 있어서,
    상기 적어도 하나의 프로세서는 상기 차량의 외부 환경의 온도에 관한 정보에 기초하여 상기 임계값에 대한 값을 결정하도록 더 구성되는, 차량.
  21. 비휘발성 컴퓨터 판독가능 저장 매체로서,
    적어도 하나의 프로세서에 의해 실행될 때, 상기 적어도 하나의 프로세서로 하여금, 차량의 환경에서 복수의 물체를 조명하기 위해 시야를 향하여 광을 투영하하도록 구성된 적어도 하나의 광원을 포함하는 LIDAR 시스템을 이용하여 물체를 검출하는 방법을 수행하게 하는 명령들이 저장되며, 상기 LIDAR 시스템을 이용하여 물체를 검출하는 방법은,
    상기 시야의 복수의 부분의 스캔에 걸쳐 상기 적어도 하나의 광원으로부터의 광의 광 플럭스를 변화시킬 수 있는 방식으로 상기 적어도 하나의 광원을 제어하는 단계 - 상기 시야의 스캐닝 동안 복수의 시스템 구성 요소 중에서 하나의 시스템 구성 요소로부터 열이 방사됨 -;
    복수의 시스템 구성 요소 중에서 적어도 하나의 시스템 구성 요소와 연관된 온도가 임계값을 초과한다는 것을 나타내는 정보를 수신하는 단계; 및
    상기 수신된 정보에 응답하여, 적어도 하나의 후속 스캐닝 사이클 동안 이전 스캐닝 사이클에서보다 더 적은 광이 시야에 전달되도록 상기 시야의 두 부분 사이의 조명비를 수정하는 단계를 포함하는, 비휘발성 컴퓨터 판독가능 저장 매체.
  22. 제1항에 있어서,
    상기 적어도 하나의 프로세서는
    상기 시야의 제1 부분의 관심 영역의 식별을 획득하고,
    상기 적어도 하나의 광원과 연관된 광 버짓에 따라 상기 관심 영역에 지향된 광 세기를 수정하도록 더 구성되는, LIDAR 시스템.
  23. 제1항에 있어서,
    상기 적어도 하나의 시스템 구성 요소는 LIDAR 광원, LIDAR 편향기, LIDAR 센서, 또는 LIDAR 프로세서 중 적어도 하나를 포함하는, LIDAR 시스템.
  24. 제16항에 있어서,
    상기 적어도 하나의 프로세서는
    상기 시야의 제1 부분의 관심 영역의 식별을 획득하고,
    상기 적어도 하나의 광원과 연관된 광 버짓에 따라 상기 관심 영역에 지향된 광 세기를 수정하도록 더 구성되는, 차량.
  25. 제16항에 있어서,
    상기 적어도 하나의 차량 구성 요소는 LIDAR 광원, LIDAR 편향기, LIDAR 센서, 또는 LIDAR 프로세서 중 적어도 하나를 포함하는, 차량.
  26. 제21항에 있어서,
    상기 적어도 하나의 프로세서는
    상기 시야의 제1 부분의 관심 영역의 식별을 획득하고,
    상기 적어도 하나의 광원과 연관된 광 버짓에 따라 상기 관심 영역에 지향된 광 세기를 수정하도록 더 구성되는, 비휘발성 컴퓨터 판독가능 저장 매체.
  27. 제21항에 있어서,
    상기 적어도 하나의 시스템 구성 요소는 LIDAR 광원, LIDAR 편향기, LIDAR 센서, 또는 LIDAR 프로세서 중 적어도 하나를 포함하는, 비휘발성 컴퓨터 판독가능 저장 매체.
KR1020237022935A 2016-09-20 2017-09-20 Lidar 시스템 및 방법 KR102656212B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020247011385A KR102714940B1 (ko) 2016-09-20 2017-09-20 Lidar 시스템 및 방법

Applications Claiming Priority (30)

Application Number Priority Date Filing Date Title
US201662396864P 2016-09-20 2016-09-20
US201662396863P 2016-09-20 2016-09-20
US201662396858P 2016-09-20 2016-09-20
US62/396,858 2016-09-20
US62/396,864 2016-09-20
US62/396,863 2016-09-20
US201662397379P 2016-09-21 2016-09-21
US62/397,379 2016-09-21
US201662405928P 2016-10-09 2016-10-09
US62/405,928 2016-10-09
US201662412294P 2016-10-25 2016-10-25
US62/412,294 2016-10-25
US201662414740P 2016-10-30 2016-10-30
US62/414,740 2016-10-30
US201662418298P 2016-11-07 2016-11-07
US62/418,298 2016-11-07
US201662422602P 2016-11-16 2016-11-16
US62/422,602 2016-11-16
US201662425089P 2016-11-22 2016-11-22
US62/425,089 2016-11-22
US201762441583P 2017-01-03 2017-01-03
US201762441581P 2017-01-03 2017-01-03
US201762441574P 2017-01-03 2017-01-03
US62/441,574 2017-01-03
US62/441,581 2017-01-03
US62/441,583 2017-01-03
US201762521450P 2017-06-18 2017-06-18
US62/521,450 2017-06-18
KR1020227040560A KR102554215B1 (ko) 2016-09-20 2017-09-20 Lidar 시스템 및 방법
PCT/IB2017/001320 WO2018055449A2 (en) 2016-09-20 2017-09-20 Lidar systems and methods

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020227040560A Division KR102554215B1 (ko) 2016-09-20 2017-09-20 Lidar 시스템 및 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020247011385A Division KR102714940B1 (ko) 2016-09-20 2017-09-20 Lidar 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20230110646A KR20230110646A (ko) 2023-07-24
KR102656212B1 true KR102656212B1 (ko) 2024-04-09

Family

ID=60413226

Family Applications (7)

Application Number Title Priority Date Filing Date
KR1020197011008A KR102457029B1 (ko) 2016-09-20 2017-09-20 Lidar 시스템 및 방법
KR1020227035992A KR102472631B1 (ko) 2016-09-20 2017-09-20 Lidar 시스템 및 방법
KR1020237022935A KR102656212B1 (ko) 2016-09-20 2017-09-20 Lidar 시스템 및 방법
KR1020227040560A KR102554215B1 (ko) 2016-09-20 2017-09-20 Lidar 시스템 및 방법
KR1020227041541A KR102547582B1 (ko) 2016-09-20 2017-09-20 Lidar 시스템 및 방법
KR1020227041323A KR102547651B1 (ko) 2016-09-20 2017-09-20 Lidar 시스템 및 방법
KR1020227041134A KR102496509B1 (ko) 2016-09-20 2017-09-20 Lidar 시스템 및 방법

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020197011008A KR102457029B1 (ko) 2016-09-20 2017-09-20 Lidar 시스템 및 방법
KR1020227035992A KR102472631B1 (ko) 2016-09-20 2017-09-20 Lidar 시스템 및 방법

Family Applications After (4)

Application Number Title Priority Date Filing Date
KR1020227040560A KR102554215B1 (ko) 2016-09-20 2017-09-20 Lidar 시스템 및 방법
KR1020227041541A KR102547582B1 (ko) 2016-09-20 2017-09-20 Lidar 시스템 및 방법
KR1020227041323A KR102547651B1 (ko) 2016-09-20 2017-09-20 Lidar 시스템 및 방법
KR1020227041134A KR102496509B1 (ko) 2016-09-20 2017-09-20 Lidar 시스템 및 방법

Country Status (6)

Country Link
US (17) US10031232B2 (ko)
EP (6) EP4194888A1 (ko)
JP (6) JP6697636B2 (ko)
KR (7) KR102457029B1 (ko)
CN (3) CN110286388B (ko)
WO (1) WO2018055449A2 (ko)

Families Citing this family (496)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201511551D0 (en) 2015-07-01 2015-08-12 St Microelectronics Res & Dev Photonics device
US10676057B2 (en) * 2015-10-28 2020-06-09 Lg Innotek Co., Ltd. Optical output module, vehicle including same, and control method therefor
US10641872B2 (en) 2016-02-18 2020-05-05 Aeye, Inc. Ladar receiver with advanced optics
US20170242104A1 (en) 2016-02-18 2017-08-24 Aeye, Inc. Ladar Transmitter with Induced Phase Drift for Improved Gaze on Scan Area Portions
US10042159B2 (en) 2016-02-18 2018-08-07 Aeye, Inc. Ladar transmitter with optical field splitter/inverter
US9933513B2 (en) 2016-02-18 2018-04-03 Aeye, Inc. Method and apparatus for an adaptive ladar receiver
JP6645254B2 (ja) * 2016-02-23 2020-02-14 株式会社デンソー 物体認識装置
AU2017250112B2 (en) * 2016-04-12 2020-09-17 Quidient, Llc Quotidian scene reconstruction engine
US10761195B2 (en) 2016-04-22 2020-09-01 OPSYS Tech Ltd. Multi-wavelength LIDAR system
US10234856B2 (en) * 2016-05-12 2019-03-19 Caterpillar Inc. System and method for controlling a machine
US11422442B2 (en) * 2016-07-16 2022-08-23 Ideal Perceptions Llc System for interactively projecting geometrically accurate light images into a projection environment or zone of complex three-dimensional topography
DE102017205195A1 (de) * 2016-07-28 2018-02-01 Robert Bosch Gmbh Laserentfernungsmessgerät
US10502574B2 (en) * 2016-09-20 2019-12-10 Waymo Llc Devices and methods for a sensor platform of a vehicle
KR102457029B1 (ko) * 2016-09-20 2022-10-24 이노비즈 테크놀로지스 엘티디 Lidar 시스템 및 방법
US10277084B1 (en) 2016-10-19 2019-04-30 Waymo Llc Planar rotary transformer
DE102016122194A1 (de) * 2016-11-18 2018-05-24 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben eines optoelektronischen Sensors eines Kraftfahrzeugs mit variabler Ansteuerung einer Lichtquelle, optoelektronischer Sensor, Fahrerassistenzsystem sowie Kraftfahrzeug
US20180150703A1 (en) * 2016-11-29 2018-05-31 Autoequips Tech Co., Ltd. Vehicle image processing method and system thereof
US10554881B2 (en) 2016-12-06 2020-02-04 Microsoft Technology Licensing, Llc Passive and active stereo vision 3D sensors with variable focal length lenses
US10469758B2 (en) 2016-12-06 2019-11-05 Microsoft Technology Licensing, Llc Structured light 3D sensors with variable focal length lenses and illuminators
US10942257B2 (en) 2016-12-31 2021-03-09 Innovusion Ireland Limited 2D scanning high precision LiDAR using combination of rotating concave mirror and beam steering devices
US11054508B2 (en) 2017-01-05 2021-07-06 Innovusion Ireland Limited High resolution LiDAR using high frequency pulse firing
US11009605B2 (en) 2017-01-05 2021-05-18 Innovusion Ireland Limited MEMS beam steering and fisheye receiving lens for LiDAR system
DE112018000284B4 (de) * 2017-01-24 2023-04-06 Analog Devices, Inc. Bereitstellen eines dynamischen Sichtfelds für von einer dynamischen Position empfangenes Licht
US10168423B2 (en) * 2017-01-27 2019-01-01 Waymo Llc LIDAR sensor window configuration for improved data integrity
AU2018220938B2 (en) 2017-02-17 2022-03-17 Aeye, Inc. Method and system for ladar pulse deconfliction
JP7037830B2 (ja) * 2017-03-13 2022-03-17 オプシス テック リミテッド 眼安全性走査lidarシステム
EP3596490A1 (en) * 2017-03-16 2020-01-22 Fastree3D SA Method and device for optimizing the use of emitter and detector in an active remote sensing application
US10365351B2 (en) * 2017-03-17 2019-07-30 Waymo Llc Variable beam spacing, timing, and power for vehicle sensors
US10641874B2 (en) * 2017-03-29 2020-05-05 Luminar Technologies, Inc. Sizing the field of view of a detector to improve operation of a lidar system
US10663595B2 (en) * 2017-03-29 2020-05-26 Luminar Technologies, Inc. Synchronized multiple sensor head system for a vehicle
US10483722B2 (en) * 2017-04-12 2019-11-19 Sense Photonics, Inc. Devices with ultra-small vertical cavity surface emitting laser emitters incorporating beam steering
US10677897B2 (en) * 2017-04-14 2020-06-09 Luminar Technologies, Inc. Combining lidar and camera data
US20180301484A1 (en) * 2017-04-17 2018-10-18 Semiconductor Components Industries, Llc Image sensors with high dynamic range and autofocusing hexagonal pixels
DE102017207402A1 (de) * 2017-05-03 2018-11-08 Robert Bosch Gmbh Optischer Rußpartikelsensor für Kraftfahrzeuge
DE102017208047A1 (de) * 2017-05-12 2018-11-15 Robert Bosch Gmbh LIDAR-Vorrichtung und Verfahren mit vereinfachter Detektion
JP6638695B2 (ja) * 2017-05-18 2020-01-29 トヨタ自動車株式会社 自動運転システム
US10698108B2 (en) * 2017-05-25 2020-06-30 Texas Instruments Incorporated Receive signal beam steering and detector for an optical distance measurement system
CN106980850B (zh) * 2017-06-02 2020-03-06 京东方科技集团股份有限公司 一种纹路检测装置及其纹路检测方法
US10409286B2 (en) * 2017-07-21 2019-09-10 Ford Global Technologies, Llc Highway detection systems and methods
WO2019022941A1 (en) 2017-07-28 2019-01-31 OPSYS Tech Ltd. VCSEL LIDAR TRANSMITTER WITH LOW ANGULAR DIVERGENCE
IL253769B (en) * 2017-07-31 2022-03-01 Israel Aerospace Ind Ltd Planning a path in motion
US10447973B2 (en) 2017-08-08 2019-10-15 Waymo Llc Rotating LIDAR with co-aligned imager
CN107367736B (zh) * 2017-08-14 2024-01-19 杭州欧镭激光技术有限公司 一种高速激光测距装置
CN111344647B (zh) 2017-09-15 2024-08-02 艾耶股份有限公司 具有低延时运动规划更新的智能激光雷达系统
EP4220230A1 (en) 2017-09-26 2023-08-02 Innoviz Technologies Ltd. Lidar systems and methods
US10785400B2 (en) * 2017-10-09 2020-09-22 Stmicroelectronics (Research & Development) Limited Multiple fields of view time of flight sensor
US11415675B2 (en) * 2017-10-09 2022-08-16 Luminar, Llc Lidar system with adjustable pulse period
US11353559B2 (en) 2017-10-09 2022-06-07 Luminar, Llc Adjustable scan patterns for lidar system
US20190120941A1 (en) * 2017-10-19 2019-04-25 Shenzhen Suteng JuChuang Technologies Ltd. Co. Arrangement of light sources and detectors in a lidar system
US10324189B2 (en) * 2017-10-24 2019-06-18 Harman International Industries, Incorporated Collaborative data processing
JP6980486B2 (ja) * 2017-10-24 2021-12-15 株式会社小糸製作所 車両用灯具の制御装置及び車両用灯具システム
US11650297B2 (en) * 2017-11-10 2023-05-16 Suteng Innovation Technology Co., Ltd. LIDAR devices
US20230243935A1 (en) * 2017-11-10 2023-08-03 Suteng Innovation Technology Co., Ltd. Lidar devices
JP7388720B2 (ja) 2017-11-15 2023-11-29 オプシス テック リミテッド ノイズ適応ソリッドステートlidarシステム
DE102017220397A1 (de) * 2017-11-15 2019-05-16 Osram Gmbh Abstandsmesseinheit
US10634772B2 (en) * 2017-11-27 2020-04-28 Atieva, Inc. Flash lidar with adaptive illumination
JP7114244B2 (ja) * 2017-11-30 2022-08-08 キヤノン株式会社 光検出装置、光検出システム、及び移動体
US10768304B2 (en) 2017-12-13 2020-09-08 Luminar Technologies, Inc. Processing point clouds of vehicle sensors having variable scan line distributions using interpolation functions
DE102017222972A1 (de) 2017-12-15 2019-07-04 Ibeo Automotive Systems GmbH Empfangsanordnung zum Empfang von Lichtsignalen
DE102017222974A1 (de) * 2017-12-15 2019-06-19 Ibeo Automotive Systems GmbH Anordnung und Verfahren zur Ermittlung einer Entfernung wenigstens eines Objekts mit Lichtsignalen
US11194994B2 (en) * 2017-12-20 2021-12-07 X Development Llc Semantic zone separation for map generation
US11493601B2 (en) * 2017-12-22 2022-11-08 Innovusion, Inc. High density LIDAR scanning
WO2019135494A1 (ko) 2018-01-08 2019-07-11 주식회사 에스오에스랩 라이다 장치
US10591598B2 (en) 2018-01-08 2020-03-17 SOS Lab co., Ltd Lidar device
WO2019139895A1 (en) 2018-01-09 2019-07-18 Innovusion Ireland Limited Lidar detection systems and methods that use multi-plane mirrors
US11675050B2 (en) 2018-01-09 2023-06-13 Innovusion, Inc. LiDAR detection systems and methods
EP3742200B1 (en) * 2018-01-17 2023-11-08 Hesai Technology Co., Ltd. Detection apparatus and parameter adjustment method thereof
US10359303B1 (en) * 2018-02-09 2019-07-23 Ford Global Technologies, Llc System for vehicle sensor assembly
US11391823B2 (en) 2018-02-21 2022-07-19 Innovusion, Inc. LiDAR detection systems and methods with high repetition rate to observe far objects
US11808888B2 (en) * 2018-02-23 2023-11-07 Innovusion, Inc. Multi-wavelength pulse steering in LiDAR systems
CN112292608B (zh) 2018-02-23 2024-09-20 图达通智能美国有限公司 用于lidar系统的二维操纵系统
US10884115B2 (en) * 2018-03-09 2021-01-05 Waymo Llc Tailoring sensor emission power to map, vehicle state, and environment
CN112292614A (zh) * 2018-03-15 2021-01-29 麦特里奥传感器有限公司 用于提高lidar系统的成像性能的系统、装置和方法
WO2019176101A1 (ja) * 2018-03-16 2019-09-19 日本電気株式会社 光監視装置及び方法
JP6984737B2 (ja) * 2018-03-28 2021-12-22 日本電気株式会社 測距センサ、制御装置、制御方法及びプログラム
JP7324518B2 (ja) 2018-04-01 2023-08-10 オプシス テック リミテッド 雑音適応型固体ライダシステム
US10887433B2 (en) 2018-04-03 2021-01-05 Pony Ai Inc. System and method for incremental data processing
US11029406B2 (en) * 2018-04-06 2021-06-08 Luminar, Llc Lidar system with AlInAsSb avalanche photodiode
WO2019197894A1 (en) * 2018-04-09 2019-10-17 Innoviz Technologies Ltd. Lidar systems and methods with internal light calibration
EP3756032A4 (en) * 2018-04-09 2021-12-01 Sense Photonics, Inc. AUTOMATIC GAIN CONTROL FOR LIDAR FOR AUTONOMOUS VEHICLES
DE102018205378A1 (de) 2018-04-10 2019-10-10 Ibeo Automotive Systems GmbH Verfahren zur Ansteuerung von Sensorelementen eines LIDAR Messsystems
US10705534B2 (en) * 2018-04-19 2020-07-07 Faraday&Future Inc. System and method for ground plane detection
US10705220B2 (en) * 2018-04-19 2020-07-07 Faraday & Future Inc. System and method for ground and free-space detection
CN112020662A (zh) * 2018-04-28 2020-12-01 深圳市大疆创新科技有限公司 具有光学器件和固态探测器的光探测和测距传感器以及相关联的系统和方法
EP3788595A4 (en) 2018-05-02 2022-01-05 Quidient, LLC CODEC FOR PROCESSING SCENES WITH ALMOST UNLIMITED DETAILS
DE102018110549A1 (de) * 2018-05-03 2019-11-07 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben einer Laserscanvorrichtung und Laserscanvorrichtung
KR20210010875A (ko) 2018-05-10 2021-01-28 아워스 테크놀로지, 아이엔씨. 동시에 거리 및 속도 측정을 위한 다중 레이저 및 코히어런트 수신기의 상호 보완 변조를 기반으로 하는 lidar 시스템
KR102050678B1 (ko) * 2018-05-14 2019-12-03 주식회사 에스오에스랩 라이다 장치
DE102018207711A1 (de) * 2018-05-17 2019-11-21 Osram Gmbh Abstandsmesseinheit
JP7141242B2 (ja) * 2018-05-18 2022-09-22 株式会社小糸製作所 センサシステム
WO2019226487A1 (en) * 2018-05-23 2019-11-28 The Charles Stark Draper Laboratory, Inc. Parallel photon counting
US10739462B2 (en) * 2018-05-25 2020-08-11 Lyft, Inc. Image sensor processing using a combined image and range measurement system
WO2019227975A1 (zh) 2018-05-30 2019-12-05 Oppo广东移动通信有限公司 激光投射器的控制系统、终端和激光投射器的控制方法
US10670719B2 (en) 2018-05-31 2020-06-02 Beijing Voyager Technology Co., Ltd. Light detection system having multiple lens-receiver units
US10751875B2 (en) * 2018-05-31 2020-08-25 Indoor Robotics Ltd Rotatable mobile robot for mapping an area and a method for mapping the same
US20200341149A1 (en) * 2018-05-31 2020-10-29 Indoor Robotics Ltd. Rotatable mobile robot for mapping an area and a method for mapping the same
US11353557B2 (en) 2018-06-04 2022-06-07 Infineon Technologies Ag Hybrid LIDAR receiver and lidar methods
DE102018113739A1 (de) 2018-06-08 2019-12-12 Blickfeld GmbH Koaxiales optisches System eines reibungsfreien Scansystems für Lichtdetektion und Abstandsmessung, LIDAR, Messungen
US11675053B2 (en) * 2018-06-15 2023-06-13 Innovusion, Inc. LiDAR systems and methods for focusing on ranges of interest
US11430145B2 (en) 2018-06-17 2022-08-30 Foresight Ai Inc. Identification of local motions in point cloud data
WO2019245719A1 (en) * 2018-06-21 2019-12-26 Oyla, Inc Device and method of optical range imaging
DE112018007636T5 (de) * 2018-06-22 2021-03-04 Mitsubishi Electric Corporation Sensorsteuervorrichtung, fahrzeug, abtastverfahren und sensorsteuerprogramm
US11144775B2 (en) * 2018-06-25 2021-10-12 Cnh Industrial Canada, Ltd. System and method for illuminating the field of view of a vision-based sensor mounted on an agricultural machine
SG11201811609RA (en) * 2018-06-25 2020-01-30 Beijing Didi Infinity Technology & Development Co Ltd A high-definition map acquisition system
US11041957B2 (en) * 2018-06-25 2021-06-22 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for mitigating effects of high-reflectivity objects in LiDAR data
US10345447B1 (en) * 2018-06-27 2019-07-09 Luminar Technologies, Inc. Dynamic vision sensor to direct lidar scanning
JP2020008482A (ja) * 2018-07-11 2020-01-16 株式会社Ihi 物体検出装置
JP7039411B2 (ja) * 2018-07-20 2022-03-22 株式会社東芝 光検出器、光検出システム、ライダー装置及び車
US10802382B2 (en) 2018-07-24 2020-10-13 Qualcomm Incorporated Adjustable light projector for flood illumination and active depth sensing
WO2020023969A1 (en) * 2018-07-27 2020-01-30 Arizona Board Of Regents On Behalf Of The University Of Arizona Mems-based hybrid beam steering device for lidar
WO2020028146A1 (en) * 2018-07-30 2020-02-06 Blackmore Sensors And Analytics, Llc Method and system for optimizing scanning of coherent lidar in autonomous vehicles
CN108594266B (zh) * 2018-08-02 2024-01-19 成都英鑫光电科技有限公司 激光雷达及激光雷达测风系统
US11609314B2 (en) * 2018-08-02 2023-03-21 Uatc, Llc Lidar system design to mitigate Lidar cross-talk
US11449067B1 (en) * 2018-08-03 2022-09-20 GM Global Technology Operations LLC Conflict resolver for a lidar data segmentation system of an autonomous vehicle
DE102019211732A1 (de) 2018-08-06 2020-02-06 Koito Manufacturing Co., Ltd. Fahrzeugleuchte
JP7161337B2 (ja) * 2018-08-09 2022-10-26 株式会社小糸製作所 車両用灯具
AU2019317631B2 (en) * 2018-08-08 2021-02-18 Four Flags Pty Ltd Blast hole measurement and logging
US11473969B2 (en) 2018-08-09 2022-10-18 Ouster, Inc. Channel-specific micro-optics for optical arrays
CN109143206B (zh) * 2018-08-27 2021-06-01 森思泰克河北科技有限公司 激光雷达标定装置及标定方法
WO2020042006A1 (zh) * 2018-08-29 2020-03-05 深圳市大疆创新科技有限公司 激光雷达的控制方法、装置、激光雷达和存储介质
JP6731020B2 (ja) * 2018-09-03 2020-07-29 株式会社Subaru 車外環境認識装置および車外環境認識方法
JP7102302B2 (ja) * 2018-09-10 2022-07-19 京セラ株式会社 電磁波検出装置の調整方法
DE102018123298A1 (de) * 2018-09-21 2020-03-26 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben eines optoelektronischen Sensors für ein Kraftfahrzeug, Computerprogrammprodukt, optoelektronischer Sensor sowie Kraftfahrzeug
CA3113400A1 (en) 2018-09-21 2020-03-26 Honda Motor Co., Ltd. Vehicle inspection system
US11988748B2 (en) * 2018-09-24 2024-05-21 Lawrence Livermore National Security, Llc System and method for adaptable lidar imaging
KR102560397B1 (ko) * 2018-09-28 2023-07-27 엘지이노텍 주식회사 카메라 장치 및 그의 깊이 정보 추출 방법
US11513196B2 (en) 2018-09-28 2022-11-29 Waymo Llc Terrain adaptive pulse power in a scanning LIDAR
EP3633405B1 (de) * 2018-10-03 2023-01-11 Hexagon Technology Center GmbH Messgerät zur geometrischen 3d-abtastung einer umgebung mit einer vielzahl sendekanäle und semiconductor-photomultiplier sensoren
KR20210066906A (ko) 2018-10-04 2021-06-07 이노비즈 테크놀로지스 엘티디 가열 요소를 갖는 전기 광학 시스템
US20200110160A1 (en) * 2018-10-08 2020-04-09 Quanergy Systems, Inc. Lidar with dynamically variable resolution in selected areas within a field of view
US11726182B2 (en) * 2018-10-11 2023-08-15 GM Global Technology Operations LLC Multiple beam, single MEMS lidar
CN109188451A (zh) 2018-10-15 2019-01-11 北京径科技有限公司 一种激光雷达系统
DE102018125715A1 (de) * 2018-10-17 2020-04-23 Valeo Schalter Und Sensoren Gmbh Verfahren zur Erfassung wenigstens von Partikelzusammensetzungen in einem Überwachungsbereich mit einer optischen Detektionsvorrichtung und Detektionsvorrichtung
JP7453220B2 (ja) * 2018-10-19 2024-03-19 イノヴィズ テクノロジーズ リミテッド Lidarシステム及び方法
KR102057199B1 (ko) * 2018-10-22 2019-12-18 전자부품연구원 넓은 시야각 구조를 갖는 고효율 무회전 스캐닝 라이다 시스템
US11024669B2 (en) * 2018-10-24 2021-06-01 Aeva, Inc. LIDAR system with fiber tip reimaging
DE102018126522A1 (de) 2018-10-24 2020-04-30 Blickfeld GmbH Laufzeitbasierte Entfernungsmessung unter Verwendung von modulierten Pulsfolgen von Laserpulsen
US11327177B2 (en) 2018-10-25 2022-05-10 Aeye, Inc. Adaptive control of ladar shot energy using spatial index of prior ladar return data
CN109444848B (zh) * 2018-10-25 2021-03-19 上海禾赛科技股份有限公司 扫描装置及其扫描方法、激光雷达
CN110799853B (zh) * 2018-10-26 2024-04-30 深圳市大疆创新科技有限公司 一种环境感知系统及移动平台
US10757363B2 (en) * 2018-10-30 2020-08-25 GM Global Technology Operations LLC Method and system for reconstructing a vehicle scene at a cloud layer
CN113287031B (zh) 2018-11-02 2024-07-23 伟摩有限责任公司 车辆的多个旋转传感器的同步
US11808887B2 (en) * 2018-11-02 2023-11-07 Waymo Llc Methods and systems for mapping retroreflectors
US11275146B2 (en) * 2018-11-08 2022-03-15 Infineon Technologies Ag LIDAR system with non-uniform sensitivity response
DE102018128164A1 (de) * 2018-11-12 2020-05-14 Infineon Technologies Ag Lidar-sensoren und verfahren für lidar-sensoren
CN114114606B (zh) * 2018-11-14 2024-09-06 图达通智能美国有限公司 使用多面镜的lidar系统和方法
WO2020098771A1 (zh) * 2018-11-16 2020-05-22 上海禾赛光电科技有限公司 一种激光雷达系统
SG11201811415SA (en) 2018-11-16 2020-06-29 Beijing Didi Infinity Technology & Development Co Ltd Systems and methods for positioning vehicles under poor lighting conditions
US11287824B2 (en) * 2018-11-19 2022-03-29 Mobile Industrial Robots A/S Detecting a location of an autonomous device
US10877264B2 (en) * 2018-11-20 2020-12-29 Infineon Technologies Ag Adaptive and context-aware micro-electro-mechanical systems (MEMS) mirror control
CN113260874A (zh) * 2018-11-20 2021-08-13 感觉光子公司 用于空间分布式选通的方法和系统
DE102018129572A1 (de) * 2018-11-23 2020-05-28 Bayerische Motoren Werke Aktiengesellschaft Fahrassistenzsystem für ein automatisiert fahrendes Fahrzeug und Verfahren zum Führen eines automatisiert fahrenden Fahrzeugs
KR102549130B1 (ko) * 2018-11-26 2023-07-03 제트카베 그룹 게엠베하 적응형 후진 라이트를 갖는 차량 비전 시스템
US11391822B2 (en) 2018-11-30 2022-07-19 Seagate Technology Llc Rotating pyramidal mirror
US11921218B2 (en) * 2018-11-30 2024-03-05 Garmin Switzerland Gmbh Marine vessel LIDAR system
US11105902B2 (en) 2018-12-07 2021-08-31 Beijing Voyager Technology Co., Ltd. Mirror assembly for light steering
US11119195B2 (en) 2018-12-07 2021-09-14 Beijing Voyager Technology Co., Ltd. Mirror assembly for light steering
US10422881B1 (en) 2018-12-07 2019-09-24 Didi Research America, Llc Mirror assembly for light steering
US11181621B2 (en) 2018-12-07 2021-11-23 Beijing Voyager Technology Co., Ltd. Mirror assembly for light steering
US11468710B2 (en) * 2018-12-13 2022-10-11 Gentex Corporation Alignment apparatus for vehicle authentication system
US10855896B1 (en) * 2018-12-13 2020-12-01 Facebook Technologies, Llc Depth determination using time-of-flight and camera assembly with augmented pixels
US10791286B2 (en) 2018-12-13 2020-09-29 Facebook Technologies, Llc Differentiated imaging using camera assembly with augmented pixels
US10791282B2 (en) 2018-12-13 2020-09-29 Fenwick & West LLP High dynamic range camera assembly with augmented pixels
FR3090124B1 (fr) * 2018-12-14 2022-07-15 Valeo Comfort & Driving Assistance Capteur de temps de vol et système de surveillance comportant un tel capteur
US11313968B2 (en) * 2018-12-14 2022-04-26 Texas Instruments Incorporated Interference signal rejection in LIDAR systems
US10661795B1 (en) * 2018-12-20 2020-05-26 Verizon Patent And Licensing Inc. Collision detection platform
DE102018222721A1 (de) * 2018-12-21 2020-06-25 Robert Bosch Gmbh LIDAR-Sensor für ein LIDAR-System
US11709231B2 (en) 2018-12-21 2023-07-25 Infineon Technologies Ag Real time gating and signal routing in laser and detector arrays for LIDAR application
US11175390B2 (en) 2018-12-24 2021-11-16 Beijing Voyager Technology Co., Ltd. Real-time estimation of DC bias and noise power of light detection and ranging (LiDAR)
CN111369784A (zh) * 2018-12-25 2020-07-03 北京嘀嘀无限科技发展有限公司 一种控制车道流量的方法及装置
CN111366947B (zh) * 2018-12-26 2022-04-22 武汉万集信息技术有限公司 导航激光雷达对场景的识别方法、装置及系统
CN115267802A (zh) 2018-12-29 2022-11-01 华为技术有限公司 一种激光测量模组和激光雷达
WO2020135802A1 (zh) * 2018-12-29 2020-07-02 华为技术有限公司 一种激光测量模组和激光雷达
US11332007B2 (en) * 2019-01-03 2022-05-17 Toyota Motor Engineering & Manufacturing North America, Inc. Vehicle speed control using speed maps
AU2019418812B2 (en) * 2019-01-04 2022-06-09 Aurora Operations, Inc. Method and system for refractive beam-steering
CN111670384A (zh) * 2019-01-09 2020-09-15 深圳市大疆创新科技有限公司 一种光发射方法、装置及扫描系统
CN113302515B (zh) * 2019-01-10 2024-09-24 图达通智能美国有限公司 具有光束转向和广角信号检测的lidar系统和方法
US11675062B2 (en) * 2019-01-10 2023-06-13 Gm Cruise Holdings Llc Context aware real-time power adjustment for steerable lidar
US11274800B2 (en) * 2019-01-11 2022-03-15 Valeo North America, Inc. IR illuminator with asymetric radiation pattern
KR102299264B1 (ko) * 2019-01-16 2021-09-07 삼성전자주식회사 라이다 장치
WO2020152716A1 (en) * 2019-01-25 2020-07-30 Ankur Anchlia System-on-chip interfaced with sensor for processing sensor output signals
CN109917348B (zh) * 2019-01-25 2020-11-03 上海禾赛科技股份有限公司 一种激光雷达系统
JP2022517985A (ja) * 2019-01-28 2022-03-11 スタンレー電気株式会社 霧を介した画像強調のための弾道光変調
US10926273B2 (en) * 2019-01-31 2021-02-23 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for modifying an infrared signature of a vehicle
DE102019201666A1 (de) * 2019-02-08 2020-08-13 Ford Global Technologies, Llc Verfahren zum Betrieb eines selbstfahrenden Kraftfahrzeugs
US11486970B1 (en) 2019-02-11 2022-11-01 Innovusion, Inc. Multiple beam generation from a single source beam for use with a LiDAR system
TWI693419B (zh) * 2019-02-13 2020-05-11 國立交通大學 訊號處理方法
CN111610506A (zh) * 2019-02-22 2020-09-01 宁波舜宇车载光学技术有限公司 多点扫描激光雷达及其探测方法
EP3702809A1 (en) * 2019-02-27 2020-09-02 Nokia Solutions and Networks Oy Device navigation
DE102019105478A1 (de) * 2019-03-05 2020-09-10 Infineon Technologies Ag LIDAR-Sensoren und Verfahren für dieselben
US11947041B2 (en) * 2019-03-05 2024-04-02 Analog Devices, Inc. Coded optical transmission for optical detection
US20200292703A1 (en) * 2019-03-14 2020-09-17 Visteon Global Technologies, Inc. Flexible field of view solid state lidar
US11933920B2 (en) * 2019-03-14 2024-03-19 Waymo Llc Methods and systems for detecting obstructions on a sensor housing
EP3719529A1 (en) * 2019-03-20 2020-10-07 Ricoh Company, Ltd. Range finding device and range finding method
US11440471B2 (en) * 2019-03-21 2022-09-13 Baidu Usa Llc Automated warning system to detect a front vehicle slips backwards
JP7172786B2 (ja) * 2019-03-22 2022-11-16 トヨタ自動車株式会社 車両制御システム
US20220180643A1 (en) * 2019-03-22 2022-06-09 Vergence Automation, Inc. Vectorization for object detection, recognition, and assessment for vehicle vision systems
WO2020191727A1 (zh) * 2019-03-28 2020-10-01 华为技术有限公司 一种雷达功率控制方法及装置
CN111750331A (zh) * 2019-03-28 2020-10-09 深圳市中光工业技术研究院 一种具有探测功能的照明系统
WO2020205109A1 (en) * 2019-03-29 2020-10-08 Omron Corporation Visual indicators for presence sensing systems
US10933803B2 (en) * 2019-03-31 2021-03-02 Gm Cruise Holdings Llc Autonomous vehicle visual based communication
US11579299B2 (en) * 2019-04-02 2023-02-14 Litexel Inc. 3D range imaging method using optical phased array and photo sensor array
US11325523B2 (en) * 2019-04-02 2022-05-10 Pony Ai Inc. Lighting element control for an autonomous vehicle
US10740405B1 (en) * 2019-04-03 2020-08-11 Capital One Services, Llc Methods and systems for filtering vehicle information
US11977185B1 (en) 2019-04-04 2024-05-07 Seyond, Inc. Variable angle polygon for use with a LiDAR system
CN109991025B (zh) * 2019-04-08 2023-11-14 中国矿业大学(北京) 一种地铁管片偏差自动测量靶及其测量方法
US11022813B2 (en) 2019-04-08 2021-06-01 Qualcomm Incorporated Multifunction light projector with multistage adjustable diffractive optical elements
EP3953727A4 (en) 2019-04-09 2023-01-04 Opsys Tech Ltd. SOLID STATE LIDAR TRANSMITTER WITH LASER CONTROL
US11402472B2 (en) 2019-04-16 2022-08-02 Argo AI, LLC Polarization sensitive LiDAR system
JP7396353B2 (ja) * 2019-04-17 2023-12-12 ニデック株式会社 地図作成システム、信号処理回路、移動体および地図作成方法
US11800205B2 (en) * 2019-04-18 2023-10-24 University Of Florida Research Foundation, Incorporated Fast foveation camera and controlling algorithms
US10641897B1 (en) 2019-04-24 2020-05-05 Aeye, Inc. Ladar system and method with adaptive pulse duration
US11320535B2 (en) 2019-04-24 2022-05-03 Analog Devices, Inc. Optical system for determining interferer locus among two or more regions of a transmissive liquid crystal structure
US11378485B2 (en) * 2019-04-26 2022-07-05 Mikael Sven Johan Sjoblom Structural monitoring system
CN110261865B (zh) * 2019-05-05 2021-06-15 深圳大学 一种激光雷达多通道数据传输方法、激光雷达及其应用
CN113924510A (zh) 2019-05-06 2022-01-11 上海禾赛科技有限公司 用于激光雷达系统的扫描器控制
CN111988081A (zh) * 2019-05-06 2020-11-24 上海汽车集团股份有限公司 一种激光雷达数据的冗余处理方法及系统
DE102019113406A1 (de) * 2019-05-21 2020-11-26 Bayerische Motoren Werke Aktiengesellschaft Beleuchtungsvorrichtung für ein Kraftfahrzeug
DE102019207741A1 (de) * 2019-05-27 2020-12-03 Infineon Technologies Ag Ein LIDAR-System, ein Verfahren für ein LIDAR-System und ein Empfänger für ein LIDAR-System mit ersten und zweiten Umwandlungselementen
KR20220003600A (ko) 2019-05-30 2022-01-10 옵시스 테크 엘티디 액추에이터를 사용하는 눈-안전 장거리 lidar 시스템
CN113924506A (zh) * 2019-06-10 2022-01-11 欧普赛斯技术有限公司 眼睛安全的长范围固态lidar系统
JP7079753B2 (ja) 2019-06-11 2022-06-02 株式会社東芝 光検出装置、電子装置及び光検出方法
CN110275510B (zh) * 2019-06-14 2021-12-07 百度在线网络技术(北京)有限公司 车辆控制模型的处理频率调整方法、装置和电子设备
WO2020256174A1 (ko) * 2019-06-18 2020-12-24 엘지전자 주식회사 자율주행시스템에서 차량의 리소스 관리 방법 및 이를 위한 장치
US11476641B1 (en) 2019-06-25 2022-10-18 Mac Thin Films, Inc. Window for laser protection
KR20220024177A (ko) * 2019-06-25 2022-03-03 옵시스 테크 엘티디 적응형 다중 펄스 lidar 시스템
KR102190520B1 (ko) * 2019-06-26 2020-12-11 주식회사 옵티맥 3차원 카메라 모듈
US10775175B1 (en) * 2019-06-28 2020-09-15 Rockwell Collins, Inc. Wearable dead reckoning system for GPS-denied navigation
KR20210003003A (ko) 2019-07-01 2021-01-11 삼성전자주식회사 라이다 장치 및 그 제어 방법
DE102019209691A1 (de) * 2019-07-02 2021-01-07 Ibeo Automotive Systems GmbH Anpassungsvorrichtung und Lidar-Messvorrichtung
US20210003511A1 (en) * 2019-07-03 2021-01-07 Continental Automotive Systems, Inc. Detection of damage to optical element of illumination system
DE102019209935A1 (de) * 2019-07-05 2020-07-23 Carl Zeiss Ag Vorrichtung und Verfahren zur Abstandsermittlung von Objekten
CN112213730B (zh) * 2019-07-10 2024-05-07 睿镞科技(北京)有限责任公司 三维测距方法和装置
US20210011162A1 (en) * 2019-07-11 2021-01-14 Argo AI, LLC Polarization Filtering in LiDAR System
US11269076B2 (en) * 2019-07-11 2022-03-08 Mtd Products Inc Solid state LIDAR machine vision for power equipment device
JP7389578B2 (ja) * 2019-07-16 2023-11-30 シャープ株式会社 測距センサ
US11447063B2 (en) * 2019-07-18 2022-09-20 GM Global Technology Operations LLC Steerable scanning and perception system with active illumination
US11303041B2 (en) * 2019-07-24 2022-04-12 Cypress Semiconductor Corporation Machine learning-based antenna array validation, prototyping and optimization
CN112363181B (zh) * 2019-07-26 2024-04-05 现代摩比斯株式会社 车辆的激光雷达装置、激光雷达传感器控制装置及方法
KR102688425B1 (ko) * 2019-08-13 2024-07-25 현대모비스 주식회사 라이다 센서 제어 장치 및 방법
US11662434B2 (en) 2019-07-29 2023-05-30 Ford Global Technologies, Llc Depth sensor
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
US20210055421A1 (en) * 2019-08-22 2021-02-25 Continental Automotive Systems, Inc. Electrical circuit across optical element to detect damage
CN110549941B (zh) * 2019-08-23 2022-06-07 东南大学 一种基于实时信息的行人碰撞分级预警方法
CN112445215B (zh) * 2019-08-29 2024-07-12 阿里巴巴集团控股有限公司 自动导引车行驶控制方法、装置及计算机系统
CN110455367B (zh) * 2019-08-29 2021-03-19 长江水利委员会长江科学院 联合无人机和高密度电阻率法的工程堆弃体量测量方法
CN110554409B (zh) * 2019-08-30 2021-06-04 江苏徐工工程机械研究院有限公司 一种凹障碍物检测方法及系统
CN110456372A (zh) * 2019-08-30 2019-11-15 上海禾赛光电科技有限公司 激光雷达系统的测距方法以及激光雷达系统
CN110456326B (zh) * 2019-08-31 2021-07-06 上海禾赛科技股份有限公司 一种扫描装置和包括其的激光雷达及操作方法
EP3789794A1 (de) * 2019-09-04 2021-03-10 Ibeo Automotive Systems GmbH Verfahren und vorrichtung zur distanzmessung
US11287530B2 (en) 2019-09-05 2022-03-29 ThorDrive Co., Ltd Data processing system and method for fusion of multiple heterogeneous sensors
JP7133523B2 (ja) 2019-09-05 2022-09-08 株式会社東芝 光検出装置及び電子装置
US11635496B2 (en) 2019-09-10 2023-04-25 Analog Devices International Unlimited Company Data reduction for optical detection
JP2022548645A (ja) * 2019-09-17 2022-11-21 カーボン オートノマス ロボティック システムズ, インコーポレイテッド 自律レーザ雑草根絶
JP7153001B2 (ja) * 2019-09-18 2022-10-13 株式会社東芝 光検出器、光検出システム、ライダー装置、及び車
CN112528711B (zh) 2019-09-19 2024-06-25 阿波罗智能技术(北京)有限公司 用于处理信息的方法和装置
JP7433819B2 (ja) * 2019-09-19 2024-02-20 株式会社東芝 距離計測装置、及び距離計測方法
US11899139B2 (en) * 2019-09-20 2024-02-13 Intel Corporation Photonic devices with redundant components and their applications
US11159738B2 (en) * 2019-09-25 2021-10-26 Semiconductor Components Industries, Llc Imaging devices with single-photon avalanche diodes having sub-exposures for high dynamic range
KR20210036200A (ko) 2019-09-25 2021-04-02 삼성전자주식회사 라이다 장치 및 그 동작 방법
US11579304B2 (en) 2019-09-27 2023-02-14 Gm Cruise Holdings Llc Dynamic power throttling of spinning LIDAR
US11144769B2 (en) * 2019-09-30 2021-10-12 Pony Ai Inc. Variable resolution sensors
DE102019126400A1 (de) * 2019-09-30 2021-04-01 Ford Global Technologies, Llc Verfahren zum Betrieb eines Kraftfahrzeugs mit einem LIDAR-Sensor
JP7283560B2 (ja) * 2019-10-01 2023-05-30 富士通株式会社 レーザセンサ、ミラー制御方法、及びプログラム
CN110531377B (zh) * 2019-10-08 2022-02-25 北京邮电大学 雷达系统的数据处理方法、装置、电子设备和存储介质
CN110579747B (zh) * 2019-10-11 2021-11-19 北京邮电大学 用于道路的雷达系统布设方法、装置和电子设备
KR20210043287A (ko) 2019-10-11 2021-04-21 삼성전자주식회사 광학 장치 및 이를 포함하는 라이다 시스템
JP7259695B2 (ja) * 2019-10-11 2023-04-18 株式会社デンソー 光測距装置及び光測距装置の制御方法
US11604259B2 (en) * 2019-10-14 2023-03-14 Infineon Technologies Ag Scanning LIDAR receiver with a silicon photomultiplier detector
DE102020104338A1 (de) * 2019-10-15 2021-04-15 HELLA GmbH & Co. KGaA Verfahren zum Betreiben eines LiDAR Systems
US11675075B2 (en) * 2019-10-15 2023-06-13 Beijing Voyager Technology Co., Ltd. Dynamic laser power control in light detection and ranging (LiDAR) systems
DE102019127667A1 (de) * 2019-10-15 2021-04-15 Sick Ag Entfernungsmessender optoelektronischer Sensor und Verfahren zur Erfassung eines Zielobjekts
US11521328B2 (en) 2019-10-16 2022-12-06 Banner Engineering Corp Image-based jam detection
EP3812209A1 (de) * 2019-10-23 2021-04-28 ZKW Group GmbH Lichtmodul für kraftfahrzeuge
DE102019128661A1 (de) * 2019-10-23 2021-04-29 Valeo Schalter Und Sensoren Gmbh Verarbeitung von Messdaten eines aktiven optischen Sensorsystems
WO2021079355A1 (en) * 2019-10-24 2021-04-29 Trieye Ltd. Photonics systems and methods
KR102269098B1 (ko) * 2019-10-29 2021-06-24 주식회사 한컴엔플럭스 보안 구역 내에 설치된 복수의 라이더 센서들을 통해 침입을 탐지하는 침입 탐지 장치 및 그 동작 방법
US11514594B2 (en) 2019-10-30 2022-11-29 Vergence Automation, Inc. Composite imaging systems using a focal plane array with in-pixel analog storage elements
US20220390560A1 (en) * 2019-11-05 2022-12-08 Outsight Adaptive Active Safety System using Multi-spectral LIDAR, and Method implemented in the Adaptive Active Safety System
CN110703232A (zh) * 2019-11-07 2020-01-17 大连理工大学 一种复杂环境下的大型挖掘装备的三维环境感知系统
WO2021090285A2 (en) * 2019-11-08 2021-05-14 Vayyar Imaging Ltd. Systems and methods for sensing the surroundings of a vehicle
KR20210059591A (ko) * 2019-11-13 2021-05-25 주식회사 에스오에스랩 옵틱 및 그 제작 방법
US10902623B1 (en) 2019-11-19 2021-01-26 Facebook Technologies, Llc Three-dimensional imaging with spatial and temporal coding for depth camera assembly
KR20210065259A (ko) 2019-11-26 2021-06-04 삼성전자주식회사 레이더 장치 및 그 동작 방법
KR102276597B1 (ko) * 2019-11-28 2021-07-14 한국전자기술연구원 벡터맵을 이용한 라이다 데이터 범위 최적화를 위한 차량 제어 장치 및 방법
US12025702B2 (en) * 2019-11-29 2024-07-02 Waymo Llc Retroreflector detection and avoidance in a LIDAR device
US10797698B1 (en) * 2019-11-29 2020-10-06 Waymo Llc Systems and methods for selecting light emitters for emitting light
CN110995357A (zh) * 2019-12-02 2020-04-10 大连理工大学 一种新型高鲁棒水下光通信系统
US11680804B2 (en) 2019-12-02 2023-06-20 Toyota Motor North America, Inc. System and method for verifying roads
US11740333B2 (en) 2019-12-04 2023-08-29 Waymo Llc Pulse energy plan for light detection and ranging (lidar) devices based on areas of interest and thermal budgets
US11346924B2 (en) * 2019-12-09 2022-05-31 Waymo Llc SiPM with cells of different sizes
US11176647B2 (en) 2019-12-11 2021-11-16 Toyota Motor Engineering And Manufacturing North America, Inc. Image and object detection enhancement based on lighting profiles
DE102019134181A1 (de) * 2019-12-12 2021-06-17 Valeo Schalter Und Sensoren Gmbh Verfahren zum Steuern eines Laserscanners für ein Kraftfahrzeug
CN110703224A (zh) * 2019-12-16 2020-01-17 杭州辰知光科技有限公司 一种面向无人驾驶的扫描型tof激光雷达
WO2021126081A1 (en) * 2019-12-20 2021-06-24 Ams Sensors Asia Pte. Ltd. Lidar with multi-range channels
WO2021126082A1 (en) * 2019-12-20 2021-06-24 Ams Sensors Asia Pte. Ltd. Eye-safe operation of lidar scanner
RU2762618C2 (ru) 2019-12-23 2021-12-21 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" ЛИДАРНАЯ (LiDAR) СИСТЕМА ДЛЯ ОБНАРУЖЕНИЯ ОБЪЕКТОВ В ИНТЕРЕСУЮЩЕЙ ОБЛАСТИ И СПОСОБ НА ЕЕ ОСНОВЕ
RU2762744C2 (ru) * 2019-12-23 2021-12-22 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" СПОСОБЫ И СИСТЕМЫ ОБНАРУЖЕНИЯ С ПОМОЩЬЮ ЛИДАРА (LiDAR) С ВОЛОКОННО-ОПТИЧЕСКОЙ МАТРИЦЕЙ
CN111123253B (zh) * 2019-12-26 2022-05-17 成都纳雷科技有限公司 基于自适应门限目标聚类的车辆识别方法、系统及介质
CN112616318B (zh) * 2020-01-03 2024-06-28 深圳市速腾聚创科技有限公司 激光雷达及自动驾驶设备
US20230028159A1 (en) * 2020-01-06 2023-01-26 Ningbo Sunny Automotive Optech Co., Ltd. Lidar, and detection method and manufacturing method for lidar
US20210208251A1 (en) * 2020-01-07 2021-07-08 Continental Automotive Systems, Inc. Lidar system including scanning field of illumination
US11790555B2 (en) 2020-01-17 2023-10-17 Electronics And Telecommunications Research Institute System and method for fusion recognition using active stick filter
KR102441424B1 (ko) * 2020-01-17 2022-09-07 한국전자통신연구원 능동 스틱 필터를 이용한 융합 인식 시스템 및 그 방법
US11194160B1 (en) 2020-01-21 2021-12-07 Facebook Technologies, Llc High frame rate reconstruction with N-tap camera sensor
RU197056U1 (ru) * 2020-01-22 2020-03-26 Акционерное общество "Московский завод "САПФИР" Двухканальный комбинированный прибор ночного видения с радиолокационным каналом
IT202000001411A1 (it) * 2020-01-24 2021-07-24 St Microelectronics Srl Metodo di lavorazione di una fetta per la fabbricazione di una struttura oscillante quale un microspecchio
US11520010B2 (en) * 2020-01-29 2022-12-06 GM Global Technology Operations LLC Dynamic polarization modulation of a lidar system in a vehicle
JP7268616B2 (ja) * 2020-01-30 2023-05-08 いすゞ自動車株式会社 報知装置
JP7452044B2 (ja) * 2020-01-31 2024-03-19 株式会社デンソー 光検出装置
IL272450B (en) * 2020-02-03 2021-10-31 Elbit Systems Ltd A system and method for creating 3D maps based on mapping information
US11536843B2 (en) * 2020-02-08 2022-12-27 The Boeing Company De-jitter of point cloud data for target recognition
CN111175768B (zh) * 2020-02-14 2022-06-14 深圳奥锐达科技有限公司 一种离轴扫描距离测量系统及方法
US12071084B2 (en) * 2020-02-14 2024-08-27 Magna Electronics Inc. Vehicular sensing system with variable power mode for thermal management
CN113267762A (zh) * 2020-02-17 2021-08-17 上海禾赛科技有限公司 激光雷达
US10901074B1 (en) 2020-02-17 2021-01-26 Hesai Technology Co., Ltd. Systems and methods for improving Lidar performance
US11408995B2 (en) * 2020-02-24 2022-08-09 Aptiv Technologies Limited Lateral-bin monitoring for radar target detection
US11538179B2 (en) * 2020-02-25 2022-12-27 Zebra Technologies Corporation Depth-based data capture system configuration
CN111239752A (zh) * 2020-02-27 2020-06-05 宁波飞芯电子科技有限公司 可编程探测器及自适应测距方法
EP4155762A4 (en) * 2020-03-04 2024-07-24 Miele & Cie MICRO-LIDAR SENSOR
USD948563S1 (en) * 2020-03-05 2022-04-12 Jaguar Land Rover Limited Display screen or portion thereof with icon
DE112021001525T5 (de) * 2020-03-09 2023-01-05 Nec Corporation Managementsystem
KR102186830B1 (ko) * 2020-03-13 2020-12-04 주식회사 자오스모터스 인공지능에 대응한 라이다 시스템
CN111272183A (zh) * 2020-03-16 2020-06-12 达闼科技成都有限公司 一种地图创建方法、装置、电子设备及存储介质
DE102020107377A1 (de) 2020-03-18 2021-09-23 Valeo Schalter Und Sensoren Gmbh Verfahren zur Verarbeitung einer dreidimensionalen Punktwolke
US11521504B2 (en) * 2020-03-18 2022-12-06 Rosemount Aerospace Inc. Method and system for aircraft taxi strike alerting
CN111307159B (zh) * 2020-03-19 2022-11-18 哈尔滨工程大学 一种多auv三维协同航路规划方法
CN111524344A (zh) * 2020-03-25 2020-08-11 武汉纵横智慧城市股份有限公司 基于大数据的车辆排放监测方法、设备、存储介质及装置
US11810160B1 (en) * 2020-03-27 2023-11-07 United Services Automobile Association Building mapping tools
DE102020110142A1 (de) * 2020-04-14 2021-10-14 Scantinel Photonics GmbH Vorrichtung und Verfahren zur scannenden Messung des Abstands zu einem Objekt
CN111541031B (zh) * 2020-04-16 2021-08-10 华南理工大学 一种宽带低剖面传输阵列天线及无线通信设备
CN111453691B (zh) * 2020-04-21 2023-05-12 安徽奥飞声学科技有限公司 一种mems结构的制造方法
DE102020112311B3 (de) * 2020-05-06 2021-05-20 Audi Aktiengesellschaft Kraftfahrzeug mit einem optischen Umgebungssensor und Verfahren zum Betrieb eines Kraftfahrzeugs
DE102020113647A1 (de) 2020-05-20 2021-11-25 Blickfeld GmbH Optical System for Light Detection and Ranging, LIDAR
CN111652292B (zh) * 2020-05-20 2022-12-06 贵州电网有限责任公司 一种基于ncs、ms的相似物体实时检测方法及系统
US11115734B1 (en) * 2020-05-28 2021-09-07 Northrop Grumman Systems Corporation Spatial transmit/receive isolation apparatus and method for optical communication systems
ES2882834A1 (es) * 2020-06-02 2021-12-02 Beamagine S L Sistema y método para el rastreo de objetos en movimiento en vehículos
DE102020115252B4 (de) 2020-06-09 2024-06-13 Mercedes-Benz Group AG Verfahren und Vorrichtung zu einer Erkennung von Verunreinigungen auf einer Schutzscheibe eines Lidarsensors
CN113807108B (zh) * 2020-06-11 2023-07-18 杭州九阳小家电有限公司 一种炒菜机的料盒识别方法
KR102326598B1 (ko) * 2020-06-11 2021-11-17 박상욱 자율주행 정보 획득 장치를 구비하는 버스
CN115698765A (zh) * 2020-06-12 2023-02-03 博莱佳私人有限公司 基于光的空间估计发射和接收系统
GB2598078B (en) * 2020-06-17 2022-12-21 Jaguar Land Rover Ltd Vehicle control system using a scanning system
US11796638B2 (en) * 2020-06-18 2023-10-24 Beijing Voyager Technology Co., Ltd. Mirror assembly for light steering with flexible support structure
US11815627B2 (en) 2020-06-18 2023-11-14 Beijing Voyager Technology Co., Ltd. Mirror assembly for light steering with reduced finger thickness
EP4141478A4 (en) * 2020-06-19 2023-10-18 Panasonic Intellectual Property Management Co., Ltd. DISTANCE MEASUREMENT DEVICE AND DISTANCE MEASUREMENT SYSTEM
CN115702364A (zh) * 2020-06-22 2023-02-14 华为技术有限公司 一种雷达系统、可移动设备与雷达探测方法
CN111751833A (zh) * 2020-06-24 2020-10-09 深圳市汇顶科技股份有限公司 一种打光以及反射光数据获取方法、装置
DE102020208099A1 (de) * 2020-06-30 2021-12-30 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ermitteln einer eine Umgebung eines LiDAR-Sensors repräsentierenden Punktwolke
US10960900B1 (en) * 2020-06-30 2021-03-30 Aurora Innovation, Inc. Systems and methods for autonomous vehicle control using depolarization ratio of return signal
US20220003851A1 (en) * 2020-07-03 2022-01-06 Beijing Voyager Technology Co., Ltd. Dynamic receiver gain control for lidar system
US20220004012A1 (en) * 2020-07-06 2022-01-06 Seagate Technology Llc Variable resolution and automatic windowing for lidar
US11802970B2 (en) 2020-07-08 2023-10-31 Aptiv Technologies Limited Alternating power-level scanning for time-of-flight lidar systems
US11982749B2 (en) 2020-07-13 2024-05-14 Aptiv Technologies AG Detection of pulse trains by time-of-flight lidar systems
EP4184230A4 (en) * 2020-07-15 2023-12-20 Koito Manufacturing Co., Ltd. LIGHT REFLECTION DEVICE, SENSOR DEVICE AND LIGHTING DEVICE
CN112558511A (zh) * 2020-07-20 2021-03-26 浙江明德微电子股份有限公司 消防通道智能监管系统
CA3125716C (en) 2020-07-21 2024-04-09 Leddartech Inc. Systems and methods for wide-angle lidar using non-uniform magnification optics
CA3125618C (en) * 2020-07-21 2023-05-23 Leddartech Inc. Beam-steering device particularly for lidar systems
WO2022016276A1 (en) 2020-07-21 2022-01-27 Leddartech Inc. Beam-steering device particularly for lidar systems
US20220026537A1 (en) * 2020-07-22 2022-01-27 Beijing Voyager Technology Co., Ltd. Systems and methods for sensing rotation angles of a micro mirror in an optical sensing system
CN113970748A (zh) * 2020-07-23 2022-01-25 上海禾赛科技有限公司 激光雷达及其探测方法
CN112073722B (zh) * 2020-07-23 2024-05-17 西安万像电子科技有限公司 图像处理方法、装置、设备及存储介质
DE102020119722A1 (de) 2020-07-27 2022-01-27 Valeo Schalter Und Sensoren Gmbh Temperatursteuerung in einem aktiven optischen Sensorsystem
KR20220014717A (ko) * 2020-07-29 2022-02-07 엘지이노텍 주식회사 거리 측정 카메라
KR102400605B1 (ko) * 2020-08-04 2022-05-20 한국기계연구원 거리측정 헤드 및 이를 구비한 다중대상 거리측정 시스템
CN111965626B (zh) * 2020-08-11 2023-03-10 上海禾赛科技有限公司 用于激光雷达的回波检测校正方法及装置、环境感知系统
WO2022040366A1 (en) * 2020-08-18 2022-02-24 IntelliShot Holdings, Inc. Automated threat detection and deterrence apparatus
CN114078330A (zh) * 2020-08-20 2022-02-22 华为技术有限公司 交通信号的识别方法和装置
US20220057514A1 (en) * 2020-08-24 2022-02-24 Beijing Voyager Technology Co., Ltd. Mirror assembly for light steering
WO2022053874A2 (en) * 2020-09-14 2022-03-17 Innoviz Technologies Ltd. Lidar system with variable resolution multi-beam scanning
US11977169B2 (en) * 2020-08-24 2024-05-07 Innoviz Technologies Ltd. Multi-beam laser emitter with common optical path
WO2022043749A1 (en) * 2020-08-24 2022-03-03 Innoviz Technologies Ltd. Multiple simultaneous laser beam emission and illumination while ensuring eye safety
CN114114305A (zh) * 2020-08-27 2022-03-01 鸿富锦精密工业(深圳)有限公司 激光光路系统及激光雷达
CN114114288B (zh) * 2020-08-27 2022-11-18 上海禾赛科技有限公司 用于激光雷达的测量电路及其测量方法、以及激光雷达
DE102020005343A1 (de) * 2020-08-31 2022-03-03 Daimler Ag Verfahren zur Objektverfolgung von mindestens einem Objekt, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Objektverfolgungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Objektverfolgungsvorrichtung
CN112198495B (zh) * 2020-09-04 2022-03-08 腾讯科技(深圳)有限公司 激光雷达仿真及其参数标定方法、装置和设备
CN114929539A (zh) * 2020-09-07 2022-08-19 松下知识产权经营株式会社 信息处理方法以及信息处理装置
US11828854B2 (en) * 2020-09-09 2023-11-28 WeRide Corp. Automatic LIDAR performance monitoring and maintenance for autonomous driving
CN114265076A (zh) * 2020-09-16 2022-04-01 华为技术有限公司 探测装置的控制方法和控制装置、激光雷达系统和终端
US11790671B2 (en) 2020-10-05 2023-10-17 Crazing Lab, Inc. Vision based light detection and ranging system using multi-fields of view
US20220120905A1 (en) * 2020-10-15 2022-04-21 Waymo Llc Speed Determination Using Light Detection and Ranging (LIDAR) Device
CN114488176A (zh) * 2020-10-23 2022-05-13 睿镞科技(北京)有限责任公司 3d图像传感器测距系统及使用该系统进行测距的方法
KR102390231B1 (ko) * 2020-10-29 2022-04-25 (주)스핀텍 스캐닝 라이다 및 이의 측정 시야각 제어 방법
US11320124B1 (en) 2020-10-29 2022-05-03 Waymo Llc Infrared light module uniformity rotational test module
US20220136817A1 (en) * 2020-11-02 2022-05-05 Artilux, Inc. Reconfigurable Optical Sensing Apparatus and Method Thereof
KR20220060891A (ko) * 2020-11-05 2022-05-12 주식회사 케이티 라이다 장치
CN112389440B (zh) * 2020-11-07 2021-06-04 吉林大学 一种基于车路作用机理的越野环境中车辆行驶风险预测方法
US12091022B2 (en) * 2020-11-11 2024-09-17 Hyundai Mobis Co., Ltd. Radar system for vehicles and method for operating the same
KR102385094B1 (ko) * 2020-11-11 2022-04-11 주식회사 유니트론텍 라이다 센서 테스트 시스템
US20220155416A1 (en) * 2020-11-13 2022-05-19 Beijing Voyager Technology Co., Ltd. Laser emission control in light detection and ranging (lidar) systems
DE102020007064B4 (de) 2020-11-19 2022-08-11 Daimler Truck AG Verfahren zum Kalibrieren einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung
US12105222B2 (en) * 2020-11-23 2024-10-01 Harman International Industries, Incorporated Systems and methods for reducing cognitive workload and energy consumption by a sensor utilized on a vehicle
US11835949B2 (en) 2020-11-24 2023-12-05 Mobile Industrial Robots A/S Autonomous device safety system
EP4261499A4 (en) * 2020-12-11 2024-06-05 Panasonic Intellectual Property Management Co., Ltd. DISTANCE MEASURING DEVICE AND MOVING BODY
CN114640394B (zh) * 2020-12-15 2023-05-26 中国联合网络通信集团有限公司 通信方法及通信装置
US11747611B2 (en) 2020-12-16 2023-09-05 Stmicroelectronics (Research & Development) Limited Compact line scan mems time of flight system with actuated lens
CN112819877B (zh) * 2021-01-12 2024-07-09 深圳辰视智能科技有限公司 一种激光线点云生成方法、装置及计算机可读存储介质
CN112880976B (zh) * 2021-01-14 2023-02-28 歌尔股份有限公司 入射光束的角度调节装置和反射器件的制造方法
CN112882014B (zh) * 2021-01-20 2023-08-22 东风汽车集团股份有限公司 凸台凹坑识别方法及系统
CA3204799A1 (en) * 2021-01-28 2022-08-04 Tiansheng Zhou Lidar systems with mems micromirrors and micromirror arrays
EP4036596A1 (en) * 2021-02-01 2022-08-03 Nokia Technologies Oy High resolution lidar scanning
DE102021102425A1 (de) * 2021-02-03 2022-08-04 Valeo Schalter Und Sensoren Gmbh Erkennung einer Helligkeitsänderung in der Umgebung eines Kraftfahrzeugs
US11763425B2 (en) * 2021-02-03 2023-09-19 Qualcomm Incorporated High resolution time-of-flight depth imaging
CN116888505A (zh) * 2021-02-23 2023-10-13 华为技术有限公司 一种激光雷达系统、调整方法及相关设备
US11789128B2 (en) 2021-03-01 2023-10-17 Innovusion, Inc. Fiber-based transmitter and receiver channels of light detection and ranging systems
US20220283273A1 (en) * 2021-03-04 2022-09-08 Beijing Voyager Technology Co., Ltd. Scanning fiber transmitter for distance detection
US12111397B2 (en) 2021-03-09 2024-10-08 Banner Engineering Corp. Pixel domain field calibration of triangulation sensors
CN117063089A (zh) * 2021-03-11 2023-11-14 深圳市速腾聚创科技有限公司 固态激光雷达的微振镜控制方法、装置和固态激光雷达
US20220291389A1 (en) * 2021-03-15 2022-09-15 Argo AI, LLC Reducing coexistence interference for light detection and ranging
TWI798834B (zh) * 2021-03-18 2023-04-11 神盾股份有限公司 光感測陣列模組與光收發裝置
US20220299318A1 (en) * 2021-03-19 2022-09-22 Topcon Corporation Surveying system, surveying method, and storage medium storing surveying program
US11604264B2 (en) 2021-03-26 2023-03-14 Aeye, Inc. Switchable multi-lens Lidar receiver
US11480680B2 (en) 2021-03-26 2022-10-25 Aeye, Inc. Hyper temporal lidar with multi-processor return detection
US11675059B2 (en) 2021-03-26 2023-06-13 Aeye, Inc. Hyper temporal lidar with elevation-prioritized shot scheduling
US11630188B1 (en) * 2021-03-26 2023-04-18 Aeye, Inc. Hyper temporal lidar with dynamic laser control using safety models
US11467263B1 (en) 2021-03-26 2022-10-11 Aeye, Inc. Hyper temporal lidar with controllable variable laser seed energy
US11635495B1 (en) * 2021-03-26 2023-04-25 Aeye, Inc. Hyper temporal lidar with controllable tilt amplitude for a variable amplitude scan mirror
US11822016B2 (en) 2021-03-26 2023-11-21 Aeye, Inc. Hyper temporal lidar using multiple matched filters to orient a lidar system to a frame of reference
CN113031010B (zh) * 2021-03-31 2023-04-28 小马易行科技(上海)有限公司 检测天气的方法、装置、计算机可读存储介质与处理器
US20220334260A1 (en) * 2021-04-16 2022-10-20 Santec Corporation Systems and methods for lidar sensing
DE102021109727A1 (de) 2021-04-19 2022-10-20 Bayerische Motoren Werke Aktiengesellschaft Lidar-Sensor für ein Fahrzeug mit Empfangselement zum Fokussieren in einem Brennpunktbereich, Fahrzeug umfassend einen Lidar-Sensor sowie Verfahren zum Betreiben eines Lidar-Sensors
US11887283B2 (en) * 2021-04-19 2024-01-30 Apple Inc. Fast distortion correction for wide field of view (FOV) cameras
US12106534B2 (en) 2021-04-19 2024-10-01 Apple Inc. Cinematic image framing for wide field of view (FOV) cameras
US11555895B2 (en) 2021-04-20 2023-01-17 Innovusion, Inc. Dynamic compensation to polygon and motor tolerance using galvo control profile
US11614521B2 (en) 2021-04-21 2023-03-28 Innovusion, Inc. LiDAR scanner with pivot prism and mirror
JP2022166647A (ja) * 2021-04-21 2022-11-02 パナソニックIpマネジメント株式会社 光学測定装置、実装基板の組立装置、および、実装基板の組立方法
US11662439B2 (en) 2021-04-22 2023-05-30 Innovusion, Inc. Compact LiDAR design with high resolution and ultra-wide field of view
WO2022225859A1 (en) 2021-04-22 2022-10-27 Innovusion, Inc. A compact lidar design with high resolution and ultra-wide field of view
CN115267727A (zh) * 2021-04-30 2022-11-01 上海禾赛科技有限公司 光探测装置及行驶载具
CN113156445B (zh) * 2021-05-11 2023-10-20 东风汽车集团股份有限公司 一种超声波雷达盲区监测系统及监测方法
US20220373649A1 (en) * 2021-05-17 2022-11-24 Raytheon Company Mode chaining for multifunction laser radar
IL283638B2 (en) * 2021-05-18 2023-04-01 Elbit Systems Ltd A system and method for creating focused 3D maps
US20220373690A1 (en) * 2021-05-21 2022-11-24 Connectsix Llc Atmospheric sensor using programmable time-gated detection aperture
EP4314884A1 (en) 2021-05-21 2024-02-07 Innovusion, Inc. Movement profiles for smart scanning using galvonometer mirror inside lidar scanner
TWI780732B (zh) * 2021-05-26 2022-10-11 光焱科技股份有限公司 光調變系統、方法、電腦程式產品及電腦可讀取紀錄媒體
CN115407579B (zh) * 2021-05-26 2024-09-20 光焱科技股份有限公司 光调制系统、方法、计算机存储介质及计算机程序产品
US20220381594A1 (en) * 2021-05-28 2022-12-01 Contitech Transportbandsysteme Gmbh Volume flow measurement of material using 3d lidar
US20240192332A1 (en) * 2021-05-28 2024-06-13 Intel Corporation Light detection and ranging systems
WO2022250766A1 (en) * 2021-05-28 2022-12-01 Intel Corporation Controlling means for a light detection and ranging system and non-transitory computer readable mediums
US11402475B1 (en) * 2021-05-28 2022-08-02 Aeva, Inc. Techniques for periodic synchronization of light system
US11624831B2 (en) * 2021-06-09 2023-04-11 Suteng Innovation Technology Co., Ltd. Obstacle detection method and apparatus and storage medium
CN116601518A (zh) * 2021-06-11 2023-08-15 深圳市大疆创新科技有限公司 激光雷达控制方法、装置、激光雷达及存储介质
CN113156397B (zh) * 2021-06-25 2021-10-19 雷神等离子科技(杭州)有限公司 一种高灵敏度激光雷达及其信号处理方法、定位方法
DE102021119350A1 (de) 2021-07-27 2023-02-02 Valeo Schalter Und Sensoren Gmbh Objektverfolgung mittels eines Laserscanners
KR20230021457A (ko) * 2021-08-05 2023-02-14 현대모비스 주식회사 차량의 장애물 감지 시스템 및 방법
KR102621696B1 (ko) * 2021-08-27 2024-01-08 한국건설기술연구원 가변 도로교통정보 제공 장치
KR102420506B1 (ko) * 2021-09-17 2022-07-14 주식회사 제이에스솔루션 크레인 충돌방지를 위한 지능형 비전 센서
WO2023054883A1 (ko) * 2021-09-29 2023-04-06 주식회사 에스오에스랩 라이다 장치에 대한 성능 평가 방법 및 라이다 장치에 대한 성능 평가 장치
CN115901245A (zh) * 2021-09-30 2023-04-04 华为技术有限公司 一种激光雷达系统和车辆
US11760412B2 (en) * 2021-10-07 2023-09-19 Denso Corporation Systems and methods for controlling a vehicle localization routine
CN113885590B (zh) * 2021-10-11 2023-06-23 电子科技大学 一种基于fpga的高速可扩展光学相控阵控制系统
DE102021127448A1 (de) 2021-10-22 2023-04-27 Marelli Automotive Lighting Reutlingen (Germany) GmbH LIDAR-Baugruppe und Verfahren zur Beschichtung einer Abdeckscheibe einer LIDAR-Baugruppe
CN113704381B (zh) * 2021-10-27 2022-01-28 腾讯科技(深圳)有限公司 路网数据处理方法、装置、计算机设备和存储介质
WO2023082253A1 (zh) * 2021-11-15 2023-05-19 深圳市大疆创新科技有限公司 无人飞行器的控制方法、无人飞行器及存储介质
CN114325730B (zh) * 2021-11-17 2022-12-13 杭州宏景智驾科技有限公司 一种大视场远距离激光雷达测试方法
KR20230094788A (ko) * 2021-12-21 2023-06-28 삼성전자주식회사 라이더 센서 장치 및 이를 구비한 전자 장치
CN114325758A (zh) * 2021-12-27 2022-04-12 上海集度汽车有限公司 激光雷达控制方法、装置、车辆及相关设备
CN114338998A (zh) * 2021-12-31 2022-04-12 联想(北京)有限公司 一种点云数据获取方法及电子设备
WO2023130125A1 (en) * 2022-01-03 2023-07-06 Innovusion, Inc. Systems and methods for scanning a region of interest using a light detection and ranging scanner
US11927814B2 (en) * 2022-01-05 2024-03-12 Scidatek Inc. Semiconductor photodetector array sensor integrated with optical-waveguide-based devices
US12066541B2 (en) 2022-01-20 2024-08-20 Silc Technologies, Inc. Imaging system having multiple cores
US11982748B2 (en) 2022-01-20 2024-05-14 Silc Technologies, Inc. Imaging system having multiple cores
WO2023137564A1 (en) * 2022-01-24 2023-07-27 Leddartech Inc. Beam steering system with a configurable beam deflection element
WO2023017321A1 (en) * 2022-01-30 2023-02-16 Saemi Zohreh Laser smoke / motion / vibration / temperature detector without the need for electrical energy
JP7511970B2 (ja) * 2022-02-10 2024-07-08 パナソニックオートモーティブシステムズ株式会社 姿勢推定システム、制御システム、及び姿勢推定方法
JP7332731B1 (ja) 2022-02-17 2023-08-23 本田技研工業株式会社 外界認識装置
WO2023166512A1 (en) * 2022-03-03 2023-09-07 Innoviz Technologies Ltd Increasing signal to noise ratio of a pixel of a lidar system
WO2023164906A1 (zh) * 2022-03-03 2023-09-07 华为技术有限公司 一种扫描方法及装置
CN114325631B (zh) * 2022-03-04 2023-04-07 北京一径科技有限公司 激光雷达控制方法及装置、激光雷达、车辆及存储介质
US20230281955A1 (en) 2022-03-07 2023-09-07 Quidient, Llc Systems and methods for generalized scene reconstruction
WO2023182674A1 (ko) * 2022-03-21 2023-09-28 현대자동차주식회사 라이다 포인트 클라우드 코딩을 위한 방법 및 장치
US11871130B2 (en) 2022-03-25 2024-01-09 Innovusion, Inc. Compact perception device
WO2023184547A1 (zh) * 2022-04-02 2023-10-05 华为技术有限公司 一种扫描系统和方法
KR102498023B1 (ko) * 2022-04-08 2023-02-09 이동수 라이다 센서를 이용한 보안 시스템 및 방법
CN114460596B (zh) * 2022-04-14 2022-06-14 宜科(天津)电子有限公司 一种基于能量和距离的自适应数据处理方法
CN114935743B (zh) * 2022-04-18 2023-06-23 深圳阜时科技有限公司 发射模组、光电检测装置及电子设备
CN116660868B (zh) * 2022-04-18 2024-03-01 深圳阜时科技有限公司 电子设备
CN114935742B (zh) * 2022-04-18 2023-08-22 深圳阜时科技有限公司 发射模组、光电检测装置及电子设备
US20230367014A1 (en) * 2022-05-10 2023-11-16 Velodyne Lidar Usa, Inc. Beam steering techniques for correcting scan line compression in lidar devices
CN115015955B (zh) * 2022-05-23 2024-10-11 鄂尔多斯市卡尔动力科技有限公司 运动信息的确定方法、装置、设备、存储介质和程序产品
CN114779464A (zh) * 2022-05-24 2022-07-22 北京有竹居网络技术有限公司 光学信号调制器、控制方法及投影设备
US20230384455A1 (en) * 2022-05-31 2023-11-30 Continental Autonomous Mobility US, LLC Lidar sensor including spatial light modulator to direct field of illumination
DE102022114716A1 (de) 2022-06-10 2023-12-21 3D Mapping Solutions GmbH Verfahren und Prozessorschaltung zum Erzeugen eines 3D-Flächenmodells aus Messpunkten einer Messfahrt eines Fahrzeugs sowie zugehöriges System
US11921214B2 (en) * 2022-08-03 2024-03-05 Aeva, Inc. Techniques for foveated and dynamic range modes for FMCW LIDARs
KR102507068B1 (ko) * 2022-08-04 2023-03-08 주식회사 인포웍스 악천후 환경에 강건한 FMCW LiDAR 물체 탐지 시스템 및 물체 탐지 방법
CN117630866A (zh) * 2022-08-10 2024-03-01 上海禾赛科技有限公司 激光雷达、激光雷达的资源分配方法及计算机可读存储介质
WO2024048346A1 (ja) * 2022-08-30 2024-03-07 ソニーセミコンダクタソリューションズ株式会社 物体認識システム、物体認識装置及び物体認識方法
WO2024048275A1 (ja) * 2022-08-31 2024-03-07 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法および車室内監視装置
CN115356744B (zh) * 2022-09-15 2024-10-01 清华大学 一种路侧激光雷达布设方式确定方法、装置及电子设备
US20240230848A9 (en) * 2022-10-21 2024-07-11 Innovusion, Inc. Two dimensional transmitter array-based lidar
WO2024165895A1 (en) * 2023-02-09 2024-08-15 Siemens Industry Software Ltd. Method and system for determining a position of a plurality of lidar sensors for industrial risky zones
DE102023108684A1 (de) 2023-04-05 2024-10-10 Valeo Detection Systems GmbH Sensor-system und verfahren zum betrieb eines sensorsystems
DE102023110432A1 (de) 2023-04-24 2024-10-24 Gts Deutschland Gmbh Umfelderfassungseinrichtung für ein Schienenfahrzeug mit einer adaptierbaren, insbesondere LiDAR-basierten, Erfassungseinrichtung
CN116842321B (zh) * 2023-07-11 2024-03-15 赛诺威盛医疗科技(扬州)有限公司 计算机断层扫描设备的扫描数据的校正方法及校正装置
CN117173897B (zh) * 2023-11-03 2024-01-26 浪潮智慧科技(青岛)有限公司 一种基于物联网技术的路面交通监测调控方法及系统
CN118311597B (zh) * 2024-06-07 2024-08-27 智道网联科技(北京)有限公司 一种激光雷达自适应控制方法、装置和电子设备
CN118331341B (zh) * 2024-06-14 2024-09-24 北京瀚科智翔科技发展有限公司 一种线控激光目标指引装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007139594A (ja) * 2005-11-18 2007-06-07 Omron Corp 物体検出装置

Family Cites Families (136)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US80000A (en) * 1868-07-14 Cyrus mil nee
CA2056842A1 (en) * 1991-02-07 1992-08-08 Jay M. Eastman System for scanning and reading symbols, such as bar codes, which is adapted to be configured in a hand held unit and can automatically read symbols on objects which are placed inthe detection zone of the unit
JP2903746B2 (ja) * 1991-03-20 1999-06-14 トヨタ自動車株式会社 車間距離検出装置
JPH05203736A (ja) * 1992-01-29 1993-08-10 Mazda Motor Corp 車両の障害物検出装置
JP3183598B2 (ja) * 1993-12-14 2001-07-09 三菱電機株式会社 障害物検知装置
JP2776253B2 (ja) * 1994-07-15 1998-07-16 日本電気株式会社 レーザ・レーダ
JP3676371B2 (ja) * 1994-08-29 2005-07-27 ライテル インストゥルメンツ インコーポレイテッド 回析限界に近づくための現存の像形成装置の補正板補正
JPH08248133A (ja) * 1995-03-07 1996-09-27 Omron Corp 位置情報検出装置、位置情報検出装置を用いた車両搭載用レーダ、および路上障害物認識方法
US5784023A (en) 1995-06-26 1998-07-21 Bluege; John Speed detection method
JPH09197045A (ja) * 1996-01-24 1997-07-31 Nissan Motor Co Ltd 車両用レーダ装置
US5682225A (en) * 1996-06-07 1997-10-28 Loral Vought Systems Corp. Ladar intensity image correction for laser output variations
JP3562278B2 (ja) * 1997-11-07 2004-09-08 日産自動車株式会社 環境認識装置
JP3420049B2 (ja) * 1997-12-27 2003-06-23 本田技研工業株式会社 車両用物体検知装置
FR2783330B1 (fr) * 1998-09-15 2002-06-14 Assist Publ Hopitaux De Paris Dispositif d'observation de l'interieur d'un corps produisant une qualite d'observation perfectionnee
US6281862B1 (en) * 1998-11-09 2001-08-28 University Of Washington Scanned beam display with adjustable accommodation
JP3514166B2 (ja) * 1999-05-06 2004-03-31 日産自動車株式会社 先行車認識装置
US6204955B1 (en) * 1999-07-09 2001-03-20 Advanced Optical Technologies, Inc. Apparatus for dynamic control of light direction in a broad field of view
US6664529B2 (en) * 2000-07-19 2003-12-16 Utah State University 3D multispectral lidar
JP2002071808A (ja) * 2000-08-28 2002-03-12 Omron Corp 測距装置及びこれを使用した先行車検知システム並びに先行車追従システム
JP4595197B2 (ja) * 2000-12-12 2010-12-08 株式会社デンソー 距離測定装置
JP3838432B2 (ja) * 2002-02-08 2006-10-25 オムロン株式会社 測距装置
JP4092956B2 (ja) * 2002-06-05 2008-05-28 トヨタ自動車株式会社 車載運転支援装置
US6970578B1 (en) * 2002-07-16 2005-11-29 The United States Of America As Represented By The Secretary Of The Navy Method of generating images to aid in the detection of manmade objects in cluttered underwater environments
JP3879848B2 (ja) * 2003-03-14 2007-02-14 松下電工株式会社 自律移動装置
US7177063B2 (en) 2003-08-12 2007-02-13 Terraop Ltd. Bouncing mode operated scanning micro-mirror
JP2005077379A (ja) * 2003-09-03 2005-03-24 Denso Corp レーダ装置
US7064810B2 (en) * 2003-09-15 2006-06-20 Deere & Company Optical range finder with directed attention
DE10361869A1 (de) * 2003-12-29 2005-07-28 Iqsun Gmbh Vorrichtung und Verfahren zum optischen Abtasten und Vermessen einer Umgebung
JP2005257325A (ja) * 2004-03-09 2005-09-22 Denso Corp 距離検出装置
EP1842082A2 (en) * 2005-01-20 2007-10-10 Elbit Systems Electro-Optics Elop Ltd. Laser obstacle detection and display
US7106552B2 (en) 2005-02-03 2006-09-12 Hitachi Global Storage Technologies Netherlands B.V. Method for secondary-actuator failure detection and recovery in a dual-stage actuator disk drive
JP2006258604A (ja) * 2005-03-17 2006-09-28 Sanyo Electric Co Ltd 検出装置
US7936448B2 (en) 2006-01-27 2011-05-03 Lightwire Inc. LIDAR system utilizing SOI-based opto-electronic components
US7944548B2 (en) * 2006-03-07 2011-05-17 Leica Geosystems Ag Increasing measurement rate in time of flight measurement apparatuses
US8493445B2 (en) 2006-05-31 2013-07-23 Sigma Space Corp Scanner/optical system for three-dimensional lidar imaging and polarimetry
US8072581B1 (en) 2007-01-19 2011-12-06 Rockwell Collins, Inc. Laser range finding system using variable field of illumination flash lidar
WO2008107870A1 (en) 2007-03-06 2008-09-12 Btendo Ltd. A mems device having reduced deformations
DE102007011425A1 (de) * 2007-03-08 2008-09-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Projektionsvorrichtung zum scannenden Projizieren
JP4960780B2 (ja) * 2007-07-02 2012-06-27 キヤノン株式会社 光学走査装置、光量制御方法及び画像形成装置
EP2212717B1 (en) * 2007-10-09 2015-03-18 Windar Photonics A/S Coherent lidar system based on a semiconductor laser and amplifier
CN109255924A (zh) * 2007-11-15 2019-01-22 爱克斯崔里斯科技有限公司 颗粒探测
US8251517B2 (en) * 2007-12-05 2012-08-28 Microvision, Inc. Scanned proximity detection method and apparatus for a scanned image projection system
US20090219961A1 (en) * 2008-02-28 2009-09-03 B.E. Meyers & Co., Inc. Laser Systems and Methods Having Auto-Ranging and Control Capability
US8332134B2 (en) * 2008-04-24 2012-12-11 GM Global Technology Operations LLC Three-dimensional LIDAR-based clear path detection
US20090273770A1 (en) * 2008-04-30 2009-11-05 Honeywell International Inc. Systems and methods for safe laser imaging, detection and ranging (lidar) operation
EP2362936B1 (en) * 2008-10-28 2012-10-17 3Shape A/S Scanner with feedback control
CN101739958B (zh) * 2008-11-24 2013-08-07 奇美电子股份有限公司 多区域动态背光驱动的装置及其方法
DE112008004187B4 (de) * 2008-12-15 2016-06-16 Toyota Jidosha Kabushiki Kaisha Objektmessvorrichtung und verfahren zur verwendung in der vorrichtung
CN101526619B (zh) * 2009-04-02 2011-07-13 哈尔滨工业大学 基于无扫描激光雷达与ccd相机的同步测距测速系统
JP5710109B2 (ja) * 2009-07-10 2015-04-30 日本信号株式会社 光測距装置
DE102009029364A1 (de) * 2009-09-11 2011-03-24 Robert Bosch Gmbh Messvorrichtung zur Messung einer Entfernung zwischen der Messvorrichtung und einem Zielobjekt mit Hilfe optischer Messstrahlung
US20110285981A1 (en) 2010-05-18 2011-11-24 Irvine Sensors Corporation Sensor Element and System Comprising Wide Field-of-View 3-D Imaging LIDAR
US20120170024A1 (en) * 2009-09-22 2012-07-05 Medhat Azzazy Long Range Acquisition and Tracking SWIR Sensor System Comprising Micro-Lamellar Spectrometer
JP2011089874A (ja) * 2009-10-22 2011-05-06 Toyota Central R&D Labs Inc 距離画像データ取得装置
US8212995B2 (en) 2010-03-16 2012-07-03 Raytheon Company Laser imaging system with uniform line illumination and method for generating images
CN102884444B (zh) 2010-05-07 2014-08-13 三菱电机株式会社 激光雷达装置
LU91688B1 (en) 2010-05-17 2011-11-18 Iee Sarl Scanning 3D imager
JP5494261B2 (ja) * 2010-06-11 2014-05-14 セイコーエプソン株式会社 処理装置、光学式検出装置、表示装置及び電子機器
JP5516145B2 (ja) * 2010-06-30 2014-06-11 セイコーエプソン株式会社 光学式検出装置、表示装置及び電子機器
US8736818B2 (en) * 2010-08-16 2014-05-27 Ball Aerospace & Technologies Corp. Electronically steered flash LIDAR
US20120236379A1 (en) 2010-08-23 2012-09-20 Lighttime, Llc Ladar using mems scanning
JP2012063236A (ja) 2010-09-16 2012-03-29 Ricoh Co Ltd レーザレーダ装置
KR101395089B1 (ko) * 2010-10-01 2014-05-16 안동대학교 산학협력단 장애물 감지 시스템 및 방법
CN102565808B (zh) 2010-12-17 2015-10-21 上海无线电设备研究所 一种稀疏阵列高速三维成像激光雷达的实现方法
EP2469301A1 (en) * 2010-12-23 2012-06-27 André Borowski Methods and devices for generating a representation of a 3D scene at very high speed
EP2469295A1 (en) * 2010-12-23 2012-06-27 André Borowski 3D landscape real-time imager and corresponding imaging methods
EP2469294A1 (en) 2010-12-23 2012-06-27 André Borowski 2D/3D real-time imager and corresponding imaging methods
WO2012123936A2 (en) * 2011-03-17 2012-09-20 IDS Innovative Defence Systems ltd. Devices and methods for real time detection of chemical and biological gaseous hazards
KR101071362B1 (ko) * 2011-03-25 2011-10-07 위재영 차량의 물체 거리 인식 시스템 및 작동 방법
JP2012215521A (ja) * 2011-04-01 2012-11-08 Denso Corp レーザレーダ装置
JP5561333B2 (ja) * 2011-11-02 2014-07-30 株式会社リコー 画像処理装置、撮像方法、プログラムおよび車両
WO2013094791A1 (ko) * 2011-12-22 2013-06-27 엘지전자 주식회사 거리 측정 장치
US9651417B2 (en) 2012-02-15 2017-05-16 Apple Inc. Scanning depth engine
DE102013102153A1 (de) * 2012-03-15 2013-09-19 GM Global Technology Operations LLC Verfahren zur Registrierung von Entfernungsbildern von mehreren LiDAR-Sensoren
CN103608696B (zh) * 2012-05-22 2016-05-11 韩国生产技术研究院 3d扫描系统和获得3d图像的方法
KR101357051B1 (ko) * 2012-05-22 2014-02-04 한국생산기술연구원 3차원 스캐닝 시스템 및 이를 이용한 3차원 영상획득방법
KR101391298B1 (ko) * 2012-08-21 2014-05-07 한국생산기술연구원 3차원 레이저 스캐닝 시스템
EP2677340A1 (en) 2012-06-18 2013-12-25 Hexagon Technology Center GmbH Distance measuring method using dynamic pulse width adaptation
JP6111617B2 (ja) * 2012-07-03 2017-04-12 株式会社リコー レーザレーダ装置
GB2504291A (en) * 2012-07-24 2014-01-29 St Microelectronics Ltd A proximity and gesture detection module
CN202794523U (zh) * 2012-07-27 2013-03-13 符建 一种基于飞行光谱的三维成像雷达系统
US9678209B2 (en) * 2012-09-13 2017-06-13 The United States Of America As Represented By The Secretary Of The Army System for laser detection with enhanced field of view
US9383753B1 (en) * 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
ES2512965B2 (es) * 2013-02-13 2015-11-24 Universitat Politècnica De Catalunya Sistema y método para escanear una superficie y programa de ordenador que implementa el método
KR102048361B1 (ko) * 2013-02-28 2019-11-25 엘지전자 주식회사 거리 검출 장치, 및 이를 구비하는 영상처리장치
US9128190B1 (en) * 2013-03-06 2015-09-08 Google Inc. Light steering device with an array of oscillating reflective slats
US9086273B1 (en) * 2013-03-08 2015-07-21 Google Inc. Microrod compression of laser beam in combination with transmit lens
US9254846B2 (en) * 2013-05-03 2016-02-09 Google Inc. Predictive reasoning for controlling speed of a vehicle
US9121703B1 (en) 2013-06-13 2015-09-01 Google Inc. Methods and systems for controlling operation of a laser device
US8836922B1 (en) 2013-08-20 2014-09-16 Google Inc. Devices and methods for a rotating LIDAR platform with a shared transmit/receive path
US9368936B1 (en) 2013-09-30 2016-06-14 Google Inc. Laser diode firing system
US10203399B2 (en) 2013-11-12 2019-02-12 Big Sky Financial Corporation Methods and apparatus for array based LiDAR systems with reduced interference
KR102178860B1 (ko) * 2013-11-25 2020-11-18 한국전자통신연구원 레이저 레이더 장치 및 그것의 동작 방법
CN103576134B (zh) * 2013-11-26 2015-10-07 北京航空航天大学 一种基于同轴双通道数据采集的全波形激光雷达系统
US9625580B2 (en) 2014-01-03 2017-04-18 Princeton Lightwave, Inc. LiDAR system comprising a single-photon detector
JP6207407B2 (ja) * 2014-01-17 2017-10-04 オムロンオートモーティブエレクトロニクス株式会社 レーザレーダ装置、物体検出方法、及び、プログラム
JP6292534B2 (ja) * 2014-01-23 2018-03-14 株式会社リコー 物体検出装置及びセンシング装置
JP6318663B2 (ja) * 2014-02-07 2018-05-09 三菱電機株式会社 レーザレーダ装置
CN104897580B (zh) * 2014-03-04 2017-12-15 刘学峰 一种非直观成像检测大气成分的光学系统和方法
CN103901435B (zh) * 2014-03-11 2016-05-18 北京航空航天大学 一种全光纤光路全波形激光雷达系统
EP3117234B1 (en) 2014-03-14 2021-04-28 Heptagon Micro Optics Pte. Ltd. Optoelectronic modules operable to recognize spurious reflections and to compensate for errors caused by spurious reflections
CN103884363B (zh) * 2014-04-02 2016-10-05 电子科技大学 一种基于布里渊放大的光时域反射计型光纤传感系统
CN106415309B (zh) 2014-06-27 2019-07-30 Hrl实验室有限责任公司 扫描激光雷达及其制造方法
US9377533B2 (en) * 2014-08-11 2016-06-28 Gerard Dirk Smits Three-dimensional triangulation and time-of-flight based tracking systems and methods
US9869753B2 (en) 2014-08-15 2018-01-16 Quanergy Systems, Inc. Three-dimensional-mapping two-dimensional-scanning lidar based on one-dimensional-steering optical phased arrays and method of using same
EP3195010A4 (en) 2014-08-15 2018-04-11 Aeye, Inc. Methods and systems for ladar transmission
KR101632873B1 (ko) 2014-09-05 2016-07-01 현대모비스 주식회사 장애물 검출 시스템 및 방법
JP2016057141A (ja) * 2014-09-09 2016-04-21 株式会社リコー 距離測定装置、移動体装置及び距離測定方法
US9596440B2 (en) * 2014-09-11 2017-03-14 Microvision, Inc. Scanning laser planarity detection
JPWO2016056545A1 (ja) * 2014-10-09 2017-07-20 コニカミノルタ株式会社 走査光学系及び投受光装置
US10036803B2 (en) 2014-10-20 2018-07-31 Quanergy Systems, Inc. Three-dimensional lidar sensor based on two-dimensional scanning of one-dimensional optical emitter and method of using same
IL235359A0 (en) 2014-10-27 2015-11-30 Ofer David Wide-dynamic-range simulation of an environment with a high intensity radiating/reflecting source
US10073177B2 (en) * 2014-11-14 2018-09-11 Massachusetts Institute Of Technology Methods and apparatus for phased array imaging
JP2016110008A (ja) * 2014-12-10 2016-06-20 スタンレー電気株式会社 二軸光偏向器
JP6497071B2 (ja) * 2014-12-26 2019-04-10 富士通株式会社 レーザ測距装置、汚れ検出方法、およびプログラム
US9625582B2 (en) * 2015-03-25 2017-04-18 Google Inc. Vehicle with multiple light detection and ranging devices (LIDARs)
US10120076B2 (en) 2015-05-07 2018-11-06 GM Global Technology Operations LLC Spatio-temporal scanning patterns for array lidar systems
US10527726B2 (en) * 2015-07-02 2020-01-07 Texas Instruments Incorporated Methods and apparatus for LIDAR with DMD
US10093312B2 (en) * 2015-07-27 2018-10-09 Sharp Kabushiki Kaisha Obstacle determining apparatus, moving body, and obstacle determining method
WO2017079483A1 (en) 2015-11-05 2017-05-11 Luminar Technologies, Inc. Lidar system with improved scanning speed for high-resolution depth mapping
CN105425245B (zh) * 2015-11-06 2018-02-09 中国人民解放军空军装备研究院雷达与电子对抗研究所 一种基于相干探测的远距离高重频激光三维扫描装置
JP6852085B2 (ja) 2015-11-30 2021-03-31 ルミナー テクノロジーズ インコーポレイテッド 分布型レーザー及び複数のセンサー・ヘッドを備える光検出及び測距システム、並びに、光検出及び測距システムのパルス・レーザー
WO2017106875A1 (en) * 2015-12-18 2017-06-22 Gerard Dirk Smits Real time position sensing of objects
CN105467399B (zh) * 2015-12-29 2019-02-12 大连楼兰科技股份有限公司 基于Light Tools的车载激光雷达光学系统及其工作方法
CN108883575A (zh) * 2016-02-18 2018-11-23 维洛3D公司 准确的三维打印
CN205539871U (zh) * 2016-04-12 2016-08-31 公安部第一研究所 一种基于离轴光路技术的摄像系统
US10234561B2 (en) * 2016-05-09 2019-03-19 Microsoft Technology Licensing, Llc Specular reflection removal in time-of-flight camera apparatus
GB2570791B (en) * 2016-05-18 2021-10-27 James Okeeffe A dynamically steered lidar adapted to vehicle shape
US9789808B1 (en) 2016-07-01 2017-10-17 Toyota Motor Engineering & Manufacturing North America, Inc. Headlight directional control for illuminating an identified object
WO2018031830A1 (en) * 2016-08-10 2018-02-15 Okeeffe James Laser range finding with enhanced utilization of a remotely located mirror
WO2018044958A1 (en) * 2016-08-29 2018-03-08 Okeeffe James Laser range finder with smart safety-conscious laser intensity
US9791557B1 (en) * 2016-09-15 2017-10-17 Qualcomm Incorporated System and method for multi-area LIDAR ranging
DE102016011299A1 (de) 2016-09-19 2018-03-22 Blickfeld GmbH Codierte Laserlicht-Pulssequenzen für LIDAR
KR102457029B1 (ko) * 2016-09-20 2022-10-24 이노비즈 테크놀로지스 엘티디 Lidar 시스템 및 방법
US10379540B2 (en) * 2016-10-17 2019-08-13 Waymo Llc Light detection and ranging (LIDAR) device having multiple receivers
US10114111B2 (en) 2017-03-28 2018-10-30 Luminar Technologies, Inc. Method for dynamically controlling laser power

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007139594A (ja) * 2005-11-18 2007-06-07 Omron Corp 物体検出装置

Also Published As

Publication number Publication date
EP4194887A1 (en) 2023-06-14
US10107915B2 (en) 2018-10-23
WO2018055449A9 (en) 2018-05-17
JP2023022195A (ja) 2023-02-14
US20180143302A1 (en) 2018-05-24
CN110286388B (zh) 2020-11-03
EP4194889A1 (en) 2023-06-14
KR20220146680A (ko) 2022-11-01
KR20240051293A (ko) 2024-04-19
US10481268B2 (en) 2019-11-19
US10317534B2 (en) 2019-06-11
US20190271769A1 (en) 2019-09-05
JP6697636B2 (ja) 2020-05-20
US20180113200A1 (en) 2018-04-26
JP2019535014A (ja) 2019-12-05
JP7106595B2 (ja) 2022-07-26
US20180120441A1 (en) 2018-05-03
US20180143322A1 (en) 2018-05-24
US10031214B2 (en) 2018-07-24
JP2022141781A (ja) 2022-09-29
US20180143304A1 (en) 2018-05-24
EP3859396A1 (en) 2021-08-04
KR102457029B1 (ko) 2022-10-24
US20220050203A1 (en) 2022-02-17
KR102472631B1 (ko) 2022-11-30
US10353075B2 (en) 2019-07-16
US20180136337A1 (en) 2018-05-17
US20180136331A1 (en) 2018-05-17
US10310088B2 (en) 2019-06-04
US10241207B2 (en) 2019-03-26
KR20220163517A (ko) 2022-12-09
US10031232B2 (en) 2018-07-24
JP2023022136A (ja) 2023-02-14
JP7281594B2 (ja) 2023-05-25
US20180143305A1 (en) 2018-05-24
US10191156B2 (en) 2019-01-29
KR20220163509A (ko) 2022-12-09
KR102554215B1 (ko) 2023-07-11
US10698114B2 (en) 2020-06-30
EP4194888A1 (en) 2023-06-14
KR102547651B1 (ko) 2023-06-26
US10281582B2 (en) 2019-05-07
WO2018055449A2 (en) 2018-03-29
KR20190049871A (ko) 2019-05-09
US20180143324A1 (en) 2018-05-24
KR102496509B1 (ko) 2023-02-07
CN111796255B (zh) 2024-07-23
US10241208B2 (en) 2019-03-26
US20180120424A1 (en) 2018-05-03
US20180143307A1 (en) 2018-05-24
KR20220159493A (ko) 2022-12-02
KR20230110646A (ko) 2023-07-24
US10215859B2 (en) 2019-02-26
EP3516421A2 (en) 2019-07-31
CN111796255A (zh) 2020-10-20
JP2023052121A (ja) 2023-04-11
CN110286388A (zh) 2019-09-27
EP4191278A1 (en) 2023-06-07
KR102547582B1 (ko) 2023-06-26
CN109997057A (zh) 2019-07-09
JP2020126065A (ja) 2020-08-20
US20180143306A1 (en) 2018-05-24
JP7241223B2 (ja) 2023-03-16
KR20220164081A (ko) 2022-12-12
US20180143308A1 (en) 2018-05-24
US20180128920A1 (en) 2018-05-10
US20190212450A1 (en) 2019-07-11
JP7336014B2 (ja) 2023-08-30
CN109997057B (zh) 2020-07-14
US10222477B2 (en) 2019-03-05

Similar Documents

Publication Publication Date Title
KR102656212B1 (ko) Lidar 시스템 및 방법
KR102714940B1 (ko) Lidar 시스템 및 방법
KR20240149452A (ko) Lidar 시스템 및 방법

Legal Events

Date Code Title Description
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant