JP2023022195A - Lidarシステム及び方法 - Google Patents
Lidarシステム及び方法 Download PDFInfo
- Publication number
- JP2023022195A JP2023022195A JP2022189874A JP2022189874A JP2023022195A JP 2023022195 A JP2023022195 A JP 2023022195A JP 2022189874 A JP2022189874 A JP 2022189874A JP 2022189874 A JP2022189874 A JP 2022189874A JP 2023022195 A JP2023022195 A JP 2023022195A
- Authority
- JP
- Japan
- Prior art keywords
- light
- field
- view
- lidar system
- light source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 417
- 238000001514 detection method Methods 0.000 claims abstract description 473
- 230000004907 flux Effects 0.000 claims abstract description 308
- 230000003287 optical effect Effects 0.000 claims description 753
- 230000001276 controlling effect Effects 0.000 claims description 190
- 230000001965 increasing effect Effects 0.000 claims description 126
- 230000035945 sensitivity Effects 0.000 claims description 109
- 238000005259 measurement Methods 0.000 claims description 108
- 230000008859 change Effects 0.000 claims description 105
- 230000033001 locomotion Effects 0.000 claims description 102
- 238000009826 distribution Methods 0.000 claims description 77
- 230000002093 peripheral effect Effects 0.000 claims description 73
- 238000005286 illumination Methods 0.000 claims description 60
- 230000004044 response Effects 0.000 claims description 41
- 230000002123 temporal effect Effects 0.000 claims description 41
- 239000003990 capacitor Substances 0.000 claims description 35
- 230000000694 effects Effects 0.000 claims description 31
- 238000005452 bending Methods 0.000 claims description 25
- 238000003860 storage Methods 0.000 claims description 24
- 230000010287 polarization Effects 0.000 claims description 23
- 239000007787 solid Substances 0.000 claims description 22
- 230000005684 electric field Effects 0.000 claims description 20
- 230000007613 environmental effect Effects 0.000 claims description 16
- 230000007423 decrease Effects 0.000 claims description 13
- 239000000463 material Substances 0.000 claims description 11
- 238000013479 data entry Methods 0.000 claims description 10
- 230000001105 regulatory effect Effects 0.000 claims description 8
- 230000003321 amplification Effects 0.000 claims description 7
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 7
- 230000001902 propagating effect Effects 0.000 claims description 7
- 230000001629 suppression Effects 0.000 claims description 7
- 238000010408 sweeping Methods 0.000 claims description 7
- 230000001360 synchronised effect Effects 0.000 claims description 6
- 231100000040 eye damage Toxicity 0.000 claims description 4
- 230000011664 signaling Effects 0.000 claims description 3
- 238000013016 damping Methods 0.000 claims 2
- 238000005516 engineering process Methods 0.000 abstract description 7
- 238000012545 processing Methods 0.000 description 153
- 230000000875 corresponding effect Effects 0.000 description 84
- 230000006870 function Effects 0.000 description 56
- 230000008569 process Effects 0.000 description 55
- 238000010586 diagram Methods 0.000 description 42
- 230000002829 reductive effect Effects 0.000 description 29
- 230000005540 biological transmission Effects 0.000 description 23
- 239000004065 semiconductor Substances 0.000 description 19
- 239000000758 substrate Substances 0.000 description 17
- 238000012544 monitoring process Methods 0.000 description 16
- 230000033228 biological regulation Effects 0.000 description 15
- 230000001133 acceleration Effects 0.000 description 14
- 230000001976 improved effect Effects 0.000 description 14
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 12
- 229910052710 silicon Inorganic materials 0.000 description 12
- 239000010703 silicon Substances 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 10
- 238000003491 array Methods 0.000 description 10
- 230000000670 limiting effect Effects 0.000 description 10
- 229910052751 metal Inorganic materials 0.000 description 10
- 239000002184 metal Substances 0.000 description 10
- 238000013021 overheating Methods 0.000 description 10
- 230000006378 damage Effects 0.000 description 9
- 238000007726 management method Methods 0.000 description 9
- 230000007246 mechanism Effects 0.000 description 9
- 230000005855 radiation Effects 0.000 description 9
- 238000013459 approach Methods 0.000 description 8
- 230000010363 phase shift Effects 0.000 description 8
- 238000002310 reflectometry Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 7
- 241000270666 Testudines Species 0.000 description 6
- 230000003667 anti-reflective effect Effects 0.000 description 6
- 230000006399 behavior Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 6
- 235000009508 confectionery Nutrition 0.000 description 6
- 239000006185 dispersion Substances 0.000 description 6
- 238000007689 inspection Methods 0.000 description 6
- 230000036961 partial effect Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 239000004020 conductor Substances 0.000 description 5
- 230000003247 decreasing effect Effects 0.000 description 5
- 238000005265 energy consumption Methods 0.000 description 5
- 238000001208 nuclear magnetic resonance pulse sequence Methods 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000010521 absorption reaction Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000013213 extrapolation Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 3
- 238000007792 addition Methods 0.000 description 3
- 230000004075 alteration Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000001816 cooling Methods 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000001788 irregular Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000010355 oscillation Effects 0.000 description 3
- 238000004806 packaging method and process Methods 0.000 description 3
- 230000003014 reinforcing effect Effects 0.000 description 3
- 239000002210 silicon-based material Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 235000012431 wafers Nutrition 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000008713 feedback mechanism Effects 0.000 description 2
- 238000007710 freezing Methods 0.000 description 2
- 230000008014 freezing Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000010438 heat treatment Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000007788 liquid Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003071 parasitic effect Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000000704 physical effect Effects 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 238000011946 reduction process Methods 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000008093 supporting effect Effects 0.000 description 2
- 238000003462 Bender reaction Methods 0.000 description 1
- 244000025254 Cannabis sativa Species 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 206010021703 Indifference Diseases 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 1
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 238000000149 argon plasma sintering Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000000205 computational method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- PMHQVHHXPFUNSP-UHFFFAOYSA-M copper(1+);methylsulfanylmethane;bromide Chemical compound Br[Cu].CSC PMHQVHHXPFUNSP-UHFFFAOYSA-M 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000023077 detection of light stimulus Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000013742 energy transducer activity Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 239000003897 fog Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 239000012212 insulator Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000031700 light absorption Effects 0.000 description 1
- 230000001795 light effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000003534 oscillatory effect Effects 0.000 description 1
- 238000000059 patterning Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 231100000754 permissible exposure limit Toxicity 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 238000010791 quenching Methods 0.000 description 1
- 230000000171 quenching effect Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000011540 sensing material Substances 0.000 description 1
- 229910052814 silicon oxide Inorganic materials 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000002277 temperature effect Effects 0.000 description 1
- 230000003685 thermal hair damage Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
- 230000003945 visual behavior Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4811—Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
- G01S7/4812—Constructional features, e.g. arrangements of optical elements common to transmitter and receiver transmitted and received beams following a coaxial path
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4817—Constructional features, e.g. arrangements of optical elements relating to scanning
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/0017—Devices integrating an element dedicated to another function
- B60Q1/0023—Devices integrating an element dedicated to another function the element being a sensor, e.g. distance sensor, camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/26—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/04—Systems determining the presence of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/50—Systems of measurement based on relative movement of target
- G01S17/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4814—Constructional features, e.g. arrangements of optical elements of transmitters alone
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4814—Constructional features, e.g. arrangements of optical elements of transmitters alone
- G01S7/4815—Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/484—Transmitters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
- G01S7/4861—Circuits for detection, sampling, integration or read-out
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
- G01S7/4861—Circuits for detection, sampling, integration or read-out
- G01S7/4863—Detector arrays, e.g. charge-transfer gates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
- G01S7/4868—Controlling received signal intensity or exposure of sensor
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
- G01S7/487—Extracting wanted echo signals, e.g. pulse detection
- G01S7/4876—Extracting wanted echo signals, e.g. pulse detection by removing unwanted signals
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4911—Transmitters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4912—Receivers
- G01S7/4918—Controlling received signal intensity, gain or exposure of sensor
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
- G01S7/4972—Alignment of sensor
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B26/00—Optical devices or arrangements for the control of light using movable or deformable optical elements
- G02B26/08—Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
- G02B26/0816—Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements
- G02B26/0833—Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements the reflecting element being a micromechanical device, e.g. a MEMS mirror, DMD
- G02B26/0858—Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements the reflecting element being a micromechanical device, e.g. a MEMS mirror, DMD the reflecting means being moved or deformed by piezoelectric means
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B26/00—Optical devices or arrangements for the control of light using movable or deformable optical elements
- G02B26/08—Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
- G02B26/10—Scanning systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/247—Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2111/00—Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
- G05D2111/10—Optical signals
- G05D2111/17—Coherent light, e.g. laser signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
- Measurement Of Optical Distance (AREA)
- Mechanical Optical Scanning Systems (AREA)
Abstract
Description
[001] 本出願は、2016年9月20日に出願された米国仮特許出願第62/396,
858号、2016年9月20日に出願された米国仮特許出願第62/396,863号、2016年9月20日に出願された米国仮特許出願第62/396,864号、2016年9月21日に出願された米国仮特許出願第62/397,379号、2016年10月9日に出願された米国仮特許出願第62/405,928号、2016年10月25日に出願された米国仮特許出願第62/412,294号、2016年10月30日に出願された米国仮特許出願第62/414,740号、2016年11月7日に出願された米国仮特許出願第62/418,298号、2016年11月16日に出願された米国仮特許出願第62/422,602号、2016年11月22日に出願された米国仮特許出願第62/425,089号、2017年1月3日に出願された米国仮特許出願第62/441,574号、2017年1月3日に出願された米国仮特許出願第62/441,581号、2017年1月3日に出願された米国仮特許出願第62/441,583号、及び、2017年6月18日に出願された米国仮特許出願第62/521,450号の優先権の利益を主張する。前述の出願の全ては全体が援用により本願に含まれる。
れば、LIDAR技術を用いて周囲環境における物体を検出するシステム及び方法に関する。
ションに影響を及ぼし得る障害物、危険、物体、及び他の物理パラメータを識別することを含めて、周囲の状況を信頼性高く検知し解釈できるシステムを搭載することが必要となっている。この目的のため、単独で又は冗長的に動作するレーダ、LIDAR、カメラベースのシステムを含む多くの異なる技術が提案されている。
さ、明るい光、及び雪を含む様々な条件においてシステムが周囲の状況を判断する能力である。光検出と測距(LIDAR:light detection and ranging system、LADARとしても知られている)は、物体に光を照射して反射したパルスをセンサで測定することで物体までの距離を測定することによって、様々な条件で良好に機能することができる技術の一例である。レーザは、LIDARシステムにおいて使用できる光源の一例である。あらゆる検知システムと同様、LIDARベースの検知システムが自動車業界によって充分に導入されるため、システムは、遠方の物体の検出を可能とする信頼性の高いデータを提供しなければならない。しかしながら、現在、LIDARシステムを目に安全なものにする(すなわち、投影光放出が目の角膜及びレンズに吸収されて網膜に熱損傷を与える場合に生じ得る人の目に対する損傷を与えないようにする)必要によって、LIDARシステムの最大照射パワーは制限されている。
の性能を向上させることを対象とする。
出するためのシステム及び方法を提供する。
ッサであって、少なくとも1つの光源からの光を用いた視野のスキャンにおいて光束を変動させ得るように少なくとも1つの光源を制御し、視野をスキャンするため少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、視野の第1の部分のスキャンに関連した第1の検出反射を用いて、第1の部分内に第1の距離の第1の物体が存在すると決定し、視野の第2の部分内に第1の距離の物体が不在であると決定し、第1の反射を検出し、第2の部分内に物体が不在であると決定した後、視野の第1の部分の方へ投影されるよりも多くの光が視野の第2の部分の方へ投影されるように光源パラメータを変更し、視野の第2の部分における第2の検出反射を用いて、第1の距離よりも大きい第2の距離に第2の物体が存在すると決定する、ように構成された少なくとも1つのプロセッサを含むことができる。
ッサであって、少なくとも1つの光源からの光を用いた視野のスキャンにおいて光束を変動させ得るように少なくとも1つの光源を制御し、視野の第1の部分の方へ誘導される少なくとも第1の光放出の投影を制御して、視野の第1の部分内に第1の距離の物体が不在であると決定することと、少なくとも第1の光放出に基づいて視野の第1の部分内に物体が不在であると決定された場合、視野の第1の部分の方へ誘導される少なくとも第2の光放出の投影を制御して、視野の第1の部分において第1の距離よりも大きい第2の距離の物体の検出を可能とし、視野の第1の部分の方へ誘導される少なくとも第3の光放出の投影を制御して、視野の第1の部分において第2の距離よりも大きい第3の距離の物体が存在すると決定する、ように構成された少なくとも1つのプロセッサを含むことができる。
ッサであって、第1の部分及び第2の部分を含む視野のスキャンにおいて光束を変動させ得るように少なくとも1つの光源を制御し、画素ごとに少なくとも1つのセンサから信号を受信し、この信号は、周囲光と、視野内の物体によって反射された少なくとも1つの光源からの光及び少なくとも1つのセンサに関連する雑音の組み合わせと、のうち少なくとも1つを示し、視野の第1の部分に関連した信号の少なくとも一部における雑音を推定し、視野の第1の部分における雑音の推定に基づいて、視野の第1の部分に関連した反射に対するセンサ感度を変更し、視野の第2の部分に関連した信号の少なくとも一部における雑音を推定し、視野の第2の部分における雑音の推定に基づいて、視野の第2の部分に関連した反射に対するセンサ感度を変更し、第2の部分に関連した反射に関する変更されたセンサ感度は第1の部分に関連した反射に関する変更されたセンサ感度とは異なる、ように構成された少なくとも1つのプロセッサを含むことができる。
ッサであって、少なくとも1つの光源からの光を用いた視野のスキャンにおいて光強度を変動させ得るように少なくとも1つの光源を制御し、視野をスキャンするため少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、視野内の少なくとも1つの明確な関心領域の識別を取得し、第1のスキャンサイクルの後、少なくとも1つの明確な関心領域に関連したロケーションにおける少なくとも1つの後続の第2のスキャンサイクルの光強度が、少なくとも1つの明確な関心領域に関連したロケーションにおける第1のスキャンサイクルの光強度よりも高くなるように、少なくとも1つの明確な関心領域に対する光の割り当てを他の領域よりも増大させる、ように構成された少なくとも1つのプロセッサを含むことができる。
ッサであって、少なくとも1つの光源からの光を用いた視野のスキャンにおいて光束を変動させ得るように少なくとも1つの光源を制御し、視野をスキャンするため少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、視野内の物体から反射された光を示す反射信号を少なくとも1つのセンサから受信し、初期光放出の反射信号に基づいて、LIDARシステムの中間エリアにおいて少なくとも1つの光偏向器からの閾値距離内に物体が位置しているか否かを判定し、閾値距離は安全距離に関連付けられ、中間エリアで物体が検出されない場合、中間エリアの方へ追加光放出を投影し、これによって中間エリアよりも遠くにある物体の検出を可能とするように、少なくとも1つの光源を制御し、中間エリアで物体が検出された場合、中間エリアにおける光の蓄積エネルギ密度が最大許容可能露光量を超えないように、少なくとも1つの光源及び少なくとも1つの光偏向器のうち少なくとも1つを規制する、ように構成された少なくとも1つのプロセッサを含むことができる。
ッサであって、光源の光放出を制御し、光源のアウトバウンド経路に配置された少なくとも1つの光偏向器を繰り返し移動させることによって視野をスキャンし、視野の単一のスキャンサイクル中に少なくとも1つの光偏向器は複数の位置に瞬時に配置され、少なくとも1つの偏向器が特定の瞬時位置にある間、少なくとも1つの偏向器を介して、センサへの帰還経路に沿って単一の光ビームスポットの反射を受光し、センサから、各光ビームスポットの画像に関連付けられた信号をビームスポットごとに受信し、センサは複数の検出器を含み、ビームスポットごとに各光ビームスポットの画像が複数の検出器に入射するように、各検出器のサイズは各光ビームスポットの画像よりも小さく、複数の検出器に対する入射によって生じた信号から、単一の光ビームスポットの画像に関連付けられた少なくとも2つの異なる範囲測定値を決定する、ように構成された少なくとも1つのプロセッサを含むことができる。
ッサであって、少なくとも1つの偏向器が特定の瞬時位置にある間、複数の光源からの光を複数のアウトバウンド経路に沿って視野を形成する複数の領域の方へ偏向させるように、少なくとも1つの偏向器を制御し、少なくとも1つの偏向器が特定の瞬時位置にある間、視野からの光反射が少なくとも1つの偏向器の少なくとも1つの共通エリアで受光されるように少なくとも1つの偏向器を制御し、少なくとも1つの共通エリアにおいて複数の光源のうち少なくともいくつかの光反射の少なくとも一部は相互に重なって入射し、複数の検出器の各々から、少なくとも1つの偏向器が特定の瞬時位置にある間の少なくとも1つの共通エリアからの光反射を示す少なくとも1つの信号を受信する、ように構成された少なくとも1つのプロセッサを含むことができる。
ッサであって、メモリに記憶された光学予算(optical budget)にアクセスし、光学予算は、少なくとも1つの光源に関連付けられると共に少なくとも1つの光源によって所定の時間期間内に放出可能な光量を規定し、LIDARシステムのプラットフォーム条件を示す情報を受信し、受信した情報に基づいて、スキャンレート、スキャンパターン、スキャン角、空間光分布、及び時間光分布のうち少なくとも2つに基づいて、LIDARシステムの視野に光学予算を動的に配分し、動的に配分した光学予算に従って視野のスキャンにおいて光束を変動させ得るように少なくとも1つの光源を制御するための信号を出力する、ように構成された少なくとも1つのプロセッサを含むことができる。
の振動抑制システムは、少なくとも1つのプロセッサであって、視野のスキャンにおいて
少なくとも1つの光源からの光の光束を変動させ得るように少なくとも1つの光源を制御し、視野をスキャンするため少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器の位置決めを制御し、車両の振動を示すデータを取得し、取得したデータに基づいて、車両の振動を補償するため少なくとも1つの光偏向器の位置決めに対する調整を決定し、少なくとも1つの光偏向器の位置決めに対する決定された調整を実施することにより、少なくとも1つの光偏向器において、視野のスキャンに対する車両の振動の影響の少なくとも一部を抑制する、ように構成された少なくとも1つのプロセッサを含むことができる。
ッサであって、視野のスキャンサイクルにおいて少なくとも1つの光源からの光の光束を変動させ得るように少なくとも1つの光源を制御し、少なくとも1つの光源から投影された光は視野をスキャンするため少なくとも1つの偏向器に誘導され、視野内の物体から反射された光を示す反射信号を少なくとも1つのセンサから受信し、スキャンサイクルにおいて視野の少なくとも3つのセクタが発生するように光束とスキャンを連携させ、第1のセクタは第1の光束及び関連付けられた第1の検出範囲を有し、第2のセクタは第2の光束及び関連付けられた第2の検出範囲を有し、第3のセクタは第3の光束及び関連付けられた第3の検出範囲を有し、第2の光束は第1の光束及び第3の光束の各々よりも多く、少なくとも1つのセンサからの入力に基づいて、第1の検出範囲及び第3の検出範囲よりも遠い距離に位置する第2のセクタ内の物体を検出する、ように構成された少なくとも1つのプロセッサを含むことができる。
ッサであって、近視野部分及び遠視野部分を含む視野の複数のスキャンにおいて少なくとも1つの光源の光束を変動させ得るように少なくとも1つの光源を制御し、視野をスキャンするように少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、近視野部分をカバーするスキャンサイクルに関連した第1のフレームに対する第1のスキャンレートと、遠視野部分をカバーするスキャンサイクルに関連した第2のフレームに対する第2のスキャンレートとを実施し、第1のスキャンレートは第2のレートよりも大きく、近視野部分に関連した複数の順次的な第1のフレームにおける物体の検出を可能とする光の投影後、光源パラメータを変更し、これによって遠視野部分に関連した第2のフレームにおける物体の検出を可能とするように光を投影するよう、少なくとも1つの光源を制御する、ように構成された少なくとも1つのプロセッサを含むことができる。
なくとも1つのプロセッサであって、視野のスキャンにおいて少なくとも1つの光源の光束を変動させ得るように少なくとも1つの光源を制御し、視野をスキャンするため少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、車両の現在の運転環境を示す入力を受信し、現在の運転環境に基づいて、視野のスキャンにおいて投影される光量及び光の空間光分布を変動させることによって瞬時検出距離を動的に調整するように少なくとも1つの光源の制御と少なくとも1つの光偏向器の制御を連携させる、ように構成された少なくとも1つのプロセッサを含むことができる。
なくとも1つのプロセッサであって、視野のスキャンサイクルにおいて少なくとも1つの光源からの光の光束を変動させ得るように少なくとも1つの光源を制御し、視野をスキャンするため少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、車両の車線横断方向転換が起こりそうであることを示す入力を取得し、車線横断方向転換が起こりそうであることを示す入力に応答して、車両が合流しようとしている
遠い側の車線を含めて車両の車線横断方向転換の方向とは反対の側の光束を視野の他の部分よりも増大させ、車両の車線横断方向転換の方向とは反対側の検出範囲を車線横断方向転換の方向の検出範囲よりも一時的に拡大するように、少なくとも1つの光源の制御と少なくとも1つの光偏向器の制御を連携させる、ように構成された少なくとも1つのプロセッサを含むことができる。
めのLIDARシステムは、少なくとも1つのプロセッサであって、視野のスキャンサイクルにおいて少なくとも1つの光源からの光の光束を変動させ得るように少なくとも1つの光源を制御し、視野をスキャンするため少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、視野は、車両が走行している幹線道路に概ね対応する中央領域と、幹線道路の右側のエリアに概ね対応する右側周辺領域と、幹線道路の左側のエリアに概ね対応する左側周辺領域と、に分割可能であり、車両が幹線道路の走行に対応するモードであるという入力を取得し、車両が幹線道路の走行に対応するモードであるという入力に応答して、中央領域、右側周辺領域、及び左側周辺領域を含む視野のスキャン中、右側周辺領域及び左側周辺領域よりも多くの光が中央領域へ誘導されるように、少なくとも1つの光源の制御と少なくとも1つの光偏向器の制御を連携させる、ように構成された少なくとも1つのプロセッサを含むことができる。
ッサであって、視野のスキャンにおいて少なくとも1つの光源からの光の光束を変動させ得るように少なくとも1つの光源を制御し、視野をスキャンするため少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、視野における周囲光を示す情報を少なくとも1つのセンサから受信し、受信された情報において、視野の第2の部分よりも多くの周囲光を含む視野の第1の部分の指示を識別し、視野をスキャンする場合、視野の第2の部分の方へ投影される光の光束よりも視野の第1の部分の方へ投影される光の光束が多くなるように光源パラメータを変更する、ように構成された少なくとも1つのプロセッサを含むことができる。
両の環境内の複数の物体を照射するために視野の方へ光を投影するように構成された少なくとも1つの光源と、少なくとも1つのプロセッサであって、視野の複数の部分のスキャンにおいて少なくとも1つの光源からの光の光束を変動させ得るように少なくとも1つの光源を制御し、視野のスキャン中、少なくとも1つのシステムコンポーネントから熱が放射され、少なくとも1つのシステムコンポーネントに関連した温度が閾値を超えていることを示す情報を受信し、温度が閾値を超えていることを示す受信された情報に応答して、少なくとも1つの後続のスキャンサイクル中に先行スキャンサイクルよりも少ない光が視野へ送出されるように視野の2つの部分間の照射比を変更する、ように構成された少なくとも1つのプロセッサと、を含むことができる。
ンドウと、光を偏向させて偏向光を与えるための微小電気機械(MEMS)ミラーと、フレームと、アクチュエータと、アクチュエータとMEMSミラーとの間に機械的に接続された相互接続要素と、を含むことができ、各アクチュエータは本体及び圧電要素を含み、圧電要素は、電界が印加された場合に本体を曲げると共にMEMSミラーを移動させるように構成され、MEMSミラーがアイドル位置に位置付けられている場合、MEMSミラーはウィンドウに対して配向されている。
ステップの任意のものの1つ以上のステップを含む及び/又は本明細書に記載されるステ
ップの任意のものを含むことができる。
媒体はプログラム命令を記憶することができ、この命令は、少なくとも1つの処理デバイスによって実行され、本明細書に記載される方法の任意のものを実施する。
請求の範囲を限定するものではない。
り、特許請求の範囲を限定しない。
態を示している。
[0104] 開示される実施形態は光学システムを含み得る。本明細書で用いる場合、「光学システム」という用語は、光の発生、検出、及び/又は操作のために使用される任意のシステムを広く含む。単に一例として、光学システムは、光を発生、検出、及び/又は操作するための1つ以上の光学コンポーネントを含み得る。例えば、光源、レンズ、ミラー、プリズム、ビームスプリッタ、コリメータ、偏光光学系、光学変調器、光学スイッチ、光学増幅器、光学検出器、光学センサ、光ファイバ、半導体光学コンポーネントは、それぞれ必ずしも必須ではないが、光学システムの一部となり得る。1つ以上の光学コンポーネントに加えて、光学システムは、電気的コンポーネント、機械的コンポーネント、化学反応コンポーネント、及び半導体コンポーネントのような、他の非光学コンポーネントも含み得る。非光学コンポーネントは、光学システムの光学コンポーネントと協働することができる。例えば光学システムは、検出された光を分析するための少なくとも1つのプロセッサを含み得る。
システムを広く含む。一実施形態において、LIDARシステムは、LIDARシステムが放出した光の反射に基づいて1対の有形物体間の距離を決定できる。本明細書で用いる場合、「距離を決定する」という用語は、1対の有形物体間の距離を示す出力を発生することを広く含む。決定された距離は、1対の有形物体間の物理的寸法を表すことができる。単に一例として、決定された距離は、LIDARシステムとLIDARシステムの視野内の別の有形物体との間の飛行距離線を含み得る。別の実施形態において、LIDARシステムは、LIDARシステムが放出した光の反射に基づいて1対の有形物体間の相対速度を決定することができる。1対の有形物体間の距離を示す出力の例には、有形物体間の標準的な長さ単位の数(例えばメートル数、インチ数、キロメートル数、ミリメートル数)、任意の長さ単位の数(例えばLIDARシステム長の数)、距離と別の長さとの比(例えばLIDARシステムの視野内で検出された物体の長さに対する比)、時間量(例えば標準的な単位、任意の単位又は比、例えば有形物体間を光が移動するのに要する時間として与えられる)、1つ以上のロケーション(例えば承認された座標を用いて規定される、既知のロケーションに対して規定される)、及びその他のものが含まれる。
へ移動するといった情報は、相互に連絡することができる。LIDARシステムが物体を検出する環境の寸法は、実施に伴って変動し得る。例えばLIDARシステムは、LIDARシステムが搭載されている車両の環境内で、最大で100m(又は200m、300m等)の水平方向距離まで、及び最大で10m(又は25m、50m等)の垂直方向距離まで、複数の物体を検出するために使用できる。別の例においてLIDARシステムは、車両の環境内で、又は既定の水平方向範囲内(例えば25°、50°、100°、180°等)で、及び既定の垂直方向高さ(例えば±10°、±20°、+40°~20°、±90°、又は0°~90°)まで、複数の物体を検出するため使用できる。
することで物体を検出するように構成できる。「LIDARシステムの環境をスキャンする」という用語は、LIDARシステムの視野又は視野の一部を照射することを広く含む。一例において、LIDARシステムの環境をスキャンすることは、光偏向器を移動又は枢動させて、視野の様々な部分へ向かう様々な方向に光を偏向させることによって達成できる。別の例において、LIDARシステムの環境をスキャンすることは、視野に対するセンサの位置決め(すなわちロケーション及び/又は向き)を変えることによって達成できる。別の例において、LIDARシステムの環境をスキャンすることは、視野に対する光源の位置決め(すなわちロケーション及び/又は向き)を変えることによって達成できる。更に別の例において、LIDARシステムの環境をスキャンすることは、少なくとも1つの光源及び少なくとも1つのセンサが視野に対して固定して(rigidly)移動するよ
うにそれらの位置を変えることによって達成できる(すなわち、少なくとも1つのセンサ及び少なくとも1つの光源の相対的な距離及び向きは維持される)。
所与の瞬間にLIDARシステムによって物体を検出することができる観察可能な環境の範囲を広く含み得る。例えばスキャンLIDARシステムでは、瞬時視野はLIDARシステムの全FOVよりも狭く、LIDARシステムのFOVの他の部分における検出を可能とするためLIDARシステムのFOV内で移動させることができる。LIDARシステムのFOV内での瞬時視野の移動は、LIDARシステムへの光ビーム及び/又はLIDARシステムからの光ビームを異なる方向に偏向させるようにLIDARシステムの(又はLIDARシステム外部の)光偏向器を移動させることによって達成できる。一実施形態において、LIDARシステムは、LIDARシステムが動作している環境内のシーン(scene)をスキャンするように構成できる。本明細書で用いる場合、「シーン」とい
う用語は、LIDARシステムの視野内の物体のいくつか又は全てを、LIDARシステムの動作期間中の相対位置で及び現在の状態で広く含み得る。例えばシーンは、地上の要素(例えば土、道路、草、歩道、路面標識)、空、人工物体(例えば車両、建物、標識)、植物、人物、動物、光投影要素(例えば懐中電灯、太陽、他のLIDARシステム)等を含み得る。
ば(X、Y、Z)、(r、φ、θ))。単に一例として、ポイントクラウドモデルは、そのポイントのいくつか又は全てのための追加情報を記憶することができる(例えば、カメラ画像から生成されたポイントのための色情報)。同様に、他のいずれのタイプの再構築3次元モデルも、その物体のいくつか又は全てのための追加情報を記憶することができる。同様に、「ポリゴンメッシュ」及び「三角形メッシュ」という用語は当技術分野において周知であり、とりわけ、1つ以上の3D物体(多面体等)の形状を画定する頂点(vertex)、稜線(edge)、及び面(face)のセットを含むように解釈するべきである。面は、レンダリングを簡略化できるという理由から、三角形(三角形メッシュ)、四角形、又は他の単純な凸多角形のうち1つ以上を含み得る。また、面は、より一般的な凹多角形、又はくぼみ(hole)を有する多角形を含み得る。ポリゴンメッシュは、頂点-頂点メッシュ、面-頂点メッシュ、ウイングドエッジメッシュ(Winged-edge mesh)、及びレンダーダイナミックメッシュ(Render dynamic mesh)のような様々な技法を用いて表現できる。
ポリゴンメッシュの様々な部分(例えば頂点、面、稜線)は、直接的に及び/又は相対的に、ある特定の座標系に空間的に位置付けられる(すなわち、各座標系によって記述される空間内に識別可能ロケーションを有する)。再構築3次元モデルの生成は、任意の標準的な、専用の、及び/又は新規の写真測量技法を用いて実施することができ、それらの多くは当技術分野において既知である。LIDARシステムによって他のタイプの環境モデルも生成できることに留意するべきである。
から1150nmの間の波長の光を放出するように構成されたレーザダイオードを含み得る。あるいは、光源は、約800nmから約1000nm、約850nmから約950nm、又は約1300nmから約1600nmの波長の光を放出するように構成されたレーザダイオードを含み得る。別段の指示がない限り、数値に関する「約」という用語は、言及された値に対して最大5%の分散として規定される。投影ユニット及び少なくとも1つの光源についての更なる詳細は、図2Aから図2Cを参照して以下で説明する。
リメートル移動させる、偏向角が変わる速度を変化させる)。更に光偏向器は、任意選択的に、単一の面(例えばθ座標)内で偏向の角度を変えるように動作可能であり得る。光偏向器は、任意選択的に、2つの非平行の面(例えばθ及びφ座標)内で偏向の角度を変えるように動作可能であり得る。この代わりに又はこれに加えて、光偏向器は任意選択的に、所定の設定間で(例えば所定のスキャンルートに沿って)又はその他で偏向の角度を変えるように動作可能であり得る。LIDARシステムにおける光偏向器の使用に関して、光偏向器をアウトバウンド方向(送信方向すなわちTXとも称される)で用いて、光源からの光を視野の少なくとも一部へ偏向できることに留意するべきである。しかしながら、光偏向器をインバウンド方向(受信方向すなわちRXとも称される)で用いて、視野の少なくとも一部からの光を1つ以上の光センサへ偏向させることも可能である。スキャンユニット及び少なくとも1つの光偏向器についての更なる詳細は、図3Aから図3Cを参照して以下で説明する。
の物体)を、回転中心を実質的に固定したままに維持しながら、1つ以上の回転軸を中心として回転させることを広く含む。一実施形態において、光偏向器の枢動は、固定軸(例えばシャフト)を中心として光偏向器を回転させることを含み得るが、必ずしもそうとは限らない。例えばいくつかのMEMSミラー実施では、MEMSミラーは、ミラーに接続された複数の曲げ部(bender)の作動によって動くことができ、ミラーは回転に加えてある程度の空間並進を生じ得る。それにもかかわらず、このようなミラーは実質的に固定された軸を中心として回転するように設計できるので、本開示に従って、枢動すると見なされる。他の実施形態において、あるタイプの光偏向器(例えば非機械電子光学ビームステアリング、OPA)は、偏向光の偏向角を変えるために移動コンポーネントも内部移動も必要としない。光偏向器の移動又は枢動に関する検討は、必要な変更を加えて、光偏向器の偏向挙動を変化させるように光偏向器を制御することにも適用できることに留意するべきである。例えば光偏向器を制御することで、少なくとも1つの方向から到達する光ビームの偏向角を変化させることが可能となる。
器を移動させることができる。言い換えると、スキャンサイクルが発生する時間期間中、偏向器を一連の異なる瞬時位置/向きに移動させることができ、偏向器は、スキャンサイクル中の異なる時点でそれぞれ異なる瞬時位置/向きに到達できる。
ら構築された固体単一光子検知デバイスであるSiPM(Silicon photomultiplier、シ
リコン光電子増倍管)を含む。一例において、SPAD間の典型的な距離は約10μmから約50μの間であり、各SPADは約20nsから約100nsの間の回復時間を有し得る。他の非シリコン材料による同様の光電子増倍管も使用できる。SiPMデバイスはデジタル/スイッチングモードで動作するが、全ての微小セルが並列に読み出されて、異なるSPADによって検出される単一の光子から数百及び数千の光子までのダイナミックレンジ内で信号を発生することを可能とするので、SiPMはアナログデバイスである。異なるタイプのセンサ(例えばSPAD、APD、SiPM、PINダイオード、光検出器)からの出力が組み合わされて単一の出力になり、これをLIDARシステムのプロセッサによって処理できることに留意するべきである。検知ユニット及び少なくとも1つのセンサについての更なる詳細は、図4Aから図4Cを参照して以下で説明する。
らのプロセッサは相互に電気的に接続されるかもしくは切断された異なる構成とすることができる。例えばプロセッサは、別々の回路とするか、又は単一の回路に一体化することができる。2つ以上のプロセッサを用いる場合、これらのプロセッサは、独立して又は協働して動作するように構成できる。これらのプロセッサは、電気的に、磁気的に、光学的に、音響的に、機械的に、又はそれらの相互作用を可能とする他の手段によって、結合することができる。処理ユニット及び少なくとも1つのプロセッサについての更なる詳細は、図5Aから図5Cを参照して以下で説明する。
[0121] 図1Aは、投影ユニット102、スキャンユニット104、検知ユニット106、及び処理ユニット108を含むLIDARシステム100を示す。LIDARシステム100は車両110上に搭載可能である。本開示の実施形態に従って、投影ユニット102は少なくとも1つの光源112を含み、スキャンユニット104は少なくとも1つの光偏向器114を含み、検知ユニット106は少なくとも1つのセンサ116を含み、処理ユニット108は少なくとも1つのプロセッサ118を含み得る。一実施形態において、少なくとも1つのプロセッサ118は、視野120をスキャンするため、少なくとも1つの光源112の動作と少なくとも1つの光偏向器114の移動を連携させるように構成できる。スキャンサイクル中、少なくとも1つの光偏向器114の各瞬時位置を視野120の特定の部分122に関連付けることができる。更に、LIDARシステム100は、視野120の方へ投影される光を誘導する及び/又は視野120内の物体から反射された光を受光するための少なくとも1つの任意選択的な光学ウィンドウ124を含み得る。任意選択的な光学ウィンドウ124は、投影光のコリメーション及び反射光の集束のような異なる目的に供することができる。一実施形態において、任意選択的な光学ウィンドウ124は、開口、平坦なウィンドウ、レンズ、又は他の任意のタイプの光学ウィンドウとすればよい。
キャンユニット104を含み得る。あるいはLIDARシステム100は、それぞれ視野を有する複数のスキャンユニット(例えば2、3、4、又はそれ以上のスキャンユニット104)を含み、これらの視野を合わせると車両110の周りの360度のスキャンによって水平方向視野をカバーすることができる。LIDARシステム100は任意のやり方で配置された任意の数のスキャンユニット104を含み、使用されるユニット数に応じて各ユニットが80°から120°又はそれ未満の視野を有し得ることは、当業者に認められよう。更に、各々が単一のスキャンユニット104を備えた複数のLIDARシステム100を車両110上に搭載することによって、360°の水平方向視野を得ることも可能である。それにもかかわらず、1つ以上のLIDARシステム100が完全な360°の視野を与える必要はないこと、及び、いくつかの状況ではより狭い視野が有用であり得ることに留意するべきである。例えば車両110は、車両の前方に75°の視野を有する第1のLIDARシステム100と、場合によっては後方に同様のFOVを有する(任意選択的に、より小さい検出範囲を有する)第2のLIDARシステム100と、を必要とする可能性がある。また、様々な垂直方向視野角も実施され得ることに留意するべきである。
[0126] 図2Aから図2Dは、LIDARシステム100における投影ユニット102の様々な構成及びその役割を示す。具体的には、図2Aは単一の光源を備えた投影ユニット102を示す図であり、図2Bは共通の光偏向器114に照準を合わせた複数の光源を備えた複数の投影ユニット102を示す図であり、図2Cは一次及び二次光源112を備え
た投影ユニット102を示す図であり、図2Dは投影ユニット102のいくつかの構成で使用される非対称偏向器を示す図である。投影ユニット102の図示される構成は多くの変形及び変更を有し得ることは当業者に認められよう。
テムに入射する反射光が異なる光学チャネルを通るLIDARシステム構成を広く指す。具体的には、アウトバウンド光放出は第1の光学ウィンドウ(図示せず)を通過し、インバウンド光放出は別の光学ウィンドウ(図示せず)を通過することができる。図2Aに示される例において、バイスタティック構成は、スキャンユニット104が2つの光偏向器を含む構成を含んでいる。第1の光偏向器114Aはアウトバウンド光用であり、第2の光偏向器114Bはインバウンド光用のものである(LIDARシステムのインバウンド光は、シーン内の物体から反射した放出光を含み、更に、他のソースから到達する周囲光も含み得る)。そのような構成において、インバウンド経路及びアウトバウンド経路は異なる。
例えば携帯型コンピュータ、ムービーカメラ)に固定することができる。本開示に従って、LIDARシステム100をホスト210に接続することで、LIDARシステム100の出力(例えば3Dモデル、反射率画像)をホスト210に提供できる。具体的には、ホスト210はLIDARシステム100を用いて、ホスト210の環境又は他の任意の環境の検出及びスキャンに役立てることができる。更に、ホスト210は、LIDARシステム100の出力を、他の検知システム(例えばカメラ、マイクロフォン、レーダシステム)の出力と一体化するか、同期するか、又は他の方法で共に使用することができる。一例において、LIDARシステム100はセキュリティシステムによって使用され得る。この実施形態については図7を参照して以下で詳細に記載する。
含み得る。光パルスの特徴を対応する反射の特徴と比較することによって、距離を推定し、場合によっては物体212の反射強度のような物理特性も推定することができる。このプロセスを、所定のパターン(例えばラスタ、リサジュー、又は他のパターン)で複数の隣接部分122に繰り返すことによって、視野120の全体的なスキャンを達成できる。以下で更に詳しく検討するように、いくつかの状況においてLIDARシステム100は、各スキャンサイクルにおいて視野120の部分122の一部にのみ光を誘導することができる。これらの部分は相互に隣接している場合があるが、必ずしもそうとは限らない。
又は対応するタイプの電話線にデータ通信接続を与えるモデムを含み得る。別の例として、ネットワークインタフェース214は、コンパチブルなローカルエリアネットワーク(LAN)にデータ通信接続を与えるLANカードを含み得る。別の実施形態において、ネットワークインタフェース214は、無線周波数受信器及び送信器及び/又は光学(例え
ば赤外線)受信器及び送信器に接続されたイーサネットポートを含み得る。ネットワークインタフェース214の具体的な設計及び実施は、LIDARシステム100及びホスト210が動作するように意図された1又は複数の通信ネットワークに依存する。例えば、ネットワークインタフェース214を用いて、3DモデルやLIDARシステム100の動作パラメータのようなLIDARシステム100の出力を外部システムに提供することができる。他の実施形態では、通信ユニットを用いて、例えば外部システムから命令を受信し、検査された環境に関する情報を受信し、別のセンサからの情報を受信することができる。
系222は放出光ビームの直線偏光を円偏光に変えることができる。視野から反射してシステム100に戻った光は、偏向器114を通って光学系222に到達し、送信光とは逆回りの円偏光である。次いで光学系222は、受信した反対回りの偏光を、偏光ビームスプリッタ216と同一の軸でない直線偏光に変換する。上記のように、ターゲットまでの距離を伝達するビームの光学分散のため、受信光部分は送信光部分よりも大きい。
[0144] 図3Aから図3Dは、LIDARシステム100におけるスキャンユニット104の様々な構成及びその役割を示す。具体的には、図3AはMEMSミラー(例えば方形)を備えたスキャンユニット104を示す図であり、図3BはMEMSミラー(例えば円形)を備えたスキャンユニット104を示す図であり、図3CはモノスタティックスキャンLIDARシステムで使用されるリフレクタのアレイを備えたスキャンユニット104を示す図であり、図3DはLIDARシステム100の周りの環境を機械的にスキャンする例示的なLIDARシステム100を示す図である。スキャンユニット104の図示されている構成は単なる例示であり、本開示の範囲内で多くの変形及び変更を有し得ることは、当業者に認められよう。
に力を加えてアクチュエータ302を曲げる。一実施形態において、ミラー300が特定の角度位置に偏向した場合のアクティブ状態の1つ以上のアクチュエータ302の抵抗率(Ractive)を測定し、休止状態の抵抗率(Rrest)と比較することができる。Ractiveを含むフィードバックは、予想角と比べられる実際のミラー偏向角を決定するための情報を与え、必要に応じてミラー300の偏向を補正することができる。RrestとRactiveとの差を、ループを閉じるように機能し得る角度偏向値へのミラー駆動に相関付けることができる。この実施形態は、実際のミラー位置の動的追跡のために使用され、線形モード及び共振モードの双方のMEMSミラースキームにおいて応答、振幅、偏向効率、及び周波数を最適化することができる。この実施形態については図32から図34を参照して以下で更に詳しく説明する。
レームレート性能に対する影響は無視できる程度である。非対称偏向器216についての更なる詳細は図2Dを参照して以下に与えられる。
ループは、リフレクタユニット314のような1つ以上の偏向器ユニットを含み得る。例えば、各操縦可能偏向器ユニット314は、MEMSミラー、反射面アセンブリ、及び電気機械アクチュエータのうち少なくとも1つを含むことができる。一実施形態において、各リフレクタユニット314は、1つ以上の別個の軸の各々に沿って特定の角度に傾斜するように個々のプロセッサ(図示せず)によって個別に制御することができる。あるいは、リフレクタアレイ312は、リフレクタユニット314の少なくとも一部が同時に枢動してほぼ同じ方向を指し示すようにリフレクタユニット314の移動を同期して管理するよう構成された共通コントローラ(例えばプロセッサ118)に関連付けることができる。
射の効果を低減できる。また、少なくとも1つのプロセッサ118は、1つ以上のリフレクタユニット314を枢動させて、例えば熱的効果及び利得効果による機械的障害及びドリフトを克服することができる。一例において、1つ以上のリフレクタユニット314は、意図されるもの(周波数、レート、速度等)とは異なるように移動する可能性があるが、それらの移動は偏向器を適切に電気的に制御することによって補償され得る。
に回転させ得る。例えば、LIDARシステム100を、完全な回転を行うことなく軸を中心として前後に揺れるプラットフォーム上に搭載することができる。
[0156] 図4Aから図4Eは、LIDARシステム100における検知ユニット106の様々な構成及びその役割を示す。具体的には、図4Aは、検出器アレイを備えた例示的な検知ユニット106を示す図であり、図4Bは、2次元センサを用いたモノスタティックスキャンを示す図であり、図4Cは、2次元センサ116の一例を示す図であり、図4Dは、センサ116に関連付けられたレンズアレイを示す図であり、図4Eは、レンズ構造を示す3つの図を含む。図示されている検知ユニット106の構成は単なる例示であり、本開示の原理と一致する多くの代替的な変形及び変更を有し得ることは、当業者に認められよう。
非重複領域404であり得るが、重複する場合もある。全ての領域に、その領域に関連した領域出力回路406を関連付けることができる。領域出力回路406は、対応する検出要素402のグループの領域出力信号を提供できる。例えば、出力回路406の領域は加算回路であり得るが、他の形態の各検出器の出力の単一出力への組み合わせも採用され得る(スカラー、ベクトル、又は他の任意のフォーマットにかかわらず)。任意選択的に、各領域404は単一のSiPMであるが、必ずしもそうとは限らず、1つの領域は、単一のSiPMの小部分、いくつかのSiPMのグループ、又は異なるタイプの検出器の組み合わせとしてもよい。
又は簡素な比較器による)、又は他の方法によって認識することができる。
0の数を乗算することによって表され得る。各検出器410(すなわち各画素)からの情報は、3次元空間においてキャプチャされた視野が構築される基本データ要素を表す。これは例えば、ポイントクラウド表現の基本要素を含み、空間位置及び関連付けられた反射強度値を有する。一実施形態において、複数の検出器410によって検出された視野120の単一部分からの反射は、視野120のその単一部分内に位置する様々な物体から戻ってきた可能性がある。例えば、視野120の単一部分は遠視野で50×50cmよりも大きい場合があり、相互に部分的に重なった2つ、3つ、又はそれ以上の物体を容易に含み得る。
することができる。
戻すことによって、改善することができる。
確率の増大を促進する(検出器/サブ検出器間の無効エリアで光子が「無駄になる」ことを防止する)ため、LIDARシステム100でレンズ422を用いることができる。この実施形態は、空間的な区別性を優先するCMOS RGBカメラのような従来の実施(すなわち、検出要素Aの方向に伝搬する光をレンズによって検出要素Bの方へ誘導することはできない、つまり、アレイの別の検出要素に「流す(bleed)」ことはできない)と
は対照的である。任意選択的に、センサ116は、各々が対応する検出要素402に相関付けられたレンズ422のアレイを含むが、レンズ422のうち少なくとも1つは、第1の検出要素402へ伝搬する光を第2の検出要素402の方へ偏向させる(これによってアレイ全体の検出確率を増大することができる)。
成された単一のレンズを含み得る。
[0181] 図5Aから図5Cは、本開示のいくつかの実施形態に従った処理ユニット108の様々な機能を示している。具体的には、図5Aは視野の単一の部分の単一のフレーム時間内の放出パターンを示す図であり、図5Bは視野全体の単一のフレーム時間内の放出スキームを示す図であり、図5Cは単一のスキャンサイクル中に視野の方へ投影された実際の光放出を示す図である。
あり得る。他の実施形態において、シーケンス内の異なるフレームのフレーム時間は同一でない場合がある。例えばLIDARシステム100は、毎秒10フレームのレートを実施し、(平均)100ミリ秒で第1の深度マップ、92ミリ秒で第2のフレーム、142ミリ秒で第3のフレームを生成する等とすることができる。
a.後続の放出の全体的なエネルギ
b.後続の放出のエネルギプロファイル
c.1フレーム当たりの光パルス繰り返し数
d.持続時間、レート、ピーク、平均パワー、及びパルス形状等の光変調特性
e.偏光や波長等、後続の放出の波動特性
示す。本開示の実施形態に従って、少なくとも処理ユニット108は、取得情報を用いて、動的にLIDARシステム100の動作モードを調整する及び/又はLIDARシステム100の特定のコンポーネントのパラメータ値を決定できる。取得情報は、視野120でキャプチャされた処理データから決定するか、又はホスト210から(直接的又は間接的に)受信することができる。処理ユニット108は、取得情報を用いて、視野120の異なる部分をスキャンするためのスキャンスキームを決定できる。取得情報は、現在の光条件、現在の気候条件、ホスト車両の現在の運転環境、ホスト車両の現在のロケーション、ホスト車両の現在の軌道、ホスト車両の周りの道路の現在の地形、又は光反射によって検出できる他の任意の条件もしくは物体を含み得る。いくつかの実施形態において、決定されるスキャンスキームは以下のうち少なくとも1つを含み得る。(a)スキャンサイクルの一部としてアクティブにスキャンされる視野120内の部分の指定、(b)視野120の異なる部分における光放出プロファイルを規定する投影ユニット102の投影プラン、(c)例えば偏向方向、周波数を規定し、リフレクタアレイ内のアイドル要素を指定するスキャンユニット104の偏向プラン、及び(d)検出器の感度又は応答パターンを規定する検知ユニット106の検出プラン。
示す。最も関心の低い視野120の部分に低光束を割り当てることができる。図Cは、視野120内で小型車両及びバス(シルエットを参照)が識別されている第3のスキャンスキームを示す。このスキャンスキームでは、車両及びバスの輪郭を高いパワーで追跡し、車両及びバスの中央部分に低レベルの光束を割り当てる(又は光束を割り当てない)ことができる。このような光束割り当てによって、光学予算の多くを識別された物体の輪郭に集中させ、重要度の低い中央部には少なくすることができる。
の更なる詳細及び例は、2016年12月28日に出願された本出願人の米国特許出願第15/391,916号、2016年12月29日に出願された本出願人の米国特許出願第15/393,749号、2016年12月29日に出願された本出願人の米国特許出願第15/393,285号、2016年12月29日に出願された本出願人の米国特許出願第15/393,593号に含まれる。これらは援用により全体が本願に含まれる。
[0193] 図6Aから図6Cは、車両(例えば車両110)におけるLIDARシステム100の実施を示す。上述した又は以下に記載するLIDARシステム100の態様はいずれも、車両110に組み込んで距離検知車両を提供することができる。具体的には、この例においてLIDARシステム100は、複数のスキャンユニット104と、場合によっては複数の投影ユニット102とを、単一の車両内に一体化している。一実施形態において、車両はそのようなLIDARシステムを利用して、重複ゾーン内及び重複ゾーンを超えた所でのパワー、範囲、及び精度の向上、更に、FOVの感度の高い部分(例えば車両の前方移動方向)における冗長性の向上が可能となる。図6Aに示されているように、車両110は、視野120Aのスキャンを制御するための第1のプロセッサ118Aと、視野120Bのスキャンを制御するための第2のプロセッサ118Bと、これら2つの視野のスキャンの同期を制御するための第3のプロセッサ118Cと、を含み得る。一例において、プロセッサ118Cは車両コントローラとすることができ、第1のプロセッサ118Aと第2のプロセッサ118Bとの間の共有インタフェースを有し得る。共有インタフェースは、時間的及び/又は空間的スペースにおける重複を形成するため、中間処理レベルでのデータ交換及び組み合わせ視野のスキャンの同期を可能とする。一実施形態において、共有インタフェースを用いて交換されるデータは、(a)重複した視野及び/又はその近傍の画素に関連付けられた受信信号の飛行時間、(b)レーザステアリング位置ステータス、(c)視野内の物体の検出ステータスとすることができる。
、当業者に既知の任意の手段によって、キャプチャした画像データ内で、物体、個体、ロケーション、イベント等に関連した情報を識別する任意のプロセスを含み得る。更に、プロセッサ118A及び118Bは、物体(道路の区切り、背景、歩行者、車両等)や運動ベクトルのような高レベル情報を共有することで、各プロセッサがもうすぐ関心領域になりそうな周辺領域に注意を向けることを可能とする。例えば、視野120A内の移動中の物体が間もなく視野120B内に入ることを判定できる。
[0196] 図6Dは、調査システムにおけるLIDARシステム100の実施を示している。上述のように、LIDARシステム100は静止物体650に固定することができ、静止物体650は、より広い視野を得るためLIDARシステム100の筐体を回転させるためのモータ又は他の機構を含み得る。あるいは、調査システムが複数のLIDARユニットを含むことも可能である。図6Dに示す例では、調査システムは単一の回転可能LIDARシステム100を用いて、視野120を表す3Dデータを取得すると共に、この3Dデータを処理して、人物652、車両654、環境の変化、又は他の任意の形態のセキュリティにとって重要なデータを検出することができる。
ステムでは得られる詳細が低度であり(例えば低解像度であり)、また、測定において冗長性が与えられない場合がある。
くとも1つの偏向器の移動は、少なくとも1つの偏向器と組み合わせた光源に対しても実施され得る。例えば、LIDARシステムが垂直キャビティ表面発光レーザ(VCSEL)アレイ又は他の任意のタイプの発光体アレイを含む場合、少なくとも1つの偏向器を移動させることは、アレイのアクティブレーザの組み合わせを変更することを含み得る。そのような実施において、偏向器の瞬時位置は、VCSELアレイ(又は他のタイプの発光体アレイ)のアクティブな光源の特定の組み合わせによって規定され得る。
のサイズは、少なくとも1つの偏向器よりも大きいか、ほぼ同じであるか、又はより小さい可能性がある(例えば、ビームスポットがアウトバウンド経路上の偏向器によって偏向される場合)。
ように構成できる。そのような例では、異なる検出器に対する光ビームスポットの移動距離の差に起因して、飛行時間測定値が異なる可能性がある。同様に、異なる検出器に対する距離及び/又は入射角の差に起因して、周波数位相シフト測定値及び/又は変調位相シフト測定値が異なる可能性がある。
スを放出する場合であっても、各スキャンサイクルで放出されるパルスの数は、生成されるポイントクラウドデータポイント(又は他の3Dモデルデータポイント)の数よりも少ない可能性がある。例えば、各瞬時位置でP個のパルスを放出する場合、1スキャンサイクルのパルス数はP×Mであり得る。上述の実施形態ではP<Mである。
ための少なくとも1つの光子パルス放出器アセンブリ910を含み得る。放出器910は、図1A、図2A、又は図2Bの少なくとも1つの光源112を有する投影ユニット102を含み得る。
る周囲光及び/又は雑音が低減する可能性がある。これにより、現存のシステムに比べて信号対雑音比及び/又は検出距離が改善し得る。
08は、スキャンされたFOVに関連付けたシーンの深度マップ又は他の再構築を生成できる。例えば処理ユニット108は、視野の第1の部分のスキャンに関連した第1の検出反射を用いて、第1の部分内に第1の距離の第1の物体が存在することを決定し得る。FOVのスキャン中、処理ユニット108は、視野の第2の部分内に第1の距離の物体が不在であることを決定し得る。例えば、処理ユニット108が第2の部分内に物体が不在であることを決定するには、視野の第2の部分への光の放出時から測定を開始して、第1の距離の2倍に等しい距離(物体が第1の範囲内に存在する場合、反射光は物体まで移動してから戻ってくる必要があるので)の光の移動時間に一致するか又はこれを含む時間期間にわたって受信したセンサ検出信号を処理すればよい。第1の反射を検出し、第2の部分内に物体が不在であると決定した後、処理ユニット108は、視野の第1の部分へ投影されるよりも多くの光が視野の第2の部分へ投影されるように、例えば少なくとも1つの光源112に関連した光源パラメータを変更することができる。処理ユニット108は、視野の第2の部分における第2の検出反射を用いて、第1の距離よりも大きい第2の距離に第2の物体が存在することを決定できる。
が複数の実質的に等しい大きさの部分122(例えば同一の立体角によって画定される)を含み得ることに留意するべきである。しかしながら、必ずしもそうとは限らない。FOV120のスキャン中、偏向器114は所定の時間量だけ各瞬時位置に停止し得ることに留意すべきである。その時間中、連続波、単一パルス、複数パルス等の光をFOV120の対応する部分122に投影することができる。また、特定の瞬時位置における所定の停止時間中、(例えばモノスタティック実施形態において)シーン内の物体から反射された光を、偏向器114を用いて1つ以上の検出器ユニットへ誘導することができる。あるいは、偏向器114は、FOV120のスキャン中に複数の瞬時位置を連続的に(又は半連続的に)移動し得る。このような連続的又は半連続的なスキャン中、連続波、単一パルス、複数パルス等の光をFOV120の瞬時部分122に投影することができる。また、このような連続的又は半連続的なスキャン中、(例えばモノスタティック実施形態において)シーン内の物体から反射された光を、偏向器114を用いて1つ以上の検出器へ誘導することができる。
し分析することができる)、又は、反射性物体が様々な距離から(例えば傾斜した表面から)光を反射するように位置している場合である。
与えられるパワーの追加、部分の大きさに対する放射照度の増大、光パルスの追加、1画素当たりのパワーの増大、所与の時間期間における光子の増加、既定の時間期間における総エネルギの増大、光束密度(W/m2)の増大、1スキャンサイクル当たりの光子数の増加、特定の時間期間における総エネルギの増大、生成されたポイントクラウドモデルにおけるデータポイント当たりの放出光子数の増加、生成されたポイントクラウドモデルにおけるデータポイント当たりの総エネルギの増大のうち少なくとも1つを含み得る。
域に戻って、その領域に与えられる光量を、以前のスキャン(又は部分的なスキャン)中にその領域に与えられた光量よりも又はFOVの別の領域に与えられた光量よりも増大させることで、そのような増大を実行できる。
向器114の特定の瞬時位置に対応し得る領域1120のようなFOVの特定領域に固有のものであることに留意するべきである。あるいは、光を増大するため選択される特有のプロトコルは、領域1120のようなFOVの特定領域に限定されず、FOVの複数の領域によって共有され得る。例えば、FOV120の領域1204(図12において波線で囲まれている)は、各々が偏向器114の異なる瞬時位置に対応するFOVの4つの特定領域を含み得る。いくつかの実施形態において、FOV領域1204の小領域のうち任意のものに対する光を増大させるため選択されるプロトコルは、全ての小領域について同一であり得る。この結果、FOV領域1204の各小領域に共通の光増大プロトコルを適用することで、これらの小領域において複数の物体又は単一の物体が同様の距離又は距離範囲で検出される可能性がある。例えば図12において、FOV領域1204の小領域に共通の光増大プロトコルを適用することにより、FOV領域1204の異なる小領域の各々で自動車1202の部分を(例えば自動車1110が検出された距離D1よりも大きい距離D2で)検出することができる。任意選択的に、FOVの1つの領域で光放出を増大させるか否かの決定は、FOVの別の領域の反射検出情報に(少なくとも部分的に)依存し得ることに留意するべきである。
で)与えることができる。その後の第3のパルスの反射からは、領域1120内の追加の物体が検出されない場合がある(検出する可能性はあるが)。しかしながら、第3のパルスの反射は、領域1120内に距離D1の物体が存在しないという(第2のパルスの反射に基づく)決定を確認することを可能とする。また、第3のパルスの反射は、領域1120に与えられた第2のパルスの反射に基づいて決定された距離D2の自動車1202の検出を確認することを可能とする。場合によっては、第1、第2、及び第3のパルスの反射のいずれも、それぞれの領域内の物体の検出を可能としないが、それらの反射を全て組み合わせることで検出が可能となることに留意するべきである。これは、SNR改善の結果であり得る。別の例として、いくつかのパルスにまたがった検出の一貫性をチェックすることができる決定アルゴリズムが挙げられる。
のスキャンにおいて光束を変動させ得るように少なくとも1つの光源を制御することを含み得る。また、任意の又は全ての動作ステップは、視野をスキャンするため少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御することを含み得る。ステップ1308において、方法1302は、視野の第1の部分のスキャンに関連した第1の検出反射を用いて、第1の部分内に第1の距離の第1の物体が存在することを決定し得る。ステップ1310において、方法1302は、視野の第2の部分内に第1の距離の物体は不在であると決定することを含み得る。ステップ1312において、方法1302は、第1の反射の検出及び第2の部分内に物体が不在であるという決定の後、視野の第1の部分へ投影されるよりも多くの光が視野の第2の部分へ投影されるように光源パラメータを変更することを含み得る。ステップ1314において、方法1302は、視野の第2の部分における第2の検出反射を用いて、第1の距離よりも大きい第2の距離で第2の物体が存在すると決定することを含み得る。第2の部分で第2の物体を検出するための光束の増大は、FOVの現在のスキャン中又はFOVの以降のスキャン中に実施できることに留意するべきである。任意選択として、段階1308の検出後に段階1310、1312、及び1314が実行される場合、第2の物体の検出に使用される第2のFOV部分への放出は全て、(例えば後のスキャンサイクルで)追加の光が第1の部分へ送出されるよりも前に行われる。
す。他の場合、S0は、0mから20m、30m、50m等までの範囲に対応する。
な瞬時位置とは異なるように移動し得る。同様に、第3の放出中の偏向器の正確な瞬時位置は第1及び第2の放出中の正確な瞬時位置とは異なる可能性がある。結果として、第1、第2、及び第3の放出によって照射されるLIDAR FOVの領域は、相互に対してわずかに異なる可能性がある。しかしながら、本開示の目的のため、LIDAR FOVの実質的に重複する領域へ投影されるグループ化した光放出又は複数の光放出は、LIDAR FOVの同一の領域へ誘導されると考えられる。言い換えると、いくつかの実施形態において、LIDAR FOVの特定部分は偏向器114の単一の瞬時位置に対応し得る。他の実施形態において、LIDAR FOVの特定部分は偏向器114の2つ以上の瞬時位置に対応し得る。
縁石1416、及び道路1414のような物体を検出できる。領域1412へ誘導される後続の(例えば第2の)光放出によって、更に広い範囲(例えばS2)で、歩道1418、縁石1416、及び道路1414を検出できる。領域1412へ誘導される第3の光放出によって、距離S3の歩行者1510を検出できる。FOV1410の1つ以上の他の領域でも同様の結果を得ることができる。むろん、いくつかの領域は1つの光放出のみを受光し(又は光放出を全く受光せず)、他の領域は複数の光放出を受光する場合がある。この結果、LIDAR FOVの特定のスキャンは、特定領域に投影された光放出の数に応じて、第1の光放出、第2の光放出、及び/又は第3の光放出等に基づいて検出された物体を含み得る。
。
ラメータを変更するよう構成できる。また、プロセッサ118は、FOVの様々な領域に与えられる光量を監視して、適用可能な規制に準拠するよう保証することも可能である。例えばプロセッサ118は、LIDAR FOVの特定領域に投影される光の蓄積エネルギ密度が(FOVの単一のスキャン内の、又はFOVの複数のスキャンにまたがった)最大許容可能露光限界(maximum permissible exposure limit)を超えないように、光投影器112を制御するよう構成できる。
ット108は、(例えばLIDAR FOVの部分へこれまで投影された光が物体を有効に検出するには不充分であると決定することによって)追加の光が必要であるか否かを優遇して連続的にチェックしながら、停止条件を実施することができる(最大許容可能露光限界の削除を防止する)。
8は、第1の光放出、第2の光放出、及び第3の光放出のうち1つ以上が異なるスキャンサイクルでLIDAR FOVの特定部分へ投影されるように、偏向器114を制御するよう構成できる。
分内に放出されたレーザビームの光子のほとんど(例えば50%超、70%超、90%超等)が各画素として定義されることを意味する。いくつかの実施形態において、FOVの任意の2つの画素は完全に非重複であり得る。しかしながら、任意選択として、いくつかの画素対は相互に部分的に重複し得る。
位置のうち1つから別のものへ連続的に又は非連続的に移動させることができる(任意選択的に、追加の位置及び/又は繰り返しも用いる)。
の単一の位置に関連した反射に基づいて、視野の各部分における雑音を推定することができる(各部分は視野の10%未満、5%未満、1%未満、0.1%未満であり得る)。例えばプロセッサ118は、単一の位置からの推定雑音を同一部分の他の位置へ外挿することができる。いくつかの実施形態において、外挿は、単一の位置からの推定雑音を他の位置にコピーすることを含み得る。
711)は、この変更の基礎となるFOVの各部分の対応する雑音推定(例えば、それぞれステップ1705及び1709)の後で、少なくとも1つの偏向器を別の瞬時位置に移動させることなく実行できる。
する視野の一部(例えば第2の部分)に関連した反射に対するセンサ感度を変更することができる。
OVの各部分における物体を検出することができる。プロセッサ118が感度設定を変更したFOVの各部分について、プロセッサ118は、FOVに含まれるシーンのモデルにおけるデータポイントを発生することができる(例えば、2D又はポイントクラウドモデルのような3D)。
しなければならない。従って、LIDARシステムの動作機能が向上すると、LIDARシステムは自律ナビゲーションの実現に大きく寄与する重要なものとなり得る。そのような機能向上は、スキャン解像度の増大、検出範囲の拡大、及び/又は受信器の感度の増大を含み得る。そのような性能向上は、高エネルギのレーザを用いることで実現され得る。しかしながら現在、高エネルギのレーザの使用は、コストや自動車環境の動作温度のような様々な理由から非実用的である場合があり、LIDARシステムの最大照射パワーは、LIDARシステムを目に安全なものにする必要性によって限定される(例えば、投影光放出が目に吸収された場合に生じ得る網膜又は目の他の部分に対する損傷の可能性を回避する)。従って、目の安全の規制に準拠するが、同時に、組み込まれた技術プラットフォーム(例えば自動運転車両)に対するシステムの有用性を高める性能特性を与えるLIDARシステムが必要とされている。
の特性によって、実行できる。
FOVの関連付けられた関心領域のレベルに応答して、より多くの光束又はより少ない光束を発生させることができる。関心の低い視野120の部分(例えば道路から30メートル離れた領域又はスカイライン等)は、低レベルの光束又を割り当てるか、又は光束を全く割り当てないことも可能である。しかしながら、関心の高い他の領域(例えば歩行者又は移動中の自動車を含む領域等)には高レベルの光束を割り当てることができる。このような割り当ては、関心の低いエリアにおいて光投影及び検出リソースの支出を回避すると共に、関心の高いエリアにおいて分解能及び他の性能特性を向上させることができる。また、物体ごとでなく、物体-部分ごとに光割り当てを変動させることが可能となる。例えば、場合によっては、物体のエッジ(車両のような物体の外縁又は外装等)のロケーションに関して明確に定義された情報を有することが、より重要かつ有用である。従って、車両のエッジがあるFOV領域へ多くの光束を割り当てると共に、外装内にある物体の部分を含むFOV領域へ少ない光束を割り当てることが望ましい場合がある。単なる説明のための一例として、図5Cに示されているように、少なくとも1つのプロセッサ118は、物体のエッジを含むFOV領域(例えば図5Cの座標単位(B,1)、(B,2)、(C,1)、(C,2)の角の丸い方形の物体)の分析に使用するため、投影光の2つの光パルスを放出するよう構成できる。一方、物体の内部に関連したFOV領域、又は、例えば図5Cに示されている角の丸い方形内の中央部(座標(C,5))のような、少なくとも検出された外縁で画定された外装内では、より少ない光束をこれらの領域に与えることができる。図5Cに示される別の説明のための例として、第1のスキャンサイクル後は、角の丸い方形の内部領域に1つだけの光パルスが提供される。特定の関心領域に対して光束を増大させるための任意の適切な技法を使用できることに留意するべきである。例えば、追加の光パルスを放出すること、より長い持続時間の光パルス又は連続波を放出すること、光パワーを増大させること等によって、光束を増大させることができる。
ト210から受信された情報に基づくか、又は他の任意の適切な判定基準に基づくことができる。
度に準拠するため、FOVの明確な領域内で(例えば特定の時間期間にわたって)投影される光量を制限するようにプログラムできる。ここで用いる場合、上限とは、目の安全のための上限光量(又は安全域を与えるため上限よりも低く設定される限度)に対応した、特定の時間期間にわたる閾値光量を指すことができる。少なくとも1つのプロセッサ118は、LIDARシステム100の動作中に上限を超えないように少なくとも1つの光源112を制御することができる。従って、例えば低関心領域は、目が位置する可能性の高いエリアにおいて画定され得る。これは例えば、車両の運転者エリアや、歩道及び自転車用車線に対して特定の高さのエリアである。このような領域の状況において関心が低いとは、必ずしも他の領域に比べてこれらの領域で検出の重要性が低いことを意味するのではなく、システムの安全な動作を維持することよりも検出の方が重要性が低い(又は関心が低い)ことを意味する。
された物体もしくは特徴部(feature)、方向指示(directional heading)等、又は、レーダ2203もしくはLIDAR2209もしくはカメラ2205等によって検出された1つ以上の物体や物体群等に関連付けることができる。任意選択として、少なくとも1つのプロセッサ118は、Lidarシステム100が設置されているプラットフォーム外に位置する遠隔ソースから受信した情報に基づいて、少なくとも1つの明確な関心領域の識別を決定できる。例えば、LIDARシステム100が複数の車両による環境のマッピングに使用される場合、様々な車両の動作を連携させるサーバから、どのように関心領域を決定するかに関する規定を受信することができる。
えばプロセッサ118)は、少なくとも1つの光源(例えば光源112)からの光を用いた視野(例えば視野120)のスキャンにおいて光強度を変動させ得るように少なくとも1つの光源を制御する。ステップ2002において、プロセッサ(例えばプロセッサ118)は、視野(例えば視野120)をスキャンするため、少なくとも1つの光源(例えば光源112)からの光を偏向させるように少なくとも1つの光偏向器(例えば光偏向器114)を制御する。ステップ2002における少なくとも1つの光源の偏向は、視野(例えば視野120)から少なくとも1つのセンサ(例えばセンサ116)の方向に到達する反射光の偏向にも影響を及ぼし得る。ステップ2003において、プロセッサ(例えばプロセッサ118)は、視野(例えば視野120)内の少なくとも1つの明確な関心領域の識別を取得する。更に、視野(例えば視野120)内の少なくとも1つの明確な関心領域の取得される識別は、第1のスキャンサイクルに関連した光の反射を検出するように構成された少なくとも1つのセンサ(例えば検知ユニット106)から受信することができる。更に、いくつかの実施形態において、視野(例えば視野120)内の少なくとも1つの明確な関心領域の取得される識別は、LIDARシステムが展開されている車両の現在の運転モードに基づくものであってもよい。いくつかの実施形態において、視野(例えば視野120)内の少なくとも1つの明確な関心領域の取得される識別は、少なくとも1つの明確な関心領域で検出された物体に基づくものであってもよい。いくつかの実施形態において、視野(例えば視野120)内の少なくとも1つの明確な関心領域の取得される識別は、GPS、車両ナビゲーションシステム、レーダ、LIDAR、及びカメラのうち少なくとも1つから受信することができる。
できる。更に、いくつかの実施形態において、視野(例えば視野120)内の少なくとも1つの明確な関心領域の取得される識別は、LIDARシステムが展開されている車両の現在の運転モードに基づくものであってもよい。いくつかの実施形態において、視野(例えば視野120)内の少なくとも1つの明確な関心領域の取得される識別は、少なくとも1つの明確な関心領域で検出された物体に基づくものであってもよい。いくつかの実施形態において、視野(例えば視野120)内の少なくとも1つの明確な関心領域の取得される識別は、GPS、車両ナビゲーションシステム、レーダ、LIDAR、及びカメラのうち少なくとも1つから受信することができる。
ムレートを有することができる。異なるフレームのフレーム時間は、必ずしもシーケンス全体にわたって同一ではない。例えば10FPSのLIDARは、(平均して)100ミリ秒で1つの深度マップを生成し、92ミリ秒で次のフレームを生成し、142ミリ秒で第3のフレームを生成し、様々なレートで追加フレームを生成し、これらを平均して10FPSの仕様とすることができる。
ローラ2360を含み得るが、(限定ではないが)以下で検討するもののような追加のコンポーネントも含み得る。センサインタフェース2350は、LIDARの1つ以上のセンサ(例えばセンサ2344(1)、2344(2)、及び2344(3))から、1又は複数の各センサによって検出された1又は複数の光量(例えば検出された光子の数、検出された光の蓄積エネルギ等)を示す検出情報を受信するように構成されるか又は動作可能であり得る。センサによって検出された光は、LIDARの視野(FOV)のセグメントの少なくともいくつかについて、LIDARにより放出され、シーンから反射されてLIDARの1つ以上の検出器へ戻された光子を含むことができる。
a.目の安全(並びに、空の安全、光学システムの安全、高感度材料及び物体の安全のような、他の安全上の検討事項):安全を考慮すべきであるLIDAR FOVの1つ以上の部分では放出パワーレベルを制限しながら、FOVの他の部分にはより高いパワーレベルを放出することができる(これによって信号対雑音比及び検出範囲を改善し得る)。
b.パワー管理:非常に有用であるLIDAR FOVの部分(例えば関心領域、遠くにあるターゲット、低反射ターゲット等)に大きいエネルギを誘導しながら、FOVの他の部分に送出する照射エネルギを制限することができる。目の安全又はパワー管理(又は他の任意の目的)のためのこのような光割り当ては、現在のフレーム又はいずれかの先行フレームからの検出結果に基づいて行われ得る。
a.FOVの現在のスキャン中、又はFOVの後続のスキャン中の、1つ以上のLIDAR FOVセグメントへの光投影の増大、低減、制限、又は排除
b.FOV全体、又はFOVの任意の部分に供給される全光エネルギ
c.FOVの任意の部分に供給される光のエネルギプロファイル
d.光放出の持続時間
e.偏光や波長等、FOVの任意の部分に投影される光の波動特性
う。図示の簡略化のため、各セグメントの断面のみが示されている。更に、セグメントの数及びそれらの空間構成は大きく異なる可能性がある。例えば、図におけるセグメントは3×6の2D矩形アレイに配列されているが、1D配列と同様、他の非矩形の配列も使用され得る。
a.検査されるシーンセグメントの光学的特徴
b.検査されるもの以外のシーンセグメントの光学的特徴
c.検査されるシーンセグメント又はその付近に存在するシーン要素
d.検査されるもの以外のシーンセグメント又はその付近に存在するシーン要素
e.スキャン又はステアリングデバイスの動作モード
f.スキャン又はステアリングデバイスが動作しているホストプラットフォームの状況的特性/特徴。
セグメントを照射するため、別のステアリング状態にすぐ変わるようステアリングアセンブリに命令することができる。
できる。
間内の第1の光子の放出から、検出されてフレームの深度マップに影響を及ぼす最後の光子の放出までの時間)内に実行される。任意選択として、選択的な制御及び後続放出は、フレーム時間の深度マップを生成するための検出情報の処理が開始する前に終了する。
DARがそのセグメントに光を投影しない時間)がある。この間、複数のセグメントのうち別のセグメントがLIDARによって照射される。
への更なる光放出を防止するように構成できる。他の例では、物体が中間エリアで検出された場合、少なくとも1つのプロセッサは更に、中間エリアへ可視光を放出するように少なくとも1つの光源及び少なくとも1つの光偏向器のうち少なくとも1つを規制するよう構成できる。可視光は、距離の決定において用いられる光の光源とは別個の光源によって放出され得ることに留意するべきである。
うことができる。
域への潜在的に有害な放出は、1つ以上の物体が目を持つ個体を含む可能性が低い場合であっても一時停止され得る。また、特定のFOVへの潜在的に有害な放出は、FOVが一般的に目を持つ個体の存在する領域であると判定された場合に(例えば停止したバスの近く、横断歩道の近く、歩道の近く、建物の入り口の近くのような検出された状況に基づいて)、個体(又は物体)が検出されない状況であっても、一時停止(又は他の方法で変更)され得る。目を持つ個体を含むと判定されないか又はそのような個体を含むと予想/予測されないFOVの他の領域では、より大きいパワー放出を与えることができる。この結果、生成される深度マップは、目の安全の制限を受けないエリアでの検出によっていっそう有益となり(例えば大きいパワー放出等のため)、FOV全体にわたる全ての光放出が目を持つ個体の存在を仮定したパワーレベル等で行われる場合よりも、深度マップの全体的な品質を向上させることができる。
投影され得る。任意選択として、予備検出情報は、各後続放出中に投影を行わないLIDARの少なくとも1つの光源によって放出される少なくとも1つの光子の検出に基づく。これらの異なる光源は、単一の光源コントローラによって又は異なるコントローラによって制御することができる。
ルスについて繰り返すことができる。
と判定された特定の1又は複数のFOVセグメントへの光放出は、適用可能な目の安全の規制に準拠するパワーレベル、集積エネルギレベル、持続時間等に制限され得る。この実施形態の利点には、自治体又は連邦の規制によって安全と見なされる範囲内まで放出パワーを低減させることによって、LIDARのこのエリア内の歩行者又は他の人物に対する安全性を高めることが含まれる。
することができる。一実施形態において、反射信号は、視野(例えば図4Bの第2のFOV414)の単一部分に関連付けることができる。ステップ2508において、プロセッサ118は、初期光放出の反射信号に基づいて、視野の中間エリアにおいて少なくとも1つの光偏向器からの閾値距離内に物体が位置しているか否かを判定できる。一実施形態に従って、閾値距離は眼障害距離に関連付けることができる。言い換えると、プロセッサ118は、投影される光量が中間エリア内に位置する個体に損傷を与え得るか否かを判定できる。別の実施形態に従って、閾値距離はセンサ飽和距離に関連付けることができる。言い換えると、プロセッサ118は、投影される光量によって生じる反射光がセンサ116をオーバーフローさせ得るか否かを判定できる。
実施形態に従ったいずれかのLIDARシステムによって実行できる。これらの方法(2600、2630、2660)のいずれか1つの状況におけるLIDARシステムのコンポーネントに関する検討は、非限定的に、必要な変更を加えて、他の2つの方法にも適用可能である。
のリフレクタの機械的移動を指すが、図1Aの偏向器114に関して(例えばOPA、VCSELアレイ、MEMSアレイ等に関して)更に詳しく検討されるように、異なる瞬時位置間で移動する他の任意の方法も含み得る。
つの異なる距離は、FOVの異なる部分に関連付けることができる。この代わりに又はこれと同時に、少なくとも2つの距離は、同一画素内で、例えば相互に一部を隠している異なるターゲットから反射された光子によって決定され得る。他の実施形態において、複数の検出器は、LIDARシステム内の異なるロケーションに位置する別個の異なるセンサの一部であり得る。
)同時でない場合がある。例えば上述のように、異なる距離を進んできた光反射は別々の時点で到着し得る。別の例として、複数の光源からの光が異なる時点で放出され、このため異なる時点で反射を生成する場合がある。
動させ、複数の光源からのパルスの大きさを変動させ(例えば長さ又は幅、又は他の方法で断面積を変化させる)、複数の光源からのパルスの振幅及び/又は周波数を変動させ、及び/又は複数の光源からの連続波(CW)もしくは準CW光放出のパラメータ(例えば振幅、変調、位相等)を変更することができる。いくつかの実施形態において、(異なる光源による)異なる領域内の光束管理は、他の領域とは別個に管理され得る。この代わりに又はこれと同時に、少なくとも1つのプロセッサ118又は2702又は2802は、(例えば最大電力消費を超えないために)2つ以上の領域の光学予算及び/又はパワー予算の間でバランスを取ることができる。
反射を受光することができる。例えば、図26Aの方法2600を参照して上述したように、複数の検出器は、電磁波の特性(例えば電力、周波数)を測定し、測定した特性に関連する出力(例えばデジタル信号)を生成することができる任意の感光デバイスを含み得る。いくつかの態様において、受光される光反射は、共通の入射エリア、すなわち上述のように2つ以上の光源からの反射が入射するエリアからのものであり得る。
は2802は、少なくとも1つの偏向器が特定の瞬時位置にある間、視野からの光反射が少なくとも1つの偏向器の少なくとも1つの共通エリア上で受光されるように、少なくとも1つの偏向器を制御する。いくつかの態様では、少なくとも1つの共通エリアにおいて、複数の光源の少なくともいくつかの光反射の少なくとも一部は相互に重なって入射する。説明のための例が図26Aの方法2600を参照して上記で与えられている。
うに構成され得る。この重複によって結果を整合し、較正又は検出の誤差を低減すること及び/又は第2の光源を用いる場合に1つの光源からの雑音を抑制することが可能となる。更に、そのような重複によって、故障した光源や検出器のような故障した機器の検出が可能となる。
て進行できる。図27に更に示されているように、各反射は、少なくとも1つの偏向器2704の共通エリア2714を用いて、対応するセンサ(例えばセンサ2716、2718、及び2720)へ誘導することができる。図27に示されているように、アウトバウンド経路2722a、2722b、及び2722cはどれも一致せず、帰還経路2724a、2724b、及び2724cはどれも一致しない。他の実施形態において、少なくとも2つのアウトバウンド経路及び/又は少なくとも2つの帰還経路は一致する場合がある。
レイの個々の偏向器のいくつか又は全てを同期させて、相互の角度を固定した異なる方向に光を偏向させることができる。
FOVの他のエリアよりも多くのリソース(例えば、より多くの光学予算及び/又は計算予算)を充てるように配分することができる。この結果、いくつかのエリア(例えば関心領域に対応するエリア)では高い解像度を有し、他のエリア(例えば低関心領域又は非関心領域)では低い解像度を有する深度マップを生成することが可能となり得る。以下の記載、及び本開示の多くのセクションの記載では、光学予算及び/又は計算予算の均等でない配分が望ましい様々な状況、条件、状態等について取り上げる。また、以下の記載及び全体的な記載では、深度マップに含まれる1つ以上の関心エリアで高レベルの情報を提供し得る深度マップを生成する際に役立てるため、どのように利用可能な光学予算及び/又は計算予算を動的に割り当て得るかについての例が与えられる。
、LIDARシステム100(又はそのホスト)に対して遠隔に位置する1又は複数のシステムに関連付けることができる。例えばいくつかの態様において、メモリ2902は、遠隔サーバ(図示せず)に関連付けられ、例えばクラウド2916(例えばインターネット接続)を介して又は無線送受信器2901を用いてアクセス可能である。
Rシステムに専用の部分を別のものよりも多くすることで、1つのLIDARシステムに別のものよりも多くの計算機能を与えるように、利用可能なLIDARシステム間で配分され得るだけではない。別の例では、2つ以上のLIDARシステムのプロセッサを統合/ネットワーク化することができ、この統合処理機能を、1つのLIDARシステムからのプロセッサの少なくとも一部を異なるLIDARシステムの計算タスクに専用とするように割り当てることができる。例えば、複数の利用可能LIDARシステムからの処理機能を、ホスト車両の前方の領域、すなわち高分解能の物体検出及び深度マップ形成が望ましい領域に関連した計算タスクに専用とすることができる。
R FOVの近視野部分、視野の遠視野部分、視野の狭角セクタ、及び/又は視野の広角セクタのうち少なくとも1つのスキャンレートを決定するように構成され得る。
DARシステムが展開される環境に関連した1つ以上の特徴を決定できる。他の例では、LIDARシステムのプラットフォーム条件(PCLS)は、LIDARシステム100とは別個の1つ以上のソースから受信した情報に基づいて決定され得る。例えば図29に示されているように、PCLSは、ホスト車両の電子制御ユニット2904の1つ以上、1つ以上の温度センサ2906、GPS受信器2908、車両ナビゲーションシステム2910、レーダユニット2912、1つ以上の他のLIDARシステム2914、インターネットもしくは他のネットワーク接続2916、カメラ2920、又は他の任意の適切なソースからの情報に基づいて決定できる。
み得る。光学予算(又は計算予算)配分の基礎となり得る環境条件の追加の例は、気候条件、(例えばLIDARシステム100及び/又はホスト車両に対する)空間内での検出された物体の位置又は分布、空間内の物体の検出された特徴(例えば形状、反射率、SNRに影響を与える特徴)、物体のタイプ/クラス(例えば歩行者、建物、車両、交通信号の柱)、太陽又は他の光源の相対位置、交通の状態(例えば混雑しているか又は空いている幹線道路)、他のホスト車両システムの状態(例えば運転に関連したセンサ又は他のセンサ。いくつかの例では、LIDARシステム100は故障したカメラ2920を補償することができる)、道路自体の条件(例えばでこぼこ、粗さ、上り/下り、カーブ、反射率)、マップ/GPSに基づくデータ(例えばシーン内の道路のロケーション及び向き、シーン内の建物のロケーション及び向き、(LIDARは建物の遠い側にある物体からの反射を受けると予測されない可能性があるので、建物や他の障害物に対して低関心領域を確立できる)、LIDARシステム100の周囲温度、ホスト車両環境の周囲温度、以前に収集されたFOVフレームからのデータ分析(例えばポイントクラウド、表面の法線、反射率、信頼水準等)を含み得る。一般に、光学/パワー予算は、環境に関する知識に基づいて割り当てることができる。例えば、GPSデータ、マップデータ、以前のフレームの処理されたLIDAR情報、車両の他のセンサからのデータ、又は他の任意のソースによって、FOVの一部において所与の範囲(例えば15m)内に建物の存在が示されることがある。その建物は高関心領域(例えば車両の真正面)に存在する可能性があるが、それにもかかわらずプロセッサは、FOVのこの部分に比較的低いパワーを割り当て、LIDAR FOVの他の部分に余分なエネルギを割り当てることで、建物の後ろに(例えば15mを超えた範囲に)隠れているのでFOVのその方向に割り当て得る光量にかかわらず到達できないFOVの部分に対して予算を無駄に使うのを避けることが可能となる。
環境を決定できる。例えばプロセッサは、多数の車両及び/又は車両に極めて近接した建物の存在に基づいて、現在の運転環境が都市部であると判定できる。別の例としてプロセッサは、多数の木及び/又は広々とした土地の存在に基づいて、現在の運転環境が農村部であると判定できる。プロセッサ118は、この代わりに又はこれと同時に、車両の速度に基づいて及び/又はマップ情報(これは記憶するか又は受信することができ、更新された交通情報を含み得る)に基づいて、現在の運転環境を決定できる。例えばプロセッサ118は、車両の高速が維持されていることに基づいて及び/又は車両のロケーションが既知の州間幹線道路(interstate)又は幹線道路と一致していることに基づいて、現在の運転環境が州間幹線道路又は幹線道路であると判定できる。別の例として、プロセッサ118は、低速が維持されながら車両が頻繁に停止することに基づいて及び/又は既知の交通情報に基づいて、現在の運転環境が交通渋滞であると判定できる。
6へ偏向されるように、少なくとも1つの光偏向器114と少なくとも1つの光源112を連携させる(例えばそれらの動作を同期させる)ことができる。いくつかの例では、LIDARシステム100は、少なくとも1つの光偏向器114に照準を合わせた複数の光源を含むことができ、プロセッサ118は、少なくとも1つの光偏向器114が特定の瞬時位置に配置された場合に複数の光源からの光がLIDAR FOVの複数の別個の領域へ投影されるように、少なくとも1つの光偏向器114を制御するように構成できる。一般にプロセッサ118は、動的に配分した光学予算に従って少なくとも1つの光源112及び少なくとも1つの光偏向器114を連携させることができる。配分した光学予算を適用することで、高関心領域には単位時間当たり多くの光を適用し、低関心領域には単位時間当たり少ない光を適用できる。更に、LIDAR FOVの1つ以上の部分における物体の検出に基づいて、プロセッサ118は、特定の部分(例えば関心領域であるか低関心領域であるかにかかわらず)へ投影される光の蓄積エネルギ密度が最大許容可能露光量を超えることを防止できる。
システム内の別のLiDARを指定する。この特定の例では、LiDAR#7の拡張機能を考慮に入れると、これがカバレージ損失を補償するための最良の選択肢であることがわかった。LiDAR#7は、LIDAR#2の視野をカバーするため、バックアップモードで動作すると共に視野を拡大するように指定される。LiDAR#7のスキャン範囲の拡大は、その機能のいくつか、全範囲の縮小、分解能、又はフレームレートを犠牲にして実行され得る。低下した性能パラメータセットで更新されたセンサ状態を、車両メインコントローラのレベルでシステム全体に通知し、車両挙動を補償することができる。車両を80Km/hに制限する細いスペアタイヤと同様、車両は最高速度に制限され得る。故障したセンサの補償を行うのは結局、人の介入なしで修理場所まで安全に到達できるために最低限の自律レベルを維持する必要があるためである。
a.検査光子のパルスを生成するための、投影ユニット102(又はその一部)のような光子放出器アセンブリ(PTX)。パルスは少なくとも1つのパルスパラメータによって特徴付けられる。
b.物体から反射して戻った反射光子を受光するための光子受光及び検出アセンブリ(PRX)。PRXは、反射光子を検出するため、及び検出したシーン信号を(例えばプロセッサ118によって)生成するための検出器(例えば検出器116)を含む。光子受光及び検出アセンブリは、検知ユニット106(又はその一部)及び処理ユニット108(又はその一部)を含み得る。
c.PTX及びPRXの双方と機能的に関連付けられて、検査光子のパルスを検査されるシーンセグメントの方向へ誘導すると共に反射光子をPRXへ戻すための、スキャンユニット104(又はその一部)のような光子ステアリングアセンブリ(PSY)。
d.処理ユニット108(又はその一部、少なくとも1つのプロセッサ118等)によって実装されて、(a)PTX、PRX、及びPSYを制御し、(b)検出器から検出シーン信号を受信し、(c)少なくとも部分的に検出シーン信号に基づいて少なくとも1つのパルスパラメータを更新するための、閉ループコントローラ(本明細書では以下で「コントローラ」とも称する)。
ができる。
の状況査定論理又は回路を含み得る。SALは、検出器116からの検出シーン信号、及び、スキャンユニット104の内部又は外部の追加ブロック/要素からの情報を受信することができる。
は計算予算に基づいてスキャンフレームがアクティブにスキャンされるように、PTX制御信号、ステアリングパラメータ制御、PRX制御、及び/又は検出器制御パラメータに少なくとも部分的に影響を与える/これらを決定することができる。
ー3236)の瞬時角度位置を(例えばθ、φ座標を用いて)決定するように構成されたプロセッサ118(すなわちCPU3234)を含み得る。「瞬時角度位置」という用語は、所与の角度方向(例えばθ、φによって示される)の方へ(及び/又はその角度方向からの)光を偏向させる少なくとも1つの偏向器の瞬時位置を指す。そのような決定は、車両3210又はLIDARシステム100に関連した振動センサ(例えば光偏向器114に関連付けられたセンサ)の1つ以上による光学測定、容量測定、圧電抵抗測定、誘電率測定、及び圧電分極測定のうち少なくとも1つに基づくことができる。
又は他の方法で機械的もしくは化学的に接続できる導電性要素を含み得る。この場合、絶縁要素は、導電性要素が接着されていないアクチュエータ3240のエリアに内在することができる。アクチュエータ3240は圧電層を含むことができ、この場合、アクチュエータ3240を流れる電流が圧電セクションにおいて反応を引き起こし、これによってアクチュエータ3240が制御可能に曲がるようになっている。
3256からミラードライバ3254及び/又はCPU3234へ角度偏向フィードバックを与える閉ループ方法を用いて最適に実現される。反射光学系がLIDARシステムに関連データを与える(例えば、深度マップの生成に使用されるLIDAR FOVの特定の小領域からの反射光)だけでなく、CPU3234は、振動を検出する基礎として測定光学データを使用できる。例えば、ミラー3236によってセンサ116上に反射された
光のスポットがセンサに対して移動していると判定された場合、特に、この移動が振動に関連付けられる周波数や振動等と一致しているならば、集光された光ビームの移動の方向及び程度によってプロセッサ118は振動の存在を検出することができ、更に、振動の1つ以上の特徴も検出できる。
ことができる。シリコン(又は他の半導体)ベースのアクチュエータ3240の導電率は、アクチュエータ3240に加わる機械的応力に応じて変動し得る。アクチュエータ3240が静止状態である場合、2つの接点3240A及び3240Bで示される導電率はRrestである。(例えば電圧を印加することによって)活性化された場合、層3241の圧電材料はアクチュエータ3240に力を加え、これを曲げる。更に、LIDARシステム100に加わる振動によって、ミラー3236の1又は複数の意図しない移動が生じ、これもアクチュエータ3240を曲げる可能性がある。機械的な力(圧電層の電気的活性化によって発生したものであれ、振動の結果として誘発されたものであれ)に応じたアクチュエータ3240の曲げは、2つの接点3240A及び3240Bで示される導電率Ractiveを変化させ得る。RrestとRactiveとの差は、ミラードライブ(図32Cのミラードライバ3254等)によって、ループを閉じるように作用する角度偏向値に相関付けることができる。この方法は、実際のミラー位置を動的に追跡するため使用できる。また、この情報をフィードバックループ内で用いることで、プロセッサ118は、振動によって生じる動きに対抗するような電気信号(供給電流/電圧)をアクチュエータ3240に印加できる。
て決定された、計算された加速度、トルク、ひずみ等を補償するため、ステアリングデバイス3232を備えた偏向器114を移動させることを含み得る。
FOVは、例えば車両の傾きの変化に関わらず、シーンに対して実質的に固定されたままに(少なくとも特定の時間期間)維持することができる。他の場合、LIDAR FOVはシーンに対して変動し得るが、この変動は、車両の傾きの特定の変化に通常関連付けられる量よりも小さい。一例として、車両が丘の頂上へ近付いていく場合(例えば負の湾曲)、LIDAR FOVがシーンに対して下方へ移動するようにLIDARシステム(又はそのコンポーネントの1つ以上)を移動させることができる。そのような移動によって、LIDAR FOVは、空との重複が小さくなると共に道路との重複が大きくなる。同様に、車両が道路の上向きの湾曲(例えば正の湾曲)に近付く場合、LIDAR FOVがシーンに対して上方へ移動するようにLIDARシステム(又はそのコンポーネントの1つ以上)を移動させることができる。そのような移動によって、LIDAR FOVは、上向きの湾曲を通り過ぎた道路の更に遠くの部分を含むシーンの領域と重複することができる。
に又はこれに加えて、偏向器114(例えばミラー3236)は、車両の傾きの変化を相殺するように操縦できる。
最大6自由度(6DOF)までの3自由度(3DOF)で、アクティブな視野を特定の周囲領域の方へシフトさせるものである。この機能によってLIDARシステムは、FOVを、例えば異なるレベルのサービス品質(QoS)が割り当てられた複数のセグメントに適応的に分割することによって、大きい視野全体で検知性能向上を与えることができる。
述のように、FOVは複数の小領域に分割できる。プロセッサ118は、FOV内の任意の領域/小領域をセクタII(又は他の任意のセクタ)として指定できる。従って、プロセッサ118による光割り当ては、特定のセクタ内に含まれる1つ以上の小領域に特定の光束レベルを供給することを含み得る。更に、各セクタ/サブセクタは少なくとも1つの画素を含む。本開示のシステム及び方法は、画素ごとにデータを収集することができる。FOVをスキャンするため、プロセッサ118は、視野をスキャンするために少なくとも1つの光偏向器(例えば、図1Aの光偏向器114、図2Aの偏向器114及び/又は偏向器114B、及び/又は図2Bの一方向偏向器214)を制御することができる。例えばプロセッサ118は、少なくとも1つの光偏向器の機械的移動を行って視野をスキャンすることができる。この代わりに又はこれと同時に、プロセッサ118は、視野をスキャンするため少なくとも1つの偏向器の圧電的又は熱電気的な変化を誘発し得る。
ャンは、セクタIIIに割り当てられた光量が低減したことを示している。この結果、セクタIIIの検出範囲も変化する(例えば低減する)可能性がある。このような光割り当ての変化は、フィードバック(例えば、車両の動きに関するセンサ出力、1つ以上の対象物体のLIDAR検出、他のセンサ/検出器等)に基づいて、所定のセクタスキャンスキームに応じてプロセッサにより実施することができる。従って、図35Bに示されているように、プロセッサ118は、FOV内の2つの異なるセクタについて同一の検出範囲を決定し得る。
、ターゲット車両の観察される相対移動特性(例えばその相対速度、加速度、ホスト車両からの距離等)に依存し得る。これに応じて、図35Dは、図35Cのセクタに対応するセクタに分割されたFOVを示している。
より多くの光束を割り当てて、そのエリアの分解能を増大し、物体の特徴を決定する機能を向上させることが望ましい場合がある。従って上述のように、プロセッサ118は、検知された車両の向き、対象の物体の相対移動、又は他の任意の判定基準に基づいて、セクタIIに、スキャンごとに対象の物体を追跡させることができる。このため、LIDARシステムが搭載された車両が坂道を下る際は、セクタIIをスキャンごとに上方に移動させて、前方の道路上の対象物体との重複を維持することができる。同様に、ホスト車両が坂道を上る場合は、FOV内のセクタIIのロケーションをスキャンごとに下方に移動させることができる。この結果、起伏のある道路にかかわらず、FOV内のセクタII(例えば高光束割り当てゾーン)のロケーションは、セクタIIが水平線よりも実質的に下に
あるFOVの領域と重複するように上下に移動することができる。
物体の検出をターゲットとする。他の例では、キャプチャされたフレームは遠視野部分内の物体の検出をターゲットとする。以下で更に詳しく検討するように、近視野を対象とするスキャン(及びそれに関連するキャプチャされたフレーム)は、FOVの遠視野を対象とするスキャン(及びそれに関連するキャプチャされたフレーム)に比べ、光束が少なく、スキャンレートが高速である可能性がある。
から100メートル未満としてもよい。いくつかの実施形態において、視野の遠視野部分内の物体はLIDARシステムから50メートルよりも遠くとしてもよい。例えば1つの例示的な実施形態においてLIDARシステム3800は、第1のフレームで、近視野内の例えば30メートル離れた縁石に駐車された第1の自動車を検出できる。また、LIDARシステム3800は第2のフレームで、縁石に駐車された第1の車と、遠視野内の例えば200メートル離れた前方の車線内の第2の自動車を検出できる。言い換えると、いくつかの実施形態において遠視野フレームは、近視野に関して受信した情報率(rate of information)が中断されないように、遠視野情報に加えて近視野情報も与えることがで
きる。
レーム中のポイント間の平均間隔の約75%未満であり得る。フレーム間の同様の差別化スキームを、必要な変更を加えて使用可能であることに留意するべきであり、この場合、高解像度フレームが第1のフレームレートで取得され、低解像度フレームが第2のより高いフレームレートで取得される。
の特性を調整できる。例えばLIDARシステムは、瞬時検出距離、空間分解能、時間分解能、信号対雑音比、FOV全体の光束分布、フレームレート、視野の大きさ、視野のアスペクト比、1つ以上のパルス伝送スキーム等を調整することができる。
される)。例えば、少なくとも1つの光偏向器は、スキャンサイクル中に複数の位置のうち1つから別のものへ連続的に又は非連続的に移動させることができる(任意選択的に、追加の位置及び/又は繰り返しも用いる)。
環境を決定できる。同様にプロセッサ118は、これに加えて又はこの代わりに、遠隔システムから入力を受信することができる。例えばプロセッサ118は、気候サーバ又は他の更新された気候情報のソースから気候の指示を受信できる。同様にプロセッサ118は、交通サーバ又は他の更新された交通情報のソースから交通の指示を受信できる。
数の車両を監視することが可能となる。
セッサ118は、車両が農村環境に位置する場合、前方部分の視野を拡大すると共に側方部分の視野を縮小することができる。視野の拡大によって、対向車両又は先行車両をより早く視認することが可能となり、視野の縮小によって、道路の側方の野原又は木の追跡に不必要にエネルギが消費されるのを防止できる。
出力に関連した感度モードを調整できる。上記で詳しく検討したように、センサ感度の変更は、センサパラメータ(例えば動作電圧)、検出経路パラメータ(例えば信号増幅レベル、ADCパラメータ)、又はプロセッサパラメータ(例えばプロセッサに適用される閾値又は決定ルール)を変更することによって達成できる。
図41の方法4100又はその変形を実行できる。図42Dの例において、車両4213はトンネルの中で運転している。従って車両4213のLIDARシステムは、領域4217a及び42217cでは領域4217bと異なる特性を用いて視野4215をスキャンすることができる。領域4217a及び4217cでは、低いフレームレート(例えば毎秒10フレーム(FPS))、短い距離(例えば75メートル)、及び低い空間分解能及び/又は時間分解能を用いて、トンネルの壁を追跡する必要がないことに対処できる。他方で、領域4217bにおいては、中程度のフレームレート(例えば毎秒20フレーム(FPS))、中程度の距離(例えば100メートル)、及び中程度の空間分解能及び/又は時間分解能を用いて、車両4213に先行する別の車両で起こり得る急停止を追跡することができる。あるいは、図42Dに示されているように、領域4217bをスキャンしている間に領域4217a及び4217cをスキャンしないことも可能である(「X」で示されているように)。
特定の領域の検出範囲(例えば、横断する車線と重複するFOVの部分)を、LIDAR
FOVの1つ以上の他の領域に対して拡大することができる。例えば一例において、車両(自律走行車又は他のもの)が少なくとも1つの車線を横断する左折を試みている場合、横断する車線と重複するLIDAR FOVの1つ以上の領域に関連付けられた検出範囲(例えば、横断する対向車線に面する車両の右側前方の4分の1部分に対応するFOVの概ね右半分)が、FOVの他の領域の検出範囲(例えば、横断する対向車線に面しない車両の左側前方の4分の1部分に対応するFOVの概ね左半分)よりも大きいことが予想され得る。LIDAR FOVは、連続的であるか又はそうでない複数のスキャン領域の集合を含み得ることに留意するべきである。例えばいくつかの実施形態において、LIDAR FOVは、重複した連続的な立体角値を含む複数の部分から構成され得る。他の実施形態において、LIDAR FOVは、複数の重複していないか又は部分的に重複した立体角範囲の集合であり、それらの各々は異なる方向に延出した軸で二等分される(図45に示されているように)。このようにしてLIDARシステム100は、対向車両を検出すること、及び横断する車線に関連した高解像度の深度マップを生成することを良好に実行できる。
も1つの偏向器を移動させることを含み得る(例えば、偏向器は、LIDAR FOVのスキャン中に1つの瞬時位置から又は1つの瞬時位置を介して別の瞬時位置へ移動するように制御される)。例えば、少なくとも1つの光偏向器は、スキャンサイクル中に複数の位置のうち1つから別のものへ連続的に又は非連続的に移動させることができる(任意選択的に、追加の位置及び/又は繰り返しも用いる)。
両を検出することができる。例えば自律走行車が左折を準備、開始、及び/又は実行している場合、関心領域は、車両の右側の少なくとも一部を包含するLIDAR FOVの右半分とすることができる。場合によっては、車両のすぐ前方のエリアと重複するLIDAR FOVの領域は関心領域外である。これに加えて又はこの代わりに、LIDARシステムFOVは異なるセグメントにまたがって提供することができ、各セグメントは例えば車両を取り囲むそれぞれ異なるゾーンを対象とする。このような場合、LIDAR FOVの関心領域は、車両の助手席側、車両の運転席側、車両の後部、車両に対して任意の4分の1の方向(例えば車両の縦軸及び横軸の間)等に存在し得る。プロセッサ118は、関心領域内の検出範囲を拡大すると共にLIDAR FOVの関心の低い領域に対するリソースを節約するように、LIDARシステム100のコンポーネントの中でもとりわけ、光源112(光出力に影響を与えるその制御可能パラメータの任意のものを含む)及び偏向器114を制御することができる。
定には他の潜在的な危険性が含まれ得る。例えばホスト車両が静止している場合、ホストに警告が出されるのは、例えば接近してくる車両が現在位置のホスト車両に危害を及ぼす場合、又はホスト車両が移動すると予想される場合である。いくつかの実施形態においてプロセッサ118は、自律モードだけでなく、他のモード(例えば高度な運転手支援システム動作、完全運転手制御等)においても、(聴覚、視覚、又はその他の)警告を出すことができる。
る。一例として、光投影器112からの光がLIDARシステム100の環境内の物体に入射した場合、それらの物体の反射率特性に基づいて、プロセッサ118はパターンを検出できる。例えばプロセッサ118は、検出された物体に関連したタイプカテゴリ(例えば歩行者、車両、中央分離帯の障壁等)を決定するため、反射率パターン又はフィンガプリントを識別できる。また、プロセッサ118は、検出された物体に関連したサブタイプ(例えば検出された車両がバスであるか、小型車であるか、又はライトバンであるか等)を決定することも可能である。全ての車両は、その形状及び構成(例えばナンバープレートの位置及び周りの輪郭、車両上のヘッドライトの大きさ、形状、間隔、及び配置等)に基づく異なる反射率フィンガプリントを示し得る。
の視野及び車両の左側に関連した第2の視野のスキャンを可能とするように、少なくとも2つの光源及び少なくとも2つの偏向器を制御することができる。更に別の実施形態において、プロセッサ118は、車両が合流しようとしている道路を含む視野の第1の部分へ投影される光量が道路に隣接した建物を含む視野の第2の部分に与えられる光量よりも大きくなるように、少なくとも1つの光源112を制御することができる。
に供給される光束を増大させることができる。例えば図46Aに示されている車線横断状況において、移動中の自動車4610は、プロセッサ118によって対象の物体であると判定され得る。このためプロセッサ118は、自動車4610と重複するFOV部分4525の小領域に、より多くの光束を与えることができる。プロセッサ118は、他の状況においてFOV部分の1つ以上の小領域に与える光レベルを増大させることも可能である。例えば、FOVの特定の小領域内で物体が検出されないか又は特定の距離よりも遠くで物体が検出されない場合、プロセッサ118は、より増大した光束をそれらの小領域に割り当てて、より遠い距離範囲における物体の検出を試みることができる。
ら接近してくる車両が車両4510の後部に衝突することなくその車両の前方に行く速度まで加速する充分な時間があるか否かを判定しなければならない。従って、右側から接近してくる車両4690のような車両を検出する大きい検出範囲が必要であるだけでなく、左側から接近してくる車両の検出に必要な検出範囲よりも長い検出範囲が必要となり得る。従って、図示されている例では、車両4510の前方及び右側の検出機能を強化するため、FOV4522及び4525(車両4510の前方及び右側の領域のカバレージを有するFOV)の双方に増大した光束レベルが割り当てられている。この場合も、そのような光増大は各FOVの全ての領域で均等に行う必要はない。それどころか、図示のように、FOV4525の小領域4675はFOV4525の別の小領域4676よりも多くの光が割り当てられている。実際、小領域4675に供給される光量は小領域4676に供給される光量よりも著しく多い場合がある。この結果、小領域4675の検出範囲は、小領域4676に関連した検出範囲の2倍、3倍、5倍、10倍(又はそれ以上)の大きさである可能性がある。
域よりも多くの光が中央領域へ誘導されるように光源112の制御と光偏向器114の制御を連携させることができる。
えばプロセッサ118は、第1のスキャンサイクル中に第1の光束を有する光が中央領域4720へ誘導されるように光源112の制御と偏向器114の制御を連携させるよう構成できる。車両が幹線道路を走行していると判定した後、プロセッサ118は、第2のスキャンサイクル中に第2の光束を有する光が中央領域4720へ誘導されるように光配分を変更することができる。第2の光束は第1の光束よりも多い。LIDAR FOVの周辺領域よりもLIDAR FOVの中央領域の光束を増大させた結果、中央領域の検出範囲は周辺領域の検出範囲よりも大きくなり得る。いくつかの例では、プロセッサ118は、中央領域の検出距離が右側周辺領域及び左側周辺領域の検出距離の少なくとも2倍の大きさとなるように光源112を制御することができる。
なる可能性がある。従って都市環境では、LIDAR FOVの中央領域よりも周辺領域において検出範囲及び/又は分解能機能を向上させることが有利であり得る。
おいて、プロセッサ118は、車両が幹線道路の走行に対応するモードであるという入力を取得できる。この入力に応答して、ステップ4940においてプロセッサ118は、中央領域、右側周辺領域、及び左側周辺領域を包含する視野のスキャン中に、右側周辺領域及び左側周辺領域よりも多くの光が中央領域へ誘導されるように、少なくとも1つの光源112の制御と少なくとも1つの光偏向器の制御を連携させることができる。
視野の特定部分内の1つ以上の物体によって反射された、少なくとも1つの光源112からの光を含み得る。ある状況(例えば物体が遠くにあるか又は低い反射率を有する)では、LIDAR照射から生じる反射光よりも、LIDAR FOVの特定部分から収集された周囲光の方が、センサ116へ与えられる光に占める割合が大きい可能性がある。別の状況(例えば物体が近くにあるか又は高い反射率を有する)では、反射光よりも、LIDAR FOVの特定部分から収集された周囲光の方が、センサ116へ与えられる光に占める割合が小さい可能性がある。例えば、LIDAR FOVの第1の部分(図51に白で示すFOVの特定領域によって表される)における周囲光は、FOV120の第2の部分(図51に陰影で示すFOVの特定領域によって表される)から収集される反射光よりも、FOV120から収集された光に占める割合が大きい可能性がある。LIDAR FOVの第1の部分及び第2の部分は各々、図51に示すものよりも多数又は少数のLIDAR FOVの特定領域を含み得ることに留意するべきである。例えばいくつかの実施形態において、第1及び/又は第2の部分はそれぞれ、FOV120の単一の特定領域に対応するか、又は(図示されているように)複数の部分を含み得る。
、周囲光を発生させた可能性のある光源のタイプを識別できる。また、プロセッサ118は、光源のタイプを識別するため、周囲光の他の特徴(例えば偏光、変動レベル(fluctuations level))及び/又は複数の画素からの情報(例えば物理的大きさの推定、光源間の距離)も使用することができる。光源のタイプの識別は、後に物体の分類のために使用することができ(例えばヘッドライトは、ヘッドライト間の距離に基づいて物体が自動車又はセミトレーラトラックであることを示し得る)、その逆もまた同様である(物体の特徴を用いて光源を識別することができる。例えば、建物の高い位置の光源は明かりのついた窓として識別できる)ことに留意すべきである。
誘導すると共に、視野からの反射を受光することができる。例えば図1A、図2B、及び図2Cが示す例では、偏向器は光ビームを視野の方へ誘導すると共に視野からの反射を受光する。いくつかの態様において、反射は、視野の方へ誘導された光ビームによって生じ得る。他の実施形態において、少なくとも1つの光源からの光ビームは、視野からの反射を受光する少なくとも1つの他の光偏向器とは別個の少なくとも1つの光偏向器によって、視野の方へ誘導することができる。例えば図2Aが示す例では、1つの偏向器が光ビームを視野の方へ誘導し、別個の偏向器が視野からの反射を受光する。
ミングを変動させ得る。一部における光パルス数を増加させるため、少なくとも1つのプロセッサはパルスのタイミングを短くすることができる。別の例としてプロセッサ118は、この代わりに又はこれと同時に、少なくとも1つの光源からのパルスのパワーレベルを変動させ得る。更に別の例においてプロセッサ118は、この代わりに又はこれと同時に、少なくとも1つの光源からのパルスの振幅及び/又は周波数を変動させ得る。例えば図51において、システムは、1画素当たり1つの光パルスをデフォルトで投影すると決定できる。FOV120の第1の部分は強い周囲光を含み、受信信号は所定の閾値よりも大きい可能性があるので、上述のように、FOVの第1の部分には1画素当たり1つでなく1画素当たり3つの光パルスを投影することができる。いくつかの実施形態において、図51のFOVの第1の部分の領域に投影される光の強度は、図51のFOVの第2の部分に与えられる光の強度よりも大きくすることができる。
とも1つのプロセッサ118は、視野の別の部分に移動する前に(例えば少なくとも1つの偏向器がまだ同じ瞬時位置である間に)、少なくとも1つの光源に、より多くの光束を視野の一部へ投影させることができる。
温度が閾値温度よりも低い値に戻ったら、LIDARシステム100の設定を回復することができる。
コンポーネントに過熱(又は凍結)のリスクはなく、LIDARシステム100は、コンポーネントの温度を変える対策なしに後続のスキャンサイクルを実行できる。閾値温度と一致するか又は閾値温度を超えている場合、プロセッサ118は、FOVに放出する全体的な光を低減させるようにLIDARシステム100を調整することでコンポーネントの温度を低下させることによって、コンポーネントの温度を抑制(又は低下)するように機能できる。いくつかの実施形態においてプロセッサ118は、コンポーネントの温度が閾値温度に到達しないように機能し得る。いくつかの実施形態においてプロセッサ118は、以降のスキャンサイクル中のFOVの部分間の照射比を調整し得る。どのコンポーネントに過熱のリスクがあるかに基づいて、プロセッサ118は様々な熱低減技法を使用できる。いくつかの実施形態においてプロセッサ118は、以降のスキャンサイクルにおけるスキャンレートを低減させ得る。いくつかの実施形態においてプロセッサ118は、以降のスキャンサイクルにおける分解能を低減させ得る。他の実施形態においてプロセッサ118は、過熱しているか又は加熱のリスクがあるコンポーネントを冷却するように冷却コンポーネントを制御できる。他の実施形態においてプロセッサ118は、凍結しているか又は凍結のリスクがあるコンポーネントを加熱するように加熱コンポーネントを制御できる。
み得る。中央処理装置(CPU)及び作動ドライバは、コントローラ8204のいくつかの例である。
[0749] 図57は、円形のMEMSミラー9002と4つのアクチュエータ9011、9012、9013、及び9014との間に接続された4つのL字型の相互接続9021、9022、9023、及び9024を示している。それぞれのL字型相互接続(例えば9021)は第1のセグメント90212及び第2のセグメント90211を含む。第1及び第2のセグメントは相互に機械的に接続されている。図57において、第1及び第2のセグメントは相互に垂直である。図57において、各L字型相互接続の第2のセグメントはアクチュエータの外周に接続され、各L字型相互接続の第1のセグメントはMEMSミラーの外周に接続されている。第2のセグメントは第1のアクチュエータの外周に対して垂直である。第1のセグメントは、MEMSミラーの外周に対して垂直である及び/又は、MEMSミラーがアイドル位置にある場合はMEMSミラーの中央に向けられる可能性がある。MEMSミラーがアイドル位置にあるのは、MEMSミラーに結合されたアクチュエータの全てに曲げ電界が与えられない場合である。
対して過度の応力を加えない。更に、L字型相互接続は比較的コンパクトであり、小さい
体積を有し得るので、アチュエータに加わる機械的負荷が軽減し、MEMSミラーのスキャン振幅の増大に役立てることができる。相互接続の異なるセグメントは、相互に対して(及び/又はMEMSミラーに対して及び/又はアクチュエータに対して)90度異なる角度に配向され得ることに留意するべきである。これらの角度は90度に実質的に等しくすることができる(実質的にとは、5%、10%、15%、又は20%等を超えない逸脱を意味し得る)。更に、L字型相互接続を、単一のセグメント又は2対以上のセグメントを含む相互接続によって置換してもよいことに留意するべきである。2つ以上のセグメントを有する相互接続は、相互に等しいセグメント及び/又は相互に異なるセグメントを含み得る。これらのセグメントは、形状、大きさ、断面、又は他の任意のパラメータが異なる可能性がある。また、相互接続は線形セグメント及び/又は非線形セグメントを含み得る。相互接続は、任意の方法でMEMSミラー及び/又はアクチュエータに接続することができる。
[0753] スキャンユニット(例えばスキャンユニット104)は、MEMSミラー、アクチュエータ、相互接続、及びLIDARシステムのその他の構造要素を含み得る。スキャンユニット104には、異なる方向に沿って伝搬する機械的振動が加わる可能性がある。例えば車両に設置されたLIDARシステムには、車両がある地点から別の地点へ移動する場合に(異なる方向からの)異なる振動が加わることがある。全てのアクチュエータが同一の構造と寸法を有する場合、いくつかの周波数に対するユニットの応答は極めて大きくなり得る(高いQファクタ)。アクチュエータ間にある程度の非対称性を導入することによって、スキャンユニット104はより多くの周波数に反応し得るが、反応を軽度にすることができる(低いQファクタ)。
[0758] 本開示に従って、MEMSミラーに(相互接続を介して)接続されたアクチュエータの曲げを監視することにより、MEMSミラーの向きを推定できる。例えば、LIDARシステム100は1つ以上の可変コンデンサを含み得る。1つのアクチュエータ当たり1つの可変コンデンサ、1つのアクチュエータ当たり2つ以上の可変コンデンサ、及び/又はアクチュエータよりも少ない可変コンデンサが存在し得る。各可変コンデンサについて、可変コンデンサの容量はフレームとアクチュエータとの間の空間的な関係を表す。可変コンデンサの容量は、フレームに接続された可変コンデンサの1つ以上のプレートと
、アクチュエータに、特に、フレームに面するアクチュエータの外周に接続された可変コンデンサの1つ以上の他のプレートとの間の重複エリアの関数であり得る。
[0762] 本開示に従って、提供される電極は、アクチュエータを曲げるため及び/又はアクチュエータの曲げを検知するための電気信号を伝達できる。ダミー要素を含むアクチュエータを用いることによって、アクチュエータの曲げを監視できる。ダミー要素はダミー電極及びダミー圧電要素とすることができる。ダミー圧電要素は、曲げ電界が印加される圧電要素に機械的に結合されている。圧電要素は曲げられる。この曲げによってダミー圧電要素が曲がる。ダミー圧電要素の曲げを、ダミー圧電要素に結合された電極によって測定することができる。
に接続された電極9081、9082、9083、及び9084も示している。電極9081、9082、9083、及び9084は、曲げ制御信号を伝達するために用いられる。また、図64は、アクチュエータ9011、9012、9013、及び9014のダミー圧電要素9011’、9012’、9013’、及び9014’に接続された電極9091、9092、9093、及び9094も示している。電極9081、9082、9083、9084、9091、9092、9093、及び9094は通常、圧電要素の大部分をカバーしている。各圧電要素は電極対間に位置決めされること、及び図64は外部電極のみを示していることに留意するべきである。アクチュエータの基板(又は本体)と圧電要素との間に配置された内部電極は図示されていない。
トセンサとの組み合わせとすればよい。LIDARセンサは、誘電率の変化に関する情報を(フィードバックセンサ9142から)受信してMEMSミラーの向きを決定するように構成できるコントローラを含み得る。また、図67は、制御信号SS1 9151及びSS2 9152のステアリング成分(9161及び9164)を出力する初期信号ソース9141を含むものとしてステアリング信号ソース9140を示している。これらのステアリング成分は、(発振器9162及び9165によって生成された)交番バイアス成分と、(ミキサ9163及び9165によって)混合されて、制御信号SS1 9151及びSS2 9152を生成する。アクチュエータは、アクチュエータの抵抗を検知することによって監視できる。
は、同心円状の輪及び放射状の部分を含む。補強要素の任意の構成及び形状を設けることができる。
素、金属)のような様々な方法によって達成できる。任意選択として、MEMSミラーは、ミラーの裏面の少なくとも一部に反射率パターンを有するパターン化された裏側を含むことができ、(例えば上述の裏側専用光源からの)裏側照射のパターン化反射を裏側セン
サ(例えば9231、9232、9233)上に与える。任意選択として、パターン化された裏側は、MEMSミラーの裏面に位置付けられた任意選択的な補強要素9003の部分を含み得るが、必ずしもそうとは限らない。例えば補強要素9003用いて、センサ9231等の上にある角度の影を生成する(又は光を異なる角度に偏向させる)ことができる。これは、ミラーの移動によってセンサ上の反射が影から明るいものへ変化することを意味する。
[0778] 本開示に従って、MEMSミラーは、LIDARシステムのウィンドウを通過した光を受光し、反射ミラーを偏向させて偏向光を与え、この偏向光はウィンドウを通過してLIDARシステム100の他のコンポーネント(光センサ等)に到達し得る。偏向光の一部は(ウィンドウによって)後方に、MEMSミラー、フレーム、又はアクチュエータの方へ反射され得る。MEMSミラー及びウィンドウが相互に平行である場合、光はMEMSミラー及びウィンドウによって繰り返し反射されることにより、望ましくない光アーチファクトを生じ得る。これらの光アーチファクトは、MEMSミラーに対して平行でないウィンドウを設けることによって、又はMEMSミラーの光軸とウィンドウの光軸が相互に平行でない場合、減衰させることができ、更には防止することも可能となる。MEMSミラー及びウィンドウのいずれか1つが湾曲しているか、又は相互に対して配向されていない複数のセクションを有する場合、MEMSミラーのどの部分もウィンドウのいずれの部分に対しても平行でないことが有利であり得る。ウィンドウとMEMSミラーとの角度は、MEMSミラーがアイドル位置にある場合、又はMEMSミラーがアクチュエータのいずれかによって移動される場合であっても、ウィンドウがMEMSミラーの方へ光を反射しないように設定され得る。
接続されている。図56から図84は単一のMEMSミラーを示しているが、LIDARシステム100は複数のMEMSミラーのアレイを含むことも可能である。複数のMEMSミラーのいずれかの制御に使用されるフィードバックを与えるため、任意の数のMEMミラーを監視できる。例えば、1からNの間の任意の数よりも多いN個のMEMSミラーが存在する場合、N個のMEMSミラーのうち任意の数のMEMSミラーの監視に使用され得るフィードバックを与えるため、MEMSミラーを監視することができる。
ことができる相互接続要素と、を含み得る。各アクチュエータは本体及び圧電要素を含み得る。圧電要素は、電界が与えられた場合に本体を曲げると共にMEMSミラーを移動させるように構成され得る。MEMSミラーがアイドル位置に位置決めされている場合、これはウィンドウに対して配向され得る。光は、LIDARシステムの視野の少なくとも1つのセグメント内にあり得る反射光であり得る。光は、LIDARシステムの光源からの伝送光であり得る。第1の期間中、光はLIDARシステムの光源からの伝送光であり、第2の期間中、光はLIDARシステムの視野の少なくとも1つのセグメント内にある反射光である。
ルである場合、第2の対のアクチュエータがアイドルである場合の長さとは実質的に異なる長さを有し得る。第1の対のアクチュエータは、アイドルである場合、第2の対のアクチュエータがアイドルである場合の形状とは実質的に異なる形状を有し得る。動作中、LIDARシステムには特定の周波数範囲を有する機械的振動が加えられ得る。ユニットの共振周波数は特定の周波数範囲外であり得る。ユニットの共振周波数は、特定の周波数範囲の最大周波数よりも少なくとも2倍大きい場合がある。ユニットの共振周波数は400ヘルツから1キロヘルツの間であり得る。アクチュエータは、アクチュエータの本体よりも下方に位置付けられた圧電要素を含み、別のアクチュエータは、他の圧電要素の本体よりも上方に位置付けられた圧電要素を含み得る。アクチュエータは、圧電要素の本体よりも上方に位置付けられた圧電要素を含み得る。LIDARシステムは更に、追加の圧電要素の状態の指示をセンサから受信するように構成できるコントローラを含み得る。コントローラは、追加の圧電要素の状態の指示に基づいてアクチュエータを制御するように構成され得る。コントローラは、追加の圧電要素の状態の指示に基づいてMEMSミラーの向きを決定するように構成され得る。
なくとも1つの光学センサ及び少なくとも1つの光源を含み、少なくとも1つの光源は、少なくとも1つの光ビームを透明な領域を通してMEMSミラーの裏側へ伝送するように構成され得る。少なくとも1つの光センサは、MEMSミラーの裏側からの光を受光するように構成され得る。LIDARシステムは、少なくとも1つの光センサからの情報に基づいてMEMSミラーの向きを決定するように構成できるコントローラを含み得る。筐体の異なる部分はウェーハレベルのパッケージングによって形成され得る。フレームは、筐体の下部領域を形成する集積回路に付属し得る。相互接続要素のうち1つの相互接続要素は、少なくとも1つの継手によって相互に機械的に結合できる複数のセグメントを含み得る。継手は玉継手であり得る。また、継手はMEMS継手であり得る。
び/又は変形を有する任意の及び全ての実施形態の範囲は、本開示に基づいて当業者によって認められよう。特許請求の範囲における限定は、特許請求の範囲で使用される言語に基づいて広義に解釈され、本明細書において又は本出願の審査中に記載される例に限定されない。これらの例は非排他的に(non-exclusive)解釈されるものとする。更に、開示
される方法のステップは、ステップの順序を変えること及び/又はステップを挿入又は削除することを含めて、任意に変更され得る。従って、本明細書及び例は単に例示と見なされ、真の範囲及び精神は以下の特許請求の範囲及び均等物(equivalents)の全範囲によ
って示されることが意図される。
Claims (390)
- 少なくとも1つのプロセッサであって、
少なくとも1つの光源からの光を用いた視野のスキャンにおいて光束を変動させ得るように前記少なくとも1つの光源を制御し、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、
前記視野の第1の部分のスキャンに関連した第1の検出反射を用いて、前記第1の部分内に第1の距離の第1の物体が存在すると決定し、
前記視野の第2の部分内に前記第1の距離の物体が不在であると決定し、
前記第1の反射を検出し、前記第2の部分内に物体が不在であると決定した後、前記視野の前記第1の部分の方へ投影されるよりも多くの光が前記視野の前記第2の部分の方へ投影されるように光源パラメータを変更し、
前記視野の前記第2の部分における第2の検出反射を用いて、前記第1の距離よりも大きい第2の距離に第2の物体が存在すると決定する、
ように構成された少なくとも1つのプロセッサを備える、LIDARシステム。 - 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が2つの直交軸で枢動するように前記少なくとも1つの光偏向器を制御するよう構成されている、請求項1に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器を操縦するための回転可能モータを制御するように構成されている、請求項1に記載のLIDARシステム。
- 前記少なくとも1つの光偏向器は枢動可能MEMSミラーを含む、請求項1に記載のLIDARシステム。
- 前記視野の単一のスキャンサイクルは、前記スキャンサイクル中、前記少なくとも1つの光偏向器が複数の異なる瞬時位置に配置されるように前記少なくとも1つの光偏向器を移動させることを含み、前記少なくとも1つのプロセッサは、前記少なくとも1つの光偏向器が特定の瞬時位置に配置されている間に前記少なくとも1つの光源からの光ビームが前記少なくとも1つの光偏向器によって前記視野内の物体の方へ偏向されると共に前記物体からの反射が前記少なくとも1つの光偏向器によって少なくとも1つのセンサの方へ偏向されるように、前記少なくとも1つの光源及び前記少なくとも1つの光偏向器を制御するように構成されている、請求項1に記載のLIDARシステム。
- 前記視野の前記第2の部分は前記少なくとも1つの光偏向器の単一の瞬時位置に対応する、請求項5に記載のLIDARシステム。
- 前記視野の前記第2の部分は前記少なくとも1つの光偏向器の複数の瞬時位置に対応する、請求項5に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第2の部分内に前記第1の距離の物体が不在であると決定したのと同一のスキャンサイクルにおいて、より高い立体角当たりの放射照度が前記視野の前記第2の部分の方へ投影されるように、前記光源パラメータを変更するよう構成されている、請求項5に記載のLIDARシステム。
- 前記少なくとも1つの光偏向器は枢動可能MEMSミラーを含む、請求項8に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第2の部分内に前記第1の距離の物体が不在であると決定したのと同一のスキャンサイクルにおいて、より多くの光が前記視野の前記第2の部分の方へ投影されるように、前記光源パラメータを変更するよう構成されている、請求項1に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第2の部分のスキャンに関連した第3の検出反射を用いて前記2の部分内に前記第1の距離の物体が不在であると決定するように、更に、前記第3の検出反射及び前記第2の検出反射を用いて前記第2の距離に前記第2の物体が存在すると決定するように構成されている、請求項8に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第2の部分内に前記第1の距離の物体が不在であると決定された先行スキャンサイクルに続く後続スキャンサイクルにおいて前記第2の反射が検出されるように、前記少なくとも1つの光源及び前記少なくとも1つの光偏向器を制御するよう構成されている、請求項1に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記後続スキャンにおいて前記第1の部分の方へ投影される光量が前記先行スキャンにおいて前記第1の部分の方へ投影される光量と実質的に同一であるように前記少なくとも1つの光源を制御するよう構成されている、請求項12に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第2の部分内に前記第1の距離の物体が不在であることの決定に応答してより多くの光が前記第2の部分の方へ投影されるように前記光源パラメータを変更するよう構成されている、請求項1に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記視野の前記第2の部分に誘導される光束が前記視野の前記第1の部分に誘導される光束よりも多いように前記光源パラメータを制御するよう構成されている、請求項1に記載のLIDARシステム。
- 前記光源パラメータは光パルスパワーを含み、前記少なくとも1つのプロセッサは更に、前記視野の前記第2の部分の方へ投影される光パルスのパワーを増大させるように前記光源パラメータを変更するよう構成されている、請求項1に記載のLIDARシステム。
- 前記光源パラメータは1スキャン当たりの光パルス繰り返し数を含み、前記少なくとも1つのプロセッサは更に、前記第1の部分の方へ投影される光パルス数よりも多くの光パルスを前記第2の部分へ投影するように前記光源パラメータを変更するよう構成されている、請求項1に記載のLIDARシステム。
- LIDARシステムを用いて物体を検出するための方法であって、
少なくとも1つの光源からの光を用いた視野のスキャンにおいて光束を変動させ得るように前記少なくとも1つの光源を制御することと、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御することと、
前記視野の第1の部分のスキャンに関連した第1の検出反射を用いて、前記第1の部分内に第1の距離の第1の物体が存在すると決定することと、
前記視野の第2の部分内に前記第1の距離の物体が不在であると決定することと、
前記第1の反射を検出し、前記第2の部分内に物体が不在であると決定した後、前記視野の前記第1の部分の方へ投影されるよりも多くの光が前記視野の前記第2の部分の方へ
投影されるように光源パラメータを変更することと、
前記視野の前記第2の部分における第2の検出反射を用いて、前記第1の距離よりも大きい第2の距離に第2の物体が存在すると決定することと、
を含む方法。 - スキャンすることは複数のスキャンサイクルを実行することを含み、単一のスキャンサイクルは前記少なくとも1つの光偏向器を複数の瞬時位置に移動させることを含み、前記少なくとも1つの光偏向器が特定の瞬時位置に配置されている間、前記方法は、前記少なくとも1つの光源からの光ビームを前記視野内の物体の方へ偏向させることと、前記物体から受光した反射を少なくとも1つのセンサの方へ偏向させることと、を含む、請求項18に記載の方法。
- 前記視野の前記第2の部分は前記少なくとも1つの光偏向器の単一の瞬時位置に対応する、請求項18に記載の方法。
- 前記視野の前記第2の部分は前記少なくとも1つの光偏向器の複数の瞬時位置に対応する、請求項18に記載の方法。
- 前記第2の部分内に前記第1の距離の物体が不在であると決定したのと同一のスキャンサイクルにおいて前記第2の反射を検出することを更に含む、請求項18に記載の方法。
- 前記第2の部分内に前記第1の距離の物体が不在であると決定された先行スキャンサイクルに続く後続スキャンサイクルにおいて前記第2の反射を検出することを更に含む、請求項18に記載の方法。
- 前記第2の部分のスキャンに関連した第3の検出反射を用いて前記2の部分内に前記第1の距離の物体が不在であると決定し、前記第3の検出反射及び前記第2の検出反射を用いて前記第2の距離に前記第2の物体が存在すると決定することを更に含む、請求項18に記載の方法。
- 命令を記憶している非一時的コンピュータ読み取り可能記憶媒体であって、前記命令は、少なくとも1つのプロセッサによって実行された場合、LIDARシステムを用いて物体を検出するための方法を前記少なくとも1つのプロセッサに実行させ、前記方法は、
少なくとも1つの光源からの光を用いた視野のスキャンにおいて光束を変動させ得るように前記少なくとも1つの光源を制御することと、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御することと、
前記視野の第1の部分のスキャンに関連した第1の検出反射を用いて、前記第1の部分内に第1の距離の第1の物体が存在すると決定することと、
前記視野の第2の部分内に前記第1の距離の物体が不在であると決定することと、
前記第1の反射を検出し、前記第2の部分内に物体が不在であると決定した後、前記視野の前記第1の部分の方へ投影されるよりも多くの光が前記視野の前記第2の部分の方へ投影されるように光源パラメータを変更することと、
前記視野の前記第2の部分における第2の検出反射を用いて、前記第1の距離よりも大きい第2の距離に第2の物体が存在すると決定することと、
を含む、非一時的コンピュータ読み取り可能記憶媒体。 - 少なくとも1つのプロセッサであって、
少なくとも1つの光源からの光を用いた視野のスキャンにおいて光束を変動させ得るように前記少なくとも1つの光源を制御し、
前記視野の第1の部分の方へ誘導される少なくとも第1の光放出の投影を制御して、前記視野の前記第1の部分内に第1の距離の物体が不在であると決定することと、
前記少なくとも第1の光放出に基づいて前記視野の前記第1の部分内に物体が不在であると決定された場合、前記視野の前記第1の部分の方へ誘導される少なくとも第2の光放出の投影を制御して、前記視野の前記第1の部分において前記第1の距離よりも大きい第2の距離の物体の検出を可能とし、
前記視野の前記第1の部分の方へ誘導される少なくとも第3の光放出の投影を制御して、前記視野の前記第1の部分において前記第2の距離よりも大きい第3の距離の物体が存在すると決定する、
ように構成された少なくとも1つのプロセッサを備える、LIDARシステム。 - 前記少なくとも1つのプロセッサは更に、スキャンサイクル中、少なくとも1つの光偏向器が複数の異なる瞬時位置に配置されるように、前記視野をスキャンするため前記少なくとも1つの光偏向器を制御するよう構成されている、請求項26に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合、光ビームが前記少なくとも1つの光偏向器によって前記少なくとも1つの光源から前記視野の方へ偏向されると共に前記視野内の物体からの反射が前記少なくとも1つの光偏向器によって少なくとも1つのセンサの方へ偏向されるように、前記少なくとも1つの光偏向器と前記少なくとも1つの光源を連携させるように構成されている、請求項27に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも第1の光放出、前記少なくとも第2の光放出、前記少なくとも第3の光放出が、前記少なくとも1つの光偏向器の単一の瞬時位置に対応する前記視野の前記第1の部分の方へ投影されるように、前記少なくとも1つの光偏向器を制御するよう構成されている、請求項27に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも第3の光放出と、前記少なくとも第1の光放出及び前記少なくとも第2の光放出のうち少なくとも1つと、を用いて、前記視野の前記第1の部分内に前記第3の距離の前記物体が存在すると決定するように構成されている、請求項27に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも第1の光放出、前記少なくとも第2の光放出、前記少なくとも第3の光放出が、前記少なくとも1つの光偏向器の異なる瞬時位置から前記視野の前記第1の部分の方へ投影されるように、前記少なくとも1つの光偏向器を制御するよう構成されている、請求項27に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも第1の光放出、前記少なくとも第2の光放出、前記少なくとも第3の光放出が、単一のスキャンサイクルにおいて前記視野の前記第1の部分の方へ投影されるように、前記少なくとも1つの光偏向器を制御するよう構成されている、請求項27に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも第1の光放出、前記少なくとも第2の光放出、前記少なくとも第3の光放出の各々が、異なるスキャンサイクルにおいて前記視野の前記第1の部分の方へ投影されるように、前記少なくとも1つの光偏向器を制御するよう構成されている、請求項27に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも第2の光放出が前記少なくと
も第1の光放出の光強度よりも大きい光強度を有すると共に、前記少なくとも第3の光放出が前記少なくとも第2の光放出の光強度よりも大きい光強度を有するように、前記少なくとも1つの光源を制御するよう構成されている、請求項33に記載のLIDARシステム。 - 前記少なくとも1つのプロセッサは更に、前記少なくとも第1の光放出、前記少なくとも第2の光放出、及び前記少なくとも第3の光放出が実質的に同じ光強度に関連付けられるように、前記少なくとも1つの光源を制御するよう構成されている、請求項26に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも第1の光放出及び前記少なくとも第2の光放出のうち少なくとも1つの検出に基づいて前記第1の部分内に前記第1の距離の物体が不在であると決定された場合、前記第1の部分の方へ誘導される前記少なくとも第3の光放出の投影を制御するように構成されている、請求項26に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも第2の光放出の検出に基づいて前記第1の部分内に前記第2の距離の物体が不在であると決定された場合、前記第1の部分の方へ誘導される前記少なくとも第3の光放出の投影を制御するように構成されている、請求項26に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、同一のスキャンサイクル中、前記第1の部分に誘導される光の光束が前記視野の少なくとも1つの他の部分に誘導される光の光束よりも多くなるように前記第1の部分に関連した光源パラメータを変更するよう構成されている、請求項26に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも第1の光放出及び前記少なくとも第3の光放出の各々が異なる波長に関連付けられるように前記少なくとも1つの光源を制御するよう構成されている、請求項26に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記視野の前記第1の部分における前記光の蓄積エネルギ密度が最大許容可能露光量を超えないように前記少なくとも1つの光源を制御するよう構成されている、請求項26に記載のLIDARシステム。
- LIDARシステムを用いて物体を検出するための方法であって、
少なくとも1つの光源からの光を用いた視野のスキャンにおいて光束を変動させ得るように前記少なくとも1つの光源を制御することと、
前記視野の第1の部分の方へ誘導される少なくとも第1の光放出の投影を制御して、前記視野の前記第1の部分内に第1の距離の物体が不在であると決定することと、
前記少なくとも第1の光放出に基づいて前記視野の前記第1の部分内に物体が不在であると決定された場合、前記視野の前記第1の部分の方へ誘導される少なくとも第2の光放出の投影を制御して、前記視野の前記第1の部分において前記第1の距離よりも大きい第2の距離の物体の検出を可能とすることと、
前記視野の前記第1の部分の方へ誘導される少なくとも第3の光放出の投影を制御して、前記視野の前記第1の部分において前記第2の距離よりも大きい第3の距離の物体が存在すると決定することと、
を含む方法。 - 前記少なくとも第1の光放出及び前記少なくとも第2の光放出のうち少なくとも1つの検出に基づいて前記第1の部分内に前記第1の距離の物体が不在であると決定された場合
、前記第1の部分の方へ誘導される前記少なくとも第3の光放出の投影を制御することを更に含む、請求項41に記載の方法。 - 前記少なくとも第2の光放出の検出に基づいて前記第1の部分内に前記第2の距離の物体が不在であると決定された場合、前記第1の部分の方へ誘導される前記少なくとも第3の光放出の投影を制御することを更に含む、請求項41に記載の方法。
- 前記第1の部分に誘導される光の光束が前記視野の少なくとも1つの他の部分に誘導される光の光束よりも多くなるように前記第1の部分に関連した光源パラメータを変更することを更に含む、請求項41に記載の方法。
- 前記少なくとも第1の光放出、前記少なくとも第2の光放出、及び前記少なくとも第3の光放出が実質的に同じ光強度に関連付けられるように、前記少なくとも1つの光源を制御することを更に含む、請求項41に記載の方法。
- 前記少なくとも第3の光放出と、前記少なくとも第1の光放出及び前記少なくとも第2の光放出のうち少なくとも1つと、を用いて、前記視野の前記第1の部分内に前記第3の距離の前記物体が存在すると決定することを更に含む、請求項41に記載の方法。
- 命令を記憶している非一時的コンピュータ読み取り可能記憶媒体であって、前記命令は、少なくとも1つのプロセッサによって実行された場合、LIDARシステムを用いて物体を検出するための方法を前記少なくとも1つのプロセッサに実行させ、前記方法は、
少なくとも1つの光源からの光を用いた視野のスキャンにおいて光束を変動させ得るように前記少なくとも1つの光源を制御することと、
前記視野の第1の部分の方へ誘導される少なくとも第1の光放出の投影を制御して、前記視野の前記第1の部分内に第1の距離の物体が不在であると決定することと、
前記少なくとも第1の光放出に基づいて前記視野の前記第1の部分内に物体が不在であると決定された場合、前記視野の前記第1の部分の方へ誘導される少なくとも第2の光放出の投影を制御して、前記視野の前記第1の部分において前記第1の距離よりも大きい第2の距離の物体の検出を可能とすることと、
前記視野の前記第1の部分の方へ誘導される少なくとも第3の光放出の投影を制御して、前記視野の前記第1の部分において前記第2の距離よりも大きい第3の距離の物体が存在すると決定することと、
を含む、非一時的コンピュータ読み取り可能記憶媒体。 - 少なくとも1つのプロセッサであって、
第1の部分及び第2の部分を含む視野のスキャンにおいて光束を変動させ得るように少なくとも1つの光源を制御し、
画素ごとに少なくとも1つのセンサから信号を受信し、前記信号は、周囲光と、前記視野内の物体によって反射された前記少なくとも1つの光源からの光及び前記少なくとも1つのセンサに関連する雑音の組み合わせと、のうち少なくとも1つを示し、
前記視野の前記第1の部分に関連した前記信号の少なくとも一部における雑音を推定し、
前記視野の前記第1の部分における雑音の前記推定に基づいて、前記視野の前記第1の部分に関連した反射に対するセンサ感度を変更し、
前記視野の前記第2の部分に関連した前記信号の少なくとも一部における雑音を推定し、
前記視野の前記第2の部分における雑音の前記推定に基づいて、前記視野の前記第2の部分に関連した反射に対するセンサ感度を変更し、前記第2の部分に関連した反射に関する前記変更されたセンサ感度は前記第1の部分に関連した反射に関する前記変更されたセ
ンサ感度とは異なる、
ように構成された少なくとも1つのプロセッサを備える、LIDARシステム。 - 前記少なくとも1つのプロセッサは更に、前記視野をスキャンするため少なくとも1つの光偏向器を制御するように構成され、単一のスキャンサイクルは、前記視野は、前記スキャンサイクル中に前記少なくとも1つの光偏向器が複数の異なる瞬時位置に配置されるように前記少なくとも1つの光偏向器を移動させることを含む、請求項48に記載のLIDARシステム。
- 少なくとも1つのプロセッサは、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合、光ビームが前記少なくとも1つの光偏向器によって前記少なくとも1つの光源から前記視野の方へ偏向されると共に前記視野内の物体からの反射が前記少なくとも1つの光偏向器によって少なくとも1つのセンサの方へ偏向されるように、前記少なくとも1つの光偏向器と前記少なくとも1つの光源を連携させるように構成されている、請求項49に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器の単一の瞬時位置に対応する前記視野の部分に関連した反射に対するセンサ感度を変更するように構成されている、請求項50に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器の複数の瞬時位置に対応する前記視野の部分に関連した反射に対するセンサ感度を変更するように構成されている、請求項50に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、第1のスキャンサイクルで受光した前記第1の部分に関連した第1の反射に対するセンサ感度を変更すると共に、第2のスキャンサイクルで受光した前記第2の部分に関連した第2の反射に対するセンサ感度を変更するように構成されている、請求項50に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第1の部分に関連した第1の反射及び前記第2の部分に関連した第2の反射に対するセンサ感度を変更するように構成され、前記第1及び第2の反射は単一のスキャンサイクルで受光される、請求項50に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器の単一の部分に関連した反射に基づいて各部分における雑音を推定するように構成されている、請求項50に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、少なくとも1つの先行スキャンサイクルで受光された前記視野の特定の部分に関連した信号の比較に基づいて、前記視野の前記特定の部分に関連した信号における雑音を推定するように構成されている、請求項48に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第1の部分における雑音の前記推定に基づいて、前記第1の部分及び前記第2の部分とは異なる前記視野の第3の部分に関連した反射に対するセンサ感度を変更するように構成されている、請求項48に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第1の部分及び前記第2の部分の双方における雑音の前記推定に基づいて、前記第3の部分に関連した反射に対するセンサ感度を
変更するように構成されている、請求項57に記載のLIDARシステム。 - 前記少なくとも1つのプロセッサは更に、前記第1の部分における前記雑音の推定が前記第2の部分における前記雑音の推定よりも大きい場合、前記第1の部分の方へ投影される光量を前記第2の部分の方へ投影される光量よりも増大させるように構成されている、請求項48に記載のLIDARシステム。
- 前記センサ感度は信号閾値であり、前記少なくとも1つのプロセッサは更に、前記第1の部分における前記雑音の推定が前記第2の部分における前記雑音の推定よりも大きい場合、前記第1の部分に対する前記信号閾値を前記第2の部分に対する前記信号閾値よりも増大させるように構成されている、請求項48に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第1の部分において第1の距離の外部光源を検出し、前記第1の部分及び前記第2の部分に関連した反射に対するセンサ感度を異なるように変更して、前記第2の部分において前記第1の距離よりも大きい第2の距離の物体の検出を可能とするように構成されている、請求項60に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第1の部分及び前記第2の部分の方へ投影された同一の光量に対して、前記第1の部分に関連した検出距離が前記第2の部分に関連した検出距離よりも大きくなるように、前記第1の部分及び前記第2の部分に関連した反射に対するセンサ感度を個別に変更するよう構成されている、請求項48に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第1の部分及び前記第2の部分の方へ投影された同一の光量に対して、前記第1の部分に関連した分解能が前記第2の部分に関連した分解能よりも大きくなるように、前記第1の部分及び前記第2の部分に関連した反射に対するセンサ感度を個別に変更するよう構成されている、請求項48に記載のLIDARシステム。
- 少なくとも1つのセンサからの信号は増幅電子機器から生じた雑音を更に含む、請求項48に記載のLIDARシステム。
- LIDARシステムにおいてセンサ感度を変更するための方法であって、
第1の部分及び第2の部分を含む視野のスキャンにおいて光束を変動させ得るように少なくとも1つの光源を制御することと、
画素ごとに少なくとも1つのセンサから信号を受信することであって、前記信号は、周囲光と、前記視野内の物体によって反射された前記少なくとも1つの光源からの光と、のうち少なくとも1つを示す、ことと、
前記視野の第1の部分に関連した前記信号の少なくとも一部における雑音を推定することと、
前記視野の前記第1の部分における雑音の前記推定に基づいて、前記視野の前記第1の部分に関連した反射に対するセンサ感度を変更することと、
前記視野の第2の部分に関連した前記信号の少なくとも一部における雑音を推定することと、
前記視野の前記第2の部分における雑音の前記推定に基づいて、前記視野の前記第2の部分に関連した反射に対するセンサ感度を変更することであって、前記第2の部分に関連した反射に関する前記変更されたセンサ感度は前記第1の部分に関連した反射に関する前記変更されたセンサ感度とは異なる、ことと、
を含む方法。 - 少なくとも1つの先行スキャンサイクルで受光された前記視野の特定の部分に関連した信号の比較に基づいて、前記視野の前記特定の部分に関連した信号における雑音を推定することを更に含む、請求項65に記載の方法。
- 前記第1の部分及び前記第2の部分のうち少なくとも1つにおける雑音の前記推定に基づいて、前記視野の第3の部分に関連した反射に対するセンサ感度を変更することを更に含む、請求項65に記載の方法。
- 前記第1の部分に誘導される光束が前記視野の少なくとも1つの他の部分に誘導される光束よりも多くなるように前記第1の部分に関連した光源パラメータを変更することを更に含む、請求項65に記載の方法。
- 前記第1の部分における前記雑音の推定が前記第2の部分における前記雑音の推定よりも大きい場合、前記第1の部分の方へ投影される光量を前記第2の部分の方へ投影される光量よりも増大させることを更に含む、請求項65に記載の方法。
- 命令を記憶している非一時的コンピュータ読み取り可能記憶媒体であって、前記命令は、少なくとも1つのプロセッサによって実行された場合、LIDARシステムにおけるセンサ感度を変更するための方法を前記少なくとも1つのプロセッサに実行させ、前記方法は、
第1の部分及び第2の部分を含む視野のスキャンにおいて光束を変動させ得るように少なくとも1つの光源を制御することと、
画素ごとに少なくとも1つのセンサから信号を受信することであって、前記信号は、周囲光と、前記視野内の物体によって反射された前記少なくとも1つの光源からの光と、のうち少なくとも1つを示す、ことと、
前記視野の第1の部分に関連した前記信号の少なくとも一部における雑音を推定することと、
前記視野の前記第1の部分における雑音の前記推定に基づいて、前記視野の前記第1の部分に関連した反射に対するセンサ感度を変更することと、
前記視野の第2の部分に関連した前記信号の少なくとも一部における雑音を推定することと、
前記視野の前記第2の部分における雑音の前記推定に基づいて、前記視野の前記第2の部分に関連した反射に対するセンサ感度を変更することであって、前記第2の部分に関連した反射に関する前記変更されたセンサ感度は前記第1の部分に関連した反射に関する前記変更されたセンサ感度とは異なる、ことと、
を含む、非一時的コンピュータ読み取り可能記憶媒体。 - 少なくとも1つのプロセッサであって、
少なくとも1つの光源からの光を用いた視野のスキャンにおいて光強度を変動させ得るように前記少なくとも1つの光源を制御し、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、
前記視野内の少なくとも1つの明確な関心領域の識別を取得し、
第1のスキャンサイクルの後、前記少なくとも1つの明確な関心領域に関連したロケーションにおける少なくとも1つの後続の第2のスキャンサイクルの光強度が、前記少なくとも1つの明確な関心領域に関連した前記ロケーションにおける前記第1のスキャンサイクルの光強度よりも高くなるように、前記少なくとも1つの明確な関心領域に対する光の割り当てを他の領域よりも増大させる、
ように構成された少なくとも1つのプロセッサを備える、LIDARシステム。 - 前記プロセッサは、前記少なくとも1つの後続の第2のスキャンサイクルにおける前記少なくとも1つの明確な関心領域の3D表現の空間分解能が、前記第1のスキャンサイクルにおける前記少なくとも1つの明確な関心領域の3D表現の空間分解能よりも高くなるように、前記少なくとも1つの明確な関心領域の照射分解能を他の領域に対して変更するよう構成されている、請求項71に記載のLIDARシステム。
- 前記プロセッサは、前記少なくとも1つの後続の第2のスキャンサイクルにおける前記少なくとも1つの明確な関心領域の3D表現の空間分解能が、前記第1のスキャンサイクルにおける前記少なくとも1つの明確な関心領域の3D表現の空間分解能よりも低くなるように、前記少なくとも1つの明確な関心領域又は前記少なくとも1つの非関心領域の照射分解能を他の領域に対して変更するよう構成されている、請求項71に記載のLIDARシステム。
- 前記プロセッサは、前記少なくとも1つの後続の第2のスキャンサイクルにおける前記少なくとも1つの明確な関心領域の3D表現の時間分解能が、前記第1のスキャンサイクルにおける前記少なくとも1つの明確な関心領域の3D表現の時間分解能よりも高くなるように、前記少なくとも1つの明確な関心領域の照射タイミングを他の領域に対して変更するよう構成されている、請求項71に記載のLIDARシステム。
- 前記プロセッサは、前記少なくとも1つの後続の第2のスキャンサイクルにおける前記少なくとも1つの明確な関心領域又は前記少なくとも1つの非関心領域の3D表現の時間分解能が、前記第1のスキャンサイクルにおける前記少なくとも1つの明確な関心領域又は前記少なくとも1つの非関心領域の3D表現の時間分解能よりも低くなるように、前記少なくとも1つの明確な関心領域又は前記少なくとも1つの非関心領域の照射タイミングを他の領域に対して変更するよう構成されている、請求項71に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記視野をスキャンするため前記少なくとも1つの光偏向器を制御するように構成され、前記視野の単一のスキャンサイクルは、前記スキャンサイクル中に前記少なくとも1つの光偏向器が複数の位置に瞬時に配置されるように前記少なくとも1つの光偏向器を移動させることを含む、請求項71に記載のLIDARシステム。
- 少なくとも1つのプロセッサは、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合、光ビームが前記少なくとも1つの光偏向器によって前記少なくとも1つの光源から前記視野の方へ偏向されると共に前記視野内の物体からの反射が前記少なくとも1つの光偏向器によって少なくとも1つのセンサの方へ偏向されるように、前記少なくとも1つの光偏向器と前記少なくとも1つの光源を連携させるように構成されている、請求項76に記載のLIDARシステム。
- 前記少なくとも1つの明確な関心領域の前記取得された識別は、前記少なくとも1つの明確な関心領域に関連付けられた特定の光偏向器位置の指示を含む、請求項76に記載のLIDARシステム。
- 前記少なくとも1つの明確な関心領域の前記取得された識別は前記LIDARシステムが展開されている車両の現在の運転モードに基づく、請求項71に記載のLIDARシステム。
- 前記少なくとも1つの明確な関心領域の前記取得された識別は前記少なくとも1つの明
確な関心領域において検出された物体に基づく、請求項71に記載のLIDARシステム。 - 前記少なくとも1つのプロセッサは更に、前記第1のスキャンサイクルに関連した光の反射を検出するように構成された少なくとも1つのセンサから受信した情報に基づいて前記少なくとも1つの明確な関心領域の前記識別を決定するように構成されている、請求項71に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、GPS、車両ナビゲーションシステム、レーダ、LIDAR、及びカメラのうち少なくとも1つから、前記少なくとも1つの明確な関心領域の前記識別を取得するように構成されている、請求項71に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、単一のスキャンサイクルにおいて、前記視野の他の領域よりも多くの光が前記少なくとも1つの明確な関心領域の方へ投影されるように光割り当てを調整するよう構成されている、請求項71に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第1のスキャンサイクルにおいて非関心領域として識別された複数の領域の方へ投影された光量よりも少ない光を、前記少なくとも1つの後続の第2のスキャンサイクルにおいて前記複数の領域に割り当てるように構成されている、請求項71に記載のLIDARシステム。
- 前記少なくとも1つの後続の第2のスキャンサイクルは複数の後続の第2のスキャンサイクルを含み、複数の第2のスキャンサイクルにわたった前記少なくとも1つの明確な関心領域のエリアにおける総光強度は、前記複数の第2のスキャンサイクルにわたった他の非関心領域の総光強度よりも大きい、請求項71に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、目の安全の閾値内で前記少なくとも1つの明確な関心領域における蓄積光に上限を設定するように構成されている、請求項71に記載のLIDARシステム。
- 前記少なくとも1つの明確な関心領域は複数の関心領域を含み、前記少なくとも1つのプロセッサは更に、前記複数の関心領域にランクを付け、前記ランク付けに基づいて光を割り当てるように構成されている、請求項71に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、最も高いランク付けの関心領域に最も多くの光を割り当て、これより低いランク付けの関心領域により少ない光を割り当てるように構成されている、請求項87に記載のLIDARシステム。
- 前記少なくとも1つの光偏向器は枢動可能MEMSミラーを含む、請求項71に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの明確な関心領域のスキャンに関連した反射を用いて、非関心領域内で第2の物体が検出されなかった第2の距離よりも大きい第1の距離で前記少なくとも1つの明確な関心領域内に第1の物体が存在すると決定するように構成されている、請求項71に記載のLIDARシステム。
- LIDARシステムを用いて関心領域内の物体を検出するための方法であって、
少なくとも1つの光源からの光を用いた視野のスキャンにおいて光強度を変動させ得るように前記少なくとも1つの光源を制御することと、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御することと、
前記視野内の少なくとも1つの明確な関心領域の識別を受信することと、
第1のスキャンサイクルの後、前記少なくとも1つの明確な関心領域に関連したロケーションにおける少なくとも1つの後続の第2のスキャンサイクルの光強度が、前記少なくとも1つの明確な関心領域に関連した前記ロケーションにおける前記第1のスキャンサイクルの光強度よりも高くなるように、前記少なくとも1つの明確な関心領域に対する光の割り当てを他の領域よりも増大させることと、
を含む方法。 - 前記第1のスキャンサイクルに関連した光の反射を検出するように構成された少なくとも1つのセンサから前記少なくとも1つの明確な関心領域の前記識別を受信することを更に含む、請求項91に記載の方法。
- 前記少なくとも1つの後続の第2のスキャンサイクルは複数の後続の第2のスキャンサイクルを含み、複数の第2のスキャンサイクルにわたった前記少なくとも1つの明確な関心領域のエリアにおける総光強度は、前記複数の第2のスキャンサイクルにわたった他の非関心領域の総光強度よりも大きい、請求項91に記載の方法。
- 単一のスキャンサイクルにおいて他の領域よりも多くの光が前記少なくとも1つの明確な関心領域の方へ投影されるように光割り当てを調整することを更に含む、請求項91に記載の方法。
- 前記少なくとも1つの明確な関心領域は複数の関心領域を含み、前記方法は、
前記複数の関心領域にランクを付けることと、
前記ランク付けに基づいて光を割り当てることであって、最も高いランク付けの関心領域に割り当てられる光量はこれよりも低いランク付けの関心領域に割り当てられる光量よりも多い、ことと、
を更に含む、請求項91に記載の方法。 - 命令を記憶している非一時的コンピュータ読み取り可能記憶媒体であって、前記命令は、少なくとも1つのプロセッサによって実行された場合、LIDARシステムを用いて関心領域内の物体を検出するための方法を前記少なくとも1つのプロセッサに実行させ、前記方法は、
少なくとも1つの光源からの光を用いた視野のスキャンにおいて光強度を変動させ得るように前記少なくとも1つの光源を制御することと、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御することと、
前記視野内の少なくとも1つの明確な関心領域の識別を受信することと、
第1のスキャンサイクルの後、前記少なくとも1つの明確な関心領域に関連したロケーションにおける少なくとも1つの後続の第2のスキャンサイクルの光強度が、前記少なくとも1つの明確な関心領域に関連した前記ロケーションにおける前記第1のスキャンサイクルの光強度よりも高くなるように、前記少なくとも1つの明確な関心領域に対する光の割り当てを他の領域よりも増大させることと、
を含む、非一時的コンピュータ読み取り可能記憶媒体。 - 少なくとも1つのプロセッサであって、
少なくとも1つの光源からの光を用いた視野のスキャンにおいて光束を変動させ得るように前記少なくとも1つの光源を制御し、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少
なくとも1つの光偏向器を制御し、
前記視野内の物体から反射された光を示す反射信号を少なくとも1つのセンサから受信し、
初期光放出の前記反射信号に基づいて、前記LIDARシステムの中間エリアにおいて前記少なくとも1つの光偏向器からの閾値距離内に物体が位置しているか否かを判定し、前記閾値距離は安全距離に関連付けられ、
前記中間エリアで物体が検出されない場合、前記中間エリアの方へ追加光放出を投影し、これによって前記中間エリアよりも遠くにある物体の検出を可能とするように、前記少なくとも1つの光源を制御し、
前記中間エリアで物体が検出された場合、前記中間エリアにおける前記光の蓄積エネルギ密度が最大許容可能露光量を超えないように、前記少なくとも1つの光源及び前記少なくとも1つの光偏向器のうち少なくとも1つを規制する、
ように構成された少なくとも1つのプロセッサを備える、LIDARシステム。 - 前記少なくとも1つのプロセッサは更に、前記視野をスキャンするため前記少なくとも1つの光偏向器を制御するように構成され、前記視野の単一のスキャンサイクルは、前記スキャンサイクル中に前記少なくとも1つの光偏向器が複数の異なる瞬時位置に配置されるように前記少なくとも1つの光偏向器を移動させることを含む、請求項97に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が特定の瞬時位置に留まっている間に光ビームが前記少なくとも1つの光源から前記視野の方へ偏向されると共に前記視野内の物体からの反射が少なくとも1つのセンサの方へ偏向されるように、前記少なくとも1つの光偏向器及び前記少なくとも1つの光源を制御するよう構成されている、請求項98に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記初期光放出及び前記追加光放出が単一のスキャンサイクルにおいて前記中間エリアの方へ投影されるように前記少なくとも1つの光偏向器を制御するよう構成されている、請求項98に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記初期光放出が第1のスキャンサイクルにおいて前記中間エリアの方へ投影されると共に前記中間光放出が第2のスキャンサイクルにおいて前記中間エリアの方へ投影されるように前記少なくとも1つの光偏向器を制御するよう構成されている、請求項97に記載のLIDARシステム。
- 規制することは、前記物体までの距離を決定することと、前記物体における前記光の強度を計算することと、前記物体までの前記距離における目に安全な露光時間を決定することと、を含む、請求項97に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器と前記中間エリアで検出された前記物体との間の決定された距離に基づいて前記最大許容可能露光量に関連付けられた値を決定するように構成されている、請求項102に記載のLIDARシステム。
- 規制することは、前記物体までの距離を決定することと、前記物体における前記光の強度を計算することと、前記物体までの前記距離における目に安全な許容可能光エネルギを決定することと、を含む、請求項97に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器と前記中間エリアで検出された前記物体との間の決定された距離に基づいて前記最大許容可能光エネル
ギに関連付けられた値を決定するように構成されている、請求項104に記載のLIDARシステム。 - 前記少なくとも1つのプロセッサは更に、
前記視野を複数のセクタに分割可能であるように前記少なくとも1つの光偏向器を制御し、各セクタは別個の中間エリアに関連付けられ、
各セクタからの前記初期光放出の前記反射信号に基づいて、前記複数のセクタに関連付けられた前記中間エリアの各々に物体が位置しているか否かを判定する、
ように構成されている、請求項97に記載のLIDARシステム。 - 第1のセクタに関連付けられた第1の中間エリアにおいて物体を検出し、第2のセクタに関連付けられた第2の中間エリアにおいて物体が不在であると決定したら、前記少なくとも1つのプロセッサは更に、単一のスキャンサイクルにおいて、
前記第2の中間エリアの方へ追加光放出を投影するように前記少なくとも1つの光源を制御し、
前記第1の中間エリアにおける前記光の蓄積エネルギ密度が前記最大許容可能露光量を超えないように前記少なくとも1つの光源及び前記少なくとも1つの光偏向器のうち少なくとも1つを規制する、
ように構成されている、請求項106に記載のLIDARシステム。 - 前記少なくとも1つのプロセッサは更に、前記追加光放出に関連した反射信号に基づいて前記安全距離に関連付けられた前記閾値を調整するように構成されている、請求項97に記載のLIDARシステム。
- 前記少なくとも1つの光偏向器は複数の光偏向器を含み、前記少なくとも1つのプロセッサは前記複数の光偏向器に協働して前記視野をスキャンさせるように構成されている、請求項97に記載のLIDARシステム。
- 前記少なくとも1つの光偏向器は単一の光偏向器を含み、前記少なくとも1つの光源は前記単一の光偏向器に照準を合わせた複数の光源を含む、請求項97に記載のLIDARシステム。
- 各光源は概ね前記視野の異なるエリアに関連付けられ、前記少なくとも1つのプロセッサは更に、前記視野の第1のエリアにおいて前記安全距離よりも大きい距離で物体が検出された場合、異なる光源によって前記視野の第2のエリアへ投影される光のエネルギ密度が前記視野の前記第2のエリアに関連付けられた最大許容可能露光量を超えないように、前記少なくとも1つの光偏向器及び前記複数の光源を連携させるよう構成されている、請求項110に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、別のエリアにおいて前記安全距離よりも大きい距離で別の物体が検出された場合、前記少なくとも1つの光源によって前記視野の前記別の部分へ投影される光のエネルギ密度が前記視野の前記別の部分に関連付けられた最大許容可能露光量を超えないように、前記少なくとも1つの光偏向器及び前記少なくとも1つの光源を連携させるように構成されている、請求項97に記載のLIDARシステム。
- 前記安全距離は公称眼障害距離(NOHD)である、請求項97に記載のLIDARシステム。
- 前記少なくとも1つの光源は1000nm未満の波長の光を投影するように構成されている、請求項97に記載のLIDARシステム。
- 前記少なくとも1つの光源は800nmより大きい波長の光を投影するように構成されている、請求項97に記載のLIDARシステム。
- 前記中間エリアにおいて物体が検出された場合、前記少なくとも1つのプロセッサは更に、前記検出された物体に関連した前記中間エリアの一部の方へ更なる光放出を行わないように構成されている、請求項97に記載のLIDARシステム。
- 前記中間エリアにおいて物体が検出された場合、前記少なくとも1つのプロセッサは更に、前記中間エリアの方へ可視光を放出するように前記少なくとも1つの光源及び前記少なくとも1つの光偏向器のうち少なくとも1つを規制するよう構成されている、請求項97に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記初期光放出及び前記追加光放出を用いて前記中間エリアよりも遠くに位置する物体の距離を決定するように構成されている、請求項97に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、
前記視野を複数のセクタに分割可能であるように前記少なくとも1つの光偏向器を制御し、各セクタは別個の中間エリアに関連付けられ、
各セクタからの前記初期光放出の前記反射信号に基づいて、前記複数のセクタに関連付けられた前記中間エリアの各々に物体が位置しているか否かを判定し、
第1のセクタに関連付けられた第1の中間エリアにおいて物体を検出し、第2のセクタに関連付けられた第2の中間エリアにおいて物体が不在であると決定したら、単一のスキャンサイクルにおいて、前記第2の中間エリアの方へ追加光放出を投影するように前記少なくとも1つの光源を制御し、前記第1の中間エリアにおける前記光の蓄積エネルギ密度が前記最大許容可能露光量を超えないように前記少なくとも1つの光源及び前記少なくとも1つの光偏向器のうち少なくとも1つを規制する、
ように構成されている、請求項100に記載のLIDARシステム。 - LIDARシステムを用いて物体を検出するための方法であって、
少なくとも1つの光源からの光を用いた視野のスキャンにおいて光束を変動させ得るように前記少なくとも1つの光源を制御することと、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御することと、
前記視野内の物体から反射された光を示す反射信号を少なくとも1つのセンサから受信することと、
初期光放出の前記反射信号に基づいて、前記視野の中間エリアにおいて前記少なくとも1つの光偏向器からの閾値距離内に物体が位置しているか否かを判定することであって、前記閾値距離は眼障害距離に関連付けられている、ことと、
前記中間エリアで物体が検出されない場合、前記中間エリアの方へ追加光放出を投影し、これによって前記中間エリアよりも遠くにある物体の検出を可能とするように、前記少なくとも1つの光源を制御することと、
前記中間エリアで物体が検出された場合、前記中間エリアにおける前記光の蓄積エネルギ密度が最大許容可能露光量を超えないように、前記少なくとも1つの光源及び前記少なくとも1つの光偏向器のうち少なくとも1つを規制することと、
を含む方法。 - 前記初期光放出及び前記追加光放出が単一のスキャンサイクルにおいて前記中間エリアの方へ投影されるように前記少なくとも1つの光偏向器を制御することを更に含む、請求
項120に記載の方法。 - 前記中間エリアで検出された前記物体までの距離に基づいて前記最大許容可能露光量を決定することを更に含む、請求項120に記載の方法。
- 規制することは、前記物体までの距離を決定することと、前記物体における前記光の強度を計算することと、前記物体までの前記距離における目に安全な露光時間を決定することと、を含む、請求項120に記載の方法。
- 前記追加光放出に関連した反射信号に基づいて眼障害距離に関連付けられた前記閾値を調整することを更に含む、請求項120に記載の方法。
- 命令を記憶している非一時的コンピュータ読み取り可能記憶媒体であって、前記命令は、少なくとも1つのプロセッサによって実行された場合、LIDARシステムを用いて物体を検出するための方法を前記少なくとも1つのプロセッサに実行させ、前記方法は、
少なくとも1つの光源からの光を用いた視野のスキャンにおいて光束を変動させ得るように前記少なくとも1つの光源を制御することと、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御することと、
前記視野内の物体から反射された光を示す反射信号を少なくとも1つのセンサから受信することと、
初期光放出の前記反射信号に基づいて、前記視野の中間エリアにおいて前記少なくとも1つの光偏向器からの閾値距離内に物体が位置しているか否かを判定することであって、前記閾値距離は眼障害距離に関連付けられている、ことと、
前記中間エリアで物体が検出されない場合、前記中間エリアの方へ追加光放出を投影し、これによって前記中間エリアよりも遠くにある物体の検出を可能とするように、前記少なくとも1つの光源を制御することと、
前記中間エリアで物体が検出された場合、前記中間エリアにおける前記光の蓄積エネルギ密度が最大許容可能露光量を超えないように、前記少なくとも1つの光源及び前記少なくとも1つの光偏向器のうち少なくとも1つを規制することと、
を含む、非一時的コンピュータ読み取り可能記憶媒体。 - 少なくとも1つのプロセッサであって、
光源の光放出を制御し、
前記光源のアウトバウンド経路に配置された少なくとも1つの光偏向器を繰り返し移動させることによって視野をスキャンし、前記視野の単一のスキャンサイクル中に前記少なくとも1つの光偏向器は複数の位置に瞬時に配置され、
前記少なくとも1つの偏向器が特定の瞬時位置にある間、前記少なくとも1つの偏向器を介して、センサへの帰還経路に沿って単一の光ビームスポットの反射を受光し、
前記センサから、各光ビームスポットの画像に関連付けられた信号をビームスポットごとに受信し、前記センサは複数の検出器を含み、ビームスポットごとに各光ビームスポットの前記画像が複数の検出器に入射するように、各検出器のサイズは各光ビームスポットの前記画像よりも小さく、
前記複数の検出器に対する前記入射によって生じた信号から、前記単一の光ビームスポットの前記画像に関連付けられた少なくとも2つの異なる範囲測定値を決定する、
ように構成された少なくとも1つのプロセッサを備える、LIDARシステム。 - 前記少なくとも1つの光偏向器は枢動可能MEMSミラーを含む、請求項126に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合に前記光源の前記アウトバウンド経路が少なくとも部分的に前記帰還経路と一致するように、前記少なくとも1つの光偏向器と前記少なくとも1つの光源を連携させるよう構成されている、請求項127に記載のLIDARシステム。
- 前記アウトバウンド経路と前記帰還経路の重複部分は共通の光偏向要素を含む、請求項126に記載のLIDARシステム。
- 前記少なくとも1つの光偏向器は少なくとも1つのアウトバウンド偏向器及び少なくとも1つの帰還偏向器を含み、前記少なくとも1つのプロセッサは更に、前記少なくとも1つの帰還偏向器を介して、前記アウトバウンド経路と一致しない前記センサへの帰還経路に沿って単一の光ビームスポットの反射を受光するように構成されている、請求項126に記載のLIDARシステム。
- 前記スキャンサイクルで決定される異なる範囲測定値の数は前記複数の瞬時位置よりも多い、請求項126に記載のLIDARシステム。
- 前記少なくとも2つの異なる範囲測定値は少なくとも2つの異なる距離に対応する、請求項126に記載のLIDARシステム。
- 前記少なくとも2つの異なる範囲測定値は、物体の一部に対する第1の距離測定値及び前記物体の環境内の要素に対する第2の距離測定値を含む、請求項131に記載のLIDARシステム。
- 前記少なくとも2つの異なる範囲測定値は、物体の第1の部分に対する第1の距離測定値及び前記物体の第2の部分に対する第2の距離測定値を含む、請求項131に記載のLIDARシステム。
- 前記少なくとも2つの異なる範囲測定値は少なくとも2つの異なる強度に対応する、請求項126に記載のLIDARシステム。
- 前記少なくとも2つの異なる範囲測定値は、物体の第1の部分に関連付けられた第1の強度測定値及び前記物体の第2の部分に関連付けられた第2の強度測定値を含む、請求項135に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記単一の光ビームスポットの反射から複数のポイントクラウドデータエントリを発生するように構成されている、請求項126に記載のLIDARシステム。
- 前記複数のポイントクラウドデータエントリは2次元面を画定する、請求項137に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、第1の光ビームスポットの画像に関連付けられた第1の複数の範囲測定値及び第2の光ビームスポットの画像に関連付けられた第2の複数の範囲測定値を同時に決定するように構成され、前記第1の複数の範囲測定値は前記第2の複数の範囲測定値よりも多い、請求項126に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、共通の光偏向器に照準を合わせた複数の光源の光放出を同時に制御すると共に、各々が異なる帰還経路に沿って配置された複数のセンサから、異なる光ビームスポットの画像に関連付けられた信号を受信するように構成され
ている、請求項126に記載のLIDARシステム。 - 前記センサは、前記単一の光ビームスポットについて少なくとも2つの異なる飛行時間に関連付けられた反射を検出するように構成されている、請求項126に記載のLIDARシステム。
- 前記センサは、少なくとも4つの個別の検出器を備えた検出器の1次元アレイを含む、請求項126に記載のLIDARシステム。
- 前記センサは、少なくとも8つの個別の検出器を備えた検出器の2次元アレイを含む、請求項126に記載のLIDARシステム。
- 前記センサは複数の検出器を含み、少なくとも1つの検出器は単一光子検知検出器を含む、請求項126に記載のLIDARシステム。
- LIDARシステムを用いて物体を検出するための方法であって、
光源の光放出を制御することと、
前記光源のアウトバウンド経路に配置された少なくとも1つの光偏向器を繰り返し移動させることによって視野をスキャンすることであって、前記視野の単一のスキャンサイクル中に前記少なくとも1つの光偏向器は複数の位置に瞬時に配置される、ことと、
前記少なくとも1つの偏向器が特定の瞬時位置にある間、前記少なくとも1つの偏向器を介して、センサへの帰還経路に沿って単一の光ビームスポットの反射を受光することと、
前記センサから、各光ビームスポットの画像をビームスポットごとに受信することであって、前記センサは複数の検出器を含み、ビームスポットごとに各光ビームスポットの前記画像が複数の検出器に入射するように、各検出器のサイズは各光ビームスポットの前記画像よりも小さい、ことと、
前記複数の検出器に対する前記入射によって生じた信号から、前記単一の光ビームスポットの前記画像に関連付けられた少なくとも2つの異なる範囲測定値を決定することと、を含む方法。 - 前記スキャンサイクルで決定される前記少なくとも2つの異なる範囲測定値は前記複数の瞬時位置よりも多い、請求項145に記載の方法。
- 前記少なくとも2つの異なる範囲測定値は異なる強度及び距離のうち少なくとも1つに対応する、請求項145に記載の方法。
- 前記単一の光ビームスポットの反射から複数のポイントクラウドデータエントリを発生することを更に含む、請求項145に記載の方法。
- 第1の光ビームスポットの画像に関連付けられた第1の複数の範囲測定値及び第2の光ビームスポットの画像に関連付けられた第2の複数の範囲測定値を同時に決定することを更に含み、前記第1の複数の範囲測定値は前記第2の複数の範囲測定値よりも多い、請求項145に記載の方法。
- 命令を記憶している非一時的コンピュータ読み取り可能記憶媒体であって、前記命令は、少なくとも1つのプロセッサによって実行された場合、LIDARシステムを用いて物体を検出するための方法を前記少なくとも1つのプロセッサに実行させ、前記方法は、
光源の光放出を制御することと、
前記光源のアウトバウンド経路に配置された少なくとも1つの光偏向器を繰り返し移動
させることによって視野をスキャンすることであって、前記視野の単一のスキャンサイクル中に前記少なくとも1つの光偏向器は複数の位置に瞬時に配置される、ことと、
前記少なくとも1つの偏向器が特定の瞬時位置にある間、前記少なくとも1つの偏向器を介して、センサへの帰還経路に沿って単一の光ビームスポットの反射を受光することと、
前記センサから、各光ビームスポットの画像をビームスポットごとに受信することであって、前記センサは複数の検出器を含み、ビームスポットごとに各光ビームスポットの前記画像が複数の検出器に入射するように、各検出器のサイズは各光ビームスポットの前記画像よりも小さい、ことと、
前記複数の検出器に対する前記入射によって生じた信号から、前記単一の光ビームスポットの前記画像に関連付けられた少なくとも2つの異なる範囲測定値を決定することと、を含む、非一時的コンピュータ読み取り可能記憶媒体。 - 少なくとも1つのプロセッサであって、
少なくとも1つの偏向器が特定の瞬時位置にある間、複数の光源からの光を複数のアウトバウンド経路に沿って視野を形成する複数の領域の方へ偏向させるように、前記少なくとも1つの偏向器を制御し、
前記少なくとも1つの偏向器が前記特定の瞬時位置にある間、前記視野からの光反射が前記少なくとも1つの偏向器の少なくとも1つの共通エリアで受光されるように前記少なくとも1つの偏向器を制御し、前記少なくとも1つの共通エリアにおいて前記複数の光源のうち少なくともいくつかの前記光反射の少なくとも一部は相互に重なって入射し、
複数の検出器の各々から、前記少なくとも1つの偏向器が前記特定の瞬時位置にある間の前記少なくとも1つの共通エリアからの光反射を示す少なくとも1つの信号を受信する、
ように構成された少なくとも1つのプロセッサを備える、LIDARシステム。 - 前記複数の光源は少なくとも3つの別個の光源を含み、各光源は概ね前記視野の異なる領域に関連付けられている、請求項151に記載のLIDARシステム。
- 前記視野の少なくとも第1の領域は、少なくとも第2の領域に隣接すると共に少なくとも第3の領域から離間している、請求項152に記載のLIDARシステム。
- 前記複数の検出器は少なくとも3つの別個のセンサに関連付けられ、前記少なくとも3つの別個のセンサの各々は異なる光源に関連付けられ、前記複数の検出器は、前記視野の前記第1の領域に位置する第1の物体及び前記視野の前記第3の領域に位置する第2の物体を同時に検出するように構成されている、請求項153に記載のLIDARシステム。
- 前記視野の少なくとも各領域は前記視野の異なる角度部分に関連付けられている、請求項152に記載のLIDARシステム。
- 前記複数の光源は少なくとも2つの別個の光源を含み、前記少なくとも2つの別個の光源は前記視野の実質的に重複する領域に光を投影するよう構成されている、請求項151に記載のLIDARシステム。
- 各光源は異なる波長の光を投影するように構成されている、請求項151に記載のLIDARシステム。
- 少なくとも第1の光源は400nmから800nmの間の波長の光を投影するように構成され、少なくとも第2の光源は800nmより大きい波長の光を放出するように構成されている、請求項157に記載のLIDARシステム。
- 少なくとも第1の光源は800nmから1000nmの間の波長の光を投影するように構成され、少なくとも第2の光源は1500nmより大きい波長の光を放出するように構成されている、請求項157に記載のLIDARシステム。
- 前記複数の検出器は、前記少なくとも1つの光偏向器の特定の位置に関連付けられた少なくとも2つの異なる距離を測定するように構成された単一のセンサの一部である、請求項151に記載のLIDARシステム。
- 前記少なくとも1つの光偏向器は前記複数の光源とは別個の筐体内に収容されている、請求項151に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの偏向器を繰り返し移動させることによって前記視野をスキャンするように構成され、前記視野の単一のスキャンサイクル中、前記少なくとも1つの偏向器は複数の異なる瞬時位置に配置される、請求項151に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの共通エリアからの前記光反射に基づいて前記視野の異なる領域に関連した複数の距離測定値を決定するように構成されている、請求項151に記載のLIDARシステム。
- 前記少なくとも1つの偏向器は、2つの別個の軸に沿って枢動するように構成された単一の偏向器を含む、請求項151に記載のLIDARシステム。
- 前記少なくとも1つの偏向器は、個別に枢動するよう構成された複数の偏向器を備えた偏向器アレイを含む、請求項151に記載のLIDARシステム。
- 前記偏向器アレイに含まれる前記複数の偏向器は同期される、請求項165に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの偏向器の第1の瞬時位置において第1の光源が第2の光源よりも多くの光束を前記少なくとも1つの偏向器の方へ放出するように、かつ、前記少なくとも1つの偏向器の第2の瞬時位置において前記第2の光源が前記第1の光源よりも多くの光束を前記少なくとも1つの偏向器の方へ放出するように、前記複数の光源を制御するよう構成されている、請求項151に記載のLIDARシステム。
- LIDARシステムを用いて物体を検出するための方法であって、
少なくとも1つの偏向器が特定の瞬時位置にある間、複数の光源からの光を複数のアウトバウンド経路に沿って視野を形成する複数の領域の方へ偏向させるように、前記少なくとも1つの偏向器を移動させることと、
前記少なくとも1つの偏向器が前記特定の瞬時位置にある間、前記少なくとも1つの偏向器の少なくとも1つの共通エリア上で、前記視野内の物体からの前記複数の光源の光反射を受光することであって、前記少なくとも1つの共通エリアにおいて前記光反射の少なくとも一部は相互に重なって入射する、ことと、
複数の検出器の各々において、前記少なくとも1つの光偏向器が前記瞬時位置にある時の前記少なくとも1つの共通エリアからの光反射を受光することと、
を含む方法。 - 前記複数の光源は少なくとも3つの別個の光源を含み、各光源は概ね前記視野の異なる
領域に関連付けられている、請求項168に記載の方法。 - 前記複数の光源は少なくとも2つの別個の光源を含み、各光源は異なる波長の光を投影するように構成されている、請求項168に記載の方法。
- 前記少なくとも1つの共通エリアからの前記光反射に基づいて前記視野の異なる領域に関連した複数の距離測定値を決定することを更に含む、請求項168に記載の方法。
- 前記少なくとも1つの偏向器を繰り返し移動させることによって前記視野をスキャンすることを更に含み、前記視野の単一のスキャンサイクル中、前記少なくとも1つの偏向器は複数の異なる瞬時位置に配置される、請求項168に記載の方法。
- 本体と、
少なくとも1つのプロセッサであって、
少なくとも1つの偏向器に照準を合わせた複数の光源を制御し、
前記複数の光源からの反射を検出するように構成された複数の検出器からデータを受信し、
前記少なくとも1つの偏向器が特定の瞬時位置にある間、前記複数の光源からの光を複数のアウトバウンド経路に沿って視野を形成する複数の領域の方へ偏向させるように、前記少なくとも1つの偏向器を移動させ、
前記少なくとも1つの偏向器が前記特定の瞬時位置にある間、前記視野からの光反射が前記少なくとも1つの偏向器の少なくとも1つの共通エリアで受光されるように、前記少なくとも1つの偏向器を制御し、前記少なくとも1つの共通エリアにおいて前記複数の光源のうち少なくともいくつかの前記光反射の少なくとも一部は相互に重なって入射し、
複数の検出器の各々から、前記少なくとも1つの偏向器が前記特定の瞬時位置にある間の前記少なくとも1つの共通エリアからの光反射を示す少なくとも1つの信号を受信する、
ように構成された少なくとも1つのプロセッサと、
を備える車両。 - LIDARシステムであって、
少なくとも1つのプロセッサであって、
メモリに記憶された光学予算にアクセスし、前記光学予算は、少なくとも1つの光源に関連付けられると共に前記少なくとも1つの光源によって所定の時間期間内に放出可能な光量を規定し、
前記LIDARシステムのプラットフォーム条件を示す情報を受信し、
前記受信した情報に基づいて、スキャンレート、スキャンパターン、スキャン角、空間光分布、及び時間光分布のうち少なくとも2つに基づいて、前記LIDARシステムの視野に前記光学予算を動的に配分し、
前記動的に配分した光学予算に従って前記視野のスキャンにおいて光束を変動させ得るように前記少なくとも1つの光源を制御するための信号を出力する、
ように構成された少なくとも1つのプロセッサを備える、LIDARシステム。 - 前記少なくとも1つのプロセッサは更に、前記視野をスキャンするため少なくとも1つの光偏向器を制御するように構成され、単一のスキャンサイクル中、前記少なくとも1つの光偏向器は複数の異なる瞬時位置に配置される、請求項174に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合、光ビームの一部が前記少なくとも1つの光偏向器によって前記少
なくとも1つの光源から前記視野内の物体の方へ偏向されると共に前記物体からの前記光ビームの前記一部の反射が前記少なくとも1つの光偏向器によって少なくとも1つのセンサの方へ偏向されるように、前記少なくとも1つの光偏向器と前記少なくとも1つの光源を連携させるよう構成されている、請求項175に記載のLIDARシステム。 - 前記少なくとも1つの光偏向器に照準を合わせた複数の光源を更に備え、少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合に前記複数の光源からの光が前記視野の複数の別個の領域の方へ投影されるように、前記少なくとも1つの光偏向器を制御するよう構成されている、請求項175に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記動的に配分した光学予算に従って前記少なくとも1つの光源と前記少なくとも1つの光偏向器を連携させるように構成されている、請求項175に記載のLIDARシステム。
- 単一の光源当たりの平均光学予算は10ミリワットから1,000ミリワットの間である、請求項174に記載のLIDARシステム。
- 前記光学予算は単一のスキャンサイクルに放出可能な光量を規定する、請求項174に記載のLIDARシステム。
- 前記光学予算は標準的な時間単位に放出可能な光量を規定する、請求項174に記載のLIDARシステム。
- 前記LIDARシステムの前記プラットフォーム条件は前記LIDARシステムの少なくとも1つのコンポーネントの温度を示す情報を含む、請求項174に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、単一のスキャンサイクル中に前記視野の第2の部分よりも多くの光が前記視野の第1の部分の方へ投影されるように、前記受信した情報に基づいて前記空間光分布を決定するよう構成されている、請求項174に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、関心領域としての前記第1の領域の識別及び非関心領域としての前記第2の領域の識別を取得するように構成されている、請求項183に記載のLIDARシステム。
- 関心領域としての前記第1の領域の前記取得された識別は前記LIDARシステムが展開されている車両の現在の運転モードに基づく、請求項184に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第2の部分における物体の存在を決定し、前記第2の部分へ投影される光の蓄積エネルギ密度が最大許容可能露光量を超えるのを防ぐように構成されている、請求項183に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、時間光分布を決定し、第1のスキャンサイクルで投影される全体的な光量が第2の後続のスキャンサイクルで投影される全体的な光量よりも多いように光束を制御するよう構成されている、請求項174に記載のLIDARシステム。
- 前記光学予算の前記動的な配分の少なくとも一部として、前記少なくとも1つのプロセッサは、前記視野の近視野部分、前記視野の遠視野部分、前記視野の狭角セクタ、及び前記視野の広角セクタのうち少なくとも1つのスキャンレートを決定するように構成されている、請求項174に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、少なくとも1つのスキャンサイクルのスキャンパターンを決定するように構成され、前記スキャンパターンは、以下の状況タイプ、すなわち、幹線道路の運転、オフロードの運転、雨天での運転、雪の中での運転、霧の中での運転、都市エリアでの運転、農村エリアでの運転、既定の施設付近のエリアの運転、左折、右折、車線横断、及び横断歩道への接近、のうち少なくとも1つの認識に基づいて決定される、請求項174に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記LIDARシステムの動作パラメータ及び前記LIDARシステムによって与えられる検出情報のうち少なくとも1つに基づいて前記光学予算を変更するように構成されている、請求項174に記載のLIDARシステム。
- 前記光学予算は、車両の周りの異なる位置で展開される複数の光源に関連付けられ、前記光学予算は、前記所定の時間期間において配分に利用できる前記複数の光源からの放出可能な光量を規定し、前記少なくとも1つのプロセッサは更に、前記受信した情報に基づいて前記光学予算を動的に配分するように構成されている、請求項174に記載のLIDARシステム。
- 前記プロセッサは、前記複数の光源中の第1の光源に対する光学予算配分と前記複数の光源中の第2の光源に対する光学予算配分との比を変動させるように構成されている、請求項191に記載のLIDARシステム。
- 前記LIDARシステムの前記プラットフォーム条件は、車両動作パラメータ、環境条件、運転決定、車両のナビゲーション状態、又はパワー管理モードのうち少なくとも1つを含む、請求項174に記載のLIDARシステム。
- 前記環境条件は、気候条件、照明条件、環境の温度、及び既定のタイプの施設に対する近接のうち少なくとも1つを含み、
前記運転決定は、農村部関連の指示、都市部関連の指示、前記LIDARシステムを含む車両の現在の速度、次の運転手順、運転ナビゲーションイベント、マニュアル運転指示、及び自動運転指示のうち少なくとも1つを含み、
前記パワー管理モードは、通常パワー動作モード及び節電モードの指示のうち少なくとも1つを含む、請求項193に記載のLIDARシステム。 - LIDARシステムを用いて物体を検出するための方法であって、
メモリに記憶された光学予算にアクセスすることであって、前記光学予算は、少なくとも1つの光源に関連付けられると共に前記少なくとも1つの光源によって所定の時間期間内に放出可能な光量を規定する、ことと、
環境条件、運転決定、及びパワー管理モードのうち少なくとも1つを含む、車両動作パラメータに関する情報を受信することと、
前記受信した情報に基づいて、スキャンレート、スキャンパターン、スキャン角、空間光分布、及び時間光分布のうち少なくとも2つに基づいて、前記LIDARシステムの視野に前記光学予算を動的に配分することと、
前記動的に配分した光学予算に従って前記視野のスキャンにおいて光束を変動させ得るように前記少なくとも1つの光源を制御するための信号を出力することと、
を含む方法。 - 空間光分布に基づいて前記光学予算を動的に配分することは、単一のスキャンサイクル中に前記視野の第2の部分よりも多くの光を前記視野の第1の部分の方へ投影することを含む、請求項194に記載の方法。
- 関心領域としての前記第1の領域の識別及び非関心領域としての前記第2の領域の識別を取得することを更に含む、請求項196に記載の方法。
- 命令を記憶している非一時的コンピュータ読み取り可能記憶媒体であって、前記命令は、少なくとも1つのプロセッサによって実行された場合、LIDARシステムを用いて物体を検出するための方法を前記少なくとも1つのプロセッサに実行させ、前記方法は、
メモリに記憶された光学予算にアクセスすることであって、前記光学予算は、少なくとも1つの光源に関連付けられると共に前記少なくとも1つの光源によって所定の時間期間内に放出可能な光量を規定する、ことと、
環境条件、運転決定、及びパワー管理モードのうち少なくとも1つを含む、車両動作パラメータに関する情報を受信することと、
前記受信した情報に基づいて、スキャンレート、スキャンパターン、スキャン角、空間光分布、及び時間光分布のうち少なくとも2つに基づいて、前記LIDARシステムの視野に前記光学予算を動的に配分することと、
前記動的に配分した光学予算に従って前記視野のスキャンにおいて光束を変動させ得るように前記少なくとも1つの光源を制御するための信号を出力することと、
を含む、非一時的コンピュータ読み取り可能記憶媒体。 - 少なくとも1つの光源によって所定の時間期間内に放出可能な光量を動的に配分するためのLIDARシステムであって、
少なくとも1つのプロセッサであって、
環境条件、運転決定、及びパワー管理モードのうち少なくとも1つを含む、車両動作パラメータに関する情報を受信し、
前記受信した情報に基づいて、スキャンレート、スキャンパターン、スキャン角、空間光分布、及び時間光分布のうち少なくとも2つを変動させることにより、前記少なくとも1つの光源によって放出される光を動的に配分し、
前記少なくとも1つの光源によって放出される光の前記動的な配分に従って視野をスキャンする場合に光束を変動させ得るように前記少なくとも1つの光源を制御するための信号を出力する、
ように構成された少なくとも1つのプロセッサを備える、LIDARシステム。 - 車両での使用向けに構成されたLIDARのための振動抑制システムであって、
少なくとも1つのプロセッサであって、
視野のスキャンにおいて少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御し、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器の位置決めを制御し、
前記車両の振動を示すデータを取得し、
前記取得したデータに基づいて、前記車両の前記振動を補償するため前記少なくとも1つの光偏向器の前記位置決めに対する調整を決定し、
前記少なくとも1つの光偏向器の前記位置決めに対する前記決定された調整を実施することにより、前記少なくとも1つの光偏向器において、前記視野の前記スキャンに対する前記車両の前記振動の影響の少なくとも一部を抑制する、
ように構成された少なくとも1つのプロセッサを備える、振動抑制システム。 - 前記少なくとも1つのプロセッサは更に、スキャンサイクル中、前記少なくとも1つの光偏向器が複数の異なる瞬時位置に配置されるように前記少なくとも1つの光偏向器を制御するよう構成されている、請求項200に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合、光ビームが前記少なくとも1つの光偏向器によって前記少なくとも1つの光源から前記視野内の物体の方へ偏向されると共に前記物体からの反射が前記少なくとも1つの光偏向器によって少なくとも1つのセンサの方へ偏向されるように、前記少なくとも1つの光偏向器の制御と前記少なくとも1つの光源の制御を連携させるように構成されている、請求項201に記載のLIDARシステム。
- 前記少なくとも1つの光偏向器に照準を合わせた複数の光源を更に備え、前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合に前記複数の光源からの光が前記視野を形成する複数の別個の領域の方へ投影されるように、前記少なくとも1つの光偏向器を制御するよう構成されている、請求項201に記載のLIDARシステム。
- 前記車両の前記振動を示すデータは前記少なくとも1つの光偏向器以外のセンサから受信された情報を含む、請求項200に記載のシステム。
- 前記車両の前記振動を示すデータは前記少なくとも1つの光偏向器の少なくとも一部からから受信された情報を含む、請求項200に記載のシステム。
- 前記少なくとも1つの光源からの偏向された光による前記視野のスキャンを可能とするように移動するよう構成された複数の光偏向器を更に備え、前記少なくとも1つのプロセッサは更に、前記複数の光偏向器のうち少なくとも1つを振動センサとして用いて前記車両の前記振動を示す前記データを決定するように構成されている、請求項200に記載のシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器の現在の位置を検出するように構成された追加のセンサから前記車両の前記振動を示す前記データを受信するよう構成されている、請求項200に記載のシステム。
- 光の反射を少なくとも1つのセンサの方へ偏向させ得るように移動するよう構成された複数の光偏向器要素を更に備え、前記少なくとも1つのプロセッサは更に、追加のセンサから前記データを受信するように構成され、前記データは、前記複数の光偏向器要素のうち少なくとも1つの現在の位置を示す情報を含み、前記少なくとも1つのプロセッサは更に、前記データを用いて前記複数の光偏向器要素の各々の位置を補正するように構成されている、請求項200に記載のシステム。
- 前記光偏向器要素の各々は枢動可能ミラーを含む、請求項208に記載のシステム。
- 前記少なくとも1つの光源からの偏向された光による前記視野のスキャンを可能とするように移動するよう構成された複数の光偏向器要素を更に備え、前記少なくとも1つのプロセッサは更に、少なくとも1つの追加のセンサから前記データを受信するように構成され、前記データは、前記複数の光偏向器要素の各々の現在位置を示す情報、各光偏向器要素の現在の位置を示す情報を含み、各光偏向器要素に一意の前記情報を用いて各光偏向器要素の位置を補正する、請求項200に記載のシステム。
- 前記少なくとも1つの光偏向器はMEMSミラーアレイを含み、前記複数の光偏向器要素の各々は前記MEMSミラーアレイ内の別個のミラーを含む、請求項210に記載のシステム。
- 前記少なくとも1つの光偏向器の要求される位置にアクセスし、前記少なくとも1つの光偏向器の瞬時角度位置を決定し、前記要求される位置と前記瞬時角度位置との差を補償するように前記少なくとも1つの光偏向器の前記瞬時角度位置を変更するための制御ループを更に含む、請求項200に記載のシステム。
- 前記少なくとも1つのプロセッサは更に、光学測定、容量測定、圧電抵抗測定、誘電率測定、及び圧電分極測定のうち少なくとも1つに基づいて、前記少なくとも1つの光偏向器の前記瞬時角度位置を決定するように構成されている、請求項212に記載のシステム。
- 前記少なくとも1つのプロセッサは更に、前記車両の傾斜角を示す入力を取得し、前記入力に基づいて前記少なくとも1つの光偏向器の前記位置決めに対する調整を決定し、前記決定された調整に基づいて前記少なくとも1つの光偏向器を移動させるように構成されている、請求項200に記載のシステム。
- 前記車両の前記振動を示す前記データに基づいて、前記少なくとも1つのプロセッサは更に、スキャンレート、スキャンパターン、空間光分布、時間光分布のうち少なくとも1つを変化させるように構成されている、請求項200に記載のシステム。
- 前記少なくとも1つの光偏向器は1000Hz未満の共振周波数を有する、請求項200に記載のシステム。
- 前記少なくとも1つの光偏向器は少なくとも4.5mmの幅を有する単一のMEMSミラーを含む、請求項200に記載のシステム。
- 少なくとも1つの光偏向器は、各ミラーが少なくとも2mmの幅を有するミラーの2次元アレイを含む、請求項200に記載のシステム。
- 前記少なくとも1つのプロセッサは更に、スキャンサイクル中に前記少なくとも1つの光偏向器が前記視野の異なる部分の方へ光を偏向させるように前記少なくとも1つの光偏向器を位置決めするため、圧電材料を含む1つ以上のアクチュエータを制御するよう構成されている、請求項200に記載のシステム。
- 車両での使用向けに構成されたLIDARの振動を抑制するための方法であって、
視野のスキャンにおいて少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御することと、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器の位置決めを制御することと、
前記車両の振動を示すデータを取得することと、
前記取得したデータに基づいて、前記車両の前記振動を補償するため前記少なくとも1つの光偏向器の前記位置決めに対する調整を決定することと、
前記少なくとも1つの光偏向器の前記位置決めに対する前記決定された調整を実施することにより、前記少なくとも1つの光偏向器において、前記視野の前記スキャンに対する前記車両の前記振動の影響の少なくとも一部を抑制することと、
を含む方法。 - 前記少なくとも1つの光偏向器は1000Hz未満の共振周波数を有する、請求項220に記載の方法。
- 前記車両の振動を示す前記データは、前記車両の振動の測定に関連した情報及び前記車両の振動によって影響を受ける前記LIDARの振動の測定に関連した情報のうち少なくとも1つを含む、請求項220に記載の方法。
- 前記少なくとも1つの光偏向器の要求される位置にアクセスし、前記少なくとも1つの光偏向器の瞬時角度位置を決定し、前記要求される位置と前記瞬時角度位置との差を補償するように前記少なくとも1つの光偏向器の前記瞬時角度位置を変更することを更に含む、請求項220に記載の方法。
- 前記少なくとも1つの光偏向器の前記瞬時角度位置を決定することは、光学測定、容量測定、圧電抵抗測定、誘電率測定、及び圧電分極測定のうち少なくとも1つに基づく、請求項223に記載の方法。
- 命令を記憶している非一時的コンピュータ読み取り可能記憶媒体であって、前記命令は、少なくとも1つのプロセッサによって実行された場合、LIDARが配置された車両の振動を抑制するための方法を前記少なくとも1つのプロセッサに実行させ、前記方法は、
視野のスキャンにおいて少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御することと、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器の位置決めを制御することと、
前記車両の振動を示すデータを取得することと、
前記取得したデータに基づいて、前記車両の前記振動を補償するため前記少なくとも1つの光偏向器の前記位置決めに対する調整を決定することと、
前記決定された調整に基づいて前記少なくとも1つの光偏向器を制御することにより、前記視野の前記スキャンに対する前記車両の前記振動の影響の少なくとも一部を抑制することと、
を含む、非一時的コンピュータ読み取り可能記憶媒体。 - 少なくとも1つのプロセッサであって、
視野のスキャンサイクルにおいて少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御し、前記少なくとも1つの光源から投影された前記光は前記視野をスキャンするため少なくとも1つの偏向器に誘導され、
前記視野内の物体から反射された光を示す反射信号を少なくとも1つのセンサから受信し、
スキャンサイクルにおいて前記視野の少なくとも3つのセクタが発生するように光束とスキャンを連携させ、第1のセクタは第1の光束及び関連付けられた第1の検出範囲を有し、第2のセクタは第2の光束及び関連付けられた第2の検出範囲を有し、第3のセクタは第3の光束及び関連付けられた第3の検出範囲を有し、前記第2の光束は前記第1の光束及び前記第3の光束の各々よりも多く、
前記少なくとも1つのセンサからの入力に基づいて、前記第1の検出範囲及び前記第3の検出範囲よりも遠い距離に位置する前記第2のセクタ内の物体を検出する、
ように構成された少なくとも1つのプロセッサを備える、LIDARシステム。 - 前記少なくとも1つのプロセッサは更に、前記視野のスキャンサイクル中、前記少なくとも1つの光偏向器が複数の異なる瞬時位置に配置されるように前記少なくとも1つの光偏向器を制御するよう構成されている、請求項226に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合、光ビームの一部が前記少なくとも1つの光偏向器によって前記少なくとも1つの光源から前記視野内の物体の方へ偏向されると共に前記物体からの前記光ビームの前記一部の反射が前記少なくとも1つの光偏向器によって少なくとも1つのセンサの方へ偏向されるように、前記少なくとも1つの光偏向器と前記少なくとも1つの光源を連携させるよう構成されている、請求項227に記載のLIDARシステム。
- 前記少なくとも1つの光偏向器に照準を合わせた複数の光源を更に備え、前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合に前記複数の光源からの光が前記視野の複数の別個の領域の方へ投影されるように、前記少なくとも1つの光偏向器を制御するよう構成されている、請求項227に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、複数のスキャンサイクルにおいて少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御するよう、及び、前記第2のセクタを前記第1のセクタ及び前記第3のセクタに対して移動させるよう構成されている、請求項227に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記LIDARシステムが展開されている車両が移動する際、前記第2のセクタを前記視野内でスイープ運動で移動させるように構成されている、請求項230に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記車両の現在の運転モードに基づいて前記第2のセクタに既定のスイープパターンを選択するように構成されている、請求項231に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第1のセクタ及び前記第3のセクタの外側境界よりも遠くの前記第2のセクタ内の物体を検出するように、及び、複数のスイープにわたって前記第2のセクタ内の前記物体を検出するように構成されている、請求項231に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第1の光束、前記第2の光束、及び前記第3の光束の各々が少なくとも2つの連続するスキャンサイクルについて実質的に同じ光束値を有するように、前記少なくとも1つの光源を制御するよう構成されている、請求項230に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、第1のグループのスキャンサイクルにおいて前記第2のセクタが前記視野の第1のエリアをスイープし、第2の連続したグループのスキャンサイクルにおいて前記第2のセクタが前記第1のエリア以外の前記視野の第2のエリアをスイープするように、前記第2のセクタを非連続的にスイープさせるよう構成されている、請求項231に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、少なくとも2つの連続したスキャンサイクルにおいて前記第1の光束及び前記第3の光束が相互に実質的に等しいように前記少なくとも1つの光源を制御するよう構成されている、請求項226に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、少なくとも2つの連続したスキャンサイクルにおいて前記第1の光束が前記第3の光束よりも多いように前記少なくとも1つの光源を制御するよう構成されている、請求項226に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第2のセクタが前記第1及び第3のセクタによって完全に囲まれるように光束とスキャンを連携させるよう構成されている、請求項226に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、各スキャンサイクルにおいて前記第2のセクタの少なくとも一部が水平線よりも下にあるように、複数の連続したスキャンサイクルにおいて前記第2のセクタをスイープさせるよう構成されている、請求項238に記載のLIDARシステム。
- 前記第2の検出範囲は前記第1及び第3の検出範囲よりも少なくとも50%遠くに延出する、請求項226に記載のLIDARシステム。
- LIDARを用いて物体を検出するための方法であって、
視野のスキャンサイクルにおいて少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御することであって、前記少なくとも1つの光源から投影された前記光は前記視野をスキャンするため少なくとも1つの光偏向器に誘導される、ことと、
前記視野内の物体から反射された光を示す反射信号を少なくとも1つのセンサから受信することと、
スキャンサイクルにおいて少なくとも3つのセクタが発生するように光束とスキャンを連携させることであって、第1のセクタは第1の光束及び関連付けられた第1の点分解能を有し、第2のセクタは第2の光束及び関連付けられた第2の点分解能を有し、第3のセクタは第3の光束及び関連付けられた第3の点分解能を有し、前記第2の光束は前記第1の光束及び前記第3の光束の各々よりも多い、ことと、
前記少なくとも1つのセンサからの入力に基づいて、前記第1の点分解能及び前記第3の点分解能よりも大きい点分解能の前記第2のセクタ内の物体を検出することと、
を含む方法。 - 第2の点分解能を用いて前記第2のセクタ内の物体を検出することを更に含み、前記第2のセクタにおける各ポイント間の平均空間は前記第1のセクタ及び前記第3のセクタにおけるポイント間の平均空間の約50%未満である、請求項241に記載の方法。
- 前記第2のセクタからの反射から導出できる情報は、前記第1のセクタ及び前記第3のセクタからの反射から導出できる情報よりも高い精度で物体の検出を可能とする、請求項241に記載の方法。
- 前記第2のセクタが前記第1及び第3のセクタによって完全に囲まれるように光束とスキャンを連携させることを更に含む、請求項241に記載の方法。
- 前記第1の光束及び前記第3の光束が実質的に同一であると共に、前記第2の検出範囲が前記第1の検出範囲及び第3の検出範囲よりも少なくとも50%遠くに延出するように、前記少なくとも1つの光源を制御することを更に含む、請求項241に記載の方法。
- 命令を記憶している非一時的コンピュータ読み取り可能記憶媒体であって、前記命令は、少なくとも1つのプロセッサによって実行された場合、LIDARシステムを用いて物体を検出するための方法を前記少なくとも1つのプロセッサに実行させ、前記方法は、
視野のスキャンサイクルにおいて少なくとも1つの光源からの光束を変動させ得るように前記少なくとも1つの光源を制御することであって、前記少なくとも1つの光源から投影された前記光は前記視野をスキャンするため少なくとも1つの光偏向器に誘導される、
ことと、
前記視野内の物体から反射された光を示す反射信号を少なくとも1つのセンサから受信することと、
スキャンサイクルにおいて少なくとも3つのセクタが発生するように光束とスキャンを連携させることであって、第1のセクタは第1の光束及び関連付けられた第1の検出範囲を有し、第2のセクタは第2の光束及び関連付けられた第2の検出範囲を有し、第3のセクタは第3の光束及び関連付けられた第3の検出範囲を有し、前記第2の光束は前記第1の光束及び前記第3の光束の各々よりも多い、ことと、
前記少なくとも1つのセンサからの入力に基づいて、前記第1の検出範囲及び前記第3の検出範囲よりも遠い距離に位置する前記第2のセクタ内の物体を検出することと、
を含む、非一時的コンピュータ読み取り可能記憶媒体。 - 少なくとも1つのプロセッサであって、
近視野部分及び遠視野部分を含む視野の複数のスキャンにおいて少なくとも1つの光源の光束を変動させ得るように前記少なくとも1つの光源を制御し、
前記視野をスキャンするように前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、
前記近視野部分をカバーするスキャンサイクルに関連した第1のフレームに対する第1のスキャンレートと、前記遠視野部分をカバーするスキャンサイクルに関連した第2のフレームに対する第2のスキャンレートとを実施し、前記第1のスキャンレートは前記第2のレートよりも大きく、
前記近視野部分に関連した複数の順次的な第1のフレームにおける物体の検出を可能とする光の投影後、光源パラメータを変更し、これによって前記遠視野部分に関連した前記第2のフレームにおける物体の検出を可能とするように光を投影するよう、前記少なくとも1つの光源を制御する、
ように構成された少なくとも1つのプロセッサを備える、LIDARシステム。 - 前記少なくとも1つのプロセッサは更に、前記スキャンサイクル中、前記少なくとも1つの光偏向器が複数の異なる瞬時位置に配置されるように前記少なくとも1つの光偏向器を制御するよう構成されている、請求項247に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合、光ビームの一部が前記少なくとも1つの光偏向器によって前記少なくとも1つの光源から前記視野内の物体の方へ偏向されると共に前記物体からの反射が前記少なくとも1つの光偏向器によって少なくとも1つのセンサの方へ偏向されるように、前記少なくとも1つの光偏向器と前記少なくとも1つの光源を連携させるよう構成されている、請求項248に記載のLIDARシステム。
- 前記少なくとも1つの光偏向器における共通エリアに照準を合わせた複数の光源を更に備え、少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合に前記複数の光源からの光が前記視野の複数の別個の領域の方へ投影されるように、前記少なくとも1つの光偏向器を制御するよう構成されている、請求項248に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記LIDARシステムから50メートル未満である前記視野の前記近視野部分における物体の検出を可能とし、更に、前記LIDARシステムから100メートルを超える前記視野の前記遠視野部分における物体の検出を可能とするように、前記光源を制御するよう構成されている、請求項247に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つのセンサから、前記視野の前記遠視野部分に位置する物体を検出するため前記第2のフレームに関連した情報を受信するように構成されている、請求項247に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つのセンサから、前記視野の前記近視野部分に位置する物体を検出するため前記第2のフレームに関連した情報を受信するように構成されている、請求項247に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、第2のスキャンレートよりも少なくとも5倍速い第1のスキャンレートを実施するように構成されている、請求項247に記載のLIDARシステム。
- 前記第2のフレームに関連した検出距離は前記第1のフレームに関連した検出距離よりも少なくとも50%遠くに延出する、請求項247に記載のLIDARシステム。
- 前記第1のフレームにおけるポイント間の平均空間は前記第2のフレームにおけるポイント間の平均空間の約75%未満である、請求項247に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第1のフレームにおける空間光分布が前記第2のフレームにおける空間光分布とは異なり、前記第2のフレームと実質的に同じ光量が前記第1のフレームで放出されるように、前記少なくとも1つの光源を制御するよう構成されている、請求項247に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第1のフレームにおいて第1の光分布スキームが用いられ、前記第2のフレームにおいて前記第1の光分布スキーム以外の第2の光分布スキームが用いられるように、前記少なくとも1つの光源を制御するよう構成されている、請求項247に記載のLIDARシステム。
- 前記第2の光分布スキームに関連したスキャンサイクル中、前記第1の光分布スキームに関連した前記近視野部分内のエリアの方へ放出されるよりも多くの光が前記視野の水平線に近い前記遠視野部分内のエリアの方へ放出される、請求項258に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記LIDARシステムを収容している車両の現在の運転モードに基づいて前記第1のスキャンレート及び前記第2のスキャンレートを実施するように構成されている、請求項247に記載のLIDARシステム。
- 少なくとも1つのプロセッサは更に、前記LIDARシステムを収容している車両の現在の速度に基づいて前記第1のスキャンレート及び前記第2のスキャンレートを実施するように構成されている、請求項247に記載のLIDARシステム。
- LIDARシステムを用いて物体を検出するための方法であって、
近視野部分及び遠視野部分を含む視野の複数のスキャンにおいて少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御することと、
前記視野をスキャンするように前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御することと、
前記近視野部分をカバーするスキャンサイクルに関連した第1のフレームに対する第1のスキャンレートと、前記遠視野部分をカバーするスキャンサイクルに関連した第2のフレームに対する第2のスキャンレートとを実施することであって、前記第1のスキャンレートは前記第2のレートよりも大きい、ことと、
前記近視野部分に関連した複数の順次的な第1のフレームにおける物体の検出を可能とする光の投影後、光源パラメータを変更し、これによって前記遠視野部分をカバーする前記第2のフレームにおける物体の検出を可能とするように前記近視野部分よりも遠くに光を投影するよう、前記少なくとも1つの光源を制御することと、
を含む方法。 - 前記少なくとも1つのセンサから、前記視野の前記遠視野部分に位置する第1の物体及び前記近視野部分に位置する第2の物体を検出するため前記第2のフレームに関連した情報を受信することを更に含む、請求項262に記載の方法。
- 前記第1のスキャンレートは第2のスキャンレートよりも少なくとも5倍速い、請求項262に記載の方法。
- 前記第2のフレームに関連した検出距離は前記第1のフレームに関連した検出距離よりも少なくとも50%遠くに延出する、請求項262に記載の方法。
- 前記第1のフレームにおけるポイント間の平均空間は前記第2のフレームにおけるポイント間の平均空間の約75%未満である、請求項262に記載の方法。
- 本体と、
少なくとも1つのプロセッサであって、
近視野部分及び遠視野部分を含む視野の複数のスキャンにおいて少なくとも1つの光源の光束を変動させ得るように前記少なくとも1つの光源を制御し、
前記視野をスキャンするように前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、
前記近視野部分をカバーするスキャンサイクルに関連した第1のフレームに対する第1のスキャンレートと、前記遠視野部分をカバーするスキャンサイクルに関連した第2のフレームに対する第2のスキャンレートとを実施し、前記第1のスキャンレートは前記第2のレートよりも大きく、
前記近視野部分に関連した複数の順次的な第1のフレームにおける物体の検出を可能とする光の投影後、光源パラメータを変更し、これによって前記遠視野部分をカバーする前記第2のフレームにおける物体の検出を可能とするように前記近視野部分よりも遠くに光を投影するよう、前記少なくとも1つの光源を制御する、
ように構成された少なくとも1つのプロセッサと、
を備える車両。 - 車両で使用するためのLIDARシステムであって、
少なくとも1つのプロセッサであって、
視野のスキャンにおいて少なくとも1つの光源の光束を変動させ得るように前記少なくとも1つの光源を制御し、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、
前記車両の現在の運転環境を示す入力を受信し、
前記現在の運転環境に基づいて、前記視野のスキャンにおいて投影される光量及び光の空間光分布を変動させることによって瞬時検出距離を動的に調整するように前記少なくとも1つの光源の制御と前記少なくとも1つの光偏向器の制御を連携させる、
ように構成された少なくとも1つのプロセッサを備えるLIDARシステム。 - 前記少なくとも1つのプロセッサは更に、単一のスキャンサイクル中、前記少なくとも1つの光偏向器が複数の異なる瞬時位置に配置されるように前記少なくとも1つの光偏向
器を制御するよう構成されている、請求項268に記載のLIDARシステム。 - 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合、光ビームの一部が前記少なくとも1つの光偏向器によって前記少なくとも1つの光源から前記視野内の物体の方へ偏向されると共に前記光ビームの前記一部の反射が前記物体から少なくとも1つのセンサの方へ偏向されるように、前記少なくとも1つの光偏向器と前記少なくとも1つの光源を連携させるよう構成されている、請求項269に記載のLIDARシステム。
- 前記少なくとも1つの光偏向器の共通エリアに照準を合わせた複数の光源を更に備え、前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合に前記複数の光源からの光が前記視野を形成する複数の別個の領域の方へ投影されるように、前記少なくとも1つの光偏向器を制御するよう構成されている、請求項269に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記視野の第1の部分における検出距離が先行スキャンサイクルから拡大すると共に前記視野の第2の部分における検出距離が前記先行スキャンサイクルから縮小するように、前記単一のスキャンサイクルにおける前記瞬時検出距離を動的に調整するよう構成されている、請求項269に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記視野の前記第1の部分に関連した瞬時点分解能を動的に調整するように前記少なくとも1つのスキャンサイクルにおける前記少なくとも1つの光源と前記少なくとも1つの光偏向器の制御を連携させるよう構成されている、請求項269に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記現在の運転環境に基づいて、前記視野の近視野部分で物体を検出するための第1のスキャンサイクルレート及び前記視野の遠視野部分で物体を検出するための第2のスキャンサイクルレートを動的に調整するように、複数のスキャンサイクルにおける前記少なくとも1つの光源と前記少なくとも1つの光偏向器の制御を連携させるよう構成されている、請求項269に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記現在の運転環境を示す前記受信された入力に対応する環境タイプに基づいて前記少なくとも1つの光源を制御するように構成されていえる、請求項268に記載のLIDARシステム。
- 前記受信された入力は農村部関連の指示及び都市部関連の指示のうち少なくとも1つを含む、請求項268に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記車両が都市エリアに位置する時を判定し、非都市エリアで用いられるスキャンサイクルレートに比べて増大したスキャンサイクルレートを生成するために前記少なくとも1つの光源制御及び前記少なくとも1つの光偏向器の制御を連携させるよう構成されている、請求項276に記載のLIDARシステム。
- 前記受信された入力は光条件に関連した情報を含む、請求項268に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記車両がトンネルから出た時を判定し、前記車両が前記トンネル内に位置していた時に前記視野の少なくとも1つの部分において用いた光放出に比べて前記少なくとも1つの部分における光放出を増大させるために前記少
なくとも1つの光源及び前記少なくとも1つの光偏向器の制御を連携させるよう構成されている、請求項278に記載のLIDARシステム。 - 前記受信された入力は気候条件に関連した情報を含む、請求項268に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記車両が雨天で運転している時を判定し、雨滴の反射を無視するように少なくとも1つのセンサからの出力に関連した感度モードを調整するよう構成されている、請求項280に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、GPS、車両ナビゲーションシステム、車両コントローラ、レーダ、LIDAR、及びカメラのうち少なくとも1つから、前記現在の運転環境を示す前記入力を受信するように構成されている、請求項268に記載のLIDARシステム。
- LIDARを用いて車両の経路内の物体を検出するための方法であって、
視野のスキャンにおいて少なくとも1つの光源の光束を変動させ得るように前記少なくとも1つの光源を制御することと、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御することと、
前記車両の現在の運転環境を示す入力を受信することと、
前記現在の運転環境に基づいて、前記視野のスキャンにおいて投影される光量及び光の空間光分布を変動させることによって瞬時検出距離を動的に調整するように前記少なくとも1つの光源制御の制御と前記少なくとも1つの光偏向器の制御を連携させることと、
を含む方法。 - 前記視野の第1の部分における検出距離が先行スキャンサイクルから拡大すると共に前記視野の第2の部分における検出距離が前記先行スキャンサイクルから縮小するように、単一のスキャンサイクルにおける前記瞬時検出距離を動的に調整することを更に含む、請求項283に記載の方法。
- 前記視野の前記第1の部分に関連した瞬時点分解能を動的に調整するように前記少なくとも1つの光源の制御と前記少なくとも1つの光偏向器の制御を連携させることを更に含む、請求項283に記載の方法。
- 前記視野の近視野部分で物体を検出するための第1のスキャンサイクルレートを動的に調整すると共に前記視野の遠視野部分で物体を検出するための第2のスキャンサイクルレートを動的に調整するように、前記少なくとも1つの光源の制御と前記少なくとも1つの光偏向器の制御を連携させることを更に含む、請求項283に記載の方法。
- 前記受信された入力は、少なくとも1つの農村部関連の指示、都市部関連の指示、光条件に関連した情報、気候条件に関連した情報、及び前記車両の速度に関連した情報を含む、請求項283に記載の方法。
- 車両本体と、
前記車両本体内に位置する少なくとも1つのプロセッサであって、
視野のスキャンにおいて少なくとも1つの光源の光束を変動させ得るように前記少なくとも1つの光源を制御し、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、
現在の運転環境を示す入力を受信し、
前記現在の運転環境に基づいて、前記視野のスキャンにおいて投影される光量及び光の空間光分布を変動させることによって瞬時検出距離を動的に調整するように前記少なくとも1つの光源の制御と前記少なくとも1つの光偏向器の制御を連携させる、
ように構成された少なくとも1つのプロセッサと、
を備える車両。 - 車両で使用するためのLIDARシステムであって、
少なくとも1つのプロセッサであって、
視野のスキャンサイクルにおいて少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御し、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、
前記車両の車線横断方向転換が起こりそうであることを示す入力を取得し、
前記車線横断方向転換が起こりそうであることを示す前記入力に応答して、前記車両が合流しようとしている遠い側の車線を含めて前記車両の前記車線横断方向転換の方向とは反対の側の光束を前記視野の他の部分よりも増大させ、前記車両の前記車線横断方向転換の前記方向とは反対側の検出範囲を前記車線横断方向転換の方向の検出範囲よりも一時的に拡大するように、前記少なくとも1つの光源の制御と前記少なくとも1つの光偏向器の制御を連携させる、
ように構成された少なくとも1つのプロセッサを備える、LIDARシステム。 - 前記少なくとも1つのプロセッサは更に、前記視野のスキャンサイクル中、前記少なくとも1つの光偏向器が複数の瞬時位置に瞬時に配置されるように前記少なくとも1つの光偏向器を制御するよう構成されている、請求項289に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合、光ビームの一部が前記少なくとも1つの光偏向器によって前記少なくとも1つの光源から前記視野内の物体の方へ偏向されると共に前記物体からの前記光ビームの前記一部の反射が前記少なくとも1つの光偏向器によって少なくとも1つのセンサの方へ偏向されるように、前記少なくとも1つの光偏向器と前記少なくとも1つの光源を連携させるよう構成されている、請求項290に記載のLIDARシステム。
- 前記少なくとも1つの光偏向器に照準を合わせた複数の光源を更に備え、前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合に前記複数の光源からの光が前記視野の複数の別個の領域の方へ投影されるように、前記少なくとも1つの光偏向器を制御するよう構成されている、請求項290に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記車両のナビゲーションシステムから前記車線横断方向転換が起こりそうであることを示す前記入力を受信するように構成されている、請求項289に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光源から投影された前記光に関連した反射を検出するように構成された少なくとも1つのセンサから受信した情報に基づいて、前記車線横断方向転換が起こりそうであることを示す前記入力を決定するように構成されている、請求項289に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記車両の前記車線横断方向転換の方向とは反対の側の前記増大させた光束に基づいて、前記遠い側の車線における移動中の物体の速
度を決定するように構成されている、請求項289に記載のLIDARシステム。 - 前記少なくとも1つのプロセッサは更に、前記車両及び前記移動中の物体が衝突コース上にあると判定された場合に警告を発生するように構成されている、請求項295に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記視野の反射率画像を生成するように構成され、前記反射率画像は、前記移動中の物体の様々な部分から反射された光量を表す前記移動中の物体のフィンガプリントを含む、請求項295に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、複数のスキャンサイクルからの前記移動中の物体のフィンガプリントを複数の反射率テンプレートと比較して、前記移動中の物体が右折の合図をしている車両であると判定するように構成されている、請求項297に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、左折とは異なるパワー割り当てスキームを右折に対して適用するように構成されている、請求項289に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、現在の運転環境を示す入力を受信し、都市エリアの車線横断方向転換とは異なるパワー割り当てスキームを農村エリアの車線横断方向転換に対して適用するように構成されている、請求項289に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記車両の右側に関連した第1の視野及び前記車両の左側に関連した第2の視野のスキャンを可能とするように、少なくとも2つの光源及び少なくとも2つの偏向器を制御するように構成されている、請求項289に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記車両が合流しようとしている道路を含む前記視野の第1の部分へ投影される光量が前記道路に隣接した建物を含む前記視野の第2の部分よりも大きくなるように、前記少なくとも1つの光源を制御するよう構成されている、請求項289に記載のLIDARシステム。
- LIDARを用いて車両の環境内の物体を検出するための方法であって、
視野のスキャンサイクルにおいて少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御することと、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御することと、
前記車両の車線横断方向転換が起こりそうであることを示す入力を取得することと、
前記車線横断方向転換が起こりそうであることを示す前記入力に応答して、前記車両が合流しようとしている遠い側の車線を含めて前記車両の前記車線横断方向転換の方向とは反対の側の光束を前記視野の他の部分よりも増大させ、前記車両の前記車線横断方向転換の前記方向とは反対側の検出範囲を前記車線横断方向転換の方向の検出範囲よりも一時的に拡大するように、前記少なくとも1つの光源の制御と前記少なくとも1つの光偏向器の制御を連携させることと、
を含む方法。 - 前記車両のナビゲーションシステムから前記車線横断方向転換が起こりそうであることを示す前記入力を受信することを更に含む、請求項303に記載の方法。
- 前記車両の前記車線横断方向転換の方向とは反対の側の前記増大させた光束に基づいて、前記遠い側の車線における移動中の物体の速度を決定することを更に含む、請求項303に記載の方法。
- 前記視野の反射率画像を生成することを更に含み、前記反射率画像は、前記移動中の物体の様々な部分から反射された光量を表す前記移動中の物体のフィンガプリントを含む、請求項305に記載の方法。
- 複数のスキャンサイクルからの前記移動中の物体のフィンガプリントを複数の反射率テンプレートと比較して、前記移動中の物体が右折の合図をしている車両であると判定することを更に含む、請求項306に記載の方法。
- 車両本体と、
前記車両本体内に位置する少なくとも1つのプロセッサであって、
視野のスキャンサイクルにおいて少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御し、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、
前記車両の車線横断方向転換が起こりそうであることを示す入力を取得し、
前記車線横断方向転換が起こりそうであることを示す前記入力に応答して、前記車両が合流しようとしている遠い側の車線を含めて前記車両の前記車線横断方向転換の方向とは反対の側の光束を前記視野の他の部分よりも増大させ、前記車両の前記車線横断方向転換の前記方向とは反対側の検出範囲を前記車線横断方向転換の方向の検出範囲よりも一時的に拡大するように、前記少なくとも1つの光源の制御と前記少なくとも1つの光偏向器の制御を連携させる、
ように構成された少なくとも1つのプロセッサと、
を備える車両。 - 幹線道路を走行する車道用車両と共に使用するためのLIDARシステムであって、
少なくとも1つのプロセッサであって、
視野のスキャンサイクルにおいて少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御し、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、前記視野は、前記車両が走行している前記幹線道路に概ね対応する中央領域と、前記幹線道路の右側のエリアに概ね対応する右側周辺領域と、前記幹線道路の左側のエリアに概ね対応する左側周辺領域と、に分割可能であり、
前記車両が幹線道路の走行に対応するモードであるという入力を取得し、
前記車両が幹線道路の走行に対応するモードであるという前記入力に応答して、前記中央領域、前記右側周辺領域、及び前記左側周辺領域を含む前記視野のスキャン中、前記右側周辺領域及び前記左側周辺領域よりも多くの光が前記中央領域へ誘導されるように、前記少なくとも1つの光源の制御と前記少なくとも1つの光偏向器の制御を連携させる、ように構成された少なくとも1つのプロセッサを備える、LIDARシステム。 - 前記少なくとも1つのプロセッサは更に、前記視野のスキャンサイクル中、前記少なくとも1つの光偏向器が複数の異なる瞬時位置に配置されるように前記少なくとも1つの光偏向器を制御するよう構成されている、請求項309に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合、光ビームの一部が前記少なくとも1つの光偏向器によって前記少なくとも1つの光源から前記視野内の物体の方へ偏向されると共に前記物体からの前記光
ビームの前記一部の反射が前記少なくとも1つの光偏向器によって少なくとも1つのセンサの方へ偏向されるように、前記少なくとも1つの光偏向器と前記少なくとも1つの光源を連携させるよう構成されている、請求項310に記載のLIDARシステム。 - 前記少なくとも1つの光偏向器に照準を合わせた複数の光源を更に備え、前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合に前記複数の光源からの光が前記視野の複数の別個の領域の方へ投影されるように、前記少なくとも1つの光偏向器を制御するよう構成されている、請求項310に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記車両のナビゲーションシステムから、前記車両が幹線道路の走行に対応するモードであるという前記入力を受信するように構成されている、請求項309に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光源から投影された前記光に関連した光の反射を検出するように構成された少なくとも1つのセンサから受信した情報に基づいて、前記車両が幹線道路の走行に対応するモードであるという前記入力を決定するように構成されている、請求項309に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記右側周辺領域及び前記左側周辺領域に関連した検出距離よりも大きい距離に前記中央領域内の物体が存在すると決定するように構成されている、請求項309に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記中央領域の検出距離が前記右側周辺領域及び前記左側周辺領域の前記検出距離の少なくとも2倍の大きさとなるように前記少なくとも光源を制御するよう構成されている、請求項315に記載のLIDARシステム。
- 前記右側周辺領域は複数の小領域を含み、前記少なくとも1つのプロセッサは、前記視野のスキャン中、前記複数の小領域のうち1つに対して前記複数の小領域の別のものよりも多くの光が誘導されるように構成されている、請求項309に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記車両が走行している道路のタイプを示すデータを取得すると、複数のスキャンサイクルに関連付けられた空間光スキャンパターンを決定するように構成されている、請求項309に記載のLIDARシステム。
- 前記道路のタイプは、都市部の道路、幹線道路、非分離道路、片側1車線の道路、片側複数車線の道路、及び公共交通機関用車線を有する道路のうち少なくとも1つを含む、請求項318に記載のLIDARシステム。
- 前記車両が走行している前記道路タイプの変化を示すデータを取得すると、先行スキャンサイクルで投影した光に比べて、より少ない光を前記中央領域へ低減し、より多い光を前記右側周辺領域及び前記左側周辺領域へ誘導する、請求項319に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、運転イベントを示すデータを取得すると、先行スキャンサイクルにおいて前記右側周辺領域の少なくとも一部へ誘導されたよりも多くの光を前記右側周辺領域の前記少なくとも一部へ誘導するように、前記空間光スキャンパターンを変更するよう構成されている、請求項318に記載のLIDARシステム。
- 前記運転イベントは、交通関連イベント、道路関連イベント、既定の施設への接近、及び気候関連イベントのうち少なくとも1つを含む、請求項321に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、第1のスキャンサイクル中に第1の光束を有する光が前記中央領域へ誘導されると共に第2のスキャンサイクル中に第2の光束を有する光が前記中央領域へ誘導され、前記第2の光束は前記第1の光束よりも多いように、前記少なくとも1つの光源の制御と前記少なくとも1つの光偏向器を連携させるよう構成されている、請求項309に記載のLIDARシステム。
- LIDARを用いて車両の経路内の物体を検出するための方法であって、
視野のスキャンサイクルにおいて少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御することと、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御することであって、前記視野は、前記車両が走行している前記幹線道路に概ね対応する中央領域と、前記幹線道路の右側のエリアに概ね対応する右側周辺領域と、前記幹線道路の左側のエリアに概ね対応する左側周辺領域と、に分割可能である、ことと、
前記車両が幹線道路の走行に対応するモードであるという入力を取得することと、
前記車両が幹線道路の走行に対応するモードであるという前記入力に応答して、前記中央領域、前記右側周辺領域、及び前記左側周辺領域を含む前記視野のスキャン中、前記右側周辺領域及び前記左側周辺領域よりも多くの光が前記中央領域へ誘導されるように、前記少なくとも1つの光源の制御と前記少なくとも1つの光偏向器の制御を連携させることと、
を含む方法。 - 前記右側周辺領域及び前記左側周辺領域に関連した検出距離よりも大きい距離に前記中央領域内の物体が存在すると決定することを更に含む、請求項324に記載の方法。
- 前記右側周辺領域は複数の小領域を含み、前記少なくとも1つのプロセッサは、前記視野のスキャン中、前記複数の小領域のうち1つに対して前記複数の小領域の別のものよりも多くの光が誘導されるように構成されている、請求項324に記載の方法。
- 前記車両が走行している車道のタイプを示すデータを取得すると、複数のスキャンサイクルに関連付けられた空間光スキャンパターンを決定することを更に含む、請求項324に記載の方法。
- 運転イベントを示すデータを取得すると、先行スキャンサイクルにおいて前記右側周辺領域の前記少なくとも一部へ誘導された光よりも多くの光を前記左側周辺領域の少なくとも一部へ誘導するように、前記空間光スキャンパターンを変更することを更に含む、請求項327に記載の方法。
- 車両本体と、
前記車両本体内に位置する少なくとも1つのプロセッサであって、
視野のスキャンサイクルにおいて少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御し、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、前記視野は、前記車両が走行している前記幹線道路
に概ね対応する中央領域と、前記幹線道路の右側のエリアに概ね対応する右側周辺領域と、前記幹線道路の左側のエリアに概ね対応する左側周辺領域と、に分割可能であり、
前記車両が幹線道路の走行に対応するモードであるという入力を取得し、
前記車両が幹線道路の走行に対応するモードであるという前記入力に応答して、前記中央領域、前記右側周辺領域、及び前記左側周辺領域を含む前記視野のスキャン中、前記右側周辺領域及び前記左側周辺領域よりも多くの光が前記中央領域へ誘導されるように、前記少なくとも1つの光源の制御と前記少なくとも1つの光偏向器の制御を連携させる、ように構成された少なくとも1つのプロセッサと、
を備える車両。 - 少なくとも1つのプロセッサであって、
視野のスキャンにおいて少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御し、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、
前記視野における周囲光を示す情報を少なくとも1つのセンサから受信し、
前記受信された情報において、前記視野の第2の部分よりも多くの周囲光を含む前記視野の第1の部分の指示を識別し、
前記視野をスキャンする場合、前記視野の前記第2の部分の方へ投影される光の光束よりも前記視野の前記第1の部分の方へ投影される光の光束が多くなるように光源パラメータを変更する、
ように構成された少なくとも1つのプロセッサを備える、LIDARシステム。 - 前記少なくとも1つのプロセッサは更に、前記視野のスキャンサイクル中、前記少なくとも1つの光偏向器が複数の異なる瞬時位置に配置されるように前記少なくとも1つの光偏向器を制御するよう構成されている、請求項330に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合、光ビームの一部が前記少なくとも1つの光偏向器によって前記少なくとも1つの光源から前記視野内の物体の方へ偏向されると共に前記物体からの前記光ビームの前記一部の反射が前記少なくとも1つの光偏向器によって少なくとも1つのセンサの方へ偏向されるように、前記少なくとも1つの光偏向器と前記少なくとも1つの光源を連携させるよう構成されている、請求項330に記載のLIDARシステム。
- 前記少なくとも1つの光偏向器に照準を合わせた複数の光源を更に備え、前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合に前記複数の光源からの光が前記視野の複数の別個の領域の方へ投影されるように、前記少なくとも1つの光偏向器を制御するよう構成されている、請求項331に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合にある数の光パルスが前記第1の部分の方へ投影されるように前記少なくとも1つの光偏向器と前記少なくとも1つの光源を連携させるよう構成され、投影される前記光パルスの数は、前記視野の前記第1の部分における物体からの前記投影光の検出された反射に基づいて決定される、請求項331に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第2の部分の方へ投影される前記光の強度よりも前記第1の部分の方へ投影される前記光の強度が大きくなるように前記光源パラメータを変更するよう構成されている、請求項330に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、単一のスキャンサイクル中、前記第2の部分の方へ投影される立体角当たりの光パルスの数よりも多くの立体角当たりの光パルス数が前記第1の部分の方へ投影されるように前記光源パラメータを変更するよう構成されている、請求項330に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、少なくとも1つの単一のスキャンサイクル中、前記視野の前記第2の部分の方へ光が投影されないように前記光源パラメータを変更するよう構成されている、請求項330に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第1の部分の方へ投影される光が前記第2の部分の方へ投影される光とは異なる波長であるように前記光源パラメータを変更するよう構成されている、請求項330に記載のLIDARシステム。
- 前記少なくとも1つのセンサは、前記視野内の物体からの光の反射を検出するように構成された第1のセンサと、前記視野における前記周囲光を測定するように構成された第2のセンサと、を含む、請求項330に記載のLIDARシステム。
- 前記少なくとも1つのセンサは、前記視野内の物体からの光の反射を検出すると共に前記視野における前記周囲光を測定するように構成された単一のセンサを含む、請求項330に記載のLIDARシステム。
- 前記少なくとも1つの光源による光放出の後、前記少なくとも1つのセンサは、光放出後の第1の検知期間において前記視野からの光の反射を検出すると共に前記光放出後の第2の検知期間において前記視野内の前記周囲光を測定するように構成されている、請求項340に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記受信された情報に基づいて前記視野における前記周囲光を発生させる光源のタイプを識別し、前記識別されたタイプに基づいて前記光源パラメータの値を決定するように構成されている、請求項330に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記受信された情報に基づいて前記視野の第3の部分における光源の存在を識別し、前記第3の部分からの反射に対するセンサ感度を変更するように構成されている、請求項330に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第1の部分内の関心領域の識別を取得すると、前記第2の部分の方へ投影される光の光束よりも前記第1の部分の方へ投影される光の光束が多くなるように前記光源パラメータを変更するよう構成されている、請求項330に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記視野のスキャンサイクル中、前記視野の前記第1の部分又は前記第2の部分に関連した前記視野における周囲光を示す情報を前記少なくとも1つのセンサから受信する一方で、前記視野の前記第2の部分の方へ投影される光の光束よりも前記視野の前記第1の部分の方へ投影される光の光束が多くなるように光源パラメータを変更するよう構成されている、請求項330に記載のLIDARシステム。
- LIDARを用いて物体を検出するための方法であって、
視野のスキャンにおいて少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御することと、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御することと、
前記視野における周囲光を示す情報を少なくとも1つのセンサから受信することと、
前記受信された情報において、前記視野の第2の部分よりも多くの周囲光を含む前記視野の第1の部分の指示を識別することと、
前記視野をスキャンする場合、前記視野の前記第2の部分の方へ投影される光の光束よりも前記視野の前記第1の部分の方へ投影される光の光束が多くなるように光源パラメータを変更することと、
を含む方法。 - 単一のスキャンサイクルにおいて、前記第2の部分の方へ投影される光パルスの数よりも多くの光パルスが前記第1の部分の方へ投影されるように前記光源パラメータを変更することを更に含む、請求項346に記載の方法。
- 前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合にある数の光パルスが前記第1の部分の方へ投影されるように前記少なくとも1つの光偏向器と前記少なくとも1つの光源を連携させることを更に含み、前記第1の部分の方へ投影される前記光パルスの数は、前記視野の前記第1の部分における物体からの前記投影光の検出された反射に基づいて決定される、請求項347に記載の方法。
- 前記第1の部分内の関心領域の識別を取得すると、前記第2の部分の方へ投影される光の光束よりも前記第1の部分の方へ投影される光の光束が多くなるように前記光源パラメータを変更することを更に含む、請求項346に記載の方法。
- 前記少なくとも1つのセンサは、前記視野内の物体からの光の反射を検出するように構成された第1のセンサと、前記視野における前記周囲光を測定するように構成された第2のセンサと、を含む、請求項346に記載の方法。
- 命令を記憶している非一時的コンピュータ読み取り可能記憶媒体であって、前記命令は、少なくとも1つのプロセッサによって実行された場合、LIDARを用いて物体を検出するための方法を前記少なくとも1つのプロセッサに実行させ、前記方法は、
視野のスキャンにおいて少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御することと、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御することと、
前記視野における周囲光を示す情報を少なくとも1つのセンサから受信することと、
前記受信された情報において、前記視野の第2の部分よりも多くの周囲光を含む前記視野の第1の部分を識別することと、
前記視野をスキャンする場合、前記視野の前記第2の部分の方へ投影される光の光束よりも前記視野の前記第1の部分の方へ投影される光の光束が多くなるように光源パラメータを変更することと、
を含む、非一時的コンピュータ読み取り可能記憶媒体。 - 車両で使用するためのLIDARシステムであって、
車両の環境内の複数の物体を照射するために視野の方へ光を投影するように構成された少なくとも1つの光源と、
少なくとも1つのプロセッサであって、
前記視野の複数の部分のスキャンにおいて前記少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御し、前記視野のスキャン中、少なくとも1つのシステムコンポーネントから熱が放射され、
少なくとも1つのシステムコンポーネントに関連した温度が閾値を超えていることを示す情報を受信し、
前記温度が前記閾値を超えていることを示す前記受信された情報に応答して、少なくとも1つの後続のスキャンサイクル中に先行スキャンサイクルよりも少ない光が前記視野へ送出されるように前記視野の2つの部分間の照射比を変更する、
ように構成された少なくとも1つのプロセッサと、
を備えるLIDARシステム。 - 前記少なくとも1つのプロセッサは更に、前記視野のスキャンサイクル中、前記少なくとも1つの光偏向器が複数の異なる瞬時位置に配置されるように前記少なくとも1つの光偏向器を制御するよう構成されている、請求項352に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合、光ビームの一部が前記少なくとも1つの光偏向器によって前記少なくとも1つの光源から前記視野内の物体の方へ偏向されると共に前記物体からの前記光ビームの前記一部の反射が前記少なくとも1つの光偏向器によって少なくとも1つのセンサの方へ偏向されるように、前記少なくとも1つの光偏向器と前記少なくとも1つの光源を連携させるよう構成されている、請求項353に記載のLIDARシステム。
- 前記少なくとも1つの光偏向器に照準を合わせた複数の光源を更に備え、前記少なくとも1つのプロセッサは更に、前記少なくとも1つの光偏向器が特定の瞬時位置に配置された場合に前記複数の光源からの光が前記視野の複数の別個の領域の方へ投影されるように、前記少なくとも1つの光偏向器を制御するよう構成されている、請求項353に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記視野の単一のスキャンサイクルにおける光の空間光分布を決定し、前記視野の第2の部分よりも多くの光が前記視野の第1の部分の方へ投影されるように前記照射比を変更するよう構成されている、請求項353に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つの後続のスキャンサイクル中に前記先行スキャンサイクルで投影されたのと同一の量の光が前記第1の部分の方へ投影されるように、前記少なくとも1つの光源と前記少なくとも1つの光偏向器の制御を連携させるよう構成されている、請求項356に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第2の部分の方へ投影される光パルスよりも多くの光パルスを前記第1の部分の方へ投影するように前記少なくとも1つの光源と前記少なくとも1つの光偏向器の制御を連携させるよう構成されている、請求項356に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記第1の部分を照射するための第1のスキャンサイクルレート及び前記第2の部分を照射するための第2のスキャンサイクルレートを動的に調整するように、複数のスキャンサイクルにおいて前記少なくとも1つの光源と前記少なくとも1つの光偏向器の制御を連携させるよう構成されている、請求項356に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、
視野の第1の部分内の関心領域の識別を取得し、
前記少なくとも1つの後続のスキャンサイクル中に前記視野の第2の部分よりも多くの光が前記第1の部分の方へ誘導されるように前記視野の前記第1の部分と前記第2の部分
との前記照射比を変更する、
ように構成されている、請求項352に記載のLIDARシステム。 - 前記少なくとも1つのプロセッサは更に、視野の前記第2の部分内の非関心領域の識別を取得するように構成されている、請求項360に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記少なくとも1つのプロセッサに接続可能なセンサから、前記少なくとも1つのシステムコンポーネントに関連した前記温度が前記閾値を超えていることを示す前記情報を受信するように構成されている、請求項352に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、車両コントローラから、前記少なくとも1つのシステムコンポーネントに関連した前記温度が前記閾値を超えていることを示す前記情報を受信するように構成されている、請求項352に記載のLIDARシステム。
- 前記受信された情報は、前記車両の外部の環境の温度に関する情報、前記車両のエンジンの熱に関する情報、前記少なくとも1つの光源の温度に関する情報、及び前記少なくとも1つのプロセッサの温度に関する情報のうち少なくとも1つを含む、請求項352に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記車両の周囲の環境の温度に関する情報に基づいて前記閾値の値を決定するように構成されている、請求項352に記載のLIDARシステム。
- 前記少なくとも1つのプロセッサは更に、前記温度が前記閾値を超えていることを示す前記受信された情報に応答して、前記少なくとも1つの後続のスキャンサイクル中に前記視野の一部で分解能を低下させるように構成されている、請求項352に記載のLIDARシステム。
- 車両であって、
車両本体と、
前記車両の環境内の複数の物体を照射するために視野の方へ光を投影するように構成された少なくとも1つの光源と、
前記車両本体内に位置する少なくとも1つのプロセッサであって、
前記視野の複数の部分のスキャンにおいて前記少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御し、前記視野のスキャン中、少なくとも1つの車両コンポーネントから熱が放射され、
少なくとも1つのシステムコンポーネントに関連した温度が閾値を超えていることを示す情報を受信し、
前記受信された情報に応答して、少なくとも1つの後続のスキャンサイクル中に先行スキャンサイクルよりも少ない光が前記視野へ送出されるように前記視野の2つの部分間の照射比を変更する、
ように構成された少なくとも1つのプロセッサと、
を備える車両。 - 前記少なくとも1つのプロセッサは更に、前記視野の単一のスキャンサイクルにおける光の空間光分布を決定し、前記視野の第2の部分よりも多くの光が前記視野の第1の部分の方へ投影されるように前記照射比を変更するよう構成されている、請求項367に記載の車両。
- 前記少なくとも1つのプロセッサは更に、後続のスキャンサイクル中に前記第1の部分の方へ投影される光量が先行スキャンサイクルで前記第1の部分の方へ投影された光量と実質的に等しいように、前記少なくとも1つの光源と前記少なくとも1つの光偏向器の制御を連携させるよう構成されている、請求項367に記載の車両。
- 前記少なくとも1つのプロセッサは更に、
視野の第1の部分内の関心領域の識別と、視野の第2の部分内の非関心領域の識別と、を取得し、
前記少なくとも1つの後続のスキャンサイクル中に前記第2の部分よりも多くの光が前記第1の部分の方へ誘導されるように前記視野の前記第1の部分と前記第2の部分との前記照射比を変更する、
ように構成されている、請求項367に記載の車両。 - 前記少なくとも1つのプロセッサは更に、前記車両の外部の環境の温度に関する情報に基づいて前記閾値の値を決定するように構成されている、請求項367に記載の車両。
- 命令を記憶している非一時的コンピュータ読み取り可能記憶媒体であって、前記命令は、少なくとも1つのプロセッサによって実行された場合、車両の環境内の複数の物体を照射するために視野の方へ光を投影するように構成された少なくとも1つの光源を含むLIDARシステムを用いて物体を検出するための方法を前記少なくとも1つのプロセッサに実行させ、前記方法は、
前記視野の複数の部分のスキャンにおいて前記少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御することであって、前記視野のスキャン中、少なくとも1つのシステムコンポーネントから熱が放射される、ことと、
少なくとも1つのシステムコンポーネントに関連した温度が閾値を超えていることを示す情報を受信することと、
前記受信された情報に応答して、少なくとも1つの後続のスキャンサイクル中に先行スキャンサイクルよりも少ない光が前記視野へ送出されるように前記視野の2つの部分間の照射比を変更することと、
を含む、非一時的コンピュータ読み取り可能記憶媒体。 - 光を受光するためのウィンドウと、前記光を偏向させて偏向光を与えるための微小電気機械(MEMS)ミラーと、フレームと、アクチュエータと、前記アクチュエータと前記MEMSミラーとの間に機械的に接続された相互接続要素と、を備えたLIDARシステムであって、各アクチュエータは本体及び圧電要素を含み、
前記圧電要素は、電界が印加された場合に前記本体を曲げると共に前記MEMSミラーを移動させるように構成され、前記MEMSミラーがアイドル位置に位置付けられている場合、前記MEMSミラーは前記ウィンドウに対して配向されている、LIDARシステム。 - 光を受光するためのウィンドウと、前記光を偏向させて偏向光を与えるための微小電気機械(MEMS)ミラーと、フレームと、アクチュエータと、前記アクチュエータと前記MEMSミラーとの間に機械的に接続された相互接続要素と、を備えたLIDARシステムであって、各アクチュエータは本体及び圧電要素を含み、前記圧電要素は、電界が印加された場合に前記本体を曲げると共に前記MEMSミラーを移動させるように構成され、
前記相互接続要素のうち1つの相互接続要素は、前記MEMSミラーに接続された第1のセグメント及び前記アクチュエータに接続された第2のセグメントを含み、前記第1のセグメント及び前記第2のセグメントは相互に機械的に結合されている、LIDARシステム。 - 光を受光するためのウィンドウと、前記光を偏向させて偏向光を与えるための微小電気機械(MEMS)ミラーと、フレームと、アクチュエータと、前記アクチュエータと前記MEMSミラーとの間に機械的に接続された相互接続要素と、を備えたLIDARシステムであって、各アクチュエータは本体及び圧電要素を含み、前記圧電要素は、電界が印加された場合に前記本体を曲げると共に前記MEMSミラーを移動させるように構成され、
前記MEMSミラーは楕円形であり、前記アクチュエータは少なくとも3つの独立して制御されるアクチュエータを含む、LIDARシステム。 - 光を受光するためのウィンドウと、前記光を偏向させて偏向光を与えるための微小電気機械(MEMS)ミラーと、フレームと、アクチュエータと、前記アクチュエータと前記MEMSミラーとの間に機械的に接続された相互接続要素と、を備えたLIDARシステムであって、各アクチュエータは本体及び圧電要素を含み、前記圧電要素は、電界が印加された場合に前記本体を曲げると共に前記MEMSミラーを移動させるように構成され、
前記アクチュエータは、第1の方向に沿って相互に対向する第1の対のアクチュエータ及び第2の方向に沿って相互に対向する第2の対のアクチュエータを含み、前記第1の対のアクチュエータは前記第2の対のアクチュエータとは異なり、前記ウィンドウ、前記MEMSミラー、前記フレーム、及び前記アクチュエータはユニットを形成し、前記ユニットは、前記第1の方向に沿って伝搬する機械的振動及び前記第2の方向に沿って伝搬する機械的振動に対して異なるように応答する、LIDARシステム。 - 光を受光するためのウィンドウと、前記光を偏向させて偏向光を与えるための微小電気機械(MEMS)ミラーと、フレームと、アクチュエータと、前記アクチュエータと前記MEMSミラーとの間に機械的に接続された相互接続要素と、を備えたLIDARシステムであって、各アクチュエータは本体及び圧電要素を含み、前記圧電要素は、電界が印加された場合に前記本体を曲げると共に前記MEMSミラーを移動させるように構成され、
第1のアクチュエータは前記アクチュエータの前記本体よりも下方に位置付けられた圧電要素を含み、第2のアクチュエータは前記他の圧電要素の前記本体よりも上方に位置付けられた圧電要素を含む、LIDARシステム。 - 光を受光するためのウィンドウと、前記光を偏向させて偏向光を与えるための微小電気機械(MEMS)ミラーと、フレームと、アクチュエータと、前記アクチュエータと前記MEMSミラーとの間に機械的に接続された相互接続要素と、を備えたLIDARシステムであって、各アクチュエータは本体及び圧電要素を含み、前記圧電要素は、電界が印加された場合に前記本体を曲げると共に前記MEMSミラーを移動させるように構成され、
アクチュエータは前記本体に機械的に結合されたダミー圧電要素を含み、前記LIDARシステムは前記ダミー圧電要素の状態を検知するように構成されたセンサを更に備える、LIDARシステム。 - 光を受光するためのウィンドウと、前記光を偏向させて偏向光を与えるための微小電気機械(MEMS)ミラーと、フレームと、アクチュエータと、前記アクチュエータと前記MEMSミラーとの間に機械的に接続された相互接続要素と、を備えたLIDARシステムであって、各アクチュエータは本体及び圧電要素を含み、前記圧電要素は、電界が印加された場合に前記本体を曲げると共に前記MEMSミラーを移動させるように構成され、
前記LIDARシステムは可変コンデンサ及びセンサを更に備え、前記可変コンデンサの容量は前記フレームと前記アクチュエータのうち1つのアクチュエータとの間の空間的な関係を表し、前記センサは前記可変コンデンサの前記容量を検知するように構成されている、LIDARシステム。 - 光を受光するためのウィンドウと、前記光を偏向させて偏向光を与えるための微小電気機械(MEMS)ミラーと、フレームと、アクチュエータと、前記アクチュエータと前記
MEMSミラーとの間に機械的に接続された相互接続要素と、を備えたLIDARシステムであって、各アクチュエータは本体及び圧電要素を含み、
前記圧電要素は、制御信号ソースからの制御信号によって誘発された電界が印加された場合に前記本体を曲げると共に前記MEMSミラーを移動させるように構成され、前記制御信号は前記LIDARシステムの電極に供給され、前記制御信号は交番バイアス成分及びステアリング成分を有し、前記本体の曲げは前記ステアリング成分に応答し、前記交番バイアス成分の周波数は前記ステアリング成分の最大周波数よりも大きく、前記センサは、前記アクチュエータの前記曲げに起因した前記アクチュエータの誘電率の変化を検知するように構成されている、LIDARシステム。 - 光を受光するためのウィンドウと、前記光を偏向させて偏向光を与えるための微小電気機械(MEMS)ミラーと、フレームと、アクチュエータと、前記アクチュエータと前記MEMSミラーとの間に機械的に接続された相互接続要素と、を備えたLIDARシステムであって、各アクチュエータは本体及び圧電要素を含み、前記圧電要素は、電界が印加された場合に前記本体を曲げると共に前記MEMSミラーを移動させるように構成され、
前記ウィンドウは筐体に付属し、前記筐体は、前記MEMSミラー、前記フレーム、及び前記アクチュエータを収容する密封筐体である、LIDARシステム。 - 光を受光するためのウィンドウと、前記光を偏向させて偏向光を与えるための微小電気機械(MEMS)ミラーと、フレームと、アクチュエータと、前記アクチュエータと前記MEMSミラーとの間に機械的に接続された相互接続要素と、を備えたLIDARシステムであって、各アクチュエータは本体及び圧電要素を含み、前記圧電要素は、電界が印加された場合に前記本体を曲げると共に前記MEMSミラーを移動させるように構成され、
前記相互接続要素のうち1つの相互接続要素は、少なくとも1つの継手によって相互に機械的に結合された複数のセグメントを含む、LIDARシステム。 - 前記少なくとも1つのプロセッサは更に、
少なくとも1つの偏向器が特定の瞬時位置にある間、複数の光源からの光を複数のアウトバウント経路に沿って視野を形成する複数の領域の方へ偏向させるように前記少なくとも1つの偏向器を制御し、
前記少なくとも1つの偏向器が前記特定の瞬時位置にある場合、前記視野からの光反射が前記少なくとも1つの偏向器の少なくとも1つの共通エリア上で受光されるように前記少なくとも1つの偏向器を制御し、前記少なくとも1つの共通エリアにおいて前記複数の光源のうち少なくともいくつかの前記光反射の少なくとも一部は相互に重なって入射し、
複数の検出器の各々から、前記少なくとも1つの偏向器が前記特定の瞬時位置にある間の前記少なくとも1つの共通エリアからの光反射を示す少なくとも1つの信号を受信する、
ように構成されている、請求項126に記載のLIDARシステム。 - 前記少なくとも1つのプロセッサは更に、
少なくとも1つの光源からの光を用いた視野のスキャンにおいて光束を変動させ得るように前記少なくとも1つの光源を制御し、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、
前記視野内の物体から反射された光を示す反射信号を少なくとも1つのセンサから受信し、
初期光放出の前記反射信号に基づいて、前記LIDARシステムの中間エリアにおいて前記少なくとも1つの光偏向器からの閾値距離内に物体が位置しているか否かを判定し、前記閾値距離は安全距離に関連付けられ、
前記中間エリアで物体が検出されない場合、前記中間エリアの方へ追加光放出を投影し
、これによって前記中間エリアよりも遠くにある物体の検出を可能とするように、前記少なくとも1つの光源を制御し、
前記中間エリアで物体が検出された場合、前記中間エリアにおける前記光の蓄積エネルギ密度が最大許容可能露光量を超えないように、前記少なくとも1つの光源及び前記少なくとも1つの光偏向器のうち少なくとも1つを規制する、
ように構成されている、請求項383に記載のLIDARシステム。 - 前記少なくとも1つのプロセッサは更に、
少なくとも1つの光源からの光を用いた視野のスキャンにおいて光束を変動させ得るように前記少なくとも1つの光源を制御し、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器を制御し、
前記視野内の物体から反射された光を示す反射信号を少なくとも1つのセンサから受信し、
初期光放出の前記反射信号に基づいて、前記LIDARシステムの中間エリアにおいて前記少なくとも1つの光偏向器からの閾値距離内に物体が位置しているか否かを判定し、前記閾値距離は安全距離に関連付けられ、
前記中間エリアで物体が検出されない場合、前記中間エリアの方へ追加光放出を投影し、これによって前記中間エリアよりも遠くにある物体の検出を可能とするように、前記少なくとも1つの光源を制御し、
前記中間エリアで物体が検出された場合、前記中間エリアにおける前記光の蓄積エネルギ密度が最大許容可能露光量を超えないように、前記少なくとも1つの光源及び前記少なくとも1つの光偏向器のうち少なくとも1つを規制する、
ように構成されている、請求項151に記載のLIDARシステム。 - 光検出器のアレイを更に備える、請求項385に記載のLIDARシステム。
- 前記光検出器のアレイの方へ光を誘導するように構成された少なくとも1つのマイクロレンズを更に備える、請求項386に記載のLIDARシステム。
- 光を受光するためのウィンドウと、前記光を偏向させて偏向光を与えるための微小電気機械(MEMS)ミラーと、フレームと、アクチュエータと、前記アクチュエータと前記MEMSミラーとの間に機械的に接続された相互接続要素と、を更に備え、各アクチュエータは本体及び圧電要素を含み、
前記圧電要素は、電界が印加された場合に前記本体を曲げると共に前記MEMSミラーを移動させるように構成され、前記MEMSミラーがアイドル位置に位置付けられている場合、前記MEMSミラーは前記ウィンドウに対して配向されている、請求項200に記載のLIDARシステム。 - 前記少なくとも1つのプロセッサは更に、
視野のスキャンにおいて少なくとも1つの光源からの光の光束を変動させ得るように前記少なくとも1つの光源を制御し、
前記視野をスキャンするため前記少なくとも1つの光源からの光を偏向させるように少なくとも1つの光偏向器の位置決めを制御し、
前記車両の振動を示すデータを取得し、
前記取得したデータに基づいて、前記車両の前記振動を補償するため前記少なくとも1つの光偏向器の前記位置決めに対する調整を決定し、
前記少なくとも1つの光偏向器の前記位置決めに対する前記決定された調整を実施することにより、前記少なくとも1つの光偏向器において、前記視野の前記スキャンに対する前記車両の前記振動の影響の少なくとも一部を抑制する、
ように構成されている、請求項126に記載のLIDARシステム。 - 光を受光するためのウィンドウと、前記光を偏向させて偏向光を与えるための微小電気機械(MEMS)ミラーと、フレームと、アクチュエータと、前記アクチュエータと前記MEMSミラーとの間に機械的に接続された相互接続要素と、を更に備え、各アクチュエータは本体及び圧電要素を含み、
前記圧電要素は、電界が印加された場合に前記本体を曲げると共に前記MEMSミラーを移動させるように構成され、前記MEMSミラーがアイドル位置に位置付けられている場合、前記MEMSミラーは前記ウィンドウに対して配向されている、請求項389に記載のLIDARシステム。
Applications Claiming Priority (30)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662396864P | 2016-09-20 | 2016-09-20 | |
US201662396863P | 2016-09-20 | 2016-09-20 | |
US201662396858P | 2016-09-20 | 2016-09-20 | |
US62/396,863 | 2016-09-20 | ||
US62/396,858 | 2016-09-20 | ||
US62/396,864 | 2016-09-20 | ||
US201662397379P | 2016-09-21 | 2016-09-21 | |
US62/397,379 | 2016-09-21 | ||
US201662405928P | 2016-10-09 | 2016-10-09 | |
US62/405,928 | 2016-10-09 | ||
US201662412294P | 2016-10-25 | 2016-10-25 | |
US62/412,294 | 2016-10-25 | ||
US201662414740P | 2016-10-30 | 2016-10-30 | |
US62/414,740 | 2016-10-30 | ||
US201662418298P | 2016-11-07 | 2016-11-07 | |
US62/418,298 | 2016-11-07 | ||
US201662422602P | 2016-11-16 | 2016-11-16 | |
US62/422,602 | 2016-11-16 | ||
US201662425089P | 2016-11-22 | 2016-11-22 | |
US62/425,089 | 2016-11-22 | ||
US201762441583P | 2017-01-03 | 2017-01-03 | |
US201762441574P | 2017-01-03 | 2017-01-03 | |
US201762441581P | 2017-01-03 | 2017-01-03 | |
US62/441,583 | 2017-01-03 | ||
US62/441,581 | 2017-01-03 | ||
US62/441,574 | 2017-01-03 | ||
US201762521450P | 2017-06-18 | 2017-06-18 | |
US62/521,450 | 2017-06-18 | ||
JP2020077164A JP7106595B2 (ja) | 2016-09-20 | 2020-04-24 | Lidarシステム及び方法 |
JP2022112368A JP7241223B2 (ja) | 2016-09-20 | 2022-07-13 | Lidarシステム及び方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022112368A Division JP7241223B2 (ja) | 2016-09-20 | 2022-07-13 | Lidarシステム及び方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023022195A true JP2023022195A (ja) | 2023-02-14 |
Family
ID=60413226
Family Applications (6)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019517906A Active JP6697636B2 (ja) | 2016-09-20 | 2017-09-20 | Lidarシステム及び方法 |
JP2020077164A Active JP7106595B2 (ja) | 2016-09-20 | 2020-04-24 | Lidarシステム及び方法 |
JP2022112368A Active JP7241223B2 (ja) | 2016-09-20 | 2022-07-13 | Lidarシステム及び方法 |
JP2022185671A Active JP7281594B2 (ja) | 2016-09-20 | 2022-11-21 | Lidarシステム及び方法 |
JP2022189874A Pending JP2023022195A (ja) | 2016-09-20 | 2022-11-29 | Lidarシステム及び方法 |
JP2022210110A Active JP7336014B2 (ja) | 2016-09-20 | 2022-12-27 | Lidarシステム及び方法 |
Family Applications Before (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019517906A Active JP6697636B2 (ja) | 2016-09-20 | 2017-09-20 | Lidarシステム及び方法 |
JP2020077164A Active JP7106595B2 (ja) | 2016-09-20 | 2020-04-24 | Lidarシステム及び方法 |
JP2022112368A Active JP7241223B2 (ja) | 2016-09-20 | 2022-07-13 | Lidarシステム及び方法 |
JP2022185671A Active JP7281594B2 (ja) | 2016-09-20 | 2022-11-21 | Lidarシステム及び方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022210110A Active JP7336014B2 (ja) | 2016-09-20 | 2022-12-27 | Lidarシステム及び方法 |
Country Status (6)
Country | Link |
---|---|
US (17) | US10031214B2 (ja) |
EP (6) | EP4194888A1 (ja) |
JP (6) | JP6697636B2 (ja) |
KR (9) | KR102714940B1 (ja) |
CN (3) | CN110286388B (ja) |
WO (1) | WO2018055449A2 (ja) |
Families Citing this family (496)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201511551D0 (en) | 2015-07-01 | 2015-08-12 | St Microelectronics Res & Dev | Photonics device |
KR102682459B1 (ko) | 2015-10-28 | 2024-07-10 | 엘지이노텍 주식회사 | 광출력 모듈 및 이를 포함하는 자동차 및 그 제어 방법 |
US10641872B2 (en) | 2016-02-18 | 2020-05-05 | Aeye, Inc. | Ladar receiver with advanced optics |
US10042159B2 (en) | 2016-02-18 | 2018-08-07 | Aeye, Inc. | Ladar transmitter with optical field splitter/inverter |
US10908262B2 (en) | 2016-02-18 | 2021-02-02 | Aeye, Inc. | Ladar transmitter with optical field splitter/inverter for improved gaze on scan area portions |
US9933513B2 (en) | 2016-02-18 | 2018-04-03 | Aeye, Inc. | Method and apparatus for an adaptive ladar receiver |
JP6645254B2 (ja) * | 2016-02-23 | 2020-02-14 | 株式会社デンソー | 物体認識装置 |
EP3443735B1 (en) * | 2016-04-12 | 2024-09-18 | Quidient, LLC | Quotidian scene reconstruction engine |
US10761195B2 (en) | 2016-04-22 | 2020-09-01 | OPSYS Tech Ltd. | Multi-wavelength LIDAR system |
US10234856B2 (en) * | 2016-05-12 | 2019-03-19 | Caterpillar Inc. | System and method for controlling a machine |
US11422442B2 (en) * | 2016-07-16 | 2022-08-23 | Ideal Perceptions Llc | System for interactively projecting geometrically accurate light images into a projection environment or zone of complex three-dimensional topography |
DE102017205195A1 (de) * | 2016-07-28 | 2018-02-01 | Robert Bosch Gmbh | Laserentfernungsmessgerät |
US10502574B2 (en) * | 2016-09-20 | 2019-12-10 | Waymo Llc | Devices and methods for a sensor platform of a vehicle |
EP4194888A1 (en) * | 2016-09-20 | 2023-06-14 | Innoviz Technologies Ltd. | Lidar systems and methods |
US10277084B1 (en) | 2016-10-19 | 2019-04-30 | Waymo Llc | Planar rotary transformer |
DE102016122194A1 (de) * | 2016-11-18 | 2018-05-24 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Betreiben eines optoelektronischen Sensors eines Kraftfahrzeugs mit variabler Ansteuerung einer Lichtquelle, optoelektronischer Sensor, Fahrerassistenzsystem sowie Kraftfahrzeug |
US20180150703A1 (en) * | 2016-11-29 | 2018-05-31 | Autoequips Tech Co., Ltd. | Vehicle image processing method and system thereof |
US10554881B2 (en) | 2016-12-06 | 2020-02-04 | Microsoft Technology Licensing, Llc | Passive and active stereo vision 3D sensors with variable focal length lenses |
US10469758B2 (en) | 2016-12-06 | 2019-11-05 | Microsoft Technology Licensing, Llc | Structured light 3D sensors with variable focal length lenses and illuminators |
US10942257B2 (en) | 2016-12-31 | 2021-03-09 | Innovusion Ireland Limited | 2D scanning high precision LiDAR using combination of rotating concave mirror and beam steering devices |
US11009605B2 (en) | 2017-01-05 | 2021-05-18 | Innovusion Ireland Limited | MEMS beam steering and fisheye receiving lens for LiDAR system |
US11054508B2 (en) | 2017-01-05 | 2021-07-06 | Innovusion Ireland Limited | High resolution LiDAR using high frequency pulse firing |
US12019189B2 (en) * | 2017-01-24 | 2024-06-25 | Analog Devices, Inc. | Providing dynamic field of view for light received from a dynamic position |
US10168423B2 (en) * | 2017-01-27 | 2019-01-01 | Waymo Llc | LIDAR sensor window configuration for improved data integrity |
US10379205B2 (en) | 2017-02-17 | 2019-08-13 | Aeye, Inc. | Ladar pulse deconfliction method |
KR102326493B1 (ko) | 2017-03-13 | 2021-11-17 | 옵시스 테크 엘티디 | 눈-안전 스캐닝 lidar 시스템 |
US11619715B2 (en) * | 2017-03-16 | 2023-04-04 | Fastree3D Sa | Method and device for optimizing the use of emitter and detector in an active remote sensing application |
US10365351B2 (en) * | 2017-03-17 | 2019-07-30 | Waymo Llc | Variable beam spacing, timing, and power for vehicle sensors |
US10641874B2 (en) * | 2017-03-29 | 2020-05-05 | Luminar Technologies, Inc. | Sizing the field of view of a detector to improve operation of a lidar system |
US10663595B2 (en) * | 2017-03-29 | 2020-05-26 | Luminar Technologies, Inc. | Synchronized multiple sensor head system for a vehicle |
US10522973B2 (en) * | 2017-04-12 | 2019-12-31 | Sense Photonics, Inc. | Beam shaping for ultra-small vertical cavity surface emitting laser (VCSEL) arrays |
US10677897B2 (en) * | 2017-04-14 | 2020-06-09 | Luminar Technologies, Inc. | Combining lidar and camera data |
US20180301484A1 (en) * | 2017-04-17 | 2018-10-18 | Semiconductor Components Industries, Llc | Image sensors with high dynamic range and autofocusing hexagonal pixels |
DE102017207402A1 (de) * | 2017-05-03 | 2018-11-08 | Robert Bosch Gmbh | Optischer Rußpartikelsensor für Kraftfahrzeuge |
DE102017208047A1 (de) * | 2017-05-12 | 2018-11-15 | Robert Bosch Gmbh | LIDAR-Vorrichtung und Verfahren mit vereinfachter Detektion |
JP6638695B2 (ja) * | 2017-05-18 | 2020-01-29 | トヨタ自動車株式会社 | 自動運転システム |
US10698108B2 (en) * | 2017-05-25 | 2020-06-30 | Texas Instruments Incorporated | Receive signal beam steering and detector for an optical distance measurement system |
CN106980850B (zh) * | 2017-06-02 | 2020-03-06 | 京东方科技集团股份有限公司 | 一种纹路检测装置及其纹路检测方法 |
US10409286B2 (en) * | 2017-07-21 | 2019-09-10 | Ford Global Technologies, Llc | Highway detection systems and methods |
EP3658949A4 (en) | 2017-07-28 | 2021-04-07 | Opsys Tech Ltd. | LOW ANGULAR DIVERGENCE VCSEL LIDAR TRANSMITTER |
IL253769B (en) * | 2017-07-31 | 2022-03-01 | Israel Aerospace Ind Ltd | Planning a path in motion |
US10447973B2 (en) | 2017-08-08 | 2019-10-15 | Waymo Llc | Rotating LIDAR with co-aligned imager |
CN107367736B (zh) * | 2017-08-14 | 2024-01-19 | 杭州欧镭激光技术有限公司 | 一种高速激光测距装置 |
CA3075736A1 (en) | 2017-09-15 | 2019-11-14 | Aeye, Inc. | Intelligent ladar system with low latency motion planning updates |
WO2019064062A1 (en) * | 2017-09-26 | 2019-04-04 | Innoviz Technologies Ltd. | SYSTEMS AND METHODS FOR DETECTION AND LOCATION BY LIGHT |
US10785400B2 (en) | 2017-10-09 | 2020-09-22 | Stmicroelectronics (Research & Development) Limited | Multiple fields of view time of flight sensor |
US11415675B2 (en) * | 2017-10-09 | 2022-08-16 | Luminar, Llc | Lidar system with adjustable pulse period |
US11353559B2 (en) | 2017-10-09 | 2022-06-07 | Luminar, Llc | Adjustable scan patterns for lidar system |
US20190120941A1 (en) * | 2017-10-19 | 2019-04-25 | Shenzhen Suteng JuChuang Technologies Ltd. Co. | Arrangement of light sources and detectors in a lidar system |
JP6980486B2 (ja) * | 2017-10-24 | 2021-12-15 | 株式会社小糸製作所 | 車両用灯具の制御装置及び車両用灯具システム |
US10324189B2 (en) * | 2017-10-24 | 2019-06-18 | Harman International Industries, Incorporated | Collaborative data processing |
US20230243935A1 (en) * | 2017-11-10 | 2023-08-03 | Suteng Innovation Technology Co., Ltd. | Lidar devices |
US11650297B2 (en) * | 2017-11-10 | 2023-05-16 | Suteng Innovation Technology Co., Ltd. | LIDAR devices |
CN111356934B (zh) | 2017-11-15 | 2024-03-12 | 欧普赛斯技术有限公司 | 噪声自适应固态lidar系统 |
US10634772B2 (en) * | 2017-11-27 | 2020-04-28 | Atieva, Inc. | Flash lidar with adaptive illumination |
JP7114244B2 (ja) * | 2017-11-30 | 2022-08-08 | キヤノン株式会社 | 光検出装置、光検出システム、及び移動体 |
US10473788B2 (en) | 2017-12-13 | 2019-11-12 | Luminar Technologies, Inc. | Adjusting area of focus of vehicle sensors by controlling spatial distributions of scan lines |
DE102017222972A1 (de) | 2017-12-15 | 2019-07-04 | Ibeo Automotive Systems GmbH | Empfangsanordnung zum Empfang von Lichtsignalen |
DE102017222974A1 (de) * | 2017-12-15 | 2019-06-19 | Ibeo Automotive Systems GmbH | Anordnung und Verfahren zur Ermittlung einer Entfernung wenigstens eines Objekts mit Lichtsignalen |
US11194994B2 (en) * | 2017-12-20 | 2021-12-07 | X Development Llc | Semantic zone separation for map generation |
US11493601B2 (en) * | 2017-12-22 | 2022-11-08 | Innovusion, Inc. | High density LIDAR scanning |
WO2019135494A1 (ko) | 2018-01-08 | 2019-07-11 | 주식회사 에스오에스랩 | 라이다 장치 |
US10591598B2 (en) | 2018-01-08 | 2020-03-17 | SOS Lab co., Ltd | Lidar device |
US11675050B2 (en) | 2018-01-09 | 2023-06-13 | Innovusion, Inc. | LiDAR detection systems and methods |
US11977184B2 (en) | 2018-01-09 | 2024-05-07 | Seyond, Inc. | LiDAR detection systems and methods that use multi-plane mirrors |
WO2019140792A1 (zh) * | 2018-01-17 | 2019-07-25 | 上海禾赛光电科技有限公司 | 一种探测设备及其参数调整方法 |
US10359303B1 (en) * | 2018-02-09 | 2019-07-23 | Ford Global Technologies, Llc | System for vehicle sensor assembly |
WO2019165130A1 (en) | 2018-02-21 | 2019-08-29 | Innovusion Ireland Limited | Lidar detection systems and methods with high repetition rate to observe far objects |
US11988773B2 (en) | 2018-02-23 | 2024-05-21 | Innovusion, Inc. | 2-dimensional steering system for lidar systems |
US11808888B2 (en) * | 2018-02-23 | 2023-11-07 | Innovusion, Inc. | Multi-wavelength pulse steering in LiDAR systems |
US10884115B2 (en) * | 2018-03-09 | 2021-01-05 | Waymo Llc | Tailoring sensor emission power to map, vehicle state, and environment |
CN112292614A (zh) * | 2018-03-15 | 2021-01-29 | 麦特里奥传感器有限公司 | 用于提高lidar系统的成像性能的系统、装置和方法 |
JP6923070B2 (ja) * | 2018-03-16 | 2021-08-18 | 日本電気株式会社 | 光監視装置及び方法 |
US20210116542A1 (en) * | 2018-03-28 | 2021-04-22 | Nec Corporation | Distance measurement sensor, control device, control method and non-transitory computer-readable medium with program stored therein |
CN111919137A (zh) | 2018-04-01 | 2020-11-10 | 欧普赛斯技术有限公司 | 噪声自适应固态lidar系统 |
US10887433B2 (en) | 2018-04-03 | 2021-01-05 | Pony Ai Inc. | System and method for incremental data processing |
US11029406B2 (en) * | 2018-04-06 | 2021-06-08 | Luminar, Llc | Lidar system with AlInAsSb avalanche photodiode |
US12085675B2 (en) * | 2018-04-09 | 2024-09-10 | Sense Photonics, Inc. | Automatic gain control for LIDAR for autonomous vehicles |
US20210025997A1 (en) * | 2018-04-09 | 2021-01-28 | Innoviz Technologies Ltd. | Lidar systems and methods with internal light calibration |
DE102018205378A1 (de) | 2018-04-10 | 2019-10-10 | Ibeo Automotive Systems GmbH | Verfahren zur Ansteuerung von Sensorelementen eines LIDAR Messsystems |
US10705220B2 (en) * | 2018-04-19 | 2020-07-07 | Faraday & Future Inc. | System and method for ground and free-space detection |
US10705534B2 (en) * | 2018-04-19 | 2020-07-07 | Faraday&Future Inc. | System and method for ground plane detection |
EP3714289B1 (en) * | 2018-04-28 | 2022-04-20 | SZ DJI Technology Co., Ltd. | Light detection and ranging sensors with optics and solid-state detectors, and associated systems and methods |
CA3097202A1 (en) | 2018-05-02 | 2019-11-07 | Quidient, Llc | A codec for processing scenes of almost unlimited detail |
DE102018110549A1 (de) * | 2018-05-03 | 2019-11-07 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Betreiben einer Laserscanvorrichtung und Laserscanvorrichtung |
US12099120B2 (en) | 2018-05-10 | 2024-09-24 | Aurora Operations, Inc. | LIDAR system based on complementary modulation of multiple lasers and coherent receiver for simultaneous range and velocity measurement |
KR102050677B1 (ko) * | 2018-05-14 | 2019-12-03 | 주식회사 에스오에스랩 | 라이다 장치 |
DE102018207711A1 (de) * | 2018-05-17 | 2019-11-21 | Osram Gmbh | Abstandsmesseinheit |
JP7141242B2 (ja) * | 2018-05-18 | 2022-09-22 | 株式会社小糸製作所 | センサシステム |
WO2019226487A1 (en) * | 2018-05-23 | 2019-11-28 | The Charles Stark Draper Laboratory, Inc. | Parallel photon counting |
US10739462B2 (en) * | 2018-05-25 | 2020-08-11 | Lyft, Inc. | Image sensor processing using a combined image and range measurement system |
WO2019227975A1 (zh) * | 2018-05-30 | 2019-12-05 | Oppo广东移动通信有限公司 | 激光投射器的控制系统、终端和激光投射器的控制方法 |
US10751875B2 (en) * | 2018-05-31 | 2020-08-25 | Indoor Robotics Ltd | Rotatable mobile robot for mapping an area and a method for mapping the same |
US10670719B2 (en) | 2018-05-31 | 2020-06-02 | Beijing Voyager Technology Co., Ltd. | Light detection system having multiple lens-receiver units |
US20200341149A1 (en) * | 2018-05-31 | 2020-10-29 | Indoor Robotics Ltd. | Rotatable mobile robot for mapping an area and a method for mapping the same |
US11353557B2 (en) | 2018-06-04 | 2022-06-07 | Infineon Technologies Ag | Hybrid LIDAR receiver and lidar methods |
DE102018113739A1 (de) | 2018-06-08 | 2019-12-12 | Blickfeld GmbH | Koaxiales optisches System eines reibungsfreien Scansystems für Lichtdetektion und Abstandsmessung, LIDAR, Messungen |
WO2019241396A1 (en) | 2018-06-15 | 2019-12-19 | Innovusion Ireland Limited | Lidar systems and methods for focusing on ranges of interest |
US11430145B2 (en) | 2018-06-17 | 2022-08-30 | Foresight Ai Inc. | Identification of local motions in point cloud data |
US11366230B2 (en) | 2018-06-21 | 2022-06-21 | Oyla, Inc | Device and method of optical range imaging |
JP6625267B1 (ja) * | 2018-06-22 | 2019-12-25 | 三菱電機株式会社 | センサ制御装置、車両、センシング方法およびセンサ制御プログラム |
US11041957B2 (en) * | 2018-06-25 | 2021-06-22 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for mitigating effects of high-reflectivity objects in LiDAR data |
SG11201811609RA (en) | 2018-06-25 | 2020-01-30 | Beijing Didi Infinity Technology & Development Co Ltd | A high-definition map acquisition system |
US11144775B2 (en) * | 2018-06-25 | 2021-10-12 | Cnh Industrial Canada, Ltd. | System and method for illuminating the field of view of a vision-based sensor mounted on an agricultural machine |
US10345447B1 (en) * | 2018-06-27 | 2019-07-09 | Luminar Technologies, Inc. | Dynamic vision sensor to direct lidar scanning |
JP2020008482A (ja) * | 2018-07-11 | 2020-01-16 | 株式会社Ihi | 物体検出装置 |
JP7039411B2 (ja) * | 2018-07-20 | 2022-03-22 | 株式会社東芝 | 光検出器、光検出システム、ライダー装置及び車 |
US10802382B2 (en) | 2018-07-24 | 2020-10-13 | Qualcomm Incorporated | Adjustable light projector for flood illumination and active depth sensing |
US20210231781A1 (en) * | 2018-07-27 | 2021-07-29 | Arizona Board Of Regents On Behalf Of The University Of Arizona | Mems-based hybrid beam steering device for lidar |
WO2020028146A1 (en) * | 2018-07-30 | 2020-02-06 | Blackmore Sensors And Analytics, Llc | Method and system for optimizing scanning of coherent lidar in autonomous vehicles |
US11609314B2 (en) * | 2018-08-02 | 2023-03-21 | Uatc, Llc | Lidar system design to mitigate Lidar cross-talk |
CN108594266B (zh) * | 2018-08-02 | 2024-01-19 | 成都英鑫光电科技有限公司 | 激光雷达及激光雷达测风系统 |
US11449067B1 (en) * | 2018-08-03 | 2022-09-20 | GM Global Technology Operations LLC | Conflict resolver for a lidar data segmentation system of an autonomous vehicle |
DE102019211690A1 (de) * | 2018-08-06 | 2020-02-06 | Koito Manufacturing Co., Ltd. | Fahrzeugleuchte |
JP7161337B2 (ja) * | 2018-08-09 | 2022-10-26 | 株式会社小糸製作所 | 車両用灯具 |
WO2020028951A1 (en) * | 2018-08-08 | 2020-02-13 | Four Flags Pty Ltd | Blast hole measurement and logging |
US11473970B2 (en) | 2018-08-09 | 2022-10-18 | Ouster, Inc. | Subpixel apertures for channels in a scanning sensor array |
CN109143206B (zh) * | 2018-08-27 | 2021-06-01 | 森思泰克河北科技有限公司 | 激光雷达标定装置及标定方法 |
WO2020042006A1 (zh) * | 2018-08-29 | 2020-03-05 | 深圳市大疆创新科技有限公司 | 激光雷达的控制方法、装置、激光雷达和存储介质 |
JP6731020B2 (ja) * | 2018-09-03 | 2020-07-29 | 株式会社Subaru | 車外環境認識装置および車外環境認識方法 |
JP7102302B2 (ja) * | 2018-09-10 | 2022-07-19 | 京セラ株式会社 | 電磁波検出装置の調整方法 |
DE102018123298A1 (de) * | 2018-09-21 | 2020-03-26 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Betreiben eines optoelektronischen Sensors für ein Kraftfahrzeug, Computerprogrammprodukt, optoelektronischer Sensor sowie Kraftfahrzeug |
CN112740005B (zh) | 2018-09-21 | 2022-11-11 | 本田技研工业株式会社 | 车辆检查系统 |
US11988748B2 (en) * | 2018-09-24 | 2024-05-21 | Lawrence Livermore National Security, Llc | System and method for adaptable lidar imaging |
KR102560397B1 (ko) * | 2018-09-28 | 2023-07-27 | 엘지이노텍 주식회사 | 카메라 장치 및 그의 깊이 정보 추출 방법 |
US11513196B2 (en) | 2018-09-28 | 2022-11-29 | Waymo Llc | Terrain adaptive pulse power in a scanning LIDAR |
EP3633405B1 (de) * | 2018-10-03 | 2023-01-11 | Hexagon Technology Center GmbH | Messgerät zur geometrischen 3d-abtastung einer umgebung mit einer vielzahl sendekanäle und semiconductor-photomultiplier sensoren |
US12105277B2 (en) | 2018-10-04 | 2024-10-01 | Innoviz Technologies Ltd. | Electrooptical systems having heating elements |
US20200110160A1 (en) * | 2018-10-08 | 2020-04-09 | Quanergy Systems, Inc. | Lidar with dynamically variable resolution in selected areas within a field of view |
US11726182B2 (en) * | 2018-10-11 | 2023-08-15 | GM Global Technology Operations LLC | Multiple beam, single MEMS lidar |
CN109188451A (zh) | 2018-10-15 | 2019-01-11 | 北京径科技有限公司 | 一种激光雷达系统 |
DE102018125715A1 (de) * | 2018-10-17 | 2020-04-23 | Valeo Schalter Und Sensoren Gmbh | Verfahren zur Erfassung wenigstens von Partikelzusammensetzungen in einem Überwachungsbereich mit einer optischen Detektionsvorrichtung und Detektionsvorrichtung |
EP3867668A2 (en) * | 2018-10-19 | 2021-08-25 | Innoviz Technologies Ltd. | Lidar systems and methods |
KR102057199B1 (ko) * | 2018-10-22 | 2019-12-18 | 전자부품연구원 | 넓은 시야각 구조를 갖는 고효율 무회전 스캐닝 라이다 시스템 |
US11024669B2 (en) * | 2018-10-24 | 2021-06-01 | Aeva, Inc. | LIDAR system with fiber tip reimaging |
DE102018126522A1 (de) | 2018-10-24 | 2020-04-30 | Blickfeld GmbH | Laufzeitbasierte Entfernungsmessung unter Verwendung von modulierten Pulsfolgen von Laserpulsen |
CN109444848B (zh) * | 2018-10-25 | 2021-03-19 | 上海禾赛科技股份有限公司 | 扫描装置及其扫描方法、激光雷达 |
US11327177B2 (en) | 2018-10-25 | 2022-05-10 | Aeye, Inc. | Adaptive control of ladar shot energy using spatial index of prior ladar return data |
WO2020082363A1 (zh) * | 2018-10-26 | 2020-04-30 | 深圳市大疆创新科技有限公司 | 一种环境感知系统及移动平台 |
US10757363B2 (en) * | 2018-10-30 | 2020-08-25 | GM Global Technology Operations LLC | Method and system for reconstructing a vehicle scene at a cloud layer |
US11808887B2 (en) | 2018-11-02 | 2023-11-07 | Waymo Llc | Methods and systems for mapping retroreflectors |
CN113287031B (zh) | 2018-11-02 | 2024-07-23 | 伟摩有限责任公司 | 车辆的多个旋转传感器的同步 |
US11275146B2 (en) * | 2018-11-08 | 2022-03-15 | Infineon Technologies Ag | LIDAR system with non-uniform sensitivity response |
DE102018128164A1 (de) * | 2018-11-12 | 2020-05-14 | Infineon Technologies Ag | Lidar-sensoren und verfahren für lidar-sensoren |
CN114114606B (zh) | 2018-11-14 | 2024-09-06 | 图达通智能美国有限公司 | 使用多面镜的lidar系统和方法 |
WO2020098771A1 (zh) * | 2018-11-16 | 2020-05-22 | 上海禾赛光电科技有限公司 | 一种激光雷达系统 |
AU2018282304B2 (en) | 2018-11-16 | 2020-08-13 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for positioning vehicles under poor lighting conditions |
US11287824B2 (en) * | 2018-11-19 | 2022-03-29 | Mobile Industrial Robots A/S | Detecting a location of an autonomous device |
KR20210093306A (ko) * | 2018-11-20 | 2021-07-27 | 센스 포토닉스, 인크. | 공간적으로 분포된 스트로빙을 위한 방법들 및 시스템들 |
US10877264B2 (en) * | 2018-11-20 | 2020-12-29 | Infineon Technologies Ag | Adaptive and context-aware micro-electro-mechanical systems (MEMS) mirror control |
DE102018129572A1 (de) * | 2018-11-23 | 2020-05-28 | Bayerische Motoren Werke Aktiengesellschaft | Fahrassistenzsystem für ein automatisiert fahrendes Fahrzeug und Verfahren zum Führen eines automatisiert fahrenden Fahrzeugs |
KR102549130B1 (ko) * | 2018-11-26 | 2023-07-03 | 제트카베 그룹 게엠베하 | 적응형 후진 라이트를 갖는 차량 비전 시스템 |
US11921218B2 (en) * | 2018-11-30 | 2024-03-05 | Garmin Switzerland Gmbh | Marine vessel LIDAR system |
US11391822B2 (en) | 2018-11-30 | 2022-07-19 | Seagate Technology Llc | Rotating pyramidal mirror |
US11181621B2 (en) | 2018-12-07 | 2021-11-23 | Beijing Voyager Technology Co., Ltd. | Mirror assembly for light steering |
US11119195B2 (en) | 2018-12-07 | 2021-09-14 | Beijing Voyager Technology Co., Ltd. | Mirror assembly for light steering |
US10422881B1 (en) * | 2018-12-07 | 2019-09-24 | Didi Research America, Llc | Mirror assembly for light steering |
WO2020117287A1 (en) | 2018-12-07 | 2020-06-11 | Didi Research America, Llc | Mirror assembly for light steering |
US10791282B2 (en) | 2018-12-13 | 2020-09-29 | Fenwick & West LLP | High dynamic range camera assembly with augmented pixels |
US10855896B1 (en) * | 2018-12-13 | 2020-12-01 | Facebook Technologies, Llc | Depth determination using time-of-flight and camera assembly with augmented pixels |
US11468710B2 (en) * | 2018-12-13 | 2022-10-11 | Gentex Corporation | Alignment apparatus for vehicle authentication system |
US10791286B2 (en) | 2018-12-13 | 2020-09-29 | Facebook Technologies, Llc | Differentiated imaging using camera assembly with augmented pixels |
FR3090124B1 (fr) * | 2018-12-14 | 2022-07-15 | Valeo Comfort & Driving Assistance | Capteur de temps de vol et système de surveillance comportant un tel capteur |
US11313968B2 (en) * | 2018-12-14 | 2022-04-26 | Texas Instruments Incorporated | Interference signal rejection in LIDAR systems |
US10661795B1 (en) * | 2018-12-20 | 2020-05-26 | Verizon Patent And Licensing Inc. | Collision detection platform |
DE102018222721A1 (de) * | 2018-12-21 | 2020-06-25 | Robert Bosch Gmbh | LIDAR-Sensor für ein LIDAR-System |
US11709231B2 (en) | 2018-12-21 | 2023-07-25 | Infineon Technologies Ag | Real time gating and signal routing in laser and detector arrays for LIDAR application |
US11175390B2 (en) | 2018-12-24 | 2021-11-16 | Beijing Voyager Technology Co., Ltd. | Real-time estimation of DC bias and noise power of light detection and ranging (LiDAR) |
CN111369784A (zh) * | 2018-12-25 | 2020-07-03 | 北京嘀嘀无限科技发展有限公司 | 一种控制车道流量的方法及装置 |
CN111366947B (zh) * | 2018-12-26 | 2022-04-22 | 武汉万集信息技术有限公司 | 导航激光雷达对场景的识别方法、装置及系统 |
CN115267802A (zh) * | 2018-12-29 | 2022-11-01 | 华为技术有限公司 | 一种激光测量模组和激光雷达 |
WO2020135802A1 (zh) * | 2018-12-29 | 2020-07-02 | 华为技术有限公司 | 一种激光测量模组和激光雷达 |
US11332007B2 (en) * | 2019-01-03 | 2022-05-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Vehicle speed control using speed maps |
KR102384684B1 (ko) * | 2019-01-04 | 2022-04-08 | 블랙모어 센서스 앤드 애널리틱스, 엘엘씨 | 굴절 빔 조향 방법 및 시스템 |
WO2020142941A1 (zh) * | 2019-01-09 | 2020-07-16 | 深圳市大疆创新科技有限公司 | 一种光发射方法、装置及扫描系统 |
US11675062B2 (en) | 2019-01-10 | 2023-06-13 | Gm Cruise Holdings Llc | Context aware real-time power adjustment for steerable lidar |
DE112020000407B4 (de) | 2019-01-10 | 2024-02-15 | Innovusion, Inc. | Lidar-systeme und -verfahren mit strahllenkung und weitwinkelsignaldetektion |
US11274800B2 (en) * | 2019-01-11 | 2022-03-15 | Valeo North America, Inc. | IR illuminator with asymetric radiation pattern |
KR102299264B1 (ko) * | 2019-01-16 | 2021-09-07 | 삼성전자주식회사 | 라이다 장치 |
WO2020152716A1 (en) * | 2019-01-25 | 2020-07-30 | Ankur Anchlia | System-on-chip interfaced with sensor for processing sensor output signals |
CN109917348B (zh) * | 2019-01-25 | 2020-11-03 | 上海禾赛科技股份有限公司 | 一种激光雷达系统 |
JP2022517985A (ja) * | 2019-01-28 | 2022-03-11 | スタンレー電気株式会社 | 霧を介した画像強調のための弾道光変調 |
US10926273B2 (en) * | 2019-01-31 | 2021-02-23 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for modifying an infrared signature of a vehicle |
DE102019201666A1 (de) * | 2019-02-08 | 2020-08-13 | Ford Global Technologies, Llc | Verfahren zum Betrieb eines selbstfahrenden Kraftfahrzeugs |
US11486970B1 (en) | 2019-02-11 | 2022-11-01 | Innovusion, Inc. | Multiple beam generation from a single source beam for use with a LiDAR system |
TWI693419B (zh) * | 2019-02-13 | 2020-05-11 | 國立交通大學 | 訊號處理方法 |
CN111610506A (zh) * | 2019-02-22 | 2020-09-01 | 宁波舜宇车载光学技术有限公司 | 多点扫描激光雷达及其探测方法 |
EP3702809A1 (en) * | 2019-02-27 | 2020-09-02 | Nokia Solutions and Networks Oy | Device navigation |
DE102019105478A1 (de) * | 2019-03-05 | 2020-09-10 | Infineon Technologies Ag | LIDAR-Sensoren und Verfahren für dieselben |
US11947041B2 (en) * | 2019-03-05 | 2024-04-02 | Analog Devices, Inc. | Coded optical transmission for optical detection |
JP7227391B2 (ja) * | 2019-03-14 | 2023-02-21 | ウェイモ エルエルシー | センサハウジングの障害物を検出するための方法およびシステム |
US20200292703A1 (en) * | 2019-03-14 | 2020-09-17 | Visteon Global Technologies, Inc. | Flexible field of view solid state lidar |
EP3719529A1 (en) * | 2019-03-20 | 2020-10-07 | Ricoh Company, Ltd. | Range finding device and range finding method |
US11440471B2 (en) * | 2019-03-21 | 2022-09-13 | Baidu Usa Llc | Automated warning system to detect a front vehicle slips backwards |
US20220180643A1 (en) * | 2019-03-22 | 2022-06-09 | Vergence Automation, Inc. | Vectorization for object detection, recognition, and assessment for vehicle vision systems |
JP7172786B2 (ja) * | 2019-03-22 | 2022-11-16 | トヨタ自動車株式会社 | 車両制御システム |
CN111750331A (zh) * | 2019-03-28 | 2020-10-09 | 深圳市中光工业技术研究院 | 一种具有探测功能的照明系统 |
EP3936884A4 (en) * | 2019-03-28 | 2022-03-16 | Huawei Technologies Co., Ltd. | RADAR POWER CONTROL METHOD AND DEVICE |
JP7371698B2 (ja) * | 2019-03-29 | 2023-10-31 | オムロン株式会社 | 存在検知システムに対する視覚インジケータ |
US10933803B2 (en) * | 2019-03-31 | 2021-03-02 | Gm Cruise Holdings Llc | Autonomous vehicle visual based communication |
US11325523B2 (en) * | 2019-04-02 | 2022-05-10 | Pony Ai Inc. | Lighting element control for an autonomous vehicle |
US11579299B2 (en) * | 2019-04-02 | 2023-02-14 | Litexel Inc. | 3D range imaging method using optical phased array and photo sensor array |
US10740405B1 (en) * | 2019-04-03 | 2020-08-11 | Capital One Services, Llc | Methods and systems for filtering vehicle information |
US11977185B1 (en) | 2019-04-04 | 2024-05-07 | Seyond, Inc. | Variable angle polygon for use with a LiDAR system |
US11022813B2 (en) | 2019-04-08 | 2021-06-01 | Qualcomm Incorporated | Multifunction light projector with multistage adjustable diffractive optical elements |
CN109991025B (zh) * | 2019-04-08 | 2023-11-14 | 中国矿业大学(北京) | 一种地铁管片偏差自动测量靶及其测量方法 |
EP3953727A4 (en) | 2019-04-09 | 2023-01-04 | Opsys Tech Ltd. | SOLID STATE LIDAR TRANSMITTER WITH LASER CONTROL |
US11402472B2 (en) | 2019-04-16 | 2022-08-02 | Argo AI, LLC | Polarization sensitive LiDAR system |
JP7396353B2 (ja) * | 2019-04-17 | 2023-12-12 | ニデック株式会社 | 地図作成システム、信号処理回路、移動体および地図作成方法 |
US11800205B2 (en) * | 2019-04-18 | 2023-10-24 | University Of Florida Research Foundation, Incorporated | Fast foveation camera and controlling algorithms |
US11320535B2 (en) | 2019-04-24 | 2022-05-03 | Analog Devices, Inc. | Optical system for determining interferer locus among two or more regions of a transmissive liquid crystal structure |
US10641897B1 (en) | 2019-04-24 | 2020-05-05 | Aeye, Inc. | Ladar system and method with adaptive pulse duration |
US11378485B2 (en) * | 2019-04-26 | 2022-07-05 | Mikael Sven Johan Sjoblom | Structural monitoring system |
CN110261865B (zh) * | 2019-05-05 | 2021-06-15 | 深圳大学 | 一种激光雷达多通道数据传输方法、激光雷达及其应用 |
WO2020223877A1 (en) * | 2019-05-06 | 2020-11-12 | Hesai Technology Co., Ltd. | Scanner control for lidar systems |
CN111988081A (zh) * | 2019-05-06 | 2020-11-24 | 上海汽车集团股份有限公司 | 一种激光雷达数据的冗余处理方法及系统 |
DE102019113406A1 (de) | 2019-05-21 | 2020-11-26 | Bayerische Motoren Werke Aktiengesellschaft | Beleuchtungsvorrichtung für ein Kraftfahrzeug |
DE102019207741A1 (de) * | 2019-05-27 | 2020-12-03 | Infineon Technologies Ag | Ein LIDAR-System, ein Verfahren für ein LIDAR-System und ein Empfänger für ein LIDAR-System mit ersten und zweiten Umwandlungselementen |
WO2020242834A1 (en) | 2019-05-30 | 2020-12-03 | OPSYS Tech Ltd. | Eye-safe long-range lidar system using actuator |
KR102538137B1 (ko) * | 2019-06-10 | 2023-05-31 | 옵시스 테크 엘티디 | 눈-안전 장거리 고체 상태 lidar 시스템 |
JP7079753B2 (ja) | 2019-06-11 | 2022-06-02 | 株式会社東芝 | 光検出装置、電子装置及び光検出方法 |
CN110275510B (zh) * | 2019-06-14 | 2021-12-07 | 百度在线网络技术(北京)有限公司 | 车辆控制模型的处理频率调整方法、装置和电子设备 |
WO2020256174A1 (ko) * | 2019-06-18 | 2020-12-24 | 엘지전자 주식회사 | 자율주행시스템에서 차량의 리소스 관리 방법 및 이를 위한 장치 |
KR20220024177A (ko) * | 2019-06-25 | 2022-03-03 | 옵시스 테크 엘티디 | 적응형 다중 펄스 lidar 시스템 |
US11476641B1 (en) | 2019-06-25 | 2022-10-18 | Mac Thin Films, Inc. | Window for laser protection |
KR102190520B1 (ko) * | 2019-06-26 | 2020-12-11 | 주식회사 옵티맥 | 3차원 카메라 모듈 |
US10775175B1 (en) * | 2019-06-28 | 2020-09-15 | Rockwell Collins, Inc. | Wearable dead reckoning system for GPS-denied navigation |
KR20210003003A (ko) | 2019-07-01 | 2021-01-11 | 삼성전자주식회사 | 라이다 장치 및 그 제어 방법 |
DE102019209691A1 (de) * | 2019-07-02 | 2021-01-07 | Ibeo Automotive Systems GmbH | Anpassungsvorrichtung und Lidar-Messvorrichtung |
US20210003511A1 (en) * | 2019-07-03 | 2021-01-07 | Continental Automotive Systems, Inc. | Detection of damage to optical element of illumination system |
DE102019209935A1 (de) * | 2019-07-05 | 2020-07-23 | Carl Zeiss Ag | Vorrichtung und Verfahren zur Abstandsermittlung von Objekten |
CN112213730B (zh) * | 2019-07-10 | 2024-05-07 | 睿镞科技(北京)有限责任公司 | 三维测距方法和装置 |
US11269076B2 (en) | 2019-07-11 | 2022-03-08 | Mtd Products Inc | Solid state LIDAR machine vision for power equipment device |
US20210011162A1 (en) * | 2019-07-11 | 2021-01-14 | Argo AI, LLC | Polarization Filtering in LiDAR System |
JP7389578B2 (ja) * | 2019-07-16 | 2023-11-30 | シャープ株式会社 | 測距センサ |
US11447063B2 (en) * | 2019-07-18 | 2022-09-20 | GM Global Technology Operations LLC | Steerable scanning and perception system with active illumination |
US11303041B2 (en) * | 2019-07-24 | 2022-04-12 | Cypress Semiconductor Corporation | Machine learning-based antenna array validation, prototyping and optimization |
CN112363181B (zh) * | 2019-07-26 | 2024-04-05 | 现代摩比斯株式会社 | 车辆的激光雷达装置、激光雷达传感器控制装置及方法 |
KR102688425B1 (ko) * | 2019-08-13 | 2024-07-25 | 현대모비스 주식회사 | 라이다 센서 제어 장치 및 방법 |
US11662434B2 (en) | 2019-07-29 | 2023-05-30 | Ford Global Technologies, Llc | Depth sensor |
US20210055421A1 (en) * | 2019-08-22 | 2021-02-25 | Continental Automotive Systems, Inc. | Electrical circuit across optical element to detect damage |
US11556000B1 (en) | 2019-08-22 | 2023-01-17 | Red Creamery Llc | Distally-actuated scanning mirror |
CN110549941B (zh) * | 2019-08-23 | 2022-06-07 | 东南大学 | 一种基于实时信息的行人碰撞分级预警方法 |
CN110455367B (zh) * | 2019-08-29 | 2021-03-19 | 长江水利委员会长江科学院 | 联合无人机和高密度电阻率法的工程堆弃体量测量方法 |
CN112445215B (zh) * | 2019-08-29 | 2024-07-12 | 阿里巴巴集团控股有限公司 | 自动导引车行驶控制方法、装置及计算机系统 |
CN110554409B (zh) * | 2019-08-30 | 2021-06-04 | 江苏徐工工程机械研究院有限公司 | 一种凹障碍物检测方法及系统 |
CN110456372A (zh) * | 2019-08-30 | 2019-11-15 | 上海禾赛光电科技有限公司 | 激光雷达系统的测距方法以及激光雷达系统 |
CN110456326B (zh) * | 2019-08-31 | 2021-07-06 | 上海禾赛科技股份有限公司 | 一种扫描装置和包括其的激光雷达及操作方法 |
EP3789794A1 (de) * | 2019-09-04 | 2021-03-10 | Ibeo Automotive Systems GmbH | Verfahren und vorrichtung zur distanzmessung |
US11287530B2 (en) | 2019-09-05 | 2022-03-29 | ThorDrive Co., Ltd | Data processing system and method for fusion of multiple heterogeneous sensors |
JP7133523B2 (ja) | 2019-09-05 | 2022-09-08 | 株式会社東芝 | 光検出装置及び電子装置 |
US11635496B2 (en) | 2019-09-10 | 2023-04-25 | Analog Devices International Unlimited Company | Data reduction for optical detection |
EP4031832A4 (en) * | 2019-09-17 | 2023-10-18 | Carbon Autonomous Robotic Systems Inc. | WEED ERADICATION BY AUTONOMOUS LASER |
JP7153001B2 (ja) * | 2019-09-18 | 2022-10-13 | 株式会社東芝 | 光検出器、光検出システム、ライダー装置、及び車 |
JP7433819B2 (ja) * | 2019-09-19 | 2024-02-20 | 株式会社東芝 | 距離計測装置、及び距離計測方法 |
CN112528711B (zh) * | 2019-09-19 | 2024-06-25 | 阿波罗智能技术(北京)有限公司 | 用于处理信息的方法和装置 |
US11899139B2 (en) * | 2019-09-20 | 2024-02-13 | Intel Corporation | Photonic devices with redundant components and their applications |
KR20210036200A (ko) | 2019-09-25 | 2021-04-02 | 삼성전자주식회사 | 라이다 장치 및 그 동작 방법 |
US11159738B2 (en) * | 2019-09-25 | 2021-10-26 | Semiconductor Components Industries, Llc | Imaging devices with single-photon avalanche diodes having sub-exposures for high dynamic range |
US11579304B2 (en) | 2019-09-27 | 2023-02-14 | Gm Cruise Holdings Llc | Dynamic power throttling of spinning LIDAR |
US11144769B2 (en) * | 2019-09-30 | 2021-10-12 | Pony Ai Inc. | Variable resolution sensors |
DE102019126400A1 (de) * | 2019-09-30 | 2021-04-01 | Ford Global Technologies, Llc | Verfahren zum Betrieb eines Kraftfahrzeugs mit einem LIDAR-Sensor |
JP7283560B2 (ja) * | 2019-10-01 | 2023-05-30 | 富士通株式会社 | レーザセンサ、ミラー制御方法、及びプログラム |
CN110531377B (zh) * | 2019-10-08 | 2022-02-25 | 北京邮电大学 | 雷达系统的数据处理方法、装置、电子设备和存储介质 |
JP7259695B2 (ja) * | 2019-10-11 | 2023-04-18 | 株式会社デンソー | 光測距装置及び光測距装置の制御方法 |
KR20210043287A (ko) | 2019-10-11 | 2021-04-21 | 삼성전자주식회사 | 광학 장치 및 이를 포함하는 라이다 시스템 |
CN110579747B (zh) * | 2019-10-11 | 2021-11-19 | 北京邮电大学 | 用于道路的雷达系统布设方法、装置和电子设备 |
US11604259B2 (en) * | 2019-10-14 | 2023-03-14 | Infineon Technologies Ag | Scanning LIDAR receiver with a silicon photomultiplier detector |
US11675075B2 (en) * | 2019-10-15 | 2023-06-13 | Beijing Voyager Technology Co., Ltd. | Dynamic laser power control in light detection and ranging (LiDAR) systems |
DE102020104338A1 (de) * | 2019-10-15 | 2021-04-15 | HELLA GmbH & Co. KGaA | Verfahren zum Betreiben eines LiDAR Systems |
DE102019127667A1 (de) | 2019-10-15 | 2021-04-15 | Sick Ag | Entfernungsmessender optoelektronischer Sensor und Verfahren zur Erfassung eines Zielobjekts |
US11521328B2 (en) | 2019-10-16 | 2022-12-06 | Banner Engineering Corp | Image-based jam detection |
EP3812209A1 (de) * | 2019-10-23 | 2021-04-28 | ZKW Group GmbH | Lichtmodul für kraftfahrzeuge |
DE102019128661A1 (de) * | 2019-10-23 | 2021-04-29 | Valeo Schalter Und Sensoren Gmbh | Verarbeitung von Messdaten eines aktiven optischen Sensorsystems |
CN114721005A (zh) * | 2019-10-24 | 2022-07-08 | 趣眼有限公司 | 电光系统、生成图像信息的方法及计算机可读介质 |
KR102269098B1 (ko) * | 2019-10-29 | 2021-06-24 | 주식회사 한컴엔플럭스 | 보안 구역 내에 설치된 복수의 라이더 센서들을 통해 침입을 탐지하는 침입 탐지 장치 및 그 동작 방법 |
US11514594B2 (en) | 2019-10-30 | 2022-11-29 | Vergence Automation, Inc. | Composite imaging systems using a focal plane array with in-pixel analog storage elements |
US20220390560A1 (en) * | 2019-11-05 | 2022-12-08 | Outsight | Adaptive Active Safety System using Multi-spectral LIDAR, and Method implemented in the Adaptive Active Safety System |
CN110703232A (zh) * | 2019-11-07 | 2020-01-17 | 大连理工大学 | 一种复杂环境下的大型挖掘装备的三维环境感知系统 |
CN114829975A (zh) * | 2019-11-08 | 2022-07-29 | 沃伊亚影像有限公司 | 用于对车辆的周围环境进行感测的系统和方法 |
KR20210059591A (ko) * | 2019-11-13 | 2021-05-25 | 주식회사 에스오에스랩 | 옵틱 및 그 제작 방법 |
US10902623B1 (en) | 2019-11-19 | 2021-01-26 | Facebook Technologies, Llc | Three-dimensional imaging with spatial and temporal coding for depth camera assembly |
KR20210065259A (ko) | 2019-11-26 | 2021-06-04 | 삼성전자주식회사 | 레이더 장치 및 그 동작 방법 |
KR102276597B1 (ko) * | 2019-11-28 | 2021-07-14 | 한국전자기술연구원 | 벡터맵을 이용한 라이다 데이터 범위 최적화를 위한 차량 제어 장치 및 방법 |
US10797698B1 (en) | 2019-11-29 | 2020-10-06 | Waymo Llc | Systems and methods for selecting light emitters for emitting light |
US12025702B2 (en) * | 2019-11-29 | 2024-07-02 | Waymo Llc | Retroreflector detection and avoidance in a LIDAR device |
CN110995357A (zh) * | 2019-12-02 | 2020-04-10 | 大连理工大学 | 一种新型高鲁棒水下光通信系统 |
US11680804B2 (en) | 2019-12-02 | 2023-06-20 | Toyota Motor North America, Inc. | System and method for verifying roads |
US11740333B2 (en) * | 2019-12-04 | 2023-08-29 | Waymo Llc | Pulse energy plan for light detection and ranging (lidar) devices based on areas of interest and thermal budgets |
US11346924B2 (en) * | 2019-12-09 | 2022-05-31 | Waymo Llc | SiPM with cells of different sizes |
US11176647B2 (en) | 2019-12-11 | 2021-11-16 | Toyota Motor Engineering And Manufacturing North America, Inc. | Image and object detection enhancement based on lighting profiles |
DE102019134181A1 (de) * | 2019-12-12 | 2021-06-17 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Steuern eines Laserscanners für ein Kraftfahrzeug |
CN110703224A (zh) * | 2019-12-16 | 2020-01-17 | 杭州辰知光科技有限公司 | 一种面向无人驾驶的扫描型tof激光雷达 |
WO2021126082A1 (en) * | 2019-12-20 | 2021-06-24 | Ams Sensors Asia Pte. Ltd. | Eye-safe operation of lidar scanner |
WO2021126081A1 (en) * | 2019-12-20 | 2021-06-24 | Ams Sensors Asia Pte. Ltd. | Lidar with multi-range channels |
RU2762618C2 (ru) * | 2019-12-23 | 2021-12-21 | Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" | ЛИДАРНАЯ (LiDAR) СИСТЕМА ДЛЯ ОБНАРУЖЕНИЯ ОБЪЕКТОВ В ИНТЕРЕСУЮЩЕЙ ОБЛАСТИ И СПОСОБ НА ЕЕ ОСНОВЕ |
RU2762744C2 (ru) * | 2019-12-23 | 2021-12-22 | Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" | СПОСОБЫ И СИСТЕМЫ ОБНАРУЖЕНИЯ С ПОМОЩЬЮ ЛИДАРА (LiDAR) С ВОЛОКОННО-ОПТИЧЕСКОЙ МАТРИЦЕЙ |
CN111123253B (zh) * | 2019-12-26 | 2022-05-17 | 成都纳雷科技有限公司 | 基于自适应门限目标聚类的车辆识别方法、系统及介质 |
WO2021051722A1 (zh) * | 2020-01-03 | 2021-03-25 | 深圳市速腾聚创科技有限公司 | 激光雷达及自动驾驶设备 |
WO2021139834A1 (zh) * | 2020-01-06 | 2021-07-15 | 宁波舜宇车载光学技术有限公司 | 激光雷达、用于激光雷达的探测方法和制造方法 |
US20210208251A1 (en) * | 2020-01-07 | 2021-07-08 | Continental Automotive Systems, Inc. | Lidar system including scanning field of illumination |
US11790555B2 (en) | 2020-01-17 | 2023-10-17 | Electronics And Telecommunications Research Institute | System and method for fusion recognition using active stick filter |
KR102441424B1 (ko) * | 2020-01-17 | 2022-09-07 | 한국전자통신연구원 | 능동 스틱 필터를 이용한 융합 인식 시스템 및 그 방법 |
US11194160B1 (en) | 2020-01-21 | 2021-12-07 | Facebook Technologies, Llc | High frame rate reconstruction with N-tap camera sensor |
RU197056U1 (ru) * | 2020-01-22 | 2020-03-26 | Акционерное общество "Московский завод "САПФИР" | Двухканальный комбинированный прибор ночного видения с радиолокационным каналом |
IT202000001411A1 (it) * | 2020-01-24 | 2021-07-24 | St Microelectronics Srl | Metodo di lavorazione di una fetta per la fabbricazione di una struttura oscillante quale un microspecchio |
US11520010B2 (en) * | 2020-01-29 | 2022-12-06 | GM Global Technology Operations LLC | Dynamic polarization modulation of a lidar system in a vehicle |
JP7268616B2 (ja) * | 2020-01-30 | 2023-05-08 | いすゞ自動車株式会社 | 報知装置 |
JP7452044B2 (ja) * | 2020-01-31 | 2024-03-19 | 株式会社デンソー | 光検出装置 |
IL272450B (en) | 2020-02-03 | 2021-10-31 | Elbit Systems Ltd | A system and method for creating 3D maps based on mapping information |
US11536843B2 (en) * | 2020-02-08 | 2022-12-27 | The Boeing Company | De-jitter of point cloud data for target recognition |
US12071084B2 (en) * | 2020-02-14 | 2024-08-27 | Magna Electronics Inc. | Vehicular sensing system with variable power mode for thermal management |
CN111175768B (zh) * | 2020-02-14 | 2022-06-14 | 深圳奥锐达科技有限公司 | 一种离轴扫描距离测量系统及方法 |
CN113267762A (zh) * | 2020-02-17 | 2021-08-17 | 上海禾赛科技有限公司 | 激光雷达 |
US10901074B1 (en) | 2020-02-17 | 2021-01-26 | Hesai Technology Co., Ltd. | Systems and methods for improving Lidar performance |
US11408995B2 (en) * | 2020-02-24 | 2022-08-09 | Aptiv Technologies Limited | Lateral-bin monitoring for radar target detection |
US11538179B2 (en) * | 2020-02-25 | 2022-12-27 | Zebra Technologies Corporation | Depth-based data capture system configuration |
CN111239752A (zh) * | 2020-02-27 | 2020-06-05 | 宁波飞芯电子科技有限公司 | 可编程探测器及自适应测距方法 |
EP4155762A4 (en) * | 2020-03-04 | 2024-07-24 | Miele & Cie | MICRO-LIDAR SENSOR |
USD948563S1 (en) * | 2020-03-05 | 2022-04-12 | Jaguar Land Rover Limited | Display screen or portion thereof with icon |
DE112021001525T5 (de) * | 2020-03-09 | 2023-01-05 | Nec Corporation | Managementsystem |
KR102186830B1 (ko) * | 2020-03-13 | 2020-12-04 | 주식회사 자오스모터스 | 인공지능에 대응한 라이다 시스템 |
CN111272183A (zh) * | 2020-03-16 | 2020-06-12 | 达闼科技成都有限公司 | 一种地图创建方法、装置、电子设备及存储介质 |
US11521504B2 (en) * | 2020-03-18 | 2022-12-06 | Rosemount Aerospace Inc. | Method and system for aircraft taxi strike alerting |
DE102020107377A1 (de) | 2020-03-18 | 2021-09-23 | Valeo Schalter Und Sensoren Gmbh | Verfahren zur Verarbeitung einer dreidimensionalen Punktwolke |
CN111307159B (zh) * | 2020-03-19 | 2022-11-18 | 哈尔滨工程大学 | 一种多auv三维协同航路规划方法 |
CN111524344A (zh) * | 2020-03-25 | 2020-08-11 | 武汉纵横智慧城市股份有限公司 | 基于大数据的车辆排放监测方法、设备、存储介质及装置 |
US11810160B1 (en) * | 2020-03-27 | 2023-11-07 | United Services Automobile Association | Building mapping tools |
DE102020110142A1 (de) * | 2020-04-14 | 2021-10-14 | Scantinel Photonics GmbH | Vorrichtung und Verfahren zur scannenden Messung des Abstands zu einem Objekt |
CN111541031B (zh) * | 2020-04-16 | 2021-08-10 | 华南理工大学 | 一种宽带低剖面传输阵列天线及无线通信设备 |
CN111453691B (zh) * | 2020-04-21 | 2023-05-12 | 安徽奥飞声学科技有限公司 | 一种mems结构的制造方法 |
DE102020112311B3 (de) * | 2020-05-06 | 2021-05-20 | Audi Aktiengesellschaft | Kraftfahrzeug mit einem optischen Umgebungssensor und Verfahren zum Betrieb eines Kraftfahrzeugs |
DE102020113647A1 (de) | 2020-05-20 | 2021-11-25 | Blickfeld GmbH | Optical System for Light Detection and Ranging, LIDAR |
CN111652292B (zh) * | 2020-05-20 | 2022-12-06 | 贵州电网有限责任公司 | 一种基于ncs、ms的相似物体实时检测方法及系统 |
US11115734B1 (en) * | 2020-05-28 | 2021-09-07 | Northrop Grumman Systems Corporation | Spatial transmit/receive isolation apparatus and method for optical communication systems |
ES2882834A1 (es) * | 2020-06-02 | 2021-12-02 | Beamagine S L | Sistema y método para el rastreo de objetos en movimiento en vehículos |
DE102020115252B4 (de) | 2020-06-09 | 2024-06-13 | Mercedes-Benz Group AG | Verfahren und Vorrichtung zu einer Erkennung von Verunreinigungen auf einer Schutzscheibe eines Lidarsensors |
CN113807108B (zh) * | 2020-06-11 | 2023-07-18 | 杭州九阳小家电有限公司 | 一种炒菜机的料盒识别方法 |
KR102326598B1 (ko) * | 2020-06-11 | 2021-11-17 | 박상욱 | 자율주행 정보 획득 장치를 구비하는 버스 |
US20230221441A1 (en) * | 2020-06-12 | 2023-07-13 | Baraja Pty Ltd | Light-based spatial estimation transmission and reception systems |
GB2598078B (en) * | 2020-06-17 | 2022-12-21 | Jaguar Land Rover Ltd | Vehicle control system using a scanning system |
US11815627B2 (en) | 2020-06-18 | 2023-11-14 | Beijing Voyager Technology Co., Ltd. | Mirror assembly for light steering with reduced finger thickness |
US11796638B2 (en) * | 2020-06-18 | 2023-10-24 | Beijing Voyager Technology Co., Ltd. | Mirror assembly for light steering with flexible support structure |
WO2021256226A1 (ja) * | 2020-06-19 | 2021-12-23 | パナソニックIpマネジメント株式会社 | 測距装置および測距システム |
WO2021258246A1 (zh) * | 2020-06-22 | 2021-12-30 | 华为技术有限公司 | 一种雷达系统、可移动设备与雷达探测方法 |
CN111751833A (zh) * | 2020-06-24 | 2020-10-09 | 深圳市汇顶科技股份有限公司 | 一种打光以及反射光数据获取方法、装置 |
US10960900B1 (en) * | 2020-06-30 | 2021-03-30 | Aurora Innovation, Inc. | Systems and methods for autonomous vehicle control using depolarization ratio of return signal |
DE102020208099A1 (de) * | 2020-06-30 | 2021-12-30 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Ermitteln einer eine Umgebung eines LiDAR-Sensors repräsentierenden Punktwolke |
US20220003851A1 (en) * | 2020-07-03 | 2022-01-06 | Beijing Voyager Technology Co., Ltd. | Dynamic receiver gain control for lidar system |
US20220004012A1 (en) * | 2020-07-06 | 2022-01-06 | Seagate Technology Llc | Variable resolution and automatic windowing for lidar |
US11802970B2 (en) | 2020-07-08 | 2023-10-31 | Aptiv Technologies Limited | Alternating power-level scanning for time-of-flight lidar systems |
US11982749B2 (en) | 2020-07-13 | 2024-05-14 | Aptiv Technologies AG | Detection of pulse trains by time-of-flight lidar systems |
WO2022014532A1 (ja) * | 2020-07-15 | 2022-01-20 | 株式会社小糸製作所 | 光反射装置、センサ装置、および照明装置 |
CN112558511A (zh) * | 2020-07-20 | 2021-03-26 | 浙江明德微电子股份有限公司 | 消防通道智能监管系统 |
CA3125623C (en) | 2020-07-21 | 2023-06-27 | Leddartech Inc. | Beam-steering device particularly for lidar systems |
CA3125718C (en) * | 2020-07-21 | 2023-10-03 | Leddartech Inc. | Beam-steering devices and methods for lidar applications |
WO2022016277A1 (en) | 2020-07-21 | 2022-01-27 | Leddartech Inc. | Systems and methods for wide-angle lidar using non-uniform magnification optics |
US20220026537A1 (en) * | 2020-07-22 | 2022-01-27 | Beijing Voyager Technology Co., Ltd. | Systems and methods for sensing rotation angles of a micro mirror in an optical sensing system |
CN112073722B (zh) * | 2020-07-23 | 2024-05-17 | 西安万像电子科技有限公司 | 图像处理方法、装置、设备及存储介质 |
CN113970748A (zh) * | 2020-07-23 | 2022-01-25 | 上海禾赛科技有限公司 | 激光雷达及其探测方法 |
DE102020119722A1 (de) | 2020-07-27 | 2022-01-27 | Valeo Schalter Und Sensoren Gmbh | Temperatursteuerung in einem aktiven optischen Sensorsystem |
KR20220014717A (ko) * | 2020-07-29 | 2022-02-07 | 엘지이노텍 주식회사 | 거리 측정 카메라 |
KR102400605B1 (ko) * | 2020-08-04 | 2022-05-20 | 한국기계연구원 | 거리측정 헤드 및 이를 구비한 다중대상 거리측정 시스템 |
CN111965626B (zh) * | 2020-08-11 | 2023-03-10 | 上海禾赛科技有限公司 | 用于激光雷达的回波检测校正方法及装置、环境感知系统 |
WO2022040366A1 (en) * | 2020-08-18 | 2022-02-24 | IntelliShot Holdings, Inc. | Automated threat detection and deterrence apparatus |
CN114078330A (zh) * | 2020-08-20 | 2022-02-22 | 华为技术有限公司 | 交通信号的识别方法和装置 |
US20220057514A1 (en) * | 2020-08-24 | 2022-02-24 | Beijing Voyager Technology Co., Ltd. | Mirror assembly for light steering |
US11977169B2 (en) * | 2020-08-24 | 2024-05-07 | Innoviz Technologies Ltd. | Multi-beam laser emitter with common optical path |
WO2022043749A1 (en) * | 2020-08-24 | 2022-03-03 | Innoviz Technologies Ltd. | Multiple simultaneous laser beam emission and illumination while ensuring eye safety |
CN114114305A (zh) * | 2020-08-27 | 2022-03-01 | 鸿富锦精密工业(深圳)有限公司 | 激光光路系统及激光雷达 |
CN114114288B (zh) * | 2020-08-27 | 2022-11-18 | 上海禾赛科技有限公司 | 用于激光雷达的测量电路及其测量方法、以及激光雷达 |
DE102020005343A1 (de) * | 2020-08-31 | 2022-03-03 | Daimler Ag | Verfahren zur Objektverfolgung von mindestens einem Objekt, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Objektverfolgungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Objektverfolgungsvorrichtung |
CN112198495B (zh) * | 2020-09-04 | 2022-03-08 | 腾讯科技(深圳)有限公司 | 激光雷达仿真及其参数标定方法、装置和设备 |
EP4213127A4 (en) * | 2020-09-07 | 2023-12-20 | Panasonic Intellectual Property Management Co., Ltd. | INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING APPARATUS |
US11828854B2 (en) * | 2020-09-09 | 2023-11-28 | WeRide Corp. | Automatic LIDAR performance monitoring and maintenance for autonomous driving |
CN116235072A (zh) * | 2020-09-14 | 2023-06-06 | 应诺维思科技有限公司 | 具有可变分辨率多光束扫描的激光雷达系统 |
CN114265076A (zh) * | 2020-09-16 | 2022-04-01 | 华为技术有限公司 | 探测装置的控制方法和控制装置、激光雷达系统和终端 |
US11790671B2 (en) | 2020-10-05 | 2023-10-17 | Crazing Lab, Inc. | Vision based light detection and ranging system using multi-fields of view |
US20220120905A1 (en) * | 2020-10-15 | 2022-04-21 | Waymo Llc | Speed Determination Using Light Detection and Ranging (LIDAR) Device |
CN114488176A (zh) * | 2020-10-23 | 2022-05-13 | 睿镞科技(北京)有限责任公司 | 3d图像传感器测距系统及使用该系统进行测距的方法 |
KR102390231B1 (ko) * | 2020-10-29 | 2022-04-25 | (주)스핀텍 | 스캐닝 라이다 및 이의 측정 시야각 제어 방법 |
US11320124B1 (en) | 2020-10-29 | 2022-05-03 | Waymo Llc | Infrared light module uniformity rotational test module |
US20220136817A1 (en) * | 2020-11-02 | 2022-05-05 | Artilux, Inc. | Reconfigurable Optical Sensing Apparatus and Method Thereof |
KR20220060891A (ko) * | 2020-11-05 | 2022-05-12 | 주식회사 케이티 | 라이다 장치 |
CN112389440B (zh) * | 2020-11-07 | 2021-06-04 | 吉林大学 | 一种基于车路作用机理的越野环境中车辆行驶风险预测方法 |
KR102385094B1 (ko) * | 2020-11-11 | 2022-04-11 | 주식회사 유니트론텍 | 라이다 센서 테스트 시스템 |
US12091022B2 (en) * | 2020-11-11 | 2024-09-17 | Hyundai Mobis Co., Ltd. | Radar system for vehicles and method for operating the same |
US20220155416A1 (en) * | 2020-11-13 | 2022-05-19 | Beijing Voyager Technology Co., Ltd. | Laser emission control in light detection and ranging (lidar) systems |
DE102020007064B4 (de) | 2020-11-19 | 2022-08-11 | Daimler Truck AG | Verfahren zum Kalibrieren einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung |
US12105222B2 (en) * | 2020-11-23 | 2024-10-01 | Harman International Industries, Incorporated | Systems and methods for reducing cognitive workload and energy consumption by a sensor utilized on a vehicle |
US11835949B2 (en) | 2020-11-24 | 2023-12-05 | Mobile Industrial Robots A/S | Autonomous device safety system |
WO2022123887A1 (ja) * | 2020-12-11 | 2022-06-16 | パナソニックIpマネジメント株式会社 | 測距装置および移動体 |
CN114640394B (zh) * | 2020-12-15 | 2023-05-26 | 中国联合网络通信集团有限公司 | 通信方法及通信装置 |
US11747611B2 (en) | 2020-12-16 | 2023-09-05 | Stmicroelectronics (Research & Development) Limited | Compact line scan mems time of flight system with actuated lens |
CN112819877B (zh) * | 2021-01-12 | 2024-07-09 | 深圳辰视智能科技有限公司 | 一种激光线点云生成方法、装置及计算机可读存储介质 |
CN112880976B (zh) * | 2021-01-14 | 2023-02-28 | 歌尔股份有限公司 | 入射光束的角度调节装置和反射器件的制造方法 |
CN112882014B (zh) * | 2021-01-20 | 2023-08-22 | 东风汽车集团股份有限公司 | 凸台凹坑识别方法及系统 |
EP4285142A1 (en) * | 2021-01-28 | 2023-12-06 | Preciseley Microtechnology Corporation | Lidar systems with mems micromirrors and micromirror arrays |
EP4036596A1 (en) * | 2021-02-01 | 2022-08-03 | Nokia Technologies Oy | High resolution lidar scanning |
US11763425B2 (en) | 2021-02-03 | 2023-09-19 | Qualcomm Incorporated | High resolution time-of-flight depth imaging |
DE102021102425A1 (de) * | 2021-02-03 | 2022-08-04 | Valeo Schalter Und Sensoren Gmbh | Erkennung einer Helligkeitsänderung in der Umgebung eines Kraftfahrzeugs |
WO2022178667A1 (zh) * | 2021-02-23 | 2022-09-01 | 华为技术有限公司 | 一种激光雷达系统、调整方法及相关设备 |
EP4260086A1 (en) | 2021-03-01 | 2023-10-18 | Innovusion, Inc. | Fiber-based transmitter and receiver channels of light detection and ranging systems |
US20220283273A1 (en) * | 2021-03-04 | 2022-09-08 | Beijing Voyager Technology Co., Ltd. | Scanning fiber transmitter for distance detection |
US12111397B2 (en) | 2021-03-09 | 2024-10-08 | Banner Engineering Corp. | Pixel domain field calibration of triangulation sensors |
CN117063089A (zh) * | 2021-03-11 | 2023-11-14 | 深圳市速腾聚创科技有限公司 | 固态激光雷达的微振镜控制方法、装置和固态激光雷达 |
US20220291389A1 (en) * | 2021-03-15 | 2022-09-15 | Argo AI, LLC | Reducing coexistence interference for light detection and ranging |
CN113809109A (zh) * | 2021-03-18 | 2021-12-17 | 神盾股份有限公司 | 光感测阵列模块与光收发装置 |
US20220299318A1 (en) * | 2021-03-19 | 2022-09-22 | Topcon Corporation | Surveying system, surveying method, and storage medium storing surveying program |
US11500093B2 (en) | 2021-03-26 | 2022-11-15 | Aeye, Inc. | Hyper temporal lidar using multiple matched filters to determine target obliquity |
US11635495B1 (en) * | 2021-03-26 | 2023-04-25 | Aeye, Inc. | Hyper temporal lidar with controllable tilt amplitude for a variable amplitude scan mirror |
US11630188B1 (en) * | 2021-03-26 | 2023-04-18 | Aeye, Inc. | Hyper temporal lidar with dynamic laser control using safety models |
US11675059B2 (en) | 2021-03-26 | 2023-06-13 | Aeye, Inc. | Hyper temporal lidar with elevation-prioritized shot scheduling |
US11474214B1 (en) | 2021-03-26 | 2022-10-18 | Aeye, Inc. | Hyper temporal lidar with controllable pulse bursts to resolve angle to target |
US20230044929A1 (en) | 2021-03-26 | 2023-02-09 | Aeye, Inc. | Multi-Lens Lidar Receiver with Multiple Readout Channels |
US11686845B2 (en) | 2021-03-26 | 2023-06-27 | Aeye, Inc. | Hyper temporal lidar with controllable detection intervals based on regions of interest |
CN113031010B (zh) * | 2021-03-31 | 2023-04-28 | 小马易行科技(上海)有限公司 | 检测天气的方法、装置、计算机可读存储介质与处理器 |
US20220334260A1 (en) * | 2021-04-16 | 2022-10-20 | Santec Corporation | Systems and methods for lidar sensing |
US12106534B2 (en) | 2021-04-19 | 2024-10-01 | Apple Inc. | Cinematic image framing for wide field of view (FOV) cameras |
US11887283B2 (en) * | 2021-04-19 | 2024-01-30 | Apple Inc. | Fast distortion correction for wide field of view (FOV) cameras |
DE102021109727A1 (de) | 2021-04-19 | 2022-10-20 | Bayerische Motoren Werke Aktiengesellschaft | Lidar-Sensor für ein Fahrzeug mit Empfangselement zum Fokussieren in einem Brennpunktbereich, Fahrzeug umfassend einen Lidar-Sensor sowie Verfahren zum Betreiben eines Lidar-Sensors |
US11555895B2 (en) | 2021-04-20 | 2023-01-17 | Innovusion, Inc. | Dynamic compensation to polygon and motor tolerance using galvo control profile |
JP2022166647A (ja) * | 2021-04-21 | 2022-11-02 | パナソニックIpマネジメント株式会社 | 光学測定装置、実装基板の組立装置、および、実装基板の組立方法 |
US11614521B2 (en) * | 2021-04-21 | 2023-03-28 | Innovusion, Inc. | LiDAR scanner with pivot prism and mirror |
CN117178199A (zh) | 2021-04-22 | 2023-12-05 | 图达通智能美国有限公司 | 具有高分辨率和超宽视场的紧凑型光检测和测距设计 |
WO2022225859A1 (en) | 2021-04-22 | 2022-10-27 | Innovusion, Inc. | A compact lidar design with high resolution and ultra-wide field of view |
CN115267727A (zh) * | 2021-04-30 | 2022-11-01 | 上海禾赛科技有限公司 | 光探测装置及行驶载具 |
CN113156445B (zh) * | 2021-05-11 | 2023-10-20 | 东风汽车集团股份有限公司 | 一种超声波雷达盲区监测系统及监测方法 |
US20220373649A1 (en) * | 2021-05-17 | 2022-11-24 | Raytheon Company | Mode chaining for multifunction laser radar |
IL283638B2 (en) * | 2021-05-18 | 2023-04-01 | Elbit Systems Ltd | A system and method for creating focused 3D maps |
WO2022246465A1 (en) * | 2021-05-21 | 2022-11-24 | Connectsix Llc | Atmospheric sensor using programmable time-gated detection aperture |
CN117413199A (zh) | 2021-05-21 | 2024-01-16 | 图达通智能美国有限公司 | 使用lidar扫描仪内部的检流计镜进行智能扫描的移动配置文件 |
TWI780732B (zh) * | 2021-05-26 | 2022-10-11 | 光焱科技股份有限公司 | 光調變系統、方法、電腦程式產品及電腦可讀取紀錄媒體 |
CN115407579B (zh) * | 2021-05-26 | 2024-09-20 | 光焱科技股份有限公司 | 光调制系统、方法、计算机存储介质及计算机程序产品 |
US20220381594A1 (en) * | 2021-05-28 | 2022-12-01 | Contitech Transportbandsysteme Gmbh | Volume flow measurement of material using 3d lidar |
US11402475B1 (en) * | 2021-05-28 | 2022-08-02 | Aeva, Inc. | Techniques for periodic synchronization of light system |
US20240192332A1 (en) * | 2021-05-28 | 2024-06-13 | Intel Corporation | Light detection and ranging systems |
US20240151836A1 (en) * | 2021-05-28 | 2024-05-09 | Intel Corporation | Controlling means for a light detection and ranging system and non-transitory computer readable mediums |
US11624831B2 (en) * | 2021-06-09 | 2023-04-11 | Suteng Innovation Technology Co., Ltd. | Obstacle detection method and apparatus and storage medium |
WO2022257137A1 (zh) * | 2021-06-11 | 2022-12-15 | 深圳市大疆创新科技有限公司 | 激光雷达控制方法、装置、激光雷达及存储介质 |
CN113156397B (zh) * | 2021-06-25 | 2021-10-19 | 雷神等离子科技(杭州)有限公司 | 一种高灵敏度激光雷达及其信号处理方法、定位方法 |
DE102021119350A1 (de) | 2021-07-27 | 2023-02-02 | Valeo Schalter Und Sensoren Gmbh | Objektverfolgung mittels eines Laserscanners |
KR20230021457A (ko) * | 2021-08-05 | 2023-02-14 | 현대모비스 주식회사 | 차량의 장애물 감지 시스템 및 방법 |
KR102621696B1 (ko) * | 2021-08-27 | 2024-01-08 | 한국건설기술연구원 | 가변 도로교통정보 제공 장치 |
KR102420506B1 (ko) * | 2021-09-17 | 2022-07-14 | 주식회사 제이에스솔루션 | 크레인 충돌방지를 위한 지능형 비전 센서 |
WO2023054883A1 (ko) * | 2021-09-29 | 2023-04-06 | 주식회사 에스오에스랩 | 라이다 장치에 대한 성능 평가 방법 및 라이다 장치에 대한 성능 평가 장치 |
CN115901245A (zh) * | 2021-09-30 | 2023-04-04 | 华为技术有限公司 | 一种激光雷达系统和车辆 |
US11760412B2 (en) * | 2021-10-07 | 2023-09-19 | Denso Corporation | Systems and methods for controlling a vehicle localization routine |
CN113885590B (zh) * | 2021-10-11 | 2023-06-23 | 电子科技大学 | 一种基于fpga的高速可扩展光学相控阵控制系统 |
DE102021127448A1 (de) | 2021-10-22 | 2023-04-27 | Marelli Automotive Lighting Reutlingen (Germany) GmbH | LIDAR-Baugruppe und Verfahren zur Beschichtung einer Abdeckscheibe einer LIDAR-Baugruppe |
CN113704381B (zh) * | 2021-10-27 | 2022-01-28 | 腾讯科技(深圳)有限公司 | 路网数据处理方法、装置、计算机设备和存储介质 |
CN117677913A (zh) * | 2021-11-15 | 2024-03-08 | 深圳市大疆创新科技有限公司 | 无人飞行器的控制方法、无人飞行器及存储介质 |
CN114325730B (zh) * | 2021-11-17 | 2022-12-13 | 杭州宏景智驾科技有限公司 | 一种大视场远距离激光雷达测试方法 |
KR20230094788A (ko) * | 2021-12-21 | 2023-06-28 | 삼성전자주식회사 | 라이더 센서 장치 및 이를 구비한 전자 장치 |
CN114325758A (zh) * | 2021-12-27 | 2022-04-12 | 上海集度汽车有限公司 | 激光雷达控制方法、装置、车辆及相关设备 |
CN114338998A (zh) * | 2021-12-31 | 2022-04-12 | 联想(北京)有限公司 | 一种点云数据获取方法及电子设备 |
WO2023130125A1 (en) * | 2022-01-03 | 2023-07-06 | Innovusion, Inc. | Systems and methods for scanning a region of interest using a light detection and ranging scanner |
US11927814B2 (en) * | 2022-01-05 | 2024-03-12 | Scidatek Inc. | Semiconductor photodetector array sensor integrated with optical-waveguide-based devices |
US11982748B2 (en) | 2022-01-20 | 2024-05-14 | Silc Technologies, Inc. | Imaging system having multiple cores |
US12066541B2 (en) | 2022-01-20 | 2024-08-20 | Silc Technologies, Inc. | Imaging system having multiple cores |
WO2023137564A1 (en) * | 2022-01-24 | 2023-07-27 | Leddartech Inc. | Beam steering system with a configurable beam deflection element |
WO2023017321A1 (en) * | 2022-01-30 | 2023-02-16 | Saemi Zohreh | Laser smoke / motion / vibration / temperature detector without the need for electrical energy |
JP7511970B2 (ja) * | 2022-02-10 | 2024-07-08 | パナソニックオートモーティブシステムズ株式会社 | 姿勢推定システム、制御システム、及び姿勢推定方法 |
JP7332731B1 (ja) | 2022-02-17 | 2023-08-23 | 本田技研工業株式会社 | 外界認識装置 |
CN118786363A (zh) * | 2022-03-03 | 2024-10-15 | 华为技术有限公司 | 一种扫描方法及装置 |
WO2023166512A1 (en) * | 2022-03-03 | 2023-09-07 | Innoviz Technologies Ltd | Increasing signal to noise ratio of a pixel of a lidar system |
CN114325631B (zh) * | 2022-03-04 | 2023-04-07 | 北京一径科技有限公司 | 激光雷达控制方法及装置、激光雷达、车辆及存储介质 |
AU2023230778A1 (en) | 2022-03-07 | 2024-09-19 | Quidient, Llc | Systems and methods for generalized scene reconstruction |
WO2023182674A1 (ko) * | 2022-03-21 | 2023-09-28 | 현대자동차주식회사 | 라이다 포인트 클라우드 코딩을 위한 방법 및 장치 |
US11871130B2 (en) | 2022-03-25 | 2024-01-09 | Innovusion, Inc. | Compact perception device |
WO2023184547A1 (zh) * | 2022-04-02 | 2023-10-05 | 华为技术有限公司 | 一种扫描系统和方法 |
KR102498023B1 (ko) * | 2022-04-08 | 2023-02-09 | 이동수 | 라이다 센서를 이용한 보안 시스템 및 방법 |
CN114460596B (zh) * | 2022-04-14 | 2022-06-14 | 宜科(天津)电子有限公司 | 一种基于能量和距离的自适应数据处理方法 |
CN114935742B (zh) * | 2022-04-18 | 2023-08-22 | 深圳阜时科技有限公司 | 发射模组、光电检测装置及电子设备 |
CN114935743B (zh) * | 2022-04-18 | 2023-06-23 | 深圳阜时科技有限公司 | 发射模组、光电检测装置及电子设备 |
CN116660868B (zh) * | 2022-04-18 | 2024-03-01 | 深圳阜时科技有限公司 | 电子设备 |
US20230367014A1 (en) * | 2022-05-10 | 2023-11-16 | Velodyne Lidar Usa, Inc. | Beam steering techniques for correcting scan line compression in lidar devices |
CN115015955B (zh) * | 2022-05-23 | 2024-10-11 | 鄂尔多斯市卡尔动力科技有限公司 | 运动信息的确定方法、装置、设备、存储介质和程序产品 |
CN114779464A (zh) * | 2022-05-24 | 2022-07-22 | 北京有竹居网络技术有限公司 | 光学信号调制器、控制方法及投影设备 |
US20230384455A1 (en) * | 2022-05-31 | 2023-11-30 | Continental Autonomous Mobility US, LLC | Lidar sensor including spatial light modulator to direct field of illumination |
DE102022114716A1 (de) | 2022-06-10 | 2023-12-21 | 3D Mapping Solutions GmbH | Verfahren und Prozessorschaltung zum Erzeugen eines 3D-Flächenmodells aus Messpunkten einer Messfahrt eines Fahrzeugs sowie zugehöriges System |
US11921214B2 (en) * | 2022-08-03 | 2024-03-05 | Aeva, Inc. | Techniques for foveated and dynamic range modes for FMCW LIDARs |
KR102507068B1 (ko) * | 2022-08-04 | 2023-03-08 | 주식회사 인포웍스 | 악천후 환경에 강건한 FMCW LiDAR 물체 탐지 시스템 및 물체 탐지 방법 |
CN117630866A (zh) * | 2022-08-10 | 2024-03-01 | 上海禾赛科技有限公司 | 激光雷达、激光雷达的资源分配方法及计算机可读存储介质 |
WO2024048346A1 (ja) * | 2022-08-30 | 2024-03-07 | ソニーセミコンダクタソリューションズ株式会社 | 物体認識システム、物体認識装置及び物体認識方法 |
WO2024048275A1 (ja) * | 2022-08-31 | 2024-03-07 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法および車室内監視装置 |
CN115356744B (zh) * | 2022-09-15 | 2024-10-01 | 清华大学 | 一种路侧激光雷达布设方式确定方法、装置及电子设备 |
US20240230848A9 (en) * | 2022-10-21 | 2024-07-11 | Innovusion, Inc. | Two dimensional transmitter array-based lidar |
WO2024165895A1 (en) * | 2023-02-09 | 2024-08-15 | Siemens Industry Software Ltd. | Method and system for determining a position of a plurality of lidar sensors for industrial risky zones |
DE102023108684A1 (de) | 2023-04-05 | 2024-10-10 | Valeo Detection Systems GmbH | Sensor-system und verfahren zum betrieb eines sensorsystems |
DE102023110432A1 (de) | 2023-04-24 | 2024-10-24 | Gts Deutschland Gmbh | Umfelderfassungseinrichtung für ein Schienenfahrzeug mit einer adaptierbaren, insbesondere LiDAR-basierten, Erfassungseinrichtung |
CN116842321B (zh) * | 2023-07-11 | 2024-03-15 | 赛诺威盛医疗科技(扬州)有限公司 | 计算机断层扫描设备的扫描数据的校正方法及校正装置 |
CN117173897B (zh) * | 2023-11-03 | 2024-01-26 | 浪潮智慧科技(青岛)有限公司 | 一种基于物联网技术的路面交通监测调控方法及系统 |
CN118311597B (zh) * | 2024-06-07 | 2024-08-27 | 智道网联科技(北京)有限公司 | 一种激光雷达自适应控制方法、装置和电子设备 |
CN118331341B (zh) * | 2024-06-14 | 2024-09-24 | 北京瀚科智翔科技发展有限公司 | 一种线控激光目标指引装置 |
CN118731910A (zh) * | 2024-09-04 | 2024-10-01 | 深圳市速腾聚创科技有限公司 | 一种雷达控制方法、装置、终端设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004009829A (ja) * | 2002-06-05 | 2004-01-15 | Toyota Motor Corp | 車載運転支援装置 |
JP2007139594A (ja) * | 2005-11-18 | 2007-06-07 | Omron Corp | 物体検出装置 |
KR20120034352A (ko) * | 2010-10-01 | 2012-04-12 | 한국전자통신연구원 | 장애물 감지 시스템 및 방법 |
JP2014029317A (ja) * | 2012-07-03 | 2014-02-13 | Ricoh Co Ltd | レーザレーダ装置 |
JP2016057141A (ja) * | 2014-09-09 | 2016-04-21 | 株式会社リコー | 距離測定装置、移動体装置及び距離測定方法 |
Family Cites Families (133)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US80000A (en) * | 1868-07-14 | Cyrus mil nee | ||
CA2056842A1 (en) * | 1991-02-07 | 1992-08-08 | Jay M. Eastman | System for scanning and reading symbols, such as bar codes, which is adapted to be configured in a hand held unit and can automatically read symbols on objects which are placed inthe detection zone of the unit |
JP2903746B2 (ja) * | 1991-03-20 | 1999-06-14 | トヨタ自動車株式会社 | 車間距離検出装置 |
JPH05203736A (ja) * | 1992-01-29 | 1993-08-10 | Mazda Motor Corp | 車両の障害物検出装置 |
JP3183598B2 (ja) * | 1993-12-14 | 2001-07-09 | 三菱電機株式会社 | 障害物検知装置 |
JP2776253B2 (ja) * | 1994-07-15 | 1998-07-16 | 日本電気株式会社 | レーザ・レーダ |
JP3676371B2 (ja) * | 1994-08-29 | 2005-07-27 | ライテル インストゥルメンツ インコーポレイテッド | 回析限界に近づくための現存の像形成装置の補正板補正 |
JPH08248133A (ja) * | 1995-03-07 | 1996-09-27 | Omron Corp | 位置情報検出装置、位置情報検出装置を用いた車両搭載用レーダ、および路上障害物認識方法 |
US5784023A (en) | 1995-06-26 | 1998-07-21 | Bluege; John | Speed detection method |
JPH09197045A (ja) * | 1996-01-24 | 1997-07-31 | Nissan Motor Co Ltd | 車両用レーダ装置 |
US5682225A (en) * | 1996-06-07 | 1997-10-28 | Loral Vought Systems Corp. | Ladar intensity image correction for laser output variations |
JP3562278B2 (ja) * | 1997-11-07 | 2004-09-08 | 日産自動車株式会社 | 環境認識装置 |
JP3420049B2 (ja) * | 1997-12-27 | 2003-06-23 | 本田技研工業株式会社 | 車両用物体検知装置 |
FR2783330B1 (fr) * | 1998-09-15 | 2002-06-14 | Assist Publ Hopitaux De Paris | Dispositif d'observation de l'interieur d'un corps produisant une qualite d'observation perfectionnee |
US6281862B1 (en) * | 1998-11-09 | 2001-08-28 | University Of Washington | Scanned beam display with adjustable accommodation |
JP3514166B2 (ja) | 1999-05-06 | 2004-03-31 | 日産自動車株式会社 | 先行車認識装置 |
US6204955B1 (en) * | 1999-07-09 | 2001-03-20 | Advanced Optical Technologies, Inc. | Apparatus for dynamic control of light direction in a broad field of view |
US6664529B2 (en) * | 2000-07-19 | 2003-12-16 | Utah State University | 3D multispectral lidar |
JP2002071808A (ja) | 2000-08-28 | 2002-03-12 | Omron Corp | 測距装置及びこれを使用した先行車検知システム並びに先行車追従システム |
JP4595197B2 (ja) * | 2000-12-12 | 2010-12-08 | 株式会社デンソー | 距離測定装置 |
JP3838432B2 (ja) * | 2002-02-08 | 2006-10-25 | オムロン株式会社 | 測距装置 |
US6970578B1 (en) * | 2002-07-16 | 2005-11-29 | The United States Of America As Represented By The Secretary Of The Navy | Method of generating images to aid in the detection of manmade objects in cluttered underwater environments |
JP3879848B2 (ja) * | 2003-03-14 | 2007-02-14 | 松下電工株式会社 | 自律移動装置 |
US7177063B2 (en) | 2003-08-12 | 2007-02-13 | Terraop Ltd. | Bouncing mode operated scanning micro-mirror |
JP2005077379A (ja) | 2003-09-03 | 2005-03-24 | Denso Corp | レーダ装置 |
US7064810B2 (en) * | 2003-09-15 | 2006-06-20 | Deere & Company | Optical range finder with directed attention |
DE10361869A1 (de) * | 2003-12-29 | 2005-07-28 | Iqsun Gmbh | Vorrichtung und Verfahren zum optischen Abtasten und Vermessen einer Umgebung |
JP2005257325A (ja) * | 2004-03-09 | 2005-09-22 | Denso Corp | 距離検出装置 |
DE102005027208B4 (de) * | 2004-11-16 | 2011-11-10 | Zoller & Fröhlich GmbH | Verfahren zur Ansteuerung eines Laserscanners |
WO2006077588A2 (en) * | 2005-01-20 | 2006-07-27 | Elbit Systems Electro-Optics Elop Ltd. | Laser obstacle detection and display |
US7106552B2 (en) | 2005-02-03 | 2006-09-12 | Hitachi Global Storage Technologies Netherlands B.V. | Method for secondary-actuator failure detection and recovery in a dual-stage actuator disk drive |
JP2006258604A (ja) * | 2005-03-17 | 2006-09-28 | Sanyo Electric Co Ltd | 検出装置 |
US7936448B2 (en) | 2006-01-27 | 2011-05-03 | Lightwire Inc. | LIDAR system utilizing SOI-based opto-electronic components |
US7944548B2 (en) * | 2006-03-07 | 2011-05-17 | Leica Geosystems Ag | Increasing measurement rate in time of flight measurement apparatuses |
US8493445B2 (en) | 2006-05-31 | 2013-07-23 | Sigma Space Corp | Scanner/optical system for three-dimensional lidar imaging and polarimetry |
US8072581B1 (en) | 2007-01-19 | 2011-12-06 | Rockwell Collins, Inc. | Laser range finding system using variable field of illumination flash lidar |
US8922864B2 (en) | 2007-03-06 | 2014-12-30 | Stmicroelectronics International N.V. | MEMS device having reduced deformations |
DE102007011425A1 (de) * | 2007-03-08 | 2008-09-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Projektionsvorrichtung zum scannenden Projizieren |
JP4960780B2 (ja) * | 2007-07-02 | 2012-06-27 | キヤノン株式会社 | 光学走査装置、光量制御方法及び画像形成装置 |
JP2011503526A (ja) * | 2007-10-09 | 2011-01-27 | ダンマークス テクニスク ユニバーシテット | 半導体レーザと増幅器とに基づくコヒーレントライダーシステム |
EP3082117B1 (en) * | 2007-11-15 | 2018-03-28 | Garrett Thermal Systems Limited | Particle detection |
US8251517B2 (en) * | 2007-12-05 | 2012-08-28 | Microvision, Inc. | Scanned proximity detection method and apparatus for a scanned image projection system |
US20090219961A1 (en) * | 2008-02-28 | 2009-09-03 | B.E. Meyers & Co., Inc. | Laser Systems and Methods Having Auto-Ranging and Control Capability |
US8332134B2 (en) * | 2008-04-24 | 2012-12-11 | GM Global Technology Operations LLC | Three-dimensional LIDAR-based clear path detection |
US20090273770A1 (en) * | 2008-04-30 | 2009-11-05 | Honeywell International Inc. | Systems and methods for safe laser imaging, detection and ranging (lidar) operation |
WO2010048960A1 (en) * | 2008-10-28 | 2010-05-06 | 3Shape A/S | Scanner with feedback control |
CN101739958B (zh) * | 2008-11-24 | 2013-08-07 | 奇美电子股份有限公司 | 多区域动态背光驱动的装置及其方法 |
US7973911B2 (en) * | 2008-12-15 | 2011-07-05 | Toyota Jidosha Kabushiki Kaisha | Object measuring device and method for use in the device |
CN101526619B (zh) * | 2009-04-02 | 2011-07-13 | 哈尔滨工业大学 | 基于无扫描激光雷达与ccd相机的同步测距测速系统 |
JP5710109B2 (ja) * | 2009-07-10 | 2015-04-30 | 日本信号株式会社 | 光測距装置 |
DE102009029364A1 (de) * | 2009-09-11 | 2011-03-24 | Robert Bosch Gmbh | Messvorrichtung zur Messung einer Entfernung zwischen der Messvorrichtung und einem Zielobjekt mit Hilfe optischer Messstrahlung |
US20120170024A1 (en) * | 2009-09-22 | 2012-07-05 | Medhat Azzazy | Long Range Acquisition and Tracking SWIR Sensor System Comprising Micro-Lamellar Spectrometer |
US20110285981A1 (en) | 2010-05-18 | 2011-11-24 | Irvine Sensors Corporation | Sensor Element and System Comprising Wide Field-of-View 3-D Imaging LIDAR |
JP2011089874A (ja) * | 2009-10-22 | 2011-05-06 | Toyota Central R&D Labs Inc | 距離画像データ取得装置 |
US8212995B2 (en) | 2010-03-16 | 2012-07-03 | Raytheon Company | Laser imaging system with uniform line illumination and method for generating images |
CN102884444B (zh) | 2010-05-07 | 2014-08-13 | 三菱电机株式会社 | 激光雷达装置 |
LU91688B1 (en) | 2010-05-17 | 2011-11-18 | Iee Sarl | Scanning 3D imager |
JP5494261B2 (ja) * | 2010-06-11 | 2014-05-14 | セイコーエプソン株式会社 | 処理装置、光学式検出装置、表示装置及び電子機器 |
JP5516145B2 (ja) * | 2010-06-30 | 2014-06-11 | セイコーエプソン株式会社 | 光学式検出装置、表示装置及び電子機器 |
US8736818B2 (en) * | 2010-08-16 | 2014-05-27 | Ball Aerospace & Technologies Corp. | Electronically steered flash LIDAR |
WO2012027410A1 (en) | 2010-08-23 | 2012-03-01 | Lighttime, Llc | Ladar using mems scanning |
JP2012063236A (ja) | 2010-09-16 | 2012-03-29 | Ricoh Co Ltd | レーザレーダ装置 |
CN102565808B (zh) | 2010-12-17 | 2015-10-21 | 上海无线电设备研究所 | 一种稀疏阵列高速三维成像激光雷达的实现方法 |
EP2469301A1 (en) * | 2010-12-23 | 2012-06-27 | André Borowski | Methods and devices for generating a representation of a 3D scene at very high speed |
EP2469295A1 (en) * | 2010-12-23 | 2012-06-27 | André Borowski | 3D landscape real-time imager and corresponding imaging methods |
EP2469294A1 (en) | 2010-12-23 | 2012-06-27 | André Borowski | 2D/3D real-time imager and corresponding imaging methods |
WO2012123936A2 (en) * | 2011-03-17 | 2012-09-20 | IDS Innovative Defence Systems ltd. | Devices and methods for real time detection of chemical and biological gaseous hazards |
KR101071362B1 (ko) * | 2011-03-25 | 2011-10-07 | 위재영 | 차량의 물체 거리 인식 시스템 및 작동 방법 |
JP2012215521A (ja) | 2011-04-01 | 2012-11-08 | Denso Corp | レーザレーダ装置 |
JP5561333B2 (ja) * | 2011-11-02 | 2014-07-30 | 株式会社リコー | 画像処理装置、撮像方法、プログラムおよび車両 |
WO2013094791A1 (ko) * | 2011-12-22 | 2013-06-27 | 엘지전자 주식회사 | 거리 측정 장치 |
US9651417B2 (en) | 2012-02-15 | 2017-05-16 | Apple Inc. | Scanning depth engine |
DE102013102153A1 (de) * | 2012-03-15 | 2013-09-19 | GM Global Technology Operations LLC | Verfahren zur Registrierung von Entfernungsbildern von mehreren LiDAR-Sensoren |
KR101357051B1 (ko) * | 2012-05-22 | 2014-02-04 | 한국생산기술연구원 | 3차원 스캐닝 시스템 및 이를 이용한 3차원 영상획득방법 |
KR101391298B1 (ko) * | 2012-08-21 | 2014-05-07 | 한국생산기술연구원 | 3차원 레이저 스캐닝 시스템 |
CN103608696B (zh) * | 2012-05-22 | 2016-05-11 | 韩国生产技术研究院 | 3d扫描系统和获得3d图像的方法 |
EP2677340A1 (en) | 2012-06-18 | 2013-12-25 | Hexagon Technology Center GmbH | Distance measuring method using dynamic pulse width adaptation |
GB2504291A (en) * | 2012-07-24 | 2014-01-29 | St Microelectronics Ltd | A proximity and gesture detection module |
CN202794523U (zh) * | 2012-07-27 | 2013-03-13 | 符建 | 一种基于飞行光谱的三维成像雷达系统 |
US9678209B2 (en) * | 2012-09-13 | 2017-06-13 | The United States Of America As Represented By The Secretary Of The Army | System for laser detection with enhanced field of view |
US9383753B1 (en) * | 2012-09-26 | 2016-07-05 | Google Inc. | Wide-view LIDAR with areas of special attention |
ES2512965B2 (es) * | 2013-02-13 | 2015-11-24 | Universitat Politècnica De Catalunya | Sistema y método para escanear una superficie y programa de ordenador que implementa el método |
KR102048361B1 (ko) * | 2013-02-28 | 2019-11-25 | 엘지전자 주식회사 | 거리 검출 장치, 및 이를 구비하는 영상처리장치 |
US9128190B1 (en) * | 2013-03-06 | 2015-09-08 | Google Inc. | Light steering device with an array of oscillating reflective slats |
US9086273B1 (en) * | 2013-03-08 | 2015-07-21 | Google Inc. | Microrod compression of laser beam in combination with transmit lens |
US9254846B2 (en) | 2013-05-03 | 2016-02-09 | Google Inc. | Predictive reasoning for controlling speed of a vehicle |
US9121703B1 (en) * | 2013-06-13 | 2015-09-01 | Google Inc. | Methods and systems for controlling operation of a laser device |
US8836922B1 (en) * | 2013-08-20 | 2014-09-16 | Google Inc. | Devices and methods for a rotating LIDAR platform with a shared transmit/receive path |
US9368936B1 (en) | 2013-09-30 | 2016-06-14 | Google Inc. | Laser diode firing system |
US10203399B2 (en) | 2013-11-12 | 2019-02-12 | Big Sky Financial Corporation | Methods and apparatus for array based LiDAR systems with reduced interference |
KR102178860B1 (ko) * | 2013-11-25 | 2020-11-18 | 한국전자통신연구원 | 레이저 레이더 장치 및 그것의 동작 방법 |
CN103576134B (zh) * | 2013-11-26 | 2015-10-07 | 北京航空航天大学 | 一种基于同轴双通道数据采集的全波形激光雷达系统 |
US9625580B2 (en) | 2014-01-03 | 2017-04-18 | Princeton Lightwave, Inc. | LiDAR system comprising a single-photon detector |
JP6207407B2 (ja) * | 2014-01-17 | 2017-10-04 | オムロンオートモーティブエレクトロニクス株式会社 | レーザレーダ装置、物体検出方法、及び、プログラム |
JP6292534B2 (ja) * | 2014-01-23 | 2018-03-14 | 株式会社リコー | 物体検出装置及びセンシング装置 |
JP6318663B2 (ja) * | 2014-02-07 | 2018-05-09 | 三菱電機株式会社 | レーザレーダ装置 |
CN104897580B (zh) * | 2014-03-04 | 2017-12-15 | 刘学峰 | 一种非直观成像检测大气成分的光学系统和方法 |
CN103901435B (zh) * | 2014-03-11 | 2016-05-18 | 北京航空航天大学 | 一种全光纤光路全波形激光雷达系统 |
US10705192B2 (en) | 2014-03-14 | 2020-07-07 | Ams Sensors Singapore Pte. Ltd. | Optoelectronic modules operable to recognize spurious reflections and to compensate for errors caused by spurious reflections |
CN103884363B (zh) * | 2014-04-02 | 2016-10-05 | 电子科技大学 | 一种基于布里渊放大的光时域反射计型光纤传感系统 |
WO2015199735A1 (en) | 2014-06-27 | 2015-12-30 | Hrl Laboratories, Llc | Scanning lidar and method of producing the same |
US9377533B2 (en) * | 2014-08-11 | 2016-06-28 | Gerard Dirk Smits | Three-dimensional triangulation and time-of-flight based tracking systems and methods |
US10088558B2 (en) * | 2014-08-15 | 2018-10-02 | Aeye, Inc. | Method and system for ladar transmission with spiral dynamic scan patterns |
US9869753B2 (en) | 2014-08-15 | 2018-01-16 | Quanergy Systems, Inc. | Three-dimensional-mapping two-dimensional-scanning lidar based on one-dimensional-steering optical phased arrays and method of using same |
KR101632873B1 (ko) | 2014-09-05 | 2016-07-01 | 현대모비스 주식회사 | 장애물 검출 시스템 및 방법 |
US9596440B2 (en) * | 2014-09-11 | 2017-03-14 | Microvision, Inc. | Scanning laser planarity detection |
WO2016056545A1 (ja) * | 2014-10-09 | 2016-04-14 | コニカミノルタ株式会社 | 走査光学系及び投受光装置 |
US10036803B2 (en) | 2014-10-20 | 2018-07-31 | Quanergy Systems, Inc. | Three-dimensional lidar sensor based on two-dimensional scanning of one-dimensional optical emitter and method of using same |
IL235359A (en) | 2014-10-27 | 2015-11-30 | Ofer David | Simulates a wide-dynamic-range environment with a high intensity beam / reflector |
US10073177B2 (en) * | 2014-11-14 | 2018-09-11 | Massachusetts Institute Of Technology | Methods and apparatus for phased array imaging |
JP2016110008A (ja) * | 2014-12-10 | 2016-06-20 | スタンレー電気株式会社 | 二軸光偏向器 |
JP6497071B2 (ja) * | 2014-12-26 | 2019-04-10 | 富士通株式会社 | レーザ測距装置、汚れ検出方法、およびプログラム |
US9625582B2 (en) * | 2015-03-25 | 2017-04-18 | Google Inc. | Vehicle with multiple light detection and ranging devices (LIDARs) |
US10120076B2 (en) | 2015-05-07 | 2018-11-06 | GM Global Technology Operations LLC | Spatio-temporal scanning patterns for array lidar systems |
US10527726B2 (en) * | 2015-07-02 | 2020-01-07 | Texas Instruments Incorporated | Methods and apparatus for LIDAR with DMD |
US10093312B2 (en) * | 2015-07-27 | 2018-10-09 | Sharp Kabushiki Kaisha | Obstacle determining apparatus, moving body, and obstacle determining method |
CN108369274B (zh) | 2015-11-05 | 2022-09-13 | 路明亮有限责任公司 | 用于高分辨率深度映射的具有经改进扫描速度的激光雷达系统 |
CN105425245B (zh) * | 2015-11-06 | 2018-02-09 | 中国人民解放军空军装备研究院雷达与电子对抗研究所 | 一种基于相干探测的远距离高重频激光三维扫描装置 |
EP3411660A4 (en) | 2015-11-30 | 2019-11-27 | Luminar Technologies, Inc. | LIDAR SYSTEM WITH DISTRIBUTED LASER AND MULTIPLE SENSOR HEADS AND PULSED LASER FOR LIDAR SYSTEM |
JP6854828B2 (ja) * | 2015-12-18 | 2021-04-07 | ジェラルド ディルク スミッツ | 物体のリアルタイム位置検知 |
CN105467399B (zh) * | 2015-12-29 | 2019-02-12 | 大连楼兰科技股份有限公司 | 基于Light Tools的车载激光雷达光学系统及其工作方法 |
US20170239719A1 (en) * | 2016-02-18 | 2017-08-24 | Velo3D, Inc. | Accurate three-dimensional printing |
CN205539871U (zh) * | 2016-04-12 | 2016-08-31 | 公安部第一研究所 | 一种基于离轴光路技术的摄像系统 |
US10234561B2 (en) * | 2016-05-09 | 2019-03-19 | Microsoft Technology Licensing, Llc | Specular reflection removal in time-of-flight camera apparatus |
WO2017200896A2 (en) | 2016-05-18 | 2017-11-23 | James O'keeffe | A dynamically steered lidar adapted to vehicle shape |
US9789808B1 (en) | 2016-07-01 | 2017-10-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Headlight directional control for illuminating an identified object |
WO2018031830A1 (en) * | 2016-08-10 | 2018-02-15 | Okeeffe James | Laser range finding with enhanced utilization of a remotely located mirror |
WO2018044958A1 (en) * | 2016-08-29 | 2018-03-08 | Okeeffe James | Laser range finder with smart safety-conscious laser intensity |
US9791557B1 (en) * | 2016-09-15 | 2017-10-17 | Qualcomm Incorporated | System and method for multi-area LIDAR ranging |
DE102016011299A1 (de) | 2016-09-19 | 2018-03-22 | Blickfeld GmbH | Codierte Laserlicht-Pulssequenzen für LIDAR |
EP4194888A1 (en) * | 2016-09-20 | 2023-06-14 | Innoviz Technologies Ltd. | Lidar systems and methods |
US10379540B2 (en) * | 2016-10-17 | 2019-08-13 | Waymo Llc | Light detection and ranging (LIDAR) device having multiple receivers |
US10114111B2 (en) | 2017-03-28 | 2018-10-30 | Luminar Technologies, Inc. | Method for dynamically controlling laser power |
-
2017
- 2017-09-20 EP EP23154086.5A patent/EP4194888A1/en not_active Withdrawn
- 2017-09-20 KR KR1020247011385A patent/KR102714940B1/ko active IP Right Grant
- 2017-09-20 KR KR1020227041134A patent/KR102496509B1/ko active IP Right Grant
- 2017-09-20 CN CN201910565709.9A patent/CN110286388B/zh active Active
- 2017-09-20 EP EP17801495.7A patent/EP3516421A2/en active Pending
- 2017-09-20 JP JP2019517906A patent/JP6697636B2/ja active Active
- 2017-09-20 CN CN201780057688.9A patent/CN109997057B/zh active Active
- 2017-09-20 EP EP23154048.5A patent/EP4191278A1/en active Pending
- 2017-09-20 KR KR1020227041541A patent/KR102547582B1/ko active IP Right Grant
- 2017-09-20 KR KR1020237022935A patent/KR102656212B1/ko active IP Right Grant
- 2017-09-20 KR KR1020197011008A patent/KR102457029B1/ko active IP Right Grant
- 2017-09-20 KR KR1020227041323A patent/KR102547651B1/ko active IP Right Grant
- 2017-09-20 WO PCT/IB2017/001320 patent/WO2018055449A2/en unknown
- 2017-09-20 KR KR1020247032953A patent/KR20240149452A/ko unknown
- 2017-09-20 CN CN202010555640.4A patent/CN111796255B/zh active Active
- 2017-09-20 EP EP23153572.5A patent/EP4194887A1/en active Pending
- 2017-09-20 KR KR1020227035992A patent/KR102472631B1/ko active IP Right Grant
- 2017-09-20 EP EP23154571.6A patent/EP4194889A1/en not_active Withdrawn
- 2017-09-20 KR KR1020227040560A patent/KR102554215B1/ko active IP Right Grant
- 2017-09-20 EP EP21161893.9A patent/EP3859396A1/en active Pending
- 2017-12-19 US US15/847,330 patent/US10031214B2/en active Active
- 2017-12-19 US US15/847,309 patent/US10031232B2/en active Active
- 2017-12-19 US US15/847,524 patent/US10317534B2/en active Active
- 2017-12-21 US US15/850,718 patent/US10191156B2/en active Active
- 2017-12-21 US US15/851,050 patent/US10281582B2/en active Active
-
2018
- 2018-01-03 US US15/860,969 patent/US10241207B2/en active Active
- 2018-01-03 US US15/861,206 patent/US10481268B2/en active Active
- 2018-01-03 US US15/861,088 patent/US10353075B2/en active Active
- 2018-01-03 US US15/861,024 patent/US10215859B2/en active Active
- 2018-01-03 US US15/860,964 patent/US10698114B2/en active Active
- 2018-01-03 US US15/861,232 patent/US10222477B2/en active Active
- 2018-01-03 US US15/861,110 patent/US10310088B2/en active Active
- 2018-01-04 US US15/861,990 patent/US10241208B2/en active Active
- 2018-01-04 US US15/862,031 patent/US10107915B2/en active Active
-
2019
- 2019-03-19 US US16/357,894 patent/US20190212450A1/en not_active Abandoned
- 2019-03-19 US US16/358,247 patent/US20190271769A1/en not_active Abandoned
-
2020
- 2020-04-24 JP JP2020077164A patent/JP7106595B2/ja active Active
-
2021
- 2021-11-01 US US17/516,132 patent/US20220050203A1/en active Pending
-
2022
- 2022-07-13 JP JP2022112368A patent/JP7241223B2/ja active Active
- 2022-11-21 JP JP2022185671A patent/JP7281594B2/ja active Active
- 2022-11-29 JP JP2022189874A patent/JP2023022195A/ja active Pending
- 2022-12-27 JP JP2022210110A patent/JP7336014B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004009829A (ja) * | 2002-06-05 | 2004-01-15 | Toyota Motor Corp | 車載運転支援装置 |
JP2007139594A (ja) * | 2005-11-18 | 2007-06-07 | Omron Corp | 物体検出装置 |
KR20120034352A (ko) * | 2010-10-01 | 2012-04-12 | 한국전자통신연구원 | 장애물 감지 시스템 및 방법 |
JP2014029317A (ja) * | 2012-07-03 | 2014-02-13 | Ricoh Co Ltd | レーザレーダ装置 |
JP2016057141A (ja) * | 2014-09-09 | 2016-04-21 | 株式会社リコー | 距離測定装置、移動体装置及び距離測定方法 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7281594B2 (ja) | Lidarシステム及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221201 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221201 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20221201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230213 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230511 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230807 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231017 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240514 |