CN107430195A - 具有多个光检测和测距装置(lidar)的车辆 - Google Patents
具有多个光检测和测距装置(lidar)的车辆 Download PDFInfo
- Publication number
- CN107430195A CN107430195A CN201680017854.8A CN201680017854A CN107430195A CN 107430195 A CN107430195 A CN 107430195A CN 201680017854 A CN201680017854 A CN 201680017854A CN 107430195 A CN107430195 A CN 107430195A
- Authority
- CN
- China
- Prior art keywords
- lidar
- vehicle
- environment
- resolution
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 39
- 230000000007 visual effect Effects 0.000 claims abstract description 17
- 238000000034 method Methods 0.000 claims description 106
- 230000014509 gene expression Effects 0.000 claims description 9
- 238000000926 separation method Methods 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 description 25
- 230000006870 function Effects 0.000 description 20
- 238000004891 communication Methods 0.000 description 18
- 238000004422 calculation algorithm Methods 0.000 description 15
- 238000005452 bending Methods 0.000 description 13
- 239000000463 material Substances 0.000 description 12
- 230000004888 barrier function Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 230000007613 environmental effect Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000013500 data storage Methods 0.000 description 7
- 238000009434 installation Methods 0.000 description 7
- 239000002184 metal Substances 0.000 description 7
- 229910052751 metal Inorganic materials 0.000 description 7
- 230000004927 fusion Effects 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 239000004033 plastic Substances 0.000 description 5
- 229920003023 plastic Polymers 0.000 description 5
- 239000011343 solid material Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 2
- ATUOYWHBWRKTHZ-UHFFFAOYSA-N Propane Chemical compound CCC ATUOYWHBWRKTHZ-UHFFFAOYSA-N 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000010181 polygamy Effects 0.000 description 2
- 229920000642 polymer Polymers 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000009738 saturating Methods 0.000 description 2
- 239000012780 transparent material Substances 0.000 description 2
- 235000001008 Leptadenia hastata Nutrition 0.000 description 1
- 244000074209 Leptadenia hastata Species 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 239000002253 acid Substances 0.000 description 1
- 239000012190 activator Substances 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000000205 computational method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 239000002283 diesel fuel Substances 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 239000006260 foam Substances 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 239000002737 fuel gas Substances 0.000 description 1
- 239000002828 fuel tank Substances 0.000 description 1
- 239000003502 gasoline Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 239000010705 motor oil Substances 0.000 description 1
- 235000012771 pancakes Nutrition 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000011148 porous material Substances 0.000 description 1
- 239000001294 propane Substances 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/66—Tracking systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4811—Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
- G01S7/4813—Housing arrangements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4814—Constructional features, e.g. arrangements of optical elements of transmitters alone
- G01S7/4815—Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4816—Constructional features, e.g. arrangements of optical elements of receivers alone
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4817—Constructional features, e.g. arrangements of optical elements relating to scanning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
- G05D1/0236—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
本发明提供了一种车辆,包括定位在车辆的底侧的一个或多个车轮。车辆还包括定位在与底侧相对的车辆的顶侧的第一光检测和测距装置(LIDAR)。第一LIDAR被配置为基于第一LIDAR围绕轴线的旋转来扫描车辆周围的环境。第一LIDAR具有第一分辨率。车辆还包括第二LIDAR,其被配置为扫描沿着第二LIDAR的观察方向远离车辆延伸的环境的视场。第二LIDAR具有第二分辨率。车辆还包括控制器,其被配置为基于第一LIDAR和第二LIDAR对环境的扫描来操作车辆。
Description
背景技术
除非另有说明,本节中描述的材料不是本申请中权利要求书的现有技术,并且包含在本节中的内容也不被承认是现有技术。
车辆可以被配置为以自主模式操作,其中车辆在具有很少或没有来自驾驶员的输入的情况下导航通过环境。这种自主车辆可以包括被配置为检测关于车辆操作的环境的信息的一个或多个传感器。
一种这样的传感器是光检测和测距(LIDAR)装置。LIDAR可以在扫描场景的同时估计与环境特征的距离,以组成指示环境中的反射表面的“点云”。可以通过发送激光脉冲并检测从环境中的物体反射的返回脉冲(如果有的话)来确定点云中的各个点,并且根据发送脉冲和接收反射脉冲之间的时间延迟来确定到物体的距离。激光器或一组激光器可以快速且重复地扫描场景,以提供关于到场景中反射物体的距离的连续实时信息。在测量每个距离的同时,结合测量的距离和激光的方向,可以将三维位置与每个返回脉冲相关联。以这种方式,可以为整个扫描区域生成指示环境中反射特征的位置的点的三维图。
发明内容
在一个示例中,提供了包括位于车辆的底侧的一个或多个车轮的车辆。车辆还包括位于与底侧相对的车辆的顶侧的第一光检测和测距装置(LIDAR)。第一LIDAR被配置为基于第一LIDAR围绕轴线的旋转来扫描车辆周围的环境。第一LIDAR具有第一分辨率。车辆还包括第二LIDAR,其被配置为扫描沿着第二LIDAR的观察方向远离车辆延伸的环境的视场(FOV)。第二LIDAR具有第二分辨率。车辆还包括控制器,该控制器被配置为基于第一LIDAR和第二LIDAR对环境的扫描来操作车辆。
在另一示例中,提供了一种方法,其涉及车辆基于位于车辆的顶侧并且被配置为围绕轴线旋转的第一光检测和测距装置(LIDAR)来扫描车辆周围的环境。车辆的一个或多个车轮位于车辆的与顶侧相对的底侧。第一LIDAR具有第一分辨率。该方法还涉及基于第二LIDAR扫描沿着第二LIDAR的观察方向远离车辆延伸的环境的视场(FOV)。第二LIDAR具有第二分辨率。方法涉及基于由第一LIDAR和第二LIDAR对环境的扫描来操作车辆。
在又一示例中,提供了包括位于车辆的底侧的四个车轮的车辆。车辆还包括位于与底侧相对的车辆的顶侧的圆顶形壳体。车辆还包括设置在圆顶形壳体内的第一光检测和测距装置(LIDAR)。第一LIDAR被配置为基于第一LIDAR围绕轴线的旋转来扫描车辆周围的环境。第一LIDAR具有第一分辨率。车辆还包括设置在圆顶形壳体内并定位在第一LIDAR和车辆的顶侧之间的第二LIDAR。第二LIDAR被配置为扫描沿着第二LIDAR的观察方向远离车辆延伸的环境的视场(FOV)。第二LIDAR具有高于第一分辨率的第二分辨率。车辆还包括控制器,该控制器被配置为基于第一LIDAR和第二LIDAR对环境的扫描来操作车辆。
在还一示例中,提供了一种系统,其包括基于位于车辆的顶侧并且被配置为围绕轴线旋转的第一光检测和测距装置(LIDAR)来扫描车辆周围的环境的器件。车辆的一个或多个车轮位于车辆的与顶侧相对的底侧。第一LIDAR具有第一分辨率。该系统还包括基于第二LIDAR扫描沿着第二LIDAR的观察方向远离车辆延伸的环境的视场(FOV)的器件。第二LIDAR具有第二分辨率。该系统还包括基于由第一LIDAR和第二LIDAR对环境的扫描来操作车辆的器件。
通过阅读以下详细描述并参考适当的附图,这些以及其他方面、优点和替代方案对于本领域普通技术人员来说将变得显而易见。
附图说明
图1A示出了根据示例实施例的车辆。
图1B是位于图1A所示的车辆的顶侧的传感器单元的透视图。
图1C是位于图1A所示的车辆的前侧的传感器单元的透视图。
图1D-1E示出了根据示例实施例的扫描周围环境的图1A所示的车辆。
图2A示出了根据示例实施例的第一LIDAR。
图2B是图2A所示的第一LIDAR的横截面图。
图2C示出了根据示例实施例的基于来自图2A的第一LIDAR的数据的环境的三维表示。
图3A示出了根据示例实施例的第二LIDAR。
图3B示出了根据示例实施例的基于来自图3A的第二LIDAR的数据的环境的三维表示。
图4A示出了根据示例实施例的第三LIDAR。
图4B示出了图4A的第三LIDAR的局部横截面图。
图4C示出了根据示例实施例的基于来自图4A的第三LIDAR的数据的环境的三维表示。
图5是根据示例实施例的方法的流程图。
图6是根据示例实施例的另一方法的流程图。
图7是根据示例实施例的又一方法的流程图。
图8示出了根据示例实施例的在包括一个或多个物体的环境中操作的车辆。
图9是根据示例实施例的车辆的简化框图。
图10描绘了根据示例实施例配置的计算机可读介质。
具体实施方式
以下详细描述参考附图描述所公开的系统、装置和方法的各种特征和功能。在附图中,相似的符号标识相似的组件,除非另有说明。本文描述的说明性系统、装置和方法实施例不意味着限制。本领域技术人员可以容易地理解,所公开的系统、装置和方法的某些方面可以以各种各样的不同配置进行布置和组合,这些都在本文中被考虑。
存在连续改进车辆安全和/或自主操作的努力,包括开发装备有事故避免系统和遥感能力的车辆。诸如光检测和测距(LIDAR)传感器以及其他可能性的各种传感器可以被包括在车辆中,以检测车辆环境中的障碍物或物体,从而促进事故避免和/或自主操作。
在某些情况下,LIDAR的安装位置和/或配置对于某些物体检测/识别场景可能是不期望的。在一种情况下,位于车辆的前侧的LIDAR可能不能扫描环境以获得车辆后方的物体。在另一种情况下,位于车辆的顶侧的LIDAR可以具有360度的视场(例如,通过旋转LIDAR),但是由于LIDAR在车辆的顶侧的位置的几何形状,可能无法检测车辆附近的物体。在又一种情况下,在扫描持续时间内扫描宽视场(FOV)的LIDAR可以提供环境的较低角度分辨率3D地图,而不是在相同的扫描持续时间内扫描较窄的FOV的类似的LIDAR。例如,较低分辨率可能足以识别中等范围物体(例如,在车辆的阈值距离内),但是可能不足以识别远距离物体(例如,在阈值距离之外)。此外,调整扫描持续时间可能影响LIDAR的刷新率(即LIDAR扫描整个FOV的速率)。一方面,高刷新率可以允许LIDAR快速检测FOV中的变化(例如移动物体等)。另一方面,低刷新率可以允许LIDAR提供更高分辨率的数据。
然而,上述的LIDAR功能的组合可以有益于有效的事故避免和/或自主操作。
在本文的示例中,提供了一种车辆,其包括布置和被配置为便于根据各种道路状况和场景扫描车辆周围的环境的多个光检测和测距装置(LIDAR)。
车辆可以包括位于车辆的顶侧的第一LIDAR,第一LIDAR被配置为基于第一LIDAR围绕轴线的旋转来扫描车辆周围的环境。在一些示例中,车辆可以利用第一LIDAR以高刷新率在所有方向上扫描周围环境。例如,旋转轴线可以是基本竖直的,使得第一LIDAR由于旋转而具有水平的360度FOV。此外,高刷新率可以允许车辆快速地检测移动物体(例如其他车辆等)。另一方面,高刷新率和宽360度FOV可以降低第一LIDAR的角度分辨率,又可以减少由第一LIDAR可以正确检测和/或识别的物体的距离范围。因此,例如,第一LIDAR可适用于中等距离范围(例如100米或更小等)内的物体检测和识别。根据第一LIDAR的各种应用,第一LIDAR的其它分辨率、范围和/或配置也是可能的。例如,根据车辆的类型(例如,汽车,船,飞机等)或任何其他因素,“中等”距离范围可以大于或小于100米。
另外,车辆可以包括第二LIDAR,其被配置为扫描沿着第二LIDAR的观察方向远离车辆延伸的环境的特定FOV。第二LIDAR的特定FOV比第一LIDAR的360度FOV(水平地)窄。附加地或可替代地,在一些示例中,第二LIDAR可以具有比第一LIDAR的刷新率更低的刷新率。反过来,例如,较窄的FOV和/或较低的刷新率可以允许第二LIDAR具有比第一LIDAR更高的分辨率。因此,在一些示例中,第二LIDAR可适用于在远距离范围(例如,大于第一LIDAR的中等范围)内的物体的检测和/或识别。此外,在一些示例中,来自第二LIDAR的较高分辨率数据可能适合于使用来自第一LIDAR的较低分辨率数据(甚至在第一LIDAR的中等范围内)难以识别的较小物体(例如,碎片等)。作为示例,车辆可以使用来自第一LIDAR的数据来检测小物体,调整第二LIDAR的观察方向(例如,使用电动机等)以对应于包括检测到的小物体的环境的FOV,从而使用来自第二LIDAR的更高分辨率数据来识别该小物体。在该示例中,第二LIDAR可以定位成在车辆的顶侧与第一LIDAR相邻。然而,第二LIDAR的其它位置、分辨率、范围和/或配置也是可能的,并且在本公开的示例性实施例中更详细地描述。
在一些示例中,车辆可以包括位于车辆的除了顶侧之外的给定侧的第三LIDAR。例如,第三LIDAR可以安装到前侧(例如,保险杠,引擎罩等),背侧(例如,行李箱等)或任何其它侧面(例如,驾驶员侧,乘客侧等)。在这些示例中,第三LIDAR可以扫描延伸远离给定侧的环境的给定FOV。作为示例,由于第一LIDAR和/或第二LIDAR在车辆的顶侧的位置,第一LIDAR和/或第二LIDAR可能无法检测非常接近车辆的物体。反过来,例如,第三LIDAR可以允许这种物体的检测和/或识别。此外,在一些示例中,第三LIDAR可以具有适合于在距离车辆的短距离范围内的这种物体的检测和/或识别的分辨率。
在一些示例中,多个LIDAR的各种位置和配置可以促进车辆的自主操作。作为示例,车辆可以使用LIDAR的组合跟踪环境中的移动物体。在一种情况下,如果环境中的汽车正在改变车道,车辆可以利用第一LIDAR来快速检测汽车的运动,并且利用第二LIDAR来解决汽车相对于车道线的位置。在另一种情况下,如果摩托车在与车辆的短距离内移动,则车辆可以利用第三LIDAR跟踪摩托车。在这些情况下,车辆可以相应地调整其导航路径(例如,速度,方向等)以便于避免事故。
因此,本公开的一些实施例提供了包括多个LIDAR的车辆的系统和方法。在一些示例中,每个LIDAR可以具有特别适合于一个或多个路况或场景的配置(例如,分辨率,FOV等)和/或位置。因此,在一些示例中,车辆可以利用多个LIDAR的组合来促进车辆在自主模式下的操作。
本文公开的实施例可以用于任何类型的车辆,包括常规汽车和具有自主操作模式的汽车。然而,术语“车辆”应被广泛地解释为覆盖任何移动物体,包括例如卡车,厢式货车,半拖车,摩托车,高尔夫球车,越野车辆,仓库运输车辆或农用车辆,以及骑在轨道上的承载车,例如过山车,小车,电车或火车等。
现在参考附图,图1A示出了根据示例实施例的车辆100。特别地,图1A示出了车辆100的右侧视图,前视图,后视图和俯视图。虽然车辆100在图1A中示出为汽车,但是如上所述,其他实施例也是可能的。此外,虽然示例车辆100被示出为可以被配置为在自主模式下操作的车辆,但是这里描述的实施例也可以应用于未被配置为自主操作的车辆。因此,示例性车辆100不意味着限制。如图所示,车辆100包括五个传感器单元102,104,106,108和110以及由轮112示出的四个轮。
根据上述讨论,传感器单元102-110中的每一个可以包括具有特定配置特性的一个或多个光检测和测距装置(LIDAR),以允许根据各种道路状况或场景扫描车辆100周围的环境。附加地或可替代地,在一些实施例中,传感器单元102-110可以包括全球定位系统传感器,惯性测量单元,无线电检测和测距(RADAR)单元,相机,激光测距仪,LIDAR和/或声学传感器等的任何组合。
如图所示,传感器单元102安装到车辆100的与车辆100的安装轮112的底侧相对的顶侧。此外,传感器单元104-110各自安装到车辆100的除了顶侧之外的给定侧。例如,传感器单元104位于车辆100的前侧,传感器106位于车辆100的后侧,传感器单元108位于车辆100的右侧,传感器单元110位于车辆100的左侧。
虽然传感器单元102-110被示出为安装在车辆100上的特定位置,但是在一些实施例中,传感器单元102-110可以安装在车辆100的其他地方,车辆100内部或外部。例如,尽管图1A示出了安装到车辆100的后视镜的传感器单元108,但传感器单元108可以可替代地定位在沿着车辆100的右侧的另一位置。此外,虽然示出了五个传感器单元,但是在一些实施例中,车辆100中可以包括更多或更少的传感器单元。然而,为了示例的目的,传感器单元102-110如图1A所示被定位。
在一些实施例中,传感器单元102-110中的一个或多个可以包括一个或多个可移动的安装件,传感器可以可移动地安装在安装件上。可移动的安装件可以包括例如旋转平台。安装在旋转平台上的传感器可以旋转,使得传感器可以从车辆100周围的各个方向获得信息。例如,传感器单元102的LIDAR可以具有可以通过将旋转平台致动到不同方向等来调节的观察方向。可替代地或另外地,可移动安装件可以包括倾斜平台。安装在倾斜平台上的传感器可以在给定的角度和/或方位范围内倾斜,使得传感器可以从各种角度获得信息。可移动安装件也可以采取其他形式。
此外,在一些实施例中,传感器单元102-110中的一个或多个可以包括一个或多个致动器,其被配置为通过移动传感器和/或可移动安装件来调节传感器单元中的传感器的位置和/或方位。示例性致动器包括电机,气动执行器,液压活塞,继电器,螺线管和压电致动器。其他致动器也是可能的。
如图所示,车辆100包括一个或多个轮,例如轮112,其被配置为旋转以使车辆沿着驾驶表面行进。在一些实施例中,轮112可以包括联接到轮112的轮缘的至少一个轮胎。为此,轮112可以包括金属和橡胶的任何组合,或其他材料的组合。车辆100可以包括除了所示的或代替所示的之外的一个或多个其它组件。
图1B是位于图1A所示的车辆100顶侧的传感器单元102的透视图。如图所示,传感器单元102包括第一LIDAR120,第二LIDAR122,分隔结构124和滤光器126。
在一些示例中,第一LIDAR120可以被配置为通过围绕轴线(例如,竖直轴线等)连续旋转同时发射一个或多个光脉冲并检测例如离开车辆环境中的物体的反射光脉冲来扫描车辆100周围的环境。在一些实施例中,第一LIDAR 120可以被配置为围绕轴线重复旋转以能够以足够高的刷新率扫描环境,从而快速检测环境中物体的运动。例如,第一LIDAR120可以具有10Hz的刷新率(例如,第一LIDAR 120每秒完成十次完整旋转),从而每秒十次扫描车辆周围的360度FOV。通过该过程,例如,可以基于来自第一LIDAR 120的数据来确定周围环境的3D地图。在一个实施例中,第一LIDAR 120可包括发射波长为905nm的64个激光束的多个光源。在该实施例中,基于来自第一LIDAR 120的数据确定的3D地图可以具有0.2°(水平)×0.3°(竖直)的角度分辨率,并且第一LIDAR 120可以具有360°(水平)×20°(竖直)的环境FOV。在该实施例中,例如,3D地图可以具有足够的分辨率来检测或识别在与车辆100距离100米的中等范围内的物体。然而,其他配置(例如,光源的数量,角度分辨率,波长,范围等)也是可能的。
与第一LIDAR 120不同,在一些实施例中,第二LIDAR 122可被配置为扫描车辆100周围环境的较窄FOV。例如,第二LIDAR 122可被配置为围绕类似的轴线(水平地)旋转小于完整的旋转。此外,在一些示例中,第二LIDAR 122可以具有比第一LIDAR 120更低的刷新率。通过该过程,车辆100可以使用来自第二LIDAR 122的数据来确定环境的较窄FOV的3D地图。在这种情况下,3D地图可以具有比基于来自第一LIDAR 120的数据确定的对应3D地图更高的角度分辨率,并且因此可以允许检测/识别比第一LIDAR 120的中等距离范围更远的物体,以及识别在中等距离范围内的更小的物体。在一个实施例中,第二LIDAR 122可以具有8°(水平)×15°(竖直)的FOV,4Hz的刷新率,并且可以发射具有1550nm波长的一个窄波束。在该实施例中,基于来自第二LIDAR 122的数据确定的3D地图可以具有0.1°(水平)×0.03°(竖直)的角度分辨率,从而允许检测/识别距离车辆100为300米的长范围内的物体。然而,其他配置(例如,光源的数量,角度分辨率,波长,范围等)也是可能的。
在一些示例中,车辆100可以被配置为调整第二LIDAR 122的观察方向。例如,当第二LIDAR 122具有窄水平FOV(例如,8度)时,第二LIDAR 122可以安装到步进电机(未示出),该步进电机允许将第二LIDAR 122的观察方向调整到除了如图1B所示的方向。因此,在一些示例中,第二LIDAR 122可以是可操纵的,以沿着车辆100的任何观察方向扫描窄FOV。
在本文的示例性实施例中更详细地描述了第一LIDAR 120和第二LIDAR 122的结构、操作和功能。
分隔结构124可以由适于支撑第一LIDAR 120和/或将第一LIDAR 120和第二LIDAR122光学隔离的任何固体材料形成。示例性材料可以包括金属,塑料,泡沫等。
滤光器126可以由对具有波长范围内的波长的光基本上透明并且对具有波长范围外的波长的光基本上不透明的材料形成。例如,滤光器126可以允许具有第一LIDAR 120的第一波长(例如,905nm)和第二LIDAR 122的第二波长(例如,1550nm)的光传播通过滤光器126。如图所示,滤光器126成形为包围第一LIDAR 120和第二LIDAR 122。因此,在一些示例中,滤光器126还可以被配置为防止对第一LIDAR 120和第二LIDAR 122的环境损害,例如灰尘的积聚或与空气传播的碎屑的碰撞等。在一些示例中,滤光器126可以被配置为减少传播通过滤光器126的可见光。反过来,滤光器126可以例如通过包围第一LIDAR 120和第二LIDAR 122来改善车辆100的美学外观,同时从外部观察者的角度降低传感器单元102的部件的可视性。在其他示例中,滤光器126可以被配置为允许可见光以及来自第一LIDAR 120和第二LIDAR 122的光。
在一些实施例中,滤光器126的各部分可以被配置为允许不同波长范围传播通过滤光器126。例如,滤光器126的在分隔结构124上方的上部可以被配置为允许在包括第一LIDAR 120的第一波长的第一波长范围内的光的传播。此外,例如,滤光器126的在分隔结构124下方的下部可以被配置为允许在包括第二LIDAR 122的第二波长的第二波长范围内的光的传播。在其它实施例中,与滤光器126相关联的波长范围可以包括第一LIDAR 120的第一波长和第二LIDAR 122的第二波长二者。
在一个实施例中,如图所示,滤光器126具有圆顶形状,并且因此可以被配置为用于第一LIDAR 120和第二LIDAR 122的圆顶形壳体。例如,圆顶形壳体(例如,滤光器126)可以包括位于第一LIDAR 120和第二LIDAR 122之间的分隔结构124。因此,在该实施例中,第一LIDAR 120可以设置在圆顶形壳体内。此外,在该实施例中,第二LIDAR 122也可以设置在圆顶形壳体内,并且可以位于第一LIDAR 120和车辆100的顶侧之间,如图1B所示。
图1C是位于图1A所示的车辆100前侧的传感器单元104的透视图。在一些示例中,传感器单元106,108和110可以类似于图1C所示的传感器单元104来配置。如图所示,传感器单元104包括第三LIDAR 130和滤光器132。
第三LIDAR 130可以被配置为扫描延伸远离第三LIDAR 130所在的车辆100的给定侧(即,前侧)的车辆100周围的环境的FOV。因此,在一些示例中,由于第三LIDAR 130的定位,第三LIDAR 130可以被配置为旋转(例如水平地)比第二LIDAR 122更宽的FOV,但是旋转小于第一LIDAR 120的360度FOV。在一个实施例中,第三LIDAR 130可以具有270°(水平)×110°(竖直)的FOV,4Hz的刷新率,并且可以发射具有905nm波长的一个激光束。在该实施例中,基于来自第三LIDAR 130的数据确定的3D地图可以具有1.2°(水平)×0.2°(竖直)的角度分辨率,从而允许检测/识别距离车辆100为30米的短范围内的物体。然而,其他配置(例如,光源的数量,角度分辨率,波长,范围等)也是可能的。第三LIDAR 130的结构、操作和功能在本公开的示例性实施例中更详细地描述。
滤光器132可以类似于图1B的滤光器126。例如,滤光器132可以被成形为包围第三LIDAR 130。此外,例如,滤光器132可以被配置为允许包括来自第三LIDAR 130的光的波长的波长范围内的光传播通过滤光器132。在一些示例中,滤光器132可以被配置为减少传播通过滤光器132的可见光,从而改善车辆100的美学外观。
图1D-1E示出了根据示例实施例的扫描周围环境的图1A所示的车辆100。
图1D示出了车辆100在表面140上操作的情况。表面140例如可以是诸如道路或高速公路或任何其它表面的驾驶表面。在图1D中,箭头142,144,146,148,150和152示出了在各个LIDAR的竖直FOV的端部处由传感器单元102和104的各种LIDAR发射的光脉冲。
作为示例,箭头142和144示出了由图1B的第一LIDAR 120发射的光脉冲。在该示例中,第一LIDAR 120可以在箭头142和144之间的环境区域中发射一系列脉冲,并且可以从该区域接收反射光脉冲以检测和/或识别该区域中的物体。由于传感器单元102的第一LIDAR120(未示出)定位在车辆100的顶侧,所以第一LIDAR 120的竖直FOV被车辆100的结构(例如,车顶等)限制,如图1D所示。然而,传感器单元102中的第一LIDAR 120在车辆100顶侧处的定位允许第一LIDAR 120通过围绕基本上竖直的轴线170旋转来扫描车辆100周围的所有方向。类似地,例如,箭头146和148示出了在第二LIDAR 122的竖直FOV的端部处由图1B的第二LIDAR 122发射的光脉冲。此外,第二LIDAR 122还可以是可操纵的,以根据讨论将第二LIDAR 122的观察方向调整到车辆100周围的任何方向。在一个实施例中,第一LIDAR 120的竖直FOV(例如,箭头142和144之间的角度)为20°,第二LIDAR 122的竖直FOV为15°(例如,箭头146和148之间的角度)。然而,其他竖直FOV也是可能的,例如,取决于例如车辆100的结构或各个LIDAR的配置等因素。
如图1D所示,传感器单元102(包括第一LIDAR 120和/或第二LIDAR 122)可以在车辆100周围的任何方向(例如通过旋转等)扫描车辆100的环境中的物体,但是可能不太适于扫描环境以得到邻近车辆100的物体。例如,如图所示,距离车辆100在距离154内的物体传可能未被感器单元102的第一LIDAR 120检测到或可能被感器单元102的第一LIDAR 120部分地检测到,因为这些物体的位置在由箭头142和144所示的光脉冲之间的区域之外。类似地,距离156内的物体也可能未被传感器单元102的第二LIDAR 122检测到,或者只能被传感器单元102的第二LIDAR 122部分地检测到。
因此,传感器单元104的第三LIDAR 130(未示出)可用于扫描环境以得到靠近车辆100的物体。例如,由于传感器单元104位于车辆100的前侧,所以第三LIDAR 130可适用于扫描环境以得到距离车辆100在距离154内和/或距离156内的物体,至少扫描环境的远离车辆100的前侧延伸的部分。如图所示,例如,箭头150和152示出了由第三LIDAR 130在第三LIDAR 130的竖直FOV的端部处发射的光脉冲。因此,例如,传感器单元104的第三LIDAR 130可被配置为扫描环境的在箭头150和152之间的部分,包括靠近车辆100的物体。在一个实施例中,第三LIDAR 130的竖直FOV为110°(例如,箭头150和152之间的角度)。然而,其他竖直FOV也是可能的。
应当注意,图1D中所示的各种箭头142-152之间的角度不是按比例的,并且仅用于说明的目的。因此,在一些示例中,各种LIDAR的竖直FOV也可以变化。
图1E示出了在车辆100扫描周围环境的情况下车辆100的俯视图。根据上述讨论,车辆100的各个LIDAR中的每一个可以根据其各自的刷新率、FOV或任何其它因素而具有特定分辨率。反过来,各个LIDAR可适用于检测和/或识别在距离车辆100的相应距离范围内的物体。
如图1E所示,轮廓160和162示出了可以基于来自传感器单元102的第一LIDAR 120的数据来检测/识别物体的距离车辆100的示例距离范围。如图所示,例如,由于传感器单元102定位在车辆100的顶侧上,轮廓160内的靠近物体可能无法被适当地检测和/或识别。然而,例如,可以使用来自第一LIDAR 120的数据来适当地检测/识别轮廓160之外并且在由轮廓162定义的中等距离范围(例如,100米等)内的物体。此外,如图所示,第一LIDAR 120的水平FOV可以在车辆100周围的所有方向上跨越360°。
此外,如图1E所示,轮廓164示出可以使用来自传感器单元102的第二LIDAR 122的较高分辨率数据来检测和/或识别物体的环境区域。如图所示,轮廓164例如包括在远距离范围(例如,300米等)内远离车辆100的物体。虽然轮廓164表示第二LIDAR 122的较窄的FOV(水平),但是在一些示例中,车辆100可以被配置为将第二LIDAR 122的观察方向调整到与图1E所示的任何其它方向。作为示例,车辆100可以使用来自第一LIDAR 120的数据来检测物体(例如,在轮廓162内),将第二LIDAR 122的观察方向调整到包括该物体的FOV,然后使用来自第二LIDAR 122的较高分辨率数据来识别该物体。在一个实施例中,第二LIDAR 122的水平FOV可以是8°。
此外,如图1E所示,轮廓166示出由传感器单元104的第三LIDAR 130扫描的环境区域。如图所示,由轮廓166示出的区域包括例如可能不被第一LIDAR 120和/或第二LIDAR124扫描的环境部分。此外,例如,来自第三LIDAR 130的数据具有足以检测和/或识别到距车辆100的短距离(例如,30米等)内的物体的分辨率。
注意,上述范围、分辨率和FOV仅仅是出于示例性目的,并且可以根据车辆100的各种配置而变化。此外,图1E中所示的轮廓160-166不按比例绘制,而是为了便于描述而示出,如图所示。
图2A示出了根据示例实施例的第一LIDAR200。在一些示例中,第一LIDAR 200可以类似于图1B的第一LIDAR 120,图1B的第二LIDAR 122,图1C的第三LIDAR 130和/或安装到诸如车辆100的车辆的任何其它LIDAR装置。例如,类似于图1B的第一LIDAR 120,第一LIDAR200可安装在诸如车辆100的车辆的顶侧。如图所示,LIDAR装置200包括壳体210和透镜250。此外,由第一LIDAR装置200发射的光束204从透镜250沿着第一LIDAR装置200的观察方向朝向LIDAR装置200的环境传播,并且反射离开环境中的一个或多个物体作为反射光206。
包括在LIDAR装置200中的壳体210可以提供用于安装包括在LIDAR装置200中的各个部件的平台。壳体210可以由能够支撑包括在壳体210的内部空间中的LIDAR装置200的各个部件的任何材料形成。例如,壳体210可以由诸如塑料或金属等的固体材料形成。
在一些示例中,壳体210可以被配置为具有基本上圆柱形的形状并围绕LIDAR装置200的轴线旋转。例如,壳体210可以具有直径约为10厘米的大致圆柱形形状。在一些示例中,轴线基本上是竖直的。通过旋转包括各个部件的壳体210,在一些示例中,可以确定LIDAR装置200的环境的360度视图的三维图,而无需经常重新校准LIDAR装置200的各个部件的布置。附加地或可替代地,在一些示例中,LIDAR装置200可以被配置为倾斜壳体210的旋转轴线以控制LIDAR装置200的视场。
安装到壳体210的透镜250可以具有光学功率,以便准直发射的光束204,并且将来自LIDAR装置200的环境中的一个或多个物体的反射光205聚焦到LIDAR装置200中的检测器上。在一个示例中,透镜250具有大约120mm的焦距。通过使用相同的透镜250来执行这两个功能,而不是发射透镜用于准直并且接收透镜用于聚焦,可以提供关于尺寸、成本和/或复杂性的优点。
LIDAR装置200可以安装在安装结构260上,安装结构260围绕轴线旋转以提供围绕LIDAR装置200的环境的360度视图。在一些示例中,安装结构260可以包括可在一个或多个方向上倾斜以改变LIDAR装置200的旋转轴线的可移动平台。
图2B是图2A所示的第一LIDAR 200的横截面图。如图所示,壳体210容纳发射块220、接收块230、共享空间240和透镜250。为了说明的目的,图2B示出了x-y-z轴,其中z轴处于基本竖直的方向。
发射块220包括沿着由透镜250限定的弯曲焦点表面228布置的多个光源222a-c。多个光源222a-c可以被配置为分别发射具有波长范围内的波长的多个光束202a-c。例如,多个光源222a-c可以包括发射具有波长范围内的波长的多个光束202a-c的激光二极管。多个光束202a-c被反射镜224反射,通过出口孔226进入共享空间240中并朝向透镜250。
光源222a-c可以包括激光二极管,发光二极管(LED),竖直腔表面发射激光器(VCSEL),有机发光二极管(OLED),聚合物发光二极管(PLED),发光聚合物(LEP),液晶显示器(LCD),微机电系统(MEMS)或被配置为选择性地透射、反射和/或发射光以提供多个发射光束202a-c的任何其它装置。在一些示例中,光源222a-c可以被配置为在可由包括在接收块230中的检测器232a-c检测的波长范围内发射的光束202a-c。波长范围可以例如在电磁光谱的紫外线、可见光和/或红外部分。在一些示例中,波长范围可以是窄的波长范围,例如由激光器提供的。在一个示例中,波长范围包括约905nm的波长。另外,光源222a-c可以被配置为发射以脉冲的形式发射的光束202a-c。在一些示例中,多个光源222a-c可以设置在一个或多个基板(例如,印刷电路板(PCB),柔性PCB等)上,并且被布置成朝向出口孔226发射多个光束202a-c。
尽管图2B示出了弯曲的焦点表面228在x-y平面中弯曲,附加地或可替代地,多个光源222a-c可以沿着在竖直平面中弯曲的焦点表面布置。例如,弯曲的焦点表面228可以在竖直平面中具有曲率,并且多个光源222a-c可以包括沿着弯曲焦点表面228竖直布置并且被配置为发射指向反射镜224并通过出口孔226反射的光束的附加光源。在该示例中,检测器232a-c还可以包括对应于光源222a-c的附加光源的附加检测器。此外,在一些示例中,光源222a-c可以包括沿着弯曲焦点表面228水平布置的附加光源。在一个实施例中,光源222a-c可以包括发射波长为905nm的光的64个光源。例如,64个光源可以沿着弯曲焦点表面228布置成四列,每列包括16个光源。在这种情况下,检测器232a-c可以包括沿弯曲焦点表面238类似布置的64个检测器(例如,每列包括16个检测器的4列等)。在其他实施例中,光源222a-c和检测器232a-c可以包括比图2B所示的光源和/或检测器更多或更少的光源和/或检测器。
由于多个光源222a-c沿着弯曲焦点表面228的布置,所以在一些示例中,多个光束202a-c可以朝向出口孔226会聚。因此,在这些示例中,出口孔226可以被最小化,同时能够容纳多个光束202a-c的竖直和水平范围。另外,在一些示例中,弯曲焦点表面228可由透镜250限定。例如,由于透镜250的形状和组成,弯曲焦点表面228可以对应于透镜250的焦点表面。在该示例中,多个光源222a-c可以沿着在发射块处的透镜250限定的焦点表面布置。
多个光束202a-c在延伸通过发射块220、出口孔226和共享空间240的发射路径中朝向透镜250传播。透镜250准直多个光束202a-c,以将准直光束204a-c提供到LIDAR装置200的环境中。准直光束204a-c分别对应于多个光束202a-c。在一些示例中,准直光束204a-c反射离开LIDAR装置200的环境中的一个或多个物体作为反射光206。反射光206可以被透镜250聚焦到共享空间240中,聚焦光208沿着通过共享空间240延伸的接收路径行进到接收块230。例如,当聚焦光208a-c朝向接收块230传播时,聚焦光208可被反射表面242反射。
由于透镜250的形状和组成,透镜250可以能够同时准直多个光束202a-c并且将反射光206沿着接收路径208朝向接收块230聚焦。例如,透镜250可以具有面向壳体210的外部的非球表面252和面向共享空间240的环形表面254。通过使用相同的透镜250来执行这两个功能,而不是发射透镜用于准直并且接收透镜用于聚焦,可以提供关于尺寸、成本和/或复杂性的优点。
出口孔226包括在隔离发射块220与共享空间240的壁244中。在一些示例中,壁244可以由涂覆有反射材料242的透明材料(例如,玻璃)形成。在该示例中,出口孔226可以对应于壁244的未被反射材料242涂覆的部分。附加地或可替代地,出口孔226可以包括孔洞或壁244中的切除部分。
聚焦光208被反射表面242反射并指向接收块230的入口孔234。在一些示例中,入口孔234可以包括被配置为允许由多个光源222a-c发射的多个光束202a-c的波长范围内的波长并且衰减其它波长的滤波窗口。由反射表面242从聚焦光208反射的聚焦光208a-c分别传播到多个检测器232a-c上。
多个检测器232a-c可以沿着接收块230的弯曲焦点表面238布置。尽管图2示出了弯曲焦点表面238沿着x-y平面(水平面)弯曲,但附加地或可替代地,弯曲焦点表面238可以在竖直平面中弯曲。焦点平面238的曲率也由透镜250限定。例如,弯曲焦点表面238可以对应于由透镜250在接收块230处沿着接收路径投射的光的焦点平面。
检测器232a-c可以包括光电二极管,雪崩光电二极管,光电晶体管,照相机,有源像素传感器(APS),电荷耦合器件(CCD),低温检测器或被配置为接收具有发射光束202a-c的波长范围内的波长的聚焦光208a-c的任何其它光的传感器。
聚焦光208a-c中的每一个分别对应于发射的光束202a-c并被分别引导到多个检测器232a-c。例如,检测器232a被配置和布置成接收聚焦光208a,聚焦光208a对应于在LIDAR装置200的环境中的一个或多个物体反射的准直光束204a。在该示例中,准直光束204a对应于由光源222a发射的光束202a。因此,检测器232a接收由光源222a发射的光,检测器232b接收由光源222b发射的光,并且检测器232c接收由光源222c发射的光。
通过将接收的光208a-c与发射的光束202a-c进行比较,可以确定LIDAR装置200的环境中的一个或多个物体的至少一个方面。例如,通过比较由多个光源222a-c发射多个光束202a-c的时间和多个检测器232a-c接收聚焦光208a-c的时间,可以确定LIDAR装置200和LIDAR装置200的环境中的一个或多个物体之间的距离。在一些示例中,还可以确定诸如形状,颜色,材料等其他方面。
在一些示例中,LIDAR装置200可围绕轴线旋转以确定LIDAR装置200周围环境的三维图。例如,如箭头290所示,LIDAR装置200可围绕基本上竖直的轴线旋转。尽管示出了如箭头290所示LIDAR装置200可以围绕轴线以逆时针方向旋转,附加地或可替代地,LIDAR装置200可以以顺时针方式旋转。在一些示例中,类似于图1B的第一LIDAR 120,LIDAR装置200可围绕轴线旋转360度。在其他示例中,类似于图1B的第二LIDAR 122,LIDAR装置200可以沿着LIDAR装置200的360度视图的一部分来回旋转。例如,LIDAR装置200可以安装在围绕轴线前后摆动而不会完全旋转的平台上。
因此,光源222a-c和检测器232a-c的布置可以允许LIDAR装置200具有特定的竖直视场。在一个示例中,LIDAR装置200的竖直FOV为20°。此外,LIDAR装置200的旋转允许LIDAR装置200具有360度水平FOV。此外,旋转速率可以允许装置具有特定的刷新率。在一个示例中,刷新率为10Hz。刷新率以及光源222a-c和检测器232a-c的布置也可以允许LIDAR装置300具有特定的角度分辨率。在一个示例中,角度分辨率为0.2°×0.3°。然而,诸如刷新率和角度分辨率的各种参数可以根据LIDAR装置200的配置而变化。此外,在一些示例中,LIDAR装置200可以包括除了图2A-2B所示的部件之外的附加的或更少的部件。
图2C示出了根据示例实施例的基于来自图2A的第一LIDAR 200的数据的环境的三维(3D)表示292。在一些示例中,3D表示292可以由计算装置基于来自第一LIDAR 200的数据作为3D点云生成。例如,3D云的每个点可以与来自图2B所示的反射光束206的反射光脉冲相关联。因此,如图所示,由于LIDAR 200的角度分辨率,距LIDAR 200更大距离的点彼此更远。基于第一LIDAR 200的旋转,3D表示292包括如图2C所示的所有方向(水平360°)的环境扫描。此外,如图所示,3D表示292的区域294不包括任何点。例如,区域294可以对应于车辆100周围的轮廓160(图1E),图1B的第一LIDAR 120由于定位在车辆100的顶侧而不能扫描。此外,如图所示,区域296表示LIDAR装置200的环境中的物体。例如,区域296中的物体可以对应于行人、车辆或LIDAR装置200的环境中的其它障碍物。在LIDAR装置200被安装到诸如车辆100的车辆的示例场景中,车辆100可以利用3D表示292将车辆从区域296朝向不包括区域296的障碍物的区域298导航。
图3A示出了根据示例实施例的第二LIDAR 300。在一些示例中,第二LIDAR 300可以类似于图1B的第一LIDAR 120,图1B的第二LIDAR 122,图1C的第三LIDAR 130和/或安装到诸如车辆100的车辆的任何其它LIDAR。例如,类似于图1B的第二LIDAR 122,第二LIDAR300可安装在诸如车辆100的车辆的顶侧。如图所示,LIDAR装置300包括光学组件310,反射镜320,销322和平台/步进电机330。此外,由第二LIDAR装置300发射的光束304从反射镜320沿着第二LIDAR装置300的观察方向朝向LIDAR装置300的环境传播,并且反射离开环境中的一个或多个物体作为反射光306。
光学组件310可以被配置为朝向反射镜320发射光脉冲,然后被反射镜320反射作为发射光304。此外,光学组件310可以被配置为接收从反射镜320反射的反射光306。在一个实施例中,光学组件310可以包括被配置为提供具有1550nm波长的窄光束的单个激光发射器。在该实施例中,类似于图1B的第二LIDAR 122,窄光束可以具有足够高的能量来检测远距离范围内的物体。在其它实施例中,光学组件310可以包括与图2A-2B的LIDAR 200类似的多个光源。此外,在一些示例中,光学组件310可以包括用于发射光304的准直和反射光306的聚焦二者的单个透镜。在其它示例中,光学组件310可以包括用于发射光304的准直的第一透镜和用于反射光306的聚焦的第二透镜。
反射镜320可以被布置成将发射光304从光学组件310朝向LIDAR 300的观察方向转向,如图3A所示。类似地,例如,反射镜320可以布置成将反射光306从环境朝向光学组件310转向。
销322可以被配置为将反射镜320安装到LIDAR装置300。反过来,销322可以由能够支撑反射镜320的任何材料形成。例如,销322可以由诸如塑料或金属等的固体材料形成。在一些示例中,LIDAR 300可以被配置为在给定的角度范围内围绕销322旋转反射镜320以竖直转向发射光304。在一个实施例中,LIDAR 300可以在15°的角度范围内围绕销322旋转反射镜320。在该实施例中,LIDAR 300的竖直FOV可以对应于15°。然而,根据各种因素,例如LIDAR 300的安装位置或任何其他因素,其他竖直FOV也是可能的。
平台330可以由能够支撑LIDAR 300的各个部件(例如光学组件310和反射镜320)的任何材料形成。例如,平台330可以由诸如塑料或金属等的固体材料形成。在一些示例中,平台330可以被配置为围绕LIDAR装置300的轴线旋转。例如,平台330可以包括或可以是诸如步进电机的电机,以便于这种旋转。在一些示例中,轴线基本上是竖直的。通过旋转支撑各个部件的平台330,在一些示例中,平台330可以水平地转向发射光304,从而允许LIDAR300具有水平的FOV。在一个实施例中,平台330可以旋转一定量的旋转,例如8°。在该实施例中,类似于图1B的第二LIDAR 122,LIDAR 300因而可以具有8°的水平FOV。在另一实施例中,类似于图1B的第一LIDAR 120,平台330可以旋转完整360°旋转,使得水平FOV为360°。在又一实施例中,类似于图1C的第三LIDAR 130,平台330可以旋转270°,使得水平FOV为270°。平台330的其他配置也是可能的。因此,在一些示例中,LIDAR 300可以提供用于扫描环境或其一部分的替代图2A-2B的LIDAR 200的装置的替代装置。
图3B示出了根据示例实施例的基于来自图3A的第二LIDAR 300的数据的环境的3D表示392。在一些示例中,类似于图2C的3D表示292,3D表示392可以由计算装置基于来自第二LIDAR 300的数据作为3D点云生成。例如,3D云的每个点可以与来自图3A所示的反射光束306的反射光脉冲相关联。
如图所示,3D表示392包括与3D表示292的区域294类似的区域394,由于第二LIDAR300位于车辆的顶侧,区域394可以是未扫描区域。例如,区域294可以对应于车辆100周围的图1E的轮廓160。
然而,与图2C的3D表示292不同,3D表示392跨越了更窄的视场。例如,由LIDAR 300扫描并在3D表示392中示出的FOV可对应于图1E的轮廓164。部分地由于更窄的FOV,3D表示392具有比3D表示292更高的分辨率。例如,点云中的点彼此更接近,因此与由3D表示292表示的环境中的物体相比较,可以容易地识别环境中的一些物体。
在示例场景中,诸如车辆100的车辆可以包括类似于第一LIDAR 200的第一LIDAR(例如,第一LIDAR 120)和类似于第二LIDAR 300的第二LIDAR(例如,第二LIDAR 122)。在这种情况下,车辆可以利用来自第一LIDAR的数据来生成图2C的3D表示292。此外,在该情况下,车辆可以将3D表示292的区域296确定为用于进一步扫描的感兴趣区域。反过来,场景中的车辆可以调整第二LIDAR的观察方向以扫描感兴趣的区域并获得图3B的3D表示392。在这种场景下,车辆可以使用诸如图像处理算法或形状检测算法的计算处理来处理3D表示392。反过来,场景的车辆可以将3D表示392的区域396中的物体识别为行人,并将区域398中的另一个物体标识为光柱。在这种场景下,车辆可以相应地导航。在一种情况下,如果物体包括行人(例如,如区域396所示),则车辆可以导航到距离物体的第一阈值距离内,或者如果物体包括诸如光柱(例如,由区域398指示)等的无生命物体,则车辆可以导航到较低的第二阈值距离内。在另一种情况下,如果识别出生命物体(例如,区域396),则车辆可以分配第二LIDAR来跟踪物体,或者如果仅识别无生命物体,则可以分配第二LIDAR来跟踪其他物体。其他导航操作也可能与场景一致。
因此,在一些示例中,包括诸如LIDAR 200和LIDAR 300的LIDAR组合的车辆可以利用每个LIDAR的相应特征,例如刷新率,分辨率,FOV,位置等,以根据各种道路条件和/或场景扫描环境。
图4A示出了根据示例实施例的第三LIDAR 400。在一些示例中,第三LIDAR 400可以类似于图1B的第一LIDAR 120,图1B的第二LIDAR 122,图1C的第三LIDAR 130和/或安装到诸如车辆100的车辆的任何其它LIDAR。例如,类似于图1C的第三LIDAR 130,第三LIDAR400可以安装在车辆的前侧或车辆的任何其他侧(例如,在车辆100的传感器单元106,108,110等中)。如图所示,第三LIDAR 400包括光学组件410,发射透镜412,接收透镜414,反射镜420,销422和电机430。为了说明的目的,图4A示出了x-y-z轴,其中z轴指向页面,并且x轴和y轴沿着页面的表面限定水平面。
类似于第二LIDAR 300,在一些示例中,第三LIDAR 400可以发射沿着第三LIDAR400的观察方向(例如,平行于图4A所示的z轴等)朝向第三LIDAR 400的环境远离反射镜420传播的光,并且可以接收来自环境中的一个或多个物体的反射光。
因此,光学组件410可以被配置为朝向反射镜420发射光脉冲,然后被反射镜420朝向环境反射。此外,光学组件410可以被配置为接收从反射镜420反射的反射光。在一个实施例中,光学组件310可以包括被配置为提供具有905nm波长的窄光束的单个激光发射器。在其它实施例中,光学组件410可以包括与图2A-2B的LIDAR 200类似的多个光源。如图所示,光学组件410包括用于将来自光学组件410的发射光准直和/或聚焦到反射镜420上的发射透镜412,以及用于将来自反射镜420的反射光聚焦到光学组件410的一个或多个检测器(未示出)上的接收透镜414。然而,在一些示例中,与第一LIDAR 200的透镜250类似,光学组件410可以可替代地包括用于发射光的准直和反射光的聚焦二者的单个透镜。
类似于第二LIDAR 300的反射镜320,第三LIDAR 400的反射镜420可以被布置成将从发射透镜412发射的光朝向LIDAR 400的观察方向转向,如图4A所示。此外,例如,反射镜420可以布置成将反射镜420的反射光朝向接收透镜414转向。然而,在一些示例中,与反射镜320不同,反射镜420可以是三角发射镜,其执行围绕由销定义的轴线的完全旋转。在这些示例中,反射镜420可以允许将光学组件410的发射的光在比第二LIDAR 300更宽的竖直FOV上反射。在一个实施例中,类似于图1C的第三LIDAR 130,第三LIDAR 400的竖直FOV为110°。
销422可以被配置为将反射镜420安装到LIDAR装置400。反过来,销422可以由能够支撑反射镜420的任何材料形成。例如,销422可以由诸如塑料或金属等的固体材料形成。在一些示例中,LIDAR 400可以被配置为围绕销422旋转反射镜420以进行完整旋转,从而竖直转向来自光学组件410的发射光。然而,在其他示例中,LIDAR 400可以被配置为在给定的角度范围内围绕销422旋转反射镜420以转向发射光,类似于LIDAR 300。因此,在一些示例中,可以通过调整反射镜420围绕销422的旋转来实现各种竖直FOV。
电机430可以包括任何电机,例如步进电机,电动电机,燃烧电机,薄饼电机和/或压电致动器以及其他可能性。在一些示例中,电机430可以被配置为围绕LIDAR装置400的轴线旋转LIDAR 400的各个部件(例如,光学组件410,反射镜420,销422等)。例如,与图4A所示的y轴类似,轴线可以是基本竖直的。通过围绕轴线旋转LIDAR 400的各个部件,在一些示例中,电机430可以转向水平地从反射镜420反射的发射光,从而允许LIDAR 400具有水平FOV。在一个实施例中,电机430可以旋转一定量的旋转,例如270°。在该实施例中,类似于图1C的第三LIDAR 130,LIDAR 400可以具有270°的水平FOV。然而,其他旋转量也是可能的(例如,类似于第一LIDAR 120的360°,类似于第二LIDAR 122的8°),从而允许LIDAR 400的不同的水平FOV。因此,在一些示例中,LIDAR 400可以提供用于扫描环境或其一部分的替代图2A-2B的LIDAR 200和/或图3A的LIDAR 300的装置的替代装置。
图4B示出了图4A所示的第三LIDAR 400的部分横截面图。注意,为了方便描述,从图4B的图示中省略了第三LIDAR 400的一些部件。
如图所示,光学组件410包括光源422。光源422可以被配置为朝向发射透镜412发射一个或多个光脉冲(例如,激光束等)。例如,如图所示,发射光402a从光源442朝向发射透镜412传播。在一些示例中,光源422可以类似于图2B的LIDAR 200的光源222a-c。在一个实施例中,光源422可以被配置为发射波长为905nm的光脉冲。
根据上述讨论,发射透镜412可以被配置为将发射光402a准直成一个或多个准直光束402b和/或可以被配置为将发射光402a作为聚焦光402b聚焦在发射镜420上。
在一些示例中,反射镜420可以是如图所示的三角镜,其具有三个反射表面420a,420b,420c。然而,在其他示例中,反射镜420可以可替代地包括多于三个的反射表面。在图4B所示的配置中,准直光402b然后可以反射离开反射表面402a并作为发射光402c进入LIDAR 400的环境。例如,图4B中箭头452示出了发射光402c的方向。此外,随着反射镜420围绕由销422限定的轴线旋转,发射光402c可被转向以具有与箭头452示出的方向不同的方向。例如,发射光402c的方向452可以替代地对应于沿箭头450的不同方向。因此,通过围绕销422旋转反射镜420,LIDAR 400可以被配置为具有例如竖直的FOV。
以示例的方式考虑反射镜420被配置为围绕由销422限定的轴线在顺时针方向上连续地旋转的情况。在这种情况下,发射光402c的方向452也可以如箭头450所示的顺时针方向调节,直到聚焦光402b反射离开反射表面420a的边缘。此时,发射光402c将被引导向LIDAR 400的竖直FOV的最大程度。继续这种场景,当反射镜420继续旋转时,准直光402b然后可以被聚焦到反射表面420b而不是反射表面420a上。此时,反射光402c可被转向朝向LIDAR 400的竖直FOV的最小程度的方向。继续这种场景,当反射镜420继续旋转时,发射光402c的方向然后可以在顺时针方向上朝向竖直FOV的最大程度调节,其对应于光402b被聚焦到反射表面420b的另一边缘。类似地,继续该场景,发射光402c的方向然后可以通过将光402b反射离开反射表面420c而不是反射表面420b来调节,以扫描LIDAR 400的竖直FOV。通过这个过程,例如,LIDAR 400可以连续扫描竖直FOV。作为示例的上述场景的变型,发射镜420可以可替换地被配置为在给定的角度范围内旋转(例如,摆动等)以定义比上述场景更窄的竖直视场。反射镜420的旋转的其它配置也是可能的。
图4C示出了根据示例实施例的基于来自图4A的第三LIDAR 400的数据的环境的3D表示492。在一些示例中,类似于3D表示292和/或3D表示392,3D表示492可以由计算装置基于来自第三LIDAR 400的数据作为3D点云生成。例如,3D云的每个点可以与来自LIDAR 400的环境中的物体的反射光脉冲相关联。
如图所示,3D表示492包括与3D表示292的区域294和/或3D表示392的区域394类似的区域494,由于第三LIDAR 400的FOV的范围和/或LIDAR 400的定位(例如,在除了顶侧之外的车辆的给定侧),区域494可以是未扫描区域。然而,如图所示,区域494比区域294和394小得多。因此,类似于图1C的第三LIDAR 130,LIDAR 400有利于扫描附近的物体。
然而,与3D表示392不同,3D表示492跨越了更宽的视场。例如,由LIDAR 400扫描并在3D表示492中示出的FOV可对应于图1E的轮廓166。部分地由于更宽的FOV,3D表示492具有比3D表示392更低的分辨率。例如,如图所示,与3D表示392的点云中的点相比,点云中的点在3D表示492中彼此更远。然而,在一些示例中,较低分辨率可能足以扫描环境以获得在与第三LIDAR 400距离的短范围内的物体。如图所示,例如,可以通过分析3D表示492的区域496来利用计算装置(例如,车辆处理器,远程服务器等)来检测附近的行人。
因此,在一些示例中,包括诸如LIDAR 200,LIDAR 300和/或LIDAR 400的LIDAR组合的车辆可以利用每个LIDAR的相应特征,例如刷新率,分辨率,FOV,位置等,以根据各种道路条件和/或场景扫描环境。
图5是根据示例实施例的方法500的流程图。图5所示的方法500示出了可以与例如车辆100,LIDAR 120,122,130,200,300和/或400中的任何一个一起使用的方法的实施例。方法500可以包括由框502-506中的一个或多个所示出的一个或多个操作、功能或动作。尽管按顺序示出了图框,但是在某些情况下,这些图框可以并行执行,和/或以与本文中所描述的顺序不同的顺序执行。此外,各个图框可以基于期望的实施方式组合成更少的图框,被划分为附加图框,和/或移除。
此外,对于本文公开的方法500和其他处理和方法,流程图示出了本实施例的一个可能实施方式的功能和操作。在这方面,每个图框可以表示模块,段,制造或操作过程的一部分或程序代码的一部分,程序代码包括可由处理器执行的用于实现该过程中的特定逻辑功能或步骤的一个或多个指令。程序代码可以存储在任何类型的计算机可读介质上,例如诸如包括盘或硬盘驱动器的存储设备。计算机可读介质可以包括例如诸如寄存器存储器,处理器高速缓存和随机存取存储器(RAM)等短时间内存储数据的计算机可读介质。计算机可读介质还可以包括例如诸如只读存储器(ROM),光盘或磁盘,压缩盘只读存储器(CD-ROM)等的非暂时介质。计算机可读介质也可以是任何其它易失性或非易失性存储系统。计算机可读介质可以被认为是例如计算机可读存储介质或有形存储设备。
此外,对于本文公开的方法500和其他过程和方法,图5中的每个图框可以表示被连接以在该过程中执行特定逻辑功能的电路。
在一些示例中,方法500和本文中的其他方法可以由诸如车辆100的车辆中的计算系统来执行。在其他示例中,方法500和本文中的其他方法可以由通信地链接到诸如车辆100的车辆的远程系统来执行,以向车辆提供操作指令。在其他示例中,方法500和其他方法可以由彼此通信的多个计算系统,例如多个车辆或单个车辆上的多个处理器来执行。在另外的示例中,方法500和本文中的其他方法可以由安装到诸如车辆100的车辆的一个或多个LIDAR实现。因此,在一些示例中,方法500和本文中的其它方法可以促进车辆的自主操作和/或协助车辆的手动操作(例如,用于事故避免)。
在图框502处,方法500涉及基于第一光检测和测距装置(LIDAR)来扫描车辆周围的环境。在一些示例中,类似于图1B的第一LIDAR 120,第一LIDAR可以位于车辆的顶侧并被配置为围绕轴线旋转。例如,第一LIDAR可以包括在安装到车辆的顶侧的传感器单元中,诸如图1A的传感器单元102。在一些示例中,类似于车辆100的车轮112,车辆可以包括位于车辆的与顶侧相对的底侧的一个或多个车轮。第一LIDAR可以具有第一分辨率。例如,类似于图2A-2B的LIDAR装置200,第一分辨率可能适合于扫描车辆周围的环境中距离车辆的中等距离范围内的物体(例如,100米等)。
在图框504,方法500涉及基于第二LIDAR来扫描环境的特定视场(FOV)。特定的FOV可以沿着第二LIDAR的观察方向从车辆延伸。在一个示例中,第二LIDAR可以定位成在车辆的顶侧与第一LIDAR相邻。例如,第二LIDAR可以类似于包括在安装到车辆100的顶侧的传感器单元102中的图1B的第二LIDAR 122。在这种情况下,第二LIDAR可以具有对应于图1E的轮廓164的窄视场。因此,在该示例中,第二LIDAR可适用于扫描环境,以获得在车辆的远距离(例如,300米等)的范围内的物体。在另一示例中,第二LIDAR可以位于除了顶侧之外的给定侧。在一种情况下,第二LIDAR可以类似于包括在安装到车辆100的前侧的传感器单元104中的图1C的第三LIDAR 130。在另一种情况下,第二LIDAR可以包括在分别安装到车辆100的后侧,右侧和/或左侧的传感器单元106,108,110中的任一个中。因此,在该示例中,第二LIDAR可适用于扫描环境,以获得在车辆的短距离(例如,30米等)的范围内的物体。
在一些示例中,方法500还可以涉及基于从第一LIDAR接收到的数据来调节第二LIDAR的观察方向。在一个示例中,从第一LIDAR接收的数据可以指示环境中的诸如汽车的移动物体。在该示例中,方法500可以包括调节第二LIDAR的观察方向以使用来自第二LIDAR的给定数据来聚焦在移动物体上和/或跟踪移动物体。例如,来自第二LIDAR的给定数据可以提供适合于跟踪移动物体的更大的分辨率(例如,第二分辨率),范围和/或刷新率。在另一示例中,从第一LIDAR接收到的数据可以指示由于第一LIDAR的第一分辨率而难以识别的物体的检测。在该示例中,方法500可以包括调节第二LIDAR的观察方向以利用第二LIDAR的更高分辨率扫描未识别的物体并且便于识别物体。其他示例也是可能的,这与上面的讨论一致。
因此,在一些示例中,方法500还可以涉及基于来自具有第一分辨率的第一LIDAR的数据来确定环境的三维(3D)表示。在示例场景中,3D表示可以类似于LIDAR 200的3D表示292。此外,在一些示例中,方法500还可以涉及识别用于由第二LIDAR扫描的3D表示的一部分。继续示例场景,该部分可以对应于3D表示292的区域296。如图2C所示,根据该场景,区域296可以包括由于第一LIDAR的第一分辨率而难以识别的各种物体。因此,在一些示例中,方法500还可以包括调节第二LIDAR的观察方向以对应于与3D表示的所识别的部分相关联的环境的FOV。继续示例场景,观察方向可以被调节到包括区域296中的物体的FOV。例如,在该场景中,这样的FOV可以对应于图3B的3D表示392中所示的FOV。反过来,在一些示例中,方法500还可以涉及基于来自第二LIDAR的给定数据来更新3D表示的部分以具有第二LIDAR的第二分辨率。继续示例场景,来自第二LIDAR的给定数据可以允许类似于3D表示392生成环境部分的更高分辨率的3D表示。反过来,例如,3D表示的部分可以用更高分辨率数据来更新,以便于识别诸如3D表示392的区域396和398中的物体的物体。
在一些示例中,方法500还可以涉及基于来自第一LIDAR的第一数据来检测环境中的距离车辆的阈值距离内的第一物体。阈值距离可以基于第一LIDAR的第一分辨率。例如,阈值距离可以对应于第一LIDAR的第一分辨率可以允许在中等范围内的物体的检测和/或识别的距离的中等距离范围。返回参考图1E作为示例,阈值距离可以对应于轮廓162,因此第一物体可以包括类似于车辆100的第一LIDAR 120的在轮廓160和162之间的任何物体。此外,在一些示例中,方法500还可以涉及在环境中距离车辆大于阈值距离的给定距离处检测第二物体。在给定距离处的第二物体的检测可以基于第二LIDAR的第二分辨率。继续图1E的示例,第二物体可以包括在轮廓164内,超过由轮廓162指示的阈值距离。由于第二LIDAR的更高分辨率,例如,可以使用来自第二LIDAR的第二数据来检测和/或识别该区域内的对象。
在图框506处,方法500涉及基于由第一LIDAR和第二LIDAR对环境的扫描来操作车辆。作为示例,车辆可以以自主模式操作。在该示例中,车辆可以类似于3D表示292,392和/或492生成环境或其部分的3D地图。反过来,车辆可以利用3D地图通过避免障碍物等来安全地导航车辆(例如,调节速度,方向等)。例如,可以使用图像处理算法或其他计算方法来检测障碍物或物体,以分析3D地图并检测或识别各种障碍物或物体。作为示例,车辆可以以部分自主或手动模式操作。在该示例中,车辆可以向车辆的驾驶员或操作者通知各个物体的存在或距离或路况改变(例如路灯,街道标记等)。
在一些示例中,方法500还可以涉及基于沿着给定侧定位的第三LIDAR来扫描环境的远离车辆的给定侧而不是顶侧延伸的给定FOV。例如,第三LIDAR可以类似于包括在安装到图1A的车辆100的前侧的传感器104中的图1C的第三LIDAR 130。可替代地,例如,第三LIDAR可以是安装到另一侧的另一LIDAR,例如包括在车辆100的传感器单元106,108和/或110中的LIDAR。例如,第三LIDAR可适用于扫描环境,以获得在短距离范围内(例如,30米等)靠近车辆的物体。在这些示例中,在图框506处,方法500可以涉及基于第三LIDAR来操作车辆。因此,在一些示例中,方法500可以涉及使用与上述讨论一致的第一LIDAR,第二LIDAR和第三LIDAR来扫描车辆周围环境的各个部分,例如由图1E的轮廓162,164和/或166指示的区域。
图6是根据示例实施例的另一方法600的流程图。图6所示的方法600示出了可以与例如车辆100,LIDAR 120,122,130,200,300,400中的任何一个一起使用的方法的实施例。方法600可以包括由框602-608中的一个或多个所示出的一个或多个操作、功能或动作。尽管按顺序示出了图框,但是在某些情况下,这些图框可以并行执行,和/或以与本文中所描述的顺序不同的顺序执行。此外,各个图框可以基于期望的实施方式组合成更少的图框,被划分为附加图框,和/或移除。
在图框602处,方法600涉及接收来自第一LIDAR的第一数据,第一LIDAR被配置为围绕轴线旋转以扫描车辆周围的环境。第一LIDAR可以类似于在方法500的图框502处的第一LIDAR。例如,类似于图1B的第一LIDAR 120,第一LIDAR可以定位在车辆的顶侧。例如,第一LIDAR可以包括在安装到车辆的顶侧的传感器单元中,诸如图1A的传感器单元102。在一些示例中,类似于车辆100的车轮112,车辆可以包括位于车辆的与顶侧相对的底侧的一个或多个车轮。第一LIDAR可以具有第一分辨率。例如,类似于图2A-2B的LIDAR装置200,第一分辨率可能适合于扫描车辆周围的环境中距离车辆的中等距离范围内的物体(例如,100米等)。
因此,例如,来自第一LIDAR的第一数据可以由包括在车辆中的计算装置接收,或者可以由与车辆通信的外部计算装置接收。
在图框604处,方法600涉及接收来自被配置为扫描环境的特定FOV的第二LIDAR的第二数据。特定的FOV可以沿着第二LIDAR的观察方向从车辆延伸。在一个示例中,第二LIDAR可以定位成在车辆的顶侧与第一LIDAR相邻。例如,第二LIDAR可以类似于包括在安装到车辆100的顶侧的传感器单元102中的图1B的第二LIDAR 122。在这种情况下,第二LIDAR可以具有对应于图1E的轮廓164的窄视场。因此,在该示例中,第二LIDAR可适用于扫描环境,以获得在车辆的远距离(例如,300米等)的范围内的物体。在另一示例中,第二LIDAR可以位于除了顶侧之外的给定侧。在一种情况下,第二LIDAR可以类似于包括在安装到车辆100的前侧的传感器单元104中的图1C的第三LIDAR 130。在另一种情况下,第二LIDAR可以包括在分别安装到车辆100的后侧,右侧和/或左侧的传感器单元106,108,110中的任一个中。因此,在该示例中,第二LIDAR可适用于扫描环境,以获得在车辆的短距离(例如,30米等)的范围内的物体。
类似于图框602处的第一数据,来自第二LIDAR的第二数据可以由包括在车辆中的计算装置接收,或者可以由与车辆通信的外部计算装置接收。
在一些情况中,方法600还可以涉及基于来自第一LIDAR的第一数据来确定环境的3D表示。3D表示可以具有第一LIDAR的第一分辨率。作为示例,3D表示可以类似于图2C的3D表示292。在一些情况下,方法600还可以涉及基于3D表示检测环境中的一个或多个物体。继续示例,所述一个或多个物体可以类似于3D表示292的区域296中的物体。此外,在一些情况下,方法600还可以涉及调节第二LIDAR的观察方向以对应于包括所述一个或多个物体的环境的FOV。反过来,例如,方法600还可以涉及响应于调节观察方向,基于来自第二LIDAR的第二数据来确定所述一个或多个物体的给定3D表示。给定3D表示可以具有第二LIDAR的第二分辨率。继续该示例,给定的3D表示可以类似于图3B的3D表示392,并且因此可以具有第二LIDAR的较高的第二分辨率。因此,在这些情况下,方法600还可以涉及基于具有第二分辨率的给定3D表示来识别一个或多个物体,并且基于识别一个或多个物体来操作车辆。继续该示例,如图3B所示,所述一个或多个物体可以对应于区域396中的物体(例如,行人)和区域398中的物体(例如,光柱)。因此,在该示例中,可以通过将车辆导航远离所述一个或多个物体而调节车辆的操作,根据所识别的一个或多个物体的类型调节车辆的速度(例如,如果物体是行人,则降低速度等),和/或导航车辆以设定基于一个或多个物体的类型的距离一个或多个物体的阈值距离。其他的例子也是可以的。
在图框606处,方法600涉及基于由第一LIDAR和第二LIDAR对环境的扫描来确定车辆的操作指令。在第一示例中,操作指令可以包括导航车辆远离环境中的障碍物。在第二示例中,操作指令可以包括调节第二LIDAR的观察方向以对应于包括特定物体的环境的FOV。在第三示例中,操作指令可以包括使车辆中的显示器或扬声器呈现关于环境中的一个或多个物体的信息。在第四示例中,操作指令可以包括响应于基于对环境的扫描的物体或其他道路状况的检测来调节车辆的各个部件(例如,灯,照相机等)的配置。其他的例子也是可以的。
在一些示例中,方法600还可以涉及基于来自沿着给定侧定位的第三LIDAR的第三数据来扫描环境的远离车辆的给定侧而不是顶侧延伸的给定FOV。例如,第三LIDAR可以类似于图1C的第三LIDAR 130,并且可以具有适合于检测距离车辆的短距离范围内的物体的第三分辨率。在这些示例中,在图框606处确定操作指令也可以基于第三LIDAR对环境的扫描。
此外,在这些示例中,方法600还可以涉及基于来自第一LIDAR的数据检测环境中的物体,并且基于来自具有第三分辨率的第三LIDAR的给定数据来识别物体。例如,在物体靠近车辆的地方,来自第一LIDAR的数据可以仅指示物体的一部分而不是整个物体(例如,由于类似于3D表示292的区域294的环境的未扫描部分)。在这种情况下,方法600可以使用来自具有包括整个物体的FOV的第三LIDAR的给定数据来识别物体。
因此,在这些示例中,方法600还可以涉及确定物体和车辆之间的给定距离小于阈值距离,并且响应地获得来自第三LIDAR的给定数据以识别物体。例如,在检测到的物体位于未扫描区域的边界(例如,3D表示292的区域294)并且因此处于小于阈值距离的给定距离处的情况下,方法600可以操作第三LIDAR以获得给定的数据来识别物体。
在图框608处,方法600涉及向车辆提供操作指令。在一个示例中,在图框606处的操作指令的确定由外部计算装置执行,在图框608处提供操作指令可以涉及外部计算装置向车辆传达操作指令(例如,经由无线或有线通讯接口)。在另一示例中,在图框606处的确定由包括在车辆中的控制器执行,提供操作指令可以涉及控制器向车辆的导航系统或其他控制系统提供信号,以根据确定的操作指令来调节车辆的操作。其他示例也是可能的,这与上面的讨论一致。
图7是根据示例实施例的又一方法700的流程图。图7所示的方法700示出了可以与例如车辆100,LIDAR 120,122,130,200,300,400中的任何一个一起使用的方法的实施例。方法700可以包括由框702-708中的一个或多个所示出的一个或多个操作、功能或动作。尽管按顺序示出了图框,但是在某些情况下,这些图框可以并行执行,和/或以与本文中所描述的顺序不同的顺序执行。此外,各个图框可以基于期望的实施方式组合成更少的图框,被划分为附加图框,和/或移除。
在一些示例中,方法700可以与方法500和/或600结合使用以操作本文中的装置和系统,诸如车辆100和/或LIDAR 120,122,130,200,300,400。在其他示例中,方法700可以用于操作本文中的装置和系统,作为方法500和/或600的替代方法。因此,在一些示例中,方法700可以是方法500和/或600的附加或替代方法。
在图框702处,方法700涉及基于车辆的第一LIDAR,车辆的第二LIDAR或车辆的第三LIDAR来确定车辆和车辆的环境中的物体之间的给定距离。在一些示例中,第一LIDAR,第二LIDAR和第三LIDAR可以分别类似于车辆100的第一LIDAR 120,第二LIDAR 122和第三LIDAR 130。例如,第一LIDAR可以被定位在车辆的顶侧,并且被配置为围绕轴线旋转以扫描车辆周围的环境,第二LIDAR可以被配置为沿着第二LIDAR的观察方向扫描环境的特定FOV,并且第三LIDAR可以位于除了顶侧以外的车辆的给定侧,以扫描远离给定侧的环境的给定FOV。此外,例如,第一LIDAR可以具有第一分辨率,第二LIDAR可以具有第二分辨率,并且第三LIDAR可以具有第三分辨率,使得每个LIDAR适合于根据各自的LIDAR的各自特征来扫描环境以获得各种物体。例如,第一LIDAR可适用于在检测和/或识别与车辆的中等距离范围内(例如,图1E的轮廓160和162之间)的物体,第二LIDAR可适用于检测和/或识别在远距离范围内(例如,在图1E的轮廓164内)的物体,并且第三LIDAR可适用于检测和/或识别在短距离范围内(例如,图1E的轮廓166内)的物体等。
因此,在一个示例中,可以使用基于来自相应LIDAR的数据确定的一个或多个3D表示或点云来确定给定的距离。例如,给定的3D表示可以类似于图2C,3B和4C中分别示出的任何3D表示292,392,492。在另一示例中,可以通过分析来自物体到与LIDAR200,300和/或400的讨论一致的相应LIDAR的检测器的反射光脉冲来确定给定的距离。
在图框704处,方法700涉及基于来自第一LIDAR的第一数据,基于大于第一阈值且小于第二阈值的给定距离来跟踪物体。以示例的方式返回参考图1E,如果物体位于轮廓160和162之间的区域中,则可以使用来自第一LIDAR的第一数据来跟踪物体(例如,位置,运动,速度,方向等)。在这样的区域中,第一LIDAR的第一分辨率可以适用于物体的检测/识别,因此也适用于跟踪物体。因此,在该示例中,第一阈值可以对应于轮廓160,并且第二阈值可对应于轮廓162。在一些示例中,第一数据可以类似于图2C的3D表示292,或者可以是从第一LIDAR接收到的指示由第一LIDAR检测到的反射光脉冲的形状/强度或飞行时间等的数据。
在图框706处,方法700涉及基于来自第二LIDAR的第二数据,基于大于第二阈值的给定距离来跟踪物体。继续图1E的示例,如果物体在超过轮廓162的区域中,则可以使用来自第二LIDAR的第二数据来跟踪物体。例如,可以相应地调节第二LIDAR的观察方向,以将物体保持在第二LIDAR的FOV内,如图1E所示为轮廓164。在一些示例中,第二数据可以类似于图3B的3D表示392,或者可以是从第二LIDAR接收到的指示由第二LIDAR检测到的反射光脉冲的形状/强度或飞行时间等的数据。
在图框708处,方法700涉及基于来自第三LIDAR的第三数据,基于小于第一阈值的给定距离来跟踪物体。继续图1E的示例,如果物体在由轮廓166指示的区域中,则可以使用来自第三LIDAR的第三数据来跟踪物体。例如,这样的区域包括由于相应的LIDAR位于车辆的顶侧而不被第一LIDAR和/或第二LIDAR扫描的环境的部分(例如,在轮廓160内)。在一些示例中,第三数据可以类似于图4C的3D表示492,或者可以是从第三LIDAR接收到的指示由第三LIDAR检测到的反射光脉冲的形状/强度或飞行时间等的数据。
因此,在示例场景中,物体可以在各个LIDAR的各个范围之间移动,并且图框704-708处的方法700可以允许使用第一LIDAR,第二个LIDAR和第三LIDAR中每个的相应特征来连续跟踪物体。通过该过程,例如,车辆可以利用方法700在物体在各种距离范围内移动时跟踪物体,从而促进自主操作(例如,导航)和/或事故避免。
图8示出了根据示例实施例的在包括一个或多个物体的环境中操作的车辆800。车辆800可以类似于车辆100。例如,如图所示,车辆800包括分别类似于车辆100的传感器单元102,106,108和110的传感器单元802,806,808和810。例如,传感器单元802可以包括分别类似于车辆100的第一LIDAR 120和第二LIDAR 122的第一LIDAR(未示出)和第二LIDAR(未示出)。此外,例如,传感器单元806-810中的每一个还可以包括类似于车辆100的第三LIDAR130的LIDAR。如图所示,车辆800的环境包括各种物体,例如汽车812,814,816,道路标志818,树820,建筑物822,街道标志824,行人826,狗828,汽车830,车道832和包括车道线834的车道线。根据本公开,车辆800可以执行本文的方法和过程,例如方法500-700,以促进车辆800的自主操作和/或车辆800的事故避免。以下是根据本公开的车辆800的操作的示例场景。
在第一场景下,车辆800可利用方法500和/或600来检测和/或识别图8所示的各种物体。在第一场景下,车辆800可以将汽车812-816识别为可能与车辆800的导航行为相关的移动物体。例如,车辆800可以利用各个LIDAR的各种扫描分辨率和范围来适当地识别作为移动车辆的汽车812-816。此外,在第一场景下,车辆800可利用方法700来跟踪汽车812-816并促进这种导航。例如,车辆800可以基于来自传感器单元802-810中的各种LIDAR的数据来调节其速度,或者可以改变车道以避免与汽车812-816接触。
在第二场景下,车辆800可利用传感器单元808和/或806的LIDAR来检测、识别和/或跟踪紧邻车辆800的汽车812。例如,这样的LIDAR可以类似于车辆100的第三LIDAR 130,由于这种LIDAR的定位(例如,在传感器单元808和/或810中),其适合于扫描环境以获得距离车辆800的短距离范围内的物体。相反,例如,如图8所示,传感器单元802中的LIDAR可能不太适于扫描环境以获得汽车812,由于这样的LIDAR定位在车辆800的顶侧。例如,汽车812可以至少部分地包括在类似于图1E中由轮廓160所示的区域的未由顶部安装的LIDAR扫描的环境区域内。
在第三场景下,车辆800可以利用类似于车辆100的LIDAR 120的传感器单元802的第一LIDAR来检测和/或识别位于车辆800的阈值距离(例如,中等距离范围)内的汽车814。在这种场景下,汽车814可能正在将车道改变为与车辆800相同的车道。在这种场景下,车辆800可能需要调节其速度和/或改变车道以保持与汽车814的安全距离。然而,来自第一LIDAR的数据可能具有不足以检测汽车814是否越过车道线834的第一分辨率,或者可能甚至不足以检测/识别车道线834。因此,在这种场景下,车辆800可以调节类似于车辆100的第二LIDAR122的第二LIDAR的观察方向,该第二LIDAR包括在传感器单元802中,并且具有比第一LIDAR的第一分辨率高的第二分辨率。反过来,车辆800可以解决车道线834和/或汽车814是否越过车道线。可替代地,例如,车辆800可以利用第二LIDAR的更高分辨率来检测汽车814的左光信号,以确定车辆814正在改变车道等。
在第四场景下,汽车816可能不规则地运行或相对于车辆800以高速移动等。在这种场景下,车辆800可以使用方法700跟踪汽车816,并且可以相应地导航(例如,改变车道,调节速度等),以避免与汽车816接触。
在第五场景下,车辆800可以使用类似于车辆100的第一LIDAR 120的中等范围LIDAR来检测道路标志818。反过来,车辆800可以调节类似于车辆100的第二LIDAR 122的较高分辨率LIDAR和/或更长范围LIDAR的观察方向,以分析道路标志818以获取信息。例如,第二LIDAR的较高分辨率可以允许由于道路标志818中的特征的反射率的差异来解析信息。在该场景的一种情况下,道路标志可以指示前方的危险或闭合的车道,并且车辆800可以相应地调节其速度或改变车道。在场景的另一种情况下,道路标志可以指示前面的交通延迟,并且车辆800然后可以指示车辆800的导航系统来确定替代路线。场景的其他变化也是可能的。
在第六场景下,车辆可以利用方法500和/或600来扫描环境以获得路边物体,例如树820,建筑物822,街道标志824,行人826,狗828,汽车830和/或车道832。通过利用与本公开(例如,分辨率,范围等)一致的传感器单元802-810中的各种LIDAR的各种性质,场景中的车辆800可以将物体820,822和824识别为无生命物体,并且因此可允许车辆800将车道改变为与无生命物体相邻的车道。
作为上述场景的变型,当物体是诸如行人826或狗828的生命物体,车辆800可以在预期生命物体移动的情况下避开右车道。此外,该场景中的车辆800可以根据方法500-700调节高分辨率LIDAR(例如,第二LIDAR 122等)的观察方向和/或从传感器单元808的LIDAR获得数据以识别和/或跟踪这样的生命物体。
在上述场景的一些变型中,即使当物体无生命时,车辆800也可以避开右车道。在一个示例中,车辆800可以确定街道标志824是公交车站牌,并且因此可以避免右车道以允许公交车的空间。在另一示例中,车辆800可以确定汽车830正在移动离开车道832,并且因此可以相应地导航以允许汽车830的空间。
在第七场景下,车辆800可利用来自传感器单元802-810中的LIDAR的数据来确定车辆800的状态。在这种场景下,例如,车辆800的门,引擎盖或保险杠可以是打开的或开启的。在这种场景下,来自传感器单元802-810中的LIDAR的数据可以指示车辆800的这种部件是打开的或是开启的。例如,传感器单元808中的LIDAR可以被配置为具有270度的FOV。在这种情况下,LIDAR可能不扫描车辆800的诸如引擎盖的部件。因此,在车辆800的引擎盖出现在传感器单元808的LIDAR的环境扫描中的情况下,车辆800可以确定安装传感器单元808的右侧门可以是打开的或者是开启的。
其他场景也是可以的。因此,根据本文的示例性实施例,本方法和系统可以通过利用具有与本文示例性实施例一致的车辆周围的特征和位置的多个LIDAR来促进诸如车辆800的车辆的自主操作和/或事故避免。
图9是根据示例性实施例的车辆900的简化框图。车辆900可以类似于车辆100和/或800,并且可以包括类似于LIDAR 200,300和/或400的多个LIDAR。此外,车辆900可以被配置为执行本文的功能和方法,例如方法500,600和/或700。如图所示,车辆900包括推进系统902,传感器系统904,控制系统906,外围设备908和计算机系统910。在其他实施例中,车辆900可以包括更多,更少或不同的系统,并且每个系统可以包括更多,更少或不同的部件。另外,所示的系统和部件可以以任何数量的方式组合或划分。
推进系统902可以被配置为为车辆900提供动力运动。如图所示,推进系统902包括发动机/电机918,能量源920,变速器922和轮/轮胎924。
发动机/电机918可以是或包括内燃机,电动机,蒸汽发动机和斯特林发动机的任何组合。其他电机和发动机也是可能的。在一些实施例中,推进系统902可以包括多种类型的发动机和/或电机。例如,气电混合动力车可以包括汽油发动机和电动机。其他的例子是可以的。
能量源920可以是对发动机/电机918全部或部分提供动力的能量源。也就是说,发动机/电机918可以被配置为将能量源920转换成机械能。能量源920的示例包括汽油,柴油,丙烷,其它压缩气体燃料,乙醇,太阳能电池板,电池和其它电力来源。能量源920可以附加地或替代地包括燃料箱,电池,电容器和/或飞轮的任何组合。在一些实施例中,能量源920也可为车辆900的其它系统提供能量。
变速器922可以被配置为将机械动力从发动机/电机918传递到轮/轮胎924。为此,变速器922可以包括齿轮箱,离合器,差速器,驱动轴和/或其他元件。在变速器922包括驱动轴的实施例中,驱动轴可以包括被配置为联接到轮/轮胎924的一个或多个轴。
车辆900的轮/轮胎924可以以各种形式配置,包括独轮车,自行车/摩托车,三轮车或者汽车/卡车四轮格式。其他轮/轮胎格式也是可能的,例如包括六个或更多个车轮的那些。在任何情况下,轮/轮胎924可以被配置为相对于其他轮/轮胎924差异地旋转。在一些实施例中,轮/轮胎924可以包括固定地附接到变速器922的至少一个轮和可以与驱动表面接触的联接到轮的轮缘的至少一个轮胎。轮/轮胎924可以包括金属和橡胶的任何组合,或其他材料的组合。推进系统902可以附加地或可替代地包括除了所示的部件之外的部件。
传感器系统904可以包括多个传感器以及一个或多个致动器936,多个传感器被配置为感测关于车辆900所在的环境的信息,一个或多个致动器936被配置为修改传感器的位置和/或取向。如图所示,传感器系统904的传感器包括全球定位系统(GPS)926,惯性测量单元(IMU)928,RADAR单元930,激光测距仪和/或LIDAR单元932以及照相机934。传感器系统904还可以包括附加的传感器,包括例如监视车辆900的内部系统的传感器(例如,O2监视器,燃油表,发动机机油温度等)。此外,传感器系统904可以包括多个LIDAR。在一些示例中,传感器系统904可以被实施为多个传感器单元,每个传感器单元各自以相应位置安装到车辆(例如,顶侧,底侧,前侧,后侧,右侧,左侧等)。其他传感器也是可能的。
GPS 926可以是被配置为估计车辆900的地理位置的任何传感器(例如,位置传感器)。为此,GPS 926可以包括被配置为估计车辆900相对于地球的位置的收发机。GPS 926也可以采取其他形式。
IMU 928可以是被配置为基于惯性加速度感测车辆900的位置和方位变化的传感器的任何组合。在一些实施例中,传感器的组合可以包括例如加速度计和陀螺仪。其他传感器的组合也是可能的。
RADAR单元930可以是被配置为使用无线电信号来感测车辆900所位于的环境中的物体的任何传感器。在一些实施例中,除了感测物体之外,RADAR单元930还可以被配置为感测物体的速度和/或朝向。
类似地,激光测距仪或LIDAR单元932可以是被配置为使用激光来感测车辆900所在的环境中的物体的任何传感器。具体地,激光测距仪或LIDAR单元932可以包括被配置为发射激光的激光源和/或激光扫描器以及被配置为检测激光的反射的检测器。激光测距仪或LIDAR 932可以被配置为以相干(例如,使用外差检测)或非相干检测模式进行操作。在一些示例中,LIDAR单元932可以包括多个LIDAR,每个LIDAR具有适于扫描车辆900周围环境的特定区域的独特位置和/或配置。
相机934可以是被配置为捕获车辆900所在的环境的图像的任何相机(例如,静止照相机,摄像机等)。为此,相机可以采取上述任何形式。传感器系统904可以附加地或可替代地包括除了所示的部件之外的部件。
控制系统906可以被配置为控制车辆900及其部件的操作。为此,控制系统906可以包括转向单元938,节气门940,制动单元942,传感器融合算法944,计算机视觉系统946,导航或路径系统948以及障碍物避免系统950。
转向单元938可以是被配置为调节车辆900的取向的机构的任何组合。节气门940可以是被配置为控制发动机/电机918的操作速度并且进而控制车辆900的速度的机构的任何组合。制动单元942可以是被配置为使车辆900减速的机构的任何组合。例如,制动单元942可以使用摩擦来减慢轮/轮胎924。作为另一示例,制动单元942可将轮/轮胎924的动能转换成电流。制动单元942也可以采取其他形式。
传感器融合算法944可以是被配置为接收来自传感器系统904的数据作为输入的算法(或存储算法的计算机程序产品)。数据可以包括例如表示在传感器系统904的传感器处感测的信息的数据。传感器融合算法944可以包括例如卡尔曼滤波器,贝叶斯网络,用于本文中的方法的一些功能的算法,或任何其他算法。传感器融合算法944还可以被配置为基于来自传感器系统904的数据提供各种评估,包括例如车辆100所在的环境中的各个物体和/或特征的评估,特定情况的评估和/或基于特定情况对可能的影响的评估。其他评估也是可行的。
计算机视觉系统946可以是被配置为处理和分析由相机934捕获的图像的任何系统,以便识别车辆900所在的环境中的物体和/或特征,包括例如交通信号灯和障碍物。为此,计算机视觉系统946可以使用物体识别算法,来自运动的结构(SFM)算法,视频跟踪或其他计算机视觉技术。在一些实施例中,计算机视觉系统946还可以被配置为映射环境,跟踪物体,估计物体的速度等。
导航和路径系统948可以是被配置为确定车辆900的驾驶路径的任何系统。导航和路径系统948还可被配置为在车辆900运行时动态地更新驱动路径。在一些实施例中,导航和路径系统948可以被配置为包括来自传感器融合算法944,GPS 926,LIDAR单元932和一个或多个预定地图的数据,以便确定车辆900的驾驶路径。
障碍避免系统950可以是被配置为在车辆900所在的环境中识别、评估和避免或以其他方式协商障碍物的任何系统。控制系统906可以附加地或可替代地包括除了所示的部件之外的部件。
外围设备908可以被配置为允许车辆900与外部传感器、其他车辆、外部计算设备和/或用户交互。为此,外围设备908可以包括例如无线通信系统952,触摸屏954,麦克风956和/或扬声器958。
无线通信系统952可以是被配置为直接或经由通信网络无线地耦合到一个或多个其他车辆,传感器或其他实体的任何系统。为此,无线通信系统952可以包括用于直接或经由通信网络与其他车辆,传感器,服务器或其他实体进行通信的天线和芯片组。芯片组或无线通信系统952通常可以被布置为根据一种或多种类型的无线通信(例如,协议)进行通信,例如蓝牙,IEEE 802.11(包括任何IEEE 802.11修订版)中描述的通信协议,蜂窝技术(例如,GSM,CDMA,UMTS,EV-DO,WiMAX或LTE),Zigbee,专用短距离通信(DSRC)和射频识别(RFID)通信等。无线通信系统952也可以采取其他形式。
触摸屏954可以由用户使用来向车辆900输入命令。为此,触摸屏954可以被配置为经由电容感测、电阻感测或表面声波处理等感测用户手指的位置和移动中的至少一个。触摸屏954可以能够感测在平行于或共面于触摸屏表面、法向于触摸屏表面或两者的方向上的手指移动,并且还能够感测施加到触摸屏表面的压力水平。触摸屏954可以由一个或多个半透明或透明绝缘层和一个或多个半透明或透明导电层形成。触摸屏954也可以采取其他形式。
麦克风956可以被配置为从车辆900的用户接收音频(例如,语音命令或其他音频输入)。类似地,扬声器958可以被配置为向车辆900的用户输出音频。外围设备908可以附加地或可替代地包括除了所示外的部件。
计算机系统910可以被配置为向推进系统902,传感器系统904,控制系统906和外围设备908中的一个或多个传送数据,接收、交互和/或控制数据。为此,计算机系统910可以通过系统总线,网络和/或其他连接机制(未示出)通信地链接到推进系统902,传感器系统904,控制系统906和外围设备908中的一个或多个。
在一个示例中,计算机系统910可以被配置为控制变速器922的操作以提高燃料效率。作为另一示例,计算机系统910可以被配置为使相机934捕获环境的图像。作为又一示例,计算机系统910可以被配置为存储和执行与传感器融合算法944相对应的指令。作为还一示例,计算机系统910可以被配置为存储和执行使用LIDAR单元932来确定车辆900周围的环境的3D表示的指令。其他的例子也是可以的。
如图所示,计算机系统910包括处理器912和数据存储器914。处理器912可以包括一个或多个通用处理器和/或一个或多个专用处理器。在处理器912包括多于一个处理器的程度上,这样的处理器可以单独地或组合地工作。数据存储器914又可以包括一个或多个易失性和/或一个或多个非易失性存储组件,例如光学,磁性和/或有机存储器,并且数据存储器914可以整体地或部分地与处理器912集成。
在一些实施例中,数据存储器914可以包含由处理器912执行以执行各种车辆功能(例如,方法500-700等)的指令916(例如,程序逻辑)。数据存储器914还可以包含附加的指令,包括向推进系统902,传感器系统904,控制系统906和外围设备908中的一个或多个传送数据,接收、交互和/或控制数据的指令。计算机系统910可以附加地或可替代地包括除了所示的部件之外的部件。
如图所示,车辆900还包括电源960,其可以被配置为向车辆900的部分或全部部件提供动力。为此,电源960可以包括例如可再充电的锂离子或铅酸电池。在一些实施例中,一个或多个电池组可以被配置为提供电力。其他电源材料和配置也是可能的。在一些实施例中,电源960和能量源920可以一起实现为一个组件,如在一些全电动汽车中。
在一些实施例中,车辆900可以包括除了所示的或代替所示的元件之外的一个或多个元件。例如,车辆900可以包括一个或多个附加接口和/或电源。其他附加组件也是可能的。在这样的实施例中,数据存储器914还可以包括可由处理器912执行以控制附加组件和/或与附加组件通信的指令。
另外,尽管示出了组件和系统中的每一个集成在车辆900中,但是在一些实施例中,一个或多个组件或系统可以使用有线或无线连接可移除地安装在车辆900上或以其他方式连接(机械或电气)到车辆900。车辆900也可以采取其他形式。
图10描绘了根据示例实施例配置的计算机可读介质。在示例实施例中,示例系统可以包括一个或多个处理器,存储器的一种或多种形式,一个或多个输入设备/接口,一个或多个输出设备/接口以及当由一个或多个处理器执行时使系统执行上述各种功能任务,功能等的机器可读指令。
如上所述,在一些实施例中,所公开的技术(例如,方法500,600,700等)可以由以机器可读格式编码在计算机可读存储介质上或其他介质或制造品上的计算机程序指令(例如,车辆900的指令916等)。图10是示出了根据本文公开的至少一些实施例布置的示例性计算机程序产品的概念性部分视图的示意图,其包括用于在计算装置上执行计算机进程的计算机程序。
在一个实施例中,使用信号承载介质1002提供示例性计算机程序产品1000。信号承载介质1002可以包括一个或多个编程指令1004,当由一个或多个处理器执行时可以提供上面关于图1-9描述的功能或部分功能。在一些示例中,信号承载介质1002可以是非暂时的计算机可读介质1006,例如但不限于硬盘驱动器,压缩盘(CD),数字视频盘(DVD),数字磁带,存储器等。在一些实施方式中,信号承载介质1002可以是计算机可记录介质1008,例如但不限于存储器,读/写(R/W)CD,R/W DVD等。在一些实施方式中,信号承载介质1002可以是通信介质1010(例如,光纤电缆,波导,有线通信链路等)。因此,例如,信号承载介质1002可以由通信介质1010的无线形式传送。
一个或多个编程指令1004可以是例如计算机可执行和/或逻辑实现的指令。在一些示例中,计算装置可以被配置为响应于由计算机可读介质1006,计算机可记录介质1008和/或通信介质1010中的一个或多个传送到计算装置的编程指令1004来提供各种操作,功能或动作。
计算机可读介质1006还可以分布在可以彼此远程定位的多个数据存储元件之间。执行部分或全部存储的指令的计算装置可以是外部计算机或移动计算平台,例如智能电话,平板装置,个人计算机,可穿戴装置等。可替代地,执行部分或全部存储指令的计算装置可以是远程定位的计算机系统,如服务器。
应当理解,这里描述的布置仅为了示例的目的。因此,本领域技术人员将理解,可以替代地使用其他布置和其他元件(例如机器,接口,功能,命令和功能分组等),并且可以根据期望的结果将一些元件完全省略。此外,所描述的许多元件是可以以任何合适的组合和位置或被描述为独立结构的其他结构元件组合的功能实体,其可以被实现为离散或分布式组件或与其它组件结合使用。
虽然本文已经公开了各种方面和实施例,但是其他方面和实施例对于本领域技术人员将是显而易见的。本文公开的各个方面和实施例是为了说明的目的,而不是限制性的,其真实范围由所附权利要求以及这些权利要求所赋予的等同物的全部范围所指示。还应当理解,本文使用的术语仅用于描述特定实施例的目的,并不旨在限制。
Claims (20)
1.一种车辆,包括:
一个或多个车轮,其定位在车辆的底侧;
第一光检测和测距装置(LIDAR),其定位在车辆的与底侧相对的顶侧,其中,所述第一LIDAR被配置为基于所述第一LIDAR围绕轴线的旋转来扫描所述车辆周围的环境,并且其中,所述第一LIDAR具有第一分辨率;
第二LIDAR,其被配置为扫描沿着第二LIDAR的观察方向远离所述车辆延伸的环境的视场(FOV),其中,所述第二LIDAR具有第二分辨率;以及
控制器,其被配置为基于所述第一LIDAR和所述第二LIDAR对所述环境的扫描来操作所述车辆。
2.根据权利要求1所述的车辆,其中,所述第二LIDAR定位成在所述车辆的顶侧与所述第一LIDAR相邻。
3.根据权利要求1所述的车辆,还包括滤光器,其成形为包围所述第一LIDAR和所述第二LIDAR,其中,所述滤光器被配置为允许一波长范围内的光传播通过所述滤光器,其中,所述第一LIDAR被配置为发射具有在所述波长范围内的第一波长的光,并且其中,所述第二LIDAR被配置为发射具有在所述波长范围内的第二波长的光。
4.根据权利要求3所述的车辆,其中,所述滤光器被配置为减少传播通过所述滤光器的可见光的量。
5.根据权利要求1所述的车辆,其中,所述控制器被配置为基于从所述第一LIDAR接收到的数据来调节所述第二LIDAR的观察方向。
6.根据权利要求1所述的车辆,其中,所述控制器被配置为:
基于来自具有所述第一分辨率的第一LIDAR的数据来确定所述环境的三维(3D)表示;
识别所述3D表示的用于由所述第二LIDAR扫描的一部分;
调节所述第二LIDAR的观察方向以对应于与所述3D表示的所识别的部分相关联的环境的特定FOV;以及
基于来自所述第二LIDAR的给定数据来更新所述3D表示的所述部分以具有所述第二LIDAR的第二分辨率。
7.根据权利要求1所述的车辆,还包括第三LIDAR,其沿着所述车辆的除了所述顶侧之外的给定侧定位,其中,所述第三LIDAR被配置为扫描远离所述给定侧延伸的环境的FOV,其中,所述第三LIDAR具有第三分辨率,并且其中,所述控制器被配置为基于由所述第三LIDAR对所述环境的扫描来操作所述车辆。
8.根据权利要求7所述的车辆,还包括后视镜,其中,所述第三LIDAR安装到所述后视镜。
9.根据权利要求7所述的车辆,其中,所述控制器被配置为:
基于来自所述第一LIDAR的数据来检测所述环境中的物体;以及
基于来自具有所述第三分辨率的第三LIDAR的给定数据来识别所述物体。
10.根据权利要求9所述的车辆,其中,所述控制器被配置为:
基于来自所述第一LIDAR的数据,确定所述物体和所述车辆之间的给定距离小于阈值距离;以及
从所述第三LIDAR响应地获得给定数据以识别所述物体。
11.一种方法,包括:
基于定位在车辆的顶侧并且被配置为围绕轴线旋转的第一光检测和测距装置(LIDAR),通过所述车辆扫描所述车辆周围的环境,其中,所述车辆的一个或多个车轮定位在所述车辆的与所述顶侧相对的底侧,并且其中,所述第一LIDAR具有第一分辨率;
基于第二LIDAR,扫描沿着第二LIDAR的观察方向远离所述车辆延伸的环境的视场(FOV),其中,所述第二LIDAR具有第二分辨率;以及
基于所述第一LIDAR和所述第二LIDAR对环境的扫描,通过所述车辆进行操作。
12.根据权利要求11所述的方法,还包括基于沿着所述车辆的除了所述顶侧之外的给定侧定位的第三LIDAR,扫描远离所述给定侧延伸的环境的FOV,其中,所述第三LIDAR具有第三分辨率,并且其中,操作所述车辆还基于由所述第三LIDAR对环境的扫描。
13.根据权利要求12所述的方法,还包括:
基于来自所述第一LIDAR的第一数据、来自所述第二LIDAR的第二数据或来自所述第三LIDAR的第三数据,确定所述车辆与所述车辆的环境中的物体之间的给定距离;
基于所述给定距离大于第一阈值距离并且小于第二阈值距离,基于来自所述第一LIDAR的第一数据来跟踪所述物体,其中,所述第一阈值距离基于定位在所述车辆的顶侧的所述第一LIDAR,并且其中,所述第二阈值距离基于所述第一LIDAR的第一分辨率;
基于所述给定距离大于所述第二阈值距离,基于来自具有所述第二分辨率的所述第二LIDAR的第二数据来跟踪所述物体;以及
基于所述给定距离小于所述第一阈值距离,基于来自定位在所述车辆的给定侧的第三LIDAR的第三数据来跟踪所述物体。
14.根据权利要求11所述的车辆,还包括基于来自所述第一LIDAR的数据来调节所述第二LIDAR的观察方向。
15.根据权利要求11所述的方法,还包括:
基于来自所述第一LIDAR的第一数据来确定环境的三维(3D)表示,其中,所述3D表示具有所述第一LIDAR的第一分辨率;
基于所述3D表示来检测所述环境中的一个或多个物体;
调节所述第二LIDAR的观察方向以对应于所述环境的包括所述一个或多个物体的特定FOV;以及
响应于调节所述观察方向,基于来自所述第二LIDAR的第二数据来确定所述一个或多个物体的给定3D表示,其中,所述给定3D表示具有所述第二LIDAR的第二分辨率。
16.根据权利要求15所述的方法,还包括基于具有所述第二分辨率的给定3D表示来识别所述一个或多个物体,其中,操作所述车辆基于识别所述一个或多个物体。
17.根据权利要求11所述的方法,还包括:
基于来自所述第一LIDAR的第一数据来检测在距离所述车辆的一阈值距离内的环境中的第一物体,其中,所述阈值距离基于所述第一LIDAR的第一分辨率;以及
基于来自所述第二LIDAR的第二数据来检测在距离所述车辆大于所述阈值距离的一给定距离处的环境中的第二物体,其中,检测给定距离处的第二物体基于所述第二LIDAR的第二分辨率。
18.一种车辆,包括:
四个车轮,其定位在车辆的底侧;
圆顶形壳体,其定位在所述车辆的与所述底侧相对的顶侧;
第一光检测和测距装置(LIDAR),其设置在所述圆顶形壳体内,其中,所述第一LIDAR被配置为基于所述第一LIDAR围绕轴线的旋转来扫描所述车辆周围的环境,并且其中,所述第一LIDAR具有第一分辨率;
第二LIDAR,其设置在所述圆顶形壳体内、并且定位在所述第一LIDAR和所述车辆的顶侧之间,其中,所述第二LIDAR被配置为扫描沿着所述第二LIDAR的观察方向远离所述车辆延伸的环境的视场(FOV),并且其中,所述第二LIDAR具有高于所述第一分辨率的第二分辨率;以及
控制器,其被配置为基于所述第一LIDAR和所述第二LIDAR对所述环境的扫描来操作所述车辆。
19.根据权利要求18所述的车辆,还包括步进电机,其联接到所述第二LIDAR、并且被配置为调节由所述第二LIDAR扫描的环境的FOV。
20.根据权利要求18所述的车辆,其中,所述圆顶形壳体包括:
滤光器,其成形为包围所述第一LIDAR和所述第二LIDAR,其中,所述滤光器被配置为允许一波长范围内的光传播通过所述滤光器,其中,所述第一LIDAR被配置为发射具有在所述波长范围内的第一波长的光,并且其中,所述第二LIDAR被配置为发射具有在所述波长范围内的第二波长的光;以及
分隔结构,其设置在所述圆顶形壳体内、并且定位在所述第一LIDAR和所述第二LIDAR之间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910634911.2A CN110346815B (zh) | 2015-03-25 | 2016-02-24 | 具有多个光检测和测距装置(lidar)的车辆 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/668,452 US9625582B2 (en) | 2015-03-25 | 2015-03-25 | Vehicle with multiple light detection and ranging devices (LIDARs) |
US14/668,452 | 2015-03-25 | ||
PCT/US2016/019229 WO2016153687A1 (en) | 2015-03-25 | 2016-02-24 | Vehicle with multiple light detection and ranging devices (lidars) |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910634911.2A Division CN110346815B (zh) | 2015-03-25 | 2016-02-24 | 具有多个光检测和测距装置(lidar)的车辆 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107430195A true CN107430195A (zh) | 2017-12-01 |
CN107430195B CN107430195B (zh) | 2019-08-09 |
Family
ID=56976702
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680017854.8A Active CN107430195B (zh) | 2015-03-25 | 2016-02-24 | 具有多个光检测和测距装置(lidar)的车辆 |
CN201910634911.2A Active CN110346815B (zh) | 2015-03-25 | 2016-02-24 | 具有多个光检测和测距装置(lidar)的车辆 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910634911.2A Active CN110346815B (zh) | 2015-03-25 | 2016-02-24 | 具有多个光检测和测距装置(lidar)的车辆 |
Country Status (12)
Country | Link |
---|---|
US (8) | US9625582B2 (zh) |
EP (1) | EP3274738A4 (zh) |
JP (5) | JP6387470B2 (zh) |
KR (2) | KR102179292B1 (zh) |
CN (2) | CN107430195B (zh) |
AU (5) | AU2016236026B2 (zh) |
CA (4) | CA3008411C (zh) |
HK (1) | HK1246858A1 (zh) |
IL (3) | IL253808B (zh) |
MX (2) | MX2017012279A (zh) |
SG (4) | SG10201806612YA (zh) |
WO (1) | WO2016153687A1 (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109213165A (zh) * | 2018-09-10 | 2019-01-15 | 成都英鑫光电科技有限公司 | 自动驾驶测距系统及自动驾驶系统 |
CN110914707A (zh) * | 2017-04-25 | 2020-03-24 | 图森有限公司 | 基于相机和lidar数据的车辆位置和速度估计的系统和方法 |
CN111527745A (zh) * | 2017-12-29 | 2020-08-11 | 伟摩有限责任公司 | 高速图像读出和处理 |
WO2020178701A1 (en) * | 2019-03-01 | 2020-09-10 | Beijing Voyager Technology Co., Ltd. | System and methods for ranging operations using modulated signals |
CN112955776A (zh) * | 2018-07-19 | 2021-06-11 | 卢米诺有限责任公司 | 用于在激光雷达系统中进行地面检测的可调整脉冲特性 |
CN112987028A (zh) * | 2019-12-12 | 2021-06-18 | 通用汽车环球科技运作有限责任公司 | 激光雷达视觉系统 |
US11061122B2 (en) | 2018-06-25 | 2021-07-13 | Beijing Didi Infinity Technology And Development Co., Ltd. | High-definition map acquisition system |
CN113287031A (zh) * | 2018-11-02 | 2021-08-20 | 伟摩有限责任公司 | 车辆的多个旋转传感器的同步 |
CN113415270A (zh) * | 2020-03-03 | 2021-09-21 | 伟摩有限责任公司 | 基于多传感器数据的传感器感兴趣区域选择 |
CN113574411A (zh) * | 2019-03-14 | 2021-10-29 | 伟摩有限责任公司 | 用于检测传感器外壳上的障碍物的方法和系统 |
CN114144651A (zh) * | 2019-07-22 | 2022-03-04 | 株式会社普利司通 | 控制方法、控制装置、控制系统和轮胎试验方法 |
CN114144650A (zh) * | 2019-07-22 | 2022-03-04 | 株式会社普利司通 | 控制方法、控制装置、控制系统和轮胎试验方法 |
WO2022233049A1 (zh) * | 2021-05-07 | 2022-11-10 | 深圳市大疆创新科技有限公司 | 控制方法、装置、计算机可读存储介质 |
CN115698766A (zh) * | 2020-06-19 | 2023-02-03 | 欧若拉运营公司 | Lidar系统 |
Families Citing this family (254)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USRE46672E1 (en) | 2006-07-13 | 2018-01-16 | Velodyne Lidar, Inc. | High definition LiDAR system |
US10739460B2 (en) | 2010-08-11 | 2020-08-11 | Apple Inc. | Time-of-flight detector with single-axis scan |
US12025807B2 (en) | 2010-10-04 | 2024-07-02 | Gerard Dirk Smits | System and method for 3-D projection and enhancements for interactivity |
US10412368B2 (en) | 2013-03-15 | 2019-09-10 | Uber Technologies, Inc. | Methods, systems, and apparatus for multi-sensory stereo vision for robotics |
DE102014003221A1 (de) * | 2014-03-05 | 2015-09-10 | Audi Ag | Verfahren zur maßstabskorrekten Skalierung einer Aufnahme eines Kamerasensors |
USD731383S1 (en) | 2014-05-23 | 2015-06-09 | Google Inc. | Vehicle door |
WO2016025502A1 (en) | 2014-08-11 | 2016-02-18 | Gerard Dirk Smits | Three-dimensional triangulation and time-of-flight based tracking systems and methods |
US11688014B1 (en) | 2014-10-02 | 2023-06-27 | United Services Automobile Association (Usaa) | Systems and methods for unmanned vehicle management |
US10102590B1 (en) | 2014-10-02 | 2018-10-16 | United Services Automobile Association (Usaa) | Systems and methods for unmanned vehicle management |
US10365646B1 (en) | 2015-01-27 | 2019-07-30 | United Services Automobile Association (Usaa) | Systems and methods for unmanned vehicle management |
US11532050B1 (en) | 2015-01-27 | 2022-12-20 | United Services Automobile Association (Usaa) | Unmanned vehicle service delivery |
US9625582B2 (en) * | 2015-03-25 | 2017-04-18 | Google Inc. | Vehicle with multiple light detection and ranging devices (LIDARs) |
US9939810B1 (en) * | 2015-04-17 | 2018-04-10 | United Services Automobile Association | Indoor drone flight awareness system |
JP6235528B2 (ja) * | 2015-05-15 | 2017-11-22 | トヨタ自動車株式会社 | 車両制御装置 |
DE102015213694A1 (de) * | 2015-07-21 | 2017-01-26 | Robert Bosch Gmbh | Sensorsystem zum Erkennen überstehender oder freiliegender Objekte in der Umgebung eines Fahrzeugs |
US10061020B2 (en) * | 2015-09-20 | 2018-08-28 | Qualcomm Incorporated | Light detection and ranging (LIDAR) system with dual beam steering |
US10140870B1 (en) | 2015-09-30 | 2018-11-27 | Waymo Llc | Occupant facing vehicle display |
US10613186B2 (en) * | 2015-11-30 | 2020-04-07 | Signify Holding B.V. | Distinguishing devices having positions and directions |
US9603158B1 (en) | 2015-12-08 | 2017-03-21 | Uber Technologies, Inc. | Optimizing communication for automated vehicles |
US10036642B2 (en) * | 2015-12-08 | 2018-07-31 | Uber Technologies, Inc. | Automated vehicle communications system |
US10050760B2 (en) | 2015-12-08 | 2018-08-14 | Uber Technologies, Inc. | Backend communications system for a fleet of autonomous vehicles |
US9432929B1 (en) | 2015-12-08 | 2016-08-30 | Uber Technologies, Inc. | Communication configuration system for a fleet of automated vehicles |
US10243604B2 (en) | 2015-12-08 | 2019-03-26 | Uber Technologies, Inc. | Autonomous vehicle mesh networking configuration |
US10338225B2 (en) | 2015-12-15 | 2019-07-02 | Uber Technologies, Inc. | Dynamic LIDAR sensor controller |
JP6854828B2 (ja) | 2015-12-18 | 2021-04-07 | ジェラルド ディルク スミッツ | 物体のリアルタイム位置検知 |
US10169856B1 (en) | 2016-01-27 | 2019-01-01 | United Services Automobile Association (Usaa) | Laser-assisted image processing |
US10354386B1 (en) | 2016-01-27 | 2019-07-16 | United Services Automobile Association (Usaa) | Remote sensing of structure damage |
US10627490B2 (en) | 2016-01-31 | 2020-04-21 | Velodyne Lidar, Inc. | Multiple pulse, LIDAR based 3-D imaging |
EP3203259A1 (en) * | 2016-02-03 | 2017-08-09 | Konica Minolta, Inc. | Optical scanning type object detection device |
US9902311B2 (en) | 2016-02-22 | 2018-02-27 | Uber Technologies, Inc. | Lighting device for a vehicle |
US9969326B2 (en) | 2016-02-22 | 2018-05-15 | Uber Technologies, Inc. | Intention signaling for an autonomous vehicle |
US10281923B2 (en) | 2016-03-03 | 2019-05-07 | Uber Technologies, Inc. | Planar-beam, light detection and ranging system |
CA3017735C (en) | 2016-03-19 | 2023-03-14 | Velodyne Lidar, Inc. | Integrated illumination and detection for lidar based 3-d imaging |
US10761195B2 (en) * | 2016-04-22 | 2020-09-01 | OPSYS Tech Ltd. | Multi-wavelength LIDAR system |
US10343620B2 (en) * | 2016-04-22 | 2019-07-09 | Uber Technologies, Inc. | External sensor assembly for vehicles |
USD851508S1 (en) | 2016-05-03 | 2019-06-18 | Uber Technologies, Inc. | External sensor assembly for a vehicle |
US10838046B2 (en) * | 2016-05-10 | 2020-11-17 | Suteng Innovation Technology Co., Ltd. | Multiline lidar |
US11237251B2 (en) * | 2016-05-11 | 2022-02-01 | Texas Instruments Incorporated | Lidar scanning with expanded scan angle |
US11106030B2 (en) | 2016-05-11 | 2021-08-31 | Texas Instruments Incorporated | Optical distance measurement system using solid state beam steering |
GB2570791B (en) * | 2016-05-18 | 2021-10-27 | James Okeeffe | A dynamically steered lidar adapted to vehicle shape |
US10578719B2 (en) | 2016-05-18 | 2020-03-03 | James Thomas O'Keeffe | Vehicle-integrated LIDAR system |
WO2018128655A2 (en) | 2016-09-25 | 2018-07-12 | Okeeffe James | Distributed laser range finder with fiber optics and micromirrors |
US11340338B2 (en) | 2016-08-10 | 2022-05-24 | James Thomas O'Keeffe | Distributed lidar with fiber optics and a field of view combiner |
US9952317B2 (en) | 2016-05-27 | 2018-04-24 | Uber Technologies, Inc. | Vehicle sensor calibration system |
CA3024510C (en) | 2016-06-01 | 2022-10-04 | Velodyne Lidar, Inc. | Multiple pixel scanning lidar |
IL246386B (en) * | 2016-06-22 | 2018-03-29 | Tarantula Tech Ltd | A device for identifying dangerous objects located at a certain distance from a surface |
US10634770B2 (en) | 2016-06-29 | 2020-04-28 | Apple Inc. | Optical systems for remote sensing receivers |
US10145941B2 (en) * | 2016-07-26 | 2018-12-04 | Toyota Motor Engineering & Manufacturing North America, Inc. | LIDAR sensor attached to an actuator |
US10471904B2 (en) * | 2016-08-08 | 2019-11-12 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for adjusting the position of sensors of an automated vehicle |
WO2018031830A1 (en) | 2016-08-10 | 2018-02-15 | Okeeffe James | Laser range finding with enhanced utilization of a remotely located mirror |
US10298913B2 (en) * | 2016-08-18 | 2019-05-21 | Apple Inc. | Standalone depth camera |
US10557943B2 (en) | 2016-08-22 | 2020-02-11 | Apple Inc. | Optical systems |
WO2018126248A1 (en) | 2017-01-02 | 2018-07-05 | Okeeffe James | Micromirror array for feedback-based image resolution enhancement |
WO2018044958A1 (en) | 2016-08-29 | 2018-03-08 | Okeeffe James | Laser range finder with smart safety-conscious laser intensity |
US10502574B2 (en) * | 2016-09-20 | 2019-12-10 | Waymo Llc | Devices and methods for a sensor platform of a vehicle |
KR102496509B1 (ko) * | 2016-09-20 | 2023-02-07 | 이노비즈 테크놀로지스 엘티디 | Lidar 시스템 및 방법 |
US10408940B2 (en) | 2016-09-25 | 2019-09-10 | James Thomas O'Keeffe | Remote lidar with coherent fiber optic image bundle |
FR3056524B1 (fr) * | 2016-09-28 | 2018-10-12 | Valeo Systemes D'essuyage | Systeme de detection pour vehicule automobile |
US9787048B1 (en) * | 2016-10-17 | 2017-10-10 | Waymo Llc | Fiber encapsulation mechanism for energy dissipation in a fiber amplifying system |
US10379540B2 (en) * | 2016-10-17 | 2019-08-13 | Waymo Llc | Light detection and ranging (LIDAR) device having multiple receivers |
KR102569539B1 (ko) * | 2016-11-07 | 2023-08-24 | 주식회사 에이치엘클레무브 | 차량용 물체감지시스템 및 차량용 물체감지방법 |
CN108072877A (zh) * | 2016-11-10 | 2018-05-25 | 光宝电子(广州)有限公司 | 光学装置 |
US10845470B2 (en) | 2016-11-16 | 2020-11-24 | Waymo Llc | Methods and systems for protecting a light detection and ranging (LIDAR) device |
US10502618B2 (en) | 2016-12-03 | 2019-12-10 | Waymo Llc | Waveguide diffuser for light detection using an aperture |
US10469758B2 (en) | 2016-12-06 | 2019-11-05 | Microsoft Technology Licensing, Llc | Structured light 3D sensors with variable focal length lenses and illuminators |
US10554881B2 (en) | 2016-12-06 | 2020-02-04 | Microsoft Technology Licensing, Llc | Passive and active stereo vision 3D sensors with variable focal length lenses |
CN110226184B (zh) | 2016-12-27 | 2023-07-14 | 杰拉德·迪尔克·施密茨 | 用于机器感知的系统和方法 |
US10520592B2 (en) | 2016-12-31 | 2019-12-31 | Waymo Llc | Light detection and ranging (LIDAR) device with an off-axis receiver |
US10942257B2 (en) | 2016-12-31 | 2021-03-09 | Innovusion Ireland Limited | 2D scanning high precision LiDAR using combination of rotating concave mirror and beam steering devices |
KR102254079B1 (ko) * | 2017-01-04 | 2021-05-20 | 현대자동차주식회사 | 차량 및 그 제어 방법 |
KR102631850B1 (ko) * | 2017-01-05 | 2024-02-02 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에.베. | Hd 지도의 생성 및 사용 |
SG10201700299QA (en) * | 2017-01-13 | 2018-08-30 | Otsaw Digital Pte Ltd | Three-dimensional mapping of an environment |
DE102017101945A1 (de) * | 2017-02-01 | 2018-08-02 | Osram Opto Semiconductors Gmbh | Messanordnung mit einem optischen Sender und einem optischen Empfänger |
US10293818B2 (en) | 2017-03-07 | 2019-05-21 | Uber Technologies, Inc. | Teleassistance data prioritization for self-driving vehicles |
US10202126B2 (en) | 2017-03-07 | 2019-02-12 | Uber Technologies, Inc. | Teleassistance data encoding for self-driving vehicles |
CN107128255B (zh) * | 2017-03-08 | 2020-10-23 | 北京百度网讯科技有限公司 | 传感器组合装置 |
EP3373037B1 (en) * | 2017-03-10 | 2023-06-28 | The Hi-Tech Robotic Systemz Ltd | Single casing advanced driver assistance system |
US11016178B2 (en) | 2017-03-13 | 2021-05-25 | OPSYS Tech Ltd. | Eye-safe scanning LIDAR system |
US9869754B1 (en) * | 2017-03-22 | 2018-01-16 | Luminar Technologies, Inc. | Scan patterns for lidar systems |
US10479376B2 (en) | 2017-03-23 | 2019-11-19 | Uatc, Llc | Dynamic sensor selection for self-driving vehicles |
CA3057988A1 (en) | 2017-03-31 | 2018-10-04 | Velodyne Lidar, Inc. | Integrated lidar illumination power control |
US20180284246A1 (en) * | 2017-03-31 | 2018-10-04 | Luminar Technologies, Inc. | Using Acoustic Signals to Modify Operation of a Lidar System |
US10338198B2 (en) * | 2017-04-03 | 2019-07-02 | Ford Global Technologies, Llc | Sensor apparatus |
US10488494B2 (en) | 2017-04-03 | 2019-11-26 | Ford Global Technologies, Llc | Sensor apparatus |
EP3593423A4 (en) | 2017-04-12 | 2021-01-20 | Sense Photonics, Inc. | BEAM FORMING FOR ULTRA-SMALL VERTICAL RESONATOR SURFACE-EMITTING LASER (VCSEL) ARRAYS |
US10303961B1 (en) * | 2017-04-13 | 2019-05-28 | Zoox, Inc. | Object detection and passenger notification |
US20200150228A1 (en) * | 2017-04-20 | 2020-05-14 | Analog Devices, Inc. | Method of Providing Interference Reduction and a Dynamic Region of Interest in a LIDAR System |
US20180306905A1 (en) * | 2017-04-20 | 2018-10-25 | Analog Devices, Inc. | Method of Providing a Dynamic Region of interest in a LIDAR System |
WO2018196001A1 (en) | 2017-04-28 | 2018-11-01 | SZ DJI Technology Co., Ltd. | Sensing assembly for autonomous driving |
USD858381S1 (en) | 2017-04-28 | 2019-09-03 | Waymo Llc | Fender sensor housing |
USD834971S1 (en) | 2017-04-28 | 2018-12-04 | Waymo Llc | Front sensor housing |
USD835028S1 (en) * | 2017-04-28 | 2018-12-04 | Waymo Llc | Roof sensor housing |
DE102017207493A1 (de) * | 2017-05-04 | 2018-11-08 | Robert Bosch Gmbh | Senderoptik für ein LiDAR-System, LiDAR-System und Arbeitsvorrichtung |
CN110809704B (zh) | 2017-05-08 | 2022-11-01 | 威力登激光雷达美国有限公司 | Lidar数据获取与控制 |
JP7246322B2 (ja) * | 2017-05-10 | 2023-03-27 | ジェラルド ディルク スミッツ | 走査ミラーシステム及び方法 |
US10564261B2 (en) | 2017-05-11 | 2020-02-18 | Ford Global Technologies, Llc | Autonomous vehicle LIDAR mirror |
KR102657365B1 (ko) * | 2017-05-15 | 2024-04-17 | 아우스터, 인크. | 휘도 향상된 광학 이미징 송신기 |
DE102017208700A1 (de) * | 2017-05-23 | 2018-11-29 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Objekterfassung und LIDAR-System |
EP3637145A4 (en) * | 2017-06-07 | 2021-03-17 | Hesai Photonics Technology Co., Ltd | MULTI-LINE LASER RADAR |
WO2018230024A1 (ja) * | 2017-06-14 | 2018-12-20 | 三菱電機株式会社 | 光走査装置及びその制御方法並びに移動体 |
US10473767B2 (en) | 2017-06-19 | 2019-11-12 | Hesai Photonics Technology Co., Ltd. | Lidar system and method |
US10866313B2 (en) * | 2017-07-07 | 2020-12-15 | Waymo Llc | Vehicle sensor synchronization using an external clock source |
US11300958B2 (en) * | 2017-07-13 | 2022-04-12 | Waymo Llc | Sensor adjustment based on vehicle motion |
US10493622B2 (en) | 2017-07-14 | 2019-12-03 | Uatc, Llc | Systems and methods for communicating future vehicle actions to be performed by an autonomous vehicle |
US9950685B1 (en) * | 2017-07-27 | 2018-04-24 | Feniex Industries, Inc. | 360 degree intrusion detection and warning system |
KR102435970B1 (ko) | 2017-07-28 | 2022-08-25 | 옵시스 테크 엘티디 | 작은 각도 발산을 갖는 vcsel 어레이 lidar 송신기 |
KR102050632B1 (ko) | 2017-08-02 | 2019-12-03 | 주식회사 에스오에스랩 | 다채널 라이다 센서 모듈 |
US10447973B2 (en) | 2017-08-08 | 2019-10-15 | Waymo Llc | Rotating LIDAR with co-aligned imager |
US10746858B2 (en) | 2017-08-17 | 2020-08-18 | Uatc, Llc | Calibration for an autonomous vehicle LIDAR module |
US10775488B2 (en) | 2017-08-17 | 2020-09-15 | Uatc, Llc | Calibration for an autonomous vehicle LIDAR module |
CN111279220A (zh) * | 2017-08-22 | 2020-06-12 | 李平 | 激光雷达用双轴谐振光束转向镜系统及方法 |
JP6689006B2 (ja) | 2017-08-25 | 2020-04-28 | ベイジン・ボイジャー・テクノロジー・カンパニー・リミテッド | 車両の環境情報を検出するための方法およびシステム |
CN111033301A (zh) * | 2017-08-31 | 2020-04-17 | 深圳市大疆创新科技有限公司 | 固态光探测和测距(lidar)系统 |
JP7019894B2 (ja) | 2017-08-31 | 2022-02-16 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | 物体を感知する方法及びセンサシステム |
US10523880B2 (en) | 2017-09-28 | 2019-12-31 | Waymo Llc | Synchronized spinning LIDAR and rolling shutter camera system |
US11194022B2 (en) * | 2017-09-29 | 2021-12-07 | Veoneer Us, Inc. | Detection system with reflection member and offset detection array |
US10612932B2 (en) * | 2017-09-29 | 2020-04-07 | Wipro Limited | Method and system for correcting a pre-generated navigation path for an autonomous vehicle |
WO2019079211A1 (en) * | 2017-10-19 | 2019-04-25 | DeepMap Inc. | LIDAR-CAMERA CALIBRATION TO GENERATE HIGH DEFINITION MAPS |
EP3710855A4 (en) | 2017-11-15 | 2021-08-04 | Opsys Tech Ltd. | NOISE ADAPTIVE SOLID-STATE LIDAR SYSTEM |
US10816666B2 (en) * | 2017-11-21 | 2020-10-27 | Magna Electronics Inc. | Vehicle sensing system with calibration/fusion of point cloud partitions |
US11294041B2 (en) | 2017-12-08 | 2022-04-05 | Velodyne Lidar Usa, Inc. | Systems and methods for improving detection of a return signal in a light ranging and detection system |
WO2019112514A1 (en) * | 2017-12-08 | 2019-06-13 | St Engineering Land Systems Ltd. | Rain filtering techniques for autonomous vehicle |
JP7309743B2 (ja) * | 2017-12-08 | 2023-07-18 | 上海禾賽科技有限公司 | レーザレーダシステム及びその制御方法、走査角度の取得方法、車両 |
US10942244B2 (en) * | 2017-12-12 | 2021-03-09 | Waymo Llc | Systems and methods for LIDARs with adjustable resolution and failsafe operation |
US10514462B2 (en) | 2017-12-13 | 2019-12-24 | Luminar Technologies, Inc. | Training a machine learning based model of a vehicle perception component based on sensor settings |
KR102059244B1 (ko) * | 2017-12-20 | 2019-12-24 | 주식회사 에스오에스랩 | 라이다 장치 |
US11493601B2 (en) | 2017-12-22 | 2022-11-08 | Innovusion, Inc. | High density LIDAR scanning |
US10757320B2 (en) | 2017-12-28 | 2020-08-25 | Waymo Llc | Multiple operating modes to expand dynamic range |
US20190204845A1 (en) * | 2017-12-29 | 2019-07-04 | Waymo Llc | Sensor integration for large autonomous vehicles |
US10569721B2 (en) | 2018-01-04 | 2020-02-25 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous radar roof module |
KR102532239B1 (ko) * | 2018-01-15 | 2023-05-16 | 헤사이 테크놀로지 씨오., 엘티디. | 레이저 레이더 및 그 작업방법 |
US20210061328A1 (en) * | 2018-01-24 | 2021-03-04 | Siemens Mobility, Inc. | System and method for monitoring a railroad grade crossing |
US11385331B2 (en) | 2018-01-29 | 2022-07-12 | The Regents Of The University Of California | Enclosure for light detection and ranging unit and related methods |
US10914820B2 (en) | 2018-01-31 | 2021-02-09 | Uatc, Llc | Sensor assembly for vehicles |
US10771690B2 (en) * | 2018-02-10 | 2020-09-08 | Goodrich Corporation | Distributed aperture systems for obstacle avoidance |
CN110383105A (zh) * | 2018-02-13 | 2019-10-25 | 深圳市大疆创新科技有限公司 | 测距系统、自动化设备及测距方法 |
US11808888B2 (en) | 2018-02-23 | 2023-11-07 | Innovusion, Inc. | Multi-wavelength pulse steering in LiDAR systems |
WO2019165294A1 (en) | 2018-02-23 | 2019-08-29 | Innovusion Ireland Limited | 2-dimensional steering system for lidar systems |
CN110531369B (zh) * | 2018-05-25 | 2021-11-30 | 深圳市速腾聚创科技有限公司 | 一种固态激光雷达 |
JP6789438B2 (ja) * | 2018-03-13 | 2020-11-25 | 三菱電機株式会社 | 光走査装置およびその制御方法 |
USD866368S1 (en) | 2018-03-15 | 2019-11-12 | Waymo Llc | Roof sensor housing |
US10852395B1 (en) * | 2018-03-16 | 2020-12-01 | Apple Inc. | Sensor enclosure and glass panels for sensor enclosures |
JP7324518B2 (ja) | 2018-04-01 | 2023-08-10 | オプシス テック リミテッド | 雑音適応型固体ライダシステム |
US11073603B2 (en) * | 2018-04-03 | 2021-07-27 | GM Global Technology Operations LLC | Controlled scan pattern transition in coherent lidar |
CN112074759A (zh) | 2018-04-28 | 2020-12-11 | 深圳市大疆创新科技有限公司 | 具有多个发射器和多个接收器的光探测和测距传感器以及相关联的系统和方法 |
US11333740B2 (en) | 2018-06-04 | 2022-05-17 | Uatc, Llc | Determining specular reflectivity characteristics using Lidar |
US11181619B2 (en) | 2018-06-14 | 2021-11-23 | Waymo Llc | Camera ring structure for autonomous vehicles |
EP3588142A1 (en) * | 2018-06-25 | 2020-01-01 | IRIS Industries SA | Multi-wavelength lidar |
USD968240S1 (en) * | 2018-06-29 | 2022-11-01 | Mitsubishi Electric Corporation | Mobile mapping device for vehicle |
USD922889S1 (en) * | 2018-06-29 | 2021-06-22 | Zoox, Inc. | Sensor housing |
EP3591436B1 (en) * | 2018-07-03 | 2024-05-08 | Magna Electronics Sweden AB | Lidar system and lidar method for a motor vehicle |
US10943367B1 (en) | 2018-07-11 | 2021-03-09 | Waymo Llc | Calibration of detection system to vehicle using a mirror |
US10598791B2 (en) | 2018-07-31 | 2020-03-24 | Uatc, Llc | Object detection based on Lidar intensity |
US10809364B2 (en) * | 2018-08-06 | 2020-10-20 | Luminar Technologies, Inc. | Determining relative velocity using co-located pixels |
DE102018214209A1 (de) * | 2018-08-22 | 2020-02-27 | Robert Bosch Gmbh | Augensicheres LIDAR-System mit einstellbarem Abtastbereich |
US11971507B2 (en) | 2018-08-24 | 2024-04-30 | Velodyne Lidar Usa, Inc. | Systems and methods for mitigating optical crosstalk in a light ranging and detection system |
USD882426S1 (en) | 2018-09-17 | 2020-04-28 | Waymo Llc | Integrated sensor assembly |
US10712434B2 (en) | 2018-09-18 | 2020-07-14 | Velodyne Lidar, Inc. | Multi-channel LIDAR illumination driver |
USD910469S1 (en) * | 2018-09-18 | 2021-02-16 | Jenoptik Advanced Systems Gmbh | Rangefinder |
US11733072B2 (en) | 2018-10-03 | 2023-08-22 | Pony Ai Inc. | Sensor enclosure drainage |
US10578716B1 (en) * | 2018-10-03 | 2020-03-03 | Pony Ai Inc. | Sensor enclosure drainage |
US11208075B2 (en) * | 2018-10-11 | 2021-12-28 | Pony Ai Inc. | Alternative wiper mechanism to remove rainwater on a sensor enclosure |
WO2020079309A1 (en) | 2018-10-15 | 2020-04-23 | Nokia Solutions And Networks Oy | Obstacle detection |
WO2020082363A1 (zh) * | 2018-10-26 | 2020-04-30 | 深圳市大疆创新科技有限公司 | 一种环境感知系统及移动平台 |
US11536845B2 (en) | 2018-10-31 | 2022-12-27 | Waymo Llc | LIDAR systems with multi-faceted mirrors |
US11460662B2 (en) * | 2018-11-02 | 2022-10-04 | Waymo Llc | Mirror coupling |
US10976420B2 (en) * | 2018-11-02 | 2021-04-13 | Waymo Llc | Methods and systems for detecting sensor occlusions |
US11082010B2 (en) | 2018-11-06 | 2021-08-03 | Velodyne Lidar Usa, Inc. | Systems and methods for TIA base current detection and compensation |
US11506731B2 (en) | 2018-11-27 | 2022-11-22 | Waymo Llc | Motor and rotary transformer with shared magnetic core |
US11105902B2 (en) | 2018-12-07 | 2021-08-31 | Beijing Voyager Technology Co., Ltd. | Mirror assembly for light steering |
US11119195B2 (en) | 2018-12-07 | 2021-09-14 | Beijing Voyager Technology Co., Ltd. | Mirror assembly for light steering |
US10422881B1 (en) | 2018-12-07 | 2019-09-24 | Didi Research America, Llc | Mirror assembly for light steering |
US11181621B2 (en) | 2018-12-07 | 2021-11-23 | Beijing Voyager Technology Co., Ltd. | Mirror assembly for light steering |
US11222556B2 (en) * | 2018-12-13 | 2022-01-11 | Waymo Llc | Visual communication system |
US11313952B2 (en) | 2018-12-17 | 2022-04-26 | Waymo Llc | Sensor housing with particle blocking feature |
US11460578B2 (en) * | 2018-12-28 | 2022-10-04 | Robert Bosch Gmbh | 3D lidar sensing unit with oscillating axis of rotation for autonomous driving |
FR3091525B1 (fr) * | 2019-01-04 | 2021-01-29 | Balyo | Équipement de manutention autoguidé comportant un moyen de détection |
US11885958B2 (en) | 2019-01-07 | 2024-01-30 | Velodyne Lidar Usa, Inc. | Systems and methods for a dual axis resonant scanning mirror |
US20200217954A1 (en) * | 2019-01-07 | 2020-07-09 | Velodyne Lidar, Inc. | Systems and methods for a configurable sensor system |
JP7122980B2 (ja) * | 2019-01-23 | 2022-08-22 | 株式会社小松製作所 | 作業機械のシステム及び方法 |
US11521489B2 (en) * | 2019-02-11 | 2022-12-06 | Tusimple, Inc. | Vehicle-based rotating camera methods and systems |
WO2020168313A1 (en) * | 2019-02-15 | 2020-08-20 | Arizona Board Of Regents On Behalf Of The University Of Arizona | Mobile 3d imaging system and method |
CN113423620A (zh) * | 2019-02-18 | 2021-09-21 | 株式会社小糸制作所 | 污垢检测系统、LiDAR单元、车辆用传感系统及车辆 |
USD902756S1 (en) | 2019-02-20 | 2020-11-24 | Waymo Llc | Sensor assembly |
USD957967S1 (en) | 2019-02-20 | 2022-07-19 | Waymo Llc | Sensor housing |
USD915913S1 (en) | 2019-05-01 | 2021-04-13 | Waymo Llc | Roof pod housing |
USD950404S1 (en) | 2019-05-01 | 2022-05-03 | Waymo Llc | Roof pod housing |
JP6970703B2 (ja) * | 2019-03-18 | 2021-11-24 | 株式会社東芝 | 電子装置および方法 |
US11280897B2 (en) * | 2019-03-31 | 2022-03-22 | Waymo Llc | Radar field of view extensions |
JP2022526998A (ja) | 2019-04-09 | 2022-05-27 | オプシス テック リミテッド | レーザ制御を伴うソリッドステートlidar送光機 |
USD964909S1 (en) | 2019-04-25 | 2022-09-27 | Waymo Llc | Perimeter sensor housing |
USD954571S1 (en) | 2019-04-25 | 2022-06-14 | Waymo Llc | Front sensor housing |
USD927998S1 (en) | 2019-04-25 | 2021-08-17 | Waymo Llc | Front sensor housing |
USD964908S1 (en) | 2019-04-25 | 2022-09-27 | Waymo Llc | Perimeter sensor housing |
USD965498S1 (en) | 2019-04-25 | 2022-10-04 | Waymo Llc | Perimeter sensor housing |
USD928639S1 (en) | 2019-04-25 | 2021-08-24 | Waymo Llc | Rear sensor housing |
USD964249S1 (en) | 2019-04-25 | 2022-09-20 | Waymo Llc | Perimeter sensor housing |
USD956585S1 (en) | 2019-04-25 | 2022-07-05 | Waymo Llc | Rear sensor housing |
JP2020179808A (ja) * | 2019-04-26 | 2020-11-05 | トヨタ自動車株式会社 | 車両制御装置 |
US11603048B2 (en) | 2019-05-01 | 2023-03-14 | Waymo Llc | Autonomous vehicle roof pod |
US11964616B2 (en) | 2019-05-01 | 2024-04-23 | Waymo Llc | Autonomous vehicle roof pod |
CN110109083B (zh) * | 2019-05-05 | 2023-06-27 | 上海交通大学 | 基于一维光相控阵的三维扫描激光雷达 |
US11408984B2 (en) | 2019-05-08 | 2022-08-09 | Ford Global Technologies, Llc | Sensor-drainage apparatus |
US11607804B2 (en) | 2019-05-28 | 2023-03-21 | X Development Llc | Robot configuration with three-dimensional lidar |
EP3977159A4 (en) | 2019-05-30 | 2023-03-01 | Opsys Tech Ltd. | EYE-SAFE LONG-RANGE LIDAR SYSTEM WITH ACTUATOR |
JP7438564B2 (ja) | 2019-06-10 | 2024-02-27 | オプシス テック リミテッド | 眼に安全な長距離固体lidarシステム |
US11216987B2 (en) | 2019-06-17 | 2022-01-04 | Toyota Research Institute, Inc. | Systems and methods for associating LiDAR points with objects |
US10613203B1 (en) * | 2019-07-01 | 2020-04-07 | Velodyne Lidar, Inc. | Interference mitigation for light detection and ranging |
US10768063B1 (en) * | 2019-07-25 | 2020-09-08 | Pony Ai Inc. | Systems and methods for using piezoelectric sensors to ensure securement of enclosures |
DE102019211739A1 (de) * | 2019-08-06 | 2021-02-11 | Ibeo Automotive Systems GmbH | Lidar-Messsystem mit zwei Lidar-Messvorrichtungen |
US11347231B2 (en) | 2019-08-07 | 2022-05-31 | Waymo Llc | Object localization for autonomous driving by visual tracking and image reprojection |
CN210390983U (zh) * | 2019-08-15 | 2020-04-24 | 北京百度网讯科技有限公司 | 自动驾驶车辆 |
US11556000B1 (en) | 2019-08-22 | 2023-01-17 | Red Creamery Llc | Distally-actuated scanning mirror |
US11099039B2 (en) | 2019-08-28 | 2021-08-24 | Ford Global Technologies, Llc | Sensor assembly |
US11554757B2 (en) | 2019-09-03 | 2023-01-17 | Ford Global Technologies, Llc | Vehicle sensor assembly |
US11327178B2 (en) | 2019-09-06 | 2022-05-10 | Volvo Car Corporation | Piece-wise network structure for long range environment perception |
US11402602B2 (en) * | 2019-09-27 | 2022-08-02 | Waymo Llc | Lens retainer ring with compliant element |
US11698446B2 (en) * | 2019-10-07 | 2023-07-11 | Gm Cruise Holdings Llc | Vertically stacked lidar assembly |
KR102615478B1 (ko) * | 2019-10-24 | 2023-12-19 | 현대모비스 주식회사 | 자동차용 센서 통합 모듈 |
US11531107B2 (en) | 2019-11-19 | 2022-12-20 | Volvo Car Corporation | Long range LIDAR-based speed estimation |
US11754689B2 (en) | 2019-12-16 | 2023-09-12 | Plusai, Inc. | System and method for detecting sensor adjustment need |
US11738694B2 (en) | 2019-12-16 | 2023-08-29 | Plusai, Inc. | System and method for anti-tampering sensor assembly |
US11077825B2 (en) | 2019-12-16 | 2021-08-03 | Plusai Limited | System and method for anti-tampering mechanism |
US11470265B2 (en) | 2019-12-16 | 2022-10-11 | Plusai, Inc. | System and method for sensor system against glare and control thereof |
US11724669B2 (en) | 2019-12-16 | 2023-08-15 | Plusai, Inc. | System and method for a sensor protection system |
US11313704B2 (en) * | 2019-12-16 | 2022-04-26 | Plusai, Inc. | System and method for a sensor protection assembly |
US11650415B2 (en) | 2019-12-16 | 2023-05-16 | Plusai, Inc. | System and method for a sensor protection mechanism |
US11493922B1 (en) | 2019-12-30 | 2022-11-08 | Waymo Llc | Perimeter sensor housings |
US11557127B2 (en) * | 2019-12-30 | 2023-01-17 | Waymo Llc | Close-in sensing camera system |
US11351961B2 (en) * | 2020-01-29 | 2022-06-07 | Ford Global Technologies, Llc | Proximity-based vehicle security systems and methods |
US11378425B2 (en) * | 2020-01-31 | 2022-07-05 | Denso Corporation | Measurement apparatus unit |
IL272450B (en) | 2020-02-03 | 2021-10-31 | Elbit Systems Ltd | A system and method for creating 3D maps based on mapping information |
USD953176S1 (en) | 2020-02-24 | 2022-05-31 | Waymo Llc | Sensor housing assembly |
US11372320B2 (en) | 2020-02-27 | 2022-06-28 | Gerard Dirk Smits | High resolution scanning of remote objects with fast sweeping laser beams and signal recovery by twitchy pixel array |
US11460546B2 (en) * | 2020-03-09 | 2022-10-04 | Ford Global Technologies, Llc | Sensor-drainage apparatus |
US11830302B2 (en) | 2020-03-24 | 2023-11-28 | Uatc, Llc | Computer system for utilizing ultrasonic signals to implement operations for autonomous vehicles |
US20210302543A1 (en) * | 2020-03-24 | 2021-09-30 | Cepton Technologies, Inc | Scanning lidar systems with flood illumination for near-field detection |
JP7327257B2 (ja) * | 2020-04-13 | 2023-08-16 | トヨタ自動車株式会社 | 車載センサシステム |
WO2021210302A1 (ja) * | 2020-04-17 | 2021-10-21 | 株式会社Ihi | 車両誘導装置、車両誘導方法及び駐車場 |
US20210394781A1 (en) * | 2020-06-17 | 2021-12-23 | Nuro, Inc. | Dual lidar sensor for annotated point cloud generation |
JPWO2021256226A1 (zh) | 2020-06-19 | 2021-12-23 | ||
KR102464094B1 (ko) * | 2020-10-12 | 2022-11-09 | (주)투핸즈인터랙티브 | 이중 라이다 센서 구조의 모션 트래킹 장치 |
US20220357424A1 (en) * | 2021-05-04 | 2022-11-10 | Argo AI, LLC | Systems and Methods for Providing a Gapless LiDAR Emitter Using a Laser Diode Bar |
CN115407330A (zh) * | 2021-05-28 | 2022-11-29 | 北京图森智途科技有限公司 | 车辆的传感器布局 |
US12047119B2 (en) * | 2021-06-03 | 2024-07-23 | Lg Innotek Co., Ltd. | Systems and methods for transferring data communication in a rotating platform of a LIDAR system |
US11883935B2 (en) | 2021-10-20 | 2024-01-30 | Ford Global Technologies, Llc | Assembling a sensor assembly |
JP7433282B2 (ja) | 2021-12-17 | 2024-02-19 | ソマール株式会社 | 測距装置 |
USD1014398S1 (en) | 2021-12-23 | 2024-02-13 | Waymo Llc | Vehicle |
USD1018337S1 (en) | 2021-12-23 | 2024-03-19 | Waymo Llc | Sensor assembly |
GB2617443A (en) * | 2022-02-15 | 2023-10-11 | Motional Ad Llc | Interchangeable lens systems |
US11772667B1 (en) | 2022-06-08 | 2023-10-03 | Plusai, Inc. | Operating a vehicle in response to detecting a faulty sensor using calibration parameters of the sensor |
US20230408651A1 (en) * | 2022-06-10 | 2023-12-21 | Waymo Llc | Spinning Lidar With One or More Secondary Mirrors |
CN115390090A (zh) * | 2022-07-21 | 2022-11-25 | 华为技术有限公司 | 一种激光雷达系统、控制方法、装置和车辆 |
US20240201377A1 (en) * | 2022-12-16 | 2024-06-20 | Velodyne Lidar Usa, Inc. | Collection and use of enhanced lidar data |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070291130A1 (en) * | 2006-06-19 | 2007-12-20 | Oshkosh Truck Corporation | Vision system for an autonomous vehicle |
US20080059015A1 (en) * | 2006-06-09 | 2008-03-06 | Whittaker William L | Software architecture for high-speed traversal of prescribed routes |
CN101688774A (zh) * | 2006-07-13 | 2010-03-31 | 威力登音响公司 | 高精确度激光雷达系统 |
US20110196568A1 (en) * | 2010-02-11 | 2011-08-11 | Gm Global Technology Operations, Inc. | Vehicle safety systems and methods |
EP2388615A1 (en) * | 2010-05-17 | 2011-11-23 | Velodyne Acoustics, Inc. | High definition lidar system |
CN104374376A (zh) * | 2014-11-05 | 2015-02-25 | 北京大学 | 一种车载三维测量系统装置及其应用 |
Family Cites Families (78)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08122060A (ja) * | 1994-10-21 | 1996-05-17 | Mitsubishi Electric Corp | 車両周辺監視システム |
JP3209667B2 (ja) * | 1995-10-09 | 2001-09-17 | 三菱電機株式会社 | 車両用光レーダ装置 |
JPH09264954A (ja) * | 1996-03-29 | 1997-10-07 | Fujitsu Ten Ltd | レーダを用いた画像処理システム |
US6260309B1 (en) * | 1998-12-02 | 2001-07-17 | Ethan W. Cliffton | Split-sphere observatory dome with a rotating oculus window |
US6161071A (en) | 1999-03-12 | 2000-12-12 | Navigation Technologies Corporation | Method and system for an in-vehicle computing architecture |
US6580385B1 (en) * | 1999-05-26 | 2003-06-17 | Robert Bosch Gmbh | Object detection system |
DE19957375A1 (de) * | 1999-11-29 | 2001-06-07 | Specialty Minerals Michigan | Verfahren zur Identifikation und Bestimmung der Position insbesondere eines metallurgischen Gefäßes |
DE10007501A1 (de) | 2000-02-18 | 2001-09-13 | Daimler Chrysler Ag | Verfahren und Vorrichtung zur Erfassung und Überwachung einer Mehrzahl von vorausfahrenden Fahrzeugen |
JP4006577B2 (ja) | 2002-03-13 | 2007-11-14 | オムロン株式会社 | 監視装置 |
JP2004028601A (ja) | 2002-06-21 | 2004-01-29 | Mitsubishi Heavy Ind Ltd | 監視用レーザレーダシステム及び撮像方法 |
US6927699B2 (en) * | 2002-12-05 | 2005-08-09 | Denso Corporation | Object recognition apparatus for vehicle, and inter-vehicle distance control unit |
JP2006039760A (ja) * | 2004-07-23 | 2006-02-09 | Victor Co Of Japan Ltd | 移動ロボット |
JP2006151125A (ja) * | 2004-11-26 | 2006-06-15 | Omron Corp | 車載用画像処理装置 |
JP2006242844A (ja) * | 2005-03-04 | 2006-09-14 | Mitsubishi Electric Corp | レーダー装置及び送信ビーム制御方法 |
US8050863B2 (en) | 2006-03-16 | 2011-11-01 | Gray & Company, Inc. | Navigation and control system for autonomous vehicles |
US8947531B2 (en) * | 2006-06-19 | 2015-02-03 | Oshkosh Corporation | Vehicle diagnostics based on information communicated between vehicles |
JP4961860B2 (ja) | 2006-06-27 | 2012-06-27 | トヨタ自動車株式会社 | ロボット装置及びロボット装置の制御方法 |
US8072581B1 (en) * | 2007-01-19 | 2011-12-06 | Rockwell Collins, Inc. | Laser range finding system using variable field of illumination flash lidar |
JP2008298520A (ja) * | 2007-05-30 | 2008-12-11 | Nec Corp | 走査型距離計測装置 |
US8027029B2 (en) | 2007-11-07 | 2011-09-27 | Magna Electronics Inc. | Object detection and tracking system |
JP2009204691A (ja) | 2008-02-26 | 2009-09-10 | Toyota Central R&D Labs Inc | 光走査装置、レーザレーダ装置、及び光走査方法 |
US8332134B2 (en) | 2008-04-24 | 2012-12-11 | GM Global Technology Operations LLC | Three-dimensional LIDAR-based clear path detection |
US9041915B2 (en) * | 2008-05-09 | 2015-05-26 | Ball Aerospace & Technologies Corp. | Systems and methods of scene and action capture using imaging system incorporating 3D LIDAR |
US8165796B2 (en) * | 2008-09-05 | 2012-04-24 | Robert Bosch Gmbh | Collision avoidance system and method |
US8126642B2 (en) | 2008-10-24 | 2012-02-28 | Gray & Company, Inc. | Control and systems for autonomously driven vehicles |
JP2011027598A (ja) | 2009-07-27 | 2011-02-10 | Toyota Central R&D Labs Inc | 環境認識装置及びそれを備えた移動体 |
TWI403690B (zh) * | 2009-10-26 | 2013-08-01 | Ind Tech Res Inst | 自我定位裝置及其方法 |
KR101137088B1 (ko) * | 2010-01-06 | 2012-04-19 | 주식회사 만도 | 통합 레이더 장치 및 통합 안테나 장치 |
JP2011180103A (ja) * | 2010-03-04 | 2011-09-15 | Toyota Motor Corp | 三次元測距装置及び移動ロボット |
CN201804112U (zh) * | 2010-04-27 | 2011-04-20 | 成都捌零科技有限公司 | 车辆360度障碍无死角智能检测与预警系统 |
US8918213B2 (en) * | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
JP2013540985A (ja) * | 2010-07-26 | 2013-11-07 | コモンウェルス サイエンティフィック アンドインダストリアル リサーチ オーガナイゼーション | 3次元走査ビーム・システムおよび方法 |
US8686899B2 (en) * | 2010-08-26 | 2014-04-01 | Hemisphere GNSS, Inc. | GNSS smart antenna and receiver system with weatherproof enclosure |
US8509982B2 (en) * | 2010-10-05 | 2013-08-13 | Google Inc. | Zone driving |
JP2012083267A (ja) | 2010-10-13 | 2012-04-26 | Japan Aerospace Exploration Agency | マルチライダーシステム |
US8744693B2 (en) * | 2010-11-22 | 2014-06-03 | Caterpillar Inc. | Object detection system having adjustable focus |
JP2014509417A (ja) | 2010-12-30 | 2014-04-17 | アイロボット コーポレイション | 可動式ヒューマンインターフェースロボット |
KR101040528B1 (ko) * | 2011-02-17 | 2011-06-16 | 국방과학연구소 | 지형감지 센서조립체 및 이를 구비하는 자율이동 플랫폼 |
GB201116961D0 (en) * | 2011-09-30 | 2011-11-16 | Bae Systems Plc | Fast calibration for lidars |
US9194949B2 (en) | 2011-10-20 | 2015-11-24 | Robert Bosch Gmbh | Methods and systems for precise vehicle localization using radar maps |
DE102011086244A1 (de) | 2011-11-14 | 2013-05-16 | Robert Bosch Gmbh | Verfahren zum Betreiben eines Sensors |
US9129211B2 (en) | 2012-03-15 | 2015-09-08 | GM Global Technology Operations LLC | Bayesian network to track objects using scan points using multiple LiDAR sensors |
US9329269B2 (en) | 2012-03-15 | 2016-05-03 | GM Global Technology Operations LLC | Method for registration of range images from multiple LiDARS |
US9760092B2 (en) | 2012-03-16 | 2017-09-12 | Waymo Llc | Actively modifying a field of view of an autonomous vehicle in view of constraints |
US9145140B2 (en) | 2012-03-26 | 2015-09-29 | Google Inc. | Robust method for detecting traffic signals and their associated states |
GB2501466A (en) * | 2012-04-02 | 2013-10-30 | Univ Oxford | Localising transportable apparatus |
CN103608696B (zh) * | 2012-05-22 | 2016-05-11 | 韩国生产技术研究院 | 3d扫描系统和获得3d图像的方法 |
US8781721B2 (en) * | 2012-06-06 | 2014-07-15 | Google Inc. | Obstacle evaluation technique |
KR102038533B1 (ko) * | 2012-06-14 | 2019-10-31 | 한국전자통신연구원 | 레이저 레이더 시스템 및 목표물 영상 획득 방법 |
JP6019959B2 (ja) * | 2012-09-06 | 2016-11-02 | 富士通株式会社 | 物体検出装置、物体検出プログラムおよび車両 |
US9383753B1 (en) * | 2012-09-26 | 2016-07-05 | Google Inc. | Wide-view LIDAR with areas of special attention |
US9234618B1 (en) * | 2012-09-27 | 2016-01-12 | Google Inc. | Characterizing optically reflective features via hyper-spectral sensor |
US9097800B1 (en) * | 2012-10-11 | 2015-08-04 | Google Inc. | Solid object detection system using laser and radar sensor fusion |
US9086481B1 (en) * | 2013-01-18 | 2015-07-21 | Google Inc. | Methods and systems for estimating vehicle speed |
US20140211194A1 (en) * | 2013-01-27 | 2014-07-31 | Quanergy Systems, Inc. | Cost-effective lidar sensor for multi-signal detection, weak signal detection and signal disambiguation and method of using same |
DE102013002333A1 (de) * | 2013-02-12 | 2014-08-14 | Continental Teves Ag & Co. Ohg | Verfahren und Strahlensensormodul zur vorausschauenden Straßenzustandsbestimmung in einem Fahrzeug |
GB201303076D0 (en) * | 2013-02-21 | 2013-04-10 | Isis Innovation | Generation of 3D models of an environment |
US9128190B1 (en) * | 2013-03-06 | 2015-09-08 | Google Inc. | Light steering device with an array of oscillating reflective slats |
US9063549B1 (en) * | 2013-03-06 | 2015-06-23 | Google Inc. | Light detection and ranging device with oscillating mirror driven by magnetically interactive coil |
KR101534225B1 (ko) * | 2013-03-20 | 2015-07-06 | 주식회사 만도 | 레이더 장치 |
US20140293263A1 (en) * | 2013-03-28 | 2014-10-02 | James Justice | LIDAR Comprising Polyhedron Transmission and Receiving Scanning Element |
KR20140122002A (ko) * | 2013-04-09 | 2014-10-17 | 엘지전자 주식회사 | 거리 측정 장치 및 동작 방법 |
US8983705B2 (en) * | 2013-04-30 | 2015-03-17 | Google Inc. | Methods and systems for detecting weather conditions including fog using vehicle onboard sensors |
US9025140B2 (en) * | 2013-05-07 | 2015-05-05 | Google Inc. | Methods and systems for detecting weather conditions including sunlight using vehicle onboard sensors |
US9207323B2 (en) * | 2013-04-11 | 2015-12-08 | Google Inc. | Methods and systems for detecting weather conditions including wet surfaces using vehicle onboard sensors |
US9164511B1 (en) * | 2013-04-17 | 2015-10-20 | Google Inc. | Use of detected objects for image processing |
EP2999940A4 (en) | 2013-05-22 | 2017-11-15 | Neurala Inc. | Methods and apparatus for early sensory integration and robust acquisition of real world knowledge |
US9886636B2 (en) | 2013-05-23 | 2018-02-06 | GM Global Technology Operations LLC | Enhanced top-down view generation in a front curb viewing system |
US10551851B2 (en) * | 2013-07-01 | 2020-02-04 | Steven Sounyoung Yu | Autonomous unmanned road vehicle for making deliveries |
US9857472B2 (en) | 2013-07-02 | 2018-01-02 | Electronics And Telecommunications Research Institute | Laser radar system for obtaining a 3D image |
US8836922B1 (en) * | 2013-08-20 | 2014-09-16 | Google Inc. | Devices and methods for a rotating LIDAR platform with a shared transmit/receive path |
JP6032163B2 (ja) * | 2013-09-11 | 2016-11-24 | トヨタ自動車株式会社 | 三次元物体認識装置、三次元物体認識方法、及び移動体 |
US10203399B2 (en) * | 2013-11-12 | 2019-02-12 | Big Sky Financial Corporation | Methods and apparatus for array based LiDAR systems with reduced interference |
US20150192677A1 (en) * | 2014-01-03 | 2015-07-09 | Quanergy Systems, Inc. | Distributed lidar sensing system for wide field of view three dimensional mapping and method of using same |
US9831630B2 (en) * | 2014-02-06 | 2017-11-28 | GM Global Technology Operations LLC | Low cost small size LiDAR for automotive |
US9378554B2 (en) * | 2014-10-09 | 2016-06-28 | Caterpillar Inc. | Real-time range map generation |
WO2016130994A1 (en) * | 2015-02-13 | 2016-08-18 | Unmanned Innovation, Inc. | Unmanned aerial vehicle remote flight planning system |
US9625582B2 (en) * | 2015-03-25 | 2017-04-18 | Google Inc. | Vehicle with multiple light detection and ranging devices (LIDARs) |
-
2015
- 2015-03-25 US US14/668,452 patent/US9625582B2/en not_active Ceased
-
2016
- 2016-02-24 CN CN201680017854.8A patent/CN107430195B/zh active Active
- 2016-02-24 SG SG10201806612YA patent/SG10201806612YA/en unknown
- 2016-02-24 CA CA3008411A patent/CA3008411C/en active Active
- 2016-02-24 CN CN201910634911.2A patent/CN110346815B/zh active Active
- 2016-02-24 SG SG10202006439VA patent/SG10202006439VA/en unknown
- 2016-02-24 WO PCT/US2016/019229 patent/WO2016153687A1/en active Application Filing
- 2016-02-24 CA CA3055622A patent/CA3055622C/en active Active
- 2016-02-24 AU AU2016236026A patent/AU2016236026B2/en active Active
- 2016-02-24 CA CA2980305A patent/CA2980305C/en active Active
- 2016-02-24 KR KR1020197006048A patent/KR102179292B1/ko active IP Right Grant
- 2016-02-24 JP JP2017550241A patent/JP6387470B2/ja active Active
- 2016-02-24 SG SG11201706620PA patent/SG11201706620PA/en unknown
- 2016-02-24 MX MX2017012279A patent/MX2017012279A/es active IP Right Grant
- 2016-02-24 KR KR1020177030643A patent/KR101954986B1/ko active IP Right Grant
- 2016-02-24 EP EP16769254.0A patent/EP3274738A4/en active Pending
- 2016-02-24 CA CA3183074A patent/CA3183074A1/en active Pending
- 2016-02-24 SG SG10201709900XA patent/SG10201709900XA/en unknown
-
2017
- 2017-03-09 US US15/455,009 patent/US9778364B2/en active Active
- 2017-04-20 US US15/493,066 patent/US9864063B2/en active Active
- 2017-08-03 IL IL253808A patent/IL253808B/en active IP Right Grant
- 2017-09-25 US US15/714,326 patent/US10120079B2/en active Active
- 2017-09-25 MX MX2019015303A patent/MX2019015303A/es unknown
- 2017-09-26 US US15/715,802 patent/US10976437B2/en active Active
- 2017-09-26 JP JP2017184265A patent/JP6476256B2/ja active Active
- 2017-10-31 US US15/799,926 patent/USRE48961E1/en active Active
-
2018
- 2018-03-14 IL IL258118A patent/IL258118B/en active IP Right Grant
- 2018-05-18 HK HK18106481.3A patent/HK1246858A1/zh unknown
- 2018-06-20 AU AU2018204466A patent/AU2018204466B2/en active Active
- 2018-11-19 IL IL263105A patent/IL263105B/en active IP Right Grant
-
2019
- 2019-02-04 JP JP2019017710A patent/JP6734951B2/ja active Active
- 2019-06-14 AU AU2019204204A patent/AU2019204204B2/en active Active
-
2020
- 2020-07-10 JP JP2020119203A patent/JP7204709B2/ja active Active
-
2021
- 2021-01-21 AU AU2021200407A patent/AU2021200407B2/en not_active Ceased
- 2021-03-08 US US17/194,447 patent/US20210278503A1/en active Pending
-
2022
- 2022-01-10 AU AU2022200105A patent/AU2022200105B2/en active Active
- 2022-12-22 US US18/145,149 patent/US20230126631A1/en active Pending
- 2022-12-28 JP JP2022211047A patent/JP2023040126A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080059015A1 (en) * | 2006-06-09 | 2008-03-06 | Whittaker William L | Software architecture for high-speed traversal of prescribed routes |
US20070291130A1 (en) * | 2006-06-19 | 2007-12-20 | Oshkosh Truck Corporation | Vision system for an autonomous vehicle |
CN101688774A (zh) * | 2006-07-13 | 2010-03-31 | 威力登音响公司 | 高精确度激光雷达系统 |
US20110196568A1 (en) * | 2010-02-11 | 2011-08-11 | Gm Global Technology Operations, Inc. | Vehicle safety systems and methods |
EP2388615A1 (en) * | 2010-05-17 | 2011-11-23 | Velodyne Acoustics, Inc. | High definition lidar system |
CN104374376A (zh) * | 2014-11-05 | 2015-02-25 | 北京大学 | 一种车载三维测量系统装置及其应用 |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110914707A (zh) * | 2017-04-25 | 2020-03-24 | 图森有限公司 | 基于相机和lidar数据的车辆位置和速度估计的系统和方法 |
CN110914707B (zh) * | 2017-04-25 | 2023-11-07 | 图森有限公司 | 基于相机和lidar数据的车辆位置和速度估计的系统和方法 |
CN111527745A (zh) * | 2017-12-29 | 2020-08-11 | 伟摩有限责任公司 | 高速图像读出和处理 |
TWI746915B (zh) * | 2018-06-25 | 2021-11-21 | 大陸商北京嘀嘀無限科技發展有限公司 | 高清晰度地圖獲取系統 |
US11061122B2 (en) | 2018-06-25 | 2021-07-13 | Beijing Didi Infinity Technology And Development Co., Ltd. | High-definition map acquisition system |
CN112955776A (zh) * | 2018-07-19 | 2021-06-11 | 卢米诺有限责任公司 | 用于在激光雷达系统中进行地面检测的可调整脉冲特性 |
CN109213165A (zh) * | 2018-09-10 | 2019-01-15 | 成都英鑫光电科技有限公司 | 自动驾驶测距系统及自动驾驶系统 |
CN113287031A (zh) * | 2018-11-02 | 2021-08-20 | 伟摩有限责任公司 | 车辆的多个旋转传感器的同步 |
WO2020178701A1 (en) * | 2019-03-01 | 2020-09-10 | Beijing Voyager Technology Co., Ltd. | System and methods for ranging operations using modulated signals |
US11402477B2 (en) | 2019-03-01 | 2022-08-02 | Beijing Voyager Technology Co., Ltd | System and methods for ranging operations using modulated signals |
CN113574411A (zh) * | 2019-03-14 | 2021-10-29 | 伟摩有限责任公司 | 用于检测传感器外壳上的障碍物的方法和系统 |
CN114144651B (zh) * | 2019-07-22 | 2024-05-31 | 株式会社普利司通 | 控制方法、控制装置、控制系统和轮胎试验方法 |
CN114144651A (zh) * | 2019-07-22 | 2022-03-04 | 株式会社普利司通 | 控制方法、控制装置、控制系统和轮胎试验方法 |
CN114144650A (zh) * | 2019-07-22 | 2022-03-04 | 株式会社普利司通 | 控制方法、控制装置、控制系统和轮胎试验方法 |
CN112987028A (zh) * | 2019-12-12 | 2021-06-18 | 通用汽车环球科技运作有限责任公司 | 激光雷达视觉系统 |
CN112987028B (zh) * | 2019-12-12 | 2024-05-24 | 通用汽车环球科技运作有限责任公司 | 激光雷达视觉系统 |
CN113415270B (zh) * | 2020-03-03 | 2024-05-17 | 伟摩有限责任公司 | 基于多传感器数据的传感器感兴趣区域选择的系统、方法和装置 |
CN113415270A (zh) * | 2020-03-03 | 2021-09-21 | 伟摩有限责任公司 | 基于多传感器数据的传感器感兴趣区域选择 |
CN115698766A (zh) * | 2020-06-19 | 2023-02-03 | 欧若拉运营公司 | Lidar系统 |
CN115698766B (zh) * | 2020-06-19 | 2023-11-28 | 欧若拉运营公司 | Lidar系统 |
WO2022233049A1 (zh) * | 2021-05-07 | 2022-11-10 | 深圳市大疆创新科技有限公司 | 控制方法、装置、计算机可读存储介质 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107430195B (zh) | 具有多个光检测和测距装置(lidar)的车辆 | |
CN108139465A (zh) | 长距离可转向lidar系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1246858 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |