CN115135554A - 周界传感器壳体 - Google Patents

周界传感器壳体 Download PDF

Info

Publication number
CN115135554A
CN115135554A CN202080096263.0A CN202080096263A CN115135554A CN 115135554 A CN115135554 A CN 115135554A CN 202080096263 A CN202080096263 A CN 202080096263A CN 115135554 A CN115135554 A CN 115135554A
Authority
CN
China
Prior art keywords
vehicle
image sensor
sensor
housing portion
sensing module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202080096263.0A
Other languages
English (en)
Other versions
CN115135554B (zh
Inventor
P.阿夫拉姆
K.托思
J.迪特默
G.圭迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waymo LLC
Original Assignee
Waymo LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waymo LLC filed Critical Waymo LLC
Publication of CN115135554A publication Critical patent/CN115135554A/zh
Application granted granted Critical
Publication of CN115135554B publication Critical patent/CN115135554B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/107Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/228Command input arrangements located on-board unmanned vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/617Safety or protection, e.g. defining protection zones around obstacles or avoiding hazards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S1/00Cleaning of vehicles
    • B60S1/02Cleaning windscreens, windows or optical devices
    • B60S1/56Cleaning windscreens, windows or optical devices specially adapted for cleaning other parts or devices than front windows or windscreens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/24Direction of travel
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/027Constructional details of housings, e.g. form, type, material or ruggedness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

本技术涉及用于被配置为在自主驾驶模下操作的载具的外部传感器系统。该技术包括近距离感测(CIS)相机系统,以解决载具周围的盲点。CIS系统被用于检测载具几米范围内的对象。基于对象分类,系统能够做出实时驾驶决策。通过结合激光雷达传感器(800,1804)使用相机来增强分类。在单个传感器壳体中的多个传感器的特定布置对于对象检测和分类也很重要。因此,选择传感器和支撑部件的定位,以避免遮挡并且另外地防止各种传感器壳体元件之间的干扰。

Description

周界传感器壳体
对相关申请的交叉引用
本申请要求于2020年1月8日提交的第16/737359号美国申请和于2019年12月30日提交的第62/954938号美国临时申请的权益,其全部公开内容通过引用并入于此。本申请与共同未决的、于2020年1月8日提交的题为Close-in Sensing Camera System(近距离感测相机系统)的第16/737263号美国申请(代理人案卷号XSDV 3.0F-2134)相关,其全部公开内容通过引用并入于此。
背景技术
自动驾驶(自主)载具在一些或所有情况下不需要人类驾驶员。这种载具可以将乘客或货物从一个位置运输到另一位置。它们可以在全自主模式下或其中人可以提供一些驾驶输入的部分自主模式下操作。为了在自主模式下操作,载具可以采用传感器来检测在其外部环境中的载具和其他对象,并且使用从传感器接收的信息来执行各种驾驶操作。然而,紧邻载具的对象和传感器视场中的遮挡可能不利地影响驾驶操作。
发明内容
本技术涉及一种用于被配置为在自动驾驶(自主)模式下操作的载具的外部传感器系统。通常,传感器被用于检测载具周围环境中的对象。这些可以包括激光雷达(lidar)、雷达(radar)、相机、声纳和/或其他传感器。不同的传感器具有不同的优势,并且可以采用来自多个传感器的传感器融合来获得对环境的更加完整的理解,以便载具可以做出驾驶决策。然而,取决于环境中的载具和对象的尺寸、形状等,可能存在可以影响驾驶决策和其他自主操作的盲点。这些包括紧邻载具的盲点。这样的问题可以通过仔细选择和定位传感器壳体而大体上减轻,所述传感器壳体可以将不同类型的传感器共同定位在集成单元中。这可以包括与激光雷达传感器集成的近距离(close-in)相机系统、与雷达和/或其他传感器并置的周界(perimeter)视图相机等。
根据一个方面,提供了一种用于被配置为在自主驾驶模式下操作的载具的外部感测模块。外部感测模块包括激光雷达传感器和图像传感器。激光雷达传感器沿着外部感测模块的第一壳体部分布置。激光雷达传感器被配置为检测载具周围的外部环境的区域中的并且在载具的阈值距离内的对象。图像传感器沿着外部感测模块的第二壳体部分布置。具有图像传感器的第二壳体部分与具有激光雷达传感器的第一壳体部分垂直对准。图像传感器沿着载具布置以具有对外部环境的所述区域的不受阻挡的视场。图像传感器对载具的阈值距离内的对象提供所选择的分辨率,以对由激光雷达传感器检测到的对象进行分类。外部感测模块的第三壳体部分设置在第一壳体部分与第二壳体部分之间。第三壳体部分包括被布置为防止图像传感器和激光雷达传感器之间的干扰的外表面。
图像传感器可以布置在激光雷达传感器的上方或下方。图像传感器可以以相对于载具的侧面向下的角度布置,其中,向下的角度为20-40°的量级,以提供在载具的阈值距离内的覆盖。阈值距离可以为距离载具1至3米之间。
外部感测模块还可以包括被配置为对图像传感器的视场进行照明的一个或多个照明器单元。在一个示例中,一个或多个照明器单元可以被设置为沿着第二壳体部分与图像传感器相邻。例如,一个或多个照明器单元可以是设置在图像传感器的两侧上的一对照明器。外部感测模块还可以包括被配置为清洁图像传感器和/或一个或多个照明器单元的清洁机构。
在一个示例中,外部感测模块还包括沿着外部感测模块的第四壳体部分设置的雷达传感器,该第四壳体部分布置到第一壳体部分和第二壳体部分两者的一侧。第四壳体部分可以布置为比第一部分和第二部分更靠近载具的前部。外部感测模块还可以包括沿着外部感测模块的第五壳体部分设置的至少一个附加图像传感器,其中,第四壳体部分布置在第五壳体部分与第一壳体部分和第二壳体部分之间。在一个示例中,至少一个附加图像传感器包括给定的附加图像传感器,该给定的附加图像传感器被设置为与雷达传感器大致是平面的并且被布置为提供与沿着第二壳体部分布置的图像传感器的视场分离的、沿着载具的侧面的所选择的视场。在另一示例中,至少一个附加图像传感器包括给定的附加图像传感器,该给定的附加图像传感器被设置为与雷达传感器大致垂直并且被布置为提供与沿着第二壳体部分布置的图像传感器的视场分离的、沿着载具的前部的所选择的视场。至少一个附加图像传感器可以包括第一附加图像传感器和第二附加图像传感器。这里,第一附加图像传感器被设置为与雷达传感器大致是平面的并且被布置为提供与沿着第二壳体部分布置的图像传感器的视场分离的、沿着载具的侧面的所选择的视场;而第二附加图像传感器被设置为与雷达传感器和第一附加图像传感器大致垂直并且被布置为提供与沿着第二壳体部分布置的图像传感器的视场和第一附加图像传感器的所选择的视场分离的、沿着载具的前部的所选择的视场。
根据另一方面,提供了一种用于被配置为在自主驾驶模式下操作的载具的外部感测模块。外部感测模块包括雷达传感器和图像传感器。雷达传感器沿着外部感测模块的第一壳体部分布置。雷达传感器被配置为检测载具周围的外部环境的区域中的并且在载具的阈值距离内的对象。图像传感器沿着外部感测模块的第二壳体部分布置。具有图像传感器的第二壳体部分与具有雷达传感器的第一壳体部分相邻。图像传感器沿着载具布置以具有对外部环境的所述区域的重叠视场。图像传感器为载具的阈值距离内的对象提供所选择的分辨率以对由雷达传感器检测到的对象进行分类。
外部感测模块可以沿着载具的后饰带(rear fascia)设置以检测载具后方的对象并且对其进行分类。例如,图像传感器的视场可以在沿着载具后部的30-60°之间。替代地或附加地,图像传感器的视场具有15-35°之间的外方位角和10-25°之间的内方位角。第二壳体部分可以设置为比第一壳体部分更靠近载具的相邻侧。
根据又一方面,提供了一种被配置为在自主驾驶模式下操作的载具。该载具包括驾驶系统和外部感测模块。驾驶系统包括被配置为控制载具的制动的减速系统、被配置为控制载具的加速的加速系统以及被配置为控制车轮取向和载具的方向的转向系统。外部感测模块包括激光雷达传感器和图像传感器。激光雷达传感器沿着外部感测模块的第一壳体部分布置。激光雷达传感器被配置为检测载具周围的外部环境的区域中的并且在载具的阈值距离内的对象。图像传感器沿着外部感测模块的第二壳体部分布置。具有图像传感器的第二壳体部分与具有激光雷达传感器的第一壳体部分垂直对准。图像传感器沿着载具布置以具有对外部环境的所述区域的不受阻挡的视场。图像传感器为载具的阈值距离内的对象提供所选择的分辨率以对由激光雷达传感器检测到的对象进行分类。外部感测模块的第三壳体部分设置在第一壳体部分和第二壳体部分之间。第三壳体部分包括被布置为防止图像传感器和激光雷达传感器之间的干扰的外表面。
外部感测模块还可以包括被配置为对图像传感器的视场进行照明的一个或多个照明器单元。一个或多个照明器单元被设置为沿着第二壳体部分与图像传感器相邻。外部感测模块还可以包括被配置为清洁图像传感器和/或一个或多个照明器单元的清洁机构。
附图说明
图1A至图1B示出了被配置用于本技术的方面的示例载具。
图1C示出了被配置用于本技术的方面的另一示例载具。
图1D至图1E示出了被配置用于本技术的方面的示例货物载具。
图2A是根据本技术的方面的示例载具的系统的框图。
图2B至图2C是根据本技术的方面的示例货物类型载具的系统的框图。
图3示出了根据本公开的方面的载具周围的区域的示例。
图4示出了根据本公开的方面的示例传感器视场。
图5示出了根据本公开的方面的示例周界相机视场。
图6A至图6C示出了根据本公开的方面的周界相机和红外照明器的示例布置。
图7A至图7F示出了根据本公开的方面的示例周界传感器壳体组件。
图8示出了根据本公开的方面的用于最小化遮挡的示例传感器布置。
图9示出了根据本公开的方面的周界传感器视场的示例。
图10示出了根据本技术的方面的示例遮挡场景。
图11A至图11C示出了根据本公开的方面的示例周界传感器壳体组件。
图12示出了根据本公开的方面的用于最小化遮挡的示例传感器布置。
图13示出了根据本公开的方面的周界传感器视场的示例。
图14A至图14E示出了根据本公开的方面的另一示例周界传感器壳体组件。
图15示出了图14A至图14E的周界传感器壳体组件的变型。
图16A至图16E示出了根据本公开的方面的又一示例周界传感器壳体组件。
图17示出了图16A至图16E的周界传感器壳体组件的变型。
图18示出了根据本公开的方面的操作方法。
具体实施方式
本技术的方面涉及近距离感测(close-in sensing,CIS)相机系统,以解决载具周围的盲点。CIS系统被用于帮助对载具几米(例如,小于3米)内检测到的对象进行分类。基于对象分类,系统能够在可能是“可驾驶”(载具可以驶过的事物)与“不可驾驶”的对象之间进行区分。举例来说,可驾驶对象可以是植物、一堆树叶、纸或塑料袋等。而不可驾驶的对象可包括必须避开的那些类型的对象(例如,行人、骑自行车的人、宠物等)或者如果驶过可能损坏载具的那些类型的对象(例如,高路缘、碎玻璃、深坑洞、消防栓等)。在一种场景下,通过采用相机结合激光雷达传感器来增强分类。当试图确定载具旁边是否有人时,这可能非常重要。相机可以各自包括一个或多个图像传感器。图像传感器可以是CMOS传感器,尽管也可以采用CCD或其他类型的成像元件。
本技术的其他方面涉及单个传感器壳体中的多个传感器的布置和配置。如以下进一步讨论的,将不同传感器类型共同定位在同一壳体中是有优势的,例如有助于传感器融合。然而,传感器的定位可能非常重要,例如以避免一个传感器被另一传感器遮挡,以确保传感器之间的校准更加精确,和/或另外地为了防止传感器之间的干扰。举例来说,诸如红外(IR)或光学照明器的照明器应当被布置为避免其光直接地照射到相机(例如,对IR光敏感的相机)的透镜中。
示例载具系统
图1A示出了乘用载具100——诸如面包车、轿车或运动型多用途车——的透视图。图1B示出了乘用载具100的俯视图。乘用载具100可以包括用于获得关于载具外部环境的信息的各种传感器。例如,顶棚(roof top)壳体102可以包括激光雷达传感器以及各种相机、雷达单元、红外和/或声学传感器。定位在载具100前端的壳体104以及定位在载具驾驶员侧和乘客侧的壳体106a、106b可以各自包含激光雷达和/或其他传感器。例如,壳体106a可以沿着载具的侧围板(quarter panel)定位在驾驶员侧车门的前面。如所示的,乘用载具100还包括用于雷达单元、激光雷达和/或相机的壳体108a、108b,其也朝向载具的后顶部分定位。其他壳体110a、110b可以沿着后侧围板定位,例如在后轮的后上方。
附加的激光雷达、雷达单元和/或相机(未示出)可以定位在沿着载具100的其他位置。例如,箭头112指示传感器单元(图1B中的112)可以沿着载具100的后部定位,诸如在保险杠或行李箱门/盖上或与之相邻。箭头114指示沿着载具的前向方向布置的一系列传感器单元116。虽然被单独地示出,但是在一个示例中,传感器单元116可以集成到顶棚壳体102的面向前方的部分中。在一些示例中,乘用载具100还可以包括用于获得关于载具内部空间的信息的各种传感器。内部传感器可以包括相机传感器、听觉传感器和红外传感器中的至少一个。
取决于载具类型和配置,可在载具周围设置更多或更少的传感器壳体。例如,如图1C的示例载具150所示地,类似于载具100,可能存在顶棚传感器壳体152、前传感器壳体154、沿着前侧围板的侧壳体156a和156b、沿着后侧围板的侧壳体158以及由箭头160指示的后传感器壳体。虽然本公开的某些方面可能对于特定类型的载具特别有用,但是载具可以是任何类型的载具,包括但不限于汽车、卡车、摩托车、公共汽车、休闲车等。
图1D至图1E示出了示例货物载具170,诸如半挂卡车(tractor-trailer truck)。卡车可以包括例如单拖车、双拖车或三拖车,或者可以是另外的中型或重载卡车,例如商业重量等级4至8。如所示的,卡车包括牵引车单元172和单个载货单元或拖车174。取决于要运输的货物类型,拖车174可以是完全封闭的、开放的(诸如平板)或部分开放的。在该示例中,牵引车单元172包括引擎和转向系统(未示出)以及用于驾驶员和任何乘客的驾驶室(cab)176。
拖车174包括被称为主销178的挂接点。主销178通常形成为实心钢轴,其被配置为枢转地附接到牵引车单元172。特别地,主销178附接到安装在驾驶室后部的被称为接轮(fifth-wheel)的拖车联结器(coupling)180。对于双挂拖车或三挂拖车,第二和/或第三拖车可以具有到引领拖车的简单的挂接连接。或者,替选地,每个拖车可以具有其自己的主销。在这种情况下,至少第一和第二拖车可以包括被布置为联结到下一个拖车的接轮结构。
如所示的,牵引车可以具有沿其设置的一个或多个传感器单元182、184和/或186。例如,一个或多个传感器单元182可设置在驾驶室176的顶部或上部,一个或多个侧面传感器单元184可设置在驾驶室176的左侧和/或右侧。传感器单元也可以沿着驾驶室176的其他区域定位,诸如沿着前保险杠或机盖(hood)区域、在驾驶室的后部、与接轮相邻、在底盘(chassis)下方等。拖车174还可以具有沿着其设置,例如沿着拖车174的侧板、前部、后部、顶部和/或底架(undercarriage)设置的一个或多个传感器单元186。
如同图1A至图1B的乘用载具的传感器单元一样,货物载具的每个传感器单元可以包括一个或多个传感器,诸如激光雷达、雷达、相机(例如,光学或红外)、声学(例如,麦克风或声纳类型传感器)、惯性(例如,加速度计、陀螺仪等)或其他传感器(例如,诸如GPS传感器的定位传感器)。虽然本公开的某些方面可能对于特定类型的载具特别地有用,但是载具可以是任何类型的载具,包括但不限于汽车、卡车、摩托车、公共汽车、休闲车等。
图2A示出了框图200,该框图200具有被配置为以完全自主或半自主操作模式进行操作的示例性载具(诸如载具100和150)的各种部件和系统。举例来说,对于在部分或完全自主驾驶模式下操作的载具,可能出现不同程度的自主。美国国家公路交通安全管理局和汽车工程师协会已经标识了不同的级别来指示载具控制驾驶的多少程度。例如,级别0不具有自动化并且驾驶员做出所有与驾驶相关的决策。最低的半自主模式,级别1,包括一些驾驶辅助,诸如巡航控制。级别2具有某些驾驶操作的部分自动化,而级别3涉及有条件的自动化,其可以使驾驶员座位上的人能够根据需要采取控制。相比之下,级别4是高自动化级别,其中载具能够在选择的条件下在没有辅助的情况下驾驶。级别5是完全自主模式,其中载具能够在所有情形下在没有辅助的情况下行驶。本文描述的架构、部件、系统和方法可以在被称为“自主”驾驶模式的半自主或完全自主模式(例如级别1-5)中的任何一种中工作。因此,对自主驾驶模式的指代包括部分自主和完全自主两者。
如图2所示,框图200包括一个或多个计算设备202,诸如包含一个或多个处理器204、存储器206和通常存在于通用计算设备中的其他部件的计算设备。存储器206存储一个或多个处理器204可访问的信息,包括可由处理器204执行或以其他方式使用的指令208和数据210。当在自主模式下操作时,计算系统可以控制载具的整体操作。
存储器206存储处理器204可访问的信息,包括可由处理器204执行或以其他方式使用的指令208和数据210。存储器206可以是能够存储处理器可访问的信息的任何类型,包括计算设备可读介质。存储器是诸如硬驱动、存储卡、光盘、固态盘等的非暂时性介质。系统可以包括前述的不同组合,由此指令和数据的不同部分被存储在不同类型的介质上。
指令208可以是由处理器直接地(诸如机器代码)或间接地(诸如脚本)执行的任何指令集。例如,指令可以作为计算设备代码存储在计算设备可读介质上。在这点上,术语“指令”、“模块”和“程序”在本文中可以互换使用。数据210可以由一个或多个处理器304根据指令208来检索、存储或修改。在一个示例中,存储器206的一些或所有可以是事件数据记录器或其他安全数据存储系统,其被配置为存储:载具诊断、检测到的传感器数据和/或结合对象检测和分类使用的一个或多个行为/分类模型;其可以在载具上或是远程的,这取决于实施方式。例如,模型可以被用于对下述进行分类:对象是人(例如,行人)、自行车、球还是与载具相邻的施工标志。基于该分类,系统可以预测或分配针对该对象的行为,并且在做出驾驶相关决策时使用该分类/行为。例如,这可以包括警告载具旁边的行人该载具已发动并且计划离开停车点。
处理器204可以是任何传统的处理器,诸如市场上可获得的CPU。替选地,每个处理器可以是专用设备,诸如ASIC或其他基于硬件的处理器。尽管图2在功能上将计算设备202的处理器、存储器和其他元件示为在同一框内,但是这样的设备实际上可以包括多个处理器、计算设备或存储器,其可以存放在也可以不存放在同一物理壳体内。类似地,存储器206可以是位于不同于处理器204的壳体中的硬驱动或其他存储介质。因此,对处理器或计算设备的引用将被理解为包括对可以或不可以并行操作的处理器或计算设备或存储器的集合的引用。
在一个示例中,计算设备202可以形成被包含到载具中的自主驾驶计算系统。自主驾驶计算系统可能够与载具的各种部件通信。例如,计算设备202可以与包括驾驶系统的载具的各种系统通信,该驾驶系统包括减速系统212(用于控制载具的制动)、加速系统214(用于控制载具的加速)、转向系统216(用于控制车轮的取向和载具的方向)、信号系统218(用于控制转向信号)、导航系统220(用于将载具导航到某一地点或对象周围)和定位系统222(用于确定载具的位置)。根据导航系统220和定位系统222,自主驾驶计算系统可以部分地作为规划器操作,例如,用于确定从起点到目的地的路线。
计算设备202还可操作地耦合到感知系统224(用于检测载具环境中的对象)、动力系统226(例如,电池和/或汽油或柴油驱动的引擎)和传动系统230,以便在自主驾驶模式下根据存储器206的指令208控制载具的运动、速度等,该自主驾驶模式不要求或不需要来自载具乘客的连续的或周期的输入。车轮/轮胎228中的一些或所有耦合到传动系统230,并且计算设备202可能够接收关于轮胎压力、平衡和可能影响自主模式下驾驶的其他因素的信息。动力系统226可以具有一个或多个动力分配元件,一个或多个动力分配元件中的每个可能够向载具的所选择的部件和其他系统供给动力。
计算设备202可以通过控制各种部件来控制载具的方向和速度。举例来说,计算设备202可以使用来自地图信息和导航系统220的数据完全自主地将载具导航到目的地位置。计算设备202可使用定位系统222来确定载具的位置,以及使用感知系统224来检测对象并且在需要时针对对象做出响应以安全到达该位置。为此,计算设备202可以使载具加速(例如,通过由加速系统214增加提供给引擎的燃料或其他能量)、减速(例如,通过减少供给到引擎的燃料、改变档位和/或通过减速系统212施加制动)、改变方向(例如,通过由转向系统216转动载具的前轮或其他车轮),以及对这种改变发出信号(例如,通过点亮信号系统218的转向信号)。因此,加速系统214和减速系统212可以是包括载具引擎和载具的车轮之间的各种部件的动力传动或其他类型的传动系统230的一部分。再次地,通过控制这些系统,计算设备202还可以控制载具的传动系统230,以便自主地操纵载具。
导航系统220可以由计算设备202使用,以便确定路线并且沿着路线到达位置。在这点上,导航系统220和/或存储器206可以存储地图信息,例如计算设备202可以使用其来导航或控制载具的高度详细的地图。例如,这些地图可以标识道路的形状和高程、车道标志、十字路口、人行横道、限速、交通信号灯、建筑物、标志、实时交通信息、植被或其他这样的对象和信息。车道标志可以包括诸如实线或虚线的双车道线或单车道线、实线或虚线的车道线、反射器等特征。给定的车道可以与左和/或右车道线或定义车道边界的其他车道标志相关联。因此,大多数车道可由一个车道线的左边缘和另一车道线的右边缘界定。
感知系统224包括用于检测载具外部的对象的传感器单元。检测到的对象可以是其他载具、道路上的障碍物、交通信号、标志、树木、行人、骑自行车的人等。如以下进一步讨论的,外部传感器套件232包括各种壳体,每个壳体具有一个或多个传感器以检测载具外部环境中的对象和状况。并且内部传感器套件234可以采用一个或多个其他传感器来检测载具内的对象和状况,诸如乘客车厢中的乘客、宠物和行李,行李箱区域中的行李或其他货物等。对于外部传感器套件232和内部传感器套件234,具有不同传感器的壳体被布置在载具周围,以便不仅在各种环境状况下提供对象检测,而且还使得能够对检测到的对象进行快速分类。这允许载具做出有效的实时驾驶决策。
当感知系统224生成数据时,来自传感器的原始数据和前述特性可以被感知系统224处理和/或被周期性地和连续地发送到计算设备202以供进一步处理。计算设备202可以使用定位系统222来确定载具的位置,以及使用感知系统224来检测对象并且在需要时针对对象做出响应以安全到达位置。另外,计算设备202可以执行个体传感器、特定传感器组件(壳体)中的所有传感器、或者不同传感器组件或其他物理壳体中的传感器之间的校准。
在一个示例中,外部传感器壳体可以被布置为集成到载具上的侧视镜中的传感器塔。在另一示例中,其他传感器可以是顶棚壳体102或152的一部分,或者是如图1A至图1C所示的其他壳体的一部分。计算设备202可以与位于载具上或者以其他方式沿着载具分布的传感器组件通信。每个组件可以具有一个或多个类型的传感器,诸如以上描述的那些。
回到图2,计算设备202可以包括通常与计算设备结合使用的所有部件,诸如上述处理器和存储器以及用户接口子系统236。用户接口子系统236可以包括一个或多个用户输入238(例如,鼠标、键盘、触摸屏和/或麦克风)以及一个或多个显示设备240(例如,具有屏幕的监视器或可操作以显示信息的任何其他电子设备)。在这点上,内部电子显示器可以位于载具的驾驶室内(未示出),并且可以由计算设备202使用来向载具内的乘客提供信息。诸如扬声器242的其他输出设备和诸如触摸屏或按钮的输入设备244也可以位于乘用载具内。
载具还包括通信系统246。例如,通信系统246还可包括一个或多个无线网络连接以便于与其他计算设备(诸如载具内的乘客计算设备)以及载具外部的计算装置(诸如道路上的另一附近载具或远程服务器系统)通信。网络连接可以包括短程通信协议(诸如蓝牙TM、蓝牙TM低功耗(LE)、蜂窝连接)以及各种配置和协议,包括因特网、万维网、内联网、虚拟专用网、广域网、局域网、使用一个或多个公司专有的通信协议的私有网络、以太网、WiFi和HTTP,以及前述的各种组合。
图2B示出了具有载具(例如,图1D至图1E的载具170)的各种部件和系统的框图250。举例来说,载具可以是卡车、农用设备或建筑设备,其被配置为以一种或多种部分自主操作模式进行操作。如框图250所示,载具包括与上述类似的一个或多个的计算设备的控制系统,诸如包含一个或多个处理器204’和存储器206’的计算设备202’,存储器206’存储指令208’和数据210’,诸如载具诊断、检测到的传感器数据和/或与对象检测和分类结合使用的一个或多个行为/分类模型。在该示例中,控制系统可以构成货物载具的牵引车单元的电子控制单元(ECU)。
在一个示例中,计算设备可以形成被包含在载具170中的驾驶计算系统。类似于上面关于图2A讨论的布置,框图250的驾驶计算系统可能够与载具的各种部件通信,以便执行驾驶操作。例如,计算设备202’可以与载具的各种系统通信,诸如包括减速系统212’、加速系统214’、转向系统216’、信号系统218’、导航系统220’和定位系统222’的驾驶系统,其中的每个可以如上面关于图2A所讨论的那样工作。
计算设备302还可操作地耦合到感知系统224’、动力系统226’和传动系统230’。车轮/轮胎228’中的一些或所有联结到传动系统230’,并且计算设备202’可能够接收关于轮胎压力、平衡、转速和可能影响驾驶的其他因素的信息。如同计算设备202一样,计算设备202’可以通过控制各种部件来控制载具的方向和速度。举例来说,计算设备202’可以使用来自地图信息和导航系统220’的数据来帮助将载具导航到目的地位置。
类似于感知系统224,感知系统224’也包括一个或多个传感器或其它部件,诸如以上描述的用于检测载具外部的对象、载具内部的对象或状况、和/或诸如车轮和减速系统212’的某些载具设备的操作的部件。例如,如图2B所示,感知系统224’包括一个或多个传感器组件252。每个传感器组件252包括一个或多个传感器。在一个示例中,传感器组件252可以被布置为集成到卡车、农用设备、建筑设备等的侧视镜中的传感器塔。传感器组件252也可以位于牵引车单元172或拖车174上的不同位置,如以上参考图1D至图1E所提到的。计算设备202’可以与位于牵引车单元172和拖车174两者上的传感器组件通信。每个组件可以具有诸如以上描述的一种或多种类型的传感器。
图2B中还示出了用于牵引车单元和拖车之间连接的联结系统254。联结系统254可以包括一个或多个动力和/或气动连接(未示出),以及牵引车单元处的、用于连接至拖车处的主销的接轮256。等同于通信系统246的通信系统246’也被示为载具系统250的一部分。类似地,也可以包括等同于用户接口236的用户接口236’,用于与载具的驾驶员和任何乘客的交互。
图2C示出了诸如图1D至图1E的拖车174的拖车的系统的示例框图260。如所示的,该系统包括一个或多个计算设备的ECU 262,计算设备诸如包含一个或多个处理器264、存储器266和通常存在于通用计算设备中的其他部件的计算设备。存储器266存储一个或多个处理器264可访问的信息,包括处理器264可以执行或以其他方式使用的指令268和数据270。对来自图2A至图2B的处理器、存储器、指令和数据的描述适用于图2C的这些元件。
ECU 262被配置为从拖车单元接收信息和控制信号。ECU 262的车载处理器264可以与拖车的各种系统通信,包括减速系统272、信号系统274和定位系统276。ECU 262也可以可操作地耦合到具有用于检测拖车环境中的对象的一个或多个传感器的感知系统278和用于向本地部件供电的动力系统280(例如,电池电源)。拖车的车轮/轮胎282中的一些或所有可以联结到减速系统272,并且处理器264可能够接收关于轮胎压力、平衡、车轮速度和其他可能影响自主模式下驾驶的因素的信息,并且将该信息转发到牵引车单元的处理系统。减速系统272、信号系统274、定位系统276、感知系统278、动力系统280和车轮/轮胎282以及传感器组件284可以按照以上关于图2A至图2B所描述的方式进行操作。
拖车还包括一组支腿(landing gear)286以及联结系统288。当从牵引车单元解联结时,支腿为拖车提供支撑结构。可以是联结系统254的一部分的联结系统288提供拖车和牵引车单元之间的连接。因此,联接系统288可以包括连接部分290(例如,用于动力和/或气动链接)。联结系统还包括主销292,其被配置用于与牵引车单元的接轮的连接。
示例实施方式
鉴于以上描述的并且在附图中示出的结构和配置,现在将根据该技术的方面来描述各种实施方式。
载具周围的环境可以被视为具有不同的象限或区域。在图3中示出了一个示例300,其示出了载具周围的前、后、右侧和左侧区域,以及右前、左前、右后和左后区域的相邻区域。这些区域仅仅是示例性的。载具的感知系统可以覆盖载具周围的区域中的一些或全部,以提供尽可能多的关于载具的外部环境中的对象的信息。
例如,各种传感器可以位于载具周围的不同地方(参见图1A至图1C),以从这些区域中的一些或全部收集数据。举例来说,图1的三个传感器116可以主要接收来自载具周围的前、左前和右前区域的数据。相比之下,顶棚壳体102可以包括其他传感器,诸如多个相机和/或旋转激光雷达或雷达传感器,以提供载具周围的360°视场(FOV)。
某些传感器可以具有不同的视场,这取决于其在载具周围的摆放以及其被设计来收集的信息类型。例如,不同的激光雷达传感器可以用于与载具相邻(例如,小于2-10米)的对象的近(短程)检测,而其他传感器可以用于载具前方100米(或者更多或更少)的对象的远(长程)检测。也可以使用中程激光雷达,例如,检测距离载具10-100米之间的对象。多个雷达单元可以朝向载具的前、后和/或侧面定位,用于短程或长程对象检测。相机可以被布置为在载具周围提供良好的可视性。取决于配置,某些传感器壳体可以包括具有重叠视场的多个个体传感器。替选地,其他传感器可以提供冗余的360°视场。
图4提供了与图1A至图1B中所示的传感器相关的传感器视场的一个示例400。这里,如果顶棚壳体102包括激光雷达传感器以及各种相机、雷达单元、红外和/或声学传感器,则这些传感器中的每个可以具有不同的视场。因此,如所示的,激光雷达传感器可以提供360°FOV 402,而布置在壳体102内的相机可以具有例如覆盖如图3所示的载具周围的一个或多个区域的单独的FOV 404。位于载具前端的壳体104内的传感器具有前向FOV 406。载具的驾驶员侧和乘客侧的壳体106a、106b可以各自包含激光雷达、雷达、相机和/或其他传感器。例如,壳体106a和106b内的激光雷达可以具有各自的FOV 406a和406b,而壳体106a和106b内的雷达单元、相机和/或其他传感器可以具有各自的FOV 407a和407b。类似地,朝向载具后顶部分定位的壳体108a、108b内的传感器各自具有相应的FOV。例如,壳体108a和108b内的激光雷达可以具有相应的FOV 408a和408b,而壳体108a和108b内的雷达单元、相机和/或其他传感器可以具有相应的FOV 409a和409b。朝向载具后部的壳体110a和110b中的传感器可以具有相应的视场410a和410b。在后端的壳体112内的传感器可以具有后向FOV412。并且沿着载具的前向方向布置的一系列传感器单元116可以具有相应的FOV 414、416和418。这些视场中的每个仅仅是示例性的,并且在覆盖范围方面不是成比例的。尽管仅示出了一个或两个FOV与给定的传感器壳体相关联,但是取决于传感器的数量及其配置,更多(或更少)的视场可以与该传感器壳体相关联。
如以下进一步讨论的,在同一壳体中并置(collocate)不同类型的传感器可以提供增强的对象检测,并且使车载系统能够快速地分类检测到的对象。并置的传感器可以是相同或基本上重叠的视场,或者另外提供互补的视场。
示例场景
相机、激光雷达、雷达和/或其他传感器子系统的高程和取向将取决于载具上各种壳体的摆放以及载具的类型。例如,如果传感器壳体安装在大型SUV(例如,载具100)的车顶上或上方,则高程通常会高于壳体安装在轿车或跑车(例如,载具150)的车顶上时的高程。另外,由于摆放和结构的限制,可视性可能并不是对于载具的所有区域都是相等的。通过改变在载具上的摆放,可以为每个壳体中的传感器获得合适的视场。这对于检测紧邻载具的对象(例如,距离载具在1-2米内或不超过3米)以及距离载具较远的对象非常重要。在各种情况下,可能需要检测相邻的和远处的对象,诸如在驶出停车位之前检查紧邻的附近,确定是否进行无保护的左转等。
近距离感测相机系统
鉴于上述情况,本技术的各方面提供了一种近距离感测相机系统,作为用于载具阈值距离内的对象的传感器套件的一部分。该相机系统被设计为防止在自动驾驶系统不能在载具一定距离内的可驾驶对象和不可驾驶对象之间进行区分的情况下,载具被卡住(当不移动时)或笨拙地行动。举例来说,近距离感测相机系统被配置为提供载具的阈值距离(例如,不超过例如6-10米的阈值距离)内的对象的传感器信息。在一些情况下,阈值距离可以是离载具不超过2-3米。该信息被用来帮助检测和分类对象,诸如站在载具旁边的行人、停在载具附近的自行车或摩托车以及可能在附近区域的球、施工标志或其他对象。
激光雷达传感器可以布置在载具周围,以最小化盲点并且检测对象。这样的传感器非常能够检测对象的存在。然而,来自激光雷达的传感器数据(例如,激光雷达点云)本身可能不足以使自动驾驶系统确定存在哪种对象。当不清楚附近是什么类型的对象时,载具可以采取保守行为,诸如等待几分钟以观察载具周围、按喇叭、闪烁灯等,以观察对象如何进行反应;或者后退或慢慢向前移动,以获得对周围的更清晰的图像。然而,这可能无法提供关于该对象的额外有用信息,并且可能刺激乘客、附近的行人和其他道路使用者或对其造成困扰。
因此,根据本技术的一个方面,一个或多个相机可以与激光雷达传感器一起布置在单个传感器壳体中,以实现对象的快速分类,例如确定其是行人、自行车还是交通锥。相机视场可以包含激光雷达视场,并且在某些示例中可以大于激光雷达视场。这可以采用具有互补的或以其他方式重叠的视场的一个或多个相机来实现。举例来说,人可能正站在或坐在载具旁边。这可能发生在例如当人离开载具时、人从附近停放的汽车后面出现时、或者人在载具启动或准备离开停车位之前已经处于盲点中时。这种相机系统有益的其他场景包括无保护转向、高速变道、迎面而来的车流(traffic)被其他对象遮挡、低安装的计量灯(诸如在高速公路的入口匝道处)、识别路锥和其他施工项目以及检测小的异物碎片(FOD)。
检测到的对象的分类可以包括确定检测到的对象的尺寸、接近度和取向。系统被配置为使得相机能够看到感兴趣的对象所占据的最小阈值体积(例如,长方体或其他3D形状的至少50%)。在一个示例中,近距离感测系统的每个相机与配套的激光雷达传感器共同定位。例如,相机可以距离激光雷达传感器不超过1英尺或0.3米例如以避免视差。相机可以使用与激光雷达相同的支架或壳体安装到载具上,或者它们可以分离地安装。在一般操作中,系统FOV应当提供载具周围的360°视场直到3米远处。
相机分辨率应当足以满足基于最小像素数量的阈值分类。举例来说,一个分类阈值可以是下述能力:当对象在载具的3米内时,使用不超过32-64个像素对所选择的长方体形状的特定对象进行分类。或者,替选地,阈值分类可以需要具有分辨率要求在0.10.4mrad/像素之间的相机。阈值分类要求可以变化,例如取决于对象和场景的类型(例如,是否存在成人或儿童站在或坐在载具旁边,是否存在骑摩托车的人从载具后面超过100米远处接近等)。
如图5的示例500所示,相机可以提供不同的并且可能重叠的覆盖区。在该示例中,可以采用多达8个(或更多个)相机来提供前向、侧向和后向FOV。举例来说,FOV 502a和502b包含载具周围的左前和右前区域的部分。FOV 504a和504b与FOV 502a和502b重叠,提供了沿着前、左前和右前区域的附加覆盖。FOV 506在载具的前方区域提供覆盖。FOV 508a和508b提供面向载具后方的覆盖,例如,沿着左/右区域和左后和右后区域。并且FOV510提供沿着载具后方区域的覆盖。
相机可能需要在所有环境照明情况下工作。这样,不同的相机可依赖于来自载具源的照明(例如,前灯、停车灯、倒车灯、行车灯)和环境源的照明(例如,其他载具、街灯等)。替选地或附加地,IR和/或光学的光照明器可以被布置为向相机提供照明。例如,一个或多个照明器可以布置为邻近传感器壳体上的相机。
举例来说,具有前向和后向FOV的相机可以不需要单独的照明,因为前灯和刹车灯或倒车灯在一些场景下可以提供足够的灯光。然而,在弱光条件下,具有侧FOV的相机可能需要补充照明。这种补充灯光可以通过放置在相机附近的近红外(NIR)发射器来提供。如下面进一步讨论的,在一个配置中,一对“鞍形”照明器模块(例如NIR模块)可以被用在相机的两侧(either side),其中,每个照明器模块补偿另一个模块的遮挡。替选地,可以使用单个单片照明器模块。
图6A至图6C示出了示例性的相机和照明器配置。具体地,图6A示出了第一配置600,其中,照明器被设置在相应相机的侧面。这里,示出了载具周围的四个相机,分别为前向相机602、后向相机604以及左侧向相机606a和右侧向相机606b。如所示的,一对照明器608a和608b布置在前相机602的两侧。类似地,一对鞍形照明器610a和610b被布置在后相机604的两侧。然而,在替选的配置中,可以仅将一个照明器布置在前相机602和/或后相机604的侧方。侧相机606a和606b被示出为各自都具有设置在其侧方的相应的照明器612a、612b。在这些示例中,照明器612定位在侧相机606的后方。这里,侧相机606可以接收来自前照明器608a和608b的一些照明,这可以补充来自照明器612a、612b的IR照明。
图6B示出了第二配置650,其中,单个照明器设置在相应的相机上方。与图6A一样,示出了载具周围的四个相机,分别是前向相机652、后向相机654以及左侧向相机656a和右侧向相机656b。如所示的,照明器658设置在前相机652上方。类似地,照明器660设置在后相机654上方。侧相机656a和656b被示为各自具有设置在其上方的相应的照明器662a、662b。在替选的配置中,照明器可以设置在相应的相机下方。在又一示例中,发射器可以放置在载具周围的、不与相机共同定位的其他位置,诸如沿着车顶。例如,放在车顶上的照明器可以被用于对针对载具的给定侧的相机的整个视场进行照明。
在这些示例中,单个照明器模块可以放置在相机的任一侧。然而,所投射的光的一部分可能存在一些量的遮挡。例如,在具有在相机一侧的单个照明器模块的情况下,在相机的另一侧可能存在大量的光遮挡,这在弱光情况下可能是不利的。在具有在相机上方的单个模块的情况,为了减少遮挡,这可能需要将模块向上和向前移出相机。在载具周围的一些位置(例如在前部和后部,但又在载具的侧面),可能存在关于载具宽度的约束和对其他侧面传感器的潜在影响。并且在具有在相机下方的单个模块的情况下,向上的照明可能由于遮挡而减少。这可能会影响传感器套件对诸如站在载具旁边的人的附近对象的分类能力。因此,期望将照明器模块放置在相对应的相机的视场最小的地方,因为这降低了视场遮挡的可能性。在垂直视场小于水平视场的情况下,将照明器放置在相机的顶部和/或下方可能是合适的。然而,由于针对传感器套件、载具尺寸等的其他约束,这在某些情况下可能是不可能的。
有鉴于此,图6C示出了第三配置680,其中,成对的照明器设置在每个相应相机的两侧。与图6A至图6B一样,示出了在载具周围的四个相机,分别为前向相机682、后向相机684以及左侧向相机686a和右侧向相机686b。如所示的,一对照明器688a和688b布置在前相机602的两侧。类似地,一对鞍形IR照明器690a和690b布置在后相机684的两侧。在该示例中,侧相机686a和686b被示出为各自具有设置在其两侧的相应的一对照明器692a、692b或694a、694b。这种布置有助于最小化当仅一个照明器模块放置在相对应的相机的侧方、顶部或底部时可能发生的遮挡。下面讨论的图7F示出了用于每个相机682、684和686的一对侧照明器的一个布置。
在这些配置的任何一个中,相机透镜可以有疏水涂层来对水进行排斥。并且相机可以沿着载具的外部放置,以便使用车载清洁系统容易地清洁透镜。这些特征将在下面进一步讨论。
周界传感器壳体
根据本技术的方面,具有包括多个不同的传感器(例如,激光雷达、相机、雷达等)的集成传感器组件的壳体可以沿着载具在各种位置定位。图1A至图1C示出了用于这种集成传感器组件的示例性壳体放置。如上所述,每个位置提供了来自其具有特定的视场的传感器的对载具周围的特定覆盖。每个传感器沿着壳体以及相对于其他传感器的布置是重要的,因为对于不同的布置可能存在显著的好处(或缺点)。传感器壳体中的一个或多个可以具有如上所述的近距离感测相机组件。下面讨论几个示例。
在图7A所示的第一示例中,传感器套件布置在驾驶员或乘客侧车门的前方沿着载具的左侧或右侧的侧周界壳体中。具体地,图7A示出了下述视图,该视图示出沿着左前侧围板的第一壳体700a和沿着右前侧围板的第二壳体700b。壳体700b可以是壳体700a的镜像。图7B至图7F示出了侧周界壳体700的各种视图。如图7B的透视图和图7C的前视图所示,侧周界壳体700中的传感器的套件包括激光雷达单元702、近距离感测相机组件704、雷达单元706、前向周界视图相机708和侧向周界视图相机710。
如图7B至图7C所示,雷达单元706设置在一侧的前向相机和侧向相机与另一侧的激光雷达和近距离感测相机组件之间。雷达单元与对准的激光雷达和近距离感测相机组件之间的分离避免了干扰和潜在的遮挡。
近距离感测相机组件704设置在激光雷达单元702下方,例如,以使得能够进行对象分类以对激光雷达单元的对象检测进行补充。虽然被示为在激光雷达单元702下方对准,但是近距离感测相机组件704的相机也可以定位在激光雷达单元702的大约0.25-0.4m内的任何地方。为了避免可能不利地影响图像分类的视差,相机应当尽可能地靠近激光雷达单元,而不在传感器之间创造遮挡。并且尽管被示出为在激光雷达单元702下方对准,但是近距离感测相机组件704的相机可以被设置在激光雷达单元702上方。任一布置都最小化遮挡和视差的可能性。壳体单元的空间约束和/或载具的总体尺寸也可能限制传感器相对于彼此的放置。
分别地如图7D和图7E的左侧视图和右侧视图所示,在激光雷达单元702和近距离感测相机组件704之间存在分离表面712。分离表面可以以向下倾斜的角度布置。向外倾斜的表面允许水、雪等滑离,这使得传感器被阻碍或遮挡的可能性最小化。由于激光雷达传感器可能在其正下方(immediately beneath)具有有限的视野,因此将相机组件直接对准激光雷达下方有助于对潜在的激光雷达遮挡的对象进行对象检测。例如,如侧视图所示,近距离感测相机组件704向下成角度以覆盖载具周围的紧邻附近。
图7F的放大图示出了组件704包括相机714、一对照明器模块716a和716b以及一组清洁机构718a、718b和718c。可以包括从壳体表面延伸的延伸部720,以确保没有光泄漏到相机714的透镜中。每个模块716a和716b可以包括一个或多个次级透镜722,其可以用于将光,例如IR光,沿着一个或多个期望的区域聚焦。举例来说,这些次级透镜722可以增加照明器模块的视场宽度。清洁机构718可以包括液体和/或压缩空气喷洒,以清洁相机和/或照明器模块。替选地或附加地,可以使用一个或多个擦拭器(未示出)来保持透镜清洁。
图8示出了示例遮挡场景800。虽然激光雷达传感器可以具有例如180°的宽覆盖方位角,但是如图所示,它可以具有在激光雷达传感器下方的紧邻载具的遮挡区域802,其被示出为阴影三角形区域。因为近距离感测相机组件被配置为对由激光雷达传感器获得的感知信息进行补充并且被配置为向下成角度,所以其能够减轻激光雷达传感器的遮挡区域802。例如,如果存在与前轮胎相邻的对象,则近距离感测相机组件的相机被配置为对其进行检测,如阴影区域内的线性元素804所示。虽然相机可能无法看到载具侧面几厘米内,但相机可以被定位为使得载具附近的对象至少50%可见。在一个示例中,相机可以具有170-200°量级的方位角视场。
回到图7B,如上所述,在示例性侧周界壳体700中存在前向周界视图相机708和侧向周界视图相机710。这些相机被配置为提供具有如图9的示例900所示的最小方位角覆盖的前图像和侧图像。例如,侧向相机710可以被配置为提供载具的侧面的最小+/-15°的FOV902,尽管其可以提供高达+/-30-40°或更多。在一个示例中,可能存在朝向载具后部的为15°的最小FOV904,朝向载具前部的为25-35°的最小FOV 906。前向相机708可以具有10-20°量级的外方位角FOV 908,以及20-40°量级的内方位角FOV 910。在某些情况下,驾驶员侧的前向相机可以比乘客侧的前向相机具有更宽的FOV,例如为左手转向提供增加的可视性。如图7B所示,前向相机708可以被设置为比侧向相机710更高(或更低)。这样做是为了在壳体700内容纳各种传感器单元。
这对相机可以与其他传感器结合使用,以例如在困难的由遮挡交叉口交通和无保护转向场景下改善雷达检测和分类。在一个场景中,相机708和710不是主要用于近距离感测,而是在没有IR照明器的情况下使用环境光。侧向周界视图相机710可以定位在壳体700中尽可能靠前处或载具上的其他位置,以降低载具缓慢进入十字路口或急转向时被遮挡的可能性。前向周界视图相机708也可以位于尽可能靠前处,以更好地观察载具前方的遮挡对象。
图10示出了转向场景1000的遮挡示例。在该场景下,载具1002准备左转,如虚线箭头所示。这里,从载具1002上的传感器中的一个的视场来看,卡车1004或其他对象可以遮挡另一载具1006。例如,安装在车顶的传感器1008可以具有FOV 1010,其在区域1012中被卡车1004部分遮挡。然而,面向周界的相机1014具有能够看到另一载具1006的至少一部分的不同的FOV1016。面向周界的相机在各种各样的其他场景中是有益的,诸如,例如当可能存在迎面而来的车流时在另一载具周围进行操纵,当自主载具后面存在遮挡载具时查看后方相邻车道,当诸如经由高速公路的入口匝道汇入高速交通时。
周界壳体组件的另一示例在图11A至图11C中示出。具体地,图11A至图11B示出了后壳体组件1100,其被示出为在图11C中的轿车或其他载具的后饰带上的示例位置1110处。虽然位置1110被示出在载具的左后侧,但是另一后壳体组件也可以设置在载具的右侧。如图11A至图11B所示,第一传感器1102和第二传感器1104设置在壳体1100中。举例来说,第一传感器1102是雷达传感器,而第二传感器是相机。这些传感器能够提供关于从后方接近的其他载具的信息,例如,用于向右或向左的高速变道。
如图12的示例1200所示,后向周界视图相机被配置为提供具有最小方位角覆盖的后方图像。例如,后向相机1100可以被配置为提供对载具后方的30-60°之间的FOV 1202。举例来说,后向相机可以具有15-35°量级的外方位角(例如,以看到在相邻车道上接近的汽车),以及10-25°量级的内方位角(例如,以看到在同一车道上跟随的载具)。图13示出了场景1300,其示出后向相机能够看到否则将被卡车遮挡的相邻(左)车道中接近的汽车。
在图14A所示的另一示例中,前传感器壳体1400沿着前保险杠或与前保险杠相邻地布置,例如用于检测和分类载具正前方的对象。图14B至图14E示出了前传感器壳体1400的各种视图。如图14B的透视图和图14C的前视图所示,前传感器壳体1400中的传感器套件包括激光雷达单元1402和近距离感测相机组件1404。
近距离感测相机组件1404被设置为在激光雷达单元1402正上方,例如以使得能够进行对象分类以对激光雷达单元的对象检测进行补充。虽然被示出为在激光雷达单元1402上方对准,但是近距离感测相机组件1404的相机也可以定位在激光雷达单元1402的大约0.25-0.4m内的任何地方。为了避免可能不利地影响图像分类的视差,相机应当尽可能地靠近激光雷达单元,而不在传感器之间产生遮挡。虽然被示出为在激光雷达单元1402上方,但是近距离感测相机组件1404的相机可以被设置在激光雷达单元1402下方。任一布置都最小化遮挡。壳体单元的空间约束和/或载具的总体尺寸也可能限制传感器的放置。
如图14D的侧视图所示,在激光雷达单元1402和近距离感测相机组件1404之间存在分离表面1406。分离表面可以以一角度布置,从而例如允许水、雪等滑离,这使得传感器被阻碍或遮挡的可能性最小化。在侧视图中还示出,近距离感测相机组件1404向下成角度,以覆盖载具周围的紧邻附近。图14E的放大图示出了组件1404包括相机1408、一对照明器模块1410a和1410b以及一组清洁机构1412a、1412b和1412c。可以包括从壳体表面延伸的延伸部1414,以确保没有光泄漏到相机1408的透镜中。如所示的,每个模块1410a和1410b可以包括一个或多个次级透镜1416,其可以用于沿着一个或多个期望的区域将光聚焦。清洁机构1412可以包括液体和/或压缩空气喷洒,以清洁相机和/或照明器模块。
图15示出了前传感器壳体1400的变型1500。在该变型中,壳体1500包括激光雷达单元1402和近距离感测相机1502,其省略了IR照明模块和清洁机构。在没有照明的另一变型中,可以包括清洁机构。类似地,在没有清洁机构的又一变型中,可以包括照明。
在图16A所示的另一示例中,后传感器壳体1600沿着后保险杠或与后保险杠相邻布置,例如用于检测和分类载具正后方的对象。图16B至图16E示出了后传感器壳体1600的各种视图。如图16B的透视图和图16C的前视图所示,前传感器壳体1600中的传感器的套件包括激光雷达单元1602和近距离感测相机组件1604。
近距离感测相机组件1604被设置为在激光雷达单元1602正上方,例如以使得能够进行对象分类以对激光雷达单元的对象检测进行补充。虽然被示出为在激光雷达单元1602上方对准,但是近距离感测相机组件1604的相机可以定位在激光雷达单元1602的大约0.25-0.4m内的任何地方。为了避免可能不利地影响图像分类的视差,相机应当尽可能靠近激光雷达单元,而不在传感器之间产生遮挡。虽然被示出为在激光雷达单元1602上方,但是近距离感测相机组件1604的相机可以被设置在激光雷达单元1602下方。任一布置都最小化了遮挡。壳体单元的空间约束和/或载具的总体尺寸也可能限制传感器的放置。
如图16D的侧视图所示,在激光雷达单元1602和近距离感测相机组件1604之间存在分离表面1606。分离表面可以以一角度布置,从而例如允许水、雪等滑离,这使得传感器被阻碍或遮挡的可能性最小化。在侧视图中还示出,近距离感测相机组件1604向下成角度,以覆盖载具周围的紧邻附近。图16E的放大图示出了组件1604包括相机1608、一对照明器模块1610a和1610b以及一组清洁机构1612a、1612b和1612c。可以包括从壳体表面延伸的延伸部1614,以确保没有光泄漏到相机1608的透镜中。如所示的,每个模块1610a和1610b可以包括一个或多个次级透镜1616,其可以用于沿着一个或多个期望的区域将光聚焦。清洁机构1612可以包括液体和/或压缩空气喷洒,以清洁相机和/或照明器模块。
图17示出了前传感器壳体1600的变型1700。在该变型中,壳体1700包括激光雷达单元1602和近距离感测相机1702,其省略了照明模块和清洁机构。在没有照明的另一变型中,可以包括清洁机构。类似地,在没有清洁机构的又一变型中,可以包括照明。
如上所述,各种传感器壳体的近距离感测相机以向下的角度布置。举例来说,它们可以具有20-40°量级的向下角度,以最大化较低的视场覆盖,并且覆盖尽可能多的相对的激光雷达的FOV,因为这些相机改善激光雷达的检测和分类。虽然已经示出了用于近距离感测相机组件和激光雷达单元的共同定位的不同布置,但是通常每个相机相对于其激光雷达单元放置,使得在所有情况下都最小化对激光雷达的遮挡。
传感器清洁对于感知系统的正确、有效操作非常重要。当载具在自主驾驶模式下操作时,存在针对清洁各种传感器的不同选项。例如,清洁系统可以将清洁液喷洒到相机(和IR发射器)上,使用擦拭器和/或吹气器。喷洒或其他清洁单元可以处于相对于传感器的固定位置,或者可以被配置为向外伸缩,以便根据需要清洁该单元。清洁单元应当被布置为避免传感器壳体中的任何传感器被遮挡或者以其他方式影响传感器FOV。例如,清洁机构718、1412和1612的喷洒头被定位为不遮挡相机并且不将光反射回相机。
除了清洁之外,可以对传感器进行护理,例如通过提供热量以消除相机或其他传感器的冷凝或结霜。举例来说,除霜加热器可以沿着每个周界视图相机的前窗元件定位,诸如夹在相机单元的前玻璃和壳体之间的加热元件。
可以使用护罩(shroud)或其他结构来限制灰尘和其他外来对象覆盖传感器。然而,如同清洁元件一样,护罩不应当遮挡传感器或者以其他方式影响其FOV。在相机或照明发射器的情况下,可以向玻璃或塑料遮盖物施加疏水涂层以最小化水分积累。
在选择清洁单元的类型和放置时,应当考虑传感器在壳体内和沿载具的位置。举例来说,可能很难清洁位于侧镜组件中的相机。例如,将液体喷洒到特定的点上可能是有挑战性的,或者对于如何将液体经过载具传送到清洁单元(例如,如果清洁单元位于车门上相对于不在车门上)可能存在限制。可以根据传感器对于自主驾驶的重要性来选择清洁机构的类型。举例来说,前传感器壳体单元的清洁可能比后传感器壳体单元的清洁更关键,因为可以确定的是,关于某些驾驶操作,前方载具的清晰视图比跟随载具的视图更相关。这样,冗余(例如,喷洒系统加擦拭器)清洁模块可以用于更关键的传感器壳体。对于其他传感器壳体,可能不存在冗余的清洁机构。在这种情况下,清洁机构可以仅在特定速度下(例如,低于35-45mph)或当载具静止时被致动,因为与其他传感器壳体相比,清洁可能对时间不太敏感。
图18示出了根据上述特定动作的方法的流程图1800。在框1802,被配置为以自主驾驶模式操作的载具的控制系统启动载具的感知系统的激光雷达传感器的操作,以便获得载具周围区域中阈值距离内的激光雷达数据。例如,阈值距离可以是距离载具1-3米内。在框1804,控制系统在载具执行驾驶动作之前启动感知系统的图像传感器的图像捕获。图像传感器被设置为与激光雷达传感器相邻并且沿着载具布置,以具有阈值距离内载具周围区域的重叠视场。图像传感器提供针对阈值距离内的对象的所选择的分辨率。在块1806,控制系统接收来自激光雷达传感器的激光雷达数据和来自图像传感器的捕获的图像。这可以同时地或顺序地进行。在框1808,控制系统处理激光雷达数据以检测载具阈值距离内的区域中的对象。在块1810,控制系统处理捕获的图像以对检测到的对象进行分类。并且在图块1812,控制系统基于对检测到的对象的分类确定是否使载具的一个或多个系统执行驾驶动作。
除非另有说明,否则前述示例和实施例并不相互排斥,而是可以以各种组合来实施以实现独特的优点。由于在不脱离由权利要求所定义的主题的情况下,可以利用上述特征的这些和其他变化和组合,因此实施例的前述描述应当被视为说明性的,而不是对由权利要求所定义的主题的限制。另外,在此描述的示例的提供,以及措辞为“诸如”、“包括”等的语句,不应当被解释为将权利要求的主题限制到特定的示例或实施例。此外,不同附图中的相同附图标记可以标识相同或相似的元件。这些处理或其他操作可以以不同的顺序或同时地执行,除非在此明确地另外指示。

Claims (23)

1.一种用于被配置为在自主驾驶模式下操作的载具的外部感测模块,所述外部感测模块包括:
激光雷达传感器,沿着所述外部感测模块的第一壳体部分布置,所述激光雷达传感器被配置为检测在载具周围的外部环境的区域中的并且在载具的阈值距离内的对象;
图像传感器,沿着所述外部感测模块的第二壳体部分布置,具有所述图像传感器的所述第二壳体部分与具有所述激光雷达传感器的所述第一壳体部分垂直对准,所述图像传感器沿着载具布置以具有对外部环境的所述区域的不受阻挡的视场,所述图像传感器为载具的所述阈值距离内的对象提供所选择的分辨率以对由所述激光雷达传感器检测到的对象进行分类;以及
所述外部感测模块的第三壳体部分,设置在所述第一壳体部分与所述第二壳体部分之间,所述第三壳体部分包括被布置为防止所述图像传感器和所述激光雷达传感器之间的干扰的外表面。
2.根据权利要求1所述的外部感测模块,其中,所述图像传感器被布置在所述激光雷达传感器上方。
3.根据权利要求1所述的外部感测模块,其中,所述图像传感器被布置在所述激光雷达传感器下方。
4.根据权利要求1所述的外部感测模块,其中,所述图像传感器以相对于载具的侧面向下的角度布置,所述向下的角度为20-40°的量级以提供在载具的所述阈值距离内的覆盖。
5.根据权利要求4所述的外部感测模块,其中,所述阈值距离为距离载具1至3米之间。
6.根据权利要求1所述的外部感测模块,还包括被配置为对所述图像传感器的视场进行照明的一个或多个照明器单元。
7.根据权利要求6所述的外部感测模块,其中,所述一个或多个照明器单元被设置为沿着所述第二壳体部分与所述图像传感器相邻。
8.根据权利要求7所述的外部感测模块,其中,所述一个或多个照明器单元是设置在所述图像传感器两侧的一对照明器。
9.根据权利要求6所述的外部感测模块,还包括清洁机构,所述清洁机构被配置为清洁所述图像传感器和/或所述一个或多个照明器单元。
10.根据权利要求1所述的外部感测模块,还包括沿着所述外部感测模块的第四壳体部分设置的雷达传感器,所述第四壳体部分被布置到所述第一壳体部分和所述第二壳体部分两者的一侧。
11.根据权利要求10所述的外部感测模块,其中,所述第四壳体部分被布置为比第一部分和第二部分更靠近载具的前部。
12.根据权利要求10所述的外部感测模块,还包括沿着所述外部感测模块的第五壳体部分设置的至少一个附加图像传感器,所述第四壳体部分被布置在所述第五壳体部分与所述第一壳体部分和所述第二壳体部分之间。
13.根据权利要求12所述的外部感测模块,其中,所述至少一个附加图像传感器包括给定的附加图像传感器,所述给定的附加图像传感器被设置为与所述雷达传感器大致是平面的并且被布置为提供与沿着所述第二壳体部分布置的图像传感器的视场分离的、沿着载具的侧面的所选择的视场。
14.根据权利要求12所述的外部感测模块,其中,所述至少一个附加图像传感器包括给定的附加图像传感器,所述给定的附加图像传感器被设置为与所述雷达传感器大致垂直并且被布置为提供与沿着所述第二壳体部分布置的所述图像传感器的视场分离的、沿着载具的前部的所选择的视场。
15.根据权利要求12所述的外部感测模块,其中,所述至少一个附加图像传感器包括:
第一附加图像传感器,被设置为与所述雷达传感器大致是平面的并且被布置为提供与沿着所述第二壳体部分布置的所述图像传感器的视场分离的、沿着载具的侧面的所选择的视场;和
第二附加图像传感器,被设置为与所述雷达传感器和所述第一附加图像传感器大致垂直并且被布置为提供与沿着所述第二壳体部分布置的所述图像传感器的视场和所述第一附加图像传感器的所选择的视场分离的、沿着载具的前部的所选择的视场。
16.一种用于被配置为在自主驾驶模式下操作的载具的外部感测模块,所述外部感测模块包括:
雷达传感器,沿着所述外部感测模块的第一壳体部分布置,所述雷达传感器被配置为检测在载具周围的外部环境的区域中的并且在载具的阈值距离内的对象;和
图像传感器,沿着所述外部感测模块的第二壳体部分布置,具有所述图像传感器的所述第二壳体部分与具有所述雷达传感器的所述第一壳体部分相邻,所述图像传感器沿着载具布置以具有对外部环境的所述区域的重叠视场,所述图像传感器为载具的所述阈值距离内的对象提供所选择的分辨率以对由所述雷达传感器检测到的对象进行分类。
17.根据权利要求16所述的外部感测模块,其中,所述外部感测模块沿着载具的后饰带设置,以检测载具后方的对象并且对其进行分类。
18.根据权利要求17所述的外部感测模块,其中,所述图像传感器的视场在沿着载具的后部的30-60°之间。
19.根据权利要求17所述的外部感测模块,其中,所述图像传感器的视场具有15-35°之间的外方位角和10-25°之间的内方位角。
20.根据权利要求17所述的外部感测模块,其中,所述第二壳体部分被设置为比所述第一壳体部分更靠近载具的相邻侧。
21.一种被配置为在自主驾驶模式下操作的载具,所述载具包括:
驾驶系统,包括:
减速系统,被配置为控制载具的制动;
加速系统,被配置为控制载具的加速;和
转向系统,被配置为控制车轮取向和载具的方向;以及
外部感测模块,包括:
激光雷达传感器,沿着外部感测模块的第一壳体部分布置,所述激光雷达传感器被配置为检测在载具周围的外部环境的区域中的并且在载具的阈值距离内的对象;
图像传感器,沿着所述外部感测模块的第二壳体部分布置,具有所述图像传感器的所述第二壳体部分与具有所述激光雷达传感器的所述第一壳体部分垂直对准,所述图像传感器沿着载具布置以具有对外部环境的所述区域的不受阻挡的视场,所述图像传感器为载具的所述阈值距离内的对象提供所选择的分辨率,以对由所述激光雷达传感器检测到的对象进行分类;以及
所述外部感测模块的第三壳体部分,设置在所述第一壳体部分与所述第二壳体部分之间,所述第三壳体部分包括被布置为防止所述图像传感器和所述激光雷达传感器之间的干扰的外表面。
22.根据权利要求21所述的载具,其中,所述外部感测模块还包括被配置为对所述图像传感器的视场进行照明的一个或多个照明器单元,所述一个或多个照明器单元被设置为沿着所述第二壳体部分与所述图像传感器相邻。
23.根据权利要求22所述的载具,其中,所述外部感测模块还包括清洁机构,所述清洁机构被配置为清洁所述图像传感器和/或所述一个或多个照明器单元。
CN202080096263.0A 2019-12-30 2020-04-15 周界传感器壳体 Active CN115135554B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962954938P 2019-12-30 2019-12-30
US62/954,938 2019-12-30
US16/737,359 2020-01-08
US16/737,359 US11493922B1 (en) 2019-12-30 2020-01-08 Perimeter sensor housings
PCT/US2020/028211 WO2021137884A1 (en) 2019-12-30 2020-04-15 Perimeter sensor housings

Publications (2)

Publication Number Publication Date
CN115135554A true CN115135554A (zh) 2022-09-30
CN115135554B CN115135554B (zh) 2024-03-29

Family

ID=76687233

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080096263.0A Active CN115135554B (zh) 2019-12-30 2020-04-15 周界传感器壳体

Country Status (7)

Country Link
US (3) US11493922B1 (zh)
EP (1) EP4061682A4 (zh)
JP (1) JP7457811B2 (zh)
KR (1) KR102649924B1 (zh)
CN (1) CN115135554B (zh)
CA (1) CA3165284A1 (zh)
WO (1) WO2021137884A1 (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9720412B1 (en) * 2012-09-27 2017-08-01 Waymo Llc Modifying the behavior of an autonomous vehicle using context based parameter switching
JP7087081B2 (ja) * 2018-07-27 2022-06-20 京セラ株式会社 車載カメラ及び移動体
JP7429589B2 (ja) * 2020-03-31 2024-02-08 本田技研工業株式会社 車両の移動支援システム
JP7422038B2 (ja) * 2020-08-27 2024-01-25 本田技研工業株式会社 移動体
US11921208B2 (en) * 2020-08-27 2024-03-05 Ford Global Technologies, Llc Sensor apparatus with cleaning
US11975737B1 (en) * 2020-10-26 2024-05-07 Outrider Technologies, Inc. Processor and sensor array for autonomous truck
US20220135005A1 (en) * 2020-10-29 2022-05-05 Argo AI, LLC Method and system for diverting ram air to vehicle sensors
JP7505416B2 (ja) * 2021-02-15 2024-06-25 トヨタ自動車株式会社 洗浄装置
US11827189B2 (en) 2021-11-03 2023-11-28 Ford Global Technologies, Llc Sensor assembly for a vehicle
USD1014398S1 (en) 2021-12-23 2024-02-13 Waymo Llc Vehicle
USD1016636S1 (en) 2021-12-23 2024-03-05 Waymo Llc Sensor assembly
US12008681B2 (en) * 2022-04-07 2024-06-11 Gm Technology Operations Llc Systems and methods for testing vehicle systems
FR3142395A1 (fr) * 2022-11-25 2024-05-31 Psa Automobiles Sa Système de perception d’environnement pour véhicule et véhicule comprenant un tel système

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005088962A1 (ja) * 2004-03-16 2005-09-22 Hiroshi Arisawa 追尾装置、及びモーションキャプチャ装置
US20070165967A1 (en) * 2006-01-16 2007-07-19 Omron Corporation Object detector
US20120092499A1 (en) * 2009-04-24 2012-04-19 Michael Klar Sensor assembly for driver assistance systems in motor vehicles
CN102447911A (zh) * 2010-10-01 2012-05-09 魏载荣 图像获取单元、其方法以及相关控制单元
US20180059236A1 (en) * 2016-08-24 2018-03-01 Magna Electronics Inc. Vehicle sensor with integrated radar and image sensors
CN108189777A (zh) * 2017-12-27 2018-06-22 江苏远洋车灯有限公司 一种带有全景摄像的车灯
CN108332716A (zh) * 2018-02-07 2018-07-27 徐州艾特卡电子科技有限公司 一种自动驾驶汽车环境感知系统
CN208238805U (zh) * 2018-03-30 2018-12-14 郑州宇通客车股份有限公司 一种自动驾驶客车环境感知系统及自动驾驶客车
CN109308714A (zh) * 2018-08-29 2019-02-05 清华大学苏州汽车研究院(吴江) 基于分类惩罚的摄像头和激光雷达信息配准方法
WO2019122922A1 (en) * 2017-12-22 2019-06-27 Sportlight Technology Ltd Object tracking
US20190204845A1 (en) * 2017-12-29 2019-07-04 Waymo Llc Sensor integration for large autonomous vehicles

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7796081B2 (en) 1997-10-22 2010-09-14 Intelligent Technologies International, Inc. Combined imaging and distance monitoring for vehicular applications
JP4312880B2 (ja) 1999-06-03 2009-08-12 エルベックスビデオ株式会社 テレビカメラ
JP4285092B2 (ja) 2003-05-23 2009-06-24 市光工業株式会社 カメラユニット付きアウターミラー
US8330647B2 (en) 2006-06-08 2012-12-11 Vista Research, Inc. Sensor suite and signal processing for border surveillance
US20100157280A1 (en) 2008-12-19 2010-06-24 Ambercore Software Inc. Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions
WO2011014497A1 (en) 2009-07-27 2011-02-03 Magna Electronics Inc. Vehicular camera with on-board microcontroller
CA2788734A1 (en) 2010-02-01 2011-08-04 Youngkook Electronics, Co., Ltd. Tracking and monitoring camera device and remote monitoring system using same
IL204089A (en) 2010-02-21 2014-06-30 Elbit Systems Ltd A method and system for detection and tracking based on frequency multiplicity and multiplicity
US8671504B2 (en) 2010-04-28 2014-03-18 Denso Corporation Cover of vehicle optical sensor and vehicle optical sensor device
US8958911B2 (en) 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
CN103608696B (zh) * 2012-05-22 2016-05-11 韩国生产技术研究院 3d扫描系统和获得3d图像的方法
US9234618B1 (en) * 2012-09-27 2016-01-12 Google Inc. Characterizing optically reflective features via hyper-spectral sensor
GB201303076D0 (en) 2013-02-21 2013-04-10 Isis Innovation Generation of 3D models of an environment
US9831630B2 (en) 2014-02-06 2017-11-28 GM Global Technology Operations LLC Low cost small size LiDAR for automotive
WO2015161097A1 (en) 2014-04-16 2015-10-22 Bowles Fludics Corporation Integrated multi image sensor and lens washing nozzle assembly and method for simultaneously cleaning multiple image sensors
KR101644370B1 (ko) 2014-10-23 2016-08-01 현대모비스 주식회사 물체 검출 장치 및 그 동작 방법
US9625582B2 (en) 2015-03-25 2017-04-18 Google Inc. Vehicle with multiple light detection and ranging devices (LIDARs)
KR101957794B1 (ko) 2015-10-05 2019-03-13 엘지전자 주식회사 카메라 모듈 및 카메라 모듈의 결로방지 시스템
US10254215B2 (en) 2016-04-07 2019-04-09 Verifood, Ltd. Spectrometry system applications
US20170297488A1 (en) 2016-04-19 2017-10-19 GM Global Technology Operations LLC Surround view camera system for object detection and tracking
CN107444264A (zh) 2016-05-31 2017-12-08 法拉第未来公司 使用相机检测车辆附近的物体
US20170357267A1 (en) * 2016-06-10 2017-12-14 Cnh Industrial America Llc Autonomous work vehicle obstacle detection system
US10093311B2 (en) 2016-07-06 2018-10-09 Waymo Llc Testing predictions for autonomous vehicles
WO2018017395A1 (en) * 2016-07-18 2018-01-25 Uber Technologies, Inc. Sensor cleaning system for vehicles
US10203696B2 (en) 2016-07-26 2019-02-12 Waymo Llc Determining drivability of objects for autonomous vehicles
US20180032822A1 (en) 2016-08-01 2018-02-01 Ford Global Technologies, Llc Vehicle exterior monitoring
KR102462502B1 (ko) 2016-08-16 2022-11-02 삼성전자주식회사 스테레오 카메라 기반의 자율 주행 방법 및 그 장치
US10210760B2 (en) 2016-09-21 2019-02-19 Dura Operating, Llc System and method for autonomous parking of a vehicle
US20180095473A1 (en) * 2016-10-03 2018-04-05 Navya Autonomous electric vehicle for transportation of goods and/or people
EP3545337B1 (en) 2017-01-26 2024-07-03 Mobileye Vision Technologies Ltd. Vehicle navigation based on aligned image and lidar information
US10406972B2 (en) 2017-02-24 2019-09-10 Tesla, Inc. Vehicle technologies for automated turn signaling
US20180288320A1 (en) 2017-04-03 2018-10-04 Uber Technologies, Inc. Camera Fields of View for Object Detection
US10677897B2 (en) 2017-04-14 2020-06-09 Luminar Technologies, Inc. Combining lidar and camera data
WO2018196001A1 (en) 2017-04-28 2018-11-01 SZ DJI Technology Co., Ltd. Sensing assembly for autonomous driving
US20180372875A1 (en) * 2017-06-27 2018-12-27 Uber Technologies, Inc. Sensor configuration for an autonomous semi-truck
US10447973B2 (en) * 2017-08-08 2019-10-15 Waymo Llc Rotating LIDAR with co-aligned imager
KR102058050B1 (ko) 2017-08-16 2019-12-20 엘지전자 주식회사 운행 보조 시스템 및 차량
US10523880B2 (en) * 2017-09-28 2019-12-31 Waymo Llc Synchronized spinning LIDAR and rolling shutter camera system
CN109709530A (zh) * 2017-10-26 2019-05-03 株式会社小糸制作所 传感系统及车辆
US10628962B2 (en) 2017-11-08 2020-04-21 Worldcam Llc Determining vehicle dwell time within predetermined zones
JP2019158662A (ja) 2018-03-14 2019-09-19 トヨタ自動車株式会社 物標認識装置及び車両走行制御システム
JP6926020B2 (ja) 2018-03-29 2021-08-25 ヤンマーパワーテクノロジー株式会社 障害物検知システム
US11181619B2 (en) 2018-06-14 2021-11-23 Waymo Llc Camera ring structure for autonomous vehicles
DE102018004782A1 (de) 2018-06-15 2019-12-19 Daimler Ag Verfahren und Vorrichtung zum Erfassen einer Umgebung, sowie Fahrzeug mit einer solchen Vorrichtung
US10674052B1 (en) 2018-12-12 2020-06-02 Valeo North America, Inc. Common cover lens for camera and illuminators
KR101998298B1 (ko) 2018-12-14 2019-07-09 위고코리아 주식회사 카메라 및 라이다 센서를 이용한 차량 자율주행방법
US10793094B2 (en) 2019-02-20 2020-10-06 Ford Global Technologies, Llc Communication grille assembly
US11161502B2 (en) 2019-08-13 2021-11-02 Zoox, Inc. Cost-based path determination

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005088962A1 (ja) * 2004-03-16 2005-09-22 Hiroshi Arisawa 追尾装置、及びモーションキャプチャ装置
US20070165967A1 (en) * 2006-01-16 2007-07-19 Omron Corporation Object detector
US20120092499A1 (en) * 2009-04-24 2012-04-19 Michael Klar Sensor assembly for driver assistance systems in motor vehicles
CN102447911A (zh) * 2010-10-01 2012-05-09 魏载荣 图像获取单元、其方法以及相关控制单元
US20180059236A1 (en) * 2016-08-24 2018-03-01 Magna Electronics Inc. Vehicle sensor with integrated radar and image sensors
WO2019122922A1 (en) * 2017-12-22 2019-06-27 Sportlight Technology Ltd Object tracking
CN108189777A (zh) * 2017-12-27 2018-06-22 江苏远洋车灯有限公司 一种带有全景摄像的车灯
US20190204845A1 (en) * 2017-12-29 2019-07-04 Waymo Llc Sensor integration for large autonomous vehicles
CN108332716A (zh) * 2018-02-07 2018-07-27 徐州艾特卡电子科技有限公司 一种自动驾驶汽车环境感知系统
CN208238805U (zh) * 2018-03-30 2018-12-14 郑州宇通客车股份有限公司 一种自动驾驶客车环境感知系统及自动驾驶客车
CN109308714A (zh) * 2018-08-29 2019-02-05 清华大学苏州汽车研究院(吴江) 基于分类惩罚的摄像头和激光雷达信息配准方法

Also Published As

Publication number Publication date
WO2021137884A1 (en) 2021-07-08
CA3165284A1 (en) 2021-07-08
KR20220104244A (ko) 2022-07-26
US11880200B2 (en) 2024-01-23
EP4061682A1 (en) 2022-09-28
US11493922B1 (en) 2022-11-08
CN115135554B (zh) 2024-03-29
EP4061682A4 (en) 2024-01-03
JP7457811B2 (ja) 2024-03-28
JP2023507939A (ja) 2023-02-28
US20230089733A1 (en) 2023-03-23
KR102649924B1 (ko) 2024-03-25
US20240061425A1 (en) 2024-02-22

Similar Documents

Publication Publication Date Title
KR102649924B1 (ko) 주변 센서 하우징
KR102665624B1 (ko) 근접 감지 카메라 시스템
US10843629B2 (en) Side mirror for a vehicle
US12084119B2 (en) Efficient autonomous trucks
US11822011B2 (en) Mirrors to extend sensor field of view in self-driving vehicles
CN111566511A (zh) 大型自主车辆的传感器集成
US10803643B2 (en) Electronic device and user interface apparatus for vehicle
CN114556253A (zh) 自驾驶车辆中的传感器视场
US20220063509A1 (en) Moving body
US20220063656A1 (en) Moving body
US20240259665A1 (en) Vehicular vision system with underbody object detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant