CN114627451A - 运载工具、用于运载工具的方法和存储介质 - Google Patents

运载工具、用于运载工具的方法和存储介质 Download PDF

Info

Publication number
CN114627451A
CN114627451A CN202110784002.4A CN202110784002A CN114627451A CN 114627451 A CN114627451 A CN 114627451A CN 202110784002 A CN202110784002 A CN 202110784002A CN 114627451 A CN114627451 A CN 114627451A
Authority
CN
China
Prior art keywords
information
vehicle
lidar
camera
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110784002.4A
Other languages
English (en)
Inventor
李钟昊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motional AD LLC
Original Assignee
Motional AD LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motional AD LLC filed Critical Motional AD LLC
Publication of CN114627451A publication Critical patent/CN114627451A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0052Filtering, filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

本申请涉及运载工具、用于运载工具的方法和存储介质。描述了用于将LiDAR信息和照相机信息合并以进行自主标注的技术等。这些技术包括一种运载工具,包括:至少一个LiDAR装置,其被配置为检测电磁辐射;至少一个照相机,其被配置为生成接近所述运载工具的对象的照相机信息;至少一个计算机可读介质,其存储计算机可执行指令;至少一个处理器,其通信地耦接到所述至少一个LiDAR装置和所述至少一个照相机;以及控制电路,其通信地耦接到所述至少一个处理器,其中所述控制电路被配置为基于所述对象的地点来操作所述运载工具。

Description

运载工具、用于运载工具的方法和存储介质
技术领域
本说明书涉及合并LiDAR信息和照相机信息。
背景技术
在用于识别由与环境相关联的信息表示的环境的区域的处理中可以涉及分割和标注,其中该环境的区域与特定特征或对象相关联。例如,当对环境的图像进行分割和标注以供运载工具稍后使用时,可以对图像进行分析以识别诸如交通灯、停车标志、运载工具和行人等的某些特征。可以基于所识别的特征来对图像进行标注或标记。然而,在用于识别环境的某些区域的处理中,特别是当环境复杂时,可以涉及人为干预,这可能会向标注工作增加大量的时间和成本。
发明内容
根据本发明的一个方面,涉及一种运载工具,包括:至少一个光检测和测距装置即至少一个LiDAR装置,其被配置为检测从接近所述运载工具的对象所反射的电磁辐射,并且基于所检测到的电磁辐射来生成LiDAR信息;至少一个照相机,其被配置为生成照相机信息,所述照相机信息表示所述至少一个照相机的视场中的接近所述运载工具的对象的图像;至少一个计算机可读介质,其存储计算机可执行指令;至少一个处理器,其通信地耦接到所述至少一个LiDAR装置和所述至少一个照相机,所述至少一个处理器被配置为执行所述计算机可执行指令,所述执行进行包括以下的操作:从所述至少一个LiDAR装置接收LiDAR信息;基于来自所述至少一个照相机的照相机信息来接收接近所述运载工具的对象的对象信息,所述对象信息包括所述照相机信息的表示所述对象的至少一个像素,并且所述对象信息包括表示所述对象的分类的归类信息;将所接收到的LiDAR信息的至少一部分与同所接收到的对象信息相关联的至少一个像素合并,以生成表示所述对象的合并信息;以及基于表示所述对象的所述合并信息来确定所述对象相对于所述运载工具的地点;以及控制电路,其通信地耦接到所述至少一个处理器,所述控制电路被配置为基于所述对象相对于所述运载工具的地点来操作所述运载工具。
根据本发明的第二方面,涉及一种用于运载工具的方法,包括:从运载工具的至少一个LiDAR装置接收LiDAR信息;基于来自至少一个照相机的照相机信息来接收接近所述运载工具的对象的对象信息,所述对象信息包括所述照相机信息的表示所述对象的至少一个像素,并且所述对象信息包括表示所述对象的分类的归类信息;确定所述对象的所述归类信息是否与交通指令相关联;以及根据确定为所述对象的所述归类信息与所述交通指令相关联:将所接收到的LiDAR信息的至少一部分与同所接收到的对象信息相关联的至少一个像素合并,以生成表示所述对象的合并信息;基于表示所述对象的所述合并信息来确定所述对象相对于所述运载工具的地点;以及基于所述对象的地点来操作所述运载工具。
根据本发明的又一方面,涉及一种非暂时性计算机可读存储介质,包括用于由第一装置的至少一个处理器执行的至少一个程序,所述至少一个程序包括指令,所述指令在由所述至少一个处理器执行时,使得所述第一装置进行根据第二方面所述的方法。
附图说明
图1示出具有自主能力的自主运载工具的示例。
图2示出示例“云”计算环境。
图3示出计算机系统。
图4示出自主运载工具的示例架构。
图5示出感知模块可以使用的输入和输出的示例。
图6示出LiDAR系统的示例。
图7示出操作中的LiDAR系统。
图8示出LiDAR系统的操作的附加细节。
图9示出规划模块的输入和输出之间的关系的框图。
图10示出路径规划中所使用的有向图。
图11示出控制模块的输入和输出的框图。
图12示出控制器的输入、输出和组件的框图。
图13A和图13B示出具有LiDAR传感器的运载工具和使用LiDAR传感器所生成的LiDAR信息。
图14A和图14B示出具有照相机的运载工具和使用照相机所生成的照相机信息。
图15A-15D示出获取LiDAR信息和从照相机获取照相机信息之间的定时序列。
图16A例示LiDAR信息和照相机信息之间的合并处理。
图16B示出使用LiDAR信息和照相机信息的合成图像。
图16C示出与交通灯相关联的LiDAR信息的LiDAR点。
图16D示出与LiDAR点相关联的LiDAR信息。
图17A-17F示出使用LiDAR信息和照相机信息的360度合成图像。
图18示出合并处理的框图。
图19A和图19B示出交通灯的带标注的地图。
图20是合并处理的流程图。
具体实施方式
在以下描述中,为了解释的目的,阐述了许多具体细节,以便提供对本发明的透彻理解。然而,本发明可以在没有这些具体细节的情况下实施将是明显的。在其它实例中,众所周知的构造和装置是以框图形式示出的,以避免不必要地使本发明模糊。
在附图中,为了便于描述,示出了示意要素(诸如表示装置、模块、指令块和数据要素的那些要素)的具体排列或次序。然而,本领域技术人员应当理解,附图中示意要素的具体次序或排列并不意在意味着要求特定的处理次序或序列、或处理过程的分离。此外,在附图中包含示意要素并不意在意味着在所有实施例中都需要这种要素,也不意在意味着由这种要素表示的特征不能包括在一些实施例中或不能在一些实施例中与其它要素结合。
此外,在附图中,连接要素、诸如实线或虚线或箭头用于例示两个或更多个其它示意要素之间的连接、关系或关联,没有任何此类连接要素并不意在意味着不能存在连接、关系或关联。换句话说,一些要素之间的连接、关系或关联未在附图中示出,以便不使本公开内容模糊。此外,为了便于例示,使用单个连接要素来表示要素之间的多个连接、关系或关联。例如,如果连接要素表示信号、数据或指令的通信,本领域技术人员应理解,这种要素表示影响通信可能需要的一个或多个信号路径(例如,总线)。
现在将详细参考实施例,其示例在附图中例示出。在以下的详细描述中,阐述了许多具体细节,以便提供对所描述的各种实施例的透彻理解。然而,对于本领域的普通技术人员来说将明显的是,可以在没有这些具体细节的情况下实施所描述的各种实施例。在其它情况下,没有详细描述众所周知的方法、程序、组件、电路和网络,以便不会不必要地使实施例的方面模糊。
下面描述的若干特征各自可以彼此独立地使用,也可以与其它特征的任何组合一起使用。然而,任何个别特征可能不能解决以上所讨论的任何问题,或者只能解决以上所讨论的问题之一。以上所讨论的一些问题可能不能通过本文所描述的任何一个特征得到充分解决。虽然提供了标题,但在本说明书的其它地方也可以找到与具体标题有关但在具有该标题的部分中未找到的信息。本文根据以下概要描述实施例:
1.总体概述
2.系统概述
3.自主运载工具架构
4.自主运载工具输入
5.自主运载工具规划
6.自主运载工具控制
7.合并LiDAR信息和照相机信息
总体概述
标注系统可用于将LiDAR信息映射到照相机所拍摄到的照相机信息(例如,来自运载工具上的照相机的图像)上,以确定从照相机到对象的距离和对象的几何特征这两者。该信息稍后可以(例如,由运载工具的至少一个系统)用于以高置信度确定对象(特别是固定对象)的身份、以及对象的物理地点和朝向。
例如,该信息稍后可用于确定为诸如交通灯等的对象离运载工具有2.5米远并且被定向成朝向迎面而来的交通。然后,在运载工具通过交通灯下方时,运载工具可以及时地跟踪交通灯,由此提供交通灯的实时信息。此外,通过将交通灯的信息存储在其它运载工具可访问的世界地图上,各运载工具可以接收对象的地点和朝向、以及在需要改变的情况下(例如,在对象的地点或朝向已改变的情况下)进行确认和/或更新。例如,当世界地图指示运载工具正在接近交通灯时,照相机可以聚焦于运载工具前方的预期到交通灯的区域,并且准备好确定交通灯的交通信号。
通过使用LiDAR信息和照相机信息的组合来自主地检测交通灯的地点和朝向,对人工标注的依赖降低。此外,该组合方法与独立地使用LiDAR信息或照相机信息相比得到更高的准确度。该组合方法还利用运载工具上的现有照相机和LiDAR传感器,而无需新设备。此外,通过考虑运载工具的行驶速率,系统可以补偿LiDAR和照相机系统之间的视场差异。
系统概述
图1示出具有自主能力的自主运载工具100的示例。
如本文所使用的,术语“自主能力”是指一种功能、特征或设施,该功能、特征或设施使运载工具能够部分地或完全地操作,而无需实时的人类干预,包括但不限于完全自主运载工具、高度自主运载工具和有条件自主运载工具。
如本文所使用的,自主运载工具(AV)是一种具有自主能力的运载工具。
如本文所使用的,“运载工具”包括货物或人员的运输方式。例如,小汽车、公共汽车、火车、飞机、无人机、卡车、船只、舰艇、潜水器、飞船等。无人驾驶的小汽车是运载工具的示例。
如本文所使用的,“轨迹”是指将AV从第一时空地点导航到第二时空地点的路径或路线。在实施例中,第一时空地点被称为初始地点或起始地点,第二时空地点被称为目的地、最终地点、目标、目标位置或目标地点。在一些示例中,轨迹由一个或多个路段(例如,道路的数段)组成,并且各路段由一个或多个块(例如,车道或交叉口的一部分)组成。在实施例中,时空地点对应于真实世界地点。例如,时空地点是上车或下车地点,以使人员或货物上车或下车。
如本文所使用的,“(一个或多个)传感器”包括一个或多个硬件组件,用于检测与传感器周围环境有关的信息。一些硬件组件可包括感测组件(例如,图像传感器、生物特征传感器)、传输和/或接收组件(例如,激光或射频波发射器和接收器)、电子组件(诸如,模数转换器)、数据存储装置(诸如,RAM和/或非易失性存储器)、软件或固件组件和数据处理组件(诸如,专用集成电路)、微处理器和/或微控制器。
如本文所使用的,“场景描述”是一种数据结构(例如,列表)或数据流,其包括由AV运载工具上的一个或多个传感器检测到的一个或多个分类或标记的对象,或由AV外部的源提供的一个或多个分类或标记的对象。
如本文所使用的,“道路”是一个可以被运载工具穿过的物理区域,并且可以对应于已命名的通道(例如,城市街道、州际高速公路等)或可对应于未命名的通道(例如,房屋或办公楼内的行车道、停车场的一段、空置停车场的一段、乡村区域的污物通道等)。因为有些运载工具(例如,四轮驱动的小卡车、越野车(SUV)等)能够穿过各种不特别适合运载工具行驶的物理区域,因此“道路”可以是任何市政当局或其它政府或行政机构没有正式定义为一条通道的物理区域。
如本文所使用的,“车道”是道路的可被运载工具穿越的部分。有时基于车道标记来识别车道。例如,车道可对应于车道标记之间的大部分或全部空间,或仅对应于车道标记之间的部分空间(例如,小于50%)。例如,具有相距很远的车道标记的道路可能容纳两个或两个以上的运载工具,使得一个运载工具可以在不穿过车道标记的情况下超过另一个运载工具,因此可被解释为车道比车道标记之间的空间窄,或车道之间有两个车道。在没有车道标记的情况下,也可以对车道进行解释。例如,可以基于环境的物理特征(例如,农村地区的岩石和沿着大道的树木、或者例如在欠发达地区应避免的自然障碍物)来定义车道。也可以独立于车道标记或物理特征来解释车道。例如,可以基于原本缺少将会被解释为车道边界的特征的在区域中无障碍物的任意路径来解释车道。在示例情景中,AV可以解释通过田野或空地的无障碍物部分的车道。在另一示例情景中,AV可以解释通过不具有车道标记的宽(例如,足够两个或更多个车道宽)道路的车道。在该情景中,AV可以将与车道有关的信息通信至其它AV,使得其它AV可以使用相同的车道信息来协调AV之间的路径规划。
术语“空中下载(OTA)客户端”包括任何AV,或者嵌入在AV中、耦接至AV或与AV进行通信的任何电子装置(例如,计算机、控制器、IoT装置、电子控制单元(ECU))。
术语“空中下载(OTA)更新”意味着对使用专有和/或标准化的无线通信技术递送至OTA客户端的软件、固件、数据或配置设置或者它们的任何组合的任何更新、改变、删除或添加,其中该专有和/或标准化的无线通信技术包括但不限于:蜂窝移动通信(例如,2G、3G、4G、5G)、无线电无线区域网络(例如,WiFi)和/或卫星因特网。
术语“边缘节点”是指耦接至网络的一个或多个边缘装置,这些装置提供与AV进行通信所用的门户并且可以与其它边缘节点和基于云的计算平台进行通信,以调度OTA更新并将OTA更新递送至OTA客户端。
术语“边缘装置”是指实现边缘节点并提供向企业或服务提供商(如VERIZON、AT&T)核心网的物理无线接入点(AP)的装置。边缘装置的示例包括但不限于:计算机、控制器、发送器、路由器、路由交换机、综合接入装置(IAD)、多路复用器、城域网(MAN)和广域网(WAN)接入装置。
“一个或多个”包括由一个要素执行的功能、由多个要素例如以分布式的方式执行的功能、由一个要素执行的若干功能、由若干要素执行的若干功能、或上述的任何组合。
还将理解的是,尽管在一些情况下,术语“第一”、“第二”等在本文中是用来描述各种要素的,但这些要素不应受到这些术语的限制。这些术语仅用于区分一个要素与另一个要素。例如,在未背离各种所描述的实施例的范围的情况下,第一触点可被称为第二触点,并且类似地,第二触点可被称为第一触点。第一触点和第二触点两者都是触点,但它们不是相同触点。
在本文所描述的各种实施例的说明书中使用的术语仅用于描述特定实施例的目的,而不是意在限制。如在所描述的各种实施例的说明书和所附权利要求书中所使用的,单数形式“a”、“an”和“the”也意在包括复数形式,除非上下文另有明确说明。还将理解的是,如本文所使用的“和/或”是指并且包括一个或多个相关清单项目的任何和所有可能的组合。还将理解的是,当在本说明书中使用术语“包括”、“包含”、“具备”和/或“具有”时,具体说明存在所陈述的特征、整数、步骤、操作、要素和/或组件,但并不排除存在或添加一个或多个其它特征、整数、步骤、操作、要素、组件、和/或其群组。
如本文所使用的,取决于上下文,术语“如果”可选地被理解为意指“当”或“在当时”或“响应于确定为”或“响应于检测到”。类似地,取决于上下文,短语“如果已确定”或“如果[所陈述的条件或事件]已被检测到”可选地被理解为意指“在确定时”或“响应于确定为“或”在检测到[所陈述的条件或事件]时”或“响应于检测到[所陈述的条件或事件]”。
如本文所使用的,AV系统是指AV以及支持AV操作的硬件、软件、存储的数据和实时生成的数据的阵列。在实施例中,AV系统并入在AV内。在实施例中,AV系统跨若干地点分布。例如,AV系统的一些软件是在类似于下面关于图2描述的云计算环境200的云计算环境上实现的。
一般而言,本文件描述了适用于任何具有一种或多种自主能力的运载工具的技术,包括完全自主运载工具、高度自主运载工具和有条件自主运载工具,诸如分别为所谓的第5级、第4级和第3级运载工具(见SAE国际标准J3016:道路上机动车自动驾驶系统相关术语的分类和定义,通过引用将其全部内容并入本文件,用于了解运载工具自主权等级的更多详细信息)。本文件所描述的技术也适用于部分自主运载工具和驾驶员辅助运载工具,诸如所谓的第2级和第1级运载工具(见SAE国际标准J3016:道路上机动车自动驾驶系统相关术语的分类和定义)。在实施例中,一个或多个第1级、第2级、第3级、第4级和第5级运载工具系统可基于对传感器输入的处理,在某些操作条件下自动执行某些运载工具操作(例如,转向、制动和使用地图)。本文件中所描述的技术可以使从完全自主运载工具到人类操作的运载工具范围内的任何级别的运载工具受益。
自主运载工具与需要人类驾驶员的运载工具相比存在优势。一个优势是安全性。例如,在2016年,美国经历了600万起汽车事故、240万人受伤、40000人死亡和1300万辆运载工具碰撞事故,估计社会成本为9100亿美元多。从1965年到2015年,每行驶1亿英里的美国交通事故死亡人数已从约6人减少到约1人,部分是由于运载工具中所部署的附加安全措施。例如,认为与将发生碰撞有关的额外半秒的警告减轻了60%的前后碰撞。然而,被动安全特征(例如,安全带、安全气囊)在改进该数字方面有可能已达到它们的极限。因而,诸如运载工具的自动控制等的主动安全措施是改进这些统计数据的可能的下一步。由于在95%的碰撞中认为人类驾驶员是造成严重碰撞前事件的原因,因此自动驾驶系统例如通过以下操作,有可能实现更好的安全结果:比人类更好地可靠地识别和避免紧急情况;做出比人类更好的决策,比人类更好地遵守交通法规,并且比人类更好地预测将来事件;并且比人类更好地可靠地控制运载工具。
参考图1,AV系统120使AV 100沿着轨迹198操作,穿过环境190至目的地199(有时称为最终地点),同时避开对象(例如,自然障碍物191、运载工具193、行人192、骑车者和其它障碍物)和遵守道路规则(例如,操作规则或驾驶偏好)。
在实施例中,AV系统120包括用于从计算机处理器146接收操作命令并对其进行操作的装置101。使用术语“操作命令”来表示使得运载工具进行动作(例如,驾驶机动动作)的可执行指令(或指令集)。操作命令可以非限制性地包括用于使运载工具开始向前移动、停止向前移动、开始向后移动、停止向后移动、加速、减速、进行左转和进行右转的指令。在实施例中,计算处理器146与下面参考图3描述的处理器304相似。装置101的示例包括转向控制器102、制动器103、挡位、加速踏板或其它加速控制机构、挡风玻璃雨刮器、侧门锁、窗控器和转向指示器。
在实施例中,AV系统120包括用于测量或推断AV 100的状态或条件的属性的传感器121,这些属性诸如是AV的位置、线速度和角速度及线加速度和角加速度、以及航向(例如,AV 100的前端的方向)。传感器121的示例是GPS、测量运载工具线加速度和角速率两者的惯性测量单元(IMU)、用于测量或估计轮滑移率的轮速率传感器、轮制动压力或制动扭矩传感器、引擎扭矩或轮扭矩传感器以及转向角度和角速率传感器。
在实施例中,传感器121还包括用于感测或测量AV的环境的属性的传感器。例如,可见光、红外或热(或两者兼有)光谱的单目或立体摄像机122,LiDAR 123,RADAR,超声波传感器,飞行时间(TOF)深度传感器,速率传感器,温度传感器,湿度传感器和降水传感器。
在实施例中,AV系统120包括数据存储单元142和存储器144,用于存储与计算机处理器146相关联的机器指令或由传感器121收集的数据。在实施例中,AV系统120包括以下关于图13A和图14A所述的图像合并系统。在实施例中,数据存储单元142与以下关于图3描述的ROM 308或存储装置310类似。在实施例中,存储器144与下面描述的主存储器306类似。在实施例中,数据存储单元142和存储器144存储有关环境190的历史、实时和/或预测性信息。在实施例中,存储的信息包括地图、驾驶性能、交通拥堵更新或天气条件。在实施例中,与环境190有关的数据从远程数据库134通过通信信道传输到AV100。
在实施例中,AV系统120包括通信装置140,用于将对其它运载工具的状态和条件(诸如位置、线速度和角速度、线加速度和角加速度、以及线航向和角航向)测量或推断的属性传送到AV 100。这些装置包括运载工具到运载工具(V2V)和运载工具到基础设施(V2I)通信装置以及用于通过点对点或自组织(ad hoc)网络或两者进行无线通信的装置。在实施例中,通信装置140跨电磁频谱(包括无线电和光通信)或其它介质(例如,空气和声介质)进行通信。运载工具对运载工具(V2V)、运载工具对基础设施(V2I)通信(以及在一些实施例中为一种或多种其它类型的通信)的组合有时被称为运载工具对所有事物(V2X)通信。V2X通信通常符合一个或多个通信标准,用于与自主运载工具进行的和在自主运载工具之间的通信。
在实施例中,通信装置140包括通信接口。例如,有线、无线、WiMAX、Wi-Fi、蓝牙、卫星、蜂窝、光、近场、红外或无线电接口。通信接口将数据从远程数据库134传输到AV系统120。在实施例中,远程数据库134嵌入在如图2中所描述的云计算环境200中。通信接口140将从传感器121收集的数据或与AV 100操作有关的其它数据传输到远程数据库134。在实施例中,通信接口140向AV 100传输与遥操作有关的信息。在一些实施例中,AV 100与其它远程(例如,“云”)服务器136通信。
在实施例中,远程数据库134还存储和传输数字数据(例如,存储诸如道路和街道地点的数据)。这些数据存储在AV 100上的存储器144中,或者通过通信信道从远程数据库134传输到AV 100。
在实施例中,远程数据库134存储和传输与以前在一天中类似时间沿着轨迹198行驶的运载工具的驾驶属性有关的历史信息(例如,速率和加速度分布)。在一个实现中,这种数据可以存储在AV 100上的存储器144中,或者通过通信信道从远程数据库134传输到AV100。
位于AV 100上的计算装置146基于实时传感器数据和先验信息两者以算法方式生成控制动作,允许AV系统120执行其自主驾驶能力。
在实施例中,AV系统120包括耦接到计算装置146的计算机外围设备132,用于向AV100的用户(例如,乘员或远程用户)提供信息和提醒并接收来自该用户的输入。在实施例中,外围设备132类似于下面参考图3讨论的显示器312、输入装置314和光标控制器316。耦接是无线的或有线的。任意两个或更多个的接口装置可以集成到单个装置中。
在实施例中,AV系统120接收并强制执行例如由乘员指定的或者存储在与乘员相关联的简档中的乘员的隐私级别。乘员的隐私级别确定了如何许可使用存储在乘员简档中的以及/或者存储在云服务器136上且与乘员简档相关联的、与乘员相关联的特定信息(例如,乘员舒适度数据、生物测量数据等)。在实施例中,隐私级别指定了一旦搭乘完成则被删除的与乘员相关联的特定信息。在实施例中,隐私级别指定了与乘员相关联的特定信息,并且标识被授权访问该信息的一个或多个实体。被授权访问信息的所指定的实体的示例可以包括其它AV、第三方AV系统、或者可以潜在地访问该信息的任何实体。
可以在一个或多个粒度级别指定乘员的隐私级别。在实施例中,隐私级别标识要存储或共享的特定信息。在实施例中,隐私级别适用于与乘员相关联的所有信息,使得乘员可以指定不存储或共享她的个人信息。被许可访问特定信息的实体的指定也可以在各种粒度级别指定。被许可访问特定信息的各种实体集例如可以包括其它AV、云服务器136、特定第三方AV系统等。
在实施例中,AV系统120或云服务器136确定AV 100或另一实体是否可访问与乘员相关联的某些信息。例如,试图访问与特定时空地点有关的乘员输入的第三方AV系统必须例如从AV系统120或云服务器136获得授权,以访问与乘员相关联的信息。例如,AV系统120使用乘员的指定隐私级别来确定是否可以将与时空地点有关的乘员输入呈现给第三方AV系统、AV 100或另一AV。这使得乘员的隐私级别能够指定允许哪些其它实体接收与乘员的动作有关的数据或与乘员相关联的其它数据。
图2例示示例“云”计算环境。云计算是一种服务交付模式,用于使得能够方便、按需地在网络上访问可配置计算资源(例如网络、网络带宽、服务器、处理、内存、存储、应用程序、虚拟机和服务)的共享池。在典型的云计算系统中,一个或多个大型云数据中心容纳用于交付云所提供的服务的机器。现在参考图2,云计算环境200包括通过云202互连的云数据中心204a、204b和204c。数据中心204a、204b和204c为连接到云202的计算机系统206a、206b、206c、206d、206e和206f提供云计算服务。
云计算环境200包括一个或多个云数据中心。一般而言,云数据中心(例如图2中所示的云数据中心204a)是指构成云(例如图2中所示的云202或云的特定部分)的服务器的物理排列。例如,服务器在云数据中心中物理排列成房间、组、行和机架。云数据中心有一个或多个区域,其中包括一个或多个服务器房间。每个房间有一行或多行服务器,并且每行包括一个或多个机架。每个机架包括一个或多个单独的服务器节点。在一些实现中,区域、房间、机架和/或行中的服务器基于数据中心设施的物理基础设施要求(包括电力、能源、热力、热源和/或其它要求)被排列成若干组。在实施例中,服务器节点类似于图3中描述的计算机系统。数据中心204a具有许多分布在多个机架上的计算系统。
云202包括云数据中心204a、204b和204c以及用于连接云数据中心204a、204b和204c并有助于促进计算系统206a-f对云计算服务的访问的网络和网络资源(例如,网络设备、节点、路由器、交换机和网络电缆)。在实施例中,该网络表示一个或多个本地网络、广域网或通过使用地面或卫星连接部署的有线或无线链路耦接的网际网络的任意组合。通过网络交换的数据使用多种网络层协议(诸如,因特网协议(IP)、多协议标签交换(MPLS)、异步传输模式(ATM)、帧中继(Frame Relay)等)进行传输。此外,在网络表示多个子网络的组合的实施例中,在每个底层子网络上使用不同的网络层协议。在一些实施例中,网络表示一个或多个互连网际网络(诸如公共因特网等)。
计算系统206a-f或云计算服务消费者通过网络链路和网络适配器连接到云202。在实施例中,计算系统206a-f被实现为各种计算装置,例如服务器、台式机、膝上型计算机、平板电脑、智能手机、物联网(IoT)装置、自主运载工具(包括小汽车、无人机、航天飞机、火车、公共汽车等)和消费电子产品。在实施例中,计算系统206a-f在其它系统中实现或作为其它系统的一部分实现。
图3例示计算机系统300。在实现中,计算机系统300是一种专用计算装置。专用计算装置被硬连线以执行这些技术,或包括诸如一个或多个专用集成电路(ASIC)或现场可编程门阵列(FPGA)的被持久编程为执行上述技术的数字电子装置,或可包括一个或多个通用硬件处理器,这些硬件处理器经编程以根据固件、存储器、其它存储器、或者组合中的程序指令执行这些技术。这种专用的计算装置还可以将定制的硬线逻辑、ASIC或FPGA与定制的编程相结合来完成这些技术。在各种实施例中,专用计算装置是台式计算机系统、便携式计算机系统、手持装置、网络装置或包含硬线和/或程序逻辑以实现这些技术的任何其它装置。
在实施例中,计算机系统300包括总线302或用于传达信息的其它通信机制、以及与总线302耦接以处理信息的硬件处理器304。硬件处理器304是例如通用微处理器。计算机系统300还包括主存储器306,诸如随机存取存储器(RAM)或其它动态存储装置,该主存储器306耦接到总线302以存储信息和指令,该信息和指令由处理器304执行。在一个实现中,主存储器306用于在执行要由处理器304执行的指令期间存储临时变量或其它中间信息。当这些指令存储在处理器304可访问的非暂时性存储介质中时,使计算机系统300变成一个专用机器,该机器被定制以执行指令中指定的操作。
在实施例中,计算机系统300还包括只读存储器(ROM)308或耦接到总线302的其它静态存储装置,用于存储处理器304的静态信息和指令。提供诸如磁盘、光盘、固态驱动器或三维交叉点存储器的存储装置310,并且该存储装置310耦接到总线302以存储信息和指令。
在实施例中,计算机系统300通过总线302耦接到诸如阴极射线管(CRT)、液晶显示器(LCD)、等离子体显示器、发光二极管(LED)显示器或用于向计算机用户显示信息的有机发光二极管(OLED)显示器的显示器312。包括字母数字键和其它键的输入装置314耦接到总线302,用于向处理器304传送信息和命令选择。另一种类型的用户输入装置是光标控制器316,诸如鼠标、轨迹球、触控显示器或光标方向键,用于将方向信息和命令选择传送到处理器304,并用于控制光标在显示器312上的移动。这种输入装置通常具有两个轴(第一轴(例如,x轴)和第二轴(例如,y轴))上的两个自由度,这两个轴允许装置指定平面上的位置。
根据一个实施例,本文的技术由计算机系统300响应于处理器304执行主存储器306中包含的一个或多个指令的一个或多个序列而执行。这些指令从诸如存储装置310的另一存储介质读入主存储器306。执行主存储器306中包含的指令序列使处理器304执行本文所描述的过程步骤。在替代实施例中,使用硬连线电路代替或与软件指令结合使用。
如本文所使用的术语“存储介质”是指存储数据和/或指令的任何非暂时性介质,这些数据和/或指令使机器以特定方式操作。这种存储介质包括非易失性介质和/或易失性介质。非易失性介质例如包括诸如存储装置310的光盘、磁盘、固态驱动器或三维交叉点存储器。易失性介质包括动态存储器,诸如主存储器306。存储介质的常见形式包括例如软盘、软磁盘、硬盘、固态驱动器、磁带或任何其它磁数据存储介质、CD-ROM、任何其它光数据存储介质、任何具有孔型的物理介质、RAM、PROM和EPROM、FLASH-EPROM、NV-RAM、或任何其它存储芯片或存储盒。
存储介质有别于传输介质,但可以与传输介质相结合使用。传输介质参与存储介质之间的信息传输。例如,传输介质包括同轴电缆、铜线和光纤,其包括具备总线302的电线。传输介质也可以采取声波或光波的形式,诸如在无线电波和红外数据通信过程中产生的声波或光波。
在实施例中,各种形式的介质涉及将一个或多个指令的一个或多个序列承载到处理器304以供执行。例如,这些指令最初是在远程计算机的磁盘或固态驱动器上执行的。远程计算机将指令加载到其动态存储器中,并使用调制解调器通过电话线路发送指令。计算机系统300的本地调制解调器接收电话线路上的数据,并使用红外发射器将数据转换为红外信号。红外检测器接收红外信号中承载的数据,并且适当的电路将数据放置在总线302上。总线302将数据承载到主存储器306,处理器304从主存储器306检索并执行指令。主存储器306接收的指令可以可选地在处理器304执行之前或之后存储在存储装置310上。
计算机系统300还包括耦接到总线302的通信接口318。通信接口318提供耦接到连接至本地网络322的网络链路320的双向数据通信。例如,通信接口318是综合业务数字网(ISDN)卡、电缆调制解调器、卫星调制解调器或用以提供与相应类型电话线路的数据通信连接的调制解调器。作为另一示例,通信接口318是局域网(LAN)卡,用于提供与兼容LAN的数据通信连接。在一些实现中,无线链路也被实现。在任何这种实现中,通信接口318发送和接收承载表示各种类型的信息的数字数据流的电、电磁或光信号。
网络链路320通常通过一个或多个网络向其它数据装置提供数据通信。例如,网络链路320通过本地网络322提供与主计算机324或与由因特网服务提供商(ISP)326运营的云数据中心或设备的连接。ISP 326又通过现在通常称为“因特网”328的世界范围分组数据通信网络来提供数据通信服务。本地网络322和因特网328两者都使用承载数字数据流的电、电磁或光信号。通过各种网络的信号以及网络链路320上并通过通信接口318的信号是传输介质的示例形式,其中这些信号承载了进出计算机系统300的数字数据。在实施例中,网络320包含上述云202或云202的一部分。
计算机系统300通过(一个或多个)网络、网络链路320和通信接口318发送消息和接收包括程序代码的数据。在实施例中,计算机系统300接收用于处理的代码。接收到的代码在接收到时由处理器304执行,和/或存储在存储装置310中,或存储在其它非易失性存储装置中以便以后执行。
自主运载工具架构
图4示出用于自主运载工具(例如,图1所示的AV 100)的示例架构400。架构400包括感知模块402(有时称为感知电路)、规划模块404(有时称为规划电路)、控制模块406(有时称为控制电路)、定位模块408(有时称为定位电路)和数据库模块410(有时称为数据库电路)。各模块在AV 100的操作中发挥作用。共同地,模块402、404、406、408和410可以是图1所示的AV系统120的一部分。在一些实施例中,模块402、404、406、408和410中的任何模块是计算机软件(例如,计算机可读介质上所存储的可执行代码)和计算机硬件(例如,一个或多个微处理器、微控制器、专用集成电路[ASIC]、硬件存储器装置、其它类型的集成电路、其它类型的计算机硬件、或者这些硬件中的任何或所有的组合)的组合。模块402、404、406、408和410各自有时被称为处理电路(例如,计算机硬件、计算机软件、或者这两者的组合)。模块402、404、406、408和410中的任何或全部的组合也是处理电路的示例。
在使用中,规划模块404接收表示目的地412的数据,并且确定表示AV100为了到达(例如,抵达)目的地412而可以行驶的轨迹414(有时称为路线)的数据。为了使规划模块404确定表示轨迹414的数据,规划模块404从感知模块402、定位模块408和数据库模块410接收数据。
感知模块402使用例如也如图1所示的一个或多个传感器121来识别附近的物理对象。感知模块402包括前面所述的分割和标注处理。将对象分类(例如,分组成诸如行人、自行车、汽车、交通标志等的类型),并且将包括经分类的对象416的场景描述提供至规划模块404。
规划模块404还从定位模块408接收表示AV位置418的数据。定位模块408通过使用来自传感器121的数据和来自数据库模块410的数据(例如,地理数据)以计算位置来确定AV位置。例如,定位模块408使用来自GNSS(全球导航卫星系统)传感器的数据和地理数据来计算AV的经度和纬度。在实施例中,定位模块408所使用的数据包括具有行车道几何属性的高精度地图、描述道路网络连接属性的地图、描述行车道物理属性(诸如交通速率、交通量、运载工具和自行车车道的数量、车道宽度、车道交通方向、或车道标记类型和地点,或者它们的组合)的地图、以及描述道路特征(诸如十字路口、交通标志或各种类型的其它行驶信号等)的空间地点的地图。在实施例中,高精度地图是通过将数据经由自动或手动标注添加到低精度地图所构建的。
控制模块406接收表示轨迹414的数据和表示AV位置418的数据,并且以将使得AV100行驶轨迹414到达目的地412的方式来操作AV的控制功能420a~420c(例如,转向、油门、制动、点火)。例如,如果轨迹414包括左转,则控制模块406将以如下方式操作控制功能420a~420c:转向功能的转向角度将使得AV 100左转,并且油门和制动将使得AV 100在进行转弯之前暂停并等待经过的行人或运载工具。
自主运载工具输入
图5示出感知模块402(图4)所使用的输入502a-502d(例如,图1中所示的传感器121)和输出504a-504d(例如,传感器数据)的示例。一个输入502a包括从LiDAR(光检测和测距)系统(例如,图1所示的LiDAR 123)接收到的数据。LiDAR是使用电磁辐射(例如,光或者诸如红外光等的一道光)来获得与其视线中的物理对象有关的数据的技术。LiDAR系统产生LiDAR数据作为输出504a。例如,LiDAR数据是用于构造环境190的表示的3D或2D点(也称为点簇)的集合。
在一些实施例中,LiDAR系统包括由旋转镜反射的至少一个激光测距仪。旋转镜被配置为沿着通常固定到AV的LiDAR系统的方位转动。以这种方式,旋转镜转动,从而生成沿着方位的点的集合,这有时被称为环境190的LiDAR扫描。在一些实施例中,旋转镜可以俯仰以生成表示LiDAR系统周围的环境190的360°视场的LiDAR扫描。以这种方式,LiDAR扫描表示同环境190中的点相关联的距离与LiDAR系统的极坐标(例如,方位角和俯仰角)的一对一映射。在一些实施例中,由感知模块402进行多次LiDAR扫描以生成与环境190中的点簇相关联的距离的总体平均值。例如,在一些实施例中,连续地进行五次LiDAR扫描,并且对与点簇相关联的距离求平均。在一些实施例中,连续地进行五次LiDAR扫描,并且将与点簇相关联的距离链接到LiDAR数据以使用更多的点簇来表示环境190(即,与利用仅一次LiDAR扫描相比,利用多于一次的LiDAR扫描,环境190的LiDAR数据表示“更完整”或“更密集”)。尽管这里使用五次LiDAR扫描作为示例,但可以连续地进行多于或少于五次的扫描。在一些实施例中,由感知模块402连续地进行和分析LiDAR扫描。
另一输入502b是RADAR(雷达)系统。RADAR是使用无线电波来获得与附近的物理对象有关的数据的技术。RADAR可以获得与不在LiDAR系统的视线内的对象有关的数据。RADAR系统502b产生RADAR数据作为输出504b。例如,RADAR数据是用于构造环境190的表示的一个或多个射频电磁信号。
另一输入502c是照相机系统。照相机系统使用一个或多个照相机(例如,使用诸如电荷耦接器件[CCD]等的光传感器的数字照相机)来获取与附近的物理对象有关的信息。照相机系统产生照相机数据作为输出504c。照相机数据通常采用图像数据(例如,诸如RAW、JPEG、PNG等的图像数据格式的数据)的形式。在一些示例中,照相机系统具有例如为了立体影像(立体视觉)的目的的多个独立照相机,这使得照相机系统能够感知深度。尽管照相机系统所感知的对象在这里被描述为“附近”,但这是相对于AV而言的。在使用中,照相机系统可被配置为“看见”远处的(例如,AV前方的远至1公里或更远的)对象。因此,照相机系统可以具有为了感知遥远的对象而优化的诸如传感器和镜头等的特征。
另一输入502d是交通灯检测(TLD)系统。TLD系统使用一个或多个照相机来获得与交通灯、街道标志和提供视觉导航信息的其它物理对象有关的信息。TLD系统产生TLD数据作为输出504d。TLD数据经常采用图像数据(例如,诸如RAW、JPEG、PNG等的图像数据格式的数据)的形式。TLD系统与包含照相机的系统的不同之处在于:TLD系统使用具有宽视场(例如,使用广角镜头或鱼眼镜头)的照相机,以获得与尽可能多的提供视觉导航信息的物理对象有关的信息,使得AV 100能够访问这些对象所提供的所有相关导航信息。例如,TLD系统的视角可以为约120度或更大。
在一些实施例中,使用传感器融合技术来组合输出504a-504d。因而,将个体输出504a-504d提供至AV 100的其它系统(例如,提供至如图4所示的规划模块404),或者可以采用相同类型的单个组合输出或多个组合输出(例如,使用相同组合技术或组合相同输出或者这两者)或不同类型的单个组合输出或多个组合输出(例如,使用不同的各个组合技术或组合不同的各个输出或者这两者)的形式,将组合输出提供至其它系统。在一些实施例中,使用早期融合技术。早期融合技术的特征在于:在将一个或多个数据处理步骤应用到组合输出之前,将输出组合。在一些实施例中,使用后期融合技术。后期融合技术的特征在于:在将一个或多个数据处理步骤应用到个体输出之后,将输出组合。
图6示出LiDAR系统602的示例(例如,图5所示的输入502a)。LiDAR系统602从发光器606(例如,激光发射器)发射光604a-604c。LiDAR系统所发射的光通常不在可见光谱中;例如,经常使用红外光。所发射的光604b中的一些光遇到物理对象608(例如,运载工具)并且反射回到LiDAR系统602。(从LiDAR系统发射的光通常不会穿透物理对象,例如,实心形式的物理对象。)LiDAR系统602还具有用于检测反射光的一个或多个光检测器610。在实施例中,与LiDAR系统相关联的一个或多个数据处理系统生成表示LiDAR系统的视场614的图像612。图像612包括表示物理对象608的边界616的信息。以这种方式,图像612用于确定AV附近的一个或多个物理对象的边界616。
图7示出操作中的LiDAR系统602。在该图所示的情境中,AV 100接收采用图像702的形式的照相机系统输出504c和采用LiDAR数据点704的形式的LiDAR系统输出504a两者。在使用中,AV 100的数据处理系统将图像702与数据点704进行比较。特别地,在数据点704中也识别在图像702中识别出的物理对象706。这样,AV 100基于数据点704的轮廓和密度来感知物理对象的边界。
图8示出LiDAR系统602的操作的附加细节。如上所述,AV 100基于LiDAR系统602所检测到的数据点的特性来检测物理对象的边界。如图8所示,诸如地面802等的平坦对象将以一致的方式反射从LiDAR系统602发射的光804a-804d。换句话说,由于LiDAR系统602使用一致的间隔发射光,因此地面802将以相同的一致间隔将光反射回到LiDAR系统602。在AV100在地面802上行驶时,在没有东西阻挡道路的情况下,LiDAR系统602将继续检测到由下一个有效地面点806反射的光。然而,如果对象808阻挡道路,则LiDAR系统602所发射的光804e-804f将以与预期一致方式不一致的方式从点810a-810b反射。根据该信息,AV 100可以确定存在对象808。
路径规划
图9示出(例如,如图4所示的)规划模块404的输入和输出之间的关系的框图900。一般而言,规划模块404的输出是从起点904(例如,源地点或初始地点)到终点906(例如,目的地或最终地点)的路线902。路线902通常由一个或多个路段定义。例如,路段是指要在街道、道路、公路、行车道或适合汽车行驶的其它物理区域的至少一部分上行驶的距离。在一些示例中,例如,如果AV 100是诸如四轮驱动(4WD)或全轮驱动(AWD)小汽车、SUV或小卡车等的能够越野的运载工具,则路线902包括诸如未铺面路径或开阔田野等的“越野”路段。
除路线902之外,规划模块还输出车道级路线规划数据908。车道级路线规划数据908用于在特定时间基于路线902的路段的条件来驶过这些路段。例如,如果路线902包括多车道公路,则车道级路线规划数据908包括轨迹规划数据910,其中AV 100可以使用该轨迹规划数据910以例如基于出口是否临近、多个车道中的一个或多个车道是否存在其它运载工具、或者在几分钟或更少时间的过程中变化的其它因素来从这多个车道中选择某车道。类似地,在一些实现中,车道级路线规划数据908包括路线902的某路段特有的速率约束912。例如,如果该路段包括行人或非预期交通,则速率约束912可以将AV 100限制到比预期速率慢的行驶速率,例如基于该路段的限速数据的速率。
在实施例中,向规划模块404的输入包括(例如,来自图4所示的数据库模块410的)数据库数据914、当前地点数据916(例如,图4所示的AV位置418)、(例如,用于图4所示的目的地412的)目的地数据918和对象数据920(例如,如图4所示的感知模块402所感知的经分类的对象416)。在一些实施例中,数据库数据914包括规划时所使用的规则。规则是使用形式语言(例如,使用布尔逻辑)指定的。在AV 100所遇到的任何给定情形中,这些规则中的至少一些规则将适用于该情形。如果规则具有基于AV 100可用的信息(例如,与周围环境有关的信息)所满足的条件,则该规则适用于给定情形。规则可以具有优先级。例如,“如果公路是高速公路,则移动到最左侧车道”这一规则与“如果出口在一英里内临近,则移动到最右侧车道”相比可以具有更低的优先级。
图10示出在路径规划中(例如,由规划模块404(图4))使用的有向图1000。一般而言,如图10所示的有向图那样的有向图1000用于确定任何起点1002和终点1004之间的路径。在现实世界中,分隔起点1002和终点1004的距离可能相对较大(例如,在两个不同的都市区域中),或者可能相对较小(例如,毗邻城市街区的两个十字路口或多车道道路的两条车道)。
在实施例中,有向图1000具有表示起点1002和终点1004之间的AV 100可能占用的不同地点的节点1006a-1006d。在一些示例中,例如,在起点1002和终点1004表示不同的都市区域时,节点1006a-1006d表示道路的路段。在一些示例中,例如,在起点1002和终点1004表示相同道路上的不同地点时,节点1006a-1006d表示该道路上的不同位置。这样,有向图1000包括不同粒度级别的信息。在实施例中,具有高粒度的有向图也是具有更大规模的另一有向图的子图。例如,起点1002和终点1004相距远(例如,相距许多英里)的有向图的大部分信息处于低粒度,并且该有向图是基于所存储的数据,但该有向图还包括用于该有向图中的表示AV 100的视场中的物理地点的一部分的一些高粒度信息。
节点1006a-1006d不同于无法与节点重叠的对象1008a-1008b。在实施例中,在粒度低时,对象1008a-1008b表示汽车不能穿过的地区,例如无街道或道路的区域。在粒度高时,对象1008a-1008b表示AV 100的视场中的物理对象,例如其它汽车、行人、或AV 100不能与之共用物理空间的其它实体。在实施例中,对象1008a-1008b的一部分或全部是静态对象(例如,不改变位置的对象,诸如街灯或电线杆等)或动态对象(例如,能够改变位置的对象,诸如行人或其它小汽车等)。
节点1006a-1006d通过边1010a-1010c连接。如果两个节点1006a-1006b通过边1010a连接,则AV 100可以在一个节点1006a和另一节点1006b之间行驶,例如,而不必在到达另一节点1006b之前行驶到中间节点。(当提到AV 100在节点之间行驶时,意味着AV 100在由相应节点表示的两个物理位置之间行驶。)边1010a-1010c通常是双向的,从某种意义上,AV 100从第一节点行驶到第二节点,或者从第二节点行驶到第一节点。在实施例中,边1010a-1010c是单向的,从某种意义上,AV 100可以从第一节点行驶到第二节点,然而AV100不能从第二节点行驶到第一节点。在边1010a-1010c表示例如单向街道,街道、道路或公路的单独车道,或者由于法律或物理约束因而仅能沿一个方向穿过的其它特征的情况下,边1010a-1010c是单向的。
在实施例中,规划模块404使用有向图1000来识别由起点1002和终点1004之间的节点和边组成的路径1012。
边1010a-1010c具有关联成本1014a-1014b。成本1014a-1014b是表示在AV100选择该边的情况下将花费的资源的值。典型的资源是时间。例如,如果一个边1010a所表示的物理距离是另一边1010b所表示的物理距离的两倍,则第一边1010a的关联成本1014a可以是第二边1010b的关联成本1014b的两倍。影响时间的其它因素包括预期交通、十字路口的数量、限速等。另一典型的资源是燃料经济性。两个边1010a-1010b可以表示相同的物理距离,但例如由于道路条件、预期天气等,因此一个边1010a与另一边1010b相比需要更多的燃料。
在规划模块404识别起点1002和终点1004之间的路径1012时,规划模块404通常选择针对成本优化的路径,例如,在将边的个体成本相加到一起时具有最小总成本的路径。
自主运载工具控制
图11示出(例如,如图4所示的)控制模块406的输入和输出的框图1100。控制模块根据控制器1102而操作,该控制器1102例如包括:与处理器304类似的一个或多个处理器(例如,诸如微处理器或微控制器或这两者等的一个或多个计算机处理器);与主存储器306、ROM 308和存储装置310类似的短期和/或长期数据存储装置(例如,存储器,随机存取存储器或闪速存储器或这两者);以及存储器中所存储的指令,这些指令在(例如,由一个或多个处理器)执行时执行控制器1102的操作。
在实施例中,控制器1102接收表示期望输出1104的数据。期望输出1104通常包括速度,例如速率和航向。期望输出1104例如可以基于从(例如,如图4所示的)规划模块404接收到的数据。根据期望输出1104,控制器1102产生可用作油门输入1106和转向输入1108的数据。油门输入1106表示例如通过接合转向踏板或接合另一油门控件来接合AV 100的油门(例如,加速控制)以实现期望输出1104的大小。在一些示例中,油门输入1106还包括可用于接合AV100的制动器(例如,减速控制)的数据。转向输入1108表示转向角度,例如AV的转向控制(例如,方向盘、转向角致动器或用于控制转向角度的其它功能)应被定位成实现期望输出1104的角度。
在实施例中,控制器1102接收在调整提供至油门和转向的输入时使用的反馈。例如,如果AV 100遇到诸如山丘等的干扰1110,则AV 100的测量速率1112降至低于期望输出速率。在实施例中,任何测量输出1114均被提供至控制器1102,使得例如基于测量速率和期望输出之间的差分1113来进行所需的调整。测量输出1114包括测量位置1116、测量速度1118(包括速率和航向)、测量加速度1120和AV 100的传感器可测量的其它输出。
在实施例中,例如通过诸如照相机或LiDAR传感器等的传感器预先检测与干扰1110有关的信息,并且该信息被提供至预测性反馈模块1122。然后,预测性反馈模块1122将控制器1102可用于相应地调整的信息提供至控制器1102。例如,如果AV 100的传感器检测到(“看见”)山丘,则控制器1102可以使用该信息来准备在适当时间接合油门,以避免显著减速。
图12示出控制器1102的输入、输出和组件的框图1200。控制器1102具有影响油门/制动器控制器1204的操作的速率分析器1202。例如,速率分析器1202根据例如由控制器1102接收到并由速率分析器1202处理后的反馈,来指示油门/制动器控制器1204使用油门/制动器1206进行加速或进行减速。
控制器1102还具有影响方向盘控制器1210的操作的横向跟踪控制器1208。例如,横向跟踪控制器1208根据例如由控制器1102接收到并由横向跟踪控制器1208处理后的反馈,来指示方向盘控制器1210调整转向角致动器1212的位置。
控制器1102接收用于确定如何控制油门/制动器1206和转向角致动器1212的若干输入。规划模块404提供控制器1102例如选择AV 100开始操作时的航向并确定在AV 100到达十字交叉路口时穿过哪个道路路段所使用的信息。定位模块408例如将描述AV 100的当前地点的信息提供至控制器1102,使得控制器1102可以确定AV 100是否处于基于正控制油门/制动器1206和转向角致动器1212的方式而预期的地点。在实施例中,控制器1102接收来自其它输入1214的信息,例如从数据库、计算机网络等接收到的信息。
合并LiDAR信息和照相机信息
如图13A所示,运载工具1302包括LiDAR系统1304。在一些实施例中,运载工具1302的LiDAR系统1304与AV 100的LiDAR系统602相同或类似。在一些实施例中,关于运载工具1302的操作所述的功能中的一个或多个由运载工具1302的图像合并系统1350的至少一个处理器(例如,部分地、完全地等)进行。在一些实施例中,该至少一个处理器与AV 100的计算装置146相同或类似。附加地或可替代地,关于运载工具1302的操作所述的功能中的一个或多个由远程服务器的处理器(例如,部分地、完全地等)进行。在一些实施例中,该远程服务器与云服务器136相同或类似。在一些实施例中,该远程服务器与云计算环境200相同或类似。
至少一个LiDAR系统1304在LiDAR系统1304的视场1306内以光的形式发射电磁辐射。然后,该光被对象1300(例如,交通灯)反射回来,并由LiDAR系统1304接收到。以这种方式,LiDAR系统1304检测从接近运载工具1302(例如,与运载工具1302相距1米、2米或另一距离)的对象1300反射的电磁辐射,并且基于所检测到的电磁辐射来生成LiDAR信息。LiDAR系统1304与运载工具1302的图像合并系统1350进行通信,并且LiDAR信息被传输至图像合并系统1350以进行处理(例如,图像合并系统1350的至少一个处理器从LiDAR系统1304接收到表示LiDAR信息的信号)。以这种方式,图像合并系统1350分析所接收到的LiDAR信息以检测接近运载工具1302的对象1300。在一些情况下,LiDAR系统1304基于LiDAR系统1304接收反射光来生成与点云相关联的LiDAR信息。在一些情况下,LiDAR系统1304将与点云相关联的LiDAR信息传输至运载工具1302的图像合并系统1350。图像合并系统1350基于所接收到的LiDAR信息来生成LiDAR图像(例如,如图13B所示)。
图13B是LiDAR图像1320的示例,该LiDAR图像1320表示(i)在2D坐标系中LiDAR信息的各LiDAR点相对于运载工具1302的航向(例如,LiDAR系统1304的俯仰和横摆)、以及(ii)作为各LiDAR点的相对强度的、各LiDAR点离运载工具1302的距离。该相对强度使用阴影规模来表示。例如,使用第一阴影1308示出离LiDAR系统1304(和运载工具1302)最近的对象,使用第二阴影1310示出最远的对象,并且使用插值阴影示出在这两个距离之间的对象。LiDAR图像1320的无阴影的部分1312没有接收到任何实质性的光反射。
在一些实施例中,当接收光相对于发射光的信号比大于或等于阈值时,LiDAR系统1304确定为LiDAR点的反射是实质性的。附加地或者可替代地,在一些实施例中,当信号比小于或等于阈值时,LiDAR系统1304确定为LiDAR点的反射不是实质性的。在一些示例中,当LiDAR系统1304以单位功率发射光并且以小于发射光的单位功率的百万分之一接收光时,所接收的反射被认为不大(例如,使用公式10log10(接收信号/发射信号)为小于-60dB)。LiDAR图像1320的与无LiDAR信息相关联的部分1312低于阈值。
在一些实施例中,改变阈值以适应不断变化的噪底或LiDAR系统1304(例如,电子噪声、模数转换、RF干扰等)。信噪比(SNR)基于噪底。在一些示例中,电子噪声如此之大(例如,由于接地问题)以致于LiDAR系统1304不能将所接收到的信号(以及因此所接收到的LiDAR信息)与电子噪声区分开。结果,在这种情况下,基于电子噪声将阈值增加到高于电子噪声。
在一些实施例中,改变阈值以适应LiDAR系统1304的不断变化的环境(例如,在运载工具1302在环境中移动时)。在一些示例中,环境1302包括不能很好地反射光的构造物(例如,非反射性构造物、完全没有构造物等),结果,LiDAR系统1304没有接收到大量信号。在这种情况下,增加阈值,使得LiDAR系统1304更好地分辨构造物。
图13B示出表示安装到交叉口处的水平杆的交通灯的两个区域1314、1316。使用LiDAR信息的多个LiDAR点来分辨交通灯。在该情景中,将一个或多个LiDAR点的集合表示为LiDAR点簇。在一些实施例中,图像合并系统1350基于各相应LiDAR点的相对于运载工具1302的航向(例如,俯仰和偏航)以及从运载工具1302到各相应LiDAR点的距离来确定LiDAR点簇。在一些示例中,图像合并系统1350确定为在LiDAR信息中存在对象的四个LiDAR点簇(例如,区域1314中的两个交通灯和区域1316中的两个交通灯)。
运载工具1302的图像合并系统1350确定从运载工具1302到LiDAR信息的各个LiDAR点簇的航向和距离。在一些示例中,基于航向和距离信息来确定朝向。在一些示例中,朝向表示对象正面向的方向。例如,交通灯的交通信号(例如,红灯、黄灯、绿灯等)指向交通灯正面向(例如,朝向迎面而来的运载工具)的方向。作为另一示例,停车标志包括具有信号或消息的面,该信号或消息打算在垂直于该面(例如,朝向迎面驶来的运载工具)的方向被查看。在该情景下,朝向表示与具有信号或消息的面的平面垂直的方向。在一些示例中,图像合并系统1350使用各相应LiDAR点的航向、距离和朝向的平均值以确定LiDAR点簇的航向、距离和朝向。在一些示例中,航向和朝向的该平均值包括从LiDAR系统1304到对象的面的一个或多个部位的距离。
以这种方式,LiDAR点的地点(例如,航向和距离)指示多个对象(例如,人、垃圾桶、标志等)中的一个或多个存在于运载工具1302的环境内的某个地点处。例如,在如图13A所示的交通灯1300的情况下,运载工具1302的图像合并系统1350处理所接收到的LiDAR信息以确定运载工具1302与交通灯的一个或各个面之间的多个距离。
图14A示出安装在运载工具1302上的至少一个照相机系统1322。在一些实施例中,照相机系统1322与AV 100的照相机系统122相同或类似。照相机系统1322与运载工具1302的图像合并系统1350进行通信,并将信息作为照相机信息传输到至少一个处理器以进行处理(例如,图像合并系统1350的至少一个处理器从照相机系统1322接收到表示照相机信息的信号)。以这种方式,图像合并系统1350分析所接收的照相机信息以检测视场1324内接近运载工具1302的对象1300(例如,在所示示例中,照相机系统1322拍摄图13A所示的相同对象1300的图像。)图像合并系统1350基于所接收到的照相机信息来生成照相机图像(例如,如图14B所示)。
图14B示出在分割处理识别出图像中的一个或多个交通灯之后的照相机系统1322的典型输出图像1330。交通灯与图像1330中的区域1326、1328相关联(例如,由区域1326、1328表示)。例如,运载工具1302的图像合并系统1350(例如,使用边缘检测、颜色变化、比赛梯度等)分析图像1330以确定几何特征(例如,面、边缘、顶点等),并且随后(例如,经由感知模块的标注处理)基于这些几何特征的知识确定哪些对象1300是交通灯。
本说明书的重要方面涉及图像合并系统1350将来自LiDAR系统1304的LiDAR信息和来自照相机系统1322的照相机信息合并。这使得图像合并系统1350能够以与仅使用LiDAR信息或照相机信息来确定运载工具1302特别关注的对象的朝向、航向和/或位置相比提高了的准确度来确定这些相同参数。以这种方式,图像合并系统1350将在图像信息(例如,图14B)中表示的几何特征与来自LiDAR信息(例如,图13B)的LiDAR点和/或LiDAR点簇相关联。
在实施例中,运载工具1302的图像合并系统1350基于LiDAR信息和照相机信息来识别所检测到的对象1300。在一些示例中,该识别将所检测到的对象1300与交通灯相关联。
在实施例中,运载工具1302的图像合并系统1350使用LiDAR信息、照相机信息和/或合并图像以确定对象的分类信息。分类信息表示如前面所述的LiDAR信息和照相机信息内的对象的关注级别。在一些示例中,标注和分割处理确定分类信息并将该分类信息传输至图像合并系统1350以进行处理。
在一些示例中,分类指示在环境中移动的对象(例如,运载工具、摇晃的树木、行人等)或在环境中静止的对象(例如,交通灯、交通标志[停车标志、让路标志、限速标志]、人行横道等)。在实施例中,运载工具1302的图像合并系统1350基于一段时间内的所获取到的照相机信息和所获取到的LiDAR信息来检测移动对象(例如,多次获取照相机信息和LiDAR信息以确定对象随时间经过的位置变化)。在该情景中,在一些示例中,图像合并系统1350确定为对象在2秒内朝向运载工具1302移动了0.1m。在一些示例中,基于跟踪标注和分类处理的标识来检测移动对象(例如,标注处理使用诸如车牌、对象的边缘、前车灯等的对象的特征来确定为对象是运载工具)。
在实施例中,分类处理将对象分组为一个或多个类别(例如,类别1是交通灯,类别2是交通标志,并且类别3是其它所有)。例如,如果运载工具1302意识到前方存在类别1中的数个对象,则运载工具1302触发如下的处理,该处理用以确定从交通灯发射的光的颜色和位置,以确定交通灯是否正在用信号通知运载工具1302前进、让路或停车。在实施例中,通过分析交通灯所发射的光的特征可检测交通灯的方向指示器(例如,绿色左箭头)。在所检测到的对象是交通灯的情景中,在一些示例中,如果交通灯为黄色并且与运载工具1302相距500m,则图像合并系统1350确定为不需要对运载工具轨迹的改变(例如,还没有必要减速)。另一方面,在一些示例中,如果交通灯为红色并且与运载工具1302相距20m,则图像合并系统1350指示运载工具进行对轨迹的更新以使得运载工具1302能够立即停车。
在一些示例中,运载工具的图像合并系统1350基于(例如,如由图像合并系统1350使用LiDAR信息确定的)从运载工具1302到对象的距离和运载工具1302的当前速度来确定可用的响应时间。以这种方式,可用的响应时间表示多少时间可用以对所检测到的对象作出反应。在一些示例中,基于可用的响应时间来更新运载工具1302的轨迹(例如,如果在左转弯车道中没有足够的时间停车,则切换车道并直行通过交叉口)。
在实施例中,如果运载工具1302意识到前方存在类别2中的数个对象,则运载工具1302的图像合并系统1350确定(或使得确定)交通标志表示或意味着什么。在该情景中,图像合并系统1350解释来自标志的单词和/或表述。在一些示例中,交通标志是行人人行横道标志,并且通过提取标志的特征(例如,标志的形状)并经由标注处理进行图像处理来检测(例如,将所接收到的照相机信息、LiDAR信息和/或合并信息与已知的人行横道指示器的图像进行比较)。
在实施例中,运载工具1302的图像合并系统1350基于对象的分类来建立警戒级别。在一些示例中,警戒级别基于所接收到的标注信息。在一些示例中,运载工具1302的图像合并系统1350针对区域中的行人使运载工具1302处于高警戒状态(例如,高于正常值)。在一些示例中,图像合并系统1350响应于处于高警戒而控制运载工具1302减速。在一些示例中,图像合并系统1350将这些控制信号传输至用于控制运载工具1302的单独运载工具控件。
在实施例中,运载工具1302的图像合并系统1350建立表示运载工具1302是否具有优先通行权的让路级别。在一些示例中,如果图像合并系统1350确定为即将到来的交通标志是让路标志,则图像合并系统1350建立让路级别并控制运载工具1302向其它运载工具让路。在一些示例中,图像合并系统1350将控制信号传输至用于控制运载工具1302的单独运载工具控件。
在一些示例中,交通标志具有关联的指令(例如,学校区域标志使得运载工具1302减速、停车标志使得运载工具1302停车、等等),并且这些指令由运载工具1302的图像合并系统1350接收、解释并用于控制运载工具1302的操作。在一些示例中,交通标志的指令由图像合并系统1350经由查找表或数据库来进行。在一些示例中,这些指令由图像合并系统1350从地图中检索出。
在实施例中,在分类信息中包括临时区别。临时区别指示临时对象。在一些示例中,图像合并系统1350使用临时区别来谨慎地控制运载工具。例如,在施工区的情况下,运载工具减速。在一些示例中,临时区别基于对象分类(例如,在使用类别1和/或类别2对对象进行分类的情况下仅应用临时区别)。
在一些示例中,运载工具1302的图像合并系统1350基于交通标志的移动来确定为类别2中的交通标志是临时的(例如,诸如当工人挥动标志或翻转标志时,标志附着到移动的施工运载工具等)。在一些示例中,图像合并系统1350(例如,通过基于在交通标志和地面之间存在刚性连接(杆)确定为交通标志刚性地连接至地面)推断为交通标志不应移动,并且确定为移动导致临时区别。在一些示例中,图像合并系统1350基于(例如,经由来自交通标志的广播无线信号)从服务器、数据库、地图或从交通标志自身接收交通标志是永久构造物的指示来推断为交通标志不应移动。
在一些实施例中,运载工具1302的图像合并系统1350考虑利用照相机系统1322获取照相机信息和利用LiDAR系统1322获取LiDAR信息之间的定时差异。在一些示例中,图像合并系统1350基于该定时差异来确定LiDAR信息和照相机信息的合并处理。以下关于图15A-15D来进一步说明与定时差异有关的方面。
图15A-15D示出在从LiDAR系统1304获取LiDAR信息和从照相机1322获取照相机信息之间发生的步骤的定时序列。
图15A示出运载工具1302的LiDAR系统1304的视场1402内的交通灯1300。在一些示例中,视场1402表示利用LiDAR系统1304可检测对象的轮廓。在实施例中,LiDAR系统1304向下俯仰以强调环境的地面上的对象而弱化空中(例如,地面上方)的对象。LiDAR系统1304获取交通灯1300的LiDAR信息,并且该LiDAR信息被传输至运载工具1302的图像合并系统1350。
图15B示出运载工具1302的照相机系统1322的视场1404。视场1402通常不同于视场1404,因为LiDAR系统1304和照相机系统1322通常具有不同的光学配置。在特定时间点,运载工具1302的处理器指示LiDAR系统1304和照相机系统1322获取与运载工具1302的环境有关的信息。如图15A和图15B所示,如果LiDAR系统1304和照相机系统1322同时获取信息,则可能存在如下的情景:LiDAR系统1304的视场1402包括交通灯1300,但照相机系统1322的视场1404不包括交通灯1300。在该上下文中,视场1404表示可检测对象在焦点内且用阈值数量的像素(例如,至少100个像素)可分辨的区域。
图15C示出与图15A和图15B所示的情形相比、运载工具1302已移动得离交通灯1300更近的情形。在该情景中,LiDAR系统1304不能完全分辨交通灯1300,因为交通灯1300的至少一部分在LiDAR系统1304的视场1402外。
图15D示出运载工具1302的图像合并系统1350指示LiDAR系统1304首先(例如,在照相机系统1322之前)获取LiDAR信息的合成。这用图15D的状态A表示。然后,运载工具1302的图像合并系统1350在经过了一段时间之后指示照相机系统1322获取照相机信息。这用图15D的状态B示出。以这种方式,从LiDAR系统1304获取LiDAR信息和从照相机1322获取照相机信息在时间上偏移,以考虑LiDAR系统1304和照相机系统1322之间的视场差异。在图15D所示的情景中,在状态A处从LiDAR系统1304获取LiDAR信息,并且在约2秒之后,在状态B处从照相机系统1322获取照相机信息。
在一些示例中,运载工具1302的图像合并系统1350根据LiDAR信息确定为交通灯为10米远,但从照相机系统1322接收到的照相机信息不足以分辨该交通灯。在该情景中,照相机信息的或许仅几个像素表示交通灯。在一些示例中,照相机信息的小于10%的像素表示交通灯的特征,并且被认为不足以分辨交通灯。
在实施例中,LiDAR信息包括来自多于一次扫描(例如,2-20次LiDAR扫描,诸如10次LiDAR扫描等)的信息。在实施例中,获取LiDAR信息和获取照相机信息之间的时间延迟基于运载工具1302的行驶时间。在一些示例中,图像合并系统1350基于在获取LiDAR信息时运载工具1302的地点和在获取照相机信息时运载工具1302的地点之间的地点差异来估计行驶时间。在一些示例中,图像合并系统1350基于运载工具1302的速度来估计行驶时间。
在一些实施例中,运载工具1302的图像合并系统1350基于表示交通灯1300的特征的像素数量来确定准确度。在一些情景中,运载工具1302的图像合并系统1350基于表示交通灯1300的特征的像素数量是否超过阈值来确定准确度(例如,100个像素与高准确度相关联,10个像素与差准确度相关联)。在这些示例中,准确度基于与对象1300相关联(例如,用于分辨对象)的像素数量。
在一些示例中,准确度基于运载工具1302和交通灯1300之间的距离(例如,运载工具1302的图像合并系统1350基于到交通灯1300的物理距离来确定准确度)。在一些示例中,随着运载工具1302移动得离交通灯1300更近(例如,在经过了2秒之后),重新获取照相机信息,并且与来自2秒之前的图像信息相比,更多个(例如,数百个)像素与交通灯1300相关联。
在一些示例中,图像合并系统1350基于来自外部服务器、数据库或地图的准确度和/或信息来确定置信度。例如,在一些情况下,当图像合并系统1350从服务器、数据库或地图接收到交通灯正在接近的指示时,图像合并系统1350(例如,基于像素数量等)确定所检测到的对象的准确度是否高于阈值。在所检测到的对象的准确度高于阈值的情况下,高置信度与所检测到的对象相关联。另一方面,在所检测到的对象的准确度低于阈值的情况下,低置信度与所检测到的对象相关联。在这些情况下,置信度表示运载工具1302对前方的对象1300实际上是交通灯的确信程度。在一些示例中,运载工具1302的轨迹和/或运载工具1302的路径规划基于置信度。在一些示例中,当置信度低(例如,低于5%)时,运载工具1302忽略所检测到的对象。在一些示例中,当置信度低时,运载工具1302使用附加资源(乘员确认、外部地图信息等)来确认对象的存在。
在一些实施例中,运载工具的图像合并系统1350控制照相机系统1322的变焦特征(例如,光学变焦或数字变焦)以放大对象1300。在一些情况下,基于准确度和/或置信度来控制变焦特征。例如,当准确度(或置信度、或者准确度和置信度这两者)低于阈值时,图像合并系统1350确定为有必要二次查看,并且控制(或指示)照相机系统1322(或第二照相机系统)的变焦特征用2倍倍率光学放大。在一些示例中,运载工具的图像合并系统1350基于照相机信息(或合并信息)来控制(或指示)照相机系统1322平移到所检测到的对象的区域。一旦照相机系统1322准备就绪(变焦和/或平移),照相机系统1322然后生成第二照相机信息并将该第二照相机信息传输到运载工具的图像合并系统1350。图像合并系统1350分析与第一照相机信息类似的第二照相机信息。在一些实施例中,第二照相机系统用于获取第二照相机信息。
类似地,在一些实施例中,第二LiDAR系统用于获取第二LiDAR信息。例如,当准确度(或置信度、或者准确度和置信度这两者)低于阈值时,图像合并系统1350确定为有必要二次查看,并且控制(或指示)LiDAR系统1304(或第二LiDAR系统)的变焦特征用2倍倍率光学放大。在一些示例中,运载工具的图像合并系统1350基于LiDAR信息(或合并信息)来控制(或指示)LiDAR系统1304平移到所检测到的对象的区域。一旦LiDAR系统1304准备就绪(变焦和/或平移),LiDAR系统1304然后生成第二LiDAR信息并将第二LiDAR信息传输到运载工具的图像合并系统1350。图像合并系统1350分析与第一LiDAR信息类似的第二LiDAR信息。
在实施例中,在一段时间(例如,多达10秒)内连续获取LiDAR信息并将该LiDAR信息存储在运载工具1302的存储缓冲器中。在一些实施例中,运载工具1302的图像合并系统1350从存储缓冲器中检索出LiDAR信息以进行处理。
一旦运载工具1302的图像合并系统1350(例如,通过获取或通过缓冲)可以访问表示运载工具1302的环境的LiDAR信息和照相机信息,图像合并系统1350就开始合并处理。图像合并系统1350将LiDAR信息的至少一部分与照相机信息的至少一个像素相关联,以提高运载工具对环境的理解。典型地,照相机信息的至少一个像素表示特别关注的对象(例如,停车标志、交通灯、运载工具等)。
返回参考图15D所示的示例,在该情景中,运载工具1302的图像合并系统1350将同照相机系统1322相关联的照相机信息与来自2秒之前的相应LiDAR信息合并。在其它示例中,LiDAR信息和照相机信息的获取同时发生。
通过合并处理,图像合并系统1350使LiDAR系统1304和照相机系统1322各自的视场彼此同步。在一些示例中,图像合并系统1350将照相机信息的图像特征(例如,边缘、面部、颜色等)与先前获取到的LiDAR信息进行比较以确定同步。
图16A是来自LiDAR系统1304的LiDAR信息与来自照相机系统1322的照相机信息的合并处理的图示。如前面所述,图像合并系统1350将LiDAR信息的至少一部分与照相机信息的至少一个像素相关联。在一些示例中,运载工具1302的图像合并系统1350基于LiDAR系统1304和照相机系统1322之间的相对距离来将LiDAR信息与照相机信息合并。在一些示例中,运载工具1302的图像合并系统1350基于LiDAR系统1304的视场与照相机系统1322的视场的比率将LiDAR信息与照相机信息合并。
在实施例中,图像合并系统1350基于在LiDAR信息和照相机信息这两者中表示的特征来确定LiDAR信息和照相机信息的各个特征之间的对齐。在一些示例中,在LiDAR信息和照相机信息这两者中可辨认出诸如锐边等的特征梯度,并且图像合并系统1350使用这些特征梯度以将LiDAR信息合并到照相机信息。在该情景中,照相机信息中的边缘与LiDAR信息中的梯度对齐。
在一些实施例中,图像合并系统1350将所有的LiDAR信息都与照相机信息合并。在一些实施例中,图像合并系统1350将LiDAR信息的一部分与照相机信息合并。例如,图像合并系统1350从LiDAR信息中选择特别关注的区域,将这些区域与照相机信息合并,并且丢弃LiDAR信息的其余部分。如以上关于图13B所述,在一些示例中,LiDAR信息的特别关注的区域是LiDAR点簇。一个或多个LiDAR点簇存在于LiDAR信息内并且由运载工具1302的图像合并系统1350确定。
在一些实施例中,图像合并系统1350针对LiDAR信息内的各LiDAR点簇确定映射。在一些示例中,针对各LiDAR点簇独立地进行合并处理。在该情景中,图像合并系统1350确定表示各个LiDAR点簇和照相机信息的一个或多个像素之间的最佳拟合映射的映射。以这种方式,图像合并系统1350将照相机信息的一个或多个像素的对象信息与LiDAR信息的LiDAR点簇相关联。将LiDAR信息与照相机信息的合并使得图像合并系统1350能够在合并信息的区域中查询并检索出相应的LiDAR信息和照相机信息。作为示例,当图像合并系统1350询问合并后的LiDAR信息和照相机信息内的区域的状态或属性(例如,颜色、强度、位置等)时,图像合并系统1350接收到如下的信息,该信息与同区域内的LiDAR点相关联的LiDAR信息(诸如距离信息、LiDAR获取的事件等)以及照相机信息(例如,颜色、强度、2D位置等)这两者相关联。例如,在所检测到的对象是交通灯的情景中,图像合并系统1350查询与合并信息相关联的像素的颜色以推断交通灯正在指示哪个交通指令(例如,绿灯行、黄灯等待和红灯停)。在这些情况下,从合并信息的照相机信息部分检索出颜色和强度信息,并且从合并信息的LiDAR信息部分检索出朝向和距离信息。在一些示例中,当图像合并系统1350确定为强度高于阈值时,图像合并系统1350控制运载工具对交通指令作出响应。
图16B示出来自LiDAR系统1304的LiDAR信息(在图16B中使用点来表示)与来自照相机系统1322的照相机信息(在图16B中使用线来表示)合并的合成图像。特别地,图16B示出环境中的物理对象(例如,建筑物的边缘、交通灯等)与照相机信息和LiDAR信息这两者相关联。
在图16B所示的示例中,区域1502内的一对交通灯1504与照相机信息和LiDAR信息这两者相关联。交通灯1504的边界框或边缘是用粗体轮廓示出的。在一些示例中,图像合并系统1350从分割和标注处理确定或接收边界框信息。在一些示例中,运载工具1302的分割和标注处理识别在照相机信息中表示的关注对象(例如,交通灯1502、停车标志、行人等),并且将表示这些对象的照相机信息的一个或多个像素与边界框相关联。在一些示例中,在不考虑LiDAR信息的情况下基于照相机信息来确定边界框。在一些示例中,基于关注对象(例如,关注对象的分类)来确定边界框。例如,在一些情况下,分割和标注处理针对所有检测到的对象确定边界框,但图像合并系统1350滤除(忽略)某些类别内的所有检测到的对象(例如,忽略与类别3相关联的所有边界框等)。
在实施例中,图像合并系统1350确定位于边界框内(例如,在由边缘定义的边界内)的LiDAR信息。在一些示例中,图像合并系统1350基于与边界框内的LiDAR信息相关联的平均距离来确定从运载工具1302到交通灯1502的距离。
在实施例中,图像合并系统1350使用由边界框封装的合并后的LiDAR信息来确定环境中从运载工具1302到对象的距离。在一些示例中,该距离由运载工具1302的图像合并系统1350用于控制目的和地图标注。在一些示例中,图像合并系统1350响应于使用合并后的LiDAR信息和照相机信息所确定的距离来控制运载工具1302。
在一些示例中,通过将各交通灯与环境中的位置相关联来标注对象在地图内的位置,以表示交通灯存在于某个位置。在一些示例中,地图是全局地图。在实施例中,地图被其它运载工具使用以预期交通灯在环境内的位置。在一些示例中,运载工具1302的图像合并系统1350基于(例如,如由GPS传感器接收到的、以及/或者如由定位系统或模块确定的等)运载工具1302的地点、照相机系统1322的位置、朝向和视场、以及LiDAR系统1304的位置、朝向和视场来确定对象的位置。
在实施例中,图像合并系统1350确定对象的实例标识符(id)。对象的实例标识符用于在环境中跟踪对象。在一些示例中,实例标识符是用于跟踪目的的唯一编号。
例如,当运载工具1302识别出新(例如,先前未观察到的)交通灯时,运载工具1302的图像合并系统1350将该新交通灯连同该新交通灯的位置信息一起指派到类别1。随着运载工具1302在环境中移动,运载工具的图像合并系统1350连续地观察对象并基于实例标识符来核实哪个对象是相同的以及哪些对象是新的。在某情景中,运载工具1302转弯并观察到前方的新交通灯。随后,图像合并系统1350确定该新交通灯并将该新交通灯指派到新的实例标识符(例如,与实例标识符相关联的数字递增)。
在实施例中,实例标识符基于置信度。例如,随着运载工具1302离对象更近,图像合并系统1350(例如,基于确定为存在经由运载工具1302的传感器可获得的对象的更多LiDAR信息和照相机信息)以更高的置信度确定对象实际上是交通灯。
在实施例中,图像合并系统1350连续更新对象的位置信息。例如,与离运载工具1302有10米远的对象相关联的估计位置(例如,对象相对于预先生成的3D地图的位置、以及/或者对象相对于区域中的一个或多个建筑物的位置等)与当仅1米远时的估计位置信息相比通常不太准确。这样,图像合并系统1350保持具有最高置信度的位置信息。在一些示例中,该位置信息存储在运载工具1302的存储器、或者远程数据库或地图内。
在实施例中,图像合并系统1350随时间的经过更新分类。在一些示例中,图像合并系统1350更新对象的分类(例如,从类别3更新为类别2)。例如,在某场景中,从远处看,运载工具1302的图像合并系统1350确定行人在前方并且将关联的合并后的LiDAR信息指派到类别3,但随着运载工具1302接近,图像合并系统1350意识到行人分类不正确并且对象实际上是停车标志并将分类信息更新为类别2。
在实施例中,图像合并系统1350基于后续合并的LiDAR信息和照相机信息来更新实例标识符。在一些示例中,运载工具1302的图像合并系统1350确定为一个交通灯在前方,但随着运载工具1302接近,图像合并系统1350意识到交通灯实际上是两个交通灯。在该情景中,图像合并系统1350连续确定对象是否被分成多个对象。这里,原本由图像合并系统1350指派到一个实例标识符的交通灯被分成两个交通灯,并且各交通灯由运载工具1302的图像合并系统1350指派唯一的实例标识符。以这种方式,对象的实例标识符是可更新的。
在实施例中,图像合并系统1350确定对象的朝向(例如,表示对象的指令正面向的方向的朝向)。在一些示例中,瞄准除运载工具1302的车道以外的车道的前方交通灯(例如,交通工具灯的交通指令没有指向运载工具1302)尽管不是瞄准运载工具1302的路径,但用于更新地图。换句话说,在一些情况下,无论交通灯是否在运载工具1302的路径中,都在地图中更新交通灯的存在和朝向。
在实施例中,确定朝向基于对象自身的特征(例如,边缘、颜色、比例等)。在实施例中,图像合并系统1350基于朝向来确定方向。在一些示例中,停车标志面的边缘用于推断垂直于停车标志的面的方向(例如,通过计算表示该面的LiDAR点簇所跨越的面的向量叉积来推断)。在另一示例中,交通灯的边缘用于推断交通灯的方向(例如,交通信号以及因此交通指令指向何处)。在一些示例中,图像合并系统1350基于所检测到的对象的朝向来控制运载工具。例如,如果图像合并系统1350(例如,通过确定所检测到的对象指向的方向和运载工具的行驶方向之间的向量点积何时高于阈值)确定为交通灯指向的方向朝向运载工具,则控制运载工具以对交通信号或交通信号的交通指令作出响应。在其它情况下,当图像合并系统1350(例如,通过确定所检测到的对象指向的方向和运载工具的行驶方向之间的向量点积何时低于阈值)确定为交通灯没有指向的方向朝向运载工具时,运载工具的控制器不对交通灯的交通指令作出响应。
在实施例中,在运载工具1302穿过对象的环境时,运载工具1302的图像合并系统1350构建对象的3D表示。在实施例中,3D表示用于确定对象的朝向。
图16C示出由边界框(未示出)封装的LiDAR信息。与图13B所示的示出所有LiDAR信息的LiDAR图像1320相对比,图16C示出由一个或多个边界框封装的LiDAR信息。以这种方式,一个或多个边界框用作LiDAR信息的过滤器,并且在该过滤处理之后仅一个或多个边界框内的LiDAR信息持续存在。
图16D示出与图16C的交通灯其中之一相关联的LiDAR信息的详细视图。特别地,图16D示出与表示交通灯的LiDAR点簇相关联的各LiDAR点、以及各LiDAR点的各个属性。
运载工具1302的图像合并系统1350基于合并后的LiDAR信息和照相机信息来确定各个的属性。在所示示例中,图像合并系统1350对各LiDAR点进行标注以包括位置信息(例如,x,y,z)、分类信息(例如,“class”参数)和实例信息(例如,“instance_id”参数)。在一些示例中,利用其它信息(例如,物理属性(例如,颜色、大小等)、状况(例如,临时的、最后观察到的等)、等等)对各LiDAR点进行标注。
图17A-17F示出使用表示运载工具1302周围的360度视野的LiDAR信息和照相机信息来进行合并处理的实施例。运载工具1302的图像合并系统1350形成表示LiDAR信息与照相机信息合并的合成表示1600。在该示例中,照相机信息表示从运载工具1302的照相机系统1322获取到的六个照相机图像。在该示例中,图17B表示运载工具1302的正前方的环境,图17E表示运载工具1302的正后方的环境,图17A表示运载工具1302的左前方的环境,图17C表示运载工具1302的右前方的环境,图17D表示运载工具1302的右后方的环境,并且图17F表示运载工具1302的左后方的环境。合成表示1600限定运载工具1302周围的完整360度视野。运载工具的图像合并系统1350将LiDAR信息与跨越完整360度视野的照相机信息合并。以这种方式,运载工具1302的图像合并系统1350确定运载工具1302的360度视野周围的各相应对象的距离。
图18是将LiDAR信息与照相机信息合并的图像合并处理1700的实施例的流程图。图像合并处理1700可使用运载工具1302的图像合并系统1350的至少一个处理器或远程服务器(例如,云服务器136或云计算环境200)的至少一个处理器来实现。尽管图像合并处理1700示出特定的信息流,但将LiDAR信息与照相机信息合并的实施例不限于特定的信息流。
至少一个照相机1322用于获取照相机信息1702。在一些示例中,照相机信息1702表示运载工具1302周围的360度视野。
至少一个LiDAR系统1304用于获取LiDAR信息1704。在一些示例中,运载工具的图像合并系统1350接收运载工具1302的运载工具位置和朝向信息1712以及LiDAR信息1704。
在合并处理1706中使用来自LiDAR系统1304和至少一个照相机1322的LiDAR信息。换句话说,当图像合并系统1350实现合并处理1706的处理时,图像合并系统1350接收来自LiDAR系统1304和至少一个照相机1322的LiDAR信息。
在进行合并处理1706时,图像合并系统1350确定将LiDAR信息与照相机信息合并的最佳拟合,并且基于LiDAR信息和照相机信息来生成合并的信息。
处理1700包括分割、标注和分类处理1708。在所示示例中,来自合并处理1706的合并信息由分割、标注和分类处理1708使用。然而,在一些示例中,分割、标注和分类处理1708在合并处理1706之前(例如,仅使用照相机信息或LiDAR信息)进行。
在所示示例中,图像合并系统1350在实现分割、标注和分类处理1708时,将对象与三个类别(类别1是交通灯,类别2是交通标志,并且类别3是其它所有)相关联。类别信息包括在与各对象相关联的分类信息中。这样,各对象包括分类信息。在一些示例中,实例标识符被指派为分割、标注和分类处理1708的一部分,并且包括在分类信息中。
在实施例中,对象查询处理1708包括在处理1700中。在进行对象查询处理1708时,图像合并系统1350迭代(例如,循环)遍历各类别中的各实例标识符以确定运载工具1302的动作。在一些示例中,图像合并系统1350用对象信息(例如,类别、实例标识符、位置和朝向)更新地图1710。在一些示例中,该地图由其它运载工具查询,并且其它运载工具的各个处理器使用该地图来确定何时预期即将到来的交通灯或交通标志。
在实施例中,图像合并系统1350还确定是否将与对象相关联的信息存储在服务器(诸如服务器1714等)或数据库(诸如数据库1716等)中。在实施例中,图像合并系统1350将与对象相关联的信息存储在服务器或数据库中。类似地,在实施例中,图像合并系统1350从服务器、数据库或地图检索出对象信息,相应地更新对象信息,并将对象信息发送回至服务器、数据库或地图。
图19A-19B示出全局地图1710的详情。地图1710包括环境的道路。地图1710是用横轴上的X坐标和纵轴上的Y坐标示出的。为了简洁而未示出Z坐标,但在一些实施例中,Z坐标包括在全局地图1710中所存储的信息中,以表示对象离地面(或海平面以上)的高度。在图19B所示的示例中,全局地图1710包括区域1802内的五个对象的地点。这五个对象存储在全局地图1710中。当图像合并系统1350从地图1710检索出对象信息时,将与这五个对象有关的信息传输至图像合并系统1350。
在实施例中,在运载工具1302的图像合并系统1350识别出前方的交通灯之后,图像合并系统1350将交通灯的位置与全局地图1710中的对象的已知实例进行比较。例如,如果全局地图1710指示前方特定地点处的交通灯,则运载工具1302的图像合并系统1350采用交通灯的实例标识符,并从全局地图1710下载交通灯的关联信息。例如,在一些情况下,地图中所包括的对象的位置信息与运载工具1302的图像合并系统1350所估计的当前位置相比更准确。在其它示例中,对象离运载工具1302太远而不能确定对象的朝向,因此该对象改为由全局地图1710下载,并由图像合并系统1350用作该对象的朝向。以这种方式,用运载工具的图像合并系统1350至少观察到一次的类别1和类别2中的所有对象的位置和朝向的当前最新估计来标注全局地图1710。
在实施例中,观察到对象的次数也存储在全局地图1710上。在一些示例中,观察到对象的次数指示对象存在的概率。例如,在一些情况下,如果每天至少一次观察到对象,则对象与该对象存在的高概率相关联。另一方面,在一些情况下,如果观察到对象的频率小于每年一次(例如,每周一次、每月一次等),则对象与该对象存在的低概率相关联。在一些示例中,如果对象被移除或移动,则相应地更新地图。在实施例中,对象仍留在全局地图1710上,但对象与如下的信息相关联,该信息指示:由于存在(例如,当存在与对象相关联的矛盾信息时)运载工具的图像合并系统1350未检测到对象的至少一个实例,因此对象可能不存在。在实施例中,与该信息相关联的日期和时间存储在全局地图1710上。在一些示例中,日期和时间信息用于向图像合并系统1350提供信息可靠性的指示。在一些示例中,(例如,两天前观察到的)新识别对象被认为比一年前最后观察到的对象更可靠。
在实施例中,该信息是全局地图1710的一部分并且用在路线规划处理中。在一些示例中,如果路线规划器接收到沿着路径存在十个交通灯的指示,则路线规划器出于燃料和/或能量效率原因和/或出于行驶时间考虑而重新规定运载工具1302的路线。在实施例中,基于在全局地图1710中沿着特定路线识别出的对象的数量来考虑乘员舒适度。在一些示例中,对于患有晕动症的乘员而言,具有十个停车标志的路线比(在距离和/或时间方面)更长但包括更少停车的路线(例如,高速公路行驶)更不舒服。
图20是LiDAR信息与照相机信息的图像合并处理1900的流程图。
图像合并处理1900由运载工具的图像合并系统(诸如运载工具1302的图像合并系统1350等)的至少一个处理器进行,该图像合并系统具有至少一个LiDAR装置(诸如LiDAR装置或LiDAR系统1304等),该LiDAR装置被配置为检测紫外、红外或激光光谱中的电磁辐射(例如光)、或任何其它种类的电磁辐射。运载工具包括至少一个照相机(诸如照相机1322等),该照相机被配置为生成照相机的视场中的接近运载工具的对象的照相机信息。运载工具包括至少一个处理器,该处理器被配置为实现图像合并处理1900的操作/步骤。该至少一个处理器进行图像合并系统的操作/步骤的一部分或全部。
图像合并系统从至少一个LiDAR装置接收(1902)LiDAR信息。在一些示例中,LiDAR信息覆盖运载工具周围的360度方位。在实施例中,LiDAR信息包括使用LiDAR系统1304的多次LiDAR扫描,并且由图像合并系统实时地接收到。
图像合并系统基于来自至少一个照相机的照相机信息来接收(1904)接近运载工具的对象的对象信息。在实施例中,对象信息包括表示对象的照相机信息的至少一个像素。在实施例中,对象信息包括表示对象的分类的归类信息。在实施例中,图像合并系统接收该照相机信息。
在一些示例中,归类信息将像素与对象相关联。例如,如果图像的至少一个像素被确定为表示交通灯,则该关联包括在归类信息中。在实施例中,分割和标注处理确定图像的哪些像素对应于对象(例如,第一组像素对应于交通灯,第二组像素对应于行人,等等)。
在实施例中,分类表示这些对象的类别(例如,类别1是交通灯,类别2是交通标志,类别3是其它所有)。在更广泛的上下文中,类别是具有至少一个共同特征的对象的分组。例如,在实施例中,类别1和2包括所有的交通指示(例如,停车标志、让路标志、学校区域标志、交通灯、限速标志、合并车道标志等),并且类别3包括不是交通指令的一切(例如,树木、建筑物、运载工具、停车计时器等)。在该上下文中,共同特征是交通指令。一般而言,在一些示例中,交通指令是指由用于在环境中导航的运载工具接收到的任何明确指令(例如,停车标志包括用以停车的明确交通指令,让路标志包括用以让路于其它运载工具的明确指令,以及/或者限速标志包括不超过规定限速的明确指令等)。
在实施例中,图像合并系统确定(1906)对象的归类信息是否与交通指令相关联。在一些示例中,运载工具的操作基于交通指令是否在运载工具前方(例如,在停车灯处停车、在学校区域中减速等)。在一些示例中,交通指示是交通灯或交通标志。在实施例中,图像合并系统基于合并信息来确定交通指令的交通信号。在一些示例中,图像合并系统基于合并信息中的至少一个像素的颜色来推断交通灯的信号(例如,红色、黄色或绿色分别表示停车、让路和前进)。在实施例中,图像合并系统基于从对象发射的光的峰值光强度的位置推断交通信号(例如,如果在对象的顶部附近发射亮光,则推断为表示停车指令)。
在实施例中,运载工具的控制电路还被配置成基于交通指令的交通信号来操作运载工具。
根据确定为对象的归类信息与交通指令相关联,图像合并系统将所接收到的LiDAR信息的至少一部分与同所接收的对象信息相关联的至少一个像素合并(1908),以生成表示对象的合并信息。在实施例中,图像合并系统基于归类信息来过滤合并信息。在实施例中,将所接收的LiDAR信息的至少一部分与同所接收到的对象信息相关联的至少一个像素合并包括:合并照相机信息的边界框内的多个LiDAR点。
图像合并系统基于表示对象的合并信息来确定(1910)对象相对于运载工具的地点。在实施例中,图像合并系统基于合并信息来确定对象的朝向。
在实施例中,图像合并系统基于对象的地点来操作(1912)运载工具。在实施例中,图像合并系统使得运载工具的单独控制器基于对象的地点来操作运载工具。在一些示例中,图像合并系统向运载工具控制器通知交通灯正在接近变为红色信号(例如,停车信号),并且作为响应,控制运载工具以使运载工具在对象之前(例如,在离对象的一定距离内)停车。
在实施例中,图像合并系统基于合并信息来将实例标识符指派给对象(例如,对象#1、对象#2等)。在实施例中,图像合并系统确定为对象已与实例标识符关联。在实施例中,如果图像合并系统确定为对象未与实例标识符相关联,则图像合并系统将实例标识符指派给对象。
在实施例中,图像合并系统基于合并信息来确定对象是否表示两个不同的对象。根据确定为对象表示两个不同的对象,图像合并系统将唯一的实例标识符指派给这两个不同的对象中的各对象。
在实施例中,图像合并系统基于合并信息来确定对象的准确度。
在实施例中,图像合并系统基于合并信息来对地图进行标注。在实施例中,标注地图包括:将对象的地点、对象的分类信息、对象的实例标识符和/或观察对象的日期传输至托管地图的数据库。在实施例中,图像合并系统基于合并信息来在地图上更新对象的现有实例。在实施例中,图像合并系统确定对象的地点或朝向何时改变,并且将与对象相关联的地点和/或朝向信息从地图中移除。在一些示例中,当运载工具返回到环境的特定区域时,图像合并系统确定为先前检测到的交通灯不再存在。在一些情况下,图像合并系统传输用以将交通灯从地图或数据库删除的指令。
在实施例中,图像合并系统基于合并信息来确定对象的至少一个几何特征。在实施例中,确定对象的至少一个几何特征包括:确定对象的至少一个边缘和对象的至少一个面。在实施例中,确定对象的至少一个几何特征包括:确定对象的大小。在一些示例中,对合并信息进行边缘检测以确定对象的边缘,并且使用边缘的朝向来推断对象的朝向。
在实施例中,至少一个照相机获取照相机信息,并且至少一个LiDAR装置同时获取LiDAR信息。在实施例中,在至少一个LiDAR装置获取LiDAR信息之后,至少一个照相机获取照相机信息。在实施例中,至少一个照相机获取照相机信息的时间和至少一个LiDAR装置获取LiDAR信息的时间之间的定时差异是基于运载工具的速度的。
在实施例中,图像合并系统从至少一个LiDAR装置接收更新后的LiDAR信息。例如,在实施例中,生成更新后的LiDAR信息以确认或重新评估先前检测到的对象的位置。在实施例中,当使用比与更新后的LiDAR信息相关联的LiDAR点的数量少的LiDAR点来获取先前的LiDAR信息时,进行更新后的LiDAR信息的获取。在一些示例中,第二次获取LiDAR信息以提高环境中的交通指令有可能存在于(例如,交通工具上方、人行横道上等)的区域中的分辨率。在实施例中,当使用比与更新后的LiDAR信息相关联的更新后的视场小的LiDAR系统的全视场(例如,小于运载工具周围的360度视野)来获取先前的LiDAR信息时,进行更新后的LiDAR信息的获取。
在实施例中,基于先前检测到的对象来获取更新后的LiDAR信息。在一些示例中,基于先前的LiDAR信息和先前合并的信息来检测先前检测的对象。在一些示例中,当来自先前合并的信息的对象的准确度低于阈值准确度时,获取更新后的LiDAR信息。
在实施例中,图像合并系统从运载工具的至少一个传感器接收运载工具地点信息,其中运载工具地点信息包括运载工具的纬度和经度。在本实施例中,基于运载工具的纬度和经度来确定对象的纬度和经度。例如,使用运载工具的当前位置,图像合并系统确定对象的采用全局坐标的地点,并将该地点记录在地图、数据库或服务器中。
在先前描述中,已经参考许多具体细节描述了本发明的实施例,这些具体细节可因实现而不同。因此,说明书和附图应被视为说明性的,而非限制性意义的。本发明范围的唯一且排他的指示、以及申请人期望是本发明范围的内容是以发布权利要求书的具体形式从本申请发布的权利要求书的字面和等同范围,包括任何后续修正。本文中明确阐述的用于被包括在此类权利要求中的术语的任何定义应当以此类术语如在权利要求书中所使用的意义为准。另外,当在先前的说明书或所附权利要求书使用术语“还包括”时,该短语的下文可以是附加的步骤或实体、或先前所述的步骤或实体的子步骤/子实体。

Claims (22)

1.一种运载工具,包括:
至少一个光检测和测距装置即至少一个LiDAR装置,其被配置为检测从接近所述运载工具的对象所反射的电磁辐射,并且基于所检测到的电磁辐射来生成LiDAR信息;
至少一个照相机,其被配置为生成照相机信息,所述照相机信息表示所述至少一个照相机的视场中的接近所述运载工具的对象的图像;
至少一个计算机可读介质,其存储计算机可执行指令;
至少一个处理器,其通信地耦接到所述至少一个LiDAR装置和所述至少一个照相机,所述至少一个处理器被配置为执行所述计算机可执行指令,所述执行进行包括以下的操作:
从所述至少一个LiDAR装置接收LiDAR信息;
基于来自所述至少一个照相机的照相机信息来接收接近所述运载工具的对象的对象信息,所述对象信息包括所述照相机信息的表示所述对象的至少一个像素,并且所述对象信息包括表示所述对象的分类的归类信息;
将所接收到的LiDAR信息的至少一部分与同所接收到的对象信息相关联的至少一个像素合并,以生成表示所述对象的合并信息;以及
基于表示所述对象的所述合并信息来确定所述对象相对于所述运载工具的地点;以及
控制电路,其通信地耦接到所述至少一个处理器,所述控制电路被配置为基于所述对象相对于所述运载工具的地点来操作所述运载工具。
2.根据权利要求1所述的运载工具,其中,所述至少一个处理器还被配置为进行包括以下的操作:基于所述归类信息来过滤所述合并信息。
3.根据权利要求1或2所述的运载工具,其中,所述至少一个处理器还被配置为进行包括以下的操作:基于所述合并信息来确定所述对象的朝向。
4.根据前述权利要求中任一项所述的运载工具,其中,所述至少一个处理器还被配置为进行包括以下的操作:确定所述对象的所述归类信息是否与交通指令相关联。
5.根据权利要求4所述的运载工具,其中,所述交通指令是交通灯或交通标志。
6.根据权利要求4或5所述的运载工具,其中,所述至少一个处理器还被配置为进行包括以下的操作:基于所述合并信息来确定所述交通指令的交通信号。
7.根据权利要求6所述的运载工具,其中,所述控制电路还被配置为基于所述交通指令的所述交通信号来操作所述运载工具。
8.根据前述权利要求中任一项所述的运载工具,其中,所述至少一个处理器还被配置为进行包括以下的操作:基于所述合并信息来向所述对象指派实例标识符。
9.根据权利要求8所述的运载工具,其中,所述至少一个处理器还被配置为进行包括以下的操作:
基于所述合并信息来确定所述对象是否表示两个不同的对象;以及
根据确定为所述对象表示两个不同的对象,向所述两个不同的对象中的各对象指派唯一的实例标识符。
10.根据前述权利要求中任一项所述的运载工具,其中,所述至少一个处理器还被配置为进行包括以下的操作:基于所述合并信息来确定所述对象的准确度。
11.根据前述权利要求中任一项所述的运载工具,其中,所述至少一个处理器还被配置为进行包括以下的操作:基于所述合并信息来对地图进行标注。
12.根据权利要求11所述的运载工具,其中,对地图进行标注包括:将所述对象的地点、所述对象的分类信息、所述对象的实例标识符、以及观察所述对象的日期传输到托管所述地图的数据库。
13.根据前述权利要求中任一项所述的运载工具,其中,所述至少一个处理器还被配置为进行包括以下的操作:基于所述合并信息来在地图上更新所述对象的现有实例。
14.根据前述权利要求中任一项所述的运载工具,其中,所述至少一个处理器还被配置为进行包括以下的操作:基于所述合并信息来确定所述对象的至少一个几何特征。
15.根据权利要求14所述的运载工具,其中,确定所述对象的所述至少一个几何特征包括:确定所述对象的至少一个边缘和所述对象的至少一个面。
16.根据权利要求14所述的运载工具,其中,确定所述对象的所述至少一个几何特征包括:确定所述对象的大小。
17.根据前述权利要求中任一项所述的运载工具,其中,所述至少一个照相机获取所述照相机信息,并且所述至少一个LiDAR装置同时获取所述LiDAR信息。
18.根据权利要求1至16中任一项所述的运载工具,其中,在所述至少一个LiDAR装置获取所述LiDAR信息之后,所述至少一个照相机获取所述照相机信息。
19.根据权利要求18所述的运载工具,其中,所述至少一个照相机获取所述照相机信息的时间和所述至少一个LiDAR装置获取所述LiDAR信息的时间之间的定时差异是基于所述运载工具的速度的。
20.根据前述权利要求中任一项所述的运载工具,其中,将所接收到的LiDAR信息的至少一部分与同所述接收到的对象信息相关联的至少一个像素合并包括:合并所述照相机信息的边界框内的多个LiDAR点。
21.一种用于运载工具的方法,包括:
从运载工具的至少一个LiDAR装置接收LiDAR信息;
基于来自至少一个照相机的照相机信息来接收接近所述运载工具的对象的对象信息,所述对象信息包括所述照相机信息的表示所述对象的至少一个像素,并且所述对象信息包括表示所述对象的分类的归类信息;
确定所述对象的所述归类信息是否与交通指令相关联;以及
根据确定为所述对象的所述归类信息与所述交通指令相关联:
将所接收到的LiDAR信息的至少一部分与同所接收到的对象信息相关联的至少一个像素合并,以生成表示所述对象的合并信息;
基于表示所述对象的所述合并信息来确定所述对象相对于所述运载工具的地点;以及
基于所述对象的地点来操作所述运载工具。
22.一种非暂时性计算机可读存储介质,包括用于由第一装置的至少一个处理器执行的至少一个程序,所述至少一个程序包括指令,所述指令在由所述至少一个处理器执行时,使得所述第一装置进行根据权利要求21所述的方法。
CN202110784002.4A 2020-12-10 2021-07-12 运载工具、用于运载工具的方法和存储介质 Pending CN114627451A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/118,466 2020-12-10
US17/118,466 US20220185324A1 (en) 2020-12-10 2020-12-10 Merging LiDAR Information and Camera Information

Publications (1)

Publication Number Publication Date
CN114627451A true CN114627451A (zh) 2022-06-14

Family

ID=74566601

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110784002.4A Pending CN114627451A (zh) 2020-12-10 2021-07-12 运载工具、用于运载工具的方法和存储介质

Country Status (5)

Country Link
US (1) US20220185324A1 (zh)
KR (2) KR102476931B1 (zh)
CN (1) CN114627451A (zh)
DE (1) DE102021131820A1 (zh)
GB (1) GB2601837A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11842551B1 (en) * 2023-02-07 2023-12-12 DCX Innovations sp. z.o.o. System and methods for automatically detecting objects of interest and determining their geographic positions

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220132241A (ko) * 2021-03-23 2022-09-30 삼성전자주식회사 로봇 및 그 제어 방법
US20230050467A1 (en) * 2021-08-11 2023-02-16 Gm Cruise Holdings Llc Ground height-map based elevation de-noising
US12046049B2 (en) * 2021-12-01 2024-07-23 Motional Ad Llc Automatically detecting traffic signals using sensor data
US20240111295A1 (en) * 2022-09-28 2024-04-04 Intel Corporation Intelligent and adaptive multi-modal real-time simultaneous localization and mapping based on light detection and ranging and camera or image sensors

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170124781A1 (en) * 2015-11-04 2017-05-04 Zoox, Inc. Calibration for autonomous vehicle operation
KR20180086632A (ko) * 2017-01-23 2018-08-01 한국전자통신연구원 자율주행 차량의 행동 결정 장치 및 방법
US20190138822A1 (en) * 2017-08-25 2019-05-09 Beijing Didi Infinity Technology And Development Co., Ltd. Methods and systems for detecting environmental information of a vehicle
WO2020174279A2 (en) * 2019-02-25 2020-09-03 Mobileye Vision Technologies Ltd. Systems and methods for vehicle navigation
KR20200115705A (ko) * 2019-03-08 2020-10-08 현대모비스 주식회사 자율주행용 클래스 레이블링 장치
CN111857905A (zh) * 2019-04-25 2020-10-30 安波福技术有限公司 自主运载工具行为的显示所用的图形用户界面

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10305861A1 (de) * 2003-02-13 2004-08-26 Adam Opel Ag Vorrichtung eines Kraftfahrzeuges zur räumlichen Erfassung einer Szene innerhalb und/oder außerhalb des Kraftfahrzeuges
US8751154B2 (en) * 2008-04-24 2014-06-10 GM Global Technology Operations LLC Enhanced clear path detection in the presence of traffic infrastructure indicator
US10699142B2 (en) * 2017-04-20 2020-06-30 GM Global Technology Operations LLC Systems and methods for traffic signal light detection
JP6984215B2 (ja) * 2017-08-02 2021-12-17 ソニーグループ株式会社 信号処理装置、および信号処理方法、プログラム、並びに移動体
DE112019000049T5 (de) * 2018-02-18 2020-01-23 Nvidia Corporation Für autonomes fahren geeignete objekterfassung und erfassungssicherheit
JP2019159380A (ja) 2018-03-07 2019-09-19 株式会社デンソー 物体検知装置、物体検知方法およびプログラム
US10140855B1 (en) * 2018-08-24 2018-11-27 Iteris, Inc. Enhanced traffic detection by fusing multiple sensor data
KR20200065945A (ko) * 2018-11-30 2020-06-09 주식회사 메디트 라이다 데이터와 카메라 객체 인식 데이터를 결합한 정지 신호 발생 방법
KR102195040B1 (ko) * 2019-06-27 2020-12-28 주식회사 모빌테크 이동식 도면화 시스템 및 모노카메라를 이용한 도로 표지 정보 수집 방법
US11348332B2 (en) * 2019-09-25 2022-05-31 Toyota Research Institute, Inc. Object location analysis
US11885886B2 (en) * 2020-10-23 2024-01-30 Ford Global Technologies, Llc Systems and methods for camera-LiDAR fused object detection with LiDAR-to-image detection matching
US20220156576A1 (en) * 2020-11-13 2022-05-19 Amir RASOULI Methods and systems for predicting dynamic object behavior
US20220165304A1 (en) * 2020-11-24 2022-05-26 Nvidia Corporation Trigger-responsive clip extraction based on remote analysis

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170124781A1 (en) * 2015-11-04 2017-05-04 Zoox, Inc. Calibration for autonomous vehicle operation
KR20180086632A (ko) * 2017-01-23 2018-08-01 한국전자통신연구원 자율주행 차량의 행동 결정 장치 및 방법
US20190138822A1 (en) * 2017-08-25 2019-05-09 Beijing Didi Infinity Technology And Development Co., Ltd. Methods and systems for detecting environmental information of a vehicle
WO2020174279A2 (en) * 2019-02-25 2020-09-03 Mobileye Vision Technologies Ltd. Systems and methods for vehicle navigation
KR20200115705A (ko) * 2019-03-08 2020-10-08 현대모비스 주식회사 자율주행용 클래스 레이블링 장치
CN111857905A (zh) * 2019-04-25 2020-10-30 安波福技术有限公司 自主运载工具行为的显示所用的图形用户界面

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11842551B1 (en) * 2023-02-07 2023-12-12 DCX Innovations sp. z.o.o. System and methods for automatically detecting objects of interest and determining their geographic positions

Also Published As

Publication number Publication date
US20220185324A1 (en) 2022-06-16
KR20220083533A (ko) 2022-06-20
KR102476931B1 (ko) 2022-12-13
GB2601837A (en) 2022-06-15
DE102021131820A1 (de) 2022-06-15
GB202100131D0 (en) 2021-02-17
KR20220167263A (ko) 2022-12-20

Similar Documents

Publication Publication Date Title
CN111915917B (zh) 计算机实现的方法、存储介质和运载工具
CN112703423B (zh) 合并来自多个LiDAR装置的数据
CN111664854B (zh) 物体位置指示器系统和方法
CN113313936A (zh) 用于运载工具的交通灯检测系统
CN113196291A (zh) 自动选择用于注释的数据样本
CN112634633B (zh) 利用自主运载工具对多路停车交叉口进行导航
CN112986979A (zh) 使用融合的照相机/LiDAR数据点的自动对象标注
KR102476931B1 (ko) LiDAR 정보와 카메라 정보의 병합
CN115328110A (zh) 用于自主运载工具的系统和方法以及存储介质
CN114667460A (zh) 使用可移动传感器改善运载工具操作的系统和方法
CN113156935A (zh) 用于交通灯检测的系统和方法
CN111611842A (zh) 运输系统和方法
KR102639008B1 (ko) 도로 특징부에 대한 폐색 표현을 구현하기 위한 시스템 및 방법
KR102555318B1 (ko) 조건부 움직임 예측
CN115079687A (zh) 用于自主运载工具的系统、方法和存储介质
WO2020160144A1 (en) Traffic light estimation
CN114089375A (zh) 运载工具、用于运载工具的方法和存储介质
CN114252066A (zh) 运载工具、用于运载工具的方法以及存储介质
CN112394384A (zh) 基于环境的预定义特征的定位
CN112486163A (zh) 基于导航信息的可用性的自主运载工具的操作
CN114812586A (zh) 用于运载工具的系统、方法和存储介质
CN114623840A (zh) 用于运载工具的方法、运载工具和存储介质
CN112166068B (zh) 电动助力转向扭矩补偿
CN113196356A (zh) 交通灯估计
CN115540888A (zh) 导航最优路径的方法、存储介质和运载工具

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination