CN115718484A - 用于运载工具的方法和系统以及存储介质 - Google Patents
用于运载工具的方法和系统以及存储介质 Download PDFInfo
- Publication number
- CN115718484A CN115718484A CN202111485949.1A CN202111485949A CN115718484A CN 115718484 A CN115718484 A CN 115718484A CN 202111485949 A CN202111485949 A CN 202111485949A CN 115718484 A CN115718484 A CN 115718484A
- Authority
- CN
- China
- Prior art keywords
- location
- determining
- flash
- data
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000009471 action Effects 0.000 claims abstract description 9
- 230000000977 initiatory effect Effects 0.000 claims abstract description 5
- 238000001514 detection method Methods 0.000 claims description 97
- 230000000903 blocking effect Effects 0.000 claims description 25
- 230000015654 memory Effects 0.000 claims description 25
- 238000004458 analytical method Methods 0.000 claims description 18
- 238000010801 machine learning Methods 0.000 claims description 14
- 230000004807 localization Effects 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 description 36
- 238000010586 diagram Methods 0.000 description 11
- 230000004927 fusion Effects 0.000 description 11
- 230000008447 perception Effects 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 230000004044 response Effects 0.000 description 9
- 239000003795 chemical substances by application Substances 0.000 description 8
- 238000002592 echocardiography Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 238000003491 array Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 6
- 238000013500 data storage Methods 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 6
- 239000007787 solid Substances 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 241000269400 Sirenidae Species 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0965—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages responding to signals from another vehicle, e.g. emergency vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/26—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
- B60Q1/50—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
- B60Q1/52—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for indicating emergencies
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/80—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
- G01S3/802—Systems for determining direction or deviation from predetermined direction
- G01S3/808—Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
- G01S3/8083—Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems determining direction of source
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/06—Position of source determined by co-ordinating a plurality of position lines defined by path-difference measurements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2193—Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
- B60W2050/0215—Sensor drifts or sensor failures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/54—Audio sensitive means, e.g. ultrasound
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/20—Ambient conditions, e.g. wind or rain
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Emergency Management (AREA)
- Business, Economics & Management (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Probability & Statistics with Applications (AREA)
- Aviation & Aerospace Engineering (AREA)
- Traffic Control Systems (AREA)
- Quality & Reliability (AREA)
- Otolaryngology (AREA)
- Medical Informatics (AREA)
Abstract
本发明提供了一种用于运载工具的方法和系统以及存储介质。在实施例中,该方法包括:接收环境声;确定环境声是否包括鸣笛;根据确定为环境声包括鸣笛,确定与鸣笛相关联的第一地点;接收照相机图像;确定照相机图像是否包括闪灯;根据确定为照相机图像包括闪灯,确定与闪灯相关联的第二地点;接收3D数据;确定3D数据是否包括对象;根据确定为3D数据包括对象,确定与对象相关联的第三地点;基于鸣笛、检测到的闪灯和检测到的对象来确定救援运载工具的存在;基于第一地点、第二地点和第三地点来确定救援运载工具的估计地点;以及基于所确定的救援运载工具的存在和地点来发起与运载工具相关的动作。
Description
技术领域
以下描述涉及自主运载工具系统。
背景技术
自主运载工具包括用于收集与该运载工具的操作环境有关的数据的多个传感器(例如,照相机、雷达、LiDAR)。该数据被运载工具用于预测该操作环境中的智能体(agent)的状态,并且用于规划和执行该运载工具在操作环境中的轨迹,该轨迹考虑了各种规则和约束(诸如,地图约束(例如,可驾驶区域)、安全约束(例如,避免与其它对象碰撞)和乘员舒适性约束(例如,使急转弯、硬制动和快速加速/减速最小化)等)。
在通常的运载工具操作环境中,自主运载工具可能将遇到救援运载工具(例如,消防车、救护车)。在美国,运载工具操作员需要检测救援运载工具警笛和闪灯并对其做出响应。运载工具操作员响应取决于救援运载工具的地点。例如,如果救援运载工具在运载工具后方,则运载工具操作员需要避让该救援运载工具。如果救援运载工具在运载工具前方(可能在救援情况的现场),运载工具操作员在许多状态下需要在该运载工具和该救援运载工具之间提供安全缓冲(例如,最小距离)(例如,“让位”法规(“Move Over”laws))。
当前救援运载工具检测系统可能仅检测鸣笛或闪灯。虽然闪灯是主要方法,但闪灯可能经常被卡车、标志或建筑物遮挡视线。
发明内容
提供了用于救援运载工具检测系统和方法的技术。
在实施例中,一种方法包括:利用至少一个处理器来接收环境声;利用所述至少一个处理器来确定所述环境声是否包括鸣笛声;根据确定为所述环境声包括鸣笛声,利用所述至少一个处理器来确定与鸣笛声相关联的第一地点;利用所述至少一个处理器来接收照相机图像;利用所述至少一个处理器来确定所述照相机图像是否包括闪灯;根据确定为所述照相机图像包括闪灯,利用所述至少一个处理器来确定与闪灯相关联的第二地点;利用所述至少一个处理器来接收三维数据即3D数据;利用所述至少一个处理器来确定所述3D数据是否包括对象;根据确定为所述3D数据包括对象,利用所述至少一个处理器来确定与对象相关联的第三地点;利用所述至少一个处理器,基于所述鸣笛声、检测到的闪灯和检测到的对象来确定救援运载工具的存在;利用所述至少一个处理器,基于所述第一地点、所述第二地点和所述第三地点来确定所述救援运载工具的估计地点;以及利用所述至少一个处理器,基于所确定的救援运载工具的存在和地点来发起与运载工具相关的动作。
在实施例中,确定所述环境声是否包括鸣笛声还包括:将所述环境声转换为数字信号;针对错误和阻塞签名来分析所述数字信号;在检测到错误或阻塞签名的情况下,通知诊断系统以确定所述错误或阻塞签名的原因;以及在未检测到错误或阻塞签名的情况下,针对鸣笛声来分析所述数字信号。
在实施例中,确定所述环境声是否包括鸣笛声还包括:将所述环境声转换为数字信号;对来自所述数字信号的噪声进行滤波;将所述数字信号与基准信号进行比较;以及基于比较的结果来确定鸣笛声检测。
在实施例中,确定所述环境声是否包括鸣笛声还包括:将所述环境声转换为数字信号;使用机器学习来分析所述数字信号;以及基于分析的结果来确定鸣笛声检测。
在实施例中,所述方法还包括:确定所述鸣笛声检测的置信水平。
在实施例中,基于声定位来确定与所述鸣笛声的源相关联的所述第一地点,其中,所述声定位基于对位于运载工具周围的多个麦克风所输出的信号的飞行时间分析即TOF分析。
在实施例中,基于多个单向麦克风的地点和定向来确定与所述鸣笛声的源相关联的所述第一地点,并且基于从对所述多个单向麦克风的输出信号以及所述多个单向麦克风各自的地点和定向的分析所获得的密钥签名信号的强度来确定所述第一地点。
在实施例中,确定所述照相机图像是否包括闪灯还包括:针对错误和阻塞签名来分析所述照相机图像;在检测到错误或阻塞签名的情况下,通知诊断系统以确定所述错误或阻塞签名的原因;以及在未检测到错误或阻塞签名的情况下,分析所述照相机图像以确定所述照相机图像是否包括闪灯。
在实施例中,确定所述照相机图像是否包括闪灯还包括:对所述照相机图像进行滤波以去除低强度光信号,从而得到高强度图像;将所述高强度图像与基准图像进行比较;以及基于比较的结果来确定闪灯检测。
在实施例中,确定所述照相机图像是否包括闪灯还包括:使用机器学习来分析所述照相机图像;以及基于分析的结果来预测闪灯检测。
在实施例中,所述方法还包括:确定所述闪灯检测的置信水平。
在实施例中,使用机器学习的所述分析包括使用神经网络来分析所述照相机图像,所述神经网络被训练成对明亮的闪灯和其它亮光进行区分。
在实施例中,通过以下操作来确定与所述闪灯相关联的所述第二地点:检测多个照相机所捕获的多个照相机图像中的闪灯签名;以及基于所述多个照相机中的各照相机的位置和定向来确定闪灯的径向地点;或者基于所述多个照相机的位置和定向的三角测量来确定所述第二地点。
在实施例中,确定所述3D数据是否包括对象还包括:针对错误和阻塞签名来分析所述3D数据;在检测到错误或阻塞签名的情况下,通知诊断系统以确定所述错误或阻塞签名的原因;以及在未检测到错误或阻塞签名的情况下,分析所述3D数据以确定所述3D数据是否包括对象。
在实施例中,确定所述3D数据是否包括对象还包括:对所述3D数据进行滤波以去除噪声;将所述3D数据分成具有类似特性的组;以及使用机器学习来分析所述组以确定对象检测。
在实施例中,所述方法还包括:确定所述对象检测的置信水平。
在实施例中,确定所述第三地点包括:基于对检测到所述对象的传感器的传感器位置和定向的分析来确定该对象的径向地点。
在实施例中,确定所述第三地点包括:基于对检测到所述对象的传感器的传感器位置和定向的分析来确定该对象的径向地点。
在实施例中,确定所述救援运载工具的存在和地点还包括:将鸣笛声检测、闪灯检测和对象检测进行比较,以确定所述鸣笛检测、所述闪灯检测和所述对象检测是否匹配;以及根据确定为匹配来生成指示所述救援运载工具的存在的信号。
在实施例中,所述方法还包括:基于所述救援运载工具的地点来跟踪所述救援运载工具。
在实施例中,一种系统,包括:至少一个处理器;存储有指令的存储器,所述指令在由所述至少一个处理器执行时使得所述至少一个处理器进行上述方法中的任一方法。
在实施例中,一种计算机可读存储介质,其上存储有指令,所述指令在由至少一个处理器执行时使得所述至少一个处理器进行上述方法中的任一方法。
所公开实施例中的一个或多个提供了以下优点中的一个或多个优点。运载工具可以准确地确定救援运载工具的存在和地点,并且响应于根据国家运载工具操作员法规的检测而执行运载工具行为(诸如,避让和让位等)。在实施例中,半自主或全自主运载工具的规划器、感知模块、运载工具控制器或者任意其它应用或子系统可以对该运载工具的操作环境中的智能体状态(例如,位置、速度、航向)进行更准确的确定,包括但不限于确定为其它运载工具将减速或合并远离救援运载工具。在实施例中,可以使得基于云的远程运载工具辅助能够监测/管理救援运载工具遭遇并且根据需要采取动作,诸如采取对该运载工具的临时控制等。
这些和其它方面、特征和实现可以被表示为方法、设备、系统、组件、程序产品、用于进行功能的方式或步骤以及其它方式。从以下包括权利要求书的描述,这些和其它方面、特征和实现将变得清楚。
附图说明
图1示出根据一个或多个实施例的具有自主能力的自主运载工具(AV)的示例。
图2例示根据一个或多个实施例的示例“云”计算环境。
图3例示根据一个或多个实施例的计算机系统。
图4示出根据一个或多个实施例的AV的示例架构。
图5是根据一个或多个实施例的救援运载工具检测系统的框图。
图6是根据一个或多个实施例的图5所示的鸣笛声检测和定位系统501的框图。
图7是根据一个或多个实施例的图5所示的闪灯检测和定位系统的框图。
图8是根据一个或多个实施例的图5所示的对象检测和定位系统的框图。
图9是根据一个或多个实施例的救援运载工具检测系统所进行的救援运载工具检测处理的流程图。
具体实施方式
在以下描述中,为了解释的目的,阐述了许多具体细节,以便提供对本发明的透彻理解。然而,本发明可以在没有这些具体细节的情况下实施将是明显的。在其它实例中,众所周知的构造和装置是以框图形式示出的,以避免不必要地使本发明模糊。
在附图中,为了便于描述,示出了示意要素(诸如表示装置、模块、指令块和数据要素的那些要素等)的具体排列或次序。然而,本领域技术人员应当理解,附图中示意要素的具体次序或排列并不意在意味着要求特定的处理次序或序列、或处理过程的分离。此外,在附图中包含示意要素并不意在意味着在所有实施例中都需要这种要素,也不意在意味着由这种要素表示的特征不能包括在一些实施例中或不能在一些实施例中与其它要素结合。
此外,在附图中,连接要素(诸如,实线或虚线或箭头等)用于例示两个或更多个其它示意要素之间的连接、关系或关联,没有任何此类连接要素并不意在意味着不能存在连接、关系或关联。换句话说,一些要素之间的连接、关系或关联未在附图中示出,以便不使本公开内容模糊。此外,为了便于例示,使用单个连接要素来表示要素之间的多个连接、关系或关联。例如,如果连接要素表示信号、数据或指令的通信,本领域技术人员应理解,这种要素表示影响通信可能需要的一个或多个信号路径(例如,总线)。
现在将详细参考实施例,其示例在附图中例示出。在以下的详细描述中,阐述了许多具体细节,以便提供对所描述的各种实施例的透彻理解。然而,对于本领域的普通技术人员来说将明显的是,可以在没有这些具体细节的情况下实施所描述的各种实施例。在其它情况下,没有详细描述众所周知的方法、程序、组件、电路和网络,以便不会不必要地使实施例的方面模糊。
下面描述的若干特征各自可以彼此独立地使用,也可以与其它特征的任何组合一起使用。然而,任何个别特征可能不能解决以上所讨论的任何问题,或者只能解决以上所讨论的问题之一。以上所讨论的一些问题可能不能通过本文所描述的任何一个特征得到充分解决。虽然提供了标题,但在本说明书的其它地方也可以找到与具体标题有关但在具有该标题的部分中未找到的信息。本文根据以下概要描述实施例:
1.总体概述
2.系统概述
3.自主运载工具架构
4.救援运载工具检测系统和方法
总体概述
提供了用于救援运载工具检测系统和方法的技术。对环境声、照相机图像和三维(3D)传感器(例如,LiDAR、雷达(RADAR)、声纳(SONAR))数据进行捕获并分析,以检测运载工具的操作环境(诸如,自主运载工具操作环境等)中的鸣笛声、闪灯和对象。另外,还确定了鸣笛、闪灯和对象的类型。经检测后,对鸣笛声、闪灯和对象的地点进行估计。对估计地点和所确定的类型进行融合以确定操作环境中的救援运载工具的存在和地点,并且在一些实现中确定救援运载工具的类型。
估计地点可以供自主运载工具栈的下游系统(例如,规划器、感知模块、运载工具控制器)用于确定该运载工具在操作环境中的路线或轨迹。使用救援运载工具地点,该运载工具的规划器、感知模块或运载工具控制器可以对该运载工具的操作环境中的智能体状态进行更准确的确定,诸如确定为其它运载工具将减速或合并远离救援运载工具等。另外,救援运载工具信息可以使得远程运载工具辅助能够监测/管理救援运载工具遭遇并且根据需要采取动作(例如,采取对该运载工具的临时控制)。
系统概述
图1示出具有自主能力的自主运载工具100的示例。
如本文所使用的,术语“自主能力”是指一种功能、特征或设施,该功能、特征或设施使运载工具能够部分地或完全地操作,而无需实时的人类干预,包括但不限于全自主运载工具、高度自主运载工具和有条件自主运载工具。
如本文所使用的,自主运载工具(AV)是一种具有自主能力的运载工具。
如本文所使用的,“运载工具”包括货物或人员的运输方式。例如,小汽车、公共汽车、火车、飞机、无人机、卡车、船只、舰艇、潜水器、飞船、摩托车、自行车等。无人驾驶的小汽车是运载工具的示例。
如本文所使用的,“轨迹”是指将AV从第一时空地点操作到第二时空地点的路径或路线。在实施例中,第一时空地点被称为初始地点或起始地点,第二时空地点被称为目的地、最终地点、目标、目标位置或目标地点。在一些示例中,轨迹由一个或多个路段(例如,道路的数段)组成,并且各路段由一个或多个块(例如,车道或交叉口的一部分)组成。在实施例中,时空地点对应于真实世界地点。例如,时空地点是用于使人员或货物上车或下车的上车或下车地点。
如本文所使用的,“显现”是指本文所描述的基于样本的机动动作显现器生成的轨迹。
“机动动作”是AV的位置、速率或转向角(航向)的变化。所有机动动作都是轨迹,但并不是所有轨迹都是机动动作。例如,AV正以恒定速率在直线路径中行驶的AV轨迹不是机动动作。
如本文所使用的,“(一个或多个)传感器”包括一个或多个硬件组件,用于检测与传感器周围环境有关的信息。一些硬件组件可以包括感测组件(例如,图像传感器、生物特征传感器)、传输和/或接收组件(例如,激光或射频波发射器和接收器)、电子组件(诸如,模数转换器等)、数据存储装置(诸如,RAM和/或非易失性存储器等)、软件或固件组件和数据处理组件(诸如,ASIC(专用集成电路)等)、微处理器和/或微控制器。
如本文所使用的,“道路”是一个可以被运载工具穿过的物理区域,并且可以对应于已命名的干道(例如,城市街道、州际高速公路等)或可以对应于未命名的干道(例如,房屋或办公楼内的行车道、停车场的一段、空地的一段、乡村区域的泥路等)。因为有些运载工具(例如,四轮驱动的小卡车、越野车(SUV)等)能够穿过各种不特别适合运载工具行驶的物理区域,因此“道路”可以是任何市政当局或其它政府或行政机构没有正式定义为一条干道的物理区域。
如本文所使用的,“车道”是道路的可以被运载工具穿越的部分,并且可以对应于车道标记之间的大部分或全部空间,或仅对应于车道标记之间的部分空间(例如,小于50%)。例如,具有相距很远的车道标记的道路可能容纳两个或两个以上的运载工具,使得一个运载工具可以在不穿过车道标记的情况下超过另一个运载工具,因此可被解释为车道比车道标记之间的空间窄,或车道之间有两个车道。在没有车道标记的情况下,也可以对车道进行解释。例如,可以基于环境的物理特征(例如,乡村区域的岩石和沿着大道的树木)来定义车道。
如本文所使用的,“规则手册”是在基于其相对重要性而排列的规则集上实现优先级结构的数据结构,其中对于优先级结构中的任意特定规则,在该结构中具有比该优先级结构中的特定规则更低的优先级的(一个或多个)规则具有比该特定规则更低的重要性。可能的优先级结构包括但不限于:层级结构(例如,规则的总顺序或部分顺序)、非层级结构(例如,规则的加权系统)或混合优先级结构,在该混合优先级结构中规则的子集是层级化的,但是各子集内的规则是非层级化的。规则可以包括交通法、安全规则、道德规则、当地文化规则、乘员舒适性规则以及可以用于评估任意来源(例如,人类、文本、法规、网站)所提供的运载工具轨迹的任意其它规则。
如本文所使用的,“ego运载工具”或“ego”是指具有用于感测虚拟环境的虚拟传感器的虚拟运载工具或AV,该虚拟环境例如被规划器利用以规划该虚拟环境中的虚拟AV的路线。
“一个或多个”包括由一个要素执行的功能、由多个要素例如以分布式的方式执行的功能、由一个要素执行的若干功能、由若干要素执行的若干功能、或上述的任何组合。
还将理解的是,尽管在一些情况下,术语“第一”、“第二”等在本文中是用来描述各种要素的,但这些要素不应受到这些术语的限制。这些术语仅用于区分一个要素与另一个要素。例如,在未背离各种所描述的实施例的范围的情况下,第一触点可被称为第二触点,并且类似地,第二触点可被称为第一触点。第一触点和第二触点两者都是触点,但它们不是相同触点。
在本文所描述的各种实施例的说明书中使用的术语仅用于描述特定实施例的目的,而不是意在限制。如在所描述的各种实施例的说明书和所附权利要求书中所使用的,单数形式“a”、“an”和“the”也意在包括复数形式,除非上下文另有明确说明。还将理解的是,如本文所使用的“和/或”是指并且包括一个或多个相关清单项目的任何和所有可能的组合。还将理解的是,当在本说明书中使用术语“包括”、“包含”、“具备”和/或“具有”时,具体说明存在所陈述的特征、整数、步骤、操作、要素和/或组件,但并不排除存在或添加一个或多个其它特征、整数、步骤、操作、要素、组件、和/或其群组。
如本文所使用的,取决于上下文,术语“如果”可选地被理解为意指“当”或“在当时”或“响应于确定为”或“响应于检测到”。类似地,取决于上下文,短语“如果已确定”或“如果[所陈述的条件或事件]已被检测到”可选地被理解为意指“在确定时”或“响应于确定为“或”在检测到[所陈述的条件或事件]时”或“响应于检测到[所陈述的条件或事件]”。
如本文所使用的,AV系统是指AV以及支持AV操作的硬件、软件、存储的数据和实时生成的数据的阵列。在实施例中,AV系统并入在AV内。在实施例中,AV系统跨若干地点分布。例如,AV系统的一些软件是在类似于下面关于图2描述的云计算环境200的云计算环境上实现的。
一般而言,本文件描述了适用于任何具有一种或多种自主能力的运载工具的技术,包括全自主运载工具、高度自主运载工具和有条件自主运载工具,诸如分别为所谓的第5级、第4级和第3级运载工具(见SAE国际标准J3016:道路上机动车自动驾驶系统相关术语的分类和定义(SAE International's standard J3016:Taxonomy and Definitions forTerms Related to On-Road Motor Vehicle Automated Driving Systems),通过引用将其全部内容并入本文,用于了解运载工具自主权等级的更多详细信息)等。本文件所描述的技术也适用于部分自主运载工具和驾驶员辅助运载工具,诸如所谓的第2级和第1级运载工具(见SAE国际标准J3016:道路上机动车自动驾驶系统相关术语的分类和定义)。在实施例中,一个或多个第1级、第2级、第3级、第4级和第5级运载工具系统可基于对传感器输入的处理,在某些操作条件下自动执行某些运载工具操作(例如,转向、制动和使用地图)。本文件中所描述的技术可以使从全自主运载工具到人类操作的运载工具范围内的任何级别的运载工具受益。
参考图1,AV系统120使AV 100沿着轨迹198操作,穿过环境190至目的地199(有时称为最终地点),同时避开对象(例如,自然障碍物191、运载工具193、行人192、骑车者和其它障碍物)并且遵守道路规则(例如,操作规则或驾驶偏好)。
在实施例中,AV系统120包括用于从计算机处理器146接收操作命令并对其进行操作的装置101。在实施例中,计算机处理器146与下面参考图3描述的处理器304类似。装置101的示例包括转向控制器102、制动器103、挡位、加速踏板或其它加速控制机构、挡风玻璃雨刮器、侧门锁、窗控器和转向指示器。
在实施例中,AV系统120包括用于测量或推断AV 100的状态或条件的属性的传感器121,这些属性诸如是AV的位置、线速度和线加速度及角速度和角加速度、以及航向(例如,AV 100的前端的定向)等。传感器121的示例是全球导航卫星系统(GNSS)接收器、用于测量运载工具线加速度和角速率两者的惯性测量单元(IMU)、用于测量或估计轮滑移率的轮速率传感器、轮制动压力或制动扭矩传感器、引擎扭矩或轮扭矩传感器以及转向角和角速率传感器。
在实施例中,传感器121还包括用于感测或测量AV的环境的属性的传感器。例如,可见光、红外或热(或两者兼有)光谱的单目或立体摄像机122,LiDAR 123,RADAR,超声波传感器,飞行时间(TOF)深度传感器,速率传感器,温度传感器,湿度传感器和降水传感器。
在实施例中,AV系统120包括数据存储单元142和存储器144,用于存储与计算机处理器146相关联的机器指令或由传感器121收集的数据。在实施例中,数据存储单元142与以下关于图3描述的ROM 308或存储装置310类似。在实施例中,存储器144与下面描述的主存储器306类似。在实施例中,数据存储单元142和存储器144存储有关环境190的历史、实时和/或预测性信息。在实施例中,存储的信息包括地图、驾驶性能、交通拥堵更新或天气条件。在实施例中,与环境190有关的数据从远程数据库134通过通信信道传输到AV100。
在实施例中,AV系统120包括通信装置140,用于将对其它运载工具的状态和条件(诸如,位置、线速度和角速度、线加速度和角加速度、以及线航向和角航向等)测量或推断的属性传送到AV 100。这些装置包括运载工具到运载工具(V2V)和运载工具到基础设施(V2I)通信装置以及用于通过点对点或自组织(ad hoc)网络或两者进行无线通信的装置。在实施例中,通信装置140跨电磁频谱(包括无线电和光通信)或其它介质(例如,空气和声介质)进行通信。运载工具到运载工具(V2V)、运载工具到基础设施(V2I)通信(以及在一些实施例中为一种或多种其它类型的通信)的组合有时被称为运载工具到万物(V2X)通信。V2X通信通常符合一个或多个通信标准,用于与自主运载工具进行的和在自主运载工具之间的通信。
在实施例中,通信装置140包括通信接口。例如,有线、无线、WiMAX、Wi-Fi、蓝牙、卫星、蜂窝、光、近场、红外或无线电接口。通信接口将数据从远程数据库134传输到AV系统120。在实施例中,远程数据库134嵌入在如图2中所描述的云计算环境200中。通信接口140将从传感器121收集的数据或与AV 100操作有关的其它数据传输到远程数据库134。在实施例中,通信接口140向AV 100传输与遥操作有关的信息。在一些实施例中,AV 100与其它远程(例如,“云”)服务器136通信。
在实施例中,远程数据库134还存储和传输数字数据(例如,存储诸如道路和街道地点等的数据)。这些数据存储在AV 100上的存储器144中,或者通过通信信道从远程数据库134传输到AV 100。
在实施例中,远程数据库134存储和传输与以前在一天中类似时间沿着轨迹198行驶的运载工具的驾驶属性有关的历史信息(例如,速率和加速度分布)。在一个实现中,这种数据可以存储在AV 100上的存储器144中,或者通过通信信道从远程数据库134传输到AV100。
位于AV 100上的计算装置146基于实时传感器数据和先验信息两者以算法方式生成控制动作,允许AV系统120执行其自主驾驶能力。
在实施例中,AV系统120包括耦接到计算装置146的计算机外围设备132,用于向AV100的用户(例如,乘员或远程用户)提供信息和提醒并接收来自该用户的输入。在实施例中,外围设备132类似于下面参考图3讨论的显示器312、输入装置314和光标控制器316。耦接是无线的或有线的。任意两个或更多个的接口装置可以集成到单个装置中。
示例云计算环境
图2例示示例“云”计算环境。云计算是一种服务交付模式,用于使得能够方便、按需地在网络上访问可配置计算资源(例如网络、网络带宽、服务器、处理、内存、存储、应用程序、虚拟机和服务)的共享池。在典型的云计算系统中,一个或多个大型云数据中心容纳用于交付云所提供的服务的机器。现在参考图2,云计算环境200包括通过云202互连的云数据中心204a、204b和204c。数据中心204a、204b和204c为连接到云202的计算机系统206a、206b、206c、206d、206e和206f提供云计算服务。
云计算环境200包括一个或多个云数据中心。一般而言,云数据中心(例如图2中所示的云数据中心204a)是指构成云(例如图2中所示的云202或云的特定部分)的服务器的物理排列。例如,服务器在云数据中心中物理排列成房间、组、行和机架。云数据中心有一个或多个区域,其中包括一个或多个服务器房间。每个房间有一行或多行服务器,并且每行包括一个或多个机架。每个机架包括一个或多个单独的服务器节点。在一些实现中,区域、房间、机架和/或行中的服务器基于数据中心设施的物理基础设施要求(包括电力、能源、热力、热源和/或其它要求)被排列成若干组。在实施例中,服务器节点类似于图3中描述的计算机系统。数据中心204a具有许多分布在多个机架上的计算机系统。
云202包括云数据中心204a、204b和204c以及用于连接云数据中心204a、204b和204c并有助于促进计算机系统206a-206f对云计算服务的访问的网络和网络资源(例如,网络设备、节点、路由器、交换机和网络电缆)。在实施例中,该网络表示一个或多个本地网络、广域网或通过使用地面或卫星连接部署的有线或无线链路耦接的网际网络的任意组合。通过网络交换的数据使用多种网络层协议(诸如,因特网协议(IP)、多协议标签交换(MPLS)、异步传输模式(ATM)、帧中继(Frame Relay)等)进行传输。此外,在网络表示多个子网络的组合的实施例中,在每个底层子网络上使用不同的网络层协议。在一些实施例中,网络表示一个或多个互连网际网络(诸如公共因特网等)。
计算机系统206a-206f或云计算服务消费者通过网络链路和网络适配器连接到云202。在实施例中,计算机系统206a-206f被实现为各种计算装置,例如服务器、台式机、膝上型计算机、平板电脑、智能手机、物联网(IoT)装置、自主运载工具(包括小汽车、无人机、航天飞机、火车、公共汽车等)和消费电子产品。在实施例中,计算机系统206a-206f在其它系统中实现或作为其它系统的一部分实现。
计算机系统
图3例示计算机系统300。在实现中,计算机系统300是一种专用计算装置。专用计算装置被硬连线以进行这些技术,或包括诸如一个或多个专用集成电路(ASIC)或现场可编程门阵列(FPGA)等的被持久编程为进行上述技术的数字电子装置,或可以包括一个或多个通用硬件处理器,这些硬件处理器经编程以根据固件、存储器、其它存储部或组合中的程序指令进行这些技术。这种专用的计算装置还可以将定制的硬线逻辑、ASIC或FPGA与定制的编程相结合来完成这些技术。在各种实施例中,专用计算装置是台式计算机系统、便携式计算机系统、手持装置、网络装置或包含硬线和/或程序逻辑以实现这些技术的任何其它装置。
在实施例中,计算机系统300包括总线302或用于传达信息的其它通信机制、以及与总线302耦接以处理信息的硬件处理器304。硬件处理器304是例如通用微处理器。计算机系统300还包括主存储器306,诸如随机存取存储器(RAM)或其它动态存储装置等,该主存储器306耦接到总线302以存储信息和指令,该信息和指令由处理器304执行。在一个实现中,主存储器306用于在执行要由处理器304执行的指令期间存储临时变量或其它中间信息。当这些指令存储在处理器304可访问的非暂时性存储介质中时,使计算机系统300变成一个专用机器,该机器被定制以执行指令中指定的操作。
在实施例中,计算机系统300还包括只读存储器(ROM)308或耦接到总线302的其它静态存储装置,用于存储处理器304的静态信息和指令。提供诸如磁盘、光盘、固态驱动器或三维交叉点存储器等的存储装置310,并且该存储装置310耦接到总线302以存储信息和指令。
在实施例中,计算机系统300通过总线302耦接到诸如阴极射线管(CRT)、液晶显示器(LCD)、等离子体显示器、发光二极管(LED)显示器或用于向计算机用户显示信息的有机发光二极管(OLED)显示器等的显示器312。包括字母数字键和其它键的输入装置314耦接到总线302,用于向处理器304传送信息和命令选择。另一种类型的用户输入装置是光标控制器316,诸如鼠标、轨迹球、触控显示器或光标方向键等,用于将方向信息和命令选择传送到处理器304,并用于控制光标在显示器312上的移动。这种输入装置通常具有两个轴(第一轴(例如,x轴)和第二轴(例如,y轴))上的两个自由度,这两个轴允许装置指定平面上的位置。
根据一个实施例,本文的技术由计算机系统300响应于处理器304执行主存储器306中包含的一个或多个指令的一个或多个序列而执行。这些指令从诸如存储装置310等的另一存储介质读入主存储器306。执行主存储器306中包含的指令序列使处理器304执行本文所描述的过程步骤。在替代实施例中,使用硬连线电路代替或与软件指令结合使用。
如本文所使用的术语“存储介质”是指存储数据和/或指令的任何非暂时性介质,这些数据和/或指令使机器以特定方式操作。这种存储介质包括非易失性介质和/或易失性介质。非易失性介质例如包括诸如存储装置310等的光盘、磁盘、固态驱动器或三维交叉点存储器。易失性介质包括动态存储器,诸如主存储器306等。存储介质的常见形式包括例如软盘、软磁盘、硬盘、固态驱动器、磁带或任何其它磁数据存储介质、CD-ROM、任何其它光数据存储介质、任何具有孔型的物理介质、RAM、PROM和EPROM、FLASH-EPROM、NV-RAM、或任何其它存储芯片或存储盒。
存储介质有别于传输介质,但可以与传输介质相结合使用。传输介质参与存储介质之间的信息传输。例如,传输介质包括同轴电缆、铜线和光纤,其包括具备总线302的电线。传输介质也可以采取声波或光波的形式,诸如在无线电波和红外数据通信过程中生成的声波或光波等。
在实施例中,各种形式的介质涉及将一个或多个指令的一个或多个序列承载到处理器304以供执行。例如,这些指令最初是在远程计算机的磁盘或固态驱动器上执行的。远程计算机将指令加载到其动态存储器中,并使用调制解调器通过电话线路发送指令。计算机系统300的本地调制解调器接收电话线路上的数据,并使用红外发射器将数据转换为红外信号。红外检测器接收红外信号中承载的数据,并且适当的电路将数据放置在总线302上。总线302将数据承载到主存储器306,处理器304从主存储器306检索并执行指令。主存储器306接收的指令可以可选地在处理器304执行之前或之后存储在存储装置310上。
计算机系统300还包括耦接到总线302的通信接口318。通信接口318提供耦接到连接至本地网络322的网络链路320的双向数据通信。例如,通信接口318是综合业务数字网(ISDN)卡、电缆调制解调器、卫星调制解调器或用以提供与相应类型电话线路的数据通信连接的调制解调器。作为另一示例,通信接口318是局域网(LAN)卡,用于提供与兼容LAN的数据通信连接。在一些实现中,无线链路也被实现。在任何这种实现中,通信接口318发送和接收承载表示各种类型的信息的数字数据流的电、电磁或光信号。
网络链路320通常通过一个或多个网络向其它数据装置提供数据通信。例如,网络链路320通过本地网络322提供与主计算机324或与由因特网服务提供商(ISP)326运营的云数据中心或设备的连接。ISP 326又通过现在通常称为“因特网”328的世界范围分组数据通信网络来提供数据通信服务。本地网络322和因特网328两者都使用承载数字数据流的电、电磁或光信号。通过各种网络的信号以及网络链路320上并通过通信接口318的信号是传输介质的示例形式,其中这些信号承载了进出计算机系统300的数字数据。在实施例中,网络320包含上述云202或云202的一部分。
计算机系统300通过(一个或多个)网络、网络链路320和通信接口318发送消息和接收包括程序代码的数据。在实施例中,计算机系统300接收用于处理的代码。接收到的代码在接收到时由处理器304执行,和/或存储在存储装置310中,或存储在其它非易失性存储装置中以便以后执行。
自主运载工具架构
图4示出用于自主运载工具(例如,图1所示的AV 100)的示例架构400。架构400包括感知模块402(有时称为感知电路)、规划模块404(有时称为规划电路)、控制模块406(有时称为控制电路)、定位模块408(有时称为定位电路)和数据库模块410(有时称为数据库电路)。各模块在AV 100的操作中发挥作用。共同地,模块402、404、406、408和410可以是图1所示的AV系统120的一部分。在一些实施例中,模块402、404、406、408和410中的任何模块是计算机软件(例如,计算机可读介质上所存储的可执行代码)和计算机硬件(例如,一个或多个微处理器、微控制器、专用集成电路[ASIC]、硬件存储器装置、其它类型的集成电路、其它类型的计算机硬件、或者这些硬件中的任何或所有的组合)的组合。
在使用中,规划模块404接收表示目的地412的数据,并且确定表示AV100为了到达(例如,抵达)目的地412而可以行驶的轨迹414(有时称为路线)的数据。为了使规划模块404确定表示轨迹414的数据,规划模块404从感知模块402、定位模块408和数据库模块410接收数据。
感知模块402使用例如也如图1所示的一个或多个传感器121来识别附近的物理对象。将对象分类(例如,分组成诸如行人、自行车、汽车、交通标志等的类型),并且将包括经分类的对象416的场景描述提供至规划模块404。
规划模块404还从定位模块408接收表示AV位置418的数据。定位模块408通过使用来自传感器121的数据和来自数据库模块410的数据(例如,地理数据)以计算位置来确定AV位置。例如,定位模块408使用来自GNSS接收器的数据和地理数据来计算AV的经度和纬度。在实施例中,定位模块408所使用的数据包括具有行车道几何属性的高精度地图、描述道路网络连接属性的地图、描述行车道物理属性(诸如交通速率、交通量、运载工具和自行车车道的数量、车道宽度、车道交通方向、或车道标记类型和地点,或者它们的组合等)的地图、以及描述道路特征(诸如十字路口、交通标志或各种类型的其它行驶信号等)的空间地点的地图。
控制模块406接收表示轨迹414的数据和表示AV位置418的数据,并且以将使得AV100行驶轨迹414到达目的地412的方式来操作AV的控制功能420a~420c(例如,转向、油门、制动、点火)。例如,如果轨迹414包括左转,则控制模块406将以如下方式操作控制功能420a~420c:转向功能的转向角度将使得AV 100左转,并且油门和制动将使得AV 100在进行转弯之前暂停并等待经过的行人或运载工具。
在实施例中,前述模块402、404、406、408中的任意模块都可以向基于规则的轨迹验证系统500发送请求以验证规划轨迹并接收该轨迹的分数,如参考图5至8进一步所详细描述的。
救援运载工具检测系统和方法
图5是根据一个或多个实施例的救援运载工具检测系统500的框图。救援运载工具检测系统500包括鸣笛声检测和定位流水线(pipeline)501、闪灯检测和定位流水线502、对象检测和定位流水线503和融合模块504。
鸣笛声检测和定位流水线501接收一个或多个麦克风所捕获的环境音频,并且分析该音频以检测鸣笛声的存在。如果检测到鸣笛声,则估计运载工具的操作环境中的鸣笛声的地点。
闪灯检测和定位流水线502从一个或多个照相机系统接收照相机图像,并且分析图像以检测闪灯的存在。如果检测到闪灯,则估计运载工具的操作环境中的闪灯的地点。对象检测和定位流水线503接收来自发射到环境中的光、射频(RF)或声波的回波,并且分析回波(从该环境中的对象反射的波)以检测一个或多个对象。如果检测到对象,则估计运载工具的操作环境中的对象的地点。
流水线501、502、503所输出的估计地点被输入到融合模块504,该融合模块504确定该估计地点是否匹配。如果估计地点的匹配程度处于指定的匹配准则内,则救援运载工具的匹配地点可以供下游系统或应用使用。例如,AV 100的感知模块402、规划器404和/或控制器模块406可以使用救援运载工具的估计地点来预测操作环境中的其它智能体的行为(诸如,避让或让位到道路的一侧等),然后基于对智能体行为的其它预测来规划运载工具在操作环境中的路线或轨迹。现在将参考图6至8更详细地描述流水线501、502和503。.
图6是根据一个或多个实施例的图5所示的鸣笛声检测和定位系统501的框图。音频接口601接收环境声并且将这些声音转换为数字信号。在实施例中,环境声接收器包括耦接到一个或多个麦克风或麦克风阵列(例如,相控麦克风阵列、MEMS麦克风阵列、线性麦克风阵列、波束成形麦克风阵列)的模拟前端(AFE)。各麦克风耦接到包括带通滤波的前置放大器(例如,两级差分放大器),以给出例如1.6Hz和24kHz之间的平坦响应。前置放大器增大麦克风输出信号的增益,并且将该信号差分地连接到模数转换器(ADC)。在实施例中,ADC是多位(例如,24位)sigma-delta ADC。ADC可以由相同的时钟提供来源以保证低抖动,这对时间相关信号和基于时间差分到达(TDOA)的算法(下面将进一步详细描述)而言是重要的。应用处理器或逻辑电路(诸如,现场可编程门阵列(FPGA)等)经由串行或并行总线接口(例如,串行外围接口(SPI))耦接到一个或多个ADC的输出
在实施例中,嵌入在一个或多个处理器或FPGA中的应用接收一个或多个ADC所输出的数字信号,并且添加元数据(诸如,通道号、时间和检错码(例如,循环冗余校验(CRC)码)等)。这些数字信号被输入到可以以软件或逻辑实现的数据校验器602。
数据校验器602针对错误和阻塞签名分析该数字信号,该错误和阻塞签名包括但不限于:丢失数据、减音信号和错误协议。例如,可以通过检错/校正码或通过丢弃的包等来检测丢失或泄露的数据。可以通过监测信号电平中的下降(例如,如下所论述的非预期且不遵循已知鸣笛的预期模式的下降等)等来检测减音信号。如果检测到错误,则通知诊断系统,以使得能够在可能的情况下报告、分析和/或修复该错误。数据校验器602的输出被输入到鸣笛声检测器603。
鸣笛声检测器602针对鸣笛声分析信号。该分析包括但不限于:对噪声(例如,风噪声、道路噪声、轮胎噪声、“城市”噪声)进行滤波,将滤波后的信号与已知鸣笛信号进行比较。可以通过如下操作来促进这种比较:首先例如使用快速傅立叶变换(FFT)将信号变换为频域来确定该信号的频谱,然后查找已知包含鸣笛声的特定频带中的能量。在实施例中,可以使用频率匹配算法来将信号的频谱与鸣笛内容的基准频谱进行匹配。在实施例中,匹配算法可以存储和使用不同鸣笛类型(例如,犬吠(Yelp)、长鸣(Wail)、高低音(Hi-Lo)、警笛(Power Call)、汽笛(Air Horn)和嗥鸣(Howler)鸣笛声)的基准频谱的特性。
在实施例中,机器学习模型(例如,神经网络)用于检测数据校验器602所输出的信号中的鸣笛声。在实施例中,机器学习模型还估计并输出鸣笛检测的置信水平(例如,鸣笛声检测的概率)。在实施例中,如果鸣笛声检测的特定置信水平低于所定义的置信度阈值,则该鸣笛声检测被认为是误检测并且被排除在融合模块504的输入之外。
如果鸣笛声检测器603以高于置信度阈值的置信水平检测到鸣笛声,则声源定位器604估计该鸣笛声源的地点。可以使用放置在运载工具周围的不同地点处的多个传感器(例如,定向麦克风、相控麦克风阵列、MEMS麦克风)并且将声源定位方法应用于麦克风信号来确定鸣笛声源的地点。声源定位方法的一些示例包括但不限于:到达时间(TOA)测量、TDOA测量或到达方向(DOA)估计,或通过利用可控响应功率(SRP)功能。在实施例中,三维(3D)声源定位是通过声源定位器604使用例如麦克风阵列、机器学习模型、最大似然、多重信号分类(MUSIC)、声矢量传感器(AVS)阵列、可控波束成形器(例如,延迟相加(DAS)波束成形器)来实现。在实施例中,各传感器是沿窄音频“视场”灵敏的具有波束模式(主波瓣)的单向麦克风。可以通过将麦克风信号的强度进行比较以及输出所有麦克风信号中具有最高强度的信号的麦克风的指向方向来确定定位。
在鸣笛声源的检测和定位之后,将鸣笛声源的地点估计输入到融合模块504。
图7是根据一个或多个实施例的图5所示的闪灯检测和定位系统502的框图。照相机接口701接收照相机图像,并且将照相机图像转换为数字信号。在实施例中,照相机接口701是包括图像传感器的照相机系统,该图像传感器用于接收通过透镜或其它光学器件而会聚的入射光(光子)。一个或多个传感器(例如,CMOS传感器)将光子转换成电子,将电子转换为模拟电压,并且之后使用一个或多个ADC将模拟电压转换成数字值。应用处理器或逻辑电路(诸如FPGA等)经由串行或并行总线接口(例如,SPI接口)耦接到该一个或多个ADC的输出。
在实施例中,嵌入在一个或多个处理器或FPGA中的应用接收该一个或多个ADC所输出的数字信号。这些数字信号被输入到可以以软件或逻辑实现的数据校验器702。数据校验器702针对错误和阻塞签名分析这些数字信号,该错误和阻塞签名包括但不限于:丢失数据、减音信号和错误协议。可以通过检错/校正码或丢弃的包等来检测丢失或泄露的数据。可以通过监测信号电平的下降等来检测减音信号。如果检测到错误,则通知诊断系统,以使得能够在可能的情况下报告、分析和/或修复该错误。数据校验器702的输出被输入到闪灯检测器703。
闪灯检测器703针对闪灯分析信号。该分析包括但不限于:对低强度光信号的照相机图像序列进行滤波,将所得到的高强度图像序列与已知闪灯的基准图像序列进行比较。如果一个或多个高强度照相机图像与一个或多个基准图像的匹配程度处于所定义的匹配准则内,则认为发生了闪灯检测。
在实施例中,使用机器学习模型(例如,神经网络)来检测闪灯。机器学习模型的输出可以是检测到闪灯的置信水平(例如,概率)。在实施例中,如果特定闪灯检测的特定置信水平低于所定义的置信度阈值,则该闪灯检测被认为是误检测并且被排除在融合模块504的输入之外。合适的深度卷积神经网络的一些示例包括但不限于:Bochkovskiy,A.,Wang,C-Y.,Hong-Yuan,M.L.YOLOv4:Optimal Speed and Accuracy of Object Detection(http://arxiv.org/pdf/2004.10934.pdf检索得到)、Shaoqing,R.,Kaiming,H.,GirshickR.,Sun,J.Faster R-CNN:Towards Real-Time Object Detection with RegionalProposal Networks(从http://arxiv.org/pdf/1506.01497.pdf检索得到)、以及Liu,W.,Anguelov,D.,Erhan,D.,Szegedy,C.,Reed,S.,Fu,C-Y,Berg,A.SSD:Single ShotMultiBox Detector(在http://arxiv.org/pdf/1512.02325.pdf检索得到)。
如果闪灯检测器703以高于置信度阈值的置信水平(例如,检测概率)检测到闪灯,则闪灯源定位器704估计闪灯源的地点。在实施例中,可以通过检测图像中的对象并附加地估计其径向距离来实现闪灯源的估计地点。与已知的照相机位置相结合可以变换为世界坐标中的地点。在另一实施例中,可以使用三角测量来确定闪灯的地点的估计,在三角测量中,多个照相机系统定位在运载工具的周围,并且通过观察多个照相机所产生的照相机图像内的密钥签名来确定定位。例如,密钥签名可以是照相机图像中的一组闪烁的高强度像素。
在实施例中,例如如Yabuuchi K.,Hirano M.,Senoo T.,Kishi N.,IshikawaM.Real-Time Traffic Light Detection with Frequency Patterns Using a High-speed Camera.Sensors(Basel).2020;20(14):4035(公布于2020年7月20日.doi:10.3390/s20144035)中所述,可以使用用于检测闪烁的交通灯的方法来使用一个或多个高速照相机实时检测救援运载工具的闪灯。在替代实施例中,对于所有对象,在单次拍摄中使用神经网络同时学习对象的位置、大小和分类。对于可能具有闪灯的那些关注对象(诸如救援运载工具等),神经网络基于是否检测到闪灯来学习附加的条件属性。由于神经网络将仅进行学习以与已经作为对象的一部分的闪灯相关联,因此在单次拍摄中进行该操作使得能够在学习条件属性减少了与其它闪灯的混淆的同时实现快速推断时间。
使用Yabuuchi K等人所描述的方法,将照相机图像转换为灰度级,并且在频域中对灰度级照相机图像应用带通滤波器以增强照相机图像中的闪光区域。二值化模块(例如,使用卡尔曼滤波器)估计闪灯动力学的状态,该状态包括闪光振幅、偏移和相位。状态估计用于确定用于对经滤波图像进行二值化的阈值。然后使用所估计的阈值将经滤波图像转换为二值图像。缓冲器模块将该二值图像转发到检测模块,该检测模块用于从峰值二值图像提取轮廓,然后使用轮廓来排除候选像素以防止误检测。然后,分类模块(例如,支持向量机)用于使用轮廓和原始RGB照相机图像将光颜色分类为标记为红色、黄色和绿色的三个类别。然后,标记为“红色”的地点像素可以用作如上所述用于定位的密钥签名。闪灯检测器603也可以使用该技术来进行如上所述的闪灯检测。
图8是根据一个或多个实施例的图5所示的对象检测和定位系统503的框图。
3D传感器接口801接收来自一个或多个3D对象检测传感器(例如,LiDAR、雷达、超声波)的回波信号,并且将回波信号转换为数字信号。在实施例中,3D传感器接口801是包括一个或多个传感器的LiDAR系统,这些传感器用于接收从运载工具操作环境中的对象返回/反射的入射光(光子)。一个或多个传感器将光子转换成电子,然后从电子转换为模拟电压,并且之后使用一个或多个ADC从模拟电压转换成数字信号。这些数字信号也被称为“点云”。应用处理器或逻辑电路(诸如FPGA等)经由串行或并行总线接口(例如,SPI接口)耦接到一个或多个ADC的输出。在实施例中,嵌入在一个或多个处理器或FPGA中的应用接收该一个或多个ADC所输出的数字信号。
这些数字信号被输入到可以以软件或逻辑实现的数据校验器802。数据校验器802针对错误和阻塞签名分析这些数字信号,错误和阻塞签名包括但不限于:丢失数据、减音信号和错误协议。可以通过检错/校正码或丢弃的包等来检测丢失或泄露的数据。可以通过监测信号电平的下降等来检测减音信号。如果检测到错误,则通知运载工具的诊断系统或基于云的诊断应用以使得能够在可能的情况下报告、分析和/或修复该错误。
对象检测器803(深度卷积神经网络)从数据校验器802接收传感器数据并且针对对象分析该传感器数据。在实施例中,对象检测器803对来自传感器数据的噪声(诸如来自灰尘、树叶、雪、雨、湿度等的回波等)进行滤波,并且对具有类似特性(诸如范围、范围变化率、高度、局部密度等)的回波进行组合或分组。然后,将组合或分组的回波分类为对象检测。
在实施例中,机器学习用于对象检测。例如,可以使用经训练的深度卷积神经网络(CNN)(例如,VGG-16网络)来分析回波并输出检测到的对象周围的标记边界框。CNN也可以输出对象检测的置信水平(例如,对象检测的概率)。如果置信度低,则检测到的对象被认为是误检测并且被排除在融合模型504的输入之外。然后,对象定位器804从对象检测器803接收对象数据,并且经由TOF和/或回波强度分析,通过经由对传感器位置和定向的分析确定径向地点、或者通过经由对传感器回波的分析确定范围地点,来确定对象的范围和方位角。
流水线501、502、503所输出的估计地点被输入到用于确定估计地点是否匹配的融合模块504。如果估计地点的匹配程度处于指定的匹配准则内,则救援运载工具的匹配地点可以供下游系统或应用使用。例如,AV 100的感知模块402、规划器404和/或控制器模块406可以使用救援运载工具的估计地点来预测操作环境中的其它智能体的行为(诸如,避让或让位到道路的一侧等),然后基于对智能体行为的其它预测来规划运载工具在操作环境中的路线或轨迹。
在实施例中,融合模块504接收鸣笛、闪灯和/或对象检测作为输入,并且通过以下方式来匹配鸣笛、闪灯和/或对象检测:1)对类似的范围、方位角、范围变化率、强度等进行比较;2)将鸣笛类型与运载工具类型进行比较;以及/或者3)使用经训练的深度卷积神经网络来对检测进行比较。
在实施例中,融合模块504生成救援运载工具存在信号并将其发送到一个或多个下游模块(诸如规划模块402、感知模块404或控制器模块406等)。例如,存在信号可以指示“存在”、“存在且靠近”、“存在且远”、“检测到的多个救援运载工具”、范围、范围变化率、方位角等。
示例处理
图9是根据一个或多个实施例的救援运载工具检测处理900的流程图。可以例如使用如参考图3所描述的计算机系统300来实现处理900。
处理900可以通过从运载工具的各种传感器接收输入数据(901)而开始。输入数据可以包括但不限于:一个或多个麦克风所捕获的环境声、一个或多个照相机所捕获的照相机图像以及来自发射到环境中的光波、RF波或声波的回波。
处理900通过针对错误和阻塞签名来校验输入数据(902)而继续。例如,环境声、闪灯和光回波被转换为数字信号,针对错误和阻塞签名来分析这些信号。在作为该分析的结果检测到错误或阻塞签名的情况下,使用本地运载工具诊断系统和/或基于云的诊断系统来确定该错误或阻塞签名的原因。然而,在未检测到错误或阻塞签名的情况下,针对鸣笛声、闪灯和对象来分析数字信号。
处理900通过基于输入数据来检测救援运载工具的存在(903)而继续。例如,如参考图6至8更全面地描述,分析一个或多个麦克风所捕获的环境声以确定鸣笛声的存在,分析一个或多个照相机所捕获的照相机图像以检测闪灯的存在,并且分析来自一个或多个3D传感器的3D数据以确定环境中的静态或动态对象的存在。如果基于对鸣笛声和闪灯的检测而检测到救援运载工具(904),则基于鸣笛声和闪灯的地点来估计救援运载工具的地点(905)。例如,融合模块504接收鸣笛、闪灯和/或对象检测作为输入,并且通过以下方式来匹配鸣笛、闪灯和/或对象检测:1)将地点的类似的范围、方位角、范围变化率、强度进行比较;2)使用频率签名将鸣笛类型与救援运载工具类型进行比较;以及/或者3)使用对作为训练数据的鸣笛声、闪灯和/或对象检测进行了训练的一个或多个深度CNN来将检测进行比较。可以增强训练数据以覆盖各种环境(例如,密集的城市、乡村)和环境条件(例如,夜间、日间、雨、雾、雪),从而增加CNN所输出的预测的准确度。与单独地依赖鸣笛声检测、闪灯检测或对象检测相比,对在环境中的同一估计地点处的鸣笛声、闪灯和对象的检测提供了更高置信水平的救援运载工具检测。
在实施例中,对象检测流水线503基于救援运载工具的物理外观(例如,形状、大小、颜色和/或轮廓等)来预测标记有救援运载工具类型(例如,警车、消防车、救护车)的对象的2D或3D边界框,并且用基于流水线502的输出指示救援运载工具的一个或多个灯是否闪烁的数据来增强标签,以及/或者用基于流水线501的输出指示鸣笛是否被启动的数据来增强标签。例如,AV 100的规划模块404可以使用2D或3D边界框来规划操作环境中的路线或轨迹。例如,如果检测到救援运载工具的存在,则规划模块404可以基于操作环境中的救援运载工具的估计地点以及其它智能体(例如,其它运载工具)的物理和情绪状态来规划到道路一侧的机动动作,该机动动作可能以可预测的方式根据国家法规对救援运载工具的鸣笛声或闪灯做出响应(例如,车道改变、停车、从道路离开)。
在先前描述中,已经参考许多具体细节描述了本发明的实施例,这些具体细节可因实现而不同。因此,说明书和附图应被视为说明性的,而非限制性意义的。本发明范围的唯一且排他的指示、以及申请人期望是本发明范围的内容是以发布权利要求书的具体形式从本申请发布的权利要求书的字面和等同范围,包括任何后续修正。本文中明确阐述的用于被包括在此类权利要求中的术语的任何定义应当以此类术语如在权利要求书中所使用的意义为准。另外,当在先前的说明书或所附权利要求书使用术语“还包括”时,该短语的下文可以是附加的步骤或实体、或先前所述的步骤或实体的子步骤/子实体。
Claims (21)
1.一种用于运载工具的方法,包括:
利用至少一个处理器来接收环境声;
利用所述至少一个处理器来确定所述环境声是否包括鸣笛声;
根据确定为所述环境声包括鸣笛声,利用所述至少一个处理器来确定与鸣笛声相关联的第一地点;
利用所述至少一个处理器来接收照相机图像;
利用所述至少一个处理器来确定所述照相机图像是否包括闪灯;
根据确定为所述照相机图像包括闪灯,利用所述至少一个处理器来确定与闪灯相关联的第二地点;
利用所述至少一个处理器来接收三维数据即3D数据;
利用所述至少一个处理器来确定所述3D数据是否包括对象;
根据确定为所述3D数据包括对象,利用所述至少一个处理器来确定与对象相关联的第三地点;
利用所述至少一个处理器,基于所述鸣笛声、检测到的闪灯和检测到的对象来确定救援运载工具的存在;
利用所述至少一个处理器,基于所述第一地点、所述第二地点和所述第三地点来确定所述救援运载工具的估计地点;以及
利用所述至少一个处理器,基于所确定的救援运载工具的存在和地点来发起与运载工具相关的动作。
2.根据权利要求1所述的方法,其中,确定所述环境声是否包括鸣笛声还包括:
将所述环境声转换为数字信号;
针对错误和阻塞签名来分析所述数字信号;
在检测到错误或阻塞签名的情况下,通知诊断系统以确定所述错误或阻塞签名的原因;以及
在未检测到错误或阻塞签名的情况下,针对鸣笛声来分析所述数字信号。
3.根据权利要求1所述的方法,其中,确定所述环境声是否包括鸣笛声还包括:
将所述环境声转换为数字信号;
对来自所述数字信号的噪声进行滤波;
将所述数字信号与基准信号进行比较;以及
基于比较的结果来确定鸣笛声检测。
4.根据权利要求1所述的方法,其中,确定所述环境声是否包括鸣笛声还包括:
将所述环境声转换为数字信号;
使用机器学习来分析所述数字信号;以及
基于分析的结果来确定鸣笛声检测。
5.根据权利要求4所述的方法,还包括:
确定所述鸣笛声检测的置信水平。
6.根据权利要求1所述的方法,其中,基于声定位来确定与所述鸣笛声的源相关联的所述第一地点,其中,所述声定位基于对位于运载工具周围的多个麦克风所输出的信号的飞行时间分析即TOF分析。
7.根据权利要求1所述的方法,其中,基于多个单向麦克风的地点和定向来确定与所述鸣笛声的源相关联的所述第一地点,并且基于从对所述多个单向麦克风的输出信号以及所述多个单向麦克风各自的地点和定向的分析所获得的密钥签名信号的强度来确定所述第一地点。
8.根据权利要求1所述的方法,其中,确定所述照相机图像是否包括闪灯还包括:
针对错误和阻塞签名来分析所述照相机图像;
在检测到错误或阻塞签名的情况下,通知诊断系统以确定所述错误或阻塞签名的原因;以及
在未检测到错误或阻塞签名的情况下,分析所述照相机图像以确定所述照相机图像是否包括闪灯。
9.根据权利要求1所述的方法,其中,确定所述照相机图像是否包括闪灯还包括:
对所述照相机图像进行滤波以去除低强度光信号,从而得到高强度图像;
将所述高强度图像与基准图像进行比较;以及
基于比较的结果来确定闪灯检测。
10.根据权利要求1所述的方法,其中,确定所述照相机图像是否包括闪灯还包括:
使用机器学习来分析所述照相机图像;以及
基于分析的结果来预测闪灯检测。
11.根据权利要求10所述的方法,还包括:
确定所述闪灯检测的置信水平。
12.根据权利要求11所述的方法,其中,使用机器学习的所述分析包括使用神经网络来分析所述照相机图像,所述神经网络被训练成对明亮的闪灯和其它亮光进行区分。
13.根据权利要求1所述的方法,其中,通过以下操作来确定与所述闪灯相关联的所述第二地点:
检测多个照相机所捕获的多个照相机图像中的闪灯签名;以及
基于所述多个照相机中的各照相机的位置和定向来确定闪灯的径向地点;或者
基于所述多个照相机的位置和定向的三角测量来确定所述第二地点。
14.根据权利要求13所述的方法,其中,确定所述3D数据是否包括对象还包括:
针对错误和阻塞签名来分析所述3D数据;
在检测到错误或阻塞签名的情况下,通知诊断系统以确定所述错误或阻塞签名的原因;以及
在未检测到错误或阻塞签名的情况下,分析所述3D数据以确定所述3D数据是否包括对象。
15.根据权利要求13所述的方法,其中,确定所述3D数据是否包括对象还包括:
对所述3D数据进行滤波以去除噪声;
将所述3D数据分成具有类似特性的组;以及
使用机器学习来分析所述组以确定对象检测。
16.根据权利要求15所述的方法,还包括:
确定所述对象检测的置信水平。
17.根据权利要求13所述的方法,其中,确定所述第三地点包括:
基于对检测到所述对象的传感器的传感器位置和定向的分析来确定该对象的径向地点。
18.根据权利要求1所述的方法,其中,确定所述救援运载工具的存在和地点还包括:
将鸣笛声检测、闪灯检测和对象检测进行比较,以确定所述鸣笛声检测、所述闪灯检测和所述对象检测是否匹配;以及
根据确定为匹配来生成指示所述救援运载工具的存在的信号。
19.根据权利要求18所述的方法,还包括:基于所述救援运载工具的地点来跟踪所述救援运载工具。
20.一种用于运载工具的系统,包括:
至少一个处理器;
存储有指令的存储器,所述指令在由所述至少一个处理器执行时使得所述至少一个处理器进行操作,所述操作包括:
接收环境声;
确定所述环境声是否包括鸣笛声;
根据确定为所述环境声包括鸣笛声,确定与所述鸣笛声相关联的第一地点;
接收照相机图像;
确定所述照相机图像是否包括闪灯;
根据确定为所述照相机图像包括闪灯,确定与所述闪灯相关联的第二地点;
接收三维数据即3D数据;
确定所述3D数据是否包括对象;
根据确定为所述3D数据包括对象,确定与所述对象相关联的第三地点;
基于所述鸣笛声、检测到的闪灯和检测到的对象来确定救援运载工具的存在;
基于所述第一地点、所述第二地点和所述第三地点来确定所述救援运载工具的估计地点;以及
基于所确定的救援运载工具的存在和地点来发起与运载工具相关的动作。
21.一种计算机可读存储介质,其上存储有指令,所述指令在由至少一个处理器执行时使得所述至少一个处理器进行操作,所述操作包括:
接收环境声;
确定所述环境声是否包括鸣笛声;
根据确定为所述环境声包括鸣笛声,确定与所述鸣笛声相关联的第一地点;
接收照相机图像;
确定所述照相机图像是否包括闪灯;
根据确定为所述照相机图像包括闪灯,确定与所述闪灯相关联的第二地点;
接收三维数据即3D数据;
确定所述3D数据是否包括对象;
根据确定为所述3D数据包括对象,确定与所述对象相关联的第三地点;
基于所述鸣笛声、检测到的闪灯和检测到的对象来确定救援运载工具的存在;
基于所述第一地点、所述第二地点和所述第三地点来确定所述救援运载工具的估计地点;以及
基于所确定的救援运载工具的存在和地点来发起与运载工具相关的动作。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/458,239 | 2021-08-26 | ||
US17/458,239 US11364910B1 (en) | 2021-08-26 | 2021-08-26 | Emergency vehicle detection system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115718484A true CN115718484A (zh) | 2023-02-28 |
Family
ID=78463536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111485949.1A Pending CN115718484A (zh) | 2021-08-26 | 2021-12-07 | 用于运载工具的方法和系统以及存储介质 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11364910B1 (zh) |
KR (1) | KR102534562B1 (zh) |
CN (1) | CN115718484A (zh) |
DE (1) | DE102021133349A1 (zh) |
GB (1) | GB2610240A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116013095A (zh) * | 2023-03-24 | 2023-04-25 | 中国科学技术大学先进技术研究院 | 红绿灯时间动态控制方法、装置、设备及可读存储介质 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11567510B2 (en) | 2019-01-24 | 2023-01-31 | Motional Ad Llc | Using classified sounds and localized sound sources to operate an autonomous vehicle |
US11295757B2 (en) | 2020-01-24 | 2022-04-05 | Motional Ad Llc | Detection and classification of siren signals and localization of siren signal sources |
EP3988417A1 (en) * | 2020-10-23 | 2022-04-27 | Tusimple, Inc. | Safe driving operations of autonomous vehicles |
US20220173889A1 (en) * | 2020-11-30 | 2022-06-02 | Motional Ad Llc | Secure Safety-Critical System Log |
US11899468B2 (en) * | 2020-12-22 | 2024-02-13 | Waymo Llc | Sensor for flashing light detection |
US20230139578A1 (en) * | 2021-10-29 | 2023-05-04 | Waymo Llc | Predicting agent trajectories in the presence of active emergency vehicles |
US11984026B2 (en) * | 2022-05-19 | 2024-05-14 | Alert The Mechanism LLC | System and method for emergency vehicle detection and alerting |
WO2024102431A1 (en) * | 2022-11-09 | 2024-05-16 | Aurora Operations, Inc. | Systems and methods for emergency vehicle detection |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8976040B2 (en) * | 2012-02-16 | 2015-03-10 | Bianca RAY AVALANI | Intelligent driver assist system based on multimodal sensor fusion |
CN203202914U (zh) | 2013-03-27 | 2013-09-18 | 比亚迪股份有限公司 | 一种导光模组 |
JP2015022453A (ja) * | 2013-07-18 | 2015-02-02 | カルソニックカンセイ株式会社 | 緊急車両報知システム |
KR20150043943A (ko) * | 2013-10-15 | 2015-04-23 | 한국기계연구원 | 촬영부가 구비된 차량의 운전 보조시스템 및 이를 이용한 차량의 운전 보조방법 |
US9275136B1 (en) | 2013-12-03 | 2016-03-01 | Google Inc. | Method for siren detection based on audio samples |
DE102014202453B4 (de) | 2014-02-11 | 2018-12-06 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Systeme zur Erkennung von autonom betriebenen Fahrzeugen, zur Abstandsmessung und zur Abstandssteuerung |
CN104111552B (zh) | 2014-08-08 | 2017-02-01 | 深圳市华星光电技术有限公司 | 多基色液晶显示器及其驱动方法 |
KR20160129487A (ko) * | 2015-04-30 | 2016-11-09 | 영남대학교 산학협력단 | 2차원 레이저 스캐너를 이용한 차선 검출 장치 및 방법 |
US9937922B2 (en) | 2015-10-06 | 2018-04-10 | Ford Global Technologies, Llc | Collision avoidance using auditory data augmented with map data |
DE102015226232A1 (de) * | 2015-12-21 | 2017-06-22 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Kollisionsvermeidung eines Kraftfahrzeuges mit einem Einsatzfahrzeug und ein diesbezügliches System und Kraftfahrzeug |
JP6211113B2 (ja) * | 2016-02-03 | 2017-10-11 | 三菱電機株式会社 | 車両接近検出装置 |
US9969326B2 (en) | 2016-02-22 | 2018-05-15 | Uber Technologies, Inc. | Intention signaling for an autonomous vehicle |
US10074274B2 (en) | 2016-02-29 | 2018-09-11 | Faraday & Future Inc. | Emergency signal detection and response |
CN108701412A (zh) | 2016-03-04 | 2018-10-23 | 瑞典爱立信有限公司 | 用于控制车辆交通的方法和交通控制实体 |
KR101807616B1 (ko) | 2016-04-21 | 2017-12-11 | 현대자동차주식회사 | 음향 추적 정보 제공 방법, 차량용 음향 추적 장치, 및 이를 포함하는 차량 |
US10346119B2 (en) | 2016-09-27 | 2019-07-09 | Intel Corporation | Trusted vehicle messaging via transparent display |
US20180137756A1 (en) | 2016-11-17 | 2018-05-17 | Ford Global Technologies, Llc | Detecting and responding to emergency vehicles in a roadway |
US10127818B2 (en) * | 2017-02-11 | 2018-11-13 | Clear Commute Ventures Pty Ltd | Systems and methods for detecting and avoiding an emergency vehicle in the proximity of a substantially autonomous vehicle |
US10319228B2 (en) | 2017-06-27 | 2019-06-11 | Waymo Llc | Detecting and responding to sirens |
US10210756B2 (en) | 2017-07-24 | 2019-02-19 | Harman International Industries, Incorporated | Emergency vehicle alert system |
US10747231B2 (en) | 2017-11-17 | 2020-08-18 | Intel Corporation | Identification of audio signals in surrounding sounds and guidance of an autonomous vehicle in response to the same |
US11567510B2 (en) | 2019-01-24 | 2023-01-31 | Motional Ad Llc | Using classified sounds and localized sound sources to operate an autonomous vehicle |
JP7135904B2 (ja) * | 2019-02-01 | 2022-09-13 | トヨタ自動車株式会社 | 交通管理システム及びその制御方法 |
CN111708358A (zh) * | 2019-03-01 | 2020-09-25 | 安波福技术有限公司 | 紧急情况下运载工具的操作 |
US11231905B2 (en) | 2019-03-27 | 2022-01-25 | Intel Corporation | Vehicle with external audio speaker and microphone |
US11216689B2 (en) * | 2019-07-29 | 2022-01-04 | Waymo Llc | Detection of emergency vehicles |
US11322019B2 (en) * | 2019-10-23 | 2022-05-03 | Zoox, Inc. | Emergency vehicle detection |
US11450205B2 (en) * | 2019-12-31 | 2022-09-20 | Zoox, Inc. | Emergency vehicle detection and response |
US11295757B2 (en) * | 2020-01-24 | 2022-04-05 | Motional Ad Llc | Detection and classification of siren signals and localization of siren signal sources |
US11914390B2 (en) * | 2020-03-31 | 2024-02-27 | Zoox, Inc. | Distinguishing between direct sounds and reflected sounds in an environment |
US20210103747A1 (en) * | 2020-12-17 | 2021-04-08 | Hassnaa Moustafa | Audio-visual and cooperative recognition of vehicles |
-
2021
- 2021-08-26 US US17/458,239 patent/US11364910B1/en active Active
- 2021-09-21 GB GB2113425.9A patent/GB2610240A/en active Pending
- 2021-10-08 KR KR1020210134047A patent/KR102534562B1/ko active IP Right Grant
- 2021-12-07 CN CN202111485949.1A patent/CN115718484A/zh active Pending
- 2021-12-15 DE DE102021133349.0A patent/DE102021133349A1/de active Pending
-
2022
- 2022-06-09 US US17/836,932 patent/US20230063047A1/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116013095A (zh) * | 2023-03-24 | 2023-04-25 | 中国科学技术大学先进技术研究院 | 红绿灯时间动态控制方法、装置、设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US11364910B1 (en) | 2022-06-21 |
KR102534562B1 (ko) | 2023-05-18 |
DE102021133349A1 (de) | 2023-03-02 |
GB2610240A (en) | 2023-03-01 |
KR20230031103A (ko) | 2023-03-07 |
US20230063047A1 (en) | 2023-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102534562B1 (ko) | 긴급 차량 검출 시스템 및 방법 | |
US11567510B2 (en) | Using classified sounds and localized sound sources to operate an autonomous vehicle | |
US20200276973A1 (en) | Operation of a vehicle in the event of an emergency | |
US11804239B2 (en) | Detection and classification of siren signals and localization of siren signal sources | |
US12007474B2 (en) | Autonomous vehicle operation using acoustic modalities | |
GB2598802A (en) | Driving scenario sampling for training/tuning machine learning models for vehicles | |
CN114419331A (zh) | 用于运载工具的方法和系统以及运载工具 | |
US11922805B1 (en) | Systems and methods for intelligent traffic control | |
CN114510018A (zh) | 用于子系统性能评价的度量反向传播 | |
CN113970924A (zh) | 用于运载工具的方法和系统 | |
CN113176584A (zh) | 解决传感器回波中的距变率模糊 | |
CN115951326A (zh) | 对象检测方法、系统和存储介质 | |
CN112486163A (zh) | 基于导航信息的可用性的自主运载工具的操作 | |
KR102631148B1 (ko) | 센서 데이터를 사용하여 자동으로 교통 신호 검출 | |
US12122417B2 (en) | Discriminator network for detecting out of operational design domain scenarios | |
US20240051568A1 (en) | Discriminator network for detecting out of operational design domain scenarios | |
US20230227032A1 (en) | Vehicle Dynamics Classification for Collision and Loss of Control Detection | |
US20230209253A1 (en) | Autonomous vehicle with microphone safety | |
US20240132112A1 (en) | Path-based trajectory prediction | |
US20240126254A1 (en) | Path selection for remote vehicle assistance | |
CN116229407A (zh) | 用于运载工具的方法、运载工具和存储介质 | |
CN116483062A (zh) | 用于运载工具的方法、系统以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |