CN113264042B - 隐藏危险情况警示 - Google Patents
隐藏危险情况警示 Download PDFInfo
- Publication number
- CN113264042B CN113264042B CN202110155946.5A CN202110155946A CN113264042B CN 113264042 B CN113264042 B CN 113264042B CN 202110155946 A CN202110155946 A CN 202110155946A CN 113264042 B CN113264042 B CN 113264042B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- subject vehicle
- information
- hidden danger
- target vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims abstract description 49
- 230000008569 process Effects 0.000 claims abstract description 37
- 238000013528 artificial neural network Methods 0.000 claims abstract description 7
- 238000007499 fusion processing Methods 0.000 claims abstract description 7
- 238000005286 illumination Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 231100001261 hazardous Toxicity 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V1/00—Seismology; Seismic or acoustic prospecting or detecting
- G01V1/001—Acoustic presence detection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0953—Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V1/00—Seismology; Seismic or acoustic prospecting or detecting
- G01V1/003—Seismic data acquisition in general, e.g. survey design
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/50—Barriers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/20—Static objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Acoustics & Sound (AREA)
- Data Mining & Analysis (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Geophysics (AREA)
- Geology (AREA)
- Environmental & Geological Engineering (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Lighting Device Outwards From Vehicle And Optical Signal (AREA)
- Traffic Control Systems (AREA)
Abstract
一种用于确定隐藏危险的存在的系统和方法可以包括识别主题车辆的操作场景,以及识别主题车辆的操作情况。来自多个接近传感器的信息被收集和分类。估计多个隐藏危险存在概率,所述多个隐藏危险存在概率对应于来自多个接近传感器中的每一个、所述操作场景、所述操作情况、以及比较过程和动态神经网络过程中的至少一者的信息。可以对多个隐藏危险存在概率执行融合过程,以确定隐藏危险的存在。
Description
技术领域
本公开涉及道路车辆中的情况警示。
背景技术
监控车辆周围的区域以提高驾驶员的情况警示的系统是已知的,例如前后距离、距离变化率和视觉系统。这种系统可用于提供与包括其他车辆在内的物体相关的操作员警报和控制输入。这种系统可以是自主和半自主车辆控制中的使能器,例如自适应巡航控制、辅助停车、车道保持和相邻车道的盲点警告。然而,已知的系统性能和实现可能主要与视线(sight)检测有关。
发明内容
在一个示例性实施例中,用于确定隐藏危险的存在的方法可以包括识别主题车辆的操作场景,识别主题车辆的操作情况,收集和分类来自多个接近传感器的信息,估计多个隐藏危险存在概率,所述多个隐藏危险存在概率对应于来自多个接近传感器的每一个、来自操作场景、来自操作情况以及来自比较过程和动态神经网络过程中的至少一者的信息,并且对多个隐藏危险存在概率执行融合过程,以确定隐藏危险的存在。
除了这里描述的一个或多个特征之外,从多个接近传感器收集和分类信息可以包括:从环境光传感器、视觉系统、声学传感器和地震传感器收集和分类信息。
除了这里描述的一个或多个特征之外,从多个接近传感器收集和分类信息可以包括:从环境光传感器和视觉系统中的至少一者以及从声学传感器和地震传感器中的至少一者收集和分类信息。
除了这里描述的一个或多个特征之外,从多个接近传感器收集和分类信息可以包括:收集环境光和分类不同亮度的区域。
除了在此描述的一个或多个特征之外,从多个接近传感器收集和分类信息可以包括:收集环境光和对重叠了从来自主题车辆和至少一个被遮挡的目标车辆的前灯图案的区域进行分类。
除了这里描述的一个或多个特征之外,从多个接近传感器收集和分类信息可以包括:从视觉系统收集光束的图像,并且基于多个预定的光束特征对图像进行分类。
除了这里描述的一个或多个特征之外,从多个接近传感器收集和分类信息可以包括:收集声学波形和基于多个预定声学特性对波形进行分类。
除了这里描述的一个或多个特征之外,从多个接近传感器收集和分类信息可以包括:收集地震波形和基于多个预定地震特征对波形进行分类。
在另一个示例性实施例中,用于确定隐藏危险的存在的系统可以包括主题车辆、与主题车辆相关联的多个接近传感器、以及控制器,该控制器被配置为识别主题车辆的操作场景、识别主题车辆的操作情况、收集和分类来自多个接近传感器的信息、估计多个隐藏危险存在概率,所述多个隐藏危险存在概率对应于来自多个接近传感器的每一个、来自操作场景、来自操作情况以及来自比较过程和动态神经网络过程中的至少一者的信息,并且对多个隐藏危险存在概率执行融合过程以确定隐藏危险的存在。
除了这里描述的一个或多个特征之外,控制器可以被配置成从环境光传感器、视觉系统、声学传感器和地震传感器收集信息并对信息进行分类。
除了这里描述的一个或多个特征之外,控制器可以被配置成从环境光传感器和视觉系统中的至少一者,以及从声学传感器和地震传感器中的至少一者收集和分类信息。
除了在此描述的一个或多个特征之外,控制器可以被配置成收集环境光并对重叠了来自主车辆和至少一个被遮挡的目标车辆的前灯图案的区域进行分类。
除了在此描述的一个或多个特征之外,控制器可以被配置为从视觉系统收集光束的图像,并且基于多个预定的光束特征对图像进行分类。
除了这里描述的一个或多个特征之外,控制器可以被配置成收集声学波形并基于多个预定声学特征对波形进行分类。
除了这里描述的一个或多个特征之外,控制器可以被配置成收集地震波形,并基于多个预定的地震特征对波形进行分类。
在又一示例性实施例中,用于确定隐藏危险的存在的系统可以包括主题车辆,以及与主题车辆相关联的多个接近传感器,包括环境光传感器、视觉系统、声学传感器和地震传感器。该系统还可以包括控制器,该控制器被配置为基于包括对应于主题车辆的当前地理位置的信息的信息来识别主题车辆的操作场景,基于包括对应于操作场景内的动态条件的信息的信息来识别主题车辆的操作情况,从多个接近传感器收集和分类信息,估计多个隐藏危险存在概率,所述多个隐藏危险存在概率对应于来自多个接近传感器中的每一个、操作场景、操作情况以及来自比较过程和动态神经网络过程中的至少一者的信息,并且对多个隐藏危险存在概率执行融合过程以确定隐藏危险的存在。
除了在此描述的一个或多个特征之外,比较过程可以包括获取对应于操作场景和操作情况、限定主题车辆的前灯图案内的重叠和非重叠区域的规则,建立区域的亮度比较,并且将亮度比较与主题车辆的前灯图案内的重叠光的被收集和分类的区域进行比较。
除了在此描述的一个或多个特征之外,比较过程可以包括从隐藏目标车辆获取对应于操作场景和操作情况的典型的光束图像,并且将图像与被收集和分类的视觉系统图像进行比较。
除了这里描述的一个或多个特征之外,比较过程可以包括获取对应于操作场景和操作情况的声学特征,并将特征与收集和分类的声学波形进行比较。
除了这里描述的一个或多个特征之外,比较过程可以包括获取对应于操作场景和操作情况的地震特征,并且将特征与收集和分类的地震波形进行比较。
当结合附图时,根据以下详细描述,本公开的上述特征和优点以及其他特征和优点将变得显而易见。
附图说明
其他特征、优点和细节仅作为示例出现在以下详细描述中,该详细描述参考附图,其中:
图1示出了根据本公开的用于隐藏危险情况警示的示例性系统;
图2示出了根据本公开的示例性车辆操作场景,示出了没有隐藏危险;
图3示出了根据本公开的示例性车辆操作场景,示出了示例性隐藏危险;
图4示出了根据本公开的示例性车辆操作场景,示出了示例性隐藏危险;
图5示出了根据本公开的示例性车辆操作场景,示出了示例性隐藏危险;
图6示出了根据本公开的示例性车辆操作场景,示出了示例性隐藏危险;
图7示出了根据本公开的示例性车辆操作场景,示出了示例性隐藏危险;
图8示出了根据本公开的示例性车辆操作场景,示出了示例性隐藏危险;
图9示出了根据本公开的示例性车辆操作场景,示出了示例性隐藏危险;和
图10示出了根据本公开的用于估计隐藏危险的示例性过程。
具体实施方式
以下描述本质上仅仅是示例性的,并不旨在限制本公开、其应用或使用。在所有附图中,相应的附图标记表示相似或相应的部件和特征。如本文所用,控制模块、模块、控制、控制器、控制单元、电子控制单元、处理器和类似术语是指以下一个或多个器件中的任何一个或各种组合:专用集成电路(ASIC)、电子电路、中央处理单元(优选为微处理器)和相关存储器和存储装置(只读存储器(ROM)、随机存取存储器(RAM)、电可编程只读存储器(EPROM)、硬盘驱动器等),或执行一个或多个软件或固件程序或例程的微控制器、组合逻辑电路、输入/输出电路和设备(I/O)、适当的信号调节和缓冲电路、高速时钟、模数(A/D)和数模电路(D/A)以及提供所述功能的其他部件。控制模块可以包括各种通信接口,包括点到点或离散的线以及有线或无线网络接口,所述网络包括广域网和局域网、车载控制器局域网以及近距(in-plant)和服务相关网络。本公开中阐述的控制模块的功能可以在几个网络控制模块之间的分布式控制架构中执行。软件、固件、程序、指令、例程、代码、算法和类似术语表示任何控制器可执行指令集,包括校准、数据结构和查找表。控制模块具有一组被执行以提供所述功能的控制例程。例程例如由中央处理单元执行,并且可操作以监控来自感测设备和其他网络控制模块的输入,并且执行控制和诊断例程,以控制致动器的操作。在正在工作的发动机和车辆操作期间,可以定期执行例程。可选地,例程可以响应于事件、软件调用的发生或者经由用户界面输入或请求的要求而被执行。
在车辆操作员半自主或全自主地对车辆进行道路操作期间,车辆可以是操作场景和情况中的观察者。操作场景(场景)通常被理解为包括基本上静态的驾驶环境,包括例如道路和周围的基础设施,而操作情况(情况)通常被理解为包括场景内的基本上运动的、动态的和暂时的条件,例如道路上的其他车辆、物体和危险。观察车辆在这里可以被称为主题车辆。共享道路的其他车辆在这里可以被称为目标车辆。
主题车辆可以配备有各种传感器和通信硬件和系统。根据本公开,示例性主题车辆101示出在图1中,其示出了用于隐藏危险情况警示的示例性系统100。主题车辆101可以包括控制系统102,该控制系统102包括多个联网的电子控制单元(ECU),所述电子控制单元可以通过总线结构111通信地联接,以执行控制功能和信息共享,包括在本地或以分布式方式执行控制例程。总线结构111可以是控制器局域网(CAN)或本领域普通技术人员所熟知的其他类似网络的一部分。一个示例性的ECU可以包括发动机控制模块(ECM)115,其主要基于多个输入121而执行与内燃机监控、控制和诊断相关的功能。虽然输入121被示为直接耦合到ECM 115,但是输入可以通过总线结构111通过各种已知的传感器、计算、推导、合成、其他ECU和传感器被提供给ECM 115或在ECM 115内被确定,如本领域普通技术人员所理解的。本领域普通技术人员认识到,多个其他ECU 117可以是主题车辆101上的控制器网络的一部分,并且可以执行与各种其他车辆系统相关的其他功能(例如底盘、转向、制动、传动、通信、信息娱乐等)。各种与车辆相关的信息通常可由所有联网的ECU获得和访问,例如车辆动力学信息,如速度、航向、转向角、多轴加速度、偏航、俯仰、滚转等。
另一个示例性的ECU可以包括外部物体计算模块(EOCM)113,其主要执行与感测车辆101外部环境相关的功能,更具体地,与道路车道、路面和物体感测相关的功能。EOCM 113从各种传感器119和其他来源接收信息。仅作为示例而非限制,EOCM 113可以从一个或多个雷达系统、激光雷达系统、超声波系统、视觉系统(例如摄像头)、全球定位系统(GPS)、车辆对车辆通信系统、车辆对基础设施通信系统,以及来自车载或车外数据库的信息,例如地图、路段、导航和基础设施信息以及人群源信息。GPS和数据库信息可以提供大部分驾驶场景信息,而各种传感器119可以提供大部分驾驶情况信息。EOCM 113可以访问主题车辆位置和速度数据、视线目标车辆距离和速度数据以及基于图像的数据,这些数据在道路和目标车辆信息的确定或验证中可以是有用的,例如道路特征和目标车辆几何、距离和速度信息等。然而,许多这样的传感系统在实用性上受限、或者在应用中受限于在非遮挡视线内的物体(包括其他车辆)。根据本公开,可以采用某些其他感测技术来提高对隐藏危险的情况警示,例如环境光传感器、声学传感器和地震传感器。同样,视觉系统可以根据本公开进行调整,以提高对隐藏危险的情况警示。因此,可以理解,某些传感器可以被认为是视线(LOS)传感器,因为它们依赖于场景内物体的直接检测,并且主要依赖于传感器和被检测物体之间的非遮挡视线。这种视线传感器的例子包括例如雷达、激光雷达、超声波和视觉传感器。相反,还应当理解,某些传感器可以被认为是接近传感器,因为它们依赖于对不在传感器和被检测物体之间的视线内的物体的间接检测。这种接近传感器检测场景内的影响或激发,这些影响或激发可被处理以推断确定所述影响或激发的目标源的存在。这种接近传感器的例子包括例如环境光传感器、声学传感器、地震传感器和视觉传感器。传感器119可以位于车辆周围的各种周界点,包括前部、后部、拐角、侧面等,如在车辆101中通过在那些位置处的大点所示的。传感器的其他定位是可预见的,并且可以包括穿过车辆挡风玻璃的前视传感器,例如安装在后视镜的前面或者集成在这种镜组件内。传感器119的定位可以被选择为适合于为特定应用提供期望的覆盖。例如,根据本公开,传感器119定位在前部和前部拐角,或者面向前方,对于在向前行进期间改善对隐藏危险的情况警示可能是更优选的。然而,应当认识到,根据本公开,对于在反向行驶期间提高对隐藏危险的情况警示而言,传感器119在后部或面向后方的类似放置可能更为优选。某些传感器,例如地震传感器,可能对方向信息并非特别敏感,因此它们的放置可能不是位置关键的。地震传感器可以安装到主题车辆的簧载(sprung)或非簧载质量(unsprung mass)。在一个实施例中,地震传感器可以在与每个车轮相关联的一个或多个轮胎压力监测器(TPM)处集成到底盘的非簧载质量中。已知的TPM可以整合在车轮内部轮胎阀杆的一端,或者附接到阀杆的通常附接有阀杆帽的相对端。已知的TPM有利地采用低功率射频与相关车辆通信信息。已知TPM系统使用用于接收TPM信号的遥控无钥匙进入(RKE)系统控制器。因此,根据本公开,本领域技术人员可以容易地使已知的TPM适用于将地震信息通信到主题车辆,以提高对隐藏危险的情况警示。虽然传感器119被示为直接耦合到EOCM 113,但是如本领域普通技术人员所理解的,输入可以通过总线结构111提供给EOCM 113。主题车辆101可以配备有总体上在123示出的无线电通信能力,并且更具体地涉及GPM卫星107通信、车辆对车辆(V2V)通信和车辆对基础设施(V2I)通信,例如与地面无线电塔105的通信。这里对用于隐藏危险情况警示的示例性系统100的描述并不旨在穷举。各种示例性系统的描述也不应被解释为是完全必需的。因此,本领域普通技术人员将理解,根据本公开,来自所描述的示例性系统100的一些、所有和附加技术可以用于隐藏危险情况警示的各种实施方式中。
图2-9示出了根据本公开的各种示例性车辆操作场景。在图2的场景200中,主题车辆201和第一目标车辆203可以在道路的不同车道上以相同的方向行驶。两辆车辆都可以在前灯打开的情况下操作。两辆车辆都具有各自的前灯照明图案(pattern),基本上在各自的行驶方向上向前。此外,两辆车辆可以行驶得足够近,使得它们各自的前灯图案与比非重叠区域205、207更亮的区域209重叠。在图2中,区域205主要由主题车辆201的前灯照亮,而区域207主要由第一目标车辆203的前灯照亮。根据本公开,照明区域205和209可由主题车辆的前视传感器辨别,例如由视觉系统和环境光传感器中的一个或多个辨别。主题车辆201可以区分区域209和区域205,并且由于主题车辆的前灯照明图案区域内的贡献的、附加的光源,识别出区域209更亮。主题车辆201还可以辨别第一目标车辆203的存在和位置,并将附加光源归因于第一目标车辆的前灯系统。
图3示出了关于主题车辆201和第一目标车辆203的相同场景200和情况。图3另外示出了第二目标车辆202,其被示为在左转车道内沿相反方向行驶,并且成角度地接近以分别与主目标车辆201和第一目标车辆203的行驶车道交叉。第二目标车辆202可以隐藏在主题车辆201的操作者的视线之外,第二目标车辆通过介入第一目标车辆203而被遮挡在视野之外。第二目标车辆202也可以在前灯打开的情况下操作。所有车辆在各自行驶方向的前方都有各自的前灯照明图案。此外,所有车辆可以行驶得足够近,以使它们各自的前灯图案重叠某些区域。在图3的场景中,区域215可以被主题车辆201和第二目标车辆202前灯图案重叠,区域209可以被主题车辆201和第一目标车辆203前灯图案重叠,区域211可以被第一目标车辆203和第二目标车辆202前灯图案重叠,区域213可以被主题车辆201、第一目标车辆203和第二目标车辆202前灯图案重叠。区域205、207可以主要由主题车辆201前灯图案照亮。根据本公开,照明区域205、207、215、213和209可由主题车辆的前视传感器辨别,例如由视觉系统和环境光传感器中的一个或多个辨别。主题车辆201可以通过亮度来区分这些区域,并且由于主题车辆201的前灯照明图案区域内的贡献的、附加的光源,识别出区域209、213和215比区域205、207更亮。同样,由于主题车辆的前灯照明图案区域内的贡献的、附加的光源,主题车辆201可以识别出区域213比区域205、215和209更亮。主题车辆201可以辨别第一目标车辆203的存在和位置,并将区域209的附加光源归因于第一目标车辆201前灯系统。主题车辆201可以基于场景和情况信息推断区域213和215中的附加光源是由于隐藏的目标车辆(第二目标车辆202)。
类似地,图4示出了关于主题车辆401和第一目标车辆403的替代场景400和情况。图4示出了在相应道路的右车道上行驶的第一目标车辆403。第一目标车辆403可以被建筑物411从主题车辆401的视野中遮挡。在一个实施例中,两辆车辆可以都在前灯打开的情况下操作。在替代实施例中,只有被遮挡的目标车辆403可以在前灯打开的情况下操作。图示的两辆车辆具有各自的前灯照明图案,基本上在各自的行驶方向上向前。此外,两辆车辆可以行驶得足够近,使得它们各自的前灯图案与区域409重叠,所述区域409比非重叠区域405、407和413更亮。在只有目标车辆403在前灯打开的情况下操作的实施例中,只有来自目标车辆403的照明图案将被投射。在图4中,区域405、413主要由主题车辆401前灯照亮,而区域407主要由第一目标车辆403前灯照亮。根据本公开,照明区域405、407、413和409可由主题车辆401前视传感器辨别,例如由视觉系统和环境光传感器中的一个或多个辨别。主题车辆401可以将区域409与区域405、407和413区分开,并且由于主题车辆401的前灯照明图案区域内的贡献的、附加的光源,识别出区域409更亮。主题车辆401可以基于场景和情况信息推断出区域409的附加光源和区域407的光源是由于隐藏的目标车辆(第一目标车辆403)。在其中只有目标车辆403在前灯打开的情况下操作的备选实施例中,由目标车辆403前灯照亮的区域可以由主题车辆401前视传感器辨别,例如由视觉系统和环境光传感器中的一个或多个辨别。主题车辆401可以将目标车辆403前方的前灯照明区域与其他区域区分开来,并且由于目标车辆的前灯照明图案而识别出前灯照明区域更亮。主题车辆401可以基于场景和情况信息推断前灯照明区域的附加光源是由于隐藏的目标车辆(第一目标车辆403)。在两个实施例中,主题车辆401可以辨别附加光的区域或不同光亮度的区域。
图5示出了关于主题车辆401和第一目标车辆403的相同场景400和情况。图5另外示出了第二目标车辆402,其在相应道路的左车道中沿着与第一目标车辆403相同的方向行驶。第二目标车辆402可以从主题车辆401的操作者的视线中隐藏,第二目标车辆通过介入第一目标车辆403或第一目标车辆403和建筑物411二者而被遮挡。第二目标车辆402也可以在前灯打开的情况下操作。所有车辆在各自行驶方向的前方都有各自的前灯照明图案。此外,所有车辆可以行驶得足够近,以使它们各自的前灯图案重叠某些区域。在图5的场景中,区域410可以被主题车辆401和第二目标车辆402前灯图案重叠,区域406可以被主题车辆401和第一目标车辆403前灯图案重叠,区域408可以被第一目标车辆403和第二目标车辆402前灯图案重叠,区域414可以被主题车辆401、第一目标车辆403和第二目标车辆402前灯图案重叠。区域405和413可以主要由主题车辆401前灯图案照明,区域407可以主要由第一目标车辆403前灯图案照明,区域412可以主要由第二目标车辆402前灯图案照明。根据本公开,照明区域405、406、407、408、410、412、413和414可由主题车辆401前视传感器辨别,例如由视觉系统和环境光传感器中的一个或多个辨别。主题车辆401可以通过亮度来区分这些区域,并且由于主题车辆401的前灯照明图案区域内的贡献的、附加的光源,识别出区域406、408和410比区域405、407、412和413更亮。同样,由于主题车辆的前灯照明图案区域内的贡献的、附加的光源,主题车辆401可以识别出区域414比区域406、408和410更亮。主题车辆401也可以随着情况的进展在某个点(例如主题车辆401和第一目标车辆403中的一个或两个向前行进)辨别第一目标车辆403的存在和位置,并将区域406的附加光源归因于第一目标车辆的前灯系统。主题车辆401可以基于场景和情况信息推断区域414和408中的附加光源是由于隐藏的目标车辆(第二目标车辆402)。
图6示出了关于主题车辆601、第一目标车辆603和第二目标车辆602的场景600和情况。主题车辆601和第一目标车辆603可以在道路的不同车道上以相同的方向行驶。第二目标车辆602可以在左转车道内以相反的方向行驶,并且成角度地接近以分别与主题车辆601和第一目标车辆603的行驶车道交叉。第二目标车辆602可以从主题车辆601的操作者的视线隐藏,第二目标车辆通过介入第一目标车辆603而被遮挡在视野之外。第二目标车辆602可以在前灯打开的情况下操作。第二目标车辆602的前灯可以产生相对紧凑的光束605,该光束在第二目标车辆之前,并且投射在主题车辆601之前的区域中。根据本公开,一个或两个光束605可以被主题车辆的前视传感器(例如通过视觉系统)辨别。主题车辆601可以将光束605与可能出现在场景600内的其他光源区分开来。基于场景和情况信息,主题车辆601可以辨别第一目标车辆603的存在和位置,并将一个或多个光束605归因于隐藏的目标车辆(第二目标车辆602),并推断第二目标车辆602。
类似地,图7示出了关于主题车辆701和第一目标车辆703的替代场景700和情形。图7示出了在相应道路的右车道上行驶的第一目标车辆703。第一目标车辆703可以被建筑物711从主题车辆701的视野中遮挡。第一目标车辆703可以在前灯打开的情况下操作。第一目标车辆703的前灯可以产生相对紧凑的光束705,该光束在第一目标车辆之前,并且投射在主题车辆701之前的区域中。根据本公开,一个或两个光束705可以被主题车辆的前视传感器(例如通过视觉系统)辨别。主题车辆701可以将光束705与可能出现在场景700内的其他光源区分开来。基于场景和情况信息,主题车辆701可辨别第一目标车辆703的存在和位置,并将一个或多个光束705归因于隐藏的目标车辆(第一目标车辆703),并推断第一目标车辆703。
图8示出了关于主题车辆801、第一目标车辆803和第二目标车辆802的场景800和情况。主题车辆801和第一目标车辆803可以在道路的不同车道上以相同的方向行驶。第二目标车辆802可以在左转车道内以相反的方向行驶,并且成角度地接近以分别与主题车辆和第一目标车辆801和803的行驶车道交叉。第二目标车辆802可以从主题车辆801的操作者的视线隐藏,第二目标车辆通过介入第一目标车辆803而被遮挡在视野之外。第二目标车辆802可以例如从其动力传动系和道路噪声产生可听波形808。另外,第二目标车辆802可以从其与道路表面的动态接触中激发地震波形806。第一目标车辆803可以类似地产生听觉波形807并激发地震波形805。根据本公开,可听波形和地震波形可以分别由主题车辆的声学传感器和地震传感器辨别。主题车辆801可以将第二目标车辆802的声波波形808与场景800内可能出现的其他听觉噪声(包括第一目标车辆803的声波波形807)区分开来。主题车辆801可以将地震波形与可能出现在场景800内的其他地震噪声(包括第一目标车辆803的地震波形805)区分开来。基于场景和情况信息,主题车辆801可以辨别第一目标车辆803的存在和位置,并将声波波形808和/或地震波形806归因于隐藏的目标车辆(第二目标车辆802),并推断第二目标车辆802。
类似地,图9示出了关于主题车辆901、第一目标车辆903和第二目标车辆902的替代场景900和情况。图9示出了在相应道路的右车道中行驶的第一目标车辆903和在相应道路的左车道中沿相同方向行驶的第二目标车辆。第二目标车辆902可以从主题车辆901的操作者的视线中隐藏,第二目标车辆通过介入第一目标车辆903或第一目标车辆903和建筑物911二者而被从视野遮挡。第二目标车辆902可以例如从其动力传动系和道路噪声产生可听波形908。另外,第二目标车辆902可以从其与路面的动态接触中激发地震波形906。第一目标车辆903可以类似地产生可听波形907并激发地震波形905。根据本公开,可听波形和地震波形可以分别由主题车辆的声学传感器和地震传感器辨别。主题车辆901可以将第二目标车辆902的声波波形908与场景900内可能出现的其他可听噪声(包括第一目标车辆903的声波波形907)区分开来。主题车辆901可以将地震波形与可能出现在场景900内的其他地震噪声(包括第一目标车辆903的地震波形905)区分开来。基于场景和情况信息,主题车辆901可以辨别第一目标车辆903的存在和位置,并将声波波形908和/或地震波形906归因于隐藏的目标车辆(第二目标车辆902),并推断第二目标车辆902。
图10示出了根据本公开的用于估计隐藏危险的示例性过程1000。该过程开始于1001,例如在满足诸如车辆点火的进入条件之后。在1003,场景识别发生,并且可以包括参考GPS、地图、路段、导航、基础设施和对应于主题车辆的当前地理位置的人群源信息1002。在1005,场景识别发生,并且可以包括参考来自包括视线传感器的车辆传感器输入1006的道路上的目标车辆、物体和危险,并参考来自本地和/或远程资源和数据库1004的一天中的时间、天气和其他相关信息,包括人群源来源。场景和情况识别(1002-1006)可以是通用的过程基线,支持在此描述的各种隐藏危险识别,其基于例如环境光传感器、声学传感器、地震传感器和视觉系统。
在1007,接收用于隐藏危险估计的多个接近传感器输入1008。这些输入可以包括例如环境光传感器、声学传感器、地震传感器和视觉系统1008。在1007处,所述过程收集并分类来自各种接近传感器1008的信息。根据一个实施例,环境光传感器、声学传感器、地震传感器和视觉系统中的至少两个提供用于收集和分类的信息。根据另一个实施例,环境光传感器和视觉系统中的至少一者,以及声学传感器和地震传感器中的至少一者,提供用于收集和分类的信息。前视环境光传感器和/或视觉系统摄像头可以基于亮度/强度和位置对主题车辆前灯照明图案内的重叠光的区域进行分类。视觉系统摄像头可以收集被初步确定为对应于光束浓度的图像,并且例如根据多个预定的光束特性对它们进行分类,所述预定的光束特性包括例如光束紧密度/扩散度、光束强度、光束方向等。声学传感器和地震传感器可以收集相应的声学和地震波形,并基于多个预定的声学或地震特征对它们进行分类,所述预定的声学或地震特征包括例如能量水平、连续性、频率组成等。
在1009,可以基于从传感器1008收集和分类的信息1007、比较过程1013和/或训练的动态神经网络(DNN)过程1015来估计隐藏危险的存在。关于环境光感测和前灯图案重叠,比较过程1013可以包括从本地和/或远程数据库1004中获取规则,该规则相对于场景和情况信息限定主题车辆前灯图案内的重叠和非重叠区域。建立区域的亮度比较,并将来自1007的主题车辆前灯照明图案内重叠光的分类区域与所述亮度比较进行比较。因此,可以从匹配比较中推断出隐藏的目标车辆。关于光束的视觉系统摄像头成像,比较过程1013可以包括从本地和/或远程数据库1004获取关于场景和情况信息的隐藏目标车辆的典型光束图像。在1007,这些典型图像可以用作被收集和分类的视觉系统图像的比较。因此,可以从匹配比较中推断出隐藏的目标车辆。关于声学和地震波形,比较过程1013可以包括从本地和/或远程数据库1004获取关于场景和情况信息的感兴趣的声学和地震特征。在1007,这些特征可以用作被收集和分类的声波和地震波形的比较。因此,可以从匹配比较中推断出隐藏的目标车辆。每个隐藏目标推断可以具有与之相关联的相关置信水平。
关于DNN过程1015,执行离线训练。对于环境光传感器、声学传感器、地震传感器和视觉系统中的每一个,训练过程可以包括对具有一个或多个不同类型车辆的道路条件和情况的矩阵进行相应的数据收集。所收集的数据可以通过观察,优选地通过视觉系统场景捕捉,经历事实和地面实况的人工注释。然后,注释的数据用于训练用于环境光传感器、声学传感器、地震传感器和视觉系统中的每一个的特定DNN模型。这些训练的DNN模型用于DNN过程,其中来自传感器1008的被收集和分类的信息1007被输入到相应的DNN模型,以提供隐藏危险推断。
比较过程1013和DNN过程1015中的每一个都可以单独使用或组合使用,来为每个接近传感器1008提供相应的隐藏危险推断。因此,在1011,隐藏危险的存在可以作为存在的概率被估计。过程1000然后可以重复,持续更新场景和情况信息。
在1011处,所述过程可以将对应于多个接近传感器1008的多个概率传递到融合过程1021,在所述融合过程1021处,多个概率可以被融合,并且做出关于隐藏危险的存在的最终确定。1021处的数据融合可以基于来自1019的基于规则的优先级和加权。1019可以从1017接收基于场景和情况的输入,1017则接收在1003和1005处确定的场景和情况信息。举例来说,1017可以确定道路特征,例如路面类型和质量、公路或地面街道、城市或农村等。1017还可以确定环境特征,例如当前的天气条件、噪声污染、公共交通邻近度、时间、光污染等。基于这些特征,过程可以在1019处应用制约规则。例如,在照明稀疏的城市位置的夜间,可以优先考虑环境光传感器,并为相关联的检测建立更高的权重。类似地,在照度高的城市位置的夜间,声学和地震传感器可优先于环境光传感器,并且为相关联的检测建立更高的权重。在1021,这样建立的权重可以用于对应于多个接近传感器输入的多个概率的融合,在此,多个概率可以被融合,并且做出关于隐藏危险的存在的最终确定。在1023,隐藏危险的存在被警告给车辆操作者或者被用作车辆控制中的控制输入。
除非明确描述为“直接的”,否则当在上述公开中描述第一和第二元件之间的关系时,该关系可以是在第一和第二元件之间不存在其他介入元件的直接关系,但是也可以是在第一和第二元件之间存在一个或多个介入元件(在空间上或功能上)的间接关系。
应当理解,方法或过程中的一个或多个步骤可以以不同的顺序(或同时)执行,而不改变本公开的原理。此外,尽管每个实施例在上面被描述为具有某些特征,但是关于本公开的任何实施例描述的那些特征中的任何一个或多个可以在任何其他实施例中实现和/或与任何其他实施例的特征相结合,即使该结合没有被明确描述。换句话说,所描述的实施例不是相互排斥的,并且一个或多个实施例彼此的置换仍在本公开的范围内。
虽然已经参考示例性实施例描述了上述公开,但是本领域技术人员将理解,在不脱离本发明的范围的情况下,可以进行各种改变,并且等同物可以替代其一些元素。此外,在不脱离本公开的基本范围的情况下,可以进行许多修改,以使特定情况或材料适应本公开的教导。因此,意图是本公开不限于所公开的特定实施例,而是将包括落入其范围内的所有实施例。
Claims (6)
1.一种用于确定隐藏危险的存在的方法,其中隐藏危险被遮挡在主体车辆的视野之外,所述方法包括:
识别主体车辆的操作场景;
识别主体车辆的操作情况;
收集和分类来自多个接近传感器的信息;
估计多个隐藏危险存在概率,所述多个隐藏危险存在概率对应于来自所述多个接近传感器中的每一个、来自所述操作场景、来自所述操作情况、以及来自比较过程和动态神经网络过程中的至少一者的信息,其中,所述比较过程包括以下至少之一:
获取与操作场景和操作情况对应的规则,该规则限定主体车辆的前灯图案内的重叠和不重叠区域,为所述区域建立亮度比较,并且将亮度比较与主体车辆的前灯图案内的重叠光的收集和分类区域进行比较;
从隐藏目标车辆中获取与所述操作场景和操作情况对应的典型的光束图像,并将所述图像与所收集和分类的视觉系统图像进行比较;
获取与所述操作场景和操作情况对应的声学特征,并将所述特征与收集的和分类的声学波形进行比较;
获取与所述操作场景和操作情况对应的地震特征,并将所述特征与所收集和分类的地震波形进行比较;和
对所述多个隐藏危险存在概率执行融合过程,以确定隐藏危险的存在。
2.根据权利要求1所述的方法,其中收集和分类来自多个接近传感器的信息包括:收集和分类来自环境光传感器、视觉系统、声学传感器和地震传感器的信息。
3.根据权利要求1所述的方法,其中收集和分类来自多个接近传感器的信息包括:收集和分类来自环境光传感器和视觉系统中的至少一者以及来自声学传感器和地震传感器中的至少一者的信息。
4.根据权利要求1所述的方法,其中收集和分类来自多个接近传感器的信息包括:收集环境光以及分类不同亮度的区域。
5.根据权利要求1所述的方法,其中收集和分类来自多个接近传感器的信息包括:收集来自视觉系统的光束的图像,并基于多个预定的光束特征对所述图像进行分类。
6.一种用于确定隐藏危险存在的系统,其中隐藏危险被遮挡在主体车辆的视野之外,所述系统包括:
主体车辆;
与主体车辆相关联的多个接近传感器,包括环境光传感器、视觉系统、声学传感器和地震传感器;
控制器,被配置为:
基于包括与主体车辆的当前地理位置的信息对应的信息,识别主体车辆的操作场景;
基于包括与所述操作场景内的动态条件的信息对应的信息,识别主体车辆的操作情况;
收集和分类来自所述多个接近传感器的信息;
估计多个隐藏危险存在概率,所述多个隐藏危险存在概率对应于来自所述多个接近传感器中的每一个、来自所述操作场景、来自所述操作情况、以及来自比较过程和动态神经网络过程中的至少一者的信息,其中,所述比较过程包括以下之一:
获取与操作场景和操作情况对应的规则,该规则限定主体车辆的前灯图案内的重叠和不重叠区域,为所述区域建立亮度比较,并且将亮度比较与主体车辆的前灯图案内的重叠光的收集和分类区域进行比较;
从隐藏目标车辆中获取与所述操作场景和操作情况对应的典型的光束图像,并将所述图像与所收集和分类的视觉系统图像进行比较;
获取与所述操作场景和操作情况对应的声学特征,并将所述特征与收集的和分类的声学波形进行比较;
获取与所述操作场景和操作情况对应的地震特征,并将所述特征与所收集和分类的地震波形进行比较;和
对所述多个隐藏危险存在概率执行融合过程,以确定隐藏危险的存在。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/790,799 | 2020-02-14 | ||
US16/790,799 US11195063B2 (en) | 2020-02-14 | 2020-02-14 | Hidden hazard situational awareness |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113264042A CN113264042A (zh) | 2021-08-17 |
CN113264042B true CN113264042B (zh) | 2024-05-31 |
Family
ID=77061010
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110155946.5A Active CN113264042B (zh) | 2020-02-14 | 2021-02-04 | 隐藏危险情况警示 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11195063B2 (zh) |
CN (1) | CN113264042B (zh) |
DE (1) | DE102021101320A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021168387A1 (en) * | 2020-02-21 | 2021-08-26 | Calamp Corp. | Technologies for driver behavior assessment |
KR20220083002A (ko) * | 2020-12-10 | 2022-06-20 | 현대자동차주식회사 | 차량 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102712282A (zh) * | 2009-11-21 | 2012-10-03 | 大众汽车有限公司 | 用于控制车辆的前照灯装置的方法和前照灯装置 |
CN108428343A (zh) * | 2018-05-17 | 2018-08-21 | 长沙理工大学 | 一种多车驾驶行为分析和危险预警方法及系统 |
CN109383431A (zh) * | 2017-08-10 | 2019-02-26 | 福特全球技术公司 | 为车辆碰撞检测而监测挡风玻璃振动 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4161584B2 (ja) * | 2002-02-07 | 2008-10-08 | トヨタ自動車株式会社 | 移動体用安全装置 |
JP2007310741A (ja) * | 2006-05-19 | 2007-11-29 | Fuji Heavy Ind Ltd | 立体物認識装置 |
US11322019B2 (en) * | 2019-10-23 | 2022-05-03 | Zoox, Inc. | Emergency vehicle detection |
-
2020
- 2020-02-14 US US16/790,799 patent/US11195063B2/en active Active
-
2021
- 2021-01-22 DE DE102021101320.8A patent/DE102021101320A1/de active Pending
- 2021-02-04 CN CN202110155946.5A patent/CN113264042B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102712282A (zh) * | 2009-11-21 | 2012-10-03 | 大众汽车有限公司 | 用于控制车辆的前照灯装置的方法和前照灯装置 |
CN109383431A (zh) * | 2017-08-10 | 2019-02-26 | 福特全球技术公司 | 为车辆碰撞检测而监测挡风玻璃振动 |
CN108428343A (zh) * | 2018-05-17 | 2018-08-21 | 长沙理工大学 | 一种多车驾驶行为分析和危险预警方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
US11195063B2 (en) | 2021-12-07 |
DE102021101320A1 (de) | 2021-08-19 |
US20210256327A1 (en) | 2021-08-19 |
CN113264042A (zh) | 2021-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10678247B2 (en) | Method and apparatus for monitoring of an autonomous vehicle | |
CN109421738B (zh) | 用于监视自主车辆的方法和装置 | |
CN109421739B (zh) | 用于监控自主车辆的方法和设备 | |
US11513531B2 (en) | Apparatus for providing map | |
US11775870B2 (en) | Road condition deep learning model | |
CN112298207B (zh) | 当存在失去行驶能力的自主车辆时维持道路安全 | |
US10521974B2 (en) | Method and apparatus for monitoring an autonomous vehicle | |
CN110371018B (zh) | 使用其他车辆车灯的信息改善车辆行为 | |
US9434382B1 (en) | Vehicle operation in environments with second order objects | |
US20230063930A1 (en) | Vehicle recording device and information recording method | |
US20240142607A1 (en) | Information processing device, information processing method, computer program, and mobile device | |
CN113176096A (zh) | 车辆工况的检测 | |
CN113264042B (zh) | 隐藏危险情况警示 | |
CN110626330B (zh) | 用于检测自主车辆中的对象的系统和方法 | |
JP2022551412A (ja) | 自律運転における機能的安全性 | |
JP2021088289A (ja) | 運転支援装置 | |
CN116034359A (zh) | 用于以至少两个互不依赖的成像环境检测传感器来进行环境检测的方法、用于执行该方法的设备、车辆以及对应设计的计算机程序 | |
CN110789515B (zh) | 机动车辆中用于硬件验证的系统和方法 | |
KR20210100775A (ko) | 노면 상태를 검출하기 위한 자율 주행 장치 및 그의 동작 방법 | |
US20200387161A1 (en) | Systems and methods for training an autonomous vehicle | |
US11590978B1 (en) | Assessing perception of sensor using known mapped objects | |
CN115996869A (zh) | 信息处理装置、信息处理方法、信息处理系统和程序 | |
US20230228592A1 (en) | System and Method for Updating High-Definition Maps for Autonomous Driving | |
WO2023149089A1 (ja) | 学習装置、学習方法及び学習プログラム | |
US11899697B2 (en) | Information processing server, processing method for information processing server, and non-transitory storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |