CN107463907B - 车辆碰撞检测方法、装置、电子设备及车辆 - Google Patents
车辆碰撞检测方法、装置、电子设备及车辆 Download PDFInfo
- Publication number
- CN107463907B CN107463907B CN201710672705.1A CN201710672705A CN107463907B CN 107463907 B CN107463907 B CN 107463907B CN 201710672705 A CN201710672705 A CN 201710672705A CN 107463907 B CN107463907 B CN 107463907B
- Authority
- CN
- China
- Prior art keywords
- time
- event type
- vehicle
- series data
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0816—Indicating performance data, e.g. occurrence of a malfunction
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0841—Registering performance data
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/016—Personal emergency signalling and security systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
本公开涉及一种车辆碰撞检测方法、装置、电子设备及车辆,所述方法包括:获取目标车辆的状态信息;根据所述状态信息以及训练好的卷积神经网络,确定所述目标车辆的事件类型,所述事件类型为以下类型的任一者:碰撞事件、近碰撞事件和基线事件。本公开利用训练好的卷积神经网络判断车辆的事件类型,准确度高;且可检测近碰撞事件,由此,当检测到近碰撞事件时,可进一步对驾驶者进行提醒或直接对车辆进行规避操作,提高安全性,为驾驶者和乘坐者的安全带来保障。
Description
技术领域
本公开涉及车辆数据处理领域,具体地,涉及一种车辆碰撞检测方法、装置、电子设备及车辆。
背景技术
车辆碰撞的自动检测有利于及时将碰撞事故通知到相关人员和机构,包括急救人员,家庭成员,车队负责人和保险公司。另一方面,及时检测碰撞事故也有利于事故发生情况的调查。
在一些相关技术中,直接使用碰撞检测硬件传感器进行车辆碰撞的自动检测。另一些相关技术中,利用车载传感器或移动传感器获取车辆的行车数据,再根据传感器数据,通过积分、差值等方法来计算特征值。进而,通过这些特征值来计算阀值以确定是否发生碰撞。
发明内容
为解决相关技术中的问题,本公开的目的是提供一种车辆碰撞检测方法、装置、电子设备及车辆。
第一方面,本公开提供一种车辆碰撞检测方法,包括:
获取目标车辆的状态信息;
根据所述状态信息以及训练好的卷积神经网络,确定所述目标车辆的事件类型,所述事件类型为以下类型的任一者:碰撞事件、近碰撞事件和基线事件。
可选地,所述方法还包括:
获取训练样本,所述训练样本包括:多个时间序列数据以及与每个时间序列数据相对应的事件类型标签,其中,每个时间序列数据包括:至少一个传感器按照时间记录的车辆的状态信息;
根据训练样本和训练终止条件,对待训练卷积神经网络进行训练;
当训练终止时,获取待训练卷积神经网络的参数信息,所述参数信息至少包括:卷积层的权值、卷积层的偏置、池化层的权值、池化层的偏置、全连接层的权值、全连接层的偏置、卷积层的个数、每个卷积层的卷积核大小、池化层的个数、每个池化层的大小、全连接层的个数以及每个全连接层的大小;
根据所述参数信息,构建所述卷积神经网络。
可选地,所述获取训练样本,包括:
获取来自至少一个传感器的带事件类型标签的时间序列数据;
将来自不同传感器的带事件类型标签的时间序列数据,按照时间戳进行合并;
将合并后的带事件类型标签的时间序列数据确定为所述训练样本。
可选地,所述将来自不同传感器的带事件类型标签的时间序列数据,按照时间戳进行合并,包括:
来自不同传感器的带事件类型标签的时间序列数据中,对于同一事件类型的时间序列数据,按照事件对应的最小时间窗和预设时间窗移动量,将该时间序列数据分割为多个时间序列数据;
对经分割后的来自不同传感器的时间序列数据,按照时间戳进行合并。
可选地,所述按照时间戳进行合并,包括:
当来自不同传感器的时间序列数据的时间戳不相同时,对采样频率低的时间序列数据进行线性插值补偿;
将进行了线性插值补偿后的时间序列数据进行合并,得到一待采样时间序列数据;
所述将合并后的带事件类型标签的时间序列数据作为所述训练样本,包括:
将按照预设采样频率从所述待采样时间序列数据中采样得到的时间序列数据及其对应的事件类型标签,作为所述训练样本。
可选地,所述方法还包括:
每迭代一次,将全连接层中预设数量的神经元丢弃。
可选地,所述方法还包括:
获取测试样本,所述测试样本包括:待测试车辆的状态信息和与所述状态信息对应的事件类型标签;
将所述待测试车辆的状态信息输入通过所述参数信息构建的卷积神经网络中,获取所述待测试车辆的事件类型;
当获取的所述待测试车辆的事件类型与所述事件类型标签不相符时,根据所述训练样本,对卷积神经网络重新进行训练,以更新所述参数信息。
第二方面,本公开提供一种车辆碰撞检测装置,包括:
获取模块,用于获取目标车辆的状态信息;
确定模块,用于根据所述状态信息以及训练好的卷积神经网络,确定所述目标车辆的事件类型,所述事件类型为以下类型的任一者:碰撞事件、近碰撞事件和基线事件。
可选地,所述装置还包括:
样本获取模块,用于获取训练样本,所述训练样本包括:多个时间序列数据以及与每个时间序列数据相对应的事件类型标签,其中,每个时间序列数据包括:至少一个传感器按照时间记录的车辆的状态信息;
训练模块,用于根据训练样本和训练终止条件,对待训练卷积神经网络进行训练;
参数信息获取模块,用于在训练终止时,获取待训练卷积神经网络的参数信息,所述参数信息至少包括:卷积层的权值、卷积层的偏置、池化层的权值、池化层的偏置、全连接层的权值、全连接层的偏置、卷积层的个数、每个卷积层的卷积核大小、池化层的个数、每个池化层的大小、全连接层的个数以及每个全连接层的大小;
卷积神经网络构建模块,用于根据所述参数信息,构建所述卷积神经网络。
可选地,所述样本获取模块包括:
时间序列数据获取子模块,用于获取来自至少一个传感器的带事件类型标签的时间序列数据;
合并子模块,用于将来自不同传感器的带事件类型标签的时间序列数据,按照时间戳进行合并;
训练样本确定子模块,用于将合并后的带事件类型标签的时间序列数据确定为所述训练样本。
可选地,所述合并子模块,用于在来自不同传感器的带事件类型标签的时间序列数据中,对于同一事件类型的时间序列数据,按照事件对应的最小时间窗和预设时间窗移动量,将该时间序列数据分割为多个时间序列数据;以及对经分割后的来自不同传感器的时间序列数据,按照时间戳进行合并。
可选地,所述合并子模块,用于在来自不同传感器的时间序列数据的时间戳不相同时,对采样频率低的时间序列数据进行线性插值补偿;将进行了线性插值补偿后的时间序列数据进行合并,得到一待采样时间序列数据;
所述训练样本确定子模块,用于将按照预设采样频率从所述待采样时间序列数据中采样得到的时间序列数据及其对应的事件类型标签,作为所述训练样本。
可选地,所述装置还包括:
测试样本获取模块,用于获取测试样本,所述测试样本包括:待测试车辆的状态信息和与所述状态信息对应的事件类型标签;
测试模块,用于将所述待测试车辆的状态信息输入通过所述参数信息构建的卷积神经网络中,获取所述待测试车辆的事件类型;
更新模块,用于在获取的所述待测试车辆的事件类型与所述事件类型标签不相符时,根据所述训练样本,对卷积神经网络重新进行训练,以更新所述参数信息。
第三方面,本公开提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述方法的步骤。
第四方面,本公开提供一种电子设备,包括:
上述第三方面的计算机可读存储介质;以及
一个或者多个处理器,用于执行所述计算机可读存储介质中的程序。
第五方面,本公开提供一种车辆,包括:
上述第三方面的计算机可读存储介质;以及
一个或者多个处理器,用于执行所述计算机可读存储介质中的程序。
通过上述技术方案,利用训练好的卷积神经网络判断车辆的事件类型,准确度高;且可检测近碰撞事件,由此,当检测到近碰撞事件时,可进一步对驾驶者进行提醒或直接对车辆进行规避操作(刹车、强转弯灯),提高安全性,为驾驶者和乘坐者的安全带来保障。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
附图是用来提供对本公开的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本公开,但并不构成对本公开的限制。在附图中:
图1是本公开一实施例的车辆的示意图;
图2是本公开一实施例的车辆碰撞检测方法的流程示意图;
图3是本公开另一实施例的车辆的示意图;
图4是本公开一实施例的通过图像识别,进行事件类型标记的流程示意图;
图5是本公开一实施例的卷积神经网络的训练流程示意图;
图6是本公开一实施例中对训练样本进行预处理的流程示意图;
图7是本公开的一实施例中,对来自传感器的时间序列数据进行扩增的流程示意图;
图8是本公开的一实施例中按照时间戳对时间序列数据进行合并的流程示意图;
图9是本公开一实施例的待训练卷积神经网络的输入示意图;
图10是本公开一实施例的卷积神经网络的示意图;
图11是本公开一实施例的采用的卷积神经网络的示意图;
图12是本公开一实施例对训练好的卷积神经网络进行测试的流程示意图;
图13是本公开实施例的车辆碰撞检测装置的框图;
图14是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
以下结合附图对本公开的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本公开,并不用于限制本公开。
参见图1,为本公开一实施例的车辆的示意图。传感器10可为设置在车辆上的GPS(Global Positioning System,全球定位系统)、加速计、陀螺仪等。在一些实施例中,传感器10也可设置在电子设备中,该电子设备放置在车辆中,由此,电子设备中的传感器的状态可反应车辆的状态信息。
通过传感器10可获取车辆的状态信息。其中,通过GPS可获取车辆在不同时间点的车速,以及经度、纬度、高度、和航向等。加速计可采集不同时间点的X方向的加速度、Y方向的加速度和Z方向的加速度。陀螺仪可采集不同时间点车辆的角速度,包括:X方向的角速度、Y方向的角速度和Z方向的角速度。
参见图2,为本公开一实施例的车辆碰撞检测方法的流程示意图。该方法包括:
在步骤S21中,获取目标车辆的状态信息。
在步骤S22中,根据所述状态信息以及训练好的卷积神经网络,确定所述目标车辆的事件类型。
本公开实施例,根据实时采集的车辆的状态信息,以及训练好的卷积神经网络,确定车辆的事件类型。其中,事件类型包括以下类型的任一者:碰撞事件、近碰撞事件和基线事件。
碰撞事件为车辆与移动或静止的障碍物(例如,其它车辆、建筑物等)发生碰撞接触,车辆本来的行驶速度明显转移或消失。发生碰撞事件时,一般会发生以下情况中的一种或多种:车辆的安全气囊部署崩溃;驾驶者、行人或骑自行车的人受伤;车辆翻车;产生很高的速度变化或加速度变化;需要其它车辆的牵引;导致财产损失。产生的人员伤害,需要医生的帮助。此外,与大型动物的撞击或者与指示牌的撞击等,也属于碰撞事件。
近碰撞事件,为任何需要本车辆快速回避,以避免发生碰撞的事件。车辆未与任何移动或固定的障碍物接触。这里的回避,是指控制车辆转向、制动、减速或这几者的组合,以避免潜在的碰撞。回避是迅速的,即从车辆的驾驶者做出反应的时间短。近碰撞事件中,车辆与障碍物间的间距被控制在一定的范围内(例如,0.1米至0.5米)。
基线事件为既未产生碰撞也未产生近碰撞,属于正常的驾驶行为。
本公开实施例的车辆碰撞检测方法,利用训练好的卷积神经网络判断车辆的事件类型,准确度高;且可检测近碰撞事件,由此,当检测到近碰撞事件时,可进一步对驾驶者进行提醒或直接对车辆进行规避操作(刹车、强转弯灯),提高安全性,为驾驶者和乘坐者的安全带来保障。
上述步骤S22中的卷积神经网络是通过训练得到的,以下将对卷积神经网络的训练过程进行介绍。
传感器采集的数据为时间序列数据,时间序列数据中包括传感器按照时间记录的车辆的状态信息,即带时间戳的状态信息。在一个实施例中,车辆的状态信息包括:车速、X方向的加速度、Y方向的加速度、Z方向的加速度、X方向的角速度、Y方向的角速度和Z方向的角速度。
训练阶段所采用的训练样本是带事件类型标签的时间序列数据。其中,每个时间点对应的时间序列数据都带有事件类型标签。
在本公开的实施例中,可通过以下方式中的任一种,获取带事件类型标签的时间序列数据。
方式一:根据图像采集装置采集的车辆图像,通过图像识别的方式确定车辆图像对应的事件类型,并对车辆图像所对应的时间序列数据进行事件类型的标记。
参见图3,车辆包括:设置在车辆上的图像采集装置30。图像采集装置30可为摄像头、行车记录仪等,用于可采集车辆图像。图像采集装置30可包括多个,分别设置在车辆的车体的前、后、左、右等位置。采集的车辆图像包括车辆前方的图像,车辆后方的图像、车辆侧方的图像等。其中,车辆前方的图像可以反应车辆与前方的障碍物发生的车辆事件。车辆后方的图像可以反应车辆与后方的障碍物发生的车辆事件。车辆侧方的图像可以反应车辆与侧方的障碍物发生的车辆事件。
参见图4,在本公开一实施例的通过图像识别,进行事件类型标记的流程示意图。
在步骤S41中,根据图像采集装置采集的车辆图像,进行图像识别。
对车辆图像进行图像识别的过程,可包括车辆图像的预处理、车辆的车体、车体周围的障碍物识别等。
在步骤S42中,根据图像识别的结果,确定事件类型。
根据图像采集装置30采集的车辆图像,确定事件类型,例如,可将图像采集装置30采集并预处理后的图像,与标准图像进行匹配,从而根据匹配结果确定采集的车辆图像与标准图像的相似度,并根据相似度确定车辆与障碍物是否发生碰撞或近碰撞。标准图像可为采集的车辆图像中未发送碰撞或近碰撞的车辆图像。标准图像也可为采集的车辆图像中,发送碰撞或近碰撞的车辆图像。由于图像采集装置301采集的车辆图像可能为车辆的前、后、左、右方向上的车辆图像,因此,在确定标准图像时,可按照不同方向,分别确定与不同方向对应的车辆图像。
在步骤S43中,根据确定的事件类型,对与车辆图像对应的时间序列数据进行标记。
通过该方式一,通过图像识别,对时间序列数据进行事件类型标记,由此,可将这些带事件类型标签的时间序列数据作为训练样本。
方式二:根据图像采集装置采集的车辆图像,通过人工识别的方式,确定车辆图像对应的车辆事件,由此,对车辆图像所对应的时间序列数据进行事件类型的标记,获得带事件类型标签的时间序列数据。
方式三:从相关的数据库中获取带事件类型标签的时间序列数据,作为训练样本。例如,可从自然驾驶研究项目的数据库中,获取带事件类型标签的时间序列数据。
当采用上述方式一和方式二时,图像采集装置301采集的图像和传感器采集的时间序列数据是同步的。通过图像采集装置301采集的图像和传感器采集的时间序列数据,可以精确定位时间序列数据所对应的事件发生的时间,实现对时间序列数据的准确的事件类型标记。
参见图5,为本公开一实施例的卷积神经网络的训练流程示意图。
在步骤S51中,获取训练样本。
在步骤S52中,根据训练样本和训练终止条件,对待训练卷积神经网络进行训练。
在步骤S53中,当训练终止时,获取待训练卷积神经网络的参数信息,参数信息至少包括:卷积层的权值、卷积层的偏置、池化层的权值、池化层的偏置、全连接层的权值、全连接层的偏置、卷积层的个数、每个卷积层的卷积核大小、池化层的个数、每个池化层的大小、全连接层的个数以及每个全连接层的大小。
在步骤S54中,根据参数信息,构建卷积神经网络。该卷积神经网络用于对车辆的事件类型进行预测。
在本公开的一实施例中,在步骤S51中,按照上述方式中的任一种获取带事件类型标签的时间序列数据作为训练样本后,还包括对训练样本的数据预处理。
参见图6,为本公开一实施例中,对训练样本进行预处理的流程示意图。
在步骤S61中,获取来自至少一个传感器的带事件类型标签的时间序列数据。
在步骤S62中,将来自不同传感器的带事件类型标签的时间序列数据,按照时间戳进行合并。
在步骤S63中,将合并后的带事件类型标签的时间序列数据确定为训练样本。
参见图7,在本公开的一实施例中,可对来自传感器的时间序列数据进行扩增,以增加用于进行训练的训练样本的数据量,则上述步骤S62包括:
在步骤S71中,来自不同传感器的带事件类型标签的时间序列数据中,对于同一事件类型的时间序列数据,按照事件对应的最小时间窗和预设时间窗移动量,将该时间序列数据分割为多个时间序列数据。
对于来自不同传感器的带事件类型标签的时间序列数据,可根据事件类型标签识别出属于同一事件类型的时间序列数据。由此,根据该事件类型的事件所对应的最小时间窗和预设时间窗移动量,可对其进行分割,以增加训练数据量。例如,对于碰撞事件,其最小时间窗的时长可为6秒,预设时间窗移动量可为0.5秒,则从某一时间点t开始,t+6秒时长内的时间序列数据为第一段数据,t+6+0.5秒时长内的时间序列数据为第二段数据,以此类推,直到满足终止条件。终止条件可为按照预设时间窗移动量移动后,时间序列数据的事件类型不再相同,例如,当第N次移动时,t+6+0.5×N秒时长内的时间序列数据不再为碰撞时间。终止条件还可为移动次数达到设定值,例如,移动次数的设置值可为M,则当移动到t+6+0.5×M时,则停止分割。
由此,同一事件类型的时间序列数据可被分割为多段,增加数据量,每一分割段的事件类型相同。在后续进行卷积神经网络训练时,每一段分割得到的时间序列数据可作为一个输入。
在步骤S72中,对经分割后的来自不同传感器的时间序列数据,按照时间戳进行合并。
如上所述,车辆的状态信息可包括车速、加速度和角速度等,这些数据可由不同的传感器采集得到,因此,获取的带事件类型标签的时间序列数据为来自不同传感器的数据。在一些实施例中,由于不同的传感器在进行数据采集记录时,可能会发生硬件故障、信号传输故障,不同的传感器进行数据采集的频率也会不相同,因此,来自不同的传感器的时间序列数据的时间戳若不相同,则通过线性插值补偿法对时间序列数据中的遗漏值进行填补。
参见图8,在本公开的一实施例中,当在按照时间戳进行合并时,需要进行时间戳统一时,对时间序列数据按照时间戳进行合并的步骤包括:
在步骤S81中,当来自不同传感器的时间序列数据的时间戳不相同时,对采样频率低的时间序列数据进行线性插值补偿。
例如,如果来自传感器1的数据的采样频率为10Hz,来自传感器2的数据的采样频率为100Hz,由此,导致时间戳不相同。则对于采样频率为10Hz的数据先插值到高频率100Hz,使得来自传感器1和传感器2的数据都是100HZ,具有相同的时间戳。
该步骤中来自不同传感器的时间序列数据,可为上述步骤S61中获取的时间序列数据,也可为经过上述步骤S71的分割后的时间序列数据。
在步骤S82中,将进行了线性插值补偿后的时间序列数据进行合并,得到一待采样时间序列数据。
由于经过步骤S81后,各时间序列数据具有了相同的时间戳,可进行合并。在本公开的实施例中,合并即将相同时间点的来自不同传感器的时间序列数据进行对应。
可参见下述表1,表1中的每一行所示的数据,即为相同时间点的来自不同传感器的时间序列数据合并后的数据。
在步骤S83中,将按照预设采样频率从待采样时间序列数据中采样得到的时间序列数据及其对应的事件类型标签,作为训练样本。
经过上述步骤S82,待采样时间序列数据中,各时间序列数据的采样频率被统一,例如,统一为了采样频率较高的频率100Hz。在该步骤S83中,可按照预设采样频率(例如,可为10Hz),从合并后的待采样时间序列数据中,获取作为训练样本的时间序列数据。应理解,该步骤S83的预设采样频率可根据训练所需数据量进行设定。
如上所述,对训练样本进行预处理后,可执行上述步骤S52,根据训练样本和预设迭代次数,对待训练卷积神经网络进行训练。这里的待训练卷积神经网络具有初始的参数信息,这些初始的参数信息,将在训练过程中被不断进行调整。
参见表1,为训练样本中的作为输入的一个时间序列数据。作为卷积神经网络输入的时间序列数据可为按照上述图7所示的方法分割得到的或直接根据步骤S62得到的。
表1
表1所示的时间序列数据包括7个信号通道,时长为6秒,采样频率为10Hz,因此,该数据段为60×7的二维阵列。7个信号通道分别对应车辆的不同状态信息:车速、x正交方向的正交加速度、y正交方向的正交加速度、z正交方向的正交加速度、x正交方向的角速度、y正交方向的角速度以及z正交方向的角速度。
参见图9,在一个实施例中,待训练卷积神经网络的输入为高度为1、宽度为60、有7个通道的多个时间序列数据。
参见图10,本公开一实施例的卷积神经网络包括:输入层101、卷积层102、池化层103、全连接层104和输出层105。
卷积层102,用于提取输入的时间序列数据的各通道的特征。用于提取这些特征的一组权值,为卷积核。卷积核在每个通道上,按照步幅进行移动,与数据进行卷积,得到特征映射。对每个卷积结果加偏置系数,并通过一个激活函数计算,得到卷积层的输出结果。
在本公开的实施例中,每个通道共享一个通道倍增值。
池化层103,用于对数据段进行子采样,减少数据处理量同时保留有用信息。池化层位于卷积层后,在卷积层的特征映射上,在一个固定大小的区域上采样(例如,最大值采样、均值采样、随机采样等)一个点,作为下一层的输入。
全连接层104,全连接层104与池化层103连接,将池化层得到的所有的神经元分别连接到该全连接层的每个神经元。全连接层的每个神经元单元都和上一层的所有输出特征图的神经元连接,再通过一个激活函数,并将所有得到的特征图排成列向量的形式,即为输出。
全连接层104的每一个输出都可以看成前一层的每一个结点乘以一个权值W,最后加上一个偏置b得到。
全连接层104的激活函数,可采用双曲线切线函数,例如,Tanh函数。
输出层105,使用一个权重矩阵与全连接层输出的列向量相乘,然后,增加一个偏置项,再通过激活函数产生一个列向量。在本公开的实施例中,采用softmax形式,生成K维列向量,每一个列向量元素的数值就代表那个类别出现的概率。由于,本公开实施例需要判别的事件类型有三种,则K可为3,即3维列向量,分别代表碰撞事件、近碰撞事件或基线事件的概率。概率最大的事件,为最终的预测结果。
在本公开的实施例中,每一层的输出都经过修正线性单元的非线性处理,例如,通过激活函数进行非线性处理。激活函数可为Sigmoid函数、Relu函数、Tanh函数等。
在对卷积神经网络进行训练时,向前传播阶段:
将训练样本的各个带事件类型标签的时间序列数据通过输入层101输入至卷积层102。经过卷积层102、池化层103和全连接层104的逐级变换后的时间序列数据,传送至输出层105。
向后传播阶段:根据输出层105的输出结果以及每个时间序列数据所对应的事件类型标签,调整卷积层102、池化层103和全连接层104的权值和偏置,使得输出层105的输出结果与每个时间序列数据所对应的事件类型标签的误差最小化。
当达到训练终止条件时,分别获取卷积层102、池化层103和全连接层104的权重和偏置,以及各层的个数和大小等。
在本公开的一实施例中,在训练过程的每一次迭代过程中,对权值和偏置的优化时,采用随机梯度下降法样,学习步长可设为0.0001。在一个实施例中,每次迭代后将学习步长减半,以提高训练效率。训练样本中的全部时间序列数据依次提交完一遍为一次迭代。
在本公开的一实施例中,训练终止条件可为:迭代次数达到最大迭代次数,或训练样本中的所有时间序列数据对应的事件类型的判断概率的误差绝对值都小于预设阈值。
在本公开的一实施例中,为了提高神经网络的泛化能力,每迭代一次,将全连接层的神经元中预设数量的神经元丢弃。例如,预设数量可设为上一次迭代时的神经元总数的50%。
当训练终止时,获取卷积神经网络的参数信息:卷积层对应的权值和偏置,池化层对应的权值和偏置,全连接层对应的权值和偏置,卷积层的个数,每个卷积层的卷积核大小,池化层的个数,每个池化层的大小,全连接层的个数,每个全连接层的大小以及各层所采用的激活函数。
参见图11,在一个实施例中,用于对车辆碰撞进行预测的训练好的卷积神经网络包括:2个卷积层、1个池化层、1个全连接层和1个输出层。第一个卷积层的卷积核的尺寸为1×6,步幅为1,每个通道的通道倍增值均为8;第二个卷积层的卷积核的尺寸为1×4,步幅为1,每个通道的通道倍增值均为10;池化层的滑动窗口的大小为1×20,步幅为4;首次迭代时,全连接层包括60个神经元。输出层的输出为各事件类型的概率。第一卷积层和第二卷积层的激活函数可以使用ReLU函数。
卷积神经网络的测试
为了保证卷积神经网络的预测的准确性,本公开实施例中,利用测试样本对上述训练好的卷积神经网络进行测试。
参见图12,在步骤S120中,获取测试样本。测试样本包括:待测试车辆的状态信息和与所述状态信息对应的事件类型标签。在一个实施例中,测试样本为从训练样本中选取的,例如,可将上述训练样本中的30%的样本作为测试样本,以测试训练好的卷积神经网络的预测准确度。
在步骤S121中,将待测试车辆的状态信息输入通过参数信息构建的卷积神经网络中,获取待测试车辆的事件类型。
在步骤S122中,当获取的待测试车辆的事件类型与事件类型标签不相符时,根据训练样本,对卷积神经网络重新进行训练,以更新参数信息。
当利用测试样本对训练好的卷积神经网络进行测试时,可设定预测准确度达到一定值时,例如,95%,将该训练好的卷积神经网络用于对车辆碰撞的检测。如上述图2所示,将获取的目标车辆的状态信息,输入至训练好的卷积神经网络中,以检测目标车辆是否发生碰撞事件或近碰撞事件。
应理解,获取的目标车辆的状态信息为按照时间记录的来自不同传感器的数据,这些按照时间记录的状态信息可组成时间序列数据。在一个实施例中,对这些时间序列数据进行预处理后,再输入训练好的卷积神经网络。预处理可采用上述图8所示的方式,将时间戳不统一的时间序列数据进行处理后合并。
输入训练好的卷积神经网络的目标车辆的时间序列数据和训练样本中的时间序列数据的高度、宽度和通道数相同。
当目标车辆发生近碰撞事件时,可输出提醒信息,提醒驾驶者及时进行规避操作(例如,刹车、强制转弯灯),或直接对车辆进行规避操作。
当目标车辆发生碰撞事件时,可输出报警信息,例如,发出警报以请求救援。在一个实施例中,根据目标车辆的车主所设置的联系方式,将目标车辆的信息和位置等发送到相应的联系人。联系人可为急救人员、家庭成员、保险公司等。
本公开实施例,通过卷积神经网络对车辆的碰撞或近碰撞进行检测识别,通过学习确定卷积神经网络的参数,因此,对碰撞识别准确度高。此外,还可检测近碰撞事件,辅助驾驶者及时进行刹车制动,强转弯等避险操作。
相应的,参见图13,本公开实施例还提供一种车辆碰撞检测装置,该装置1300包括:
获取模块1301,用于获取目标车辆的状态信息;
确定模块1302,用于根据所述状态信息以及训练好的卷积神经网络,确定所述目标车辆的事件类型,所述事件类型为以下类型的任一者:碰撞事件、近碰撞事件和基线事件。
在一个实施例中,装置1300还包括:
样本获取模块,用于获取训练样本,所述训练样本包括:多个时间序列数据以及与每个时间序列数据相对应的事件类型标签,其中,每个时间序列数据包括:至少一个传感器按照时间记录的车辆的状态信息;
训练模块,用于根据训练样本和训练终止条件,对待训练卷积神经网络进行训练;
参数信息获取模块,用于在训练终止时,获取待训练卷积神经网络的参数信息,所述参数信息至少包括:卷积层的权值、卷积层的偏置、池化层的权值、池化层的偏置、全连接层的权值、全连接层的偏置、卷积层的个数、每个卷积层的卷积核大小、池化层的个数、每个池化层的大小、全连接层的个数以及每个全连接层的大小;
卷积神经网络构建模块,用于根据所述参数信息,构建所述卷积神经网络。
在一个实施例中,样本获取模块1303包括:
时间序列数据获取子模块,用于获取来自至少一个传感器的带事件类型标签的时间序列数据;
合并子模块,用于将来自不同传感器的带事件类型标签的时间序列数据,按照时间戳进行合并;
训练样本确定子模块,用于将合并后的带事件类型标签的时间序列数据确定为所述训练样本。
在一个实施例中,所述合并子模块,用于在来自不同传感器的带事件类型标签的时间序列数据中,对于同一事件类型的时间序列数据,按照事件对应的最小时间窗和预设时间窗移动量,将该时间序列数据分割为多个时间序列数据;以及对经分割后的来自不同传感器的时间序列数据,按照时间戳进行合并。
在一个实施例中,所述合并子模块,用于在来自不同传感器的时间序列数据的时间戳不相同时,对采样频率低的时间序列数据进行线性插值补偿;将进行了线性插值补偿后的时间序列数据进行合并,得到一待采样时间序列数据;
所述训练样本确定子模块,用于将按照预设采样频率从所述待采样时间序列数据中采样得到的时间序列数据及其对应的事件类型标签,作为所述训练样本。
在一个实施例中,所述装置1300还包括:
测试样本获取模块,用于获取测试样本,所述测试样本包括:待测试车辆的状态信息和与所述状态信息对应的事件类型标签;
测试模块,用于将所述待测试车辆的状态信息输入通过所述参数信息构建的卷积神经网络中,获取所述待测试车辆的事件类型;
更新模块,用于在获取的所述待测试车辆的事件类型与所述事件类型标签不相符时,根据所述训练样本,对卷积神经网络重新进行训练,以更新所述参数信息。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
相应的,本公开还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述车辆碰撞检测方法的步骤。
相应的,本公开还提供一种电子设备,包括:上述的计算机可读存储介质;以及一个或者多个处理器,用于执行所述计算机可读存储介质中的程序。
图14是根据一示例性实施例示出的一种电子设备1400的框图。如图14所示,该电子设备1400可以包括:处理器1401,存储器1402,多媒体组件1403,输入/输出(I/O)接口1404,通信组件1405以及上述的一个或多个传感器。该电子设备1400可为智能手机,其设置有GPS、加速计、陀螺仪等硬件,当其放置在目标车辆中时,可采集到反应车辆的状态信息的数据。另一方面,电子设备还可通过通信组件1405与目标车辆进行通信,实时获取车辆的状态信息。且该电子设备1400可将训练好的卷积神经网络存储到存储器1402中或按照上述方法进行训练得到训练好的卷积神经网络,由此,通过处理器1401调用训练好的卷积神经网络,根据采集车辆的状态信息,确定车辆的事件类型。
其中,处理器1401用于控制该电子设备1400的整体操作,以完成上述的车辆碰撞检测方法中的全部或部分步骤。存储器1402用于存储各种类型的数据以支持在该电子设备1400的操作,这些数据例如可以包括用于在该电子设备1400上操作的任何应用程序或方法的指令,以及应用程序相关的数据,例如联系人数据、收发的消息、图片、音频、视频等等。该存储器1402可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,例如静态随机存取存储器(Static Random Access Memory,简称SRAM),电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,简称EEPROM),可擦除可编程只读存储器(Erasable Programmable Read-Only Memory,简称EPROM),可编程只读存储器(Programmable Read-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。多媒体组件1403可以包括屏幕和音频组件。其中屏幕例如可以是触摸屏,音频组件用于输出和/或输入音频信号。例如,音频组件可以包括一个麦克风,麦克风用于接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1402或通过通信组件1405发送。音频组件还包括至少一个扬声器,用于输出音频信号。I/O接口1404为处理器1401和其他接口模块之间提供接口,上述其他接口模块可以是键盘,鼠标,按钮等。这些按钮可以是虚拟按钮或者实体按钮。通信组件1405用于该电子设备1400与其他设备之间进行有线或无线通信。无线通信,例如Wi-Fi,蓝牙,近场通信(Near FieldCommunication,简称NFC),2G、3G、4G或5G,或它们中的一种或几种的组合,因此相应的该通信组件1405可以包括:Wi-Fi模块,蓝牙模块,NFC模块、2G模块、3G模块、4G模块或5G模块。
在一示例性实施例中,电子设备1400可以被一个或多个应用专用集成电路(Application Specific Integrated Circuit,简称ASIC)、数字信号处理器(DigitalSignal Processor,简称DSP)、数字信号处理设备(Digital Signal Processing Device,简称DSPD)、可编程逻辑器件(Programmable Logic Device,简称PLD)、现场可编程门阵列(Field Programmable Gate Array,简称FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述的车辆碰撞检测方法。
相应的,本公开实施例还提供一种车辆,包括:上述的计算机可读存储介质;以及一个或者多个处理器,用于执行所述计算机可读存储介质中的程序。
以上结合附图详细描述了本公开的优选实施方式,但是,本公开并不限于上述实施方式中的具体细节,在本公开的技术构思范围内,可以对本公开的技术方案进行多种简单变型,这些简单变型均属于本公开的保护范围。
另外需要说明的是,在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合。为了避免不必要的重复,本公开对各种可能的组合方式不再另行说明。
此外,本公开的各种不同的实施方式之间也可以进行任意组合,只要其不违背本公开的思想,其同样应当视为本公开所公开的内容。
Claims (14)
1.一种车辆碰撞检测方法,其特征在于,包括:
获取目标车辆的状态信息,其中,所述状态信息包括所述目标车辆在不同时间点的车速、经度、纬度、高度、航向、加速度和角速度;
根据所述状态信息以及训练好的卷积神经网络,确定所述目标车辆的事件类型,所述事件类型为以下类型的任一者:碰撞事件、近碰撞事件和基线事件;
其中,所述方法还包括:
获取训练样本,所述训练样本包括:多个时间序列数据以及与每个时间序列数据相对应的事件类型标签,其中,每个时间序列数据包括:至少一个传感器按照时间记录的车辆的状态信息;
将所述训练样本的各个带事件类型标签的时间序列数据通过待训练卷积神经网络的输入层输入至所述待训练卷积神经网络的卷积层,并将经过所述待训练卷积 神经网络的卷积层、池化层和全连接层的逐级变换后的时间序列数据传送至所述待训练卷积 神经网络的输出层;
根据所述输出层的输出结果以及每个所述时间序列数据所对应的事件类型标签,调整所述卷积层、所述池化层和所述全连接层的权值和偏置,使得所述输出层的输出结果与每个所述时间序列数据所对应的事件类型标签的误差最小化;以及
当达到训练终止条件时,分别获取待训练卷积神经网络的参数信息,所述参数信息至少包括:卷积层的权值、卷积层的偏置、池化层的权值、池化层的偏置、全连接层的权值、全连接层的偏置、卷积层的个数、每个卷积层的卷积核大小、池化层的个数、每个池化层的大小、全连接层的个数以及每个全连接层的大小;
根据所述参数信息,构建所述卷积神经网络。
2.根据权利要求1所述的方法,其特征在于,所述获取训练样本,包括:
获取来自至少一个传感器的带事件类型标签的时间序列数据;
将来自不同传感器的带事件类型标签的时间序列数据,按照时间戳进行合并;
将合并后的带事件类型标签的时间序列数据确定为所述训练样本。
3.根据权利要求2所述的方法,其特征在于,所述将来自不同传感器的带事件类型标签的时间序列数据,按照时间戳进行合并,包括:
来自不同传感器的带事件类型标签的时间序列数据中,对于同一事件类型的时间序列数据,按照事件对应的最小时间窗和预设时间窗移动量,将该时间序列数据分割为多个时间序列数据;
对经分割后的来自不同传感器的时间序列数据,按照时间戳进行合并。
4.根据权利要求2或3所述的方法,其特征在于,所述按照时间戳进行合并,包括:
当来自不同传感器的时间序列数据的时间戳不相同时,对采样频率低的时间序列数据进行线性插值补偿;
将进行了线性插值补偿后的时间序列数据进行合并,得到一待采样时间序列数据;
所述将合并后的带事件类型标签的时间序列数据作为所述训练样本,包括:
将按照预设采样频率从所述待采样时间序列数据中采样得到的时间序列数据及其对应的事件类型标签,作为所述训练样本。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
每迭代一次,将全连接层中预设数量的神经元丢弃。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取测试样本,所述测试样本包括:待测试车辆的状态信息和与所述状态信息对应的事件类型标签;
将所述待测试车辆的状态信息输入通过所述参数信息构建的卷积神经网络中,获取所述待测试车辆的事件类型;
当获取的所述待测试车辆的事件类型与所述事件类型标签不相符时,根据所述训练样本,对卷积神经网络重新进行训练,以更新所述参数信息。
7.一种车辆碰撞检测装置,其特征在于,包括:
获取模块,用于获取目标车辆的状态信息,其中,所述状态信息包括所述目标车辆在不同时间点的车速、经度、纬度、高度、航向、加速度和角速度;
确定模块,用于根据所述状态信息以及训练好的卷积神经网络,确定所述目标车辆的事件类型,所述事件类型为以下类型的任一者:碰撞事件、近碰撞事件和基线事件;
其中,所述装置还包括:
样本获取模块,用于获取训练样本,所述训练样本包括:多个时间序列数据以及与每个时间序列数据相对应的事件类型标签,其中,每个时间序列数据包括:至少一个传感器按照时间记录的车辆的状态信息;
训练模块,用于将所述训练样本的各个带事件类型标签的时间序列数据通过待训练卷积神经网络的输入层输入至所述待训练卷积神经网络的卷积层,并将经过所述待训练卷积神经网络的卷积层、池化层和全连接层的逐级变换后的时间序列数据传送至所述待训练卷积 神经网络的输出层,根据所述输出层的输出结果以及每个所述时间序列数据所对应的事件类型标签,调整所述卷积层、所述池化层和所述全连接层的权值和偏置,使得所述输出层的输出结果与每个所述时间序列数据所对应的事件类型标签的误差最小化;
参数信息获取模块,用于在达到训练终止条件时,分别获取待训练卷积神经网络的参数信息,所述参数信息至少包括:卷积层的权值、卷积层的偏置、池化层的权值、池化层的偏置、全连接层的权值、全连接层的偏置、卷积层的个数、每个卷积层的卷积核大小、池化层的个数、每个池化层的大小、全连接层的个数以及每个全连接层的大小;
卷积神经网络构建模块,用于根据所述参数信息,构建所述卷积神经网络。
8.根据权利要求7所述的装置,其特征在于,所述样本获取模块包括:
时间序列数据获取子模块,用于获取来自至少一个传感器的带事件类型标签的时间序列数据;
合并子模块,用于将来自不同传感器的带事件类型标签的时间序列数据,按照时间戳进行合并;
训练样本确定子模块,用于将合并后的带事件类型标签的时间序列数据确定为所述训练样本。
9.根据权利要求8所述的装置,其特征在于,所述合并子模块,用于在来自不同传感器的带事件类型标签的时间序列数据中,对于同一事件类型的时间序列数据,按照事件对应的最小时间窗和预设时间窗移动量,将该时间序列数据分割为多个时间序列数据;以及对经分割后的来自不同传感器的时间序列数据,按照时间戳进行合并。
10.根据权利要求8或9所述的装置,其特征在于,所述合并子模块,用于在来自不同传感器的时间序列数据的时间戳不相同时,对采样频率低的时间序列数据进行线性插值补偿;将进行了线性插值补偿后的时间序列数据进行合并,得到一待采样时间序列数据;
所述训练样本确定子模块,用于将按照预设采样频率从所述待采样时间序列数据中采样得到的时间序列数据及其对应的事件类型标签,作为所述训练样本。
11.根据权利要求7所述的装置,其特征在于,所述装置还包括:
测试样本获取模块,用于获取测试样本,所述测试样本包括:待测试车辆的状态信息和与所述状态信息对应的事件类型标签;
测试模块,用于将所述待测试车辆的状态信息输入通过所述参数信息构建的卷积神经网络中,获取所述待测试车辆的事件类型;
更新模块,用于在获取的所述待测试车辆的事件类型与所述事件类型标签不相符时,根据所述训练样本,对卷积神经网络重新进行训练,以更新所述参数信息。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-6中任一项所述方法的步骤。
13.一种电子设备,其特征在于,包括:
权利要求12中所述的计算机可读存储介质;以及
一个或者多个处理器,用于执行所述计算机可读存储介质中的程序。
14.一种车辆,其特征在于,包括:
权利要求12中所述的计算机可读存储介质;以及
一个或者多个处理器,用于执行所述计算机可读存储介质中的程序。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710672705.1A CN107463907B (zh) | 2017-08-08 | 2017-08-08 | 车辆碰撞检测方法、装置、电子设备及车辆 |
US15/857,844 US11449727B2 (en) | 2017-08-08 | 2017-12-29 | Method, storage medium and electronic device for detecting vehicle crashes |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710672705.1A CN107463907B (zh) | 2017-08-08 | 2017-08-08 | 车辆碰撞检测方法、装置、电子设备及车辆 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107463907A CN107463907A (zh) | 2017-12-12 |
CN107463907B true CN107463907B (zh) | 2021-06-25 |
Family
ID=60547660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710672705.1A Active CN107463907B (zh) | 2017-08-08 | 2017-08-08 | 车辆碰撞检测方法、装置、电子设备及车辆 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11449727B2 (zh) |
CN (1) | CN107463907B (zh) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108535707B (zh) * | 2018-03-30 | 2020-11-03 | 北京润科通用技术有限公司 | 一种雷达性能预测模型建立方法及装置 |
US10983524B2 (en) * | 2018-04-12 | 2021-04-20 | Baidu Usa Llc | Sensor aggregation framework for autonomous driving vehicles |
CN111868749B (zh) * | 2018-04-17 | 2024-02-27 | 赫尔实验室有限公司 | 用于计算条件概率的神经元网络拓扑 |
CN108566537A (zh) * | 2018-05-16 | 2018-09-21 | 中国科学院计算技术研究所 | 用于对视频帧进行神经网络运算的图像处理装置 |
CN110688877B (zh) * | 2018-07-05 | 2022-08-05 | 杭州海康威视数字技术股份有限公司 | 一种危险预警方法、装置、设备及存储介质 |
CN109284699A (zh) * | 2018-09-04 | 2019-01-29 | 广东翼卡车联网服务有限公司 | 一种适用车辆碰撞的深度学习方法 |
WO2020073268A1 (en) * | 2018-10-11 | 2020-04-16 | Bayerische Motoren Werke Aktiengesellschaft | Snapshot image to train roadmodel |
EP3864568A4 (en) * | 2018-10-11 | 2022-05-18 | Bayerische Motoren Werke Aktiengesellschaft | SCREEN SNAPSHOT IMAGE FOR EVENT DETECTOR TRAINING |
CN109342765B (zh) * | 2018-10-12 | 2020-11-10 | 成都四方伟业软件股份有限公司 | 车辆碰撞检测方法及装置 |
CN109741483B (zh) * | 2018-12-11 | 2021-12-03 | 成都路行通信息技术有限公司 | 一种基于车联网平台的汽车碰撞检测方法 |
US11260852B2 (en) * | 2019-03-26 | 2022-03-01 | GM Global Technology Operations LLC | Collision behavior recognition and avoidance |
CN110245565A (zh) * | 2019-05-14 | 2019-09-17 | 东软集团股份有限公司 | 车辆跟踪方法、装置、计算机可读存储介质及电子设备 |
KR102197724B1 (ko) * | 2019-07-15 | 2021-01-04 | 현대자동차주식회사 | 충돌 성능 예측 장치 및 충돌 성능 예측 방법 |
CN111860561B (zh) * | 2019-12-31 | 2024-02-27 | 北京嘀嘀无限科技发展有限公司 | 网约车的异常停留行为识别方法、装置、设备及存储介质 |
CN111192257B (zh) * | 2020-01-02 | 2023-05-23 | 上海电气集团股份有限公司 | 一种确定设备状态的方法、系统及设备 |
CN111243333B (zh) * | 2020-01-08 | 2021-08-20 | 成都路行通信息技术有限公司 | 基于自编码网络的碰撞检测方法、系统和可读存储介质 |
JP7351814B2 (ja) * | 2020-08-17 | 2023-09-27 | トヨタ自動車株式会社 | 車両応答予測装置、学習装置、方法、及びプログラム |
US20220065637A1 (en) * | 2020-08-26 | 2022-03-03 | Capital One Services, Llc | Identifying risk using image analysis |
CN112102615B (zh) * | 2020-08-28 | 2022-03-25 | 浙江大华技术股份有限公司 | 交通事故检测方法、电子设备及存储介质 |
CN112083456B (zh) * | 2020-09-14 | 2023-04-07 | 电子科技大学 | 一种货运状态识别方法、装置、设备及存储介质 |
CN112558510B (zh) * | 2020-10-20 | 2022-11-15 | 山东亦贝数据技术有限公司 | 一种智能网联汽车安全预警系统及预警方法 |
CN112489363A (zh) * | 2020-12-04 | 2021-03-12 | 广东美她实业投资有限公司 | 基于智能无线耳机的后方来车预警方法、设备及存储介质 |
CN112529177A (zh) * | 2020-12-04 | 2021-03-19 | 广州亚美智造科技有限公司 | 一种车辆碰撞检测方法及装置 |
CN114764906B (zh) * | 2021-01-13 | 2024-09-06 | 长沙中车智驭新能源科技有限公司 | 用于自动驾驶的多传感器后融合方法、电子设备及车辆 |
CN113095364B (zh) * | 2021-03-12 | 2023-12-19 | 西安交通大学 | 利用卷积神经网络的高铁地震事件提取方法、介质及设备 |
CN113095197B (zh) * | 2021-04-06 | 2024-07-16 | 深圳市汉德网络科技有限公司 | 一种车辆行驶状态识别方法、装置、电子设备和可读存储介质 |
CN113269751A (zh) * | 2021-05-27 | 2021-08-17 | 山东大学 | 一种基于卷积神经网络与3d打印修补技术的路面病害识别与修补方法、系统、设备及介质 |
CN113408482B (zh) * | 2021-07-13 | 2023-10-10 | 杭州联吉技术有限公司 | 一种训练样本的生成方法及生成装置 |
CN113807167A (zh) * | 2021-08-03 | 2021-12-17 | 深圳市商汤科技有限公司 | 车辆碰撞检测方法及装置、电子设备和存储介质 |
CN113822449B (zh) * | 2021-08-10 | 2023-08-18 | 百度在线网络技术(北京)有限公司 | 碰撞检测方法、装置、电子设备和存储介质 |
CN114154400B (zh) * | 2021-11-15 | 2023-12-05 | 中国人民解放军63963部队 | 无人车辆健康状态检测系统及检测方法 |
US20230267718A1 (en) * | 2022-02-18 | 2023-08-24 | Verizon Patent And Licensing Inc. | Systems and methods for training event prediction models for camera-based warning systems |
CN114595748B (zh) * | 2022-02-21 | 2024-02-13 | 南昌大学 | 一种用于跌倒防护系统的数据分割方法 |
CN114860801A (zh) * | 2022-04-24 | 2022-08-05 | 南斗六星系统集成有限公司 | 时间序列缺失填充方法、装置、设备及可读存储介质 |
CN114565107A (zh) * | 2022-04-29 | 2022-05-31 | 阿里巴巴达摩院(杭州)科技有限公司 | 碰撞检测方法、装置及设备 |
CN115242830B (zh) * | 2022-06-17 | 2023-11-17 | 潍柴动力股份有限公司 | 车辆数据处理方法、车辆及数据处理系统 |
CN115952409A (zh) * | 2023-03-13 | 2023-04-11 | 山东省科学院激光研究所 | 碰撞识别方法、装置、设备和存储介质 |
CN117373248B (zh) * | 2023-11-02 | 2024-06-21 | 深圳市汇芯视讯电子有限公司 | 基于图像识别的汽车盲区智能预警方法、系统及云平台 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105389984A (zh) * | 2015-11-16 | 2016-03-09 | 北京智视信息科技有限公司 | 一种基于移动终端传感信息融合的驾驶行为识别方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8275193B2 (en) * | 2004-08-04 | 2012-09-25 | America Gnc Corporation | Miniaturized GPS/MEMS IMU integrated board |
US10387774B1 (en) * | 2014-01-30 | 2019-08-20 | Hrl Laboratories, Llc | Method for neuromorphic implementation of convolutional neural networks |
US10168785B2 (en) * | 2015-03-03 | 2019-01-01 | Nvidia Corporation | Multi-sensor based user interface |
US10871548B2 (en) * | 2015-12-04 | 2020-12-22 | Fazecast, Inc. | Systems and methods for transient acoustic event detection, classification, and localization |
US11327475B2 (en) * | 2016-05-09 | 2022-05-10 | Strong Force Iot Portfolio 2016, Llc | Methods and systems for intelligent collection and analysis of vehicle data |
US9760806B1 (en) * | 2016-05-11 | 2017-09-12 | TCL Research America Inc. | Method and system for vision-centric deep-learning-based road situation analysis |
CN106004883B (zh) * | 2016-05-24 | 2018-12-11 | 北京小米移动软件有限公司 | 车辆违规提醒的方法及装置 |
US10139823B2 (en) * | 2016-09-13 | 2018-11-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and device for producing vehicle operational data based on deep learning techniques |
CN106340205A (zh) * | 2016-09-30 | 2017-01-18 | 广东中星微电子有限公司 | 交通监控方法及交通监控装置 |
US11315018B2 (en) * | 2016-10-21 | 2022-04-26 | Nvidia Corporation | Systems and methods for pruning neural networks for resource efficient inference |
CN106553655B (zh) * | 2016-12-02 | 2019-11-15 | 深圳地平线机器人科技有限公司 | 危险车辆检测方法和系统以及包括该系统的车辆 |
US10332320B2 (en) * | 2017-04-17 | 2019-06-25 | Intel Corporation | Autonomous vehicle advanced sensing and response |
CN110914836A (zh) * | 2017-05-09 | 2020-03-24 | 纽拉拉股份有限公司 | 在跨联网计算边缘连续运行应用程序的人工智能和深度学习中实现连续的存储器有界学习的系统和方法 |
US10922566B2 (en) * | 2017-05-09 | 2021-02-16 | Affectiva, Inc. | Cognitive state evaluation for vehicle navigation |
US10810472B2 (en) * | 2017-05-26 | 2020-10-20 | Oracle International Corporation | Techniques for sentiment analysis of data using a convolutional neural network and a co-occurrence network |
US10942256B2 (en) * | 2017-06-05 | 2021-03-09 | Metawave Corporation | Intelligent metamaterial radar for target identification |
-
2017
- 2017-08-08 CN CN201710672705.1A patent/CN107463907B/zh active Active
- 2017-12-29 US US15/857,844 patent/US11449727B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105389984A (zh) * | 2015-11-16 | 2016-03-09 | 北京智视信息科技有限公司 | 一种基于移动终端传感信息融合的驾驶行为识别方法 |
Non-Patent Citations (1)
Title |
---|
SF-CNN在驾驶行为识别中的应用研究;王忠民 等;《http://kns.cnki.net/kcms/detail/11.2127.TP.20170612.1712.024.html》;20170612;第1-6页 * |
Also Published As
Publication number | Publication date |
---|---|
US20190050711A1 (en) | 2019-02-14 |
US11449727B2 (en) | 2022-09-20 |
CN107463907A (zh) | 2017-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107463907B (zh) | 车辆碰撞检测方法、装置、电子设备及车辆 | |
US10417816B2 (en) | System and method for digital environment reconstruction | |
US11734918B2 (en) | Object identification apparatus, moving body system, object identification method, object identification model learning method, and object identification model learning apparatus | |
EP3278317B1 (en) | Method and electronic device | |
CN109784150B (zh) | 基于多任务时空卷积神经网络的视频驾驶员行为识别方法 | |
Zhang et al. | Prediction of pedestrian-vehicle conflicts at signalized intersections based on long short-term memory neural network | |
US11481913B2 (en) | LiDAR point selection using image segmentation | |
Wei et al. | Vision-based lane-changing behavior detection using deep residual neural network | |
US20230222671A1 (en) | System for predicting near future location of object | |
JP2019220084A (ja) | 解析装置、車載器、及びパターン解析補助装置 | |
CN113557524B (zh) | 用于表示移动平台环境的方法 | |
CN112418096A (zh) | 检测跌的方法、装置和机器人 | |
CN112861902A (zh) | 用于确定移动元素的轨迹的方法和装置 | |
US11987264B2 (en) | Method and system for recognizing activities in surrounding environment for controlling navigation of autonomous vehicle | |
WO2021149594A1 (ja) | 情報提供装置、情報提供方法、情報提供プログラム及び記憶媒体 | |
CN110949380A (zh) | 用于动态对象的位置预测 | |
US11524701B2 (en) | Methods and systems of predicting road agent behavior using voxel grids | |
JPWO2021149594A5 (zh) | ||
US20220284744A1 (en) | Detecting and collecting accident related driving experience event data | |
CN114464216A (zh) | 无人驾驶行车环境下的声学检测方法和装置 | |
Mandal | Artificial intelligence enabled automatic traffic monitoring system | |
Rahimunnisa | Implementation of Distributed AI in an Autonomous Driving Application | |
US20240137473A1 (en) | System and method to efficiently perform data analytics on vehicle sensor data | |
US20230109494A1 (en) | Methods and devices for building a training dataset | |
CN118840729A (zh) | 车辆视觉定位方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |