CN112061118B - 车辆碰撞预测方法及装置 - Google Patents
车辆碰撞预测方法及装置 Download PDFInfo
- Publication number
- CN112061118B CN112061118B CN201910425925.3A CN201910425925A CN112061118B CN 112061118 B CN112061118 B CN 112061118B CN 201910425925 A CN201910425925 A CN 201910425925A CN 112061118 B CN112061118 B CN 112061118B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- corner point
- corner
- moment
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请公开一种车辆碰撞预测方法,包括:根据多个雷达输出的雷达数据和图像采集装置输出的环境图像,确定第二车辆的速度信息、车体参数、车辆姿态角、以及第二车辆的第一角点的坐标;根据第二车辆的第一角点的坐标、第二车辆的车体参数和车辆姿态角,确定第二车辆的第二角点的坐标;获得第一车辆的车体参数、速度信息和车辆姿态角,并确定第一车辆的第一角点和第二角点的坐标;确定第一车辆和第二车辆的第一角点和第二角点在第一时刻的坐标;根据第一车辆和第二车辆的第一角点和第二角点在第一时刻的坐标,确定两车是否会发生碰撞。基于本申请公开的车辆碰撞预测方法,能够准确预测车辆是否会发生碰撞,并且具有算法简单、运算量小的优势。
Description
技术领域
本申请属于车辆安全技术领域,尤其涉及车辆碰撞预测方法及装置。
背景技术
随着汽车使用量的不断增加,交通变得越来越拥挤,车辆发生碰撞的可能性也越来越高。
车辆碰撞预测技术是为了提高行车安全性而提出的。车辆碰撞预测技术的功能是:通过传感器预测碰撞事故的发生,在确定可能发生碰撞的情况下提醒驾驶员做出反应,从而避免发生车辆碰撞事故。现有的车辆碰撞预测方案普遍存在碰撞预测结果的准确度较低的问题。
发明内容
有鉴于此,本申请的目的在于提供一种车辆碰撞预测方法及装置,以提高碰撞预测结果的准确度。
为实现上述目的,本申请提供如下技术方案:
第一方面,本申请提供一种车辆碰撞预测方法,应用于第一车辆,所述第一车辆的车头和车尾分别安装有多个雷达,所述第一车辆还安装有图像采集装置,所述方法包括:
根据所述多个雷达输出的雷达数据,确定第二车辆的速度信息以及所述第二车辆的第一角点的纵坐标,其中,所述速度信息包括速度和加速度,所述第二车辆的第一角点为所述第二车辆的四个角点中距离所述第一车辆最近的角点;
获得所述图像采集装置输出的环境图像,所述环境图像包括第一车辆、第二车辆以及路面的影像,对所述环境图像进行特征识别,确定所述第二车辆的第一角点的横坐标、所述第二车辆的车体参数和车辆姿态角,所述车体参数包括车长和车宽;
根据所述第二车辆的第一角点的坐标、所述第二车辆的车体参数以及车辆姿态角,确定所述第二车辆的第二角点的坐标,其中,所述第二车辆的第二角点为所述第二车辆的四个角点中与第一角点呈对角线分布的角点;
获得所述第一车辆的车体参数、速度信息和车辆姿态角;
根据所述第一车辆的车体参数和车辆姿态角确定所述第一车辆中第一角点和第二角点的坐标,其中,所述第一车辆的第一角点为所述第一车辆的四个角点中距离所述第二车辆最近的角点,所述第一车辆的第二角点为所述第一车辆的四个角点中与第一角点呈对角线分布的角点;
根据所述第一车辆和所述第二车辆在当前时刻的速度信息、第一角点和第二角点的坐标、以及车辆姿态角,确定所述第一车辆和所述第二车辆的第一角点和第二角点在第一时刻的坐标,其中,所述第一时刻位于当前时刻之后,与当前时刻的差值为第一时长;
根据所述第一车辆和所述第二车辆的第一角点在第一时刻的坐标、以及所述第一车辆和所述第二车辆的第二角点在第一时刻的坐标,确定是否会发生碰撞。
可选的,在上述方法中,所述根据所述第一车辆和所述第二车辆的第一角点在第一时刻的坐标、以及所述第一车辆和所述第二车辆的第二角点在第一时刻的坐标,确定是否会发生碰撞,包括:
在所述第二车辆位于所述第一车辆左前方的情况下,如果满足:A′x1>B′x1,A′y1<B′y1,A′x0<B′x0+δ,A′y0>B′y0-δ,则确定所述第一车辆与所述第二车辆会发生碰撞;
其中,A′x1为所述第一车辆的第二角点在所述第一时刻的横坐标,B′x1为所述第二车辆的第二角点在所述第一时刻的横坐标,A′y1为所述第一车辆的第二角点在所述第一时刻的纵坐标,B′y1为所述第二车辆的第二角点在所述第一时刻的纵坐标,A′x0为所述第一车辆的第一角点在所述第一时刻的横坐标,B′x0为所述第二车辆的第一角点在所述第一时刻的横坐标,A′y0为所述第一车辆的第一角点在所述第一时刻的纵坐标,B′y0为所述第二车辆的第一角点在所述第一时刻的纵坐标,δ为可调节安全阈值。
可选的,在上述方法的基础上,还包括:
在所述第二车辆位于所述第一车辆右前方的情况下,如果满足:A′x1<B′x1,A′y1<B′y1,A′x0>B′x0-δ,A′y0>B′y0-δ,则确定所述第一车辆与所述第二车辆会发生碰撞。
可选的,在上述方法的基础上,还包括:
在所述第二车辆位于所述第一车辆左后方的情况下,如果满足:A′x1>B′x1,A′y1>B′y1,A′x0<B′x0+δ,A′y0<B′y0+δ,则确定所述第一车辆与所述第二车辆会发生碰撞。
可选的,在上述方法的基础上,还包括:
在所述第二车辆位于所述第一车辆右后方的情况下,如果满足:A′x1<B′x1,A′y1>B′y1,A′x0>B′x0-δ,A′y0<B′y0+δ,则确定所述第一车辆与所述第二车辆会发生碰撞。
第二方面,本申请提供一种车辆碰撞预测装置,应用于第一车辆,所述装置包括:
雷达数据处理单元,用于根据所述多个雷达输出的雷达数据,确定第二车辆的速度信息以及所述第二车辆的第一角点的纵坐标,其中,所述速度信息包括速度和加速度,所述第二车辆的第一角点为所述第二车辆的四个角点中距离所述第一车辆最近的角点;
图像处理单元,用于获得所述图像采集装置输出的环境图像,所述环境图像包括第一车辆、第二车辆以及路面的影像,对所述环境图像进行特征识别,确定所述第二车辆的第一角点的横坐标、所述第二车辆的车体参数和车辆姿态角,所述车体参数包括车长和车宽;
第一坐标分析单元,用于根据所述第二车辆的第一角点的坐标、所述第二车辆的车体参数以及车辆姿态角,确定所述第二车辆的第二角点的坐标,其中,所述第二车辆的第二角点为所述第二车辆的四个角点中与第一角点呈对角线分布的角点;
数据获取单元,用于获得所述第一车辆的车体参数、速度信息和车辆姿态角;
第二坐标分析单元,用于根据所述第一车辆的车体参数和车辆姿态角确定所述第一车辆中第一角点和第二角点的坐标,其中,所述第一车辆的第一角点为所述第一车辆的四个角点中距离所述第二车辆最近的角点,所述第一车辆的第二角点为所述第一车辆的四个角点中与第一角点呈对角线分布的角点;
坐标预测单元,用于根据所述第一车辆和所述第二车辆在当前时刻的速度信息、第一角点和第二角点的坐标、以及车辆姿态角,确定所述第一车辆和所述第二车辆的第一角点和第二角点在第一时刻的坐标,其中,所述第一时刻位于当前时刻之后,与当前时刻的差值为第一时长;
碰撞预测单元,用于根据所述第一车辆和所述第二车辆的第一角点在第一时刻的坐标、以及所述第一车辆和所述第二车辆的第二角点在第一时刻的坐标,确定是否会发生碰撞。
可选的,在上述装置中,所述碰撞预测单元包括第一预测子单元;
所述第一预测子单元用于:在所述第二车辆位于所述第一车辆左前方的情况下,如果满足:A′x1>B′x1,A′y1<B′y1,A′x0<B′x0+δ,A′y0>B′y0-δ,则确定所述第一车辆与所述第二车辆会发生碰撞。
可选的,所述碰撞预测单元还包括第二预测子单元;
所述第二预测子单元用于:在所述第二车辆位于所述第一车辆右前方的情况下,如果满足:A′x1<B′x1,A′y1<B′y1,A′x0>B′x0-δ,A′y0>B′y0-δ,则确定所述第一车辆与所述第二车辆会发生碰撞。
可选的,所述碰撞预测单元还包括第三预测子单元;
所述第三预测子单元用于:在所述第二车辆位于所述第一车辆左后方的情况下,如果满足:A′x1>B′x1,A′y1>B′y1,A′x0<B′x0+δ,A′y0<B′y0+δ,则确定所述第一车辆与所述第二车辆会发生碰撞。
可选的,所述碰撞预测单元还包括第四预测子单元;
所述第四预测子单元用于:在所述第二车辆位于所述第一车辆右后方的情况下,如果满足:A′x1<B′x1,A′y1>B′y1,A′x0>B′x0-δ,A′y0<B′y0+δ,则确定所述第一车辆与所述第二车辆会发生碰撞。
由此可见,本申请的有益效果为:
本申请公开的车辆碰撞预测方法,在第一车辆的车头和车尾分别安装多个雷达,并且在第一车辆上安装图像采集装置,第一车辆通过多个雷达输出的雷达数据,确定第二车辆的速度信息以及第二车辆的第一角点的纵坐标,通过对图像采集装置输出的环境图像进行特征识别,确定第二车辆的第一角点的横坐标、第二车辆的车长、车宽以及车辆姿态角,之后基于第二车辆的第一角点的坐标、第二车辆的车长、车宽和车辆姿态角确定第二车辆的第二角点的坐标;另外,第一车辆还获得自身的车长、车宽、速度信息和车辆姿态角,根据第一车辆的车长、车宽和车辆姿态角确定第一车辆的第一角点和第二角点的坐标;之后,根据第一车辆和第二车辆在当前时刻的速度信息、车辆姿态角、以及第一角点和第二角点坐标,确定第一车辆和第二车辆的第一角点和第二角点在第一时刻的坐标,并据此确定第一车辆和第二车辆是否会发生碰撞。
可以看到,本申请公开的车辆碰撞预测方法中,第一车辆基于多个雷达输出的雷达数据和图像采集装置输出的环境图像,确定第二车辆在当前时刻的速度信息、车辆姿态角、以及第二车辆的第一角点和第二角点的坐标,得到的第二车辆在当前时刻的信息更加准确,相应的,根据前述信息所确定的第二车辆的第一角点和第二角点在第一时刻的坐标更加准确,这使得最终得到的碰撞预测结果具有较高的准确性;另外,通过比较第一车辆和第二车辆的第一角点在第一时刻的坐标、以及第一车辆和第二车辆的第二角点在第一时刻的坐标,就能够确定第一车辆和第二车辆是否会发生碰撞,具有算法简单,运算量小的优势。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请公开的一种车辆碰撞预测方法的流程图;
图2-1为本申请公开的第二车辆位于第一车辆左前方的情况下,第一车辆和第二车辆中角点的位置示意图;
图2-2为本申请公开的第二车辆位于第一车辆右前方的情况下,第一车辆和第二车辆中角点的位置示意图;
图2-3为本申请公开的第二车辆位于第一车辆左后方的情况下,第一车辆和第二车辆中角点的位置示意图;
图2-4为本申请公开的第二车辆位于第一车辆右后方的情况下,第一车辆和第二车辆中角点的位置示意图;
图3为本申请公开的第二车辆位于第一车辆右后方的情况下,第一车辆和第二车辆的模型示意图;
图4为本申请公开的一种车辆碰撞预测装置的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请公开一种车辆碰撞预测方法及装置,以提高碰撞预测结果的准确度。
参见图1,图1为本申请公开的一种车辆碰撞预测方法的流程图。该方法包括:
步骤S101:根据多个雷达输出的雷达数据,确定第二车辆的速度信息以及第二车辆的第一角点的纵坐标。
为了便于描述,本申请中将实施车辆碰撞预测方法的车辆称为第一车辆。第一车辆的车头和车尾分别安装有多个雷达。另外,第一车辆还安装有图像采集装置。
作为一种实施方式,第一车辆的车头设置两个雷达,这两个雷达之间相距预设距离,例如,在前保险杠的左右两端各安装一个雷达;第一车辆的车尾设置两个雷达,这两个雷达之间相距预设距离,例如,在后保险杠的左右两端各安装一个雷达。优选的,第一车辆上的雷达采用毫米波雷达。毫米波雷达具有测量距离大、空间分辨率高和稳定性较高的优势。
第一车辆根据多个雷达输出的雷达数据,确定第二车辆的速度信息和第二车辆的第一角点的纵坐标。其中,第二车辆是需要判断是否会与第一车辆发生碰撞的车辆。
其中,速度信息包括速度和加速度。
第二车辆的第一角点为第二车辆的四个角点中距离第一车辆最近的角点。其中,车辆的四个角点是指:位于车体左前侧的拐角顶点、位于车体右前侧的拐角顶点、位于车体左后侧的拐角顶点和位于车体右后侧的拐角顶点。
下面结合第一车辆和第二车辆的位置关系,对第二车辆的第一角点进行说明。
如果第二车辆位于第一车辆的左前方,那么,第二车辆的第一角点是:第二车辆中位于车体右后侧的拐角顶点,如图2-1中的B0点。如果第二车辆位于第一车辆的右前方,那么,第二车辆的第一角点是:第二车辆中位于车体左后侧的拐角顶点,如图2-2中的B0点。如果第二车辆位于第一车辆的左后方,那么,第二车辆的第一角点是:第二车辆中位于车体右前侧的拐角顶点,如图2-3中的B0点。如果第二车辆位于第一车辆的右后方,那么,第二车辆的第一角点是:第二车辆中位于车体左前侧的拐角顶点,如图2-4中的B0点。
这里对第一车辆根据多个雷达输出的雷达数据,确定第二车辆的第一角点的纵坐标的过程进行说明:
如果第二车辆位于第一车辆的左后方或者右后方,那么根据第一车辆的车尾安装的多个雷达输出的雷达数据,确定第一车辆的车尾与第二车辆的车头之间的平均距离,即:安装于第一车辆的车尾的多个雷达输出的多个距离值的平均值,该平均距离作为第二车辆的第一角点的纵坐标。
如果第二车辆位于第一车辆的左前方或者右前方,那么根据第一车辆的车头安装的多个雷达输出的雷达数据,确定第一车辆的车头与第二车辆的车尾之间的平均距离,即:安装于第一车辆的车头的多个雷达输出的多个距离值的平均值,该平均距离作为第二车辆的第一角点的纵坐标。
需要说明的是,本申请中,在第一车辆中选取一个坐标原点,基于该坐标原点构建二维坐标系。本申请中,第一车辆和第二车辆中第一角点和第二角点的坐标,都是指在该二维坐标系中的坐标。作为一种实施方式,将从该坐标原点指向正右方的方向定义为X轴的正方向,将从该坐标原点指向正前方的方向定义为Y轴的正方向,如图3中所示。
具体实施中,如果第二车辆位于第一车辆的左后方或者右后方,那么可以将第一车辆的车尾中心点确定为坐标原点O,如图3所示;如果第二车辆位于第一车辆的左前方或者右前方,那么可以将第一车辆的车头中心点确定为坐标原点O。
步骤S102:获得图像采集装置输出的环境图像,环境图像包括第一车辆、第二车辆以及路面的影像,对环境图像进行特征识别,确定第二车辆的第一角点的横坐标、第二车辆的车体参数和车辆姿态角,其中,车体参数包括车长和车宽。
第一车辆的图像采集装置用于采集第一车辆外部的环境图像,在第二车辆进入第一图像的图像采集装置的拍摄范围后,图像采集装置输出的环境图像包括第一车辆、第二车辆以及路面的影像,其中,路面上有车道线标志。
在该环境图像中,车道线标志和路面,车灯和车头、轮胎和轮毂的像素有明显的区别。
通过对环境图像进行特征识别,能够确定第一车辆与车道线之间的横向距离、以及第二车辆与该车道线之间的横向距离,之后,根据第一车辆与车道线之间的横向距离、以及第二车辆与该车道线之间的横向距离,确定第二车辆的第一角点的横坐标。
通过对环境图像进行特征识别,确定第二车辆中靠近第一车辆一侧的两个车轮中心点之间的距离,在该距离的基础上加上补偿值,得到第二车辆的车长。通过对环境图像进行特征识别,确定第二车辆的两个车灯中心点之间的距离,将该距离作为第二车辆的车宽。另外,对比第二车辆中靠近第一车辆一侧的两个车轮中心点的连线与车道线,确定两者之间的角度,该角度为第二车辆的车辆姿态角。
步骤S103:根据第二车辆的第一角点的坐标、第二车辆的车体参数以及车辆姿态角,确定第二车辆的第二角点的坐标,其中,第二车辆的第二角点为第二车辆的四个角点中与第一角点呈对角线分布的角点。
这里仍以图2-1至图2-4进行说明。
如果第二车辆位于第一车辆的左前方,那么,第二车辆的第一角点是:第二车辆中位于车体右后侧的拐角顶点,如图2-1中的B0点,第二车辆的第二角点是:第二车辆中位于车体左前侧的拐角顶点,如图2-1中的B1点。如果第二车辆位于第一车辆的右前方,那么,第二车辆的第一角点是:第二车辆中位于车体左后侧的拐角顶点,如图2-2中的B0点,第二车辆的第二角点是:第二车辆中位于车体右前侧的拐角顶点,如图2-2中的B1点。如果第二车辆位于第一车辆的左后方,那么,第二车辆的第一角点是:第二车辆中位于车体右前侧的拐角顶点,如图2-3中的B0点,第二车辆的第二角点是:第二车辆中位于车体左后侧的拐角顶点,如图2-3中的B1顶点。如果第二车辆位于第一车辆的右后方,那么,第二车辆的第一角点是:第二车辆中位于车体左前侧的拐角顶点,如图2-4中的B0点,第二车辆的第二角点是:第二车辆中位于车体右后侧的拐角顶点,如图2-4中的B1点。
在前述的步骤中确定了第二车辆的第一角点的横纵坐标、第二车辆的车长和车宽,以及第二车辆的车辆姿态角,在这些信息已知的情况下,就可以确定第二车辆的第二角点的坐标。
步骤S104:获得第一车辆的车体参数、速度信息和车辆姿态角。
实施中,可以通过第一车辆中的传感器,获得第一车辆的速度、加速度和车辆姿态角。另外,第一车辆的车长和车宽是已知信息,可以预先存储于第一车辆的存储介质中,在执行步骤S104时,从第一车辆的存储介质读取第一车辆的车长和车宽即可。
步骤S105:根据第一车辆的车体参数和车辆姿态角确定第一车辆中第一角点和第二角点的坐标。
其中,第一车辆的第一角点为第一车辆的四个角点中距离第二车辆最近的角点,第一车辆的第二角点为第一车辆的四个角点中与第一角点呈对角线分布的角点。
如果第二车辆位于第一车辆的左前方,那么,第一车辆的第一角点是:第一车辆中位于车体左前侧的拐角顶点,如图2-1中的A0点,第一车辆的第二角点是:第一车辆中位于车体右后侧的拐角顶点,如图2-1中的A1点。如果第二车辆位于第一车辆的右前方,那么,第一车辆的第一角点是:第一车辆中位于车体右前侧的拐角顶点,如图2-2中的A0点,第一车辆的第二角点是:第一车辆中位于车体左后侧的拐角顶点,如图2-2中的A1点。如果第二车辆位于第一车辆的左后方,那么,第一车辆的第一角点是:第一车辆中位于车体左后侧的拐角顶点,如图2-3中的A0点,第一车辆的第二角点是:第一车辆中位于车体右前侧的拐角顶点,如图2-3中的A1顶点。如果第二车辆位于第一车辆的右后方,那么,第一车辆的第一角点是:第一车辆中位于车体右后侧的拐角顶点,如图2-4中的A0点,第一车辆的第二角点是:第一车辆中位于车体左前侧的拐角顶点,如图2-4中的A1点。
第一车辆的车长、车宽和车辆姿态角都是已知的,并且坐标原点是第一车辆中的某个点,因此,根据第一车辆的车长、车宽和车辆姿态角就确定第一车辆中第一角点和第二角点的坐标。
在图3中,LA为第一车辆的车长,WA为第一车辆的车宽,θA为第一车辆的车辆姿态角,LB为第二车辆的车长,WB为第二车辆的车宽,θB为第二车辆的车辆姿态角。
步骤S106:根据第一车辆和第二车辆在当前时刻的速度信息、第一角点和第二角点的坐标、以及车辆姿态角,确定第一车辆和第二车辆的第一角点和第二角点在第一时刻的坐标。其中,第一时刻位于当前时刻之后,与当前时刻的差值为第一时长。
假定在当前时刻之后的第一时长内,第一车辆和第二车辆的速度、加速度以及车辆姿态角均保持不变。根据第一车辆在当前时刻的速度信息、第一角点和第二角点的坐标、以及车辆姿态角,确定第一车辆的第一角点和第二角点在第一时刻的坐标,根据第二车辆在当前时刻的速度信息、第一角点和第二角点的坐标、以及车辆姿态角,确定第二车辆的第一角点和第二角点在第一时刻的坐标。
步骤S107:根据第一车辆和第二车辆的第一角点在第一时刻的坐标、以及第一车辆和第二车辆的第二角点在第一时刻的坐标,确定是否会发生碰撞。
实施中,比较第一车辆和第二车辆的第一角点在第一时刻的坐标,比较第一车辆和第二车辆的第二角点在第一时刻的坐标,根据比较结果确定第一车辆和第二车辆是否会发生碰撞。
本申请公开的车辆碰撞预测方法,在第一车辆的车头和车尾分别安装多个雷达,并且在第一车辆上安装图像采集装置,第一车辆通过多个雷达输出的雷达数据,确定第二车辆的速度信息以及第二车辆的第一角点的纵坐标,通过对图像采集装置输出的环境图像进行特征识别,确定第二车辆的第一角点的横坐标、第二车辆的车长、车宽以及车辆姿态角,之后基于第二车辆的第一角点的坐标、第二车辆的车长、车宽和车辆姿态角确定第二车辆的第二角点的坐标;另外,第一车辆还获得自身的车长、车宽、速度信息和车辆姿态角,根据第一车辆的车长、车宽和车辆姿态角确定第一车辆的第一角点和第二角点的坐标;之后,根据第一车辆和第二车辆在当前时刻的速度信息、车辆姿态角、以及第一角点和第二角点坐标,确定第一车辆和第二车辆的第一角点和第二角点在第一时刻的坐标,并据此确定第一车辆和第二车辆是否会发生碰撞。
可以看到,本申请公开的车辆碰撞预测方法中,第一车辆基于多个雷达输出的雷达数据和图像采集装置输出的环境图像,确定第二车辆在当前时刻的速度信息、车辆姿态角、以及第二车辆的第一角点和第二角点的坐标,得到的第二车辆在当前时刻的信息更加准确,相应的,根据前述信息所确定的第二车辆的第一角点和第二角点在第一时刻的坐标更加准确,这使得最终得到的碰撞预测结果具有较高的准确性;另外,通过比较第一车辆和第二车辆的第一角点在第一时刻的坐标、以及第一车辆和第二车辆的第二角点在第一时刻的坐标,就能够确定第一车辆和第二车辆是否会发生碰撞,具有算法简单,运算量小的优势。
可选的,在本申请图1所示的车辆碰撞预测方法的技术上,进一步增加:在确定第一车辆和第二车辆会发生碰撞的情况下,输出提示信息。
在本申请图1所示的车辆碰撞预测方法中,在获得第一车辆的第一角点和第二角点的坐标后,可以进一步对第一车辆的两个角点的坐标进行修正。在获得第二车辆的第一角点和第二角点的坐标后,可以进一步对第二车辆的两个角点的坐标进行修正。
相应的,步骤S106中,具体是:根据第一车辆和第二车辆在当前时刻的速度信息、修正后的第一角点和第二角点的坐标、以及车辆姿态角,确定第一车辆和第二车辆的第一角点和第二角点在第一时刻的坐标。
通过对第一角点和第二角点的坐标进行修正,可以减小测量误差,从而进一步提高碰撞预测结果的准确性。
作为一种优选方案,利用卡尔曼滤波算法对第一车辆的第一角点和第二角点的坐标进行修正,利用卡尔曼滤波算法对第二车辆的第一角点和第二角点的坐标进行修正。
在本申请上述公开的车辆碰撞预测方法中,作为一种实施方式,根据第一车辆和第二车辆的第一角点在第一时刻的坐标、以及第一车辆和第二车辆的第二角点在第一时刻的坐标,确定是否会发生碰撞,包括:
在第二车辆位于第一车辆左前方的情况下,如果满足:A′x1>B′x1,A′y1<B′y1,A′x0<B′x0+δ,A′y0>B′y0-δ,则确定第一车辆与第二车辆会发生碰撞;
在第二车辆位于第一车辆右前方的情况下,如果满足:A′x1<B′x1,A′y1<B′y1,A′x0>B′x0-δ,A′y0>B′y0-δ,则确定第一车辆与第二车辆会发生碰撞。
在第二车辆位于第一车辆左后方的情况下,如果满足:A′x1>B′x1,A′y1>B′y1,A′x0<B′x0+δ,A′y0<B′y0+δ,则确定第一车辆与第二车辆会发生碰撞。
在第二车辆位于第一车辆右后方的情况下,如果满足:A′x1<B′x1,A′y1>B′y1,A′x0>B′x0-δ,A′y0<B′y0+δ,则确定第一车辆与第二车辆会发生碰撞。
其中:
A′x1为第一车辆的第二角点在第一时刻的横坐标;
B′x1为第二车辆的第二角点在第一时刻的横坐标;
A′y1为第一车辆的第二角点在第一时刻的纵坐标;
B′y1为第二车辆的第二角点在第一时刻的纵坐标;
A′x0为第一车辆的第一角点在第一时刻的横坐标;
B′x0为第二车辆的第一角点在第一时刻的横坐标;
A′y0为第一车辆的第一角点在第一时刻的纵坐标;
B′y0为第二车辆的第一角点在第一时刻的纵坐标;
δ为可调节安全阈值。
可以看到,在上述第一车辆和第二车辆的各个位置关系下,确定第一车辆和第二车辆是否会发生碰撞的判断条件中,针对第一车辆的第一角点的坐标和第二车辆的第一角点的坐标的比较,进一步设置有可调节安全阈值δ。
需要说明的是,通过调整可调节安全阈值δ的大小,能够调整碰撞预测范围的大小。当可调节安全阈值δ的取值较大时,碰撞预测范围较大,相应的,得到两车会发生碰撞这一结果的可能性更高,安全性更高。实施中,用户可以根据需要调整可调节安全阈值δ的大小,例如,在0.5米至1.5米之间设置可调节安全阈值。当然,也可以将可调节安全阈值δ设置为0,相当于在上述的判断条件中不包含可调节安全阈值δ。
本申请上述公开了车辆碰撞预测方法,本申请还公开相应的车辆碰撞预测装置。说明书中关于车辆碰撞预测方法和车辆碰撞预测装置的描述,可以相互参考。
参见图4,图4为本申请公开的一种车辆碰撞预测装置的结构示意图。该车辆碰撞预测装置包括雷达数据处理单元10、图像处理单元20、第一坐标分析单元30、数据获取单元40、第二坐标分析单元50、坐标预测单元60和碰撞预测单元70。
其中:
雷达数据处理单元10,用于根据多个雷达输出的雷达数据,确定第二车辆的速度信息以及第二车辆的第一角点的纵坐标。其中,速度信息包括速度和加速度,第二车辆的第一角点为第二车辆的四个角点中距离第一车辆最近的角点。
雷达数据处理单元10根据多个雷达输出的雷达数据确定第二车辆的第一角点的纵坐标的过程,请参见前文中的描述。
图像处理单元20,用于获得图像采集装置输出的环境图像,该环境图像包括第一车辆、第二车辆以及路面的影像,对环境图像进行特征识别,确定第二车辆的第一角点的横坐标、第二车辆的车体参数和车辆姿态角。其中,车体参数包括车长和车宽。
图像处理单元20确定第二车辆的第一角点的横坐标的过程,确定第二车辆的车体参数的过程,以及确定第二车辆的车辆姿态角的过程,请参见前文中的描述。
第一坐标分析单元30,用于根据第二车辆的第一角点的坐标、第二车辆的车体参数以及车辆姿态角,确定第二车辆的第二角点的坐标。其中,第二车辆的第二角点为第二车辆的四个角点中与第一角点呈对角线分布的角点。
数据获取单元40,用于获得第一车辆的车体参数、速度信息和车辆姿态角。
第二坐标分析单元50,用于根据第一车辆的车体参数和车辆姿态角确定第一车辆的第一角点和第二角点的坐标。其中,第一车辆的第一角点为第一车辆的四个角点中距离第二车辆最近的角点,第一车辆的第二角点为第一车辆的四个角点中与第一角点呈对角线分布的角点。
坐标预测单元60,用于根据第一车辆和第二车辆在当前时刻的速度信息、第一角点和第二角点的坐标、以及车辆姿态角,确定第一车辆和第二车辆的第一角点和第二角点在第一时刻的坐标。其中,第一时刻位于当前时刻之后,与当前时刻的差值为第一时长。
碰撞预测单元70,用于根据第一车辆和第二车辆的第一角点在第一时刻的坐标、以及第一车辆和所述第二车辆的第二角点在第一时刻的坐标,确定是否会发生碰撞。
本申请公开的车辆碰撞预测装置,基于多个雷达输出的雷达数据和图像采集装置输出的环境图像,确定第二车辆在当前时刻的速度信息、车辆姿态角、以及第二车辆的第一角点和第二角点的坐标,得到的第二车辆在当前时刻的信息更加准确,相应的,根据前述信息所确定的第二车辆的第一角点和第二角点在第一时刻的坐标更加准确,这使得最终得到的碰撞预测结果具有较高的准确性;另外,通过比较第一车辆和第二车辆的第一角点在第一时刻的坐标、以及第一车辆和第二车辆的第二角点在第一时刻的坐标,就能够确定第一车辆和第二车辆是否会发生碰撞,具有算法简单,运算量小的优势。
在一个实施例中,碰撞预测单元70包括第一预测子单元。
第一预测子单元用于:在第二车辆位于第一车辆左前方的情况下,如果满足:A′x1>B′x1,A′y1<B′y1,A′x0<B′x0+δ,A′y0>B′y0-δ,则确定第一车辆与第二车辆会发生碰撞。
可选的,碰撞预测单元70还包括第二预测子单元。
第二预测子单元用于:在第二车辆位于第一车辆右前方的情况下,如果满足:A′x1<B′x1,A′y1<B′y1,A′x0>B′x0-δ,A′y0>B′y0-δ,则确定第一车辆与第二车辆会发生碰撞。
可选的,碰撞预测单元70还包括第三预测子单元。
第三预测子单元用于:在第二车辆位于第一车辆左后方的情况下,如果满足:A′x1>B′x1,A′y1>B′y1,A′x0<B′x0+δ,A′y0<B′y0+δ,则确定第一车辆与第二车辆会发生碰撞。
可选的,碰撞预测单元70还包括第四预测子单元。
第四预测子单元用于:在第二车辆位于第一车辆右后方的情况下,如果满足:A′x1<B′x1,A′y1>B′y1,A′x0>B′x0-δ,A′y0<B′y0+δ,则确定第一车辆与第二车辆会发生碰撞。
可选的,在本申请上述公开的车辆碰撞预测装置的基础上,还可以设置报警单元。在确定第一车辆和第二车辆会发生碰撞的情况下,报警单元输出提示信息。
可选的,在本申请上述公开的车辆碰撞预测装置的基础上,还可以设置修正单元。修正单元用于:对雷达数据处理单元10确定的第二车辆的第一角点的纵坐标进行修正,对图像处理单元20确定的第二车辆的第一角点的横坐标进行修正,对第二坐标分析单元50确定的第一车辆的第一角点和第二角点的坐标进行修正。
相应的,坐标预测单元60根据第一车辆和第二车辆在当前时刻的速度信息、修正后的第一角点和第二角点的坐标、以及车辆姿态角,确定第一车辆和第二车辆的第一角点和第二角点在第一时刻的坐标。
通过对第一车辆和第二车辆的第一角点和第二角点的坐标进行修正,可以减小测量误差,从而进一步提高碰撞预测结果的准确性。
作为一种优选方案,利用卡尔曼滤波算法对第一车辆的第一角点和第二角点的坐标进行修正,利用卡尔曼滤波算法对第二车辆的第一角点和第二角点的坐标进行修正。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (8)
1.一种车辆碰撞预测方法,应用于第一车辆,其特征在于,所述第一车辆的车头和车尾分别安装有多个雷达,所述第一车辆还安装有图像采集装置,所述方法包括:
根据所述多个雷达输出的雷达数据,确定第二车辆的速度信息以及所述第二车辆的第一角点的纵坐标,其中,所述速度信息包括速度和加速度,所述第二车辆的第一角点为所述第二车辆的四个角点中距离所述第一车辆最近的角点;
获得所述图像采集装置输出的环境图像,所述环境图像包括第一车辆、第二车辆以及路面的影像,对所述环境图像进行特征识别,确定所述第二车辆的第一角点的横坐标、所述第二车辆的车体参数和车辆姿态角,所述车体参数包括车长和车宽;
根据所述第二车辆的第一角点的坐标、所述第二车辆的车体参数以及车辆姿态角,确定所述第二车辆的第二角点的坐标,其中,所述第二车辆的第二角点为所述第二车辆的四个角点中与第一角点呈对角线分布的角点;
获得所述第一车辆的车体参数、速度信息和车辆姿态角;
根据所述第一车辆的车体参数和车辆姿态角确定所述第一车辆中第一角点和第二角点的坐标,其中,所述第一车辆的第一角点为所述第一车辆的四个角点中距离所述第二车辆最近的角点,所述第一车辆的第二角点为所述第一车辆的四个角点中与第一角点呈对角线分布的角点;
根据所述第一车辆和所述第二车辆在当前时刻的速度信息、第一角点和第二角点的坐标、以及车辆姿态角,确定所述第一车辆和所述第二车辆的第一角点和第二角点在第一时刻的坐标,其中,所述第一时刻位于当前时刻之后,与当前时刻的差值为第一时长;
根据所述第一车辆和所述第二车辆的第一角点在第一时刻的坐标、以及所述第一车辆和所述第二车辆的第二角点在第一时刻的坐标,确定是否会发生碰撞;
其中,所述根据所述第一车辆和所述第二车辆的第一角点在第一时刻的坐标、以及所述第一车辆和所述第二车辆的第二角点在第一时刻的坐标,确定是否会发生碰撞,包括:在所述第二车辆位于所述第一车辆左前方的情况下,如果满足:A′x1>B′x1,A′y1<B′y1,A′x0<B′x0+δ,A′y0>B′y0-δ,则确定所述第一车辆与所述第二车辆会发生碰撞;A′x1为所述第一车辆的第二角点在所述第一时刻的横坐标,B′x1为所述第二车辆的第二角点在所述第一时刻的横坐标,A′y1为所述第一车辆的第二角点在所述第一时刻的纵坐标,B′y1为所述第二车辆的第二角点在所述第一时刻的纵坐标,A′x0为所述第一车辆的第一角点在所述第一时刻的横坐标,B′x0为所述第二车辆的第一角点在所述第一时刻的横坐标,A′y0为所述第一车辆的第一角点在所述第一时刻的纵坐标,B′y0为所述第二车辆的第一角点在所述第一时刻的纵坐标,δ为可调节安全阈值。
2.根据权利要求1所述的方法,其特征在于,还包括:
在所述第二车辆位于所述第一车辆右前方的情况下,如果满足:A′x1<B′x1,A′y1<B′y1,A′x0>B′x0-δ,A′y0>B′y0-δ,则确定所述第一车辆与所述第二车辆会发生碰撞。
3.根据权利要求2所述的方法,其特征在于,还包括:
在所述第二车辆位于所述第一车辆左后方的情况下,如果满足:A′x1>B′x1,A′y1>B′y1,A′x0<B′x0+δ,A′y0<B′y0+δ,则确定所述第一车辆与所述第二车辆会发生碰撞。
4.根据权利要求3所述的方法,其特征在于,还包括:
在所述第二车辆位于所述第一车辆右后方的情况下,如果满足:A′x1<B′x1,A′y1>B′y1,A′x0>B′x0-δ,A′y0<B′y0+δ,则确定所述第一车辆与所述第二车辆会发生碰撞。
5.一种车辆碰撞预测装置,应用于第一车辆,其特征在于,所述装置包括:
雷达数据处理单元,用于根据多个雷达输出的雷达数据,确定第二车辆的速度信息以及所述第二车辆的第一角点的纵坐标,其中,所述速度信息包括速度和加速度,所述第二车辆的第一角点为所述第二车辆的四个角点中距离所述第一车辆最近的角点;
图像处理单元,用于获得图像采集装置输出的环境图像,所述环境图像包括第一车辆、第二车辆以及路面的影像,对所述环境图像进行特征识别,确定所述第二车辆的第一角点的横坐标、所述第二车辆的车体参数和车辆姿态角,所述车体参数包括车长和车宽;
第一坐标分析单元,用于根据所述第二车辆的第一角点的坐标、所述第二车辆的车体参数以及车辆姿态角,确定所述第二车辆的第二角点的坐标,其中,所述第二车辆的第二角点为所述第二车辆的四个角点中与第一角点呈对角线分布的角点;
数据获取单元,用于获得所述第一车辆的车体参数、速度信息和车辆姿态角;
第二坐标分析单元,用于根据所述第一车辆的车体参数和车辆姿态角确定所述第一车辆中第一角点和第二角点的坐标,其中,所述第一车辆的第一角点为所述第一车辆的四个角点中距离所述第二车辆最近的角点,所述第一车辆的第二角点为所述第一车辆的四个角点中与第一角点呈对角线分布的角点;
坐标预测单元,用于根据所述第一车辆和所述第二车辆在当前时刻的速度信息、第一角点和第二角点的坐标、以及车辆姿态角,确定所述第一车辆和所述第二车辆的第一角点和第二角点在第一时刻的坐标,其中,所述第一时刻位于当前时刻之后,与当前时刻的差值为第一时长;
碰撞预测单元,用于根据所述第一车辆和所述第二车辆的第一角点在第一时刻的坐标、以及所述第一车辆和所述第二车辆的第二角点在第一时刻的坐标,确定是否会发生碰撞;
其中,所述碰撞预测单元包括第一预测子单元;所述第一预测子单元用于:在所述第二车辆位于所述第一车辆左前方的情况下,如果满足:A′x1>B′x1,A′y1<B′y1,A′x0<B′x0+δ,A′y0>B′y0-δ,则确定所述第一车辆与所述第二车辆会发生碰撞;A′x1为所述第一车辆的第二角点在所述第一时刻的横坐标,B′x1为所述第二车辆的第二角点在所述第一时刻的横坐标,A′y1为所述第一车辆的第二角点在所述第一时刻的纵坐标,B′y1为所述第二车辆的第二角点在所述第一时刻的纵坐标,A′x0为所述第一车辆的第一角点在所述第一时刻的横坐标,B′x0为所述第二车辆的第一角点在所述第一时刻的横坐标,A′y0为所述第一车辆的第一角点在所述第一时刻的纵坐标,B′y0为所述第二车辆的第一角点在所述第一时刻的纵坐标,δ为可调节安全阈值。
6.根据权利要求5所述的装置,其特征在于,所述碰撞预测单元还包括第二预测子单元;
所述第二预测子单元用于:在所述第二车辆位于所述第一车辆右前方的情况下,如果满足:A′x1<B′x1,A′y1<B′y1,A′x0>B′x0-δ,A′y0>B′y0-δ,则确定所述第一车辆与所述第二车辆会发生碰撞。
7.根据权利要求6所述的装置,其特征在于,所述碰撞预测单元还包括第三预测子单元;
所述第三预测子单元用于:在所述第二车辆位于所述第一车辆左后方的情况下,如果满足:A′x1>B′x1,A′y1>B′y1,A′x0<B′x0+δ,A′y0<B′y0+δ,则确定所述第一车辆与所述第二车辆会发生碰撞。
8.根据权利要求7所述的装置,其特征在于,所述碰撞预测单元还包括第四预测子单元;
所述第四预测子单元用于:在所述第二车辆位于所述第一车辆右后方的情况下,如果满足:A′x1<B′x1,A′y1>B′y1,A′x0>B′x0-δ,A′y0<B′y0+δ,则确定所述第一车辆与所述第二车辆会发生碰撞。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910425925.3A CN112061118B (zh) | 2019-05-21 | 2019-05-21 | 车辆碰撞预测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910425925.3A CN112061118B (zh) | 2019-05-21 | 2019-05-21 | 车辆碰撞预测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112061118A CN112061118A (zh) | 2020-12-11 |
CN112061118B true CN112061118B (zh) | 2022-01-25 |
Family
ID=73657856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910425925.3A Active CN112061118B (zh) | 2019-05-21 | 2019-05-21 | 车辆碰撞预测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112061118B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114038191B (zh) * | 2021-11-05 | 2023-10-27 | 青岛海信网络科技股份有限公司 | 一种采集交通数据的方法及装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9959763B2 (en) * | 2016-01-08 | 2018-05-01 | Ford Global Technologies, Llc | System and method for coordinating V2X and standard vehicles |
US9896096B2 (en) * | 2016-04-11 | 2018-02-20 | David E. Newman | Systems and methods for hazard mitigation |
EP3518210A4 (en) * | 2016-09-26 | 2020-07-08 | Limited Liability Company "Nilar" | COLLISION AVOIDANCE PROCEDURE BASED ON RELATIVE RADIO NAVIGATION |
CN108257417A (zh) * | 2016-12-28 | 2018-07-06 | 上海汽车集团股份有限公司 | 用于路侧单元的车辆碰撞预警方法及装置 |
CN107672589B (zh) * | 2017-09-26 | 2019-05-28 | 畅加风行(苏州)智能科技有限公司 | 一种基于雷达探测数据的车辆轨迹实时预测方法和装置 |
CN108062600B (zh) * | 2017-12-18 | 2021-06-18 | 北京星云互联科技有限公司 | 一种基于矩形建模的车辆碰撞预警方法及装置 |
-
2019
- 2019-05-21 CN CN201910425925.3A patent/CN112061118B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112061118A (zh) | 2020-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111679256B (zh) | 汽车毫米波雷达的角度校准方法、装置、系统及存储介质 | |
US10534079B2 (en) | Vehicle and controlling method thereof integrating radar and lidar | |
RU2605812C2 (ru) | Устройство помощи при вождении и способ помощи при вождении | |
CN108032859B (zh) | 自动变道控制方法、装置和汽车 | |
EP2690460B1 (en) | Apparatus and method for calculating inter-vehicle distance | |
CN110696823B (zh) | 一种预估车辆发生碰撞时间的方法、系统及车辆 | |
US20090157314A1 (en) | Method for measuring lateral movements in a driver assistance system | |
CN108955584B (zh) | 一种路面探测方法及装置 | |
CN104569979A (zh) | 目标检测设备 | |
US8847792B2 (en) | Object detection apparatus and object detection program | |
US11338801B2 (en) | Collision avoidance device | |
CN112406820B (zh) | 多车道增强型自动紧急制动系统控制方法 | |
Jeon et al. | Rear vehicle tracking on a bicycle using active sensor orientation control | |
KR20190056977A (ko) | 차량 제어 장치 | |
CN112166336A (zh) | 毫米波雷达俯仰安装角度的校准方法、装置、车辆控制系统及车辆 | |
CN111812657A (zh) | 一种基于车辆的泊车空间确定方法和装置 | |
JP2017187422A (ja) | 周辺物体検出装置 | |
US11731692B2 (en) | Driving support device that performs steering control and deceleration control for avoiding an object | |
US20220371584A1 (en) | Monitoring area setting apparatus | |
CN112596050A (zh) | 一种车辆及车载传感器系统、以及行车数据采集方法 | |
CN112061118B (zh) | 车辆碰撞预测方法及装置 | |
JP2019130997A (ja) | 車両制御装置 | |
US20200039505A1 (en) | Method and system for determining a fording situation | |
US11713039B2 (en) | Driving support system and method | |
CN107161144A (zh) | 车辆碰撞系统及其使用方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |