CN116721404A - 车辆目标碰撞点的选取方法、装置、终端及存储介质 - Google Patents
车辆目标碰撞点的选取方法、装置、终端及存储介质 Download PDFInfo
- Publication number
- CN116721404A CN116721404A CN202310736487.9A CN202310736487A CN116721404A CN 116721404 A CN116721404 A CN 116721404A CN 202310736487 A CN202310736487 A CN 202310736487A CN 116721404 A CN116721404 A CN 116721404A
- Authority
- CN
- China
- Prior art keywords
- target
- point
- frame image
- coordinate system
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 230000011218 segmentation Effects 0.000 claims abstract description 27
- 238000001514 detection method Methods 0.000 claims abstract description 26
- 238000004590 computer program Methods 0.000 claims description 20
- 238000013507 mapping Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 239000002245 particle Substances 0.000 description 3
- 206010039203 Road traffic accident Diseases 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种车辆目标碰撞点的选取方法、装置、终端及存储介质,该方法包括:对图像进行目标检测和语义分割,将检测得到的目标框中分割为目标的部分作为前景;获取目标框内的前景与目标框边线的交点;每相邻两个边线的交点相连,得到目标线段,目标线段包括至少一个线段;根据目标线段,确定距离车辆最近的一个点,作为车辆的目标碰撞点。本发明能够提高碰撞点选取的精度。
Description
技术领域
本发明涉及智能驾驶技术领域,尤其涉及一种车辆目标碰撞点的选取方法、装置、终端及存储介质。
背景技术
智能汽车的发展对减少交通事故的发生和减小交通事故的伤害具有重要意义。智能汽车在面对复杂的交通环境需要解决的一项技术难题是碰撞预警和主动避撞。碰撞点的精准选取是解决这一技术难题的关键因素。
现有技术在确定碰撞点的过程中,可以通过雷达采集到的数据确定与目标的碰撞点。但是,在一些应用场景下,如盲区监测应用场景,多采用摄像头,如具有广阔视角的鱼眼镜头镜头进行盲区监测,而不是采用雷达进行盲区监测。
现有技术通过摄像头进行碰撞点确定时,碰撞点的选取精度较低,导致碰撞预警和主动避撞不精确。
发明内容
有鉴于此,本发明提供了一种车辆目标碰撞点的选取方法、装置、终端及存储介质,能够解决通过摄像头进行碰撞点确定时精度低的问题。
第一方面,本发明实施例提供了一种车辆目标碰撞点的选取方法,包括:
对图像进行目标检测和语义分割,将检测得到的目标框中分割为目标的部分作为前景;
获取所述目标框内的前景与所述目标框边线的交点;
每相邻两个边线的交点相连,得到目标线段,所述目标线段包括至少一个线段;
根据所述目标线段,确定距离所述车辆最近的一个点,作为所述车辆的目标碰撞点。
在一种可能的实现方式中,所述根据所述目标线段,确定距离所述车辆最近的一个点,作为所述车辆的目标碰撞点包括:
对于所述目标线段中的任一线段,将该线段均分为多个子线段;
在每个子线段上选取一个点;
根据世界坐标系与像素坐标系的映射关系,以及选取的每个点在所述像素坐标系中的坐标值,确定每个点在所述世界坐标系中的坐标值;
根据每个点在所述世界坐标系中的坐标值,确定距离所述车辆最近的点作为第一参考点;
以所述第一参考点为中心,在所述像素坐标系中确定目标区域;
按照预设规则在所述目标区域中确定一个距离所述车辆最近的点作为所述目标碰撞点。
在一种可能的实现方式中,该方法还包括:
将所述目标碰撞点作为所述目标的跟踪点对所述目标进行跟踪;
若当前帧图像的跟踪点发生突变,根据上一帧图像的跟踪点以及当前帧图像的跟踪点,对当前帧图像的跟踪点进行更新,其中,所述跟踪点发生突变是指当前帧图像的跟踪点与上一帧图像的跟踪点在世界坐标系中的距离值超过预设阈值。
在一种可能的实现方式中,所述若当前帧图像的跟踪点发生突变,根据上一帧图像的跟踪点以及当前帧图像的跟踪点,对当前帧图像的跟踪点进行更新包括:
根据所述跟踪点在像素坐标系中的坐标值,以及所述目标框在所述像素坐标系中的位置,确定所述跟踪点在所述目标框中的相对位置;
获取当前帧图像的跟踪点的像素坐标值;
根据上一帧图像跟踪点在目标框中的相对位置以及当前帧图像的目标框,确定上一帧图像跟踪点在当前帧图像的像素坐标值;
根据所述像素坐标系与世界坐标系的映射关系,确定当前帧图像的跟踪点的像素坐标值所对应的第一世界坐标值,以及上一帧图像的跟踪点在当前帧图像的像素坐标值所对应的第二世界坐标值;
若所述第一世界坐标值和所述第二世界坐标值所对应的距离值超过预设阈值,则对上一帧图像的跟踪点和当前帧图像的跟踪点进行平滑滤波处理,得到当前帧图像更新后的跟踪点。
在一种可能的实现方式中,该方法还包括:
若在当前帧图像中,对所述目标进行跟踪的跟踪结果中不包括包含所述目标的目标框,则将上一帧图像得到的跟踪点作为第二参考点;
根据所述第二参考点在所述世界坐标系的坐标值,以及所述像素坐标系与所述世界坐标系的映射关系,确定所述第二参考点在所述像素坐标系的坐标值;
根据所述第二参考点在所述像素坐标系的坐标值、所述第二参考点在上一帧图像中所对应目标框的相对位置,确定当前帧图像中所述目标所对应的目标框,并将所述第二参考点作为当前帧图像中所述车辆的跟踪点。
第二方面,本发明实施例提供了一种车辆目标碰撞点的选取装置,包括:第一获取模块、第二获取模块和确定模块;
所述第一获取模块,用于对图像进行目标检测和语义分割,将检测得到的目标框中分割为目标的部分作为前景;
所述第二获取模块,用于获取所述目标框内的前景与所述目标框边线的交点,每相邻两个边线的交点相连,得到目标线段,所述目标线段包括至少一个线段;
所述确定模块,用于根据所述目标线段,确定距离所述车辆最近的一个点,作为所述车辆的目标碰撞点。
在一种可能的实现方式中,所述确定模块,用于:
对于所述目标线段中的任一线段,将该线段均分为多个子线段;
在每个子线段上选取一个点;
根据世界坐标系与像素坐标系的映射关系,以及选取的每个点在所述像素坐标系中的坐标值,确定每个点在所述世界坐标系中的坐标值;
根据每个点在所述世界坐标系中的坐标值,确定距离所述车辆最近的点作为第一参考点;
以所述第一参考点为中心,在所述像素坐标系中确定目标区域;
按照预设规则在所述目标区域中确定一个距离所述车辆最近的点作为所述目标碰撞点。
在一种可能的实现方式中,所述确定模块还用于:
将所述目标碰撞点作为所述目标的跟踪点对所述目标进行跟踪;
若当前帧图像的跟踪点发生突变,根据上一帧图像的跟踪点以及当前帧图像的跟踪点,对当前帧图像的跟踪点进行更新,其中,所述跟踪点发生突变是指当前帧图像的跟踪点与上一帧图像的跟踪点在世界坐标系中的距离值超过预设阈值。
第三方面,本发明实施例提供了一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上第一方面或第一方面的任一种可能的实现方式所述方法的步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上第一方面或第一方面的任一种可能的实现方式所述方法的步骤。
本发明实施例与现有技术相比存在的有益效果是:
本发明通过对车载摄像头采集到的图像进行目标检测和语义分割,基于语义分割去除目标框内的背景,基于前景确定目标框内的距离本车最近的一个点作为目标碰撞点,减少了背景对目标碰撞点选取过程中的影响,提高了目标碰撞点的选取精度,根据目标框内的前景与目标框边线的交点,每相邻两个边线的交点相连,得到目标线段,通过目标线段,确定距离车辆最近的一个点,作为目标碰撞点,降低了获取目标碰撞点的计算量。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种车辆目标碰撞点的选取方法的实现流程图;
图2是本发明实施例提供的一种目标检测结果的示意图;
图3是本发明实施例提供的一种车辆目标碰撞点的选取方法的示意图;
图4是本发明实施例提供的另一种车辆目标碰撞点的选取方法的实现流程图;
图5是本发明实施例提供的一种跟踪点更新过程的实现流程图;
图6是本发明实施例提供的一种跟踪点在目标框相对位置的示意图;
图7是本发明实施例提供的一种车辆目标碰撞点的选取装置的结构示意图;
图8是本发明实施例提供的终端的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图通过具体实施例来进行说明。
参见图1,其示出了本发明实施例提供的车辆目标碰撞点的选取方法的实现流程图,本发明实施例所提供的方法,既适用于乘用车,也适用于商用车。
详述如下:
在步骤101中、对图像进行目标检测和语义分割,将检测得到的目标框中分割为目标的部分作为前景。
本发明实施例所提供的方法应用于任何基于车载摄像头采集的到图像进行目标跟踪和目标碰撞点确定的场景,本发明实施例不对车载摄像头的安装位置以及车载摄像头的类型进行限定。
车载摄像头可以为普通的摄像头,也可以为鱼眼镜头。在一些应用场景下,如商用车右侧盲区较大,由于鱼眼镜头有视角广阔、覆盖面广、镜头不易脏污、成本较低等优势,此时鱼眼镜头适用于此类盲区监控,且通常安装于车辆的侧面。
由于根据车载镜头采集到的图像进行目标检测的过程中,检测到的目标多为车辆,车辆目标占有一定的空间,不能单纯作为质点考虑,当有其他车辆靠近本车辆时,其他车辆即为本步骤中所指的目标。当然,本发明实施例中所指的目标还可以是除车辆以外的其他目标,如步行或使用其他交通工具的人。在本发明实施例中,由于车辆是主要的目标,因此本发明实施例以车辆为目标进行说明,但是,本发明实施例不对目标的类型进行限定。
安装于车辆上的摄像头连续的采集图像,对于每一帧图像,对该图像进行目标检测,得到目标检测结果,目标检测结果包括目标框,目标框内包括检测得到的目标。
可选的,基于深度学习预先训练好一个目标检测模型,得到一帧图像后,将该帧图像输入目标检测模型,得到目标检测结果。还可以通过其他目标检测算法对图像进行目标检测,本发明实施例对此不作限定。
图2是本发明实施例提供的一种目标检测结果的示意图,如图2所示,ABCD为图像,图中的车辆为目标,EFGH为目标框。
对于同一帧图像,还需要对该图像进行语义分割。
语义分割(Semantic Segmentation)是图像处理和机器视觉一个重要分支。与分类任务不同,语义分割需要判断图像每个像素点的类别,进行精确分割。
可选的,基于深度学习预先训练一个语义分割模型,得到一帧图像后,可以将该帧图像输入语义分割模型中,得到该帧图像的语义分割结果。还可以通过其他语义分割算法进行语义分割,本发明实施例对此不作限定。
需要说明的是,对于同一帧图像,可以先进行目标检测,再进行语义分割,也可以先进行语义分割,再进行目标检测,还可以同时进行。
在本发明实施例中,以应用场景为道路行驶,目标为车辆为例,背景通常为道路、草坪,天空等。通过本步骤,去除目标框的背景后,目标框的有效像素点只包括所保留前景的像素点,即车辆所对应的像素点。由于本步骤去除了背景,在后续目标碰撞点的确定过程中,避免了背景对目标碰撞点确定过程中的干扰,提高了目标碰撞点的精度。
在步骤102中、获取目标框内的前景与目标框边线的交点,每相邻两个边线的交点相连,得到目标线段,目标线段包括至少一个线段。
可选的,预先设置像素坐标系和世界坐标系,相机或摄像头采集的图像一般为二维数字图像,以像素矩阵的形式存储,每个元素为该像素的图像灰度值。成像平面坐标系用于描述图像点在图像平面的位置坐标,像素坐标系描述该点在像素矩阵中的位置。像素坐标系建立在图像的平面上,坐标原点o通常建立在图像平面的左上角。世界坐标系是为了统一描述真实三维世界中位图的位置,包括相机的位置、目标的位置等。
在本发明实施例中,为使计算简单,可选的,世界坐标系的设定规则为:获取经过相机的安装点且垂直于地面的垂线,将垂线与地面的交点作为世界坐标系的原点Ow,将垂线作为世界坐标系的Zw轴,Zw轴正方向向上,世界坐标系的XwOwYw平面与Zw轴垂直。
基于此,地面高度为0,真实世界中的一点在世界坐标系中Zw轴的值即为该点的实际高度值。
在一种可选的实现方式中,一个点在世界坐标系中Xw轴值的绝对值用于表示与车辆的横向距离,横向距离用于表示目标距离侧面车身的垂直距离,例如,本发明实施例中的摄像头为鱼眼镜头,应用于车辆的BSD(Blind-Spot-Detection,盲区检测系统),安装于车辆的侧面,则目标在世界坐标系中Xw轴值的绝对值为距离车身侧面的距离。在本发明实施例中,一个点在世界坐标系中Yw轴值的绝对值用于表示与车辆的纵向距离,纵向距离用于表示目标距离车头或车位的垂直距离,例如,本发明实施例中的鱼眼镜头安装于车辆的车头位置,则目标在世界坐标系中Yw轴值的绝对值为距离车头的距离。
在另一种可选的实现方式中,一个点在世界坐标系中Xw轴值的绝对值用于表示与车辆的纵向距离,一个点在世界坐标系中Yw轴值的绝对值用于表示与车辆的横向距离。本发明实施例对此不作限定。
通过相机的内外参数,可确定像素坐标系和世界坐标系的唯一映射关系。
由于在像素坐标系中,目标框前景中的点对应的都是目标上的点,在前景中获取一个距离车辆最近的点,作为车辆的目标碰撞点。
可选的,以摄像头安装于车辆的侧面,目标在世界坐标系中Xw轴值的绝对值为距离车身侧面的距离为例进行说明。根据像素坐标系与世界坐标系的映射关系,获取前景中的每个点在世界坐标系的坐标值中Xw轴值的绝对值,获取Xw轴值的绝对值最小的一个点,作为目标碰撞点。
一种可选的,可以依次获取前景中每个像素点在世界坐标系的坐标值,获取Xw轴值的绝对值最小的一个点,作为目标碰撞点。
这种方法计算量较大,为减小计算量,可选的,将前景按顺序分割为多个连续但不重叠的子区域,在每个子区域选取一个点,得到多个被选中的点,依次计算每个被选中的点在世界坐标系中的坐标值,获取Xw轴值的绝对值最小的一个点,作为目标碰撞点。
在另一种可选的实现方式中,为进一步降低计算量,获取目标框内的前景与目标框边线的交点;每相邻两个边线的交点相连,得到目标线段,目标线段包括至少一个线段;根据目标线段,确定距离车辆最近的一个点,作为车辆的目标碰撞点。
图3是本发明实施例提供的一种车辆目标碰撞点的选取方法的示意图;结合图3,由于去除了目标框内的背景,只保留了目标框内的前景,使得目标框内的前景与目标框边线的交点识别精度更高。在本发明实施例中,目标框边线用于表示目标框的一个边所对应的线段。如图3所示,目标框的边线分别为EF、FH、GH、EG,目标框内的前景与目标框边线的交点分别为JKLM四个点。可选的,由于在目标跟踪过程中,上边线所对应点距离本车辆的实际距离较远,通常不属于碰撞点,因此可以不获取上边线交点与相邻边线交点的连线。此时得到的目标线段为JK和KL。
在本发明实施例中,图3中,目标框为矩形仅为一种示例,目标框还可以为其他形状,本发明实施例对此不作限定。
在步骤103中、根据目标线段,确定距离车辆最近的一个点,作为车辆的目标碰撞点。
当目标体积较大时,通过本发明实施例提供的方式得到的目标线段上的点一定是目标上的点。且为距离本车辆较近的点。
可选的,获取目标线段上所有像素点在世界坐标系中的坐标值,以目标在世界坐标系中Xw轴值的绝对值为距离车身侧面的距离为例,获取Xw轴值的绝对值最小的一个点,作为目标碰撞点。
另一种可选的实现方式,为进一步减小计算量,对于目标线段中的任一线段,将该线段均分为多个子线段;在每个子线段上选取一个点;根据世界坐标系与像素坐标系的映射关系,以及选取的每个点在像素坐标系中的坐标值,确定每个点在世界坐标系中的坐标值;根据每个点在世界坐标系中的坐标值,确定距离车辆最近的点作为第一参考点;以第一参考点为中心,在像素坐标系中确定目标区域;按照预设规则在目标区域中确定一个距离车辆最近的点作为目标碰撞点。
结合图3,目标线段包括线段JK和KL,分别将JK和KL均匀的分为多个子线段,分别将JK和KL均匀的分为5个子线段,每个子线段取一个点,如每个子线段上任取一个点,或者取每个子线段的中点。得到10个被选中的点,依次计算这10个点在世界坐标系的坐标值,获取Xw轴值的绝对值最小的一个点,作为第一参考点。此时可以认为第一参考点及其附近的点为距离车辆最近的点。
可选的,以第一参考点为中心,在像素坐标系中确定目标区域;按照预设规则在目标区域中确定一个距离车辆最近的点作为目标碰撞点。目标区域可以为圆形,也可以为矩形或其他形状,本发明实施例对此不作限定。
获取目标区域后,由于目标区域相对于整个前景所对应的区域而言属于较小的区域,可以依次计算目标区域中每个像素点的世界坐标系,由此得到距离本车辆最近的一个点作为目标碰撞点。也可以将目标区域进一步划分为多个连续但不重叠的子区域,每个子区域选取一个点,计算被选取的点在世界坐标系中的坐标值,由此得到距离本车辆最近的一个点作为目标碰撞点。
通过本发明实施例提供的方法,对于同一个目标的跟踪过程中,每一帧图像都能得到该目标的一个目标碰撞点。目标碰撞点可以应用于车辆的预警及制动策略中,例如,本车辆与目标碰撞点的距离小于预设值时,车辆进行自动减速和或预警减速。
本发明实施例通过对车载摄像头采集到的图像进行目标检测和语义分割,基于语义分割去除目标框内的背景,基于前景确定目标框内的距离本车最近的一个点作为目标碰撞点,减少了背景对目标碰撞点选取过程中的影响,提高了目标碰撞点的选取精度,根据目标框内的前景与目标框边线的交点,每相邻两个边线的交点相连,得到目标线段,通过目标线段,确定距离车辆最近的一个点,作为目标碰撞点,降低了获取目标碰撞点的计算量。
图4示出了本发明实施例提供的另一种车辆目标碰撞点的选取方法的实现流程图,详述如下:
在步骤401中、对图像进行目标检测和语义分割,将检测得到的目标框中分割为目标的部分作为前景。
在步骤402中、获取目标框内的前景与目标框边线的交点,每相邻两个边线的交点相连,得到目标线段,目标线段包括至少一个线段。
在步骤403中、根据目标线段,确定距离车辆最近的一个点,作为车辆的目标碰撞点。
步骤401至步骤403的具体实现方式可参见步骤101至步骤103,本发明实施例对此不再赘述。
在步骤404中、将目标碰撞点作为目标的跟踪点对目标进行跟踪。
在本发明实施例中,当目标为体积较大的物体,如目标为车辆时,由于目标车辆的姿态不固定,且本车辆摄像头观测面变化,无法确定目标车辆的质点位置。通过步骤401至步骤404得到的目标碰撞点之后,可以将目标碰撞点作为目标的质点进行跟踪,也就是作为目标在世界坐标系中的坐标点进行跟踪,将该跟踪点作为目标匹配和目标跟踪的一个维度。
在步骤405中、若当前帧图像的跟踪点发生突变,根据上一帧图像的跟踪点以及当前帧图像的跟踪点,对当前帧图像的跟踪点进行更新。
其中,跟踪点发生突变是指当前帧图像的跟踪点与上一帧图像的跟踪点在世界坐标系中的距离值超过预设阈值。
需要说明的是,当目标为车辆,且目标平行于本车辆时,其侧面每个点与本车辆之间的距离都基本相等,通过步骤101至步骤104,或者通过步骤401至步骤404计算得到的相邻两帧的目标碰撞点很容易发生突变,当目标碰撞点应用于自动刹车、制动预警、碰撞预警等领域时,目标碰撞点发生突变不会对上述领域带来干扰,且由于每帧实际计算得到的目标碰撞点代表当前帧真实的目标碰撞点,因此,当目标碰撞点应用于上述领域时,以每帧实际计算得到的目标碰撞点,也就是更新前的目标碰撞点进行预警、刹车/制动等的依据。
但是,基于目标跟踪过程中,目标跟踪位置不能人为添加误差,因此,将目标碰撞点作为目标的跟踪点对目标进行跟踪的过程中,目标碰撞点,也就是跟踪点不能发生突变。为实现跟踪的连续性,避免目标碰撞点突变对目标跟踪的影响,在一种可选的实现方式中,图5为本发明实施例提供的一种跟踪点更新过程的实现流程图,结合图5,包括:
在步骤4051中、根据跟踪点在像素坐标系中的坐标值,以及目标框在像素坐标系中的位置,确定跟踪点在目标框中的相对位置。
图6是本发明实施例提供的一种跟踪点在目标框相对位置的示意图,结合图5,ouv为像素坐标系,通过步骤401至步骤404所提供的方法,每帧图像都能确定一个目标碰撞点,也即跟踪点。举例来说,结合图5,前一帧图像获取的跟踪点为A1,当前帧图像获取的跟踪点为B。在目标框为矩形的情况下,以前一帧图像跟踪点A1为例,确定A1在目标框的相对位置可以为:上一帧图像的目标框的四个顶点为s1s2s3s4,获取A1距离目标框左边线s1s3的垂直距离L1,以及上边线s1s2的垂直距离L2,将左边线s1s3长度作为目标框的高度值,上边线s1s3的的长度作为目标框的宽度,计算A1距离目标框左边线的垂直距离与目标框宽度的比值标记为第一相对位置参数,计算A1距离目标框上边线的垂直距离与目标框高度的比值标记为第二相对位置参数,第一相对位置参数和第二相对位置参数共同构成前一帧图像中跟踪点A1在目标框中的相对位置。
还可以通过其他方法记录跟踪点在目标框中的相对位置,本发明实施例对此不作限定。
在步骤4052中、获取当前帧图像的跟踪点的像素坐标值。
在步骤4053中、根据上一帧图像跟踪点在目标框中的相对位置以及当前帧图像的目标框,确定上一帧图像跟踪点在当前帧图像的像素坐标值。
在步骤4054中、根据像素坐标系与世界坐标系的映射关系,确定当前帧图像的跟踪点的像素坐标值所对应的第一世界坐标值,以及上一帧图像的跟踪点在当前帧图像的像素坐标值所对应的第二世界坐标值。
其中,像素坐标系、世界坐标系、像素坐标系与世界坐标系的映射关系是预先确定的。
在步骤4055中、若第一世界坐标值和第二世界坐标值所对应的距离值超过预设阈值,则对上一帧图像的跟踪点和当前帧图像的跟踪点进行平滑滤波处理,得到当前帧图像更新后的跟踪点。
若距离值超过预设阈值,说明目标碰撞点的位置发生突变,由于本发明实施例基于目标碰撞点作为跟踪点对目标进行跟踪,为例避免目标碰撞点位置突变对目标跟踪带来的干扰,需要对两帧图像中的跟踪点进行平衡滤波处理。
结合图6对跟踪点的更新过程进行说明,A1是根据前一帧图像得到的跟踪点,B是根据当前帧图像得到的跟踪点,用目标框1代表前一帧图像的目标框,用目标框2代表当前帧图像的目标框,则根据A1在目标框1中的相对位置,A1在目标框2的对应点A2,计算A2在世界坐标系中的坐标值作为第二世界坐标值,以及B在世界坐标系中的坐标值作为第一世界坐标值,计算第一世界坐标值和第二世界坐标值的距离值,若该距离值超过预设阈值,则说明A2和B在真实世界中的距离相隔较远,说明碰撞点的位置发生了突变。基于碰撞点的位置不应突变的原则,对A2和B进行平滑滤波处理,可选的,设置一个冲击响应滤波器,以减少碰撞位置突变对目标跟踪的影响,或者,获取A2和B在世界坐标系两坐标点连线的中点C,计算C在像素坐标系的坐标值,作为当前帧图像的碰撞点,若下一帧图像目标跟踪丢失,即没有获取到包含该目标的目标框,则基于C点进行目标框的重构。
若第一世界坐标值和第二世界坐标值的距离值小于预设阈值,说明A2和B在真实世界中的距离相隔较近,则不需要进行上述跟踪点更新过程,标记B点为当前帧图像的跟踪点。
另外,在目标跟踪的过程中,可能会存在跟踪目标丢失的情况,即前一帧图像的跟踪结果中存在包含目标的目标框,到下一帧图像中由于算法或外界环境的影响,如本车辆与目标车辆相对速度过快、存在遮挡等原因,对该目标跟踪失败,使得当前帧图像中不包括目标的目标框。此时,为提高目标跟踪的鲁棒性,在本发明实施例中,基于相邻两帧图像跟踪点不会发生突变的原理,将上一帧获取的跟踪点作为当前帧图像的参考点,进行目标框的重构。
可选的,若在当前帧图像中,对目标进行跟踪的跟踪结果中不包括包含目标的目标框,则将上一帧图像得到的跟踪点作为第二参考点;根据第二参考点在世界坐标系的坐标值,以及像素坐标系与世界坐标系的映射关系,确定第二参考点在像素坐标系的坐标值;根据第二参考点在像素坐标系的坐标值、第二参考点在上一帧图像中所对应目标框的相对位置,确定当前帧图像中目标所对应的目标框,并将第二参考点作为当前帧图像中车辆的跟踪点。在本发明实施例中,根据第二参考点,也就是上一帧图像的跟踪点在在上一帧图像的世界坐标系的坐标值,基于关联算法,可以获取第二参考点在当前帧图像的世界坐标系的坐标值,基于像素坐标系与世界坐标系的映射关系,可以获取第二参考点在当前帧像素坐标系的坐标值。
已知第二参考点在像素坐标系的坐标值、第二参考点在上一帧图像中所对应目标框的相对位置,即可重构当前帧图像中目标所对应的目标框,如图6所示,前一帧图像的目标框确定,目标碰撞点为A1,A1与目标框的相对位置确定,确定A1在当前帧图像中的坐标点为A2,基于A1与目标框的相对位置,在确定A2的基础上,可以重构一个目标框。本发明实施例所提供的方法,将目标碰撞点应用于目标跟踪,提高目标跟踪的稳定和鲁棒性。
本发明通过对车载摄像头采集到的图像进行目标检测和语义分割,基于语义分割去除目标框内的背景,基于前景确定目标框内的距离本车最近的一个点作为目标碰撞点,减少了背景对目标碰撞点选取过程中的影响,提高了目标碰撞点的选取精度。并且,本发明实施例通过将目标碰撞点应用于目标跟踪,提高目标跟踪的稳定和鲁棒性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
以下为本发明的装置实施例,对于其中未详尽描述的细节,可以参考上述对应的方法实施例。
图7示出了本发明实施例提供的车辆目标碰撞点的选取装置的结构示意图,为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
如图7所示,车辆目标碰撞点的选取装置7包括:
第一获取模块71、第二获取模块72、确定模块73;
第一获取模块71,用于对图像进行目标检测和语义分割,将检测得到的目标框中分割为目标的部分作为前景;
第二获取模块72,用于获取目标框内的前景与目标框边线的交点,每相邻两个边线的交点相连,得到目标线段,目标线段包括至少一个线段;
确定模块73,用于根据目标线段,确定距离车辆最近的一个点,作为车辆的目标碰撞点。
本发明通过对车载摄像头采集到的图像进行目标检测和语义分割,基于语义分割去除目标框内的背景,基于前景确定目标框内的距离本车最近的一个点作为目标碰撞点,减少了背景对目标碰撞点选取过程中的影响,提高了目标碰撞点的选取精度,根据目标框内的前景与目标框边线的交点,每相邻两个边线的交点相连,得到目标线段,通过目标线段,确定距离车辆最近的一个点,作为目标碰撞点,降低了获取目标碰撞点的计算量。
在一种可能的实现方式中,确定模块73,用于:
对于目标线段中的任一线段,将该线段均分为多个子线段;
在每个子线段上选取一个点;
根据世界坐标系与像素坐标系的映射关系,以及选取的每个点在像素坐标系中的坐标值,确定每个点在世界坐标系中的坐标值;
根据每个点在世界坐标系中的坐标值,确定距离车辆最近的点作为第一参考点;
以第一参考点为中心,在像素坐标系中确定目标区域;
按照预设规则在目标区域中确定一个距离车辆最近的点作为目标碰撞点。
在一种可能的实现方式中,确定模块73,用于:
将目标碰撞点作为目标的跟踪点对目标进行跟踪;
若当前帧图像的跟踪点发生突变,根据上一帧图像的跟踪点以及当前帧图像的跟踪点,对当前帧图像的跟踪点进行更新,其中,跟踪点发生突变是指当前帧图像的跟踪点与上一帧图像的跟踪点在世界坐标系中的距离值超过预设阈值。
在一种可能的实现方式中,确定模块73还用于:
根据跟踪点在像素坐标系中的坐标值,以及目标框在像素坐标系中的位置,确定跟踪点在目标框中的相对位置;
获取当前帧图像的跟踪点的像素坐标值;
根据上一帧图像跟踪点在目标框中的相对位置以及当前帧图像的目标框,确定上一帧图像跟踪点在当前帧图像的像素坐标值;
根据像素坐标系与世界坐标系的映射关系,确定当前帧图像的跟踪点的像素坐标值所对应的第一世界坐标值,以及上一帧图像的跟踪点在当前帧图像的像素坐标值所对应的第二世界坐标值;
若第一世界坐标值和第二世界坐标值所对应的距离值超过预设阈值,则对上一帧图像的跟踪点和当前帧图像的跟踪点进行平滑滤波处理,得到当前帧图像更新后的跟踪点。
在一种可选的实现方式中,确定模块73还用于:
若在当前帧图像中,对目标进行跟踪的跟踪结果中不包括包含目标的目标框,则将上一帧图像得到的跟踪点作为第二参考点;
根据第二参考点在世界坐标系的坐标值,以及像素坐标系与世界坐标系的映射关系,确定第二参考点在像素坐标系的坐标值;
根据第二参考点在像素坐标系的坐标值、第二参考点在上一帧图像中所对应目标框的相对位置,确定当前帧图像中目标所对应的目标框,并将第二参考点作为当前帧图像中车辆的跟踪点。
本实施例提供的车辆目标碰撞点的选取装置,可用于执行上述车辆目标碰撞点的选取方法实施例,其实现原理和技术效果类似,本实施例此处不再赘述。
图8是本发明一实施例提供的终端的示意图。如图8所示,该实施例的终端8包括:处理器80、存储器81以及存储在所述存储器81中并可在所述处理器80上运行的计算机程序82。所述处理器80执行所述计算机程序82时实现上述各个车辆目标碰撞点的选取方法实施例中的步骤,例如图1所示的步骤101至步骤103。或者,所述处理器80执行所述计算机程序82时实现上述各装置实施例中各模块/单元的功能,例如图7所示模块71至73的功能。
示例性的,所述计算机程序82可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器81中,并由所述处理器80执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序82在所述终端8中的执行过程。
所述终端8可以是车载终端,也可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端8可包括,但不仅限于,处理器80、存储器81。本领域技术人员可以理解,图8仅仅是终端8的示例,并不构成对终端8的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端还可以包括输入输出设备、网络接入设备、总线等。
所述处理器80可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器81可以是所述终端8的内部存储单元,例如终端8的硬盘或内存。所述存储器81也可以是所述终端8的外部存储设备,例如所述终端8上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器81还可以既包括所述终端8的内部存储单元也包括外部存储设备。所述存储器81用于存储所述计算机程序以及所述终端所需的其他程序和数据。所述存储器81还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个车辆目标碰撞点的选取方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种车辆目标碰撞点的选取方法,其特征在于,包括:
对图像进行目标检测和语义分割,将检测得到的目标框中分割为目标的部分作为前景;
获取所述目标框内的前景与所述目标框边线的交点,每相邻两个边线的交点相连,得到目标线段,所述目标线段包括至少一个线段;
根据所述目标线段,确定距离所述车辆最近的一个点,作为所述车辆的目标碰撞点。
2.根据权利要求1所述的方法,其特征在于,所述根据所述目标线段,确定距离所述车辆最近的一个点,作为所述车辆的目标碰撞点包括:
对于所述目标线段中的任一线段,将该线段均分为多个子线段;
在每个子线段上选取一个点;
根据世界坐标系与像素坐标系的映射关系,以及选取的每个点在所述像素坐标系中的坐标值,确定每个点在所述世界坐标系中的坐标值;
根据每个点在所述世界坐标系中的坐标值,确定距离所述车辆最近的点作为第一参考点;
以所述第一参考点为中心,在所述像素坐标系中确定目标区域;
按照预设规则在所述目标区域中确定一个距离所述车辆最近的点作为所述目标碰撞点。
3.根据权利要求1或2所述的方法,其特征在于,该方法还包括:
将所述目标碰撞点作为所述目标的跟踪点对所述目标进行跟踪;
若当前帧图像的跟踪点发生突变,根据上一帧图像的跟踪点以及当前帧图像的跟踪点,对当前帧图像的跟踪点进行更新,其中,所述跟踪点发生突变是指当前帧图像的跟踪点与上一帧图像的跟踪点在世界坐标系中的距离值超过预设阈值。
4.根据权利要求3所述的方法,其特征在于,所述若当前帧图像的跟踪点发生突变,根据上一帧图像的跟踪点以及当前帧图像的跟踪点,对当前帧图像的跟踪点进行更新包括:
根据所述跟踪点在像素坐标系中的坐标值,以及所述目标框在所述像素坐标系中的位置,确定所述跟踪点在所述目标框中的相对位置;
获取当前帧图像的跟踪点的像素坐标值;
根据上一帧图像跟踪点在目标框中的相对位置以及当前帧图像的目标框,确定上一帧图像跟踪点在当前帧图像的像素坐标值;
根据所述像素坐标系与世界坐标系的映射关系,确定当前帧图像的跟踪点的像素坐标值所对应的第一世界坐标值,以及上一帧图像的跟踪点在当前帧图像的像素坐标值所对应的第二世界坐标值;
若所述第一世界坐标值和所述第二世界坐标值所对应的距离值超过预设阈值,则对上一帧图像的跟踪点和当前帧图像的跟踪点进行平滑滤波处理,得到当前帧图像更新后的跟踪点。
5.根据权利要求4所述的方法,其特征在于,该方法还包括:
若在当前帧图像中,对所述目标进行跟踪的跟踪结果中不包括包含所述目标的目标框,则将上一帧图像得到的跟踪点作为第二参考点;
根据所述第二参考点在所述世界坐标系的坐标值,以及所述像素坐标系与所述世界坐标系的映射关系,确定所述第二参考点在所述像素坐标系的坐标值;
根据所述第二参考点在所述像素坐标系的坐标值、所述第二参考点在上一帧图像中所对应目标框的相对位置,确定当前帧图像中所述目标所对应的目标框,并将所述第二参考点作为当前帧图像中所述车辆的跟踪点。
6.一种车辆目标碰撞点的选取装置,其特征在于,包括:第一获取模块、第二获取模块和确定模块;
所述第一获取模块,用于对图像进行目标检测和语义分割,将检测得到的目标框中分割为目标的部分作为前景;
所述第二获取模块,用于获取所述目标框内的前景与所述目标框边线的交点,每相邻两个边线的交点相连,得到目标线段,所述目标线段包括至少一个线段;
所述确定模块,用于根据所述目标线段,确定距离所述车辆最近的一个点,作为所述车辆的目标碰撞点。
7.根据权利要求6所述的装置,其特征在于,所述确定模块,用于:
对于所述目标线段中的任一线段,将该线段均分为多个子线段;
在每个子线段上选取一个点;
根据世界坐标系与像素坐标系的映射关系,以及选取的每个点在所述像素坐标系中的坐标值,确定每个点在所述世界坐标系中的坐标值;
根据每个点在所述世界坐标系中的坐标值,确定距离所述车辆最近的点作为第一参考点;
以所述第一参考点为中心,在所述像素坐标系中确定目标区域;
按照预设规则在所述目标区域中确定一个距离所述车辆最近的点作为所述目标碰撞点。
8.根据权利要求6或7所述的装置,其特征在于,所述确定模块还用于:
将所述目标碰撞点作为所述目标的跟踪点对所述目标进行跟踪;
若当前帧图像的跟踪点发生突变,根据上一帧图像的跟踪点以及当前帧图像的跟踪点,对当前帧图像的跟踪点进行更新,其中,所述跟踪点发生突变是指当前帧图像的跟踪点与上一帧图像的跟踪点在世界坐标系中的距离值超过预设阈值。
9.一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如上的权利要求1至5中任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如上的权利要求1至5中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310736487.9A CN116721404A (zh) | 2023-06-20 | 2023-06-20 | 车辆目标碰撞点的选取方法、装置、终端及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310736487.9A CN116721404A (zh) | 2023-06-20 | 2023-06-20 | 车辆目标碰撞点的选取方法、装置、终端及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116721404A true CN116721404A (zh) | 2023-09-08 |
Family
ID=87871290
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310736487.9A Pending CN116721404A (zh) | 2023-06-20 | 2023-06-20 | 车辆目标碰撞点的选取方法、装置、终端及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116721404A (zh) |
-
2023
- 2023-06-20 CN CN202310736487.9A patent/CN116721404A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018120040A1 (zh) | 一种障碍物检测方法及装置 | |
CN108638999B (zh) | 一种基于360度环视输入的防碰撞预警系统及方法 | |
CN110119679B (zh) | 物体三维信息估计方法及装置、计算机设备、存储介质 | |
CN112947419B (zh) | 避障方法、装置及设备 | |
CN115049700A (zh) | 一种目标检测方法及装置 | |
CN112733812A (zh) | 三维车道线检测方法、装置及存储介质 | |
CN111213153A (zh) | 目标物体运动状态检测方法、设备及存储介质 | |
CN112172797B (zh) | 泊车控制方法、装置、设备和存储介质 | |
CN110929655A (zh) | 一种行驶过程中车道线识别方法、终端设备及存储介质 | |
CN110619674A (zh) | 用于事故和警情场景还原的三维增强现实设备及方法 | |
CN114841910A (zh) | 车载镜头遮挡识别方法及装置 | |
CN114415200A (zh) | 车辆定位方法、装置、电子设备及计算机可读存储介质 | |
CN115601435B (zh) | 车辆姿态检测方法、装置、车辆及存储介质 | |
Cario et al. | Lane detection and tracking problems in lane departure warning systems | |
Giosan et al. | Superpixel-based obstacle segmentation from dense stereo urban traffic scenarios using intensity, depth and optical flow information | |
CN114724119B (zh) | 车道线提取方法、检测设备及存储介质 | |
CN115240150A (zh) | 基于单目相机的车道偏离预警方法、系统、设备及介质 | |
CN116721404A (zh) | 车辆目标碰撞点的选取方法、装置、终端及存储介质 | |
CN116168357A (zh) | 一种智能车的前景目标机器视觉提取系统及方法 | |
US11138448B2 (en) | Identifying a curb based on 3-D sensor data | |
CN113052118A (zh) | 基于高速快球摄像机实现场景变换视频分析检测的方法、系统、装置、处理器及存储介质 | |
CN108416305B (zh) | 连续型道路分割物的位姿估计方法、装置及终端 | |
Jaspers et al. | Fast and robust b-spline terrain estimation for off-road navigation with stereo vision | |
CN116703979A (zh) | 目标跟踪方法、装置、终端及存储介质 | |
CN117690109A (zh) | 识别车道边沿的方法和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |