CN108647638A - 一种车辆位置检测方法及装置 - Google Patents
一种车辆位置检测方法及装置 Download PDFInfo
- Publication number
- CN108647638A CN108647638A CN201810438659.3A CN201810438659A CN108647638A CN 108647638 A CN108647638 A CN 108647638A CN 201810438659 A CN201810438659 A CN 201810438659A CN 108647638 A CN108647638 A CN 108647638A
- Authority
- CN
- China
- Prior art keywords
- true
- vehicle
- coordinate system
- virtual
- wheel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 45
- 230000000007 visual effect Effects 0.000 claims abstract description 114
- 238000000034 method Methods 0.000 claims description 71
- 230000003287 optical effect Effects 0.000 claims description 57
- 230000009466 transformation Effects 0.000 claims description 54
- 238000003384 imaging method Methods 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 6
- 230000000295 complement effect Effects 0.000 description 16
- 230000004927 fusion Effects 0.000 description 16
- 230000008859 change Effects 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 238000012360 testing method Methods 0.000 description 5
- 239000011800 void material Substances 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 3
- 240000007594 Oryza sativa Species 0.000 description 2
- 235000007164 Oryza sativa Nutrition 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 235000009566 rice Nutrition 0.000 description 2
- HOWHQWFXSLOJEF-MGZLOUMQSA-N systemin Chemical compound NCCCC[C@H](N)C(=O)N[C@@H](CCSC)C(=O)N[C@@H](CCC(N)=O)C(=O)N[C@@H]([C@@H](C)O)C(=O)N[C@@H](CC(O)=O)C(=O)OC(=O)[C@@H]1CCCN1C(=O)[C@H]1N(C(=O)[C@H](CC(O)=O)NC(=O)[C@H](CCCN=C(N)N)NC(=O)[C@H](CCCCN)NC(=O)[C@H](CO)NC(=O)[C@H]2N(CCC2)C(=O)[C@H]2N(CCC2)C(=O)[C@H](CCCCN)NC(=O)[C@H](CO)NC(=O)[C@H](CCC(N)=O)NC(=O)[C@@H](NC(=O)[C@H](C)N)C(C)C)CCC1 HOWHQWFXSLOJEF-MGZLOUMQSA-N 0.000 description 2
- 108010050014 systemin Proteins 0.000 description 2
- 244000170916 Paeonia officinalis Species 0.000 description 1
- 235000006484 Paeonia officinalis Nutrition 0.000 description 1
- 244000131316 Panax pseudoginseng Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000004744 fore-foot Anatomy 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
- B60Q9/008—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Geometry (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
Abstract
本申请公开了一种车辆位置检测方法及装置,利用目标车辆上安装的图像采集设备,在当前时刻以固定视角对目标车辆的前方区域进行拍照,得到一真实图像;然后,根据该真实图像生成预设视角下的虚拟图像,使该虚拟图像包含侧方车辆的有效特征,从而基于这些特征对侧方车辆进行准确识别,进而确定侧方车辆的位置信息,用以避免目标车辆与侧方车辆发生碰撞等事故。
Description
技术领域
本申请涉及检测技术领域,尤其涉及一种车辆位置检测方法及装置。
背景技术
驾驶员在驾驶车辆的过程中,如果驾驶员自车上安装了前方碰撞预警(ForwardCollision Warning,简称FCW)系统或自适应巡航控制(Adaptive Cruise Control,简称ACC)系统,该系统能够检测出自车前方车辆,用以避免自车与前方车辆发生碰撞。
其中,FCW系统能够及时检测到自车前方区域的车辆,具体地,当自车前方区域存在车辆时,FCW系统将以光、声、振动等形式警告驾驶员,以保证自车行驶安全。而ACC系统可以通过调整汽车速度以适应交通状况,实现无司机干预下的自主减速或加速,具体地,通过安装在自车前方的雷达检测自车前进道路上是否存在速度更慢的车辆,若存在速度更慢的车辆,ACC系统会降低车速并控制与前方车辆的间隙或时间间隙,以保证自车行驶安全。
但是,驾驶员在实际驾驶过程中,经常有车辆从自车侧方插入自车前方,而现有的FCW系统和ACC系统只能检测出前方车辆,而无法对从自车侧前方插入的车辆进行及时检测,从而可能导致自车与插入车辆发生追尾事故。
发明内容
本申请实施例的主要目的在于提供一种车辆位置检测方法及装置,能够检测出侧前方车辆的位置信息。
本申请实施例提供了一种车辆位置检测方法,包括:
获取目标车辆上安装的图像采集设备对所述目标车辆前方区域拍摄的真实图像,其中,所述真实图像为所述图像采集设备在当前时刻以固定视角拍摄的图像;
根据所述真实图像生成虚拟图像,并根据所述虚拟图像确定所述目标车辆的侧方车辆的位置信息,其中,所述虚拟图像为当前时刻所述图像采集设备在预设视角下的图像,所述预设视角为所述固定视角在水平方向上被旋转预设角度后的视角。
可选的,所述预设角度为第一角度或第二角度,所述第一视角为所述固定视角在水平方向上被逆时针旋转第一角度后的视角,所述第二视角为所述固定视角在水平方向上被顺时针旋转第二角度后的视角;
相应地,若所述预设角度为所述第一角度,则所述目标车辆的侧方车辆为所述目标车辆的左侧车辆;若所述预设角度为所述第二角度,则所述目标车辆的侧方车辆为所述目标车辆的右侧车辆。
可选的,所述方法还包括:
建立真实平面坐标系与虚拟平面坐标系之间的坐标转换关系,其中,所述真实平面坐标系为所述固定视角下的成像平面对应的二维坐标系,所述虚拟平面坐标系为所述预设视角下的成像平面对应的二维坐标系;
则,所述根据所述真实图像生成虚拟图像,包括:
根据所述真实平面坐标系与所述虚拟平面坐标系之间的坐标转换关系,将所述真实图像转换为虚拟图像。
可选的,所述建立真实平面坐标系与虚拟平面坐标系之间的坐标转换关系,包括:
建立所述真实平面坐标系与真实设备坐标系之间的坐标转换关系,所述真实设备坐标系是当所述图像采集设备对应于所述固定视角时为所述图像采集设备构建的三维坐标系;
建立所述真实设备坐标系与真实世界坐标系之间的坐标转换关系,所述真实世界坐标系是当所述图像采集设备对应于所述固定视角时构建的世界坐标系;
建立所述真实世界坐标系与虚拟世界坐标系之间的坐标转换关系,所述虚拟世界坐标系是当所述图像采集设备对应于所述预设视角时构建的世界坐标系;
建立所述虚拟世界坐标系与虚拟设备坐标系之间的坐标转换关系,所述虚拟设备坐标系是当所述图像采集设备对应于所述预设视角时为所述图像采集设备构建的三维坐标系;
建立所述虚拟设备坐标系与所述虚拟平面坐标系之间的坐标转换关系。
可选的,所述根据所述虚拟图像确定所述目标车辆的侧方车辆的位置信息,包括:
在所述虚拟图像中检测车轮,得到虚拟车轮区域;
根据所述真实平面坐标系与所述虚拟平面坐标系之间的坐标转换关系,将所述虚拟车轮区域转换到所述真实平面坐标系中,得到转换后的真实车轮区域;
根据所述真实平面坐标系与所述真实世界坐标系之间的坐标转换关系,将所述真实车轮区域转换到所述真实世界坐标系中,得到所述目标车辆的侧方车辆车轮的位置信息。
可选的,所述方法还包括:
对大量车辆样本图像中的车轮特征进行学习,得到用于识别车轮的车轮识别模型;
则,所述在所述虚拟图像中检测车轮,包括:
利用所述车轮识别模型,在所述虚拟图像中检测车轮。
可选的,所述方法还包括:
对所述目标车辆的侧方车辆车轮进行光流跟踪,得到所述当前时刻的真实车轮区域;
则,所述得到转换后的真实车轮区域之后,还包括:
将转换后的真实车轮区域与光流跟踪到的真实车轮区域进行融合,得到融合后的真实车轮区域。
可选的,所述得到所述当前时刻的真实车轮区域,包括:
对所述当前时刻的光流跟踪图像进行边缘补图;
根据补图后的光流跟踪图像,得到所述侧方车辆车轮的真实车轮区域。
可选的,所述得到融合后的真实车轮区域之后,还包括:
对于所述当前时刻之前的一个历史时刻或多个连续历史时刻,获取所述历史时刻对应的最终的真实车轮区域;
根据所述历史时刻对应的最终的真实车轮区域,判断所述融合后的真实车轮区域中是否存在非车轮区域,若是,则去除所述非车轮区域。
本申请实施例还提供了一种车辆位置检测装置,包括:
真实图像获取单元,用于获取目标车辆上安装的图像采集设备对所述目标车辆前方区域拍摄的真实图像,其中,所述真实图像为所述图像采集设备在当前时刻以固定视角拍摄的图像;
虚拟图像生成单元,用于根据所述真实图像生成虚拟图像,其中,所述虚拟图像为当前时刻所述图像采集设备在预设视角下的图像,所述预设视角为所述固定视角在水平方向上被旋转预设角度后的视角;
车辆位置确定单元,用于根据所述虚拟图像确定所述目标车辆的侧方车辆的位置信息。
可选的,所述预设角度为第一角度或第二角度,所述第一视角为所述固定视角在水平方向上被逆时针旋转第一角度后的视角,所述第二视角为所述固定视角在水平方向上被顺时针旋转第二角度后的视角;
相应地,若所述预设角度为所述第一角度,则所述目标车辆的侧方车辆为所述目标车辆的左侧车辆;若所述预设角度为所述第二角度,则所述目标车辆的侧方车辆为所述目标车辆的右侧车辆。
可选的,所述装置还包括:
转换关系建立单元,用于建立真实平面坐标系与虚拟平面坐标系之间的坐标转换关系,其中,所述真实平面坐标系为所述固定视角下的成像平面对应的二维坐标系,所述虚拟平面坐标系为所述预设视角下的成像平面对应的二维坐标系;
则,所述虚拟图像生成单元,具体用于根据所述真实平面坐标系与所述虚拟平面坐标系之间的坐标转换关系,将所述真实图像转换为虚拟图像。
可选的,所述转换关系建立单元包括:
第一建立子单元,用于建立所述真实平面坐标系与真实设备坐标系之间的坐标转换关系,所述真实设备坐标系是当所述图像采集设备对应于所述固定视角时为所述图像采集设备构建的三维坐标系;
第二建立子单元,用于建立所述真实设备坐标系与真实世界坐标系之间的坐标转换关系,所述真实世界坐标系是当所述图像采集设备对应于所述固定视角时构建的世界坐标系;
第三建立子单元,用于建立所述真实世界坐标系与虚拟世界坐标系之间的坐标转换关系,所述虚拟世界坐标系是当所述图像采集设备对应于所述预设视角时构建的世界坐标系;
第四建立子单元,用于建立所述虚拟世界坐标系与虚拟设备坐标系之间的坐标转换关系,所述虚拟设备坐标系是当所述图像采集设备对应于所述预设视角时为所述图像采集设备构建的三维坐标系;
第五建立子单元,用于建立所述虚拟设备坐标系与所述虚拟平面坐标系之间的坐标转换关系。
可选的,所述车辆位置确定单元包括:
虚拟车轮检测子单元,用于在所述虚拟图像中检测车轮,得到虚拟车轮区域;
真实车轮获取子单元,用于根据所述真实平面坐标系与所述虚拟平面坐标系之间的坐标转换关系,将所述虚拟车轮区域转换到所述真实平面坐标系中,得到转换后的真实车轮区域;
车辆位置确定子单元,用于根据所述真实平面坐标系与所述真实世界坐标系之间的坐标转换关系,将所述真实车轮区域转换到所述真实世界坐标系中,得到所述目标车辆的侧方车辆车轮的位置信息。
可选的,所述装置还包括:
识别模型创建单元,用于对大量车辆样本图像中的车轮特征进行学习,得到用于识别车轮的车轮识别模型;
则,所述虚拟车轮检测子单元,具体用于利用所述车轮识别模型,在所述虚拟图像中检测车轮。
可选的,所述装置还包括:
光流跟踪单元,用于对所述目标车辆的侧方车辆车轮进行光流跟踪,得到所述当前时刻的真实车轮区域;
则,所述车辆位置确定单元还包括:
车轮融合子单元,用于得到转换后的真实车轮区域之后,将转换后的真实车轮区域与光流跟踪到的真实车轮区域进行融合,得到融合后的真实车轮区域。
可选的,所述光流跟踪单元包括:
光流跟踪子单元,用于对所述目标车辆的侧方车辆车轮进行光流跟踪;
边缘补图子单元,用于对所述当前时刻的光流跟踪图像进行边缘补图;
区域获取子单元,用于根据补图后的光流跟踪图像,得到所述侧方车辆车轮的真实车轮区域。
可选的,所述车辆位置确定单元还包括:
历史车轮获取子单元,用于在得到融合后的真实车轮区域之后,对于所述当前时刻之前的一个历史时刻或多个连续历史时刻,获取所述历史时刻对应的最终的真实车轮区域;
区域去除子单元,用于根据所述历史时刻对应的最终的真实车轮区域,判断所述融合后的真实车轮区域中是否存在非车轮区域,若是,则去除所述非车轮区域。
本申请实施例还提供了一种车辆位置检测装置,其特征在于,包括:处理器、存储器、系统总线;
所述处理器以及所述存储器通过所述系统总线相连;
所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行上述车辆位置检测方法的任一种实现方法。
本申请实施例还提供了一种计算机可读存储介质,其特征在于,所述机算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行上述车辆位置检测方法的任一种实现方法。
本申请实施例还提供了一种计算机程序产品,其特征在于,所述计算机程序产品在终端设备上运行时,使得所述终端设备执行上述车辆位置检测方法的任一种实现方法。
本实施例提供的一种车辆位置检测方法及装置,利用目标车辆上安装的图像采集设备,在当前时刻以固定视角对目标车辆的前方区域进行拍照,得到一真实图像;然后,根据该真实图像生成预设视角下的虚拟图像,使该虚拟图像包含侧方车辆的有效特征,从而基于这些特征对侧方车辆进行准确识别,进而确定侧方车辆的位置信息,用以避免目标车辆与侧方车辆发生碰撞等事故。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种车辆位置检测方法的流程示意图;
图2为本申请实施例提供的图像采集设备具有固定视角时的位置示意图;
图3a为本申请实施例提供的不同第一视角的示意图;
图3b为本申请实施例提供的图像采集设备具有第一视角时的位置示意图;
图4a为本申请实施例提供的不同第二视角的示意图;
图4b为本申请实施例提供的图像采集设备具有第二视角时的位置示意图;
图5为本申请实施例提供的真实图像与虚拟图像的示意图;
图6为本申请实施例提供的左侧车辆位置信息的确定方法的流程示意图;
图7为本申请实施例提供的车轮检测区域示意图;
图8为本申请实施例提供的车轮检测结果示意图;
图9为本申请实施例提供的机器学习与光流跟踪融合结果示意图;
图10为本申请实施例提供的右侧车辆位置信息的确定方法的流程示意图;
图11为本申请实施例提供的一种车辆位置检测装置的组成示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
第一实施例
参见图1,为本实施例提供的一种车辆位置检测方法的流程示意图,该车辆位置检测方法包括以下步骤:
S101:获取目标车辆上安装的图像采集设备对所述目标车辆前方区域拍摄的真实图像,其中,所述真实图像为所述图像采集设备在当前时刻以固定视角拍摄的图像。
为便于描述,本实施例将驾驶员驾驶的车辆称为目标车辆。
在本实施例中,可以预先将一图像采集设备安装于目标车辆上,比如,该图像采集设备可以是相机,具体可以是单目平面相机。参见图2所示,可以将一图像采集设备安装于目标车辆的车头位置,当然也可以安装于车顶上,使该图像采集设备能够对目标车辆的前方区域进行拍照,其中,该前方区域包括目标车辆的正前方区域和侧前方区域,该侧前方区域又包括左侧前方区域和右侧前方区域。在进行拍照时,具体可以按照预设时间间隔(比如每间隔0.5秒)或者按照预设前进间隔(比如目标车辆每向前行驶0.3米),对目标车辆的前方区域进行拍照,从而获取每一时刻拍摄的真实图像,本实施例将当前拍照时刻定义为当前时刻。
需要说明的是,可以预先设置图像采集设备的安装位置和图像采集设备参数,使图像采集设备的视角满足对拍摄范围的需求,这样,在使用该图像采集设备的过程中,使该图像采集设备以设置好的固定视角对前方区域进行拍照,如图2所示。
在本实施例中,可以基于目标车辆的运行车道,选择对目标车辆的哪侧车辆进行位置检测。具体地,当驾驶员驾驶目标车辆运行在左侧车道上时,即目标车辆左侧没有车道但右侧有车道,此时可以通过执行S102来检测目标车辆的右侧车辆的位置信息;当驾驶员驾驶目标车辆运行在右侧车道上时,即目标车辆右侧没有车道但左侧有车道,此时可以通过执行S102来检测目标车辆的左侧车辆的位置信息;当驾驶员驾驶目标车辆运行在中间车道上时,即目标车辆左侧和右侧均有车道,此时可以通过执行S102来同时检测目标车辆的两侧车辆的位置信息。
S102:根据所述真实图像生成虚拟图像,并根据所述虚拟图像确定所述目标车辆的侧方车辆的位置信息,其中,所述虚拟图像为当前时刻所述图像采集设备在预设视角下的图像,所述预设视角为所述固定视角在水平方向上被旋转预设角度后的视角。
在本实施例中,通过本步骤可以检测目标车辆的左侧前方车辆的位置信息,具体如下:
需要说明的是,如果目标车辆的左侧前方有车辆运行,对于图像采集设备在固定视角下对前方区域拍摄的真实图像,由于固定视角为向前视角,虽然该真实图像中包括目标车辆的左侧前方区域的物体,但是因拍摄视角问题,导致该真实图像可能无法捕捉到左侧前方车辆的有效特征,比如无法捕捉或无法清晰捕捉到车轮这类标志性特征,从而无法对该左侧前方车辆进行准确识别,进而无法确定该左侧前方车辆的位置信息。
为此,本实施例使固定视角下拍摄的真实图像,以不同于固定视角的左侧视角进行呈现,即,将固定视角向左旋转预设角度,旋转后得到的左侧视角即为所述预设视角,需要说明的是,这里并不将图像采集设备的视角进行真实旋转,而是在理论上进行旋转。这样,当生成左侧视角下的虚拟图像后,因视角转换,可以使虚拟图像包含左侧前方车辆的有效特征,从而可以基于这些特征对左侧前方车辆进行准确识别,进而确定左侧前方车辆的位置信息。
在本实施例中,通过本步骤可以检测目标车辆的右侧前方车辆的位置信息,具体如下:
需要说明的是,如果目标车辆的右侧前方有车辆运行,对于图像采集设备在固定视角下对前方区域拍摄的真实图像,由于固定视角为向前视角,虽然该真实图像中包括目标车辆的右侧前方区域的物体,但是因拍摄视角问题,导致该真实图像可能无法捕捉到右侧前方车辆的有效特征,比如无法捕捉或无法清晰捕捉到车轮这类标志性特征,从而无法对该右侧前方车辆进行准确识别,进而无法确定该右侧前方车辆的位置信息。
为此,本实施例使固定视角下拍摄的真实图像,以不同于固定视角的右侧视角进行呈现,即,将固定视角向右旋转预设角度,旋转后得到的右侧视角即为所述预设视角,需要说明的是,这里并不将图像采集设备的视角进行真实旋转,而是在理论上进行旋转。这样,当生成右侧视角下的虚拟图像后,因视角转换,可以使虚拟图像包含右侧前方车辆的有效特征,从而可以基于这些特征对右侧前方车辆进行准确识别,进而确定右侧前方车辆的位置信息。
综上,本实施例提供的车辆位置检测方法,利用目标车辆上安装的图像采集设备,在当前时刻以固定视角对目标车辆的前方区域进行拍照,得到一真实图像;然后,根据该真实图像生成预设视角下的虚拟图像,使该虚拟图像包含侧方车辆的有效特征,从而基于这些特征对侧方车辆进行准确识别,进而确定侧方车辆的位置信息,用以避免目标车辆与侧方车辆发生碰撞等事故。
第二实施例
本实施例将对第一实施例中步骤S102的具体实现方式进行介绍,具体是对如何检测目标车辆的左侧前方车辆的位置信息进行介绍。
在本实施例中,上述步骤S102中的所述预设角度可以为第一角度,所述第一视角可以为所述固定视角在水平方向上被逆时针旋转第一角度后的视角,基于此,若所述预设角度为所述第一角度,则所述目标车辆的侧方车辆为所述目标车辆的左侧车辆。
本实施例使固定视角下拍摄的真实图像,以不同于固定视角的左侧视角进行呈现,本实施例将该左侧视角称为第一视角。为便于理解该第一视角,现举例说明,该第一视角可以是将图2所示固定视角向左旋转一定角度后的视角,也即将固定视角在水平方向上逆时针旋转一定角度,本实施例将旋转的一定角度称为第一角度。
本实施例不对第一角度进行限定。例如,该第一角度可以是图3a左侧图所示的90度,当第一角度为90度时,图像采集设备安装于目标车辆时如图3b所示,此时,图像采集设备的视角方向向左,即视角方向与目标车辆的前进方向成90度。又例如,该第一角度也可以是图3a右侧图所示的30度,当第一角度为30度时,图像采集设备的视角方向与目标车辆的前进方向成30度。
需要说明的是,本实施例并不对图像采集设备的固定视角进行实际旋转,因此,固定视角对应的图像采集设备为真实图像采集设备,而第一视角对应的图像采集设备为虚拟图像采集设备。
在本实施例中,是基于固定视角下拍摄的真实图像,对该真实图像进行图像变换,得到第一视角下的图像,本实施例将该图像称为虚拟图像。可以理解的是,当第一视角不同时,会对应不同的虚拟图像,为了能够捕捉到左侧前方车辆的有效特征,可以实时地对第一视角进行调整,使虚拟图像包含左侧前方车辆的有效特征,从而基于这些特征对左侧前方车辆进行准确识别,进而确定左侧前方车辆的位置信息。
为了实现S102,需要预先建立真实平面坐标系与虚拟平面坐标系之间的坐标转换关系,其中,真实平面坐标系为固定视角下的成像平面对应的二维坐标系,虚拟平面坐标系为预设视角下的成像平面对应的二维坐标系,其中,该预设视角可以是第一视角。
现结合图2和图3b对真实平面坐标系和虚拟平面坐标系进行说明,具体地,图2所示真实图像采集设备的固定视角对应一成像平面,为该成像平面创建一二维坐标系uov,该二维坐标系uov即为真实平面坐标系,同样的,图3b所示虚拟图像采集设备的第一视角也对应一成像平面,为该成像平面创建一二维坐标系u1o1v1,该二维坐标系u1o1v1即为虚拟平面坐标系。
为便于区分,本实施例将固定视角对应的图像采集设备称为真实图像采集设备,将第一视角对应的图像采集设备称为虚拟图像采集设备。为了简便,在后续内容中,本实施例将目标车辆的左侧前方车辆简称为左侧车辆。
在本实施例的一种实现方式中,所述建立真实平面坐标系与虚拟平面坐标系之间的坐标转换关系,具体可以包括步骤A1-E1但不对步骤A1-E1的顺序进行限定:
步骤A1:建立真实平面坐标系与真实设备坐标系之间的坐标转换关系,其中,真实设备坐标系是当图像采集设备对应于固定视角时为图像采集设备构建的三维坐标系。
如上所示,图2所示的二维坐标系uov为真实平面坐标系。
在本实施例中,还为真实图像采集设备设置三维坐标系OcXcYcZc,定义该三维坐标系OcXcYcZc为真实设备坐标系,本实施例不限制真实设备坐标系OcXcYcZc的原点位置和坐标轴方向,只要目标车辆在行驶过程中,真实设备坐标系OcXcYcZc与真实图像采集设备的相对位置不变即可。例如,如图2所示,以真实图像采集设备的光心为原点Oc建立真实设备坐标系OcXcYcZc,Zc轴与真实图像采集设备的光轴重合,Xc和Yc轴分别平行于成像平面的ou轴和ov轴。
对于3D实际空间中任意一点p,其在真实设备坐标系OcXcYcZc中的坐标为p(xc,yc,zc),如果P点可以被真实图像采集设备拍摄到,那么,在真实平面坐标系uov中存在唯一的一点p(u,v)与之对应,对应关系可以描述为:
(u,v)=F(xc,yc,zc) (1)
其中,F为真实图像采集设备的投影模型,投影模型由该真实图像采集设备的内参决定,真实图像采集设备内参可以通过离线标定算法得到。
该公式(1)描述了真实平面坐标系uov与真实设备坐标系OcXcYcZc之间的坐标转换关系。在公式(1)中,真实图像采集设备对应的投影模型F为:
其中,f为真实图像采集设备的焦距,dx和dy分别为真实图像采集设备单个像素的宽和高的物理尺寸;u0和v0为真实图像采集设备的内参,(u0,v0)为真实图像采集设备的光轴与成像平面交点的像素坐标。
步骤B1:建立真实设备坐标系与真实世界坐标系之间的坐标转换关系,其中,真实世界坐标系是当图像采集设备对应于固定视角时构建的世界坐标系。
在本实施例中,还为真实图像采集设备构建世界坐标系OwXYZ,并定义该世界坐标系OwXYZ为真实世界坐标系,本实施例不限制真实世界坐标系OwXYZ的原点位置和坐标轴方向,只要目标车辆在行驶过程中,该真实世界坐标系OwXYZ与目标车辆的相对位置不变即可。例如,如图2所示,可以取真实图像采集设备上的某一点A,假设该真实图像采集设备为相机时,可以取该相机的光心作为点A,将经过点A的垂线(即经过点A且与地平面垂直的直线)与地平面的交点作为真实世界坐标系OwXYZ的原点Ow;关于真实世界坐标系OwXYZ的X轴、Y轴和Z轴,其中,Z轴可以指向目标车辆的车头前方,X轴可以指向目标车辆的右方,Y轴则垂直于X轴和Z轴并指向地下。又例如,对于图2所示原点Ow位置、X轴方向、Y轴方向以及Z轴方向这4个坐标元素,可以改变其中一个或多个坐标元素,比如可以将目标车辆上的某一点作为上述点A,还可以改变图2所示X轴、Y轴和Z轴的方向,即取其相反方向,将改变后的坐标系作为真实世界坐标系OwXYZ。
在本实施例中,可以预先测量真实设备坐标系OcXcYcZc的原点Oc距离地面的高度h,真实设备坐标系OcXcYcZc可以看做是真实世界坐标系OwXYZ依次绕X轴、Y轴、Z轴分别旋转α、β、γ角度得到的,图像采集设备安装于目标车辆后,α、β、γ则为固定值,可由外参标定算法确定。
对于3D实际空间中任意一点P,在真实设备坐标系OcXcYcZc中的坐标p(xc,yc,zc)和在真实世界坐标系OwXYZ中的坐标p(xw,yw,zw)存在如下转化关系:
其中,R为旋转矩阵,R矩阵可以由上述α、β、γ角度确定。
该公式(2)描述了真实设备坐标系OcXcYcZc与真实世界坐标系OwXYZ之间的坐标转换关系。
步骤C1:建立真实世界坐标系与虚拟世界坐标系之间的坐标转换关系,其中,虚拟世界坐标系是当图像采集设备对应于预设视角时构建的世界坐标系。
在本实施例中,为虚拟图像采集设备构建世界坐标系并定义该世界坐标系为虚拟世界坐标系,本实施例不限制虚拟世界坐标系的原点位置和坐标轴方向,只要目标车辆在行驶过程中,该虚拟世界坐标系与目标车辆的相对位置不变即可。例如,如图3b所示,可以取虚拟图像采集设备上某一点A,假设该虚拟图像采集设备为相机时,可以取该相机的光心作为点A,将经过点A的垂线(即经过该点且与地平面垂直的直线)与地平面的交点作为虚拟世界坐标系的原点关于虚拟世界坐标系的轴、Yl v轴和轴,其中,轴可以指向目标车辆的车头前方,轴可以指向目标车辆的左方,Yl v轴则垂直于轴和轴并指向地下。又例如,对于图3b所示原点位置、轴方向、Yl v轴方向以及轴方向这4个坐标元素,可以改变其中一个或多个坐标元素,比如可以将目标车辆上的某一点作为上述点A,还可以改变图3b所示轴、Yl v轴和轴的方向,即取其相反方向,将改变后的坐标系作为虚拟世界坐标系
需要说明的是,虚拟图像采集设备应相对于真实图像采集设备向车头方向前移S(S>0)米,其目的是使虚拟图像可以尽量覆盖到真实图像的左侧区域。
以图2所示的真实世界坐标系OwXYZ以及图3b所示的虚拟世界坐标系为例,对于3D实际空间中任意一点P,其在真实世界坐标系OwXYZ中的坐标为p(xw,yw,zw),若xw<0,则其为目标车辆的左侧区域的空间点,将其转换到虚拟世界坐标系下的坐标为坐标转换公式为:
xl v=zw-s
yl v=yw
zl v=-xw (3)
该公式(3)描述了真实世界坐标系OwXYZ与虚拟世界坐标系之间的坐标转换关系。
步骤D1:建立虚拟世界坐标系与虚拟设备坐标系之间的坐标转换关系,其中,虚拟设备坐标系是当图像采集设备对应于预设视角时为图像采集设备构建的三维坐标系。
在本实施例中,为虚拟图像采集设备设置三维坐标系定义该三维坐标系为虚拟设备坐标系,本实施例不限制虚拟设备坐标系的原点位置和坐标轴方向,只要目标车辆在行驶过程中,虚拟设备坐标系与虚拟图像采集设备的相对位置不变即可。例如,如图3b所示,以虚拟图像采集设备的光心为原点建立虚拟设备坐标系 轴与虚拟图像采集设备的光轴重合,指向目标车辆的车头方向,Yl vc指向地面。
对于3D实际空间中任意一点P,在虚拟设备坐标系中的坐标和在虚拟世界坐标系中的坐标p(xl v,yl v,zl v)存在如下转化关系:
其中,R为旋转矩阵。
该公式(4)描述了虚拟世界坐标系与虚拟设备坐标系之间的坐标转换关系。
步骤E1:建立虚拟设备坐标系与虚拟平面坐标系之间的坐标转换关系。
如图3b所示,对于3D实际空间中任意一点P,其在虚拟设备坐标系中的坐标为如果P点在虚拟图像中,那么,在虚拟平面坐标系u1o1v1中存在唯一的一点p(u1,v1)与之对应,对应关系可以描述为:
其中,F为虚拟图像采集设备的投影模型,由于虚拟图像采集设备是真实图像采集设备改变视角后的图像采集设备,因此,投影模型由真实图像采集设备的内参决定,真实图像采集设备内参可以通过离线标定算法得到。
该公式(5)描述了虚拟设备坐标系与虚拟平面坐标系u1o1v1之间的坐标转换关系。在公式(5)中,投影模型F为:
其中,f为虚拟图像采集设备的焦距,dxc1和dyc1分别为虚拟图像采集设备的单个像素的宽和高的物理尺寸;u01和v01为虚拟图像采集设备的内参,(u01,v01)为虚拟图像采集设备的光轴与成像平面交点的像素坐标。
在本实施例中,可以预先测量虚拟设备坐标系的原点距离地面的高度h,虚拟设备坐标系可以看做是虚拟世界坐标系依次绕X轴、Y轴、Z轴分别旋转α、β、γ角度得到的,虚拟图像采集设备与目标车辆的相对位置固定后,α、β、γ则为固定值,可由外参标定算法确定,这些参数可用于确定公式(4)的R矩阵。
需要说明的是,通过虚拟图像采集设备实现2D和3D图像的相互转换时,为了保证虚拟图像的成像效果,本实施例需要使目标车辆的近距离范围内的图像更清晰,因此需要设置较小的焦距,比如设置虚拟图像采集设备的焦距f为1;为了进一步保证图像清晰度,需要使单个像素的宽和高的物理尺寸较大,比如dxc1和dyc1为100;并且,还可以进一步设置较小的3D深度,比如使3D深度Z为1。
可见,通过建立上述一系列的坐标转换关系,从而建立了真实平面坐标系与虚拟平面坐标系之间的坐标转换关系。
基于此,在本实施例的一种实现方式中,第一实施例中S102中的“根据所述真实图像生成虚拟图像”具体可以包括:根据所述真实平面坐标系与所述虚拟平面坐标系之间的坐标转换关系,将所述真实图像转换为虚拟图像。在本实现方式中,可以确定真实图像中的每一像素点在真实平面坐标系中的坐标,然后根据上述公式(1)-(5)计算出每一像素点在虚拟平面坐标系中的坐标,使真实图像中的像素点进行坐标位置转换,从而生成虚拟图像。
可以理解的是,当目标车辆与左侧车辆处于不同的相对位置时,左侧车辆的车轮在真实图像中会表现出不同的形状,尤其是当左侧车辆太过靠近目标车辆的时候,左侧车辆的车轮在真实图像中只有很少的特征,但是,该车轮在虚拟图像中的特征较多,并且当采用不同第一视角时,不同相对位置的车轮会呈现出相似的形状,也就是说,本实施例不受目标车辆与左侧车辆之间的相对位置关系的限制,只要采用适当的第一视角便可以检测到左侧车辆的相似车轮形态,从而便于确定左侧车辆的位置。
为直观理解,现举例说明真实图像向虚拟图像的转换效果。如图5所示,图(a)和图(b)均为真实图像,这两幅图中显示的是同一左侧车辆,但与目标车辆的相对位置不同;图(c)为图(a)所示真实图像对应的虚拟图像,是图3a左侧图(也即图3b)所示的第一视角下的虚拟图像;图(d)为图(b)所示真实图像对应的虚拟图像,是图3a右侧图所示的第一视角下的虚拟图像,可以看出,图(b)所示车轮在在采用图3a左侧图所示第一视角生成虚拟图像时,车轮将不能该虚拟图像中显示出来。
基于此,在本实施例的一种实现方式中,第一实施例中S102中的“根据所述虚拟图像确定所述目标车辆的侧方车辆的位置信息”,具体可以通过对左侧车辆车轮的检测结果,来确定左侧车辆的位置信息。如图6所示,具体可以包括以下步骤:
S601:在所述虚拟图像中检测车轮,得到虚拟车轮区域。
将虚拟图像中的车轮作为感兴趣区域(region of interest,简称ROI)进行检测,本实施例将检测到的车轮ROI称为虚拟车轮区域。
在一种具体实施方式中,S601具体可以包括:利用车轮识别模型,在虚拟图像中检测车轮。在本实施方式中,需要预先收集大量的包括车轮的车辆样本图像,并对大量车辆样本图像中的车轮特征进行学习,得到用于识别车轮的车轮识别模型,这样,当生成虚拟图像后,可以利用该车轮识别模型检测虚拟图像中的车轮。
具体实现时,可以在虚拟图像的检测区域内使用滑动窗口采集车轮样本并进行检测。例如,检测区域如图7所示,分为左前、右前2个区域,每个区域大小为3.5m*(15-r)m,其中,r为真实图像采集设备能看到的最近距离,与真实图像采集设备的安装位置和外参有关。本实施例需要对左前区域进行检测,可以横向和纵向按0.3m或其它长度为步长,获取滑动窗口采集的车轮样本,通过所述车轮识别模型获得每一帧采集图像中车轮的检测结果。
现举例说明在虚拟图像中的车轮检测结果,如图8所示,图(a)和图(d)为真实图像,这两幅图中显示的是同一左侧车辆,但与目标车辆的相对位置不同;图(b)是图(a)所示真实图像对应的虚拟图像,是图3a左侧图(也即图3b)所示的第一视角下的虚拟图像;图(c)也是图(a)所示真实图像对应的虚拟图像,是图3a右侧图所示的第一视角下的虚拟图像;图(e)是图(d)所示真实图像对应的虚拟图像,是图3a左侧图(也即图3b)所示的第一视角下的虚拟图像;图(f)也是图(d)所示真实图像对应的虚拟图像,是图3a右侧图所示的第一视角下的虚拟图像。其中,在各个虚拟图像中,被一个或多个框所框选的区域,即为利用车轮识别模型检测到的车轮区域,但是,由于左侧车辆的位置原因导致图(e)无法显示车轮,故而选择从图(f)中检测车轮区域。
S602:根据所述真实平面坐标系与所述虚拟平面坐标系之间的坐标转换关系,将所述虚拟车轮区域转换到所述真实平面坐标系中,得到转换后的真实车轮区域。
在本实现方式中,可以确定虚拟车轮区域中的每一像素点在虚拟平面坐标系中的坐标,然后根据上述公式(1)-(5)计算出每一像素点在真实平面坐标系中的坐标,使真实图像中的像素点进行坐标位置转换,从而得到转换后的真实车轮区域。
S603:根据所述真实平面坐标系与所述真实世界坐标系之间的坐标转换关系,将所述真实车轮区域转换到所述真实世界坐标系中,得到所述目标车辆的侧方车辆车轮的位置信息,其中,该侧方车辆为左侧车辆。
在本实现方式中,可以确定真实车轮区域中的每一像素点在真实平面坐标系中的坐标,然后根据上述公式(1)-(5)中的相关公式,计算出每一像素点在真实世界坐标系中的坐标,即,确定了左侧车辆车轮在真实世界坐标中的坐标,然而,当确定了左侧车辆车轮在真实世界坐标系中的坐标,则可以根据左侧车辆与其车轮之间的位置关系,确定左侧车辆相对于目标车辆的位置。
实际应用中,如果该实施例应用于目标车辆的FCW系统,当确定左侧车辆与目标车辆之间的距离较近时,可以以光、声、振动等形式警告驾驶员;如果该实施例应用于目标车辆的ACC系统,当确定左侧车辆与目标车辆之间的距离较近时,可以控制目标车辆与左侧车辆之间的间隙,以保证目标车辆的行驶安全。
进一步地,在上述步骤S601中,当采用车轮识别模型在虚拟图像中检测车轮时,检测结果中可能存在一些误识别部分,这将导致步骤S602得到的区域图像中存在非车轮区域。因此,本实施例还实时地对目标车辆的侧方车辆车轮进行光流跟踪,得到当前时刻的真实车轮区域,即得到光流跟踪到的真实车轮区域,以便利用光流跟踪到的真实车轮区域,去除步骤S602中的非车轮区域。
其中,所述得到所述当前时刻的真实车轮区域,即得到光流跟踪到的真实车轮区域,具体可以包括:对当前时刻的光流跟踪图像进行边缘补图,根据补图后的光流跟踪图像,得到侧方车辆车轮的真实车轮区域。具体来讲,现有的光流跟踪方法对处于跟踪图像边界的目标物体跟踪效果不理想,本实施例中的目标物体为左侧车辆车轮,而左侧车辆车轮恰好多数时候都出现在跟踪图像的左侧,因此,本本实施例对跟踪图像进行边缘补图,比如在图像边缘增加白色区域,然后采用金字塔LK(Lucas Kanade)光流方法,在补图图像中进行车轮跟踪,可以提升跟踪结果的准确性。
基于上述内容,在本实施例的一种实现方式中,上述步骤S602之后还可以包括:将转换后的真实车轮区域与光流跟踪到的真实车轮区域进行融合,得到融合后的真实车轮区域。在本实现方式中,当获取到光流跟踪结果后,将其与步骤S602中的图像转换结果进行融合,能够去除图像转换结果中的非车轮区域,比如图9所示,框选区域为融合结果,之后,利用融合后的真实车轮区域执行后续步骤S603。
进一步地,对于融合后的真实车轮区域,还可能存在非车轮区域,为了保证车轮检测结果的准确性,在本实施例的一种实现方式中,当得到融合后的真实车轮区域之后,还可以包括:对于当前时刻之前的一个历史时刻或多个连续历史时刻,获取每一历史时刻对应的最终的真实车轮区域;根据历史时刻对应的最终的真实车轮区域,判断融合后的真实车轮区域中是否存在非车轮区域,若是,则去除该非车轮区域。在本实现方式中,采用前向关联的方式,获取当前时刻之前的一个最近检测时刻或多个最近连续时刻,这些检测时刻均为历史时刻,当每一历史时刻作为所述当前时刻时,均基于真实图像对左侧车辆的车轮进行检测,从而得到最终的真实车轮区域,由于当前时刻与这些历史时刻构成连续时间点,可以基于检测到的车轮区域,确定车轮在这一系列时间点的变化情况,由于车轮变化位置应是连续的,故而可以以此判断当前时刻对应的融合后的真实车轮区域中是否存在非车轮区域,从而去除非车轮区域,之后,利用经去除操作得到的真实车轮区域执行后续步骤S603。
综上,本实施例可以通过坐标变换关系,将真实图像转换为虚拟图像,并可以在虚拟图像中检测车轮,通过车轮检测结果来确定目标车辆的左侧车辆的位置信息。具体地,可以通过机器学习、光流跟踪、以及多时刻图像关联等结合方式对车轮区域进行检测,提高了车轮检测结果的准确性,从而提升了左侧车辆的位置检测结果的准确性。
第三实施例
本实施例将对第一实施例中步骤S102的具体实现方式进行介绍,具体是对如何检测目标车辆的右侧前方车辆的位置信息进行介绍。
在本实施例中,上述步骤S102中的所述预设角度可以为第二角度,所述第二视角为所述固定视角在水平方向上被顺时针旋转第二角度后的视角,基于此,若所述预设角度为所述第二角度,则所述目标车辆的侧方车辆为所述目标车辆的右侧车辆。
本实施例使固定视角下拍摄的真实图像,以不同于固定视角的右侧视角进行呈现,本实施例将该右侧视角称为第二视角。为便于理解该第二视角,现举例说明,该第二视角可以是将图2所示固定视角向右旋转一定角度后的视角,也即将固定视角在水平方向上顺时针旋转一定角度,本实施例将旋转的一定角度称为第二角度。
本实施例不对第二角度进行限定。例如,该第二角度可以是图4a左侧图所示的90度,当第二角度为90度时,图像采集设备安装于目标车辆时如图4b所示,此时,图像采集设备的视角方向向右,即视角方向与目标车辆的前进方向成90度。又例如,该第二角度也可以是图4a右侧图所示的30度,当第二角度为30度时,图像采集设备的视角方向与目标车辆的前进方向成30度。
需要说明的是,本实施例并不对图像采集设备的固定视角进行实际旋转,因此,固定视角对应的图像采集设备为真实图像采集设备,而第二视角对应的图像采集设备为虚拟图像采集设备。
此外,第二实施例中的第一视角、本实施例中的第二视角以及固定视角的方向,可以与地面平行、也可以与地面成一定角度,实际应用时可以根据经验设定。
在本实施例中,是基于固定视角下拍摄的真实图像,对该真实图像进行图像变换,得到第二视角下的图像,本实施例将该图像称为虚拟图像。可以理解的是,当第二视角不同时,会对应不同的虚拟图像,为了能够捕捉到右侧前方车辆的有效特征,可以实时地对第二视角进行调整,使虚拟图像包含右侧前方车辆的有效特征,从而基于这些特征对右侧前方车辆进行准确识别,进而确定右侧前方车辆的位置信息。
了实现S102,需要预先建立真实平面坐标系与虚拟平面坐标系之间的坐标转换关系,其中,真实平面坐标系为固定视角下的成像平面对应的二维坐标系,虚拟平面坐标系为预设视角下的成像平面对应的二维坐标系,其中,该预设视角可以是第二视角。
现结合图2和图4b对真实平面坐标系和虚拟平面坐标系进行说明,具体地,图2所示真实图像采集设备的固定视角对应一成像平面,为该成像平面创建一二维坐标系uov,该二维坐标系uov即为真实平面坐标系,同样的,图4b所示虚拟图像采集设备的第二视角也对应一成像平面,为该成像平面创建一二维坐标系u2o2v2,该二维坐标系u2o2v2即为虚拟平面坐标系。
需要说明的是,当第二实施例中的真实平面坐标系与本实施例中的真实平面坐标系为同一坐标系时,只创建一次即可。
为便于区分,本实施例将固定视角对应的图像采集设备称为真实图像采集设备,将第二视角对应的图像采集设备称为虚拟图像采集设备。为了简便,在后续内容中,本实施例将目标车辆的右侧前方车辆简称为右侧车辆。
在本实施例的一种实现方式中,所述建立真实平面坐标系与虚拟平面坐标系之间的坐标转换关系,具体可以包括步骤A2-E2但不对步骤A2-E2的顺序进行限定:
步骤A2:建立真实平面坐标系与真实设备坐标系之间的坐标转换关系,其中,真实设备坐标系是当图像采集设备对应于固定视角时为图像采集设备构建的三维坐标系。
需要说明的是,本步骤A2与第二实施例中的步骤A1相同,相关内容请参见步骤A1,此处不再赘述。并且,步骤A1和步骤A2可以只执行一次。
步骤B2:建立真实设备坐标系与真实世界坐标系之间的坐标转换关系,其中,真实世界坐标系是当图像采集设备对应于固定视角时构建的世界坐标系。
需要说明的是,本步骤B2与第二实施例中的步骤B1相同,相关内容请参见步骤B1,此处不再赘述。并且,步骤B1和步骤B2可以只执行一次。
步骤C2:建立真实世界坐标系与虚拟世界坐标系之间的坐标转换关系,其中,虚拟世界坐标系是当图像采集设备对应于预设视角时构建的世界坐标系。
在本实施例中,为虚拟图像采集设备构建世界坐标系并定义该世界坐标系为虚拟世界坐标系,本实施例不限制虚拟世界坐标系的原点位置和坐标轴方向,只要目标车辆在行驶过程中,该虚拟世界坐标系与目标车辆的相对位置不变即可。例如,如图4b所示,可以取虚拟图像采集设备上某一点A,假设该虚拟图像采集设备为相机时,可以取该相机的光心作为点A,将经过点A的垂线(即经过该点且与地平面垂直的直线)与地平面的交点作为虚拟世界坐标系的原点关于虚拟世界坐标系的轴、Yr v轴和轴,其中,轴可以指向目标车辆的车尾,轴可以指向目标车辆的右方,Yr v轴则垂直于轴和轴并指向地下。又例如,对于图4b所示原点位置、轴方向、Yr v轴方向以及轴方向这4个坐标元素,可以改变其中一个或多个坐标元素,比如可以将目标车辆上的某一点作为上述点A,还可以改变图4b所示轴、Yr v轴和轴的方向,即取其相反方向,将改变后的坐标系作为虚拟世界坐标系
需要说明的是,虚拟图像采集设备应相对于真实图像采集设备向车头方向前移S(S>0)米,其目的是使虚拟图像可以尽量覆盖到真实图像的右侧区域。
以图2所示的真实世界坐标系OwXYZ以及图4b所示的虚拟世界坐标系为例,对于3D实际空间中任意一点P,其在真实世界坐标系OwXYZ中的坐标为p(xw,yw,zw),若xw>0,则其为目标车辆的右侧区域的空间点,将其转换到虚拟世界坐标系下的坐标为p(xr v,yr v,zr v),坐标转换公式为:
xr v=zw-s
yr v=yw
zr v=xw (6)
该公式(6)描述了真实世界坐标系OwXYZ与虚拟世界坐标系之间的坐标转换关系。
步骤D2:建立虚拟世界坐标系与虚拟设备坐标系之间的坐标转换关系,其中,虚拟设备坐标系是当图像采集设备对应于预设视角时为图像采集设备构建的三维坐标系。
在本实施例中,为虚拟图像采集设备设置三维坐标系定义该三维坐标系为虚拟设备坐标系,本实施例不限制虚拟设备坐标系的原点位置和坐标轴方向,只要目标车辆在行驶过程中,虚拟设备坐标系与虚拟图像采集设备的相对位置不变即可。例如,如图4b所示,以虚拟图像采集设备的光心为原点建立虚拟设备坐标系 轴与虚拟图像采集设备的光轴重合,指向目标车辆的车尾,Yr vc指向地面。
对于3D实际空间中任意一点P,在虚拟设备坐标系中的坐标和在虚拟世界坐标系中的坐标p(xr v,yr v,zr v)存在如下转化关系:
其中,R为旋转矩阵。
该公式(7)描述了虚拟世界坐标系与虚拟设备坐标系之间的坐标转换关系。
步骤E2:建立虚拟设备坐标系与虚拟平面坐标系之间的坐标转换关系。
如图4b所示,对于3D实际空间中任意一点P,其在虚拟设备坐标系中的坐标为如果P点在虚拟图像中,那么,在虚拟平面坐标系u2o2v2中存在唯一的一点p(u2,v2)与之对应,对应关系可以描述为:
其中,F为虚拟图像采集设备的投影模型,由于虚拟图像采集设备是真实图像采集设备改变视角后的图像采集设备,因此,投影模型由真实图像采集设备的内参决定,真实图像采集设备内参可以通过离线标定算法得到。
该公式(8)描述了虚拟设备坐标系与虚拟平面坐标系u2o2v2之间的坐标转换关系。在公式(8)中,投影模型F为:
其中,f为虚拟图像采集设备的焦距,dxc2和dyc2分别为虚拟图像采集设备的单个像素的宽和高的物理尺寸;u02和v02为虚拟图像采集设备的内参,(u02,v02)为虚拟图像采集设备的光轴与成像平面交点的像素坐标。
在本实施例中,可以预先测量虚拟设备坐标系的原点距离地面的高度h,虚拟设备坐标系可以看做是虚拟世界坐标系依次绕X轴、Y轴、Z轴分别旋转α、β、γ角度得到的,虚拟图像采集设备与目标车辆的相对位置固定后,α、β、γ则为固定值,可由外参标定算法确定,这些参数可用于确定公式(7)的R矩阵。
需要说明的是,通过虚拟图像采集设备实现2D和3D图像的相互转换时,为了保证虚拟图像的成像效果,本实施例需要使目标车辆的近距离范围内的图像更清晰,因此需要设置较小的焦距,比如设置虚拟图像采集设备的焦距f为1;为了进一步保证图像清晰度,需要使单个像素的宽和高的物理尺寸较大,比如dxc2和dyc2为100;并且,还可以进一步设置较小的3D深度,比如使3D深度Z为1。
可见,通过建立上述一些列的坐标转换关系,从而建立了真实平面坐标系与虚拟平面坐标系之间的坐标转换关系。
基于此,在本实施例的一种实现方式中,第一实施例中S102中的“根据所述真实图像生成虚拟图像”具体可以包括:根据所述真实平面坐标系与所述虚拟平面坐标系之间的坐标转换关系,将所述真实图像转换为虚拟图像。在本实现方式中,可以确定真实图像中的每一像素点在真实平面坐标系中的坐标,然后根据上述公式(1)-(2)以及(6)-(8)计算出每一像素点在虚拟平面坐标系中的坐标,使真实图像中的像素点进行坐标位置转换,从而生成虚拟图像。
可以理解的是,当目标车辆与右侧车辆处于不同的相对位置时,右侧车辆的车轮在真实图像中会表现出不同的形状,尤其是当右侧车辆太过靠近目标车辆的时候,右侧车辆的车轮在真实图像中只有很少的特征,但是,该车轮在虚拟图像中的特征较多,并且当采用不同第二视角时,不同相对位置的车轮会呈现出相似的形状,也就是说,本实施例不受目标车辆与右侧车辆之间的相对位置关系的限制,只要采用适当的第二视角便可以检测到右侧车辆的相似车轮形态,从而便于确定右侧车辆的位置。
基于此,在本实施例的一种实现方式中,第一实施例中S102中的“根据所述虚拟图像确定所述目标车辆的侧方车辆的位置信息”,具体可以通过对右侧车辆车轮的检测结果,来确定右侧车辆的位置信息。如图10所示,具体可以包括以下步骤:
S1001:在所述虚拟图像中检测车轮,得到虚拟车轮区域。
将虚拟图像中的车轮作为感兴趣区域(region of interest,简称ROI)进行检测,本实施例将检测到的车轮ROI称为虚拟车轮区域。
在一种具体实施方式中,S1001具体可以包括:利用车轮识别模型,在所述虚拟图像中检测车轮。在本实施方式中,需要预先收集大量的包括车轮的车辆样本图像,并对大量车辆样本图像中的车轮特征进行学习,得到用于识别车轮的车轮识别模型,这样,当生成虚拟图像后,可以利用该车轮识别模型检测虚拟图像中的车轮。
需要说明的是,上述第二实施例以及本实施例均需要用到车轮识别模型,当上述第二实施例以及本实施例的车轮识别模型是同一模型时,只需训练一次即可,当然,也可以分别针对左侧车辆和右侧车辆分别训练车轮识别模型。
具体实现时,可以在虚拟图像的检测区域内使用滑动窗口采集车轮样本并进行检测。如图7所示,本实施例需要对右前区域进行检测,可以横向和纵向按0.3m或其它长度为步长,获取滑动窗口采集的车轮样本,通过所述车轮识别模型获得每一帧采集图像中车轮的检测结果。
S1002:根据所述真实平面坐标系与所述虚拟平面坐标系之间的坐标转换关系,将所述虚拟车轮区域转换到所述真实平面坐标系中,得到转换后的真实车轮区域。
在本实现方式中,可以确定虚拟车轮区域中的每一像素点在虚拟平面坐标系中的坐标,然后根据上述公式(1)-(2)以及(6)-(8)计算出每一像素点在真实平面坐标系中的坐标,使真实图像中的像素点进行坐标位置转换,从而得到转换后的真实车轮区域。
S1003:根据所述真实平面坐标系与所述真实世界坐标系之间的坐标转换关系,将所述真实车轮区域转换到所述真实世界坐标系中,得到所述目标车辆的侧方车辆车轮的位置信息,其中,该侧方车辆为右侧车辆。
在本实现方式中,可以确定真实车轮区域中的每一像素点在真实平面坐标系中的坐标,然后根据上述公式(1)-(2)以及(6)-(8)中的相关公式,计算出每一像素点在真实世界坐标系中的坐标,即,确定了右侧车辆车轮在真实世界坐标中的坐标,然而,当确定了右侧车辆车轮在真实世界坐标中的坐标,则可以根据右侧车辆与其车轮之间的位置关系,确定右侧车辆相对于目标车辆的位置。
实际应用中,如果该实施例应用于目标车辆的FCW系统,当确定右侧车辆与目标车辆之间的距离较近时,可以以光、声、振动等形式警告驾驶员;如果该实施例应用于目标车辆的ACC系统,当确定右侧车辆与目标车辆之间的距离较近时,可以控制目标车辆与右侧车辆之间的间隙,以保证目标车辆的行驶安全。
进一步地,在上述步骤S1001中,当采用车轮识别模型在虚拟图像中检测车轮时,检测结果中可能存在一些误识别部分,这将导致步骤S1002得到的区域图像中存在非车轮区域。因此,本实施例还实时地对目标车辆的侧方车辆车轮进行光流跟踪,得到当前时刻的真实车轮区域,即得到光流跟踪到的真实车轮区域,以便利用光流跟踪到的真实车轮区域,去除步骤S1002中的非车轮区域。
其中,所述得到所述当前时刻的真实车轮区域,即得到光流跟踪到的真实车轮区域,具体可以包括:对当前时刻的光流跟踪图像进行边缘补图,根据补图后的光流跟踪图像,得到侧方车辆车轮的真实车轮区域。具体来讲,现有的光流跟踪方法对处于跟踪图像边界的目标物体跟踪效果不理想,本实施例中的目标物体为右侧车辆车轮,而右侧车辆车轮恰好多数时候都出现在跟踪图像的右侧,因此,本本实施例对跟踪图像进行边缘补图,比如在图像边缘增加白色区域,然后采用金字塔LK(Lucas Kanade)光流方法,在补图图像中进行车轮跟踪,可以提升跟踪结果的准确性。
基于上述内容,在本实施例的一种实现方式中,上述步骤S1002之后还可以包括:将转换后的真实车轮区域与光流跟踪到的真实车轮区域进行融合,得到融合后的真实车轮区域。在本实现方式中,当获取到光流跟踪结果后,将其与步骤S1002中的图像转换结果进行融合,能够去除图像转换结果中的非车轮区域,之后,利用融合后的真实车轮区域执行后续步骤S1003。
进一步地,对于融合后的真实车轮区域,还可能存在非车轮区域,为了保证车轮检测结果的准确性,在本实施例的一种实现方式中,当得到融合后的真实车轮区域之后,还可以包括:对于当前时刻之前的一个历史时刻或多个连续历史时刻,获取每一历史时刻对应的最终的真实车轮区域;根据历史时刻对应的最终的真实车轮区域,判断融合后的真实车轮区域中是否存在非车轮区域,若是,则去除该非车轮区域。在本实现方式中,采用前向关联的方式,获取当前时刻之前的一个最近检测时刻或多个最近连续时刻,这些检测时刻均为历史时刻,当每一历史时刻作为所述当前时刻时,均基于真实图像对右侧车辆的车轮进行检测,从而得到最终的真实车轮区域,由于当前时刻与这些历史时刻构成连续时间点,可以基于检测到的车轮区域,确定车轮在这一系列时间点的变化情况,由于车轮变化位置应是连续的,故而可以以此判断当前时刻对应的融合后的真实车轮区域中是否存在非车轮区域,从而去除非车轮区域,之后,利用经去除操作得到的真实车轮区域执行后续步骤S1003。
综上,本实施例可以通过坐标变换关系,将真实图像转换为虚拟图像,并可以在虚拟图像中检测车轮,通过车轮检测结果来确定目标车辆的右侧车辆的位置信息。具体地,可以通过机器学习、光流跟踪、以及多时刻图像关联等结合方式对车轮区域进行检测,提高了车轮检测结果的准确性,从而提升了右侧车辆的位置检测结果的准确性。
第四实施例
参见图11,为本实施例提供的一种车辆位置检测装置的组成示意图,该装置1100包括:
真实图像获取单元1101,用于获取目标车辆上安装的图像采集设备对所述目标车辆前方区域拍摄的真实图像,其中,所述真实图像为所述图像采集设备在当前时刻以固定视角拍摄的图像;
虚拟图像生成单元1102,用于根据所述真实图像生成虚拟图像,其中,所述虚拟图像为当前时刻所述图像采集设备在预设视角下的图像,所述预设视角为所述固定视角在水平方向上被旋转预设角度后的视角;
车辆位置确定单元1103,用于根据所述虚拟图像确定所述目标车辆的侧方车辆的位置信息。
在实施例的一种实现方式中,所述预设角度可以为第一角度或第二角度,所述第一视角为所述固定视角在水平方向上被逆时针旋转第一角度后的视角,所述第二视角为所述固定视角在水平方向上被顺时针旋转第二角度后的视角;
相应地,若所述预设角度为所述第一角度,则所述目标车辆的侧方车辆为所述目标车辆的左侧车辆;若所述预设角度为所述第二角度,则所述目标车辆的侧方车辆为所述目标车辆的右侧车辆。
在实施例的一种实现方式中,所述装置1100还可以包括:
转换关系建立单元,用于建立真实平面坐标系与虚拟平面坐标系之间的坐标转换关系,其中,所述真实平面坐标系为所述固定视角下的成像平面对应的二维坐标系,所述虚拟平面坐标系为所述预设视角下的成像平面对应的二维坐标系;
则,所述虚拟图像生成单元1102,具体用于根据所述真实平面坐标系与所述虚拟平面坐标系之间的坐标转换关系,将所述真实图像转换为虚拟图像。
在实施例的一种实现方式中,所述转换关系建立单元包括:
第一建立子单元,用于建立所述真实平面坐标系与真实设备坐标系之间的坐标转换关系,所述真实设备坐标系是当所述图像采集设备对应于所述固定视角时为所述图像采集设备构建的三维坐标系;
第二建立子单元,用于建立所述真实设备坐标系与真实世界坐标系之间的坐标转换关系,所述真实世界坐标系是当所述图像采集设备对应于所述固定视角时构建的世界坐标系;
第三建立子单元,用于建立所述真实世界坐标系与虚拟世界坐标系之间的坐标转换关系,所述虚拟世界坐标系是当所述图像采集设备对应于所述预设视角时构建的世界坐标系;
第四建立子单元,用于建立所述虚拟世界坐标系与虚拟设备坐标系之间的坐标转换关系,所述虚拟设备坐标系是当所述图像采集设备对应于所述预设视角时为所述图像采集设备构建的三维坐标系;
第五建立子单元,用于建立所述虚拟设备坐标系与所述虚拟平面坐标系之间的坐标转换关系。
在实施例的一种实现方式中,所述车辆位置确定单元1103可以包括:
虚拟车轮检测子单元,用于在所述虚拟图像中检测车轮,得到虚拟车轮区域;
真实车轮获取子单元,用于根据所述真实平面坐标系与所述虚拟平面坐标系之间的坐标转换关系,将所述虚拟车轮区域转换到所述真实平面坐标系中,得到转换后的真实车轮区域;
车辆位置确定子单元,用于根据所述真实平面坐标系与所述真实世界坐标系之间的坐标转换关系,将所述真实车轮区域转换到所述真实世界坐标系中,得到所述目标车辆的侧方车辆车轮的位置信息。
在实施例的一种实现方式中,所述装置1100还可以包括:
识别模型创建单元,用于对大量车辆样本图像中的车轮特征进行学习,得到用于识别车轮的车轮识别模型;
则,所述虚拟车轮检测子单元,具体用于利用所述车轮识别模型,在所述虚拟图像中检测车轮。
在实施例的一种实现方式中,所述装置1100还可以包括:
光流跟踪单元,用于对所述目标车辆的侧方车辆车轮进行光流跟踪,得到所述当前时刻的真实车轮区域;
则,所述车辆位置确定单元1103还可以包括:
车轮融合子单元,用于得到转换后的真实车轮区域之后,将转换后的真实车轮区域与光流跟踪到的真实车轮区域进行融合,得到融合后的真实车轮区域。
在实施例的一种实现方式中,所述光流跟踪单元包括:
光流跟踪子单元,用于对所述目标车辆的侧方车辆车轮进行光流跟踪;
边缘补图子单元,用于对所述当前时刻的光流跟踪图像进行边缘补图;
区域获取子单元,用于根据补图后的光流跟踪图像,得到所述侧方车辆车轮的真实车轮区域。
在实施例的一种实现方式中,所述车辆位置确定单元1103还可以包括:
历史车轮获取子单元,用于在得到融合后的真实车轮区域之后,对于所述当前时刻之前的一个历史时刻或多个连续历史时刻,获取所述历史时刻对应的最终的真实车轮区域;
区域去除子单元,用于根据所述历史时刻对应的最终的真实车轮区域,判断所述融合后的真实车轮区域中是否存在非车轮区域,若是,则去除所述非车轮区域。
进一步地,本申请实施例还提供了一种车辆位置检测装置,包括:处理器、存储器、系统总线;
所述处理器以及所述存储器通过所述系统总线相连;
所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行上述车辆位置检测方法的任一种实现方法。
进一步地,本申请实施例还提供了一种计算机可读存储介质,所述机算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行上述车辆位置检测方法的任一种实现方法。
进一步地,本申请实施例还提供了一种计算机程序产品,所述计算机程序产品在终端设备上运行时,使得所述终端设备执行上述车辆位置检测方法的任一种实现方法。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到上述实施例方法中的全部或部分步骤可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者诸如媒体网关等网络通信设备,等等)执行本申请各个实施例或者实施例的某些部分所述的方法。
需要说明的是,本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种车辆位置检测方法,其特征在于,包括:
获取目标车辆上安装的图像采集设备对所述目标车辆前方区域拍摄的真实图像,其中,所述真实图像为所述图像采集设备在当前时刻以固定视角拍摄的图像;
根据所述真实图像生成虚拟图像,并根据所述虚拟图像确定所述目标车辆的侧方车辆的位置信息,其中,所述虚拟图像为当前时刻所述图像采集设备在预设视角下的图像,所述预设视角为所述固定视角在水平方向上被旋转预设角度后的视角。
2.根据权利要求1所述的方法,其特征在于,所述预设角度为第一角度或第二角度,所述第一视角为所述固定视角在水平方向上被逆时针旋转第一角度后的视角,所述第二视角为所述固定视角在水平方向上被顺时针旋转第二角度后的视角;
相应地,若所述预设角度为所述第一角度,则所述目标车辆的侧方车辆为所述目标车辆的左侧车辆;若所述预设角度为所述第二角度,则所述目标车辆的侧方车辆为所述目标车辆的右侧车辆。
3.根据权利要求1或2所述的方法,其特征在于,所述方法还包括:
建立真实平面坐标系与虚拟平面坐标系之间的坐标转换关系,其中,所述真实平面坐标系为所述固定视角下的成像平面对应的二维坐标系,所述虚拟平面坐标系为所述预设视角下的成像平面对应的二维坐标系;
则,所述根据所述真实图像生成虚拟图像,包括:
根据所述真实平面坐标系与所述虚拟平面坐标系之间的坐标转换关系,将所述真实图像转换为虚拟图像。
4.根据权利要求3所述的方法,其特征在于,所述建立真实平面坐标系与虚拟平面坐标系之间的坐标转换关系,包括:
建立所述真实平面坐标系与真实设备坐标系之间的坐标转换关系,所述真实设备坐标系是当所述图像采集设备对应于所述固定视角时为所述图像采集设备构建的三维坐标系;
建立所述真实设备坐标系与真实世界坐标系之间的坐标转换关系,所述真实世界坐标系是当所述图像采集设备对应于所述固定视角时构建的世界坐标系;
建立所述真实世界坐标系与虚拟世界坐标系之间的坐标转换关系,所述虚拟世界坐标系是当所述图像采集设备对应于所述预设视角时构建的世界坐标系;
建立所述虚拟世界坐标系与虚拟设备坐标系之间的坐标转换关系,所述虚拟设备坐标系是当所述图像采集设备对应于所述预设视角时为所述图像采集设备构建的三维坐标系;
建立所述虚拟设备坐标系与所述虚拟平面坐标系之间的坐标转换关系。
5.根据权利要求4所述的方法,其特征在于,所述根据所述虚拟图像确定所述目标车辆的侧方车辆的位置信息,包括:
在所述虚拟图像中检测车轮,得到虚拟车轮区域;
根据所述真实平面坐标系与所述虚拟平面坐标系之间的坐标转换关系,将所述虚拟车轮区域转换到所述真实平面坐标系中,得到转换后的真实车轮区域;
根据所述真实平面坐标系与所述真实世界坐标系之间的坐标转换关系,将所述真实车轮区域转换到所述真实世界坐标系中,得到所述目标车辆的侧方车辆车轮的位置信息。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
对所述目标车辆的侧方车辆车轮进行光流跟踪,得到所述当前时刻的真实车轮区域;
则,所述得到转换后的真实车轮区域之后,还包括:
将转换后的真实车轮区域与光流跟踪到的真实车轮区域进行融合,得到融合后的真实车轮区域。
7.一种车辆位置检测装置,其特征在于,包括:
真实图像获取单元,用于获取目标车辆上安装的图像采集设备对所述目标车辆前方区域拍摄的真实图像,其中,所述真实图像为所述图像采集设备在当前时刻以固定视角拍摄的图像;
虚拟图像生成单元,用于根据所述真实图像生成虚拟图像,其中,所述虚拟图像为当前时刻所述图像采集设备在预设视角下的图像,所述预设视角为所述固定视角在水平方向上被旋转预设角度后的视角;
车辆位置确定单元,用于根据所述虚拟图像确定所述目标车辆的侧方车辆的位置信息。
8.一种车辆位置检测装置,其特征在于,包括:处理器、存储器、系统总线;
所述处理器以及所述存储器通过所述系统总线相连;
所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行权利要求1-7任一项所述的方法。
9.一种计算机可读存储介质,其特征在于,所述机算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行权利要求1-7任一项所述的方法。
10.一种计算机程序产品,其特征在于,所述计算机程序产品在终端设备上运行时,使得所述终端设备执行权利要求1-7任一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810438659.3A CN108647638B (zh) | 2018-05-09 | 2018-05-09 | 一种车辆位置检测方法及装置 |
EP18182955.7A EP3566903B1 (en) | 2018-05-09 | 2018-07-11 | Method and apparatus for vehicle position detection |
JP2018146866A JP6675448B2 (ja) | 2018-05-09 | 2018-08-03 | 車両位置検出方法及び装置 |
US16/112,656 US10783657B2 (en) | 2018-05-09 | 2018-08-25 | Method and apparatus for vehicle position detection |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810438659.3A CN108647638B (zh) | 2018-05-09 | 2018-05-09 | 一种车辆位置检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108647638A true CN108647638A (zh) | 2018-10-12 |
CN108647638B CN108647638B (zh) | 2021-10-12 |
Family
ID=63047113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810438659.3A Active CN108647638B (zh) | 2018-05-09 | 2018-05-09 | 一种车辆位置检测方法及装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10783657B2 (zh) |
EP (1) | EP3566903B1 (zh) |
JP (1) | JP6675448B2 (zh) |
CN (1) | CN108647638B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110059393A (zh) * | 2019-04-11 | 2019-07-26 | 东软睿驰汽车技术(沈阳)有限公司 | 一种车辆的仿真测试方法、装置及系统 |
CN110363819A (zh) * | 2019-06-25 | 2019-10-22 | 华为技术有限公司 | 智能汽车中图像采集设备标定的方法和相关设备 |
CN110853366A (zh) * | 2019-11-20 | 2020-02-28 | 浙江大华技术股份有限公司 | 一种检测车辆停放位置方法及装置 |
CN111126336A (zh) * | 2019-12-31 | 2020-05-08 | 潍柴动力股份有限公司 | 样本采集方法、装置及设备 |
CN111860074A (zh) * | 2019-04-30 | 2020-10-30 | 北京市商汤科技开发有限公司 | 目标对象检测方法及装置、驾驶控制方法及装置 |
CN112389459A (zh) * | 2020-10-16 | 2021-02-23 | 爱驰汽车(上海)有限公司 | 基于全景环视的人机交互方法及装置 |
CN112686209A (zh) * | 2021-01-25 | 2021-04-20 | 深圳市艾为智能有限公司 | 基于车轮识别的车后盲区监测方法 |
CN113538317A (zh) * | 2021-08-24 | 2021-10-22 | 北京奇艺世纪科技有限公司 | 图像处理方法、装置、终端设备以及可读存储介质 |
CN113534214A (zh) * | 2021-09-09 | 2021-10-22 | 北斗天下卫星导航有限公司 | 一种车辆定位方法及装置 |
CN114705121A (zh) * | 2022-03-29 | 2022-07-05 | 智道网联科技(北京)有限公司 | 车辆位姿测量方法、装置及电子设备、存储介质 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021166169A1 (ja) * | 2020-02-20 | 2021-08-26 | 日本電信電話株式会社 | 車両状態推定方法、車両状態推定装置、及び車両状態推定プログラム |
CN111753663B (zh) * | 2020-05-25 | 2023-12-12 | 上海欧菲智能车联科技有限公司 | 目标检测方法及装置 |
CN111898491B (zh) * | 2020-07-15 | 2024-06-04 | 上海高德威智能交通系统有限公司 | 一种车辆逆向行驶的识别方法、装置及电子设备 |
CN112037159B (zh) * | 2020-07-29 | 2023-06-23 | 中天智控科技控股股份有限公司 | 一种跨相机道路空间融合及车辆目标检测跟踪方法及系统 |
WO2022033652A1 (en) * | 2020-08-12 | 2022-02-17 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Device for and method of image signal processing in a vehicle |
JP2022048454A (ja) * | 2020-09-15 | 2022-03-28 | マツダ株式会社 | 車両用表示装置 |
CN112308899B (zh) * | 2020-11-09 | 2024-05-07 | 北京经纬恒润科技股份有限公司 | 一种挂车角度识别方法及装置 |
CN113781796B (zh) * | 2021-08-18 | 2023-04-07 | 青岛图灵科技有限公司 | 基于视频虚拟线圈的车流量检测方法及装置 |
CN113824880B (zh) * | 2021-08-26 | 2023-05-19 | 国网浙江省电力有限公司双创中心 | 一种基于目标检测和uwb定位的车辆跟踪方法 |
CN114399399B (zh) * | 2022-03-25 | 2022-07-12 | 青岛慧拓智能机器有限公司 | 矿区车辆的卸载停靠方法、装置、计算机设备及存储介质 |
CN117291954A (zh) * | 2023-09-21 | 2023-12-26 | 小红书科技有限公司 | 生成光流数据集的方法、相关方法及相关产品 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103631698A (zh) * | 2013-12-20 | 2014-03-12 | 中安消技术有限公司 | 一种用于目标跟踪的摄像机ptz控制方法和装置 |
WO2015049418A1 (en) * | 2013-10-03 | 2015-04-09 | Jc Inertial Oy | Measuring angular information by inertial unit arranged to wheel |
CN105488454A (zh) * | 2015-11-17 | 2016-04-13 | 天津工业大学 | 基于单目视觉的前方车辆检测与测距 |
CN105711501A (zh) * | 2016-04-19 | 2016-06-29 | 深圳市航盛电子股份有限公司 | 一种基于汽车环视相机的盲区中车辆监测方法及系统 |
CN107248156A (zh) * | 2017-05-27 | 2017-10-13 | 广州地铁集团有限公司 | 分段点自动提取的踏面轮廓拟合方法 |
US20170371340A1 (en) * | 2016-06-27 | 2017-12-28 | Mobileye Vision Technologies Ltd. | Controlling host vehicle based on detected spacing between stationary vehicles |
CN107577988A (zh) * | 2017-08-03 | 2018-01-12 | 东软集团股份有限公司 | 实现侧方车辆定位的方法、装置及存储介质、程序产品 |
EP3306267A1 (en) * | 2015-05-27 | 2018-04-11 | Kyocera Corporation | Arithmetic logic device, camera device, vehicle and calibration method |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5666227A (en) | 1994-05-02 | 1997-09-09 | Ben-Ghiath; Yehoshua | Passive panoramic viewing systems |
JP2004157999A (ja) | 2002-10-18 | 2004-06-03 | D Link Corp | 空間画像の画像変換方法及びリアルタイム送信方法 |
JP6550690B2 (ja) * | 2014-05-15 | 2019-07-31 | 株式会社リコー | 表示装置、車両 |
JP6443236B2 (ja) * | 2015-06-16 | 2018-12-26 | 株式会社Jvcケンウッド | 虚像提示システム、画像投射装置および虚像提示方法 |
CN106991649A (zh) | 2016-01-20 | 2017-07-28 | 富士通株式会社 | 对摄像装置所捕获的文档图像进行校正的方法和装置 |
CN106203398B (zh) | 2016-07-26 | 2019-08-13 | 东软集团股份有限公司 | 一种检测车道边界的方法、装置和设备 |
WO2018051810A1 (ja) | 2016-09-16 | 2018-03-22 | ソニー株式会社 | 画像処理装置および方法、並びに画像処理システム |
-
2018
- 2018-05-09 CN CN201810438659.3A patent/CN108647638B/zh active Active
- 2018-07-11 EP EP18182955.7A patent/EP3566903B1/en active Active
- 2018-08-03 JP JP2018146866A patent/JP6675448B2/ja active Active
- 2018-08-25 US US16/112,656 patent/US10783657B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015049418A1 (en) * | 2013-10-03 | 2015-04-09 | Jc Inertial Oy | Measuring angular information by inertial unit arranged to wheel |
CN103631698A (zh) * | 2013-12-20 | 2014-03-12 | 中安消技术有限公司 | 一种用于目标跟踪的摄像机ptz控制方法和装置 |
EP3306267A1 (en) * | 2015-05-27 | 2018-04-11 | Kyocera Corporation | Arithmetic logic device, camera device, vehicle and calibration method |
CN105488454A (zh) * | 2015-11-17 | 2016-04-13 | 天津工业大学 | 基于单目视觉的前方车辆检测与测距 |
CN105711501A (zh) * | 2016-04-19 | 2016-06-29 | 深圳市航盛电子股份有限公司 | 一种基于汽车环视相机的盲区中车辆监测方法及系统 |
US20170371340A1 (en) * | 2016-06-27 | 2017-12-28 | Mobileye Vision Technologies Ltd. | Controlling host vehicle based on detected spacing between stationary vehicles |
CN107248156A (zh) * | 2017-05-27 | 2017-10-13 | 广州地铁集团有限公司 | 分段点自动提取的踏面轮廓拟合方法 |
CN107577988A (zh) * | 2017-08-03 | 2018-01-12 | 东软集团股份有限公司 | 实现侧方车辆定位的方法、装置及存储介质、程序产品 |
Non-Patent Citations (2)
Title |
---|
P. MERRIAUX ET AL: "Wheel odometry-based car localization and tracking on vectorial map", 《17TH INTERNATIONAL IEEE CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS (ITSC)》 * |
穆柯楠: "基于车—路视觉协同的行车环境感知方法研究", 《中国博士学位论文全文数据库》 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110059393A (zh) * | 2019-04-11 | 2019-07-26 | 东软睿驰汽车技术(沈阳)有限公司 | 一种车辆的仿真测试方法、装置及系统 |
CN111860074B (zh) * | 2019-04-30 | 2024-04-12 | 北京市商汤科技开发有限公司 | 目标对象检测方法及装置、驾驶控制方法及装置 |
CN111860074A (zh) * | 2019-04-30 | 2020-10-30 | 北京市商汤科技开发有限公司 | 目标对象检测方法及装置、驾驶控制方法及装置 |
CN110363819B (zh) * | 2019-06-25 | 2023-03-03 | 华为技术有限公司 | 智能汽车中图像采集设备标定的方法和相关设备 |
CN110363819A (zh) * | 2019-06-25 | 2019-10-22 | 华为技术有限公司 | 智能汽车中图像采集设备标定的方法和相关设备 |
CN110853366A (zh) * | 2019-11-20 | 2020-02-28 | 浙江大华技术股份有限公司 | 一种检测车辆停放位置方法及装置 |
CN111126336B (zh) * | 2019-12-31 | 2023-07-21 | 潍柴动力股份有限公司 | 样本采集方法、装置及设备 |
CN111126336A (zh) * | 2019-12-31 | 2020-05-08 | 潍柴动力股份有限公司 | 样本采集方法、装置及设备 |
CN112389459B (zh) * | 2020-10-16 | 2022-04-12 | 爱驰汽车(上海)有限公司 | 基于全景环视的人机交互方法及装置 |
CN112389459A (zh) * | 2020-10-16 | 2021-02-23 | 爱驰汽车(上海)有限公司 | 基于全景环视的人机交互方法及装置 |
CN112686209A (zh) * | 2021-01-25 | 2021-04-20 | 深圳市艾为智能有限公司 | 基于车轮识别的车后盲区监测方法 |
CN113538317A (zh) * | 2021-08-24 | 2021-10-22 | 北京奇艺世纪科技有限公司 | 图像处理方法、装置、终端设备以及可读存储介质 |
CN113538317B (zh) * | 2021-08-24 | 2023-12-15 | 北京奇艺世纪科技有限公司 | 图像处理方法、装置、终端设备以及可读存储介质 |
CN113534214A (zh) * | 2021-09-09 | 2021-10-22 | 北斗天下卫星导航有限公司 | 一种车辆定位方法及装置 |
CN114705121A (zh) * | 2022-03-29 | 2022-07-05 | 智道网联科技(北京)有限公司 | 车辆位姿测量方法、装置及电子设备、存储介质 |
CN114705121B (zh) * | 2022-03-29 | 2024-05-14 | 智道网联科技(北京)有限公司 | 车辆位姿测量方法、装置及电子设备、存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2019196164A (ja) | 2019-11-14 |
JP6675448B2 (ja) | 2020-04-01 |
EP3566903B1 (en) | 2021-12-01 |
US10783657B2 (en) | 2020-09-22 |
CN108647638B (zh) | 2021-10-12 |
US20190347819A1 (en) | 2019-11-14 |
EP3566903A1 (en) | 2019-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108647638A (zh) | 一种车辆位置检测方法及装置 | |
CN112292711B (zh) | 关联lidar数据和图像数据 | |
US10949684B2 (en) | Vehicle image verification | |
US20140267415A1 (en) | Road marking illuminattion system and method | |
US7103213B2 (en) | Method and apparatus for classifying an object | |
JP5089545B2 (ja) | 道路境界検出判断装置 | |
US8406472B2 (en) | Method and system for processing image data | |
JP6450294B2 (ja) | 物体検出装置、物体検出方法、及びプログラム | |
CN110555407B (zh) | 路面车辆空间识别方法及电子设备 | |
CN103578115A (zh) | 移动体识别系统以及移动体识别方法 | |
CN106796648A (zh) | 用于检测对象的系统和方法 | |
EP3594902B1 (en) | Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle | |
CN108645375B (zh) | 一种用于车载双目系统快速车辆测距优化方法 | |
CN108021899A (zh) | 基于双目相机的车载智能前车防撞预警方法 | |
CN109426802A (zh) | 雷达和视觉传感器系统的融合 | |
US20230266473A1 (en) | Method and system for object detection for a mobile robot with time-of-flight camera | |
KR102491527B1 (ko) | 카메라 영상에서 대상의 감지 | |
Hussain et al. | Multiple objects tracking using radar for autonomous driving | |
Weigel et al. | Vehicle tracking with lane assignment by camera and lidar sensor fusion | |
EP3629292A1 (en) | Reference point selection for extrinsic parameter calibration | |
Gehrig et al. | 6D vision goes fisheye for intersection assistance | |
Alefs et al. | Hypothesis based vehicle detection for increased simplicity in multi-sensor ACC | |
Pfeiffer et al. | Ground truth evaluation of the Stixel representation using laser scanners | |
CN115236672A (zh) | 障碍物信息生成方法、装置、设备及计算机可读存储介质 | |
Kimachi et al. | A vehicle recognition method robust against vehicles' overlapping based on stereo vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20200924 Address after: 201805 room 1703, No. 888, South Moyu Road, Anting Town, Jiading District, Shanghai Applicant after: NEUSOFT REACH AUTOMOTIVE TECHNOLOGY (SHANGHAI) Co.,Ltd. Address before: Hunnan rookie street Shenyang city Liaoning province 110179 No. 2 Applicant before: NEUSOFT Corp. Applicant before: NEUSOFT REACH AUTOMOTIVE TECHNOLOGY (SHANGHAI) Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |