CN110677491B - 用于车辆的旁车位置估计方法 - Google Patents

用于车辆的旁车位置估计方法 Download PDF

Info

Publication number
CN110677491B
CN110677491B CN201910959957.1A CN201910959957A CN110677491B CN 110677491 B CN110677491 B CN 110677491B CN 201910959957 A CN201910959957 A CN 201910959957A CN 110677491 B CN110677491 B CN 110677491B
Authority
CN
China
Prior art keywords
vehicle
vehicles
dimensional
point
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910959957.1A
Other languages
English (en)
Other versions
CN110677491A (zh
Inventor
刘玲
杨静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhengzhou Maitou Information Technology Co ltd
Original Assignee
Zhengzhou Maitou Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou Maitou Information Technology Co ltd filed Critical Zhengzhou Maitou Information Technology Co ltd
Priority to CN201910959957.1A priority Critical patent/CN110677491B/zh
Publication of CN110677491A publication Critical patent/CN110677491A/zh
Application granted granted Critical
Publication of CN110677491B publication Critical patent/CN110677491B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种用于车辆的旁车位置估计方法。包括:多辆能够联网的车辆利用其相机,对视野范围内车辆进行实时感知,获得单车视野的车辆三维点云;对单车视野内车辆的车牌进行识别;将识别的车牌匹配到相应的车辆三维点云上;将处于相对静止状态的车辆进行组网,形成可共享有效数据的局域车联网;基于局域车联网,进行多车视野的车辆三维点云的合成与拼接,得到全局三维点云;将全局三维点云共享至局域车联网内的所有车辆;在全局三维点云中标记出本车,从而获取本车与全局三维点云中其它车辆的位置关系。利用本发明,可以在交叉路口等车辆相对静止的交通场景中,扩展车辆的感知范围,同时使不具备感知能力的车辆感知到安全范围内的车辆信息。

Description

用于车辆的旁车位置估计方法
技术领域
本发明涉及一种位置识别方法,具体涉及一种用于车辆的旁车位置估计方法。
背景技术
目前,大多数车辆已经具备基本的基于计算机视觉的目标检测能力。然而,车辆在真实行车场景中,不可避免地会存在由于车辆遮挡、建筑物遮挡形成的视野盲区。仅通过传统的单个车辆的车辆检测,无法感知视野盲区内的车辆信息,容易引起交通事故。因此,现有的旁车位置估计技术存在无法估计盲区内的车辆信息的问题。
同时,现有的车辆目标检测结果是二维数据。二维数据缺少深度信息,无法实现物体之间真实三维距离的估计。三维点云是一种三维目标数据,然而,点云的精度直接影响后续分析与建模过程。因此,如何准确提取点云数据,反映车辆的关键信息,是现有旁车位置估计技术中亟待解决的问题。
因此,现有车辆检测技术存在感知范围有限、无法感知车辆真实三维位置、点云精度过低的问题。
发明内容
本发明提供了一种用于车辆的旁车位置估计方法,该方法可实现感知车辆真实三维位置、扩展感知范围,感知结果更准确,感知范围更广。
一种用于车辆的旁车位置估计方法,该方法包括:
步骤一,多辆具有感知能力并且能够联网的车辆利用其各视角的相机对视野范围内车辆进行实时感知,根据实时感知的结果,获得单车视野的车辆三维点云;
步骤二,根据车辆前后视角的相机获得的图像,对单车视野内车辆的车牌进行识别;
步骤三,将识别的车牌匹配到相应的车辆三维点云上;
步骤四,根据车载系统的行驶速度回报值,过滤无效车辆,将处于相对静止状态的车辆进行组网,形成可共享有效数据的局域车联网;
步骤五,基于局域车联网,利用点云匹配方式进行多车视野的车辆三维点云的合成与拼接,得到全局三维点云;
步骤六,将全局三维点云共享至局域车联网内的所有车辆,使网络内不具备感知功能的车辆具备相同的感知能力,同时扩展网络内车辆的感知范围;
步骤七,根据本车所在位置,在全局三维点云中标记出本车,获取本车与全局三维点云中其它车辆的位置关系。
步骤一包括:
对相机单个视角的单帧图像进行车辆检测,获得车辆包围框集合;
截取车辆包围框并对包围框大小进行归一化;
通过用于关键点检测的深度神经网络得到车辆二维关键点集;
基于关键点检测获得的车辆二维关键点集,通过三维关键点估计得到单车视野的车辆三维点云。
步骤一还包括:
对检测得到的车辆二维关键点集进行特征描述,获得车辆二维关键点集的特征描述子。
步骤五包括:
根据局域车联网,根据获得的车辆二维关键点集的特征描述子,对获得的多车视野的车辆三维点云进行匹配;
根据匹配结果,利用RANSAC算法求解点云间的坐标变换矩阵,坐标变换矩阵为:
Figure GDA0002923226300000021
其中,
Figure GDA0002923226300000022
其中,α、β、γ分别为摄像机坐标系X、Y、Z轴的旋转角,T1、T2、T3分别为摄像机坐标系X、Y、Z轴上的位移;
根据坐标变换矩阵,对多车视野的车辆三维点云进行配准和拼接,获得全局三维点云。
扩展网络内车辆的感知范围具体为:车辆接收到全局车辆三维点云,补充车辆盲区的车辆信息。
特征描述子为一维特征向量。
述特征描述子的获得方法具体为:以关键点以及关键点邻域内的点的点对模式进行描述,对每一点对进行布尔运算得到二进制值向量,即采用如下描述子:
M=[T(Pa1,Pb1),T(Pa2,Pb2),T(Pa3,Pb3)…T(Pax,Pbx)],x∈(1,n),
其中T是点对间的算子,
Figure GDA0002923226300000023
是关键点邻域内的点对,
Figure GDA0002923226300000024
是点对中点的特征值,n是在关键点邻域内选取的点的个数。
车辆二维关键点集包括:车辆中心点,车辆A柱端点与车顶的连结点,车辆B柱端点与车顶的连结点,车辆C柱两端端点分别与车尾、车顶的连结点,车头灯中心点,车尾灯中心点,以及车轴与轮辋的连结点。
具备联网能力的车辆能够感知车辆的行驶速度和电子罗盘朝向。
基于深度卷积神经网络对物体的二维特征点进行检测及位置回归是近年来的主流应用方向。深度卷积神经网络利用单目彩色图像即可在单帧实现关键点的检测及位置回归。基于表征学习的优势,在目标被强遮挡的情况下,网络依然能够预测被遮挡的关键点位置。
本发明的有益效果在于:
1、本发明的局域车联网组网不对车辆的类型进行限制,不具备视觉感知能力的车辆依然可以加入网络,并得到完整的感知信息,克服了传统单车感知遇到的遮挡问题,并且能够向不具备视觉感知能力的车辆提供感知信息;
2、本发明根据相机采集的图像利用三维映射、点云合并,对车辆进行三维建模,克服了现有技术中二维图像空间立体感知能力较弱的问题;
3、本发明使用深度卷积神经网络关键点检测、三维关键点估计等新方法,从根本上克服了点云精度不高的问题。
附图说明
图1为旁车位置估计流程图;
图2为车辆二维关键点生成过程示意图;
图3为交叉路口场景下本发明方法效果示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图以及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种用于车辆的旁车位置估计方法,下面通过具体实施例来进行说明。
实施例一:
用于车辆的旁车位置估计方法包括:
步骤一,多辆具有感知能力并且能够联网的车辆利用其各视角的相机对视野范围内车辆进行实时感知,根据实时感知的结果,获得单车视野的车辆三维点云。即三维点云感知步骤。
步骤二,根据车辆前后视角的相机获得的图像,对单车视野内车辆的车牌进行识别。即车牌识别步骤。
步骤三,将识别的车牌匹配到相应的车辆三维点云上。即车牌匹配步骤。
步骤四,根据车载系统的行驶速度回报值,过滤无效车辆,将处于相对静止状态的车辆进行组网,形成可共享有效数据的局域车联网。即车联网组网步骤。
步骤五,基于局域车联网,利用点云匹配方式进行多车视野的车辆三维点云的合成与拼接,得到全局三维点云。即点云融合步骤。
步骤六,将全局三维点云共享至局域车联网内的所有车辆,使网络内不具备感知功能的车辆具备相同的感知能力,同时扩展网络内车辆的感知范围。即点云共享步骤。
步骤七,根据本车所在位置,在全局三维点云中标记出本车,从而获取本车与全局三维点云中其它车辆的位置关系。图1为本发明方法的估计流程图。即位置估计步骤。
步骤一包括:
对相机单个视角的单帧图像进行车辆检测,获得车辆包围框集合。参见图2,图2是车辆三维点云数据生成过程示意图。负责检测车辆边界框的深度卷积神经网络211对图像帧201进行推理,211的输出为包围框202。
截取车辆包围框并对包围框大小进行归一化,得到包围框集合203。
通过用于关键点检测的深度神经网络得到车辆二维关键点集。其中,车辆二维关键点集包括:车辆中心点,车辆A柱端点与车顶的连结点,车辆B柱端点与车顶的连结点,车辆C柱两端端点分别与车尾、车顶的连结点,车头灯中心点,车尾灯中心点,以及车轴与轮辋的连结点。将包围框集合203送入车辆二维关键点检测网络212,得到每辆车的关键点集合204。
步骤一还包括:对检测得到的车辆二维关键点集进行特征描述,获得车辆二维关键点集的特征描述子。特征描述子为一维特征向量。
具体特征描述方法如下:对关键点集合进行特征描述,得到特征描述子。
特征描述向量即特征描述子的元素定义为:
M=[T(Pa1,Pb1),T(Pa2,Pb2),T(Pa3,Pb3)…T(Pax,Pbx)],x∈(1,n),
其中T是点对间的算子,
Figure GDA0002923226300000041
是关键点邻域内的点对,
Figure GDA0002923226300000042
是点对中点的特征值,n是在关键点邻域内选取的点的个数。使用特征值V进行比较。
一种实施例是特征描述向量有128个元素,即描述子为128bit的数据,可用SIMD指令集进行加速计算。特征描述子描述为128维特征向量[T1,T2,T3,T4,…,T128]。在关键点周围选取邻域,在邻域内选取256个点对,特征向量矩阵大小为16×16,一共256个元素。利用降维方法取特征向量矩阵的上三角区域,即128个元素,构成特征描述子。为每一车辆指派ID,将该车辆的关键点集合特征描述子存入ID-Map。ID-Map有助于提高后续特征匹配的效率。
基于获得的车辆二维关键点集,通过三维关键点估计得到单车视野的车辆三维点云。对单车的多个视角图像的关键点进行匹配,获取图像之间的坐标转换关系,根据坐标转换关系,将车辆二维关键点集映射到三维空间,从而获得单车视野的车辆三维点云。
步骤二,根据车辆前后视角的相机获得的图像,对单车视野内车辆的车牌进行识别。具体地,首先从图像中定位车牌所在区域,然后将车牌所在区域分割成车牌字符块,利用光学字符识别OCR对车牌字符进行识别,从而获取车牌信息。
步骤三,将识别的车牌匹配到相应的车辆三维点云上。获取车辆电子罗盘方向,可以获知车辆与其它车辆的大致方向关系,例如同向或对向。对于同向车辆,车辆前视角获取的是前车的后车牌;对于对向车辆,车辆前视角获取的是车辆的前车牌。根据上述位置关系,将车辆三维点云及其ID与车牌相对应。
步骤四,组网步骤具体可以通过以下方式实现。具备联网能力的车辆能够感知车辆的行驶速度和电子罗盘朝向。为实现上述方法,需要筛选车辆并与其它车辆组网,为了保证能够为不具备感知能力的车辆提供车辆位置估计功能,在此,设具备感知能力的车辆为A,不具备感知能力的车辆为B,考虑到解算速度及松散同步机制,以50Hz的感知速度为例,若车辆相对速度大于1m/s,则在每个样本中至少发生了2cm的误差;在点云合并过程中,由于RANSAC算法的特性,更大的误差会导致RANSAC将大量人物特征点归为外点。为了保证为B提供感知信息的可靠性及连接可靠性,需要将联网场景限制在拥堵、停车场等拥挤工况下,一种实施例是,当车辆回报行驶速度不为静止或速度高于3m/s,则将车辆排除连接。
步骤五包括:
根据获得的车辆二维关键点集的特征描述子,对获得的多车视野的车辆三维点云进行匹配。
汉明距离在处理器多媒体指令集寄存器中是一个二进制表示的数值。使用汉明距离进行多视图关键点特征描述子的匹配。特征描述子使用汉明距离进行匹配的特点在于,能够使用POPCNT指令集加速比较,在进行异或运算之后,对每个为1的比特位进行计数。
根据匹配结果,利用RANSAC算法求解点云间的坐标变换矩阵。
坐标转换矩阵为
Figure GDA0002923226300000051
其中T是三维平移齐次向量:
Figure GDA0002923226300000052
Figure GDA0002923226300000053
Figure GDA0002923226300000054
粗略地进行系数约束以保证RANSAC的稳定性:
Figure GDA0002923226300000055
为了正确获得点云之间的旋转矩阵和平移矩阵,需要相机内参矩阵
Figure GDA0002923226300000056
其中,fx、fy分别是相机在像素坐标系u轴和v轴的尺度参数;(u0,v0)是主点在像素坐标系的位置。三维场景中的点与图像上的像素坐标点,有如下表达式:
Figure GDA0002923226300000057
其中Zc为点在相机坐标系Z轴的位置,[u,v,1]T是点在像素坐标系位置的齐次表示,[X,Y,Z]T是点在世界坐标系位置的齐次表示。
根据特征匹配获得的匹配点,作为内点,使用RANSAC算法迭代计算坐标变换矩阵。具体地,根据匹配点,获取匹配点之间的坐标转换关系,利用相机内参矩阵使用SVD奇异值分解求解转换关系,获得初始旋转平移矩阵。然后,对每次获得的旋转平移矩阵进行迭代计算,获取新的内点,过滤外点,最终获得的最优解即点云之间的坐标转换矩阵。
根据坐标变换矩阵,对多车视野的车辆三维点云进行配准和拼接,获得全局三维点云。
步骤六,将全局三维点云共享至局域车联网内的所有车辆,使网络内不具备感知功能的车辆具备相同的感知能力,同时扩展网络内车辆的感知范围。车辆接收到全局车辆三维点云,可以补充车辆盲区的车辆信息。
步骤七,根据本车所在位置,在全局三维点云中标记出本车,从而获取本车与全局三维点云中其它车辆的位置关系。根据获得的全局三维点云以及本车所在位置,可以获取得到当前情境下本车和其它车辆的位置关系。根据获得的位置关系,可以为驾驶人或者无人车的分析系统提供更加丰富、准确的车辆位置信息。
如图3所示,在路口、拥堵的场景中,对于对向车辆和同向车辆,观察到同一车辆的概率更大,C车可以观测并估计出X车左侧的车辆及其位置信息,D车可以观测出X车右侧的车辆及其位置信息,通过局域车联网以及点云拼接技术,可以共享得到完整的无遮挡的感知信息,使C、D车可以互相感知到。
值得指出的是,一般的车辆环视系统包含了不同焦段和分辨率,因此部分视角无法参与车辆的检测及跟踪任务,为了节省计算资源,一种实施例是,小型车辆只采用车辆前后广角相机及远焦相机,大型车辆则尽可能使用所有环视相机。
以上实施例仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种用于车辆的旁车位置估计方法,其特征在于,该方法包括:
步骤一,多辆具有感知能力并且能够联网的车辆利用其各视角的相机,对视野范围内车辆进行实时感知,根据实时感知的结果,获得单车视野的车辆三维点云,其中,根据实时感知的结果,获得单车视野的车辆三维点云包括:
对相机单个视角的单帧图像进行车辆检测,获得车辆包围框集合;
截取车辆包围框并对包围框大小进行归一化;
通过用于关键点检测的深度神经网络得到车辆二维关键点集;
基于关键点检测获得的车辆二维关键点集,通过三维关键点估计得到单车视野的车辆三维点云;
步骤二,根据车辆前后视角的相机获得的图像,对单车视野内车辆的车牌进行识别;
步骤三,将识别的车牌匹配到相应的车辆三维点云上;
步骤四,根据车载系统的行驶速度回报值,过滤无效车辆,将处于相对静止状态的车辆进行组网,形成可共享有效数据的局域车联网;
步骤五,基于局域车联网,利用点云匹配方式进行多车视野的车辆三维点云的合成与拼接,得到全局三维点云;
步骤六,将全局三维点云共享至局域车联网内的所有车辆,使网络内不具备感知功能的车辆具备相同的感知能力,同时扩展网络内车辆的感知范围;
步骤七,根据本车所在位置,在全局三维点云中标记出本车,获取本车与全局三维点云中其它车辆的位置关系。
2.如权利要求1所述的用于车辆的旁车位置估计方法,其特征在于,所述步骤一还包括:
对检测得到的车辆二维关键点集进行特征描述,获得车辆二维关键点集的特征描述子。
3.如权利要求2所述的用于车辆的旁车位置估计方法,其特征在于,所述步骤五包括:
基于局域车联网,根据获得的车辆二维关键点集的特征描述子,对获得的多车视野的车辆三维点云进行匹配;
根据匹配结果,利用RANSAC算法求解点云间的坐标变换矩阵,坐标变换矩阵为:
Figure FDA0002923226290000011
其中,
Figure FDA0002923226290000012
其中,α、β、γ分别为摄像机坐标系X、Y、Z轴的旋转角,T1、T2、T3分别为摄像机坐标系X、Y、Z轴上的位移;
根据坐标变换矩阵,对多车视野的车辆三维点云进行配准和拼接,获得全局三维点云。
4.如权利要求1所述的用于车辆的旁车位置估计方法,其特征在于,所述扩展网络内车辆的感知范围具体为:车辆接收到全局车辆三维点云,补充车辆盲区的车辆信息。
5.如权利要求3所述的用于车辆的旁车位置估计方法,其特征在于,所述特征描述子为一维特征向量。
6.如权利要求5所述的用于车辆的旁车位置估计方法,其特征在于,所述特征描述子的获得方法具体为:以关键点以及关键点邻域内的点的点对模式进行描述,对每一点对进行布尔运算得到二进制值向量,即采用如下描述子:
M=[T(Pa1,Pb1),T(Pa2,Pb2),T(Pa3,Pb3)...T(Pax,Pbx)],x∈(1,n),
其中T是点对间的算子,
Figure FDA0002923226290000021
(Pax,Pbx)是关键点邻域内的点对,
Figure FDA0002923226290000022
是点对中点的特征值,n是在关键点邻域内选取的点的个数。
7.如权利要求1所述的用于车辆的旁车位置估计方法,其特征在于,所述车辆二维关键点集包括:车辆中心点,车辆A柱端点与车顶的连结点,车辆B柱端点与车顶的连结点,车辆C柱两端端点分别与车尾、车顶的连结点,车头灯中心点,车尾灯中心点,以及车轴与轮辋的连结点。
8.如权利要求1所述的用于车辆的旁车位置估计方法,其特征在于,具备联网能力的所述车辆能够感知车辆的行驶速度和电子罗盘朝向。
CN201910959957.1A 2019-10-10 2019-10-10 用于车辆的旁车位置估计方法 Active CN110677491B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910959957.1A CN110677491B (zh) 2019-10-10 2019-10-10 用于车辆的旁车位置估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910959957.1A CN110677491B (zh) 2019-10-10 2019-10-10 用于车辆的旁车位置估计方法

Publications (2)

Publication Number Publication Date
CN110677491A CN110677491A (zh) 2020-01-10
CN110677491B true CN110677491B (zh) 2021-10-19

Family

ID=69081810

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910959957.1A Active CN110677491B (zh) 2019-10-10 2019-10-10 用于车辆的旁车位置估计方法

Country Status (1)

Country Link
CN (1) CN110677491B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112580489A (zh) * 2020-12-15 2021-03-30 深兰人工智能(深圳)有限公司 交通灯检测方法、装置、电子设备及存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105291984A (zh) * 2015-11-13 2016-02-03 中国石油大学(华东) 一种基于多车协作的行人及车辆检测的方法及系统
CN105809126B (zh) * 2016-03-04 2019-04-09 重庆邮电大学 Dsrc与车载传感器融合的智能车辆目标跟踪系统及方法
CN107172147B (zh) * 2017-05-16 2020-06-05 大陆投资(中国)有限公司 节点信息获取装置、车辆间拓扑结构获取装置以及方法
CN108362294B (zh) * 2018-03-05 2021-08-03 中山大学 一种应用于自动驾驶的多车协同建图方法
CN108709513A (zh) * 2018-04-10 2018-10-26 深圳市唯特视科技有限公司 一种基于模型拟合算法的车辆三维检测方法
CN109100730B (zh) * 2018-05-18 2022-05-24 北京师范大学-香港浸会大学联合国际学院 一种多车协同快速建图方法
CN109829386B (zh) * 2019-01-04 2020-12-11 清华大学 基于多源信息融合的智能车辆可通行区域检测方法
CN109725330A (zh) * 2019-02-20 2019-05-07 苏州风图智能科技有限公司 一种车体定位方法及装置

Also Published As

Publication number Publication date
CN110677491A (zh) 2020-01-10

Similar Documents

Publication Publication Date Title
EP3735675B1 (en) Image annotation
Chen et al. Cooper: Cooperative perception for connected autonomous vehicles based on 3d point clouds
CN109461211B (zh) 基于视觉点云的语义矢量地图构建方法、装置和电子设备
US11688183B2 (en) System and method of determining a curve
Zhe et al. Inter-vehicle distance estimation method based on monocular vision using 3D detection
CN108647638B (zh) 一种车辆位置检测方法及装置
KR102267562B1 (ko) 무인자동주차 기능 지원을 위한 장애물 및 주차구획 인식 장치 및 그 방법
CN112714913A (zh) 结构注释
CN112396650A (zh) 一种基于图像和激光雷达融合的目标测距系统及方法
CN108645375B (zh) 一种用于车载双目系统快速车辆测距优化方法
CN107389084A (zh) 行车路径规划方法及存储介质
CN114663852A (zh) 车道线图的构建方法、装置、电子设备及可读存储介质
CN115147328A (zh) 三维目标检测方法及装置
CN117576652B (zh) 道路对象的识别方法、装置和存储介质及电子设备
CN110677491B (zh) 用于车辆的旁车位置估计方法
CN110909656A (zh) 一种雷达与摄像机融合的行人检测方法和系统
CN110197104B (zh) 基于车辆的测距方法及装置
CN111833443A (zh) 自主机器应用中的地标位置重建
Al Mamun et al. Efficient lane marking detection using deep learning technique with differential and cross-entropy loss.
CN110717457A (zh) 用于车辆的行人位姿解算方法
KR102368262B1 (ko) 다중 관측정보를 이용한 신호등 배치정보 추정 방법
Du et al. Validation of vehicle detection and distance measurement method using virtual vehicle approach
Tummala Automatic Camera Calibration Techniques for Collaborative Vehicular Applications
Liu et al. The robust semantic slam system for texture-less underground parking lot
Horani Improved Vision-based Lane Line Detection in Adverse Weather Conditions Utilizing Vehicle-to-infrastructure (V2I) Communication

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant