CN112380927B - 一种轨道识别方法及其装置 - Google Patents

一种轨道识别方法及其装置 Download PDF

Info

Publication number
CN112380927B
CN112380927B CN202011185038.2A CN202011185038A CN112380927B CN 112380927 B CN112380927 B CN 112380927B CN 202011185038 A CN202011185038 A CN 202011185038A CN 112380927 B CN112380927 B CN 112380927B
Authority
CN
China
Prior art keywords
target
track
coordinate system
points
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011185038.2A
Other languages
English (en)
Other versions
CN112380927A (zh
Inventor
潘文波
鞠夕强
胡云卿
李源征宇
龙腾
侯志超
江良玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CRRC Zhuzhou Institute Co Ltd
Original Assignee
CRRC Zhuzhou Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CRRC Zhuzhou Institute Co Ltd filed Critical CRRC Zhuzhou Institute Co Ltd
Priority to CN202011185038.2A priority Critical patent/CN112380927B/zh
Publication of CN112380927A publication Critical patent/CN112380927A/zh
Application granted granted Critical
Publication of CN112380927B publication Critical patent/CN112380927B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明提供了一种轨道识别方法,适用于在嵌入了后向反射阵列的虚拟轨道上行驶的车辆。所述轨道识别方法包括:获取毫米波雷达探测出的目标点以及摄像头拍摄的视觉数据;利用所述后向反射阵列对应的目标点确定出第一轨道线;基于所述视觉数据确定出第二轨道线;以及利用联邦卡尔曼滤波法将所述第一轨道线和所述第二轨道线融合以作为所述轨道的实际轨道线。

Description

一种轨道识别方法及其装置
技术领域
本发明涉及车辆定位领域,尤其涉及一种车辆行驶的虚拟轨道的识别方法和装置。
背景技术
电车是一种常用的公共交通客运车,包括铁轨电车、轻轨电车及有轨电车等等。现有的铁轨电车、轻轨电车及有轨电车的需要专门的电力系统和轨道配合实现运行,且基础设施建设和车辆购置成本高。为解决该问题,中车集团提出了一种能够循迹地面上的虚拟轨道的电车概念,该种新型电车取消了钢轨,通过胶轮承载和方向盘转向的方式跟随地面虚拟轨道行驶。
地面虚拟轨道可灵活布置,无需在地面上进行特别的基建建设,仅需在地面上如车道线和斑马线一般绘示出该新型电车行驶的虚拟轨道即可。此种新型电车无需再沿着固定轨道行驶,且大大降低了基建成本,相对于有轨电车而言有巨大的运营优势。同时,该种新型电车“共享路权,混行交通”的运行特点,使得交通系统在地面车道布设等方面拥有组织灵活的优势。
在2016年中车株洲所研发的该种电车已经实现了基于视觉的自动循迹功能,进一步提升了该种新型电车的智能化水平。从2017年6月智能快运系统发布面世,到2019年6月四川宜宾智能快运系统T1线开通,该种新型电车已经相继在湖南株洲、江西永修、四川宜宾等三个城市开通运营,客户对循迹功能的要求逐步提高,从最初的循迹辅助进站到目前的全线全时段循迹驾驶,对循迹系统的安全可靠性要求越来越高。
自动循迹功能已成为该种新型电车自动驾驶或辅助驾驶中至关重要的功能。在车辆自动驾驶专业领域,基于导航的横向控制理论已经有前人进行了深入的研究,也有成功装车实现控制效果的范例。
自动循迹的车辆的关键技术包括对虚拟轨道的识别。
目前,主要是通过视觉来识别虚拟轨道从而实现轨迹跟随。在光照良好的情况下,通过视觉可以探测出虚拟轨道以实现精准的轨迹跟随。然而,在单一车载视觉传感器下的数字轨道识别鲁棒性较差的问题,如摄像头的可靠性不仅受到雾、雨、雪等恶劣天气的影响,还受到其他车辆迎风大灯和进入隧道等光线强度突变的影响。
另外,激光雷达可以通过道路和车道线标识的反射强度区别来检测出车道线。激光雷达和摄像头采用的视觉波段的波长相近,具有微米级的短波长特性,使激光雷达能够准确地探测到物体细节。但是,激光雷达也有和视觉类似的缺陷,当它遇到下雨或雾天,即当粒子的大小接近或大大超过激光雷达的波长时光照强度会急速衰减。
为解决通过单一的视觉识别或激光雷达识别虚拟轨道存在不同程度的缺陷的问题,本发明旨在提出一种轨道识别方法及其装置,能够保证在存在各种天气和光照条件下的自动循迹的车辆的准确的轨迹跟随。
发明内容
以下给出一个或多个方面的简要概述以提供对这些方面的基本理解。此概述不是所有构想到的方面的详尽综览,并且既非旨在指认出所有方面的关键性或决定性要素亦非试图界定任何或所有方面的范围。其唯一的目的是要以简化形式给出一个或多个方面的一些概念以为稍后给出的更加详细的描述之序。
根据本发明的一方面,提供了一种轨道识别方法,适用于在嵌入了后向反射阵列的虚拟轨道上行驶的车辆,所述轨道识别方法包括:获取毫米波雷达探测出的目标点以及摄像头拍摄的视觉数据;利用所述后向反射阵列对应的目标点确定出第一轨道线;基于所述视觉数据确定出第二轨道线;以及利用联邦卡尔曼滤波法将所述第一轨道线和所述第二轨道线融合以作为所述虚拟轨道的实际轨道线。
在一实施例中,所述利用所述后向反射阵列对应的目标点确定出第一轨道线包括:提取所述目标点中的量测目标,所述量测目标为所述后向反射阵列对应的目标点;将所述毫米波雷达探测出的当前帧数据中的量测目标与前一帧数据中的跟踪目标的预测目标进行关联以确定当前帧数据中的跟踪目标;以及对所述跟踪目标进行霍夫变换以得到所述第一轨道线。
在一实施例中,所述提取所述目标点中的量测目标包括:对所述毫米波雷达的探测视场进行限定以确定出属于兴趣区域内的目标点;通过所述毫米波雷达探测出的连续两帧数据对所述兴趣区域内的目标点进行过滤以去除所述目标点中的噪点和虚假点;将过滤后的目标点的相对速度与所述车辆的速度的相反数进行比较以确定出所述兴趣区域内的静态目标;以及将所述静态目标的反射强度值与所述后向反射阵列的先验反射强度值进行对比以筛选出所述静态目标中的后向反射阵列以作为所述量测目标。
在一实施例中,所述轨道识别方法还包括:将所述静态目标的反射强度值与所述兴趣区域内的其他无关目标的先验反射强度值进行对比以实现所述静态目标的分类。
在一实施例中,所述将所述毫米波雷达探测出的当前帧数据中的量测目标以及前一帧数据中的跟踪目标的预测目标进行关联以确定当前帧数据中的跟踪目标包括:基于前一帧数据中的跟踪目标推测出所述跟踪目标在当前帧数据中的预测目标;利用最近邻域算法确定出所述预测目标与所述量测目标的关联关系;以及利用离散卡尔曼滤波算法修正所述预测目标与所述量测目标的关联关系以确定出与前一帧数据中的跟踪目标的对应的量测目标以作为所述当前帧数据中的跟踪目标。
在一实施例中,所述对所述跟踪目标进行霍夫变换以得到所述第一轨道线包括:基于所述跟踪目标在毫米波雷达坐标系下的坐标点确定出所述跟踪目标在图像坐标系下的坐标点;将所述跟踪目标在图像坐标系下的坐标点转换为霍夫空间内的直线状态;以及基于所述霍夫空间内的直线状态提取出两条轨道线以作为所述第一轨道线。
在一实施例中,所述基于所述跟踪目标在毫米波雷达坐标系下的坐标点确定出所述跟踪目标在图像坐标系下的坐标点包括:基于摄像头坐标系与毫米波雷达坐标系的转换关系将所述跟踪目标在毫米波雷达坐标系下的坐标点转换为摄像头坐标系下的坐标点;基于投影成像关系将所述跟踪目标在摄像头坐标系下的坐标点转换为图像物理坐标系下的坐标点;以及基于所述图像物理坐标系与图像坐标系的转换关系将所述跟踪目标在图像物理坐标系下的坐标点转换为图像坐标系下的坐标点。
在一实施例中,所述将所述跟踪目标在图像坐标系下的坐标转换为霍夫空间内的直线状态包括:利用图像坐标系与霍夫空间的转换公式xcosθ+ysinθ=ρ将所述跟踪目标在图像坐标系下的所有坐标点转换为霍夫空间内的多条直线,其中,(x,y)为所述跟踪目标的任一坐标点在图像坐标系的坐标,θ为坐标点(x,y)在极坐标系下的极角,ρ为坐标点(x,y)在极坐标系下的极径,每一极坐标系下坐标点可对应于霍夫空间内的一条直线;以及所述基于所述霍夫空间内的直线状态提取出两条轨道线以作为所述第一轨道线包括:对所述霍夫空间内的所有直线的交点进行统计以确定出通过每一交点的直线的数量;以及将通过的直线的数量最多的两个交点转换为所述图像坐标系下的直线以作为所述第一轨道线。
在一实施例中,所述利用联邦卡尔曼滤波法将所述第一轨道线和所述第二轨道线融合以作为所述轨道的实际轨道线包括:将所述第一轨道线和所述第二轨道线分别转换至霍夫空间内的两点;采用最近邻域算法将所述霍夫空间内的点进行数据关联;将数据关联的点以及置信度输入联邦卡尔曼滤波以确定出融合后的两个实际点;以及将所述两个实际点转换为图像坐标系下的直线以作为所述实际轨道线。
根据本发明的另一方面,提供了一种轨道识别装置,包括存储器、处理器以及存储在存储器上的计算机程序,所述处理器被用于执行存储在所述存储器上的计算机程序时实现如上述任一实施例中所述的轨道识别方法的步骤。
根据本发明的再一方面,提供了一种计算机存储介质,其上存储有计算机程序,所述计算机程序被执行时实现如上述任一实施例中任一项所述的轨道识别方法的步骤。
根据本发明的又一方面,提供了一种轨道识别系统,适用于在嵌入了后向反射阵列的虚拟轨道上行驶的车辆,所述轨道识别系统包括:毫米波雷达,用于发射雷达波束并接收反射波以用于探测出目标点;摄像头,用于拍摄视觉数据;以及处理器,所述处理器分别与所述毫米波雷达以及所述摄像头连接以获取所述目标点以及所述视觉数据,所述处理器被配置成实现如上述任一实施例中任一项所述的轨道识别方法的步骤。
附图说明
在结合以下附图阅读本公开的实施例的详细描述之后,更能够更好地理解本发明的上述特征和优点。
图1是根据本发明的一个方面绘示的一实施例中的轨道识别方法的流程示意图;
图2是根据本发明的一个方面绘示的一实施例中的轨道识别方法的部分流程示意图;
图3是根据本发明的一个方面绘示的一实施例中的轨道识别方法的部分流程示意图;
图4是根据本发明的一个方面绘示的一实施例中的轨道识别方法的部分流程示意图;
图5是根据本发明的一个方面绘示的一实施例中的轨道识别方法的部分流程示意图;
图6是根据本发明的一个方面绘示的一具体实施例中的图像坐标系和图像物理坐标系的位置关系示意图;
图7是根据本发明的一个方面绘示的一实施例中的轨道识别方法的部分流程示意图;
图8是根据本发明的一个方面绘示的一实施例中的轨道识别方法的部分流程示意图;
图9是根据本发明的一个方面绘示的一实施例中的轨道识别方法的部分流程示意图;
图10是根据本发明的另一个方面绘示的一实施例中的轨道识别装置的模块框图;
图11是根据本发明的又一个方面绘示的一实施例中的轨道识别系统的结构示意图。
具体实施方式
给出以下描述以使得本领域技术人员能够实施和使用本发明并将其结合到具体应用背景中。各种变型、以及在不同应用中的各种使用对于本领域技术人员将是容易显见的,并且本文定义的一般性原理可适用于较宽范围的实施例。由此,本发明并不限于本文中给出的实施例,而是应被授予与本文中公开的原理和新颖性特征相一致的最广义的范围。
在以下详细描述中,阐述了许多特定细节以提供对本发明的更透彻理解。然而,对于本领域技术人员显而易见的是,本发明的实践可不必局限于这些具体细节。换言之,公知的结构和器件以框图形式示出而没有详细显示,以避免模糊本发明。
请读者注意与本说明书同时提交的且对公众查阅本说明书开放的所有文件及文献,且所有这样的文件及文献的内容以参考方式并入本文。除非另有直接说明,否则本说明书(包含任何所附权利要求、摘要和附图)中所揭示的所有特征皆可由用于达到相同、等效或类似目的的可替代特征来替换。因此,除非另有明确说明,否则所公开的每一个特征仅是一组等效或类似特征的一个示例。
注意,在使用到的情况下,标志左、右、前、后、顶、底、正、反、顺时针和逆时针仅仅是出于方便的目的所使用的,而并不暗示任何具体的固定方向。事实上,它们被用于反映对象的各个部分之间的相对位置和/或方向。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
注意,在使用到的情况下,进一步地、较优地、更进一步地和更优地是在前述实施例基础上进行另一实施例阐述的简单起头,该进一步地、较优地、更进一步地或更优地后带的内容与前述实施例的结合作为另一实施例的完整构成。在同一实施例后带的若干个进一步地、较优地、更进一步地或更优地设置之间可任意组合的组成又一实施例。
以下结合附图和具体实施例对本发明作详细描述。注意,以下结合附图和具体实施例描述的诸方面仅是示例性的,而不应被理解为对本发明的保护范围进行任何限制。
根据本发明的一个方面,提供一种轨道识别方法,适用于具备循迹功能的车辆,该车辆行驶在常规的道路上,该道路上的用于该车辆行驶的虚拟轨道上嵌入有定制的后向反射阵列。
在一实施例中,如图1所示,轨道识别方法100包括步骤S110~S140。
其中,步骤S110为:获取毫米波雷达探测出的目标点以及摄像头拍摄的视觉数据。
传统的雷达反射体为三面角反射体,可接收雷达波束并最大程度沿入射波方向反射。但在本发明的应用场景中无法使用,主要存在危害道路上的其他交通参与者和美观度不佳等问题。本发明采用后向反射阵列作为雷达反射装置,具有低姿态、低成本和增强雷达反射面积的特点,从而能被毫米波雷达稳定探测到。较优地,后向反射阵列可采用基于VanAtta理论和贴片天线理论且具有有效馈电方式的4*4平面阵列,该阵列具有二维反方向性,各阵列之间使用微带连接并馈电。
毫米波雷达发射雷达波束并接收各个物体反射出的反射波,其中,接收到的反射波所对应的物体即为目标点,该些目标点至少包括后向反射阵列。
视觉数据即为现有的具备循迹功能的车辆常用的通过摄像头拍摄出的影像数据。
由于单一的毫米波雷达探测或通过视觉数据识别出虚拟轨道的方案容易被环境影响且存在各种缺陷,因此本发明通过在虚拟轨道上布置后向反射阵列以提高毫米波雷达的探测到虚拟轨道的可能性和准确性,并将基于毫米波雷达的虚拟轨道探测和基于视觉数据的虚拟轨道识别进行融合,从而避免单一方式的各种缺陷,实现虚拟轨道跟随方式的冗余。
较优地,毫米波雷达和摄像头的相对位置需要进行联合标定,从而减少由于毫米波雷达和摄像头的位置差别而导致的识别出的虚拟轨道的误差。
步骤S120为:利用后向反射阵列对应的目标点确定出第一轨道线。
可以理解,由于后向反射阵列沿虚拟轨道布置,因此通过识别出目标点中的后向反射阵列并基于探测到的后向反射阵列的位置即可识别出布置该后向反射阵列的虚拟轨道。
第一轨道线为基于毫米波雷达探测出的目标点识别出的虚拟轨道。因此,在虚拟轨道由两条轨道线构成时,第一轨道线也包括两条线。
较优地,在一具体实施例中,为利用毫米波雷达探测出的目标点确定出第一轨道线,如图2所示,步骤S120可具体包括步骤S121~S123。
其中,步骤S121为:提取所述目标点中的量测目标。其中,量测目标为虚拟轨道上的后向反射阵列对应的目标点。
可以理解,毫米波雷达接收到的反射波中可能存在其他目标点,比如噪点、虚假点以及无关目标(后向反射阵列以外其他物体)等。因此,需要对毫米波雷达探测出的目标点进行处理以提出其中的后向反射阵列对应的目标点。
在一实施例中,如图3所示,步骤S121可包括步骤S1211~S1214。
其中,步骤S1211为:对所述毫米波雷达的探测视场进行限定以确定出属于兴趣区域内的目标点。
可以理解,毫米波雷达可安装于车辆的固定处,具有一定的探测范围。为确保毫米波雷达能够在车辆处于各种行驶状态时均可以探测到虚拟轨道上的后向反射阵列,其探测范围至少需要稍大于虚拟轨道的可能出现范围。则在提取毫米波雷达的探测数据中的目标点时,可先基于虚拟轨道在毫米波雷达的探测范围内的位置在探测数据中限定一兴趣区域,该兴趣区域是指虚拟轨道可能出现的区域。则出现在兴趣区域内的目标点可能是后向反射阵列对应的目标点。
步骤S1212为:通过所述毫米波雷达探测出的连续两帧数据对所述兴趣区域内的目标点进行过滤以去除所述目标点中的噪点和虚假点。
可利用常规的去噪算法来实现噪点和虚假点的去除。比如:获取连续的两帧数据并记录两帧数据的时间间隔;再基于车辆的速度与该时间间隔预测出前一帧数据中的目标点在后一帧数据中的位置;再将预测数据与后一帧中的观测数据进行关联,如果能够关联则为可信目标点,若未能关联则视为噪点,去除后一帧数据中不能关联的目标点即可达到去除噪点和虚假点的目的。
在对当前帧数据去除噪点时,当前帧数据作为观测数据。
步骤S1213为:将过滤后的目标点的相对速度与所述车辆的速度的相反数进行比较以确定出所述兴趣区域内的静态目标。
由于后向反射阵列在道路中的位置固定,因此属于静态目标。将车辆的当前速度取反后与道路个的静态目标速度(相对速度)进行比较,相对速度与车辆的车速的相反数一定阈值范围内的目标点为静态目标。可以理解,该一定阈值范围可基于误差的允许范围来进行设置。
步骤S1214为:将所述静态目标的反射强度值与所述后向反射阵列的先验反射强度值进行对比以筛选出所述静态目标中的后向反射阵列以作为所述量测目标。
在车辆实际投入使用前,先采用试验车辆,并将试验车辆的毫米波雷达安装在实际运营时的安装位置上并进行试验驾驶,在试验驾驶过程中,不断在虚拟轨道的各个位置采集毫米波雷达前方的各个距离处的后向反射阵列的反射强度值并进行记录以形成先验阵列数据库。
在实际运营时,先验阵列数据库可预先存储在本地,则在确定静态目标中的量测目标时,可将各个静态目标当前实际的反射强度值与先验阵列数据库中车辆处于相同位置处时采集到的各个距离处的后向反射阵列的先验反射强度值进行对比,则若一静态目标的反射强度值在一先验反射强度值的误差范围内,则该静态目标即为该先验反射强度值对应的后向反射阵列,该静态目标的位置即为该先验反射强度值对应的后向反射阵列的位置。
因此,步骤S1214可筛选出静态目标中的所有后向反射阵列并形成量测目标。
进一步地,步骤S122为:将当前帧数据中的量测目标与前一帧数据中的跟踪目标的预测目标进行关联以确定当前帧数据中的跟踪目标。
目标跟踪是为了维持对目标当前状态的估计,同时也是对传感器接收到的量测目标进行处理的过程。同时,利用先验值与量测值可提高输出值的精准度,且毫米波雷达有量测目标丢失的情况,采用跟踪算法可维持量测目标的存在状态。
可以理解,对于当前帧数据而言,前一帧数据中的跟踪目标即虚拟轨道的位置是已知的,则基于前一帧数据中的跟踪目标的位置、车辆的行驶速度以及虚拟轨道的延伸状态等数据可预测出跟踪目标在当前帧数据中的位置,基于该位置对应关系,可将当前帧数据中的量测目标与前一帧数据中的跟踪目标关联起来进而确定出当前帧数据中的跟踪目标。
在一具体实施例中,如图4所示,步骤S122可包括步骤S1221~S1223。
其中,步骤S1221为:基于前一帧数据中的跟踪目标推测出所述跟踪目标在当前帧数据中的预测目标。
具体可基于前一帧数据中的跟踪目标的位置、车辆的行驶速度以及虚拟轨道的延伸状态等数据来预测出跟踪目标在当前帧数据中对应的预测位置即预测目标。
步骤S1222为:利用最近邻域算法确定出所述预测目标与所述量测目标的关联关系。
最近邻域法的算法规则与最小距离分类法相似,都使用距离的远近作为类别归属的依据,而不是使用均值。常见的最近邻域分类法有最近邻分类法和K-最近邻分类法。
步骤S1223为:利用离散卡尔曼滤波算法修正所述预测目标与所述量测目标的关联关系以确定出与前一帧数据中的跟踪目标的对应的量测目标以作为所述当前帧数据中的跟踪目标。
进一步地,在确定出当前帧数据中的跟踪目标后,步骤S123为:对所述跟踪目标进行霍夫变换以得到所述第一轨道线。
霍夫变换能够精确地解析定义的形状(例如直线,圆,椭圆等)。在这些情况下,我们可以通过对于形状信息的充分了解来找出它们在图像中的位置和方向。因此,可利用霍夫变换来确定出跟踪目标即后向反射阵列所对应的虚拟轨道线即第一轨道线。
在一具体实施例中,如图5所示,步骤S123可包括步骤S1231~S1233。
其中,步骤S1231为:基于所述跟踪目标在毫米波雷达坐标系下的坐标点确定出所述跟踪目标在图像坐标系下的坐标点。
可以理解,虽然步骤S120确定出了后向反射阵列跟踪目标,但该跟踪目标属于毫米波雷达坐标系下的目标点,若要实现毫米波雷达探测出的虚拟轨道和基于视觉数据确定出的虚拟轨道的融合需要将各个坐标系下的虚拟轨道对应的目标转化为同一坐标系下。因此,需要将跟踪目标从毫米波雷达坐标系下的坐标转换为图像坐标系下的坐标。
首先,图像坐标系为图像中定义的直角坐标系u-v,原点在图像左上角,单位为像素;图像物理坐标系为在图像上建立的以物理单位表示的成像平面,原点位于摄像机光轴和图像平面的交点处;摄像机坐标系为Xc、Yc和Zc组成的摄像机空间坐标系,坐标原点在摄像机光学中心;毫米波雷达坐标系为Xr、Yr和Zr组成的雷达空间坐标系,坐标原点位于雷达中心点处。
假设一图像主点(图像物理坐标系原点)的坐标为(u0,v0),每个像素在图像物理坐标系上x轴和y轴方向上物理尺寸分别为dx和dy,则如图6所示,两个坐标系的转换关系为:
Figure BDA0002751188940000111
根据投影成像关系可得如下公式:
Figure BDA0002751188940000112
其中,(X,Y)为点p在图像物理坐标系下的坐标,(Xc,Yc,Zc)为点p在摄像机坐标系下的坐标。
摄像机坐标系与世界坐标系转换关系可以表示为:
Figure BDA0002751188940000113
其中,R为旋转矩阵,T为平移矩阵,OT与摄像头坐标系与雷达坐标系转换关系有关。
上述为图像坐标系下的目标(u,v)转换到毫米波雷达坐标系下对应的目标(Xr,Yr,Zr)的过程。可以理解,毫米波雷达坐标系下的跟踪目标转换成图像坐标系下的跟踪目标与上述过程相反,则如图7所示,步骤S1231可包括步骤S710~S730。
其中,步骤S710为:基于摄像头坐标系与毫米波雷达坐标系的转换关系将所述跟踪目标在毫米波雷达坐标系下的坐标点转换为摄像头坐标系下的坐标点。
可以理解,跟踪目标可以有多个,则对应的坐标点有对应的多个。
步骤S720为:基于投影成像关系将所述跟踪目标在摄像头坐标系下的坐标点转换为图像物理坐标系下的坐标点。
步骤S730为:基于所述图像物理坐标系与图像坐标系的转换关系将所述跟踪目标在图像物理坐标系下的坐标点转换为图像坐标系下的坐标点。
综上,毫米波雷达坐标系至图像坐标系的转换公式为:
Figure BDA0002751188940000121
其中,fx=f/dx,fy=f/dy。
进一步地,步骤S1232为:将所述跟踪目标在图像坐标系下的坐标点转换为霍夫空间内的直线状态。
图像中的一点对应于霍夫空间中的一条直线,则若图像中的跟踪目标存在多个,则可对应于霍夫空间中的多条直线,霍夫空间内的该些直线的交点即为该多个跟踪目标所在的直线,即可理解为虚拟轨道。
具体地,利用图像坐标系与霍夫空间的转换公式xcosθ+ysinθ=ρ将跟踪目标在图像坐标系下的所有坐标点转换为霍夫空间内的多条直线,其中,(x,y)为跟踪目标的任一坐标点在图像坐标系的坐标,θ为坐标点(x,y)在极坐标系下的极角,ρ为坐标点(x,y)在极坐标系下的极径,每一极坐标系下坐标点可对应于霍夫空间内的一条直线。
步骤S1233为:基于所述霍夫空间内的直线状态提取出两条轨道线以作为所述第一轨道线。
可以理解,图像坐标系中的点可对应于霍夫空间中的一条直线,霍夫空间中的多条直线的交点可对应于图像坐标系中该多条直线所对应的点的所在的直线。因此可通过对霍夫空间中的交点的选择来确定出图像坐标系中的虚拟轨道所对应的直线。
在一具体实施例中,如图8所示,步骤S1233可包括步骤S810~S820。
其中,步骤S810为:对所述霍夫空间内的所有直线的交点进行统计以确定出通过每一交点的直线的数量。
步骤S820为:将通过的直线的数量最多的两个交点转换为所述图像坐标系下的直线以作为所述第一轨道线。
可以理解,由于虚拟轨道一般具有两条车道线,因此第一轨道线应当有两条直线构成,霍夫空间内的通过直线最多的两个交点返回至图像坐标系后为经过跟踪目标最多的直线,即为虚拟轨道的车道线。
步骤S130为:基于所述视觉数据确定出第二轨道线。
可以理解,可采用现有的虚拟轨道的识别方法来基于视觉数据识别出虚拟轨道,不再赘述。
第二轨道线为基于视觉数据识别出的虚拟轨道。
步骤S140为:利用联邦卡尔曼滤波法将所述第一轨道线和所述第二轨道线融合以作为虚拟轨道的实际轨道线。
较优地,可将第一轨道线和第二轨道线先转换至霍夫空间内,再进行融合。
在一具体实施例中,如图9所示,步骤S140可包括步骤S141~S144。
步骤S141:将所述第一轨道线和所述第二轨道线分别转换至霍夫空间内的两点。
步骤S142:采用最近邻域算法将所述霍夫空间内的点进行数据关联。
步骤S143:将数据关联的点以及置信度输入联邦卡尔曼滤波以确定出融合后的两个实际点。
联邦卡尔曼滤波核心算法是将各个局部滤波器的局部估计信息进行融合,本发明则用于融合毫米波雷达探测出的第一轨道线与基于视觉数据识别出的第二轨道线。具体的融合公式如下所示:
Pg=[(Pr)-1+(Pc)-1]-1 (5)
xg=Pg[(Pr)-1xr+(Pc)-1xc] (6)
其中,xg为融合输出结果。
步骤S144:将所述两个实际点转换为图像坐标系下的直线以作为所述实际轨道线。
将xg转换回图像坐标系x-y空间即可得到融合后的实际轨道线。
尽管为使解释简单化将上述方法图示并描述为一系列动作,但是应理解并领会,这些方法不受动作的次序所限,因为根据一个或多个实施例,一些动作可按不同次序发生和/或与来自本文中图示和描述或本文中未图示和描述但本领域技术人员可以理解的其他动作并发地发生。
根据本发明的另一个方面,还提供一种轨道识别装置,如图10所示,包括存储器1010和处理器1020。
存储器1010用于存储计算机程序。
处理器1020与存储器1010连接,用于执行存储器1010上的计算机程序,该计算机程序被执行时实现上述任一实施例中的轨道识别方法的步骤。
根据本发明的再一个方面,还提供一种计算机存储介质,其上存储有计算机程序,所述计算机程序被执行时实现如上述任一实施例中的轨道识别方法的步骤。
根据本发明的又一个方面,还提供一种轨道识别系统,适用于具备循迹功能的车辆,该车辆行驶在常规的道路上,该道路上的用于该车辆行驶的虚拟轨道上嵌入有定制的后向反射阵列。
在一实施例中,如图11所示,轨道识别系统1100包括毫米波雷达1110、摄像头1120以及处理器1130。
毫米波雷达1110用于发射雷达波束并接收反射波以用于探测出目标点。毫米波雷达1110的探测范围至少覆盖道路上的虚拟轨道所在区域。较优地,该毫米波雷达1110安装于车辆的车头前方的一固定处。
摄像头1120用于拍摄视觉数据。该摄像头1120的拍摄范围至少覆盖道路上的虚拟轨道所在区域。较优地,摄像头1120安装于车辆的车头前方的一固定处。
处理器1130分别与毫米波雷达1110和摄像头1120连接以分别获取毫米波雷达1110探测出的目标点以及摄像头1120拍摄出的视觉数据,处理器1130用于执行上述任一实施例中的轨道识别方法的步骤。
本领域技术人员将可理解,信息、信号和数据可使用各种不同技术和技艺中的任何技术和技艺来表示。例如,以上描述通篇引述的数据、指令、命令、信息、信号、位(比特)、码元、和码片可由电压、电流、电磁波、磁场或磁粒子、光场或光学粒子、或其任何组合来表示。
本领域技术人员将进一步领会,结合本文中所公开的实施例来描述的各种解说性逻辑板块、模块、电路、和算法步骤可实现为电子硬件、计算机软件、或这两者的组合。为清楚地解说硬件与软件的这一可互换性,各种解说性组件、框、模块、电路、和步骤在上面是以其功能性的形式作一般化描述的。此类功能性是被实现为硬件还是软件取决于具体应用和施加于整体系统的设计约束。技术人员对于每种特定应用可用不同的方式来实现所描述的功能性,但这样的实现决策不应被解读成导致脱离了本发明的范围。
结合本文所公开的实施例描述的各种解说性逻辑模块、和电路可用通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立的门或晶体管逻辑、分立的硬件组件、或其设计成执行本文所描述功能的任何组合来实现或执行。通用处理器可以是微处理器,但在替换方案中,该处理器可以是任何常规的处理器、控制器、微控制器、或状态机。处理器还可以被实现为计算设备的组合,例如DSP与微处理器的组合、多个微处理器、与DSP核心协作的一个或多个微处理器、或任何其他此类配置。
结合本文中公开的实施例描述的方法或算法的步骤可直接在硬件中、在由处理器执行的软件模块中、或在这两者的组合中体现。软件模块可驻留在RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域中所知的任何其他形式的存储介质中。示例性存储介质耦合到处理器以使得该处理器能从/向该存储介质读取和写入信息。在替换方案中,存储介质可以被整合到处理器。处理器和存储介质可驻留在ASIC中。ASIC可驻留在用户终端中。在替换方案中,处理器和存储介质可作为分立组件驻留在用户终端中。
在一个或多个示例性实施例中,所描述的功能可在硬件、软件、固件或其任何组合中实现。如果在软件中实现为计算机程序产品,则各功能可以作为一条或更多条指令或代码存储在计算机可读介质上或藉其进行传送。计算机可读介质包括计算机存储介质和通信介质两者,其包括促成计算机程序从一地向另一地转移的任何介质。存储介质可以是能被计算机访问的任何可用介质。作为示例而非限定,这样的计算机可读介质可包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储、磁盘存储或其它磁存储设备、或能被用来携带或存储指令或数据结构形式的合意程序代码且能被计算机访问的任何其它介质。任何连接也被正当地称为计算机可读介质。例如,如果软件是使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)、或诸如红外、无线电、以及微波之类的无线技术从web网站、服务器、或其它远程源传送而来,则该同轴电缆、光纤电缆、双绞线、DSL、或诸如红外、无线电、以及微波之类的无线技术就被包括在介质的定义之中。如本文中所使用的盘(disk)和碟(disc)包括压缩碟(CD)、激光碟、光碟、数字多用碟(DVD)、软盘和蓝光碟,其中盘(disk)往往以磁的方式再现数据,而碟(disc)用激光以光学方式再现数据。上述的组合也应被包括在计算机可读介质的范围内。
提供之前的描述是为了使本领域中的任何技术人员均能够实践本文中所描述的各种方面。但是应该理解,本发明的保护范围应当以所附权利要求书为准,而不应被限定于以上所解说实施例的具体结构和组件。本领域技术人员在本发明的精神和范围内,可以对各实施例进行各种变动和修改,这些变动和修改也落在本发明的保护范围之内。

Claims (11)

1.一种轨道识别方法,适用于在嵌入了后向反射阵列的虚拟轨道上行驶的车辆,所述轨道识别方法包括:
获取毫米波雷达探测出的目标点以及摄像头拍摄的视觉数据;
提取所述目标点中的量测目标,其中,所述量测目标为所述后向反射阵列对应的目标点;
将所述毫米波雷达探测出的当前帧数据中的量测目标与前一帧数据中的跟踪目标的预测目标进行关联以确定当前帧数据中的跟踪目标;
对所述跟踪目标进行霍夫变换,以确定出第一轨道线;
基于所述视觉数据确定出第二轨道线;以及
利用联邦卡尔曼滤波法将所述第一轨道线和所述第二轨道线融合以作为所述虚拟轨道的实际轨道线。
2.如权利要求1所述的轨道识别方法,其特征在于,所述提取所述目标点中的量测目标包括:
对所述毫米波雷达的探测视场进行限定以确定出属于兴趣区域内的目标点;
通过所述毫米波雷达探测出的连续两帧数据对所述兴趣区域内的目标点进行过滤以去除所述目标点中的噪点和虚假点;
将过滤后的目标点的相对速度与所述车辆的速度的相反数进行比较以确定出所述兴趣区域内的静态目标;以及
将所述静态目标的反射强度值与所述后向反射阵列的先验反射强度值进行对比以筛选出所述静态目标中的后向反射阵列以作为所述量测目标。
3.如权利要求2所述的轨道识别方法,其特征在于,还包括:
将所述静态目标的反射强度值与所述兴趣区域内的其他无关目标的先验反射强度值进行对比以实现所述静态目标的分类。
4.如权利要求1所述的轨道识别方法,其特征在于,所述将所述毫米波雷达探测出的当前帧数据中的量测目标以及前一帧数据中的跟踪目标的预测目标进行关联以确定当前帧数据中的跟踪目标包括:
基于前一帧数据中的跟踪目标推测出所述跟踪目标在当前帧数据中的预测目标;
利用最近邻域算法确定出所述预测目标与所述量测目标的关联关系;以及
利用离散卡尔曼滤波算法修正所述预测目标与所述量测目标的关联关系以确定出与前一帧数据中的跟踪目标的对应的量测目标以作为所述当前帧数据中的跟踪目标。
5.如权利要求1所述的轨道识别方法,其特征在于,所述对所述跟踪目标进行霍夫变换以得到所述第一轨道线包括:
基于所述跟踪目标在毫米波雷达坐标系下的坐标点确定出所述跟踪目标在图像坐标系下的坐标点;
将所述跟踪目标在图像坐标系下的坐标点转换为霍夫空间内的直线状态;以及
基于所述霍夫空间内的直线状态提取出两条轨道线以作为所述第一轨道线。
6.如权利要求5所述的轨道识别方法,其特征在于,所述基于所述跟踪目标在毫米波雷达坐标系下的坐标点确定出所述跟踪目标在图像坐标系下的坐标点包括:
基于摄像头坐标系与毫米波雷达坐标系的转换关系将所述跟踪目标在毫米波雷达坐标系下的坐标点转换为摄像头坐标系下的坐标点;
基于投影成像关系将所述跟踪目标在摄像头坐标系下的坐标点转换为图像物理坐标系下的坐标点;以及
基于所述图像物理坐标系与图像坐标系的转换关系将所述跟踪目标在图像物理坐标系下的坐标点转换为图像坐标系下的坐标点。
7.如权利要求5所述的轨道识别方法,其特征在于,所述将所述跟踪目标在图像坐标系下的坐标转换为霍夫空间内的直线状态包括:
利用图像坐标系与霍夫空间的转换公式xcosθ+ysinθ=ρ将所述跟踪目标在图像坐标系下的所有坐标点转换为霍夫空间内的多条直线,其中,(x,y)为所述跟踪目标的任一坐标点在图像坐标系的坐标,θ为坐标点(x,y)在极坐标系下的极角,ρ为坐标点(x,y)在极坐标系下的极径,每一极坐标系下坐标点可对应于霍夫空间内的一条直线;以及
所述基于所述霍夫空间内的直线状态提取出两条轨道线以作为所述第一轨道线包括:
对所述霍夫空间内的所有直线的交点进行统计以确定出通过每一交点的直线的数量;以及
将通过的直线的数量最多的两个交点转换为所述图像坐标系下的直线以作为所述第一轨道线。
8.如权利要求1所述的轨道识别方法,其特征在于,所述利用联邦卡尔曼滤波法将所述第一轨道线和所述第二轨道线融合以作为所述轨道的实际轨道线包括:
将所述第一轨道线和所述第二轨道线分别转换至霍夫空间内的两点;
采用最近邻域算法将所述霍夫空间内的点进行数据关联;
将数据关联的点以及置信度输入联邦卡尔曼滤波以确定出融合后的两个实际点;以及
将所述两个实际点转换为图像坐标系下的直线以作为所述实际轨道线。
9.一种轨道识别装置,包括存储器、处理器以及存储在存储器上的计算机程序,其特征在于,所述处理器被用于执行存储在所述存储器上的计算机程序时实现如权利要求1~8中任一项所述的轨道识别方法的步骤。
10.一种计算机存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被执行时实现如权利要求1~8中任一项所述的轨道识别方法的步骤。
11.一种轨道识别系统,适用于在嵌入了后向反射阵列的虚拟轨道上行驶的车辆,所述轨道识别系统包括:
毫米波雷达,用于发射雷达波束并接收反射波以用于探测出目标点;
摄像头,用于拍摄视觉数据;以及
处理器,所述处理器分别与所述毫米波雷达以及所述摄像头连接以获取所述目标点以及所述视觉数据,所述处理器被配置成实现如权利要求1~8中任一项所述的轨道识别方法的步骤。
CN202011185038.2A 2020-10-29 2020-10-29 一种轨道识别方法及其装置 Active CN112380927B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011185038.2A CN112380927B (zh) 2020-10-29 2020-10-29 一种轨道识别方法及其装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011185038.2A CN112380927B (zh) 2020-10-29 2020-10-29 一种轨道识别方法及其装置

Publications (2)

Publication Number Publication Date
CN112380927A CN112380927A (zh) 2021-02-19
CN112380927B true CN112380927B (zh) 2023-06-30

Family

ID=74576442

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011185038.2A Active CN112380927B (zh) 2020-10-29 2020-10-29 一种轨道识别方法及其装置

Country Status (1)

Country Link
CN (1) CN112380927B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113030944B (zh) * 2021-04-16 2024-02-02 深圳市众云信息科技有限公司 一种雷达目标追踪方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012089114A (ja) * 2010-09-24 2012-05-10 Toyota Motor Corp 障害物認識装置
CN108960183A (zh) * 2018-07-19 2018-12-07 北京航空航天大学 一种基于多传感器融合的弯道目标识别系统及方法
CN109298415A (zh) * 2018-11-20 2019-02-01 中车株洲电力机车有限公司 一种轨道和道路障碍物检测方法
CN109459750A (zh) * 2018-10-19 2019-03-12 吉林大学 一种毫米波雷达与深度学习视觉融合的前方多车辆跟踪方法
CN109520498A (zh) * 2017-09-18 2019-03-26 中车株洲电力机车研究所有限公司 一种用于虚拟轨道车辆的虚拟道岔系统及方法
CN110239592A (zh) * 2019-07-03 2019-09-17 中铁轨道交通装备有限公司 一种轨道车辆主动式障碍物及脱轨检测系统
CN110532896A (zh) * 2019-08-06 2019-12-03 北京航空航天大学 一种基于路侧毫米波雷达和机器视觉融合的道路车辆检测方法
CN110949395A (zh) * 2019-11-15 2020-04-03 江苏大学 一种基于多传感器融合的弯道acc目标车辆识别方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012089114A (ja) * 2010-09-24 2012-05-10 Toyota Motor Corp 障害物認識装置
CN109520498A (zh) * 2017-09-18 2019-03-26 中车株洲电力机车研究所有限公司 一种用于虚拟轨道车辆的虚拟道岔系统及方法
CN108960183A (zh) * 2018-07-19 2018-12-07 北京航空航天大学 一种基于多传感器融合的弯道目标识别系统及方法
CN109459750A (zh) * 2018-10-19 2019-03-12 吉林大学 一种毫米波雷达与深度学习视觉融合的前方多车辆跟踪方法
CN109298415A (zh) * 2018-11-20 2019-02-01 中车株洲电力机车有限公司 一种轨道和道路障碍物检测方法
CN110239592A (zh) * 2019-07-03 2019-09-17 中铁轨道交通装备有限公司 一种轨道车辆主动式障碍物及脱轨检测系统
CN110532896A (zh) * 2019-08-06 2019-12-03 北京航空航天大学 一种基于路侧毫米波雷达和机器视觉融合的道路车辆检测方法
CN110949395A (zh) * 2019-11-15 2020-04-03 江苏大学 一种基于多传感器融合的弯道acc目标车辆识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A review of essential technologies for collision avoidance assistance systems;Zhiguo Zhao,et al;《Advances in Mechanical Engineering》;第9卷(第10期);第1-15页 *
基于毫米波雷达与图像融合的车辆检测;胡彬 等;《华中科技大学学报(自然科学版)》;第39卷(第S2期);第147-149页 *
智能驾驶车载激光雷达关键技术与应用算法;陈晓冬 等;《光电工程》;第46卷(第7期);第34-46页 *

Also Published As

Publication number Publication date
CN112380927A (zh) 2021-02-19

Similar Documents

Publication Publication Date Title
CN113536883B (zh) 障碍物检测方法、车辆、设备及计算机存储介质
CN111712731B (zh) 目标检测方法、系统及可移动平台
CN109284348B (zh) 一种电子地图的更新方法、装置、设备和存储介质
CN103854320B (zh) 基于激光雷达的车型自动识别方法
CN103176185B (zh) 用于检测道路障碍物的方法及系统
EP2686841B1 (en) Method and system for vehicle classification
US7970529B2 (en) Vehicle and lane recognizing device
Wu et al. Applying a functional neurofuzzy network to real-time lane detection and front-vehicle distance measurement
Gern et al. Advanced lane recognition-fusing vision and radar
Cualain et al. Automotive standards-grade lane departure warning system
EP3403216B1 (en) Systems and methods for augmenting upright object detection
US20100097457A1 (en) Clear path detection with patch smoothing approach
Fernández et al. Curvature-based curb detection method in urban environments using stereo and laser
CN102398598A (zh) 使用前视和后视摄像机的车道融合系统
CN107389084A (zh) 行车路径规划方法及存储介质
Kowsari et al. Real-time vehicle detection and tracking using stereo vision and multi-view AdaBoost
JP4940177B2 (ja) 交通流計測装置
KR101448506B1 (ko) 선행차량의 거동을 이용한 주행 차로의 곡률 측정 방법 및 장치
Gern et al. Robust vehicle tracking fusing radar and vision
CN112380927B (zh) 一种轨道识别方法及其装置
Cualain et al. Multiple-camera lane departure warning system for the automotive environment
Li et al. Composition and application of current advanced driving assistance system: A review
CN114084129A (zh) 一种基于融合的车辆自动驾驶控制方法及系统
CN110648542B (zh) 基于方位识别窄波雷达的高精度车流量检测系统
Kanhere Vision-based detection, tracking and classification of vehicles using stable features with automatic camera calibration

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant