CN117315024A - 远距离目标的定位方法、装置和电子设备 - Google Patents
远距离目标的定位方法、装置和电子设备 Download PDFInfo
- Publication number
- CN117315024A CN117315024A CN202311271164.3A CN202311271164A CN117315024A CN 117315024 A CN117315024 A CN 117315024A CN 202311271164 A CN202311271164 A CN 202311271164A CN 117315024 A CN117315024 A CN 117315024A
- Authority
- CN
- China
- Prior art keywords
- target
- point cloud
- longitude
- area
- sparse point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 238000001514 detection method Methods 0.000 claims description 77
- 230000009466 transformation Effects 0.000 claims description 33
- 238000012216 screening Methods 0.000 claims description 31
- 238000013507 mapping Methods 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 17
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 6
- 238000009434 installation Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 4
- 230000004927 fusion Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 230000008447 perception Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明提供了一种远距离目标的定位方法、装置和电子设备,属于目标识别定位的技术领域,本发明的定位方法中,能够将远距离无法识别的稀疏点云利用起来,对该稀疏点云进行筛选,得到筛选后稀疏点云,进而根据筛选后稀疏点云的经纬度坐标和待定区域的真实世界经纬度坐标确定筛选后稀疏点云中属于待定区域的目标稀疏点云,该部分目标稀疏点云即为准确的远距离目标的部分点云,进而将目标稀疏点云中的最前方点云的经纬度坐标作为远距离目标的外轮廓位置,便能实现远距离目标的外轮廓的准确定位。
Description
技术领域
本发明涉及目标识别定位的技术领域,尤其是涉及一种远距离目标的定位方法、装置和电子设备。
背景技术
随着科技发展,基于激光雷达的雷视融合的路口车辆感知算法越来越多的被应用于交通路口场景中。对道路上目标的感知可以帮助信号灯控制系统根据道路上车辆的位置、数量、速度等信息更精确地控制信号灯的变化;也可以分析路口的通行效率和安全性,增强交通合理性;还可以帮助交通管理部门及时发现和处理交通事故、拥堵等问题,进而保障道路交通安全等。
基于激光雷达的雷视融合感知目标的能力虽然比基于毫米波雷达的雷视融合更加丰富和准确,但是其感知范围局限、距离较近,这是因为激光雷视融合需要将雷达感知的目标和摄像头感知的目标进行匹配,其距离依赖于激光雷达和摄像头的视野范围,距离激光雷达越远,扫描的点云越稀疏,故激光雷达目标感知算法对远距离的目标无法感知。
通过在道路侧不同距离增加雷视融合感知设备可以弥补其远距离感知不足的问题,但是增加了更多成本,设备之间对同步性、一致性要求更高,设备之间通信也容易产生延迟和割裂。
综上,如何在不增加雷视融合感知设备的基础上,实现对远距离目标的识别定位成为目前亟需解决的技术问题。
发明内容
有鉴于此,本发明的目的在于提供一种远距离目标的定位方法、装置和电子设备,以缓解现有技术的雷视融合无法对远距离目标进行识别定位的技术问题。
第一方面,本发明实施例提供了一种远距离目标的定位方法,包括:
获取图像采集装置对道路进行图像采集得到的待识别图像,并对所述待识别图像进行目标检测,得到所述待识别图像中各目标的检测框;
将所述目标的检测框内的下边框以上的预设占比区域作为对应目标的待定区域,并对所述待定区域的像素点坐标进行透视变换,得到所述待定区域的真实世界经纬度坐标;
获取与所述图像采集装置时间同步的激光雷达对道路区域进行探测得到的点云,并对所述点云进行识别,得到近距离目标的定位信息和远距离无法识别的稀疏点云;
对所述稀疏点云进行筛选,得到筛选后稀疏点云,并计算所述筛选后稀疏点云的经纬度坐标;
根据所述筛选后稀疏点云的经纬度坐标和所述待定区域的真实世界经纬度坐标确定所述筛选后稀疏点云中属于所述待定区域的目标稀疏点云;
将所述目标稀疏点云中的最前方点云的经纬度坐标作为所述远距离目标的外轮廓位置。
进一步的,所述预设占比区域为根据所述图像采集装置的高度和角度信息计算的所述目标的检测框的下边框到车身的区域占比。
进一步的,对所述待定区域的像素点坐标进行透视变换,包括:
计算道路图像的像素点坐标投影至真实世界经纬度坐标系的映射矩阵;
根据所述映射矩阵对所述待定区域的像素点坐标进行透视变换,得到所述待定区域的真实世界经纬度坐标。
进一步的,对所述稀疏点云进行筛选,包括:
从所述稀疏点云中筛选得到距离地面预设高度范围内的稀疏点云,进而得到所述筛选后稀疏点云。
进一步的,计算所述筛选后稀疏点云的经纬度坐标,包括:
基于所述激光雷达的安装位置的经纬度和北向夹角计算所述筛选后稀疏点云的经纬度坐标。
进一步的,所述方法还包括:
对所述目标的检测框内的像素点坐标进行透视变换,得到真实世界经纬度坐标系下的检测框区域;
对所述检测框区域进行语义分割,得到目标的轮廓;
根据所述轮廓生成多个模拟点云;
获取所述目标检测得到的目标的类型,进而得到所述目标的尺寸,并根据所述尺寸对所述模拟点云进行缩放,得到缩放后的模拟点云;
根据所述尺寸将所述缩放后的模拟点云与所述目标稀疏点云进行拼接,得到拼接后的点云;
对所述拼接后的点云进行识别,得到对应的目标的定位信息,其中,所述目标的定位信息包括:所述目标的识别框、所述目标的中心点位置和所述目标的航向角。
进一步的,根据所述轮廓生成多个模拟点云,包括:
在所述轮廓内采用生成网络或随机采样方法生成多个所述模拟点云。
第二方面,本发明实施例还提供了一种远距离目标的定位装置,包括:
目标检测单元,用于获取图像采集装置对道路进行图像采集得到的待识别图像,并对所述待识别图像进行目标检测,得到所述待识别图像中各目标的检测框;
透视变换单元,用于将所述目标的检测框内的下边框以上的预设占比区域作为对应目标的待定区域,并对所述待定区域的像素点坐标进行透视变换,得到所述待定区域的真实世界经纬度坐标;
点云识别单元,用于获取与所述图像采集装置时间同步的激光雷达对道路区域进行探测得到的点云,并对所述点云进行识别,得到近距离目标的定位信息和远距离无法识别的稀疏点云;
筛选和计算单元,用于对所述稀疏点云进行筛选,得到筛选后稀疏点云,并计算所述筛选后稀疏点云的经纬度坐标;
确定单元,用于根据所述筛选后稀疏点云的经纬度坐标和所述待定区域的真实世界经纬度坐标确定所述筛选后稀疏点云中属于所述待定区域的目标稀疏点云;
设定单元,用于将所述目标稀疏点云中的最前方点云的经纬度坐标作为所述远距离目标的外轮廓位置。
第三方面,本发明实施例还提供了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面任一项所述的方法的步骤。
第四方面,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有机器可运行指令,所述机器可运行指令在被处理器调用和运行时,所述机器可运行指令促使所述处理器运行上述第一方面任一项所述的方法。
在本发明实施例中,提供了一种远距离目标的定位方法,包括:获取图像采集装置对道路进行图像采集得到的待识别图像,并对待识别图像进行目标检测,得到待识别图像中各目标的检测框;将目标的检测框内的下边框以上的预设占比区域作为对应目标的待定区域,并对待定区域的像素点坐标进行透视变换,得到待定区域的真实世界经纬度坐标;获取与图像采集装置时间同步的激光雷达对道路区域进行探测得到的点云,并对点云进行识别,得到近距离目标的定位信息和远距离无法识别的稀疏点云;对稀疏点云进行筛选,得到筛选后稀疏点云,并计算筛选后稀疏点云的经纬度坐标;根据筛选后稀疏点云的经纬度坐标和待定区域的真实世界经纬度坐标确定筛选后稀疏点云中属于待定区域的目标稀疏点云;将目标稀疏点云中的最前方点云的经纬度坐标作为远距离目标的外轮廓位置。通过上述描述可知,本发明的远距离目标的定位方法中,能够将远距离无法识别的稀疏点云利用起来,对该稀疏点云进行筛选,得到筛选后稀疏点云,进而根据筛选后稀疏点云的经纬度坐标和待定区域的真实世界经纬度坐标确定筛选后稀疏点云中属于待定区域的目标稀疏点云,该部分目标稀疏点云即为准确的远距离目标的部分点云,进而将目标稀疏点云中的最前方点云的经纬度坐标作为远距离目标的外轮廓位置,便能实现远距离目标的外轮廓的准确定位,缓解了现有技术的雷视融合无法对远距离目标进行识别定位的技术问题。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种远距离目标的定位方法的流程图;
图2为本发明实施例提供的携带有检测框的待识别图像的示意图;
图3为本发明实施例提供的待定区域和检测框的相对位置的示意图;
图4为本发明实施例提供的另一待定区域和检测框区域的示意图;
图5为本发明实施例提供的有效识别区域和远端感知区域的示意图;
图6为本发明实施例提供的将待定区域和筛选后稀疏点云进行融合的示意图;
图7为本发明实施例提供的感知重建识别过程的示意图;
图8为本发明实施例提供的远距离目标的定位方法的过程示意图;
图9为本发明实施例提供的一种远距离目标的定位装置的示意图;
图10为本发明实施例提供的一种电子设备的示意图。
具体实施方式
下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
现有技术的雷视融合无法对远距离目标进行识别定位。
基于此,本发明的远距离目标的定位方法中,能够将远距离无法识别的稀疏点云利用起来,对该稀疏点云进行筛选,得到筛选后稀疏点云,进而根据筛选后稀疏点云的经纬度坐标和待定区域的真实世界经纬度坐标确定筛选后稀疏点云中属于待定区域的目标稀疏点云,该部分目标稀疏点云即为准确的远距离目标的部分点云,进而将目标稀疏点云中的最前方点云的经纬度坐标作为远距离目标的外轮廓位置,便能实现远距离目标的外轮廓的准确定位。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种远距离目标的定位方法进行详细介绍。
实施例一:
根据本发明实施例,提供了一种远距离目标的定位方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图1是根据本发明实施例的一种远距离目标的定位方法的流程图,如图1所示,该方法包括如下步骤:
步骤S102,获取图像采集装置对道路进行图像采集得到的待识别图像,并对待识别图像进行目标检测,得到待识别图像中各目标的检测框;
在本发明实施例中,对待识别图像进行目标检测具体为采用目标检测网络模型对待识别图像进行目标检测。
该目标检测网络模型为提前训练得到,具体的,获取路口图像采集装置(如摄像头)对道路进行拍摄得到道路图像训练样本,对上述道路图像训练样本中的远处的车辆目标进行标注,进而采用带有标签的道路图像训练样本对原始目标检测网络模型进行训练,得到目标检测网络模型(可以为yolov4、yolov5等),进而该目标检测网络模型可以识别出远距离的车辆目标和车辆类型等信息。
上述目标检测中的目标具体可以为待识别图像中远处的车辆目标,进而得到远处的车辆目标的检测框以及远处的车辆目标的类型。
步骤S104,将目标的检测框内的下边框以上的预设占比区域作为对应目标的待定区域,并对待定区域的像素点坐标进行透视变换,得到待定区域的真实世界经纬度坐标;
具体的,根据单应性成立的基本条件和物体间的远近关系,相同长度的物体在远距离处看起来比近距离处小,所以透视变换只在地平面内成立,两侧建筑、天空等不在地平面上的目标无法对应。远处的车辆目标在鸟瞰图上的映射是被拉长的,越远拉长的越长,同样大小的车辆的识别面积在远处的映射所占面积会变大,传统的图像映射定位会使用目标的检测框的下端中心点像素经纬度作为车辆经纬度,远处像素点相邻之间位置差异很大,检测框只要缩小或者扩大一个像素,就会导致剧烈波动,车辆定位就会出现来回横跳,跳跃的问题,不准确甚至无法定位。如图2所示,远处的车辆映射后车体被拉长,这是由于远处一个像素点代表的距离变大、车辆是垂直于道路造成的。
由于透视变换是平面上的,目标的检测框内道路像素的坐标是准确于车身上的像素对应的坐标,所以本发明提出采用检测框[a,b,c,d]下边界(即下边框)[c,d]以上的预设占比区域(具体为检测框的下边框到车身之间的区域,该部分区域实际上为部分道路上的像素)作为车头位置区域,即目标的待定区域(其为车辆准确位置的待定区域)。
考虑到下边界到车身之间的画面是在平面道路上,符合逆透视变换只在地平面内成立的条件,所以根据图像采集装置的视角,本发明以下边框向上五分之一的检测框区域(即预设占比区域,这里不对该五分之一的数值进行限定,是根据相关信息计算得到的)为车辆的外轮廓待定区域。将图3待定区域(小的矩形框)的像素点坐标[[x1,y1],[x2,y2],[x3,y3],[x4,y4]]进行透视变换(下文中再对透视变换的具体过程进行详细描述,在此不再赘述),得到待定区域的真实世界经纬度坐标。
图4为将待定区域的像素点坐标通过透视变换后映射到真实世界经纬度坐标系的图像,可以看出,由于车辆是立体的而地面是平面的,所以地面可以正常投影,而车辆则被拉长,尺寸产生形变。由于待定区域为车辆的检测框下边框到车身之间的地面范围,所以车辆的外轮廓位置落在待定区域内,相比于通过车身检测框来映射的检测框区域位置,待定区域缩小了车辆可能所在位置的范围,提升了精准性。
步骤S106,获取与图像采集装置时间同步的激光雷达对道路区域进行探测得到的点云,并对点云进行识别,得到近距离目标的定位信息和远距离无法识别的稀疏点云;
具体的,为了确保图像采集装置和激光雷达感知的信息为同一时间,保证数据的一致性同步性,需要将路侧激光雷达和相对应的路口摄像头(即图像采集装置)进行时间同步。
将路侧激光雷达进行道路区域的划分,过滤掉非道路区域内的无用点云,只获取道路区域的点云(以减少计算量),采用激光雷达点云识别算法(如pvrcnn、centerpoint等算法)对点云进行识别,计算出有效识别范围(识别得到近距离目标的定位信息)和有效照射范围,从而划分出无法识别的稀疏点云区域(即远距离无法识别的稀疏点云)。
下面进行详细说明:
首先,测量路侧激光雷达可识别道路上的车辆最远距离,确定有效识别区域(图5中的1),有效识别区域外道路上的矩形区域(如图5中的2)是雷达感知范围的边缘区域,区域内的点云稀疏相距较远,车辆经过这里时只能被零星激光点云照射到,激光雷达点云识别算法(即激光雷达目标感知算法)甚至是人眼都难以分辨出车辆目标,所以此区域为不能识别目标但是还会获得稀疏未知点云的远端感知区域。
从图5中可以看出,在车辆目标距离雷达较近和中等距离的时候,车辆覆盖的激光线(图中的弧线)较多,车身照到的激光点也就较多,点云识别算法可以很好识别出点云簇为车辆。在车辆目标远离雷达的时候,即在雷达感知范围的边缘区域内时,车辆只能和一束激光交汇,仅有车头能够被照射到部分点云,点云过于稀疏故点云识别算法无法识别出这个点云簇的分类。
上述过程可以简单表述为:在激光雷达所在路侧划定远端感知区域,远端感知区域为点云稀疏到点云识别算法无法识别或识别准确率较低的距离区域,获取远端感知区域(即稀疏点云区域)的稀疏点云。
步骤S108,对稀疏点云进行筛选,得到筛选后稀疏点云,并计算筛选后稀疏点云的经纬度坐标;
具体的,筛选时,在稀疏点云中筛选出位于地面以上的激光点云数据,下文中再对筛选的过程进行具体介绍,在此不再赘述。
得到筛选后稀疏点云后,进而计算筛选后稀疏点云的经纬度坐标,下文中再对计算的过程进行具体介绍。
步骤S110,根据筛选后稀疏点云的经纬度坐标和待定区域的真实世界经纬度坐标确定筛选后稀疏点云中属于待定区域的目标稀疏点云;
具体的,将筛选后稀疏点云与待定区域进行映射,筛选出落在待定区域内的目标稀疏点云,则这些目标稀疏点云可视为路侧激光雷达照射在车辆目标上的点云。这些点云的准确经纬度信息就是车辆目标外轮廓所在位置的信息。
也就是将待定区域和筛选后稀疏点云(也即未知点云坐标---激光雷达无法识别的)进行融合:将映射到世界坐标的筛选后稀疏点云和图像车辆位置的待定区域映射到的世界坐标范围进行投射,如图6所示,图像车辆位置的待定区域采用的是车身下方的地面像素的映射数据,在远距离情况下,每个像素所覆盖的距离要远大于近距离覆盖的距离,所以映射到世界经纬度的范围较大,无法提供准确位置;而落在待定区域内的目标稀疏点云则是激光雷达打在车身外轮廓位置的点云,取最前方点云的经纬度坐标[a,b],就是现实中未检测出的远距离目标的外轮廓的准确位置。
步骤S112,将目标稀疏点云中的最前方点云的经纬度坐标作为远距离目标的外轮廓位置。
在本发明实施例中,提供了一种远距离目标的定位方法,包括:获取图像采集装置对道路进行图像采集得到的待识别图像,并对待识别图像进行目标检测,得到待识别图像中各目标的检测框;将目标的检测框内的下边框以上的预设占比区域作为对应目标的待定区域,并对待定区域的像素点坐标进行透视变换,得到待定区域的真实世界经纬度坐标;获取与图像采集装置时间同步的激光雷达对道路区域进行探测得到的点云,并对点云进行识别,得到近距离目标的定位信息和远距离无法识别的稀疏点云;对稀疏点云进行筛选,得到筛选后稀疏点云,并计算筛选后稀疏点云的经纬度坐标;根据筛选后稀疏点云的经纬度坐标和待定区域的真实世界经纬度坐标确定筛选后稀疏点云中属于待定区域的目标稀疏点云;将目标稀疏点云中的最前方点云的经纬度坐标作为远距离目标的外轮廓位置。通过上述描述可知,本发明的远距离目标的定位方法中,能够将远距离无法识别的稀疏点云利用起来,对该稀疏点云进行筛选,得到筛选后稀疏点云,进而根据筛选后稀疏点云的经纬度坐标和待定区域的真实世界经纬度坐标确定筛选后稀疏点云中属于待定区域的目标稀疏点云,该部分目标稀疏点云即为准确的远距离目标的部分点云,进而将目标稀疏点云中的最前方点云的经纬度坐标作为远距离目标的外轮廓位置,便能实现远距离目标的外轮廓的准确定位,缓解了现有技术的雷视融合无法对远距离目标进行识别定位的技术问题。
上述内容对本发明的远距离目标的定位方法进行了简要介绍,下面对其中涉及到的具体内容进行详细描述。
在本发明的一个可选实施例中,预设占比区域为根据图像采集装置的高度和角度信息计算的目标的检测框的下边框到车身的区域占比。
具体的,根据图像采集装置的高度角度等信息求出检测框下边框到车身的区域占比,进而获得目标的待定区域。
在本发明的一个可选实施例中,对待定区域的像素点坐标进行透视变换,具体包括如下步骤:
(1)计算道路图像的像素点坐标投影至真实世界经纬度坐标系的映射矩阵;
具体的,根据摄像头图像的道路信息选取道路区域,获取道路区域四个端点的地面像素点位置,并通过rtk、高精地图定位、现场测量等手段获取这四个像素点对应的现实世界的经纬度坐标,计算求出映射矩阵。
求出摄像头感知道路的映射矩阵:
具体操作为:获取道路图像上近处和远处的四个像素点(如上的道路区域四个端点的地面像素点位置)[[x1,y1],[x2,y2],[x3,y3],[x4,y4]]在真实世界的经纬度坐标[[x1 r,y1 r],[x2 r,y2 r],[x3 r,y3 r],[x4 r,y4 r]],根据公式可以求出映射矩阵进而可求出摄像头图像每个像素点在真实世界的投影:/>
(2)根据映射矩阵对待定区域的像素点坐标进行透视变换,得到待定区域的真实世界经纬度坐标。
具体的,将图3的待定区域(小的矩形框)的像素点坐标[[x1,y1],[x2,y2],[x3,y3],[x4,y4]]和映射矩阵相乘,则可获得待定区域的真实世界经纬度坐标。
在本发明的一个可选实施例中,对稀疏点云进行筛选,包括:
从稀疏点云中筛选得到距离地面预设高度范围内的稀疏点云,进而得到筛选后稀疏点云,其中,预设高度范围为根据目标的高度确定的。
具体的,在远端感知区域(即稀疏点云)内筛选出位于地面以上的激光点云数据,为了排除道路指示牌或电线等路侧设施影响,只需筛选高度在3米以下,0.1米以上的稀疏点云作为筛选后稀疏点云。
也就是过滤掉地面上的点云(高度小于一定数值),将剩余的点云进行再分析,考虑到道路目标高度一般低于3米,所以过滤掉3米以上的点云,排除指示牌、电线等因素影响,则剩下的点云(即筛选后稀疏点云)可视为照射在道路物体外表面的点云和其他无用点云,计算出这些点云所在位置对应的经纬度信息。
在本发明的一个可选实施例中,计算筛选后稀疏点云的经纬度坐标,具体包括如下步骤:
基于激光雷达的安装位置的经纬度和北向夹角计算筛选后稀疏点云的经纬度坐标。
具体的,激光雷达点云单位为米,获取未知点云(即筛选后稀疏点云)的集合为[[x1,y1,z1],[x2,y2,z2]...[xn,yn,zn]],根据雷达安装位置的经纬度[lon1,lat1]、北向夹角α计算筛选后稀疏点云的经纬度,将其映射到经纬度坐标[[x1 loc,y1 loc],[x2 loc,y2 loc]...[xn loc,yn loc]]上:
xn loc=0.00001141*x′n+lon1
yn loc=0.00000895*y′n+lat1
zn loc=0
在本发明的一个可选实施例中,参考图7,该方法还包括:
(1)对目标的检测框内的像素点坐标进行透视变换,得到真实世界经纬度坐标系下的检测框区域;
(2)对检测框区域进行语义分割,得到目标的轮廓;
(3)根据轮廓生成多个模拟点云;
具体的,在轮廓内采用生成网络或随机采样方法生成多个模拟点云,这些模拟点云的作用是模拟和预测真实点云在车辆位置应该具有的分布情况,重构增强无用点云(即目标稀疏点云—雷达无法识别的点云)的形态,补充远端点云的缺失信息。
(4)获取目标检测得到的目标的类型,进而得到目标的尺寸,并根据尺寸对模拟点云进行缩放,得到缩放后的模拟点云;
具体的,上述类型包括:小汽车、SUV、公交车等类型,根据类型得到目标的尺寸,即可以获得车辆目标的大致尺寸长宽高[l,w,h]。
由于模拟点是在图像语义分割的区域生成的,所以位置和图像映射一样存在不准确的问题,需要根据车辆尺寸对模拟点云进行缩放,缩放到真实尺寸大小范围内。
(5)根据尺寸将缩放后的模拟点云与目标稀疏点云进行拼接,得到拼接后的点云;
具体的,真实不可知点云(即目标稀疏点云)是目标迎向雷达最近侧轮廓的激光点,所以真实不可知点云是在目标的外侧,故拼接时真实点云(即目标稀疏点云)应在雷达近处,模拟点云不能比真实点云更接近感知设备。拼接后进行调整,保证模拟点云簇中心点到真实点云的位置与根据车辆类型获得的大致尺寸中心点相当,完成稀疏点云的信息补全。
(6)对拼接后的点云进行识别,得到对应的目标的定位信息,其中,目标的定位信息包括:目标的识别框、目标的中心点位置和目标的航向角。
具体的,拼接后的点云信息丰富,与近距离点云无异,对其进行激光雷达目标感知算法识别,则可获得物体目标的识别框,其中心点为目标的中心点位置,朝向则是目标的航向角,实现了雷达远距离边缘处目标的感知。结合其他范围(中近距离)识别到的车辆信息,可为跟踪、安全预警、行车分析等提供支撑。
上述过程可以简述为:根据目标稀疏点云所在车道、图像检测出的车辆类型、形态(正面、侧面),根据车辆类型获得的车辆尺寸和车外轮廓点云位置信息,对目标稀疏点云进行拼接重建和识别,可计算出车辆的中心位置和航向角。完成路侧感知设备对远处车辆的识别和定位功能。
本发明为了保证全局坐标系的统一,方便感知设备的协同融合,将所用到目标均映射到相同标准的经纬度坐标系下。其中,激光雷达的作用是利用雷达感知范围边缘不可识别的稀疏激光点(不可知点云)来计算目标位置。摄像头的作用是通过图像远处目标识别和粗略映射来判断雷达感知边缘的不可知点云是否为目标物对激光的反射,得到不可知点云为交通目标点云的结果,进而匹配、映射、重建点云,获得目标的准确位置。
本发明的远距离目标的定位方法的过程如图8所示。
传统的雷视融合技术面对远距离目标的定位识别不佳。为此,本发明提出了一种新型的远距离目标感知方法,旨在弥补现有技术的不足。本方法包括利用激光雷达稀疏无用点云来提供位置信息、利用雷视融合和图像透视变换完成远处目标识别定位等。
此外,本发明还提出了一系列数据信息改良方法,如图像定位区域采用检测框下边框和车身之间的平面区域、远处点云结合高度信息、区域信息等进行筛选。相比较于传统的雷视融合技术,本发明解决路侧激光雷达远处由于点云稀疏无法识别车辆、视觉透视变换定位中远处目标位置偏差大的问题,实现了路侧感知设备对远距离模糊目标的识别和定位功能。本方法具有更高更远的定位与识别精度,同时适用于各种不同的应用场景。
本发明具有以下优点和效果:
(1)可将点云识别算法无法检测到的感知边缘不可用点云信息利用起来,通过和图像远侧目标识别相结合,实现无用点云中打在目标上的点云筛选变成有用点云;
(2)利用远处无用点云的位置信息和图像的结合,弥补图像远侧无法定位的缺点,实现远距离雷视目标感知功能,解决雷视融合感知范围小的问题;
(3)利用两个感知设备映射到同一个坐标系并重建缺失信息,根据预测、模拟的位置匹配来实现融合,成本低、效果好,对信息利用率高;
(4)利用图像中目标的检测框下边框到目标车身的地面像素点作为视觉图像目标位置信息,更加准确;
(5)根据目标的检测框内的车身到地面数据确定出车辆的大概区域(即目标的待定区域),进而和激光点云进行融合,利用无用点云获取的车辆外轮廓信息的准确度高;
(6)将无用点云进行生成重建成虚拟车辆点云,再根据重建点云识别出车辆准确位置和航向角,信息利用率高。
实施例二:
本发明实施例还提供了一种远距离目标的定位装置,该远距离目标的定位装置主要用于执行本发明实施例一中所提供的远距离目标的定位方法,以下对本发明实施例提供的远距离目标的定位装置做具体介绍。
图9是根据本发明实施例的一种远距离目标的定位装置的示意图,如图9所示,该装置主要包括:目标检测单元10、透视变换单元20、点云识别单元30、筛选和计算单元40、确定单元50和设定单元60,其中:
目标检测单元,用于获取图像采集装置对道路进行图像采集得到的待识别图像,并对待识别图像进行目标检测,得到待识别图像中各目标的检测框;
透视变换单元,用于将目标的检测框内的下边框以上的预设占比区域作为对应目标的待定区域,并对待定区域的像素点坐标进行透视变换,得到待定区域的真实世界经纬度坐标;
点云识别单元,用于获取与图像采集装置时间同步的激光雷达对道路区域进行探测得到的点云,并对点云进行识别,得到近距离目标的定位信息和远距离无法识别的稀疏点云;
筛选和计算单元,用于对稀疏点云进行筛选,得到筛选后稀疏点云,并计算筛选后稀疏点云的经纬度坐标;
确定单元,用于根据筛选后稀疏点云的经纬度坐标和待定区域的真实世界经纬度坐标确定筛选后稀疏点云中属于待定区域的目标稀疏点云;
设定单元,用于将目标稀疏点云中的最前方点云的经纬度坐标作为远距离目标的外轮廓位置。
在本发明实施例中,提供了一种远距离目标的定位装置,包括:获取图像采集装置对道路进行图像采集得到的待识别图像,并对待识别图像进行目标检测,得到待识别图像中各目标的检测框;将目标的检测框内的下边框以上的预设占比区域作为对应目标的待定区域,并对待定区域的像素点坐标进行透视变换,得到待定区域的真实世界经纬度坐标;获取与图像采集装置时间同步的激光雷达对道路区域进行探测得到的点云,并对点云进行识别,得到近距离目标的定位信息和远距离无法识别的稀疏点云;对稀疏点云进行筛选,得到筛选后稀疏点云,并计算筛选后稀疏点云的经纬度坐标;根据筛选后稀疏点云的经纬度坐标和待定区域的真实世界经纬度坐标确定筛选后稀疏点云中属于待定区域的目标稀疏点云;将目标稀疏点云中的最前方点云的经纬度坐标作为远距离目标的外轮廓位置。通过上述描述可知,本发明的远距离目标的定位装置中,能够将远距离无法识别的稀疏点云利用起来,对该稀疏点云进行筛选,得到筛选后稀疏点云,进而根据筛选后稀疏点云的经纬度坐标和待定区域的真实世界经纬度坐标确定筛选后稀疏点云中属于待定区域的目标稀疏点云,该部分目标稀疏点云即为准确的远距离目标的部分点云,进而将目标稀疏点云中的最前方点云的经纬度坐标作为远距离目标的外轮廓位置,便能实现远距离目标的外轮廓的准确定位,缓解了现有技术的雷视融合无法对远距离目标进行识别定位的技术问题。
可选地,预设占比区域为根据图像采集装置的高度和角度信息计算的目标的检测框的下边框到车身的区域占比。
可选地,透视变换单元还用于:计算道路图像的像素点坐标投影至真实世界经纬度坐标系的映射矩阵;根据映射矩阵对待定区域的像素点坐标进行透视变换,得到待定区域的真实世界经纬度坐标。
可选地,筛选和计算单元还用于:从稀疏点云中筛选得到距离地面预设高度范围内的稀疏点云,进而得到筛选后稀疏点云。
可选地,筛选和计算单元还用于:基于激光雷达的安装位置的经纬度和北向夹角计算筛选后稀疏点云的经纬度坐标。
可选地,该装置还用于:对目标的检测框内的像素点坐标进行透视变换,得到真实世界经纬度坐标系下的检测框区域;对检测框区域进行语义分割,得到目标的轮廓;根据轮廓生成多个模拟点云;获取目标检测得到的目标的类型,进而得到目标的尺寸,并根据尺寸对模拟点云进行缩放,得到缩放后的模拟点云;根据尺寸将缩放后的模拟点云与目标稀疏点云进行拼接,得到拼接后的点云;对拼接后的点云进行识别,得到对应的目标的定位信息,其中,目标的定位信息包括:目标的识别框、目标的中心点位置和目标的航向角。
可选地,该装置还用于:在轮廓内采用生成网络或随机采样方法生成多个模拟点云。
本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
如图10所示,本申请实施例提供的一种电子设备600,包括:处理器601、存储器602和总线,所述存储器602存储有所述处理器601可执行的机器可读指令,当电子设备运行时,所述处理器601与所述存储器602之间通过总线通信,所述处理器601执行所述机器可读指令,以执行如上述远距离目标的定位方法的步骤。
具体地,上述存储器602和处理器601能够为通用的存储器和处理器,这里不做具体限定,当处理器601运行存储器602存储的计算机程序时,能够执行上述远距离目标的定位方法。
处理器601可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器601中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器601可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DigitalSignal Processing,简称DSP)、专用集成电路(Application Specific IntegratedCircuit,简称ASIC)、现成可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器602,处理器601读取存储器602中的信息,结合其硬件完成上述方法的步骤。
对应于上述远距离目标的定位方法,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有机器可运行指令,所述计算机可运行指令在被处理器调用和运行时,所述计算机可运行指令促使所述处理器运行上述远距离目标的定位方法的步骤。
本申请实施例所提供的远距离目标的定位装置可以为设备上的特定硬件或者安装于设备上的软件或固件等。本申请实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,前述描述的系统、装置和单元的具体工作过程,均可以参考上述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
再例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请提供的实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台电子设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述车辆标记方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释,此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本申请的具体实施方式,用以说明本申请的技术方案,而非对其限制,本申请的保护范围并不局限于此,尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本申请实施例技术方案的范围。都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种远距离目标的定位方法,其特征在于,包括:
获取图像采集装置对道路进行图像采集得到的待识别图像,并对所述待识别图像进行目标检测,得到所述待识别图像中各目标的检测框;
将所述目标的检测框内的下边框以上的预设占比区域作为对应目标的待定区域,并对所述待定区域的像素点坐标进行透视变换,得到所述待定区域的真实世界经纬度坐标;
获取与所述图像采集装置时间同步的激光雷达对道路区域进行探测得到的点云,并对所述点云进行识别,得到近距离目标的定位信息和远距离无法识别的稀疏点云;
对所述稀疏点云进行筛选,得到筛选后稀疏点云,并计算所述筛选后稀疏点云的经纬度坐标;
根据所述筛选后稀疏点云的经纬度坐标和所述待定区域的真实世界经纬度坐标确定所述筛选后稀疏点云中属于所述待定区域的目标稀疏点云;
将所述目标稀疏点云中的最前方点云的经纬度坐标作为所述远距离目标的外轮廓位置。
2.根据权利要求1所述的方法,其特征在于,所述预设占比区域为根据所述图像采集装置的高度和角度信息计算的所述目标的检测框的下边框到车身的区域占比。
3.根据权利要求1所述的方法,其特征在于,对所述待定区域的像素点坐标进行透视变换,包括:
计算道路图像的像素点坐标投影至真实世界经纬度坐标系的映射矩阵;
根据所述映射矩阵对所述待定区域的像素点坐标进行透视变换,得到所述待定区域的真实世界经纬度坐标。
4.根据权利要求1所述的方法,其特征在于,对所述稀疏点云进行筛选,包括:
从所述稀疏点云中筛选得到距离地面预设高度范围内的稀疏点云,进而得到所述筛选后稀疏点云。
5.根据权利要求1所述的方法,其特征在于,计算所述筛选后稀疏点云的经纬度坐标,包括:
基于所述激光雷达的安装位置的经纬度和北向夹角计算所述筛选后稀疏点云的经纬度坐标。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
对所述目标的检测框内的像素点坐标进行透视变换,得到真实世界经纬度坐标系下的检测框区域;
对所述检测框区域进行语义分割,得到目标的轮廓;
根据所述轮廓生成多个模拟点云;
获取所述目标检测得到的目标的类型,进而得到所述目标的尺寸,并根据所述尺寸对所述模拟点云进行缩放,得到缩放后的模拟点云;
根据所述尺寸将所述缩放后的模拟点云与所述目标稀疏点云进行拼接,得到拼接后的点云;
对所述拼接后的点云进行识别,得到对应的目标的定位信息,其中,所述目标的定位信息包括:所述目标的识别框、所述目标的中心点位置和所述目标的航向角。
7.根据权利要求6所述的方法,其特征在于,根据所述轮廓生成多个模拟点云,包括:
在所述轮廓内采用生成网络或随机采样方法生成多个所述模拟点云。
8.一种远距离目标的定位装置,其特征在于,包括:
目标检测单元,用于获取图像采集装置对道路进行图像采集得到的待识别图像,并对所述待识别图像进行目标检测,得到所述待识别图像中各目标的检测框;
透视变换单元,用于将所述目标的检测框内的下边框以上的预设占比区域作为对应目标的待定区域,并对所述待定区域的像素点坐标进行透视变换,得到所述待定区域的真实世界经纬度坐标;
点云识别单元,用于获取与所述图像采集装置时间同步的激光雷达对道路区域进行探测得到的点云,并对所述点云进行识别,得到近距离目标的定位信息和远距离无法识别的稀疏点云;
筛选和计算单元,用于对所述稀疏点云进行筛选,得到筛选后稀疏点云,并计算所述筛选后稀疏点云的经纬度坐标;
确定单元,用于根据所述筛选后稀疏点云的经纬度坐标和所述待定区域的真实世界经纬度坐标确定所述筛选后稀疏点云中属于所述待定区域的目标稀疏点云;
设定单元,用于将所述目标稀疏点云中的最前方点云的经纬度坐标作为所述远距离目标的外轮廓位置。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有机器可运行指令,所述机器可运行指令在被处理器调用和运行时,所述机器可运行指令促使所述处理器运行上述权利要求1至7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311271164.3A CN117315024A (zh) | 2023-09-28 | 2023-09-28 | 远距离目标的定位方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311271164.3A CN117315024A (zh) | 2023-09-28 | 2023-09-28 | 远距离目标的定位方法、装置和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117315024A true CN117315024A (zh) | 2023-12-29 |
Family
ID=89261638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311271164.3A Pending CN117315024A (zh) | 2023-09-28 | 2023-09-28 | 远距离目标的定位方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117315024A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118015850A (zh) * | 2024-04-08 | 2024-05-10 | 云南省公路科学技术研究院 | 一种多目标车辆车速同步估算方法、系统、终端及介质 |
-
2023
- 2023-09-28 CN CN202311271164.3A patent/CN117315024A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118015850A (zh) * | 2024-04-08 | 2024-05-10 | 云南省公路科学技术研究院 | 一种多目标车辆车速同步估算方法、系统、终端及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109791052B (zh) | 使用数字地图对点云的数据点进行分类的方法和系统 | |
JP2023523243A (ja) | 障害物検出方法及び装置、コンピュータデバイス、並びにコンピュータプログラム | |
CN108694882B (zh) | 用于标注地图的方法、装置和设备 | |
US9123242B2 (en) | Pavement marker recognition device, pavement marker recognition method and pavement marker recognition program | |
Chen et al. | Next generation map making: Geo-referenced ground-level LIDAR point clouds for automatic retro-reflective road feature extraction | |
US12026960B2 (en) | Dynamic driving metric output generation using computer vision methods | |
RU2571871C2 (ru) | Способ определения границ дороги, формы и положения объектов, находящихся на дороге, и устройство для его выполнения | |
CN111179300A (zh) | 障碍物检测的方法、装置、系统、设备以及存储介质 | |
CN112154446B (zh) | 立体车道线确定方法、装置和电子设备 | |
CN110969592A (zh) | 图像融合方法、自动驾驶控制方法、装置和设备 | |
Ravi et al. | Lane width estimation in work zones using LiDAR-based mobile mapping systems | |
Petrovai et al. | A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices | |
CN117315024A (zh) | 远距离目标的定位方法、装置和电子设备 | |
CN114494618A (zh) | 地图的生成方法、装置、电子设备及存储介质 | |
US11488332B1 (en) | Intensity data visualization | |
CN111160132B (zh) | 障碍物所在车道的确定方法、装置、电子设备和存储介质 | |
CN112255604A (zh) | 一种雷达数据准确性的判断方法、装置及计算机设备 | |
CN112988922A (zh) | 感知地图构建方法、装置、计算机设备和存储介质 | |
CN112507887B (zh) | 一种路口标志牌提取及关联的方法及装置 | |
Leu et al. | High speed stereo vision based automotive collision warning system | |
CN112639822B (zh) | 一种数据处理方法及装置 | |
CN113724333A (zh) | 一种雷达设备的空间标定方法和系统 | |
Laureshyn et al. | Automated video analysis as a tool for analysing road user behaviour | |
CN115546130A (zh) | 用于数字孪生的身高测量方法、装置及电子设备 | |
KR102568111B1 (ko) | 도로 경계 추출 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |