CN116665152A - 一种应用于交通目标探测的小目标雷视融合方法 - Google Patents
一种应用于交通目标探测的小目标雷视融合方法 Download PDFInfo
- Publication number
- CN116665152A CN116665152A CN202310699277.7A CN202310699277A CN116665152A CN 116665152 A CN116665152 A CN 116665152A CN 202310699277 A CN202310699277 A CN 202310699277A CN 116665152 A CN116665152 A CN 116665152A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- target detection
- fusion
- millimeter wave
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 54
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 15
- 230000004927 fusion Effects 0.000 claims abstract description 43
- 238000012544 monitoring process Methods 0.000 claims abstract description 6
- 239000002245 particle Substances 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000009432 framing Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 9
- 230000009286 beneficial effect Effects 0.000 description 6
- 238000000034 method Methods 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 230000007547 defect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种应用于交通目标探测的小目标雷视融合方法,涉及雷视融合领域,该方法通过将整张图片分割成不同区域,分别输入目标检测模型进行图像目标检测,从而提高设备对远距离图像小目标的识别召回率和定位精度。本发明解决了传统雷视融合损失图像信息、目标检测的识别范围受限以及雷达监测范围超过300米时雷视融合不完整的问题。
Description
技术领域
本发明涉及雷视融合领域,特别是涉及一种应用于交通目标探测的小目标雷视融合方法。
背景技术
交通强国建设是国家大的发展战略方向。近年来,国家大力发展智慧交通,智能网联,车路协同。在车路协同中,路侧感知系统的感知性能至关重要,是车路协同路段最重要的感知手段。目前,基于图像和毫米波雷达融合的设备在行业内大规模应用,各个厂商采用的技术手段各有不同。
传统的图像和雷达融合方法通常将整张图像输入深度学习算法模型,即不论前端采集的实际图像分辨率大小,都会压缩成小的图像,输入到图像目标检测模型中。该方法的弊端在于整张图像压缩,损失了大量的目标图像信息,特别是相对距离较远的机动车、非机动车和行人信息,导致整个系统的目标检测的识别范围有限,使得图像的目标检测距离在100米-150米。相比之下,雷达的监测范围往往在300米以上,即导致雷视融合过程中,后半部分只有雷达信息,没有图像信息。
发明内容
针对现有技术中的上述不足,本发明提供的一种应用于交通目标探测的小目标雷视融合方法解决了传统雷视融合损失图像信息、目标检测的识别范围受限以及雷达监测范围超过300米时雷视融合不完整的问题。
为了达到上述发明目的,本发明采用的技术方案为:一种应用于交通目标探测的小目标雷视融合方法,包括以下步骤:
S1:将图像和毫米波雷达融合设备安装到交通路杆上,并调整设备位置、俯仰角和图像传感器的角度,满足道路交通监控的范围覆盖需求;
S2:打开图像和毫米波雷达融合设备的配置软件,通过图像预览页面预览实时图像,采用手动方式框选小目标图像的感兴趣区域,并将感兴趣区域的四个角点的像素位置保存到配置文件;
S3:基于保存的不同图像的感兴趣区域的像素位置,在原始图像视频流中提取每一帧图像,并分别分割提取出N个区域图像;
S4:将分割提取出的N个区域图像分别输入不同的深度目标检测模型中,获得每个感兴趣区域的道路交通目标检测结果;
S5:将每个感兴趣区域的道路交通目标检测结果的时间对齐,并投影到统一的坐标系中,通过最近邻匹配算法将距离、速度和类别相近的目标融合,获得整张图片的目标检测融合信息;
S6:将整张图片的目标检测融合信息与毫米波雷达输出的目标结构化信息进行融合,获得图像和毫米波雷达设备的融合输出结果。
上述方案的有益效果是:本发明通过将整张图片分割成不同区域,分别输入目标检测模型中进行图像目标检测,提高了图像和毫米波雷达融合设备对远距离图像小目标的识别召回率和定位精度,解决了传统雷视融合损失图像信息、目标检测的识别范围受限以及雷达监测范围超过300米时雷视融合不完整的问题。
进一步地,S2中要求感兴趣区域覆盖整个道路,且相邻两个感兴趣区域的重叠范围大于或等于1/10图像像素高度,感兴趣区域的数量小于或等于10。
上述进一步方案的有益效果是:通过上述对感兴趣区域的重叠范围的设置,保证了相邻感兴趣区域的配准效果,通过对感兴趣区域的数量的设置,减少边缘设备的计算量,保证目标探测效率。
进一步地,S4中深度目标检测模型采用YOLOV5模型,所述YOLOV5模型以CSPDarknet为主干网络,通过五次标准卷积层CBS提取图像特征,并利用C3模块进行特征堆叠,通过C3模块的残差结构实现特征提取。
上述进一步方案的有益效果是:通过上述技术方案,增加网络宽度,提出大量冗余的梯度信息,保留更有效的小目标特征。
进一步地,S5中将最近邻匹配算法作为匹配优先度的决策依据,公式为
其中,D(i,j)表示距离差函数,表示第t帧的第i个目标质点,/>表示第t+1帧的搜索范围内的第j个目标质点,/>表示/>与该目标在t+1帧的搜索范围内的n个目标质点/>的距离中的最大值,/>和/>表示/>和/>在X-O-Y平面坐标系下的坐标位置。
上述进一步方案的有益效果是:利用上述公式,依据最近邻法则,采用最近邻法作为匹配优先度的决策依据:优先度越高,越先匹配,同时最近邻匹配具有计算量小,运算开销少的优点,符合交通目标探测实时性要求较高的特点。
进一步地,S6中包括以下分步骤:
S6-1:将图像和毫米波雷达的时间戳对齐,同时将毫米波雷达输出的目标结构化信息投影到统一坐标系中;
S6-2:利用匹配算法将图像的目标检测融合信息和毫米波雷达输出的目标结构化信息一一对应,实现图像和毫米波雷达设备的融合。
上述进一步方案的有益效果是:通过上述技术方案,完成图像的目标检测融合信息和毫米波雷达输出的目标结构化信息的融合。
进一步地,S6-2中利用匹配算法将图像的目标检测融合信息和毫米波雷达输出的目标结构化信息一一对应时,目标与候选目标之间的相似性通过相似性函数计算,以巴氏系数表示相似性函数,公式为
其中,表示候选目标的概率密度估计,/>表示目标的概率密度估计,m表示特征维度,u表示特征维度取值。
上述进一步方案的有益效果是:利用巴氏系数说明目标与候选目标之间的相似性,相似度函数值越大,则当前帧目标与下一帧的候选目标越相似,通过相似性函数与最邻近匹配算法能够有效实现图像与雷达设备的目标融合。
附图说明
图1为一种应用于交通目标探测的小目标雷视融合方法流程图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步说明。
如图1所示,一种应用于交通目标探测的小目标雷视融合方法,包括以下步骤:
S1:将图像和毫米波雷达融合设备安装到交通路杆上,并调整设备位置、俯仰角和图像传感器的角度,满足道路交通监控的范围覆盖需求;
S2:打开图像和毫米波雷达融合设备的配置软件,通过图像预览页面预览实时图像,采用手动方式框选小目标图像的感兴趣区域,并将感兴趣区域的四个角点的像素位置保存到配置文件;
S3:基于保存的不同图像的感兴趣区域的像素位置,在原始图像视频流中提取每一帧图像,并分别分割提取出N个区域图像;
S4:将分割提取出的N个区域图像分别输入不同的深度目标检测模型中,获得每个感兴趣区域的道路交通目标检测结果;
S5:将每个感兴趣区域的道路交通目标检测结果的时间对齐,并投影到统一的坐标系中,本实施例中坐标系可选用WGS84坐标系和CGCS2000坐标系,通过最近邻匹配算法将距离、速度和类别相近的目标融合,获得整张图片的目标检测融合信息;
S6:将整张图片的目标检测融合信息与毫米波雷达输出的目标结构化信息进行融合,获得图像和毫米波雷达设备的融合输出结果。
S2中要求感兴趣区域覆盖整个道路,且相邻两个感兴趣区域的重叠范围大于或等于1/10图像像素高度,感兴趣区域的数量小于或等于10。
S4中深度目标检测模型采用YOLOV5模型,所述YOLOV5模型以CSPDarknet为主干网络,通过五次标准卷积层CBS提取图像特征,并利用C3模块进行特征堆叠,通过C3模块的残差结构实现特征提取。
S5中将最近邻匹配算法作为匹配优先度的决策依据,公式为
其中,D(i,j)表示距离差函数,表示第t帧的第i个目标质点,/>表示第t+1帧的搜索范围内的第j个目标质点,/>表示/>与该目标在t+1帧的搜索范围内的n个目标质点/>的距离中的最大值,/>和/>表示/>和/>在X-O-Y平面坐标系下的坐标位置。
S6中包括以下分步骤:
S6-1:将图像和毫米波雷达的时间戳对齐,同时将毫米波雷达输出的目标结构化信息投影到统一坐标系中;
S6-2:利用匹配算法将图像的目标检测融合信息和毫米波雷达输出的目标结构化信息一一对应,实现图像和毫米波雷达设备的融合。
S6-2中利用匹配算法将图像的目标检测融合信息和毫米波雷达输出的目标结构化信息一一对应时,目标与候选目标之间的相似性通过相似性函数计算,以巴氏系数表示相似性函数,公式为
其中,表示候选目标的概率密度估计,/>表示目标的概率密度估计,m表示特征维度,u表示特征维度取值。
由于两帧之间的时间间隔极短,所以交通目标在连续两帧中不会发生太大的变化,那么目标的质心位置距离等物理特征不会太大,通过相似性函数与最邻近匹配算法能够有效实现图像与雷达设备的目标融合。
在本发明的一个实施例中,首先安装并调整融合设备、手动框选小目标图像的感兴趣区域,要求感兴趣区域覆盖整个道路,相邻两区域之间的重叠范围大于等于1/10图像像素高度,感兴趣区域数量小于等于10,以保证探测效果;其次,在原始图像视频流中提取每一帧图像,将图像进行多区域分割提取,并输入不同的深度目标检测模型中得到检测结果;最后,通过目标融合得到整张图片的目标检测结果信息,利用图像的目标检测融合信息与毫米波雷达输出的目标结构化信息进行融合。
本发明通过对距离设备较远、占图像像素较低的小目标的识别,能够在更远距离利用图像传感器对目标进行识别,从而得到更多的目标特征和纹理信息,通过远距离的目标跟踪和识别,可提高整个图像和毫米波雷达融合设备的整体的性能指标,如位置分辨率、位置精度、速度分辨率、速度精度等,利用本方案,对道路交通远距离小目标的召回率和精确度更高。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在发明的保护范围内。
Claims (6)
1.一种应用于交通目标探测的小目标雷视融合方法,其特征在于,包括以下步骤:
S1:将图像和毫米波雷达融合设备安装到交通路杆上,并调整设备位置、俯仰角和图像传感器的角度,满足道路交通监控的范围覆盖需求;
S2:打开图像和毫米波雷达融合设备的配置软件,通过图像预览页面预览实时图像,采用手动方式框选小目标图像的感兴趣区域,并将感兴趣区域的四个角点的像素位置保存到配置文件;
S3:基于保存的不同图像的感兴趣区域的像素位置,在原始图像视频流中提取每一帧图像,并分别分割提取出N个区域图像;
S4:将分割提取出的N个区域图像分别输入不同的深度目标检测模型中,获得每个感兴趣区域的道路交通目标检测结果;
S5:将每个感兴趣区域的道路交通目标检测结果的时间对齐,并投影到统一的坐标系中,通过最近邻匹配算法将距离、速度和类别相近的目标融合,获得整张图片的目标检测融合信息;
S6:将整张图片的目标检测融合信息与毫米波雷达输出的目标结构化信息进行融合,获得图像和毫米波雷达设备的融合输出结果。
2.根据权利要求1所述的应用于交通目标探测的小目标雷视融合方法,其特征在于,所述S2中要求感兴趣区域覆盖整个道路,且相邻两个感兴趣区域的重叠范围大于或等于1/10图像像素高度,感兴趣区域的数量小于或等于10。
3.根据权利要求1所述的应用于交通目标探测的小目标雷视融合方法,其特征在于,所述S4中深度目标检测模型采用YOLOV5模型,所述YOLOV5模型以CSPDarknet为主干网络,通过五次标准卷积层CBS提取图像特征,并利用C3模块进行特征堆叠,通过C3模块的残差结构实现特征提取。
4.根据权利要求1所述的应用于交通目标探测的小目标雷视融合方法,其特征在于,所述S5中将最近邻匹配算法作为匹配优先度的决策依据,公式为
其中,D(i,j)表示距离差函数,表示第t帧的第i个目标质点,/>表示第t+1帧的搜索范围内的第j个目标质点,/>表示/>与该目标在t+1帧的搜索范围内的n个目标质点的距离中的最大值,/>和/>表示/>和/>在X-O-Y平面坐标系下的坐标位置。
5.根据权利要求1所述的应用于交通目标探测的小目标雷视融合方法,其特征在于,所述S6中包括以下分步骤:
S6-1:将图像和毫米波雷达的时间戳对齐,同时将毫米波雷达输出的目标结构化信息投影到统一坐标系中;
S6-2:利用匹配算法将图像的目标检测融合信息和毫米波雷达输出的目标结构化信息一一对应,实现图像和毫米波雷达设备的融合。
6.根据权利要求5所述的应用于交通目标探测的小目标雷视融合方法,其特征在于,所述S6-2中利用匹配算法将图像的目标检测融合信息和毫米波雷达输出的目标结构化信息一一对应时,目标与候选目标之间的相似性通过相似性函数计算,以巴氏系数表示相似性函数,公式为
其中,表示候选目标的概率密度估计,/>表示目标的概率密度估计,m表示特征维度,u表示特征维度取值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310699277.7A CN116665152A (zh) | 2023-06-13 | 2023-06-13 | 一种应用于交通目标探测的小目标雷视融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310699277.7A CN116665152A (zh) | 2023-06-13 | 2023-06-13 | 一种应用于交通目标探测的小目标雷视融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116665152A true CN116665152A (zh) | 2023-08-29 |
Family
ID=87726009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310699277.7A Pending CN116665152A (zh) | 2023-06-13 | 2023-06-13 | 一种应用于交通目标探测的小目标雷视融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116665152A (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110532896A (zh) * | 2019-08-06 | 2019-12-03 | 北京航空航天大学 | 一种基于路侧毫米波雷达和机器视觉融合的道路车辆检测方法 |
US20220207868A1 (en) * | 2020-12-29 | 2022-06-30 | Tsinghua University | All-weather target detection method based on vision and millimeter wave fusion |
CN115346368A (zh) * | 2022-07-30 | 2022-11-15 | 东南大学 | 一种基于远、近景多传感器一体融合的交通路侧感知系统及方法 |
-
2023
- 2023-06-13 CN CN202310699277.7A patent/CN116665152A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110532896A (zh) * | 2019-08-06 | 2019-12-03 | 北京航空航天大学 | 一种基于路侧毫米波雷达和机器视觉融合的道路车辆检测方法 |
US20220207868A1 (en) * | 2020-12-29 | 2022-06-30 | Tsinghua University | All-weather target detection method based on vision and millimeter wave fusion |
CN115346368A (zh) * | 2022-07-30 | 2022-11-15 | 东南大学 | 一种基于远、近景多传感器一体融合的交通路侧感知系统及方法 |
Non-Patent Citations (2)
Title |
---|
冯星辰等: "行人跟踪的多特征融合算法研究", 《信号处理》, pages 1308 - 1317 * |
田萱等: "《超声引导机器人系统实时影像处理与导航定位技术》", 国防工业出版社, pages: 74 - 106 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111695448B (zh) | 一种基于视觉传感器的路侧车辆识别方法 | |
CN101339601B (zh) | 一种基于sift算法的车牌汉字识别方法 | |
CN109902676B (zh) | 一种基于动态背景的违停检测算法 | |
CN103605953A (zh) | 基于滑窗搜索的车辆兴趣目标检测方法 | |
CN108804992B (zh) | 一种基于深度学习的人群统计方法 | |
CN114972968A (zh) | 基于多重神经网络的托盘识别和位姿估计方法 | |
CN113111722A (zh) | 基于改进Mask R-CNN的自动驾驶目标识别方法 | |
CN113128507A (zh) | 一种车牌识别方法、装置、电子设备及存储介质 | |
CN112766056A (zh) | 一种基于深度神经网络的弱光环境车道线检测方法、装置 | |
CN109977862B (zh) | 一种车位限位器的识别方法 | |
CN117496448B (zh) | 一种建筑施工安全智能监控系统及方法 | |
CN115376028A (zh) | 基于稠密特征点拼接和改进型yolov 5的目标检测方法 | |
CN115409789A (zh) | 基于图像语义分割的输电线路工程缺陷检测方法 | |
CN113538585B (zh) | 基于无人机的高精度多目标智能识别定位追踪方法及系统 | |
CN113221957B (zh) | 一种基于Centernet的雷达信息融合特征增强方法 | |
CN114694078A (zh) | 一种基于多目标跟踪的交通行为判定方法 | |
CN104517127A (zh) | 一种基于Bag-of-features模型的自学习行人计数方法及装置 | |
CN115861957B (zh) | 一种基于传感器融合的新型动态物体分割方法 | |
CN112528994A (zh) | 一种自由角度车牌检测方法、车牌识别方法和识别系统 | |
CN117197019A (zh) | 一种车辆三维点云图像融合方法及系统 | |
CN116665152A (zh) | 一种应用于交通目标探测的小目标雷视融合方法 | |
Ji et al. | Lane line detection system based on improved Yolo V3 algorithm | |
CN116189136A (zh) | 一种基于深度学习的雨雪天气下交通信号灯检测方法 | |
CN115588047A (zh) | 一种基于场景编码的三维目标检测方法 | |
CN113095309A (zh) | 一种基于点云的道路场景地面标识物的提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |