CN111046803A - 一种基于卷积神经网络的车辆检测及着地点定位方法 - Google Patents
一种基于卷积神经网络的车辆检测及着地点定位方法 Download PDFInfo
- Publication number
- CN111046803A CN111046803A CN201911283030.7A CN201911283030A CN111046803A CN 111046803 A CN111046803 A CN 111046803A CN 201911283030 A CN201911283030 A CN 201911283030A CN 111046803 A CN111046803 A CN 111046803A
- Authority
- CN
- China
- Prior art keywords
- output
- layer
- convolution
- vehicle
- output characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于卷积神经网络的车辆检测及落地点定位方法,该方法包括:搭建针对车辆检测的神经网络,获取检测网络得到的检测框,对检测中图像计算Y轴‑像素和的直方图,平滑滤波之后最低点就是车辆的落地点。本发明采用了基于YOLOV3‑tiny改进的目标检测网络,计算量小,能够在能力较弱的嵌入式硬件平台上完成实时性的运算。加强了对中等大小车辆的检测,提高了车辆的检测精度,运用直方图的形式再次对着地点进行确认,增加了鲁棒性。
Description
技术领域
本发明属于图像识别技术,具体涉及在嵌入式平台等计算能力较弱的硬件上完成车辆检测及着地点定位的技术。
背景技术
车辆碰撞预警系统是智能交通体系的重要研究内容,现在受到了广泛的关注。在车载的车辆碰撞预警系统研究领域中,利用计算机视觉检测车辆并且确定车辆轮胎在地面的着地点是其中一个关键性问题。卷积网络的应用提高了车辆检测的精度,对于卷积神经网络模型,随着网络层数的增加,神经网络对图像的理解越来越丰富,目标检测识别精度越来越高,但计算量也随之增长。对于常见的嵌入式平台,基于深度学习的车辆检测算法虽然精度基本稳定,但是帧率远远达不到实时的应用要求,无法在工业上被广泛采用。
YOLOV3-tiny网络是基于YOLOV3算法的一个轻量化目标检测网络,其网络层数少、参数量少,在一般的嵌入式平台上可以基本保证实时运算。但YOLOV3-tiny对中等距离的车辆检测效果不佳,对车辆检测的精确度不稳定,会出现对于相邻两帧之间的低速前进的同一车辆的检测框相差较大,无法直接利用检测框得到车辆的着地点的问题。
发明内容
本发明所要解决的技术问题是,提供一种对图像中车辆检测和车辆着地点确定效果好的方法。
本发明为解决采用技术方案如下:一种基于卷积神经网络的车辆检测及着地点定位方法,包括以下步骤:
1)设计车辆检测网络架构:
车辆检测网络包括15个卷积层、2个残差层、1个上采样层、2个物体检测层;
车辆检测网络接收输入的图像为RGB三通道的彩色图片,大小为416*416;
前5层卷积网络的结构与YOLOV3-tiny网络前5层卷积网络相同,对输入图像进行特征的初步提取,第5个卷积层输出的特征图为26*26*256,输出至第6个卷积层、第1个残差层;
第6个卷积层使用256个大小为1*1的卷积核,输出的特征图为26*26*256,输出至第7个卷积层、第2个残差层;
第7个卷积层使用256个大小为1*1的卷积核,输出的特征图为26*26*256,输出至第1个残差层;第1个残差层连接输入的来自第5、第7个卷积层的特征图后输出至第8个卷积层;
第8个卷积层使用256个大小为1*1的卷积核,输出的特征图为26*26*256,输出至第15个卷积层、第2个残差层;第2个残差层连接输入的来自第6、第8个卷积层的特征图后输出至第9个卷积层;
第9个卷积层使用512个大小为1*1的卷积核,输出的特征图为26*26*512,输出至第10个卷积层;
第10个卷积层使用512个大小为3*3的卷积核,输出的特征图为13*13*512,输出至第11个卷积层;
第11个卷积层使用1024个大小为1*1的卷积核,输出的特征图为13*13*1024,输出至第12个卷积层;
第12个卷积层使用256个大小为1*1的卷积核,输出的特征图为13*13*256,输出至第13、第15个卷积层;
第13个卷积层使用512个大小为1*1的卷积核,输出的特征图为13*13*512,输出至物体检测层1;
物体检测层1使用n个大小为1*1的卷积核,输出的特征图为13*13*n,输出至第1个物体检测深度网络,第1个物体检测深度网络在13*13这个尺度上进行位置及物体类别预测,其中n=3*(m+5),m为预设的现有车辆类别总数;
第14个卷积层使用128个大小为1*1的卷积核,输出的特征图为13*13*128,输出至上采样模块;上采样模块完成上采样对输入的特征图完成上采样处理后,输出的特征图为26*26*256,与第8个卷积层8的输出相连接输出至第16个卷积层;
第15个卷积层使用256个大小为1*1的卷积核,输出的特征图为26*26*256,输出至物体检测层2;
物体检测层2使用n个大小为1*1的卷积核,输出的特征图为26*26*n,输出至第2个物体检测深度网络,第2个物体检测深度网络在26*26这个尺度上进行位置及物体类别预测;
车辆检测网络得到13*13和26*26这两个尺度的预测结果之后使用非极大值抑制算法得到最终的车辆检测结果;
2)将m类车辆的图片分别标记车辆位置和类型形成数据集,按3:1的比例设置训练集和验证集,完成对车辆检测网络的训练;
3)车辆检测步骤:来自于车载摄像头输入的图像使用所述车辆检测网络进行车辆检测,得到图像中的车辆预选框;
4)着地点定位步骤:获得车辆预选框中心,相对于车辆预选框的宽不变,高增长1.2倍,以预选框中心为中心再取候选框;取候选框底部1/6部分进行Y轴上的像素的累加计算,得到Y轴-像素和的直方图;所述直方图经过均值滤波之后,将Y轴方向上的最小值所对应在候选框中的水平线作为车辆的着地点所在的位置。
申请人发现对于常用的输入图片尺寸416*416,对中等距离的车辆检测中26*26尺度非常重要。但YOLOV3-tiny对26*26这个尺度的检测比较弱,因此对中等距离的车辆检测效果不佳,加之网络层数少,对车辆检测的精确度不稳定。本发明采用了应量化的基于YOLOV3-tiny改进后的网络,改进后的网络注重了26*26尺度的检测,增加了卷积层和残差层,一方面提高了网络的特征提取能力,能够增加目标的检测精度,另一方面其计算量小,能够在嵌入式平台中进行实时目标检测。本发明提供的稳定准确的车辆检测网络为之后计算车辆的着地点提供了支撑。车辆的着地点确定是车辆检测预警的重要组成部分,本发明通过增加了直方图寻找车辆在地面的阴影最深的位置对着地点进行精确定位。
本发明的有益效果是,车辆检测精度高,着地点定位快速且鲁棒性好。
附图说明
图1是本发明的流程图。
图2是优化后的目标检测网络结构图。
具体实施方式
下面结合附图对本发明进行进一步说明,如图1所示,一种基于卷积神经网络的车辆检测及着地点定位方法,包括以下步骤:
步骤1:确定现有车辆类别m,则最后一层滤波器的数量为n=3*(m+5)。
步骤2:收集带有车辆的图片,并标记车辆在图片中的位置和类型,形成数据集。
步骤3:在深度学习框架中实现如图2所示的神经网络。
输入图片为RGB三通道的彩色图片,大小为416*416。
使用YOLOV3-tiny前5层卷积网络,对图像进行特征的初步提取,得到特征图为26*26*256的输出。
经过卷积层6、7,均采用使用256个大小为1*1的卷积核,设置步长为1,得到特征图为26*26*256的输出。
经过残差层1,连接卷积层5和卷积层7的输出。
经过卷积层8,采用256个大小为1*1的卷积核,设置步长为1,得到特征图为26*26*256的输出。
经过残差层2,连接卷积层6和卷积层8的输出。
经过卷积层9,采用512个大小为1*1的卷积核,设置步长为1,得到特征图为26*26*512的输出。
经过卷积层10,采用512个大小为3*3的卷积核,设置步长为1,得到特征图为13*13*512的输出。
经过卷积层11,采用1024个大小为1*1的卷积核,设置步长为1,得到特征图为13*13*1024的输出。
经过卷积层12,采用256个大小为1*1的卷积核,设置步长为1,得到特征图为13*13*256的输出。
经过卷积层13,采用512个大小为1*1的卷积核,设置步长为1,得到特征图为13*13*512的输出。
经过物体检测层1,采用n个大小为1*1的卷积核,设置步长为1,得到特征图为13*13*256的输出,在这个尺度上进行位置及物体类别预测,其中n为步骤1中确定的滤波器个数。
将卷积层12的输出经过卷积层15层,采用128个大小为1*1的卷积核,得到13*13*128的输出,对输出进行上采样,并与卷积层8得到的输出相连接,输出经过卷积层15,采用256个大小为1*1的卷积核,设置步长为1,再经过物体检测层2,采用n个大小为1*1的卷积核,设置步长为1,在这个尺度上进行位置及物体类别预测,其中n为步骤1中确定的滤波器个数。
得到13*13和26*26这两个尺度的预测结果之后使用非极大值抑制算法得到最终的检测结果。这样车辆检测神经网络搭建完成。
步骤4:在步骤2中获取的数据集,按3:1的比例设置训练集和验证集,在训练loss平稳时,停止训练,得到训练权重。
步骤5:加载权重进行图像检测,得到图像中的车辆预选框。
步骤6:获得预选框中心,按1.2*高向上下放大车辆预选框,得到候选框。
步骤7:计算候选框底部1/6的图片在Y轴上的像素和,得到Y轴-像素和的直方图,经过均值滤波之后,得到Y轴方向上的最小值。
步骤8:Y轴方向的最小值就是选框中车辆的着地点位置。
Claims (4)
1.一种基于卷积神经网络的车辆检测及着地点定位方法,其特征在于,包括以下步骤:
1)设计车辆检测网络架构:
车辆检测网络包括15个卷积层、2个残差层、1个上采样层、2个物体检测层;
车辆检测网络接收输入的图像为RGB三通道的彩色图片,大小为416*416;
前5层卷积网络的结构与YOLOV3-tiny网络前5层卷积网络相同,对输入图像进行特征的初步提取,第5个卷积层输出的特征图为26*26*256,输出至第6个卷积层、第1个残差层;
第6个卷积层使用256个大小为1*1的卷积核,输出的特征图为26*26*256,输出至第7个卷积层、第2个残差层;
第7个卷积层使用256个大小为1*1的卷积核,输出的特征图为26*26*256,输出至第1个残差层;第1个残差层连接输入的来自第5、第7个卷积层的特征图后输出至第8个卷积层;
第8个卷积层使用256个大小为1*1的卷积核,输出的特征图为26*26*256,输出至第15个卷积层、第2个残差层;第2个残差层连接输入的来自第6、第8个卷积层的特征图后输出至第9个卷积层;
第9个卷积层使用512个大小为1*1的卷积核,输出的特征图为26*26*512,输出至第10个卷积层;
第10个卷积层使用512个大小为3*3的卷积核,输出的特征图为13*13*512,输出至第11个卷积层;
第11个卷积层使用1024个大小为1*1的卷积核,输出的特征图为13*13*1024,输出至第12个卷积层;
第12个卷积层使用256个大小为1*1的卷积核,输出的特征图为13*13*256,输出至第13、第15个卷积层;
第13个卷积层使用512个大小为1*1的卷积核,输出的特征图为13*13*512,输出至第1个物体检测层;
第1个物体检测层使用n个大小为1*1的卷积核,输出的特征图为13*13*n,输出至第1个物体检测深度网络,第1个物体检测深度网络在13*13这个尺度上进行位置及物体类别预测,其中n为预设的滤波器数;
第14个卷积层使用128个大小为1*1的卷积核,输出的特征图为13*13*128,输出至上采样模块;上采样模块完成上采样对输入的特征图完成上采样处理后,输出的特征图为26*26*256,与第8个卷积层8的输出相连接输出至第16个卷积层;
第15个卷积层使用256个大小为1*1的卷积核,输出的特征图为26*26*256,输出至第2个物体检测层;
第2个物体检测层使用n个大小为1*1的卷积核,输出的特征图为26*26*n,输出至第2个物体检测深度网络,第2个物体检测深度网络在26*26这个尺度上进行位置及物体类别预测;
车辆检测网络得到13*13和26*26这两个尺度的预测结果之后使用非极大值抑制算法得到最终的车辆检测结果;
2)将样本图片分别标记车辆位置和类型形成数据集,利用数据集完成对车辆检测网络的训练;
3)车辆检测步骤:来自于车载摄像头输入的图像使用所述车辆检测网络进行车辆检测,得到图像中的车辆预选框;
4)着地点定位步骤:获得车辆预选框中心,相对于车辆预选框的宽不变,高增长1.2倍,以预选框中心为中心再取候选框;取候选框底部1/6部分进行Y轴上的像素的累加计算,得到Y轴-像素和的直方图;所述直方图经过均值滤波之后,将Y轴方向上的最小值所对应在候选框中的水平线作为车辆的着地点所在的位置。
2.如权利要求1所述方法,其特征在于,车辆检测网络中每个卷积层的步长为1。
3.如权利要求1所述方法,其特征在于,n=3*(m+5),m为预设的现有车辆类别总数。
4.如权利要求1所述方法,其特征在于,步骤2)将数据集按3:1的比例设置训练集和验证集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911283030.7A CN111046803A (zh) | 2019-12-13 | 2019-12-13 | 一种基于卷积神经网络的车辆检测及着地点定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911283030.7A CN111046803A (zh) | 2019-12-13 | 2019-12-13 | 一种基于卷积神经网络的车辆检测及着地点定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111046803A true CN111046803A (zh) | 2020-04-21 |
Family
ID=70236156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911283030.7A Pending CN111046803A (zh) | 2019-12-13 | 2019-12-13 | 一种基于卷积神经网络的车辆检测及着地点定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111046803A (zh) |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101038625A (zh) * | 2006-03-16 | 2007-09-19 | 索尼株式会社 | 图像处理装置和方法 |
CN101444003A (zh) * | 2006-03-16 | 2009-05-27 | 柯蒂斯·M·布鲁巴克 | 在移动物体上显示高度相关广告而获得收益的系统和方法 |
CN102722030A (zh) * | 2011-03-28 | 2012-10-10 | Nlt科技股份有限公司 | 图像显示设备、图像显示设备的驱动方法和终端设备 |
CN103177247A (zh) * | 2013-04-09 | 2013-06-26 | 天津大学 | 一种融合多视角信息的目标检测方法 |
CN103279755A (zh) * | 2013-03-25 | 2013-09-04 | 东莞中国科学院云计算产业技术创新与育成中心 | 基于汽车底部阴影特征的快速车牌定位方法 |
CN103985282A (zh) * | 2014-05-29 | 2014-08-13 | 石家庄华燕交通科技有限公司 | 驾驶人考试及培训三维虚拟监视方法及其系统 |
CN105225230A (zh) * | 2015-09-11 | 2016-01-06 | 浙江宇视科技有限公司 | 一种识别前景目标对象的方法及装置 |
CN108140323A (zh) * | 2015-08-03 | 2018-06-08 | 大众汽车有限公司 | 用于机动车中的环境检测时改进的数据融合的方法和设备 |
CN108759849A (zh) * | 2018-05-25 | 2018-11-06 | 李维 | 一种汽车自定位导航系统 |
CN108831150A (zh) * | 2018-06-20 | 2018-11-16 | 安徽金赛弗信息技术有限公司 | 基于深度学习的机动车未按规定保持安全距离智能识别方法 |
CN109145696A (zh) * | 2017-06-28 | 2019-01-04 | 安徽清新互联信息科技有限公司 | 一种基于深度学习的老人跌倒检测方法及系统 |
CN110035267A (zh) * | 2018-01-12 | 2019-07-19 | 瑞昱半导体股份有限公司 | 影像增强电路与方法 |
CN110210621A (zh) * | 2019-06-06 | 2019-09-06 | 大连理工大学 | 一种基于残差网络改进的目标检测方法 |
CN110491168A (zh) * | 2019-08-09 | 2019-11-22 | 智慧互通科技有限公司 | 一种基于车轮着地点检测车辆停车状态的方法及装置 |
-
2019
- 2019-12-13 CN CN201911283030.7A patent/CN111046803A/zh active Pending
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101444003A (zh) * | 2006-03-16 | 2009-05-27 | 柯蒂斯·M·布鲁巴克 | 在移动物体上显示高度相关广告而获得收益的系统和方法 |
CN101038625A (zh) * | 2006-03-16 | 2007-09-19 | 索尼株式会社 | 图像处理装置和方法 |
CN102722030A (zh) * | 2011-03-28 | 2012-10-10 | Nlt科技股份有限公司 | 图像显示设备、图像显示设备的驱动方法和终端设备 |
CN103279755A (zh) * | 2013-03-25 | 2013-09-04 | 东莞中国科学院云计算产业技术创新与育成中心 | 基于汽车底部阴影特征的快速车牌定位方法 |
CN103177247A (zh) * | 2013-04-09 | 2013-06-26 | 天津大学 | 一种融合多视角信息的目标检测方法 |
CN103985282A (zh) * | 2014-05-29 | 2014-08-13 | 石家庄华燕交通科技有限公司 | 驾驶人考试及培训三维虚拟监视方法及其系统 |
CN108140323A (zh) * | 2015-08-03 | 2018-06-08 | 大众汽车有限公司 | 用于机动车中的环境检测时改进的数据融合的方法和设备 |
CN105225230A (zh) * | 2015-09-11 | 2016-01-06 | 浙江宇视科技有限公司 | 一种识别前景目标对象的方法及装置 |
CN109145696A (zh) * | 2017-06-28 | 2019-01-04 | 安徽清新互联信息科技有限公司 | 一种基于深度学习的老人跌倒检测方法及系统 |
CN110035267A (zh) * | 2018-01-12 | 2019-07-19 | 瑞昱半导体股份有限公司 | 影像增强电路与方法 |
CN108759849A (zh) * | 2018-05-25 | 2018-11-06 | 李维 | 一种汽车自定位导航系统 |
CN108831150A (zh) * | 2018-06-20 | 2018-11-16 | 安徽金赛弗信息技术有限公司 | 基于深度学习的机动车未按规定保持安全距离智能识别方法 |
CN110210621A (zh) * | 2019-06-06 | 2019-09-06 | 大连理工大学 | 一种基于残差网络改进的目标检测方法 |
CN110491168A (zh) * | 2019-08-09 | 2019-11-22 | 智慧互通科技有限公司 | 一种基于车轮着地点检测车辆停车状态的方法及装置 |
Non-Patent Citations (2)
Title |
---|
杨方波: "基于深度图像的人体运动检测及其步态分析研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
齐美彬等: "基于车底阴影的前方运动车辆检测", 《电子测量与仪器学报》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109087510B (zh) | 交通监测方法及装置 | |
CN111126399B (zh) | 一种图像检测方法、装置、设备及可读存储介质 | |
WO2020097840A1 (en) | Systems and methods for correcting a high-definition map based on detection of obstructing objects | |
CN102737370B (zh) | 检测图像前景的方法及设备 | |
CN110210350A (zh) | 一种基于深度学习的快速停车位检测方法 | |
CN104574393A (zh) | 一种三维路面裂缝图像生成系统和方法 | |
CN108645375B (zh) | 一种用于车载双目系统快速车辆测距优化方法 | |
CN1448886A (zh) | 用于测量车辆队列长度的装置和方法 | |
CN105974120B (zh) | 一种c反应蛋白色度自动检测装置与方法 | |
CN111126183A (zh) | 一种基于近地面影像数据的震后建筑物损毁检测方法 | |
CN109961013A (zh) | 车道线的识别方法、装置、设备及计算机可读存储介质 | |
CN113903011A (zh) | 一种适用于室内停车场的语义地图构建及定位方法 | |
CN114997009B (zh) | 一种基于机器视觉和模型修正的桥梁承载力快速评估方法 | |
CN111553914A (zh) | 基于视觉的货物检测方法、装置、终端及可读存储介质 | |
CN107274673B (zh) | 基于修正局部方差的车辆排队长度测量方法及测量系统 | |
CN116978009A (zh) | 基于4d毫米波雷达的动态物体滤除方法 | |
CN117115415B (zh) | 基于大数据分析的图像标记处理方法和系统 | |
CN112699748B (zh) | 基于yolo及rgb图像的人车距离估计方法 | |
CN116740657A (zh) | 一种基于相似三角形的目标检测以及测距方法 | |
CN111339824A (zh) | 基于机器视觉的路面抛洒物检测方法 | |
CN111046803A (zh) | 一种基于卷积神经网络的车辆检测及着地点定位方法 | |
CN115830514A (zh) | 一种适用于带弯曲河道的全河段表面流速计算方法及系统 | |
CN115035164A (zh) | 一种运动目标识别方法及装置 | |
CN115345859A (zh) | 隧道渗漏水图像的智能检测方法、装置、设备及存储介质 | |
CN114943738A (zh) | 一种基于视觉识别的传感器封装固化胶缺陷识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200421 |