CN110598665A - 一种基于车载移动深度学习平台的杆号识别方法 - Google Patents

一种基于车载移动深度学习平台的杆号识别方法 Download PDF

Info

Publication number
CN110598665A
CN110598665A CN201910886389.7A CN201910886389A CN110598665A CN 110598665 A CN110598665 A CN 110598665A CN 201910886389 A CN201910886389 A CN 201910886389A CN 110598665 A CN110598665 A CN 110598665A
Authority
CN
China
Prior art keywords
positioning
positioning frame
deep learning
pole number
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910886389.7A
Other languages
English (en)
Other versions
CN110598665B (zh
Inventor
刘志刚
刘凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest Jiaotong University
Original Assignee
Southwest Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Jiaotong University filed Critical Southwest Jiaotong University
Priority to CN201910886389.7A priority Critical patent/CN110598665B/zh
Publication of CN110598665A publication Critical patent/CN110598665A/zh
Application granted granted Critical
Publication of CN110598665B publication Critical patent/CN110598665B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于车载移动深度学习平台的杆号识别方法,包括以下步骤:1、获取高铁接触网零部件图像并标记,再筛选得到接触网杆号图像的数据集;2、使用加速区域卷积神经网络模型Faster R‑CNN对步骤1的接触网杆号图像数据集进行训练,对全局接触网杆号图像中的杆号牌定位,得到杆号牌图片数据集;3、使用快速定位模型SSD对步骤2的杆号牌图片数据集进行训练,对杆号牌图片中的数字定位,得到杆号牌数字图片数据集;4、在嵌入式深度学习移动平台部署深度学习模型;5、使用多类别非极大抑制算法对步骤4得到的识别目标进行筛选,得到杆号数字文本;本发明针对高铁接触网杆号识别,定位准确率高、检测时间短。

Description

一种基于车载移动深度学习平台的杆号识别方法
技术领域
本发明属于图像识别技术领域,具体涉及一种基于车载移动深度学习平台的杆号识别方法。
背景技术
接触网2C检测标准中对高铁轨道两侧支柱上的杆号检测有明确要求,是高铁2C的重要检测项目之一,起着故障定位、位置检测等功能;目前,接触网两侧的杆号检测仍处于离线的传统图像处理模式,实际使用仍然存在一定的难度;因此本发明基于车载移动深度学习平台结合深度学习定位检测方法,对高铁轨道两侧支柱杆号做识别输出杆号数字文本。
发明内容
为实现上述目的,本发明提供一种基于车载移动深度学习平台的杆号识别方法。
本发明采用的一种基于车载移动深度学习平台的杆号识别方法,包括以下步骤:
步骤1:获取高铁接触网零部件图像并标记,再筛选得到接触网杆号图像的数据集。
步骤2:使用加速区域卷积神经网络模型Faster R-CNN对步骤1的接触网杆号图像数据集进行训练,对全局接触网杆号图像中的杆号牌定位,得到杆号牌图片数据集。
步骤3:使用快速定位模型SSD对步骤2的杆号牌图片数据集进行训练,对杆号牌图片中的数字定位,得到杆号牌数字图片数据集。
步骤4:在嵌入式深度学习移动平台部署深度学习模型。
步骤5:使用多类别非极大抑制算法对步骤4得到的识别目标进行筛选,得到杆号数字文本。
进一步的,步骤1中的高铁接触网零部件图像为高铁检测车天窗拍摄收集的图像,并通过人工标记的方式生成含有零部件位置及种类信息的xml文件,其中数字1被标记为“1”,数字2被标记为“2”,以此类推。
进一步的,步骤2中的加速区域卷积神经网络模型(Faster R-CNN)流程如下:
S21:缩放输入图像及标注信息至统一大小;
S22:将输入图像传入特征提取网络中,通过对图像进行多层卷积计算进行特征提取;
S23:将特征提取网络输出的最后一张特征图输入到区域建议网络(RegionProposal Network,RPN)中,生成可能存在零部件的建议区域;
S24:将建议区域与最后一张特征图输入感兴趣区域(Region ofInterest,RoI)池化层,再传入全连接层;
S25:将S24的输出通过Softmax分类器和Smooth L1回归器得到杆号牌的类别和坐标;
S26:最后计算杆号牌定位框大小并输出S25定位的杆号牌类别、坐标和定位框大小。
进一步的,步骤3中的SSD深度学习定位模型,具体结构流程如下:
S31:缩放输入图像及标注信息至统一大小;
S32:将输入图像传入特征提取网络中,通过对图像进行多层卷积计算进行特征提取;
S33:在后5层网络特征图的每一个像素点生成5个默认框,默认框的长宽比分别为1、2、3、1/2和1/3;
S34:后5层网络特征图经过两个3x3卷积,其中一个输出每个默认框的位置(x,y,w,h)四个值,另一个卷积层输出每个默认框检测到不同类别物体的概率。
进一步的,步骤4中嵌入式深度学习移动平台部署过程如下:
S41:所使用的嵌入式移动深度学习平台为Nvidia Jetson TX2,该平台面向移动嵌入式系统市场中的GPU加速并行处理,在深度学习和计算机视觉方面的高性能、低能耗计算,使其成为计算密集型嵌入式项目的理想平台;
S42:对深度学习平台进行刷机并安装JetPack3.1与CTI-L4T,开启平台多核模式,编译安装tensorflow1.3.0版本。
进一步的,步骤5中多类别非极大抑制算法的过程如下:
S51:通过新的图片输入到步骤4中的嵌入式深度学习平台,经过目标定位和分类,得到每个杆号数字定位框位置(x,y,w,h)、概率p及类别c,但仍会存在多个误识别框或一个数字被多个同类框定位;
S52:根据步骤S51得到的定位框坐标(x,y,w,h)、概率p及类别c,将其按照概率大小降序排列得到序列L;
S53:按照S52得到排列序列,从序列L中第一个定位框L(0)开始依次对其他定位框做交并比IOU计算,如果存在其他定位框L(i)与概率最大定位框L(0)的IOU大于0.5,则删除该定位框L(i);
交并比IOU计算公式如下:
式中,A和B是定位框L(i)与概率最大定位框L(0)两个定位框区域;
S54:保留第一个定位框L(0)从降序序列L中去除该定位框,返回S53直至降序序列L为空;
S55:遍历保存的定位框,计算每个定位框的中心位置(xm,ym),按照位置从上到下排列;
定位框中心位置计算公式如下:
式中,xm和ym是定位框中心点坐标,x、y、w和h分别为定位框的左上角横、纵坐标、定位框的宽和高;
S56:按照S55的排列顺序遍历保存的定位框,计算相邻两个定位框的中心距离,如果小于杆号牌像素大小的九分之一则删除两者置信度较低的定位框。
本发明与现有技术相比,取得的有益技术效果为:
(1)本发明可用于高铁接触网的杆号数字识别中;
(2)本发明利用了高铁接触网杆号数字有线的特点,结合两个定位神经网络,提高了杆号识别准确率;
(3)本发明可缩短检测时间,降低故障检测的难度,针对性的解决高铁接触网的安全运营问题。
附图说明
图1为本发明流程示意图。
图2为本发明中多类别非极大抑制算法流程示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步详细说明。
一种基于车载移动深度学习平台的杆号识别方法,其流程图如图1所示,包括以下步骤:
步骤1:获取高铁接触网零部件图像并标记,再筛选得到接触网杆号图像的数据集。
高铁接触网零部件图像为高铁检测车天窗拍摄收集的图像,并通过人工标记的方式生成含有零部件位置及种类信息的xml文件,其中数字1被标记为“1”,数字2被标记为“2”,以此类推。
步骤2:使用加速区域卷积神经网络模型Faster R-CNN对步骤1的接触网杆号图像数据集进行训练,对全局接触网杆号图像中的杆号牌定位,得到杆号牌图片数据集。
加速区域卷积神经网络模型(Faster R-CNN)流程如下:
S21:缩放输入图像及标注信息至统一大小;
S22:将输入图像传入特征提取网络中,通过对图像进行多层卷积计算进行特征提取;
S23:将特征提取网络输出的最后一张特征图输入到区域建议网络(RegionProposal Network,RPN)中,生成可能存在零部件的建议区域;
S24:将建议区域与最后一张特征图输入感兴趣区域(Region ofInterest,RoI)池化层,再传入全连接层;
S25:将S24的输出通过Softmax分类器和Smooth L1回归器得到杆号牌的类别和坐标;
S26:最后计算杆号牌定位框大小并输出S25定位的杆号牌类别、坐标和定位框大小。
步骤3:使用快速定位模型SSD对步骤2的杆号牌图片数据集进行训练,对杆号牌图片中的数字定位,得到杆号牌数字图片数据集。
SSD深度学习定位模型,具体结构流程如下:
S31:缩放输入图像及标注信息至统一大小;
S32:将输入图像传入特征提取网络中,通过对图像进行多层卷积计算进行特征提取;
S33:在后5层网络特征图的每一个像素点生成5个默认框,默认框的长宽比分别为1、2、3、1/2和1/3;
S34:后5层网络特征图经过两个3x3卷积,其中一个输出每个默认框的位置(x,y,w,h)四个值,另一个卷积层输出每个默认框检测到不同类别物体的概率。
步骤4:在嵌入式深度学习移动平台部署深度学习模型。
嵌入式深度学习移动平台部署过程如下:
S41:所使用的嵌入式移动深度学习平台为Nvidia Jetson TX2,该平台面向移动嵌入式系统市场中的GPU加速并行处理,在深度学习和计算机视觉方面的高性能、低能耗计算,使其成为计算密集型嵌入式项目的理想平台;
S42:对深度学习平台进行刷机并安装JetPack3.1与CTI-L4T,开启平台多核模式,编译安装tensorflow1.3.0版本。
步骤5:使用多类别非极大抑制算法对步骤4得到的识别目标进行筛选,得到杆号数字文本。
多类别非极大抑制算法的过程如下:
S51:通过新的图片输入到步骤4中的嵌入式深度学习平台,经过目标定位和分类,得到每个杆号数字定位框位置(x,y,w,h)、概率p及类别c,但仍会存在多个误识别框或一个数字被多个同类框定位;
S52:根据步骤S51得到的定位框坐标(x,y,w,h)、概率p及类别c,将其按照概率大小降序排列得到序列L;
S53:按照S52得到排列序列,从序列L中第一个定位框L(0)开始依次对其他定位框做交并比IOU计算,如果存在其他定位框L(i)与概率最大定位框L(0)的IOU大于0.5,则删除该定位框L(i);
交并比IOU计算公式如下:
式中,A和B是定位框L(i)与概率最大定位框L(0)两个定位框区域;
S54:保留第一个定位框L(0)从降序序列L中去除该定位框,返回S53直至降序序列L为空;
S55:遍历保存的定位框,计算每个定位框的中心位置(xm,ym),按照位置从上到下排列;
定位框中心位置计算公式如下:
式中,xm和ym是定位框中心点坐标,x、y、w和h分别为定位框的左上角横、纵坐标、定位框的宽和高;
S56:按照S55的排列顺序遍历保存的定位框,计算相邻两个定位框的中心距离,如果小于杆号牌像素大小的九分之一则删除两者置信度较低的定位框。
本发明通过深度学习方法应用到高铁接触网的杆号识别中,结合高铁接触网杆号有限数字上下排列的特点,将两个定位神经网络相结合,提高了高铁杆号识别准确率,有效的缩短检测时间,降低了故障检测的难度,能较针对性的解决高铁接触网的安全运营问题。

Claims (4)

1.一种基于车载移动深度学习平台的杆号识别方法,其特征在于,包括以下步骤:
步骤1:获取高铁接触网零部件图像并标记,再筛选得到接触网杆号图像的数据集;
步骤2:使用加速区域卷积神经网络模型Faster R-CNN对步骤1的接触网杆号图像数据集进行训练,对全局接触网杆号图像中的杆号牌定位,得到杆号牌图片数据集;
步骤3:使用快速定位模型SSD对步骤2的杆号牌图片数据集进行训练,对杆号牌图片中的数字定位,得到杆号牌数字图片数据集;
步骤4:在嵌入式深度学习移动平台部署深度学习模型;
步骤5:使用多类别非极大抑制算法对步骤4得到的识别目标进行筛选,得到杆号数字文本。
2.根据权利要求1所述的一种基于车载移动深度学习平台的杆号识别方法,其特征在于,所述步骤1中的高铁接触网零部件图像为高铁检测车天窗拍摄收集的图像,并通过人工标记的方式生成含有零部件位置及种类信息的xml文件,其中数字1被标记为“1”,数字2被标记为“2”,以此类推。
3.根据权利要求1所述的一种基于车载移动深度学习平台的杆号识别方法,其特征在于,所述步骤4中嵌入式深度学习移动平台部署过程如下:
S41:所使用的嵌入式移动深度学习平台为Nvidia Jetson TX2,该平台面向移动嵌入式系统市场中的GPU加速并行处理;
S42:对深度学习平台进行刷机并安装JetPack3.1与CTI-L4T,开启平台多核模式,编译安装tensorflow1.3.0版本。
4.根据权利要求1所述的一种基于车载移动深度学习平台的杆号识别方法,其特征在于,所述步骤5中多类别非极大抑制算法的过程如下:
S51:通过新的图片输入到步骤4中的嵌入式深度学习平台,经过目标定位和分类,得到每个杆号数字定位框位置(x,y,w,h)、概率p及类别c,但仍会存在多个误识别框或一个数字被多个同类框定位;
S52:根据步骤S51得到的定位框坐标(x,y,w,h)、概率p及类别c,将其按照概率大小降序排列得到序列L;
S53:按照S52得到排列序列,从序列L中第一个定位框L(0)开始依次对其他定位框做交并比IOU计算,如果存在其他定位框L(i)与概率最大定位框L(0)的IOU大于0.5,则删除该定位框L(i);
交并比IOU计算公式如下:
式中,A和B是定位框L(i)与概率最大定位框L(0)两个定位框区域;
S54:保留第一个定位框L(0)从降序序列L中去除该定位框,返回S53直至降序序列L为空;
S55:遍历保存的定位框,计算每个定位框的中心位置(xm,ym),按照位置从上到下排列;
定位框中心位置计算公式如下:
式中,xm和ym是定位框中心点坐标,x、y、w和h分别为定位框的左上角横、纵坐标、定位框的宽和高;
S56:按照S55的排列顺序遍历保存的定位框,计算相邻两个定位框的中心距离,如果小于杆号牌像素大小的九分之一则删除两者置信度低的定位框。
CN201910886389.7A 2019-09-19 2019-09-19 一种基于车载移动深度学习平台的杆号识别方法 Active CN110598665B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910886389.7A CN110598665B (zh) 2019-09-19 2019-09-19 一种基于车载移动深度学习平台的杆号识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910886389.7A CN110598665B (zh) 2019-09-19 2019-09-19 一种基于车载移动深度学习平台的杆号识别方法

Publications (2)

Publication Number Publication Date
CN110598665A true CN110598665A (zh) 2019-12-20
CN110598665B CN110598665B (zh) 2022-09-09

Family

ID=68861153

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910886389.7A Active CN110598665B (zh) 2019-09-19 2019-09-19 一种基于车载移动深度学习平台的杆号识别方法

Country Status (1)

Country Link
CN (1) CN110598665B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111008619A (zh) * 2020-01-19 2020-04-14 南京智莲森信息技术有限公司 基于深度语义抽取的高铁接触网支柱号牌检测与识别方法
CN114462646A (zh) * 2022-03-15 2022-05-10 成都中轨轨道设备有限公司 一种基于接触网安全巡检的杆号牌识别方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107358258A (zh) * 2017-07-07 2017-11-17 西安电子科技大学 基于nsct双cnn通道和选择性注意机制的sar图像目标分类
CN107844750A (zh) * 2017-10-19 2018-03-27 华中科技大学 一种水面全景图像目标检测识别方法
CN109635666A (zh) * 2018-11-16 2019-04-16 南京航空航天大学 一种基于深度学习的图像目标快速检测方法
CN109840904A (zh) * 2019-01-24 2019-06-04 西南交通大学 一种高铁接触网大尺度差异零部件检测方法
CN109886128A (zh) * 2019-01-24 2019-06-14 南京航空航天大学 一种低分辨率下的人脸检测方法
CN109977780A (zh) * 2019-02-26 2019-07-05 广东工业大学 一种基于深度学习算法的硅藻的检测与识别方法
US20190253520A1 (en) * 2018-02-12 2019-08-15 Micron Technology, Inc. Optimization of Data Access and Communication in Memory Systems
CN110210463A (zh) * 2019-07-03 2019-09-06 中国人民解放军海军航空大学 基于Precise ROI-Faster R-CNN的雷达目标图像检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107358258A (zh) * 2017-07-07 2017-11-17 西安电子科技大学 基于nsct双cnn通道和选择性注意机制的sar图像目标分类
CN107844750A (zh) * 2017-10-19 2018-03-27 华中科技大学 一种水面全景图像目标检测识别方法
US20190253520A1 (en) * 2018-02-12 2019-08-15 Micron Technology, Inc. Optimization of Data Access and Communication in Memory Systems
CN109635666A (zh) * 2018-11-16 2019-04-16 南京航空航天大学 一种基于深度学习的图像目标快速检测方法
CN109840904A (zh) * 2019-01-24 2019-06-04 西南交通大学 一种高铁接触网大尺度差异零部件检测方法
CN109886128A (zh) * 2019-01-24 2019-06-14 南京航空航天大学 一种低分辨率下的人脸检测方法
CN109977780A (zh) * 2019-02-26 2019-07-05 广东工业大学 一种基于深度学习算法的硅藻的检测与识别方法
CN110210463A (zh) * 2019-07-03 2019-09-06 中国人民解放军海军航空大学 基于Precise ROI-Faster R-CNN的雷达目标图像检测方法

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
P S SOUMYA: "Optimized Tank Detector Based on Modern Convolutional Neural Networks", 《2018 SECOND INTERNATIONAL CONFERENCE ON INTELLIGENT COMPUTING AND CONTROL SYSTEMS (ICICCS)》 *
ZHIGANG LIU: "A High-Precision Positioning Approach for Catenary Support Components With Multiscale Difference", 《IEEE TRANSACTIONS ON INSTRUMENTATION AND MEASUREMENT ( VOLUME: 69, ISSUE: 3, MARCH 2020)》 *
孙悦等: "基于改进SSD算法的自然场景文本检测", 《电视技术》 *
智能血压计: "非极大值抑制(nms)算法详解[python]", 《HTTPS://BLOG.CSDN.NET/LZ867422770/ARTICLE/DETAILS/100019587》 *
杨红梅: "基于 SU RF 特征匹配的电气化铁路接触网支撑装置旋转双耳不良状态检测", 《铁道学报》 *
杨红梅: "基于仿射不变矩的电气化铁路绝缘子片间夹杂异物检测", 《铁道学报》 *
王婷婷: "基于机载下视图像的深度学习目标检测系统", 《信息科技》 *
胡从坤等: "使用多任务级联卷积神经网络进行车牌照识别", 《企业技术开发》 *
董阿梅: "基于卷积神经网络的色织物疵点检测与分类算法研究", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111008619A (zh) * 2020-01-19 2020-04-14 南京智莲森信息技术有限公司 基于深度语义抽取的高铁接触网支柱号牌检测与识别方法
CN114462646A (zh) * 2022-03-15 2022-05-10 成都中轨轨道设备有限公司 一种基于接触网安全巡检的杆号牌识别方法及系统
CN114462646B (zh) * 2022-03-15 2022-11-15 成都中轨轨道设备有限公司 一种基于接触网安全巡检的杆号牌识别方法及系统

Also Published As

Publication number Publication date
CN110598665B (zh) 2022-09-09

Similar Documents

Publication Publication Date Title
JP6360802B2 (ja) ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、検出装置、検出方法、および、車両
CN110738101B (zh) 行为识别方法、装置及计算机可读存储介质
CN108830196A (zh) 基于特征金字塔网络的行人检测方法
CN106650740B (zh) 一种车牌识别方法及终端
CN106971185B (zh) 一种基于全卷积网络的车牌定位方法及装置
CN106778835A (zh) 融合场景信息和深度特征的遥感图像机场目标识别方法
CN108108746A (zh) 基于Caffe深度学习框架的车牌字符识别方法
CN110766020A (zh) 一种面向多语种自然场景文本检测与识别的系统及方法
CN110929795B (zh) 高速焊线机焊点快速识别与定位方法
CN110598665B (zh) 一种基于车载移动深度学习平台的杆号识别方法
CN110032983B (zh) 一种基于orb特征提取和flann快速匹配的轨迹识别方法
CN112381061B (zh) 一种面部表情识别方法及系统
CN112418165B (zh) 基于改进型级联神经网络的小尺寸目标检测方法与装置
CN110991444A (zh) 面向复杂场景的车牌识别方法及装置
CN109272060A (zh) 一种基于改进的darknet神经网络进行目标检测的方法和系统
CN105279770A (zh) 一种目标跟踪控制方法及装置
CN109886159A (zh) 一种非限定条件下的人脸检测方法
CN112766184A (zh) 基于多层级特征选择卷积神经网络的遥感目标检测方法
CN113963333B (zh) 一种基于改进yolof模型的交通标志牌检测方法
CN111507353A (zh) 一种基于文字识别的中文字段检测方法及系统
CN114332942A (zh) 基于改进YOLOv3的夜间红外行人检测方法及系统
CN114022837A (zh) 车站遗留物品检测方法、装置、电子设备及存储介质
CN113902044B (zh) 一种基于轻量级yolov3的图像目标提取方法
CN108647679A (zh) 一种基于车窗粗定位的车标识别方法
CN114549825A (zh) 目标检测方法、装置、电子设备与存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant