CN111783794B - 一种基于深度可分离卷积残差块和改进nms的多尺度目标检测方法 - Google Patents
一种基于深度可分离卷积残差块和改进nms的多尺度目标检测方法 Download PDFInfo
- Publication number
- CN111783794B CN111783794B CN202010512200.0A CN202010512200A CN111783794B CN 111783794 B CN111783794 B CN 111783794B CN 202010512200 A CN202010512200 A CN 202010512200A CN 111783794 B CN111783794 B CN 111783794B
- Authority
- CN
- China
- Prior art keywords
- depth separable
- prediction
- residual block
- convolution
- brightness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 48
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 title claims abstract description 33
- 230000001629 suppression Effects 0.000 claims abstract description 3
- 238000012549 training Methods 0.000 claims description 24
- 238000000605 extraction Methods 0.000 claims description 18
- 238000000034 method Methods 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 6
- 230000003247 decreasing effect Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 3
- 238000005286 illumination Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 2
- 238000012163 sequencing technique Methods 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 abstract 1
- 238000013135 deep learning Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度可分离卷积残差块和改进NMS的多尺度目标检测方法,结合深度可分离卷积神经网络特征提取的能力、SSD(Single Shot Detection)模型多尺度检测算法对不同大小目标的适应能力以及改进NMS(改进非极大值抑制NonMaximumSuppression,NMS)对遮挡物体的高检测性能来解决现有检测方法速度过慢、精度不高的问题。
Description
技术领域
本发明属于图像处理领域,涉及一种基于深度学习的目标检测方法,尤其涉及一种基于深度可分离卷积残差块和改进NMS的多尺度目标检测方法。
背景技术
目标检测技术是计算机视觉领域中一项关键的技术,其主要目的是对图片中的物体进行定位并准确输出其所在位置。目前,常用的方法有基于手工特征的方法和基于深度学习的方法,其中基于深度学习的方法是通过卷积神经网络来从大量图片数据中学习到不同物体所具有的特征,并与标注数据进行拟合回归来达到检测所需物体的目的。虽然这种基于深度学习的方法已经取得了不小的成效,但是在图像背景复杂和目标被遮挡等的情况下,很难得到较好的检测效果,而且卷积神经网络的使用让模型复杂度有所提升,进而带来了计算成本的增加,导致算法应用在计算力较低的设备上时出现计算速度慢等问题。因此,需要对基于深度学习的检测方法做进一步改进,来满足实际应用中的各种需求。
发明内容
为了解决上述技术问题,本发明提出了一种基于深度可分离卷积和多尺度特征提取的图像目标检测方法,结合深度可分离卷积神经网络特征提取的能力、SSD(Single ShotDetection)模型多尺度检测算法对不同大小目标的适应能力以及改进NMS(改进非极大值抑制NonMaximumSuppression,NMS)对遮挡物体的高检测性能来解决现有检测方法速度过慢、精度不高的问题。本发明所采用的技术方案是:一种基于深度可分离卷积残差块和改进NMS的多尺度目标检测方法,包括如下步骤,
步骤1,获取若干图片,作为原始图像数据,对原始图像数据中的检测目标进行边框和类别的标注;
步骤2,对于步骤1中的原始图像数据进行数据增强操作,将新生成的图片与步骤1中采集到的图片一起作为训练图片;
步骤3,利用特征提取网络提取训练图片的特征图,将步骤2中的训练图片分批进行特征提取;其中特征提取网络包含依次连接的卷积层、深度可分离残差块(1)、深度可分离残差块(2)、深度可分离残差块(3)、深度可分离残差块(4)、深度可分离残差块(5)、深度可分离残差块(6),所述深度可分离残差块(1)—(6)均由深度卷积、点卷积和残差网络组成;
步骤4,将步骤3得到的特征图送入多尺度检测网络中,在不同大小的特征图上生成不同尺度、不同宽高比的预测框来拟合图片中的待测目标;
步骤5,对步骤4生成的预测框采用NMS进行多余预测框剔除,得到待测目标的唯一标识框;
步骤6,重复步骤3~5对由特征提取网络、多尺度检测网络以及NMS组成的整个模型进行迭代训练;
步骤7,当所有的训练图片均已通过整个模型,输出此时的检测准确率;
步骤8,对比每次输出的准确率,如果准确率持续上升,则继续训练;如果准确率保持不变或有下降趋势,则停止训练,并保存最终整个模型。
进一步的,步骤2中采用水平镜像、随机裁剪、随机亮度和对比度增强的数据增强操作来产生更多训练图片。
进一步的,其中水平镜像表示将图片的左右部分以图像垂直中轴线为中心进行镜像对换;随机裁剪表示将原图像裁剪成多张包含待检测目标的不同大小图片;随机亮度是调节图像亮度以削弱光照不均匀所带来的影响,图片亮度Li通过颜色空间R、G、B的均值来表示,Li越大代表亮度越高,其变换过程的表达式如下:
其中,bri代表变换后的亮度,k为亮度变化系数,通过设置不同的k值完成对Li的调节,k小于1表示亮度减弱,k大于1表示亮度增强,因此将各颜色通道的值同比例增减即可改变图像的亮度。
进一步的,步骤4中先对NMS进行改进,然后利用改进的NMS进行多余预测框剔除,具体实现方式如下:
首先将得到的预测框的置信度从高到低排序,令B为步骤4生成的预测框集合,S为每个预测框对应的置信度分数,选出最高置信度和其对应的预测框,然后遍历其余的预测框,将遍历到的预测框置信度使用以下公式进行重置,重置公式如下:
其中,预测框置信度得分si,M为当前得分最高的预测框,bi为遍历到的预测框,D为所有M的集合,IoU(M,bi)的计算过程为:
其中,A(M)代表得分最高的预测框的面积,A(bi)代表遍历到的预测框的面积,∩代表取交集操作,∪代表取并集操作;
当重置后的得分si大于阈值Nt时,将此时遍历到的预测框从集合B中删除,同时将其置信度分数也从S集合中删除,直到所有的预测框均被扫描过时结束。
进一步的,步骤5中的多尺度检测网络采用SSD模型,包括1层8*8卷积层,1层4*4卷积层,1层2*2卷积层,1层1*1卷积层。
与现有技术相比,本发明方法的优点在于:
(1)采用深度可分离卷积作为整个模型的特征提取层,克服了传统卷积参数量冗余、计算速度慢的问题。
(2)使用SSD模型的多尺度检测网络对不同尺度的特征图分别进行检测,提高了对小目标的检测准确率。
(3)对冗余矩形框使用改进NMS算法,使得对同类重叠目标的误检率下降。
本发明方法可广泛应用于交通视频监控、室内安防、计算机视觉等领域,具有较广的应用前景和较大的经济价值。
附图说明
图1是本发明实施例的流程图。
图2是本发明实施例中的深度可分离卷积残差块结构图。
图3是本发明实施例中的检测网络结构图。
图4是本发明实施例中的改进NMS原理图。
图5是本发明实施例中的检测结果图像,(a)和(b)为不同图像的检测结果。
具体实施方式
为了方便本领域技术人员理解和实施本发明,下面通过实施例,并结合附图对本发明作进一步的具体说明,应当理解的是此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
如图1所示为本发明的算法流程图,具体包括以下步骤:
步骤1,获取若干图片,作为原始图像数据,对训练样本中的检测目标进行边框和类别的标注;
本实施例以智能车装甲板图片样本为例,选取包含智能车装甲板的图片2500张,然后使用labelImg标注软件对其进行边框和类别标注,作为原始图像数据。
步骤2,对于步骤1中的原始图像数据进行数据增强操作,具体操作方式为采用水平镜像、随机裁剪和随机亮度来产生更多训练图片,增加泛化能力,将新生成的训练图片与步骤1中采集到的图片一起作为训练图片。
其中水平镜像表示将图片的左右部分以图像垂直中轴线为中心进行镜像对换;随机裁剪表示将原图像裁剪成多张包含待测装甲板目标的不同大小图片;随机亮度是调节图像亮度以削弱光照不均匀所带来的影响,图片亮度Li可以通过颜色空间R、G、B的均值来表示,Li越大代表亮度越高,其变换过程的表达式如下:
其中,bri代表变换后的亮度,k为亮度变化系数,通过设置不同的k值完成对Li的调节,k小于1表示亮度减弱,k大于1表示亮度增强,因此将各颜色通道的值同比例增减即可改变图像的亮度。
步骤3:将步骤2中的训练图片分批特征提取网络进行特征提取,得到训练图片的特征图。其中特征提取网络包含依次连接的深度卷积层、点卷积层、深度可分离残差块(1)、深度可分离残差块(2)、深度可分离残差块(3)、深度可分离残差块(4)、深度可分离残差块(5)、深度可分离残差块(6),所述深度可分离残差块(1)—(6)均由深度卷积、点卷积和残差网络组成;
其中所构建的特征提取网络详情见下表1所示。
表1特征提取层参数表
其中所述深度可分离卷积残差块(1)—(6)均包含多个卷积层和残差网络,一个深度可分离卷积残差块的结构示意图如图2所示。
步骤4:将步骤3得到的特征图送入SSD模型中的多尺度检测网络中,在不同大小的特征图上生成不同尺度、不同宽高比的矩形框来拟合图片中的待测目标。
该步骤可理解为:提取完特征后,再利用SSD模型的检测网络对图片中的目标进行多尺度检测,该步骤的示意图详见图3,本实例的检测网络包括一层8*8卷积层,一层4*4卷积层,一层2*2卷积层,一层1*1卷积层。
步骤5,对步骤4生成的矩形框采用改进NMS方法,进行多余预测框剔除,得到待测目标的唯一标识框;
改进NMS的实现流程请见图4,首先将得到的预测框的置信度从高到低排序,该图中B为步骤4生成的预测框集合,S为每个预测框对应的置信度分数,选出当前最高置信度和其对应的预测框,然后遍历其余的预测框,将遍历到的预测框置信度使用以下公式进行重置,重置公式如下:
其中,si'为重置之后的预测框置信度,预测框置信度得分si,M为当前得分最高的预测框,bi为遍历到的预测框,σ为重置函数的一个可调节参数,本实施例中σ取0.4,D为所有M的集合,IoU(M,bi)的计算过程为:
其中,A(M)代表得分最高的预测框的面积,A(bi)代表遍历到的预测框的面积,∩代表取交集操作,∪代表取并集操作。
该重置函数使得置信度得分si衰减,且当M与bi的重叠面积越大,si衰减越厉害。当重置后的得分si大于阈值Nt时,将此时遍历到的预测框从集合B中删除,同时将其置信度分数也从S集合中删除,重复扫描B集合中剩余预测框直到所有的预测框均被扫描过时结束。
步骤6,重复步骤3~5对整个模型(特征提取网络、多尺度检测网络以及NMS)进行迭代训练,设置迭代次数,对整个模型进行迭代学习。
步骤7,当训练图片中所有图片均已通过整个模型,输出此时的检测准确率。
步骤8,对比每次输出的准确率,如果准确率持续上升,则继续训练;如果准确率保持不变或有下降趋势,则停止训练,并保存整个模型。
本实施例保存的检测模型配合opencv开源计算机视觉库可进行可视化识别新的图片,请见图5,在不同环境下用所保存的模型对智能车上装甲板进行识别并定位输出其包围矩形框,在矩形框的左上角输出其识别置信度。
本发明主要应用于图像目标识别与定位,单独使用目前检测效果较好的目标检测算法无法处理参数冗余、检测速度过慢和重叠物体识别率低等问题,而本发明中的特征提取网络拥有较少的计算参数以及对移动端低算力设备的良好适应性,故本发明结合深度可分离卷积残差块和SSD模型中的多尺度检测网络以及改进NMS算法来快速高效处理图像目标检测问题。本发明也可以用来检测其他大样本数据集如VOC,COCO数据集等。
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
本文中所描述的具体实施仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (2)
1.一种基于深度可分离卷积残差块和改进NMS的多尺度目标检测方法,其特征在于,包括如下步骤:
步骤1,获取若干图片,作为原始图像数据,对原始图像数据中的检测目标进行边框和类别的标注;
步骤2,对于步骤1中的原始图像数据进行数据增强操作,将新生成的图片与步骤1中采集到的图片一起作为训练图片;
步骤3,利用特征提取网络提取训练图片的特征图,将步骤2中的训练图片分批进行特征提取;其中特征提取网络包含依次连接的卷积层、深度可分离残差块(1)、深度可分离残差块(2)、深度可分离残差块(3)、深度可分离残差块(4)、深度可分离残差块(5)、深度可分离残差块(6),所述深度可分离残差块(1)—(6)均由深度卷积、点卷积和残差网络组成,具体处理过程为:输入特征图,依次进行1×1点卷积、3×3深度卷积、1×1点卷积得到第一特征图,然后将输入特征图与第一特征图进行跳跃连接获得最终的输出特征图;
步骤4,将步骤3得到的特征图送入多尺度检测网络中,在不同大小的特征图上生成不同尺度、不同宽高比的预测框来拟合图片中的待测目标;
步骤5,对步骤4生成的预测框,采用非极大值抑制NMS进行多余预测框剔除,得到待测目标的唯一标识框;
步骤6,重复步骤3~5对由特征提取网络、多尺度检测网络以及NMS组成的整个模型进行迭代训练;
步骤7,当所有的训练图片均已通过整个模型,输出此时的检测准确率;
步骤8,对比每次输出的准确率,如果准确率持续上升,则继续训练;如果准确率保持不变或有下降趋势,则停止训练,并保存最终输出的整个模型;
步骤2中采用水平镜像、随机裁剪、随机亮度和对比度增强的数据增强操作来产生更多训练图片;
其中水平镜像表示将图片的左右部分以图像垂直中轴线为中心进行镜像对换;随机裁剪表示将原图像裁剪成多张包含待检测目标的不同大小图片;随机亮度是调节图像亮度以削弱光照不均匀所带来的影响,图片亮度Li通过颜色空间R、G、B的均值来表示,Li越大代表亮度越高,其变换过程的表达式如下:
其中,bri代表变换后的亮度,k为亮度变化系数,通过设置不同的k值完成对Li的调节,k小于1表示亮度减弱,k大于1表示亮度增强,因此将各颜色通道的值同比例增减即可改变图像的亮度;
步骤4中先对NMS进行改进,然后利用改进的NMS进行多余预测框剔除,具体实现方式如下:
首先将得到的预测框的置信度从高到低排序,令B为步骤4生成的预测框集合,S为每个预测框对应的置信度分数,选出当前最高置信度和其对应的预测框,然后遍历其余的预测框,将遍历到的预测框置信度使用以下公式进行重置,重置公式如下:
其中,si'为重置之后的预测框置信度,预测框置信度得分si,M为当前得分最高的预测框,bi为遍历到的预测框,D为所有M的集合,IoU(M,bi)的计算过程为:
其中,A(M)代表得分最高的预测框的面积,A(bi)代表遍历到的预测框的面积,∩代表取交集操作,∪代表取并集操作;
当重置后的得分si大于阈值Nt时,将此时遍历到的预测框从集合B中删除,同时将其置信度分数也从S集合中删除,直到所有的预测框均被扫描过时结束。
2.如权利要求1所述的一种基于深度可分离卷积残差块和改进NMS的多尺度目标检测方法,其特征在于:步骤5中的多尺度检测网络采用SSD模型,包括1层8*8卷积层,1层4*4卷积层,1层2*2卷积层,1层1*1卷积层。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010512200.0A CN111783794B (zh) | 2020-06-08 | 2020-06-08 | 一种基于深度可分离卷积残差块和改进nms的多尺度目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010512200.0A CN111783794B (zh) | 2020-06-08 | 2020-06-08 | 一种基于深度可分离卷积残差块和改进nms的多尺度目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111783794A CN111783794A (zh) | 2020-10-16 |
CN111783794B true CN111783794B (zh) | 2023-08-22 |
Family
ID=72753747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010512200.0A Active CN111783794B (zh) | 2020-06-08 | 2020-06-08 | 一种基于深度可分离卷积残差块和改进nms的多尺度目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111783794B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9165369B1 (en) * | 2013-03-14 | 2015-10-20 | Hrl Laboratories, Llc | Multi-object detection and recognition using exclusive non-maximum suppression (eNMS) and classification in cluttered scenes |
CN109272060A (zh) * | 2018-09-06 | 2019-01-25 | 湖北工业大学 | 一种基于改进的darknet神经网络进行目标检测的方法和系统 |
CN109816012A (zh) * | 2019-01-22 | 2019-05-28 | 南京邮电大学 | 一种融合上下文信息的多尺度目标检测方法 |
CN110009706A (zh) * | 2019-03-06 | 2019-07-12 | 上海电力学院 | 一种基于深层神经网络和迁移学习的数字岩心重构方法 |
CN110287806A (zh) * | 2019-05-30 | 2019-09-27 | 华南师范大学 | 一种基于改进ssd网络的交通标志识别方法 |
CN110532859A (zh) * | 2019-07-18 | 2019-12-03 | 西安电子科技大学 | 基于深度进化剪枝卷积网的遥感图像目标检测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10262237B2 (en) * | 2016-12-08 | 2019-04-16 | Intel Corporation | Technologies for improved object detection accuracy with multi-scale representation and training |
US10776668B2 (en) * | 2017-12-14 | 2020-09-15 | Robert Bosch Gmbh | Effective building block design for deep convolutional neural networks using search |
-
2020
- 2020-06-08 CN CN202010512200.0A patent/CN111783794B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9165369B1 (en) * | 2013-03-14 | 2015-10-20 | Hrl Laboratories, Llc | Multi-object detection and recognition using exclusive non-maximum suppression (eNMS) and classification in cluttered scenes |
CN109272060A (zh) * | 2018-09-06 | 2019-01-25 | 湖北工业大学 | 一种基于改进的darknet神经网络进行目标检测的方法和系统 |
CN109816012A (zh) * | 2019-01-22 | 2019-05-28 | 南京邮电大学 | 一种融合上下文信息的多尺度目标检测方法 |
CN110009706A (zh) * | 2019-03-06 | 2019-07-12 | 上海电力学院 | 一种基于深层神经网络和迁移学习的数字岩心重构方法 |
CN110287806A (zh) * | 2019-05-30 | 2019-09-27 | 华南师范大学 | 一种基于改进ssd网络的交通标志识别方法 |
CN110532859A (zh) * | 2019-07-18 | 2019-12-03 | 西安电子科技大学 | 基于深度进化剪枝卷积网的遥感图像目标检测方法 |
Non-Patent Citations (1)
Title |
---|
基于深度可分离卷积的交通标志识别算法;杨晋生;杨雁南;李天骄;;液晶与显示(第12期);1-3 * |
Also Published As
Publication number | Publication date |
---|---|
CN111783794A (zh) | 2020-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110059694B (zh) | 电力行业复杂场景下的文字数据的智能识别方法 | |
CN111553929B (zh) | 基于融合网络的手机屏幕缺陷分割方法、装置及设备 | |
CN108121991B (zh) | 一种基于边缘候选区域提取的深度学习舰船目标检测方法 | |
CN106650740B (zh) | 一种车牌识别方法及终端 | |
CN111339902B (zh) | 一种数显仪表的液晶屏示数识别方法及装置 | |
CN112215795B (zh) | 一种基于深度学习的服务器部件智能检测方法 | |
CN109472193A (zh) | 人脸检测方法及装置 | |
CN112989995B (zh) | 文本检测方法、装置及电子设备 | |
CN110599453A (zh) | 一种基于图像融合的面板缺陷检测方法、装置及设备终端 | |
CN113963333B (zh) | 一种基于改进yolof模型的交通标志牌检测方法 | |
CN115797314A (zh) | 零件表面缺陷检测方法、系统、设备及存储介质 | |
CN115690584A (zh) | 一种基于ssd改进的配电房异物检测方法 | |
CN115083006A (zh) | 虹膜识别模型训练方法、虹膜识别方法及装置 | |
CN111027564A (zh) | 基于深度学习一体化的低照度成像车牌识别方法及装置 | |
CN112784675B (zh) | 目标检测方法及装置、存储介质、终端 | |
CN116778164A (zh) | 一种基于多尺度结构改进DeeplabV3+网络的语义分割方法 | |
CN115294392B (zh) | 基于生成网络模型的可见光遥感图像云去除方法及系统 | |
CN115937492B (zh) | 一种基于特征识别的变电设备红外图像识别方法 | |
CN111783794B (zh) | 一种基于深度可分离卷积残差块和改进nms的多尺度目标检测方法 | |
CN115345895B (zh) | 用于视觉检测的图像分割方法、装置、计算机设备及介质 | |
CN116071307A (zh) | 路面缺陷检测模型建立方法、检测方法、存储介质及设备 | |
CN116152191A (zh) | 基于深度学习的显示屏裂纹缺陷检测方法、装置及设备 | |
CN116091784A (zh) | 一种目标跟踪方法、设备及存储介质 | |
CN112084815A (zh) | 一种基于摄像机焦距变换的目标检测方法、存储介质及处理器 | |
CN115439850A (zh) | 基于审单的图文字符识别方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |