CN112907553A - 一种基于Yolov3的高清图像目标检测方法 - Google Patents
一种基于Yolov3的高清图像目标检测方法 Download PDFInfo
- Publication number
- CN112907553A CN112907553A CN202110255601.7A CN202110255601A CN112907553A CN 112907553 A CN112907553 A CN 112907553A CN 202110255601 A CN202110255601 A CN 202110255601A CN 112907553 A CN112907553 A CN 112907553A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- network
- yolov3
- size
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 47
- 239000013598 vector Substances 0.000 claims abstract description 32
- 238000004364 calculation method Methods 0.000 claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 11
- 238000004519 manufacturing process Methods 0.000 claims abstract description 5
- 238000012360 testing method Methods 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 19
- 238000004422 calculation algorithm Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 238000005520 cutting process Methods 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 2
- 238000002360 preparation method Methods 0.000 claims description 2
- 238000001914 filtration Methods 0.000 claims 1
- 238000013528 artificial neural network Methods 0.000 abstract 1
- 238000002474 experimental method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000006748 scratching Methods 0.000 description 2
- 230000002393 scratching effect Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 235000011229 Prunus domestica subsp. syriaca Nutrition 0.000 description 1
- 240000005462 Prunus umbellata var. umbellata Species 0.000 description 1
- 235000005138 Spondias dulcis Nutrition 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000013215 result calculation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及计算机视觉技术领域,种基于Yolov3的高清图像目标检测方法,该方法包括:针对高清图像下小目标的检测,对Yolov3网络进行剪裁,去掉其中针对大、中尺寸目标检测而引入的分支,精简网络以提高计算速度;针对剪裁后的网络,分别制作训练数据集和测试数据集,训练神经网络;训练完成后,手工制作含有典型小目标的图像,送入Yolov3网络得到该图像特征向量,作为后续相似度匹配的标准特征块。
Description
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种基于Yolov3的高清图像目标检测方法。
背景技术
随着计算机、相机、智能手机等硬件资源成本不断降低,以及深度学习技术的提出和图像处理技术的发展,近些年图像分类、目标检测、语义分割等智能计算任务都取得了突破性进展。
在计算机视觉领域,传感器获得的图像分辨率越高,所包含的细微信息就更丰富。如果可以充分使用这些信息,就可以完成许多依靠肉眼不易完成的任务。例如在各类安防监控应用中,如果能够对更细小的目标进行快速准确的检测,就可以使用户获得更多有用的信息,进而做出更准确的判断。
目前关于目标检测有Yolo、Faster-RCNN等检测算法,但大部分都是应用于分辨率较低的数据集。现有的最简单方法是直接扩展卷积层,将其应用到高分辨率图像上,但这会因庞大的卷积运算而消耗大量的计算资源。另一类方法是将图像缩放后再检测,但又可能会导致小目标特征不足而无法被识别。此外,还有方法将原图分割成若干个低像素图片,再进行检测,但这种方法大大加长了处理时间,在处理速度方面表现不佳。
为了解决本领域小目标检测时间长、不易被检测问题,作出了本发明。
发明内容
针对现有的技术存在的缺陷,本发明的目的是提供一种基于Yolov3的高清图像目标检测方法,解决现有技术在处理高清图像时因计算量大而导致耗时间长和因缩放而导致的准确性较差的问题。
本发明所要解决的技术问题是:一种基于Yolov3的高清图像目标检测方法,包括以下步骤:
步骤一、进行准备工作,对Yolov3网络进行特定剪裁,去掉其中针对大目标、中目标检测而引入的两条分支,只保留小目标检测的计算分支,精简网络以提高计算速度;针对剪裁后的Yolov3网络,使用摄像机拍摄含有待检测目标的图片,使用手工标注方式分别制作训练数据集和测试数据集,训练剪裁后的Yolov3网络作为后续的目标检测网络;
步骤二、手工制作标准目标图像,在其标准目标图像中央位置包含有典型小目标,典型小目标为无遮挡,无扭曲的待检测目标(标准目标图像的分辨率与输入的待检测高清图像分辨率相同,整体图像缩放至416*416之后,典型小目标所占像素大小为10*13。典型小目标内容为待检测目标,如本专利具体实施方式中检测目标为人形玩偶,则典型小目标内容为人形玩偶。典型小目标要求图像无遮挡,无扭曲。),将典型小目标输入上述训练好的Yolov3网络中,得到其主干网络Darknet-53输出的52*52*256尺寸的特征向量,52*52*256代表的含义是将图划分为52*52的网格区域,每一个网格区域对应一个尺寸为1*256的特征列向量,特征向量的中央位置的典型小目标对应的特征向量,大小为1*256,记为标准特征块t_sd,在之后相似度匹配过程中作为匹配标准向量;
步骤三、将一幅包含典型小目标的待检测图像作为输入,将其缩放至416*416大小,记为img,输入Yolov3网络,得到其主干网络Darknet-53输出的52*52*256的特征向量,52*52*256代表的含义是将图划分为52*52的网格区域,每一个网格区域对应一个尺寸为1*256的特征列向量;
步骤四:引入相关回归思想,将上步骤img的各个网格区域(网格是Yolov3网络中的专有名词,在本专利中是指将416*416的图像,自左上角第一个像素开始,连续每8*8像素划分为一个网格,共划分52*52个网格,此处“各个网格区域的特征向量与标准特征块…”是指遍历上述52*52个网格,将其对应的特征向量分别与标准特征块t_sd进行相似度匹配。)的特征向量与标准特征块t_sd进行相似度匹配,根据匹配结果计算原图中各个网格区域是否可能存在目标的信息;
相似度匹配过程使用两个特征向量的余弦距离表示两者的相关程度,其公式如下,A和B分别代表要匹配的两个特征向量,A代表img特征向量,B代表t_sd特征向量,(下列公式具有交换律特点,即交换A和B不改变计算结果),尺寸为1*256:
公式中i为1-256中的一个数字,得到的相似度cosθ的范围为从-1到1,表示从最不相关到最相关,将相似程度cosθ超过阈值(阈值由实验确定,在实施例中阈值为0.2)的网格区域(网格所对应的图像区域)标注为1,其它网格区域标注为0,表示此区域有可能存在目标(典型小目标),阈值定义为有目标区域的相似度与无目标区域相似度最大值之间的中间值(此为阈值确定实验,使用本领域常用的抽样统计实验方法。具体为随机从数据集中抽样20张左右的图片,人工区分有目标区域和无目标区域,接着按照如上步骤三、四所述操作,得出有目标区域的相似度值和无目标区域相似度值。并对无目标区域的相似度值进行排序,取出最大值。)。
步骤五:根据步骤四的匹配结果(1代表超过阈值,表示此区域有可能存在目标,0代表没有超过阈值,表示此区域没有目标),对原图中可能存在目标的区域进行裁剪(根据步骤四中得到每个网格区域的相似度,对于可能存在目标的网格区域,以该网格中心为中心,裁剪416*416像素大小的图像),并送入Yolov3网络进行精细检测(Yolov3是一个检测网络,其输入是待检测图片,输出是所有目标的矩形框坐标。在此处,将裁剪下来的可能存在目标的图像作为Yolov3网络输入,运行网络后,网络输出每个目标的坐标,完成检测过程。);不存在目标的区域直接舍弃,从而避免对整幅图进行遍历搜索,经原图裁剪和精细检测后,最终YOLOv3网络输出各个典型小目标在高清图像中的位置,形式为矩形框坐标(x,y,w,h),分别代表目标框的中心坐标(x,y)、长w、宽h(建立直角坐标系以左上角第一个像素为坐标原点,右方向作为x轴正方向,下方向作为y轴正方向。x、y单位为像素点。此坐标系为本领域一般的默认坐标系。)。
所述的高清图像像素大小为1440*2560,大小在2K以上。
针对的是在特定场景中一幅图中50个以上大小相近的特定物体,目标尺寸过小(即图像缩放至416*416像素后,目标所占像素在10*13以下)且差异不大,缩放后几乎检测不到。
步骤一所述的大目标、中目标是指将图像缩放到416*416像素分辨率后,目标所占像素大小分别在116*90、16*30以上的,可以被目标检测网络有效识别的较大尺寸目标;而小目标是指相同条件下,目标所占像素大小在10*13以下,不能被网络有效检测出来的目标。
步骤一所述的剪裁掉Yolov3针对大目标、中目标预测分支的操作,指的是去掉Yolov3结构中特征层尺寸为13*13及26*26的两条计算分支,只保留52*52的计算分支,也就是说针对特定目标大小的应用场景,不需要进行多尺度预测,以此提高计算速度。
步骤二所述的手工制作标准目标图像,是指制作一张在图像中央位置含有典型的小目标的图像,分辨率为输入的待检测高清图像分辨率,再缩放至416*416像素后使用。
步骤五所述裁剪是指以可能存在目标的网格区域对角线为中心,抠取大小为416*416的图像块。同时,为了防止某些区域被多个网格重复抠取,使用NMS(非极大值抑制)算法,滤除重叠率超过50%的抠取部分。重叠率使用IoU(Intersection over Union),即交并比来衡量,定义为如下公式:
其中Area1和Area2分别表示重叠的两个抠取图像面积,如果这两张图像计算来的IoU大于0.33,就说明重叠部分超过50%,删除掉其中一个抠取图像
本发明的有益效果是:本发明通过确定高清图像中可能存在目标的区域,再针对性的进行检测。相比于分割方法中逐个遍历检测方式,有效的减少了计算量,节省资源消耗和提高检测速度。本发明从原高清图像中抠取目标图像进行精细检测,使得原图中小目标的各种特征得以保留。相比直接缩放检测算法,有效的提高了检测准确度。本发明基于剪裁的Yolov3网络结构,引入相关回归思想。但该思想并不局限于Yolov3网络,可以方便的引入到其他检测网络中,相比特定的网络结构设计,具有较强的普适性。
附图说明
图1是本专利剪裁的Yolov3网络结构示意图;
图2是未经剪裁的Yolov3网络结构示意图;
图3本专利流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步的详细说明。应当理解,此处所描述的具体实例仅用以解释本发明,并不限定本发明。
Yolov3是目标检测领域经典的网络结构,它主要由darknet53主干网络模型和三个大小尺度的特征融合网络组成。本黄钻李在yolov3网络基础上进行如图所示的修剪,只保留第三个针对小目标尺度的输出。本专利中使用的52*52*256的3维特征向量由darknet53主干网络输出,其在网络中的具体位置如图所示。目标检测结果直接由网络输出得到。
本实例所针对的高清图像像素大小为1440*2560以上,所述的特定目标为图像中50多个人形玩偶。所述的相关回归层在本质上就是通过将下采样图像的各个区域提取的特征与只含目标的标准图像的特征进行匹配,将匹配结果进行归一化得到原高清图像各个区域包含目标的可能性,从而只需将可能包含目标的区域重新检测,没有包含目标的区域不做任何处理,避免了对整幅图做处理,减少计算量。
一种基于Yolov3的高清图像目标检测方法,包括以下步骤:
步骤一:由于高清图像中目标的数量较多,尺寸较小,检测的时候卷积层较深,会导致目标的特征丢失,卷积层数较少,会导致目标边界框预测有偏差,因此选择合适层数的网络,可以保证结果的准确性。
因此,对于yolov3的网络结构,去掉其针对大目标、中目标检测而引入的两条计算分支,只保留针对小目标检测的特征层进行结果计算,也就是说去掉13*13、26*26特征层对应的网络结构,简化了网络结构,在减少计算量的同时保证了结果的准确性,简化后的网络结构见图一。
步骤二:用高清摄像机拍摄多张含特定目标的图片构成训练和测试数据集;
在该实例中,拍摄了一千张包含数目不等的人形玩偶的不同角度、大小、背景的照片;以及拍摄一张只含有一个典型小目标的高分辨率图像,且目标位于图像中央位置,目标尺寸符合小目标的典型值。此处小目标是指缩放到416*416尺寸后,像素在10*13以下的不能被网络有效检测出的目标。经过缩放至416*416大小后,作为典型目标图像,此处典型图像之所以这样制作,是为了尽可能与其进行关联匹配的检测图像相一致,以达到最佳的匹配效果;之后再将其输入Yolov3网络,得到主干网络Darknet-53输出的标准特征向量,记为关联度量过程中的标准特征块t_sd。
在训练阶段,使用由大目标组成的训练图像进行Yolov3网络训练,此处大目标是指在数据集制作中,而专门拍摄的经缩放至416*416后,尺寸在16*30以上的能被网络有效识别到的较大目标。损失函数采用交叉熵损失函数,其公式为:
Loss=-[ylogy`+(1-y)log(1-y`)]
其中y为标签值,y`为预测值。当y`越接近1损失函数的值越小,越接近0损失函数的值越大。
考虑单个类别,上式可以表示为:
步骤三:将包含小目标的高清图像缩放至416*416大小,记为img,输入Yolov3网络进行预检测,得到主干网络Darknet-53输出的52*52*256的特征向量,此处52*52代表的含义是将原图划分为52*52的网格,每一个网格对应的特征为1*256的列向量。
步骤四:
为了得到原图像各个区域是否包含目标的信息,将上步骤中img各个网格区域的预检测特征分别与标准特征块t_sd进行相似度匹配。
在本实例中,匹配结果的值大于0.2,就将其归一化为1,来表明该区域存在目标。特征匹配用到的公式如下,其中,A和B分别代表要匹配的两个特征向量,尺寸为1*256:
步骤五:根据步骤四得到的信息,匹配结果为1的区域需要进行抠图来重新检测,进而得到目标的具体信息。以网格对角线为中心,抠取大小为416*416的图像块。为了防止某些区域被多个网格重复抠取,使用NMS(非极大值抑制)算法滤除重叠率超过50%的抠取部分。重叠程度使用IoU(Intersection over Union),即交并比来衡量,定义为如下公式,其中Area1和Area2分别表示重叠的两个抠取图像面积,如果这两张图像计算来的IoU大于0.33,就说明重叠部分超过50%,删除掉其中一个抠取图像。
对于高清晰图像,只选取存在目标的区域进行精细检测,相比传统分割方法的遍历检测方式可以有效减少计算量。
以上描述仅是本发明的一个具体实例,并未构成对本发明的任何限制,显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明的原理、结构的情况下,进行形式和细节上的各种修改和改变,但是这些基于本发明思想的修正和改变仍在本发明的权利要求保护范围之内。
Claims (6)
1.一种基于Yolov3的高清图像目标检测方法,其特征在于,包括以下步骤:
步骤一、进行准备工作,对Yolov3网络进行特定剪裁,去掉其中针对大目标、中目标检测而引入的两条分支,只保留小目标检测的计算分支,精简网络以提高计算速度;针对剪裁后的Yolov3网络,使用摄像机拍摄含有待检测目标的图片,使用手工标注方式分别制作训练数据集和测试数据集,训练剪裁后的Yolov3网络作为后续的目标检测网络;
步骤二、手工制作标准目标图像,在其标准目标图像中央位置包含有典型小目标,典型小目标为无遮挡,无扭曲的待检测目标,将典型小目标输入上述训练好的Yolov3网络中,得到其主干网络Darknet-53输出的52*52*256尺寸的特征向量,52*52*256代表的含义是将图划分为52*52的网格区域,每一个网格区域对应一个尺寸为1*256的特征列向量,特征向量的中央位置的典型小目标对应的特征向量,大小为1*256,记为标准特征块t_sd,在之后相似度匹配过程中作为匹配标准向量;
步骤三、将一幅包含典型小目标的待检测图像作为输入,将其缩放至416*416大小,记为img,输入Yolov3网络,得到其主干网络Darknet-53输出的52*52*256的特征向量,52*52*256代表的含义是将图划分为52*52的网格区域,每一个网格区域对应一个尺寸为1*256的特征列向量;
步骤四:引入相关回归思想,将上步骤img的各个网格区域的特征向量与标准特征块t_sd进行相似度匹配,根据匹配结果计算原图中各个网格区域是否可能存在目标的信息;
相似度匹配过程使用两个特征向量的余弦距离表示两者的相关程度,其公式如下,A和B分别代表要匹配的两个特征向量,A代表img特征向量,B代表t_sd特征向量,尺寸为1*256:
公式中i为1-256中的一个数字,得到的相似度cosθ的范围为从-1到1,表示从最不相关到最相关,将相似程度cosθ超过阈值的网格区域标注为1,其它网格区域标注为0,表示此区域有可能存在目标(典型小目标),阈值定义为有目标区域的相似度与无目标区域相似度最大值之间的中间值;
步骤五:根据步骤四的匹配结果,对原图中可能存在目标的区域进行裁剪,并送入Yolov3网络进行精细检测;不存在目标的区域直接舍弃,从而避免对整幅图进行遍历搜索,经原图裁剪和精细检测后,最终YOLOv3网络输出各个典型小目标在高清图像中的位置,形式为矩形框坐标(x,y,w,h),分别代表目标框的中心坐标(x,y)、长w、宽h。
2.根据权利要求1所述的基于Yolov3的高清图像目标检测方法,其特征在于:所述的高清图像像素大小为1440*2560以上。
3.根据权利要求1所述的基于Yolov3的高清图像目标检测方法,其特征在于,步骤一所述的大目标、中目标是指将图像缩放到416*416像素分辨率后,目标所占像素大小分别在116*90、16*30以上的,可以被目标检测网络有效识别的较大尺寸目标;而小目标是指相同条件下,目标所占像素大小在10*13以下,不能被网络有效检测出来的目标。
4.根据权利要求1所述的基于Yolov3的高清图像目标检测方法,其特征在于,步骤一所述的剪裁掉Yolov3针对大目标、中目标预测分支的操作,指的是去掉Yolov3结构中特征层尺寸为13*13及26*26的两条计算分支,只保留52*52的计算分支,也就是说针对特定目标大小的应用场景,不需要进行多尺度预测,以此提高计算速度。
5.根据权利要求1所述的基于Yolov3的高清图像目标检测方法,其特征在于,步骤二所述的手工制作标准目标图像,是指制作一张在图像中央位置含有典型的小目标的图像,分辨率为输入的待检测高清图像分辨率,再缩放至416*416像素后使用。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110255601.7A CN112907553A (zh) | 2021-03-09 | 2021-03-09 | 一种基于Yolov3的高清图像目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110255601.7A CN112907553A (zh) | 2021-03-09 | 2021-03-09 | 一种基于Yolov3的高清图像目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112907553A true CN112907553A (zh) | 2021-06-04 |
Family
ID=76108278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110255601.7A Pending CN112907553A (zh) | 2021-03-09 | 2021-03-09 | 一种基于Yolov3的高清图像目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112907553A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113537254A (zh) * | 2021-08-27 | 2021-10-22 | 重庆紫光华山智安科技有限公司 | 图像特征提取方法、装置、电子设备及可读存储介质 |
-
2021
- 2021-03-09 CN CN202110255601.7A patent/CN112907553A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113537254A (zh) * | 2021-08-27 | 2021-10-22 | 重庆紫光华山智安科技有限公司 | 图像特征提取方法、装置、电子设备及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11062123B2 (en) | Method, terminal, and storage medium for tracking facial critical area | |
CN110334762B (zh) | 一种基于四叉树结合orb和sift的特征匹配方法 | |
CN111445459B (zh) | 一种基于深度孪生网络的图像缺陷检测方法及系统 | |
CN112836734A (zh) | 一种异源数据融合方法及装置、存储介质 | |
WO2015149534A1 (zh) | 基于Gabor二值模式的人脸识别方法及装置 | |
CN111709980A (zh) | 基于深度学习的多尺度图像配准方法和装置 | |
CN106650615A (zh) | 一种图像处理方法及终端 | |
CN111191582B (zh) | 三维目标检测方法、检测装置、终端设备及计算机可读存储介质 | |
CN109190456B (zh) | 基于聚合通道特征和灰度共生矩阵的多特征融合俯视行人检测方法 | |
CN114693661A (zh) | 一种基于深度学习的快速分拣方法 | |
CN113487610B (zh) | 疱疹图像识别方法、装置、计算机设备和存储介质 | |
CN113673584A (zh) | 一种图像检测方法及相关装置 | |
WO2022063321A1 (zh) | 图像处理方法、装置、设备及存储介质 | |
CN111126250A (zh) | 一种基于ptgan的行人重识别方法及装置 | |
CN111881803B (zh) | 一种基于改进YOLOv3的畜脸识别方法 | |
CN112907553A (zh) | 一种基于Yolov3的高清图像目标检测方法 | |
CN112016437A (zh) | 一种基于人脸视频关键帧的活体检测方法 | |
Özyurt et al. | A new method for classification of images using convolutional neural network based on Dwt-Svd perceptual hash function | |
CN114155273B (zh) | 一种结合历史轨迹信息的视频图像单目标跟踪方法 | |
CN113392820B (zh) | 动态手势识别方法、装置、电子设备及可读存储介质 | |
CN112906508B (zh) | 一种基于卷积神经网络的面部活体检测方法 | |
CN115358981A (zh) | 胶水缺陷的确定方法、装置、设备及存储介质 | |
CN112070048B (zh) | 基于RDSNet的车辆属性识别方法 | |
CN103617616A (zh) | 一种仿射不变的图像匹配方法 | |
CN113033593B (zh) | 基于深度学习的文本检测训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |