CN112101322B - 目标物体检测模型、训练方法、物体检测方法和相关设备 - Google Patents

目标物体检测模型、训练方法、物体检测方法和相关设备 Download PDF

Info

Publication number
CN112101322B
CN112101322B CN202011290074.5A CN202011290074A CN112101322B CN 112101322 B CN112101322 B CN 112101322B CN 202011290074 A CN202011290074 A CN 202011290074A CN 112101322 B CN112101322 B CN 112101322B
Authority
CN
China
Prior art keywords
layer
information
merging
target object
yolov3
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011290074.5A
Other languages
English (en)
Other versions
CN112101322A (zh
Inventor
蔡永辉
程骏
庞建新
熊友军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Youbisxuan Medical Robot Co ltd
Original Assignee
Shenzhen Ubtech Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Ubtech Technology Co ltd filed Critical Shenzhen Ubtech Technology Co ltd
Priority to CN202011290074.5A priority Critical patent/CN112101322B/zh
Publication of CN112101322A publication Critical patent/CN112101322A/zh
Application granted granted Critical
Publication of CN112101322B publication Critical patent/CN112101322B/zh
Priority to US17/389,380 priority patent/US11776288B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供了一种目标物体检测模型、训练方法、物体检测方法和相关设备,目标物体检测模型包括信息合并网络和/或引导网络以及YOLOv3‑Tiny子模型;信息合并网络用于将YOLOv3‑Tiny子模型中待检测图像的的高层信息和低层信息合并,引导网络用于将YOLOv3‑Tiny子模型的低层信息引导至YOLOv3‑Tiny子模型的合并层与高层信息合并,并将合并后的高低层信息输入合并层的下一卷积层进行卷积处理,实现低层信息和高层信息的融合。本申请使得低层信息能够被进一步得到使用,有效提高对目标检测的全面性,提高对小目标的检测效果。

Description

目标物体检测模型、训练方法、物体检测方法和相关设备
技术领域
本申请涉及物体检测技术领域,特别涉及一种目标物体检测模型、训练方法、物体检测方法和相关设备。
背景技术
目标检测(Object Detection)是计算机视觉领域的基本任务之一,近些年随着神经网络的火热发展,基于深度学习的目标检测算法也蓬勃发展起来。基于深度学习检测算法采用端到端的解决方式,即输入图像到输出任务结果一步完成,有效提高了解决问题的效率。但在实际检测运动目标过程中,会存在硬件技术的限制及目标遮挡、多目标干扰等复杂因素,因此在检测的准确性和实时性上存在很大的提升空间。
YOLOv3是YOLO目标检测算法的第三个改进版本,其在检测精度与速度上照比其他算法都有大幅度的提升,是当前目标检测领域之首选。YOLOv3-Tiny在基本保留YOLOv3原有性能的基础上,对网络结构进行压缩,使算法能够在低内存情况下也能达到实时检测要求,有助于解决实际应用中功耗大、内存小等难题。但是,YOLOv3-Tiny模型在实际使用中,对小目标的检测效果较差,难以满足应用场景需求。
发明内容
本申请的主要目的为提供一种目标物体检测模型、训练方法、物体检测方法和相关设备,旨在解决现有YOLOv3-Tiny模型在实际使用对小目标的检测效果较差的弊端。
为实现上述目的,本申请提供了一种目标物体检测模型,包括引导网络和YOLOv3-Tiny子模型;
所述YOLOv3-Tiny子模型包括第一合并层和第一高层信息卷积层,所述引导网络包括第一卷积层;
所述第一卷积层的输入端与所述YOLOv3-Tiny子模型的低层信息输出端连接,所述第一卷积层的输出端、所述YOLOv3-Tiny子模型中的高层信息第一输出端与所述第一合并层的输入端连接,所述第一合并层的输出端与所述第一高层信息卷积层连接,所述引导网络将待检测图像的低层信息引导至所述第一合并层,并与所述YOLOv3-Tiny子模型中待检测图像的的高层信息在所述第一合并层合并后输入所述第一高层信息卷积层进行卷积处理,实现低层信息和高层信息的融合。
进一步的,还包括信息合并网络,所述YOLOv3-Tiny子模型还包括第二高层信息卷积层,所述信息合并网络包括第二卷积层和第二合并层;
所述第二卷积层的输入端与所述YOLOv3-Tiny子模型的低层信息输出端连接,所述第二卷积层的输出端、所述YOLOv3-Tiny子模型中的高层信息第二输出端与所述第二合并层的输入端连接,所述第二合并层的输出端与所述第二高层信息卷积层连接,所述信息合并网络将待检测图像的高层信息和低层信息合并后输入所述第二高层信息卷积层进行卷积处理,实现低层信息和高层信息的融合。
进一步的,所述YOLOv3-Tiny子模型包括第一预测网络和第二预测网络,所述第一预测网络和所述第二预测网络共用一个输入层,且共用部分卷积层和池化层;
所述第二预测网络包括所述第一合并层,所述第一卷积层的输入端与所述YOLOv3-Tiny子模型的第二个池化层的输出端连接,所述第一卷积层的输出端与所述第一合并层的输入端连接,且所述第二预测网络的上采样层的输出端与所述第一合并层的输入端连接,所述第一合并层的输出端与所述第二预测网络的倒数第二个卷积层的输入端连接;
所述第二卷积层的输入端与所述YOLOv3-Tiny子模型的第四个卷积层的输出端连接,所述第二卷积层的输出端与所述第二合并层的输入端连接,并且所述YOLOv3-Tiny子模型的第六个池化层的输出端与所述第二合并层的输入端连接,所述第二合并层的输出端与所述YOLOv3-Tiny子模型的第七个卷积层的输入端连接。
进一步的,所述第一卷积层和所述第二卷积层的尺度均为7*7。
本申请还提供了一种目标物体检测模型,包括信息合并网络和YOLOv3-Tiny子模型,所述YOLOv3-Tiny子模型包括第二高层信息卷积层,所述信息合并网络包括第二卷积层和第二合并层;
所述第二卷积层的输入端与所述YOLOv3-Tiny子模型的低层信息输出端连接,所述第二卷积层的输出端、所述YOLOv3-Tiny子模型中的高层信息第二输出端与所述第二合并层的输入端连接,所述第二合并层的输出端与所述第二高层信息卷积层连接,所述信息合并网络将待检测图像的高层信息和低层信息合并后输入所述第二高层信息卷积层进行卷积处理,实现低层信息和高层信息的融合。
进一步的,所述第二卷积层的输入端与所述YOLOv3-Tiny子模型的第四个卷积层的输出端连接,所述第二卷积层的输出端与所述第二合并层的输入端连接,并且所述YOLOv3-Tiny子模型的第六个池化层的输出端与所述第二合并层的输入端连接,所述第二合并层的输出端与所述YOLOv3-Tiny子模型的第七个卷积层的输入端连接。
本申请还提供了一种目标物体检测模型的训练方法,所述目标物体检测模型的结构与上述任一项所述的目标物体检测模型的结构相同,所述训练方法包括:
获取多个第一训练样本,所述第一训练样本为标记有目标物体的图片;
将各所述第一训练样本输入所述目标物体检测模型进行迭代训练,直至当前次迭代训练得到的目标总loss值与上一次迭代训练得到的目标总loss值一致,则停止迭代训练。
进一步的,所述目标总loss值由多个目标物体loss值组成,所述将各所述第一训练样本输入所述目标物体检测模型进行迭代训练的步骤,包括:
根据预设尺寸,从各所述目标物体loss值中筛选出小目标物体的总loss值,所述小目标物体的尺寸与所述预设尺寸对应;
在当前次迭代训练中,判断所述小目标物体的总loss值与所述目标总loss值之间的比值是否大于阈值;
若所述比值小于阈值,则在下一次迭代训练中,将各所述第一训练样本按照预设数量为一组拼接为一张图片,得到若干个第二训练样本,并使用各所述第二训练样本对所述目标物体检测模型进行训练。
进一步的,所述将各所述第一训练样本按照预设数量为一组拼接为一张图片,得到若干个第二训练样本的步骤,包括:
随机选择预设数量的所述第一训练样本按照预设比例进行缩小,得到若干个第三训练样本,其中,所述第三训练样本的图像宽高比与所述第一训练样本的图像宽高比相同;
将各所述第三训练样本拼接在同一张图像中,得到所述第二训练样本,其中,所第二训练样本的图像尺寸与所述第一训练样本的图像尺寸一致。
本申请还提供一种物体检测方法,包括:
采集物体图像;
将所述物体图像输入预先构建的目标物体检测模型中,经过特征提取和分类后,得到目标物体在所述物体图像中的坐标值,其中,所述目标物体检测模型为上述任一所述的目标物体检测模型的训练方法训练得到的模型;
根据所述坐标值,在所述物体图像上标示出所述目标物体的位置。
本申请还提供一种物体检测装置,包括:
采集模块,用于采集物体图像;
处理模块,用于将所述物体图像输入预先构建的目标物体检测模型中,经过特征提取和分类后,得到目标物体在所述物体图像中的坐标值,其中,所述目标物体检测模型为上述任一所述的目标物体检测模型的训练方法训练得到的模型;
标示模块,用于根据所述坐标值,在所述物体图像上标示出所述目标物体的位置。
本申请还提供一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述方法的步骤。
本申请还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的方法的步骤。
本申请中提供的一种目标物体检测模型、训练方法、物体检测方法和相关设备,目标物体检测模型包括信息合并网络和/引导网络,以及YOLOv3-Tiny子模型。YOLOv3-Tiny子模型包括第一合并层、第一高层信息卷积层和第二高层信息卷积层,引导网络包括第一卷积层,信息合并网络包括第二卷积层和第二合并层。当存在引导网络时,第一卷积层的输入端和YOLOv3-Tiny子模型的低层信息输出端连接,第一卷积层的输出端、YOLOv3-Tiny子模型中的高层信息第一输出端与第一合并层的输入端连接,第一合并层的输出端与第一高层信息卷积层连接,引导网络将待检测图像的低层信息引导至第一合并层,并与YOLOv3-Tiny子模型中待检测图像的的高层信息在第一合并层合并后输入第一高层信息卷积层进行卷积处理,实现低层信息和高层信息的融合。当存在信息合并网络时,第二卷积层的输入端与YOLOv3-Tiny子模型的低层信息输出端连接,第二卷积层的输出端、YOLOv3-Tiny子模型子模型中的高层信息第二输出端与第二合并层的输入端连接,第二合并层的输出端与第二高层信息卷积层连接,信息合并网络将待检测图像的高层信息和低层信息合并后输入第二高层信息卷积层进行卷积处理,实现低层信息和高层信息的融合。本申请基于YOLOv3-Tiny模型改进后的目标物体检测模型中,通过该模型结构,实现将待检测图像的低层信息和高层信息进行融合,从而使得低层信息能够被进一步得到使用,有效提高对目标检测的全面性,提高对小目标的检测效果。在此模型结构的基础上训练得到的目标物体检测模型在使用时,能够准确识别到输入图片中的小目标物体,在保证对目标物体的检测速度的基础上,提高了对小目标物体的检测效果。
附图说明
图1是本申请一实施例中目标物体检测模型的模型结构图;
图2是本申请一实施例中目标物体检测模型的模型结构图
图3是本申请一实施例中目标物体检测模型的训练方法的步骤示意图;
图4是本申请一实施例中物体检测方法的步骤示意图;
图5是本申请一实施例中物体检测装置的整体结构框图;
图6是本申请一实施例的计算机设备的结构示意框图。
本申请目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
参照图1,本申请一实施例中提供了一种目标物体检测模型,引导网络Z1和YOLOv3-Tiny子模型;
所述YOLOv3-Tiny子模型包括第一合并层和第一高层信息卷积层,所述引导网络包括第一卷积层;
所述第一卷积层的输入端与所述YOLOv3-Tiny子模型的低层信息输出端连接,所述第一卷积层的输出端、所述YOLOv3-Tiny子模型中的高层信息第一输出端与所述第一合并层的输入端连接,所述第一合并层的输出端与所述第一高层信息卷积层连接,所述引导网络Z1将待检测图像的低层信息引导至所述第一合并层,并与所述YOLOv3-Tiny子模型中待检测图像的的高层信息在所述第一合并层合并后输入所述第一高层信息卷积层进行卷积处理,实现低层信息和高层信息的融合。
进一步的,目标物体检测模型还包括信息合并网络Z2,所述YOLOv3-Tiny子模型还包括第二高层信息卷积层,所述信息合并网络包括第二卷积层和第二合并层;
所述第二卷积层的输入端与所述YOLOv3-Tiny子模型的低层信息输出端连接,所述第二卷积层的输出端、所述YOLOv3-Tiny子模型中的高层信息第二输出端与所述第二合并层的输入端连接,所述第二合并层的输出端与所述第二高层信息卷积层连接,所述信息合并网络Z2将待检测图像的高层信息和低层信息合并后输入所述第二高层信息卷积层进行卷积处理,实现低层信息和高层信息的融合。
本实施例中,目标物体检测模型是在YOLOv3-Tiny模型的基础上通过改进结构得到,具体包括YOLOv3-Tiny子模型、信息合并网络Z2和引导网络Z1,其中,YOLOv3-Tiny子模型用于对输入图片进行特征提取和分类,得到目标在输入图片中的坐标值以及识别出目标所对应的类别。信息合并网络Z2和引导网络Z1的输入端与YOLOv3-Tiny子模型中的低层信息输出端连接,信息合并网络的输出端与YOLOv3-Tiny子模型中的高层信息卷积层的输入端连接;引导网络Z1的输出端与YOLOv3-Tiny子模型中的第一合并层的输入端连接。引导网络Z1和信息合并网络Z2用于将从YOLOv3-Tiny子模型中引出待检测图像的的低层信息和YOLOv3-Tiny子模型中待检测图像的的高层信息在合并层(信息合并网络Z2对应的合并层为第二合并层,引导网络Z1对应的合并层为YOLOv3-Tiny子模型中的第一合并层)进行合并,并将合并后的高低层信息输入YOLOv3-Tiny子模型中的高层信息卷积层经过卷积和计算后,实现将低层信息的特征图和高层信息的特征图融合,从而使得低层信息能够进一步得到使用。其中,待检测图像的低层信息是指图像的颜色、纹理、形状等信息,高层信息是指图像表达出接近人类理解的特征。由于小物体在图像中占的像素较少,在训练过程中属于较难识别目标,其在经过多层卷积层和池化层后极容易被过滤掉,导致识别失败。YOLOv3-Tiny属于轻量级模型,若单使用该模型进行部署而不加改进,则在面对视野中的小目标物体时误检率和漏检率极高,远无法满足现实需要。而本实施例中,改进模型结构后的目标物体检测模型通过信息合并网络Z2和引导网络Z1,将YOLOv3-Tiny子模型中的低层信息的特征图和高层信息的特征图进行融合,使得低层信息能够进一步得到使用,降低小物体的特征图在经过多层卷积层和池化层后被过滤掉的几率(低层信息位于模型的上层,还未经过较多的卷积层和池化层,因此低层信息中包含有小物体特征图的概率较大),使得改进模型结构后的目标物体检测模型能够准确识别到小目标物体。
进一步的,所述YOLOv3-Tiny子模型包括第一预测网络Z3和第二预测网络Z4,所述第一预测网络Z3和所述第二预测网络Z4共用一个输入层,且共用部分卷积层和池化层;
所述第二预测网络Z4包括所述第一合并层,所述第一卷积层的输入端与所述YOLOv3-Tiny子模型的第二个池化层的输出端连接,所述第一卷积层的输出端与所述第一合并层的输入端连接,且所述第二预测网络Z4的上采样层的输出端与所述第一合并层的输入端连接,所述第一合并层的输出端与所述第二预测网络Z4的倒数第二个卷积层的输入端连接;
所述信息合并网络Z2包括第二卷积层和第二合并层,所述第二卷积层的输入端与所述YOLOv3-Tiny子模型的第四个卷积层的输出端连接,所述第二卷积层的输出端与所述第二合并层的输入端连接,并且所述YOLOv3-Tiny子模型的第六个池化层的输出端与所述第二合并层的输入端连接,所述第二合并层的输出端与所述YOLOv3-Tiny子模型的第七个卷积层的输入端连接。
优选的,所述第一卷积层和所述第二卷积层的尺度均为7*7。
本实施例中,YOLOv3-Tiny子模型包括第一预测网络Z3和第二预测网络Z4,第二预测网络Z4包括第一合并层,该第一合并层为YOLOv3-Tiny本身的模型结构就具有的合并层。其中,第一预测网络Z3和第二预测网络Z4共用一个输入层,并且两者共用模型结构上部区域的卷积层和池化层。引导网络Z1包括第一卷积层,第一卷积层的输入端和YOLOv3-Tiny子模型的第二个池化层(该池化层为第一预测网络Z3和第二预测网络Z4共用的池化层)的输出端连接,第一卷积层的输出端和第一合并层的输入端连接。并且,第二预测网络Z4的上采样层的输出端与第一合并层的输入端连接,而第一合并层的输出端与第二预测网络Z4的倒数第二个卷积层的输入端连接。其中,上采样层是用于放大图片;第一卷积层的尺度为7*7。YOLOv3-Tiny子模型的第二个池化层所输出的信息为低层信息,在经过7*7的第一卷积层的大尺度卷积和计算后,进入第一合并层内。同时,上采样层输出的信息为放大后的高层信息,进入第一合并层后,与第一卷积层输出的低层信息(该低层信息当前位于第一合并层内)进行合并。合并后的高低层信息进入第二预测网络Z4的倒数第二个卷积层内,经过卷积后,实现低层信息和高层信息的融合,使得YOLOv3-Tiny子模型的第二个池化层的低层信息能够进一步得到使用。
信息合并网络Z2包括第二卷积层和第二合并层,第二卷积层的输入端与YOLOv3-Tiny子模型的第四个卷积层(该卷积层为第一预测网络Z3和第二预测网络Z4共用的池化层)的输出端连接,第二卷积层的输出端与第二合并层的输入端连接。并且,YOLOv3-Tiny子模型的第六个池化层(该池化层为第一预测网络Z3和第二预测网络Z4共用的池化层)的输出端和第二合并层的输入端连接,而第二合并层的输出端与YOLOv3-Tiny子模型的第七个卷积层(该卷积层为第一预测网络Z3和第二预测网络Z4共用的池化层)的输入端连接。YOLOv3-Tiny子模型的第四个卷积层所输出的信息为低层信息,在经过7*7的第二卷积层的大尺度卷积和计算后,进入第二合并层内。同时,YOLOv3-Tiny子模型的第六个池化层所输出的信息为高层信息,进入第二合并层后,与第二卷积层输出的低层信息进行合并。合并后的高低层信息进入YOLOv3-Tiny子模型的第七个卷积层内,经过卷积处理后,实现低层信息和高层信息的融合,使得YOLOv3-Tiny子模型的第四个卷积层的低层信息能够进一步得到使用,提升对小目标物体的识别率和准确率。
参照图2,本实施例还提供了一种目标物体检测模型,包括信息合并网络Z2和YOLOv3-Tiny子模型,所述YOLOv3-Tiny子模型包括第二高层信息卷积层,所述信息合并网络Z2包括第二卷积层和第二合并层;
所述第二卷积层的输入端与所述YOLOv3-Tiny子模型的低层信息输出端连接,所述第二卷积层的输出端、所述YOLOv3-Tiny子模型中的高层信息第二输出端与所述第二合并层的输入端连接,所述第二合并层的输出端与所述第二高层信息卷积层连接,所述信息合并网络Z2将待检测图像的高层信息和低层信息合并后输入所述第二高层信息卷积层进行卷积处理,实现低层信息和高层信息的融合。
进一步的,所述第二卷积层的输入端与所述YOLOv3-Tiny子模型的第四个卷积层的输出端连接,所述第二卷积层的输出端与所述第二合并层的输入端连接,并且所述YOLOv3-Tiny子模型的第六个池化层的输出端与所述第二合并层的输入端连接,所述第二合并层的输出端与所述YOLOv3-Tiny子模型的第七个卷积层的输入端连接。
本实施例中,目标物体检测模型是在YOLOv3-Tiny模型的基础上通过改进结构得到,具体包括YOLOv3-Tiny子模型和信息合并网络Z2,其中,YOLOv3-Tiny子模型用于对输入图片进行特征提取和分类,得到目标在输入图片中的坐标值以及识别出目标所对应的类别。信息合并网络Z2的输入端与YOLOv3-Tiny子模型中的低层信息输出端连接,信息合并网络的输出端与YOLOv3-Tiny子模型中的高层信息卷积层的输入端连接。信息合并网络Z2用于将从YOLOv3-Tiny子模型中引出待检测图像的低层信息和YOLOv3-Tiny子模型中待检测图像的高层信息在第二合并层进行合并,并将合并后的高低层信息输入YOLOv3-Tiny子模型中的高层信息卷积层经过卷积和计算后,实现将低层信息的特征图和高层信息的特征图融合,从而使得低层信息能够进一步得到使用。其中,待检测图像的低层信息是指图像的颜色、纹理、形状等信息,高层信息是指图像表达出接近人类理解的特征。由于小物体在图像中占的像素较少,在训练过程中属于较难识别目标,其在经过多层卷积层和池化层后极容易被过滤掉,导致识别失败。YOLOv3-Tiny属于轻量级模型,若单使用该模型进行部署而不加改进,则在面对视野中的小目标物体时误检率和漏检率极高,远无法满足现实需要。而本实施例中,改进模型结构后的目标物体检测模型通过信息合并网络Z2,将YOLOv3-Tiny子模型中的低层信息的特征图和高层信息的特征图进行融合,使得低层信息能够进一步得到使用,降低小物体的特征图在经过多层卷积层和池化层后被过滤掉的几率(低层信息位于模型的上层,还未经过较多的卷积层和池化层,因此低层信息中包含有小物体特征图的概率较大),使得改进模型结构后的目标物体检测模型能够准确识别到小目标物体。
进一步的,信息合并网络Z2包括第二卷积层和第二合并层,第二卷积层的输入端与YOLOv3-Tiny子模型的第四个卷积层(该卷积层为第一预测网络Z3和第二预测网络Z4共用的池化层)的输出端连接,第二卷积层的输出端与第二合并层的输入端连接。并且,YOLOv3-Tiny子模型的第六个池化层(该池化层为第一预测网络Z3和第二预测网络Z4共用的池化层)的输出端和第二合并层的输入端连接,而第二合并层的输出端与YOLOv3-Tiny子模型的第七个卷积层(该卷积层为第一预测网络Z3和第二预测网络Z4共用的池化层)的输入端连接。YOLOv3-Tiny子模型的第四个卷积层所输出的信息为低层信息,在经过7*7的第二卷积层的大尺度卷积和计算后,进入第二合并层内。同时,YOLOv3-Tiny子模型的第六个池化层所输出的信息为高层信息,进入第二合并层后,与第二卷积层输出的低层信息进行合并。合并后的高低层信息进入YOLOv3-Tiny子模型的第七个卷积层内,经过卷积处理后,实现低层信息和高层信息的融合,使得YOLOv3-Tiny子模型的第四个卷积层的低层信息能够进一步得到使用,提升对小目标物体的识别率和准确率。
本实施例提供的一种目标物体检测模型,目标物体检测模型包括信息合并网络和/引导网络,以及YOLOv3-Tiny子模型。YOLOv3-Tiny子模型包括第一合并层、第一高层信息卷积层和第二高层信息卷积层,引导网络包括第一卷积层,信息合并网络包括第二卷积层和第二合并层。当存在引导网络时,第一卷积层的输入端和YOLOv3-Tiny子模型的低层信息输出端连接,第一卷积层的输出端、YOLOv3-Tiny子模型中的高层信息第一输出端与第一合并层的输入端连接,第一合并层的输出端与第一高层信息卷积层连接,引导网络将待检测图像的低层信息引导至第一合并层,并与YOLOv3-Tiny子模型中待检测图像的的高层信息在第一合并层合并后输入第一高层信息卷积层进行卷积处理,实现低层信息和高层信息的融合。当存在信息合并网络时,第二卷积层的输入端与YOLOv3-Tiny子模型的低层信息输出端连接,第二卷积层的输出端、YOLOv3-Tiny子模型子模型中的高层信息第二输出端与第二合并层的输入端连接,第二合并层的输出端与第二高层信息卷积层连接,信息合并网络将待检测图像的高层信息和低层信息合并后输入第二高层信息卷积层进行卷积处理,实现低层信息和高层信息的融合。本申请基于YOLOv3-Tiny模型改进后的目标物体检测模型中,通过该模型结构,实现将低层信息和高层信息进行融合,从而使得低层信息能够被进一步得到使用,有效提高对目标检测的全面性,提高对小目标的检测效果。
参照图3,本实施例还提供了一种目标物体检测模型的训练方法,所述目标物体检测模型的结构与上述任一项所述的目标物体检测模型的结构相同,所述训练方法包括:
S1:获取多个第一训练样本,所述第一训练样本为标记有目标物体的图片;
S2:将各所述第一训练样本输入所述目标物体检测模型进行迭代训练,直至当前次迭代训练得到的目标总loss值与上一次迭代训练得到的目标总loss值一致,则停止迭代训练。
本实施例中,目标物体检测模型的模型结构与上述基于YOLOv3-Tiny改进后的目标物体检测模型的模型结构相同,该目标物体检测模型的训练方法具体为:系统获取多个第一训练样本,其中,第一训练样本为标记为目标物体的图片,目标物体的标记由开发人员进行人工标注。基于深度学习的思想,系统将各个第一训练样本输入目标物体检测模型中进行迭代训练,从而使得目标物体检测模型能够学习到目标物体的类别特征,最终训练得到的目标物体检测模型能够在应用场景中,通过输入的图片自动识别出此类目标物体(即第一训练样本中被标记的目标物体)在图片中的坐标值和类别。目标物体检测模型在迭代训练的过程中,每次训练后模型都会输出第一训练样本中每个目标物体各自对应的loss值,各个loss值的综合即为目标总loss值。如果检测到模型在当前次迭代训练得到的目标总loss值与上一次迭代训练得到的目标总loss值一直,即模型在迭代训练时目标总loss值不再下降,则判定目标物体检测模型训练完成,可以停止迭代训练。本实施例中训练所得的目标物体检测模型,在目标物体检测模型本身独特的模型结构基础上,能够实现将输入图片的低层信息和高层信息进行融合,提高对低层信息的使用。在此基础上训练得到的目标物体检测模型,能够提高对小目标物体的识别率和准确率,有效提高对小目标物体的检测效果。
进一步的,所述目标总loss值由多个目标物体loss值组成,所述将各所述第一训练样本输入所述目标物体检测模型进行迭代训练的步骤,包括:
S201:根据预设尺寸,从各所述目标物体loss值中筛选出小目标物体的总loss值,所述小目标物体的尺寸与所述预设尺寸对应;
S202:在当前次迭代训练中,判断所述小目标物体的总loss值与所述目标总loss值之间的比值是否大于阈值;
S203:若所述比值小于阈值,则在下一次迭代训练前,将各所述第一训练样本按照预设数量为一组拼接为一张图片,得到若干个第二训练样本,并使用各所述第二训练样本对所述目标物体检测模型进行训练。
本实施例中,目标总loss值由多个目标物体loss值组成,开发人员预先对小目标物体的图像尺寸进行定义,即定义预设尺寸。系统根据预设尺寸识别出与预设尺寸对应的小目标物体,从而实现从各个目标物体loss值中筛选出各个小目标物体各自对应的loss值。再根据各个小目标物体各自对应的loss值进行计和,得到小目标物体的总loss值。目标物体检测模型迭代训练,在每次训练完成后模型都会输出第一训练样本中每个目标物体各自对应的loss值,系统根据各个目标物体各自对应的loss值计和得到目标总loss值,并根据筛选得到的各个小目标物体各自对应的loss值计和得到小目标物体的总loss值。在当前次迭代训练中,系统判断小目标物体的总loss值与目标总loss值之间的比值是否大于预设的阈值。如果小目标物体的总loss值与目标总loss值之间的比值大于阈值,则在模型的下一次迭代训练中,不需要对第一训练样本进行拼接处理。如果小目标物体的总loss值与目标总loss值之间的比值小于阈值,则在下一次迭代训练前,系统从各个第一训练样本中,随机选择预设数量的第一训练样本按照预设尺寸进行缩小,缩小后的预设数量的第一训练样本拼接在同一张图片上,形成一张图片,拼接后形成的图片即为第二训练样本。在进行下一次迭代训练中,系统使用新形成的若干个第二训练样本对目标物体检测模型进行训练。在目标物体检测模型的训练迭代过程中,小目标物体的损失几乎没有对总损失产生贡献,如在训练COCO数据集的50%迭代中,小目标物体损失占总损失不到10%,因此优化目标的不平衡会造成模型对小目标物体的检测性能下降。本实施例的模型在迭代训练过程中,如果检测到小目标物体的总loss值与目标总loss值之间的比值小于阈值,则将各第一训练样本进行缩小后拼接形成第二训练样本,并使用第二训练样本对目标物体检测模型进行训练,从而提升小目标物体损失在总损失中的占比,使得模型能够充分学习到小目标的特征信息,最终提升训练完成后的目标物体检测模型对小目标物体的的识别率和准确度,提高了对小目标物体的检测效果。
进一步的,所述将各所述第一训练样本按照预设数量为一组拼接为一张图片,得到若干个第二训练样本的步骤,包括:
S2031:随机选择预设数量的所述第一训练样本按照预设比例进行缩小,得到若干个第三训练样本,其中,所述第三训练样本的图像宽高比与所述第一训练样本的图像宽高比相同;
S2032:将各所述第三训练样本拼接在同一张图像中,得到所述第二训练样本,其中,所第二训练样本的图像尺寸与所述第一训练样本的图像尺寸一致。
本实施例中,系统随机选择预设数量的第一训练样本按照预设比例(或预设的统一尺寸,即将第一训练样本的图像尺寸缩小至统一尺寸)进行缩小,得到若干个第三训练样本。其中,缩小后的第三训练样本的图像宽高比与未缩小前的第一训练样本的图像宽高比相同,从而防止目标对象属性丢失。系统将预设数量的第三训练样本拼接在同一张图像中,形成一张新的图片,即得到第二训练样本。拼接后的第二训练样本的图像尺寸与第一训练样本的图像尺寸一致,以保证模型在整个迭代训练过程中,训练样本的基本属性(即图像尺寸)保持一致。通过上述的拼接操作,在模型的迭代训练过程中,会使得部分大中物体被缩放为小物体,从而增加小目标物体的损失在总损失中的占比,使得模型的优化方向得到调整,提升训练后的模型对小目标物体的检测效果。
本实施例提供的一种目标物体检测模型的训练方法,系统获取多个第一训练样本,其中第一训练样本为标记有目标物体的图片。系统将各个第一训练样本输入目标物体检测模型进行迭代训练,直至当前次迭代训练得到的目标总loss值与上一次迭代训练得到的目标总loss值一致,则停止迭代训练。本申请基于YOLOv3-Tiny模型改进后的目标物体检测模型中,通过该模型结构,实现将低层信息和高层信息进行融合,从而使得低层信息能够被进一步得到使用,有效提高对目标检测的全面性,提高对小目标的检测效果。在此模型结构的基础上训练得到的目标物体检测模型在使用时,能够准确识别到输入图片中的小目标物体,在保证对目标物体的检测速度的基础上,提高了对小目标物体的检测效果。
参照图4,本实施例还提供了一种物体检测方法,包括:
A1:采集物体图像;
A2:将所述物体图像输入预先构建的目标物体检测模型中,经过特征提取和分类后,得到目标物体在所述物体图像中的坐标值,其中,所述目标物体检测模型为上述任一所述的目标物体检测模型的训练方法训练得到的模型;
A3:根据所述坐标值,在所述物体图像上标示出所述目标物体的位置。
本实施例中,系统通过摄像头采集物体图像,然后将物体图像输入预先构建的目标物体检测模型。其中,目标物体检测模型为上述任一所述的目标物体检测模型的训练方法训练得到的模型。物体图像在目标物体检测模型中经过各个卷积层的卷积处理和各个池化层的池化处理后,实现特征提取和分类,从而得到目标物体在物体图像中的坐标值以及类别。系统根据目标物体检测模型输出的目标物体的坐标值,在物体图像上对目标物体进行标示,比如使用框图在物体图像上将目标物体框示出来,以表明目标物体在物体图像上的位置。本实施例中,目标物体检测模型由于本身独特的模型结构,在对输入的物体图像的处理过程中,通过将低层信息和高层信息融合的方式,提高的对低层信息的使用,减少了小目标物体的特征信息被过滤掉的几率,从而提升了对小目标物体的识别率和准确率。进一步的,由于目标物体检测模型在训练过程中,通过将部分大中物体缩放为小物体进行训练,从而增加了小目标物体的损失在总损失中的占比,使得模型识别小目标物体的优化方向得到调整,进一步提升了目标物体检测模型对小目标物体的检测效果。
优选的,本实施例的物体检测方法应用于服务机器人上,服务机器人使用自身携带的RGB相机采集大量的目标物体的图片(即物体图像),然后使用上述基于YOLOv3-Tiny模型改进后的目标物体检测模型进行离线训练,同时在训练过程中加入特殊的训练策略(即将部分大中物体缩放为小物体进行训练)以改进训练过程中小目标的损失值对总损失的贡献,从而让模型更加注重学习到小目标的特征。当模型在Pytorch或TensorFlow等框架上离线训练成功后,使用NCNN、TensorRT或OpenVINO等推理引擎进行在线部署到服务机器人中,以进一步降低推理时间,最终实现该模型在服务机器人上的实时检测,在保证准确率的同时降低推理时间,实现又快又准检测的目的。
本实施例提供的一种目标检测方法,系统采集物体图像,然后将物体图像输入预先构建的目标物体检测模型中,经过特征提取和分类后,得到目标物体在物体图像中的坐标值。其中,目标物体检测模型为基于YOLOv3-Tiny模型改进后的目标物体检测模型,能够融合低层信息和高层信息。系统根据目标物体的坐标值,在物体图像上标示出目标物体的位置。本申请基于YOLOv3-Tiny模型改进后的目标物体检测模型中,通过该模型结构,实现将低层信息和高层信息进行融合,从而使得低层信息能够被进一步得到使用,有效提高对目标检测的全面性,提高对小目标的检测效果。在此模型结构的基础上训练得到的目标物体检测模型在使用时,能够准确识别到输入图片中的小目标物体,在保证对目标物体的检测速度的基础上,提高了对小目标物体的检测效果。
参照图5,本申请一实施例中还提供了一种物体检测装置,包括:
采集模块B1,用于采集物体图像;
处理模块B2,用于将所述物体图像输入预先构建的目标物体检测模型中,经过特征提取和分类后,得到目标物体在所述物体图像中的坐标值,其中,所述目标物体检测模型为上述任一所述的目标物体检测模型的训练方法训练得到的模型;
标示模块B3,用于根据所述坐标值,在所述物体图像上标示出所述目标物体的位置。
本实施例中,物体检测装置各模块用于对应执行与上述物体检测方法中的各个步骤,其具体实施过程在此不做详述,
本实施例提供的一种目标检测装置,系统采集物体图像,然后将物体图像输入预先构建的目标物体检测模型中,经过特征提取和分类后,得到目标物体在物体图像中的坐标值。其中,目标物体检测模型为基于YOLOv3-Tiny模型改进后的目标物体检测模型,能够融合低层信息和高层信息。系统根据目标物体的坐标值,在物体图像上标示出目标物体的位置。本申请基于YOLOv3-Tiny模型改进后的目标物体检测模型中,通过该模型结构,实现将低层信息和高层信息进行融合,从而使得低层信息能够被进一步得到使用,有效提高对目标检测的全面性,提高对小目标的检测效果。在此模型结构的基础上训练得到的目标物体检测模型在使用时,能够准确识别到输入图片中的小目标物体,在保证对目标物体的检测速度的基础上,提高了对小目标物体的检测效果。
参照图6,本申请实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图3所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储目标物体检测模型等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种目标物体检测模型的训练方法,所述目标物体检测模型的结构与上述任一项所述的目标物体检测的结构相同。
上述处理器执行上述目标物体检测模型的训练方法的步骤:
S1:获取多个第一训练样本,所述第一训练样本为标记有目标物体的图片;
S2:将各所述第一训练样本输入所述目标物体检测模型进行迭代训练,直至当前次迭代训练得到的目标总loss值与上一次迭代训练得到的目标总loss值一致,则停止迭代训练。
进一步的,所述目标总loss值由多个目标物体loss值组成,所述将各所述第一训练样本输入所述目标物体检测模型进行迭代训练的步骤,包括:
S201:根据预设尺寸,从各所述目标物体loss值中筛选出小目标物体的总loss值,所述小目标物体的尺寸与所述预设尺寸对应;
S202:在当前次迭代训练中,判断所述小目标物体的总loss值与所述目标总loss值之间的比值是否大于阈值;
S203:若所述比值小于阈值,则在下一次迭代训练前,将各所述第一训练样本按照预设数量为一组拼接为一张图片,得到若干个第二训练样本,并使用各所述第二训练样本对所述目标物体检测模型进行训练。
进一步的,所述将各所述第一训练样本按照预设数量为一组拼接为一张图片,得到若干个第二训练样本的步骤,包括:
S2031:随机选择预设数量的所述第一训练样本按照预设比例进行缩小,得到若干个第三训练样本,其中,所述第三训练样本的图像宽高比与所述第一训练样本的图像宽高比相同;
S2032:将各所述第三训练样本拼接在同一张图像中,得到所述第二训练样本,其中,所第二训练样本的图像尺寸与所述第一训练样本的图像尺寸一致。
该计算机程序被处理器执行时还用于实现一种物体检测方法。上述处理器执行上述物体检测方法的步骤:
A1:采集物体图像;
A2:将所述物体图像输入预先构建的目标物体检测模型中,经过特征提取和分类后,得到目标物体在所述物体图像中的坐标值,其中,所述目标物体检测模型为上述任一所述的目标物体检测模型的训练方法训练得到的模型;
A3:根据所述坐标值,在所述物体图像上标示出所述目标物体的位置。
本申请一实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现一种目标物体检测模型的训练方法,所述目标物体检测模型的结构与上述任一项所述的目标物体检测的结构相同,所述目标物体检测模型的训练方法具体为:
S1:获取多个第一训练样本,所述第一训练样本为标记有目标物体的图片;
S2:将各所述第一训练样本输入所述目标物体检测模型进行迭代训练,直至当前次迭代训练得到的目标总loss值与上一次迭代训练得到的目标总loss值一致,则停止迭代训练。
进一步的,所述目标总loss值由多个目标物体loss值组成,所述将各所述第一训练样本输入所述目标物体检测模型进行迭代训练的步骤,包括:
S201:根据预设尺寸,从各所述目标物体loss值中筛选出小目标物体的总loss值,所述小目标物体的尺寸与所述预设尺寸对应;
S202:在当前次迭代训练中,判断所述小目标物体的总loss值与所述目标总loss值之间的比值是否大于阈值;
S203:若所述比值小于阈值,则在下一次迭代训练前,将各所述第一训练样本按照预设数量为一组拼接为一张图片,得到若干个第二训练样本,并使用各所述第二训练样本对所述目标物体检测模型进行训练。
进一步的,所述将各所述第一训练样本按照预设数量为一组拼接为一张图片,得到若干个第二训练样本的步骤,包括:
S2031:随机选择预设数量的所述第一训练样本按照预设比例进行缩小,得到若干个第三训练样本,其中,所述第三训练样本的图像宽高比与所述第一训练样本的图像宽高比相同;
S2032:将各所述第三训练样本拼接在同一张图像中,得到所述第二训练样本,其中,所第二训练样本的图像尺寸与所述第一训练样本的图像尺寸一致。
计算机程序被处理器执行时还实现一种物体检测方法,所述物体检测方法具体为:
A1:采集物体图像;
A2:将所述物体图像输入预先构建的目标物体检测模型中,经过特征提取和分类后,得到目标物体在所述物体图像中的坐标值,其中,所述目标物体检测模型为上述任一所述的目标物体检测模型的训练方法训练得到的模型;
A3:根据所述坐标值,在所述物体图像上标示出所述目标物体的位置。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储与一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM通过多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双速据率SDRAM(SSRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其它变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其它要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
以上所述仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其它相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (11)

1.一种目标物体检测模型,其特征在于,包括引导网络和YOLOv3-Tiny子模型;
所述YOLOv3-Tiny子模型包括第一合并层和第一高层信息卷积层,所述引导网络包括第一卷积层;
所述第一卷积层的输入端与所述YOLOv3-Tiny子模型的低层信息输出端连接,所述第一卷积层的输出端、所述YOLOv3-Tiny子模型中的高层信息第一输出端与所述第一合并层的输入端连接,所述第一合并层的输出端与所述第一高层信息卷积层连接,所述引导网络将待检测图像的低层信息引导至所述第一合并层,并与所述YOLOv3-Tiny子模型中待检测图像的高层信息在所述第一合并层合并后输入所述第一高层信息卷积层进行卷积处理,实现低层信息和高层信息的融合。
2.根据权利要求1所述的目标物体检测模型,其特征在于,还包括信息合并网络,所述YOLOv3-Tiny子模型还包括第二高层信息卷积层,所述信息合并网络包括第二卷积层和第二合并层;
所述第二卷积层的输入端与所述YOLOv3-Tiny子模型的低层信息输出端连接,所述第二卷积层的输出端、所述YOLOv3-Tiny子模型中的高层信息第二输出端与所述第二合并层的输入端连接,所述第二合并层的输出端与所述第二高层信息卷积层连接,所述信息合并网络将待检测图像的高层信息和低层信息合并后输入所述第二高层信息卷积层进行卷积处理,实现低层信息和高层信息的融合。
3.根据权利要求2所述的目标物体检测模型,其特征在于,所述YOLOv3-Tiny子模型包括第一预测网络和第二预测网络,所述第一预测网络和所述第二预测网络共用一个输入层,且共用部分卷积层和池化层;
所述第二预测网络包括所述第一合并层,所述第一卷积层的输入端与所述YOLOv3-Tiny子模型的第二个池化层的输出端连接,所述第一卷积层的输出端与所述第一合并层的输入端连接,且所述第二预测网络的上采样层的输出端与所述第一合并层的输入端连接,所述第一合并层的输出端与所述第二预测网络的倒数第二个卷积层的输入端连接;
所述第二卷积层的输入端与所述YOLOv3-Tiny子模型的第四个卷积层的输出端连接,所述第二卷积层的输出端与所述第二合并层的输入端连接,并且所述YOLOv3-Tiny子模型的第六个池化层的输出端与所述第二合并层的输入端连接,所述第二合并层的输出端与所述YOLOv3-Tiny子模型的第七个卷积层的输入端连接。
4.一种目标物体检测模型,其特征在于,包括信息合并网络和YOLOv3-Tiny子模型,所述YOLOv3-Tiny子模型包括第二高层信息卷积层,所述信息合并网络包括第二卷积层和第二合并层;
所述第二卷积层的输入端与所述YOLOv3-Tiny子模型的低层信息输出端连接,所述第二卷积层的输出端、所述YOLOv3-Tiny子模型中的高层信息第二输出端与所述第二合并层的输入端连接,所述第二合并层的输出端与所述第二高层信息卷积层连接,所述信息合并网络将待检测图像的高层信息和低层信息合并后输入所述第二高层信息卷积层进行卷积处理,实现低层信息和高层信息的融合。
5.根据权利要求4所述的目标物体检测模型,其特征在于,所述第二卷积层的输入端与所述YOLOv3-Tiny子模型的第四个卷积层的输出端连接,所述第二卷积层的输出端与所述第二合并层的输入端连接,并且所述YOLOv3-Tiny子模型的第六个池化层的输出端与所述第二合并层的输入端连接,所述第二合并层的输出端与所述YOLOv3-Tiny子模型的第七个卷积层的输入端连接。
6.一种目标物体检测模型的训练方法,其特征在于,所述目标物体检测模型的结构与权利要求1至5中任一项所述的目标物体检测模型的结构相同,所述训练方法包括:
获取多个第一训练样本,所述第一训练样本为标记有目标物体的图片;
将各所述第一训练样本输入所述目标物体检测模型进行迭代训练,直至当前次迭代训练得到的目标总loss值与上一次迭代训练得到的目标总loss值一致,则停止迭代训练。
7.根据权利要求6所述的目标物体检测模型的训练方法,其特征在于,所述目标总loss值由多个目标物体loss值组成,所述将各所述第一训练样本输入所述目标物体检测模型进行迭代训练的步骤,包括:
根据预设尺寸,从各所述目标物体loss值中筛选出小目标物体的总loss值,所述小目标物体的尺寸与所述预设尺寸对应;
在当前次迭代训练中,判断所述小目标物体的总loss值与所述目标总loss值之间的比值是否大于阈值;
若所述比值小于阈值,则在下一次迭代训练中,将各所述第一训练样本按照预设数量为一组拼接为一张图片,得到若干个第二训练样本,并使用各所述第二训练样本对所述目标物体检测模型进行训练。
8.一种物体检测方法,其特征在于,包括:
采集物体图像;
将所述物体图像输入预先构建的目标物体检测模型中,经过特征提取和分类后,得到目标物体在所述物体图像中的坐标值,其中,所述目标物体检测模型为权利要求6或7所述的目标物体检测模型的训练方法训练得到的模型;
根据所述坐标值,在所述物体图像上标示出所述目标物体的位置。
9.一种物体检测装置,其特征在于,包括:
采集模块,用于采集物体图像;
处理模块,用于将所述物体图像输入预先构建的目标物体检测模型中,经过特征提取和分类后,得到目标物体在所述物体图像中的坐标值,其中,所述目标物体检测模型为权利要求6或7所述的目标物体检测模型的训练方法训练得到的模型;
标示模块,用于根据所述坐标值,在所述物体图像上标示出所述目标物体的位置。
10.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求6至8中任一项所述方法的步骤。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求6至8中任一项所述的方法的步骤。
CN202011290074.5A 2020-11-17 2020-11-17 目标物体检测模型、训练方法、物体检测方法和相关设备 Active CN112101322B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202011290074.5A CN112101322B (zh) 2020-11-17 2020-11-17 目标物体检测模型、训练方法、物体检测方法和相关设备
US17/389,380 US11776288B2 (en) 2020-11-17 2021-07-30 Object detection method, and training method for a target object detection model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011290074.5A CN112101322B (zh) 2020-11-17 2020-11-17 目标物体检测模型、训练方法、物体检测方法和相关设备

Publications (2)

Publication Number Publication Date
CN112101322A CN112101322A (zh) 2020-12-18
CN112101322B true CN112101322B (zh) 2021-03-02

Family

ID=73784646

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011290074.5A Active CN112101322B (zh) 2020-11-17 2020-11-17 目标物体检测模型、训练方法、物体检测方法和相关设备

Country Status (2)

Country Link
US (1) US11776288B2 (zh)
CN (1) CN112101322B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113344877A (zh) * 2021-06-08 2021-09-03 武汉工程大学 基于卷积神经网络的钢筋模型训练方法及装置
CN114882440B (zh) * 2022-05-30 2024-10-18 联通(广东)产业互联网有限公司 一种人头检测方法和系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110781964A (zh) * 2019-10-28 2020-02-11 兰州交通大学 一种基于视频图像的人体目标检测方法及系统
CN111652321A (zh) * 2020-06-10 2020-09-11 江苏科技大学 一种基于改进yolov3算法的海上船舶检测方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020215241A1 (zh) * 2019-04-24 2020-10-29 江南大学 一种面向计算资源局限平台部署的实时目标检测的方法
CN110781805B (zh) * 2019-10-23 2024-05-07 北京鉴微知著智能科技有限公司 一种目标物体检测方法、装置、计算设备和介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110781964A (zh) * 2019-10-28 2020-02-11 兰州交通大学 一种基于视频图像的人体目标检测方法及系统
CN111652321A (zh) * 2020-06-10 2020-09-11 江苏科技大学 一种基于改进yolov3算法的海上船舶检测方法

Also Published As

Publication number Publication date
CN112101322A (zh) 2020-12-18
US20220156534A1 (en) 2022-05-19
US11776288B2 (en) 2023-10-03

Similar Documents

Publication Publication Date Title
CN111738110A (zh) 基于多尺度注意力机制的遥感图像车辆目标检测方法
CN109543627B (zh) 一种判断驾驶行为类别的方法、装置、及计算机设备
CN110516541B (zh) 文本定位方法、装置、计算机可读存储介质和计算机设备
CN112101322B (zh) 目标物体检测模型、训练方法、物体检测方法和相关设备
CN110516514B (zh) 一种目标检测模型的建模方法和装置
CN108305260B (zh) 一种图像中角点的检测方法、装置及设备
CN110942456B (zh) 篡改图像检测方法、装置、设备及存储介质
CN110119736B (zh) 车牌位置识别方法、装置及电子设备
CN111191664A (zh) 标签识别网络的训练方法、标签识别装置/方法及设备
CN111723814A (zh) 基于跨图像关联的弱监督图像语义分割方法、系统、装置
CN115797336A (zh) 光伏组件的故障检测方法、装置、电子设备和存储介质
CN113570003A (zh) 基于注意力机制的特征融合缺陷检测方法及装置
CN114998856A (zh) 一种多相机图像的3d目标检测方法、装置、设备及介质
CN115100489A (zh) 一种图像处理方法、装置、设备及可读存储介质
CN115082909A (zh) 一种肺部病变识别方法及系统
CN111291716B (zh) 精子细胞识别方法、装置、计算机设备和存储介质
CN117475253A (zh) 一种模型训练方法、装置、电子设备及存储介质
CN116580232A (zh) 一种图像自动标注方法、系统及电子设备
CN111767919A (zh) 一种多层双向特征提取与融合的目标检测方法
CN112465037B (zh) 目标检测方法、装置、计算机设备及存储介质
CN112507933B (zh) 基于集中式信息交互的显著性目标检测方法及系统
CN111178202B (zh) 目标检测方法、装置、计算机设备和存储介质
CN112906707B (zh) 一种表面缺陷图像的语义分割方法、装置及计算机设备
CN114972965A (zh) 一种基于深度学习的场景识别方法
CN114241398A (zh) 基于人工智能的车辆定损方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20241008

Address after: Room 1405, Office Building 4, Chongwen Garden, No.1 Tangling Road, Fuguang Community, Taoyuan Street, Nanshan District, Shenzhen City, Guangdong Province 518055

Patentee after: Shenzhen Youbisxuan Medical Robot Co.,Ltd.

Country or region after: China

Address before: 518000 16th and 22nd Floors, C1 Building, Nanshan Zhiyuan, 1001 Xueyuan Avenue, Nanshan District, Shenzhen City, Guangdong Province

Patentee before: Shenzhen UBTECH Technology Co.,Ltd.

Country or region before: China