CN116468984A - 可移动物体检测模型的构建方法、检测模型及检测方法 - Google Patents

可移动物体检测模型的构建方法、检测模型及检测方法 Download PDF

Info

Publication number
CN116468984A
CN116468984A CN202310231073.0A CN202310231073A CN116468984A CN 116468984 A CN116468984 A CN 116468984A CN 202310231073 A CN202310231073 A CN 202310231073A CN 116468984 A CN116468984 A CN 116468984A
Authority
CN
China
Prior art keywords
movable object
identified
coordinate
prediction
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310231073.0A
Other languages
English (en)
Other versions
CN116468984B (zh
Inventor
陈文辉
杨艳青
赵辉煌
郑光勇
梁小满
林睦纲
万晓青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Sanyi Seiko Technology Co ltd
Original Assignee
Hengyang Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hengyang Normal University filed Critical Hengyang Normal University
Priority to CN202310231073.0A priority Critical patent/CN116468984B/zh
Publication of CN116468984A publication Critical patent/CN116468984A/zh
Application granted granted Critical
Publication of CN116468984B publication Critical patent/CN116468984B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于目标检测技术领域,具体涉及一种可移动物体检测模型的构建方法、检测模型及检测方法。该方法通过对训练数据图像中的标记样本进行分布计算,生成分布矩阵,并根据预设分布密度对分布矩阵进行编码,然后利用目标识别模型对标记样本进行预测,得到待识别可移动物体的置信度、预测数量和预测中心坐标,然后将待识别可移动物体的预测中心坐标映射到分布矩阵,得到预测中心坐标对应的区域密度编码,然后根据标记中心坐标与预测中心坐标的重叠度生成预测结果标志,最后利用上述数据组成数据集对MLP网络模型进行训练,得到可移动物体识别优化模型。本发明实现了在不改变前期网络的基础上增加分布概率的特征,提升了识别可移动物体的准确率。

Description

可移动物体检测模型的构建方法、检测模型及检测方法
技术领域
本发明属于目标检测技术领域,具体涉及一种可移动物体检测模型的构建方法、检测模型及检测方法。
背景技术
许多领域(例如:学校、车站、机场和其他公共场所等等)都需要统计人数和位置信息,从而来辅助人们进行管理、决策等等。从学校来看,学生的校内外统计、班级学生出勤统计、集中度统计,可以辅助教学管理等;从公共场所来看,在车站、码头、机场、景区等公共场所,有时会聚集大量人员,人员的数量统计可以避免发生交通堵塞以及安全事故。因此,数据的及时计算和统计成为了当下各个领域需要解决的问题。
近年来,基于计算机视觉技术的图像识别和分析备受关注,并在各个行业得到应用,主要用于识别、计数和跟踪等等,也即通过计算机视觉技术的图像识别和分析来实现数据的计算和统计。随着算法、网络、计算机芯片等性能优化和提升,图像识别技术的检测精测、速度也不断提高。
目前,基于深度学习的可移动物体检测算法不断涌现。其中,提出了分布式概率调整置信度(DPAC)函数可以根据实际情况优化模型预测的可靠性,即使用可移动物体在视野中的分布特性来调整可靠性,DPAC函数可以根据可移动物体分布向不同区域分配不同的可移动物体发生概率权重,从而来提高可移动物体检测网络的准确率。
虽然DPAC函数考虑了目标所在背景中的分布因素,但是由于其参数难以获得,所以还是会导致目标置信度分配权重不够准确,从而导致检测网络的整体检测性能有待进一步提高。
发明内容
本发明的目的是提供一种可移动物体优化检测模型的构建方法、检测模型及检测方法,以解决现有技术中的缺点。
为实现上述发明目的,本发明所采用的技术方案是:
本发明实施例的第一方面,提供一种可移动物体检测模型的构建方法,其特征在于,包括:
获取训练数据图像中的标记样本;其中,所述标记样本用于表征待识别可移动物体的第一坐标和第二坐标;
基于所述待识别可移动物体的第一坐标和第二坐标,得到待识别可移动物体的标记中心坐标;
对所述待识别可移动物体的标记中心坐标进行分布计算,生成分布矩阵,并根据预设分布概率对所述分布矩阵进行编码,得到编码后的分布矩阵;
将所述标记样本输入目标检测模型,得到待识别可移动物体的预测置信度、预测数量和预测中心坐标;
将所述待识别可移动物体的预测中心坐标映射到所述编码后的分布矩阵,得到待识别可移动物体的预测中心坐标对应的区域密度编码;
根据待识别可移动物体的标记中心坐标与待识别可移动物体的预测中心坐标的重叠度生成预测结果标志;
将所述待识别可移动物体的预测置信度、预测数量、预测中心坐标和预测中心坐标对应的区域密度编码,以及所述预测结果标志输入预先构建的MLP网络模型,并在训练完成后,获得可移动物体优化检测模型。
可选地,所述基于所述待识别可移动物体的第一坐标和第二坐标,得到待识别可移动物体的标记中心坐标,包括:
利用公式(1),对所述待识别可移动物体的第一坐标和第二坐标进行计算,得到所述待识别可移动物体的标记中心坐标;
其中,Center(x)表示待识别可移动物体的标记中心的x值;Center(y)表示待识别可移动物体的标记中心的y值;X1表示待识别可移动物体的第一坐标的x值;X2表示待识别可移动物体的第二坐标的x值;Y1表示待识别可移动物体的第一坐标的y值;Y2表示待识别可移动物体的第二坐标的y值。
可选地,所述对所述待识别可移动物体的标记中心坐标进行分布计算,生成分布矩阵,包括:
利用公式(2),对所述待识别可移动物体的第一坐标的x值和第二坐标的x值进行计算,得到待识别可移动物体的框长度;
H=X1-X2 (2);
其中,H表示待识别可移动物体的框长度;X1表示待识别可移动物体的第一坐标的x值;X2表示待识别可移动物体的第二坐标的x值;Y1表示待识别可移动物体的第一坐标的y值;
利用公式(3),对所述待识别可移动物体的第一坐标的y值和第二坐标的y值进行计算,得到待识别可移动物体的框宽度;
W=Y1-Y2 (3);
其中,W表示待识别可移动物体的框宽度;Y1表示待识别可移动物体的第一坐标的y值;Y2表示待识别可移动物体的第二坐标的y值;
利用公式(4),对所述待识别可移动物体的框长度和框宽度进行计算,得到分布计算的半径;
其中,R表示分布计算的半径;
以所述待识别可移动物体的标记中心坐标为中心,构建边长为2倍分布计算的半径的正方形,并将出现在所述正方形中的区域进行叠加统计生成所述分布矩阵。
可选地,所述训练数据图像的长和宽分别与所述分布矩阵一致。
本发明实施例的第二方面,还提供一种可移动物体优化检测模型,包括:可移动物体检测模型采用上述的可移动物体检测模型的构建方法构建得到。
本发明实施例的第三方面,还提供一种可移动物体检测方法,基于上述的可移动物体优化检测模型,包括:
获取数据图像的标记样本;其中,所述标记样本用于表征待识别可移动物体的第一坐标和第二坐标;
将所述标记样本输入所述可移动物体检测模型,得到所述可移动物体检测模型输出的待识别可移动物体的概率。
本发明具有以下有益效果:通过对训练数据图像中的标记样本进行分布计算,生成分布矩阵,并根据预设分布密度对分布矩阵进行编码,然后利用目标识别模型对标记样本进行预测,得到待识别可移动物体的置信度、分布概率和预测中心坐标,然后将待识别可移动物体的预测中心坐标映射到分布矩阵,得到预测中心坐标对应的区域密度编码,然后根据预测中心坐标与标记样本进行比较,得到预测结果标志,最后利用上述数据组成数据集对MLP网络模型进行训练,得到可移动物体识别优化模型。本发明实现了在不改变前期网络的基础上增加分布概率的特征,提升了识别可移动物体的准确率。
附图说明
图1为本申请实施例提供的提供可移动物体优化检测模型的构建方法的流程示意图;
图2为本申请实施例提供的密集人头检测数据集中的图像的示意图;
图3为本申请实施例提供的提供可移动物体检测方法的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图1-2,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。若未特别指明,实施例中所用的技术手段为本领域技术人员所熟知的常规手段。
需要说明的是,在不冲突的情况下,本发明中的实施方式及实施方式中的特征可以相互组合。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
参照图1,图1为本申请实施例提供的可移动物体优化检测模型的构建方法的流程示意图,该方法包括以下步骤:
S100,获取训练数据图像中的标记样本;其中,标记样本用于表征待识别可移动物体的第一坐标和第二坐标;
需要说明的是,本发明实施例构建的可移动物体检测模型仅适用识别固定场景下可移动物体的活体,不适用于识别非固定场景下可移动物体的活体。
标记样本是指待识别可移动物体,其包含了第一坐标和第二坐标信息。具体的,可参照图2,图2中方框就表示标记样本,而第一坐标表示的就是该方框左上角的坐标,第二坐标表示的就是该方框右下角的坐标。
可移动物体包括但不限于人、动物、微生物以及通过驱动方式进行运动的物体(例如:人搬着椅子移动,那么椅子就可以看做可移动物体),本发明实施例对此不做具体限定。
S200,基于待识别可移动物体的第一坐标和第二坐标,得到待识别可移动物体的标记中心坐标;
S300,对待识别可移动物体的标记中心坐标进行分布计算,生成分布矩阵,并根据预设分布概率对分布矩阵进行编码,得到编码后的分布矩阵;
预设分布概率是指赋予目标在分布矩阵对应位置出现的概率等级,例如:当分布矩阵的某区域目标统计多,则出现可信度较高,赋予该区域概率等级高;当区域目标统计少,则出现可信度较小时,赋予该区域概率等级低。
S400,将标记样本输入目标检测模型,得到待识别可移动物体的预测置信度、预测数量和预测中心坐标;
目标检测模型包括但不限于VGG、YOLOv3、YOLOv4、YOLOv5、YOLOv6、YOLOv7等等,本发明实施例对此不做具体限定。
以下以YOLOv4为例,进行详细说明:
YOLO v4的结构:其网络主干使用CSPDarknet53,颈部使用SPP,PAN,头部使用YOLOv3。
YoloV4网络训练过程:
(1)YOLOv4网络训练前:
配置训练数据标签集、数据图像集、权重等文件。标签文件包含训练集图像的位置和图像中目标的分布。类文件包含训练目标类别,在本实验中只有一个类别用于头部识别。权重文件采用“yolo4_weight.h5”,原始模型的权重也可以被认为是一种迁移学习。
(2)开始训练并获取模型参数:总参数:64003990;可训练参数:63937686;不可训练参数:66304。
(3)获取训练结果:在训练期间,损失持续下降,当损失不再显著下降时,训练后的权重文件“head.h”将被获取。
S500,将待识别可移动物体的预测中心坐标映射到编码后的分布矩阵,得到待识别可移动物体的预测中心坐标对应的区域编码;
S600,根据待识别可移动物体的标记中心坐标与待识别可移动物体的预测中心坐标的重叠度生成预测结果标志;
S700,将待识别可移动物体的预测置信度、预测数量、预测中心坐标和预测中心坐标对应的区域密度编码,以及预测结果标志输入预先构建的MLP网络模型,并在训练完成后,获得可移动物体优化检测模型。
MLP网络模型(Multilayer Perceptron,多层感知器网络),是一种连接方式较为简单的人工神经网络,是前馈神经网络的一种。由于它是一种灵活的神经网络,可以提升模型训练速度和收敛速度,并且输入数据维度不大,所以本发明选择MLP网络模型,以此来提高模型的训练速度。
为了便于理解,以下参照图2进行举例说明:
图2为密集人头检测数据集中的图像,是专门用于识别人体头部的图像,图2中的多个方框则均表示标记样本,每个方框的左上角和右下角称为第一坐标和第二坐标,然后基于第一坐标和第二坐标,得到人体头部的标记中心坐标,然后对人体头部的标记中心坐标进行分布计算,生成分布矩阵,然后根据预设分布概率对分布矩阵进行编码,得到编码后的分布矩阵,然后利用YOLOv4对标记样本进行预测,得到人体头部的预测置信度、预测数量和预测中心坐标,然后将预测中心坐标映射到分布矩阵,得到预测中心坐标对应的区域密度编码,然后根据待识别可移动物体的标记中心坐标与待识别可移动物体的预测中心坐标的重叠度生成预测结果标志,最终得到了人体头部的预测置信度、预测数量、预测中心坐标、预测中心坐标对应的区域密度编码和预测结果标志等一系列关于人体头部的特征数据集,然后将这些数据集输入MLP网络模型进行训练,训练完成后得到可移动物体识别模型。
在本实施例中,通过对训练数据图像中的标记样本进行分布计算,生成分布矩阵,并根据预设分布密度对分布矩阵进行编码,然后利用目标识别模型对标记样本进行预测,得到待识别可移动物体的置信度、预测数量和预测中心坐标,然后将待识别可移动物体的预测中心坐标映射到分布矩阵,得到预测中心坐标对应的区域密度编码,然后根据预测中心坐标与标记中心坐标进行比较,得到预测结果标志,最后利用上述数据组成数据集对MLP网络模型进行训练,得到可移动物体识别优化模型。本发明实现了在不改变前期网络的基础上增加分布概率的特征,从而提升了识别可移动物体的准确率。
可选地,基于待识别可移动物体的第一坐标和第二坐标,得到待识别可移动物体的标记中心坐标,包括:
利用公式(1),对待识别可移动物体的第一坐标和第二坐标进行计算,得到待识别可移动物体的标记中心坐标;
其中,Center(x)表示待识别可移动物体的标记中心的x值;Center(y)表示待识别可移动物体的标记中心的y值;X1表示待识别可移动物体的第一坐标的x值;X2表示待识别可移动物体的第二坐标的x值;Y1表示待识别可移动物体的第一坐标的y值;Y2表示待识别可移动物体的第二坐标的y值。
在本实施例中,通过公式(1),能够准确计算出待识别可移动物体的标记中心坐标,从而提高了后续模型训练的精度。
可选地,对待识别可移动物体的标记中心坐标进行分布计算,生成分布矩阵,包括:
利用公式(2),对待识别可移动物体的第一坐标的x值和第二坐标的x值进行计算,得到待识别可移动物体的框长度;
H=X1-X2 (2);
其中,H表示待识别可移动物体的框长度;X1表示待识别可移动物体的第一坐标的x值;X2表示待识别可移动物体的第二坐标的x值;Y1表示待识别可移动物体的第一坐标的y值;
利用公式(3),对待识别可移动物体的第一坐标的y值和第二坐标的y值进行计算,得到待识别可移动物体的框宽度;
W=Y1-Y2 (3);
其中,W表示待识别可移动物体的框宽度;Y1表示待识别可移动物体的第一坐标的y值;Y2表示待识别可移动物体的第二坐标的y值;
利用公式(4),对待识别可移动物体的框长度和框宽度进行计算,得到分布计算的半径;
其中,R表示分布计算的半径;
以待识别可移动物体的标记中心坐标为中心,构建边长为2倍分布计算的半径的正方形,并将出现在正方形中的区域进行叠加统计生成分布矩阵。
在本实施例中,通过公式(2)、(3)和(4),能够准确计算出待识别可移动物体的分布矩阵,从而提高了后续模型训练的精度。
可选地,训练数据图像的长和宽分别与分布矩阵一致。
在本实施例中,为了提高分布计算的准确性,限定了分布计算的范围,从而使得分布矩阵的结果更加准确,提高了后续模型训练的精度。
基于同样的发明构思,本发明实施例还提供一种可移动物体检测模型,包括:可移动物体检测模型采用上述的可移动物体检测模型的构建方法构建得到。
由于可移动物体检测模型采用了上述所有可移动物体检测模型的构建方法的实施例的全部技术方案,因此至少具有上述实施例的技术方案所带来的所有有益效果,在此不再一一赘述。
参照图3,图3为本申请实施例提供的提供可移动物体检测方法的流程示意图。
基于同样的发明构思,本发明实施例还提供一种可移动物体检测方法,基于上述的可移动物体检测模型,该方法包括以下步骤:
S100’,获取数据图像的标记样本;其中,标记样本用于表征待识别可移动物体的第一坐标和第二坐标;
S200’,将标记样本输入可移动物体检测模型,得到可移动物体检测模型输出的待识别可移动物体的概率。
由于可移动物体检测方法采用了上述所有可移动物体检测模型的实施例的全部技术方案,因此至少具有上述实施例的技术方案所带来的所有有益效果,在此不再一一赘述。
以上的实施例仅是对本发明的优选方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形、变型、修改、替换,均应落入本发明权利要求书确定的保护范围内。

Claims (6)

1.一种可移动物体检测模型的构建方法,其特征在于,包括:
获取训练数据图像中的标记样本;其中,所述标记样本用于表征待识别可移动物体的第一坐标和第二坐标;
基于所述待识别可移动物体的第一坐标和第二坐标,得到待识别可移动物体的标记中心坐标;
对所述待识别可移动物体的标记中心坐标进行分布计算,生成分布矩阵,并根据预设分布概率对所述分布矩阵进行编码,得到编码后的分布矩阵;
将所述标记样本输入目标检测模型,得到待识别可移动物体的预测置信度、预测数量和预测中心坐标;
将所述待识别可移动物体的预测中心坐标映射到所述编码后的分布矩阵,得到待识别可移动物体的预测中心坐标对应的区域密度编码;
根据待识别可移动物体的标记中心坐标与待识别可移动物体的预测中心坐标的重叠度生成预测结果标志;
将所述待识别可移动物体的预测置信度、预测数量、预测中心坐标和预测中心坐标对应的区域密度编码,以及所述预测结果标志输入预先构建的MLP网络模型,并在训练完成后,获得可移动物体优化检测模型。
2.根据权利要求1所述的可移动物体优化检测模型的构建方法,其特征在于,所述基于所述待识别可移动物体的第一坐标和第二坐标,得到待识别可移动物体的标记中心坐标,包括:
利用公式(1),对所述待识别可移动物体的第一坐标和第二坐标进行计算,得到所述待识别可移动物体的标记中心坐标;
其中,Center(x)表示待识别可移动物体的标记中心的x值;Center(y)表示待识别可移动物体的标记中心的y值;X1表示待识别可移动物体的第一坐标的x值;X2表示待识别可移动物体的第二坐标的x值;Y1表示待识别可移动物体的第一坐标的y值;Y2表示待识别可移动物体的第二坐标的y值。
3.根据权利要求1所述的可移动物体优化检测模型的构建方法,其特征在于,所述对所述待识别可移动物体的标记中心坐标进行分布计算,生成分布矩阵,包括:
利用公式(2),对所述待识别可移动物体的第一坐标的x值和第二坐标的x值进行计算,得到待识别可移动物体的框长度;
H=X1-X2(2);
其中,H表示待识别可移动物体的框长度;X1表示待识别可移动物体的第一坐标的x值;X2表示待识别可移动物体的第二坐标的x值;Y1表示待识别可移动物体的第一坐标的y值;
利用公式(3),对所述待识别可移动物体的第一坐标的y值和第二坐标的y值进行计算,得到待识别可移动物体的框宽度;
W=Y1-Y2 (3);
其中,W表示待识别可移动物体的框宽度;Y1表示待识别可移动物体的第一坐标的y值;Y2表示待识别可移动物体的第二坐标的y值;
利用公式(4),对所述待识别可移动物体的框长度和框宽度进行计算,得到分布计算的半径;
其中,R表示分布计算的半径;
以所述待识别可移动物体的标记中心坐标为中心,构建边长为2倍分布计算的半径的正方形,并将出现在所述正方形中的区域进行叠加统计生成所述分布矩阵。
4.根据权利要求3所述的可移动物体优化检测模型的构建方法,其特征在于,所述训练数据图像的长和宽分别与所述分布矩阵一致。
5.一种可移动物体检测模型,其特征在于,包括:所述可移动物体检测模型采用权利要求1-4任一项所述的可移动物体检测模型的构建方法构建得到。
6.一种可移动物体检测方法,其特征在于,基于权利要求5所述的可移动物体检测模型,包括:
获取数据图像的标记样本;其中,所述标记样本用于表征待识别可移动物体的第一坐标和第二坐标;
将所述标记样本输入所述可移动物体检测模型,得到所述可移动物体检测模型输出的待识别可移动物体的概率。
CN202310231073.0A 2023-03-10 2023-03-10 可移动物体检测模型的构建方法、检测模型及检测方法 Active CN116468984B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310231073.0A CN116468984B (zh) 2023-03-10 2023-03-10 可移动物体检测模型的构建方法、检测模型及检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310231073.0A CN116468984B (zh) 2023-03-10 2023-03-10 可移动物体检测模型的构建方法、检测模型及检测方法

Publications (2)

Publication Number Publication Date
CN116468984A true CN116468984A (zh) 2023-07-21
CN116468984B CN116468984B (zh) 2023-10-27

Family

ID=87177845

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310231073.0A Active CN116468984B (zh) 2023-03-10 2023-03-10 可移动物体检测模型的构建方法、检测模型及检测方法

Country Status (1)

Country Link
CN (1) CN116468984B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108038435A (zh) * 2017-12-04 2018-05-15 中山大学 一种基于卷积神经网络的特征提取与目标跟踪方法
CN111259833A (zh) * 2020-01-20 2020-06-09 青岛大学 一种基于交通图像的车辆计数方法
CN112260738A (zh) * 2020-10-20 2021-01-22 东南大学 基于yolo目标检测的fd-mimo下行多用户分组方法
CN113486886A (zh) * 2021-06-21 2021-10-08 华侨大学 一种自然场景下的车牌识别方法和装置
US20220292311A1 (en) * 2021-03-12 2022-09-15 Dibi (Chongqing) Intelligent Technology Research Institute Co., Ltd. Method for object detection and recognition based on neural network
CN115690566A (zh) * 2022-10-24 2023-02-03 广东工业大学 一种基于深度迁移聚类学习的深海动物新物种识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108038435A (zh) * 2017-12-04 2018-05-15 中山大学 一种基于卷积神经网络的特征提取与目标跟踪方法
CN111259833A (zh) * 2020-01-20 2020-06-09 青岛大学 一种基于交通图像的车辆计数方法
CN112260738A (zh) * 2020-10-20 2021-01-22 东南大学 基于yolo目标检测的fd-mimo下行多用户分组方法
US20220292311A1 (en) * 2021-03-12 2022-09-15 Dibi (Chongqing) Intelligent Technology Research Institute Co., Ltd. Method for object detection and recognition based on neural network
CN113486886A (zh) * 2021-06-21 2021-10-08 华侨大学 一种自然场景下的车牌识别方法和装置
CN115690566A (zh) * 2022-10-24 2023-02-03 广东工业大学 一种基于深度迁移聚类学习的深海动物新物种识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MARYAM RAHNEMOONFAR等: "DisCountNet: Discriminating and Counting Network for Real-Time Counting and Localization of Sparse Objects in High-Resolution UAV Imagery", 《REMOTE SENSING》, pages 1 - 17 *

Also Published As

Publication number Publication date
CN116468984B (zh) 2023-10-27

Similar Documents

Publication Publication Date Title
CN110796168B (zh) 一种基于改进YOLOv3的车辆检测方法
CN109919072B (zh) 基于深度学习和轨迹跟踪的精细车型识别与流量统计方法
CN111079602A (zh) 基于多尺度区域特征约束的车辆细粒度识别方法及装置
CN110163187A (zh) 基于f-rcnn的远距离交通标志检测识别方法
CN107818302A (zh) 基于卷积神经网络的非刚性多尺度物体检测方法
CN106250812A (zh) 一种基于快速r‑cnn深度神经网络的车型识别方法
CN107229929A (zh) 一种基于r‑cnn的车牌定位方法
CN106446930A (zh) 基于深层卷积神经网络的机器人工作场景识别方法
CN108280397A (zh) 基于深度卷积神经网络的人体图像头发检测方法
CN108564121A (zh) 一种基于自编码器的未知类别图像标签预测方法
CN107256017B (zh) 路线规划方法及系统
CN111814596B (zh) 一种遥感影像与出租车轨迹融合的自动城市功能分区方法
CN109636846B (zh) 基于循环注意力卷积神经网络的目标定位方法
CN108256462A (zh) 一种商场监控视频中的人数统计方法
CN114708435A (zh) 基于语义分割的障碍物尺寸预测与不确定性分析方法
CN109190458A (zh) 一种基于深度学习的小人头检测方法
CN107301376A (zh) 一种基于深度学习多层刺激的行人检测方法
CN112926696A (zh) 一种基于注意力图的可解释局部迁移互学习方法
CN106529570A (zh) 基于深度脊波神经网络的图像分类方法
CN115860152B (zh) 一种面向人物军事知识发现的跨模态联合学习方法
CN112347930A (zh) 基于自学习半监督深度神经网络高分影像场景分类方法
CN108009512A (zh) 一种基于卷积神经网络特征学习的人物再识别方法
Yang RETRACTED ARTICLE: Research on multi-target tracking technology based on machine vision
CN112884135B (zh) 一种基于边框回归的数据标注校正方法
CN116468984B (zh) 可移动物体检测模型的构建方法、检测模型及检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240521

Address after: Standard Factory Buildings No. 6 and No. 7, Electronic Industry Cluster, Yunji Street, Hengnan County, Hengyang City, Hunan Province, 421000

Patentee after: HUNAN SANYI SEIKO TECHNOLOGY Co.,Ltd.

Country or region after: China

Address before: 421002 No. 16 Henghua Road, Zhuhui District, Hengyang City, Hunan Province

Patentee before: Hengyang Normal University

Country or region before: China