CN115620215A - 目标检测模型生成方法、目标检测方法 - Google Patents

目标检测模型生成方法、目标检测方法 Download PDF

Info

Publication number
CN115620215A
CN115620215A CN202211636499.6A CN202211636499A CN115620215A CN 115620215 A CN115620215 A CN 115620215A CN 202211636499 A CN202211636499 A CN 202211636499A CN 115620215 A CN115620215 A CN 115620215A
Authority
CN
China
Prior art keywords
image
network
sample image
feature map
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211636499.6A
Other languages
English (en)
Other versions
CN115620215B (zh
Inventor
张明宇
周子贤
周亮基
周圣强
黄岗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Wandianzhang Software Technology Co ltd
Original Assignee
Suzhou Wandianzhang Software Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Wandianzhang Software Technology Co ltd filed Critical Suzhou Wandianzhang Software Technology Co ltd
Priority to CN202211636499.6A priority Critical patent/CN115620215B/zh
Publication of CN115620215A publication Critical patent/CN115620215A/zh
Application granted granted Critical
Publication of CN115620215B publication Critical patent/CN115620215B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种目标检测模型生成方法、目标检测方法,包括:利用特征提取网络对分开输入的第一样本图像和第二样本图像进行特征提取,得到第一特征图和第二特征图;利用分类器网络对第一特征图进行单次检测得到相应的第一分类置信度,根据第一分类置信度对模型网络进行反向传播训练;利用分类器网络通过窗口滑动的方式对第二特征图进行多次检测得到各滑动窗口对应图像块的第二分类置信度,按照第二分类置信度由大至小的顺序从全部图像块中选取预设占比的目标图像块,利用目标图像块对模型网络进行反向传播训练;直至模型网络收敛停止样本图像输入,得到包含特征提取网络及分类器网络的目标检测模型。能够提高模型检测准确率。

Description

目标检测模型生成方法、目标检测方法
技术领域
本发明涉及人工智能技术领域,特别涉及一种目标检测模型生成方法、目标检测方法。
背景技术
目前,神经网络已被用于很多行业来解决不同领域的问题,且随着神经网络理论本身以及相关理论、相关技术的不断发展,神经网络的应用也会更加深入。神经网络的训练过程与最终的模型效果强相关,而训练神经网络存在一系列的关联因素,这些关联因素直接影响模型的精度等性能。例如,在食品领域,食品安全一直是重中之重,食品药品监管总局结合食品安全监管的特点,指导开展餐饮企业保障食品安全的工作。而老鼠、蟑螂等的存在严重妨碍了保障食品安全的工作,应重点消杀。借助神经网络检测模型虽然能够在夜间对其进行实时监控,但由于夜间亮度暗、老鼠蟑螂等体积小且训练神经网络所需夜间老鼠蟑螂图片难以收集等问题,从而使得最终模型检出准确率不高,防治工作得不到有效落地。
因此,上述技术问题亟待本领域技术人员解决。
发明内容
有鉴于此,本发明的目的在于提供一种目标检测模型生成方法、目标检测方法,同时还相应提供了目标检测装置、设备及存储介质,能够支持不同尺寸的样本图像且提高模型检测准确率。其具体方案如下:
本申请的第一方面提供了一种目标检测模型生成方法,包括:
获取仅包含待检测的移动目标的第一样本图像及不包含所述移动目标的第二样本图像,并利用特征提取网络对分开输入的所述第一样本图像和所述第二样本图像进行特征提取,得到与所述第一样本图像对应的第一特征图和与所述第二样本图像对应的第二特征图;
针对所述第一特征图,利用分类器网络对所述第一特征图进行单次检测得到相应的第一分类置信度,并根据所述第一分类置信度对模型网络进行反向传播训练;所述模型网络包括所述特征提取网络和所述分类器网络;
针对所述第二特征图,利用所述分类器网络通过窗口滑动的方式对所述第二特征图进行多次检测得到各滑动窗口对应图像块的第二分类置信度,并按照所述第二分类置信度由大至小的顺序从全部所述图像块中选取预设占比的目标图像块,及利用所述目标图像块对所述模型网络进行反向传播训练;
直至所述模型网络收敛停止样本图像输入,得到包含训练后所述模型网络的目标检测模型。
可选的,所述获取仅包含待检测目标的第一样本图像及不包含所述待检测目标的第二样本图像之后,还包括:
利用基于掩码技术的图像分割算法对所述第一样本图像和所述第二样本图像进行数据增强处理,得到增强处理后的所述第一样本图像和增强处理后的所述第二样本图像。
可选的,所述利用特征提取网络对分开输入的所述第一样本图像和所述第二样本图像进行特征提取,得到与所述第一样本图像对应的第一特征图和与所述第二样本图像对应的第二特征图,包括:
利用所述特征提取网络对分开输入的所述第一样本图像和所述第二样本图像进行32倍下采样,得到与所述第一样本图像对应的所述第一特征图和与所述第二样本图像对应的所述第二特征图。
可选的,所述分类器网络为包括二维最大池化层和二维卷积层的全卷积神经网络;其中,所述二维最大池化层由一个尺寸为3*3的池化核构成,所述二维卷积层由一个尺寸为1*1的卷积核构成。
可选的,所述利用分类器网络对所述第一特征图进行单次检测得到相应的第一分类置信度,包括:
将所述第一特征图输入所述二维最大池化层,得到张量维度为b1*c*L1*W1的第一输出,并将所述第一输出输入所述二维卷积层,得到张量维度为b1*2*L1*W1的第一最终输出;其中,b1为单次训练的所述第一样本图像的数量,c为通道数,L1和W1为所述第一特征图的长和宽;
基于所述第一最终输出利用损失函数计算所述第一分类置信度;
所述利用所述分类器网络通过窗口滑动的方式对所述第二特征图进行多次检测得到各滑动窗口对应图像块的第二分类置信度,包括:
将所述第二特征图输入所述二维最大池化层,得到张量维度为b2*c*L2*W2的第二输出,并将所述第二输出输入所述二维卷积层,得到张量维度为b2*2*L2*W2的第二最终输出;其中,b2为单次训练的所述第二样本图像的数量,c为通道数,L2和W2为所述第二特征图的长和宽;
基于所述第二最终输出利用所述损失函数计算各滑动窗口对应图像块的所述第二分类置信度。
可选的,所述损失函数表示为:
Figure 636020DEST_PATH_IMAGE001
其中,i为置信度表征的分类类别,
Figure 887879DEST_PATH_IMAGE002
为表征第i个类别对损失函数的影响权重的超参数,
Figure 535898DEST_PATH_IMAGE003
与第i个类别数据量相关,
Figure 57753DEST_PATH_IMAGE004
为用于控制高置信度项对损失函数的影响的超参数,
Figure 955171DEST_PATH_IMAGE005
为第i个类别的置信度。
可选的,所述按照所述分类置信度由大至小的顺序从全部所述图像块中选取预设占比的目标图像块之前,还包括:
根据网络当前训练轮数和总训练轮数确定所述预设占比;其中,所述预设占比与网络当前训练轮数呈负相关关系。
可选的,所述根据网络当前训练轮数和总训练轮数确定所述预设占比,包括:
如果当前训练轮数小于第一阈值,则将所述预设占比确定为第一占比;
如果当前训练轮数小于第二阈值且大于所述第一阈值,则将所述预设占比确定为第二占比;
如果当前训练轮数小于总训练轮数且大于所述第二阈值,则将所述预设占比确定为第三占比;其中,所述第一阈值和所述第二阈值均为总训练轮数的倍数,所述第一阈值小于所述第二阈值,所述第二阈值小于总训练轮数。
本申请的第二方面提供了一种目标检测方法,基于前述目标检测模型,包括:
从实时视频流中获取待检测图像,并从所述待检测图像中提取出移动目标图像;
将所述移动目标图像输入所述目标检测模型,以便所述目标检测模型对所述移动目标图像进行处理后输出相应的分类结果;
根据所述分类结果判断所述待检测图像中是否存在移动目标,并基于第一预设时间段内的全部所述待检测图像的检测情况确定是否执行告警信息上报逻辑。
可选的,所述根据所述分类结果判断所述待检测图像中是否存在移动目标之后,还包括:
对于各所述待检测图像,如果存在所述移动目标,则将累积分值增加第三阈值,如果不存在所述移动目标,则将累计分值减少第四阈值;其中,所述第三阈值大于所述第四阈值;
对第一预设时间段内的全部所述待检测图像进行检测后得到最终的所述累计分值;
可选的,所述基于第一预设时间段内的全部所述待检测图像的检测情况确定是否执行告警信息上报逻辑,包括:
判断最终的所述累计分值是否超过上报阈值,如果是,则上报执行告警信息上报逻辑。
本申请的第三方面提供了一种目标检测装置,包括:
图像获取及目标提取模块,用于从实时视频流中获取待检测图像,并从所述待检测图像中提取出移动目标图像;
模型检测模块,用于将所述移动目标图像输入所述目标检测模型,以便所述目标检测模型对所述移动目标图像进行处理后输出相应的分类结果;
结果判断及告警模块,用于根据所述分类结果判断所述待检测图像中是否存在移动目标,并基于第一预设时间段内的全部所述待检测图像的检测情况确定是否执行告警信息上报逻辑。
本申请的第四方面提供了一种电子设备,所述电子设备包括处理器和存储器;其中所述存储器用于存储计算机程序,所述计算机程序由所述处理器加载并执行以实现前述目标检测方法。
本申请的第五方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器加载并执行时,实现前述目标检测方法。
本申请中,先获取仅包含待检测的移动目标的第一样本图像及不包含所述移动目标的第二样本图像,并利用特征提取网络对分开输入的所述第一样本图像和所述第二样本图像进行特征提取,得到与所述第一样本图像对应的第一特征图和与所述第二样本图像对应的第二特征图;针对所述第一特征图,利用分类器网络对所述第一特征图进行单次检测得到相应的第一分类置信度,并根据所述第一分类置信度对模型网络进行反向传播训练;所述模型网络包括所述特征提取网络和所述分类器网络;针对所述第二特征图,利用所述分类器网络通过窗口滑动的方式对所述第二特征图进行多次检测得到各滑动窗口对应图像块的第二分类置信度,并按照所述第二分类置信度由大至小的顺序从全部所述图像块中选取预设占比的目标图像块,及利用所述目标图像块对所述模型网络进行反向传播训练;直至所述模型网络收敛停止样本图像输入,得到包含训练后所述模型网络的目标检测模型。可见,本申请在利用第一样本图像进行训练的同时,分类器网络通过窗口滑动的方式对第二特征图进行多次检测,且通过按照分类置信度的大小顺序从全部图像块中选取目标图像块的置信度提升匹配机制(也可称为损失匹配机制)来反向传播训练网络,能够使分类器网络聚焦难分类样本,从而利用较少的第一样本图像即可使得训练后模型具有较高的检测准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请提供的一种目标检测模型生成方法流程图;
图2为本申请提供的一种具体的目标检测模型生成方法流程图;
图3为本申请提供的一种具体的预设占比确定方法流程图;
图4为本申请提供的一种具体的第二样本图像训练过程示意图;
图5为本申请提供的一种目标检测方法流程图;
图6为本申请提供的一种具体的目标检测方法流程图;
图7为本申请提供的一种目标检测装置结构示意图;
图8为本申请提供的一种目标检测电子设备结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,神经网络已被用于很多行业来解决不同领域的问题,且随着神经网络理论本身以及相关理论、相关技术的不断发展,神经网络的应用也会更加深入。神经网络的训练过程与最终的模型效果强相关,而训练神经网络存在一系列的关联因素,这些关联因素直接影响模型的精度等性能。针对上述技术缺陷,本申请提供一种目标检测模型生成方法,在利用第一样本图像进行训练的同时,分类器网络通过窗口滑动的方式对第二特征图进行多次检测,且通过按照分类置信度的大小顺序从全部图像块中选取目标图像块的置信度提升匹配机制(也可称为损失匹配机制)来反向传播训练所述模型网络,能够使分类器网络聚焦难分类样本,从而利用较少的第一样本图像即可使得训练后模型具有较高的检测准确率。相应的,本申请还提供一种目标检测方案,具有同样的技术效果,在此不再进行赘述。
图1为本申请实施例提供的一种目标检测模型生成方法流程图。参见图1所示,该目标检测模型生成方法包括:
S11:获取仅包含待检测的移动目标的第一样本图像及不包含所述移动目标的第二样本图像,并利用特征提取网络对分开输入的所述第一样本图像和所述第二样本图像进行特征提取,得到与所述第一样本图像对应的第一特征图和与所述第二样本图像对应的第二特征图。
本实施例中,模型训练之前先构建样本,一方面获取仅包含待检测的移动目标的第一样本图像,另一方面获取不包含所述移动目标的第二样本图像。所述移动目标为待检测的目标,如老鼠、蟑螂等。本实施例及下述实施例均以老鼠为例进行说明,也即,所述第一样本图像为老鼠图像,所述第二样本为背景图像,所谓背景图像可以为待检测的环境背景,如厨房等。其中,所述第一样本图像和所述第二样本图像的尺寸大小是不一致的,所述第一样本图像的尺寸小于所述第二样本图像的尺寸,一般为1:10。例如,老鼠图片尺寸设置为96px*96px,背景图片尺寸设置为960px*960px。
本实施例中,获取到所述样本图像之后,利用特征提取网络对分开输入的所述第一样本图像和所述第二样本图像进行特征提取,得到第一特征图和第二特征图。可以理解,在训练过程中,本实施例中的所述第一样本图像和所述第二样本图像是分开输入的,即在一轮训练中,输入要么是所述第一样本图像,要么是所述第二样本图像。在一种实施例中,每轮训练初始阶段,可以随机选取输入样本是所述第一样本图像还是所述第二样本图像;在另一种实施例中,可以交叉输入样本,例如,本轮训练输入所述第一样本图像,下轮训练输入所述第二样本图像,以此类推。将所述第一样本图像和所述第二样本图像分开输入是为了使得模型往良性梯度方向下降,收敛速度更快。本实施例中的所述特征提取网络基于EfficientNet网络骨架,EfficientNet占用空间小且准确率高使得模型提取效率较高。例如,基于EfficientNet的全卷积网络,使用少量老鼠数据与大量背景数据进行模型训练,能够取得99.18%的准确率。
本实施例中,在特征提取时,利用所述特征提取网络对分开输入的所述第一样本图像和所述第二样本图像进行32倍下采样,得到所述第一特征图和所述第二特征图。这里用于检测的特征图有32倍的下采样,如输入是960px*960px的话,这里的特征图就是30*30了。由于下采样倍数高,这里特征图的感受野比较大,因此适合检测图像中尺寸比较大的对象。
本实施例中,在特征提取之前,还需要对样本图像进行增强处理,具体利用基于掩码技术的图像分割算法对所述第一样本图像和所述第二样本图像进行数据增强处理,得到增强处理后的所述第一样本图像和增强处理后的所述第二样本图像。上述基于掩码技术的图像分割算法可以为GrabCut算法,设定网格参数k与掩码概率p,将样本图像切分为均匀的k*k个图片块,每个图片块被设置为黑色的概率为p,这里设置为黑色是因为老鼠为黑色。需要说明的是,由于所述第一样本图像和所述第二样本图像的尺寸不同,所以第一样本图像和所述第二样本图像的网格参数k与掩码概率p也不同,所以第一样本图像的网格参数k的经验值为3或者4,所述第二样本图像的网格参数k为所述第一样本图像的10倍左右。掩码概率p与网格参数k呈正相关关系。
可以理解,由于老鼠出现时一般是处于遮掩状态,可能只露出头部或尾部,或者背景图像中的一个黑色物体容易被误识别为老鼠,为了使得模型对上述情况也能准确识别,因此,需要上述数据增强的过程,即数据增强的目的是使模型能够检测出不同形态下的移动目标。
S12:针对所述第一特征图,利用分类器网络对所述第一特征图进行单次检测得到相应的第一分类置信度,并根据所述第一分类置信度对模型网络进行反向传播训练;所述模型网络包括所述特征提取网络和所述分类器网络。
本实施例中,当输入所述第一样本图像时,所述特征提取网络输出所述第一特征图,此时利用分类器网络对所述第一特征图进行单次检测得到相应的第一分类置信度,并根据所述第一分类置信度对模型网络进行反向传播训练。这里反向传播训练的所述模型网络包括所述特征提取网络和所述分类器网络,主要是所述分类器网络,在对所述分类器网络进行反向传播训练时,所述特征提取网络的参数也可能会随之发生微调。
本实施例中,所述分类器网络为包括二维最大池化层和二维卷积层的全卷积神经网络;其中,所述二维最大池化层由一个尺寸为3*3的池化核构成,所述二维卷积层由一个尺寸为1*1的卷积核构成。所述分类器网络为全卷积网络,完全使用卷积运算搭建的神经网络模型,其特点是可以适应不同大小的图片输入,即能够使得网络能同时使用不同尺寸的图片进行训练。所述二维最大池化层表示为MaxPool2d,所述二维卷积层Conv2d层。
在利用所述第一样本图像进行训练时,将所述第一特征图输入所述二维最大池化层,得到张量维度为b1*c*L1*W1的第一输出,并将所述第一输出输入所述二维卷积层,得到张量维度为b1*2*L1*W1的第一最终输出;其中,b1为单次训练的所述第一样本图像的数量,c为通道数,L1和W1为所述第一特征图的长和宽。最后基于所述第一最终输出利用损失函数计算所述第一分类置信度。例如,训练老鼠图片时,MaxPool2d输出张量维度b1*c*1*1(长宽计算公式96÷32-3+1=1),Conv2d输出张量维度b1* 2*1*1。
S13:针对所述第二特征图,利用所述分类器网络通过窗口滑动的方式对所述第二特征图进行多次检测得到各滑动窗口对应图像块的第二分类置信度,并按照所述第二分类置信度由大至小的顺序从全部所述图像块中选取预设占比的目标图像块,及利用所述目标图像块对所述模型网络进行反向传播训练。
S14:直至所述模型网络收敛停止样本图像输入,得到包含训练后所述模型网络的目标检测模型。
本实施例中,当输入所述第二样本图像时,所述特征提取网络输出所述第二特征图,此时利用所述分类器网络通过窗口滑动的方式对所述第二特征图进行多次检测。对于所述第一样本图像,一张图片检测1次;对于所述第二样本图像,一张图片检测多次。例如,为模拟动态监测背景框,对于尺寸为960px*960px的所述第二样本图像,一张图片按照96px*96px的大小,检测28×28=784次。这是因为,对于960px*960px 的所述第二样本图像进行32倍下采样,得到尺寸为30*30的感受野,在30*30的格子上,用3*3的窗口滑动得到28*28个不同的3*3正方形。也就是说,实际背景检测次数多于老鼠,充分利用丰富的背景图片。
本实施例中,在利用所述第二样本图像进行训练时,将所述第二特征图输入所述二维最大池化层,得到张量维度为b2*c*L2*W2的第二输出,并将所述第二输出输入所述二维卷积层,得到张量维度为b2*2*L2*W2的第二最终输出;其中,b2为单次训练的所述第二样本图像的数量,c为通道数,L2和W2为所述第二特征图的长和宽,最后基于所述第二最终输出利用所述损失函数计算各滑动窗口对应图像块的所述第二分类置信度。例如,训练背景图片时,MaxPool2d输出张量维度b2*c*28*28(长宽计算公式960÷32-3+1=28),Conv2d输出张量维度b2* 2*28*28。
上述损失函数表示为:
Figure 325234DEST_PATH_IMAGE001
其中,i为置信度表征的分类类别,
Figure 421235DEST_PATH_IMAGE002
为表征第i个类别对损失函数的影响权重的超参数,
Figure 287560DEST_PATH_IMAGE003
与第i个类别数据量相关,
Figure 374071DEST_PATH_IMAGE004
为用于控制高置信度项对损失函数的影响的超参数,
Figure 859411DEST_PATH_IMAGE005
为第i个类别的置信度。
本实施例中,为了使得模型聚焦于难分类样本,本发明提出置信度提升匹配机制(也可称为损失匹配机制),难分类样本即困难样本,指神经网络模型容易误检样本,或检出置信度较低的样本。具体的,按照所述第二分类置信度由大至小的顺序从全部所述图像块中选取预设占比的目标图像块,然后利用所述目标图像块对所述模型网络进行反向传播训练。
最终直至所述模型网络收敛停止样本图像输入,需要注意,收敛是指所述特征提取网络和所述分类器网络均收敛,如迭代次数达到目标次数,最终得到包含所述特征提取网络及训练后的所述分类器网络的目标检测模型。例如,训练背景图片时,取结果为老鼠的置信度TOP m%的图片块进行反向传播(Back propergation)。上述新的损失匹配机制,随着训练轮数增加,模型训练计算的损失使用的图片块置信度增加,使模型聚焦困难样本。训练使用少量老鼠图片即可达到高准确率。
可见,本申请实施例先获取仅包含待检测的移动目标的第一样本图像及不包含所述移动目标的第二样本图像,并利用特征提取网络对分开输入的所述第一样本图像和所述第二样本图像进行特征提取,得到与所述第一样本图像对应的第一特征图和与所述第二样本图像对应的第二特征图;针对所述第一特征图,利用分类器网络对所述第一特征图进行单次检测得到相应的第一分类置信度,并根据所述第一分类置信度对模型网络进行反向传播训练;所述模型网络包括所述特征提取网络和所述分类器网络;针对所述第二特征图,利用所述分类器网络通过窗口滑动的方式对所述第二特征图进行多次检测得到各滑动窗口对应图像块的第二分类置信度,并按照所述第二分类置信度由大至小的顺序从全部所述图像块中选取预设占比的目标图像块,及利用所述目标图像块对所述模型网络进行反向传播训练;直至所述模型网络收敛停止样本图像输入,得到包含训练后的所述特征提取网络及训练后的所述分类器网络的目标检测模型。本申请实施例在利用第一样本图像进行训练的同时,分类器网络通过窗口滑动的方式对第二特征图进行多次检测,且通过按照分类置信度的大小顺序从全部图像块中选取目标图像块的置信度提升匹配机制(也可称为损失匹配机制)来反向传播训练网络,能够使分类器网络聚焦难分类样本,从而利用较少的第一样本图像即可使得训练后模型具有较高的检测准确率。
图2为本申请实施例提供的一种具体的目标检测模型生成方法流程图。参见图2所示,该目标检测模型生成方法包括:
S21:获取仅包含待检测的移动目标的第一样本图像及不包含所述移动目标的第二样本图像,并利用特征提取网络对分开输入的所述第一样本图像和所述第二样本图像进行特征提取,得到与所述第一样本图像对应的第一特征图和与所述第二样本图像对应的第二特征图。
S22:针对所述第一特征图,利用分类器网络对所述第一特征图进行单次检测得到相应的第一分类置信度,并根据所述第一分类置信度对模型网络进行反向传播训练;所述模型网络包括所述特征提取网络和所述分类器网络;
S23:针对所述第二特征图,利用所述分类器网络通过窗口滑动的方式对所述第二特征图进行多次检测得到各滑动窗口对应图像块的第二分类置信度。
本实施例中,关于上述步骤S21至步骤S23具体过程,可以参考前述实施例中公开的相应内容,在此不再进行赘述。
S24:根据网络当前训练轮数和总训练轮数确定预设占比;其中,所述预设占比与网络当前训练轮数呈负相关关系。
本实施例中,所述预设占比与当前训练轮数和总训练轮数有关,特别的,与网络当前训练轮数呈负相关关系。因此需要根据网络当前训练轮数和总训练轮数,所述预设占比的确定过程包括如下步骤(图3):
S241:如果当前训练轮数小于第一阈值,则将所述预设占比确定为第一占比。
S242:如果当前训练轮数小于第二阈值且大于所述第一阈值,则将所述预设占比确定为第二占比。
S243:如果当前训练轮数小于总训练轮数且大于所述第二阈值,则将所述预设占比确定为第三占比;其中,所述第一阈值和所述第二阈值均为总训练轮数的倍数,所述第一阈值小于所述第二阈值,所述第二阈值小于总训练轮数。
本实施例中,如果当前训练轮数小于第一阈值,则将所述预设占比确定为第一占比;如果当前训练轮数小于第二阈值且大于所述第一阈值,则将所述预设占比确定为第二占比;如果当前训练轮数小于总训练轮数且大于所述第二阈值,则将所述预设占比确定为第三占比;其中,所述第一阈值和所述第二阈值均为总训练轮数的倍数,所述第一阈值小于所述第二阈值,所述第二阈值小于总训练轮数。示例性的,e为当前训练轮数,E为总训练轮数,m%为所述预设占比,根据经验,所述第一阈值设置为总训练轮数的0.4倍,所述第二阈值设置为总训练轮数的0.8倍,上述判断过程用如下公式表示:
Figure 888546DEST_PATH_IMAGE006
S25:按照所述第二分类置信度由大至小的顺序从全部所述图像块中选取预设占比的目标图像块。
S26:对于每轮训练,利用所述目标图像块计算所述模型网络的反向损失,根据链式法则及所述反向损失对所述模型网络的各层参数进行偏导计算,并根据偏导计算结果更新各层参数。
S27:直至训练轮数达到总训练轮数停止训练,并将最新的参数作为收敛的所述模型网络的参数,得到包含训练后所述模型网络的目标检测模型。
本实施例中,确定出所述预设占比之后,进一步按照所述第二分类置信度由大至小的顺序从全部所述图像块中选取预设占比的目标图像块。所述第二样本图像的整个训练过程如图4所示。对于每轮训练,利用所述目标图像块计算所述模型网络的反向损失,根据链式法则及所述反向损失对网络的各层参数进行偏导计算,并根据偏导计算结果更新各层参数。直至训练轮数达到总训练轮数停止训练,并将最新的参数作为收敛的所述模型网络的参数,得到包含训练后所述模型网络的目标检测模型。
例如,设置训练总轮数为100轮,将老鼠图片和背景图片分别输入分类器网络得到对应的类型的置信度(对于老鼠类型置信度高于预设值的背景图片认为是难分类样本/困难样本),第e轮时,选取老鼠置信度前m%的图片块计算损失函数并进行反向传播,更新模型参数,直至训练达到100轮。将训练完100轮后得到的模型参数作为最终的模型参数。
图5为本申请实施例提供的一种目标检测方法流程图。参见图5所示,该目标检测方法基于前述目标检测模型,包括:
S31:从实时视频流中获取待检测图像,并从所述待检测图像中提取出移动目标图像。
S32:将所述移动目标图像输入所述目标检测模型,以便所述目标检测模型对所述移动目标图像进行处理后输出相应的分类结果。
S33:根据所述分类结果判断所述待检测图像中是否存在移动目标,并基于第一预设时间段内的全部所述待检测图像的检测情况确定是否执行告警信息上报逻辑。
本实施例的目标检测方法基于前述目标检测模型,先从实时视频流中获取待检测图像,并从所述待检测图像中提取出移动目标图像。通过摄像头实时获取视频流,从视频流抽取图像,具体可以利用动态检测算法从所述待检测图像中提取出移动目标图像(从内存中提取移动物体图像),上述动态检测算法是一种通过视频前后帧差异,检测移动物体的算法。提取出的移动目标图像包括老鼠图像、蟑螂图像等可移动物体图像,需要后续利用所述目标检测模型进行检测哪些是老鼠图像。
然后将所述移动目标图像输入所述目标检测模型,以便所述目标检测模型对所述移动目标图像进行处理后输出相应的分类结果。最后根据所述分类结果判断所述待检测图像中是否存在移动目标,并基于第一预设时间段内的全部所述待检测图像的检测情况确定是否执行告警信息上报逻辑。例如,训练时用的移动目标是老鼠,所述目标检测模型为老鼠检测模型,则分类结果为老鼠或者背景,如果分类结果为老鼠,则判断所述待检测图像中存在老鼠,如果分类结果为背景,则判断所述待检测图像中不存在老鼠。
本实施例中,由于通过摄像头实时获取视频流并从视频流抽取图像的过程是连续的,因此检测也是连续的,最后需要基于第一预设时间段内的全部所述待检测图像的检测情况确定是否执行告警信息上报逻辑。实践中可以通过本实施例方案24小时实时检测餐饮零售行业常见的鼠患问题,仅使用少量老鼠图片即可完成模型训练,模型准确率高,能够避免老鼠检测的误判、漏判,规范食品卫生安全问题。
图6为本申请实施例提供的一种目标检测方法流程图。参见图6所示,该目标检测方法基于前述目标检测模型,包括:
S41:从实时视频流中获取待检测图像,并从所述待检测图像中提取出移动目标图像。
S42:将所述移动目标图像输入所述目标检测模型,以便所述目标检测模型对所述移动目标图像进行处理后输出相应的分类结果。
S43:根据所述分类结果判断所述待检测图像中是否存在移动目标。
本实施例中,关于上述步骤S41至步骤S43具体过程,可以参考前述实施例中公开的相应内容,在此不再进行赘述。
S44:对于各所述待检测图像,如果存在所述移动目标,则将累积分值增加第三阈值,如果不存在所述移动目标,则将累计分值减少第四阈值;其中,所述第三阈值大于所述第四阈值。
S45:对第一预设时间段内的全部所述待检测图像进行检测后得到最终的所述累计分值。
S46:判断最终的所述累计分值是否超过上报阈值,如果是,则上报执行告警信息上报逻辑,如果否,则将最终的所述累计分值清空置零,并在第二预设时间段内不执行告警信息上报逻辑。
本实施例中,为了确定是否执行告警信息上报逻辑,设置一个累积分值,通过累积分值实现是否告警。具体的,先对于各所述待检测图像,如果存在所述移动目标,则将累积分值增加第三阈值,如果不存在所述移动目标,则将累计分值减少第四阈值;其中,所述第三阈值大于所述第四阈值。对第一预设时间段内的全部所述待检测图像进行检测后得到最终的所述累计分值。判断最终的所述累计分值是否超过上报阈值,如果是,则上报执行告警信息上报逻辑,如果否,则将最终的所述累计分值清空置零,并在第二预设时间段内不执行告警信息上报逻辑。
例如,通过动态检测算法检测摄像头视频流中的移动目标,使用本实施例提出的老鼠检测算法检出老鼠,摄像头根据业务场景向服务器上报老鼠检出情况。根据算法检测结果,判断该时间段内是否存在老鼠活动情况并上报。每秒判断若检出老鼠,鼠患值+10;若未检出老鼠,鼠患值-5。当鼠患值超过50时上报鼠患,鼠患值置零且一分钟之内不再上报,避免频繁上报打扰用户。
参见图7所示,本申请实施例还相应公开了一种目标检测方法装置,基于前述目标检测模型,包括:
图像获取及目标提取模块11,用于从实时视频流中获取待检测图像,并从所述待检测图像中提取出移动目标图像;
模型检测模块12,用于将所述移动目标图像输入所述目标检测模型,以便所述目标检测模型对所述移动目标图像进行处理后输出相应的分类结果;
结果判断及告警模块13,用于根据所述分类结果判断所述待检测图像中是否存在移动目标,并基于第一预设时间段内的全部所述待检测图像的检测情况确定是否执行告警信息上报逻辑。
可见,本申请实施例先从实时视频流中获取待检测图像,并从所述待检测图像中提取出移动目标图像,然后将所述移动目标图像输入所述目标检测模型,以便所述目标检测模型对所述移动目标图像进行处理后输出相应的分类结果,最后根据所述分类结果判断所述待检测图像中是否存在移动目标,并基于第一预设时间段内的全部所述待检测图像的检测情况确定是否执行告警信息上报逻辑。可用于24小时实时检测餐饮零售行业常见的鼠患问题,仅使用少量老鼠图片即可完成模型训练,模型准确率高,能够避免老鼠检测的误判、漏判,规范食品卫生安全问题。
在一些具体实施例中,所述目标检测方法还包括:
分值增加模块,用于对于各所述待检测图像,如果存在所述移动目标,则将累积分值增加第三阈值;
分值减少模块,用于如果不存在所述移动目标,则将累计分值减少第四阈值;其中,所述第三阈值大于所述第四阈值;
终值计算模块,用于对第一预设时间段内的全部所述待检测图像进行检测后得到最终的所述累计分值。
在一些具体实施例中,所述结果判断及告警模块13,具体用于判断最终的所述累计分值是否超过上报阈值,如果是,则上报执行告警信息上报逻辑,如果否,则将最终的所述累计分值清空置零,并在第二预设时间段内不执行告警信息上报逻辑。
进一步的,本申请实施例还提供了一种电子设备。图8是根据一示例性实施例示出的电子设备20结构图,图中的内容不能认为是对本申请的使用范围的任何限制。
图8为本申请实施例提供的一种电子设备20的结构示意图。该电子设备20,具体可以包括:至少一个处理器21、至少一个存储器22、电源23、通信接口24、输入输出接口25和通信总线26。其中,所述存储器22用于存储计算机程序,所述计算机程序由所述处理器21加载并执行,以实现前述任一实施例公开的目标检测模型生成方法及目标检测方法中的相关步骤。
本实施例中,电源23用于为电子设备20上的各硬件设备提供工作电压;通信接口24能够为电子设备20创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本申请技术方案的任意通信协议,在此不对其进行具体限定;输入输出接口25,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。
另外,存储器22作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源可以包括操作系统221、计算机程序222及数据223等,存储方式可以是短暂存储或者永久存储。
其中,操作系统221用于管理与控制电子设备20上的各硬件设备以及计算机程序222,以实现处理器21对存储器22中海量数据223的运算与处理,其可以是Windows Server、Netware、Unix、Linux等。计算机程序222除了包括能够用于完成前述任一实施例公开的由电子设备20执行的目标检测模型生成方法及目标检测方法的计算机程序之外,还可以进一步包括能够用于完成其他特定工作的计算机程序。数据223可以包括电子设备20收集到的样本图像。
进一步的,本申请实施例还公开了一种存储介质,所述存储介质中存储有计算机程序,所述计算机程序被处理器加载并执行时,实现前述任一实施例公开的目标检测模型生成方法及目标检测方法步骤。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个…”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上对本发明所提供的目标检测模型生成方法及目标检测方法、装置、设备及存储介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种目标检测模型生成方法,其特征在于,包括:
获取仅包含待检测的移动目标的第一样本图像及不包含所述移动目标的第二样本图像,并利用特征提取网络对分开输入的所述第一样本图像和所述第二样本图像进行特征提取,得到与所述第一样本图像对应的第一特征图和与所述第二样本图像对应的第二特征图;
针对所述第一特征图,利用分类器网络对所述第一特征图进行单次检测得到相应的第一分类置信度,并根据所述第一分类置信度对模型网络进行反向传播训练;所述模型网络包括所述特征提取网络和所述分类器网络;
针对所述第二特征图,利用所述分类器网络通过窗口滑动的方式对所述第二特征图进行多次检测得到各滑动窗口对应图像块的第二分类置信度,并按照所述第二分类置信度由大至小的顺序从全部所述图像块中选取预设占比的目标图像块,及利用所述目标图像块对所述模型网络进行反向传播训练;
直至所述模型网络收敛停止样本图像输入,得到包含训练后所述模型网络的目标检测模型。
2.根据权利要求1所述的目标检测模型生成方法,其特征在于,所述获取仅包含待检测目标的第一样本图像及不包含所述待检测目标的第二样本图像之后,还包括:
利用基于掩码技术的图像分割算法对所述第一样本图像和所述第二样本图像进行数据增强处理,得到增强处理后的所述第一样本图像和增强处理后的所述第二样本图像。
3.根据权利要求1所述的目标检测模型生成方法,其特征在于,所述利用特征提取网络对分开输入的所述第一样本图像和所述第二样本图像进行特征提取,得到与所述第一样本图像对应的第一特征图和与所述第二样本图像对应的第二特征图,包括:
利用所述特征提取网络对分开输入的所述第一样本图像和所述第二样本图像进行32倍下采样,得到与所述第一样本图像对应的所述第一特征图和与所述第二样本图像对应的所述第二特征图。
4.根据权利要求1所述的目标检测模型生成方法,其特征在于,所述分类器网络为包括二维最大池化层和二维卷积层的全卷积神经网络;其中,所述二维最大池化层由一个尺寸为3*3的池化核构成,所述二维卷积层由一个尺寸为1*1的卷积核构成。
5.根据权利要求4所述的目标检测模型生成方法,其特征在于,所述利用分类器网络对所述第一特征图进行单次检测得到相应的第一分类置信度,包括:
将所述第一特征图输入所述二维最大池化层,得到张量维度为b1*c*L1*W1的第一输出,并将所述第一输出输入所述二维卷积层,得到张量维度为b1*2*L1*W1的第一最终输出;其中,b1为单次训练的所述第一样本图像的数量,c为通道数,L1和W1为所述第一特征图的长和宽;
基于所述第一最终输出利用损失函数计算所述第一分类置信度;
所述利用所述分类器网络通过窗口滑动的方式对所述第二特征图进行多次检测得到各滑动窗口对应图像块的第二分类置信度,包括:
将所述第二特征图输入所述二维最大池化层,得到张量维度为b2*c*L2*W2的第二输出,并将所述第二输出输入所述二维卷积层,得到张量维度为b2*2*L2*W2的第二最终输出;其中,b2为单次训练的所述第二样本图像的数量,c为通道数,L2和W2为所述第二特征图的长和宽;
基于所述第二最终输出利用所述损失函数计算各滑动窗口对应图像块的所述第二分类置信度。
6.根据权利要求5所述的目标检测模型生成方法,其特征在于,所述损失函数表示为:
Figure 987615DEST_PATH_IMAGE001
其中,i为置信度表征的分类类别,
Figure 582545DEST_PATH_IMAGE002
为表征第i个类别对损失函数的影响权重的超参数,
Figure 312603DEST_PATH_IMAGE003
与第i个类别数据量相关,
Figure 76422DEST_PATH_IMAGE004
为用于控制高置信度项对损失函数的影响的超参数,
Figure 459999DEST_PATH_IMAGE005
为第i个类别的置信度。
7.根据权利要求1至6任一项所述的目标检测模型生成方法,其特征在于,所述按照所述分类置信度由大至小的顺序从全部所述图像块中选取预设占比的目标图像块之前,还包括:
根据网络当前训练轮数和总训练轮数确定所述预设占比;其中,所述预设占比与网络当前训练轮数呈负相关关系。
8.根据权利要求7所述的目标检测模型生成方法,其特征在于,所述根据网络当前训练轮数和总训练轮数确定所述预设占比,包括:
如果当前训练轮数小于第一阈值,则将所述预设占比确定为第一占比;
如果当前训练轮数小于第二阈值且大于所述第一阈值,则将所述预设占比确定为第二占比;
如果当前训练轮数小于总训练轮数且大于所述第二阈值,则将所述预设占比确定为第三占比;其中,所述第一阈值和所述第二阈值均为总训练轮数的倍数,所述第一阈值小于所述第二阈值,所述第二阈值小于总训练轮数。
9.一种目标检测方法,其特征在于,基于权利要求1至8任一项所述的目标检测模型,包括:
从实时视频流中获取待检测图像,并从所述待检测图像中提取出移动目标图像;
将所述移动目标图像输入所述目标检测模型,以便所述目标检测模型对所述移动目标图像进行处理后输出相应的分类结果;
根据所述分类结果判断所述待检测图像中是否存在移动目标,并基于第一预设时间段内的全部所述待检测图像的检测情况确定是否执行告警信息上报逻辑。
10.根据权利要求9所述的目标检测方法,其特征在于,所述根据所述分类结果判断所述待检测图像中是否存在移动目标之后,还包括:
对于各所述待检测图像,如果存在所述移动目标,则将累积分值增加第三阈值,如果不存在所述移动目标,则将累计分值减少第四阈值;其中,所述第三阈值大于所述第四阈值;
对第一预设时间段内的全部所述待检测图像进行检测后得到最终的所述累计分值;
所述基于第一预设时间段内的全部所述待检测图像的检测情况确定是否执行告警信息上报逻辑,包括:
判断最终的所述累计分值是否超过上报阈值,如果是,则上报执行告警信息上报逻辑。
CN202211636499.6A 2022-12-20 2022-12-20 目标检测模型生成方法、目标检测方法 Active CN115620215B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211636499.6A CN115620215B (zh) 2022-12-20 2022-12-20 目标检测模型生成方法、目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211636499.6A CN115620215B (zh) 2022-12-20 2022-12-20 目标检测模型生成方法、目标检测方法

Publications (2)

Publication Number Publication Date
CN115620215A true CN115620215A (zh) 2023-01-17
CN115620215B CN115620215B (zh) 2023-04-07

Family

ID=84880362

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211636499.6A Active CN115620215B (zh) 2022-12-20 2022-12-20 目标检测模型生成方法、目标检测方法

Country Status (1)

Country Link
CN (1) CN115620215B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190392242A1 (en) * 2018-06-20 2019-12-26 Zoox, Inc. Instance segmentation inferred from machine-learning model output
CN112149664A (zh) * 2020-09-04 2020-12-29 浙江工业大学 一种优化分类与定位任务的目标检测方法
CN112580581A (zh) * 2020-12-28 2021-03-30 英特灵达信息技术(深圳)有限公司 目标检测方法、装置及电子设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190392242A1 (en) * 2018-06-20 2019-12-26 Zoox, Inc. Instance segmentation inferred from machine-learning model output
CN112149664A (zh) * 2020-09-04 2020-12-29 浙江工业大学 一种优化分类与定位任务的目标检测方法
CN112580581A (zh) * 2020-12-28 2021-03-30 英特灵达信息技术(深圳)有限公司 目标检测方法、装置及电子设备

Also Published As

Publication number Publication date
CN115620215B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CN109615116B (zh) 一种电信诈骗事件检测方法和检测系统
CN110995508B (zh) 基于kpi突变的自适应无监督在线网络异常检测方法
CN103323749B (zh) 多分类器信息融合的局部放电诊断方法
CN111860318A (zh) 一种建筑工地行人徘徊检测方法、装置、设备及存储介质
Li et al. Abnormal behavior detection via sparse reconstruction analysis of trajectory
CN109977895B (zh) 一种基于多特征图融合的野生动物视频目标检测方法
Dawoud et al. Deep learning for network anomalies detection
CN110334105B (zh) 一种基于Storm的流数据异常检测方法
CN111160959B (zh) 一种用户点击转化预估方法及装置
CN114140656B (zh) 一种基于事件相机的海上船舶目标识别方法
KR20220126264A (ko) 비디오 흔들림 검출 방법, 장치, 전자 기기 및 저장 매체
CN113052039B (zh) 一种交通路网行人密度检测的方法、系统及服务器
CN106384359B (zh) 运动目标跟踪方法和电视
CN110599458A (zh) 基于卷积神经网络的地下管网检测评估云系统
CN111767881A (zh) 一种基于ai技术的自适应人群密度估计装置
CN115049954A (zh) 目标识别方法、装置、电子设备和介质
CN113746780B (zh) 基于主机画像的异常主机检测方法、装置、介质和设备
Beigi et al. Anomaly detection in information streams without prior domain knowledge
CN105930430B (zh) 一种基于非累积属性的实时欺诈检测方法及装置
CN115620215B (zh) 目标检测模型生成方法、目标检测方法
Geng et al. Real time foreground-background segmentation using two-layer codebook model
CN113065379A (zh) 融合图像质量的图像检测方法、装置、电子设备
CN108241837B (zh) 一种遗留物检测方法和装置
CN115495274A (zh) 基于时序数据的异常处理方法、网络设备和可读存储介质
Kandil et al. A new hybrid algorithm for fire vision recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant