CN116563645A - 联合迭代剪枝和知识蒸馏的面向目标检测的模型压缩方法 - Google Patents

联合迭代剪枝和知识蒸馏的面向目标检测的模型压缩方法 Download PDF

Info

Publication number
CN116563645A
CN116563645A CN202310723409.5A CN202310723409A CN116563645A CN 116563645 A CN116563645 A CN 116563645A CN 202310723409 A CN202310723409 A CN 202310723409A CN 116563645 A CN116563645 A CN 116563645A
Authority
CN
China
Prior art keywords
network
model
pruning
teaching aid
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310723409.5A
Other languages
English (en)
Inventor
谢磊
谢文清
李至善
苏宏业
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202310723409.5A priority Critical patent/CN116563645A/zh
Publication of CN116563645A publication Critical patent/CN116563645A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Abstract

本发明公开了一种联合迭代剪枝和知识蒸馏的面向目标检测的模型压缩方法。本方法引入助教网络模型,缓解教师网络与学生网络之间由于体量相差过大所造成的相反优化效果,在知识蒸馏过程中,助教网络与学生网络一起优化,使得模型压缩后的轻量化模型具有非常好的目标检测检测精度,易于模型部署在移动端或者嵌入式设备中执行目标检测任务。相比于其他一体式剪枝模型压缩方法,本方法的迭代剪枝策略能够在相同模型压缩率的基础上,使最终压缩得到的目标检测模型具有更少的精度丢失。

Description

联合迭代剪枝和知识蒸馏的面向目标检测的模型压缩方法
技术领域
本发明设计基于深度神经网络的目标检测及模型压缩领域,具体是一种联合迭代剪枝和知识蒸馏的面向目标检测任务的模型压缩方法。
背景技术
随着深度学习的发展,目标检测模型的精度越来越高,但其模型大小和参数量也越来越大。然而对于需要搭载于移动端设备或者嵌入式设备上进行目标检测的场景而言,过大的目标检测模型是无法适用的。
例如,在危险工业场景例如矿下的工人安全帽佩戴检测系统中,使用深度学习技术来协助人工实现工人安全帽的佩戴,避免不戴安全帽进入况下,这对于工人的安全将是一份保障。目前在学术界,各种目标检测网络层出不穷,其在目标检测场景中也取得了非常好的检测效果例如YOLOV3、YOLOV5等。但是,由于大部分目标检测网络基于卷积神经网络而设计,其网络结构比较复杂、参数量较大,而实际工业生产环境下的移动端设备或者嵌入式设备,其内存以及算力都有限,这对于大型卷积目标检测网络的部署造成了很大的困难。
发明内容
针对上述现有技术中存在的不足,本发明的目的在于提供一种联合迭代剪枝和知识蒸馏的面向目标检测的模型压缩方法。该方法包括两个主要步骤,首先是迭代剪枝,再通过知识蒸馏来提升检测精度。经过该方法处理后的目标检测网络,具有结构轻量化、检测精度高以及易于部署等特点。
本发明具体采用的技术方案如下:
一种联合迭代剪枝和知识蒸馏的面向目标检测的模型压缩方法,其包括以下步骤:
S1、获取用于在目标检测任务中进行模型训练的图像数据集,且图像数据集中的图像样本均预先标注有待检测目标的类别以及位置;
S2、利用所述图像数据集对教师网络进行指定轮次的迭代训练;
S3、利用所述图像数据集对助教网络进行指定轮次的迭代训练,再对该助教网络进行稀疏训练;所述教师网络和助教网络均为目标检测网络,且助教网络相对于教师网络具有更简化的网络结构和更少的模型参数;
S4、对稀疏训练后的助教网络迭代进行剪枝操作,从而压缩模型;且迭代剪枝过程中,在每次剪枝后对剪枝后模型进行再训练以减少其精度丢失,完成所有迭代轮次后获得学生网络;
S5、使用S2中训练好的教师网络、S3中训练好的助教网络以及S4中获得的学生网络来进行知识蒸馏;且在知识蒸馏过程中,使用教师网络提供的知识不断优化助教网络和学生网络,最终知识蒸馏获得学生网络模型用于部署在工业移动设备或者嵌入式设备中执行目标检测任务。
作为优选,所述教师网络采用YOLOV5m网络。
作为优选,所述助教网络采用YOLOV5s网络。
作为优选,所述S4中的剪枝操作使用通道剪枝策略,且采用迭代式的剪枝再训练过程来实现;迭代前,将总的模型剪枝比例P按照总的迭代次数M进行分解,使每一次迭代的剪枝比例p满足(1-p)M与1-P的偏差小于阈值,在每一轮迭代时对助教网络先按照剪枝比例p进行剪枝,剪枝完成后即对助教网络进行一次再训练过程;完成M个迭代轮次后,得到学生网络。
作为优选,所述S5中,知识蒸馏过程中助教网络以及学生网络会同时获得教师网络模型的知识从而得到优化,优化助教网络以及学生网络的损失函数分别如下:
助教网络的损失函数形式为:
其中,KL表示KL距离计算函数,CE表示交叉熵损失计算函数,N表示网络输出的样本总数,Np表示网络输出的正样本数,yas i表示助教网络针对第i个样本输出的分类结果,ygt i表示第i个样本的目标分类标签,yt j表示教师网络针对第i个样本输出的分类结果,β表示蒸馏损失权重;
学生网络的损失函数为分类损失以及回归损失/>之和,形式为:
其中,s i表示学生网络针对第i个样本输出的分类结果,rs i表示学生网络针对第i个样本输出的预测框坐标结果,rgt i表示第i个样本的标注框坐标,ras j表示助教网络针对第i个样本输出的预测框结果,rt j表示教师网络针对第i个样本输出的预测框结果,β表示蒸馏损失权重,δ表示阈值;L(rs j,ras j)表示计算rs j,ras j的CIOU Loss。
作为优选,所述阈值δ设置为0.7。
作为优选,所述蒸馏损失权重β设置为10。
本发明与现有技术相比具有的有益效果有:
1、相比于其他一体式剪枝模型压缩方法,本方法的迭代剪枝策略能够在相同模型压缩率的基础上,使最终压缩得到的目标检测模型具有更少的精度丢失。
2、本方法引入助教网络模型,缓解教师网络与学生网络之间由于体量相差过大所造成的相反优化效果,在知识蒸馏过程中,助教网络与学生网络一起优化,使得模型压缩后的轻量化模型具有非常好的目标检测检测精度,易于模型部署在移动端或者嵌入式设备中执行目标检测任务。
附图说明
图1为本发明的方法流程图
图2为本发明的迭代剪枝效果图
图3为本发明的联合迭代剪枝以及基于助教网络的知识蒸馏的整体框架图
图4为本发明实施例中的预测效果图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。在下面的描述中阐述了很多具体细节以便于充分理解本发明。但是本发明能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似改进,因此本发明不受下面公开的具体实施例的限制。本发明各个实施例中的技术特征在没有相互冲突的前提下,均可进行相应组合。
在本发明的一个较佳实施例中,提供了一种联合迭代剪枝和知识蒸馏的面向目标检测的模型压缩方法,具体做法如图1所示,下面对其进行详细描述:
步骤1,获取用于在目标检测任务中进行模型训练的图像数据集,且图像数据集中的图像样本均预先标注有待检测目标的类别以及位置。
在本实施例中,可首先根据任务需求,使用摄像头录制、网络爬虫爬取等方法获取对应待检测目标的图像数据,并提前对数据集进行清洗和标注,主要是在数据集中标注出待检测目标的类别以及其对应的位置。当然,该图像数据集可自行收集,也可获取现有的目标检测任务的已标注数据集。图像数据集可划分为训练集和验证集,以满足模型训练和测试需求。
步骤2,根据任务需求,设计一个教师网络模型,并利用上述图像数据集对教师网络模型进行指定轮次的迭代训练。
由于在知识蒸馏过程中,教师网络模型需要提供对应检测信息,所以对于其精度具有很高的要求,但对于其模型复杂度、参数量大小等没有限制,所以可以使用一些结构复杂、参数量大、检测精度高的网络模型来充当。对于教师网络模型,本实施例中可采用YOLOV5m作为教师网络模型,输入训练数据进行100个epochs的训练,用于后续的知识蒸馏阶段。
步骤3,设计一个助教网络模型,利用所述图像数据集对助教网络进行指定轮次的迭代训练,再对该助教网络进行稀疏训练。
本发明中引入助教网络模型的作用主要是用来缓解教师网络模型与学生网络模型之间差距较大而导致的知识蒸馏过程中效果不好的问题。知识蒸馏过程中,使用助教网络来将结构复杂的教师网络模型的知识过渡给结构相对简单的学生网络模型,以此来优化学生网络模型的检测精度。同时,还需要对助教网络模型进行稀疏训练,稀疏训练的目的是使得模型的参数稀疏化,方便后续的迭代通道剪枝操作。
教师网络和助教网络均为目标检测网络,且助教网络相对于教师网络应当具有更简化的网络结构和更少的模型参数。对于该助教网络模型,本实施例中可采用结构相对简单,参数量相对少的YOLOV5s作为助教网络模型,输入训练数据进行100个epochs的训练,训练完成后再对该模型进行100个epochs的稀疏训练,用于后续的剪枝处理。
步骤4,对稀疏训练后的助教网络迭代进行剪枝操作,从而压缩模型;且迭代剪枝过程中,在每次剪枝后对剪枝后模型进行再训练以减少其精度丢失,完成所有迭代轮次后获得学生网络。
在本实施例中,剪枝操作可使用通道剪枝策略,同时,为了进一步优化YOLOV5网络模型的通道剪枝策略,将其原本的一体化剪枝再训练过程,优化成迭代式的剪枝再训练过程,每一次迭代设置一个通道最少保留比例。具体而言,迭代前,将总的模型剪枝比例P按照总的迭代次数M进行分解,使每一次迭代的剪枝比例p满足(1-p)M与1-P的偏差小于阈值,在每一轮迭代时对助教网络先按照剪枝比例p进行剪枝,剪枝完成后即对助教网络进行一次再训练过程;完成M个迭代轮次后,得到学生网络。例如,若需要对模型进行P=75%比例的剪枝,则剪枝后,剩余的模型大小理论上应该是原始模型的25%,剪枝完成后通过再训练过程来减少其精度损失。对这个过程进行拆分使每一次迭代的剪枝比例p=30%,每次迭代时对模型只进行30%比例的剪枝,剪枝完成后即对模型进行一次再训练过程,重复迭代这个过程四遍,如图2所示,每一次迭代其模型大小进一步减小,则最终检测模型的大小理论上是原始模型的(1-30%)4≈24%。由此得到了大小与原本的一体化剪枝几乎一致的模型压缩效果,但由于每次迭代时,剪枝比例较小,并且每次迭代中都会有再训练过程,所以迭代式的剪枝再训练过程相对于一体化剪枝而言的最终剪枝效果更加出色。
步骤5,使用S2中训练好的教师网络、S3中训练好的助教网络以及S4中获得的学生网络来进行知识蒸馏;且在知识蒸馏过程中,使用教师网络提供的知识不断优化助教网络和学生网络,对于最终获得的学生网络模型,其模型得到了较大压缩,同时精度也得到了不少提升,因此最终知识蒸馏获得学生网络模型用于部署在工业移动设备或者嵌入式设备中执行目标检测任务。
在本发明中,知识蒸馏过程中,助教网络模型以及学生网络模型会同时获得教师网络模型的知识,从而得到优化。如图3所示,展示了知识蒸馏过程中助教网络模型以及学生网络模型在教师网络模型所提供的知识辅助下学习的过程,该过程的核心是计算助教网络以及学生网络的损失函数。本实施例中优化助教网络以及学生网络的损失函数分别详细描述如下:
步骤5-1,对于助教网络而言,由于其网络已经经过一定的训练,具有不错的检测效果,所以在蒸馏训练过程中,只考虑其分类损失,分类损失分为两类,其一是与教师网络模型的差异造成,该项损失由KL距离(Kullback-Leibler Divergence)来衡量、另外一个是与标签之间的差异造成的,该项损失由交叉熵损失CE(CrossEntropy)来衡量,其损失函数可以表示为:
其中,N表示网络输出的样本总数,Np表示网络输出的正样本数,yas i表示助教网络针对第i个样本输出的分类结果,ygt i表示第i个样的目标分类标签,yas j表示助教网络针对第i个样本的分类结果,yt j表示教师网络针对第i个样本输出的分类结果,β表示蒸馏损失权重,在蒸馏训练过程中,需要让蒸馏损失权重大一些,不然没有蒸馏效果,所以本实施例中β值可设置为10。
步骤5-2,对于学生网络而言,其损失函数由两部分组成:分类损失以及回归损失。对于分类损失,需要考虑学生网络的输出与标签之间的差异,其用交叉熵损失CE(CrossEntropy)来衡量,同时,还需要引入助教网络与学生网络之间知识蒸馏损失,其用KL距离(Kullback-Leibler Divergence)来衡量;对于回归损失,需要考虑学生网络输出的预测框与标注框之间的差异,使用CIoU_loss来衡量,同时,当助教网络与老师网络坐标信息之间的IoU大于指定阈值δ(一般设为0.7)时,还需要引入助教网络与学生网络间的坐标差异,其也使用CIoU_loss来衡量。综上,在蒸馏训练过程中,学生网络的损失函数为:
其中,N表示网络输出的样本总数,Np表示网络输出的正样本数,ys i表示学生网络针对第i个样本输出的分类结果,ygt i表示第i个样本的目标分类标签,yas j表示助教网络针对第i个样本的分类结果,rs i表示学生网络针对第i个样本输出的预测框坐标结果,rgt i表示第i个样的标注框坐标,ras j表示助教网络针对第i个样本输出的预测框结果,rt j表示教师网络针对第i个样本输出的预测框结果,β表示蒸馏损失权重,在蒸馏训练过程中,需要让蒸馏损失权重大一些,不然没有蒸馏效果,所以本实施例中β值可设置为10。L(rs j,ras j)表示助教网络与学生网络间的坐标差异损失,使用CIoU_loss来衡量,即计算rs j,ras j的CIOU Loss。
图4为本发明的一个示例中,将上述学生网络应用在检测工人佩戴安全帽任务中得到的对输入实际图像的预测效果图,其中WithHelmet类别表示工人佩戴安全帽,WithoutHelmet类别表示工人未佩戴安全帽。从图中可见,其在背景极为复杂的场景中,依然实现了目标的准确检测。因此,上述模型压缩后的轻量化模型具有较少的模型参数,但仍然保持了较好地检测精度,可以将模型部署在移动端或者嵌入式设备中。例如可以将上述学生网络模型部署于矿下的工人安全帽佩戴检测系统中,提高工人在矿下作业时的安全保障。
以上所述的实施例只是本发明的一种较佳的方案,然其并非用以限制本发明。有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化和变型。因此凡采取等同替换或等效变换的方式所获得的技术方案,均落在本发明的保护范围内。

Claims (8)

1.一种联合迭代剪枝和知识蒸馏的面向目标检测的模型压缩方法,其特征在于,包括以下步骤:
S1、获取用于在目标检测任务中进行模型训练的图像数据集,且图像数据集中的图像样本均预先标注有待检测目标的类别以及位置;
S2、利用所述图像数据集对教师网络进行指定轮次的迭代训练;
S3、利用所述图像数据集对助教网络进行指定轮次的迭代训练,再对该助教网络进行稀疏训练;所述教师网络和助教网络均为目标检测网络,且助教网络相对于教师网络具有更简化的网络结构和更少的模型参数;
S4、对稀疏训练后的助教网络迭代进行剪枝操作,从而压缩模型;且迭代剪枝过程中,在每次剪枝后对剪枝后模型进行再训练以减少其精度丢失,完成所有迭代轮次后获得学生网络;
S5、使用S2中训练好的教师网络、S3中训练好的助教网络以及S4中获得的学生网络来进行知识蒸馏;且在知识蒸馏过程中,使用教师网络提供的知识不断优化助教网络和学生网络,最终知识蒸馏获得学生网络模型用于部署在工业移动设备或者嵌入式设备中执行目标检测任务。
2.根据权利要求1所述的联合迭代剪枝和知识蒸馏的面向目标检测的模型压缩方法,其特征在于,所述教师网络采用YOLOV5m网络。
3.根据权利要求1所述的联合迭代剪枝和知识蒸馏的面向目标检测的模型压缩方法,其特征在于,所述助教网络采用YOLOV5s网络。
4.根据权利要求1所述的联合迭代剪枝和知识蒸馏的面向目标检测的模型压缩方法,其特征在于,所述S4中的剪枝操作使用通道剪枝策略,且采用迭代式的剪枝再训练过程来实现;迭代前,将总的模型剪枝比例P按照总的迭代次数M进行分解,使每一次迭代的剪枝比例p满足(1-p)M与1-P的偏差小于阈值,在每一轮迭代时对助教网络先按照剪枝比例p进行剪枝,剪枝完成后即对助教网络进行一次再训练过程;完成M个迭代轮次后,得到学生网络。
5.根据权利要求1所述的联合迭代剪枝和知识蒸馏的面向目标检测的模型压缩方法,其特征在于,所述S5中,知识蒸馏过程中助教网络以及学生网络会同时获得教师网络模型的知识从而得到优化,优化助教网络以及学生网络的损失函数分别如下:
助教网络的损失函数形式为:
其中,KL表示KL距离计算函数,CE表示交叉熵损失计算函数,N表示网络输出的样本总数,Np表示网络输出的正样本数,yas i表示助教网络针对第i个样本输出的分类结果,ygt i表示第i个样本的目标分类标签,yt j表示教师网络针对第i个样本输出的分类结果,β表示蒸馏损失权重;
学生网络的损失函数为分类损失以及回归损失/>之和,形式为:
其中,s i表示学生网络针对第i个样本输出的分类结果,rs i表示学生网络针对第i个样本输出的预测框坐标结果,rgt i表示第i个样本的标注框坐标,ras j表示助教网络针对第i个样本输出的预测框结果,rt j表示教师网络针对第i个样本输出的预测框结果,β表示蒸馏损失权重,δ表示阈值;L(rs j,ras j)表示计算rs j,ras j的CIOU Loss。
6.根据权利要求1所述的联合迭代剪枝和知识蒸馏的面向目标检测的模型压缩方法,其特征在于,所述阈值δ设置为0.7。
7.根据权利要求1所述的联合迭代剪枝和知识蒸馏的面向目标检测的模型压缩方法,其特征在于,所述蒸馏损失权重β设置为10。
8.一种目标检测方法,其特征在于,利用如权利要求1~7任一所述模型压缩方法得到的学生网络模型,对采集的图像进行目标检测任务。
CN202310723409.5A 2023-06-16 2023-06-16 联合迭代剪枝和知识蒸馏的面向目标检测的模型压缩方法 Pending CN116563645A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310723409.5A CN116563645A (zh) 2023-06-16 2023-06-16 联合迭代剪枝和知识蒸馏的面向目标检测的模型压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310723409.5A CN116563645A (zh) 2023-06-16 2023-06-16 联合迭代剪枝和知识蒸馏的面向目标检测的模型压缩方法

Publications (1)

Publication Number Publication Date
CN116563645A true CN116563645A (zh) 2023-08-08

Family

ID=87491702

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310723409.5A Pending CN116563645A (zh) 2023-06-16 2023-06-16 联合迭代剪枝和知识蒸馏的面向目标检测的模型压缩方法

Country Status (1)

Country Link
CN (1) CN116563645A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117557857A (zh) * 2023-11-23 2024-02-13 哈尔滨工业大学 结合渐进式引导蒸馏和结构重构的检测网络轻量化方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117557857A (zh) * 2023-11-23 2024-02-13 哈尔滨工业大学 结合渐进式引导蒸馏和结构重构的检测网络轻量化方法

Similar Documents

Publication Publication Date Title
CN110443969B (zh) 一种火点检测方法、装置、电子设备及存储介质
CN111178206A (zh) 一种基于改进yolo的建筑预埋件检测方法及系统
CN112464718B (zh) 一种基于YOLO-Terse网络的目标检测方法及存储介质
CN109902697B (zh) 多目标检测方法、装置及移动终端
CN104778446A (zh) 一种图像质量评价与人脸识别效率关系模型的构建方法
CN116563645A (zh) 联合迭代剪枝和知识蒸馏的面向目标检测的模型压缩方法
CN109145446B (zh) 一种基于模态应变能和卷积神经网络的结构损伤识别方法
CN110298330B (zh) 一种输电线路巡检机器人单目检测与定位方法
CN117079299B (zh) 数据处理方法、装置、电子设备及存储介质
CN112288700A (zh) 一种铁轨缺陷检测方法
Xu et al. Vision-based multi-level synthetical evaluation of seismic damage for RC structural components: a multi-task learning approach
CN116012653A (zh) 一种注意力残差单元神经网络高光谱图像分类方法及系统
CN115620178A (zh) 一种用于无人机的电网异常危险行为的实时检测方法
CN115272826A (zh) 一种基于卷积神经网络的图像识别方法、装置及系统
CN114972439A (zh) 一种新的无人机目标跟踪算法
CN106644035A (zh) 一种基于时频变换特性的振动源识别方法及系统
CN109766780A (zh) 一种基于深度学习的船舶烟雾排放在线检测和追踪方法
CN111914600A (zh) 一种基于空间注意力模型的群组情绪识别方法
CN110490165B (zh) 一种基于卷积神经网络的动态手势跟踪方法
CN112395952A (zh) 一种用于铁轨缺陷检测的无人机
CN117132910A (zh) 一种用于无人机的车辆检测方法、装置及存储介质
CN116449881A (zh) 智能气缸及其控制方法
CN115987692A (zh) 一种基于流量回溯分析的安全防护系统及方法
CN115147432A (zh) 一种基于深度残差语义分割网络的初至拾取方法
CN112906511B (zh) 一种联合个体图像和足迹图像的野生动物智能监测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination