CN114049483A - 基于事件相机的目标检测网络自监督训练方法及装置 - Google Patents

基于事件相机的目标检测网络自监督训练方法及装置 Download PDF

Info

Publication number
CN114049483A
CN114049483A CN202111269390.9A CN202111269390A CN114049483A CN 114049483 A CN114049483 A CN 114049483A CN 202111269390 A CN202111269390 A CN 202111269390A CN 114049483 A CN114049483 A CN 114049483A
Authority
CN
China
Prior art keywords
event
dvs
data
target detection
event sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111269390.9A
Other languages
English (en)
Inventor
马金艳
刘庆杰
徐庶
倪文辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanhu Research Institute Of Electronic Technology Of China
Original Assignee
Nanhu Research Institute Of Electronic Technology Of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanhu Research Institute Of Electronic Technology Of China filed Critical Nanhu Research Institute Of Electronic Technology Of China
Priority to CN202111269390.9A priority Critical patent/CN114049483A/zh
Publication of CN114049483A publication Critical patent/CN114049483A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种基于事件相机的目标检测网络自监督训练方法及装置,该方法包括:获取目标的RGB图像和DVS事件序列;对所述RGB图像进行标注,并将所述RGB图像转化为模拟事件序列;对所述DVS事件序列及模拟事件序列进行表征;将RGB图像的标签迁移到模拟事件表征数据,利用带标签的模拟事件表征数据对目标检测网络模型进行预训练;利用经过预训练的目标检测网络模型对DVS事件表征数据进行预测,获得所述DVS事件序列的伪标签;利用带标签的模拟事件网格数据及带伪标签的DVS事件网格数据对所述经过预训练的目标检测网络模型权重进行微调。本申请增加了数据量和数据多样性,提高了目标检测算法的鲁棒性,降低了人工标注成本。

Description

基于事件相机的目标检测网络自监督训练方法及装置
技术领域
本申请属于计算机视觉技术领域,具体涉及一种基于事件相机的目标检测网络训练方法及装置。
背景技术
目标检测是计算机视觉领域的重要研究方向之一,在人机交互、异常行为识别、智能监控、虚拟现实等领域有着广泛的应用场景。目标检测的主要任务是识别出图像中所有感兴趣的目标,并确定其位置和大小。
近年来,随着CMOS有源像素感知(activepixel sensing,APS)和深度学习的普及和发展,基于APS的计算机视觉在目标检测技术领域得到了长足发展。然而,APS相机帧率有限、帧间冗余度高、动态范围低等问题极大地限制了目标检测技术在实际产品中的快速和广泛应用。
事件相机在高速、高动态、低延迟等传统工业视觉领域的挑战性场景中已经显示出巨大的应用潜力,例如中国专利申请202010198845.1公开了一种基于事件相机的高动态目标检测方法。
然而,目前基于事件数据的目标检测技术仍是一项非常具有挑战性的任务。首先,在实际工程应用中由于缺乏大量有标记的事件训练数据集,并且也没有针对事件数据的通用评价标准,只能采用数据切片后转化为事件图,并采用人工标注的方法构建有标签事件数据集,人力成本非常高。同时,传统深度学习在计算机视觉领域性能显著,但由于事件数据的异步和稀疏性使得直接学习事件的特性异常复杂,使得事件数据的信息编码有别于传统计算机视觉,无法直接适配传统网络。此外,基于事件相机的异步输出无法直接适用于传统深度学习,现有技术获取事件流数据后,累计一个固定时间间隔内的事件生成事件图,但这只考虑了事件点数量,未考虑到事件相机与相较于普通相机特有的时间特性和正负极性,损失了很多有效信息。
发明内容
本申请旨在公开一种基于事件相机的目标检测网络训练方法、装置,利用有监督学习方法,有效解决有标签事件数据集不足情况下的少样本目标检测问题,提高少样本目标检测的性能,降低数据标注成本。
本申请的第1方面,公开了一种目标检测网络模型训练方法,包括:
获取目标的RGB图像和DVS事件序列;
对所述RGB图像进行标注,并将所述RGB图像转化为模拟事件序列;
对所述DVS事件序列及模拟事件序列进行表征;
将RGB图像的标签迁移到模拟事件表征数据,利用带标签的模拟事件表征数据对目标检测网络模型进行预训练;
利用经过预训练的目标检测网络模型对DVS事件表征数据进行预测,获得所述DVS事件序列的伪标签;
利用带标签的模拟事件网格数据及带伪标签的DVS事件网格数据对所述经过预训练的目标检测网络模型权重进行微调。
在一些示例中,所述对所述DVS事件序列及模拟事件序列进行表征,包括:将事件数据转化为3层网格表示,其中3个通道分别表示为正极性事件点数、负极性事件点数以及归一化后的平均时间戳。
在一些示例中,在进行网格表示前,还包括去除所述DVS事件序列、模拟事件序列的背景噪声和/或椒盐噪声。
在一些示例中,采用阈值法去除所述DVS事件序列、模拟事件序列的背景噪声,和/或采用采用形态学方法去除所述椒盐噪声。
在一些示例中,目标检测网络模型采用yolov3网络,以有监督方式对目标检测网络模型进行预训练。
在一些示例中,在利用带标签的模拟事件网格数据及带伪标签的DVS事件网格数据对所述经过预训练的目标检测网络模型权重进行微调时,总损失是有标签和无标签损失项的加权和。
本申请的第2方面,公开了一种图像伪标签生成方法,包括:
获取目标的RGB图像和DVS事件序列;
对所述RGB图像进行标注,并将所述RGB图像转化为模拟事件序列;
对所述DVS事件序列及模拟事件序列进行表征;
将RGB图像的标签迁移到模拟事件表征数据,利用带标签的模拟事件表征数据对目标检测网络模型进行预训练;
利用经过预训练的目标检测网络模型对DVS事件表征数据进行预测,获得所述DVS事件序列的伪标签。
本申请的第3方面,公开了一种图像伪标签生成装置,包括:
图像获取模块,用于获取目标的RGB图像和DVS事件序列;
标签生成模块,用于对所述RGB图像进行标注;
事件模拟器,用于将所述RGB图像转化为模拟事件序列;
表征模块,用于对所述DVS事件序列及模拟事件序列进行表征;
第一输入模块,用于将RGB图像的标签迁移到模拟事件表征数据,利用带标签的模拟事件表征数据对目标检测网络模型进行预训练;
第二输入模块,用于将DVS事件表征数据输入经过预训练的目标检测网络模型,获得所述DVS事件序列的伪标签。
在一些示例中,所述图像获取模块包括CeleX事件相机,其采用轮巡方式输出DVS数据和RGB数据。
本申请的第4方面,公开了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令在被处理器执行时实现所述的方法。
本申请采用混合数据(即事件序列和RGB图像)作为输入,增大了数据量和多样性,提高了目标检测算法的鲁棒性。
此外,采用本申请获取DVS事件的伪标签,可以跳过为事件网格数据打标的过程,降低人工标注成本。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其他特征、目的和优点将会变得更明显:
图1为根据本申请实施例的图像融合方法流程示意图;
图2为根据本申请实施例的图像伪标签生成装置组成示意图;
图3为根据本申请实施例的目标检测网络模型训练方法流程示意图;
图4为本发明进行事件表征的一个示例;
图5为采用本发明进行目标检测的效果示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
由于在实际工业场景中缺乏大量有标签的事件数据集,为了增加样本数量和多样性,本申请公开了一种图像伪标签生成方法。
图1为根据本申请实施例的图像伪标签生成方法示意性流程。如图所示,该方法包括:
S101,获取目标的RGB图像和DVS事件序列;
DVS事件相机是一种生物启发型数据驱动传感器,其输出取决于场景中运动的数量或亮度的变化。运动越快,每秒产生的事件就越多,事件相机以微秒级的分辨率产生事件,并以亚毫秒级的延迟进行传输,这使得事件相机可以对视觉刺激做出快速反应。
本申请中,采用搭载DVS事件相机和传统RGB相机的目标图像采集系统,同时获取RGB图像数据和DVS事件序列,得到混合数据。具体而言,将DVS事件相机和RGB相机设置在同一位置,例如将二者构造为一个模块或组件,并通过图像配准实现二者的时间同步和数据同步。
或者可选地,可以采用芯仑公司(CelePixel)的CeleX事件相机,该相机可以轮巡输出灰度图和事件数据,即轮流/循环输出DVS数据和RGB数据,如此可以省去相机配准步骤,节省数据图像采集时间。
采用CeleX相机轮巡输出灰度图和事件数据,尽管可以省去相机配准步骤,但同时也会使得两类数据存在略微的时间偏差,因此需要对数据进行时间校正处理。
S102,对所述RGB图像进行标注,并将所述RGB图像转化为模拟事件序列;
示例性地,利用LabelImg为RGB图像标注边界框(标签),并将其转化到统一分辨率。或者也可以采用其他打标工具,属于成熟技术,在此不再赘述。
利用事件模拟器(例如ESIM事件相机模拟器),通过线性插值和高斯噪声扰动的方式,将RGB图像转化为模拟事件序列。
S103,对所述DVS事件序列及模拟事件序列进行表征;
在一些示例中,将DVS相机获取的DVS事件序列以及经事件模拟器转化的模拟事件序列转化为3层网格表示,其中3个通道分别表示正极性事件点数、负极性事件点数和归一化后的平均时间戳,从而尽可能保留数据的完整性。
在另外的一些示例中,也可以采用事件累加、时间表面、时间直方图等方法对所述DVS事件序列及模拟事件序列进行表征。
在事件相机中,当某个像素处产生了一个不是由于事件源而产生的事件即会导致背景噪声。此外,图像中还可能存在椒盐噪声(脉冲噪声),它是一种随机出现的白点或者黑点,可能是亮的区域有黑色像素,或者是在暗的区域有白色像素。这些噪声会对目标检测产生极大干扰,因此,在将事件序列(包括DVS事件序列和模拟事件序列)转化为网格表示前,需要去除噪声。
在一些示例中,采用阈值法去除模拟事件序列和DVS事件序列的背景噪声,采用形态学方法去除模拟事件序列和DVS事件序列的椒盐噪声。
S104,将RGB图像的标签迁移到模拟事件表征数据,利用带标签的模拟事件表征数据对目标检测网络模型进行预训练;
在一些示例中,目标检测网络模型采用YOLOv3网络。YOLOv3网络在RGB图像方面已有非常好的目标检测性能。在另外的一些示例中,目标检测网络模型也可以采用YOLOv5、SSD等其他网络。
通过将RGB图像的标签迁移至模拟事件表征数据(例如网格表示),可跳过为模拟事件打标的过程,从而降低人工标注成本。
利用带标签的模拟事件表征数据,以有监督方式对目标检测网络模型进行预训练。
S105,利用经过预训练的目标检测网络模型对DVS事件表征数据进行预测,获得所述DVS事件序列的伪标签。
将DVS事件表征数据(例如网格表示)输入经过预训练的目标检测网络模型,对未标记的DVS事件进行预测。若得到的预测概率P大于阈值T则视其为高置信度样本,并将其结果作为伪标签。
图2为根据本申请实施例的图像伪标签生成装置组成示意图。在该实施例中,该装置包括:
图像获取模块201,用于获取目标的RGB图像和DVS事件序列;
标签生成模块202,用于对所述RGB图像进行标注;
事件模拟器203,用于将所述RGB图像转化为模拟事件序列;
表征模块204,用于对所述DVS事件序列及模拟事件序列进行表征;例如,将所述DVS事件序列及模拟事件序列转化为网格表示;
第一输入模块205,用于将RGB图像的标签迁移到模拟事件表征数据,利用带标签的模拟事件表征数据对目标检测网络模型进行预训练;
例如,将带标签的模拟事件网格数据输入目标检测网络模型,对该模型进行预训练。
第二输入模块206,用于将DVS事件表征数据输入经过预训练的目标检测网络模型,获得所述DVS事件序列的伪标签。
例如,将未标记的DVS事件网格数据输入经过预训练的目标检测网络模型进行预测,获得所述DVS事件序列的伪标签。
本申请通过上述方法或装置获取DVS事件的伪标签,可以跳过为事件网格数据打标的过程,降低人工标注成本,进而可以快速获得大量的带标签的DVS事件数据,用于构建训练目标检测网络的数据集。
图3为根据本申请实施例的目标检测网络模型训练方法流程示意图。该方法首先利用前述的图像伪标签生成方法获得所述DVS事件序列的伪标签,具体参照前述步骤S101~S105(图3中对应为S301~S305),在此不再重复。以及还包括:
S306,利用带标签的模拟事件表征数据及带伪标签的DVS事件表征数据对所述经过预训练的目标检测网络模型权重进行微调。在训练过程中,重复S305、S306,调整目标检测网络权重,直到得到最优模型。
在一些示例中,将带标签的模拟事件网格数据及带伪标签的DVS事件网格数据同时加入训练集,对所述经过预训练的目标检测网络模型权重进行微调,即,将经过预训练的目标检测网络模型作用于新的DVS数据集,因为新的DVS数据和模拟数据较为相似,因此仅调整模型网络后面的若干层。
其中,在对所述经过预训练的目标检测网络模型权重进行微调时,总损失是有标签和无标签损失项的加权和,表示如下:
Figure BDA0003327603560000071
式中,n和n'分别表示有标签和无标签数据最小梯度下降的最小批次;y和y'分别表示有标签数据中m个样本的真实标签和无标签数据中m个样本的伪标签;
Figure BDA0003327603560000081
Figure BDA0003327603560000082
分别表示有标签数据中m个样本的输出集合和无标签数据m个样本的输出集合;α(t)表示平衡系数:
Figure BDA0003327603560000083
α(t)对网络性能影响很大,若太小则伪标签数据对网络无影响,若太大则会对有标签数据产生干扰。为了确保模型已经从标记的数据中学习了足够多的信息,该参数在最初的T1个epoch中设置为0,而后缓慢增加,到T2个epoch后保持不变,即t>T2时,αf保持不变(例如αf为3),这样可以尽量避免局部极小值,从而使得无标签数据的伪标签尽可能类似于真实标签。
图4为本发明进行事件表征的一个示例,图4(a)为原图,图4(b)为表征结果。
由于普通相机存在帧频有限,帧间冗余度高、功率高等问题,其有效性受到了较大的限制。事件相机因其高速、高动态、低延迟等特性非常适用于高速检测、识别、避障等特色应用中,但目前有标签的事件数据非常有限,尤其是在目标检测领域,相关的目标检测算法仍在发展中,暂时没有较为高效的目标检测算法。
本申请采用混合数据(即事件序列和RGB图像)作为输入,增大了数据量和数据多样性,提高了目标检测算法的鲁棒性,图5示出了采用本发明训练得到的目标检测模型进行目标检测的效果图。
根据本申请的实施例,还公开了一种非暂态计算机可读存储介质,用于存储非暂态软件程序、非暂态计算机可执行程序以及模块,如本申请前述实施例中的图像伪标签生成方法或目标检测网络模型训练方法对应的程序或指令。处理器通过运行所述非暂态软件程序或指令,实现上述方法实施例中的图像伪标签生成方法或目标检测网络模型训练方法。
所述处理器可以为中央处理器(Central Processing Unit,CPU),或者其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、现场可编程门阵列(Field-ProgrammableGateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等芯片,或者上述各类芯片的组合。
虽然通过以上实施例对本申请进行了较为详细的说明,但是本申请不仅仅限于以上实施例,在不脱离本申请发明构思的情况下,可以对本本申请实施例的技术方案进行修改或等同替换都不应脱离本申请实施例的技术方案的精神和范围。

Claims (10)

1.一种目标检测网络模型训练方法,其特征在于,包括:
获取目标的RGB图像和DVS事件序列;
对所述RGB图像进行标注,并将所述RGB图像转化为模拟事件序列;
对所述DVS事件序列及模拟事件序列进行表征;
将RGB图像的标签迁移到模拟事件表征数据,利用带标签的模拟事件表征数据对目标检测网络模型进行预训练;
利用经过预训练的目标检测网络模型对DVS事件表征数据进行预测,获得所述DVS事件序列的伪标签;
利用带标签的模拟事件网格数据及带伪标签的DVS事件网格数据对所述经过预训练的目标检测网络模型权重进行微调。
2.根据权利要求1所述的目标检测网络模型训练方法,其特征在于,所述对所述DVS事件序列及模拟事件序列进行表征,包括:将事件数据转化为3层网格表示,其中3个通道分别表示为正极性事件点数、负极性事件点数以及归一化后的平均时间戳。
3.根据权利要求1或2所述的目标检测网络模型训练方法,其特征在于,在进行网格表示前,还包括去除所述DVS事件序列、模拟事件序列的背景噪声和/或椒盐噪声。
4.根据权利要求3所述的目标检测网络模型训练方法,其特征在于,采用阈值法去除所述DVS事件序列、模拟事件序列的背景噪声,和/或采用采用形态学方法去除所述椒盐噪声。
5.根据权利要求1所述的目标检测网络模型训练方法,其特征在于,目标检测网络模型采用yolov3网络,以有监督方式对目标检测网络模型进行预训练。
6.根据权利要求1所述的目标检测网络模型训练方法,其特征在于,在利用带标签的模拟事件网格数据及带伪标签的DVS事件网格数据对所述经过预训练的目标检测网络模型权重进行微调时,总损失是有标签和无标签损失项的加权和。
7.一种图像伪标签生成方法,其特征在于,包括:
获取目标的RGB图像和DVS事件序列;
对所述RGB图像进行标注,并将所述RGB图像转化为模拟事件序列;
对所述DVS事件序列及模拟事件序列进行表征;
将RGB图像的标签迁移到模拟事件表征数据,利用带标签的模拟事件表征数据对目标检测网络模型进行预训练;
利用经过预训练的目标检测网络模型对DVS事件表征数据进行预测,获得所述DVS事件序列的伪标签。
8.一种图像伪标签生成装置,其特征在于,包括:
图像获取模块,用于获取目标的RGB图像和DVS事件序列;
标签生成模块,用于对所述RGB图像进行标注;
事件模拟器,用于将所述RGB图像转化为模拟事件序列;
表征模块,用于对所述DVS事件序列及模拟事件序列进行表征;
第一输入模块,用于将RGB图像的标签迁移到模拟事件表征数据,利用带标签的模拟事件表征数据对目标检测网络模型进行预训练;
第二输入模块,用于将DVS事件表征数据输入经过预训练的目标检测网络模型,获得所述DVS事件序列的伪标签。
9.根据权利要求8所述的图像伪标签生成装置,其特征在于,所述图像获取模块包括CeleX事件相机,其采用轮巡方式输出DVS数据和RGB数据。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令在被处理器执行时实现如权利要求1-7任一项所述的方法。
CN202111269390.9A 2021-10-29 2021-10-29 基于事件相机的目标检测网络自监督训练方法及装置 Pending CN114049483A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111269390.9A CN114049483A (zh) 2021-10-29 2021-10-29 基于事件相机的目标检测网络自监督训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111269390.9A CN114049483A (zh) 2021-10-29 2021-10-29 基于事件相机的目标检测网络自监督训练方法及装置

Publications (1)

Publication Number Publication Date
CN114049483A true CN114049483A (zh) 2022-02-15

Family

ID=80207266

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111269390.9A Pending CN114049483A (zh) 2021-10-29 2021-10-29 基于事件相机的目标检测网络自监督训练方法及装置

Country Status (1)

Country Link
CN (1) CN114049483A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115496920A (zh) * 2022-11-21 2022-12-20 中国科学技术大学 基于事件相机的自适应目标检测方法、系统与设备
CN116912798A (zh) * 2023-09-14 2023-10-20 南京航空航天大学 基于跨模态噪声感知的自动驾驶事件相机目标检测方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115496920A (zh) * 2022-11-21 2022-12-20 中国科学技术大学 基于事件相机的自适应目标检测方法、系统与设备
CN115496920B (zh) * 2022-11-21 2023-03-10 中国科学技术大学 基于事件相机的自适应目标检测方法、系统与设备
CN116912798A (zh) * 2023-09-14 2023-10-20 南京航空航天大学 基于跨模态噪声感知的自动驾驶事件相机目标检测方法
CN116912798B (zh) * 2023-09-14 2023-12-19 南京航空航天大学 基于跨模态噪声感知的自动驾驶事件相机目标检测方法

Similar Documents

Publication Publication Date Title
CN111444878B (zh) 一种视频分类方法、装置及计算机可读存储介质
Chakma et al. Image-based air quality analysis using deep convolutional neural network
US20230042187A1 (en) Behavior recognition method and system, electronic device and computer-readable storage medium
CN110070029B (zh) 一种步态识别方法及装置
CN108875482B (zh) 物体检测方法和装置、神经网络训练方法和装置
CN107301376B (zh) 一种基于深度学习多层刺激的行人检测方法
CN114049483A (zh) 基于事件相机的目标检测网络自监督训练方法及装置
CN110532959B (zh) 基于双通道三维卷积神经网络的实时暴力行为检测系统
Zhang et al. Generative adversarial and self-supervised dehazing network
CN114170570A (zh) 一种适用于拥挤场景下的行人检测方法及系统
CN112801019B (zh) 基于合成数据消除无监督车辆再识别偏差的方法及系统
CN111898566B (zh) 姿态估计方法、装置、电子设备和存储介质
CN109977875A (zh) 基于深度学习的手势识别方法及设备
US8428369B2 (en) Information processing apparatus, information processing method, and program
CN117292120B (zh) 一种轻量化可见光绝缘子目标检测方法及系统
CN113014923B (zh) 一种基于压缩域表征运动向量的行为识别方法
CN117953581A (zh) 动作识别的方法、装置、电子设备及可读存储介质
CN112417989A (zh) 一种监考人员违规行为识别方法及系统
CN109800725B (zh) 基于elbp特征的dvs事件分类方法
Li et al. CDMY: A lightweight object detection model based on coordinate attention
US20240221426A1 (en) Behavior detection method, electronic device, and computer readable storage medium
CN110602487B (zh) 一种基于tsn网络的视频画面抖动检测方法
WO2016136214A1 (ja) 識別器学習装置、滞留物体検出システム、識別器学習方法、滞留物体検出方法およびプログラム記録媒体
Xue et al. Surgical instrument segmentation method based on improved MobileNetV2 network
CN114170271A (zh) 一种具有自跟踪意识的多目标跟踪方法、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination