CN110059620B - 基于时空注意力的骨骼行为识别方法 - Google Patents

基于时空注意力的骨骼行为识别方法 Download PDF

Info

Publication number
CN110059620B
CN110059620B CN201910309644.1A CN201910309644A CN110059620B CN 110059620 B CN110059620 B CN 110059620B CN 201910309644 A CN201910309644 A CN 201910309644A CN 110059620 B CN110059620 B CN 110059620B
Authority
CN
China
Prior art keywords
attention
network
time
skeletal
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910309644.1A
Other languages
English (en)
Other versions
CN110059620A (zh
Inventor
汪从玲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ANHUI KEY INFORMATION TECHNOLOGY Co.,Ltd.
Original Assignee
Anhui Ai Rethink Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Ai Rethink Intelligent Technology Co ltd filed Critical Anhui Ai Rethink Intelligent Technology Co ltd
Priority to CN201910309644.1A priority Critical patent/CN110059620B/zh
Publication of CN110059620A publication Critical patent/CN110059620A/zh
Application granted granted Critical
Publication of CN110059620B publication Critical patent/CN110059620B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于时空注意力的骨骼行为识别方法,包括以下步骤:S1:将获取的行为识别数据集进行预处理;S2:建立ST‑GCN网络和注意力单元,把注意力单元嵌入到ST‑GCN网络卷积层后面进行总体网络的搭建;S3:用训练集训练网络,优化参数,得到基于时空注意力的骨骼行为识别网络;S4:把测试集输入到步骤S3得到的网络进行预测,给出对应的动作类别。本发明提供一种带有注意力机制的图卷积行为识别方法,能够在图卷积行为识别方法的基础上进一步提高动作识别的准确率,在骨骼数据集上具有通用性,有广阔的应用前景。

Description

基于时空注意力的骨骼行为识别方法
技术领域
本发明涉及计算机视觉领域,特别是涉及一种基于时空注意力的骨骼行为识别方法。
背景技术
行为识别是计算机视觉领域的一个重要课题,其在行为检测、视频监控等领域都有着广泛的应用价值。人体行为识别的目标是从一个未知的视频或者是图像序列中自动分析其中正在进行的行为。简单的行为识别即动作分类,给定一段视频,只需将其正确分类到已知的几个动作类别。
近年来深度学习在图像领域取得了巨大的进步,同时也带动了视频领域的发展。基于深度学习的行为识别方法主要有基于LSTM的方法、基于CNN的方法、基于3D卷积的方法和基于骨骼数据集发展起来的图卷积方法。相对于RGB图像,骨骼数据集对光照、颜色等具有很强的鲁棒性,可以表达动作的大部分特征等优点,所以现在越来越多的研究人员基于骨骼来研究行为识别。但是之前的基于LSTM的方法、基于CNN的方法和基于3D卷积的方法不能很好地捕捉骨骼之间的空间结构,不能充分利用骨骼数据集的优点。基于图卷积的方法考虑到了图的拓扑结构,可以很好的建模骨骼数据集,再加上图卷积的计算效率比较高,基于图卷积的方法是接下来行为识别研究的热点。
目前基于图卷积的行为识别方法没有考虑到不同节点以及不同帧的重要性,动作识别的准确率低,因此亟需提供一种新型的基于图卷积的行为识别方法来解决上述问题。
发明内容
本发明所要解决的技术问题是提供一种基于时空注意力的骨骼行为识别方法,能够在图卷积行为识别方法的基础上进一步提高动作识别的准确率。
为解决上述技术问题,本发明采用的一个技术方案是:提供一种基于时空注意力的骨骼行为识别方法,包括以下步骤:
S1:将获取的行为识别数据集进行预处理;
S2:建立ST-GCN网络和注意力单元,把注意力单元嵌入到ST-GCN网络卷积层后面进行总体网络的搭建;
S3:用训练集训练网络,优化参数,得到基于时空注意力的骨骼行为识别网络;
S4:把测试集输入到步骤S3得到的网络进行预测,给出对应的动作类别。
在本发明一个较佳实施例中,步骤S1的具体步骤包括:
S1.1:对获取的行为识别数据集中的骨骼关节点进行标号;
S1.2:按照人体构造,确定骨骼关节点之间边的连接;
S1.3:指定骨骼图中脊柱的中点为重心点,由此确定相邻骨骼关节点之间的向心性和离心性;
S1.4:对每个骨骼关节点的邻域按照中心点、向心点和离心点分成三组,确定邻接矩阵A;
S1.5:对输入数据进行数据增强。
进一步的,步骤S2的具体步骤包括:
S2.1:构建一个图卷积神经网络
Figure BDA0002031046390000021
其中,X为输入数据,A为步骤S1.4确定的邻接矩阵,y为图卷积神经网络的输出;
S2.2:构建一个时间卷积网络,将图卷积神经网络和时间卷积网络串联起来形成ST-GCN基本块,并在ST-GCN基本块的输出后面引入残差连接结构;
S2.3:构建注意力单元模块,分别实现对时间和空间的注意力;
S2.4:把注意力单元模块嵌入到时间卷积网络和残差连接之间。
更进一步的,步骤S2.3的具体步骤包括:
对于图卷积神经网络的输出y,先对时间通道进行全局池化操作,之后进行两个全连接操作,在这两个全连接操作之间加上relu激活函数,最后采用sigmoid函数把输出归一化到0和1之间,得到时间重要性的权重,与y逐元素相乘,可实现对时间的注意力;
对于节点通道采用相似的操作,可实现对节点的注意力,即空间的注意力。
在本发明一个较佳实施例中,步骤S3的具体步骤包括:
S3.1:选择交叉熵为损失函数,以top1、top5衡量准确率,附加动量的随机梯度下降为优化函数;
S3.2:权重初始化,加载数据、模型、优化器,进行端到端的训练。
本发明的有益效果是:本发明提供一种带有注意力机制的图卷积行为识别方法,能够检测到哪些节点和帧对某类动作是重要的,即可以关注重要信息并忽略次要信息的影响,实现对时间和空间的注意力,从而能够在图卷积行为识别方法的基础上进一步提高动作识别的准确率,在基于骨骼数据集的行为识别上具有通用性,有广阔的应用前景。
附图说明
图1是本发明基于时空注意力骨骼行为识别方法的流程图;
图2是建立所述注意力单元模块的流程图。
具体实施方式
下面结合附图对本发明的较佳实施例进行详细阐述,以使本发明的优点和特征能更易于被本领域技术人员理解,从而对本发明的保护范围做出更为清楚明确的界定。
请参阅图1,本发明实施例包括:
一种基于时空注意力的骨骼行为识别方法,包括以下步骤:
S1:将获取的行为识别数据集进行预处理,优选的,使用NTU-RGB+D数据集作为行为识别数据集,该数据集提供了3D的骨骼坐标,包括交叉视角和交叉主体两个基准;具体步骤包括:
S1.1:采用数字0—24对获取的行为识别数据集中的骨骼关节点进行标号;
S1.2:按照人体构造,确定骨骼关节点之间边的连接;
S1.3:指定骨骼图中脊柱的中点为重心点,由此确定相邻骨骼关节点之间的向心性和离心性;
S1.4:对每个骨骼关节点的邻域按照中心点、向心点和离心点分成三组,确定邻接矩阵A,其中,邻接矩阵中相邻的节点值为1,否则为0;
S1.5:对数据集进行数据增强以提高整个网络的泛化性能,如随机选择输入序列的一部分,对输入序列执行随机但连续更改的转换等。
S2:建立ST-GCN网络(时空图卷积网络)和注意力单元,把注意力单元嵌入到ST-GCN网络卷积层后面进行总体网络的搭建;具体步骤包括:
S2.1:构建一个图卷积神经网络
Figure BDA0002031046390000031
其中,X为输入数据,A为步骤S1.4确定的邻接矩阵,y为图卷积神经网络的输出;
优选的,所述图卷积神经网络的卷积核大小为1*1;
S2.2:构建一个时间卷积网络,将图卷积神经网络和时间卷积网络串联起来形成ST-GCN基本块,并在ST-GCN基本块的输出后面引入残差连接结构;
最终使用的总体网络结构总共有9层ST-GCN,基本设置为64*64*1、64*64*1、64*64*1、64*128*2、128*128*1、128*128*1、128*256*2、256*256*1、256*256*1,其中第一位数代表输入通道,第二位数代表输出通道,第三位数代表步长;
S2.3:构建注意力单元模块,分别实现对时间和空间的注意力,对于一个特定的动作,网络能学到哪个关节点和视频里的哪帧对于该动作的判别是更重要的;
所述注意力单元模块的基本构造为对于时空图卷积神经网络(ST-GCN)的输出y,先对时间通道进行全局池化操作,之后进行两个全连接操作,在这两个全连接操作之间加上relu激活函数(f(x)=max(0,x)),最后采用sigmoid函数(f(x)=1/(1+exp(-x)))把输出归一化到0和1之间,得到时间重要性的权重,与y逐元素相乘,可实现对时间的注意力;对于节点通道采用相似的操作,可实现对节点的注意力,即空间的注意力。
具体的,结合图2,输入数据y的维度为N*T*C*V(N代表样本个数,T代表帧数,C代表通道数,V代表节点数),对于时间注意力网络,对C*V进行全局池化,维度变为N*T*1*1,然后用一个全连接进行压缩操作,维度变为N*T/ratio*1*1,relu函数激活后再经过一个全连接进行伸展操作,维度又变为N*T*1*1,其中ratio设置为3,然后经过sigmoid函数映射到0—1之间,得到时间的重要性权重,最后经过一个广播操作,维度变为N*T*C*V,再与原输入做哈达玛积;对于节点注意力网络,先把y的维度顺序进行交换,变为N*V*T*C,再对T*C进行全局池化,维度变为N*V*1*1,后面的步骤类比时间注意力网络,最后再把输出的维度变回为与原始维度一样的格式。在本实施例中,时间注意力网络和节点注意力网络是串联的。
S2.4:把注意力单元模块嵌入到时间卷积网络和残差连接之间。
S3:用训练集训练网络,优化参数,得到基于时空注意力的骨骼行为识别网络;具体步骤包括:
S3.1:选择交叉熵为损失函数,以top1(预测结果中概率最大的那个分类正确,则预测正确,否则预测错误)、top5(预测结果中概率向量最大的前五个中,只要出现了正确的类别即为预测正确,否则预测错误)衡量准确率,附加动量的随机梯度下降为优化函数,具体设计为起始的学习率为0.1,动量设置为0.9,总共80个周期(epoch),至第10个周期学习率降为0.01,至第50个epoch学习率降为0.001,训练的样本批量大小(batch size)为10。
S3.2:权重初始化,加载数据、模型、优化器,进行端到端的训练;参数初始化时选择均值为0、方差为0.02的随机初始化。
S4:把测试集输入到步骤S3得到的网络进行预测,给出对应的动作类别,测试的batch size为10。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (3)

1.一种基于时空注意力的骨骼行为识别方法,包括以下步骤:
S1:将获取的行为识别数据集进行预处理;
S2:建立ST-GCN网络和注意力单元,把注意力单元嵌入到ST-GCN网络卷积层后面进行总体网络的搭建;具体步骤包括:
S2.1:构建一个图卷积神经网络
Figure FDA0003102046530000011
其中,X为输入数据,A为步骤S1.4确定的邻接矩阵,y为图卷积神经网络的输出;
S2.2:构建一个时间卷积网络,将图卷积神经网络和时间卷积网络串联起来形成ST-GCN基本块,并在ST-GCN基本块的输出后面引入残差连接结构;
S2.3:构建注意力单元模块,分别实现对时间和空间的注意力;具体步骤包括:
对于图卷积神经网络的输出y,先对时间通道进行全局池化操作,之后进行两个全连接操作,在这两个全连接操作之间加上relu激活函数,最后采用sigmoid函数把输出归一化到0和1之间,得到时间重要性的权重,与y逐元素相乘,可实现对时间的注意力;
对于节点通道采用相似的操作,可实现对节点的注意力,即空间的注意力;
S2.4:把注意力单元模块嵌入到时间卷积网络和残差连接之间;
S3:用训练集训练网络,优化参数,得到基于时空注意力的骨骼行为识别网络;
S4:把测试集输入到步骤S3得到的网络进行预测,给出对应的动作类别。
2.根据权利要求1所述的基于时空注意力的骨骼行为识别方法,其特征在于,步骤S1的具体步骤包括:
S1.1:对获取的行为识别数据集中的骨骼关节点进行标号;
S1.2:按照人体构造,确定骨骼关节点之间边的连接;
S1.3:指定骨骼图中脊柱的中点为重心点,由此确定相邻骨骼关节点之间的向心性和离心性;
S1.4:对每个骨骼关节点的邻域按照中心点、向心点和离心点分成三组,确定邻接矩阵A;
S1.5:对数据集进行数据增强。
3.根据权利要求1所述的基于时空注意力的骨骼行为识别方法,其特征在于,步骤S3的具体步骤包括:
S3.1:选择交叉熵为损失函数,以top1、top5衡量准确率,附加动量的随机梯度下降为优化函数;
S3.2:权重初始化,加载数据、模型、优化器,进行端到端的训练。
CN201910309644.1A 2019-04-17 2019-04-17 基于时空注意力的骨骼行为识别方法 Active CN110059620B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910309644.1A CN110059620B (zh) 2019-04-17 2019-04-17 基于时空注意力的骨骼行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910309644.1A CN110059620B (zh) 2019-04-17 2019-04-17 基于时空注意力的骨骼行为识别方法

Publications (2)

Publication Number Publication Date
CN110059620A CN110059620A (zh) 2019-07-26
CN110059620B true CN110059620B (zh) 2021-09-03

Family

ID=67319369

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910309644.1A Active CN110059620B (zh) 2019-04-17 2019-04-17 基于时空注意力的骨骼行为识别方法

Country Status (1)

Country Link
CN (1) CN110059620B (zh)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110353675B (zh) * 2019-08-14 2022-06-28 东南大学 基于图片生成的脑电信号情感识别方法及装置
CN110751072B (zh) * 2019-10-12 2020-12-08 西安电子科技大学 基于知识嵌入图卷积网络的双人交互识别方法
CN110796110B (zh) * 2019-11-05 2022-07-26 西安电子科技大学 一种基于图卷积网络的人体行为识别方法及系统
CN110827302A (zh) * 2019-11-14 2020-02-21 中南大学 基于深度图卷积网络的点云目标提取方法及装置
CN111160294B (zh) * 2019-12-31 2022-03-04 西安理工大学 基于图卷积网络的步态识别方法
CN111242227B (zh) * 2020-01-16 2023-05-23 天津师范大学 一种基于异构深度特征的多模态地基云识别方法
CN111382677B (zh) * 2020-02-25 2023-06-20 华南理工大学 基于3d注意力残差模型的人体行为识别方法及系统
CN111382679B (zh) * 2020-02-25 2022-08-02 上海交通大学 帕金森病步态运动障碍严重程度的评估方法、系统及设备
CN111339942B (zh) * 2020-02-26 2022-07-12 山东大学 基于视点调整的图卷积循环网络骨骼动作识别方法及系统
CN111310707B (zh) * 2020-02-28 2023-06-20 山东大学 基于骨骼的图注意力网络动作识别方法及系统
CN111476181B (zh) * 2020-04-13 2022-03-04 河北工业大学 一种人体骨架动作的识别方法
CN111539941B (zh) * 2020-04-27 2022-08-16 上海交通大学 帕金森病腿部灵活性任务评估方法及系统、存储介质及终端
CN111860128B (zh) * 2020-06-05 2022-07-29 南京邮电大学 一种基于多流快慢图卷积网络的人体骨骼行为识别方法
CN111985343B (zh) * 2020-07-23 2024-04-09 深圳大学 一种行为识别深度网络模型的构建方法及行为识别方法
CN111967340B (zh) * 2020-07-27 2023-08-04 中国地质大学(武汉) 一种基于视觉感知的异常事件检测方法及系统
CN112270289A (zh) * 2020-07-31 2021-01-26 广西科学院 一种基于图卷积注意力网络的智能监测方法
CN112084934B (zh) * 2020-09-08 2024-03-15 浙江工业大学 基于骨骼数据双通道深度可分离卷积的行为识别方法
CN112528811A (zh) * 2020-12-02 2021-03-19 建信金融科技有限责任公司 行为识别方法和装置
CN112686111B (zh) * 2020-12-23 2021-07-27 中国矿业大学(北京) 基于注意力机制多视角自适应网络的交警手势识别方法
CN112906604B (zh) * 2021-03-03 2024-02-20 安徽省科亿信息科技有限公司 一种基于骨骼和rgb帧融合的行为识别方法、装置及系统
CN112990317B (zh) * 2021-03-18 2022-08-30 中国科学院长春光学精密机械与物理研究所 一种弱小目标检测方法
CN113128360A (zh) * 2021-03-30 2021-07-16 苏州乐达纳米科技有限公司 基于深度学习的司机驾驶行为检测与识别方法
CN113197545B (zh) * 2021-04-08 2022-10-04 山东师范大学 基于图注意力残差网络与焦点损失的癫痫检测系统
CN112990116B (zh) * 2021-04-21 2021-08-06 四川翼飞视科技有限公司 基于多注意力机制融合的行为识别装置、方法和存储介质
CN113408349B (zh) * 2021-05-17 2023-04-18 浙江大华技术股份有限公司 动作评价模型的训练方法、动作评价方法及相关设备
CN113642400A (zh) * 2021-07-12 2021-11-12 东北大学 基于2s-agcn的图卷积动作识别方法、装置及设备
CN113673560B (zh) * 2021-07-15 2023-06-09 华南理工大学 一种基于多流三维自适应图卷积的人体行为识别方法
CN113505751B (zh) * 2021-07-29 2022-10-25 同济大学 一种基于差异图卷积神经网络的人体骨骼动作识别方法
CN113780129B (zh) * 2021-08-31 2023-07-04 同济大学 基于无监督图序列预测编码的动作识别方法及存储介质
CN114613011A (zh) * 2022-03-17 2022-06-10 东华大学 基于图注意力卷积神经网络的人体3d骨骼行为识别方法
CN114863555B (zh) * 2022-04-09 2024-08-02 郑州大学 一种基于时空多残差图卷积的3d骨骼点动作识别方法
CN114550308B (zh) * 2022-04-22 2022-07-05 成都信息工程大学 基于时空图的人体骨骼动作识别方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107609460A (zh) * 2017-05-24 2018-01-19 南京邮电大学 一种融合时空双重网络流和attention机制的人体行为识别方法
CN108304795A (zh) * 2018-01-29 2018-07-20 清华大学 基于深度强化学习的人体骨架行为识别方法及装置
CN109389055A (zh) * 2018-09-21 2019-02-26 西安电子科技大学 基于混合卷积和注意力机制的视频分类方法
CN109460707A (zh) * 2018-10-08 2019-03-12 华南理工大学 一种基于深度神经网络的多模态动作识别方法
CN109614874A (zh) * 2018-11-16 2019-04-12 深圳市感动智能科技有限公司 一种基于注意力感知和树形骨架点结构的人体行为识别方法和系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109086754A (zh) * 2018-10-11 2018-12-25 天津科技大学 一种基于深度学习的人体姿态识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107609460A (zh) * 2017-05-24 2018-01-19 南京邮电大学 一种融合时空双重网络流和attention机制的人体行为识别方法
CN108304795A (zh) * 2018-01-29 2018-07-20 清华大学 基于深度强化学习的人体骨架行为识别方法及装置
CN109389055A (zh) * 2018-09-21 2019-02-26 西安电子科技大学 基于混合卷积和注意力机制的视频分类方法
CN109460707A (zh) * 2018-10-08 2019-03-12 华南理工大学 一种基于深度神经网络的多模态动作识别方法
CN109614874A (zh) * 2018-11-16 2019-04-12 深圳市感动智能科技有限公司 一种基于注意力感知和树形骨架点结构的人体行为识别方法和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于时空结构关系的3D人体行为识别研究;万晓依;《中国优秀硕士学位论文全文数据库 信息科技辑》;20190115;第I138-3846页 *

Also Published As

Publication number Publication date
CN110059620A (zh) 2019-07-26

Similar Documents

Publication Publication Date Title
CN110059620B (zh) 基于时空注意力的骨骼行为识别方法
CN111882002B (zh) 一种基于msf-am的低照度目标检测方法
CN111310707B (zh) 基于骨骼的图注意力网络动作识别方法及系统
CN106778604B (zh) 基于匹配卷积神经网络的行人再识别方法
CN114092697B (zh) 注意力融合全局和局部深度特征的建筑立面语义分割方法
TWI226193B (en) Image segmentation method, image segmentation apparatus, image processing method, and image processing apparatus
CN112489164B (zh) 基于改进深度可分离卷积神经网络的图像着色方法
CN112733693B (zh) 一种全局感知高分辨率遥感影像多尺度残差道路提取方法
CN110751072B (zh) 基于知识嵌入图卷积网络的双人交互识别方法
CN116052218B (zh) 一种行人重识别方法
CN107451617B (zh) 一种图转导半监督分类方法
CN114780767A (zh) 一种基于深度卷积神经网络的大规模图像检索方法及系统
CN115346207A (zh) 一种基于实例结构相关性的二维图像中三维目标检测方法
CN113988147A (zh) 基于图网络的遥感图像场景多标签分类方法及装置、多标签检索方法及装置
CN114743273A (zh) 基于多尺度残差图卷积网络的人体骨骼行为识别方法及系统
CN111222534A (zh) 一种基于双向特征融合和更平衡l1损失的单发多框检测器优化方法
CN111401209B (zh) 一种基于深度学习的动作识别方法
CN112767277A (zh) 一种基于参考图像的深度特征排序去模糊方法
CN116778346A (zh) 一种基于改进自注意力机制的管线识别方法及系统
CN117173595A (zh) 基于改进YOLOv7的无人机航拍图像目标检测方法
CN116562341A (zh) 一种用于交通信号灯检测的改进型YOLOv5n模型
CN116758477A (zh) 一种基于改进YOLOv7模型的后厨人员着装检测方法
CN113673411B (zh) 一种基于注意力机制的轻量级移位图卷积行为识别方法
CN114743023A (zh) 一种基于RetinaNet模型的麦蜘蛛图像检测方法
Wang et al. A ConvLSTM-combined hierarchical attention network for saliency detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220218

Address after: 230000 business incubation center of National University Science Park, 602 Huangshan Road, Hefei City, Anhui Province

Patentee after: ANHUI KEY INFORMATION TECHNOLOGY Co.,Ltd.

Address before: No. 618, Science Park, Hefei National University, No. 602, Huangshan Road, high tech Zone, Hefei City, Anhui Province, 232200

Patentee before: ANHUI AI-RETHINK INTELLIGENT TECHNOLOGY Co.,Ltd.