CN112686111A - 基于注意力机制多视角自适应网络的交警手势识别方法 - Google Patents

基于注意力机制多视角自适应网络的交警手势识别方法 Download PDF

Info

Publication number
CN112686111A
CN112686111A CN202011536861.3A CN202011536861A CN112686111A CN 112686111 A CN112686111 A CN 112686111A CN 202011536861 A CN202011536861 A CN 202011536861A CN 112686111 A CN112686111 A CN 112686111A
Authority
CN
China
Prior art keywords
traffic police
network
police gesture
data
skeleton
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011536861.3A
Other languages
English (en)
Other versions
CN112686111B (zh
Inventor
刘康
郑颖
张龑
杨竣轶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Development Guoyan Information Technology Research Institute Beijing Co ltd
Original Assignee
China University of Mining and Technology Beijing CUMTB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Mining and Technology Beijing CUMTB filed Critical China University of Mining and Technology Beijing CUMTB
Priority to CN202011536861.3A priority Critical patent/CN112686111B/zh
Publication of CN112686111A publication Critical patent/CN112686111A/zh
Application granted granted Critical
Publication of CN112686111B publication Critical patent/CN112686111B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开基于注意力机制多视角自适应网络的交警手势识别方法,包括:步骤S1、采集交警手势的视频数据,基于视频数据提取交警的骨架节点数据,建立骨架节点数据集;步骤S2、构建多视角自适应子网络,采用多视角自适应子网络获取观测视角坐标系,在观测视角坐标系下对骨架节点数据进行向量表示;步骤S3、基于注意力机制,将所述骨架节点的特征向量构建为图网络数据结构,使用挤压和激励SE模块对图网络数据结构中的骨架节点进行特征增强;步骤S4、基于特征增强后的骨架节点,使用时空图卷积网络ST‑GCN提取交警手势的时空特征信息,并基于交警手势的时空特征信息进行交警手势识别。本发明能够对交警手势进行快速准确识别。

Description

基于注意力机制多视角自适应网络的交警手势识别方法
技术领域
本发明涉及无人驾驶技术领域,特别是涉及基于注意力机制多视角自适应网络的交警手势识别方法。
背景技术
复杂多变的城市道路是无人驾驶技术的主要应用场景之一。现阶段无人驾驶车辆技术尚需不断完善,以适应恶劣天气和拥堵道路等非理想现实场景。根据《自动驾驶车辆道路测试能力评估内容与方法》之规定,路测车辆应当具备交通指挥手势的理解能力。换言之,无人驾驶车辆必须能够实时且正确地识别交警的手势,并实时地作出与交警手势对应的车辆驾驶决策。
当前针对现实道路场景中的交警手势识别问题,在无人驾驶技术领域内的研究方法相对较少。现阶段,无人驾驶技术使用的交警手势识别方法可分为两个方面:基于可穿戴设备的交警手势识别方法和基于计算机视觉的交警手势识别方法。基于可穿戴设备的交警手势识别方法主要利用装备在交警身上的外置传感器来感知手势动作。朱勇等人通过使用加速传感器采集交警的手势动作信号,并通过无线收发模块实时地回传给单片机主控系统来实现手势的识别;Yuan等人设计了一种交警-交通信号灯同步系统,该系统使用交警手背上的加速传感器采集的手势运动信号和信号灯信号,综合分析并识别出交警的手势。基于可穿戴设备的识别方法具有识别速度快,识别精度高等特点,能够识别较复杂的空间手势,但是,穿戴设备价格昂贵,同时限制了交警手势的自由性和灵活性,不适宜大规模推广使用。基于计算机视觉的交警手势识别方法的优势在于交警无需佩戴额外的装备,是一种非接触式的识别方法,适合推广使用。根据使用的数据类型不同,可将识别方法分为基于传统的图像处理方法和基于骨架节点的识别方法。Guo等人提出了一种能在复杂环境中识别交警手势的方法,通过确定上、下手臂的像素坐标,旋转关节点来识别交警的手势。Tang等人提出了一种基于动-静态融合特征的识别方法,采用平均相似性指数来识别交警的手势。张备伟等人提出了基于DTW的交警指挥手势识别方法,通过判断与人体关节点模板库的耦合性来识别交警的手势。现有的方法多依赖于手工设计的特征,破坏肢体动作固有的时空一致性,降低了手势识别速度以及识别精度。采用人体骨架节点数据自然连接构成图数据结构,使用图神经网络提取交警手势特征能够有效地提高识别精度,且具备复杂多变场景下的高鲁棒性。然而,从不同视角提取的交警手势的骨架节点的数据形式不尽相同,影响了手势识别的有效性。
发明内容
本发明的目的是提供基于注意力机制多视角自适应网络的交警手势识别方法,以解决现有技术中存在的技术问题,能够检测出多视角下的交警骨架节点的特征数据,还能够使用注意力机制增强有效节点数据的权重,采用自适应网络层级结构融合多视角时空特征数据,提高交警手势识别方法的鲁棒性,解决了无人驾驶车辆与交警无法“交流”的问题。
为实现上述目的,本发明提供了如下方案:本发明提供基于注意力机制多视角自适应网络的交警手势识别方法,包括如下步骤:
步骤S1、采集交警手势的视频数据,基于所述视频数据提取交警的骨架节点数据,建立骨架节点数据集;
步骤S2、构建多视角自适应子网络,采用多视角自适应子网络获取观测视角坐标系,在观测视角坐标系下对骨架节点数据进行向量表示;
步骤S3、基于注意力机制,将所述骨架节点的特征向量构建为图网络数据结构,使用挤压和激励SE模块对图网络数据结构中的骨架节点进行特征增强;
步骤S4、基于特征增强后的骨架节点,使用时空图卷积网络ST-GCN提取交警手势的时空特征信息,并基于交警手势的时空特征信息进行交警手势识别。
优选地,所述步骤S1具体包括如下步骤:
步骤S1.1、在真实道路场景下,采集交警手势的标准化视频数据,并对所采集的视频数据进行尺度归一化处理,得到大小和分辨率统一的交警手势视频数据;
步骤S1.2、基于尺度归一化处理后的交警手势视频数据使用Openpose算法提取交警的骨架节点数据;
步骤S1.3、基于交警的骨架节点数据,建立自有的骨架节点数据集。
优选地,所述步骤S2具体包括如下步骤:
步骤S2.1、构建多视角自适应子网络;
步骤S2.2、基于骨架节点数据集建立训练集数据;
步骤S2.3、使用步骤S2.2建立的训练集数据对所述多视角自适应子网络进行训练,更新网络权重值,获得最优观测视角坐标系,在最优观测视角坐标系下对骨架节点数据进行向量表示。
优选地,所述步骤S2.1中,所述多视角自适应子网络包括一层LSTM层、一层全连接层。
优选地,所述训练集数据的数据形式为(N,T,C),其中:N为视频个数,T为通道数,表示视频帧数,C为交警的骨架节点数据。
优选地,所述步骤S3中,所述图网络数据结构为(T×H×W)矩阵;(H,W)为骨架图的关联矩阵,H为关联矩阵的高,W为关联矩阵的宽,T为通道数,表示视频帧数。
优选地,所述步骤S3中,所述SE模块包括两部分:挤压模块和激励模块;所述激励模块包含两个全连接层,一个Relu激活层和一个sigmoid函数层。
优选地,所述步骤S4具体包括如下步骤:
步骤S4.1、构建一个(N,C,T,V,M)的多维矩阵作为ST-GCN模型的输入,提取交警手势的时空特征;其中:N为视频个数,C为骨架节点数据,T为通道数,V表示视频数据中所采集的关节的数量,M表示视频数据单帧图像中的交警数;
步骤4.2、基于交警手势的时空特征,通过softmax分类函数计算交警手势类别的置信度,得到交警手势类别的预测值,基于交警手势类别的预测值、标签值,通过最小化损失函数得到交警手势识别结果。
本发明公开了以下技术效果:
(1)本发明基于多视角自适应网络模型获取观测视角坐标系,能够实现端到端的模型训练,自动提取平移和旋转矩阵参数,自动调整观察坐标系,增强时空特征信息,有效提高了交警手势的识别精度;
(2)本发明基于注意力机制的处理流程,完善时空特征权重分配机制,对骨架节点进行特征增强,减少无效特征信息的干扰,增强有效特征的表征能力,降低计算复杂度,提高交警手势识别的速度;同时,基于特征增强后的骨架节点,使用时空图卷积网络ST-GCN提取交警手势的时空特征信息,进行交警手势识别,有效提高了交警手势的识别精度,解决了无人驾驶车辆与交警无法“交流”的问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于注意力机制多视角自适应网络的交警手势识别方法流程图;
图2为本发明整体网络结构示意图;
图3为本发明实施例中采用Openpose算法所提取的交警的骨架节点示意图;
图4为本发明实施例中不同观测视角坐标系下的骨架图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
参照图1-2所示,本实施例提供基于注意力机制多视角自适应网络的交警手势识别方法,包括如下步骤:
步骤S1、采集交警手势的视频数据,基于所述视频数据提取交警的骨架节点数据,建立骨架节点数据集;具体包括如下步骤:
步骤S1.1、在真实道路场景下,采集交警手势的标准化视频数据,并对所采集的视频数据进行尺度归一化处理,得到大小和分辨率统一的交警手势视频数据;本实施例中,视频数据的分辨率为840×840像素,视频数据的格式为AVI视频格式;基于视频数据采集过程中的人员、光线、服饰、角度、天气、距离、场景因素,本实施例共采集24530个视频数据。
步骤S1.2、基于尺度归一化处理后的交警手势视频数据使用Openpose算法提取交警的骨架节点数据;本实施例中,单个交警的骨架包括18个关键节点,每个节点数据的表示形式为(x,y,acc),其中,x,y分别为节点的x轴、y轴坐标,acc为置信度,使用Openpose算法提取交警的骨架节点如图3所示。
步骤S1.3、基于交警的骨架节点数据,建立自有的骨架节点数据集。
步骤S2、构建多视角自适应子网络,采用多视角自适应子网络获取观测视角坐标系,在观测视角坐标系下对骨架节点数据进行向量表示;具体包括:
步骤S2.1、构建多视角自适应子网络,所述多视角自适应子网络包括一层LSTM层、一层全连接层。
步骤S2.2、基于骨架节点数据集建立训练集数据;本实施例中,所述训练集数据的数据形式为(N,T,C),适用于自适应子网络的训练,其中:N为视频个数,T为通道数,表示视频帧数,C为步骤S1.2中所提取的交警的骨架节点数据。
步骤S2.3、使用步骤S2.2建立的训练集数据对所述多视角自适应子网络进行训练,更新网络权重值,获得最优观测视角坐标系,在最优观测视角坐标系下对骨架节点数据进行向量表示。本实施例中,通过所述多视角自适应子网络网络权重值的更新,对每一帧骨架数据进行距离调整和角度旋转,寻找最优的观测视角坐标系,所述多视角自适应子网络的输出值为最优观测视角坐标系下的骨架节点特征向量;不同观测视角坐标系下的骨架图如图4所示。
步骤S3、基于注意力机制,将所述骨架节点的特征向量构建为图网络数据结构,使用SE(Sequeeze-and-Excitation,挤压和激励)模块对图网络数据结构中的骨架节点进行特征增强;通过注意力机制重新分配骨架节点的权重,增强有效骨架节点的权重,实现骨架节点的特征增强,能够有效增强骨架节点之间的关联特征权重,减少无效特征。
所述图网络数据结构为(T×H×W)矩阵;(H,W)为骨架图的关联矩阵,H为关联矩阵的高度,W为关联矩阵的宽度,T为通道数,表示视频帧数;
所述SE模块包括两部分:挤压(Sequeeze)模块和激励(Excitation)模块;其中,挤压模块对骨架节点的特征数据求全局平均值,得到特征全局信息,压缩成一个通道描述符,激励模块获取通道依赖性,其包含两个全连接层,一个Relu激活层和一个sigmoid函数层。
对图网络数据结构中的骨架节点进行特征增强的方法,具体包括:
步骤S3.1、使用SE模块中的卷积算子对所述图网络数据结构中的骨架节点特征向量进行全局平均池化操作,并将池化后的数据维度进行压缩,由(T×H×W)压缩至(T×1×1);全局平均池化操作如下式所示:
Figure BDA0002853752450000091
式中,(H×W)为骨架图的关联矩阵;T为通道数,表示视频帧数;Fsq(uT)表示一个通道中特征向量编码的全局平均值,uT(i,j)表示关联矩阵中第j行、第i列特征向量的编码。
其中,uT通过卷积滤波器的参数集合vT(待学习参数)与图网络数据结构(T×H×W)矩阵的乘积的和得到,如下式所示:
Figure BDA0002853752450000092
式中,uT表示特征向量的编码,X表示图网络数据结构(T×H×W)矩阵,xS表示X中第s个通道的关联矩阵。
步骤S3.2、通过两层全连接层依次得到从(T/r×1×1)到(T×1×1)维的数据特征;具体为:
全局池化后(T×1×1)维的数据特征经过第一层全连接层后为(T/r×1×1)维,其中,r为缩放参数,目的是为了减少通道参数,降低计算量,本实施例中,r=16;(T/r×1×1)维的数据特征经过第二层全连接层后为(T×1×1)维。
步骤S3.3、通过Sigmoid激活函数将全连接层得到的数据特征限制到[0,1]的范围,并作为权重与原始图网络数据结构的(T×H×W)矩阵相乘,实现骨架节点权重的重新分配,完成图网络数据结构中骨架节点的特征增强,输出特征数据维度设置为(T×H×W)。
步骤S4、基于特征增强后的骨架节点,使用时空图卷积网络ST-GCN提取交警手势的时空特征信息,并基于交警手势的时空特征信息进行交警手势识别;本实施例中,获取的交警手势的时空特征维度大小为1×1×256。
进行交警手势识别的具体方法包括:
步骤S4.1、构建一个(N,C,T,V,M)的多维矩阵作为ST-GCN模型的输入,提取交警手势的时空特征,其中:N为视频个数,本实施例中N为256;C为骨架节点数据,是一个三维的空间坐标,包含横坐标,纵坐标,置信度3个特征;V表示视频数据中所采集的关节的数量,本实施例中,V为18;M表示视频数据单帧图像中的交警数,本实施例中,只针对交警手势的识别,M为1。
步骤4.2、基于交警手势的时空特征,通过softmax分类函数计算交警手势类别的置信度,得到交警手势类别的预测值,基于交警手势类别的预测值、标签值,通过最小化损失函数得到交警手势识别结果,如下式所示:
Figure BDA0002853752450000101
其中,class是交警手势类别的标签值;x是交警手势类别的预测值,
Figure BDA0002853752450000102
是对待识别数据的标签值取指数,
Figure BDA0002853752450000103
是对第j个待识别数据的预测值取指数;采用对数损失函数,能够进一步扩大其区分度。
以上所述的实施例仅是对本发明的优选方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。

Claims (8)

1.基于注意力机制多视角自适应网络的交警手势识别方法,其特征在于,包括如下步骤:
步骤S1、采集交警手势的视频数据,基于所述视频数据提取交警的骨架节点数据,建立骨架节点数据集;
步骤S2、构建多视角自适应子网络,采用多视角自适应子网络获取观测视角坐标系,在观测视角坐标系下对骨架节点数据进行向量表示;
步骤S3、基于注意力机制,将所述骨架节点的特征向量构建为图网络数据结构,使用挤压和激励SE模块对图网络数据结构中的骨架节点进行特征增强;
步骤S4、基于特征增强后的骨架节点,使用时空图卷积网络ST-GCN提取交警手势的时空特征信息,并基于交警手势的时空特征信息进行交警手势识别。
2.根据权利要求1所述的基于注意力机制多视角自适应网络的交警手势识别方法,其特征在于,所述步骤S1具体包括如下步骤:
步骤S1.1、在真实道路场景下,采集交警手势的标准化视频数据,并对所采集的视频数据进行尺度归一化处理,得到大小和分辨率统一的交警手势视频数据;
步骤S1.2、基于尺度归一化处理后的交警手势视频数据使用Openpose算法提取交警的骨架节点数据;
步骤S1.3、基于交警的骨架节点数据,建立自有的骨架节点数据集。
3.根据权利要求1所述的基于注意力机制多视角自适应网络的交警手势识别方法,其特征在于,所述步骤S2具体包括如下步骤:
步骤S2.1、构建多视角自适应子网络;
步骤S2.2、基于骨架节点数据集建立训练集数据;
步骤S2.3、使用步骤S2.2建立的训练集数据对所述多视角自适应子网络进行训练,更新网络权重值,获得最优观测视角坐标系,在最优观测视角坐标系下对骨架节点数据进行向量表示。
4.根据权利要求3所述的基于注意力机制多视角自适应网络的交警手势识别方法,其特征在于,所述步骤S2.1中,所述多视角自适应子网络包括一层LSTM层、一层全连接层。
5.根据权利要求3所述的基于注意力机制多视角自适应网络的交警手势识别方法,其特征在于,所述训练集数据的数据形式为(N,T,C),其中:N为视频个数,T为通道数,表示视频帧数,C为交警的骨架节点数据。
6.根据权利要求1所述的基于注意力机制多视角自适应网络的交警手势识别方法,其特征在于,所述步骤S3中,所述图网络数据结构为(T×H×W)矩阵;(H,W)为骨架图的关联矩阵,H为关联矩阵的高,W为关联矩阵的宽,T为通道数,表示视频帧数。
7.根据权利要求1所述的基于注意力机制多视角自适应网络的交警手势识别方法,其特征在于,所述步骤S3中,所述SE模块包括两部分:挤压模块和激励模块;所述激励模块包含两个全连接层,一个Relu激活层和一个sigmoid函数层。
8.根据权利要求1所述的基于注意力机制多视角自适应网络的交警手势识别方法,其特征在于,所述步骤S4具体包括如下步骤:
步骤S4.1、构建一个(N,C,T,V,M)的多维矩阵作为ST-GCN模型的输入,提取交警手势的时空特征;其中:N为视频个数,C为骨架节点数据,T为通道数,V表示视频数据中所采集的关节的数量,M表示视频数据单帧图像中的交警数;
步骤4.2、基于交警手势的时空特征,通过softmax分类函数计算交警手势类别的置信度,得到交警手势类别的预测值,基于交警手势类别的预测值、标签值,通过最小化损失函数得到交警手势识别结果。
CN202011536861.3A 2020-12-23 2020-12-23 基于注意力机制多视角自适应网络的交警手势识别方法 Active CN112686111B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011536861.3A CN112686111B (zh) 2020-12-23 2020-12-23 基于注意力机制多视角自适应网络的交警手势识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011536861.3A CN112686111B (zh) 2020-12-23 2020-12-23 基于注意力机制多视角自适应网络的交警手势识别方法

Publications (2)

Publication Number Publication Date
CN112686111A true CN112686111A (zh) 2021-04-20
CN112686111B CN112686111B (zh) 2021-07-27

Family

ID=75451043

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011536861.3A Active CN112686111B (zh) 2020-12-23 2020-12-23 基于注意力机制多视角自适应网络的交警手势识别方法

Country Status (1)

Country Link
CN (1) CN112686111B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113377193A (zh) * 2021-05-25 2021-09-10 广州紫为云科技有限公司 一种基于可靠手势识别的自动售货机交互方法及系统
CN113609922A (zh) * 2021-07-13 2021-11-05 中国矿业大学 基于模态匹配的连续手语语句识别方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015026004A (ja) * 2013-07-29 2015-02-05 いすゞ自動車株式会社 視認行動評価装置
CN104463118A (zh) * 2014-12-04 2015-03-25 龙岩学院 一种基于Kinect的多视角步态识别方法
CN106909938A (zh) * 2017-02-16 2017-06-30 青岛科技大学 基于深度学习网络的视角无关性行为识别方法
CN110059620A (zh) * 2019-04-17 2019-07-26 安徽艾睿思智能科技有限公司 基于时空注意力的骨骼行为识别方法
JP2019191981A (ja) * 2018-04-26 2019-10-31 Kddi株式会社 行動認識装置、モデル構築装置及びプログラム
CN110837778A (zh) * 2019-10-12 2020-02-25 南京信息工程大学 一种基于骨架关节点序列的交警指挥手势识别方法
CN111401270A (zh) * 2020-03-19 2020-07-10 南京未艾信息科技有限公司 一种人体运动姿态识别评价方法及其系统
CN111414839A (zh) * 2020-03-16 2020-07-14 清华大学 基于姿态的情感识别方法及装置
CN111860274A (zh) * 2020-07-14 2020-10-30 清华大学 基于头部朝向与上半身骨架特征的交警指挥手势识别方法
CN111881802A (zh) * 2020-07-22 2020-11-03 清华大学 基于双分支时空图卷积网络的交警手势识别方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015026004A (ja) * 2013-07-29 2015-02-05 いすゞ自動車株式会社 視認行動評価装置
CN104463118A (zh) * 2014-12-04 2015-03-25 龙岩学院 一种基于Kinect的多视角步态识别方法
CN106909938A (zh) * 2017-02-16 2017-06-30 青岛科技大学 基于深度学习网络的视角无关性行为识别方法
JP2019191981A (ja) * 2018-04-26 2019-10-31 Kddi株式会社 行動認識装置、モデル構築装置及びプログラム
CN110059620A (zh) * 2019-04-17 2019-07-26 安徽艾睿思智能科技有限公司 基于时空注意力的骨骼行为识别方法
CN110837778A (zh) * 2019-10-12 2020-02-25 南京信息工程大学 一种基于骨架关节点序列的交警指挥手势识别方法
CN111414839A (zh) * 2020-03-16 2020-07-14 清华大学 基于姿态的情感识别方法及装置
CN111401270A (zh) * 2020-03-19 2020-07-10 南京未艾信息科技有限公司 一种人体运动姿态识别评价方法及其系统
CN111860274A (zh) * 2020-07-14 2020-10-30 清华大学 基于头部朝向与上半身骨架特征的交警指挥手势识别方法
CN111881802A (zh) * 2020-07-22 2020-11-03 清华大学 基于双分支时空图卷积网络的交警手势识别方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
CHENYANG SI 等: "An Attention Enhanced Graph Convolutional LSTM Network for Skeleton-Based Action Recognition", 《HTTPS://ARXIV.ORG/PDF/1902.09130.PDF》 *
DONG TIAN 等: "An attentional spatial temporal graph convolutional network with co-occurrence feature learning for action recognition", 《MULTIMEDIA TOOLS AND APPLICATIONS》 *
LEI SHI 等: "Skeleton-Based Action Recognition with Multi-Stream Adaptive Graph Convolutional Networks", 《HTTPS://ARXIV.ORG/PDF/1912.06971.PDF》 *
单言虎 等: "人的视觉行为识别研究回顾、现状及展望", 《计算机研究与发展》 *
卞银龙: "基于深度学习的人群行为分析关键技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
郑颖 等: "基于机器学习的手势识别研究进展", 《计算机科学》 *
马楠 等: "自驾驶中的交互认知", 《中国科学:信息科学》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113377193A (zh) * 2021-05-25 2021-09-10 广州紫为云科技有限公司 一种基于可靠手势识别的自动售货机交互方法及系统
CN113609922A (zh) * 2021-07-13 2021-11-05 中国矿业大学 基于模态匹配的连续手语语句识别方法
CN113609922B (zh) * 2021-07-13 2022-05-13 中国矿业大学 基于模态匹配的连续手语语句识别方法

Also Published As

Publication number Publication date
CN112686111B (zh) 2021-07-27

Similar Documents

Publication Publication Date Title
CN110135249B (zh) 基于时间注意力机制和lstm的人体行为识别方法
CN101141633B (zh) 一种复杂场景中的运动目标检测与跟踪方法
CN109583315B (zh) 一种面向智能视频监控的多通道快速人体姿态识别方法
CN110619268B (zh) 基于时空分析与深度特征的行人再识别方法及装置
CN111860274B (zh) 基于头部朝向与上半身骨架特征的交警指挥手势识别方法
CN107133569A (zh) 基于泛化多标记学习的监控视频多粒度标注方法
CN112686111B (zh) 基于注意力机制多视角自适应网络的交警手势识别方法
CN110852179B (zh) 基于视频监控平台的可疑人员入侵的检测方法
CN115115859A (zh) 基于无人机航拍的长线性工程施工进度智能识别与分析方法
CN112084928A (zh) 基于视觉注意力机制和ConvLSTM网络的道路交通事故检测方法
CN112616023A (zh) 复杂环境下的多摄像机视频目标追踪方法
CN111160149A (zh) 基于运动场景及深度学习的车载人脸识别系统及方法
CN110796360A (zh) 一种固定型交通检测源多尺度数据融合方法
CN116363748A (zh) 基于红外-可见光图像融合的电网现场作业一体管控方法
CN113642403A (zh) 基于边缘计算的人群异动智能安全检测系统
CN112507893A (zh) 一种基于边缘计算的分布式无监督行人重识别方法
CN116895098A (zh) 基于深度学习和隐私保护的视频人体动作识别系统与方法
Li et al. Real-time tracking algorithm for aerial vehicles using improved convolutional neural network and transfer learning
CN114283326A (zh) 一种结合局部感知和高阶特征重构的水下目标重识别方法
CN116934820A (zh) 基于交叉注意力的多尺寸窗口Transformer网络布匹图像配准方法及系统
CN111950476A (zh) 基于深度学习的复杂环境下河道船舶自动识别方法
Lee et al. Low computational vehicle lane changing prediction using drone traffic dataset
CN114783054B (zh) 一种基于无线和视频特征融合的步态识别方法
CN114663835A (zh) 一种行人跟踪方法、系统、设备及存储介质
CN115100681A (zh) 一种衣着识别方法、系统、介质及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220408

Address after: 904, floor 9, block B, No. 315, guanganmennei street, Xicheng District, Beijing 100053

Patentee after: Guofa Huaxia International Technology Development (Beijing) Co.,Ltd.

Address before: 808 Yifu Building, College of mechanical and electrical engineering, 11 Xueyuan Road Ding, Haidian District, Beijing 100083

Patentee before: CHINA University OF MINING AND TECHNOLOGY BEIJING

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230106

Address after: 100000 Room C-0995, Floor 2, Building 3, Yard 30, Shixing Street, Shijingshan District, Beijing (cluster registration)

Patentee after: China Development Guoyan Information Technology Research Institute (Beijing) Co.,Ltd.

Address before: 904, floor 9, block B, No. 315, guanganmennei street, Xicheng District, Beijing 100053

Patentee before: Guofa Huaxia International Technology Development (Beijing) Co.,Ltd.