CN108764107A - 基于人体骨架序列的行为与身份联合识别方法及装置 - Google Patents
基于人体骨架序列的行为与身份联合识别方法及装置 Download PDFInfo
- Publication number
- CN108764107A CN108764107A CN201810499463.5A CN201810499463A CN108764107A CN 108764107 A CN108764107 A CN 108764107A CN 201810499463 A CN201810499463 A CN 201810499463A CN 108764107 A CN108764107 A CN 108764107A
- Authority
- CN
- China
- Prior art keywords
- sequence
- behavior
- human skeleton
- identity
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000009466 transformation Effects 0.000 claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 12
- 230000006399 behavior Effects 0.000 claims description 81
- 238000013528 artificial neural network Methods 0.000 claims description 27
- 230000000306 recurrent effect Effects 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 230000015654 memory Effects 0.000 claims description 5
- 235000013350 formula milk Nutrition 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 210000000988 bone and bone Anatomy 0.000 claims description 3
- 241000208340 Araliaceae Species 0.000 claims description 2
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims description 2
- 235000003140 Panax quinquefolius Nutrition 0.000 claims description 2
- 235000008434 ginseng Nutrition 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 abstract description 2
- 230000000392 somatic effect Effects 0.000 abstract 1
- 230000009471 action Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000006403 short-term memory Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 210000004218 nerve net Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
Abstract
本发明涉及视觉识别领域,提出一种基于人体骨架序列的行为和身份联合识别方法,旨在解决在人体数据识别中,不能同时对身份信息和行为动作识别问题。该方法包括:获取待识别人体的人体骨架序列;根据人体骨架序列,利用预先构建的识别模型识别人体的身份信息和行为动作;其中,识别模型的训练方法:将训练用人体骨架序列的坐标转换到参考坐标系下,得到参考骨架序列;对参考骨架序列的各参考骨架的各关节节点坐标与预先指定的中心点的坐标比较,得到各参考骨架的各关节节点的相对坐标;对参考骨架序列进行三维坐标变换,对初始的识别模型进行训练,得到优化后的识别模型。本发明可以快速、准确的从人体骨架序列中识别出人体的身份信息和行为动作。
Description
技术领域
本发明涉及计算机视觉技术领域,特别涉及基于深度学习的视 觉领域,具体涉及一种基于人体骨架序列的行为与身份联合识别方法及 装置。
背景技术
随着计算机图形视觉技的发展以及人机交互技术的发展,及时 的将检测或监控到人物的行为动作、身份信息及时准确的显示出来,变 得越来越重要。行为识别和身份识别在自动驾驶、人机交互、智慧城市、 智能交通及智能监控等领域都有应用。
随着近几年的深度相机(比如,Kinect)和高精度高效率的人 体姿态估计算法的发展,基于人体骨架序列的行为识别越来越受欢迎。 骨架序列直接反映了人体的运动,又具有输入数据小,没有背景干扰等 优点。基于深度神经网络的方法,可以从原始的骨架序列中自动学习特 征并识别行为;但是,忽略了基于人体骨架序列的身份识别。
一个人在时间上的动作序列既可以反映他的行为,也可以反映 他的身份,比如,步态识别研究可以根据一个人走路的状态判断他的身 份。但是,目前对于个人的行为和身份的识别为单独进行识别,无法利 用同一动作序列同时识别行人的动作和行人的身份。
发明内容
为了解决现有技术中的上述问题,即为了解决在人体骨架数据 识别中,不能同时对身份信息和行为动作识别的技术问题。为此目的, 本发明提供了一种基于人体骨架序列的行为与身份联合识别方法及装 置,以解决上述技术问题。
第一方面,本发明提供的基于人体骨架序列的行为与身份联合 识别方法包括如下步骤:获取待识别人体的人体骨架序列;根据上述人 体骨架序列,利用基于预先构建的识别模型,并根据上述人体骨架序列, 预测每个预设的身份类别的概率和每个预设的行为类别的概率;根据所 预测的身份类别的概率,判断上述待识别人体的身份类别;根据所预测 的行为类别的概率,判断上述待识别人体的行为类别;其中,上述识别 模型是基于深度递归神经网络构建的身份类别与行为类别概率预测模 型。
进一步地,本发明提供的一个优选技术方案中,在“基于预先 构建的识别模型,并根据上述人体骨架序列,预测每个预设的身份类别 的概率和每个预设的行为类别的概率”的步骤之前,上述方法还包括: 基于预设的参考坐标系,对预设的人体骨架序列训练样本进行坐标转换, 得到第一参考骨架序列;获取预设的人体中心点在上述第一参考骨架序列对应的每个时刻的位置坐标;将上述第一参考骨架序列中每个时刻对 应的关节点的位置坐标与相应的人体骨架坐标均值相减,得到第二参考 骨架序列;根据预设的旋转角度,对上述第二参考骨架序列进行三维坐 标变换,得到第三参考骨架序列;根据上述第三参考骨架序列,获取每 个上述关节点的坐标变化特征;对所获取的坐标变化特征进行融合,得到特征序列;基于预设的模型损失函数,并根据上述特征序列对上述识 别模型进行模型训练。
进一步地,本发明提供的一个优选技术方案中,在“将上述第 一参考骨架序列中每个时刻对应的关节点的位置坐标与相应的人体骨架 坐标均值相减,得到第二参考骨架序列”的步骤之前,上述方法包括: 获取人体骨架的多个预设的中心点的坐标;根据所获取的坐标,计算多 个上述中心点的坐标均值;在此情况下,“将上述第一参考骨架序列中 每个时刻对应的关节点的位置坐标与相应的人体骨架坐标均值相减,得 到第二参考骨架序列”的步骤是将上述第一参考骨架序列中每个时刻对 应的关节点的位置坐标与相应的中心点的坐标均值相减,得到第二参考 骨架序列。
进一步地,本发明提供的一个优选技术方案中,“根据预设的 旋转角度,对上述第二参考骨架序列进行三维坐标变换,得到第三参考 骨架序列”的步骤包括:利用如下变换公式对各关节节点进行三维坐标 变换:
R=Rz(γ)Ry(β)Rx(α)
其中,R为三维旋转变换矩阵,Rx(α),Ry(β),Rz(γ)为x,y,z 三个坐标轴方向的旋转矩阵,其形式如下:
α,β,γ为x,y,z三个坐标轴方向的旋转角度。
进一步地,本发明提供的一个优选技术方案中,“对所获取的 坐标变化特征进行融合,得到特征序列”的步骤包括:将坐标变换后的 每一时刻的各个上述关节点的坐标连接成一个特征向量,得到特征序列。
进一步地,本发明提供的一个优选技术方案中,上述模型损失 函数如下式所示:
L=λL(1)+(1-λ)L(2)
其中,λ为预设的加权系数,0≤λ≤1,L(1)和L(2)分别是对行 为识别和身份识别对应的损失函数:
其中,为第n个样本的行为和身份的类别标签,N为 总样本数目;
“基于预设的模型损失函数,并根据上述特征序列对上述识别 模型进行模型训练”的步骤包括:根据上述第三参考骨架序列,并利用 BPTT算法对上述识别模型进行模型训练。
进一步地,本发明提供的一个优选技术方案中,上述中心点包 括左髋节的中心点、右髋节的中心点和髋部的中心点,或者上述中心点 包括左肩节的中心点、右肩节的中心点和胸部的中心点。
进一步地,本发明提供的一个优选技术方案中,上述深度递归 神经网络是多层双向递归神经网络或单向递归神经网络;上述多层双向 递归神经网络包括多个长短时记忆网络。
进一步地,本发明提供的一个优选技术方案中,上述识别模型 的网络结构中的全连接层包括第一全连接层和第二全连接层;上述第一 全连接层用于根据上述人体骨架序列,预测每个预设的行为类别的概率; 上述第二全连接层用于根据上述人体骨架序列,预测每个预设的身份类 别的概率。
第二方面,本发明提供的一种存储装置,上述存储装置承载有 一个或者多个程序,上述程序适于由处理器加载并执行,当上述一个或 者多个程序被该装置执行时可以是实现上述技术方案所述的基于人体骨 架序列的行为和身份联合识别方法。
第三方面,本发明提供的一种处理装置包括处理器,适于执行 各条程序;以及存储设备,适于存储多条程序;其中,上述程序适于由 处理器加载并执行以实现上述技术方案所述的基于人体骨架序列的行为 和身份联合识别方法。
与最接近的现有技术相比,上述技术方案至少具有如下有益效 果:
本发明提供的基于人体骨架序列的行为与身份联合识别方法, 通过预先构建的识别模型对待识别的人体骨架序列进行身份类别概率和 行为类别的概率的预测,并根据所预测的身份类别的概括了和行为类别 的概率判断出对应于该人体骨架序列的人体的身份信息各行为动作,实 现对于人体骨架序列的身份与行为的联合识别;多层双向递归神经网络 的使用,提高了身份类别的概率和行为类别的概率的预测精度。
附图说明
图1是本发明实施例中一种基于人体骨架序列的行为与身份 联合识别的主要步骤示意图;
图2是本发明实施例中识别模型神经元的网络结构示意图;
图3是本发明实施例中识别模型的双向递归神经网络的主要 结构示意图;
图4是本发明实施例中利用识别模型识别人体骨架序列对应 人体的行为动作和身份信息的示意图。
具体实施方式
下面参照附图来描述本发明的优选实施方式。本领域技术人员 应当理解的是,这些实施方式仅仅用于解释本发明的技术原理,并非旨 在限制本发明的保护范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施 例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本 发明。
参阅附图1,图1示例性示出了本实施例中一种基于人体骨架 序列的行为与身份联合识别的主要步骤。该基于人体骨架序列的行为与 身份联合识别方法,包括以下步骤:
步骤1,获取待识别人体的人体骨架序列。
在本实施例中,可以应用基于人体骨架序列的行为和身份联合 识别方法的电子设备或应用平台,获得待进行行为识别和身份验证的人 体骨架序列。可以从与上述电子设备或应用平台连接的终端设备获得人 体骨架序列;具体地,上述终端设备可以通过与其连接的Kinect传感器 获得识别区域内人物的人体骨架的骨架数据。上述人体骨架序列为同一 人按照时间顺序的人体骨架的骨架数据序列。
上述骨架数据可以是Kinect传感器所检测到的人体的图像数 据,上述Kinect传感器所检测到每帧图像数据可以是表述上述人体的躯 干和各关节点的数据;上述骨架数据中包括上述人体骨架的关节点坐标。
步骤2,基于预先构建的识别模型,并根据上述人体骨架序列, 预测每个预设的身份类别的概率和每个预设的行为类别的概率。
本实施例中,基于步骤1中所获取的人体骨架序列,上述电子 设备或应用平台利用预先构建的识别模型对上述人体骨架序列进行识 别,预测每个预设的身份类别的概率和每个预设的行为类别的概率。这 里,上述识别模型可以是基于深度递归神经网络构建的模型身份类别与 行为类别概率的预测模型,例如可以是Siamese网络模型,利用Siamese网络模型完成待检测人体骨架序列的身份验证和行为动作识别。上述识 别模型输入为人体骨架数据的序列,输出为所输入的人体骨架序列所对 应人体的身份类别的概率和行为类别的概率。上述电子设备或应用平台 的存储单元或数据库中预先存储有人体的身份信息、行为动作信息。具 体地,可以为上述识别模型预测上述人体骨架序列对应上述预先存储的 人体的身份信息中各身份类别的概率;上述识别模型预测上述人体骨架 序列对应上述预先存储的人体的行为动作中各个动作的行为类别的概 率。
步骤3,根据所预测的身份类别的概率,判断所述待上述人体 的身份类别;根据所预测的行为类别的概率,判断上述待识别人体的行 为类别。
在本实施例中,根据上述步骤2中所预测的身份类别的概率和 行为类别的概率,可以依据概率的大小判断上述人体骨架序列对应人体 的身份类别,以及判断上述人体骨架序列对应人体的行为类别。上述身 份类别可以是区分人体身份的信息,上述行为类别可以是区分人体行为 动作的信息。
进一步地,本实施例提供的一个优选技术方案中,在“基于预 先构建的识别模型,并根据上述人体骨架序列,预测每个预设的身份类 别的概率和每个预设的行为类别的概率”的步骤之前,上述方法还包括: 基于预设的参考坐标系,对预设的人体骨架序列训练样本进行坐标转换, 得到第一参考骨架序列;获取预设的人体中心点在上述第一参考骨架序列对应的每个时刻的位置坐标;将上述第一参考骨架序列中每个时刻对 应的关节点的位置坐标与相应的人体骨架坐标均值相减,得到第二参考 骨架序列;根据预设的旋转角度,对上述第二参考骨架序列进行三维坐 标变换,得到第三参考骨架序列;根据上述第三参考骨架序列,获取每 个上述关节点的坐标变化特征;对所获取的坐标变化特征进行融合,得到特征序列;基于预设的模型损失函数,并根据上述特征序列对上述识 别模型进行模型训练。
上述预先构建的识别模型的训练方法包括:将训练用的人体骨 架序列的坐标转换到参考坐标系下,得到参考骨架序列;对上述参考骨 架序列的各参考骨架的各关节节点坐标与预先指定的中心点的坐标比 较,得到各上述参考骨架的各关节节点的相对坐标;对各上述关节节点 的相对坐标进行三维坐标变换,并将经三维坐标变换后的上述参考骨架序列作为训练数据,对初始的识别模型进行训练,得到优化后的识别模 型。
上述对样本数据进行预处理,还包括对人体骨架序列中的各骨 架数据进行坐标绝对处理,即,对一个骨架序列不同时间的所有关键点 的坐标,减去相对应时间的坐标的均值得到各个关节节点坐标。
具体地,上述数据预处理中,如果上述人体骨架序列是基于图 像平面坐标系,且已知相机参数,可以通过计算相机变换矩阵进行坐标 系转化;如果相机参数未知,就对平面二维的坐标增加一个数值为1的 维度,并处理后的三维坐标做尺度变换,使得x,y,z的坐标的数值在预 定范围内;优选地,x,y,z的坐标的数值在[-3,3]的范围内。
上述三维坐标变换可以为利用预设的旋转变换矩阵对上述第 二参考骨架序列进行三维坐标变换,得到第三参考骨架序列。
进一步地,本实施例提供的一个优选技术方案中,在“将上述 第一参考骨架序列中每个时刻对应的关节点的位置坐标与相应的人体骨 架坐标均值相减,得到第二参考骨架序列”的步骤之前,上述方法包括: 获取人体骨架的多个预设的中心点的坐标;根据所获取的坐标,计算多 个上述中心点的坐标均值;在此情况下,“将上述第一参考骨架序列中每个时刻对应的关节点的位置坐标与相应的人体骨架坐标均值相减,得 到第二参考骨架序列”的步骤是将上述第一参考骨架序列中每个时刻对 应的关节点的位置坐标与相应的中心点的坐标均值相减,得到第二参考 骨架序列。
具体地,上述中心点包括左髋节的中心点、右髋节的中心点和 髋部的中心点,或者上述中心点包括左肩节的中心点、右肩节的中心点 和胸部的中心点。
进一步地,本实施例提供的一个优选技术方案中,“根据预设 的旋转角度,对上述第二参考骨架序列进行三维坐标变换,得到第三参 考骨架序列”的步骤包括:
在本实施例的一些可选的实现方式中,上述“对各上述关节节 点的相对坐标进行三维坐标变换”的步骤包括利用如下变换公式对各关 节节点进行三维坐标变换变换:
R=Rz(γ)Ry(β)Rx(α) (1)
其中,Rx(α),Ry(β),Rz(γ)为x,y,z三个坐标轴方向的旋转 矩阵,其形式如下:
上式中,R为三维旋转变换矩阵,α,β,γ为x,y,z三个坐标 轴方向的旋转角度。上述三维变换为旋转矩阵,用于三维变换的旋转矩 阵R只依赖于三个参数α,β,γ。当上述参数α,β,γ的数值都为0时,上 述旋转矩阵R为单位矩阵,相当于没有做坐标变换。在进行识别模型训练 时,随机生成α,β,γ的数值,随机生成的范围根据任务而定,比如,对 于跨视角的识别中,可以设定α∈[-π/2,π/2],β∈[-π/2,π/2],γ=0。
进一步地,一个优选技术方案中,上述“对所获取的坐标变化 特征进行融合,得到特征序列”的步骤包括:对上述不同关节点的坐标 变化特征进行连接,得到特征序列。
对模型基于坐标变换后的特征序列所学习到的描述动作的特 征在时间维度上做融合,得到描述运动的向量,并作为网络中两个全连 接层的输入。上述坐标变化特征进行融合的方法可以采用最大池化法 (Max Pooling)或平均池化法(Mean Pooling)实现。
进一步地,一个优选技术方案中,上述预设的模型损失函数如 下式所示:
L=λL(1)+(1-λ)L(2) (5)
其中,λ为预设的加权系数,0≤λ≤1,L(1)和L(2)分别是对行 为识别和身份识别对应的损失函数,L(1)和L(2)可表示为:
其中,中为第n个样本的行为和身份的类别标签,N为 总样本数目;
“基于预设的模型损失函数,并根据上述特征序列对上述识别 模型进行模型训练”的步骤包括:根据上述第三参考骨架序列,并利用BPTT算法对上述识别模型进行模型训练。上述BPTT算法为基于时序的 反向传播算法,为Back-Propagation Through Time的缩写。
进一步地,在本实施例的一个优选技术方案中,上述深度递归 神经网络是多层双向递归神经网络或单向递归神经网络;上述多层双向 递归神经网络包括多个长短时记忆网络。
在本实施例的一些可选的实现方式中,上述识别模型基于深度 递归神经网络构建。上述识别模型可以采用多层双向递归神经网络,其 中,上述递归神经网络可以采用短时记忆网络(Long-Short Term Memory, LSTM)。
参阅附图2,图2示例性示出了本实施例中一种识别模型神经 元的网络结构。如图2所示,在识别模型神经元的网络结构中,给定输 入序列{xt},长短时记忆网络的输出序列为{ht},长短时记忆网络的迭代 过程如下所示:
it=σ(Wxixt+Whiht-1+Wcict-1+bi) (7)
ft=σ(Wxfxt+Whfht-1+Wcfct-1+bf) (8)
ct=ftct-1+ittanh(Wxcxt+Whcht-1+bc) (9)
ot=σ(Wxoxt+Whoht-1+Wcoct+bo) (10)
ht=ottanh(ct) (11)
其中,it,ft,ot,ct分别表示输入控制门(Input gate)、遗 忘门(Forget gate)、输出控制门(Output gate)和记忆单元(Cell)在时 间t的状态,W,b分别表示连接权重和偏置向量。
进一步地,在本实施例的一个优选技术方案中,上述深度递归 神经网络是多层双向递归神经网络或单向递归神经网络;上述多层双向 递归神经网络包括多个长短时记忆网络。
参阅附图3,图3示例性示出了本实施例中一种识别模型神经 元的双向递归神经网络的主要结构。如图3所示的双向递归网络的网络 结构中,应用于本识别模型的双向递归网络的网络结构如图3所示,对 于一个输入的人体骨架序列,网络有两个隐含层:前向层和反向层,分 别学习输入序列的在时间上的两个相反方向的变化特性。双向递归神经 网络的输出是把前向层和反向层的在同一个时间上的输出连接起来,形 成一个新的时间序列。
在本实施例的一些可选的实现方式中,上述识别模型的网络结 构中的全连接层包括第一全连接层和第二全连接层,上述第一全连接层 用于根据上述人体骨架序列,预测每个预设的行为类别的概率,从而进 行人体动作行为的识别,上述第二全连接层用于根据上述人体骨架序列, 预测每个预设的身份类别的概率,进而进行人体身份的识别。
这里,进行分类的全连接层包括两个全连接层,需要对深度递 归神经网络学习到的特征在时间维度上做融合,得到这个序列的表示。 融合方法采用最大池化(MaxPooling)或平均池化(Mean Pooling)。记 {ot}为多层双向递归神经网络的输出,t∈{1,2,...,T},T表示序列长度,最 大池化的输出为max{ot},平均池化的输出为∑ot/T。
上述第一全连接层的隐含层的节点数为待识别行为的数目,通 过激活函数的如下类属概率的最大值判定输入序列所属行为类别:
其中,ai为全连接层的输出,行为的类别数为m,pi为第i种行 为类别的预测概率。
上述第二全连接层的隐含层的节点数为待识别身份的数目,通 过激活函数的如下类属概率的最大值判定输入序列所属身份类别:
其中,bj为全连接层的输出,身份的类别数为n,qj为第i种 身份类别的预测概率。
可以理解,上述待识别行为可以预先设置,行为类别的数目可 以由实际任务决定;其中,每个动作对应一个行为类别。上述身份的信 息可以预先设置,身份类别的数目可以由实际任务中待识别的人体的数 目决定;其中,每个人体对应一个身份类别。
作为示例,参阅附图4,图4示例性示出了本实施例中利用识 别模型识别人体骨架序列对应人体的行为动作和身份信息的示意图。如 图4所示,人体骨架序列输入识别模型后,识别出人体的行为和身份。 其中,识别模型经数据预处理、三维坐标变换、深度递归神经网络和分 类预测联合识别出人体的行为动作和身份信息。这里,预先设有60个行 为类别,40个身份类别;根据人体骨架序列,利用上述识别模型,可以 识别出60个行为动作和40个身份不同的人。
本发明还提供了一种存储装置,上述存储装置承载有一个或者 多个程序,上述程序适于由处理器加载并执行,当上述一个或者多个程 序被该装置执行时可以是实现上述实施例中的任一方法。
本发明还提供了一种处理装置,该处理装置包括处理器,适于 执行各条程序;以及存储设备,适于存储多条程序;其中,上述程序适 于由处理器加载并执行以实现上述实施例中的任一方法。
本发明上述实施例所提供的方法通过预先构建的识别模型对 人体骨架序列进行识别,识别出人体的行为动作和身份信息。本发明中, 识别模型的全连接层包括用于身份识别的全连接层以及用于行为识别的 全连接层,识别模型的递归神经网络对学习到的特征在时间维度上作融 合,识别模型可以同时预测人体骨架序列的行为类别的概率和人的身份 类别的概率,根据上述所预存的概率判断出人体的身份类别和行为类别。 因此,应用本发明提供的方法可以快速、准确识别出人体骨架序列对应 人体的身份信息和行为动作。
至此,已经结合附图所示的优选实施方式描述了本发明的技术 方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不 局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技 术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之 后的技术方案都将落入本发明的保护范围之内。
Claims (11)
1.一种基于人体骨架序列的行为与身份联合识别方法,其特征在于,所述方法包括:
获取待识别人体的人体骨架序列;
根据所述人体骨架序列,利用基于预先构建的识别模型,并根据所述人体骨架序列,预测每个预设的身份类别的概率和每个预设的行为类别的概率;
根据所预测的身份类别的概率,判断所述待识别人体的身份类别;根据所预测的行为类别的概率,判断所述待识别人体的行为类别;
其中,所述识别模型是基于深度递归神经网络构建的身份类别与行为类别概率预测模型。
2.根据权利要求1所述的基于人体骨架序列的行为与身份联合识别方法,其特征在于,在“基于预先构建的识别模型,并根据所述人体骨架序列,预测每个预设的身份类别的概率和每个预设的行为类别的概率”的步骤之前,所述方法还包括:
基于预设的参考坐标系,对预设的人体骨架序列训练样本进行坐标转换,得到第一参考骨架序列;
获取预设的人体中心点在所述第一参考骨架序列对应的每个时刻的位置坐标;
将所述第一参考骨架序列中每个时刻对应的关节点的位置坐标与相应的人体骨架坐标均值相减,得到第二参考骨架序列;
根据预设的旋转角度,对所述第二参考骨架序列进行三维坐标变换,得到第三参考骨架序列;
根据所述第三参考骨架序列,获取每个所述关节点的坐标变化特征;
对所获取的坐标变化特征进行融合,得到特征序列;
基于预设的模型损失函数,并根据所述特征序列对所述识别模型进行模型训练。
3.根据权利要求2所述的基于人体骨架序列的行为与身份联合识别方法,其特征在于,在“将所述第一参考骨架序列中每个时刻对应的关节点的位置坐标与相应的人体骨架坐标均值相减,得到第二参考骨架序列”的步骤之前,所述方法包括:
获取人体骨架的多个预设的中心点的坐标;
根据所获取的坐标,计算多个所述中心点的坐标均值;
在此情况下,“将所述第一参考骨架序列中每个时刻对应的关节点的位置坐标与相应的人体骨架坐标均值相减,得到第二参考骨架序列”的步骤是将所述第一参考骨架序列中每个时刻对应的关节点的位置坐标与相应的中心点的坐标均值相减,得到第二参考骨架序列。
4.根据权利要求2所述的基于人体骨架序列的行为与身份联合识别方法,其特征在于,“根据预设的旋转角度,对所述第二参考骨架序列进行三维坐标变换,得到第三参考骨架序列”的步骤包括:
利用如下变换公式对各关节节点进行三维坐标变换:
R=Rz(γ)Ry(β)Rx(α)
其中,R为三维旋转变换矩阵,Rx(α),Ry(β),Rz(γ)为x,y,z三个坐标轴方向的旋转矩阵,其形式如下:
α,β,γ为x,y,z三个坐标轴方向的旋转角度。
5.根据权利要求2所述的基于人体骨架序列的行为与身份联合识别方法,其特征在于,“对所获取的坐标变化特征进行融合,得到特征序列”的步骤包括:将坐标变换后的每一时刻的各个所述关节点的坐标连接成一个特征向量,,得到特征序列。
6.根据权利要求2-5中任一项所述的基于人体骨架序列的行为与身份联合识别方法,其特征在于,所述模型损失函数如下式所示:
L=λL(1)+(1-λ)L(2)
其中,λ为预设的加权系数,0≤λ≤1,L(1)和L(2)分别是对行为识别和身份识别对应的损失函数:
其中,中为第n个样本的行为和身份的类别标签,N为总样本数目;
“基于预设的模型损失函数,并根据所述特征序列对所述识别模型进行模型训练”的步骤包括:根据所述第三参考骨架序列,并利用BPTT算法对所述识别模型进行模型训练。
7.根据权利要求2-5中任一项所述的基于人体骨架序列的行为与身份联合识别方法,其特征在于,所述中心点包括左髋节的中心点、右髋节的中心点和髋部的中心点,或者所述中心点包括左肩节的中心点、右肩节的中心点和胸部的中心点。
8.根据权利要求1-5中任一项所述的基于人体骨架序列的行为和身份联合识别方法,其特征在于,所述深度递归神经网络是多层双向递归神经网络或单向递归神经网络;所述多层双向递归神经网络包括多个长短时记忆网络。
9.根据权利要求1-5中任一项所述的基于人体骨架序列的行为和身份联合识别方法,其特征在于,所述识别模型的网络结构中的全连接层包括第一全连接层和第二全连接层;
所述第一全连接层用于根据所述人体骨架序列,预测每个预设的行为类别的概率;
所述第二全连接层用于根据所述人体骨架序列,预测每个预设的身份类别的概率。
10.一种存储装置,其中存储有多条程序,其特征在于,所述程序适于由处理器加载并执行以实现权利要求1-9中任一项所述的基于人体骨架序列的行为和身份联合识别方法。
11.一种处理装置,包括:
处理器,适于执行各条程序;以及
存储设备,适于存储多条程序;
其特征在于,所述程序适于由处理器加载并执行以实现:
权利要求1-9任一项中所述的基于人体骨架序列的行为和身份联合识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810499463.5A CN108764107B (zh) | 2018-05-23 | 2018-05-23 | 基于人体骨架序列的行为与身份联合识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810499463.5A CN108764107B (zh) | 2018-05-23 | 2018-05-23 | 基于人体骨架序列的行为与身份联合识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108764107A true CN108764107A (zh) | 2018-11-06 |
CN108764107B CN108764107B (zh) | 2020-09-11 |
Family
ID=64005031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810499463.5A Active CN108764107B (zh) | 2018-05-23 | 2018-05-23 | 基于人体骨架序列的行为与身份联合识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108764107B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902729A (zh) * | 2019-02-18 | 2019-06-18 | 清华大学 | 基于序列状态演进的行为预测方法及装置 |
CN110070029A (zh) * | 2019-04-17 | 2019-07-30 | 北京易达图灵科技有限公司 | 一种步态识别方法及装置 |
CN110363131A (zh) * | 2019-07-08 | 2019-10-22 | 上海交通大学 | 基于人体骨架的异常行为检测方法、系统及介质 |
CN110717381A (zh) * | 2019-08-28 | 2020-01-21 | 北京航空航天大学 | 面向人机协作的基于深度堆叠Bi-LSTM的人类意图理解方法 |
CN111079535A (zh) * | 2019-11-18 | 2020-04-28 | 华中科技大学 | 一种人体骨架动作识别方法、装置及终端 |
CN111274937A (zh) * | 2020-01-19 | 2020-06-12 | 中移(杭州)信息技术有限公司 | 摔倒检测方法、装置、电子设备及计算机可读存储介质 |
CN111353447A (zh) * | 2020-03-05 | 2020-06-30 | 辽宁石油化工大学 | 一种基于图卷积网络的人体骨架行为识别方法 |
CN111382306A (zh) * | 2018-12-28 | 2020-07-07 | 杭州海康威视数字技术股份有限公司 | 查询视频帧的方法和装置 |
CN111783711A (zh) * | 2020-07-09 | 2020-10-16 | 中国科学院自动化研究所 | 基于身体部件层面的骨架行为识别方法及装置 |
WO2020211242A1 (zh) * | 2019-04-15 | 2020-10-22 | 深圳大学 | 一种基于行为识别的方法、装置及存储介质 |
CN112966628A (zh) * | 2021-03-17 | 2021-06-15 | 广东工业大学 | 一种基于图卷积神经网络的视角自适应多目标摔倒检测方法 |
CN113239819A (zh) * | 2021-05-18 | 2021-08-10 | 西安电子科技大学广州研究院 | 一种基于视角归一化的骨架行为识别方法、装置及设备 |
CN113269008A (zh) * | 2020-02-14 | 2021-08-17 | 宁波吉利汽车研究开发有限公司 | 一种行人轨迹预测方法、装置、电子设备及存储介质 |
CN113688790A (zh) * | 2021-09-22 | 2021-11-23 | 武汉工程大学 | 一种基于图像识别的人体动作预警方法及系统 |
US11854305B2 (en) | 2021-05-09 | 2023-12-26 | International Business Machines Corporation | Skeleton-based action recognition using bi-directional spatial-temporal transformer |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103729614A (zh) * | 2012-10-16 | 2014-04-16 | 上海唐里信息技术有限公司 | 基于视频图像的人物识别方法及人物识别装置 |
US20140169623A1 (en) * | 2012-12-19 | 2014-06-19 | Microsoft Corporation | Action recognition based on depth maps |
US20160042227A1 (en) * | 2014-08-06 | 2016-02-11 | BAE Systems Information and Electronic Systems Integraton Inc. | System and method for determining view invariant spatial-temporal descriptors for motion detection and analysis |
CN107301370A (zh) * | 2017-05-08 | 2017-10-27 | 上海大学 | 一种基于Kinect三维骨架模型的肢体动作识别方法 |
-
2018
- 2018-05-23 CN CN201810499463.5A patent/CN108764107B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103729614A (zh) * | 2012-10-16 | 2014-04-16 | 上海唐里信息技术有限公司 | 基于视频图像的人物识别方法及人物识别装置 |
US20140169623A1 (en) * | 2012-12-19 | 2014-06-19 | Microsoft Corporation | Action recognition based on depth maps |
US20160042227A1 (en) * | 2014-08-06 | 2016-02-11 | BAE Systems Information and Electronic Systems Integraton Inc. | System and method for determining view invariant spatial-temporal descriptors for motion detection and analysis |
CN107301370A (zh) * | 2017-05-08 | 2017-10-27 | 上海大学 | 一种基于Kinect三维骨架模型的肢体动作识别方法 |
Non-Patent Citations (1)
Title |
---|
TAMAL BATABYAL等: "UGraSP: A UNIFIED FRAMEWORK FOR ACTIVITY RECOGNITION AND PERSON IDENTIFICATION USING GRAPH SIGNAL PROCESSING", 《IEEE》 * |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111382306B (zh) * | 2018-12-28 | 2023-12-01 | 杭州海康威视数字技术股份有限公司 | 查询视频帧的方法和装置 |
CN111382306A (zh) * | 2018-12-28 | 2020-07-07 | 杭州海康威视数字技术股份有限公司 | 查询视频帧的方法和装置 |
CN109902729A (zh) * | 2019-02-18 | 2019-06-18 | 清华大学 | 基于序列状态演进的行为预测方法及装置 |
WO2020211242A1 (zh) * | 2019-04-15 | 2020-10-22 | 深圳大学 | 一种基于行为识别的方法、装置及存储介质 |
CN110070029A (zh) * | 2019-04-17 | 2019-07-30 | 北京易达图灵科技有限公司 | 一种步态识别方法及装置 |
CN110363131A (zh) * | 2019-07-08 | 2019-10-22 | 上海交通大学 | 基于人体骨架的异常行为检测方法、系统及介质 |
CN110717381A (zh) * | 2019-08-28 | 2020-01-21 | 北京航空航天大学 | 面向人机协作的基于深度堆叠Bi-LSTM的人类意图理解方法 |
CN111079535A (zh) * | 2019-11-18 | 2020-04-28 | 华中科技大学 | 一种人体骨架动作识别方法、装置及终端 |
CN111079535B (zh) * | 2019-11-18 | 2022-09-16 | 华中科技大学 | 一种人体骨架动作识别方法、装置及终端 |
CN111274937A (zh) * | 2020-01-19 | 2020-06-12 | 中移(杭州)信息技术有限公司 | 摔倒检测方法、装置、电子设备及计算机可读存储介质 |
CN111274937B (zh) * | 2020-01-19 | 2023-04-28 | 中移(杭州)信息技术有限公司 | 摔倒检测方法、装置、电子设备及计算机可读存储介质 |
CN113269008A (zh) * | 2020-02-14 | 2021-08-17 | 宁波吉利汽车研究开发有限公司 | 一种行人轨迹预测方法、装置、电子设备及存储介质 |
CN113269008B (zh) * | 2020-02-14 | 2023-06-30 | 宁波吉利汽车研究开发有限公司 | 一种行人轨迹预测方法、装置、电子设备及存储介质 |
CN111353447A (zh) * | 2020-03-05 | 2020-06-30 | 辽宁石油化工大学 | 一种基于图卷积网络的人体骨架行为识别方法 |
CN111783711A (zh) * | 2020-07-09 | 2020-10-16 | 中国科学院自动化研究所 | 基于身体部件层面的骨架行为识别方法及装置 |
CN111783711B (zh) * | 2020-07-09 | 2022-11-08 | 中国科学院自动化研究所 | 基于身体部件层面的骨架行为识别方法及装置 |
CN112966628A (zh) * | 2021-03-17 | 2021-06-15 | 广东工业大学 | 一种基于图卷积神经网络的视角自适应多目标摔倒检测方法 |
US11854305B2 (en) | 2021-05-09 | 2023-12-26 | International Business Machines Corporation | Skeleton-based action recognition using bi-directional spatial-temporal transformer |
CN113239819A (zh) * | 2021-05-18 | 2021-08-10 | 西安电子科技大学广州研究院 | 一种基于视角归一化的骨架行为识别方法、装置及设备 |
CN113239819B (zh) * | 2021-05-18 | 2022-05-03 | 西安电子科技大学广州研究院 | 一种基于视角归一化的骨架行为识别方法、装置及设备 |
CN113688790A (zh) * | 2021-09-22 | 2021-11-23 | 武汉工程大学 | 一种基于图像识别的人体动作预警方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN108764107B (zh) | 2020-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108764107A (zh) | 基于人体骨架序列的行为与身份联合识别方法及装置 | |
Tufek et al. | Human action recognition using deep learning methods on limited sensory data | |
CN108090408A (zh) | 用于执行脸部表情识别和训练的方法和设备 | |
CN104662526B (zh) | 用于高效地更新尖峰神经元网络的装置和方法 | |
CN106951923B (zh) | 一种基于多视角信息融合的机器人三维形状识别方法 | |
CN112714896A (zh) | 自知视觉-文本共接地导航代理 | |
Erlhagen et al. | Goal-directed imitation for robots: A bio-inspired approach to action understanding and skill learning | |
Fukumi et al. | Rotation-invariant neural pattern recognition system estimating a rotation angle | |
CN110134774A (zh) | 一种基于注意力决策的图像视觉问答模型、方法和系统 | |
Penny | Bayesian models of brain and behaviour | |
CN108647583A (zh) | 一种基于多目标学习的人脸识别算法训练方法 | |
CN111274916A (zh) | 人脸识别方法和人脸识别装置 | |
CN107423721A (zh) | 人机交互动作检测方法、装置、存储介质及处理器 | |
JP2005199403A (ja) | 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置 | |
Botzheim et al. | Human gesture recognition for robot partners by spiking neural network and classification learning | |
KR102440385B1 (ko) | 멀티 인식모델의 결합에 의한 행동패턴 인식방법 및 장치 | |
CN111160294B (zh) | 基于图卷积网络的步态识别方法 | |
CN106909938A (zh) | 基于深度学习网络的视角无关性行为识别方法 | |
EP3874418A1 (en) | Artificial neural networks having competitive reward modulated spike time dependent plasticity and methods of training the same | |
CN114708435A (zh) | 基于语义分割的障碍物尺寸预测与不确定性分析方法 | |
Song et al. | Where-what network 5: Dealing with scales for objects in complex backgrounds | |
CN114202792A (zh) | 一种基于端到端卷积神经网络的人脸动态表情识别方法 | |
CN108073978A (zh) | 一种人工智能超深度学习模型的构成方法 | |
i Badia et al. | A collision avoidance model based on the lobula giant movement detector (LGMD) neuron of the locust | |
Su et al. | Incremental learning with balanced update on receptive fields for multi-sensor data fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |