CN107169117A - 一种基于自动编码器和dtw的手绘图人体运动检索方法 - Google Patents

一种基于自动编码器和dtw的手绘图人体运动检索方法 Download PDF

Info

Publication number
CN107169117A
CN107169117A CN201710377338.2A CN201710377338A CN107169117A CN 107169117 A CN107169117 A CN 107169117A CN 201710377338 A CN201710377338 A CN 201710377338A CN 107169117 A CN107169117 A CN 107169117A
Authority
CN
China
Prior art keywords
dtw
motion
human
autocoder
skeleton
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710377338.2A
Other languages
English (en)
Other versions
CN107169117B (zh
Inventor
肖秦琨
楚超勤
高嵩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Technological University
Original Assignee
Xian Technological University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Technological University filed Critical Xian Technological University
Priority to CN201710377338.2A priority Critical patent/CN107169117B/zh
Publication of CN107169117A publication Critical patent/CN107169117A/zh
Application granted granted Critical
Publication of CN107169117B publication Critical patent/CN107169117B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Abstract

本发明公开的一种基于自动编码器和DTW的手绘图人体运动检索方法,包括:使用相应设备拍摄单目视频,构建N个类别的动态人体运动序列数据库及M个类别人体运动骨架手绘图序列数据库;提取视频V(1)的每帧图像,通过背景差分和肤色模型获取出fij中运动轮廓,通过人体骨架提取法获得运动骨架;通过系统学习获取基于聚类的代表性帧图像数据库DRF;代表性的帧图像数据库DRF通过使用自动编码器提取人体骨胳运动图像特征;代表帧提取和相似性距离匹配,根据相似距离顺序获得最优路径检索结果,本发明提出将基于DTW的匹配与统计运动匹配相结合以提高运动匹配的性能和效率,基于优化的代表性识别特征通常比原始无序描述符具有更好的性能。

Description

一种基于自动编码器和DTW的手绘图人体运动检索方法
技术领域
本发明属于运动捕捉动画技术领域,具体涉及一种基于自动编码 器和DTW的手绘图人体运动检索方法。
背景技术
近年来,计算机动画在各种应用中日益普及。计算机动画对人体 运动的应用尤为重要。这已经导致了一个高的需求对于制作非常逼真 的人类运动表征。已经形成了多种方法来产生人体运动数据。运动捕 获(MoCap)是一种众所周知的方法。运动捕获设备的可用性越来越 多,驱动了大规模的人体和物体运动数据库的发展。然而,随着各种 运动数据的增长,搜索满足特定要求的合适的运动是一件困难的事 情。因此,运动检索最近成为在运动捕捉动画领域的主要研究重点。
在文献中已经提出了一些运动检索方法,其中许多是由现有的音 频检索方法修改,如动态时间规整(DTW)方法。为了支持索引和 提高DTW的检索性能,基于均匀缩放(US)的算法已被提出。一种 基于DTW和典型相关分析(CCA)扩展的方法,被称为广义的典型 时间规整(GCTW),已被提出用于调整多模态序列。除了基于DTW 的方法,其它方法寻求逻辑上类似的运动匹配。例如,已经开发了用 于呈现运动的模板,以及提出使用模板匹配的运动搜索。此外,几何 特征已被用来构建索引树,使用聚类和分割,然后提出根据峰值点进 行动作匹配。但上述运动检索方法有以下不足:
(1)动态时间规整(DTW)方法,由于这种类型的数据的属性 和参数数量大,通常证明了DTW对运动捕获数据的应用有效率低的 表现。
(2)均匀缩放(US)的算法,基于均匀缩放的方法通常具有较 高的计算成本。
(3)使用模板匹配的运动搜索和聚类和分割等方法来根据峰值点 进行动作匹配,但是不能区分紧密匹配的运动。
发明内容
本发明的目的是提供一种基于自动编码器和DTW的手绘图人体 运动检索方法,克服了现有方法较高的计算成本,运动捕获数据较低 的应用效率和对紧密匹配的运动的检索不能区分到位的问题。
本发明采用的技术方案是,一种基于自动编码器和DTW的手绘图 人体运动检索方法,具体按照以下步骤实施:
步骤1:使用相应设备拍摄单目视频,拍摄速度为30帧每秒, 构建有N个类别的动态人体运动序列数据库V(1)=(V1 (1),…,VN (1))及M个 类别人体运动骨架手绘图序列数据库V(2)=(V1 (2),…,VM (2));
步骤2:提取视频V(1)的每帧图像,得到帧图像Fi=(fi1,...,fin), 其中n表示视频V(1)的帧数,对fij进行预处理,通过背景差分和肤色 模型获取出fij中运动轮廓,通过人体骨架提取法获得运动骨架;
步骤3:通过系统学习获取基于模糊c-均值聚类的代表性帧图像 数据库DRF
步骤4:代表性的帧图像数据库DRF通过使用自动编码器提取人 体骨胳运动图像特征;
步骤5:应用画板手绘预查询的人体运动序列,首先应用自动编 码器提取手绘图序列特征,进而应用模糊聚类获取手绘图运动序列代 表帧应用DTW算法计算RFX和代表帧图像数据 库DRF距离,根据相似距离顺序排序,输出最优运动检索结果。
本发明的特点还在于,
步骤2具体按照以下步骤实施:
(21)使用Kinect获取人体运动的RGB彩色与深度图像,去除 RGB彩色与深度图像噪声,并对其进行图像校正处理;
(22)根据彩色图像背景的复杂程度采用不同方法去除背景, 获得前景彩色图像;
(23)基于前景彩色图像且依据肤色模型对脸部及手部进行定 位并将脸部及手部定位质心作为初始获取的关节点;
(24)基于学习得到的贝叶斯分类器对彩色图像前景中的运动 人体进行部件分类识别;
(25)依据分类识别结果判定肢体各刚体结构部位类别,再根 据各刚体部件的链接关系确定出各关节点,依次联接各关节点形成平 面人体骨架,结合各个关节点深度数据将平面骨架变换成三维立体骨 架。
步骤3具体按照以下步骤实施:
(31)给定运动序列{Fi}i=1:n,其中n是帧数,使用模糊c-均值FCM聚类方法生成代表性帧;
(32)基于帧图像Fi=(fi1,...,fin)聚类获取运动序列代表性的帧 RF(1) i=(rf1 (1),…,rfk (1)),并对V(2)手绘图数据库进行聚类处理,获得手绘 图关键帧图像RF(2) j=(rf1 (2),…,rfk (2)),然后总的代表帧可以表示为 RF={rfk}k=1:c,其中rfk对应于第k个聚类中心;
(33)所有视频运动类别及手绘图所对应的代表性帧图像共同组 成人体运动代表帧图像数据库DRF={RF(1) i,RF(2) j}。
步骤4具体按照以下步骤实施:
(41)假设自动编码器的输入为x,首先,该编码器将原始信号 x映射到特征信号z中:
z(e)=h(e)(W(e)x+b(e))
其中“(e)”是指神经网络编码层,h(e)是传递函数,W(e)是加权 矩阵,b(e)是偏置向量;
(42)解码器将特征信号z映射返回到估计中:
其中“(d)”表示第d网络层,h(d)是解码器的传递函数,W(d)是 权重矩阵,b(d)是偏置向量;
(43)建立一个代价函数来描述输入,表示为x,与其重建之间 的误差输出,表示为并需要控制误差的值最小
其中代价函数E由3部分组成,第1部分是均方 误差,第2部分l*Wweights是L2正则化,第3部分b*Wsparsity是稀疏正则 化,L2正则化系数为l,稀疏正则化系数为b,如果让L2正则化是:
其中L,n,k分别是训练数据中的隐层数,观测数和变量数,添加 一个正则化来激励稀疏项,将第i个神经元激活措施定义为:
其中n是训练样本数,xj是第j个训练样本,wi (1)T和bi (1)分别是 W(1)的第i行,偏移向量,接下来,利用Kullback Leibler发散呈现稀 疏正则化:
当ri相等,Kullback Leibler发散是0,否则,由于它们彼 此偏离,发散是较大的。
步骤5具体按照以下步骤实施:
(51)DTW的目的是比较两个序列RFX=(rf1 X,…,rfc X)和 RFY=(rf1 Y,…,rfc Y)之间的相似性,让整体匹配代价为Cp(RFX,RFY):
CP(RFX,RFY)=[dDTW(rfi X,rfj Y)]c×c
在RFX和RFY之间的一个规整路径p,被定义为本地代价度量,而 dDTW(rfi X,rfj Y)是(i,j=1,…,c)之间的DTW,设定是t维向 量,并且rfi X=(x1,…,xt)和 之间的DTW是:
(52)RFX和RFY之间的最佳规整路径是在所有可能的规整路径 中具有最小总成本的规整路径p*,然后定义RFX和RFY之间的距离是p*的总成本:dDTW(RFX,RFY)=Cp*(RFX,RFY);
(53)为了确定最优路径p*,使用动态规划获得最优路径,累积 成本矩阵D满足以下等式:
且n∈[1:c],D(1,m)=∑m k=1 dDTW(rf1 X,rfk Y) 有m∈[1:c],和:
D(n,m)=min{D(n-1,m-1),D(n-1,m),D(n,m-1)}+dDTW(rfn X,rfm Y),
最终优化DTW的距离是:
本发明的有益效果是,本发明从运动数据库检索与给定查询运动 非常相似的运动,提出将基于DTW的匹配与统计运动匹配相结合以提 高运动匹配的性能和效率。基于优化的代表性识别特征通常比原始无 序描述符具有更好的性能,使用模糊聚类将冗余姿态描述符转换成判 别描述符。多变量统计学习和贝叶斯融合方法用于将运动匹配转换为 运输问题以适应旋转,局部或全局缩放,将提出的算法的性能与DTW 和US方法的性能进行比较,使得该算法检索结果具有良好的精确性 和有效性。
附图说明
图1是本发明的一种基于自动编码器和DTW的手绘图人体运动检 索方法的流程图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明中相关技术介绍如下:
(1)聚类分析:聚类分析又称群分析,它是研究(样品或指标) 分类问题的一种统计分析方法,本发明提到的系统聚类方法是其中的 一种,其主要原理是应用紧邻法将属性相似的向量分类成多个集合,是 一种无监督的分类方法。系统聚类的步骤一般是首先根据一批数据或 指标找出能度量这些数据或指标之间相似程度的统计量然后以统计 量作为划分类型的依据,把一些相似程度大的站点(或样品)首先聚 合为一类,而把另一些相似程度较小的站点(或样品)聚合为另一类, 直到所有的站点(或样品)都聚合完毕,最后根据各类之间的亲疏关 系,逐步画成一张完整的分类系统图,又称谱系图。其相似程度由距离 或者相似系数定义。进行类别合并的准则是使得类间差异最大,而类 内差异最小。
(2)主元素分析(Principal component analysis,缩写PCA):它 是一种对数据进行分析的技术,最重要的应用是对原有数据进行简 化。正如它的名字主元素分析,这种方法可以有效的找出数据中最“主 要”的元素和结构,去除噪音和冗余,将原有的复杂数据降维,揭示隐藏 在复杂数据背后的简单结构。它的优点是简单,而且无参数限制,可以 方便的应用与各个场合。因此应用极其广泛,从神经科学到计算机图 形学都有它的用武之地。被誉为应用线形代数最价值的结果之一。本 发明采用的改进连续PCA方法是在原有PCA基础上,提出的一种快速 方法,不仅提高了主元分析中的计算速度,同时提高了计算精度。
(3)动态时间规整(Dynamic time warping,缩写DTW):动态 时间规整是一个典型的优化问题,它用满足一定条件的动态时间规整 函数描述输入模板和参考模板的时间对应关系,求解两模板匹配时累 计距离最小所对应的规整函数。
(4)典型相关分析:利用综合变量对之间的相关关系来反映两 组指标之间的整体相关性的多元统计分析方法。它的基本原理是:为 了从总体上把握两组指标之间的相关关系,分别在两组变量中提取有 代表性的两个综合变量W1和Z1(分别为两个变量组中各变量的线性 组合),利用这两个综合变量之间的相关关系来反映两组指标之间的 整体相关性。
(5)代价函数:一般来说,自动编码器的性能是由系统参数优 化决定,并且代价函数始终是自动编码器参数训练的关键因素。根据 深度学习理论,一个对象,诸如图像,可以被输入到深层网络中来提 取特征并且进行特征重构,完成任务,输入(表示为x)与其重建之 间的误差输出(表示为)需要控制到最小的值,建立一个代价函数 来描述这个误差。
(6)自动编码器:自动编码器可以看作是神经网络。这个网络 可以减小输入的维数,并将重建的信号作为输出。在深层网络中,自 动编码器始终作为自动学习对象特征的良好模式。在自动编码器训练 过程中,只有无监督的学习机制才是必需的。
本发明方法如图1所示,具体按照以下步骤实施:
步骤1:使用相应设备拍摄单目视频,拍摄速度为30帧每秒, 构建有N个类别的动态人体运动序列数据库V(1)=(V1 (1),…,VN (1))及M个 类别人体运动骨架手绘图序列数据库V(2)=(V1 (2),…,VM (2));
步骤2:提取视频V(1)的每帧图像,得到帧图像Fi=(fi1,...,fin), 其中n表示视频V(1)的帧数,对fij进行预处理,通过背景差分和肤色 模型获取出fij中运动轮廓,通过人体骨架提取法获得运动骨架;
步骤2具体按照以下步骤实施:
(21)使用Kinect获取人体运动的RGB彩色与深度图像,去除 RGB彩色与深度图像噪声,并对其进行图像校正处理;
(22)根据彩色图像背景的复杂程度采用不同方法去除背景, 获得前景彩色图像;
(23)基于前景彩色图像且依据肤色模型对脸部及手部进行定 位并将脸部及手部定位质心作为初始获取的关节点;
(24)基于学习得到的贝叶斯分类器对彩色图像前景中的运动 人体进行部件分类识别;
(25)依据分类识别结果判定肢体各刚体结构部位类别,再根 据各刚体部件的链接关系确定出各关节点,依次联接各关节点形成平 面人体骨架,结合各个关节点深度数据将平面骨架变换成三维立体骨 架。
步骤3:通过系统学习获取基于模糊c-均值聚类的代表性帧图像 数据库DRF
步骤3具体按照以下步骤实施:
(31)给定运动序列{Fi}i=1:n,其中n是帧数,使用模糊c-均值 FCM聚类方法生成代表性帧;
(32)基于帧图像Fi=(fi1,...,fin)聚类获取运动序列代表性的帧RF(1) i=(rf1 (1),…,rfk (1)),并对V(2)手绘图数据库进行聚类处理,获得手绘 图关键帧图像RF(2) j=(rf1 (2),…,rfk (2)),然后总的代表帧可以表示为 RF={rfk}k=1:c,其中rfk对应于第k个聚类中心;
(33)所有视频运动类别及手绘图所对应的代表性帧图像共同组 成人体运动代表帧图像数据库DRF={RF(1) i,RF(2) j}。
步骤4:代表性的帧图像数据库DRF通过使用自动编码器提取人 体骨胳运动图像特征;
步骤4具体按照以下步骤实施:
(41)假设自动编码器的输入为x,首先,该编码器将原始信号 x映射到特征信号z中:
z(e)=h(e)(W(e)x+b(e))
其中“(e)”是指神经网络编码层,h(e)是传递函数,W(e)是加权 矩阵,b(e)是偏置向量;
(42)解码器将特征信号z映射返回到估计中:
其中“(d)”表示第d网络层,h(d)是解码器的传递函数,W(d)是 权重矩阵,b(d)是偏置向量;
(43)建立一个代价函数来描述输入,表示为x,与其重建之间 的误差输出,表示为并需要控制误差的值最小
其中代价函数E由3部分组成,第1部分是均方 误差,第2部分l*Wweights是L2正则化,第3部分b*Wsparsity是稀疏正则 化,L2正则化系数为l,稀疏正则化系数为b,如果让L2正则化是:
其中L,n,k分别是训练数据中的隐层数,观测数和变量数,添加 一个正则化来激励稀疏项,将第i个神经元激活措施定义为:
其中n是训练样本数,xj是第j个训练样本,wi (1)T和bi (1)分别是 W(1)的第i行,偏移向量,接下来,利用Kullback Leibler发散呈现稀 疏正则化:
当ri相等,Kullback Leibler发散是0,否则,由于它们彼 此偏离,发散是较大的。
步骤5:应用画板手绘预查询的人体运动序列,首先应用自动编 码器提取手绘图序列特征,进而应用模糊聚类获取手绘图运动序列代 表帧应用DTW算法计算RFX和代表帧图像数据 库DRF距离,根据相似距离顺序排序,输出最优运动检索结果。
步骤5具体按照以下步骤实施:
(51)DTW的目的是比较两个序列和 RFY=(rf1 Y,…,rfc Y)之间的相似性,让整体匹配代价为Cp(RFX,RFY):
CP(RFX,RFY)=[dDTW(rfi X,rfj Y)]c×c
在RFX和RFY之间的一个规整路径p,被定义为本地代价度量,而dDTW(rfi X,rfj Y)是rfi X(i,j=1,…,c)之间的DTW,设定rfi X是t维向 量,并且rfi X=(x1,…,xt)和rfi X之间的DTW是:
(52)RFX和RFY之间的最佳规整路径是在所有可能的规整路径 中具有最小总成本的规整路径p*,然后定义RFX和RFY之间的距离是p*的总成本:dDTW(RFX,RFY)=Cp*(RFX,RFY);
(53)为了确定最优路径p*,使用动态规划获得最优路径,累积 成本矩阵D满足以下等式:
且n∈[1:c],D(1,m)=∑m k=1 dDTW(rf1 X,rfk Y) 有m∈[1:c],和:
D(n,m)=min{D(n-1,m-1),D(n-1,m),D(n,m-1)}+dDTW(rfn X,rfm Y),
最终优化DTW的距离是:
dDTW(RFX,RFY)=Cp*(RFX,RFY)=D(n,m)。
本发明与现有的运动检索技术相比:提出的统计学习和贝叶斯融 合(SLBF)运动相似性匹配算法首先找到代表性的帧及其对应的权 重值。基于统计学习,我们获得每个运动类别的可能性模型。为了计 算相似度距离,我们利用两种相似度测量方法,包括基于类和基于 CCA的运动相似距离测量。为了获得进一步优化的相似性距离,采 用贝叶斯融合算法并运用基于实时CCA的运动相似度距离测量来更 新基于类的相似距离预测。

Claims (5)

1.一种基于自动编码器和DTW的手绘图人体运动检索方法,其特征在于,具体按照以下步骤实施:
步骤1:使用相应设备拍摄单目视频,拍摄速度为30帧每秒,构建有N个类别的动态人体运动序列数据库及M个类别人体运动骨架手绘图序列数据库
步骤2:提取视频V(1)的每帧图像,得到帧图像Fi=(fi1,...,fin),其中n表示视频V(1)的帧数,对fij进行预处理,通过背景差分和肤色模型获取出fij中运动轮廓,通过人体骨架提取法获得运动骨架;
步骤3:通过系统学习获取基于模糊c-均值聚类的代表性帧图像数据库DRF
步骤4:代表性的帧图像数据库DRF通过使用自动编码器提取人体骨胳运动图像特征;
步骤5:应用画板手绘预查询的人体运动序列,首先应用自动编码器提取手绘图序列特征,进而应用模糊聚类获取手绘图运动序列代表帧应用DTW算法计算RFX和代表帧图像数据库DRF距离,根据相似距离顺序排序,输出最优运动检索结果。
2.根据权利要求1所述的一种基于自动编码器和DTW的手绘图人体运动检索方法,其特征在于,所述的步骤2具体按照以下步骤实施:
(21)使用Kinect获取人体运动的RGB彩色与深度图像,去除RGB彩色与深度图像噪声,并对其进行图像校正处理;
(22)根据彩色图像背景的复杂程度采用不同方法去除背景,获得前景彩色图像;
(23)基于前景彩色图像且依据肤色模型对脸部及手部进行定位并将脸部及手部定位质心作为初始获取的关节点;
(24)基于学习得到的贝叶斯分类器对彩色图像前景中的运动人体进行部件分类识别;
(25)依据分类识别结果判定肢体各刚体结构部位类别,再根据各刚体部件的链接关系确定出各关节点,依次联接各关节点形成平面人体骨架,结合各个关节点深度数据将平面骨架变换成三维立体骨架。
3.根据权利要求1所述的一种基于自动编码器和DTW的手绘图人体运动检索方法,其特征在于,所述的步骤3具体按照以下步骤实施:
(31)给定运动序列{Fi}i=1:n,其中n是帧数,使用模糊c-均值FCM聚类方法生成代表性帧;
(32)基于帧图像Fi=(fi1,...,fin)聚类获取运动序列代表性的帧并对V(2)手绘图数据库进行聚类处理,获得手绘图关键帧图像然后总的代表帧可以表示为RF={rfk}k=1:c,其中rfk对应于第k个聚类中心;
(33)所有视频运动类别及手绘图所对应的代表性帧图像共同组成人体运动代表帧图像数据库
4.根据权利要求1所述的一种基于自动编码器和DTW的手绘图人体运动检索方法,其特征在于,所述的步骤4具体按照以下步骤实施:
(41)假设自动编码器的输入为x,首先,该编码器将原始信号x映射到特征信号z中:
z(e)=h(e)(W(e)x+b(e))
其中“(e)”是指神经网络编码层,h(e)是传递函数,W(e)是加权矩阵,b(e)是偏置向量;
(42)解码器将特征信号z映射返回到估计中:
其中“(d)”表示第d网络层,h(d)是解码器的传递函数,W(d)是权重矩阵,b(d)是偏置向量;
(43)建立一个代价函数来描述输入,表示为x,与其重建之间的误差输出,表示为并需要控制误差的值最小
其中代价函数E由3部分组成,第1部分是均方误差,第2部分l*Wweights是L2正则化,第3部分b*Wsparsity是稀疏正则化,L2正则化系数为l,稀疏正则化系数为b,如果让L2正则化是:
其中L,n,k分别是训练数据中的隐层数,观测数和变量数,添加一个正则化来激励稀疏项,将第i个神经元激活措施定义为:
其中n是训练样本数,xj是第j个训练样本,wi (1)T和bi (1)分别是W(1)的第i行,偏移向量,接下来,利用Kullback Leibler发散呈现稀疏正则化:
当ri相等,Kullback Leibler发散是0,否则,由于它们彼此偏离,发散是较大的。
5.根据权利要求1所述的一种基于自动编码器和DTW的手绘图人体运动检索方法,其特征在于,所述的步骤5具体按照以下步骤实施:
(51)DTW的目的是比较两个序列和RFY=(rf1 Y,…,rfc Y)之间的相似性,让整体匹配代价为Cp(RFX,RFY):
CP(RFX,RFY)=[dDTW(rfi X,rfj Y)]c×c
在RFX和RFY之间的一个规整路径p,被定义为本地代价度量,而dDTW(rfi X,rfj Y)是rfi X之间的DTW,设定rfi X是t维向量,并且rfi X=(x1,…,xt)和rfi X之间的DTW是:
(52)RFX和RFY之间的最佳规整路径是在所有可能的规整路径中具有最小总成本的规整路径p*,然后定义RFX和RFY之间的距离是p *的总成本:dDTW(RFX,RFY)=Cp*(RFX,RFY);
(53)为了确定最优路径p*,使用动态规划获得最优路径,累积成本矩阵D满足以下等式:
且n∈[1:c],D(1,m)=∑m k=1dDTW(rf1 X,rfk Y)有m∈[1:c],和:
D(n,m)=min{D(n-1,m-1),D(n-1,m),D(n,m-1)}+dDTW(rfn X,rfm Y),
最终优化DTW的距离是:
dDTW(RFX,RFY)=Cp*(RFX,RFY)=D(n,m)。
CN201710377338.2A 2017-05-25 2017-05-25 一种基于自动编码器和dtw的手绘图人体运动检索方法 Expired - Fee Related CN107169117B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710377338.2A CN107169117B (zh) 2017-05-25 2017-05-25 一种基于自动编码器和dtw的手绘图人体运动检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710377338.2A CN107169117B (zh) 2017-05-25 2017-05-25 一种基于自动编码器和dtw的手绘图人体运动检索方法

Publications (2)

Publication Number Publication Date
CN107169117A true CN107169117A (zh) 2017-09-15
CN107169117B CN107169117B (zh) 2020-11-10

Family

ID=59821593

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710377338.2A Expired - Fee Related CN107169117B (zh) 2017-05-25 2017-05-25 一种基于自动编码器和dtw的手绘图人体运动检索方法

Country Status (1)

Country Link
CN (1) CN107169117B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107877512A (zh) * 2017-09-29 2018-04-06 北京理工大学 一种机器鼠与实验鼠运动相似性评价方法
CN109146246A (zh) * 2018-05-17 2019-01-04 清华大学 一种基于自动编码器和贝叶斯网络的故障检测方法
CN110222634A (zh) * 2019-06-04 2019-09-10 河海大学常州校区 一种基于卷积神经网络的人体姿态识别方法
CN110674347A (zh) * 2019-09-02 2020-01-10 南京邮电大学 视觉屏蔽双层ap视频摘要生成方法
CN112925936A (zh) * 2021-02-22 2021-06-08 济南大学 一种基于深度哈希的运动捕获数据检索方法及系统
CN116189310A (zh) * 2022-11-16 2023-05-30 北京理工大学 一种提供人体运动数据集的方法及电子设备
CN116630481A (zh) * 2023-07-25 2023-08-22 天津象小素科技有限公司 一种基于ai绘图的绘画路径优化方法及系统
CN116701907A (zh) * 2023-05-31 2023-09-05 西安工业大学 一种基于自适应图扩散的判别多标签特征选择方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050201465A1 (en) * 2001-03-05 2005-09-15 Chang-Su Kim Systems and methods for encoding redundant motion vectors in compressed video bitstreams
CN102222237A (zh) * 2011-07-14 2011-10-19 北京工业大学 手语视频的相似度评估模型的建立方法
US20130301742A1 (en) * 2012-05-14 2013-11-14 Qualcomm Incorporated Unified fractional search and motion compensation architecture across multiple video standards
CN104050488A (zh) * 2014-06-16 2014-09-17 西安工业大学 一种基于切换的卡尔曼滤波模型的手势识别方法
CN104268285A (zh) * 2014-10-21 2015-01-07 厦门大学 一种基于动态弯曲算法的运动捕捉数据库检索方法
US8948501B1 (en) * 2009-12-22 2015-02-03 Hrl Laboratories, Llc Three-dimensional (3D) object detection and multi-agent behavior recognition using 3D motion data
CN105005787A (zh) * 2015-06-24 2015-10-28 清华大学 一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法
CN105894008A (zh) * 2015-01-16 2016-08-24 广西卡斯特动漫有限公司 结合特征点匹配及深度神经网络检测的目标运动跟踪方法
CN106203350A (zh) * 2016-07-12 2016-12-07 北京邮电大学 一种运动目标跨尺度跟踪方法和装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050201465A1 (en) * 2001-03-05 2005-09-15 Chang-Su Kim Systems and methods for encoding redundant motion vectors in compressed video bitstreams
US8948501B1 (en) * 2009-12-22 2015-02-03 Hrl Laboratories, Llc Three-dimensional (3D) object detection and multi-agent behavior recognition using 3D motion data
CN102222237A (zh) * 2011-07-14 2011-10-19 北京工业大学 手语视频的相似度评估模型的建立方法
US20130301742A1 (en) * 2012-05-14 2013-11-14 Qualcomm Incorporated Unified fractional search and motion compensation architecture across multiple video standards
CN104050488A (zh) * 2014-06-16 2014-09-17 西安工业大学 一种基于切换的卡尔曼滤波模型的手势识别方法
CN104268285A (zh) * 2014-10-21 2015-01-07 厦门大学 一种基于动态弯曲算法的运动捕捉数据库检索方法
CN105894008A (zh) * 2015-01-16 2016-08-24 广西卡斯特动漫有限公司 结合特征点匹配及深度神经网络检测的目标运动跟踪方法
CN105005787A (zh) * 2015-06-24 2015-10-28 清华大学 一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法
CN106203350A (zh) * 2016-07-12 2016-12-07 北京邮电大学 一种运动目标跨尺度跟踪方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
谢艳梅: "融合深度图和三维模型的人体运动捕获技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107877512A (zh) * 2017-09-29 2018-04-06 北京理工大学 一种机器鼠与实验鼠运动相似性评价方法
CN109146246A (zh) * 2018-05-17 2019-01-04 清华大学 一种基于自动编码器和贝叶斯网络的故障检测方法
CN109146246B (zh) * 2018-05-17 2021-06-04 清华大学 一种基于自动编码器和贝叶斯网络的故障检测方法
CN110222634A (zh) * 2019-06-04 2019-09-10 河海大学常州校区 一种基于卷积神经网络的人体姿态识别方法
CN110222634B (zh) * 2019-06-04 2022-11-01 河海大学常州校区 一种基于卷积神经网络的人体姿态识别方法
CN110674347B (zh) * 2019-09-02 2022-04-01 南京邮电大学 视觉屏蔽双层ap视频摘要生成方法
CN110674347A (zh) * 2019-09-02 2020-01-10 南京邮电大学 视觉屏蔽双层ap视频摘要生成方法
CN112925936A (zh) * 2021-02-22 2021-06-08 济南大学 一种基于深度哈希的运动捕获数据检索方法及系统
CN112925936B (zh) * 2021-02-22 2022-08-12 济南大学 一种基于深度哈希的运动捕获数据检索方法及系统
CN116189310A (zh) * 2022-11-16 2023-05-30 北京理工大学 一种提供人体运动数据集的方法及电子设备
CN116189310B (zh) * 2022-11-16 2024-01-23 北京理工大学 一种提供人体运动数据集的方法及电子设备
CN116701907A (zh) * 2023-05-31 2023-09-05 西安工业大学 一种基于自适应图扩散的判别多标签特征选择方法
CN116701907B (zh) * 2023-05-31 2023-12-08 西安工业大学 一种基于自适应图扩散的判别多标签特征选择方法
CN116630481A (zh) * 2023-07-25 2023-08-22 天津象小素科技有限公司 一种基于ai绘图的绘画路径优化方法及系统
CN116630481B (zh) * 2023-07-25 2023-10-13 天津象小素科技有限公司 一种基于ai绘图的绘画路径优化方法及系统

Also Published As

Publication number Publication date
CN107169117B (zh) 2020-11-10

Similar Documents

Publication Publication Date Title
CN107169117A (zh) 一种基于自动编码器和dtw的手绘图人体运动检索方法
Kim et al. Efficient facial expression recognition algorithm based on hierarchical deep neural network structure
CN108510012B (zh) 一种基于多尺度特征图的目标快速检测方法
CN107480261B (zh) 一种基于深度学习细粒度人脸图像快速检索方法
CN107122809B (zh) 基于图像自编码的神经网络特征学习方法
CN106778854B (zh) 基于轨迹和卷积神经网络特征提取的行为识别方法
CN107203753B (zh) 一种基于模糊神经网络和图模型推理的动作识别方法
Zhan et al. Face detection using representation learning
CN106126581A (zh) 基于深度学习的手绘草图图像检索方法
CN109033978B (zh) 一种基于纠错策略的cnn-svm混合模型手势识别方法
CN111709311A (zh) 一种基于多尺度卷积特征融合的行人重识别方法
CN108764019A (zh) 一种基于多源深度学习的视频事件检测方法
CN109710804B (zh) 一种教学视频图像知识点降维分析方法
CN114299559A (zh) 基于轻量级融合全局与局部特征网络的指静脉识别方法
CN111984817B (zh) 一种基于自注意力机制加权的细粒度图像检索方法
CN104809469A (zh) 一种面向服务机器人的室内场景图像分类方法
CN106548194B (zh) 二维图像人体关节点定位模型的构建方法及定位方法
CN114898151A (zh) 一种基于深度学习与支持向量机融合的图像分类方法
CN113963032A (zh) 一种融合目标重识别的孪生网络结构目标跟踪方法
Sun et al. An improved CNN-based apple appearance quality classification method with small samples
CN112883931A (zh) 基于长短期记忆网络的实时真假运动判断方法
CN113807176A (zh) 一种基于多知识融合的小样本视频行为识别方法
Jin et al. Cvt-assd: convolutional vision-transformer based attentive single shot multibox detector
Kowdiki et al. Adaptive hough transform with optimized deep learning followed by dynamic time warping for hand gesture recognition
Syrris et al. A lattice-based neuro-computing methodology for real-time human action recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20201110

Termination date: 20210525