CN103246884A - 基于深度图像序列的实时人体动作识别方法及装置 - Google Patents
基于深度图像序列的实时人体动作识别方法及装置 Download PDFInfo
- Publication number
- CN103246884A CN103246884A CN2013101929612A CN201310192961A CN103246884A CN 103246884 A CN103246884 A CN 103246884A CN 2013101929612 A CN2013101929612 A CN 2013101929612A CN 201310192961 A CN201310192961 A CN 201310192961A CN 103246884 A CN103246884 A CN 103246884A
- Authority
- CN
- China
- Prior art keywords
- action
- posture
- training
- outline
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及模式识别技术领域,具体涉及一种基于深度图像序列的实时人体动作识别方法及装置。该方法包括步骤:S1.从目标深度图像序列中提取目标动作剪影,从训练深度图像集中提取训练动作剪影;S2.对训练动作剪影进行姿势聚类,并对聚类结果进行动作标定;S3.计算目标动作剪影以及训练动作剪影的姿势特征;S4.结合训练动作剪影的姿势特征进行基于高斯混合模型的姿势训练并构建姿势模型;S5.计算聚类结果的每个动作中各姿势间的转移概率并构建动作图模型;S6.根据所述目标动作剪影的姿势特征、姿势模型以及动作图模型对目标深度图像序列进行动作识别。本发明的方法提升了动作识别的效率及动作识别的准确性和鲁棒性。
Description
技术领域
本发明涉及模式识别技术领域,具体涉及一种基于深度图像序列的实时人体动作识别方法及装置。
背景技术
随着现代信息技术向智能化、人性化的方向发展,各种人机交互、虚拟现实、智能监控系统相继出现。基于计算机视觉的人体姿势估计、动作识别、行为理解等技术在其中扮演了重要的角色。近年来,微软公司Kinect深度摄像机的发布,使得实时获取场景三维信息的成本大幅度降低,也为动作识别相关领域提供了更多可能性。然而,由于人体的非刚性、运动方式的多样性、位移的随意性,实时、鲁棒地识别人体动作仍面临着很多挑战。
现有技术中,对于深度图像的动作识别主要有两大类方法:一类是借用已有工具,例如Microsoft Kinect SDK等直接获取人体关节点或骨架信息,再使用传统的模式识别算法进行识别;另一类是从原始深度图像数据中提取图像特征。前者虽然实施方便,但难以在自主研发的产品中使用,而且识别性能主要受制于骨架提取工具的准确性。后者按照分类算法可分为运动模板匹配(Action template)和状态空间方法(Temporal state-space models)。运动模板匹配也称为直接分类,是将一组图像序列看成一个静态的形状模式,其存在难以准确描述动作的动态过程的缺陷;状态空间方法是将动作视为一系列姿势或状态之间的动态转移过程,以此建立概率模型,如隐马尔可夫模型(HiddenMarkov Models,HMM)、条件随机场模型(Conditional Random Fields,CRF)、最大熵马尔可夫模型(Maximum Entropy Markov Models,MEMM)等。
目前,对于深度图像动作识别的研究还非常有限,现有技术存在一个共同的缺点:由于提取的特征与人体区域的绝对坐标相关,因此在识别前必须进行归一化,需准确地检测目标人体在图像中的位置和大小。然而在实际应用场合中,用户的运动具有很大的随意性,尤其是复杂的动作可能伴随着身体的平移、倾斜或者高度的变化等等,经常导致归一化的偏差,进而影响识别准确率;而且,现有技术中深度图像动作识别方法的识别效率仍有待提高。
发明内容
(一)要解决的技术问题
本发明的目的在于提供一种基于深度图像序列的实时人体动作识别方法,用于提升动作识别的效率以及动作识别的准确性和鲁棒性;进一步的,本发明还提供了一种基于深度图像序列的实时人体动作识别装置。
(二)技术方案
本发明技术方案如下:
一种基于深度图像序列的实时人体动作识别方法,包括步骤:
S1.从目标深度图像序列中提取目标动作剪影,从训练深度图像集中提取训练动作剪影;
S2.对训练动作剪影进行姿势聚类,并对聚类结果进行动作标定;
S3.计算目标动作剪影以及训练动作剪影的姿势特征;
S4.结合训练动作剪影的姿势特征进行基于高斯混合模型的姿势训练并构建姿势模型;
S5.计算聚类结果的每个动作中各姿势间的转移概率并构建动作图模型;
S6.根据所述目标动作剪影的姿势特征、姿势模型以及动作图模型对目标深度图像序列进行动作识别。
优选的,所述步骤S3包括:
S31.将动作剪影在直角坐标系的三个坐标平面分别投影;
S32.在第c个坐标平面的投影轮廓上选取nc个采样点;
S34.每个坐标平面上所有采样点的多维姿势特征向量的集合xc组成姿势特征{xc}。
优选的,所述步骤S33包括:
其中,fc表示第c个坐标平面上所有采样点的集合。
优选的,所述同心圆的直径根据fc中各采样点距离的平均值l设置。
优选的,a=12,b=5,k=60;所述同心圆的直径分别为0.125l、0.25l、0.5l、l、2l。
优选的,所述步骤S4包括:
将训练动作剪影在第c个坐标平面上投影的姿势模型分量p(xc|ωc)用Qc个高斯分布的混合表示:
构建姿势模型:
优选的,所述动作图模型包括若干带权有向图;每个带权有向图对应一种动作;带权有向图中的一个节点表示一种姿势,带权边线表示两种姿势间的转移概率。
优选的,所述步骤S6包括:
S61.计算每一帧目标深度图像当前最有可能的姿势序列:
S62.令h表示最优姿势序列s*与次优姿势序列的概率的差值;
S63.设定区分度阈值HA;
S64.随着输入帧数的增加,h增大到HA时,认为姿势序列可以表达一个动作;
S65.在训练动作集中找出使s*出现概率最大的动作。
优选的,所述步骤S65包括:
计算动作ψi中产生s*的概率
本发明还提供了一种实现上述任意一种基于深度图像序列的实时人体动作识别方法的装置:
一种基于深度图像序列的实时人体动作识别装置,包括:
动作剪影提取模块,用于从目标深度图像序列中提取目标动作剪影,从训练深度图像集中提取训练动作剪影;
特征提取模块,用于计算目标动作剪影以及训练动作剪影的姿势特征;
姿势模型构建模块,用于结合训练动作剪影的姿势特征进行基于高斯混合模型的姿势训练并构建姿势模型;
动作图模型构建模块,用于对训练动作剪影进行姿势聚类,并对聚类结果进行动作标定,计算聚类结果的每个动作中各姿势间的转移概率并构建动作图模型;
动作识别模块,根据所述目标动作剪影的姿势特征、姿势模型以及动作图模型对目标深度图像序列进行动作识别。
(三)有益效果
本发明实施例中所提供的基于深度图像序列的实时人体动作识别方法,在特征提取方面,利用具有尺度及位移不变性的三维形状描述子进行姿势特征计算,免除了归一化步骤,避免了因位置检测错误而造成动作识别的失败;利用高斯混合模型来描述高维姿势特征的分布,对于具有身体起伏或平移的复杂动作,具有很强的概括能力;在动作的训练和识别方面,基于动作图模型进行匹配,达到了高效、鲁棒的性能,更能够满足动作识别实时性的需求。
附图说明
图1是本发明实施例中基于深度图像序列的实时人体动作识别方法的流程示意图;
图2是本发明实施例中三维形状描述子提取流程示意图;
图3是本发明实施例中形状描述子的计算示意图;
图4是本发明实施例中组成“挥手”和“体前摆手”动作的6种姿势示意图;
图5是本发明实施例中挥手动作的动作图;
图6是本发明实施例中体前摆手动作的动作图;
图7是本发明实施例中基于深度图像序列的实时人体动作识别装置的结构示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式做进一步描述。以下实施例仅用于说明本发明,但不用来限制本发明的范围。
流程图如图1所示的一种基于深度图像序列的实时人体动作识别方法,主要包括步骤:
S1.从深度摄像机等硬件设备采集的目标深度图像序列中,通过背景建模、图像分割等技术,精确地分割出人体区域,提取目标动作剪影R,例如,如图2中第一列所示;并且以同样的方法从训练深度图像集中提取训练动作剪影。
S2.对训练动作剪影进行姿势聚类,并对聚类结果进行动作标定;即将训练动作剪影中的各个姿势归类到所属动作之中。
S3.计算目标动作剪影以及训练动作剪影的姿势特征;本实施例中,该步骤S3主要包括:
S31.将动作剪影在直角坐标系的三个坐标平面分别投影。将动作剪影投影到三个相互正交的提卡尔坐标系平面,即X-Y坐标平面,Y-Z坐标平面和X-Z坐标平面,例如,如图2中的第二列所示。
S32.在第c个坐标平面的投影轮廓上选取nc个采样点,其中,以c表示投影平面编号,c=1,2,3分别表示X-Y坐标平面,X-Z坐标平面和Y-Z坐标平面。该步骤具体可以为:在三个坐标平面上的投影的轮廓上分别随机选取一定数量的采样点,例如,如图2中第三列所示。由于分辨率限制,Y-Z坐标平面和X-Z坐标平面的投影比较稀疏,故采样点也较少,因此,仅在X-Y坐标平面轮廓上选取1%的点作为采样点,在Y-Z坐标平面和X-Z坐标平面选取10%的点的作为采样点,就可以获取丰富的三维人体形状信息。
以采样点为中心的a条辐线和以采样点为圆心的b个同心圆形成k个网格;其中,所述同心圆的直径优选根据fc中各采样点距离的平均值l设置;例如,在半径r方向取5个长度值,即取5个同心圆,半径分别为0.125l、0.25l、0.5l、l、2l,在角度方向平均取12个角度值,即取12条辐线,最后形成60个网格;采样点和其所在的第c个坐标平面上的其他采样点qc相对于的坐标分布则可以相应的表示成为一个60维姿势特征向量;进一步的,可以把这个姿势特征向量视为在60维空间中的一个点;具体的,这个60维姿势特征向量中的元素为:
S34.每个坐标平面上所有采样点的多维姿势特征向量的集合xc组成姿势特征{xc}。对于第c个坐标平面上的投影轮廓上的nc个采样点,可以得到一个包含nc个60维姿势特征向量的集合,即 例如,如图2的第四列所示。本实施例中定义三个投影平面所有采样点的形状描述子的集合,即姿势特征x={x1,x2,x3},为三维形状描述子(3D Shape Context)。从公式(1)中可以看出,由于三维形状描述子统计的是采样点之间的相对位置,因此对不同身高、站在不同位置的人的描述具有一致性。同时,由于对轮廓上的每个采样点都赋予了60维的特征,三维形状描述子带有更为丰富的形状信息,因此具有位移及尺度不变性,能够描述更为精细的姿势,免了因位置检测错误而造成的识别失败。
S4.结合训练动作剪影的姿势特征进行基于高斯混合模型的姿势训练并构建姿势模型;假设同一姿势的训练集中,所有三维形状描述子的分布可以用Q个高斯分布的混合来估计,即高斯混合模型GMM。对于一个被训练的三维姿势ω,其在X-Y、X-Z、Y-Z三个投影平面上的“投影姿势”分别为ω1、ω2、ω3。三个投影姿势的模型共同决定了该三维姿势的模型。设一个目标动作剪影的三维形状描述子集合为x,x={x1,x2,x3},则p(x|ω)给出了目标动作剪影x与姿势ω匹配的似然概率。p(x|ω)即为要训练的姿势模型,它可以表示为三个投影姿势模型的乘积:
其中,每个投影姿势模型p(xc|ωc)是Qc个高斯分布的混合:
N(·)是一个高斯函数,xc表示第c个坐标平面上nc个采样点的形状描述子的集合,表示xc中第i个采样点的形状描述子, 分别是第t个高斯核的均值、协方差矩阵及权重。这些关于模型的参数可通过EM算法(Expectation andMaximization,最大期望算法)在训练集上训练得到。在算法的实际实现中,本实施例中使用主分量分析对三维形状描述子进行降维处理。
S5.根据步骤S2中的聚类结果,计算聚类结果中每个动作中各姿势间的转移概率并构建动作图模型,利用动作图模型对动作的动态转移过程进行建模。设Ψ={ψ1,ψ2...,ψL}代表训练集中L种动作(Action)的集合;令Ω={ω1,ω2,...ωM}代表M种姿势(Posture)的集合,例如,如图4中所示的6种姿势ω1、ω2、ω3、ω4、ω5、ω6的集合;令Λ={p(x|ω1),p(x|ω2),...p(x|ωM)}表示训练后的姿势模型集合。建立一组带权有向图G,每个带权有向图概括了一种动作,带权有向图的节点代表姿势,节点间的带权边线表示在该动作中,两种姿势之间的转移概率,例如,如图5或者图6中所示;本实施例中,定义从“直立”姿势经过若干其他姿势再回到“直立”姿势的过程为一个动作循环,每种动作有多种可能的动作循环路径;图5中所示为挥手的动作图,其中包括姿势ω1,ω2,ω3,ω4,ω5,根据各姿势间的转移概率,可能存在多种动作循环路径;图6中所示为体前摆手的动作图,其中包括姿势ω1,ω2,ω5,ω6,根据各姿势间的转移概率,可能存在多种动作循环路径。相比于现有技术中基于轮廓点匹配或特征矩阵匹配的方法,本实施例从统计学角度进行姿势建模更高效,更能满足实时性要求。
S6.根据所述目标动作剪影的姿势特征、姿势模型以及动作图模型对目标深度图像序列进行动作识别。通过训练,得到可进行动作识别的系统Γ={Ω,Λ,G,Ψ}。用X={x1,x2,...xT}表示一个以直立姿势为起始和结束的输入序列,本实施例中,用最大似然概率方法进行图路径的解码。在每帧目标深度图像输入时,计算该帧目标深度图像当前最有可能的姿势序列:
S62.令h表示最优姿势序列s*与次优姿势序列s*'的概率的差值;
S63.设定区分度阈值HA;
S64.随着输入帧数的增加,当h增大到HA时,认为姿势序列可以表达一个动作;
S65.在训练动作集Ψ={ψ1,ψ2,...ψL}中找出使s*出现概率最大的动作:
动作ψi中产生s*的概率
本实施例中还提供了一种实现上述基于深度图像序列的实时人体动作识别方法的装置;如图7中所示,该装置主要包括动作剪影提取模块、特征提取模块、姿势模型构建模块、动作图模型构建模块以及动作识别模块;其中:动作剪影提取模块,用于从目标深度图像序列中提取目标动作剪影,从训练深度图像集中提取训练动作剪影;
特征提取模块,用于计算目标动作剪影以及训练动作剪影的姿势特征;
姿势模型构建模块,用于结合训练动作剪影的姿势特征进行基于高斯混合模型的姿势训练并构建姿势模型;
动作图模型构建模块,用于对训练动作剪影进行姿势聚类,并对聚类结果进行动作标定,计算聚类结果的每个动作中各姿势间的转移概率并构建动作图模型;
动作识别模块,根据所述目标动作剪影的姿势特征、姿势模型以及动作图模型对目标深度图像序列进行动作识别。
以上实施方式仅用于说明本发明,而并非对本发明的限制,有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本发明的保护范畴。
Claims (10)
1.一种基于深度图像序列的实时人体动作识别方法,其特征在于,包括步骤:
S1.从目标深度图像序列中提取目标动作剪影,从训练深度图像集中提取训练动作剪影;
S2.对训练动作剪影进行姿势聚类,并对聚类结果进行动作标定;
S3.计算目标动作剪影以及训练动作剪影的姿势特征;
S4.结合训练动作剪影的姿势特征进行基于高斯混合模型的姿势训练并构建姿势模型;
S5.计算聚类结果的每个动作中各姿势间的转移概率并构建动作图模型;
S6.根据所述目标动作剪影的姿势特征、姿势模型以及动作图模型对目标深度图像序列进行动作识别。
4.根据权利要求3所述的实时人体动作识别方法,其特征在于,所述同心圆的直径根据fc中各采样点距离的平均值l设置。
5.根据权利要求4所述的实时人体动作识别方法,其特征在于,a=12,b=5,k=60;所述同心圆的直径分别为0.125l、0.25l、0.5l、l、2l。
7.根据权利要求6所述的实时人体动作识别方法,其特征在于,所述动作图模型包括若干带权有向图;每个带权有向图对应一种动作;带权有向图中的一个节点表示一种姿势,带权边线表示两种姿势间的转移概率。
8.根据权利要求7所述的实时人体动作识别方法,其特征在于,所述步骤S6包括:
S61.计算每一帧目标深度图像当前最有可能的姿势序列:
S62.令h表示最优姿势序列s*与次优姿势序列的概率的差值;
S63.设定区分度阈值HA;
S64.随着输入帧数的增加,h增大到HA时,认为姿势序列可以表达一个动作;
S65.在训练动作集中找出使s*出现概率最大的动作。
10.一种实现权利要求1-9任意一项所述的基于深度图像序列的实时人体动作识别方法的装置,其特征在于,包括:
动作剪影提取模块,用于从目标深度图像序列中提取目标动作剪影,从训练深度图像集中提取训练动作剪影;
特征提取模块,用于计算目标动作剪影以及训练动作剪影的多维姿势特征;
姿势模型构建模块,用于结合训练动作剪影的多维姿势特征进行基于高斯混合模型的姿势训练并构建姿势模型;
动作图模型构建模块,用于对训练动作剪影进行姿势聚类,并对聚类结果进行动作标定,计算聚类结果的每个动作中各姿势间的转移概率并构建动作图模型;
动作识别模块,根据所述目标动作剪影的多维姿势特征、姿势模型以及动作图模型对目标深度图像序列进行动作识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310192961.2A CN103246884B (zh) | 2013-05-22 | 2013-05-22 | 基于深度图像序列的实时人体动作识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310192961.2A CN103246884B (zh) | 2013-05-22 | 2013-05-22 | 基于深度图像序列的实时人体动作识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103246884A true CN103246884A (zh) | 2013-08-14 |
CN103246884B CN103246884B (zh) | 2016-08-10 |
Family
ID=48926397
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310192961.2A Active CN103246884B (zh) | 2013-05-22 | 2013-05-22 | 基于深度图像序列的实时人体动作识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103246884B (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103473562A (zh) * | 2013-09-18 | 2013-12-25 | 柳州市博源环科科技有限公司 | 特定人体动作的自动训练和识别系统 |
CN103489000A (zh) * | 2013-09-18 | 2014-01-01 | 柳州市博源环科科技有限公司 | 一种人体动作识别训练系统的实现方法 |
CN103616952A (zh) * | 2013-12-03 | 2014-03-05 | 北京悦动双成科技有限公司 | 确定动作的方法及三维传感器 |
CN104517097A (zh) * | 2014-09-24 | 2015-04-15 | 浙江大学 | 一种基于kinect的运动人体姿态识别方法 |
CN104809325A (zh) * | 2014-01-26 | 2015-07-29 | 国际商业机器公司 | 用于检测事件日志和过程模型之间的区别的方法和装置 |
CN104978583A (zh) * | 2014-04-11 | 2015-10-14 | 北京数码视讯科技股份有限公司 | 人物动作的识别方法及装置 |
CN105354528A (zh) * | 2015-07-15 | 2016-02-24 | 中国科学院深圳先进技术研究院 | 基于深度图像序列的人体动作识别的方法及系统 |
CN105373810A (zh) * | 2015-11-12 | 2016-03-02 | 清华大学 | 一种用于建立动作识别模型的方法及系统 |
CN105574494A (zh) * | 2015-12-11 | 2016-05-11 | 清华大学 | 一种多分类器姿势识别方法及装置 |
CN105573890A (zh) * | 2015-12-15 | 2016-05-11 | 浪潮软件股份有限公司 | 一种守护服务器的进程的方法及装置 |
CN106776757A (zh) * | 2016-11-15 | 2017-05-31 | 中国银行股份有限公司 | 用户完成网银操作的指示方法及装置 |
WO2018058419A1 (zh) * | 2016-09-29 | 2018-04-05 | 中国科学院自动化研究所 | 二维图像人体关节点定位模型的构建方法及定位方法 |
WO2018119606A1 (en) * | 2016-12-26 | 2018-07-05 | Bayerische Motoren Werke Aktiengesellschaft | Method and apparatus for representing a map element and method and apparatus for locating vehicle/robot |
CN108305283A (zh) * | 2018-01-22 | 2018-07-20 | 清华大学 | 基于深度相机和基本姿势的人体行为识别方法及装置 |
CN108344738A (zh) * | 2018-01-22 | 2018-07-31 | 翰飞骏德(北京)医疗科技有限公司 | 用于羟磷灰石的成像方法及其装置 |
CN108876837A (zh) * | 2018-04-19 | 2018-11-23 | 宁波大学 | 一种基于l1/2正则化的三维人体姿态重构方法 |
CN109635783A (zh) * | 2019-01-02 | 2019-04-16 | 上海数迹智能科技有限公司 | 视频监控方法、装置、终端和介质 |
CN114742820A (zh) * | 2022-05-11 | 2022-07-12 | 西南交通大学 | 一种基于深度学习的螺栓松动检测方法、系统及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101216896A (zh) * | 2008-01-14 | 2008-07-09 | 浙江大学 | 一种基于模版匹配的视点无关的人体动作识别方法 |
US20100215257A1 (en) * | 2009-02-25 | 2010-08-26 | Honda Motor Co., Ltd. | Capturing and recognizing hand postures using inner distance shape contexts |
CN101833763A (zh) * | 2010-04-28 | 2010-09-15 | 天津大学 | 一种水面倒影图像检测方法 |
CN102722721A (zh) * | 2012-05-25 | 2012-10-10 | 山东大学 | 一种基于机器视觉的人体跌倒检测方法 |
-
2013
- 2013-05-22 CN CN201310192961.2A patent/CN103246884B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101216896A (zh) * | 2008-01-14 | 2008-07-09 | 浙江大学 | 一种基于模版匹配的视点无关的人体动作识别方法 |
US20100215257A1 (en) * | 2009-02-25 | 2010-08-26 | Honda Motor Co., Ltd. | Capturing and recognizing hand postures using inner distance shape contexts |
CN101833763A (zh) * | 2010-04-28 | 2010-09-15 | 天津大学 | 一种水面倒影图像检测方法 |
CN102722721A (zh) * | 2012-05-25 | 2012-10-10 | 山东大学 | 一种基于机器视觉的人体跌倒检测方法 |
Non-Patent Citations (2)
Title |
---|
GUIJIN WANG等: "Depth estimation for speckle projection system using progressive reliable points growing matching", 《APPLIED OPTICS》 * |
何贝 等: "结合Kinect深度图的快速视频抠图算法", 《清华大学学报(自然科学版) 》 * |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103473562A (zh) * | 2013-09-18 | 2013-12-25 | 柳州市博源环科科技有限公司 | 特定人体动作的自动训练和识别系统 |
CN103489000A (zh) * | 2013-09-18 | 2014-01-01 | 柳州市博源环科科技有限公司 | 一种人体动作识别训练系统的实现方法 |
CN103616952A (zh) * | 2013-12-03 | 2014-03-05 | 北京悦动双成科技有限公司 | 确定动作的方法及三维传感器 |
CN103616952B (zh) * | 2013-12-03 | 2017-08-08 | 北京悦动双成科技有限公司 | 确定动作的方法及三维传感器 |
US10452987B2 (en) | 2014-01-26 | 2019-10-22 | International Business Machines Corporation | Detecting deviations between event log and process model |
CN104809325A (zh) * | 2014-01-26 | 2015-07-29 | 国际商业机器公司 | 用于检测事件日志和过程模型之间的区别的方法和装置 |
US11514348B2 (en) | 2014-01-26 | 2022-11-29 | International Business Machines Corporation | Detecting deviations between event log and process model |
US11354588B2 (en) | 2014-01-26 | 2022-06-07 | International Business Machines Corporation | Detecting deviations between event log and process model |
US10474956B2 (en) | 2014-01-26 | 2019-11-12 | International Business Machines Corporation | Detecting deviations between event log and process model |
US10417569B2 (en) | 2014-01-26 | 2019-09-17 | International Business Machines Corporation | Detecting deviations between event log and process model |
US10467539B2 (en) | 2014-01-26 | 2019-11-05 | International Business Machines Corporation | Detecting deviations between event log and process model |
CN104978583A (zh) * | 2014-04-11 | 2015-10-14 | 北京数码视讯科技股份有限公司 | 人物动作的识别方法及装置 |
CN104978583B (zh) * | 2014-04-11 | 2018-07-03 | 北京数码视讯科技股份有限公司 | 人物动作的识别方法及装置 |
CN104517097A (zh) * | 2014-09-24 | 2015-04-15 | 浙江大学 | 一种基于kinect的运动人体姿态识别方法 |
CN105354528A (zh) * | 2015-07-15 | 2016-02-24 | 中国科学院深圳先进技术研究院 | 基于深度图像序列的人体动作识别的方法及系统 |
CN105373810A (zh) * | 2015-11-12 | 2016-03-02 | 清华大学 | 一种用于建立动作识别模型的方法及系统 |
CN105574494A (zh) * | 2015-12-11 | 2016-05-11 | 清华大学 | 一种多分类器姿势识别方法及装置 |
CN105574494B (zh) * | 2015-12-11 | 2020-01-17 | 清华大学 | 一种多分类器姿势识别方法及装置 |
CN105573890A (zh) * | 2015-12-15 | 2016-05-11 | 浪潮软件股份有限公司 | 一种守护服务器的进程的方法及装置 |
WO2018058419A1 (zh) * | 2016-09-29 | 2018-04-05 | 中国科学院自动化研究所 | 二维图像人体关节点定位模型的构建方法及定位方法 |
CN106776757B (zh) * | 2016-11-15 | 2020-03-27 | 中国银行股份有限公司 | 用户完成网银操作的指示方法及装置 |
CN106776757A (zh) * | 2016-11-15 | 2017-05-31 | 中国银行股份有限公司 | 用户完成网银操作的指示方法及装置 |
US11567496B2 (en) | 2016-12-26 | 2023-01-31 | Bayerische Motoren Werke Aktiengesellschaft | Method and apparatus for optimizing scan data and method and apparatus for correcting trajectory |
WO2018119606A1 (en) * | 2016-12-26 | 2018-07-05 | Bayerische Motoren Werke Aktiengesellschaft | Method and apparatus for representing a map element and method and apparatus for locating vehicle/robot |
CN108305283A (zh) * | 2018-01-22 | 2018-07-20 | 清华大学 | 基于深度相机和基本姿势的人体行为识别方法及装置 |
CN108344738A (zh) * | 2018-01-22 | 2018-07-31 | 翰飞骏德(北京)医疗科技有限公司 | 用于羟磷灰石的成像方法及其装置 |
CN108876837B (zh) * | 2018-04-19 | 2021-09-14 | 宁波大学 | 一种基于l1/2正则化的三维人体姿态重构方法 |
CN108876837A (zh) * | 2018-04-19 | 2018-11-23 | 宁波大学 | 一种基于l1/2正则化的三维人体姿态重构方法 |
CN109635783A (zh) * | 2019-01-02 | 2019-04-16 | 上海数迹智能科技有限公司 | 视频监控方法、装置、终端和介质 |
CN114742820A (zh) * | 2022-05-11 | 2022-07-12 | 西南交通大学 | 一种基于深度学习的螺栓松动检测方法、系统及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN103246884B (zh) | 2016-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103246884A (zh) | 基于深度图像序列的实时人体动作识别方法及装置 | |
Rahmani et al. | Histogram of oriented principal components for cross-view action recognition | |
Kitsikidis et al. | Dance analysis using multiple kinect sensors | |
Song et al. | Body surface context: A new robust feature for action recognition from depth videos | |
CN106909877A (zh) | 一种基于点线综合特征的视觉同时建图与定位方法 | |
CN102074015A (zh) | 一种基于二维图像序列的目标对象的三维重建方法 | |
CN102999942A (zh) | 三维人脸重建方法 | |
CN105069809A (zh) | 一种基于平面混合标识物的相机定位方法及系统 | |
CN103839277A (zh) | 一种户外大范围自然场景的移动增强现实注册方法 | |
CN103745218B (zh) | 一种深度图像中的姿势识别方法及装置 | |
CN101882150B (zh) | 一种基于核密度估计的三维模型比较和检索方法 | |
CN105912991A (zh) | 基于3d点云与关键骨骼节点的行为识别 | |
CN103500010A (zh) | 一种视频人手指尖定位方法 | |
CN101739721A (zh) | 基于时变和无序多图像的四维场景建模方法 | |
CN102999661A (zh) | 基于粒子群优化的并行碰撞检测系统及方法 | |
CN105631037A (zh) | 一种图像检索方法 | |
CN104517100A (zh) | 手势预判方法和系统 | |
Massa et al. | Convolutional neural networks for joint object detection and pose estimation: A comparative study | |
Tang et al. | Research on 3D human pose estimation using RGBD camera | |
Zhang et al. | Incorporating depth information into few-shot semantic segmentation | |
CN105512610A (zh) | 一种基于感兴趣点位置信息的视频中人体动作识别方法 | |
Jiang et al. | Robust action recognition based on a hierarchical model | |
CN103218611B (zh) | 基于分布式协同学习的人体运动跟踪方法 | |
Ran et al. | Normal estimation algorithm for point cloud using KD-Tree | |
Huang et al. | Viewpoint insensitive action recognition using envelop shape |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |