CN113780075A - 骨架动作图生成方法、生成装置、计算机设备及介质 - Google Patents
骨架动作图生成方法、生成装置、计算机设备及介质 Download PDFInfo
- Publication number
- CN113780075A CN113780075A CN202110895154.1A CN202110895154A CN113780075A CN 113780075 A CN113780075 A CN 113780075A CN 202110895154 A CN202110895154 A CN 202110895154A CN 113780075 A CN113780075 A CN 113780075A
- Authority
- CN
- China
- Prior art keywords
- space
- deconvolution
- action
- time
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010586 diagram Methods 0.000 title claims abstract description 188
- 238000000034 method Methods 0.000 title claims abstract description 33
- 239000013598 vector Substances 0.000 claims abstract description 52
- 238000012952 Resampling Methods 0.000 claims abstract description 27
- 239000011159 matrix material Substances 0.000 claims abstract description 26
- 230000003416 augmentation Effects 0.000 claims abstract description 16
- 230000033001 locomotion Effects 0.000 claims description 95
- 238000004364 calculation method Methods 0.000 claims description 72
- 238000012549 training Methods 0.000 claims description 37
- 238000004590 computer program Methods 0.000 claims description 7
- 230000003287 optical effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 210000002414 leg Anatomy 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明实施例公开一种骨架动作图生成方法、生成装置、计算机设备及介质。在一具体实施方式中,该方法包括:根据动作的语义分布的标准差及动作的语义分布的均值进行重采样,以得到动作的语义向量;将所述动作的语义向量、所述动作的语义向量的邻接矩阵及指定的动作类别标签输入已训练的基于时空图反卷积模型的解码网络,得到连续N帧骨架动作増广图的关节点坐标,以生成连续N帧骨架动作图。该实施方式可以生成比较真实的人体骨架动作,降低了获取人体骨架动作样本数据的成本。
Description
技术领域
本发明涉及深度学习技术领域,更具体地,涉及一种骨架动作图生成方法、生成装置、计算机设备及介质。
背景技术
人体骨架动作识别作为计算机视觉领域的一个重要分支,也越来越引起重视。虽然现有的一些人体骨架动作识别算法在实验中也能够取得不错的识别效果,但是这些算法在使用中,需要先采集真人动作的视频,再通过视频捕捉技术生成对应动作的骨架数据,因而这些用于机器人动作学习的数据采集相对复杂,不便于被采集。
发明内容
本发明的目的在于提供一种骨架动作图生成方法、生成装置、计算机设备及介质,以解决现有技术存在的问题中的至少一个。
为达到上述目的,本发明采用下述技术方案:
本发明第一方面提供了一种骨架动作图生成方法,包括:
根据动作的语义分布的标准差及动作的语义分布的均值进行重采样,以得到动作的语义向量;
将所述动作的语义向量、所述动作的语义向量的邻接矩阵及指定的动作类别标签输入已训练的基于时空图反卷积模型的解码网络,得到连续N帧骨架动作増广图的关节点坐标,以生成连续N帧骨架动作图,其中,所述动作的语义分布的标准差、所述动作的语义分布的均值及所述解码网络由带有动作类型标签的M种动作的骨架动作样本图训练得到,每种动作的骨架动作样本图包含连续N帧骨架动作样本图,所述指定的动作类别标签对应所述M种动作中的一种,M≥1,N≥2。
可选地,所述基于时空图反卷积模型的解码网络包括串联连接的第一全连接层、时空图反卷积模块和第一时空图反卷积模型,所述第一全连接层的输入端为所述解码网络的输入端,所述第一时空图反卷积模型的输出端作为所述解码网络的输出端。
可选地,所述时空图反卷积模块包括串联连接的P个时空图反卷积子模块,P≥1;
所述时空图反卷积子模块包括第一残差网络、第二时空反卷积模型和第一计算层,所述第一计算层的输入端分别连接所述第一残差网络和所述第二时空反卷积模型的输出端,所述第一计算层为加法层或拼接层;
第1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接所述第一全连接层的输出端,第i+1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第i个时空图反卷积子模块的第一计算层的输出端,第P个时空图反卷积子模块的第一计算层的输出端连接所述第一时空图反卷积模型的输入端,1≤i<P。
可选地,该方法还包括:利用带有动作类型标签的M种动作的骨架动作样本图、每种动作的骨架动作样本图包含连续N帧骨架动作样本图的训练数据,训练输入数据为至少一种动作的连续N帧骨架动作样本图的关节点坐标、所述连续N帧骨架动作样本图的关节点坐标的邻接矩阵及带有的动作类型标签且输出数据为输入数据对应的动作的语义分布的标准差及语义分布的均值的基于时空图卷积模型的编码网络和输入数据为根据所述编码网络的输出进行重采样得到动作的语义向量、所述根据所述编码网络的输出进行重采样得到动作的语义向量的邻接矩阵及所述训练数据对应的动作类型标签的基于时空图反卷积模型的解码网络。
可选地,所述基于时空图反卷积模型的解码网络包括串联连接的第一全连接层、时空图反卷积模块和第一时空图反卷积模型,所述第一全连接层的输入端为所述解码网络的输入端,所述第一时空图反卷积模型的输出端作为所述解码网络的输出端;
所述基于时空图卷积模型的编码网络包括串联连接的第一时空图卷积模型、时空图卷积模块及全连接模块,所述全连接模块包括第二全连接层和第三全连接层,所述第一时空图卷积模型的输入端为所述编码网络的输入端,所述时空图卷积模块的输出端分别连接所述第二全连接层的输入端和所述第三全连接层的输入端;所述第二全连接层的输出端和所述第三全连接层的输出端分别作为所述编码网络的输出端,分别用于输出输入数据对应的动作的语义分布的标准差及语义分布的均值。
可选地,所述时空图反卷积模块包括串联连接的P个时空图反卷积子模块,P≥1;
所述时空图反卷积子模块包括第一残差网络、第二时空反卷积模型和第一计算层,所述第一计算层的输入端分别连接所述第一残差网络和所述第二时空反卷积模型的输出端,所述第一计算层为加法层或拼接层;
第1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接所述第一全连接层的输出端,第i+1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第i个时空图反卷积子模块的第一计算层的输出端,第P个时空图反卷积子模块的第一计算层的输出端连接所述第一时空图反卷积模型的输入端,1≤i<P;
所述时空图卷积模块包括串联连接的P个时空图卷积子模块;
所述时空图卷积子模块包括第二残差网络、第二时空卷积模型和第二计算层,所述第二计算层的输入端分别连接所述第二残差网络和所述第二时空卷积模型的输出端,所述第二计算层与所述第一计算层的计算逻辑相同;
第1个时空图卷积子模块的第二残差网络和第二时空卷积模型的输入端分别连接所述第一时空图卷积模型的输出端,第i+1个时空图卷积子模块的第二残差网络和第二时空卷积模型的输入端分别连接第i个时空图卷积子模块的第二计算层的输出端,第P个时空图卷积子模块的第二计算层的输出端分别连接所述第二全连接层和第三全连接层的输入端,1≤i<P。
可选地,所述重采样基于下述公式进行:z=s*σ+μ,其中,z为动作的语义向量,s~N(0,1),σ为动作的语义分布的标准差,μ为动作的语义分布的均值。
本发明第二方面提供了一种骨架动作图生成装置,包括:
重采样单元,用于根据动作的语义分布的标准差及动作的语义分布的均值进行重采样,以得到动作的语义向量;
生成单元,用于将所述动作的语义向量、所述动作的语义向量的邻接矩阵及指定的动作类别标签输入已训练的基于时空图反卷积模型的解码网络,得到连续N帧骨架动作増广图的关节点坐标,以生成连续N帧骨架动作图,其中,所述动作的语义分布的标准差、所述动作的语义分布的均值及所述解码网络由带有动作类型标签的M种动作的骨架动作样本图训练得到,每种动作的骨架动作样本图包含连续N帧骨架动作样本图,所述指定的动作类别标签对应所述M种动作中的一种,M≥1,N≥2。
可选地,所述基于时空图反卷积模型的解码网络包括串联连接的第一全连接层、时空图反卷积模块和第一时空图反卷积模型,所述第一全连接层的输入端为所述解码网络的输入端,所述第一时空图反卷积模型的输出端作为所述解码网络的输出端。
可选地,所述时空图反卷积模块包括串联连接的P个时空图反卷积子模块,P≥1;
所述时空图反卷积子模块包括第一残差网络、第二时空反卷积模型和第一计算层,所述第一计算层的输入端分别连接所述第一残差网络和所述第二时空反卷积模型的输出端,所述第一计算层为加法层或拼接层;
第1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接所述第一全连接层的输出端,第i+1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第i个时空图反卷积子模块的第一计算层的输出端,第P个时空图反卷积子模块的第一计算层的输出端连接所述第一时空图反卷积模型的输入端,1≤i<P。
本发明第三方面提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现本发明第一方面提供的骨架动作图生成方法。
本发明第四方面提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本发明第一方面提供的骨架动作图生成方法。
本发明的有益效果如下:
本发明提供的技术方案,利用通过训练得到的动作的语义分布的标准差、动作的语义分布的均值及基于时空图反卷积模型的解码网络,可对于用户指定的动作类别自动生成连续多帧骨架动作图,实现骨架动作图的増广。其中,本发明提供的技术方案充分关注了人体骨架关节之间的关系,且没有多余的噪音或者无关的数据,可以生成比较真实的人体骨架动作,降低了获取机器人动作学习用的人体骨架动作样本数据的成本。
附图说明
下面结合附图对本发明的具体实施方式作进一步详细的说明。
图1示出本发明的一个实施例可以应用于其中的示例性系统架构图。
图2示出本发明实施例提供的骨架动作图生成方法的流程图。
图3示出变分自编码器网络的网络结构示意图。
图4示出真实的人体骨架动作3D展示示意图。
图5示出采用本发明实施例提供的骨架动作图生成方法生成的人体骨架动作3D展示示意图。
图6示出本发明实施例提供的骨架动作图生成装置的示意图。
图7示出实现本发明实施例提供的装置的计算机设备的结构示意图。
具体实施方式
为了更清楚地说明本发明,下面结合实施例和附图对本发明做进一步的说明。附图中相似的部件以相同的附图标记进行表示。本领域技术人员应当理解,下面所具体描述的内容是说明性的而非限制性的,不应以此限制本发明的保护范围。
图1是本发明实施例提供的一种骨架动作图生成方法的实施例的示例性系统架构100。参见图1,如图1所示,系统架构100包括:终端101和服务器102。
终端设备101可以是硬件,也可以是软件。当终端设备101为硬件时,可以是具有显示屏并且支持图像识别的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。终端101中可以设有客户端,该客户端可以是视频客户端、浏览器客户端、线上购物客户端、即时通信客户端等,本发明对客户端的类型不加以限定。当终端设备101为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
网络103用以在终端设备101和服务器102之间提供通信链路的介质。网络103可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。本发明在此不做限制。
用户可以使用终端设备101通过网络103与服务器102交互,以接收或发送消息等。例如,终端101可以接收服务器102发送的动作的语义分布的标准差、动作的语义分布的均值及骨架动作増广图的关节点坐标,并在可视化界面上对动作的语义分布的标准差、动作的语义分布的均值及骨架动作増广图的关节点坐标进行展示。终端101可以响应于用户的骨架动作图生成指令,将所述动作的语义向量、所述动作的语义向量的邻接矩阵及指定的动作类别标签输入已训练的基于时空图反卷积模型的解码网络,得到骨架动作増广图的关节点坐标,以生成连续N帧骨架动作图。终端101可以将根据骨架动作图生成指令获取待生成动作的语义向量、动作的语义向量的邻接矩阵及指定的动作类别标签均发送给服务器102,并接收服务器102返回的骨架动作图生成图像,进而将该骨架动作图生成图像展示在可视化界面上,以便用户获取更多的人体骨架动作样本数据。
终端101可以泛指多个终端中的一个,本实施例仅以终端101来举例说明。本领域技术人员可以知晓,上述终端的数量可以更多或更少。比如上述终端可以仅为一个,或者上述终端为几十个或几百个,或者更多数量,本发明实施例对终端的数量和设备类型不加以限定。
服务器102可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。服务器102以及终端101可以通过网络103进行直接或间接地连接,本发明在此不做限制。
服务器102可以维护有一个指定动作类别数据库,用于存储多个指定的动作类别标签对应的动作的语义向量、动作的语义向量的邻接矩阵。服务器102可以接收终端101发送的骨架动作图生成指令,并根据该骨架动作图生成指令,从指定动作类别数据库中获取动作的语义向量、动作的语义向量的邻接矩阵及指定的动作类别标签,并将其输入已训练的基于时空图反卷积模型的解码网络,得到连续N帧骨架动作増广图的关节点坐标,以生成连续N帧骨架动作图,进而服务器102将该连续N帧骨架动作图发送给终端101。可选地,上述服务器的数量可以更多或更少,本发明实施例对此不加以限定。当然,服务器102还可以包括其他功能服务器,以便提供更全面且多样化的服务。
需要说明的是,服务器102可以是硬件,也可以是软件。当服务器102为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意合适数目的终端设备、网络和服务器。
进一步的,如图2所示,本发明的一个实施例提出一种骨架动作图生成方法,包括如下步骤:
S1、利用带有动作类型标签的M种动作的骨架动作样本图训练得到动作的语义分布的标准差、动作的语义分布的均值及基于时空图反卷积模型(Spatial-Temporal GraphConvolutional Networks,ST-GCN)的解码网络。
S2、根据动作的语义分布的标准差及动作的语义分布的均值进行重采样,以得到动作的语义向量。
S3、将所述动作的语义向量、所述动作的语义向量的邻接矩阵及指定的动作类别标签输入已训练的基于时空图反卷积模型的解码网络,得到连续N帧骨架动作増广图的关节点坐标,以生成连续N帧骨架动作图。
其中,步骤S1属于模型的训练阶段,步骤S2-S3属于使用模型以进行骨架动作图生成的生成阶段。
在一种可能的实现方式中,步骤S1包括:
利用带有动作类型标签的M种动作的骨架动作样本图、每种动作的骨架动作样本图包含连续N帧骨架动作样本图的训练数据,训练输入数据为至少一种动作的连续N帧骨架动作样本图的关节点坐标、所述连续N帧骨架动作样本图的关节点坐标的邻接矩阵及带有的动作类型标签且输出数据为输入数据对应的动作的语义分布的标准差及语义分布的均值的基于时空图卷积模型的编码网络和输入数据为根据所述编码网络的输出进行重采样得到动作的语义向量、所述根据所述编码网络的输出进行重采样得到动作的语义向量的邻接矩阵及所述训练数据对应的动作类型标签的基于时空图反卷积模型的解码网络。
在一个具体示例中,骨架动作例如包括“抬手臂”、“放手臂”、“抬腿”、“放腿”及“屈膝”等动作,这些骨架动作对应着有其动作类型标签,例如“抬手臂”对应动作类型标签为“抬”,“放腿”对应动作类型标签为“放”,等。邻接矩阵用来表征骨架动作的关节点之间的关系。
本实施例中,训练数据为带有动作类型标签的M种动作的骨架动作样本图、每种动作的骨架动作样本图包含连续N帧骨架动作样本图,所述指定的动作类别标签对应所述M种动作中的一种,M≥1,N≥2。由训练数据训练基于时空图卷积模型的编码网络,得到动作的语义分布的标准差和所述动作的语义分布的均值,由根据所述编码网络的输出进行重采样得到动作的语义向量、所述根据所述编码网络的输出进行重采样得到动作的语义向量的邻接矩阵及所述训练数据对应的动作类型标签训练基于时空图反卷积模型的解码网络,得到每种动作的连续N帧骨架动作増广图的关节点坐标,以生成每种动作的连续N帧骨架动作图。比如将40种动作的连续300帧骨架动作样本图的关节点坐标、所述连续300帧骨架动作样本图的关节点坐标的邻接矩阵及带有的动作类型标签输入基于时空图卷积模型的编码网络,输出得到动作的语义分布的标准差σ及动作的语义分布的均值μ,再将动作的语义分布的标准差σ及动作的语义分布的均值μ进行重采样得到的动作的语义向量、动作的语义向量的邻接矩阵及所述训练数据对应的动作类型标签输入基于时空图反卷积模型的解码网络,得到40种动作中对应的每种动作的连续300帧骨架动作増广图的关节点坐标,以生成40种动作中对应的每种动作的连续300帧骨架动作图。可以理解的是,训练数据量越大,模型训练效果越好,得到每种动作的连续多帧骨架动作増广图的关节点坐标越准确,生成每种动作的连续多帧骨架动作图越接近真实的人体骨架动作,但训练数据量也会影响模型训练的效率,因此,本实施例对训练数据量不作限定,在具体实现时,可以根据实际的业务需求而定。
在一种可能的实现方式中,如图3所示,本实施例在训练阶段,采用变分自编码器(Variational Auto-Encoder,VAE)网络训练得到编码网络、重采样依据的动作的语义分布的标准差σ及动作的语义分布的均值μ和解码网络。VAE网络包括基于时空图卷积模型的编码网络、重采样模块及基于时空图反卷积模型的解码网络。
利用通过训练得到的动作的语义分布的标准差、动作的语义分布的均值及基于时空图反卷积模型的解码网络,可对于用户指定的动作类别自动生成连续多帧骨架动作图,实现骨架动作图的増广。其中,本发明提供的技术方案充分关注了人体骨架关节之间的关系,且没有多余的噪音或者无关的数据,可以生成比较真实的人体骨架动作,降低了获取机器人动作学习用的人体骨架动作样本数据的成本。
其中,所述基于时空图卷积模型的编码网络包括串联连接的第一时空图卷积模型、时空图卷积模块及全连接模块,全连接模块包括第二全连接层(dense)和第三全连接层(dense),所述第一时空图卷积模型的输入端为所述编码网络的输入端,输入训练数据中至少一种动作的连续N帧骨架动作样本图的关节点坐标x、所述连续N帧骨架动作样本图的关节点坐标的邻接矩阵A及带有的动作类型标签y,所述第一时空图卷积模型的输出端连接所述时空图卷积模块的输入端,所述时空图卷积模块的输出端连接所述全连接模块的输入端,所述全连接模块的输出端为所述编码网络的输出端,输出动作的语义分布的标准差σ及动作的语义分布的均值μ。
其中,所述第一时空图卷积模型包括串联连接的第一卷积层、第一爱因斯坦求和约定层einsum(x,A,y)及第二卷积层,其中,第一卷积层与第一爱因斯坦求和约定层构成图卷积模型(Graph Convolutional Network,GCN),第二卷积层构成时间卷积模型或者说时序卷积模型(Temporal Convolutional Network,TCN)。
在一个具体示例中,第一卷积层和第二卷积层均采用conv2d结构。
所述时空图卷积模块包括串联连接的P个时空图卷积子模块;所述时空图卷积子模块包括第二残差网络(Residual)、第二时空卷积模型和第二计算层,所述第二计算层的输入端分别连接所述第二残差网络和所述第二时空卷积模型的输出端,所述第二计算层为加法层或拼接层。
在一个具体示例中,第二时空卷积模型包括串联连接的第三卷积层、第二爱因斯坦求和约定层einsum(x,A,y)及第四卷积层,其中,第三卷积层与第二爱因斯坦求和约定层构成图卷积模型,第四卷积层构成时间卷积模型或者说时序卷积模型。
第1个时空图卷积子模块的第二残差网络和第二时空卷积模型的输入端分别连接所述第一时空图卷积模型的输出端,第i+1个时空图卷积子模块的第二残差网络和第二时空卷积模型的输入端分别连接第i个时空图卷积子模块的第二计算层的输出端,第P个时空图卷积子模块的第二计算层的输出端分别连接所述第二全连接层和第三全连接层的输入端,1≤i<P。在本实施例中,P的值取为9。
在一个具体示例中,第1个时空图卷积子模块的第二残差网络和第二时空卷积模型的输入端分别连接所述第一时空图卷积模型的输出端,第2个时空图卷积子模块的第二残差网络和第二时空卷积模型的输入端分别连接第1个时空图卷积子模块的第二计算层的输出端,第3个时空图卷积子模块的第二残差网络和第二时空卷积模型的输入端分别连接第2个时空图卷积子模块的第二计算层的输出端,以此类推。第9个时空图卷积子模块的第二残差网络和第二时空卷积模型的输入端分别连接第8个时空图卷积子模块的第二计算层的输出端,第9个时空图卷积子模块的第二计算层的输出端分别连接所述第二全连接层和第三全连接层的输入端。
即,所述时空图卷积模块的输出端分别连接所述第二全连接层的输入端和所述第三全连接层的输入端;所述第二全连接层的输出端和所述第三全连接层的输出端分别作为所述编码网络的输出端,分别用于输出输入数据对应的动作的语义分布的标准差σ及语义分布的均值μ。
在一个具体示例中,第二全连接层和第三全连接层所包含的参数不同,以此来实现第二全连接层的输出端用于输出输入数据对应的动作的语义分布的标准差σ,第三全连接层的输出端用于输出输入数据对应的动作的语义分布的均值μ。
在一种可能的实现方式中,如图3所示,与基于时空图卷积模型的编码网络相对应的,所述基于时空图反卷积模型的解码网络包括串联连接的第一全连接层(dense)、时空图反卷积模块和第一时空图反卷积模型,所述第一全连接层的输入端为所述解码网络的输入端,所述第一全连接层的输出端连接所述时空图反卷积模块的输入端,所述时空图反卷积模块的输出端连接所述第一时空图反卷积模型的输入端,所述第一时空图反卷积模型的输出端作为所述解码网络的输出端。
在一个具体示例中,第一全连接层的输入端输入动作的语义向量z、所述动作的语义向量的邻接矩阵A'及动作类别标签y(训练阶段的动作类别标签为训练数据对应的,生成阶段的动作类别标签为用户指定的),其中,动作的语义向量z是根据动作的语义分布的标准差σ及动作的语义分布的均值μ进行重采样得到的。
在一种可能的实现方式中,所述重采样基于下述公式进行:z=s*σ+μ,其中,z为动作的语义向量,s~N(0,1),即s服从标准正态分布,σ为动作的语义分布的标准差,μ为动作的语义分布的均值。
所述时空图反卷积模块包括串联连接的P个时空图反卷积子模块,P≥1;所述时空图反卷积子模块包括第一残差网络(Residual)、第二时空反卷积模型和第一计算层,所述第一计算层的输入端分别连接所述第一残差网络和所述第二时空反卷积模型的输出端,所述第一计算层为加法层或拼接层,所述第一计算层与所述第二计算层的计算逻辑相同,即,若第二计算层为加法层,则第一计算层也为加法层;若第二计算层为拼接层,则第一计算层也为拼接层。
在一个具体示例中,第二时空反卷积模型包括串联连接的第一反卷积层、第三爱因斯坦求和约定层einsum(z,A',y)及第二反卷积层,其中,第一反卷积层与第三爱因斯坦求和约定层构成图反卷积模型,第二反卷积层构成时间反卷积模型。
在一个具体示例中,第一反卷积层和第二反卷积层均采用deconv2d结构。
第1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接所述第一全连接层的输出端,第i+1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第i个时空图反卷积子模块的第一计算层的输出端,第P个时空图反卷积子模块的第一计算层的输出端连接所述第一时空图反卷积模型的输入端,1≤i<P。在本实施例中,P的值取为9。
在一个具体示例中,第1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接所述第一全连接层的输出端,第2个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第1个时空图反卷积子模块的第一计算层的输出端,第3个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第2个时空图反卷积子模块的第一计算层的输出端,以此类推,直到第9个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第8个时空图反卷积子模块的第一计算层的输出端,第9个时空图反卷积子模块的第一计算层的输出端连接所述第一时空图反卷积模型的输入端。
所述第一时空图反卷积模型包括串联连接的第三反卷积层、第四爱因斯坦求和约定层einsum(z,A',y)及第四反卷积层,其中,第三反卷积层与第四爱因斯坦求和约定层构成图反卷积模型,第四反卷积层构成时间反卷积模型。在生成阶段,所述第一时空图反卷积模型的输出端输出连续N帧骨架动作増广图的关节点坐标x',以生成连续N帧骨架动作图。
在一个具体示例中,图4所示为真实的人体骨架动作3D展示图,在训练结束后进行骨架动作生成时,根据训练得到的动作的语义分布的标准差及动作的语义分布的均值进行重采样得到动作的语义向量,并将所述动作的语义向量及其邻接矩阵以及用户指定的与图4的动作类别相同的动作类别标签输入训练好的基于时空图反卷积模型的解码网络后,得到骨架动作増广图的关节点坐标以生成的连续N帧骨架动作图中的一帧如图5所示。
综上,本实施例提供的骨架动作图生成方法,利用通过训练得到的动作的语义分布的标准差、动作的语义分布的均值及基于时空图反卷积模型的解码网络,可对于用户指定的动作类别自动生成连续多帧骨架动作图,实现骨架动作图的増广。其中,本发明提供的技术方案充分关注了人体骨架关节之间的关系,且没有多余的噪音或者无关的数据,可以生成比较真实的人体骨架动作,降低了获取机器人动作学习用的人体骨架动作样本数据的成本。
如图6所示,本发明的另一个实施例提供一种骨架动作图生成装置,包括:
重采样单元,用于根据动作的语义分布的标准差及动作的语义分布的均值进行重采样,以得到动作的语义向量;
生成单元,用于将所述动作的语义向量、所述动作的语义向量的邻接矩阵及指定的动作类别标签输入已训练的基于时空图反卷积模型的解码网络,得到连续N帧骨架动作増广图的关节点坐标,以生成连续N帧骨架动作图,其中,所述动作的语义分布的标准差、所述动作的语义分布的均值及所述解码网络由带有动作类型标签的M种动作的骨架动作样本图训练得到,每种动作的骨架动作样本图包含连续N帧骨架动作样本图,所述指定的动作类别标签对应所述M种动作中的一种,M≥1,N≥2。
在一种可能的实现方式中,所述基于时空图反卷积模型的解码网络包括串联连接的第一全连接层、时空图反卷积模块和第一时空图反卷积模型,所述第一全连接层的输入端为所述解码网络的输入端,所述第一时空图反卷积模型的输出端作为所述解码网络的输出端。
在一种可能的实现方式中,所述时空图反卷积模块包括串联连接的P个时空图反卷积子模块,P≥1;
所述时空图反卷积子模块包括第一残差网络、第二时空反卷积模型和第一计算层,所述第一计算层的输入端分别连接所述第一残差网络和所述第二时空反卷积模型的输出端,所述第一计算层为加法层或拼接层;
第1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接所述第一全连接层的输出端,第i+1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第i个时空图反卷积子模块的第一计算层的输出端,第P个时空图反卷积子模块的第一计算层的输出端连接所述第一时空图反卷积模型的输入端,1≤i<P。
需要说明的是,本实施例提供的骨架动作图生成装置的原理及工作流程与上述骨架动作图生成方法相似,相关之处可以参照上述说明,在此不再赘述。
如图7所示,本发明的另一个实施例提供的一种计算机设备的结构示意图。图7显示的计算机设备40仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图7所示,计算机设备40以通用计算设备的形式表现。计算机设备40的组件可以包括但不限于:一个或者多个处理器或者处理单元41,系统存储器47,连接不同系统组件(包括系统存储器47和处理单元41)的总线43。
总线43表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机设备40典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备40访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器47可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)44和/或高速缓存存储器45。计算机设备40可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统46可以用于读写不可移动的、非易失性磁介质(图7未显示,通常称为“硬盘驱动器”)。尽管图7中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线43相连。存储器47可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块47的程序/实用工具52,可以存储在例如存储器47中,这样的程序模块47包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块47通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备40也可以与一个或多个外部设备48(例如键盘、指向设备、显示器49等)通信,还可与一个或者多个使得用户能与该计算机设备40交互的设备通信,和/或与使得该计算机设备40能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口50进行。并且,计算机设备40还可以通过网络适配器51与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图7所示,网络适配器51通过总线43与计算机设备40的其它模块通信。应当明白,尽管图7中未示出,可以结合计算机设备40使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理器单元41通过运行存储在系统存储器47中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的一种骨架动作图生成方法。
本发明的另一个实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现:
S1、利用带有动作类型标签的M种动作的骨架动作样本图训练得到动作的语义分布的标准差、动作的语义分布的均值及基于时空图反卷积模型的解码网络。
S2、根据动作的语义分布的标准差及动作的语义分布的均值进行重采样,以得到动作的语义向量。
S3、将所述动作的语义向量、所述动作的语义向量的邻接矩阵及指定的动作类别标签输入已训练的基于时空图反卷积模型的解码网络,得到连续N帧骨架动作増广图的关节点坐标,以生成连续N帧骨架动作图。
在实际应用中,所述计算机可读存储介质可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
在本发明的描述中,需要说明的是,术语“上”、“下”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
还需要说明的是,在本发明的描述中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定,对于本领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动,这里无法对所有的实施方式予以穷举,凡是属于本发明的技术方案所引伸出的显而易见的变化或变动仍处于本发明的保护范围之列。
Claims (12)
1.一种骨架动作图生成方法,其特征在于,包括:
根据动作的语义分布的标准差及动作的语义分布的均值进行重采样,以得到动作的语义向量;
将所述动作的语义向量、所述动作的语义向量的邻接矩阵及指定的动作类别标签输入已训练的基于时空图反卷积模型的解码网络,得到连续N帧骨架动作増广图的关节点坐标,以生成连续N帧骨架动作图,其中,所述动作的语义分布的标准差、所述动作的语义分布的均值及所述解码网络由带有动作类型标签的M种动作的骨架动作样本图训练得到,每种动作的骨架动作样本图包含连续N帧骨架动作样本图,所述指定的动作类别标签对应所述M种动作中的一种,M≥1,N≥2。
2.根据权利要求1所述的方法,其特征在于,所述基于时空图反卷积模型的解码网络包括串联连接的第一全连接层、时空图反卷积模块和第一时空图反卷积模型,所述第一全连接层的输入端为所述解码网络的输入端,所述第一时空图反卷积模型的输出端作为所述解码网络的输出端。
3.根据权利要求2所述的方法,其特征在于,所述时空图反卷积模块包括串联连接的P个时空图反卷积子模块,P≥1;
所述时空图反卷积子模块包括第一残差网络、第二时空反卷积模型和第一计算层,所述第一计算层的输入端分别连接所述第一残差网络和所述第二时空反卷积模型的输出端,所述第一计算层为加法层或拼接层;
第1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接所述第一全连接层的输出端,第i+1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第i个时空图反卷积子模块的第一计算层的输出端,第P个时空图反卷积子模块的第一计算层的输出端连接所述第一时空图反卷积模型的输入端,1≤i<P。
4.根据权利要求1所述的方法,其特征在于,该方法还包括:利用带有动作类型标签的M种动作的骨架动作样本图、每种动作的骨架动作样本图包含连续N帧骨架动作样本图的训练数据,训练输入数据为至少一种动作的连续N帧骨架动作样本图的关节点坐标、所述连续N帧骨架动作样本图的关节点坐标的邻接矩阵及带有的动作类型标签且输出数据为输入数据对应的动作的语义分布的标准差及语义分布的均值的基于时空图卷积模型的编码网络和输入数据为根据所述编码网络的输出进行重采样得到动作的语义向量、所述根据所述编码网络的输出进行重采样得到动作的语义向量的邻接矩阵及所述训练数据对应的动作类型标签的基于时空图反卷积模型的解码网络。
5.根据权利要求4所述的方法,其特征在于,
所述基于时空图反卷积模型的解码网络包括串联连接的第一全连接层、时空图反卷积模块和第一时空图反卷积模型,所述第一全连接层的输入端为所述解码网络的输入端,所述第一时空图反卷积模型的输出端作为所述解码网络的输出端;
所述基于时空图卷积模型的编码网络包括串联连接的第一时空图卷积模型、时空图卷积模块及全连接模块,所述全连接模块包括第二全连接层和第三全连接层,所述第一时空图卷积模型的输入端为所述编码网络的输入端,所述时空图卷积模块的输出端分别连接所述第二全连接层的输入端和所述第三全连接层的输入端;所述第二全连接层的输出端和所述第三全连接层的输出端分别作为所述编码网络的输出端,分别用于输出输入数据对应的动作的语义分布的标准差及语义分布的均值。
6.根据权利要求5所述的方法,其特征在于,
所述时空图反卷积模块包括串联连接的P个时空图反卷积子模块,P≥1;
所述时空图反卷积子模块包括第一残差网络、第二时空反卷积模型和第一计算层,所述第一计算层的输入端分别连接所述第一残差网络和所述第二时空反卷积模型的输出端,所述第一计算层为加法层或拼接层;
第1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接所述第一全连接层的输出端,第i+1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第i个时空图反卷积子模块的第一计算层的输出端,第P个时空图反卷积子模块的第一计算层的输出端连接所述第一时空图反卷积模型的输入端,1≤i<P;
所述时空图卷积模块包括串联连接的P个时空图卷积子模块;
所述时空图卷积子模块包括第二残差网络、第二时空卷积模型和第二计算层,所述第二计算层的输入端分别连接所述第二残差网络和所述第二时空卷积模型的输出端,所述第二计算层与所述第一计算层的计算逻辑相同;
第1个时空图卷积子模块的第二残差网络和第二时空卷积模型的输入端分别连接所述第一时空图卷积模型的输出端,第i+1个时空图卷积子模块的第二残差网络和第二时空卷积模型的输入端分别连接第i个时空图卷积子模块的第二计算层的输出端,第P个时空图卷积子模块的第二计算层的输出端分别连接所述第二全连接层和第三全连接层的输入端,1≤i<P。
7.根据权利要求1-6中任一项所述的方法,其特征在于,所述重采样基于下述公式进行:z=s*σ+μ,其中,z为动作的语义向量,s~N(0,1),σ为动作的语义分布的标准差,μ为动作的语义分布的均值。
8.一种骨架动作图生成装置,其特征在于,包括:
重采样单元,用于根据动作的语义分布的标准差及动作的语义分布的均值进行重采样,以得到动作的语义向量;
生成单元,用于将所述动作的语义向量、所述动作的语义向量的邻接矩阵及指定的动作类别标签输入已训练的基于时空图反卷积模型的解码网络,得到连续N帧骨架动作増广图的关节点坐标,以生成连续N帧骨架动作图,其中,所述动作的语义分布的标准差、所述动作的语义分布的均值及所述解码网络由带有动作类型标签的M种动作的骨架动作样本图训练得到,每种动作的骨架动作样本图包含连续N帧骨架动作样本图,所述指定的动作类别标签对应所述M种动作中的一种,M≥1,N≥2。
9.根据权利要求8所述的装置,其特征在于,所述基于时空图反卷积模型的解码网络包括串联连接的第一全连接层、时空图反卷积模块和第一时空图反卷积模型,所述第一全连接层的输入端为所述解码网络的输入端,所述第一时空图反卷积模型的输出端作为所述解码网络的输出端。
10.根据权利要求9所述的装置,其特征在于,所述时空图反卷积模块包括串联连接的P个时空图反卷积子模块,P≥1;
所述时空图反卷积子模块包括第一残差网络、第二时空反卷积模型和第一计算层,所述第一计算层的输入端分别连接所述第一残差网络和所述第二时空反卷积模型的输出端,所述第一计算层为加法层或拼接层;
第1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接所述第一全连接层的输出端,第i+1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第i个时空图反卷积子模块的第一计算层的输出端,第P个时空图反卷积子模块的第一计算层的输出端连接所述第一时空图反卷积模型的输入端,1≤i<P。
11.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-7中任一项所述的方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110895154.1A CN113780075B (zh) | 2021-08-05 | 2021-08-05 | 骨架动作图生成方法、生成装置、计算机设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110895154.1A CN113780075B (zh) | 2021-08-05 | 2021-08-05 | 骨架动作图生成方法、生成装置、计算机设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113780075A true CN113780075A (zh) | 2021-12-10 |
CN113780075B CN113780075B (zh) | 2024-04-23 |
Family
ID=78836915
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110895154.1A Active CN113780075B (zh) | 2021-08-05 | 2021-08-05 | 骨架动作图生成方法、生成装置、计算机设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113780075B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110490035A (zh) * | 2019-05-17 | 2019-11-22 | 上海交通大学 | 人体骨架动作识别方法、系统及介质 |
CN110929637A (zh) * | 2019-11-20 | 2020-03-27 | 中国科学院上海微系统与信息技术研究所 | 一种图像识别方法、装置、电子设备及存储介质 |
CN111325099A (zh) * | 2020-01-21 | 2020-06-23 | 南京邮电大学 | 一种基于双流时空图卷积神经网络的手语识别方法及系统 |
US20200334457A1 (en) * | 2019-04-16 | 2020-10-22 | Boe Technology Group Co., Ltd. | Image recognition method and apparatus |
CN112131908A (zh) * | 2019-06-24 | 2020-12-25 | 北京眼神智能科技有限公司 | 基于双流网络的动作识别方法、装置、存储介质及设备 |
-
2021
- 2021-08-05 CN CN202110895154.1A patent/CN113780075B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200334457A1 (en) * | 2019-04-16 | 2020-10-22 | Boe Technology Group Co., Ltd. | Image recognition method and apparatus |
CN110490035A (zh) * | 2019-05-17 | 2019-11-22 | 上海交通大学 | 人体骨架动作识别方法、系统及介质 |
CN112131908A (zh) * | 2019-06-24 | 2020-12-25 | 北京眼神智能科技有限公司 | 基于双流网络的动作识别方法、装置、存储介质及设备 |
CN110929637A (zh) * | 2019-11-20 | 2020-03-27 | 中国科学院上海微系统与信息技术研究所 | 一种图像识别方法、装置、电子设备及存储介质 |
CN111325099A (zh) * | 2020-01-21 | 2020-06-23 | 南京邮电大学 | 一种基于双流时空图卷积神经网络的手语识别方法及系统 |
Non-Patent Citations (1)
Title |
---|
SIJIE YAN ET AL: "Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition", 《ARXIV:1801.07455V2》, pages 1 - 10 * |
Also Published As
Publication number | Publication date |
---|---|
CN113780075B (zh) | 2024-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108710885B (zh) | 目标对象的检测方法和装置 | |
CN110288681B (zh) | 角色模型的蒙皮方法、装置、介质及电子设备 | |
CN110782395B (zh) | 图像处理方法及装置、电子设备和计算机可读存储介质 | |
CN112819971A (zh) | 虚拟形象的生成方法、装置、设备和介质 | |
CN113761250A (zh) | 模型训练方法、商户分类方法及装置 | |
CN112270246A (zh) | 视频行为识别方法及装置、存储介质、电子设备 | |
CN113538235A (zh) | 图像处理模型的训练方法、装置、电子设备及存储介质 | |
CN110874869B (zh) | 生成虚拟动画表情的方法和装置 | |
CN114627354A (zh) | 目标检测方法、装置、存储介质与电子设备 | |
CN113537267A (zh) | 对抗样本的生成方法和装置、存储介质及电子设备 | |
CN113780075A (zh) | 骨架动作图生成方法、生成装置、计算机设备及介质 | |
CN111311732A (zh) | 3d人体网格获取方法及装置 | |
CN116739154A (zh) | 一种故障预测方法及其相关设备 | |
CN115775300A (zh) | 人体模型的重建方法、人体重建模型的训练方法及装置 | |
CN113223121B (zh) | 视频生成方法、装置、电子设备及存储介质 | |
CN112559727B (zh) | 用于输出信息的方法、装置、设备、存储介质和程序 | |
CN112734625B (zh) | 一种基于3d场景设计的硬件加速系统及方法 | |
CN114943995A (zh) | 人脸识别模型的训练方法、人脸识别方法及装置 | |
CN114841361A (zh) | 一种模型训练方法及其相关设备 | |
CN113781876A (zh) | 一种将文本转换为手语动作视频的转换方法和装置 | |
CN113674006A (zh) | 一种基于视觉计算的农产品物流溯源系统 | |
CN113065496A (zh) | 神经网络机器翻译模型训练方法、机器翻译方法和装置 | |
CN111784377A (zh) | 用于生成信息的方法和装置 | |
CN108509895B (zh) | 用于检测人脸图像的方法和装置 | |
CN115937373B (zh) | 虚拟形象驱动方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20240514 Address after: Room 6227, No. 999, Changning District, Shanghai 200050 Patentee after: Shenlan robot (Shanghai) Co.,Ltd. Country or region after: China Address before: Unit 1001, No. 369, Weining Road, Changning District, Shanghai 200050 Patentee before: DEEPBLUE TECHNOLOGY (SHANGHAI) Co.,Ltd. Country or region before: China |