CN113781876B - 一种将文本转换为手语动作视频的转换方法和装置 - Google Patents

一种将文本转换为手语动作视频的转换方法和装置 Download PDF

Info

Publication number
CN113781876B
CN113781876B CN202110895155.6A CN202110895155A CN113781876B CN 113781876 B CN113781876 B CN 113781876B CN 202110895155 A CN202110895155 A CN 202110895155A CN 113781876 B CN113781876 B CN 113781876B
Authority
CN
China
Prior art keywords
space
deconvolution
network
time diagram
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110895155.6A
Other languages
English (en)
Other versions
CN113781876A (zh
Inventor
陈海波
赖忠远
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deep Blue Technology Shanghai Co Ltd
Original Assignee
Deep Blue Technology Shanghai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deep Blue Technology Shanghai Co Ltd filed Critical Deep Blue Technology Shanghai Co Ltd
Priority to CN202110895155.6A priority Critical patent/CN113781876B/zh
Publication of CN113781876A publication Critical patent/CN113781876A/zh
Application granted granted Critical
Publication of CN113781876B publication Critical patent/CN113781876B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/009Teaching or communicating with deaf persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Educational Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明实施例公开一种将文本转换为手语动作视频的转换方法和装置,在一具体实施方式中,该方法包括:将待转换的文本数据输入已训练的文本编码网络,得到词嵌入向量;将所述词嵌入向量输入已训练的基于时空图反卷积模型的解码网络,得到对应所述文本数据的手语动作视频。该实施方式可以实现文本转手语视频,弥合文本和手语之间的隔离。

Description

一种将文本转换为手语动作视频的转换方法和装置
技术领域
本发明涉及深度学习技术领域。更具体地,涉及一种将文本转换为手语动作视频的转换方法和装置。
背景技术
目前,听障群体之间,由于听力问题,在日常生活中,手语是听力障碍者使用的主要通信媒介。为了更有效的和听障群体进行沟通交流,需要沟通者掌握一定程度的手语能力。从社会公平公正的角度,也需要社会服务人员,如银行客服人员、电信客服人员、火车站售票人员等,能够于听障群体进行沟通交流,才能更好服务于听障群体。
为了弥合文本和手语之间的隔离,在实现本发明过程中,发明人发现现有技术中至少存在如下问题:
1、由于数据的多模态性质,很难将输入与输出数据嵌入相关联;
2、处理多模态数据通常需要使用难以训练的混合结构。
发明内容
本发明的目的在于提供一种将文本转换为手语动作视频的转换方法和装置,以解决现有技术存在的问题中的至少一个。
为达到上述目的,本发明采用下述技术方案:
本发明第一方面提供了一种将文本转换为手语动作视频的转换方法,包括:
将待转换的文本数据输入已训练的文本编码网络,得到词嵌入向量;
将所述词嵌入向量输入已训练的基于时空图反卷积模型的解码网络,得到对应所述文本数据的手语动作视频。
可选地,所述文本编辑网络为基于序列到序列模型的编辑器的编辑网络;
可选地,该方法还包括:利用带有动作类型标签的多个手语动作视频作为第一训练数据,训练输入数据为所述第一训练数据且输出数据为输入数据对应的手语动作的语义分布参数的基于时空图卷积模型的编码网络和输入数据为根据所述基于时空图卷积模型的编码网络输出的所述语义分布参数进行重采样得到的词嵌入向量的基于时空图反卷积模型的解码网络。
可选地,该方法还包括:利用带有词索引的多个文本句作为第二训练数据,训练输入数据为所述第二训练数据且输出数据为输入数据对应的手语动作的词嵌入向量的文本编码网络和输入数据为根据所述文本编码网络输出的词嵌入向量的文本解码网络。
可选地,所述基于时空图反卷积模型的解码网络包括串联连接的第一全连接层、时空图反卷积模块和第一时空图反卷积模型,所述第一全连接层的输入端为所述解码网络的输入端,所述第一时空图反卷积模型的输出端作为所述解码网络的输出端;
所述时空图反卷积模块包括串联连接的P个时空图反卷积子模块,P≥1;
所述时空图反卷积子模块包括第一残差网络、第二时空反卷积模型和第一计算层,所述第一计算层的输入端分别连接所述第一残差网络和所述第二时空反卷积模型的输出端,所述第一计算层为加法层或拼接层;
第1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接所述第一全连接层的输出端,第i+1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第i个时空图反卷积子模块的第一计算层的输出端,第P个时空图反卷积子模块的第一计算层的输出端连接所述第一时空图反卷积模型的输入端,1≤i<P。
本发明第二方面提供了一种用于将文本转换为手语动作视频的转换装置,包括:
编码单元,用于将待转换的文本数据输入已训练的文本编码网络,得到词嵌入向量;
解码单元,用于将所述词嵌入向量输入已训练的基于时空图反卷积模型的解码网络,得到对应所述文本数据的手语动作视频。
可选地,所述文本编码网络为基于序列到序列模型的编码器的编码网络;
可选地,所述基于时空图反卷积模型的解码网络包括串联连接的第一全连接层、时空图反卷积模块和第一时空图反卷积模型,所述第一全连接层的输入端为所述解码网络的输入端,所述第一时空图反卷积模型的输出端作为所述解码网络的输出端;
所述时空图反卷积模块包括串联连接的P个时空图反卷积子模块,P≥1;
所述时空图反卷积子模块包括第一残差网络、第二时空反卷积模型和第一计算层,所述第一计算层的输入端分别连接所述第一残差网络和所述第二时空反卷积模型的输出端,所述第一计算层为加法层或拼接层;
第1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接所述第一全连接层的输出端,第i+1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第i个时空图反卷积子模块的第一计算层的输出端,第P个时空图反卷积子模块的第一计算层的输出端连接所述第一时空图反卷积模型的输入端,1≤i<P。
本发明第三方面提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现本发明第一方面提供的将文本转换为手语动作视频的转换方法。
本发明第四方面提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本发明第一方面提供的将文本转换为手语动作视频的转换方法。
本发明的有益效果如下:
本发明所述技术方案,融合了文本编码网络和基于时空图反卷积模型的解码网络,能够高效精确地生成与输入文本相对应的手语动作视频,实现文本与手语动作视频的转换。
附图说明
下面结合附图对本发明的具体实施方式作进一步详细的说明。
图1示出本发明的一个实施例可以应用于其中的示例性系统架构图。
图2示出本发明的一个实施例提供的一种将文本转换为手语动作视频的转换方法的流程图。
图3示出变分自编码器的网络结构示意图。
图4示出本发明的一个实施例提供的一种用于将文本转换为手语动作视频的转换装置的示意图。
图5示出实现本发明实施例提供的装置的计算机设备的结构示意图。
具体实施方式
为了更清楚地说明本发明,下面结合实施例和附图对本发明做进一步的说明。附图中相似的部件以相同的附图标记进行表示。本领域技术人员应当理解,下面所具体描述的内容是说明性的而非限制性的,不应以此限制本发明的保护范围。
图1是本发明实施例提供的一种将文本转换为手语动作视频的转换方法的实施例的示例性系统架构100,
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105、106。网络104用以在终端设备101、102、103和服务器105、106之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105、106交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如图像识别类应用、网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏并且支持文本输入的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如存储训练数据的数据服务器。数据服务器可以存储有第一样本集合和第二样本集合。第一样本可以包括带有动作类型标签的多个手语动作视频。第二样本可以是预先标注的训练样本。第二样本可以包括带有词索引的多个文本句。
服务器106可以是提供各种服务的服务器,例如对终端设备101、102、103上的信息转换类应用提供支持的后台服务器。后台服务器可以利用数据服务器105中存储的第一样本集合对待训练模型进行预训练,以及利用数据服务器105中存储的第二样本集合对预训练模型进行预训练。
需要说明的是,本发明实施例所提供的将文本转换为手语动作视频的转换方法一般由服务器106执行,相应地,用于将文本转换为手语动作视频的转换装置一般设置于服务器106中。
需要说明的是,服务器105、106可以是硬件,也可以是软件。当服务器105、106为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要指出的是,服务器106的本地也可以直接存储训练样本集合,服务器106可以直接获取本地的训练样本集合。此时,示例性系统架构100可以不包括服务器105。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意合适数目的终端设备、网络和服务器。
进一步地,如图2所示,本发明的一个实施例提出了一种将文本转换为手语动作视频的转换方法,包括如下步骤:
S1:利用带有动作类型标签的多个手语动作视频作为第一训练数据,训练输入数据为所述第一训练数据且输出数据为对应的手语动作的语义分布参数的基于时空图卷积模型的编码网络和输入数据为根据所述基于时空图卷积模型的编码网络输出的所述语义分布参数进行重采样得到的词嵌入向量的基于时空图反卷积模型的解码网络。
S2:利用带有词索引的多个文本句作为第二训练数据,训练输入数据为所述第二训练数据且输出数据为输入数据对应的手语动作的词嵌入向量的文本编码网络和输入数据为根据所述文本编码网络输出的词嵌入向量的文本解码网络。
S3:将待转换的文本数据输入已训练的文本编码网络,得到词嵌入向量;将所述词嵌入向量输入已训练的基于时空图反卷积模型的解码网络,得到对应所述文本数据的手语动作视频。
其中,步骤S1-S2属于模型的训练阶段,步骤S3属于使用训练得到的模型将文本转换为手语动作视频的转换阶段。
在一种可能的实现方式中,所述基于时空图反卷积模型的解码网络包括串联连接的第一全连接层、时空图反卷积模块和第一时空图反卷积模型,所述第一全连接层的输入端为所述解码网络的输入端,所述第一时空图反卷积模型的输出端作为所述解码网络的输出端。
在一种可能的实现方式中,所述时空图反卷积模块包括串联连接的P个时空图反卷积子模块,P≥1;
所述时空图反卷积子模块包括第一残差网络、第二时空反卷积模型和第一计算层,所述第一计算层的输入端分别连接所述第一残差网络和所述第二时空反卷积模型的输出端,所述第一计算层为加法层或拼接层;
第1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接所述第一全连接层的输出端,第i+1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第i个时空图反卷积子模块的第一计算层的输出端,第P个时空图反卷积子模块的第一计算层的输出端连接所述第一时空图反卷积模型的输入端,1≤i<P。
在一个具体示例中,步骤S1的具体过程为:
利用带有动作标签的多个手语动作视频作为训练数据,首先需要对所述训练数据进行预处理,使用自动关节检测器,例如OpenPose,在每个视频帧中对关节点进行标记,将标记好的帧再次缝合在一起,形成仅由关节位置的动态位置组成的骨架动作样本图集合,所述连续多帧骨架动作样本图的关节点坐标、所述连续多帧骨架动作样本图的关节点坐标的邻接矩阵作为输入数据。
训练输入数据为至少一种动作的手语动作视频对应的所述连续多帧骨架动作样本图的关节点坐标、所述连续多帧骨架动作样本图的关节点坐标的邻接矩阵及带有的动作类型标签且输出数据为输入数据对应的动作的语义分布的基于时空图卷积模型的编码网络和输入数据为根据所述基于时空图卷积模型的编码网络输出的所述语义分布参数进行重采样得到的词嵌入向量的基于时空图反卷积模型的解码网络;其中,所述根据所述基于时空图卷积模型的编码网络输出的所述语义分布参数例如包括语义分布的标准差及语义分布的均值;
在一个具体示例中,手语动作视频例如包括“打太极”、“喝水”,“踢足球”等,这些手语动作视频对应着有其动作类型标签,邻接矩阵用来表征手语动作视频中骨架动作样本图的关节点之间的关系。
在一种可能的实现方式中,如图3所示,本实施例在训练阶段,采用变分自编码器(Variational Auto-Encoder,VAE)网络训练得到基于时空图反卷积模型的解码网络,减轻了模型的训练难度。VAE网络包括基于时空图卷积模型的编码网络、重采样模块及基于时空图反卷积模型的解码网络。
其中,所述基于时空图卷积模型的编码网络包括串联连接的第一时空图卷积模型、时空图卷积模块及全连接模块,全连接模块包括第二全连接层(dense)和第三全连接层(dense),所述第一时空图卷积模型的输入端为所述编码网络的输入端,输入训练数据中从手语动作视频中抽取的至少一种动作的连续N帧骨架动作样本图的关节点坐标x、所述连续N帧骨架动作样本图的关节点坐标的邻接矩阵A及带有的动作类型标签y,所述第一时空图卷积模型的输出端连接所述时空图卷积模块的输入端,所述时空图卷积模块的输出端连接所述全连接模块的输入端,所述全连接模块的输出端为所述编码网络的输出端,输出动作的语义分布的标准差σ及动作的语义分布的均值μ。
其中,所述第一时空图卷积模型包括串联连接的第一卷积层、第一爱因斯坦求和约定层einsum(x,A,y)及第二卷积层,其中,第一卷积层与第一爱因斯坦求和约定层构成图卷积模型(Graph Convolutional Network,GCN),第二卷积层构成时间卷积模型或者说时序卷积模型(Temporal Convolutional Network,TCN)。
在一个具体示例中,第一卷积层和第二卷积层均采用conv2d结构。
所述时空图卷积模块包括串联连接的P个时空图卷积子模块;所述时空图卷积子模块包括第二残差网络(Residual)、第二时空卷积模型和第二计算层,所述第二计算层的输入端分别连接所述第二残差网络和所述第二时空卷积模型的输出端,所述第二计算层为加法层或拼接层。
在一个具体示例中,第二时空卷积模型包括串联连接的第三卷积层、第二爱因斯坦求和约定层einsum(x,A,y)及第四卷积层,其中,第三卷积层与第二爱因斯坦求和约定层构成图卷积模型,第四卷积层构成时间卷积模型或者说时序卷积模型。
第1个时空图卷积子模块的第二残差网络和第二时空卷积模型的输入端分别连接所述第一时空图卷积模型的输出端,第i+1个时空图卷积子模块的第二残差网络和第二时空卷积模型的输入端分别连接第i个时空图卷积子模块的第二计算层的输出端,第P个时空图卷积子模块的第二计算层的输出端分别连接所述第二全连接层和第三全连接层的输入端,1≤i<P。在本实施例中,P的值取为9。
在一个具体示例中,第1个时空图卷积子模块的第二残差网络和第二时空卷积模型的输入端分别连接所述第一时空图卷积模型的输出端,第2个时空图卷积子模块的第二残差网络和第二时空卷积模型的输入端分别连接第1个时空图卷积子模块的第二计算层的输出端,第3个时空图卷积子模块的第二残差网络和第二时空卷积模型的输入端分别连接第2个时空图卷积子模块的第二计算层的输出端,以此类推。第9个时空图卷积子模块的第二残差网络和第二时空卷积模型的输入端分别连接第8个时空图卷积子模块的第二计算层的输出端,第9个时空图卷积子模块的第二计算层的输出端分别连接所述第二全连接层和第三全连接层的输入端。
即,所述时空图卷积模块的输出端分别连接所述第二全连接层的输入端和所述第三全连接层的输入端;所述第二全连接层的输出端和所述第三全连接层的输出端分别作为所述编码网络的输出端,分别用于输出输入数据对应的动作的语义分布的标准差σ及语义分布的均值μ。
在一个具体示例中,第二全连接层和第三全连接层所包含的参数不同,以此来实现第二全连接层的输出端用于输出输入数据对应的动作的语义分布的标准差σ,第三全连接层的输出端用于输出输入数据对应的动作的语义分布的均值μ。
在一种可能的实现方式中,如图3所示,与基于时空图卷积模型的解码网络相对应的,所述基于时空图反卷积模型的解码网络包括串联连接的第一全连接层(dense)、时空图反卷积模块和第一时空图反卷积模型,所述第一全连接层的输入端为所述解码网络的输入端,所述第一全连接层的输出端连接所述时空图反卷积模块的输入端,所述时空图反卷积模块的输出端连接所述第一时空图反卷积模型的输入端,所述第一时空图反卷积模型的输出端作为所述解码网络的输出端。
在一个具体示例中,第一全连接层的输入端输入动作的词嵌入向量z、所述动作的词嵌入向量的邻接矩阵A'及动作类别标签y(训练阶段的动作类别标签为训练数据对应的,生成阶段的动作类别标签为用户指定的),其中,动作的词嵌入向量z是根据动作的语义分布的标准差σ及动作的语义分布的均值μ进行重采样得到的。
在一个具体示例中,所述重采样基于下述公式进行:z=s*σ+μ,其中,z为动作的词嵌入向量,s~N(0,1),即s服从标准正态分布,σ为动作的语义分布的标准差,μ为动作的语义分布的均值。
所述时空图反卷积模块包括串联连接的P个时空图反卷积子模块,P≥1;所述时空图反卷积子模块包括第一残差网络(Residual)、第二时空反卷积模型和第一计算层,所述第一计算层的输入端分别连接所述第一残差网络和所述第二时空反卷积模型的输出端,所述第一计算层为加法层或拼接层,所述第一计算层与所述第二计算层的计算逻辑相同,即,若第二计算层为加法层,则第一计算层也为加法层;若第二计算层为拼接层,则第一计算层也为拼接层。
在一个具体示例中,第二时空反卷积模型包括串联连接的第一反卷积层、第三爱因斯坦求和约定层einsum(z,A',y)及第二反卷积层,其中,第一反卷积层与第三爱因斯坦求和约定层构成图反卷积模型,第二反卷积层构成时间反卷积模型。
在一个具体示例中,第一反卷积层和第二反卷积层均采用deconv2d结构。
第1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接所述第一全连接层的输出端,第i+1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第i个时空图反卷积子模块的第一计算层的输出端,第P个时空图反卷积子模块的第一计算层的输出端连接所述第一时空图反卷积模型的输入端,1≤i<P。在本实施例中,P的值取为9。
在一个具体示例中,第1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接所述第一全连接层的输出端,第2个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第1个时空图反卷积子模块的第一计算层的输出端,第3个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第2个时空图反卷积子模块的第一计算层的输出端,以此类推,直到第9个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第8个时空图反卷积子模块的第一计算层的输出端,第9个时空图反卷积子模块的第一计算层的输出端连接所述第一时空图反卷积模型的输入端。
所述第一时空图反卷积模型包括串联连接的第三反卷积层、第四爱因斯坦求和约定层及第四反卷积层,其中,第三反卷积层与第四爱因斯坦求和约定层构成图反卷积模型,第四反卷积层构成时间反卷积模型。在生成阶段,所述第一时空图反卷积模型的输出端输出对应所述重采样得到的词嵌入向量的手语动作视频。
在一种可能的实现方式中,步骤S2中的文本编码网络为基于序列到序列模型的编码器的编码网络。步骤S2具体包括:利用带有词索引的多个文本句作为第二训练数据,训练输入数据为所述第二训练数据且输出数据为输入数据对应的手语动作的词嵌入向量的基于序列到序列模型的编码器的编码网络和输入数据为根据所述基于序列到序列模型的编码器的文本编码网络输出的词嵌入向量的基于序列到序列模型的解码器的文本解码网络。
在一个具体示例中,序列到序列模型(Sequence to Sequence,seq2seq)包括编码器-解码器(Encoder-Decoder)模型,在训练阶段:将词-索引对形式的文本句输入编码网络(Encoder),所述编码网络输出一系列含索引的词嵌入向量(IndexedWordEmbeddings);将所述一系列含索引的词嵌入向量输入到解码器网络,所述解码器网络输出与所述词嵌入向量对应的文本句。
另外,文本编码网络也可为基于卷积神经网络(Convolutional NeuralNetworks,CNN)的编码网络等。
本实施例利用在序列到序列模型中训练得到的编码器与在VAE网络中训练得到的基于时空图反卷积模型的解码网络进行融合,从而能够高效精确地生成与输入文本相对应的手语动作视频,实现文本与手语动作视频的转换。
本领域技术人员应当理解,上述步骤虽然按照S1-S3的顺序描述,但并不意味着一定按照这样的顺序执行,例如可以先执行S2,再执行S1,只要不违反逻辑。
如图4所示,本发明的另一个实施例提供一种用于将文本转换为手语动作视频的转换装置,包括:
编码单元,用于将待转换的文本数据输入已训练的文本编码网络,得到词嵌入向量;
解码单元,用于将所述词嵌入向量输入已训练的基于时空图反卷积模型的解码网络,得到对应所述文本数据的手语动作视频。
在一种可能的实现方式中,所述文本编码网络为基于序列到序列模型的编码器的编码网络。
在一种可能的实现方式中,所述基于时空图反卷积模型的解码网络包括串联连接的第一全连接层、时空图反卷积模块和第一时空图反卷积模型,所述第一全连接层的输入端为所述解码网络的输入端,所述第一时空图反卷积模型的输出端作为所述解码网络的输出端。
所述时空图反卷积模块包括串联连接的P个时空图反卷积子模块,P≥1;
所述时空图反卷积子模块包括第一残差网络、第二时空反卷积模型和第一计算层,所述第一计算层的输入端分别连接所述第一残差网络和所述第二时空反卷积模型的输出端,所述第一计算层为加法层或拼接层;
第1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接所述第一全连接层的输出端,第i+1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第i个时空图反卷积子模块的第一计算层的输出端,第P个时空图反卷积子模块的第一计算层的输出端连接所述第一时空图反卷积模型的输入端,1≤i<P。
需要说明的是,本实施例提供的将文本转换为手语动作视频的转换装置的原理及工作流程与上述将文本转换为手语动作视频的转换方法相似,相关之处可以参照上述说明,在此不再赘述。
如图5所示,本发明的另一个实施例提供的一种计算机设备的结构示意图。图5显示的计算机设备40仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,计算机设备40以通用计算设备的形式表现。计算机设备40的组件可以包括但不限于:一个或者多个处理器或者处理单元41,系统存储器47,连接不同系统组件(包括系统存储器47和处理单元41)的总线43。
总线43表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机设备40典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备40访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器47可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)44和/或高速缓存存储器45。计算机设备40可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统46可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线43相连。存储器47可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块47的程序/实用工具52,可以存储在例如存储器47中,这样的程序模块47包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块47通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备40也可以与一个或多个外部设备48(例如键盘、指向设备、显示器49等)通信,还可与一个或者多个使得用户能与该计算机设备40交互的设备通信,和/或与使得该计算机设备40能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口50进行。并且,计算机设备40还可以通过网络适配器51与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图5所示,网络适配器51通过总线43与计算机设备40的其它模块通信。应当明白,尽管图5中未示出,可以结合计算机设备40使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理器单元41通过运行存储在系统存储器47中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的一种骨架动作图生成方法。
本发明的另一个实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现:
S1:利用带有动作类型标签的多个手语动作视频作为第一训练数据,训练输入数据为所述第一训练数据且输出数据为对应的手语动作的语义分布参数的基于时空图卷积模型的编码网络和输入数据为根据所述基于时空图卷积模型的编码网络输出的所述语义分布参数进行重采样得到的词嵌入向量的基于时空图反卷积模型的解码网络;
S2:利用带有词索引的多个文本句作为第二训练数据,训练输入数据为所述第二训练数据且输出数据为输入数据对应的手语动作的词嵌入向量的文本编码网络和输入数据为根据所述文本编码网络输出的词嵌入向量的文本解码网络;
S3:将待转换的文本数据输入已训练的文本编码网络,得到词嵌入向量;将所述词嵌入向量输入已训练的基于时空图反卷积模型的解码网络,得到对应所述文本数据的手语动作视频。
在实际应用中,所述计算机可读存储介质可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
在本发明的描述中,需要说明的是,术语“上”、“下”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
还需要说明的是,在本发明的描述中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定,对于本领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动,这里无法对所有的实施方式予以穷举,凡是属于本发明的技术方案所引伸出的显而易见的变化或变动仍处于本发明的保护范围之列。

Claims (8)

1.一种将文本转换为手语动作视频的转换方法,其特征在于,包括:
将待转换的文本数据输入已训练的文本编码网络,得到词嵌入向量;
将所述词嵌入向量输入已训练的基于时空图反卷积模型的解码网络,得到对应所述文本数据的手语动作视频;
所述基于时空图反卷积模型的解码网络包括串联连接的第一全连接层、时空图反卷积模块和第一时空图反卷积模型,所述第一全连接层的输入端为所述解码网络的输入端,所述第一时空图反卷积模型的输出端作为所述解码网络的输出端;
所述时空图反卷积模块包括串联连接的P个时空图反卷积子模块,P≥1;
所述时空图反卷积子模块包括第一残差网络、第二时空反卷积模型和第一计算层,所述第一计算层的输入端分别连接所述第一残差网络和所述第二时空反卷积模型的输出端,所述第一计算层为加法层或拼接层;
第1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接所述第一全连接层的输出端,第i+1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第i个时空图反卷积子模块的第一计算层的输出端,第P个时空图反卷积子模块的第一计算层的输出端连接所述第一时空图反卷积模型的输入端,1≤i<P。
2.根据权利要求1所述的方法,其特征在于,所述文本编码网络为基于序列到序列模型的编码器的编码网络。
3.根据权利要求1所述的方法,其特征在于,该方法还包括:利用带有动作类型标签的多个手语动作视频作为第一训练数据,训练输入数据为所述第一训练数据且输出数据为输入数据对应的手语动作的语义分布参数的基于时空图卷积模型的编码网络和输入数据为根据所述基于时空图卷积模型的编码网络输出的所述语义分布参数进行重采样得到的词嵌入向量的基于时空图反卷积模型的解码网络。
4.根据权利要求1所述的方法,其特征在于,该方法还包括:利用带有词索引的多个文本句作为第二训练数据,训练输入数据为所述第二训练数据且输出数据为输入数据对应的手语动作的词嵌入向量的文本编码网络和输入数据为根据所述文本编码网络输出的词嵌入向量的文本解码网络。
5.一种用于将文本转换为手语动作视频的转换装置,其特征在于,包括:
编码单元,用于将待转换的文本数据输入已训练的文本编码网络,得到词嵌入向量;
解码单元,用于将所述词嵌入向量输入已训练的基于时空图反卷积模型的解码网络,得到对应所述文本数据的手语动作视频;
所述基于时空图反卷积模型的解码网络包括串联连接的第一全连接层、时空图反卷积模块和第一时空图反卷积模型,所述第一全连接层的输入端为所述解码网络的输入端,所述第一时空图反卷积模型的输出端作为所述解码网络的输出端;
所述时空图反卷积模块包括串联连接的P个时空图反卷积子模块,P≥1;
所述时空图反卷积子模块包括第一残差网络、第二时空反卷积模型和第一计算层,所述第一计算层的输入端分别连接所述第一残差网络和所述第二时空反卷积模型的输出端,所述第一计算层为加法层或拼接层;
第1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接所述第一全连接层的输出端,第i+1个时空图反卷积子模块的第一残差网络和第二时空反卷积模型的输入端分别连接第i个时空图反卷积子模块的第一计算层的输出端,第P个时空图反卷积子模块的第一计算层的输出端连接所述第一时空图反卷积模型的输入端,1≤i<P。
6.根据权利要求5所述的装置,其特征在于,所述文本编码网络为基于序列到序列模型的编码器的编码网络。
7.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-4中任一项所述的方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-4中任一项所述的方法。
CN202110895155.6A 2021-08-05 2021-08-05 一种将文本转换为手语动作视频的转换方法和装置 Active CN113781876B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110895155.6A CN113781876B (zh) 2021-08-05 2021-08-05 一种将文本转换为手语动作视频的转换方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110895155.6A CN113781876B (zh) 2021-08-05 2021-08-05 一种将文本转换为手语动作视频的转换方法和装置

Publications (2)

Publication Number Publication Date
CN113781876A CN113781876A (zh) 2021-12-10
CN113781876B true CN113781876B (zh) 2023-08-29

Family

ID=78836905

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110895155.6A Active CN113781876B (zh) 2021-08-05 2021-08-05 一种将文本转换为手语动作视频的转换方法和装置

Country Status (1)

Country Link
CN (1) CN113781876B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000330467A (ja) * 1999-05-18 2000-11-30 Hitachi Ltd 手話教育装置、手話教育方法、及び、手話教育方法が記録された記録媒体
CN110728203A (zh) * 2019-09-23 2020-01-24 清华大学 基于深度学习的手语翻译视频生成方法及系统
CN110807388A (zh) * 2019-10-25 2020-02-18 深圳追一科技有限公司 交互方法、装置、终端设备及存储介质
CN111325099A (zh) * 2020-01-21 2020-06-23 南京邮电大学 一种基于双流时空图卷积神经网络的手语识别方法及系统
CN111354362A (zh) * 2020-02-14 2020-06-30 北京百度网讯科技有限公司 用于辅助听障者交流的方法和装置
CN111723779A (zh) * 2020-07-20 2020-09-29 浙江大学 一种基于深度学习的中文手语识别系统
CN112329451A (zh) * 2020-12-03 2021-02-05 云知声智能科技股份有限公司 手语动作视频生成方法、装置、设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000330467A (ja) * 1999-05-18 2000-11-30 Hitachi Ltd 手話教育装置、手話教育方法、及び、手話教育方法が記録された記録媒体
CN110728203A (zh) * 2019-09-23 2020-01-24 清华大学 基于深度学习的手语翻译视频生成方法及系统
CN110807388A (zh) * 2019-10-25 2020-02-18 深圳追一科技有限公司 交互方法、装置、终端设备及存储介质
CN111325099A (zh) * 2020-01-21 2020-06-23 南京邮电大学 一种基于双流时空图卷积神经网络的手语识别方法及系统
CN111354362A (zh) * 2020-02-14 2020-06-30 北京百度网讯科技有限公司 用于辅助听障者交流的方法和装置
CN111723779A (zh) * 2020-07-20 2020-09-29 浙江大学 一种基于深度学习的中文手语识别系统
CN112329451A (zh) * 2020-12-03 2021-02-05 云知声智能科技股份有限公司 手语动作视频生成方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN113781876A (zh) 2021-12-10

Similar Documents

Publication Publication Date Title
CN111090987B (zh) 用于输出信息的方法和装置
CN108985358B (zh) 情绪识别方法、装置、设备及存储介质
CN113792113A (zh) 视觉语言模型获得及任务处理方法、装置、设备及介质
CN107680019A (zh) 一种考试方案的实现方法、装置、设备及存储介质
CN109685137A (zh) 一种题目分类方法、装置、电子设备及存储介质
CN112364810A (zh) 视频分类方法及装置、计算机可读存储介质与电子设备
CN113159010A (zh) 视频分类方法、装置、设备和存储介质
CN113947095A (zh) 多语种文本翻译方法、装置、计算机设备及存储介质
CN112488103A (zh) 地址信息抽取方法、模型训练方法及相关设备
CN115757731A (zh) 对话问句改写方法、装置、计算机设备及存储介质
CN114627354A (zh) 目标检测方法、装置、存储介质与电子设备
CN114579704A (zh) 一种语义匹配方法及其装置
CN113781876B (zh) 一种将文本转换为手语动作视频的转换方法和装置
CN110909578A (zh) 一种低分辨率图像识别方法、装置和存储介质
CN113254814A (zh) 网络课程视频打标签方法、装置、电子设备及介质
CN117272237A (zh) 基于多模态融合的专利附图多语言图解生成方法及系统
CN113065496A (zh) 神经网络机器翻译模型训练方法、机器翻译方法和装置
CN115544210A (zh) 基于持续学习的事件抽取的模型训练、事件抽取的方法
CN116756281A (zh) 知识问答方法、装置、设备和介质
CN110889717A (zh) 文本中的广告内容过滤方法、装置、电子设备及存储介质
CN115574867A (zh) 互感器故障检测方法、装置、电子设备及存储介质
CN113673222B (zh) 基于双向协同网络的社交媒体文本细粒度情感分析方法
US11710098B2 (en) Process flow diagram prediction utilizing a process flow diagram embedding
CN113780075B (zh) 骨架动作图生成方法、生成装置、计算机设备及介质
CN114548114A (zh) 文本情绪识别方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant