CN117893697A - 一种三维人体视频重建方法、装置、存储介质及电子设备 - Google Patents

一种三维人体视频重建方法、装置、存储介质及电子设备 Download PDF

Info

Publication number
CN117893697A
CN117893697A CN202410301176.4A CN202410301176A CN117893697A CN 117893697 A CN117893697 A CN 117893697A CN 202410301176 A CN202410301176 A CN 202410301176A CN 117893697 A CN117893697 A CN 117893697A
Authority
CN
China
Prior art keywords
image
text
data
feature representation
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202410301176.4A
Other languages
English (en)
Other versions
CN117893697B (zh
Inventor
王宏升
林峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202410301176.4A priority Critical patent/CN117893697B/zh
Publication of CN117893697A publication Critical patent/CN117893697A/zh
Application granted granted Critical
Publication of CN117893697B publication Critical patent/CN117893697B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Medical Informatics (AREA)
  • Architecture (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本说明书公开了一种三维人体视频重建方法、装置、存储介质及电子设备。所述三维人体视频重建方法包括:获取患者的视频数据以及视频数据对应的文本数据,将视频数据和文本数据分别输入到语言图像模型的图像编码器以及文本编码器中,以视频数据对应的各图像特征表示和各文本特征表示,将各图像特征表示和各文本特征表示输入到交叉模块中,以通过交叉模块针对每个图像特征表示,根据该图像特征表示和其他每个文本特征表示之间的相关度,视频数据对应的融合特征表示,进而将融合特征表示输入到解码器,以通过解码器确定患者的模型参数,并根据模型参数构建患者的人体三维模型。

Description

一种三维人体视频重建方法、装置、存储介质及电子设备
技术领域
本说明书涉及康复医学技术领域,尤其涉及一种三维人体视频重建方法、装置、存储介质及电子设备。
背景技术
在康复医学领域中,一种常用的帮助患者恢复身体功能的方法是采集患者按照预设的康复动作指示做出不同动作的视频图像数据,进而根据采集到的患者的视频图像数据,重建出患者的人体三维模型,以根据人体三维模型执行诸如:定位患者的损伤部位,预测治疗效果,以及监控康复进程等任务。
通常情况下,在重建患者的人体三维模型时需要将采集到的患者的视频图像数据输入到预设的卷积神经网络中以进行特征提取,从而可以通过回归器根据提取出的特征预测出人体三维模型的参数,以构建患者的人体三维模型。但是由于康复医学领域的视频图像数据通常具有较高的复杂性,使得通过卷积神经网络和回归器构建出的人体三维模型的准确性较低,进而导致后续的任务无法执行。
因此,如何能够提升重建出的人体三维模型的准确性,则是一个亟待解决的问题。
发明内容
本说明书提供一种三维人体视频重建方法、装置、存储介质及电子设备,以部分的解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种三维人体视频重建方法,
所述方法应用于预先训练的重建模型,所述重建模型包括:图像编码器、文本编码器、交叉模块、解码器,所述方法包括:
获取患者的视频数据以及所述视频数据对应的文本数据,所述文本数据为所述视频数据对应的康复训练动作的语义标签文本;
将所述视频数据输入到所述图像编码器中,以通过所述图像编码器,针对所述视频数据包含的每帧图像数据,确定该帧图像数据对应的图像特征表示;以及,
将所述文本数据输入到所述文本编码器中,以通过所述文本编码器,根据每帧图像数据对应的文本数据,确定该帧图像数据对应的文本特征表示;
将各图像特征表示和各文本特征表示输入到所述交叉模块中,以通过所述交叉模块针对每个图像特征表示,根据该图像特征表示和其他每个文本特征表示之间的相关度,确定该图像特征表示对应的注意力权重,并根据所述注意力权重,确定该帧图像数据对应的融合特征表示;
将所述融合特征表示输入到所述解码器,以通过所述解码器确定所述患者的模型参数,并根据所述模型参数构建所述患者的人体三维模型,所述模型参数包括:身体关节参数、人体粗细网格参数。
可选地,将所述视频数据输入到所述图像编码器中,以通过所述图像编码器,针对所述视频数据包含的每帧图像数据,确定该帧图像数据对应的图像特征表示,具体包括:
将所述视频数据输入到所述图像编码器中,以通过所述图像编码器,针对所述视频数据包含的每帧图像数据,将该帧图像数据分割为指定大小的各图像块,并确定每个图像块对应的基础特征表示,以及,根据每个图像块在该帧图像数据中的位置信息,确定每个图像块对应的位置编码;
针对每个图像块,根据该图像块对应的所述基础特征表示和所述位置编码,确定该图像块的图像块特征表示,并根据该图像块和每个其他图像块之间的相关度,确定该图像块对应的融合权重;
根据每个图像块对应的融合权重,将各图像块的图像块特征表示进行融合,得到该帧图像数据对应的图像特征表示。
可选地,将所述文本数据输入到所述文本编码器中,以通过所述文本编码器,根据每帧图像数据对应的文本数据,确定该帧图像数据对应的文本特征表示,具体包括:
将所述文本数据输入到所述文本编码器中,以通过所述文本编码器,针对每帧图像数据对应的文本数据,确定该文本数据中包含的每个词对应的词特征表示,以及,根据每个词在该文本数据中的位置信息,确定每个词对应的位置编码;
针对该文本数据中包含的每个词,根据该词对应的所述词特征表示和所述位置编码,确定该词的目标词特征表示,并根据该词和每个其他词之间的相关度,确定该词对应的融合词权重;
根据每个词对应的融合词权重,将该文本数据中包含的每个词的目标词特征表示进行融合,得到该文本数据对应的文本特征表示。
可选地,所述重建模型还包括:双扩散模块,所述双扩散模块包括:上分支模块、下分支模块;
将各图像特征表示和各文本特征表示输入到所述交叉模块中之前,所述方法还包括:
针对每个图像特征表示,将该图像特征表示输入到所述上分支模块中,以使所述上分支模块对该图像特征表示进行若干次加噪,得到该图像特征表示对应的加噪后图像特征表示,并通过预设的噪声预测器,确定该图像特征表示对应的预测噪声数据,根据所述预测噪声数据对所述加噪后图像特征表示进行去噪处理,得到去噪后的图像特征表示,作为优化后图像特征表示;以及
针对每个文本特征表示,将该文本特征表示输入到所述下分支模块中,以使所述下分支模块对该文本特征表示进行若干次加噪,得到该文本特征表示对应的加噪后文本特征表示,并通过预设的噪声预测器,确定该文本特征表示对应的预测噪声数据,根据所述预测噪声数据对所述加噪后文本特征表示进行去噪处理,得到去噪后的文本特征表示,作为优化后文本特征表示;
将各图像特征表示和各文本特征表示输入到所述交叉模块中,具体包括:
将各优化后图像特征表示和各优化后文本特征表示输入到所述交叉模块中。
可选地,所述重建模型还包括:时间卷积模块;
将所述融合特征表示输入到所述解码器之前,所述方法还包括:
将各帧图像数据对应的融合特征表示输入到所述时间卷积模块中,以使所述时间卷积模块,针对每个融合特征表示,根据该融合特征表示对应的图像数据的时间信息和其他融合特征表示对应的图像数据的时间信息,确定该融合特征表示对应的时间特征表示;
根据所述融合特征表示和所述时间特征表示,确定优化后融合特征表示;
将所述融合特征表示输入到所述解码器,具体包括:
将所述优化后融合特征表示输入到所述解码器。
可选地,所述重建模型还包括:图卷积模块;
根据所述融合特征表示和所述时间特征表示,确定优化后融合特征表示,具体包括:
将所述融合特征表示输入到所述图卷积模块中,以使图卷积模块针对每帧图像数据,针对每帧图像数据,确定所述患者在该帧图像数据中对应的位姿与所述患者在其他帧图像数据中对应的位姿之间的空间位置关系特征,并根据所述空间位置关系特征,确定该帧图像数据的空间特征表示;
根据所述空间特征表示和所述时间特征表示,确定优化后融合特征表示。
可选地,训练所述重建模型,具体包括:
获取样本康复数据集,所述样本康复数据集中包含历史采集的患者的样本视频数据、样本文本数据;
将所述样本视频数据输入到所述图像编码器中,以通过所述图像编码器,针对所述样本视频数据包含的每帧样本图像数据,确定该帧样本图像数据对应的样本图像特征表示;以及,
将所述样本文本数据输入到所述文本编码器中,以通过所述文本编码器,根据每帧样本图像数据对应的样本文本数据,确定该帧样本图像数据对应的样本文本特征表示;
将各样本图像特征表示和各样本文本特征表示输入到所述交叉模块中,以通过所述交叉模块针对每个样本图像特征表示,根据该样本图像特征表示和其他每个样本文本特征表示之间的相关度,确定该样本图像特征表示对应的注意力权重,并根据所述注意力权重,确定该帧样本图像数据对应的样本融合特征表示;
将所述样本融合特征表示输入到所述解码器,以通过所述解码器确定所述患者的样本模型参数;
以最小化所述样本模型参数和所述样本视频数据实际对应的模型参数之间的偏差为优化目标,对所述重建模型进行训练,得到训练后的重建模型。
本说明书提供了一种三维人体视频重建装置,包括:
获取模块,用于获取患者的视频数据以及所述视频数据对应的文本数据,所述文本数据为所述视频数据对应的康复训练动作的语义标签文本;
第一确定模块,用于将所述视频数据输入到所述图像编码器中,以通过所述图像编码器,针对所述视频数据包含的每帧图像数据,确定该帧图像数据对应的图像特征表示;以及,
第二确定模块,用于将所述文本数据输入到所述文本编码器中,以通过所述文本编码器,根据每帧图像数据对应的文本数据,确定该帧图像数据对应的文本特征表示;
融合模块,用于将各图像特征表示和各文本特征表示输入到所述交叉模块中,以通过所述交叉模块针对每个图像特征表示,根据该图像特征表示和其他每个文本特征表示之间的相关度,确定该图像特征表示对应的注意力权重,并根据所述注意力权重,确定该帧图像数据对应的融合特征表示;
重建模块,用于将所述融合特征表示输入到所述解码器,以通过所述解码器确定所述患者的模型参数,并根据所述模型参数构建所述患者的人体三维模型,所述模型参数包括:身体关节参数、人体粗细网格参数。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述三维人体视频重建方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述三维人体视频重建方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的三维人体视频重建方法中,首先获取患者的视频数据以及视频数据对应的文本数据,文本数据为视频数据对应的康复训练动作的语义标签文本,将视频数据输入到图像编码器中,以通过图像编码器,针对视频数据包含的每帧图像数据,确定该帧图像数据对应的图像特征表示,以及,将文本数据输入到文本编码器中,以通过文本编码器,根据每帧图像数据对应的文本数据,确定该帧图像数据对应的文本特征表示,将各图像特征表示和各文本特征表示输入到交叉模块中,以通过交叉模块针对每个图像特征表示,根据该图像特征表示和其他每个文本特征表示之间的相关度,确定该图像特征表示对应的注意力权重,并根据注意力权重,确定该帧图像数据对应的融合特征表示,将融合特征表示输入到解码器,以通过解码器确定患者的模型参数,并根据模型参数构建患者的人体三维模型,模型参数包括:身体关节参数、人体粗细网格参数。
从上述方法可以看出,可以通过重建模型的图像编码器确定视频数据中包含的每帧图像数据的图像特征表示,以及,通过重建模型的文本编码器确定视频数据中包含的每帧图像数据对应的文本数据的文本特征表示,从而可以通过将从文本特征表示中提取出交叉注意力信息融合到图像特征表示中,得到融合特征表示,并根据融合特征表示计算得到患者的模型参数,根据确定出的患者的模型参数构建人体三维模型,进而可以提升重建出的人体三维模型的准确性。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中提供的一种三维人体视频重建方法的流程示意图;
图2为本说明书中提供的患者的人体三维模型的构建过程示意图;
图3为本说明书中提供的双扩散模块的示意图;
图4为本说明书中提供的U型结构的神经网络框架的示意图;
图5为本说明书中提供的图像编码器和文本编码器训练方法示意图;
图6为本说明书提供的一种三维人体视频重建装置的示意图;
图7为本说明书提供的一种对应于图1的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中提供的一种三维人体视频重建方法的流程示意图,包括以下步骤:
S101:获取患者的视频数据以及所述视频数据对应的文本数据,所述文本数据为所述视频数据对应的康复训练动作的语义标签文本。
在本说明书中,在需要针对患者的患病情况进行诊断时,可以通过预设的图像采集设备,采集患者按照预设的康复训练动作的语义标签文本执行康复训练动作时的视频数据,这里的语义标签文本可以对患者需要执行的康复训练动作的详细描述文本。
例如:肩关节前屈运动:患者保持直立,双臂自然下垂,然后缓慢向前抬起一侧手臂,使肘关节保持伸直状态,直到手能触及到对侧肩膀,完成肩关节前屈的动作。
再例如:膝关节屈伸练习:患者平躺于治疗床上,保持一腿伸直,另一腿进行主动屈膝,尽量让膝盖靠近胸部,然后缓慢放下,重复此过程以锻炼膝关节的屈伸功能。
进一步地,业务平台可以通过预设的重建模型根据获取到的患者的视频数据,以及,视频数据对应的语义标签文本,重建患者在执行康复训练动作过程中的人体三维模型,进而可以通过将重建得到的患者的人体三维模型的模型参数和预设的标准模型参数进行比对,以确定患者执行康复训练动作时的动作完成度,进而可以使得医护人员根据患者执行康复训练动作时的动作完成度对患者的病情进行评估。
其中,上述的重建模型可以包括:语言图像模块、双扩散模块、交叉模块、解码器等结构,上述的语言图像模块包括:图像编码器、文本编码器,上述的双扩散模块包括:上分支模块、下分支模块。
在本说明书中,用于实现三维人体视频重建方法的执行主体,可以是指服务器等设置于业务平台的指定设备,也可以是指诸如台式电脑、笔记本电脑等终端设备,为了便于描述,下面仅以服务器是执行主体为例,对本说明书提供的三维人体视频重建方法进行说明。
S102:将所述视频数据输入到所述图像编码器中,以通过所述图像编码器,针对所述视频数据包含的每帧图像数据,确定该帧图像数据对应的图像特征表示。
S103:将所述文本数据输入到所述文本编码器中,以通过所述文本编码器,根据每帧图像数据对应的文本数据,确定该帧图像数据对应的文本特征表示。
在本说明书中,服务器可以将视频数据输入到重建模型的图像编码器中,以通过图像编码器,针对视频数据包含的每帧图像数据,确定该帧图像数据对应的图像特征表示,以及,将文本数据输入到文本编码器中,以通过文本编码器,根据每帧图像数据对应的文本数据,确定该帧图像数据对应的文本特征表示,其中,上述的图像编码器包括:线性投影层、位置编码层、至少一个变形器编码层、归一化层、残差连接层,上述的文本编码器包括:输入嵌入层、位置编码层、至少一个变形器编码模块、归一化层、残差连接层,服务器确定图像特征表示和文本特征表示的方法,如图2所示。
图2为本说明书中提供的患者的人体三维模型的构建过程示意图。
结合图2可以看出,服务器可以通过图像编码器,针对视频数据包含的每帧图像数据,将该帧图像数据分割为指定大小的各图像块,并通过图像编码器的线性投影层,确定每个图像块对应的基础特征表示,从而可以通过图像编码器的位置编码层,根据每个图像块在该帧图像数据中的位置信息,确定每个图像块对应的位置编码,进而可以针对每个图像块,根据该图像块对应的基础特征表示和位置编码,确定该图像块的图像块特征表示。
进一步地,服务器可以针对图像编码器中包含的每个变形器编码模块,将每个图像块的图像块特征表示输入到该变形器编码模块中,以通过该变形器编码模块根据该图像块和每个其他图像块之间的相关度,确定该图像块对应的融合权重,进而可以根据每个图像块对应的融合权重,将各图像块的图像块特征表示进行融合,得到该帧图像数据对应的图像特征表示。其中,上述的每个变形器编码模块的参数与其他变形器编码模块的参数不同,服务器可以通过多个变形器编码模块从多个不同的角度提取该帧图像数据对应的图像特征表示。
在实际应用场景中,为了提升图像编码器的稳定性和收敛性,以提升通过图像编码器确定出的该帧图像数据对应的图像特征表示的准确性,服务器还可以将该帧图像数据对应的图像特征表示输入到图像编码器的归一化层、残差连接层中,以对该帧图像数据对应的图像特征表示进行优化处理,得到该帧图像数据最终对应的图像特征表示。
同样地,服务器可以将文本数据输入到文本编码器中,以通过文本编码器的输入嵌入层,针对每帧图像数据对应的文本数据(这里的每帧图像数据对应的文本数据是指患者在该帧图像数据所呈现的动作对应的语义标签文本),确定该文本数据中包含的每个词对应的词特征表示。进而可以通过文本编码器中的位置编码层,根据每个词在该文本数据中的位置信息,确定每个词对应的位置编码,并针对该文本数据中包含的每个词,根据该词对应的词特征表示和位置编码,确定该词的目标词特征表示。
进一步地,服务器可以针对文本编码器中包含的每个变形器编码模块,将每个词的目标词特征表示输入到该变形器编码模块中,以使该变形器编码模块根据该词和每个其他词之间的相关度,确定该词对应的融合词权重,进而可以根据每个词对应的融合词权重,将该文本数据中包含的每个词的目标词特征表示进行融合,得到该文本数据对应的文本特征表示。
在实际应用场景中,为了提升文本编码器的稳定性和收敛性,以提升通过文本编码器确定出的该帧图像数据对应的文本数据的文本特征表示的准确性,服务器还可以将该文本数据对应的文本特征表示输入到文本编码器的归一化层、残差连接层中,以对该文本数据对应的文本特征表示进行优化处理,得到该文本数据最终对应的文本特征表示。
S104:将各图像特征表示和各文本特征表示输入到所述交叉模块中,以通过所述交叉模块针对每个图像特征表示,根据该图像特征表示和其他每个文本特征表示之间的相关度,确定该图像特征表示对应的注意力权重,并根据所述注意力权重,确定该帧图像数据对应的融合特征表示。
在本说明书中,服务器可以将各图像特征表示和各文本特征表示输入到交叉模块中,以通过交叉模块针对每个图像特征表示,根据该图像特征表示和其他每个文本特征表示之间的相关度,确定该图像特征表示对应的注意力权重,并根据注意力权重,确定该帧图像数据对应的融合特征表示。
在实际应用场景中,为了进一步地提升确定出的每帧图像数据对应的融合特征表示的准确性,在将各图像特征表示和各文本特征表示输入到交叉模块中之前,服务器还可以通过重建模型的双扩散模块,对上述的各图像特征表示和各文本特征表示进行优化,得到优化后图像特征表示以及优化后文本特征表示,具体如图3所示。
图3为本说明书中提供的双扩散模块的示意图。
结合图3可以看出,上述的双扩散模块包括:上分支模块、下分支模块,进一步地,服务器可以针对每个图像特征表示,将该图像特征表示输入到上分支模块中,以使上分支模块对图像特征表示进行若干次加噪,得到图像特征表示对应的加噪后图像特征表示,并通过预设的噪声预测器,确定图像特征表示对应的预测噪声数据,根据预测噪声数据对加噪后图像特征表示进行去噪处理,得到去噪后的图像特征表示,作为优化后图像特征表示。以及,可以针对每个文本特征表示,将该文本特征表示输入到下分支模块中,以使下分支模块对文本特征表示进行若干次加噪,得到文本特征表示对应的加噪后文本特征表示,并通过预设的噪声预测器,确定文本特征表示对应的预测噪声数据,根据预测噪声数据对加噪后文本特征表示进行去噪处理,得到去噪后的文本特征表示,作为优化后文本特征表示。
需要说明的是,上述的上分支模块和下分支模块可以采用U型结构的神经网络框架,具体如图4所示。
图4为本说明书中提供的U型结构的神经网络框架的示意图。
结合图4可以看出,服务器可以通过U型结构的神经网络框架中包含的每个变换器网络,对每个图像数据对应的图像文本特征表示以及文本特征表示进行加噪处理以及去噪处理,以得到优化后图像特征表示以及优化后文本特征表示。
为了便于理解,以下针对通过上述上分支模块对图像特征表示进行若干次加噪,得到图像特征表示对应的加噪后图像特征表示的方法进行详细说明。
具体地,服务器可以通过上述上分支模块对图像特征表示进行T次加噪,得到,其中,/>为图像特征表示,/>为图像特征表示对应的第T次加噪后的加噪后图像特征表示。其中,每次加入的噪声均为高斯噪声,服从正态分布/>,具体可以参考如下公式:
上述公式中,为第t次加噪后得到的加噪后图像特征表示,/>为第i次加噪时加入的噪声(从正态分布/>中采样得到的)。
进一步地,为了简化采样噪声的步骤,以提升加噪效率,服务器还可以仅从正态分布中采样一次,得到初始噪声/>,进而可以通过上分支模块根据图像特征表示的权重以及每一轮加噪的权重,/>,/>,(其中,针对每一轮加噪,该轮加噪的轮数越接近T,该轮加噪后的加噪后图像特征表示的权重越小,即,/></>,以此类推)确定每一轮加噪后的加噪图像特征表示,具体可以参考如下公式:
上述公式中,为第t次加噪后得到的加噪后图像特征表示,/>为第t轮加噪时噪声的权重。
需要说明的是,上述的图像特征表示的权重以及每一轮加噪的权重,可以是根据上分支模块中预设的超参数/>,确定的,具体可以参考如下公式:
,/>
上述公式中,为中间参数,上述的/>可以是在对上分支模块进行训练过程中,通过以最小化根据上分支模块输出的去噪后图像特征表示恢复的图像数据和真实图像数据之间的偏差为优化目标,对上分支模型进行训练后得到。
从上述内容可知,针对第t轮加噪后的加噪后图像特征表示,可以直接由图像特征表示/>直接加噪后得到,因此,服务器可以通过将第t轮加噪后的加噪后图像特征表示输入到噪声预测器中,以通过噪声预测器预测出第t轮加噪后的加噪后图像特征表示相对于图像特征表示/>的噪声/>,进而可以根据噪声/>,确定上一轮加噪后的加噪后图像特征表示(即,第t-1轮加噪后的加噪后图像特征表示/>),以此类推,即可得到去噪后的图像特征表示,另外,通过下分支模块确定去噪后的文本特征表示的方法与上述方法相同,本说明书在此就不在进行详细说明了。
进一步地,服务器可以将各优化后图像特征表示和各优化后文本特征表示输入到交叉模块中,以通过交叉模块确定每帧图像数据对应的融合特征表示。
S105:将所述融合特征表示输入到所述解码器,以通过所述解码器确定所述患者的模型参数,并根据所述模型参数构建所述患者的人体三维模型,所述模型参数包括:身体关节参数、人体粗细网格参数。
在本说明书中,服务器可以将融合特征表示输入到解码器,以通过解码器确定患者的模型参数,其中,上述的解码器包括:归一化层、多头自注意力层、时间卷积层、多头交叉注意力层、多层感知机。
具体地,服务器可以将融合特征表示输入到解码器,以通过解码器确定每个融合特征表示和其他融合特征表示之间的关联关系,并根据每个融合特征表示和其他融合特征表示之间的关联关系,确定患者的关节特征表示和网格顶点特征表示。
进一步地,可以将确定出的患者的关节特征表示和网格顶点特征表示输入到预设的回归器中,以通过预设的回归器,确定患者的模型参数,进而可以根据确定出的模型参数构建患者的人体三维模型,这里的模型参数包括:身体关节参数、人体粗细网格参数。
在实际应用场景中,通过上述方法构建出的人体三维模型可能会存在卡顿,这是由于在将每帧图像数据进行融合时,由于每帧图像数据对应的时间点作为离散变量,在将每帧图像数据的时间信息与患者在每帧图像数据下的空间位姿进行对齐时,可能存在对齐不准确的问题。
基于此,服务器还可以在将融合特征表示输入到解码器中之前,将各帧图像数据对应的融合特征表示输入到时间卷积模块中,以使时间卷积模块,针对每个融合特征表示,根据该融合特征表示对应的图像数据的时间信息和其他融合特征表示对应的图像数据的时间信息,确定该融合特征表示对应的时间特征表示。
进一步地,服务器可以将融合特征表示输入到图卷积模块中,以使图卷积模块针对每帧图像数据,针对每帧图像数据,确定患者在该帧图像数据中对应的位姿与患者在其他帧图像数据中对应的位姿之间的空间位置关系特征,并根据空间位置关系特征,确定该帧图像数据的空间特征表示,从而可以根据每帧图像数据对应的空间特征表示和时间特征表示,确定优化后融合特征表示。
其中,服务器根据每帧图像数据对应的空间特征表示和时间特征表示,确定优化后融合特征表示的方法可以为交叉注意力算法。
具体地,服务器可以针对每个图像数据,将该图像数据的融合特征表示作为值Value,该图像数据的时间特征表示作为键Key,以及,可以将该图像数据的空间特征表示作为查询Query,进而可以确定该图像数据的空间特征表示对应的Query与每个键Key之间的点乘值,根据该图像数据的空间特征表示对应的Query与每个键Key之间的点乘值,确定该Query和每个键之间对应的注意力权重,进而可以根据该Query和每个键之间对应的注意力权重以及每个键对应的值,确定该Query对应的上下文特征表示,从而可以根据该Query对应的上下文特征表示,进而可以根据该Query对应的上下文特征表示,确定该Query对应的图像数据的优化后融合特征表示。
需要说明的是,上述的重建模型需要经过训练后方可部署到服务器中,其中,上述的重建模型的训练方法可以为获取样本康复数据集,这里的样本康复数据集中包含历史采集的患者的样本视频数据、样本文本数据,将样本视频数据输入到图像编码器中,以通过图像编码器,针对样本视频数据包含的每帧样本图像数据,确定该帧样本图像数据对应的样本图像特征表示,以及,将样本文本数据输入到文本编码器中,以通过文本编码器,根据每帧样本图像数据对应的样本文本数据,确定该帧样本图像数据对应的样本文本特征表示。
进一步地,服务器可以将各样本图像特征表示和各样本文本特征表示输入到交叉模块中,以通过交叉模块针对每个样本图像特征表示,根据该样本图像特征表示和其他每个样本文本特征表示之间的相关度,确定该样本图像特征表示对应的注意力权重,并根据所述注意力权重,确定该帧样本图像数据对应的样本融合特征表示,将样本融合特征表示输入到解码器,以通过解码器确定患者的样本模型参数,以最小化样本模型参数和样本视频数据实际对应的模型参数之间的偏差为优化目标,对重建模型进行训练,得到训练后的重建模型。
值得说明的是,针对上述重建模型中的图像编码器和文本编码器的训练方法如图5所示。
图5为本说明书中提供的图像编码器和文本编码器训练方法示意图。
结合图5可以看出,上述的图像编码器和文本编码器的训练方法可以为,将样本康复数据集中的样本视频数据输入到图像编码器,以通过图像编码器,针对样本视频数据包含的每帧样本图像数据,确定该帧样本图像数据对应的样本图像特征表示,以及,将样本康复数据集中的样本文本数据输入到文本编码器中,以通过文本编码器,根据每帧样本图像数据对应的样本文本数据,确定该帧样本图像数据对应的样本文本特征表示。
进一步地,服务器针对每个帧样本图像数据,以该帧样本图像数据的样本图像特征表示和该帧样本图像数据对应的样本文本特征表示之间的余弦相似度相比于该帧样本图像数据的样本图像特征表示和其他帧样本图像数据对应的样本文本特征表示之间的余弦相似度越大为优化目标,对上述的重建模型中的图像编码器和文本编码器进行训练。
从上述内容中可以看出,服务器可以通过训练后的图像编码器和文本编码器,根据患者的视频数据和文本数据,为用户重建人体三维模型,以及,可以通过U型结构的神经网络的去噪过程增强时间特征引导的高维特征向量,进而可以提升生成人体三维模型的质量。
除此之外,服务器还可以通过时间卷积模块和图卷积模块,通过时间卷积层和图卷积学习更具有时空表达性的特征,更高效的表示出人体特征在三维视频流中的时间和空间真实分布。
以上为本说明书的一个或多个实施三维人体视频重建方法,基于同样的思路,本说明书还提供了相应的三维人体视频重建装置,如图6所示。
图6为本说明书提供的一种三维人体视频重建装置的示意图,包括:
获取模块601,用于获取患者的视频数据以及所述视频数据对应的文本数据,所述文本数据为所述视频数据对应的康复训练动作的语义标签文本;
第一确定模块602,用于将所述视频数据输入到所述图像编码器中,以通过所述图像编码器,针对所述视频数据包含的每帧图像数据,确定该帧图像数据对应的图像特征表示;以及,
第二确定模块603,用于将所述文本数据输入到所述文本编码器中,以通过所述文本编码器,根据每帧图像数据对应的文本数据,确定该帧图像数据对应的文本特征表示;
融合模块604,用于将各图像特征表示和各文本特征表示输入到所述交叉模块中,以通过所述交叉模块针对每个图像特征表示,根据该图像特征表示和其他每个文本特征表示之间的相关度,确定该图像特征表示对应的注意力权重,并根据所述注意力权重,确定该帧图像数据对应的融合特征表示;
重建模块605,用于将所述融合特征表示输入到所述解码器,以通过所述解码器确定所述患者的模型参数,并根据所述模型参数构建所述患者的人体三维模型,所述模型参数包括:身体关节参数、人体粗细网格参数。
可选地,所述第一确定模块602具体用于,将所述视频数据输入到所述图像编码器中,以通过所述图像编码器,针对所述视频数据包含的每帧图像数据,将该帧图像数据分割为指定大小的各图像块,并确定每个图像块对应的基础特征表示,根据每个图像块在该帧图像数据中的位置信息,确定每个图像块对应的位置编码;针对每个图像块,根据该图像块对应的所述基础特征表示和所述位置编码,确定该图像块的图像块特征表示,并根据该图像块和每个其他图像块之间的相关度,确定该图像块对应的融合权重;根据每个图像块对应的融合权重,将各图像块的图像块特征表示进行融合,得到该帧图像数据对应的图像特征表示。
可选地,所述第二确定模块603具体用于,将所述文本数据输入到所述文本编码器中,以通过所述文本编码器,针对每帧图像数据对应的文本数据,确定该文本数据中包含的每个词对应的词特征表示,以及,根据每个词在该文本数据中的位置信息,确定每个词对应的位置编码;针对该文本数据中包含的每个词,根据该词对应的所述词特征表示和所述位置编码,确定该词的目标词特征表示,并根据该词和每个其他词之间的相关度,确定该词对应的融合词权重;根据每个词对应的融合词权重,将该文本数据中包含的每个词的目标词特征表示进行融合,得到该文本数据对应的文本特征表示。
可选地,所述重建模型还包括:双扩散模块,所述双扩散模块包括:上分支模块、下分支模块;
所述第一确定模块602具体用于,针对每个图像特征表示,将该图像特征表示输入到所述上分支模块中,以使所述上分支模块对该图像特征表示进行若干次加噪,得到该图像特征表示对应的加噪后图像特征表示,并通过预设的噪声预测器,确定该图像特征表示对应的预测噪声数据,根据所述预测噪声数据对所述加噪后图像特征表示进行去噪处理,得到去噪后的图像特征表示,作为优化后图像特征表示;
所述第二确定模块603具体用于,针对每个文本特征表示,将该文本特征表示输入到所述下分支模块中,以使所述下分支模块对该文本特征表示进行若干次加噪,得到该文本特征表示对应的加噪后文本特征表示,并通过预设的噪声预测器,确定该文本特征表示对应的预测噪声数据,根据所述预测噪声数据对所述加噪后文本特征表示进行去噪处理,得到去噪后的文本特征表示,作为优化后文本特征表示;将各优化后图像特征表示和各优化后文本特征表示输入到所述交叉模块中。
可选地,所述重建模型还包括:时间卷积模块;
所述融合模块604具体用于,将各帧图像数据对应的融合特征表示输入到所述时间卷积模块中,以使所述时间卷积模块,针对每个融合特征表示,根据该融合特征表示对应的图像数据的时间信息和其他融合特征表示对应的图像数据的时间信息,确定该融合特征表示对应的时间特征表示;根据所述融合特征表示和所述时间特征表示,确定优化后融合特征表示;将所述优化后融合特征表示输入到所述解码器。
可选地,所述重建模型还包括:图卷积模块;
所述融合模块604具体用于,将所述融合特征表示输入到所述图卷积模块中,以使图卷积模块针对每帧图像数据,针对每帧图像数据,确定所述患者在该帧图像数据中对应的位姿与所述患者在其他帧图像数据中对应的位姿之间的空间位置关系特征,并根据所述空间位置关系特征,确定该帧图像数据的空间特征表示;根据所述空间特征表示和所述时间特征表示,确定优化后融合特征表示。
可选地,所述装置还包括:训练模块606;
所述训练模块606具体用于,获取样本康复数据集,所述样本康复数据集中包含历史采集的患者的样本视频数据、样本文本数据;将所述样本视频数据输入到所述图像编码器中,以通过所述图像编码器,针对所述样本视频数据包含的每帧样本图像数据,确定该帧样本图像数据对应的样本图像特征表示;以及,将所述样本文本数据输入到所述文本编码器中,以通过所述文本编码器,根据每帧样本图像数据对应的样本文本数据,确定该帧样本图像数据对应的样本文本特征表示;将各样本图像特征表示和各样本文本特征表示输入到所述交叉模块中,以通过所述交叉模块针对每个样本图像特征表示,根据该样本图像特征表示和其他每个样本文本特征表示之间的相关度,确定该样本图像特征表示对应的注意力权重,并根据所述注意力权重,确定该帧样本图像数据对应的样本融合特征表示;将所述样本融合特征表示输入到所述解码器,以通过所述解码器确定所述患者的样本模型参数;以最小化所述样本模型参数和所述样本视频数据实际对应的模型参数之间的偏差为优化目标,对所述重建模型进行训练,得到训练后的重建模型。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的一种三维人体视频重建方法。
本说明书还提供了图7所示的一种对应于图1的电子设备的示意结构图。如图7所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的三维人体视频重建方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(ProgrammableLogic Device, PLD)(例如现场可编程门阵列(Field Programmable Gate Array,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(HardwareDescription Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(AdvancedBoolean Expression Language)、AHDL(Altera Hardware Description Language)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(JavaHardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(Ruby HardwareDescription Language)等,目前最普遍使用的是VHDL(Very-High-Speed IntegratedCircuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (10)

1.一种三维人体视频重建方法,其特征在于,所述方法应用于预先训练的重建模型,所述重建模型包括:图像编码器、文本编码器、交叉模块、解码器,所述方法包括:
获取患者的视频数据以及所述视频数据对应的文本数据,所述文本数据为所述视频数据对应的康复训练动作的语义标签文本;
将所述视频数据输入到所述图像编码器中,以通过所述图像编码器,针对所述视频数据包含的每帧图像数据,确定该帧图像数据对应的图像特征表示;以及,
将所述文本数据输入到所述文本编码器中,以通过所述文本编码器,根据每帧图像数据对应的文本数据,确定该帧图像数据对应的文本特征表示;
将各图像特征表示和各文本特征表示输入到所述交叉模块中,以通过所述交叉模块针对每个图像特征表示,根据该图像特征表示和其他每个文本特征表示之间的相关度,确定该图像特征表示对应的注意力权重,并根据所述注意力权重,确定该帧图像数据对应的融合特征表示;
将所述融合特征表示输入到所述解码器,以通过所述解码器确定所述患者的模型参数,并根据所述模型参数构建所述患者的人体三维模型,所述模型参数包括:身体关节参数、人体粗细网格参数。
2.如权利要求1所述的方法,其特征在于,将所述视频数据输入到所述图像编码器中,以通过所述图像编码器,针对所述视频数据包含的每帧图像数据,确定该帧图像数据对应的图像特征表示,具体包括:
将所述视频数据输入到所述图像编码器中,以通过所述图像编码器,针对所述视频数据包含的每帧图像数据,将该帧图像数据分割为指定大小的各图像块,并确定每个图像块对应的基础特征表示,以及,根据每个图像块在该帧图像数据中的位置信息,确定每个图像块对应的位置编码;
针对每个图像块,根据该图像块对应的所述基础特征表示和所述位置编码,确定该图像块的图像块特征表示,并根据该图像块和每个其他图像块之间的相关度,确定该图像块对应的融合权重;
根据每个图像块对应的融合权重,将各图像块的图像块特征表示进行融合,得到该帧图像数据对应的图像特征表示。
3.如权利要求1所述的方法,其特征在于,将所述文本数据输入到所述文本编码器中,以通过所述文本编码器,根据每帧图像数据对应的文本数据,确定该帧图像数据对应的文本特征表示,具体包括:
将所述文本数据输入到所述文本编码器中,以通过所述文本编码器,针对每帧图像数据对应的文本数据,确定该文本数据中包含的每个词对应的词特征表示,以及,根据每个词在该文本数据中的位置信息,确定每个词对应的位置编码;
针对该文本数据中包含的每个词,根据该词对应的所述词特征表示和所述位置编码,确定该词的目标词特征表示,并根据该词和每个其他词之间的相关度,确定该词对应的融合词权重;
根据每个词对应的融合词权重,将该文本数据中包含的每个词的目标词特征表示进行融合,得到该文本数据对应的文本特征表示。
4.如权利要求1所述的方法,其特征在于,所述重建模型还包括:双扩散模块,所述双扩散模块包括:上分支模块、下分支模块;
将各图像特征表示和各文本特征表示输入到所述交叉模块中之前,所述方法还包括:
针对每个图像特征表示,将该图像特征表示输入到所述上分支模块中,以使所述上分支模块对该图像特征表示进行若干次加噪,得到该图像特征表示对应的加噪后图像特征表示,并通过预设的噪声预测器,确定该图像特征表示对应的预测噪声数据,根据所述预测噪声数据对所述加噪后图像特征表示进行去噪处理,得到去噪后的图像特征表示,作为优化后图像特征表示;以及
针对每个文本特征表示,将该文本特征表示输入到所述下分支模块中,以使所述下分支模块对该文本特征表示进行若干次加噪,得到该文本特征表示对应的加噪后文本特征表示,并通过预设的噪声预测器,确定该文本特征表示对应的预测噪声数据,根据所述预测噪声数据对所述加噪后文本特征表示进行去噪处理,得到去噪后的文本特征表示,作为优化后文本特征表示;
将各图像特征表示和各文本特征表示输入到所述交叉模块中,具体包括:
将各优化后图像特征表示和各优化后文本特征表示输入到所述交叉模块中。
5.如权利要求1所述的方法,其特征在于,所述重建模型还包括:时间卷积模块;
将所述融合特征表示输入到所述解码器之前,所述方法还包括:
将各帧图像数据对应的融合特征表示输入到所述时间卷积模块中,以使所述时间卷积模块,针对每个融合特征表示,根据该融合特征表示对应的图像数据的时间信息和其他融合特征表示对应的图像数据的时间信息,确定该融合特征表示对应的时间特征表示;
根据所述融合特征表示和所述时间特征表示,确定优化后融合特征表示;
将所述融合特征表示输入到所述解码器,具体包括:
将所述优化后融合特征表示输入到所述解码器。
6.如权利要求5所述的方法,其特征在于,所述重建模型还包括:图卷积模块;
根据所述融合特征表示和所述时间特征表示,确定优化后融合特征表示,具体包括:
将所述融合特征表示输入到所述图卷积模块中,以使图卷积模块针对每帧图像数据,针对每帧图像数据,确定所述患者在该帧图像数据中对应的位姿与所述患者在其他帧图像数据中对应的位姿之间的空间位置关系特征,并根据所述空间位置关系特征,确定该帧图像数据的空间特征表示;
根据所述空间特征表示和所述时间特征表示,确定优化后融合特征表示。
7.如权利要求1所述的方法,其特征在于,训练所述重建模型,具体包括:
获取样本康复数据集,所述样本康复数据集中包含历史采集的患者的样本视频数据、样本文本数据;
将所述样本视频数据输入到所述图像编码器中,以通过所述图像编码器,针对所述样本视频数据包含的每帧样本图像数据,确定该帧样本图像数据对应的样本图像特征表示;以及,
将所述样本文本数据输入到所述文本编码器中,以通过所述文本编码器,根据每帧样本图像数据对应的样本文本数据,确定该帧样本图像数据对应的样本文本特征表示;
将各样本图像特征表示和各样本文本特征表示输入到所述交叉模块中,以通过所述交叉模块针对每个样本图像特征表示,根据该样本图像特征表示和其他每个样本文本特征表示之间的相关度,确定该样本图像特征表示对应的注意力权重,并根据所述注意力权重,确定该帧样本图像数据对应的样本融合特征表示;
将所述样本融合特征表示输入到所述解码器,以通过所述解码器确定所述患者的样本模型参数;
以最小化所述样本模型参数和所述样本视频数据实际对应的模型参数之间的偏差为优化目标,对所述重建模型进行训练,得到训练后的重建模型。
8.一种三维人体视频重建装置,其特征在于,包括:
获取模块,用于获取患者的视频数据以及所述视频数据对应的文本数据,所述文本数据为所述视频数据对应的康复训练动作的语义标签文本;
第一确定模块,用于将所述视频数据输入到图像编码器中,以通过所述图像编码器,针对所述视频数据包含的每帧图像数据,确定该帧图像数据对应的图像特征表示;以及,
第二确定模块,用于将所述文本数据输入到文本编码器中,以通过所述文本编码器,根据每帧图像数据对应的文本数据,确定该帧图像数据对应的文本特征表示;
融合模块,用于将各图像特征表示和各文本特征表示输入到交叉模块中,以通过所述交叉模块针对每个图像特征表示,根据该图像特征表示和其他每个文本特征表示之间的相关度,确定该图像特征表示对应的注意力权重,并根据所述注意力权重,确定该帧图像数据对应的融合特征表示;
重建模块,用于将所述融合特征表示输入到解码器,以通过所述解码器确定所述患者的模型参数,并根据所述模型参数构建所述患者的人体三维模型,所述模型参数包括:身体关节参数、人体粗细网格参数。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~7任一项所述的方法。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~7任一项所述的方法。
CN202410301176.4A 2024-03-15 2024-03-15 一种三维人体视频重建方法、装置、存储介质及电子设备 Active CN117893697B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410301176.4A CN117893697B (zh) 2024-03-15 2024-03-15 一种三维人体视频重建方法、装置、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410301176.4A CN117893697B (zh) 2024-03-15 2024-03-15 一种三维人体视频重建方法、装置、存储介质及电子设备

Publications (2)

Publication Number Publication Date
CN117893697A true CN117893697A (zh) 2024-04-16
CN117893697B CN117893697B (zh) 2024-05-31

Family

ID=90641582

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410301176.4A Active CN117893697B (zh) 2024-03-15 2024-03-15 一种三维人体视频重建方法、装置、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN117893697B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110929587A (zh) * 2019-10-30 2020-03-27 杭州电子科技大学 一种基于层次注意力机制的双向重构网络视频描述方法
CN112819944A (zh) * 2021-01-21 2021-05-18 魔珐(上海)信息科技有限公司 三维人体模型重建方法、装置、电子设备及存储介质
CN115240103A (zh) * 2022-06-21 2022-10-25 有米科技股份有限公司 基于视频和文本的模型训练方法及装置
CN115240102A (zh) * 2022-06-21 2022-10-25 有米科技股份有限公司 基于图像和文本的模型训练方法及装置
CN116363563A (zh) * 2023-04-10 2023-06-30 清华大学 基于图像和文本的视频生成方法和装置
US20230214450A1 (en) * 2021-12-31 2023-07-06 Dell Products L.P. Method, electronic device, and computer program product for training model
CN116778392A (zh) * 2023-07-06 2023-09-19 城云科技(中国)有限公司 一种融合多模态的视频摘要提取模型的训练方法及应用
CN117372631A (zh) * 2023-12-07 2024-01-09 之江实验室 一种多视角图像生成模型的训练方法、应用方法
CN117544832A (zh) * 2023-11-17 2024-02-09 北京有竹居网络技术有限公司 用于生成视频的方法、装置、设备和介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110929587A (zh) * 2019-10-30 2020-03-27 杭州电子科技大学 一种基于层次注意力机制的双向重构网络视频描述方法
CN112819944A (zh) * 2021-01-21 2021-05-18 魔珐(上海)信息科技有限公司 三维人体模型重建方法、装置、电子设备及存储介质
WO2022156533A1 (zh) * 2021-01-21 2022-07-28 魔珐(上海)信息科技有限公司 三维人体模型重建方法、装置、电子设备及存储介质
US20230214450A1 (en) * 2021-12-31 2023-07-06 Dell Products L.P. Method, electronic device, and computer program product for training model
CN115240103A (zh) * 2022-06-21 2022-10-25 有米科技股份有限公司 基于视频和文本的模型训练方法及装置
CN115240102A (zh) * 2022-06-21 2022-10-25 有米科技股份有限公司 基于图像和文本的模型训练方法及装置
CN116363563A (zh) * 2023-04-10 2023-06-30 清华大学 基于图像和文本的视频生成方法和装置
CN116778392A (zh) * 2023-07-06 2023-09-19 城云科技(中国)有限公司 一种融合多模态的视频摘要提取模型的训练方法及应用
CN117544832A (zh) * 2023-11-17 2024-02-09 北京有竹居网络技术有限公司 用于生成视频的方法、装置、设备和介质
CN117372631A (zh) * 2023-12-07 2024-01-09 之江实验室 一种多视角图像生成模型的训练方法、应用方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
QINHU REN; QICHAO WANG; JIANHUA ZHANG; SHENGYONG CHEN: "Unordered images selection for dense 3D reconstruction based on Distance Dependent Chinese Restaurant Process", 2016 12TH WORLD CONGRESS ON INTELLIGENT CONTROL AND AUTOMATION (WCICA), 29 September 2016 (2016-09-29) *
ZEHUI MENG; HAILONG QIN; ZIYUE CHEN; XUDONG CHEN; HAO SUN; FENG LIN; MARCELO H. ANG: "A Two-Stage Optimized Next-View Planning Framework for 3-D Unknown Environment Exploration, and Structural Reconstruction", IEEE ROBOTICS AND AUTOMATION LETTERS ( VOLUME: 2, ISSUE: 3, JULY 2017), 18 January 2017 (2017-01-18) *
董猛;吴戈;曹洪玉;景文博;于洪洋;: "基于注意力残差卷积网络的视频超分辨率重构", 长春理工大学学报(自然科学版), no. 01, 15 February 2020 (2020-02-15) *

Also Published As

Publication number Publication date
CN117893697B (zh) 2024-05-31

Similar Documents

Publication Publication Date Title
CN117372631B (zh) 一种多视角图像生成模型的训练方法、应用方法
CN117880444B (zh) 一种长短时特征引导的人体康复运动视频数据生成方法
CN111639684B (zh) 一种数据处理模型的训练方法及装置
CN118115622B (zh) 图像生成模型的处理方法、装置、设备、存储介质及产品
CN117292704A (zh) 基于扩散模型的语音驱动姿势动作生成方法及装置
CN117635822A (zh) 一种模型训练的方法、装置、存储介质及电子设备
CN117893697B (zh) 一种三维人体视频重建方法、装置、存储介质及电子设备
CN116030247B (zh) 一种医学图像样本生成方法、装置、存储介质及电子设备
CN117079777A (zh) 一种医学影像的补全方法、装置、存储介质及电子设备
CN116977509A (zh) 虚拟对象动作生成方法、装置、计算机设备和存储介质
CN116168154A (zh) 一种预测方法、装置、设备及可读存储介质
CN116230146A (zh) 数据处理方法、icd编码模型的训练方法及相关设备
CN117893696B (zh) 一种三维人体数据生成方法、装置、存储介质及电子设备
CN118015161B (zh) 一种康复视频的生成方法及装置
CN117854666B (zh) 一种三维人体康复数据集构建方法及装置
CN117911630B (zh) 一种三维人体建模的方法、装置、存储介质及电子设备
CN117830564B (zh) 一种姿态分布指导的三维虚拟人模型重建方法
CN117726760B (zh) 一种用于视频的三维人体重建模型的训练方法及装置
CN117808976A (zh) 一种三维模型构建方法、装置、存储介质及电子设备
CN116229218B (zh) 一种模型训练、图像配准方法及装置
CN117726907A (zh) 一种建模模型的训练方法、三维人体建模的方法以及装置
CN116108163B (zh) 一种文本的匹配方法、装置、设备及存储介质
CN117978937B (zh) 一种视频生成的方法、装置、存储介质及电子设备
CN116309582B (zh) 一种便携式超声扫描图像的识别方法、装置及电子设备
CN116579414B (zh) 模型训练方法、mri薄层数据重建方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant