CN114677572A - 对象描述参数的生成方法、深度学习模型的训练方法 - Google Patents
对象描述参数的生成方法、深度学习模型的训练方法 Download PDFInfo
- Publication number
- CN114677572A CN114677572A CN202210371622.XA CN202210371622A CN114677572A CN 114677572 A CN114677572 A CN 114677572A CN 202210371622 A CN202210371622 A CN 202210371622A CN 114677572 A CN114677572 A CN 114677572A
- Authority
- CN
- China
- Prior art keywords
- image
- frame image
- key point
- parameters
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013136 deep learning model Methods 0.000 title claims abstract description 117
- 238000000034 method Methods 0.000 title claims abstract description 87
- 238000012549 training Methods 0.000 title claims abstract description 27
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims description 91
- 230000006870 function Effects 0.000 claims description 28
- 238000004590 computer program Methods 0.000 claims description 11
- 238000002372 labelling Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 230000003190 augmentative effect Effects 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract description 2
- 230000036544 posture Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 12
- 230000003993 interaction Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000010276 construction Methods 0.000 description 7
- 210000000988 bone and bone Anatomy 0.000 description 6
- 230000002829 reductive effect Effects 0.000 description 6
- 230000000877 morphologic effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000004215 skin function Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种对象描述参数的生成方法、深度学习模型的训练方法及装置、设备、介质和产品,涉及人工智能技术领域,具体为深度学习、计算机视觉技术领域,可应用于3D视觉、增强现实、虚拟现实等场景。具体实现方案包括:对图像序列进行特征提取,得到与图像序列中的至少一帧图像关联的图像特征;针对图像序列中的第i帧图像,对分别与第i帧图像和相邻帧图像关联的图像特征进行融合,得到针对第i帧图像的融合后的图像特征;以及基于融合后的图像特征,确定由第i帧图像指示的对象描述参数,i=1......N,N为大于1的整数,相邻帧图像包括图像序列中与第i帧图像相邻的至少一帧图像。
Description
技术领域
本公开涉及人工智能技术领域,具体为深度学习、计算机视觉技术领域,可应用于3D视觉、增强现实、虚拟现实等场景。
背景技术
对象描述参数在3D视觉、增强现实、虚拟现实等场景中有着广泛应用。但是,在一些场景下,对象描述参数的生成过程存在参数准确性不佳、参数确定成本高的现象。
发明内容
本公开提供了一种对象描述参数的生成方法、深度学习模型的训练方法及装置、设备、介质和产品。
根据本公开的一方面,提供了一种对象描述参数的生成方法,包括:对图像序列进行特征提取,得到与所述图像序列中的至少一帧图像关联的图像特征;针对所述图像序列中的第i帧图像,对分别与所述第i帧图像和相邻帧图像关联的图像特征进行融合,得到针对所述第i帧图像的融合后的图像特征;以及基于所述融合后的图像特征,确定由所述第i帧图像指示的对象描述参数,i=1,......N,N为大于1的整数,所述相邻帧图像包括所述图像序列中与所述第i帧图像相邻的至少一帧图像。
根据本公开的另一方面,提供了一种深度学习模型的训练方法,包括:利用待预训练的深度学习模型,根据分别与当前帧图像和相邻帧图像关联的图像特征,确定由所述当前帧图像指示的对象描述参数;基于所述对象描述参数,确定所述当前帧图像中的对象关键点信息;根据所述对象关键点信息和预设对象关键点标签,调整所述待预训练的深度学习模型的模型参数,得到经训练的深度学习模型,所述相邻帧图像包括图像序列中与所述当前帧图像相邻的至少一帧图像。
根据本公开的另一方面,提供了一种对象描述参数的生成方法,包括:将图像序列中的至少一帧图像输入深度学习模型;以及利用所述深度学习模型,根据分别与第i帧图像和相邻帧图像关联的图像特征,输出由所述第i帧图像指示的对象描述参数,所述深度学习模型为上述方面所述的方法训练得到,i=1,......N,N为大于1的整数,所述相邻帧图像包括所述图像序列中与所述第i帧图像相邻的至少一帧图像。
根据本公开的另一方面,提供了一种对象描述参数的生成装置,包括:第一处理模块,用于对图像序列进行特征提取,得到与所述图像序列中的至少一帧图像关联的图像特征;第二处理模块,用于针对所述图像序列中的第i帧图像,对分别与所述第i帧图像和相邻帧图像关联的图像特征进行融合,得到针对所述第i帧图像的融合后的图像特征;以及第三处理模块,用于基于所述融合后的图像特征,确定由所述第i帧图像指示的对象描述参数,i=1,......N,N为大于1的整数,所述相邻帧图像包括所述图像序列中与所述第i帧图像相邻的至少一帧图像。
根据本公开的另一方面,提供了一种深度学习模型的训练装置,包括:第五处理模块,用于利用待预训练的深度学习模型,根据分别与当前帧图像和相邻帧图像关联的图像特征,确定由所述当前帧图像指示的对象描述参数;第六处理模块,用于基于所述对象描述参数,确定所述当前帧图像中的对象关键点信息;第七处理模块,用于根据所述对象关键点信息和预设对象关键点标签,调整所述待预训练的深度学习模型的模型参数,得到经训练的深度学习模型,所述相邻帧图像包括图像序列中与所述当前帧图像相邻的至少一帧图像。
根据本公开的另一方面,提供了一种对象描述参数的生成装置,包括:第九处理模块,用于将图像序列中的至少一帧图像输入深度学习模型;以及第十处理模块,用于利用所述深度学习模型,根据分别与第i帧图像和相邻帧图像关联的图像特征,输出由所述第i帧图像指示的对象描述参数,所述深度学习模型为上述方面所述的方法训练得到,i=1,......N,N为大于1的整数,所述相邻帧图像包括所述图像序列中与所述第i帧图像相邻的至少一帧图像。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器和与所述至少一个处理器通信连接的存储器。其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的对象描述参数的生成方法或者深度学习模型的训练方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行上述的对象描述参数的生成方法或者深度学习模型的训练方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现上述的对象描述参数的生成方法或者深度学习模型的训练方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1示意性示出了根据本公开一实施例的对象描述参数的生成方法和装置的系统架构;
图2示意性示出了根据本公开一实施例的对象描述参数的生成方法的流程图;
图3示意性示出了根据本公开一实施例的深度学习模型的训练方法的流程图;
图4示意性示出了根据本公开又一实施例的深度学习模型的训练方法的流程图;
图5示意性示出了根据本公开一实施例的深度学习模型的训练过程示意图;
图6示意性示出了根据本公开另一实施例的对象描述参数的生成方法的流程图;
图7示意性示出了根据本公开一实施例的对象描述参数的生成装置的框图;
图8示意性示出了根据本公开一实施例的深度学习模型的训练装置的框图;
图9示意性示出了根据本公开另一实施例的对象描述参数的生成装置的框图;
图10示意性示出了根据本公开实施例的用于生成对象描述参数的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
本公开的实施例提供了一种对象描述参数的生成方法。本实施例方法包括:对图像序列进行特征提取,得到与图像序列中的至少一帧图像关联的图像特征,针对图像序列中的第i帧图像,对分别与第i帧图像和相邻帧图像关联的图像特征进行融合,得到针对第i帧图像的融合后的图像特征,以及基于融合后的图像特征,确定由第i帧图像指示的对象描述参数,i=1,......N,N为大于1的整数,相邻帧图像包括图像序列中与第i帧图像相邻的至少一帧图像。
图1示意性示出了根据本公开一实施例的对象描述参数的生成方法和装置的系统架构。需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
根据该实施例的系统架构100可以包括请求终端101、网络102和服务器103。网络102用于在请求终端101和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。服务器103可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或分布式系统,还可以是提供云服务、云计算、网络服务、中间件服务等基础云计算服务的云服务器。
请求终端101通过网络102与服务器103进行交互,以接收或发送数据等。请求终端101例如用于向服务器103发起对象描述参数的生成请求,请求终端101例如还用于向服务器103提供用于生成对象描述参数的图像序列。
服务器103可以是提供各种服务的服务器,例如可以是根据由请求终端101提供的图像序列进行对象描述参数生成的后台处理服务器(仅为示例)。
例如,服务器103响应于自请求终端101获取的图像序列,对图像序列进行特征提取,得到与图像序列中的至少一帧图像关联的图像特征,针对图像序列中的第i帧图像,对分别与第i帧图像和相邻帧图像关联的图像特征进行融合,得到针对第i帧图像的融合后的图像特征,以及基于融合后的图像特征,确定由第i帧图像指示的对象描述参数,i=1,......N,N为大于1的整数,相邻帧图像包括图像序列中与第i帧图像相邻的至少一帧图像。
需要说明的是,本公开实施例所提供的对象描述参数的生成方法可以由服务器103执行。相应地,本公开实施例所提供的对象描述参数的生成装置可以设置于服务器103中。本公开实施例所提供的对象描述参数的生成方法也可以由不同于服务器103且能够与请求终端101和/或服务器103通信的服务器或服务器集群执行。相应地,本公开实施例所提供的对象描述参数的生成装置也可以设置于不同于服务器103且能够与请求终端101和/或服务器103通信的服务器或服务器集群中。
应该理解,图1中的请求终端、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的请求终端、网络和服务器。
本公开实施例提供了一种对象描述参数的生成方法,下面结合图1的系统架构,参考图2来描述根据本公开示例性实施方式的对象描述参数的生成方法。本公开实施例的对象描述参数的生成方法例如可以由图1所示的服务器103来执行。
图2示意性示出了根据本公开一实施例的对象描述参数的生成方法的流程图。
如图2所示,本公开实施例的对象描述参数的生成方法200例如可以包括操作S210~操作S230。
在操作S210,对图像序列进行特征提取,得到与图像序列中的至少一帧图像关联的图像特征。
在操作S220,针对图像序列中的第i帧图像,对分别与第i帧图像和相邻帧图像关联的图像特征进行融合,得到针对第i帧图像的融合后的图像特征。
在操作S230,基于融合后的图像特征,确定由第i帧图像指示的对象描述参数。i=1,......N,N为大于1的整数,相邻帧图像包括图像序列中与第i帧图像相邻的至少一帧图像。
下面示例说明本实施例的对象描述参数的生成方法的各操作示例流程。
示例性地,可以对图像序列进行特征提取,得到与图像序列中的至少一帧图像关联的图像特征。针对图像序列中的第i帧图像,i=1,......N,N为大于1的整数,确定与第i帧图像关联的融合后的图像特征。
一种示例方式,可以基于通道加权机制,对分别与第i帧图像和相邻帧图像关联的图像特征进行逐通道拼接,得到针对第i帧图像的融合后的图像特征。融合后的图像特征例如可以是一个新的多通道特征图。第i帧图像可以是图像序列中的当前帧图像,相邻帧图像例如可以包括图像序列中与当前帧图像相邻的至少一帧图像。
另一示例方式,可以基于注意力机制,对分别与第i帧图像和相邻帧图像关联的图像特征进行融合,得到针对第i帧图像的融合后的图像特征。例如,可以对分别与第i帧图像和相邻帧图像关联的图像特征进行平均池化和最大池化处理。将池化处理后的图像特征进行拼接,以及对拼接后的图像特征依次进行卷积处理和Sigmoid操作(Sigmoid操作用于将数据映射至[-1,1]区间内),得到注意力矩阵。利用注意力矩阵对分别与第i帧图像和相邻帧图像关联的图像特征进行对应元素相乘操作,得到针对第i帧图像的融合后的图像特征。
根据针对第i帧图像的融合后的图像特征,确定由第i帧图像指示的对象描述参数。对象描述参数例如可以包括对象形态参数和对象姿势参数。对象形态参数例如可以包括由多个标量值构成的形状向量,多个标量值指示对象沿对应方向的膨胀/收缩量。对象姿势参数例如可以包括由多个标量值构成的姿势向量,姿势向量例如用于指示对象关键点的旋转值,旋转值例如被编码为任意三维矢量。
一种示例方式,可以根据对象描述参数,对第i帧图像中的目标对象进行姿势识别。示例性地,可以根据对象描述参数,确定目标对象的三维关键点信息。根据针对第i帧图像的投影参数,确定与三维关键点信息对应的二维关键点信息。根据三维关键点信息和二维关键点信息,对目标对象进行姿势识别,得到姿势识别结果。
根据针对第i帧图像的融合后的图像特征,确定对象描述参数。根据对象描述参数,对第i帧图像中的目标对象进行姿势识别,可以有效改善姿势识别精度,以及有效提升姿势识别效率,有利于为人机交互、行为识别、目标检测、对象追踪等应用提供有用的数据支持。
投影参数可以是基于针对第i帧图像的融合后的图像特征得到的。例如,可以利用经训练的深度学习模型,根据融合后的图像特征,回归得到与第i帧图像关联的相机参数。相机参数例如包括相机位姿参数和相机内参,相机位姿参数包括相机旋转参数和相机平移参数,相机旋转参数例如可由相机坐标系相对世界坐标系的旋转矩阵表示,相机平移参数例如可由相机坐标系相对世界坐标系的平移向量表示。经训练的深度学习模型例如可以是卷积神经网络模型(Convolutional Neural Networks,CNN)。
可以根据针对第i帧图像的投影参数,将三维关键点信息投影至二维图像平面,得到二维关键点信息。三维关键点信息例如可以指示关键点基于目标对象的位置信息和深度信息,二维关键点信息例如可以指示关键点基于二维图像平面的位置信息。关键点例如可以包括头顶、头部、脖子、左肩、右肩、左肘、右肘、左腕、右腕、胸腔、左髋、右髋等。可以基于三维关键点信息和二维关键点信息,对目标对象进行姿势识别,得到姿势识别结果。
另一示例方式,可以根据对象描述参数,构建针对目标对象的三维对象模型。根据由任意帧图像指示的对象形态参数,对三维基准模型进行拉伸变化,得到与目标对象的形态一致的初始对象模型。根据由第i帧图像指示的对象姿势参数,对初始对象模型中的模型顶点进行旋转和/或偏移处理,得到针对目标对象的三维对象模型。
根据与第i帧图像关联的融合后的图像特征,确定对象描述参数。根据对象描述参数,构建针对目标对象的三维对象模型,有利于生成稳定精确的三维对象模型,可以有效保证三维对象模型的姿势准确度。
示例性地,三维基准模型可以指示对象的平均形态参数和平均姿势参数。根据由任意帧图像指示的对象形态参数,对三维基准模型进行拉伸变化,得到与目标对象的形态一致的初始对象模型。例如,可以对三维基准模型的模型顶点进行拉伸,得到初始对象模型。
根据由第i帧图像指示的对象姿势参数,对初始对象模型的模型顶点进行旋转和/或偏移处理,得到针对目标对象的三维对象模型。通过对初始对象模型的模型顶点进行旋转和/或偏移处理,可以有效体现目标对象姿势所引起的初始对象模型的形变情况。
示例性地,根据针对目标对象的三维对象模型,可以将三维对象模型与基准骨骼模型进行绑定,生成初始虚拟形象。根据预设皮肤图像,重建初始虚拟形象的皮肤,得到针对目标对象的三维虚拟形象。
例如,可以确定三维对象模型的模型顶点与基准骨骼模型中的对应骨骼点之间的映射关系。基于映射关系,调整基准骨骼模型中的对应骨骼点的骨骼权重。将骨骼权重调整后的基准骨骼模型与三维对象模型进行绑定,生成初始虚拟形象。根据预设皮肤图像中的皮肤贴图和皮肤材质,重建初始虚拟形象的皮肤,以及根据预设服装图像中的服装贴图和服装材质,重建初始虚拟形象的服装,得到针对目标对象的三维虚拟形象。可以将三维虚拟形象与面部形变器进行绑定,面部形变器用于驱动三维虚拟形象的面部动作。
示例性地,可以响应于获取的用户的交互信息,解析交互信息中的关键字和/或情绪信息,以及根据关键字和/或情绪信息,驱动三维虚拟形象进行交互反馈。交互反馈例如可以包括语音反馈、动作反馈、表情反馈等。
针对图像序列中的第i帧图像,对分别与第i帧图像和相邻帧图像关联的图像特征进行融合,以及基于融合后的图像特征,确定由第i帧图像指示的对象描述参数,可以有效保证生成的对象描述参数的准确性,可以有效解决因单帧图像可能存在遮挡造成对象描述不稳定的现象,可以为对象姿势识别和虚拟模型构建提供有用的数据支持。能够有效降低对象描述参数生成对深度相机的依赖,有利于降低对象描述参数生成的硬件设施要求,可以有效减少对象描述参数生成的成本消耗。
图3示意性示出了根据本公开一实施例的深度学习模型的训练方法的流程图。
如图3所示,训练方法300例如可以包括操作S310~S330。
在操作S310,利用待预训练的深度学习模型,根据分别与当前帧图像和相邻帧图像关联的图像特征,确定由当前帧图像指示的对象描述参数。
在操作S320,基于对象描述参数,确定当前帧图像中的对象关键点信息。
在操作S330,根据对象关键点信息和预设对象关键点标签,调整待预训练的深度学习模型的模型参数,得到经训练的深度学习模型。
下面示例说明本实施例的模型训练方法的各操作的示例流程。
示例性地,利用待预训练的深度学习模型,对图像序列进行特征提取,得到与图像序列中的至少一帧图像关联的图像特征。针对至少一帧图像中的当前帧图像,对分别与当前帧图像和相邻帧图像关联的图像特征进行融合,得到融合后的图像帧。当前帧图像可以包括图像序列中的任意一帧或者任意几帧图像,相邻帧图像可以包括图像序列中与当前帧图像相邻的至少一帧图像。
基于融合后的图像帧和预设基准描述参数,确定由当前帧图像指示的对象描述参数。对象描述参数例如可以包括对象形态参数和对象姿势参数。基于对象描述参数,确定当前帧图像中的对象关键点信息。示例性地,基于对象描述参数,确定当前帧图像中的三维关键点信息和二维关键点信息。
根据对象关键点信息和预设对象关键点标签,调整待预训练的深度学习模型的模型参数,得到经训练的深度学习模型。示例性地,可以根据由对象关键点信息指示的关键点预测坐标和由对象关键点标签指示的关键点标注坐标,确定损失函数值。基于损失函数值,调整待预训练的深度学习模型的模型参数,得到经训练的深度学习模型。关键点预测坐标和关键点标注坐标可能指示对应关键点的位置信息,也可能指示对应关键点的深度信息。
基于损失函数值,调整待预训练的深度学习模型的模型参数。例如,从输入层至输出层反向逐层计算损失函数相对各层权值的偏导数,得到损失函数对权值向量的梯量。将梯量作为调整待预训练的深度学习模型的层级权值的依据,可以有效保证经训练的深度学习模型的准确性和可用性,有利于提升对象描述参数的预测精度。
可以基于经训练的深度学习模型,得到对象描述参数的生成模型。针对待处理的图像序列,可以利用经训练的深度学习模型,对图像序列进行特征提取,得到与图像序列中的至少一帧图像关联的图像特征。针对图像序列中的第i帧图像,根据分别与第i帧图像和相邻帧图像关联的图像特征,确定由第i帧图像指示的对象描述参数。i=1,......N,N为大于1的整数,相邻帧图像包括图像序列中与第i帧图像相邻的至少一帧图像。
可以根据由第i帧图像指示的对象描述参数,对第i帧图像中的目标对象进行识别,或者建立针对目标对象的三维对象模型。
示例性地,可以将经训练的深度学习模型部署于人机交互终端,例如将经训练的深度学习模型部署于游戏客户端、智能机器人等终端。还可以将经训练的深度学习模型部署于车辆终端,可以利用经训练的深度学习模型识别车辆行驶环境中的人体姿态等信息。
再示例性地,可以将经训练的深度学习模型部署于医疗终端,可以利用经训练的深度学习模型识别医疗图像中的三维人体姿态,构建三维人体模型,以便基于三维人体模型进行医学分析。此外,还可以将经训练的深度学习模型部署于监控终端,可以利用经训练的深度学习模型识别监控图像中的人体姿态信息,以便基于人体姿态信息进行目标追踪、姿态分析预警等操作。
可以理解的是,根据实际需要,可以将经训练的深度学习模型应用于待生成对象描述参数的任意应用场景,本实施例对此不进行限定。
根据分别与当前帧图像和相邻帧图像关联的图像特征,确定由当前帧图像指示的对象描述参数。根据对象关键点标签和由对象描述参数指示的对象关键点信息,调整待预训练的深度学习模型的模型参数,得到经训练的深度学习模型。可以有效保证经训练的深度学习模型的可用性和泛化性,有利于提升对象描述参数的预测精度,能够为对象姿势识别和虚拟模型构建提供可信的数据支持,有利于构建准确稳定的三维对象模型,能够很好地适用于行为识别、特效生成、娱乐交互等应用场景。
图4示意性示出了根据本公开又一实施例的深度学习模型的训练方法的流程图。
如图4所示,训练方法400例如可以包括操作S410~S440。
在操作S410,利用待预训练的深度学习模型,对分别与当前帧图像和相邻帧图像关联的图像特征进行融合,得到融合后的图像特征。
在操作S420,根据融合后的图像特征和预设基准描述参数,确定由当前帧图像指示的对象描述参数。
在操作S430,基于对象描述参数,确定当前帧图像中的对象关键点信息。
在操作S440,根据对象关键点信息和预设对象关键点标签,调整待预训练的深度学习模型的模型参数,得到经训练的深度学习模型。
下面示例说明本实施例的模型训练方法的各操作的示例流程。
示例性地,利用待预训练的深度学习模型,对分别与当前帧图像和相邻帧图像关联的图像特征进行融合,得到融合后的图像特征。根据融合后的图像特征和预设基准描述参数,确定由当前帧图像指示的对象描述参数。
例如,可以对融合后的图像特征进行平均池化,得到池化后的图像特征。将池化后的图像特征、基准描述参数和相机参数进行拼接,得到当前回归参数。相机参数可以基于融合后的图像特征得到的。
将当前回归参数作为待预训练的深度学习模型中的参数推断子模型的输入数据,得到基于当前回归参数的残差。利用残差更新当前回归参数,得到更新后的回归参数。将更新后的回归参数作为下一迭代回归中的当前回归参数,得到下一迭代回归中基于当前回归参数的残差。在迭代次数达到预设阈值的情况下,根据最后次迭代回归得到的更新后的回归参数,确定由当前帧图像指示的对象描述参数。参数推断子模型例如可采用残差网络(Residual Network,ResNet)实现。
基于对象描述参数,确定当前帧图像中的对象关键点信息。对象关键点信息例如可以包括三维关键点信息和二维关键点信息。一种示例方式,可以基于对象描述参数,确定当前帧图像中的三维关键点信息。根据针对当前帧图像的投影参数,确定与三维关键点信息对应的二维关键点信息,投影参数为基于融合后的图像特征得到。三维关键点信息和二维关键点信息构成当前帧图像中的对象关键点信息。
基于对象描述参数,确定当前帧图像中的三维关键点信息和二维关键点信息。根据三维关键点信息和二维关键点信息,调整待预训练的深度学习模型的模型参数,得到经训练的深度学习模型,可以有效保证经训练的深度学习模型的准确性和可用性,可以有效提升对象描述参数的预测精度,以及有利于降低对象描述参数预测的硬件设施要求,能够有效降低对象描述参数预测的成本消耗。
对象描述参数例如包括对象形态参数和对象姿势参数。对象形态参数和对象姿势参数可以指示三维对象模型。三维对象模型例如可由多个三角形、四边形或者其他多边形构成,每个形状的顶点构成三维对象模型的模型顶点。因此,可以基于对象描述参数,确定三维对象模型的模型顶点信息。即可以基于对象描述参数,确定当前帧图像中的三维关键点信息。
可以根据针对当前帧图像的投影参数,将三维关键点信息在二维图像平面中进行投影,得到二维关键点信息。投影参数可以根据用于采集当前帧图像的相机参数得到,相机参数可以基于针对当前帧图像的融合后的图像特征确定。二维关键点信息可以指示对应关键点基于图像平面的位置信息,三维关键点信息可以指示对应关键点基于目标对象的位置信息和深度信息。
根据三维关键点信息、三维关键点标签、二维关键点信息和二维关键点标签,确定损失函数值。根据损失函数值,调整待预训练的深度学习模型的模型参数,得到经训练的深度学习模型。
基于对象描述参数,确定当前帧图像中的对象关键点信息。对象关键点信息例如可以包括基准关键点信息和扩展关键点信息。基准关键点包括用于定位对象部位的关键点,扩展关键点包括用于协同表征所属部位的三维姿态的关键点。
另一示例方式,基于对象描述参数,构建三维对象模型。确定三维对象模型中的基准关键点信息和扩展关键点信息,基准关键点信息和扩展关键点信息构成当前帧图像中的对象关键点信息。基准关键点信息例如可以包括预设三维基准模型的模型顶点信息。
基于对象描述参数,确定当前帧图像中的基准关键点信息和扩展关键点信息。根据基准关键点信息和扩展关键点信息,调整待预训练的深度学习模型的模型参数,得到经训练的深度学习模型,可以有效保证经训练的深度学习模型的泛化性,能够有效提升对象描述参数的预测精度,有利于为对象姿势识别和虚拟模型构建提供可信的数据支持。
示例性地,在对象描述参数为多人线性蒙皮(Skinned Multi-Person Linear,SMPL)参数的情况下,可以基于SMPL参数构建三维对象模型。SMPL参数包括用于表征形态变化的形态参数β和用于表征姿势变化的姿势参数θ。可以将形态参数β和姿势参数θ作为SMPL变换函数的输入参数,得到三维对象模型M(β,θ)。例如可用以下公式表示三维对象模型M(β,θ)
W(*)表示线性蒙皮函数,表示三维基准模型的模型顶点坐标,Bs(β)表示形态参数β所引起的基准模型形变,Bp(θ)表示姿势参数θ所引起的基准模型形变,J(β)表示基于形态参数β的模型关键点坐标,w表示混合权重。
三维对象模型中可以包括基准关键点和扩展关键点信息,基准关键点包括用于定位对象部位的关键点,扩展关键点包括用于协同表征所属部位的三维姿态的关键点。基准关键点例如可以包括头顶关键点、下巴关键点、左肩关键点、右肩关键点、左手肘关键点、右手肘关键点、左手掌关键点、右手掌关键点等内容。以脚部为例进行说明,扩展关键点例如可以包括左脚踝关键点、右脚踝关键点、左脚跟关键点、右脚跟关键点、左脚尖关键点、右脚尖关键点等内容。
确定三维对象模型中的基准关键点信息和扩展关键点信息,例如可以确定三维对象模型中的基准关键点坐标和扩展关键点坐标,关键点坐标例如可以指示对应关键点基于三维对象模型的位置信息和/或深度信息。
可以根据基准关键点信息、基准关键点标签、扩展关键点信息、扩展关键点标签,计算损失函数值。根据损失函数值,调整待预训练的深度学习模型的模型参数,得到经训练的深度学习模型。
对分别与当前帧图像和相邻帧图像关联的图像特征进行融合,得到融合后的图像特征。根据融合后的图像特征和基准描述参数,确定由当前帧图像指示的对象描述参数。通过将由对象描述参数指示的对象关键点信息作为监督信息,指导调整待预训练的深度学习模型的模型参数,得到经训练的深度学习模型,可以有效保证深度学习模型的特征提取能力和建模能力,有利于保证经训练的深度学习模型的准确性和泛化性,可以有效提升对象描述参数的预测精度,以及有效降低对象描述参数的预测成本。
图5示意性示出了根据本公开一实施例的深度学习模型的训练过程示意图。
如图5所示,利用待预训练的深度学习模型中的特征提取网络对图像序列501进行特征提取,得到与图像序列501中的至少一帧图像关联的图像特征。示例性地,对图像序列501中的N帧图像进行特征提取,得到与N帧图像关联的图像特征502。与N帧图像关联的图像特征502例如可以包括图像特征F(1)、F(2)、......、F(N),N为大于2的整数。
针对图像序列501中的第i帧图像,可以利用特征融合网络对分别与第i帧图像和相邻帧图像关联的图像特征进行融合,得到针对第i帧图像的融合后的图像特征。i=1,......N,相邻帧图像包括图像序列501中与第i帧图像相邻的至少一帧图像。
根据与第i帧图像关联的融合后的图像特征,确定由第i帧图像指示的对象描述参数。示例性地,根据与N帧图像中的每帧图像关联的融合后的图像特征,确定由N帧图像指示的对象描述参数503。由N帧图像指示的对象描述参数503例如可以包括SMPL(1)、SMPL(2)、......、SMPL(N),SMPL参数例如包括形态参数β和姿势参数θ。
可以根据由第i帧图像指示的对象描述参数,确定与第i帧图像关联的三维对象模型。示例性地,根据由N帧图像中的每帧图像指示的对象描述参数,确定与N帧图像关联的三维对象模型504。即可以根据对象描述参数SMPL(1)、SMPL(2)、......、SMPL(N),确定与对应帧图像关联的三维对象模型。
根据与第i帧图像关联的三维对象模型,确定第i帧图像中的3D关键点信息和2D关键点信息。此外,也可以根据由第i帧图像指示的对象描述参数,直接确定第i帧图像中的3D关键点信息和2D关键点信息。
第i帧图像预先标注有3D关键点标签和2D关键点标签,可以根据与第i帧图像关联的3D关键点信息、3D关键点标签、2D关键点信息和2D关键点标签,确定损失函数值。
例如,可以根据与第i帧图像关联的3D关键点信息和3D关键点标签,确定第一损失函数值。根据与第i帧图像关联的2D关键点信息和2D关键点标签,确定第二损失函数值。根据第一损失函数值和第二损失函数值,确定综合损失函数值,以作为用于指导模型参数调整的损失函数值。
根据损失函数值,调整待预训练的深度学习模型的模型参数,得到经训练的深度学习模型。示例性地,可以基于经训练的深度学习模型,得到对象描述参数的生成模型。可以有效保证经训练的深度学习模型的准确性和可用性,可以有效提升对象描述参数的预测精度,以及有效降低对象描述参数的预测成本,有利于生成稳定可靠的三维对象模型,有利于为人机交互、行为识别、目标检测、虚拟现实等应用提供有用的数据支持。
图6示意性示出了根据本公开另一实施例的对象描述参数的生成方法的流程图。
如图6所示,本公开实施例的对象描述参数的生成方法600例如可以包括操作S610~操作S620。
在操作S610,将图像序列中的至少一帧图像输入深度学习模型。
在操作S620,利用深度学习模型,根据分别与第i帧图像和相邻帧图像关联的图像特征,输出由第i帧图像指示的对象描述参数,i=1,......N,N为大于1的整数,相邻帧图像包括图像序列中与第i帧图像相邻的至少一帧图像。
下面示例说明本实施例的对象描述参数的生成方法的各操作示例流程。
示例性地,将图像序列中的至少一帧图像输入深度学习模型,得到与至少一帧图像关联的图像特征。利用深度学习模型,根据分别与第i帧图像和相邻帧图像关联的图像特征,输出由第i帧图像指示的对象描述参数。i=1,......N,N为大于1的整数,相邻帧图像包括图像序列中与第i帧图像相邻的至少一帧图像。
一种示例方式,利用深度学习模型,对分别与第i帧图像和相邻帧图像关联的图像特征进行融合,得到针对第i帧图像的融合后的图像特征。根据针对第i帧图像的融合后的图像特征,输出由第i帧图像指示的对象描述参数。
对象描述参数例如可以包括对象形态参数和对象姿势参数。可以根据对象描述参数,对图像序列中的目标对象进行姿势识别。或者,根据对象描述参数,构建针对目标对象的三维对象模型。深度学习模型例如可以部署于人机交互终端、车载终端、医疗终端、监控终端等多种终端中。对象描述参数例如可以用于行为识别、特效生成、娱乐交互、人体姿态识别、医学分析、目标追踪等应用场景,本实施例对此不进行限定。
通过利用深度学习模型,根据分别与第i帧图像和相邻帧图像关联的图像特征,输出由第i帧图像指示的对象描述参数,可以有效保证生成的对象描述参数的准确性,可以有效解决因单帧图像可能存在遮挡造成对象描述不稳定的现象,有利于降低对象描述参数生成的硬件设施要求。
图7示意性示出了根据本公开一实施例的对象描述参数的生成装置的框图。
如图7所示,本公开实施例的对象描述参数的生成装置700例如包括第一处理模块710、第二处理模块720和第三处理模块730。
第一处理模块710,用于对图像序列进行特征提取,得到与图像序列中的至少一帧图像关联的图像特征;第二处理模块720,用于针对图像序列中的第i帧图像,对分别与第i帧图像和相邻帧图像关联的图像特征进行融合,得到针对第i帧图像的融合后的图像特征;以及第三处理模块730,用于基于融合后的图像特征,确定由第i帧图像指示的对象描述参数,i=1,......N,N为大于1的整数,相邻帧图像包括图像序列中与第i帧图像相邻的至少一帧图像。
针对图像序列中的第i帧图像,对分别与第i帧图像和相邻帧图像关联的图像特征进行融合,以及基于融合后的图像特征,确定由第i帧图像指示的对象描述参数,可以有效保证生成的对象描述参数的准确性,可以有效解决因单帧图像可能存在遮挡造成对象描述不稳定的现象,可以为对象姿势识别和虚拟模型构建提供有用的数据支持。能够有效降低对象描述参数生成对深度相机的依赖,有利于降低对象描述参数生成的硬件设施要求,可以有效减少对象描述参数生成的成本消耗。
根据本公开的实施例,本装置还包括:第四处理模块,用于根据对象描述参数,对第i帧图像中的目标对象进行姿势识别;和/或根据对象描述参数,构建针对目标对象的三维对象模型。
根据本公开的实施例,第四处理模块包括:第一处理子模块,用于根据对象描述参数,确定目标对象的三维关键点信息;第二处理子模块,用于根据针对第i帧图像的投影参数,确定与三维关键点信息对应的二维关键点信息,投影参数为基于融合后的图像特征得到;以及第三处理子模块,用于基于三维关键点信息和二维关键点信息,对目标对象进行姿势识别,得到姿势识别结果。
根据本公开的实施例,对象描述参数包括对象形态参数和对象姿势参数;第四处理模块包括:第四处理子模块,用于根据由任意帧图像指示的对象形态参数,对三维基准模型进行拉伸变化,得到与目标对象的形态一致的初始对象模型;以及第五处理子模块,用于根据由第i帧图像指示的对象姿势参数,对初始对象模型中的模型顶点进行旋转和/或偏移处理,得到针对目标对象的三维对象模型。
图8示意性示出了根据本公开一实施例的深度学习模型的训练装置的框图。
如图8所示,本公开实施例的深度学习模型的训练装置800例如包括第五处理模块810、第六处理模块820和第七处理模块830。
第五处理模块810,用于利用待预训练的深度学习模型,根据分别与当前帧图像和相邻帧图像关联的图像特征,确定由当前帧图像指示的对象描述参数;第六处理模块820,用于基于对象描述参数,确定当前帧图像中的对象关键点信息;第七处理模块830,用于根据对象关键点信息和预设对象关键点标签,调整待预训练的深度学习模型的模型参数,得到经训练的深度学习模型,相邻帧图像包括图像序列中与当前帧图像相邻的至少一帧图像。
根据分别与当前帧图像和相邻帧图像关联的图像特征,确定由当前帧图像指示的对象描述参数。根据对象关键点标签和由对象描述参数指示的对象关键点信息,调整待预训练的深度学习模型的模型参数,得到经训练的深度学习模型。可以有效保证经训练的深度学习模型的可用性和泛化性,有利于提升对象描述参数的预测精度,能够为对象姿势识别和虚拟模型构建提供可信的数据支持,有利于构建准确稳定的三维对象模型。
根据本公开的实施例,第五处理模块包括:第六处理子模块,用于利用待预训练的深度学习模型,对分别与当前帧图像和相邻帧图像关联的图像特征进行融合,得到融合后的图像特征;以及第七处理子模块,用于根据融合后的图像特征和预设基准描述参数,确定由当前帧图像指示的对象描述参数。
根据本公开的实施例,第六处理模块包括:第八处理子模块,用于基于对象描述参数,确定当前帧图像中的三维关键点信息;第九处理子模块,用于根据针对当前帧图像的投影参数,确定与三维关键点信息对应的二维关键点信息,投影参数为基于融合后的图像特征得到;以及第十处理子模块,用于三维关键点信息和二维关键点信息构成当前帧图像中的对象关键点信息。
根据本公开的实施例,第六处理模块包括:第十一处理子模块,用于基于对象描述参数,构建三维对象模型;第十二处理子模块,用于确定三维对象模型中的基准关键点信息和扩展关键点信息;以及第十三处理子模块,用于基准关键点信息和扩展关键点信息构成当前帧图像中的对象关键点信息,基准关键点包括用于定位对象部位的关键点,扩展关键点包括用于协同表征所属部位的三维姿态的关键点。
根据本公开的实施例,第七处理模块包括:第十四处理子模块,用于根据由对象关键点信息指示的关键点预测坐标和由对象关键点标签指示的关键点标注坐标,确定损失函数值;以及第十五处理子模块,用于基于损失函数值,调整待预训练的深度学习模型的模型参数,得到经训练的深度学习模型。
根据本公开的实施例,该装置还包括:第八处理模块,用于基于经训练的深度学习模型,得到对象描述参数的生成模型。
图9示意性示出了根据本公开另一实施例的对象描述参数的生成装置的框图。
如图9所示,本公开实施例的对象描述参数的生成装置900例如包括第九处理模块910和第十处理模块920。
第九处理模块910,用于将图像序列中的至少一帧图像输入深度学习模型;第十处理模块920,用于利用深度学习模型,根据分别与第i帧图像和相邻帧图像关联的图像特征,输出由第i帧图像指示的对象描述参数,i=1,......N,N为大于1的整数,相邻帧图像包括图像序列中与第i帧图像相邻的至少一帧图像。
通过利用深度学习模型,根据分别与第i帧图像和相邻帧图像关联的图像特征,输出由第i帧图像指示的对象描述参数,可以有效保证生成的对象描述参数的准确性,可以有效解决因单帧图像可能存在遮挡造成对象描述不稳定的现象,有利于降低对象描述参数生成的硬件设施要求。
应该注意的是,本公开的技术方案中,所涉及的信息收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图10示意性示出了根据本公开实施例的用于生成对象描述参数的电子设备的框图。
图10示出了可以用来实施本公开实施例的示例电子设备1000的示意性框图。电子设备1000旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图10所示,设备1000包括计算单元1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序或者从存储单元1008加载到随机访问存储器(RAM)1003中的计算机程序,来执行各种适当的动作和处理。在RAM 1003中,还可存储设备1000操作所需的各种程序和数据。计算单元1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006,例如键盘、鼠标等;输出单元1007,例如各种类型的显示器、扬声器等;存储单元1008,例如磁盘、光盘等;以及通信单元1009,例如网卡、调制解调器、无线通信收发机等。通信单元1009允许设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1001可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1001的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行待预训练的深度学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1001执行上文所描述的各个方法和处理,例如对象描述生成方法。例如,在一些实施例中,对象描述生成方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1008。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1002和/或通信单元1009而被载入和/或安装到设备1000上。当计算机程序加载到RAM 1003并由计算单元1001执行时,可以执行上文描述的对象描述参数生成方法的一个或多个步骤。备选地,在其他实施例中,计算单元1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行对象描述参数生成方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程模型训练装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与对象的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向对象显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),对象可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与对象的交互;例如,提供给对象的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自对象的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形对象界面或者网络浏览器的对象计算机,对象可以通过该图形对象界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (25)
1.一种对象描述参数的生成方法,包括:
对图像序列进行特征提取,得到与所述图像序列中的至少一帧图像关联的图像特征;
针对所述图像序列中的第i帧图像,对分别与所述第i帧图像和相邻帧图像关联的图像特征进行融合,得到针对所述第i帧图像的融合后的图像特征;以及
基于所述融合后的图像特征,确定由所述第i帧图像指示的对象描述参数,
其中,i=1,......N,N为大于1的整数,所述相邻帧图像包括所述图像序列中与所述第i帧图像相邻的至少一帧图像。
2.根据权利要求1所述的方法,还包括:
根据所述对象描述参数,对所述第i帧图像中的目标对象进行姿势识别;和/或
根据所述对象描述参数,构建针对所述目标对象的三维对象模型。
3.根据权利要求2所述的方法,其中,所述根据所述对象描述参数,对所述第i帧图像中的目标对象进行姿势识别,包括:
根据所述对象描述参数,确定所述目标对象的三维关键点信息;
根据针对所述第i帧图像的投影参数,确定与所述三维关键点信息对应的二维关键点信息,其中,所述投影参数为基于所述融合后的图像特征得到;以及
基于所述三维关键点信息和所述二维关键点信息,对所述目标对象进行姿势识别,得到姿势识别结果。
4.根据权利要求2所述的方法,其中,所述对象描述参数包括对象形态参数和对象姿势参数;所述根据所述对象描述参数,构建针对所述目标对象的三维对象模型,包括
根据由任意帧图像指示的所述对象形态参数,对三维基准模型进行拉伸变化,得到与所述目标对象的形态一致的初始对象模型;以及
根据由所述第i帧图像指示的所述对象姿势参数,对所述初始对象模型中的模型顶点进行旋转和/或偏移处理,得到针对所述目标对象的三维对象模型。
5.一种深度学习模型的训练方法,包括:
利用待预训练的深度学习模型,根据分别与当前帧图像和相邻帧图像关联的图像特征,确定由所述当前帧图像指示的对象描述参数;
基于所述对象描述参数,确定所述当前帧图像中的对象关键点信息;
根据所述对象关键点信息和预设对象关键点标签,调整所述待预训练的深度学习模型的模型参数,得到经训练的深度学习模型,
其中,所述相邻帧图像包括图像序列中与所述当前帧图像相邻的至少一帧图像。
6.根据权利要求5所述的方法,其中,所述利用待预训练的深度学习模型,根据分别与当前帧图像和相邻帧图像关联的图像特征,确定由所述当前帧图像指示的对象描述参数,包括:
利用所述待预训练的深度学习模型,对分别与所述当前帧图像和所述相邻帧图像关联的图像特征进行融合,得到融合后的图像特征;以及
根据所述融合后的图像特征和预设基准描述参数,确定由所述当前帧图像指示的对象描述参数。
7.根据权利要求6所述的方法,其中,所述基于所述对象描述参数,确定所述当前帧图像中的对象关键点信息,包括:
基于所述对象描述参数,确定所述当前帧图像中的三维关键点信息;
根据针对所述当前帧图像的投影参数,确定与所述三维关键点信息对应的二维关键点信息,其中,所述投影参数为基于所述融合后的图像特征得到;以及
所述三维关键点信息和所述二维关键点信息构成所述当前帧图像中的对象关键点信息。
8.根据权利要求5所述的方法,其中,所述基于所述对象描述参数,确定所述当前帧图像中的对象关键点信息,包括:
基于所述对象描述参数,构建三维对象模型;
确定所述三维对象模型中的基准关键点信息和扩展关键点信息;以及
所述基准关键点信息和所述扩展关键点信息构成所述当前帧图像中的对象关键点信息,
其中,所述基准关键点包括用于定位对象部位的关键点,所述扩展关键点包括用于协同表征所属部位的三维姿态的关键点。
9.根据权利要求5至8中任一项所述的方法,其中,所述根据所述对象关键点信息和预设对象关键点标签,调整所述待预训练的深度学习模型的模型参数,得到经训练的深度学习模型,包括:
根据由所述对象关键点信息指示的关键点预测坐标和由所述对象关键点标签指示的关键点标注坐标,确定损失函数值;以及
基于所述损失函数值,调整所述待预训练的深度学习模型的模型参数,得到所述经训练的深度学习模型。
10.根据权利要求5至8中任一项所述的方法,还包括:
基于所述经训练的深度学习模型,得到对象描述参数的生成模型。
11.一种对象描述参数的生成方法,包括:
将图像序列中的至少一帧图像输入深度学习模型;以及
利用所述深度学习模型,根据分别与第i帧图像和相邻帧图像关联的图像特征,输出由所述第i帧图像指示的对象描述参数,
其中,所述深度学习模型为根据权利要求5至10中任一项所述的方法训练得到,i=1,......N,N为大于1的整数,所述相邻帧图像包括所述图像序列中与所述第i帧图像相邻的至少一帧图像。
12.一种对象描述参数的生成装置,包括:
第一处理模块,用于对图像序列进行特征提取,得到与所述图像序列中的至少一帧图像关联的图像特征;
第二处理模块,用于针对所述图像序列中的第i帧图像,对分别与所述第i帧图像和相邻帧图像关联的图像特征进行融合,得到针对所述第i帧图像的融合后的图像特征;以及
第三处理模块,用于基于所述融合后的图像特征,确定由所述第i帧图像指示的对象描述参数,
其中,i=1,......N,N为大于1的整数,所述相邻帧图像包括所述图像序列中与所述第i帧图像相邻的至少一帧图像。
13.根据权利要求12所述的装置,还包括:
第四处理模块,用于根据所述对象描述参数,对所述第i帧图像中的目标对象进行姿势识别;和/或
根据所述对象描述参数,构建针对所述目标对象的三维对象模型。
14.根据权利要求13所述的装置,其中,所述第四处理模块包括:
第一处理子模块,用于根据所述对象描述参数,确定所述目标对象的三维关键点信息;
第二处理子模块,用于根据针对所述第i帧图像的投影参数,确定与所述三维关键点信息对应的二维关键点信息,其中,所述投影参数为基于所述融合后的图像特征得到;以及
第三处理子模块,用于基于所述三维关键点信息和所述二维关键点信息,对所述目标对象进行姿势识别,得到姿势识别结果。
15.根据权利要求13所述的装置,其中,所述对象描述参数包括对象形态参数和对象姿势参数;所述第四处理模块包括:
第四处理子模块,用于根据由任意帧图像指示的所述对象形态参数,对三维基准模型进行拉伸变化,得到与所述目标对象的形态一致的初始对象模型;以及
第五处理子模块,用于根据由所述第i帧图像指示的所述对象姿势参数,对所述初始对象模型中的模型顶点进行旋转和/或偏移处理,得到针对所述目标对象的三维对象模型。
16.一种深度学习模型的训练装置,包括:
第五处理模块,用于利用待预训练的深度学习模型,根据分别与当前帧图像和相邻帧图像关联的图像特征,确定由所述当前帧图像指示的对象描述参数;
第六处理模块,用于基于所述对象描述参数,确定所述当前帧图像中的对象关键点信息;
第七处理模块,用于根据所述对象关键点信息和预设对象关键点标签,调整所述待预训练的深度学习模型的模型参数,得到经训练的深度学习模型,
其中,所述相邻帧图像包括图像序列中与所述当前帧图像相邻的至少一帧图像。
17.根据权利要求16所述的装置,其中,所述第五处理模块包括:
第六处理子模块,用于利用所述待预训练的深度学习模型,对分别与所述当前帧图像和所述相邻帧图像关联的图像特征进行融合,得到融合后的图像特征;以及
第七处理子模块,用于根据所述融合后的图像特征和预设基准描述参数,确定由所述当前帧图像指示的对象描述参数。
18.根据权利要求17所述的装置,其中,所述第六处理模块包括:
第八处理子模块,用于基于所述对象描述参数,确定所述当前帧图像中的三维关键点信息;
第九处理子模块,用于根据针对所述当前帧图像的投影参数,确定与所述三维关键点信息对应的二维关键点信息,其中,所述投影参数为基于所述融合后的图像特征得到;以及
第十处理子模块,用于所述三维关键点信息和所述二维关键点信息构成所述当前帧图像中的对象关键点信息。
19.根据权利要求16所述的装置,其中,所述第六处理模块包括:
第十一处理子模块,用于基于所述对象描述参数,构建三维对象模型;
第十二处理子模块,用于确定所述三维对象模型中的基准关键点信息和扩展关键点信息;以及
第十三处理子模块,用于所述基准关键点信息和所述扩展关键点信息构成所述当前帧图像中的对象关键点信息,
其中,所述基准关键点包括用于定位对象部位的关键点,所述扩展关键点包括用于协同表征所属部位的三维姿态的关键点。
20.根据权利要求16至19中任一项所述的装置,其中,所述第七处理模块包括:
第十四处理子模块,用于根据由所述对象关键点信息指示的关键点预测坐标和由所述对象关键点标签指示的关键点标注坐标,确定损失函数值;以及
第十五处理子模块,用于基于所述损失函数值,调整所述待预训练的深度学习模型的模型参数,得到所述经训练的深度学习模型。
21.根据权利要求16至19中任一项所述的装置,还包括:
第八处理模块,用于基于所述经训练的深度学习模型,得到对象描述参数的生成模型。
22.一种对象描述参数的生成装置,包括:
第九处理模块,用于将图像序列中的至少一帧图像输入深度学习模型;
第十处理模块,用于利用所述深度学习模型,根据分别与第i帧图像和相邻帧图像关联的图像特征,输出由所述第i帧图像指示的对象描述参数,
其中,所述深度学习模型为根据权利要求16至21中任一项所述的装置训练得到,i=1,......N,N为大于1的整数,所述相邻帧图像包括所述图像序列中与所述第i帧图像相邻的至少一帧图像。
23.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1~4中任一项所述的方法,或者执行权利要求5~10中任一项所述的方法,或者执行权利要求11所述的方法。
24.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1~4中任一项所述的方法,或者执行权利要求5~10中任一项所述的方法,或者执行权利要求11所述的方法。
25.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1~4中任一项所述的方法,或者实现根据权利要求5~10中任一项所述的方法,或者实现权利要求11所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210371622.XA CN114677572B (zh) | 2022-04-08 | 2022-04-08 | 对象描述参数的生成方法、深度学习模型的训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210371622.XA CN114677572B (zh) | 2022-04-08 | 2022-04-08 | 对象描述参数的生成方法、深度学习模型的训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114677572A true CN114677572A (zh) | 2022-06-28 |
CN114677572B CN114677572B (zh) | 2023-04-18 |
Family
ID=82078210
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210371622.XA Active CN114677572B (zh) | 2022-04-08 | 2022-04-08 | 对象描述参数的生成方法、深度学习模型的训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114677572B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115830640A (zh) * | 2022-12-26 | 2023-03-21 | 北京百度网讯科技有限公司 | 一种人体姿态识别和模型训练方法、装置、设备和介质 |
CN116453222A (zh) * | 2023-04-19 | 2023-07-18 | 北京百度网讯科技有限公司 | 目标对象姿态确定方法、训练方法、装置以及存储介质 |
CN118397711A (zh) * | 2024-06-27 | 2024-07-26 | 双胞胎(集团)股份有限公司 | 一种基于视频的生猪行为预测方法 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108921795A (zh) * | 2018-06-04 | 2018-11-30 | 腾讯科技(深圳)有限公司 | 一种图像融合方法、装置及存储介质 |
CN109903393A (zh) * | 2019-02-22 | 2019-06-18 | 清华大学 | 基于深度学习的新视角场景合成方法和装置 |
CN110874864A (zh) * | 2019-10-25 | 2020-03-10 | 深圳奥比中光科技有限公司 | 获取对象三维模型的方法、装置、电子设备及系统 |
CN110929616A (zh) * | 2019-11-14 | 2020-03-27 | 北京达佳互联信息技术有限公司 | 一种人手识别方法、装置、电子设备和存储介质 |
CN111145238A (zh) * | 2019-12-12 | 2020-05-12 | 中国科学院深圳先进技术研究院 | 单目内窥镜图像的三维重建方法、装置及终端设备 |
CN111640181A (zh) * | 2020-05-14 | 2020-09-08 | 佳都新太科技股份有限公司 | 一种交互式视频投影方法、装置、设备及存储介质 |
CN111723687A (zh) * | 2020-06-02 | 2020-09-29 | 北京的卢深视科技有限公司 | 基于神经网路的人体动作识别方法和装置 |
CN111783497A (zh) * | 2019-04-03 | 2020-10-16 | 北京京东尚科信息技术有限公司 | 视频中目标的特征确定方法、装置和计算机可读存储介质 |
CN113379896A (zh) * | 2021-06-15 | 2021-09-10 | 上海商汤智能科技有限公司 | 三维重建方法及装置、电子设备和存储介质 |
CN113822977A (zh) * | 2021-06-28 | 2021-12-21 | 腾讯科技(深圳)有限公司 | 图像渲染方法、装置、设备以及存储介质 |
CN113870428A (zh) * | 2021-09-29 | 2021-12-31 | 北京百度网讯科技有限公司 | 场景地图生成方法、相关装置及计算机程序产品 |
CN113887319A (zh) * | 2021-09-08 | 2022-01-04 | 北京达佳互联信息技术有限公司 | 三维姿态的确定方法、装置、电子设备及存储介质 |
CN113902696A (zh) * | 2021-09-29 | 2022-01-07 | 北京百度网讯科技有限公司 | 图像处理方法、装置、电子设备和介质 |
CN113989450A (zh) * | 2021-10-27 | 2022-01-28 | 北京百度网讯科技有限公司 | 图像处理方法、装置、电子设备和介质 |
-
2022
- 2022-04-08 CN CN202210371622.XA patent/CN114677572B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108921795A (zh) * | 2018-06-04 | 2018-11-30 | 腾讯科技(深圳)有限公司 | 一种图像融合方法、装置及存储介质 |
CN109903393A (zh) * | 2019-02-22 | 2019-06-18 | 清华大学 | 基于深度学习的新视角场景合成方法和装置 |
CN111783497A (zh) * | 2019-04-03 | 2020-10-16 | 北京京东尚科信息技术有限公司 | 视频中目标的特征确定方法、装置和计算机可读存储介质 |
CN110874864A (zh) * | 2019-10-25 | 2020-03-10 | 深圳奥比中光科技有限公司 | 获取对象三维模型的方法、装置、电子设备及系统 |
CN110929616A (zh) * | 2019-11-14 | 2020-03-27 | 北京达佳互联信息技术有限公司 | 一种人手识别方法、装置、电子设备和存储介质 |
CN111145238A (zh) * | 2019-12-12 | 2020-05-12 | 中国科学院深圳先进技术研究院 | 单目内窥镜图像的三维重建方法、装置及终端设备 |
CN111640181A (zh) * | 2020-05-14 | 2020-09-08 | 佳都新太科技股份有限公司 | 一种交互式视频投影方法、装置、设备及存储介质 |
CN111723687A (zh) * | 2020-06-02 | 2020-09-29 | 北京的卢深视科技有限公司 | 基于神经网路的人体动作识别方法和装置 |
CN113379896A (zh) * | 2021-06-15 | 2021-09-10 | 上海商汤智能科技有限公司 | 三维重建方法及装置、电子设备和存储介质 |
CN113822977A (zh) * | 2021-06-28 | 2021-12-21 | 腾讯科技(深圳)有限公司 | 图像渲染方法、装置、设备以及存储介质 |
CN113887319A (zh) * | 2021-09-08 | 2022-01-04 | 北京达佳互联信息技术有限公司 | 三维姿态的确定方法、装置、电子设备及存储介质 |
CN113870428A (zh) * | 2021-09-29 | 2021-12-31 | 北京百度网讯科技有限公司 | 场景地图生成方法、相关装置及计算机程序产品 |
CN113902696A (zh) * | 2021-09-29 | 2022-01-07 | 北京百度网讯科技有限公司 | 图像处理方法、装置、电子设备和介质 |
CN113989450A (zh) * | 2021-10-27 | 2022-01-28 | 北京百度网讯科技有限公司 | 图像处理方法、装置、电子设备和介质 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115830640A (zh) * | 2022-12-26 | 2023-03-21 | 北京百度网讯科技有限公司 | 一种人体姿态识别和模型训练方法、装置、设备和介质 |
CN115830640B (zh) * | 2022-12-26 | 2024-03-05 | 北京百度网讯科技有限公司 | 一种人体姿态识别和模型训练方法、装置、设备和介质 |
CN116453222A (zh) * | 2023-04-19 | 2023-07-18 | 北京百度网讯科技有限公司 | 目标对象姿态确定方法、训练方法、装置以及存储介质 |
CN116453222B (zh) * | 2023-04-19 | 2024-06-11 | 北京百度网讯科技有限公司 | 目标对象姿态确定方法、训练方法、装置以及存储介质 |
CN118397711A (zh) * | 2024-06-27 | 2024-07-26 | 双胞胎(集团)股份有限公司 | 一种基于视频的生猪行为预测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114677572B (zh) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112614213B (zh) | 人脸表情确定方法、表情参数确定模型、介质及设备 | |
CN114677572B (zh) | 对象描述参数的生成方法、深度学习模型的训练方法 | |
CN112819971B (zh) | 虚拟形象的生成方法、装置、设备和介质 | |
CN113658309B (zh) | 三维重建方法、装置、设备以及存储介质 | |
US20230419592A1 (en) | Method and apparatus for training a three-dimensional face reconstruction model and method and apparatus for generating a three-dimensional face image | |
CN113034652A (zh) | 虚拟形象驱动方法、装置、设备及存储介质 | |
CN112652057A (zh) | 生成人体三维模型的方法、装置、设备以及存储介质 | |
CN112581573A (zh) | 虚拟形象驱动方法、装置、设备、介质和程序产品 | |
CN114792359A (zh) | 渲染网络训练和虚拟对象渲染方法、装置、设备及介质 | |
EP4290459A1 (en) | Augmented reality method and related device thereof | |
CN112580666A (zh) | 图像特征的提取方法、训练方法、装置、电子设备及介质 | |
CN114241597A (zh) | 一种姿态识别方法及其相关设备 | |
CN115393488A (zh) | 虚拟人物表情的驱动方法、装置、电子设备和存储介质 | |
CN115994944A (zh) | 三维关键点预测方法、训练方法及相关设备 | |
CN116092120B (zh) | 基于图像的动作确定方法、装置、电子设备及存储介质 | |
US20230154033A1 (en) | Method and device for estimating poses and models of object | |
CN115359166B (zh) | 一种图像生成方法、装置、电子设备和介质 | |
CN115713581A (zh) | 一种动态模型生成方法、装置及设备 | |
CN110148202B (zh) | 用于生成图像的方法、装置、设备和存储介质 | |
CN114202606A (zh) | 图像处理方法、电子设置、存储介质及计算机程序产品 | |
CN115830640B (zh) | 一种人体姿态识别和模型训练方法、装置、设备和介质 | |
CN115457104B (zh) | 人体信息的确定方法、装置及电子设备 | |
KR102689030B1 (ko) | 측지 거리를 사용하여 이미지들의 조밀한 대응관계를 예측하기 위한 트레이닝 모델용 시스템 및 방법 | |
CN116051694B (zh) | 虚拟形象生成方法、装置、电子设备以及存储介质 | |
CN116228939B (zh) | 数字人驱动方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |