CN112823375A - 使用前向扭曲、间隙鉴别器和基于坐标的修复的图像再合成 - Google Patents
使用前向扭曲、间隙鉴别器和基于坐标的修复的图像再合成 Download PDFInfo
- Publication number
- CN112823375A CN112823375A CN201980066712.4A CN201980066712A CN112823375A CN 112823375 A CN112823375 A CN 112823375A CN 201980066712 A CN201980066712 A CN 201980066712A CN 112823375 A CN112823375 A CN 112823375A
- Authority
- CN
- China
- Prior art keywords
- image
- texture
- gap
- module
- warping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 68
- 238000013507 mapping Methods 0.000 claims abstract description 35
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 28
- 238000012549 training Methods 0.000 claims abstract description 23
- 238000004590 computer program Methods 0.000 claims abstract description 17
- 238000012937 correction Methods 0.000 claims description 13
- 238000013527 convolutional neural network Methods 0.000 claims description 12
- 238000012546 transfer Methods 0.000 claims description 12
- 238000012986 modification Methods 0.000 claims description 9
- 230000004048 modification Effects 0.000 claims description 9
- 239000000203 mixture Substances 0.000 claims description 8
- 230000007547 defect Effects 0.000 claims description 6
- 238000001308 synthesis method Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 abstract description 10
- 230000002194 synthesizing effect Effects 0.000 abstract description 4
- 230000006872 improvement Effects 0.000 abstract description 2
- 230000008439 repair process Effects 0.000 description 41
- 230000006870 function Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 230000014509 gene expression Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 239000000126 substance Substances 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 230000003042 antagnostic effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 239000000945 filler Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 101100440640 Drosophila melanogaster conu gene Proteins 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 239000003054 catalyst Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000035876 healing Effects 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 230000009885 systemic effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/18—Image warping, e.g. rearranging pixels individually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像处理,并且具体地,涉及用于基于输入图像对人或对象的新视图进行合成的图像再合成,以解决诸如对来自新视点和新姿态的人或对象的视图进行预测的任务。技术结果在于提高基于至少一个输入图像的图像再合成的准确度。提供了一种图像再合成系统、一种用于训练将在图像再合成系统中使用的间隙填充模块的系统、一种图像再合成方法、一种计算机程序产品和一种计算机可读介质。所述图像再合成系统包括源图像输入模块、前向扭曲模块和间隙填充模块,其中,前向扭曲模块被配置为针对每个源图像像素对目标图像中的对应位置进行预测,前向扭曲模块被配置为对与所述源图像对准的前向扭曲场进行预测,间隙填充模块被配置为填充从前向扭曲模块的应用产生的间隙。所述图像再合成方法包括以下步骤:输入源图像,针对每个源图像像素对目标图像中的对应位置进行预测,其中,与所述源图像对准的前向扭曲场被预测出;对从前向扭曲产生的间隙的二元掩模进行预测,通过借助于针对纹理图像中的每个像素对所述源图像中的一对坐标进行预测生成纹理图像,基于所述间隙的二元掩模对间隙进行填充,并且使用后向扭曲将完整纹理映射回新姿态。
Description
技术领域
本发明总体上涉及图像处理,并且更具体地,涉及用于使用机器学习技术基于输入图像来对人或对象的新视图进行合成的图像再合成。
背景技术
近来,对基于学习的图像再合成的兴趣日益增长。在这个背景下,机器学习的任务是学习基于人或对象的一个或更多个输入图像来对例如特定类型的人或对象的新视图进行合成。在极端情况下,仅一个输入视图可用。在这个意义上,新视图对应于新相机位置和/或人的新身体姿态。在图像再合成中,测量目标视图的质量,并且不关心通常隐式地或显式地与场景的模型(例如,3D重建)对应的中间表示的质量。直接对目标视图质量进行优化通常意味着目标视图质量较高,特别是当场景建模困难时。
发现了几个趋势。首先,处理伴随图像再合成的硬预测问题需要深度卷积网络(ConvNet)(参见[15])。其次,许多现有技术解决方案避免直接从高维非卷积表示对像素值进行预测。相反,大多数架构诉诸于ConvNet内的某种扭曲(参见例如[5,30,20,3,23])。众所周知,在许多情况下,现有技术使用后向扭曲[13],其中,在后向扭曲中,针对目标图像中的每个像素,源图像中的像素将被复制的位置被预测出。扭曲处理之后通常是后处理,诸如亮度校正(参见[5])或后处理网络。
现在将讨论与本发明要解决的客观技术问题相关的问题的几种方法。
基于扭曲的再合成。对使用深度卷积网络来生成逼真图像存在强烈兴趣(参见例如[6])。当通过改变输入图像的几何形状和表观来生成新图像时,已经表明了使用扭曲模块极大地增强了再合成的图像的质量(参见例如[5,30])。在这种情况下,扭曲模块基于作为空间变换器网络(STN)的一部分被首先介绍的可微分(后向)网格采样器层(参见例如[13])。
对抗图像修复。还存在旨在基于深度卷积网络的图像修复的现有技术解决方案。适应于输入数据中存在间隙的卷积架构的特殊变型包括Shepard卷积神经网络(参见例如[21])、稀疏不变卷积网络(参见例如[25])、具有部分卷积的网络(参见例如[17])、具有门控卷积的网络(参见例如[28])。后一种变型也在本公开中提出的方法中被使用。
由于修复任务需要图像内容的有条件合成,因此现有技术的修复方法严重依赖于生成对抗学习的变型(参见例如[6])。具体地,现有技术建议使用专注于以两个不同尺度在真示例与假示例之间进行区分的鉴别器对(参见例如[16,11,28,4]),其中,所述尺度中的一个可对应于各个块(类似于来自[12]的块GAN(patch GAN)思想)。这里,介绍了一种新型鉴别器,其中,所述新型鉴别器与一些局部鉴别器和块GAN具有相似架构,然而在两种不同类别的像素(假图像中的已知像素vs.也在假图像中的未知像素)之间进行鉴别。
面部转正(Face frontalization)。集中于图像再合成(诸如基于单个输入摄影图像或多个输入摄影图像来生成新视图和/或改变3D对象的姿态)的现有技术解决方案使用面部的图像作为主要域。转正的面部视图可被用作标准化表示,以便简化面部识别并增强其质量。几种现有技术解决方案针对该任务使用后向采样器。例如,可被认为是这样的方法的最典型示例的HF-PIM系统对将纹理图变换为转正的面部视图所需的圆柱形纹理图和后向扭曲场进行预测。然后由另一网络修正扭曲的结果。目前被认为高效的许多其他方法(诸如CAPG-GAN(参见例如[9])、LB-GAN(参见例如[2])、CPF(参见例如[26])、FF-GAN(参见例如[27])基于通过在低维潜在空间中表示图像来直接执行期望的变换的编码器-解码器网络。此外,通常在GAN设置中训练再合成网络,以使输出面部看起来逼真并防止各种伪像。这些方法中的许多方法采用附加信息,诸如地标(参见例如[9,29])、局部块(参见例如[10])、3D形变模型(3DMM,参见例如[1])估计(参见例如[27])。然后,这样的附加信息可被用于通过测量合成图像与可用附加信息相符的程度来调节再合成处理或制定附加损失。
基于扭曲的全身再合成。在现有技术中,利用扭曲以便在单个输入视图的情况下合成人的新视图(参见例如[24,23,19])。该方法还利用网络内的密集姿态(dense-pose)参数化(参见例如[8])以在再合成图像上呈现人的目标姿态。
应注意,图像再合成的所有上述类型的现有技术方法都具有某些缺点,并且本发明旨在消除或至少减轻现有技术的至少一些缺点。具体地,可用的现有技术解决方案的缺点涉及在图像再合成中使用后向扭曲,其中,在后向扭曲中,针对目标图像中的每个像素,源图像中的像素将被复制的位置被预测出。
发明内容
技术问题
本发明的目的在于提供一种消除或至少减轻现有的先前技术方案的所有或至少一些上述缺点的用于图像再合成的新方法。
通过本发明实现的技术结果在于提高用于基于至少一个输入图像对人或对象的新视图进行合成的图像再合成的准确度。
技术方案
在一个方面,通过一种图像再合成系统来实现该目的,其中,所述图像再合成系统包括:源图像输入模块;前向扭曲模块,被配置为针对每个源图像像素对目标图像中的对应位置进行预测,其中,前向扭曲模块被配置为对与所述源图像对准的前向扭曲场进行预测;以及间隙填充模块,被配置为填充从前向扭曲模块的应用产生的间隙。
在实施例中,间隙填充模块还可包括:扭曲误差校正模块,被配置为校正所述目标图像中的前向扭曲误差。
有益效果
所述图像再合成系统还可包括纹理转移架构,其中,纹理转移架构被配置为:预测针对所述源图像和所述目标图像的扭曲场;经由前向扭曲将所述源图像映射到纹理空间,将所述纹理空间恢复为完整纹理;并且使用后向扭曲将所述完整纹理映射回新姿态。
所述图像再合成系统还可包括纹理提取模块,其中,纹理提取模块被配置为从所述源图像提取纹理。至少前向扭曲模块和间隙填充模块可被实现为深度卷积神经网络。
在实施例中,间隙填充模块可包括间隙修复器,其中,间隙修复器包括:坐标分配模块,被配置为根据固定的预定义纹理映射向输入图像的每个像素p=(x,y)分配一对纹理坐标(u,v),以便提供x值和y值在纹理坐标系中的双通道映射;纹理图完成模块,被配置为提供完整纹理图,其中,针对每个纹理像素(u,v),对应图像像素(x[u,v],y[u,v])是已知的;最终纹理生成模块,被配置为通过将来自位置(x[u,v],y[u,v])的图像值映射到位置(u,v)处的纹理来生成最终纹理,以便提供完整颜色最终纹理;最终纹理重新映射模块,被配置为通过提供从图像像素坐标到纹理坐标的不同映射来将所述最终纹理重新映射到新视图。
所述深度卷积网络中的至少一个深度卷积网络可以是使用被配置为将真值图像和修复图像区分开的真/假鉴别器而训练出的。所述图像再合成系统还可包括被配置为校正输出图像缺陷的图像修正模块。
在另一方面,提供了一种用于训练间隙填充模块的系统,其中,间隙填充模块被配置为填充间隙作为图像再合成的一部分,所述系统被配置为对间隙填充模块进行与间隙鉴别器网络的并行联合训练,而间隙鉴别器网络被训练为对间隙的二元掩模进行预测,并且间隙填充模块被训练为使间隙鉴别器网络的精度(accuracy)最小化。
在又一方面,本发明涉及一种图像再合成方法,包括以下步骤:输入源图像;针对每个源图像像素,对目标图像中的对应位置进行预测,其中,与所述源图像对准的前向扭曲场被预测出;对从前向扭曲产生的间隙的二元掩模进行预测,通过借助于针对纹理图像中的每个像素对所述源图像中的一对坐标进行预测生成纹理图像,基于所述间隙的二元掩模来填充所述间隙;并且使用后向扭曲将完整纹理映射回新姿态。
在实施例中,填充间隙的步骤可包括以下步骤:根据固定的预定义纹理映射向输入图像的每个像素p=(x,y)分配一对纹理坐标(u,v),以便提供x值和y值在纹理坐标系中的双通道映射;提供完整纹理图,其中,针对每个纹理像素(u,v),对应图像像素(x[u,v],y[u,v])是已知的;通过将来自位置(x[u,v],y[u,v])的图像值映射到位置(u,v)处的纹理来生成最终纹理,以便提供完整颜色最终纹理;通过提供从图像像素坐标到纹理坐标的不同映射来将所述最终纹理重新映射到新视图。
在又一方面,本发明提供了一种用于训练间隙填充模块的方法,其中,间隙填充模块被配置为填充间隙作为图像再合成的一部分,所述方法包括:对间隙填充模块进行与间隙鉴别器网络的并行联合训练,而间隙鉴别器网络被训练为对间隙的二元掩模进行预测,并且间隙填充模块被训练为使间隙鉴别器网络的精度最小化。
在又一方面,提供了一种包括计算机程序代码的计算机程序产品,其中,所述计算机程序代码在被一个或更多个处理器执行时使所述一个或更多个处理器实现第二个前述方面的方法。
在又一方面,提供了一种存储有根据上述方面的计算机程序产品的非暂时性计算机可读介质。
通过阅读和理解下面提供的说明书,本领域技术人员将理解,所要求保护的发明还可采取其他形式。可通过硬件、软件、固件手段或其任意合适的组合来实现各种方法步骤和系统组件。
附图说明
在上面提供的发明内容之后,下面通过示例并参照附图提供本发明构思的详细描述,其中,所述附图仅作为图示而被提供,并不旨在限制所要求保护的发明的范围或者确定其必要特征。在附图中:
图1示出在面部转正任务方面解释的前向扭曲与后向扭曲之间的差别;
图2示出根据本发明的实施例的用于利用间隙鉴别器进行修复的机器学习处理;
图3示出根据本发明的实施例的经由前向扭曲的面部转正的处理;
图4示出根据本发明的实施例的纹理转移架构;
图5示出根据本发明的实施例的用于新姿态再合成的纹理完成的处理;
图6示出根据本发明的实施例的使用基于坐标的纹理修复的全身再合成的处理。
图7示出根据本发明的实施例的图像再合成方法的流程图。
具体实施方式
提供该详细描述以便于理解本发明的本质。应注意,描述涉及本发明的示例性实施例,并且本领域技术人员通过参照附图仔细阅读该描述可以想到所描述的主题中的其他修改、变体和等同替换。所有这样的明显的修改、变体和等同被认为被所要求保护的发明的范围所覆盖。在该详细描述以及权利要求中提供的附图标号或符号都不旨在以任何方式限制或确定所要求保护的发明的范围。
本发明提出了一种基于至少一个输入图像的图像再合成的新方法。本发明的系统和方法基于能够在各种数据集上训练的各种神经网络,诸如深度卷积神经网络。对于本领域技术人员可显而易见的是,本发明的实现不限于这里具体描述的神经网络,而是在本发明的上下文内可使用可适合于给定任务的其他类型的网络来实现。适合于实现本发明的神经网络可通过本领域技术人员公知的材料和技术手段(诸如但不限于由一个或更多个计算机程序、计算机程序元素、程序代码等控制的一个或更多个处理器、通用或专用计算机、图形处理单元(GPU)等)来实现,以便实现下面描述的发明方法。
首先,现在将在基于被预训练或被训练以执行指定处理的深度卷积神经网络的一个或更多个机器学习模型方面描述所要求保护的发明,其中,所述指定处理导致用于基于至少一个输入图像来合成人或对象的新视图的图像再合成。
总之,与现有技术相比,所提出的方法基于两个贡献。作为第一贡献,提出了一种基于前向扭曲的再合成架构。具体通过利用由针对每个源图像像素对目标图像中的对应位置进行预测的模块提供的前向扭曲来替换现有技术中广泛使用的后向扭曲,重新设计在上面概述的现有技术方法的扭曲阶段内采用的扭曲处理。发明人已经发现,由于前向扭曲场与源图像对准,因此从源图像预测前向扭曲场是更容易的任务。这与后向扭曲场形成对比,后向扭曲场在空间上与目标图像对准并且在空间上未与源图像对准。源图像与前向扭曲场之间的空间对准的存在使得针对卷积架构,预测映射更容易学习。
然而,前向扭曲的结果包含需要被填充的间隙。大多数现有技术解决方案使用对抗架构来解决间隙修复的问题。因此,所提出的发明的第二贡献是专用于修复任务的新型间隙鉴别器。间隙鉴别器仅在“假”(即,修复)图像上被训练,并且不需要“真”图像。对于每个假图像,间隙鉴别器被训练以对提供给修复网络的间隙的二元掩模进行预测。因此,针对间隙鉴别器的训练使得修复网络以使间隙不可察觉的方式填充间隙。
提出的两个贡献不是独立的,而是彼此互补的,形成了已经由发明人针对若干任务(诸如面部转正和全身再合成)进行了评估的新的再合成方法。
还提出了用于全身再合成的新方法。在该方法中,使用所谓的DensePose方法来估计身体纹理坐标。使用深度卷积网络来完成纹理。深度卷积网络甚至可被用于预测未知像素的颜色。可选地,使用一种针对纹理图像中的每个像素对源图像中的坐标对进行预测(基于坐标的修复)的深度网络。后一种方案(基于坐标的修复)给出了更清晰的纹理。考虑针对目标图像中的每个前景像素的体表坐标,完成的纹理被用于生成全身的新视图。可选地,另一深度网络可通过将所产生的具有叠加纹理的图像和一些其他图像作为输入而被用于生成最终目标图像。
根据第一方面,本发明提供了一种图像再合成系统100,包括:
源图像输入模块110;
前向扭曲模块120;
间隙填充模块130。
间隙填充模块130还包括被配置为对目标图像中的前向扭曲误差进行校正的扭曲误差校正模块131。前向扭曲模块120被配置为针对每个源图像像素对目标图像中的对应位置进行预测,前向扭曲模块被配置为对与源图像对准的前向扭曲场进行预测。间隙填充模块130被配置为填充从前向扭曲模块120的应用产生的间隙。
在实施例中,图像再合成系统100还包括纹理转移架构150,其中,所述纹理转移架构150被配置为进行以下操作:预测针对源图像和目标图像的扭曲场;经由前向扭曲将源图像映射到纹理空间,将纹理空间恢复为完整纹理;并且使用后向扭曲将完整纹理映射回新姿态。
在示例性实施例中,图像再合成系统100还包括被配置为从源图像提取纹理的纹理提取模块160。至少前向扭曲模块120和间隙填充模块130可被实现为深度卷积神经网络。使用被配置为将真值(ground truth)图像和修复图像区分开的真/假鉴别器来训练这些深度卷积网络中的至少一个。
在实施例中,间隙填充模块130包括间隙修复器132,其中,所述间隙修复器132可至少由以下项依次组成:
坐标分配模块1321,被配置为根据固定的预定义纹理映射向输入图像的每个像素p=(x,y)分配一对纹理坐标(u,v),以便提供x值和y值在纹理坐标系中的双通道映射;
纹理图完成模块1322,被配置为提供完整纹理图,其中,对于每个纹理像素(u,v),对应图像像素(x[u,v],y[u,v])是已知的;
最终纹理生成模块1323,被配置为通过将来自位置(x[u,v],y[u,v])的图像值映射到位置(u,v)处的纹理来生成最终纹理,以便提供完整颜色最终纹理;
最终纹理重新映射模块1342,被配置为通过提供从图像像素坐标到纹理坐标的不同映射来将最终纹理重新映射到新视图。
在实施例中,图像再合成系统100还包括被配置为对输出图像缺陷进行校正的图像修正模块170。
在本发明的另一方面,提供了一种用于训练间隙填充模块130的系统200。系统200被配置为对间隙填充模块进行与间隙鉴别器网络210的并行联合训练,而间隙鉴别器网络210被训练为对间隙的二元掩模进行预测,并且间隙填充模块130被训练为使间隙鉴别器网络210的精度最小化。
参照图7,在又一方面,本发明涉及一种图像再合成方法300,其中,所述方法包括以下步骤:
输入源图像(S310);
针对每个源图像像素,对目标图像中的对应位置进行预测(S320),其中,与源图像对准的前向扭曲场被预测出;
对从前向扭曲产生的间隙的二元掩模进行预测(S330),
通过借助于针对纹理图像中的每个像素对源图像中的一对坐标进行预测生成纹理图像,基于间隙的所述二元掩模来填充间隙(S340);并且
使用后向扭曲将完整纹理映射回新姿态(S350)。
在示例性实施例中,填充间隙的步骤(340)包括以下步骤:
根据固定的预定义纹理映射向输入图像的每个像素p=(x,y)分配一对纹理坐标(u,v)(S341),以便提供x值和y值在纹理坐标系中的双通道映射;
提供完整的纹理图(S342),其中,对于每个纹理像素(u,v),对应图像像素(x[u,v],y[u,v])是已知的;
通过将来自位置(x[u,v],y[u,v])的图像值映射到位置(u,v)处的纹理来生成最终纹理(S343),以便提供完整颜色最终纹理;
通过提供从图像像素坐标到纹理坐标的不同映射,将最终纹理重新映射到新视图(S344)。
还提供了一种包括计算机程序代码410的计算机程序产品400,其中,所述计算机程序代码410在被一个或更多个处理器执行时使一个或更多个处理器实现根据前一方面的方法。计算机程序产品400可被存储在非暂时性计算机可读介质500上。
现在参照图1,在面部转正任务方面解释的前向扭曲与后向扭曲之间的差别被示出。在两种方案中,从输入图像(上方)预测扭曲场(下方;色调=方向,饱和度=大小),并且应用了扭曲(右侧)。在前向扭曲的情况下,输入图像和预测出的场被对准(例如,在鼻尖的位置处预测鼻尖的运动)。反之,在后向扭曲的情况下,输入图像和扭曲场未被对准。现在将更详细地描述本发明的上下文中的前向扭曲方法。
本领域技术人员可容易地理解的是,下面描述的方法适合于由深度卷积神经网络来执行,其中,所述深度卷积神经网络可实现如上所述的本发明的图像再合成系统100元件和图像再合成方法300步骤。下面参照数学运算和各种数据元素之间的关系提供的方法的详细描述可依赖于相应功能而不是如上所概述的系统100或方法300的特定元素,并且在这种情况下,本领域技术人员可容易地一方面推导所述系统元件和/或方法步骤之间的关系,另一方面推导下面提到的相应功能,而不需要以每个功能与对应系统元件和/或方法步骤之间的具体联系来严格限制实现所述功能的各种方式的范围。在实现如下面详细描述的图像再合成的本发明的方法的上下文中,由深度卷积神经网络实现的系统元件和/或方法步骤旨在是示例性和非限制性的。
通过前向扭曲的再合成
令x为源图像并且令y为目标图像,并且令x[P,q]表示整数位置(p,q)处的图像条目(样点)(可以是例如RGB值)。令w[p,q]=(u[p,q],v[p,q])为扭曲场。通常,将通过卷积网络fθ从x预测该扭曲场,其中,θ是在特定数据集上训练的一些可学习参数的矢量。
基于扭曲的图像的再合成的标准方法使用扭曲将源图像x扭曲为目标图像y:
ybw[p,q]=x[p+u[p,q],q+v[p,q]] (1)
其中,分数位置处的采样被双线性地定义。更正式地,后向扭曲的结果被定义为:
其中,双线性核K被如下定义:
K(k,l,m,n)=max(1-|m-k|,0)max(1-|n-l|,0), (3)
使得对于每个(p,q),对i={|p+u[p,q]|,|p+u[p,q]|}和j={[q+v[p,q]],|q+v[p,q]|},进行(2)中的求和。
后向扭曲方法最初被实现为用于深度图像识别(参见例如[13]),并且后来被广泛用于深度图像再合成(参见例如[5,30,20,3,23]),成为深度学习包内的标准层。已经发现的是,对于具有显著几何变换的再合成任务,与具有只使用卷积层的再合成的架构相比,使用后向扭曲层提供了质量和泛化能力上的显著改善(参见例如[3])。
然而,后向扭曲受到源图像与扭曲场之间缺乏对准的限制。实际上,从上面提供的表达式(1)可以看出,由网络fθ针对像素(p,q)预测出的矢量(u[p,q],v[p,q])定义了最初投影到像素(p+u[p,q],q+v[p,q]),上的对象部分的运动。例如,让我们考虑面部转正任务,其中,在包含非正面面部的输入图像的情况下,期望网络对转正扭曲场进行预测。假设初始图像中的位置(p,q)对应于鼻尖,而对于转正的面部,相同的位置对应于右脸颊的中心。当后向扭曲被用于再合成时,网络fθ针对位置(p,q)的预测必须包含右脸颊的中心的转正运动。同时,输入图像中的(p,q)处的输出网络单元的感受域对应于鼻尖。因此,网络必须在观察以鼻子为中心的块的表观时预测脸颊的运动(参见图1)。当转正运动较小时,可通过具有足够大的感受域的足够深的卷积架构来处理这样的未对准。然而,随着运动变得更大,对于卷积架构,这样的映射变得越来越难以学习。
因此,在根据本发明的再合成架构中使用由前向扭曲模块执行的前向扭曲而不是后向扭曲。前向扭曲操作被定义,使得以下等式对于输出图像yfw近似成立:
yfw[p+u[p,q],q+v[p,q]]≈x[p,q]. (4)
因此,在前向扭曲的情况下,像素[p,q]处的扭曲矢量定义了该像素的运动。为了实现前向扭曲,双线性核被用于以下面的方式将源像素光栅化到目标图像上。首先,使用卷积核将来自所有像素的所有贡献聚合到聚合器图a中:
同时,对每个像素的所有贡献的总权重在单独的聚合器w中被累加:
最后,通过归一化来定义像素处的值:
yfw[i,j]=a[i,j]/(w[i,j]+∈), (7)
其中,小常数∈=10-10防止数值的不稳定性。形式上,对于每个目标位置(i,j),(5)和(6)中的求和在所有源像素(p,q)上进行。然而,由于对于每个源像素(p,q),双线性核K(·,·,p+u[p,q],q+v[p,q])仅在目标图像中的四个位置处取非零值,因此可使用对源图像的像素的一次略过来有效地计算上述求和。注意,类似技术被用于部分卷积(参见例如[17])。由于运算(5)-(7)相对于输入图像x和扭曲场(u,v)两者是分段可微的,因此可在卷积网络训练期间通过前向扭曲运算反向传播梯度。
前向扭曲相对于后向扭曲的主要优点在于:在前向扭曲的情况下,输入图像和预测出的扭曲场是对准的,因为网络在像素(p,q)处的预测现在对应于被投影到输入图像中的(p,q)上的对象部分的2D运动。在上面所示的转正示例中,卷积网络必须基于以鼻尖为中心的感受域来预测鼻尖的转正运动。对于卷积网络,这种映射比在后向扭曲的情况下更容易学习,并且这种效果已经被实验证明。
然而,不利的是,在大多数情况下,前向扭曲运算的输出yfw包含没有源像素被映射到的多个空像素。非空像素的二元掩模被表示为m,即,m[i,j]=[w[i,j]>0]。然后,需要以下修复阶段来填充这样的间隙。
图2示出训练神经网络以使用间隙鉴别器执行间隙修复的处理。本发明人训练了修复网络以在使相对于“真值”的重建损失最小化的情况下填充输入图像(其中,已知像素是由掩模来指定的)中的间隙。并行地,分割网络(这里也被称为间隙鉴别器)被训练,以在使掩模预测损失最小化的情况下从填充运算的结果预测掩模。通过使掩模预测损失最大化来对间隙鉴别器网络对抗地训练修复网络,这导致重建图像中的填充部分与原始部分难以区分开。
现在将通过说明而非限制的方式更详细地描述“修复”从前向扭曲的前一阶段产生的间隙的处理。
利用间隙鉴别器的修复
具有可学习参数φ的图像完成函数gφ将图像yfw和掩模m映射到完整(修复)图像yinp:
yinp=gφ(yfw,m). (8)
已经用实验证明了使用具有门控卷积的深度网络来处理修复任务的操作有效地提供了用于修复从图像再合成的处理中的扭曲产生的间隙的良好架构。不管gφ的架构如何,用于其学习的损失函数的选择起着至关重要的作用。最常见的是,训练φ是在监督设置中完成的,其中,所述监督设置涉及提供完整图像的数据集,设计遮挡那些图像的部分的随机过程,以及训练用于反转该随机过程的网络。然后,在训练时间执行对后续损失的最小化:
其中,i在训练示例上迭代,并且表示完整图像。表达式(9)中的范数可被选为L1范数(即,每个坐标中的绝对差之和)或者作为不是基于像素之间的差而是基于从预先训练的卷积神经网络提取的高级图像特征表示之间的差的更复杂的感知损失(参见例如[14])。
当空像素形成大的连续间隙时,由于任务的固有多模态,逐像素(pixelwise)的学习结果或感知损失通常是次优的,并且缺乏合理的大规模结构。对抗学习的使用(参见例如[6])在这种情况下给出了显著的提升。对抗学习对单独的分类网络dφ进行与网络gφ的并行训练。针对dψ的训练目标是在修复图像与原始(未损坏)图像之间进行区分:
然后,利用单独的项来增强针对gφ的训练目标,其中,所述单独的项测量鉴别器将修复图像分类为真实图像的概率:
对抗修复的现有技术方法建议使用两个鉴别器,两者基于相同的原理但专注于图像的不同部分。这些鉴别器中的一个(称为全局鉴别器)专注于整个图像,而这些鉴别器中的另一个(局部鉴别器)专注于最重要的部分(诸如间隙的紧邻或面部的中心部分)(参见例如[4])。
本发明建议将不同种类的鉴别器(这里称为间隙鉴别器)用于间隙修复任务。本发明人发现,人类倾向于通过他们(不)具有的识别修复图像处的间隙区域的能力来判断修复操作的成功。有趣的是,对于这样的判断,人类不需要知道任何类型的“真值”。为了模拟这个想法,间隙鉴别器hξ被训练为通过使针对二元分割的加权交叉熵损失最小化来从修复图像预测掩模m:
这里,(·)表示逐元素乘积(对所有像素的求和),并且|m|表示掩模m中的非零像素的数量。随着间隙鉴别器的训练进行,修复网络被训练为通过使相同交叉熵损失最大化(12)(因此进行零和博奕)来混淆间隙鉴别器。新损失可与“传统”对抗损失(11)以及任何其他损失一起被使用。所提出的新损失适用于任何修复/完成问题,而不必结合前向扭曲。
利用不完整真值进行学习。在一些情况(诸如纹理修复任务)下,完整真值图像不可用。反而,每个真值图像具有已知像素的二元掩模该掩模必须与输入掩模mi不同(否则,训练处理可能收敛到针对修复网络的平凡一致解(trivial identity solution))。在这种情况下,上述表达式(9)-(11)中表征的损失被适配为使得yi和相应地被和替代。有趣的是,新对抗损失没有考虑完整真值图像。因此,即使当完整真值图像不可用时,上面的表达式(12)中表征的损失仍然可在没有修改的情况下适用于(间隙鉴别器训练和作为修复网络训练的损失两者)。
图3示出根据本发明的至少一个实施例的经由前向扭曲的面部转正的示例。在该示例中,基于来自验证部分的两个随机挑选的主体,对在来自Multi-PIE数据集的80%的随机样本上训练的算法进行了视觉评估。每个输入照片(图3中的第1行)独立地通过扭曲场回归器产生扭曲图像(图3中的第2行),并且然后通过修复器产生填充了间隙且校正了扭曲误差的修复图像(第3行)。
图4示出根据本发明的至少一个实施例的纹理转移架构的示例。纹理转移架构对源图像和目标图像两者的扭曲场进行预测。然后,通过经由前向扭曲将源图像映射到纹理空间中,将源图像恢复为完整纹理,然后使用后向扭曲将源图像映射回新姿态,然后修正其结果。在图4中,0F和0B分别是前向扭曲和后向扭曲,而WF和WF是预测值和真值的密集姿态(densepose)扭曲场。
图5示出根据本发明的至少一个实施例的用于新姿态再合成的任务的纹理完成(texture completion)的示例。从人的输入图像提取纹理(图5中的第一列)。然后利用深度卷积网络对纹理进行修复。图5的第三列示出利用在没有间隙鉴别器的情况下训练的网络进行修复的结果。添加间隙鉴别器(图5中的第四列)在修复区域中产生更锐化且更合理的结果。然后将得到的纹理叠加到新姿态的人的图像上(分别为图5中的列五和列六)。图5中的最后一列示出针对新姿态的人的真值图像。
图6示出使用基于坐标的纹理修复的全身再合成的示例。输入图像A被用于产生纹理图像B。基于坐标的修复被应用,以针对每个纹理图像对源图像中的像素的坐标进行预测。该结果在图像C中被示出,其中,纹理像素的颜色是从指定坐标处的源图像采样的。通过获取目标图像的像素的指定纹理坐标并从纹理(图像D)转移颜色来合成新姿态的人的图像(目标图像)。最后,单独的修正深度网络将该图像变换为新图像(图像E)。图像F示出新姿态的人的真图像。
端到端训练
由于前向扭曲和修复网络两者是端到端可微的(也就是说,可使用反向传播过程来计算任意损失函数相对于所有层(包括前向扭曲模块之前的层和修复网络的层)的参数的偏导数),因此可以以端到端的方式训练(前向扭曲和修复)联合系统,同时将尝试对从前向扭曲处理产生的间隙位置进行预测的间隙鉴别器应用于组合网络。
基于坐标的修复
基于坐标的修复的目标是基于从源图像提取的所述纹理的部分来完成图像中描绘的例如人的纹理。更具体地,从源图像开始,执行以下步骤:
1、预训练的深度神经网络被运行,以根据固定的预定义纹理映射向输入图像的每个像素p=(x,y)分配一对纹理坐标(u,v)。结果,纹理像素的子集被分配像素坐标,从而产生具有不知道该映射的大量纹理像素的纹理坐标系中的x值和y值的双通道映射。
2、作为下一个步骤,运行具有可学习参数μ的第二深度卷积神经网络h,使得完成x和y映射,从而产生完整纹理图,其中,对于每个纹理像素(u,v),对应图像像素(x[u,v],y[u,v])是已知的。
3、通过获取位置(x[u,v],y[u,v])处的图像值(例如,在红色、绿色和蓝色通道中)并将它们放在位置(u,v)处的纹理上来获得最终纹理,从而产生完整颜色纹理。
4、一旦获得了完整纹理,就使用该完整纹理来对不同姿态的人的新视图进行纹理化,其中,针对所述新视图提供从图像像素坐标到纹理坐标的不同映射。
当使用所述一对纹理坐标(u,v)的第一图像来创建纹理时,可进一步优化参数μ,使得上面概述的步骤1-4的顺序与所述一对纹理坐标(u,v)中的第二图像紧密匹配。任意标准损失(例如,像素方面的、感知的)可被用于测量紧密度。可将间隙鉴别器添加到纹理完成网络的训练。
最后,单独的修正网络可被用于变换以步骤1-4的顺序而获得的重新纹理化的图像,以便改善视觉质量。可单独地或与纹理完成网络联合地训练该修正网络。
接下来,通过说明而非限制的方式提供本发明方法的实际实现的特定示例。基于前向扭曲之后是利用间隙鉴别器训练的修复网络的本发明的方法被应用于具有不同复杂度水平的各种任务。
面部转正
作为第一个任务,考虑面部转正方法,其中,所述面部转正方法旨在在保留身份、面部表情和光照的同时将非正面定向的面部扭曲为转正的面部。在例如[7]中描述的Multi-PIE数据集上训练和评估该方法,其中,Multi-PIE数据集是在四个会议上成像的337个人的、具有变化的(和已知的)视图、照度条件和面部表情的超过750000个上身图像的数据集。使用U-Net形(参见例如[22])架构(N个卷积层,N用于前向扭曲,以及用于修复网络的沙漏型架构)。
面部和上身旋转
对于面部旋转,在Multi-PIE数据集上训练和评估本发明的方法(参见例如[7])。对于每个主体,通过多个相机同时拍摄15个视图,其中,13个相机在相同的水平面中以15°的规则间隔被放置在主体周围,范围从-90°至90°,并且2个相机在升高的水平上。每个多视图集合在19种不同照度条件下被拍摄,多达4个会议和4个面部表情。在实验中,仅在同一水平面中被放置在主体周围的13个相机被使用。对于上身实验,使用了原始图像,而对于面部实验,使用了MTCNN面部检测器,以找到面部边界框并以10个像素的间隙对其进行裁剪。128×128是实验的标准分辨率,并且在经过学习算法之前,所有图像最终被调整大小到该分辨率。该转正被认为是实验的旋转任务的最重要的特定情况。
提出的图像再合成管道由两大部分组成:以前向扭曲模块的形式实现的扭曲场回归器、以及以间隙填充模块的形式实现的修复器。扭曲场回归器是一种具有可训练参数ω的卷积网络(ConvNet)fω,其中,所述卷积网络遵循U-Net架构(参见例如[22])。提供输入图像(以及对像素行和像素列进行编码的两个附加网格阵列),并且ConvNet产生由两个2D阵列编码的偏移场wδ[p,q]=(uδ[p,q],vδ[p,q])。该场稍后通过简单的加法w[p,q]=(u[p,q],v[p,q])=(p+uδ[p,q],q+vδ[p,q])被变换为前向扭曲场,并经过前向网格采样器。在所描述的情况下,wδ[p,q]对输入图像上的像素(p,q)的运动进行编码。然而,注意,如果进一步应用后向采样器,则相同的结构可能被潜在地用于使后向扭曲场回归。
第二部分,修复器是具有可学习参数φ的网络gφ,其中,所述网络gφ还基于所有卷积都被替换为门控卷积的U-Net架构(尽管没有跳过连接)。这些是在[28]中首次提出的注意力层,以有效地处理困难的修复任务。所采用的是如[28]中所定义的门控卷积:
门控=conu(I,Wg),
特征=comv(I,Wf),
输出=ELU(特征)·σ(门控),(13)
在生成对抗网络(GAN)框架中训练模型,并添加两个鉴别器网络。第一鉴别器(真/假鉴别器)旨在从由生成修复网络产生的修复图像区分真值输出图像。真/假鉴别器dψ可被组织为普通(plain)卷积和跨步卷积的堆叠,主要遵循VGG-16特征提取器部分的架构,并且随后进行平均池化和sigmoid。所得到的数字指示图像是“真”图像的预测概率。第二鉴别器是旨在通过解决分割问题来从修复图像恢复间隙掩模的间隙鉴别器hξ。反之,GAN生成器试图通过产生具有与非修复区域不可区分的修复区域的图像来“欺骗”间隙鉴别器。
如上所述,管道的端到端学习是一项困难的任务,需要在各种损失分量之间仔细平衡。针对生成ConvNet的损失值Lgenerator被如下优化,其中,所述生成ConvNet包括扭曲场回归器,随后是修复器:
Lgencrator(ω,φ)=Lwarping(ω)+Linpaintcr(ω,φ)+αadvLadv(ω,φ)+αgapLgap(ω,φ), (14)
其中,Lwarping(ω)惩罚扭曲图像和扭曲场,并且Linpainter(ω,φ)仅惩罚修复图像,Ladv(ω,φ)和Lgap(ω,φ)是分别与利用第一鉴别器(真/假鉴别器)和第二鉴别器(间隙鉴别器)的对抗学习对应的生成器惩罚。因此,这些分量分解为以下基本损失函数:
其中,v是身份特征提取器。采用在MS-Celeb-1M数据集上预训练的Light-CNN-29作为身份不变嵌入的源。在训练期间,v的权重是固定的。
Ladv(ω,φ)遵循表达式(11),并且Lgap(ω,φ)被类似地定义:
与所述生成器一起,两个鉴别器通过上述损失(10)和(12)而被更新。
返回图3,示出了在80%的随机样本的Multi-PIE的子集上被训练并在其余20%的数据上被评估的算法的性能。图3中所示的结果对应于来自验证部分的随机样本。
身体纹理估计和姿态转移
对于纹理转移任务,采用前向扭曲和间隙鉴别器技术。DeepFashion数据集(参见例如[18])被用于证明所构建的模型的性能,其中,所述模型恢复人体的完整纹理,其中,所述人体的完整纹理可被投影到任意形状和姿态的身体上以产生目标图像。
该模型以四个步骤执行纹理转移:
1、将初始图像映射到纹理空间并检测其缺失部分
2、修复缺失部分以恢复完整纹理
3、将恢复的纹理投影到新身体姿态上
4、修正所得图像以消除纹理重新投影后出现的缺陷。
虽然单独的损失函数被应用于每个模块的输出,但是执行这些步骤的全部模块可以以端到端的方式同时被训练。可在图5中查看模型的方案。
位于单个RGB图像上的不同身体部位的24个纹理被用于对源图像上的每个像素的纹理图像坐标进行预测,为的是通过生成它们的扭曲场来将输入图像映射到纹理空间中。针对源图像和目标图像两者的扭曲场由具有类似UNet架构的相同网络来生成。由于扭曲场建立了初始图像与纹理空间坐标之间的对应关系,因此可使用前向扭曲从照片生成纹理图像,并使用具有相同扭曲场的后向扭曲从纹理重建人物图像。为了训练扭曲场生成器,使用由密集姿态模型(参见例如[8])生成的真值uv渲染器,并利用L1(差的绝对值之和)损失来惩罚所得到的扭曲场:
Lwarp(xsource,WF,ω)=||wω(xsource)-WF||1,(18)
其中,xsource是源图像,WF是真值扭曲场,并且wω是扭曲场生成器。
在将源图像映射到纹理空间之后,由于源图像上的自遮挡,所得到的纹理图像具有许多缺失部分(间隙)。然后,由间隙填充模块来修复这些缺失部分,其中,所述间隙填充模块是训练出的模型的第二部分。
训练出的模型采用门控的沙漏(gated an hourglass)架构(参见例如[28])和间隙鉴别器以生成合理的纹理以及11损失。修复器的损失函数如下所示:
Linpainter(tsource,ttarget,φ,ξ)=,
||gφ(tsource)-tsource||1+,
||gφ(tsource)-ttarget||1+,
Lgap(φ,ξ), (19)
这里,tsource和ttarget分别是源纹理和目标纹理,gφ是修复器并且如在表达式(12)中计算Lgap,而针对损失函数10,更新间隙鉴别器的权重。
一旦生成了恢复纹理,就可将恢复纹理重新投影回到用其扭曲场编码的任意身体上。通过由扭曲场预测器生成针对目标图像的扭曲场,可通过利用目标扭曲场对纹理进行后向扭曲来产生目标姿态的源人物的图像。
虽然可以以这种方式获得合理的纹理重建,但是所得到的扭曲图像可能具有许多由在不同纹理部分被连接的情况下观察到的差异以及纹理空间中丢失的一些较小身体区域引起的缺陷。在纹理空间中难以解决这些问题,然而,可在原始图像空间中容易地处理它们。为此目的,可使用被实施为修正网络以消除这些缺陷的图像修正模块。修正网络的输出是模型的最终结果。最终结果与真目标图像之间的VGG损失以及试图在来自数据集的图像与所生成的图像之间进行区分的真/假鉴别器被计算:
H(tsource,xtarget,φ,ω)=gφ(tsource),
Lrefine(tsource,xtarget,φ,ω,ψ)=,
VGG(H(tsource,xtarget,φ,ω),xtarget)-,
log(1-sψ(H(tsource,xtarget,φ,ω))), (20)
Lreal/fake=-log(sψ(H(tsource,xtarget,φ,ω))) (21)。
现在已经描述了基于预先训练或正在训练以执行图像再合成任务的深度卷积神经网络的一个或更多个机器学习模型,实现根据本发明的方法的本发明的图像再合成系统100可被具体表征为包括:
源图像输入模块110;前向扭曲模块120,被配置为针对每个源图像像素对目标图像中的对应位置进行预测,其中,前向扭曲模块120被配置为对与源图像对准的前向扭曲场进行预测;间隙填充模块130,包括间隙鉴别器210和间隙修复器132,其中,间隙鉴别器210被配置为对从前向扭曲产生的间隙的二元掩模进行预测,间隙修复器132被配置为通过借助于针对纹理图像中的每个像素对源图像中的一对坐标进行预测生成纹理图像,基于所述间隙的二元掩模来填充间隙;以及目标图像输出模块180。
前向扭曲模块120还可包括产生前向扭曲图像的扭曲场回归器121。如上所述的间隙填充模块130还可包括被配置为校正目标图像中的前向扭曲误差的扭曲误差校正模块131。
根据至少一个实施例,本发明的系统还可包括被配置为进行以下操作的纹理转移架构150:预测针对源图像和目标图像的扭曲场;经由前向扭曲将源图像映射到纹理空间中,将纹理空间恢复为完整纹理;并且使用后向扭曲将完整纹理映射回新姿态。
所述系统还可进一步包括被配置为从源图像提取纹理的纹理提取模块160。根据本发明,至少前向扭曲模块120和间隙填充模块130可被实现为深度卷积神经网络。可使用被配置为将真值图像和修复图像区分开的真/假鉴别器来训练深度卷积网络中的至少一个深度卷积网络。本发明的系统的间隙鉴别器210可以以单独的分类网络的形式被训练,以通过使针对二元分割的加权交叉熵损失最小化从修复图像预测掩模m来在修复图像与原始图像之间进行区分。本发明的系统的间隙修复器132还可包括:坐标分配模块1321,被配置为根据固定的预定义纹理映射向输入图像的每个像素p=(x,y)分配一对纹理坐标(u,v),以便提供x值和y值在纹理坐标系中的双通道映射;纹理图完成模块1322,被配置为提供完整纹理图,其中,对于每个纹理像素(u,v),对应图像像素(x[u,v],y[u,v])是已知的;最终纹理生成模块1323,被配置为通过将来自位置(x[u,v],y[u,v])的图像值映射到位置(u,v)处的纹理来生成最终纹理,以便提供完整颜色最终纹理;最终纹理重新映射模块1324,被配置为通过提供从图像像素坐标到纹理坐标的不同映射来将最终纹理重新映射到新视图。
在至少一个实施例中,图像再合成系统可包括图像修正模块170,其中,图像修正模块170被配置为对由在不同纹理部分被连接的情况下观察到的差异引起的输出图像缺陷进行校正。
将对本领域技术人员显而易见的是,可通过本领域公知的各种软件、硬件、固件等手段来实现本发明的系统的上述模块。例如硬件和软件的各种组合可被设想用于执行上述功能和/或处理,其中,通过仔细研究上面提供的描述,这些组合对于本领域技术人员将是显而易见的。所要求保护的发明不限于如上所述的实现或组合的任意特定形式,而是可根据要解决的特定图像再合成任务以各种形式被实现。
前面是本发明的特定示例性实施例的详细描述,其中,所述特定示例性实施例旨在说明而非限制实现对应图像处理系统组件和图像处理方法步骤的材料和技术手段、它们的功能性质和它们之间的关系、以及本发明的图像处理系统和方法的操作模式。在参照附图仔细阅读上面提供的描述之后,落入本发明的范围内的其他实施例对于本领域技术人员可变得显而易见,并且所有这样的显而易见的修改、变化和/或等同替换被认为是被本发明的范围所涵盖。在权利要求中提到本发明的方法的步骤的顺序不必限定旨在执行所述方法步骤的实际顺序,并且可基本上同时、一个接另一个或以任意合适的顺序执行特定方法步骤,除非本公开的上下文另有具体定义和/或规定。虽然在权利要求中或在申请材料中的其他地方没有指定,但特定方法步骤也可被执行一次或任意其他合适的次数。
还应注意,与上文描述的形式相比,本发明还可采取其他形式,并且在适用的情况下,特定组件、模块、元件、功能可被实现为软件、硬件、固件、集成电路、FPGA等。可由存储在计算机可读介质上的计算机程序来实现所要求保护的发明或至少其特定部件、组件、模块或步骤,其中,所述程序在通用计算机、GPU、多功能装置或任意合适的图像处理装置上运行时使所述装置执行所要求保护的方法的一些或所有步骤并且/或者控制所要求保护的图像再合成系统的至少一些组件,使得它们以上述方式进行操作。适合于存储所述计算机程序或其代码、指令或者计算机程序元件或模块的计算机可读介质的示例可包括对于本领域技术人员显而易见的任意种类的非暂时性计算机可读介质。
在本文档中引用和讨论并在下文列出的所有非专利现有技术参考文献[1]-[30]在适用的情况下通过引用在此被包括在本公开中。
通过参照附图阅读以上描述,本领域技术人员可想到本发明的进一步的方面。本领域技术人员将认识到,本发明的其他实施例是可行的,并且在不脱离本发明构思的情况下,可在许多方面修改本发明的细节。因此,附图和说明书本质上被认为是说明性的而非限制性的。所要求保护的本发明的范围仅由权利要求来确定。
引文列表
[1]V.Blanz and T.Vetter.Face recognition based on fitting a 3dmorphable model.T-PAMI,25(9):1063-1074,2003.2
[2]J.Cao,Y.Hu,B.Yu,R.He,and Z.Sun.Load balanced gans for multi-viewface image synthesis.arXiv preprint arXiv:1802.07447,2018.2
[3]J.Cao,Y.Hu,H.Zhang,R.He,and Z.Sun.Learning a high fidelity poseinvariant model for high-resolution face frontalization.arXiv preprint arXiv:1806.08472,2018.1,3
[4]J.Deng,S.Cheng,N.Xue,Y.Zhou,and S.Zafeiriou.Uv-gan:adversarialfacial uv map completion for pose-invariant face recognition.In Proc.CVPR,pages 7093-7102,2018.1,2,4
[5]Y.Ganin,D.Kononenko,D.Sungatullina,and V.Lempitsky.Deepwarp:Photorealistic image resynthesis for gaze manipulation.In European Conferenceon Computer Vision,pages 311-326.Springer,2016.1,2,3
[6]I.Goodfellow,J.Pouget-Abadie,M.Mirza,B.Xu,D.Warde-Farley,S.Ozair,A.Courville,and Y.Bengio.Generative adversarial nets.In Advances in neuralinformation processing systems,pages 2672-2680,2014.2,4
[7]R.Gross,I.Matthews,J.Cohn,T.Kanade,and S.Baker.Multi-pie.Image andVision Computing,28(5):807-813,2010.5
[8]R.A.Guler,N.Neverova,and I.Kokkinos.DensePose:Dense human poseestimation in the wild.In The IEEE Conference on Computer Vision and PatternRecognition(CVPR),June 2018.2,8
[9]Y.Hu,X.Wu,B.Yu,R.He,and Z.Sun.Pose-guided photo-realistic facerotation.In Proc.CVPR,2018.2
[10]R.Huang,S.Zhang,T.Li,R.He,et al.Beyond face rotation:Global andlocal perception gan for photorealistic and identity preserving frontal viewsynthesis.arXiv preprint arXiv:1704.04086,2017.2
[11]S.Iizuka,E.Simo-Serra,and H.Ishikawa.Globally and locallyconsistent image completion.ACM Transactions on Graphics(TOG),36(4):107,2017.1,2
[12]P.Isola,J.Zhu,T.Zhou,and A.A.Efros.Image-to-image translationwith conditional adversarial networks.In Proc.CVPR,pages 5967-5976,2017.2
[13]M.Jaderberg,K.Simonyan,A.Zisserman,and K.Kavukcuoglu.Spatialtransformer networks.In Proc.NIPS,pages 2017-2025,2015.1,2,3
[14]J.Johnson,A.Alahi,and L.Fei-Fei.Perceptual losses for real-timestyle transfer and super-resolution.In Proc.ECCV,pages 694-711,2016.4
[15]Y.LeCun,B.Boser,J.S.Denker,D.Henderson,R.E.Howard,W.Hubbard,andL.D.Jackel.Backpropagation applied to handwritten zip code recognition.Neuralcomputation,1(4):541-551,1989.1
[16]Y.Li,S.Liu,J.Yang,and M.-H.Yang.Generative face completion.InProc.CVPR,volume 1,page 3,2017.1,2
[17]G.Liu,F.A.Reda,K.J.Shih,T.-C.Wang,A.Tao,and B.Catanzaro.Imageinpainting for irregular holes using partial convolutions.arXiv preprintarXiv:1804.07723,2018.1,2,3
[18]Z.Liu,P.Luo,S.Qiu,X.Wang,and X.Tang.Deepfashion:Powering robustclothes recognition and retrieval with rich annotations.In Proc.CVPR,pages1096-1104,2016.6
[19]N.Neverova,R.A.Guler,and I.Kokkinos.Dense pose transfer.In TheEuropean Conference on Computer Vision(ECCV),September 2018.2
[20]E.Park,J.Yang,E.Yumer,D.Ceylan,and A.C.Berg.Transformation-grounded image generation network for novel 3d view synthesis.In Proc.CVPR,pages 702-711.IEEE,2017.1,3
[21]J.S.Ren,L.Xu,Q.Yan,and W.Sun.Shepard convolutional neuralnetworks.In Proc.NIPS,pages 901-909,2015.1,2
[22]O.Ronneberger,P.Fischer,and T.Brox.U-net:Convolutional networksfor biomedical image segmentation.In Proc.MICCAI,pages 234-241.Springer,2015.5
[23]A.Siarohin,E.Sangineto,S.Lathuilire,and N.Sebe.gansfor pose-based human image generation.In The IEEE Conference on ComputerVision and Pattern Recognition(CVPR),June 2018.1,2,3
[24]S.Tulyakov,M.-Y.Liu,X.Yang,and J.Kautz.Moco-gan:Decomposingmotion and content for video generation.In The IEEE Conference on ComputerVision and Pattern Recognition(CVPR),June 2018.2
[25]J.Uhrig,N.Schneider,L.Schneider,U.Franke,T.Brox,andA.Geiger.Sparsity invariant cnns.In International Conference on 3D Vision(3DV),pages 11-20.IEEE,2017.1,2
[26]J.Yim,H.Jung,B.Yoo,C.Choi,D.Park,and J.Kim.Rotating your faceusing multi-task deep neural network.In Proc.CVPR,pages 676-684,2015.2
[27]X.Yin,X.Yu,K.Sohn,X.Liu,and M.Chandraker.Towards large-pose facefrontalization in the wild.In Proc.ICCV,pages 1-10,2017.2
[28]J.Yu,Z.Lin,J.Yang,X.Shen,X.Lu,and T.S.Huang.Free-form imageinpainting with gated convolution.arXiv preprint arXiv:1806.03589,2018.1,2,5,6,8
[29]J.Zhao,L.Xiong,P.K.Jayashree,J.Li,F.Zhao,Z.Wang,P.S.Pranata,P.S.Shen,S.Yan,and J.Feng.Dual-agent gans for photorealistic and identitypreserving profile face synthesis.In Proc.NIPS,pages 66-76,2017.2
Claims (14)
1.一种图像再合成系统,包括:
源图像输入模块;
前向扭曲模块,被配置为针对每个源图像像素对目标图像中的对应位置进行预测,其中,前向扭曲模块被配置为对与所述源图像对准的前向扭曲场进行预测;以及
间隙填充模块,被配置为填充从前向扭曲模块的应用产生的间隙。
2.根据权利要求1所述的图像再合成系统,其中,间隙填充模块还包括扭曲误差校正模块,其中,扭曲误差校正模块被配置为校正所述目标图像中的前向扭曲误差。
3.根据权利要求1所述的图像再合成系统,还包括:纹理转移架构,被配置为:
预测针对所述源图像和所述目标图像的扭曲场;
经由前向扭曲将所述源图像映射到纹理空间,
将所述纹理空间恢复为完整纹理;并且
使用后向扭曲将所述完整纹理映射回新姿态。
4.根据权利要求1所述的图像再合成系统,还包括:纹理提取模块,被配置为从所述源图像提取纹理。
5.根据权利要求1所述的图像再合成系统,其中,至少前向扭曲模块和间隙填充模块被实现为深度卷积神经网络。
6.根据权利要求1所述的图像再合成系统,其中,间隙填充模块包括间隙修复器,其中,间隙修复器包括:
坐标分配模块,被配置为根据固定的预定义纹理映射向输入图像的每个像素p=(x,y)分配一对纹理坐标(u,v),以便提供x值和y值在纹理坐标系中的双通道映射;
纹理图完成模块,被配置为提供完整纹理图,其中,针对每个纹理像素(u,v),对应图像像素(x[u,v],y[u,v])是已知的;
最终纹理生成模块,被配置为通过将来自位置(x[u,v],y[u,v])的图像值映射到位置(u,v)处的纹理来生成最终纹理,以便提供完整颜色最终纹理;
最终纹理重新映射模块,被配置为通过提供从图像像素坐标到纹理坐标的不同映射来将所述最终纹理重新映射到新视图。
7.根据权利要求5所述的图像再合成系统,其中,所述深度卷积网络中的至少一个深度卷积网络是使用被配置为将真值图像和修复图像区分开的真/假鉴别器而训练出的。
8.根据权利要求4所述的图像再合成系统,还包括:图像修正模块,被配置为校正输出图像缺陷。
9.一种用于训练间隙填充模块的系统,其中,间隙填充模块被配置为填充间隙作为图像再合成的一部分,所述系统被配置为对间隙填充模块进行与间隙鉴别器网络的并行联合训练,而间隙鉴别器网络被训练为对间隙的二元掩模进行预测,并且间隙填充模块被训练为使间隙鉴别器网络的精度最小化。
10.一种图像再合成方法,包括以下步骤:
输入源图像;
针对每个源图像像素,对目标图像中的对应位置进行预测,其中,与所述源图像对准的前向扭曲场被预测出;
对从前向扭曲产生的间隙的二元掩模进行预测,
通过借助于针对纹理图像中的每个像素对所述源图像中的一对坐标进行预测生成纹理图像,基于所述间隙的二元掩模来填充所述间隙;并且
使用后向扭曲将完整纹理映射回新姿态。
11.根据权利要求10所述的图像再合成方法,
其中,填充间隙的步骤包括以下步骤:
根据固定的预定义纹理映射向输入图像的每个像素p=(x,y)分配一对纹理坐标(u,v),以便提供x值和y值在纹理坐标系中的双通道映射;
提供完整纹理图,其中,针对每个纹理像素(u,v),对应图像像素(x[u,v],y[u,v])是已知的;
通过将来自位置(x[u,v],y[u,v])的图像值映射到位置(u,v)处的纹理来生成最终纹理,以便提供完整颜色最终纹理;
通过提供从图像像素坐标到纹理坐标的不同映射来将所述最终纹理重新映射到新视图。
12.一种用于训练间隙填充模块的方法,其中,间隙填充模块被配置为填充间隙作为图像再合成的一部分,所述方法包括:对间隙填充模块进行与间隙鉴别器网络的并行联合训练,而间隙鉴别器网络被训练为对间隙的二元掩模进行预测,并且间隙填充模块被训练为使间隙鉴别器网络的精度最小化。
13.一种包括计算机程序代码的计算机程序产品,其中,所述计算机程序代码在被一个或更多个处理器执行时使所述一个或更多个处理器实现根据权利要求10或11中的任意一项所述的方法。
14.一种存储有根据权利要求13所述的计算机程序产品的非暂时性计算机可读介质。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2018139543 | 2018-11-09 | ||
RU2018139543 | 2018-11-09 | ||
RU2019113117 | 2019-04-29 | ||
RU2019113117A RU2726160C1 (ru) | 2019-04-29 | 2019-04-29 | Повторный синтез изображения, использующий прямое деформирование изображения, дискриминаторы пропусков и основанное на координатах реконструирование |
PCT/KR2019/015051 WO2020096368A1 (en) | 2018-11-09 | 2019-11-07 | Image resynthesis using forward warping, gap discriminators, and coordinate-based inpainting |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112823375A true CN112823375A (zh) | 2021-05-18 |
Family
ID=70612326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980066712.4A Pending CN112823375A (zh) | 2018-11-09 | 2019-11-07 | 使用前向扭曲、间隙鉴别器和基于坐标的修复的图像再合成 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11961205B2 (zh) |
EP (1) | EP3824432A4 (zh) |
CN (1) | CN112823375A (zh) |
WO (1) | WO2020096368A1 (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11580673B1 (en) * | 2019-06-04 | 2023-02-14 | Duke University | Methods, systems, and computer readable media for mask embedding for realistic high-resolution image synthesis |
DE102020212113A1 (de) * | 2020-03-12 | 2021-09-16 | Friedrich-Alexander-Universität Erlangen-Nürnberg | Generieren modifizierter medizinischer Bilder und Erkennen abnormaler Strukturen |
CN111783494B (zh) * | 2020-06-24 | 2022-11-04 | 成都理工大学 | 结合二值分割的卷积自编码器的受损二维码恢复方法 |
US11544495B2 (en) * | 2020-07-10 | 2023-01-03 | Adobe Inc. | Attributionally robust training for weakly supervised localization and segmentation |
US11538140B2 (en) * | 2020-11-13 | 2022-12-27 | Adobe Inc. | Image inpainting based on multiple image transformations |
US11762951B2 (en) * | 2020-11-18 | 2023-09-19 | Adobe Inc. | Generative image congealing |
CN112560637B (zh) * | 2020-12-10 | 2024-03-15 | 长沙理工大学 | 一种基于深度学习的服饰解析方法、设备及存储介质 |
US11854203B1 (en) * | 2020-12-18 | 2023-12-26 | Meta Platforms, Inc. | Context-aware human generation in an image |
US20220207786A1 (en) * | 2020-12-30 | 2022-06-30 | Snap Inc. | Flow-guided motion retargeting |
US11956407B2 (en) * | 2021-01-25 | 2024-04-09 | Changxin Memory Technologies, Inc. | Image view angle conversion/fault determination method and device, apparatus and medium |
WO2022189693A1 (en) * | 2021-03-12 | 2022-09-15 | Nokia Technologies Oy | A method, an apparatus and a computer program product for generating three-dimensional models of a subject |
US20230036713A1 (en) * | 2021-08-02 | 2023-02-02 | Halliburton Energy Services, Inc. | Borehole Image Gap Filing Using Deep Learning |
WO2023104559A1 (en) * | 2021-12-08 | 2023-06-15 | Koninklijke Philips N.V. | Thrombus treatment metric |
EP4195215A1 (en) * | 2021-12-08 | 2023-06-14 | Koninklijke Philips N.V. | Thrombus treatment metric |
CN114445659A (zh) * | 2022-01-20 | 2022-05-06 | 南京中医药大学 | 一种基于图像颜色及纹理特征的真伪酸枣仁鉴别方法 |
CN115760646B (zh) * | 2022-12-09 | 2024-03-15 | 中山大学·深圳 | 一种针对不规则孔洞的多模态人脸图像修复方法和系统 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1999024936A1 (en) | 1997-11-10 | 1999-05-20 | Gentech Corporation | System and method for generating super-resolution-enhanced mosaic images |
US20040156556A1 (en) * | 2001-04-25 | 2004-08-12 | Lopez Javier Olivan | Image processing method |
US6879731B2 (en) | 2003-04-29 | 2005-04-12 | Microsoft Corporation | System and process for generating high dynamic range video |
US7606417B2 (en) | 2004-08-16 | 2009-10-20 | Fotonation Vision Limited | Foreground/background segmentation in digital images with differential exposure calculations |
US8339475B2 (en) | 2008-12-19 | 2012-12-25 | Qualcomm Incorporated | High dynamic range image combining |
SG10202008690XA (en) | 2011-01-12 | 2020-10-29 | Mitsubishi Electric Corp | Moving image encoding device, moving image decoding device, moving image encoding method, and moving image decoding method |
US8923652B2 (en) | 2012-10-25 | 2014-12-30 | Nvidia Corporation | Methods and apparatus for registering and warping image stacks |
US9600869B2 (en) * | 2013-03-14 | 2017-03-21 | Cyberlink Corp. | Image editing method and system |
WO2015048694A2 (en) * | 2013-09-27 | 2015-04-02 | Pelican Imaging Corporation | Systems and methods for depth-assisted perspective distortion correction |
KR102380862B1 (ko) * | 2015-09-01 | 2022-03-31 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
US10567739B2 (en) | 2016-04-22 | 2020-02-18 | Intel Corporation | Synthesis of transformed image views |
US9922267B1 (en) * | 2016-09-01 | 2018-03-20 | Adobe Systems Incorporated | Locating features in warped images |
US10453204B2 (en) * | 2016-12-06 | 2019-10-22 | Adobe Inc. | Image alignment for burst mode images |
US10165259B2 (en) | 2017-02-15 | 2018-12-25 | Adobe Systems Incorporated | Generating novel views of a three-dimensional object based on a single two-dimensional image |
US10540757B1 (en) * | 2018-03-12 | 2020-01-21 | Amazon Technologies, Inc. | Method and system for generating combined images utilizing image processing of multiple images |
CN108564119B (zh) * | 2018-04-04 | 2020-06-05 | 华中科技大学 | 一种任意姿态行人图片生成方法 |
-
2019
- 2019-11-07 CN CN201980066712.4A patent/CN112823375A/zh active Pending
- 2019-11-07 US US17/282,214 patent/US11961205B2/en active Active
- 2019-11-07 EP EP19881010.3A patent/EP3824432A4/en active Pending
- 2019-11-07 WO PCT/KR2019/015051 patent/WO2020096368A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
EP3824432A1 (en) | 2021-05-26 |
WO2020096368A1 (en) | 2020-05-14 |
EP3824432A4 (en) | 2021-11-03 |
US11961205B2 (en) | 2024-04-16 |
US20210334935A1 (en) | 2021-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112823375A (zh) | 使用前向扭曲、间隙鉴别器和基于坐标的修复的图像再合成 | |
Lim et al. | DSLR: Deep stacked Laplacian restorer for low-light image enhancement | |
Jackson et al. | 3d human body reconstruction from a single image via volumetric regression | |
Wang et al. | Deep learning for hdr imaging: State-of-the-art and future trends | |
Lee et al. | Uncertainty-aware mesh decoder for high fidelity 3d face reconstruction | |
Pumarola et al. | Geometry-aware network for non-rigid shape prediction from a single view | |
CN105374065B (zh) | 用于在渲染图像中使用的可重新照明纹理 | |
RU2726160C1 (ru) | Повторный синтез изображения, использующий прямое деформирование изображения, дискриминаторы пропусков и основанное на координатах реконструирование | |
Satoshi et al. | Globally and locally consistent image completion | |
Vitoria et al. | Semantic image inpainting through improved wasserstein generative adversarial networks | |
Galteri et al. | Deep 3d morphable model refinement via progressive growing of conditional generative adversarial networks | |
KR20220113800A (ko) | 비디오 데이터에 대한 코딩 스킴 | |
US20230130281A1 (en) | Figure-Ground Neural Radiance Fields For Three-Dimensional Object Category Modelling | |
Tsoli et al. | Patch-based reconstruction of a textureless deformable 3d surface from a single rgb image | |
Roessle et al. | Ganerf: Leveraging discriminators to optimize neural radiance fields | |
Li et al. | High-Resolution Document Shadow Removal via A Large-Scale Real-World Dataset and A Frequency-Aware Shadow Erasing Net | |
US20230080639A1 (en) | Techniques for re-aging faces in images and video frames | |
Agudo et al. | Deformable motion 3D reconstruction by union of regularized subspaces | |
CN117115047A (zh) | 一种图像增强方法、装置、设备及存储介质 | |
US20230110393A1 (en) | System and method for image transformation | |
Gao et al. | Layout-guided indoor panorama inpainting with plane-aware normalization | |
US20230031750A1 (en) | Topologically consistent multi-view face inference using volumetric sampling | |
Pan et al. | Highlight removal for endoscopic images based on accelerated adaptive non-convex RPCA decomposition | |
Jaimez et al. | An efficient background term for 3D reconstruction and tracking with smooth surface models | |
CN114078155A (zh) | 用未标记成对图像训练神经网络以得出对象视角的方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |