CN112634282B - 图像处理方法、装置以及电子设备 - Google Patents
图像处理方法、装置以及电子设备 Download PDFInfo
- Publication number
- CN112634282B CN112634282B CN202011503570.4A CN202011503570A CN112634282B CN 112634282 B CN112634282 B CN 112634282B CN 202011503570 A CN202011503570 A CN 202011503570A CN 112634282 B CN112634282 B CN 112634282B
- Authority
- CN
- China
- Prior art keywords
- image
- matrix
- feature matrix
- segmentation
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 23
- 239000011159 matrix material Substances 0.000 claims abstract description 196
- 230000011218 segmentation Effects 0.000 claims abstract description 121
- 238000012545 processing Methods 0.000 claims abstract description 36
- 238000013527 convolutional neural network Methods 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 19
- 238000000034 method Methods 0.000 claims description 18
- 238000000605 extraction Methods 0.000 claims description 11
- 238000003062 neural network model Methods 0.000 claims description 10
- 230000000694 effects Effects 0.000 abstract description 17
- 230000005012 migration Effects 0.000 abstract description 8
- 238000013508 migration Methods 0.000 abstract description 8
- 238000013135 deep learning Methods 0.000 abstract description 2
- 210000001508 eye Anatomy 0.000 description 11
- 210000004209 hair Anatomy 0.000 description 11
- 239000003086 colorant Substances 0.000 description 7
- 238000004590 computer program Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 210000004709 eyebrow Anatomy 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 210000000088 lip Anatomy 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 238000010428 oil painting Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本公开涉及一种图像处理方法、装置以及电子设备,涉及计算机视觉和深度学习领域。具体实现方案为:获取第一图像和第二图像;分别对所述第一图像和所述第二图像进行语义区域分割,获得第一分割图和第二分割图;确定所述第一分割图与所述第二分割图之间的关联矩阵;基于所述关联矩阵,对所述第一图像进行处理,获得目标图像。由于参考了第一图像和第二图像之间语义区域的关联关系,即参考了第一图像和第二图像的语义信息,可使得目标图像具有更加优质的效果,提高了风格化迁移的处理效果。
Description
技术领域
本公开涉及人工智能领域,具体涉及计算机视觉和深度学习领域。具体地,提供了一种图像处理方法、装置以及电子设备。
背景技术
图像风格化是指基于给定的内容图和风格图,生成一副新图像,这副新图像保留了内容图的语义内容,例如保留了内容图中的人脸五官、发饰、山脉、建筑等信息,同时新图像中还融入了风格图的颜色、纹理等风格样式。
发明内容
本公开提供了一种图像处理方法、装置以及电子设备。
根据本公开的第一方面,提供了一种图像处理方法,包括:
获取第一图像和第二图像;
分别对所述第一图像和所述第二图像进行语义区域分割,获得第一分割图和第二分割图;
确定所述第一分割图与所述第二分割图之间的关联矩阵;
基于所述关联矩阵,对所述第一图像进行处理,获得目标图像。
根据本公开的第二方面,提供了一种图像处理装置,包括:
获取模块,用于获取第一图像和第二图像;
分割模块,用于分别对所述第一图像和所述第二图像进行语义区域分割,获得第一分割图和第二分割图;
确定模块,用于确定所述第一分割图与所述第二分割图之间的关联矩阵;
处理模块,用于基于所述关联矩阵,对所述第一图像进行处理,获得目标图像。
根据本公开的第三方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面任一项所述的方法。
根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行第一方面任一项所述的方法。
根据本公开的第五方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据第一方面任一项所述的方法
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是本公开实施例提供的图像处理方法的一流程图;
图1a-图1c是本公开实施例提供的图像示意图;
图2是本公开实施例提供的图像处理方法的另一流程图;
图3是本公开实施例提供的图像处理方法的由一流程图;
图4是本公开实施例提供的图像处理装置的结构图;
图5是用来实现本公开实施例的图像处理方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
参见图1,图1是本公开实施例提供的图像处理方法的流程图,如图1所示,本实施例提供一种图像处理方法,应用于电子设备,包括以下步骤:
步骤101、获取第一图像和第二图像。
第一图像和第二图像的图像尺寸大小相同。第一图像可通过电子设备的摄像头拍摄获得,也可以通过网络下载获得,在此不做限定。同样的,第二图像也可通过电子设备的摄像头拍摄获得,也可以通过网络下载获得,在此不做限定,第二图像可具有特别的风格特点,例如油画风格、水墨画风格、复古风格等等。
步骤102、分别对所述第一图像和所述第二图像进行语义区域分割,获得第一分割图和第二分割图。
对第一图像进行语义区域分割,例如,对于一副包括人脸的第一图像,可根据眼睛、眉毛、嘴唇、脸部、头发和背景,将第一图像划分为六个语义区域,具体可采用已有的语义分割模型对第一图像进行语义分割。对第二图像也可采用语义分割模型进行语义分割,分割为不同的语义区域。进一步的,还可以对第一图像或第二图像采用人工分割的方式进行语义区域划分,获得第一分割图和第二分割图。
第一分割图中不同的语义区域的像素点采用不同的标记,相同语义区域的像素点采用相同的标记;同样的,第二分割图中不同的语义区域的像素点采用不同的标记,相同语义区域的像素点采用相同的标记。值得说明的是,第一分割图和第二分割图相比,两者相同的语义区域也采用相同的标记,例如,第一分割图中的眼睛区域采用的标记与第二分割图中眼睛区域采用的标记相同,均将眼睛区域的像素值设置为黑色(即标记相同)。
第一分割图可以为一张图,也可以包括多张第一子图。若第一分割图为一张图,则在同一张图上对各语义区域进行标记,获得一张第一分割图;若第一分割图包括多张第一子图,则每张第一子图上只标记第一图像的一个语义区域,其他语义区域全部标记为其他标记,例如,将其他语义区域的像素点标记为白色。上述中,若第一图像有六个语义区域,则第一分割图包括六个第一子图,每个第一子图的尺寸大小与第一分割图的尺寸大小相同。
同样的,第二分割图也可以为一张图,或者包括多张子图,若第二分割图为一张图,则在同一张图上对各语义区域进行标记,获得一张第二分割图;若第二分割图包括多张第二子图,则每张第二子图上只标记第二图像的一个语义区域,其他语义区域全部标记为其他标记,例如,将其他语义区域的像素点标记为白色。上述中,若第二图像有六个语义区域,则第二分割图包括六个第二子图,每个第二子图的尺寸大小与第二分割图的尺寸大小相同。
由于分割图中的语义区域同在一张图中,与语义区域单独存在于一张子图中时,语义区域在图像(一张分割图或者一张子图)中的位置是相同的,语义区域包括的像素点也相同,也就是说,上述两种获得分割图的方式,不会影响获得的语义区域的位置。这样,第一分割图为一张图时,第二分割图可为一张图或者包括多张第二子图,或者,在第一分割图包括多张第一子图时,第二分割图可为一张图或者包括多张第二子图。
需要说明的是,第一分割图和第二分割图至少具有相同的一个语义区域。
步骤103、确定所述第一分割图与所述第二分割图之间的关联矩阵。
第一分割图和第二分割图分别包括多个语义区域,建立第一分割图的语义区域和第二分割图的语义区域之间的关联关系,获得关联矩阵。例如,建立第一分割图和第二分割图中相同的语义区域包括的像素点之间的关联关系,建立第一分割图和第二分割图中不同的语义区域包括的像素点之间的非关联关系,最终获得关联矩阵。
步骤104、基于所述关联矩阵,对所述第一图像进行处理,获得目标图像。
例如,基于关联矩阵,可获知第一图像中与第二图像相同的语义区域,可将该语义区域的像素点的像素值采用第二图像的对应的语义区域的像素值进行调整,如进行替换,或者进行优化等等,获得具有与第二图像相似或相同图像风格的目标图像,实现第二图像的风格化迁移。例如,将第一图像中的眼睛、眉毛、嘴唇、脸部、头发和背景这六个语义区域,采用第二图像中对应的眼睛、眉毛、嘴唇、脸部、头发和背景这六个语义区域的颜色进行着色。通过上述方式用户只需要基于一张第一图像即获得具有与第二图像相同的图像风格的目标图像,可满足更多用户的个性化需求。
如图1a-1c所示,图1a所示为第一图像,图1b所示为第二图像,图1c所示为目标图像,从图1c中可知,第一图像中的人脸脸颊、眼睛和嘴巴的颜色分别与第二图像中的人脸脸颊、眼睛和嘴巴的颜色相同,即目标图像为将第二图像的风格迁移至第一图像后的图像。
本实施例中,获取第一图像和第二图像;分别对所述第一图像和所述第二图像进行语义区域分割,获得第一分割图和第二分割图;确定所述第一分割图与所述第二分割图之间的关联矩阵;基于所述关联矩阵,对所述第一图像进行处理,获得目标图像。由于参考了第一图像和第二图像之间语义区域的关联关系,即参考了第一图像和第二图像的语义信息,可使得目标图像具有更加优质的效果,提高了风格化迁移的处理效果。
参见图2,图2是本公开实施例提供的图像处理方法的流程图,如图2所示,本实施例提供一种图像处理方法,应用于电子设备,包括以下步骤:
步骤201、获取第一图像和第二图像。
步骤202、分别对所述第一图像和所述第二图像进行语义区域分割,获得第一分割图和第二分割图。
步骤203、确定所述第一分割图与所述第二分割图之间的关联矩阵。
步骤201-步骤203与步骤101-步骤103的描述一致,具体可参见步骤101-步骤103中的相关描述,在此不做赘述。
步骤203’、分别对所述第一图像和所述第二图像进行特征提取,获得第一特征矩阵和第二特征矩阵;
对第一图像进行特征提取,获得第一图像的图像特征,第一图像的图像特征可为矩阵形式的表示,即第一特征矩阵;对第二图像进行特征提取,获得第二图像的图像特征,第二图像的图像特征也可为矩阵形式的表示,即第二特征矩阵。对第一图像进行特征提取的方式可与对第二图像进行特征提取的方式相同。第一特征矩阵与第二特征矩阵具有相同的维度。
进一步的,步骤203’、分别对所述第一图像和所述第二图像进行特征提取,获得第一特征矩阵和第二特征矩阵,包括如下两个步骤:
将所述第一图像输入至预先获取的卷积神经网络模型,获得所述第一特征矩阵,所述第一特征矩阵根据所述卷积神经网络模型的两个第一中间层的输出结果确定;
将所述第二图像输入至所述卷积神经网络模型,获得所述第二特征矩阵,所述第二特征矩阵根据所述卷积神经网络模型的两个第二中间层的输出结果确定。
上述中,卷积神经网络模型可采用现有技术中已训练好的模型,该模型用于对图像进行特征提取。在本实施例中,将第一图像输入至卷积神经网络模型,获得的第一特征矩阵并不是卷积神经网络模型的输出结果,而是卷积神经网络模型的两个第一中间层的输出结果,这两个中间层可以是卷积神经网络模型的相邻的两个中间层,也可以是卷积神经网络模型的不相邻的两个中间层,例如,对于具有5层网络层的卷积神经网络模型来说,可以提取第三层和第四层的输出结果,作为第一特征矩阵。对第二图像也采用与第一图像相同的处理方式,获得第二特征矩阵。值得说明的是,两个第一中间层与两个第二中间层的层数可相同也可不同,例如,上述示例中,第一特征矩阵可根据第三层和第四层的输出结果确定,第二特征矩阵可根据第二层和第四层的输出结果确定。
卷积神经网络模型具体可为VGG网络模型,VGG网络模型采用连续的几个3x3的卷积核代替较大卷积核(例如11x11,7x7,5x5)。对于给定的感受野,采用堆积的小卷积核优于采用大的卷积核,多层非线性层可以增加网络深度来保证学习更复杂的模式,且代价比较小。
获取已经训练好的VGG网络模型,向VGG网络模型输入第一图像(或者第二图像),提取VGG网络模型中间Relu3_1和Relu4_1层的特征(Relu3_1层和Relu4_1层是VGGNet网络模型中间的两个网络层的名称)。Relu3_1层输出的是底层特征,对于图像的纹理、形状、边缘等保持的较好;Relu4_1层输出的是高层特征,对于图像的语义内容信息保持的较好。采用了两个中间层的特征可达到互补的目的,使得特征矩阵可包括更多的图像信息,有利于提高后续生成的目标图像的效果。
本实施例中,第一特征矩阵根据所述卷积神经网络模型的两个第一中间层的输出结果确定;第二特征矩阵根据所述卷积神经网络模型的两个第二中间层的输出结果确定,可使得第一特征矩阵可同时包括第一图像的纹理、形状和语义内容信息,第二特征矩阵可同时包括第二图像的纹理、形状和语义内容信息,有利于提高后续生成的目标图像的效果。
步骤203’的执行顺序不限定于本实施例中的顺序,只需在步骤201之后且在步骤104之前执行即可。
步骤2041、根据所述第一特征矩阵、所述第二特征矩阵和所述关联矩阵,获得目标矩阵。
关联矩阵包括第一分割图的语义区域和第二分割图的语义区域之间的关联关系,根据关联矩阵可获知第二图像的哪些区域(即像素点)需要迁移至第一图像中。第一特征矩阵可用于表征第一图像,第二特征矩阵可用于表征第二图像,根据表征第一图像的第一特征矩阵、根据表征第二图像的第二特征矩阵,以及表征第一图像和第二图像之间语义区域关联关系的关联矩阵,可获得目标矩阵。
具体的,根据第一特征矩阵、第二特征矩阵和关联矩阵,获得目标矩阵,包括:
将所述第二特征矩阵与所述关联矩阵相乘,获得中间特征矩阵;
将所述中间特征矩阵与所述第一特征矩阵相加,获得所述目标矩阵。
上述中,将第二特征矩阵与关联矩阵相乘,得到中间特征矩阵(可视为一个特征图),中间特征矩阵相当于对第二图像的像素进行了重新排列,使得第二图像的语义区域在第二图像中的分布与第一图像的语义区域在第一图像中的分布顺序一致。
将中间特征矩阵与第一特征矩阵相加,即将该两个特征矩阵表征的信息进行融合,获得目标矩阵,目标矩阵中融合了第一特征矩阵、第二特征矩阵以及关联矩阵的信息。
上述中,目标矩阵中融合了第一特征矩阵、第二特征矩阵以及关联矩阵的信息,可提高后续根据目标矩阵获取的目标图像的效果。
步骤2042、将所述目标矩阵输入至预先获取的解码器中,获得目标图像。
解码器为神经网络模型,解码器可通过预先训练获得,例如,采用本公开中获取目标矩阵的方式,基于第一样本图像和第二样本图像获得样本目标矩阵,将样本目标矩阵和第一样本图像作为训练样本对基于神经网络模型进行训练,获得解码器。解码器可基于目标矩阵,输出目标图像。
步骤2041-步骤2042为步骤104的一种具体实现方式。
上述中,根据所述第一特征矩阵、所述第二特征矩阵和所述关联矩阵,获得目标矩阵,然后将所述目标矩阵输入至预先获取的解码器中,获得目标图像,基于图像的语义信息进行风格化迁移,可使得目标图像具有更加优质的效果。
在本申请一个实施例中,所述第一分割图和所述第二分割图中不同的语义区域的像素点采用不同的标记,相同语义区域的像素点采用相同的标记,例如,相同的语义区域的像素点标记为相同颜色,不同的语义区域的像素点标记为不同颜色;
相应的,确定所述第一分割图与所述第二分割图之间的关联矩阵的步骤,包括如下两个步骤:
对于所述第一分割图中的每一个第一像素点i,将所述第一像素点i与所述第二分割图中的每一个第二像素点j进行比对,若所述第一像素点i和所述第二像素点j的标记相同,则将所述关联矩阵的第i行第j列的值设置为第一数值;
若所述第一像素点i和所述第二像素点j的标记不相同,则将所述关联矩阵的第i行第j列的值设置为第二数值;
其中,i大于0且小于等于N,j大于0且小于等于所述N,所述N为所述第一图像的像素个数,所述第一图像和所述第二图像具有相同的图像尺寸,即第一图像和第二图像的像素个数相同,关联矩阵的大小为N*N。
具体的,对第一分割图中的像素点进行遍历,对于第一分割图中的每一个第一像素点i,将其与第二分割图中的每一个第二像素点j进行比对,例如,若第一分割图和第二分割图中均有N个像素点,则对于第一分给图中的第一个像素点,将其依次与第二分割图中的N个像素点进行比对。
若所述第一像素点i和所述第二像素点j的标记相同,即第一像素点i和所述第二像素点j属于相同的语义,例如,均属于头发语义区域,则将关联矩阵的第i行第j列的值设置为第一数值,例如第一数值可为1。
若所述第一像素点i和所述第二像素点j的标记不相同,即第一像素点i和所述第二像素点j属于不同的语义,例如,第一像素点i属于头发语义区域,第二像素点j属于眼睛语义区域,则将关联矩阵的第i行第j列的值设置为第二数值,例如第二数值可为0。第一数值和第二数值也可为其他值,在此不做限定。优选的,第一图像的长度和宽度相同。
上述中,通过构建关联矩阵,可建立第一图像与第二图像中各语义区域之间的关联,根据关联矩阵可获知第二图像中哪些像素点需要迁移,哪些像素点不需要迁移,后续根据关联矩阵获得目标图像时,可使得目标图像具有更加优质的效果。
本公开提供的图像处理方法,基于风格注意力机制,通过显式的输入分割语义图,让模型自动的去学习语义图之间的关联信息,来达到对应风格之间进行迁移的效果。
图3所示为本公开提供的图像处理方法的一流程示意图,如图3所示,具体如下步骤:
对每一对内容图(即第一图像)和风格图(即第二图像),分别通过图像编码器(即卷积神经网络模型,例如VGG网络模型)得到内容图特征和风格图特征(即获得第一特征矩阵和第二特征矩阵);
对内容图和风格图,使用语义分割模型或者人工标注的方法,得到它们各自的语义分割图(即第一分割图和第二分割图);
将两个语义分割图,经过一个注意力模块,建模它们之间的语义关联信息(即通过注意力模块获得关联矩阵);
将语义关联信息,与先前提取到的内容图特征和风格图特征,经过一个融合模块,得到内容特征和风格特征的语义对应关系(即目标矩阵);
将目标矩阵输入解码器,得到最终的生成结果图(即目标图像)。
上述中,可直接采用开源的语义分割模型,对图像进行语义分割,例如,把人脸图像,分割成了脸部,眉毛,眼睛,嘴巴,头发,背景等几个部分,并且用不同的颜色进行表示,用于区分不同的语义区域。
对于风格图来说,可以采用人工的方式进行标注,把风格图的人脸分割成脸部,眼睛,头发等不同的区域,并且用跟内容图相同语义的颜色表示同一种语义,例如,对于头发来说,都用深绿色进行表示,如此便可知内容图和风格图中的头发区域,从而进行相同语义区域的风格转换。
将内容图和风格图的语义分割图之后输入至注意力模块,让注意力模块自动的去学习两个语义分割图之间的关联。例如,若内容图分割图为mc,风格图分割图为ms,两个图的尺寸均为M*M。计算两个分割图的任意两像素点之间的关系,得到关联矩阵S。即对于图mc上的第i1个点,图ms上的第j1个点,如果它们属于同一个语义(例如都是头发),那么关联矩阵S在第i1行第j1列位置处的值为1,否则为0,最终得到的关联矩阵S的尺寸是M2*M2。
根据关联矩阵S可获知哪些位置需要对应迁移。将风格特征图与关联矩阵S相乘,得到新的特征图,相当于对风格图中的像素进行重新排列,使得布局与内容图的语义布局一致。然后将新的特征图与内容图特征相加,得到融合模块的输出,即融合模块输出目标特征。将目标特征输入至解码器,生成最终的结果图。
上述基于语义信息进行风格化迁移,避免生成颜色杂乱的图像,并且训练好的模型(例如解码器)一旦训练完成,即可固定住进行新图像的处理,不需要重新训练,极大缩短了处理时间。
参见图4,图4是本公开实施例提供的图像处理装置的结构图,如图4所示,本实施例提供一种图像处理装置400,包括:
获取模块,用于获取第一图像和第二图像;
分割模块,用于分别对所述第一图像和所述第二图像进行语义区域分割,获得第一分割图和第二分割图;
确定模块,用于确定所述第一分割图与所述第二分割图之间的关联矩阵;
处理模块,用于基于所述关联矩阵,对所述第一图像进行处理,获得目标图像。
进一步的,图像处理装置400还包括:
特征提取模块,用于分别对所述第一图像和所述第二图像进行特征提取,获得第一特征矩阵和第二特征矩阵;
所述处理模块,包括:
第一获取子模块,用于根据所述第一特征矩阵、所述第二特征矩阵和所述关联矩阵,获得目标矩阵;
解码子模块,用于将所述目标矩阵输入至预先获取的解码器中,获得目标图像。
进一步的,特征提取模块,包括:
第一特征提取子模块,用于将所述第一图像输入至预先获取的卷积神经网络模型,获得所述第一特征矩阵,所述第一特征矩阵根据所述卷积神经网络模型的两个第一中间层的输出结果确定;
第二特征提取子模块,用于将所述第二图像输入至所述卷积神经网络模型,获得所述第二特征矩阵,所述第二特征矩阵根据所述卷积神经网络模型的两个第二中间层的输出结果确定。
进一步的,所述第一获取子模块,用于将所述第二特征矩阵与所述关联矩阵相乘,获得中间特征矩阵,并将所述中间特征矩阵与所述第一特征矩阵相加,获得所述目标矩阵。
进一步的,所述第一分割图和所述第二分割图中不同的语义区域的像素点采用不同的标记,相同语义区域的像素点采用相同的标记;
所述确定模块,用于:
对于所述第一分割图中的每一个第一像素点i,将所述第一像素点i与所述第二分割图中的每一个第二像素点j进行比对,若所述第一像素点i和所述第二像素点j的标记相同,则将所述关联矩阵的第i行第j列的值设置为第一数值;
若所述第一像素点i和所述第二像素点j的标记不相同,则将所述关联矩阵的第i行第j列的值设置为第二数值;
其中,i大于0且小于等于N,j大于0且小于等于所述N,所述N为所述第一图像的像素个数,所述第一图像和所述第二图像具有相同的图像尺寸。
本公开实施例提供的图像处理装置400能够实现图1的方法实施例中电子设备实现的各个过程以及达到相同的技术效果,为避免重复,这里不再赘述。
根据本公开的实施例,本公开还提供了一种电子设备、一种计算机程序产品和一种可读存储介质。
如图5所示,是根据本公开实施例的图像处理方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图5所示,该电子设备包括:一个或多个处理器501、存储器502,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图5中以一个处理器501为例。
存储器502即为本公开所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本公开所提供的图像处理方法。本公开的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本公开所提供的图像处理方法。
存储器502作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本公开实施例中的图像处理方法对应的程序指令/模块(例如,附图4所示的获取模块401、分割模块402、确定模块403和处理模块404)。处理器501通过运行存储在存储器502中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的图像处理方法。
存储器502可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据图像处理的电子设备的使用所创建的数据等。此外,存储器502可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器502可选包括相对于处理器501远程设置的存储器,这些远程存储器可以通过网络连接至图像处理的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
图像处理方法的电子设备还可以包括:输入装置503和输出装置504。处理器501、存储器502、输入装置503和输出装置504可以通过总线或者其他方式连接,图5中以通过总线连接为例。
输入装置503可接收输入的数字或字符信息,以及产生与图像处理的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置504可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
本公开中,获取第一图像和第二图像;分别对所述第一图像和所述第二图像进行语义区域分割,获得第一分割图和第二分割图;确定所述第一分割图与所述第二分割图之间的关联矩阵;基于所述关联矩阵,对所述第一图像进行处理,获得目标图像。由于参考了第一图像和第二图像之间语义区域的关联关系,即参考了第一图像和第二图像的语义信息,可使得目标图像具有更加优质的效果,提高了风格化迁移的处理效果。
第一特征矩阵根据所述卷积神经网络模型的两个第一中间层的输出结果确定;第二特征矩阵根据所述卷积神经网络模型的两个第二中间层的输出结果确定,可使得第一特征矩阵可同时包括第一图像的纹理、形状和语义内容信息,第二特征矩阵可同时包括第二图像的纹理、形状和语义内容信息,有利于提高后续生成的目标图像的效果。
目标矩阵中融合了第一特征矩阵、第二特征矩阵以及关联矩阵的信息,可提高后续根据目标矩阵获取的目标图像的效果。
根据所述第一特征矩阵、所述第二特征矩阵和所述关联矩阵,获得目标矩阵,然后将所述目标矩阵输入至预先获取的解码器中,获得目标图像,基于图像的语义信息进行风格化迁移,可使得目标图像具有更加优质的效果。
通过构建关联矩阵,可建立第一图像与第二图像中各语义区域之间的关联,根据关联矩阵可获知第二图像中哪些像素点需要迁移,哪些像素点不需要迁移,后续根据关联矩阵获得目标图像时,可使得目标图像具有更加优质的效果。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (10)
1.一种图像处理方法,包括:
获取第一图像和第二图像;
分别对所述第一图像和所述第二图像进行语义区域分割,获得第一分割图和第二分割图;
确定所述第一分割图与所述第二分割图之间的关联矩阵;
基于所述关联矩阵,对所述第一图像进行处理,获得目标图像;
所述第一分割图和所述第二分割图中不同的语义区域的像素点采用不同的标记,相同语义区域的像素点采用相同的标记;
所述确定所述第一分割图与所述第二分割图之间的关联矩阵,包括:
对于所述第一分割图中的每一个第一像素点i,将所述第一像素点i与所述第二分割图中的每一个第二像素点j进行比对,若所述第一像素点i和所述第二像素点j的标记相同,则将所述关联矩阵的第i行第j列的值设置为第一数值;
若所述第一像素点i和所述第二像素点j的标记不相同,则将所述关联矩阵的第i行第j列的值设置为第二数值;
其中,i大于0且小于等于N,j大于0且小于等于N,N为所述第一图像的像素个数,所述第一图像和所述第二图像具有相同的图像尺寸。
2.根据权利要求1所述的方法,其中,在所述获取第一图像和第二图像之后,所述基于所述关联矩阵,对所述第一图像进行处理,获得目标图像之前,所述方法还包括:
分别对所述第一图像和所述第二图像进行特征提取,获得第一特征矩阵和第二特征矩阵;
所述基于所述关联矩阵,对所述第一图像进行处理,获得目标图像,包括:
根据所述第一特征矩阵、所述第二特征矩阵和所述关联矩阵,获得目标矩阵;
将所述目标矩阵输入至预先获取的解码器中,获得目标图像。
3.根据权利要求2所述的方法,其中,所述分别对所述第一图像和所述第二图像进行特征提取,获得第一特征矩阵和第二特征矩阵,包括:
将所述第一图像输入至预先获取的卷积神经网络模型,获得所述第一特征矩阵,所述第一特征矩阵根据所述卷积神经网络模型的两个第一中间层的输出结果确定;
将所述第二图像输入至所述卷积神经网络模型,获得所述第二特征矩阵,所述第二特征矩阵根据所述卷积神经网络模型的两个第二中间层的输出结果确定。
4.根据权利要求2所述的方法,其中,所述根据所述第一特征矩阵、所述第二特征矩阵和所述关联矩阵,获得目标矩阵,包括:
将所述第二特征矩阵与所述关联矩阵相乘,获得中间特征矩阵;
将所述中间特征矩阵与所述第一特征矩阵相加,获得所述目标矩阵。
5.一种图像处理装置,包括:
获取模块,用于获取第一图像和第二图像;
分割模块,用于分别对所述第一图像和所述第二图像进行语义区域分割,获得第一分割图和第二分割图;
确定模块,用于确定所述第一分割图与所述第二分割图之间的关联矩阵;
处理模块,用于基于所述关联矩阵,对所述第一图像进行处理,获得目标图像;
所述第一分割图和所述第二分割图中不同的语义区域的像素点采用不同的标记,相同语义区域的像素点采用相同的标记;
所述确定模块,用于:
对于所述第一分割图中的每一个第一像素点i,将所述第一像素点i与所述第二分割图中的每一个第二像素点j进行比对,若所述第一像素点i和所述第二像素点j的标记相同,则将所述关联矩阵的第i行第j列的值设置为第一数值;
若所述第一像素点i和所述第二像素点j的标记不相同,则将所述关联矩阵的第i行第j列的值设置为第二数值;
其中,i大于0且小于等于N,j大于0且小于等于N,N为所述第一图像的像素个数,所述第一图像和所述第二图像具有相同的图像尺寸。
6.根据权利要求5所述的装置,其中,所述装置还包括:
特征提取模块,用于分别对所述第一图像和所述第二图像进行特征提取,获得第一特征矩阵和第二特征矩阵;
所述处理模块,包括:
第一获取子模块,用于根据所述第一特征矩阵、所述第二特征矩阵和所述关联矩阵,获得目标矩阵;
解码子模块,用于将所述目标矩阵输入至预先获取的解码器中,获得目标图像。
7.根据权利要求6所述的装置,其中,所述特征提取模块,包括:
第一特征提取子模块,用于将所述第一图像输入至预先获取的卷积神经网络模型,获得所述第一特征矩阵,所述第一特征矩阵根据所述卷积神经网络模型的两个第一中间层的输出结果确定;
第二特征提取子模块,用于将所述第二图像输入至所述卷积神经网络模型,获得所述第二特征矩阵,所述第二特征矩阵根据所述卷积神经网络模型的两个第二中间层的输出结果确定。
8.根据权利要求6所述的装置,其中,所述第一获取子模块,用于:
将所述第二特征矩阵与所述关联矩阵相乘,获得中间特征矩阵,并将所述中间特征矩阵与所述第一特征矩阵相加,获得所述目标矩阵。
9. 一种电子设备,其中,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-4中任一项所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011503570.4A CN112634282B (zh) | 2020-12-18 | 2020-12-18 | 图像处理方法、装置以及电子设备 |
US17/344,917 US20210304413A1 (en) | 2020-12-18 | 2021-06-10 | Image Processing Method and Device, and Electronic Device |
EP21178801.3A EP3937134A1 (en) | 2020-12-18 | 2021-06-10 | Image processing method and device, and electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011503570.4A CN112634282B (zh) | 2020-12-18 | 2020-12-18 | 图像处理方法、装置以及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112634282A CN112634282A (zh) | 2021-04-09 |
CN112634282B true CN112634282B (zh) | 2024-02-13 |
Family
ID=75316908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011503570.4A Active CN112634282B (zh) | 2020-12-18 | 2020-12-18 | 图像处理方法、装置以及电子设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210304413A1 (zh) |
EP (1) | EP3937134A1 (zh) |
CN (1) | CN112634282B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113112580B (zh) * | 2021-04-20 | 2022-03-25 | 北京字跳网络技术有限公司 | 一种虚拟形象的生成方法、装置、设备及介质 |
CN115375601B (zh) * | 2022-10-25 | 2023-02-28 | 四川大学 | 一种基于注意力机制的解耦表达国画生成方法 |
CN116579965B (zh) * | 2023-05-22 | 2024-01-19 | 北京拙河科技有限公司 | 一种多图像融合方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101694697B1 (ko) * | 2015-08-03 | 2017-01-10 | 안동대학교 산학협력단 | 텍스춰정보를 포함하는 단순 선형 상관 클러스터링을 이용한 영상 분할방법, 이를 기록한 기록매체 |
CN108427951A (zh) * | 2018-02-08 | 2018-08-21 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
CN109344425A (zh) * | 2018-08-13 | 2019-02-15 | 湖南师范大学 | 一种基于长沙窑文物元素再造创意设计集成平台 |
CN110009573A (zh) * | 2019-01-29 | 2019-07-12 | 北京奇艺世纪科技有限公司 | 模型训练、图像处理方法、装置、电子设备及计算机可读存储介质 |
CN110263607A (zh) * | 2018-12-07 | 2019-09-20 | 电子科技大学 | 一种用于无人驾驶的道路级全局环境地图生成方法 |
CN110880016A (zh) * | 2019-10-18 | 2020-03-13 | 平安科技(深圳)有限公司 | 图像风格迁移方法、装置、设备及存储介质 |
CN111325664A (zh) * | 2020-02-27 | 2020-06-23 | Oppo广东移动通信有限公司 | 风格迁移方法、装置、存储介质及电子设备 |
WO2020177651A1 (zh) * | 2019-03-01 | 2020-09-10 | 华为技术有限公司 | 图像分割方法和图像处理装置 |
CN111814566A (zh) * | 2020-06-11 | 2020-10-23 | 北京三快在线科技有限公司 | 图像编辑方法、装置、电子设备及存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10565757B2 (en) * | 2017-06-09 | 2020-02-18 | Adobe Inc. | Multimodal style-transfer network for applying style features from multi-resolution style exemplars to input images |
CN110660037B (zh) * | 2018-06-29 | 2023-02-10 | 京东方科技集团股份有限公司 | 图像间脸部交换的方法、装置、系统和计算机程序产品 |
CN110232696B (zh) * | 2019-06-20 | 2024-03-08 | 腾讯科技(深圳)有限公司 | 一种图像区域分割的方法、模型训练的方法及装置 |
WO2021003263A1 (en) * | 2019-07-01 | 2021-01-07 | Geomagical Labs, Inc. | Method and system for image generation |
-
2020
- 2020-12-18 CN CN202011503570.4A patent/CN112634282B/zh active Active
-
2021
- 2021-06-10 EP EP21178801.3A patent/EP3937134A1/en active Pending
- 2021-06-10 US US17/344,917 patent/US20210304413A1/en not_active Abandoned
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101694697B1 (ko) * | 2015-08-03 | 2017-01-10 | 안동대학교 산학협력단 | 텍스춰정보를 포함하는 단순 선형 상관 클러스터링을 이용한 영상 분할방법, 이를 기록한 기록매체 |
CN108427951A (zh) * | 2018-02-08 | 2018-08-21 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
CN109344425A (zh) * | 2018-08-13 | 2019-02-15 | 湖南师范大学 | 一种基于长沙窑文物元素再造创意设计集成平台 |
CN110263607A (zh) * | 2018-12-07 | 2019-09-20 | 电子科技大学 | 一种用于无人驾驶的道路级全局环境地图生成方法 |
CN110009573A (zh) * | 2019-01-29 | 2019-07-12 | 北京奇艺世纪科技有限公司 | 模型训练、图像处理方法、装置、电子设备及计算机可读存储介质 |
WO2020177651A1 (zh) * | 2019-03-01 | 2020-09-10 | 华为技术有限公司 | 图像分割方法和图像处理装置 |
CN110880016A (zh) * | 2019-10-18 | 2020-03-13 | 平安科技(深圳)有限公司 | 图像风格迁移方法、装置、设备及存储介质 |
CN111325664A (zh) * | 2020-02-27 | 2020-06-23 | Oppo广东移动通信有限公司 | 风格迁移方法、装置、存储介质及电子设备 |
CN111814566A (zh) * | 2020-06-11 | 2020-10-23 | 北京三快在线科技有限公司 | 图像编辑方法、装置、电子设备及存储介质 |
Non-Patent Citations (4)
Title |
---|
Learning Linear Transformations for Fast Image and Video Style Transfer;Xueting Li;2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR);全文 * |
基于目标识别与显著性检测的图像场景多对象分割;李青;袁家政;刘宏哲;;计算机科学(第05期);全文 * |
条件随机场像素建模与深度特征融合的目标区域分割算法;李宗民;徐希云;刘玉杰;李华;;计算机辅助设计与图形学学报(第06期);全文 * |
重彩画的风格转移算法;陈怡真;普园媛;徐丹;杨文武;钱文华;王志伟;阿曼;;计算机辅助设计与图形学学报(第05期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
US20210304413A1 (en) | 2021-09-30 |
CN112634282A (zh) | 2021-04-09 |
EP3937134A1 (en) | 2022-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112634282B (zh) | 图像处理方法、装置以及电子设备 | |
US11587300B2 (en) | Method and apparatus for generating three-dimensional virtual image, and storage medium | |
CN111652828B (zh) | 人脸图像生成方法、装置、设备和介质 | |
US10984558B2 (en) | Learning-based sampling for image matting | |
CN111563855B (zh) | 图像处理的方法及装置 | |
WO2021139557A1 (zh) | 肖像简笔画生成方法、系统及绘画机器人 | |
CN111768468B (zh) | 图像填充方法、装置、设备及存储介质 | |
CN111709873B (zh) | 图像转换模型生成器的训练方法和装置 | |
CN111488925B (zh) | 一种数据标注方法、装置、电子设备及存储介质 | |
CN111968203B (zh) | 动画驱动方法、装置、电子设备及存储介质 | |
CN112149741B (zh) | 图像识别模型的训练方法、装置、电子设备及存储介质 | |
CN111738910A (zh) | 一种图像处理方法、装置、电子设备和存储介质 | |
CN112001248B (zh) | 主动交互的方法、装置、电子设备和可读存储介质 | |
CN111768356A (zh) | 一种人脸图像融合方法、装置、电子设备及存储介质 | |
US20190362524A1 (en) | Oil painting stroke simulation using neural network | |
CN111523467B (zh) | 人脸跟踪方法和装置 | |
CN111768467B (zh) | 图像填充方法、装置、设备及存储介质 | |
CN112508964B (zh) | 图像分割方法、装置、电子设备和存储介质 | |
JP7183414B2 (ja) | 画像処理の方法及び装置 | |
Li et al. | Enhancing pencil drawing patterns via using semantic information | |
CN111784799B (zh) | 图像填充方法、装置、设备及存储介质 | |
CN113362409B (zh) | 图像上色及其模型训练方法、装置、电子设备、存储介质 | |
CN111862250B (zh) | 视频的色彩转换方法、装置、电子设备及存储介质 | |
CN111462007B (zh) | 图像处理方法、装置、设备及计算机存储介质 | |
CN111680623B (zh) | 姿态转换方法及装置、电子设备、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |