CN112528760A - 图像处理方法、装置、计算机设备及介质 - Google Patents
图像处理方法、装置、计算机设备及介质 Download PDFInfo
- Publication number
- CN112528760A CN112528760A CN202011331033.6A CN202011331033A CN112528760A CN 112528760 A CN112528760 A CN 112528760A CN 202011331033 A CN202011331033 A CN 202011331033A CN 112528760 A CN112528760 A CN 112528760A
- Authority
- CN
- China
- Prior art keywords
- image
- target
- head region
- network
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 96
- 238000003672 processing method Methods 0.000 title claims abstract description 28
- 238000000034 method Methods 0.000 claims abstract description 58
- 238000010586 diagram Methods 0.000 claims abstract description 32
- 230000008921 facial expression Effects 0.000 claims abstract description 25
- 238000004590 computer program Methods 0.000 claims description 26
- 230000004927 fusion Effects 0.000 claims description 18
- 230000015654 memory Effects 0.000 claims description 17
- 238000006243 chemical reaction Methods 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 abstract description 5
- 210000003128 head Anatomy 0.000 description 174
- 238000012549 training Methods 0.000 description 38
- 238000005516 engineering process Methods 0.000 description 20
- 238000013473 artificial intelligence Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 13
- 230000002093 peripheral effect Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 9
- 241000282414 Homo sapiens Species 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 238000012937 correction Methods 0.000 description 7
- 230000001815 facial effect Effects 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 7
- 210000000697 sensory organ Anatomy 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 239000003086 colorant Substances 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了一种图像处理方法、装置、计算机设备及介质,属于图像处理技术领域。该方法包括:对目标图像进行编码,得到所述目标图像的图像特征,所述图像特征至少包括所述目标图像中的第一对象的脸部表情特征;对所述图像特征进行转换,得到所述图像特征对应的原始特征图;根据参考图像中的第二对象的头部区域特征,对所述原始特征图进行解码,得到目标头部区域,所述目标头部区域包括所述头部区域特征和所述脸部表情特征;以所述目标头部区域替换所述目标图像中的头部区域。该方法实现了对第一对象头部区域的更换,提高了得到的图像中的头部区域,与参考图像中头部区域之间的相似度,提高了显示效果。
Description
技术领域
本申请实施例涉及图像处理技术领域,特别涉及一种图像处理方法、装置、计算机设备及介质。
背景技术
随着计算机技术和图像处理技术的不断发展,更换脸部区域已成为一种常用的图像处理方式,例如,更换电视剧或电影中的特效角色的脸部区域等。
相关技术中,采用参考图像中的脸部五官,对目标图像中的脸部五官进行替换。但是这种替换方式仅是替换了脸部五官,导致更换后的脸部与更换前的脸部之间的相似度较低,显示效果较差。
发明内容
本申请实施例提供了一种图像处理方法、装置、计算机设备及介质,提高了图像的显示效果。所述技术方案如下:
一方面,提供了一种图像处理方法,所述方法包括:
对目标图像进行编码,得到所述目标图像的图像特征,所述图像特征至少包括所述目标图像中的第一对象的脸部表情特征;
对所述图像特征进行转换,得到所述图像特征对应的原始特征图;
根据参考图像中的第二对象的头部区域特征,对所述原始特征图进行解码,得到目标头部区域,所述目标头部区域包括所述头部区域特征和所述脸部表情特征;
以所述目标头部区域替换所述目标图像中的头部区域。
在一种可能实现方式中,所述以所述目标头部区域替换所述目标图像中的头部区域之后,所述方法还包括:
调整替换后所述目标图像中的背景区域和所述目标头部区域的颜色,以使所述背景区域的颜色和所述目标头部区域的颜色一致。
另一方面,提供了一种图像处理装置,所述装置包括:
特征获取模块,用于对目标图像进行编码,得到所述目标图像的图像特征,所述图像特征至少包括所述目标图像中的第一对象的脸部表情特征;
特征图获取模块,用于对所述图像特征进行转换,得到所述图像特征对应的原始特征图;
目标区域获取模块,用于根据参考图像中的第二对象的头部区域特征,对所述原始特征图进行解码,得到目标头部区域,所述目标头部区域包括所述头部区域特征和所述脸部表情特征;
替换模块,用于以所述目标头部区域替换所述目标图像中的头部区域。
在一种可能实现方式中,所述图像处理模型还包括编码网络,所述特征获取模块,用于调用所述编码网络,对所述目标图像进行编码,得到所述图像特征。
在另一种可能实现方式中,所述编码网络包括多个下采样层和融合层,所述特征获取模块,包括:
子特征获取单元,用于分别调用每个下采样层对所述目标图像进行编码,得到图像子特征;
融合单元,用于调用所述融合层对得到的多个图像子特征进行融合,得到所述图像特征。
在另一种可能实现方式中,所述图像处理模型还包括第一解码网络,所述装置还包括:
训练模块,用于调用所述编码网络,对包含所述第一对象的第一样本图像进行编码,得到所述第一样本图像的第一预测特征;
所述训练模块,还用于调用所述第一解码网络,对所述第一预测特征进行解码,得到第一预测图像;
所述训练模块,还用于根据所述第一样本图像和所述第一预测图像,调整所述编码网络的模型参数和所述第一解码网络的模型参数,所述编码网络用于对包含所述第一对象的图像进行编码。
在另一种可能实现方式中,所述图像处理模型还包括第一判别网络,所述训练模块,还用于:
调用所述第一判别网络,分别对所述第一样本图像和所述第一预测图像进行判别,得到第一判别结果,所述第一判别结果用于表示所述第一样本图像和所述第一预测图像之间的差异;
根据所述第一判别结果,确定第一损失值;
根据所述第一损失值,调整所述编码网络的模型参数和所述第一解码网络的模型参数。
在另一种可能实现方式中,所述目标区域获取模块,包括:
分辨率调整单元,用于根据所述头部区域特征,对所述原始特征图进行分辨率调整,得到目标特征图,所述目标特征图的分辨率与所述参考图像的分辨率相同,且所述目标特征图中包括所述头部区域特征和所述脸部表情特征;
目标区域获取单元,用于根据所述头部区域特征,对所述目标特征图进行解码,得到所述目标头部区域。
在另一种可能实现方式中,图像处理模型中包括第二解码网络,所述第二解码网络包括转换层、上采样层和卷积层,所述特征图获取模块,用于调用所述转换层,对所述图像特征进行转换,得到所述原始特征图;
所述分辨率调整单元,用于调用所述上采样层,根据所述头部区域特征对所述原始特征图进行分辨率调整,得到所述目标特征图;
所述目标区域获取单元,用于调用所述卷积层,根据所述头部区域特征对所述目标特征图进行解码,得到所述目标头部区域。
在另一种可能实现方式中,所述图像处理模型还包括编码网络,所述装置还包括:
训练模块,用于调用所述编码网络,对包含所述第二对象的第二样本图像进行编码,得到所述第二样本图像的第二预测特征;
所述训练模块,还用于调用所述第二解码网络,对所述第二预测特征进行解码,得到第二预测图像;
所述训练模块,还用于根据所述第二样本图像和所述第二预测图像,调整所述编码网络的模型参数和所述第二解码网络的模型参数,所述第二解码网络用于根据所述第二对象的头部区域特征进行解码。
在另一种可能实现方式中,所述图像处理模型还包括第二判别网络,所述训练模块,还用于:
调用所述第二判别网络,分别对所述第二样本图像和所述第二预测图像进行判别,得到第二判别结果,所述第二判别结果用于表示所述第二样本图像和所述第二预测图像之间的差异;
根据所述第二判别结果,确定第二损失值;
根据所述第二损失值,调整所述编码网络的模型参数和所述第二解码网络的模型参数。
在另一种可能实现方式中,所述装置还包括:
尺寸调整模块,用于将所述目标图像中所述第一对象的头部区域的尺寸调整为参考尺寸。
在另一种可能实现方式中,所述装置还包括:
颜色调整模块,用于调整替换后所述目标图像中的背景区域和所述目标头部区域的颜色,以使所述背景区域的颜色和所述目标头部区域的颜色一致。
在另一种可能实现方式中,所述替换模块,包括:
背景区域提取单元,用于从所述目标图像中提取出背景区域;
区域融合单元,用于将所述目标头部区域与所述背景区域融合。
在另一种可能实现方式中,所述目标图像为目标视频中的视频帧,所述装置还包括:
图像替换模块,用于将所述目标头部区域与所述背景区域融合后的图像,替换所述目标视频中的所述目标图像。
另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条计算机程序,所述至少一条计算机程序由所述处理器加载并执行,以实现如上述方面所述的图像处理方法中所执行的操作。
另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条计算机程序,所述至少一条计算机程序由处理器加载并执行,以实现如上述方面所述的图像处理方法中所执行的操作。
另一方面,提供了一种计算机程序产品或计算机程序,所述计算机程序产品或所述计算机程序包括计算机程序代码,所述计算机程序代码存储在计算机可读存储介质中,计算机设备的处理器从计算机可读存储介质读取所述计算机程序代码,处理器执行所述计算机程序代码,使得所述计算机设备实现如上述方面所述的图像处理方法中所执行的操作。
本申请实施例提供的技术方案带来的有益效果至少包括:
本申请实施例提供的方法、装置、计算机设备及介质,将包含第一对象的目标图像的图像特征转换为特征图,以特征图的形式进行解码,便于在特征图中融入参考图像中第二对象的头部区域特征,使解码得到的图像中既包含第二对象的头部区域特征,也即是将第一对象的头部区域更换成了第二对象的头部区域,还能够保持第一对象的脸部表情,从而实现对第一对象头部区域的更换,与相关技术中直接更换脸部五官相比,提高了图像中的头部区域,与参考图像中头部区域之间的相似度,提高了显示效果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请实施例的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种图像处理方法的流程图;
图2是本申请实施例提供的一种图像处理模型的示意图;
图3是本申请实施例提供的一种图像处理模型的示意图;
图4是本申请实施例提供的一种图像处理模型训练方法的流程图;
图5是本申请实施例提供的一种图像姿态矫正的示意图;
图6是本申请实施例提供的一种图像分割的示意图;
图7是本申请实施例提供的另一种模型训练方法的流程图;
图8是本申请实施例提供的一种编码网络的示意图;
图9是本申请实施例提供的一种解码网络的示意图;
图10是本申请实施例提供的一种损失函数的示意图;
图11是本申请实施例提供的另一种图像处理方法的流程图;
图12是本申请实施例提供的一种目标图像和参考图像的示意图;
图13是本申请实施例提供的一种模型预测的示意图;
图14是本申请实施例提供的一种相关技术中处理后的头部区域的示意图;
图15是本申请实施例提供的一种目标头部区域和背景区域融合的示意图;
图16是本申请实施例提供的另一种图像处理方法的流程图;
图17是本申请实施例提供的一种图像处理装置的结构示意图;
图18是本申请实施例提供的另一种图像处理装置的结构示意图;
图19是本申请实施例提供的一种终端的结构示意图;
图20是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种概念,但除非特别说明,这些概念不受这些术语限制。这些术语仅用于将一个概念与另一个概念区分。举例来说,在不脱离本申请的范围的情况下,可以将第一对象称为第二对象,将第二对象称为第一对象。
本申请所使用的术语“至少一个”、“多个”、“每个”、“任一”等,至少一个包括一个、两个或两个以上,多个包括两个或两个以上,每个是指对应的多个中的每一个,任一是指多个中的任意一个。举例来说,多个图像包括3个图像,而每个图像是指这3个图像中的每一个图像,任一是指这3个图像中的任意一个,可以是第一个,可以是第二个,也可以是第三个。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR(Optical Character Recognition,光学字符识别)、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
本申请实施例提供的方案涉及人工智能的图像处理、机器学习等技术,具体通过如下实施例进行说明。
本申请实施例提供的图像处理方法可以应用于多种场景下。
例如,应用于直播场景中。
主播终端能够采用本申请实施例提供的图像处理方法,更换直播画面中主播的头部区域,向观众显示更换头部区域之后的直播画面,以提高主播与观众之间的互动。
又例如,应用于人脸识别系统验证场景下。
采用本申请实施例提供的图像处理方法,对真实图像进行处理,生成更换头部区域之后的图像,采用该图像作为攻击图像,将该图像输入至人脸识别系统中,人脸识别系统输出验证结果,如果验证结果是通过,则说明该人脸识别系统无法区分该图像和真实图像,该人脸识别系统识别不准确、安全性较低。
例如,还可以应用于图像拍摄、电视剧拍摄、电影拍摄等场景下。
本申请实施例提供的模型训练方法和图像处理方法,应用于计算机设备中,该计算机设备为终端或服务器。其中,该服务器是独立的物理服务器,或者是多个物理服务器构成的服务器集群或者分布式系统,或者是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。该终端是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。
图1是本申请实施例提供的一种图像处理方法的流程图。本申请实施例的执行主体为计算机设备。参见图1,该方法包括以下步骤:
101、对目标图像进行编码,得到目标图像的图像特征。
其中,目标图像为包括第一对象的图像,图像特征为用于表示目标图像中第一对象的特征,该图像特征至少包括目标图像中的第一对象的脸部表情特征。例如,目标图像中第一对象是笑脸,则图像特征中的脸部表情特征表示该第一对象是微笑的。
在一种可能实现方式中,图像特征还包括第一对象的头部区域受环境影响,而产生的特征,例如图像特征还包括目标图像中的第一对象的脸部光照特征,或者图像特征还包括第一对象头部区域的姿态特征。其中,脸部光照特征用于表示第一对象脸部区域的亮暗,姿态特征用于表示第一对象头部区域的倾斜程度。例如,光线直接照射在第一对象的脸部,第一对象脸部很亮;第一对象的头部向左侧倾斜。
在另一种可能实现方式中,图像特征还包括背景区域特征、身体特征等与后续头部区域替换无关的特征。其中,身体特征是指第一对象除头部区域之外的其他区域的特征,例如身体特征包括体型特征、服饰特征等。
102、对图像特征进行转换,得到图像特征对应的原始特征图。
将图像特征转换为原始特征图,便于后续对原始特征图进行处理。该原始特征图能够体现出目标图像中像素点的分布情况。
103、根据参考图像中的第二对象的头部区域特征,对原始特征图进行解码,得到目标头部区域。
其中,参考图像为包括第二对象的图像,第二对象与第一对象不同。第二对象的头部区域特征包括第二对象五官特征、脸型特征、头发特征,即是头部区域特征包括了第二对象的头部区域的特征,目标头部区域包括头部区域特征和脸部表情特征,也即是目标头部区域中的五官、脸型、头发与第二对象的五官、脸型、头发相同,目标头部区域的脸部表情与第一对象的脸部表情相同。可选地,图像特征还包括第一对象的脸部光照特征和第一对象头部区域的姿态特征的情况下,目标生成的目标头部区域还包括第一对象的脸部光照特征和第一对象头部区域的姿态特征。
可选地,头部区域特征还包括眼镜、发饰、耳饰等与头部区域相关的物体特征。例如,第二对象戴眼镜,而第一对象不戴眼镜,根据头部区域特征对原始特征进行解码之后,得到的目标头部区域是戴眼镜的。
在一种可能实现方式中,根据头部区域特征,对原始特征图进行分辨率调整,得到目标特征图,目标特征图的分辨率与参考图像的分辨率相同,且目标特征图中包括头部区域特征和脸部表情特征;根据头部区域特征,对目标特征图进行解码,得到目标头部区域。
通过调整目标特征的分辨率,提高了得到的目标头部区域的分辨率,从而提高了生成的目标头部区域的清晰度。
104、以目标头部区域替换目标图像中的头部区域。
将目标图像中的头部区域替换为目标头部区域,从而实现对目标图像头部区域的更换。
本申请实施例提供的方法,将包含第一对象的目标图像的图像特征转换为特征图,以特征图的形式进行解码,便于在特征图中融入参考图像中第二对象的头部区域特征,使解码得到的图像中既包含第二对象的头部区域特征,也即是将第一对象的头部区域更换成了第二对象的头部区域,还能够保持第一对象的脸部表情,从而实现对第一对象头部区域的更换,与相关技术中直接更换脸部五官相比,提高了图像中的头部区域,与参考图像中头部区域之间的相似度,提高了显示效果。
在一种可能实现方式中,能够采用图像处理模型来对目标图像进行处理,得到目标头部区域。首先对本申请实施例中使用的图像处理模型的结构进行说明:
图2是本申请实施例提供的一种图像处理模型的示意图。参见图2,该图像处理模型包括编码网络201、第一解码网络202和第二解码网络203。其中,第一解码网络202和第二解码网络203分别与编码网络201连接,编码网络201用于对输入的图像进行编码,第一解码网络202用于根据目标图像的图像特征进行解码,第二解码网络203用于根据包括参考图像的图像特征进行解码。
在一种可能实现方式中,参见图3,该图像处理模型还包括第一判别网络204和第二判别网络205,第一判别网络204与第一解码网络202连接,第二判别网络205与第二解码网络203连接。在模型训练过程中,第一判别网络204用于对第一解码网络202输出的预测图像和该预测图像对应的输入图像进行判别,第二判别网络205用于对第二解码网络203输出的预测图像和该预测图像对应的输入图像进行判别,以使编码网络201、第一解码网络202和第二解码网络203根据对应的判别结果调整模型参数。
在使用图像处理模型之前,需要先训练图像处理模型,通过下述图4所示的实施例对图像处理模型的训练过程进行说明:
图4是本申请实施例提供的一种图像处理模型训练方法的流程图。本申请实施例的执行主体为计算机设备,参见图4,该方法包括以下步骤:
401、获取包含第一对象的第一样本图像和包含第二对象的第二样本图像。
其中,第一对象和第二对象不同,第一对象和第二对象为人或动物。第一样本图像中包含第一对象,第二样本图像中包含第二对象,该第一样本图像和第二样本图像为拍摄的照片或者为从视频中提取的视频帧。例如,第一样本图像是从包含第一对象的第一视频中提取的视频帧,第二样本图像是从包括第二对象的第二视频中提取的视频帧。
在一种可能实现方式中,为了避免样本图像中包括的其他对象对编码产生影响,在训练之前分别对第一样本图像和第二样本图像进行裁剪,使裁剪后的第一样本图像中仅包括第一对象,裁剪后的第二样本图像中仅包括第二对象,使后续编码网络对第一样本图像进行编码得到的图像特征中仅包含第一对象的图像特征,而不包括除第一对象之外的其他对象的图像特征,使后续编码网络对第二样本图像进行编码得到的图像特征中仅包含第二对象的图像特征,而不包括除第二对象之外的其他对象的图像特征。
在一种可能实现方式中,为了提高模型的训练速度和准确率,在训练之前分别对第一样本图像和第二样本图像进行姿态矫正,得到姿态矫正后的第一样本图像和第二样本图像。其中,姿态矫正包括人脸检测、配准和裁剪。例如,参见图5,矫正前的第一样本图像501中人脸是倾斜的,倾斜的人脸会影响编码效率,因此需要对人脸进行矫正,检测出矫正前的第一样本图像501中的人脸区域,对人脸区域进行配准,对配准后的第一样本图像502进行裁剪,得到人脸图像503,将该人脸图像503作为矫正后的样本图像,用于后续的训练。
在一种可能实现方式中,由于不同图像中对象的头部区域所占的尺寸可能会存在区别,从而采用尺寸不同的头部区域,会影响模型训练速度,因此分别将第一样本图像和第二样本图像中头部区域的尺寸调整为参考尺寸,从而使训练中使用的第一样本图像和第二样本图像中头部区域的尺寸均相同,提高训练速度。其中,参考尺寸可以为任一尺寸。
在一种可能实现方式中,图像处理模型用于更换图像中的头部区域,处理过程中不涉及图像中的其他区域,因此为了使图像处理模型能够更加有针对性地进行训练,第一样本图像为仅包括第一对象的头部区域的图像,第二样本图像为仅包括第二对象的头部区域的图像。例如,参见图6,从获取的样本图像601中分割出头部区域602。
在一种可能实现方式中,采用视频中的视频帧作为样本图像来训练图像处理模型,参见图7,图像处理模型的训练过程包括:
701、获取包括第一对象的第一视频和包括第二对象的第二视频。
702、从第一视频中提取出第一视频帧,从第二视频中提取出第二视频帧。
703、分别对第一视频帧和第二视频帧进行姿态矫正,得到矫正后的第一视频帧和第二视频帧。
704、分别对矫正后的第一视频帧和第二视频帧进行分割,得到第一样本图像和第二样本图像。
705、根据第一样本图像和第二样本图像,训练图像处理模型。其中,步骤705的详细训练过程参加下述步骤402-步骤407。
402、调用编码网络,对第二样本图像进行编码,得到第二样本图像的第二预测特征。
其中,编码网络用于对样本图像进行编码,得到样本图像的预测特征。该预测特征用于描述样本图像中包含的对象,例如,该预测特征用于描述样本图像中对象的五官、表情、发型、脸型等;在样本图像中还包括背景区域的情况下,该预测特征还用于描述该背景区域,例如,该样本图像为中包含对象的背景是墙壁,该预测特征用于描述样本图像中墙壁的颜色。
在一种可能实现方式中,该编码网络包括多个下采样层和融合层,该多个下采样层分别与融合层连接,分别调用每个下采样层对第二样本图像进行编码,得到第二预测子特征,调用融合层对得到的多个第二预测子特征进行融合,得到第二预测特征。其中,每个第二预测子特征中包含的特征不完全相同,例如,将第二样本图像输入至第一个下采样层提取的得到第二对象眼部区域的特征,将第二样本图像输入至第二个下采样层提取的得到第二对象唇部区域的特征。其中,特征采用向量、矩阵或其他形式表示,例如,第二预测特征为一维向量。
在一种可能实现方式中,每个下采样层中包括多个卷积层,且不同的卷积层中膨胀系数不同,融合层为Flatten(扁平)层,该Flatten层能够将输入的多维向量转换为一维向量。
例如,编码网络的结构参见图8,该编码网络包括三个下采样层801和融合层802,对于任一下采样层801,该下采样层801包括两个卷积层和一个深度离散卷积(DepthSeparableConvolution)层。其中,采用深度离散卷积层能够减少计算量。
403、调用第二解码网络,对第二预测特征进行解码,得到第二预测图像。
其中,第二解码网络用于对编码网络输出的预测特征进行解码,得到预测图像。即通过编码网络和第二解码网络对样本图像进行编码再解码,得到样本图像的预测图像。
在一种可能实现方式中,第二解码网络包括转换层、上采样层和卷积层。其中,转换层用于将输入的第二预测特征转换为对应的原始特征图,该原始特征图以图的形式来表示样本图像的图像特征,上采样层用于调整原始特征图的分辨率,例如,原始特征图的分辨率为32*32,采用上采样层进行处理,能够得到分辨率为64*64的特征图;卷积层用于将调整分辨率后的特征图解码为对应的图像。
可选地,第二解码网络中包括多个依次连接的上采样层。例如,第二解码网络中包括4个上采样层,第二样本图像的分辨率为512*512,采用转换层进行转换,得到的原始特征图的分辨率为32*32,则采用第一个上采样层进行处理,能够得到分辨率为64*64的特征图,采用第二个上采样层进行处理,能够得到分辨率为128*128的特征图,采用第三个上采样层进行处理,能够得到分辨率为256*256的特征图,采用第四个上采样层进行处理,能够得到分辨率为512*512的特征图,从而将特征图的分辨率调整为与第二样本图像相同的分辨率。
例如,第二解码网络的结构参见图9,该网络结构包括转换层901、4个上采样层902和卷积层903,对于任一上采样层902,该上采样层902包括上采样层和残差网络(ResidualNetwork),该残差网络包括两个卷积层912。
404、根据第二样本图像和第二预测图像,调整编码网络的模型参数和第二解码网络的模型参数。
本申请实施例中,由于编码网络和第二解码网络是使用包含第二对象的样本图像进行训练的,因此训练得到的编码网络能够准确地对包含第二对象的图像进行编码,训练得到的第二解码网络能够根据包含第二对象的图像编码后的头部区域特征进行解码。换句话说,调整后的第二解码网络的模型参数中包含了头部区域特征,后续在采用第二解码网络对编码网络输出的图像特征进行解码时,会在图像特征中融入第二对象的头部区域特征。
在一种可能实现方式中,图像处理模型还包括第二判别网络,该第二判别网络与第二解码网络连接,将编码网络中输入的第二样本图像和第二解码网络输出的第二预测图像作为该第二判别网络的输入,该第二判别网络用于分别对第二样本图像和第二预测图像进行判别,确定判别的图像是输入的真实图像还是通过编码网络和第二解码网络预测得到的图像,将判别结果反馈给编码网络和第二解码网络,使编码网络和第二解码网络根据反馈调整模型参数。
调用第二判别网络,分别对第二样本图像和第二预测图像进行判别,得到第二判别结果,根据第二判别结果,确定第二损失值,根据第二损失值,调整编码网络的模型参数和第二解码网络的模型参数。其中,第二判别结果用于表示第二样本图像和第二预测图像之间的差异。
例如,采用第二判别网络进行判别时,采用下述公式所示的对抗损失函数确定的对抗损失值(GANLoss,Generative Adversarial Networks Loss)来表示第二判别结果,即将对抗损失值作为第二损失值:
其中,LGAN表示对抗损失值,I表示第二样本图像,G表示第二解码网络,D表示第二判别网络,G(I)表示第二预测图像,D(I)表示第二判别网络对第二样本图像的判别结果,D(G(I))表示第二判别网络对第二预测图像的判别结果,表示期望第二预测图像的判别结果为1,表示期望第二样本图像的判别结果为0。
采用判别网络对样本图像和预测图像进行判别,根据判别结果来调整编码网络和解码网络的模型参数,能够使预测图像中各个像素点的分布与输入的真实图像中各个像素点的分布一致,从而提高预测图像的真实性,提高编码网络的编码准确率和解码网络的解码准确率。
在另一种可能实现方式中,将第二样本图像与第二预测图像之间的差异,确定为第二损失值。例如,采用重建损失函数获取重建损失值(ReconstructionLoss),将重建损失值作为第二损失值,重建损失函数如下式所示:
LLPIPS=[LPIPS(G(I))-LPIPS(I)]2;
其中,LLPIPS表示重建损失值,I表示第二样本图像,G表示第二解码网络,G(I)表示第二预测图像,LPIPS(G(I))表示第二预测图像对应的数值,LPIPS(I)表示第二样本图像对应的数值。
在另一种可能实现方式中,将上述重建损失值和对抗损失值之和,作为第二损失值,第二损失值如下式所示:
L=LGAN+LLPIPS;
其中,L表示第二损失值,LGAN表示对抗损失值,LLPIPS表示重建损失值。
例如,如图10所示,将第二样本图像输入至编码网络201,采用编码网络201和第二解码网络202对第二样本图像进行处理,得到第二预测图像,再根据第二预测图像和第二样本图像输入至第二判别网络204,使第二判别网络分别对第二预测图像和第二样本图像进行判别,同时采用重建损失函数对第二预测图像和第二样本图像进行处理,将第二判别网络的判别结果和重建损失函数的处理结果反馈给编码网络和第二解码网络,使编码网络和第二解码网络对模型参数进行调整。
405、调用编码网络,对第一样本图像进行编码,得到第一样本图像的第一预测特征。
其中,编码网络用于对第一样本图像进行编码,该编码网络与上述步骤402中的编码网络相同,步骤405的编码方式与上述步骤402中的编码方式同理,在此不再赘述。
406、调用第一解码网络,对第一预测特征进行解码,得到第一预测图像。
其中,第一解码网络用于对第一预测特征进行解码。该第一解码网络的网络结构与上述步骤403中第二解码网络的网络结构相同,步骤406的解码方式与上述步骤403中的解码方式同理,在此不再赘述。
407、根据第一样本图像和第一预测图像,调整编码网络的模型参数和第一解码网络的模型参数。
本申请实施例中,通过训练编码网络和第一解码网络,使编码网络学习到对包含第一对象的图像进行编码,使第一解码网络学习到根据包含第一对象的图像的头部区域特征进行解码。
在一种可能实现方式中,调用第一判别网络,分别对第一样本图像和第一预测图像进行判别,得到第一判别结果,根据第一判别结果,确定第一损失值;根据第一损失值,调整编码网络的模型参数和第一解码网络的模型参数。其中,第一判别结果用于表示第一样本图像和第一预测图像之间的差异。
步骤407中调整模型参数的实施方式与上述步骤404中的实施方式同理,在此不再赘述。
采用上述实施方式训练的图像处理模型中,编码网络能够准确地对包括第一对象的图像以及包括第二对象的图像进行编码,第一解码网络能够根据包括第一对象的图像的头部区域特征进行解码,第二解码网络能够根据包括第二对象的图像的头部区域特征进行解码。
需要说明的一点是,本申请实施例仅是以一次训练过程为例进行说明,计算机设备能够重复执行上述步骤401-步骤407多次,来训练图像处理模型。另外,在训练次数达到设置的参考次数,或者第一损失值和第二损失值均不小于参考阈值,或者训练时长达到参考时长,则停止训练该图像处理模型。
需要说明的另一点是,本申请实施例仅是以先执行步骤402-步骤404再执行步骤405-步骤407为例进行说明,在另一实施例中,能够先执行步骤405-步骤407再执行步骤402-步骤404,或者同时执行步骤402-步骤404和步骤405-步骤407。
本申请实施例提供的方法,采用包含第一对象的样本图像和包含第二对象的样本图像来训练图像处理模型,使后续采用该图像处理模型进行图像处理时,能够采用编码网络准确地对包含第一对象的图像进行编码,采用第二解码网络准确地将第一对象的头部区域特征替换为第二对象的头部区域特征,实现对头部区域的更换。
采用上述图4中训练得到的图像处理模型对目标图像进行处理,由于本申请中需要按照第二对象的头部区域特征,更换目标图像中第一对象的头部区域,而上述图像处理模型中的第二解码网络是使用包含第二对象的样本图像训练的,因此使用图像处理模型中的编码网络和第二解码网络来对目标图像进行处理。
图11是本申请实施例提供的一种图像处理方法的流程图。本申请实施例的执行主体为计算机设备,参见图11,该方法包括以下步骤:
1101、分别调用每个下采样层,对目标图像进行编码,得到图像子特征。
在一种可能实现方式中,对目标图像进行编码之前,将目标图像中第一对象的头部区域的尺寸调整为参考尺寸,以提高编码速度。
1102、调用融合层,对得到的多个图像子特征进行融合,得到图像特征。
步骤1101和步骤1102中对目标图像进行编码的实施方式与步骤302中对第二样本图像进行编码的实施方式同理,在此不再赘述。
1103、调用第二解码网络中的转换层,对图像特征进行转换,得到原始特征图。
1104、调用第二解码网络中的多个上采样层,根据头部区域特征对原始特征图的分辨率进行调整,得到目标特征图。
1105、调用第二解码网络中的卷积层,根据头部区域特征对目标特征进行解码,得到目标头部区域。
步骤1103-步骤1105的实施方式与上述步骤303的实施方式同理。不同的是,步骤1103-步骤1105是对第一对象的图像特征进行解码,而不是对第二对象的图像特征进行解码。
由于在训练图像处理模型的过程中,是采用包含第二对象的第二样本图像对应的头部区域特征进行训练的,训练得到的第二解码网络的模型参数中融合了第二对象的头部区域特征,使得第二解码网络能够准确地对包含第二对象的图像的头部区域特征进行解码。因此,在调用第二解码网络对编码网络输出的图像特征进行处理时,不论该图像特征是哪个对象的图像特征,第二解码网络都会按照第二对象的头部区域特征的解码方式进行解码,从而使得到解码得到的目标头部区域中包括第二对象的头部区域特征。
其中,第二解码网络中的转换层仅是将图像特征转换为原始特征图,不涉及根据头部区域特征进行解码。而分辨率调整和解码过程中,需要采用训练得到的模型参数对原始特征图进行进一步处理,在该处理过程中,将第二对象的头部区域特征融入到了第一对象的原始特征中,从而得到的目标头部区域中包括第二对象的头部区域特征和第一对象的脸部表情特征。
在一种可能实现方式中,输入的目标图像中如果仅包括第一对象的头部区域,则采用图像处理模型处理后得到的图像中也仅包括目标头部区域。但是如果目标图像中还包括处第一对象的头部区域之外的其他区域,则采用图像处理模型处理后得到的图像中也包括该其他区域,这种情况下,对得到的图像进行分割,从图像中分割出目标头部区域。
例如,目标图像1201和参考图像1202参见图12。参见图13,将目标图像1201输入至编码网络,编码网络对目标图像1201进行编码,输出目标图像1201的图像特征,将该图像特征输入至第二解码网络,第二解码网络对该图像特征进行解码,输出目标头部区域1203。其中,输出的目标头部区域1203中的表情与目标图像1201相同,目标头部区域的五官、发型与参考图像1202相同。参见图14,而采用相关技术中的方式,对目标图像1201和参考图像1202进行替换,得到头部区域1204,明显能够看出本申请中的显示效果更好。
1106、以目标头部区域替换目标图像中的头部区域。
将目标图像中的头部区域替换为目标头部区域,得到替换后的目标图像,完成对目标图像中头部区域的更换。
在一种可能实现方式中,替换头部区域之后,调整替换后目标图像中的背景区域和目标头部区域的颜色,以使背景区域的颜色和目标头部区域的颜色一致,避免同一图像中不通过区域的颜色差异较大,使替换后生成的图像没有违和感。其中,背景区域是指目标图像中除头部区域之外的其他区域,背景区域包括第一对象出头部之前的其他身体部位以及第一对象周围的环境背景。
可选地,按照目标头部区域的颜色调整背景区域的颜色,或者按照背景区域的颜色调整目标头部区域的颜色。
可选地,调整背景区域中第一对象的身体部位肤色,使第一对象的身体部位的肤色与目标头部区域的肤色一直。
在一种可能实现方式中,将上述图像处理方法应用在视频处理场景下,即目标图像为目标视频中的视频帧,采用上述步骤1101-步骤1105得到目标头部区域之后,从目标图像中提取出背景区域;将目标头部区域与背景区域融合,得到融合后的图像。将目标头部区域与背景区域融合后的图像,替换目标视频中的目标图像,从而实现目标视频中对象的脸部区域的替换。例如,参见图15,将背景区域1501和目标头部区域1203进行融合,得到融合后的图像1502。
由于生成的目标头部区域与目标图像的分辨率相同,因此融合后的图像中各个区域的分辨率相同,提高了融合后的图像的显示效果。
在一种可能实现方式中,上述目标图像为目标视频中的视频帧,则能够对目标视频中的头部区域进行更换,更换过程参见图16:
1601、获取目标视频,该目标视频中包括第一对象。
1602、对目标视频中包括第一对象的每个视频帧进行姿态矫正,得到矫正后的视频帧。
1603、调用图像处理模型,分别对每个视频帧进行处理,得到每个视频帧对应的目标头部区域。
1604、将每个目标头部区域与对应的视频帧中的背景区域进行融合,得到融合后的视频帧。
1605、调整融合后的每个视频帧的颜色,将调整后的每个视频帧按照在目标视频中的位置进行组合,得到更换头部之后的目标视频。
需要说明的是,在另一实施例中,如果需要按照第二对象的头部区域特征,更换目标图像中的第三对象的头部区域,则需要采用包含第三对象的样本图像训练图像处理模型,使图像处理模型中的编码网络学习对包含第三对象的图像进行编码。其中,第三对象与第一对象和第二对象不同。
本申请实施例提供的方法,将包含第一对象的目标图像的图像特征转换为特征图,以特征图的形式进行解码,便于在特征图中融入参考图像中第二对象的头部区域特征,使解码得到的图像中既包含第二对象的头部区域特征,也即是将第一对象的头部区域更换成了第二对象的头部区域,还能够保持第一对象的脸部表情,从而实现对第一对象头部区域的更换,与相关技术中直接更换脸部五官相比,提高了图像中的头部区域,与参考图像中头部区域之间的相似度,提高了显示效果。
并且,在解码过程中,还会对原始特征图的分辨率进行调整,使调整后的分辨率与目标图像的分辨率相同,从而使生成的目标头部区域与目标图像的分辨率相同,提高了目标头部区域的分辨率,使替换后的图像中各个区域的分辨率保持一致,从而生成高清图像。
图17是本申请实施例提供的一种图像处理装置的结构示意图。参见图17,该装置包括:
特征获取模块1701,用于对目标图像进行编码,得到目标图像的图像特征,图像特征至少包括目标图像中的第一对象的脸部表情特征;
特征图获取模块1702,用于对图像特征进行转换,得到图像特征对应的原始特征图;
目标区域获取模块1703,用于根据参考图像中的第二对象的头部区域特征,对原始特征图进行解码,得到目标头部区域,目标头部区域包括头部区域特征和脸部表情特征;
替换模块1704,用于以目标头部区域替换目标图像中的头部区域。
本申请实施例提供的装置,将包含第一对象的目标图像的图像特征转换为特征图,以特征图的形式进行解码,便于在特征图中融入参考图像中第二对象的头部区域特征,使解码得到的图像中既包含第二对象的头部区域特征,也即是将第一对象的头部区域更换成了第二对象的头部区域,还能够保持第一对象的脸部表情,从而实现对第一对象头部区域的更换,与相关技术中直接更换脸部五官相比,提高了图像中的头部区域,与参考图像中头部区域之间的相似度,提高了显示效果。
在一种可能实现方式中,图像处理模型还包括编码网络,特征获取模块1702,用于调用编码网络,对目标图像进行编码,得到图像特征。
在另一种可能实现方式中,编码网络包括多个下采样层和融合层,参见图18,特征获取模块1701,包括:
子特征获取单元1711,用于分别调用每个下采样层对目标图像进行编码,得到图像子特征;
融合单元1721,用于调用融合层对得到的多个图像子特征进行融合,得到图像特征。
在另一种可能实现方式中,图像处理模型还包括第一解码网络,参见图18,该装置还包括:
训练模块1705,用于调用编码网络,对包含第一对象的第一样本图像进行编码,得到第一样本图像的第一预测特征;
训练模块1705,还用于调用第一解码网络,对第一预测特征进行解码,得到第一预测图像;
训练模块1705,还用于根据第一样本图像和第一预测图像,调整编码网络的模型参数和第一解码网络的模型参数,编码网络用于对包含第一对象的图像进行编码。
在另一种可能实现方式中,图像处理模型还包括第一判别网络,参见图18,训练模块1705,还用于:
调用第一判别网络,分别对第一样本图像和第一预测图像进行判别,得到第一判别结果,第一判别结果用于表示第一样本图像和第一预测图像之间的差异;
根据第一判别结果,确定第一损失值;
根据第一损失值,调整编码网络的模型参数和第一解码网络的模型参数。
在另一种可能实现方式中,参见图18,目标区域获取模块1703,包括:
分辨率调整单元1713,用于根据头部区域特征,对原始特征图进行分辨率调整,得到目标特征图,目标特征图的分辨率与参考图像的分辨率相同,且目标特征图中包括头部区域特征和脸部表情特征;
目标区域获取单元1723,用于根据头部区域特征,对目标特征图进行解码,得到目标头部区域。
在另一种可能实现方式中,图像处理模型中包括第二解码网络,第二解码网络包括转换层、上采样层和卷积层,参见图18,特征图获取模块1702,用于调用转换层,对图像特征进行转换,得到原始特征图;
分辨率调整单元1713,用于调用上采样层,根据头部区域特征对原始特征图进行分辨率调整,得到目标特征图;
目标区域获取单元1723,用于调用卷积层,根据头部区域特征对目标特征图进行解码,得到目标头部区域。
在另一种可能实现方式中,图像处理模型还包括编码网络,参见图18,该装置还包括:
训练模块1705,用于调用编码网络,对包含第二对象的第二样本图像进行编码,得到第二样本图像的第二预测特征;
训练模块1705,还用于调用第二解码网络,对第二预测特征进行解码,得到第二预测图像;
训练模块1705,还用于根据第二样本图像和第二预测图像,调整编码网络的模型参数和第二解码网络的模型参数,第二解码网络用于根据第二对象的头部区域特征进行解码。
在另一种可能实现方式中,图像处理模型还包括第二判别网络,参见图18,训练模块1705,还用于:
调用第二判别网络,分别对第二样本图像和第二预测图像进行判别,得到第二判别结果,第二判别结果用于表示第二样本图像和第二预测图像之间的差异;
根据第二判别结果,确定第二损失值;
根据第二损失值,调整编码网络的模型参数和第二解码网络的模型参数。
在另一种可能实现方式中,参见图18,该装置还包括:
尺寸调整模块1706,用于将目标图像中第一对象的头部区域的尺寸调整为参考尺寸。
在另一种可能实现方式中,参见图18,该装置还包括:
颜色调整模块1707,用于调整替换后目标图像中的背景区域和目标头部区域的颜色,以使背景区域的颜色和目标头部区域的颜色一致。
在另一种可能实现方式中,参见图18,替换模块1704,包括:
背景区域提取单元1714,用于从目标图像中提取出背景区域;
区域融合单元1724,用于将目标头部区域与背景区域融合。
在另一种可能实现方式中,目标图像为目标视频中的视频帧,参见图18,该装置还包括:
图像替换模块1708,用于将目标头部区域与背景区域融合后的图像,替换目标视频中的目标图像。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
需要说明的是:上述实施例提供的图像处理装置在图像处理时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将计算机设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的图像处理装置与图像处理方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本申请实施例还提供了一种计算机设备,该计算机设备包括处理器和存储器,存储器中存储有至少一条计算机程序,该至少一条计算机程序由处理器加载并执行,以实现上述实施例的图像处理方法中所执行的操作。
可选地,该计算机设备提供为终端。图19是本申请实施例提供的一种终端1900的结构示意图。该终端1900可以是便携式移动终端,比如:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端1900还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
终端1900包括有:处理器1901和存储器1902。
处理器1901可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1901可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1901也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1901可以集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。在一些实施例中,处理器1901还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1902可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1902还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1902中的非暂态的计算机可读存储介质用于存储至少一条计算机程序,该至少一条计算机程序用于被处理器1901所执行以实现本申请中方法实施例提供的图像处理方法。
在一些实施例中,终端1900还可选包括有:外围设备接口1903和至少一个外围设备。处理器1901、存储器1902和外围设备接口1903之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1903相连。具体地,外围设备包括:射频电路1904、显示屏1905、摄像头组件1906、音频电路1907、定位组件1908和电源1909中的至少一种。
外围设备接口1903可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1901和存储器1902。在一些实施例中,处理器1901、存储器1902和外围设备接口1903被集成在同一芯片或电路板上;在一些其他实施例中,处理器1901、存储器1902和外围设备接口1903中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1904用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1904通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1904将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1904包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1904可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1904还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1905用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1905是触摸显示屏时,显示屏1905还具有采集在显示屏1905的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1901进行处理。此时,显示屏1905还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1905可以为一个,设置在终端1900的前面板;在另一些实施例中,显示屏1905可以为至少两个,分别设置在终端1900的不同表面或呈折叠设计;在另一些实施例中,显示屏1905可以是柔性显示屏,设置在终端1900的弯曲表面上或折叠面上。甚至,显示屏1905还可以设置成非矩形的不规则图形,也即异形屏。显示屏1905可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-EmittingDiode,有机发光二极管)等材质制备。
摄像头组件1906用于采集图像或视频。可选地,摄像头组件1906包括前置摄像头和后置摄像头。前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1906还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1907可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1901进行处理,或者输入至射频电路1904以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端1900的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1901或射频电路1904的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1907还可以包括耳机插孔。
定位组件1908用于定位终端1900的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件1908可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯定位系统或欧盟的伽利略定位系统的定位组件。
电源1909用于为终端1900中的各个组件进行供电。电源1909可以是交流电、直流电、一次性电池或可充电电池。当电源1909包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端1900还包括有一个或多个传感器1910。该一个或多个传感器1910包括但不限于:加速度传感器1911、陀螺仪传感器1912、压力传感器1913、指纹传感器1914、光学传感器1915以及接近传感器1916。
加速度传感器1911可以检测以终端1900建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1911可以用于检测重力加速度在三个坐标轴上的分量。处理器1901可以根据加速度传感器1911采集的重力加速度信号,控制显示屏1905以横向视图或纵向视图进行用户界面的显示。加速度传感器1911还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1912可以检测终端1900的机体方向及转动角度,陀螺仪传感器1912可以与加速度传感器1911协同采集用户对终端1900的3D动作。处理器1901根据陀螺仪传感器1912采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1913可以设置在终端1900的侧边框和/或显示屏1905的下层。当压力传感器1913设置在终端1900的侧边框时,可以检测用户对终端1900的握持信号,由处理器1901根据压力传感器1913采集的握持信号进行左右手识别或快捷操作。当压力传感器1913设置在显示屏1905的下层时,由处理器1901根据用户对显示屏1905的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1914用于采集用户的指纹,由处理器1901根据指纹传感器1914采集到的指纹识别用户的身份,或者,由指纹传感器1914根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1901授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1914可以被设置在终端1900的正面、背面或侧面。当终端1900上设置有物理按键或厂商Logo时,指纹传感器1914可以与物理按键或厂商Logo集成在一起。
光学传感器1915用于采集环境光强度。在一个实施例中,处理器1901可以根据光学传感器1915采集的环境光强度,控制显示屏1905的显示亮度。具体地,当环境光强度较高时,调高显示屏1905的显示亮度;当环境光强度较低时,调低显示屏1905的显示亮度。在另一个实施例中,处理器1901还可以根据光学传感器1915采集的环境光强度,动态调整摄像头组件1906的拍摄参数。
接近传感器1916,也称距离传感器,设置在终端1900的前面板。接近传感器1916用于采集用户与终端1900的正面之间的距离。在一个实施例中,当接近传感器1916检测到用户与终端1900的正面之间的距离逐渐变小时,由处理器1901控制显示屏1905从亮屏状态切换为息屏状态;当接近传感器1916检测到用户与终端1900的正面之间的距离逐渐变大时,由处理器1901控制显示屏1905从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图19中示出的结构并不构成对终端1900的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
可选地,该计算机设备提供为服务器。图20是本申请实施例提供的一种服务器的结构示意图,该服务器2000可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(Central Processing Units,CPU)2001和一个或一个以上的存储器2002,其中,存储器2002中存储有至少一条计算机程序,该至少一条计算机程序由处理器2001加载并执行以实现上述各个方法实施例提供的方法。当然,该服务器还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器还可以包括其他用于实现设备功能的部件,在此不做赘述。
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有至少一条计算机程序,该至少一条计算机程序由处理器加载并执行,以实现上述实施例的图像处理方法中所执行的操作。
本申请实施例还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机程序代码,该计算机程序代码存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机程序代码,处理器执行该计算机程序代码,使得计算机设备实现上述实施例的图像处理方法中所执行的操作。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上仅为本申请实施例的可选实施例,并不用以限制本申请实施例,凡在本申请实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (15)
1.一种图像处理方法,其特征在于,所述方法包括:
对目标图像进行编码,得到所述目标图像的图像特征,所述图像特征至少包括所述目标图像中的第一对象的脸部表情特征;
对所述图像特征进行转换,得到所述图像特征对应的原始特征图;
根据参考图像中的第二对象的头部区域特征,对所述原始特征图进行解码,得到目标头部区域,所述目标头部区域包括所述头部区域特征和所述脸部表情特征;
以所述目标头部区域替换所述目标图像中的头部区域。
2.根据权利要求1所述的方法,其特征在于,所述图像处理模型还包括编码网络,所述对目标图像进行编码,得到所述目标图像的图像特征,包括:
调用所述编码网络,对所述目标图像进行编码,得到所述图像特征。
3.根据权利要求2所述的方法,其特征在于,所述编码网络包括多个下采样层和融合层,所述调用所述编码网络,对所述目标图像进行编码,得到所述图像特征,包括:
分别调用每个下采样层对所述目标图像进行编码,得到图像子特征;
调用所述融合层对得到的多个图像子特征进行融合,得到所述图像特征。
4.根据权利要求2所述的方法,其特征在于,所述图像处理模型还包括第一解码网络,所述图像处理模型的训练过程如下:
调用所述编码网络,对包含所述第一对象的第一样本图像进行编码,得到所述第一样本图像的第一预测特征;
调用所述第一解码网络,对所述第一预测特征进行解码,得到第一预测图像;
根据所述第一样本图像和所述第一预测图像,调整所述编码网络的模型参数和所述第一解码网络的模型参数,所述编码网络用于对包含所述第一对象的图像进行编码。
5.根据权利要求4所述的方法,其特征在于,所述图像处理模型还包括第一判别网络,所述根据所述第一样本图像和所述第一预测图像,调整所述编码网络的模型参数和所述第一解码网络的模型参数,包括:
调用所述第一判别网络,分别对所述第一样本图像和所述第一预测图像进行判别,得到第一判别结果,所述第一判别结果用于表示所述第一样本图像和所述第一预测图像之间的差异;
根据所述第一判别结果,确定第一损失值;
根据所述第一损失值,调整所述编码网络的模型参数和所述第一解码网络的模型参数。
6.根据权利要求1所述的方法,其特征在于,所述根据参考图像中的第二对象的头部区域特征,对所述原始特征图进行解码,得到目标头部区域,包括:
根据所述头部区域特征,对所述原始特征图进行分辨率调整,得到目标特征图,所述目标特征图的分辨率与所述参考图像的分辨率相同,且所述目标特征图中包括所述头部区域特征和所述脸部表情特征;
根据所述头部区域特征,对所述目标特征图进行解码,得到所述目标头部区域。
7.根据权利要求6所述的方法,其特征在于,图像处理模型中包括第二解码网络,所述第二解码网络包括转换层、上采样层和卷积层,所述对所述图像特征进行转换,得到所述图像特征对应的原始特征图,包括:
调用所述转换层,对所述图像特征进行转换,得到所述原始特征图;
所述根据所述头部区域特征,对所述原始特征图进行分辨率调整,得到目标特征图,包括:
调用所述上采样层,根据所述头部区域特征对所述原始特征图进行分辨率调整,得到所述目标特征图;
所述根据所述头部区域特征,对所述目标特征图进行解码,得到所述目标头部区域,包括:
调用所述卷积层,根据所述头部区域特征对所述目标特征图进行解码,得到所述目标头部区域。
8.根据权利要求7所述的方法,其特征在于,所述图像处理模型还包括编码网络,所述图像处理模型的训练过程如下:
调用所述编码网络,对包含所述第二对象的第二样本图像进行编码,得到所述第二样本图像的第二预测特征;
调用所述第二解码网络,对所述第二预测特征进行解码,得到第二预测图像;
根据所述第二样本图像和所述第二预测图像,调整所述编码网络的模型参数和所述第二解码网络的模型参数,所述第二解码网络用于根据所述第二对象的头部区域特征进行解码。
9.根据权利要求8所述的方法,其特征在于,所述图像处理模型还包括第二判别网络,所述根据所述第二样本图像和所述第二预测图像,调整所述编码网络的模型参数和所述第二解码网络的模型参数,包括:
调用所述第二判别网络,分别对所述第二样本图像和所述第二预测图像进行判别,得到第二判别结果,所述第二判别结果用于表示所述第二样本图像和所述第二预测图像之间的差异;
根据所述第二判别结果,确定第二损失值;
根据所述第二损失值,调整所述编码网络的模型参数和所述第二解码网络的模型参数。
10.根据权利要求1所述的方法,其特征在于,所述对目标图像进行编码,得到所述目标图像的图像特征之前,所述方法还包括:
将所述目标图像中所述第一对象的头部区域的尺寸调整为参考尺寸。
11.根据权利要求1所述的方法,其特征在于,所述以所述目标头部区域替换所述目标图像中的头部区域,包括:
从所述目标图像中提取出背景区域;
将所述目标头部区域与所述背景区域融合。
12.根据权利要求11所述的方法,其特征在于,所述目标图像为目标视频中的视频帧,所述将所述目标头部区域与所述背景区域进行融合,得到替换图像之后,所述方法还包括:
将所述目标头部区域与所述背景区域融合后的图像,替换所述目标视频中的所述目标图像。
13.一种图像处理装置,其特征在于,所述装置包括:
特征获取模块,用于对目标图像进行编码,得到所述目标图像的图像特征,所述图像特征至少包括所述目标图像中的第一对象的脸部表情特征;
特征图获取模块,用于对所述图像特征进行转换,得到所述图像特征对应的原始特征图;
目标区域获取模块,用于根据参考图像中的第二对象的头部区域特征,对所述原始特征图进行解码,得到目标头部区域,所述目标头部区域包括所述头部区域特征和所述脸部表情特征;
替换模块,用于以所述目标头部区域替换所述目标图像中的头部区域。
14.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条计算机程序,所述至少一条计算机程序由所述处理器加载并执行,以实现如权利要求1至12任一权利要求所述的图像处理方法中所执行的操作。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条计算机程序,所述至少一条计算机程序由处理器加载并执行,以实现如权利要求1至12任一权利要求所述的图像处理方法中所执行的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011331033.6A CN112528760B (zh) | 2020-11-24 | 2020-11-24 | 图像处理方法、装置、计算机设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011331033.6A CN112528760B (zh) | 2020-11-24 | 2020-11-24 | 图像处理方法、装置、计算机设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112528760A true CN112528760A (zh) | 2021-03-19 |
CN112528760B CN112528760B (zh) | 2024-01-09 |
Family
ID=74994480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011331033.6A Active CN112528760B (zh) | 2020-11-24 | 2020-11-24 | 图像处理方法、装置、计算机设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112528760B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114332976A (zh) * | 2021-09-17 | 2022-04-12 | 广州繁星互娱信息科技有限公司 | 虚拟对象处理方法、电子设备及存储介质 |
CN117540789A (zh) * | 2024-01-09 | 2024-02-09 | 腾讯科技(深圳)有限公司 | 模型训练方法、面部表情迁移方法、装置、设备及介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170193325A1 (en) * | 2015-12-31 | 2017-07-06 | Adaptive Computation, Llc | Systems and methods for object recognition based on human visual pathway |
CN110148081A (zh) * | 2019-03-25 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 图像处理模型的训练方法、图像处理方法、装置及存储介质 |
WO2019219065A1 (zh) * | 2018-05-17 | 2019-11-21 | 杭州海康威视数字技术股份有限公司 | 视频分析的方法和装置 |
US20200167893A1 (en) * | 2018-11-28 | 2020-05-28 | Adobe Inc. | Propagation of spot healing edits from one image to multiple images |
CN111508050A (zh) * | 2020-04-16 | 2020-08-07 | 北京世纪好未来教育科技有限公司 | 图像处理方法及装置、电子设备和计算机存储介质 |
CN111652878A (zh) * | 2020-06-16 | 2020-09-11 | 腾讯科技(深圳)有限公司 | 图像检测方法、装置、计算机设备及存储介质 |
-
2020
- 2020-11-24 CN CN202011331033.6A patent/CN112528760B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170193325A1 (en) * | 2015-12-31 | 2017-07-06 | Adaptive Computation, Llc | Systems and methods for object recognition based on human visual pathway |
WO2019219065A1 (zh) * | 2018-05-17 | 2019-11-21 | 杭州海康威视数字技术股份有限公司 | 视频分析的方法和装置 |
CN110502954A (zh) * | 2018-05-17 | 2019-11-26 | 杭州海康威视数字技术股份有限公司 | 视频分析的方法和装置 |
US20200167893A1 (en) * | 2018-11-28 | 2020-05-28 | Adobe Inc. | Propagation of spot healing edits from one image to multiple images |
CN110148081A (zh) * | 2019-03-25 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 图像处理模型的训练方法、图像处理方法、装置及存储介质 |
CN111508050A (zh) * | 2020-04-16 | 2020-08-07 | 北京世纪好未来教育科技有限公司 | 图像处理方法及装置、电子设备和计算机存储介质 |
CN111652878A (zh) * | 2020-06-16 | 2020-09-11 | 腾讯科技(深圳)有限公司 | 图像检测方法、装置、计算机设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
薛哲: "基于多视角学习的图像语义分析技术", 北京邮电大学出版社, pages: 0019 - 0021 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114332976A (zh) * | 2021-09-17 | 2022-04-12 | 广州繁星互娱信息科技有限公司 | 虚拟对象处理方法、电子设备及存储介质 |
CN117540789A (zh) * | 2024-01-09 | 2024-02-09 | 腾讯科技(深圳)有限公司 | 模型训练方法、面部表情迁移方法、装置、设备及介质 |
CN117540789B (zh) * | 2024-01-09 | 2024-04-26 | 腾讯科技(深圳)有限公司 | 模型训练方法、面部表情迁移方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112528760B (zh) | 2024-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111091132B (zh) | 基于人工智能的图像识别方法、装置、计算机设备及介质 | |
CN111091166B (zh) | 图像处理模型训练方法、图像处理方法、设备及存储介质 | |
CN112598686B (zh) | 图像分割方法、装置、计算机设备及存储介质 | |
CN111489378B (zh) | 视频帧特征提取方法、装置、计算机设备及存储介质 | |
CN113395542B (zh) | 基于人工智能的视频生成方法、装置、计算机设备及介质 | |
CN110135336B (zh) | 行人生成模型的训练方法、装置及存储介质 | |
CN111476783B (zh) | 基于人工智能的图像处理方法、装置、设备及存储介质 | |
CN110807361A (zh) | 人体识别方法、装置、计算机设备及存储介质 | |
CN111242090A (zh) | 基于人工智能的人脸识别方法、装置、设备及介质 | |
CN112991494B (zh) | 图像生成方法、装置、计算机设备及计算机可读存储介质 | |
CN111932463B (zh) | 图像处理方法、装置、设备及存储介质 | |
CN111541907A (zh) | 物品显示方法、装置、设备及存储介质 | |
CN112257552B (zh) | 图像处理方法、装置、设备及存储介质 | |
CN111368116B (zh) | 图像分类方法、装置、计算机设备及存储介质 | |
CN113705302A (zh) | 图像生成模型的训练方法、装置、计算机设备及存储介质 | |
CN111836073B (zh) | 视频清晰度的确定方法、装置、设备及存储介质 | |
CN113516143A (zh) | 文本图像匹配方法、装置、计算机设备及存储介质 | |
CN113570645A (zh) | 图像配准方法、装置、计算机设备及介质 | |
CN113821658A (zh) | 对编码器进行训练的方法、装置、设备及存储介质 | |
CN114283299A (zh) | 图像聚类方法、装置、计算机设备及存储介质 | |
CN113516665A (zh) | 图像分割模型的训练方法、图像分割方法、装置、设备 | |
CN116048244A (zh) | 一种注视点估计方法及相关设备 | |
CN112528760B (zh) | 图像处理方法、装置、计算机设备及介质 | |
CN112818979A (zh) | 文本识别方法、装置、设备及存储介质 | |
CN113763931A (zh) | 波形特征提取方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40041005 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |