CN117710496A - 图像背景替换方法及相关设备 - Google Patents
图像背景替换方法及相关设备 Download PDFInfo
- Publication number
- CN117710496A CN117710496A CN202211084989.XA CN202211084989A CN117710496A CN 117710496 A CN117710496 A CN 117710496A CN 202211084989 A CN202211084989 A CN 202211084989A CN 117710496 A CN117710496 A CN 117710496A
- Authority
- CN
- China
- Prior art keywords
- image
- user
- background
- background replacement
- replacement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 99
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 36
- 238000003709 image segmentation Methods 0.000 claims abstract description 29
- 239000002131 composite material Substances 0.000 claims description 42
- 230000011218 segmentation Effects 0.000 claims description 31
- 230000001815 facial effect Effects 0.000 claims description 16
- 230000014509 gene expression Effects 0.000 claims description 8
- 238000009877 rendering Methods 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 23
- 230000036544 posture Effects 0.000 description 28
- 210000003739 neck Anatomy 0.000 description 19
- 238000012545 processing Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 6
- 210000000887 face Anatomy 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 210000002832 shoulder Anatomy 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 238000004549 pulsed laser deposition Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000008485 antagonism Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请实施例提供一种图像背景替换方法及相关设备,所述方法包括:获取第一图像,第一图像为二维图像或三维模型,第一图像包括第一用户的上半身正面图像信息;获取第二图像,第二图像包括第一用户的特征;将第一图像与第二图像进行合成,得到第一合成图像,第一合成图像包括第一用户的特征,且包括第一用户的上半身正面信息;根据预设的人体部位对第一合成图像进行人像分割,得到第一用户对应的第一目标人像;将第一目标人像与虚拟背景进行合成,得到背景替换图像,背景替换图像包括第一目标人像。所述方法能够按照预设的人体部位进行图像背景替换,提高背景替换的效果。
Description
技术领域
本申请涉及图像处理技术领域,尤其涉及一种图像背景替换方法及相关设备。
背景技术
图像的背景替换是指将原图像的背景替换成另一个不同的背景。在背景替换时,一般先对原图像进行前后景分割,得到前景(即人像)和原始背景,再将前景和虚拟背景进行合成,得到背景替换图像。现有技术在进行图像背景替换时,得到的背景替换图像中不同用户的人体部位经常不一致,背景替换后人像不整齐,效果不好。
发明内容
本申请实施例提供了一种图像背景替换方法及相关设备,能够按照预设的人体部位进行图像背景替换,提高背景替换效果。
本申请第一方面公开了一种图像背景替换方法,所述方法包括:获取第一图像,第一图像为二维图像或三维模型,第一图像包括第一用户的上半身正面图像信息;获取第二图像,第二图像包括第一用户的特征,特征包括姿态和/或表情;将第一图像与第二图像进行合成,得到第一合成图像,第一合成图像包括第一用户的特征,且包括第一用户的上半身正面信息;根据预设的人体部位对第一合成图像进行人像分割,得到第一用户对应的第一目标人像;将第一目标人像与虚拟背景进行合成,得到背景替换图像,背景替换图像包括第一目标人像。
目前,在执行背景替换时,无法按照预设的人体部位进行背景替换,不能保证背景替换图像中的人像包括预设的人体部位,影响背景替换的效果。例如,在单人场景下,需要得到包括人脸、脖子和胸部的背景替换图像,实际得到的背景替换图像包括人脸和脖子,不满足用户需求。又如,在多人场景(可以是多人集中式场景,也可以是多人分散式场景)下,由于拍摄角度、用户身高、用户动作(站立或坐下)不同等原因,拍摄的图像中不同用户的人体部位可能不一致(例如有的只有人脸、有的包括人脸和脖子、有的包括人脸、脖子和肩膀),背景替换得到的背景替换图像中人体部位也可能不一致,背景替换图像中人像不整齐。
本申请实施例提供的图像背景替换方法能够按照预设的人体部位进行背景替换,得到的背景替换图像包括预设的人体部位,提高了背景替换效果。
在一些可选的实施方式中,根据预设的人体部位对第一合成图像进行人像分割包括:根据预设的人体部位确定人像尺寸,根据人像尺寸对第一合成图像进行人像分割;或者根据预设的人体部位在第一合成图像中进行人体部位识别,根据识别的人体部位对第一合成图像进行人像分割。
本申请实施例提供的图像背景替换方法可以通过确定人像尺寸,或者进行人体部位识别两种方式对合成图像进行人像分割,能够从合成图像中准确分割出目标人像。
在一些可选的实施方式中,将第一目标人像与虚拟背景进行合成包括:根据虚拟场景中位置的大小和/或第一用户在虚拟背景中的位置对第一目标人像进行缩放;将缩放后的第一目标人像与虚拟背景进行合成。
根据虚拟场景中位置的大小对目标人像(例如第一目标人像)进行缩放,是将目标人像调整为适应虚拟场景中位置的大小。虚拟场景中的位置越大,缩放后的目标人像就越大。虚拟场景中的位置越小,缩放后的目标人像就越小。本申请实施例提供的图像背景替换方法根据虚拟场景中位置的大小对目标人像进行缩放,可以使背景替换图像中的人像更整齐,背景替换效果更佳。
根据用户在虚拟背景中的位置对目标人像进行缩放,是将目标人像调整为适应用户在虚拟背景中的位置(满足近大远小的规则)。用户在虚拟背景中的位置越靠前,缩放后的目标人像就越大。用户在虚拟背景中的位置越靠后,缩放后的目标人像就越小。当本申请实施例提供的图像背景替换方法应用在多人场景时,根据用户在虚拟背景中的位置对目标人像进行缩放,可以使背景替换图像看起来更加真实。例如,虚拟背景是阶梯教室,根据用户在虚拟背景中的位置对目标人像进行缩放,得到的背景替换图像中靠前的人像大,靠后的人像小,效果更加真实。
在一些可选的实施方式中,第一用户在虚拟背景中的位置由第一用户预先选择得到,或者预先分配得到。
本申请实施例提供的图像背景替换方法可以为用户提供在虚拟背景中选择位置,或者为用户在虚拟背景中预分配位置,提高背景替换的灵活性。
在一些可选的实施方式中,第一用户的特征包括第一用户的姿态,将第一图像与第二图像进行合成包括:根据预设的姿态对第一用户的姿态进行矫正;根据第一用户的矫正后的姿态得到第一合成图像,第一合成图像包括第一用户的矫正后的姿态,且包括第一用户的上半身正面信息。
本申请实施例提供的图像背景替换方法根据预设的姿态对用户的姿态进行矫正,可以满足背景替换中对用户姿态的需求。多人场景下,若背景替换过程中对用户的姿态进行矫正,得到的背景替换图像中人像的姿态一致,视觉效果更整齐,进一步优化了背景替换的效果。
在一些可选的实施方式中,第一图像为三维模型,根据预设的姿态对第一用户的姿态进行矫正包括:对第二图像进行人脸分割,得到人脸图像;根据人脸图像生成脸部纹理;根据脸部纹理对三维模型进行脸部纹理替换,得到纹理替换后的三维模型,纹理替换后的三维模型包括第一用户的姿态;将纹理替换后的三维模型矫正到预设的姿态对应的位置,得到矫正后的三维模型,矫正后的三维模型包括第一用户的矫正后的姿态;根据第一用户的矫正后的姿态得到第一合成图像包括:将矫正后的三维模型渲染到二维图像,得到第一合成图像。
本申请实施例提供的图像背景替换方法通过三维模型可以对用户姿态进行矫正,实现较好的校正效果。
在一些可选的实施方式中,获取第一图像包括:根据虚拟背景的环境从预先存储的多个第一图像中选择一个。
计算设备可以预先存储多个第一图像,根据虚拟背景的环境从预先存储的多个第一图像中选择一个。虚拟背景的环境可以包括虚拟背景对应的光线、场所(例如教室、会议室、酒吧等)、天气(例如晴天、雨天等)、季节(例如夏天、冬天等)等。例如,可以在不同光线下对用户拍摄第一图像,根据虚拟背景对应的光线选择相似光线下拍摄的一个第一图像。又如,可以拍摄用户对应不同场所不同着装的多个第一图像,根据虚拟背景对应的场所选择对应着装的一个第一图像。再如,可以拍摄用户对应不同季节不同着装的第一图像,根据虚拟背景对应的季节选择相应着装的一个第一图像。本申请实施例提供的图像背景替换方法根据虚拟背景的环境从预先存储的多个第一图像中选择一个,可以提高背景替换的效果。
在一些可选的实施方式中,第二图像还包括第二用户的特征,所述方法还包括:获取第三图像,第三图像为二维图像或三维模型,第三图像包括第二用户的上半身正面图像信息;将第三图像与第二图像进行合成,得到第二合成图像,第二合成图像包括第二用户的特征,且包括第二用户的上半身正面信息;根据预设的人体部位对第二合成图像进行人像分割,得到第二用户对应的第二目标人像;将第一目标人像与虚拟背景进行合成,得到背景替换图像包括:将第一目标人像、第二目标人像与虚拟背景进行合成,得到背景替换图像,背景替换图像包括第一目标人像和第二目标人像。
本申请实施例提供的图像背景替换方法可以实现多人场景下的背景替换,得到多人共享虚拟背景的背景替换图像,背景替换图像中的人像包括预设的人体部位,提高了多场景下背景替换的效果。例如,背景替换图像包括第一用户对应的第一目标人像和第二用户对应的第二目标人像,第一目标人像中的人体部位与第二目标人像中的人体部位基本一致,例如都包括人脸、脖子和肩膀,或者都包括人脸、脖子和胸部。
在一些可选的实施方式中,第二图像是实时获取的,用户的特征包括用户的实时的姿态和/或表情。
本申请实施例提供的图像背景替换方法可以实时获取第二图像,实现了实时图像的图像背景替换。
在一些可选的实施方式中,获取第二图像包括:实时获取包含用户的特征的视频,从视频中得到第二图像。
在一些可选的实施方式中,从视频中得到第二图像包括:从视频中获取图像帧;对图像帧进行人像分割,得到第二图像。
本申请实施例提供的图像背景替换方法可以根据用户的视频进行图像背景替换。
在一些可选的实施方式中,若图像帧是单人图像,采用语义分割算法对图像帧进行人像分割;若图像帧是多人图像,采用实例分割算法对图像帧进行人像分割。
针对不同的图像帧采用不同的分割算法,可以实现更准确的人像分割。
在一些可选的实施方式中,对第一图像和第二图像进行合成包括:对第一图像进行特征点抽取,得到第一特征点集合;对第二图像进行特征点抽取,得到第二特征点集合;根据第一特征点集合和第二特征点集合对第一图像和第二图像进行对齐,将第二图像仿射变换到第一图像,得到中间图像;根据中间图像、第一图像和第二图像生成第一合成图像。
在一些可选的实施方式中,根据中间图像、第一图像和第二图像生成第一合成图像包括:将中间图像、第一图像和第二图像输入生成对抗网络模型,通过生成对抗网络模型生成第一合成图像。
本申请实施例提供的图像背景替换方法通过生成对抗网络模型生成合成图像(例如第一合成图像),可以提高合成图像的图片质量。
在一些可选的实施方式中,将中间图像、第一图像和第二图像输入生成对抗网络模型,通过生成对抗网络模型生成第一合成图像之前,所述方法还包括:获取生成对抗网络模型的训练数据集,训练数据集包括不同角度和/或不同姿态下拍摄的第二图像和在拍摄第二图像时拍摄的第一用户的上半身正面图像;通过训练数据集对生成对抗网络模型进行训练。
在一些可选的实施方式中,第一图像为三维模型,获取第一图像包括:获取围绕第一用户的上半身旋转一周拍摄的视频;根据视频建立离散特征点云;将离散特征点云进行网格化处理,得到初始模型;对初始模型进行纹理贴图,得到三维模型。
本申请第二方面公开了一种图像背景替换装置,该图像背景替换装置具有实现上述第一方面或第一方面任一种可选的实施方式的功能。该图像背景替换装置包括至少一个单元,至少一个单元用于实现上述第一方面或第一方面任一种可选的实施方式所提供的方法。在一些实施例中,图像背景替换装置中的单元通过软件实现,图像背景替换装置中的单元是程序模块。在另一些实施例中,图像背景替换装置中的单元通过硬件或固件实现。第二方面提供的图像背景替换装置的具体细节可参见上述第一方面或第一方面任一种可选的实施方式,此处不再赘述。
本申请第三方面公开了一种计算机可读存储介质,包括计算机指令,当计算机指令在计算设备上运行时,使得计算设备执行如第一方面的图像背景替换方法。
本申请第四方面公开了一种计算设备,计算设备包括处理器和存储器,存储器用于存储指令,处理器用于调用存储器中的指令,使得计算设备执行如第一方面的图像背景替换方法。
本申请第五方面公开了一种芯片系统,该芯片系统应用于计算设备;芯片系统包括接口电路和处理器;接口电路和处理器通过线路互联;接口电路用于从计算设备的存储器接收信号,并向处理器发送信号,信号包括存储器中存储的计算机指令;当处理器执行该计算机指令时,芯片系统执行如第一方面的图像背景替换方法。
应当理解地,上述提供的第二方面的图像背景替换装置、第三方面的计算机可读存储介质、第四方面的计算设备及第五方面的芯片系统均与上述第一方面的方法对应,因此,其所能达到的有益效果可参考上文所提供的对应的方法中的有益效果,此处不再赘述。
附图说明
图1-图3是本申请实施例提供的图像背景替换方法的应用场景示意图。
图4是本申请实施例提供的图像背景替换方法的流程图。
图5-图6是本申请实施例提供的图像背景替换方法的效果示意图。
图7是本申请另一实施例提供的图像背景替换方法的流程图。
图8A是根据本申请实施例提供的图像背景替换方法,未对用户的姿态进行矫正得到的背景替换图像的示意图。
图8B是根据本申请实施例提供的图像背景替换方法,对用户的姿态进行矫正得到的背景替换图像的示意图。
图9是本申请实施例提供的将第一图像与第二图像进行合成并对用户的姿态进行矫正的细化流程图。
图10是本申请实施例提供的图像背景替换装置的结构示意图。
图11是本申请实施例提供的计算设备的结构示意图。
具体实施方式
需要说明的是,本申请中“至少一个”是指一个或者多个,“多个”是指两个或多于两个。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A,B可以是单数或者复数。本申请的说明书和权利要求书及附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不是用于描述特定的顺序或先后次序。
为了便于理解,在介绍本申请实施例的技术方案之前,先对本申请实施例中应用的部分术语进行示例性地说明以供参考。
背景替换:将原图像的背景替换成另一个不同的背景。在背景替换时,先对原图像进行前后景分割,得到前景(即人像)和原始背景,再将前景和虚拟背景进行合成,得到背景替换图像。
背景替换主要分为以下三类:
单人场景下的背景替换:对包括单个用户的图像进行背景替换,背景替换图像包括单个用户;
多人集中式场景下的背景替换:多个用户在同一个地点,利用一个用户设备对多个用户进行拍照,得到包括多个用户的图像(包括多个用户的合照),对包括多个用户的图像进行背景替换,背景替换图像包括多个用户;
多人分散式场景下的背景替换:多个用户在不同地点,利用不同的用户设备对多个用户分别进行拍照,得到每个用户的图像,根据每个用户的图像进行背景替换(替换到共同的虚拟背景中),背景替换图像包括多个用户。
目前,在执行背景替换时,无法按照预设的人体部位进行背景替换,不能保证背景替换图像中的人像包括预设的人体部位,影响背景替换的效果。例如,在单人场景下,需要得到包括人脸、脖子和胸部的背景替换图像,实际得到的背景替换图像包括人脸和脖子,不满足用户需求。又如,在多人场景(可以是多人集中式场景,也可以是多人分散式场景)下,由于拍摄角度、用户身高、用户动作(站立或坐下)不同等原因,拍摄的图像中不同用户的人体部位可能不一致(例如有的只有人脸、有的包括人脸和脖子、有的包括人脸、脖子和肩膀),背景替换得到的背景替换图像中人体部位也可能不一致,背景替换图像中人像不整齐。
本申请实施例提供图像背景替换方法能够按照预设的人体部位进行背景替换,得到的背景替换图像包括预设的人体部位,提高了背景替换效果。
为了更好地理解本申请实施例提供的图像背景替换方法及相关设备,下面首先对本申请实施例提供的图像背景替换方法的应用场景进行描述。
图1-图3是本申请实施例提供的图像背景替换方法的应用场景示意图。本申请实施例提供的图像背景替换方法可以应用于单人场景和多人场景(包括多人集中式场景和多人分散式场景)。图1是单人场景下的应用场景示意图,图2是多人集中式场景下的应用场景示意图,图3是多人分散式场景下的应用场景示意图。
本申请实施例的应用场景包括计算设备(例如图1-图3中的计算设备101)和用户设备(例如图1-图3中的用户设备102-105)。用户设备包括摄像装置和显示屏。用户设备通过摄像装置拍摄用户的原图像(可以包括第一图像和第二图像,参见图4相关描述),将用户的原图像发送至计算设备。计算设备根据用户的原图像进行背景替换,生成背景替换图像,将背景替换图像返回用户设备。用户设备将背景替换图像显示在显示屏上。
参见图1所示,在单人场景下,应用场景包括计算设备101以及用户设备102。用户设备102通过摄像装置拍摄用户A的原图像,将用户A的原图像发送至计算设备101。计算设备101根据用户A的原图像进行背景替换,生成包括用户A的人像的背景替换图像,将背景替换图像返回用户设备102。用户设备102将背景替换图像显示在显示屏上。
参见图2所示,在多人集中式场景下,应用场景包括计算设备101以及用户设备102。用户设备102通过摄像装置拍摄包括用户A、用户B、用户C、用户D的原图像(合照),将包括用户A、用户B、用户C、用户D的原图像发送至计算设备101。计算设备101根据包括用户A、用户B、用户C、用户D的原图像进行背景替换,生成用户A、用户B、用户C、用户D共享虚拟背景的背景替换图像,将背景替换图像返回用户设备102。用户设备102将背景替换图像显示在显示屏上。
参见图3所示,在多人分散式场景下,应用场景包括计算设备101、用户设备102、用户设备103、用户设备104、用户设备105。其中,用户设备102通过自身的摄像装置拍摄用户A的原图像,将用户A的原图像发送至计算设备101,用户设备103通过自身的摄像装置拍摄用户B的原图像,将用户B的原图像发送至计算设备101,用户设备104通过自身的摄像装置拍摄用户C的原图像,将用户C的原图像发送至计算设备101,用户设备105通过自身的摄像装置拍摄用户D的原图像,将用户D的原图像发送至计算设备101。计算设备101根据用户A、用户B、用户C、用户D的原图像进行背景替换,生成用户A、用户B、用户C、用户D共享虚拟背景的背景替换图像,将背景替换图像返回用户设备102-105。用户设备102-105将背景替换图像显示在显示屏上。
本申请实施例提供的图像背景替换方法可以应用于视频会议、在线课堂、线上聚会等。例如,在视频会议中,可以进行背景替换,将参会人员放入虚拟会议背景。又如,在在线课堂中,可以进行背景替换,将听课人员放入虚拟课堂背景。再如,在线上聚会时,可以进行背景替换,将聚会人员放入虚拟聚会背景(例如酒吧、咖啡厅等)。
可选地,用户设备102-105安装有应用软件(例如视频会议软件、在线课堂软件等)。用户设备102-105运行应用软件,通过应用软件拍摄用户的原图像,将拍摄的原图像发送给计算设备101,通过应用软件显示计算设备101返回的背景替换图像。
计算设备101存在多种可能的产品形态。例如,计算设备101包括而不限于一台独立的物理服务器,或者多个物理服务器构成的服务器集群,或者多个物理服务器构成的分布式系统。计算设备101可以位于任意位置。计算设备101可以是位于云端,以云服务的形式为用户提供图像背景替换服务。
在一种实施方式中,计算设备101也可以是任意一个用户设备。
图2-图3示出的存在四个用户设备的场景仅是举例说明,用户设备的数量可以更多或更少。例如用户设备为2个、3个,或者更多数量,本实施例对用户设备的数量不做限定。
图1-图3示出的用户设备存在多种可能的产品形态。例如,用户设备包括而不限于个人计算机、移动电话、服务器、笔记本电脑、IP电话、摄像头、平板电脑、可穿戴设备等。用户设备通过有线网络或无线网络与计算设备相连。
图4是本申请实施例提供的图像背景替换方法的流程图。所述图像背景替换方法应用于计算设备(例如图1-图3中的计算设备101)。图4所示图像背景替换方法中,用于背景替换的第一图像是二维图像。
201,获取第一图像,第一图像是二维图像,第一图像包括用户的上半身正面图像信息。
第一图像的数量可以是一个(例如第一用户对应的第一图像),也可以是多个(例如第一用户对应的第一图像和第二用户对应的第一图像)。在本申请的一些实施例中,第二用户对应的第一图像可以称为第三图像,例如,计算设备获取第一图像,第一图像是二维图像,第一图像包括第一用户的上半身正面图像信息。计算设备获取第三图像,第三图像是二维图像,第三图像包括第二用户的上半身正面图像信息。
若本申请实施例提供的图像背景替换方法应用于单人场景,则获取的第一图像的数量是一个。例如,参阅图1所示,获取用户A的第一图像(第一图像的数量为一个)。
若本申请实施例提供的图像背景替换方法应用于多人场景,则获取的第一图像的数量是多个,每个第一图像对应一个用户,不同的第一图像对应不同的用户。例如,参阅图2-图3所示,分别获取用户A、用户B、用户C、用户D的第一图像(第一图像的数量为四个)。
可以通过用户设备的摄像装置(例如手机或平板电脑的摄像头,或者视频会议摄像机)对用户进行拍照,得到第一图像。
用户设备可以预先拍摄第一图像并发送给计算设备。计算设备将第一图像存储在存储设备中,在需要进行背景替换时,从存储设备中获取第一图像。
或者,可以在需要进行背景替换时,计算设备控制用户设备拍摄用户的第一图像,并接收用户设备发送的第一图像。
在本申请的一个实施例中,计算设备可以预先存储多个第一图像,根据虚拟背景的环境从预先存储的多个第一图像中选择一个。虚拟背景的环境可以包括虚拟背景对应的光线、场所(例如教室、会议室、酒吧等)、天气(例如晴天、雨天等)、季节(例如夏天、冬天等)等。例如,可以在不同光线下对用户拍摄第一图像,根据虚拟背景对应的光线选择相似光线下拍摄的一个第一图像。又如,可以拍摄用户对应不同场所不同着装的多个第一图像,根据虚拟背景对应的场所选择对应着装的一个第一图像。再如,可以拍摄用户对应不同季节不同着装的第一图像,根据虚拟背景对应的季节选择相应着装的一个第一图像。根据虚拟背景的环境从预先存储的多个第一图像中选择一个,可以提高背景替换的效果。
202,获取第二图像,第二图像包括用户的特征。
用户的特征可以包括用户的姿态和/或表情。
第二图像的数量可以是一个(例如第一用户对应的第二图像),也可以是多个(例如第一用户对应的第二图像和第二用户对应的第二图像)。
若本申请实施例提供的图像背景替换方法应用于单人场景,则获取的第二图像的数量是一个。例如,参阅图1所示,获取用户A的第二图像(第二图像的数量为一个)。
若本申请实施例提供的图像背景替换方法应用于多人场景,则获取的第二图像的数量可以是一个也可以是多个。若获取的第二图像的数量是一个,第二图像可以对应多个用户,包括多个用户的特征(例如包括第一用户的特征和第二用户的特征)。若获取的第二图像的数量是多个,每个第二图像可以对应一个用户,不同的第二图像对应不同的用户,包括不同用户的特征(例如一个第二图像对应第一用户,包括第一用户的特征;另一个第二图像对应第二用户,包括第二用户的特征)。例如,参阅图2-图3所示,可以获取用户A、用户B、用户C、用户D的第二图像(第二图像的数量可以为一个,也可以为四个)。
用户设备可以拍摄用户的第二图像,将第二图像发送给计算设备。
计算设备可以实时获取第二图像。
在本申请的一个实施例中,计算设备可以实时获取用户的视频,从视频中得到第二图像。例如,在视频会议中,用户设备实时拍摄用户的会议视频,将会议视频发送给计算设备。计算设备接收会议视频,从会议视频中得到第二图像。又如,在在线课堂中,用户设备实时拍摄用户的上课视频,将上课视频发送给计算设备。计算设备接收上课视频,从上课视频中得到第二图像。再如,在线上聚会时,用户设备实时拍摄用户的聚会视频,将聚会视频发送给计算设备。计算设备接收聚会视频,从聚会视频中得到第二图像。
计算设备可以从视频中获取一个图像帧,对图像帧进行人像分割,得到第二图像。
在本申请的一个实施例中,计算设备可以采用深度学习分割算法,对图像帧进行人像分割。
在本申请的一个实施例中,如果图像帧是单人图像,采用语义分割算法(例如金字塔场景解析网络(Pyramid Scene Parsing Network,PSPNet)、全卷积网络(FullyConvolutional Network,FCN))对图像帧进行人像分割;如果图像帧是多人图像,采用实例分割算法(例如协同检测和分割(Simultaneous Detection and Segmentation,SDS)算法、基于掩膜区域卷积神经网络(Mask Region-based Convolutional Neural Network(MaskRCNN))对图像帧进行人像分割。
语义分割是对图像中的每个像素进行分类(类别例如包括人、草地、树木、天空)。实例分割是在图像中将目标(例如人物)检测出来,并区分目标中不同的个体(例如区分不同的人物)。
在本申请的一个实施例中,可以根据视频判断背景替换的应用场景,若背景替换的应用场景是单人场景,采用语义分割算法对图像帧进行人像分割;若背景替换的应用场景是多人集中式场景,采用实例分割算法对图像帧进行人像分割。可以判断视频中包括多人的持续时间是否超过预设时间(例如1分钟),若视频中包括多人的持续时间未超过预设时间,则确定为单人场景,若视频中包括多人的持续时间超过预设时间,则确定为多人集中式场景。
若图像帧是单人图像,对图像帧进行人像分割,得到一个第二图像。若图像帧是多人图像,对图像帧进行人像分割,得到多个第二图像。多个第二图像可能会存在人体部位不一致(例如有的有肩膀部分,有的没有肩膀部分)、图像大小不一致的问题。
203,将第一图像与第二图像进行合成,得到合成图像,合成图像包括用户的特征(例如用户的实时特征),且包括用户的上半身正面信息。
若本申请实施例提供的图像背景替换方法应用于单人场景,获取的第一图像和第二图像的数量均为一个(例如第一用户对应的第一图像和第二图像),将第一图像与第二图像进行合成,得到合成图像(合成图像的数量为一个,例如第一用户对应的第一合成图像)。例如,参阅图1所示,获取用户A的第一图像和第二图像(第一图像和第二图像的数量均为一个),将用户A的第一图像和第二图像进行合成,得到用户A的合成图像。
若本申请实施例提供的图像背景替换方法应用于多人场景,第一图像的数量为多个,第二图像的数量可以为一个,也可以为多个(例如获取第一用户对应的第一图像和第二图像、第二用户对应的第一图像和第二图像)。若第一图像和第二图像的数量为多个,则将每个第一图像和对应的第二图像进行合成,得到每个用户对应的合成图像(例如第一用户对应的第一合成图像、第二用户对应的第二合成图像)。例如,参阅图2-图3所示,分别获取用户A、用户B、用户C、用户D对应的第一图像和第二图像(第一图像和第二图像的数量均为四个),将用户A对应的第一图像和第二图像进行合成,得到用户A的合成图像,将用户B对应的第一图像和第二图像进行合成,得到用户B的合成图像,将用户C对应的第一图像和第二图像进行合成,得到用户C的合成图像,将用户D对应的第一图像和第二图像进行合成,得到用户D的合成图像。若第一图像的数量为多个,第二图像的数量为一个,则将每个第一图像和第二图像中对应的人像进行合成,得到每个用户对应的合成图像。
在本申请的一个实施例中,可以对第一图像进行特征点抽取,得到第一特征点集合;对第二图像进行特征点抽取,得到第二特征点集合;根据第一特征点集合和第二特征点集合对第一图像和第二图像进行对齐,将第二图像仿射变换到第一图像,得到中间图像;根据中间图像、第一图像和第二图像生成合成图像。
在本申请的一个实施例中,可以采用尺度不变特征转换(Scale-invariantFeature Transform,SIFT)算法对第一图像、第二图像分别进行特征点抽取。
在本申请的一个实施例中,可以将中间图像、第一图像和第二图像输入第一生成对抗网络模型,通过第一生成对抗网络模型生成合成图像。
在将中间图像、第一图像和第二图像输入第一生成对抗网络模型之前,需要对第一生成对抗网络模型进行训练。可以获取第一生成对抗网络模型的训练数据集,通过训练数据集对第一生成对抗网络模型进行训练。可以拍摄不同角度、不同姿态的第二图像,在拍摄每个第二图像时拍摄用户的上半身正面图像,将不同角度、不同姿态下拍摄的第二图像和对应的上半身正面图像作为第一生成对抗网络模型的训练数据集。
204,根据预设的人体部位对合成图像进行人像分割,得到目标人像。
若本申请实施例提供的图像背景替换方法应用于单人场景,合成图像的数量为一个,根据预设的人体部位对合成图像进行人像分割,得到一个目标人像(例如第一用户对应的第一目标人像)。例如,参阅图1所示,得到用户A的合成图像后,根据预设的人体部位对用户A的合成图像进行人像分割,得到用户A的目标人像。
若本申请实施例提供的图像背景替换方法应用于多人场景,合成图像的数量为多个,根据预设的人体部位对每个合成图像进行人像分割,得到每个用户对应的目标人像(例如第一用户对应的第一目标人像和第二用户对应的第二目标人像)。例如,参阅图2-图3所示,得到用户A、用户B、用户C、用户D各自的合成图像后,根据预设的人体部位对用户A的合成图像进行人像分割,得到用户A的目标人像,根据预设的人体部位对用户B的合成图像进行人像分割,得到用户B的目标人像,根据预设的人体部位对用户C的合成图像进行人像分割,得到用户C的目标人像,根据预设的人体部位对用户D的合成图像进行人像分割,得到用户D的目标人像。
在本申请的一个实施例中,可以根据虚拟背景确定预设的人体部位。例如,若虚拟背景是教室,预设的人体部位可以包括脸、脖子和胸部。又如,若虚拟背景是酒吧,预设的人体部位可以包括人脸、脖子和腰部。可以预先设置虚拟背景和预设的人体部位的对应关系。
在本申请的一个实施例中,可以根据预设的人体部位确定人像尺寸,根据人像尺寸从合成图像中分割出目标人像。人像尺寸可以是合成图像中的基准尺寸(例如眼睛到头顶的距离)的预设倍数。例如,预设的人体部位包括脸和脖子,人像尺寸是合成图像中的眼睛到头顶的距离的2.5倍。又如,预设的人体部位包括脸、脖子和胸部,人像尺寸是合成图像中的眼睛到头顶的距离的5倍。
在本申请的另一个实施例中,可以根据预设的人体部位在合成图像中进行人体部位识别,根据识别的人体部位从合成图像中分割出目标人像。例如,预设的人体部位包括脸和脖子,从合成图像中识别用户的脸和脖子,根据识别的脸和脖子从合成图像中分割出目标人像。
205,将目标人像与虚拟背景进行合成,得到背景替换图像,背景替换图像包括目标人像。
若本申请实施例提供的图像背景替换方法应用于单人场景,目标人像的数量为一个(例如第一用户对应的第一目标人像),将目标人像与虚拟背景进行合成,得到包括一个目标人像(例如第一目标人像)的背景替换图像。例如,参阅图1所示,将用户A的目标人像与虚拟背景进行合成,得到包括用户A的目标人像的背景替换图像。
若本申请实施例提供的图像背景替换方法应用于多人场景,目标人像的数量为多个(例如第一用户对应的第一目标人像和第二用户对应的第二目标人像),将多个目标人像与虚拟背景进行合成,得到包括多个目标人像(例如第一目标人像和第二目标人像)的背景替换图像。例如,参阅图2-3所示,将用户A的目标人像、用户B的目标人像、用户C的目标人像、用户D的目标人像与虚拟背景进行合成,得到包括用户A的目标人像、用户B的目标人像、用户C的目标人像和用户D的目标人像的背景替换图像。
在本申请的一个实施例中,在将目标人像与虚拟背景进行合成时,可以获取用户在虚拟背景中的位置,根据用户在虚拟背景中的位置,将目标人像与虚拟背景进行合成。
用户在虚拟背景中的位置可以是用户在虚拟背景中预先选择的位置。或者,用户在虚拟背景中的位置可以是用户在虚拟背景中预分配的位置。
虚拟背景中的每个位置可以预先设置一个编号。例如,虚拟背景是教室,第1排左起第1个位置的编号为1.1,第1排左起第2个位置的编号为1.2,第1排左起第3个位置的编号为1.3,……;第2排左起第1个位置的编号为2.1,第2排左起第2个位置的编号为2.2,第2排左起第3个位置的编号为2.3……;第3排左起第1个位置的编号为3.1,第3排左起第2个位置的编号为3.2,第3排左起第3个位置的编号为3.3……依此类推。如果用户在虚拟背景中的位置为3.2,表示将用户的目标人像合成到虚拟背景中的第3排左起第2个位置。
在本申请的一个实施例中,在将目标人像与虚拟背景进行合成时,可以根据虚拟场景中位置的大小对目标人像进行缩放,将缩放后的目标人像与虚拟背景进行合成。
根据虚拟场景中位置的大小对目标人像进行缩放,是将目标人像调整为适应虚拟场景中位置的大小。虚拟场景中的位置越大,缩放后的目标人像就越大。虚拟场景中的位置越小,缩放后的目标人像就越小。
在本申请的另一个实施例中,可以根据用户在虚拟背景中的位置对目标人像进行缩放,将缩放后的目标人像与虚拟背景进行合成。根据用户在虚拟背景中的位置对目标人像进行缩放,是将目标人像调整为适应用户在虚拟背景中的位置(满足近大远小的规则)。用户在虚拟背景中的位置越靠前,缩放后的目标人像就越大。用户在虚拟背景中的位置越靠后,缩放后的目标人像就越小。当本申请实施例提供的图像背景替换方法应用在多人场景时,根据用户在虚拟背景中的位置对目标人像进行缩放,可以使背景替换图像看起来更加真实。例如,虚拟背景是阶梯教室,根据用户在虚拟背景中的位置对目标人像进行缩放,得到的背景替换图像中靠前的人像大,靠后的人像小,效果更加真实。
可以结合虚拟场景中位置的大小和用户在虚拟背景中的位置对目标人像进行缩放。
图5-图6是本申请实施例提供的图像背景替换方法的效果示意图。其中,图5是在多人场景下的背景替换,背景替换过程中未对目标人物进行缩放。如图5所示,根据本申请实施例提供的图像背景替换方法,可以得到包括预设的人体部位的背景替换图像。背景替换过程中未对目标人物进行缩放,得到的背景替换图像中人像的大小不一。
图6是在多人场景下的背景替换,背景替换过程中对目标人物进行缩放。如图6所示,根据本申请实施例提供的图像背景替换方法,可以得到包括预设的人体部位的背景替换图像。背景替换过程中,根据虚拟场景中位置的大小和用户在虚拟背景中的位置对目标人像进行缩放,得到的背景替换图像中同排的人像大小一致,不同排的人像大小有差别(靠前的人像大,靠后的人像小),背景替换图像的效果更加真实。
图4所示实施例中,计算设备将第一图像与第二图像进行合成,得到合成图像,合成图像包括用户的特征(例如用户的姿态),且包括用户的上半身正面信息。计算设备根据预设的人体部位对合成图像进行人像分割,得到目标人像,目标人像包括预设的人体部位。计算设备将目标人像与虚拟背景进行合成,得到背景替换图像。由于从合成图像分割得到的目标人像包括预设的人体部位,将目标人像与虚拟背景进行合成得到的背景替换图像中也包括预设的人体部位,从而实现了按照预设的人体部位进行背景替换,保证得到的背景替换图像包括预设的人体部位,提高了背景替换效果。
图7是本申请另一实施例提供的图像背景替换方法的流程图。所述图像背景替换方法应用于计算设备(例如图1-图3中计算设备101)。图7所示图像背景替换方法中,用于背景替换的第一图像是三维模型。图7所示图像背景替换方法中,计算设备在背景替换过程中对用户的姿态进行矫正,使背景替换效果进一步优化。
701,获取用户的第一图像,第一图像是三维模型,第一图像包括用户的上半身正面图像信息。
在本申请的一个实施例中,可以通过用户设备围绕用户的上半身旋转一周拍摄视频,根据视频建立离散特征点云,将离散特征点云进行网格化处理,得到初始模型,对初始模型进行纹理贴图,得到三维模型。
纹理是图像,纹理贴图是使用纹理对初始模型进行覆盖,将纹理排列放到初始模型上。经过纹理贴图得到的三维模型在视觉效果上会更加真实。
702,获取第二图像,第二图像包括用户的特征。
用户的特征可以包括用户的姿态。用户的特征还可以包括用户的表情。
获取第二图像的具体过程可以参阅上文对401的相关描述。
703,将第一图像与第二图像进行合成并根据预设的姿态对用户的姿态进行矫正,得到合成图像,合成图像包括用户的矫正后的姿态,且包括用户的上半身正面信息。
图7所示图像背景替换方法中,计算设备在将第一图像与第二图像进行合成的过程中,根据预设的姿态对用户的姿态进行矫正。
根据预设的姿态对用户的姿态进行矫正,是将用户的姿态矫正为预设的姿态。例如,用户的姿态为倾斜的坐姿(例如向左倾斜或向右倾斜),将倾斜的坐姿矫正为端正的坐姿。又如,用户的姿态为侧面姿态(即转头的姿态),将侧面姿态矫正为正面姿态。又如,用户的姿态为低头姿态,将低头姿态矫正为平视姿态。
将第一图像与第二图像进行合成并对用户的姿态进行矫正的具体过程将在图9中进行描述。
在本申请其他的实施例中,在第一图像为三维模型的情况下,在将第一图像与第二图像进行合成时,可以不对用户的姿态进行矫正。
704,根据预设的人体部位对合成图像进行人像分割,得到目标人像。
根据预设的人体部位对合成图像进行人像分割的具体过程可以参阅上文对404的相关描述。
705,将目标人像与虚拟背景进行合成,得到背景替换图像,背景替换图像包括目标人像。
将目标人像与虚拟背景进行合成的具体过程可以参阅上文对405的相关描述。
图7所示的图像背景替换方法中,计算设备将第一图像与第二图像进行合成,得到合成图像,合成图像包括用户的特征,且包括用户的上半身正面信息。计算设备根据预设的人体部位对合成图像进行人像分割,得到目标人像,将目标人像与虚拟背景进行合成,得到背景替换图像。由于从合成图像分割得到的目标人像包括预设的人体部位,将目标人像与虚拟背景进行合成得到的背景替换图像中也包括预设的人体部位,从而实现了按照预设的人体部位进行背景替换,保证得到的背景替换图像包括预设的人体部位,提高了背景替换效果。并且,图7所示的图像背景替换方法在将第一图像与第二图像进行合成时,根据预设的姿态对用户的姿态进行矫正,可以得到预设姿态的背景替换图像,进一步优化背景替换的效果。
图8A是根据本申请实施例提供的图像背景替换方法,未对用户的姿态进行矫正得到的背景替换图像的示意图。图8A所示的多人场景下,第二图像中用户的姿态不一,有的端正坐着,有的向左倾斜,有的向右倾斜。未对用户的姿态进行矫正得到的背景替换图像中,各个人像的人体部位一致(均包括人脸、脖子和肩膀),各个人像的姿态不一(有的是端正的坐姿,有的是向左倾斜的坐姿,有的是向右倾斜的坐姿)。
图8B是根据本申请实施例提供的图像背景替换方法,对用户的姿态进行矫正得到的背景替换图像的示意图。图8B所示的多人场景下,第二图像中用户的姿态不一,有的端正坐着,有的向左倾斜,有的向右倾斜。对用户的姿态进行矫正得到的背景替换图像中,各个人像的人体部位一致(均包括人脸、脖子和肩膀),各个人像的姿态一致(均为端正的坐姿),视觉效果更整齐,进一步优化背景替换的效果。
图9是本申请实施例提供的将第一图像与第二图像进行合成并对用户的姿态进行矫正的细化流程图。图9所示流程中,第一图像是三维模型。
901,对第二图像进行人脸分割,得到人脸图像。
可以将第二图像输入预先训练好的人脸分割网络,人脸分割网络输出人脸图像。
902,根据人脸图像生成脸部纹理。
在本申请的一个实施例中,可以将人脸图像输入人脸纹理生成模型,人脸纹理生成模型的输出为脸部纹理图。脸部纹理图包括用户的特征。人脸纹理生成模型可以是第二生成对抗网络模型。
可以利用目标用户的三维模型产生不同角度的二维人脸图像,将不同角度的二维人脸图像与三维模型的脸部纹理图作为训练数据,对神经网络进行训练,得到人脸纹理生成模型。神经网络的输入为不同角度的二维人脸图,输出为三维模型的人脸纹理图。由于神经网络的输入和输出都是二维图像,可以使用第二生成对抗网络模型进行训练。人脸纹理生成模型是针对目标人物得到的模型,可以对目标人物生成高质量的脸部纹理。
903,根据脸部纹理对三维模型进行脸部纹理替换,得到纹理替换后的三维模型。
904,将纹理替换后的三维模型矫正到预设的姿态对应的位置(例如正脸位置),得到矫正后的三维模型。
905,将矫正后的三维模型渲染到二维图像,得到合成图像。
图10是本申请实施例提供的图像背景替换装置的结构示意图,图10所示的图像背景替换装置1000用于实施图2、图6和图7示出的方法。
可选地,结合图1所示的应用场景来看,图10所示的图像背景替换装置1000可以设于图1-图3中的计算设备101图像背景替换装置1000包括获取单元1001、合成单元1002和分割单元1003。获取单元1001用于支持图像背景替换装置1000执行图4中步骤401、402和图7中步骤701和702。合成单元1002用于支持图像背景替换装置1000执行图4中步骤403、405和图7中步骤703和705。分割单元1003用于支持图像背景替换装置1000执行图4中步骤404和图7中步骤704。
图10所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
图像背景替换装置1000中的各个单元全部或部分地通过软件、硬件、固件或者其任意组合来实现。
在采用软件实现的情况下,例如,上述获取单元1001、合成单元1002和分割单元1003是由图11中的至少一个处理器1101读取存储器1102中存储的程序代码后,生成的软件功能单元来实现。
在采用硬件实现的情况下,例如,图10中上述各个单元由计算设备中的不同硬件分别实现,例如获取单元1001由图9中的至少一个处理器1101中的一部分处理资源(例如多核处理器中的一个核或两个核)实现,而合成单元1002和分割单元1003由图9中至少一个处理器1101中的其余部分处理资源(例如多核处理器中的其他核),或者采用现场可编程门阵列(field-programmable gate array,FPGA)、或协处理器等可编程器件来完成。
在采用软件硬件相结合的方式来实现的情况下,例如,合成单元1002由硬件可编程器件实现,而合成单元1002和分割单元1003是由CPU读取存储器中存储的程序代码后,生成的软件功能单元。
下面对计算设备相关的基本硬件结构举例说明。
图11是本申请实施例提供的一种计算设备的结构示意图。
可选地,图11所示的计算设备101用于执行图2、图6和图7示出的方法。
计算设备101包括至少一个处理器1101、存储器1102以及至少一个网络接口1103。
处理器1101例如是通用中央处理器(central processing unit,CPU)、网络处理器(network processer,NP)、图形处理器(graphics processing unit,GPU)、神经网络处理器(neural-network processing units,NPU)、数据处理单元(data processing unit,DPU)、微处理器或者一个或多个用于实现本申请方案的集成电路。例如,处理器1101包括专用集成电路(application-specific integrated circuit,ASIC),可编程逻辑器件(programmable logic device,PLD)或其组合。PLD例如是复杂可编程逻辑器件(complexprogrammable logic device,CPLD)、现场可编程逻辑门阵列(field-programmable gatearray,FPGA)、通用阵列逻辑(generic array logic,GAL)或其任意组合。
存储器1102例如是只读存储器(read-only memory,ROM)或可存储静态信息和指令的其它类型的静态存储设备,又如是随机存取存储器(random access memory,RAM)或者可存储信息和指令的其它类型的动态存储设备,又如是电可擦可编程只读存储器(electrically erasable programmable read-only Memory,EEPROM)、只读光盘(compactdisc read-only memory,CD-ROM)或其它光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其它磁存储设备,或者是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其它介质,但不限于此。可选地,存储器1102独立存在,并通过内部连接1104与处理器1101相连接。或者,可选地存储器1102和处理器1101集成在一起。
网络接口1103使用任何收发器一类的装置,用于与其它设备或通信网络通信。网络接口1103例如包括有线网络接口或者无线网络接口中的至少一项。其中,有线网络接口例如为以太网接口。以太网接口例如是光接口,电接口或其组合。无线网络接口例如为无线局域网(wireless local area networks,WLAN)接口,蜂窝网络接口或其组合等。
在一些实施例中,处理器1101包括一个或多个CPU,如图11中所示的CPU0和CPU1。
在一些实施例中,计算设备101可选地包括多个处理器,如图11中所示的处理器1101和处理器1105。这些处理器中的每一个例如是一个单核处理器(single-CPU),又如是一个多核处理器(multi-CPU)。这里的处理器可选地指一个或多个设备、电路、和/或用于处理数据(如计算机程序指令)的处理核。
在一些实施例中,计算设备101还包括内部连接1104。处理器1101、存储器1102以及至少一个网络接口1103通过内部连接1104连接。内部连接1104包括通路,在上述组件之间传送信息。可选地,内部连接1104是单板或总线。可选地,内部连接1104分为地址总线、数据总线、控制总线等。
在一些实施例中,计算设备101还包括输入输出接口1106。输入输出接口1106连接到内部连接1104上。
可选地,处理器1101通过读取存储器1102中保存的程序代码1110实现上述实施例中的方法,或者,处理器1101通过内部存储的程序代码实现上述实施例中的方法。在处理器1101通过读取存储器1102中保存的程序代码1110实现上述实施例中的方法的情况下,存储器1102中保存实现本申请实施例提供的方法的程序代码。
处理器1101实现上述功能的更多细节请参考前面各个方法实施例中的描述,在这里不再重复。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分可互相参考,每个实施例重点说明的都是与其他实施例的不同之处。
A参考B,指的是A与B相同或者A为B的简单变形。
本申请实施例的说明书和权利要求书中的术语“第一”和“第二”等是用于区别不同的对象,而不是用于描述对象的特定顺序,也不能理解为指示或暗示相对重要性。例如,第一资源和第二资源用于区别不同的资源,而不是用于描述资源的特定顺序,也不能理解为第一资源比第二资源更重要。
本申请实施例,除非另有说明,“至少一个”的含义是指一个或多个,“多个”的含义是指两个或两个以上。例如,多个业务请求是指两个或两个以上的业务请求。
上述实施例可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例描述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘SolidState Disk(SSD))等。
以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。
Claims (25)
1.一种图像背景替换方法,其特征在于,所述方法包括:
获取第一图像,所述第一图像为二维图像或三维模型,所述第一图像包括第一用户的上半身正面图像信息;
获取第二图像,所述第二图像包括所述第一用户的特征,所述特征包括姿态和/或表情;
将所述第一图像与所述第二图像进行合成,得到第一合成图像,所述第一合成图像包括所述第一用户的特征,且包括所述第一用户的上半身正面信息;
根据预设的人体部位对所述第一合成图像进行人像分割,得到所述第一用户对应的第一目标人像;
将所述第一目标人像与虚拟背景进行合成,得到背景替换图像,所述背景替换图像包括所述第一目标人像。
2.如权利要求1所述的图像背景替换方法,其特征在于,所述根据预设的人体部位对所述第一合成图像进行人像分割包括:
根据所述预设的人体部位确定人像尺寸,根据所述人像尺寸对所述第一合成图像进行人像分割;或者
根据所述预设的人体部位在所述第一合成图像中进行人体部位识别,根据识别的人体部位对所述第一合成图像进行人像分割。
3.如权利要求1或2所述的图像背景替换方法,其特征在于,所述将所述第一目标人像与虚拟背景进行合成包括:
根据所述虚拟场景中位置的大小和/或所述第一用户在所述虚拟背景中的位置对所述第一目标人像进行缩放;
将缩放后的第一目标人像与所述虚拟背景进行合成。
4.如权利要求3所述的图像背景替换方法,其特征在于,所述第一用户在所述虚拟背景中的位置由所述第一用户预先选择得到,或者预先分配得到。
5.如权利要求1-4中任一项所述的图像背景替换方法,所述第一用户的特征包括所述第一用户的姿态,其特征在于,所述将所述第一图像与所述第二图像进行合成包括:
根据预设的姿态对所述第一用户的姿态进行矫正;
根据所述第一用户的矫正后的姿态得到所述第一合成图像,所述第一合成图像包括所述第一用户的矫正后的姿态,且包括所述第一用户的上半身正面信息。
6.如权利要求5所述的图像背景替换方法,其特征在于,所述第一图像为三维模型,所述根据预设的姿态对所述第一用户的姿态进行矫正包括:
对所述第二图像进行人脸分割,得到人脸图像;
根据所述人脸图像生成脸部纹理;
根据所述脸部纹理对所述三维模型进行脸部纹理替换,得到纹理替换后的三维模型,所述纹理替换后的三维模型包括所述第一用户的姿态;
将所述纹理替换后的三维模型矫正到所述预设的姿态对应的位置,得到矫正后的三维模型,所述矫正后的三维模型包括所述第一用户的矫正后的姿态;
所述根据所述第一用户的矫正后的姿态得到所述第一合成图像包括:
将所述矫正后的三维模型渲染到二维图像,得到所述第一合成图像。
7.如权利要求1-6中任一项所述的图像背景替换方法,其特征在于,所述获取第一图像包括:
根据所述虚拟背景的环境从预先存储的多个第一图像中选择一个。
8.如权利要求1-7中任一项所述的图像背景替换方法,其特征在于,所述第二图像还包括第二用户的特征,所述方法还包括:
获取第三图像,所述第三图像为二维图像或三维模型,所述第三图像包括所述第二用户的上半身正面图像信息;
将所述第三图像与所述第二图像进行合成,得到第二合成图像,所述第二合成图像包括所述第二用户的特征,且包括所述第二用户的上半身正面信息;
根据预设的人体部位对所述第二合成图像进行人像分割,得到所述第二用户对应的第二目标人像;
所述将所述第一目标人像与虚拟背景进行合成,得到背景替换图像包括:
将所述第一目标人像、所述第二目标人像与所述虚拟背景进行合成,得到所述背景替换图像,所述背景替换图像包括所述第一目标人像和所述第二目标人像。
9.如权利要求1-8中任一项所述的图像背景替换方法,其特征在于,所述第二图像是实时获取的,所述用户的特征包括所述用户的实时的姿态和/或表情。
10.如权利要求9所述的图像背景替换方法,其特征在于,所述获取第二图像包括:
实时获取包含所述用户的特征的视频;
从所述视频中得到所述第二图像。
11.如权利要求10所述的图像背景替换方法,其特征在于,所述从所述视频中得到所述第二图像包括:
从所述视频中获取图像帧;
对所述图像帧进行人像分割,得到所述第二图像。
12.一种图像背景替换装置,其特征在于,所述装置包括:
获取单元,用于获取第一图像,所述第一图像为二维图像或三维模型,所述第一图像包括第一用户的上半身正面图像信息;
所述获取单元,还用于获取第二图像,所述第二图像包括所述第一用户的特征,所述特征包括姿态和/或表情;
合成单元,用于将所述第一图像与所述第二图像进行合成,得到第一合成图像,所述第一合成图像包括所述第一用户的特征,且包括所述第一用户的上半身正面信息;
分割单元,用于根据预设的人体部位对所述第一合成图像进行人像分割,得到所述第一用户对应的第一目标人像;
所述合成单元,还用于将所述第一目标人像与虚拟背景进行合成,得到背景替换图像,所述背景替换图像包括所述第一目标人像。
13.如权利要求12所述的图像背景替换装置,其特征在于,所述分割单元用于:
根据所述预设的人体部位确定人像尺寸,根据所述人像尺寸对所述第一合成图像进行人像分割;或者
根据所述预设的人体部位在所述第一合成图像中进行人体部位识别,根据识别的人体部位对所述第一合成图像进行人像分割。
14.如权利要求12或13所述的图像背景替换装置,其特征在于,所述合成单元用于:
根据所述虚拟场景中位置的大小和/或所述第一用户在所述虚拟背景中的位置对所述第一目标人像进行缩放;
将缩放后的第一目标人像与所述虚拟背景进行合成。
15.如权利要求14所述的图像背景替换装置,其特征在于,所述用户在所述虚拟背景中的位置由所述用户预先选择得到,或者预先分配得到。
16.如权利要求12-15中任一项所述的图像背景替换装置,所述第一用户的特征包括所述第一用户的姿态,其特征在于,所述合成单元用于:
根据预设的姿态对所述第一用户的姿态进行矫正;
根据所述第一用户的矫正后的姿态得到所述第一合成图像,所述第一合成图像包括所述第一用户的矫正后的姿态,且包括所述第一用户的上半身正面信息。
17.如权利要求16所述的图像背景替换装置,其特征在于,所述第一图像为三维模型,所述合成单元用于:
对所述第二图像进行人脸分割,得到人脸图像;
根据所述人脸图像生成脸部纹理;
根据所述脸部纹理对所述三维模型进行脸部纹理替换,得到纹理替换后的三维模型,所述纹理替换后的三维模型包括所述第一用户的姿态;
将所述纹理替换后的三维模型矫正到所述预设的姿态对应的位置,得到矫正后的三维模型,所述矫正后的三维模型包括所述第一用户的矫正后的姿态;
将所述矫正后的三维模型渲染到二维图像,得到所述第一合成图像。
18.如权利要求12-17中任一项所述的图像背景替换装置,其特征在于,所述获取单元用于:
根据所述虚拟背景的环境从预先存储的多个第一图像中选择一个。
19.如权利要求12-18中任一项所述的图像背景替换装置,其特征在于,所述第二图像还包括第二用户的特征,所述获取单元还用于:
获取第三图像,所述第三图像为二维图像或三维模型,所述第三图像包括所述第二用户的上半身正面图像信息;
所述合成单元还用于:
将所述第三图像与所述第二图像进行合成,得到第二合成图像,所述第二合成图像包括所述第二用户的特征,且包括所述第二用户的上半身正面信息;
所述分割单元还用于:
根据预设的人体部位对所述第二合成图像进行人像分割,得到所述第二用户对应的第二目标人像;
所述合成单元用于:
将所述第一目标人像、所述第二目标人像与所述虚拟背景进行合成,得到所述背景替换图像,所述背景替换图像包括所述第一目标人像和所述第二目标人像。
20.如权利要求12-19中任一项所述的图像背景替换装置,其特征在于,所述第二图像是实时获取的,所述用户的特征包括所述用户的实时的姿态和/或表情。
21.如权利要求20所述的图像背景替换装置,其特征在于,所述获取单元用于:
实时获取包含所述用户的特征的视频,从所述视频中得到所述第二图像。
22.如权利要求21所述的图像背景替换装置,其特征在于,所述获取单元用于:
从所述视频中获取图像帧;
对所述图像帧进行人像分割,得到所述第二图像。
23.一种计算机可读存储介质,其特征在于,包括计算机指令,当所述计算机指令在计算设备上运行时,使得所述计算设备执行如权利要求1至11中任一项所述的图像背景替换方法。
24.一种计算设备,其特征在于,所述计算设备包括处理器和存储器,所述存储器,用于存储指令,所述处理器用于调用所述存储器中的指令,使得所述计算设备执行如权利要求1至11中任一项所述的图像背景替换方法。
25.一种芯片系统,其特征在于,该芯片系统应用于计算设备;芯片系统包括接口电路和处理器;接口电路和处理器通过线路互联;接口电路用于从计算设备的存储器接收信号,并向处理器发送信号,信号包括存储器中存储的计算机指令;当处理器执行该计算机指令时,芯片系统执行如权利要求1至11中任一项所述的图像背景替换方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211084989.XA CN117710496A (zh) | 2022-09-06 | 2022-09-06 | 图像背景替换方法及相关设备 |
PCT/CN2023/102696 WO2024051289A1 (zh) | 2022-09-06 | 2023-06-27 | 图像背景替换方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211084989.XA CN117710496A (zh) | 2022-09-06 | 2022-09-06 | 图像背景替换方法及相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117710496A true CN117710496A (zh) | 2024-03-15 |
Family
ID=90159363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211084989.XA Pending CN117710496A (zh) | 2022-09-06 | 2022-09-06 | 图像背景替换方法及相关设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN117710496A (zh) |
WO (1) | WO2024051289A1 (zh) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019083509A1 (en) * | 2017-10-24 | 2019-05-02 | Hewlett-Packard Development Company, L.P. | PEOPLE SEGMENTATIONS FOR BACKGROUND REPLACEMENTS |
CN110390704B (zh) * | 2019-07-11 | 2021-02-12 | 深圳追一科技有限公司 | 图像处理方法、装置、终端设备及存储介质 |
CN113240702A (zh) * | 2021-06-25 | 2021-08-10 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
-
2022
- 2022-09-06 CN CN202211084989.XA patent/CN117710496A/zh active Pending
-
2023
- 2023-06-27 WO PCT/CN2023/102696 patent/WO2024051289A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024051289A1 (zh) | 2024-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11995902B2 (en) | Facial signature methods, systems and software | |
CN114219878B (zh) | 虚拟角色的动画生成方法及装置、存储介质、终端 | |
US20230132407A1 (en) | Method and device of video virtual background image processing and computer apparatus | |
JP7387202B2 (ja) | 3次元顔モデル生成方法、装置、コンピュータデバイス及びコンピュータプログラム | |
CN108830892B (zh) | 人脸图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN106981078B (zh) | 视线校正方法、装置、智能会议终端及存储介质 | |
US11849102B2 (en) | System and method for processing three dimensional images | |
CN109147012B (zh) | 图像处理方法和装置 | |
US20140177906A1 (en) | Generating static scenes | |
CN114097248A (zh) | 一种视频流处理方法、装置、设备及介质 | |
CN112308977B (zh) | 视频处理方法、视频处理装置和存储介质 | |
CN115239857B (zh) | 图像生成方法以及电子设备 | |
CN111836058B (zh) | 用于实时视频播放方法、装置、设备以及存储介质 | |
CN108227925A (zh) | 一种坐姿调整的方法、装置、设备及存储介质 | |
WO2022083118A1 (zh) | 一种数据处理方法及相关设备 | |
CN116567349A (zh) | 基于多摄像机的视频展示方法、装置及存储介质 | |
CN116563506A (zh) | 直播场景下基于xr设备的三维表情人脸还原方法、系统及设备 | |
US20220408015A1 (en) | Matching Active Speaker Pose Between Two Cameras | |
WO2024051289A1 (zh) | 图像背景替换方法及相关设备 | |
CN115997379A (zh) | 用于立体渲染的图像fov的复原 | |
CN112734657A (zh) | 基于人工智能和三维模型的云合影方法、装置及存储介质 | |
CN113344997B (zh) | 快速获取只含有目标对象的高清前景图的方法及系统 | |
CN113873175B (zh) | 视频播放方法、装置和存储介质及电子设备 | |
WO2023005200A1 (zh) | 图像生成方法、装置及系统、计算机可读存储介质 | |
WO2024113779A1 (zh) | 图像处理方法、装置及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |