CN108171716A - 基于自适应跟踪框分割的视频人物装扮方法及装置 - Google Patents
基于自适应跟踪框分割的视频人物装扮方法及装置 Download PDFInfo
- Publication number
- CN108171716A CN108171716A CN201711423813.1A CN201711423813A CN108171716A CN 108171716 A CN108171716 A CN 108171716A CN 201711423813 A CN201711423813 A CN 201711423813A CN 108171716 A CN108171716 A CN 108171716A
- Authority
- CN
- China
- Prior art keywords
- frame images
- image
- frame
- dressed
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 115
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000003044 adaptive effect Effects 0.000 title claims abstract description 25
- 238000012545 processing Methods 0.000 claims abstract description 138
- 230000000694 effects Effects 0.000 claims abstract description 135
- 238000009432 framing Methods 0.000 claims description 18
- 230000004927 fusion Effects 0.000 claims description 18
- 238000004891 communication Methods 0.000 claims description 17
- 235000013399 edible fruits Nutrition 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 8
- 210000004709 eyebrow Anatomy 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 210000004209 hair Anatomy 0.000 description 2
- 235000002673 Dioscorea communis Nutrition 0.000 description 1
- 241000544230 Dioscorea communis Species 0.000 description 1
- 208000035753 Periorbital contusion Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000001035 drying Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Studio Circuits (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于自适应跟踪框分割的视频人物装扮方法及装置,该方法包括:基于与第t‑1帧图像对应的跟踪框得到与第t帧图像对应的跟踪框,并利用该跟踪框对第t帧图像进行场景分割;根据分割结果,确定第t帧图像的第二前景图像,并确定至少一个待装扮区域;对至少一个待装扮区域添加美化效果,得到处理后的第t帧图像。该方案根据视频的帧图像的分割结果能够快速、精准地确定待装扮区域,并对待装扮区域添加美化效果,与现有技术通过模糊处理方式对视频进行处理相比,不仅能够精准地对视频中的人物添加美化效果,而且处理后的视频画面清晰,提高了视频数据显示效果。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于自适应跟踪框分割的视频人物装扮方法、装置、计算设备及计算机存储介质。
背景技术
随着图像处理功能的不断发展,用户对视频效果的要求也越来越高,希望美化视频中的人物,使得人物看起来更加美观。现有技术中在对视频中的人物进行美化时,大多是通过模糊处理方式处理视频的帧图像,实现对人物的美颜,例如去除人物面部的暗斑、黑眼圈,提亮肤色等。虽然通过这种方式能够在一定程度上对人物进行美化,但是处理后所得到的视频的显示效果不佳,视频的画面不够清晰,并且背景也比较虚化,缺乏真实性。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的基于自适应跟踪框分割的视频人物装扮方法、装置、计算设备及计算机存储介质。
根据本发明的一个方面,提供了一种基于自适应跟踪框分割的视频人物装扮方法,该方法用于对视频中每隔n帧划分得到的各组帧图像进行处理,针对其中一组帧图像,该方法包括:
获取一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框,其中t大于1;与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的;
依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果;
根据与第t帧图像对应的分割结果,确定第t帧图像的第二前景图像,并根据第二前景图像,确定第二前景图像中的至少一个待装扮区域;
对至少一个待装扮区域添加美化效果,得到处理后的第t帧图像;
将处理后的第t帧图像覆盖第t帧图像得到处理后的视频数据;
显示处理后的视频数据。
进一步地,若待装扮区域为多个,对至少一个待装扮区域添加美化效果,得到处理后的第t帧图像进一步包括:
针对每个待装扮区域,从待装扮区域中提取出待装扮区域的关键信息;
依据多个待装扮区域的关键信息,计算多个待装扮区域的相对距离比例关系;
根据相对距离比例关系,对多个待装扮区域对应的像素点进行调整,得到处理后的第t帧图像。
进一步地,对至少一个待装扮区域添加美化效果,得到处理后的第t帧图像进一步包括:
从至少一个待装扮区域中提取出至少一个待装扮区域的关键信息;
根据至少一个待装扮区域的关键信息,绘制美妆效果贴图;
将美妆效果贴图与第二前景图像进行融合处理,得到处理后的第t帧图像。
进一步地,关键信息为关键点信息;
根据至少一个待装扮区域的关键信息,绘制美妆效果贴图进一步包括:
查找与关键点信息匹配的基础美妆效果贴图;或者,获取用户指定的基础美妆效果贴图;
根据关键点信息,计算具有对称关系的至少两个关键点之间的位置信息;
依据位置信息,对基础美妆效果贴图进行处理,得到美妆效果贴图。
进一步地,依据位置信息,对基础美妆效果贴图进行处理,得到美妆效果贴图进一步包括:
依据位置信息中的距离信息,对基础美妆效果贴图进行缩放处理;和/或,依据位置信息中的旋转角度信息,对基础美妆效果贴图进行旋转处理。
进一步地,将美妆效果贴图与第二前景图像进行融合处理,得到处理后的第t帧图像进一步包括:
将美妆效果贴图、第二前景图像与预设背景图像进行融合处理,得到处理后的第t帧图像;或者,将美妆效果贴图、第二前景图像与根据与第t帧图像对应的分割结果确定的第二背景图像进行融合处理,得到处理后的第t帧图像。
进一步地,依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理进一步包括:
对第t帧图像进行识别处理,确定第t帧图像中针对特定对象的第一前景图像;
将与第t-1帧图像对应的跟踪框应用于第t帧图像;
根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理。
进一步地,根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理进一步包括:
计算第t帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例,将比例确定为第t帧图像的第一前景像素比例;
获取第t-1帧图像的第二前景像素比例,其中,第t-1帧图像的第二前景像素比例为第t-1帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例;
计算第t帧图像的第一前景像素比例与第t-1帧图像的第二前景比例之间的差异值;
判断差异值是否超过预设差异阈值;若是,则根据差异值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
进一步地,根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理进一步包括:
计算第t帧图像中的第一前景图像距离与第t-1帧图像对应的跟踪框的各边框的距离;
根据距离和预设距离阈值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
进一步地,根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理进一步包括:
根据第t帧图像中的第一前景图像,确定第t帧图像中的第一前景图像的中心点位置;
依据第t帧图像中的第一前景图像的中心点位置,对与第t-1帧图像对应的跟踪框的位置进行调整处理,以使与第t-1帧图像对应的跟踪框的中心点位置与第t帧图像中的第一前景图像的中心点位置重合。
进一步地,根据与第t帧图像对应的跟踪框,对第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果进一步包括:
根据与第t帧图像对应的跟踪框,从第t帧图像的部分区域提取出待分割图像;
对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果;
依据与待分割图像对应的分割结果,得到与第t帧图像对应的分割结果。
进一步地,根据与第t帧图像对应的跟踪框,从第t帧图像的部分区域提取出待分割图像进一步包括:
从第t帧图像中提取出与第t帧图像对应的跟踪框中的图像,将提取出的图像确定为待分割图像。
进一步地,对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果进一步包括:
将待分割图像输入至场景分割网络中,得到与待分割图像对应的分割结果。
进一步地,显示处理后的视频数据进一步包括:将处理后的视频数据实时显示;
该方法还包括:将处理后的视频数据上传至云服务器。
进一步地,将处理后的视频数据上传至云服务器进一步包括:
将处理后的视频数据上传至云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。
进一步地,将处理后的视频数据上传至云服务器进一步包括:
将处理后的视频数据上传至云直播服务器,以供云直播服务器将视频数据实时推送给观看用户客户端。
进一步地,将处理后的视频数据上传至云服务器进一步包括:
将处理后的视频数据上传至云公众号服务器,以供云公众号服务器将视频数据推送给公众号关注客户端。
根据本发明的另一方面,提供了一种基于自适应跟踪框分割的视频人物装扮装置,该装置用于对视频中每隔n帧划分得到的各组帧图像进行处理,该装置包括:
获取模块,适于获取一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框,其中t大于1;与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的;
分割模块,适于依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果;
确定模块,适于根据与第t帧图像对应的分割结果,确定第t帧图像的第二前景图像,并根据第二前景图像,确定第二前景图像中的至少一个待装扮区域;
处理模块,适于对至少一个待装扮区域添加美化效果,得到处理后的第t帧图像;
覆盖模块,适于将处理后的第t帧图像覆盖第t帧图像得到处理后的视频数据;
显示模块,适于显示处理后的视频数据。
进一步地,若待装扮区域为多个,处理模块进一步适于:
针对每个待装扮区域,从待装扮区域中提取出待装扮区域的关键信息;
依据多个待装扮区域的关键信息,计算多个待装扮区域的相对距离比例关系;
根据相对距离比例关系,对多个待装扮区域对应的像素点进行调整,得到处理后的第t帧图像。
进一步地,处理模块进一步适于:
从至少一个待装扮区域中提取出至少一个待装扮区域的关键信息;
根据至少一个待装扮区域的关键信息,绘制美妆效果贴图;
将美妆效果贴图与第二前景图像进行融合处理,得到处理后的第t帧图像。
进一步地,关键信息为关键点信息;
处理模块进一步适于:
查找与关键点信息匹配的基础美妆效果贴图;或者,获取用户指定的基础美妆效果贴图;
根据关键点信息,计算具有对称关系的至少两个关键点之间的位置信息;
依据位置信息,对基础美妆效果贴图进行处理,得到美妆效果贴图。
进一步地,处理模块进一步适于:
依据位置信息中的距离信息,对基础美妆效果贴图进行缩放处理;和/或,依据位置信息中的旋转角度信息,对基础美妆效果贴图进行旋转处理。
进一步地,处理模块进一步适于:
将美妆效果贴图、第二前景图像与预设背景图像进行融合处理,得到处理后的第t帧图像;或者,将美妆效果贴图、第二前景图像与根据与第t帧图像对应的分割结果确定的第二背景图像进行融合处理,得到处理后的第t帧图像。
进一步地,分割模块进一步适于:
对第t帧图像进行识别处理,确定第t帧图像中针对特定对象的第一前景图像;
将与第t-1帧图像对应的跟踪框应用于第t帧图像;
根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理。
进一步地,分割模块进一步适于:
计算第t帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例,将比例确定为第t帧图像的第一前景像素比例;
获取第t-1帧图像的第二前景像素比例,其中,第t-1帧图像的第二前景像素比例为第t-1帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例;
计算第t帧图像的第一前景像素比例与第t-1帧图像的第二前景比例之间的差异值;
判断差异值是否超过预设差异阈值;若是,则根据差异值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
进一步地,分割模块进一步适于:
计算第t帧图像中的第一前景图像距离与第t-1帧图像对应的跟踪框的各边框的距离;
根据距离和预设距离阈值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
进一步地,分割模块进一步适于:
根据第t帧图像中的第一前景图像,确定第t帧图像中的第一前景图像的中心点位置;
依据第t帧图像中的第一前景图像的中心点位置,对与第t-1帧图像对应的跟踪框的位置进行调整处理,以使与第t-1帧图像对应的跟踪框的中心点位置与第t帧图像中的第一前景图像的中心点位置重合。
进一步地,分割模块进一步适于:
根据与第t帧图像对应的跟踪框,从第t帧图像的部分区域提取出待分割图像;
对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果;
依据与待分割图像对应的分割结果,得到与第t帧图像对应的分割结果。
进一步地,分割模块进一步适于:
从第t帧图像中提取出与第t帧图像对应的跟踪框中的图像,将提取出的图像确定为待分割图像。
进一步地,分割模块进一步适于:
将待分割图像输入至场景分割网络中,得到与待分割图像对应的分割结果。
进一步地,显示模块进一步适于:将处理后的视频数据实时显示;
该装置还包括:上传模块,适于将处理后的视频数据上传至云服务器。
进一步地,上传模块进一步适于:
将处理后的视频数据上传至云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。
进一步地,上传模块进一步适于:
将处理后的视频数据上传至云直播服务器,以供云直播服务器将视频数据实时推送给观看用户客户端。
进一步地,上传模块进一步适于:
将处理后的视频数据上传至云公众号服务器,以供云公众号服务器将视频数据推送给公众号关注客户端。
根据本发明的又一方面,提供了一种计算设备,包括:处理器、存储器、通信接口和通信总线,处理器、存储器和通信接口通过通信总线完成相互间的通信;
存储器用于存放至少一可执行指令,可执行指令使处理器执行上述基于自适应跟踪框分割的视频人物装扮方法对应的操作。
根据本发明的再一方面,提供了一种计算机存储介质,存储介质中存储有至少一可执行指令,可执行指令使处理器执行如上述基于自适应跟踪框分割的视频人物装扮方法对应的操作。
根据本发明提供的技术方案,利用跟踪框对帧图像进行场景分割,能够快速、精准地得到帧图像对应的分割结果,有效地提高了图像场景分割的分割精度,并且仅对帧图像的部分区域进行场景分割处理,有效地减少了图像场景分割的数据处理量,提高了处理效率;并且根据视频的帧图像的分割结果能够快速、精准地确定待装扮区域,并对待装扮区域添加美化效果,与现有技术通过模糊处理方式对视频进行处理相比,不仅能够便捷、精准地对视频中的人物添加美化效果,提高了视频数据处理效率,而且处理后的视频画面清晰,提高了视频数据显示效果。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了根据本发明一个实施例的基于自适应跟踪框分割的视频人物装扮方法的流程示意图;
图2示出了根据本发明另一个实施例的基于自适应跟踪框分割的视频人物装扮方法的流程示意图;
图3示出了根据本发明一个实施例的基于自适应跟踪框分割的视频人物装扮装置的结构框图;
图4示出了根据本发明实施例的一种计算设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
由于在视频拍摄或视频录制的过程中,所拍摄或所录制的人体等特定对象的数量可能会发生变化,例如,帧图像中增加了新的视频人物,本发明对视频中每隔n帧划分得到的各组帧图像进行处理,从而更为精准对视频中的帧图像进行场景分割处理,其中,n可以为固定预设值。
图1示出了根据本发明一个实施例的基于自适应跟踪框分割的视频人物装扮方法的流程示意图,该方法用于对视频中每隔n帧划分得到的各组帧图像进行处理,如图1所示,针对其中一组帧图像,该方法包括如下步骤:
步骤S100,获取一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框。
其中,帧图像中包含有特定对象,特定对象可为人体等。本领域技术人员可根据实际需要对特定对象进行设置,此处不做限定。当需要对一组帧图像中的第t帧图像进行场景分割时,其中t大于1,在步骤S100中,获取第t帧图像以及与第t-1帧图像对应的跟踪框。
前景图像可以仅包含特定对象,背景图像为帧图像中除前景图像之外的图像。为了将在分割处理前的帧图像中的前景图像和在分割处理后的帧图像中的前景图像进行区分,在本发明中,将在分割处理前的帧图像中的前景图像称为第一前景图像,将在分割处理后的帧图像中的前景图像称为第二前景图像。同理,将在分割处理前的帧图像中的背景图像称为第一背景图像,将在分割处理后的帧图像中的背景图像称为第二背景图像。
其中,与第t-1帧图像对应的跟踪框能够完全将第t-1帧图像中的第一前景图像框选在内。具体地,与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的。跟踪框可以为矩形框,用于框选帧图像中的第一前景图像,实现对帧图像中特定对象的跟踪。
步骤S101,依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果。
在利用跟踪框对第一前景图像进行跟踪的过程中,跟踪框需要根据每一个帧图像进行调整,那么针对第t帧图像,可对与第t-1帧图像对应的跟踪框的大小和位置进行调整,使得调整后的跟踪框能够适用于第t帧图像,从而得到与第t帧图像对应的跟踪框。由于与第t帧图像对应的跟踪框能够将第t帧图像中的第一前景图像框选在内,因此可根据与第t帧图像对应的跟踪框,对第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果。例如,可对第t帧图像中与第t帧图像对应的跟踪框所框选的区域进行场景分割处理。与现有技术中对帧图像的全部内容进行场景分割处理相比,本发明仅对帧图像的部分区域进行场景分割处理,有效地减少了图像场景分割的数据处理量,提高了处理效率。
步骤S102,根据与第t帧图像对应的分割结果,确定第t帧图像的第二前景图像,并根据第二前景图像,确定第二前景图像中的至少一个待装扮区域。
根据与第t帧图像对应的分割结果可清楚地确定出第t帧图像中哪些像素点属于第二前景图像,哪些像素点属于第二背景图像,从而确定出第t帧图像的第二前景图像。在确定出第t帧图像的第二前景图像之后,可对第二前景图像进行识别,从而确定出第二前景图像中的至少一个待装扮区域。具体地,可采用现有技术中的图像识别方法对第二前景图像进行识别,还可利用经过训练的识别网络识别第二前景图像中的至少一个待装扮区域。由于识别网络是经过训练的,所以将第二前景图像输入至识别网络中,就可方便地得到第二前景图像中的至少一个待装扮区域。
以特定对象为人体为例,至少一个待装扮区域可以包括人体的五官区域以及脸颊、额头和下巴等部位对应区域等,其中,五官区域可泛指面部区域中眉毛等各部位的区域,具体地,五官区域可包括:眉毛、眼睛、耳朵、鼻子和嘴巴等部位对应的区域。
步骤S103,对至少一个待装扮区域添加美化效果,得到处理后的第t帧图像。
在确定了至少一个待装扮区域之后,对至少一个待装扮区域添加美化效果,得到处理后的第t帧图像。本领域技术人员可根据实际需要添加美化效果,此处不做限定。具体地,可通过绘制与待装扮区域对应的美妆效果贴图,然后将美妆效果贴图与第二前景图像进行融合处理,得到处理后的第t帧图像,例如,针对待装扮区域中的眉毛区域,可绘制与眉毛区域对应的眉型效果贴图;针对装扮区域中的眼睛区域,可绘制与眼睛区域对应的眼影效果贴图。另外,也可对多个待装扮区域对应的像素点进行调整,从而得到处理后的第t帧图像。
步骤S104,将处理后的第t帧图像覆盖第t帧图像得到处理后的视频数据。
使用处理后的第t帧图像直接覆盖掉原来的第t帧图像,直接可以得到处理后的视频数据。同时,录制的用户还可以直接看到处理后的第t帧图像。
在得到处理后的第t帧图像时,会将处理后的第t帧图像直接覆盖原来的第t帧图像。覆盖时的速度较快,一般在1/24秒之内完成。对于用户而言,由于覆盖处理的时间相对短,人眼没有明显的察觉,即人眼没有察觉到视频数据中的原第t帧图像被覆盖的过程。这样在后续显示处理后的视频数据时,相当于一边拍摄和/或录制和/或播放视频数据时,一边实时显示的为处理后的视频数据,用户不会感觉到视频数据中帧图像发生覆盖的显示效果。
步骤S105,显示处理后的视频数据。
得到处理后的视频数据后,可以将其实时的进行显示,用户可以直接看到处理后的视频数据的显示效果。
根据本实施例提供的基于自适应跟踪框分割的视频人物装扮方法,利用跟踪框对帧图像进行场景分割,能够快速、精准地得到帧图像对应的分割结果,有效地提高了图像场景分割的分割精度,并且仅对帧图像的部分区域进行场景分割处理,有效地减少了图像场景分割的数据处理量,提高了处理效率;并且根据视频的帧图像的分割结果能够快速、精准地确定待装扮区域,并对待装扮区域添加美化效果,与现有技术通过模糊处理方式对视频进行处理相比,不仅能够便捷、精准地对视频中的人物添加美化效果,提高了视频数据处理效率,而且处理后的视频画面清晰,提高了视频数据显示效果。
图2示出了根据本发明另一个实施例的基于自适应跟踪框分割的视频人物装扮方法的流程示意图,该方法用于对视频中每隔n帧划分得到的各组帧图像进行处理,如图2所示,针对其中一组帧图像,该方法包括如下步骤:
步骤S200,获取一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框。
其中t大于1。例如,当t为2时,在步骤S200中,获取一组帧图像中包含有特定对象的第2帧图像以及与第1帧图像对应的跟踪框,具体地,与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的;当t为3时,在步骤S200中,获取一组帧图像中包含有特定对象的第3帧图像以及与第2帧图像对应的跟踪框,其中,与第2帧图像对应的跟踪框是在对第2帧图像进行场景分割处理的过程中,对与第1帧图像对应的跟踪框进行调整得到的。
步骤S201,对第t帧图像进行识别处理,确定第t帧图像中针对特定对象的第一前景图像,将与第t-1帧图像对应的跟踪框应用于第t帧图像,并根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理。
具体地,可利用现有技术中的AE(Adobe After Effects)、NUKE(The FoundryNuke)等图像处理工具对第t帧图像进行识别处理,可识别出第t帧图像中哪些像素点属于第一前景图像,从而确定得到第t帧图像中针对特定对象的第一前景图像。在确定第一前景图像之后,可将与第t-1帧图像对应的跟踪框设置在第t帧图像上,以便根据第t帧图像中的第一前景图像对该跟踪框进行调整,从而得到与第t帧图像对应的跟踪框。
具体地,可计算第t帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例,将该比例确定为第t帧图像的第一前景像素比例,接着获取第t-1帧图像的第二前景像素比例,其中,第t-1帧图像的第二前景像素比例为第t-1帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例,然后计算第t帧图像的第一前景像素比例与第t-1帧图像的第二前景比例之间的差异值,判断差异值是否超过预设差异阈值,如果判断得到差异值超过预设差异阈值,说明与第t-1帧图像对应的跟踪框与第t帧图像中的第一前景图像不相匹配,则根据差异值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。如果判断得到差异值未超过预设差异阈值,则可不对与第t-1帧图像对应的跟踪框的大小进行调整处理。本领域技术人员可根据实际需要对预设差异阈值进行设置,此处不做限定。
假设在将与第t-1帧图像对应的跟踪框应用于第t帧图像之后,虽然与第t-1帧图像对应的跟踪框能够完全将第t帧图像中的第一前景图像框选在内,但是第t帧图像的第一前景像素比例与第t-1帧图像的第二前景比例之间的差异值超过了预设差异阈值,说明对于第t帧图像中的第一前景图像,与第t-1帧图像对应的跟踪框可能较大或较小,因此需要对与第t-1帧图像对应的跟踪框的大小进行调整处理。例如,当第t帧图像的第一前景像素比例为0.9,第t-1帧图像的第二前景比例为0.7,且两比例之间的差异值超过了预设差异阈值,那么可根据差异值将与第t-1帧图像对应的跟踪框的大小进行适应性地放大;又如,当第t帧图像的第一前景像素比例为0.5,第t-1帧图像的第二前景比例为0.7,且两比例之间的差异值超过了预设差异阈值,那么可根据差异值将与第t-1帧图像对应的跟踪框的大小进行适应性地缩小。
可选地,计算第t帧图像中的第一前景图像距离与第t-1帧图像对应的跟踪框的各边框的距离;根据计算得到的距离和预设距离阈值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。本领域技术人员可根据实际需要对预设距离阈值进行设置,此处不做限定。例如,计算得到的距离小于预设距离阈值,那么可将与第t-1帧图像对应的跟踪框的大小进行适应性地放大,使得第t帧图像中的第一前景图像距离该跟踪框的各边框的距离符合预设距离阈值;又如,计算得到的距离大于预设距离阈值,那么可将与第t-1帧图像对应的跟踪框的大小进行适应性地缩小,使得第t帧图像中的第一前景图像距离该跟踪框的各边框的距离符合预设距离阈值。
另外,还可根据第t帧图像中的第一前景图像,确定第t帧图像中的第一前景图像的中心点位置;依据第t帧图像中的第一前景图像的中心点位置,对与第t-1帧图像对应的跟踪框的位置进行调整处理,以使与第t-1帧图像对应的跟踪框的中心点位置与第t帧图像中的第一前景图像的中心点位置重合,从而使第一前景图像能够位于跟踪框中间。
步骤S202,根据与第t帧图像对应的跟踪框,从第t帧图像的部分区域提取出待分割图像。
具体地,可从第t帧图像中提取出与第t帧图像对应的跟踪框中的图像,将提取出的图像确定为待分割图像。由于与第t帧图像对应的跟踪框能够完全将第t帧图像中的第一前景图像框选在内,那么在第t帧图像中属于该跟踪框之外的像素点均属于第二背景图像,因此在得到了与第t帧图像对应的跟踪框之后,可从第t帧图像中提取出与第t帧图像对应的跟踪框中的图像,并将该图像确定为待分割图像,后续仅对该待分割图像进行场景分割处理,有效地减少了图像场景分割的数据处理量,提高了处理效率。
步骤S203,对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果。
由于与第t帧图像对应的跟踪框能够完全将第t帧图像中的第一前景图像框选在内,那么无需对在第t帧图像中属于该跟踪框之外的像素点进行场景分割处理即可确定属于该跟踪框之外的像素点均属于第二背景图像,因此可仅对提取出的待分割图像进行场景分割处理。
其中,在对待分割图像进行场景分割处理时,可以利用深度学习方法。深度学习是机器学习中一种基于对数据进行表征学习的方法。观测值(例如一幅图像)可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更容易从实例中学习任务。可利用深度学习的分割方法对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果。其中,可利用深度学习方法得到的场景分割网络等对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果,根据分割结果可以确定出待分割图像中哪些像素点属于第二前景图像,哪些像素点属于第二背景图像。
具体地,可将待分割图像输入至场景分割网络中,得到与待分割图像对应的分割结果。在现有技术中为了便于场景分割网络对所输入的图像进行场景分割处理,需要对图像的尺寸进行调整,将其尺寸调整为预设尺寸,例如预设尺寸为320×240像素,而一般情况下,图像的尺寸大多为1280×720像素,因此需要先将其尺寸调整为320×240像素,然后再对尺寸调整后的图像进行场景分割处理。然而当利用场景分割网络对视频中的帧图像进行场景分割处理时,若第一前景图像在帧图像中所占比例较小,比如第一前景图像在帧图像中所占比例为0.2,那么根据现有技术仍然需要将帧图像的尺寸调小,然后再对其进行场景分割处理,那么在进行场景分割处理时,则很容易将实际属于第二前景图像边缘处的像素点划分为第二背景图像,所得到的分割结果的分割精度较低、分割效果较差。
而根据本发明提供的技术方案,是将从第t帧图像中提取出的与第t帧图像对应的跟踪框中的图像确定为待分割图像,然后对该待分隔图像进行场景分割处理,当第一前景图像在第t帧图像中所占比例较小时,所提取出的待分割图像的尺寸也将远远小于第t帧图像的尺寸,那么调整为预设尺寸的待分割图像与调整为预设尺寸的帧图像相比,能够更为有效地保留前景图像信息,因此所得到的分割结果的分割精度更高。
步骤S204,依据与待分割图像对应的分割结果,得到与第t帧图像对应的分割结果。
待分割图像为与第t帧图像对应的跟踪框中的图像,根据与待分割图像对应的分割结果能够清楚地确定待分割图像中哪些像素点属于第二前景图像,哪些像素点属于第二背景图像,而在第t帧图像中属于该跟踪框之外的像素点均属于第二背景图像,因此可方便、快速地依据与待分割图像对应的分割结果,得到与第t帧图像对应的分割结果,从而能够清楚地确定第t帧图像中哪些像素点属于第二前景图像,哪些像素点属于第二背景图像。与现有技术中对帧图像的全部内容进行场景分割处理相比,本发明仅对从帧图像中提取出的待分割图像进行场景分割处理,有效地减少了图像场景分割的数据处理量,提高了处理效率。
步骤S205,根据与第t帧图像对应的分割结果,确定第t帧图像的第二前景图像,并根据第二前景图像,确定第二前景图像中的至少一个待装扮区域。
步骤S206,从至少一个待装扮区域中提取出至少一个待装扮区域的关键信息。
其中,该关键信息可以具体为关键点信息、关键区域信息、和/或关键线信息等。本发明的实施例以关键信息为关键点信息为例进行说明,但本发明的关键信息不限于是关键点信息。使用关键点信息可以提高根据关键点信息绘制美妆效果贴图的处理速度和效率,可以直接根据关键点信息绘制美妆效果贴图,不需要再对关键信息进行后续计算、分析等复杂操作。同时,关键点信息便于提取,且提取准确,使得绘制美妆效果贴图的效果更精准。具体地,可从至少一个待装扮区域中提取出至少一个待装扮区域边缘的关键点信息。
步骤S207,根据至少一个待装扮区域的关键信息,绘制美妆效果贴图。
为了能够方便、快速地绘制出美妆效果贴图,可预先绘制许多的基础美妆效果贴图,那么在绘制与待装扮区域对应的美妆效果贴图时,就可先找到匹配的基础美妆效果贴图,然后对基础美妆效果贴图进行处理,从而快速地得到美妆效果贴图。其中,这些基础美妆效果贴图可包括不同眉型的基础眉型效果贴图、不同颜色的基础眼影效果贴图、不同颜色的基础唇彩效果贴图以及不同颜色的基础腮红效果贴图等。另外,为了便于管理这些基础美妆效果贴图,可建立一个效果贴图库,将这些基础美妆效果贴图存储至该效果贴图库中。
具体地,以关键信息为关键点信息为例,在从至少一个待装扮区域中提取出至少一个待装扮区域的关键点信息之后,可查找与关键点信息匹配的基础美妆效果贴图,接着根据关键点信息,计算具有对称关系的至少两个关键点之间的位置信息,然后依据位置信息,对基础美妆效果贴图进行处理,得到美妆效果贴图。通过这种方式能够精准地绘制得到美妆效果贴图。其中,本方法可以根据提取的关键点信息,自动地从效果贴图库中查找与关键点信息匹配的基础美妆效果贴图,以待装扮区域为嘴巴区域为例,提取出的关键点信息是嘴巴的关键点信息,然后从效果贴图库中查找与嘴巴的关键点信息匹配的基础美妆效果贴图,也就是相当于查找基础唇彩效果贴图。另外,在实际应用中,为了便于用户使用、更好地满足用户的个性化需求,可向用户展现效果贴图库中所包含的基础美妆效果贴图,用户可根据自己的喜好自行指定基础美妆效果贴图,那么在这种情况下,本方法可获取用户指定的基础美妆效果贴图。
其中,位置信息可包括距离信息和旋转角度信息,具体地,可依据位置信息中的距离信息,对基础美妆效果贴图进行缩放处理,和/或,依据位置信息中的旋转角度信息,对基础美妆效果贴图进行旋转处理,从而得到与待装扮区域对应的美妆效果贴图。
由于特定对象在拍摄或录制视频时与图像采集设备的距离不同,导致特定对象在第t帧图像中的大小不一致,从而导致根据与第t帧图像对应的分割结果所确定的第二前景图像的大小也不一致。以特定对象为人体为例,当人体在录制视频时与图像采集设备的距离较远时,人体在第t帧图像中呈现较小,那么包含人体的第二前景图像也较小;当人体在录制视频时与图像采集设备的距离较近时,人体在第t帧图像中呈现较大,那么包含人体的第二前景图像也较大。依据具有对称关系的至少两个关键点之间的位置信息中的距离信息,对基础美妆效果贴图进行缩放处理,以使得到的美妆效果贴图更切合第二前景图像中特定对象的大小。例如,当第二前景图像较小时,可以对基础美妆效果贴图进行缩小处理,以更切合第二前景图像;当第二前景图像较大时,可以对基础美妆效果贴图进行放大处理,以更切合第二前景图像。
另外,考虑到特定对象在图像采集设备拍摄或录制视频时获取到的第t帧图像中可能存在不是正向面对的情况,如人体以扭头的形式在第t帧图像中呈现时,为使美妆效果贴图更切合第二前景图像,也需要对基础美妆效果贴图进行旋转处理。以待装扮区域为嘴巴区域为例,如果计算出两个嘴角的连线向左旋转了15度,对应的将基础唇彩效果贴图向左旋转15度,以更切合第二前景图像。
步骤S208,将美妆效果贴图与第二前景图像进行融合处理,得到处理后的第t帧图像。
在绘制得到美妆效果贴图之后,可将美妆效果贴图、第二前景图像与预设背景图像进行融合处理,得到处理后的第t帧图像。本领域技术人员可根据实际需要设置预设背景图像,此处不做限定。预设背景图像可以为二维场景背景图像,也可以三维场景背景图像,例如三维海底场景背景图像等三维场景背景图像。另外,也可将美妆效果贴图、第二前景图像与根据与第t帧图像对应的分割结果确定的第二背景图像(即第t帧图像原有的背景图像)进行融合处理,得到处理后的第t帧图像。
可选地,当待装扮区域为多个时,还可通过对多个待装扮区域对应的像素点进行调整的方式,得到处理后的第t帧图像。具体地,针对每个待装扮区域,从待装扮区域中提取出待装扮区域的关键信息,接着依据多个待装扮区域的关键信息,计算多个待装扮区域的相对距离比例关系,然后根据相对距离比例关系,对多个待装扮区域对应的像素点进行调整,得到处理后的第t帧图像。
具体地,可根据多个待装扮区域的相对距离比例关系,结合由国际认可的黄金比例所界定的双眼、嘴巴、前额及下巴之间的最佳相对距离比例关系,如眼睛到嘴巴的距离相对于脸长的比例为33%、双眼之间的距离相对于脸宽的比例为42%等比例关系,对多个待装扮区域对应的像素点进行调整,从而达到拉长并瘦脸、调大眼睛、调大双眼距离、缩小嘴巴等效果。
步骤S209,将处理后的第t帧图像覆盖第t帧图像得到处理后的视频数据。
使用处理后的第t帧图像直接覆盖掉原来的第t帧图像,直接可以得到处理后的视频数据。同时,录制的用户还可以直接看到处理后的第t帧图像。
步骤S210,显示处理后的视频数据。
得到处理后的视频数据后,可以将其实时的进行显示,用户可以直接看到处理后的视频数据的显示效果。
步骤S211,将处理后的视频数据上传至云服务器。
将处理后的视频数据可以直接上传至云服务器,具体的,可以将处理后的视频数据上传至一个或多个的云视频平台服务器,如爱奇艺、优酷、快视频等云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。或者还可以将处理后的视频数据上传至云直播服务器,当有直播观看端的用户进入云直播服务器进行观看时,可以由云直播服务器将视频数据实时推送给观看用户客户端。或者还可以将处理后的视频数据上传至云公众号服务器,当有用户关注该公众号时,由云公众号服务器将视频数据推送给公众号关注客户端;进一步,云公众号服务器还可以根据关注公众号的用户的观看习惯,推送符合用户习惯的视频数据给公众号关注客户端。
根据本实施例提供的基于自适应跟踪框分割的视频人物装扮方法,利用跟踪框提取出待分割图像,依据与待分割图像对应的分割结果,能够快速、精准地得到与帧图像对应的分割结果,有效地提高了图像场景分割的分割精度和处理效率;并且根据视频的帧图像的分割结果能够快速、精准地确定待装扮区域,依据提取的待装扮区域的关键信息,精准地对美妆效果贴图进行缩放、旋转处理,使其更加切合视频人物,实现对视频人物的有效美化,并且处理后的视频画面清晰,提高了视频数据显示效果。
图3示出了根据本发明一个实施例的基于自适应跟踪框分割的视频人物装扮装置的结构框图,该装置用于对视频中每隔n帧划分得到的各组帧图像进行处理,如图3所示,该装置包括:获取模块310、分割模块320、确定模块330、处理模块340、覆盖模块350和显示模块360。
获取模块310适于:获取一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框。
其中t大于1;与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的。
分割模块320适于:依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果。
可选地,分割模块320进一步适于:对第t帧图像进行识别处理,确定第t帧图像中针对特定对象的第一前景图像;将与第t-1帧图像对应的跟踪框应用于第t帧图像;根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理。
具体地,分割模块320进一步适于:计算第t帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例,将比例确定为第t帧图像的第一前景像素比例;获取第t-1帧图像的第二前景像素比例,其中,第t-1帧图像的第二前景像素比例为第t-1帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例;计算第t帧图像的第一前景像素比例与第t-1帧图像的第二前景比例之间的差异值;判断差异值是否超过预设差异阈值;若是,则根据差异值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
分割模块320进一步适于:计算第t帧图像中的第一前景图像距离与第t-1帧图像对应的跟踪框的各边框的距离;根据距离和预设距离阈值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
分割模块320进一步适于:根据第t帧图像中的第一前景图像,确定第t帧图像中的第一前景图像的中心点位置;依据第t帧图像中的第一前景图像的中心点位置,对与第t-1帧图像对应的跟踪框的位置进行调整处理,以使与第t-1帧图像对应的跟踪框的中心点位置与第t帧图像中的第一前景图像的中心点位置重合。
可选地,分割模块320进一步适于:根据与第t帧图像对应的跟踪框,从第t帧图像的部分区域提取出待分割图像;对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果;依据与待分割图像对应的分割结果,得到与第t帧图像对应的分割结果。
分割模块320进一步适于:从第t帧图像中提取出与第t帧图像对应的跟踪框中的图像,将提取出的图像确定为待分割图像。
分割模块320进一步适于:将待分割图像输入至场景分割网络中,得到与待分割图像对应的分割结果。
确定模块330适于:根据与第t帧图像对应的分割结果,确定第t帧图像的第二前景图像,并根据第二前景图像,确定第二前景图像中的至少一个待装扮区域。
处理模块340适于:对至少一个待装扮区域添加美化效果,得到处理后的第t帧图像。
若待装扮区域为多个,处理模块340进一步适于:针对每个待装扮区域,从待装扮区域中提取出待装扮区域的关键信息;依据多个待装扮区域的关键信息,计算多个待装扮区域的相对距离比例关系;根据相对距离比例关系,对多个待装扮区域对应的像素点进行调整,得到处理后的第t帧图像。
可选地,处理模块340进一步适于:从至少一个待装扮区域中提取出至少一个待装扮区域的关键信息;根据至少一个待装扮区域的关键信息,绘制美妆效果贴图;将美妆效果贴图与第二前景图像进行融合处理,得到处理后的第t帧图像。
其中,关键信息可以具体为关键点信息、关键区域信息、和/或关键线信息等。本发明的实施例以关键信息为关键点信息为例进行说明。处理模块340进一步适于:查找与关键点信息匹配的基础美妆效果贴图;或者,获取用户指定的基础美妆效果贴图;根据关键点信息,计算具有对称关系的至少两个关键点之间的位置信息;依据位置信息,对基础美妆效果贴图进行处理,得到美妆效果贴图。
可选地,处理模块340进一步适于:依据位置信息中的距离信息,对基础美妆效果贴图进行缩放处理;和/或,依据位置信息中的旋转角度信息,对基础美妆效果贴图进行旋转处理。
可选地,处理模块340进一步适于:将美妆效果贴图、第二前景图像与预设背景图像进行融合处理,得到处理后的第t帧图像;或者,将美妆效果贴图、第二前景图像与根据与第t帧图像对应的分割结果确定的第二背景图像进行融合处理,得到处理后的第t帧图像。
覆盖模块350适于:将处理后的第t帧图像覆盖第t帧图像得到处理后的视频数据。
显示模块360适于:显示处理后的视频数据。
显示模块360得到处理后的视频数据后,可以将其实时的进行显示,用户可以直接看到处理后的视频数据的显示效果。
该装置还可包括:上传模块370,适于将处理后的视频数据上传至云服务器。
上传模块370将处理后的视频数据可以直接上传至云服务器,具体的,上传模块370可以将处理后的视频数据上传至一个或多个的云视频平台服务器,如爱奇艺、优酷、快视频等云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。或者上传模块370还可以将处理后的视频数据上传至云直播服务器,当有直播观看端的用户进入云直播服务器进行观看时,可以由云直播服务器将视频数据实时推送给观看用户客户端。或者上传模块370还可以将处理后的视频数据上传至云公众号服务器,当有用户关注该公众号时,由云公众号服务器将视频数据推送给公众号关注客户端;进一步,云公众号服务器还可以根据关注公众号的用户的观看习惯,推送符合用户习惯的视频数据给公众号关注客户端。
根据本实施例提供的基于自适应跟踪框分割的视频人物装扮装置,利用跟踪框对帧图像进行场景分割,能够快速、精准地得到帧图像对应的分割结果,有效地提高了图像场景分割的分割精度,并且仅对帧图像的部分区域进行场景分割处理,有效地减少了图像场景分割的数据处理量,提高了处理效率;并且根据视频的帧图像的分割结果能够快速、精准地确定待装扮区域,并对待装扮区域添加美化效果,与现有技术通过模糊处理方式对视频进行处理相比,不仅能够便捷、精准地对视频中的人物添加美化效果,提高了视频数据处理效率,而且处理后的视频画面清晰,提高了视频数据显示效果。
本发明还提供了一种非易失性计算机存储介质,计算机存储介质存储有至少一可执行指令,可执行指令可执行上述任意方法实施例中的基于自适应跟踪框分割的视频人物装扮方法。
图4示出了根据本发明实施例的一种计算设备的结构示意图,本发明具体实施例并不对计算设备的具体实现做限定。
如图4所示,该计算设备可以包括:处理器(processor)402、通信接口(Communications Interface)404、存储器(memory)406、以及通信总线408。
其中:
处理器402、通信接口404、以及存储器406通过通信总线408完成相互间的通信。
通信接口404,用于与其它设备比如客户端或其它服务器等的网元通信。
处理器402,用于执行程序410,具体可以执行上述基于自适应跟踪框分割的视频人物装扮方法实施例中的相关步骤。
具体地,程序410可以包括程序代码,该程序代码包括计算机操作指令。
处理器402可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。计算设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器406,用于存放程序410。存储器406可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序410具体可以用于使得处理器402执行上述任意方法实施例中的基于自适应跟踪框分割的视频人物装扮方法。程序410中各步骤的具体实现可以参见上述基于自适应跟踪框分割的视频人物装扮实施例中的相应步骤和单元中对应的描述,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
Claims (10)
1.一种基于自适应跟踪框分割的视频人物装扮方法,所述方法用于对视频中每隔n帧划分得到的各组帧图像进行处理,针对其中一组帧图像,所述方法包括:
获取所述一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框,其中t大于1;与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的;
依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对所述第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果;
根据与第t帧图像对应的分割结果,确定第t帧图像的第二前景图像,并根据所述第二前景图像,确定所述第二前景图像中的至少一个待装扮区域;
对所述至少一个待装扮区域添加美化效果,得到处理后的第t帧图像;
将所述处理后的第t帧图像覆盖所述第t帧图像得到处理后的视频数据;
显示处理后的视频数据。
2.根据权利要求1所述的方法,其中,若待装扮区域为多个,所述对所述至少一个待装扮区域添加美化效果,得到处理后的第t帧图像进一步包括:
针对每个待装扮区域,从所述待装扮区域中提取出所述待装扮区域的关键信息;
依据多个待装扮区域的关键信息,计算多个待装扮区域的相对距离比例关系;
根据所述相对距离比例关系,对多个待装扮区域对应的像素点进行调整,得到处理后的第t帧图像。
3.根据权利要求1或2所述的方法,其中,所述对所述至少一个待装扮区域添加美化效果,得到处理后的第t帧图像进一步包括:
从所述至少一个待装扮区域中提取出所述至少一个待装扮区域的关键信息;
根据所述至少一个待装扮区域的关键信息,绘制美妆效果贴图;
将所述美妆效果贴图与所述第二前景图像进行融合处理,得到处理后的第t帧图像。
4.根据权利要求1-3任一项所述的方法,其中,所述关键信息为关键点信息;
所述根据所述至少一个待装扮区域的关键信息,绘制美妆效果贴图进一步包括:
查找与所述关键点信息匹配的基础美妆效果贴图;或者,获取用户指定的基础美妆效果贴图;
根据所述关键点信息,计算具有对称关系的至少两个关键点之间的位置信息;
依据所述位置信息,对所述基础美妆效果贴图进行处理,得到美妆效果贴图。
5.根据权利要求1-4任一项所述的方法,其中,所述依据所述位置信息,对所述基础美妆效果贴图进行处理,得到美妆效果贴图进一步包括:
依据所述位置信息中的距离信息,对所述基础美妆效果贴图进行缩放处理;和/或,依据所述位置信息中的旋转角度信息,对所述基础美妆效果贴图进行旋转处理。
6.根据权利要求1-5任一项所述的方法,其中,所述将所述美妆效果贴图与所述第二前景图像进行融合处理,得到处理后的第t帧图像进一步包括:
将所述美妆效果贴图、所述第二前景图像与预设背景图像进行融合处理,得到处理后的第t帧图像;或者,将所述美妆效果贴图、所述第二前景图像与根据与第t帧图像对应的分割结果确定的第二背景图像进行融合处理,得到处理后的第t帧图像。
7.根据权利要求1-6任一项所述的方法,其中,所述依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理进一步包括:
对第t帧图像进行识别处理,确定第t帧图像中针对特定对象的第一前景图像;
将与第t-1帧图像对应的跟踪框应用于第t帧图像;
根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理。
8.一种基于自适应跟踪框分割的视频人物装扮装置,所述装置用于对视频中每隔n帧划分得到的各组帧图像进行处理,所述装置包括:
获取模块,适于获取所述一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框,其中t大于1;与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的;
分割模块,适于依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对所述第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果;
确定模块,适于根据与第t帧图像对应的分割结果,确定第t帧图像的第二前景图像,并根据所述第二前景图像,确定所述第二前景图像中的至少一个待装扮区域;
处理模块,适于对所述至少一个待装扮区域添加美化效果,得到处理后的第t帧图像;
覆盖模块,适于将所述处理后的第t帧图像覆盖所述第t帧图像得到处理后的视频数据;
显示模块,适于显示处理后的视频数据。
9.一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-7中任一项所述的基于自适应跟踪框分割的视频人物装扮方法对应的操作。
10.一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如权利要求1-7中任一项所述的基于自适应跟踪框分割的视频人物装扮方法对应的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711423813.1A CN108171716B (zh) | 2017-12-25 | 2017-12-25 | 基于自适应跟踪框分割的视频人物装扮方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711423813.1A CN108171716B (zh) | 2017-12-25 | 2017-12-25 | 基于自适应跟踪框分割的视频人物装扮方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108171716A true CN108171716A (zh) | 2018-06-15 |
CN108171716B CN108171716B (zh) | 2021-11-26 |
Family
ID=62520577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711423813.1A Active CN108171716B (zh) | 2017-12-25 | 2017-12-25 | 基于自适应跟踪框分割的视频人物装扮方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108171716B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111880709A (zh) * | 2020-07-31 | 2020-11-03 | 北京市商汤科技开发有限公司 | 一种展示方法、装置、计算机设备及存储介质 |
CN112991147A (zh) * | 2019-12-18 | 2021-06-18 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN113840169A (zh) * | 2020-06-23 | 2021-12-24 | 中国移动通信集团辽宁有限公司 | 一种视频处理方法、装置、计算设备和存储介质 |
Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060262960A1 (en) * | 2005-05-10 | 2006-11-23 | Francois Le Clerc | Method and device for tracking objects in a sequence of images |
CN101282461A (zh) * | 2007-04-02 | 2008-10-08 | 财团法人工业技术研究院 | 图像处理方法 |
CN101968886A (zh) * | 2010-09-09 | 2011-02-09 | 西安电子科技大学 | 基于质心跟踪框架的粒子滤波与均值漂移的细胞跟踪方法 |
CN102270346A (zh) * | 2011-07-27 | 2011-12-07 | 宁波大学 | 一种交互式视频中的目标对象的提取方法 |
CN102436668A (zh) * | 2011-09-05 | 2012-05-02 | 上海大学 | 京剧脸谱自动化妆方法 |
CN103031934A (zh) * | 2011-09-30 | 2013-04-10 | 马义和 | 一种增强纤维石膏板安装结构及其制备方法 |
CN103559719A (zh) * | 2013-11-20 | 2014-02-05 | 电子科技大学 | 一种交互式图像分割方法 |
CN104657974A (zh) * | 2013-11-25 | 2015-05-27 | 腾讯科技(上海)有限公司 | 一种图像处理方法及装置 |
CN104700431A (zh) * | 2015-02-10 | 2015-06-10 | 浙江工业大学 | 一种基于显著度的柔性对象自然轮廓跟踪方法 |
CN104899825A (zh) * | 2014-03-06 | 2015-09-09 | 腾讯科技(深圳)有限公司 | 一种对图片人物造型的方法和装置 |
CN105654508A (zh) * | 2015-12-24 | 2016-06-08 | 武汉大学 | 基于自适应背景分割的监控视频移动目标跟踪方法及系统 |
CN105847728A (zh) * | 2016-04-13 | 2016-08-10 | 腾讯科技(深圳)有限公司 | 一种信息处理方法及终端 |
CN106210545A (zh) * | 2016-08-22 | 2016-12-07 | 北京金山安全软件有限公司 | 一种视频拍摄方法、装置及电子设备 |
CN106462975A (zh) * | 2014-05-28 | 2017-02-22 | 汤姆逊许可公司 | 用于对象跟踪和经由背景跟踪进行分割的方法和装置 |
CN106548190A (zh) * | 2015-09-18 | 2017-03-29 | 三星电子株式会社 | 模型训练方法和设备以及数据识别方法 |
CN106778570A (zh) * | 2016-12-05 | 2017-05-31 | 清华大学深圳研究生院 | 一种行人实时检测与跟踪方法 |
CN106952276A (zh) * | 2017-03-20 | 2017-07-14 | 成都通甲优博科技有限责任公司 | 一种图像抠图方法及装置 |
CN107123083A (zh) * | 2017-05-02 | 2017-09-01 | 中国科学技术大学 | 人脸编辑方法 |
CN107247989A (zh) * | 2017-06-15 | 2017-10-13 | 北京图森未来科技有限公司 | 一种神经网络训练方法及装置 |
CN107452002A (zh) * | 2016-05-31 | 2017-12-08 | 百度在线网络技术(北京)有限公司 | 一种图像分割方法及装置 |
-
2017
- 2017-12-25 CN CN201711423813.1A patent/CN108171716B/zh active Active
Patent Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060262960A1 (en) * | 2005-05-10 | 2006-11-23 | Francois Le Clerc | Method and device for tracking objects in a sequence of images |
CN101282461A (zh) * | 2007-04-02 | 2008-10-08 | 财团法人工业技术研究院 | 图像处理方法 |
CN101968886A (zh) * | 2010-09-09 | 2011-02-09 | 西安电子科技大学 | 基于质心跟踪框架的粒子滤波与均值漂移的细胞跟踪方法 |
CN102270346A (zh) * | 2011-07-27 | 2011-12-07 | 宁波大学 | 一种交互式视频中的目标对象的提取方法 |
CN102436668A (zh) * | 2011-09-05 | 2012-05-02 | 上海大学 | 京剧脸谱自动化妆方法 |
CN103031934A (zh) * | 2011-09-30 | 2013-04-10 | 马义和 | 一种增强纤维石膏板安装结构及其制备方法 |
CN103559719A (zh) * | 2013-11-20 | 2014-02-05 | 电子科技大学 | 一种交互式图像分割方法 |
CN104657974A (zh) * | 2013-11-25 | 2015-05-27 | 腾讯科技(上海)有限公司 | 一种图像处理方法及装置 |
CN104899825A (zh) * | 2014-03-06 | 2015-09-09 | 腾讯科技(深圳)有限公司 | 一种对图片人物造型的方法和装置 |
CN106462975A (zh) * | 2014-05-28 | 2017-02-22 | 汤姆逊许可公司 | 用于对象跟踪和经由背景跟踪进行分割的方法和装置 |
CN104700431A (zh) * | 2015-02-10 | 2015-06-10 | 浙江工业大学 | 一种基于显著度的柔性对象自然轮廓跟踪方法 |
CN106548190A (zh) * | 2015-09-18 | 2017-03-29 | 三星电子株式会社 | 模型训练方法和设备以及数据识别方法 |
CN105654508A (zh) * | 2015-12-24 | 2016-06-08 | 武汉大学 | 基于自适应背景分割的监控视频移动目标跟踪方法及系统 |
CN105847728A (zh) * | 2016-04-13 | 2016-08-10 | 腾讯科技(深圳)有限公司 | 一种信息处理方法及终端 |
CN107452002A (zh) * | 2016-05-31 | 2017-12-08 | 百度在线网络技术(北京)有限公司 | 一种图像分割方法及装置 |
CN106210545A (zh) * | 2016-08-22 | 2016-12-07 | 北京金山安全软件有限公司 | 一种视频拍摄方法、装置及电子设备 |
CN106778570A (zh) * | 2016-12-05 | 2017-05-31 | 清华大学深圳研究生院 | 一种行人实时检测与跟踪方法 |
CN106952276A (zh) * | 2017-03-20 | 2017-07-14 | 成都通甲优博科技有限责任公司 | 一种图像抠图方法及装置 |
CN107123083A (zh) * | 2017-05-02 | 2017-09-01 | 中国科学技术大学 | 人脸编辑方法 |
CN107247989A (zh) * | 2017-06-15 | 2017-10-13 | 北京图森未来科技有限公司 | 一种神经网络训练方法及装置 |
Non-Patent Citations (2)
Title |
---|
罗会兰 等: "结合背景信息的自适应加权压缩跟踪算法", 《中国图象图形学报 》 * |
肖西华: ""基于几何和纹理特征的人脸美学分析方法研究"", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112991147A (zh) * | 2019-12-18 | 2021-06-18 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
WO2021121291A1 (zh) * | 2019-12-18 | 2021-06-24 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
KR20220099584A (ko) * | 2019-12-18 | 2022-07-13 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 이미지 처리 방법, 장치, 전자 장치 및 컴퓨터 판독 가능 저장 매체 |
US11651529B2 (en) | 2019-12-18 | 2023-05-16 | Beijing Bytedance Network Technology Co., Ltd. | Image processing method, apparatus, electronic device and computer readable storage medium |
KR102534449B1 (ko) * | 2019-12-18 | 2023-05-26 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 이미지 처리 방법, 장치, 전자 장치 및 컴퓨터 판독 가능 저장 매체 |
CN112991147B (zh) * | 2019-12-18 | 2023-10-27 | 抖音视界有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN113840169A (zh) * | 2020-06-23 | 2021-12-24 | 中国移动通信集团辽宁有限公司 | 一种视频处理方法、装置、计算设备和存储介质 |
CN113840169B (zh) * | 2020-06-23 | 2023-09-19 | 中国移动通信集团辽宁有限公司 | 一种视频处理方法、装置、计算设备和存储介质 |
CN111880709A (zh) * | 2020-07-31 | 2020-11-03 | 北京市商汤科技开发有限公司 | 一种展示方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108171716B (zh) | 2021-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107820027A (zh) | 视频人物装扮方法、装置、计算设备及计算机存储介质 | |
CN107393000B (zh) | 图像处理方法、装置、服务器及计算机可读存储介质 | |
US9710912B2 (en) | Method and apparatus for obtaining 3D face model using portable camera | |
CN107507155B (zh) | 视频分割结果边缘优化实时处理方法、装置及计算设备 | |
CN107945188A (zh) | 基于场景分割的人物装扮方法及装置、计算设备 | |
CN108111911A (zh) | 基于自适应跟踪框分割的视频数据实时处理方法及装置 | |
CN108109161A (zh) | 基于自适应阈值分割的视频数据实时处理方法及装置 | |
KR101823869B1 (ko) | 안면카메라장치를 이용한 증강현실기반 실시간 동영상 메이크업 구현시스템 | |
CN107483892A (zh) | 视频数据实时处理方法及装置、计算设备 | |
CN107977927A (zh) | 基于图像数据的身材调整方法及装置、计算设备 | |
CN108171716A (zh) | 基于自适应跟踪框分割的视频人物装扮方法及装置 | |
CN107665482A (zh) | 实现双重曝光的视频数据实时处理方法及装置、计算设备 | |
CN112949605A (zh) | 基于语义分割的人脸上妆方法和系统 | |
CN107613161A (zh) | 基于虚拟世界的视频数据处理方法及装置、计算设备 | |
CN107610149A (zh) | 图像分割结果边缘优化处理方法、装置及计算设备 | |
CN107808372B (zh) | 图像穿越处理方法、装置、计算设备及计算机存储介质 | |
CN107563357A (zh) | 基于场景分割的直播服饰装扮推荐方法、装置及计算设备 | |
CN107766803B (zh) | 基于场景分割的视频人物装扮方法、装置及计算设备 | |
CN107680105B (zh) | 基于虚拟世界的视频数据实时处理方法及装置、计算设备 | |
CN107770606A (zh) | 视频数据扭曲处理方法、装置、计算设备及存储介质 | |
CN107743263B (zh) | 视频数据实时处理方法及装置、计算设备 | |
CN107563962A (zh) | 视频数据实时处理方法及装置、计算设备 | |
CN108010038B (zh) | 基于自适应阈值分割的直播服饰装扮方法及装置 | |
CN111652792B (zh) | 图像的局部处理、直播方法、装置、设备和存储介质 | |
Liu et al. | Stereo-based bokeh effects for photography |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |