CN108171719B - 基于自适应跟踪框分割的视频穿越处理方法及装置 - Google Patents

基于自适应跟踪框分割的视频穿越处理方法及装置 Download PDF

Info

Publication number
CN108171719B
CN108171719B CN201711423804.2A CN201711423804A CN108171719B CN 108171719 B CN108171719 B CN 108171719B CN 201711423804 A CN201711423804 A CN 201711423804A CN 108171719 B CN108171719 B CN 108171719B
Authority
CN
China
Prior art keywords
image
frame image
frame
processed
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711423804.2A
Other languages
English (en)
Other versions
CN108171719A (zh
Inventor
赵鑫
邱学侃
颜水成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Qihoo Technology Co Ltd
Original Assignee
Beijing Qihoo Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Qihoo Technology Co Ltd filed Critical Beijing Qihoo Technology Co Ltd
Priority to CN201711423804.2A priority Critical patent/CN108171719B/zh
Publication of CN108171719A publication Critical patent/CN108171719A/zh
Application granted granted Critical
Publication of CN108171719B publication Critical patent/CN108171719B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于自适应跟踪框分割的视频穿越处理方法及装置,该方法包括:根据与第t帧图像对应的分割结果,确定第二前景图像,并根据第二前景图像,确定待处理区域;依据时间处理参数,绘制穿越效果贴图;将穿越效果贴图与第二前景图像进行融合处理,得到处理后的第t帧图像。该技术方案实现了高效率高精准性地完成场景分割处理,依据分割结果和时间处理参数,能够自动、精准地对帧图像添加穿越效果,从而得到具有穿越效果的视频,提高了视频处理效率,并且本发明可以直接得到处理后的视频数据,不需要用户进行额外技术处理,极大地节省用户时间,方便大众使用。

Description

基于自适应跟踪框分割的视频穿越处理方法及装置
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于自适应跟踪框分割的视频穿越处理方法、装置、计算设备及计算机存储介质。
背景技术
随着科技的发展,图像采集设备的技术也日益提高,所采集到的视频更加清晰,视频的分辨率和显示效果也都得到了大幅度提高,但同时用户对视频效果的要求也越来越高,现有的视频可能无法满足用户的需求,用户希望对视频进行个性化处理,例如将视频处理成具有穿越到若干年前或者若干年后的显示效果。在现有技术中,可由用户手动对视频的每一帧图像做进一步处理,但这种处理方式需要用户具有较高的图像处理技术,并且在处理时需要花费用户较多的时间,处理过程繁琐。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的基于自适应跟踪框分割的视频穿越处理方法、装置、计算设备及计算机存储介质。
根据本发明的一个方面,提供了一种基于自适应跟踪框分割的视频穿越处理方法,该方法用于对视频中每隔n帧划分得到的各组帧图像进行处理,针对其中一组帧图像,该方法包括:
获取一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框,其中t大于1;与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的;
依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果;
根据与第t帧图像对应的分割结果,确定第t帧图像的第二前景图像,并根据第二前景图像,确定第二前景图像中的待处理区域;
依据时间处理参数,绘制与待处理区域对应的穿越效果贴图;
将穿越效果贴图与第二前景图像进行融合处理,得到处理后的第t帧图像;
将处理后的第t帧图像覆盖第t帧图像得到处理后的视频数据;
显示处理后的视频数据。
进一步地,穿越效果贴图包括以下贴图的一种或多种:服装效果贴图、装饰效果贴图、纹理效果贴图以及面部装扮效果贴图。
进一步地,依据时间处理参数,绘制与待处理区域对应的穿越效果贴图进一步包括:
从待处理区域中提取出待处理区域的关键信息;
根据时间处理参数和待处理区域的关键信息,绘制与待处理区域对应的穿越效果贴图。
进一步地,关键信息为关键点信息;
根据时间处理参数和待处理区域的关键信息,绘制与待处理区域对应的穿越效果贴图进一步包括:
根据时间处理参数,查找与关键点信息匹配的基础穿越效果贴图;
根据关键点信息,计算具有对称关系的至少两个关键点之间的位置信息;
依据位置信息,对基础穿越效果贴图进行处理,得到穿越效果贴图。
进一步地,依据位置信息,对基础穿越效果贴图进行处理,得到穿越效果贴图进一步包括:
依据位置信息中的距离信息,对基础穿越效果贴图进行缩放处理;和/或,依据位置信息中的旋转角度信息,对基础穿越效果贴图进行旋转处理。
进一步地,将穿越效果贴图与第二前景图像进行融合处理,得到处理后的第t帧图像进一步包括:
将穿越效果贴图、第二前景图像与根据与第t帧图像对应的分割结果确定的第二背景图像进行融合处理,得到处理后的第t帧图像。
进一步地,依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理进一步包括:
对第t帧图像进行识别处理,确定第t帧图像中针对特定对象的第一前景图像;
将与第t-1帧图像对应的跟踪框应用于第t帧图像;
根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理。
进一步地,根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理进一步包括:
计算第t帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例,将比例确定为第t帧图像的第一前景像素比例;
获取第t-1帧图像的第二前景像素比例,其中,第t-1帧图像的第二前景像素比例为第t-1帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例;
计算第t帧图像的第一前景像素比例与第t-1帧图像的第二前景比例之间的差异值;
判断差异值是否超过预设差异阈值;若是,则根据差异值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
进一步地,根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理进一步包括:
计算第t帧图像中的第一前景图像距离与第t-1帧图像对应的跟踪框的各边框的距离;
根据距离和预设距离阈值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
进一步地,根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理进一步包括:
根据第t帧图像中的第一前景图像,确定第t帧图像中的第一前景图像的中心点位置;
依据第t帧图像中的第一前景图像的中心点位置,对与第t-1帧图像对应的跟踪框的位置进行调整处理,以使与第t-1帧图像对应的跟踪框的中心点位置与第t帧图像中的第一前景图像的中心点位置重合。
进一步地,根据与第t帧图像对应的跟踪框,对第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果进一步包括:
根据与第t帧图像对应的跟踪框,从第t帧图像的部分区域提取出待分割图像;
对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果;
依据与待分割图像对应的分割结果,得到与第t帧图像对应的分割结果。
进一步地,根据与第t帧图像对应的跟踪框,从第t帧图像的部分区域提取出待分割图像进一步包括:
从第t帧图像中提取出与第t帧图像对应的跟踪框中的图像,将提取出的图像确定为待分割图像。
进一步地,对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果进一步包括:
将待分割图像输入至场景分割网络中,得到与待分割图像对应的分割结果。
进一步地,显示处理后的视频数据进一步包括:将处理后的视频数据实时显示;
该方法还包括:将处理后的视频数据上传至云服务器。
进一步地,将处理后的视频数据上传至云服务器进一步包括:
将处理后的视频数据上传至云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。
进一步地,将处理后的视频数据上传至云服务器进一步包括:
将处理后的视频数据上传至云直播服务器,以供云直播服务器将视频数据实时推送给观看用户客户端。
进一步地,将处理后的视频数据上传至云服务器进一步包括:
将处理后的视频数据上传至云公众号服务器,以供云公众号服务器将视频数据推送给公众号关注客户端。
根据本发明的另一方面,提供了一种基于自适应跟踪框分割的视频穿越处理装置,该装置用于对视频中每隔n帧划分得到的各组帧图像进行处理,该装置包括:
获取模块,适于获取一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框,其中t大于1;与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的;
分割模块,适于依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果;
确定模块,适于根据与第t帧图像对应的分割结果,确定第t帧图像的第二前景图像,并根据第二前景图像,确定第二前景图像中的待处理区域;
绘制模块,适于依据时间处理参数,绘制与待处理区域对应的穿越效果贴图;
融合处理模块,适于将穿越效果贴图与第二前景图像进行融合处理,得到处理后的第t帧图像;
覆盖模块,适于将处理后的第t帧图像覆盖第t帧图像得到处理后的视频数据;
显示模块,适于显示处理后的视频数据。
进一步地,穿越效果贴图包括以下贴图的一种或多种:服装效果贴图、装饰效果贴图、纹理效果贴图以及面部装扮效果贴图。
进一步地,绘制模块进一步适于:
从待处理区域中提取出待处理区域的关键信息;
根据时间处理参数和待处理区域的关键信息,绘制与待处理区域对应的穿越效果贴图。
进一步地,关键信息为关键点信息;
绘制模块进一步适于:
根据时间处理参数,查找与关键点信息匹配的基础穿越效果贴图;
根据关键点信息,计算具有对称关系的至少两个关键点之间的位置信息;
依据位置信息,对基础穿越效果贴图进行处理,得到穿越效果贴图。
进一步地,绘制模块进一步适于:
依据位置信息中的距离信息,对基础穿越效果贴图进行缩放处理;和/或,依据位置信息中的旋转角度信息,对基础穿越效果贴图进行旋转处理。
进一步地,融合处理模块进一步适于:
将穿越效果贴图、第二前景图像与根据与第t帧图像对应的分割结果确定的第二背景图像进行融合处理,得到处理后的第t帧图像。
进一步地,分割模块进一步适于:
对第t帧图像进行识别处理,确定第t帧图像中针对特定对象的第一前景图像;
将与第t-1帧图像对应的跟踪框应用于第t帧图像;
根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理。
进一步地,分割模块进一步适于:
计算第t帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例,将比例确定为第t帧图像的第一前景像素比例;
获取第t-1帧图像的第二前景像素比例,其中,第t-1帧图像的第二前景像素比例为第t-1帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例;
计算第t帧图像的第一前景像素比例与第t-1帧图像的第二前景比例之间的差异值;
判断差异值是否超过预设差异阈值;若是,则根据差异值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
进一步地,分割模块进一步适于:
计算第t帧图像中的第一前景图像距离与第t-1帧图像对应的跟踪框的各边框的距离;
根据距离和预设距离阈值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
进一步地,分割模块进一步适于:
根据第t帧图像中的第一前景图像,确定第t帧图像中的第一前景图像的中心点位置;
依据第t帧图像中的第一前景图像的中心点位置,对与第t-1帧图像对应的跟踪框的位置进行调整处理,以使与第t-1帧图像对应的跟踪框的中心点位置与第t帧图像中的第一前景图像的中心点位置重合。
进一步地,分割模块进一步适于:
根据与第t帧图像对应的跟踪框,从第t帧图像的部分区域提取出待分割图像;
对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果;
依据与待分割图像对应的分割结果,得到与第t帧图像对应的分割结果。
进一步地,分割模块进一步适于:
从第t帧图像中提取出与第t帧图像对应的跟踪框中的图像,将提取出的图像确定为待分割图像。
进一步地,分割模块进一步适于:
将待分割图像输入至场景分割网络中,得到与待分割图像对应的分割结果。
进一步地,显示模块进一步适于:将处理后的视频数据实时显示;
该装置还包括:上传模块,适于将处理后的视频数据上传至云服务器。
进一步地,上传模块进一步适于:
将处理后的视频数据上传至云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。
进一步地,上传模块进一步适于:
将处理后的视频数据上传至云直播服务器,以供云直播服务器将视频数据实时推送给观看用户客户端。
进一步地,上传模块进一步适于:
将处理后的视频数据上传至云公众号服务器,以供云公众号服务器将视频数据推送给公众号关注客户端。
根据本发明的又一方面,提供了一种计算设备,包括:处理器、存储器、通信接口和通信总线,处理器、存储器和通信接口通过通信总线完成相互间的通信;
存储器用于存放至少一可执行指令,可执行指令使处理器执行上述基于自适应跟踪框分割的视频穿越处理方法对应的操作。
根据本发明的再一方面,提供了一种计算机存储介质,存储介质中存储有至少一可执行指令,可执行指令使处理器执行如上述基于自适应跟踪框分割的视频穿越处理方法对应的操作。
根据本发明提供的技术方案,利用跟踪框对帧图像进行场景分割,能够快速、精准地得到帧图像对应的分割结果,实现了高效率高精准性地完成场景分割处理;依据分割结果和时间处理参数,能够自动、精准地对帧图像添加穿越效果,从而得到具有穿越效果的视频,提高了视频数据处理效率,优化了视频数据处理方式,提高了视频数据显示效果;并且本发明可以直接得到处理后的视频数据,不需要用户进行额外技术处理,极大地节省用户时间,同时对用户技术水平不做限制,方便大众使用。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了根据本发明一个实施例的基于自适应跟踪框分割的视频穿越处理方法的流程示意图;
图2示出了根据本发明另一个实施例的基于自适应跟踪框分割的视频穿越处理方法的流程示意图;
图3示出了根据本发明一个实施例的基于自适应跟踪框分割的视频穿越处理装置的结构框图;
图4示出了根据本发明实施例的一种计算设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
图1示出了根据本发明一个实施例的基于自适应跟踪框分割的视频穿越处理方法的流程示意图,该方法用于对视频中每隔n帧划分得到的各组帧图像进行处理,如图1所示,针对其中一组帧图像,该方法包括如下步骤:
步骤S100,获取一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框。
在一些情况下,视频中所拍摄或所录制的特定对象的数量可能会发生变化,为了能够高效率高精准性地对视频中的帧图像进行场景分割处理,该方法对视频中每隔n帧划分得到的各组帧图像进行处理。本领域技术人员可根据实际需要对n进行设置,此处不做限定。其中,n可以为固定预设值。
其中,帧图像中包含有特定对象,特定对象可为人体等。本领域技术人员可根据实际需要对特定对象进行设置,此处不做限定。当需要对一组帧图像中的第t帧图像进行场景分割时,其中t大于1,在步骤S100中,获取第t帧图像以及与第t-1帧图像对应的跟踪框。具体地,跟踪框可以为矩形框,用于框选帧图像中的前景图像,实现对帧图像中特定对象的跟踪。
在本发明中,前景图像可以仅包含特定对象,背景图像为帧图像中除前景图像之外的图像。具体地,在本发明中,将在分割处理前的帧图像中的前景图像称为第一前景图像,将在分割处理后的帧图像中的前景图像称为第二前景图像,从而实现对在分割处理前的帧图像中的前景图像和在分割处理后的帧图像中的前景图像的有效区分。同理,将在分割处理前的帧图像中的背景图像称为第一背景图像,将在分割处理后的帧图像中的背景图像称为第二背景图像。
其中,与第t-1帧图像对应的跟踪框能够完全将第t-1帧图像中的第一前景图像框选在内。具体地,与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的。
步骤S101,依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果。
在利用跟踪框对第一前景图像进行跟踪的过程中,跟踪框需要根据每一个帧图像进行调整,那么针对第t帧图像,可对与第t-1帧图像对应的跟踪框的大小和位置进行调整,使得调整后的跟踪框能够适用于第t帧图像,从而得到与第t帧图像对应的跟踪框。由于与第t帧图像对应的跟踪框能够将第t帧图像中的第一前景图像框选在内,因此可根据与第t帧图像对应的跟踪框,对第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果。例如,可对第t帧图像中与第t帧图像对应的跟踪框所框选的区域进行场景分割处理。与现有技术中对帧图像的全部内容进行场景分割处理相比,本发明仅对帧图像的部分区域进行场景分割处理,有效地减少了图像场景分割的数据处理量,提高了处理效率。
步骤S102,根据与第t帧图像对应的分割结果,确定第t帧图像的第二前景图像,并根据第二前景图像,确定第二前景图像中的待处理区域。
根据与第t帧图像对应的分割结果可清楚地确定出第t帧图像中哪些像素点属于第二前景图像,哪些像素点属于第二背景图像,从而确定出第t帧图像的第二前景图像,然后对第二前景图像进行识别,从而确定出第二前景图像中的待处理区域。具体地,可采用现有技术中的图像识别方法对第二前景图像进行识别,还可利用经过训练的识别网络识别第二前景图像中的待处理区域。由于识别网络是经过训练的,所以将第二前景图像输入至识别网络中,就可方便地得到第二前景图像中的待处理区域。其中,以特定对象为人体为例,待处理区域可以包括人体的肢体区域、面部区域等区域,其中,面部区域具体可包括五官区域以及脸颊、额头和下巴等部位对应区域等,其中,五官区域可泛指面部区域中眉毛等各部位的区域,具体地,五官区域可包括:眉毛、眼睛、耳朵、鼻子和嘴巴等部位对应的区域。
步骤S103,依据时间处理参数,绘制与待处理区域对应的穿越效果贴图。
在确定了待处理区域之后,依据时间处理参数,为待处理区域绘制与其对应的穿越效果贴图。本领域技术人员可根据实际需要为待处理区域设置穿越效果贴图,此处不做限定。其中,穿越效果贴图可包括以下贴图的一种或多种:服装效果贴图、装饰效果贴图、纹理效果贴图以及面部装扮效果贴图。具体地,服装效果贴图是指穿着的服装对应的效果贴图,装饰效果贴图可包含首饰、手表、摆件等装饰对应的效果贴图,纹理效果贴图包括具有不同纹理效果的贴图,面部装扮效果贴图可包括眼影、唇彩和腮红等对应的效果贴图。穿越效果贴图还可包括其他的效果贴图,本领域技术人员可根据实际需要进行设置,此处不做限定。
例如,当特定对象为人体,所获取的时间处理参数为与清代对应的时间参数,待处理区域包括人体的躯体区域和面部区域时,那么可依据时间处理参数,为躯体区域绘制与清代对应的服装效果贴图、装饰效果贴图,为面部区域绘制与清代对应的面部装扮效果贴图等。又如,当特定对象为人体,所获取的时间处理参数为与10年前对应的时间参数,待处理区域为人体的躯体区域时,那么可依据时间处理参数,为躯体区域绘制与10年前对应的服装效果贴图、装饰效果贴图。再如,当特定对象为人体,所获取的时间处理参数为与20年后对应的时间参数,待处理区域为人体的面部区域时,那么可依据时间参数,为面部区域绘制与20年后对应的面部装扮效果贴图,该面部装扮效果贴图可具有皱纹效果等。
步骤S104,将穿越效果贴图与第二前景图像进行融合处理,得到处理后的第t帧图像。
在绘制得到了穿越效果贴图之后,将穿越效果贴图与第二前景图像进行融合处理,使得穿越效果贴图能够真实、精准地与第二前景图像中特定对象的待处理区域融合在一起,从而得到处理后的第t帧图像。
步骤S105,将处理后的第t帧图像覆盖第t帧图像得到处理后的视频数据。
使用处理后的第t帧图像直接覆盖掉原来的第t帧图像,直接可以得到处理后的视频数据。同时,录制的用户还可以直接看到处理后的第t帧图像。
步骤S106,显示处理后的视频数据。
在得到处理后的第t帧图像时,会将处理后的第t帧图像直接覆盖原来的第t帧图像。覆盖时的速度较快,一般在1/24秒之内完成。对于用户而言,由于覆盖处理的时间相对短,人眼没有明显的察觉,即人眼没有察觉到视频数据中的原第t帧图像被覆盖的过程。这样在后续显示处理后的视频数据时,相当于一边拍摄和/或录制和/或播放视频数据时,一边实时显示的为处理后的视频数据,用户不会感觉到视频数据中帧图像发生覆盖的显示效果。
根据本实施例提供的基于自适应跟踪框分割的视频穿越处理方法,利用跟踪框对帧图像进行场景分割,能够快速、精准地得到帧图像对应的分割结果,实现了高效率高精准性地完成场景分割处理;依据分割结果和时间处理参数,能够自动、精准地对帧图像添加穿越效果,从而得到具有穿越效果的视频,提高了视频数据处理效率,优化了视频数据处理方式,提高了视频数据显示效果;并且本发明可以直接得到处理后的视频数据,不需要用户进行额外技术处理,极大地节省用户时间,同时对用户技术水平不做限制,方便大众使用。
图2示出了根据本发明另一个实施例的基于自适应跟踪框分割的视频穿越处理方法的流程示意图,该方法用于对视频中每隔n帧划分得到的各组帧图像进行处理,如图2所示,针对其中一组帧图像,该方法包括如下步骤:
步骤S200,获取一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框。
其中t大于1。例如,当t为2时,在步骤S200中,获取一组帧图像中包含有特定对象的第2帧图像以及与第1帧图像对应的跟踪框,具体地,与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的;当t为3时,在步骤S200中,获取一组帧图像中包含有特定对象的第3帧图像以及与第2帧图像对应的跟踪框,其中,与第2帧图像对应的跟踪框是在对第2帧图像进行场景分割处理的过程中,对与第1帧图像对应的跟踪框进行调整得到的。
步骤S201,对第t帧图像进行识别处理,确定第t帧图像中针对特定对象的第一前景图像,将与第t-1帧图像对应的跟踪框应用于第t帧图像,并根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理。
具体地,可利用现有技术中的AE(Adobe After Effects)、NUKE(The FoundryNuke)等图像处理工具对第t帧图像进行识别处理,可识别出第t帧图像中哪些像素点属于第一前景图像,从而确定得到第t帧图像中针对特定对象的第一前景图像。在确定第一前景图像之后,可将与第t-1帧图像对应的跟踪框设置在第t帧图像上,以便根据第t帧图像中的第一前景图像对该跟踪框进行调整,从而得到与第t帧图像对应的跟踪框。
具体地,可计算第t帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例,将该比例确定为第t帧图像的第一前景像素比例,接着获取第t-1帧图像的第二前景像素比例,其中,第t-1帧图像的第二前景像素比例为第t-1帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例,然后计算第t帧图像的第一前景像素比例与第t-1帧图像的第二前景比例之间的差异值,判断差异值是否超过预设差异阈值,如果判断得到差异值超过预设差异阈值,说明与第t-1帧图像对应的跟踪框与第t帧图像中的第一前景图像不相匹配,则根据差异值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。如果判断得到差异值未超过预设差异阈值,则可不对与第t-1帧图像对应的跟踪框的大小进行调整处理。本领域技术人员可根据实际需要对预设差异阈值进行设置,此处不做限定。
假设在将与第t-1帧图像对应的跟踪框应用于第t帧图像之后,虽然与第t-1帧图像对应的跟踪框能够完全将第t帧图像中的第一前景图像框选在内,但是第t帧图像的第一前景像素比例与第t-1帧图像的第二前景比例之间的差异值超过了预设差异阈值,说明对于第t帧图像中的第一前景图像,与第t-1帧图像对应的跟踪框可能较大或较小,因此需要对与第t-1帧图像对应的跟踪框的大小进行调整处理。例如,当第t帧图像的第一前景像素比例为0.9,第t-1帧图像的第二前景比例为0.7,且两比例之间的差异值超过了预设差异阈值,那么可根据差异值将与第t-1帧图像对应的跟踪框的大小进行适应性地放大;又如,当第t帧图像的第一前景像素比例为0.5,第t-1帧图像的第二前景比例为0.7,且两比例之间的差异值超过了预设差异阈值,那么可根据差异值将与第t-1帧图像对应的跟踪框的大小进行适应性地缩小。
可选地,计算第t帧图像中的第一前景图像距离与第t-1帧图像对应的跟踪框的各边框的距离;根据计算得到的距离和预设距离阈值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。本领域技术人员可根据实际需要对预设距离阈值进行设置,此处不做限定。例如,计算得到的距离小于预设距离阈值,那么可将与第t-1帧图像对应的跟踪框的大小进行适应性地放大,使得第t帧图像中的第一前景图像距离该跟踪框的各边框的距离符合预设距离阈值;又如,计算得到的距离大于预设距离阈值,那么可将与第t-1帧图像对应的跟踪框的大小进行适应性地缩小,使得第t帧图像中的第一前景图像距离该跟踪框的各边框的距离符合预设距离阈值。
另外,还可根据第t帧图像中的第一前景图像,确定第t帧图像中的第一前景图像的中心点位置;依据第t帧图像中的第一前景图像的中心点位置,对与第t-1帧图像对应的跟踪框的位置进行调整处理,以使与第t-1帧图像对应的跟踪框的中心点位置与第t帧图像中的第一前景图像的中心点位置重合,从而使第一前景图像能够位于跟踪框中间。
步骤S202,根据与第t帧图像对应的跟踪框,从第t帧图像的部分区域提取出待分割图像。
具体地,可从第t帧图像中提取出与第t帧图像对应的跟踪框中的图像,将提取出的图像确定为待分割图像。由于与第t帧图像对应的跟踪框能够完全将第t帧图像中的第一前景图像框选在内,那么在第t帧图像中属于该跟踪框之外的像素点均属于第二背景图像,因此在得到了与第t帧图像对应的跟踪框之后,可从第t帧图像中提取出与第t帧图像对应的跟踪框中的图像,并将该图像确定为待分割图像,后续仅对该待分割图像进行场景分割处理,有效地减少了图像场景分割的数据处理量,提高了处理效率。
步骤S203,对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果。
由于与第t帧图像对应的跟踪框能够完全将第t帧图像中的第一前景图像框选在内,那么无需对在第t帧图像中属于该跟踪框之外的像素点进行场景分割处理即可确定属于该跟踪框之外的像素点均属于第二背景图像,因此可仅对提取出的待分割图像进行场景分割处理。
其中,在对待分割图像进行场景分割处理时,可以利用深度学习方法。深度学习是机器学习中一种基于对数据进行表征学习的方法。观测值(例如一幅图像)可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更容易从实例中学习任务。可利用深度学习的分割方法对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果。其中,可利用深度学习方法得到的场景分割网络等对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果,根据分割结果可以确定出待分割图像中哪些像素点属于第二前景图像,哪些像素点属于第二背景图像。
具体地,可将待分割图像输入至场景分割网络中,得到与待分割图像对应的分割结果。在现有技术中为了便于场景分割网络对所输入的图像进行场景分割处理,需要对图像的尺寸进行调整,将其尺寸调整为预设尺寸,例如预设尺寸为320×240像素,而一般情况下,图像的尺寸大多为1280×720像素,因此需要先将其尺寸调整为320×240像素,然后再对尺寸调整后的图像进行场景分割处理。然而当利用场景分割网络对视频中的帧图像进行场景分割处理时,若第一前景图像在帧图像中所占比例较小,比如第一前景图像在帧图像中所占比例为0.2,那么根据现有技术仍然需要将帧图像的尺寸调小,然后再对其进行场景分割处理,那么在进行场景分割处理时,则很容易将实际属于第二前景图像边缘处的像素点划分为第二背景图像,所得到的分割结果的分割精度较低、分割效果较差。
而根据本发明提供的技术方案,是将从第t帧图像中提取出的与第t帧图像对应的跟踪框中的图像确定为待分割图像,然后对该待分隔图像进行场景分割处理,当第一前景图像在第t帧图像中所占比例较小时,所提取出的待分割图像的尺寸也将远远小于第t帧图像的尺寸,那么调整为预设尺寸的待分割图像与调整为预设尺寸的帧图像相比,能够更为有效地保留前景图像信息,因此所得到的分割结果的分割精度更高。
步骤S204,依据与待分割图像对应的分割结果,得到与第t帧图像对应的分割结果。
待分割图像为与第t帧图像对应的跟踪框中的图像,根据与待分割图像对应的分割结果能够清楚地确定待分割图像中哪些像素点属于第二前景图像,哪些像素点属于第二背景图像,而在第t帧图像中属于该跟踪框之外的像素点均属于第二背景图像,因此可方便、快速地依据与待分割图像对应的分割结果,得到与第t帧图像对应的分割结果,从而能够清楚地确定第t帧图像中哪些像素点属于第二前景图像,哪些像素点属于第二背景图像。与现有技术中对帧图像的全部内容进行场景分割处理相比,本发明仅对从帧图像中提取出的待分割图像进行场景分割处理,有效地减少了图像场景分割的数据处理量,提高了处理效率。
步骤S205,根据与第t帧图像对应的分割结果,确定第t帧图像的第二前景图像,并根据第二前景图像,确定第二前景图像中的待处理区域。
步骤S206,从待处理区域中提取出待处理区域的关键信息。
其中,该关键信息可以具体为关键点信息、关键区域信息、和/或关键线信息等。本发明的实施例以关键信息为关键点信息为例进行说明,但本发明的关键信息不限于是关键点信息。使用关键点信息可以提高根据关键点信息绘制穿越效果贴图的处理速度和效率,可以直接根据关键点信息绘制穿越效果贴图,不需要再对关键信息进行后续计算、分析等复杂操作。同时,关键点信息便于提取,且提取准确,使得绘制穿越效果贴图的效果更精准。具体地,可从待处理区域中提取出待处理区域边缘的关键点信息。
步骤S207,根据时间处理参数和待处理区域的关键信息,绘制与待处理区域对应的穿越效果贴图。
为了能够方便、快速地绘制出穿越效果贴图,可预先绘制许多的基础穿越效果贴图,那么在绘制与待处理区域对应的穿越效果贴图时,就可先找到对应的基础穿越效果贴图,然后对基础穿越效果贴图进行处理,从而快速地得到穿越效果贴图。其中,这些基础穿越效果贴图可包括具有不同穿越效果的服装效果贴图、装饰效果贴图、纹理效果贴图以及面部装扮效果贴图等,例如,与各个年代对应的服装效果贴图、装饰效果贴图、纹理效果贴图以及面部装扮效果贴图等,另外,为了便于管理这些基础穿越效果贴图,可建立一个效果贴图库,将这些基础穿越效果贴图存储至该效果贴图库中。
具体地,以关键信息为关键点信息为例,在从待处理区域中提取出待处理区域的关键点信息之后,可根据时间处理参数,查找与关键点信息匹配的基础穿越效果贴图,接着根据关键点信息,计算具有对称关系的至少两个关键点之间的位置信息,然后依据位置信息,对基础穿越效果贴图进行处理,得到穿越效果贴图。通过这种方式能够精准地绘制得到穿越效果贴图。
其中,本方法可以根据时间处理参数和提取的关键点信息,自动地从效果贴图库中查找与关键点信息匹配的基础穿越效果贴图,以待处理区域为躯体区域图像为例,时间处理参数为与清代对应的时间参数,提取出的关键点信息是人体的躯体的关键点信息,然后依据该时间处理参数,从效果贴图库中查找与躯体的关键点信息匹配的基础穿越效果贴图,也就是相当于查找与清代对应的服装效果贴图。另外,在实际应用中,为了便于用户使用、更好地满足用户的个性化需求,可向用户展现效果贴图库中所包含的与时间处理参数对应的基础穿越效果贴图,用户可根据自己的喜好自行选择基础穿越效果贴图,那么在这种情况下,本方法可获取与用户选择操作对应的基础穿越效果贴图。
其中,位置信息可包括距离信息和旋转角度信息,具体地,可依据位置信息中的距离信息,对基础穿越效果贴图进行缩放处理,和/或,依据位置信息中的旋转角度信息,对基础穿越效果贴图进行旋转处理,从而得到与待处理区域对应的穿越效果贴图。
步骤S208,将穿越效果贴图、第二前景图像与根据与第t帧图像对应的分割结果确定的第二背景图像进行融合处理,得到处理后的第t帧图像。
具体地,可根据待处理区域的关键信息,确定与穿越效果贴图对应的融合位置信息,然后按照融合位置信息,将穿越效果贴图、第二前景图像与根据与第t帧图像对应的分割结果确定的第二背景图像(即第t帧图像原有的背景图像)进行融合处理,得到处理后的第t帧图像。
步骤S209,将处理后的第t帧图像覆盖第t帧图像得到处理后的视频数据。
使用处理后的第t帧图像直接覆盖掉原来的第t帧图像,直接可以得到处理后的视频数据。同时,录制的用户还可以直接看到处理后的第t帧图像。
步骤S210,显示处理后的视频数据。
得到处理后的视频数据后,可以将其实时的进行显示,用户可以直接看到处理后的视频数据的显示效果。
步骤S211,将处理后的视频数据上传至云服务器。
将处理后的视频数据可以直接上传至云服务器,具体的,可以将处理后的视频数据上传至一个或多个的云视频平台服务器,如爱奇艺、优酷、快视频等云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。或者还可以将处理后的视频数据上传至云直播服务器,当有直播观看端的用户进入云直播服务器进行观看时,可以由云直播服务器将视频数据实时推送给观看用户客户端。或者还可以将处理后的视频数据上传至云公众号服务器,当有用户关注该公众号时,由云公众号服务器将视频数据推送给公众号关注客户端;进一步,云公众号服务器还可以根据关注公众号的用户的观看习惯,推送符合用户习惯的视频数据给公众号关注客户端。
根据本实施例提供的基于自适应跟踪框分割的视频穿越处理方法,采用深度学习方法,实现了高效率高精准性地完成场景分割处理,依据提取到的待处理区域的关键信息,能够方便、快速地为帧图像的待处理区域添加穿越效果,从而得到具有穿越效果的视频,提高了视频数据处理效率;另外,依据提取到的待处理区域的关键信息,能够精准地对穿越效果贴图进行缩放、旋转处理,使其更加切合特定对象,进一步提高了视频数据显示效果。本发明无需用户进行额外技术处理,极大地节省用户时间。
图3示出了根据本发明一个实施例的基于自适应跟踪框分割的视频穿越处理装置的结构框图,该装置用于对视频中每隔n帧划分得到的各组帧图像进行处理,如图3所示,该装置包括:获取模块310、分割模块320、确定模块330、绘制模块340、融合处理模块350、覆盖模块360和显示模块370。
获取模块310适于:获取一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框。
其中t大于1;与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的。
分割模块320适于:依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果。
可选地,分割模块320进一步适于:对第t帧图像进行识别处理,确定第t帧图像中针对特定对象的第一前景图像;将与第t-1帧图像对应的跟踪框应用于第t帧图像;根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理。
具体地,分割模块320进一步适于:计算第t帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例,将比例确定为第t帧图像的第一前景像素比例;获取第t-1帧图像的第二前景像素比例,其中,第t-1帧图像的第二前景像素比例为第t-1帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例;计算第t帧图像的第一前景像素比例与第t-1帧图像的第二前景比例之间的差异值;判断差异值是否超过预设差异阈值;若是,则根据差异值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
分割模块320进一步适于:计算第t帧图像中的第一前景图像距离与第t-1帧图像对应的跟踪框的各边框的距离;根据距离和预设距离阈值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
分割模块320进一步适于:根据第t帧图像中的第一前景图像,确定第t帧图像中的第一前景图像的中心点位置;依据第t帧图像中的第一前景图像的中心点位置,对与第t-1帧图像对应的跟踪框的位置进行调整处理,以使与第t-1帧图像对应的跟踪框的中心点位置与第t帧图像中的第一前景图像的中心点位置重合。
可选地,分割模块320进一步适于:根据与第t帧图像对应的跟踪框,从第t帧图像的部分区域提取出待分割图像;对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果;依据与待分割图像对应的分割结果,得到与第t帧图像对应的分割结果。
分割模块320进一步适于:从第t帧图像中提取出与第t帧图像对应的跟踪框中的图像,将提取出的图像确定为待分割图像。
分割模块320进一步适于:将待分割图像输入至场景分割网络中,得到与待分割图像对应的分割结果。
确定模块330适于:根据与第t帧图像对应的分割结果,确定第t帧图像的第二前景图像,并根据第二前景图像,确定第二前景图像中的待处理区域。
绘制模块340适于:依据时间处理参数,绘制与待处理区域对应的穿越效果贴图。
其中,穿越效果贴图包括以下贴图的一种或多种:服装效果贴图、装饰效果贴图、纹理效果贴图以及面部装扮效果贴图。可选地,绘制模块340进一步适于:从待处理区域中提取出待处理区域的关键信息;根据时间处理参数和待处理区域的关键信息,绘制与待处理区域对应的穿越效果贴图。
其中,关键信息可以具体为关键点信息、关键区域信息、和/或关键线信息等。本发明的实施例以关键信息为关键点信息为例进行说明。绘制模块340进一步适于:根据时间处理参数,查找与关键点信息匹配的基础穿越效果贴图;根据关键点信息,计算具有对称关系的至少两个关键点之间的位置信息;依据位置信息,对基础穿越效果贴图进行处理,得到穿越效果贴图。
绘制模块340进一步适于:依据位置信息中的距离信息,对基础穿越效果贴图进行缩放处理;和/或,依据位置信息中的旋转角度信息,对基础穿越效果贴图进行旋转处理。
融合处理模块350适于:将穿越效果贴图与第二前景图像进行融合处理,得到处理后的第t帧图像。
其中,融合处理模块350进一步适于:将穿越效果贴图、第二前景图像与根据与第t帧图像对应的分割结果确定的第二背景图像进行融合处理,得到处理后的第t帧图像。
覆盖模块360适于:将处理后的第t帧图像覆盖第t帧图像得到处理后的视频数据。
显示模块370适于:显示处理后的视频数据。
显示模块370得到处理后的视频数据后,可以将其实时的进行显示,用户可以直接看到处理后的视频数据的显示效果。
该装置还可包括:上传模块380,适于将处理后的视频数据上传至云服务器。
上传模块380将处理后的视频数据可以直接上传至云服务器,具体的,上传模块380可以将处理后的视频数据上传至一个或多个的云视频平台服务器,如爱奇艺、优酷、快视频等云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。或者上传模块380还可以将处理后的视频数据上传至云直播服务器,当有直播观看端的用户进入云直播服务器进行观看时,可以由云直播服务器将视频数据实时推送给观看用户客户端。或者上传模块380还可以将处理后的视频数据上传至云公众号服务器,当有用户关注该公众号时,由云公众号服务器将视频数据推送给公众号关注客户端;进一步,云公众号服务器还可以根据关注公众号的用户的观看习惯,推送符合用户习惯的视频数据给公众号关注客户端。
根据本实施例提供的基于自适应跟踪框分割的视频穿越处理装置,利用跟踪框对帧图像进行场景分割,能够快速、精准地得到帧图像对应的分割结果,实现了高效率高精准性地完成场景分割处理;依据分割结果和时间处理参数,能够自动、精准地对帧图像添加穿越效果,从而得到具有穿越效果的视频,提高了视频数据处理效率,优化了视频数据处理方式,提高了视频数据显示效果;并且本发明可以直接得到处理后的视频数据,不需要用户进行额外技术处理,极大地节省用户时间,同时对用户技术水平不做限制,方便大众使用。
本发明还提供了一种非易失性计算机存储介质,计算机存储介质存储有至少一可执行指令,可执行指令可执行上述任意方法实施例中的基于自适应跟踪框分割的视频穿越处理方法。
图4示出了根据本发明实施例的一种计算设备的结构示意图,本发明具体实施例并不对计算设备的具体实现做限定。
如图4所示,该计算设备可以包括:处理器(processor)402、通信接口(Communications Interface)404、存储器(memory)406、以及通信总线408。
其中:
处理器402、通信接口404、以及存储器406通过通信总线408完成相互间的通信。
通信接口404,用于与其它设备比如客户端或其它服务器等的网元通信。
处理器402,用于执行程序410,具体可以执行上述基于自适应跟踪框分割的视频穿越处理方法实施例中的相关步骤。
具体地,程序410可以包括程序代码,该程序代码包括计算机操作指令。
处理器402可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。计算设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器406,用于存放程序410。存储器406可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序410具体可以用于使得处理器402执行上述任意方法实施例中的基于自适应跟踪框分割的视频穿越处理方法。程序410中各步骤的具体实现可以参见上述基于自适应跟踪框分割的视频穿越处理实施例中的相应步骤和单元中对应的描述,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。

Claims (30)

1.一种基于自适应跟踪框分割的视频穿越处理方法,所述方法用于对视频中每隔n帧划分得到的各组帧图像进行处理,针对其中一组帧图像,所述方法包括:
获取所述一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框,其中t大于1;与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的;
依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对所述第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果;
根据与第t帧图像对应的分割结果,确定第t帧图像的第二前景图像,并根据所述第二前景图像,确定所述第二前景图像中的待处理区域;
依据时间处理参数,绘制与所述待处理区域对应的穿越效果贴图,所述穿越效果贴图包括以下贴图的一种或多种:服装效果贴图、装饰效果贴图、纹理效果贴图以及面部装扮效果贴图;
将所述穿越效果贴图与所述第二前景图像进行融合处理,得到处理后的第t帧图像;
将所述处理后的第t帧图像覆盖所述第t帧图像得到处理后的视频数据;
显示处理后的视频数据;
其中,所述依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理的步骤包括:
对第t帧图像进行识别处理,确定第t帧图像中针对特定对象的第一前景图像;
将与第t-1帧图像对应的跟踪框应用于第t帧图像;
根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理;
所述根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理的步骤包括:
计算第t帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例,将所述比例确定为第t帧图像的第一前景像素比例;
获取第t-1帧图像的第二前景像素比例,其中,第t-1帧图像的第二前景像素比例为第t-1帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例;
计算第t帧图像的第一前景像素比例与第t-1帧图像的第二前景比例之间的差异值;
判断所述差异值是否超过预设差异阈值;若是,则根据所述差异值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
2.根据权利要求1所述的方法,其中,所述依据时间处理参数,绘制与所述待处理区域对应的穿越效果贴图进一步包括:
从所述待处理区域中提取出所述待处理区域的关键信息;
根据所述时间处理参数和所述待处理区域的关键信息,绘制与所述待处理区域对应的穿越效果贴图。
3.根据权利要求2所述的方法,其中,所述关键信息为关键点信息;
所述根据所述时间处理参数和所述待处理区域的关键信息,绘制与所述待处理区域对应的穿越效果贴图进一步包括:
根据所述时间处理参数,查找与所述关键点信息匹配的基础穿越效果贴图;
根据所述关键点信息,计算具有对称关系的至少两个关键点之间的位置信息;
依据所述位置信息,对所述基础穿越效果贴图进行处理,得到穿越效果贴图。
4.根据权利要求3所述的方法,其中,所述依据所述位置信息,对所述基础穿越效果贴图进行处理,得到穿越效果贴图进一步包括:
依据所述位置信息中的距离信息,对所述基础穿越效果贴图进行缩放处理;和/或,依据所述位置信息中的旋转角度信息,对所述基础穿越效果贴图进行旋转处理。
5.根据权利要求1-4任一项所述的方法,其中,所述将所述穿越效果贴图与所述第二前景图像进行融合处理,得到处理后的第t帧图像进一步包括:
将所述穿越效果贴图、所述第二前景图像与根据与第t帧图像对应的分割结果确定的第二背景图像进行融合处理,得到处理后的第t帧图像。
6.根据权利要求1所述的方法,其中,所述根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理进一步包括:
计算第t帧图像中的第一前景图像距离与第t-1帧图像对应的跟踪框的各边框的距离;
根据所述距离和预设距离阈值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
7.根据权利要求1所述的方法,其中,所述根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理进一步包括:
根据第t帧图像中的第一前景图像,确定第t帧图像中的第一前景图像的中心点位置;
依据第t帧图像中的第一前景图像的中心点位置,对与第t-1帧图像对应的跟踪框的位置进行调整处理,以使与第t-1帧图像对应的跟踪框的中心点位置与第t帧图像中的第一前景图像的中心点位置重合。
8.根据权利要求1所述的方法,其中,所述根据与第t帧图像对应的跟踪框,对所述第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果进一步包括:
根据与第t帧图像对应的跟踪框,从第t帧图像的部分区域提取出待分割图像;
对所述待分割图像进行场景分割处理,得到与待分割图像对应的分割结果;
依据与待分割图像对应的分割结果,得到与第t帧图像对应的分割结果。
9.根据权利要求8所述的方法,其中,所述根据与第t帧图像对应的跟踪框,从第t帧图像的部分区域提取出待分割图像进一步包括:
从第t帧图像中提取出与第t帧图像对应的跟踪框中的图像,将提取出的图像确定为待分割图像。
10.根据权利要求8所述的方法,其中,所述对所述待分割图像进行场景分割处理,得到与待分割图像对应的分割结果进一步包括:
将所述待分割图像输入至场景分割网络中,得到与待分割图像对应的分割结果。
11.根据权利要求1所述的方法,其中,所述显示处理后的视频数据进一步包括:将处理后的视频数据实时显示;
所述方法还包括:将处理后的视频数据上传至云服务器。
12.根据权利要求11中所述的方法,其中,所述将处理后的视频数据上传至云服务器进一步包括:
将处理后的视频数据上传至云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。
13.根据权利要求11中所述的方法,其中,所述将处理后的视频数据上传至云服务器进一步包括:
将处理后的视频数据上传至云直播服务器,以供云直播服务器将视频数据实时推送给观看用户客户端。
14.根据权利要求11中所述的方法,其中,所述将处理后的视频数据上传至云服务器进一步包括:
将处理后的视频数据上传至云公众号服务器,以供云公众号服务器将视频数据推送给公众号关注客户端。
15.一种基于自适应跟踪框分割的视频穿越处理装置,所述装置用于对视频中每隔n帧划分得到的各组帧图像进行处理,针对其中一组帧图像,所述装置包括:
获取模块,适于获取所述一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框,其中t大于1;与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的;
分割模块,适于依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对所述第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果;
确定模块,适于根据与第t帧图像对应的分割结果,确定第t帧图像的第二前景图像,并根据所述第二前景图像,确定所述第二前景图像中的待处理区域;
绘制模块,适于依据时间处理参数,绘制与所述待处理区域对应的穿越效果贴图,所述穿越效果贴图包括以下贴图的一种或多种:服装效果贴图、装饰效果贴图、纹理效果贴图以及面部装扮效果贴图;
融合处理模块,适于将所述穿越效果贴图与所述第二前景图像进行融合处理,得到处理后的第t帧图像;
覆盖模块,适于将所述处理后的第t帧图像覆盖所述第t帧图像得到处理后的视频数据;
显示模块,适于显示处理后的视频数据;
所述分割模块,还适于:
对第t帧图像进行识别处理,确定第t帧图像中针对特定对象的第一前景图像;
将与第t-1帧图像对应的跟踪框应用于第t帧图像;
根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理;
所述分割模块,还适于:
计算第t帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例,将所述比例确定为第t帧图像的第一前景像素比例;
获取第t-1帧图像的第二前景像素比例,其中,第t-1帧图像的第二前景像素比例为第t-1帧图像中属于第一前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例;
计算第t帧图像的第一前景像素比例与第t-1帧图像的第二前景比例之间的差异值;
判断所述差异值是否超过预设差异阈值;若是,则根据所述差异值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
16.根据权利要求15所述的装置,其中,所述绘制模块进一步适于:
从所述待处理区域中提取出所述待处理区域的关键信息;
根据所述时间处理参数和所述待处理区域的关键信息,绘制与所述待处理区域对应的穿越效果贴图。
17.根据权利要求16所述的装置,其中,所述关键信息为关键点信息;
所述绘制模块进一步适于:
根据所述时间处理参数,查找与所述关键点信息匹配的基础穿越效果贴图;
根据所述关键点信息,计算具有对称关系的至少两个关键点之间的位置信息;
依据所述位置信息,对所述基础穿越效果贴图进行处理,得到穿越效果贴图。
18.根据权利要求17所述的装置,其中,所述绘制模块进一步适于:
依据所述位置信息中的距离信息,对所述基础穿越效果贴图进行缩放处理;和/或,依据所述位置信息中的旋转角度信息,对所述基础穿越效果贴图进行旋转处理。
19.根据权利要求15-18任一项所述的装置,其中,所述融合处理模块进一步适于:
将所述穿越效果贴图、所述第二前景图像与根据与第t帧图像对应的分割结果确定的第二背景图像进行融合处理,得到处理后的第t帧图像。
20.根据权利要求15所述的装置,其中,所述分割模块进一步适于:
计算第t帧图像中的第一前景图像距离与第t-1帧图像对应的跟踪框的各边框的距离;
根据所述距离和预设距离阈值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
21.根据权利要求15所述的装置,其中,所述分割模块进一步适于:
根据第t帧图像中的第一前景图像,确定第t帧图像中的第一前景图像的中心点位置;
依据第t帧图像中的第一前景图像的中心点位置,对与第t-1帧图像对应的跟踪框的位置进行调整处理,以使与第t-1帧图像对应的跟踪框的中心点位置与第t帧图像中的第一前景图像的中心点位置重合。
22.根据权利要求15所述的装置,其中,所述分割模块进一步适于:
根据与第t帧图像对应的跟踪框,从第t帧图像的部分区域提取出待分割图像;
对所述待分割图像进行场景分割处理,得到与待分割图像对应的分割结果;
依据与待分割图像对应的分割结果,得到与第t帧图像对应的分割结果。
23.根据权利要求22所述的装置,其中,所述分割模块进一步适于:
从第t帧图像中提取出与第t帧图像对应的跟踪框中的图像,将提取出的图像确定为待分割图像。
24.根据权利要求22所述的装置,其中,所述分割模块进一步适于:
将所述待分割图像输入至场景分割网络中,得到与待分割图像对应的分割结果。
25.根据权利要求15所述的装置,其中,所述显示模块进一步适于:将处理后的视频数据实时显示;
所述装置还包括:上传模块,适于将处理后的视频数据上传至云服务器。
26.根据权利要求25中所述的装置,其中,所述上传模块进一步适于:
将处理后的视频数据上传至云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。
27.根据权利要求25中所述的装置,其中,所述上传模块进一步适于:
将处理后的视频数据上传至云直播服务器,以供云直播服务器将视频数据实时推送给观看用户客户端。
28.根据权利要求25中所述的装置,其中,所述上传模块进一步适于:
将处理后的视频数据上传至云公众号服务器,以供云公众号服务器将视频数据推送给公众号关注客户端。
29.一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-14中任一项所述的基于自适应跟踪框分割的视频穿越处理方法对应的操作。
30.一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如权利要求1-14中任一项所述的基于自适应跟踪框分割的视频穿越处理方法对应的操作。
CN201711423804.2A 2017-12-25 2017-12-25 基于自适应跟踪框分割的视频穿越处理方法及装置 Active CN108171719B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711423804.2A CN108171719B (zh) 2017-12-25 2017-12-25 基于自适应跟踪框分割的视频穿越处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711423804.2A CN108171719B (zh) 2017-12-25 2017-12-25 基于自适应跟踪框分割的视频穿越处理方法及装置

Publications (2)

Publication Number Publication Date
CN108171719A CN108171719A (zh) 2018-06-15
CN108171719B true CN108171719B (zh) 2021-07-23

Family

ID=62520617

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711423804.2A Active CN108171719B (zh) 2017-12-25 2017-12-25 基于自适应跟踪框分割的视频穿越处理方法及装置

Country Status (1)

Country Link
CN (1) CN108171719B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107527041A (zh) * 2017-09-08 2017-12-29 北京奇虎科技有限公司 图像采集设备数据实时处理方法及装置、计算设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102270346A (zh) * 2011-07-27 2011-12-07 宁波大学 一种交互式视频中的目标对象的提取方法
CN104933694A (zh) * 2014-03-17 2015-09-23 华为技术有限公司 前后景分割的方法及设备
CN105847728A (zh) * 2016-04-13 2016-08-10 腾讯科技(深圳)有限公司 一种信息处理方法及终端
CN105894538A (zh) * 2016-04-01 2016-08-24 海信集团有限公司 一种目标跟踪方法和装置
CN106952284A (zh) * 2017-03-28 2017-07-14 歌尔科技有限公司 一种基于压缩跟踪算法的特征提取方法及其装置
CN107093168A (zh) * 2017-03-10 2017-08-25 厦门美图之家科技有限公司 皮肤区域图像的处理方法、装置和系统
CN107507155A (zh) * 2017-09-25 2017-12-22 北京奇虎科技有限公司 视频分割结果边缘优化实时处理方法、装置及计算设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9930271B2 (en) * 2015-09-28 2018-03-27 Gopro, Inc. Automatic composition of video with dynamic background and composite frames selected based on frame criteria

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102270346A (zh) * 2011-07-27 2011-12-07 宁波大学 一种交互式视频中的目标对象的提取方法
CN104933694A (zh) * 2014-03-17 2015-09-23 华为技术有限公司 前后景分割的方法及设备
CN105894538A (zh) * 2016-04-01 2016-08-24 海信集团有限公司 一种目标跟踪方法和装置
CN105847728A (zh) * 2016-04-13 2016-08-10 腾讯科技(深圳)有限公司 一种信息处理方法及终端
CN107093168A (zh) * 2017-03-10 2017-08-25 厦门美图之家科技有限公司 皮肤区域图像的处理方法、装置和系统
CN106952284A (zh) * 2017-03-28 2017-07-14 歌尔科技有限公司 一种基于压缩跟踪算法的特征提取方法及其装置
CN107507155A (zh) * 2017-09-25 2017-12-22 北京奇虎科技有限公司 视频分割结果边缘优化实时处理方法、装置及计算设备

Also Published As

Publication number Publication date
CN108171719A (zh) 2018-06-15

Similar Documents

Publication Publication Date Title
CN111787242B (zh) 用于虚拟试衣的方法和装置
CN107507155B (zh) 视频分割结果边缘优化实时处理方法、装置及计算设备
CN108111911B (zh) 基于自适应跟踪框分割的视频数据实时处理方法及装置
CN107665482B (zh) 实现双重曝光的视频数据实时处理方法及装置、计算设备
WO2016155377A1 (zh) 图片展示方法和装置
CN113287118A (zh) 用于面部再现的系统和方法
CN108109161B (zh) 基于自适应阈值分割的视频数据实时处理方法及装置
KR20190028349A (ko) 이미지 내 휴먼 분리를 위한 전자 장치 및 방법
CN107808372B (zh) 图像穿越处理方法、装置、计算设备及计算机存储介质
CN107610149B (zh) 图像分割结果边缘优化处理方法、装置及计算设备
CN107547803B (zh) 视频分割结果边缘优化处理方法、装置及计算设备
CN111145308A (zh) 一种贴纸获取方法和装置
CN107563357B (zh) 基于场景分割的直播服饰装扮推荐方法、装置及计算设备
CN107959798B (zh) 视频数据实时处理方法及装置、计算设备
CN111008935B (zh) 一种人脸图像增强方法、装置、系统及存储介质
CN108171716B (zh) 基于自适应跟踪框分割的视频人物装扮方法及装置
US20160086365A1 (en) Systems and methods for the conversion of images into personalized animations
CN107766803B (zh) 基于场景分割的视频人物装扮方法、装置及计算设备
CN113012082A (zh) 图像显示方法、装置、设备及介质
CN107734207B (zh) 视频对象变换处理方法、装置及计算设备
CN107705279B (zh) 实现双重曝光的图像数据实时处理方法及装置、计算设备
CN107564085B (zh) 图像扭曲处理方法、装置、计算设备及计算机存储介质
CN107680105B (zh) 基于虚拟世界的视频数据实时处理方法及装置、计算设备
CN107743263B (zh) 视频数据实时处理方法及装置、计算设备
CN114758027A (zh) 图像处理方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant