CN111405361A - 一种视频获取方法、电子设备及计算机可读存储介质 - Google Patents

一种视频获取方法、电子设备及计算机可读存储介质 Download PDF

Info

Publication number
CN111405361A
CN111405361A CN202010231294.4A CN202010231294A CN111405361A CN 111405361 A CN111405361 A CN 111405361A CN 202010231294 A CN202010231294 A CN 202010231294A CN 111405361 A CN111405361 A CN 111405361A
Authority
CN
China
Prior art keywords
target
action
model
video
submodels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010231294.4A
Other languages
English (en)
Other versions
CN111405361B (zh
Inventor
赵琦
颜忠伟
王科
张健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MIGU Culture Technology Co Ltd
Original Assignee
MIGU Culture Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MIGU Culture Technology Co Ltd filed Critical MIGU Culture Technology Co Ltd
Priority to CN202010231294.4A priority Critical patent/CN111405361B/zh
Publication of CN111405361A publication Critical patent/CN111405361A/zh
Application granted granted Critical
Publication of CN111405361B publication Critical patent/CN111405361B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明实施例提供一种视频获取方法、电子设备及计算机可读存储介质,涉及视频处理技术领域,以解决现有的视频合成效果差的问题。该方法包括:获取包括源对象的源视频;获取目标对象的第一图像;基于所述第一图像,获取所述目标对象的目标模型;获取所述源视频中所述源对象的关键动作;根据所述关键动作,对所述目标模型进行调整,获得目标动作模型;基于所述目标动作模型,获得目标视频。这样,基于源视频中源对象的关键动作,对目标对象的目标模型进行调整,可使得目标动作模型所呈现的动作与关键动作相匹配,增加了目标视频中目标对象动作的真实性,提升了目标视频的合成效果。

Description

一种视频获取方法、电子设备及计算机可读存储介质
技术领域
本发明涉及视频处理技术领域,尤其涉及一种视频获取方法、电子设备及计算机可读存储介质。
背景技术
随着短视频的流行,市场上出现了多种视频软件,以满足用户需求。例如,如果用户想要把他人的舞蹈视频进行处理,替换为是自己的舞蹈视频,通常的做法是通过图像处理技术,将舞蹈视频中他人的面部图像更换为用户的面部图像。而这种处理方式,视频合成的效果较差。
发明内容
本发明实施例提供一种视频获取方法,电子设备及计算机可读存储介质,以解决合成视频效果较差的问题。
为解决上述技术问题,本发明实施例是这样实现的:
第一方面,本发明实施例提供了一种视频获取方法,包括:
获取包括源对象的源视频;
获取目标对象的第一图像;
基于所述第一图像,获取所述目标对象的目标模型;
获取所述源视频中所述源对象的关键动作;
根据所述关键动作,对所述目标模型进行调整,获得目标动作模型;
基于所述目标动作模型,获得目标视频。
第二方面,本发明实施例还提供一种电子设备,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如第一方面所述的视频获取方法的步骤。
第三方面,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面所述的视频获取方法的步骤。
在本发明实施例中,获取包括源对象的源视频;获取目标对象的第一图像;基于所述第一图像,获取所述目标对象的目标模型;获取所述源视频中所述源对象的关键动作;根据所述关键动作,对所述目标模型进行调整,获得目标动作模型;基于所述目标动作模型,获得目标视频。这样,基于源视频中源对象的关键动作,对目标对象的目标模型进行调整,可使得目标动作模型所呈现的动作与源对象的关键动作相匹配,提升了目标对象模仿源对象动作的效果,增强了目标视频中目标对象动作的真实性,提升了目标视频的合成效果。
附图说明
图1是本发明实施例提供的视频获取方法的流程图之一;
图2是本发明实施例提供的视频获取方法的流程图之二;
图3是本发明实施例提供的视频获取方法的流程图之三;
图4是本发明实施例提供的生成模型示意图;
图5是本发明实施例提供的第一中间动作子模型位于网格中的示意图;
图6是本发明实施例提供的电子设备的结构图;
图7是本发明另一实施例提供的电子设备的结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了便于理解本发明实施例,首先对视频彩铃和彩铃进行说明。
参见图1,图1是本发明实施例提供的视频获取方法的流程图之一,如图1所示,本实施例提供一种视频获取方法,应用于电子设备,包括以下步骤:
步骤101、获取包括源对象的源视频。
源对象可为人或动物。源视频可为源对象的舞蹈视频,运动视频或者其他包括动作的视频。源视频可根据预先设定的剧本情节拍摄获得的视频,剧本情节包括预设动作。
步骤102、获取目标对象的第一图像。
目标对象可为人或动物,目标对象的第一图像优选为目标对象的正面全身图像,第一图像包括目标对象的面部。
步骤103、基于所述第一图像,获取所述目标对象的目标模型。
目标模型可为三维模型,基于所述第一图像构建而成。
步骤104、获取所述源视频中所述源对象的关键动作。
在获取关键动作时,可依据用户的选择操作确定关键动作;若源视频为根据预先设定的剧本情节拍摄获得的视频,则关键动作可根据剧本情节编排确定,即根据预设动作确定关键动作。例如,预设动作包括动作A、动作B和动作C,那么可从动作A、动作B和动作C中选择一个或多个作为关键动作。
步骤105、根据所述关键动作,对所述目标模型进行调整,获得目标动作模型。
根据关键动作,对目标模型进行调整,使得获得的目标动作模型与关键动作相匹配,也就是说,目标动作模型所呈现的动作与关键动作具有较高的相似度,达到目标对象的目标动作模型模仿关键动作的目的。
关键动作可包括一个或多个关键子动作。若关键动作包括多个关键子动作,则根据每一个关键子动作对目标模型进行调整,获得每一个关键子动作对应的目标动作子模型,目标动作模型包括目标动作子模型,目标动作子模型也可为三维模型。
步骤106、基于所述目标动作模型,获得目标视频。
本步骤中,在获取到目标动作模型后,可基于目标动作模型确定关键帧,然后根据关键帧确定目标视频。也就是说,目标视频中执行动作的对象为目标对象,执行的动作为源视频中源对象的动作,达到目标对象模仿源对象动作的目的。
例如,若源对象为张三,目标对象为李四,源视频是一段舞蹈视频。本实施例中,根据李四的图像建立目标模型,从该目标模型可获知是李四,例如,目标模型面部、身形与李四的面部、身形相似。按照舞蹈视频的关键动作,对李四的目标模型进行肢体动作调整,使得目标动作模型的肢体动作与关键动作相匹配,然后基于该目标动作模型,确定关键帧,然后进一步根据关键帧确定目标视频,这样,目标视频中,可显示李四跳了一段舞蹈,该舞蹈与张三在源视频中跳的舞蹈相同,即目标视频实现了李四模仿张三跳舞,整个过程中并不需要进行面部替换,避免了穿帮,提高了目标视频的合成效果。
本发明实施例中,上述电子设备可以为手机、平板电脑(Tablet PersonalComputer)、膝上型电脑(Laptop Computer)、个人数字助理(personal digitalassistant,简称PDA)、移动上网装置(Mobile Internet Device,简称MID)或可穿戴式设备(Wearable Device)等。
本发明实施例的视频获取方法,获取包括源对象的源视频;获取目标对象的第一图像;基于所述第一图像,获取所述目标对象的目标模型;获取所述源视频中所述源对象的关键动作;根据所述关键动作,对所述目标模型进行调整,获得目标动作模型;基于所述目标动作模型,获得目标视频。这样,基于源视频中源对象的关键动作,对目标对象的目标模型进行调整,可使得目标动作模型所呈现的动作与关键动作相匹配,提升了目标对象模仿源对象动作的效果,增加了目标视频中目标对象动作的真实性,提升了目标视频的合成效果。
参见图2,图2是本发明实施例提供的视频获取方法的流程图之二,如图2所示,本实施例提供一种视频获取方法,应用于电子设备,包括以下步骤:
步骤201、获取包括源对象的源视频。
源对象可为人或动物。源视频可为源对象的舞蹈视频,运动视频或者其他包括动作的视频。源视频可根据预先设定的剧本情节拍摄获得的视频,剧本情节包括预设动作。
步骤202、获取目标对象的第一图像。
目标对象可为人或动物,目标对象的第一图像优选为目标对象的正面全身图像,第一图像包括目标对象的面部。
步骤203、基于所述第一图像,获取所述目标对象的目标模型。
目标模型可为三维模型,基于所述第一图像构建而成。
步骤204、获取所述源视频中所述源对象的关键动作。
在获取关键动作时,可依据用户的选择操作确定关键动作;若源视频为根据预先设定的剧本情节拍摄获得的视频,则关键动作可根据剧本情节编排确定,即根据预设动作确定关键动作。例如,预设动作包括动作A、动作B和动作C,那么可从动作A、动作B和动作C中选择一个或多个作为关键动作。
步骤205、根据所述关键动作,获得动作模型。
根据关键动作,构建关键动作对应的动作模型,动作模型可为三维模型。关键动作可包括一个或多个关键子动作。若关键动作包括多个关键子动作,则根据每一个关键子动作可获得对应的子动作模型,此种情况下,动作模型包括多个子动作模型。子动作模型也可为三维模型。
步骤206、根据所述动作模型,对所述目标模型进行调整,获得所述目标动作模型。
具体的,根据动作模型,对目标模型进行调整,使得目标动作模型与动作模型相匹配,也就是说,目标动作模型所呈现的动作与动作模型具有较高的相似度,达到目标对象的目标动作模型模仿关键动作的目的。
步骤205-步骤206为步骤105的一种实现方式。
步骤207、基于所述目标动作模型,获得目标视频。
本发明实施例的视频获取方法,基于源视频中源对象的关键动作,构建动作模型,并基于动作模型,对目标对象的目标模型进行调整,可使得目标动作模型所呈现的动作与关键动作相匹配,提升了目标对象模仿源对象动作的效果。
参见图3,图3是本发明实施例提供的视频获取方法的流程图之三,如图3所示,本实施例提供一种视频获取方法,应用于电子设备,包括以下步骤:
步骤301、获取包括源对象的源视频。
源对象可为人或动物。源视频可为源对象的舞蹈视频,运动视频或者其他包括动作的视频。源视频可根据预先设定的剧本情节拍摄获得的视频,剧本情节包括预设动作。
步骤302、获取目标对象的第一图像。
目标对象可为人或动物,目标对象的第一图像优选为目标对象的正面全身图像,第一图像包括目标对象的面部。
步骤303、基于所述第一图像,获取所述目标对象的目标模型。
目标模型可为三维模型,基于所述第一图像构建而成。
进一步的,步骤303、基于所述第一图像,获取所述目标对象的目标模型,包括:
根据所述第一图像,获取所述目标对象的中间目标模型;
根据所述第一图像,利用生成模型,获得所述目标对象的第二图像,所述第二图像中所述目标对象的外观与所述第一图像中所述目标对象的外观相匹配;
根据所述第二图像,对所述中间目标模型进行调整,获得所述目标模型,所述目标模型的外观与所述第二图像中所述目标对象的外观相匹配。
在本实施例中,生成模型用于根据第一图像,生成目标对象的第二图像,所述第二图像中所述目标对象的外观与所述第一图像中所述目标对象的外观相匹配。目标对象的外观可为目标对象的面部、服装、或者目标对象的毛色(对目标对象是动物来说)等等。可采用基于深度学习的迁移算法,将目标对象的外观迁移到中间目标模型上。生成模型采用对抗网络,对抗网络由生成器和判别器组成,生成器的作用是捕获样本数据的分布,根据输入的随机噪声模仿目标域样本分布,生成一个虚假的样本并“骗过”判别器。
本实施例中的生成模型的生成器的作用是:根据第一图像中目标对象的外观,生成第二图像,第二图像中目标对象的外观与第一图像中目标对象的外观相匹配。如图4所示,为生成模型的训练示意图,训练时,向生成器输入噪声,噪声的存在是让网络具有随机性,能产生分布,从而可以进行采样,通常采用服从高斯分布的随机噪声。通过生成器获得生成数据,并将生成数据和通过真实样本获得的真实数据一起输入判别器,判别器输出判别结果。训练完成后,生成模型中的生成器可生成第二图像,第二图像中目标对象的外观与第一图像中目标对象的外观相匹配。
根据所述第二图像,对所述中间目标模型进行调整,获得所述目标模型,所述目标模型的外观与所述第二图像中所述目标对象的外观相匹配,实现第一图像中目标对象的外观与目标模型的外观一致的视觉效果。
根据所述第二图像,对中间目标模型进行调整,可理解为根据第二图像的外观对中间目标模型进行贴图,使得中间目标模型具有与第二图像一致的外观视觉效果。
步骤304、获取所述源视频中所述源对象的关键动作。
在获取关键动作时,可依据用户的选择操作确定关键动作;若源视频为根据预先设定的剧本情节拍摄获得的视频,则关键动作可根据剧本情节编排确定,即根据预设动作确定关键动作。例如,预设动作包括动作A、动作B和动作C,那么可从动作A、动作B和动作C中选择一个或多个作为关键动作。
步骤305、根据所述关键动作的M个关键子动作,获得M个动作子模型,M为正整数。
关键动作包括M个关键子动作,根据每个关键子动作,可获得一个动作子模型。
步骤306、根据所述M个动作子模型,对所述目标模型进行调整,获得所述目标动作模型的M个目标动作子模型。
根据一个动作子模型,对目标模型进行调整,获得一个目标动作子模型,这样,每个动作子模型可对应一个目标动作子模型。
进一步的,步骤305、根据所述M个动作子模型,对所述目标模型进行调整,获得所述目标动作模型的M个目标动作子模型,包括:
对于所述M个动作子模型的每一个动作子模型,对所述动作子模型进行三维空间拆解,获得所述动作子模型的多个关键点;
根据所述多个关键点,对所述目标模型进行调整,获得与所述动作子模型对应的目标动作子模型。
具体的,在根据动作子模型对目标模型进行拆解,例如,采用人体分割算法进行拆解,获得目标动作子模型时,基于M个动作子模型中的每一个动作子模型,可对该动作子模型进行三维空间拆解,获得多个关键点,这多个关键点具有三维坐标。然后基于这些关键点,对目标模型中与关键点对应的点进行调整,获得目标动作子模型。每个动作子模型对应一个目标动作子模型。
进一步的,步骤305、根据所述M个动作子模型,对所述目标模型进行调整,获得所述目标动作模型的M个目标动作子模型,包括:
根据所述M个动作子模型,对所述目标模型进行调整,获得M个中间动作子模型;
对于所述M个中间动作子模型的每一个中间动作子模型,获取所述中间动作子模型的目标顶点;
获取与所述目标顶点对应的第一顶点,其中,所述第一顶点为第一动作子模型的顶点,所述第一动作子模型为与所述中间动作子模型对应的动作子模型;
从预先获取的与所述第一动作子模型对应的动作模板模型中,获取与所述目标顶点对应的第二顶点;
根据所述第一顶点和所述第二顶点的位置,对所述目标顶点的位置进行调整,以获得所述中间动作子模型对应的目标动作子模型。
根据M个动作子模型,对所述目标模型进行调整,获得M个中间动作子模型,具体可为:对于所述M个动作子模型的每一个动作子模型,对所述动作子模型进行三维空间拆解,获得所述动作子模型的多个关键点;根据所述多个关键点,对所述目标模型进行调整,获得与所述动作子模型对应的中间动作子模型。具体可采用上述相关记载,在此不做赘述。
为了进一步提高中间动作子模型的调整精度,对中间动作子模型进行进一步调整。
对于每一个中间动作子模型,确定中间动作子模型的目标顶点,然后获取与所述目标顶点对应的第一顶点,第一顶点为第一动作子模型的顶点,中间动作子模型与第一动作子模型对应,即中间动作子模型是基于第一动作子模型对目标模型进行调整获得。
动作模板模型预先获取,动作模板模型可视为标准动作模型。动作模板模型集可包括多个动作模板模型,各动作模板模型与M个动作子模型一一对应。从动作模板模型集中确定与第一动作子模型对应的动作模板模型,并从该动作模板模型中获取与目标顶点对应的第二顶点。
根据所述第一顶点和所述第二顶点的位置,对所述目标顶点的位置进行调整。
若中间动作子模型顶点为V,动作模板模型为V1,第一动作子模型顶点为V2,V的计算表达式如下:
Figure BDA0002429366530000081
Figure BDA0002429366530000082
表示权值,取值范围为0到1。
图5为位于网格中的中间动作子模型,采用网格变形算法对中间动作子模型进行微调,即根据动作模板模型集中的动作模板模型,以及第一动作子模型对中间动作子模型,采用上述表达式进行调整。
以上述公式为基准,在需要对多个中间动作子模型进行调整的情况下,使用多目标融合算法,算法如下:
Figure BDA0002429366530000091
Figure BDA0002429366530000092
表示权值,取值范围为0到1,b表示关键动作的动作库基准模型的顶点坐标,即动作模板模型集中的动作模板模型的顶点坐标,b=(xb,yb,zb),Ti表示第i个动作子模型的顶点坐标,i的取值可从1到n,n为动作子模型的总个数,T1=(x1,y1,z1)表示第一个动作子模型的顶点坐标,T2=(x2,y2,z2)表示第二个动作子模型的顶点坐标,以此类推,Tn=(xn,yn,zn)表示第n个动作子模型的顶点坐标。
步骤305-步骤306为步骤205的一种实现方式。
步骤307、基于所述M个目标动作子模型,获得目标视频。
步骤307为步骤206的一种实现方式。
进一步的,本步骤具体可为:基于所述M个目标动作子模型,获得M个目标帧;根据所述M个目标帧,获得目标视频。
根据每个目标动作子模型可确定一个目标帧,每个目标帧中显示有一个目标动作子模型对应的动作,将这多个目标帧的动作串联起来,可使得目标视频中的动作是连贯的。
进一步的,所述根据所述M个目标帧,获得目标视频,包括:
根据所述M个目标动作子模型与所述M个目标帧之间的对应关系,且根据所述M个目标动作子模型的第一顺序,对所述M个目标帧进行排序,获得排序后的目标帧序列,所述第一顺序由所述M个目标动作子模型根据M个关键子动作的顺序确定;
基于所述目标帧序列进行帧间插值,获得所述目标视频。
M个关键子动作的顺序可根据各个关键子动作在源视频中的先后顺序确定,由于目标动作子模型与关键子动作之间具有对应关系,这样,基于各个关键子动作的先后顺序,可确定各个目标动作子模型之间的先后顺序,即第一顺序。
由于根据目标动作子模型确定目标帧,目标动作子模型与目标帧之间具有对应关系,这样,基于各目标动作子模型的先后顺序,可确定多个目标帧之间的先后顺序。为了提高目标视频的显示效果,采用目标帧序列中相邻目标帧进行帧间插值,获得目标视频。目标视频中执行动作的对象为目标对象,执行的动作为源视频中源对象的动作,达到目标对象模仿源对象动作的目的,例如,若关键动作为舞蹈动作,则可获得目标对象模仿源对象跳舞的目标视频。
参见图6,图6是本发明实施例提供的终端的结构图,如图6所示,电子设备600,包括:
第一获取模块601,用于获取包括源对象的源视频;
第二获取模块602,用于获取目标对象的第一图像;
第三获取模块603,用于基于所述第一图像,获取所述目标对象的目标模型;
第四获取模块604,用于获取所述源视频中所述源对象的关键动作;
第五获取模块605,用于根据所述关键动作,对所述目标模型进行调整,获得目标动作模型;
第六获取模块606,用于基于所述目标动作模型,获得目标视频。
进一步的,所述第五获取模块605,包括:
第一获取子模块,用于根据所述关键动作,获得动作模型;
第二获取子模块,用于根据所述动作模型,对所述目标模型进行调整,获得所述目标动作模型。
进一步的,所述第一获取子模块,用于根据所述关键动作的M个关键子动作,获得M个动作子模型,M为正整数;
所述第二获取子模块,用于根据所述M个动作子模型,对所述目标模型进行调整,获得所述目标动作模型的M个目标动作子模型;
所述第六获取模块,用于基于所述M个目标动作子模型,获得目标视频。
进一步的,所述第二获取子模块,包括:
拆解单元,用于对于所述M个动作子模型的每一个动作子模型,对所述动作子模型进行三维空间拆解,获得所述动作子模型的多个关键点;
第一调整单元,用于根据所述多个关键点,对所述目标模型进行调整,获得与所述动作子模型对应的目标动作子模型。
进一步的,所述第二获取子模块,包括:
第二调整单元,用于根据所述M个动作子模型,对所述目标模型进行调整,获得M个中间动作子模型;
第一获取单元,用于对于所述M个中间动作子模型的每一个中间动作子模型,获取所述中间动作子模型的目标顶点;
第二获取单元,用于获取与所述目标顶点对应的第一顶点,其中,所述第一顶点为第一动作子模型的顶点,所述第一动作子模型为与所述中间动作子模型对应的动作子模型;
第三获取单元,用于从预先获取的与所述第一动作子模型对应的动作模板模型中,获取与所述目标顶点对应的第二顶点;
第三调整单元,用于根据所述第一顶点和所述第二顶点的位置,对所述目标顶点的位置进行调整,以获得所述中间动作子模型对应的目标动作子模型。
进一步的,所述第三获取模块603,用于:
根据所述第一图像,获取所述目标对象的中间目标模型;
根据所述第一图像,利用生成模型,获得所述目标对象的第二图像,所述第二图像中所述目标对象的外观与所述第一图像中所述目标对象的外观相匹配;
根据所述第二图像,对所述中间目标模型进行调整,获得所述目标模型,所述目标模型的外观与所述第二图像中所述目标对象的外观相匹配。
进一步的,所述第六获取模块606,包括:
第四获取单元,用于基于所述M个目标动作子模型,获得M个目标帧;
第五获取单元,用于根据所述M个目标帧,获得目标视频。
进一步的,所述第五获取单元,用于:
根据所述M个目标动作子模型与所述M个目标帧之间的对应关系,且根据所述M个目标动作子模型的第一顺序,对所述M个目标帧进行排序,获得排序后的目标帧序列,所述第一顺序由所述M个目标动作子模型根据M个关键子动作的顺序确定;
基于所述目标帧序列进行帧间插值,获得所述目标视频。
终端600能够实现图1-图3方法实施例中终端实现的各个过程,为避免重复,这里不再赘述。
本发明实施例的终端600,获取包括源对象的源视频;获取目标对象的第一图像;基于所述第一图像,构建所述目标对象的目标模型;获取所述源视频中所述源对象的关键动作;根据所述关键动作,对所述目标模型进行调整,获得目标动作模型;基于所述目标动作模型,获得目标视频。这样,基于源视频中源对象的关键动作,对目标对象的目标模型进行调整,可使得目标动作模型所呈现的动作与关键动作相匹配,提升了目标对象模仿源对象动作的合成效果。
图7为实现本发明各个实施例的一种电子设备的硬件结构示意图,如图7所示,该电子设备700包括但不限于:射频单元701、网络模块702、音频输出单元703、输入单元704、传感器705、显示单元706、用户输入单元707、接口单元708、存储器709、处理器710、以及电源711等部件。本领域技术人员可以理解,图7中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,电子设备包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、以及计步器等。
其中,处理器710,用于获取包括源对象的源视频;
获取目标对象的第一图像;
基于所述第一图像,获取所述目标对象的目标模型;
获取所述源视频中所述源对象的关键动作;
根据所述关键动作,对所述目标模型进行调整,获得目标动作模型;
基于所述目标动作模型,获得目标视频。
进一步的,处理器710,还用于:
根据所述关键动作,获得动作模型;
根据所述动作模型,对所述目标模型进行调整,获得所述目标动作模型。
进一步的,处理器710,还用于:
根据所述关键动作的M个关键子动作,获得M个动作子模型,M为正整数;
所述根据所述动作模型,对所述目标模型进行调整,获得所述目标动作模型,包括:
根据所述M个动作子模型,对所述目标模型进行调整,获得所述目标动作模型的M个目标动作子模型;
所述基于所述目标动作模型,获得目标视频,包括:
基于所述M个目标动作子模型,获得目标视频。
进一步的,处理器710,还用于:
对于所述M个动作子模型的每一个动作子模型,对所述动作子模型进行三维空间拆解,获得所述动作子模型的多个关键点;
根据所述多个关键点,对所述目标模型进行调整,获得与所述动作子模型对应的目标动作子模型。
进一步的,处理器710,还用于:
根据所述M个动作子模型,对所述目标模型进行调整,获得M个中间动作子模型;
对于所述M个中间动作子模型的每一个中间动作子模型,获取所述中间动作子模型的目标顶点;
获取与所述目标顶点对应的第一顶点,其中,所述第一顶点为第一动作子模型的顶点,所述第一动作子模型为与所述中间动作子模型对应的动作子模型;
从预先获取的与所述第一动作子模型对应的动作模板模型中,获取与所述目标顶点对应的第二顶点;
根据所述第一顶点和所述第二顶点的位置,对所述目标顶点的位置进行调整,以获得所述中间动作子模型对应的目标动作子模型。
进一步的,处理器710,还用于:
根据所述第一图像,获取所述目标对象的中间目标模型;
根据所述第一图像,利用生成模型,获得所述目标对象的第二图像,所述第二图像中所述目标对象的外观与所述第一图像中所述目标对象的外观相匹配;
根据所述第二图像,对所述中间目标模型进行调整,获得所述目标模型,所述目标模型的外观与所述第二图像中所述目标对象的外观相匹配。
进一步的,处理器710,还用于:
基于所述M个目标动作子模型,获得M个目标帧;
根据所述M个目标帧,获得目标视频。
进一步的,处理器710,还用于:
根据所述M个目标动作子模型与所述M个目标帧之间的对应关系,且根据所述M个目标动作子模型的第一顺序,对所述M个目标帧进行排序,获得排序后的目标帧序列,所述第一顺序由所述M个目标动作子模型根据M个关键子动作的顺序确定;
基于所述目标帧序列进行帧间插值,获得所述目标视频。
电子设备700能够实现前述实施例中电子设备实现的各个过程,为避免重复,这里不再赘述。
本发明实施例的电子设备700,获取包括源对象的源视频;获取目标对象的第一图像;基于所述第一图像,获取所述目标对象的目标模型;获取所述源视频中所述源对象的关键动作;根据所述关键动作,对所述目标模型进行调整,获得目标动作模型;基于所述目标动作模型,获得目标视频。这样,基于源视频中源对象的关键动作,对目标对象的目标模型进行调整,可使得目标动作模型所呈现的动作与关键动作相匹配,提升了目标对象模仿源对象动作的合成效果。
应理解的是,本发明实施例中,射频单元701可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器710处理;另外,将上行的数据发送给基站。通常,射频单元701包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元701还可以通过无线通信系统与网络和其他设备通信。
电子设备通过网络模块702为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元703可以将射频单元701或网络模块702接收的或者在存储器709中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元703还可以提供与电子设备700执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元703包括扬声器、蜂鸣器以及受话器等。
输入单元704用于接收音频或视频信号。输入单元704可以包括图形处理器(Graphics Processing Unit,GPU)7041和麦克风7042,图形处理器7041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元706上。经图形处理器7041处理后的图像帧可以存储在存储器709(或其它存储介质)中或者经由射频单元701或网络模块702进行发送。麦克风7042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元701发送到移动通信基站的格式输出。
电子设备700还包括至少一种传感器707,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板7061的亮度,接近传感器可在电子设备700移动到耳边时,关闭显示面板7061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别电子设备姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器707还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元706用于显示由用户输入的信息或提供给用户的信息。显示单元706可包括显示面板7061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板7061。
用户输入单元707可用于接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元707包括触控面板7071以及其他输入设备7072。触控面板7071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板7071上或在触控面板7071附近的操作)。触控面板7071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器710,接收处理器710发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板7071。除了触控面板7071,用户输入单元707还可以包括其他输入设备7072。具体地,其他输入设备7072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板7071可覆盖在显示面板7061上,当触控面板7071检测到在其上或附近的触摸操作后,传送给处理器710以确定触摸事件的类型,随后处理器710根据触摸事件的类型在显示面板7061上提供相应的视觉输出。虽然在图7中,触控面板7071与显示面板7061是作为两个独立的部件来实现电子设备的输入和输出功能,但是在某些实施例中,可以将触控面板7071与显示面板7061集成而实现电子设备的输入和输出功能,具体此处不做限定。
接口单元708为外部装置与电子设备700连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元708可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到电子设备700内的一个或多个元件或者可以用于在电子设备700和外部装置之间传输数据。
存储器709可用于存储软件程序以及各种数据。存储器709可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器709可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器710是电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器709内的软件程序和/或模块,以及调用存储在存储器709内的数据,执行电子设备的各种功能和处理数据,从而对电子设备进行整体监控。处理器710可包括一个或多个处理单元;优选的,处理器710可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器710中。
电子设备700还可以包括给各个部件供电的电源711(比如电池),优选的,电源711可以通过电源管理系统与处理器710逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,电子设备700包括一些未示出的功能模块,在此不再赘述。
优选的,本发明实施例还提供一种电子设备,包括处理器710,存储器709,存储在存储器709上并可在所述处理器710上运行的计算机程序,该计算机程序被处理器710执行时实现上述视频获取方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述图1或图2所示视频获取方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random AccessMemory,简称RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。

Claims (10)

1.一种视频获取方法,应用于电子设备,其特征在于,包括:
获取包括源对象的源视频;
获取目标对象的第一图像;
基于所述第一图像,获取所述目标对象的目标模型;
获取所述源视频中所述源对象的关键动作;
根据所述关键动作,对所述目标模型进行调整,获得目标动作模型;
基于所述目标动作模型,获得目标视频。
2.根据权利要求1所述的方法,其特征在于,所述根据所述关键动作,对所述目标模型进行调整,获得目标动作模型,包括:
根据所述关键动作,获得动作模型;
根据所述动作模型,对所述目标模型进行调整,获得所述目标动作模型。
3.根据权利要求2所述的方法,其特征在于,所述根据所述关键动作,获得动作模型,包括:
根据所述关键动作的M个关键子动作,获得M个动作子模型,M为正整数;
所述根据所述动作模型,对所述目标模型进行调整,获得所述目标动作模型,包括:
根据所述M个动作子模型,对所述目标模型进行调整,获得所述目标动作模型的M个目标动作子模型;
所述基于所述目标动作模型,获得目标视频,包括:
基于所述M个目标动作子模型,获得目标视频。
4.根据权利要求3所述的方法,其特征在于,所述根据所述M个动作子模型,对所述目标模型进行调整,获得所述目标动作模型的M个目标动作子模型,包括:
对于所述M个动作子模型的每一个动作子模型,对所述动作子模型进行三维空间拆解,获得所述动作子模型的多个关键点;
根据所述多个关键点,对所述目标模型进行调整,获得与所述动作子模型对应的目标动作子模型。
5.根据权利要求3所述的方法,其特征在于,所述根据所述M个动作子模型,对所述目标模型进行调整,获得所述目标动作模型的M个目标动作子模型,包括:
根据所述M个动作子模型,对所述目标模型进行调整,获得M个中间动作子模型;
对于所述M个中间动作子模型的每一个中间动作子模型,获取所述中间动作子模型的目标顶点;
获取与所述目标顶点对应的第一顶点,其中,所述第一顶点为第一动作子模型的顶点,所述第一动作子模型为与所述中间动作子模型对应的动作子模型;
从预先获取的与所述第一动作子模型对应的动作模板模型中,获取与所述目标顶点对应的第二顶点;
根据所述第一顶点和所述第二顶点的位置,对所述目标顶点的位置进行调整,以获得所述中间动作子模型对应的目标动作子模型。
6.根据权利要求1所述的方法,其特征在于,所述基于所述第一图像,获取所述目标对象的目标模型,包括:
根据所述第一图像,获取所述目标对象的中间目标模型;
根据所述第一图像,利用生成模型,获得所述目标对象的第二图像,所述第二图像中所述目标对象的外观与所述第一图像中所述目标对象的外观相匹配;
根据所述第二图像,对所述中间目标模型进行调整,获得所述目标模型,所述目标模型的外观与所述第二图像中所述目标对象的外观相匹配。
7.根据权利要求3所述的方法,其特征在于,所述基于所述M个目标动作子模型,获得目标视频,包括:
基于所述M个目标动作子模型,获得M个目标帧;
根据所述M个目标帧,获得目标视频。
8.根据权利要求7所述的方法,其特征在于,所述根据所述M个目标帧,获得目标视频,包括:
根据所述M个目标动作子模型与所述M个目标帧之间的对应关系,且根据所述M个目标动作子模型的第一顺序,对所述M个目标帧进行排序,获得排序后的目标帧序列,所述第一顺序由所述M个目标动作子模型根据M个关键子动作的顺序确定;
基于所述目标帧序列进行帧间插值,获得所述目标视频。
9.一种电子设备,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至8中任一项所述的视频获取方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述的视频获取方法的步骤。
CN202010231294.4A 2020-03-27 2020-03-27 一种视频获取方法、电子设备及计算机可读存储介质 Active CN111405361B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010231294.4A CN111405361B (zh) 2020-03-27 2020-03-27 一种视频获取方法、电子设备及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010231294.4A CN111405361B (zh) 2020-03-27 2020-03-27 一种视频获取方法、电子设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN111405361A true CN111405361A (zh) 2020-07-10
CN111405361B CN111405361B (zh) 2022-06-14

Family

ID=71414182

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010231294.4A Active CN111405361B (zh) 2020-03-27 2020-03-27 一种视频获取方法、电子设备及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN111405361B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114630057A (zh) * 2022-03-11 2022-06-14 北京字跳网络技术有限公司 确定特效视频的方法、装置、电子设备及存储介质
CN114915722A (zh) * 2021-02-09 2022-08-16 华为技术有限公司 处理视频的方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018018957A1 (zh) * 2016-07-29 2018-02-01 迈吉客科技(北京)有限公司 三维模型的实时控制方法和系统
CN109242940A (zh) * 2017-05-11 2019-01-18 腾讯科技(深圳)有限公司 三维动态图像的生成方法和装置
CN109829965A (zh) * 2019-02-27 2019-05-31 Oppo广东移动通信有限公司 人脸模型的动作处理方法、装置、存储介质及电子设备
CN110245638A (zh) * 2019-06-20 2019-09-17 北京百度网讯科技有限公司 视频生成方法和装置
CN110827383A (zh) * 2019-11-25 2020-02-21 腾讯科技(深圳)有限公司 三维模型的姿态模拟方法、装置、存储介质和电子设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018018957A1 (zh) * 2016-07-29 2018-02-01 迈吉客科技(北京)有限公司 三维模型的实时控制方法和系统
CN109242940A (zh) * 2017-05-11 2019-01-18 腾讯科技(深圳)有限公司 三维动态图像的生成方法和装置
CN109829965A (zh) * 2019-02-27 2019-05-31 Oppo广东移动通信有限公司 人脸模型的动作处理方法、装置、存储介质及电子设备
CN110245638A (zh) * 2019-06-20 2019-09-17 北京百度网讯科技有限公司 视频生成方法和装置
CN110827383A (zh) * 2019-11-25 2020-02-21 腾讯科技(深圳)有限公司 三维模型的姿态模拟方法、装置、存储介质和电子设备

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114915722A (zh) * 2021-02-09 2022-08-16 华为技术有限公司 处理视频的方法和装置
CN114915722B (zh) * 2021-02-09 2023-08-22 华为技术有限公司 处理视频的方法和装置
CN114630057A (zh) * 2022-03-11 2022-06-14 北京字跳网络技术有限公司 确定特效视频的方法、装置、电子设备及存储介质
CN114630057B (zh) * 2022-03-11 2024-01-30 北京字跳网络技术有限公司 确定特效视频的方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN111405361B (zh) 2022-06-14

Similar Documents

Publication Publication Date Title
CN110740259B (zh) 视频处理方法及电子设备
CN111223143B (zh) 关键点检测方法、装置及计算机可读存储介质
CN109005336B (zh) 一种图像拍摄方法及终端设备
CN109409244B (zh) 一种物体摆放方案的输出方法和移动终端
CN110706179A (zh) 一种图像处理方法及电子设备
CN107730460B (zh) 一种图像处理方法及移动终端
CN108683850B (zh) 一种拍摄提示方法及移动终端
CN111554321A (zh) 降噪模型训练方法、装置、电子设备及存储介质
CN111031234B (zh) 一种图像处理方法及电子设备
CN111641861B (zh) 视频播放方法及电子设备
CN111401463B (zh) 检测结果输出的方法、电子设备及介质
CN113365085B (zh) 一种直播视频生成方法及装置
CN109671034B (zh) 一种图像处理方法及终端设备
CN109618218B (zh) 一种视频处理方法及移动终端
CN109544445B (zh) 一种图像处理方法、装置及移动终端
CN109246351B (zh) 一种构图方法及终端设备
CN111405361B (zh) 一种视频获取方法、电子设备及计算机可读存储介质
CN110555815B (zh) 一种图像处理方法和电子设备
CN111080747B (zh) 一种人脸图像处理方法及电子设备
CN109618055B (zh) 一种位置共享方法及移动终端
CN109858447B (zh) 一种信息处理方法及终端
CN109712085B (zh) 一种图像处理方法及终端设备
CN108830901B (zh) 一种图像处理方法和电子设备
CN110674294A (zh) 一种相似度确定方法及电子设备
CN111276142B (zh) 一种语音唤醒方法及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant