CN110113659A - 生成视频的方法、装置、电子设备及介质 - Google Patents

生成视频的方法、装置、电子设备及介质 Download PDF

Info

Publication number
CN110113659A
CN110113659A CN201910319234.5A CN201910319234A CN110113659A CN 110113659 A CN110113659 A CN 110113659A CN 201910319234 A CN201910319234 A CN 201910319234A CN 110113659 A CN110113659 A CN 110113659A
Authority
CN
China
Prior art keywords
video
target user
processed
time range
mood
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910319234.5A
Other languages
English (en)
Inventor
许赫赫
杨涛
王婷婷
王书耀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dami Technology Co Ltd
Original Assignee
Beijing Dami Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dami Technology Co Ltd filed Critical Beijing Dami Technology Co Ltd
Priority to CN201910319234.5A priority Critical patent/CN110113659A/zh
Publication of CN110113659A publication Critical patent/CN110113659A/zh
Priority to PCT/CN2020/081071 priority patent/WO2020211607A1/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种生成视频的方法、装置、电子设备及介质。其中,本申请中,当获取待处理视频时之后,可以获取待处理视频中目标用户的情绪片段,再基于情绪片段,生成目标视频。通过应用本申请的技术方案,可以根据检测到的待处理视频中目标人物的情绪特征,选择将满足预设条件的情绪特征的视频片段进行剪切,并根据剪切的视频片段生成目标视频。进而可以避免在对大量视频进行感兴趣内容提取的过程中,需要耗费用户大量时间进行剪切的弊端。

Description

生成视频的方法、装置、电子设备及介质
技术领域
本申请中涉及图像处理技术,尤其是一种生成视频的方法、装置、电子设备及介质。
背景技术
随着通信与社会的发展,利用智能电子终端拍摄视频已经被越来越多的用户所使用。
其中,伴随着互联网的发展,可供用户在网络浏览的视频也随之增多。与此同时,很多用户都有将视频进行剪切取其精华的需求。一般来说,当用户需要对视频剪切时,通常需要找出该段待剪切内容在视频中出现的起始点和终止点,并将起始点和终止点之间的视频内容单独剪辑出来,以得到用户需要的感兴趣内容。例如,在一个课堂教学视频中,需要找出老师对学生进行表扬的内容时,则需要确定老师对学生进行表扬的视频起点和终点,并将其之间的内容截取出来。
然而,当用户需要对大量视频进行剪切时,采取上述方法会耗费较多时间,进而影响用户体验。
发明内容
本发明的实施例提供一种生成视频的方法、装置、电子设备及介质。
其中,根据本申请实施例的一个方面,提供的一种生成视频的方法,其特征在于,包括:
获取待处理视频;
获取所述待处理视频中目标用户的情绪片段,所述情绪片段为所述目标用户的情绪特征达到预定条件时的视频片段;
基于所述情绪片段,生成目标视频。
可选地,在基于本申请上述方法的另一个实施例中,所述获取所述待处理视频中目标用户的情绪片段,包括:
检测所述待处理视频中所述目标用户的面部特征;
当检测到所述目标用户的面部特征达到预定表情特征时,确定第一时间范围视频,所述第一时间范围视频为在所述待处理视频中、所述目标用户的面部特征达到预定表情特征时的视频时间段范围;
获取所述第一时间范围视频,并将所述第一时间范围视频作为所述目标用户的情绪片段。
可选地,在基于本申请上述方法的另一个实施例中,在所述确定第一时间范围视频之后,还包括:
检测所述第一时间范围视频中所述目标用户的音频特征;
当检测到在所述第一时间范围视频中,所述目标用户的音频特征达到预定音调特征时,获取所述第一时间范围视频,并将所述第一时间范围视频作为所述目标用户的情绪片段。
可选地,在基于本申请上述方法的另一个实施例中,在所述检测所述待处理视频中所述目标用户的面部特征之后,还包括:
识别所述目标用户的面部特征中,所述目标用户的唇部特征和/或眼部特征;
当检测到所述目标用户的唇部特征,和/或,眼部特征达到预定表情条件时,确定所述第一时间范围视频。
可选地,在基于本申请上述方法的另一个实施例中,在所述检测所述第一时间范围视频中所述目标用户的音频特征之后,还包括:
识别所述第一时间范围视频中,所述目标用户的音调幅度是否达到预设波动范围;
当确定所述目标用户的音调幅度达到所述预设波动范围时,获取所述第一时间范围视频,并将所述第一时间范围视频,作为所述目标用户的情绪片段。
可选地,在基于本申请上述方法的另一个实施例中,所述基于所述情绪片段,生成目标视频,包括:
基于所述情绪片段,获取第二时间范围视频,所述第二时间范围视频为在所述待处理视频中,包含所述情绪片段在内的视频时间段范围;
将所述第二时间范围视频作为所述目标视频。
可选地,在基于本申请上述方法的另一个实施例中,所述检测所述待处理视频中,所述目标用户的面部特征,包括:
基于神经网络图像语义分割模型,检测所述待处理视频中所述目标用户的面部特征。
可选地,在基于本申请上述方法的另一个实施例中,在所述基于神经网络图像语义分割模型,检测所述待处理视频中所述目标用户的面部特征之前,还包括:
获取样本图像,其中,所述样本图像包括至少一个样本面部特征;
利用所述样本图像对预设的神经网络图像语义分割模型进行训练,得到满足预设条件的所述神经网络图像语义分割模型。
根据本申请实施例的另一个方面,提供的一种生成视频的装置,包括:
第一获取模块,被配置为获取待处理视频;
第二获取模块,被配置为获取所述待处理视频中目标用户的情绪片段,所述情绪片段为所述目标用户的情绪特征达到预定条件时的视频片段;
生成模块,被配置为基于所述情绪片段,生成目标视频。
根据本申请实施例的又一个方面,提供的一种电子设备,包括:
存储器,用于存储可执行指令;以及
显示器,用于与所述存储器显示以执行所述可执行指令从而完成上述任一所述生成视频的方法的操作。
根据本申请实施例的还一个方面,提供的一种计算机可读存储介质,用于存储计算机可读取的指令,所述指令被执行时执行上述任一所述生成视频的方法的操作。
本申请中,当获取待处理视频时之后,可以获取待处理视频中目标用户的情绪片段,再基于情绪片段,生成目标视频。通过应用本申请的技术方案,可以根据检测到的待处理视频中目标人物的情绪特征,选择将满足预设条件的情绪特征的视频片段进行剪切,并根据剪切的视频片段生成目标视频。进而可以避免在对大量视频进行感兴趣内容提取的过程中,需要耗费用户大量时间进行剪切的弊端。
下面通过附图和实施例,对本申请的技术方案做进一步的详细描述。
附图说明
构成说明书的一部分的附图描述了本申请的实施例,并且连同描述一起用于解释本申请的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本申请,其中:
图1为本申请生成视频的方法的系统架构示意图。
图2为本申请生成视频的方法另一个实施例的流程图。
图3为本申请生成视频的方法另一个实施例的流程图。
图4a-图4d为本申请中待处理视频的检测画面。
图5为本申请生成视频的方法又一个实施例的流程图。
图6为本申请中待处理视频中第一用户的音频检测画面。
图7为本申请生成视频的方法又一个实施例的流程图。
图8为本申请生成视频的装置的结构示意图。
图9为本申请显示电子设备结构示意图。
具体实施方式
现在将参照附图来详细描述本申请的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本申请的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,不作为对本申请及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
需要说明,本申请实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
另外,在本申请中如涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本申请中,除非另有明确的规定和限定,术语“连接”、“固定”等应做广义理解,例如,“固定”可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
另外,本申请各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本申请要求的保护范围之内。
下面结合图1至图7来描述根据本申请示例性实施方式的用于进行生成视频的方法。需要注意的是,下述应用场景仅是为了便于理解本申请的精神和原理而示出,本申请的实施方式在此方面不受任何限制。相反,本申请的实施方式可以应用于适用的任何场景。
图1示出了可以应用本申请实施例的生成视频的方法或生成视频的装置的示例性系统架构100的示意图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一种或多种,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、便携式计算机和台式计算机等等。
本申请中的终端设备101、102、103可以为提供各种服务的终端设备。例如用户通过终端设备103(也可以是终端设备101或102)获取待处理视频;获取在所述待处理视频中,针对目标用户的情绪片段,所述情绪片段为所述目标用户的情绪特征达到预定条件时的视频片段;基于所述情绪片段,生成目标视频。
在此需要说明的是,本申请实施例所提供的生成视频的方法可以由终端设备101、102、103中的一个或多个,和/或,服务器105执行,相应地,本申请实施例所提供的生成视频的装置一般设置于对应终端设备中,和/或,服务器105中,但本申请不限于此。
本申请还提出一种生成视频的方法、装置、目标终端及介质。
图2示意性地示出了根据本申请实施方式的一种生成视频的方法的流程示意图。如图2所示,该方法包括:
S101,获取待处理视频。
首先需要说明的是,本申请中,不对获取待处理视频的设备做具体限定,例如,本申请可以由智能设备获取用户生成的待处理视频,也可以由服务器获取用户生成的待处理视频。
另外,本申请中,不对智能设备做具体限定,即智能设备可以为任意的智能设备,例如,手机,电子笔记本,PDA等等。
可选的,本申请中不对待处理视频做具体限定,即本申请中的待处理视频可以为任意的视频。在一种优选的实施方式中,待处理视频可以是教学类的课堂视频。
S102,获取在待处理视频中目标用户的情绪片段,情绪片段为目标用户的情绪特征达到预定条件时的视频片段。
可选的,本申请在获取待处理视频后,可以进一步的截取待处理视频中,针对目标用户的情绪片段。其中,情绪片段为在视频中,目标用户的情绪特征达到预定条件时的视频片段。
首先需要说明的是,本申请中不对待处理视频中的目标用户做具体限定。可以理解的,某段视频中可能存在有多个人物,其中目标人物可以根据用户的需要,选择其中多个人物的任意一个。
另外,本申请也同样不对情绪片段做具体限定,例如,情绪片段可以为在待处理视频中,目标用户处于喜悦情绪时所在的视频片段。又或,情绪片段也可以为在待处理视频中,目标用户处于愤怒情绪时所在的视频片段。再或,情绪片段还可以为在待处理视频中,目标用户处于惊讶情绪时所在的视频片段。可以理解的,情绪片段的变化方式并不会影响本申请的保护范围。
还需要说明的是,本申请中的情绪片段可以为待处理视频中的其中一段视频内容,情绪片段也可以为待处理视频中全部视频内容。
S103,基于情绪片段,生成目标视频。
可选的,本申请中,在获取在待处理视频中,针对目标用户的情绪片段之后,可以进一步的基于该获取的情绪片段,生成用户需要的目标视频。
需要说明的是,本申请可以由多种方式实现基于情绪片段,生成目标视频的方案。例如,本申请中可以在获取情绪片段之后,将该情绪片段直接作为目标视频。进一步的,本申请也可以在获取情绪片段之后,选择对其进行添加其他视频内容的操作后,再将添加其他内容后的情绪片段作为用户需要的目标视频。更进一步的,本申请还可以在获取情绪片段之后,选择对其进行剪切某段视频内容的操作后,再将剪切后的情绪片段作为用户需要的目标视频。
本申请中,当获取待处理视频时之后,可以获取待处理视频中目标用户的情绪片段,再基于情绪片段,生成目标视频。通过应用本申请的技术方案,可以根据检测到的待处理视频中目标人物的情绪特征,选择将满足预设条件的情绪特征的视频片段进行剪切,并根据剪切的视频片段生成目标视频。进而可以避免在对大量视频进行感兴趣内容提取的过程中,需要耗费用户大量时间进行剪切的弊端。
进一步可选的,在本申请的一种实施方式中,在S102(获取在待处理视频中,针对目标用户的情绪片段)中,还包括一种具体的实施方式,如图3所示,包括:
S201,获取待处理视频。
S202,检测待处理视频中,目标用户的面部特征。
可选的,本申请中可以在获取待处理视频后,进一步的检测待处理视频中的,针对目标用户的面部特征。
S203,当检测到目标用户的面部特征达到预定表情特征时,确定第一时间范围视频,第一时间范围视频为在待处理视频中,目标用户的面部特征达到预定表情特征时的视频时间段范围。
可选的,本申请中在检测待处理视频中,目标用户的面部特征后,可以在检测到用户的面部特征达到预定表情特征时,确定该用户的面部特征达到预定表情特征时,其所在待处理视频中的视频时间段范围。进一步的,将该视频时间段范围的视频内容作为第一时间范围视频。
例如,以待处理视频为教学类课堂视频,目标用户为老师,预定表情特征为喜悦类表情特征来举例说明:当检测到在该教学类课堂视频中的第5分钟时,老师的面部特征达到喜悦表情特征,且进一步检测到老师处于喜悦表情特征的持续时间为78秒时,则确定在该教学类课堂视频中,第一时间范围视频为视频中的第5分钟至第6分钟18秒的时间段范围。
可选的,在本申请一种可能的实施方式中,在检测待处理视频中,目标用户的面部特征之后还可以通过以下方式确定第一时间范围视频:
识别目标用户的面部特征中,目标用户的唇部特征和/或眼部特征;
可选的,本申请可以根据检测到的目标用户的面部特征,识别出目标用户的面部图像中的嘴部区域和/或眼部区域。以使后续根据用户的该两部分区域,确定用户的表情是否达到预定表情条件。
当检测到目标用户的唇部特征,和/或,眼部特征达到预定表情条件时,确定第一时间范围视频。
可选的,本申请可以通过检测用户的唇部特征,和/或,眼部特征,来确定在待处理视频中,用户的当前情绪是否满足预设条件。
同样以上述待处理视频为教学类课堂视频,目标用户为老师,预定表情特征为喜悦类表情特征来举例说明:可以理解的,当用户喜悦时,通常会表现出嘴角上扬,两眼眯缝等表情特征。如图4a所示,为教学类课堂视频中的其中一帧图像。当根据该图像中老师的唇部特征,检测到老师的嘴角朝向达到预定方位时(如图4b所示),和/或,根据该图像中老师的眼部特征,检测到老师的眼角角度小于第一预设角度时(如图4c所示),确定在该教学类课堂视频的图像中,老师的唇部特征,和/或,眼部特征达到喜悦类表情条件。进一步的,在检测到老师的面部表情达到喜悦类表情的时间段范围为该视频中的第6分钟至第6分钟30秒的时间段范围时,确定将教学类课堂视频中该30秒时间段范围的视频内容作为第一时间范围视频。
进一步举例而言,本申请还可以由待处理视频为教学类课堂视频,目标用户为学生,预定表情特征为愤怒类表情特征来举例说明:可以理解的,当用户愤怒时,通常会表现出两眼圆睁等表情特征。本申请中,当根据图像中老师的眼部特征,检测到老师的眼角角度大于第二预设角度时(如图4d所示),确定在该教学类课堂视频的图像中,老师的眼部特征达到愤怒类表情条件。进一步的,在检测到老师的面部表情达到愤怒类表情的时间段范围为该视频中的第8分钟至第8分钟18秒的时间段范围时,确定将教学类课堂视频中该18秒时间段范围的视频内容作为第一时间范围视频。
S204,获取第一时间范围视频,并将第一时间范围视频作为目标用户的情绪片段。
可选的,本申请中,在确定第一时间范围视频之后,可以将该第一时间范围视频的视频内容从待处理视频中自动剪切出来。并将该剪切得到的第一时间范围视频,作为目标用户的情绪片段。
S205,基于情绪片段,生成目标视频。
本申请中,当获取待处理视频时之后,可以通过检测待处理视频中目标用户的面部特征,获取对应的情绪片段,再基于情绪片段,生成目标视频。通过应用本申请的技术方案,可以根据检测到的待处理视频中目标人物的面部特征,确定目标人物是否处于特定的情绪状态中。并在确定用户处于特定情绪后,将包含该情绪状态视频片段进行剪切,并根据剪切的视频片段生成目标视频。进而可以在对大量视频进行感兴趣内容剪切的过程中,根据用户设定的情绪状态,针对性的对视频进行感兴趣内容的剪切。
进一步可选的,在本申请的其中一种实施方式中,在S102(获取在待处理视频中,针对目标用户的情绪片段)中,还包括一种具体的实施方式,如图5所示,包括:
S301,获取待处理视频。
S302,检测待处理视频中,目标用户的面部特征。
S303,当检测到目标用户的面部特征达到预定表情特征时,确定第一时间范围视频。
S303,检测第一时间范围视频中,目标用户的音频特征。
可选的,本申请中可以在确定第一时间范围视频后,进一步的检测该第一时间范围视频中,针对目标用户的音频特征。
S304,当检测到在第一时间范围视频中,目标用户的音频特征达到预定音调特征时,获取第一时间范围视频,并将第一时间范围视频,作为目标用户的情绪片段。
可选的,本申请中在检测待处理视频中,目标用户的音频特征后,可以在检测到目标用户的音频特征达到预定音调特征时,确定该用户的音频特征达到预定音调特征时,确定第一时间范围视频。并将获取到的第一时间范围视频,作为目标用户的情绪片段。
例如,以待处理视频为教学类课堂视频,目标用户为老师,预定表情特征为喜悦类表情特征来举例说明:当检测到在该教学类课堂视频中的第5分钟时,老师的面部特征达到喜悦表情特征,且检测到老师处于喜悦表情特征的持续时间为78秒时,则确定在该教学类课堂视频中,第一时间范围视频为视频中的第5分钟至第6分钟18秒的时间段范围。进一步的,当检测到位于第一时间范围视频中的78秒中,老师的音频特征也达到符合喜悦情绪的音调特征时,则确定第一时间范围视频为目标用户的喜悦类的情绪片段。并将获取到的第一时间范围视频,作为目标用户的情绪片段。
在本申请一种可能的实施方式中,在检测第一时间范围视频中,目标用户的音频特征之后,还可以通过以下方式确定第一时间范围视频:
识别第一时间范围视频中,目标用户的音调幅度是否达到预设波动范围。
可选的,本申请可以通过检测用户的音调幅度的波动范围,来确定在待处理视频中,用户的当前情绪是否满足预设条件。
当确定目标用户的音调幅度达到预设波动范围时,获取第一时间范围视频,并将第一时间范围视频,作为目标用户的情绪片段。
在此以上述待处理视频为教学类课堂视频,目标用户为老师,预定表情特征为愤怒类表情特征来举例说明:可以理解的,当人愤怒时,通常会表现出伴随有大声斥责等声音。因此,本申请可以在检测出,目标用户在教学类课堂视频的第6分钟至第6分钟30秒的时间段范围出现愤怒类表情特征时,可以通过进一步的检测在该30秒中的老师音调幅度的波动情况(如图6所示),来辅助确定该30的时间范围视频(第一时间范围视频)是否为目标用户的愤怒类的情绪片段。进一步的,在检测到老师在视频中第6分钟至第6分钟30秒的时间段范围的音调幅度超过预设波动范围时,通过针对老师的面部表情特征以及对应的语音特征的双重认定,可以确定该第一时间范围视频为剪辑者需要的针对目标用户的情绪片段。
在此需要说明的是,本申请中不对预设波动范围做具体限定,即预设波动范围可以为幅度频率为50%的波动范围。预设波动范围也可以为幅度频率为70%的波动范围。
S305,基于情绪片段,生成目标视频。
本申请中,当获取待处理视频时之后,可以通过检测待处理视频中,针对目标用户的面部特征以及音频特征,获取对应的情绪片段,再基于情绪片段,生成目标视频。通过应用本申请的技术方案,可以根据检测到的待处理视频中目标人物的面部特征以及音频特征,确定目标人物是否处于特定的情绪状态中。并在确定用户处于特定情绪后,将包含该情绪状态视频片段进行剪切,并根据剪切的视频片段生成目标视频。进而可以在对大量视频进行感兴趣内容剪切的过程中,准确的检测用户的情绪状态,并针对性的对视频进行用户情绪片段的剪切。
进一步可选的,在本申请的其中一种实施方式中,在S103(基于情绪片段,生成目标视频)中,还包括一种具体的实施方式,如图7所示,包括:
S401,获取待处理视频。
S402,检测待处理视频中,目标用户的面部特征。
基于神经网络图像语义分割模型,检测待处理视频中,目标用户的面部特征。
获取样本图像,其中,样本图像包括至少一个样本面部特征。
利用样本图像对预设的神经网络图像语义分割模型进行训练,得到满足预设条件的神经网络图像语义分割模型。
可选的,本申请的针对检测的待处理视频中,目标用户的面部特征可以包含有多个器官特征,例如可以包含目标用户的眼部特征,唇部特征,额头特征,耳部特征等等。进一步的,本申请可以利用神经网络模型,来对目标用户的面部特征进行检测并分析。
进一步的,本申请可以通过神经网络图像语义分割模型,来识别待处理视频中的图像所包括的至少一个对象(面部特征)。更进一步而言,神经网络图像语义分割模型还可以对目标图像中的面部特征中的每一器官特征进行分类,并且将属于同一分类的器官特征分为同一类型,这样,目标图像进行语义分割之后所得到的面部特征可以为多个不同的器官特征所组成的面部特征。
可选的,对于所使用的神经网络图像语义分割模型,一种实施方式中,可以通过样本图像对神经网络图像语义分割模型进行训练。具体地,可以获取样本图像,并利用样本图像对预设的神经网络图像语义分割模型进行训练,得到满足预设条件的神经网络图像语义分割模型。
其中,样本图像包括至少一个样本面部特征,样本面部特征可以与本申请实施例中的面部特征相同。例如,样本图像中的样本面部特征可以包括用户的眼部特征,唇部特征,额头特征,耳部特征等等。
神经网络图像语义分割模型对样本图像进行语义分割处理时,对样本图像中的像素点分类越准确,则识别样本图像中的标记对象的准确率越高。其中需要说明的是,预设条件可以是自定义设定的。
例如,可以设定预设条件为:对像素点的分类准确率达到70%以上,那么,样本图像对神经网络图像语义分割模型进行反复训练,在神经网络图像语义分割模型对像素点的分类准确率达到70%以上时,则此时该神经网络图像语义分割模型可以应用在本发明实施例中,对目标图像进行语义分割处理。
S403,当检测到目标用户的面部特征达到预定表情特征时,确定第一时间范围视频。
S404,获取第一时间范围视频,并将第一时间范围视频,作为目标用户的情绪片段。
S405,基于情绪片段获取第二时间范围视频,第二时间范围视频为在待处理视频中,包含情绪片段在内的视频时间段范围。
可选的,本申请中,在获取第一时间范围视频,并将第一时间范围视频,作为目标用户的情绪片段之后,还可以进一步的基于情绪片段,生成第二时间范围视频。需要说明的是,第二时间范围视频可以为在待处理视频中,包含情绪片段在内的视频时间段范围。也就是说,第二时间范围视频可以为在包含情绪片段在内的基础上,根据用户的需求,而又对其进行添加某段视频内容的视频。
例如,本申请在获取情绪片段之后,为了避免让观看者产生过于突兀的感觉,可以将该情绪片段在待处理视频所在时间范围的前后预设时间段的视频内容作为添加内容,加入到情绪片段中。以使添加后的情绪片段作为第二时间范围视频。例如,当情绪片段为在待处理视频中的第5分钟至第5分30秒的总共30秒的视频内容时,可以将在4分45秒至第5分钟的视频内容,以及第5分30秒至第5分45秒的视频内容,对应添加进该情绪片段中。以使生成包含情绪片段在内的1分钟的视频内容。并将该1分钟的视频内容,作为第二时间范围视频。
进一步而言,本申请还可以在获取情绪片段之后,为了增加截取视频的可观赏性,可以在该情绪片段的前后预设时间段内,添加特定元素的视频内容,以使添加后的情绪片段作为第二时间范围视频。例如,当情绪片段的观看者为儿童时,为了能提高观看者的体验,可以在情绪片段的前后预设时间段内,添加包含动画元素的视频内容。以使在包含情绪片段与动画内容的视频生成时,将其作为第二时间范围视频。
需要说明的是,本申请中不对预设时间段做具体限制,例如预设时间段可以为10秒钟,预设时间段也可以为30秒钟。
S406,将第二时间范围视频作为目标视频。
可选的,本申请在获取第二时间范围视频之后,可以将该第二时间范围视频,作为用户需要的目标视频。
本申请中,当获取待处理视频时之后,可以通过检测待处理视频中,针对目标用户的面部特征,获取对应的情绪片段,再基于情绪片段,生成目标视频。通过应用本申请的技术方案,可以根据检测到的待处理视频中目标人物的面部特征,确定用户处于特定情绪后,将包含该情绪状态的视频片段进行剪切,并在将情绪片段进行添加对应内容后生成目标视频。进而可以在对大量视频进行感兴趣内容的剪切后,根据观赏者的需求,针对性的将剪切内容进行对应添加后,生成目标视频。
在本申请的另外一种实施方式中,如图8所示,本申请还提供一种生成视频的装置,该装置包括第一获取模块501,第二获取模块502,生成模块503,其中,
第一获取模块501,被配置为获取待处理视频;
第二获取模块502,被配置为获取所述待处理视频中目标用户的情绪片段,所述情绪片段为所述目标用户的情绪特征达到预定条件时的视频片段;
生成模块503,被配置为基于所述情绪片段,生成目标视频。
本申请中,当获取待处理视频时之后,可以获取待处理视频中,针对目标用户的情绪片段,再基于情绪片段,生成目标视频。通过应用本申请的技术方案,可以根据检测到的待处理视频中目标人物的情绪特征,选择将满足预设条件的情绪特征的视频片段进行剪切,并根据剪切的视频片段生成目标视频。进而可以避免在对大量视频进行感兴趣内容提取的过程中,需要耗费用户大量时间进行剪切的弊端。
可选的,在本申请的另一种实施方式中,第二获取模块502,还包括,检测单元,确定单元,获取单元,其中:
检测单元,被配置为检测所述待处理视频中,所述目标用户的面部特征;
确定单元,被配置为当检测到所述目标用户的面部特征达到预定表情特征时,确定第一时间范围视频,所述第一时间范围视频为在所述待处理视频中,所述目标用户的面部特征达到预定表情特征时的视频时间段范围;
获取单元,被配置为获取所述第一时间范围视频,并将所述第一时间范围视频,作为所述目标用户的情绪片段。
在本申请的另一种实施方式中,第二获取模块502,还包括,检测单元,其中:
检测单元,被配置为检测所述第一时间范围视频中,所述目标用户的音频特征;
检测单元,被配置为当检测到在所述第一时间范围视频中,所述目标用户的音频特征达到预定音调特征时,获取所述第一时间范围视频,并将所述第一时间范围视频作为所述目标用户的情绪片段。
在本申请的另一种实施方式中,第二获取模块502,还包括,识别单元,其中:
识别单元,被配置为识别所述目标用户的面部特征中,所述目标用户的唇部特征和/或眼部特征;
确定单元,被配置为当检测到所述目标用户的唇部特征,和/或,眼部特征达到预定表情条件时,确定所述第一时间范围视频。
在本申请的另一种实施方式中,第二获取模块502,还包括:
识别单元,被配置为识别所述第一时间范围视频中,所述目标用户的音调幅度是否达到预设波动范围;
获取单元,被配置为当确定所述目标用户的音调幅度达到所述预设波动范围时,获取所述第一时间范围视频,并将所述第一时间范围视频,作为所述目标用户的情绪片段。
在本申请的另一种实施方式中,生成模块503,还包括,获取单元,生成单元,其中:
获取单元,被配置为基于所述情绪片段,获取第二时间范围视频,所述第二时间范围视频为在所述待处理视频中,包含所述情绪片段在内的视频时间段范围;
生成单元,还被配置为将所述第二时间范围视频作为所述目标视频。
在本申请的另一种实施方式中,第二获取模块502,还包括:
第二获取模块502,被配置为基于神经网络图像语义分割模型,检测所述待处理视频中,所述目标用户的面部特征。
在本申请的另一种实施方式中,第二获取模块502,还包括:
获取单元,被配置为获取样本图像,其中,所述样本图像包括至少一个样本面部特征;
生成单元,被配置为利用所述样本图像对预设的神经网络图像语义分割模型进行训练,得到满足预设条件的所述神经网络图像语义分割模型。
图9是根据一示例性实施例示出的一种电子设备的逻辑结构框图。例如,电子设备600可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图9,电子设备600可以包括以下一个或多个组件:处理器601和存储器602。
处理器601可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器601可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器601也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器601可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器601还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器602可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器602还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器602中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器601所执行以实现本申请中方法实施例提供的互动特效标定方法。
在一些实施例中,电子设备600还可选包括有:外围设备接口603和至少一个外围设备。处理器601、存储器602和外围设备接口603之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口603相连。具体地,外围设备包括:射频电路604、触摸显示屏605、摄像头606、音频电路607、定位组件608和电源609中的至少一种。
外围设备接口603可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器601和存储器602。在一些实施例中,处理器601、存储器602和外围设备接口603被集成在同一芯片或电路板上;在一些其他实施例中,处理器601、存储器602和外围设备接口603中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路604用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路604通过电磁信号与通信网络以及其他通信设备进行通信。射频电路604将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路604包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路604可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路604还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏605用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏605是触摸显示屏时,显示屏605还具有采集在显示屏605的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器601进行处理。此时,显示屏605还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏605可以为一个,设置电子设备600的前面板;在另一些实施例中,显示屏605可以为至少两个,分别设置在电子设备600的不同表面或呈折叠设计;在一些实施例中,显示屏605可以是柔性显示屏,设置在电子设备600的弯曲表面上或折叠面上。甚至,显示屏605还可以设置成非矩形的不规则图形,也即异形屏。显示屏605可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件606用于采集图像或视频。可选地,摄像头组件606包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件606还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路607可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器601进行处理,或者输入至射频电路604以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在电子设备600的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器601或射频电路604的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路607还可以包括耳机插孔。
定位组件608用于定位电子设备600的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件608可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源609用于为电子设备600中的各个组件进行供电。电源609可以是交流电、直流电、一次性电池或可充电电池。当电源609包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,电子设备600还包括有一个或多个传感器610。该一个或多个传感器610包括但不限于:加速度传感器611、陀螺仪传感器612、压力传感器613、指纹传感器614、光学传感器615以及接近传感器616。
加速度传感器611可以检测以电子设备600建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器611可以用于检测重力加速度在三个坐标轴上的分量。处理器601可以根据加速度传感器611采集的重力加速度信号,控制触摸显示屏605以横向视图或纵向视图进行用户界面的显示。加速度传感器611还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器612可以检测电子设备600的机体方向及转动角度,陀螺仪传感器612可以与加速度传感器611协同采集用户对电子设备600的3D动作。处理器601根据陀螺仪传感器612采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器613可以设置在电子设备600的侧边框和/或触摸显示屏605的下层。当压力传感器613设置在电子设备600的侧边框时,可以检测用户对电子设备600的握持信号,由处理器601根据压力传感器613采集的握持信号进行左右手识别或快捷操作。当压力传感器613设置在触摸显示屏605的下层时,由处理器601根据用户对触摸显示屏605的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器614用于采集用户的指纹,由处理器601根据指纹传感器614采集到的指纹识别用户的身份,或者,由指纹传感器614根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器601授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器614可以被设置电子设备600的正面、背面或侧面。当电子设备600上设置有物理按键或厂商Logo时,指纹传感器614可以与物理按键或厂商Logo集成在一起。
光学传感器615用于采集环境光强度。在一个实施例中,处理器601可以根据光学传感器615采集的环境光强度,控制触摸显示屏605的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏605的显示亮度;当环境光强度较低时,调低触摸显示屏605的显示亮度。在另一个实施例中,处理器601还可以根据光学传感器615采集的环境光强度,动态调整摄像头组件606的拍摄参数。
接近传感器616,也称距离传感器,通常设置在电子设备600的前面板。接近传感器616用于采集用户与电子设备600的正面之间的距离。在一个实施例中,当接近传感器616检测到用户与电子设备600的正面之间的距离逐渐变小时,由处理器601控制触摸显示屏605从亮屏状态切换为息屏状态;当接近传感器616检测到用户与电子设备600的正面之间的距离逐渐变大时,由处理器601控制触摸显示屏605从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图9中示出的结构并不构成对电子设备600的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器604,上述指令可由电子设备600的处理器620执行以完成上述生成视频的方法,该方法包括获取待处理视频;获取所述待处理视频中目标用户的情绪片段,所述情绪片段为所述目标用户的情绪特征达到预定条件时的视频片段;基于所述情绪片段,生成目标视频。可选地,上述指令还可以由电子设备600的处理器620执行以完成上述示例性实施例中所涉及的其他步骤。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种应用程序/计算机程序产品,包括一条或多条指令,该一条或多条指令可以由电子设备600的处理器620执行,以完成上述生成视频的方法,该方法包括:获取待处理视频;获取所述待处理视频中目标用户的情绪片段,所述情绪片段为所述目标用户的情绪特征达到预定条件时的视频片段;基于所述情绪片段,生成目标视频。可选地,上述指令还可以由电子设备600的处理器620执行以完成上述示例性实施例中所涉及的其他步骤。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。

Claims (11)

1.一种生成视频的方法,其特征在于,包括:
获取待处理视频;
获取所述待处理视频中目标用户的情绪片段,所述情绪片段为所述目标用户的情绪特征达到预定条件时的视频片段;
基于所述情绪片段,生成目标视频。
2.如权利要求1所述的方法,其特征在于,所述获取所述待处理视频中目标用户的情绪片段,包括:
检测所述待处理视频中所述目标用户的面部特征;
当检测到所述目标用户的面部特征达到预定表情特征时,确定第一时间范围视频,所述第一时间范围视频为在所述待处理视频中,所述目标用户的面部特征达到预定表情特征时的视频时间段范围;
获取所述第一时间范围视频,并将所述第一时间范围视频作为所述目标用户的情绪片段。
3.如权利要求2所述的方法,其特征在于,在所述确定第一时间范围视频之后,还包括:
检测所述第一时间范围视频中所述目标用户的音频特征;
当检测到在所述第一时间范围视频中,所述目标用户的音频特征达到预定音调特征时,获取所述第一时间范围视频,并将所述第一时间范围视频作为所述目标用户的情绪片段。
4.如权利要求2所述的方法,其特征在于,在所述检测所述待处理视频中所述目标用户的面部特征之后,还包括:
识别所述目标用户的面部特征中,所述目标用户的唇部特征和/或眼部特征;
当检测到所述目标用户的唇部特征,和/或,眼部特征达到预定表情条件时,确定所述第一时间范围视频。
5.如权利要求3所述的方法,其特征在于,在所述检测所述第一时间范围视频中所述目标用户的音频特征之后,还包括:
识别所述第一时间范围视频中,所述目标用户的音调幅度是否达到预设波动范围;
当确定所述目标用户的音调幅度达到所述预设波动范围时,获取所述第一时间范围视频,并将所述第一时间范围视频,作为所述目标用户的情绪片段。
6.如权利要求1所述的方法,其特征在于,所述基于所述情绪片段,生成目标视频,包括:
基于所述情绪片段,获取第二时间范围视频,所述第二时间范围视频为在所述待处理视频中,包含所述情绪片段在内的视频时间段范围;
将所述第二时间范围视频作为所述目标视频。
7.如权利要求2所述的方法,其特征在于,所述检测所述待处理视频中,所述目标用户的面部特征,包括:
基于神经网络图像语义分割模型,检测所述待处理视频中所述目标用户的面部特征。
8.如权利要求7所述的方法,其特征在于,在所述基于神经网络图像语义分割模型,检测所述待处理视频中所述目标用户的面部特征之前,还包括:
获取样本图像,其中,所述样本图像包括至少一个样本面部特征;
利用所述样本图像对预设的神经网络图像语义分割模型进行训练,得到满足预设条件的所述神经网络图像语义分割模型。
9.一种生成视频的装置,其特征在于,包括:
第一获取模块,被配置为获取待处理视频;
第二获取模块,被配置为获取所述待处理视频中目标用户的情绪片段,所述情绪片段为所述目标用户的情绪特征达到预定条件时的视频片段;
生成模块,被配置为基于所述情绪片段,生成目标视频。
10.一种电子设备,其特征在于,包括:
存储器,用于存储可执行指令;以及,
显示器,用于与所述存储器显示以执行所述可执行指令从而完成权利要求1-8中任一所述生成视频的方法的操作。
11.一种计算机可读存储介质,用于存储计算机可读取的指令,其特征在于,所述指令被执行时执行权利要求1-8中任一所述生成视频的方法的操作。
CN201910319234.5A 2019-04-19 2019-04-19 生成视频的方法、装置、电子设备及介质 Pending CN110113659A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910319234.5A CN110113659A (zh) 2019-04-19 2019-04-19 生成视频的方法、装置、电子设备及介质
PCT/CN2020/081071 WO2020211607A1 (zh) 2019-04-19 2020-03-25 生成视频的方法、装置、电子设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910319234.5A CN110113659A (zh) 2019-04-19 2019-04-19 生成视频的方法、装置、电子设备及介质

Publications (1)

Publication Number Publication Date
CN110113659A true CN110113659A (zh) 2019-08-09

Family

ID=67485979

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910319234.5A Pending CN110113659A (zh) 2019-04-19 2019-04-19 生成视频的方法、装置、电子设备及介质

Country Status (2)

Country Link
CN (1) CN110113659A (zh)
WO (1) WO2020211607A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111199210A (zh) * 2019-12-31 2020-05-26 武汉星巡智能科技有限公司 基于表情的视频生成方法、装置、设备及存储介质
WO2020211607A1 (zh) * 2019-04-19 2020-10-22 北京大米科技有限公司 生成视频的方法、装置、电子设备及介质
CN111860237A (zh) * 2020-07-07 2020-10-30 中国科学技术大学 一种视频情感片段的识别方法及装置
CN112597938A (zh) * 2020-12-29 2021-04-02 杭州海康威视系统技术有限公司 一种表情检测方法、装置、电子设备及存储介质
WO2023040633A1 (zh) * 2021-09-14 2023-03-23 北京字跳网络技术有限公司 一种视频生成方法、装置、终端设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009111938A (ja) * 2007-11-01 2009-05-21 Nippon Telegr & Teleph Corp <Ntt> 情報編集装置、情報編集方法、情報編集プログラムおよびそのプログラムを記録した記録媒体
CN105009599A (zh) * 2012-12-31 2015-10-28 谷歌公司 精彩时刻的自动标识
US9805766B1 (en) * 2016-07-19 2017-10-31 Compal Electronics, Inc. Video processing and playing method and video processing apparatus thereof
CN107566907A (zh) * 2017-09-20 2018-01-09 广东欧珀移动通信有限公司 视频剪辑方法、装置、存储介质及终端
CN107635110A (zh) * 2017-09-30 2018-01-26 维沃移动通信有限公司 一种视频截图方法及终端
CN107968961A (zh) * 2017-12-05 2018-04-27 吕庆祥 基于情感曲线剪辑视频的方法及装置
CN109618184A (zh) * 2018-12-29 2019-04-12 北京市商汤科技开发有限公司 视频处理方法及装置、电子设备和存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110113659A (zh) * 2019-04-19 2019-08-09 北京大米科技有限公司 生成视频的方法、装置、电子设备及介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009111938A (ja) * 2007-11-01 2009-05-21 Nippon Telegr & Teleph Corp <Ntt> 情報編集装置、情報編集方法、情報編集プログラムおよびそのプログラムを記録した記録媒体
CN105009599A (zh) * 2012-12-31 2015-10-28 谷歌公司 精彩时刻的自动标识
US9805766B1 (en) * 2016-07-19 2017-10-31 Compal Electronics, Inc. Video processing and playing method and video processing apparatus thereof
CN107566907A (zh) * 2017-09-20 2018-01-09 广东欧珀移动通信有限公司 视频剪辑方法、装置、存储介质及终端
CN107635110A (zh) * 2017-09-30 2018-01-26 维沃移动通信有限公司 一种视频截图方法及终端
CN107968961A (zh) * 2017-12-05 2018-04-27 吕庆祥 基于情感曲线剪辑视频的方法及装置
CN109618184A (zh) * 2018-12-29 2019-04-12 北京市商汤科技开发有限公司 视频处理方法及装置、电子设备和存储介质

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020211607A1 (zh) * 2019-04-19 2020-10-22 北京大米科技有限公司 生成视频的方法、装置、电子设备及介质
CN111199210A (zh) * 2019-12-31 2020-05-26 武汉星巡智能科技有限公司 基于表情的视频生成方法、装置、设备及存储介质
CN116489475A (zh) * 2019-12-31 2023-07-25 武汉星巡智能科技有限公司 基于趣味表情的视频剪辑方法、装置、设备及存储介质
CN116489475B (zh) * 2019-12-31 2024-06-11 武汉星巡智能科技有限公司 基于趣味表情的视频剪辑方法、装置、设备及存储介质
CN111860237A (zh) * 2020-07-07 2020-10-30 中国科学技术大学 一种视频情感片段的识别方法及装置
CN111860237B (zh) * 2020-07-07 2022-09-06 中国科学技术大学 一种视频情感片段的识别方法及装置
CN112597938A (zh) * 2020-12-29 2021-04-02 杭州海康威视系统技术有限公司 一种表情检测方法、装置、电子设备及存储介质
WO2023040633A1 (zh) * 2021-09-14 2023-03-23 北京字跳网络技术有限公司 一种视频生成方法、装置、终端设备及存储介质

Also Published As

Publication number Publication date
WO2020211607A1 (zh) 2020-10-22

Similar Documents

Publication Publication Date Title
CN110113659A (zh) 生成视频的方法、装置、电子设备及介质
CN110046018A (zh) 显示消息的方法、装置、电子设备及介质
CN110061900B (zh) 消息显示方法、装置、终端及计算机可读存储介质
CN110334736A (zh) 图像识别方法、装置、电子设备及介质
CN110532170A (zh) 搭建测试环境的方法、装置、电子设备及介质
CN110798327B (zh) 消息处理方法、设备及存储介质
CN110049525A (zh) 网络连接方法、装置、电子设备及介质
US12050729B2 (en) Real-time communication interface with haptic and audio feedback response
CN110535820A (zh) 针对恶意域名的分类方法、装置、电子设备及介质
CN111062248A (zh) 图像检测的方法、装置、电子设备及介质
WO2022147151A1 (en) Real-time video communication interface with haptic feedback
CN110675473B (zh) 生成gif动态图的方法、装置、电子设备及介质
WO2022212174A1 (en) Interface with haptic and audio feedback response
CN110209316A (zh) 类别标签显示方法、装置、终端及存储介质
CN110007981A (zh) 启动应用程序的方法、装置、电子设备及介质
CN110853124B (zh) 生成gif动态图的方法、装置、电子设备及介质
CN110348318A (zh) 图像识别方法、装置、电子设备及介质
CN110378318A (zh) 文字识别方法、装置、计算机设备及存储介质
CN109445963A (zh) 内容分享方法、装置、设备及计算机可读存储介质
CN111341317B (zh) 唤醒音频数据的评价方法、装置、电子设备及介质
CN112860046B (zh) 选择运行模式的方法、装置、电子设备及介质
CN110795660B (zh) 数据分析方法、装置、电子设备及介质
CN110110142A (zh) 视频处理方法、装置、电子设备及介质
CN109218169A (zh) 即时通讯方法、装置及存储介质
CN112766389B (zh) 图像分类方法、图像分类模型的训练方法、装置和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190809