CN107968961B - 基于情感曲线剪辑视频的方法及装置 - Google Patents

基于情感曲线剪辑视频的方法及装置 Download PDF

Info

Publication number
CN107968961B
CN107968961B CN201711268678.8A CN201711268678A CN107968961B CN 107968961 B CN107968961 B CN 107968961B CN 201711268678 A CN201711268678 A CN 201711268678A CN 107968961 B CN107968961 B CN 107968961B
Authority
CN
China
Prior art keywords
emotion
determining
value
facial expression
numerical value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201711268678.8A
Other languages
English (en)
Other versions
CN107968961A (zh
Inventor
吕庆祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201711268678.8A priority Critical patent/CN107968961B/zh
Publication of CN107968961A publication Critical patent/CN107968961A/zh
Application granted granted Critical
Publication of CN107968961B publication Critical patent/CN107968961B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本发明提供了一种基于情感曲线剪辑视频的方法及装置,其中,该方法包括:获取在播放目标视频时采集的多个用户的多个人脸表情视频,并分别确定多个包含时间戳的人脸表情图像;对人脸表情图像进行人脸表情识别处理,确定人脸表情特征值,并确定相对应的情感数值组;对与同一时间戳对应的多个情感数值组中的情感数值分别进行均值处理,确定最终情感数值组,并根据不同时间戳的最终情感数值组拟合确定与目标视频相对应的情感曲线组;根据情感曲线组中情感曲线的波峰或波谷确定相对应的目标视频中的关键帧,并根据关键帧的位置确定目标视频的剪辑范围。该方法利用关键帧实现对剪辑位置的快速定位,可以大幅提升剪辑操作时的效率。

Description

基于情感曲线剪辑视频的方法及装置
技术领域
本发明涉及视频剪辑技术领域,特别涉及一种基于情感曲线剪辑视频的方法及装置。
背景技术
目前,用户在进行视频剪辑的时候,有时候需要剪辑出来视频里最搞笑的部分、最煽情的部分、或者最惊悚的部分,而因为人们的时间是有限的,且人处理视频信息的速度也是有局限的,故用户无法从头到尾把所有视频都全部看完,所以往往对于一个视频编辑或者类似岗位的用户来说,选择从什么地方进行视频的剪辑往往是一个非常有挑战的任务,费时费力,效率低下。
现有的方案一种是提供快进功能,让用户快速的看完这个视频。但即使是3倍的速度,用户也还是需要花时间,而且会浪费用户大量的精力去看这个视频,用户很容易疲劳。
另外一种方案是让用户自己拖动时间轴去进行快速的预览。但是这个有同样的问题,还是限制了用户处理视频的速度和准确率。
发明内容
本发明提供一种基于情感曲线剪辑视频的方法及装置,用以解决现有视频剪辑不能快速定位的缺陷。
本发明实施例提供的一种基于情感曲线剪辑视频的方法,包括:
获取在播放目标视频时采集的多个用户的多个人脸表情视频,并分别根据每个所述人脸表情视频确定多个包含时间戳的人脸表情图像;
对所述人脸表情图像进行人脸表情识别处理,确定人脸表情特征值,并根据所述人脸表情特征值确定相对应的情感数值组,所述情感数值组包括快乐情感数值、悲伤情感数值、愤怒情感数值、恐惧情感数值之中的一项或多项;
对与同一时间戳对应的多个情感数值组中的情感数值分别进行均值处理,确定最终情感数值组,并根据不同时间戳的最终情感数值组拟合确定与所述目标视频相对应的情感曲线组,所述情感曲线组包括快乐情感数曲线、悲伤情感数曲线、愤怒情感数曲线、恐惧情感数曲线之中的一项或多项;
根据所述情感曲线组中情感曲线的波峰或波谷确定相对应的所述目标视频中的关键帧,并根据所述关键帧的位置确定目标视频的剪辑范围。
在一种可能的实现方式中,所述根据所述人脸表情特征值确定相对应的情感数值组包括:
预设人脸表情数据库,所述人脸表情数据库包含人脸表情特征值与情感数值组之间的对应关系;
根据确定的人脸表情特征值以及所述对应关系确定相对应的情感数值组。
在一种可能的实现方式中,所述对与同一时间戳对应的多个情感数值组中的情感数值分别进行均值处理,包括:
确定与同一时间戳对应的所有情感数值组中情感数值的最值,并删除含有最值的情感数值组;
对剩余的情感数值组中的情感数值进行均值处理。
在一种可能的实现方式中,所述根据所述关键帧的位置确定目标视频的剪辑范围包括:
确定所述关键帧处相对应的关键情感数值,并根据预设的情感数值差值确定与所述关键情感数值相对应的情感数值范围;
将目标视频中情感数值符合所述情感数值范围的视频帧作为可剪辑的视频。
在一种可能的实现方式中,所述根据所述关键帧的位置确定目标视频的剪辑范围包括:
确定情感曲线的变化率的绝对值;
将变化率的绝对值等于预设阈值的点作为分割点,并在位于所述关键帧一侧的分割点中选择起点,并在位于所述关键帧另一侧的分割点中选择终点,将所述起点与所述终点之间的范围作为所述目标视频的剪辑范围。
基于同样的发明构思,本发明实施例还提供一种基于情感曲线剪辑视频的装置,包括:
获取模块,用于获取在播放目标视频时采集的多个用户的多个人脸表情视频,并分别根据每个所述人脸表情视频确定多个包含时间戳的人脸表情图像;
确定模块,用于对所述人脸表情图像进行人脸表情识别处理,确定人脸表情特征值,并根据所述人脸表情特征值确定相对应的情感数值组,所述情感数值组包括快乐情感数值、悲伤情感数值、愤怒情感数值、恐惧情感数值之中的一项或多项;
处理模块,用于对与同一时间戳对应的多个情感数值组中的情感数值分别进行均值处理,确定最终情感数值组,并根据不同时间戳的最终情感数值组拟合确定与所述目标视频相对应的情感曲线组,所述情感曲线组包括快乐情感数曲线、悲伤情感数曲线、愤怒情感数曲线、恐惧情感数曲线之中的一项或多项;
定位模块,用于根据所述情感曲线组中情感曲线的波峰或波谷确定相对应的所述目标视频中的关键帧,并根据所述关键帧的位置确定目标视频的剪辑范围。
在一种可能的实现方式中,所述确定模块包括:
预设单元,用于预设人脸表情数据库,所述人脸表情数据库包含人脸表情特征值与情感数值组之间的对应关系;
确定单元,用于根据确定的人脸表情特征值以及所述对应关系确定相对应的情感数值组。
在一种可能的实现方式中,所述处理模块包括:
删除单元,用于确定与同一时间戳对应的所有情感数值组中情感数值的最值,并删除含有最值的情感数值组;
均值处理单元,用于对剩余的情感数值组中的情感数值进行均值处理。
在一种可能的实现方式中,所述定位模块包括:
情感数值范围确定单元,用于确定所述关键帧处相对应的关键情感数值,并根据预设的情感数值差值确定与所述关键情感数值相对应的情感数值范围;
定位单元,用于将目标视频中情感数值符合所述情感数值范围的视频帧作为可剪辑的视频。
在一种可能的实现方式中,所述定位模块包括:
变化率确定单元,用于确定情感曲线的变化率的绝对值;
定位单元,用于将变化率的绝对值等于预设阈值的点作为分割点,并在位于所述关键帧一侧的分割点中选择起点,并在位于所述关键帧另一侧的分割点中选择终点,将所述起点与所述终点之间的范围作为所述目标视频的剪辑范围。
本发明实施例提供的一种基于情感曲线剪辑视频的方法及装置,通过采集用户观看视频时的人脸表情视频确定情感曲线,进而根据情感曲线确定目标视频的关键帧,从而可以利用关键帧实现对剪辑位置的快速定位,可以大幅提升剪辑操作时的效率。以多个维度描述人脸表情使得分类结果更加精确,且可以同时确定多种情感曲线,适用于多种应用场景,可以满足用户不同的剪辑需求。通过去极值滤波的方法剔除可能的无效数据,从而可以有效消除误差,减小脉冲干扰;利用预设的情感数值差值可以快速确定剪辑范围,而将情感曲线的变化率作为判断依据可以更加准确完整地定位剪辑范围。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中基于情感曲线剪辑视频的方法流程图;
图2为本发明实施例中情感曲线的示意图;
图3为本发明实施例中确定剪辑范围的一种示意图;
图4为本发明实施例中确定剪辑范围的另一种示意图;
图5为本发明实施例中基于情感曲线剪辑视频方法的应用场景示意图;
图6为本发明实施例中基于情感曲线剪辑视频的装置的结构图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
本发明实施例提供的一种基于情感曲线剪辑视频的方法,通过采集用户观看视频时的表情确定情感曲线,进而根据情感曲线确定目标视频的高潮部分,从而实现对剪辑位置的快速定位。具体的,参见图1所示,该剪辑视频的方法包括步骤101-104:
步骤101:获取在播放目标视频时采集的多个用户的多个人脸表情视频,并分别根据每个人脸表情视频确定多个包含时间戳的人脸表情图像。
本发明实施例中,目标视频为待剪辑的视频,通过采集多个用户的历史观看记录从而可以采集多个用户的人脸表情视频。例如,用户通过电子设备(如手机、智能电视、笔记本电脑等智能终端,也可以为具有摄像头的PC等)观看目标视频时,通过电子设备的摄像头可以采集用户的人脸表情视频。该人脸表情视频由多个含有人脸表情图像的视频帧组成,且每个人脸表情图像对应唯一的时间戳,该时间戳为根据目标视频中的时间戳而确定的时间戳,以方便统一不同用户的人脸表情视频中的时间戳。
步骤102:对人脸表情图像进行人脸表情识别处理,确定人脸表情特征值,并根据人脸表情特征值确定相对应的情感数值组,情感数值组包括快乐情感数值、悲伤情感数值、愤怒情感数值、恐惧情感数值之中的一项或多项。
本发明实施例中,可以基于人脸表情识别算法进行人脸表情识别处理,即确定人脸表情图像中人脸的特征点,进而可以确定人脸表情特征值,例如通过图像卷积抽取特征点的Gabor小波系数,以Gabor特征的匹配距离作为人脸表情特征值。在确定人脸表情特征值后,本发明实施例中不是利用传统的人脸表情识别算法确定该表情属于哪类表情,而是根据分类算法确定相对应的情感数值组。
本发明实施例中,以多个维度描述人脸表情,每个维度对应一种情感数值。具体的,可以以快乐、悲伤、愤怒、恐惧等多个维度描述一项人脸表情,相对应的,每个人脸表情对应一个包含快乐情感数值、悲伤情感数值、愤怒情感数值、恐惧情感数值等的情感数值组。与传统的人脸表情分类相比,对于某一种表情分类,其相对应的情感数值较高;例如,对于悲伤表情,该悲伤情感数值较高,而情感数值组中的其他情感数值(比如快乐情感数值等)较低。以多个维度描述人脸表情可以描述更多种的人脸表情,且分类可以更精确。
需要说明的是,人类的表情可能有上万种,即本发明实施例中的情感数值组可以包含更多的情感数值,每种表情对应一种情感数值;相应的,在下述的步骤中可以生成上万种情感曲线。
可选的,本发明实施例中,步骤102中根据人脸表情特征值确定相对应的情感数值组的步骤具体可以包括步骤A1-A2:
步骤A1:预设人脸表情数据库,人脸表情数据库包含人脸表情特征值与情感数值组之间的对应关系。
步骤A2:根据确定的人脸表情特征值以及对应关系确定相对应的情感数值组。
本发明实施例中根据历史统计的情感数值数据可以组建人脸表情数据库,且同时可以利用神经网络算法以及学习算法等完善该人脸表情数据库。通过预设人脸表情数据库可以方便快速地确定人脸表情相对应的情感数值组。
步骤103:对与同一时间戳对应的多个情感数值组中的情感数值分别进行均值处理,确定最终情感数值组,并根据不同时间戳的最终情感数值组拟合确定与目标视频相对应的情感曲线组,情感曲线组包括快乐情感数曲线、悲伤情感数曲线、愤怒情感数曲线、恐惧情感数曲线之中的一项或多项。
本发明实施例中,由于需要采集多个用户在观看目标视频时的人脸表情视频,故目标视频的一个时间戳对应多个人脸表情图像,从而对应多个情感数值组,且每个情感数值组中包含多个情感数值。本发明实施例中,对同一时间戳的同类型情感数值分别进行均值处理,例如对多个情感数值组中的快乐情感数值进行均值处理、对多个情感数值组中的悲伤情感数值进行均值处理等;在进行均值处理后即可以确定该时间戳的最终情感数值组。例如,ai表示快乐情感数值,bi表示悲伤情感数值,ci表示愤怒情感数值,di表示恐惧情感数值,三个用户的情感数值组分别为[a1,b1,c1,d1]、[a2,b2,c2,d2]、[a3,b3,c3,d3],则此时对a1,a2,a3进行均值处理即可以确定最终情感数值组中的快乐情感数值;同理,对b1,b2,b3进行均值处理即可以确定最终情感数值组中的悲伤情感数值等。
本发明实施例中,均值处理具体可以为计算算数平均值,也可以计算加权平均值等,本发明实施例中对此不做限定。
在确定所有时间戳的最终情感数值组后,即可以根据所有的情感数值组拟合确定与目标视频相对应的情感曲线组;本发明实施例中,由于情感数值组包含多种情感数值,故情感曲线组相对应的也包含多种情感曲线,例如情感曲线组包括快乐情感数曲线、悲伤情感数曲线、愤怒情感数曲线、恐惧情感数曲线之中的一项或多项。同时,通过拟合的方式可以剔除最终情感数据组中的异常数据,保证情感曲线的连续性。
本发明实施例中,情感曲线是由含有时间戳属性的情感数值确定的,故情感曲线表示情感数值与时间之间的关系。一种情感曲线的示意图参见图2所示,横坐标表示时间t,纵坐标表示情感数值N;在图2中示出了三条曲线,每条曲线表示一种情感曲线,比如曲线1表示快乐曲线、曲线2表示悲伤曲线、曲线3表示愤怒曲线。同时,表情曲线也可以体现出表情的变化方向。例如,一个人从不笑到大笑,快乐曲线反映出来是从平稳状到波峰;反之,一个人从大笑到平静,快乐曲线是从波峰到平稳状;若快乐曲线从波峰到波谷,此时的情况是用户从笑到哭。这种情况出现的时候,则可以进行剪辑,因为此时用户情绪出现的不只是波动,而是反转。
步骤104:根据情感曲线组中情感曲线的波峰或波谷确定相对应的目标视频中的关键帧,并根据关键帧的位置确定目标视频的剪辑范围。
本发明实施例中,情感曲线的波峰或波谷即表示情感数值的极值,此时表示用户的情感值较高;例如,快乐情感曲线的波峰处表示用户的快乐情绪较高。同时,由于一般用户的某一种情绪越激烈,该情绪的情感数值越高,故一般根据情感曲线的波峰来确定关键帧。而当需要选择出目标视频中比较无聊的内容时,此时可以根据情感曲线的波谷来确定关键帧。例如,当需要选择出喜剧电影中不搞笑部分的内容时,可以利用波谷来进行确定。在确定关键帧后即可以在关键帧附近的区域选择需要剪辑的视频。同时,由于情感曲线可能存在多个波峰,此时可以根据每个波峰分别确定关键帧,也可以确定情感数值最大的波峰,进而只根据该最大的波峰确定关键帧。
本发明实施例提供的一种基于情感曲线剪辑视频的方法,通过采集用户观看视频时的人脸表情视频确定情感曲线,进而根据情感曲线确定目标视频的关键帧,从而可以利用关键帧实现对剪辑位置的快速定位,可以大幅提升剪辑操作时的效率。以多个维度描述人脸表情使得分类结果更加精确,且可以同时确定多种情感曲线,适用于多种应用场景,可以满足用户不同的剪辑需求。
本发明另一实施例提供一种基于情感曲线剪辑视频的方法,该方法包括上述实施例中的步骤101-104,其实现原理以及技术效果参见图1对应的实施例。同时,本发明实施例中,对与同一时间戳对应的多个情感数值组中的情感数值分别进行均值处理的步骤具体包括步骤B1-B2:
步骤B1:确定与同一时间戳对应的所有情感数值组中情感数值的最值,并删除含有最值的情感数值组。
步骤B2:对剩余的情感数值组中的情感数值进行均值处理。
本发明实施例中,由于需要对多个用户的情感数值组进行处理,故通过去极值滤波的方法剔除可能的无效数据,从而可以有效消除误差,减小脉冲干扰。
在一种可能的实现方式中,上述步骤104中根据关键帧的位置确定目标视频的剪辑范围具体可以包括步骤C1-C2:
步骤C1:确定关键帧处相对应的关键情感数值,并根据预设的情感数值差值确定与关键情感数值相对应的情感数值范围。
步骤C2:将目标视频中情感数值符合情感数值范围的视频帧作为可剪辑的视频。
本发明实施例中,预先设置一个参数,即情感数值差值;在确定关键帧后即可以确定关键帧的情感数值,即关键情感数值;此时根据关键情感数值以及情感数值差值即可以确定情感数值范围。同时,根据该情感数值范围即可以确定包含的视频帧,其所包含的视频帧即为可剪辑的视频,该可剪辑的视频对应上述的目标视频的剪辑范围。
例如,关键情感数值为m,情感数值差值为n,此时可以将[m-n,m+n]作为情感数值范围。图3示出了确定剪辑范围的一种示意图,参见图3所示,曲线表示一种情感曲线,点M表示关键帧所在的位置,根据情感数值范围可以快速确定起点A和终点B,进而将AB之间的范围作为剪辑范围。
在一种可能的实现方式中,上述步骤104中根据关键帧的位置确定目标视频的剪辑范围具体可以包括步骤D1-D2:
步骤D1:确定情感曲线的变化率的绝对值。
步骤D2:将变化率的绝对值等于预设阈值的点作为分割点,并在位于关键帧一侧的分割点中选择起点,并在位于关键帧另一侧的分割点中选择终点,将起点与终点之间的范围作为目标视频的剪辑范围。
本发明实施例中,情感曲线的变化率可以表示用户的情感波动情况,变化率越大,表示情感波动越剧烈。在关键帧附近变化率较大的情感曲线可以比较完整的表示用户的表情变化过程,故相对应的范围可以作为剪辑范围。同时,由于一般通过求导的方式确定曲线的变化率,以变化率的绝对值作为判断依据更为精确,即根据变化率的绝对值确定分割点。为方便描述,本实施例中所指的变化率为不考虑正负号的变化率,即只考虑变化率的数值。
需要说明的是,本发明实施例中也是根据变化率确定剪辑范围的起点和终点,进而确定剪辑范围;由于关键帧附近的变化率为零,在选取起点和终点时一般需要去除最靠近关键帧的两个点,并在剩余的分割点中选择距离关键帧最近的点作为起点和终点。可选的,将关键帧一侧的第二个分割点作为起点,将关键帧另一侧的第二个分割点作为终点。如图4所示,M表示关键帧所在的点,A、B、C、D、E表示变化率为预设阈值的点;由于M附近的变化率为0,BC两点所表示的范围过小,故将M点左侧第二个分割点(即A点)作为起点,将M点右侧的第二个分割点(即D点)作为终点。以情感曲线的变化率作为判断依据可以更加准确完整地定位剪辑范围。
具体的,本发明实施例提供的一种基于情感曲线剪辑视频的方法可以在移动设备上实现,其界面具体可参见图5所示。图5中,曲线1表示快乐曲线,曲线2表示愤怒曲线,曲线3表示惊悚曲线,4表示建议视频剪辑起点,5表示建议视频剪辑终点,6表示移动设备前置摄像头,7表示视频剪辑滑块,8表示视频播放器,9表示时间轴,10表示建议视频剪辑高潮点(即关键帧所在位置)。根据该剪辑视频方法可以自动推荐剪辑范围,用户也可以通过视频剪辑滑块7手动调整剪辑范围。
本发明实施例提供的一种基于情感曲线剪辑视频的方法,通过采集用户观看视频时的人脸表情视频确定情感曲线,进而根据情感曲线确定目标视频的关键帧,从而可以利用关键帧实现对剪辑位置的快速定位,可以大幅提升剪辑操作时的效率。以多个维度描述人脸表情使得分类结果更加精确,且可以同时确定多种情感曲线,适用于多种应用场景,可以满足用户不同的剪辑需求。通过去极值滤波的方法剔除可能的无效数据,从而可以有效消除误差,减小脉冲干扰;利用预设的情感数值差值可以快速确定剪辑范围,而将情感曲线的变化率作为判断依据可以更加准确完整地定位剪辑范围。
以上详细介绍了基于情感曲线剪辑视频的方法流程,该方法也可以通过相应的装置实现,下面详细介绍该装置的结构和功能。
参见图6所示,本发明实施例还提供一种基于情感曲线剪辑视频的装置,包括:
获取模块61,用于获取在播放目标视频时采集的多个用户的多个人脸表情视频,并分别根据每个人脸表情视频确定多个包含时间戳的人脸表情图像;
确定模块62,用于对人脸表情图像进行人脸表情识别处理,确定人脸表情特征值,并根据人脸表情特征值确定相对应的情感数值组,情感数值组包括快乐情感数值、悲伤情感数值、愤怒情感数值、恐惧情感数值之中的一项或多项;
处理模块63,用于对与同一时间戳对应的多个情感数值组中的情感数值分别进行均值处理,确定最终情感数值组,并根据不同时间戳的最终情感数值组拟合确定与目标视频相对应的情感曲线组,情感曲线组包括快乐情感数曲线、悲伤情感数曲线、愤怒情感数曲线、恐惧情感数曲线之中的一项或多项;
定位模块64,用于根据情感曲线组中情感曲线的波峰或波谷确定相对应的目标视频中的关键帧,并根据关键帧的位置确定目标视频的剪辑范围。
在一种可能的实现方式中,确定模块61包括:
预设单元,用于预设人脸表情数据库,人脸表情数据库包含人脸表情特征值与情感数值组之间的对应关系;
确定单元,用于根据确定的人脸表情特征值以及对应关系确定相对应的情感数值组。
在一种可能的实现方式中,处理模块63包括:
删除单元,用于确定与同一时间戳对应的所有情感数值组中情感数值的最值,并删除含有最值的情感数值组;
均值处理单元,用于对剩余的情感数值组中的情感数值进行均值处理。
在一种可能的实现方式中,定位模块64包括:
情感数值范围确定单元,用于确定关键帧处相对应的关键情感数值,并根据预设的情感数值差值确定与关键情感数值相对应的情感数值范围;
定位单元,用于将目标视频中情感数值符合情感数值范围的视频帧作为可剪辑的视频。
在一种可能的实现方式中,定位模块64包括:
变化率确定单元,用于确定情感曲线的变化率的绝对值;
定位单元,用于将变化率的绝对值等于预设阈值的点作为分割点,并在位于关键帧一侧的分割点中选择起点,并在位于关键帧另一侧的分割点中选择终点,将起点与终点之间的范围作为目标视频的剪辑范围。
本发明实施例提供的一种基于情感曲线剪辑视频的装置,通过采集用户观看视频时的人脸表情视频确定情感曲线,进而根据情感曲线确定目标视频的关键帧,从而可以利用关键帧实现对剪辑位置的快速定位,可以大幅提升剪辑操作时的效率。以多个维度描述人脸表情使得分类结果更加精确,且可以同时确定多种情感曲线,适用于多种应用场景,可以满足用户不同的剪辑需求。通过去极值滤波的方法剔除可能的无效数据,从而可以有效消除误差,减小脉冲干扰;利用预设的情感数值差值可以快速确定剪辑范围,而将情感曲线的变化率作为判断依据可以更加准确完整地定位剪辑范围。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (6)

1.一种基于情感曲线剪辑视频的方法,其特征在于,包括:
获取在播放目标视频时采集的多个用户的多个人脸表情视频,并分别根据每个所述人脸表情视频确定多个包含时间戳的人脸表情图像;
对所述人脸表情图像进行人脸表情识别处理,确定人脸表情特征值,并根据所述人脸表情特征值确定相对应的情感数值组,所述情感数值组包括快乐情感数值、悲伤情感数值、愤怒情感数值、恐惧情感数值之中的一项或多项;
对与同一时间戳对应的多个情感数值组中的情感数值分别进行均值处理,确定最终情感数值组,并根据不同时间戳的最终情感数值组拟合确定与所述目标视频相对应的情感曲线组,所述情感曲线组包括快乐情感数曲线、悲伤情感数曲线、愤怒情感数曲线、恐惧情感数曲线之中的一项或多项;
根据所述情感曲线组中情感曲线的波峰或波谷确定相对应的所述目标视频中的关键帧,并根据所述关键帧的位置确定目标视频的剪辑范围;
所述根据所述人脸表情特征值确定相对应的情感数值组包括:
预设人脸表情数据库,所述人脸表情数据库包含人脸表情特征值与情感数值组之间的对应关系;
根据确定的人脸表情特征值以及所述对应关系确定相对应的情感数值组;
其中,所述根据所述关键帧的位置确定目标视频的剪辑范围包括:
确定情感曲线的变化率的绝对值;
将变化率的绝对值等于预设阈值的点作为分割点,并在位于所述关键帧一侧的分割点中选择起点,并在位于所述关键帧另一侧的分割点中选择终点,将所述起点与所述终点之间的范围作为所述目标视频的剪辑范围。
2.根据权利要求1所述的方法,其特征在于,所述对与同一时间戳对应的多个情感数值组中的情感数值分别进行均值处理,包括:
确定与同一时间戳对应的所有情感数值组中情感数值的最值,并删除含有最值的情感数值组;
对剩余的情感数值组中的情感数值进行均值处理。
3.根据权利要求1所述的方法,其特征在于,所述根据所述关键帧的位置确定目标视频的剪辑范围包括:
确定所述关键帧处相对应的关键情感数值,并根据预设的情感数值差值确定与所述关键情感数值相对应的情感数值范围;
将目标视频中情感数值符合所述情感数值范围的视频帧作为可剪辑的视频。
4.一种基于情感曲线剪辑视频的装置,其特征在于,包括:
获取模块,用于获取在播放目标视频时采集的多个用户的多个人脸表情视频,并分别根据每个所述人脸表情视频确定多个包含时间戳的人脸表情图像;
确定模块,用于对所述人脸表情图像进行人脸表情识别处理,确定人脸表情特征值,并根据所述人脸表情特征值确定相对应的情感数值组,所述情感数值组包括快乐情感数值、悲伤情感数值、愤怒情感数值、恐惧情感数值之中的一项或多项;
处理模块,用于对与同一时间戳对应的多个情感数值组中的情感数值分别进行均值处理,确定最终情感数值组,并根据不同时间戳的最终情感数值组拟合确定与所述目标视频相对应的情感曲线组,所述情感曲线组包括快乐情感数曲线、悲伤情感数曲线、愤怒情感数曲线、恐惧情感数曲线之中的一项或多项;
定位模块,用于根据所述情感曲线组中情感曲线的波峰或波谷确定相对应的所述目标视频中的关键帧,并根据所述关键帧的位置确定目标视频的剪辑范围;
所述确定模块包括:
预设单元,用于预设人脸表情数据库,所述人脸表情数据库包含人脸表情特征值与情感数值组之间的对应关系;
确定单元,用于根据确定的人脸表情特征值以及所述对应关系确定相对应的情感数值组;
其中,述定位模块包括:
变化率确定单元,用于确定情感曲线的变化率的绝对值;
定位单元,用于将变化率的绝对值等于预设阈值的点作为分割点,并在位于所述关键帧一侧的分割点中选择起点,并在位于所述关键帧另一侧的分割点中选择终点,将所述起点与所述终点之间的范围作为所述目标视频的剪辑范围。
5.根据权利要求4所述的装置,其特征在于,所述处理模块包括:
删除单元,用于确定与同一时间戳对应的所有情感数值组中情感数值的最值,并删除含有最值的情感数值组;
均值处理单元,用于对剩余的情感数值组中的情感数值进行均值处理。
6.根据权利要求4所述的装置,其特征在于,所述定位模块包括:
情感数值范围确定单元,用于确定所述关键帧处相对应的关键情感数值,并根据预设的情感数值差值确定与所述关键情感数值相对应的情感数值范围;
定位单元,用于将目标视频中情感数值符合所述情感数值范围的视频帧作为可剪辑的视频。
CN201711268678.8A 2017-12-05 2017-12-05 基于情感曲线剪辑视频的方法及装置 Expired - Fee Related CN107968961B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711268678.8A CN107968961B (zh) 2017-12-05 2017-12-05 基于情感曲线剪辑视频的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711268678.8A CN107968961B (zh) 2017-12-05 2017-12-05 基于情感曲线剪辑视频的方法及装置

Publications (2)

Publication Number Publication Date
CN107968961A CN107968961A (zh) 2018-04-27
CN107968961B true CN107968961B (zh) 2020-06-02

Family

ID=61999022

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711268678.8A Expired - Fee Related CN107968961B (zh) 2017-12-05 2017-12-05 基于情感曲线剪辑视频的方法及装置

Country Status (1)

Country Link
CN (1) CN107968961B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109819325B (zh) * 2019-01-11 2021-08-20 平安科技(深圳)有限公司 热点视频标注处理方法、装置、计算机设备及存储介质
CN110113659A (zh) * 2019-04-19 2019-08-09 北京大米科技有限公司 生成视频的方法、装置、电子设备及介质
CN110263215B (zh) * 2019-05-09 2021-08-17 众安信息技术服务有限公司 一种视频情感定位方法及系统
CN113347491A (zh) * 2021-05-24 2021-09-03 北京格灵深瞳信息技术股份有限公司 一种视频剪辑方法、装置、电子设备和计算机存储介质
CN113657266B (zh) * 2021-08-16 2022-09-02 江苏动泰运动用品有限公司 基于智能手环和人体三维重建的健身训练管理方法及系统
CN117152308B (zh) * 2023-09-05 2024-03-22 江苏八点八智能科技有限公司 一种虚拟人动作表情优化方法与系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107358206A (zh) * 2017-07-13 2017-11-17 山东大学 一种基于感兴趣区域的光流特征矢量模值和角度结合的微表情检测方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102693739A (zh) * 2011-03-24 2012-09-26 腾讯科技(深圳)有限公司 视频片段生成方法及系统
CN102541261B (zh) * 2012-01-19 2015-01-07 北京工业大学 基于脑电信号特征的影片剪辑筛选辅助仪及实现方法
CN102842327A (zh) * 2012-09-03 2012-12-26 深圳市迪威视讯股份有限公司 一种多媒体数据流的剪辑方法及系统
CN104008175B (zh) * 2014-06-06 2017-03-08 福州大学 一种情感激励下的视频关键帧自适应提取方法
US20160132607A1 (en) * 2014-08-04 2016-05-12 Media Group Of America Holdings, Llc Sorting information by relevance to individuals with passive data collection and real-time injection
CN106060572A (zh) * 2016-06-08 2016-10-26 乐视控股(北京)有限公司 视频播放方法及装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107358206A (zh) * 2017-07-13 2017-11-17 山东大学 一种基于感兴趣区域的光流特征矢量模值和角度结合的微表情检测方法

Also Published As

Publication number Publication date
CN107968961A (zh) 2018-04-27

Similar Documents

Publication Publication Date Title
CN107968961B (zh) 基于情感曲线剪辑视频的方法及装置
US11321385B2 (en) Visualization of image themes based on image content
Talebi et al. NIMA: Neural image assessment
US8879788B2 (en) Video processing apparatus, method and system
Ferman et al. Efficient filtering and clustering methods for temporal video segmentation and visual summarization
US8442384B2 (en) Method and apparatus for video digest generation
US8238718B2 (en) System and method for automatically generating video cliplets from digital video
JP5355422B2 (ja) ビデオの索引付けとビデオシノプシスのための、方法およびシステム
CN109819325A (zh) 热点视频标注处理方法、装置、计算机设备及存储介质
US9578279B1 (en) Preview streaming of video data
US9635307B1 (en) Preview streaming of video data
Soleymani et al. A bayesian framework for video affective representation
US8856636B1 (en) Methods and systems for trimming video footage
CN108921032B (zh) 一种新的基于深度学习模型的视频语义提取方法
CN109583431A (zh) 一种人脸情绪识别模型、方法及其电子装置
CN104050449A (zh) 一种人脸识别方法及装置
CN112770061A (zh) 视频剪辑方法、系统、电子设备及存储介质
US9549162B2 (en) Image processing apparatus, image processing method, and program
CN108764060A (zh) 基于滑动窗口的视频镜头边缘检测方法
DE102014009260A1 (de) Verfahren und Systeme zur Verwaltung von Mediendateien
CN112906833A (zh) 一种基于全卷积神经网络的等离子能量沉积图像识别方法
Medentzidou et al. Video summarization based on shot boundary detection with penalized contrasts
Khan et al. Semantic analysis of news based on the deep convolution neural network
Dong et al. Advanced news video parsing via visual characteristics of anchorperson scenes
Svanera et al. Who is the director of this movie? Automatic style recognition based on shot features

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200602