CN103826160A - 获取视频的信息的方法及设备及播放视频的方法及设备 - Google Patents
获取视频的信息的方法及设备及播放视频的方法及设备 Download PDFInfo
- Publication number
- CN103826160A CN103826160A CN201410011366.9A CN201410011366A CN103826160A CN 103826160 A CN103826160 A CN 103826160A CN 201410011366 A CN201410011366 A CN 201410011366A CN 103826160 A CN103826160 A CN 103826160A
- Authority
- CN
- China
- Prior art keywords
- video
- mood
- mood classification
- configuration information
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种获取视频的信息的方法及设备及播放视频的方法及设备。获取视频的信息的方法包括如下步骤:(a)在播放视频时实时采集视频观看者的面部表情;(b)分析所述脸部表情,得出观看者的情绪类别;(c)将所述情绪类别在视频播放时间轴上进行标记;(d)生成视频播放配置信息,所述视频播放配置信息记录了观看者的情绪类别以及所述情绪类别在视频播放时间轴上出现的时间段。根据本发明的获取视频的信息的方法,无需打断观看者观看视频,即可自动记录视频的各个精彩片段,简单方便。
Description
技术领域
本发明涉及交互式媒体领域。更具体地讲,涉及一种获取视频的信息的方法及设备及播放视频的方法及设备。
背景技术
目前网络上视频节目资源日益丰富,尤其是电影类的长视频,给人们观看视频带来了极大的便利。人们可以在网络上随意搜索感兴趣的视频进行观看。在网络上收看视频类节目已逐渐成为人们观看视频的主要方式之一。在人们选择观看一个视频之前,可以通过视频封面或者是关于视频的评论,来初步获得关于该视频的一些信息。但是这些都无法直观地、真实地反映视频给观看者的感受。因此,需要一种能够便捷地获取视频的信息的方法。
发明内容
本发明的目的在于提供一种获取视频的信息的方法及设备及播放视频的方法及设备、一种拍摄视频的方法及设备,以解决上述问题之一。
为了实现上述目的,本发明提供了一种获取视频的信息的方法,包括以下步骤:(a)在播放视频时实时采集视频观看者的面部表情;(b)分析所述脸部表情,得出观看者的情绪类别;(c)将所述情绪类别在视频播放时间轴上进行标记;(d)生成视频播放配置信息,所述视频播放配置信息记录了观看者的情绪类别以及所述情绪类别在视频播放时间轴上出现的时间段。
优选地,步骤d包括:针对不同的观看者生成对应的视频播放配置信息。
优选地,所述面部表情还包括脸部范围内的手部动作。
优选地,所述情绪类别包括开心、感动、平静、悲伤、愤怒、厌倦中的至少一项。
优选地,步骤b包括分析之前预定长度的时间段内情绪类别的变化,得出观看者的情绪类别。
优选地,步骤d还包括,检测以下数据中的至少一项并将检测的数据记录在视频播放配置信息中:各种情绪类别出现的次数、各种情绪类别出现的时间长度占整个视频时间长度的比例、情绪线,所述情绪线为观看者情绪在视频播放时间轴上的变化曲线。
优选地,所述视频为播放的视频或观看者通过录像设备实时录制的视频。
本发明还提供了一种播放视频的方法,包括以下步骤:在播放视频的同时,获取与该视频对应的视频播放配置信息;将获取到的视频播放配置信息加载到视频播放时间轴上进行展示,其中,所述视频播放配置信息包括观看者的情绪类别、以及所述情绪类别在视频播放时间轴上出现的时间段。
优选地,将获取到的视频播放配置信息加载到视频播放时间轴上进行展示的步骤包括:根据情绪类别在视频播放时间轴上出现的时间段,将时间段标识为与情绪类别对应的颜色。
优选地,获取与该视频对应的视频播放配置信息的步骤包括:接收对预定观众的选择;获取与该视频和选择的观众对应的视频播放配置信息。
本发明还提供了一种拍摄视频的方法,包括如下步骤:(a)在拍摄视频时实时采集被拍摄者的面部表情;(b)分析所述脸部表情,得出被拍摄者的情绪类别;(c)将所述情绪类别在视频拍摄时间轴上进行标记;(d)生成视频播放配置信息,所述视频播放配置信息记录了被拍摄者的情绪类别以及所述情绪类别在视频拍摄时间轴上出现的时间段。
优选地,步骤d包括:针对不同的观看者生成对应的视频播放配置信息。
优选地,所述面部表情还包括脸部范围内的手部动作。
优选地,所述情绪类别包括开心、感动、平静、悲伤、愤怒、厌倦中的至少一项。
优选地,步骤b包括分析之前预定长度的时间段内情绪类别的变化,得出被拍摄者的情绪类别。
优选地,步骤d还包括,检测以下数据中的至少一项并将检测的数据记录在视频播放配置信息中:各种情绪类别出现的次数、各种情绪类别出现的时间长度占整个视频时间长度的比例、情绪线,所述情绪线为观看者情绪在视频拍摄时间轴上的变化曲线。
本发明还提供了一种获取视频的信息的设备,包括:采集单元,用于在播放视频时实时采集视频观看者的面部表情;分析单元,用于分析所述脸部表情,得出观看者的情绪类别;标记单元,用于将所述情绪类别在视频播放时间轴上进行标记;生成单元,用于生成视频播放配置信息,所述视频播放配置信息记录了观看者的情绪类别以及所述情绪类别在视频播放时间轴上出现的时间段。
优选地,生成单元还用于针对不同的观看者生成对应的视频播放配置信息。
优选地,所述面部表情还包括脸部范围内的手部动作。
优选地,所述情绪类别包括开心、感动、平静、悲伤、愤怒、厌倦中的至少一项。
优选地,分析单元还用于分析之前预定长度的时间段内情绪类别的变化,得出观看者的情绪类别。
优选地,生成单元还用于,检测以下数据中的至少一项并将检测的数据记录在视频播放配置信息中:各种情绪类别出现的次数、各种情绪类别出现的时间长度占整个视频时间长度的比例、情绪线,所述情绪线为观看者情绪在视频播放时间轴上的变化曲线。
优选地,所述视频为播放的视频或观看者通过录像设备实时录制的视频。
本发明还提供了一种播放视频的设备,包括:获取单元,用于在播放视频的同时,获取与该视频对应的视频播放配置信息;展示单元,用于将获取到的视频播放配置信息加载到视频播放时间轴上进行展示,其中,所述视频播放配置信息包括观看者的情绪类别、以及所述情绪类别在视频播放时间轴上出现的时间段。
优选地,展示单元还用于,根据情绪类别在视频播放时间轴上出现的时间段,将时间段标识为与情绪类别对应的颜色。
优选地,获取单元还用于接收对预定观众的选择,获取与该视频和选择的观众对应的视频播放配置信息。
本发明还提供了了一种拍摄视频的设备,包括:采集单元,用于在拍摄视频时实时采集被拍摄者的面部表情;分析单元,用于分析所述脸部表情,得出被拍摄者的情绪类别;标记单元,用于将所述情绪类别在视频拍摄时间轴上进行标记;生成单元,用于生成视频播放配置信息,所述视频播放配置信息记录了被拍摄者的情绪类别以及所述情绪类别在视频拍摄时间轴上出现的时间段。
优选地,生成单元还用于针对不同的被拍摄者生成对应的视频播放配置信息。
优选地,所述面部表情还包括脸部范围内的手部动作。
优选地,所述情绪类别包括开心、感动、平静、悲伤、愤怒、厌倦中的至少一项。
优选地,分析单元还用于分析之前预定长度的时间段内情绪类别的变化,得出被拍摄者的情绪类别。
优选地,生成单元还用于,检测以下数据中的至少一项并将检测的数据记录在视频播放配置信息中:各种情绪类别出现的次数、各种情绪类别出现的时间长度占整个视频时间长度的比例、情绪线,所述情绪线为被拍摄者情绪在视频拍摄时间轴上的变化曲线。
根据本发明的获取视频的信息的方法和设备,无需打断观看者观看视频,即可自动记录视频的各个精彩片段,简单方便。
根据本发明的一种播放视频的方法和设备,可以直观的了解视频的精彩片段。
根据本发明一种拍摄视频的方法和设备,可以快速的获取被监控对象的情绪状况。
附图说明
通过下面结合附图进行的详细描述,本发明的上述和其它目的、特点和优点将会变得更加清楚,其中:
图1为根据本发明实施例的获取视频的信息的方法的流程图;
图2为根据本发明实施例的视频配置信息的示例图;
图3为根据本发明实施例的播放视频的方法的流程图;
图4为根据本发明实施例的加载了视频配置信息的视频播放画面的示例图;
图5为根据本发明实施例的拍摄视频的方法的流程图;
图6为根据本发明实施例的获取视频的信息的设备的框图;
图7为根据本发明实施例的播放视频的设备的框图;
图8为根据本发明实施例的拍摄视频的设备的框图。
具体实施方式
现在,将参照附图更充分地描述不同的示例实施例,其中,一些示例性实施例在附图中示出。
图1示出了本发明实施例的获取视频的信息的方法的流程图。
如图1所示,本发明实施例的获取视频的信息的方法,包括以下步骤。
在步骤101,在播放视频时实时采集视频观看者的面部表情。这样,可以获得观看者在不同时间点的面部表情。
在步骤102,分析所述脸部表情,得出观看者的情绪类别。这样,可以得到观看者在不同时间点的情绪类别。
一般来说,人的情绪大部分都会通过脸部表情表达出来。有研究表明人类情感交流中的地位:语言内容占7%,语言语调占38%,而面部表情占55%。所以通过观察脸部表情就大体能够判断一个人所处于的情绪。可以通过设置摄像头捕捉观看者的脸部表情,检测脸部特征,如眼、鼻、鼻孔、眉毛、嘴、嘴唇、耳朵等部位的形状及存在位置。同时也可以结合脸部范围的手部动作,如托下巴、擦鼻子、擦眼泪、捂嘴等,通过这些判断出观看者此时的情绪。
借助成熟的脸部识别技术(包含人脸识别及表情识别),识别出以下情绪中的至少一项,开心、感动、平静、悲伤、愤怒、厌倦,当然情绪类别不限于以上列举的类型。
在另一个实施例中,由于人类的表情比较复杂,所以在某个时间点上,同样脸部表情会给出不同的情绪的可能性概率。这时可以通过分析该时间点之前预定长度的时间段内情绪类别的变化,得出观看者在该时间点的情绪类别。将当前观看者可能的几种情绪类别与之前预定长度的时间段内的情绪类别进行对比,将与之前预定长度的时间段内的情绪类别相同或接近的情绪类别作为当前观看者的情绪类别。比如某个时间点上,分析脸部表情得到观看者的情绪类别:笑(即开心)的可能性概率是40%,平静的可能性概率是60%。如果前面预定长度的时间段内(如一分钟)观看者的情绪都是开心,则可判断此时观看者的情绪是开心。如果前面预定时间内(如一分钟)观看者的情绪都是平静的,则可判断此时观看者的情绪是平静的。预定长度可以根据情况进行设置。
在步骤103,将所述情绪类别在视频播放时间轴上进行标记,即将观看者的情绪类别与在视频中出现该情绪类别的时间相关联。
在进行标记时,可以针对各个时间点标记情绪类别,或者可以将时间轴划分为多个时间段,针对每个时间段标记情绪类别。
例如,在针对各个时间点标记情绪类别的情况下,如果一同观看的观看者有多个,可以将不同的观看者的情绪类别分别在时间轴的对应的时间点上进行标记;也可以通过计算得到各个时间点上各个观看者的情绪类别中比率最高的情绪类别,将该比率最高的情绪类别作为该时间点的观看者的综合的情绪类别并且在时间轴的对应的时间点上进行标记。
在针对每个时间段标记情绪类别的情况下,对于任意时间段,根据在该时间段内各个时间点的情绪类别,统计该时间段内观看者的每种情绪类别出现的频率(即,具有该种情绪类别的时间点的数量),将出现频率最高的情绪类别标记为该时间段的观看者情绪类别,将该情绪类别标记在该时间段。例如在某个时间段内开心的情绪类别出现频率最高,则该时间段的观看者情绪类别为开心。对于上述一同观看的观看者有多个的情况,如果将不同的观看者的情绪类别分别在时间轴上进行标记,则分别统计各时间段内各观看者每种情绪类别出现的频率,将出现频率最高的各个情绪类别标记为该时间段的各个观看者各自的情绪类别;如果将观看者的综合的情绪类别在时间轴上进行标记,则统计各时间段内观看者的综合的情绪类别中出现频率最高的综合的情绪类别标记为该时间段内观看者的综合的情绪类别。
在步骤104,生成视频播放配置信息,所述视频播放配置信息记录了观看者的情绪类别以及所述情绪类别在视频播放时间轴上出现的时间段。所述时间段的信息包括了情绪类别在视频播放时间轴上出现的起始时间点和持续时间长度。视频播放配置信息可以与视频一起分享给他人,也可单独分享给他人,他人通过视频播放配置信息的内容可以直观的了解该视频的精彩片段,如是否搞笑、感人等。
对于一同观看的观看者有多个的情况,针对不同的观看者生成对应的视频播放配置信息,即可以对应步骤103中将不同的观看者的情绪类别分别在时间轴上进行标记,在步骤104中生成各自对应的视频播放配置信息,也可以对应步骤103中将观看者的综合的情绪类别在时间轴上进行标记,在步骤104中生成一个综合的视频播放配置信息。
为了更加直观的展示整个视频的精彩片段,步骤104还包括检测以下数据中的至少一项并将检测的数据记录在视频播放配置信息中:各种情绪类别出现的次数、各种情绪类别出现的时间长度占整个视频时间长度的比例、情绪线,所述情绪线为观看者情绪在视频播放时间轴上的变化曲线。情绪线以平静的情绪为零点,零点以上的为正面的情绪,如开心、感动等,零点以下的为负面的情绪,如悲伤、愤怒等。图2示出了根据本发明实施例的视频播放配置信息的示例图。如图2所示,该视频播放配置信息是某个观看者观看完片名为“小时候的你”的视频之后生成的,在该视频播放配置信息中为了符合大众的阅读习惯,将开心的情绪对应的视频片段命名为搞笑,厌倦的情绪对应的视频片段命名为无聊,并截取了搞笑和感动两种视频片段记录在视频播放配置信息中,他人可以直接点击该视频片段进行观看。
上述视频可以是播放的视频,也可以是观看者通过录像设备实时录制的视频,即观看者同时也是视频的拍摄者,在拍摄视频的过程中,拍摄者的情绪被自动记录了下来,拍摄结束后生成视频播放配置信息。
根据本发明的获取视频的信息的方法,无需打断观看者观看视频,即可自动记录视频的各个精彩片段,简单方便。
图3示出了根据本发明的实施例的播放视频的方法的流程图。
参照图3,本发明实施例的播放视频的方法,包括以下步骤。
在步骤301,播放视频的同时,获取与该视频对应的视频播放配置信息。所述视频播放配置信息可以是参照图1中的方法生成的。
在步骤302,将获取到的视频播放配置信息加载到视频播放时间轴上进行展示,其中所述视频播放配置信息包括观看者的情绪类别、以及所述情绪类别在视频播放时间轴上出现的时间段。
优选地,获取与该视频对应的视频播放配置信息的步骤可以包括:接收对预定观众的选择;获取与该视频和选择的观众对应的视频播放配置信息。换句话说,由于可能存在多个不同的观看者观看后生成的不同的视频播放配置信息,用户可以选择某个观看者观看后生成的不同的视频播放配置信息进行加载,也可以选择多个不同的观看者观看后生成的多个不同的视频播放配置信息加载。如果选择了多个视频播放配置信息则可以对各视频播放配置信息中的各种情绪进行综合归类,可以在视频播放时间轴上展示所有选定的视频播放配置信息中的同一种情绪类别出现的所有时间段。例如,用户只关心开心的片段,则在视频播放时间轴上展示所有选定视频播放配置信息的开心的情绪出现的所有时间段。
优选地,为了方便识别不同的情绪的视频片段,根据情绪类别在视频播放时间轴上出现的时间段,将时间段标识为与情绪类别对应的颜色。图4示出了根据本发明实施例的加载了视频播放配置信息的视频播放画面的示例图。如图4所示,视频播放时间轴上用不同的颜色标识了搞笑(即开心)、感动、无聊(即厌倦)情绪对应的时间段,当然在其他视频中还可能有悲伤、恐惧等其他趣点。
根据本发明的一种播放视频的方法,可以直观的了解视频的精彩片段。
本发明实施例中的获取视频的信息的方法也可以应用到视频监控中。图5示出了根据本发明实施例的拍摄视频的方法的流程图。参照图5,本发明实施例的拍摄视频的方法,包括如下步骤。
在步骤501,在拍摄视频时实时采集被拍摄者的面部表情,这样,可以获得被拍摄者在不同时间点的面部表情。
在步骤502,分析所述脸部表情,得出被拍摄者的情绪类别。这样,可以得到观看者在不同时间点的情绪类别。优选地,同时结合脸部范围的手部动作,如托下巴、擦鼻子、擦眼泪、捂嘴等,通过这些判断出观看者此时的情绪。借助成熟的脸部识别技术(包含人脸识别及表情识别),识别出以下情绪中的至少一项,开心、感动、平静、悲伤、愤怒、厌倦,当然情绪类别不限于以上列举的类型。
在另一个实施例中,由于人类的表情比较复杂,所以在某个时间点上,同样脸部表情会给出不同的情绪的可能性概率。这时可以通过分析该时间点之前预定长度的时间段内情绪类别的变化,得出被拍摄者在该时间点的情绪类别。将当前被拍摄者可能的几种情绪类别与之前预定长度的时间段内的情绪类别进行对比,将与之前预定长度的时间段内的情绪类别相同或接近的情绪类别作为当前被拍摄者的情绪类别。
在步骤503,将所述情绪类别在视频拍摄时间轴上进行标记,即将被拍摄者的情绪类别与在被拍摄视频中出现该情绪类别的时间相关联。
在进行标记时,可以针对各个时间点标记情绪类别,或者可以将时间轴划分为多个时间段,针对每个时间段标记情绪类别。
例如,在针对各个时间点标记情绪类别的情况下,如果同时被拍摄的人有多个,可以将不同的被拍摄者的情绪类别分别在时间轴的对应的时间点上进行标记;也可以通过计算得到各个时间点上各个被拍摄者的情绪类别中比率最高的情绪类别,将该比率最高的情绪类别作为该时间点的被拍摄者的综合的情绪类别并且在时间轴的对应的时间点上进行标记。
在针对每个时间段标记情绪类别的情况下,对于任意时间段,根据在该时间段内各个时间点的情绪类别,统计该时间段内被拍摄者的每种情绪类别出现的频率(即,具有该种情绪类别的时间点的数量),将出现频率最高的情绪类别标记为该时间段的观看者情绪类别,将该情绪类别标记在该时间段。例如在某个时间段内开心的情绪类别出现频率最高,则该时间段的被拍摄者情绪类别为开心。对于上述同时被拍摄的人有多个的情况,如果将不同的同时被拍摄的人有多个的情绪类别分别在时间轴上进行标记,则分别统计各时间段内各被拍摄者每种情绪类别出现的频率,将出现频率最高的各个情绪类别标记为该时间段的各个被拍摄者各自的情绪类别;如果将被拍摄者的综合的情绪类别在时间轴上进行标记,则统计各时间段内被拍摄者的综合的情绪类别中出现频率最高的综合的情绪类别标记为该时间段内被拍摄者的综合的情绪类别。
在步骤504,生成视频播放配置信息,所述视频播放配置信息记录了被拍摄者的情绪类别以及所述情绪类别在视频拍摄时间轴上出现的时间段。所述时间段的信息包括了情绪类别在视频播放时间轴上出现的起始时间点和持续时间长度。这样通过查看视频播放配置信息,就可以快速的获取被监控对象的情绪状况。
对于被拍摄的人有多个的情况,针对不同的被拍摄者生成对应的视频播放配置信息,即可以对应步骤503中将不同的被拍摄者的情绪类别分别在时间轴上进行标记,在步骤504中生成各自对应的视频播放配置信息,也可以对应步骤503中将被拍摄者的综合的情绪类别在时间轴上进行标记,在步骤504中生成一个综合的视频播放配置信息。
为了更加直观的展示整个拍摄视频中被拍摄者的情绪状况,步骤504还包括检测以下数据中的至少一项并将检测的数据记录在视频播放配置信息中:各种情绪类别出现的次数、各种情绪类别出现的时间长度占整个视频时间长度的比例、情绪线,所述情绪线为被拍摄者情绪在视频拍摄时间轴上的变化曲线。
图6示出了根据本发明实施例的获取视频的信息的设备的框图。如图6所示,根据本发明实施例的获取视频的信息的设备包括采集单元601、分析单元602、标记单元603、生成单元604。
采集单元601用于在播放视频时实时采集视频观看者的面部表情,这样,可以获得观看者在不同时间点的面部表情。
分析单元602用于分析所述脸部表情,得出观看者的情绪类别,这样,可以得到观看者在不同时间点的情绪类别。
通过采集单元采集观看者的脸部表情,检测脸部特征,如眼、鼻、鼻孔、眉毛、嘴、嘴唇、耳朵等部位的形状及存在位置。同时也可以结合脸部范围的手部动作,如托下巴、擦鼻子、擦眼泪、捂嘴等,通过这些判断出观看者此时的情绪。借助成熟的脸部识别技术(包含人脸识别及表情识别),识别出以下情绪中的至少一项,开心、感动、平静、悲伤、愤怒、厌倦,当然情绪类别不限于以上列举的类型。
在另一个实施例中,由于人类的表情比较复杂,所以在某个时间点上,同样脸部表情会给出不同的情绪的可能性概率。分析单元还可以用于通过分析该时间点之前预定长度的时间段内情绪类别的变化,得出观看者在该时间点的情绪类别。将当前观看者可能的几种情绪类别与之前预定长度的时间段内的情绪类别进行对比,将与之前预定长度的时间段内的情绪类别相同或接近的情绪类别作为当前观看者的情绪类别。
标记单元603,用于将所述情绪类别在视频播放时间轴上进行标记,即将观看者的情绪类别与在视频中出现该情绪类别的时间相关联。在进行标记时,可以针对各个时间点标记情绪类别,或者可以将时间轴划分为多个时间段,针对每个时间段标记情绪类别。
例如,在针对各个时间点标记情绪类别的情况下,如果一同观看的观看者有多个,可以将不同的观看者的情绪类别分别在时间轴的对应的时间点上进行标记;也可以通过计算得到各个时间点上各个观看者的情绪类别中比率最高的情绪类别,将该比率最高的情绪类别作为该时间点的观看者的综合的情绪类别并且在时间轴的对应的时间点上进行标记。
在针对每个时间段标记情绪类别的情况下,对于任意时间段,根据在该时间段内各个时间点的情绪类别,统计该时间段内观看者的每种情绪类别出现的频率(即,具有该种情绪类别的时间点的数量),将出现频率最高的情绪类别标记为该时间段的观看者情绪类别,将该情绪类别标记在该时间段。例如在某个时间段内开心的情绪类别出现频率最高,则该时间段的观看者情绪类别为开心。对于上述一同观看的观看者有多个的情况,如果将不同的观看者的情绪类别分别在时间轴上进行标记,则分别统计各时间段内各观看者每种情绪类别出现的频率,将出现频率最高的各个情绪类别标记为该时间段的各个观看者各自的情绪类别;如果将观看者的综合的情绪类别在时间轴上进行标记,则统计各时间段内观看者的综合的情绪类别中出现频率最高的综合的情绪类别标记为该时间段内观看者的综合的情绪类别。
生成单元604,用于生成视频播放配置信息,所述视频播放配置信息记录了观看者的情绪类别以及所述情绪类别在视频播放时间轴上出现的时间段。所述时间段的信息包括了情绪类别在视频播放时间轴上出现的起始时间点和持续时间长度。
对于多个一同观看的观看者有多个的情况,生成单元604还可以用于针对不同的观看者生成对应的视频播放配置信息,即可以生成各个观看者各自的视频播放配置信息,生成一个观看者的综合的视频播放配置信息。。
为了更加直观的展示整个视频的精彩片段,生成单元604还可以用于检测以下数据中的至少一项并将检测的数据记录在视频播放配置信息中:各种情绪类别出现的次数、各种情绪类别出现的时间长度占整个视频时间长度的比例、情绪线,所述情绪线为观看者情绪在视频播放时间轴上的变化曲线。
上述视频可以是播放的视频,也可以是观看者通过录像设备实时录制的视频,即观看者同时也是视频的拍摄者,在拍摄视频的过程中,拍摄者的情绪被自动记录了下来,拍摄结束后生成视频播放配置信息。
根据本发明的获取视频的信息的设备,无需打断观看者观看视频,即可自动记录视频的各个精彩片段,简单方便。
图7示出了根据本发明实施例的播放视频的设备的框图。如图7所述,根据本发明实施例的一种播放视频的设备,包括获取单元701和展示单元702。
获取单元701,用于在播放视频的同时,获取与该视频对应的视频播放配置信息。
展示单元702,用于将获取到的视频播放配置信息中加载到视频播放时间轴上进行展示,其中,所述视频播放配置信息包括观看者的情绪类别、以及所述情绪类别在视频播放时间轴上出现的时间段。
优选地,获取单元701还可以用于接收对预定观众的选择,获取与该视频和选择的观众对应的视频播放配置信息。换句话说,由于可能存在多个不同的观看者观看后生成的不同的视频播放配置信息,用户可以选择某个观看者观看后生成的不同的视频播放配置信息进行加载,也可以选择多个不同的观看者观看后生成的多个不同的视频播放配置信息加载。如果选择了多个视频播放配置信息则可以对各视频播放配置信息中的数据进行综合归类。
优选地,为了方便识别不同的情绪的视频片段,展示单元702还可以用于根据情绪类别在视频播放时间轴上出现的时间段,将时间段标识为与情绪类别对应的颜色。
根据本发明的一种播放视频的设备,可以直观的了解视频的精彩片段。
图8示出了根据本发明实施例的拍摄视频的设备的框图。如图8所示,根据本发明实施例的拍摄视频的设备,包括采集单元801、分析单元802、标记单元803、生成单元804。
采集单元801用于在拍摄视频时实时采集被拍摄者的面部表情,这样,可以获得被拍摄者在不同时间点的面部表情。
分析单元802用于分析所述脸部表情,得出被拍摄者的情绪类别,这样,可以得到被拍摄者在不同时间点的情绪类别。
通过采集单元采集被拍摄者的脸部表情,检测脸部特征,如眼、鼻、鼻孔、眉毛、嘴、嘴唇、耳朵等部位的形状及存在位置。同时也可以结合脸部范围的手部动作,如托下巴、擦鼻子、擦眼泪、捂嘴等,通过这些判断出被拍摄者此时的情绪。借助成熟的脸部识别技术(包含人脸识别及表情识别),识别出以下情绪中的至少一项,开心、感动、平静、悲伤、愤怒、厌倦,当然情绪类别不限于以上列举的类型。
在另一个实施例中,由于人类的表情比较复杂,所以在某个时间点上,同样脸部表情会给出不同的情绪的可能性概率。分析单元还可以用于通过分析该时间点之前预定长度的时间段内情绪类别的变化,得出被拍摄者在该时间点的情绪类别。将当前被拍摄者可能的几种情绪类别与之前预定长度的时间段内的情绪类别进行对比,将与之前预定长度的时间段内的情绪类别相同或接近的情绪类别作为当前被拍摄者的情绪类别。
标记单元803,用于将所述情绪类别在视频拍摄时间轴上进行标记,即将被拍摄者的情绪类别与在视频中出现该情绪类别的时间相关联。在进行标记时,可以针对各个时间点标记情绪类别,或者可以将时间轴划分为多个时间段,针对每个时间段标记情绪类别。
例如,在针对各个时间点标记情绪类别的情况下,如果一同被拍摄的人有多个,可以将不同的被拍摄者的情绪类别分别在时间轴的对应的时间点上进行标记;也可以通过计算得到各个时间点上各个被拍摄者的情绪类别中比率最高的情绪类别,将该比率最高的情绪类别作为该时间点的被拍摄者的综合的情绪类别并且在时间轴的对应的时间点上进行标记。
在针对每个时间段标记情绪类别的情况下,对于任意时间段,根据在该时间段内各个时间点的情绪类别,统计该时间段内被拍摄者的每种情绪类别出现的频率(即,具有该种情绪类别的时间点的数量),将出现频率最高的情绪类别标记为该时间段的被拍摄者情绪类别,将该情绪类别标记在该时间段。例如在某个时间段内开心的情绪类别出现频率最高,则该时间段的被拍摄者情绪类别为开心。对于上述一同被拍摄的人有多个的情况,如果将不同的被拍摄者的情绪类别分别在时间轴上进行标记,则分别统计各时间段内各被拍摄者每种情绪类别出现的频率,将出现频率最高的各个情绪类别标记为该时间段的各个被拍摄者各自的情绪类别;如果将被拍摄者的综合的情绪类别在时间轴上进行标记,则统计各时间段内被拍摄者的综合的情绪类别中出现频率最高的综合的情绪类别标记为该时间段内被拍摄者的综合的情绪类别。
生成单元804,用于生成视频播放配置信息,所述视频播放配置信息记录了被拍摄者的情绪类别以及所述情绪类别在视频播放时间轴上出现的时间段。所述时间段的信息包括了情绪类别在视频拍摄时间轴上出现的起始时间点和持续时间长度。
对于多个一同被拍摄的人有多个的情况,生成单元804还可以用于针对不同的被拍摄者生成对应的视频播放配置信息,即可以生成各个被拍摄者各自的视频播放配置信息,也可以生成一个被拍摄者的综合的视频播放配置信息。
为了更加直观的展示整个拍摄视频中被拍摄者的情绪状况,生成单元804还可以用于检测以下数据中的至少一项并将检测的数据记录在视频播放配置信息中:各种情绪类别出现的次数、各种情绪类别出现的时间长度占整个视频时间长度的比例、情绪线,所述情绪线为被拍摄者情绪在视频拍摄时间轴上的变化曲线。
根据本发明实施例的拍摄视频的设备,可以快速的获取被监控对象的情绪状况。
应该理解,上述方法和设备中都出现的名词或语句的含义相同,其含义已在方法部分进行了详述,在设备部分就不再赘述。
此外,根据本发明的示例性实施例的各种方法可以被实现为计算机程序。
此外,根据本发明的示例性实施例的各个单元可被实现硬件组件。本领域技术人员根据限定的各个单元所执行的处理,可以例如使用现场可编程门阵列(FPGA)或专用集成电路(ASIC)来实现各个单元。
尽管已经参照其示例性实施例具体显示和描述了本发明,但是本领域的技术人员应该理解,在不脱离权利要求所限定的本发明的精神和范围的情况下,可以对其进行形式和细节上的各种改变。
Claims (32)
1.一种获取视频的信息的方法,其特征在于,包括如下步骤:
(a)在播放视频时实时采集视频观看者的面部表情;
(b)分析所述脸部表情,得出观看者的情绪类别;
(c)将所述情绪类别在视频播放时间轴上进行标记;
(d)生成视频播放配置信息,所述视频播放配置信息记录了观看者的情绪类别以及所述情绪类别在视频播放时间轴上出现的时间段。
2.根据权利要求1所述获取视频的信息的方法,其特征在于,步骤d包括:针对不同的观看者生成对应的视频播放配置信息。
3.根据权利要求1所述的获取视频的信息的方法,其特征在于,所述面部表情还包括脸部范围内的手部动作。
4.根据权利要求1所述的获取视频的信息的方法,其特征在于,所述情绪类别包括开心、感动、平静、悲伤、愤怒、厌倦中的至少一项。
5.根据权利要求1所述的获取视频的信息的方法,其特征在于,步骤b包括分析之前预定长度的时间段内情绪类别的变化,得出观看者的情绪类别。
6.根据权利要求1所述的获取视频的信息的方法,其特征在于,步骤d还包括,检测以下数据中的至少一项并将检测的数据记录在视频播放配置信息中:各种情绪类别出现的次数、各种情绪类别出现的时间长度占整个视频时间长度的比例、情绪线,所述情绪线为观看者情绪在视频播放时间轴上的变化曲线。
7.根据权利要求1所述的获取视频的信息的方法,其特征在于,所述视频为播放的视频或观看者通过录像设备实时录制的视频。
8.一种播放视频的方法,其特征在于,包括:
在播放视频的同时,获取与该视频对应的视频播放配置信息;
将获取到的视频播放配置信息加载到视频播放时间轴上进行展示,其中,所述视频播放配置信息包括观看者的情绪类别、以及所述情绪类别在视频播放时间轴上出现的时间段。
9.根据权利要求8所述的播放视频的方法,其特征在于,将获取到的视频播放配置信息加载到视频播放时间轴上进行展示的步骤包括:根据情绪类别在视频播放时间轴上出现的时间段,将时间段标识为与情绪类别对应的颜色。
10.根据权利要求8所述的方法,其特征在于,获取与该视频对应的视频播放配置信息的步骤包括:
接收对预定观众的选择;
获取与该视频和选择的观众对应的视频播放配置信息。
11.一种拍摄视频的方法,其特征在于,包括如下步骤:
(a)在拍摄视频时实时采集被拍摄者的面部表情;
(b)分析所述脸部表情,得出被拍摄者的情绪类别;
(c)将所述情绪类别在视频拍摄时间轴上进行标记;
(d)生成视频播放配置信息,所述视频播放配置信息记录了被拍摄者的情绪类别以及所述情绪类别在视频拍摄时间轴上出现的时间段。
12.根据权利要求11所述的拍摄视频的方法,其特征在于,步骤d包括:针对不同的观看者生成对应的视频播放配置信息。
13.根据权利要求11所述的拍摄视频的方法,其特征在于,所述面部表情还包括脸部范围内的手部动作。
14.根据权利要求11所述的拍摄视频的方法,其特征在于,所述情绪类别包括开心、感动、平静、悲伤、愤怒、厌倦中的至少一项。
15.根据权利要求11所述的拍摄视频的方法,其特征在于,步骤b包括分析之前预定长度的时间段内情绪类别的变化,得出被拍摄者的情绪类别。
16.根据权利要求11所述的拍摄视频的方法,其特征在于,步骤d还包括,检测以下数据中的至少一项并将检测的数据记录在视频播放配置信息中:各种情绪类别出现的次数、各种情绪类别出现的时间长度占整个视频时间长度的比例、情绪线,所述情绪线为观看者情绪在视频拍摄时间轴上的变化曲线。
17.一种获取视频的信息的设备,其特征在于,包括:
采集单元,用于在播放视频时实时采集视频观看者的面部表情;
分析单元,用于分析所述脸部表情,得出观看者的情绪类别;
标记单元,用于将所述情绪类别在视频播放时间轴上进行标记;
生成单元,用于生成视频播放配置信息,所述视频播放配置信息记录了观看者的情绪类别以及所述情绪类别在视频播放时间轴上出现的时间段。
18.根据权利要求17所述获取视频的信息的设备,其特征在于,生成单元还用于针对不同的观看者生成对应的视频播放配置信息。
19.根据权利要求17所述的获取视频的信息的设备,其特征在于,所述面部表情还包括脸部范围内的手部动作。
20.根据权利要求17所述的获取视频的信息的设备,其特征在于,所述情绪类别包括开心、感动、平静、悲伤、愤怒、厌倦中的至少一项。
21.根据权利要求17所述的获取视频的信息的设备,其特征在于,分析单元还用于分析之前预定长度的时间段内情绪类别的变化,得出观看者的情绪类别。
22.根据权利要求17所述的获取视频的信息的设备,其特征在于,生成单元还用于,检测以下数据中的至少一项并将检测的数据记录在视频播放配置信息中:各种情绪类别出现的次数、各种情绪类别出现的时间长度占整个视频时间长度的比例、情绪线,所述情绪线为观看者情绪在视频播放时间轴上的变化曲线。
23.根据权利要求17所述的获取视频的信息的设备,其特征在于,所述视频为播放的视频或观看者通过录像设备实时录制的视频。
24.一种播放视频的设备,其特征在于,包括:
获取单元,用于在播放视频的同时,获取与该视频对应的视频播放配置信息;
展示单元,用于将获取到的视频播放配置信息加载到视频播放时间轴上进行展示,其中,所述视频播放配置信息包括观看者的情绪类别、以及所述情绪类别在视频播放时间轴上出现的时间段。
25.根据权利要求24所述的播放视频的设备,其特征在于,展示单元还用于,根据情绪类别在视频播放时间轴上出现的时间段,将时间段标识为与情绪类别对应的颜色。
26.根据权利要求24所述的设备,其特征在于,获取单元还用于接收对预定观众的选择,获取与该视频和选择的观众对应的视频播放配置信息。
27.一种拍摄视频的设备,其特征在于,包括:
采集单元,用于在拍摄视频时实时采集被拍摄者的面部表情;
分析单元,用于分析所述脸部表情,得出被拍摄者的情绪类别;
标记单元,用于将所述情绪类别在视频拍摄时间轴上进行标记;
生成单元,用于生成视频播放配置信息,所述视频播放配置信息记录了被拍摄者的情绪类别以及所述情绪类别在视频拍摄时间轴上出现的时间段。
28.根据权利要求27所述的拍摄视频的设备,其特征在于,生成单元还用于针对不同的被拍摄者生成对应的视频播放配置信息。
29.根据权利要求27所述的拍摄视频的设备,其特征在于,所述面部表情还包括脸部范围内的手部动作。
30.根据权利要求27所述的拍摄视频的设备,其特征在于,所述情绪类别包括开心、感动、平静、悲伤、愤怒、厌倦中的至少一项。
31.根据权利要求27所述的拍摄视频的设备,其特征在于,分析单元还用于分析之前预定长度的时间段内情绪类别的变化,得出被拍摄者的情绪类别。
32.根据权利要求27所述的拍摄视频的设备,其特征在于,生成单元还用于,检测以下数据中的至少一项并将检测的数据记录在视频播放配置信息中:各种情绪类别出现的次数、各种情绪类别出现的时间长度占整个视频时间长度的比例、情绪线,所述情绪线为被拍摄者情绪在视频拍摄时间轴上的变化曲线。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410011366.9A CN103826160A (zh) | 2014-01-09 | 2014-01-09 | 获取视频的信息的方法及设备及播放视频的方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410011366.9A CN103826160A (zh) | 2014-01-09 | 2014-01-09 | 获取视频的信息的方法及设备及播放视频的方法及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103826160A true CN103826160A (zh) | 2014-05-28 |
Family
ID=50760948
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410011366.9A Pending CN103826160A (zh) | 2014-01-09 | 2014-01-09 | 获取视频的信息的方法及设备及播放视频的方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103826160A (zh) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104049758A (zh) * | 2014-06-24 | 2014-09-17 | 联想(北京)有限公司 | 一种信息处理的方法及电子设备 |
CN104410920A (zh) * | 2014-12-31 | 2015-03-11 | 合一网络技术(北京)有限公司 | 基于视频分段播放量进行精彩片段标注的方法 |
CN105589898A (zh) * | 2014-11-17 | 2016-05-18 | 中兴通讯股份有限公司 | 数据存储方法及装置 |
CN105872765A (zh) * | 2015-12-29 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 制作视频集锦的方法、装置、电子设备、服务器及系统 |
CN106155703A (zh) * | 2016-08-03 | 2016-11-23 | 北京小米移动软件有限公司 | 情绪状态的显示方法及装置 |
CN106454060A (zh) * | 2015-08-10 | 2017-02-22 | 宏达国际电子股份有限公司 | 影音管理方法及其系统 |
CN106792170A (zh) * | 2016-12-14 | 2017-05-31 | 合网络技术(北京)有限公司 | 视频处理方法及装置 |
CN106951546A (zh) * | 2017-03-27 | 2017-07-14 | 宇龙计算机通信科技(深圳)有限公司 | 重点信息分享方法及系统 |
CN107071579A (zh) * | 2017-03-02 | 2017-08-18 | 合网络技术(北京)有限公司 | 多媒体资源处理方法及装置 |
CN107615236A (zh) * | 2015-06-01 | 2018-01-19 | 华为技术有限公司 | 多媒体处理方法及装置 |
CN107786894A (zh) * | 2017-09-29 | 2018-03-09 | 维沃移动通信有限公司 | 一种用户反馈数据的识别方法、移动终端和存储介质 |
CN107948732A (zh) * | 2017-12-04 | 2018-04-20 | 京东方科技集团股份有限公司 | 视频的播放方法、视频播放装置及系统 |
CN108090424A (zh) * | 2017-12-05 | 2018-05-29 | 广东小天才科技有限公司 | 一种在线教学调研方法及设备 |
CN108293150A (zh) * | 2015-12-22 | 2018-07-17 | 英特尔公司 | 情绪定时媒体回放 |
CN108600669A (zh) * | 2018-03-30 | 2018-09-28 | 努比亚技术有限公司 | 游戏视频录制方法、移动终端及计算机可读存储介质 |
CN108646914A (zh) * | 2018-04-27 | 2018-10-12 | 安徽斛兵信息科技有限公司 | 一种多模态的情感数据收集方法及装置 |
CN109040842A (zh) * | 2018-08-16 | 2018-12-18 | 上海哔哩哔哩科技有限公司 | 视频观众情绪信息采集分析方法、装置、系统和存储介质 |
CN109154860A (zh) * | 2016-05-18 | 2019-01-04 | 微软技术许可有限责任公司 | 情感/认知状态触发记录 |
CN109151576A (zh) * | 2018-06-20 | 2019-01-04 | 新华网股份有限公司 | 多媒体信息剪辑方法和系统 |
CN110719505A (zh) * | 2019-09-26 | 2020-01-21 | 三星电子(中国)研发中心 | 一种基于情绪的共享媒体内容提供方法及系统 |
CN111052751A (zh) * | 2017-09-19 | 2020-04-21 | 索尼公司 | 用于媒体内容的观众响应捕获和分析的校准系统 |
CN111414506A (zh) * | 2020-03-13 | 2020-07-14 | 腾讯科技(深圳)有限公司 | 基于人工智能情绪处理方法、装置、电子设备及存储介质 |
CN111598671A (zh) * | 2020-07-20 | 2020-08-28 | 北京每日优鲜电子商务有限公司 | 一种基于人机交互的商品推荐方法 |
CN111615003A (zh) * | 2020-05-29 | 2020-09-01 | 腾讯科技(深圳)有限公司 | 一种视频播放控制方法、装置、设备及存储介质 |
CN113113116A (zh) * | 2021-04-13 | 2021-07-13 | 广州市人心网络科技有限公司 | 一种基于微表情识别的视频心理咨询情绪分析辅助方法、存储介质及系统 |
CN113709565A (zh) * | 2021-08-02 | 2021-11-26 | 维沃移动通信(杭州)有限公司 | 记录观看视频的人脸表情的方法和装置 |
CN113727171A (zh) * | 2021-08-27 | 2021-11-30 | 维沃移动通信(杭州)有限公司 | 视频处理方法、装置和电子设备 |
CN113965804A (zh) * | 2021-09-28 | 2022-01-21 | 展讯半导体(南京)有限公司 | 视频处理方法及相关产品 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030118974A1 (en) * | 2001-12-21 | 2003-06-26 | Pere Obrador | Video indexing based on viewers' behavior and emotion feedback |
CN102566740A (zh) * | 2010-12-16 | 2012-07-11 | 富泰华工业(深圳)有限公司 | 具有情绪识别功能的电子装置及其输出控制方法 |
CN102693739A (zh) * | 2011-03-24 | 2012-09-26 | 腾讯科技(深圳)有限公司 | 视频片段生成方法及系统 |
CN103019369A (zh) * | 2011-09-23 | 2013-04-03 | 富泰华工业(深圳)有限公司 | 基于脸部表情播放文档的电子装置及方法 |
US20140007149A1 (en) * | 2012-07-02 | 2014-01-02 | Wistron Corp. | System, apparatus and method for multimedia evaluation |
-
2014
- 2014-01-09 CN CN201410011366.9A patent/CN103826160A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030118974A1 (en) * | 2001-12-21 | 2003-06-26 | Pere Obrador | Video indexing based on viewers' behavior and emotion feedback |
CN102566740A (zh) * | 2010-12-16 | 2012-07-11 | 富泰华工业(深圳)有限公司 | 具有情绪识别功能的电子装置及其输出控制方法 |
CN102693739A (zh) * | 2011-03-24 | 2012-09-26 | 腾讯科技(深圳)有限公司 | 视频片段生成方法及系统 |
CN103019369A (zh) * | 2011-09-23 | 2013-04-03 | 富泰华工业(深圳)有限公司 | 基于脸部表情播放文档的电子装置及方法 |
US20140007149A1 (en) * | 2012-07-02 | 2014-01-02 | Wistron Corp. | System, apparatus and method for multimedia evaluation |
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104049758B (zh) * | 2014-06-24 | 2017-12-29 | 联想(北京)有限公司 | 一种信息处理的方法及电子设备 |
CN104049758A (zh) * | 2014-06-24 | 2014-09-17 | 联想(北京)有限公司 | 一种信息处理的方法及电子设备 |
CN105589898A (zh) * | 2014-11-17 | 2016-05-18 | 中兴通讯股份有限公司 | 数据存储方法及装置 |
CN104410920A (zh) * | 2014-12-31 | 2015-03-11 | 合一网络技术(北京)有限公司 | 基于视频分段播放量进行精彩片段标注的方法 |
CN104410920B (zh) * | 2014-12-31 | 2015-12-30 | 合一网络技术(北京)有限公司 | 基于视频分段播放量进行精彩片段标注的方法 |
CN107615236A (zh) * | 2015-06-01 | 2018-01-19 | 华为技术有限公司 | 多媒体处理方法及装置 |
CN106454060A (zh) * | 2015-08-10 | 2017-02-22 | 宏达国际电子股份有限公司 | 影音管理方法及其系统 |
CN108293150A (zh) * | 2015-12-22 | 2018-07-17 | 英特尔公司 | 情绪定时媒体回放 |
CN105872765A (zh) * | 2015-12-29 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 制作视频集锦的方法、装置、电子设备、服务器及系统 |
CN109154860B (zh) * | 2016-05-18 | 2022-03-15 | 微软技术许可有限责任公司 | 情感/认知状态触发记录 |
CN109154860A (zh) * | 2016-05-18 | 2019-01-04 | 微软技术许可有限责任公司 | 情感/认知状态触发记录 |
CN106155703A (zh) * | 2016-08-03 | 2016-11-23 | 北京小米移动软件有限公司 | 情绪状态的显示方法及装置 |
CN106792170A (zh) * | 2016-12-14 | 2017-05-31 | 合网络技术(北京)有限公司 | 视频处理方法及装置 |
CN107071579A (zh) * | 2017-03-02 | 2017-08-18 | 合网络技术(北京)有限公司 | 多媒体资源处理方法及装置 |
CN106951546A (zh) * | 2017-03-27 | 2017-07-14 | 宇龙计算机通信科技(深圳)有限公司 | 重点信息分享方法及系统 |
US11218771B2 (en) | 2017-09-19 | 2022-01-04 | Sony Corporation | Calibration system for audience response capture and analysis of media content |
CN111052751A (zh) * | 2017-09-19 | 2020-04-21 | 索尼公司 | 用于媒体内容的观众响应捕获和分析的校准系统 |
CN111052751B (zh) * | 2017-09-19 | 2022-02-01 | 索尼公司 | 用于媒体内容的观众响应捕获和分析的校准系统 |
CN107786894A (zh) * | 2017-09-29 | 2018-03-09 | 维沃移动通信有限公司 | 一种用户反馈数据的识别方法、移动终端和存储介质 |
CN107786894B (zh) * | 2017-09-29 | 2021-03-02 | 维沃移动通信有限公司 | 一种用户反馈数据的识别方法、移动终端和存储介质 |
CN107948732A (zh) * | 2017-12-04 | 2018-04-20 | 京东方科技集团股份有限公司 | 视频的播放方法、视频播放装置及系统 |
US10560749B2 (en) | 2017-12-04 | 2020-02-11 | Boe Technology Group Co., Ltd. | Video playing method, video playing device, video playing system, apparatus and computer-readable storage medium |
CN108090424A (zh) * | 2017-12-05 | 2018-05-29 | 广东小天才科技有限公司 | 一种在线教学调研方法及设备 |
CN108600669A (zh) * | 2018-03-30 | 2018-09-28 | 努比亚技术有限公司 | 游戏视频录制方法、移动终端及计算机可读存储介质 |
CN108646914A (zh) * | 2018-04-27 | 2018-10-12 | 安徽斛兵信息科技有限公司 | 一种多模态的情感数据收集方法及装置 |
CN109151576A (zh) * | 2018-06-20 | 2019-01-04 | 新华网股份有限公司 | 多媒体信息剪辑方法和系统 |
CN109040842A (zh) * | 2018-08-16 | 2018-12-18 | 上海哔哩哔哩科技有限公司 | 视频观众情绪信息采集分析方法、装置、系统和存储介质 |
CN110719505A (zh) * | 2019-09-26 | 2020-01-21 | 三星电子(中国)研发中心 | 一种基于情绪的共享媒体内容提供方法及系统 |
CN110719505B (zh) * | 2019-09-26 | 2022-02-25 | 三星电子(中国)研发中心 | 一种基于情绪的共享媒体内容提供方法及系统 |
CN111414506A (zh) * | 2020-03-13 | 2020-07-14 | 腾讯科技(深圳)有限公司 | 基于人工智能情绪处理方法、装置、电子设备及存储介质 |
CN111414506B (zh) * | 2020-03-13 | 2023-09-19 | 腾讯科技(深圳)有限公司 | 基于人工智能情绪处理方法、装置、电子设备及存储介质 |
CN111615003A (zh) * | 2020-05-29 | 2020-09-01 | 腾讯科技(深圳)有限公司 | 一种视频播放控制方法、装置、设备及存储介质 |
CN111615003B (zh) * | 2020-05-29 | 2023-11-03 | 腾讯科技(深圳)有限公司 | 一种视频播放控制方法、装置、设备及存储介质 |
CN111598671A (zh) * | 2020-07-20 | 2020-08-28 | 北京每日优鲜电子商务有限公司 | 一种基于人机交互的商品推荐方法 |
CN113113116A (zh) * | 2021-04-13 | 2021-07-13 | 广州市人心网络科技有限公司 | 一种基于微表情识别的视频心理咨询情绪分析辅助方法、存储介质及系统 |
CN113709565A (zh) * | 2021-08-02 | 2021-11-26 | 维沃移动通信(杭州)有限公司 | 记录观看视频的人脸表情的方法和装置 |
WO2023011300A1 (zh) * | 2021-08-02 | 2023-02-09 | 维沃移动通信(杭州)有限公司 | 记录观看视频的人脸表情的方法和装置 |
CN113709565B (zh) * | 2021-08-02 | 2023-08-22 | 维沃移动通信(杭州)有限公司 | 记录观看视频的人脸表情的方法和装置 |
CN113727171A (zh) * | 2021-08-27 | 2021-11-30 | 维沃移动通信(杭州)有限公司 | 视频处理方法、装置和电子设备 |
CN113965804A (zh) * | 2021-09-28 | 2022-01-21 | 展讯半导体(南京)有限公司 | 视频处理方法及相关产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103826160A (zh) | 获取视频的信息的方法及设备及播放视频的方法及设备 | |
CN109922373B (zh) | 视频处理方法、装置及存储介质 | |
US7889073B2 (en) | Laugh detector and system and method for tracking an emotional response to a media presentation | |
Biel et al. | Facetube: predicting personality from facial expressions of emotion in online conversational video | |
CN108352174B (zh) | 用于图像处理的电子设备、存储设备和方法 | |
Sharma et al. | Automatic group level affect and cohesion prediction in videos | |
US20140178043A1 (en) | Visual summarization of video for quick understanding | |
US20170251262A1 (en) | System and Method for Segment Relevance Detection for Digital Content Using Multimodal Correlations | |
CN104395857A (zh) | 显示器的部分的基于眼球追踪的选择性强调 | |
Nguyen et al. | Multimodal analysis of body communication cues in employment interviews | |
JP2021525424A (ja) | ユーザの注意力を決定するコンピュータ実装システム及び方法 | |
JP2013061906A (ja) | 顔分析装置、顔分析方法、及びプログラム | |
US10638197B2 (en) | System and method for segment relevance detection for digital content using multimodal correlations | |
Mou et al. | Alone versus in-a-group: A multi-modal framework for automatic affect recognition | |
Navarathna et al. | Estimating audience engagement to predict movie ratings | |
McDuff et al. | Large-scale affective content analysis: Combining media content features and facial reactions | |
CN109040842A (zh) | 视频观众情绪信息采集分析方法、装置、系统和存储介质 | |
US11157549B2 (en) | Emotional experience metadata on recorded images | |
Kostoulas et al. | Dynamic time warping of multimodal signals for detecting highlights in movies | |
Penzkofer et al. | Conan: A usable tool for multimodal conversation analysis | |
Zhang et al. | Correlating speaker gestures in political debates with audience engagement measured via EEG | |
US11216653B2 (en) | Automated collection and correlation of reviewer response to time-based media | |
KR101434624B1 (ko) | 긴장-이완 감성상태 측정 기반의 영상 저작물 스토리 분석 시스템 및 분석 방법 | |
Arendsen et al. | When and how well do people see the onset of gestures? | |
CN115484474A (zh) | 视频剪辑处理方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20140528 |
|
RJ01 | Rejection of invention patent application after publication |