CN107257509B - 一种视频内容的过滤方法及装置 - Google Patents

一种视频内容的过滤方法及装置 Download PDF

Info

Publication number
CN107257509B
CN107257509B CN201710570053.0A CN201710570053A CN107257509B CN 107257509 B CN107257509 B CN 107257509B CN 201710570053 A CN201710570053 A CN 201710570053A CN 107257509 B CN107257509 B CN 107257509B
Authority
CN
China
Prior art keywords
video
emotion
video element
emotion change
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710570053.0A
Other languages
English (en)
Other versions
CN107257509A (zh
Inventor
王恒生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Communication Brain Technology (Zhejiang) Co.,Ltd.
Original Assignee
Zhejiang Baorong Media Technology Zhejiang Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Baorong Media Technology Zhejiang Co Ltd filed Critical Zhejiang Baorong Media Technology Zhejiang Co Ltd
Priority to CN201710570053.0A priority Critical patent/CN107257509B/zh
Publication of CN107257509A publication Critical patent/CN107257509A/zh
Application granted granted Critical
Publication of CN107257509B publication Critical patent/CN107257509B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4542Blocking scenes or portions of the received content, e.g. censoring scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/735Filtering based on additional data, e.g. user or group profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4545Input to filtering algorithms, e.g. filtering a region of the image

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种视频内容的过滤方法及装置,涉及视频处理技术领域。通过对即将播放的目标视频的所有视频帧,根据不同的视频元素进行聚类分析得到视频元素类;在播放该目标视频时,实时获取用户的情绪变化数据;当所述情绪变化数据对应的用户情绪为异常情绪时,截取该时刻对应的样本视频;将该样本视频中出现次数与相对应的视频元素类中该视频元素出现次数的比值最大的视频元素作为怀疑对象;当所述怀疑对象出现次数达到预设阈值时,将所述怀疑对象对应的所述视频元素类过滤;从而解决了用户尤其是儿童为避免看到一些害怕的镜头却不能自主筛选视频内容的问题。

Description

一种视频内容的过滤方法及装置
技术领域
本发明涉及视频处理技术领域,特别涉及一种视频内容的过滤方法及装置。
背景技术
随着社会的不断进步,人们的娱乐活动越来越多。例如,手机游戏,计算机游戏,广场舞,麻将等等,但人们观赏影视节目的热衷却从未退却。同时,随着网络视频行业的发展,越来越多不同种类的视频内容兴起,其中不乏数量巨大的暴力、恐怖以及色情类视频,此类不健康视频对于儿童的成长和发展会产生较大的危害的,需要对这些视频进行有效地识别和管控。
成人自主意识强大,可以根据个人的喜好选择自己喜欢的节目视频来观看,但很多老人和小朋友在观看视频的时候,看到一些害怕的镜头总是容易被惊吓到,尤其是小朋友因无法很好的表达和操作视频,不能自主地去筛选视频内容。此发明的目的就是帮助这部分用户在观看视频时自动的过滤一些不想看的内容。
发明内容
本发明的目的是针对上述问题,提出一种视频内容的过滤方法及装置,以解决用户尤其是儿童不想看到一些害怕的镜头但却不能自主筛选视频内容的问题。
为达到上述目的,一方面,本发明提供了一种视频内容的过滤方法,包括:
对即将播放的目标视频的所有视频帧,根据不同的视频元素进行聚类分析得到多个视频元素类,并保存到视频帧数据库;
播放该目标视频时,实时获取用户的情绪变化数据;所述情绪变化数据与用户情绪变化的对应关系存储在情绪数据库中;
根据所述情绪数据库,当所述情绪变化数据对应的用户情绪为异常情绪时,截取该时刻对应的样本视频;
将该样本视频中出现次数与相对应的视频元素类中该视频元素出现次数的比值最大的视频元素作为怀疑对象保存在怀疑对象列表中;
当所述怀疑对象出现次数达到第二预设阈值时,将所述怀疑对象对应的所述视频元素类过滤。
可选的,每一个视频元素类为包含某一视频元素的视频帧的集合。
可选的,所述情绪变化数据包括面部特征数据和声音特征数据,所述情绪变化包括三个等级;
所述情绪变化与所述情绪变化数据的对应关系包括:
当所述情绪变化数据仅为面部特征数据时,其对应第一情绪变化等级;
当所述情绪变化数据仅为声音特征数据时,其对应第二情绪变化等级;
当所述情绪变化数据同时为面部特征数据和声音特征数据时,其对应第三情绪变化等级。
可选的,所述样本视频是时长为第一预设阈值,且包括该用户出现异常情绪的时刻的时间段内的视频段。
可选的,所述将该样本视频中出现次数与相对应的视频元素类中该视频元素出现次数的比值最大的视频元素作为怀疑对象保存在怀疑对象列表中,包括:
统计所述样本视频中各视频元素出现的样本次数;
统计所述各视频元素在其对应的视频元素类中出现的类次数;
分别计算各视频元素对应的样本次数与类次数的比值,将比值最大的视频元素判定为怀疑对象,并保存在怀疑列表中。
另一方面,本发明提供一种视频内容的过滤装置,包括:
聚类分析单元,用于对即将播放的目标视频的所有视频帧,根据不同的视频元素进行聚类分析得到视频元素类,保存到视频帧数据库;
情绪获取单元,用于播放该目标视频时,实时获取用户的情绪变化数据;所述情绪变化数据与用户情绪变化的对应关系存储在情绪数据库中;
视频截取单元,用于根据所述情绪数据库,当所述情绪变化数据对应的用户情绪为异常情绪时,截取该时刻对应的样本视频;
怀疑对象筛选单元,用于将该样本视频中出现次数与相对应的视频元素类中该视频元素出现次数的比值最大的视频元素作为怀疑对象保存在怀疑对象列表中;
视频过滤单元,用于当所述怀疑对象出现次数达到第二预设阈值时,将所述怀疑对象对应的所述视频元素类过滤。
可选的,每一个视频元素类为包含某一视频元素的视频帧的集合。
可选的,所述情绪变化数据包括面部特征数据和声音特征数据,所述情绪变化包括三个等级;
所述情绪变化与所述情绪变化数据的对应关系包括:
当所述情绪变化数据仅为面部特征数据时,其对应第一情绪变化等级;
当所述情绪变化数据仅为声音特征数据时,其对应第二情绪变化等级;
当所述情绪变化数据同时为面部特征数据和声音特征数据时,其对应第三情绪变化等级。
可选的,所述样本视频是时长为第一预设阈值,且包括该用户出现异常情绪的时刻的时间段内的视频段。
可选的,所述怀疑对象筛选单元包括:
样本次数统计子单元,用于统计所述样本视频中各视频元素出现的样本次数;
类次数统计子单元,用于统计所述各视频元素在其对应的视频元素类中出现的类次数;
怀疑对象筛选子单元,用于分别计算各视频元素对应的样本次数与类次数的比值,将比值最大的视频元素判定为怀疑对象,并保存在怀疑列表中。
本发明的有益效果:
本发明提供的视频内容的过滤方法及装置,通过对即将播放的目标视频的所有视频帧,根据不同的视频元素进行聚类分析得到视频元素类,播放该目标视频时,实时获取用户的情绪变化数据,当所述情绪变化数据对应的用户情绪为异常情绪时,截取该时刻对应的样本视频,将该样本视频中出现次数与相对应的视频元素类中该视频元素出现次数的比值最大的视频元素作为怀疑对象,当所述怀疑对象出现次数达到第二预设阈值时,将所述怀疑对象对应的所述视频元素类过滤,将可引起用户异常情绪变化的视频过滤掉,实现了自动筛选异常视频内容的效果,解决了现有技术中无法自动滤除不适合儿童观看的视频片段的问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一种视频内容的过滤方法的流程示意图;
图2为本发明怀疑对象筛选的步骤流程图;
图3为本发明一种视频内容的过滤装置的结构示意图;
图4为本发明怀疑对象筛选单元的结构示意图。
具体实施方式
虽然流程图将各项操作描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。各项操作的顺序可以被重新安排。当其操作完成时处理可以被终止,但是还可以具有未包括在附图中的附加步骤。为使图面简洁,各图中只示意性地表示出了与本发明相关的部分,它们并不代表其作为产品的实际结构。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对照附图说明本发明的具体实施方式。这里所使用的术语仅仅是为了描述具体实施例而不是意图限制示例性实施例,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,并获得其他的实施方式。
实施例一
图1为本发明一种视频内容的过滤方法的流程示意图。如图1所示,本发明提供一种视频内容的过滤方法。
在步骤S10中,所述视频过滤装置对即将播放的目标视频的所有视频帧,根据不同的视频元素进行聚类分析得到多个视频元素类,并保存到视频帧数据库。
具体地,每个视频帧包含多个特定的视频元素,如尖叫、恐怖场景、特定人物或动物等。本实施例优选的,步骤S10中,聚类分析是指分别根据不同的视频元素对视频帧进行聚类,得到的每个类中包括多个视频帧。例如,尖叫类包括100个视频帧,恐怖场景包括120个视频帧,特定人物A包括60个视频帧,特定动物(如狼、狮子或老虎)B包括60个视频帧。其中,一个视频帧中可能包括多个视频元素,即同一视频帧同时在多个视频元素类中。
在步骤S20中,播放该目标视频时,所述视频过滤装置实时获取用户的情绪变化数据;所述情绪变化数据与用户情绪变化的对应关系存储在情绪数据库中。
具体地,人的情绪包含喜怒哀乐,根据所处环境的变化会表现出如开心、悲伤、愤怒、惊奇、恐惧等。本实施例优选的,步骤S20中,在目标视频播放的过程中,用户的情绪会根据剧情的发展而时刻变化,实时获取用户的情绪变化数据是指在视频播放的过程中,通过视频播放终端将用户的任何情绪变化都记录下来。
在步骤S30中,根据所述情绪数据库,当所述情绪变化数据对应的用户情绪为异常情绪时,所述视频过滤装置截取该时刻对应的样本视频。
具体地,所述视频过滤装置根据所述情绪数据库中存储的情绪变化数据与用户情绪变化的对应关系,当判断出用户某时刻的情绪波动过大,处于异常情况时,截取该时刻播放的视频片段作为样本视频,并保存在所述视频过滤装置中。
在步骤S40中,所述视频过滤装置将该样本视频中出现次数与相对应的视频元素类中该视频元素出现次数的比值最大的视频元素作为怀疑对象保存在怀疑对象列表中。
具体地,所述视频过滤装置对步骤S30截取的样本视频中的各视频元素在该样本视频及对应的视频元素类中出现的次数进行统计,计算出样本次数与类次数的比值,取比值最大的视频元素作为怀疑对象。例如,步骤S30截取的样本视频中包含5个视频元素,分别是S1、S2、S3、S4、S5,其各自在该样本视频中出现的次数为Y1、Y2、Y3、Y4、Y5,其各自在对应的视频元素类中出现的次数为N1、N2、N3、N4、N5,计算得出样本次数与类次数的比值为P1、P2、P3、P4、P5,若P4值最大,则将P4对应的视频元素S4作为怀疑对象保存在怀疑对象列表中。
在步骤S50中,当所述怀疑对象出现次数达到第二预设阈值时,所述视频过滤装置将所述怀疑对象对应的所述视频元素类过滤。
具体地,通过设置第二预设阈值,可以进一步地对所述怀疑对象进行再次判断,从而降低了所述怀疑对象过滤失误率。所述怀疑对象为引起用户出现恐惧情绪的视频元素,所以所述第二预设阈值不适合设置过大,例如可以设置为2,或3次。所述第二预设阈值设置过大,用户在观看目标视频时就会多次受到惊吓,达不到避免用户受到惊吓的效果了。
本发明实施例,通过对即将播放的目标视频的所有视频帧,根据不同的视频元素进行聚类分析得到视频元素类,在用户观看视频的过程中,实时获取用户的情绪变化数据,当所述情绪变化数据对应的用户情绪为异常情绪时,截取该时刻对应的样本视频,筛选出样本视频中引起用户产生恐惧情绪的对应视频帧,并将引起用户产生恐惧情绪的对应视频帧进行有效过滤,可以达到根据用户实时情绪自动过滤异常视频内容的效果。
实施例二
可选的,本实施例与实施例一的不同之处在于,所述情绪变化数据包括面部特征数据和声音特征数据,所述情绪变化包括三个等级;
所述情绪变化与所述情绪变化数据的对应关系包括:
当所述情绪变化数据仅为面部特征数据时,其对应第一情绪变化等级;
当所述情绪变化数据仅为声音特征数据时,其对应第二情绪变化等级;
当所述情绪变化数据同时为面部特征数据和声音特征数据时,其对应第三情绪变化等级。
具体地,所述情绪变化数据包括但不仅限于面部特征数据和声音特征数据,还包括人的肢体动作数据,例如用户很兴奋时会站起身,或挥舞手臂,用户开心或恐惧时会用手捂住嘴巴等。需要说明的是,本领域技术人员应该理解,情绪变化数据包含特征数据越多,情绪变化与所述情绪变化数据的对应关系越复杂。不同人在面对同样的场景时,受个体因素及内心承受能力的影响,表现出的情绪变化会有不同,本实施例中通过情绪变化与面部特征数据和声音特征数据的对应关系区分用户情绪变化的程度,是大多数人通常情况下的正常反应。通过用户的情绪变化等级,可以判断所述怀疑对象对用户情绪变化的影响,从而适当的设置第二预设阈值。
实施例三
可选的,本实施例与实施例一的不同之处在于,所述样本视频是时长为第一预设阈值,且包括该用户出现异常情绪的时刻的时间段内的视频段。
具体地,所述的异常情绪指用户出现恐惧、害怕等情绪,但因人的反应时间会有一定时间的延迟,所以截取的样本视频是时长为第一预设阈值,且包括该用户出现异常情绪的时刻的时间段内的视频段,所述时间段为包含用户产生恐惧情绪当前时刻的连续时间。例如以用户出现异常情绪的时刻作为参照点,截取该参考点前2秒至该参考点后2秒之间的4秒时间内的一段视频作为样本视频,或截取该参考点前3秒至该参考点后1秒之间的4秒时间内的一段视频作为样本视频,又或者截取该参考点前2秒至该参考点后3秒之间的5秒时间内的一段视频作为样本视频。采用这种方式可以将引起用户产生异常情绪的视频元素全部获取,不致产生遗漏。
实施例四
图2为本发明怀疑对象筛选的步骤流程图。如图2所示,可选的,本实施例与实施例一的不同之处在于,实施例一的步骤S40包括:
步骤S41:统计所述样本视频中各视频元素出现的样本次数;
步骤S42:统计所述各视频元素在其对应的视频元素类中出现的类次数;
步骤S43:分别计算各视频元素对应的样本次数与类次数的比值,将比值最大的视频元素判定为怀疑对象,并保存在怀疑列表中。
具体地,根据样本次数与类次数的比值来判定怀疑对象,能更准确地滤除目标视频中引起用户出现恐惧情绪的视频元素。例如有两个视频元素A和B,视频元素A在样本视频中出现次数为10,视频元素B在样本视频出现次数为2,而视频元素A在对应的视频元素类中出现次数为25,视频元素B在对应的视频元素类中出现次数为2,很显然,视频元素B引起用户出现恐惧情绪的可能性比视频元素B大。
实施例五
图3为本发明一种视频内容的过滤装置的示意图。如图3所示,所述过滤装置包括聚类分析单元10、情绪获取单元20、视频截取单元30、怀疑对象筛选单元40、视频过滤单元50。
所述聚类分析单元10,用于对即将播放的目标视频的所有视频帧,根据不同的视频元素进行聚类分析得到视频元素类,保存到视频帧数据库。
具体地,每个视频帧包含多个特定的视频元素,如尖叫、恐怖场景、特定人物或动物等。本实施例优选的,所述聚类分析单元10对即将播放的目标视频的所有视频帧,根据不同的视频元素进行聚类分析,聚类分析是指分别根据不同的视频元素对视频帧进行聚类,得到的每个类中包括多个视频帧。例如,尖叫类包括100个视频帧,恐怖场景包括120个视频帧,特定人物A包括60个视频帧,特定动物(如狼、狮子或老虎)B包括60个视频帧。其中,一个视频帧中可能包括多个视频元素,即同一视频帧同时在多个视频元素类中。
所述情绪获取单元20,用于播放该目标视频时,实时获取用户的情绪变化数据;所述情绪变化数据与用户情绪变化的对应关系存储在情绪数据库中。
具体地,在目标视频播放的过程中,用户的情绪会根据剧情的发展而时刻变化,例如会表现出如开心、悲伤、愤怒、惊奇、恐惧等情绪。通过所述情绪获取单元20将用户观看视频时每个时刻的情绪变化都记录下来。
所述视频截取单元30,用于根据所述情绪数据库,当所述情绪变化数据对应的用户情绪为异常情绪时,截取该时刻对应的样本视频。
具体地,所述视频截取单元30根据所述情绪数据库中存储的情绪变化数据与用户情绪变化的对应关系,当判断出用户某个时刻出现过大的情绪波动,处于异常情况时,截取该时刻播放的视频片段作为样本视频,并保存在所述视频过滤装置中。
所述怀疑对象筛选单元40,用于将该样本视频中出现次数与相对应的视频元素类中该视频元素出现次数的比值最大的视频元素作为怀疑对象保存在怀疑对象列表中。
具体地,所述怀疑对象筛选单元40对所述视频截取单元30截取的样本视频中的各视频元素在该样本视频及对应的视频元素类中出现的次数进行统计,计算出样本次数与类次数的比值,取比值最大的视频元素作为怀疑对象。例如,步骤S30截取的样本视频中包含5个视频元素,分别是S1、S2、S3、S4、S5,其各自在该样本视频中出现的次数为Y1、Y2、Y3、Y4、Y5,其各自在对应的视频元素类中出现的次数为N1、N2、N3、N4、N5,计算得出样本次数与类次数的比值为P1、P2、P3、P4、P5,若P4值最大,则将P4对应的视频元素S4作为怀疑对象保存在怀疑对象列表中。
所述视频过滤单元50,用于当所述怀疑对象出现次数达到第二预设阈值时,将所述怀疑对象对应的所述视频元素类过滤。
具体地,通过设置第二预设阈值,可以进一步地对所述怀疑对象进行再次判断,从而降低了所述怀疑对象过滤失误率。所述怀疑对象为引起用户出现恐惧情绪的视频元素,所以所述第二预设阈值不适合设置过大,例如可以设置为2,或3次。所述预设阈值设置过大,用户在观看目标视频时就会多次受到惊吓,达不到避免用户受到惊吓的效果了。
本发明实施例,通过聚类分析单元10对即将播放的目标视频的所有视频帧,根据不同的视频元素进行聚类分析得到视频元素类,通过情绪获取单元20在用户观看视频的过程中,实时获取用户的情绪变化数据,通过视频截取单元30当所述情绪变化数据对应的用户情绪为异常情绪时,截取该时刻对应的样本视频,通过怀疑对象筛选单元40筛选出引起用户产生恐惧情绪的对应视频帧,并通过视频过滤单元50将引起用户产生恐惧情绪的对应视频帧进行有效过滤,可以达到根据用户实时情绪自动过滤异常视频内容的效果。
实施例六
可选的,本实施例与实施例五的不同之处在于,所述情绪变化数据包括面部特征数据和声音特征数据,所述情绪变化包括三个等级;
所述情绪变化与所述情绪变化数据的对应关系包括:
当所述情绪变化数据仅为面部特征数据时,其对应第一情绪变化等级;
当所述情绪变化数据仅为声音特征数据时,其对应第二情绪变化等级;
当所述情绪变化数据同时为面部特征数据和声音特征数据时,其对应第三情绪变化等级。
具体地,所述情绪变化数据包括但不仅限于面部特征数据和声音特征数据,还包括人的肢体动作数据,例如用户很兴奋时会站起身,或挥舞手臂,用户开心或恐惧时会用手捂住嘴巴等。需要说明的是,本领域技术人员应该理解,情绪变化数据包含特征数据越多,情绪变化与所述情绪变化数据的对应关系越复杂。不同人在面对同样的场景时,受个体因素及内心承受能力的影响,表现出的情绪变化会有不同,本实施例中通过情绪变化与面部特征数据和声音特征数据的对应关系区分用户情绪变化的程度,是大多数人通常情况下的正常反应。通过用户的情绪变化等级,可以判断所述怀疑对象对用户情绪变化的影响,从而适当的设置第二预设阈值。
实施例七
可选的,本实施例与实施例五的不同之处在于,所述样本视频是时长为第一预设阈值,且包括该用户出现异常情绪的时刻的时间段内的视频段。
具体地,所述的异常情绪指用户出现恐惧、害怕等情绪,但因人的反应时间会有一定时间的延迟,所以截取的样本视频是时长为第一预设阈值,且包括该用户出现异常情绪的时刻的时间段内的视频段,所述时间段为包含用户产生恐惧情绪当前时刻的连续时间。例如以用户出现异常情绪的时刻作为参照点,截取该参考点前2秒至该参考点后2秒之间的4秒时间内的一段视频作为样本视频,或截取该参考点前3秒至该参考点后1秒之间的4秒时间内的一段视频作为样本视频,又或者截取该参考点前2秒至该参考点后3秒之间的5秒时间内的一段视频作为样本视频。采用这种方式可以将引起用户产生异常情绪的视频元素全部获取,不致产生遗漏。
实施例八
图4为本发明怀疑对象筛选单元的示意图。如图4所示,可选的,本实施例与实施例五的不同之处在于,实施例五的怀疑对象筛选单元40包括:
样本次数统计子单元41,用于统计所述样本视频中各视频元素出现的样本次数;
类次数统计子单元42,用于统计所述各视频元素在其对应的视频元素类中出现的类次数;
怀疑对象筛选子单元43,用于分别计算各视频元素对应的样本次数与类次数的比值,将比值最大的视频元素判定为怀疑对象,并保存在怀疑列表中。
样本次数统计子单元41将统计的所述样本视频中各视频元素出现的样本次数传输给怀疑对象筛选子单元43,类次数统计子单元42将统计的所述各视频元素在其对应的视频元素类中出现的类次数也传输给怀疑对象筛选子单元43,怀疑对象筛选子单元43计算各视频元素对应的样本次数与类次数的比值,将比值最大的视频元素判定为怀疑对象。根据样本次数与类次数的比值来判定怀疑对象,能更准确地滤除目标视频中引起用户出现恐惧情绪的视频元素。
综上所述,本发明一种视频内容的过滤方法及装置通过对即将播放的目标视频的所有视频帧,根据不同的视频元素进行聚类分析得到视频元素类,实时获取用户的情绪变化数据,当所述情绪变化数据对应的用户情绪为异常情绪时,截取该时刻对应的样本视频,将该样本视频中出现次数与相对应的视频元素类中该视频元素出现次数的比值最大的视频元素作为怀疑对象,当所述怀疑对象出现次数达到预设阈值时,将所述怀疑对象对应的所述视频元素类过滤,从而解决了用户尤其是儿童为避免看到一些害怕的镜头却不能自主筛选视频内容的问题。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (10)

1.一种视频内容的过滤方法,其特征在于,包括:
对即将播放的目标视频的所有视频帧,根据不同的视频元素进行聚类分析得到多个视频元素类,并保存到视频帧数据库;
播放该目标视频时,实时获取用户的情绪变化数据;所述情绪变化数据与用户情绪变化的对应关系存储在情绪数据库中;
根据所述情绪数据库,当所述情绪变化数据对应的用户情绪为异常情绪时,截取该时刻对应的样本视频;
将该样本视频中视频元素的出现次数与相对应的视频元素类中该视频元素出现次数的比值最大的视频元素作为怀疑对象保存在怀疑对象列表中;
当所述怀疑对象出现次数达到第二预设阈值时,将所述怀疑对象对应的所述视频元素类过滤。
2.根据权利要求1所述的方法,其特征在于,每一个视频元素类为包含某一视频元素的视频帧的集合。
3.根据权利要求1所述的方法,其特征在于,所述情绪变化数据包括面部特征数据和声音特征数据,所述情绪变化包括三个等级;
所述情绪变化与所述情绪变化数据的对应关系包括:
当所述情绪变化数据仅为面部特征数据时,其对应第一情绪变化等级;
当所述情绪变化数据仅为声音特征数据时,其对应第二情绪变化等级;
当所述情绪变化数据同时为面部特征数据和声音特征数据时,其对应第三情绪变化等级。
4.根据权利要求1所述的方法,其特征在于,所述样本视频是时长为第一预设阈值,且包括该用户出现异常情绪的时刻的时间段内的视频段。
5.根据权利要求1所述的方法,其特征在于,所述将该样本视频中视频元素的出现次数与相对应的视频元素类中该视频元素出现次数的比值最大的视频元素作为怀疑对象保存在怀疑对象列表中,包括:
统计所述样本视频中各视频元素出现的样本次数;
统计所述各视频元素在其对应的视频元素类中出现的类次数;
分别计算各视频元素对应的样本次数与类次数的比值,将比值最大的视频元素判定为怀疑对象,并保存在怀疑列表中。
6.一种视频内容的过滤装置,其特征在于,包括:
聚类分析单元,用于对即将播放的目标视频的所有视频帧,根据不同的视频元素进行聚类分析得到视频元素类,保存到视频帧数据库;
情绪获取单元,用于播放该目标视频时,实时获取用户的情绪变化数据;所述情绪变化数据与用户情绪变化的对应关系存储在情绪数据库中;
视频截取单元,用于根据所述情绪数据库,当所述情绪变化数据对应的用户情绪为异常情绪时,截取该时刻对应的样本视频;
怀疑对象筛选单元,用于将该样本视频中视频元素的出现次数与相对应的视频元素类中该视频元素出现次数的比值最大的视频元素作为怀疑对象保存在怀疑对象列表中;
视频过滤单元,用于当所述怀疑对象出现次数达到第二预设阈值时,将所述怀疑对象对应的所述视频元素类过滤。
7.根据权利要求6所述的装置,其特征在于,每一个视频元素类为包含某一视频元素的视频帧的集合。
8.根据权利要求6所述的装置,其特征在于,所述情绪变化数据包括面部特征数据和声音特征数据,所述情绪变化包括三个等级;
所述情绪变化与所述情绪变化数据的对应关系包括:
当所述情绪变化数据仅为面部特征数据时,其对应第一情绪变化等级;
当所述情绪变化数据仅为声音特征数据时,其对应第二情绪变化等级;
当所述情绪变化数据同时为面部特征数据和声音特征数据时,其对应第三情绪变化等级。
9.根据权利要求6所述的装置,其特征在于,所述样本视频是时长为第一预设阈值,且包括该用户出现异常情绪的时刻的时间段内的视频段。
10.根据权利要求6所述的装置,其特征在于,所述怀疑对象筛选单元包括:
样本次数统计子单元,用于统计所述样本视频中各视频元素出现的样本次数;
类次数统计子单元,用于统计所述各视频元素在其对应的视频元素类中出现的类次数;
怀疑对象筛选子单元,用于分别计算各视频元素对应的样本次数与类次数的比值,将比值最大的视频元素判定为怀疑对象,并保存在怀疑列表中。
CN201710570053.0A 2017-07-13 2017-07-13 一种视频内容的过滤方法及装置 Active CN107257509B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710570053.0A CN107257509B (zh) 2017-07-13 2017-07-13 一种视频内容的过滤方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710570053.0A CN107257509B (zh) 2017-07-13 2017-07-13 一种视频内容的过滤方法及装置

Publications (2)

Publication Number Publication Date
CN107257509A CN107257509A (zh) 2017-10-17
CN107257509B true CN107257509B (zh) 2020-11-17

Family

ID=60026143

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710570053.0A Active CN107257509B (zh) 2017-07-13 2017-07-13 一种视频内容的过滤方法及装置

Country Status (1)

Country Link
CN (1) CN107257509B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107948732B (zh) 2017-12-04 2020-12-01 京东方科技集团股份有限公司 视频的播放方法、视频播放装置及系统
CN108391164B (zh) * 2018-02-24 2020-08-21 Oppo广东移动通信有限公司 视频解析方法及相关产品
CN109819325B (zh) * 2019-01-11 2021-08-20 平安科技(深圳)有限公司 热点视频标注处理方法、装置、计算机设备及存储介质
CN112015946B (zh) * 2019-05-30 2023-11-10 中国移动通信集团重庆有限公司 视频检测方法、装置、计算设备及计算机存储介质
CN113709165A (zh) * 2021-08-31 2021-11-26 贵州东冠科技有限公司 用于微表情的信息安全过滤系统及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1586078A (zh) * 2001-11-13 2005-02-23 皇家飞利浦电子股份有限公司 情感电视监视和控制
JP2007336098A (ja) * 2006-06-13 2007-12-27 Canon Inc 映像録画・再生システム用映像制御装置
CN103069415A (zh) * 2010-07-02 2013-04-24 埃森哲环球服务有限公司 用于图像处理的计算机实施的方法、计算机程序产品和计算机系统
CN105847975A (zh) * 2015-01-30 2016-08-10 索尼公司 对观众做出反应的内容
WO2017102988A1 (en) * 2015-12-17 2017-06-22 Thomson Licensing Method and apparatus for remote parental control of content viewing in augmented reality settings

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1582965A1 (en) * 2004-04-01 2005-10-05 Sony Deutschland Gmbh Emotion controlled system for processing multimedia data
US20130283162A1 (en) * 2012-04-23 2013-10-24 Sony Mobile Communications Ab System and method for dynamic content modification based on user reactions

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1586078A (zh) * 2001-11-13 2005-02-23 皇家飞利浦电子股份有限公司 情感电视监视和控制
JP2007336098A (ja) * 2006-06-13 2007-12-27 Canon Inc 映像録画・再生システム用映像制御装置
CN103069415A (zh) * 2010-07-02 2013-04-24 埃森哲环球服务有限公司 用于图像处理的计算机实施的方法、计算机程序产品和计算机系统
CN105847975A (zh) * 2015-01-30 2016-08-10 索尼公司 对观众做出反应的内容
WO2017102988A1 (en) * 2015-12-17 2017-06-22 Thomson Licensing Method and apparatus for remote parental control of content viewing in augmented reality settings

Also Published As

Publication number Publication date
CN107257509A (zh) 2017-10-17

Similar Documents

Publication Publication Date Title
CN107257509B (zh) 一种视频内容的过滤方法及装置
US11354702B2 (en) Generating interactive advertising with content collections
CN109040824B (zh) 视频处理方法、装置、电子设备和可读存储介质
CN105637887B (zh) 视频印象分析的方法
US10423512B2 (en) Method of collecting and processing computer user data during interaction with web-based content
US11783369B2 (en) Interactive advertising with media collections
CN109327737B (zh) 电视节目推荐方法、终端、系统及存储介质
CN109756787A (zh) 虚拟礼物的生成方法、装置及虚拟礼物的赠送系统
CN105830429B (zh) 用于处理被相机运动损坏的视频帧的方法和系统
CN107577706B (zh) 用户行为数据处理方法、装置及计算机可读存储介质
US20200396376A1 (en) Automatic camera angle switching to create combined audiovisual file
CN109635673B (zh) 吸烟行为识别方法和装置
CN105704570B (zh) 用于产生视频的一个或多个预览帧的方法和装置
CN111372116B (zh) 视频播放提示信息处理方法、装置、电子设备及存储介质
CN104244101A (zh) 对多媒体内容进行评论的方法和设备
CN107066543A (zh) 敏感词过滤方法和装置
CN105760807A (zh) 体育赛事精彩赛事提醒装置及方法
CN105472405B (zh) 提醒生成方法及装置
CN114344920A (zh) 基于虚拟场景的数据录制方法、装置、设备及存储介质
CN107864197A (zh) 一种向特定用户推送消息的方法及装置
CN109756759A (zh) 一种弹幕信息推荐方法和装置
CN110019942A (zh) 一种视频鉴别方法及系统
WO2017206668A1 (zh) 数据分析方法及装置、系统
CN112596822B (zh) 应用程序窗口展示控制方法、系统和可读存储介质
CN113556473B (zh) 花朵开花过程的拍摄方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20201029

Address after: Room 101, building 1, No. 1, Zhennan Road, Wuzhen Town, Tongxiang City, Jiaxing City, Zhejiang Province

Applicant after: Zhejiang Baorong media technology (Zhejiang) Co.,Ltd.

Address before: 201616 Shanghai city Songjiang District Sixian Road No. 3666

Applicant before: Phicomm (Shanghai) Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: Room 101, building 1, No.1 Zhennan Road, Wuzhen Town, Tongxiang City, Jiaxing City, Zhejiang Province

Patentee after: Zhejiang Baorong media technology (Zhejiang) Co.,Ltd.

Address before: Room 101, building 1, No.1 Zhennan Road, Wuzhen Town, Tongxiang City, Jiaxing City, Zhejiang Province

Patentee before: Zhejiang Baorong media technology (Zhejiang) Co.,Ltd.

CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: Room 101, building 1, No.1 Zhennan Road, Wuzhen Town, Tongxiang City, Jiaxing City, Zhejiang Province

Patentee after: Communication Brain Technology (Zhejiang) Co.,Ltd.

Address before: Room 101, building 1, No.1 Zhennan Road, Wuzhen Town, Tongxiang City, Jiaxing City, Zhejiang Province

Patentee before: Zhejiang Baorong media technology (Zhejiang) Co.,Ltd.

CP01 Change in the name or title of a patent holder