CN104951742A - 敏感视频的检测方法和系统 - Google Patents

敏感视频的检测方法和系统 Download PDF

Info

Publication number
CN104951742A
CN104951742A CN201510093342.7A CN201510093342A CN104951742A CN 104951742 A CN104951742 A CN 104951742A CN 201510093342 A CN201510093342 A CN 201510093342A CN 104951742 A CN104951742 A CN 104951742A
Authority
CN
China
Prior art keywords
key frame
colour
human body
skin
skin point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510093342.7A
Other languages
English (en)
Other versions
CN104951742B (zh
Inventor
兰细鹏
王涛
张彦刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing QIYI Century Science and Technology Co Ltd
Original Assignee
Beijing QIYI Century Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing QIYI Century Science and Technology Co Ltd filed Critical Beijing QIYI Century Science and Technology Co Ltd
Priority to CN201510093342.7A priority Critical patent/CN104951742B/zh
Publication of CN104951742A publication Critical patent/CN104951742A/zh
Application granted granted Critical
Publication of CN104951742B publication Critical patent/CN104951742B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供了一种敏感视频的检测方法和系统,以解决敏感视频的检测结果不准确的问题。敏感视频的检测方法包括:对待检测视频抽取关键帧;对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域;在连续多个关键帧中对人体目标区域进行跟踪,根据跟踪结果确定各关键帧的人体跟踪区域;在至少两个颜色空间对各关键帧的人体跟踪区域进行肤色检测以确定各关键帧的肤色点;根据各关键帧的肤色点计算待检测视频的肤色点特征信息,肤色点特征信息包括肤色点占比和肤色点占比变化幅度;判断待检测视频的肤色点特征信息是否大于预设的特征阈值,当肤色点特征信息大于特征阈值时,判定待检测视频为敏感视频。本发明提高了肤色检测的精度和准确性。

Description

敏感视频的检测方法和系统
技术领域
本发明涉及计算机视觉技术领域,特别是涉及一种敏感视频的检测方法和系统。
背景技术
随着互联网的迅速发展,用户可以在互联网上获取到大量的信息,但是用户在获得大量有用信息的同时也可能遇到许多不良信息,其中尤其以包含淫秽、色情内容的视频最为严重。因此,在视频审核时,需要对上述包含淫秽、色情内容的敏感视频进行检测和过滤。
目前敏感视频的检测方法基本上只考虑了当前帧图像肤色点占比等相关参数。但是上述检测方法不是很鲁棒,导致将当前帧图像的一些非肤色点识别为肤色点,从而造成误判,无法保证检测结果的准确性。
发明内容
本发明提供了一种敏感视频的检测方法和系统,以解决敏感视频的检测结果不准确的问题。
为了解决上述问题,本发明公开了一种敏感视频的检测方法,包括:对待检测视频抽取关键帧;对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域;在连续多个所述关键帧中对所述人体目标区域进行跟踪,根据跟踪结果确定各关键帧的人体跟踪区域;在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点;根据所述各关键帧的肤色点计算所述待检测视频的肤色点特征信息,所述肤色点特征信息包括各关键帧的肤色点占比和连续多个关键帧的肤色点占比变化幅度;判断所述待检测视频的肤色点特征信息是否大于预设的特征阈值,当所述待检测视频的肤色点特征信息大于所述特征阈值时,判定所述待检测视频为敏感视频。
可选地,所述对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域,包括:在抽取的关键帧中选取任意两个连续关键帧;对所述选取的任意两个连续关键帧进行差分运算,得到所述两个连续关键帧的差分图像;根据预设的二值化阈值对所述差分图像进行二值化处理,得到二值化图像;将所述二值化图像分别向水平方向和竖直方向进行积分投影,将小于目标阈值的二进制位置0后得到人体目标区域。
可选地,所述在连续多个所述关键帧中对所述人体目标区域进行跟踪,根据跟踪结果确定各关键帧的人体跟踪区域,包括:使用单尺度算法在连续多个所述关键帧中对所述人体目标区域进行跟踪;将在所述多个所述关键帧中跟踪到的所述人体目标区域确定为各关键帧的人体跟踪区域。
可选地,所述在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点,包括:在rg、HSV两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测,并根据所述肤色检测的结果确定所述各关键帧的肤色点。
可选地,所述在rg、HSV两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测,并根据所述肤色检测的结果确定所述各关键帧的肤色点,包括:将所述各关键帧的人体跟踪区域的RGB颜色空间转换成rg颜色空间及HSV颜色空间;对所述转换后的人体跟踪区域的每个像素点进行扫描,获取各像素点信息;当所述像素点信息在肤色阈值的范围内时,判定所述像素点为肤色点。
可选地,所述根据所述各关键帧的肤色点计算所述待检测视频的肤色点特征信息,包括:将所述各关键帧的肤色点个数与所述各关键帧的人体跟踪区域的像素点个数相除,商作为各关键帧的肤色点占比;依据所述各关键帧的肤色点占比计算所述连续多个关键帧的肤色点占比的递增幅度或递减幅度;将所述连续多个关键帧的肤色点占比的递增幅度或递减幅度作为连续多个关键帧的肤色点占比变化幅度,并将所述各关键帧的肤色点占比和所述连续多个关键帧的肤色点占比变化幅度作为所述待 检测视频的肤色点特征信息。
可选地,所述判断所述待检测视频的肤色点特征信息是否大于预设的特征阈值,当所述待检测视频的肤色点特征信息大于所述特征阈值时,判定所述待检测视频为敏感视频,包括:判断所述各关键帧的肤色点占比是否大于预设的占比阈值;判断所述连续多个关键帧的肤色点占比变化幅度是否大于预设的幅度阈值;当所述各关键帧的肤色点占比大于预设的占比阈值,且所述连续多个关键帧的肤色点占比变化幅度大于预设的幅度阈值时,判定所述待检测视频为敏感视频。
可选地,所述在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测之前,还包括:计算所述各关键帧的人体跟踪区域与所述人体目标区域的相似度;判断所述相似度是否小于预设的相似阈值;当所述相似度小于所述相似阈值时,返回所述对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域的步骤;当所述相似度大于等于所述相似阈值时,执行所述在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点的步骤。
本发明还公开了一种敏感视频的检测系统,包括:关键帧抽取模块,用于对待检测视频抽取关键帧;人体运动检测模块,用于对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域;人体跟踪模块,用于在连续多个所述关键帧中对所述人体目标区域进行跟踪,根据跟踪结果确定各关键帧的人体跟踪区域;肤色检测模块,用于在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点;特征提取模块,用于根据所述各关键帧的肤色点计算所述待检测视频的肤色点特征信息,所述肤色点特征信息包括各关键帧的肤色点占比和连续多个关键帧的肤色点占比变化幅度;敏感判定模块,用于判断所述待检测视频的肤色点特征信息是否大于预设的特征阈值,当所述待检测视频的肤色点特征信息大于所述特征阈值时,判定所述待检测视频为敏感视频。
可选地,所述人体运动检测模块,具体用于在抽取的关键帧中选取任意 两个连续关键帧;对所述选取的任意两个连续关键帧进行差分运算,得到所述两个连续关键帧的差分图像;根据预设的二值化阈值对所述差分图像进行二值化处理,得到二值化图像;将所述二值化图像分别向水平方向和竖直方向进行积分投影,将小于目标阈值的二进制位置0后得到人体目标区域。
可选地,所述人体跟踪模块,具体用于使用单尺度算法在连续多个所述关键帧中对所述人体目标区域进行跟踪;将在所述多个所述关键帧中跟踪到的所述人体目标区域确定为各关键帧的人体跟踪区域。
可选地,所述肤色检测模块,具体用于在rg、HSV两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测,并根据所述肤色检测的结果确定所述各关键帧的肤色点。
可选地,所述肤色检测模块包括:转换子模块,用于将所述各关键帧的人体跟踪区域的RGB颜色空间转换成rg颜色空间及HSV颜色空间;扫描子模块,用于对所述转换后的人体跟踪区域的每个像素点进行扫描,获取各像素点信息;肤色判定子模块,用于当所述像素点信息在肤色阈值的范围内时,判定所述像素点为肤色点。
可选地,所述特征提取模块包括:占比计算子模块,用于将所述各关键帧的肤色点个数与所述各关键帧的人体跟踪区域的像素点个数相除,商作为各关键帧的肤色点占比;幅度计算子模块,用于依据所述各关键帧的肤色点占比计算所述连续多个关键帧的肤色点占比的递增幅度或递减幅度;特征确定模块,用于将所述连续多个关键帧的肤色点占比的递增幅度或递减幅度作为连续多个关键帧的肤色点占比变化幅度,并将所述各关键帧的肤色点占比和所述连续多个关键帧的肤色点占比变化幅度作为所述待检测视频的肤色点特征信息。
可选地,所述敏感判定模块包括:占比判断子模块,用于判断所述各关键帧的肤色点占比是否大于预设的占比阈值;幅度判断子模块,用于判断所述连续多个关键帧的肤色点占比变化幅度是否大于预设的幅度阈值;敏感判定子模块,用于当所述各关键帧的肤色点占比大于预设的占比阈值,且所述连续多个关键帧的肤色点占比变化幅度大于预设的幅度阈值时,判 定所述待检测视频为敏感视频。
可选地,所述敏感视频的检测系统还包括:相似度计算模块,用于所述肤色检测模块在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测之前,计算所述各关键帧的人体跟踪区域与所述人体目标区域的相似度;相似判断模块,用于判断所述相似度是否小于预设的相似阈值;所述人体运动检测模块,还用于当所述相似判断模块判断所述相似度小于所述相似阈值时,对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域;所述肤色检测模块,还用于当所述相似判断模块判断所述相似度大于等于所述相似阈值时,在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点。
与现有技术相比,本发明包括以下优点:
根据本发明的敏感视频的检测方法可以在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测,并且计算待检测视频的肤色点特征信息时考虑了待检测视频的时序性,由此解决了肤色点误判所造成的敏感视频的检测结果不准确的问题,取得了提高肤色检测的精度和准确性,显著减少敏感视频的误报次数,进而提高敏感视频的检测结果的精度和准确性的有益效果。
附图说明
图1示出了根据本发明一个实施例的一种敏感视频的检测方法的流程图;
图2示出了根据本发明一个实施例的一种敏感视频的检测方法的流程图;
图3示出了根据本发明一个实施例的待检测视频A的第N帧关键帧的示意图;
图4示出了根据本发明一个实施例的待检测视频A的第N帧关键帧的肤色检测图;
图5示出了根据本发明一个实施例的待检测视频A的第N+1帧关键帧的示意图;
图6示出了根据本发明一个实施例的待检测视频A的第N+1帧关键帧的肤色检测图;
图7示出了根据本发明一个实施例的待检测视频B的第M帧关键帧的示意图;
图8示出了根据本发明一个实施例的待检测视频B的第M帧关键帧的肤色检测图;
图9示出了根据本发明一个实施例的待检测视频B的第M+1帧关键帧的示意图;
图10示出了根据本发明一个实施例的待检测视频B的第M+1帧关键帧的肤色检测图;
图11示出了根据本发明一个实施例的一种敏感视频的检测系统的结构框图;
图12示出了根据本发明一个实施例的一种敏感视频的检测系统的结构框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例一:
参照图1,示出了本发明实施例一种敏感视频的检测方法的流程图,本实施例具体可以包括以下步骤:
步骤101,对待检测视频抽取关键帧。
本实施例中对待检测视频抽取关键帧,可以采用基于颜色(或直方图)帧差方法,基于运动分析方法或基于视频帧聚类方法来实现。其中,通过视频帧聚类方法抽取视频的关键帧,即通过聚类分析将视频镜头的帧分成若干类,选取最靠近聚类中心的点表示聚类的点,最终形成视频序列的关键帧集 合。需要说明的是,本实施例对待检测视频抽取关键帧所采用的具体方法不做限制,可以将待检测视频的关键帧抽取出来即可。
步骤102,对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域。
本实施例中对任意两个连续关键帧进行侦查,可以先从步骤101抽取的关键帧中选取任意两个连续的关键帧,然后计算所述两个连续关键帧的差分图像,接着将差分图像通过选取适当的阈值进行二值化处理,得到二值化图像,最后在每一个像素点得到的二值图像进行逻辑与运算,获取共同部分,从而获得人体目标区域。
需要说明的是,本实施例仅以对任意两个连续关键帧进行帧差为例对获取人体目标区域进行说明,并非对获取人体目标区域所采用的方法的限制,具体实现时也可以采取其他方法来获取人体目标区域。例如,可以采用三帧差分算法来获取人体目标区域。三帧差分算法是相邻两帧差分算法的一种改进方法,它选取连续三帧视频图像进行差分运算,消除由于运动而显露背景影响,从而提取精确的运动目标轮廓信息。该算法的基本原理是先选取视频图像序列中连续三帧图像并分别计算相邻两帧的差分图像,然后将差分图像通过选取适当的阈值进行二值化处理,得到二值化图像,最后在每一个像素点得到的二值图像进行逻辑与运算,获取共同部分,从而获得运动目标的轮廓信息,即人体目标区域。
步骤103,在连续多个所述关键帧中对所述人体目标区域进行跟踪,根据跟踪结果确定各关键帧的人体跟踪区域。
本实施例对所述人体目标区域进行跟踪可以采用单尺度MeanShift算法,也可以采用其他算法对人体目标区域进行跟踪,例如:压缩感知跟踪CT、光流跟踪算法TLD。本实施例对具体的跟踪算法不做限制,能够进行人体跟踪,即对所述人体目标区域进行跟踪即可。
步骤104,在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点。
肤色检测是在图像中选取对应于人体皮肤像素的过程。肤色检测主要 包括颜色空间变换和肤色建模两个步骤。选择颜色空间本身就是选择肤色检测的最基本特征表示,用数学表达式明确规定肤色范围是一种肤色建模的方法。
颜色空间是定义、创建和观察颜色的方法,对颜色的研究和应用产生了许多不同的颜色空间,包括色度学的CIE-RGB真实三原色系统和CIE-XYZ虚拟三原色系统,三分量归一化后用两个分量表示的色度图CIE-xy和NCCrgb,用亮度和双色差表示的颜色空间CIE Lab和CIE Luv等;面向色调的由颜色心理三属性表示的颜色空间HIS,HSV,HSL,HSB,TSL等。
需要说明的是,本实施例在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测,可以从RGB、YCbCr、rg、HSV等颜色空间中任意选取两个颜色进行肤色检测,当然也可以选取三个颜色空间进行肤色检测,本实施例只限定在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测,对颜色空间的具体数目和具体类型都不做限制。另外,本实施例在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测,所得到的各关键帧的肤色点相比单个颜色空间进行肤色检测,可以提高肤色检测的准确性。
步骤105,根据所述各关键帧的肤色点计算所述待检测视频的肤色点特征信息,所述肤色点特征信息包括各关键帧的肤色点占比和连续多个关键帧的肤色点占比变化幅度。
根据步骤104中确定的所述各关键帧的肤色点,可以计算出所述待检测视频的肤色点特征信息,本实施例中所述待检测视频的肤色点特征信息可以包括各关键帧的肤色点占比,以及连续多个关键帧的肤色点占比的变化幅度等信息,甚至与待检测视频的肤色点相关的信息都可以作为所述待检测视频的肤色点特征信息,至少包括上述肤色点占比和肤色点占比变化幅度即可。需要说明的是,本实施例计算所述待检测视频的肤色点特征信息时考虑了待检测视频的时序性,例如连续多个关键帧的肤色点占比变化幅度,可以显著减少敏感视频的误报次数。
步骤106,判断所述待检测视频的肤色点特征信息是否大于预设的特征阈值,当所述待检测视频的肤色点特征信息大于所述特征阈值时,判定所述待检测视频为敏感视频。
本实施例中预设的特征阈值可以是具体数值,当所述待检测视频的肤色点特征信息大于这个具体数值时,判定所述待检测视频为敏感视频;当所述待检测视频的肤色点特征信息小于等于这个具体数值时,判定所述待检测视频为非敏感视频。本实施例中预设的特征阈值还可以是一定范围,当所述待检测视频的肤色点特征信息不在这个范围内时,判定所述待检测视频为敏感视频;当所述待检测视频的肤色点特征信息在这个范围内时,判定所述待检测视频为非敏感视频。可以针对肤色点占比设置有关肤色点占比的特征阈值,针对连续多个关键帧的肤色点占比变化幅度设置有关变化幅度的特征阈值分别进行判定。
本实施例首先对待检测视频抽取关键帧;然后对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域;接着在连续多个所述关键帧中对所述人体目标区域进行跟踪,根据跟踪结果确定各关键帧的人体跟踪区域;然后在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点;然后根据所述各关键帧的肤色点计算所述待检测视频的肤色点特征信息;最后判断所述待检测视频的肤色点特征信息是否大于预设的特征阈值,当所述待检测视频的肤色点特征信息大于所述特征阈值时,判定所述待检测视频为敏感视频。其中,本实施例在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测,可以提高肤色检测的精度和准确性,进而可以提高敏感视频的检测结果的精度和准确性。并且本实施例计算所述待检测视频的肤色点特征信息时考虑了待检测视频的时序性,即所述肤色点特征信息不仅包括各关键帧的肤色点占比,还包括连续多个关键帧的肤色点占比变化幅度,而连续多个关键帧的肤色点占比变化幅度恰恰体现了待检测视频的时序性,因此可以显著减少敏感视频的误报次数,也相应提高了敏感视频检测结果的准确性,提高了敏感视频检测结果的可信度。
实施例二:
在上述实施例的基础上,本实施例继续论述敏感视频的检测方法。
参照图2,示出了本发明实施例一种敏感视频的检测方法的流程图,本实施例具体可以包括以下步骤:
步骤201,对待检测视频抽取关键帧。
本实施例中对待检测视频抽取关键帧,可以采用基于颜色(或直方图)帧差方法抽取关键帧,也可以基于运动分析方法或基于视频帧聚类方法来抽取关键帧,可以按照固定的时间间隔来提取关键帧,也可以通过计算相邻几帧在颜色(或灰度)上的差异来确定是否是关键帧,还可以基于运动分析的方法来抽取关键帧。其中,通过视频帧聚类方法抽取视频的关键帧,即通过聚类分析将视频镜头的帧分成若干类,选取最靠近聚类中心的点表示聚类的点,最终形成视频序列的关键帧集合。按照固定时间间隔提取关键帧是最直观,计算最简单的提取关键帧的方法。需要说明的是,本实施例对待检测视频抽取关键帧所采用的具体方法不做限制,可以将待检测视频的关键帧抽取出来即可。
步骤202,对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域。
本实施例中所述对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域,具体可以通过以下方式来实现:首先,在抽取的关键帧中选取任意两个连续关键帧。在步骤201抽取的关键帧中选取任意两个连续关键帧,本实施例对所选取的关键帧位于所述待检测视频的具体位置不做限制,但是在本发明的优选实施例中,可以选择处于待检测视频的中部以前的关键帧进行帧差,因为对任意两个连续关键帧进行帧差是为了获取到人体目标区域,进而对人体目标区域进行追踪,而选取处于待检测视频的中部以前的关键帧,即获取到的是待检测视频前半部分的人体目标区域,有利于后续对该人体目标区域的追踪。其次,对所述选取的任意两个连续关键帧进行差分运算,得到所述两个连续关键帧的差分图像。再次,根据预设的二值化阈值对所述差分图像进行二值化处理,得到二值化图像。最后,将所述二值化图像分别 向水平方向和竖直方向进行积分投影,将小于目标阈值的二进制位置0后得到人体目标区域。
需要说明的是,本实施例仅以对任意两个连续关键帧进行帧差为例对获取人体目标区域进行说明,并非对获取人体目标区域所采用的方法的限制,具体实现时也可以采取其他方法来获取人体目标区域。例如,可以采用三帧差分算法来获取人体目标区域。
步骤203,在连续多个所述关键帧中对所述人体目标区域进行跟踪,根据跟踪结果确定各关键帧的人体跟踪区域。
本实施例中所述在连续多个所述关键帧中对所述人体目标区域进行跟踪,根据跟踪结果确定各关键帧的人体跟踪区域,具体可以通过以下方式来实现:
1)使用单尺度算法在连续多个所述关键帧中对所述人体目标区域进行跟踪。需要说明的是,本实施例仅以单尺度MeanShift算法为例对人体目标区域跟踪进行说明,并非对人体目标区域跟踪算法的限制,具体实现时也可以采用其他算法对人体目标区域进行跟踪,例如:压缩感知跟踪CT、光流跟踪算法TLD。选择人体跟踪算法的首要标准是实时性一定要高,上述CT、MeanShift跟踪算法均满足这个条件,但光流跟踪算法TLD耗时较多不满足这个条件。同时在淫秽视频中跟踪的人体有时是裸体,而此时有些跟踪算法不是很好,如角点跟踪。
2)将在所述多个所述关键帧中跟踪到的所述人体目标区域确定为各关键帧的人体跟踪区域。如果在某个关键帧中可以跟踪到所述人体目标区域,则将跟踪到的所述人体目标区域确定为该关键帧的人体跟踪区域。需要说明的是,人体目标区域和人体跟踪区域都是关键帧中的人体部分,只是在步骤202中称之为人体目标区域,在步骤203中称之为人体跟踪区域。
步骤204,计算所述各关键帧的人体跟踪区域与所述人体目标区域的相似度。
人体跟踪区域既然是对人体目标区域进行跟踪得到的,所代表的是同一个人体,因此与人体目标区域具有一定的相似度。如果人体跟踪区域 与所述人体目标区域完全不相似,或者相似度达不到一定阈值,则说明人体跟踪区域所代表的人体已经不是人体目标区域所代表的人体,说明把人跟丢了,或者是由于人体目标区域并非当前所要跟踪的人体,即人体目标区域出现偏差,此时当然需要取消跟踪重新进行人体检测以确定正确的人体目标区域,然后重新对所述人体目标区域进行跟踪,因此步骤204计算所述各关键帧的人体跟踪区域与所述人体目标区域的相似度显得尤为重要,可以及时发现人体跟踪区域的跟踪出现的偏差,以便及时进行调整重新跟踪,进而保证了对所述人体目标区域跟踪的准确度,进一步也提高了后续步骤206肤色检测的准确度,最终提高了敏感视频检测的准确度。
步骤205,判断所述相似度是否小于预设的相似阈值;当所述相似度小于所述相似阈值时,返回所述步骤202对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域;当所述相似度大于等于所述相似阈值时,执行所述步骤206在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点。
预设的相似阈值是保证人体跟踪区域和人体目标区域代表同一个人体的最低相似度。如果人体跟踪区域与所述人体目标区域的相似度小于所述相似阈值,说明人体跟踪出现偏差,人体目标区域并非当前所要跟踪的人体,因此需要取消跟踪重新进行人体检测以确定正确的人体目标区域,即返回所述步骤202对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域。如果人体跟踪区域与所述人体目标区域的相似度大于等于所述相似阈值,说明人体跟踪没有出错,人体目标区域正确,并且人体跟踪区域跟踪正确,此时接着执行肤色检测的步骤,即执行所述步骤206在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点。
步骤206,在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点。
本实施例具体可以选取rg、HSV两个颜色空间对所述各关键帧的人体 跟踪区域进行肤色检测,即所述在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点,具体可以在rg、HSV两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测,并根据所述肤色检测的结果确定所述各关键帧的肤色点。
上述在rg、HSV两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测,并根据所述肤色检测的结果确定所述各关键帧的肤色点,具体可以包括以下子步骤:
子步骤一,将所述各关键帧的人体跟踪区域的RGB颜色空间转换成rg颜色空间及HSV颜色空间。肤色检测主要包括颜色空间变换和肤色建模两个步骤,而子步骤一就是颜色空间变换的步骤。RGB颜色空间转换到rg颜色空间的公式是:r=R/(R+G+B),g=G/(R+G+B)。RGB转换到HSV颜色空间可以通过以下代码来实现:
max=max(R,G,B)
min=min(R,G,B)
if R=max,H=(G-B)/(max-min)
if G=max,H=2+(B-R)/(max-min)
if B=max,H=4+(B-R)/(max-min)
H=H*60
if H<0,H=H+360
v=max(R,G,B)
s=(max-min)/max
子步骤二,对所述转换后的人体跟踪区域的每个像素点进行扫描,获取各像素点信息。对子步骤一中转换到rg颜色空间及HSV颜色空间的人体跟踪区域进行扫描,需要扫描到所述人体跟踪区域的每个像素点,获取各像素点信息,所述像素点信息具体可以包括该像素点的r值、g值和H值。
子步骤三,当所述像素点信息在肤色阈值的范围内时,判定所述像素点为肤色点。前面提到了肤色检测主要包括颜色空间变换和肤色建模两 个步骤,子步骤二和子步骤三是肤色建模的步骤,本实施例采用数学表达式明确规定肤色范围的方式来进行肤色建模,即本实施例中设置了肤色阈值,根据像素点信息是否在肤色阈值的范围内,来判断该像素点是否为肤色点。本实施例中如果当前像素在rg颜色空间满足0.25<r<0.55&&0.2<g<0.4且在HSV空间满足0<H<36两个条件,则当前像素点为肤色点,否则为非肤色点。
需要说明的是,上述0.25<r<0.55&&0.2<g<0.4&&0<H<36是通过大量样本统计得出的,通过统计大量皮肤和非皮肤样本的r,g值分布来确定r,g的取值范围,H的取值范围也是通过统计大量皮肤和非皮肤的H值来确定的。并且上述0.25<r<0.55&&0.2<g<0.4&&0<H<36这一肤色阈值时针对黄种人设置的,可以根据不同肤色的人设置不同的肤色阈值。
需要说明的是,由于肤色在颜色空间的分布相当集中,但会受到照明和人种的很大影响,为了减少肤色受照明强度影响,本实施例将颜色空间从RGB转换到亮度与色度分离的某个空间,比如HSV颜色空间,然后放弃亮度分量。在双色差或色调饱和度平面上,不同人种的肤色变化不大,肤色的差异更多的是存在于亮度而不是色度。
步骤207,根据所述各关键帧的肤色点计算所述待检测视频的肤色点特征信息,所述肤色点特征信息包括各关键帧的肤色点占比和连续多个关键帧的肤色点占比变化幅度。
本实施例中所述根据所述各关键帧的肤色点计算所述待检测视频的肤色点特征信息,具体可以通过以下方式来实现:首先将所述各关键帧的肤色点个数与所述各关键帧的人体跟踪区域的像素点个数相除,商作为各关键帧的肤色点占比;其次,依据所述各关键帧的肤色点占比计算所述连续多个关键帧的肤色点占比的递增幅度或递减幅度;最后将所述连续多个关键帧的肤色点占比的递增幅度或递减幅度作为连续多个关键帧的肤色点占比变化幅度,并将所述各关键帧的肤色点占比和所述连续多个关键帧的肤色点占比变化幅度作为所述待检测视频的肤色点特征信息。本实施例计算所述待检测视频的肤色点特征信息时考虑了待检测视频的 时序性,即所述肤色点特征信息包括各关键帧的肤色点占比和连续多个关键帧的肤色点占比变化幅度,而连续多个关键帧的肤色点占比变化幅度体现了待检测视频的时序性,可以显著减少敏感视频的误报次数。
步骤208,判断所述待检测视频的肤色点特征信息是否大于预设的特征阈值,当所述待检测视频的肤色点特征信息大于所述特征阈值时,判定所述待检测视频为敏感视频。
既然本实施例中待检测视频的肤色点特征信息包括各关键帧的肤色点占比和连续多个关键帧的肤色点占比变化幅度,因此在判定待检测视频是否为敏感视频的时候,需要分别对各关键帧的肤色点占比和连续多个关键帧的肤色点占比变化幅度进行判断。本实施例中设置了占比阈值来对各关键帧的肤色点占比进行判断,设置了幅度阈值来对多个关键帧的肤色点占比变化幅度进行判断。即本实施例中所述判断所述待检测视频的肤色点特征信息是否大于预设的特征阈值,当所述待检测视频的肤色点特征信息大于所述特征阈值时,判定所述待检测视频为敏感视频,具体可以通过以下方式来实现:首先判断所述各关键帧的肤色点占比是否大于预设的占比阈值;其次判断所述连续多个关键帧的肤色点占比变化幅度是否大于预设的幅度阈值;最后当所述各关键帧的肤色点占比大于预设的占比阈值,且所述连续多个关键帧的肤色点占比变化幅度大于预设的幅度阈值时,判定所述待检测视频为敏感视频。
例如,本实施例可以将占比阈值设置为60%,将幅度阈值设置为5%。需要说明的是,在本发明的优选实施例中,上述5%可以理解为连续5帧以上的肤色占比递增幅度都超过5%。
下面结合图3~图6对本实施例进行说明,其中图3是待检测视频A的第N帧关键帧的示意图,图3中一少女坐在乳白色的座椅上,该座椅的颜色与该少女的肤色较接近。图4是待检测视频A的第N帧关键帧对应的肤色检测图,也即图3对应的肤色检测图,由于乳白色座椅的面积较大,并且与少女的肤色较接近,在进行肤色判定时,将乳白色的座椅也判定为肤色。图5是待检测视频A的第N+1帧关键帧的示意图,图5中同样是一少女坐在乳 白色的座椅上,该座椅与少女的肤色较接近,图5与图3相比,无明显区别,少女坐姿有细微差别。图6是待检测视频A的第N+1帧关键帧对应的肤色检测图,即图5对应的肤色检测图。通过计算得到待检测视频A如图3所示的第N帧关键帧肤色占比为68.9%,具体的肤色检测过程以及肤色占比的计算过程参见上述步骤206和步骤207中的相关描述。同样通过计算得到上述待检测视频A如图5所示的第N+1帧肤色占比为68.5%。将所述待检测视频A的第N+1帧关键帧的肤色占比68.5%,与所述待检测视频A的第N帧关键帧肤色占比68.9%进行比较,很容易得出所述待检测视频A从第N帧关键帧到第N+1帧关键帧的肤色占比的变化幅度为0.4%。如果在判定所述待检测视频A是否为敏感视频时只考虑所述待检测视频A各关键帧的肤色点占比是否大于预设的占比阈值60%的话,显然所述待检测视频A的第N帧关键帧肤色占比68.9%,和所述待检测视频A的第N+1帧关键帧的肤色占比68.5%,都大于占比阈值,这样会将该待检测视频A误判为敏感视频,即由于肤色检测的误检造成肤色占比过高会直接导致将该待检测视频A判定为敏感视频,而本实施例中待检测视频A的肤色点特征信息包括各关键帧的肤色点占比和连续多个关键帧的肤色点占比变化幅度,本实施例在判定待检测视频是否为敏感视频的时候,不仅考虑了所述肤色点占比,还考虑了连续多个关键帧的肤色点占比变化幅度,很容易看出虽然上述待检测视频A的第N帧关键帧的肤色点占比68.9%和上述待检测视频A的第N+1帧关键帧的肤色点占比68.5%都大于本实施例中设定的占比阈值60%,但是上述待检测视频A的第N帧关键帧到第N+1帧关键帧的肤色点占比的变化幅度为仅为0.4%,远远未达到本实施例中设定的幅度阈值设置5%,因此可以判断该待检测视频A为非敏感视频,因此本实施例在判定待检测视频是否为敏感视频的时候,综合考虑待检测视频的各关键帧的肤色点占比和连续多个关键帧的肤色点占比变化幅度,可以避免由于肤色检测的误检所造成的对待检测视频的误判,相应提高了敏感视频检测的准确度。
下面结合图7~图10对本实施例进行说明,其中图7是待检测视频B的第M帧关键帧的示意图,图7中一女孩穿着衣服坐在黑色的座椅上。图8 是待检测视频B的第M帧关键帧对应的肤色检测图,也即图7对应的肤色检测图,由于图7中女孩裸露的肤色较多,自然图8中检测到的肤色点也较多。图9是待检测视频B的第M+1帧关键帧的示意图,图9与图7相比,图7中原衣服部分在图9中已经是肤色。图10是待检测视频B的第M+1帧关键帧对应的肤色检测图,即图9对应的肤色检测图。通过计算得到待检测视频B如图7所示的第M帧关键帧的肤色占比为75%,具体的肤色检测过程以及肤色占比的计算过程参见上述步骤206和步骤207中的相关描述。同样通过计算得到上述待检测视频B如图7所示的第M+1帧肤色占比为88%,很容易得出所述待检测视频B从第M帧关键帧到第M+1帧关键帧的肤色占比的变化幅度为13%。可知第M帧和第M+1帧两个关键帧肤色占比较高且变化幅度较大,显然上述待检测视频B的第M帧关键帧和第M+1帧关键帧的肤色点占比都大于本实施例中设定的占比阈值60%,并且上述第M帧到第M+1帧的肤色点占比的变化幅度为13%也超过了本实施例中设定的幅度阈值设置5%,因此可以判断该待检测视频为敏感视频。
本实施例相较于实施例一来讲,在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测之前,还包括:计算所述各关键帧的人体跟踪区域与所述人体目标区域的相似度;判断所述相似度是否小于预设的相似阈值;当所述相似度小于所述相似阈值时,返回所述对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域的步骤;当所述相似度大于等于所述相似阈值时,执行所述在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点的步骤。因此本实施例可以及时发现人体跟踪区域的跟踪出现的偏差,以便及时进行调整重新跟踪,进而保证了对所述人体目标区域跟踪的准确度,进一步也提高了后续肤色检测步骤的准确度,最终提高了敏感视频检测的准确度。
对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次, 本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
实施例三:
在上述实施例的基础上,本实施例还公开了一种敏感视频的检测系统。
参照图11,示出了本发明实施例一种敏感视频的检测系统的结构框图,本实施例具体可以包括:关键帧抽取模块301、人体运动检测模块302、人体跟踪模块303、肤色检测模块304、特征提取模块305和敏感判定模块306,其中:
关键帧抽取模块301,用于对待检测视频抽取关键帧。
人体运动检测模块302,用于对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域。
人体跟踪模块303,用于在连续多个所述关键帧中对所述人体目标区域进行跟踪,根据跟踪结果确定各关键帧的人体跟踪区域。
肤色检测模块304,用于在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点。
特征提取模块305,用于根据所述各关键帧的肤色点计算所述待检测视频的肤色点特征信息,所述肤色点特征信息包括各关键帧的肤色点占比和连续多个关键帧的肤色点占比变化幅度。
敏感判定模块306,用于判断所述待检测视频的肤色点特征信息是否大于预设的特征阈值,当所述待检测视频的肤色点特征信息大于所述特征阈值时,判定所述待检测视频为敏感视频。
本实施例首先通过关键帧抽取模块301对待检测视频抽取关键帧;然后人体运动检测模块302对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域;接着人体跟踪模块303在连续多个所述关键帧中对所述人体目标区域进行跟踪,根据跟踪结果确定各关键帧的人体跟踪区域;然后肤色检测模块304在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点;然后特征提取模块305根据所述各关键帧的肤色点计算所述待检测视频的肤色点特征信息;最后敏感 判定模块306判断所述待检测视频的肤色点特征信息是否大于预设的特征阈值,当所述待检测视频的肤色点特征信息大于所述特征阈值时,判定所述待检测视频为敏感视频。其中,肤色检测模块304在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测,可以提高肤色检测的精度和准确性,进而可以提高敏感视频的检测结果的精度和准确性。并且特征提取模块305计算所述待检测视频的肤色点特征信息时考虑了待检测视频的时序性,即所述肤色点特征信息不仅包括各关键帧的肤色点占比,还包括连续多个关键帧的肤色点占比变化幅度,而连续多个关键帧的肤色点占比变化幅度恰恰体现了待检测视频的时序性,因此可以显著减少敏感视频的误报次数,也相应提高了敏感视频检测结果的准确性,提高了敏感视频检测结果的可信度。
在本发明的一种可选实施例中,所述人体运动检测模块,具体用于在抽取的关键帧中选取任意两个连续关键帧;对所述选取的任意两个连续关键帧进行差分运算,得到所述两个连续关键帧的差分图像;根据预设的二值化阈值对所述差分图像进行二值化处理,得到二值化图像;将所述二值化图像分别向水平方向和竖直方向进行积分投影,将小于目标阈值的二进制位置0后得到人体目标区域。
在本发明的一种可选实施例中,所述人体跟踪模块,具体用于使用单尺度算法在连续多个所述关键帧中对所述人体目标区域进行跟踪;将在所述多个所述关键帧中跟踪到的所述人体目标区域确定为各关键帧的人体跟踪区域。
在本发明的一种可选实施例中,所述肤色检测模块,具体用于在rg、HSV两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测,并根据所述肤色检测的结果确定所述各关键帧的肤色点。
在本发明的一种可选实施例中,所述肤色检测模块包括:转换子模块、扫描子模块和肤色判定子模块,其中,转换子模块,用于将所述各关键帧的人体跟踪区域的RGB颜色空间转换成rg颜色空间及HSV颜色空间;扫描子模块,用于对所述转换后的人体跟踪区域的每个像素点进行扫描, 获取各像素点信息;肤色判定子模块,用于当所述像素点信息在肤色阈值的范围内时,判定所述像素点为肤色点。
在本发明的一种可选实施例中,所述特征提取模块包括:占比计算子模块、幅度计算子模块和特征确定模块,其中,占比计算子模块,用于将所述各关键帧的肤色点个数与所述各关键帧的人体跟踪区域的像素点个数相除,商作为各关键帧的肤色点占比;幅度计算子模块,用于依据所述各关键帧的肤色点占比计算所述连续多个关键帧的肤色点占比的递增幅度或递减幅度;特征确定模块,用于将所述连续多个关键帧的肤色点占比的递增幅度或递减幅度作为连续多个关键帧的肤色点占比变化幅度,并将所述各关键帧的肤色点占比和所述连续多个关键帧的肤色点占比变化幅度作为所述待检测视频的肤色点特征信息。
在本发明的一种可选实施例中,所述敏感判定模块包括:占比判断子模块、幅度判断子模块和敏感判定子模块,其中,占比判断子模块,用于判断所述各关键帧的肤色点占比是否大于预设的占比阈值;幅度判断子模块,用于判断所述连续多个关键帧的肤色点占比变化幅度是否大于预设的幅度阈值;敏感判定子模块,用于当所述各关键帧的肤色点占比大于预设的占比阈值,且所述连续多个关键帧的肤色点占比变化幅度大于预设的幅度阈值时,判定所述待检测视频为敏感视频。
在本发明实施例的如图12所示的一种可选示例中,所述敏感视频的检测系统还包括:相似度计算模块307,用于所述肤色检测模块在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测之前,计算所述各关键帧的人体跟踪区域与所述人体目标区域的相似度;相似判断模块308,用于判断所述相似度是否小于预设的相似阈值;所述人体运动检测模块302,还用于当所述相似判断模块判断所述相似度小于所述相似阈值时,对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域;所述肤色检测模块304,还用于当所述相似判断模块判断所述相似度大于等于所述相似阈值时,在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点。
对于系统实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上对本发明所提供的一种敏感视频的检测方法和系统,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (16)

1.一种敏感视频的检测方法,其特征在于,包括:
对待检测视频抽取关键帧;
对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域;
在连续多个所述关键帧中对所述人体目标区域进行跟踪,根据跟踪结果确定各关键帧的人体跟踪区域;
在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点;
根据所述各关键帧的肤色点计算所述待检测视频的肤色点特征信息,所述肤色点特征信息包括各关键帧的肤色点占比和连续多个关键帧的肤色点占比变化幅度;
判断所述待检测视频的肤色点特征信息是否大于预设的特征阈值,当所述待检测视频的肤色点特征信息大于所述特征阈值时,判定所述待检测视频为敏感视频。
2.根据权利要求1所述的方法,其特征在于,所述对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域,包括:
在抽取的关键帧中选取任意两个连续关键帧;
对所述选取的任意两个连续关键帧进行差分运算,得到所述两个连续关键帧的差分图像;
根据预设的二值化阈值对所述差分图像进行二值化处理,得到二值化图像;
将所述二值化图像分别向水平方向和竖直方向进行积分投影,将小于目标阈值的二进制位置0后得到人体目标区域。
3.根据权利要求1所述的方法,其特征在于,所述在连续多个所述关键帧中对所述人体目标区域进行跟踪,根据跟踪结果确定各关键帧的人体跟踪区域,包括:
使用单尺度算法在连续多个所述关键帧中对所述人体目标区域进行跟踪;
将在所述多个所述关键帧中跟踪到的所述人体目标区域确定为各关键帧的人体跟踪区域。
4.根据权利要求1所述的方法,其特征在于,所述在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点,包括:
在rg、HSV两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测,并根据所述肤色检测的结果确定所述各关键帧的肤色点。
5.根据权利要求4所述的方法,其特征在于,所述在rg、HSV两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测,并根据所述肤色检测的结果确定所述各关键帧的肤色点,包括:
将所述各关键帧的人体跟踪区域的RGB颜色空间转换成rg颜色空间及HSV颜色空间;
对所述转换后的人体跟踪区域的每个像素点进行扫描,获取各像素点信息;
当所述像素点信息在肤色阈值的范围内时,判定所述像素点为肤色点。
6.根据权利要求1所述的方法,其特征在于,所述根据所述各关键帧的肤色点计算所述待检测视频的肤色点特征信息,包括:
将所述各关键帧的肤色点个数与所述各关键帧的人体跟踪区域的像素点个数相除,商作为各关键帧的肤色点占比;
依据所述各关键帧的肤色点占比计算所述连续多个关键帧的肤色点占比的递增幅度或递减幅度;
将所述连续多个关键帧的肤色点占比的递增幅度或递减幅度作为连续多个关键帧的肤色点占比变化幅度,并将所述各关键帧的肤色点占比和所述连续多个关键帧的肤色点占比变化幅度作为所述待检测视频的肤色点特征信息。
7.根据权利要求6所述的方法,其特征在于,所述判断所述待检测视频的肤色点特征信息是否大于预设的特征阈值,当所述待检测视频的肤色点特征信息大于所述特征阈值时,判定所述待检测视频为敏感视频,包括:
判断所述各关键帧的肤色点占比是否大于预设的占比阈值;
判断所述连续多个关键帧的肤色点占比变化幅度是否大于预设的幅度阈值;
当所述各关键帧的肤色点占比大于预设的占比阈值,且所述连续多个关键帧的肤色点占比变化幅度大于预设的幅度阈值时,判定所述待检测视频为敏感视频。
8.根据权利要求1所述的方法,其特征在于,所述在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测之前,还包括:
计算所述各关键帧的人体跟踪区域与所述人体目标区域的相似度;
判断所述相似度是否小于预设的相似阈值;
当所述相似度小于所述相似阈值时,返回所述对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域的步骤;
当所述相似度大于等于所述相似阈值时,执行所述在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点的步骤。
9.一种敏感视频的检测系统,其特征在于,包括:
关键帧抽取模块,用于对待检测视频抽取关键帧;
人体运动检测模块,用于对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域;
人体跟踪模块,用于在连续多个所述关键帧中对所述人体目标区域进行跟踪,根据跟踪结果确定各关键帧的人体跟踪区域;
肤色检测模块,用于在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点;
特征提取模块,用于根据所述各关键帧的肤色点计算所述待检测视频的肤色点特征信息,所述肤色点特征信息包括各关键帧的肤色点占比和连续多个关键帧的肤色点占比变化幅度;
敏感判定模块,用于判断所述待检测视频的肤色点特征信息是否大于预设的特征阈值,当所述待检测视频的肤色点特征信息大于所述特征阈值时,判定所述待检测视频为敏感视频。
10.根据权利要求9所述的系统,其特征在于:
所述人体运动检测模块,具体用于在抽取的关键帧中选取任意两个连续关键帧;对所述选取的任意两个连续关键帧进行差分运算,得到所述两个连续关键帧的差分图像;根据预设的二值化阈值对所述差分图像进行二值化处理,得到二值化图像;将所述二值化图像分别向水平方向和竖直方向进行积分投影,将小于目标阈值的二进制位置0后得到人体目标区域。
11.根据权利要求9所述的系统,其特征在于:
所述人体跟踪模块,具体用于使用单尺度算法在连续多个所述关键帧中对所述人体目标区域进行跟踪;将在所述多个所述关键帧中跟踪到的所述人体目标区域确定为各关键帧的人体跟踪区域。
12.根据权利要求9所述的系统,其特征在于:
所述肤色检测模块,具体用于在rg、HSV两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测,并根据所述肤色检测的结果确定所述各关键帧的肤色点。
13.根据权利要求12所述的系统,其特征在于,所述肤色检测模块包括:
转换子模块,用于将所述各关键帧的人体跟踪区域的RGB颜色空间转换成rg颜色空间及HSV颜色空间;
扫描子模块,用于对所述转换后的人体跟踪区域的每个像素点进行扫描,获取各像素点信息;
肤色判定子模块,用于当所述像素点信息在肤色阈值的范围内时,判定所述像素点为肤色点。
14.根据权利要求9所述的系统,其特征在于,所述特征提取模块包括:
占比计算子模块,用于将所述各关键帧的肤色点个数与所述各关键帧的人体跟踪区域的像素点个数相除,商作为各关键帧的肤色点占比;
幅度计算子模块,用于依据所述各关键帧的肤色点占比计算所述连续多个关键帧的肤色点占比的递增幅度或递减幅度;
特征确定模块,用于将所述连续多个关键帧的肤色点占比的递增幅度或递减幅度作为连续多个关键帧的肤色点占比变化幅度,并将所述各关键帧的肤色点占比和所述连续多个关键帧的肤色点占比变化幅度作为所述待检测视频的肤色点特征信息。
15.根据权利要求14所述的系统,其特征在于,所述敏感判定模块包括:
占比判断子模块,用于判断所述各关键帧的肤色点占比是否大于预设的占比阈值;
幅度判断子模块,用于判断所述连续多个关键帧的肤色点占比变化幅度是否大于预设的幅度阈值;
敏感判定子模块,用于当所述各关键帧的肤色点占比大于预设的占比阈值,且所述连续多个关键帧的肤色点占比变化幅度大于预设的幅度阈值时,判定所述待检测视频为敏感视频。
16.根据权利要求9所述的系统,其特征在于,还包括:
相似度计算模块,用于所述肤色检测模块在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测之前,计算所述各关键帧的人体跟踪区域与所述人体目标区域的相似度;
相似判断模块,用于判断所述相似度是否小于预设的相似阈值;
所述人体运动检测模块,还用于当所述相似判断模块判断所述相似度小于所述相似阈值时,对任意两个连续关键帧进行帧差,根据帧差结果获取人体目标区域;
所述肤色检测模块,还用于当所述相似判断模块判断所述相似度大于等于所述相似阈值时,在至少两个颜色空间对所述各关键帧的人体跟踪区域进行肤色检测以确定所述各关键帧的肤色点。
CN201510093342.7A 2015-03-02 2015-03-02 敏感视频的检测方法和系统 Active CN104951742B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510093342.7A CN104951742B (zh) 2015-03-02 2015-03-02 敏感视频的检测方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510093342.7A CN104951742B (zh) 2015-03-02 2015-03-02 敏感视频的检测方法和系统

Publications (2)

Publication Number Publication Date
CN104951742A true CN104951742A (zh) 2015-09-30
CN104951742B CN104951742B (zh) 2018-06-22

Family

ID=54166388

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510093342.7A Active CN104951742B (zh) 2015-03-02 2015-03-02 敏感视频的检测方法和系统

Country Status (1)

Country Link
CN (1) CN104951742B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105654051A (zh) * 2015-12-30 2016-06-08 北京奇艺世纪科技有限公司 一种视频检测方法及系统
CN105681894A (zh) * 2016-01-04 2016-06-15 努比亚技术有限公司 显示视频文件的装置及方法
CN106780556A (zh) * 2016-12-19 2017-05-31 广州视源电子科技股份有限公司 动态图像检测方法及装置
WO2017107209A1 (zh) * 2015-12-25 2017-06-29 王晓光 一种视频软件中图像识别的方法及系统
CN107633470A (zh) * 2017-09-11 2018-01-26 广西师范大学 一种基于视频识别的艺术考试评分系统及方法
CN107818285A (zh) * 2016-09-12 2018-03-20 北京金山云网络技术有限公司 一种肤色检测方法及装置
CN107968951A (zh) * 2017-12-06 2018-04-27 任明和 对直播视频进行自动侦测和屏蔽的方法
CN109451349A (zh) * 2018-10-31 2019-03-08 维沃移动通信有限公司 一种视频播放方法、装置及移动终端
CN110012302A (zh) * 2018-01-05 2019-07-12 阿里巴巴集团控股有限公司 一种网络直播监测方法及装置、数据处理方法
CN113034112A (zh) * 2021-03-31 2021-06-25 清华大学深圳国际研究生院 基于深度学习的公交车安全隐患排查系统及方法
CN115633166A (zh) * 2022-09-27 2023-01-20 北京星绚文化传播有限公司 一种视频检测方法、装置及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102609728A (zh) * 2012-02-08 2012-07-25 嘉兴学院 特定类敏感图像检测方法
US8358837B2 (en) * 2008-05-01 2013-01-22 Yahoo! Inc. Apparatus and methods for detecting adult videos
CN103366160A (zh) * 2013-06-28 2013-10-23 西安交通大学 融合肤色、人脸和敏感部位检测的不良图像判别方法
CN103400155A (zh) * 2013-06-28 2013-11-20 西安交通大学 基于图半监督学习的色情视频检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8358837B2 (en) * 2008-05-01 2013-01-22 Yahoo! Inc. Apparatus and methods for detecting adult videos
CN102609728A (zh) * 2012-02-08 2012-07-25 嘉兴学院 特定类敏感图像检测方法
CN103366160A (zh) * 2013-06-28 2013-10-23 西安交通大学 融合肤色、人脸和敏感部位检测的不良图像判别方法
CN103400155A (zh) * 2013-06-28 2013-11-20 西安交通大学 基于图半监督学习的色情视频检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吴彧: "基于颜色特征的网络不良视频检测技术研究", 《实用影音技术》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017107209A1 (zh) * 2015-12-25 2017-06-29 王晓光 一种视频软件中图像识别的方法及系统
CN105654051A (zh) * 2015-12-30 2016-06-08 北京奇艺世纪科技有限公司 一种视频检测方法及系统
CN105654051B (zh) * 2015-12-30 2019-02-22 北京奇艺世纪科技有限公司 一种视频检测方法及系统
CN105681894A (zh) * 2016-01-04 2016-06-15 努比亚技术有限公司 显示视频文件的装置及方法
WO2017118353A1 (zh) * 2016-01-04 2017-07-13 努比亚技术有限公司 显示视频文件的装置及方法
CN107818285A (zh) * 2016-09-12 2018-03-20 北京金山云网络技术有限公司 一种肤色检测方法及装置
CN106780556A (zh) * 2016-12-19 2017-05-31 广州视源电子科技股份有限公司 动态图像检测方法及装置
CN107633470A (zh) * 2017-09-11 2018-01-26 广西师范大学 一种基于视频识别的艺术考试评分系统及方法
CN107968951A (zh) * 2017-12-06 2018-04-27 任明和 对直播视频进行自动侦测和屏蔽的方法
CN110012302A (zh) * 2018-01-05 2019-07-12 阿里巴巴集团控股有限公司 一种网络直播监测方法及装置、数据处理方法
CN109451349A (zh) * 2018-10-31 2019-03-08 维沃移动通信有限公司 一种视频播放方法、装置及移动终端
CN113034112A (zh) * 2021-03-31 2021-06-25 清华大学深圳国际研究生院 基于深度学习的公交车安全隐患排查系统及方法
CN115633166A (zh) * 2022-09-27 2023-01-20 北京星绚文化传播有限公司 一种视频检测方法、装置及电子设备

Also Published As

Publication number Publication date
CN104951742B (zh) 2018-06-22

Similar Documents

Publication Publication Date Title
CN104951742A (zh) 敏感视频的检测方法和系统
CN107578035B (zh) 基于超像素-多色彩空间的人体轮廓提取方法
CN105469113B (zh) 一种二维视频流中的人体骨骼点追踪方法及系统
JP4251719B2 (ja) 複数人物が存在する場合の人間の顔のロバスト追跡システム
US6504942B1 (en) Method of and apparatus for detecting a face-like region and observer tracking display
EP1046126B1 (en) System for human face detection
CN103035013B (zh) 一种基于多特征融合的精确运动阴影检测方法
CN107507144B (zh) 肤色增强的处理方法、装置及图像处理装置
CN106815587B (zh) 图像处理方法及装置
JPH0862741A (ja) 階調補正装置
CN105426816A (zh) 一种处理人脸图像的方法及装置
CN106558044B (zh) 影像模组的解像力测量方法
Sebastian et al. The effect of colour space on tracking robustness
Yusuf et al. Human face detection using skin color segmentation and watershed algorithm
Zhang et al. A novel color space based on RGB color barycenter
Zhu et al. Edge detection with chroma components of video frame based on local autocorrelation
CN115100240A (zh) 视频中的物体追踪方法及装置、电子设备、存储介质
JP6855175B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN112949367A (zh) 基于视频流数据的工作服颜色检测方法及装置
KR101337833B1 (ko) 컨텐츠에 대한 관객 반응의 판단 방법
Vandenbroucke et al. Color systems coding for color image processing
Devi et al. Active facial tracking
CN109034125A (zh) 基于场景复杂度的行人检测方法与系统
Ismael Comparative Study for Different Color Spaces of Image Segmentation Based on Prewitt Edge Detection Technique
CN110826446B (zh) 无纹理场景视频的视场区域分割方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant