CN106060653A - 一种对互联网视频直播中的不雅动作过滤的方法 - Google Patents
一种对互联网视频直播中的不雅动作过滤的方法 Download PDFInfo
- Publication number
- CN106060653A CN106060653A CN201610406742.3A CN201610406742A CN106060653A CN 106060653 A CN106060653 A CN 106060653A CN 201610406742 A CN201610406742 A CN 201610406742A CN 106060653 A CN106060653 A CN 106060653A
- Authority
- CN
- China
- Prior art keywords
- video
- live
- action
- regular event
- indecency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000009471 action Effects 0.000 title claims abstract description 61
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000001914 filtration Methods 0.000 title abstract 2
- 230000008569 process Effects 0.000 claims abstract description 9
- 238000012216 screening Methods 0.000 claims abstract description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 238000005286 illumination Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 3
- 238000004364 calculation method Methods 0.000 abstract 1
- 238000013135 deep learning Methods 0.000 abstract 1
- 230000003993 interaction Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005553 drilling Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000001717 pathogenic effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/454—Content or additional data filtering, e.g. blocking advertisements
- H04N21/4542—Blocking scenes or portions of the received content, e.g. censoring scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种对互联网视频直播中的不雅动作过滤的方法,其特征在于,包括如下步骤:步骤1、建立正常动作特征库:录制演艺人员的正常动作视频,并将其分解为色彩分量,对各个色彩分量所对应的灰度图进行深度学习,建立正常动作特征库;步骤2、甄别不雅动作视频:获取直播过程中演艺人员动作的视频图像原始信息,并对其进行直播动作特征提取,将直播动作特征与正常动作特征库中的正常动作特征进行匹配,得出匹配率,甄别不雅动作视频;步骤3、对直播视频进行处理:若甄别为正常动作视频,则将该正常动作视频进行编码播出,否则中断视频录制。本发明中的方法在不增加运算量的基础上,提升处理的效率和速度。
Description
技术领域
本发明属于图像和视频处理领域,尤其涉及一种对互联网视频直播中的不雅动作过滤的方法。
背景技术
互联网视频直播是当前基于互联网的在线互动娱乐形式的一种,通过直播间内演艺人员与连接到该直播间的用户进行互动,响应用户的娱乐需求,形成在线娱乐。为维护互联网风气的纯净,需要对在线视频业务进行有效的监管,以遏制涉黄、暴恐等信息的传播。然而,互联网在线视频业务的监管在全球范围内都属于一项极具挑战性的工作,需要针对不良动作建立特征库,其特征庞大,不利于实际使用,且其在线系统追求实时性,从而导致处理情况不够多,而离线系统追求全面性,从而导致运算复杂,因此,目前仍无有效的方法能够实现全面的监管。
发明内容
为解决上述问题,本发明提供了一种对互联网视频直播中的不雅动作过滤的方法。用以解决目前在线系统处理情况不多,而离线系统运算复杂的问题,从中寻找平衡点,在不明显增加运算量的基础行,提升处理的效率和速度。
为了解决上述技术问题,本发明的技术方案为:
一种对互联网视频直播中的不雅动作过滤的方法,包括如下步骤:
步骤1、建立正常动作特征库:录制演艺人员的正常动作视频,并将其分解为色彩分量,对各个所述色彩分量所对应的灰度图进行深度学习,建立正常动作特征库;
步骤2、甄别不雅动作视频:获取直播过程中演艺人员动作的视频图像原始信息,并对其进行直播动作特征提取,将所述直播动作特征与所述正常动作特征库中的正常动作特征进行匹配,得出匹配率,根据匹配率判断是否为不雅动作视频;
步骤3、对直播视频进行处理:若甄别为正常动作视频,则将所述正常动作视频进行编码播出,再次执行步骤2;否则中断视频录制,输出不雅动作视频结果。
其中,步骤1具体为:
对当前直播间的演艺人员录制不低于30分钟的正常动作视频,所述演艺人员完成坐姿、站姿和舞蹈动作;
将录制的所述正常动作视频内容分解为YUV色彩分量,并对各个所述YUV色彩分量所对应的灰度图进行深度学习,建立出所述正常动作特征库。
其中,所述正常动作视频分辨率不低于320*240像素,帧率不低于10帧/秒。
其中,步骤1中录制所述正常动作视频时,室内灯光为普通照明,其平均照度在50~300流明之间。
其中,所述正常动作特征库中包括所述正常动作特征的色彩、亮度、边缘,并且所述正常动作特征的维度不小于1000维。
其中,步骤2具体为:
对直播间开播过程中演艺人员的演艺动作进行视频捕获,获取视频图像原始信息;
以T为时间点,连续取n帧,对n帧视频图像分别进行单独的直播动作特征提取,并与所述正常动作特征库中的正常特征进行匹配,得出匹配率;
对所述n帧的视频图像的所述匹配率计算均值,得出平均匹配率,若所述平均匹配率处于在阈值50%~100%之间,则判断所述演艺人员在所述n帧视频图像中没有做出不雅动作,为正常动作;否则,若所述平均匹配率处于所述阈值之外,判断所述演艺人员做出不雅动作;
其中,n=0,1,2,3……的整数。
其中,步骤3具体为:若是正常动作,则将T时刻的帧输入到视频编码器中进行编码,并以n+1帧出现的时间为下一个时间点,再次连续取n帧,重复步骤2,若是不雅动作,则中断录制过程,输出不雅动作视频结果。
其中,所述n取值为5。
其中,所述阈值为80%~85%。
与现有技术相比,本发明的有益效果为:本发明建立的是纯净动作特征库,规模较小,并在现有的在线系统与离线系统中寻找平衡点,在不增加运算量的基础上,提升处理的效率和速度,处理情况增加并且运算简便,能够在实际使用中实现全面的监管。
附图说明
图1为本发明中对互联网视频直播中的不雅动作过滤的方法的流程图。
具体实施方式
为便于本领域技术人员对本发明的技术方案和有益效果进行理解,特结合附图对具体实施方式进行如下描述。
如图1所示,其为发明中对互联网视频直播中的不雅动作过滤的方法的流程图。从图中可知,该方法包括如下步骤:
1、一种对互联网视频直播中的不雅动作过滤的方法,其特征在于,包括如下步骤:
步骤1、建立正常动作特征库。
录制演艺人员的正常动作视频,并将其分解为色彩分量,对各个所述色彩分量的灰度图进行深度学习,建立正常动作特征库。具体为:
对当前直播间的演艺人员录制不低于30分钟的正常动作视频,演艺人员完成坐姿、站姿和舞蹈等动作,该正常动作视频分辨率不低于320*240像素,录制设备可为黑白或者彩色相机,帧率不低于10帧/秒,录制期间,演艺人员应日常着装,室内灯光为普通照明,其平均照度不低于50流明,不高于300流明,至少完成坐姿、站姿、舞蹈动作等一般动作。
将录制的正常动作视频内容分解为YUV色彩分量,并对各个YUV色彩分量所对应的灰度图进行深度学习,建立出正常动作特征库,留存备用。正常动作特征库中的正常动作特征包括色彩、亮度、边缘等的统计特征,其特征维度不小于1000维。其中,深度学习方法包括但不限于深度卷积神经网络。
步骤2、甄别不雅动作视频。
获取直播过程中演艺人员动作的视频图像原始信息,并对其进行直播动作特征提取,将直播动作特征与正常动作特征库中的正常动作特征进行匹配,得出匹配率,甄别不雅动作视频。具体为:
在直播间开播过程中,通过计算机自带的摄像头对演艺人员所在的场景及其演艺动作进行视频捕获,获取彩色或者黑白的视频图像原始信息,原始信息即为未经压缩的数据。以T为时间点,连续取n帧,(n=0,1,2,3……的整数),对上述n帧的视频图像分别进行单独的特征提取,并与正常动作特征库中的正常特征进行匹配,得出匹配率。对n帧的视频图像的匹配率计算均值,得出平均匹配率,若平均匹配率处于阈值50%~100%之间,优选为80%~85%,则判断所述演艺人员在所述n帧视频图像中没有做出不雅动作,为正常动作。否则,若平均匹配率处于所述阈值之外,判断所述演艺人员做出不雅动作。其中,在取帧开始的阶段,n取值可以较小,如n为2或3,对该视频进行细致的甄别,当视频甄别过半未出现不雅动作,则可以将n值放大。在本实施例中,n取值为5。
步骤3、对直播视频进行处理:若是正常动作,则将T时刻的帧输入到视频编码器中进行编码,并以n+1帧出现的时间为下一个时间点,再次连续取n帧,即n+1到2n帧,重复步骤2。若是不雅动作,从该T时刻开始的所有视频图像将不被输入到视频编码器中进行编码,通过计算机对摄像头发出中断视频录制过程的指令,结束录制过程,并输出不雅动作视频结果。
本发明所涉及的方法与现有方法相比,是一种逆向处理模式,传统方法需针对不良动作建立特征库,其库庞大,不利于实际使用。本发明建立的是正常动作特征库,规模相对小很多,简化了运算。而且其在现有的在线系统与离线系统中寻找平衡点,在不增加运算量的基础上,提升处理的效率和速度,处理情况增加并且运算简便,能够实现在实际使用中的全面的监管。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种对互联网视频直播中的不雅动作过滤的方法,其特征在于,包括如下步骤:
步骤1、建立正常动作特征库:录制演艺人员的正常动作视频,并将其分解为色彩分量,对各个所述色彩分量所对应的灰度图进行深度学习,建立正常动作特征库;
步骤2、甄别不雅动作视频:获取直播过程中演艺人员动作的视频图像原始信息,并对其进行直播动作特征提取,将所述直播动作特征与所述正常动作特征库中的正常动作特征进行匹配,得出匹配率,根据匹配率判断是否为不雅动作视频;
步骤3、对直播视频进行处理:若甄别为正常动作视频,则将所述正常动作视频进行编码播出,再次执行步骤2;否则中断视频录制,输出不雅动作视频结果。
2.根据权利要求1所述的对互联网视频直播中的不雅动作过滤的方法,其特征在于,步骤1具体为:
对当前直播间的演艺人员录制不低于30分钟的正常动作视频,所述演艺人员完成坐姿、站姿和舞蹈动作;
将录制的所述正常动作视频内容分解为YUV色彩分量,并对各个所述YUV色彩分量所对应的灰度图进行深度学习,建立出所述正常动作特征库。
3.根据权利要求2所述的对互联网视频直播中的不雅动作过滤的方法,其特征在于,所述正常动作视频分辨率不低于320*240像素,帧率不低于10帧/秒。
4.根据权利要求2所述的对互联网视频直播中的不雅动作过滤的方法,其特征在于,步骤1中录制所述正常动作视频时,室内灯光为普通照明,其平均照度在50~300流明之间。
5.根据权利要求2所述的对互联网视频直播中的不雅动作过滤的方法,其特征在于,所述正常动作特征库中包括所述正常动作特征的色彩、亮度、边缘,并且所述正常动作特征的维度不小于1000维。
6.根据权利要求1所述的对互联网视频直播中的不雅动作过滤的方法,其特征在于,步骤2具体为:
对直播间开播过程中演艺人员的演艺动作进行视频捕获,获取视频图像原始信息;
以T为时间点,连续取n帧,对n帧视频图像分别进行单独的直播动作特征提取,并与所述正常动作特征库中的正常特征进行匹配,得出匹配率;
对所述n帧的视频图像的所述匹配率计算均值,得出平均匹配率,若所述平均匹配率处于在阈值50%~100%之间,则判断所述演艺人员在所述n帧视频图像中没有做出不雅动作,为正常动作;否则,若所述平均匹配率处于所述阈值之外,判断所述演艺人员做出不雅动作;
其中,n=0,1,2,3……的整数。
7.根据权利要求6所述的对互联网视频直播中的不雅动作过滤的方法,其特征在于,步骤3具体为:若是正常动作,则将T时刻的帧输入到视频编码器中进行编码,并以n+1帧出现的时间为下一个时间点,再次连续取n帧,重复步骤2,若是不雅动作,则中断录制过程,输出不雅动作视频结果。
8.根据权利要求7所述的对互联网视频直播中的不雅动作过滤的方法,其特征在于,所述n取值为5。
9.根据权利要求6所述的对互联网视频直播中的不雅动作过滤的方法,其特征在于,所述阈值为80%~85%。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610406742.3A CN106060653A (zh) | 2016-06-08 | 2016-06-08 | 一种对互联网视频直播中的不雅动作过滤的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610406742.3A CN106060653A (zh) | 2016-06-08 | 2016-06-08 | 一种对互联网视频直播中的不雅动作过滤的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106060653A true CN106060653A (zh) | 2016-10-26 |
Family
ID=57171209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610406742.3A Pending CN106060653A (zh) | 2016-06-08 | 2016-06-08 | 一种对互联网视频直播中的不雅动作过滤的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106060653A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830206A (zh) * | 2018-06-06 | 2018-11-16 | 成都邑教云信息技术有限公司 | 一种课程轴互联网教育系统 |
CN110503460A (zh) * | 2019-07-26 | 2019-11-26 | 秒针信息技术有限公司 | 广告监测方法,装置,系统,电子设备及存储介质 |
CN111523399A (zh) * | 2020-03-31 | 2020-08-11 | 易视腾科技股份有限公司 | 敏感视频检测及装置 |
CN112672095A (zh) * | 2020-12-25 | 2021-04-16 | 联通在线信息科技有限公司 | 远程会议系统 |
CN113347381A (zh) * | 2021-05-24 | 2021-09-03 | 随锐科技集团股份有限公司 | 预测不雅举止轨迹的方法及系统 |
CN113570728A (zh) * | 2021-07-02 | 2021-10-29 | 游艺星际(北京)科技有限公司 | 风险处理方法及装置 |
WO2022262719A1 (zh) * | 2021-06-15 | 2022-12-22 | 北京沃东天骏信息技术有限公司 | 一种直播处理方法、装置、存储介质及电子设备 |
CN116055684A (zh) * | 2023-01-18 | 2023-05-02 | 訸和文化科技(苏州)有限公司 | 基于画面监控的在线体育教学系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101271527A (zh) * | 2008-02-25 | 2008-09-24 | 北京理工大学 | 一种基于运动场局部统计特征分析的异常行为检测方法 |
US20090328093A1 (en) * | 2008-06-30 | 2009-12-31 | At&T Intellectual Property I, L.P. | Multimedia Content Filtering |
CN102073676A (zh) * | 2010-11-30 | 2011-05-25 | 中国科学院计算技术研究所 | 一种网络色情视频实时检测方法和系统 |
CN102377684A (zh) * | 2010-08-11 | 2012-03-14 | 腾讯科技(深圳)有限公司 | 一种自动阻断色情视频文件传输的方法、终端和系统 |
CN102567738A (zh) * | 2012-01-06 | 2012-07-11 | 华南理工大学 | 基于高斯分布的色情视频快速检测方法 |
CN104182735A (zh) * | 2014-08-18 | 2014-12-03 | 厦门美图之家科技有限公司 | 训练优化的基于卷积神经网络的色情图像或视频检测方法 |
-
2016
- 2016-06-08 CN CN201610406742.3A patent/CN106060653A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101271527A (zh) * | 2008-02-25 | 2008-09-24 | 北京理工大学 | 一种基于运动场局部统计特征分析的异常行为检测方法 |
US20090328093A1 (en) * | 2008-06-30 | 2009-12-31 | At&T Intellectual Property I, L.P. | Multimedia Content Filtering |
CN102377684A (zh) * | 2010-08-11 | 2012-03-14 | 腾讯科技(深圳)有限公司 | 一种自动阻断色情视频文件传输的方法、终端和系统 |
CN102073676A (zh) * | 2010-11-30 | 2011-05-25 | 中国科学院计算技术研究所 | 一种网络色情视频实时检测方法和系统 |
CN102567738A (zh) * | 2012-01-06 | 2012-07-11 | 华南理工大学 | 基于高斯分布的色情视频快速检测方法 |
CN104182735A (zh) * | 2014-08-18 | 2014-12-03 | 厦门美图之家科技有限公司 | 训练优化的基于卷积神经网络的色情图像或视频检测方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830206A (zh) * | 2018-06-06 | 2018-11-16 | 成都邑教云信息技术有限公司 | 一种课程轴互联网教育系统 |
CN110503460A (zh) * | 2019-07-26 | 2019-11-26 | 秒针信息技术有限公司 | 广告监测方法,装置,系统,电子设备及存储介质 |
CN111523399A (zh) * | 2020-03-31 | 2020-08-11 | 易视腾科技股份有限公司 | 敏感视频检测及装置 |
CN112672095A (zh) * | 2020-12-25 | 2021-04-16 | 联通在线信息科技有限公司 | 远程会议系统 |
CN112672095B (zh) * | 2020-12-25 | 2022-10-25 | 联通在线信息科技有限公司 | 远程会议系统 |
CN113347381A (zh) * | 2021-05-24 | 2021-09-03 | 随锐科技集团股份有限公司 | 预测不雅举止轨迹的方法及系统 |
CN113347381B (zh) * | 2021-05-24 | 2022-09-02 | 随锐科技集团股份有限公司 | 预测不雅举止轨迹的方法及系统 |
WO2022262719A1 (zh) * | 2021-06-15 | 2022-12-22 | 北京沃东天骏信息技术有限公司 | 一种直播处理方法、装置、存储介质及电子设备 |
CN113570728A (zh) * | 2021-07-02 | 2021-10-29 | 游艺星际(北京)科技有限公司 | 风险处理方法及装置 |
CN116055684A (zh) * | 2023-01-18 | 2023-05-02 | 訸和文化科技(苏州)有限公司 | 基于画面监控的在线体育教学系统 |
CN116055684B (zh) * | 2023-01-18 | 2023-12-12 | 广州乐体科技有限公司 | 基于画面监控的在线体育教学系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106060653A (zh) | 一种对互联网视频直播中的不雅动作过滤的方法 | |
US20220309789A1 (en) | Cover image determining method and apparatus, and device | |
CN111383201B (zh) | 基于场景的图像处理方法、装置、智能终端及存储介质 | |
CN108830252A (zh) | 一种融合全局时空特征的卷积神经网络人体动作识别方法 | |
CN111026914A (zh) | 视频摘要模型的训练方法、视频摘要生成方法及装置 | |
CN103440674B (zh) | 一种数字图像蜡笔特效的快速生成方法 | |
CN111402145B (zh) | 一种基于深度学习的自监督低照度图像增强方法 | |
CN107945255A (zh) | 一种虚拟人物表情驱动方法及系统 | |
CN111612722B (zh) | 基于简化Unet全卷积神经网络的低照度图像处理方法 | |
CN105488769B (zh) | 一种实时视频去雾方法 | |
US20240054711A1 (en) | Method for Audio-Driven Character Lip Sync, Model for Audio-Driven Character Lip Sync and Training Method Therefor | |
CN115776750A (zh) | 灯效控制方法、装置、产品、介质及灯效控制设备 | |
CN109741408A (zh) | 一种图像及视频漫画效果实时渲染方法 | |
CN114862698A (zh) | 一种基于通道引导的真实过曝光图像校正方法与装置 | |
CN108711160A (zh) | 一种基于hsi增强性模型的目标分割方法 | |
CN107862734A (zh) | 一种基于生成对抗网络的渲染图像光照方法 | |
US12011661B1 (en) | Game lighting-effect control method, device, equipment, and storage medium | |
CN113643202A (zh) | 一种基于噪声注意力图指导的微光图像增强方法 | |
CN116664603B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN112200008A (zh) | 一种社区监控场景下人脸属性识别方法 | |
Lew et al. | A hand segmentation scheme using clustering technique in homogeneous background | |
CN107680050A (zh) | 一种用于amoled驱动的色彩还原方法 | |
CN112307895A (zh) | 一种社区监控场景下人群聚集异常行为检测方法 | |
WO2023001110A1 (zh) | 神经网络训练方法、装置及电子设备 | |
CN116579940A (zh) | 一种基于卷积神经网络的实时低照度图像增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20161026 |
|
RJ01 | Rejection of invention patent application after publication |