CN109040824B - 视频处理方法、装置、电子设备和可读存储介质 - Google Patents

视频处理方法、装置、电子设备和可读存储介质 Download PDF

Info

Publication number
CN109040824B
CN109040824B CN201810985328.1A CN201810985328A CN109040824B CN 109040824 B CN109040824 B CN 109040824B CN 201810985328 A CN201810985328 A CN 201810985328A CN 109040824 B CN109040824 B CN 109040824B
Authority
CN
China
Prior art keywords
image
sensitive
video
occlusion
video frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810985328.1A
Other languages
English (en)
Other versions
CN109040824A (zh
Inventor
姚淼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201810985328.1A priority Critical patent/CN109040824B/zh
Publication of CN109040824A publication Critical patent/CN109040824A/zh
Application granted granted Critical
Publication of CN109040824B publication Critical patent/CN109040824B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements

Abstract

本发明提供一种视频处理方法、装置、电子设备和可读存储介质,通过在待播放的视频信息中,获取包含有敏感类图像的敏感视频帧,实现对敏感信息的定位;在所述敏感视频帧中,获取所述敏感类图像的轮廓区域;将现实增强AR遮挡图像叠加在所述敏感视频帧的所述轮廓区域中,得到所述敏感类图像被遮挡的遮挡帧,实现对敏感类图像的遮挡;根据所述视频信息和所述遮挡帧,得到处理后的视频信息,从而实现对待播放视频中对涉及敏感信息的图像进行识别,并针对每一帧中敏感类图像进行动态遮挡,进而提高了对各种不良视频处理的可靠性。

Description

视频处理方法、装置、电子设备和可读存储介质
技术领域
本发明涉及图像处理技术领域,尤其涉及一种视频处理方法、装置、电子设备和可读存储介质。
背景技术
随着互联网直播的发展,直播行业的高关注度与高收入衍生出了大量主播以色情、衣着暴露、血腥恐怖等不良视频博取眼球的行为。此类直播的用户往往包含许多青少年或者儿童,会对青少年或儿童身心健康造成损坏,但这种视频实时性较强,在监管上有很大的难度。
现有的对于直播平台的管制方法或手段多为人工干预和审核,例如黄反机构对各类视频直播平台的内容进行人工抽检或用户举报,发现不符合规范的视频则禁播。
然而,直播类视频通常没有备份文件,现有的处理方式需要人工实时观看直播视频检查,随着直播业务的迅猛发展,直播类视频数量极大,依靠人工检查容易漏检,处理可靠性不高。
发明内容
本发明提供一种视频处理方法、装置、电子设备和可读存储介质,提高了对各种不良视频处理的可靠性。
根据本发明的第一方面,提供一种视频处理方法,包括:
在待播放的视频信息中,获取包含有敏感类图像的敏感视频帧;
在所述敏感视频帧中,获取所述敏感类图像的轮廓区域;
将现实增强AR遮挡图像叠加在所述敏感视频帧的所述轮廓区域中,得到所述敏感类图像被遮挡的遮挡帧;
根据所述视频信息和所述遮挡帧,得到处理后的视频信息。
可选地,在第一方面的一种可能实现方式中,在所述将现实增强AR遮挡图像叠加在所述敏感视频帧的所述轮廓区域中,得到所述敏感类图像被遮挡的遮挡帧之前,还包括:
根据所述敏感类图像对应的物体类型,获取与所述物体类型匹配的AR遮挡图像。
可选地,在第一方面的另一种可能实现方式中,所述获取与所述物体类型匹配的AR遮挡图像,包括:
在预设的AR图像集合中,获取与所述敏感类图像对应的物体类型一致的AR图像;
对所述AR图像进行处理,获得外边界形状与所述轮廓区域一致的AR遮挡图像。
可选地,在第一方面的再一种可能实现方式中,所述对所述AR图像进行处理,获得外边界形状与所述轮廓区域一致的AR遮挡图像,包括:
对所述AR图像进行放大、缩小和/或裁剪处理,获得外边界形状与所述轮廓区域一致的AR遮挡图像。
可选地,在第一方面的又一种可能实现方式中,所述在待播放的视频信息中,获取包含有敏感类图像的敏感视频帧,包括:
获取观看用户的遮挡等级;
在待播放的视频信息中,获取到与所述遮挡等级匹配的敏感视频帧,其中,所述敏感视频帧中包含有与所述遮挡等级匹配的敏感类图像。
可选地,在第一方面的又一种可能实现方式中,所述获取观看用户的遮挡等级,包括:
在确定获取到所述待播放的视频信息时,获取观看用户的人脸图像;
根据所述人脸图像,获得所述观看用户的遮挡等级。
可选地,在第一方面的又一种可能实现方式中,所述根据所述人脸图像,获得所述观看用户的遮挡等级,包括:
在预设的家人图像集合中,确定与所述人脸图像匹配的目标家人图像;
将所述目标家人图像对应的预设遮挡等级,确定为所述观看用户的遮挡等级。
可选地,在第一方面的又一种可能实现方式中,所述根据所述人脸图像,获得所述观看用户的遮挡等级,包括:
根据所述人脸图像,确定观众年龄;
将与所述观众年龄对应的遮挡等级,确定为所述观看用户的遮挡等级。
可选地,在第一方面的又一种可能实现方式中,所述在待播放的视频信息中,获取包含有敏感类图像的敏感视频帧,包括:
将待播放的视频信息解析,得到多个视频帧;
在所述多个视频帧中,获取至少一个敏感类图像;
将所述敏感类图像对应的视频帧,确定为敏感视频帧。
可选地,在第一方面的又一种可能实现方式中,所述在所述多个视频帧中,获取至少一个敏感类图像,包括:
对所述视频帧进行物体图像的语义分割,得到物体语义信息;
在所述多个视频帧对应的物体语义信息中,确定敏感类物体语义信息;
将所述敏感类物体语义信息对应的物体图像,确定为敏感类图像。
可选地,在第一方面的又一种可能实现方式中,所述在所述多个视频帧中,获取至少一个敏感类图像,包括:
对所述视频帧进行文字图像的语义识别,得到文字语义信息;
在所述多个视频帧对应的文字语义信息中,确定敏感类文字语义信息;
获取覆盖敏感文字图像的最小矩形区域,并将所述最小矩形区域中的图像,确定为敏感类图像,其中,所述敏感文字图像为与所述敏感类文字语义信息相对应的文字图像。
根据本发明的第二方面,提供一种视频处理装置,包括:
敏感视频帧获取模块,用于在待播放的视频信息中,获取包含有敏感类图像的敏感视频帧;
轮廓确定模块,用于在所述敏感视频帧中,获取所述敏感类图像的轮廓区域;
AR遮挡模块,用于将现实增强AR遮挡图像叠加在所述敏感视频帧的所述轮廓区域中,得到所述敏感类图像被遮挡的遮挡帧;
视频合成模块,用于根据所述视频信息和所述遮挡帧,得到处理后的视频信息。
可选地,在第二方面的一种可能实现方式中,所述AR遮挡模块在所述将现实增强AR遮挡图像叠加在所述敏感视频帧的所述轮廓区域中,得到所述敏感类图像被遮挡的遮挡帧之前,还用于:
根据所述敏感类图像对应的物体类型,获取与所述物体类型匹配的AR遮挡图像。
可选地,在第二方面的另一种可能实现方式中,所述AR遮挡模块具体用于:
在预设的AR图像集合中,获取与所述敏感类图像对应的物体类型一致的AR图像;对所述AR图像进行处理,获得外边界形状与所述轮廓区域一致的AR遮挡图像。
可选地,在第二方面的再一种可能实现方式中,所述AR遮挡模块具体用于:
在预设的AR图像集合中,获取与所述敏感类图像对应的物体类型一致的AR图像;对所述AR图像进行放大、缩小和/或裁剪处理,获得外边界形状与所述轮廓区域一致的AR遮挡图像。
可选地,在第二方面的又一种可能实现方式中,所述敏感视频帧获取模块具体用于:
获取观看用户的遮挡等级;在待播放的视频信息中,获取到与所述遮挡等级匹配的敏感视频帧,其中,所述敏感视频帧中包含有与所述遮挡等级匹配的敏感类图像。
可选地,在第二方面的又一种可能实现方式中,所述敏感视频帧获取模块具体用于:
在确定获取到所述待播放的视频信息时,获取观看用户的人脸图像;根据所述人脸图像,获得所述观看用户的遮挡等级;在待播放的视频信息中,获取到与所述遮挡等级匹配的敏感视频帧,其中,所述敏感视频帧中包含有与所述遮挡等级匹配的敏感类图像。
可选地,在第二方面的又一种可能实现方式中,所述敏感视频帧获取模块具体用于:
在确定获取到所述待播放的视频信息时,获取观看用户的人脸图像;在预设的家人图像集合中,确定与所述人脸图像匹配的目标家人图像;将所述目标家人图像对应的预设遮挡等级,确定为所述观看用户的遮挡等级;在待播放的视频信息中,获取到与所述遮挡等级匹配的敏感视频帧,其中,所述敏感视频帧中包含有与所述遮挡等级匹配的敏感类图像。
可选地,在第二方面的又一种可能实现方式中,所述敏感视频帧获取模块具体用于:
在确定获取到所述待播放的视频信息时,获取观看用户的人脸图像;根据所述人脸图像,确定观众年龄;将与所述观众年龄对应的遮挡等级,确定为所述观看用户的遮挡等级;在待播放的视频信息中,获取到与所述遮挡等级匹配的敏感视频帧,其中,所述敏感视频帧中包含有与所述遮挡等级匹配的敏感类图像。
可选地,在第二方面的又一种可能实现方式中,所述敏感视频帧获取模块具体用于:
将待播放的视频信息解析,得到多个视频帧;在所述多个视频帧中,获取至少一个敏感类图像;将所述敏感类图像对应的视频帧,确定为敏感视频帧。
可选地,在第二方面的又一种可能实现方式中,所述敏感视频帧获取模块具体用于:
将待播放的视频信息解析,得到多个视频帧;对所述视频帧进行物体图像的语义分割,得到物体语义信息;在所述多个视频帧对应的物体语义信息中,确定敏感类物体语义信息;将所述敏感类物体语义信息对应的物体图像,确定为敏感类图像;将所述敏感类图像对应的视频帧,确定为敏感视频帧。
可选地,在第二方面的又一种可能实现方式中,所述敏感视频帧获取模块具体用于:
将待播放的视频信息解析,得到多个视频帧;对所述视频帧进行文字图像的语义识别,得到文字语义信息;在所述多个视频帧对应的文字语义信息中,确定敏感类文字语义信息;获取覆盖敏感文字图像的最小矩形区域,并将所述最小矩形区域中的图像,确定为敏感类图像,其中,所述敏感文字图像为与所述敏感类文字语义信息相对应的文字图像;将所述敏感类图像对应的视频帧,确定为敏感视频帧。
根据本发明的第三方面,提供一种电子设备,包括:存储器、处理器以及计算机程序,所述计算机程序存储在所述存储器中,所述处理器运行所述计算机程序执行本发明第一方面及第一方面各种可能设计的所述视频处理方法。
根据本发明的第四方面,提供一种可读存储介质,所述可读存储介质中存储有计算机程序,所述计算机程序被处理器执行时用于实现本发明第一方面及第一方面各种可能设计的所述视频处理方法。
本发明提供的一种视频处理方法、装置、电子设备和可读存储介质,通过在待播放的视频信息中,获取包含有敏感类图像的敏感视频帧,实现对敏感信息的定位;在所述敏感视频帧中,获取所述敏感类图像的轮廓区域;将现实增强AR遮挡图像叠加在所述敏感视频帧的所述轮廓区域中,得到所述敏感类图像被遮挡的遮挡帧,实现对敏感类图像的遮挡;根据所述视频信息和所述遮挡帧,得到处理后的视频信息,从而实现对待播放视频中对涉及敏感信息的图像进行识别,并针对每一帧中敏感类图像进行动态遮挡,进而提高了对各种不良视频处理的可靠性。
附图说明
图1是本发明实施例提供的一种应用场景示意图;
图2是本发明实施例提供的一种视频处理方法流程示意图;
图3是本发明实施例提供的一种遮挡帧示例;
图4是本发明实施例提供的另一种视频处理方法流程示意图;
图5是本发明实施例提供的一种视频处理装置结构示意图;
图6是本发明实施例提供的一种电子设备的硬件结构示意图;
图7是本发明实施例提供的图6所示电子设备的一种示例。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。
应当理解,在本发明的各种实施例中,各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
应当理解,在本发明中,“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本发明中,“多个”是指两个或两个以上。“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。“包含A、B和C”、“包含A、B、C”是指A、B、C三者都包含,“包含A、B或C”是指包含A、B、C三者之一,“包含A、B和/或C”是指包含A、B、C三者中任1个或任2个或3个。
应当理解,在本发明中,“与A对应的B”、“与A相对应的B”、“A与B相对应”或者“B与A相对应”,表示B与A相关联,根据A可以确定B。根据A确定B并不意味着仅仅根据A确定B,还可以根据A和/或其他信息确定B。
取决于语境,如在此所使用的“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。
下面以具体地实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
在本发明实施例中,视频帧是指构成视频的图片。视频可以看作是多个视频帧顺序构成的图片序列,视频的播放可以理解为是顺序显示该图片序列中的视频帧,由于视频帧的显示频率大于人眼可识别的数值范围,由此形成人眼看到的连续变化的视频画面。
参见图1,是本发明实施例提供的一种应用场景示意图。在图1所示的应用场景是直播场景下的视频处理,视频录制终端1对主播进行视频帧的录制,并实时地上传至直播网站的服务器2。服务器2将接收到的视频帧转发至至少一个观看客户端3。用户通过观看客户端3登录直播网站或应用程序观看视频帧对应的直播。服务器2将视频帧转发至观看客户端3的过程,可以是延时传送的转发过程,即是将视频帧缓存在服务器2中,达到一定缓存时间累积得到视频流文件,再传送给观看客户端3,因此观看客户端3得到的可以是与时间段对应的视频流文件。在上述直播场景中,本发明的视频处理方法可以是应用在视频录制终端1、服务器2和/或观看客户端3。
在一种实现方式中,可以是主要依靠视频录制终端1进行视频处理。例如,可以是在视频录制终端1配置用于视频处理的计算机程序和相关参数,视频录制终端1在拍摄到直播视频时就立即对视频进行处理,例如实时对淫秽图像和不良文字图案进行遮挡处理后再上传至服务器2,服务器2可以再进行其他实时审批后再转发给观看客户端3。
在另一种实现方式中,可以是主要依靠服务器2进行视频处理。例如,可以是服务器2接收到视频录制终端1上传的直播视频时对其进行实时的检查和本发明的视频处理,将处理后的视频信息发给观看客户端3,由于服务器2通常具有较为强大的数据处理能力和分析能力,且数据采集量大,因此集中处理的效率较高。
在再一种实现方式中,可以是主要依靠观看客户端3进行视频处理。例如观看客户端3在接收到服务器2转发的直播视频流后先存入缓存,然后针对缓存智能待播放的视频信息进行本发明的视频处理方法,最后得到处理后的视频信息向用户播放。
本发明中视频处理方法的各个步骤还可以是由视频录制终端、服务器和观看客户端三者分别或者联合执行的,例如在视频录制终端、服务器和观看客户端中都执行本发明下述实施例中的视频处理方法;也可以是本发明下述实施例中的视频处理方法中一部分步骤由视频录制终端实现、另一部分步骤由服务器实现,最后一部分步骤由观看客户端实现,本发明对视频处理方法的执行主体是单独个体还是分布式系统不进行限定。
参见图2,是本发明实施例提供的一种视频处理方法流程示意图,图2所示方法的执行主体可以是软件和/或硬件装置。图2所示方法主要包括步骤S101至步骤S104,具体如下:
S101,在待播放的视频信息中,获取包含有敏感类图像的敏感视频帧。
可以理解为,从缓存中获取待播放的视频信息。视频信息可以理解为是断点播放的视频流文件,即完整视频文件的一部分,也可以理解为是完整视频。待播放的视频信息可以理解为是直播场景中任一环节的视频信息。敏感视频帧可以理解为是图片,获取敏感视频帧的方式可以是以图片识别和图片分类的方式获取的。例如对视频信息的每一视频帧用图像分类算法(例如Deep CNNs算法)或物体检测算法(例如Fast RCNN算法,或Faster RCNN算法)进行基于图像的图片分类,得到各视频帧是合格类还是敏感类,敏感类的视频帧作为敏感视频帧。又例如对视频信息的每一视频帧用语义分割算法(例如FCN算法)或实例分割算法(例如Mask RCNN算法)进行基于像素点的图片分类,得到各视频帧是合格类还是敏感类,敏感类的视频帧作为敏感视频帧,并且对敏感视频帧中敏感类图像的位置进行识别。
可选地,视频信息可以看成是由多个视频帧组成的,可以先将待播放的视频信息解析,得到多个视频帧。然后在所述多个视频帧中,获取至少一个敏感类图像。最后将所述敏感类图像对应的视频帧,确定为敏感视频帧。其中,在所述多个视频帧中,获取至少一个敏感类图像的实现方式可以有多种,以下通过两种可选的实现方式进行举例说明。
在一种可选的实现方式中,在检测到物体图像的情况下,可以对所述视频帧进行物体图像的语义分割,得到物体语义信息。在所述多个视频帧对应的物体语义信息中,确定敏感类物体语义信息。例如,语义分割得到车辆、流血的伤口、狰狞的尸体和雕塑,则将流血的伤口和狰狞的尸体确定为敏感类物体语义信息。再将所述敏感类物体语义信息对应的物体图像,确定为敏感类图像。例如流血的伤口和狰狞的尸体对应的图像作为为敏感类图像。
在另一种可选的实现方式中,在检测到文字图像的情况下,对所述视频帧进行文字图像的语义识别,得到文字语义信息。在所述多个视频帧对应的文字语义信息中,确定敏感类文字语义信息。例如是宣言邪教或反人类思想的文字标语。然后获取覆盖敏感文字图像的最小矩形区域,并将所述最小矩形区域中的图像,确定为敏感类图像,其中,所述敏感文字图像为与所述敏感类文字语义信息相对应的文字图像。例如检测到一行宣言邪教的文字标语,其中包含12个中文字符,则将这12个中文字符所在的方形区域作为敏感类图像。在后续步骤中,则相应地用12个小方块AR图像作为对应的AR遮挡图像。
在各种实现方式中,还可以是由外部设备对视频信息中敏感视频帧进行标记,执行主体根据标记确定包含有敏感类图像的敏感视频帧。例如直播网站的服务器将从视频录制终端接收到的视频信息先发送给审核机构的审查服务器,由审查服务器对视频信息中的敏感视频帧进行识别和标记。审查服务器将标记视频信息传回直播网站的夫服务器,以使得直播网站的服务器在标记视频的基础上继续进行视频处理流程,从而减轻直播网站的服务器的运算负荷。
S102,在所述敏感视频帧中,获取所述敏感类图像的轮廓区域。
具体地,轮廓区域可以理解为敏感视频帧上显示敏感类图像的像素点所在位置区域。
可以理解为在敏感视频帧中可能包含有一个或多个敏感类图像,在确定敏感视频帧的过程中可能只是对视频帧是否是敏感帧进行分类,而没有对敏感帧中敏感类图像的信息进行获取,本步骤中可以是以图片分类中语义分割算法(例如FCN算法)或实例分割算法(例如Mask RCNN算法)对敏感类图像进行基于像素点的分割,从而得到敏感类图像的轮廓区域。其中,得到的所述敏感类图像的轮廓区域,可以是对不同敏感类图像进行区别的轮廓区域(例如暴露身体的人像与刀械图像区分为不同类别的敏感类图像),也可以是对不同敏感类图像不进行区别的轮廓区域(例如暴露身体的人像与刀械图像不进行区别,都只识别为敏感类图像)。
也可以理解为,在确定敏感视频帧的过程中已经得到了敏感类图像的像素区域,本步骤中则可以将上一步中作为中间数据的敏感类图像的像素区域作为敏感类图像的轮廓区域。
S103,将现实增强AR遮挡图像叠加在所述敏感视频帧的所述轮廓区域中,得到所述敏感类图像被遮挡的遮挡帧。
可以理解为,先获取AR遮挡图像,再将AR遮挡图像叠加在所述敏感视频帧的所述轮廓区域中,使得AR遮挡图像与所述敏感视频帧合成得到敏感类图像被遮挡的遮挡帧。AR遮挡图像可以是具有立体显示效果的图像,也可以是与所述轮廓区域附近图像相匹配的图像,使得AR遮挡图像与敏感视频帧的所述轮廓区域周围图像区域相融合,不显得过于突兀。参见图3,是本发明实施例提供的一种遮挡帧示例。图3中敏感类图像为胸部暴露的人像,那么以西装图像或礼服图像作为AR遮挡图像叠加在胸部暴露图像的轮廓区域上,最后得到穿西装或穿礼服人像效果的遮挡帧。
获取AR遮挡图像的方式可以有多种,在一种可选的实现方式中,可以是根据所述敏感类图像对应的物体类型,获取与所述物体类型匹配的AR遮挡图像。
与所述物体类型匹配的AR遮挡图像,可以理解为是AR遮挡图像的类型与所述物体类型具有相对应关系。例如图3中对敏感类图像分类,得到其物体类型为衣着暴露类型,而衣着暴露类型的敏感类图像与人像穿衣类型的AR遮挡图像相对应。然后可以在预存储的图片库里或者在网络数据中,搜索人像穿衣类型的图像作为AR遮挡图像。其中,还可以是获取到与所述物体类型匹配的图像集合,再在该图像集合中选择确定出AR遮挡图像。例如图3所示示例中,可以是根据人像穿衣类型搜索到西装图像和礼服图像,然后在其中随机或者是根据所述敏感帧中除了敏感类图像以外的图像信息(例如人脸为女子人脸)来,将礼服图像作为AR遮挡图像。
与所述物体类型匹配的AR遮挡图像也可以理解为类型一致。所述获取与所述物体类型匹配的AR遮挡图像的过程,具体可以是:先在预设的AR图像集合中,获取与所述敏感类图像对应的物体类型一致的AR图像;然后对所述AR图像进行处理(例如放大、缩小和/或裁剪处理),获得外边界形状与所述轮廓区域一致的AR遮挡图像。例如获取到的AR图像是穿礼服的女子图像,显然该AR图像还包含有人脸区域,但图3所示示例中需要遮挡的敏感类图像可能只是人脸以下的区域,因此需要将获取AR图像进行裁剪至只剩余礼服区域图像,最后将礼服区域图像进行缩放,以使最后获得的礼服图像大小与要遮挡的轮廓区域大小一致。又例如,在一些电视节目中,少量出现出现血腥场景,敏感类图像可以是例如流血伤口、恐怖怪物等图片,通过将与敏感类图像的轮廓区域匹配的AR遮挡图像叠加在轮廓区域中,可以避免观看用户看到例如流血伤口、人体器官等图片的同时,最大程度保留电视剧的情节内容,实现保留整体视频播放效果的同时保护儿童青少年用户的身心健康。通过获取外边界形状与所述轮廓区域一致的AR遮挡图像,可以完全遮挡敏感类图像,并且减少对非敏感类图像区域的误遮挡,提高遮挡的可靠性。
S104,根据所述视频信息和所述遮挡帧,得到处理后的视频信息。
可以理解为,在视频信息中,将每个敏感视频帧用其对应得到的遮挡帧替换掉,得到处理后的视频信息。
本实施例提供的视频处理方法,通过在待播放的视频信息中,获取包含有敏感类图像的敏感视频帧,实现对敏感信息的定位;在所述敏感视频帧中,获取所述敏感类图像的轮廓区域;将现实增强AR遮挡图像叠加在所述敏感视频帧的所述轮廓区域中,得到所述敏感类图像被遮挡的遮挡帧,实现对敏感类图像的遮挡;根据所述视频信息和所述遮挡帧,得到处理后的视频信息,从而实现对待播放视频中对涉及敏感信息的图像进行识别,并针对每一帧中敏感类图像进行动态遮挡,进而提高了对各种不良视频处理的可靠性。
在上述实施例的基础上,步骤S101(在待播放的视频信息中,获取包含有敏感类图像的敏感视频帧)的实现方式可以有多种,在一种可选的实现方式中,可以是获取与观看用户的遮挡等级相匹配的敏感视频帧。参见图4,是本发明实施例提供的另一种视频处理方法流程示意图。为了更加清楚地对本发明的各种可选实现方式进行描述,下面结合图4和具体实施例对步骤S101在待播放的视频信息中,获取包含有敏感类图像的敏感视频帧)的过程进行举例说明。图4所示方法主要包括步骤S201至步骤S205,具体如下:
S201,获取观看用户的遮挡等级。
可以理解为每个观看用户都可以对应到一个遮挡等级。遮挡等级的作用可以理解为不同敏感程度的敏感类图像对于不同年龄用户或者不同承受能力用户的影响不同,例如手臂伤口流血、狰狞的尸体等惊悚图像,对于成人和儿童应该具有不同的遮挡效果:对于成人可能只需要对狰狞的尸体进行遮挡,而对手臂伤口流血的图像可以不用遮挡;而对于儿童却应当对手臂伤口流血、狰狞的尸体都进行遮挡。因此需要先获取到观看用户的遮挡等级,该等级可以是预先设定的,也可以是根据采集的数据生成的。
在一种可选的实现方式中,可以是在用户的用户信息中预设有该用户的遮挡等级,直接从用户信息中获取观看用户的遮挡等级。用户信息预设方式可以是根据用户浏览记录、使用习惯等确定的(例如根据其浏览的多是儿童读物、动画片、儿童游戏可以确定该用户为儿童,遮挡等级对应对所有敏感类图像都遮挡),也可以是用户自己设置的(例如用户在自己用户信息中设置为心理承受能力较差的用户群或者是心脏病患者,则会自动分配为对所有敏感类图像都遮挡的遮挡等级),还可以由该观看用户的监管用户设置的(例如家长角色对子女角色用户进行高级遮挡等级配置,子女以自己账号登录观看视频时则应用该高级遮挡等级配置)。
在另一种可选的实现方式中,可以是在确定获取到所述待播放的视频信息时,获取观看用户的人脸图像;然后根据所述人脸图像,获得所述观看用户的遮挡等级。具体地,根据人脸图像获得遮挡等级的实现方式可以有多种,以下用两种可选的实现方式进行举例。
根据人脸图像获得遮挡等级的一种可选实现方式,可以是预设有家人图像集合,然后在预设的家人图像集合中,确定与所述人脸图像匹配的目标家人图像;再将所述目标家人图像对应的预设遮挡等级,确定为所述观看用户的遮挡等级。例如家庭成员包括爸爸、妈妈、成年大女儿、未成年小女儿,每一位家庭成员预先在家人信息库中录入了人脸信息和对应的遮挡等级,家中手机、电视机(连有摄像头)、电脑都预存有该家人信息库。某位家庭成员打开自己手机观看视频时,手机自动采集当前观看用户的人脸,将其与家人信息库中人脸进行比对,得到当前观看用户是哪一位家庭成员。例如得到是爸爸在观看视频,则获取爸爸的遮挡等级为低级遮挡,即仅对最血腥图像和完全暴露图像进行遮挡。又例如得到的是未成年小女儿在观看视频,则获取未成年小女儿的遮挡等级为高级遮挡,即对所有程度的敏感类图像进行遮挡。由于家人成员有限,根据预先录入的家人图像集合可以准确识别当前观看用户是哪一位家人,获取到准确的遮挡等级。
根据人脸图像获得遮挡等级的另一种可选实现方式,可以是根据所述人脸图像,确定观众年龄;将与所述观众年龄对应的遮挡等级,确定为所述观看用户的遮挡等级。例如根据人脸与年龄的大数据进行建模,得到训练好的年龄识别模型。再将年龄识别模型对获取到的人脸图像进行年龄识别,得到观众年龄。可以预先设置不同年龄段对应的遮挡等级,例如对18岁以下预设为高级遮挡等级(遮挡所有血腥程度的敏感类图像);对18至50岁预设为低级遮挡等级(仅遮挡血腥恐怖程度最高的敏感类图像);对50岁以上预设为中级遮挡等级(遮挡血腥恐怖程度较高和最高的敏感类图像)。根据获得的观众年龄属于哪个年龄段,得到对应的遮挡等级。通过对观看用户年龄的识别,以及针对年龄的不同遮挡等级设置,提高了对特定年龄层次用户群的保护可靠性。
S202,在待播放的视频信息中,获取到与所述遮挡等级匹配的敏感视频帧。
其中,所述敏感视频帧中包含有与所述遮挡等级匹配的敏感类图像。可以理解为,先获取到所有敏感类图像,并对这些敏感类图像进行敏感程度的分级,每一个敏感程度对应一个遮挡等级。其中,例如将敏感类图像的敏感程度作为其分类,可以用图片分类算法实现敏感程度的分级。根据不同的遮挡等级确定要遮挡的敏感类图像。
S203,在所述敏感视频帧中,获取所述敏感类图像的轮廓区域;
S204,将现实增强AR遮挡图像叠加在所述敏感视频帧的所述轮廓区域中,得到所述敏感类图像被遮挡的遮挡帧;
S205,根据所述视频信息和所述遮挡帧,得到处理后的视频信息。
上述步骤S203至S205的具体实现方式,可以参见图2所示实施例中步骤S102至S104的详细描述,其实现原理和技术效果类似,此处不再赘述。
本实施例通过获取观看用户的遮挡等级,确定与所述遮挡等级匹配的敏感视频帧,在此基础上得到的处理后的视频信息,相同视频源对不同用户看到的遮挡程度可能不相同,提高了对用户针对性视频处理的灵活性,以适应不同用户的要求,提高了视频处理的准确性。
参见图5,是本发明实施例提供的一种视频处理装置结构示意图。如图5所示的视频处理装置50,主要包括:
敏感视频帧获取模块51,用于在待播放的视频信息中,获取包含有敏感类图像的敏感视频帧;
轮廓确定模块52,用于在所述敏感视频帧中,获取所述敏感类图像的轮廓区域;
AR遮挡模块53,用于将现实增强AR遮挡图像叠加在所述敏感视频帧的所述轮廓区域中,得到所述敏感类图像被遮挡的遮挡帧;
视频合成模块54,用于根据所述视频信息和所述遮挡帧,得到处理后的视频信息。
图5所示实施例的视频处理装置5对应地可用于执行图2所示方法实施例中的步骤,其实现原理和技术效果类似,此处不再赘述。
在上述实施例的基础上,所述AR遮挡模块53在所述将现实增强AR遮挡图像叠加在所述敏感视频帧的所述轮廓区域中,得到所述敏感类图像被遮挡的遮挡帧之前,还用于:
根据所述敏感类图像对应的物体类型,获取与所述物体类型匹配的AR遮挡图像。
在上述实施例的基础上,所述AR遮挡模块53具体用于:
在预设的AR图像集合中,获取与所述敏感类图像对应的物体类型一致的AR图像;对所述AR图像进行处理,获得外边界形状与所述轮廓区域一致的AR遮挡图像。
在上述实施例的基础上,所述AR遮挡模块53具体用于:
在预设的AR图像集合中,获取与所述敏感类图像对应的物体类型一致的AR图像;对所述AR图像进行放大、缩小和/或裁剪处理,获得外边界形状与所述轮廓区域一致的AR遮挡图像。
在上述实施例的基础上,所述敏感视频帧获取模块51具体用于:
获取观看用户的遮挡等级;在待播放的视频信息中,获取到与所述遮挡等级匹配的敏感视频帧,其中,所述敏感视频帧中包含有与所述遮挡等级匹配的敏感类图像。
在上述实施例的基础上,所述敏感视频帧获取模块51具体用于:
在确定获取到所述待播放的视频信息时,获取观看用户的人脸图像;根据所述人脸图像,获得所述观看用户的遮挡等级;在待播放的视频信息中,获取到与所述遮挡等级匹配的敏感视频帧,其中,所述敏感视频帧中包含有与所述遮挡等级匹配的敏感类图像。
在上述实施例的基础上,所述敏感视频帧获取模块51具体用于:
在确定获取到所述待播放的视频信息时,获取观看用户的人脸图像;在预设的家人图像集合中,确定与所述人脸图像匹配的目标家人图像;将所述目标家人图像对应的预设遮挡等级,确定为所述观看用户的遮挡等级;在待播放的视频信息中,获取到与所述遮挡等级匹配的敏感视频帧,其中,所述敏感视频帧中包含有与所述遮挡等级匹配的敏感类图像。
在上述实施例的基础上,所述敏感视频帧获取模块51具体用于:
在确定获取到所述待播放的视频信息时,获取观看用户的人脸图像;根据所述人脸图像,确定观众年龄;将与所述观众年龄对应的遮挡等级,确定为所述观看用户的遮挡等级;在待播放的视频信息中,获取到与所述遮挡等级匹配的敏感视频帧,其中,所述敏感视频帧中包含有与所述遮挡等级匹配的敏感类图像。
在上述实施例的基础上,所述敏感视频帧获取模块51具体用于:
将待播放的视频信息解析,得到多个视频帧;在所述多个视频帧中,获取至少一个敏感类图像;将所述敏感类图像对应的视频帧,确定为敏感视频帧。
在上述实施例的基础上,所述敏感视频帧获取模块51具体用于:
将待播放的视频信息解析,得到多个视频帧;对所述视频帧进行物体图像的语义分割,得到物体语义信息;在所述多个视频帧对应的物体语义信息中,确定敏感类物体语义信息;将所述敏感类物体语义信息对应的物体图像,确定为敏感类图像;将所述敏感类图像对应的视频帧,确定为敏感视频帧。
在上述实施例的基础上,所述敏感视频帧获取模块51具体用于:
将待播放的视频信息解析,得到多个视频帧;对所述视频帧进行文字图像的语义识别,得到文字语义信息;在所述多个视频帧对应的文字语义信息中,确定敏感类文字语义信息;获取覆盖敏感文字图像的最小矩形区域,并将所述最小矩形区域中的图像,确定为敏感类图像,其中,所述敏感文字图像为与所述敏感类文字语义信息相对应的文字图像;将所述敏感类图像对应的视频帧,确定为敏感视频帧。
参见图6,是本发明实施例提供的一种电子设备的硬件结构示意图,该电子设备60包括:处理器61、存储器62和计算机程序;其中
存储器62,用于存储所述计算机程序,该存储器还可以是闪存(flash)。所述计算机程序例如是实现上述方法的应用程序、功能模块等。
处理器61,用于执行所述存储器存储的计算机程序,以实现上述方法中的各个步骤。具体可以参见前面方法实施例中的相关描述。
可选地,存储器62既可以是独立的,也可以跟处理器61集成在一起。
当所述存储器62是独立于处理器61之外的器件时,所述电子设备60还可以包括:
总线63,用于连接所述存储器62和处理器61。
参见图7,是本发明实施例提供的图6所示电子设备的一种示例。在图6所示实施例的基础上,电子设备具体可以是如图7所示的终端设备800。例如终端设备800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图7,电子设备800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)接口812,传感器组件814,以及通信组件816。
处理组件802通常控制电子设备800的整体操作,诸如与显示、电话呼叫、数据通信、相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在电子设备800的操作。这些数据的示例包括用于在电子设备800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为电子设备800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为电子设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述电子设备800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当电子设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当电子设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为电子设备800提供各个方面的状态评估。例如,传感器组件814可以检测到电子设备800的打开/关闭状态,组件的相对定位,例如所述组件为电子设备800的显示器和小键盘,传感器组件814还可以检测电子设备800或电子设备800一个组件的位置改变,用户与电子设备800接触的存在或不存在,电子设备800方位或加速/减速和电子设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于电子设备800和其他设备之间有线或无线方式的通信。电子设备800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
本发明还提供一种可读存储介质,所述可读存储介质中存储有计算机程序,所述计算机程序被处理器执行时用于实现上述的各种实施方式提供的方法。
其中,可读存储介质可以是计算机存储介质,也可以是通信介质。通信介质包括便于从一个地方向另一个地方传送计算机程序的任何介质。计算机存储介质可以是通用或专用计算机能够存取的任何可用介质。例如,可读存储介质耦合至处理器,从而使处理器能够从该可读存储介质读取信息,且可向该可读存储介质写入信息。当然,可读存储介质也可以是处理器的组成部分。处理器和可读存储介质可以位于专用集成电路(ApplicationSpecific Integrated Circuits,简称:ASIC)中。另外,该ASIC可以位于用户设备中。当然,处理器和可读存储介质也可以作为分立组件存在于通信设备中。可读存储介质可以是只读存储器(ROM)、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本发明还提供一种程序产品,该程序产品包括执行指令,该执行指令存储在可读存储介质中。设备的至少一个处理器可以从可读存储介质读取该执行指令,至少一个处理器执行该执行指令使得设备实施上述的各种实施方式提供的方法。
在上述电子设备的实施例中,应理解,处理器可以是中央处理单元(英文:CentralProcessing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:DigitalSignal Processor,简称:DSP)、专用集成电路(英文:Application Specific IntegratedCircuit,简称:ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (14)

1.一种视频处理方法,其特征在于,包括:
在待播放的视频信息中,获取包含有敏感类图像的敏感视频帧;
在所述敏感视频帧中,获取所述敏感类图像的轮廓区域;
将现实增强AR遮挡图像叠加在所述敏感视频帧的所述轮廓区域中,得到所述敏感类图像被遮挡的遮挡帧;
根据所述视频信息和所述遮挡帧,得到处理后的视频信息;
在所述将现实增强AR遮挡图像叠加在所述敏感视频帧的所述轮廓区域中,得到所述敏感类图像被遮挡的遮挡帧之前,还包括:
根据所述敏感类图像对应的物体类型,获取与所述物体类型匹配的AR遮挡图像;
所述在待播放的视频信息中,获取包含有敏感类图像的敏感视频帧,包括:
在确定获取到所述待播放的视频信息时,获取观看用户的人脸图像;
在预设的家人图像集合中,确定与所述人脸图像匹配的目标家人图像;
将所述目标家人图像对应的预设遮挡等级,确定为所述观看用户的遮挡等级;
在待播放的视频信息中,获取到与所述遮挡等级匹配的敏感视频帧,其中,所述敏感视频帧中包含有与所述遮挡等级匹配的敏感类图像。
2.根据权利要求1所述的方法,其特征在于,所述获取与所述物体类型匹配的AR遮挡图像,包括:
在预设的AR图像集合中,获取与所述敏感类图像对应的物体类型一致的AR图像;
对所述AR图像进行处理,获得外边界形状与所述轮廓区域一致的AR遮挡图像。
3.根据权利要求2所述的方法,其特征在于,所述对所述AR图像进行处理,获得外边界形状与所述轮廓区域一致的AR遮挡图像,包括:
对所述AR图像进行放大、缩小和/或裁剪处理,获得外边界形状与所述轮廓区域一致的AR遮挡图像。
4.根据权利要求1所述的方法,其特征在于,所述在待播放的视频信息中,获取包含有敏感类图像的敏感视频帧,包括:
将待播放的视频信息解析,得到多个视频帧;
在所述多个视频帧中,获取至少一个敏感类图像;
将所述敏感类图像对应的视频帧,确定为敏感视频帧。
5.根据权利要求4所述的方法,其特征在于,所述在所述多个视频帧中,获取至少一个敏感类图像,包括:
对所述视频帧进行物体图像的语义分割,得到物体语义信息;
在所述多个视频帧对应的物体语义信息中,确定敏感类物体语义信息;
将所述敏感类物体语义信息对应的物体图像,确定为敏感类图像。
6.根据权利要求4所述的方法,其特征在于,所述在所述多个视频帧中,获取至少一个敏感类图像,包括:
对所述视频帧进行文字图像的语义识别,得到文字语义信息;
在所述多个视频帧对应的文字语义信息中,确定敏感类文字语义信息;
获取覆盖敏感文字图像的最小矩形区域,并将所述最小矩形区域中的图像,确定为敏感类图像,其中,所述敏感文字图像为与所述敏感类文字语义信息相对应的文字图像。
7.一种视频处理装置,其特征在于,包括:
敏感视频帧获取模块,用于在待播放的视频信息中,获取包含有敏感类图像的敏感视频帧;
轮廓确定模块,用于在所述敏感视频帧中,获取所述敏感类图像的轮廓区域;
AR遮挡模块,用于将现实增强AR遮挡图像叠加在所述敏感视频帧的所述轮廓区域中,得到所述敏感类图像被遮挡的遮挡帧;
视频合成模块,用于根据所述视频信息和所述遮挡帧,得到处理后的视频信息;
所述AR遮挡模块在所述将现实增强AR遮挡图像叠加在所述敏感视频帧的所述轮廓区域中,得到所述敏感类图像被遮挡的遮挡帧之前,还用于:
根据所述敏感类图像对应的物体类型,获取与所述物体类型匹配的AR遮挡图像;
所述敏感视频帧获取模块具体用于:
所述在待播放的视频信息中,获取包含有敏感类图像的敏感视频帧,包括:
在确定获取到所述待播放的视频信息时,获取观看用户的人脸图像;
在预设的家人图像集合中,确定与所述人脸图像匹配的目标家人图像;
将所述目标家人图像对应的预设遮挡等级,确定为所述观看用户的遮挡等级;
在待播放的视频信息中,获取到与所述遮挡等级匹配的敏感视频帧,其中,所述敏感视频帧中包含有与所述遮挡等级匹配的敏感类图像。
8.根据权利要求7所述的装置,其特征在于,所述AR遮挡模块具体用于:
在预设的AR图像集合中,获取与所述敏感类图像对应的物体类型一致的AR图像;对所述AR图像进行处理,获得外边界形状与所述轮廓区域一致的AR遮挡图像。
9.根据权利要求8所述的装置,其特征在于,所述AR遮挡模块具体用于:
在预设的AR图像集合中,获取与所述敏感类图像对应的物体类型一致的AR图像;对所述AR图像进行放大、缩小和/或裁剪处理,获得外边界形状与所述轮廓区域一致的AR遮挡图像。
10.根据权利要求7所述的装置,其特征在于,所述敏感视频帧获取模块具体用于:
将待播放的视频信息解析,得到多个视频帧;在所述多个视频帧中,获取至少一个敏感类图像;将所述敏感类图像对应的视频帧,确定为敏感视频帧。
11.根据权利要求10所述的装置,其特征在于,所述敏感视频帧获取模块具体用于:
将待播放的视频信息解析,得到多个视频帧;对所述视频帧进行物体图像的语义分割,得到物体语义信息;在所述多个视频帧对应的物体语义信息中,确定敏感类物体语义信息;将所述敏感类物体语义信息对应的物体图像,确定为敏感类图像;将所述敏感类图像对应的视频帧,确定为敏感视频帧。
12.根据权利要求10所述的装置,其特征在于,所述敏感视频帧获取模块具体用于:
将待播放的视频信息解析,得到多个视频帧;对所述视频帧进行文字图像的语义识别,得到文字语义信息;在所述多个视频帧对应的文字语义信息中,确定敏感类文字语义信息;获取覆盖敏感文字图像的最小矩形区域,并将所述最小矩形区域中的图像,确定为敏感类图像,其中,所述敏感文字图像为与所述敏感类文字语义信息相对应的文字图像;将所述敏感类图像对应的视频帧,确定为敏感视频帧。
13.一种电子设备,其特征在于,包括:存储器、处理器以及计算机程序,所述计算机程序存储在所述存储器中,所述处理器运行所述计算机程序执行如权利要求1至6任一所述的视频处理方法。
14.一种可读存储介质,其特征在于,所述可读存储介质中存储有计算机程序,所述计算机程序被处理器执行时用于实现如权利要求1至6任一所述的视频处理方法。
CN201810985328.1A 2018-08-28 2018-08-28 视频处理方法、装置、电子设备和可读存储介质 Active CN109040824B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810985328.1A CN109040824B (zh) 2018-08-28 2018-08-28 视频处理方法、装置、电子设备和可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810985328.1A CN109040824B (zh) 2018-08-28 2018-08-28 视频处理方法、装置、电子设备和可读存储介质

Publications (2)

Publication Number Publication Date
CN109040824A CN109040824A (zh) 2018-12-18
CN109040824B true CN109040824B (zh) 2020-07-28

Family

ID=64625439

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810985328.1A Active CN109040824B (zh) 2018-08-28 2018-08-28 视频处理方法、装置、电子设备和可读存储介质

Country Status (1)

Country Link
CN (1) CN109040824B (zh)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111353330A (zh) * 2018-12-20 2020-06-30 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质
CN111385512B (zh) * 2018-12-29 2022-11-01 杭州海康威视数字技术股份有限公司 视频数据处理方法和装置
CN109996109B (zh) * 2019-03-19 2021-12-17 北京奇艺世纪科技有限公司 一种图像处理方法和装置
CN110287363A (zh) * 2019-05-22 2019-09-27 深圳壹账通智能科技有限公司 基于深度学习的资源推送方法、装置、设备及存储介质
CN112015946B (zh) * 2019-05-30 2023-11-10 中国移动通信集团重庆有限公司 视频检测方法、装置、计算设备及计算机存储介质
CN112019879A (zh) * 2019-05-31 2020-12-01 阿里巴巴集团控股有限公司 视频处理方法、装置、计算设备及介质
CN110414596B (zh) * 2019-07-25 2023-09-26 腾讯科技(深圳)有限公司 视频处理、模型训练方法和装置、存储介质及电子装置
CN110769311A (zh) * 2019-10-09 2020-02-07 北京达佳互联信息技术有限公司 直播数据流的处理方法、装置及系统
CN110769275B (zh) * 2019-10-09 2022-04-08 北京达佳互联信息技术有限公司 直播数据流的处理方法、装置及系统
CN110708588B (zh) * 2019-10-17 2021-10-26 腾讯科技(深圳)有限公司 弹幕显示方法、装置、终端及存储介质
CN110798703A (zh) * 2019-11-04 2020-02-14 云目未来科技(北京)有限公司 视频违规内容检测的方法、装置以及存储介质
CN111131773B (zh) * 2019-12-16 2021-04-20 浙江信网真科技股份有限公司 一种收发端协同的内容处理方法及系统
CN111177667B (zh) * 2019-12-16 2021-08-10 浙江信网真科技股份有限公司 一种内容分区处理的权限控制方法及系统
CN111160352B (zh) * 2019-12-27 2023-04-07 创新奇智(北京)科技有限公司 一种基于图像分割的工件金属表面文字识别方法及系统
CN111222450B (zh) * 2020-01-02 2023-06-20 广州虎牙科技有限公司 模型的训练及其直播处理的方法、装置、设备和存储介质
CN111277853B (zh) * 2020-02-28 2023-09-08 腾讯科技(深圳)有限公司 直播信息的处理方法及装置
CN111985419B (zh) * 2020-08-25 2022-10-14 腾讯科技(深圳)有限公司 视频处理方法及相关设备
CN112598016A (zh) * 2020-09-17 2021-04-02 北京小米松果电子有限公司 图像分类方法及装置、通信设备及存储介质
CN112423090A (zh) * 2020-11-20 2021-02-26 广州欢网科技有限责任公司 视频水印自动遮盖方法、装置、设备和存储介质
CN112786219B (zh) * 2021-03-09 2024-03-19 中南大学 医疗护理管理方法、系统及装置
CN113190810A (zh) * 2021-04-30 2021-07-30 深圳沐奇科技有限公司 一种短视频发布用信息检测方法
CN115348461A (zh) * 2021-05-14 2022-11-15 广州视源电子科技股份有限公司 一种教学视频处理方法、装置、设备及存储介质
CN115484495A (zh) * 2021-06-16 2022-12-16 深圳Tcl新技术有限公司 一种内容显示方法、装置、电子设备和存储介质
CN113709519B (zh) * 2021-08-27 2023-11-17 上海掌门科技有限公司 一种用于确定直播遮挡区域的方法与设备
CN114268813A (zh) * 2021-12-31 2022-04-01 广州方硅信息技术有限公司 直播画面调整方法、装置及计算机设备
CN115225967A (zh) * 2022-06-24 2022-10-21 网易(杭州)网络有限公司 视频处理方法、装置、存储介质及计算机设备
CN115426507B (zh) * 2022-07-29 2023-12-05 宁波星巡智能科技有限公司 基于目标检测的隐私视频传输、播放方法、装置及设备
CN116664849B (zh) * 2023-05-18 2024-01-16 中关村科学城城市大脑股份有限公司 数据处理方法、装置、电子设备和计算机可读介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1508755A (zh) * 2002-12-17 2004-06-30 中国科学院自动化研究所 敏感视频检测方法
JP2012253483A (ja) * 2011-06-01 2012-12-20 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP6130841B2 (ja) * 2012-09-07 2017-05-17 日立マクセル株式会社 受信装置
CN105915995A (zh) * 2015-11-18 2016-08-31 乐视网信息技术(北京)股份有限公司 视频播放方法及装置
CN105491365A (zh) * 2015-11-25 2016-04-13 罗军 基于移动终端的图像处理方法、装置及系统
CN105574513B (zh) * 2015-12-22 2017-11-24 北京旷视科技有限公司 文字检测方法和装置
CN107291737B (zh) * 2016-04-01 2019-05-14 腾讯科技(深圳)有限公司 敏感图像识别方法及装置
CN108305317B (zh) * 2017-08-04 2020-03-17 腾讯科技(深圳)有限公司 一种图像处理方法、装置及存储介质
CN108154086B (zh) * 2017-12-06 2022-06-03 北京奇艺世纪科技有限公司 一种图像提取方法、装置及电子设备
CN108063979A (zh) * 2017-12-26 2018-05-22 深圳Tcl新技术有限公司 视频播放控制方法、装置及计算机可读存储介质

Also Published As

Publication number Publication date
CN109040824A (zh) 2018-12-18

Similar Documents

Publication Publication Date Title
CN109040824B (zh) 视频处理方法、装置、电子设备和可读存储介质
CN108965982B (zh) 视频录制方法、装置、电子设备和可读存储介质
CN109446876B (zh) 手语信息处理方法、装置、电子设备和可读存储介质
CN106792004B (zh) 内容项目推送方法、装置及系统
CN109168034A (zh) 商品信息显示方法、装置、电子设备和可读存储介质
CN110572711B (zh) 视频封面生成方法、装置、计算机设备及存储介质
CN109189986B (zh) 信息推荐方法、装置、电子设备和可读存储介质
US9953221B2 (en) Multimedia presentation method and apparatus
CN111753135B (zh) 视频展示方法、装置、终端、服务器、系统及存储介质
CN110572706B (zh) 视频截屏方法、终端及计算机可读存储介质
CN110798726A (zh) 弹幕显示方法、装置、电子设备及存储介质
CN111368127B (zh) 图像处理方法、装置、计算机设备及存储介质
WO2019071623A1 (zh) 一种拍摄方法以及电子装置
CN111556352B (zh) 多媒体资源分享方法、装置、电子设备及存储介质
KR20170019809A (ko) 비디오 컨텐츠 생성 방법 및 그 장치
CN109997171A (zh) 显示装置以及程序
CN114637890A (zh) 在图像画面中显示标签的方法、终端设备及存储介质
CN112422828B (zh) 图像处理方法、图像处理装置、电子设备和可读存储介质
CN114302160A (zh) 信息显示方法、装置、计算机设备及介质
CN113609358A (zh) 内容分享方法、装置、电子设备以及存储介质
CN110636363A (zh) 多媒体信息播放方法及装置、电子设备和存储介质
CN114189719B (zh) 视频信息提取方法、装置、电子设备及存储介质
CN116363725A (zh) 显示设备的人像追踪方法、系统、显示设备及存储介质
CN114051166B (zh) 在视频中植入广告的方法、装置、电子设备和存储介质
CN111539617B (zh) 数据处理方法和装置、电子设备、交互系统和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant