CN110868634A - 一种视频处理方法及电子设备 - Google Patents
一种视频处理方法及电子设备 Download PDFInfo
- Publication number
- CN110868634A CN110868634A CN201911184574.8A CN201911184574A CN110868634A CN 110868634 A CN110868634 A CN 110868634A CN 201911184574 A CN201911184574 A CN 201911184574A CN 110868634 A CN110868634 A CN 110868634A
- Authority
- CN
- China
- Prior art keywords
- video
- target
- target video
- light
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 31
- 238000000034 method Methods 0.000 claims abstract description 34
- 230000008921 facial expression Effects 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 12
- 238000012986 modification Methods 0.000 abstract description 9
- 230000004048 modification Effects 0.000 abstract description 9
- 238000004891 communication Methods 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 24
- 230000008569 process Effects 0.000 description 16
- 230000008451 emotion Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000001815 facial effect Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000007667 floating Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 3
- 230000001953 sensory effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000004301 light adaptation Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/443—OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本发明实施例提供一种视频处理方法及电子设备,应用于通信技术领域,以解决传统多媒体文件修改模式单一的问题。该方法包括:在目标视频播放的状态下,获取目标参数;根据目标参数,在目标视频中添加光线;其中,目标参数用于表征以下至少一项:目标视频的剧情内容,观看者观看目标视频的面部表情。该方法应用于视频播放场景中。
Description
技术领域
本发明实施例涉及通信技术领域,尤其涉及一种视频处理方法及电子设备。
背景技术
随着移动互联网和视频技术的不断发展,终端设备(例如,智能手机)的应用越来越广泛。例如,使用手机对照片进行美颜、修图逐渐成为很多用户日常生活中不可或缺的部分。尤其是女性用户,对美颜功能的使用尤其频繁。
传统技术中,终端设备可以使用其自带的图像修改功能或安装的第三方手机软件(application,APP)的图像修改功能,对照片进行修改,调整照片的色彩、对比度以及饱和度等参数,使得照片能够更加绚丽美观,满足了女性用户的使用需求。
然而,传统的多媒体文件修改功能通常只针对静态多媒体文件(如照片)进行修改,修改模式单一,不能满足用户越来越高的需求。
发明内容
本发明实施例提供一种视频处理方法及电子设备,以解决传统多媒体文件修改模式单一的问题。
为了解决上述技术问题,本申请是这样实现的:
第一方面,本发明实施例提供一种视频处理方法,该方法包括:在目标视频播放的状态下,获取目标参数;根据目标参数,在上述目标视频中添加光线;其中,上述目标参数用于表征以下至少一项:目标视频的剧情内容,观看者观看目标视频的面部表情。
第二方面,本发明实施例还提供了一种电子设备,该电子设备包括获取模块和处理模块;获取模块,用于在目标视频播放的状态下,获取目标视频的目标参数;处理模块,用于在获取模块获取到上述目标视频的目标参数后,根据目标参数,在目标视频中添加光线;其中,上述目标参数用于表征以下至少一项:目标视频的剧情内容,观看者观看目标视频的面部表情。
第三方面,本发明实施例提供了一种电子设备,包括处理器、存储器及存储在该存储器上并可在该处理器上运行的计算机程序,该计算机程序被该处理器执行时实现如第一方面所述的视频处理方法的步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储计算机程序,该计算机程序被处理器执行时实现如第一方面所述的视频处理方法的步骤。
在本发明实施例中,相比于传统技术中仅能对静态多媒体文件进行修改,本发明实施例中的电子设备可以在播放目标视频的过程中,基于该目标视频的剧情内容和/或观看者观看该目标视频时的面部表情,在目标视频中添加的光线,从而为多媒体文件修改提供了更多的修改可能,还可以在目标视频播放过程中,为用户提供更好的播放效果,提升用户观看体验。
附图说明
图1为本发明实施例提供的一种可能的安卓操作系统的架构示意图;
图2为本发明实施例提供的一种视频处理方法流程示意图;
图3为本发明实施例提供的视频处理方法应用的界面的示意图一;
图4为本发明实施例提供的视频处理方法应用的界面的示意图二;
图5为本发明实施例提供的电子设备的结构示意图一;
图6为本发明实施例提供的电子设备的结构示意图二。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本文中的“/”表示或的意思,例如,A/B可以表示A或B;本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。
需要说明的是,本文中的“多个”是指两个或多于两个。
需要说明的是,本发明实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本发明实施例中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
需要说明的是,为了便于清楚描述本发明实施例的技术方案,在本发明实施例中,采用了“第一”、“第二”等字样对功能或作用基本相同的相同项或相似项进行区分,本领域技术人员可以理解“第一”、“第二”等字样并不对数量和执行次序进行限定。例如,第一视频帧和第二视频帧,是用于区别不同的视频帧,而不是用于描述视频帧的特定顺序。
本发明实施例提供的视频处理方法的执行主体可以为上述的电子设备(包括移动终端设备和非移动终端设备),也可以为该电子设备中能够实现该视频处理方法的功能模块和/或功能实体,具体的可以根据实际使用需求确定,本发明实施例不作限定。下面以电子设备为例,对本发明实施例提供的视频处理方法进行示例性的说明。
本发明实施例中的电子设备可以为移动终端设备,也可以为非移动终端设备。移动终端设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载终端设备、可穿戴设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等;非移动终端设备可以为个人计算机(personalcomputer,PC)、电视机(television,TV)、柜员机或者自助机等;本发明实施例不作具体限定。
本发明实施例中的电子设备可以为具有操作系统的终端设备。该操作系统可以为安卓(Android)操作系统,可以为ios操作系统,还可以为其他可能的操作系统,本发明实施例不作具体限定。
下面以安卓操作系统为例,介绍一下本发明实施例提供的视频处理方法所应用的软件环境。
如图1所示,为本发明实施例提供的一种可能的安卓操作系统的架构示意图。在图1中,安卓操作系统的架构包括4层,分别为:应用程序层、应用程序框架层、系统运行库层和内核层(具体可以为Linux内核层)。
其中,应用程序层包括安卓操作系统中的各个应用程序(包括系统应用程序和第三方应用程序)。
应用程序框架层是应用程序的框架,开发人员可以在遵守应用程序的框架的开发原则的情况下,基于应用程序框架层开发一些应用程序。
系统运行库层包括库(也称为系统库)和安卓操作系统运行环境。库主要为安卓操作系统提供其所需的各类资源。安卓操作系统运行环境用于为安卓操作系统提供软件环境。
内核层是安卓操作系统的操作系统层,属于安卓操作系统软件层次的最底层。内核层基于Linux内核为安卓操作系统提供核心系统服务和与硬件相关的驱动程序。
以安卓操作系统为例,本发明实施例中,开发人员可以基于上述如图1所示的安卓操作系统的系统架构,开发实现本发明实施例提供的视频处理方法的软件程序,从而使得该视频处理方法可以基于如图1所示的安卓操作系统运行。即处理器或者电子设备可以通过在安卓操作系统中运行该软件程序实现本发明实施例提供的视频处理方法。
下面结合图2所示的视频处理方法流程图对本发明实施例的视频处理方法进行说明,图2为本发明实施例提供的一种视频处理方法流程示意图,包括步骤201和步骤202;
步骤201、在目标视频播放的状态下,获取目标参数。
步骤202、电子设备根据目标参数,在目标视频中添加光线。
其中,上述目标参数用于表征以下至少一项:上述目标视频的剧情内容,观看者观看目标视频的面部表情。
示例性的,在上述目标参数用于表征目标视频的剧情内容时,上述的目标参数为用于描述目标视频的剧情、人物的信息,例如,字幕,或者,电子设备对视频帧进行语义识别得到的剧情识别结果。在上述目标参数用于表征观看者观看目标视频的面部表情时,上述的目标参数可以为面部图像,也可以为该人脸图像中的面部表情特征信息。
示例性的,上述观看者的人脸图像可以通过电子设备的摄像头实时采集。上述的观看者的面部表情特征信息可以利用电子设备上的摄像头或者3D深度传感器等,实时获取。
示例性的,若观看目标视频的观看者为多个时,则电子设备可以获取距离电子设备的显示屏最近的观看者的面部图像或面部表情特征信息。在一种示例中,电子设备可以仅采集位于该摄像头的图像采集区域中的目标采集区域内的观看者的面部图像或面部表情特征信息。其中,上述的目标采集区域可以为该图像采集区域的中间区域。
示例性的,上述目标视频可以是通过电子设备内置的视频播放器或者安装的第三方APP打开的电子设备存储的视频,也可以是通过统一资源定位符(uniform resourcelocator,URL)从网络获取的网络视频,也可以为直播场景下的直播视频,本发明实施例对此不做限定。
示例性的,本发明实施例可以通过触摸电子设备的显示屏上的悬浮显示的悬浮控件的方式,开启或关闭在视频中增加光线的功能。在一种示例中,用户拖动该悬浮控件的拖动过程中,该悬浮控件会随着用户的移动在该显示屏中移动。在另一种示例中,在目标视频的播放过程中,若用户在预定时间内未触控显示屏,则电子设备会隐藏该悬浮控件。
举例说明,如图3所示,当用户播放“视频1”(即上述的目标视频)时,该目标视频的视频播放界面(如图3中的31)的右上角上悬浮显示有一个开关控件(如图3中的32),用户可以通过触控该开关控件32,来开启或关闭在视频中增加光线的功能。
示例性的,在使用具有视频播放功能的第三方视频播放器播放目标视频时,首先,电子设备会识别出该目标播放器的视频播放窗口,并在上述视频播放窗口中的特定位置出添加悬浮控件,方便用户在通过目标播放器播放目标视频时,能够开启或关闭在视频中增加光线的功能。
示例性的,可以通过电子设备的语音助手或者其他具有识别语音并执行通过语音下发的指令的计算机程序,开启或关闭在视频中增加光线的功能。
示例性的,电子设备在目标视频播放的状态下,可以实时为目标视频中的每帧视频帧上添加光线,也可以在该目标视频中部分视频帧上添加光线,本发明实施例对此不作限定。
在一种示例中,上述的部分视频帧可以为目标视频中特定视频剧情内容对应的视频帧,也可以为能够使得观看者产生特定情绪(如,高兴、愤怒)的视频剧情内容对应的视频帧。
示例性的,不同目标参数对应不同光线。即,电子设备在目标视频播放的状态下,获取与目标参数匹配的光线参数,按照该光线参数在目标视频上添加光线,其中,上述的光线参数用于表征该光线的以下至少一项:颜色、亮度、方向、显示范围。
示例性的,电子设备可以通过识别一个或多个连续视频帧中的字幕、视频帧对应图像、背景音乐等来识别出当前播放剧情。
举例说明,结合图3,当用户播放“视频1”时,如图4中的(a)所示,用户点击控件32(其中,图4中(a)控件32为关闭状态,通过用户点击控件32,使得控件32处于图4中(b)的状态),开启在视频中增加光线的功能。此时,电子设备对视频播放界面31中当前播放的视频帧对应图像进行语义识别,识别出该“视频1”的当前播放的视频帧的剧情场景为冬天大雪后的房屋,即经过语义识别后得到关键词“冬季”、“雪”、“房屋”以及“树”(即上述的目标参数),然后,如图4中的(b)所示,电子设备在当前播放的视频帧上增加与这些关键词匹配的光线(如图4中(b)中的33)。
示例性的,电子设备在识别上述“视频1”剧情时,可以通过以下过程来实现。具体的,该方法可以包括以下步骤:
步骤S1、电子设备将“视频1”的当前视频帧加载到剧情人物、剧情场景检测的算法中。该算法是一种预先训练完成的深度学习算法,算法的网络结构参数根据大量的图片数据库训练而成,利用该算法可以检测出当前视频帧中的剧情人物和剧情场景。
步骤S2、电子设备根据步骤S1检测出的当前视频帧的剧情人物和剧情场景进行图片语义分析,并输出对当前视频帧的图片解释,该解释包括当前视频帧所展示的剧情场景(例如,当前帧的场景是大都市的商业区或农村田园等)。
需要说明的是,以上仅为本实施例为了方便理解提供的一种示例,并不代表真实的视频处理结果,向目标视频中添加光线的角度本申请不做限制。
示例性的,电子设备可以采集观看者的面部图像,以获取观看者观看目标视频的面部表情,而面部表情能够表现观看者的观看情绪。如此,电子设备便可基于观看者当前观看目标视频的观看情绪,在目标视频上实时增加与观看者的观看情绪匹配的光线,不同观看情绪对应不同光线。
示例性的,电子设备可以通过识别视频观看者表情的情绪(如,观看者的喜怒哀乐)和光线参数进行匹配,接着,可以根据视频观看者面部表情特征选择与之匹配的光线参数,实现光线适应视频观看者表情的实时添加。比如,识别到视频观看者的情绪是愤怒的,则光线调亮,光线的颜色设置为靠红色色域的颜色,营造一个亢奋的视频氛围。
需要说明的是,上述观看情绪与光线间的对应关系,具体可以按照实际需求灵活设定,本发明实施例对此不做限定。
示例性的,电子设备使用人脸识别算法识别出人脸的面部特征,将面部特征翻译成词语,再将词语和预先设置的光线参数进行匹配,形成如人脸识别->语义->光线参数的对应关系。例如,观看者观看目标视频时的表情是“开心”的,则在目标视频中增加与“开心”的语义相匹配的预设光线。
本发明实施例提供的视频处理方法,相比于传统技术中仅能对静态多媒体文件进行修改,本发明实施例中的电子设备可以在播放目标视频的过程中,基于该目标视频的剧情内容和/或观看者观看该目标视频时的面部表情,在目标视频中添加的光线,从而为多媒体文件修改提供了更多的修改可能,还可以在在目标视频播放过程中,为用户提供更好的播放效果,提升用户观看体验。
可选的,在本发明实施例中,由于目标视频开始播放时,难以根据目标视频的当前剧情向目标视频中添加光线,因此,电子设备可以选择的在目标视频开始播放时增加光线。
示例性的,上述的步骤201可以包括如下步骤201a:
步骤201a、电子设备在目标视频的第一视频帧中增加预设光线。
其中,上述第一视频帧为:包含目标视频的剧情内容的第一帧图像。例如,上述的第一视频帧可为该目标视频中除去片头外的第一个视频帧。
如此,电子设备通过主动在包含目标视频的剧情内容的第一帧图像上增加光线,从而在剧情开始的时候,便可以体验到在目标视频播放时增加光线带来的观看效果。
可选的,在本发明实施例中,当目标视频将要播放结束时,通常不需要在目标视频中添加光线,因此,电子设备可以选择性的不在目标视频结束时增加光线。
示例性的,上述的步骤201可以包括如下步骤201b:
步骤201b、在目标视频播放至目标视频的第二视频帧时,电子设备停止在目标视频中增加光线。
其中,上述第二视频帧为:包含目标视频的剧情内容的最后一帧图像。例如,上述的第一视频帧可为该目标视频中的片尾的前一帧视频帧或者片尾的第一个视频帧。
示例性的,由于本发明实施例提供的视频处理方法是一个实时循环的过程,因此,电子设备在播放目标视频的状态下需要实时判断当前视频帧是否为最后一帧(即上述第二视频帧)。
如此,电子设备在目标视频播放结束前,停止向目标视频中增加光线,可以减少电子设备处理器负荷,防止电子设备在结束目标视频播放的瞬间出现卡顿。
可选的,在本发明实施例中,上述步骤201可以包括如下步骤201c1和步骤201c2:
步骤201c1、电子设备实时获取目标参数。
其中,上述目标参数为:目标视频的实时剧情识别结果,和/或,观看者观看目标视频的面部表情特征。
步骤201c2、电子设备在目标视频上,实时添加与目标参数相匹配的光线。
可选的,在本发明实施例中,上述步骤201可以包括如下步骤201d1和步骤201d2:
步骤201d1、电子设备在第三视频帧中增加第一光线。
步骤201d2、电子设备在所述第三视频帧的下一视频帧中增加第二光线。
其中,上述第一光线的光线参数与上述第二光线的光线参数之间的差值小于预定阈值。其中,上述光线参数用于表征光线的颜色和/或亮度。
示例性的,为了防止剧情的突然变化导致向目标视频添加的光线突然变强,影响用户观看体验的的问题发生,在向目标视频添加光线时,相邻视频帧添加光线的颜色和亮度不超过其预设数值,以使得向目标视频中添加的光线是缓慢变化的,使观看者能够有充足的时间来适应光线的变化。
示例性的,当目标视频相邻帧剧情变化不大,甚至于场景和人物没有发生变化,则可以仅调整向目标视频相邻帧添加光线的亮度,而不调整添加光线的颜色。当目标视频相邻帧剧情发生较大改变,甚至于场景和/或人物不同,则可以调整向目标视频相邻帧添加光线的亮度和颜色。
本发明实施例提供的视频处理方法,通过根据正在播放的目标视频的剧情和/或观看者的表情,来向目标视频中添加光线的方法,解决了相关技术中没有对视频进行实时美化修改的技术方案的技术问题,提升了用户观看视频时的感官体验。
需要说明的是,本发明实施例中,上述各个方法附图所示的视频处理方法均是以结合本发明实施例中的一个附图为例示例性的说明的。具体实现时,上述各个方法附图所示的视频处理方法还可以结合上述实施例中示意的其它可以结合的任意附图实现,此处不再赘述。
图5为实现本发明实施例提供的一种电子设备的可能的结构示意图,如图5所示,电子设备30包括:获取模块301和处理模块302,其中:
获取模块301,用于在目标视频播放的状态下,获取目标视频的目标参数。
处理模块302,用于在获取模块301获取到该目标视频的目标参数后,根据该目标参数,在目标视频中添加光线。
其中,该目标参数用于表征以下至少一项:目标视频的剧情内容,观看者观看目标视频的面部表情。
可选的,上述处理模块302,具体用于:在上述目标视频的第一视频帧中增加预设光线,其中,第一视频帧为:包含上述目标视频的剧情内容的第一帧图像。
可选的,上述处理模块302,具体用于:在上述目标视频播放至目标视频的第二视频帧时,停止在上述目标视频中增加光线,其中,第二视频帧为:包含上述目标视频的剧情内容的最后一帧图像。
可选的,上述处理模块302,具体用于:实时获取上述目标参数,其中,目标参数为:上述目标视频的实时剧情识别结果,和/或,观看者观看上述目标视频的面部表情特征。在上述目标视频上,实时添加与所述目标参数相匹配的光线。
可选的,上述处理模块302,具体用于:在第三视频帧中增加第一光线。在该第三视频帧的下一视频帧中增加第二光线。其中,上述第一光线的光线参数与上述第二光线的光线参数之间的差值小于预定阈值。其中,上述光线参数用于表征光线的颜色和/或亮度。
本发明实施例提供的电子设备,通过根据正在播放的目标视频的剧情和/或观看者的表情,来向目标视频中添加光线的方法,解决了相关技术中没有对视频进行实时美化修改的技术方案的技术问题,提升了用户观看视频时的感官体验。
本发明实施例提供的电子设备能够实现上述方法实施例中电子设备实现的各个过程,为避免重复,这里不再赘述。
图6为实现本发明各个实施例的一种电子设备的硬件结构示意图,该电子设备100包括但不限于:射频单元101、网络模块102、音频输出单元103、输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图6中示出的电子设备100的结构并不构成对电子设备的限定,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,电子设备100包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端设备、可穿戴设备、以及计步器等。
其中,用户输入单元107,用于获取用户开启或关闭在视频中增加光线功能的指令;处理器110,用于响应于用户输入单元107的输入指令,在目标视频中添加与目标参数相匹配的光线。
本发明实施例提供的电子设备,通过根据正在播放的目标视频的剧情和/或观看者的表情,来向目标视频中添加光线的方法,解决了相关技术中没有对视频进行实时美化修改的技术方案的技术问题,提升了用户观看视频时的感官体验。
应理解的是,本发明实施例中,射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器110处理;另外,将上行的数据发送给基站。通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信系统与网络和其他设备通信。
电子设备100通过网络模块102为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元103可以将射频单元101或网络模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与电子设备100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103包括扬声器、蜂鸣器以及受话器等。
输入单元104用于接收音频或视频信号。输入单元104可以包括图形处理器(GraphicsProcessing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或网络模块102进行发送。麦克风1042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。
电子设备100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在电子设备100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别电子设备姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器105还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与电子设备100的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作)。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板1071可覆盖在显示面板1061上,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图6中,触控面板1071与显示面板1061是作为两个独立的部件来实现电子设备100的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现电子设备100的输入和输出功能,具体此处不做限定。
接口单元108为外部装置与电子设备100连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到电子设备100内的一个或多个元件或者可以用于在电子设备100和外部装置之间传输数据。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是电子设备100的控制中心,利用各种接口和线路连接整个电子设备100的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行电子设备100的各种功能和处理数据,从而对电子设备100进行整体监控。处理器110可包括一个或多个处理单元;可选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
电子设备100还可以包括给各个部件供电的电源111(比如电池),可选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,电子设备100包括一些未示出的功能模块,在此不再赘述。
可选的,本发明实施例还提供一种电子设备,包括处理器,存储器,存储在存储器上并可在所述处理器110上运行的计算机程序,该计算机程序被处理器执行时实现上述视频处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述视频处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台电子设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。
Claims (10)
1.一种视频处理方法,应用于电子设备,其特征在于,包括:
在目标视频播放的状态下,获取目标参数;
根据所述目标参数,在所述目标视频中添加光线;
其中,所述目标参数用于表征以下至少一项:所述目标视频的剧情内容,观看者观看所述目标视频的面部表情。
2.根据权利要求1所述的方法,其特征在于,所述根据所述目标参数,在所述目标视频中添加光线,包括:
在所述目标视频的第一视频帧中增加预设光线,所述第一视频帧为:包含所述目标视频的剧情内容的第一帧图像。
3.根据权利要求1所述的方法,其特征在于,所述根据所述目标参数,在所述目标视频中添加光线,包括:
在所述目标视频播放至所述目标视频的第二视频帧时,停止在所述目标视频中增加光线,所述第二视频帧为:包含所述目标视频的剧情内容的最后一帧图像。
4.根据权利要求1所述的方法,其特征在于,所述根据所述目标参数,在所述目标视频中添加光线,包括:
实时获取所述目标参数,所述目标参数为:所述目标视频的实时剧情识别结果,和/或,所述观看者观看所述目标视频的面部表情特征;
在所述目标视频上,实时添加与所述目标参数相匹配的光线。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述根据所述目标参数,在所述目标视频中添加光线,包括:
在第三视频帧中增加第一光线;
在所述第三视频帧的下一视频帧中增加第二光线;
其中,所述第一光线的光线参数与所述第二光线的光线参数之间的差值小于预定阈值;其中,所述光线参数用于表征光线的颜色和/或亮度。
6.一种电子设备,其特征在于,所述电子设备包括获取模块和处理模块;
所述获取模块,用于在目标视频播放的状态下,获取所述目标视频的目标参数;
所述处理模块,用于在所述获取模块获取到所述目标视频的目标参数后,根据所述目标参数,在所述目标视频中添加光线;
其中,所述目标参数用于表征以下至少一项:所述目标视频的剧情内容,观看者观看所述目标视频的面部表情。
7.根据权利要求6所述的电子设备,其特征在于,所述处理模块,具体用于:
在所述目标视频的第一视频帧中增加预设光线,所述第一视频帧为:包含所述目标视频的剧情内容的第一帧图像。
8.根据权利要求6所述的电子设备,其特征在于,所述处理模块,具体用于:
在所述目标视频播放至所述目标视频的第二视频帧时,停止在所述目标视频中增加光线,所述第二视频帧为:包含所述目标视频的剧情内容的最后一帧图像。
9.一种电子设备,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至5中任一项所述的视频处理方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述的视频处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911184574.8A CN110868634B (zh) | 2019-11-27 | 2019-11-27 | 一种视频处理方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911184574.8A CN110868634B (zh) | 2019-11-27 | 2019-11-27 | 一种视频处理方法及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110868634A true CN110868634A (zh) | 2020-03-06 |
CN110868634B CN110868634B (zh) | 2023-08-22 |
Family
ID=69656793
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911184574.8A Active CN110868634B (zh) | 2019-11-27 | 2019-11-27 | 一种视频处理方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110868634B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104581360A (zh) * | 2014-12-15 | 2015-04-29 | 乐视致新电子科技(天津)有限公司 | 电视终端和播放电视节目的方法 |
US20150243243A1 (en) * | 2014-02-25 | 2015-08-27 | Apple Inc. | Server-side adaptive video processing |
US9396180B1 (en) * | 2013-01-29 | 2016-07-19 | Amazon Technologies, Inc. | System and method for analyzing video content and presenting information corresponding to video content to users |
CN105829995A (zh) * | 2013-10-22 | 2016-08-03 | 谷歌公司 | 根据观看者表情捕捉媒体内容 |
CN106385591A (zh) * | 2016-10-17 | 2017-02-08 | 腾讯科技(上海)有限公司 | 视频处理方法及视频处理装置 |
CN106550276A (zh) * | 2015-09-22 | 2017-03-29 | 阿里巴巴集团控股有限公司 | 视频播放过程中多媒体信息的提供方法、装置和系统 |
CN108900908A (zh) * | 2018-07-04 | 2018-11-27 | 三星电子(中国)研发中心 | 视频播放方法和装置 |
WO2019037615A1 (zh) * | 2017-08-24 | 2019-02-28 | 北京搜狗科技发展有限公司 | 视频处理方法和装置、用于视频处理的装置 |
CN109525901A (zh) * | 2018-11-27 | 2019-03-26 | Oppo广东移动通信有限公司 | 视频处理方法、装置、电子设备及计算机可读介质 |
CN109672935A (zh) * | 2017-10-13 | 2019-04-23 | 富泰华工业(深圳)有限公司 | 基于用户情绪的视频推送系统及方法 |
CN110177296A (zh) * | 2019-06-27 | 2019-08-27 | 维沃移动通信有限公司 | 一种视频播放方法及移动终端 |
CN110213610A (zh) * | 2019-06-13 | 2019-09-06 | 北京奇艺世纪科技有限公司 | 一种直播场景识别方法及装置 |
-
2019
- 2019-11-27 CN CN201911184574.8A patent/CN110868634B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9396180B1 (en) * | 2013-01-29 | 2016-07-19 | Amazon Technologies, Inc. | System and method for analyzing video content and presenting information corresponding to video content to users |
CN105829995A (zh) * | 2013-10-22 | 2016-08-03 | 谷歌公司 | 根据观看者表情捕捉媒体内容 |
US20150243243A1 (en) * | 2014-02-25 | 2015-08-27 | Apple Inc. | Server-side adaptive video processing |
CN104581360A (zh) * | 2014-12-15 | 2015-04-29 | 乐视致新电子科技(天津)有限公司 | 电视终端和播放电视节目的方法 |
CN106550276A (zh) * | 2015-09-22 | 2017-03-29 | 阿里巴巴集团控股有限公司 | 视频播放过程中多媒体信息的提供方法、装置和系统 |
CN106385591A (zh) * | 2016-10-17 | 2017-02-08 | 腾讯科技(上海)有限公司 | 视频处理方法及视频处理装置 |
WO2019037615A1 (zh) * | 2017-08-24 | 2019-02-28 | 北京搜狗科技发展有限公司 | 视频处理方法和装置、用于视频处理的装置 |
CN109672935A (zh) * | 2017-10-13 | 2019-04-23 | 富泰华工业(深圳)有限公司 | 基于用户情绪的视频推送系统及方法 |
CN108900908A (zh) * | 2018-07-04 | 2018-11-27 | 三星电子(中国)研发中心 | 视频播放方法和装置 |
CN109525901A (zh) * | 2018-11-27 | 2019-03-26 | Oppo广东移动通信有限公司 | 视频处理方法、装置、电子设备及计算机可读介质 |
CN110213610A (zh) * | 2019-06-13 | 2019-09-06 | 北京奇艺世纪科技有限公司 | 一种直播场景识别方法及装置 |
CN110177296A (zh) * | 2019-06-27 | 2019-08-27 | 维沃移动通信有限公司 | 一种视频播放方法及移动终端 |
Also Published As
Publication number | Publication date |
---|---|
CN110868634B (zh) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110740259B (zh) | 视频处理方法及电子设备 | |
CN107817939B (zh) | 一种图像处理方法及移动终端 | |
CN108966004B (zh) | 一种视频处理方法及终端 | |
CN107977652B (zh) | 一种屏幕显示内容的提取方法及移动终端 | |
CN111124245B (zh) | 一种控制方法及电子设备 | |
CN108710458B (zh) | 一种分屏控制方法和终端设备 | |
CN107886321B (zh) | 一种支付方法及移动终端 | |
WO2020220873A1 (zh) | 图像显示方法及终端设备 | |
CN109819168B (zh) | 一种摄像头的启动方法以及移动终端 | |
CN109618218B (zh) | 一种视频处理方法及移动终端 | |
CN110703972B (zh) | 一种文件控制方法及电子设备 | |
CN111147919A (zh) | 一种播放调整方法、电子设备及计算机可读存储介质 | |
CN109639999B (zh) | 视频通话数据的优化方法、移动终端及可读存储介质 | |
CN109922294B (zh) | 一种视频处理方法及移动终端 | |
CN111383175A (zh) | 图片获取方法及电子设备 | |
CN108600079B (zh) | 一种聊天记录展示方法及移动终端 | |
CN111401463A (zh) | 检测结果输出的方法、电子设备及介质 | |
CN111158815B (zh) | 一种动态壁纸模糊方法、终端和计算机可读存储介质 | |
CN111080747B (zh) | 一种人脸图像处理方法及电子设备 | |
CN110062281B (zh) | 一种播放进度调节方法及其终端设备 | |
CN110505660B (zh) | 一种网络速率调整方法及终端设备 | |
CN110012151B (zh) | 一种信息显示方法及终端设备 | |
CN111093033B (zh) | 一种信息处理方法及设备 | |
CN111026263B (zh) | 一种音频播放方法及电子设备 | |
CN110909180B (zh) | 一种媒体文件的处理方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |