CN113115085A - 一种视频播放方法及显示设备 - Google Patents
一种视频播放方法及显示设备 Download PDFInfo
- Publication number
- CN113115085A CN113115085A CN202110413359.1A CN202110413359A CN113115085A CN 113115085 A CN113115085 A CN 113115085A CN 202110413359 A CN202110413359 A CN 202110413359A CN 113115085 A CN113115085 A CN 113115085A
- Authority
- CN
- China
- Prior art keywords
- image
- scene
- color
- preset
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000005516 engineering process Methods 0.000 claims abstract description 31
- 238000012545 processing Methods 0.000 claims abstract description 21
- 238000005457 optimization Methods 0.000 claims abstract description 17
- 238000007667 floating Methods 0.000 claims description 9
- 238000012544 monitoring process Methods 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 9
- 238000004891 communication Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 9
- 240000003173 Drymaria cordata Species 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000005484 gravity Effects 0.000 description 6
- 230000003993 interaction Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000003014 reinforcing effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- ZYXYTGQFPZEUFX-UHFFFAOYSA-N benzpyrimoxan Chemical compound O1C(OCCC1)C=1C(=NC=NC=1)OCC1=CC=C(C=C1)C(F)(F)F ZYXYTGQFPZEUFX-UHFFFAOYSA-N 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000013535 sea water Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44012—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440227—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by decomposing into layers, e.g. base layer and one or more enhancement layers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
- H04N21/4854—End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
Abstract
本申请公开了一种视频播放方法及显示设备,通过组合展示方式将视频播放图像一部分经过智能图像技术处理,另一部分不经过智能图像技术处理,可直观的展示出对视频的优化效果,并通过智能图像技术提升画质,提升用户体验。所述方法包括响应于用户输入的播放视频的指令,将所述视频的每一帧图像划分为第一图像和第二图像;将所述第二图像经过智能图像技术处理,得到处理后的每一帧图像;控制显示器播放所述处理后的每一帧图像。
Description
技术领域
本申请涉及显示技术领域,尤其涉及一种视频播放方法及显示设备。
背景技术
目前市场上的智能设备,比如手机,电视,相机等,都会对图像视频等做优化渲染处理,比如增加色彩范围,让蓝色更蓝,绿色更绿。但是对客户来说,并不能很直观的感受到,用户只有同时拿两台设备来比较,查看同样的文件才能直观感受到。而且传统的电视对色彩的优化,仅限于增强色彩范围,增加颜色显示效果,比如让蓝色更蓝,让绿色更绿,不能很好的对图片色彩进行优化,用户体验不好。
发明内容
本申请实施例提供一种视频播放方法及显示设备,通过组合展示方式将视频播放图像一部分经过智能图像技术处理,另一部分不经过智能图像技术处理,可直观的展示出对视频的优化效果,并通过智能图像技术提升画质,提升用户体验。
第一方面,提供一种显示设备,包括:
显示器;
控制器,用于执行:
响应于用户输入的播放视频的指令,将所述视频的每一帧图像划分为第一图像和第二图像;
将所述第二图像经过智能图像技术处理,得到处理后的每一帧图像;
控制显示器播放所述处理后的每一帧图像。
在一些实施例中,所述控制器,还用于执行:
在播放所述处理后的每一帧图像的窗口上设置浮层,所述浮层用于显示智能图像技术开关信息、场景数据和/或监听场景数据的时间间隔,所述场景数据包括当前场景及所述场景所占比重信息。
在一些实施例中,所述控制器,采用以下方式执行将所述第二图像经过智能图像技术处理:
识别所述第二图像的场景,根据所述场景优化所述第二图像。
在一些实施例中,所述控制器,采用以下方式执行识别所述第二图像的场景:
将第二图像划分为数个色块;
获取每个色块的色值,并与预置场景的色值匹配;
计算所述色块与预置场景的色值匹配成功率;
根据所述色值匹配成功率确定所述第二图像所处预置场景。
在一些实施例中,所述控制器,采用以下方式执行根据所述场景优化所述第二图像:
根据所述场景识别第二图像中所述场景对应的预置区域;
采用所述场景对应的预置参数对所述预置区域进行色彩优化。
第二方面,提供一种视频播放方法,包括:
响应于用户输入的播放视频的指令,将所述视频的每一帧图像划分为第一图像和第二图像;
将所述第二图像经过智能图像技术处理,得到处理后的每一帧图像;
控制显示器播放所述处理后的每一帧图像。
在一些实施例中,所述方法还包括:
在播放所述处理后的每一帧图像的窗口上设置浮层,所述浮层用于显示智能图像技术开关信息、场景数据和/或监听场景数据的时间间隔,所述场景数据包括当前场景及所述场景所占比重信息。
在一些实施例中,将所述第二图像经过智能图像技术处理,具体包括:
识别所述第二图像的场景,根据所述场景优化所述第二图像。
在一些实施例中,识别所述第二图像的场景,具体包括:
将第二图像划分为数个色块;
获取每个色块的色值,并与预置场景的色值匹配;
计算所述色块与预置场景的色值匹配成功率;
根据所述色值匹配成功率确定所述第二图像所处预置场景。
在一些实施例中,根据所述场景优化所述第二图像,具体包括:
根据所述场景识别第二图像中所述场景对应的预置区域;
采用所述场景对应的预置参数对所述预置区域进行色彩优化。
在上述实施例中,在用户输入播放视频的指令时,将视频分成单独的每一帧图像,对每一帧图像的一部分图像经过智能图像技术处理,另一部分图像不经过智能图像技术处理,显示处理后的每一帧图像,可以让用户可以直观的通过对比感受到显示设备对视频色彩的优化效果,并通过智能图像技术提升画质,提升用户体验。显示设备在商场展示时可以直观展示智能图像技术的使用场景和效果,提高卖点展示的效率。
附图说明
图1示出了根据一些实施例的显示设备的使用场景;
图2示出了根据一些实施例的控制装置100的硬件配置框图;
图3示出了根据一些实施例的显示设备200的硬件配置框图;
图4示出了根据一些实施例的显示设备200中软件配置图;
图5示例性示出了根据一些实施例的一种视频播放方法的流程图;
图6-图10示例性示出了根据一些实施例的一种用户界面示意图;
图11示例性示出了根据一些实施例的一种浏览器界面示意图。
具体实施方式
为使本申请的目的和实施方式更加清楚,下面将结合本申请示例性实施例中的附图,对本申请示例性实施方式进行清楚、完整地描述,显然,描述的示例性实施例仅是本申请一部分实施例,而不是全部的实施例。
需要说明的是,本申请中对于术语的简要说明,仅是为了方便理解接下来描述的实施方式,而不是意图限定本申请的实施方式。除非另有说明,这些术语应当按照其普通和通常的含义理解。
本申请中说明书和权利要求书及上述附图中的术语″第一″、″第二″、″第三″等是用于区别类似或同类的对象或实体,而不必然意味着限定特定的顺序或先后次序,除非另外注明。应该理解这样使用的用语在适当情况下可以互换。
术语″包括″和″具有″以及他们的任何变形,意图在于覆盖但不排他的包含,例如,包含了一系列组件的产品或设备不必限于清楚地列出的所有组件,而是可包括没有清楚地列出的或对于这些产品或设备固有的其它组件。
术语″模块″是指任何已知或后来开发的硬件、软件、固件、人工智能、模糊逻辑或硬件或/和软件代码的组合,能够执行与该元件相关的功能。
图1为根据实施例中显示设备的使用场景的示意图。如图1所示,显示设备200还与服务器400进行数据通信,用户可通过智能设备300或控制装置100操作显示设备200。
在一些实施例中,控制装置100可以是遥控器,遥控器和显示设备的通信包括红外协议通信或蓝牙协议通信,及其他短距离通信方式中的至少一种,通过无线或有线方式来控制显示设备200。用户可以通过遥控器上按键、语音输入、控制面板输入等至少一种输入用户指令,来控制显示设备200。
在一些实施例中,智能设备300可以包括移动终端、平板电脑、计算机、笔记本电脑,AR/VR设备等中的任意一种。
在一些实施例中,也可以使用智能设备300以控制显示设备200。例如,使用在智能设备上运行的应用程序控制显示设备200。
在一些实施例中,也可以使用智能设备300和显示设备进行数据的通信。
在一些实施例中,显示设备200还可以采用除了控制装置100和智能设备300之外的方式进行控制,例如,可以通过显示设备200设备内部配置的获取语音指令的模块直接接收用户的语音指令控制,也可以通过显示设备200设备外部设置的语音控制装置来接收用户的语音指令控制。
在一些实施例中,显示设备200还与服务器400进行数据通信。可允许显示设备200通过局域网(LAN)、无线局域网(WLAN)和其他网络进行通信连接。服务器400可以向显示设备200提供各种内容和互动。服务器400可以是一个集群,也可以是多个集群,可以包括一类或多类服务器。
在一些实施例中,一个步骤执行主体执行的软件步骤可以随需求迁移到与之进行数据通信的另一步骤执行主体上进行执行。示例性的,服务器执行的软件步骤可以随需求迁移到与之数据通信的显示设备上执行,反之亦然。
图2示例性示出了根据示例性实施例中控制装置100的配置框图。如图2所示,控制装置100包括控制器110、通信接口130、用户输入/输出接口140、存储器、供电电源。控制装置100可接收用户的输入操作指令,且将操作指令转换为显示设备200可识别和响应的指令,起用用户与显示设备200之间交互中介作用。
在一些实施例中,通信接口130用于和外部通信,包含WIFI芯片,蓝牙模块,NFC或可替代模块中的至少一种。
在一些实施例中,用户输入/输出接口140包含麦克风,触摸板,传感器,按键或可替代模块中的至少一种。
图3示出了根据示例性实施例中显示设备200的硬件配置框图。
在一些实施例中,显示设备200包括调谐解调器210、通信器220、检测器230、外部装置接口240、控制器250、显示器260、音频输出接口270、存储器、供电电源、用户接口中的至少一种。
在一些实施例中控制器包括中央处理器,视频处理器,音频处理器,图形处理器,RAM,ROM,用于输入/输出的第一接口至第n接口。
在一些实施例中,显示器260包括用于呈现画面的显示屏组件,以及驱动图像显示的驱动组件,用于接收源自控制器输出的图像信号,进行显示视频内容、图像内容以及菜单操控界面的组件以及用户操控UI界面等。
在一些实施例中,显示器260可为液晶显示器、OLED显示器、以及投影显示器中的至少一种,还可以为一种投影装置和投影屏幕。
在一些实施例中,调谐解调器210通过有线或无线接收方式接收广播电视信号,以及从多个无线或有线广播电视信号中解调出音视频信号,如以及EPG数据信号。
在一些实施例中,通信器220是用于根据各种通信协议类型与外部设备或服务器进行通信的组件。例如:通信器可以包括Wifi模块,蓝牙模块,有线以太网模块等其他网络通信协议芯片或近场通信协议芯片,以及红外接收器中的至少一种。显示设备200可以通过通信器220与控制装置100或服务器400建立控制信号和数据信号的发送和接收。
在一些实施例中,检测器230用于采集外部环境或与外部交互的信号。例如,检测器230包括光接收器,用于采集环境光线强度的传感器;或者,检测器230包括图像采集器,如摄像头,可以用于采集外部环境场景、用户的属性或用户交互手势,再或者,检测器230包括声音采集器,如麦克风等,用于接收外部声音。
在一些实施例中,外部装置接口240可以包括但不限于如下:高清多媒体接口接口(HDMI)、模拟或数据高清分量输入接口(分量)、复合视频输入接口(CVBS)、USB输入接口(USB)、RGB端口等任一个或多个接口。也可以是上述多个接口形成的复合性的输入/输出接口。
在一些实施例中,控制器250和调谐解调器210可以位于不同的分体设备中,即调谐解调器210也可在控制器250所在的主体设备的外置设备中,如外置机顶盒等。
在一些实施例中,控制器250,通过存储在存储器上中各种软件控制程序,来控制显示设备的工作和响应用户的操作。控制器250控制显示设备200的整体操作。例如:响应于接收到用于选择在显示器260上显示UI对象的用户命令,控制器250便可以执行与由用户命令选择的对象有关的操作。
在一些实施例中,所述对象可以是可选对象中的任何一个,例如超链接、图标或其他可操作的控件。与所选择的对象有关操作有:显示连接到超链接页面、文档、图像等操作,或者执行与所述图标相对应程序的操作。
在一些实施例中控制器包括中央处理器(Central Processing Unit,CPU),视频处理器,音频处理器,图形处理器(Graphics Processing Unit,GPU),RAM Random AccessMemory,RAM),ROM(Read-Only Memory,ROM),用于输入/输出的第一接口至第n接口,通信总线(Bus)等中的至少一种。
CPU处理器。用于执行存储在存储器中操作系统和应用程序指令,以及根据接收外部输入的各种交互指令,来执行各种应用程序、数据和内容,以便最终显示和播放各种音视频内容。CPU处理器,可以包括多个处理器。如,包括一个主处理器以及一个或多个子处理器。
在一些实施例中,图形处理器,用于产生各种图形对象,如:图标、操作菜单、以及用户输入指令显示图形等中的至少一种。图形处理器包括运算器,通过接收用户输入各种交互指令进行运算,根据显示属性显示各种对象;还包括渲染器,对基于运算器得到的各种对象,进行渲染,上述渲染后的对象用于显示在显示器上。
在一些实施例中,视频处理器,用于将接收外部视频信号,根据输入信号的标准编解码协议,进行解压缩、解码、缩放、降噪、帧率转换、分辨率转换、图像合成等视频处理中的至少一种,可得到直接可显示设备200上显示或播放的信号。
在一些实施例中,视频处理器,包括解复用模块、视频解码模块、图像合成模块、帧率转换模块、显示格式化模块等中的至少一种。其中,解复用模块,用于对输入音视频数据流进行解复用处理。视频解码模块,用于对解复用后的视频信号进行处理,包括解码和缩放处理等。图像合成模块,如图像合成器,其用于将图形生成器根据用户输入或自身生成的GUI信号,与缩放处理后视频图像进行叠加混合处理,以生成可供显示的图像信号。帧率转换模块,用于对转换输入视频帧率。显示格式化模块,用于将接收帧率转换后视频输出信号,改变信号以符合显示格式的信号,如输出RGB数据信号。
在一些实施例中,音频处理器,用于接收外部的音频信号,根据输入信号的标准编解码协议,进行解压缩和解码,以及降噪、数模转换、和放大处理等处理中的至少一种,得到可以在扬声器中播放的声音信号。
在一些实施例中,用户可在显示器260上显示的图形用户界面(GUI)输入用户命令,则用户输入接口通过图形用户界面(GUI)接收用户输入命令。或者,用户可通过输入特定的声音或手势进行输入用户命令,则用户输入接口通过传感器识别出声音或手势,来接收用户输入命令。
在一些实施例中,″用户界面″,是应用程序或操作系统与用户之间进行交互和信息交换的介质接口,它实现信息的内部形式与用户可以接受形式之间的转换。用户界面常用的表现形式是图形用户界面(Graphic User Interface,GUI),是指采用图形方式显示的与计算机操作相关的用户界面。它可以是在电子设备的显示屏中显示的一个图标、窗口、控件等界面元素,其中控件可以包括图标、按钮、菜单、选项卡、文本框、对话框、状态栏、导航栏、Widget等可视的界面元素中的至少一种。
在一些实施例中,用户接口280,为可用于接收控制输入的接口(如:显示设备本体上的实体按键,或其他等)。
在一些实施例中,显示设备的系统可以包括内核(Kernel)、命令解析器(shell)、文件系统和应用程序。内核、shell和文件系统一起组成了基本的操作系统结构,它们让用户可以管理文件、运行程序并使用系统。上电后,内核启动,激活内核空间,抽象硬件、初始化硬件参数等,运行并维护虚拟内存、调度器、信号及进程间通信(IPC)。内核启动后,再加载Shell和用户应用程序。应用程序在启动后被编译成机器码,形成一个进程。
如图4所示,将显示设备的系统分为三层,从上至下分别为应用层、中间件层和硬件层。
应用层主要包含电视上的常用应用,以及应用框架(Application Framework),其中,常用应用主要是基于浏览器Browser开发的应用,例如:HTML5 APPs;以及原生应用(Native APPs);
应用框架(Application Framework)是一个完整的程序模型,具备标准应用软件所需的一切基本功能,例如:文件存取、资料交换...,以及这些功能的使用接口(工具栏、状态列、菜单、对话框)。
原生应用(Native APPs)可以支持在线或离线,消息推送或本地资源访问。
中间件层包括各种电视协议、多媒体协议以及系统组件等中间件。中间件可以使用系统软件所提供的基础服务(功能),衔接网络上应用系统的各个部分或不同的应用,能够达到资源共享、功能共享的目的。
硬件层主要包括HAL接口、硬件以及驱动,其中,HAL接口为所有电视芯片对接的统一接口,具体逻辑由各个芯片来实现。驱动主要包含:音频驱动、显示驱动、蓝牙驱动、摄像头驱动、WIFI驱动、USB驱动、HDMI驱动、传感器驱动(如指纹传感器,温度传感器,压力传感器等)、以及电源驱动等。
相关技术中,市场上的智能设备,比如手机,电视,相机等,都会对图像视频等做优化渲染处理,比如增加色彩范围,让蓝色更蓝,绿色更绿。但是对客户来说,并不能很直观的感受到,用户只有同时拿两台设备来比较,查看同样的文件才能直观感受到。而且传统的电视对色彩的优化,仅限于增强色彩范围,增加颜色显示效果,比如让蓝色更蓝,让绿色更绿,不能很好的对图片色彩进行优化,用户体验不好。
为解决以上技术问题,本申请实施例提供一种视频播放方法。
如图5所示,所述方法包括:
步骤S51:通过用户接口接收用户操作控制装置而输入的播放视频的指令;
在一些实施例中,在选中某一视频文件时,用户接口可以接收用户通过按压控制装置上确认键后输入播放选中视频的指令。
步骤S52:将视频分成单独的每一帧图像。
在一些实施例中,对原始视频进行帧处理,将原始视频分成单独的每一帧图像,具体为:计算原始视频的总时间,以毫秒为单位计数;将原始视频按照毫秒数,分成对应的份数。例如:原始视频的总时间为1s,将原始视频按照毫秒数,分成1000帧图像。
步骤S53:将每一帧图像划分为第一图像和第二图像;
在一些实施例中,如图6所示,每一帧图像划分方法可以是将每一帧图像划分为左右图像,即将图像的靠左部分划分为第一图像,图像的靠右部分划分第二图像。如图7所示,每一帧图像划分方法可以是将每一帧图像划分为上下图像,即将图像的靠上部分划分为第一图像,图像的靠下部分划分第二图像。
在一些实施例中,第一图像与第二图像的分界线可以是如图6所示的竖线,也可以是如图7所示的横线。第一图像与第二图像的分界线还可以是如图8所示的曲线,还可以是如图9所示的斜线。本申请对第一图像与第二图像的分界线不做限定。
步骤S54:将所述第二图像经过智能图像技术处理,得到处理后的每一帧图像;
在一些实施例中,将第二图像经过智能图像技术处理,将第一图像不进行任何处理,得到处理后的每一帧图像。
在一些实施例中,将第二图像经过智能图像技术处理的步骤,具体包括:
识别第二图像的场景;
在一些实施例中,识别第二图像的场景的步骤,具体包括:
将第二图像划分为数个色块;
在一些实施例中,色块可以是第二图像中的像素点,也可以是色值相近的像素点集合。
获取每个色块的色值,并与预置场景的色值匹配;
在一些实施例中,显示设备的系统会预置多种场景,场景包括但不限于如下几种:卡通,非自然图片,球类运动,海水蓝天,人脸,室内,新闻,室外,交响乐团,风景,雪景,建筑等。如果计算机的计算性能以及存储空间的大小足够大,还可以深入植入比如轮船,电脑,手机等更多的场景。
记录每个预先在显示设备预置各种场景的颜色特点。比如大海,系统会预先对10000张大海的图片进行分析,分析大海的RGB颜色,色值范围等信息,得出大海的色值范围。
在一些实施例中,在获取每个色块的色值后,与预置各个场景的色值范围进行匹配。即判断该色块的色值是否在预置场景的色值范围内;如果该色块的色值在预置场景的色值范围内,则匹配成功。如果该色块的色值不在预置场景的色值范围内,则匹配失败。
计算所述色块与预置场景的色值匹配成功率;
在一些实施例中,色块与预置场景的色值匹配成功率是色块与预置场景的色值匹配成功数量占色块总数量的百分比。色块与预置场景的色值匹配成功率也可以理解为匹配场景所占比重。
例如:第二图像中划分为1000个色块,其中有990个色块与大海场景匹配成功,则第二图像中的色块与大海匹配成功率为99%,且大海场景所占比重为99%。
根据色值匹配成功率确定所述第二图像所处预置场景。
在一些实施例中,对第二图像进行色块区域进行划分并和每种预置场景进行匹配,第二图像不仅能匹配到一种预置场景,还可能匹配到两种或两种以上的场景,并得到第二图像每个场景所占的比重。
在一些实施例中,可以取所有匹配到的场景中所占比重最大的场景作为第二图像所处场景;还可以取所有匹配到的场景中所占比重超过预设值的场景作为第二图像所处场景;还可以取所有匹配到的场景中所占比重从大到小排名前预设名次的场景作为第二图像所处场景。
在识别第二图像的场景之后,根据所述场景优化所述第二图像。
在一些实施例中,根据场景优化第二图像的步骤,具体包括:
根据所述场景识别第二图像中所述场景对应的预置区域;
采用所述场景对应的预置参数对所述预置区域进行色彩优化。
例如:在识别出第二图像的场景为蓝天后,识别第二图像中显示蓝天的区域,对显示蓝天的区域进行色彩优化,使得该区域的颜色更接近蓝天的颜色,其中,蓝天的颜色参数预先保存在数据库中。
在一些实施例中,识别到第二图像可能是多种场景,且每种场景所占比重不同。
在一些实施例中,判断每种场景所占比重是否超过预设比重,如果场景所占比重超过预设比重,则可根据该场景对第二图像进行色彩优化;如果场景所占比重未超过预设比重,则不可根据该场景对第二图像进行色彩优化。
例如:第二图像符合白雪场景的比重为50.35%,第二图像符合人脸场景的比重为23.14%,第二图像符合草地场景的比重为11.46%。预设比重为20%。只有白雪场景和人脸场景符合色彩优化条件,则在第二图像中识别出白雪显示区域,并将该区域调整为更接近白雪的颜色;在第二图像中识别出人脸显示区域,并将该区域调整为更接近人脸的颜色。
在一些实施例中,将每种场景所占比重按照从大到小排序,如果场景排序在预设范围内,则可根据该场景对第二图像进行色彩优化;如果场景排序部在预设范围内,则不可根据该场景对第二图像进行色彩优化。
例如:符合第二图像场景从大到小排序依次为白雪、草地、人脸、室内和卡通。预设范围为前两名。只有白雪场景和草地场景符合色彩优化条件,则在第二图像中识别出白雪显示区域,并将该区域调整为更接近白雪的颜色;在第二图像中识别出草地显示区域,并将该区域调整为更接近草地的颜色。
步骤S55:控制显示器播放所述处理后的每一帧图像。
在一些实施例中,底层把处理后的的每一帧图像传递给播放器,通过播放器进行播放。
步骤S56:在播放所述处理后的每一帧图像的窗口上设置浮层。
在一些实施例中,将浏览器的展示画面设置于视频播放器的上层,在通过浏览器实时展示当前识别到的场景,具体显示效果见下图10。
如图11所示,浏览器经过自定义处理,只保留展示网页内容的主体部分111,其它非主体部分112去掉,非主体部分112包括浏览器菜单栏,工具栏,地址栏等非界面展示的部分。
浏览器主体部分为一个背景透明的网页,该网页展示必要的辅助信息,辅助信息包括智能图像技术开关信息、场景数据和/或监听场景数据的时间间隔,所述场景数据包括当前场景及所述场景所占比重信息。
浏览器通过底层接口,实时监听底层上抛的场景数据,该场景数据具体包括:系统所识别到的场景,每个场景所占的比重(百分比)等。用户界面通过js+html代码把这场景数据渲染在浏览器上,用户界面只展示比重最多的几个数据。
在视频播放过程中,场景是实时变化的,所以网页显示的内容会随着当前播放的内容实时变化。因为视频其实是一帧一帧的图像切换,用户界面如果跟随视频帧进行刷新,显示太快的话会让界面显示数据变化太快,而无法看清,所以这个实时监听场景数据的时间间隔固定为人眼可以正常识别到的时间。
在上述实施例中,在用户输入播放视频的指令时,将视频分成单独的每一帧图像,对每一帧图像的一部分图像经过智能图像技术处理,另一部分图像不经过智能图像技术处理,显示处理后的每一帧图像,可以让用户可以直观的通过对比感受到显示设备对视频色彩的优化效果,并通过智能图像技术提升画质,提升用户体验。显示设备在商场展示时可以直观展示智能图像技术的使用场景和效果,提高卖点展示的效率。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。
为了方便解释,已经结合具体的实施方式进行了上述说明。但是,上述示例性的讨论不是意图穷尽或者将实施方式限定到上述公开的具体形式。根据上述的教导,可以得到多种修改和变形。上述实施方式的选择和描述是为了更好的解释原理以及实际的应用,从而使得本领域技术人员更好的使用所述实施方式以及适于具体使用考虑的各种不同的变形的实施方式。
Claims (10)
1.一种显示设备,其特征在于,包括:
显示器;
控制器,用于执行:
响应于用户输入的播放视频的指令,将所述视频的每一帧图像划分为第一图像和第二图像;
将所述第二图像经过智能图像技术处理,得到处理后的每一帧图像;
控制显示器播放所述处理后的每一帧图像。
2.根据权利要求1所述的显示设备,其特征在于,所述控制器,还用于执行:
在播放所述处理后的每一帧图像的窗口上设置浮层,所述浮层用于显示智能图像技术开关信息、场景数据和/或监听场景数据的时间间隔,所述场景数据包括当前场景及所述场景所占比重信息。
3.根据权利要求1所述的显示设备,其特征在于,所述控制器,采用以下方式执行将所述第二图像经过智能图像技术处理:
识别所述第二图像的场景,根据所述场景优化所述第二图像。
4.根据权利要求3所述的显示设备,其特征在于,所述控制器,采用以下方式执行识别所述第二图像的场景:
将第二图像划分为数个色块;
获取每个色块的色值,并与预置场景的色值匹配;
计算所述色块与预置场景的色值匹配成功率;
根据所述色值匹配成功率确定所述第二图像所处预置场景。
5.根据权利要求3所述的显示设备,其特征在于,所述控制器,采用以下方式执行根据所述场景优化所述第二图像:
根据所述场景识别第二图像中所述场景对应的预置区域;
采用所述场景对应的预置参数对所述预置区域进行色彩优化。
6.一种视频播放方法,其特征在于,包括:
响应于用户输入的播放视频的指令,将所述视频的每一帧图像划分为第一图像和第二图像;
将所述第二图像经过智能图像技术处理,得到处理后的每一帧图像;
控制显示器播放所述处理后的每一帧图像。
7.根据权利要求6所述的方法,其特征在于,还包括:
在播放所述处理后的每一帧图像的窗口上设置浮层,所述浮层用于显示智能图像技术开关信息、场景数据和/或监听场景数据的时间间隔,所述场景数据包括当前场景及所述场景所占比重信息。
8.根据权利要求6所述的方法,其特征在于,将所述第二图像经过智能图像技术处理,具体包括:
识别所述第二图像的场景,根据所述场景优化所述第二图像。
9.根据权利要求8所述的方法,其特征在于,识别所述第二图像的场景,具体包括:
将第二图像划分为数个色块;
获取每个色块的色值,并与预置场景的色值匹配;
计算所述色块与预置场景的色值匹配成功率;
根据所述色值匹配成功率确定所述第二图像所处预置场景。
10.根据权利要求8所述的方法,其特征在于,根据所述场景优化所述第二图像,具体包括:
根据所述场景识别第二图像中所述场景对应的预置区域;
采用所述场景对应的预置参数对所述预置区域进行色彩优化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110413359.1A CN113115085A (zh) | 2021-04-16 | 2021-04-16 | 一种视频播放方法及显示设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110413359.1A CN113115085A (zh) | 2021-04-16 | 2021-04-16 | 一种视频播放方法及显示设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113115085A true CN113115085A (zh) | 2021-07-13 |
Family
ID=76718221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110413359.1A Pending CN113115085A (zh) | 2021-04-16 | 2021-04-16 | 一种视频播放方法及显示设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113115085A (zh) |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103152558A (zh) * | 2013-03-29 | 2013-06-12 | 西南交通大学 | 基于场景识别的入侵检测方法 |
CN105335939A (zh) * | 2014-08-15 | 2016-02-17 | 腾讯科技(深圳)有限公司 | 图像处理方法及装置 |
CN106101547A (zh) * | 2016-07-06 | 2016-11-09 | 北京奇虎科技有限公司 | 一种图像数据的处理方法、装置和移动终端 |
US20170127013A1 (en) * | 2015-05-06 | 2017-05-04 | Boe Technology Group Co. Ltd. | A video player, a display apparatus, a video playing system and a video playing method |
CN108182667A (zh) * | 2017-12-29 | 2018-06-19 | 努比亚技术有限公司 | 一种图像优化方法、终端及计算机可读存储介质 |
CN108701439A (zh) * | 2016-10-17 | 2018-10-23 | 华为技术有限公司 | 一种图像显示优化方法及装置 |
CN108701217A (zh) * | 2017-11-23 | 2018-10-23 | 深圳和而泰智能控制股份有限公司 | 一种人脸肤色识别方法、装置和智能终端 |
CN109361950A (zh) * | 2018-11-27 | 2019-02-19 | Oppo广东移动通信有限公司 | 视频处理方法、装置、电子设备及存储介质 |
CN109379625A (zh) * | 2018-11-27 | 2019-02-22 | Oppo广东移动通信有限公司 | 视频处理方法、装置、电子设备和计算机可读介质 |
CN109525888A (zh) * | 2018-09-28 | 2019-03-26 | Oppo广东移动通信有限公司 | 图像显示方法、装置、电子设备以及存储介质 |
CN110149550A (zh) * | 2018-06-19 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 一种图像数据处理方法和装置 |
CN110248170A (zh) * | 2018-03-09 | 2019-09-17 | 华为技术有限公司 | 图像色彩调整方法及装置 |
CN110610150A (zh) * | 2019-09-05 | 2019-12-24 | 北京佳讯飞鸿电气股份有限公司 | 一种目标运动物体的跟踪方法、装置、计算设备和介质 |
CN111107392A (zh) * | 2019-12-31 | 2020-05-05 | 北京百度网讯科技有限公司 | 视频处理方法、装置和电子设备 |
CN111127307A (zh) * | 2019-12-09 | 2020-05-08 | 上海传英信息技术有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
-
2021
- 2021-04-16 CN CN202110413359.1A patent/CN113115085A/zh active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103152558A (zh) * | 2013-03-29 | 2013-06-12 | 西南交通大学 | 基于场景识别的入侵检测方法 |
CN105335939A (zh) * | 2014-08-15 | 2016-02-17 | 腾讯科技(深圳)有限公司 | 图像处理方法及装置 |
US20170127013A1 (en) * | 2015-05-06 | 2017-05-04 | Boe Technology Group Co. Ltd. | A video player, a display apparatus, a video playing system and a video playing method |
CN106101547A (zh) * | 2016-07-06 | 2016-11-09 | 北京奇虎科技有限公司 | 一种图像数据的处理方法、装置和移动终端 |
CN108701439A (zh) * | 2016-10-17 | 2018-10-23 | 华为技术有限公司 | 一种图像显示优化方法及装置 |
CN108701217A (zh) * | 2017-11-23 | 2018-10-23 | 深圳和而泰智能控制股份有限公司 | 一种人脸肤色识别方法、装置和智能终端 |
CN108182667A (zh) * | 2017-12-29 | 2018-06-19 | 努比亚技术有限公司 | 一种图像优化方法、终端及计算机可读存储介质 |
CN110248170A (zh) * | 2018-03-09 | 2019-09-17 | 华为技术有限公司 | 图像色彩调整方法及装置 |
CN110149550A (zh) * | 2018-06-19 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 一种图像数据处理方法和装置 |
CN109525888A (zh) * | 2018-09-28 | 2019-03-26 | Oppo广东移动通信有限公司 | 图像显示方法、装置、电子设备以及存储介质 |
CN109361950A (zh) * | 2018-11-27 | 2019-02-19 | Oppo广东移动通信有限公司 | 视频处理方法、装置、电子设备及存储介质 |
CN109379625A (zh) * | 2018-11-27 | 2019-02-22 | Oppo广东移动通信有限公司 | 视频处理方法、装置、电子设备和计算机可读介质 |
CN110610150A (zh) * | 2019-09-05 | 2019-12-24 | 北京佳讯飞鸿电气股份有限公司 | 一种目标运动物体的跟踪方法、装置、计算设备和介质 |
CN111127307A (zh) * | 2019-12-09 | 2020-05-08 | 上海传英信息技术有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN111107392A (zh) * | 2019-12-31 | 2020-05-05 | 北京百度网讯科技有限公司 | 视频处理方法、装置和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114302194B (zh) | 一种显示设备及多设备切换时的播放方法 | |
WO2022073392A1 (zh) | 图像显示方法及显示设备 | |
CN112118468A (zh) | 一种外设设备颜色跟随画面颜色变化的方法及显示设备 | |
WO2022021669A1 (zh) | 一种控制智能图像模式切换的方法及显示设备 | |
CN112887778A (zh) | 显示设备上视频资源播放模式的切换方法及显示设备 | |
CN111954059A (zh) | 屏保的展示方法及显示设备 | |
WO2022048203A1 (zh) | 一种输入法控件的操控提示信息的显示方法及显示设备 | |
CN112055245B (zh) | 一种彩色字幕实现方法及显示设备 | |
CN111954043B (zh) | 一种信息栏显示方法及显示设备 | |
CN113453069B (zh) | 一种显示设备及缩略图生成方法 | |
CN113360066B (zh) | 一种显示设备及文件展示方法 | |
CN112235621B (zh) | 一种可视区域的显示方法及显示设备 | |
CN112218156B (zh) | 一种调节视频动态对比度的方法及显示设备 | |
CN113115085A (zh) | 一种视频播放方法及显示设备 | |
CN113132809A (zh) | 一种通道切换方法、通道节目播放方法及显示设备 | |
CN112328553A (zh) | 一种缩略图的抓取方法及显示设备 | |
CN112199560A (zh) | 一种设置项的搜索方法及显示设备 | |
CN113350781B (zh) | 一种显示设备及游戏模式切换方法 | |
CN113436564B (zh) | 一种epos的展示方法及显示设备 | |
CN113190202B (zh) | 一种数据显示方法及显示设备 | |
CN114296664A (zh) | 一种副屏亮度调节方法及显示设备 | |
CN113655936A (zh) | 显示设备和屏幕保护方法 | |
CN113038193A (zh) | 一种自动修复音视频不同步的方法及显示设备 | |
CN113438475A (zh) | 一种缩略图的检验方法及显示设备 | |
CN116939295A (zh) | 一种显示设备及动态调节控制器使用率的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210713 |