CN117130511A - 亮度控制方法及其相关设备 - Google Patents
亮度控制方法及其相关设备 Download PDFInfo
- Publication number
- CN117130511A CN117130511A CN202310215932.7A CN202310215932A CN117130511A CN 117130511 A CN117130511 A CN 117130511A CN 202310215932 A CN202310215932 A CN 202310215932A CN 117130511 A CN117130511 A CN 117130511A
- Authority
- CN
- China
- Prior art keywords
- layer
- screen
- display
- interface
- brightness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 128
- 230000004044 response Effects 0.000 claims abstract description 22
- 238000012545 processing Methods 0.000 claims description 55
- 230000015654 memory Effects 0.000 claims description 36
- 238000013507 mapping Methods 0.000 claims description 18
- 230000004927 fusion Effects 0.000 claims description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 14
- 238000003860 storage Methods 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 abstract description 40
- 235000019557 luminance Nutrition 0.000 description 62
- 230000000694 effects Effects 0.000 description 46
- 230000015572 biosynthetic process Effects 0.000 description 21
- 238000003786 synthesis reaction Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 11
- 230000000007 visual effect Effects 0.000 description 9
- 238000007726 management method Methods 0.000 description 8
- 238000009877 rendering Methods 0.000 description 6
- 230000002194 synthesizing effect Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 206010044565 Tremor Diseases 0.000 description 3
- 239000008186 active pharmaceutical agent Substances 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 206010052143 Ocular discomfort Diseases 0.000 description 2
- 208000003464 asthenopia Diseases 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 239000002096 quantum dot Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 210000001145 finger joint Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本申请提供一种亮度控制方法及其相关设备,涉及终端技术领域,该方法包括:显示屏显示第三界面;接收第二操作;响应于第二操作,识别场景类型,场景类型至少包括截屏、旋转和分屏;当场景类型为截屏场景时,SF服务模块基于第三界面生成目标截图;其中,目标截图中SDR图层对应区域的亮度与第三界面中SDR图层对应的亮度相同。本申请使得截图中SDR图层对应区域的亮度与显示的第三界面中的SDR图层对应的亮度相同,从而可以避免在截图过程中SDR图层对应区域发生闪烁。
Description
技术领域
本申请涉及终端技术领域,具体涉及一种亮度控制方法及其相关设备。
背景技术
目前,随着终端技术的发展,如手机或平板电脑等具有图像显示功能的电子设备越来越多。但是,电子设备在显示时,例如,显示器的最大屏幕亮度大约在500nit以内,在大多情况下会被设置成仅支持0~200nit左右亮度范围的显示内容的状态。然而,图片、视频等制作端已经可以支持制作0~1000nit的HDR图片、HDR视频。当0~1000nit的HDR图片、视频利用现有的0~200nit的显示器进行显示时,受限于显示器设置的亮度,本应表达更宽广的亮暗部细节的HDR图片、视频,将无法得到较好的展示;用户在观看时只能看到最大亮度为200nit的图片、视频,体验非常不好。
另外,电子设备显示的显示界面通常是由多个图层合成的,也即,多个图层通过叠加的方式组成电子设备的显示界面。这样,当针对显示界面的屏幕亮度进行调整时,还可能出现部分图层对应亮度调整后显示较好,部分图层对应亮度调整后反而显示效果不好的情况。
对此,如何调整亮度能同时满足HDR图层和SDR图层的显示效果,成为一个亟需解决的问题。
发明内容
本申请提供一种亮度控制方法及其相关设备,分别对HDR图层和SDR图层进行调节,保证整体的显示效果符合视觉需求。
第一方面,提供了一种亮度控制方法,应用包括显示屏和SF服务模块的电子设备,所述方法包括:
所述显示屏显示第三界面;
接收第二操作;
响应于第二操作,识别场景类型,所述场景类型至少包括截屏、旋转和分屏;
当所述场景类型为截屏场景时,SF服务模块基于所述第三界面生成目标截图;
其中,所述目标截图中所述SDR图层对应区域的亮度与所述第三界面中所述SDR图层对应的亮度相同。
安卓系统原生的对应截屏场景的亮度控制方法中,对SDR图层会进行压暗,由此得到的截图中对应SDR图层的区域将会比同等屏幕亮度下原始显示的SDR图层暗很多。针对于此,本申请提供的针对截屏场景的控制方法,将会去除针对SDR图层的压暗处理,使得得到的截图中对应SDR图层的区域与同等屏幕亮度原始显示的SDR图层的亮度相同,避免显示过暗。
结合第一方面,在第一方面的某些实现方式中,所述电子设备还包括WMS,所述响应于第二操作,识别场景类型,包括:
响应于第二操作,目标应用配置用于指示不同场景类型的第一标识,所述目标应用与所述第三界面对应;
基于所述第一标识,所述WMS识别所述场景类型。
在实现方式中,目标应用通过对不同的场景类型配置不同的第一标识,从而可以使得后续WMS根据该第一标识确定出场景类型,进而使得SF服务模块可以对不同的场景类型选择进行不同的亮度控制方法。
结合第一方面,在第一方面的某些实现方式中,所述当所述场景类型为截屏时,SF服务模块基于所述第三界面生成目标截图,包括:
响应于第二操作,创建虚拟屏,所述虚拟屏上显示第四界面,所述第四界面与所述第三界面相同;
根据所述显示屏的预设屏幕亮度,对所述第四界面中包括的HDR图层进行色调映射处理,以及对包括的SDR图层不进行压暗处理;
基于处理后的HDR图层和不进行压暗处理的SDR图层,得到所述目标截图。
其中,压暗处理指的是确定图层对应的调光率,根据确定出的调光率对图层进行处理。
可选地,SF服务模块基于处理后的HDR图层和不进行压暗处理后的SDR图层可以得到第一截图,然后,根据第一截图可以其他图层合成得到目标截图。
在实现方式中,针对场景类型为截屏的场景,为了避免获取截图的流程对显示屏上正常进行的显示流程进行干扰,在本申请中,响应于第二操作,可以另外创建虚拟屏,虚拟屏上显示的第四界面与显示屏上显示的第三界面相同,这样,本申请可以针对虚拟屏上的第四界面进行处理以得到符合显示效果的截图。例如,可以针对虚拟屏上的第四界面所包括的HDR图层可以基于预设屏幕亮度进行色调映射处理,针对SDR图层则不进行压暗处理,由此,在GPU对处理后的HDR图层和不进行压暗处理的SDR图层合成后,得到的第一截图或进一步结合其他图层得到的目标截图中的SDR图层对应的区域可以保持原来的亮度效果,避免被压暗。
结合第一方面,在第一方面的某些实现方式中,所述方法还包括:
所述目标应用针对原始图像和融合图像配置不同的第二标识,所述原始图像经算法处理后得到所述融合图像;
响应于第二操作,所述SF服务模块识别第二标识;
所述SF服务模块识别屏幕类型,所述屏幕类型包括显示屏和虚拟屏;
针对所述虚拟屏,保留所述原始图像,并基于所述融合图像、叠加在所述融合图像之上的所述原始图像生成所述目标截图;
针对所述显示屏,滤除所述原始图像,并基于所述融合图像进行显示。
在实现方式中,目标应用可以针对未经算法处理的原始图像和经过算法处理的融合图像配置不同的第二标识,用于指示图像的不同。响应于截屏操作,SF服务模块可以通过识别第二标识,确定原始图像和融合图像。然后,针对生成截图的过程,则保留原始图像,使得原始图像叠加在融合图像之上,从而进而使得得到的截图最终包括的是原始图像;而针对送显的过程,则滤除原始图像,仅发送融合图像与其他图层进行合成显示。这样,本申请实施例在显示时,可以利用算法处理后、效果较好的融合图像进行显示;在生成截图时,可以基于原始图像生成截图,从而使得截图在发送给其他电子设备后,也能适应其他电子设备的亮度进行显示,避免出现对端设备因没有本申请的亮度控制方法,从而在将截图进行显示时会变得很暗,无法正常显示的情况。
结合第一方面,在第一方面的某些实现方式中,所述电子设备还包括亮度模块,所述方法还包括:
响应于针对第一应用的第一操作,所述显示屏显示第一界面;
当第一应用识别到所述第一界面包括HDR图层时,发送第一指令至所述亮度模块;
所述亮度模块接收到所述第一指令后,确定目标策略,并传输至所述SF服务模块,所述目标策略包括HDR图层和SDR图层分别对应的亮度控制参数;
所述SF服务模块基于送显图层的图层性质和所述目标策略对所述送显图层进行亮度调整;
调整后发送至所述显示屏显示;
其中,所述送显图层的图层性质包括HDR图层和/或SDR图层,亮度调整后性质为HDR图层的送显图层亮度大于亮度调整后性质为SDR图层的亮度。
在实现方式中,针对既包括HDR图层又包括SDR图层的第一界面,通过对图层性质进行识别,即通过识别图层性质为HDR图层还是SDR图层,对不同性质的图层确定不同的目标策略并进行图层级亮度的调整,从而既能提高HDR图层的亮度,又能压制SDR图层的亮度,保证HDR图层的显示效果提高以及SDR图层的显示效果不会刺眼,进而使得显示界面整体的显示效果更好,更符合视觉需求。
结合第一方面,在第一方面的某些实现方式中,所述电子设备还包括硬件合成器HWC,所述方法还包括:
所述SF服务模块通过所述HWC获取所述显示屏的最大屏幕亮度;
所述SF服务模块基于送显图层的图层性质和所述目标策略对所述送显图层进行亮度调整,包括:
所述SF服务模块基于所述目标策略和所述最大屏幕亮度,对图层性质为HDR图层的所述送显图层进行色调映射处理。
在实现方式中,通过结合最大屏幕亮度,可以发挥显示屏的最大能力,提高HDR图层的显示效果,使得HDR图层显示时亮部更亮,暗部更暗。
第二方面,提供了一种电子设备,所述电子设备包括:一个或多个处理器、存储器;所述存储器与所述一个或多个处理器耦合,所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,所述一个或多个处理器调用所述计算机指令以使得所述电子设备执行第一方面中的任一种亮度控制方法。
应理解,在上述第一方面中对相关内容的扩展、限定、解释和说明也适用于第二方面中相同的内容。
第三方面,提供了一种亮度控制装置,包括用于执行第一方面中任一种亮度控制方法的单元。
在一种可能的实现方式中,当该亮度控制装置是电子设备时,该处理单元可以是处理器,该输入单元可以是通信接口;该电子设备还可以包括存储器,该存储器用于存储计算机程序代码,当该处理器执行该存储器所存储的计算机程序代码时,使得该电子设备执行第一方面中的任一种方法。
第四方面,提供了一种芯片系统,包括:处理器,用于从存储器中调用并运行计算机程序,使得安装有所述芯片系统的设备执行第一方面或第二方面中的任一种亮度控制方法。
第五方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序代码,当所述计算机程序代码被电子设备运行时,使得该电子设备执行第一方面中的任一种亮度控制方法或第二方面中的任一种亮度控制方法。
第六方面,提供了一种计算机程序产品,所述计算机程序产品包括:计算机程序代码,当所述计算机程序代码被电子设备运行时,使得该电子设备执行第一方面中的任一种亮度控制方法或第二方面中的任一种亮度控制方法。
附图说明
图1是一种本申请实施例适用的一种场景示意图;
图2是本申请实施例提供的一种电子设备的硬件系统图;
图3是本申请实施例提供的一种电子设备的软件系统图;
图4是本申请实施例提供的一种显示流程的示意图;
图5是本申请实施例提供的一种亮度控制方法的流程示意图;
图6是图5对应的软件系统中的处理逻辑示意图;
图7是本申请实施例提供的一种截屏场景的示意图;
图8是本申请实施例提供的第一截屏场景下的亮度控制方法;
图9是本申请实施例提供的数据结构示意图;
图10是本申请实施例提供的获取最大屏幕亮度的示意图;
图11是本申请实施例提供的第二截屏场景;
图12是图11得到的截图发送至另一电子设备显示的效果示意图;
图13是本申请实施例提供的第二截屏场景下的亮度控制方法;
图14是本申请实施例提供的另一种软件系统结构图;
图15是本申请提供的一种电子设备的结构示意图。
具体实施方式
下面将结合附图,对本申请实施例中的技术方案进行描述。
1、亮度,单位投影面积上的发光强度,量化单位为nit或cd/m2。
2、图层(surface),例如像是含有文字或图形等元素的胶片,需要按照一定顺序叠放在一起,组合起来形成页面的最终效果。图层可以将页面上的元素精确定位。
3、图层合成器(surfaceflinger,SF):控制合成的系统服务进程,在这里计算参与显示的图层、可视区域等。
4、系统应用程序(application,APP)和第三方APP,电子设备中的APP通常可以分成系统APP和第三方APP。系统APP可以只电子设备的生产商所提供或研发的APP,电子设备的生产商可以包括电子设备的制造商、供应商、提供商或运行商等。例如,电子设备中的系统APP可以包括电话、信息、联系人、相机、录音等等。第三方APP指的是除了电子设备的生产商之外其他软件应用开发者所提供或研发的APP。例如,优酷、抖音等。第三方APP可以通过调用电子设备中的一项或多项系统功能来为用户提供相应的功能。示例性地,优酷、抖音可以为用户提供观看影视作品的功能等。
5、应用界面(user interface,UI),UI指应用程序或操作系统与用户之间进行交互和信息交换的介质接口,可实现信息的内部形式与用户可以接收形式之间的转换。应用界面是通过java、可扩展标记语言(extensible markup language,XML)等特定计算机语言编写的源代码,界面源代码在电子设备上经过解析,渲染,最终呈现为用户可以识别的内容。应用界面常见的表现形式是图形应用界面(graphic user interface,GUI),是指采用图形方式显示的与计算机操作相关的应用界面。它可以是在电子设备的显示屏中显示的文本、图标、按钮、菜单、选项卡、文本框、对话框、状态栏、导航栏、Widget等可视的界面元素。
6、前台运行、后台运行和关闭,APP对应包括三种运行状态:前台运行、后台运行和关闭。其中,当APP在电子设备的前台运行时,电子设备可以在显示屏上显示该APP的应用界面,用户可以通过该APP的应用界面中的控件与该APP进行交互。APP在电子设备中运行,但不属于上述在前台运行的情况即为APP在电子设备的后台运行的情况。APP在电子设备的后台运行的情况可以包括电子设备中存在该APP的进程,但显示屏上未显示有该APP的应用界面。由于后台运行的APP的应用界面未显示在显示屏上,用户通常无法直接与后台运行的APP进行交互。关闭指APP未在电子设备上运行。
应理解,在电子设备前台运行的APP可以有一个或多个,在电子设备后台运行的APP也可以有一个或多个。其中,在有一个或多个APP在电子设备前台运行的同时,电子设备的后台也可以运行有一个或多个APP。
7、进程(process),进程是应用程序关于某数据集合上的一次运行活动,是操作系统(例如Android系统)进行资源分配和调度的基本单位。每一个进程都会占用一块内存空间,应用程序以一个或多个进程的形式运行在操作系统上,实现相应的功能。
以上是对本申请实施例所涉及的名词的简单介绍,以下不再赘述。
目前,随着终端技术的发展,如手机或平板电脑等具有图像显示功能的电子设备越来越多。但是,电子设备在显示时,例如,显示器的最大屏幕亮度大约在500nit以内,在大多情况下会被设置成仅支持0~200nit左右亮度范围的显示内容的状态。然而,图片、视频等制作端为了接近人眼可感知的亮度,已经可以支持制作0~1000nit的HDR图片、HDR视频。当0~1000nit的HDR图片、视频利用现有的0~200nit的显示器进行显示时,受限于显示器设置的亮度,本应表达更宽广的亮暗部细节的HDR图片、视频,将无法得到较好的展示;用户在观看时只能看到最大亮度为200nit的图片、视频,体验非常不好。
另外,电子设备显示的显示界面通常是由多个图层合成的,也即,多个图层通过叠加的方式组成电子设备的显示界面。这样,当针对显示界面的屏幕亮度进行调整时,还可能出现部分图层对应亮度调整后显示较好,部分图层对应亮度调整后反而显示效果不好的情况。
电子设备显示的显示界面是由多个图层合成的。例如,在非全屏显示HDR图片或视频的场景下,电子设备中合成的显示界面可以包括HDR图层和SDR图层。HDR图层用于指示显示HDR图片或视频的显示内容的图层。SDR图层通常包括显示界面中的其他图层,例如,状态栏图层、导航栏图层等。相比于SDR图层,HDR图层所能使用的颜色种类更多,颜色表示范围更广,能够支持更丰富的图像色彩表现和更生动的图像细节表现,特别是画面暗部和亮部可呈现更多细节。
应理解,上述以非全屏显示为例对图层合成显示界面进行说明,全屏显示时显示界面的图层也可以由多个图层合成,并且,也可以包括HDR图层和SDR图层,对此,本申请实施例对此不进行任何限制。通常全屏指的是显示的视频或图片在屏幕上对应占用的区域为整个物理显示屏区域,非全屏指的是显示的视频或图片在屏幕上对应占用的区域仅为整个物理显示屏的部分区域,非全屏和全屏是相对的。
示例性地,图1示出了一种HDR图层和SDR图层合成显示界面的示意图。参考图1,电子设备显示图库APP中的一个非全屏视频播放界面,该界面可以由图1中的(a)所示的状态栏图层、图库的UI界面、HDR视频对应的图层、音量调节图层等多个图层叠加而成,合成后的显示效果如图1中的(b)所示。在图1中的(a)所示的示意图中,除了HDR视频对应的图层为HDR图层外,其他图层均为SDR图层。
假设当前电子设备在非全屏显示图片或视频时,受限于硬件的限制,所有图层对应的屏幕亮度均预先设定为150nit。若为了提高HDR视频的显示效果,在电子设备最大支持500nit的情况下,用户想将屏幕亮度提高到最大屏幕亮度500nit。此时,图1中所示SDR图层和HDR图层叠加最大屏幕亮度后,会被整体提高到500nit。这样,虽然实现了HDR视频的显示效果的提高,但是却会导致非显示HDR视频的区域,或者说显示SDR图层的区域变得很刺眼,SDR图层对应的显示效果将会给用户带来视觉上的不适、疲劳等负面影响。
因此,针对显示界面中既包括HDR图层又包括SDR图层的情况,如何调整亮度能同时满足HDR图层和SDR图层的显示效果,成为了一个亟需解决的问题。
有鉴于此,本申请实施例提供了一种亮度控制方法,针对既包括HDR图层又包括SDR图层的显示界面,通过对图层性质进行识别,即通过识别图层性质为HDR图层还是SDR图层,对不同性质的图层确定不同的目标策略并进行图层级亮度的调整,从而既能提高HDR图层的亮度,又能压制SDR图层的亮度,保证HDR图层的显示效果提高以及SDR图层的显示效果不会刺眼,进而使得显示界面整体的显示效果更好,更符合视觉需求。
本申请实施例提供的电子设备除了手机以外,还可以为平板电脑、个人计算机(personal computer,PC)、个人数字助理(personal digital assistant,PDA)、智能手表、上网本、可穿戴电子设备、增强现实技术(augmented reality,AR)设备、虚拟现实(virtualreality,VR)设备、车载设备、智能汽车、机器人、智能眼镜、智能电视等具有显示器,能实现显示功能的设备。
图2示出了一种适用于本申请的电子设备的硬件系统。
如图2所示,电子设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户第一标识模块(subscriber identificationmodule,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
需要说明的是,图2所示的结构并不构成对电子设备100的具体限定。在本申请另一些实施例中,电子设备100可以包括比图1所示的部件更多或更少的部件,或者,电子设备100可以包括图2所示的部件中某些部件的组合,或者,电子设备100可以包括图2所示的部件中某些部件的子部件。图2示的部件可以以硬件、软件、或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元。例如,处理器110可以包括以下处理单元中的至少一个:应用处理器(application processor,AP)、调制解调处理器、图形处理器(graphics processing unit,GPU)、图像信号处理器(image signal processor,ISP)、控制器、视频编解码器、数字信号处理器(digital signal processor,DSP)、基带处理器、神经网络处理器(neural-network processing unit,NPU)。其中,不同的处理单元可以是独立的器件,也可以是集成的器件。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一些实施例中,处理器110可以包括一个或多个接口。例如,处理器110可以包括以下接口中的至少一个:内部集成电路(inter-integrated circuit,I2C)接口、内部集成电路音频(inter-integrated circuit sound,I2S)接口、脉冲编码调制(pulse codemodulation,PCM)接口、通用异步接收传输器(universal asynchronous receiver/transmitter,UART)接口、移动产业处理器接口(mobile industry processor interface,MIPI)、通用输入输出(general-purpose input/output,GPIO)接口、SIM接口、USB接口。
示例性地,本申请实施例提供的处理器110可以执行以下方法:显示屏显示第三界面;接收第二操作;响应于第二操作,识别场景类型,场景类型至少包括截屏、旋转和分屏;当场景类型为截屏场景时,SF服务模块基于第三界面生成目标截图;其中,目标截图中SDR图层对应区域的亮度与第三界面中SDR图层对应的亮度相同。
图2所示的各模块间的连接关系只是示意性说明,并不构成对电子设备100的各模块间的连接关系的限定。可选地,电子设备100的各模块也可以采用上述实施例中多种连接方式的组合。
电子设备100的无线通信功能可以通过天线1、天线2、移动通信模块150、无线通信模块160、调制解调处理器以及基带处理器等器件实现。
天线1和天线2用于发射和接收电磁波信号。电子设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
电子设备100可以通过GPU、显示屏194以及应用处理器实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194可以用于显示图像或视频。
可选地,显示屏194可以用于显示图像或视频。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD)、有机发光二极管(organic light-emitting diode,OLED)、有源矩阵有机发光二极体(active-matrix organic light-emitting diode,AMOLED)、柔性发光二极管(flex light-emitting diode,FLED)、迷你发光二极管(mini light-emitting diode,Mini LED)、微型发光二极管(micro light-emitting diode,Micro LED)、微型OLED(Micro OLED)或量子点发光二极管(quantum dotlight emitting diodes,QLED)。在一些实施例中,电子设备100可以包括1个或N个显示屏194,N为大于1的正整数。
电子设备100可以通过ISP、摄像头193、视频编解码器、GPU、显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过摄像头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP可以对图像的噪点、亮度和色彩进行算法优化,ISP还可以优化拍摄场景的曝光和色温等参数。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193(也可以称为镜头)用于捕获静态图像或视频。可以通过应用程序指令触发开启,实现拍照功能,如拍摄获取任意场景的图像。摄像头可以包括成像镜头、滤光片、图像传感器等部件。物体发出或反射的光线进入成像镜头,通过滤光片,最终汇聚在图像传感器上。成像镜头主要是用于对拍照视角中的所有物体(也可以称为待拍摄场景、目标场景,也可以理解为用户期待拍摄的场景图像)发出或反射的光汇聚成像;滤光片主要是用于将光线中的多余光波(例如除可见光外的光波,如红外)滤去;图像传感器可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。图像传感器主要是用于对接收到的光信号进行光电转换,转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。
示例性地,数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
示例性地,视频编解码器用于对数字视频压缩或解压缩。电子设备100可以支持一种或多种视频编解码器。这样,电子设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1、MPEG2、MPEG3和MPEG4。
示例性地,陀螺仪传感器180B可以用于确定电子设备100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定电子设备100围绕三个轴(即,x轴、y轴和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。例如,当快门被按下时,陀螺仪传感器180B检测电子设备100抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消电子设备100的抖动,实现防抖。陀螺仪传感器180B还可以用于导航和体感游戏等场景。
示例性地,加速度传感器180E可检测电子设备100在各个方向上(一般为x轴、y轴和z轴)加速度的大小。当电子设备100静止时可检测出重力的大小及方向。加速度传感器180E还可以用于识别电子设备100的姿态,作为横竖屏切换和计步器等应用程序的输入参数。
示例性地,距离传感器180F用于测量距离。电子设备100可以通过红外或激光测量距离。在一些实施例中,例如在拍摄场景中,电子设备100可以利用距离传感器180F测距以实现快速对焦。
示例性地,环境光传感器180L用于感知环境光亮度。电子设备100可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器180L还可以与接近光传感器180G配合,检测电子设备100是否在口袋里,以防误触。
示例性地,指纹传感器180H用于采集指纹。电子设备100可以利用采集的指纹特性实现解锁、访问应用锁、拍照和接听来电等功能。
示例性地,触摸传感器180K,也称为触控器件。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,触摸屏也称为触控屏。触摸传感器180K用于检测作用于其上或其附近的触摸操作。触摸传感器180K可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于电子设备100的表面,并且与显示屏194设置于不同的位置。
上文详细描述了电子设备100的硬件系统,在上述硬件之上,运行有操作系统,操作系统层的操作系统可以是任意一种或多种通过进程(process)实现业务处理的计算机操作系统,例如,Linux操作系统、Unix操作系统、Android操作系统、iOS操作系统或windows操作系统等。在操作系统上可以安装运行应用程序。
图3是本申请实施例提供的一种电子设备的软件系统图。
分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android系统分为四层,从上至下分别为应用程序层(applications),应用程序框架层(application framework),安卓运行时(AndroidRuntime)和系统库,以及内核层(kernel)。
其中,应用程序层可以包括一系列应用程序包。例如,应用程序层可以包括桌面APP、系统用户界面(systemUI)、游戏APP、图库APP,相机APP,浏览器APP等应用程序(应用程序可以简称为应用),本申请实施例对此不做任何限制。
应用程序层中的应用可以分为系统应用和非系统应用,其中,系统应用具体可以包括桌面启动器(launcher)、系统用户界面(systemUI)、图库APP、相机APP和浏览器APP等,非系统应用可以包括游戏APP等。
这些APP一般是用java语言编写的,每个APP包括一个或多个类(class)文件。每个APP可以以进程的形式在应用程序中运行各自的类文件。用户在APP中操作时,APP可通过调用应用程序框架中的相关API或服务(service),与系统库或内核层进行交互,实现与该操作相对应动能。
应用程序层包括的launcher用于启动应用activity。
示例性地,launcher响应于用户点击相机应用对应的图标的操作,下发启动应用activity请求至活动管理器(activity manager service,AMS)。
图库APP用于为用户提供图片显示功能及视频播放功能。
示例性地,图库APP响应于用户点击视频播放的操作,调用编解码器对视频进行解码,并下发启动视频播放activity的请求至activity管理器。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。如图3所示,应用程序框架层可以包括活动管理器,窗口管理器(window managerservice,WMS),视图系统(view system service,VSS)等,本申请实施例对此不做任何限制。
活动管理器用于管理各个应用程序的生命周期以及导航回退功能,负责Android的主线程创建,各个应用程序的生命周期的维护。
窗口管理器用于管理窗口程序,窗口管理器可以获取显示屏尺寸以及音量条尺寸和形状,判断是否需要调整音量条尺寸和形状等。
在本申请实施例中,窗口管理器例如可以截屏、分屏等。截屏指示截取屏幕上显示的内容,对应生成一帧图像;分屏指示将显示屏分割成多个显示区域,并同时显示不同的内容。
视图系统包括可视控件,例如显示文字的控件,显示图片的控件等。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,在本申请实施例中,视图系统可用于显示非全屏的视频播放界面。
在本申请实施例中,应用程序框架层还可以包括亮度模块,该亮度模块用于进行亮度策略调整,例如,针对显示界面包括的HDR图层和SDR图层选择不同的亮度策略。
示例性地,本申请实施例会识别出不同的图层性质,判断该图层对应为HDR图层或SDR图层,然后,会压制SDR图层的亮度,只单独提高HDR图层的亮度。
Android Runtime包括核心库和虚拟机。Android Runtime负责安卓系统的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
系统库可以包括多个功能模块。例如:SF服务模块(surface flinger service),媒体库(media libraries),三维图形处理库(例如:openGL ES),二维图形引擎(例如:SGL)等。SF服务模块用于对显示子系统进行管理,并且为多个应用程序提供了二维图层和三维图层的融合。
示例性地,如图3所示,SF服务模块可以包括SF、Libtonemap、Libsharder等。SF用于控制合成的系统服务进程,在本申请实施例中参与计算显示的图层、可视区域等。Libtonemap用于控制HDR tonemap算法的模块。Libsharder在GPU合成过程中负责生成sksl语言,按照生成的sharder调用GPU进行相应的处理。
示例性地,系统库还可以包括中央处理器分散处理单元(data processing unit,DPU)、Skia、Sksl。Skia指示2D渲染引擎,提供适用于各种硬件和软件平台的通用API。Sksl指示Skia 2D渲染引擎使用着色器语言,经过Skia转化成opengl,再经过编译、链接生成的program是GPU可以直接识别的语言;在本申请实施例中,可以直接把Sksl当做GPU可直接识别的程序语言。
内核层是硬件和软件之间的层。内核层至少包含硬件合成器(hwcomposer,HWC)驱动、图形处理器(graphics processing unit,GPU)驱动,显示(display)驱动,图形缓冲区管理器(gralloc)驱动,摄像头驱动,音频驱动,传感器驱动等。
GPU为一种通用的图像处理设备,用于合成。HWC为一种专用图像处理设备,在本申请实施例中,用于对GPU无法合成的图层进行合成,或者说,用于基于GPU合成的图层与其他图层进行合成。HWC还可以进行后处理。例如,后处理可以包括:视频防抖、色彩增强(colorenhancement,CE)、3D查找表,即,风格变换(3dimensional look up table,3DLUT)、超分辨重建等。Gralloc可以理解为图形内存分配器,用来分配和管理图像生产者请求的内存。
需要说明的是,本申请实施例虽然以Android系统为例进行说明,但是其基本原理同样适用于基于iOS或Windows等操作系统的电子设备。
下面以电子设备为手机为例,操作系统为上述Android系统为例,对电子设备的显示流程进行简单说明。
图4示出了一种显示流程的示意图。如图4所示,针对图1所示的非全屏视频播放界面,所有SDR图层对应的显示流程一般分为:绘制、渲染、合成、硬件刷新显示四个阶段;播放的HDR视频(也即HDR图层)对应的显示流程一般分为:视频文件解析、视频解码、合成、硬件刷新显示四个阶段。硬件刷新显示用于指示显示屏进行刷新显示。
两者对比可知,SDR图层和HDR图层对应的显示流程都需要经过合成阶段的处理,而合成阶段通常由图3所示的Android系统中的SF服务模块来进行实现。因此,为了对HDR图层和SDR图层都能进行调整和优化,本申请实施例提供的亮度控制方法,可以应用在合成阶段,也即应用于SF服务模块上。当本申请实施例提供的亮度控制方法应用在SF服务模块中时,可以实现对SDR图层和HDR图层进行图层级亮度控制的目的。
结合图1至图4,图5示出了本申请实施例提供的一种亮度控制方法,图6是图5对应的软件系统中的处理逻辑示意图。如图5所示,该亮度控制方法10应用于上述所述的电子设备,该亮度控制方法10可以包括以下S11至S15,下面对步骤S11至S15分别进行介绍。
S11、响应于针对第一应用的第一操作,显示屏显示第一界面。
应理解,第一应用可以指示图库、视频等系统应用,还可以指示微信、优酷、抖音等非系统应用。第一操作可以包括点击操作、双击操作、滑动操作,还可以为语音操作等其他操作,本申请对此不进行任何限定。
应理解,第一界面可以包括视频播放界面和/或图片显示界面。图片可以是HDR图片或SDR图片,视频可以是HDR视频或SDR视频。其中,该第一界面在电子设备的显示屏上可以是全屏显示的,也可以是非全屏显示的,显示屏为物理上的屏幕。
示例性地,响应于用户针对图库APP中一个用于指示视频的视频图标的点击操作,电子设备可以显示如图1中的(b)所示的第一界面,第一界面包括非全屏的视频播放界面。此处,非全屏的视频播放界面由3个SDR界面和1个HDR界面叠加合成而成。
S12、当第一应用识别到第一界面中包括HDR图层时,发送第一指令至亮度模块。
第一指令用于指示基于第一界面包括的图层的性质选择对应的亮度策略,其中,当第一应用识别到第一界面中包括HDR图层时,第一指令可以携带指示第一界面中包括HDR图层的第一标识。
应理解,第一应用用于识别第一界面中是否包括HDR图层的识别方法,以及亮度策略可以是预先设定的,具体内容可以根据需要进行设置和调整,本申请实施例对此不进行任何限定。
S13、亮度模块接收到第一指令后,确定目标策略,并传输至SF服务模块。
可选地,亮度模块接收到第一指令后,确定目标策略,然后,可以将目标策略通过窗口管理服务器(Window Manager Service,WMS)的setDisplayBrightness接口传输至SF服务模块。进一步地,亮度模块可以将目标策略传输至SF服务模块中的SF。
应理解,目标策略可以包括多个亮度控制参数。例如,目标策略可以包括针对第一界面中的HDR图层的亮度控制参数和针对第一界面中的SDR图层的亮度控制参数,或者,可以包括针对第一界面中每个图层的亮度控制参数,其中,可以包括针对第一界面中每个HDR图层的亮度控制参数和SDR图层的亮度控制参数。
也就是说,目标策略可以基于HDR图层和SDR图层的图层性质进行划分,针对不同的图层性质设定不同的亮度控制参数,以在后续调整时使得显示出的HDR图层和SDR图层的亮度不同。或者,目标策略还可以针对每个图层设置不同的亮度控制参数,这样若第一界面中包括有多个HDR图层和多个SDR图层,该多个HDR图层可以基于设置的不同的亮度控制参数调整成不同的亮度,该多个SDR图层也可以基于设置的不同亮度控制参数调整成不同的亮度。
HDR图层的亮度控制参数和SDR图层的亮度控制参数包括SDR白点亮度和当前屏幕亮度,单位是nit。
示例性地,假设预设的亮度策略包括第一策略和第二策略,当第一界面包括HDR图层时,需利用第一策略进行调整,第一应用可以下发第一指令至亮度模块后,第一指令可以携带用于指示第一界面包括HDR图层的标识。这样,亮度模块接收到第一指令后,可以基于第一指令确定第一界面中包括有HDR图层,然后可以确定HDR图层所对应的目标策略为第一策略。
当第一界面不包括HDR图层或包括的为SDR图层时,需利用第二策略进行调整,第一应用可以下发第二指令至亮度模块,第二指令可以携带用于指示第一界面中不包括HDR图层的标识或者第二指令可以不携带用于指示第一界面包括HDR图层的标识即可。这样,第一应用下发第二指令至亮度模块后,亮度模块可以基于第二指令确定第一界面中没有包括HDR图层,然后可以确定不包括HDR图层所对应的目标策略为第二策略。
S14、SF服务模块基于送显图层的性质和目标策略,对送显图层的亮度进行调整。亮度调整后性质为HDR图层的送显图层的亮度大于性质为SDR图层的送显图层的亮度。
应理解,送显图层可以指示在第一界面之后,电子设备即将显示的下一个显示界面在合成阶段所需进行合成的图层。该用于合成的多个送显图层可以包括HDR图层和SDR图层,HDR图层和SDR图层的数量均可以包括一个或多个,本申请实施例对此不进行任何限定。
示例性地,如图6所示,当送显图层的性质为SDR图层时,SF可以将接收到的SDR图层对应的亮度控制参数发送给skiaGlenderEngine,再利用skiaGlenderEngine基于亮度控制参数确定SDR图层的调光率(dimming ratio);然后,在Libsharder中基于确定的调光率大小对该SDR图层进行处理,处理后的SDR图层再传输至GPU或HWC进行合成。应理解,skiaGlenderEngine负责进行GPU合成。
当送显图层的性质为HDR图层时,SF可以将接收到的HDR图层对应的亮度控制参数和预设屏幕亮度发送给Libsharder,然后,在Libsharder中可基于亮度控制参数、预设屏幕亮度、以及Libtonemap提供的色调映射参数对HDR图层进行处理,处理后的HDR图层再传输至GPU或HWC进行合成。
可选地,如图6所示,SF服务模块中的SF还可以通过HWC获取显示屏的最大亮度(或称为最大屏幕亮度),然后,SF服务模块基于接收到的亮度控制参数、以及接收到的最大屏幕亮度,以及Libtonemap提供的色调映射参数对HDR图层进行色调映射处理,也即对HDR图层的亮度进行调整。
色调映射是在有限动态范围媒介上近似显示高动态范围图像的一项计算机图形学技术。色调映射的算法中会根据性质为HDR的送显图层的色彩空间和显示屏输出的色彩空间,以及获取到的显示屏的最大屏幕亮度对性质为HDR的送显图层进行优化,以保证性质为HDR图层的内容可以更好的适应不同的显示屏,从而得到更好的显示效果。
当利用Libsharder对性质为SDR图层和HDR图层的送显图层进行处理之后,可以将处理后的图层发送至GPU进行合成,然后,GPU对应的图层合成结果无需进行其他处理时,可以经HWC传输后发送给显示屏进行显示;或者,GPU对应的图层合成结果还可以传输至SF服务模块包括的Frame buffer中进行暂存,后续HWC可以从Frame buffer中调用暂存的图层合成结果与其他图层进一步进行合成,再将最终合成的结果发送给显示屏进行显示。
可选地,如图6所示,在对HDR图层的送显图层进行色调映射之前,AGP services还可以读取上一帧HWC调用3D LUT生成显示结果时所对应的参数,并将其通过Libtonemap也发送给Libsharder,以在下一帧针对送显图层进行色调映射处理时将该参数结合起来处理。
应理解,在色调映射时结合HWC调用3D LUT生成的显示界面所对应的参数进行调整,可以使得调整后的送显图层,与GPU、DPU处理效果保持一致,避免显示效果跳变。
应理解,结合亮度控制参数、最大屏幕亮度和3D LUT提供的参数,针对性质为SDR图层或HDR图层的送显图层进行调整时,还可以基于送显图层具体的显示内容对亮度控制参数进行动态变化,以适应显示内容的显示需求。
调整后,送显图层性质为HDR图层的亮度大于送显图层性质为SDR图层的亮度,这样,后续在显示时,既能满足HDR图层的显示效果,提高细节的呈现和明暗的对比,也能满足SDR图层的显示需求,不会太突兀,避免用户在观看时视觉上产生不适、疲劳。
S15、SF服务模块将调整后的送显图层发送至显示屏进行显示。
可选地,SF服务模块可以将调整后的送显图层发送给GPU进行合成后再传输至显示屏进行显示,或者,将调整后的送显图层发送给GPU、HWC进行合成后再传输至显示屏进行显示。
应理解,调整后的送显图层在显示屏进行显示时,可以称为第二界面。
在本申请实施例提供的亮度控制方法中,通过识别显示的第一界面中包括有HDR图层,来触发亮度模块进行目标策略的选择并将目标策略传输给SF服务模块;然后,SF服务模块可以基于目标策略(SDR图层对应的亮度控制参数)计算SDR图层对应的调光率,然后,结合该调光率对性质为SDR图层的送显图层进行调整;SF服务模块还可以结合目标策略(HDR图层对应的亮度控制参数)、预设屏幕亮度或获取的最大屏幕亮度、Libtonemap发送的参数等,结合起来对性质为SDR图层的送显图层进行调整。调整后,性质为HDR图层的送显图层的亮度大于性质为SDR图层的送显图层的亮度。
这样,针对调整后的HDR图层和SDR图层进行图层合成后在显示屏显示时,既能提高HDR图层的亮度,保证HDR图层的显示效果,又能使得HDR图层的亮度比SDR图层的亮度高,从而不会使得SDR图层的显示过于突兀,影响用户观看时的视觉体验。
在上述基础上,由于电子设备在进行显示过程中,还会涉及截屏、分屏、旋转、录屏、投屏等多种显示场景,对此,为了提高每种场景下的显示效果,本申请针对每种场景分别提供了相应的亮度控制方法,以对每种场景对应的显示效果适应性调整和优化,解决一些诸如闪烁、图片和视频投屏或发送到对端设备后效果不对等问题,保证每种场景下的显示都能满足视觉要求。
下面结合图7至图10,对截屏场景和截屏场景下的亮度控制方法进行详细的介绍。
示例性地,图7示出了一种截屏场景的示意图。如图7中的(a)所示,响应于用户的截屏操作,电子设备可以生成如图7中的(b)所示的截图,并将该截图进行存储。其中,该截屏操作可以为指关节双击显示屏的操作。
在本申请中,截屏场景可以分为普通截屏场景和特殊截屏场景,普通截屏场景可以称为第一截屏场景,特殊截屏场景可以称为第二截屏场景。
普通截屏场景指的是响应于用户截屏操作,将显示界面上的图层(可以包括HDR图层和SDR图层)合成一个截图的过程。其中,显示界面上对应视频帧或图片的图层是未经算法处理过的原始图像,例如,如图7中的(a)所示的显示界面,包括多个SDR图层和HDR图层,且HDR图层对应的视频帧或图片是未经融合算大等特殊算法处理过的原始图像;响应于截屏操作后,经本申请提供的普通截屏场景对应的亮度控制方法处理后,得到的截图为图7中的(b)所示的合成为一个截图。
特殊截屏场景指的是响应于用户截屏操作,将配置了第二标识的图层(可以包括未经算法处理过的原始图像,以及经算法处理过的融合图像)进行第二标识的识别后,对生成截图与送显分别结合不同的图像进行区分处理的过程。
结合图7所示的截屏场景,图8示出了一种第一截屏场景下的亮度控制方法,如图8所示,该方法20应用于包括显示屏的电子设备。该方法20可以包括以下S21至S27,下面分别对步骤S21至S27进行详细说明。
S21、显示屏显示第三界面。
该第三界面用于指示视频播放界面或图片显示界面,该视频播放界面或图片显示界面可以是非全屏显示的,也可以是全屏显示的。图片可以是HDR图片或SDR图片,视频可以是HDR视频或SDR视频。
第三界面可以与第一界面相同,也可以不相同。若第三界面与第一界面相同,可以参考针对图1中的(b)所示的第一界面的描述,在此不再赘述。
此外,第三界面可以是单任务界面或多任务界面。单任务界面可以为一个显示图片或视频的界面,如图1中的(b)所示的非全屏的视频播放界面。多任务界面可以为多个图层叠加排列或分区排列显示的界面,例如分屏后,屏幕上半部分区域显示HDR视频,下半部分区域显示微信APP中的聊天界面。
S22、接收用户的第二操作。
示例性地,第二操作可以为针对实体按键的按压操作,针对虚拟按键的点击操作,针对显示屏的指关节双击操作、滑动操作,针对显示屏上显示的图标的拖拽操作,针对显示屏物理空间上的旋转操作,或者,还可以为语音操作等,本申请实施例对此不进行任何限定。
需要说明的是,此处第二操作可以称为截屏操作,该截屏操作可以包括用于触发截屏、触发旋转、触发分屏的操作。
S23、响应于第二操作,目标应用配置用于指示不同场景类型的第一标识;该场景类型至少包括截屏、旋转、分屏等。
此处,目标应用用于指示第三界面对应的应用程序。
图9示出了一种数据结构示意图。如图9所示,目标应用可以对电子设备中包括的数据结构进行修改,在CaptrueArgs中增加一个int类型的flag,用以标记不同的场景类型,其中,flag值可以默认为0,用于指示场景类型默认为截屏场景。
示例性地,若WMS没有启动旋转动画模块,则不需要修改flag值,也即flag值继续被配置为0,用以指示场景类型为截屏场景。
响应于第二操作,若WMS启动了旋转动画模块,此时,目标应用可以继续判断屏幕有没有旋转,若有旋转,则可以确定场景类型为旋转场景,并将mScreenShotFlag对应的flag值配置为1,以表示当前场景为旋转场景。
若没有旋转,则可以确定场景类型为分屏场景,并将mScreenShotFlag对应的flag值为设置2,以表示当前场景为分屏场景。
应理解,mScreenShotFlag对应的flag值的大小,以及与场景类型的对应示意关系可以根据需要进行设置和调整,本申请实施例对此不进行任何限定。
应理解,本申请基于对不同场景类型配置不同的第一标识,从而使得后续SF服务模块可以基于第一标识,对场景类型进行识别并且可以针对不同的场景进行不同的亮度控制。
S24、WMS通过识别第一标识来识别场景类型。
WMS可以通过获取CaptrueArgs中的mScreenShotFlag对应的flag值,然后,基于该值的大小(即第一标识)可以识别出用户所触发的场景类型。
例如,当WMS获取到CaptrueArgs中的mScreenShotFlag对应的flag值为0时,可以确定当前场景类型为截屏场景。
S25、响应于第二操作,SF服务模块创建虚拟屏,该虚拟屏上的界面为第四界面。
应理解,虚拟屏是一个模拟屏幕,比如是一个显示实例(display),虚拟屏上的界面不对用户显示。本申请之前所述的显示屏是一个物理屏幕,虚拟屏与显示屏对应,即虚拟屏与显示屏的尺寸、分辨率均相同。在本申请实施例中,第四界面和第三界面对应,区别仅在于第三界面向用户显示,第四界面不向用户显示,除此之外,第四界面和第三界面均相同。
应理解,SF服务模块创建的虚拟屏上的界面与显示屏上的界面相同,包括多个SDR图层和/或HDR图层。例如,当显示屏显示的第三界面由3个SDR图层和1个HDR图层叠加形成时,SF服务模块创建的虚拟屏上的界面也应由相同的3个SDR图层和1个HDR图层叠加形成。此处,为了不影响显示屏正常显示,因此,可以利用SF服务模块创建虚拟屏,并借助不对用户显示的虚拟屏上的数据来进行后续的处理。
还应理解,步骤S24和步骤S25在实际处理过程中,会有先后次序,通常步骤S24在前,步骤S25在后。
S26、根据S24,当WMS识别出场景类型为截屏场景时,针对第四界面中的所有HDR图层根据预设屏幕亮度进行色调映射处理,针对所有SDR图层不进行压暗处理。
其中,压暗处理指的是确定SDR图层对应的调光率,再根据确定出的调光率对SDR图层进行处理。
可选地,利用GPU针对处理后的所有HDR图层和不进行压暗处理的SDR图层进行合成,得到第一截图;然后,将合成的第一截图传输到一个缓存中返回给SF。
例如,Android系统内置了一个截屏命令screencap,响应于触发操作应用可以下发截屏命令至SF服务模块,SF服务模块执行命令后可以对虚拟屏显示的第四界面所包括的HDR图层结合预设屏幕亮度进行处理,而对SDR图层不做dimming等处理,也即对SDR图层不进行压暗;这样,针对处理后的HDR图层和不进行压暗处理的SDR图层可以通过GPU合成的方式,合成为一张图片,并保存到Frame Buffer中。该合成后的图片可以称为第一截图,该第一截图对应的性质为SDR图层。
其中,预设屏幕亮度可以根据需要进行设置和调整,本申请实施例对此不进行任何限制。例如,显示屏可支持的屏幕亮度范围为0~1000nit,预设屏幕亮度设定为500nit。预设屏幕亮度可以根据历史数据,结合经验进行选择。
S27、基于处理后的HDR图层和不进行压暗处理的SDR图层,得到目标截图。
例如,SF服务模块基于处理后的HDR图层和不进行压暗处理后的SDR图层可以得到第一截图,然后,根据第一截图可以其他图层合成得到目标截图。
针对目标截图,可以作为一张图片进行存储;或者,后续响应于用户针对该目标截图对应缩略图的点击操作,还可以发送到显示屏进行显示(应理解,此时目标截图对应为性质为SDR图层的一个图层,因此在显示时按照显示对应的亮度控制方法继续进行dimming),或者,还可以发送到对端设备上显示,该对端设备指的是与生成目标截图的本端设备连接的另一个或多个电子设备。
在上述本申请实施例提供的亮度控制方法中,首先目标应用通过识别场景类型,对不同的场景类型配置用于指示不同场景类型的第一标识,从而可以使得WMS根据该第一标识确定出当前场景类型,进而SF服务模块可以对不同的场景类型选择不同的亮度控制方法进行控制。
针对场景类型为截屏的场景,为了避免获取截图的流程对显示屏上正常进行的显示流程进行干扰,在本申请中,响应于截屏操作,可以另外创建虚拟屏,虚拟屏上显示的第四界面与显示屏上显示的第三界面相同,这样,本申请可以针对虚拟屏上的第四界面进行处理以得到符合显示效果的截图。例如,针对虚拟屏上的第四界面所包括的HDR图层可以基于预设屏幕亮度进行色调映射处理,针对SDR图层则不进行压暗处理,由此,在GPU对处理后的HDR图层和不进行压暗处理的SDR图层合成后,得到的第一截图或进一步结合其他图层得到的目标截图中的SDR图层对应的区域可以保持原来的亮度效果,避免被压暗。
应理解,安卓系统原生的对应截屏场景的亮度控制方法中,对SDR图层会进行压暗,由此得到的截图中对应SDR图层的区域将会比同等屏幕亮度下原始显示的SDR图层暗很多。针对于此,本申请提供的针对截屏场景的控制方法,将会去除针对SDR图层的压暗处理,使得得到的截图中对应SDR图层的区域与同等屏幕亮度原始显示的SDR图层的亮度相同,避免显示过暗。
可选地,本申请提供的方法还可以包括以下步骤S28。
S28、SF服务模块获取最大屏幕亮度。
示例性地,底层会根据屏幕能力配置好屏幕参数,会额外增加最大屏幕亮度的配置项,然后,可以通过图10所示的通路,在SF启动的时候可以进行读取,并将最大屏幕亮度保存在sOEMMaxLumiance,比如屏幕可支持的最大屏幕亮度为1000nit,则可以将1000nit保存在sOEMMaxLumiance中,以便后续需要时进行调用。
例如,如图10所示,SF可以从HWC获取最大屏幕亮度,由驱动配置;将最大屏幕亮度发送给mDisplayColorProfile;然后,通过mDisplayColorProfile的getDesiredMaxLuminance可以获取最大屏幕亮度。
然而,当识别出的场景类型为截屏场景时,若结合最大屏幕亮度对第四界面上包括的图层进行调整,可能会使得第四界面中的HDR图层在经过tonemap处理之后,后续在同样的屏幕亮度下,明显亮于其他SDR图层对应区域。因此,为了避免在截屏场景中,截屏时使用最大屏幕亮度造成HDR图层对应区域经tonemap处理之后亮度明显高于SDR图层对应的区域,本申请实施例中,会选择使用预设屏幕亮度来对HDR图层进行色调映射处理。也就是说,虽然本申请实施例可以获取最大屏幕亮度,但是,在判断到当前场景类型为截屏场景时,在调整图层的亮度时不使用最大屏幕亮度,而使用的是预设屏幕亮度。
上述介绍了截屏场景下,在合成阶段对图层进行亮度调整的流程,下面结合图11介绍一种特殊截屏场景。
图11中的(a)所示为本来用于送显的图层,该图层可以包括为HDR图片或HDR视频的原始图像。在相关技术中,目标应用针对该原始图像进行了一系列的算法处理,例如经过像素级的亮度调整后使得图像中的亮部更亮、暗部更暗,处理之后得到如图11中的(b)所示的融合图像。若将该融合图像结合本申请提供的图5所示的亮度控制方法送显后可能更符合视觉需求,显示效果更好。如图11中的(c)所示。
但是,将该融合图像进行送显后,响应于截屏操作可以得到如图11中的(d)所示的截图,若将该截图发送给电子设备200后,由于电子设备200没有设置本申请的亮度控制方法,则可能出现截图很暗,无法正常显示的情况,如图12所示。
因此,本申请实施例提供一种特殊截屏场景下的亮度控制方法,将针对融合图像的截屏和送显两路处理进行区分,以使得送显可以继续使用融合图像进行显示,截屏可以保留原始图像,得到原始图像和融合图像叠加后的截图。
图13示出了一种第二截屏场景下的亮度控制方法,如图13所示,该方法30应用于包括显示屏的电子设备。该方法30可以包括以下S31至S35,下面分别对步骤S31至S35进行详细说明。
S31、目标应用针对原始图像和融合图像配置不同的第二标识。
可选地,目标应用针对原始图像进行算法处理,得到融合图像。
基于此,针对原始图像和融合图像可以配置不同的第二标识,比如,针对原始图像可以设置为“3”的第二标识,针对融合图像可以设置为“4”的第二标识。
S32、响应于第二操作,SF服务模块识别第二标识。
该第二操作可以与上述S23中的第二操作下相同,即为截屏操作。
可选地,SF服务模块可以通过本申请增设的setExtensionLayerFlag接口识别原始图像和融合图像所对应的第二标识。
图14示出了的本申请提供的增加了setExtensionLayerFlag接口的软件系统结构图,基于此,在响应于截屏操作后,SF服务模块通过setExtensionLayerFlag接口识别原始图像、融合图像分别对应的第二标识。
应理解,SF服务模块通过识别第二标识,可以明确哪个图像时原始图像,哪个图像时融合图像,以便于后续在生成截图和送显时,对原始图像和融合图像进行选择使用。
S33、识别屏幕类型,该屏幕类型包括显示屏和虚拟屏。
应理解,在S25中,响应于第二操作,SF服务模块还创建有虚拟屏,因此可以识别屏幕类型,以便于后续不同的屏幕类型,结合不同的图像进行处理。
S34、针对虚拟屏,保留原始图像,基于叠加的原始图像、融合图像和其他图层生成目标截图。
应理解,由于保留了原始图像,原始图像叠加在融合图像上(可以理解为重叠在一起,融合图像被完全覆盖),因此,在生成目标截图时,相当于对应原始图像、融合图像的区域处,截取到的同一区域的内容是最上方的原始图像。当然,目标截图中还包括对应其他图层的区域。
应理解,原始图像对应的图层层级可以设置在融合图像对应的图层层级之上,从而使得虚拟屏上显示的原始图像在融合图像之上。基于此,在生成目标截图时,相当于融合图像被原始图像完全覆盖,没有可见区域,所以也没有额外的负载。
还应理解,由于虚拟屏的结果可能会被发送到其他电子设备上进行显示,而其他电子设备可能不能较好的支持融合图像,因此,本申请选择将原始图像图层层级设置在最上方,以保证看到的是原始效果。
可选地,在S34中,针对虚拟屏,也可以滤除融合图像,仅基于原始图像和其他图层生成目标截图。
S35、针对显示屏,滤除原始图像,基于融合图像和其他图层进行显示。
可选地,在rebuildLayerStacks阶段,过滤掉叠加在融合图像上的原始图像,仅剩下融合图像和其他图层来合成并显示。
应理解,由于原始图像和融合图像可能差异较大,因此,在进行送显时还是希望使用融合图像来进行显示。
在上述本申请实施例提供的特殊截屏场景中,目标应用可以针对未经算法处理的原始图像和经过算法处理的融合图像配置不同的第二标识,用于指示图像的不同。响应于截屏操作,SF服务模块可以通过识别第二标识,确定原始图像和融合图像。然后,针对生成截图的过程,则保留原始图像,使得原始图像叠加在融合图像之上,从而使得得到的截图最终包括的是原始图像;而针对送显的过程,则滤除原始图像,仅发送融合图像与其他图层进行合成显示。这样,本申请实施例在显示时,可以利用算法处理后、效果较好的融合图像进行显示;在生成截图时,可以基于原始图像生成截图,从而使得截图在发送给其他电子设备后,也能适应其他电子设备进行显示,避免出现对端设备因没有本申请的亮度控制方法,从而在将截图进行显示时会变得很暗,无法正常显示的情况。
上文结合图1至图14,描述了本申请提供的亮度控制方法以及软件系统、硬件系统。下面将结合图15,描述本申请适用的电子设备的芯片系统。应理解,本申请实施例中的芯片系统可以执行前述本申请实施例的各种方法,即以下各种产品的具体工作过程,可以参考前述方法实施例中的对应过程。
图15示出了本申请提供的一种电子设备的结构示意图。图15中的虚线表示该单元或该模块为可选的,电子设备400可用于实现上述方法实施例中描述的亮度控制方法。
电子设备400包括一个或多个处理器401,该一个或多个处理器401可支持电子设备400实现方法实施例中的方法。处理器401可以是通用处理器或者专用处理器。例如,处理器401可以是中央处理器(central processing unit,CPU)、数字信号处理器(digitalsignal processor,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现场可编程门阵列(field programmable gate array,FPGA)或者其它可编程逻辑器件,如分立门、晶体管逻辑器件或分立硬件组件。
处理器401可以用于对电子设备400进行控制,执行软件程序,处理软件程序的数据。电子设备400还可以包括通信单元405,用以实现信号的输入(接收)和输出(发送)。
例如,电子设备400可以是芯片,通信单元405可以是该芯片的输入和/或输出电路,或者,通信单元405可以是该芯片的通信接口,该芯片可以作为电子设备或其它电子设备的组成部分。
又例如,电子设备400可以是电子设备,通信单元405可以是该电子设备的收发器,或者,通信单元405可以是该电子设备的收发电路。
电子设备400中可以包括一个或多个存储器402,其上存有程序404,程序404可被处理器401运行,生成指令403,使得处理器401根据指令403执行上述方法实施例中描述的亮度控制方法。
可选地,存储器402中还可以存储有数据。可选地,处理器401还可以读取存储器402中存储的数据,该数据可以与程序404存储在相同的存储地址,该数据也可以与程序404存储在不同的存储地址。
处理器401和存储器402可以单独设置,也可以集成在一起;例如,集成在电子设备的系统级芯片(system on chip,SOC)上。
示例性地,存储器402可以用于存储本申请实施例中提供的亮度控制方法的相关程序404,处理器401可以用于在升级时调用存储器402中存储的亮度控制方法的相关程序404,执行本申请实施例的亮度控制方法。例如:显示屏显示第三界面;接收第二操作;响应于第二操作,识别场景类型,场景类型至少包括截屏、旋转和分屏;当场景类型为截屏场景时,SF服务模块基于第三界面生成目标截图;其中,目标截图中SDR图层对应区域的亮度与第三界面中SDR图层对应的亮度相同。
本申请还提供了一种计算机程序产品,该计算机程序产品被处理器401执行时实现本申请中任一方法实施例所述的亮度控制方法。
该计算机程序产品可以存储在存储器402中,例如是程序404,程序404经过预处理、编译、汇编和链接等处理过程最终被转换为能够被处理器401执行的可执行目标文件。
本申请还提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被计算机执行时实现本申请中任一方法实施例所述的亮度控制方法。该计算机程序可以是高级语言程序,也可以是可执行目标程序。
可选地,该计算机可读存储介质例如是存储器402。存储器402可以是易失性存储器或非易失性存储器,或者,存储器402可以同时包括易失性存储器和非易失性存储器。其中,非易失性存储器可以是只读存储器(read-only memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(dynamic RAM,DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data rate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlinkDRAM,SLDRAM)和直接内存总线随机存取存储器(direct rambus RAM,DR RAM)。
本领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和设备的具体工作过程以及产生的技术效果,可以参考前述方法实施例中对应的过程和技术效果,在此不再赘述。
在本申请所提供的几个实施例中,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的方法实施例的一些特征可以忽略,或不执行。以上所描述的装置实施例仅仅是示意性的,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,多个单元或组件可以结合或者可以集成到另一个系统。另外,各单元之间的耦合或各个组件之间的耦合可以是直接耦合,也可以是间接耦合,上述耦合包括电的、机械的或其它形式的连接。
应理解,在本申请的各种实施例中,各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请的实施例的实施过程构成任何限定。
另外,本文中术语“系统”和“网络”在本文中常被可互换使用。本文中的术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
总之,以上所述仅为本申请技术方案的较佳实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (9)
1.一种亮度控制方法,其特征在于,应用于包括显示屏和SF服务模块的电子设备,所述方法包括:
所述显示屏显示第三界面;
接收第二操作;
响应于第二操作,识别场景类型,所述场景类型至少包括截屏、旋转和分屏;
当所述场景类型为截屏场景时,SF服务模块基于所述第三界面生成目标截图;
其中,所述目标截图中SDR图层对应区域的亮度与所述第三界面中所述SDR图层对应的亮度相同。
2.根据权利要求1所述的亮度控制方法,其特征在于,所述电子设备还包括WMS;
响应于第二操作,识别场景类型,包括:
响应于第二操作,目标应用配置用于指示不同场景类型的第一标识,所述目标应用与所述第三界面对应;
基于所述第一标识,所述WMS识别所述场景类型。
3.根据权利要求1或2所述的亮度控制方法,其特征在于,当所述场景类型为截屏时,SF服务模块基于所述第三界面生成目标截图,包括:
响应于第二操作,创建虚拟屏,所述虚拟屏上显示第四界面,所述第四界面与所述第三界面相同;
根据所述显示屏的预设屏幕亮度,对所述第四界面中包括的HDR图层进行色调映射处理,以及对包括的SDR图层不进行压暗处理;
基于处理后的HDR图层和不进行压暗处理的SDR图层,得到所述目标截图。
4.根据权利要求3所述的亮度控制方法,其特征在于,所述方法还包括:
所述目标应用针对原始图像和融合图像配置不同的第二标识,所述原始图像经算法处理后得到所述融合图像;
响应于第二操作,所述SF服务模块识别第二标识;
所述SF服务模块识别屏幕类型,所述屏幕类型包括显示屏和虚拟屏;
针对所述虚拟屏,保留所述原始图像,并基于所述融合图像、叠加在所述融合图像之上的所述原始图像生成所述目标截图;
针对所述显示屏,滤除所述原始图像,并基于所述融合图像进行显示。
5.根据权利要求1所述的亮度控制方法,其特征在于,所述电子设备还包括亮度模块,所述方法还包括:
响应于针对第一应用的第一操作,所述显示屏显示第一界面;
当第一应用识别到所述第一界面包括HDR图层时,发送第一指令至所述亮度模块;
所述亮度模块接收到所述第一指令后,确定目标策略,并传输至所述SF服务模块,所述目标策略包括HDR图层和SDR图层分别对应的亮度控制参数;
所述SF服务模块基于送显图层的图层性质和所述目标策略对所述送显图层进行亮度调整;
调整后发送至所述显示屏显示;
其中,所述送显图层的图层性质包括HDR图层和/或SDR图层,亮度调整后性质为HDR图层的送显图层亮度大于亮度调整后性质为SDR图层的亮度。
6.根据权利要求5所述的亮度控制方法,其特征在于,所述电子设备还包括硬件合成器HWC,所述方法还包括:
所述SF服务模块通过所述HWC获取所述显示屏的最大屏幕亮度;
所述SF服务模块基于送显图层的图层性质和所述目标策略对所述送显图层进行亮度调整,包括:
所述SF服务模块基于所述目标策略和所述最大屏幕亮度,对图层性质为HDR图层的所述送显图层进行色调映射处理。
7.一种电子设备,其特征在于,包括处理器和存储器;
所述存储器,用于存储可在所述处理器上运行的计算机程序;
所述处理器,用于执行如权利要求1至6中任一项所述的亮度控制方法。
8.一种芯片系统,其特征在于,包括:处理器,用于从存储器中调用并运行计算机程序,使得安装有所述芯片的设备执行如权利要求1至6中任一项所述的亮度控制方法。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时,使所述处理器执行如权利要求1至6中任一项所述的亮度控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310215932.7A CN117130511A (zh) | 2023-02-24 | 2023-02-24 | 亮度控制方法及其相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310215932.7A CN117130511A (zh) | 2023-02-24 | 2023-02-24 | 亮度控制方法及其相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117130511A true CN117130511A (zh) | 2023-11-28 |
Family
ID=88857075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310215932.7A Pending CN117130511A (zh) | 2023-02-24 | 2023-02-24 | 亮度控制方法及其相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117130511A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112805745A (zh) * | 2019-01-31 | 2021-05-14 | 华为技术有限公司 | 一种混合图层处理方法及装置 |
CN112825232A (zh) * | 2019-11-20 | 2021-05-21 | 华为技术有限公司 | 一种补偿方法及电子设备 |
CN113810603A (zh) * | 2021-08-12 | 2021-12-17 | 荣耀终端有限公司 | 点光源图像检测方法和电子设备 |
US20220335583A1 (en) * | 2019-12-31 | 2022-10-20 | Huawei Technologies Co., Ltd. | Image processing method, apparatus, and system |
-
2023
- 2023-02-24 CN CN202310215932.7A patent/CN117130511A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112805745A (zh) * | 2019-01-31 | 2021-05-14 | 华为技术有限公司 | 一种混合图层处理方法及装置 |
CN112825232A (zh) * | 2019-11-20 | 2021-05-21 | 华为技术有限公司 | 一种补偿方法及电子设备 |
US20220335583A1 (en) * | 2019-12-31 | 2022-10-20 | Huawei Technologies Co., Ltd. | Image processing method, apparatus, and system |
CN113810603A (zh) * | 2021-08-12 | 2021-12-17 | 荣耀终端有限公司 | 点光源图像检测方法和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11968447B2 (en) | Long-focus shooting method and electronic device | |
CN112269527B (zh) | 应用界面的生成方法及相关装置 | |
CN113805745B (zh) | 一种悬浮窗的控制方法及电子设备 | |
CN112527174B (zh) | 一种信息处理方法及电子设备 | |
CN112527222A (zh) | 一种信息处理方法及电子设备 | |
CN113643186A (zh) | 一种图像增强方法及电子设备 | |
CN115272138B (zh) | 图像处理方法及其相关设备 | |
CN116166256A (zh) | 界面生成方法及电子设备 | |
CN116166259A (zh) | 界面生成方法及电子设备 | |
CN115643485A (zh) | 拍摄的方法和电子设备 | |
CN116152122B (zh) | 图像处理方法和电子设备 | |
EP4262226A1 (en) | Photographing method and related device | |
CN117130509B (zh) | 亮度控制方法及其相关设备 | |
CN117130511A (zh) | 亮度控制方法及其相关设备 | |
CN115589539A (zh) | 一种图像调节的方法、设备及存储介质 | |
CN117130509A (zh) | 亮度控制方法及其相关设备 | |
CN117130510A (zh) | 亮度控制方法及其相关设备 | |
CN116166255A (zh) | 界面生成方法及电子设备 | |
CN116672707B (zh) | 生成游戏预测帧的方法和电子设备 | |
CN116708931B (zh) | 图像处理方法及电子设备 | |
CN116055738B (zh) | 视频压缩方法及电子设备 | |
WO2023035868A1 (zh) | 拍摄方法及电子设备 | |
CN116761082B (zh) | 图像处理方法及装置 | |
CN116684725B (zh) | 应用界面的布局方法、装置、电子设备、存储介质及芯片 | |
CN117148959B (zh) | 眼动追踪的帧率调整方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |