CN114513690B - 显示设备及图像采集方法 - Google Patents
显示设备及图像采集方法 Download PDFInfo
- Publication number
- CN114513690B CN114513690B CN202011164402.7A CN202011164402A CN114513690B CN 114513690 B CN114513690 B CN 114513690B CN 202011164402 A CN202011164402 A CN 202011164402A CN 114513690 B CN114513690 B CN 114513690B
- Authority
- CN
- China
- Prior art keywords
- camera
- preview
- image
- target
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 239000011159 matrix material Substances 0.000 claims description 23
- 230000004044 response Effects 0.000 claims description 13
- 238000005516 engineering process Methods 0.000 abstract description 3
- 230000009286 beneficial effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 27
- 230000006870 function Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000005375 photometry Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
- H04N21/4854—End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/71—Circuitry for evaluating the brightness variation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供实施例,属于显示技术,提供一种显示设备及图像采集方法,包括摄像头,用于采集图像数据;显示器,被配置为显示图像画面和用户界面,与所述显示器及所述摄像头进行连接的控制器,其中,用户界面能够预览摄像头采集的图像,控制器能够响应用户的手势输入指令,在预览图像中确定目标区域,再根据目标区域的亮度调整摄像头的曝光参数,从而实现可结合用户操作更新摄像头曝光参数,进而采集到符合用户需求的图像的有益效果。
Description
技术领域
本申请实施例涉及显示技术。更具体地讲,涉及一种显示设备及图像采集方法。
背景技术
电视机是家庭必备的家用电器,随着科技的发展,电视机的功能也越来越丰富。
目前,很多电视机上设置有摄像头,利用摄像头使得电视机具有图像采集功能。为了采集到清晰的图像,需要根据环境内的光线条件进行曝光处理。
现有技术中,对采集的图像的亮度进行处理,计算得到曝光参数。然而,这种方式存在着对复杂光照场景适应能力不足的问题。比如主体拍摄物与背景亮度差距较大时,容易产生过曝光或曝光不足的情况。
发明内容
本申请示例性的实施方式提供一种显示设备及图像采集方法,可结合用户操作更新摄像头曝光参数,进而采集到符合用户需求的图像。
本申请第一方面提供一种显示设备,包括:
摄像头,用于采集图像数据;
显示器,被配置为显示图像画面和用户界面;
与所述显示器及所述摄像头进行连接的控制器,其中,所述控制器被配置为:
接收从用户输入接口输入的用于指示启动摄像头开启或关闭的控制信号;
响应于启动所述摄像头的用户输入,在所述显示器中呈现第一用户界面,其中,所述第一用户界面中包括预览画面,所述预览画面为由所述控制器控制所述摄像头采集的第一图像;
响应于调整画面亮度的手势输入指令,在所述预览画面中确定目标区域,根据所述目标区域的亮度更新所述预览画面,其中,更新后的预览画面为由所述控制器控制所述摄像头采集的第二图像;所述第一图像与所述第二图像的曝光参数不同。
本申请第二方面提供一种图像采集方法,包括:
接收用于指示启动摄像头开启或关闭的控制信号;
响应于启动所述摄像头的用户输入呈现第一用户界面,其中,所述第一用户界面中包括预览画面,所述预览画面为所述摄像头采集的第一图像;
响应于调整画面亮度的手势输入指令,在所述预览画面中确定目标区域,根据所述目标区域的亮度更新所述预览画面,其中,更新后的预览画面为所述摄像头采集的第二图像;所述第一图像与所述第二图像的曝光参数不同。
本申请提供的显示设备及图像采集方法,通过识别用户指示需要调整亮度的目标区域,并根据该区域的亮度调整摄像头采集的图像,从而能够结合用户操作采集到满足用户需求的图像。
附图说明
为了更清楚地说明本申请实施例或相关技术中的实施方式,下面将对实施例或相关技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1中示例性示出了根据实施例中显示设备与控制装置之间操作场景的示意图;
图2中示例性示出了根据示例性实施例中显示设备200的硬件配置框图;
图3中示例性示出了根据一些实施例的显示设备200中软件配置示意图;
图4示例性示出了根据一些实施例的利用显示设备采集图像的示意图;
图5示例性示出了根据一些实施例的显示设备的用户界面示意图;
图6示例性示出了根据一些实施例的显示设备的用户界面示意图;
图7示例性示出了根据一些实施例的显示设备的用户界面示意图;
图8示例性示出了根据一些实施例的预览画面的对比示意图;
图9示例性示出了根据一些实施例的确定封闭区域的示意图;
图10示例性示出了根据一些实施例的确定封闭区域的示意图;
图11示例性示出了根据一些实施例的确定封闭区域的示意图;
图12示例性示出了根据一些实施例的确定目标矩阵区域的示意图;
图13示例性示出了根据一些实施例的图像采集方法的示意图;
图14示例性示出了根据一些实施例的图像采集方法的示意图。
具体实施方式
为使本申请的目的、实施方式和优点更加清楚,下面将结合本申请示例性实施例中的附图,对本申请示例性实施方式进行清楚、完整地描述,显然,所描述的示例性实施例仅是本申请一部分实施例,而不是全部的实施例。
基于本申请描述的示例性实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请所附权利要求保护的范围。此外,虽然本申请中公开内容按照示范性一个或几个实例来介绍,但应理解,可以就这些公开内容的各个方面也可以单独构成一个完整实施方式。
需要说明的是,本申请中对于术语的简要说明,仅是为了方便理解接下来描述的实施方式,而不是意图限定本申请的实施方式。除非另有说明,这些术语应当按照其普通和通常的含义理解。
本申请中说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”等是用于区别类似或同类的对象或实体,而不必然意味着限定特定的顺序或先后次序,除非另外注明(Unless otherwise indicated)。应该理解这样使用的用语在适当情况下可以互换,例如能够根据本申请实施例图示或描述中给出那些以外的顺序实施。
此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖但不排他的包含,例如,包含了一系列组件的产品或设备不必限于清楚地列出的那些组件,而是可包括没有清楚地列出的或对于这些产品或设备固有的其它组件。
本申请中使用的术语“模块”,是指任何已知或后来开发的硬件、软件、固件、人工智能、模糊逻辑或硬件或/和软件代码的组合,能够执行与该元件相关的功能。
本申请中使用的术语“遥控器”,是指电子设备(如本申请中公开的显示设备)的一个组件,通常可在较短的距离范围内无线控制电子设备。一般使用红外线和/或射频(RF)信号和/或蓝牙与电子设备连接,也可以包括WiFi、无线USB、蓝牙、动作传感器等功能模块。例如:手持式触摸遥控器,是以触摸屏中用户界面取代一般遥控装置中的大部分物理内置硬键。
本申请中使用的术语“手势”,是指用户通过一种手型的变化或手部运动等动作,用于表达预期想法、动作、目的/或结果的用户行为。
图1中示例性示出了根据实施例中显示设备与控制装置之间操作场景的示意图。如图1中示出,用户可通过控制装置100或移动设备300操作显示设备200。
显示设备200,可以是液晶显示器、OLED显示器、投影显示设备。具体显示设备类型,尺寸大小和分辨率等不作限定,本领技术人员可以理解的是,显示设备200可以根据需要做性能和配置上一些改变。
显示设备200除了提供广播接收电视功能之外,还可以附加提供计算机支持功能的智能网络电视功能,包括但不限于,网络电视、智能电视、互联网协议电视(IPTV)等。
图2中示例性示出了根据示例性实施例中显示设备200的硬件配置框图。
在一些实施例中,显示设备200中包括控制器250、检测器230、显示器275、存储器260、用户接口265、外部装置接口240中的至少一种。
在一些实施例中,显示器275,用于接收源自第一处理器输出的图像信号,进行显示视频内容和图像以及菜单操控界面的组件。
在一些实施例中,显示器275,包括用于呈现画面的显示屏组件,以及驱动图像显示的驱动组件。
在一些实施例中,显示器275用于呈现显示设备200中产生且用于控制显示设备200的用户操控UI界面。
在一些实施例中,根据显示器275类型不同,还包括用于驱动显示的驱动组件。
在一些实施例中,用户接口265,可用于接收控制装置100(如:红外遥控器等)红外控制信号。
在一些实施例中,检测器230可以包括图像采集器232,如相机、摄像头等,可以用于采集外部环境场景,以及用于采集用户的属性或与用户交互手势,可以自适应变化显示参数,也可以识别用户手势,以实现与用户之间互动的功能。
在一些实施例中,检测器230可以包括声音采集器231。
在一些实施例中,控制器250,通过存储在存储器上中各种软件控制程序,来控制显示设备的工作和响应用户的操作。控制器250可以控制显示设备200的整体操作。例如:响应于接收到用于选择在显示器275上显示UI对象的用户命令,控制器250便可以执行与由用户命令选择的对象有关的操作。
在一些实施例中,所述对象可以是可选对象中的任何一个,例如超链接或图标。与所选择的对象有关操作,例如:显示连接到超链接页面、文档、图像等操作,或者执行与所述图标相对应程序的操作。用于选择UI对象用户命令,可以是通过连接到显示设备200的各种输入装置(例如,鼠标、键盘、触摸板等)输入命令或者与由用户说出语音相对应的语音命令。
如图2所示,控制器250包括随机存取存储器251(Random Access Memory,RAM)、只读存储器252(Read-Only Memory,ROM)、视频处理器270、音频处理器280、其他处理器253(例如:图形处理器(Graphics Processing Unit,GPU)、中央处理器254(CentralProcessing Unit,CPU)、通信接口255(Communication Interface),以及通信总线256(Bus)中的至少一种。其中,通信总线连接各个部件。
在一些实施例中,RAM 251用于存储操作系统或其他正在运行中的程序的临时数据
在一些实施例中,ROM 252用于存储各种系统启动的指令。
在一些实施例中,ROM 252用于存储一个基本输入输出系统,称为基本输入输出系统(Basic Input Output System,BIOS)。用于完成对系统的加电自检、系统中各功能模块的初始化、系统的基本输入/输出的驱动程序及引导操作系统。
在一些实施例中,在收到开机信号时,显示设备200电源开始启动,CPU运行ROM252中系统启动指令,将存储在存储器的操作系统的临时数据拷贝至RAM 251中,以便于启动或运行操作系统。当操作系统启动完成后,CPU再将存储器中各种应用程序的临时数据拷贝至RAM 251中,然后,以便于启动或运行各种应用程序。
在一些实施例中,CPU处理器254,用于执行存储在存储器中操作系统和应用程序指令。以及根据接收外部输入的各种交互指令,来执行各种应用程序、数据和内容,以便最终显示和播放各种音视频内容。
在一些示例性实施例中,CPU处理器254,可以包括多个处理器。多个处理器可包括一个主处理器以及一个或多个子处理器。主处理器,用于在预加电模式中执行显示设备200一些操作,和/或在正常模式下显示画面的操作。一个或多个子处理器,用于在待机模式等状态下一种操作。
在一些实施例中,图形处理器253,用于产生各种图形对象,如:图标、操作菜单、以及用户输入指令显示图形等。包括运算器,通过接收用户输入各种交互指令进行运算,根据显示属性显示各种对象。以及包括渲染器,对基于运算器得到的各种对象,进行渲染,上述渲染后的对象用于显示在显示器上。
在一些实施例中,视频处理器270被配置为将接收外部视频信号,根据输入信号的标准编解码协议,进行解压缩、解码、缩放、降噪、帧率转换、分辨率转换、图像合成等等视频处理,可得到直接可显示设备200上显示或播放的信号。
在一些实施例中,图形处理器253可以和视频处理器可以集成设置,也可以分开设置,集成设置的时候可以执行输出给显示器的图形信号的处理,分离设置的时候可以分别执行不同的功能,例如GPU+FRC(Frame Rate Conversion))架构。
在一些实施例中,视频处理器270可以包括一颗或多颗芯片组成。音频处理器,也可以包括一颗或多颗芯片组成。
在一些实施例中,视频处理器270,可以单独的芯片,也可以于控制器一起集成在一颗或多颗芯片中。
用户接口265,用于接收用户的输入信号,然后,将接收用户输入信号发送给控制器250。用户输入信号可以是通过红外接收器接收的遥控器信号,可以通过网络通信模块接收各种用户控制信号。
在一些实施例中,用户通过控制装置100输入用户命令,用户输入接口则根据用户的输入,显示设备200则通过控制器250响应用户的输入。
在一些实施例中,用户可在显示器275上显示的图形用户界面(GUI)输入用户命令,则用户输入接口通过图形用户界面(GUI)接收用户输入命令。或者,用户可通过输入特定的声音或手势进行输入用户命令,则用户输入接口通过传感器识别出声音或手势,来接收用户输入命令。
在一些实施例中,“用户界面”,是应用程序或操作系统与用户之间进行交互和信息交换的介质接口,它实现信息的内部形式与用户可以接受形式之间的转换。用户界面常用的表现形式是图形用户界面(Graphic User Interface,GUI),是指采用图形方式显示的与计算机操作相关的用户界面。它可以是在电子设备的显示屏中显示的一个图标、窗口、控件等界面元素,其中控件可以包括图标、按钮、菜单、选项卡、文本框、对话框、状态栏、导航栏、Widget等可视的界面元素。
参见图3,在一些实施例中,将系统分为四层,从上至下分别为应用程序(Applications)层(简称“应用层”),应用程序框架(Application Framework)层(简称“框架层”),安卓运行时(Android runtime)和系统库层(简称“系统运行库层”),以及内核层。
在一些实施例中,应用程序层中运行有至少一个应用程序,这些应用程序可以是操作系统自带的窗口(Window)程序、系统设置程序、时钟程序、相机应用等;也可以是第三方开发者所开发的应用程序,比如嗨见程序、K歌程序、魔镜程序等。在具体实施时,应用程序层中的应用程序包不限于以上举例,实际还可以包括其它应用程序包,本申请实施例对此不做限制。
框架层为应用程序层的应用程序提供应用编程接口(application programminginterface,API)和编程框架。应用程序框架层包括一些预先定义的函数。应用程序框架层相当于一个处理中心,这个中心决定让应用层中的应用程序做出动作。应用程序通过API接口,可在执行中访问系统中的资源和取得系统的服务
如图3所示,本申请实施例中应用程序框架层包括管理器(Managers),内容提供者(Content Provider)等,其中管理器包括以下模块中的至少一个:活动管理器(ActivityManager)用与和系统中正在运行的所有活动进行交互;位置管理器(Location Manager)用于给系统服务或应用提供了系统位置服务的访问;文件包管理器(Package Manager)用于检索当前安装在设备上的应用程序包相关的各种信息;通知管理器(NotificationManager)用于控制通知消息的显示和清除;窗口管理器(Window Manager)用于管理用户界面上的括图标、窗口、工具栏、壁纸和桌面部件。
在一些实施例中,活动管理器用于:管理各个应用程序的生命周期以及通常的导航回退功能,比如控制应用程序的退出(包括将显示窗口中当前显示的用户界面切换到系统桌面)、打开、后退(包括将显示窗口中当前显示的用户界面切换到当前显示的用户界面的上一级用户界面)等。
在一些实施例中,窗口管理器用于管理所有的窗口程序,比如获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕,控制显示窗口变化(例如将显示窗口缩小显示、抖动显示、扭曲变形显示等)等。
在一些实施例中,系统运行库层为上层即框架层提供支撑,当框架层被使用时,安卓操作系统会运行系统运行库层中包含的C/C++库以实现框架层要实现的功能。
在一些实施例中,内核层是硬件和软件之间的层。如图3所示,内核层至少包含以下驱动中的至少一种:音频驱动、显示驱动、蓝牙驱动、摄像头驱动、WIFI驱动、USB驱动、HDMI驱动、传感器驱动(如指纹传感器,温度传感器,触摸传感器、压力传感器等)等。
在一些实施例中,内核层还包括用于进行电源管理的电源驱动模块。
在一些实施例中,图3中的软件架构对应的软件程序和/或模块存储在图2所示的存储器中。
在一些实施例中,以魔镜应用(拍照应用)为例,当遥控接收装置接收到遥控器输入操作,相应的硬件中断被发给内核层。内核层将输入操作加工成原始输入事件(包括输入操作的值,输入操作的时间戳等信息)。原始输入事件被存储在内核层。应用程序框架层从内核层获取原始输入事件,根据焦点当前的位置识别该输入事件所对应的控件以及以该输入操作是确认操作,该确认操作所对应的控件为魔镜应用图标的控件,魔镜应用调用应用框架层的接口,启动魔镜应用,进而通过调用内核层启动摄像头驱动,实现通过摄像头捕获静态图像或视频。
本申请提供的方案可以应用在如上所述的任一种显示设备中。
目前,很多显示设备都设置有摄像头,可以通过摄像头实现拍照、录像等功能。
图4示例性示出了根据一些实施例的利用显示设备采集图像的示意图。
如图4所示,用户可以控制显示设备开启摄像头41,并利用摄像头采集图像。图像可以在显示设备的显示器42中显示。
为了使采集清晰的图像,可以控制摄像头以一定的参数进行曝光处理。一般根据当前采集到的图像亮度调整摄像头的曝光参数。比如,在矩阵测光方式中,将图像划分为M*N个区域,再根据这些区域的亮度调整摄像头的曝光参数。然而,当拍摄的画面中亮度差距较大时,这种利用画面整体亮度调整摄像头曝光参数的方式,可能会导致拍摄主体曝光过度或曝光不足的问题。
为了解决上述问题,本申请提供的方案中,通过识别用户指示需要调整亮度的目标区域,并根据该区域的亮度调整摄像头采集的图像,从而能够采集到满足用户需求的图像。
本申请提供的显示设备包括摄像头,该摄像头用于采集图像。还包括显示器,被配置为显示图像画面和用户界面。还包括与所述显示器及所述摄像头进行连接的控制器。
其中,控制器被配置为:接收从用户输入接口输入用于指示启动摄像头开启或关闭的控制信号。
具体的,用户可以利用遥控器、能够与显示设备通信的移动设备向显示设备发送用于启动摄像头的开启或关闭的控制信号。在摄像头处于开启状态时,用户还可以通过手势识别的方式向显示设备发送指示关闭摄像头的控制信号。
进一步的,显示设备的用户输入接口能够接收到用于指示启动摄像头开启或关闭的控制信号,再将这一信号发送给控制器,以使控制器可以接收该控制信号。
图5示例性示出了根据一些实施例的显示设备的用户界面示意图。
如图5所示,用户界面中可以显示摄像头开启或关闭的状态,用户可以操作遥控器向显示设备发送信号,改变摄像头的状态。比如,可以将摄像头的状态由开启改为关闭。
当控制器接收到启动摄像头的用户输入时,可以响应该输入,控制摄像头采集第一图像。还可以控制显示器呈现第一用户界面,第一用户界面中还可以包括以预览画面,该预览画面即为上述第一图像。
图6示例性示出了根据一些实施例的显示设备的用户界面示意图。
如图6所示,在用户界面中包括预览画面61。用户可以通过该预览画面61观看摄像头拍摄的画面。
其中,控制器中可以设置用于确定曝光参数的逻辑,摄像头可以基于该曝光参数采集第一图像。
具体的,该逻辑可以是基于矩阵测光的方式确定曝光参数。矩阵测光是指将摄像头采集的图像划分为若干个区域,控制器根据每个区域的亮度确定出曝光增益,并将其反馈给摄像头,使得摄像头基于该高光增益继续采集图像。
进一步的,摄像头当前采集图像所使用的曝光参数与此前采集的图像有关,可以理解为是利用已经采集的图像亮度信息调整摄像头曝光参数,从而采集到清晰度更高的图像。
实际应用时,这种基于整个图像亮度调整摄像头曝光参数的方式并不适用于所有场景。当拍摄环境光线较为复杂时,容易导致拍摄主体存在过曝光或欠曝光的情况。比如,利用显示设备逆光拍摄人物时,人脸就会显得很暗。或者在背景较暗的环境中拍摄人物时,人脸就会出现过曝的情况。
本实施例提供的方案中,可以通过与用户交互的方式确定用户希望调整亮度的图像区域,再基于该图像区域重新调整摄像头的曝光参数,而不仅仅基于已采集图像的亮度调整摄像头的曝光参数,这种方式能够使摄像头采集到符合用户需求的图像。
其中,用户可以向电子设备发送用于调整画面亮度的手势输入指令。显示设备可以识别该指令,并对其进行响应。一种方式中,可以由摄像头基于当前采集的图像识别出手势输入指令,另一种方式中,可以由控制器基于摄像头采集的图像识别出手势输入指令。
具体的,在显示设备显示第一图像时,还可以显示提示语,比如可以是“选择需要调整的区域”、“请圈选关注区域”等。
进一步的,用户可以在与显示设备具有一定距离的情况下,在空中画圈,从而向电子设备发送用于调整画面亮度的手势输入指令。
实际应用时,当显示设备识别出用户手指或与手指类似的物体移动时,还可以在预览画面中显示与该移动动作对应的移动轨迹。比如,用户可以拿着一支笔在空中画圈时,预览画面中可以显示对应的移动轨迹。该手势输入指令可以是一连贯的动作形成的指令,比如用户用手指在空中画圈这一连贯的动作为一手势输入指令。
图7示例性示出了根据一些实施例的显示设备的用户界面示意图。
如图7所示,可以基于用户的操作,在预览画面中显示如71所示的移动轨迹。
其中,控制器可以根据该手势输入指令确定目标区域,该目标区域也就是用户重点关注的区域。
具体的,控制器可以根据目标区域的亮度更新预览画面,其中,更新后的预览画面为由控制器控制摄像头采集的第二图像;第一图像与第二图像的曝光参数不同。
进一步的,可以根据目标区域的亮度调整摄像头的曝光参数,使其再次采集图像时,在预览画面中目标区域的部分是较为清晰的。
实际应用时,摄像头开启后,可以根据当前采集的图像整体亮度调整该摄像头的曝光参数。当用户向显示设备发送画面亮度的手势输入指令后,则根据用户指定的目标区域的亮度调整该摄像头的曝光参数。
其中,控制器可以根据目标区域的亮度重新计算曝光增益,并将该曝光增益发送给摄像头,并控制摄像头基于新的曝光增益调整曝光参数,并采集第二图像。控制器根据第二图像更新用户界面中的预览画面,从而使更新后的预览画面中目标区域部分的图像更为清晰。
图8示例性示出了根据一些实施例的预览画面的对比示意图。
如图8所示,左边显示的预览画面是摄像头采集的第一图像,其中81为手势输入指令指示的目标区域。显示设备根据当前预览画面中目标区域的亮度调整摄像头的曝光参数,摄像头根据新的曝光参数采集第二图像,并在界面中显示,形成右边显示的预览画面。
本申请提供的方案中,曝光是一个状态,响应于人手势后,可以在显示设备上对应出现一个框或圈,然后又变成另一曝光状态跟手机的自动曝光类似,不同的是手机是接触式选择,电视场景是非接触的。
本申请提供的显示设备,包括:摄像头,用于采集图像数据;显示器,被配置为显示图像画面和用户界面;与显示器及摄像头进行连接的控制器,其中,控制器被配置为:接收从用户输入接口输入的用于指示启动摄像头开启或关闭的控制信号;响应于启动摄像头的用户输入,在显示器中呈现第一用户界面,其中,第一用户界面中包括预览画面,预览画面为由控制器控制摄像头采集的第一图像;响应于调整画面亮度的手势输入指令,在预览画面中确定目标区域,根据目标区域的亮度更新预览画面,其中,更新后的预览画面为由控制器控制摄像头采集的第二图像;第一图像与第二图像的曝光参数不同。本申请提供的方案中,通过识别用户指示需要调整亮度的目标区域,并根据该区域的亮度调整摄像头采集的图像,从而能够结合用户操作采集到满足用户需求的图像。
具体的,控制器具体被配置为:
根据多帧预览画面确定手势输入指令指示的封闭区域;
将封闭区域确定为预览画面中的目标区域。
进一步的,摄像头可以采集连续的图像,控制器可以控制显示界面显示与这些图像对应的预览画面。比如用户的手势指令是一连贯的动作,那么在显示界面的预览画面中可以显示出这一连贯的动作。
控制器可以根据多帧预览画面确定手势输入指令指示的封闭区域。
比如可以对比连续多帧预览画面;根据预览画面间的差异确定目标物体的移动位置,并根据移动位置确定手势输入指令指示的封闭区域。该目标位置可以是目标物体上特定部位所在的位置,比如指尖的位置,再比如笔尖的位置。
其中,目标物体可以是手指,还可以是笔、细棍等形状与手指类似的物体。可以基于图像识别、神经网络模型等多种方式在预览画面中识别目标物体。
具体可以根据连续多帧预览画面中目标物体的移动位置,确定出用户指示的封闭区域。
例如,可以将目标物体的移动位置围绕形成的封闭区域作为手势输入指令指示的封闭区域。
图9示例性示出了根据一些实施例的确定封闭区域的示意图。
如图9所述,目标物体的移动位置为91,该位置91围绕形成一封闭区域92,则可以将封闭区域92作为目标区域。
再例如,还可以根据目标物体的移动位置确定目标物体的移动轨迹;移动轨迹符合预设条件时,将移动轨迹围绕的区域确定为手势输入指令指示的封闭区域。
其中,可以连接目标物体的移动位置从而形成移动轨迹,还可以预先设置条件,当符合预设条件时,将移动轨迹围绕的区域确定为手势输入指令指示的封闭区域。
具体的,比如移动轨迹围绕形成一封闭的区域时,可以直接将这一封闭区域作为目标区域。
图10示例性示出了根据一些实施例的确定封闭区域的示意图。
如图10所示,连接目标物体的移动位置形成移动轨迹101,移动轨迹101围绕形成了一封闭区域102,则可以将102作为目标区域。
再比如移动轨迹的起点与终点的连线长度小于预设值,且移动轨迹与连线围绕形成一封闭的区域时,可以将移动轨迹与该连线所围绕的封闭区域作为目标区域。
上述预设值可以根据需求设置。
图11示例性示出了根据一些实施例的确定封闭区域的示意图。
如图11所示,连接目标物体的移动位置形成移动轨迹111,移动轨迹111的起点和终点连线为112,112长度小于预设值,且移动轨迹111与连线112围绕形成封闭区域113,此时,可以将封闭区域113确定为目标区域。
在另一种实施方式中,控制器中还可以设置训练完毕的神经网络模型,将摄像头实时采集的图像作为输入数据输入该模型,模型可以根据输入的图像确定封闭区域。
本申请的一种实施例中,控制器还被配置为:
根据预设数量的预览画面中目标物体的移动位置确定预览画面的目标数量;
根据目标数量帧数的预览画面确定手势输入指令指示的封闭区域。
其中,控制器识别出预览画面中存在目标物体后,可以根据目标物体的移动位置确定一目标数量,比如可以是一个数值。目标物体移动位置变化越快,该数值越小,移动位置变化越慢,该数值越大。
具体的,可以比对相邻两帧画面中目标物体的移动位置间距,从而确定其移动速度的快慢,进而根据这一信息确定目标数量。
进一步的,在确定手势输入指令指示的封闭区域时,可以根据该目标数量选取预览画面。比如目标数量为N,则可以根据N帧预览画面来确定封闭区域。
实际应用时,控制器还可以根据目标物体的移动趋势来判断用户是否在输入用于调整画面亮度的手势输入指令,若是,则可以将识别结果为“是”的画面帧作为用于确定封闭区域的第一帧画面,此后再选取“N-1”帧画面,并根据这些画面确定封闭区域。
其中,选取的画面可以是连续的,也可以根据预设选取间隔的画面,比如每隔4帧画面选取一帧,具体可以根据需求进行设置。
本申请的一种实施例中,控制器还被配置为:响应于调整画面亮度的手势输入指令,在预览画面中显示手势移动轨迹。
具体的,控制器可以根据目标物体的移动位置再显示器中显示对应的移动轨迹。识别移动位置的方式与上述实施方式类似,不再赘述。
可以将移动位置进行连接从而形成移动轨迹,并在预览画面中显示该移动轨迹。
本申请的一种实施例中,控制器具体被配置为:根据目标区域的亮度确定曝光参数,控制摄像头基于曝光参数采集第二图像;控制显示器基于第二图像显示预览画面。
进一步的,控制器可以获取预览画面中目标区域对应的亮度,再根据获取的亮度确定摄像头的曝光参数,比如可以确定一曝光增益,将曝光增益发送给摄像头,使得摄像头可以基于该曝光增益采集第二图像。控制器还可以控制显示器的预览画面显示该第二图像,显示的预览画面中,与目标区域对应的位置清晰度较高。
实际应用时,预览画面被划分为多个矩阵区域。初始时,控制器根据每个矩阵区域的亮度确定曝光参数,并控制摄像头基于该曝光参数采集图像。
控制器响应启动摄像头的用户输入时,还可以确定目标区域所在的目标矩阵区域,从而直接根据目标矩阵区域的亮度确定曝光参数。
图12示例性示出了根据一些实施例的确定目标矩阵区域的示意图。
如图12所示,预览画面被划分为8*8的矩阵区域,121是确定的目标区域,该目标区域所在的矩阵区域为122,因此,将矩阵区域122确定为目标矩阵区域。目标区域所在的矩阵区域可以为一个,也可以为多个,具体根据调整画面亮度的手势输入指令所对应的目标区域来确定。
其中,控制器可以根据目标矩阵区域的亮度来确定曝光参数。当目标矩阵区域为多个时,还可以利用加权平均算法或其他算法来确定这些目标矩阵区域的亮度分布,并根据这一亮度分布结果确定曝光参数。
本申请的一种实施例中,控制器还被配置为在响应于调整画面亮度的手势输入指令之前:接收从用户输入接口输入用于指示开启智能调整画面亮度的控制信号;响应于开启智能调整画面亮度的用户输入,启动调整画面亮度的功能。
具体的,在用户界面中还可以显示用于开启智能调整画面亮度的选项。用户可以通过遥控器、手机等方式向显示设备发送用于指示开启智能调整画面亮度的控制指令,若摄像头处于开启状态,用户还可以通过手势指令的方式向显示设备发送用于指示开启智能调整画面亮度的控制指令。
进一步的,用户输入接口将接收的指令转换为用于指示开启智能调整画面亮度的控制信号,并将其发送给控制器,使得控制器能够响应该信号。
实际应用时,控制器可以通过启动调整画面亮度的功能的方式响应用于指示开启智能调整画面亮度的控制信号。比如,控制器接收到该信号后,可以开启图像识别功能,从而识别出是否存在用于调整画面亮度的手势输入指令。
图13示例性示出了根据一些实施例的图像采集方法的示意图。
如图13所示,本申请提供的图像采集方法,包括:
步骤131,接收用于指示启动摄像头开启或关闭的控制信号;
步骤132,响应于启动摄像头的用户输入呈现第一用户界面,其中,第一用户界面中包括预览画面,预览画面为摄像头采集的第一图像;
步骤133,响应于调整画面亮度的手势输入指令,在预览画面中确定目标区域,根据目标区域的亮度更新预览画面,其中,更新后的预览画面为摄像头采集的第二图像;第一图像与第二图像的曝光参数不同。
本实施例提供的图像采集方法的具体原理、实现方式与效果均与上述显示设备的实施例类似,此处不再赘述。
图14示例性示出了根据一些实施例的图像采集方法的示意图。
如图14所示,本申请提供的图像采集方法,包括:
步骤141,接收用于指示启动摄像头开启或关闭的控制信号。
步骤142,响应于启动所述摄像头的用户输入呈现第一用户界面,其中,所述第一用户界面中包括预览画面,所述预览画面为所述摄像头采集的第一图像。
步骤143,接收从用户输入接口输入用于指示开启智能调整画面亮度的控制信号。
步骤144,响应于开启智能调整画面亮度的用户输入,启动调整画面亮度的功能。
步骤145,响应于调整画面亮度的手势输入指令,根据多帧所述预览画面确定所述手势输入指令指示的封闭区域。
步骤146,响应于调整画面亮度的手势输入指令,显示手势移动轨迹。
在一种实施方式中,所述根据多帧所述预览画面确定所述手势输入指令指示的封闭区域,包括:
对比连续多帧所述预览画面;
根据所述预览画面间的差异确定目标物体的移动位置,并根据所述移动位置确定所述手势输入指令指示的封闭区域。
在一种实施方式中,所述根据所述移动位置确定所述手势输入指令指示的封闭区域,包括:
将所述目标物体的移动位置围绕形成的封闭区域作为所述手势输入指令指示的封闭区域。
在一种实施方式中,所述根据所述移动位置确定所述手势输入指令指示的封闭区域,包括:
根据所述目标物体的移动位置确定所述目标物体的移动轨迹;
所述移动轨迹符合预设条件时,将所述移动轨迹围绕的区域确定为所述手势输入指令指示的封闭区域。
在一种实施方式中,所述预设条件包括以下任一种:
所述移动轨迹围绕形成一封闭的区域;
所述移动轨迹的起点与终点的连线长度小于预设值,且所述移动轨迹与所述连线围绕形成一封闭的区域。
在一种实施方式中,根据预设数量的所述预览画面中所述目标物体的移动位置确定所述预览画面的目标数量;
根据所述目标数量帧数的所述预览画面确定所述手势输入指令指示的封闭区域。
步骤147,将所述封闭区域确定为所述预览画面中的目标区域,根据所述目标区域的亮度确定曝光参数,控制所述摄像头基于所述曝光参数采集所述第二图像。
步骤148,基于所述第二图像显示预览画面,其中,更新后的预览画面为所述摄像头采集的第二图像;所述第一图像与所述第二图像的曝光参数不同。
在一种实施方式中,所述预览画面被划分为多个矩阵区域;
所述根据所述目标区域的亮度确定曝光参数,包括:
确定所述目标区域所在的目标矩阵区域,根据所述目标矩阵区域的亮度确定所述曝光参数。
本实施例提供的图像采集方法的具体原理、实现方式与效果均与上述显示设备所示的实施例类似,此处不再赘述。
实施例还提供一种计算机可读存储介质,其上存储有计算机程序,
所述计算机程序被处理器执行以实现如上所述的任一种图像采集方法。
本实施例还提供一种计算机程序,包括程序代码,当计算机运行所述计算机程序时,所述程序代码执行如上所述的任一种图像采集方法。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。
为了方便解释,已经结合具体的实施方式进行了上述说明。但是,上述示例性的讨论不是意图穷尽或者将实施方式限定到上述公开的具体形式。根据上述的教导,可以得到多种修改和变形。上述实施方式的选择和描述是为了更好的解释原理以及实际的应用,从而使得本领域技术人员更好的使用所述实施方式以及适于具体使用考虑的各种不同的变形的实施方式。
Claims (9)
1.一种显示设备,其特征在于,包括:
摄像头,用于采集图像数据;
显示器,被配置为显示图像画面和用户界面;
与所述显示器及所述摄像头进行连接的控制器,其中,所述控制器被配置为:
接收从用户输入接口输入的用于指示启动摄像头开启或关闭的控制信号;
响应于启动所述摄像头的用户输入,在所述显示器中呈现第一用户界面,其中,所述第一用户界面中包括预览画面,所述预览画面为由所述控制器控制所述摄像头采集的第一图像;
响应于调整画面亮度的手势输入指令,在所述预览画面中确定目标区域,根据所述目标区域的亮度更新所述预览画面,其中,更新后的预览画面为由所述控制器控制所述摄像头采集的第二图像;所述第一图像与所述第二图像的曝光参数不同;
所述控制器具体被配置为:
对比连续多帧所述预览画面;
根据所述预览画面间的差异确定目标物体的移动位置;
根据预设数量的所述预览画面中所述目标物体的移动位置确定所述预览画面的目标数量,所述目标数量是基于相邻两帧画面中目标物体的移动位置间距确定的;
根据所述目标数量帧数的所述预览画面确定所述手势输入指令指示的封闭区域;
将所述封闭区域确定为所述预览画面中的目标区域。
2.根据权利要求1所述的显示设备,其特征在于,所述控制器具体被配置为:
将所述目标物体的移动位置围绕形成的封闭区域作为所述手势输入指令指示的封闭区域。
3.根据权利要求1所述的显示设备,其特征在于,所述控制器具体被配置为:
根据所述目标物体的移动位置确定所述目标物体的移动轨迹;
所述移动轨迹符合预设条件时,将所述移动轨迹围绕的区域确定为所述手势输入指令指示的封闭区域。
4.根据权利要求3所述的显示设备,其特征在于,所述预设条件包括以下任一种:
所述移动轨迹围绕形成一封闭的区域;
所述移动轨迹的起点与终点的连线长度小于预设值,且所述移动轨迹与所述连线围绕形成一封闭的区域。
5.根据权利要求1所述的显示设备,其特征在于,所述控制器还被配置为:
响应于调整画面亮度的手势输入指令,在预览画面中显示手势移动轨迹。
6.根据权利要求1-5任一项所述的显示设备,其特征在于,所述控制器具体被配置为:
根据所述目标区域的亮度确定曝光参数,控制所述摄像头基于所述曝光参数采集所述第二图像;
控制所述显示器基于所述第二图像显示预览画面。
7.根据权利要求6所述的显示设备,其特征在于,所述预览画面被划分为多个矩阵区域;
所述控制器具体被配置为:
确定所述目标区域所在的目标矩阵区域,根据所述目标矩阵区域的亮度确定所述曝光参数。
8.根据权利要求1所述的显示设备,其特征在于,所述控制器还被配置为在所述响应于调整画面亮度的手势输入指令之前:
接收从用户输入接口输入用于指示开启智能调整画面亮度的控制信号;
响应于开启智能调整画面亮度的用户输入,启动调整画面亮度的功能。
9.一种图像采集方法,其特征在于,包括:
接收用于指示启动摄像头开启或关闭的控制信号;
响应于启动所述摄像头的用户输入呈现第一用户界面,其中,所述第一用户界面中包括预览画面,所述预览画面为所述摄像头采集的第一图像;
响应于调整画面亮度的手势输入指令,在所述预览画面中确定目标区域,根据所述目标区域的亮度更新所述预览画面,其中,更新后的预览画面为所述摄像头采集的第二图像;所述第一图像与所述第二图像的曝光参数不同;
其中,所述在所述预览画面中确定目标区域包括:
对比连续多帧所述预览画面;
根据所述预览画面间的差异确定目标物体的移动位置;
根据预设数量的所述预览画面中所述目标物体的移动位置确定所述预览画面的目标数量,所述目标数量是基于相邻两帧画面中目标物体的移动位置间距确定的;
根据所述目标数量帧数的所述预览画面确定所述手势输入指令指示的封闭区域;
将所述封闭区域确定为所述预览画面中的目标区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011164402.7A CN114513690B (zh) | 2020-10-27 | 2020-10-27 | 显示设备及图像采集方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011164402.7A CN114513690B (zh) | 2020-10-27 | 2020-10-27 | 显示设备及图像采集方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114513690A CN114513690A (zh) | 2022-05-17 |
CN114513690B true CN114513690B (zh) | 2024-04-05 |
Family
ID=81546644
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011164402.7A Active CN114513690B (zh) | 2020-10-27 | 2020-10-27 | 显示设备及图像采集方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114513690B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107197170A (zh) * | 2017-07-14 | 2017-09-22 | 维沃移动通信有限公司 | 一种曝光控制方法及移动终端 |
CN108650457A (zh) * | 2018-05-03 | 2018-10-12 | Oppo广东移动通信有限公司 | 自动拍照方法、装置、存储介质及移动终端 |
CN110636353A (zh) * | 2019-06-10 | 2019-12-31 | 青岛海信电器股份有限公司 | 一种显示设备 |
CN111510626A (zh) * | 2020-04-21 | 2020-08-07 | Oppo广东移动通信有限公司 | 图像合成方法及相关装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9111484B2 (en) * | 2012-05-03 | 2015-08-18 | Semiconductor Components Industries, Llc | Electronic device for scene evaluation and image projection onto non-planar screens |
-
2020
- 2020-10-27 CN CN202011164402.7A patent/CN114513690B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107197170A (zh) * | 2017-07-14 | 2017-09-22 | 维沃移动通信有限公司 | 一种曝光控制方法及移动终端 |
CN108650457A (zh) * | 2018-05-03 | 2018-10-12 | Oppo广东移动通信有限公司 | 自动拍照方法、装置、存储介质及移动终端 |
CN110636353A (zh) * | 2019-06-10 | 2019-12-31 | 青岛海信电器股份有限公司 | 一种显示设备 |
CN111510626A (zh) * | 2020-04-21 | 2020-08-07 | Oppo广东移动通信有限公司 | 图像合成方法及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114513690A (zh) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111970549B (zh) | 菜单显示方法和显示设备 | |
CN112866773B (zh) | 一种显示设备及多人场景下摄像头追踪方法 | |
CN112087671B (zh) | 一种输入法控件的操控提示信息的显示方法及显示设备 | |
CN112565862A (zh) | 一种显示设备及其设备参数的记忆方法、恢复方法 | |
CN113747078B (zh) | 显示设备及焦距控制方法 | |
CN112835506B (zh) | 一种显示设备及其控制方法 | |
CN113593488A (zh) | 背光调整方法及显示设备 | |
CN116264864A (zh) | 一种显示设备及显示方法 | |
CN114079827A (zh) | 菜单显示方法和显示设备 | |
CN114513690B (zh) | 显示设备及图像采集方法 | |
CN113438553B (zh) | 一种显示设备被唤醒方法及显示设备 | |
CN112261289B (zh) | 显示设备及ai算法结果获取方法 | |
CN112040297B (zh) | 一种epg页面的翻页方法及显示设备 | |
CN114390190B (zh) | 显示设备及监测应用启动摄像头的方法 | |
CN111901649B (zh) | 视频播放方法和显示设备 | |
CN114417035A (zh) | 一种图片浏览方法和显示设备 | |
CN113824870A (zh) | 显示设备及摄像头角度调整方法 | |
CN114489310A (zh) | 虚拟现实设备以及手柄定位方法 | |
CN112199560A (zh) | 一种设置项的搜索方法及显示设备 | |
CN111931692A (zh) | 显示设备及图像识别方法 | |
CN112363683A (zh) | 一种网页应用支持多图层显示的方法及显示设备 | |
CN113807375B (zh) | 一种显示设备 | |
CN113971049B (zh) | 一种后台服务管理方法及显示设备 | |
CN113194355B (zh) | 一种视频播放方法及显示设备 | |
CN112087651B (zh) | 显示询问信息的方法及智能电视 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |