CN117918057A - 显示设备及设备控制方法 - Google Patents
显示设备及设备控制方法 Download PDFInfo
- Publication number
- CN117918057A CN117918057A CN202280058406.8A CN202280058406A CN117918057A CN 117918057 A CN117918057 A CN 117918057A CN 202280058406 A CN202280058406 A CN 202280058406A CN 117918057 A CN117918057 A CN 117918057A
- Authority
- CN
- China
- Prior art keywords
- gesture
- image data
- display
- camera
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000004044 response Effects 0.000 claims abstract description 21
- 230000003321 amplification Effects 0.000 claims abstract description 14
- 238000003199 nucleic acid amplification method Methods 0.000 claims abstract description 14
- 230000006870 function Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 14
- 230000000694 effects Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000002789 length control Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4126—The peripheral being portable, e.g. PDAs or mobile phones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/441—Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
- H04N21/4415—Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一种显示设备及设备控制方法,该方法包括:响应于打开摄像头相关应用的指令,控制显示器呈现摄像头采集的图像数据;响应于用户输入的用于触发放大图像数据的指令,将图像数据放大,并将至少一部分的放大后的图像数据呈现在显示器上;响应于摄像头采集到的预设手势,获取手势矩形区域,以及生成与预设手势相对应的手势指令;如果手势矩形区域在显示器呈现的用户界面内,则执行手势指令;如果手势矩形区域未呈现在用户界面内,则不执行手势指令。
Description
相关申请的交叉引用
本申请要求申请日为2021年9月18日,申请号为202111104825.4,和申请日为2021年9月27日,申请号为202111134859.8的中国申请的优先权,其全部内容引用于此。
本申请涉及智能显示技术领域,尤其涉及一种显示设备及设备控制方法。
随着显示设备的快速发展,显示设备的功能越来越多,例如显示设备配备摄像头可以为用户提供照相、镜子等功能。
一般情况下,摄像头拍摄外界图像,再将拍摄到的图像传输至显示器上呈现。在实际应用中,有可能显示设备会对摄像头拍摄到的画面进行处理后,再显示到显示器上供用户浏览,如图像处理技术等。
然而,在一些图像处理过程中,有可能会导致摄像头拍摄画面的范围与显示器显示内容范围不一致的情况,如拍摄画面范围较大而显示器只显示拍摄画面一部分,用户在显示设备的显示界面中没有看到相应的手势,显示设备却执行手势指令动作。
发明内容
本申请实施方式提供了一种显示设备,包括:摄像头,被配置为采集图像数据;显示器,被配置为呈现用户界面,其中,当打开摄像头相关应用时,呈现所述摄像头采集的图像数据;分别与所述摄像头和所述显示器连接的控制器,所述控制器被配置为:响应于打开摄像头相关应用的指令,控制显示器呈现摄像头采集的图像数据;响应于用户输入的用于触发放大所述图像数据的指令,将所述图像数据放大,并将至少一部分的所述放大后的图像数据呈现在所述显示器上;响应于所述摄像头采集的到预设手势,获取手势矩形区域,以及生成与所述预设手势相对应的手势指令;如果所述手势矩形区域在所述显示器呈现的用户界面内,则执行所述手势指令;如果所述手势矩形区域未呈现在所述用户界面内,则不执行所述手势指令。
本申请实施方式还提供了另一种显示设备,包括:显示器;摄像头;分别与所述摄像头和所述显示器连接的控制器,所述控制器被配置为:响应于启动所述摄像头的控制信号,在所述显示器中显示所述摄像头采集的图像;响应于指示人脸跟焦的控制信号,基于所述图像获取人脸位置矩形区域;基于所述人脸位置矩形区域,确定调整中心点;根据所述调整中心点和预设调整值对所述图像进行调整,获取目标图像,以及在所述显示器上显示所述目标图像。
本申请实施方式还提供一种焦距控制方法,包括:控制显示器呈现摄像头采集的图像数据;响应于用户输入的用于触发放大所述图像数据的指令,将所述图像数据放大,并将至少一部分的所述放大后的图像数据呈现在所述显示器上,基于显示器上呈现图像数据是获取焦距显示范围;响应于所述摄像头采集的到预设手势,获取手势矩形区域,以及生成与所述预设手势相对应的手势指令;如果所述手势矩形区域在所述显示器呈现的用户界面 内,则执行所述手势指令;如果所述手势矩形区域未呈现在所述用户界面内,则不执行所述手势指令。
图1为根据一些实施例的显示设备与控制装置之间操作场景;
图2为根据一些实施例的控制设备100的硬件配置框图;
图3为根据一些实施例的显示设备200的硬件配置框图;
图4为根据一些实施例的显示设备200中软件配置图;
图5a为根据一些实施例的一种显示设备200中显示图像的示例图;
图5b为根据一些实施例的摄像头范围与实际显示范围对比的示例图;
图6为根据一些实施例的一种焦距控制方法的流程图;
图7a为根据一些实施例的一种显示设备200中设备控制的示例图;
图7b为根据一些实施例的另一种显示设备200中手势控制的示例图;
图8为根据一些实施例的另一种设备控制方法的流程图;
图9为根据一些实施例的一种显示设备200中手势区域的示例图;
图10a为根据一些实施例的一种显示设备200中人脸位置矩形区域的示例图;
图10b为根据一些实施例的一种显示设备200中人脸位置矩形区域确定调整中心点的示例图;
图10c为根据一些实施例的另一种显示设备200中人脸位置矩形区域确定调整中心点的示例图;
图10d为根据一些实施例的一种显示设备200中显示目标图像的示例图;
图11为根据一些实施例的又一种焦距控制方法的流程图;
图12为根据一些实施例的另一种显示设备200中人脸位置矩形区域确定调整中心点的示例图;
图13为根据一些实施例的再一种焦距控制方法的流程图;
图14为根据一些实施例的另一种显示设备200中显示目标图像的示例图。
为使本申请的目的和实施方式更加清楚,下面将结合本申请示例性实施例中的附图,对本申请示例性实施方式进行清楚、完整地描述,显然,描述的示例性实施例仅是本申请一部分实施例,而不是全部的实施例。
图1为根据实施例中显示设备与控制装置之间操作场景的示意图。如图1所示,用户可通过智能设备300或控制装置100操作显示设备200。
在一些实施例中,控制装置100可以是遥控器,遥控器和显示设备的通信包括红外协议通信或蓝牙协议通信,及其他短距离通信方式,通过无线或有线方式来控制显示设备200。用户可以通过遥控器上按键、语音输入、控制面板输入等输入用户指令,来控制显示设备200。
在一些实施例中,也可以使用智能设备300(如移动终端、平板电脑、计算机、笔记本电脑等)以控制显示设备200。例如,使用在智能设备上运行的应用程序控制显示设备200。
在一些实施例中,显示设备200还可以采用除了控制装置100和智能设备300之外的方式进行控制,例如,可以通过显示设备200设备内部配置的获取语音指令的模块直接接收用户的语音指令控制,也可以通过显示设备200设备外部设置的语音控制设备来接收用户的语音指令控制。
在一些实施例中,显示设备200还与服务器400进行数据通信。可允许显示设备200通过局域网(LAN)、无线局域网(WLAN)和其他网络进行通信连接。服务器400可以向显示设备200提供各种内容和互动。
图2为根据一些实施例的控制装置100的配置框图。如图2所示,控制装置100包括控制器110、通信接口130、用户输入/输出接口140、存储器、供电电源。控制装置100可接收用户的输入操作指令,且将操作指令转换为显示设备200可识别和响应的指令,起到用户与显示设备200之间交互中介作用。
图3为根据一些实施例的显示设备200的硬件配置框图。
在一些实施例中,显示设备200包括调谐解调器210、通信器220、检测器230、外部装置接口240、控制器250、显示器260、音频输出接口270、存储器、供电电源、用户接口中的至少一种。
在一些实施例中控制器包括处理器,视频处理器,音频处理器,图形处理器,RAM,ROM,用于输入/输出的第一接口至第n接口。
在一些实施例中,显示器260包括用于呈现画面的显示屏组件,以及驱动焦距控制的驱动组件,用于接收源自控制器输出的图像信号,进行显示视频内容、图像内容以及菜单操控界面的组件以及用户操控UI界面。
在一些实施例中,显示器260可为液晶显示器、OLED显示器、以及投影显示器,还可以为一种投影装置和投影屏幕。
在一些实施例中,通信器220是用于根据各种通信协议类型与外部设备或服务器进行通信的组件。例如:通信器可以包括Wifi模块,蓝牙模块,有线以太网模块等其他网络通信协议芯片或近场通信协议芯片,以及红外接收器中的至少一种。显示设备200可以通过通信器220与外部控制设备100或服务器400建立控制信号和数据信号的发送和接收。
在一些实施例中,用户接口,可用于接收控制装置100(如:红外遥控器等)的控制信号。
在一些实施例中,检测器230可包括光接收器、图像获取模块以及声音获取模块等。
在一些实施例中,外部装置接口240可以包括但不限于如下:高清多媒体接口(HDMI)、模拟或数据高清分量输入接口(分量)、复合视频输入接口(CVBS)、USB输入接口(USB)、RGB端口等任一个或多个接口。也可以是上述多个接口形成的复合性的输入/输出接口。
在一些实施例中,调谐解调器210通过有线或无线接收方式接收广播电视信号,以及从多个无线或有线广播电视信号中解调出音视频信号,如以及EPG数据信号。
在一些实施例中,控制器250和调谐解调器210可以位于不同的分体设备中,即调谐解调器210也可在控制器250所在的主体设备的外置设备中,如外置机顶盒等。
在一些实施例中,控制器250,通过存储在存储器上中各种软件控制程序,来控制显示设备的工作和响应用户的操作。控制器250控制显示设备200的整体操作。例如:响应于接收到用于选择在显示器260上显示UI对象的用户命令,控制器250便可以执行与由用户命令选择的对象有关的操作。
在一些实施例中控制器包括中央处理器(Central Processing Unit,CPU),视频处理器,音频处理器,图形处理器(Graphics Processing Unit,GPU),RAM Random Access Memory,RAM),ROM(Read-Only Memory,ROM),用于输入/输出的第一接口至第n接口,通信总线(Bus)等中的至少一种。
CPU处理器。用于执行存储在存储器中操作系统和应用程序指令,以及根据接收外部输入的各种交互指令,来执行各种应用程序、数据和内容,以便最终显示和播放各种音视频内容。CPU处理器,可以包括多个处理器。如,包括一个主处理器以及一个或多个子处理器。
在一些实施例中,用户可在显示器260上显示的图形用户界面(GUI)输入用户命令,则用户输入接口通过图形用户界面(GUI)接收用户输入命令。或者,用户可通过输入特定的声音或手势进行输入用户命令,则用户输入接口通过传感器识别出声音或手势,来接收用户输入命令。
在一些实施例中,显示设备的系统可以包括内核(Kernel)、命令解析器(shell)、文件系统和应用程序。
参见图4,在一些实施例中,将系统分为四层,从上至下分别为应用程序(Applications)层(简称“应用层”),应用程序框架(Application Framework)层(简称“框架层”),系统库层(简称“系统运行库层”),以及内核层。
在一些实施例中,应用程序层中运行有至少一个应用程序,这些应用程序可以是操作系统自带的窗口(Window)程序、系统设置程序或时钟程序等;也可以是第三方开发者所开发的应用程序。在具体实施时,应用程序层中的应用程序包不限于以上举例。
在一些实施例中,内核层是硬件和软件之间的层。如图4所示,内核层至少包含以下驱动中的至少一种:音频驱动、显示驱动、蓝牙驱动、摄像头驱动、WIFI驱动、USB驱动、HDMI驱动、传感器驱动(如指纹传感器,温度传感器,压力传感器等)、以及电源驱动等。
在一些实施例中,以图4中的魔镜应用(拍照应用)为例,当遥控接收装置接收到遥控器输入操作,确认输入操作对应的控件为魔镜应用图标对应的控件,魔镜应用调用应用框架层的接口,启动魔镜应用,进行调用内核层启动摄像头驱动,实现通过摄像头获取图像。
当然,显示设备中具有调用摄像头功能的应用不仅仅是拍摄应用,还有可能是视频通话应用,照镜子应用,音视频录制应用,健身应用教学应用等等。以下示例性实施方式中仅以拍摄应用为例进行展开。但须知,本申请中任意具有调用摄像头功能的应用都适用于本申请所要求保护的技术方案。
在一些实施例中,显示设备安装有摄像头后,可拍摄到用户形象如面部和手势动作等,因此,还可具备手势识别功能。例如,在启动拍摄应用中,当用户比出“yeah”相关的手指时候,可触发拍照功能。
此外,本申请所涉及的显示设备处于运行状态时,在某一物理空间中的位置比较固定,用户所选择的舒适的观看距离较远,或者离得所述显示设备距离较远。以至于当打开摄像头应用拍摄图像时,采集到的人像或者用户面部只占整幅图像的一小部分。加之如果显示设备中有多个窗口在显示器上的同时呈现,导致小窗口中的人像都被进一步缩小,严重影响用户与显示界面上人像互动的乐趣。
基于此,本申请所涉及的显示设备在调用摄像头功能相关应用时,可启动“人像跟随”功能。具体的,可以通过直接调节摄像头的焦距以使得采集到的人像放大而达到“人像跟随”效果;还可以通过摄像头焦距不调整,仅控制将摄像头采集到图像以识别到的人像或人脸为中心进行放大,在显示器上仅展示摄像头拍摄画面的一部分的形式达到“人像跟随”的效果。
在一些实施例中,用户利用显示设备200进行拍照时,拍照应用中有摄像头焦距调整功能/或放大拍摄图像功能,以及手势拍照功能,手势拍照功能指的是在摄像头拍摄范围内摆出相应手势能够自动拍照。焦距调整功能指的是能够通过用户执行一定的指令,调整摄像头的焦距,以使得摄像头采集图像的范围改变。放大拍摄图像功能指通过用户执行一定的指令,在摄像头采集图像的范围不变的情况下,放大摄像头拍摄图像在用户界面上的显示范围。
其中摄像头焦距调整功能能够改变拍摄物在拍摄画面中的大小,同步的,用户界面上拍摄物的显示范围也会随之改变。而放大拍摄图像功能虽然摄像头焦距没有实质改变,但是也可以通过缩放拍摄图像以改变其在用户界面上的显示范围。上述两种方法都可以从用户的直观视觉上使得原来显示范围较小的拍摄物体放大显示。很多情况下,由于相似的用户体验,二者可以相互等同。
还有一些显示设备中虽然相关指令控件记载为焦距调节,但是实质上执行的是放大拍摄图像的动作。这种情况在本申请中,被认为实际触发的就是放大拍摄图像功能。
如果用户触发放大拍摄图像功能的话,整个摄像头拍摄区域会分为显示在用户界面上的部分(简称为显示部分)和未在用户界面上显示部分(简称为不显示部分)。用户实际上能观看到的部分为显示部分,这也会被用户直接判定为摄像头拍摄的画面就是显示部分。用户一般也是依据显示部分对摄像进行控制。
触发放大拍摄图像功能的方式包括:当开启人像跟随模式时显示部分可以自动地随着用户在摄像头拍摄区间内的移动而动态的移动和缩放。还可以通过用户人为选择缩放图像,则用户界面上的图像也可以根据用户的选择而移动和缩放。
实际上不显示部分也是摄像头采集的画面的一部分,如果进行手势识别时候,控制器一般将整个拍摄的画面全部进行识别,则很有可能出现在显示器上不显示的部分摆出手势也被识别为手势拍照指令而触发拍照。而此时用户没有在用户界面内看到相应的手势,显示设备却给出拍照反馈,影响用户体验。
下面对本实施例中显示设备拍照过程进行详细描述。
具体地,图5a示出了根据一些实施例的一种显示设备200中显示图像的示例图,如图5a所示,显示器中显示图像,该图像是摄像头拍摄图像经过放大后再呈现在显示器上的图像,需要说明的是,在图像经过放大处理后显示器显示的图像与摄像头拍摄范围对应的图像不同,图5b示出了根据一些实施例的摄像头范围与焦距显示范围对比的示例图,如图5b所示,摄像头拍摄对应图像的拍摄范围大于图5a所示的显示器显示图像对应的拍摄范围,即本申请实施例中所描述的显示器显示范围。
在一些情况下焦距显示范围可以等同于实际在显示器上显示的图像范围。
上述实施例中,用户通过操作控制装置,打开显示设备200安装的拍照应用程序,进而在显示器中显示原始图像,即摄像头拍摄范围对应的图像,接着通过触发放大拍摄图像的指令,进而在显示器中显示被放大的拍摄图像。
图6示出了根据一些实施例的一种指令控制方法的流程图。本申请实施例提供的一种显示设备,在根据手势位置和焦距显示范围执行手势指令时,控制器被配置为执行图6所述的指令控制方法,包括:
响应于放大拍摄图像的指令,将所述图像数据放大,并将至少一部分的所述放大后的图像数据呈现在所述显示器上,如步骤601。
在本申请的一些实施例中,触发放大拍摄图像的指令可以是用户通过操作控制装置(比如遥控器)输入,也可以是用户通过显示设备的声音采集器(比如麦克风)等输入,具体根据应用场景选择设置,本申请不作限制。还可以是启动人像跟随功能后,根据人像在拍摄图像中的显示大小触发的自动放大。
在本申请的一些实施例中,在摄像头启动后,显示器上呈现的初始显示范围为摄像头拍摄范围,响应于放大拍摄图像的指令,将所述拍摄图像进行放大,然后通过裁剪框进行裁剪,所述裁剪框中的图像内容即为显示器上呈现的画面(下文可简称为第二图像)。其中,裁剪框与本申请中显示器中显示窗口的具有一致的宽高比。
具体的,根据所述图像数据中目标物的位置,调整所述裁剪框的位置,以使所述裁剪框中包含所述目标物,将调整后的图像画面输出至所述显示器,其中,所述调整后的图像画面为调整后的裁剪框在所述摄像头输入的图像数据对应的图像数据,所述目标物的中心与所述裁剪框的中心距离最小,且所述显示器上不出现黑边。
在一些实施例中,创建坐标系,获取放大后的图像坐标信息,确定裁剪框在所述放大后的图像中的区域,根据裁剪框的坐标信息更新显示器的显示范围。
在一些实施例中,响应于摄像头检测到的手势指令,获取手势矩形区域,步骤602。
在本申请的一个实施例中,手势指令指的是摄像头检测到特殊手势,比如通过手势识别来完成一系列拍照行为的命令传递方式,手势识别可以理解为用户可以使用简单的手势来控制或与设备交互,摄像头采集图像,检测图像中包括特殊手势,则认为检测到手势指令,其中,用户可以在摄像头拍摄范围内做出不同的手势以向显示设备发送不同指令。
具体地,摄像头检测到手势指令,对包括手势指令的图像进行处理,获取手势矩形区域,更具体地,识别到图像区域内手势的所有关键点,根据所有关键点的坐标信息确定最小横纵坐标值和最大横纵坐标值绘制矩形,获取手势矩形区域。
在一些实施例中,基于显示器上第二图像的显示和手势矩形区域,如果确定手势矩形区域在用户界面显示范围内,执行手势指令。如步骤603。如果确定手势矩形区域不在用户界面显示范围内,则不执行手势指令,如步骤604。
在本申请一些实施例中,以用户界面上显示的第二图像显示范围为准,手势矩形区域在第二图像显示范围内执行手势指令,手势矩形区域不在裁剪框显示范围内不执行手势指令,仅执行对于用户可视的拍摄图像的显示范围内的手势指令,提高显示设备控制的有效性和准确性。
在本申请一些实施例中,如图7a所示,手势矩形区域在第二图像显示范围内,执行手势指令,更具体地,手势指令为拍照指令,执行拍照操作,获取图像并存储,进一步地,用户还可以通过控制装置、语音指令或者手势指令等对拍摄图像进行编辑操作,还可以理解的是,用户可以选择重新拍摄,再次通过手势指令执行拍照,满足用户多方面使用需求,提升用户使用体验。
在本申请一些实施例中,如图7b所示,手势矩形区域不在第二图像显示范围内,不 执行手势指令,也就是说,尽管摄像头拍摄范围内获取了手势指令,但是不在用户可视范围内,不执行该手势指令,进一步提升用户体验。
由于摄像头拍摄区域具有一定的范围,因此,会有一些采集到的图像不包含完整的目标物的情况。例如图7b中,左上角位置上仅拍摄到一只手,未拍摄到完整的手对应的完成的人物。这种情况下,即便在人脸跟随的情况下也无法捕获到这只手对应的完成的人物。当时当在这种情况下,实际显示范围中包括一个完整的人物,而摄像头拍摄范围包括了这个完整的人物和左上角的手势。因此,由于左上角的手势不在实际显示范围内,不相应对应的手势。
在本申请的一个实施例中,通过第二图像显示范围的坐标信息和手势矩形区域的坐标信息来判断手势矩形区域是否在用户界面上显示范围内,更具体地,以摄像头拍摄范围的左下角为原始坐标点建立坐标轴,摄像头拍摄范围下方边界为横轴,左方边界为纵轴,创建坐标系,获取焦距显示范围的目标坐标信息,获取手势矩形区域的手势坐标信息,基于目标坐标信息和手势坐标信息,确定手势矩形区域在焦距显示范围内执行手势指令、或者是确定手势矩形区域不在用户界面上显示范围内不执行手势指令。
上述示例中,仅仅执行对于用户可视的用户界面上显示范围内的手势指令,以使用户可以根据看到的手势进行调整和控制操作,进一步提升用户使用体验。
图8示出了根据一些实施例的另一种指令处理方法的流程图。本实施例在上述实施例的基础上,进一步优化了上述方法。如图8所示,该方法包括:
在本申请的一些实施例中,判断是否接收到放大所述拍摄图像指令,如步骤801。
在本申请的一些实施例中,通过控制装置比如遥控器相关按键调整用户界面上对所述拍摄图像的显示范围,在确定放大拍摄图像的情况下,整个摄像头拍摄的图像会分为显示部分和不显示部分,如图7a所示,在用户界面上的显示范围内为显示部分,其他部分为不显示部分。
在本申请的一些实施例中,摄像头检测到手势指令,执行手势指令,如步骤802。
在本申请一些实施例中,如果摄像头拍摄范围内区域与显示器的第二图像显示范围一致,在摄像头采集到图像,检测图像中包括手势,则认为检测到手势指令,直接执行该手势指令即可,其中,可以根据应用场景需求设置对应的手势指令,比如手势指令A为拍照,手势指令B为存储等,另外,在摄像头范围内未识别到手势指令,则不执行手势指令。
在本申请的一些实施例中,用户通过操作控制装置(比如遥控器)输入或者用户通过显示设备的声音采集器(比如麦克风)等输入的放大拍摄图像的指令。响应于上述指令,显示设备并不对摄像头进行实质上的焦距调整,也就是说摄像头保持原来的拍摄范围,比如图7a所示,整个摄像头拍摄范围保持不变。而是在获取摄像头采集的图像后,对图像进行放大处理后在显示器中显示,以从用户视觉上,也能够达到放大物体的效果。
这种情况下,实际摄像头采集的图像范围较大,而显示器仅显示放大后图像的一部分。换句话说,显示器上的实际显示范围显示的是摄像头采集图像经过放大后的一部分,从而显示器的实际显示的图像范围与摄像头拍摄图像范围不一致,比如图7a所示,整个摄像头拍摄区域会分为显示部分和不显示部分,第二图像显示范围内为在用户界面上的实际显示范围,也即为显示部分,其他部分为不显示部分。此时,以第二图像显示范围为准,手势矩形区域在第二图像显示范围内执行手势指令,手势矩形区域不在第二图像显示范围内不执行手势指令。
这种情况下,虽然有可能用户的手势还在摄像头采集的范围内,但是,如果已经不在显示器显示的范围内,那么,即使摄像头可采集到手势,但是也不识别指令,或者可以识别指令但是不响应手势相对应的指令。
因此,用户可以根据直观在显示器上看到的手势进行调整和控制操作,提高显示设备控制的有效性和准确性。
在本申请的一些实施例中,获取裁剪框坐标信息,基于裁剪框坐标信息更新显示器的第二图像显示范围,如步骤803。
在本申请的一些实施例中,以摄像头拍摄范围的左下角为原始坐标点(0,0)建立坐标轴,摄像头拍摄范围下方边界为横轴,左方边界为纵轴,创建坐标系,读取放大调整后的裁剪框坐标信息,比如为四个坐标点(x1,y1),(x1,y2),(x2,y1),(x2,y2),从而根据该四个坐标点确定第二图像显示范围。
在一些实施例中,所述裁剪框仅仅是用于定位被放大的拍摄图像在显示器上的显示范围,以使得所述显示器按照被框选的范围进行显示,并非真实对放大的拍摄图像进行裁剪。
在一些实施例中,控制器直接将裁剪框中的图像呈现在显示器上,而在显示器上,所述裁剪框并不可见。
在本申请的一些实施例中,摄像头检测到手势指令,获取手势指令的多个关键点,获取多个关键点对应的关键点坐标信息确定最小横纵坐标值和最大横纵坐标值,基于最小横纵坐标值和最大横纵坐标值,获取手势矩形区域,如步骤804。
在本申请实施例中,如图9所示,获取手势指令的多个关键点,并获取多个关键点对应的关键点坐标信息,以摄像头拍摄范围的左下角为原始坐标点(0,0)建立坐标轴,摄像头拍摄范围下方边界为横轴,左方边界为纵轴,创建坐标系,读取关键点坐标信息,确定最小横纵坐标值和最大横纵坐标值,比如为四个坐标点(m1,n1),(m1,n2),(m2,n1),(m2,n2),从而根据该四个坐标点确定手势矩形区域。
在本申请的一些实施例中,获取第二图像显示范围的目标坐标信息,获取手势矩形区域的手势坐标信息,如步骤805。
在本申请的一些实施例中,基于目标坐标信息和手势坐标信息,确定手势矩形区域在第二图像显示范围内,执行手势指令,如步骤806。
在本申请的一些实施例中,基于目标坐标信息和手势坐标信息,确定手势矩形区域不在第二图像显示范围内,不执行手势指令,如步骤807。
在本申请的一些实施例中,获取第二图像显示范围的目标坐标信息比如上述描述的(x1,y1),(x1,y2),(x2,y1),(x2,y2),获取手势矩形区域的手势坐标信息如上述描述的(m1,n1),(m1,n2),(m2,n1),(m2,n2),根据目标坐标信息和手势坐标信息,确定手势矩形区域在第二图像显示范围内,执行手势指令,基于目标坐标信息和手势坐标信息,确定手势矩形区域不在第二图像显示范围内,不执行手势指令。
由此,摄像头拍照界面可通过遥控器等控制设备调整拍照显示范围,当手势在用户界面显示范围内能够拍照,当手势不在焦距显示范围内不可以拍照。
在一些实施例中,以图4中的魔镜应用(拍照应用)为例,人工智能试妆是拍照应用上的试妆功能,通过计算出人脸位置,并将妆容描绘到人脸对应位置上,试妆功能内包含有人像跟随效果,或者人脸跟随效果(也可称为人脸跟焦),在摄像头区域内,聚焦人脸位置所在区域,跟焦指的是在拍摄一个镜头时,随着人物或物体趋近或远离摄影机而改变 显示器上对拍摄图像的显示范围,以使其保持在精确的焦点上。
由于在用户使用人像跟随功能,当人脸在下方角落时(如图10a所示),使用人体检测位置(0,0,0,0),计算出的矩形缩放区域如图10b所示,调整中心点不准确,导致跟焦效果差。
图11示出了根据一些实施例的又一种指令控制方法的流程图。本申请实施例提供的一种显示设备,在进行人像跟随时,控制器被配置为执行图11所述的指令控制方法,包括:
响应于启动摄像头的控制信号,在显示器中显示摄像头采集的图像,如步骤1101。
在本申请一些实施例中,通过遥控器上按键、语音输入、控制面板输入等输入启动摄像头的控制信号,通过摄像头获取图像在显示器中显示。
在本申请一些实施例中,显示器中显示的图像可以包括人脸图像也可以不包括人脸图像,本申请主要针对的是包括人脸图像的处理,人脸图像可以在显示图像的任一位置,比如上述图10所示的图像的右下角落,也可以如图12所示的中心位置,具体根据应用场景中用户所处位置确定。
响应于指示人脸跟焦的控制信号,基于图像获取人脸位置矩形区域,如步骤1102。
在本申请一些实施例中,通过遥控器上按键、语音输入、控制面板输入等输入人脸跟焦的控制信号,人脸区域是指人脸所在的区域,从而对图像进行人脸识别,获取人脸位置矩形区域,识别图像的人脸区域的方式,包括但不限于如下步骤,提取图像中的图像特征,将图像特征输入预先训练的人脸识别模型进行判断,确定人脸识别模型判定为人脸的图像特征对应的位置区域为人脸图像区域,如图12所示的人脸位置矩形区域。
基于人脸位置矩形区域,确定调整中心点,如步骤1103。
根据调整中心点和预设调整值对图像进行调整,获取目标图像,以及在显示器上显示目标图像,如步骤1104。
在本申请一些实施例中,调整中心点指的是人脸位置矩形区域中一个坐标点,通过人脸位置矩形区域的坐标信息进行计算获取调整中心点,具体地,获取人脸位置矩形区域坐标信息,基于人脸位置矩形区域坐标信息进行计算处理,获取中心点坐标为调整中心点;其中,坐标信息指的是人脸位置矩形区域上的一个或者多个坐标点,以及坐标点对应的坐标值。
在本申请一些实施例中,预设调整值可以根据应用场景需要进行选择设置。
在本申请一些实施例中,以调整中心点为中心点不动,根据预设调整值对图像进行像素调整,获取目标图像,并在显示器上显示目标图像。继续以图10a为例,计算获取的调整中心点如图10c所示的O点,预设调整数值为一点五倍,对图10c中的图像进行调整,得到的目标图像如图10d所示,保证了跟焦效果。
上述示例中,以人脸区域计算调整中心点进行人脸跟焦,保证跟焦效果。
图13示出了根据一些实施例的再一种指令控制方法的流程图。本实施例在上述实施例的基础上,进一步优化了上述焦距控制方法。如图11所示,该方法包括:
在本申请的一些实施例中,在显示器中显示摄像头采集的图像,响应于指示人脸跟焦的控制信号,基于图像获取人脸位置矩形区域,如步骤1301。
在本申请一些实施例中,显示器中显示的图像可以包括人脸图像也可以不包括人脸图像,本申请主要针对的是包括人脸图像的处理,人脸图像可以在显示图像的任一位置。
在本申请一些实施例中,通过遥控器上按键、语音输入、控制面板输入等输入人脸跟 焦的控制信号,从而对图像进行人脸识别,获取人脸位置矩形区域。
在本申请的一些实施例中,在显示器中显示摄像头采集的图像,响应于指示人脸跟焦的控制信号,基于图像获取人脸位置矩形区域之后,可以执行基于图像获取不到人体位置矩形区域,基于人脸位置矩形区域,确定调整中心点或基于图像获取人体位置矩形区域,基于人脸位置矩形区域和人体位置矩形区域确定调整中心点,如步骤1303。
在本申请的一些实施例中,基于图像获取不到人体位置矩形区域,基于人脸位置矩形区域,确定调整中心点,如步骤1302。
在本申请一些实施例中,可以理解的是,人体位置矩形区域为四肢及躯干部分所在的身体区域,在确定人脸位置矩形区域后,可以采用人体检测算法进行确定,或者建立人体检测模型,进而基于人体检测模型进行检测,获取人体位置矩形区域。
在本申请一些实施例中,基于图像获取不到人体位置矩形区域,表示图像仅仅包括人脸位置矩形区域,基于人脸位置矩形区域,确定调整中心点。也就是说,当只能检测到人脸位置矩形区域,未检测到人体位置矩形区域时,仅以人脸位置矩形区域作为计算矩形缩放区域的调整中心点。
在本申请一些实施例中,基于人脸位置矩形区域,获取人脸位置矩形区域坐标信息,基于人脸位置矩形区域坐标信息进行计算处理,获取中心点坐标为调整中心点,更具体地,在人脸跟焦功能开启时,检测人脸位置矩形区域和人体位置矩形区域,以图像的左下角为原始坐标点(0,0)建立坐标轴,摄像头拍摄范围下方边界为横轴,左方边界为纵轴,创建坐标系,读取人脸位置矩形区域坐标信息,比如为四个坐标点(a1,b1),(a1,b2),(a2,b1),(a2,b2),从而根据该四个坐标点确定人脸位置矩形区域,进一步计算中心点坐标为((a1+a2)/2,(b1+b2)/2)为调整中心点。
在本申请的一些实施例中,基于图像获取人体位置矩形区域,基于人脸位置矩形区域和人体位置矩形区域确定调整中心点。
在本申请一些实施例中,基于人脸位置矩形区域,获取人脸位置矩形区域坐标信息,基于人体位置矩形区域,获取人体位置矩形区域坐标信息,基于人脸位置矩形区域坐标信息进行计算处理,获取第一中心点坐标,基于人体位置矩形区域坐标信息进行计算处理,获取第二中心点坐标,基于第一中心点坐标和第二中心点坐标进行计算处理,获取目标中心点坐标为调整中心点。更具体地,在人脸跟焦功能开启时,检测人脸位置矩形区域和人体位置矩形区域,以图像的左下角为原始坐标点(0,0)建立坐标轴,摄像头拍摄范围下方边界为横轴,左方边界为纵轴,创建坐标系,读取人脸位置矩形区域坐标信息和人体位置矩形区域坐标信息,比如为四个坐标点(a1,b1),(a1,b2),(a2,b1),(a2,b2),从而根据该四个坐标点确定人脸位置矩形区域,以及四个坐标点(c1,d1),(c1,d2),(c2,d1),(c2,d2),从而根据该四个坐标点确定人体位置矩形区域。
进一步地,根据当(a1,b1,a2,b2),(c1,d1,c2,d2)均不全为零时,判断同时检测到人脸位置矩形区域和人体位置矩形区域,二者结合进行双重判断,以人体位置矩形区域和人脸位置矩形区域计算调整中心点,即人脸位置矩形区域的第一中心点坐标(h1,h2)为((a1+a2)/2,(b1+b2)/2),人体位置矩形区域的第二中心点坐标(k1,k2)为((c1+c2)/2,(d1+d2)/2),根据第一中心点坐标和第二中心点坐标进行计算处理获取目标中心点坐标为((h1+k1)/2,(h2+k2)/2)为调整中心点。
在本申请的一些实施例中,根据调整中心点和预设调整值对图像进行调整,获取目标 图像,以及在显示器上显示目标图像,如步骤1304。
在本申请一些实施例中,基于人脸位置矩形区域确定调整中心点,具体地,获取人脸位置矩形区域坐标信息,基于人脸位置矩形区域坐标信息进行计算处理,获取中心点坐标为调整中心点。
在本申请一些实施例中,预设调整值可以根据应用场景需要进行选择设置。
在本申请一些实施例中,以调整中心点为中心点不动,根据预设调整值对图像进行像素调整,获取目标图像,并在显示器上显示目标图像。继续以图10a为例,计算获取的调整中心点如图10a所示的O点,预设调整数值为一点五倍,对图10a中的图像进行调整,得到的图像如图10c所示,保证了跟焦效果。继续以图12为例,计算获取的调整中心点如图12所示的O点,预设调整数值为一点五倍,对图12中的图像进行调整,得到的图像如图14所示,保证了跟焦效果。
由此,摄像头在显示器显示界面的人脸跟焦效果,以人脸位置矩形区域和人体位置矩形区域为双重检验标准,当检测到人脸位置矩形区域和人体位置矩形区域时,以人脸位置矩形区域与人体位置矩形区域计算矩形缩放区域,当检测不到人体位置矩形区域时,仅以人脸位置矩形区域计算矩形缩放区域。另外,当人体位置矩形区域和人脸位置矩形区域都检测不到时,将矩形缩放区域置为空。
上述示例中,以人脸区域计算调整中心点进行人脸跟焦,保证跟焦效果。
为了方便解释,已经结合具体的实施方式进行了上述说明。但是,上述示例性的讨论不是意图穷尽或者将实施方式限定到上述公开的具体形式。根据上述的教导,可以得到多种修改和变形。上述实施方式的选择和描述是为了更好的解释原理以及实际的应用,从而使得本领域技术人员更好的使用所述实施方式以及适于具体使用考虑的各种不同的变形的实施方式。
Claims (10)
- 一种显示设备,包括:摄像头,被配置为采集图像数据;显示器,被配置为呈现用户界面,其中,当打开摄像头相关应用时,呈现所述摄像头采集的图像数据;分别与所述摄像头和所述显示器连接的控制器,所述控制器被配置为:响应于打开摄像头相关应用的指令,控制显示器呈现摄像头采集的图像数据;响应于用户输入的用于触发放大所述图像数据的指令,将所述图像数据放大,并将至少一部分的所述放大后的图像数据呈现在所述显示器上;响应于所述摄像头采集的到预设手势,获取手势矩形区域,以及生成与所述预设手势相对应的手势指令;如果所述手势矩形区域在所述显示器呈现的用户界面内,则执行所述手势指令;如果所述手势矩形区域未呈现在所述用户界面内,则不执行所述手势指令。
- 根据权利要求1所述的显示设备,所述控制器被进一步配置为:响应于用户输入的用于触发放大所述图像数据的指令,确定所述图像数据需要被放大的倍数;根据所述放大倍数将所述图像数据进行放大。
- 根据权利要求1所述的显示设备,所述控制器在执行响应于用户输入的用于触发放大所述图像数据的指令,将所述图像数据放大,并将至少一部分的所述放大后的图像数据呈现在所述显示器上,被进一步配置为:响应于用户输入的用于触发放大所述图像数据的指令,将所述图像数据放大,将至少一部分的所述放大后的图像数据呈现在所述显示器上,基于显示器上呈现的图像数据确定焦距显示范围;其中,其余部分的所述放大后的图像数据未显示在所述显示器上。
- 根据权利要求1所述的显示设备,所述控制器在执行获取手势矩形区域,被进一步配置为:获取所述手势指令的多个关键点;获取所述多个关键点对应的关键点坐标信息;基于所述关键点坐标信息,确定最小横纵坐标值和最大横纵坐标值;基于所述最小横纵坐标值和所述最大横纵坐标值,获取所述手势矩形区域。
- 根据权利要求1所述的显示设备,所述控制器在执行基于所述焦距显示范围和所述手势矩形区域,确定所述手势矩形区域在所述焦距显示范围内,执行所述手势指令,被进一步配置为:获取所述焦距显示范围的目标坐标信息;获取所述手势矩形区域的手势坐标信息;基于所述目标坐标信息和所述手势坐标信息,确定所述手势矩形区域在所述焦距显示范围内,执行所述手势指令。
- 根据权利要求5所述的显示设备,所述控制器在执行基于所述焦距显示范围和所述手势矩形区域,确定所述手势矩形区域不在所述焦距显示范围内,不执行所述手势指令, 被进一步配置为:基于所述目标坐标信息和所述手势坐标信息,确定所述手势矩形区域不在所述焦距显示范围内,不执行所述手势指令。
- 根据权利要求2所述的显示设备,所述控制器在执行响应于用户输入的用于触发放大所述图像数据的指令,确定所述图像数据需要被放大的倍数;根据所述放大倍数将所述图像数据进行放大,具体被配置为:当检测到有人物对象在所述摄像头采集的图像数据中时,响应于用户输入的用于触发放大所述图像数据的指令,确定所述图像数据需要被放大的倍数;根据所述放大倍数将所述图像数据进行放大,以使得所述放大后的图像数据中仍包含所述人物。
- 根据权利要求2所述的显示设备,所述控制器在执行响应于用户输入的用于触发放大所述图像数据的指令,确定所述图像数据需要被放大的倍数;根据所述放大倍数将所述图像数据进行放大,具体被配置为:当检测到有人物对象在所述摄像头采集的图像数据中时,响应于用户输入的用于触发放大所述图像数据的指令,确定所述图像数据需要被放大的倍数;获取人脸位置矩形区域;基于所述人脸位置矩形区域,确定调整中心点;根据所述调整中心点和放大倍数对所述图像进行调整,获取目标图像,以及在所述显示器上显示所述目标图像。
- 根据权利要求7所述的显示设备,所述控制器在执行所述基于所述人脸位置矩形区域,确定调整中心点,被进一步配置为:基于所述人脸位置矩形区域,获取人脸位置矩形区域坐标信息;基于所述人脸位置矩形区域坐标信息进行计算处理,获取中心点坐标为所述调整中心点。
- 一种设备控制方法,包括:控制显示器呈现摄像头采集的图像数据;响应于用户输入的用于触发放大所述图像数据的指令,将所述图像数据放大,并将至少一部分的所述放大后的图像数据呈现在所述显示器上,基于显示器上呈现图像数据是获取焦距显示范围;响应于所述摄像头采集的到预设手势,获取手势矩形区域,以及生成与所述预设手势相对应的手势指令;如果所述手势矩形区域在所述显示器呈现的用户界面内,则执行所述手势指令;如果所述手势矩形区域未呈现在所述用户界面内,则不执行所述手势指令。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2021111348598 | 2021-09-18 | ||
CN202111104825.4A CN113825002B (zh) | 2021-09-18 | 2021-09-18 | 显示设备及焦距控制方法 |
CN202111134859.8A CN113747078B (zh) | 2021-09-18 | 2021-09-18 | 显示设备及焦距控制方法 |
CN2021111048254 | 2021-09-18 | ||
PCT/CN2022/090560 WO2023040288A1 (zh) | 2021-09-18 | 2022-04-29 | 显示设备及设备控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117918057A true CN117918057A (zh) | 2024-04-23 |
Family
ID=78768107
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111134859.8A Active CN113747078B (zh) | 2021-09-18 | 2021-09-18 | 显示设备及焦距控制方法 |
CN202111104825.4A Active CN113825002B (zh) | 2021-09-18 | 2021-09-18 | 显示设备及焦距控制方法 |
CN202280058406.8A Pending CN117918057A (zh) | 2021-09-18 | 2022-04-29 | 显示设备及设备控制方法 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111134859.8A Active CN113747078B (zh) | 2021-09-18 | 2021-09-18 | 显示设备及焦距控制方法 |
CN202111104825.4A Active CN113825002B (zh) | 2021-09-18 | 2021-09-18 | 显示设备及焦距控制方法 |
Country Status (2)
Country | Link |
---|---|
CN (3) | CN113747078B (zh) |
WO (1) | WO2023040288A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113747078B (zh) * | 2021-09-18 | 2023-08-18 | 海信视像科技股份有限公司 | 显示设备及焦距控制方法 |
CN116204105B (zh) * | 2023-05-05 | 2023-07-21 | 北京睿企信息科技有限公司 | 一种关联图像呈现的处理系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10180469B2 (en) * | 2015-10-28 | 2019-01-15 | Siemens Healthcare Gmbh | Gesture-controlled MR imaging system and method |
CN107493495B (zh) * | 2017-08-14 | 2019-12-13 | 深圳市国华识别科技开发有限公司 | 交互位置确定方法、系统、存储介质和智能终端 |
CN107592458B (zh) * | 2017-09-18 | 2020-02-14 | 维沃移动通信有限公司 | 一种拍摄方法及移动终端 |
CN110688914A (zh) * | 2019-09-09 | 2020-01-14 | 苏州臻迪智能科技有限公司 | 一种手势识别的方法、智能设备、存储介质和电子设备 |
CN112565602A (zh) * | 2020-11-30 | 2021-03-26 | 北京地平线信息技术有限公司 | 图像拍摄装置的控制方法、装置及计算机可读存储介质 |
CN112905008B (zh) * | 2021-01-29 | 2023-01-20 | 海信视像科技股份有限公司 | 一种手势调节显示图像方法及显示设备 |
CN113747078B (zh) * | 2021-09-18 | 2023-08-18 | 海信视像科技股份有限公司 | 显示设备及焦距控制方法 |
-
2021
- 2021-09-18 CN CN202111134859.8A patent/CN113747078B/zh active Active
- 2021-09-18 CN CN202111104825.4A patent/CN113825002B/zh active Active
-
2022
- 2022-04-29 WO PCT/CN2022/090560 patent/WO2023040288A1/zh active Application Filing
- 2022-04-29 CN CN202280058406.8A patent/CN117918057A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN113747078B (zh) | 2023-08-18 |
CN113747078A (zh) | 2021-12-03 |
CN113825002A (zh) | 2021-12-21 |
CN113825002B (zh) | 2023-06-06 |
WO2023040288A1 (zh) | 2023-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111541845B (zh) | 图像处理方法、装置及电子设备 | |
WO2022001407A1 (zh) | 一种摄像头的控制方法及显示设备 | |
US11758265B2 (en) | Image processing method and mobile terminal | |
AU2013276984B2 (en) | Display apparatus and method for video calling thereof | |
JP7000050B2 (ja) | 撮像制御装置及びその制御方法 | |
CN117918057A (zh) | 显示设备及设备控制方法 | |
KR20150005270A (ko) | 전자 장치에 의해 촬영된 이미지들을 프리뷰하는 방법 및 이를 위한 전자 장치 | |
WO2022037535A1 (zh) | 显示设备及摄像头追踪方法 | |
US11310443B2 (en) | Video processing method, apparatus and storage medium | |
CN112672062B (zh) | 一种显示设备及人像定位方法 | |
CN113840070B (zh) | 拍摄方法、装置、电子设备及介质 | |
CN112261218B (zh) | 视频控制方法、视频控制装置、电子设备和可读存储介质 | |
WO2022237839A1 (zh) | 拍摄方法、装置及电子设备 | |
WO2022100262A1 (zh) | 显示设备、人体姿态检测方法及应用 | |
CN111970456A (zh) | 拍摄控制方法、装置、设备及存储介质 | |
CN111083374B (zh) | 滤镜添加方法及电子设备 | |
CN110769156A (zh) | 图片显示方法及电子设备 | |
US11756302B1 (en) | Managing presentation of subject-based segmented video feed on a receiving device | |
CN112905008B (zh) | 一种手势调节显示图像方法及显示设备 | |
CN115499589A (zh) | 拍摄方法、装置、电子设备及介质 | |
CN114245017A (zh) | 一种拍摄方法、装置及电子设备 | |
CN113315915A (zh) | 图像清晰度确定方法、装置、介质和电子设备 | |
WO2022037229A1 (zh) | 人像定位方法及显示设备 | |
US20230388447A1 (en) | Subject-based smart segmentation of video feed on a transmitting device | |
CN114647983A (zh) | 显示设备及基于人像的距离检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |