WO2020248697A1 - 显示设备及视频通讯数据处理方法 - Google Patents
显示设备及视频通讯数据处理方法 Download PDFInfo
- Publication number
- WO2020248697A1 WO2020248697A1 PCT/CN2020/084717 CN2020084717W WO2020248697A1 WO 2020248697 A1 WO2020248697 A1 WO 2020248697A1 CN 2020084717 W CN2020084717 W CN 2020084717W WO 2020248697 A1 WO2020248697 A1 WO 2020248697A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- target
- image
- local
- display device
- video
- Prior art date
Links
- 238000004891 communication Methods 0.000 title claims abstract description 127
- 238000003672 processing method Methods 0.000 title claims abstract description 11
- 230000000875 corresponding Effects 0.000 claims abstract description 75
- 230000004044 response Effects 0.000 claims abstract description 22
- 230000004913 activation Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 22
- 238000000034 method Methods 0.000 description 16
- 238000006243 chemical reaction Methods 0.000 description 10
- 230000001276 controlling effect Effects 0.000 description 8
- 230000003993 interaction Effects 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 230000000051 modifying Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000002452 interceptive Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000003287 optical Effects 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 230000001965 increased Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 230000003321 amplification Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 230000001815 facial Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 238000003199 nucleic acid amplification method Methods 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000002194 synthesizing Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000002093 peripheral Effects 0.000 description 2
- 230000000087 stabilizing Effects 0.000 description 2
- UDMBCSSLTHHNCD-KQYNXXCUSA-N Adenosine monophosphate Chemical compound C1=NC=2C(N)=NC=NC=2N1[C@@H]1O[C@H](COP(O)(O)=O)[C@@H](O)[C@H]1O UDMBCSSLTHHNCD-KQYNXXCUSA-N 0.000 description 1
- 229950006790 Adenosine phosphate Drugs 0.000 description 1
- 229920001276 Ammonium polyphosphate Polymers 0.000 description 1
- 210000000988 Bone and Bones Anatomy 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000003044 adaptive Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000003238 somatosensory Effects 0.000 description 1
- 230000001360 synchronised Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4126—The peripheral being portable, e.g. PDAs or mobile phones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Abstract
本申请提供了显示设备及视频通讯数据处理方法,控制器响应于与至少一个对端设备视频通讯的指令,通过图像采集器采集本端的全局图像;在用户界面中呈现本地预览窗口,根据全局图像在本地预览窗口中显示本端视频画面,其中,在全局图像中存在运动目标时,本端视频画面为运动目标的目标稳定区域对应的局部图像。
Description
本申请要求在2019年6月10日提交中国专利局、申请日为201910496921.4、申请名称为“基于显示设备的视频通讯数据处理方法、装置及显示设备”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
本申请涉及显示设备技术领域,尤其涉及一种显示设备、视频通讯数据处理方法、视频通讯方法和显示方法。
当前,由于如智能电视的显示设备可以为用户提供诸如音频、视频、图片等的播放画面,受到用户的广泛关注。
随着大数据与人工智能的发展,用户对显示设备的功能需求与日俱增。例如,用户想要播放显示画面的同时,呈现多路视频聊天画面;或者,当用户在游戏场景中,实时显示参与者是真实画面;或者,用户在教育类应用程序中,在学习当前画面内容的同时,实时与家长/老师进行远程音视频互动等。
因此,亟待提供一种能够实现上述功能的显示设备。
发明内容
本申请提供了一种显示设备、视频通讯数据处理方法、视频通讯方法和显示方法以解决上述问题。
第一方面,本申请提供了一种显示设备,包括:
显示器,用于呈现用户界面;
图像采集器,用于采集本端的全局图像;
控制器,用于:
响应于与至少一个对端设备进行视频通讯的指令,通过所述图像采集器采集本端的全局图像;
在所述用户界面中呈现本地预览窗口,根据所述全局图像在所述本地预览窗口中显示本端视频画面,其中,在所述全局图像中存在运动目标时,所述本端视频画面为所述运动目标的目标稳定区域对应的局部图像;
响应于与所述对端设备之间视频通讯连接的建立,根据所述本地预览窗口中显示的本端视频画面生成本端视频数据,并发送给所述对端设备。
第二方面,本申请还提供一种显示设备,包括:
显示器,用于呈现用户界面;
控制器,用于:
响应于与所述对端设备之间视频通讯连接的建立,接收对端显示设备发送的对端视频数据;
在用户界面中呈现对端显示窗口;
根据所述对端视频数据在所述对端显示窗口中显示对端视频画面,其中,在所述对端视频画面中存在运动目标时,所述对端视频画面为所述运动目标的目标稳定区域对应的画面。
第三方面,本申请还提供一种显示设备,包括:
显示器,用于呈现用户界面;
图像采集器,用于采集本端的全局图像;
控制器,用于:
响应于所述图像采集器的启动,获取所述图像采集器采集的本端的全局图像;
在所述用户界面中呈现本地预览窗口,根据所述本端的全局图像在所述本地预览窗口中显示本端视频画面,其中,在所述全局图像中存在运动目标时,所述本端视频画面为所述运动目标的目标稳定区域对应的局部图像。
第四方面,本申请还提供一种视频通讯数据处理方法,应用于显示设备,所述方法包括:
响应与至少一个对端设备进行视频通讯的指令,通过图像采集器采集运动目标所在场景的全局图像;
获取所述全局图像;
检测所述全局图像中的运动目标,确定包含所述运动目标的目标稳定区域;
根据所述目标稳定区域对所述全局图像进行处理,得到局部图像;
使用所述局部图像与所述对端设备进行视频通讯。
第五方面,本申请还提供一种视频通讯方法,所述方法包括:
第一显示设备响应于与第二显示设备之间视频通讯连接的建立,接收所述第二显示设备发送的对端视频数据;
在用户界面中呈现对端显示窗口;
根据所述对端视频数据在所述对端显示窗口中显示对端视频画面,其中,在所述对端视频画面中存在运动目标时,所述对端视频画面为所述运动目标的目标稳定区域对应的画面。
第六方面,本申请还提供一种显示方法,应用于显示设备,所述显示设备具有 图像采集器,所述方法包括:
响应于所述图像采集器的启动,获取所述图像采集器采集的本端的全局图像;
在所述用户界面中呈现本地预览窗口,根据所述本端的全局图像在所述本地预览窗口中显示本端视频画面,其中,在所述全局图像中存在运动目标时,所述本端视频画面为所述运动目标的目标稳定区域对应的局部图像。
为了更清楚地说明本申请的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1中示例性示出了显示设备与控制装置之间操作场景的示意图;
图2中示例性示出了控制装置100的硬件配置框图;
图3中示例性示出了显示设备200的硬件配置框图;
图4中示例性示出了根据图3显示设备200的硬件架构框图;
图5中示例性示出了显示设备200的功能配置示意图;
图6a中示例性示出了显示设备200中软件配置示意图;
图6b中示例性示出了显示设备200中应用程序的配置示意图;
图7中示例性示出了显示设备200用户界面的示意图;
图8a为本申请根据一示例性实施例示出的用户通过控制装置100A与显示设备进行交互的一种场景;
图8b为本申请根据一示例性实施例示出的用户通过控制装置100A与显示设备进行交互的另一种场景;
图9a为本申请技术方案的一种应用场景示意图;
图9b为本申请技术方案的另一种应用场景示意图;
图10a示出了两人视频聊天时本端设备所呈现的视频界面;
图10b示出了两人视频聊天时本端设备所呈现的另一视频界面;
图10c示出了四人视频聊天时本端设备所呈现的视频界面;
图10d示出了两人视频聊天时本端设备所呈现的又一视频界面;
图11为本申请基于显示设备的视频通讯数据处理方法的一个实施例流程图;
图12为本申请根据一示例性实施例示出的参与视频通讯的显示设备间的交互示意图。
为使本申请示例性实施例的目的、技术方案和优点更加清楚,下面将结合本申请示例性实施例中的附图,对本申请示例性实施例中的技术方案进行清楚、完整地描述,显然,所描述的示例性实施例仅是本申请一部分实施例,而不是全部的实施例。
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
本申请提供的显示设备,可以是具有多个芯片架构的显示设备,如本申请图3 至图5示出的具有双芯片(双硬件系统)架构的显示设备,也可以是具有非双芯片架构的显示设备,本申请不予限定。
为便于用户使用,显示设备上通常会设置各种外部装置接口,以便于连接不同的外设设备或线缆以实现相应的功能。而在显示设备的接口上连接有高清晰度的摄像头时,如果显示设备的硬件系统没有接收源码的高像素摄像头的硬件接口,那么就会导致无法将摄像头接收到的数据呈现到显示设备的显示屏上。
下面首先结合附图对本申请所涉及的概念进行说明。在此需要指出的是,以下对各个概念的说明,仅为了使本申请的内容更加容易理解,并不表示对本申请保护范围的限定。
本申请各实施例中使用的术语“模块”,可以是指任何已知或后来开发的硬件、软件、固件、人工智能、模糊逻辑或硬件或/和软件代码的组合,能够执行与该元件相关的功能。
本申请各实施例中使用的术语“遥控器”,是指电子设备(如本申请中公开的显示设备)的一个组件,该组件通常可在较短的距离范围内无线控制电子设备。该组件一般可以使用红外线和/或射频(RF)信号和/或蓝牙与电子设备连接,也可以包括WiFi、无线USB、蓝牙、动作传感器等功能模块。例如:手持式触摸遥控器,是以触摸屏中用户界面取代一般遥控装置中的大部分物理内置硬键。
本申请各实施例中使用的术语“手势”,是指用户通过一种手型的变化或手部运动等动作,用于表达预期想法、动作、目的/或结果的用户行为。
本申请各实施例中使用的术语“硬件系统”,可以是指由集成电路(Integrated Circuit,IC)、印刷电路板(Printed circuit board,PCB)等机械、光、电、磁器件构成的具有计算、控制、存储、输入和输出功能的实体部件。在本申请各个实施例 中,硬件系统通常也会被称为主板(motherboard)或芯片。
图1中示例性示出了根据实施例中显示设备与控制装置之间操作场景的示意图。如图1所示,用户可通过控制装置100来操作显示设备200。
其中,控制装置100可以是遥控器100A,其可与显示设备200之间通过红外协议通信、蓝牙协议通信、紫蜂(ZigBee)协议通信或其他短距离通信方式进行通信,用于通过无线或其他有线方式来控制显示设备200。用户可以通过遥控器上按键、语音输入、控制面板输入等输入用户指令,来控制显示设备200。如:用户可以通过遥控器上音量加减键、频道控制键、上/下/左/右的移动按键、语音输入按键、菜单键、开关机按键等输入相应控制指令,来实现控制显示设备200的功能。
控制装置100也可以是智能设备,如移动终端100B、平板电脑、计算机、笔记本电脑等,其可以通过本地网(LAN,Local Area Network)、广域网(WAN,Wide Area Network)、无线局域网((WLAN,Wireless Local Area Network)或其他网络与显示设备200之间通信,并通过与显示设备200相应的应用程序实现对显示设备200的控制。例如,使用在智能设备上运行的应用程序控制显示设备200。该应用程序可以在与智能设备关联的屏幕上通过直观的用户界面(UI,User Interface)为用户提供各种控制。
“用户界面”,是应用程序或操作系统与用户之间进行交互和信息交换的介质接口,它实现信息的内部形式与用户可以接受形式之间的转换。用户界面常用的表现形式是图形用户界面(graphicuserinterface,GUI),是指采用图形方式显示的与计算机操作相关的用户界面。它可以是在电子设备的显示屏中显示的一个图标、窗口、控件等界面元素,其中控件可以包括图标、按钮、菜单、选项卡、文本框、对话框、状态栏、导航栏、Widget等可视的界面元素。
示例的,移动终端100B与显示设备200均可安装软件应用,从而可通过网络通信协议实现二者之间的连接通信,进而实现一对一控制操作的和数据通信的目的。如:可以使移动终端100B与显示设备200建立控制指令协议,将遥控控制键盘同步到移动终端100B上,通过控制移动终端100B上用户界面,实现控制显示设备200的功能;也可以将移动终端100B上显示的音视频内容传输到显示设备200上,实现同步显示功能。
如图1所示,显示设备200还可与服务器300通过多种通信方式进行数据通信。在本申请各个实施例中,可允许显示设备200通过局域网、无线局域网或其他网络与服务器300进行通信连接。服务器300可以向显示设备200提供各种内容和互动。
示例的,显示设备200通过发送和接收信息,以及电子节目指南(EPG,Electronic Program Guide)互动,接收软件程序更新,或访问远程储存的数字媒体库。服务器300可以是一组,也可以是多组,可以是一类或多类服务器。通过服务器300提供视频点播和广告服务等其他网络服务内容。
显示设备200,可以是液晶显示器、OLED(Organic Light Emitting Diode)显示器、投影显示设备、智能电视。具体显示设备类型,尺寸大小和分辨率等不作限定,本领技术人员可以理解的是,显示设备200可以根据需要做性能和配置上的一些改变。
显示设备200除了提供广播接收电视功能之外,还可以附加提供计算机支持功能的智能网络电视功能。示例的包括,网络电视、智能电视、互联网协议电视(IPTV)等。
如图1所述,显示设备上可以连接或设置有摄像头,用于将摄像头拍摄到的画 面呈现在本显示设备或其他显示设备的显示界面上,以实现用户之间的交互聊天。具体的,摄像头拍摄到的画面可在显示设备上全屏显示、半屏显示、或者显示任意可选区域。
作为一种可选的连接方式,摄像头通过连接板与显示器后壳连接,固定安装在显示器后壳的上侧中部,作为可安装的方式,可以固定安装在显示器后壳的任意位置,能保证其图像采集区域不被后壳遮挡即可,例如,图像采集区域与显示设备的显示朝向相同。
作为另一种可选的连接方式,摄像头通过连接板或者其他可想到的连接器可升降的与显示后壳连接,连接器上安装有升降马达,当用户要使用摄像头或者有应用程序要使用摄像头时,再升出显示器之上,当不需要使用摄像头时,其可内嵌到后壳之后,以达到保护摄像头免受损坏。
作为一种实施例,本申请所采用的摄像头可以为1600万像素,以达到超高清显示目的。在实际使用中,也可采用比1600万像素更高或更低的摄像头。
当显示设备上安装有摄像头以后,显示设备不同应用场景所显示的内容可得到多种不同方式的融合,从而达到传统显示设备无法实现的功能。
示例性的,用户可以在边观看视频节目的同时,与至少一位其他用户进行视频聊天。视频节目的呈现可作为背景画面,视频聊天的窗口显示在背景画面之上。形象的,可以称该功能为“边看边聊”。
可选的,在“边看边聊”的场景中,在观看直播视频或网络视频的同时,跨终端的进行至少一路的视频聊天。
另一些实施例中,用户可以在边进入教育应用学习的同时,与至少一位其他用户进行视频聊天。例如,学生在学习教育应用程序中内容的同时,可实现与老师的 远程互动。形象的,可以称该功能为“边学边聊”。
另一些实施例中,用户在玩纸牌游戏时,与进入游戏的玩家进行视频聊天。例如,玩家在进入游戏应用参与游戏时,可实现与其他玩家的远程互动。形象的,可以称该功能为“边看边玩”。
可选的,游戏场景与视频画面进行融合,将视频画面中人像进行抠图,显示在游戏画面中,提升用户体验。
可选的,在体感类游戏中(如打球类、拳击类、跑步类、跳舞类等),通过摄像头获取人体姿势和动作,肢体检测和追踪、人体骨骼关键点数据的检测,再与游戏中动画进行融合,实现如体育、舞蹈等场景的游戏。
另一些实施例中,用户可以在K歌应用中,与至少一位其他用户进行视频和语音的交互。形象的,可以称该功能为“边看边唱”。优选的,当至少一位用户在聊天场景进入该应用时,可多个用户共同完成一首歌的录制。
另一些实施例中,用户可在本地打开摄像头获取图片和视频,形象的,可以称该功能为“照镜子”。
在另一些示例中,还可以再增加更多功能或减少上述功能。本申请对该显示设备的功能不作具体限定。
图2中示例性示出了根据示例性实施例中控制装置100的配置框图。如图2所示,控制装置100包括控制器110、通信器130、用户输入/输出接口140、存储器190、供电模块180。
控制装置100被配置为可控制所述显示设备200,以及可接收用户的输入操作指令,且将操作指令转换为显示设备200可识别和响应的指令,起到用户与显示设备200之间交互中介作用。如:用户通过操作控制装置100上频道加减键,显示设 备200响应频道加减的操作。
在一些实施例中,控制装置100可是一种智能设备。如:控制装置100可根据用户需求安装控制显示设备200的各种应用。
在一些实施例中,如图1所示,移动终端100B或其他智能电子设备,可在安装操控显示设备200的应用之后,起到控制装置100类似功能。如:用户可以通过安装应用,在移动终端100B或其他智能电子设备上可提供的图形用户界面的各种功能键或虚拟按钮,以实现控制装置100实体按键的功能。
控制器110包括处理器112、RAM113和ROM114、通信接口以及通信总线。控制器110用于控制控制装置100的运行和操作,以及内部各部件之间通信协作以及外部和内部的数据处理功能。
通信器130在控制器110的控制下,实现与显示设备200之间控制信号和数据信号的通信。如:将接收到的用户输入信号发送至显示设备200上。通信器130可包括WIFI模块131、蓝牙模块132、NFC模块133等通信模块中至少一种。
用户输入/输出接口140,其中,输入接口包括麦克风141、触摸板142、传感器143、按键144等输入接口中至少一者。如:用户可以通过语音、触摸、手势、按压等动作实现用户指令输入功能,输入接口通过将接收的模拟信号转换为数字信号,以及数字信号转换为相应指令信号,发送至显示设备200。
输出接口包括将接收的用户指令发送至显示设备200的接口。在一些实施例中,可以是红外接口,也可以是射频接口。如:红外信号接口时,需要将用户输入指令按照红外控制协议转化为红外控制信号,经红外发送模块进行发送至显示设备200。再如:射频信号接口时,需将用户输入指令转化为数字信号,然后按照射频控制信号调制协议进行调制后,由射频发送端子发送至显示设备200。
在一些实施例中,控制装置100包括通信器130和输出接口中至少一者。控制装置100中配置通信器130,如:WIFI、蓝牙、NFC等模块,可将用户输入指令通过WIFI协议、或蓝牙协议、或NFC协议编码,发送至显示设备200。
存储器190,用于在控制器110的控制下存储驱动和控制控制装置100的各种运行程序、数据和应用。存储器190,可以存储用户输入的各类控制信号指令。
供电模块180,用于在控制器110的控制下为控制装置100各元件提供运行电力支持。可以电池及相关控制电路。
在一些实施例中,如图3-图5中所示,给出了采用双芯片的显示设备200中硬件系统的硬件配置框图。
在采用双硬件系统架构时,硬件系统的机构关系可以图3所示。为便于表述以下将双硬件系统架构中的一个硬件系统称为第一硬件系统或A系统、A芯片,并将另一个硬件系统称为第二硬件系统或N系统、N芯片。A芯片包含A芯片的控制器及各类接口,N芯片则包含N芯片的控制器及各类接口。A芯片及N芯片中可以各自安装有独立的操作系统,从而使显示设备200中存在两个在独立但又存在相互关联的子系统。
在一些实施例中,A芯片也可被称为第一芯片,第一控制器,N芯片也可以被称为第二芯片,第二控制器。
如图3所示,A芯片与N芯片之间可以通过多个不同类型的接口实现连接、通信及供电。A芯片与N芯片之间接口的接口类型可以包括通用输入输出接口(General-purpose input/output,GPIO)、USB接口、HDMI接口、UART接口等。A芯片与N芯片之间可以使用这些接口中的一个或多个进行通信或电力传输。例如图3所示,在双硬件系统架构下,可以由外接的电源(power)为N芯片供电,而 A芯片则可以不由外接电源,而由N芯片供电。
除用于与N芯片进行连接的接口之外,A芯片还可以包含用于连接其他设备或组件的接口,例如图3中所示的用于连接摄像头(Camera)的MIPI接口,蓝牙接口等。
类似的,除用于与N芯片进行连接的接口之外,N芯片还可以包含用于连接显示屏TCON(Timer Control Register)的VBY接口,用于连接功率放大器(Amplifier,AMP)及扬声器(Speaker)的i2S接口;以及IR/Key接口,USB接口,Wifi接口,蓝牙接口,HDMI接口,Tuner接口等。
下面结合图4对双芯片架构进行进一步的说明。需要说明的是图4仅仅是对本申请双硬件系统架构的一些示例性性说明,并不表示对本申请的限定。在实际应用中,两个硬件系统均可根据需要包含更多或更少的硬件或接口。
图4中示例性示出了根据图3显示设备200的硬件架构框图。如图4所示,显示设备200的硬件系统可以包括A芯片和N芯片,以及通过各类接口与A芯片或N芯片相连接的模块。
N芯片可以包括调谐解调器220、通信器230、外部装置接口250、控制器210、存储器290、用户输入接口、视频处理器260-1、音频处理器260-2、显示器280、音频输出接口270、供电模块。在其他实施例中N芯片也可以包括更多或更少的模块。
其中,调谐解调器220,用于对通过有线或无线方式接收广播电视信号,进行放大、混频和谐振等调制解调处理,从而从多个无线或有线广播电视信号中解调出用户所选择电视频道的频率中所携带的音视频信号,以及附加信息(例如EPG数据信号)。根据电视信号广播制式不同,调谐解调器220的信号途径可以有很多种, 诸如:地面广播、有线广播、卫星广播或互联网广播等;以及根据调制类型不同,所述信号的调整方式可以数字调制方式,也可以模拟调制方式;以及根据接收电视信号种类不同,调谐解调器220可以解调模拟信号和/或数字信号。
调谐解调器220,还用于根据用户选择,以及由控制器210控制,响应用户选择的电视频道频率以及该频率所携带的电视信号。
在其他一些示例性实施例中,调谐解调器220也可在外置设备中,如外置机顶盒等。这样,机顶盒通过调制解调后输出电视音视频信号,经过外部装置接口250输入至显示设备200中。
通信器230是用于根据各种通信协议类型与外部设备或外部服务器进行通信的组件。例如:通信器230可以包括WIFI模块231,蓝牙通信协议模块232,有线以太网通信协议模块233,及红外通信协议模块等其他网络通信协议模块或近场通信协议模块。
显示设备200可以通过通信器230与外部控制设备或内容提供设备之间建立控制信号和数据信号的连接。例如,通信器可根据控制器的控制接收遥控器100A的控制信号。
外部装置接口250,是提供N芯片控制器210和A芯片及外部其他设备间数据传输的组件。外部装置接口可按照有线/无线方式与诸如机顶盒、游戏装置、笔记本电脑等的外部设备连接,可接收外部设备的诸如视频信号(例如运动图像)、音频信号(例如音乐)、附加信息(例如EPG)等数据。
其中,外部装置接口250可以包括:高清多媒体接口(HDMI)端子251、复合视频消隐同步(CVBS)端子252、模拟或数字分量端子253、通用串行总线(USB)端子254、红绿蓝(RGB)端子(图中未示出)等任一个或多个。本申请不对外部 装置接口的数量和类型进行限制。
控制器210,通过运行存储在存储器290上的各种软件控制程序(如操作系统和/或各种应用程序),来控制显示设备200的工作和响应用户的操作。
如图4所示,控制器210包括只读存储器RAM214、随机存取存储器ROM213、图形处理器216、CPU处理器212、通信接口218、以及通信总线。其中,RAM214和ROM213以及图形处理器216、CPU处理器212、通信接口218通过总线相连接。
ROM213,用于存储各种系统启动的指令。如在收到开机信号时,显示设备200电源开始启动,CPU处理器212运行ROM中系统启动指令,将存储在存储器290的操作系统拷贝至RAM214中,以开始运行启动操作系统。当操作系统启动完成后,CPU处理器212再将存储器290中各种应用程序拷贝至RAM214中,然后,开始运行启动各种应用程序。
图形处理器216,用于产生各种图形对象,如:图标、操作菜单、以及用户输入指令显示图形等。包括运算器,通过接收用户输入各种交互指令进行运算,根据显示属性显示各种对象。以及包括渲染器,产生基于运算器得到的各种对象,进行渲染的结果显示在显示器280上。
CPU处理器212,用于执行存储在存储器290中操作系统和应用程序指令。以及根据接收外部输入的各种交互指令,来执行各种应用程序、数据和内容,以便最终显示和播放各种音视频内容。
在一些示例性实施例中,CPU处理器212,可以包括多个处理器。所述多个处理器中可包括一个主处理器以及多个或一个子处理器。主处理器,用于在预加电模式中执行显示设备200一些操作,和/或在正常模式下显示画面的操作。多个或一 个子处理器,用于执行在待机模式等状态下的一种操作。
通信接口,可包括第一接口218-1到第n接口218-n。这些接口可以是经由网络被连接到外部设备的网络接口。
控制器210可以控制显示设备200的整体操作。例如:响应于接收到用于选择在显示器280上显示UI对象的用户命令,控制器210便可以执行与由用户命令选择的对象有关的操作。
其中,所述对象可以是可选对象中的任何一个,例如超链接或图标。与所选择的对象有关操作,例如:显示连接到超链接页面、文档、图像等操作,或者执行与图标相对应程序的操作。用于选择UI对象用户命令,可以是通过连接到显示设备200的各种输入装置(例如,鼠标、键盘、触摸板等)输入命令或者与由用户说出语音相对应的语音命令。
存储器290,包括存储用于驱动和控制显示设备200的各种软件模块。如:存储器290中存储的各种软件模块,包括:基础模块、检测模块、通信模块、显示控制模块、浏览器模块、和各种服务模块等。
其中,基础模块是用于显示设备200中各个硬件之间信号通信、并向上层模块发送处理和控制信号的底层软件模块。检测模块是用于从各种传感器或用户输入接口中收集各种信息,并进行数模转换以及分析管理的管理模块。
例如:语音识别模块中包括语音解析模块和语音指令数据库模块。显示控制模块是用于控制显示器280进行显示图像内容的模块,可以用于播放多媒体图像内容和UI界面等信息。通信模块,是用于与外部设备之间进行控制和数据通信的模块。浏览器模块,是用于执行浏览服务器之间数据通信的模块。服务模块,是用于提供各种服务以及各类应用程序在内的模块。
同时,存储器290还用于存储接收外部数据和用户数据、各种用户界面中各个项目的图像以及焦点对象的视觉效果图等。
用户输入接口,用于将用户的输入信号发送给控制器210,或者,将从控制器输出的信号传送给用户。示例性的,控制装置(例如移动终端或遥控器)可将用户输入的诸如电源开关信号、频道选择信号、音量调节信号等输入信号发送至用户输入接口,再由用户输入接口转送至控制器;或者,控制装置可接收经控制器处理从用户输入接口输出的音频、视频或数据等输出信号,并且显示接收的输出信号或将接收的输出信号输出为音频或振动形式。
在一些实施例中,用户可在显示器280上显示的图形用户界面(GUI)输入用户命令,则用户输入接口通过图形用户界面(GUI)接收用户输入命令。或者,用户可通过输入特定的声音或手势进行输入用户命令,则用户输入接口通过传感器识别出声音或手势,来接收用户输入命令。
视频处理器260-1,用于接收视频信号,根据输入信号的标准编解码协议,进行解压缩、解码、缩放、降噪、帧率转换、分辨率转换、图像合成等视频数据处理,可得到直接在显示器280上显示或播放的视频信号。
示例的,视频处理器260-1,包括解复用模块、视频解码模块、图像合成模块、帧率转换模块、显示格式化模块等。
其中,解复用模块,用于对输入音视频数据流进行解复用处理,如输入MPEG-2,则解复用模块进行解复用成视频信号和音频信号等。
视频解码模块,用于对解复用后的视频信号进行处理,包括解码和缩放处理等。
图像合成模块,如图像合成器,其用于将图形生成器根据用户输入或自身生成的GUI信号,与缩放处理后视频图像进行叠加混合处理,以生成可供显示的图像信 号。
帧率转换模块,用于对输入视频的帧率进行转换,如将输入的24Hz、25Hz、30Hz、60Hz视频的帧率转换为60Hz、120Hz或240Hz的帧率,其中,输入帧率可以与源视频流有关,输出帧率可以与显示器的更新率有关。输入有通常的格式采用如插帧方式实现。
显示格式化模块,用于将帧率转换模块输出的信号,改变为符合诸如显示器显示格式的信号,如将帧率转换模块输出的信号进行格式转换以输出RGB数据信号。
显示器280,用于接收源自视频处理器260-1输入的图像信号,进行显示视频内容和图像以及菜单操控界面。显示器280包括用于呈现画面的显示器组件以及驱动图像显示的驱动组件。显示视频内容,可以来自调谐解调器220接收的广播信号中的视频,也可以来自通信器或外部设备接口输入的视频内容。显示器220,同时显示显示设备200中产生且用于控制显示设备200的用户操控界面UI。
以及,根据显示器280类型不同,还包括用于驱动显示的驱动组件。或者,倘若显示器280为一种投影显示器,还可以包括一种投影装置和投影屏幕。
音频处理器260-2,用于接收音频信号,根据输入信号的标准编解码协议,进行解压缩和解码,以及降噪、数模转换、和放大处理等音频数据处理,得到可以在扬声器272中播放的音频信号。
音频输出接口270,用于在控制器210的控制下接收音频处理器260-2输出的音频信号,音频输出接口可包括扬声器272,或输出至外接设备的发生装置的外接音响输出端子274,如:外接音响端子或耳机输出端子等。
在其他一些示例性实施例中,视频处理器260-1可以包括一个或多个芯片组成。音频处理器260-2,也可以包括一个或多个芯片组成。
以及,在其他一些示例性实施例中,视频处理器260-1和音频处理器260-2,可以为单独的芯片,也可以与控制器210一起集成在一个或多个芯片中。
供电模块,用于在控制器210控制下,将外部电源输入的电力为显示设备200提供电源供电支持。供电模块可以包括安装显示设备200内部的内置电源电路,也可以是安装在显示设备200外部的电源,如在显示设备200中提供外接电源的电源接口。
与N芯片相类似,如图4所示,A芯片可以包括控制器310、通信器330、检测器340、存储器390。在某些实施例中还可以包括用户输入接口、视频处理器、音频处理器、显示器、音频输出接口。在某些实施例中,也可以存在独立为A芯片供电的供电模块。
通信器330是用于根据各种通信协议类型与外部设备或外部服务器进行通信的组件。例如:通信器330可以包括WIFI模块331,蓝牙通信协议模块332,有线以太网通信协议模块333,及红外通信协议模块等其他网络通信协议模块或近场通信协议模块。
A芯片的通信器330和N芯片的通信器230也有相互交互。例如,N芯片的WiFi模块231用于连接外部网络,与外部服务器等产生网络通信。A芯片的WiFi模块331用于连接至N芯片的WiFi模块231,而不与外界网络等产生直接连接。因此,对于用户而言,一个如上述实施例中的显示设备至对外显示一个WiFi账号。
检测器340,是显示设备A芯片用于采集外部环境或与外部交互的信号的组件。检测器340可以包括光接收器342,用于采集环境光线强度的传感器,可以通过采集环境光来自适应显示参数变化等;还可以包括图像采集器341,如相机、摄像头等,可以用于采集外部环境场景,以及用于采集用户的属性或与用户交互手势,可 以自适应变化显示参数,也可以识别用户手势,以实现与用户之间互动的功能。
外部装置接口350,提供控制器310与N芯片或外部其他设备间数据传输的组件。外部装置接口可按照有线/无线方式与诸如机顶盒、游戏装置、笔记本电脑等的外部设备连接。
控制器310,通过运行存储在存储器390上的各种软件控制程序(如用安装的第三方应用等),以及与N芯片的交互,来控制显示设备200的工作和响应用户的操作。
如图4所示,控制器310包括只读存储器ROM313、随机存取存储器RAM314、图形处理器316、CPU处理器312、通信接口318、以及通信总线。其中,ROM313和RAM314以及图形处理器316、CPU处理器312、通信接口318通过总线相连接。
ROM313,用于存储各种系统启动的指令。CPU处理器312运行ROM中系统启动指令,将存储在存储器390的操作系统拷贝至RAM314中,以开始运行启动操作系统。当操作系统启动完成后,CPU处理器312再将存储器390中各种应用程序拷贝至RAM314中,然后,开始运行启动各种应用程序。
CPU处理器312,用于执行存储在存储器390中操作系统和应用程序指令,和与N芯片进行通信、信号、数据、指令等传输与交互,以及根据接收外部输入的各种交互指令,来执行各种应用程序、数据和内容,以便最终显示和播放各种音视频内容。
通信接口,可包括第一接口318-1到第n接口318-n。这些接口可以是经由网络被连接到外部设备的网络接口,也可以是经由网络被连接到N芯片的网络接口。
控制器310可以控制显示设备200的整体操作。例如:响应于接收到用于选 择在显示器280上显示UI对象的用户命令,控制器210便可以执行与由用户命令选择的对象有关的操作。
图形处理器316,用于产生各种图形对象,如:图标、操作菜单、以及用户输入指令显示图形等。包括运算器,通过接收用户输入各种交互指令进行运算,根据显示属性显示各种对象。以及包括渲染器,产生基于运算器得到的各种对象,进行渲染的结果显示在显示器280上。
A芯片的图形处理器316与N芯片的图形处理器216均能产生各种图形对象。区别性的,若应用1安装于A芯片,应用2安装在N芯片,当用户在应用1的界面,且在应用1内进行用户输入的指令时,由A芯片图形处理器316产生图形对象。当用户在应用2的界面,且在应用2内进行用户输入的指令时,由N芯片的图形处理器216产生图形对象。
图5为本申请根据一些实施例示例性示出的显示设备的功能配置示意图。
如图5所示,A芯片的存储器390和N芯片的存储器290分别用于存储操作系统、应用程序、内容和用户数据等,在A芯片的控制器310和N芯片的控制器210的控制下,驱动显示设备200的系统运行以及响应用户的各种操作。A芯片的存储器390和N芯片的存储器290可以包括易失性和/或非易失性存储器。
对于N芯片,存储器290,具体用于存储驱动显示设备200中控制器210的运行程序,以及存储显示设备200内置各种应用程序,以及用户从外部设备下载的各种应用程序、以及与应用程序相关的各种图形用户界面,以及与图形用户界面相关的各种对象,用户数据信息,以及各种支持应用程序的内部数据。存储器290用于存储操作系统(OS)内核、中间件和应用等系统软件,以及存储输入的视频数据和音频数据、及其他用户数据。
存储器290,具体用于存储视频处理器260-1和音频处理器260-2、显示器280、通信接口230、调谐解调器220、输入/输出接口等驱动程序和相关数据。
在一些实施例中,存储器290可以存储软件和/或程序,用于表示操作系统(OS)的软件程序包括,例如:内核、中间件、应用编程接口(API)和/或应用程序。示例性的,内核可控制或管理系统资源,或其它程序所实施的功能(如所述中间件、API或应用程序),以及内核可以提供接口,以允许中间件和API,或应用访问控制器,以实现控制或管理系统资源。
示例的,存储器290,包括广播接收模块2901、频道控制模块2902、音量控制模块2903、图像控制模块2904、显示控制模块2905、音频控制模块2906、外部指令识别模块2907、通信控制模块2908、电力控制模块2910、操作系统2911、以及其他应用程序2912、界面布局管理模块2913、事件传输系统2914以及浏览器模块等等。控制器210通过运行存储器290中各种软件程序,来执行诸如:广播电视信号接收解调功能、电视频道选择控制功能、音量选择控制功能、图像控制功能、显示控制功能、音频控制功能、外部指令识别功能、通信控制功能、光信号接收功能、电力控制功能、支持各种功能的软件操控平台、以及浏览器功能等各类功能。存储器390,包括存储用于驱动和控制显示设备200的各种软件模块。如:存储器390中存储的各种软件模块,包括:基础模块、检测模块、通信模块、显示控制模块、浏览器模块、和各种服务模块等。由于存储器390与存储器290的功能比较相似,相关之处参见存储器290即可,在此就不再赘述。
示例的,存储器390,包括图像控制模块3904、音频控制模块2906、外部指令识别模块3907、通信控制模块3908、光接收模块3909、操作系统3911、以及其他应用程序3912、浏览器模块等等。控制器210通过运行存储器290中各种软 件程序,来执行诸如:图像控制功能、显示控制功能、音频控制功能、外部指令识别功能、通信控制功能、光信号接收功能、电力控制功能、支持各种功能的软件操控平台、以及浏览器功能等各类功能。区别性的,N芯片的外部指令识别模块2907和A芯片的外部指令识别模块3907可识别不同的指令。
示例性的,由于摄像头等图像接收设备与A芯片连接,因此,A芯片的外部指令识别模块3907可包括图形识别模块3907-1,图形识别模块3907-1内存储有图形数据库,摄像头接收到外界的图形指令时,与图形数据库中的指令进行对应关系,以对显示设备作出指令控制。而由于语音接收设备以及遥控器与N芯片连接,因此,N芯片的外部指令识别模块2907可包括语音识别模块2907-2,语音识别模块2907-2内存储有语音数据库,语音接收设备等接收到外界的语音指令或时,与语音数据库中的指令进行对应关系,以对显示设备作出指令控制。同样的,遥控器等控制装置100与N芯片连接,由按键指令识别模块与控制装置100进行指令交互。
在一些实施例中,可以没有第一芯片第二芯片之分,显示设备具有的控制器在软件层面为一个操作系统,内置的应用可与上述双芯片架构显示设备中的应用相同。同样设置上述所有接口。
图6a中示例性示出了一些实施例中显示设备200中软件系统的配置框图。
对N芯片,如图6a中所示,操作系统2911,包括用于处理各种基础系统服务和用于实施硬件相关任务的执行操作软件,充当应用程序和硬件组件之间完成数据处理的媒介。
一些实施例中,部分操作系统内核可以包含一系列软件,用以管理显示设备硬件资源,并为其他程序或软件代码提供服务。
其他一些实施例中,部分操作系统内核可包含一个或多个设备驱动器,设备驱 动器可以是操作系统中的一组软件代码,帮助操作或控制显示设备关联的设备或硬件。驱动器可以包含操作视频、音频和/或其他多媒体组件的代码。示例的,包括显示器、摄像头、Flash、WiFi和音频驱动器。
如图6a所示,在一些实施例中,操作系统2911具体可以包括:可访问性模块2911-1、通信模块2911-2、用户界面模块2911-3和控制应用程序2911-4。
在一些实施例中,操作系统2911还可以包括:摄像头调度模块2911-5、摄像头驱动模块2911-6和摄像头开关模块2911-7。
其中,可访问性模块2911-1,用于修改或访问应用程序,以实现应用程序的可访问性和对其显示内容的可操作性。
通信模块2911-2,用于经由相关通信接口和通信网络与其他外设的连接。
用户界面模块2911-3,用于提供显示用户界面的对象,以供各应用程序访问,可实现用户可操作性。
控制应用程序2911-4,用于控制进程管理、切换前台应用,包括运行时间应用程序等。
摄像头调度模块2911-5,用于控制摄像头开启或者关闭,以及升起或者降落。
和摄像头驱动模块2911-6,用于在摄像头调度模块2911-5的控制下,驱动与摄像头机械连接的马达以使摄像头升起或者降落;
摄像头开关模块2911-7,用于在摄像头调度模块2911-5的控制下,开启摄像头,即使其进入开启状态,或者关闭摄像头,即使其进入关闭状态。
如图6a所示,在一些实施例中,事件传输系统2914,可在操作系统2911内或应用程序2912中实现。一些实施例中,一方面在在操作系统2911内实现,同时在应用程序2912中实现,用于监听各种用户输入事件,将根据各种事件指代响应 各类事件或子事件的识别结果,而实施一组或多组预定义的操作的处理程序。
具体的,事件传输系统2914可以包括事件监听模块2914-1和事件识别模块2914-2。其中,事件监听模块2914-1,用于监听用户输入接口输入事件或子事件。
事件识别模块2914-2,用于对各种用户输入接口输入各类事件的定义,识别出各种事件或子事件,且将其传输给处理用以执行其相应一组或多组的处理程序。
需要说明的是,事件或子事件,是指显示设备200中一个或多个传感器检测的输入,以及外界控制设备(如控制装置100等)的输入。如:语音输入各种子事件,手势识别的手势输入子事件,以及控制装置的遥控按键指令输入的子事件等。示例的,遥控器中一个或多个子事件包括多种形式,包括但不限于按键按上/下/左右/、确定键、按键按住等中一个或组合。以及非实体按键的操作,如移动、按住、释放等操作。
界面布局管理模块2913,直接或间接接收来自于事件传输系统2914监听到各用户输入事件或子事件,用于更新用户界面的布局,包括但不限于界面中各控件或子控件的位置,以及容器的大小或位置、层级等与界面布局相关各种执行操作。
由于A芯片的操作系统3911与N芯片的操作系统2911的功能比较相似,相关之处参见操作系统2911即可,在此就不再赘述。
如图6b中所示,显示设备的应用程序层包含可在显示设备200执行的各种应用程序。
N芯片的应用程序层2912可包含但不限于一个或多个应用程序,如:视频点播应用程序、应用程序中心、游戏应用等。A芯片的应用程序层3912可包含但不限于一个或多个应用程序,如:直播电视应用程序、媒体中心应用程序等。需要说明的是,A芯片和N芯片上分别包含什么应用程序是根据操作系统和其他设计确定 的,本发明无需对A芯片和N芯片上所包含的应用程序做具体的限定和划分。
直播电视应用程序,可以通过不同的信号源提供直播电视。例如,直播电视应用程可以使用来自有线电视、无线广播、卫星服务或其他类型的直播电视服务的输入提供电视信号。以及,直播电视应用程序可在显示设备200上显示直播电视信号的视频。
视频点播应用程序,可以提供来自不同存储源的视频。不同于直播电视应用程序,视频点播提供来自某些存储源的视频显示。例如,视频点播可以来自云存储的服务器端、来自包含已存视频节目的本地硬盘储存器。
媒体中心应用程序,可以提供各种多媒体内容播放的应用程序。例如,媒体中心,可以为不同于直播电视或视频点播,用户可通过媒体中心应用程序访问各种图像或音频所提供服务。
应用程序中心,可以提供储存各种应用程序。应用程序可以是一种游戏、应用程序,或某些和计算机系统或其他设备相关但可以在显示设备中运行的其他应用程序。应用程序中心可从不同来源获得这些应用程序,将它们储存在本地储存器中,然后在显示设备200上可运行。
在一些实施例中,由于A芯片及N芯片中可能分别安装有独立的操作系统,从而使显示设备200中存在两个在独立但又存在相互关联的子系统。例如,A芯片和N均可以独立安装有安卓(Android)及各类APP,使得每个芯片均可以实现一定的功能,并且使A芯片和N芯片协同实现某项功能。
图7中示例性示出了根据示例性实施例中显示设备200中用户界面的示意图。如图7所示,用户界面包括多个视图显示区,示例的,第一视图显示区201和播放画面202,其中,播放画面包括布局一个或多个不同项目。以及用户界面中还包括 指示项目被选择的选择器,可通过用户输入而移动选择器的位置,以改变选择不同的项目。
需要说明的是,多个视图显示区可以呈现不同层级的显示画面。如,第一视图显示区可呈现视频聊天项目内容,第二视图显示区可呈现应用层项目内容(如,网页视频、VOD展示、应用程序画面等)。
可选的,不同视图显示区的呈现存在优先级区别,优先级不同的视图显示区之间,视图显示区的显示优先级不同。如,系统层的优先级高于应用层的优先级,当用户在应用层使用获取选择器和画面切换时,不遮挡系统层的视图显示区的画面展示;以及,根据用户的选择使应用层的视图显示区的大小和位置发生变化时,系统层的视图显示区的大小和位置不受影响。
也可以呈现相同层级的显示画面,此时,选择器可以在第一视图显示区和第二视图显示区之间做切换,以及当第一视图显示区的大小和位置发生变化时,第二视图显示区的大小和位置可随及发生改变。
在一些实施例中,图7中的任意一个区域可以显示摄像头获取的画面。
“项目”是指在显示设备200中用户界面的各视图显示区中显示以表示,诸如图标、缩略图、视频剪辑等对应内容的视觉对象。例如:项目可以表示电影、电视剧的图像内容或视频剪辑、音乐的音频内容、应用程序,或其他用户访问内容历史信息。
一些实施例中,“项目”可显示图像缩略图。如:当项目为电影或电视剧时,项目可显示为电影或电视剧的海报。如项目为音乐时,可显示音乐专辑的海报。如项目为应用程序时,可显示为应用程序的图标,或当应用程序被执行最近执行时捕捉到应用程序的内容截图。如项目为用户访问历史时,可显示为最近执行过程中内 容截图。“项目”可显示为视频剪辑。如:项目为电视或电视剧的预告片的视频剪辑动态画面。
此外,项目可以表示显示设备200与外接设备连接的接口或接口集合显示,或可表示连接至显示设备的外部设备名称等。如:信号源输入接口集合、或HDMI接口、USB接口、PC端子接口等。各个项目可具有相同尺寸,也可以具有不相同的尺寸。在一些实施示例中,项目的尺寸可以被改变。
“选择器”用于指示其中任意项目已被选择,如:光标或焦点对象。根据用户通过控制装置100上输入,控制在显示设备200上光标移动来选择或控制项目。可根据用户通过控制装置100的输入,可使显示设备200中显示焦点对象的移动来选择控制项目,可选择或控制其中一个或多个项目。如:用户可通过控制装置100上方向键控制焦点对象在项目之间的移动来选择和控制项目。
图8a为本申请根据一示例性实施例示出的用户通过控制装置100A与显示设备进行交互的一种场景。如图8a所示,显示设备呈现应用中心的操作界面,应用中心包括多个应用程序,其中至少一个应用为社交应用,如QQ、微信、SNS等等。在图8a所示场景中,用户选择启动一个社交应用。
图8b为本申请根据一示例性实施例示出的用户通过控制装置100A与显示设备进行交互的另一种场景。如图8b所示,显示设备呈现用户在图8a所示场景中所选择的社交应用对应的操作界面,在该操作界面中,用户可以在通讯录中选择一个或多个好友的账户,发起视频聊天。
当用户选定一个好友的账户,发起视频聊天时,社交应用将生成与该一个或多个好友进行视频通讯的指令,显示设备的通信模块则响应该指令向登陆相应账号的 一个或多个对端设备发送视频通讯请求。与此同时,显示设备的图像采集器则响应该指令,采集本端用户所在场景的图像数据,另外,显示设备的视频处理器将对采集的图像数据进行编码,并通过通信模块发送给对端设备。当本端设备与对端设备的通信链路连接成功时,对端设备将接收到本端设备发送的视频数据流。对端设备将视频数据流解码,得到相应的图像,并呈现在其显示屏幕上。与此同时,本端设备也将接收到对端设备发送的视频数据流,经解码处理后,呈现在显示屏幕上。
图9a为本申请技术方案的一种应用场景示意图。如图9a所示,本端显示设备200-1与一个对端显示设备200-2通过建立通信连接进行视频通话。在该场景中,本端显示设备屏幕上呈现一个视频窗口,用于呈现一路视频画面(即对端视频画面),此外还呈现一个本端视频画面预览窗口。
在一些实施例中,上述用于呈现对端视频画面的视频窗口被称为对端显示窗口,用于呈现本端视频画面的预览窗口被称为本地预览窗口。
图9b为本申请技术方案的另一种应用场景示意图。如图9b所示,本端显示设备200-1与5个对端显示设备200-2、200-3、200-4、200-5和200-6通过建立通信连接进行视频通话。在该场景中,本端显示设备屏幕上呈现5个视频窗口,用于呈现5路视频画面,此外还呈现一个本端视频画面预览窗口。
基于以上应用场景,由于显示设备在房间中的位置比较固定,用户舒适的观看距离较远,因此当两人或多人视频聊天时,对端设备采集的全局图像中,对端用户尤其是对端用户的面部只占整幅图像的一小部分,从而使本端设备呈现给本端用户的对端用户及其面部很小,加之本端用户与显示设备较远的观看距离,导致本端用户实际观看到的对端用户及其面部更小。若为多人聊天,多个视频窗口在本端屏幕上的同时呈现,导致每一视频窗口中的目标都被进一步缩小,严重影响用户的视频 聊天体验。另外,当对端用户移动到更远的位置时,上述问题则将更加严重。
示例性地,图10a示出了两人视频聊天时,本端设备所呈现的视频界面,该视频界面中包括对端用户及其所在场景。
示例性地,图10b示出了两人视频聊天时,本端设备所呈现的另一视频界面,该视频界面中包括对端用户及其所在场景。
通过对比图10a和图10b可知,由于对端用户移动到了距离对端图像采集器更远的位置,因此图10b中呈现的人物尤其是人物面部的区域面积很小。
示例性地,图10c示出了四人视频聊天时,本端设备所呈现的视频界面,视频界面,该视频界面中包括分别对应三个对端用户的窗口分别为101,102和103,和一用于预览本端画面的预览视104。可见,与10a相比,由于多个视频窗口在本端屏幕上的同时呈现,导致每一视频窗口中的目标都被进一步缩小,严重影响用户的视频聊天体验。
为了解决上述问题,在一些实施例中,显示设备的控制器,响应于与至少一个对端设备进行视频通讯的指令,通过图像采集器(如摄像头)采集本端的全局图像;在用户界面中呈现本地预览窗口,根据全局图像在本地预览窗口中显示本端视频画面,其中,在全局图像中存在运动目标时,本端视频画面为运动目标的目标稳定区域对应的局部图像;响应于与对端设备之间视频通讯连接的建立,根据本地预览窗口中显示的本端视频画面生成本端视频数据,并发送给对端设备。
在对端设备侧,对端设备的控制器,响应于与其上述显示设备之间视频通讯连接的建立,接收显示设备发送的视频数据;在用户界面中呈现对端显示窗口;根据显示设备发送的视频数据在对端显示窗口中显示对端视频画面,其中,在对端视频画面中存在运动目标时,对端视频画面为所述运动目标的目标稳定区域对应的画面。
在该示例中,显示设备根据包含运动目标的目标稳定区域对全局图像进行处理得到局部图像,并使用局部图像与对端设备进行视频通讯,因此能够在视频通讯过程中到达到实时追踪运动目标并主要呈现目标稳定区域的效果,从而即使本端用户距离显示设备的图像采集器较远,或者,本端屏幕上的视频窗口较小,也能清晰地呈现出运动目标,即用户面部,进而提升用户的视频通讯体验。
在一些实施例中,在用户使用“照镜子”功能时,用户通过操作控制装置启动图像采集器,图像采集器启动后开始采集本端的全局图像;显示设备控制器响应于图像采集器的启动,获取图像采集器采集的本端的全局图像,在用户界面中呈现本地预览窗口,根据本端的全局图像在本地预览窗口中显示本端视频画面,其中,在全局图像中存在运动目标时,本端视频画面为运动目标的目标稳定区域对应的局部图像。
在用户使用“照镜子”功能的场景中,显示设备根据包含运动目标的目标稳定区域对全局图像进行处理得到局部图像,在本地预览窗口中呈现局部图像,这样,在用户使用“照镜子”功能时,也可以达到实时追踪运动目标并主要呈现目标稳定区域的效果,从而即使本端用户距离显示设备的图像采集器较远,或者,本端屏幕上的视频窗口较小,也能清晰地呈现出运动目标,即用户面部,进而提升用户的“照镜子”体验。
需要说明的是,与前述视频通讯的实施情形相比,在前述关于“照镜子”功能的实施情形中,显示设备根据全局图像得到的局部图像仅用于在本地进行展示,而无需将其用于发送给对端设备。对于任意实施情形中,显示设备根据全局图像得到的局部图像的具体实现过程可以参考下述方法实施例。
以下结合本申请提供的视频通讯数据处理方法,对上述示例的具体实现过程,尤其是显示设备根据全局图像得到局部图像的过程,予以详细说明。图11为本申请视频通讯数据处理方法的一个实施例流程图,该方法应用于显示设备,或者说,方法的执行主体为显示设备的控制器,例如图4示出的第一控制器或者第二控制器,但不限于此。如图11所示,该方法可以包括:
步骤111,显示设备响应与至少一个对端设备进行视频通讯的指令,通过图像采集器采集运动目标所在场景的全局图像。
在一种可能的场景中,本端用户在一具有视频通讯功能的应用程序上操作,从通讯录中选择一个或多个好友发起视频通讯,应用程序将响应用户操作,生成一个指令,该指令指示本端设备向本端用户所选择的好友账户对应的对端设备发送视频通讯请求,以与对端设备进行视频通讯。
在另一种可能的场景中,首先由对端用户在一具有视频通讯功能的应用程序上操作,从通讯录中选择至少包括本端用户的一个或多个好友发起视频通讯,对端应用程序将响应用户操作,生成一个指令,该指令指示对端设备向至少包括本端显示设备的一个或多个对端设备发送视频通讯请求,本端用户在本端应用程序上操作,接收该请求,本端应用程序响应用户操作生成另一指令,该指令指示本端显示设备接收对端设备发送的视频请求,以与对端设备进行视频通讯。
本实施例中,本端显示设备具有图像采集器,如图1中示出的摄像头。另外,对端设备也具有图像采集功能,例如,如果对端设备是手机等便携式终端设备,则通过此类终端内置的摄像头采集图像,如果对端设备是如智能电视等家用显示设备,则该家用显示设备至少如图4所示的图像采集器341。
由于视频通讯的目的是为进行视频的两端用户分别为提供对端用户及其所在 场景的实时视频画面,因此如果因为出现前述问题导致一端用户无法在视频画面中看清对端用户,则影响用户对视频通讯的体验,甚至失去视频通讯的意义。
由于用户在画面中具有可移动的特性,因此本申请所述的运动目标即可以随时移动的参与视频通讯的用户,在本端,即为本端用户。在更为具体的实现方案中,运动目标为参与视频通讯的用户的面部或头部。
而运动目标所在场景即图像采集器的采集范围对应的场景,全局图像即图像采集器采集的运动目标所在场景的视频图像。
示例性地,图10a示出了图像采集器在第一时刻采集的全局图像,图10b示出了图像采集器在第二时刻采集的全局图像。如果预先将用户的面部设为运动目标,通过对比可知,由于运动目标在其所在场景中发生了位置移动,因此图10a示出的运动目标尺寸较大,图10b示出的运动目标尺寸较小。
步骤112,获取所述全局图像。
参阅图4,在一种可能的实现方式中,在显示设备中,图像采集器与第一芯片连接,由第一芯片获取图像采集器采集的全局图像数据,并由第一芯片或与第一芯片连接的视频处理器执行本申请方法提供的步骤,也就是说,本申请方法实施例所述步骤的执行主体可以是第一芯片或者与第一芯片连接的视频处理器。
在另一种可能的实现方式中,由于第一芯片和第二芯片之间具有多个通信接口或串口,因此由第一芯片获取图像采集器采集的全局图像数据后,第一芯片对数据做部分处理后或者不做处理,再将数据发送给第二芯片,由第二芯片或与第二芯片连接的视频处理器执行本申请方法提供的步骤,也就是说,本申请方法实施例所述步骤的执行主体可以是第二芯片或者与第二芯片连接的视频处理器。
当然,在另外可能的实现方式中,图像采集器可以与第二芯片连接,由第二芯 片获取图像采集器采集的全局图像数据,并由第二芯片或与第二芯片连接视频处理器执行本申请方法实施例提供的步骤。同理,也可将数据发送给第一芯片进行处理,此处不再赘述。
具体实现时,基于Android系统的摄像头数据获取一般有两种方式,一种是为摄像头设置预览的SurfaceTexture,通过回调获得摄像头纹理,另一种是通过摄像头的PreviewCallback回调获取指定格式的buffer数据。而摄像头数据一般是通过GLSurfaceView或者SurfaceView渲染到屏幕上。基于此,在本申请实施例的一种具体实现方式中,使用PreviewCallback回调和SurfaceTexture纹理获取摄像头数据并使用GLSurfaceView渲染进行浏览。在另一种具体实现方式中,使用SurfaceTexture纹理获取摄像头数据并使用GLSurfaceView渲染进行浏览。
步骤113,检测所述全局图像中的运动目标,确定包含所述运动目标的目标稳定区域。
具体应用中,如果预先设定人的面部为运动目标,那么检测全局图像中的运动目标,即是检测全局图像中的面部区域。具体实现时,可以通过调用深度学习的神经网络模型,如卷积神经网络模型对全局图像中的面部区域进行检测。利用训练好的神经网络模型检测图像中的目标区域属于已有技术,且为本领域技术人员所熟知,因此本申请实施例不再赘述。
需要说明的是,一帧全局图像中可能存在一个运动目标,即一个人的面部,也可能存在多个运动目标,即多个人的面部,还可能不存在运动目标,这种情况可以理解为用户不在图像采集器的采集范围内。
目标稳定区域是指全局图像中运动目标所在的一个稳定区域,或者说,在连续N帧全局图像中,运动目标大概率出现在目标稳定区域内。其中,N帧全局图像对 应一个目标稳定区域,N为一预设帧数。
具体的,在步骤113中,首先检测每帧全局图像中的运动目标,定位目标位置。其中,目标位置为所述全局图像中所述运动目标所在区域的中心点位置。例如,在图10a所示的全局图像中,目标位置所在区域为区域A,目标位置为区域A的中心点。其中,用于表征目标位置的定量参数为运动目标所在区域的中心点位置坐标,如(x,y)。
需要说明的是,由于全局图像中的运动目标可能为1个,也可能为多个,因此上述运动目标所在区域应当为全局图像中全部的运动目标所在的区域。其中当存在多个运动目标时,需要遍历每个运动目标,并根据位置最靠上、位置最靠下、位置最靠左以及位置最靠右的运动目标,确定相应的运动目标所在区域,以保证每个运动目标均在确定的区域内。例如,图10d示出了两人视频聊天时本端设备所呈现的一全局图像,在该全局图像中,包括两个人的面部区域,该两个面部区域即为两个运动目标,相应的运动目标所在区域如图中示出的区域B,目标位置也即区域B的中心点。
具体实现时,本申请根据显示设备摄像头的纹理,预先建立全局图像所处的二维坐标系,并以该二维坐标系为参照标准来讨论本申请所述的任何位置或位置关系。另外,由于运动目标所在区域是全局图像的一部分或几部分区域,是无数个点的集合,因此,取运动目标所在区域的中心点位置作为目标位置。另外,由于不同缩放比例下,全局图像、运动目标所在区域以及目标稳定区域的实际尺寸会发生变化,因此本申请所述的中心点坐标的值均是适应于缩放比例的相对值,而非绝对值。
在检测每帧全局图像中的运动目标,定位目标位置之后,统计连续N帧全局图像对应的N个目标位置中每一位置的频数,以频数最大的位置对应的区域为所述N 帧全局图像的目标稳定区域。
具体的,遍历所述N帧全局图像对应的N个目标位置,当遍历到第i个目标位置时,将第i个目标位置分别与第1至第i-1个目标位置进行匹配,i∈(1,N];如果第i个目标位置与第1至第i-1个目标位置中的至少一个匹配,将相匹配两个目标位置的当前频数加1。
例如,如果第i个目标位置与第1个目标位置匹配,则将第i个目标位置和第1个目标位置的当前频数加1,如果第i个目标位置与第1个目标位置和第i-5个目标位置均匹配,则将第i个目标位置的当前频数加2,将第1个和第i-5个目标位置的当前频数分别加1。
需要说明的是,每一目标位置的初始频数为1。或者说,在将第i个目标位置分别与第1至第i-1个目标位置进行匹配之前,第i个目标位置的当前频数为1。
示例性地,当遍历到第i个目标位置时,第1个至第i个目标位置的当前频数可能如下表1所示。
表1
目标位置序号 | 当前频数 |
1 | 1 |
2 | 3 |
… | … |
i-1 | 2 |
i | 3 |
i+1 | 1(初始频数) |
… | … |
作为一种可能的匹配方式,所述将第i个目标位置分别与第1至第i-1个目标位置进行匹配,可以包括:
首先,根据第i个目标位置和预设参考点计算第i个目标位置对应的参考距离。
其中预设参考点可以为全局图像的四个顶点中的任意一个。为了便于计算,使全局图像的一个顶点为坐标原点,进而可以将坐标原点预设为参考点。具体计算时,将目标位置的坐标(运动目标所在区域中心点坐标)与和预设参考点坐标代入到两点距离计算公式中,计算得到该目标位置对应的参考距离。
其次,分别计算第i个目标位置对应的参考距离与第1至第i-1个目标位置对应的参考距离的差值。其中,第1至第i-1个目标位置对应的参考距离为已经计算得到并保存的数据。在本步骤中,将得到分别与第1至第i-1个目标位置对应的i-1个差值数据。
最后,通过判断每个差值是否属于预设范围,判定相应的两个目标位置是否匹配。具体的,如果某一差值属于预设范围,则判定相应的两个目标位置是匹配的,否则非匹配。具体应用中,该预设范围可以设为(-20px,20px),也就是说,如果第i个目标位置对应的参考距离与另一个目标位置对应的参考距离的绝对差值在20个像素点以内,即判定这两个目标位置匹配,也就说明,这两个目标位置相近。
作为另一种可能的实现方式,所述将第i个目标位置分别与第1至第i-1个目标位置进行匹配,可以包括:
首先,分别计算第i个目标位置与第1至第i-1个目标位置之间的真实距离。
具体计算时,将两个目标位置的坐标(运动目标所在区域中心点坐标)代入到两点距离计算公式中,计算得到该两个目标位置之间的真实距离。在本步骤中,将得到分别与第1至第i-1个目标位置对应的i-1个真实距离数据。
然后,通过判断每个真实距离是否属于预设范围,判定相应的两个目标位置是否匹配。具体的,如果某一真实距离属于预设范围,则判定相应的两个目标位置是匹配的,否则非匹配。
在步骤113中,通过检测每帧所述全局图像中的运动目标,定位目标位置,并以连续N帧全局图像为一个统计对象组,统计该连续N帧全局图像对应的N个目标位置中每一位置的频数,以频数最大的位置对应的区域为所述N帧全局图像的目标稳定区域。可见,由于以频数最大的目标位置对应的区域为该N帧全局图像的目标稳定区域,因此通过步骤113提供的方式所确定的目标稳定区域,是对于该N帧全局图像而言,运动目标所在的一个稳定区域,或者说,对于该N帧全局图像而言,运动目标大概率出现在该目标稳定区域内。
需要说明的是,为了保证局部图像的画质和呈现效果,本申请实施例所确定的目标稳定区域的比例优选与全局图像的分辨率比例保持一致。
步骤114,根据所述目标稳定区域对所述全局图像进行处理,得到局部图像。
在步骤114中,以该目标稳定区域所对应的N帧全局图像为一个处理对象组,对该组中N帧全局图像进行批处理。具体的,首先从每帧全局图像中获取所述目标稳定区域对应的局部图像;然后按照预设规则对所述局部图像进行放大处理。
在获取目标稳定区域对应的局部图像的具体实现方式中,根据目标稳定区域的边缘预置一个裁剪框,根据裁剪框对裁剪框以外的图像区域进行裁剪,得到目标稳定区域对应的局部图像。需要说明的是,对于相邻两个处理对象组,即相邻的两组连续N帧全局图像,如第1-N帧和第N+1至第2N帧,如果在后的处理对象组对应的目标稳定区域相比于在前的处理对象组对应的目标稳定区域发生变化,则将裁剪框从变化前的目标稳定区域等步长移动到变化后的目标稳定区域,以将裁剪框以 外的图像区域裁剪掉。
在按照预设规则放大局部图像的具体实现方式中,一种可能的预设放大规则如下:
如果局部图像的宽W
局部小于全局图像的宽度的四分之一1/4W
全局,或者,局部图像的高H
局部小于全局图像的高度的四分之一1/4H
全局,则将局部图像放大到全局图像尺寸的一半,即令W
局部=1/2W
全局,H
局部=1/2H
全局。
如果局部图像的宽W
局部大于全局图像的宽度的四分之一1/4W
全局且小于全局图像的宽度的二分之一1/2W
全局,或者,局部图像的高H
局部大于全局图像的高度的四分之一1/4H
全局且小于全局图像的高度的二分之一1/2H
全局,则将局部图像放大到原来的二倍,即令W
局部=2W
局部,H
局部=2H
局部。
如果局部图像的宽W
局部大于全局图像的宽度的二分之一1/2W
全局,或者,局部图像的高H
局部大于全局图像的高度的二分之一1/2H
全局,则将局部图像放大到全局图像的尺寸,即令W
局部=W
全局,H
局部=H
全局。
另外,本申请还提供另一种可能的预设放大规则,与上述放大规则不同的是:
如果局部图像的宽W
局部大于全局图像的宽度的四分之一1/4W
全局且小于全局图像的宽度的二分之一1/2W
全局,或者,局部图像的高H
局部大于全局图像的高度的四分之一1/4H
全局且小于全局图像的高度的二分之一1/2H
全局,则将局部图像放大到原来的1.5倍,即令W
局部=1.5W
局部,H
局部=1.5H
局部。
步骤115,使用所述局部图像与所述对端设备进行视频通讯。
具体实现时,对局部图像数据进行编码,生成视频数据流,并发送给对端设备。
在另外的实施例中,本申请方法还可以包括
步骤106,在所述显示设备的预览视窗内呈现所述局部图像。例如图10c示出 的预览视窗104。
需要说明的是,无论是本端设备预览所述局部图像的场景,还是局部图像相应的视频数据流在对端经解码后呈现场景中,如果局部图像的尺寸大于屏幕尺寸或者窗口尺寸,则本端设备或对端设备进行相应的自适应处理。
由以上技术方案可知,本申请实施例提供一种视频通讯数据处理方法,所述方法包括:响应与至少一个对端设备进行视频通讯的指令,通过图像采集器采集运动目标所在场景的全局图像,获取采集的全局图像;然后检测所述全局图像中的运动目标,并确定包含所述运动目标的目标稳定区域;再根据所述目标稳定区域对所述全局图像进行处理,得到局部图像;最后使用所述局部图像与所述对端设备进行视频通讯。
由于本申请方法根据包含运动目标的目标稳定区域对全局图像进行处理得到局部图像,并使用局部图像与对端设备进行视频通讯,因此能够在视频通讯过程中到达到实时追踪运动目标并主要呈现目标稳定区域的效果,从而即使本端用户距离显示设备的图像采集器较远,或者,本端屏幕上的视频窗口较小,也能清晰地呈现出运动目标,即用户面部,进而提升用户的视频通讯体验。
根据本申请提供的视频通讯数据处理方法实施例,本申请还提供一种视频通讯方法,图12为本申请根据一示例性实施例示出的参与视频通讯的显示设备间的交互示意图。如图12所示,该方法可以包括:
在步骤121中,第一显示设备执行步骤111-114所述的方法,获得第一局部图像数据;
与此同时,在步骤122中,第一显示设备执行步骤111-114所述的方法,获得第二局部图像数据;
在步骤123中,第一显示设备根据第一局部图像数据生成第一视频数据流,并将第一视频数据流发送给第二显示设备;
与此同时,在步骤124中,第二显示设备根据第二局部图像数据生成第二视频数据流,并将第二视频数据流发送给第一显示设备;
在步骤125中,第一显示设备接收第二视频数据流并解码,得到第二局部图像;
在步骤126中,第一显示设备在显示器上呈现第二局部图像;
与此同时,在步骤127中,第二显示设备接收第一视频数据流并解码,得到第一局部图像;
在步骤128中,第二显示设备在显示器上呈现第一局部图像。
由于本申请方法根据包含运动目标的目标稳定区域对全局图像进行处理得到局部图像,并使用局部图像与对端设备进行视频通讯,因此能够在视频通讯过程中到达到实时追踪运动目标并主要呈现目标稳定区域的效果,从而即使本端用户距离显示设备的图像采集器较远,或者,本端屏幕上的视频窗口较小,也能清晰地呈现出运动目标,即用户面部,进而提升用户的视频通讯体验。
基于本申请中示出的示例性实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。此外,虽然本申请中公开内容按照示范性一个或几个实例来介绍,但应理解,可以就这些公开内容的各个方面也可以单独构成一个完整技术方案。
具体实现中,本发明还提供一种计算机存储介质,其中,该计算机存储介质可存储有程序,该程序执行时可包括本发明提供的方法的各实施例中的部分或全部步骤。所述的存储介质可为磁碟、光盘、只读存储记忆体(英文:read-only memory,简称:ROM)或随机存储记忆体(英文:random access memory,简称:RAM) 等。
本领域的技术人员可以清楚地了解到本发明实施例中的技术可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明实施例中的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
本说明书中各个实施例之间相同相似的部分互相参见即可。尤其,对于装置和设备实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例中的说明即可。
Claims (18)
- 一种显示设备,其特征在于,包括:显示器,用于呈现用户界面;图像采集器,用于采集本端的全局图像;控制器,用于:响应于与至少一个对端设备进行视频通讯的指令,通过所述图像采集器采集本端的全局图像;在所述用户界面中呈现本地预览窗口,根据所述全局图像在所述本地预览窗口中显示本端视频画面,其中,在所述全局图像中存在运动目标时,所述本端视频画面为所述运动目标的目标稳定区域对应的局部图像;响应于与所述对端设备之间视频通讯连接的建立,根据所述本地预览窗口中显示的本端视频画面生成本端视频数据,并发送给所述对端设备。
- 根据权利要求1所述的显示设备,其特征在于,所述控制器还用于:响应于与所述对端设备之间视频通讯连接的建立,接收对端设备发送的对端视频数据;在所述用户界面中呈现本地预览窗口的同时,呈现对端显示窗口;根据所述对端视频数据在所述对端显示窗口中显示对端视频画面。
- 根据权利要求1或2所述的显示设备,其特征在于,所述根据所述全局图像在所述本地预览窗口中显示本端视频画面,包括:检测所述全局图像中的运动目标,确定包含所述运动目标的目标稳定区域;根据所述目标稳定区域对所述全局图像进行处理,得到所述目标稳定区域对应的局部图像;将所述局部图像作为本地视频画面显示在所述本地预览窗口中。
- 根据权利要求3所述的显示设备,其特征在于,所述检测全局图像中的运动目标,确定包含所述运动目标的目标稳定区域,包括:检测每帧所述全局图像中的运动目标,定位目标位置,所述目标位置为所述全局图像中所述运动目标所在区域的中心点位置;统计连续N帧全局图像对应的N个目标位置中每一位置的频数,以频数最大的位置对应的区域为所述N帧全局图像的目标稳定区域。
- 根据权利要求4所述的显示设备,其特征在于,所述统计连续N帧全局图像对应的N个目标位置中每一位置的频数,包括:遍历所述N帧全局图像对应的N个目标位置,当遍历到第i个所述目标位置时,将所述第i个目标位置分别与第1至第i-1个目标位置进行匹配,i∈(1,N];如果所述第i个目标位置与所述第1至第i-1个目标位置中的至少一个匹配,将相匹配两个目标位置的当前频数加1。
- 根据权利要求5所述的显示设备,其特征在于,所述将第i个目标位置分别与第1至第i-1个目标位置进行匹配,包括:根据所述第i个目标位置和预设参考点计算第i个目标位置对应的参考距离;分别计算所述第i个目标位置对应的参考距离与第1至第i-1个目标位置对应的参考距离的差值;通过判断每个所述差值是否属于预设范围,判定相应的两个目标位置是否匹配。
- 根据权利要求4所述的显示设备,其特征在于,所述根据目标稳定区域对所述全局图像进行处理,得到局部图像,包括:从所述全局图像中获取所述目标稳定区域对应的局部图像;按照预设规则对所述局部图像进行放大处理。
- 一种显示设备,其特征在于,包括:显示器,用于呈现用户界面;控制器,用于:响应于与所述对端设备之间视频通讯连接的建立,接收对端显示设备发送的对端视频数据;在用户界面中呈现对端显示窗口;根据所述对端视频数据在所述对端显示窗口中显示对端视频画面,其中,在所述对端视频画面中存在运动目标时,所述对端视频画面为所述运动目标的目标稳定区域对应的画面。
- 一种显示设备,其特征在于,包括:显示器,用于呈现用户界面;图像采集器,用于采集本端的全局图像;控制器,用于:响应于所述图像采集器的启动,获取所述图像采集器采集的本端的全局图像;在所述用户界面中呈现本地预览窗口,根据所述本端的全局图像在所述本地预览窗口中显示本端视频画面,其中,在所述全局图像中存在运动目标时,所述本端视频画面为所述运动目标的目标稳定区域对应的局部图像。
- 一种视频通讯数据处理方法,应用于显示设备,其特征在于,所述方法包括:响应与至少一个对端设备进行视频通讯的指令,通过图像采集器采集运动目标所在场景的全局图像;获取所述全局图像;检测所述全局图像中的运动目标,确定包含所述运动目标的目标稳定区域;根据所述目标稳定区域对所述全局图像进行处理,得到局部图像;使用所述局部图像与所述对端设备进行视频通讯。
- 根据权利要求10所述的方法,其特征在于,所述方法还包括:在显示器上呈现本地预览窗口;在本地预览窗口中显示所述局部图像。
- 根据权利要求10所述的方法,其特征在于,所述与至少一个对端设备进行视频通讯的指令包括:显示设备应用程序响应用户操作生成的用于指示与至少一个对端设备进行视频通讯的指令;显示设备应用程序响应用户操作生成的用于指示接受视频通讯请求的指令,所述视频通讯请求由对端设备发送。
- 根据权利要求10所述的方法,其特征在于,所述检测全局图像中的运动目标,确定包含所述运动目标的目标稳定区域,包括:检测每帧所述全局图像中的运动目标,定位目标位置,所述目标位置为所述全局图像中所述运动目标所在区域的中心点位置;统计连续N帧全局图像对应的N个目标位置中每一位置的频数,以频数最大的位置对应的区域为所述N帧全局图像的目标稳定区域。
- 根据权利要求13所述的方法,其特征在于,所述统计连续N帧全局图 像对应的N个目标位置中每一位置的频数,包括:遍历所述N帧全局图像对应的N个目标位置,当遍历到第i个所述目标位置时,将所述第i个目标位置分别与第1至第i-1个目标位置进行匹配,i∈(1,N];如果所述第i个目标位置与所述第1至第i-1个目标位置中的至少一个匹配,将相匹配两个目标位置的当前频数加1。
- 根据权利要求14所述的方法,其特征在于,所述将第i个目标位置分别与第1至第i-1个目标位置进行匹配,包括:根据所述第i个目标位置和预设参考点计算第i个目标位置对应的参考距离;分别计算所述第i个目标位置对应的参考距离与第1至第i-1个目标位置对应的参考距离的差值;通过判断每个所述差值是否属于预设范围,判定相应的两个目标位置是否匹配。
- 根据权利要求13所述的方法,其特征在于,所述根据目标稳定区域对所述全局图像进行处理,得到局部图像,包括:从所述全局图像中获取所述目标稳定区域对应的局部图像;按照预设规则对所述局部图像进行放大处理。
- 一种视频通讯方法,其特征在于,所述方法包括:第一显示设备响应于与第二显示设备之间视频通讯连接的建立,接收所述第二显示设备发送的对端视频数据;在用户界面中呈现对端显示窗口;根据所述对端视频数据在所述对端显示窗口中显示对端视频画面,其中,在所述对端视频画面中存在运动目标时,所述对端视频画面为所述运动目标的 目标稳定区域对应的画面。
- 一种显示方法,其特征在于,应用于显示设备,所述显示设备具有图像采集器,所述方法包括:响应于所述图像采集器的启动,获取所述图像采集器采集的本端的全局图像;在所述用户界面中呈现本地预览窗口,根据所述本端的全局图像在所述本地预览窗口中显示本端视频画面,其中,在所述全局图像中存在运动目标时,所述本端视频画面为所述运动目标的目标稳定区域对应的局部图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/332,713 US20210289165A1 (en) | 2019-06-10 | 2021-05-27 | Display Device and Video Communication Data Processing Method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910496921 | 2019-06-10 | ||
CN201910496921.4 | 2019-06-10 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US17/332,713 Continuation US20210289165A1 (en) | 2019-06-10 | 2021-05-27 | Display Device and Video Communication Data Processing Method |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020248697A1 true WO2020248697A1 (zh) | 2020-12-17 |
Family
ID=73657910
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2020/084717 WO2020248697A1 (zh) | 2019-06-10 | 2020-04-14 | 显示设备及视频通讯数据处理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210289165A1 (zh) |
CN (1) | CN112073770B (zh) |
WO (1) | WO2020248697A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115081384A (zh) * | 2022-07-21 | 2022-09-20 | 北京云枢创新软件技术有限公司 | 一种基于eda的数据动态可视化系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102025965A (zh) * | 2010-12-07 | 2011-04-20 | 华为终端有限公司 | 视频通话方法及可视电话 |
US20140055552A1 (en) * | 2012-08-27 | 2014-02-27 | Samsung Electronics Co., Ltd. | Mobile device and method for messenger-based video call service |
CN105787884A (zh) * | 2014-12-18 | 2016-07-20 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
CN105979194A (zh) * | 2016-05-26 | 2016-09-28 | 努比亚技术有限公司 | 一种视频图像处理装置和方法 |
CN106792092A (zh) * | 2016-12-19 | 2017-05-31 | 广州虎牙信息科技有限公司 | 直播视频流分镜显示控制方法及其相应的装置 |
CN107317993A (zh) * | 2017-08-08 | 2017-11-03 | 维沃移动通信有限公司 | 一种视频通话方法及移动终端 |
CN107396165A (zh) * | 2016-05-16 | 2017-11-24 | 杭州海康威视数字技术股份有限公司 | 一种视频播放方法及装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100469727B1 (ko) * | 2003-03-07 | 2005-02-02 | 삼성전자주식회사 | 통화자의 얼굴을 화면 가운데에 위치시킬 수 있는화상통신용 통신단말기 및 방법 |
CN101951493A (zh) * | 2010-09-25 | 2011-01-19 | 中兴通讯股份有限公司 | 移动终端及其视频通话中对远端图像局部放大方法 |
CN104754182B (zh) * | 2015-03-19 | 2016-01-20 | 长安大学 | 基于自适应运动滤波的高分辨航拍视频稳相方法 |
US10055895B2 (en) * | 2016-01-29 | 2018-08-21 | Snap Inc. | Local augmented reality persistent sticker objects |
CN106791571B (zh) * | 2017-01-09 | 2020-05-19 | 宇龙计算机通信科技(深圳)有限公司 | 一种用于双屏显示终端的视频显示方法及装置 |
-
2020
- 2020-04-14 WO PCT/CN2020/084717 patent/WO2020248697A1/zh active Application Filing
- 2020-04-14 CN CN202010289860.7A patent/CN112073770B/zh active Active
-
2021
- 2021-05-27 US US17/332,713 patent/US20210289165A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102025965A (zh) * | 2010-12-07 | 2011-04-20 | 华为终端有限公司 | 视频通话方法及可视电话 |
US20140055552A1 (en) * | 2012-08-27 | 2014-02-27 | Samsung Electronics Co., Ltd. | Mobile device and method for messenger-based video call service |
CN105787884A (zh) * | 2014-12-18 | 2016-07-20 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
CN107396165A (zh) * | 2016-05-16 | 2017-11-24 | 杭州海康威视数字技术股份有限公司 | 一种视频播放方法及装置 |
CN105979194A (zh) * | 2016-05-26 | 2016-09-28 | 努比亚技术有限公司 | 一种视频图像处理装置和方法 |
CN106792092A (zh) * | 2016-12-19 | 2017-05-31 | 广州虎牙信息科技有限公司 | 直播视频流分镜显示控制方法及其相应的装置 |
CN107317993A (zh) * | 2017-08-08 | 2017-11-03 | 维沃移动通信有限公司 | 一种视频通话方法及移动终端 |
Also Published As
Publication number | Publication date |
---|---|
CN112073770B (zh) | 2022-12-09 |
US20210289165A1 (en) | 2021-09-16 |
CN112073770A (zh) | 2020-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020248668A1 (zh) | 一种显示器及图像处理方法 | |
WO2021088320A1 (zh) | 显示设备和内容显示方法 | |
WO2020248680A1 (zh) | 视频数据处理方法、装置及显示设备 | |
CN111464840B (zh) | 显示设备及显示设备屏幕亮度的调节方法 | |
CN111510788B (zh) | 一种双屏双系统屏幕切换动画的显示方法及显示设备 | |
WO2021031620A1 (zh) | 显示设备和背光亮度调节方法 | |
US20210289165A1 (en) | Display Device and Video Communication Data Processing Method | |
CN112073798B (zh) | 一种数据传输方法及设备 | |
WO2020248790A1 (zh) | 语音控制方法及显示设备 | |
WO2021031623A1 (zh) | 显示设备、分享文件的方法和服务器 | |
WO2020248681A1 (zh) | 显示设备及蓝牙开关状态的显示方法 | |
CN111491190B (zh) | 一种双系统摄像头切换控制方法及显示设备 | |
CN112788378A (zh) | 显示设备与内容显示方法 | |
CN112788422A (zh) | 显示设备 | |
CN112073773A (zh) | 一种屏幕互动方法、装置及显示设备 | |
WO2020248699A1 (zh) | 一种声音处理法及显示设备 | |
WO2020248788A1 (zh) | 一种语音控制方法及显示设备 | |
WO2021031598A1 (zh) | 视频聊天窗口位置的自适应调整方法及显示设备 | |
CN112073777B (zh) | 一种语音交互方法及显示设备 | |
WO2020248654A1 (zh) | 显示设备及应用共同显示的方法 | |
WO2021189358A1 (zh) | 显示设备和音量调节方法 | |
WO2020248829A1 (zh) | 音视频处理方法及显示设备 | |
CN113453079B (zh) | 一种双系统大小双屏应用返回的控制方法及显示设备 | |
WO2020248886A1 (zh) | 图像处理方法及显示设备 | |
WO2021088326A1 (zh) | 一种显示设备及来电显示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20821734 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20821734 Country of ref document: EP Kind code of ref document: A1 |