CN114449179B - 显示设备及人像混合方法 - Google Patents

显示设备及人像混合方法 Download PDF

Info

Publication number
CN114449179B
CN114449179B CN202011119894.8A CN202011119894A CN114449179B CN 114449179 B CN114449179 B CN 114449179B CN 202011119894 A CN202011119894 A CN 202011119894A CN 114449179 B CN114449179 B CN 114449179B
Authority
CN
China
Prior art keywords
video stream
distance
resolution
ratio
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011119894.8A
Other languages
English (en)
Other versions
CN114449179A (zh
Inventor
王大勇
冯聪
王卫明
吴超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hisense Visual Technology Co Ltd
Original Assignee
Hisense Visual Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hisense Visual Technology Co Ltd filed Critical Hisense Visual Technology Co Ltd
Priority to CN202011119894.8A priority Critical patent/CN114449179B/zh
Publication of CN114449179A publication Critical patent/CN114449179A/zh
Application granted granted Critical
Publication of CN114449179B publication Critical patent/CN114449179B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本申请实施例提供了一种显示设备及人像混合方法,显示设备包括显示器和控制器,控制器被配置为:根据第一视频流中的人物尺寸参数对第二视频流中的人物进行尺寸调整;将尺寸调整后的第二视频流中的人物贴图到所述第一视频流中,生成并控制所述显示器播放混合视频流。人像混合方法包括:根据第一视频流中的人物尺寸参数对第二视频流中的人物进行尺寸调整;将尺寸调整后的第二视频流中的人物贴图到所述第一视频流中,生成并控制所述显示器播放混合视频流。本申请提高了人像混合效果,提升了用户体验。

Description

显示设备及人像混合方法
技术领域
本申请涉及显示设备技术领域,尤其涉及一种显示设备及人像混合方法。
背景技术
现如今,随着人们对健康生活理念的关注日益增多,越来越多的人们开始注重健身。智能电视作为一种大屏显示设备,成为了人们观看并学习健身视频的重要媒介。人们在观看并学习健身视频时,往往很难判断自己的动作是否与健身视频里的动作一致,相关技术中,利用摄像头采集用户图像,并将用户图像显示到健身视频播放的界面中,可使用户在显示设备上将自己的动作与健身视频里的动作进行对比,然而,摄像头采集的图像中显示的的人体尺寸,可能与健身视频中显示的人体尺寸存在较大差别,导致用户图像与健身视频的对比效果不佳,影响用户的观看体验。
发明内容
为解决上述技术问题,本申请提供了一种显示设备及人像混合方法。
第一方面,本申请提供了一种显示设备,该显示设备包括:
显示器;
控制器,与所述显示器连接,所述控制器被配置为:
根据第一视频流中的人物尺寸参数对第二视频流中的人物进行尺寸调整;
将尺寸调整后的第二视频流中的人物贴图到所述第一视频流中,生成并控制所述显示器播放混合视频流。
在一些实施例中,所述控制器还被配置为:
根据人脸算法识别所述第一视频流中的人物在拍摄时与所述第一视频流的拍摄位置之间的第一距离;
获取所述第一视频流的窗口在所述显示器上的第一屏幕占比;
获取所述第一视频流的片源的第一分辨率;
所述第一视频流中的人物尺寸参数包括所述第一距离、第一屏幕占比和第一分辨率。
在一些实施例中,所述控制器还被配置为:
根据人脸算法识别所述第二视频流中的人物在拍摄时与所述第二视频流的拍摄位置之间的第二距离;
获取所述第二视频流的窗口在所述显示器上的第二屏幕占比;
获取所述第二视频流的片源的第二分辨率。
在一些实施例中,所述根据第一视频流中的人物尺寸参数对第二视频流中的人物进行尺寸调整,包括:
计算所述第二距离与第一距离的距离比值、所述第一屏幕占比与第二屏幕占比的占比比值以及所述第一分辨率与第二分辨率的分辨率比值;
计算所述距离比值、占比比值和分辨率比值的乘积,得到调整比例;
将所述第二视频流中的人物按照所述调整比例进行缩放。
第二方面,本申请提供了一种显示设备,该显示设备包括:
显示器;
控制器,与所述显示器连接,所述控制器被配置为:
根据第一视频流中的人物尺寸参数对第二视频流中的人物进行尺寸调整;
将第一视频流中的人物和尺寸调整后的第二视频流中的人物贴图到第三视频流中,生成并控制所述显示器播放混合视频流。
第三方面,本申请实施例提供了一种人像混合方法,用于显示设备,该人像混合方法包括:
根据第一视频流中的人物尺寸参数对第二视频流中的人物进行尺寸调整;
将尺寸调整后的第二视频流中的人物贴图到所述第一视频流中,生成并控制所述显示器播放混合视频流。
本申请提供的显示设备及人像混合方法的有益效果包括:
本申请实施例通过摄像头采集用户图像,并分析用户打开的第一视频流中的人像尺寸与摄像头采集的图像中的人像尺寸,对摄像头采集的图像中的人像尺寸进行调整,然后将摄像头采集的图像中的人像进行背景分割,将背景分割后的人像贴图到第一视频流中,使用户可以在显示设备上同时看到自己的图像与第一视频流中的人像,进而可进行动作,对比,提升视频观看体验。
附图说明
为了更清楚地说明本申请的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1中示例性示出了根据一些实施例的显示设备与控制装置之间操作场景的示意图;
图2中示例性示出了根据一些实施例的显示设备200的硬件配置框图;
图3中示例性示出了根据一些实施例的控制装置100的硬件配置框图;
图4中示例性示出了根据一些实施例的显示设备200中软件配置示意图;
图5中示例性示出了根据一些实施例的显示设备200中应用程序的图标控件界面显示示意图;
图6中示例性示出了根据一些实施例的第一视频流的界面示意图;
图7中示例性示出了根据一些实施例的第二视频流的界面示意图;
图8中示例性示出了根据一些实施例的人像混合方法的流程示意图;
图9中示例性示出了根据一些实施例的获取第一视频流和第二视频流的方法的流程示意图;
图10中示例性示出了根据一些实施例的获取第一视频流和第二视频流的方法的流程示意图;
图11中示例性示出了根据一些实施例的获取第一视频流和第二视频流的方法的流程示意图;
图12中示例性示出了根据一些实施例的选取第一人物的方法的流程示意图;
图13中示例性示出了根据一些实施例的选取第二人物的方法的流程示意图;
图14中示例性示出了根据一些实施例第一人物的人物尺寸参数获取方法的流程示意图;
图15中示例性示出了根据一些实施例的骨骼关键点示意图;
图16中示例性示出了根据一些实施例第二人物的人物尺寸参数获取方法的流程示意图;
图17中示例性示出了根据一些实施例的人像混合界面的示意图;
图18中示例性示出了根据一些实施例的人像混合界面的示意图;
图19中示例性示出了根据一些实施例的人像混合界面的示意图。
具体实施方式
为使本申请的目的、实施方式和优点更加清楚,下面将结合本申请示例性实施例中的附图,对本申请示例性实施方式进行清楚、完整地描述,显然,所描述的示例性实施例仅是本申请一部分实施例,而不是全部的实施例。
基于本申请描述的示例性实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请所附权利要求保护的范围。此外,虽然本申请中公开内容按照示范性一个或几个实例来介绍,但应理解,可以就这些公开内容的各个方面也可以单独构成一个完整实施方式。
需要说明的是,本申请中对于术语的简要说明,仅是为了方便理解接下来描述的实施方式,而不是意图限定本申请的实施方式。除非另有说明,这些术语应当按照其普通和通常的含义理解。
本申请中说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”等是用于区别类似或同类的对象或实体,而不必然意味着限定特定的顺序或先后次序,除非另外注明(Unless otherwise indicated)。应该理解这样使用的用语在适当情况下可以互换,例如能够根据本申请实施例图示或描述中给出那些以外的顺序实施。
此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖但不排他的包含,例如,包含了一系列组件的产品或设备不必限于清楚地列出的那些组件,而是可包括没有清楚地列出的或对于这些产品或设备固有的其它组件。
本申请中使用的术语“模块”,是指任何已知或后来开发的硬件、软件、固件、人工智能、模糊逻辑或硬件或/和软件代码的组合,能够执行与该元件相关的功能。
本申请中使用的术语“遥控器”,是指电子设备(如本申请中公开的显示设备)的一个组件,通常可在较短的距离范围内无线控制电子设备。一般使用红外线和/或射频(RF)信号和/或蓝牙与电子设备连接,也可以包括WiFi、无线USB、蓝牙、动作传感器等功能模块。例如:手持式触摸遥控器,是以触摸屏中用户界面取代一般遥控装置中的大部分物理内置硬键。
本申请中使用的术语“手势”,是指用户通过一种手型的变化或手部运动等动作,用于表达预期想法、动作、目的/或结果的用户行为。
图1中示例性示出了根据实施例中显示设备与控制装置之间操作场景的示意图。如图1中示出,用户可通过移动终端300和控制装置100操作显示设备200。
在一些实施例中,控制装置100可以是遥控器,遥控器和显示设备的通信包括红外协议通信或蓝牙协议通信,及其他短距离通信方式等,通过无线或其他有线方式来控制显示设备200。无线方式可以是直连和非直连,可以是经过路由的也可以是不经过路由的。用户可以通过遥控器上按键,语音输入、控制面板输入等输入用户指令,来控制显示设备200。如:用户可以通过遥控器上音量加减键、频道控制键、上/下/左/右的移动按键、语音输入按键、菜单键、开关机按键等输入相应控制指令,来实现控制显示设备200的功能。
在一些实施例中,也可以使用移动终端、平板电脑、计算机、笔记本电脑、和其他智能设备以控制显示设备200。例如,使用在智能设备上运行的应用程序控制显示设备200。该应用程序通过配置可以在与智能设备关联的屏幕上,在直观的用户界面(UI)中为用户提供各种控制。
在一些实施例中,移动终端300可与显示设备200安装软件应用,通过网络通信协议实现连接通信,实现一对一控制操作的和数据通信的目的。如:可以实现用移动终端300与显示设备200建立控制指令协议,将遥控控制键盘同步到移动终端300上,通过控制移动终端300上用户界面,实现控制显示设备200的功能。也可以将移动终端300上显示音视频内容传输到显示设备200上,实现同步显示功能。
如图1中还示出,显示设备200还与服务器400通过多种通信方式进行数据通信。可允许显示设备200通过局域网(LAN)、无线局域网(WLAN)和其他网络进行通信连接。服务器400可以向显示设备200提供各种内容和互动。示例的,显示设备200通过发送和接收信息,以及电子节目指南(EPG)互动,接收软件程序更新,或访问远程储存的数字媒体库。服务器400可以是一个集群,也可以是多个集群,可以包括一类或多类服务器。通过服务器400提供视频点播和广告服务等其他网络服务内容。
显示设备200,可以液晶显示器、OLED显示器、投影显示设备。具体显示设备类型,尺寸大小和分辨率等不作限定,本领技术人员可以理解的是,显示设备200可以根据需要做性能和配置上一些改变。
显示设备200除了提供广播接收电视功能之外,还可以附加提供计算机支持功能的智能网络电视功能,包括但不限于,网络电视、智能电视、互联网协议电视(IPTV)等。
图2中示例性示出了根据示例性实施例中显示设备200的硬件配置框图。
在一些实施例中,显示设备200中包括控制器250、调谐解调器210、通信器220、检测器230、输入/输出接口255、显示器275,音频输出接口285、存储器260、供电电源290、用户接口265、外部装置接口240中的至少一种。
在一些实施例中,显示器275,用于接收源自第一处理器输出的图像信号,进行显示视频内容和图像以及菜单操控界面的组件。
在一些实施例中,显示器275,包括用于呈现画面的显示屏组件,以及驱动图像显示的驱动组件。
在一些实施例中,显示视频内容,可以来自广播电视内容,也可以是说,可通过有线或无线通信协议接收的各种广播信号。或者,可显示来自网络通信协议接收来自网络服务器端发送的各种图像内容。
在一些实施例中,显示器275用于呈现显示设备200中产生且用于控制显示设备200的用户操控UI界面。
在一些实施例中,根据显示器275类型不同,还包括用于驱动显示的驱动组件。
在一些实施例中,显示器275为一种投影显示器,还可以包括一种投影装置和投影屏幕。
在一些实施例中,通信器220是用于根据各种通信协议类型与外部设备或外部服务器进行通信的组件。例如:通信器可以包括Wifi芯片,蓝牙通信协议芯片,有线以太网通信协议芯片等其他网络通信协议芯片或近场通信协议芯片,以及红外接收器中的至少一种。
在一些实施例中,显示设备200可以通过通信器220与外部控制装置100或内容提供设备之间建立控制信号和数据信号发送和接收。
在一些实施例中,用户接口265,可用于接收控制装置100(如:红外遥控器等)红外控制信号。
在一些实施例中,检测器230是显示设备200用于采集外部环境或与外部交互的信号。
在一些实施例中,检测器230包括光接收器,用于采集环境光线强度的传感器,可以通过采集环境光可以自适应性显示参数变化等。
在一些实施例中,检测器230还可以包括图像采集器,如相机、摄像头等,可以用于采集外部环境场景,以及用于采集用户的属性或与用户交互手势,可以自适应变化显示参数,也可以识别用户手势,以实现与用户之间互动的功能。
在一些实施例中,检测器230还可以包括温度传感器等,如通过感测环境温度。
在一些实施例中,显示设备200可自适应调整图像的显示色温。如当温度偏高的环境时,可调整显示设备200显示图像色温偏冷色调,或当温度偏低的环境时,可以调整显示设备200显示图像偏暖色调。
在一些实施例中,检测器230还可声音采集器等,如麦克风,可以用于接收用户的声音。示例性的,包括用户控制显示设备200的控制指令的语音信号,或采集环境声音,用于识别环境场景类型,使得显示设备200可以自适应适应环境噪声。
在一些实施例中,如图2所示,输入/输出接口255被配置为,可进行控制器250与外部其他设备或其他控制器250之间的数据传输。如接收外部设备的视频信号数据和音频信号数据、或命令指令数据等。
在一些实施例中,外部装置接口240可以包括,但不限于如下:可以高清多媒体接口HDMI接口、模拟或数据高清分量输入接口、复合视频输入接口、USB输入接口、RGB端口等任一个或多个接口。也可以是上述多个接口形成复合性的输入/输出接口。
在一些实施例中,如图2所示,调谐解调器210被配置为,通过有线或无线接收方式接收广播电视信号,可以进行放大、混频和谐振等调制解调处理,从多多个无线或有线广播电视信号中解调出音视频信号,该音视频信号可以包括用户所选择电视频道频率中所携带的电视音视频信号,以及EPG数据信号。
在一些实施例中,调谐解调器210解调的频点受到控制器250的控制,控制器250可根据用户选择发出控制信号,以使的调制解调器响应用户选择的电视信号频率以及调制解调该频率所携带的电视信号。
在一些实施例中,广播电视信号可根据电视信号广播制式不同区分为地面广播信号、有线广播信号、卫星广播信号或互联网广播信号等。或者根据调制类型不同可以区分为数字调制信号,模拟调制信号等。或者根据信号种类不同区分为数字信号、模拟信号等。
在一些实施例中,控制器250和调谐解调器210可以位于不同的分体设备中,即调谐解调器210也可在控制器250所在的主体设备的外置设备中,如外置机顶盒等。这样,机顶盒将接收到的广播电视信号调制解调后的电视音视频信号输出给主体设备,主体设备经过第一输入/输出接口接收音视频信号。
在一些实施例中,控制器250,通过存储在存储器上中各种软件控制程序,来控制显示设备的工作和响应用户的操作。控制器250可以控制显示设备200的整体操作。例如:响应于接收到用于选择在显示器275上显示UI对象的用户命令,控制器250便可以执行与由用户命令选择的对象有关的操作。
在一些实施例中,所述对象可以是可选对象中的任何一个,例如超链接或图标。与所选择的对象有关操作,例如:显示连接到超链接页面、文档、图像等操作,或者执行与所述图标相对应程序的操作。用于选择UI对象用户命令,可以是通过连接到显示设备200的各种输入装置(例如,鼠标、键盘、触摸板等)输入命令或者与由用户说出语音相对应的语音命令。
如图2所示,控制器250包括随机存取存储器251(Random Access Memory,RAM)、只读存储器252(Read-Only Memory,ROM)、视频处理器270、音频处理器280、其他处理器253(例如:图形处理器(Graphics Processing Unit,GPU)、中央处理器254(CentralProcessing Unit,CPU)、通信接口(Communication Interface),以及通信总线256(Bus)中的至少一种。其中,通信总线连接各个部件。
在一些实施例中,RAM 251用于存储操作系统或其他正在运行中的程序的临时数据。
在一些实施例中,ROM 252用于存储各种系统启动的指令。
在一些实施例中,ROM 252用于存储一个基本输入输出系统,称为基本输入输出系统(Basic Input Output System,BIOS)。用于完成对系统的加电自检、系统中各功能模块的初始化、系统的基本输入/输出的驱动程序及引导操作系统。
在一些实施例中,在收到开机信号时,显示设备200电源开始启动,CPU运行ROM252中系统启动指令,将存储在存储器的操作系统的临时数据拷贝至RAM 251中,以便于启动或运行操作系统。当操作系统启动完成后,CPU再将存储器中各种应用程序的临时数据拷贝至RAM 251中,然后,以便于启动或运行各种应用程序。
在一些实施例中,CPU处理器254,用于执行存储在存储器中操作系统和应用程序指令。以及根据接收外部输入的各种交互指令,来执行各种应用程序、数据和内容,以便最终显示和播放各种音视频内容。
在一些示例性实施例中,CPU处理器254,可以包括多个处理器。多个处理器可包括一个主处理器以及一个或多个子处理器。主处理器,用于在预加电模式中执行显示设备200一些操作,和/或在正常模式下显示画面的操作。一个或多个子处理器,用于在待机模式等状态下一种操作。
在一些实施例中,图形处理器253,用于产生各种图形对象,如:图标、操作菜单、以及用户输入指令显示图形等。包括运算器,通过接收用户输入各种交互指令进行运算,根据显示属性显示各种对象。以及包括渲染器,对基于运算器得到的各种对象,进行渲染,上述渲染后的对象用于显示在显示器上。
在一些实施例中,视频处理器270被配置为将接收外部视频信号,根据输入信号的标准编解码协议,进行解压缩、解码、缩放、降噪、帧数转换、分辨率转换、图像合成等等视频处理,可得到直接可显示设备200上显示或播放的信号。
在一些实施例中,视频处理器270,包括解复用模块、视频解码模块、图像合成模块、帧数转换模块、显示格式化模块等。
其中,解复用模块,用于对输入音视频数据流进行解复用处理,如输入MPEG-2,则解复用模块进行解复用成视频信号和音频信号等。
视频解码模块,则用于对解复用后的视频信号进行处理,包括解码和缩放处理等。
图像合成模块,如图像合成器,其用于将图形生成器根据用户输入或自身生成的GUI信号,与缩放处理后视频图像进行叠加混合处理,以生成可供显示的图像信号。
帧数转换模块,用于对转换输入视频帧数,如将60Hz帧数转换为120Hz帧数或240Hz帧数,通常的格式采用如插帧方式实现。
显示格式化模块,则用于将接收帧数转换后视频输出信号,改变信号以符合显示格式的信号,如输出RGB数据信号。
在一些实施例中,图形处理器253可以和视频处理器可以集成设置,也可以分开设置,集成设置的时候可以执行输出给显示器的图形信号的处理,分离设置的时候可以分别执行不同的功能,例如GPU+FRC(Frame Rate Conversion))架构。
在一些实施例中,音频处理器280,用于接收外部的音频信号,根据输入信号的标准编解码协议,进行解压缩和解码,以及降噪、数模转换、和放大处理等处理,得到可以在扬声器中播放的声音信号。
在一些实施例中,视频处理器270可以包括一颗或多颗芯片组成。音频处理器,也可以包括一颗或多颗芯片组成。
在一些实施例中,视频处理器270和音频处理器280,可以单独的芯片,也可以于控制器一起集成在一颗或多颗芯片中。
在一些实施例中,音频输出,在控制器250的控制下接收音频处理器280输出的声音信号,如:扬声器286,以及除了显示设备200自身携带的扬声器之外,可以输出至外接设备的发声装置的外接音响输出端子,如:外接音响接口或耳机接口等,还可以包括通信接口中的近距离通信模块,例如:用于进行蓝牙扬声器声音输出的蓝牙模块。
供电电源290,在控制器250控制下,将外部电源输入的电力为显示设备200提供电源供电支持。供电电源290可以包括安装显示设备200内部的内置电源电路,也可以是安装在显示设备200外部电源,在显示设备200中提供外接电源的电源接口。
用户接口265,用于接收用户的输入信号,然后,将接收用户输入信号发送给控制器250。用户输入信号可以是通过红外接收器接收的遥控器信号,可以通过网络通信模块接收各种用户控制信号。
在一些实施例中,用户通过控制装置100或移动终端300输入用户命令,用户输入接口则根据用户的输入,显示设备200则通过控制器250响应用户的输入。
在一些实施例中,用户可在显示器275上显示的图形用户界面(GUI)输入用户命令,则用户输入接口通过图形用户界面(GUI)接收用户输入命令。或者,用户可通过输入特定的声音或手势进行输入用户命令,则用户输入接口通过传感器识别出声音或手势,来接收用户输入命令。
在一些实施例中,“用户界面”,是应用程序或操作系统与用户之间进行交互和信息交换的介质接口,它实现信息的内部形式与用户可以接受形式之间的转换。用户界面常用的表现形式是图形用户界面(Graphic User Interface,GUI),是指采用图形方式显示的与计算机操作相关的用户界面。它可以是在电子设备的显示屏中显示的一个图标、窗口、控件等界面元素,其中控件可以包括图标、按钮、菜单、选项卡、文本框、对话框、状态栏、导航栏、Widget等可视的界面元素。
存储器260,包括存储用于驱动显示设备200的各种软件模块。如:第一存储器中存储的各种软件模块,包括:基础模块、检测模块、通信模块、显示控制模块、浏览器模块、和各种服务模块等中的至少一种。
基础模块用于显示设备200中各个硬件之间信号通信、并向上层模块发送处理和控制信号的底层软件模块。检测模块用于从各种传感器或用户输入接口中收集各种信息,并进行数模转换以及分析管理的管理模块。
例如,语音识别模块中包括语音解析模块和语音指令数据库模块。显示控制模块用于控制显示器进行显示图像内容的模块,可以用于播放多媒体图像内容和UI界面等信息。通信模块,用于与外部设备之间进行控制和数据通信的模块。浏览器模块,用于执行浏览服务器之间数据通信的模块。服务模块,用于提供各种服务以及各类应用程序在内的模块。同时,存储器260还用存储接收外部数据和用户数据、各种用户界面中各个项目的图像以及焦点对象的视觉效果图等。
图3示例性示出了根据示例性实施例中控制装置100的配置框图。如图3所示,控制装置100包括控制器110、通信接口130、用户输入/输出接口、存储器、供电电源。
控制装置100被配置为控制显示设备200,以及可接收用户的输入操作指令,且将操作指令转换为显示设备200可识别和响应的指令,起用用户与显示设备200之间交互中介作用。如:用户通过操作控制装置100上频道加减键,显示设备200响应频道加减的操作。
在一些实施例中,控制装置100可是一种智能设备。如:控制装置100可根据用户需求安装控制显示设备200的各种应用。
在一些实施例中,如图1所示,移动终端300或其他智能电子设备,可在安装操控显示设备200的应用之后,可以起到控制装置100类似功能。如:用户可以通过安装应用,在移动终端300或其他智能电子设备上可提供的图形用户界面的各种功能键或虚拟按钮,以实现控制装置100实体按键的功能。
控制器110包括处理器112和RAM 113和ROM 114、通信接口130以及通信总线。控制器用于控制控制装置100的运行和操作,以及内部各部件之间通信协作以及外部和内部的数据处理功能。
通信接口130在控制器110的控制下,实现与显示设备200之间控制信号和数据信号的通信。如:将接收到的用户输入信号发送至显示设备200上。通信接口130可包括WiFi芯片131、蓝牙模块132、NFC模块133等其他近场通信模块中至少之一种。
用户输入/输出接口140,其中,输入接口包括麦克风141、触摸板142、传感器143、按键144等其他输入接口中至少一者。如:用户可以通过语音、触摸、手势、按压等动作实现用户指令输入功能,输入接口通过将接收的模拟信号转换为数字信号,以及数字信号转换为相应指令信号,发送至显示设备200。
输出接口包括将接收的用户指令发送至显示设备200的接口。在一些实施例中,可以红外接口,也可以是射频接口。如:红外信号接口时,需要将用户输入指令按照红外控制协议转化为红外控制信号,经红外发送模块进行发送至显示设备200。再如:射频信号接口时,需将用户输入指令转化为数字信号,然后按照射频控制信号调制协议进行调制后,由射频发送端子发送至显示设备200。
在一些实施例中,控制装置100包括通信接口130和输入输出接口140中至少一者。控制装置100中配置通信接口130,如:WiFi、蓝牙、NFC等模块,可将用户输入指令通过WiFi协议、或蓝牙协议、或NFC协议编码,发送至显示设备200。
存储器190,用于在控制器的控制下存储驱动和控制控制设备200的各种运行程序、数据和应用。存储器190,可以存储用户输入的各类控制信号指令。
供电电源180,用于在控制器的控制下为控制装置100各元件提供运行电力支持。可以电池及相关控制电路。
在一些实施例中,系统可以包括内核(Kernel)、命令解析器(shell)、文件系统和应用程序。内核、shell和文件系统一起组成了基本的操作系统结构,它们让用户可以管理文件、运行程序并使用系统。上电后,内核启动,激活内核空间,抽象硬件、初始化硬件参数等,运行并维护虚拟内存、调度器、信号及进程间通信(IPC)。内核启动后,再加载Shell和用户应用程序。应用程序在启动后被编译成机器码,形成一个进程。
参见图4,在一些实施例中,将系统分为四层,从上至下分别为应用程序(Applications)层(简称“应用层”),应用程序框架(Application Framework)层(简称“框架层”),安卓运行时(Android runtime)和系统库层(简称“系统运行库层”),以及内核层。
在一些实施例中,应用程序层中运行有至少一个应用程序,这些应用程序可以是操作系统自带的窗口(Window)程序、系统设置程序、时钟程序、相机应用等;也可以是第三方开发者所开发的应用程序,比如嗨见程序、K歌程序、魔镜程序等。在具体实施时,应用程序层中的应用程序包不限于以上举例,实际还可以包括其它应用程序包,本申请实施例对此不做限制。
框架层为应用程序层的应用程序提供应用编程接口(application programminginterface,API)和编程框架。应用程序框架层包括一些预先定义的函数。应用程序框架层相当于一个处理中心,这个中心决定让应用层中的应用程序做出动作。应用程序通过API接口,可在执行中访问系统中的资源和取得系统的服务。
如图4所示,本申请实施例中应用程序框架层包括管理器(Managers),内容提供者(Content Provider)等,其中管理器包括以下模块中的至少一个:活动管理器(ActivityManager)用与和系统中正在运行的所有活动进行交互;位置管理器(Location Manager)用于给系统服务或应用提供了系统位置服务的访问;文件包管理器(Package Manager)用于检索当前安装在设备上的应用程序包相关的各种信息;通知管理器(NotificationManager)用于控制通知消息的显示和清除;窗口管理器(Window Manager)用于管理用户界面上的括图标、窗口、工具栏、壁纸和桌面部件。
在一些实施例中,活动管理器用于:管理各个应用程序的生命周期以及通常的导航回退功能,比如控制应用程序的退出(包括将显示窗口中当前显示的用户界面切换到系统桌面)、打开、后退(包括将显示窗口中当前显示的用户界面切换到当前显示的用户界面的上一级用户界面)等。
在一些实施例中,窗口管理器用于管理所有的窗口程序,比如获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕,控制显示窗口变化(例如将显示窗口缩小显示、抖动显示、扭曲变形显示等)等。
在一些实施例中,系统运行库层为上层即框架层提供支撑,当框架层被使用时,安卓操作系统会运行系统运行库层中包含的C/C++库以实现框架层要实现的功能。
在一些实施例中,内核层是硬件和软件之间的层。如图4所示,内核层至少包含以下驱动中的至少一种:音频驱动、显示驱动、蓝牙驱动、摄像头驱动、WIFI驱动、USB驱动、HDMI驱动、传感器驱动(如指纹传感器,温度传感器,触摸传感器、压力传感器等)等。
在一些实施例中,内核层还包括用于进行电源管理的电源驱动模块。
在一些实施例中,图4中的软件架构对应的软件程序和/或模块存储在图2或图3所示的第一存储器或第二存储器中。
在一些实施例中,对于具备触控功能的显示设备,以分屏操作为例,显示设备接收用户作用于显示屏上的输入操作(如分屏操作),内核层可以根据输入操作产生相应的输入事件,并向应用程序框架层上报该事件。由应用程序框架层的活动管理器设置与该输入操作对应的窗口模式(如多窗口模式)以及窗口位置和大小等。应用程序框架层的窗口管理根据活动管理器的设置绘制窗口,然后将绘制的窗口数据发送给内核层的显示驱动,由显示驱动在显示屏的不同显示区域显示与之对应的应用界面。
在一些实施例中,如图5中所示,应用程序层包含至少一个应用程序可以在显示器中显示对应的图标控件,如:直播电视应用程序图标控件、视频点播应用程序图标控件、媒体中心应用程序图标控件、应用程序中心图标控件、游戏应用图标控件等。
在一些实施例中,直播电视应用程序,可以通过不同的信号源提供直播电视。例如,直播电视应用程可以使用来自有线电视、无线广播、卫星服务或其他类型的直播电视服务的输入提供电视信号。以及,直播电视应用程序可在显示设备200上显示直播电视信号的视频。
在一些实施例中,视频点播应用程序,可以提供来自不同存储源的视频。不同于直播电视应用程序,视频点播提供来自某些存储源的视频显示。例如,视频点播可以来自云存储的服务器端、来自包含已存视频节目的本地硬盘储存器。
在一些实施例中,媒体中心应用程序,可以提供各种多媒体内容播放的应用程序。例如,媒体中心,可以为不同于直播电视或视频点播,用户可通过媒体中心应用程序访问各种图像或音频所提供服务。
在一些实施例中,应用程序中心,可以提供储存各种应用程序。应用程序可以是一种游戏、应用程序,或某些和计算机系统或其他设备相关但可以在智能电视中运行的其他应用程序。应用程序中心可从不同来源获得这些应用程序,将它们储存在本地储存器中,然后在显示设备200上可运行。
在一些实施例中的硬件或软件架构可以基于上述实施例中的介绍,在一些实施例中可以是基于相近的其他硬件或软件架构,可以实现本申请的技术方案即可。
在一些实施例中,显示设备具有混合视频流功能,可将两个视频流的人物混合到一个视频流中,然而,如果两个视频流中的人物尺寸相差较大,混合后的视频流中会出现人物比例不协调的情况,导致人像混合效果不佳。
在一些实施例中,显示设备可同时对两个视频流进行处理,其中一个视频流可称为第一视频流,另一个视频流可称为第二视频流。其中,第一视频流可如图6所示,第二视频流可如图7所示,由图6-图7可见,第一视频流和第二视频流的背景不同,人物尺寸也不同,如果按照原尺寸将第一视频流中的人物和第二视频流中的人物混合到同一视频流中,则混合后的视频流的人物混合效果将较差。
为解决上述技术问题,本申请实施例提供了一种人像混合方法,参见图8,该人像混合方法可包括如下步骤:
步骤S10:根据第一视频流中的人物尺寸参数对第二视频流中的人物进行尺寸调整。
步骤S20:将尺寸调整后的第二视频流中的人物贴图到所述第一视频流中,生成并控制所述显示器播放混合视频流。
在一些实施例中,显示设备可将第二视频流中的人物提取出来,进行尺寸调整后贴图到第一视频流中,得到以第一视频流中的背景为背景的混合视频流;或者,显示设备可将第一视频流中的人物提取出来,进行尺寸调整后贴图到第二视频流中,得到以第二视频流中的背景为背景的混合视频流;或者,显示设备可将第一视频流中的人物提取出来,进行尺寸调整后和从第二视频流中提取出的人物一并贴图到第三视频流中,得到以第三视频流的背景为背景的混合视频流;当然,显示设备还可将第二视频流中的人物提取出来,进行尺寸调整后和从第一视频流中提取出的人物一并贴图到第三视频流中;或者,显示设备还可将第一视频流中提取出的人物进行调整,将第二视频流中提取出的人物尺寸进行尺寸调整,将来自第一视频流和第二视频流的尺寸调整后的人物一并贴图到第三视频流中。
在一些实施例中,第一视频流和第二视频流可以为如下几种来源的视频流:显示设备从互联网上获取的视频流、用户通过与显示设备通信连接的设备上传到显示设备上的视频流、显示设备通过摄像头实时采集的视频流。其中,第一视频流的来源可与第二视频流的来源相同,也可与第二视频流的来源不同;与显示设备通信连接的设备可为手机、存储设备等设备,显示设备可通过显示设备自带的摄像头采集视频流,也可通过有线连接或无线连接的摄像头采集视频流。
如果第一视频流为显示设备从互联网上获取的视频流或用户通过与显示设备通信连接的设备上传到显示设备上的视频流,第二视频流为显示设备通过摄像头实时采集的包含用户的视频流,则当混合的视频流的背景为第一视频流或第三视频流时,实现了将用户显示到虚拟背景中,因此,混合的视频流为AR混合视频流;如果混合的视频流的背景为第二视频流,用户的背景仍然是真实的背景,因此,混合的视频流为非AR混合视频流。AR混合视频流和非AR混合视频流具有不同的观看效果,在一些实施例中,显示设备可默认合成AR混合视频流,进一步的,显示设备可在混合视频流的播放界面上展示背景切换控件,用户触发该背景切换控件后,显示设备可切换混合视频流的背景。
在一些实施例中,第一视频流为显示设备从互联网上获取的视频流,如一个健身视频,第二视频流为显示设备通过摄像头采集的视频流,如用户参照该健身视频进行跟练的视频,简称跟练视频,则显示设备获取第一视频流和第二视频流的方式可参见图9-图11。
参见图9,为根据一些实施例的显示设备获取第一视频流和第二视频流的方法的流程示意图,如图9所示,该方法可包括步骤S101-S102。
步骤S101:在播放第一视频流之前,接收用户输入的所述第一视频流的播放模式指令。
在一些实施例中,显示设备在首页、收藏页、下载页等显示界面会展示一些视频媒资,当用户想观看其中一个视频媒资,如一个健身视频时,该用户想要观看的视频媒资可称为第一视频流。
用户可通过遥控器、智能手机、语音控制装置等设备向显示设备输入打开第一视频流的指令,或者,当显示设备支持触控时,该打开第一视频流的指令还可为第一视频流的触控指令。
不同的第一视频流可支持不同的播放模式,如普通模式、AR跟练模式。其中,在普通模式下,显示设备可全屏播放该第一视频流,在AR跟练模式下,显示设备可开启摄像头采集用户图像作为第二视频流,并将第一视频流和第二视频流进行混合。
当用户输入第一指令后,显示设备可弹出模式选择界面或模式选择窗口,模式选择界面或模式选择窗口可设置模式选项,模式选项可包括普通模式和AR跟练模式,用户点击一个模式选项,则生成该第一视频流的播放模式指令。
步骤S102:根据所述播放模式指令为跟练模式指令,控制所述显示器播放所述第一视频流,并开启与所述控制器通信连接的摄像头。
在一些实施例中,用户在模式选择界面或模式选择窗口点击AR跟练模式,则生成的播放模式指令为跟练模式指令,显示设备根据该跟练模式指令,控制所述显示器播放所述第一视频流,并开启与所述控制器通信连接的摄像头,获取摄像头采集的第二视频流。
参见图10,为根据一些实施例的显示设备获取第一视频流和第二视频流的方法的流程示意图,如图10所示,该方法可包括步骤S111-S112。
步骤S111:在播放AR跟练专区的第一视频流之前,接收用户输入的播放所述第一视频流的指令。
在一些实施例中,显示设备可设置有AR跟练专区,在该AR跟练专区上展示的媒资均为支持AR跟练模式的媒资,用户可在该AR跟练专区选择一个媒资作为第一视频流。
步骤S112:控制所述显示器播放所述第一视频流,并开启与所述控制器通信连接的摄像头。
在一些实施例中,显示设备根据用户在跟练媒资界面输入的播放所述第一视频流的第一指令,控制所述显示器播放所述第一视频流,并开启与所述控制器通信连接的摄像头,获取摄像头采集的第二视频流。
参见图11,为根据一些实施例的显示设备获取第一视频流和第二视频流的方法的流程示意图,如图11所示,该方法可包括步骤S121-S122。
步骤S121:在第一视频流的播放期间,接收用户输入的摄像头开启指令。
在一些实施例中,如果第一视频流同时支持普通模式和AR跟练模式,则在该第一视频流以普通模式播放期间,在该第一视频流的播放界面可显示跟练控件,用户在观看该第一视频流的过程中,如果想模仿第一视频流中的人物动作,可通过遥控器、智能手机、语音控制装置等设备或显示设备的触摸屏向显示设备输入摄像头开启指令以进入跟练模式,该摄像头开启指令可为跟练控件的触发指令。
步骤S122:响应于所述摄像头开启指令,开启与所述控制器通信连接的摄像头。
在一些实施例中,显示设备根据摄像头开启指令,开启与所述控制器通信连接的摄像头,获取摄像头采集的第二视频流。
除了图9-图11所示的第一视频流和第二视频流的获取方式,显示设备还可采用其他方式获取第一视频流和第二视频流,例如,在播放第一视频流之前,用户可选择开启摄像头,显示设备可获取摄像头采集的第二视频流,然后,用户打开第一视频流,显示设备根据第一视频流支持AR跟练模式,获取第一视频流。
在一些实施例中,显示设备根据第一视频流中的人物尺寸参数对第二视频流中的人物进行尺寸调整,其中,第一视频流中的人物数量可能存在多种情况,显示设备需要先从第一视频流中确定一个第一人物,作为调整第二视频流中的人物尺寸的参考,第一人物的选取方法可参见图12,包括步骤S201-S204。
步骤S201:检测第一视频流中的人物数量。
利用人脸检测算法对第一视频流的视频帧进行人脸检测,可得到该视频帧中的人物数量。第一视频流中的一个视频帧中可能识别出一个人物,也可能识别出多个人物,还可能未识别出人物。用户跟练的对象通常是一个人物,该人物可称为第一人物。
步骤S202:如果第一视频流中存在多个人物,将位于多个人物的中心位置的人物确定为第一人物。
在一些实施例中,如果第一视频流中存在多个人物,则处于中心位置的人物是最主要的人物,显示设备可选择该人物作为第一人物。在一些实施例中,显示设备也可根据其他规则从多个人物中确定第一人物,例如,将人脸识别概率最大的人物作为第一人物。
步骤S203:如果第一视频流中仅存在一个人物,将该人物确定为第一人物。
步骤S204:如果第一视频流中不存在人物,则获取所述第一视频流的下一帧。
此时,可不对该视频帧做进一步处理,获取第一视频流的下一帧图像,再检测人物数量。
在一些实施例中,显示设备根据第一视频流中的人物尺寸参数对第二视频流中的人物进行尺寸调整,其中,第二视频流中的人物数量也可能存在多种情况,显示设备可先从第二视频流中确定一个第二人物,只对该第二人物进行尺寸调整,第二人物的选取方法可参见图13,包括步骤S211-S214。
步骤S211:检测摄像头采集的图像中的人物数量。
利用人脸检测算法对摄像头采集的一帧图像进行人脸检测,可得到人物数量。一帧图像中可能识别出一个人物,也可能识别出多个人物,还可能未识别出人物。需要进行跟练的用户通常是一个人物,该人物可称为第二人物。
步骤S212:如果摄像头采集的图像中存在多个人物,将位于多个人物的中心位置的人物确定为第二人物。
在一些实施例中,如果摄像头采集的图像中存在多个人物,则处于中心位置的人物是最主要的人物,显示设备可选择该人物作为第二人物。在一些实施例中,显示设备也可根据其他规则从多个人物中确定第二人物,例如,将人脸识别概率最大的人物作为第二人物。
步骤S213:如果摄像头采集的图像中仅存在一个人物,将该人物确定为第二人物。
步骤S214:如果摄像头采集的图像中不存在人物,则获取摄像头采集的图像中的下一帧图像。
此时,可不对该帧图像做进一步处理,获取摄像头采集的下一帧图像,再检测人物数量。
在一些实施例中,显示设备获取第一人物的尺寸参数的方法可参见图14,包括步骤S301-S303。
步骤S301:根据人脸算法识别所述第一视频流在拍摄时的第一人物与所述第一视频流的拍摄位置之间的第一距离。
在一些实施例中,第一人物与第一视频流在拍摄时的拍摄位置之间的距离可称为第一距离,用Dist1来表示。通过人脸识别算法可计算出该第一距离,例如,识别出人脸后,可计算该第一视频流中人脸的两个眼睛之间的距离,根据人类的两个眼睛之间的实际距离,利用小孔成像原理,可计算出该第一距离。
在一些实施例中,通过姿态估计算法可识别出骨骼关键点的位置,其中,姿态估计算法可基于深度学习模型得到,深度学习模型通过对大量人为标注的骨骼关键点图像进行深度学习,可实现预测人体的骨骼关键点。如图15所示,通过姿态估计算法可识别出第一人物的骨骼关键点,其中,眼部的骨骼关键点分别为E1和E2,根据E1和E2可计算该第一视频流中人脸的两个眼睛之间的距离。
在一些实施例中,根据人脸与摄像头之间的距离可以计算出人体的身高,将人体的身高可作为调整第二人物的参数。在一些实施例中,第一视频流中的人体的身高,也可以根据第一视频流中的人脸与摄像头之间的距离计算出,因此,也可只分别计算人脸与摄像头之间的距离,不计算人体的身高,将人脸与摄像头之间的距离作为调整第二人物尺寸的参数。
进一步的,在一些实施例中,还可计算第一人物的骨骼关键点的中心位置G1,根据该骨骼关键点的中心位置G1,计算第二人物的贴图位置,例如,在得到G1后,可计算同一水平线上与G1相距d的位置,将该位置设为第二人物的贴图位置G2,在将第二人物进行尺寸调整后,可将第二人物贴图到G2处,使第二人物的骨骼关键点的中心位置位于G2。其中,距离d可根据G1与显示设备的两个边缘之间的距离进行自适应调整,例如,当G1与显示设备的左侧边缘之间的距离相对较小,G1与显示设备的右侧边缘之间的距离相对较大时,可设置d为正值,反之则设置d为负值,其中,当d为正值时,G2位于G1的右侧,当d为负值时,G2位于G1的左侧。
步骤S302:获取所述第一视频流的窗口在所述显示器上的第一屏幕占比。
在一些实施例中,显示设备的屏幕比例为16:9,第一视频流的屏幕比例可能为16:9、18:9、4:3等多种情况。如果第一视频流的屏幕比例与显示设备的屏幕比例一致,则第一视频流在播放时,第一视频流的窗口在显示设备的显示器上的第一屏幕占比可为1.0。如果第一视频流的屏幕比例与显示设备的屏幕比例不一致,则第一屏幕占比可能小于1.0。第一屏幕占比可用p1来表示。
步骤S303:获取所述第一视频流的片源的第一分辨率。
第一视频流的片源的分辨率可称为第一分辨率,该第一分辨率可用R1表示,R1为二维数组,R1=(R11,R12)。在一些实施例中,R1=720p,即R11=720,R12=1080,或R1=1080p,即R11=1080,R12=1920。
根据步骤S301-S303得到的第一距离、第一屏幕占比和第一分辨率,可作为第一人物的人物尺寸参数。
在一些实施例中,显示设备获取第二人物的尺寸参数的方法可参见图16,包括步骤S311-S313。
步骤S311:根据人脸算法识别所述摄像头采集的图像中的第二人物与所述摄像头之间的第二距离。
在一些实施例中,第二人物显示设备的摄像头之间的距离可称为第二距离,用Dist2来表示。通过人脸识别算法可计算出该第二距离,该第二距离的计算方法与第一距离的计算方法可相同,在此不再详细描述。
步骤S312:获取所述摄像头采集的图像的窗口在所述显示器上的第二屏幕占比。
在一些实施例中,摄像头采集的图像可为全屏图像,即摄像头采集的图像在所述显示器上的占比可为1.0,该占比可称为第二屏幕占比,第二屏幕占比可用p2来表示。
在一些实施例中,摄像头采集的图像也可为非全屏图像,例如,第二屏幕占比还可为50%。
步骤S313:获取所述摄像头采集的图像的第二分辨率。
摄像头采集的图像的可称为第二分辨率,该第二分辨率可用R2表示,R2为二维数组,R2=(R21,R22)。在一些实施例中,第二分辨率为720p,或1080p,或其他分辨率。
根据步骤S701-S703得到的第二距离、第二屏幕占比和第二分辨率,可作为第二人物的人物尺寸参数。
在一些实施例中,显示设备得到第一人物的人物尺寸参数和第二人物的人物尺寸参数后,如果需要将第二人物混合到第一视频流中,可将第二人物从第二视频流中提取出来。通过背景分割算法可将第二人物从第二视频流中提取出来。例如,根据第二视频流中的人物边界与背景的灰度突变性,选取一个灰度阈值,根据该灰度阈值度对第二视频流中的像素点进行分割,从而将第二人物从第二视频流中提取出来。
在一些实施例中,将第二人物从第二视频流中提取出来后,可根据第一人物的人物尺寸参数对第二人物的尺寸进行调整,调整方法如下:计算所述第二距离与第一距离的距离比值、所述第一屏幕占比与第二屏幕占比的占比比值以及所述第一分辨率与第二分辨率的分辨率比值;计算所述距离比值、占比比值和分辨率比值的乘积,得到调整比例;将所述第二视频流中的人物按照所述调整比例进行缩放。
根据上述调整方法,可得到如下调整公式:
width_ratio=(Dist2/Dist1)*(p1/p2)*(R11/R21)
high_ratio=(Dist2/Dist1)*(p1/p2)*(R12/R22)
F1={width_ratio,high_ratio}
其中,(Dist2/Dist1)为第二距离与第一距离的距离比值,(p1/p2)为所述第一屏幕占比与第二屏幕占比的占比比值,(R11/R21)为所述第一分辨率与第二分辨率在横向上的分辨率比值,(R12/R22)为所述第一分辨率与第二分辨率在纵向上的分辨率比值;F1为第二人物的尺寸需要调整的比例,width_ratio为第二人物需要调整的宽度比例,high_ratio为第二人物需要调整的高度比例。
在一些实施例中,Dist1=1.8米,p1=1.0,R1=720p,Dist2=2.0米,p2=1.0,R2=1080p,则计算出的width_ratio=(2.0/1.8)*(1.0/1.0)*(1280/1920)=0.7407,high_ratio=(2.0/1.8)*(1.0/1.0)*(720/1080)=0.7407,F1={0.7407,0.7407},则将第二人物的高度和宽度分别缩小0.7407倍,得到尺寸调整后的第二人物。
在一些实施例中,将尺寸调整后的第二人物贴图到所述第一视频流中,可生成混合视频流,显示设备控制显示器显示该混合视频流,可使用户在显示设备上同时看到第一视频流中的第一人物和自己,从而将自己的动作与第一人物的动作进行比较,提升跟练效果。
根据上述实施例中的人像混合方法,图6和图7的人像混合效果可参见图17-图19。
参见图17,在一些实施例中,显示设备可将第二视频流中的人物提取出来,进行尺寸调整后贴图到第一视频流中,得到以第一视频流中的背景为背景的混合视频流,该混合视频流为AR混合视频流。
参见图18,在一些实施例中,显示设备可将第一视频流中的人物提取出来,进行尺寸调整后贴图到第二视频流中,得到以第二视频流中的背景为背景的混合视频流。
参见图19,在一些实施例中,显示设备可将第二视频流中的人物提取出来,进行尺寸调整后和从第一视频流中提取出的人物一并贴图到第三视频流中,得到以第三视频流的背景为背景的混合视频流,该混合视频流为AR混合视频流。
由上述实施例可见,本申请实施例通过摄像头采集用户图像,并分析用户打开的第一视频流中的人像尺寸与摄像头采集的图像中的人像尺寸,对摄像头采集的图像中的人像尺寸进行调整,然后将摄像头采集的图像中的人像进行背景分割,将背景分割后的人像贴图到第一视频流中,使用户可以在显示设备上同时看到自己的图像与第一视频流中的人像,进而可进行动作,对比,提升视频观看体验。
由于以上实施方式均是在其他方式之上引用结合进行说明,不同实施例之间均具有相同的部分,本说明书中各个实施例之间相同、相似的部分互相参见即可。在此不再详细阐述。
需要说明的是,在本说明书中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或暗示这些实体或操作之间存在任何这种实际的关系或顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的电路结构、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种电路结构、物品或者设备所固有的要素。在没有更多限制的情况下,有语句“包括一个……”限定的要素,并不排除在包括要素的电路结构、物品或者设备中还存在另外的相同要素。
本领域技术人员在考虑说明书及实践这里发明的公开后,将容易想到本申请的其他实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由权利要求的内容指出。以上的本申请实施方式并不构成对本申请保护范围的限定。

Claims (9)

1.一种显示设备,其特征在于,包括:
显示器;
控制器,与所述显示器连接,所述控制器被配置为:
获取第一视频流中的第一人物在拍摄时的第一距离、第一屏幕占比和第一分辨率;其中,所述第一距离为所述第一人物在拍摄时与所述第一视频流的拍摄位置之间的距离;所述第一屏幕占比为所述第一视频流的窗口在所述显示器上的占比;所述第一分辨率为所述第一视频流的片源分辨率;
获取第二视频流中的第二人物在拍摄时的第二距离、第二屏幕占比和第二分辨率;其中,所述第二距离为所述第二人物在拍摄时与所述第二视频流的拍摄位置之间的距离;所述第二屏幕占比为所述第二视频流的窗口在所述显示器上的占比;所述第二分辨率为所述第二视频流的片源分辨率;
计算所述第二距离与第一距离的距离比值、所述第一屏幕占比与第二屏幕占比的占比比值以及所述第一分辨率与第二分辨率的分辨率比值;
计算所述距离比值、占比比值和分辨率比值的乘积,得到调整比例;
将所述第二视频流中的第二人物按照所述调整比例进行缩放;
将尺寸调整后的第二视频流中的人物贴图到所述第一视频流中,生成并控制所述显示器播放混合视频流。
2.根据权利要求1所述的显示设备,其特征在于,所述控制器还被配置为:
根据人脸算法识别所述第一视频流中的人物在拍摄时与所述第一视频流的拍摄位置之间的第一距离;
获取所述第一视频流的窗口在所述显示器上的第一屏幕占比;
获取所述第一视频流的片源的第一分辨率;
所述第一视频流中的人物尺寸参数包括所述第一距离、第一屏幕占比和第一分辨率。
3.根据权利要求2所述的显示设备,其特征在于,所述控制器还被配置为:
根据人脸算法识别所述第二视频流中的人物在拍摄时与所述第二视频流的拍摄位置之间的第二距离;
获取所述第二视频流的窗口在所述显示器上的第二屏幕占比;
获取所述第二视频流的片源的第二分辨率。
4.根据权利要求1所述的显示设备,其特征在于,所述控制器还被配置为:
在播放第一视频流之前,接收用户输入的所述第一视频流的播放模式指令;
根据所述播放模式指令为跟练模式指令,控制所述显示器播放所述第一视频流,并开启与所述控制器通信连接的摄像头;
分别获取所述第一视频流中的人物尺寸参数和第二视频流中的人物尺寸参数,其中,所述第二视频流为所述摄像头采集的视频流。
5.根据权利要求1所述的显示设备,其特征在于,所述控制器还被配置为:
在第一视频流的播放期间,接收用户输入的摄像头开启指令;
响应于所述摄像头开启指令,开启与所述控制器通信连接的摄像头;
分别获取所述第一视频流中的人物尺寸参数和第二视频流中的人物尺寸参数,其中,所述第二视频流为所述摄像头采集的视频流。
6.一种显示设备,其特征在于,包括:
显示器;
控制器,与所述显示器连接,所述控制器被配置为:
获取第一视频流中的第一人物在拍摄时的第一距离、第一屏幕占比和第一分辨率;其中,所述第一距离为所述第一人物在拍摄时与所述第一视频流的拍摄位置之间的距离;所述第一屏幕占比为所述第一视频流的窗口在所述显示器上的占比;所述第一分辨率为所述第一视频流的片源分辨率;
获取第二视频流中的第二人物在拍摄时的第二距离、第二屏幕占比和第二分辨率;其中,所述第二距离为所述第二人物在拍摄时与所述第二视频流的拍摄位置之间的距离;所述第二屏幕占比为所述第二视频流的窗口在所述显示器上的占比;所述第二分辨率为所述第二视频流的片源分辨率;
计算所述第二距离与第一距离的距离比值、所述第一屏幕占比与第二屏幕占比的占比比值以及所述第一分辨率与第二分辨率的分辨率比值;
计算所述距离比值、占比比值和分辨率比值的乘积,得到调整比例;
将所述第二视频流中的第二人物按照所述调整比例进行缩放;
将第一视频流中的第一人物和尺寸调整后的第二视频流中的第二人物贴图到第三视频流中,生成并控制所述显示器播放混合视频流。
7.一种人像混合方法,用于显示设备,其特征在于,所述方法包括:
获取第一视频流中的第一人物在拍摄时的第一距离、第一屏幕占比和第一分辨率;其中,所述第一距离为所述第一人物在拍摄时与所述第一视频流的拍摄位置之间的距离;所述第一屏幕占比为所述第一视频流的窗口在显示器上的占比;所述第一分辨率为所述第一视频流的片源分辨率;
获取第二视频流中的第二人物在拍摄时的第二距离、第二屏幕占比和第二分辨率;其中,所述第二距离为所述第二人物在拍摄时与所述第二视频流的拍摄位置之间的距离;所述第二屏幕占比为所述第二视频流的窗口在所述显示器上的占比;所述第二分辨率为所述第二视频流的片源分辨率;
计算所述第二距离与第一距离的距离比值、所述第一屏幕占比与第二屏幕占比的占比比值以及所述第一分辨率与第二分辨率的分辨率比值;
计算所述距离比值、占比比值和分辨率比值的乘积,得到调整比例;
将所述第二视频流中的第二人物按照所述调整比例进行缩放;
将尺寸调整后的第二视频流中的第二人物贴图到所述第一视频流中,生成并控制显示器播放混合视频流。
8.根据权利要求7所述的人像混合方法,其特征在于,所述第一视频流中的人物尺寸参数包括第一距离、第一屏幕占比和第一分辨率,其中,所述第一距离为所述第一视频流中的人物在拍摄时与所述第一视频流的拍摄位置之间的第一距离,所述第一屏幕占比为所述第一视频流的窗口在所述显示器上的第一屏幕占比,所述第一分辨率为所述第一视频流的片源的分辨率。
9.根据权利要求8所述的人像混合方法,其特征在于,所述根据第一视频流中的人物尺寸参数对第二视频流中的人物进行尺寸调整,包括:
根据所述第一视频流中的人物尺寸参数与所述第二视频流中的人物尺寸参数之间的比值得到调整比例;
根据所述调整比例对所述第二视频流中的人物进行尺寸调整。
CN202011119894.8A 2020-10-19 2020-10-19 显示设备及人像混合方法 Active CN114449179B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011119894.8A CN114449179B (zh) 2020-10-19 2020-10-19 显示设备及人像混合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011119894.8A CN114449179B (zh) 2020-10-19 2020-10-19 显示设备及人像混合方法

Publications (2)

Publication Number Publication Date
CN114449179A CN114449179A (zh) 2022-05-06
CN114449179B true CN114449179B (zh) 2024-05-28

Family

ID=81357344

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011119894.8A Active CN114449179B (zh) 2020-10-19 2020-10-19 显示设备及人像混合方法

Country Status (1)

Country Link
CN (1) CN114449179B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101089947A (zh) * 2006-06-16 2007-12-19 索尼株式会社 视频信号处理设备和显示器
CN101155289A (zh) * 2006-09-26 2008-04-02 佳能株式会社 图像控制设备和图像控制方法
CN101272464A (zh) * 2003-06-02 2008-09-24 迪斯尼实业公司 消费者视频播放器的编程窗口控制的系统和方法
WO2014034464A1 (ja) * 2012-08-31 2014-03-06 ソニー株式会社 データ処理装置、データ処理方法、送信装置および受信装置
CN106162221A (zh) * 2015-03-23 2016-11-23 阿里巴巴集团控股有限公司 直播视频的合成方法、装置及系统
CN106303289A (zh) * 2015-06-05 2017-01-04 福建凯米网络科技有限公司 一种将真实对象与虚拟场景融合显示的方法、装置及系统
CN108156520A (zh) * 2017-12-29 2018-06-12 珠海市君天电子科技有限公司 视频播放方法、装置、电子设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101272464A (zh) * 2003-06-02 2008-09-24 迪斯尼实业公司 消费者视频播放器的编程窗口控制的系统和方法
CN101089947A (zh) * 2006-06-16 2007-12-19 索尼株式会社 视频信号处理设备和显示器
CN101155289A (zh) * 2006-09-26 2008-04-02 佳能株式会社 图像控制设备和图像控制方法
WO2014034464A1 (ja) * 2012-08-31 2014-03-06 ソニー株式会社 データ処理装置、データ処理方法、送信装置および受信装置
CN106162221A (zh) * 2015-03-23 2016-11-23 阿里巴巴集团控股有限公司 直播视频的合成方法、装置及系统
CN106303289A (zh) * 2015-06-05 2017-01-04 福建凯米网络科技有限公司 一种将真实对象与虚拟场景融合显示的方法、装置及系统
CN108156520A (zh) * 2017-12-29 2018-06-12 珠海市君天电子科技有限公司 视频播放方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN114449179A (zh) 2022-05-06

Similar Documents

Publication Publication Date Title
CN113330736A (zh) 一种显示器及图像处理方法
CN112866773B (zh) 一种显示设备及多人场景下摄像头追踪方法
CN111984763B (zh) 一种答问处理方法及智能设备
CN111818378B (zh) 显示设备及人物识别展示的方法
CN111836083B (zh) 显示设备及屏幕发声方法
CN111669662A (zh) 显示设备、视频通话方法及服务器
CN113630569B (zh) 显示设备及显示设备的控制方法
CN111939561B (zh) 显示设备及交互方法
CN111984167B (zh) 一种快捷命名的方法及显示设备
CN112289271B (zh) 显示设备及调光方式切换方法
CN112162764A (zh) 显示设备、服务器以及摄像头软件升级方法
CN114449179B (zh) 显示设备及人像混合方法
CN112199560B (zh) 一种设置项的搜索方法及显示设备
CN112261289B (zh) 显示设备及ai算法结果获取方法
CN112399235B (zh) 一种智能电视的摄像头拍照效果增强方法及显示设备
CN113542878B (zh) 一种基于人脸识别与手势检测的唤醒方法及显示设备
CN112073777B (zh) 一种语音交互方法及显示设备
CN111931692A (zh) 显示设备及图像识别方法
CN111988649A (zh) 一种控件分离放大方法及显示设备
CN113807375B (zh) 一种显示设备
CN114554266B (zh) 显示设备及显示方法
CN113587812B (zh) 显示设备、测量方法及装置
CN113645502B (zh) 一种动态调整控件的方法及显示设备
CN113825001B (zh) 全景图片浏览方法及显示设备
CN114945102B (zh) 显示设备及人物识别展示的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant