CN113473239A - 智能终端、服务器和图像处理方法 - Google Patents
智能终端、服务器和图像处理方法 Download PDFInfo
- Publication number
- CN113473239A CN113473239A CN202010683194.5A CN202010683194A CN113473239A CN 113473239 A CN113473239 A CN 113473239A CN 202010683194 A CN202010683194 A CN 202010683194A CN 113473239 A CN113473239 A CN 113473239A
- Authority
- CN
- China
- Prior art keywords
- image
- target object
- human body
- target
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 24
- 239000002131 composite material Substances 0.000 claims description 26
- 230000004044 response Effects 0.000 claims description 22
- 238000000034 method Methods 0.000 claims description 20
- 230000015572 biosynthetic process Effects 0.000 claims description 8
- 238000003786 synthesis reaction Methods 0.000 claims description 8
- 230000001960 triggered effect Effects 0.000 claims description 7
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 4
- 230000037237 body shape Effects 0.000 claims description 3
- 238000005286 illumination Methods 0.000 abstract description 11
- 239000002699 waste material Substances 0.000 abstract description 4
- 238000004891 communication Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 230000003993 interaction Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000000977 initiatory effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000003999 initiator Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Abstract
本公开公开了一种智能终端、服务器和图像处理方法。在本公开实施例中,通过智能终端响应于参与合照的任一目标对象所发起的合照指示,获取并展示用于合照的引导界面给各目标对象,以便于引导各目标对象进行跨屏合照。然后由服务器对各目标对象上传的图像进行图像处理,得到合成图像,并分发给各目标对象,从而实现智能终端的跨屏合照功能。通过实现用户在视频通话场景下参与合照的功能,解决了用户在执行视频通话的相关操作时,视频通话功能简单,有些用户需求无法满足,导致处理器空闲资源未能得到充分利用,造成资源浪费的问题。
Description
技术领域
本公开涉及智能终端技术领域,特别涉及一种智能终端、服务器和图像处理方法。
背景技术
随着视频通话技术在智能终端上的广泛应用,人们可以通过智能终端进行跨屏社交。而基于单一视频通话场景下的跨屏社交已无法满足用户需求,这种状况多存在的问题是:执行视频通话的相关操作时,视频通话功能简单,有些用户需求无法满足,导致处理器空闲资源未能得到充分利用,造成资源浪费。
发明内容
本公开的目的是提供一种智能终端、服务器和图像处理方法。用于解决现有技术中,由于基于单一视频通话场景下的跨屏社交已无法满足用户需求的情况,所造成的当智能终端在处理器性能较高时,如果仅执行视频通话的相关操作,处理器空闲资源未能得到充分利用,造成资源浪费的问题。
第一方面,本公开提供了一种智能终端,包括:显示器、图像采集器、存储器和控制器,其中:
所述显示器用于显示信息;
所述图像采集器,用于采集图像;
所述存储器,用于存储可被所述控制器执行的计算机程序;
所述控制器,所述控制器分别连接所述显示器、所述图像采集器和所述存储器,被配置为:
在第一目标对象和至少一个第二目标对象通过智能终端进行视频通话时,响应于所述第一目标对象或所述第二目标对象的合照指示,获取用于合照的引导界面数据后控制所述显示器展示所述引导界面;
响应于对所述引导界面触发的图像采集指示,控制所述图像采集器采集所述第一目标对象的待处理图像;
所述控制器连接所述图像采集器,被配置为将所述图像采集器采集的所述第一目标对象的所述待处理图像发送给服务器,以使所述服务器将所述第一目标对象的待处理图像与各所述第二目标对象的待处理图像进行合成,得到合成图像;
接收并控制所述显示器展示所述服务器发送的所述合成图像后存储所述合成图像。
在一些可能的实施例中,所述引导界面中包括:用于设置背景图像的第一操作项;所述控制器在执行所述将采集的所述第一目标对象的所述待处理图像发送给服务器之前,还被配置为:
响应于对所述引导界面中的所述第一操作项的操作指示,确定用于合照的背景图像,并通知给所述服务器。
在一些可能的实施例中,所述引导界面中包括:用于设置推荐的拍照姿势的第二操作项;所述控制器在执行所述将采集的所述第一目标对象的所述待处理图像发送给服务器之前,还被配置为:
响应于对所述引导界面中的所述第二操作项的操作指示,在所述引导界面中显示所述第一目标对象选择的推荐拍照姿势。
在一些可能的实施例中,所述引导界面中包括:用于设置体型数据的第三操作项;所述控制器在执行所述将采集的所述第一目标对象的所述待处理图像发送给服务器之后,还被配置为:
响应于对所述引导界面中的所述第三操作项的操作指示,获取各待合成的人体目标的体型数据并通知给所述服务器,以使所述服务器各所述人体目标的体型数据,调整不同人体目标的相对尺寸;
其中,所述体型数据包括身高、体重;根据所述体型数据确定所述合成图像中各所述参与合照的目标对象的人体图像尺寸。
第二方面,本公开提供了一种服务器,包括存储器和处理器,其中:
所述存储器,用于存储可被所述处理器执行的计算机程序;
所述处理器,所述处理器连接所述存储器,被配置为:在第一目标对象和至少一个第二目标对象通过智能终端进行视频通话时,若接收到所述第一目标对象的智能终端或所述第二目标对象的智能终端发送的合照指示,则控制所述第一目标对象和所述第二目标对象的智能终端均展示用于合照的引导界面;
接收所述第一目标对象的智能终端和各所述第二目标对象的智能终端各自发送的待处理图像;
将所述第一目标对象和各所述第二目标对象的待处理图像进行合成,得到合成图像;
将所述合成图像分发给所述第一目标对象的智能终端和各所述第二目标对象的智能终端。
在一些可能的实施例中,所述处理器将第一目标对象和各所述第二目标对象的待处理图像进行合成,得到合成图像时,被配置为:
分别从各所述待处理图像中分割出各人体目标的人体图像;
将分割出的所述人体图像融合到用于合照的背景图像中。
在一些可能的实施例中,所述处理器将分割出的所述人体图像融合到用于合照的背景图像时,被配置为:
将所述人体目标的所述人体图像进行图像处理,得到所述人体目标的掩膜图像;所述掩膜图像中记录有属于所述人体目标的像素点以及所述人体目标之外的像素点;
确定所述人体目标在所述背景图像的合成区域之后,以所述人体图像的掩模图像为模板,将所述背景图像中属于所述人体目标的像素点位置的像素值替换为所述人体图像的像素值。
在一些可能的实施例中,所述处理器确定所述人体目标在所述背景图像的合成区域时,被配置为:
统计所有待处理图像中人体目标的总数量N;N为大于或等于2的正整数;
根据所述人体目标的总数量,将所述背景图像划分为M个不重叠的合成区域,且每个人体目标与一个区域对应,所述M大于或等于N。
第三方面,本公开还体用一种图像处理方法,应用于智能终端,所述方法包括:
在第一目标对象和至少一个第二目标对象通过智能终端进行视频通话时,响应于所述第一目标对象或所述第二目标对象的合照指示,获取并展示用于合照的引导界面;
响应于对所述引导界面触发的图像采集指示,采集第一目标对象的待处理图像;
将采集的所述第一目标对象的所述待处理图像发送给服务器,以使所述服务器将所述第一目标对象的待处理图像与各所述第二目标对象的待处理图像进行合成,得到合成图像;
接收并展示所述服务器发送的所述合成图像。
在一些可能的实施例中,所述引导界面中包括:用于设置背景图像的第一操作项;所述将采集的所述第一目标对象的所述待处理图像发送给服务器之前,还包括:
响应于对所述引导界面中的所述第一操作项的操作指示,确定用于合照的背景图像,并通知给所述服务器。
在一些可能的实施例中,所述引导界面中包括:用于设置推荐的拍照姿势的第二操作项;所述将采集的所述第一目标对象的所述待处理图像发送给服务器之前,还包括:
响应于对所述引导界面中的所述第二操作项的操作指示,在所述引导界面中显示所述第一目标对象选择的推荐拍照姿势。
在一些可能的实施例中,所述引导界面中包括:用于设置体型数据的第三操作项;所述将采集的所述第一目标对象的所述待处理图像发送给服务器之后,还包括:
响应于对所述引导界面中的所述第三操作项的操作指示,获取各待合成的人体目标的体型数据并通知给所述服务器,以使所述服务器各所述人体目标的体型数据,调整不同人体目标的相对尺寸;
其中,所述体型数据包括身高、体重;根据所述体型数据确定所述合成图像中各所述参与合照的目标对象的人体图像尺寸。
第四方面,本公开还提供一种图像处理方法,应用于服务器,所述方法包括:
在第一目标对象和至少一个第二目标对象通过智能终端进行视频通话时,若接收到所述第一目标对象的智能终端或所述第二目标对象的智能终端发送的合照指示,则控制所述第一目标对象和所述第二目标对象的智能终端均展示用于合照的引导界面;
接收所述第一目标对象的智能终端和各所述第二目标对象的智能终端各自发送的待处理图像;
将所述第一目标对象和各所述第二目标对象的待处理图像进行合成,得到合成图像;
将所述合成图像分发给所述第一目标对象的智能终端和各所述第二目标对象的智能终端。
在一些可能的实施例中,所述将所述第一目标对象和各所述第二目标对象的待处理图像进行合成,得到合成图像,包括:
分别从各所述待处理图像中分割出各人体目标的人体图像;
将分割出的所述人体图像融合到用于合照的背景图像中。
在一些可能的实施例中,所述将分割出的所述人体图像融合到用于合照的背景图像,包括:
将所述人体目标的所述人体图像进行图像处理,得到所述人体目标的掩膜图像;所述掩膜图像中记录有属于所述人体目标的像素点以及所述人体目标之外的像素点;
确定所述人体目标在所述背景图像的合成区域之后,以所述人体图像的掩模图像为模板,将所述背景图像中属于所述人体目标的像素点位置的像素值替换为所述人体图像的像素值。
在一些可能的实施例中,所述确定所述人体目标在所述背景图像的合成区域,包括:
统计所有待处理图像中人体目标的总数量N;N为大于或等于2的正整数;
根据所述人体目标的总数量,将所述背景图像划分为M个不重叠的合成区域,且每个人体目标与一个区域对应,所述M大于或等于N。
在本公开实施例中,通过智能终端在视频通话中为用户提供合照的功能用于解决用户在执行视频通话的相关操作时,视频通话功能简单,有些用户需求无法满足,导致处理器空闲资源未能得到充分利用,造成资源浪费的问题。
本公开的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本公开而了解。本公开的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对本公开实施例中所需要使用的附图作简单地介绍,显而易见地,下面所介绍的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A为本公开一些实施例提供的一种图像处理方法的应用场景图;
图1B为本公开一些实施例提供的一种智能电视的后视图;
图2为本公开一些实施例提供的图1A中控制装置100的硬件配置框图;
图3A为本公开一些实施例提供的图1A中智能电视200的硬件配置框图;
图3B为本公开一些实施例提供的图1A中服务器300的结构图;
图3C为本公开一些实施例提供的一种图像处理方法的时序图;
图4a为本公开一些实施例提供的引导界面示意图;
图4b为本公开一些实施例提供的经人体分割后的图像示意图;
图4c为本公开一些实施例提供的图像处理后的人体图像示意图;
图4d为本公开一些实施例提供的掩膜图像示意图;
图4e为本公开一些实施例提供的合成图像示意图;
图5为本公开一些实施例提供的图像处理方法流程示意图。
图6为本公开一些实施例提供的图像处理方法的另一流程图。
具体实施方式
为进一步说明本公开实施例提供的技术方案,下面结合附图以及具体实施方式对此进行详细的说明。虽然本公开实施例提供了如下述实施例或附图所示的方法操作步骤,但基于常规或者无需创造性的劳动在方法中可以包括更多或者更少的操作步骤。在逻辑上不存在必要因果关系的步骤中,这些步骤的执行顺序不限于本公开实施例提供的执行顺序。方法在实际的处理过程中或者控制设备执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行。
显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本公开保护的范围。本公开实施例中″第一″、″第二″仅用于描述目的,而不能理解为暗示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有″第一″、″第二″的特征可以明示或者隐含地包括一个或者更多个该特征,在本公开实施例的描述中,除非另有说明,术语″多个″是指两个或两个以上,其它量词与之类似应当理解,此处所描述的优选实施例仅用于说明和解释本公开,并不用于限定本公开,并且在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合。
本公开实施例提供的图像处理方法均适用于智能终端,该智能终端包括但不限于:计算机、智能手机、智能手表、智能电视、智能机器人等。下面以智能电视为例,详细本公开提供的图像处理方法。
随着视频通话技术在智能电视上的广泛应用,人们可以通过智能电视进行跨屏社交。而基于单一视频通话场景下的跨屏社交已无法满足用户需求,这种状况多存在的问题是,处理器性能较高时如果仅执行视频通话的相关操作,处理器空闲资源未能得到充分利用,造成资源浪费。有鉴于此,本公开提出了一种图像处理方法、装置、电子设备和存储介质,用于解决上述问题。
本公开提供的一种图像处理方法,首先可通过智能电视响应于参与合照的任一目标对象所发起的合照指示,获取并展示用于合照的引导界面给各目标对象,以便于引导各目标对象进行跨屏合照。然后由服务器对各目标对象上传的图像进行图像处理,得到合成图像,并分发给各目标对象,从而实现智能电视的跨屏合照功能。
进一步的,本公开在引导界面中提供了选择背景图像、设置推荐的拍照姿势与设置体型数据的操作项,服务器可根据智能电视传递的背景图像尺寸推荐最大参与合照人数,根据智能电视传递的体型数据智能调整各目标对象的待处理图像的尺寸,进一步保证合成照片的用户满意度及成像效果。
下面结合附图对本公开实施例中的图像处理方法进行详细说明。
参见图1A,为本公开一些实施例提供的一种图像处理的应用场景图。如图1A所示,控制装置100和智能电视200之间可以有线或无线方式进行通信。
其中,控制装置100被配置为控制智能电视200,其可接收用户输入的操作指令,且将操作指令转换为智能电视200可识别和响应的指令,起着用户与智能电视200之间交互的中介作用。如:用户通过操作控制装置100上频道加减键,智能电视200响应频道加减的操作。
控制装置100可以是遥控器100A,包括红外协议通信或蓝牙协议通信,及其他短距离通信方式等,通过无线或其他有线方式来控制智能电视200。用户可以通过遥控器上按键、语音输入、控制面板输入等输入用户指令,来控制智能电视200。如:用户可以通过遥控器上音量加减键、频道控制键、上/下/左/右的移动按键、语音输入按键、菜单键、开关机按键等输入相应控制指令,来实现控制智能电视200的功能。
控制装置100也可以是智能设备,如移动终端100B、平板电脑、计算机、笔记本电脑等。例如,使用在智能设备上运行的应用程序控制智能电视200。该应用程序通过配置可以在与智能设备关联的屏幕上,通过直观的用户界面(UI)为用户提供各种控制。
示例性的,移动终端100B可与智能电视200安装软件应用,通过网络通信协议实现连接通信,实现一对一控制操作的和数据通信的目的。如:可以使移动终端100B与智能电视200建立控制指令协议,通过操作移动终端100B上提供的用户界面的各种功能键或虚拟控件,来实现如遥控器100A布置的实体按键的功能。也可以将移动终端100B上显示的音视频内容传输到智能电视200上,实现同步显示功能。
智能电视200可提供广播接收功能和计算机支持功能的网络电视功能。智能电视可以实施为,数字电视、网络电视、互联网协议电视(IPTV)等。
智能电视200,可以是液晶显示器、有机发光显示器、投影设备。具体智能电视类型、尺寸大小和分辨率等不作限定。
智能电视200还与服务器300通过多种通信方式进行数据通信。这里可允许智能电视200通过局域网(LAN)、无线局域网(WLAN)和其他网络进行通信连接。服务器300可以向智能电视200提供各种内容和互动。示例的,智能电视200可以发送和接收信息,例如:接收电子节目指南(EPG)数据、接收软件程序更新、或访问远程储存的数字媒体库。服务器300可以一组,也可以多组,可以一类或多类服务器。通过服务器300提供视频点播和广告服务等其他网络服务内容。
在一些实施例中,如图1B所示,智能电视200包括旋转组件276,控制器250,显示器275,从背板上空隙处伸出的端子接口278以及和背板连接的旋转组件276,旋转组件276可以使显示器275进行旋转。从智能电视正面观看的角度,旋转组件276可以将显示器旋转到竖屏状态,即屏幕竖向的边长大于横向的边长的状态,也可以将屏幕旋转至横屏状态,即屏幕横向的边长大于竖向的边长的状态。
图2中示例性示出了控制装置100的配置框图。如图2所示,控制装置100包括控制器110、存储器120、通信器130、用户输入接口140、用户输出接口150、供电电源160。
控制器110包括随机存取存储器(RAM)111、只读存储器(ROM)112、处理器113、通信接口以及通信总线。控制器110用于控制控制装置100的运行和操作,以及内部各部件之间的通信协作、外部和内部的数据处理功能。
示例性的,当检测到用户按压在遥控器100A上布置的按键的交互或触摸在遥控器100A上布置的触摸面板的交互时腔制器110可控制产生与检测到的交互相应的信号,并将该信号发送到智能电视200。
存储器120,用于在控制器110的控制下存储驱动和控制控制装置100的各种运行程序、数据和应用。存储器120,可以存储用户输入的各类控制信号指令。
通信器130在控制器110的控制下,实现与智能电视200之间控制信号和数据信号的通信。如:控制装置100经由通信器130将控制信号(例如触摸信号或控件信号)发送至智能电视200上,控制装置100可经由通信器130接收由智能电视200发送的信号。通信器130可以包括红外信号接口131和射频信号接口132。例如:红外信号接口时,需要将用户输入指令按照红外控制协议转化为红外控制信号,经红外发送模块进行发送至智能电视200。再如:射频信号接口时,需将用户输入指令转化为数字信号,然后按照射频控制信号调制协议进行调制后,由射频发送端子发送至智能电视200。
用户输入接口140,可包括麦克风141、触摸板142、传感器143、按键144等中至少一者,从而用户可以通过语音、触摸、手势、按压等将关于控制智能电视200的用户指令输入到控制装置100。例如,可根据用户操作生成合照指示并发送给智能电视200。
用户输出接口150,通过将用户输入接口140接收的用户指令输出至智能电视200,或者,输出由智能电视200接收的图像或语音信号。这里,用户输出接口150可以包括LED接口151、产生振动的振动接口152、输出声音的声音输出接口153和输出图像的显示器154等。例如,遥控器100A可从用户输出接口150接收音频、视频或数据等输出信号,并且将输出信号在显示器154上显示为图像形式、在声音输出接口153输出为音频形式或在振动接口152输出为振动形式。
供电电源160,用于在控制器110的控制下为控制装置100各元件提供运行电力支持。形式可以为电池及相关控制电路。
图3A中示例性示出了智能电视200的硬件配置框图。如图3A所示,智能电视200中可以包括调谐解调器210、通信器220、检测器230、外部装置接口240、控制器250、存储器260、用户接口265、视频处理器270、显示器275、旋转组件276、音频处理器280、音频输出接口285、供电电源290。
旋转组件276还可以包括其他部件,如传动部件、检测部件等。其中,传动部件可以通过特定传动比,调整旋转组件276输出的转速和力矩,可以为齿轮传动方式;检测部件可以由设置在旋转轴上的传感器组成,例如角度传感器、姿态传感器等。这些传感器可以对旋转组件276旋转的角度等参数进行检测,并将检测的参数发送给控制器250,以使控制器250能够根据检测的参数判断或调整智能电视200的状态。实际应用中,旋转组件276可以包括但不限于上述部件中的一种或多种。
调谐解调器210,通过有线或无线方式接收广播电视信号,可以进行放大、混频和谐振等调制解调处理,用于从多个无线或有线广播电视信号中解调出用户所选择的电视频道的频率中所携带的音视频信号,以及附加信息(例如EPG数据)。
调谐解调器210,可根据用户选择,以及由控制器250控制,响应用户选择的电视频道的频率以及该频率所携带的电视信号。
调谐解调器210,根据电视信号的广播制式不同,可以接收信号的途径有很多种,诸如:地面广播、有线广播、卫星广播或互联网广播等;以及根据调制类型不同,可以数字调制方式或模拟调制方式;以及根据接收电视信号的种类不同,可以解调模拟信号和数字信号。
通信器220,是用于根据各种通信协议类型与外部设备或外部服务器进行通信的组件。例如智能电视200可将内容数据发送至经由通信器220连接的外部设备,或者,从经由通信器220连接的外部设备浏览和下载内容数据。通信器220可以包括WIFI模块221、蓝牙通信协议模块222、有线以太网通信协议模块223等网络通信协议模块或近场通信协议模块,从而通信器220可根据控制器250的控制接收控制装置100的控制信号,并将控制信号实现为WIFI信号、蓝牙信号、射频信号等。
检测器230,是智能终端200用于采集外部环境或与外部交互的信号的组件。检测器230可以包括声音采集器231,如麦克风,可以用于接收用户的声音,如用户控制智能电视200的控制指令的语音信号;或者,可以采集用于识别环境场景类型的环境声音,实现智能电视200可以自适应环境噪声。
在其他一些示例性实施例中,检测器230,还可以包括图像采集器232,如相机、摄像头等,可以用于采集外部环境场景,以自适应变化智能电视200的显示参数;以及用于采集用户的属性或与用户交互手势,以实现智能电视与用户之间互动的功能。
外部装置接口240,是提供控制器250控制智能电视200与外部设备间数据传输的组件。外部装置接口240可按照有线/无线方式与诸如机顶盒、游戏装置、笔记本电脑等外部设备连接,可接收外部设备的诸如视频信号(例如运动图像)、音频信号(例如音乐)、附加信息(例如EPG)等数据。
控制器250,通过运行存储在存储器260上的各种软件控制程序(如操作系统和各种应用程序),来控制智能电视200的工作和响应用户的操作。
其中,控制器250包括随机存取存储器(RAM)251、只读存储器(ROM)252、图形处理器253、CPU处理器254、通信接口255、以及通信总线256。其中,RAM251、ROM252以及图形处理器253、CPU处理器254通信接口255通过通信总线256相连接。
ROM252,用于存储各种系统启动指令。如在接收到开机信号时,智能电视200电源开始启动,CPU处理器254运行ROM252中的系统启动指令,将存储在存储器260的操作系统拷贝至RAM251中,以开始运行启动操作系统。当操作系统启动完成后,CPU处理器254再将存储器260中各种应用程序拷贝至RAM251中,然后,开始运行启动各种应用程序。
图形处理器253,用于产生各种图形对象,如图标、操作菜单、以及用户输入指令显示图形等。图形处理器253可以包括运算器,用于通过接收用户输入各种交互指令进行运算,进而根据显示属性显示各种对象;以及包括渲染器,用于产生基于运算器得到的各种对象,将进行渲染的结果显示在显示器275上。
CPU处理器254,用于执行存储在存储器260中的操作系统和应用程序指令。以及根据接收的用户输入指令,来执行各种应用程序、数据和内容的处理,以便最终显示和播放各种音视频内容。
通信接口255,可包括第一接口到第n接口。这些接口可以是经由网络被连接到外部设备的网络接口。
控制器250可以控制智能电视200的整体操作。例如:响应于接收到用于选择在显示器275上显示的GUI对象的用户输入命令,控制器250便可以执行与由用户输入命令选择的对象有关的操作。
其中,该对象可以是可选对象中的任何一个,例如超链接或图标。该与所选择的对象有关的操作,例如显示连接到超链接页面、文档、图像等操作,或者执行与对象相对应的程序的操作。该用于选择GUI对象的用户输入命令,可以是通过连接到智能电视200的各种输入装置(例如,鼠标、键盘、触摸板等)输入命令或者与由用户说出语音相对应的语音命令。
存储器260,用于存储驱动和控制智能电视200运行的各种类型的数据、软件程序或应用程序。存储器260可以包括易失性和/或非易失性存储器。而术语″存储器″包括存储器260、控制器250的RAM251和ROM252、或智能电视200中的存储卡。
在本公开实施例中,控制器250被配置为在第一目标对象和至少一个第二目标对象通过智能电视200进行视频通话时,响应于第一目标对象或第二目标对象的合照指示,获取用于合照的引导界面数据后控制显示器275展示引导界面;
控制器250响应于对引导界面触发的图像采集指示,控制图像采集器232采集第一目标对象的待处理图像;
控制器250连接图像采集器232,被配置为将图像采集器232采集的第一目标对象的待处理图像发送给服务器300,以使服务器300将第一目标对象的待处理图像与各第二目标对象的待处理图像进行合成,得到合成图像;
控制器250接收并控制显示器275展示服务器300发送的合成图像,并且由存储器260存储合成图像。关于智能电视的引导界面和其他操作在后文中将详细说明。
图3B中示例性示出了服务器300的硬件配置框图。如图3B所示,服务器300的组件可以包括但不限于:至少一个处理器131、至少一个存储器132、连接不同系统组件(包括存储器132和处理器131)的总线133。
总线133表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器、外围总线、处理器或者使用多种总线结构中的任意总线结构的局域总线。
存储器132可以包括易失性存储器形式的可读介质,例如随机存取存储器(RAM)1321和/或高速缓存存储器1322,还可以进一步包括只读存储器(ROM)1323。
存储器132还可以包括具有一组(至少一个)程序模块1324的程序/实用工具1325,这样的程序模块1324包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
服务器300也可以与一个或多个外部设备134(例如键盘、指向设备等)通信,还可与一个或者多个使得用户能与服务器300交互的设备通信,和/或与使得该服务器300能与一个或多个其它电子设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口135进行。并且,服务器300还可以通过网络适配器136与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器136通过总线133与用于服务器300的其它模块通信。应当理解,尽管图中未示出,可以结合服务器300使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
在一些实施例中,对于待处理图像,处理器131可以采用图像处理技术获取待处理图像中各人体目标的人体图像,并将人体图像融合到用于合照的背景图像中。为了能保证合成图像的画质及真实性,处理器131对每张待处理图像进行人体分割,分割后的待处理图像只保留图像中的人体目标部分图像而其余的背景设置为黑色。
对待处理图像中经过分割后的人体部分进行目标检测得到各待处理图像中的人体目标的数量和位置。例如,以一个人体目标为例,通过目标检测获取到人体框,经待处理图像根据人体边框裁剪后得到基于人体框裁剪出的各个人体目标的人体图像。
需要说明的是,只要能够获取待处理图像的方法均适用于本公开实施例,本公开对此不作限定。
在一些实施方式中,本公开提供的一种图像处理方法的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在计算机设备上运行时,程序代码用于使计算机设备执行本说明书上述描述的根据本公开各种示例性实施方式的一种图像处理方法中的步骤。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以是——但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
本公开的实施方式的用于图像处理的程序产品可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在电子设备上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
在整体介绍了本公开涉及的控制器、智能电视和服务器之后,下面对本公开提供的图像处理方法做进一步说明。以第一目标对象的智能电视400a为发起合照指示端,第二目标对象的智能电视400b为接收合照指示端,如图3C所示,示例性示出了一种图像处理方法的时序图,该示意图包括:智能电视400a、智能电视400b和服务器400c。
在步骤4011中,智能电视400a响应于第一目标对象的合照指示将合照指示发送给服务器400c。
在步骤4012中,服务器400c响应于智能电视400a发送的合照指示,控制智能电视400a和智能电视400b均展示用于合照的引导界面。
其中,在一个实施例中,对于发起合照的用户的智能电视400a,其可以响应于用户操作触发的合照指示,发送引导界面获取请求给服务器以便于在服务器的控制下获得引导界面数据,以便于根据引导界面数据控制自身的显示器显示引导界面。
对于非主动发起合照的用户的智能电视400b,该智能电视400b可以被动接收服务器推送的引导界面数据,并根据该引导界面数据控制自身的显示器显示引导界面。故此,智能电视400a和400b都需要在服务器的控制和配合下完成引导界面数据的下载和展示。
在步骤4013中,智能电视400a和智能电视400b确定引导界面中的各操作项。
在一个实施例中,当第一目标对象为发起合照时,第一目标对象的智能电视400a响应于第一目标对象的合照指示后,第一目标对象的智能电视400a根据合照指示获取并展示引导界面;引导界面中可包括多个操作项,该操作项包括但不限于:选择用于合照的背景图项、设置推荐的拍照姿势,智能电视400a响应于操作指令所确定的引导界面如图4a所示,智能电视400a响应于对引导界面中的第一操作项的操作指示,确定用于合照的背景图像,智能电视400a响应于对引导界面中的第二操作项的操作指示,确定用于合照的拍照姿势;其中,可以默认以发起合照的用户的图像为背景图像。
在另一个实施例中,当第一目标对象为发起合照时,各第二目标对象的引导界面可仅提供部分操作项的功能。例如第二目标对象可选择拍照姿势也可以设定体型数据,也即,为了避免不同目标对象选择不同背景图时导致背景图冲突,可不提供背景图选择的权限给第二目标对象。
其中,可以默认以发起合照的用户的图像为背景图像;操作项包括但不限于:选择用于合照的背景图项、设置推荐的拍照姿势,设置用于合照的体型数据;设置用于合照的体型数据是为了根据体型数据(例如:身高,体重)调整合成图像中各参与合照的目标对象的人体图像尺寸,避免出现与实际出入过大的人体图象,保证合成图像的真实性。另外,为了保证各参与合照的目标对象的隐私性,设置用于合照的体型数据这一操作项的权限由各参与合照的目标对象自行完成,相互之间的体型数据不可见。
为了简化流程,不对各目标对象各操作项的权限进行分析,实施时,也可以将引导界面中所有功能都开放给各目标对象。
在步骤4014中,智能电视400a响应于第一目标对象发送的图像采集指示,使用图像采集器获取第一目标对象的待处理图像;智能电视400b响应于第二目标对象发送的图像采集指示,使用图像采集器获取第二目标对象的待处理图像。
在步骤4015中,智能电视400a将第一目标对象的待处理图像发送给服务器400c;智能电视400ab将第二目标对象的待处理图像发送给服务器400c。
在步骤4016中,服务器400c将受到的待处理图像中,分割出惹人体目标的人体图像。
在一个实施例中,服务器对每张待处理图像进行人体分割,如图4b所示,分割后的待处理图像只保留图像中的人体目标部分图像而其余的背景设置为黑色;
对待处理图像中经过分割后的人体部分进行目标检测,通过目标检测获取图4b中所示的人体边框,经待处理图像根据人体边框裁剪后得到如图4c所示的人体图像。
需要说明的是,只要能够获取待处理图像的方法均适用于本公开实施例,本公开对此不作限定。
在步骤4017中,服务器400c将人体图像进行图像处理,得到掩膜图像。
在步骤4018中,服务器400c确定人体目标在背景图像的合成区域。
在步骤4019中,服务器400c以人体图像的掩膜图像为模板,将人体图像与背景图像相融合,得到合成图像。
在一个实施例中,将人体图像通过图像处理得到该人体图像的掩膜图像,该掩膜图像中记录有属于人体目标的像素点以及人体目标之外的像素点;然后,以人体图像的掩模图像为模板,确定人体目标在背景图像中的合成区域之后,将背景图像中属于人体目标的像素点位置的像素值替换为人体图像的像素值。
为保证参与合成的每个人体图像在合成图像中不会被遮挡或覆盖,本公开提供了如下两种实施方式来确定各人体目标的合成区域,包括:
方式1:在一个实施例中,统计所有待处理图像中人体目标的总数量N,根据人体目标的总数量,服务器将背景图像均匀划分为M个不重叠的合成区域,使每个人体目标可以与所划分的各区域相对应,同时为了保证合成图片的美观程度,还可以对合成图片预设各合成区域的间隔区域和留白区域;
其中,N为大于或等于2的正整数,M大于或等于N。
方式2:考虑到增加用户对合成照片的满意度,还可以由用户预先确定各参与拍照的目标对象在合成图像中的所在位置。例如,智能电视响应于操作指示确定引导界面后,可提供由各参与合照的目标对象设置的合照界面,各目标对象可根据预览在确定引导界面前所确定的推荐拍照姿势,自行设置各推荐拍照姿势。为防止出现各参与合照的目标对象所设置的拍照姿势在合照界面中出现位置重叠或遮挡的情况,由发起者最终调整各目标对象的拍照姿势在引导界面上的位置。当各参与合照的目标对象确认后,服务器根据经过调整后的合照界面中各目标对象拍照姿势在引导界面相对应的位置确定合成图像。
为了保证合成图像看起来真实自然,在获取人体图像的掩膜图像时,由于参与合照的用户中合照光线的不一致会影响合成图像的效果,可采用伽马变换来对参与合成的各人体图像进行处理,通过自适应的调整各人体图像的图像亮度,使其在合成图像中视觉上具有一致性。
由于人体图像在进行人体分割时会根据人体目标轮廓产生具有分割效果的白色锯齿状短边,与背景图像融合后,该白色锯齿状短边会影响合成图像的效果,可通过对掩模图像中的人体目标边缘进行羽化处理,即通过设置滤波器的大小,对图像进行滤波处理,处理后的掩膜图像如图4d所示。
在确定各人体目标的合成区域、对人体图像的亮度以及羽化处理之后,以人体图像的掩模图像为模板,将人体图像作为前景图片,背景图像作为后景图片进行融合,得到如图4e所示的合成图像,人像与背景的融合,也就是前景与后景图片的融合。例如,可将各掩膜图像转化为只含有0、1数值的float类型矩阵,通过二值法确定各掩膜图像的所有像素点中属于人体目标部分的像素点与属于背景图像部分的像素点;融合时,将背景图像中属于人体目标的像素点位置的像素值替换为属于人体图像的像素值,得到合成图像。替换的一种实施方式为,以背景图像的左上角为坐标原点,背景图像的宽为横轴,背景图像的高为纵轴建立坐标系,通过确定背景图像中,属于人体目标的像素点位置,将该位置的像素值替换为属于人体图像的像素值,如下述公式(1)所示:
Ci,j=Bi,j*(1-Mi,j)+Ai,j*Mi,j,i∈{0,1,...,w},j∈{0,1,...,h}
其中,Ai,j为人体图像的前景图片,Bi,j为背景图像的后景图片,Ci,j为人体图像与背景图像融合后的合成图像,Mi,j为掩膜图像,w、h为各掩膜图片的宽度和高度。
在步骤4020中,服务器400c将合成图像分发给智能电视400a和智能电视400b。
图5示出了本公开一个实施例提供的图像处理方法,应用于智能终端的流程示意图,包括:
步骤501:在第一目标对象和至少一个第二目标对象通过智能终端进行视频通话时,响应于第一目标对象或第二目标对象的合照指示,获取并展示用于合照的引导界面。
步骤502:响应于对引导界面触发的图像采集指示,采集第一目标对象的待处理图像。
步骤503:将采集的第一目标对象的待处理图像发送给服务器,以使服务器将第一目标对象的待处理图像与各所述第二目标对象的待处理图像进行合成,得到合成图像。
步骤504:接收并展示服务器发送的合成图像。
图6示出了本公开一个实施例提供的图像处理方法,应用于服务器的流程示意图,包括:
步骤601:在第一目标对象和至少一个第二目标对象通过智能终端进行视频通话时,若接收到所述第一目标对象的智能终端或所述第二目标对象的智能终端发送的合照指示,则控制所述第一目标对象和所述第二目标对象的智能终端均展示用于合照的引导界面。
步骤602:接收所述第一目标对象的智能终端和各所述第二目标对象的智能终端各自发送的待处理图像。
步骤603:将所述第一目标对象和各所述第二目标对象的待处理图像进行合成,得到合成图像。
步骤604:将所述合成图像分发给所述第一目标对象的智能终端和各所述第二目标对象的智能终端。
Claims (10)
1.一种智能终端,其特征在于,包括:显示器、图像采集器、存储器和控制器,其中:
所述显示器用于显示信息;
所述图像采集器,用于采集图像;
所述存储器,用于存储可被所述控制器执行的计算机程序;
所述控制器,所述控制器分别连接所述显示器、所述图像采集器和所述存储器,被配置为:
在第一目标对象和至少一个第二目标对象通过智能终端进行视频通话时,响应于所述第一目标对象或所述第二目标对象的合照指示,获取用于合照的引导界面数据后控制所述显示器展示所述引导界面;
响应于对所述引导界面触发的图像采集指示,控制所述图像采集器采集所述第一目标对象的待处理图像;
所述控制器连接所述图像采集器,被配置为将所述图像采集器采集的所述第一目标对象的所述待处理图像发送给服务器,以使所述服务器将所述第一目标对象的待处理图像与各所述第二目标对象的待处理图像进行合成,得到合成图像;
接收并控制所述显示器展示所述服务器发送的所述合成图像后存储所述合成图像。
2.根据权利要求1所述的智能终端,其特征在于,所述引导界面中包括:用于设置背景图像的第一操作项;所述控制器在执行所述将采集的所述第一目标对象的所述待处理图像发送给服务器之前,还被配置为:
响应于对所述引导界面中的所述第一操作项的操作指示,确定用于合照的背景图像,并通知给所述服务器。
3.根据权利要求1所述的智能终端,其特征在于,所述引导界面中包括:用于设置推荐的拍照姿势的第二操作项;所述控制器在执行所述将采集的所述第一目标对象的所述待处理图像发送给服务器之前,还被配置为:
响应于对所述引导界面中的所述第二操作项的操作指示,在所述引导界面中显示所述第一目标对象选择的推荐拍照姿势。
4.根据权利要求1-3中任一所述的智能终端,其特征在于,所述引导界面中包括:用于设置体型数据的第三操作项;所述控制器在执行所述将采集的所述第一目标对象的所述待处理图像发送给服务器之后,还被配置为:
响应于对所述引导界面中的所述第三操作项的操作指示,获取各待合成的人体目标的体型数据并通知给所述服务器,以使所述服务器各所述人体目标的体型数据,调整不同人体目标的相对尺寸;
其中,所述体型数据包括身高、体重;根据所述体型数据确定所述合成图像中各所述参与合照的目标对象的人体图像尺寸。
5.一种服务器,其特征在于,包括存储器和处理器,其中:
所述存储器,用于存储可被所述处理器执行的计算机程序;
所述处理器,连接所述存储器,被配置为在第一目标对象和至少一个第二目标对象通过智能终端进行视频通话时,若接收到所述第一目标对象的智能终端或所述第二目标对象的智能终端发送的合照指示,则控制所述第一目标对象和所述第二目标对象的智能终端均展示用于合照的引导界面;
接收所述第一目标对象的智能终端和各所述第二目标对象的智能终端各自发送的待处理图像;
将所述第一目标对象和各所述第二目标对象的待处理图像进行合成,得到合成图像;
将所述合成图像分发给所述第一目标对象的智能终端和各所述第二目标对象的智能终端。
6.根据权利要求5所述的服务器,其特征在于,所述处理器执行所述将第一目标对象和各所述第二目标对象的待处理图像进行合成,得到合成图像时,被配置为:
分别从各所述待处理图像中分割出各人体目标的人体图像;
将分割出的所述人体图像融合到用于合照的背景图像中。
7.根据权利要求6所述的服务器,其特征在于,所述处理器执行所述将分割出的所述人体图像融合到用于合照的背景图像时,被配置为:
将所述人体目标的所述人体图像进行图像处理,得到所述人体目标的掩膜图像;所述掩膜图像中记录有属于所述人体目标的像素点以及所述人体目标之外的像素点;
确定所述人体目标在所述背景图像的合成区域之后,以所述人体图像的掩模图像为模板,将所述背景图像中属于所述人体目标的像素点位置的像素值替换为所述人体图像的像素值。
8.根据权利要求7所述的服务器,其特征在于,所述处理器确定所述人体目标在所述背景图像的合成区域时,被配置为:
统计所有待处理图像中人体目标的总数量N;N为大于或等于2的正整数;
根据所述人体目标的总数量,将所述背景图像划分为M个不重叠的合成区域,且每个人体目标与一个区域对应,所述M大于或等于N。
9.一种图像处理方法,其特征在于,所述方法包括:
在第一目标对象和至少一个第二目标对象通过智能终端进行视频通话时,响应于所述第一目标对象或所述第二目标对象的合照指示,获取并展示用于合照的引导界面;
响应于对所述引导界面触发的图像采集指示,采集第一目标对象的待处理图像;
将采集的所述第一目标对象的所述待处理图像发送给服务器,以使所述服务器将所述第一目标对象的待处理图像与各所述第二目标对象的待处理图像进行合成,得到合成图像;
接收并展示所述服务器发送的所述合成图像。
10.一种图像处理方法,其特征在于,所述方法包括:
在第一目标对象和至少一个第二目标对象通过智能终端进行视频通话时,若接收到所述第一目标对象的智能终端或所述第二目标对象的智能终端发送的合照指示,则控制所述第一目标对象和所述第二目标对象的智能终端均展示用于合照的引导界面;
接收所述第一目标对象和各所述第二目标对象各自发送的待处理图像;
将所第一目标对象和各所述第二目标对象的待处理图像进行合成,得到合成图像;
将所述合成图像分发给所述第一目标对象和各所述第二目标对象。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010683194.5A CN113473239B (zh) | 2020-07-15 | 2020-07-15 | 智能终端、服务器和图像处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010683194.5A CN113473239B (zh) | 2020-07-15 | 2020-07-15 | 智能终端、服务器和图像处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113473239A true CN113473239A (zh) | 2021-10-01 |
CN113473239B CN113473239B (zh) | 2023-10-13 |
Family
ID=77868159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010683194.5A Active CN113473239B (zh) | 2020-07-15 | 2020-07-15 | 智能终端、服务器和图像处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113473239B (zh) |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002176547A (ja) * | 2000-12-05 | 2002-06-21 | Yamaha Corp | 合成画像システム |
CN101562682A (zh) * | 2008-04-14 | 2009-10-21 | 鸿富锦精密工业(深圳)有限公司 | 视频图像处理系统及其服务器、用户端和视频图像处理方法 |
US8249299B1 (en) * | 2009-08-17 | 2012-08-21 | Adobe Systems Incorporated | Systems and methods of tracking objects in video |
CN102665026A (zh) * | 2012-05-03 | 2012-09-12 | 华为技术有限公司 | 一种利用视频会议实现远程合影的方法、设备及系统 |
CN105578028A (zh) * | 2015-07-28 | 2016-05-11 | 宇龙计算机通信科技(深圳)有限公司 | 一种拍照方法及终端 |
KR20170093775A (ko) * | 2017-08-07 | 2017-08-16 | 신유원 | 단체 인물 사진 보정 시스템 |
CN107230240A (zh) * | 2017-05-23 | 2017-10-03 | 维沃移动通信有限公司 | 一种拍摄方法及移动终端 |
JP2017184162A (ja) * | 2016-03-31 | 2017-10-05 | 大和ハウス工業株式会社 | 映像表示システム及び映像表示方法 |
CN107832675A (zh) * | 2017-10-16 | 2018-03-23 | 广东欧珀移动通信有限公司 | 拍照处理方法及相关产品 |
CN107995420A (zh) * | 2017-11-30 | 2018-05-04 | 努比亚技术有限公司 | 远程合影控制方法、双面屏终端及计算机可读存储介质 |
CN108900790A (zh) * | 2018-06-26 | 2018-11-27 | 努比亚技术有限公司 | 视频图像处理方法、移动终端及计算机可读存储介质 |
CN109151489A (zh) * | 2018-08-14 | 2019-01-04 | 广州虎牙信息科技有限公司 | 直播视频图像处理方法、装置、存储介质和计算机设备 |
CN109785229A (zh) * | 2019-01-11 | 2019-05-21 | 百度在线网络技术(北京)有限公司 | 基于区块链实现的智能合影方法、装置、设备和介质 |
JP2019160186A (ja) * | 2018-03-16 | 2019-09-19 | 大日本印刷株式会社 | フォトブック作製システム及びサーバ装置 |
WO2019184499A1 (zh) * | 2018-03-29 | 2019-10-03 | 上海掌门科技有限公司 | 一种视频通话的方法、设备和计算机存储介质 |
CN110620877A (zh) * | 2019-10-12 | 2019-12-27 | Oppo广东移动通信有限公司 | 位置信息生成方法、装置、终端及计算机可读存储介质 |
CN111292337A (zh) * | 2020-01-21 | 2020-06-16 | 广州虎牙科技有限公司 | 图像背景替换方法、装置、设备及存储介质 |
-
2020
- 2020-07-15 CN CN202010683194.5A patent/CN113473239B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002176547A (ja) * | 2000-12-05 | 2002-06-21 | Yamaha Corp | 合成画像システム |
CN101562682A (zh) * | 2008-04-14 | 2009-10-21 | 鸿富锦精密工业(深圳)有限公司 | 视频图像处理系统及其服务器、用户端和视频图像处理方法 |
US8249299B1 (en) * | 2009-08-17 | 2012-08-21 | Adobe Systems Incorporated | Systems and methods of tracking objects in video |
CN102665026A (zh) * | 2012-05-03 | 2012-09-12 | 华为技术有限公司 | 一种利用视频会议实现远程合影的方法、设备及系统 |
CN105578028A (zh) * | 2015-07-28 | 2016-05-11 | 宇龙计算机通信科技(深圳)有限公司 | 一种拍照方法及终端 |
JP2017184162A (ja) * | 2016-03-31 | 2017-10-05 | 大和ハウス工業株式会社 | 映像表示システム及び映像表示方法 |
CN107230240A (zh) * | 2017-05-23 | 2017-10-03 | 维沃移动通信有限公司 | 一种拍摄方法及移动终端 |
KR20170093775A (ko) * | 2017-08-07 | 2017-08-16 | 신유원 | 단체 인물 사진 보정 시스템 |
CN107832675A (zh) * | 2017-10-16 | 2018-03-23 | 广东欧珀移动通信有限公司 | 拍照处理方法及相关产品 |
CN107995420A (zh) * | 2017-11-30 | 2018-05-04 | 努比亚技术有限公司 | 远程合影控制方法、双面屏终端及计算机可读存储介质 |
JP2019160186A (ja) * | 2018-03-16 | 2019-09-19 | 大日本印刷株式会社 | フォトブック作製システム及びサーバ装置 |
WO2019184499A1 (zh) * | 2018-03-29 | 2019-10-03 | 上海掌门科技有限公司 | 一种视频通话的方法、设备和计算机存储介质 |
CN108900790A (zh) * | 2018-06-26 | 2018-11-27 | 努比亚技术有限公司 | 视频图像处理方法、移动终端及计算机可读存储介质 |
CN109151489A (zh) * | 2018-08-14 | 2019-01-04 | 广州虎牙信息科技有限公司 | 直播视频图像处理方法、装置、存储介质和计算机设备 |
CN109785229A (zh) * | 2019-01-11 | 2019-05-21 | 百度在线网络技术(北京)有限公司 | 基于区块链实现的智能合影方法、装置、设备和介质 |
CN110620877A (zh) * | 2019-10-12 | 2019-12-27 | Oppo广东移动通信有限公司 | 位置信息生成方法、装置、终端及计算机可读存储介质 |
CN111292337A (zh) * | 2020-01-21 | 2020-06-16 | 广州虎牙科技有限公司 | 图像背景替换方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113473239B (zh) | 2023-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021179359A1 (zh) | 一种显示设备及显示画面旋转适配方法 | |
WO2021031623A1 (zh) | 显示设备、分享文件的方法和服务器 | |
CN112073798B (zh) | 一种数据传输方法及设备 | |
CN111970549B (zh) | 菜单显示方法和显示设备 | |
WO2021179363A1 (zh) | 一种显示设备及开机动画显示方法 | |
CN111970548A (zh) | 显示设备及调整摄像头角度的方法 | |
CN111954059A (zh) | 屏保的展示方法及显示设备 | |
CN113395600B (zh) | 一种显示设备的界面切换方法及显示设备 | |
CN113395554B (zh) | 显示设备 | |
WO2021212470A1 (zh) | 一种显示设备及投屏画面显示方法 | |
CN112506859A (zh) | 一种维护硬盘数据的方法及显示设备 | |
CN112269668A (zh) | 一种应用资源共享及显示设备 | |
CN112218145A (zh) | 智能电视、vr显示设备以及相关方法 | |
CN112040340A (zh) | 资源文件获取方法及显示设备 | |
CN111078926A (zh) | 一种人像缩略图像的确定方法及显示设备 | |
WO2022083357A1 (zh) | 显示设备及摄像头控制的方法 | |
WO2021180223A1 (zh) | 一种显示方法及显示设备 | |
CN113573118B (zh) | 一种视频画面旋转方法及显示设备 | |
CN113473239B (zh) | 智能终端、服务器和图像处理方法 | |
WO2020147507A1 (zh) | 显示设备和显示方法 | |
CN112367550A (zh) | 一种媒资列表多标题动态展示的实现方法及显示设备 | |
CN114417035A (zh) | 一种图片浏览方法和显示设备 | |
CN111949179A (zh) | 一种控件放大方法及显示设备 | |
CN113825001B (zh) | 全景图片浏览方法及显示设备 | |
CN113453056B (zh) | 一种相册控件的显示方法及显示设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder | ||
CP01 | Change in the name or title of a patent holder |
Address after: 266555, No. 218, Bay Road, Qingdao economic and Technological Development Zone, Shandong Patentee after: Hisense Group Holding Co.,Ltd. Address before: 266555, No. 218, Bay Road, Qingdao economic and Technological Development Zone, Shandong Patentee before: QINGDAO HISENSE ELECTRONIC INDUSTRY HOLDING Co.,Ltd. |