CN106231411B - 主播类互动平台客户端场景切换、加载方法及装置、客户端 - Google Patents
主播类互动平台客户端场景切换、加载方法及装置、客户端 Download PDFInfo
- Publication number
- CN106231411B CN106231411B CN201511027381.3A CN201511027381A CN106231411B CN 106231411 B CN106231411 B CN 106231411B CN 201511027381 A CN201511027381 A CN 201511027381A CN 106231411 B CN106231411 B CN 106231411B
- Authority
- CN
- China
- Prior art keywords
- scene
- information
- parallax
- image
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44012—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6587—Control parameters, e.g. trick play commands, viewpoint selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8146—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
- H04N21/8153—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
Abstract
本发明公开了一种主播类互动平台客户端场景切换、加载方法及装置、客户端,其中,一种主播类互动平台客户端场景切换方法,所述客户端用于切换自身当前场景,所述方法包括:在当前场景下,向服务器请求场景列表,接收服务器返回的场景列表,并从所述场景列表中选择场景信息,向服务器请求场景信息,接收服务器返回的场景信息,并根据所述返回的场景信息对当前场景进行切换。本发明实现了主播类互动平台客户端场景切换及加载功能,用户可以在观看过程中可以随意切换自己客户端观看的场景,提高了用户参与度,提升了用户体验。
Description
技术领域
本发明涉及媒体播放技术领域,尤其涉及主播类互动平台客户端场景切换、加载方法及装置、客户端。
背景技术
目前主播直播类的互动平台均是在2D平面内,无立体感。目前的直播场景一般都是根据主播的直播环境而定,除非主播改变其所处场所及在场所中的位置,比如,主播由客厅转移至卧室,或由客厅的南侧转移至北侧……以更换直播环境,否则用户在此主播的直播间看到的都是同样的场景,单一乏味。
发明人在研究中发现,目前现有技术中用户不可以根据喜好随意切换场景,用户的参与度不高。
发明内容
本发明提供主播类互动平台客户端场景切换、加载方法及装置、客户端,实现了主播类互动平台客户端场景切换及加载功能,用户可以在观看过程中随意切换自己客户端观看的场景,提高了用户参与度,提升了用户体验。
本发明实施例提供一种主播类互动平台客户端场景切换方法,所述客户端用于切换自身当前场景,所述方法包括:
在当前场景下,向服务器请求场景列表,
接收服务器返回的场景列表,并从所述场景列表中选择场景信息,
向服务器请求所述选择场景信息,
接收服务器返回的场景信息,并根据所述返回的场景信息对当前场景进行切换。
可选地,所述向服务器请求场景列表,具体为:
向服务器发送场景列表请求信息,所述场景列表请求信息中包含客户端标识。
可选地,所述向服务器请求所述选择场景信息,具体为:
向服务器发送所述选择场景请求信息,所述选择场景请求信息中包含场景显示位置、场景显示尺寸和场景标识,以使得所述服务器根据所述选择场景请求信息返回场景信息。
可选地,所述根据所述返回的场景信息切换场景,具体为:
将所述返回的场景信息匹配客户端显示屏,确定显示尺寸,加载在显示位置。
可选地,所述方法还包括:
对主播信息进行处理,
将切换后场景信息与经处理后的主播信息进行融合,获得客户端呈现内容,其中,所述切换场景信息包括切换场景图像的视差信息。
可选地,所述对主播信息进行处理,具体包括:
对主播信息进行抠图处理以获取待处理前景图像;
对所述待处理前景图像进行视差处理,以获取所述待处理前景图像的初始视差信息;
获取所述待处理前景图像的参考视差信息、切换场景图像的视差信息;所述切换场景图像的视差信息包括:切换场景图像零视差深度;
获取所述待处理前景图像在位于拍摄零视差深度时的基准视差,其中所述拍摄零视差深度等于所述切换场景图像零视差深度;
根据所述参考视差信息、所述切换场景图像的视差信息、所述基准视差、所述初始视差信息获取所述待处理前景图像的视差偏移量;根据所述视差偏移量对所述待处理前景图像进行调整。
可选地,所述对主播信息进行抠图处理以获取待处理前景图像,具体包括:
获取主播场景图像的背景统计信息,所述背景统计信息包括所述主播场景中第一色彩区域在色彩空间的背景均值和标准差值;
根据所述背景均值和标准差值,对所述主播场景图像进行抠图处理,得到所述主播场景图像的待处理前景图像信息。
可选地,所述对待处理前景图像进行视差处理,以获取待处理前景图像的初始视差信息具体为:
获取当前主播场景图像中人物的第一掩码图和第二掩码图;
对所述第一掩码图和所述第二掩码图分别进行降维处理,得到与所述第一掩码图对应的第一行矩阵以及与所述第二掩码图对应的第二行矩阵;
在所述第二行矩阵中,确定与所述第一行矩阵中每个抽样点对应的相似点;
利用所述抽样点与所述相似点的视差,确定所述当前主播场景图像中人物的初始视差信息。
可选地,所述方法还包括:创建三维场景,所述创建三维场景具体包括:
由二维图片合成三维场景,
直接拍摄获得三维场景;或
导入模型创造三维场景。
可选地,所述方法还包括:将新场景上传至服务器,服务器将新场景写入场景库中,并对场景库进行更新。
本发明还提供一种主播类互动平台客户端场景加载方法,包括:
启动主播类互动平台,
在当前无加载场景时,向服务器请求场景信息,
接收服务器返回的场景信息,并根据所述返回的场景信息加载场景。
可选地,所述向服务器请求场景信息,具体为:
向服务器发送默认场景的请求信息,所述场景请求信息包括场景标识、场景显示位置和场景显示尺寸,以使得所述服务器根据所述选择场景请求信息返回场景信息。
可选地,所述根据所述场景信息加载场景,具体为:
将所述场景信息匹配客户端显示屏,确定显示尺寸,加载在显示位置。
可选地,所述方法还包括:
对主播信息进行处理,
将加载场景信息与经处理后的主播信息进行融合,获得客户端呈现内容,其中,所述切换场景信息包括切换场景图像的视差信息。
可选地,所述对主播信息进行处理,具体包括:
对主播信息进行抠图处理以获取待处理前景图像;
对所述待处理前景图像进行视差处理,以获取所述待处理前景图像的初始视差信息;
获取所述待处理前景图像的参考视差信息、切换场景图像的视差信息;所述切换场景图像的视差信息包括:切换场景图像零视差深度;
获取所述待处理前景图像在位于拍摄零视差深度时的基准视差,其中所述拍摄零视差深度等于所述切换场景图像零视差深度;
根据所述参考视差信息、所述切换场景图像的视差信息、所述基准视差、所述初始视差信息获取所述待处理前景图像的视差偏移量;根据所述视差偏移量对所述待处理前景图像进行调整。
可选地,所述对主播信息进行抠图处理以获取待处理前景图像,具体包括:
获取主播场景图像的背景统计信息,所述背景统计信息包括所述主播场景中第一色彩区域在色彩空间的背景均值和标准差值;
根据所述背景均值和标准差值,对所述主播场景图像进行抠图处理,得到所述主播场景图像的待处理前景图像信息。
可选地,所述对待处理前景图像进行视差处理,以获取待处理前景图像的初始视差信息具体为:
获取当前主播场景图像中人物的第一掩码图和第二掩码图;
对所述第一掩码图和所述第二掩码图分别进行降维处理,得到与所述第一掩码图对应的第一行矩阵以及与所述第二掩码图对应的第二行矩阵;
在所述第二行矩阵中,确定与所述第一行矩阵中每个抽样点对应的相似点;
利用所述抽样点与所述相似点的视差,确定所述当前主播场景图像中人物的视差信息。
本发明还提供一种主播类互动平台客户端场景切换装置,所述装置用于客户端切换自身当前场景,所述装置包括:
发送单元,用于在当前场景下向服务器请求场景列表及场景信息,
接收单元,接收服务器返回的场景列表及服务器返回的场景信息,
选择单元,用于从所述场景列表中选择场景信息,
切换单元,用于根据所述返回的场景信息对当前场景进行切换。
可选地,所述发送单元具体用于:
向服务器发送场景列表请求信息,所述场景列表请求信息中包含客户端标识;以及,
向服务器发送场景请求信息,所述场景请求信息中包含场景显示位置、场景显示尺寸和场景标识,以使得所述服务器根据所述选择场景请求信息返回场景信息。
可选地,所述切换单元具体用于:
将所述返回的场景信息匹配客户端显示屏,确定显示尺寸,加载在显示位置。
本发明还提供一种主播类互动平台客户端场景加载装置,包括:
启动单元,用于启动主播类互动平台,
发送单元,用于在当前无加载场景时向服务器请求场景信息,
接收单元,接收服务器返回的场景信息,
加载单元,用于将所述返回的场景信息加载为当前场景。
可选地,所述发送单元具体用于:
在当前无加载场景时,向服务器发出默认场景的请求信息,所述场景请求信息包括场景标识、场景显示位置和场景显示尺寸,以使得所述服务器根据所述选择场景请求信息返回场景信息。
可选地,所述加载单元具体用于:
将所述返回的场景信息匹配客户端显示屏,确定显示尺寸,加载在显示位置。
本发明还提供一种主播类互动平台客户端,所述客户端用于切换自身当前场景,所述客户端包括:
中央处理器,用于向服务器请求场景列表及场景信息,接收服务器返回的场景列表及场景信息,并根据所述返回的场景信息切换场景,
显示屏,用于显示所述场景。
可选地,所述客户端为移动用户终端、个人计算机或三维显示设备。
在本发明实施例中,通过向服务器请求场景信息,并根据场景信息切换场景或加载场景,实现了主播类互动平台客户端场景切换及加载功能,用户可以在观看过程中随意切换自己客户端观看的场景,提高了用户参与度,提升了用户体验。
附图说明
图1为本发明实施例主播类互动平台客户端场景切换方法流程示意图;
图2为本发明实施例主播类互动平台客户端场景加载方法流程示意图;
图3为本发明实施例管理员更新场景库的流程图;
图4为本发明实施例供应商更新场景库的流程图;
图5为本发明实施例供应商与场景管理后台架构图;
图6为本发明实施例一种主播类互动平台客户端场景切换装置结构示意图;
图7为本发明实施例一种主播类互动平台客户端场景加载装置结构示意图;
图8为本发明实施例一种主播类互动平台客户端结构示意图。
具体实施方式
下面结合附图和实施例对本发明进行详细说明。
需要说明的是,如果不冲突,本发明实施例以及实施例中的各个特征可以相互结合,均在本发明的保护范围之内。另外,虽然在装置示意图中进行了功能单元划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的单元划分,或流程图中的顺序执行所示出或描述的步骤。
在阐述本发明实施例之前,为更好地理解本发明实施例,对本发明先作简要说明。本发明实施例中,主播类互动平台通常包括客户端、服务器、主播端及场景管理后台,场景通过场景管理后台上传至服务器,在切换或加载场景过程中,由客户端向服务器请求场景信息,并根据服务器返回的场景信息切换或加载场景。
在本发明所有实施例中,客户端包括诸如个人计算机、PDA、平板电脑、MP4、智能手机、三维显示盒子及智能电视等用户终端设备。
下面结合附图对本发明实施例作进一步阐述。
图1为本发明实施例主播类互动平台客户端场景切换方法流程示意图,如图1所示,本发明实施例的客户端切景切换方法中所述客户端用于切换自身当前场景,所述方法包括以下步骤:
S11,在当前场景下,向服务器请求场景列表。
在本发明实施例中,当前已有显示场景的条件下,用户可以通过客户端上的场景列表功能,向服务器发送场景列表的请求信息,其中,场景列表的请求信息中包含有客户端标识,客户端标识可以用于服务器返回场景列表时标识场景列表的接收方。
S13,接收服务器返回的场景列表,并从所述场景列表中选择场景信息。
在本发明实施例中,服务器接收到客户端发送的场景列表请求信息后,对场景列表请求信息进行处理,并将客户端请求的场景列表返回给客户端。客户端接收到相应场景列表信息后,进行显示,用户可以在显示的场景列表中选择某一场景。
S15,向服务器请求场景信息。
在本发明实施例中,客户端选择场景后,向服务器发送场景请求信息,场景请求信息中包含场景显示位置、场景显示尺寸和场景标识,以使得所述服务器根据所述选择场景请求信息返回场景信息。
S17,接收服务器返回的场景信息,并根据所述场景信息对当前场景进行切换。
在本发明实施例中,服务器接收到场景请求信息后进行处理,并将选择场景信息返回给客户端,若当前客户端已有选择场景标识信息,则从服务器获取的信息包括场景显示位置、场景显示尺寸等信息,不再重复获取场景标识已有信息。客户端接收相应的选择场景信息,匹配客户端显示屏,确定显示尺寸,加载在显示位置,比如,对于同一场景信息,不同的客户端由于其显示屏大小不同,则需要进行相应的匹配处理,以适应在不同的客户端可以进行正常显示。
在本发明实施例中,通过向服务器请求场景列表,根据选择场景请求场景信息,并根据场景信息切换场景,实现了主播类互动平台客户端场景切换功能,用户可以在观看过程中随意切换自己客户端观看的场景,提高了用户参与度,提升了用户体验。
图2为本发明实施例主播类互动平台客户端场景加载方法流程示意图,如图2所示,本发明实施例的方法,包括以下步骤:
S21,启动主播类互动平台。
在本发明实施例中,由于带有主播信息的视频流传输方式及与场景的合成方式较多,场景首次加载过程中带有主播信息的视频流与场景的传递及加载过程相互独立。启动主播类互动平台是指用户打开主播类互动平台的客户端。
S23,在当前无加载场景时,向服务器请求场景信息,
在本发明实施例中,用户打开主播类互动平台的客户端后,如果当前没有加载场景,则向服务器发送场景请求信息,场景请求信息中包含场景显示位置、场景显示尺寸和场景标识,以使得所述服务器根据所述选择场景请求信息返回场景信息。
S25,接收服务器返回的场景信息,并根据所述场景信息加载场景。
在本发明实施例中,服务器接收到场景请求信息后进行处理,并将选择场景信息返回给客户端,客户端接收相应的选择场景信息,匹配客户端显示屏,确定显示尺寸,加载在显示位置,比如,对于同一场景信息,不同的客户端由于其显示屏大小不同,则需要进行相应的匹配处理,以适应在不同的客户端可以进行正常显示。
在本发明实施例中,在当前无加载场景时,通过向服务器请求场景信息,并根据场景信息加载场景,实现了主播类互动平台客户端场景加载功能,用户可以在观看过程中启动加载场景,提高了用户参与度,提升了用户体验。
可选地,在本发明实施例中,客户端场景切换方式或加载方法中,所述方法还可以包括:对主播信息进行处理,将切换后场景信息与经处理后的主播信息进行融合,获得客户端呈现内容,其中,所述切换场景信息包括切换场景图像的视差信息。
在本发明实施例中,对主播信息进行处理主要由服务器(比如,转码服务器)或主播端进行处理,下面以场景切换中服务器对主播信息进行处理为例,对本发明实施例作进一步阐述。
其中,所述对主播信息进行处理,具体包括:
对主播信息进行抠图处理以获取待处理前景图像;
对所述待处理前景图像进行视差处理,以获取所述待处理前景图像的初始视差信息;
获取所述待处理前景图像的参考视差信息、切换场景图像的视差信息;所述切换场景图像的视差信息包括:背景零视差深度;
获取所述待处理前景图像在位于拍摄零视差深度时的基准视差,其中所述拍摄零视差深度等于所述切换场景的背景零视差深度;
根据所述参考视差信息、所述切换场景图像的视差信息、所述基准视差、所述初始视差信息获取所述待处理前景图像的视差偏移量;根据所述视差偏移量对所述待处理前景图像进行调整。
在本发明实施例中,对主播信息进行抠图处理以获取待处理前景图像,具体包括:
1)获取主播场景图像的背景统计信息,所述背景统计信息包括所述主播场景中第一色彩区域在色彩空间的背景均值和标准差值;
具体地,获取主播场景图像的背景统计信息,具体包括:服务器或提取主播场景图像中的第一色彩区域;服务器确定第一色彩区域在色彩空间的背景均值和标准差值。
其中,服务器提取主播场景图像中的第一色彩区域,具体包括:服务器确定主播场景图像中每个像素点的第一色彩值;判断第一色彩值是否超过预设的色彩阈值;如果第一色彩值超过色彩阈值,则服务器确定第一色彩值表针的像素点属于第一色彩区域,并对第一色彩区域进行提取。
其中,第一色彩值满足下述公式一:
公式一
其中,所述r,g,b具体为所述像素点在所述色彩空间中的,红、绿、蓝通道的属性值。
需要说明的是,上述计算第一色彩值中用到的g算子为RGB色彩空间中绿色通道属性值与其他两个通道属性值的差值的乘积,或对该乘积的正相关变换。
更进一步地,服务器在提取主播场景图像中的第一色彩区域后,确定第一色彩区域在色彩空间的背景均值和标准差值。在本发明实施例中,所述确定第一色彩区域在色彩空间的背景均值和标准差值,也即是服务器对第一色彩区域在色彩空间的背景均值和标准差值进行统计。
统计过程的主要作用是对第一色彩区域的颜色分布进行统计,以便后续步骤进行抠图处理。统计结果是第一色彩区域在色彩空间中每个通道的背景均值和标准差值。其中,作为示例而非限定,可采用多个数值累加后取平均的计算方式统计背景均值;采用现有的方差公式统计标准差值。
在本发明实施例中用于统计背景均值和标准差值的色彩空间具体是CIE LAB色彩空间。所述CIE LAB色空间是基于一种颜色不能同时既是蓝又是黄这个理论而建立。即,单一数值可用于描述红/绿色及黄/蓝色特征。当一种颜色用CIE L*a*b*时,L*表示明度值;a*表示红/绿及b*表示黄/蓝值。
在本发明实施例中,所述第一色彩区域具体是主播场景图像中的绿色区域;所述第一色彩值具体是像素点的绿值;所述色彩阈值具体是绿色阈值。
需要说明的是,服务器可无需在主播场景图像的原分别率上获取背景均值和标准差值,服务器可对主播场景图像进行缩放后,再获取背景均值和标准差值。在对主播场景图像进行缩放后,还可进一步节省服务器的计算量。
在本发明实施例中,主播场景图像可以为至少一张图片;或者为视频数据中的一帧图像或者多帧图像。
2)根据所述背景均值和标准差值,对所述主播场景图像进行抠图处理,得到所述主播场景图像的前景图像信息;
具体地,服务器获取背景均值和标准差值后,对主播场景图像进行抠图处理,得到主播场景图像的前景图像信息。在本发明实施例中,服务器得到的前景图像信息具体为主播场景图像中的人物图像信息。
进一步地,在本发明实施例中,前景图像信息包括主播场景图像中像素点的标准化前景分数值;
服务器根据背景均值和标准差值,对主播场景图像进行抠图处理,得到主播场景图像的前景图像信息,具体包括:服务器确定主播场景图像的每个像素点与背景均值之间的色彩距离值(在本发明实施例中,所述色彩据距离值即为高斯色彩距离值);服务器对色彩距离值进行映射处理,得到标准化前景分数值。
更进一步地,服务器确定主播场景图像的每个像素点与背景均值之间的色彩距离值,具体包括:
所述色彩距离值满足下述公式二:
公式二
其中,所述cl,ca,cb分别为l,a,b通道的加权因子,cl,ca,cb≥0且cl+ca+cb=1;所述n为固定系数,n=1,2,3;所述(l,a,b)为所述像素点在所述色彩空间中的l,a,b属性值;所述为所述背景均值;所述(δl,δa,δb)为所述标准差值。
更进一步地,服务器对色彩距离值进行映射处理,得到标准化前景分数值,具体包括:
服务器确定像素点的色彩距离值后,将色彩距离值映射到映射区间内,所述映射区间为[0,1]。在本发明实施例中,具体的映射关系可以是线性映射或非线性映射。在一个例子中,以线性映射进行说明,设定色彩距离值两端阈值,即最大阈值th和最小阈值tl,判断色彩距离值是否超过最大阈值th,且是否不超过最小阈值tl;如果色彩距离值不超过最小阈值tl,则服务器将该色彩距离值映射为0;如果色彩距离值超过最大阈值th,则服务器将该色彩距离值映射为1;如果色彩距离值超过最小阈值tl且不超过最大阈值th,则服务器将该色彩距离值映射到[0,1]的区间内。
需要说明的是,在本发明实施例中,服务器确定色彩距离值是在色彩空间中进行的,在本步骤中所使用的色彩空间与步骤1)中服务器获取背景统计信息时所使用的色彩空间相同,均使用CIE LAB色彩空间。该色彩空间适合用于通过数字化的方式表述颜色之间的差异。通过CIE LAB色彩空间计算得到的数值,其值与人眼感觉一致,且计算结果也较为准确。
其中,在实际应用中,还可在CIE LAB色彩空间中计算第一色彩值;在RGB色彩空间中统计背景均值和标准差值;在RGB色彩空间中计算标准化前景分数值。也即是,在前述步骤1)以及步骤2)中,将CIE LAB色彩空间与RGB色彩空间进行相互进行。可以理解的是,当色彩空间互换时,其相应的计算公式也需相继进行调整,在此不再赘述。
在本发明实施例中,所述对待处理前景图像进行视差处理,以获取待处理前景图像的初始视差信息具体为:
1)获取当前主播场景图像中人物的第一掩码图和第二掩码图;
具体地,在演播室内(当前场景),摄像头(可为双目摄像头,或者两个普通摄像头)采集主播的视音频信息。摄像头将采集的视音频信息传输至服务器。
可以理解的是,主播在录制视音频信息时,主播背后的背景布置为单一色彩幕布,其中作为示例而非限定,幕布颜色为绿幕或者蓝幕,在本发明实施例中,背景布置为绿幕,为了后续的计算准确性,主播穿着非绿色服装。
服务器对摄像头采集的视图(左视图、右视图)进行处理,利用现有绿幕抠图技术,将主播图像从左右视图中抠出,得到当前主播场景图像中人物的第一掩码图和第二掩码图。
在本发明实施例中,左视图进行抠图处理后得到第一掩码图,右视图进行抠图处理后得到第二掩码图,在实际应用中也可是右视图进行抠图处理后得到第一掩码图,左视图进行抠图处理后得到第二掩码图,在此不做限定。
所述绿幕抠图技术具体为,对于某一视图中的每一像素点,根据该像素点的颜色值,判断该像素点是否为前景,并计算出该像素点的颜色值占前景颜色值的百分比,计算得到的百分比也即是该像素点的alpha值,通过对每一像素点计算alpha值,获取某一视图对应的alpha掩码图。
2)对所述第一掩码图和所述第二掩码图分别进行降维处理,得到与所述第一掩码图对应的第一行矩阵以及与所述第二掩码图对应的第二行矩阵;
具体地,服务器分别对第一掩码图和第二掩码图进行降维处理,得到与第一掩码图对应的第一行矩阵以及与第二掩码图对应的第二行矩阵。
进一步地,在一种实现方式中,服务器对掩码图进行降维处理,得到与掩码图对应的行矩阵,具体包括:根据掩码图,服务器获取掩码图中每个像素点的掩码值(即alpha值);利用每个像素点的掩码值,服务器计算掩码图中每列像素点的掩码总值(即累计像素点掩码值)、或掩码均值(即累计像素点掩码值后取平均值)、或掩码中位数值(即累计像素点掩码值后,对掩码值进行排序,取掩码中间值);服务器将掩码总值、或掩码均值或掩码中位数值作为行矩阵的对应列。
在本发明实施例中,服务器可针对每列选取计算不同的值,例如,服务器计算第一列像素点的掩码总值;第二列计算像素点的掩码均值;第三列计算像素点的掩码中位数值,或者,每列计算相同的值,在此不做限定。
在另一种实现方式中,服务器对掩码图进行降维处理,得到与掩码图对应的行矩阵,具体包括:根据掩码图,服务器获取掩码图中每个像素点的掩码值(即alpha值);服务器判断掩码图中属于同一列像素点的掩码值是否大于掩码阈值;如果掩码值大于掩码阈值,则服务器计算大于掩码阈值的属于同一列像素点的纵坐标总值(即累计像素点的纵坐标值),或计算大于所述掩码阈值的属于同一列像素点的纵坐标均值(即累计像素点的纵坐标值后取平均值),或计算大于所述掩码阈值的属于同一列像素点的纵坐标中位数值(即累计像素点的纵坐标值后,对纵坐标值进行排序,取纵坐标中间值);服务器将纵坐标总值、或纵坐标均值、或纵坐标中位数值作为行矩阵的对应列。
在本发明实施例中,服务器可针对每列选取计算不同的值,例如,服务器计算第一列像素点的纵坐标总值;第二列计算像素点的纵坐标均值;第三列计算像素点的纵坐标中位数值,或者,每列计算相同的值,在此不做限定。
需要说明的是,服务器对第一掩码图进行降维处理,得到第一掩码图对应的第一行矩阵,或者服务器对第二掩码图进行降维处理,得到第二掩码图对应的第二行矩阵,均可选择上述两种方式中的任意一种,在此不做限定。
在本发明实施例中,所述行矩阵具体为1行n列的矩阵。
3)在所述第二行矩阵中,确定与所述第一行矩阵中每个抽样点对应的相似点;
具体地,服务器在第一行矩阵中确定抽样点,同时,根据确定的抽样点,服务器在第二行矩阵中确定于抽样点对应的相似点。
进一步地,在第二行矩阵中,确定与第一行矩阵中每个抽样点对应的相似点,具体包括:
根据预设的抽样间隔模式或者随机模式,在第一行矩阵中,确定第一抽样点;在本发明实施例中,抽样间隔具体为大于等于0的正整数(n≥0),也即是每隔n个点抽取1个抽样点,抽样间隔可以为等间隔或不等间隔。服务器确定第一抽样点后,获取第一抽样点的横坐标值。同时,在第二行矩阵中,服务器确定与第一抽样点的横坐标值相同的第一位置点;服务器计算第一抽样点邻域范围内的全部像素点的相似分数值以及第一位置点邻域范围内的全部像素点的相似分数值;利用第一抽样点的横坐标值以及相似分数值中的最大值,确定与第一抽样点对应的第一相似点。
在本发明实施例中,可在先预设领域范围,所述邻域范围具体是指以第一抽样点的横坐标为中心,上下浮动的范围内全部像素点。例如,第一抽样点的横坐标为x,预设的邻域范围为上下20。也即是选择在x-20至x+20内全部像素点。
更进一步地,服务器计算第一抽样点邻域范围内的全部像素点的相似分数值以及第一位置点邻域范围内的全部像素点的相似分数值,具体包括:服务器分别获取第一抽样点邻域范围内的全部像素点的第一横坐标值;以及获取第一位置点邻域范围内的全部像素点的第二横坐标值;根据第一横坐标值以及第二横坐标值,服务器调用相似分数计算函数,计算第一抽样点邻域范围内的全部像素点的相似分数值以及第一位置点邻域范围内的全部像素点的相似分数值。
更进一步地,服务器利用第一抽样点的横坐标值以及相似分数值中的最大值,确定与第一抽样点对应的第一相似点,具体为:
第一相似点的横坐标需满足下述公式:
其中,所述x为所述第一抽样点的横坐标值;所述similarity(P,Q)为所述相似分数计算函数;所述N1(x)为所述第一抽样点邻域范围内的全部像素点的第一横坐标值;所述Nr(x+i)为所述第一位置点邻域范围内的全部像素点的第二横坐标值;所述p1,p2为所述邻域范围的上下限;所述i为常数。
前文所述的similarity(P,Q)为相似分数计算函数,其作用于集合P以及集合Q。在本发明实施例中,集合P可由N1(x)替换,集合Q可由Nr(x+i)替换。一般性的,该函数可以是零均值归一化交叉相似度(Zero-mean Normalized Cross-Corre lation),具体计算公式如下述公式:
可以理解的是,在本发明实施例中并不限于采用相似分数计算函数计算相似分数,也可采用绝对差异之和(Sum of Absolute Differences),或差异平方之和(Sum ofSquared Differences),或归一化交叉相似度(Normalized Cross-Correlation)等函数计算相似分数。上述计算公式均为公知公式,本发明实施例中,仅是采用该公式计算相似分数值。
4)利用所述抽样点与所述相似点的视差,确定所述当前主播场景图像中人物的初始视差信息。
具体地,根据步骤3)确定的抽样点与对应的相似点,获取抽样点与相似点的横坐标值,将相似点的横坐标值与抽样点的横坐标值的差值作为两点之间的视差,通过该视差确定当前主播场景图像中人物的视差范围。例如,抽样点的横坐标值为x,相似点的横坐标值为x',则视差l'=x'-x。
可以理解的是,抽取的抽样点均为多个,因此,确定的相似点也均为多个。本步骤中的每一个视差,均为每个抽样点与其对应的相似点的差值,通过多个视差确定当前主播场景图像中人物的视差范围。
进一步地,利用抽样点与相似点的视差,服务器确定当前主播场景图像中人物的视差范围,具体包括:服务器首先判断视差是否大于预设的第一视差阈值;服务器将视差中大于第一视差阈值的视差作为第一子视差,并判断第一子视差是否大于预设的第二视差阈值;服务器将第一子视差中大于第二视差阈值的第一子视差作为第二子视差,并将第二子视差的最大视差作为视差范围的上限,将第二子视差的最小视差作为视差范围的下限。
在本发明实施例中,第二视差阈值大于第一视差阈值;所述第一视差阈值用于对多个视差的相似度进行选择;所述第二视差阈值用于筛除出多个第一子视差中的个别误差。
其中,在确定视差范围时,还可仅判断一次,也即是服务器判断视差是否大于预设的第二视差阈值,如果视差大于预设的第二视差阈值,则将大于第二视差阈值的,且视差最大值最为上限;将大于第二视差阈值的,且视差最小值最为下限。
因此,通过上述视差计算方法,服务器获取当前主播场景图像中人物的第一掩码图和第二掩码图,对第一掩码图和第二掩码图分别进行降维处理,得到第一行矩阵和第二行矩阵;服务器在行矩阵中分别确定抽样点和相似点;利用抽样点与相似点的视差,确定当前主播场景图像中人物的视差范围。相比较现有的视差计算方法,本发明在根据抽样点确定相似点时,仅计算了行矩阵中抽样点和相似点邻域范围内像素点的相似分数值,进而确定相似点,而不再对整个图像的像素点进行计算后再匹配,解决了现有技术中视差计算方法的计算复杂度高,且计算准确率低的问题;大大降低了视差计算复杂度,并提高了计算准确率。
需要说明的是,前文所描述的视差计算方法中,当前主播场景图像中可为1个或者多个。
优选地,在本发明实施例中,若当前主播场景图像中人物唯一时,在第二行矩阵中,确定与第一行矩阵中每个抽样点对应的相似点,具体包括:
服务器分别在第一行矩阵中和第二行矩阵中,确定第一行矩阵的第一重心点和第二行矩阵的第二重心点。
利用抽样点与相似点的视差,确定当前主播场景图像中人物的视差范围,具体包括:
服务器将第一重心点与第二重心点的差值作为当前主播场景图像中人物的视差。
需要说明的是,确定第一重心点和第二重心点的方法为本领域共知常识,在此不再复述。前述利用重心点的视差作为人物视差时,也可应用在当前主播场景图像中人物为多个的情况,但此时需保证每个人物保持在同一深度范围内。
在本发明实施例中,所述待处理前景图像参考视差包括最大参考视差(Discam_max)和最小参考视差(Discam_min),所述切换场景图像的视差信息包括切换场景图像的最大视差(Disbg_max)、最小视差(Disbg_min)、零视差。
在本发明实施例中,根据所述参考视差信息、所述切换场景图像的视差信息、所述基准视差、所述初始视差信息获取所述待处理前景图像的视差偏移量,具体包括:
1)根据所述参考视差信息、所述切换场景图像的视差信息、所述基准视差获取所述待处理前景图像的视差调整系数。
在本发明实施例中,为了获取所述待处理前景图像的视差调整系数,需要先获取待处理前景图像的参考视差信息、切换场景图像的视差信息以及基准视差。
具体地,如前,在本发明实施例中,所述参考视差信息包括最大参考视差(Discam_max)和最小参考视差(Discam_min);所述切换场景图像的视差信息包括:切换场景图像零视差深度,切换场景图像最大视差(Disbg_max)和切换场景图像最小视差(Disbg_min)。其中,由于切换场景图像已选定,因此所述切换场景图像的视差信息可通过所述切换场景图像的相关参数获得。待处理前景图像是通过抠图算法获得,因此该初始视差(Disint)也可以通过抠图处理的结果获得,具体为通过前述对待处理前景图像视差处理步骤获得。
那么,对于最大参考视差和最小参考视差,在本发明实施例中可通过如下方式获得。
在利用立体相机进行拍摄时,通过读取立体相机的配置信息可获得所述立体相机的拍摄参数,其中所述拍摄参数包括:所述立体相机的视野角,水平间距和水平分辨率。假设被拍摄对象距离立体相机的距离为d,那么,根据立体相机拍摄参数等按照如下公式可确定被拍摄对象在深度为d时视差:
其中,Discam表示被拍摄对象在深度为d时视差(单位为像素),D表示水平间距,f表示立体相机的视野角,Res表示水平分辨率。
设定立体相机距离待处理前景图像所在的场景的最大距离d1和最小距离d2。那么,根据所述视野角、所述水平间距、所述水平分辨率、所述距离最大值和所述距离最小值按照下述公式(1)和(2)获得所述最大参考视差和最小参考视差。
其中,Discam_max表示最大参考视差,Discam_min表示最小参考视差,D表示水平间距,f表示立体相机的视野角,Res表示水平分辨率,d1和d2分别表示距离最大值和距离最小值。
接下来,进一步获取所述待处理前景图像在位于拍摄零视差深度时的基准视差。
具体地,根据上述获取的拍摄参数以及拍摄零视差深度按照下述公式(3)获得所述基准视差:
其中,Discam_0表示基准视差,D表示水平间距,f表示立体相机的视野角,Res表示水平分辨率,d0表示拍摄零视差深度。
为保证待处理前景图像的拍摄零视差深度和切换场景图像的零视差深度相匹配,在此需要将待处理前景图像在拍摄零视差深度时的视差,也即将基准视差调整为零。
在本发明实施例中,可通过以下任一方式获得视差调整系数。
方式一、在具体应用中,由于待处理前景图像可能位于零视差深度之前,也有可能位于零视差深度之后,因此,在此步骤中可根据不同的情况按照不同的方式获得该视差调整系数。
因此,在此方式中,首先将所述初始视差和所述基准视差进行比较。
当所述初始视差大于等于所述基准视差(待处理前景图像位于零视差深度之前)时,将利用所述切换场景图像的最大视差除以所述最大参考视差和所述基准视差之差的结果作为所述视差调整系数。
具体的,按照下述公式(4)计算此时的视差调整系数:
当所述初始视差小于所述基准视差(待处理前景图像位于零视差深度之后)时,将利用所述切换场景图像的最小视差除以所述基准视差和最小参考视差之差的结果作为所述视差调整系数。
具体的,按照下述公式(5)计算此时的视差调整系数:
其中,copos表示所述初始视差大于等于所述基准视差时的视差调整系数,coneg表示所述初始视差小于所述基准视差时的视差调整系数,Discam_max表示最大参考视差,Discam_min表示最小参考视差,Discam_0表示基准视差,Disbg_max表示背景图像最大视差,Disbg_min表示背景图像最小视差。
方式二、将所述切换场景图像的最大视差与所述切换场景图像的最小视差之差作为第一参数,将所述最大参考视差和所述最小参考视差之差作为第二参数。然后,将所述第一参数和所述第二参数的商作为所述视差调整系数。
也就是说,在此情况下,可不考虑待处理前景图像和零视差深度的关系,而直接按照下述公式(6)计算视差调整系数。
其中,co表示视差调整系数,Discam_max表示最大参考视差,Discam_min表示最小参考视差,Disbg_max表示背景图像最大视差,Disbg_min表示背景图像最小视差,Disbg_max-Disbg_min表示第一参数,Discam_max-Discam_min表示第二参数。
将方式一和方式二相比,由于在方式一中考虑到在具体应用中待处理前景图像的实际位置与零视差深度的关系,因此利用方式一计算的视差调整系数更能使得待处理前景图像和切换场景图像的视差相匹配,避免出现经调整后显示的图像出现畸变的现象,从而进一步提高显示效果。
2)根据所述初始视差、所述视差调整系数、所述基准视差和所述参考视差信息确定所述待处理前景图像的视差偏移量。
在此步骤中,包括如下过程:
步骤21)、计算目标视差。具体的,将所述基准视差和所述初始视差之差与所述视差调整系数的乘积作为所述待处理前景图像的目标视差。
具体的,当采用上述方式一的视差调整系数时,按照下述公式(7)和(8)计算目标视差。
当所述初始视差大于等于所述基准视差时:
Disobj=copos·(Disint-Discam_0) (7)
当所述初始视差小于所述基准视差时,
Disobj=coneg·(Disint-Discam_0) (8)
其中,Disobj表示目标视差,Disint表示初始视差,Discam_0表示基准视差,copos表示所述初始视差大于等于所述基准视差时的视差调整系数,coneg表示所述初始视差小于所述基准视差时的视差调整系数;
具体的,当采用上述方式二的视差调整系数时,按照下述公式(9)计算目标视差。
Disobj=co·(Disint-Discam_0) (9)
其中,Disobj表示目标视差,Disint表示初始视差,Discam_0表示基准视差,co表示视差调整系数。
步骤22)、计算视差偏移量。具体的,将所述初始视差和所述目标视差之差作为所述视差偏移量。
具体的,当采用上述方式一的视差调整系数时,按照如下公式(10)获取所述视差偏移量:
其中,Val表示视差偏移量,Disobj表示目标视差,Disint表示初始视差,Discam_0表示基准视差,copos表示所述初始视差大于等于所述基准视差时的视差调整系数,coneg表示所述初始视差小于所述基准视差时的视差调整系数,Discam_0表示基准视差。
具体的,当采用上述方式二的视差调整系数时,按照如下公式(11)获取所述视差偏移量:
Val=Disint-Disobj=(1-co)Disint+co·Discam_0 (11)
其中,Val表示视差偏移量,Disobj表示目标视差,Disint表示初始视差,Discam_0表示基准视差,co表示视差调整系数,Discam_0表示基准视差。
进一步地,在本发明实施例中,根据所述视差偏移量对所述待处理前景图像进行调整,具体包括:
当所述待处理前景图像为利用所述立体相机的右相机拍摄时,如果视差偏移量大于0,根据所述视差偏移量将所述待处理前景图像向右平移;如果视差偏移量小于0,根据所述视差偏移量将所述待处理前景图像向左平移。
当所述待处理前景图像为利用所述立体相机的左相机拍摄时,如果视差偏移量大于0,根据所述视差偏移量将所述待处理前景图像向左平移;如果视差偏移量小于0,根据所述视差偏移量将所述待处理前景图像向右平移。
由以上可以看出,由于在本发明实施例中根据切换场景图像的相关视差信息对待处理前景图像的视差进行了调整,因此利用本发明的方案可以使得待处理前景图像和切换场景图像的视差匹配,从而使得最终将待处理前景图像和切换场景图像合成后,该合成后的图像立体显示后的图像的视差更为合理。而且在本发明的一些实施例中还将待处理前景图像和切换场景图像相对于零视差时的位置关系作为考虑因素来确定视差调整系数,使得该些实施例所描述的技术方案更能使得待处理前景图像和切换场景图像的视差匹配,避免出现经调整及合成处理后显示的图像出现畸变,从而进一步的提高了显示效果,也更加符合立体显示的要求。
可选地,在本发明实施例中,客户端场景切换方式或加载方法中,还可以包括:创建三维场景,所述创建三维场景具体包括:由二维图片合成三维场景,直接拍摄获得三维场景;或导入模型创造三维场景。
其中,创建场景模型支持Maya、3Dmax等常用3D软件,模型文件的格式可以为目前常见的3D格式。场景模型的创建方法包括多个实施例,下面以图片、系列图片、模型为例说明场景模型的创建方法,但不局限于此三种方法。
图片
使用图片创建的场景模型,具有场景占用存储空间小、易于传输的优点。
由于创建场景模型的图片拍摄方法众多,下面仅以左右拍摄方法为例,使用图片创建场景模型的方法包括但不局限于以下两种:
双相机拍摄
调整两台相机的镜头左右间距至推荐值,为便于后期与主播图像进行合成,此处推荐取主播3D录像时的镜头左右间距,即取值为40毫米,也可根据实际情况进行调整;
使用两台相机同时拍摄同一物体,得到两张2D图片;
使用Maya、3D max等3D软件将两张2D图片通过校正拍摄过程中的相机移动、旋转以及焦距不一致等方式合成为3D图片;
将所合成的3D图片通过场景管理后台上传至服务器。
3D camera插件拍摄
使用3D camera插件拍摄3D图片;
将所拍摄的3D图片通过场景管理后台上传至服务器。
(2)系列图片
由于使用图片创建场景模型,存在场景角度固定、不能根据内容变化等缺点,也可以使用系列图片创建场景模型。
系列图片的创建场景模型流程如下:
使用相机拍摄一张2D图片,并记录景深;
多次调整相机与被摄物体间距离,拍摄图片并记录相应的景深;
将系列图片及对应景深导入Maya、3D max等软件,合成3D图片;
将所合成的3D图片通过场景管理后台上传至服务器。
(3)模型
由于使用系列图片创建场景模型,存在摄像头不能旋转等缺点,也可以通过导入模型创建场景模型。
模型导入包括但不限于以下三种方法:3D引擎搭建(包括Cocos、Unity等产品)、3Ddeapth UI搭建、直接导入3D模型。
可选地,在本发明实施例中,客户端场景切换方式或加载方法中,还可以包括:将新场景上传至服务器,服务器将新场景写入场景库中,并对场景库进行更新。
其中,场景库更新包括多种实现方法,下面以管理员更新、供应商更新为例进行说明,但场景库更新方法不局限于此。
(1)管理员更新
管理员更新场景库方法的具体流程如下:
管理员登录场景管理后台,选中需要上传的新场景,由场景管理后台将新场景上传至服务器;
服务器处理新场景后,写入场景库中,供场景切换等功能使用;
场景库写入完成后,将更新状态返回至服务器;
服务器将更新状态传递至场景管理后台,并显示给管理员。
管理员更新场景库的流程图如图3所示。
(2)供应商更新
供应商更新场景库方法的具体流程如下:
供应商登录场景管理后台,选中需要上传的新场景,由场景管理后台将新场景上传至服务器;
服务器处理新场景后,写入场景库中,供后续相关功能的使用;
场景库写入完成后,将更新状态返回至服务器;
服务器将更新状态传递至场景管理后台,并显示给供应商。
供应商更新场景库的流程图如图4所示,供应商与场景管理后台架构关系如图5所示。
图6为本发明实施例一种主播类互动平台客户端场景切换装置结构示意图,所述装置用于客户端切换自身当前场景,如图6所示,所述装置包括:
发送单元61,用于在当前场景下向服务器请求场景列表及场景信息;
接收单元62,用于接收服务器返回的场景列表及服务器返回的场景信息;
选择单元63,用于从所述场景列表中选择场景信息,
切换单元64,用于根据所述返回的场景信息对当前场景进行切换。
在本发明实施例中,发送单元61具体用于:
向服务器发送场景列表请求信息,所述场景列表请求信息中包含客户端标识;以及,向服务器发送场景请求信息,所述场景请求信息中包含场景显示位置、场景显示尺寸和场景标识,以使得所述服务器根据所述选择场景请求信息返回场景信息。
在本发明实施例中,切换单元64具体用于:
将所述返回的场景信息匹配客户端显示屏,确定显示尺寸,加载在显示位置。
可选地,本发明实施例中的切换装置,还包括:
融合单元,用于将切换后场景信息与主播信息进行融合,获得客户端呈现内容。
需要说明的是,本发明实施例中主播类互动平台客户端场景切换装置中各个单元之间的信息交互、执行过程等内容,由于与本发明方法实施例基于同一构思,方法实施例中的具体内容同样适用。本发明实施例中的各个单元可以作为单独的硬件或软件来实现,并且可以根据需要使用单独的硬件或软件来实现各个单元的功能的组合。
在本发明实施例中,通过向服务器请求场景列表,根据选择场景请求场景信息,并根据场景信息切换场景,实现了主播类互动平台客户端场景切换功能,用户可以在观看过程中随意切换自己客户端观看的场景,提高了用户参与度,提升了用户体验。
图7为本发明实施例一种主播类互动平台客户端场景加载装置结构示意图,如图7所示,所述装置包括:
启动单元71,用于启动主播类互动平台,
发送单元72,用于在当前无加载场景时向服务器请求场景信息,
接收单元73,用于接收服务器返回的场景信息;
加载单元74,用于将所述返回的场景信息加载为当前场景。
在本发明实施例中,发送单元71具体用于:
在当前无加载场景时,向服务器发出默认场景的请求信息,所述场景请求信息包括场景标识、场景显示位置和场景显示尺寸,以使得所述服务器根据所述选择场景请求信息返回场景信息。
在本发明实施例中,加载单元74具体用于:
将所述返回的场景信息匹配客户端显示屏,确定显示尺寸,加载在显示位置。
可选地,本发明实施例中的加载装置,还包括:
融合单元,用于将加载场景信息与主播信息进行融合,获得客户端呈现内容。
需要说明的是,本发明实施例中主播类互动平台客户端场景加载装置中各个单元之间的信息交互、执行过程等内容,由于与本发明方法实施例基于同一构思,方法实施例中的具体内容同样适用。本发明实施例中的各个单元可以作为单独的硬件或软件来实现,并且可以根据需要使用单独的硬件或软件来实现各个单元的功能的组合。
在本发明实施例中,在当前无加载场景时,通过向服务器请求场景信息,并根据场景信息加载场景,实现了主播类互动平台客户端场景加载功能,用户可以在观看过程中启动加载场景,提高了用户参与度,提升了用户体验。
图8为本发明实施例一种主播类互动平台客户端结构示意图,所述客户端用于切换自身当前场景,包括:中央处理器81,显示屏82,其中:
中央处理器81,用于向服务器请求场景列表及场景信息,接收服务器返回的场景列表及场景信息,并根据所述返回的场景信息切换场景,
显示屏82,用于显示场景。
本发明实施例中,处理器所执行的上述操作可以以一段程序的形式存储在存储器中,当需要执行上述操作时,将该段程序调入处理器执行处理。
在本发明实施例中,客户端包括:智能用户终端、个人计算机或三维显示设备,其中,智能用户终端包括智能手机、平板电脑或智能电视等智能设备,三维显示设备除了包括上述处理器及显示屏幕外,还可以包括透反器件。
在本发明实施例中,通过向服务器请求场景信息,并根据场景信息切换场景或加载场景,实现了主播类互动平台客户端场景切换及加载功能,用户可以在观看过程中随意切换自己客户端观看的场景,提高了用户参与度,提升了用户体验。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种主播类互动平台客户端场景切换方法,其特征在于,所述客户端用于切换自身客户端观看的当前场景,所述方法包括:
在当前场景下,向服务器请求场景列表,其中,向服务器请求场景列表具体为:向服务器发送场景列表请求信息,所述场景列表请求信息中包含客户端标识,所述客户端标识用于服务器返回场景列表时标识场景列表的接收方;
接收服务器返回的场景列表,并从所述场景列表中选择场景信息,
向服务器请求所述选择场景信息,
接收服务器返回的场景信息,并根据所述返回的场景信息对当前场景进行切换,
所述方法还包括:
对主播信息进行抠图处理,以获取主播场景图像的前景图像信息,其中,所述前景图像信息具体为主播场景图像中的人物图像信息;
根据切换场景图像的视差信息,将切换场景信息与经处理后的主播信息进行融合,获得客户端呈现内容,其中,所述切换场景图像的视差信息包括:背景零视差深度。
2.根据权利要求1所述的方法,其特征在于,所述向服务器请求所述选择场景信息,具体为:
向服务器发送所述选择场景请求信息,所述选择场景请求信息中包含场景显示位置、场景显示尺寸和场景标识,以使得所述服务器根据所述选择场景请求信息返回场景信息。
3.根据权利要求2所述的方法,其特征在于,所述根据所述返回的场景信息切换场景,具体为:
将所述返回的场景信息匹配客户端显示屏,确定显示尺寸,加载在显示位置。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述对主播信息进行处理,具体包括:
对主播信息进行抠图处理以获取待处理前景图像;
对所述待处理前景图像进行视差处理,以获取所述待处理前景图像的初始视差信息;
获取所述待处理前景图像的参考视差信息、切换场景图像的视差信息;所述切换场景图像的视差信息包括:切换场景图像零视差深度;
获取所述待处理前景图像在位于拍摄零视差深度时的基准视差,其中所述拍摄零视差深度等于所述切换场景图像零视差深度;
根据所述参考视差信息、所述切换场景图像的视差信息、所述基准视差、所述初始视差信息获取所述待处理前景图像的视差偏移量;根据所述视差偏移量对所述待处理前景图像进行调整。
5.根据权利要求4所述的方法,所述对主播信息进行抠图处理以获取待处理前景图像,具体包括:
获取主播场景图像的背景统计信息,所述背景统计信息包括所述主播场景中第一色彩区域在色彩空间的背景均值和标准差值;
根据所述背景均值和标准差值,对所述主播场景图像进行抠图处理,得到所述主播场景图像的待处理前景图像信息。
6.根据权利要求4所述的方法,其特征在于,所述对待处理前景图像进行视差处理,以获取待处理前景图像的初始视差信息具体为:
获取当前主播场景图像中人物的第一掩码图和第二掩码图;
对所述第一掩码图和所述第二掩码图分别进行降维处理,得到与所述第一掩码图对应的第一行矩阵以及与所述第二掩码图对应的第二行矩阵;
在所述第二行矩阵中,确定与所述第一行矩阵中每个抽样点对应的相似点;
利用所述抽样点与所述相似点的视差,确定所述当前主播场景图像中人物的初始视差信息。
7.根据权利要求4所述的方法,其特征在于,还包括:创建三维场景,所述创建三维场景具体包括:
由二维图片合成三维场景,
直接拍摄获得三维场景;或
导入模型创造三维场景。
8.根据权利要求7所述的方法,其特征在于,还包括:将新场景上传至服务器,服务器将新场景写入场景库中,并对场景库进行更新。
9.一种主播类互动平台客户端场景切换装置,其特征在于,所述装置用于客户端切换自身客户端观看的当前场景,所述装置包括:
发送单元,用于在当前场景下向服务器请求场景列表及场景信息,其中,向服务器请求场景列表具体为:向服务器发送场景列表请求信息,所述场景列表请求信息中包含客户端标识,所述客户端标识用于服务器返回场景列表时标识场景列表的接收方;
接收单元,接收服务器返回的场景列表及服务器返回的场景信息,
选择单元,用于从所述场景列表中选择场景信息,
切换单元,用于根据所述返回的场景信息对当前场景进行切换,
所述装置还包括:
处理单元,用于对主播信息进行抠图处理,以获取主播场景图像的前景图像信息,其中,所述前景图像信息具体为主播场景图像中的人物图像信息;根据切换场景图像的视差信息,将切换场景信息与经处理后的主播信息进行融合,获得客户端呈现内容,其中,所述切换场景图像的视差信息包括:背景零视差深度。
10.一种主播类互动平台客户端,其特征在于,所述客户端用于切换自身客户端观看的当前场景,所述客户端包括:
中央处理器,用于向服务器请求场景列表及场景信息,接收服务器返回的场景列表及场景信息,并根据所述返回的场景信息切换场景,其中,向服务器请求场景列表具体为:向服务器发送场景列表请求信息,所述场景列表请求信息中包含客户端标识,所述客户端标识用于服务器返回场景列表时标识场景列表的接收方;
显示屏,用于显示所述场景,
所述中央处理器还用于:
对主播信息进行抠图处理,以获取主播场景图像的前景图像信息,其中,所述前景图像信息具体为主播场景图像中的人物图像信息;
根据切换场景图像的视差信息,将切换场景信息与经处理后的主播信息进行融合,获得客户端呈现内容,其中,所述切换场景图像的视差信息包括:背景零视差深度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201511027381.3A CN106231411B (zh) | 2015-12-30 | 2015-12-30 | 主播类互动平台客户端场景切换、加载方法及装置、客户端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201511027381.3A CN106231411B (zh) | 2015-12-30 | 2015-12-30 | 主播类互动平台客户端场景切换、加载方法及装置、客户端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106231411A CN106231411A (zh) | 2016-12-14 |
CN106231411B true CN106231411B (zh) | 2019-05-21 |
Family
ID=57528706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201511027381.3A Active CN106231411B (zh) | 2015-12-30 | 2015-12-30 | 主播类互动平台客户端场景切换、加载方法及装置、客户端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106231411B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107633547A (zh) * | 2017-09-21 | 2018-01-26 | 北京奇虎科技有限公司 | 实现场景渲染的图像数据实时处理方法及装置、计算设备 |
CN107547804A (zh) * | 2017-09-21 | 2018-01-05 | 北京奇虎科技有限公司 | 实现场景渲染的视频数据处理方法及装置、计算设备 |
CN107566853A (zh) * | 2017-09-21 | 2018-01-09 | 北京奇虎科技有限公司 | 实现场景渲染的视频数据实时处理方法及装置、计算设备 |
CN108124194B (zh) * | 2017-12-28 | 2021-03-12 | 北京奇艺世纪科技有限公司 | 一种视频直播方法、装置及电子设备 |
CN114257866A (zh) * | 2021-12-14 | 2022-03-29 | 上海掌门科技有限公司 | 视频展示方法、可读介质及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102726052A (zh) * | 2010-10-01 | 2012-10-10 | 索尼公司 | 立体图像数据发送设备、立体图像数据发送方法、立体图像数据接收设备以及立体图像数据接收方法 |
CN103634681A (zh) * | 2013-11-29 | 2014-03-12 | 腾讯科技(成都)有限公司 | 直播互动方法、装置、客户端、服务器及系统 |
CN104469259A (zh) * | 2014-12-15 | 2015-03-25 | 广东威创视讯科技股份有限公司 | 一种云端视频合成方法及系统 |
CN104615421A (zh) * | 2014-12-30 | 2015-05-13 | 广州酷狗计算机科技有限公司 | 虚拟礼物展示方法和装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9686329B2 (en) * | 2013-05-17 | 2017-06-20 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for displaying webcast rooms |
-
2015
- 2015-12-30 CN CN201511027381.3A patent/CN106231411B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102726052A (zh) * | 2010-10-01 | 2012-10-10 | 索尼公司 | 立体图像数据发送设备、立体图像数据发送方法、立体图像数据接收设备以及立体图像数据接收方法 |
CN103634681A (zh) * | 2013-11-29 | 2014-03-12 | 腾讯科技(成都)有限公司 | 直播互动方法、装置、客户端、服务器及系统 |
CN104469259A (zh) * | 2014-12-15 | 2015-03-25 | 广东威创视讯科技股份有限公司 | 一种云端视频合成方法及系统 |
CN104615421A (zh) * | 2014-12-30 | 2015-05-13 | 广州酷狗计算机科技有限公司 | 虚拟礼物展示方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN106231411A (zh) | 2016-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106231349B (zh) | 主播类互动平台服务器场景切换方法及其装置、服务器 | |
CN106231411B (zh) | 主播类互动平台客户端场景切换、加载方法及装置、客户端 | |
US11706403B2 (en) | Positional zero latency | |
US9445072B2 (en) | Synthesizing views based on image domain warping | |
US10652519B2 (en) | Virtual insertions in 3D video | |
CN112585978B (zh) | 生成用于在vr中显示的复合视频流 | |
CN101682794B (zh) | 用于处理深度相关信息的方法、装置和系统 | |
CN108154058B (zh) | 图形码展示、位置区域确定方法及装置 | |
WO2003081921A1 (fr) | Procede de traitement d'images tridimensionnelles et dispositif | |
TWI531212B (zh) | 呈現立體影像之系統及方法 | |
EP3547672A1 (en) | Data processing method, device, and apparatus | |
Farre et al. | Automatic content creation for multiview autostereoscopic displays using image domain warping | |
CN106231397B (zh) | 主播类互动平台主播端场景切换方法及其装置、主播端 | |
DE102020124815A1 (de) | System und vorrichtung für benutzergesteuerte virtuelle kamera für volumetrisches video | |
JP2004007395A (ja) | 立体画像処理方法および装置 | |
CN102761768A (zh) | 一种实现立体成像的方法及装置 | |
JP2004007396A (ja) | 立体画像処理方法および装置 | |
CN106713942A (zh) | 视频处理方法和装置 | |
KR20150105069A (ko) | 혼합현실형 가상 공연 시스템을 위한 평면 영상 입체화 합성기법 | |
CN110139095B (zh) | 一种裸眼3d显示模组检测方法、系统和可读存储介质 | |
CN106231350B (zh) | 主播类互动平台场景切换方法及其装置 | |
Zhang et al. | Visual comfort assessment of stereoscopic images with multiple salient objects | |
Lei et al. | Stereoscopic visual attention guided disparity control for multiview images | |
CN106254893A (zh) | 主播类互动平台客户端场景切换方法及其装置、客户端 | |
JP2004221699A (ja) | 立体画像処理方法および装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |