CN106303289A - 一种将真实对象与虚拟场景融合显示的方法、装置及系统 - Google Patents

一种将真实对象与虚拟场景融合显示的方法、装置及系统 Download PDF

Info

Publication number
CN106303289A
CN106303289A CN201510307280.5A CN201510307280A CN106303289A CN 106303289 A CN106303289 A CN 106303289A CN 201510307280 A CN201510307280 A CN 201510307280A CN 106303289 A CN106303289 A CN 106303289A
Authority
CN
China
Prior art keywords
audio
video data
real
image
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510307280.5A
Other languages
English (en)
Other versions
CN106303289B (zh
Inventor
郑远
冯皓
林鎏娟
林剑宇
刘灵辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujian Kaimi Network Science & Technology Co Ltd
Original Assignee
Fujian Kaimi Network Science & Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujian Kaimi Network Science & Technology Co Ltd filed Critical Fujian Kaimi Network Science & Technology Co Ltd
Priority to CN201510307280.5A priority Critical patent/CN106303289B/zh
Publication of CN106303289A publication Critical patent/CN106303289A/zh
Application granted granted Critical
Publication of CN106303289B publication Critical patent/CN106303289B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明涉及将真实对象与虚拟场景融合显示的方法、装置及系统,所述方法包括:实时获取摄像头采集的图像;提取图像中的对象;将对象实时更新到虚拟场景中,得到更新后的画面。本发明利用嵌入式设备自带的GPU进行抠图处理操作,不占用CPU时间,提高系统速度,同时,本发明利用嵌入式设备中的处理器对人像与虚拟场景合成的画面进行编码得到视频数据,通过编码处理,大大降低视频数据的大小,便于视频数据流畅地进行网络传输,在其他客户端上进行流畅的实时显示。

Description

一种将真实对象与虚拟场景融合显示的方法、装置及系统
技术领域
[0001] 本发明涉及多媒体技术领域,尤其涉及一种将真实对象与虚拟场景融合显示的方法、装置及系统。
背景技术
[0002] 虚拟场景合成技术当前已广泛应用于电视台演播厅录播节目或电影制作中,例如天气预报节目等。虚拟场景合成技术是将摄像机采集到的纯色背景中的人像提取出来,与渲染出来的虚拟场景背景进行叠加合成,再将合成后的画面输出的一种技术。这种技术目前均是以PC电脑为平台实现,还需要配备专业摄像机采集视频输入给PC,所有设备整合后出售,设备较多且价格高昂,一般只有专业场合才会使用,例如电视台演播厅。
[0003] 嵌入式系统是指嵌入到对象系统中的专用计算机应用系统,广泛应用于手机、机顶盒、GPS等手持或微型设备中,而嵌入式应用是指基于嵌入式操作系统的应用程序。随着现代嵌入式产品需要的高速发展,嵌入式应用开发愈发普遍。基于成本或功耗等考虑,通常这类产品的硬件性能一般不高。
[0004] 同时,目前虚拟场景合成技术在实效性上存在很大的缺陷,特别是无法通过嵌入式系统进行实时虚拟场景合成。采用PC系统实现虚拟场景合成技术中,采用CPU进行读取摄像头获取的视频,并进行人像提取等处理。因嵌入式系统硬件性能低于PC设备,若在嵌入式方案中,也让CPU进行上述人像提取处理,CPU负担太重,无法在显示终端进行流畅的实时显不O
发明内容
[0005] 本发明实施例所要解决的技术问题在于,提供一种一种将真实对象与虚拟场景融合显示的的嵌入式方案,该方案可以利用嵌入式设备所包含的摄像头、GPU、编解码模块等功能,通过网络传输,实现真实对象与虚拟场景的实时合成和显示,并能被外部设备分享的效果。
[0006] 为了解决上述技术问题,本发明提供一种将真实对象与虚拟场景融合显示的方法,其包括:
[0007] 实时获取摄像头采集的图像;
[0008] 提取图像中的对象;
[0009] 将对象实时更新到虚拟场景中,得到更新后的画面。
[0010] 进一步,将更新后的画面在显示终端上实时更新显示。
[0011] 本发明所述的将真实对象与虚拟场景融合显示的方法,还包括:
[0012] 将更新后的画面编码得到视频数据;
[0013] 实时获取音频数据;
[0014] 将音频数据和视频数据进行封装,得到音视频数据。
[0015] 进一步,在得到音视频数据后,还包括:客户端获取音视频数据并进行播放。
[0016] 进一步,所述“客户端获取音视频数据并进行播放”具体为:客户端通过实时流传输协议获取音视频数据,并对音视频数据中的视频数据解码显示画面,音频数据解码后通过音频播放设备播放。
[0017] 进一步,所述提取图像中的对象具体步骤为:GPU将图像中的每个像素的颜色值与预设的阈值做比较;若像素的颜色值在预设的阈值内,则将该像素点的Alpha通道设为零,即将背景显示为透明色,提取出对象,所述背景为纯色背景。
[0018] 进一步,在“实时获取摄像头采集的图像”步骤前还包括:同步实时获取音频数据通过音频输出设备进行播放;所述音频数据为演唱者演唱的声音,或演唱者演唱的声音及歌曲伴奏的混合声音。
[0019] 进一步,所述获取音频数据后,将音频数据编码成便于网络传输的音频格式的音频数据;所述音频数据为演唱者演唱的声音,或演唱者演唱的声音及歌曲伴奏的混合声音。
[0020] 进一步,所述“提取图像中的对象”步骤中,所述对象为人像。
[0021] 进一步,所述将音频数据和视频数据进行封装,得到音视频数据后,还包括步骤:将音视频数据进行保存,并上传至网关服务器,网关服务器将接收的音视频数据上传至云端服务器,云端服务器接收音视频数据并生成分享地址。
[0022] 本发明还提供一种将真实对象与虚拟场景融合显示的装置,包括:
[0023]图像获取单元:用于实时获取摄像头采集的图像;
[0024] 对象提取单元:用于提取图像中的对象;
[0025] 画面更新单元:用于将对象实时更新到虚拟场景中,得到更新后的画面。
[0026] 本发明所述的将真实对象与虚拟场景融合显示的装置,其还包括:画面显示单元:用于将更新后的画面在显示终端上实时更新显示。
[0027] 本发明所述的将真实对象与虚拟场景融合显示的装置,其还包括:
[0028] 编码单元:用于将更新后的画面编码得到视频数据;
[0029] 音频获取单元:用于实时获取音频数据;
[0030] 音视频封装单元:用于将音频数据和视频数据进行封装,得到音视频数据。
[0031] 播放单元:用于客户端获取音视频数据并进行播放。
[0032] 进一步,所述对象提取单元具体为:用于通过GPU将图像中的每个像素的颜色值与预设的阈值做比较;若像素的颜色值在预设的阈值内,则将该像素点的Alpha通道设为零,即将背景显示为透明色,提取出对象,所述背景为纯色背景。
[0033] 本发明所述的将真实对象与虚拟场景融合显示的装置,其还包括分享单元,用于将音视频数据进行保存,并上传至网关服务器,网关服务器将接收的音视频数据上传至云端服务器,云端服务器接收音视频数据并生成分享地址。
[0034] 本发明还提供一种将真实对象与虚拟场景融合显示的嵌入式设备,包括:摄像头、GPU和处理器;
[0035] 所述摄像头用于实时采集图像;
[0036] GPU用于提取图像中的对象;
[0037] 处理器用于将对象实时更新到虚拟场景中,得到更新后的画面;将更新后的画面在显示终端上实时更新显示。
[0038] 进一步,所述处理器还用于:将画面编码得到视频数据;获取音频数据;将音频数据和视频数据进行封装,得到音视频数据。
[0039] 进一步,所述“GPU用于提取图像中的对象”具体操作为:将图像中的每个像素的颜色值与预设的阈值做比较;若像素的颜色值在预设的阈值内,则将该像素点的Alpha通道设为零,即将背景显示为透明色,提取出对象,所述背景为纯色背景。
[0040] 本发明还提供一种基于虚拟场景合成视频的嵌入式系统,包括权利要求17-19任一项的嵌入式设备,及
[0041] 音效器:实时获取音频数据,并将音频数据编码成便于网络传输的音频格式的音频数据后,发送给嵌入式设备;所述音频数据为演唱者演唱的声音,或为演唱者演唱的声音及歌曲伴奏的混合声音;
[0042] 客户端:获取嵌入式设备发送的封装的音视频数据并进行实时播放;
[0043] 显不终端:实时显不更新后的画面;
[0044] 网关服务器:接收嵌入式设备发送的音视频数据;
[0045] 云端服务器:接收网关服务器发送的音视频数据,并进行保存和生成分享地址。
[0046] 本发明是采用嵌入式方案,利用嵌入式设备所包含的功能:摄像头、GPU、编码单元,实现了真实对象与虚拟场景的合成,并统一了输出接口和输出格式,大大降低了设备的成本,方便使用。利用嵌入式设备中安装的系统(如Android、1S等系统)支持摄像头的特性,在嵌入式设备上实现画面采集,画面采集后通过GPU运算实时提取出前景对象(主要为人像),再和虚拟场景实时合成,将合成后的画面经过嵌入式设备进行编码后,通过网络传输,实现人像与虚拟场景在客户端的实时显示。
[0047] 本发明的方案实现的优点在于:
[0048] 1.利用嵌入式设备自带的GPU进行抠图处理操作,不占用CPU时间,提高系统速度;并且由于GPU是专门对图像进行处理的硬件,对不同大小的像素运算时间一样,例如,8位、16位、32位的像素运算时间均一样,可大大节省了对像素的运算时间;而普通的CPU会随像素的大小的增大延长处理时间;所以本发明的人像提前速度大大提高;上述的区别点也是本发明嵌入式方案能实现流畅显示的关键点,因为嵌入式方案的CPU性能一般差于PC方案中的CPU性能,在PC方案中,CPU需进行读取摄像头获取的视频,并进行抠图等处理。若在嵌入式方案中,也让CPU进行上述处理,CPU负担太重,无法进行流畅的显示。而在本发明的嵌入式方案中,将上述抠图处理放入GPU中进行,既减轻了 CPU的负担,同时不会对GPU的运行造成影响。
[0049] 2、利用嵌入式设备的处理器对人像与虚拟场景合成的画面进行编码得到视频数据,通过编码处理,大大降低视频数据的大小,便于视频数据流畅地进行网络传输,在其他客户端上进行流畅的实时显示。
[0050] 3、采用嵌入式设备(如Android系统或者1S系统)所自带的摄像头、GPU、处理器等部件,即可实现本发明上述的目的,相对PC方案而已,大大降低了达到同等效果的设备成本。
[0051] 4.基于纯色(蓝色/绿色)背景抠图算法,实现了对象提取,在虚拟场景中显示,达到了将真实对象与虚拟场景的结合,实现了对象(演唱者)在虚拟场景上演唱的效果。
附图说明
[0052] 图1是本发明实施例一种将真实对象与虚拟场景融合显示的方法的流程示意图;
[0053] 图2是本发明实施例二一种将真实对象与虚拟场景融合显示的装置的结构示意图;
[0054] 图3为本发明实施例三一种将真实对象与虚拟场景融合显示的嵌入式设备的结构示意图;
[0055] 图4为本发明实施例四一种将真实对象与虚拟场景融合显示的嵌入式系统的结构示意图。
具体实施方式
[0056] 下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0057] 实施例1
[0058] 如图1所示,本发明提供一种将真实对象与虚拟场景融合显示的方法,其包括:
[0059] SlOO:实时获取摄像头采集的图像;
[0060] S200:提取图像中的对象;所述对象可为人像;
[0061] S300:将对象实时更新到虚拟场景中,得到更新后的画面。
[0062] 本发明通过上述方案,实现对象与虚拟场景的实时合成。本发明中,所述虚拟场景包括3D虚拟舞台、3D虚拟现实场景或3D视频等。
[0063] 3D虚拟舞台是3D虚拟现实场景中的特例情况,通过计算机技术模拟现实舞台,实现一种立体感、真实感强的舞台效果。
[0064] 3D虚拟现实场景技术是一种可以创建和体验虚拟世界的计算机仿真系统,它利用计算机生成一种现实场景的3D模拟场景,是一种多源信息融合的交互式的三维动态视景和实体行为的系统仿真。虚拟场景包括任何现实生活中存在的实际场景,包含视觉、听觉等任何能通过体感感受到的景象,通过计算机技术来模拟实现。
[0065] 3D视频为:拍摄影像时,用两台摄影机模拟左右两眼视差,分别拍摄两条影片,然后将这两条影片同时放映到银幕上,放映时让观众左眼只能看到左眼图像,右眼只能看到右眼图像。最后两幅图像经过大脑叠合后,就能看到具有立体纵深感的画面,即为3D视频。
[0066] 所述提取图像中的对象具体步骤为:GPU将图像中的每个像素的颜色值与预设的阈值做比较;若像素的颜色值在预设的阈值内,则将该像素点的Alpha通道设为零,即将背景显示为透明色,提取出对象,所述背景为纯色背景。
[0067] 由于背景为纯色,所以本发明采用色度键法进行抠图。其中预设的阈值为背景颜色的颜色值,例如,背景颜色为绿色,则预设的像素点RGB颜色值的阈值为(0±10、255-10、0±10)。背景色优选为绿色或蓝色,在数字视听场所可同时设置两种颜色的背景,供用户选择。当用户穿与绿色反差较大的衣服唱歌时,可选用绿色的背景。在对象(人像)提取过程中,由于用户穿的衣服与背景色相差较大,所以图像中的每个像素的颜色值与预设的阈值进行比较后,背景部分像素点的颜色值在预设的阈值内,将背景部分像素点的Alpha通道设为零,即将背景显示为透明色;而人像部分的像素点不在预设的阈值内,保留人像部分,从而实现将人像从图像中提取出来。
[0068] 在本发明中,利用嵌入式设备自带的GPU进行抠图处理操作,不占用CPU时间,提高系统速度;并且由于GPU是专门对图像进行处理的硬件,对不同大小的像素运算时间一样,例如,8位、16位、32位的像素运算时间均一样,可大大节省了对像素的运算时间;而普通的CPU会随像素大小的增大延长处理时间;所以本发明的人像提前速度大大提高;上述的区别点也是本发明嵌入式方案能实现流畅显示的关键点,因为嵌入式方案的CPU性能一般差于PC方案中的CPU性能,在PC方案中,CPU需进行读取摄像头获取的视频,并进行抠图等处理。若在嵌入式方案中,也让CPU进行上述处理,CPU负担太重,无法进行流畅的显示。而在本发明的嵌入式方案中,将上述抠图处理放入GPU中进行,既减轻了 CPU的负担,同时不会对GPU的运行造成影响。
[0069] 本发明所述的将真实对象与虚拟场景融合显示的方法,其还包括:
[0070] S400:将更新后的画面在显示终端上实时更新显示。
[0071] 通过在显示终端上的更新显示,用户可看到对象与虚拟场景合成后的视频。
[0072] 本发明所述的将真实对象与虚拟场景融合显示的方法,还包括:
[0073] S500:将更新后的画面编码得到视频数据;
[0074] S600:实时获取音频数据;
[0075] S700:将音频数据和视频数据进行封装,得到音视频数据。
[0076] 步骤S500中,对更新后的画面进行编码,本发明实现音视频数据在客户端实时流畅显示的关键步骤。在现有技术中,一般不对原始画面进行处理,原始画面数据量大,所以现有技术还未出现对人像和虚拟场景合成后的画面,实时在客户端显示的技术。而本发明将更新后的画面先进行编码,经过编码操作可大大减小画面大小。
[0077] 例如:在分辨率为720P的情况下,I帧视频的大小为1.31MByte,I秒视频为30帧画面,所以,现有视频中,I秒视频的大小为:30*1.31 = 39.3MByte ;
[0078] 本发明对画面进行编码后,还是在分辨率为720P下,设码率为4Mbit,I秒的视频的大小为4Mbit,由于IByte = 8bit,所以I秒的视频为0.5MByte ;与现有视频相比,编码后的视频数据大大减小,从而编码后的视频数据可流畅地在网络上进行传输,实现在客户端流畅显示音视频数据。
[0079] 本发明在得到音视频数据后,还包括步骤S800:客户端获取音视频数据并进行播放。所述“客户端获取音视频数据并进行播放”具体为:客户端通过实时流传输协议获取音视频数据,并对音视频数据中的视频数据解码显示画面,所述画面内容可为3D场景渲染的画面;音频数据解码后通过音频播放设备(例如扬声器)播放。所述实时流传输协议可以是RTSP协议。通过步骤S500的编码操作,在本步骤中,可实现客户端流畅播放视频数据。
[0080] 本发明在“实时获取摄像头采集的图像”步骤前还包括:S001:同步实时获取音频数据通过音频输出设备进行播放。所述音频数据为演唱者演唱的声音,或演唱者演唱的声音及歌曲伴奏的混合声音。通过实时播放用户演唱的声音和歌曲伴奏,同时,在显示终端实时显示更新后的画面。这样,不仅可听到自己演唱声音,还可以在显示终端看到与演唱声音同步的画面(人像与虚拟场景的结合),实现了虚拟舞台的效果。
[0081] 本发明中,所述步骤S600获取音频数据后,将音频数据编码成便于网络传输的音频格式的音频数据,从而便于音频数据的网络传输;所述音频数据为演唱者演唱的声音,或演唱者演唱的声音及歌曲伴奏的混合声音。
[0082] 本发明步骤S700所述将音频数据和视频数据进行封装,得到音视频数据后,还包括步骤S800:将音视频数据进行保存,并上传至网关服务器,网关服务器将接收的音视频数据上传至云端服务器,云端服务器接收音视频数据并生成分享地址。通过上述步骤,实现了音视频数据的分享。在通过终端设备(例如手机、电脑、平板等带显示屏的电子设备)登录分享地址,即可直接播放音视频数据或下载音视频数据。
[0083] 实施例2
[0084] 如图2所示,本发明还提供一种将真实对象与虚拟场景融合显示的装置,包括:
[0085]图像获取单元1:用于实时获取摄像头采集的图像;
[0086] 对象提取单元2:用于提取图像中的对象;
[0087] 画面更新单元3:用于将对象实时更新到虚拟场景中,得到更新后的画面。
[0088] 通过上述装置,实现对图像中对象的提取,及对象与虚拟场景的合成。
[0089] 本发明所述的将真实对象与虚拟场景融合显示的装置,其还包括:画面显示单元4:用于将更新后的画面在显示终端上实时更新显示。通过画面显示单元4,可在显示终端观看到实时更新的画面。
[0090] 本发明所述的将真实对象与虚拟场景融合显示的装置,其还包括:音频获取及播放单元01,用于同步实时获取音频数据通过音频输出设备进行播放。所述音频数据为演唱者演唱的声音,或演唱者演唱的声音及歌曲伴奏的混合声音。通过音频获取及播放单元01的操作,可在显示终端播放更新画面时,实时播放对应的演唱音频及伴音,实现虚拟舞台的效果。
[0091] 本发明所述的将真实对象与虚拟场景融合显示的装置,其还包括:
[0092] 编码单元5:用于将更新后的画面编码得到视频数据;
[0093] 音频获取单元6:用于实时获取音频数据;
[0094] 音视频封装单元7:用于将音频数据和视频数据进行封装,得到音视频数据。
[0095] 播放单元8:用于客户端获取音视频数据并进行播放。
[0096] 通过编码单元5,对画面进行编码后,视频数据的大大减少,便于后续网络传输。通过音视频封装单元7的封装操作,即可得到音视频数据。该音视频数据通过播放单元8进行播放,客户端可实时流畅地观看制作的虚拟舞台视频。
[0097] 所述对象提取单元2具体为:用于通过GPU将图像中的每个像素的颜色值与预设的阈值做比较;若像素的颜色值在预设的阈值内,则将该像素点的Alpha通道设为零,即将背景显示为透明色,提取出对象,所述背景为纯色背景。
[0098] 本发明所述的将真实对象与虚拟场景融合显示的装置,其还包括分享单元9,用于将音视频数据进行保存,并上传至网关服务器,网关服务器将接收的音视频数据上传至云端服务器,云端服务器接收音视频数据并生成分享地址。通过分享单元9,实现了音视频数据的分享。在通过终端设备(例如手机、电脑、平板等带显示屏的电子设备)登录分享地址,即可直接播放音视频数据或下载音视频数据。
[0099] 实施例3
[0100] 如图3所示,本发明还提供一种将真实对象与虚拟场景融合显示的嵌入式设备10,包括:摄像头20、GPU 30和处理器40 ;
[0101] 所述摄像头20用于实时采集图像;
[0102] GPU 30用于提取图像中的对象;
[0103] 处理器40用于将对象实时更新到虚拟场景中,得到更新后的画面;将更新后的画面在显示终端上实时更新显示。
[0104] 所述处理器40还用于:将画面编码得到视频数据;获取音频数据;将音频数据和视频数据进行封装,得到音视频数据。
[0105] 本发明的嵌入式设备可安装安卓操作系统,用安卓系统的图像处理功能,对画面进行编码,对音频数据和视频数据进行封装,从而大大减少了设备的成本。
[0106] 本发明的嵌入式设备中,由GPU对图像中的对象进行提取,从而减轻处理器的负担,又不影响GPU的工作,这样不仅保证可在嵌入式设备中实现人像与虚拟场景的合成,还可实现合成编码后视频文件的实时流畅传输。
[0107] 所述“GPU 30用于提取图像中的对象”具体操作为:将图像中的每个像素的颜色值与预设的阈值做比较;若像素的颜色值在预设的阈值内,则将该像素点的Alpha通道设为零,即将背景显示为透明色,提取出对象,所述背景为纯色背景。
[0108] 实施例4
[0109] 如图4所示,本发明还提供一种基于虚拟场景合成视频的嵌入式系统,包括嵌入式设备10,及
[0110] 音效器50:实时获取音频数据,并将音频数据编码成便于网络传输的音频格式的音频数据后,发送给嵌入式设备;所述音频数据为演唱者演唱的声音,或为演唱者演唱的声音及歌曲伴奏的混合声音;
[0111] 客户端60:获取嵌入式设备发送的封装的音视频数据并进行实时播放;
[0112] 显不终端70:实时显不更新后的画面;
[0113] 网关服务器80:接收嵌入式设备发送的音视频数据;
[0114] 云端服务器90:接收网关服务器发送的音视频数据,并进行保存和生成分享地址。

Claims (20)

1.一种将真实对象与虚拟场景融合显示的方法,其特征在于,包括: 实时获取摄像头采集的图像; 提取图像中的对象; 将对象实时更新到虚拟场景中,得到更新后的画面。
2.根据权利要求1所述的方法,其特征在于,还包括:将更新后的画面在显示终端上实时更新显示。
3.根据权利要求1或2所述的方法,其特征在于,还包括: 将更新后的画面编码得到视频数据; 实时获取音频数据; 将音频数据和视频数据进行封装,得到音视频数据。
4.根据权利要求3所述的方法,其特征在于,还包括: 客户端获取音视频数据并进行播放。
5.如权利要求4所述的方法,其特征在于,所述“客户端获取音视频数据并进行播放”具体为:客户端通过实时流传输协议获取音视频数据,并对音视频数据中的视频数据解码显示画面,音频数据解码后通过音频播放设备播放。
6.如权利要求1所述的方法,其特征在于,所述提取图像中的对象具体步骤为: GPU将图像中的每个像素的颜色值与预设的阈值做比较;若像素的颜色值在预设的阈值内,则将该像素点的Alpha通道设为零,即将背景显示为透明色,提取出对象,所述背景为纯色背景。
7.如权利要求2所述的方法,其特征在于,在“实时获取摄像头采集的图像”步骤前还包括:同步实时获取音频数据通过音频输出设备进行播放;所述音频数据为演唱者演唱的声音,或演唱者演唱的声音及歌曲伴奏的混合声音。
8.如权利要求3所述的方法,其特征在于,所述获取音频数据后,将音频数据编码成便于网络传输的音频格式的音频数据;所述音频数据为演唱者演唱的声音,或演唱者演唱的声音及歌曲伴奏的混合声音。
9.如权利要求1所述的方法,其特征在于,所述“提取图像中的对象”步骤中,所述对象为人像。
10.如权利要求2所述的方法,其特征在于,所述将音频数据和视频数据进行封装,得到音视频数据后,还包括步骤:将音视频数据进行保存,并上传至网关服务器,网关服务器将接收的音视频数据上传至云端服务器,云端服务器接收音视频数据并生成分享地址。
11.一种将真实对象与虚拟场景融合显示的装置,其特征在于,包括: 图像获取单元:用于实时获取摄像头采集的图像; 对象提取单元:用于提取图像中的对象; 画面更新单元:用于将对象实时更新到虚拟场景中,得到更新后的画面。
12.根据权利要求11所述的装置,其特征在于,其还包括: 画面显示单元:用于将更新后的画面在显示终端上实时更新显示。
13.根据权利要求11所述的装置,其特征在于,其还包括: 编码单元:用于将更新后的画面编码得到视频数据; 音频获取单元:用于实时获取音频数据; 音视频封装单元:用于将音频数据和视频数据进行封装,得到音视频数据。
14.根据权利要求11所述的装置,其特征在于,其还包括: 播放单元:用于客户端获取音视频数据并进行播放。
15.根据权利要求11所述的装置,其特征在于,所述对象提取单元具体为: 用于通过GPU将图像中的每个像素的颜色值与预设的阈值做比较;若像素的颜色值在预设的阈值内,则将该像素点的Alpha通道设为零,即将背景显示为透明色,提取出对象,所述背景为纯色背景。
16.根据权利要求11所述的装置,其特征在于,其还包括分享单元,用于将音视频数据进行保存,并上传至网关服务器,网关服务器将接收的音视频数据上传至云端服务器,云端服务器接收音视频数据并生成分享地址。
17.一种将真实对象与虚拟场景融合显示的嵌入式设备,其特征在于,包括: 摄像头、GPU和处理器; 所述摄像头用于实时采集图像; GPU用于提取图像中的对象; 处理器用于将对象实时更新到虚拟场景中,得到更新后的画面;将更新后的画面在显示终端上实时更新显示。
18.根据权利要求17所述的嵌入式设备,其特征在于,所述处理器还用于: 将画面编码得到视频数据;获取音频数据;将音频数据和视频数据进行封装,得到音视频数据。
19.根据权利要求17所述的嵌入式设备,其特征在于:所述“GPU用于提取图像中的对象”具体操作为:将图像中的每个像素的颜色值与预设的阈值做比较;若像素的颜色值在预设的阈值内,则将该像素点的Alpha通道设为零,即将背景显示为透明色,提取出对象,所述背景为纯色背景。
20.一种基于虚拟场景合成视频的嵌入式系统,其特征在于:包括权利要求17-19任一项的嵌入式设备,及音效器:实时获取音频数据,并将音频数据编码成便于网络传输的音频格式的音频数据后,发送给嵌入式设备;所述音频数据为演唱者演唱的声音,或为演唱者演唱的声音及歌曲伴奏的混合声音; 客户端:获取嵌入式设备发送的封装的音视频数据并进行实时播放; 显不终端:实时显不更新后的画面; 网关服务器:接收嵌入式设备发送的音视频数据; 云端服务器:接收网关服务器发送的音视频数据,并进行保存和生成分享地址。
CN201510307280.5A 2015-06-05 2015-06-05 一种将真实对象与虚拟场景融合显示的方法、装置及系统 Active CN106303289B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510307280.5A CN106303289B (zh) 2015-06-05 2015-06-05 一种将真实对象与虚拟场景融合显示的方法、装置及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510307280.5A CN106303289B (zh) 2015-06-05 2015-06-05 一种将真实对象与虚拟场景融合显示的方法、装置及系统

Publications (2)

Publication Number Publication Date
CN106303289A true CN106303289A (zh) 2017-01-04
CN106303289B CN106303289B (zh) 2020-09-04

Family

ID=57658974

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510307280.5A Active CN106303289B (zh) 2015-06-05 2015-06-05 一种将真实对象与虚拟场景融合显示的方法、装置及系统

Country Status (1)

Country Link
CN (1) CN106303289B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107018336A (zh) * 2017-04-11 2017-08-04 腾讯科技(深圳)有限公司 图像处理的方法和装置及视频处理的方法和装置
CN108055495A (zh) * 2017-12-14 2018-05-18 南京美桥信息科技有限公司 一种可视虚拟聚会方法和系统
CN108259781A (zh) * 2017-12-27 2018-07-06 努比亚技术有限公司 视频合成方法、终端及计算机可读存储介质
CN108513060A (zh) * 2017-02-28 2018-09-07 三星电子株式会社 使用外部电子设备的拍摄方法和支持该方法的电子设备
CN109040619A (zh) * 2018-08-24 2018-12-18 合肥景彰科技有限公司 一种视频融合方法和装置
CN109447020A (zh) * 2018-11-08 2019-03-08 郭娜 基于全景肢体动作的交互方法及系统
CN109660818A (zh) * 2018-12-30 2019-04-19 广东彼雍德云教育科技有限公司 一种虚拟互动直播系统
CN109743584A (zh) * 2018-11-13 2019-05-10 百度在线网络技术(北京)有限公司 全景视频合成方法、服务器、终端设备及存储介质
CN110162667A (zh) * 2019-05-29 2019-08-23 北京三快在线科技有限公司 视频生成方法、装置及存储介质
CN111372013A (zh) * 2020-03-16 2020-07-03 广州秋田信息科技有限公司 视频快速合成方法、装置、计算机设备以及存储介质
CN111698543A (zh) * 2020-05-28 2020-09-22 厦门友唱科技有限公司 基于演唱场景的交互实现方法、介质及系统
CN108513060B (zh) * 2017-02-28 2021-12-21 三星电子株式会社 使用外部电子设备的拍摄方法和支持该方法的电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102157011A (zh) * 2010-12-10 2011-08-17 北京大学 利用移动拍摄设备进行动态纹理采集及虚实融合的方法
CN102404667A (zh) * 2010-07-28 2012-04-04 株式会社泛泰 融合声对象信息的设备和方法
CN103248830A (zh) * 2013-04-10 2013-08-14 东南大学 面向移动智能终端增强现实的实时视频合并方法
CN103559713A (zh) * 2013-11-10 2014-02-05 深圳市幻实科技有限公司 一种提供增强现实的方法及终端
WO2015027599A1 (zh) * 2013-08-30 2015-03-05 北京智谷睿拓技术服务有限公司 内容投射系统及内容投射方法
CN104539925A (zh) * 2014-12-15 2015-04-22 北京邮电大学 基于深度信息的三维场景增强现实的方法及系统
CN104660872A (zh) * 2015-02-14 2015-05-27 赵继业 一种虚拟场景合成系统及方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102404667A (zh) * 2010-07-28 2012-04-04 株式会社泛泰 融合声对象信息的设备和方法
CN102157011A (zh) * 2010-12-10 2011-08-17 北京大学 利用移动拍摄设备进行动态纹理采集及虚实融合的方法
CN103248830A (zh) * 2013-04-10 2013-08-14 东南大学 面向移动智能终端增强现实的实时视频合并方法
WO2015027599A1 (zh) * 2013-08-30 2015-03-05 北京智谷睿拓技术服务有限公司 内容投射系统及内容投射方法
CN103559713A (zh) * 2013-11-10 2014-02-05 深圳市幻实科技有限公司 一种提供增强现实的方法及终端
CN104539925A (zh) * 2014-12-15 2015-04-22 北京邮电大学 基于深度信息的三维场景增强现实的方法及系统
CN104660872A (zh) * 2015-02-14 2015-05-27 赵继业 一种虚拟场景合成系统及方法

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10917552B2 (en) 2017-02-28 2021-02-09 Samsung Electronics Co., Ltd. Photographing method using external electronic device and electronic device supporting the same
CN108513060B (zh) * 2017-02-28 2021-12-21 三星电子株式会社 使用外部电子设备的拍摄方法和支持该方法的电子设备
CN108513060A (zh) * 2017-02-28 2018-09-07 三星电子株式会社 使用外部电子设备的拍摄方法和支持该方法的电子设备
CN107018336B (zh) * 2017-04-11 2018-11-09 腾讯科技(深圳)有限公司 图像处理的方法和装置及视频处理的方法和装置
WO2018188499A1 (zh) * 2017-04-11 2018-10-18 腾讯科技(深圳)有限公司 图像、视频处理方法和装置、虚拟现实装置和存储介质
CN107018336A (zh) * 2017-04-11 2017-08-04 腾讯科技(深圳)有限公司 图像处理的方法和装置及视频处理的方法和装置
CN108055495A (zh) * 2017-12-14 2018-05-18 南京美桥信息科技有限公司 一种可视虚拟聚会方法和系统
CN108259781B (zh) * 2017-12-27 2021-01-26 努比亚技术有限公司 视频合成方法、终端及计算机可读存储介质
CN108259781A (zh) * 2017-12-27 2018-07-06 努比亚技术有限公司 视频合成方法、终端及计算机可读存储介质
CN109040619A (zh) * 2018-08-24 2018-12-18 合肥景彰科技有限公司 一种视频融合方法和装置
CN109447020A (zh) * 2018-11-08 2019-03-08 郭娜 基于全景肢体动作的交互方法及系统
CN109743584A (zh) * 2018-11-13 2019-05-10 百度在线网络技术(北京)有限公司 全景视频合成方法、服务器、终端设备及存储介质
CN109743584B (zh) * 2018-11-13 2021-04-06 百度在线网络技术(北京)有限公司 全景视频合成方法、服务器、终端设备及存储介质
CN109660818A (zh) * 2018-12-30 2019-04-19 广东彼雍德云教育科技有限公司 一种虚拟互动直播系统
CN110162667A (zh) * 2019-05-29 2019-08-23 北京三快在线科技有限公司 视频生成方法、装置及存储介质
CN111372013A (zh) * 2020-03-16 2020-07-03 广州秋田信息科技有限公司 视频快速合成方法、装置、计算机设备以及存储介质
CN111698543A (zh) * 2020-05-28 2020-09-22 厦门友唱科技有限公司 基于演唱场景的交互实现方法、介质及系统

Also Published As

Publication number Publication date
CN106303289B (zh) 2020-09-04

Similar Documents

Publication Publication Date Title
CN106303289A (zh) 一种将真实对象与虚拟场景融合显示的方法、装置及系统
CN106792246B (zh) 一种融合式虚拟场景互动的方法及系统
CN106789991A (zh) 一种基于虚拟场景的多人互动方法及系统
CN106101741B (zh) 在网络视频直播平台上观看全景视频的方法及系统
Cheng et al. RMIT3DV: Pre-announcement of a creative commons uncompressed HD 3D video database
JP2016527791A (ja) 画像処理方法及び装置
US11087549B2 (en) Methods and apparatuses for dynamic navigable 360 degree environments
WO2017107758A1 (zh) 应用于图像或视频的ar显示系统及方法
CN106730815B (zh) 一种易实现的体感互动方法及系统
CN106412558B (zh) 一种立体虚拟现实直播方法、装置及设备
WO2018045927A1 (zh) 一种基于三维虚拟技术的网络实时互动直播方法及装置
US20150156475A1 (en) Method and Device for Implementing Stereo Imaging
KR20150129260A (ko) 오브젝트 가상현실 콘텐츠 서비스 시스템 및 방법
CN106161988A (zh) 一种增强现实视频生成方法
TW201438463A (zh) 用於將互動特徵加入視頻之技術
CN104021585A (zh) 基于真实场景的三维展示方法
TW201342885A (zh) 使用網際網路的整合立體轉換裝置
CN106331521A (zh) 一种网络虚拟现实技术与实拍结合影视制作系统
CN103841299A (zh) 虚拟演播室系统
US10621777B2 (en) Synthesis of composite images having virtual backgrounds
WO2018121333A1 (zh) 一种360度vr全景图形图像及视频实时生成方法
US20190335162A1 (en) System that generates virtual viewpoint image, method and storage medium
CN106412718A (zh) 一种字幕在3d空间中的渲染方法及其装置
CN106303694A (zh) 一种多媒体幻灯片制备的方法
WO2020258907A1 (zh) 虚拟物品的生成方法、装置及设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant