CN116863105A - 将人体三维影像投射于真实物理场景中的方法及相关装置 - Google Patents

将人体三维影像投射于真实物理场景中的方法及相关装置 Download PDF

Info

Publication number
CN116863105A
CN116863105A CN202310606838.4A CN202310606838A CN116863105A CN 116863105 A CN116863105 A CN 116863105A CN 202310606838 A CN202310606838 A CN 202310606838A CN 116863105 A CN116863105 A CN 116863105A
Authority
CN
China
Prior art keywords
dimensional
augmented reality
human body
mobile terminal
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310606838.4A
Other languages
English (en)
Inventor
赵岩伟
赵辰
王振阳
郭于晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Field Future Technology Co ltd
Original Assignee
Hangzhou Field Future Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Field Future Technology Co ltd filed Critical Hangzhou Field Future Technology Co ltd
Priority to CN202310606838.4A priority Critical patent/CN116863105A/zh
Publication of CN116863105A publication Critical patent/CN116863105A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种将人体三维影像投射于真实物理场景中的方法及相关装置。方法包括:三维重建系统对真实场景进行三维重建,形成真实场景的视觉地图并部署于增强现实服务器;客户端根据采集到的多个人体实时图像生成人体三维虚拟影像,并利用增强现实技术根据视觉地图将人体三维虚拟影像投射于真实场景中,形成虚拟人物场景内容部署在增强现实服务器;增强现实服务器根据视觉地图以及用户移动端采集的视频流,判断用户移动端的移动设备位姿信息,根据移动设备位姿信息,反求出真实场景与用户移动端之间的相对位置并传输至用户移动端;用户移动端根据相对位置将根据真实场景搭建的虚拟人物场景内容投放给用户。

Description

将人体三维影像投射于真实物理场景中的方法及相关装置
技术领域
本发明涉及人工智能技术领域,并且更具体地,涉及一种将人体三维影像投射于真实物理场景中的方法及相关装置。
背景技术
市面上将真实的三维影像(例如人的影像)投射于一个远程的真实物理场景中,主要依据以下两种技术方法:
全息投影:市面上的部分全息投影技术可以支持将真实的三维物体(例如人等真实的移动物体)远程投射于另一个场景下,例如一些全息投影课堂技术可以支持将教师的三维影像投射于一个远程的教室中,达到更生动的远程教学;
增强现实应用:另外,市面上多数AR技术和应用也可以在一个真实的场景中投放一个虚拟的三维物体,来与用户进行一些交互。
但是上述现有技术中存在以下问题:1.全息投影技术的播放需要复杂的硬件设备;2.在传统的增强现实技术中不支持对远程的真实三维物体进行实时采集和投射。
发明内容
针对现有技术的不足,本发明提供一种将人体三维影像投射于真实物理场景中的方法及相关装置。
根据本发明的一个方面,提供了一种将人体三维影像投射于真实物理场景中的方法,包括:
三维重建系统对真实场景进行三维重建,形成真实场景的视觉地图并部署于增强现实服务器;
客户端根据采集到的多个人体实时图像,生成人体三维虚拟影像,并利用增强现实技术根据视觉地图将人体三维虚拟影像投射于真实场景中,形成虚拟人物场景内容,并部署在增强现实服务器;
增强现实服务器根据视觉地图以及用户移动端采集的视频流,判断用户移动端的移动设备位姿信息,并根据移动设备位姿信息,反求出真实场景与用户移动端之间的相对位置并传输至用户移动端;
用户移动端根据相对位置将根据真实场景搭建的虚拟人物场景内容投放给用户。
可选地,三维重建系统包括全景相机以及客户端,其中三维重建系统对真实场景进行三维重建,形成真实场景的视觉地图的操作,包括:
利用全景相机采集真实场景环境信息,经全景相机处理后输出三维点云信息和图像信息至客户端;
客户端根据三维点云信息和图像信息,搭建视觉地图。
可选地,客户端根据采集到的多个人体实时图像,生成人体三维虚拟影像的操作,包括:
多个图像采集设备采集真实人体的多个人体实时图像,并利用人体分割算法将人体图像中的主体人物与环境进行分割,得到多个人体深度图传输至客户端;
客户端将人体深度图转换为点云信息,并将多个点云信息融和后转换为MESH和纹理贴图,并根据MESH和纹理贴图,生成人体三维虚拟影像。
可选地,增强现实服务器根据视觉地图以及用户移动端采集的视频流,判断用户移动端的移动设备位姿信息,并根据移动设备位姿信息,反求出真实场景与用户移动端之间的相对位置并传输至用户移动端的操作,包括:
用户移动端启动运行摄像头对真实场景进行拍摄,获取视频流并传输至增强现实服务器;
增强现实服务器提取视频流的当前图片帧的二维特征点;
增强现实服务器将视频流的所有图片帧的二维特征点构成一个词典树在增强现实服务器之前存储的图片及其特征点中进行搜索和匹配,找到服务器存储中和当前帧图片最匹配的图片,调用该图片所对应的点云信息;
增强现实服务器根据二维、三维的匹配关系求出该当前图片帧所在点云空间中的三维位姿;
增强现实服务器根据三维位姿计算出用户移动端当前六个自由度的相对位置。
可选地,该方法还包括:
采用边缘网络技术进行增强现实服务器和客户端以及用户移动端之间的通信以及数据传输。
根据本发明的另一个方面,提供了一种将人体三维影像投射于真实物理场景中的装置,包括:
第一形成模块,用于客户端对真实场景进行三维重建,形成真实场景的视觉地图并部署于增强现实服务器;
第二形成模块,用于客户端根据采集到的多个人体实时图像,生成人体三维虚拟影像,并利用增强现实技术根据视觉地图将人体三维虚拟影像投射于真实场景中,形成虚拟人物场景内容,并部署在增强现实服务器;
计算模块,用于增强现实服务器根据视觉地图以及用户移动端采集的视频流,判断用户移动端的移动设备位姿信息,并根据移动设备位姿信息,反求出真实场景与用户移动端之间的相对位置并传输至用户移动端;
投放模块,用于用户移动端根据相对位置将根据真实场景搭建的虚拟人物场景内容投放给用户。
根据本发明的又一个方面,提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行本发明上述任一方面所述的方法。
根据本发明的又一个方面,提供了一种电子设备,所述电子设备包括:处理器;用于存储所述处理器可执行指令的存储器;所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现本发明上述任一方面所述的方法。
从而,本申请采用数个预设图像采集设备在各个角度对一个真人进行全景拍摄,逐帧将获取到的各个角度的深度图最终转换为三维的MESH和材质贴图,再通过增强现实技术将其投射于真实的场景中,用户就可以通过移动设备或AR眼镜,实时的看到从远方拍摄的真实人物三维影像实时的呈现在自己眼前,用户可以从各个角度去观看这个人,也能与他进行“近在眼前”的互动。
附图说明
通过参考下面的附图,可以更为完整地理解本发明的示例性实施方式:
图1是本发明一示例性实施例提供的将人体三维虚拟影像投射于真实物理场景中的方法的流程示意图;
图2是本发明一示例性实施例提供的将人体三维虚拟影像投射于真实物理场景中的方法的另一流程示意图;
图3是本发明一示例性实施例提供的将人体三维虚拟影像投射于真实物理场景中的装置的结构示意图;
图4是本发明一示例性实施例提供的电子设备的结构。
具体实施方式
下面,将参考附图详细地描述根据本发明的示例实施例。显然,所描述的实施例仅仅是本发明的一部分实施例,而不是本发明的全部实施例,应理解,本发明不受这里描述的示例实施例的限制。
应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
本领域技术人员可以理解,本发明实施例中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
还应理解,在本发明实施例中,“多个”可以指两个或两个以上,“至少一个”可以指一个、两个或两个以上。
还应理解,对于本发明实施例中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
另外,本发明中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本发明中字符“/”,一般表示前后关联对象是一种“或”的关系。
还应理解,本发明对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本发明实施例可以应用于终端设备、计算机系统、增强现实服务器等电子设备,其可与众多其它通用或专用计算系统环境或配置一起操作。适于与终端设备、计算机系统、增强现实服务器等电子设备一起使用的众所周知的终端设备、计算系统、环境和/或配置的例子包括但不限于:个人计算机系统、增强现实服务器计算机系统、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统﹑大型计算机系统和包括上述任何系统的分布式云计算技术环境,等等。
终端设备、计算机系统、增强现实服务器等电子设备可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/增强现实服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
示例性方法
图1是本发明一示例性实施例提供的将人体三维虚拟影像投射于真实物理场景中的方法的流程示意图。本实施例可应用在电子设备上,如图1所示,将人体三维虚拟影像投射于真实物理场景中的方法100包括以下步骤:
步骤101,三维重建系统对真实场景进行三维重建,形成真实场景的视觉地图并部署于增强现实服务器。
可选地,三维重建系统包括全景相机以及客户端,三维重建系统对真实场景进行三维重建,形成真实场景的视觉地图的操作,包括:
利用全景相机采集真实场景环境信息,经全景相机处理后输出三维点云信息和图像信息至客户端;
客户端根据三维点云信息和图像信息,搭建视觉地图。
其中,利用全景相机采集真实世界的环境信息。全景相机的摄像角度完整,可以为三维重建提供良好的素材。
具体地,为了实现虚拟信息和真实场景的无缝叠加,需要对直播现场的物理环境进行采集,在户外视频直播的场景下,需要对户外场景下的例如大楼、道路、树木等进行具体的三维空间位置进行录制,然后在增强现实系统的服务器中进行三维重建,从而形成真实世界的视觉地图,三维重建是指对三维物体建立适合计算机表示和处理的数学模型,是在计算机环境下对其进行处理、操作和分析其性质的基础,也是在计算机中建立表达客观世界的虚拟现实的关键技术。
从而,通过三维重建对真实世界进行一次尺度准确的场景复原。真实场景的照片及对应的点云信息和位置信息将都会被部署于增强现实服务器,供客户端调用。
步骤102,客户端根据预设在真实人体周围的预定数量的预设图像采集设备采集的多个人体实时图像,生成人体三维虚拟影像,并利用增强现实技术根据视觉地图将人体三维虚拟影像投射于真实场景中,形成虚拟人物场景内容,并部署在增强现实服务器;
可选地,客户端根据采集到的多个人体实时图像,生成人体三维虚拟影像的操作,包括:
多个图像采集设备采集真实人体的多个人体实时图像,并利用人体分割算法将人体图像中的主体人物与环境进行分割,得到多个人体深度图传输至客户端;
客户端将人体深度图转换为点云信息,并将多个点云信息融和后转换为MESH和纹理贴图,并根据MESH和纹理贴图,生成人体三维虚拟影像。
其中,人体分割使用的是实例分割的方法,把图片中的每一个人体都作为一个单独的实例来处理,输入是一张RGB的图片,通过调用深度学习网络将图片中的人体分割出来,通过深度摄像头内部的深度传感器得到的深度以及人体的mask信息,可以插值出人体在场景中的深度,最后综合每个人体的深度mask,可以求得当前RGB图片对应的人体深度图。
其中,多个人体实时图像根据预设在真实人体周围的预定数量的预设图像采集设备采集的,预定数量预设图像采集设备可以是4个、5个、6个等,不做具体限定,用户根据情况自行设定。预设图像采集设备可以是深度摄像头+RGB摄像头,例如Kinect采集设备。此外,还可以再真实人体周围布置音频采集和播放设备,用于实现远程互动。
具体地,点云转化为MESH及纹理贴图即为将各个角度摄像头输入的点云信息合成后转换为MESH和纹理贴图。然后将每一帧的MESH和纹理贴图合成为三维模型并逐帧播放(例如一秒钟播放30帧),最终形成实时的动态人物三维影像。
步骤103,增强现实服务器根据视觉地图以及用户移动端采集的视频流,判断用户移动端的移动设备位姿信息,并根据移动设备位姿信息,反求出真实场景与用户移动端之间的相对位置并传输至用户移动端;
具体地,移动客户端将视频流传输到增强现实服务器端,增强现实服务器端收到当前帧图片后提取二维特征点信息,将二维特征点信息构成一个词典树在服务器之前存储的图片及其特征点中进行搜索和匹配,找到增强现实服务器存储的图片和当前采集帧最为匹配的图片,由于每个点云信息都有其相应的位置信息,服务器在获取到摄像头拍摄目标物体的点云信息后便可判断移动设备位姿信息。
增强现实服务器端根据二维、三维的匹配关系可以求出采集帧所在点云空间中的三维位姿,增强现实服务器端将三维位姿信息发送到移动客户端,移动客户端根据返回的三维位姿信息计算出移动设备当前六个自由度的相对位置。
可选地,增强现实服务器根据视觉地图以及用户移动端采集的视频流,判断用户移动端的移动设备位姿信息,并根据移动设备位姿信息,反求出真实场景与用户移动端之间的相对位置并传输至用户移动端的操作,包括:
用户移动端启动运行摄像头对真实场景进行拍摄,获取视频流并传输至增强现实服务器;
增强现实服务器提取视频流的当前图片帧的二维特征点;
增强现实服务器将视频流的所有图片帧的二维特征点构成一个词典树在增强现实服务器之前存储的图片及其特征点中进行搜索和匹配,找到服务器存储中和当前帧图片最匹配的图片,调用该图片所对应的点云信息;
增强现实服务器根据二维、三维的匹配关系求出该当前图片帧所在点云空间中的三维位姿;
增强现实服务器根据三维位姿计算出用户移动端当前六个自由度的相对位置。
具体地,增强现实服务器收到当前帧图片后提取其二维特征点;将二维特征点构成一个词典树在服务器之前存储的图片及其特征点中进行搜索和匹配;找到服务器存储中和当前帧图片最匹配的图片,调用该图片所对应的点云信息。
首先找到服务器存储的图片和当前采集帧最为匹配的多张图片,将当前采集帧图片提取的特征点和搜索得到的多张增强现实服务器图片进行一对一的特征点匹配,找到匹配程度最高的一张照片,调用该照片所对应的点云信息,由于每个点云信息都有其相应的位置信息,服务器在获取到其摄像头拍摄目标物体的点云信息后便可得知其位置信息。增强现实服务器端根据二维、三维的匹配关系求出采集帧所在点云空间中的三维位姿;增强现实服务器将三维位姿发送到移动客户端后,移动客户端计算出移动设备当前六个自由度的相对位置。
从而通过3D视觉定位,将实时视频流逐帧与服务器照片进行特征点匹配,从而获取用户设备的点云信息和位置信息,再结合用户摄像头的FOV角度属性,客户端能够快速反求出用户当前的手机位姿,同时根据移动端相机拍摄的实时视频流和imu来对用户的相对位姿进行实时更新,从而给用户呈现对应位置的虚拟内容,用户产生的交互行为也会基于此位姿信息收到相对应的反馈。
步骤104,用户移动端根据相对位置将根据真实场景搭建的虚拟人物场景内容投放给用户。
具体地,通过三维影像和音频的远程投射,将实时人物三维影像放置于增强现实场景中的选定位置,调整大小,最终根据用户设备的位姿信息以正确位置投放给用户,同时该远程人物说话的音频也会以正确的位置(表现为音频播放的音量大小和方位不同)投放给用户。
此外,增强现实环境中的真人远程互动,用户看到此人物影像后可以通过其移动设备向这个远程真人的虚拟影像进行语音交流,远程的真人在收到语音后同样也可以对该用户做出动作和语言的反馈。
从而本申请提出的技术方案不再提前采集物理环境的3D位置信息,而是由用户对其所在物理空间进行3D扫描,在客户端内进行三维重建,。这样做可以省去提前采集的工作,提高了工作效率,而且用户可以在不同地点都可以将远程的人物影像投射于眼前。
可选地,该方法还包括:
采用边缘网络技术进行增强现实服务器和客户端以及用户移动端之间的通信以及数据传输。
具体地,其中边缘网络能够保证快速的完成服务器和客户端之间的通讯,一个用户基于真实物理环境做出的交互行为,产生虚拟反馈的这一过程和结果将会通过边缘网络同步给服务器,并广播给其他用户,这也为多个用户能够协同互动提供了技术基础。
采用边缘网络技术完成服务器和客户端之间的通讯。边缘网络是给定的一个非技术性描述的网络-公共电信网络的边缘。边缘网络包括汇聚层网络和接入层网络的一部分或全部,是接入用户的最后一段网络。从价值的角度讲,边缘网络是已有核心网络与大用户之间的商业网络。采用边缘网络基数能够保证快速的完成服务器和客户端之间的通讯,一个用户基于真实物理环境做出的交互行为,产生虚拟反馈的这一过程和结果将会通过边缘网络同步给服务器,并广播给其他用户,这也为多个用户能够协同互动提供了技术基础。
为达到将真实的三维物体实时投射于一个远程的真实物理场景中这样的目的,市面上大多数应用都会采用全息投影技术,他们为了使得这个流程的成本降低,呈现效果更好,必须要进一步提升完善全息投影的采集和投射的设备。但本申请利用了增强现实巧妙的规避众多全息投影中难度较高的技术问题,同样能实现很好的效果和目标。
从而,本申请采用数个深度摄像机在各个角度对一个真人进行全景拍摄,逐帧将获取到的各个角度的深度图最终转换为三维的MESH和材质贴图,再通过增强现实技术将其投射于真实的场景中,用户就可以通过移动设备或AR眼镜,实时的看到从远方拍摄的真实人物三维影像实时的呈现在自己眼前,用户可以从各个角度去观看这个人,也能与他进行“近在眼前”的互动,例如在增强现实的互动体验中,真人主播可以远程对用户进行体验指导,用户也可以问询该真人主播。
示例性装置
图3是本发明一示例性实施例提供的将人体三维虚拟影像投射于真实物理场景中的装置的结构示意图。如图3所示,装置300包括:
第一形成模块310,用于客户端对真实场景进行三维重建,形成真实场景的视觉地图并部署于增强现实服务器;
第二形成模块320,用于客户端根据预设在真实人体周围的预定数量的预设图像采集设备采集的多个人体实时图像,生成人体三维虚拟影像,并利用增强现实技术根据视觉地图将人体三维虚拟影像投射于真实场景中,形成虚拟人物场景内容,并部署在增强现实服务器;
计算模块330,用于增强现实服务器根据视觉地图以及用户移动端采集的视频流,判断用户移动端的移动设备位姿信息,并根据移动设备位姿信息,反求出真实场景与用户移动端之间的相对位置并传输至用户移动端;
投放模块340,用于用户移动端根据相对位置将根据真实场景搭建的虚拟人物场景内容投放给用户。
可选地,所述三维重建系统包括全景相机以及所述客户端,第一形成模块310包括:
采集子模块,用于利用全景相机采集真实场景环境信息,经全景相机处理后输出三维点云信息和图像信息至客户端;
搭建子模块,用于客户端根据三维点云信息和图像信息,搭建视觉地图。
可选地,第二形成模块320,包括:
分割子模块,用于多个图像采集设备采集真实人体的多个人体实时图像,并利用人体分割算法将人体图像中的主体人物与环境进行分割,得到多个人体深度图传输至客户端;
生成子模块,用于客户端将人体深度图转换为点云信息,并将多个点云信息融和后转换为MESH和纹理贴图,并根据MESH和纹理贴图,生成人体三维虚拟影像。
可选地,计算模块330包括:
获取子模块,用于用户移动端启动运行摄像头对真实场景进行拍摄,获取视频流并传输至增强现实服务器;
提取子模块,用于增强现实服务器提取视频流的当前图片帧的二维特征点;
调用子模块,用于增强现实服务器将视频流的所有图片帧的二维特征点构成一个词典树在增强现实服务器之前存储的图片及其特征点中进行搜索和匹配,找到服务器存储中和当前帧图片最匹配的图片,调用该图片所对应的点云信息;
第一计算子模块,用于增强现实服务器根据二维、三维的匹配关系求出该当前图片帧所在点云空间中的三维位姿;
第二计算子模块,用于增强现实服务器根据三维位姿计算出用户移动端当前六个自由度的相对位置。
可选地,装置300还包括:
通信模块,用于采用边缘网络技术进行增强现实服务器和客户端以及用户移动端之间的通信以及数据传输。
示例性电子设备
图4是本发明一示例性实施例提供的电子设备的结构。如图4所示,电子设备40包括一个或多个处理器41和存储器42。
处理器41可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备中的其他组件以执行期望的功能。
存储器42可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器41可以运行所述程序指令,以实现上文所述的本发明的各个实施例的软件程序的方法以及/或者其他期望的功能。在一个示例中,电子设备还可以包括:输入装置43和输出装置44,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
此外,该输入装置43还可以包括例如键盘、鼠标等等。
该输出装置44可以向外部输出各种信息。该输出装置44可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图4中仅示出了该电子设备中与本发明有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本发明的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本发明各种实施例的方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本发明实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或增强现实服务器上执行。
此外,本发明的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本发明各种实施例的对历史变更记录进行信息挖掘的方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、系统或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本发明的基本原理,但是,需要指出的是,在本发明中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本发明的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本发明为必须采用上述具体的细节来实现。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本发明中涉及的器件、系统、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、系统、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
可能以许多方式来实现本发明的方法和系统。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本发明的方法和系统。用于所述方法的步骤的上述顺序仅是为了进行说明,本发明的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本发明实施为记录在记录介质中的程序,这些程序包括用于实现根据本发明的方法的机器可读指令。因而,本发明还覆盖存储用于执行根据本发明的方法的程序的记录介质。
还需要指出的是,在本发明的系统、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本发明的等效方案。提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本发明。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本发明的范围。因此,本发明不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本发明的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (9)

1.一种将人体三维影像投射于真实物理场景中的方法,其特征在于,包括:
三维重建系统对真实场景进行三维重建,形成真实场景的视觉地图并部署于增强现实服务器;
客户端根据采集到的多个人体实时图像,生成人体三维虚拟影像,并利用增强现实技术根据所述视觉地图将所述人体三维虚拟影像投射于所述真实场景中,形成虚拟人物场景内容,并部署在所述增强现实服务器;
所述增强现实服务器根据所述视觉地图以及用户移动端采集的视频流,判断所述用户移动端的移动设备位姿信息,并根据所述移动设备位姿信息,反求出所述真实场景与所述用户移动端之间的相对位置并传输至所述用户移动端;
所述用户移动端根据所述相对位置将根据所述真实场景搭建的所述虚拟人物场景内容投放给用户。
2.根据权利要求1所述的方法,其特征在于,所述三维重建系统包括全景相机以及所述客户端,其中三维重建系统对真实场景进行三维重建,形成真实场景的视觉地图的操作,包括:
利用所述全景相机采集所述真实场景环境信息,经所述全景相机处理后输出三维点云信息和图像信息至所述客户端;
所述客户端根据所述三维点云信息和图像信息,搭建所述视觉地图。
3.根据权利要求1所述的方法,其特征在于,所述客户端根据采集到的多个人体实时图像,生成人体三维虚拟影像的操作,包括:
多个所述图像采集设备采集所述真实人体的多个所述人体图像,并利用人体分割算法将所述人体图像中的主体人物与环境进行分割,得到多个人体深度图传输至所述客户端;
所述客户端将所述人体深度图转换为点云信息,并将多个所述点云信息融和后转换为MESH和纹理贴图,并根据所述MESH和纹理贴图,生成所述人体三维虚拟影像。
4.根据权利要求1所述的方法,其特征在于,所述增强现实服务器根据所述视觉地图以及用户移动端采集的视频流,判断所述用户移动端的移动设备位姿信息,并根据所述移动设备位姿信息,反求出所述真实场景与所述用户移动端之间的相对位置并传输至所述用户移动端的操作,包括:
所述用户移动端启动运行摄像头对所述真实场景进行拍摄,获取所述视频流并传输至所述增强现实服务器;
所述增强现实服务器提取所述视频流的当前图片帧的二维特征点;
所述增强现实服务器将所述视频流的所有图片帧的二维特征点构成一个词典树在所述增强现实服务器之前存储的图片及其特征点中进行搜索和匹配,找到服务器存储中和当前帧图片最匹配的图片,调用该图片所对应的点云信息;
所述增强现实服务器根据二维、三维的匹配关系求出该当前图片帧所在点云空间中的三维位姿;
增强现实服务器根据三维位姿计算出所述用户移动端当前六个自由度的相对位置。
5.根据权利要求1所述的方法,其特征在于,还包括:
采用边缘网络技术进行所述增强现实服务器和所述客户端以及所述用户移动端之间的通信以及数据传输。
6.一种将人体三维影像投射于真实物理场景中的装置,其特征在于,包括:
第一形成模块,用于三维重建系统对真实场景进行三维重建,形成真实场景的视觉地图并部署于增强现实服务器;
第二形成模块,用于所述客户端根据采集到的多个人体实时图像,生成人体三维虚拟影像,并利用增强现实技术根据所述视觉地图将所述人体三维虚拟影像投射于所述真实场景中,形成虚拟人物场景内容,并部署在所述增强现实服务器;
计算模块,用于所述增强现实服务器根据所述视觉地图以及用户移动端采集的视频流,判断所述用户移动端的移动设备位姿信息,并根据所述移动设备位姿信息,反求出所述真实场景与所述用户移动端之间的相对位置并传输至所述用户移动端;
投放模块,用于所述用户移动端根据所述相对位置将根据所述真实场景搭建的所述虚拟人物场景内容投放给用户。
7.根据权利要求6所述的装置,其特征在于,所述三维重建系统包括全景相机以及所述客户端,第一形成模块,包括:
采集子模块,用于利用全景相机采集所述真实场景环境信息,经所述全景相机处理后输出三维点云信息和图像信息至所述客户端;
搭建子模块,用于所述客户端根据所述三维点云信息和图像信息,搭建所述视觉地图。
8.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1-5任一所述的方法。
9.一种电子设备,其特征在于,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述权利要求1-5任一所述的方法。
CN202310606838.4A 2023-05-25 2023-05-25 将人体三维影像投射于真实物理场景中的方法及相关装置 Pending CN116863105A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310606838.4A CN116863105A (zh) 2023-05-25 2023-05-25 将人体三维影像投射于真实物理场景中的方法及相关装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310606838.4A CN116863105A (zh) 2023-05-25 2023-05-25 将人体三维影像投射于真实物理场景中的方法及相关装置

Publications (1)

Publication Number Publication Date
CN116863105A true CN116863105A (zh) 2023-10-10

Family

ID=88220470

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310606838.4A Pending CN116863105A (zh) 2023-05-25 2023-05-25 将人体三维影像投射于真实物理场景中的方法及相关装置

Country Status (1)

Country Link
CN (1) CN116863105A (zh)

Similar Documents

Publication Publication Date Title
US20200357136A1 (en) Method and apparatus for determining pose of image capturing device, and storage medium
CN111080759B (zh) 一种分镜效果的实现方法、装置及相关产品
CN107798932A (zh) 一种基于ar技术的早教训练系统
US20090257730A1 (en) Video server, video client device and video processing method thereof
KR20140082610A (ko) 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치
EP2685393A2 (en) Distributed object tracking for augmented reality application
CN108668050B (zh) 基于虚拟现实的视频拍摄方法和装置
KR102402580B1 (ko) 메타버스 환경에서의 영상 처리 시스템 및 방법
JP2020136882A (ja) 点群データ通信システム、点群データ送信装置および点群データ送信方法
CN112598780B (zh) 实例对象模型构建方法及装置、可读介质和电子设备
US10955911B2 (en) Gazed virtual object identification module, a system for implementing gaze translucency, and a related method
JP2022526053A (ja) ダイナミックデプス画像を撮影して編集するための手法
CN108765084B (zh) 一种虚拟三维空间的同步处理方法及装置
CN113965773A (zh) 直播展示方法和装置、存储介质及电子设备
US20160381322A1 (en) Method, Synthesizing Device, and System for Implementing Video Conference
CN110162585B (zh) 实时成像三维建模历史地理信息系统
US11282282B2 (en) Virtual and physical reality integration
CN112837372A (zh) 数据生成方法及装置、电子设备和存储介质
US20170039768A1 (en) Apparatus for displaying image content based on pop-up book and method thereof
CN116863105A (zh) 将人体三维影像投射于真实物理场景中的方法及相关装置
CN108920598B (zh) 全景图浏览方法、装置、终端设备、服务器及存储介质
CN109800652A (zh) 文字翻译方法及装置
CN111524240A (zh) 场景切换方法、装置及增强现实设备
KR20170002921A (ko) 디지털 조립 설명서를 생성하는 장치 및 방법
KR20190116606A (ko) 하이브리드 이미지 정합 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication