CN114445500B - 增强现实场景构建方法、装置、终端设备和存储介质 - Google Patents

增强现实场景构建方法、装置、终端设备和存储介质 Download PDF

Info

Publication number
CN114445500B
CN114445500B CN202011197395.0A CN202011197395A CN114445500B CN 114445500 B CN114445500 B CN 114445500B CN 202011197395 A CN202011197395 A CN 202011197395A CN 114445500 B CN114445500 B CN 114445500B
Authority
CN
China
Prior art keywords
scene
user
information
dimensional scene
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011197395.0A
Other languages
English (en)
Other versions
CN114445500A (zh
Inventor
张树鹏
崔馨平
陈怡�
李耔余
刘丛笑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zitiao Network Technology Co Ltd
Original Assignee
Beijing Zitiao Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zitiao Network Technology Co Ltd filed Critical Beijing Zitiao Network Technology Co Ltd
Priority to CN202011197395.0A priority Critical patent/CN114445500B/zh
Publication of CN114445500A publication Critical patent/CN114445500A/zh
Application granted granted Critical
Publication of CN114445500B publication Critical patent/CN114445500B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration

Abstract

本公开提供一种增强现实场景构建方法、装置、终端设备和存储介质。该方法的一具体实施方式包括:响应于检测到用户触发的场景扫描操作,控制摄像头拍摄图像;根据摄像头拍摄的图像进行三维场景重建,得到三维场景模型;呈现三维场景模型对应的三维场景;响应于检测到用户触发的创作对象选择操作,将创作对象选择操作所针对的创作对象确定为目标创作对象;响应于检测到用户针对目标创作对象的编辑操作,根据目标创作对象在第一终端设备显示屏幕中的位置和第一终端设备在三维场景中的位姿确定目标创作对象在三维场景中的渲染位姿,以及将目标创作对象按照所确定的相应渲染位姿渲染到三维场景中。该实施方式实现了用户自定义创建增强现实场景。

Description

增强现实场景构建方法、装置、终端设备和存储介质
技术领域
本公开的实施例涉及增强现实技术领域,具体涉及增强现实场景构建方法、装置、终端设备和存储介质。
背景技术
AR(Augmented Reality)增强现实技术,是一种将虚拟信息与真实世界巧妙融合的技术,广泛运用了多媒体、三维建模、实时跟踪及注册、智能交互、传感等多种技术手段,将虚拟信息应用到真实世界中,两种信息互为补充,从而实现对真实世界的“增强”。
发明内容
本公开的实施例提出了增强现实场景构建方法、装置、终端设备和存储介质。
第一方面,本公开的实施例提供了一种增强现实场景构建方法,应用于第一终端设备,该方法包括:响应于检测到用户触发的场景扫描操作,控制上述第一终端设备中设置的摄像头拍摄图像;根据上述摄像头拍摄的图像进行三维场景重建,得到三维场景模型;呈现上述三维场景模型对应的三维场景;响应于检测到上述用户触发的创作对象选择操作,将上述创作对象选择操作所针对的创作对象确定为目标创作对象;响应于检测到上述用户针对上述目标创作对象的编辑操作,根据上述目标创作对象在上述第一终端设备显示屏幕中的位置和上述第一终端设备在上述三维场景中的位姿确定上述目标创作对象在上述三维场景中的渲染位姿,以及将上述目标创作对象按照所确定的相应渲染位姿渲染到上述三维场景中。
在一些可选的实施方式中,上述方法还包括:响应于检测到上述用户触发的场景发布操作,发布待发布场景信息,其中,上述待发布场景信息包括上述用户的用户标识、上述三维场景模型的模型信息和场景内创作对象信息集合,上述场景内创作对象信息包括渲染到上述三维场景中的创作对象及相应渲染位姿。
在一些可选的实施方式中,在上述发布待发布场景信息之前,上述方法还包括:获取上述第一终端设备的当前位置;以及上述待发布场景信息还包括上述当前位置;以及上述方法还包括:呈现电子地图,以及在所呈现的电子地图中上述当前位置处呈现上述用户所发布的场景信息对应的场景信息标识。
在一些可选的实施方式中,上述方法还包括:响应于检测到上述用户触发的场景转发操作,向目标用户标识所指示的第二终端设备转发待转发场景信息,上述待转发场景信息包括上述用户的用户标识、上述三维场景模型的模型信息和场景内创作对象信息集合,上述场景内创作对象信息包括渲染到上述三维场景中的创作对象及相应渲染位姿,上述待转发场景信息用于触发上述第二终端设备呈现上述用户的用户标识,呈现上述三维场景模型的模型信息对应的三维场景,以及将各上述场景内创作对象信息中创作对象按照相应渲染位姿渲染至所呈现的三维场景中。
在一些可选的实施方式中,在上述向目标用户标识所指示的第二终端设备转发待转发场景信息之前,上述方法还包括:获取上述第一终端设备的当前位置;以及上述待转发场景信息还包括上述当前位置;以及上述待转发场景信息用于触发上述第二终端设备呈现上述用户的用户标识,呈现上述三维场景模型的模型信息对应的三维场景,以及将各上述场景内创作对象信息中创作对象按照相应渲染位姿渲染至所呈现的三维场景中,包括:上述待转发场景信息用于触发上述第二终端设备呈现电子地图,以及在所呈现的电子地图中上述当前位置处呈现上述待转发场景信息的场景信息标识。
在一些可选的实施方式中,上述响应于检测到用户触发的场景扫描操作,控制上述第一终端设备中设置的摄像头拍摄图像,包括:响应于检测到上述用户触发的场景扫描操作,呈现第一提示信息,以及控制上述摄像头拍摄图像,上述第一提示信息用于提示上述用户利用上述第一终端设备扫描周围环境。
在一些可选的实施方式中,上述根据上述摄像头拍摄的图像进行三维场景重建,得到三维场景模型,包括:将从上述摄像头实时获取的图像添加到场景图像序列中,上述场景图像序列是响应于检测到上述用户触发的场景扫描操作而新建的图像序列;基于上述场景图像序列中的场景图像进行三维场景重建;响应于上述三维场景重建不成功,呈现第二提示信息,上述第二提示信息用于提示上述用户继续利用上述第一终端设备扫描周围环境以得到更多图像;响应于上述三维场景重建成功,将上述三维场景重建得到的三维模型确定为上述三维场景模型。
在一些可选的实施方式中,上述响应于检测到上述用户触发的创作对象选择操作,将上述创作对象选择操作所针对的创作对象确定为目标创作对象,包括:呈现以下至少一项创作对象:预设虚拟对象,文本,上述第一终端设备的本地存储图像;响应于检测到上述用户针对所呈现的创作对象的选择、编辑或输入操作,将上述用户选择、编辑或输入的创作对象确定为上述目标创作对象。
第二方面,本公开的实施例提供了一种增强现实场景构建装置,应用于第一终端设备,该装置包括:拍摄单元,被配置成响应于检测到用户触发的场景扫描操作,控制上述第一终端设备中设置的摄像头拍摄图像;重建单元,被配置成根据上述摄像头拍摄的图像进行三维场景重建,得到三维场景模型;第一呈现单元,被配置成呈现上述三维场景模型对应的三维场景;目标确定单元,被配置成响应于检测到上述用户触发的创作对象选择操作,将上述创作对象选择操作所针对的创作对象确定为目标创作对象;渲染单元,被配置成响应于检测到上述用户针对上述目标创作对象的编辑操作,根据上述目标创作对象在上述第一终端设备显示屏幕中的位置和上述第一终端设备在上述三维场景中的位姿确定上述目标创作对象在上述三维场景中的渲染位姿,以及将上述目标创作对象按照所确定的相应渲染位姿渲染到上述三维场景中。在一些可选的实施方式中,上述装置还包括:发布单元,被配置成响应于检测到上述用户触发的场景发布操作,发布待发布场景信息,其中,上述待发布场景信息包括上述用户的用户标识、上述三维场景模型的模型信息和场景内创作对象信息集合,上述场景内创作对象信息包括渲染到上述三维场景中的创作对象及相应渲染位姿。
在一些可选的实施方式中,上述装置还包括:第一获取单元,被配置成在上述发布待发布场景信息之前,获取上述第一终端设备的当前位置;以及上述待发布场景信息还包括上述当前位置;以及上述装置还包括:第二呈现单元,被配置成呈现电子地图,以及在所呈现的电子地图中上述当前位置处呈现上述用户所发布的场景信息对应的场景信息标识。
在一些可选的实施方式中,上述装置还包括:转发单元,被配置成响应于检测到上述用户触发的场景转发操作,向目标用户标识所指示的第二终端设备转发待转发场景信息,上述待转发场景信息包括上述用户的用户标识、上述三维场景模型的模型信息和场景内创作对象信息集合,上述场景内创作对象信息包括渲染到上述三维场景中的创作对象及相应渲染位姿,上述待转发场景信息用于触发上述第二终端设备呈现上述用户的用户标识,呈现上述三维场景模型的模型信息对应的三维场景,以及将各上述场景内创作对象信息中创作对象按照相应渲染位姿渲染至所呈现的三维场景中。
在一些可选的实施方式中,在上述装置还包括:第二获取单元,被配置成上述向目标用户标识所指示的第二终端设备转发待转发场景信息之前,获取上述第一终端设备的当前位置;以及上述待转发场景信息还包括上述当前位置;以及上述待转发场景信息用于触发上述第二终端设备呈现上述用户的用户标识,呈现上述三维场景模型的模型信息对应的三维场景,以及将各上述场景内创作对象信息中创作对象按照相应渲染位姿渲染至所呈现的三维场景中,包括:上述待转发场景信息用于触发上述第二终端设备呈现电子地图,以及在所呈现的电子地图中上述当前位置处呈现上述待转发场景信息的场景信息标识。
在一些可选的实施方式中,上述摄像单元进一步被配置成:响应于检测到上述用户触发的场景扫描操作,呈现第一提示信息,以及控制上述摄像头拍摄图像,上述第一提示信息用于提示上述用户利用上述第一终端设备扫描周围环境。
在一些可选的实施方式中,上述重建单元进一步被配置成:将从上述摄像头实时获取的图像添加到场景图像序列中,上述场景图像序列是响应于检测到上述用户触发的场景扫描操作而新建的图像序列;基于上述场景图像序列中的场景图像进行三维场景重建;响应于上述三维场景重建不成功,呈现第二提示信息,上述第二提示信息用于提示上述用户继续利用上述第一终端设备扫描周围环境以得到更多图像;响应于上述三维场景重建成功,将上述三维场景重建得到的三维模型确定为上述三维场景模型。
在一些可选的实施方式中,上述目标确定单元进一步被配置成:呈现以下至少一项创作对象:预设虚拟对象,文本,上述第一终端设备的本地存储图像;响应于检测到上述用户针对所呈现的创作对象的选择、编辑或输入操作,将上述用户选择、编辑或输入的创作对象确定为上述目标创作对象。
第三方面,本公开的实施例提供了一种终端设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本公开的实施例提供了一种计算机可读存储介质,其上存储有计算机程序,其中,该计算机程序被一个或多个处理器执行时实现如第一方面中任一实现方式描述的方法。
本公开的实施例提供的增强现实场景构建方法、装置、终端设备和存储介质,通过由用户持第一终端设备扫描周围环境,并用扫描周围环境所得到的图像进行三维重建得到三维场景模型,再将用户创作的创作对象渲染到重建得到的三维场景模型中,实现了支持UGC(User Generated Content,用户生成内容或用户原创内容)创建AR场景,即实现了用户自定义创建AR场景。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显。附图仅用于示出具体实施方式的目的,而并不认为是对本发明的限制。在附图中:
图1是根据本公开的增强现实场景构建系统的一个实施例的系统架构图;
图2是根据本公开的增强现实场景构建方法的一个实施例的流程图;
图3是根据本公开的增强现实场景构建方法的又一个实施例的流程图;
图4是根据本公开的增强现实场景构建装置的一个实施例的结构示意图;
图5是适于用来实现本公开的实施例的终端设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的增强现实场景构建方法、装置、终端设备和存储介质的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如AR场景构建类应用、短视频社交类应用、网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有摄像头和显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供AR场景构建与显示服务),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的AR场景构建类应用提供支持的后台服务器。后台服务器可以对接收到的待发布场景信息和/或待转发场景信息等进行相应处理。
在一些情况下,本公开所提供的增强现实场景构建方法可以由终端设备101、102、103和服务器105共同执行,例如,“控制第一终端设备中设置的摄像头拍摄图像”的步骤可以由终端设备101、102、103执行,“根据摄像头拍摄的图像进行三维场景重建”的步骤可以由服务器105执行。本公开对此不做限定。相应地,增强现实场景构建装置也可以分别设置于终端设备101、102、103和服务器105中。
在一些情况下,本公开所提供的增强现实场景构建方法可以由终端设备101、102、103执行,相应地,增强现实场景构建装置也可以设置于终端设备101、102、103中,这时,系统架构100也可以不包括服务器105。
需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,其示出了根据本公开的增强现实场景构建方法的一个实施例的流程200,应用于第一终端设备,该流程200包括以下步骤:
步骤201,响应于检测到用户触发的场景扫描操作,控制第一终端设备中设置的摄像头拍摄图像。
在本实施例中,用户可以在希望扫描当前周围环境并创建增强现实场景时,触发场景扫描操作,而增强现实场景构建方法的执行主体(例如图1所示的终端设备101、102、103)可以在检测到用户触发的场景扫描操作的情况下,控制第一终端设备中设置的摄像头拍摄图像。
这里,场景扫描操作可以是各种预设的可以触发摄像头拍摄图像的操作。
例如,场景扫描操作可以是对第一终端设备增强现实场景构建应用界面中的预设场景扫描操作显示对象(比如,预设场景扫描图标)的第一预设显示对象操作(比如,单击、双击、滑动、按住第一预设时长后抬起等)。
又例如,场景扫描操作也可以是说出了预设场景扫描操作指令对应的语音。
还例如,场景扫描操作还可以是对第一终端设备上设置的第一预设器件(比如,实体按钮)的第一预设器件操作(比如,按下一次,连续按下两次等)。
再例如,场景扫描操作还可以是使用第一终端设备输入了预设场景扫描操作指令文本。
在一些可选的实施方式中,步骤201也可以如下进行:响应于检测到用户触发的场景扫描操作,呈现第一提示信息,以及控制摄像头拍摄图像。其中,第一提示信息用于提示用户利用第一终端设备扫描周围环境。例如,第一提示信息可以是文字或者图像、声音等。这样,用户可以持第一终端设备用摄像头扫描周围环境以进行后续的三维场景重建。
步骤202,根据摄像头拍摄的图像进行三维场景重建,得到三维场景模型。
在本实施例中,上述执行主体可以实时从摄像头获取摄像头拍摄的图像,以及根据所获取的摄像头拍摄的图像,采用各种三维重建方法进行三维场景重建并得到三维场景模型。
这里,三维重建是利用至少两张图像指对三维环境或物体建立适合计算机表示和处理的数学模型,是在计算机中建立表达客观世界的虚拟现实的技术,亦指利用二维投影图像恢复环境或物体三维信息(形状等)的数学过程和计算机技术主要包括数据获取、预处理、点云拼接和特征分析等步骤。需要说明的是,如何根据至少两张图像进行三维重建是本领域广泛研究和应用的现有技术,在此不再赘述。
作为示例,三维重建可以如下进行:
第一步,摄像机标定:即通过摄像机标定来建立成像模型,并求解出摄像机的内外参数,这样就可以结合摄像头采集的图像的匹配结果得到三维场景中的三维点坐标。
第二步,特征提取:特征提取主要包括提取特征点、特征线和区域。大多是以特征点为匹配基元,特征点以何种形式提取与用何种匹配策略紧密联系。因此在进行特征点的提取时需要先确定用哪种匹配方法。例如,特征点提取算法可以采用:基于方向导数的方法,基于图像亮度对比关系的方法或者基于数学形态学的方法。
第三步,立体匹配:立体匹配是指根据所提取的特征建立图像对之间的一种对应关系,也就是将同一物理空间点在两幅不同图像中的成像点进行一一对应。
第四步,三维重建:基于第一步摄像机标定的内外参数、第二步的特征提取结果和第三步的立体匹配结果,进行恢复得到三维场景模型。
可以理解的是,三维场景模型除了可以包括特征提取所得到的特征点、特征线和区域信息,还可以包括其它例如颜色、文理、光照等信息。
在一些可选的实施方式中,步骤202可以如下进行:
首先,将从摄像头实时获取的图像添加到场景图像序列中,而其中场景图像序列是上述执行主体响应于检测到用户触发的场景扫描操作而新建的图像序列。即,用户每触发一次场景扫描操作会新建场景图像序列,在用户持第一终端设备扫描周围环境的过程中,摄像头所采集的图像会实时添加到场景图像序列中。
其次,基于场景图像序列中的场景图像进行三维场景重建。如果三维场景重建不成功,则呈现第二提示信息,第二提示信息用于提示用户继续利用第一终端设备扫描周围环境以得到更多图像。如果三维场景重建成功,则将三维场景重建得到的三维模型确定为三维场景模型。
即,在用户持第一终端设备扫描周围环境的过程中,摄像头所采集的图像会实时添加到场景图像序列中,并实时进行三维场景重建。如果重建不成功则提示用户继续扫描周围环境,并继续采集图像进行三维重建,直到采集到足够多的图像以致重建成功则不再继续采集图像。
步骤203,呈现三维场景模型对应的三维场景。
在本实施例中,上述执行主体可以将步骤202中得到的三维场景模型进行呈现,例如在显示屏幕上呈现三维场景模型对应的三维场景。实践中,可以根据具体三维场景模型所采用的模型的不同而采用相应的呈现方法进行场景呈现。比如,可以将三维场景模型中不同空间点渲染相应的颜色、光照和纹理。另外,随着第一终端设备的位姿变化,所呈现的三维场景也相应改变。步骤204,响应于检测到用户触发的创作对象选择操作,将创作对象选择操作所针对的创作对象确定为目标创作对象。
在本实施例中,用户可以在重建得到的三维场景模型中进行创作,并选择相应的创作对象,而上述执行主体可以在检测到用户触发的创作对象选择操作时,将创作对象选择操作所针对的创作对象确定为目标创作对象。
这里,创作对象可以是各种可以呈现的信息。例如,创作对象可以是二维的文字或图像,创作对象也可以是三维文字或三维图像。创作对象可以是用户在预设的创作对象中选择的,创作对象也可以是用户自定义的图像或者文字,创作对象还可以是用户对从预设的创作对象中选择的创作对象进行修改后所得到的。
这里,创作对象选择操作可以是各种预设的可以触发选择创作对象的操作。
例如,创作对象选择操作可以是对第一终端设备增强现实场景构建应用界面中的创作对象的第二预设显示对象操作(比如,单击、双击、滑动、按住第一预设时长后抬起等)。
又例如,创作对象选择操作也可以是说出了预设创作对象选择操作指令对应的语音。
还例如,创作对象选择操作还可以是使用第一终端设备输入了预设创作对象选择操作指令文本。
在一些可选的实施方式中,步骤204可以如下执行:
首先,呈现以下至少一项创作对象:预设虚拟对象,文本,第一终端设备的本地存储图像。这里,预设虚拟对象可以是预先设计好的二维或者三维显示对象,例如图像或文字。文本可以是用户使用第一终端输入的文本或者文本也可以是对用户说出的语音进行语音识别所得到的文本。第一终端设备的本地存储图像可以是第一终端设备中的摄像头所拍摄的图像或者也可以是采用各种方式存储到第一终端设备本地的图像,例如截图、保存等方式。
其次,响应于检测到用户针对所呈现的预设创作对象的选择、编辑或输入操作,将用户选择、编辑或输入的预设创作对象确定为目标创作对象。这里,用户可以在所呈现的预设虚拟对象中进行选择(例如,点击或者按住进行选择),或者用户也可以先选择预设虚拟对象再对所选择的预设虚拟对象进行编辑(比如,添加文本、修改文本、改变颜色、改变纹理等),而上述执行主体可以将用户选择、编辑或输入后的创作对象确定为目标创作对象。
按照上述可选实现方式,可以将用户选择或者编辑的预设虚拟对像、文本或者本地存储图像渲染到三维场景中。即,为用户提供了预设的创作素材,同时也提供让用户自定义创作对象,方便用户对AR场景进行编辑。
步骤205,响应于检测到用户针对目标创作对象的编辑操作,根据目标创作对象在第一终端设备显示屏幕中的位置和第一终端设备在三维场景中的位姿确定目标创作对象在三维场景中的渲染位姿,以及将目标创作对象按照所确定的相应渲染位姿渲染到三维场景中。
在本实施例中,用户可以对目标创作对象进行各种编辑操作,例如用户可以通过对目标创作对象的拖动、移动等操作实现改变目标创作对象的位置、姿态、大小等。即,用户可以通过对目标创作对象的编辑操作实现指定将目标创作对象渲染到三维场景中的具体渲染位姿。而上述执行主体可以在检测到用户针对目标创作对象的编辑操作时,首先确定第一终端设备在三维场景中的位姿。
例如,第一种终端设备中可以设置有IMU(Inertial Measurement Unit,惯性测量单元),第一终端设备可以根据IMU输出的加速度和角速度解算出第一终端设备在三维场景中的位置和姿态数据,其中,位置可以是三维坐标,而姿态可以包括偏航角、俯仰角和横滚角。其中,解算的算法例如可以是欧拉角法、方向余弦法、三角函数法、Rodrigues参数法、四元数法等。
然后,可以根据目标创作对象在第一终端设备显示屏幕中的位置和第一终端设备在三维场景中的位姿确定目标创作对象在三维场景中的位姿。
这里,可以通过坐标系之间的转换,根据目标创作对象在第一终端设备显示屏幕中的位置和第一终端设备在三维场景中的位姿确定目标创作对象在三维场景中的渲染位姿。例如,这里的坐标系转换可以包括从屏幕坐标系到裁剪坐标系再到观察空间坐标系,最后到世界坐标系的转换,即得到目标创作对象在三维场景中的渲染位姿。其中,屏幕坐标系可以是第一终端设备的显示屏幕对应的坐标系。
最后,将目标创作对象按照所确定的相应渲染位姿渲染到三维场景中。
实践中,在将目标创作对象渲染到三维场景中的过程中,可以根据具体三维场景模型所采用的模型的不同、以及目标创作对象的具体情况而采用相应的方法进行渲染,渲染过程中还可以考虑目标创作对象在三维场景中的颜色、光照和纹理等。另外,随着第一终端设备的位姿变化,三维场景中目标创作对象的呈现也可相应改变。
本公开的上述实施例提供的增强现实场景构建方法,通过由用户持第一终端设备扫描周围环境,并用扫描周围环境所得到的图像进行三维重建得到三维场景模型,再将用户选择、编辑或输入的创作对象渲染到重建得到的三维场景模型中,实现了支持UGC创建AR场景,即实现了用户自定义创建AR场景。
继续参考图3,其示出了根据本公开的增强现实场景构建方法的又一个实施例的流程300。该增强现实场景构建方法,包括以下步骤:
步骤301,响应于检测到用户触发的场景扫描操作,控制第一终端设备中设置的摄像头拍摄图像。
步骤302,根据摄像头拍摄的图像进行三维场景重建,得到三维场景模型。
步骤303,呈现三维场景模型对应的三维场景。
步骤304,响应于检测到用户触发的创作对象选择操作,将创作对象选择操作所针对的创作对象确定为目标创作对象。
步骤305,响应于检测到用户针对目标创作对象的编辑操作,根据目标创作对象在第一终端设备显示屏幕中的位置和第一终端设备在三维场景中的位姿确定目标创作对象在三维场景中的渲染位姿,以及将目标创作对象按照所确定的相应渲染位姿渲染到三维场景中。
在本实施例中,步骤301、步骤302、步骤303、步骤304和步骤305的具体操作及其所产生的技术效果与图2所示的实施例中步骤201、步骤202、步骤203、步骤204和步骤305的操作及效果基本相同,在此不再赘述。
步骤306,响应于检测到用户触发的场景发布操作,发布待发布场景信息。
在本实施例中,用户可以在希望将当前三维场景以及用户所创作的渲染到当前三维场景中的创作对象进行发布时,触发场景发布操作。而上述执行主体可以在检测到用户触发的场景发布操作的情况下,首先生成包括用户的用户标识、三维场景模型的模型信息和场景内创作对象信息集合的待发布场景信息,再发布待发布场景信息。其中,场景内创作对象信息集合中的场景内创作对象信息可以包括渲染到三维场景中的创作对象及相应渲染位姿。这里,渲染位姿可以包括渲染位置和姿态。
这里,场景发布操作可以是各种预设的可以触发场景发布的操作。
例如,场景发布操作可以是对第一终端设备增强现实场景构建应用界面中的预设场景发布操作显示对象(比如,预设场景发布图标)的第三预设显示对象操作(比如,单击、双击、滑动、按住第一预设时长后抬起等)。
又例如,场景发布操作也可以是说出了预设场景发布操作指令对应的语音。
还例如,场景发布操作还可以是对第一终端设备上设置的第二预设器件(比如,实体按钮)的第三预设器件操作(比如,按下一次,连续按下两次等)。
再例如,场景发布操作还可以是使用第一终端设备输入了预设场景发布操作指令文本。
实践中,发布待发布场景信息可以是将待发布场景信息发送给服务器,上述服务器可以是提供增强现实场景发布服务的服务器。上述服务器在收到上述待发布场景信息后,可以存储上述待发布场景信息,即将待发布场景信息中的用户标识、三维场景模型的模型信息和场景内创作对象信息集合对应存储。
在一些可选的实施方式中,上述执行主体还可以在发布待发布场景信息之前,获取第一终端设备的当前位置,而上述执行主体所发布的待发布场景信息还可以包括上述当前位置。即,用户发布的场景信息中记录了什么用户在什么地方构建了哪个三维场景以及在该三维场景中创作了什么创作对象。而上述执行主体可以在发布上述包括当前位置的待发布信息之后,呈现电子地图,以及在所呈现的电子地图中当前位置处呈现用户所发布的场景信息对应的场景信息标识。即,用户发布场景信息之后,可以在本地的电子地图中当前位置处看到自己所发布的场景信息。例如,用户所发布的场景信息的对应的场景信息标识可以是场景信息对应的场景缩略图,即场景信息中三维场景模型的模型信息对应的三维场景的简单缩小示意图。
步骤306,响应于检测到用户触发的场景转发操作,向目标用户标识所指示的第二终端设备转发待转发场景信息。
在本实施例中,用户可以在希望将当前三维场景以及用户所创作的渲染到当前三维场景中的创作对象转发给目标用户时,触发场景转发操作。而上述执行主体可以在检测到用户触发的场景转发操作的情况下,向目标用户标识所指示的第二终端设备转发待转发场景信息。
这里,场景转发操作可以是各种预设的可以触发场景转发的操作。
例如,场景转发操作可以是对第一终端设备增强现实场景构建应用界面中的针对目标用户标识(例如,可以是用户使用第一终端设备输入的目标用户标识或者可以是用户在第一终端设备上显示的联系人信息中选择的目标用户标识)的预设场景转发操作显示对象(比如,预设场景转发图标)的第四预设显示对象操作(比如,单击、双击、滑动、按住第一预设时长后抬起等)。
又例如,场景转发操作也可以是说出了包括预设场景转发操作指令以及希望转发至的目标用户的目标用户标识对应的语音。
再例如,场景转发操作还可以是使用第一终端设备输入了包括预设场景转发操作指令和目标用户标识的文本。
这里,上述执行主体可以首先生成包括用户的用户标识、场景转发操作所针对的目标用户标识、三维场景模型的模型信息和场景内创作对象信息集合的待转发场景信息,再将所生成的待转发场景信息转发给目标用户标识所指示的第二终端设备。实践中,上述执行主体可以通过将待发布场景信息发送给服务器。上述服务器在收到上述待转发场景信息后,将所收到的待转发场景信息中用户的用户标识、三维场景模型的模型信息和场景内创作对象信息集合发送给所收到的待转发场景信息中目标用户标识所指示的第二终端设备。而第二终端设备可以呈现所收到用户标识,呈现三维场景模型的模型信息对应的三维场景,以及将收到的各场景内创作对象信息中创作对象按照相应渲染位姿渲染至所呈现的三维场景中,并且第二终端设备中的用户还可以对所渲染的各创作对象进行编辑,形成自己的场景内创作对象集合。
在一些可选的实施方式中,上述执行主体还可以在转发待转发场景信息之前,获取第一终端设备的当前位置,而上述执行主体所生成的待转发场景信息还可以包括上述当前位置。这样,第二终端设备可以在收到上述待转发场景信息后,呈现电子地图,以及在所呈现的电子地图中的与所收到的待转发场景信息中的位置对应处呈现待转发场景信息的场景信息标识。这里场景信息标识可以是待转发场景信息中的用户标识或者也可以是待转发场景信息中的三维场景模型的模型信息对应的三维场景的场景缩略图,并且第二终端设备中的用户还可以对所渲染的各创作对象进行编辑,形成自己的场景内创作对象集合。
从图3中可以看出,与图2对应的实施例相比,本实施例中的增强现实场景构建方法的流程300多出了将用户构建的三维场景模型和场景内创作对象信息集合进行发布以及转发给其他用户的步骤。由此,本实施例描述的方案可以实现用户自定义创建AR场景的发布与转发,继而其他用户可以在此基础上进行加载、呈现与编辑。
进一步参考图4,作为对上述各图所示方法的实现,本公开提供了一种增强现实场景构建装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种终端设备中。
如图4所示,本实施例的增强现实场景构建装置400包括:拍摄单元401、重建单元402、第一呈现单元403、目标确定单元404和渲染单元405。其中,拍摄单元401,被配置成响应于检测到用户触发的场景扫描操作,控制上述第一终端设备中设置的摄像头拍摄图像;重建单元402,被配置成根据上述摄像头拍摄的图像进行三维场景重建,得到三维场景模型;第一呈现单元403,被配置成呈现上述三维场景模型对应的三维场景;目标确定单元404,被配置成响应于检测到上述用户触发的创作对象选择操作,将上述创作对象选择操作所针对的创作对象确定为目标创作对象;渲染单元405,被配置成响应于检测到上述用户针对上述目标创作对象的编辑操作,根据上述目标创作对象在上述第一终端设备显示屏幕中的位置和上述第一终端设备在上述三维场景中的位姿确定上述目标创作对象在上述三维场景中的渲染位姿,以及将上述目标创作对象按照所确定的相应渲染位姿渲染到上述三维场景中。
在本实施例中,增强现实场景构建装置400的拍摄单元401、重建单元402、第一呈现单元403、目标确定单元404和渲染单元405的具体处理及其所带来的技术效果可分别参考图2对应实施例中步骤201、步骤202、步骤203、步骤204和步骤205的相关说明,在此不再赘述。
在一些可选的实施方式中,上述装置还可以包括:发布单元(未示出),被配置成响应于检测到上述用户触发的场景发布操作,发布待发布场景信息,其中,上述待发布场景信息包括上述用户的用户标识、上述三维场景模型的模型信息和场景内创作对象信息集合,上述场景内创作对象信息包括渲染到上述三维场景中的创作对象及相应渲染位姿。
在一些可选的实施方式中,上述装置还可以包括:第一获取单元(未示出),被配置成在上述发布待发布场景信息之前,获取上述第一终端设备的当前位置;以及上述待发布场景信息还可以包括上述当前位置;以及上述装置还可以包括:第二呈现单元(未示出),被配置成呈现电子地图,以及在所呈现的电子地图中上述当前位置处呈现上述用户所发布的场景信息对应的场景信息标识。
在一些可选的实施方式中,上述装置还可以包括:转发单元(未示出),被配置成响应于检测到上述用户触发的场景转发操作,向目标用户标识所指示的第二终端设备转发待转发场景信息,上述待转发场景信息包括上述用户的用户标识、上述三维场景模型的模型信息和场景内创作对象信息集合,上述场景内创作对象信息包括渲染到上述三维场景中的创作对象及相应渲染位姿,上述待转发场景信息用于触发上述第二终端设备呈现上述用户的用户标识,呈现上述三维场景模型的模型信息对应的三维场景,以及将各上述场景内创作对象信息中创作对象按照相应渲染位姿渲染至所呈现的三维场景中。
在一些可选的实施方式中,上述装置还可以包括:第二获取单元(未示出),被配置成在上述向目标用户标识所指示的第二终端设备转发待转发场景信息之前,获取上述第一终端设备的当前位置;以及上述待转发场景信息还可以包括上述当前位置;以及上述待转发场景信息用于触发上述第二终端设备呈现上述用户的用户标识,呈现上述三维场景模型的模型信息对应的三维场景,以及将各上述场景内创作对象信息中创作对象按照相应渲染位姿渲染至所呈现的三维场景中,可以包括:上述待转发场景信息用于触发上述第二终端设备呈现电子地图,以及在所呈现的电子地图中上述当前位置处呈现上述待转发场景信息的场景信息标识。
在一些可选的实施方式中,上述摄像单元401可以进一步被配置成:响应于检测到上述用户触发的场景扫描操作,呈现第一提示信息,以及控制上述摄像头拍摄图像,上述第一提示信息用于提示上述用户利用上述第一终端设备扫描周围环境。
在一些可选的实施方式中,上述重建单元402可以进一步被配置成:将从上述摄像头实时获取的图像添加到场景图像序列中,上述场景图像序列是响应于检测到上述用户触发的场景扫描操作而新建的图像序列;基于上述场景图像序列中的场景图像进行三维场景重建;响应于上述三维场景重建不成功,呈现第二提示信息,上述第二提示信息用于提示上述用户继续利用上述第一终端设备扫描周围环境以得到更多图像;响应于上述三维场景重建成功,将上述三维场景重建得到的三维模型确定为上述三维场景模型。
在一些可选的实施方式中,上述目标确定单元404可以进一步被配置成:呈现以下至少一项创作对象:预设虚拟对象,文本,上述第一终端设备的本地存储图像;响应于检测到上述用户针对所呈现的创作对象的选择、编辑或输入操作,将上述用户选择、编辑或输入的创作对象确定为上述目标创作对象。
需要说明的是,本公开的实施例提供的增强现实场景构建装置中各单元的实现细节和技术效果可以参考本公开中其它实施例的说明,在此不再赘述。
下面参考图5,其示出了适于用来实现本公开的终端设备的计算机系统500的结构示意图。图5示出的计算机系统500仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图5所示,计算机系统500可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储装置508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有计算机系统500操作所需的各种程序和数据。处理装置501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
通常,以下装置可以连接至I/O接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风等的输入装置506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置507;包括例如磁带、硬盘等的存储装置508;以及通信装置509。通信装置509可以允许计算机系统500与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备的计算机系统500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从ROM 502被安装。在该计算机程序被处理装置501执行时,执行本公开的实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备实现如图2所示的实施例及其可选实施方式示出的增强现实场景构建方法,和/或,如图3所示的实施例及其可选实施方式示出的增强现实场景构建方法。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,拍摄单元还可以被描述为“控制第一终端设备中设置的摄像头拍摄图像的单元”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (11)

1.一种增强现实场景构建方法,应用于第一终端设备,包括:
响应于检测到用户触发的场景扫描操作,控制所述第一终端设备中设置的摄像头拍摄图像;
根据所述摄像头拍摄的图像进行三维场景重建,得到三维场景模型;
呈现所述三维场景模型对应的三维场景;
响应于检测到所述用户触发的创作对象选择操作,将所述创作对象选择操作所针对的创作对象确定为目标创作对象;
响应于检测到所述用户针对所述目标创作对象的编辑操作,根据所述目标创作对象在所述第一终端设备显示屏幕中的位置和所述第一终端设备在所述三维场景中的位姿确定所述目标创作对象在所述三维场景中的渲染位姿,以及将所述目标创作对象按照所确定的相应渲染位姿渲染到所述三维场景中。
2.根据权利要求1所述的方法,其中,所述方法还包括:
响应于检测到所述用户触发的场景发布操作,待发布场景信息发布待发布场景信息,其中,所述待发布场景信息包括所述用户的用户标识、所述三维场景模型的模型信息和场景内创作对象信息集合,所述场景内创作对象信息包括渲染到所述三维场景中的创作对象及相应渲染位姿。
3.根据权利要求2所述的方法,其中,在所述发布待发布场景信息之前,所述方法还包括:
获取所述第一终端设备的当前位置;以及
所述待发布场景信息还包括所述当前位置;以及
所述方法还包括:
呈现电子地图,以及在所呈现的电子地图中所述当前位置处呈现所述用户所发布的场景信息对应的场景信息标识。
4.根据权利要求1所述的方法,其中,所述方法还包括:
响应于检测到所述用户触发的场景转发操作,向目标用户标识所指示的第二终端设备转发待转发场景信息,所述待转发场景信息包括所述用户的用户标识、所述三维场景模型的模型信息和场景内创作对象信息集合,所述场景内创作对象信息包括渲染到所述三维场景中的创作对象及相应渲染位姿,所述待转发场景信息用于触发所述第二终端设备呈现所述用户的用户标识,呈现所述三维场景模型的模型信息对应的三维场景,以及将各所述场景内创作对象信息中创作对象按照相应渲染位姿渲染至所呈现的三维场景中。
5.根据权利要求4所述的方法,其中,在所述向目标用户标识所指示的第二终端设备转发待转发场景信息待转发场景信息之前,所述方法还包括:
获取所述第一终端设备的当前位置;以及
所述待转发场景信息还包括所述当前位置;以及
所述待转发场景信息用于触发所述第二终端设备呈现所述用户的用户标识,呈现所述三维场景模型的模型信息对应的三维场景,以及将各所述场景内创作对象信息中创作对象按照相应渲染位姿渲染至所呈现的三维场景中,包括:
所述待转发场景信息用于触发所述第二终端设备呈现电子地图,以及在所呈现的电子地图中所述当前位置处呈现所述待转发场景信息的场景信息标识。
6.根据权利要求1所述的方法,其中,所述响应于检测到用户触发的场景扫描操作,控制所述第一终端设备中设置的摄像头拍摄图像,包括:
响应于检测到所述用户触发的场景扫描操作,呈现第一提示信息,以及控制所述摄像头拍摄图像,所述第一提示信息用于提示所述用户利用所述第一终端设备扫描周围环境。
7.根据权利要求1所述的方法,其中,所述根据所述摄像头拍摄的图像进行三维场景重建,得到三维场景模型,包括:
将从所述摄像头实时获取的图像添加到场景图像序列中,所述场景图像序列是响应于检测到所述用户触发的场景扫描操作而新建的图像序列;
基于所述场景图像序列中的场景图像进行三维场景重建;
响应于所述三维场景重建不成功,呈现第二提示信息,所述第二提示信息用于提示所述用户继续利用所述第一终端设备扫描周围环境以得到更多图像;
响应于所述三维场景重建成功,将所述三维场景重建得到的三维模型确定为所述三维场景模型。
8.根据权利要求1所述的方法,其中,所述响应于检测到所述用户触发的创作对象选择操作,将所述创作对象选择操作所针对的创作对象确定为目标创作对象,包括:
呈现以下至少一项创作对象:预设虚拟对象,文本,所述第一终端设备的本地存储图像;
响应于检测到所述用户针对所呈现的创作对象的选择、编辑或输入操作,将所述用户选择、编辑或输入的创作对象确定为所述目标创作对象。
9.一种增强现实场景构建装置,应用于第一终端设备,包括:
拍摄单元,被配置成响应于检测到用户触发的场景扫描操作,控制所述第一终端设备中设置的摄像头拍摄图像;
重建单元,被配置成根据所述摄像头拍摄的图像进行三维场景重建,得到三维场景模型;
第一呈现单元,被配置成呈现所述三维场景模型对应的三维场景;
目标确定单元,被配置成响应于检测到所述用户触发的创作对象选择操作,将所述创作对象选择操作所针对的创作对象确定为目标创作对象;
渲染单元,被配置成响应于检测到所述用户针对所述目标创作对象的编辑操作,根据所述目标创作对象在所述第一终端设备显示屏幕中的位置和所述第一终端设备在所述三维场景中的位姿确定所述目标创作对象在所述三维场景中的渲染位姿,以及将所述目标创作对象按照所确定的相应渲染位姿渲染到所述三维场景中。
10.一种终端设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
11.一种计算机可读存储介质,其上存储有计算机程序,其中,所述计算机程序被一个或多个处理器执行时实现如权利要求1-8中任一所述的方法。
CN202011197395.0A 2020-10-30 2020-10-30 增强现实场景构建方法、装置、终端设备和存储介质 Active CN114445500B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011197395.0A CN114445500B (zh) 2020-10-30 2020-10-30 增强现实场景构建方法、装置、终端设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011197395.0A CN114445500B (zh) 2020-10-30 2020-10-30 增强现实场景构建方法、装置、终端设备和存储介质

Publications (2)

Publication Number Publication Date
CN114445500A CN114445500A (zh) 2022-05-06
CN114445500B true CN114445500B (zh) 2023-11-10

Family

ID=81357770

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011197395.0A Active CN114445500B (zh) 2020-10-30 2020-10-30 增强现实场景构建方法、装置、终端设备和存储介质

Country Status (1)

Country Link
CN (1) CN114445500B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115033324B (zh) * 2022-05-31 2023-09-12 南京数睿数据科技有限公司 三维空间页面中的图表显示方法、装置、电子设备和介质
CN115147554A (zh) * 2022-08-01 2022-10-04 北京新唐思创教育科技有限公司 三维场景构建方法、装置、设备和存储介质
CN116758198A (zh) * 2023-06-15 2023-09-15 北京京东乾石科技有限公司 图像重建方法、装置、设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108427499A (zh) * 2018-02-13 2018-08-21 视辰信息科技(上海)有限公司 一种ar系统及ar设备
CN109062523A (zh) * 2018-06-14 2018-12-21 北京三快在线科技有限公司 增强现实数据的展示方法、装置、电子设备及存储介质
CN109939440A (zh) * 2019-04-17 2019-06-28 网易(杭州)网络有限公司 三维游戏地图的生成方法、装置、处理器及终端
CN110865708A (zh) * 2019-11-14 2020-03-06 杭州网易云音乐科技有限公司 虚拟内容载体的交互方法、介质、装置和计算设备
CN111459269A (zh) * 2020-03-24 2020-07-28 视辰信息科技(上海)有限公司 一种增强现实显示方法、系统及计算机可读存储介质
CN111651058A (zh) * 2020-06-12 2020-09-11 浙江商汤科技开发有限公司 历史场景的控制展示方法、装置、电子设备及存储介质
CN111679742A (zh) * 2020-06-10 2020-09-18 浙江商汤科技开发有限公司 基于ar的交互控制方法、装置、电子设备及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11347054B2 (en) * 2017-02-16 2022-05-31 Magic Leap, Inc. Systems and methods for augmented reality

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108427499A (zh) * 2018-02-13 2018-08-21 视辰信息科技(上海)有限公司 一种ar系统及ar设备
CN109062523A (zh) * 2018-06-14 2018-12-21 北京三快在线科技有限公司 增强现实数据的展示方法、装置、电子设备及存储介质
CN109939440A (zh) * 2019-04-17 2019-06-28 网易(杭州)网络有限公司 三维游戏地图的生成方法、装置、处理器及终端
CN110865708A (zh) * 2019-11-14 2020-03-06 杭州网易云音乐科技有限公司 虚拟内容载体的交互方法、介质、装置和计算设备
CN111459269A (zh) * 2020-03-24 2020-07-28 视辰信息科技(上海)有限公司 一种增强现实显示方法、系统及计算机可读存储介质
CN111679742A (zh) * 2020-06-10 2020-09-18 浙江商汤科技开发有限公司 基于ar的交互控制方法、装置、电子设备及存储介质
CN111651058A (zh) * 2020-06-12 2020-09-11 浙江商汤科技开发有限公司 历史场景的控制展示方法、装置、电子设备及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A Location-based Social Network System Integrating Mobile Augmented Reality and User Generated Content;Yuanwen Yue 等;《LocalRec 19:Proceedings of the 3rd ACM SIGSPATIAL International Workshop on Location-based Recommendations,Geosocial Networks and Geoadvertising》;1-4 *
Bringing User-Generated Content from Internet Services to Mobile Augmented Reality Clients;Petros Belimpasakis 等;《2010 Cloud-Mobile Convergence for Virtual Reality Workshop Proceedings》;14-17 *
具身型混合现实学习环境(EMRLE)的构建与学习活动设计;赵瑞斌;范文翔;杨现民;谌志霞;张文;;《远程教育杂志》;第38卷(第05期);44-51 *

Also Published As

Publication number Publication date
CN114445500A (zh) 2022-05-06

Similar Documents

Publication Publication Date Title
CN114445500B (zh) 增强现实场景构建方法、装置、终端设备和存储介质
US10937249B2 (en) Systems and methods for anchoring virtual objects to physical locations
CN115552357A (zh) 基于姿势的共享ar会话创建
CN113741698B (zh) 一种确定和呈现目标标记信息的方法与设备
WO2016114930A2 (en) Systems and methods for augmented reality art creation
CN107622252B (zh) 信息生成方法和装置
CN116457829A (zh) 个性化化身实时运动捕获
US9530243B1 (en) Generating virtual shadows for displayable elements
CN109906600B (zh) 模拟景深
CN112672185B (zh) 基于增强现实的显示方法、装置、设备及存储介质
CN107329671B (zh) 模型显示方法和装置
CN117157674A (zh) 用于第三方应用的增强现实内容中的面部合成
CN117321640A (zh) 包括面部合成的交互式增强现实内容
CN114529690B (zh) 增强现实场景呈现方法、装置、终端设备和存储介质
CN113806306B (zh) 媒体文件处理方法、装置、设备、可读存储介质及产品
CN115516406B (zh) 使用生物数据进行的深度估计
CN114332417B (zh) 一种多人场景交互的方法、设备、存储介质及程序产品
US20190155465A1 (en) Augmented media
CN117083640A (zh) 使用对面部表情的选择在线上社区的内容中的面部合成
CN117157677A (zh) 增强现实内容中头部转向的面部合成
CN117099134A (zh) 用于广告的增强现实内容中的面部合成
CN116710881A (zh) 针对多视频片段捕获选择音频
CN117099133A (zh) 叠加的增强现实内容中的面部合成
CN111523408B (zh) 动作捕捉方法和装置
CN109816791B (zh) 用于生成信息的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant