CN114529690B - 增强现实场景呈现方法、装置、终端设备和存储介质 - Google Patents
增强现实场景呈现方法、装置、终端设备和存储介质 Download PDFInfo
- Publication number
- CN114529690B CN114529690B CN202011199769.2A CN202011199769A CN114529690B CN 114529690 B CN114529690 B CN 114529690B CN 202011199769 A CN202011199769 A CN 202011199769A CN 114529690 B CN114529690 B CN 114529690B
- Authority
- CN
- China
- Prior art keywords
- scene
- user
- dimensional
- information
- dimensional scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 98
- 238000000034 method Methods 0.000 title claims abstract description 71
- 238000009877 rendering Methods 0.000 claims abstract description 104
- 238000001514 detection method Methods 0.000 claims abstract description 18
- 230000004044 response Effects 0.000 claims description 41
- 230000001960 triggered effect Effects 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 238000005286 illumination Methods 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Computer Hardware Design (AREA)
- Data Mining & Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开提供一种增强现实场景呈现方法、装置、终端设备和存储介质。该方法的一具体实施方式包括:呈现电子地图以及确定当前目标位置;在当前呈现的电子地图中呈现与当前目标位置对应的附近增强现实场景标识集合;响应于检测到用户触发针对附近增强现实场景标识中目标场景标识的场景选择操作,获取目标场景标识对应的三维场景模型信息和场景内虚拟信息集合创作对象场景内创作对象信息包括创作对象和相应渲染位姿;呈现所获取的三维场景模型信息对应的三维场景,以及将所收到的场景内创作对象信息中的创作对象按照相应渲染位姿渲染到三维场景中。该实施方式实现了对附近已创建的增强现实场景进行再次呈现。
Description
技术领域
本公开的实施例涉及增强现实技术领域,具体涉及增强现实场景呈现方法、装置、终端设备和存储介质。
背景技术
AR(Augmented Reality)增强现实技术,是一种将虚拟信息与真实世界巧妙融合的技术,广泛运用了多媒体、三维建模、实时跟踪及注册、智能交互、传感等多种技术手段,将虚拟信息应用到真实世界中,两种信息互为补充,从而实现对真实世界的“增强”。
发明内容
本公开的实施例提出了增强现实场景呈现方法、装置、终端设备和存储介质。
第一方面,本公开的实施例提供了一种增强现实场景呈现方法,应用于第一终端设备,该方法包括:呈现电子地图以及确定当前目标位置;在当前呈现的电子地图中呈现与上述当前目标位置对应的附近增强现实场景标识集合;响应于检测到用户触发针对上述附近增强现实场景标识中目标场景标识的场景选择操作,获取上述目标场景标识对应的三维场景模型信息和场景内虚拟信息集合创作对象场景内创作对象信息包括创作对象和相应渲染位姿;呈现所获取的三维场景模型信息对应的三维场景,以及将所收到的场景内创作对象信息中的创作对象按照相应渲染位姿渲染到上述三维场景中。
在一些可选的实施方式中,上述确定当前目标位置包括:将上述第一终端设备的当前所在位置确定为上述当前目标位置;或者将上述用户在当前呈现的电子地图中的选择的位置确定为上述当前目标位置;或者将当前呈现的电子地图中的中心位置确定为上述当前目标位置。
在一些可选的实施方式中,上述呈现所获取的三维场景模型信息对应的三维场景,包括:确定所获取的三维场景模型信息是否与上述第一终端设备的周围环境相匹配;响应于确定匹配,呈现所获取的三维场景模型信息对应的三维场景。
在一些可选的实施方式中,上述方法还包括:响应于确定不匹配,呈现第一提示信息,上述第一提示信息用于指示上述用户所选择的增强现实场景与当前环境不匹配。
在一些可选的实施方式中,上述确定所获取的三维场景模型信息是否与上述第一终端设备的周围环境相匹配,包括:响应于检测到上述用户触发的场景扫描操作,控制上述第一终端设备中设置的摄像头拍摄图像;根据上述摄像头拍摄的图像进行三维场景重建,得到当前三维场景模型;确定所获取的三维场景模型信息是否与上述当前三维场景模型相匹配。
在一些可选的实施方式中,上述根据上述摄像头拍摄的图像进行三维场景重建,得到当前三维场景模型,包括:将从上述摄像头实时获取的图像添加到场景图像序列中,上述场景图像序列是响应于检测到上述用户触发的场景扫描操作而新建的图像序列;基于上述场景图像序列中的场景图像进行三维场景重建;响应于上述三维场景重建不成功,呈现第二提示信息,上述第二提示信息用于提示上述用户继续利用上述第一终端设备扫描周围环境以得到更多图像;响应于上述三维场景重建成功,将上述三维场景重建得到的三维模型确定为上述当前三维场景模型。
在一些可选的实施方式中,上述方法还包括:呈现以下至少一项创作对象:预设虚拟对象,文本,上述第一终端设备的本地存储图像;响应于检测到上述用户针对所呈现的创作对象的选择、编辑或输入操作,将上述用户选择、编辑或输入的创作对象确定为目标创作对象;响应于检测到上述用户针对上述目标创作对象的编辑操作,根据上述目标创作对象在上述第一终端设备显示屏幕中的位置和上述第一终端设备在上述三维场景中的位姿确定上述目标创作对象在上述三维场景中的渲染位姿,以及将上述目标创作对象按照所确定的相应渲染位姿渲染到上述三维场景中。
在一些可选的实施方式中,上述方法还包括:响应于检测到上述用户触发的场景发布操作,发布待发布场景信息,其中,上述待发布场景信息包括上述用户的用户标识、上述第一终端设备的当前所在位置、所获取的三维场景模型信息和当前场景内创作对象信息集合,上述当前场景内创作对象信息包括渲染到上述三维场景中的创作对象及相应渲染位姿。
在一些可选的实施方式中,上述方法还包括:响应于检测到上述用户触发的场景转发操作,向目标用户标识所指示的第二终端设备转发待转发场景信息,其中,上述待转发场景信息包括上述用户的用户标识、上述第一终端设备的当前所在位置、上述场景转发操作所针对的目标用户标识、所获取的三维场景模型信息和上述当前场景内创作对象信息集合,上述待转发场景信息用于触发上述第二终端设备呈现上述用户的用户标识,呈现上述三维场景,以及将各上述当前场景内创作对象信息中创作对象按照相应渲染位姿渲染至所呈现的三维场景中。
在一些可选的实施方式中,上述增强现实场景标识包括创建用户标识和/或场景缩略图。
第二方面,本公开的实施例提供了一种增强现实场景呈现装置,应用于第一终端设备,该装置包括:位置确定单元,被配置成呈现电子地图以及确定当前目标位置;标识呈现单元,被配置成在当前呈现的电子地图中呈现与上述当前目标位置对应的附近增强现实场景标识集合;场景选择单元,被配置成响应于检测到用户触发针对上述附近增强现实场景标识中目标场景标识的场景选择操作,获取上述目标场景标识对应的三维场景模型信息和场景内虚拟信息集合场景内创作对象信息包括创作对象和相应渲染位姿;场景呈现单元,被配置成呈现所获取的三维场景模型信息对应的三维场景,以及将所收到的场景内创作对象信息中的创作对象按照相应渲染位姿渲染到上述三维场景中。
在一些可选的实施方式中,上述位置确定单元进一步被配置成:将上述第一终端设备的当前所在位置确定为上述当前目标位置;或者将上述用户在当前呈现的电子地图中的选择的位置确定为上述当前目标位置;或者将当前呈现的电子地图中的中心位置确定为上述当前目标位置。
在一些可选的实施方式中,上述场景呈现及渲染单元进一步被配置成:确定所获取的三维场景模型信息是否与上述第一终端设备的周围环境相匹配;响应于确定匹配,呈现所获取的三维场景模型信息对应的三维场景。
在一些可选的实施方式中,上述场景呈现及渲染单元进一步被配置成:响应于确定不匹配,呈现第一提示信息,上述第一提示信息用于指示上述用户所选择的增强现实场景与当前环境不匹配。
在一些可选的实施方式中,上述确定所获取的三维场景模型信息是否与上述第一终端设备的周围环境相匹配,包括:响应于检测到上述用户触发的场景扫描操作,控制上述第一终端设备中设置的摄像头拍摄图像;根据上述摄像头拍摄的图像进行三维场景重建,得到当前三维场景模型;确定所获取的三维场景模型信息是否与上述当前三维场景模型相匹配。
在一些可选的实施方式中,上述根据上述摄像头拍摄的图像进行三维场景重建,得到当前三维场景模型,包括:将从上述摄像头实时获取的图像添加到场景图像序列中,上述场景图像序列是响应于检测到上述用户触发的场景扫描操作而新建的图像序列;基于上述场景图像序列中的场景图像进行三维场景重建;响应于上述三维场景重建不成功,呈现第二提示信息,上述第二提示信息用于提示上述用户继续利用上述第一终端设备扫描周围环境以得到更多图像;响应于上述三维场景重建成功,将上述三维场景重建得到的三维模型确定为上述当前三维场景模型。
在一些可选的实施方式中,上述装置还包括:素材呈现单元,被配置成呈现以下至少一项创作对象:预设虚拟对象,文本,上述第一终端设备的本地存储图像;响应于检测到上述用户针对所呈现的创作对象的选择、编辑或输入操作,将上述用户选择、编辑或输入的创作对象确定为目标创作对象;响应于检测到上述用户针对上述目标创作对象的编辑操作,根据上述目标创作对象在上述第一终端设备显示屏幕中的位置和上述第一终端设备在上述三维场景中的位姿确定上述目标创作对象在上述三维场景中的渲染位姿,以及将上述目标创作对象按照所确定的相应渲染位姿渲染到上述三维场景中。
在一些可选的实施方式中,上述装置还包括:场景发布单元,被配置成响应于检测到上述用户触发的场景发布操作,发布待发布场景信息,其中,上述待发布场景信息包括上述用户的用户标识、上述第一终端设备的当前所在位置、所获取的三维场景模型信息和当前场景内创作对象信息集合,上述当前场景内创作对象信息包括渲染到上述三维场景中的创作对象及相应渲染位姿。
在一些可选的实施方式中,上述装置还包括:场景转发单元,被配置成响应于检测到上述用户触发的场景转发操作,向目标用户标识所指示的第二终端设备转发待转发场景信息,其中,上述待转发场景信息包括上述用户的用户标识、上述第一终端设备的当前所在位置、上述场景转发操作所针对的目标用户标识、所获取的三维场景模型信息和上述当前场景内创作对象信息集合,上述待转发场景信息用于触发上述第二终端设备呈现上述用户的用户标识,呈现上述三维场景,以及将各上述当前场景内创作对象信息中创作对象按照相应渲染位姿渲染至所呈现的三维场景中。
在一些可选的实施方式中,上述增强现实场景标识包括创建用户标识和/或场景缩略图。
第三方面,本公开的实施例提供了一种终端设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本公开的实施例提供了一种计算机可读存储介质,其上存储有计算机程序,其中,该计算机程序被一个或多个处理器执行时实现如第一方面中任一实现方式描述的方法。
本公开的实施例提供的增强现实场景呈现方法、装置、终端设备和存储介质,通过在第一终端设备呈现的电子地图上呈现已创建的、与当前目标位置对应的附近增强现实场景标识,并且如果用户选择了其中的目标场景标识,还可以呈现该目标场景标识对应的三维场景模型和场景内创作对象,实现了在终端设备上对附近已创建的增强现实场景进行再次呈现。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显。附图仅用于示出具体实施方式的目的,而并不认为是对本发明的限制。在附图中:
图1是根据本公开的增强现实场景呈现系统的一个实施例的系统架构图;
图2A是根据本公开的增强现实场景呈现方法的一个实施例的流程图;
图2B是根据本公开的呈现所获取的三维场景模型信息对应的三维场景的一个实施例的流程图;
图3是根据本公开的增强现实场景呈现方法的又一个实施例的流程图;
图4是根据本公开的增强现实场景呈现装置的一个实施例的结构示意图;
图5是适于用来实现本公开的实施例的终端设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的增强现实场景呈现方法、装置、终端设备和存储介质的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如AR场景呈现类应用、短视频社交类应用、网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有摄像头和显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供AR场景呈现与编辑服务),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的AR场景呈现类应用提供支持的后台服务器。后台服务器可以查询与目标场景标识匹配的三维场景模型信息和场景内创作对象信息集合并反馈给终端设备。
需要说明的是,本公开所提供的增强现实场景呈现方法一般由终端设备101、102、103执行,相应地,增强现实场景呈现装置一般设置于终端设备101、102、103中。
需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2A,其示出了根据本公开的增强现实场景呈现方法的一个实施例的流程200,应用于第一终端设备,该增强现实场景呈现方法包括以下步骤:
步骤201,呈现电子地图以及确定当前目标位置。
在本实施例中,增强现实场景呈现方法的执行主体(例如图1所示的终端设备101、102、103)可以首先呈现电子地图,并可以采用各种实现方式确定当前目标位置。
在一些可选的实施方式中,上述执行主体可以将第一终端设备的当前所在位置确定为当前目标位置。
在一些可选的实施方式中,上述执行主体也可以将用户在当前呈现的电子地图中的选择的位置确定为当前目标位置。
在一些可选的实施方式中,上述执行主体还可以将当前呈现的电子地图中的中心位置确定为当前目标位置。
步骤202,在当前呈现的电子地图中呈现与当前目标位置对应的附近增强现实场景标识集合。
在本实施例中,上述执行主体可以在当前呈现电子地图的同时呈现与当前目标位置对应的附近增强现实场景标识集合。
这里,附近增强现实场景标识集合可以是由上述执行主体根据当前目标位置所获取的增强现实场景标识集合。实践中,上述执行主体可以将当前目标位置发送服务器,服务器根据所收到的当前目标位置确定与当前目标位置匹配的增强现实场景标识集合并返回上述执行主体。服务器中可以对应存储有增强现实场景标识、场景位置、三维场景模型信息和场景内创作对象信息集合,场景内创作对象信息包括创作对象和相应渲染位姿。三维场景模型信息是指对三维环境或物体建立适合计算机表示和处理的数学模型的模型结构和模型参数信息。而创作对象可以是各种可以呈现的信息。例如,创作对象可以是二维的文字或图像,创作对象也可以是三维文字或三维图像。创作对象对应的渲染位姿用于表征将该创作对象渲染至三维场景时的位置和姿态。
在一些可选的实施方式中,增强现实场景标识可以包括创建用户标识和/或场景缩略图,其中,创建用户标识用于标识创建增强现实场景的用户,场景缩略图为三维场景模型的简单缩小示意图。基于该可选实施方式,步骤202中呈现的附近增强现实场景标识可以是呈现创建用户标识和/或场景缩略图。
这里,服务器可以采用各种实现方式根据从第一终端设备收到的当前目标位置确定附近增强现实场景标识集合。例如,服务器可以在所存储的增强现实场景信息中查询场景位置与从第一终端设备收到的当前目标位置之间的距离小于预设距离的增强现实场景信息对应的增强现实场景标识。即在步骤202中所呈现的附近增强现实场景标识集合对应的是在当前目标位置附近所产生的增强现实场景。
步骤203,响应于检测到用户触发针对附近增强现实场景标识中目标场景标识的场景选择操作,获取目标场景标识对应的三维场景模型信息和场景内虚拟信息集合。
在本实施例中,用户可以在当前呈现的附近增强现实场景标识中选择某个增强现实场景标识以希望呈现该所选择的增强现实场景时,触发针对附近增强现实场景标识中目标场景标识的场景选择操作,而上述执行主体可以在检测到上述场景选择操作的情况下,获取目标场景标识对应的三维场景模型信息和场景内虚拟信息集合。实践中,上述执行主体可以向服务器发送目标场景标识。这样,服务器可以查询与所收到的目标场景标识匹配的三维场景模型和场景内创作对象信息集合,并将查询得到的三维场景模型和场景内创作对象信息集合返回第一终端设备。
这里,场景选择操作可以是各种预设的可以触发选择增强现实场景标识的操作。
例如,场景选择操作可以是对目标场景标识的单击、双击、滑动、按住第一预设时长后抬起等。
步骤204,呈现所获取的三维场景模型信息对应的三维场景,以及将所获取的场景内创作对象信息中的创作对象按照相应渲染位姿渲染到三维场景中。
在本实施例中,上述执行主体可以在获取到三维场景模型信息和场景内创作对象信息集合的情况下,呈现所获取的三维场景模型信息对应的三维场景,以及将所获取的场景内创作对象信息中的创作对象按照相应渲染位姿渲染到上述三维场景中。
这里,呈现三维场景模型信息对应的三维场景例如可以是在显示屏幕上呈现三维场景模型信息对应的三维场景。实践中,可以根据具体三维场景模型信息所采用的模型的不同而采用相应的呈现方法进行场景呈现。比如,可以将三维场景模型中不同空间点的渲染相应的颜色、光照和纹理。另外,随着第一终端设备的位姿变化,所呈现的三维场景也相应改变。
实践中,在将创作对象按照相应渲染位姿渲染到三维场景中的过程中,可以根据具体三维场景模型所采用的模型的不同、以及创作对象的具体情况而采用相应的方法进行渲染,渲染过程中还可以考虑创作对象在三维场景中的颜色、光照和纹理等。另外,随着第一终端设备的位姿变化,三维场景中创作对象的呈现也可相应改变。
在一些可选的实施方式中,步骤204中呈现所获取的三维场景模型信息对应的三维场景,可以包括如图2B所示的步骤2041到步骤2043:
步骤2041,确定所获取的三维场景模型信息是否与第一终端设备的周围环境相匹配。
这里,上述执行主体可以采用各种实现方式确定所获取的三维场景模型信息是否与第一终端设备的周围环境相匹配。如果匹配,则可转到步骤2042执行,以呈现该三维场景模型信息对应的三维场景。如果不匹配转到步骤2043执行。
可选地,步骤2041可以包括以下步骤20411到步骤20413:
步骤20411,响应于检测到用户触发的场景扫描操作,控制第一终端设备中设置的摄像头拍摄图像。
这里,用户可以在希望呈现步骤203中所选择的目标场景标识对应的增强现实场景时,触发场景扫描操作,而上述执行主体可以在检测到用户触发的场景扫描操作的情况下,控制第一终端设备中设置的摄像头拍摄图像。
这里,场景扫描操作可以是各种预设的可以触发摄像头拍摄图像的操作。
例如,场景扫描操作可以是对预设场景扫描操作显示对象(比如,预设场景扫描图标)的单击、双击、滑动、按住第一预设时长后抬起等。
又例如,场景扫描操作也可以是说出了预设场景扫描操作指令对应的语音。
还例如,场景扫描操作还可以是对第一终端设备上设置的第一预设器件(比如,实体按钮)的第一预设器件操作(比如,按下一次,连续按下两次等)。
再例如,场景扫描操作还可以是使用第一终端设备输入了预设场景扫描操作指令文本。
可选地,步骤20411也可以如下进行:响应于检测到用户触发的场景扫描操作,呈现场景扫描提示信息,以及控制摄像头拍摄图像。其中,场景扫描提示信息用于提示用户利用第一终端设备扫描周围环境。例如,场景扫描提示信息可以是文字或者图像、声音等。这样,用户可以持第一终端设备用摄像头扫描周围环境以进行后续的三维场景重建。
步骤20412,根据摄像头拍摄的图像进行三维场景重建,得到当前三维场景模型。
这里,上述执行主体可以实时从摄像头获取摄像头拍摄的图像,以及根据所获取的摄像头拍摄的图像,采用各种三维重建方法进行三维场景重建并得到当前三维场景模型。
这里,三维重建是利用至少两张图像指对三维环境或物体建立适合计算机表示和处理的数学模型,是在计算机中建立表达客观世界的虚拟现实的技术,亦指利用二维投影图像恢复环境或物体三维信息(形状等)的数学过程和计算机技术主要包括数据获取、预处理、点云拼接和特征分析等步骤。需要说明的是,如何根据至少两张图像进行三维重建是本领域广泛研究和应用的现有技术,在此不再赘述。
作为示例,三维重建可以如下进行:
第一步,摄像机标定:即通过摄像机标定来建立成像模型,并求解出摄像机的内外参数,这样就可以结合摄像头采集的图像的匹配结果得到三维场景中的三维点坐标。
第二步,特征提取:特征提取主要包括提取特征点、特征线和区域。大多是以特征点为匹配基元,特征点以何种形式提取与用何种匹配策略紧密联系。因此在进行特征点的提取时需要先确定用哪种匹配方法。例如,特征点提取算法可以采用:基于方向导数的方法,基于图像亮度对比关系的方法或者基于数学形态学的方法。
第三步,立体匹配:立体匹配是指根据所提取的特征建立图像对之间的一种对应关系,也就是将同一物理空间点在两幅不同图像中的成像点进行一一对应。
第四步,三维重建:基于第一步摄像机标定的内外参数、第二步的特征提取结果和第三步的立体匹配结果,进行恢复得到当前三维场景模型。
可以理解的是,当前三维场景模型除了可以包括特征提取所得到的特征点、特征线和区域信息,还可以包括其它例如颜色、文理、光照等信息。
可选地,步骤20412可以如下执行:
首先,将从摄像头实时获取的图像添加到场景图像序列中,而其中场景图像序列是上述执行主体响应于检测到用户触发的场景扫描操作而新建的图像序列。即,用户每触发一次场景扫描操作会新建场景图像序列,在用户持第一终端设备扫描周围环境的过程中,摄像头所采集的图像会实时添加到场景图像序列中。
其次,基于场景图像序列中的场景图像进行三维场景重建。如果三维场景重建不成功,则呈现第二提示信息,第二提示信息用于提示用户继续利用第一终端设备扫描周围环境以得到更多图像。如果三维场景重建成功,则将三维场景重建得到的三维模型确定为当前三维场景模型。
即,在用户持第一终端设备扫描周围环境的过程中,摄像头所采集的图像会实时添加到场景图像序列中,并实时进行三维场景重建。如果重建不成功则提示用户继续扫描周围环境,并继续采集图像进行三维重建,直到采集到足够多的图像以致重建成功则不再继续采集图像。
步骤20413,确定所获取的三维场景模型信息是否与当前三维场景模型相匹配。
这里,经过步骤20412已经得到第一终端设备周围环境的当前三维场景模型,这样上述执行主体可以采用各种实现方式确定所获取的三维场景模型信息是否与当前三维场景模型相匹配。实践中,可以根据所获取的三维场景模型信息以及当前三维场景模型的具体情况采用不同的方法确定二者是否匹配。例如,所获取的三维场景模型信息和当前三维场景模型都是由N个特征点组成的,那么可以用二者对应的N个特征点对应的值分别形成相应的特征向量,然后计算所形成的两个特征向量之间的相似度,如果计算得到的相似度大于预设相似度阈值可以确定二者相匹配;反之如果不大于可以确定二者不匹配。
步骤2042,呈现所获取的三维场景模型信息对应的三维场景。
这里,上述执行主体可以在步骤2041中确定所获取的三维场景模型信息和当前三维场景模型匹配的情况下,表明第一终端设备的周围环境与用户在步骤203中选择的目标场景标识对应的增强现实场景相匹配,则可以呈现所获取的三维场景模型信息对应的三维场景。
步骤2043,呈现第一提示信息。
这里,上述执行主体可以在步骤2041中确定所获取的三维场景模型信息和当前三维场景模型不匹配的情况下,表明第一终端设备的周围环境与用户在步骤203中选择的目标场景标识对应的增强现实场景不相匹配,可以呈现第一提示信息,这里第一提示信息用于指示用户所选择的增强现实场景与当前环境不匹配。这样,用户可以再选择附近增强现实场景标识集合中的其他增强现实场景标识,以使得所选择的增强现实场景与第一终端设备的周围环境相匹配。
本公开的上述实施例提供的增强现实场景呈现方法,通过在第一终端设备呈现的电子地图上呈现已创建的、与当前目标位置对应的附近增强现实场景标识,以及若用户选择了其中的目标场景标识,可呈现该目标场景标识对应的三维场景模型和场景内创作对象,实现了在第一终端设备上对已创建的增强现实场景进行再次呈现,提高了增强现实场景的互动性。
继续参考图3,其示出了根据本公开的增强现实场景呈现方法的又一个实施例的流程300。该增强现实场景呈现方法,包括以下步骤:
步骤301,呈现电子地图以及确定当前目标位置。
步骤302,在当前呈现的电子地图中呈现与当前目标位置对应的附近增强现实场景标识集合。
步骤303,响应于检测到用户触发针对附近增强现实场景标识中目标场景标识的场景选择操作,获取目标场景标识对应的三维场景模型信息和场景内虚拟信息集合。
步骤304,呈现所获取的三维场景模型信息对应的三维场景,以及将所获取的场景内创作对象信息中的创作对象按照相应渲染位姿渲染到三维场景中。
在本实施例中,步骤301、步骤302、步骤303和步骤304的具体操作及其所产生的技术效果与图2A所示的实施例中步骤201、步骤202、步骤203和步骤204的操作及效果基本相同,在此不再赘述。
步骤305,呈现以下至少一项创作对象:预设虚拟对象,文本,第一终端设备的本地存储图像。
这里,预设虚拟对象可以是预先设计好的二维或者三维显示对象,例如图像或文字。文本可以是用户使用第一终端输入的文本或者文本也可以是对用户说出的语音进行语音识别所得到的文本。第一终端设备的本地存储图像可以是第一终端设备中的摄像头所拍摄的图像或者也可以是采用各种方式存储到第一终端设备本地的图像,例如截图、保存等方式。
步骤306,响应于检测到用户针对所呈现的预设创作对象的选择、编辑或输入操作,将用户选择、编辑或输入的预设创作对象确定为目标创作对象。
这里,用户可以在所呈现的预设虚拟对象中进行选择(例如,点击或者按住进行选择),或者用户也可以先选择预设虚拟对象再对所选择的预设虚拟对象进行编辑(比如,添加文本、修改文本、改变颜色、改变纹理等),而上述执行主体可以将用户选择、编辑或输入后的创作对象确定为目标创作对象。
即,这里为用户提供了预设的创作素材,同时也提供让用户自定义创作对象,方便用户对AR场景进行编辑。
步骤307,响应于检测到用户针对目标创作对象的编辑操作,根据目标创作对象在第一终端设备显示屏幕中的位置和第一终端设备在三维场景中的位姿确定目标创作对象在三维场景中的渲染位姿,以及将目标创作对象按照所确定的相应渲染位姿渲染到三维场景中。
在本实施例中,用户可以对目标创作对象进行各种编辑操作,例如用户可以通过对目标创作对象的拖动、移动等操作实现改变目标创作对象的位置、姿态、大小等。即,用户可以通过对目标创作对象的编辑操作实现指定将目标创作对象渲染到三维场景中的具体渲染位姿。而上述执行主体可以在检测到用户针对目标创作对象的编辑操作时,首先确定第一终端设备在三维场景中的位姿。
例如,第一种终端设备中可以设置有IMU(Inertial Measurement Unit,惯性测量单元),第一终端设备可以根据IMU输出的加速度和角速度解算出第一终端设备在三维场景中的位置和姿态数据,其中,位置可以是三维坐标,而姿态可以包括偏航角、俯仰角和横滚角。其中,解算的算法例如可以是欧拉角法、方向余弦法、三角函数法、Rodrigues参数法、四元数法等。
然后,可以根据目标创作对象在第一终端设备显示屏幕中的位置和第一终端设备在三维场景中的位姿确定目标创作对象在三维场景中的位姿。
这里,可以通过坐标系之间的转换,根据目标创作对象在第一终端设备显示屏幕中的位置和第一终端设备在三维场景中的位姿确定目标创作对象在三维场景中的渲染位姿。例如,这里的坐标系转换可以包括从屏幕坐标系到裁剪坐标系再到观察空间坐标系,最后到世界坐标系的转换,即得到目标创作对象在三维场景中的渲染位姿。其中,屏幕坐标系可以是第一终端设备的显示屏幕对应的坐标系。
最后,将目标创作对象按照所确定的相应渲染位姿渲染到三维场景中。
实践中,在将目标创作对象渲染到三维场景中的过程中,可以根据具体三维场景模型所采用的模型的不同、以及目标创作对象的具体情况而采用相应的方法进行渲染,渲染过程中还可以考虑目标创作对象在三维场景中的颜色、光照和纹理等。另外,随着第一终端设备的位姿变化,三维场景中目标创作对象的呈现也可相应改变。
经过步骤305到步骤307,可以将用户选择、编辑或者输入的创作对像渲染到三维场景中。即,为用户提供了预设的创作素材,方便用户自定义对再现的AR场景进行编辑。
步骤308,响应于检测到用户触发的场景发布操作,发布待发布场景信息。
在本实施例中,用户可以在希望将再现的三维场景以及用户所编辑的渲染到三维场景中的创作对象进行发布时,触发场景发布操作。而上述执行主体可以在检测到用户触发的场景发布操作的情况下,。首先生成包括用户的用户标识、第一终端设备的当前所在位置、所获取的三维场景模型信息和当前场景内创作对象信息集合的待发布场景信息,再发布待发布场景信息。其中,当前场景内创作对象信息集合中的场景内创作对象信息可以包括渲染到三维场景中的创作对象及相应渲染位姿。这里,渲染位姿可以包括渲染位置和姿态。
这里,场景发布操作可以是各种预设的可以触发场景保存的操作。
例如,场景发布操作可以是对第一终端设备所呈现的预设场景发布操作显示对象(比如,预设场景保存图标)的单击、双击、滑动、按住第二预设时长后抬起等。
又例如,场景发布操作也可以是说出了预设场景发布操作指令对应的语音。
还例如,场景发布操作还可以是对第一终端设备上设置的第二预设器件(比如,实体按钮)的第二预设器件操作(比如,按下一次,连续按下两次等)。
再例如,场景发布操作还可以是使用第一终端设备输入了预设场景发布操作指令文本。
实践中,发布待发布场景信息可以是将待发布场景信息发送给服务器,上述服务器可以是提供增强现实场景发布服务的服务器。上述服务器在收到上述待发布场景信息后,可以存储上述待发布场景信息,即将待发布场景信息中的用户标识、第一终端设备的当前所在位置、所获取的三维场景模型信息和当前场景内创作对象信息集合对应存储。即,服务器中存储了什么用户在什么地方构建和/或再现并编辑了哪个三维场景以及在该三维场景中创作了什么创作对象。
步骤309,响应于检测到用户触发的场景转发操作,向目标用户标识所指示的第二终端设备转发待转发场景信息。
在本实施例中,用户可以在希望将再现或者再现并编辑后的三维场景以及用户所创作的渲染到三维场景中的创作对象转发给目标用户时,触发场景转发操作。而上述执行主体可以在检测到用户触发的场景转发操作的情况下,向目标用户标识所指示的第二终端设备转发待转发场景信息。
这里,场景转发操作可以是各种预设的可以触发场景转发的操作。
例如,场景发布操作可以是对第一终端设备中呈现的增强现实场景呈现应用界面中的针对目标用户标识(例如,可以是用户使用第一终端设备输入的目标用户标识或者可以是用户在第一终端设备上显示的联系人信息中选择的目标用户标识)的预设场景转发操作显示对象(比如,预设场景转发图标)的单击、双击、滑动、按住第三预设时长后抬起等操作。
又例如,场景转发操作也可以是说出了包括预设场景转发操作指令以及希望转发至的目标用户的目标用户标识对应的语音。
再例如,场景转发操作还可以是使用第一终端设备输入了包括预设场景转发操作指令和目标用户标识的文本。
这里,上述执行主体可以首先生成包括用户的用户标识、第一终端设备的当前所在位置、场景转发操作所针对的目标用户标识、所获取的三维场景模型信息和当前场景内创作对象信息集合的待转发场景信息,再将所生成的待转发场景信息转发给目标用户标识所指示的第二中终端设备。其中,场景内创作对象信息可以包括渲染到三维场景中的创作对象及相应渲染位姿。实践中,上述执行主体可以通过将待发布场景信息发送给服务器,上述服务器在收到上述待转发场景信息后,将所收到的待转发场景信息发送给目标用户标识所指示的第二终端设备。而第二终端设备可以呈现所收到的用户标识、三维场景模型信息对应的三维场景,以及将所收到的各场景内创作对象信息中的创作对象按照相应渲染位姿渲染至所呈现的三维场景中。并且第二终端设备中的用户还可以对所渲染的各创作对象进行编辑,形成自己的场景内创作对象集合。
从图3中可以看出,与图2A对应的实施例相比,本实施例中的增强现实场景呈现方法的流程300多出了提供创作素材供用户选择以实现对再现的增强现实场景进行编辑的步骤,以及将用户再现或者再现并编辑后的三维场景模型和场景内创作对象信息集合发布以及转发给其他用户的步骤。由此,本实施例描述的方案可以实现对再现三维场景的编辑、发布与转发,继而其他用户可以在此基础上进行加载、呈现与编辑,进一步提高了增强现实场景的互动性。
进一步参考图4,作为对上述各图所示方法的实现,本公开提供了一种增强现实场景呈现装置的一个实施例,该装置实施例与图2A所示的方法实施例相对应,该装置具体可以应用于各种终端设备中。
如图4所示,本实施例的增强现实场景呈现装置400包括:位置确定单元401,标识呈现单元402、场景选择单元403和场景呈现及渲染单元404。其中,位置确定单元401,被配置成呈现电子地图以及确定当前目标位置;标识呈现单元402,被配置成在当前呈现的电子地图中呈现与上述当前目标位置对应的附近增强现实场景标识集合;场景选择单元403,被配置成响应于检测到用户触发针对上述附近增强现实场景标识中目标场景标识的场景选择操作,获取上述目标场景标识对应的三维场景模型信息和场景内虚拟信息集合场景内创作对象信息包括创作对象和相应渲染位姿;场景呈现及渲染单元404,被配置成呈现所获取的三维场景模型信息对应的三维场景,以及将所收到的场景内创作对象信息中的创作对象按照相应渲染位姿渲染到上述三维场景中。
在本实施例中,增强现实场景呈现装置400的位置确定单元401、标识呈现单元402、场景选择单元403和场景呈现及渲染单元404的具体处理及其所带来的技术效果可分别参考图2A对应实施例中步骤201、步骤202、步骤203和步骤204的相关说明,在此不再赘述。
在一些可选的实施方式中,上述位置确定单元401可以进一步被配置成:将上述第一终端设备的当前所在位置确定为上述当前目标位置;或者将上述用户在当前呈现的电子地图中的选择的位置确定为上述当前目标位置;或者将当前呈现的电子地图中的中心位置确定为上述当前目标位置。
在一些可选的实施方式中,上述场景呈现及渲染单元404可以进一步被配置成:确定所获取的三维场景模型信息是否与上述第一终端设备的周围环境相匹配;响应于确定匹配,呈现所获取的三维场景模型信息对应的三维场景。
在一些可选的实施方式中,上述场景呈现及渲染单元404可以进一步被配置成:响应于确定不匹配,呈现第一提示信息,上述第一提示信息用于指示上述用户所选择的增强现实场景与当前环境不匹配。
在一些可选的实施方式中,上述确定所获取的三维场景模型信息是否与上述第一终端设备的周围环境相匹配,包括:响应于检测到上述用户触发的场景扫描操作,控制上述第一终端设备中设置的摄像头拍摄图像;根据上述摄像头拍摄的图像进行三维场景重建,得到当前三维场景模型;确定所获取的三维场景模型信息是否与上述当前三维场景模型相匹配。
在一些可选的实施方式中,上述根据上述摄像头拍摄的图像进行三维场景重建,得到当前三维场景模型,包括:将从上述摄像头实时获取的图像添加到场景图像序列中,上述场景图像序列是响应于检测到上述用户触发的场景扫描操作而新建的图像序列;基于上述场景图像序列中的场景图像进行三维场景重建;响应于上述三维场景重建不成功,呈现第二提示信息,上述第二提示信息用于提示上述用户继续利用上述第一终端设备扫描周围环境以得到更多图像;响应于上述三维场景重建成功,将上述三维场景重建得到的三维模型确定为上述当前三维场景模型。
在一些可选的实施方式中,上述装置还可以包括:素材呈现单元(未示出),被配置成呈现以下至少一项创作对象:预设虚拟对象,文本,上述第一终端设备的本地存储图像;响应于检测到上述用户针对所呈现的创作对象的选择、编辑或输入操作,将上述用户选择、编辑或输入的创作对象确定为目标创作对象;响应于检测到上述用户针对上述目标创作对象的编辑操作,根据上述目标创作对象在上述第一终端设备显示屏幕中的位置和上述第一终端设备在上述三维场景中的位姿确定上述目标创作对象在上述三维场景中的渲染位姿,以及将上述目标创作对象按照所确定的相应渲染位姿渲染到上述三维场景中。
在一些可选的实施方式中,上述装置还可以包括:场景发布单元(未示出),被配置成响应于检测到上述用户触发的场景发布操作,发布待发布场景信息,其中,上述待发布场景信息包括上述用户的用户标识、上述第一终端设备的当前所在位置、所获取的三维场景模型信息和当前场景内创作对象信息集合,上述当前场景内创作对象信息包括渲染到上述三维场景中的创作对象及相应渲染位姿。
在一些可选的实施方式中,上述装置还可以包括:场景转发单元(未示出),被配置成响应于检测到上述用户触发的场景转发操作,向目标用户标识所指示的第二终端设备转发待转发场景信息,其中,上述待转发场景信息包括上述用户的用户标识、上述第一终端设备的当前所在位置、上述场景转发操作所针对的目标用户标识、所获取的三维场景模型信息和上述当前场景内创作对象信息集合,上述待转发场景信息用于触发上述第二终端设备呈现上述用户的用户标识,呈现上述三维场景,以及将各上述当前场景内创作对象信息中创作对象按照相应渲染位姿渲染至所呈现的三维场景中。
在一些可选的实施方式中,上述增强现实场景标识可以包括创建用户标识和/或场景缩略图。
需要说明的是,本公开的实施例提供的增强现实场景呈现装置中各单元的实现细节和技术效果可以参考本公开中其它实施例的说明,在此不再赘述。
下面参考图5,其示出了适于用来实现本公开的终端设备的计算机系统500的结构示意图。图5示出的计算机系统500仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图5所示,计算机系统500可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储装置508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有计算机系统500操作所需的各种程序和数据。处理装置501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
通常,以下装置可以连接至I/O接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风等的输入装置506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置507;包括例如磁带、硬盘等的存储装置508;以及通信装置509。通信装置509可以允许计算机系统500与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备的计算机系统500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从ROM 502被安装。在该计算机程序被处理装置501执行时,执行本公开的实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备实现如图2A所示的实施例及其可选实施方式示出的增强现实场景呈现方法,和/或,如图3所示的实施例及其可选实施方式示出的增强现实场景呈现方法。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,标识呈现单元还可以被描述为“在当前呈现的电子地图中呈现与当前目标位置对应的附近增强现实场景标识集合的单元”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (10)
1.一种增强现实场景呈现方法,应用于第一终端设备,包括:
呈现电子地图以及确定当前目标位置;
在当前呈现的电子地图中呈现与所述当前目标位置对应的附近增强现实场景标识集合;
响应于检测到用户触发针对所述附近增强现实场景标识中目标场景标识的场景选择操作,获取所述目标场景标识对应的三维场景模型信息和场景内创作对象信息集合,场景内创作对象信息包括创作对象和相应渲染位姿;
响应于检测到所述用户触发的场景扫描操作,控制所述第一终端设备中设置的摄像头拍摄图像;
将从所述摄像头实时获取的图像添加到场景图像序列中,所述场景图像序列是响应于检测到所述用户触发的场景扫描操作而新建的图像序列;
基于所述场景图像序列中的场景图像进行三维场景重建;
响应于所述三维场景重建不成功,呈现第二提示信息,所述第二提示信息用于提示所述用户继续利用所述第一终端设备扫描周围环境以得到更多图像;
响应于所述三维场景重建成功,将所述三维场景重建得到的三维模型确定为所述当前三维场景模型;
在所获取的三维场景模型信息与所述当前三维场景模型相匹配时,呈现所获取的三维场景模型信息对应的三维场景;
将所收到的场景内创作对象信息中的创作对象按照相应渲染位姿渲染到所述三维场景中。
2.根据权利要求1所述的方法,其中,所述确定当前目标位置包括:
将所述第一终端设备的当前所在位置确定为所述当前目标位置;或者
将所述用户在当前呈现的电子地图中的选择的位置确定为所述当前目标位置;或者
将当前呈现的电子地图中的中心位置确定为所述当前目标位置。
3.根据权利要求1所述的方法,其中,所述方法还包括:
响应于确定不匹配,呈现第一提示信息,所述第一提示信息用于指示所述用户所选择的增强现实场景与当前环境不匹配。
4.根据权利要求1所述的方法,其中,所述方法还包括:
呈现以下至少一项创作对象:预设虚拟对象,文本,所述第一终端设备的本地存储图像;
响应于检测到所述用户针对所呈现的创作对象的选择、编辑或输入操作,将所述用户选择、编辑或输入的创作对象确定为目标创作对象;
响应于检测到所述用户针对所述目标创作对象的编辑操作,根据所述目标创作对象在所述第一终端设备显示屏幕中的位置和所述第一终端设备在所述三维场景中的位姿确定所述目标创作对象在所述三维场景中的渲染位姿,以及将所述目标创作对象按照所确定的相应渲染位姿渲染到所述三维场景中。
5.根据权利要求1-4中任一项所述的方法,其中,所述方法还包括:
响应于检测到所述用户触发的场景发布操作,发布待发布场景信息,其中,所述待发布场景信息包括所述用户的用户标识、所述第一终端设备的当前所在位置、所获取的三维场景模型信息和当前场景内创作对象信息集合,所述当前场景内创作对象信息包括渲染到所述三维场景中的创作对象及相应渲染位姿。
6.根据权利要求1-4中任一项所述的方法,其中是,所述方法还包括:
响应于检测到所述用户触发的场景转发操作,向目标用户标识所指示的第二终端设备转发待转发场景信息,其中,所述待转发场景信息包括所述用户的用户标识、所述第一终端设备的当前所在位置、所述场景转发操作所针对的目标用户标识、所获取的三维场景模型信息和所述当前场景内创作对象信息集合,所述待转发场景信息用于触发所述第二终端设备呈现所述用户的用户标识,呈现所述三维场景,以及将各所述当前场景内创作对象信息中创作对象按照相应渲染位姿渲染至所呈现的三维场景中。
7.根据权利要求1所述的方法,其中,所述增强现实场景标识包括创建用户标识和/或场景缩略图。
8.一种增强现实场景呈现装置,应用于第一终端设备,包括:
位置确定单元,被配置成呈现电子地图以及确定当前目标位置;
标识呈现单元,被配置成在当前呈现的电子地图中呈现与所述当前目标位置对应的附近增强现实场景标识集合;
场景选择单元,被配置成响应于检测到用户触发针对所述附近增强现实场景标识中目标场景标识的场景选择操作,获取所述目标场景标识对应的三维场景模型信息和场景内创作对象信息集合,场景内创作对象信息包括创作对象和相应渲染位姿;
场景重建单元,被配置成响应于检测到所述用户触发的场景扫描操作,控制所述第一终端设备中设置的摄像头拍摄图像;将从所述摄像头实时获取的图像添加到场景图像序列中,所述场景图像序列是响应于检测到所述用户触发的场景扫描操作而新建的图像序列;基于所述场景图像序列中的场景图像进行三维场景重建;响应于所述三维场景重建不成功,呈现第二提示信息,所述第二提示信息用于提示所述用户继续利用所述第一终端设备扫描周围环境以得到更多图像;响应于所述三维场景重建成功,将所述三维场景重建得到的三维模型确定为所述当前三维场景模型;
场景呈现及渲染单元,被配置成在所获取的三维场景模型信息与所述当前三维场景模型相匹配时,呈现所获取的三维场景模型信息对应的三维场景,以及将所收到的场景内创作对象信息中的创作对象按照相应渲染位姿渲染到所述三维场景中。
9.一种终端设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其中,所述计算机程序被一个或多个处理器执行时实现如权利要求1-7中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011199769.2A CN114529690B (zh) | 2020-10-30 | 2020-10-30 | 增强现实场景呈现方法、装置、终端设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011199769.2A CN114529690B (zh) | 2020-10-30 | 2020-10-30 | 增强现实场景呈现方法、装置、终端设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114529690A CN114529690A (zh) | 2022-05-24 |
CN114529690B true CN114529690B (zh) | 2024-02-27 |
Family
ID=81619805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011199769.2A Active CN114529690B (zh) | 2020-10-30 | 2020-10-30 | 增强现实场景呈现方法、装置、终端设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114529690B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115439635B (zh) * | 2022-06-30 | 2024-04-26 | 亮风台(上海)信息科技有限公司 | 一种呈现目标对象的标记信息的方法与设备 |
CN116245998B (zh) * | 2023-05-09 | 2023-08-29 | 北京百度网讯科技有限公司 | 渲染贴图生成方法及装置、模型训练方法及装置 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107251101A (zh) * | 2015-02-25 | 2017-10-13 | 英特尔公司 | 针对使用具有参数的标记的增强现实的场景修改 |
CN107622524A (zh) * | 2017-09-29 | 2018-01-23 | 百度在线网络技术(北京)有限公司 | 用于移动终端的显示方法和显示装置 |
CN107665508A (zh) * | 2016-07-29 | 2018-02-06 | 成都理想境界科技有限公司 | 实现增强现实的方法及系统 |
CN108022306A (zh) * | 2017-12-30 | 2018-05-11 | 华自科技股份有限公司 | 基于增强现实的场景识别方法、装置、存储介质和设备 |
CN109871826A (zh) * | 2019-03-14 | 2019-06-11 | 腾讯科技(深圳)有限公司 | 信息展示方法、装置、计算机可读存储介质和计算机设备 |
CN110716645A (zh) * | 2019-10-15 | 2020-01-21 | 北京市商汤科技开发有限公司 | 一种增强现实数据呈现方法、装置、电子设备及存储介质 |
CN111311757A (zh) * | 2020-02-14 | 2020-06-19 | 惠州Tcl移动通信有限公司 | 一种场景合成方法、装置、存储介质及移动终端 |
CN111610997A (zh) * | 2020-05-26 | 2020-09-01 | 北京市商汤科技开发有限公司 | Ar场景内容的生成方法、展示方法、展示系统及装置 |
CN111651047A (zh) * | 2020-06-05 | 2020-09-11 | 浙江商汤科技开发有限公司 | 一种虚拟物体展示方法、装置、电子设备及存储介质 |
CN111665943A (zh) * | 2020-06-08 | 2020-09-15 | 浙江商汤科技开发有限公司 | 一种位姿信息展示方法及装置 |
CN111694430A (zh) * | 2020-06-10 | 2020-09-22 | 浙江商汤科技开发有限公司 | 一种ar场景画面呈现方法、装置、电子设备和存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104699842B (zh) * | 2015-03-31 | 2019-03-26 | 百度在线网络技术(北京)有限公司 | 图片展示方法和装置 |
US10929494B2 (en) * | 2018-04-16 | 2021-02-23 | Stops.com Ltd. | Systems and methods for tagging objects for augmented reality |
-
2020
- 2020-10-30 CN CN202011199769.2A patent/CN114529690B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107251101A (zh) * | 2015-02-25 | 2017-10-13 | 英特尔公司 | 针对使用具有参数的标记的增强现实的场景修改 |
CN107665508A (zh) * | 2016-07-29 | 2018-02-06 | 成都理想境界科技有限公司 | 实现增强现实的方法及系统 |
CN107622524A (zh) * | 2017-09-29 | 2018-01-23 | 百度在线网络技术(北京)有限公司 | 用于移动终端的显示方法和显示装置 |
CN108022306A (zh) * | 2017-12-30 | 2018-05-11 | 华自科技股份有限公司 | 基于增强现实的场景识别方法、装置、存储介质和设备 |
CN109871826A (zh) * | 2019-03-14 | 2019-06-11 | 腾讯科技(深圳)有限公司 | 信息展示方法、装置、计算机可读存储介质和计算机设备 |
CN110716645A (zh) * | 2019-10-15 | 2020-01-21 | 北京市商汤科技开发有限公司 | 一种增强现实数据呈现方法、装置、电子设备及存储介质 |
CN111311757A (zh) * | 2020-02-14 | 2020-06-19 | 惠州Tcl移动通信有限公司 | 一种场景合成方法、装置、存储介质及移动终端 |
CN111610997A (zh) * | 2020-05-26 | 2020-09-01 | 北京市商汤科技开发有限公司 | Ar场景内容的生成方法、展示方法、展示系统及装置 |
CN111651047A (zh) * | 2020-06-05 | 2020-09-11 | 浙江商汤科技开发有限公司 | 一种虚拟物体展示方法、装置、电子设备及存储介质 |
CN111665943A (zh) * | 2020-06-08 | 2020-09-15 | 浙江商汤科技开发有限公司 | 一种位姿信息展示方法及装置 |
CN111694430A (zh) * | 2020-06-10 | 2020-09-22 | 浙江商汤科技开发有限公司 | 一种ar场景画面呈现方法、装置、电子设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
基于场景平面结构的增强现实方法;邓宝松;杨冰;高宇;吴玲达;;工程图学学报(01);101-106 * |
Also Published As
Publication number | Publication date |
---|---|
CN114529690A (zh) | 2022-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114445500B (zh) | 增强现实场景构建方法、装置、终端设备和存储介质 | |
CN113741698B (zh) | 一种确定和呈现目标标记信息的方法与设备 | |
US20220383577A1 (en) | Personalized avatar real-time motion capture | |
CN106664376B (zh) | 增强现实设备和方法 | |
US8644467B2 (en) | Video conferencing system, method, and computer program storage device | |
US11989845B2 (en) | Implementation and display of augmented reality | |
WO2016114930A2 (en) | Systems and methods for augmented reality art creation | |
JP6787394B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
CN112672185B (zh) | 基于增强现实的显示方法、装置、设备及存储介质 | |
US20220206738A1 (en) | Selecting an audio track in association with multi-video clip capture | |
CN112138386A (zh) | 一种体积渲染方法、装置、存储介质及计算机设备 | |
CN109906600B (zh) | 模拟景深 | |
CN114529690B (zh) | 增强现实场景呈现方法、装置、终端设备和存储介质 | |
CN114332417B (zh) | 一种多人场景交互的方法、设备、存储介质及程序产品 | |
CN113806306B (zh) | 媒体文件处理方法、装置、设备、可读存储介质及产品 | |
CN112598780A (zh) | 实例对象模型构建方法及装置、可读介质和电子设备 | |
CN115516406B (zh) | 使用生物数据进行的深度估计 | |
US20240331245A1 (en) | Video processing method, video processing apparatus, and storage medium | |
CN109582134B (zh) | 信息显示的方法、装置及显示设备 | |
US20190155465A1 (en) | Augmented media | |
WO2022146798A1 (en) | Selecting audio for multi-video clip capture | |
CN117083640A (zh) | 使用对面部表情的选择在线上社区的内容中的面部合成 | |
CN111507142A (zh) | 人脸表情图像处理方法、装置和电子设备 | |
CN109816791B (zh) | 用于生成信息的方法和装置 | |
CN109636917B (zh) | 三维模型的生成方法、装置、硬件装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |