CN107204031B - 信息展示方法及装置 - Google Patents

信息展示方法及装置 Download PDF

Info

Publication number
CN107204031B
CN107204031B CN201710299057.XA CN201710299057A CN107204031B CN 107204031 B CN107204031 B CN 107204031B CN 201710299057 A CN201710299057 A CN 201710299057A CN 107204031 B CN107204031 B CN 107204031B
Authority
CN
China
Prior art keywords
virtual object
dimensional
model data
virtual
stereoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710299057.XA
Other languages
English (en)
Other versions
CN107204031A (zh
Inventor
刘亦辰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201710299057.XA priority Critical patent/CN107204031B/zh
Publication of CN107204031A publication Critical patent/CN107204031A/zh
Priority to PCT/CN2018/084226 priority patent/WO2018196738A1/zh
Application granted granted Critical
Publication of CN107204031B publication Critical patent/CN107204031B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明涉及一种信息展示方法及装置。上述方法,包括:采集现实场景画面;识别所述现实场景画面中包含的目标图形,并获取识别结果;获取与所述识别结果匹配的预先定义的3D虚拟模型数据;根据所述3D虚拟模型数据绘制立体3D虚拟对象;对所述立体3D虚拟对象及所述现实场景画面进行增强现实处理,将所述立体3D虚拟对象与所述现实场景画面融合,并进行展示。上述信息展示方法及装置,可以在识别到目标图形时展示大量信息,有效提高用户粘度。

Description

信息展示方法及装置
技术领域
本发明涉及计算机技术领域,特别是涉及一种信息展示方法及装置。
背景技术
随着互联网技术及移动终端的高速发展,越来越多的信息传递方式方便了用户的生活。而其中,二维码等图片作为信息传递及功能跳转的一种常用方式,受到越来越多用户的喜爱。用户可通过扫描二维码等图片获取图片中包含的信息,并跳转到相应的功能界面进行相应的操作,例如添加好友、转账、支付等。在传统的方式中,对二维码等图片进行扫描后,都是直接跳转至相应的功能界面,例如扫描后直接打开相应的网页、扫描后直接跳转到相应的用户资料界面等,展示的信息量小,导致用户的粘度低。
发明内容
本发明实施例提供一种信息展示方法及装置,可以在识别到目标图形时展示大量信息,有效提高用户粘度。
一种信息展示方法,包括:
采集现实场景画面;
识别所述现实场景画面中包含的目标图形,并获取识别结果;
获取与所述识别结果匹配的预先定义的3D虚拟模型数据;
根据所述3D虚拟模型数据绘制立体3D虚拟对象;
对所述立体3D虚拟对象及所述现实场景画面进行增强现实处理,将所述立体3D虚拟对象与所述现实场景画面融合,并进行展示。
一种信息展示装置,其特征在于,包括:
采集模块,用于采集现实场景画面;
识别模块,用于识别所述现实场景画面中包含的目标图形,并获取识别结果;
模型数据获取模块,用于获取与所述识别结果匹配的预先定义的3D虚拟模型数据;
绘制模块,用于根据所述3D虚拟模型数据绘制立体3D虚拟对象;
展示模块,用于对所述立体3D虚拟对象及所述现实场景画面进行增强现实处理,将所述立体3D虚拟对象与所述现实场景画面融合,并进行展示。
上述信息展示方法及装置,采集现实场景画面,识别现实场景画面中包含的目标图形,并获取识别结果,获取与该识别结果匹配的预先定义的3D虚拟模型数据,并根据3D虚拟模型数据绘制立体3D虚拟对象,对立体3D虚拟对象及现实场景画面进行增强现实处理,将立体3D虚拟对象与所述现实场景画面融合,并进行展示,当扫描识别到目标图形时,通过增强现实展示对应的立体3D 虚拟对象,可以在识别到目标图形时展示大量信息,有效提高用户粘度。
附图说明
图1为一个实施例中信息展示方法的应用场景图;
图2为一个实施例中终端的框图;
图3为一个实施例中信息展示方法的流程示意图;
图4(a)为一个实施例中终端采集现实场景画面的示意图;
图4(b)为一个实施例中终端展示融合后的立体3D虚拟对象与现实场景画面的示意图;
图5为一个实施例中识别目标图形的流程示意图;
图6为一个实施例中判断与目标图形对应的功能场景是否支持展示立体3D 虚拟对象的流程示意图;
图7为一个实施例中判断终端及与目标图形关联的目标对象是否启用立体 3D虚拟对象展示功能的流程示意图;
图8为另一个实施例中信息展示方法的流程示意图;
图9为一个实施例中绘制立体3D虚拟对象的流程示意图;
图10为一个实施例中对立体3D虚拟对象进行变换展示的流程示意图;
图11为一个实施例中对立体3D虚拟对象进行配置操作的流程示意图;
图12为另一个实施例中信息展示方法的流程示意图;
图13为一个实施例中信息展示装置的框图;
图14为一个实施例中识别模块的框图;
图15为另一个实施例中信息展示装置的框图;
图16为另一个实施例中信息展示装置的框图;
图17为一个实施例中展示模块的框图;
图18为一个实施例中绘制模块的框图;
图19为另一个实施例中信息展示装置的框图;
图20为另一个实施例中信息展示装置的框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
图1为一个实施例中信息展示方法的应用场景图。如图1所示,终端10与服务器20通过网络进行连接,终端10采集现实场景画面,识别现实场景画面中包含的目标图形,并获取识别结果。终端10可从服务器20获取与该识别结果匹配的预先定义的3D虚拟模型数据,并根据3D虚拟模型数据绘制立体3D 虚拟对象。终端10对立体3D虚拟对象及采集的现实场景画面进行增强现实处理,将立体3D虚拟对象与现实场景画面融合,并进行展示。
图2为一个实施例中上述终端10的内部结构示意图。如图2所示,该终端 10包括通过系统总线连接的处理器、非易失性存储介质、内存储器和网络接口、显示屏和输入装置。其中,终端10的非易失性存储介质存储有操作系统及计算机可执行指令,该计算机可执行指令被处理器执行时以实现本申请实施例中提供的适用于终端10的一种信息展示方法。该处理器用于提供计算和控制能力,支撑整个终端10的运行。终端10中的内存储器为非易失性存储介质中的计算机可执行指令的运行提供环境。网络接口用于与服务器进行网络通信,如向服务器发送更新检测请求、从服务器接收3D虚拟模型数据等。终端10的显示屏可以是液晶显示屏或者电子墨水显示屏等,输入装置可以是显示屏上覆盖的触摸层,也可以是终端10外壳上设置的按键、轨迹球或触控板,也可以是外接的键盘、触控板或鼠标等。该终端10可以是手机、平板电脑或者个人数字助理或穿戴式设备等。本领域技术人员可以理解,图2中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的终端10 的限定,具体的终端10可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
如图3所示,在一个实施例中,提供了一种信息展示方法,包括以下步骤:
步骤S310,采集现实场景画面。
当终端接收到用户在界面上进行扫描操作时,可打开摄像头等硬件模块实时捕捉采集现实场景画面,其中,现实场景画面指的是摄像头捕捉到的现实世界中的画面,现实世界指的是存在于人脑之外的客观世界,是可感知的世界。
步骤S320,识别现实场景画面中包含的目标图形,并获取识别结果。
终端可对实时采集到的现实场景画面进行检测,当检测到现实场景画面中包含有目标图形时,对该目标图形进行识别,并获取识别结果。目标图形指的是可被作为扫描识别目标的图形或图像,例如,二维码、字符、产品图标等。终端可识别目标图形中包含的内容信息,并根据内容信息获取识别结果。
在一个实施例中,识别结果可包括结果事件类型、结果事件参数等数据。不同的目标图形包含的内容信息不同,可分别对应不同的结果事件类型及结果事件参数,结果事件参数通常包含有与目标图形对应的唯一标识。例如,扫描用户资料卡二维码,得到的结果事件类型为用户资料卡,结果事件参数为用户的账号;扫描支付二维码,得到的结果事件类型为支付,结果事件参数为支付账单号;扫描网页链接的二维码,得到的结果事件类型为网页链接,结果事件参数为网页的URL(Uniform Resource Locator,统一资源定位符)地址;扫描麦当劳的“M”图标,得到的结果事件类型为麦当劳官方网站,结果事件参数为麦当劳官方网站的URL地址等,但不限于此。
可以理解地,当终端检测到现实场景画面中包含有目标图形时,可将目标图形上传至服务器,通过服务器识别目标图形中包含的内容信息,并从服务器获取对应的识别结果。
步骤S330,获取与识别结果匹配的预先定义的3D虚拟模型数据。
3D(3Dimensions,三维)虚拟模型数据用于搭建3D虚拟模型,3D虚拟模型指的是用软件搭建的虚拟的立体三维模型。用户或商家可预先根据需求设定不同的3D虚拟模型数据,并建立设定的3D虚拟模型数据与识别结果的对应关系,进一步地,3D虚拟模型数据可以是与识别结果的结果事件类型匹配,也可以是与结果事件参数中的标识匹配。当终端识别目标图形获取识别结果时,可根据识别结果中的结果事件类型或结果事件参数获取匹配的预先定义的3D 虚拟模型数据,从而可针对于不同的识别结果,展示预先设定的不同的立体3D 虚拟对象。例如,结果事件为用户资料卡,针对于结果事件参数中不同的用户账号,可展示由对应用户分别设定的立体3D人物形象,结果事件为网页链接,针对于结果事件参数中不同的网页的URL地址,可展示匹配的立体3D动画或图像等。
步骤S340,根据3D虚拟模型数据绘制立体3D虚拟对象。
立体3D虚拟对象可包括立体3D虚拟图像和/或立体3D虚拟动画等,其中,立体3D虚拟对象可由顶点,以及由顶点组成的线、多边形等图形进行描述。在一个实施例中,3D虚拟模型数据可包括用于描述立体3D虚拟对象的顶点信息,其中,顶点信息可包括顶点坐标、向量、颜色、纹理等。终端获取3D虚拟模型数据后,可将3D虚拟模型数据传入图形处理器,并通过图形接口调用底层图形库对3D虚拟模型数据进行处理,根据顶点信息绘制立体3D虚拟对象。
步骤S350,对立体3D虚拟对象及现实场景画面进行增强现实处理,将立体3D虚拟对象与现实场景画面融合,并进行展示。
增强现实技术(Augmented Reality,简称AR),是一种实时地计算摄影机影像的位置及角度并加上相应图像、视频、3D模型的技术,这种技术的目的是在屏幕上把虚拟世界套在现实世界并进行互动。增强现实可将现实世界的信息与虚拟世界的信息无缝地集成在一起,将虚拟的信息应用到真实世界,真实的环境和虚拟的物体实时地叠加到了同一个画面或空间而同时存在,两种信息相互补充叠加。终端可对绘制的立体3D虚拟对象与实时采集到的现实场景画面进行增强现实处理,将立体3D虚拟对象与现实场景画面融合,并进行展示。用户通过终端的屏幕,可以看到立体3D虚拟对象与现实场景画面融合的画面,立体 3D虚拟对象与摄像头实时采集到的现实场景画面叠加到一起。
图4(a)为一个实施例中终端采集现实场景画面的示意图,图4(b)为一个实施例中终端展示融合后的立体3D虚拟对象与现实场景画面的示意图。如图 4(a)所示,当终端接收到用户进行的扫描操时,进入扫一扫界面,打开摄像头采集到现实场景画面404,并通过扫描框402对现实场景画面404进行检测,识别现实场景画面404中包含的二维码,并获取识别结果。终端根据识别结果获取匹配的预先定义的3D虚拟模型数据,并根据3D虚拟模型数据绘制立体3D 虚拟对象。终端对立体3D虚拟对象及现实场景画面404进行增强现实处理,将立体3D虚拟对象与现实场景画面404融合,并进行展示,最终的展示画面可如图4(b)所示,终端屏幕上展示融合后的立体3D虚拟对象408及现实场景画面406,其中,立体3D虚拟对象408为3D立方体,通过终端的屏幕,用户可看到立体3D虚拟对象408与现实场景画面406叠加到一起。
可以理解地,立体3D虚拟对象并不仅限于上述的3D立方体,可以是代表用户或企业的3D卡通动物、3D人物形象,或是与执行功能关联的3D动画等任意的立体3D虚拟图像或动画。例如,终端扫描二维码进行支付时,立体3D虚拟对象可以是画着翅膀的钱飞走的3D动画,终端扫描用户资料卡二维码进行添加好友时,立体3D虚拟对象可以是该用户设置的3D人物形象等。
上述信息展示方法,采集现实场景画面,识别现实场景画面中包含的目标图形,并获取识别结果,获取与该识别结果匹配的预先定义的3D虚拟模型数据,并根据3D虚拟模型数据绘制立体3D虚拟对象,对立体3D虚拟对象及现实场景画面进行增强现实处理,将立体3D虚拟对象与所述现实场景画面融合,并进行展示,当扫描识别到目标图形时,通过增强现实展示对应的立体3D虚拟对象,可以在识别到目标图形时展示大量信息,有效提高用户粘度。
如图5所示,在一个实施例中,步骤S320,识别现实场景画面中包含的目标图形,并获取识别结果,包括以下步骤:
步骤S502,抽取目标图形包含的关键特征。
当终端检测到摄像头捕捉采集到的现实场景画面中包含有目标图形时,可对目标图像进行识别,也可将采集到的现实场景画面上传至服务器,通过服务器对现实场景画面包含的目标图形进行识别。可先对目标图形进行分割,划分出目标图形中所包含的对象区域,并逐一检测各个对象区域包含的关键特征,也可以将目标图形分割成等大的若干子块,并逐一检测各个子块所包含的关键特征,其中,关键特征可以是目标图形中包含的数据信息、形状特征、空间特征、及边缘特征等。数据信息指的是目标图形包含有的字符数据,例如二维码中包含的编码信息等,形状特征指的是目标图形中局部的形状,空间特征指的是目标图形中分割出来的多个对象区域之间的相互的空间位置或相对方向关系,边缘特征指的是目标图形中组成两个区域之间的边界像素等。
步骤S504,根据关键特征识别目标图形包含的内容信息。
检测到目标图形中包含的关键特征后,可抽取关键特征,并对关键特征进行处理,识别得到目标图形包含的内容信息。例如,对目标图形中包含的字符数据进行解码处理,得到目标图形的内容信息,也可以对关键特征进行匹配运算,在特征库中查询与关键特征匹配的模板,从而确定目标图形中包含的内容信息等。
步骤S506,根据预先配置的限制条件对内容信息进行处理,得到识别结果。
可对目标图形包含的内容信息的安全性、权限等预先配置限制条件,并根据预先配置的限制条件对内容信息进行处理,得到识别结果。当内容信息通过预先配置的限制条件时,则可得到包含有结果事件类型、结果事件参数等数据的识别结果,当内容信息不通过预先配置的限制条件时,返回的识别结果可为空,或是其它对应的信息。
在一个实施例中,可根据预先配置的限制条件检测内容信息是否安全,例如检测内容信息中包含的网页链接是否安全等,若不安全,则可返回识别结果为空,也可返回网页链接不安全等信息。也可根据预先配置的限制条件检测终端是否具备内容信息的应用权限,例如,检测终端是否具备查看内容信息中包含的用户资料权限,或是添加好友权限等,若不具备权限,则可返回识别结果为空,或是返回不具备相应权限等信息。
在本实施例中,可对目标图形进行识别,并通过预先配置的限制条件对内容信息进行处理,得到识别结果,可对非法或不具备权限的识别内容进行过滤,加强安全性。
如图6所示,在一个实施例中,在步骤S330获取与识别结果匹配的预先定义的3D虚拟模型数据之前,还包括以下步骤:
步骤S602,根据识别结果判断与目标图形对应的功能场景是否支持展示立体3D虚拟对象,若是,则执行步骤S604,若否,则执行步骤S606。
在一个实施例中,识别结果除了包含结果事件类型、结果事件参数外,还可包括是否支持展示立体3D虚拟对象参数,用于表示与目标图形对应的功能场景是否支持展示立体3D虚拟对象,其中,功能场景指的是与结果事件类型对应的场景,例如,结果事件类型为网页链接,对应的功能场景为访问网页,结果事件类型为用户资料卡,对应的功能场景为查看用户资料等。
终端可读取识别结果中的是否支持展示立体3D虚拟对象参数,当该是否支持展示立体3D虚拟对象参数为第一预设值时,则表示与目标图形对应的功能场景支持展示立体3D虚拟对象,当为第二预设值时,则表示不支持。其中,第一预设值可为true(正确),第二预设值可为false(错误),或是第一预设值为1,第二预设值为0等,并不限于此。
步骤S604,获取与识别结果匹配的预先定义的3D虚拟模型数据。
若与目标图形对应的功能场景支持展示立体3D虚拟对象,则终端可获取与识别结果匹配的预先定义的3D虚拟模型数据,并绘制立体3D虚拟对象,与现实场景画面进行增强现实处理后,进行展示。
步骤S606,根据识别结果跳转至与目标图形对应的功能页面。
若与目标图形对应的功能场景不支持展示立体3D虚拟对象,则终端可根据识别结果中的结果事件参数直接跳转到与目标图形对应的功能页面,并进行相应的功能操作。例如,识别结果包括结果事件类型为网页链接,是否支持展示立体3D虚拟对象参数为false,结果事件参数为网页的URL地址,说明与目标图形对应的访问网页场景不支持展示立体3D虚拟对象,则终端可直接根据网页的URL地址进行跳转。
在本实施例中,可根据识别结果判断与目标图形对应的功能场景是否支持展示立体3D虚拟对象,将增强现实的信息展示与具体的功能场景结合,更具有个性化。
如图7所示,在一个实施例中,在步骤S330获取与识别结果匹配的预先定义的3D虚拟模型数据之前,还包括以下步骤:
步骤S702,判断终端是否启用立体3D虚拟对象展示功能,若是,则执行步骤S706,若否,则执行步骤S704。
在一个实施例中,用户可选择开启或关闭终端上的立体3D虚拟对象展示功能,也即,用户可设置终端是否对立体3D虚拟对象进行屏蔽。当终端识别现场场景中包含的目标图形,并获得识别结果后,可判断终端是否启用立体3D虚拟对象展示功能,若不启用,则可根据识别结果中的结果事件参数直接跳转到与目标图形对应的功能页面,并进行相应的功能操作。
步骤S704,根据识别结果跳转至与目标图形对应的功能页面。
步骤S706,根据识别结果判断与目标图形关联的目标对象是否启用立体3D 虚拟对象展示功能,若是,则执行步骤S708,若否,则执行步骤S704。
若终端启用立体3D虚拟对象展示功能,则终端可根据识别结果中的结果事件参数,进一步判断与目标图形关联的目标对象是否启用立体3D虚拟对象展示功能,其中,目标对象为终端通过目标图形可进行访问的对象,目标对象可以是网站、用户资料、支付账单等,目标对象通常具备唯一的标识,例如网站的 URL地址、用户的账号、支付账单号等。终端可根据结果事件参数获取目标对象的标识,并根据该标识判断目标对象是否启用立体3D虚拟对象展示功能,例如,A网站选择启用立体3D虚拟对象展示功能,B网站选择不启用立体3D虚拟对象展示功能,X用户选择启示立体3D虚拟对象展示功能,Y用户选择不启用立体3D虚拟对象展示功能等。不同的用户或商家可自行设置是否启用立体 3D虚拟对象展示功能,从而可选择是否让他人可以看到自身的立体3D虚拟对象。
若与目标图形关联的目标对象没有启用立体3D虚拟对象展示功能,则终端可根据识别结果中的结果事件参数直接跳转到与目标图形对应的功能页面,并进行相应的功能操作。
步骤S708,获取与识别结果匹配的预先定义的3D虚拟模型数据。
若终端及与目标图形关联的目标对象均启用立体3D虚拟对象展示功能,则终端可获取与识别结果匹配的预先定义的3D虚拟模型数据,并绘制立体3D虚拟对象,与现实场景画面进行增强现实处理后,进行展示。
在一个实施例中,终端可先根据识别结果判断与目标图形对应的功能场景是否支持展示立体3D虚拟对象,若支持,再判断终端及与目标图形关联的目标对象是否启用立体3D虚拟对象展示功能,从而确定是否获取与识别结果匹配的预先定义的3D虚拟模型数据绘制立体3D虚拟对象。
在本实施例中,用户可选择设置终端是否对他人的立体3D虚拟对象进行屏蔽,也可选择是否让他人可以看到自身的立体3D虚拟对象,使得识别目标图形展示信息更具备个性化,更为方便。
如图8所示,在一个实施例中,在步骤S320识别现实场景画面中包含的目标图形,并获取识别结果之后,还包括以下步骤:
步骤S802,判断本地是否存储有与识别结果匹配的预先定义的3D虚拟模型数据,若是,则执行步骤S814,若否,则执行步骤S804。
终端获取识别结果后,可根据识别结果判断本地是否存储有与识别结果匹配的预先定义的3D虚拟模型数据。3D虚拟模型数据可由不同的用户或商家预先根据需求进行设定,并与识别结果中的结果事件类型或结果事件参数中的唯一标识进行匹配,从而可针对不同的识别结果展示不同的立体3D虚拟对象。例如,自定义的3D个人形象与结果事件参数中的用户账号进行匹配,自定义的3D动画与结果事件类型为支付进行匹配等。
步骤S804,获取预先定义的默认3D虚拟模型数据。
在一个实施例中,终端本地没有存储与识别结果匹配的预先定义的3D虚拟模型数据,可先获取预先定义的默认3D虚拟模型数据,其中,默认3D虚拟模型一般不具备个性化,是统一设定的数据。进一步地,终端可预先存储定义的默认3D虚拟模型数据,也可向服务器请求获取默认3D虚拟模型数据。默认3D 虚拟模型数据可不与识别结果具备对应关系,所有的识别结果均对应统一的默认3D虚拟模型,也可与结果事件类型具备对应关系,不同的结果事件类型对应不同的默认3D虚拟模型数据。
步骤S806,根据默认3D虚拟模型数据绘制默认立体3D虚拟对象。
终端获取预先定义的默认3D虚拟模型数据后,可将默认3D虚拟模型数据传入图形处理器,并通过图形接口调用底层图形库对默认3D虚拟模型数据进行处理,根据默认3D虚拟模型数据中的顶点信息绘制默认立体3D虚拟对象。
步骤S808,对默认立体3D虚拟对象及现实场景画面进行增强现实处理,将默认立体3D虚拟对象与现实场景画面融合,并进行展示。
终端可对绘制的默认立体3D虚拟对象与通过摄像头实时采集到的现实场景画面进行增强现实处理,将默认立体3D虚拟对象与现实场景画面融合,并进行展示。不同的识别结果可统一展示相同的默认立体3D虚拟对象,也可根据不同的结果事件类型展示不同的默认立体3D虚拟对象,例如,结果事件类型为用户资料卡,对应的默认立体3D虚拟对象为默认3D人物形象,不同的用户账号均展示统一的默认3D人物形象等。
步骤S810,从服务器获取与识别结果匹配的预先定义的3D虚拟模型数据。
步骤S812,根据3D虚拟模型数据绘制立体3D虚拟对象,将展示的默认立体3D虚拟对象更新为立体3D虚拟对象,并对3D虚拟模型数据进行存储。
终端展示默认立体3D虚拟对象的同时,可从服务器获取与识别结果匹配的预先定义的3D虚拟模型数据,并根据获取的3D虚拟模型数据绘制立体3D虚拟对象,从而将原本展示的默认立体3D虚拟对象更新为新绘制的立体3D虚拟对象进行展示。终端可将从服务器获取的与识别结果匹配的预先定义的3D虚拟模型数据缓存在本地,方便下一次展示时直接从本地获取,加快展示速度。
步骤S814,获取本地存储的与识别结果匹配的预先定义的3D虚拟模型数据。
在一个实施例中,终端本地存储有与识别结果匹配的预先定义的3D虚拟模型数据,则可直接获取该3D虚拟模型数据,并根据该3D虚拟模型数据绘制缓存立体3D虚拟对象。
步骤S816,根据本地存储的3D虚拟模型数据绘制缓存立体3D虚拟对象。
步骤S818,对缓存立体3D虚拟对象及现实场景画面进行增强现实处理,将缓存立体3D虚拟对现实场景画面融合,并进行展示。
终端可对绘制的缓存立体3D虚拟对象与通过摄像头实时采集到的现实场景画面进行增强现实处理,将缓存立体3D虚拟对象与现实场景画面融合,并进行展示。
步骤S820,向服务器发送更新检测请求。
终端可根据识别结果向服务器发送更新检测请求,服务器接收到更新检测请求后,可根据识别结果中的结果事件类型及结果事件参数检测匹配的3D虚拟模型数据是否发生更新。用户及商家可随时对自身的立体3D虚拟对象进行修改设定,例如,用户修改用户账号对应的3D个人形象,商家修改网页的URL地址对应的3D动画等,若进行修改,则服务器保存有最新的修改后的3D虚拟模型数据,并记录有修改时间。
在一个实施例中,服务器可获取终端缓存的3D虚拟模型数据,并与服务器存储的最新的3D虚拟模型数据进行比较,检测是否发生更新。服务器也可获取终端缓存3D虚拟模型数据的缓存时间,并根据记录的修改时间检测从该缓存时间至接收到更新检测请求之间,3D虚拟模型数据是否发生修改,从而判断是否发生更新。
步骤S822,若服务器根据更新检测请求检测到与识别结果匹配的预先定义的3D虚拟模型数据发生更新,则从服务器获取更新后的3D虚拟模型数据。
步骤S824,根据更新后的3D虚拟模型数据绘制立体3D虚拟对象,将展示的缓存立体3D虚拟对象更新为立体3D虚拟对象,并对更新后的3D虚拟模型数据进行存储。
若与识别结果匹配的预先定义的3D虚拟模型数据发生更新,则终端可从服务器获取更新后的3D虚拟模型数据,并根据该更新后的3D虚拟模型数据重新绘制立体3D虚拟对象,将原本展示的缓存立体3D虚拟对象更新为立体3D虚拟对象进行展示、终端可同时将更新后的3D虚拟模型数据缓存在本地,方便实时展示最新的个性化立体3D虚拟对象。
在本实施例中,当本地没有存储与识别结果匹配的预先定义的3D虚拟模型数据,可先展示默认立体3D虚拟对象,防止在从服务器获取匹配的3D虚拟模型数据过程时间较长时,出现终端无响应或卡顿的假相。此外,终端可展示最新的立体3D虚拟对象,可以在识别到目标图形时展示大量信息,有效提高用户粘度。
在一个实施例中,步骤S340根据3D虚拟模型数据绘制立体3D虚拟对象,包括:创建第一图层,并在第一图层上根据3D虚拟模型数据绘制立体3D虚拟对象。
步骤S350对立体3D虚拟对象及现实场景画面进行增强现实处理,将立体 3D虚拟对象与现实场景画面融合,并进行展示,包括:
(a)创建第二图层,将现实场景画面投影绘制到第二图层。
(b)将第一图层与第二图层进行叠加,并进行展示。
终端在获取3D虚拟模型数据后,可在创建第一图层,并根据3D虚拟模型数据在第一图层上绘制立体3D虚拟对象。同时创建第二图层,将通过摄像头实时采集的现实场景画面投影绘制到第二图层。进一步地,终端通过摄像头捕捉现实世界的视频流,并对现实世界的视频流中的图像帧进行监控,并根据跟踪注册算法捕捉采集的现实场景画面中的特征点。根据捕捉到的特征点检测出特征点所在的平面,在该平面上建立三维世界坐标系,并将该三维世界坐标系转化为终端的屏幕坐标系。终端在第一图层绘制立体3D虚拟对象时,可将3D虚拟模型数据中的顶点坐标从模型坐标系转化为三维世界坐标系,最后转化为屏幕坐标系,再将第一图层与第二图层进行叠加,从而可将现实世界场景与绘制的立体3D虚拟对象进行融合展示。
可以理解地,终端绘制默认立体3D虚拟对象及缓存立体3D虚拟对象等,并进行增强现实处理,均可采用本实施例中所述的方式进行处理。
在本实施例中,当扫描识别到目标图形时,通过增强现实展示对应的立体 3D虚拟对象,可以在识别到目标图形时展示大量信息,有效提高用户粘度。
如图9所示,在一个实施例中,步骤S340根据3D虚拟模型数据绘制立体 3D虚拟对象,包括以下步骤:
步骤S902,加载3D虚拟模型数据,得到立体3D虚拟对象的顶点信息。
终端获取3D虚拟模型数据,可将3D虚拟模型数据传入图形处理器,并通过OpenGL(Open Graphics Library,开放图形库)、DirectX(Direct eXtension) 等提供的图形接口调用底层图形库对3D虚拟模型数据进行处理。终端的图形处理器可对3D虚拟数据进行加载,得到立体3D虚拟对象的顶点信息,其中,顶点信息可包括顶点坐标、向量、颜色及纹理等,立体3D虚拟对象可由顶点,以及由顶点组成的线、多边形等图形进行描述,通常,顶点越多,描述越精细,越接近真实的3D模型。
步骤S904,对顶点信息进行处理,将立体3D虚拟对象的顶点组装得到几何图元,绘制立体3D虚拟对象的网格。
终端的图形处理器可先对顶点信息进行顶点着色处理,将各个顶点的顶点坐标从模型坐标转化为标准设备坐标(Normalized Device Coordinate,NDC),也即,将各个顶点的顶点坐标x,y,z按比例分别投射到区间[-1,1]中。顶点信息进行顶点着色处理后,可调用绘图命令,将各个顶点组装成几何图元,从而绘制立体3D虚拟对象的网格,其中,几何图元可包括点、线及多边形,两个顶点可组成一条线,三个顶点可组成一个三角形等。可根据着色处理后的顶点坐标、向量等组装几何图元,从而绘制立体3D虚拟对象的网格。
进一步地,在将立体3D虚拟对象的顶点组装成几何图元的过程中,可对组装的几何图元进行裁剪,只保留可视空间范围内的几何图元,将不在显示范围内的几何图元都丢弃。
步骤S906,对网格进行光栅化处理,将网格中的几何图元换成对应的二维的片元。
终端可对立体3D虚拟对象的网格进行光栅化处理,将网格中的几何图元换成对应的二维的片元,将三维标准设备坐标的几何图元映射成二维的屏幕坐标的片元。同时,会根据顶点信息,通过插值算法计算生成相应的片元信息,其中,片元信息包括片元的位置信息、颜色、纹理等。
步骤S908,逐一对片元进行着色处理,并将每个片元的信息转化为屏幕上的像素值,再写入预先创建的帧缓冲中进行渲染。
根据光栅化得到的片元信息,可逐一对片元进行着色处理,将每个片元的位置信息、颜色、纹理等转化为对应屏幕坐标上的像素值,并写入预先创建的帧缓冲中进行渲染。帧缓冲是屏幕所显示画面的一个直接映象,帧缓冲的每一存储单元对应屏幕上的一个像素,整个帧缓存对应一帧图像。通过将片元信息转化为像素值,再写入帧缓冲中,即可将绘制的立体3D虚拟对象显示在终端的屏幕上。
在本实施例中,可通过3D虚拟模型数据绘制立体3D虚拟对象,当扫描识别到目标图形时,通过增强现实展示对应的立体3D虚拟对象,可以在识别到目标图形时展示大量信息,有效提高用户粘度。
在一个实施例中,在步骤S350对立体3D虚拟对象及现实场景画面进行增强现实处理,将立体3D虚拟对象与现实场景画面融合,并进行展示之后,还包括根据3D虚拟模型数据展示预先定义的立体3D虚拟对象与识别结果对应的动作动画;和/或根据3D虚拟模型数据播放预先定义的与识别结果对应的语音数据。
在一个实施例中,终端展示融合后的立体3D虚拟对象与现实场景画面后,可使立体3D虚拟对象展示预先定义的与识别结果对应的动作动画,与用户进行互动。用户或商家可预先设定不同的场景下,3D虚拟对象展示的动作动画。根据识别结果中的结果事件类型,终端展示立体3D虚拟对象执行对应的动作动画。例如,终端扫描用户资料卡二维码,展示预先定义的与对应用户账号匹配的3D人物形象,并展示该3D人物形象挥手打招呼的动作动画;终端扫描“福”字,展示对应的3D卡通形象抱拳弯腰拜年的动作动画等,并不限于此。
在一个实施例中,终端使立体3D虚拟对象展示预先定义的与识别结果对应的动作动画的同时,可播放对应的语音数据,例如终端扫描用户资料卡二维码,展示相应的3D人物形象挥手打招呼的动作动画,同时播放“你好”的语音数据;终端扫描“福”字,展示对应的3D卡通形象抱拳弯腰拜年的动作动画,同时播放“新年好”的语音数据等。
在一个实施例中,终端可采集用户的语音信息,并根据采集的语音信息展示预先定义的立体3D虚拟对象与该语音信息对应的动作动画。例如,终端扫描用户资料卡二维码,展示预先定义的与对应用户账号匹配的3D人物形象,当终端采集到用户说出的“你好”的语音信息时,可展示该3D人物形象挥手打招呼的动作动画,但并不限于此。用户可通过语音与展示的立体3D虚拟对象进行互动。
在本实施例中,可展示预先定义的立体3D虚拟对象与识别结果对应的动作动画,并播放对应的语音数据,可增强用户与立体3D虚拟对象的互动感。同时可对立体3D虚拟对象的动作动画进行设定,个性化强,可以在识别到目标图形时展示大量信息,有效提高用户粘度。
如图10所示,在一个实施例中,上述信息展示方法,还包括以下步骤:
步骤S1002,接收触发操作。
步骤S1004,根据触发操作确定触发事件类型。
终端可接收用户对屏幕进行的触发操作,该触发操作可包括单点触发操作及双点触发操作,其中,单点触发操作指的是只有一个手指在屏幕上进行触控,双点触发操作指的是有两个手指在屏幕上进行触控。可预先建立触发操作集,并在触发操作集中设定不同的触发操作对应的触发操作类型,例如,单指向屏幕左方划动,对应的触发操作类型为向屏幕左边旋转,单指向屏幕右方划动,对应的触发操作类型为向屏幕右边旋转,双指延相反方向相向划动,对应的触发操作类型为缩小,双指延相反方向相背划动,对应的触发操作类型为放大等,并不限于此。
步骤S1006,根据触发事件类型对立体3D虚拟对象进行对应的变换展示。
终端可根据确定的触发事件类型,变换展示立体3D虚拟对象,可包括旋转变换、缩放变换及平移变换等。在一个实施例中,当触发操作类型为旋转时,根据接收的在屏幕上的触发操作确定旋转角度及旋转方向等,并根据该旋转角度及旋转方向等对立体3D虚拟对象进行旋转变换。当触发操作类型为缩小或放大时,确定缩放的比例因子,并根据该比例因子对立体3D虚拟对象进行缩放变换。
在一个实施例中,当终端对绘制的立体3D虚拟对象及现实场景画面进行增强现实处理,将立体3D虚拟对象与实时采集的现实场景画面融合,并进行展示时,可记录展示时终端的LBS(Location Based Service,基于移动位置服务)、左右倾角、俯仰倾角等信息,当通过终端的方向传感器等检测到终端的左右倾角、俯仰倾角等发生改变时,根据终端改变的角度对立体3D虚拟对象进行对应的变换展示。比如,终端原本是被竖直拿到用户手中,当用户将终端向左移动时,则终端的方向传感器可检测到终端的左右倾角发生变化,并根据改变的角度将立体3D虚拟对象向屏幕右方进行旋转变换,但并不于限此。
在一个实施例中,终端可在屏幕上展示与识别结果对应的功能按钮,当接收到用户在屏幕上触发功能按钮时,根据触发的功能按钮直接跳转至对应的功能页面,终端在展示完立体3D虚拟对象后,依然可以执行与目标图形对应的功能操作。例如,终端扫描用户资料卡二维码,在展示与该用户资料卡二维码对应的立体3D人物形象时,也在屏幕上展示“资料详情”等按钮,当用户点击该“资料详情”按钮时,终端直接跳转至资料卡详情页面,方便对资料卡进行查看,并进行添加好友等操作。
在本实施例中,可对立体3D虚拟对象进行变换展示,可增强用户与立体 3D虚拟对象的互动感,可以在识别到目标图形时展示大量信息,有效提高用户粘度。
如图11所示,在一个实施例中,上述信息展示方法,还包括以下步骤:
步骤S1102,接收立体3D虚拟对象的配置操作。
用户或商家可对在他人终端上展示的立体3D虚拟对象进行个性化配置,包括自定义立体3D虚拟对象的组成部位的展示内容,例如,立体3D人物形象的头部、四肢、服饰、配饰等,也可以包括立体3D虚拟对象的动作展示内容,例如展示时进行挥手打招呼的动作,或是展示时进行抱拳弯腰的动作等。
步骤S1104,根据配置操作获取自定义的立体3D虚拟对象的组成部位及动作的展示内容。
终端接收用户在屏幕上对立体3D虚拟对象的配置操作,并根据该配置操作获取自定义的立体3D虚拟对象的组成部位及动作等的展示内容。进一步地,不同的展示内容可设定不同的权限,当终端获取自定义的立体3D虚拟对象的展示内容后,可获取用户的账户权限,并根据账户权限判断用户是否具备使用该展示内容的权限,若不具备,可在屏幕界面上显示权限不够等信息进行提示。
例如,用户在屏幕上选择了立体3D虚拟对象的发型,该发型对应的权限为一级权限,用户的账户权限为二级权限,二级权限小于一级权限,该用户无法为立体3D虚拟对象选择该发型进行展示,则可在屏幕界面上提示权限不足。进一步地,用户可通过付费的方式升级账户权限,当终端在屏幕上提示权限不足时,可同时展示升级账户权限按钮,当屏幕接收到用户触发该升级账户权限按钮时,可跳转至相应的升级页面,进行付费及权限升级操作。
步骤S1106,根据组成部位及动作的展示内容构造立体3D虚拟对象,并对立体3D虚拟对象进行预览展示。
终端获取用户自定义的立体3D虚拟对象的展示内容的,可在界面上对包含有该展示内容的立体3D虚拟对象进行预览展示,使用户可实时查看配置的立体 3D虚拟对象的效果。进一步地,用户可通过单指划动等方式旋转展示的立体3D 虚拟对象,对立体3D虚拟对象进行全方位查看。
步骤S1108,根据组成部位及动作的展示内容生成3D虚拟模型数据,并将 3D虚拟模型数据上传至服务器。
终端可根据用户自定义的立体3D虚拟对象的组成部位及动作的展示内容,生成与该立体3D虚拟对象对应的3D虚拟模型数据,并将3D虚拟模型数据上传至服务器。当其它终端扫描该用户的目标图形,例如二维码时,即可从服务器获取最新配置的3D虚拟模型数据,从而展示最新配置的立体3D虚拟对象。
在本实施例中,用户可对立体3D虚拟对象的组成部位及动作等的展示内容进行个性化配置,可以在识别到目标图形时展示大量信息,有效提高用户粘度。
如图12所示,在一个实施例中,提供一种信息展示方法,包括以下步骤:
步骤S1202,采集现实场景画面。
步骤S1204,识别现实场景画面中包含的目标图形,并获取识别结果。
步骤S1206,判断与目标图形对应的功能场景是否支持展示立体3D虚拟对象,若是,则执行步骤S1208,若否,则执行步骤S1212。
步骤S1208,判断终端是否启用立体3D虚拟对象展示功能,若是,则执行步骤S1210,若否,则执行步骤S1212。
步骤S1210,判断与目标图形关联的目标对象是否启用立体3D虚拟对象展示功能,若是,则执行步骤S1214,若否,则执行步骤S1212。
步骤S1212,根据识别结果跳转至与目标图形对应的功能页面。
步骤S1214,判断本地是否存储有与识别结果匹配的预先定义的3D虚拟模型数据,若是,则执行步骤S1222,若否,则执行步骤S1216。
步骤S1216,展示融合后的默认立体3D虚拟对象与现实场景画面。
若终端本地没有存储与识别结果匹配的预先定义的3D虚拟模型数据,则获取预先定义的默认3D虚拟模型数据,根据默认3D虚拟模型数据绘制默认立体 3D虚拟对象,并对默认立体3D虚拟对象及实时采集的现实场景画面进行增强现实处理,将默认立体3D虚拟对象与现实场景画面融合展示。
步骤S1218,从服务器获取与识别结果匹配的预先定义的3D虚拟模型数据。
步骤S1220,将展示的默认立体3D虚拟对象更新为新绘制的立体3D虚拟对象。
步骤S1222,展示整合后的缓存立体3D虚拟对象与现实场景画面。
若终端本地存储有与识别结果匹配的预先定义的3D虚拟模型数据,则获取本地存储的与识别结果匹配的预先定义的3D虚拟模型数据,根据本地存储的 3D虚拟模型数据绘制缓存立体3D虚拟对象,并对缓存立体3D虚拟对象及现实场景画面进行增强现实处理,将缓存立体3D虚拟对象与现实场景画面融合展示。
步骤S1224,检测与识别结果匹配的预先定义的3D虚拟模型数据是否发生更新,若是,则执行步骤S1226,若否,则执行步骤S1230。
步骤S1226,从服务器获取更新后的3D虚拟模型数据。
步骤S1228,将展示的缓存立体3D虚拟对象更新为新绘制的立体3D虚拟对象。
步骤S1230,接收触发操作。
步骤S1232,根据触发操作确定触发事件类型。
步骤S1234,根据触发事件类型对立体3D虚拟对象进行对应的变换展示。
在本实施例中,采集现实场景画面,识别现实场景画面中包含的目标图形,并获取识别结果,获取与该识别结果匹配的预先定义的3D虚拟模型数据,并根据3D虚拟模型数据绘制立体3D虚拟对象,对立体3D虚拟对象及现实场景画面进行增强现实处理,将立体3D虚拟对象与所述现实场景画面融合,并进行展示,当扫描识别到目标图形时,通过增强现实展示对应的立体3D虚拟对象,可以在识别到目标图形时展示大量信息,有效提高用户粘度。
如图13所示,在一个实施例中,提供一种信息展示装置1300,信息展示装置1300包括采集模块1310、识别模块1320、模型数据获取模块1330、绘制模块1340及展示模块1350。
采集模块1310,用于采集现实场景画面。
识别模块1320,用于识别现实场景画面中包含的目标图形,并获取识别结果。
模型数据获取模块1330,用于获取与识别结果匹配的预先定义的3D虚拟模型数据。
绘制模块1340,用于根据3D虚拟模型数据绘制立体3D虚拟对象。
展示模块1350,用于对立体3D虚拟对象及现实场景画面进行增强现实处理,将立体3D虚拟对象与现实场景画面融合,并进行展示。
上述信息展示装置,采集现实场景画面,识别现实场景画面中包含的目标图形,并获取识别结果,获取与该识别结果匹配的预先定义的3D虚拟模型数据,并根据3D虚拟模型数据绘制立体3D虚拟对象,对立体3D虚拟对象及现实场景画面进行增强现实处理,将立体3D虚拟对象与所述现实场景画面融合,并进行展示,当扫描识别到目标图形时,通过增强现实展示对应的立体3D虚拟对象,可以在识别到目标图形时展示大量信息,有效提高用户粘度。
如图14所示,在一个实施例中,识别模块1320,包括抽取单元1322、识别单元1324及处理单元1326。
抽取单元1322,用于抽取目标图形包含的关键特征。
识别单元1324,用于根据关键特征识别目标图形包含的内容信息。
处理单元1326,用于根据预先配置的限制条件对内容信息进行处理,得到识别结果。
在本实施例中,可对目标图形进行识别,并通过预先配置的限制条件对内容信息进行处理,得到识别结果,可对非法或不具备权限的识别内容进行过滤,加强安全性。
如图15所示,在一个实施例中,上述信息展示装置1300,除了包括采集模块1310、识别模块1320、模型数据获取模块1330、绘制模块1340及展示模块 1350,还包括展示判断模块1360及跳转模块1370。
展示判断模块1360,用于根据识别结果判断与目标图形对应的功能场景是否支持展示立体3D虚拟对象。
模型数据获取模块1330,还用于若与目标图形对应的功能场景支持展示立体3D虚拟对象,则获取与识别结果匹配的预先定义的3D虚拟模型数据。
跳转模块1370,用于若与目标图形对应的功能场景不支持展示立体3D虚拟对象,则根据识别结果跳转至与目标图形对应的功能页面。
在本实施例中,可根据识别结果判断与目标图形对应的功能场景是否支持展示立体3D虚拟对象,将增强现实的信息展示与具体的功能场景结合,更具有个性化。
在一个实施例中,展示判断模块1360,还用于判断终端是否启用立体3D 虚拟对象展示功能。
展示判断模块1360,还用于若终端启用立体3D虚拟对象展示功能,则根据识别结果判断与目标图形关联的目标对象是否启用立体3D虚拟对象展示功能。
模型数据获取模块1330,还用于若目标对象启用立体3D虚拟对象展示功能,则获取与识别结果匹配的预先定义的3D虚拟模型数据。
跳转模块1370,还用于若终端或目标对象不启用立体3D虚拟对象展示功能,则根据识别结果跳转至与目标图形对应的功能页面。
在本实施例中,用户可选择设置终端是否对他人的立体3D虚拟对象进行屏蔽,也可选择是否让他人可以看到自身的立体3D虚拟对象,使得识别目标图形展示信息更具备个性化,更为方便。
如图16所示,在一个实施例中,上述信息展示装置1300,除了包括采集模块1310、识别模块1320、模型数据获取模块1330、绘制模块1340、展示模块 1350、展示判断模块1360及跳转模块1370,还包括存储判断模块1380及发送模块1390。
存储判断模块1380,用于判断本地是否存储有与识别结果匹配的预先定义的3D虚拟模型数据。
模型数据获取模块1330,还用于若没有存储,则获取预先定义的默认3D 虚拟模型数据。
绘制模块1340,还用于根据默认3D虚拟模型数据绘制默认立体3D虚拟对象。
展示模块1350,还用于对默认立体3D虚拟对象及现实场景画面进行增强现实处理,将默认立体3D虚拟对象与现实场景画面融合,并进行展示。
模型数据获取模块1330,还用于从服务器获取与识别结果匹配的预先定义的3D虚拟模型数据。
展示模块1350,还用于根据3D虚拟模型数据绘制立体3D虚拟对象,将展示的默认立体3D虚拟对象更新为立体3D虚拟对象,并对3D虚拟模型数据进行存储。
模型数据获取模块1330,还用于若本地存储有与识别结果匹配的预先定义的3D虚拟模型数据,则获取本地存储的与识别结果匹配的预先定义的3D虚拟模型数据。
绘制模块1340,还用于根据本地存储的3D虚拟模型数据绘制缓存立体3D 虚拟对象。
展示模块1350,还用于对缓存立体3D虚拟对象及现实场景画面进行增强现实处理,将缓存立体3D虚拟对象与现实场景画面融合,并进行展示。
发送模块1390,用于向服务器发送更新检测请求。
模型数据获取模块1330,还用于若服务器根据更新检测请求检测到与识别结果匹配的预先定义的3D虚拟模型数据发生更新,则从服务器获取更新后的 3D虚拟模型数据。
展示模块1350,还用于根据更新后的3D虚拟模型数据绘制立体3D虚拟对象,将展示的缓存立体3D虚拟对象更新为立体3D虚拟对象,并对更新后的3D 虚拟模型数据进行存储。
在本实施例中,当本地没有存储与识别结果匹配的预先定义的3D虚拟模型数据,可先展示默认立体3D虚拟对象,防止在从服务器获取匹配的3D虚拟模型数据过程时间较长时,出现终端无响应或卡顿的假相。此外,终端可展示最新的立体3D虚拟对象,可以在识别到目标图形时展示大量信息,有效提高用户粘度。
在一个实施例中,绘制模块1340,还用于创建第一图层,并在第一图层上根据3D虚拟模型数据绘制立体3D虚拟对象。
如图17所示,在一个实施例中,展示模块1350包括创建单元1352及叠加单元1354。
创建单元1352,用于创建第二图层,将现实场景画面投影绘制到第二图层。
叠加单元1354,用于将第一图层与第二图层进行叠加,并进行展示。
在本实施例中,当扫描识别到目标图形时,通过增强现实展示对应的立体 3D虚拟对象,可以在识别到目标图形时展示大量信息,有效提高用户粘度。
如图18所示,在一个实施例中,绘制模块1340包括加载单元1342、组装单元1344、转换单元1346及片元处理单元1348。
加载单元1342,用于加载3D虚拟模型数据,得到立体3D虚拟对象的顶点信息。
组装单元1344,用于对顶点信息进行处理,将立体3D虚拟对象的顶点组装得到几何图元,绘制立体3D虚拟对象的网格。
转换单元1346,用于对网格进行光栅化处理,将网格中的几何图元转换成对应的二维的片元。
片元处理单元1348,用于逐一对片元进行着色处理,并将每个片元的信息转化为屏幕上的像素值,再写入预先创建的帧缓冲中进行渲染。
在本实施例中,可通过3D虚拟模型数据绘制立体3D虚拟对象,当扫描识别到目标图形时,通过增强现实展示对应的立体3D虚拟对象,可以在识别到目标图形时展示大量信息,有效提高用户粘度。
如图19所示,在一个实施例中,上述信息展示装置1300,除了包括采集模块1310、识别模块1320、模型数据获取模块1330、绘制模块1340、展示模块 1350、展示判断模块1360、跳转模块1370、存储判断模块1380及发送模块1390,还包括播放模块1400。
展示模块1350,还用于根据3D虚拟模型数据展示预先定义的立体3D虚拟对象与所述识别结果对应的动作动画。
播放模块1400,用于根据3D虚拟模型数据播放预先定义的与识别结果对应的语音数据。
在本实施例中,可展示预先定义的立体3D虚拟对象与识别结果对应的动作动画,并播放对应的语音数据,可增强用户与立体3D虚拟对象的互动感。同时可对立体3D虚拟对象的动作动画进行设定,个性化强,可以在识别到目标图形时展示大量信息,有效提高用户粘度。
如图20所示,在一个实施例中,上述信息展示装置1300,除了包括采集模块1310、识别模块1320、模型数据获取模块1330、绘制模块1340、展示模块 1350、展示判断模块1360、跳转模块1370、存储判断模块1380、发送模块1390,及播放模块1400,还包括触发操作接收模块1410及确定模块1420。
触发操作接收模块1410,用于接收触发操作。
确定模块1420,用于根据触发操作确定触发事件类型。
展示模块1350,还用于根据触发事件类型对立体3D虚拟对象进行对应的变换展示。
在本实施例中,可对立体3D虚拟对象进行变换展示,可增强用户与立体 3D虚拟对象的互动感,可以在识别到目标图形时展示大量信息,有效提高用户粘度。
在一个实施例中,上述信息展示装置,还包括配置模块、展示内容获取模块、预览模块及生成模块。
配置模块,用于接收立体3D虚拟对象的配置操作。
展示内容获取模块,用于根据配置操作获取自定义的立体3D虚拟对象的组成部位及动作的展示内容。
预览模块,用于根据组成部位及动作的展示内容构造立体3D虚拟对象,并对立体3D虚拟对象进行预览展示。
生成模块,用于根据组成部位及动作的展示内容生成3D虚拟模型数据,并将3D虚拟模型数据上传至服务器。
在本实施例中,用户可对立体3D虚拟对象的组成部位及动作等的展示内容进行个性化配置,可以在识别到目标图形时展示大量信息,有效提高用户粘度。
一种终端,包括存储器和处理器,所述存储器中储存有计算机可执行指令,所述计算机可执行指令被所述处理器执行时,使得所述处理器执行实现上述信息展示方法。
一个或多个存储有计算机可执行指令的非易失性可读存储介质,所述计算机可执行指令被一个或多个处理器执行时,使得所述一个或多个处理器执行实现上述信息展示方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (17)

1.一种信息展示方法,其特征在于,所述方法包括:
采集现实场景画面;
抽取所述现实场景画面中目标图形包含的关键特征;所述关键特征包括数据信息、形状特征、空间特征和边缘特征中的至少一种;
根据所述关键特征识别所述目标图形包含的内容信息;
根据预先配置的对所述内容信息进行相应处理的权限限制条件,对所述内容信息进行处理,得到识别结果;所述目标图形包括二维码、字符和产品图标中的至少一种;所述识别结果包括结果事件类型和结果事件参数;
在所述结果事件类型包括用户资料卡时,所述结果事件参数为用户账号;在所述结果事件类型包括支付事件时,所述结果事件参数为支付账单号;在所述结果事件类型包括网页链接时,所述结果事件参数为网页地址;在所述结果事件类型包括产品图标对应的官方网站时,所述结果事件参数为官方网站地址;
在确定终端启用立体3D虚拟对象展示功能、且与所述目标图形关联的目标对象启用立体3D虚拟对象展示功能时,获取与所述识别结果匹配的预先定义的3D虚拟模型数据;所述3D虚拟模型数据与所述结果事件类型匹配或与所述结果事件参数匹配;
根据所述3D虚拟模型数据绘制立体3D虚拟对象;
对所述立体3D虚拟对象及所述现实场景画面进行增强现实处理,将所述立体3D虚拟对象与所述现实场景画面融合,并进行展示;并在展示结束时,跳转与所述目标图形对应的功能界面;
当所述终端未启用立体3D虚拟对象展示功能、或与所述目标图形关联的目标对象未启用立体3D虚拟对象展示功能时,根据所述识别结果跳转至与所述目标图形对应的功能界面。
2.根据权利要求1所述的方法,其特征在于,所述数据信息为所述目标图形包含的字符数据;所述形状特征为所述目标图形中的局部形状;所述空间特征为所述目标图形中分割的多个对象区域之间的相互的空间位置或相对方向关系;所述边缘特征为所述目标图形中组成两个区域之间的边界像素。
3.根据权利要求1所述的方法,其特征在于,在所述识别所述现实场景画面中包含的目标图形,并获取识别结果之后,所述方法还包括:
判断本地是否存储有与所述识别结果匹配的预先定义的3D虚拟模型数据;
若没有存储,则获取预先定义的默认3D虚拟模型数据;
根据所述默认3D虚拟模型数据绘制默认立体3D虚拟对象;
对所述默认立体3D虚拟对象及所述现实场景画面进行增强现实处理,将所述默认立体3D虚拟对象与所述现实场景画面融合,并进行展示。
4.根据权利要求3所述的方法,其特征在于,在所述判断本地是否存储有与所述识别结果匹配的预先定义的3D虚拟模型数据之后,所述方法还包括:
若有存储,则获取本地存储的与所述识别结果匹配的预先定义的3D虚拟模型数据;
根据本地存储的3D虚拟模型数据绘制缓存立体3D虚拟对象;
对所述缓存立体3D虚拟对象及所述现实场景画面进行增强现实处理,将所述缓存立体3D虚拟对象与所述现实场景画面融合,并进行展示。
5.根据权利要求4所述的方法,其特征在于,在所述对所述缓存立体3D虚拟对象及所述现实场景画面进行增强现实处理,将所述缓存立体3D虚拟对象与所述现实场景画面融合,并进行展示之后,所述方法还包括:
向服务器发送更新检测请求;
若服务器根据所述更新检测请求检测到与所述识别结果匹配的预先定义的3D虚拟模型数据发生更新,则从所述服务器获取更新后的3D虚拟模型数据;
根据所述更新后的3D虚拟模型数据绘制立体3D虚拟对象,将展示的所述缓存立体3D虚拟对象更新为所述立体3D虚拟对象,并对所述更新后的3D虚拟模型数据进行存储。
6.根据权利要求1所述的方法,其特征在于,所述根据所述3D虚拟模型数据绘制立体3D虚拟对象,包括:
创建第一图层,并在所述第一图层上根据3D虚拟模型数据绘制立体3D虚拟对象;
所述对所述立体3D虚拟对象及所述现实场景画面进行增强现实处理,将所述立体3D虚拟对象与所述现实场景画面融合,并进行展示,包括:
创建第二图层,将所述现实场景画面投影绘制到所述第二图层;
将所述第一图层与所述第二图层进行叠加,并进行展示。
7.根据权利要求1至6任一所述的方法,其特征在于,所述根据所述3D虚拟模型数据绘制立体3D虚拟对象,包括:
加载所述3D虚拟模型数据,得到立体3D虚拟对象的顶点信息;
对所述顶点信息进行处理,将所述立体3D虚拟对象的顶点组装得到几何图元,绘制所述立体3D虚拟对象的网格;
对所述网格进行光栅化处理,将所述网格中的几何图元转换成对应的二维的片元;
逐一对所述片元进行着色处理,并将每个片元的信息转化为屏幕上的像素值,再写入预先创建的帧缓冲中进行渲染。
8.根据权利要求1所述的方法,其特征在于,在所述对所述立体3D虚拟对象及所述现实场景画面进行增强现实处理,将所述立体3D虚拟对象与所述现实场景画面融合,并进行展示之后,所述方法还包括:
根据所述3D虚拟模型数据展示预先定义的所述立体3D虚拟对象与所述识别结果对应的动作动画;
和/或
根据所述3D虚拟模型数据播放预先定义的与所述识别结果对应的语音数据。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
接收触发操作;
根据所述触发操作确定触发事件类型;
根据所述触发事件类型对所述立体3D虚拟对象进行对应的变换展示。
10.根据权利要求1所述的方法,其特征在于,所述方法还包括:
接收立体3D虚拟对象的配置操作;
根据所述配置操作获取自定义的所述立体3D虚拟对象的组成部位及动作的展示内容;
根据所述组成部位及动作的展示内容构造所述立体3D虚拟对象,并对所述立体3D虚拟对象进行预览展示;
根据所述组成部位及动作的展示内容生成3D虚拟模型数据,并将所述3D虚拟模型数据上传至服务器。
11.一种信息展示装置,其特征在于,包括:
采集模块,用于采集现实场景画面;
识别模块,包括:抽取单元,用于抽取所述现实场景画面中目标图形包含的关键特征;所述关键特征包括数据信息、形状特征、空间特征和边缘特征中的至少一种;识别单元,用于根据所述关键特征识别所述目标图形包含的内容信息;处理单元,用于根据预先配置的对所述内容信息进行相应处理的权限限制条件,对所述内容信息进行处理,得到识别结果;所述目标图形包括二维码、字符和产品图标中的至少一种;所述识别结果包括结果事件类型和结果事件参数;
在所述结果事件类型包括用户资料卡时,所述结果事件参数为用户账号;在所述结果事件类型包括支付事件时,所述结果事件参数为支付账单号;在所述结果事件类型包括网页链接时,所述结果事件参数为网页地址;在所述结果事件类型包括产品图标对应的官方网站时,所述结果事件参数为官方网站地址;
模型数据获取模块,用于在确定终端启用立体3D虚拟对象展示功能、且与所述目标图形关联的目标对象启用立体3D虚拟对象展示功能时,获取与所述识别结果匹配的预先定义的3D虚拟模型数据;所述3D虚拟模型数据与所述结果事件类型匹配或与所述结果事件参数匹配;
绘制模块,用于根据所述3D虚拟模型数据绘制立体3D虚拟对象;
展示模块,用于对所述立体3D虚拟对象及所述现实场景画面进行增强现实处理,将所述立体3D虚拟对象与所述现实场景画面融合,并进行展示;
跳转模块,用于当所述终端未启用立体3D虚拟对象展示功能、或与所述目标图形关联的目标对象未启用立体3D虚拟对象展示功能时,根据所述识别结果跳转至与所述目标图形对应的功能界面;还用于在展示结束时,跳转与所述目标图形对应的功能界面。
12.根据权利要求11所述的装置,其特征在于,所述数据信息为所述目标图形包含的字符数据;所述形状特征为所述目标图形中的局部形状;所述空间特征为所述目标图形中分割的多个对象区域之间的相互的空间位置或相对方向关系;所述边缘特征为所述目标图形中组成两个区域之间的边界像素。
13.根据权利要求11所述的装置,其特征在于,所述装置还包括:
存储判断模块,用于判断本地是否存储有与所述识别结果匹配的预先定义的3D虚拟模型数据;
所述模型数据获取模块,还用于若没有存储,则获取预先定义的默认3D虚拟模型数据;
所述绘制模块,还用于根据所述默认3D虚拟模型数据绘制默认立体3D虚拟对象;
所述展示模块,还用于对所述默认立体3D虚拟对象及所述现实场景画面进行增强现实处理,将所述默认立体3D虚拟对象与所述现实场景画面融合,并进行展示;
所述模型数据获取模块,还用于若本地存储有与所述识别结果匹配的预先定义的3D虚拟模型数据,则获取本地存储的与所述识别结果匹配的预先定义的3D虚拟模型数据;
所述绘制模块,还用于根据本地存储的3D虚拟模型数据绘制缓存立体3D虚拟对象;
所述展示模块,还用于对所述缓存立体3D虚拟对象及所述现实场景画面进行增强现实处理,将所述缓存立体3D虚拟对象与所述现实场景画面融合,并进行展示;
发送模块,用于向服务器发送更新检测请求;
所述模型数据获取模块,还用于若服务器根据所述更新检测请求检测到与所述识别结果匹配的预先定义的3D虚拟模型数据发生更新,则从所述服务器获取更新后的3D虚拟模型数据;
所述展示模块,还用于根据更新后的3D虚拟模型数据绘制立体3D虚拟对象,将展示的所述缓存立体3D虚拟对象更新为所述立体3D虚拟对象,并对所述更新后的3D虚拟模型数据进行存储。
14.根据权利要求11所述的装置,其特征在于,所述展示模块,还用于根据所述3D虚拟模型数据展示预先定义的所述立体3D虚拟对象与所述识别结果对应的动作动画;
所述装置还包括:
播放模块,用于根据所述3D虚拟模型数据播放预先定义的与所述识别结果对应的语音数据;
触发操作接收模块,用于接收触发操作;
确定模块,用于根据所述触发操作确定触发事件类型;
所述展示模块,还用于根据所述触发事件类型对所述立体3D虚拟对象进行对应的变换展示。
15.根据权利要求11所述的装置,其特征在于,所述装置还包括:
配置模块,用于接收立体3D虚拟对象的配置操作;
展示内容获取模块,用于根据所述配置操作获取自定义的所述立体3D虚拟对象的组成部位及动作的展示内容;
预览模块,用于根据所述组成部位及动作的展示内容构造所述立体3D虚拟对象,并对所述立体3D虚拟对象进行预览展示;
生成模块,用于根据所述组成部位及动作的展示内容生成3D虚拟模型数据,并将所述3D虚拟模型数据上传至服务器。
16.一种终端,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至10中任一项所述的方法的步骤。
17.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至10中任一项所述的方法的步骤。
CN201710299057.XA 2017-04-27 2017-04-27 信息展示方法及装置 Active CN107204031B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710299057.XA CN107204031B (zh) 2017-04-27 2017-04-27 信息展示方法及装置
PCT/CN2018/084226 WO2018196738A1 (zh) 2017-04-27 2018-04-24 信息展示方法、终端及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710299057.XA CN107204031B (zh) 2017-04-27 2017-04-27 信息展示方法及装置

Publications (2)

Publication Number Publication Date
CN107204031A CN107204031A (zh) 2017-09-26
CN107204031B true CN107204031B (zh) 2021-08-24

Family

ID=59905091

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710299057.XA Active CN107204031B (zh) 2017-04-27 2017-04-27 信息展示方法及装置

Country Status (2)

Country Link
CN (1) CN107204031B (zh)
WO (1) WO2018196738A1 (zh)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107204031B (zh) * 2017-04-27 2021-08-24 腾讯科技(深圳)有限公司 信息展示方法及装置
CN109410299B (zh) 2017-08-15 2022-03-11 腾讯科技(深圳)有限公司 一种信息处理方法、装置和计算机存储介质
CN107766206B (zh) * 2017-10-12 2020-09-01 武汉秀宝软件有限公司 一种基于增强现实的多主机测试方法及系统
CN107767462B (zh) * 2017-10-16 2023-08-25 北京视据科技有限公司 一种非穿戴增强现实全息展示方法及展示系统
CN107888934A (zh) * 2017-11-22 2018-04-06 广东电网有限责任公司教育培训评价中心 一种基于ar技术的变电技能直播系统
CN107945719A (zh) * 2017-12-08 2018-04-20 快创科技(大连)有限公司 一种基于ar增强现实技术的产品展示控制系统
CN108037863B (zh) * 2017-12-12 2021-03-30 北京小米移动软件有限公司 一种显示图像的方法和装置
CN109992178B (zh) * 2018-01-02 2023-09-26 腾讯科技(深圳)有限公司 目标组件的控制方法、装置、存储介质及电子装置
CN110136265A (zh) * 2018-02-02 2019-08-16 北京京东尚科信息技术有限公司 商品展示方法、装置、终端设备及零售系统
CN108572772A (zh) * 2018-03-27 2018-09-25 麒麟合盛网络技术股份有限公司 图片内容呈现方法及装置
CN108550190A (zh) * 2018-04-19 2018-09-18 腾讯科技(深圳)有限公司 增强现实数据处理方法、装置、计算机设备和存储介质
CN108876515A (zh) * 2018-05-30 2018-11-23 北京小米移动软件有限公司 基于网络购物平台的信息交互方法、装置及存储介质
CN109062523B (zh) * 2018-06-14 2021-09-24 北京三快在线科技有限公司 增强现实数据的展示方法、装置、电子设备及存储介质
CN108961375A (zh) * 2018-06-20 2018-12-07 腾讯科技(深圳)有限公司 一种根据二维图像生成三维图像的方法及装置
CN110162258A (zh) 2018-07-03 2019-08-23 腾讯数码(天津)有限公司 个性化场景图像的处理方法及装置
CN113112614B (zh) * 2018-08-27 2024-03-19 创新先进技术有限公司 基于增强现实的互动方法及装置
CN108830946A (zh) * 2018-08-31 2018-11-16 佛山科学技术学院 一种三维智能ar试发方法和试发装置
CN109104632A (zh) * 2018-09-27 2018-12-28 聚好看科技股份有限公司 一种电视终端ar场景的实现方法及系统
CN109741429B (zh) * 2018-12-21 2020-06-19 浙江远算云计算有限公司 一种用于非结构化流体仿真模型的vr动画可视化方法
CN111383305A (zh) * 2018-12-27 2020-07-07 北京奇虎科技有限公司 智能终端中目标对象的识别方法、装置、电子设备
CN110716645A (zh) * 2019-10-15 2020-01-21 北京市商汤科技开发有限公司 一种增强现实数据呈现方法、装置、电子设备及存储介质
CN111127669A (zh) * 2019-12-30 2020-05-08 北京恒华伟业科技股份有限公司 一种信息处理方法及装置
CN111627097B (zh) * 2020-06-01 2023-12-01 上海商汤智能科技有限公司 一种虚拟景物的展示方法及装置
CN111667589A (zh) * 2020-06-12 2020-09-15 上海商汤智能科技有限公司 动画效果触发展示的方法、装置、电子设备及存储介质
CN112037314A (zh) * 2020-08-31 2020-12-04 北京市商汤科技开发有限公司 图像显示方法、装置、显示设备及计算机可读存储介质
CN114442874A (zh) * 2021-12-02 2022-05-06 北京电子工程总体研究所 一种要素展示方法、组件及计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103218844A (zh) * 2013-04-03 2013-07-24 腾讯科技(深圳)有限公司 虚拟形象的配置方法、实现方法、客户端、服务器及系统
CN103544724A (zh) * 2013-05-27 2014-01-29 华夏动漫集团有限公司 一种利用增强现实与卡片识别技术在移动智能终端实现虚拟动漫角色的系统及方法
CN104134229A (zh) * 2014-08-08 2014-11-05 李成 实时交互的增强现实系统以及方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102930374B (zh) * 2012-09-27 2015-11-04 乐华建科技(北京)有限公司 一种运用三维模型模拟现实进行项目管理的系统
US9383819B2 (en) * 2013-06-03 2016-07-05 Daqri, Llc Manipulation of virtual object in augmented reality via intent
CN204406423U (zh) * 2015-02-10 2015-06-17 天机数码创新技术有限公司 一种图像和二维码结合的扩增实境识别装置
CN105786432A (zh) * 2016-03-18 2016-07-20 北京奇虎科技有限公司 在移动终端上展示虚拟画面的方法及装置
CN106600669A (zh) * 2016-12-22 2017-04-26 郑州正电电子技术有限公司 基于可变色荧光画板和增强现实的装置及运行方法
CN107204031B (zh) * 2017-04-27 2021-08-24 腾讯科技(深圳)有限公司 信息展示方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103218844A (zh) * 2013-04-03 2013-07-24 腾讯科技(深圳)有限公司 虚拟形象的配置方法、实现方法、客户端、服务器及系统
CN103544724A (zh) * 2013-05-27 2014-01-29 华夏动漫集团有限公司 一种利用增强现实与卡片识别技术在移动智能终端实现虚拟动漫角色的系统及方法
CN104134229A (zh) * 2014-08-08 2014-11-05 李成 实时交互的增强现实系统以及方法

Also Published As

Publication number Publication date
WO2018196738A1 (zh) 2018-11-01
CN107204031A (zh) 2017-09-26

Similar Documents

Publication Publication Date Title
CN107204031B (zh) 信息展示方法及装置
US10460512B2 (en) 3D skeletonization using truncated epipolar lines
US9946963B2 (en) Barcode visualization in augmented reality
CN110716645A (zh) 一种增强现实数据呈现方法、装置、电子设备及存储介质
KR102166861B1 (ko) 시선 추적을 이용한 증강 현실의 인에이블링
CN111787242B (zh) 用于虚拟试衣的方法和装置
US20190236259A1 (en) Method for 3d graphical authentication on electronic devices
US10186084B2 (en) Image processing to enhance variety of displayable augmented reality objects
US20140240225A1 (en) Method for touchless control of a device
JP7127659B2 (ja) 情報処理装置、仮想・現実合成システム、学習済みモデルの生成方法、情報処理装置に実行させる方法、プログラム
US11003305B2 (en) 3D user interface
JP2012212345A (ja) 端末装置、オブジェクト制御方法及びプログラム
AU2013273829A1 (en) Time constrained augmented reality
KR20150105479A (ko) 2차원 코드 증강 현실의 실현 방법 및 디바이스
CN113721804A (zh) 一种显示方法、装置、电子设备及计算机可读存储介质
CN109448050B (zh) 一种目标点的位置的确定方法及终端
CN111310049B (zh) 一种信息交互方法及相关设备
US20060153425A1 (en) Method of processing three-dimensional image in mobile device
TW202009682A (zh) 基於擴增實境的互動方法及裝置
WO2018135246A1 (ja) 情報処理システム及び情報処理装置
CN114998935A (zh) 图像处理方法、装置、计算机设备及存储介质
CN116524088B (zh) 珠宝虚拟试戴方法、装置、计算机设备和存储介质
CN111651049B (zh) 交互方法、装置、计算机设备及存储介质
CN110431838B (zh) 提供人脸识别摄像机的动态内容的方法及系统
CN113867875A (zh) 标记对象的编辑及显示方法、装置、设备、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant