CN117406867B - 一种基于网页的增强现实交互方法及装置 - Google Patents
一种基于网页的增强现实交互方法及装置 Download PDFInfo
- Publication number
- CN117406867B CN117406867B CN202311727977.9A CN202311727977A CN117406867B CN 117406867 B CN117406867 B CN 117406867B CN 202311727977 A CN202311727977 A CN 202311727977A CN 117406867 B CN117406867 B CN 117406867B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- region
- coordinate system
- determining
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000003993 interaction Effects 0.000 title claims abstract description 32
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 28
- 239000011159 matrix material Substances 0.000 claims description 65
- 238000013507 mapping Methods 0.000 claims description 21
- 239000013598 vector Substances 0.000 claims description 18
- 230000000875 corresponding effect Effects 0.000 description 72
- 238000013527 convolutional neural network Methods 0.000 description 8
- 230000009471 action Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供了一种基于网页的增强现实交互方法及装置,该方法包括:确定出基于虚拟空间场景中的虚拟对象,在网页中对真实空间场景的视频图像进行增强现实显示,获取视频图像中输入手势;确定输入手势在虚拟空间场景中的三维区域;基于三维区域和虚拟对象在虚拟空间场景中的三维区域,确定输入手势和虚拟对象之间的第一重合区域;生成第一重合区域对应的点击事件,以使得虚拟对象响应第一重合区域对应的点击事件;基于第一重合区域,确定输入手势和网页之间的第二重合区域;生成第二重合区域对应的点击事件,以使得网页响应第二重合区域对应的点击事件。
Description
技术领域
本申请涉及计算机技术领域,特别涉及一种基于网页的增强现实交互方法及装置。
背景技术
目前,可以基于虚拟对象在网页中对视频图像进行增强现实(AugmentedReality,简称AR)显示,改善用户使用体验。
但是,基于网页与虚拟对象之间进行交互却成为问题。
发明内容
为解决上述技术问题,本申请实施例提供一种基于网页的增强现实交互方法及装置,以达到实现与在网页中显示的虚拟对象进行精准交互,改善用户使用体验的目的,技术方案如下:
本申请一方面提供一种基于网页的增强现实交互方法,包括:
确定出基于虚拟空间场景中的虚拟对象,在网页中对真实空间场景的视频图像进行增强现实显示,获取所述视频图像中输入手势;
确定所述输入手势在所述虚拟空间场景中的三维区域;
基于所述三维区域和所述虚拟对象在所述虚拟空间场景中的三维区域,确定所述输入手势和所述虚拟对象之间的第一重合区域;
生成所述第一重合区域对应的点击事件,以使得所述虚拟对象响应所述第一重合区域对应的点击事件;
基于所述第一重合区域,确定所述输入手势和所述网页之间的第二重合区域;
生成所述第二重合区域对应的点击事件,以使得所述网页响应所述第二重合区域对应的点击事件。
可选的,确定所述视频图像中输入手势在所述虚拟空间场景中的三维区域,包括:
确定所述视频图像中输入手势对应的手势框选区域的四个顶点的二维坐标;
基于所述手势框选区域的四个顶点的二维坐标,确定所述手势框选区域的四个顶点中各所述顶点在世界坐标系下对应的射线;
确定各所述顶点在世界坐标系下对应的射线之间的交点,基于所述交点确定所述输入手势在所述虚拟空间场景中的三维区域。
可选的,基于所述手势框选区域的四个顶点的二维坐标,确定所述手势框选区域的四个顶点中各所述顶点在世界坐标系下对应的射线,包括:
获取所述视频图像对应的摄像设备的投影矩阵和视矩阵,所述摄像设备的投影矩阵用于对三维摄像坐标系和二维图像平面坐标系之间进行映射,所述视矩阵用于对所述三维摄像坐标系和世界坐标系之间进行映射;
将所述手势框选区域的四个顶点中各所述顶点的二维坐标转换为标准化设备坐标;
将所述标准化设备坐标乘以所述摄像设备的投影矩阵的逆矩阵,得到所述摄像坐标系下的向量,所述向量用于表征从所述摄像设备的位置出发通过所述标准化设备坐标所发出的三维射线的方向;
基于所述视矩阵,将所述摄像坐标系下的向量转换到所述世界坐标系,得到所述顶点在所述世界坐标系下对应的射线。
可选的,基于所述三维区域和所述虚拟对象在所述虚拟空间场景中的三维区域,确定所述输入手势和所述虚拟对象之间的第一重合区域,包括:
从所述虚拟对象在所述虚拟空间场景中的三维区域中的各个设定点击区域中选择被所述三维区域覆盖的目标设定点击区域;
将所述目标设定点击区域确定为所述输入手势和所述虚拟对象之间的第一重合区域。
可选的,从所述虚拟对象在所述虚拟空间场景中的三维区域中的各个设定点击区域中选择被所述三维区域覆盖的目标设定点击区域,包括:
分别判断所述虚拟对象在所述虚拟空间场景中的三维区域中的各个设定点击区域各自的所有三维坐标点是否均在所述三维区域内;
若是,将所述设定点击区域确定为被所述三维区域覆盖的目标设定点击区域;
若否,获取所述设定点击区域的最大外接几何体;
判断所述最大外接几何体的外表面的多个指定点是否均在所述三维区域内;
若是,将所述设定点击区域确定为被所述三维区域覆盖的目标设定点击区域。
可选的,基于所述第一重合区域,确定所述输入手势和所述网页之间的第二重合区域,包括:
获取所述视频图像对应的摄像设备的投影矩阵,所述摄像设备的投影矩阵用于对三维摄像坐标系和二维图像平面坐标系之间进行映射;
将所述第一重合区域内的三维坐标与所述投影矩阵进行相乘运算,得到四维坐标;
对所述四维坐标进行透视除法,得到设备标准化坐标;
将所述设备标准化坐标映射到视口坐标系,得到二维平面坐标,基于所述二维平面坐标确定所述输入手势和所述网页之间的第二重合区域。
本申请另一方面提供一种基于网页的增强显示交互装置,包括:
获取模块,用于确定出基于虚拟空间场景中的虚拟对象,在网页中对真实空间场景的视频图像进行增强现实显示,获取所述视频图像中输入手势;
第一确定模块,用于确定所述输入手势在所述虚拟空间场景中的三维区域;
第二确定模块,用于基于所述三维区域和所述虚拟对象在所述虚拟空间场景中的三维区域,确定所述输入手势和所述虚拟对象之间的第一重合区域;
第一生成模块,用于生成所述第一重合区域对应的点击事件,以使得所述虚拟对象响应所述第一重合区域对应的点击事件;
第三确定模块,用于基于所述第一重合区域,确定所述输入手势和所述网页之间的第二重合区域;
第二生成模块,用于生成所述第二重合区域对应的点击事件,以使得所述网页响应所述第二重合区域对应的点击事件。
可选的,所述第一确定模块,具体用于:
确定所述视频图像中输入手势对应的手势框选区域的四个顶点的二维坐标;
基于所述手势框选区域的四个顶点的二维坐标,确定所述手势框选区域的四个顶点中各所述顶点在世界坐标系下对应的射线;
确定各所述顶点在世界坐标系下对应的射线之间的交点,基于所述交点确定所述输入手势在所述虚拟空间场景中的三维区域。
可选的,所述第一确定模块基于所述手势框选区域的四个顶点的二维坐标,确定所述手势框选区域的四个顶点中各所述顶点在世界坐标系下对应的射线的过程,具体包括:
获取所述视频图像对应的摄像设备的投影矩阵和视矩阵,所述摄像设备的投影矩阵用于对三维摄像坐标系和二维图像平面坐标系之间进行映射,所述视矩阵用于对所述三维摄像坐标系和世界坐标系之间进行映射;
将所述手势框选区域的四个顶点中各所述顶点的二维坐标转换为标准化设备坐标;
将所述标准化设备坐标乘以所述摄像设备的投影矩阵的逆矩阵,得到所述摄像坐标系下的向量,所述向量用于表征从所述摄像设备的位置出发通过所述标准化设备坐标所发出的三维射线的方向;
基于所述视矩阵,将所述摄像坐标系下的向量转换到所述世界坐标系,得到所述顶点在所述世界坐标系下对应的射线。
可选的,所述第二确定模块,具体用于:
从所述虚拟对象在所述虚拟空间场景中的三维区域中的各个设定点击区域中选择被所述三维区域覆盖的目标设定点击区域;
将所述目标设定点击区域确定为所述输入手势和所述虚拟对象之间的第一重合区域。
在本申请中,通过确定出基于虚拟空间场景中的虚拟对象,在网页中对真实空间场景的视频图像进行增强现实显示,获取视频图像中输入手势,确定输入手势在虚拟空间场景中的三维区域,基于三维区域和虚拟对象在虚拟空间场景中的三维区域,确定输入手势和虚拟对象之间的第一重合区域,对在网页中显示的虚拟对象的点击位置进行准确定位,生成第一重合区域对应的点击事件,以使得虚拟对象响应该点击事件,实现与在网页中显示的虚拟对象进行精准交互,改善用户使用体验。
并且,基于第一重合区域,确定输入手势和网页之间的第二重合区域,实现通过对虚拟对象的点击事件,对网页中的点击位置进行准确定位,生成第二重合区域对应的点击事件,以使得网页响应第二重合区域对应的点击事件,实现与网页之间进行精准交互,进一步改善用户使用体验。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例1提供的一种基于网页的增强现实交互方法的流程示意图;
图2是本申请实施例2提供的一种基于网页的增强现实交互方法的流程示意图;
图3是本申请实施例3提供的一种基于网页的增强现实交互方法的流程示意图;
图4是本申请实施例4提供的一种基于网页的增强现实交互方法的流程示意图;
图5是本申请提供的一种基于网页的增强现实交互装置的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
为使本申请的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本申请作进一步详细的说明。
参照图1,为本申请实施例1提供的一种基于网页的增强现实交互方法的流程示意图,如图1所示,该方法可以包括但并不局限于以下步骤:
步骤S101、确定出基于虚拟空间场景中的虚拟对象,在网页中对真实空间场景的视频图像进行增强现实显示,获取视频图像中输入手势。
在本实施例中,虚拟空间场景中的虚拟对象可以是但不局限于:对真实空间场景的视频图像中目标对象进行3D虚拟确定的对象。虚拟空间场景中的虚拟对象也可以是但不局限于:对设定对象进行3D虚拟确定的对象,设定对象不来自于真实空间场景的视频图像。
虚拟空间场景可以理解为三维的立体虚拟空间。
输入手势用于对虚拟对象进行操作。
获取视频图像中输入手势,可以包括但不局限于:
S1011、将视频图像输入预先训练好的卷积神经网络,得到卷积神经网络确定的手势预测结果。
其中,卷积神经网络的训练数据可以包括:包含输入手势的样本视频图像及对样本视频图像进行旋转、缩放、光照变化等增强得到的目标样本视频图像,使卷积神经网络对不同手势视角和环境的手势预测更鲁棒。
获取视频图像中输入手势,也可以包括但不局限于:
S1012、获取视频图像对应的深度图。
S1013、将视频图像和深度图输入预先训练好的卷积神经网络,得到卷积神经网络确定的手势预测结果。
在步骤S1013中,卷积神经网络是基于样本视频图像和样本视频图像对应的深度图进行训练得到的。
深度图可以提供手势的3D结构信息,帮助卷积神经网络学习手势的立体形态。
步骤S102、确定输入手势在虚拟空间场景中的三维区域。
在本实施例中,可以基于输入手势在视频图像中对应的二维区域,确定输入手势在虚拟空间场景中的三维区域。
步骤S103、基于输入手势在虚拟空间场景中的三维区域和虚拟对象在虚拟空间场景中的三维区域,确定输入手势和虚拟对象之间的第一重合区域。
可以理解的是,输入手势和虚拟对象之间的第一重合区域为虚拟对象在虚拟空间场景中的三维区域的一部分或全部。
步骤S104、生成第一重合区域对应的点击事件,以使得虚拟对象响应第一重合区域对应的点击事件。
生成第一重合区域对应的点击事件,可以包括但不局限于:在第一重合区域生成点击事件。
点击事件可以包括但不局限于:动作点击事件和音效点击事件中至少一种。对应动作点击事件,虚拟对象响应第一重合区域对应的点击事件可以包括:虚拟对象响应动作点击事件,执行相应动作;对应音效点击事件,虚拟对象响应第一重合区域对应的点击事件可以包括:虚拟对象响应音效点击事件,进行相应音效输出。
步骤S105、基于第一重合区域,确定输入手势和网页之间的第二重合区域。
本实施例中,可以确定网页中与第一重合区域对应的区域,将网页中与第一重合区域对应的区域确定为输入手势和网页之间的第二重合区域。
步骤S106、生成第二重合区域对应的点击事件,以使得网页响应第二重合区域对应的点击事件。
在本实施例中,网页可以基于第二重合区域对应的网页元素的类型,响应第二重合区域对应的点击事件。例如,网页可以响应第二重合区域对应的点击事件进行跳转或提示。
在本申请中,通过确定出基于虚拟空间场景中的虚拟对象,在网页中对真实空间场景的视频图像进行增强现实显示,获取视频图像中输入手势,确定输入手势在虚拟空间场景中的三维区域,基于三维区域和虚拟对象在虚拟空间场景中的三维区域,确定输入手势和虚拟对象之间的第一重合区域,对在网页中显示的虚拟对象的点击位置进行准确定位,生成第一重合区域对应的点击事件,以使得虚拟对象响应该点击事件,实现与在网页中显示的虚拟对象进行精准交互,改善用户使用体验。
并且,基于第一重合区域,确定输入手势和网页之间的第二重合区域,实现通过对虚拟对象的点击事件,对网页中的点击位置进行准确定位,生成第二重合区域对应的点击事件,以使得网页响应第二重合区域对应的点击事件,实现与网页之间进行精准交互,进一步改善用户使用体验。例如,基于虚拟空间场景中的虚拟家具对象,在家具购物网页中对真实空间场景的家具视频图像进行增强现实显示,可以从视频图像中获取用于操作桌子、椅子等家具的输入手势,通过确定输入手势在虚拟空间场景中的三维区域,基于输入手势在虚拟空间场景中的三维区域和虚拟家具对象在虚拟空间场景中的三维区域,确定输入手势和虚拟家具对象之间的第一重合区域,生成第一重合区域对应的点击事件,以使得虚拟家具对象移动、缩放、旋转来完成房间布置。并且,基于第一重合区域,确定输入手势和家具购物网页之间的第二重合区域,生成第二重合区域对应的点击事件,以使得家具购物网页响应点击事件,在网页中显示虚拟家具对象的详情,实现通过点击虚拟家具对象在网页中展示虚拟家具对象的详情(比如,规格参数、材质、设计师等),通过这种方式,可以自然地在虚拟对象调整与网页交互之间转换,既享受增强显示的身临其境,又可以获得网页的丰富信息。
作为本申请另一可选实施例,为本申请实施例2提供的一种基于网页的增强现实交互方法的流程示意图,如图2所示,本实施例主要是对上述实施例1中步骤S102的细化方案,步骤S102可以包括但不局限于以下步骤:
步骤S1021、确定视频图像中输入手势对应的手势框选区域的四个顶点的二维坐标。
步骤S1022、基于手势框选区域的四个顶点的二维坐标,确定手势框选区域的四个顶点中各顶点在世界坐标系下对应的射线。
顶点在世界坐标系下对应的射线为通过顶点且在世界坐标系下的射线。
步骤S1022可以包括但不局限于:
S10221、获取视频图像对应的摄像设备的投影矩阵和视矩阵,摄像设备的投影矩阵用于对三维摄像坐标系和二维图像平面坐标系之间进行映射,视矩阵用于对三维摄像坐标系和世界坐标系之间进行映射。
摄像设备的投影矩阵决定了从三维摄像坐标系到二维图像平面坐标系的投影方式,可以反映了摄像设备的内部参数,如焦距、图像传感器大小等。
投影矩阵可以包括但不局限于:透视投影矩阵和正交投影矩阵。透视投影矩阵依赖于视野、长宽比、近距裁剪平面、远距裁剪平面等参数。正交投影矩阵则会保留三维空间中的平行关系,不会有透视效果。
摄像设备的视矩阵决定了从世界坐标系转换到三维摄像坐标系的转换关系,其可以反映摄像设备的位置和方向等外部参数。
摄像设备的视矩阵可以根据摄像设备位置、目标观察点和上方向量计算得到。
S10222、将手势框选区域的四个顶点中各顶点的二维坐标转换为标准化设备坐标。
S10223、将标准化设备坐标乘以摄像设备的投影矩阵的逆矩阵,得到摄像坐标系下的向量,向量用于表征从摄像设备的位置出发通过标准化设备坐标所发出的三维射线的方向。
S10224、基于视矩阵,将摄像坐标系下的向量转换到世界坐标系,得到顶点在世界坐标系下对应的射线。
步骤S1023、确定各顶点在世界坐标系下对应的射线之间的交点,基于交点确定输入手势在虚拟空间场景中的三维区域。
本实施例中,可以将基于交点框选的三维区域确定为输入手势在虚拟空间场景中的三维区域。
在本实施例中,通过确定视频图像中输入手势对应的手势框选区域的四个顶点的二维坐标,基于手势框选区域的四个顶点的二维坐标,确定手势框选区域的四个顶点中各顶点在世界坐标系下对应的射线,确定各顶点在世界坐标系下对应的射线之间的交点,基于交点确定输入手势在虚拟空间场景中的三维区域,可以保证输入手势在虚拟空间场景中的三维区域的准确性。
作为本申请另一可选实施例,为本申请实施例3提供的一种基于网页的增强现实交互方法的流程示意图,如图3所示,本实施例主要是对上述实施例1中步骤S103的细化方案,步骤S103可以包括但不局限于以下步骤:
步骤S1031、从虚拟对象在虚拟空间场景中的三维区域中的各个设定点击区域中选择被输入手势在虚拟空间场景中的三维区域覆盖的目标设定点击区域。
本实施例中,虚拟对象作为虚拟的三维对象,其表面面积较大,基于输入手势需要精确点击特定部位触发交互,因此可以预先设定关键部位,将虚拟对象的关键部位对应的三维区域作为设定点击区域。
步骤S1031可以包括但不局限于:
S10311、分别判断虚拟对象在虚拟空间场景中的三维区域中的各个设定点击区域各自的所有三维坐标点是否均在输入手势在虚拟空间场景中的三维区域内。
若是,则执行步骤S10312。若否,则执行步骤S10313。
S10312、将设定点击区域确定为被输入手势在虚拟空间场景中的三维区域覆盖的目标设定点击区域。
S10313、获取设定点击区域的最大外接几何体。
在本实施例中,如果设定点击区域不是一个凸多边形,可能有内凹的情况,那么设定点击区域内的所有三维坐标点可能不会均在输入手势在虚拟空间场景中的三维区域内,但是,设定点击区域内的部分三维坐标点可能会在输入手势在虚拟空间场景中的三维区域内,这种情况也可视为设定点击区域被输入手势在虚拟空间场景中的三维区域覆盖。具体地,可以获取设定点击区域的最大外接几何体,来确定设定点击区域内的部分三维坐标点是否在输入手势在虚拟空间场景中的三维区域内。
在本申请中,对最大外接几何体不做限制。例如,最大外接几何体可以包括但不局限于:最大外接立方体或最大外接球体。
S10314、判断最大外接几何体的外表面的多个指定点是否均在三维区域内。
对应最大外接几何体为最大外接立方体的实施方式,最大外接几何体的外表面的多个指定点可以为但布局小于:最大外接立方体的8个顶点。
若是,则执行步骤S10315。
通过获取最大外接几何体,及判断最大外接几何体的外表面的多个指定点是否均在三维区域内,可以简化计算,提高效率。
S10315、将设定点击区域确定为被三维区域覆盖的目标设定点击区域。
步骤S1032、将目标设定点击区域确定为输入手势和虚拟对象之间的第一重合区域。
在本实施例中,通过从虚拟对象在虚拟空间场景中的三维区域中的各个设定点击区域中选择被输入手势在虚拟空间场景中的三维区域覆盖的目标设定点击区域,将目标设定点击区域确定为输入手势和虚拟对象之间的第一重合区域,保证第一重合区域对应于点击意图,使虚拟对象进行更精准的响应。
作为本申请另一可选实施例,为本申请实施例4提供的一种基于网页的增强现实交互方法的流程示意图,如图4所示,本实施例主要是对上述实施例1中步骤S105的细化方案,步骤S105可以包括但不局限于以下步骤:
步骤S1051、获取视频图像对应的摄像设备的投影矩阵,摄像设备的投影矩阵用于对三维摄像坐标系和二维图像平面坐标系之间进行映射。
步骤S1052、将第一重合区域内的三维坐标与投影矩阵进行相乘运算,得到四维坐标。
四维坐标可以表征基于投影矩阵对第一重合区域内的三维坐标进行变换得到的三维坐标点及从摄像设备到该三维坐标点的距离。四维坐标可以表示为(x, y, z, w),(x,y, z, w)中x、y、z表示基于投影矩阵对第一重合区域内的三维坐标进行变换得到的三维坐标点的位置,w表示从摄像设备到该三维坐标点的距离。
步骤S1053、对四维坐标进行透视除法,得到设备标准化坐标。
具体地,可以将(x, y, z, w)中x、y、z分别除以w,得到设备标准化坐标(x',y',z'),x' = x / w,y' = y / w,z' = z / w。
步骤S1054、将设备标准化坐标映射到视口坐标系,得到二维平面坐标,基于二维平面坐标确定输入手势和网页之间的第二重合区域。
将设备标准化坐标映射到视口坐标系,得到二维平面坐标,可以包括但不局限于:
利用如下关系式得到二维平面坐标:
x'' = x' × (width/2) + (width/2)
y'' = y' × (height/2) + (height/2)
其中,width为视口宽度,height为视口高度。
在本实施例中,通过获取视频图像对应的摄像设备的投影矩阵,将第一重合区域内的三维坐标与投影矩阵进行相乘运算,得到四维坐标,对四维坐标进行透视除法,得到设备标准化坐标,将设备标准化坐标映射到视口坐标系,得到二维平面坐标,基于二维平面坐标确定输入手势和网页之间的第二重合区域,实现对网页中点击区域的定位。
接下来对本申请提供的一种基于网页的增强显示交互装置进行介绍,下文介绍的基于网页的增强显示交互装置与上文介绍的基于网页的增强显示交互方法可相互对应参照。
如图5所示,基于网页的增强显示交互装置,包括:获取模块100、第一确定模块200、第二确定模块300、第一生成模块400、第三确定模块500和第二生成模块600。
获取模块100,用于确定出基于虚拟空间场景中的虚拟对象,在网页中对真实空间场景的视频图像进行增强现实显示,获取视频图像中输入手势。
第一确定模块200,用于确定输入手势在虚拟空间场景中的三维区域。
第二确定模块300,用于基于三维区域和虚拟对象在虚拟空间场景中的三维区域,确定输入手势和虚拟对象之间的第一重合区域。
第一生成模块400,用于生成第一重合区域对应的点击事件,以使得虚拟对象响应第一重合区域对应的点击事件。
第三确定模块500,用于基于第一重合区域,确定输入手势和网页之间的第二重合区域。
第二生成模块600,用于生成第二重合区域对应的点击事件,以使得网页响应所述第二重合区域对应的点击事件。
第一确定模块200,具体可以用于:
确定视频图像中输入手势对应的手势框选区域的四个顶点的二维坐标;
基于手势框选区域的四个顶点的二维坐标,确定手势框选区域的四个顶点中各顶点在世界坐标系下对应的射线;
确定各顶点在世界坐标系下对应的射线之间的交点,基于交点确定所述输入手势在虚拟空间场景中的三维区域。
第一确定模块200基于手势框选区域的四个顶点的二维坐标,确定手势框选区域的四个顶点中各顶点在世界坐标系下对应的射线的过程,具体可以包括:
获取视频图像对应的摄像设备的投影矩阵和视矩阵,摄像设备的投影矩阵用于对三维摄像坐标系和二维图像平面坐标系之间进行映射,视矩阵用于对三维摄像坐标系和世界坐标系之间进行映射;
将手势框选区域的四个顶点中各顶点的二维坐标转换为标准化设备坐标;
将标准化设备坐标乘以摄像设备的投影矩阵的逆矩阵,得到摄像坐标系下的向量,向量用于表征从摄像设备的位置出发通过标准化设备坐标所发出的三维射线的方向;
基于视矩阵,将摄像坐标系下的向量转换到世界坐标系,得到顶点在世界坐标系下对应的射线。
第二确定模块300,具体可以用于:
从虚拟对象在虚拟空间场景中的三维区域中的各个设定点击区域中选择被三维区域覆盖的目标设定点击区域;
将目标设定点击区域确定为输入手势和虚拟对象之间的第一重合区域。
第二确定模块300从虚拟对象在虚拟空间场景中的三维区域中的各个设定点击区域中选择被三维区域覆盖的目标设定点击区域的过程,具体可以包括:
分别判断虚拟对象在虚拟空间场景中的三维区域中的各个设定点击区域各自的所有三维坐标点是否均在三维区域内;
若是,将设定点击区域确定为被三维区域覆盖的目标设定点击区域;
若否,获取设定点击区域的最大外接几何体;
判断最大外接几何体的外表面的多个指定点是否均在三维区域内;
若是,将设定点击区域确定为被三维区域覆盖的目标设定点击区域。
第三确定模块500,具体可以用于:
获取视频图像对应的摄像设备的投影矩阵,摄像设备的投影矩阵用于对三维摄像坐标系和二维图像平面坐标系之间进行映射;
将第一重合区域内的三维坐标与投影矩阵进行相乘运算,得到四维坐标;
对四维坐标进行透视除法,得到设备标准化坐标;
将设备标准化坐标映射到视口坐标系,得到二维平面坐标,基于二维平面坐标确定输入手势和网页之间的第二重合区域。
需要说明的是,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于合并模块实施例、数字电路实施例及卷积神经网络硬件加速器实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
为了描述的方便,描述基于网页的增强显示交互装置时以功能分为各种模块分别描述。当然,在实施本申请时可以把各模块的功能在同一个或多个软件和/或硬件中实现。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。
上对本申请所提供的一种基于网页的增强显示交互方法及装置进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (10)
1.一种基于网页的增强现实交互方法,其特征在于,包括:
确定出基于虚拟空间场景中的虚拟对象,在网页中对真实空间场景的视频图像进行增强现实显示,获取所述视频图像中输入手势;
确定所述输入手势在所述虚拟空间场景中的三维区域;
基于所述三维区域和所述虚拟对象在所述虚拟空间场景中的三维区域,确定所述输入手势和所述虚拟对象之间的第一重合区域;
生成所述第一重合区域对应的点击事件,以使得所述虚拟对象响应所述第一重合区域对应的点击事件;
基于所述第一重合区域,确定所述输入手势和所述网页之间的第二重合区域;
生成所述第二重合区域对应的点击事件,以使得所述网页响应所述第二重合区域对应的点击事件。
2.根据权利要求1所述的方法,其特征在于,确定所述视频图像中输入手势在所述虚拟空间场景中的三维区域,包括:
确定所述视频图像中输入手势对应的手势框选区域的四个顶点的二维坐标;
基于所述手势框选区域的四个顶点的二维坐标,确定所述手势框选区域的四个顶点中各所述顶点在世界坐标系下对应的射线;
确定各所述顶点在世界坐标系下对应的射线之间的交点,基于所述交点确定所述输入手势在所述虚拟空间场景中的三维区域。
3.根据权利要求2所述的方法,其特征在于,基于所述手势框选区域的四个顶点的二维坐标,确定所述手势框选区域的四个顶点中各所述顶点在世界坐标系下对应的射线,包括:
获取所述视频图像对应的摄像设备的投影矩阵和视矩阵,所述摄像设备的投影矩阵用于对三维摄像坐标系和二维图像平面坐标系之间进行映射,所述视矩阵用于对所述三维摄像坐标系和世界坐标系之间进行映射;
将所述手势框选区域的四个顶点中各所述顶点的二维坐标转换为标准化设备坐标;
将所述标准化设备坐标乘以所述摄像设备的投影矩阵的逆矩阵,得到所述摄像坐标系下的向量,所述向量用于表征从所述摄像设备的位置出发通过所述标准化设备坐标所发出的三维射线的方向;
基于所述视矩阵,将所述摄像坐标系下的向量转换到所述世界坐标系,得到所述顶点在所述世界坐标系下对应的射线。
4.根据权利要求1所述的方法,其特征在于,基于所述三维区域和所述虚拟对象在所述虚拟空间场景中的三维区域,确定所述输入手势和所述虚拟对象之间的第一重合区域,包括:
从所述虚拟对象在所述虚拟空间场景中的三维区域中的各个设定点击区域中选择被所述三维区域覆盖的目标设定点击区域;
将所述目标设定点击区域确定为所述输入手势和所述虚拟对象之间的第一重合区域。
5.根据权利要求4所述的方法,其特征在于,从所述虚拟对象在所述虚拟空间场景中的三维区域中的各个设定点击区域中选择被所述三维区域覆盖的目标设定点击区域,包括:
分别判断所述虚拟对象在所述虚拟空间场景中的三维区域中的各个设定点击区域各自的所有三维坐标点是否均在所述三维区域内;
若是,将所述设定点击区域确定为被所述三维区域覆盖的目标设定点击区域;
若否,获取所述设定点击区域的最大外接几何体;
判断所述最大外接几何体的外表面的多个指定点是否均在所述三维区域内;
若是,将所述设定点击区域确定为被所述三维区域覆盖的目标设定点击区域。
6.根据权利要求1所述的方法,其特征在于,基于所述第一重合区域,确定所述输入手势和所述网页之间的第二重合区域,包括:
获取所述视频图像对应的摄像设备的投影矩阵,所述摄像设备的投影矩阵用于对三维摄像坐标系和二维图像平面坐标系之间进行映射;
将所述第一重合区域内的三维坐标与所述投影矩阵进行相乘运算,得到四维坐标;
对所述四维坐标进行透视除法,得到设备标准化坐标;
将所述设备标准化坐标映射到视口坐标系,得到二维平面坐标,基于所述二维平面坐标确定所述输入手势和所述网页之间的第二重合区域。
7.一种基于网页的增强显示交互装置,其特征在于,包括:
获取模块,用于确定出基于虚拟空间场景中的虚拟对象,在网页中对真实空间场景的视频图像进行增强现实显示,获取所述视频图像中输入手势;
第一确定模块,用于确定所述输入手势在所述虚拟空间场景中的三维区域;
第二确定模块,用于基于所述三维区域和所述虚拟对象在所述虚拟空间场景中的三维区域,确定所述输入手势和所述虚拟对象之间的第一重合区域;
第一生成模块,用于生成所述第一重合区域对应的点击事件,以使得所述虚拟对象响应所述第一重合区域对应的点击事件;
第三确定模块,用于基于所述第一重合区域,确定所述输入手势和所述网页之间的第二重合区域;
第二生成模块,用于生成所述第二重合区域对应的点击事件,以使得所述网页响应所述第二重合区域对应的点击事件。
8.根据权利要求7所述的装置,其特征在于,所述第一确定模块,具体用于:
确定所述视频图像中输入手势对应的手势框选区域的四个顶点的二维坐标;
基于所述手势框选区域的四个顶点的二维坐标,确定所述手势框选区域的四个顶点中各所述顶点在世界坐标系下对应的射线;
确定各所述顶点在世界坐标系下对应的射线之间的交点,基于所述交点确定所述输入手势在所述虚拟空间场景中的三维区域。
9.根据权利要求8所述的装置,其特征在于,所述第一确定模块基于所述手势框选区域的四个顶点的二维坐标,确定所述手势框选区域的四个顶点中各所述顶点在世界坐标系下对应的射线的过程,具体包括:
获取所述视频图像对应的摄像设备的投影矩阵和视矩阵,所述摄像设备的投影矩阵用于对三维摄像坐标系和二维图像平面坐标系之间进行映射,所述视矩阵用于对所述三维摄像坐标系和世界坐标系之间进行映射;
将所述手势框选区域的四个顶点中各所述顶点的二维坐标转换为标准化设备坐标;
将所述标准化设备坐标乘以所述摄像设备的投影矩阵的逆矩阵,得到所述摄像坐标系下的向量,所述向量用于表征从所述摄像设备的位置出发通过所述标准化设备坐标所发出的三维射线的方向;
基于所述视矩阵,将所述摄像坐标系下的向量转换到所述世界坐标系,得到所述顶点在所述世界坐标系下对应的射线。
10.根据权利要求7所述的装置,其特征在于,所述第二确定模块,具体用于:
从所述虚拟对象在所述虚拟空间场景中的三维区域中的各个设定点击区域中选择被所述三维区域覆盖的目标设定点击区域;
将所述目标设定点击区域确定为所述输入手势和所述虚拟对象之间的第一重合区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311727977.9A CN117406867B (zh) | 2023-12-15 | 2023-12-15 | 一种基于网页的增强现实交互方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311727977.9A CN117406867B (zh) | 2023-12-15 | 2023-12-15 | 一种基于网页的增强现实交互方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117406867A CN117406867A (zh) | 2024-01-16 |
CN117406867B true CN117406867B (zh) | 2024-02-09 |
Family
ID=89487544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311727977.9A Active CN117406867B (zh) | 2023-12-15 | 2023-12-15 | 一种基于网页的增强现实交互方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117406867B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106980362A (zh) * | 2016-10-09 | 2017-07-25 | 阿里巴巴集团控股有限公司 | 基于虚拟现实场景的输入方法及装置 |
CN108304590A (zh) * | 2018-03-09 | 2018-07-20 | 百度在线网络技术(北京)有限公司 | 虚拟现实的网页展示方法、装置、设备及计算机可读介质 |
KR20190000069A (ko) * | 2017-06-22 | 2019-01-02 | 한국전자통신연구원 | 가상 체험 콘텐츠 제공 방법 및 이를 위한 장치 |
CN109643212A (zh) * | 2016-09-20 | 2019-04-16 | 苹果公司 | 3d文档编辑系统 |
CN112051961A (zh) * | 2020-09-04 | 2020-12-08 | 脸萌有限公司 | 虚拟交互方法、装置、电子设备及计算机可读存储介质 |
CN112424727A (zh) * | 2018-05-22 | 2021-02-26 | 奇跃公司 | 用于可穿戴系统的跨模态输入融合 |
KR20210067841A (ko) * | 2019-11-29 | 2021-06-08 | 주식회사 이앤지테크 | Vr 영상 컨텐츠 제작 및 vr 뷰 웹(앱) 솔루션 지원시스템 및 그 구동방법 |
CN115131547A (zh) * | 2021-03-25 | 2022-09-30 | 华为技术有限公司 | Vr/ar设备截取图像的方法、装置及系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7680694B2 (en) * | 2004-03-11 | 2010-03-16 | American Express Travel Related Services Company, Inc. | Method and apparatus for a user to shop online in a three dimensional virtual reality setting |
GB0521796D0 (en) * | 2005-10-26 | 2005-12-07 | Cardu Salvatore | Gtgvr software application |
US10593105B2 (en) * | 2016-11-10 | 2020-03-17 | Karan Singh | Method and system for linking a first virtual reality (VR) immersive space with a second VR immersive space |
EP3435250A1 (en) * | 2017-07-27 | 2019-01-30 | Vestel Elektronik Sanayi ve Ticaret A.S. | Method, apparatus and computer program for overlaying a web page on a 3d object |
US10591730B2 (en) * | 2017-08-25 | 2020-03-17 | II Jonathan M. Rodriguez | Wristwatch based interface for augmented reality eyewear |
KR20210138923A (ko) * | 2020-05-13 | 2021-11-22 | 삼성전자주식회사 | 증강 현실 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법 |
-
2023
- 2023-12-15 CN CN202311727977.9A patent/CN117406867B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109643212A (zh) * | 2016-09-20 | 2019-04-16 | 苹果公司 | 3d文档编辑系统 |
CN106980362A (zh) * | 2016-10-09 | 2017-07-25 | 阿里巴巴集团控股有限公司 | 基于虚拟现实场景的输入方法及装置 |
KR20190000069A (ko) * | 2017-06-22 | 2019-01-02 | 한국전자통신연구원 | 가상 체험 콘텐츠 제공 방법 및 이를 위한 장치 |
CN108304590A (zh) * | 2018-03-09 | 2018-07-20 | 百度在线网络技术(北京)有限公司 | 虚拟现实的网页展示方法、装置、设备及计算机可读介质 |
CN112424727A (zh) * | 2018-05-22 | 2021-02-26 | 奇跃公司 | 用于可穿戴系统的跨模态输入融合 |
KR20210067841A (ko) * | 2019-11-29 | 2021-06-08 | 주식회사 이앤지테크 | Vr 영상 컨텐츠 제작 및 vr 뷰 웹(앱) 솔루션 지원시스템 및 그 구동방법 |
CN112051961A (zh) * | 2020-09-04 | 2020-12-08 | 脸萌有限公司 | 虚拟交互方法、装置、电子设备及计算机可读存储介质 |
CN115131547A (zh) * | 2021-03-25 | 2022-09-30 | 华为技术有限公司 | Vr/ar设备截取图像的方法、装置及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN117406867A (zh) | 2024-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7337104B2 (ja) | 拡張現実によるモデル動画多平面インタラクション方法、装置、デバイス及び記憶媒体 | |
JP6100698B2 (ja) | 画像処理を行うことにより、現実空間にある対象物の奥行きを定める画像処理装置、立体視装置、集積回路、プログラム | |
CN110163942B (zh) | 一种图像数据处理方法和装置 | |
US11257300B2 (en) | Scalable three-dimensional object recognition in a cross reality system | |
KR20160013928A (ko) | Hud 객체 설계 및 방법 | |
JP2011022984A (ja) | 立体映像インタラクティブシステム | |
JP2004199496A (ja) | 情報処理装置および方法、並びにプログラム | |
US10950056B2 (en) | Apparatus and method for generating point cloud data | |
CN116097316A (zh) | 用于非模态中心预测的对象识别神经网络 | |
GB2559850A (en) | Stroke operation prediction for three-dimensional digital content | |
CN110286906B (zh) | 用户界面显示方法、装置、存储介质与移动终端 | |
CN116778058B (zh) | 一种智能展厅的智能交互系统 | |
CN107481307B (zh) | 一种快速渲染三维场景的方法 | |
CN117406867B (zh) | 一种基于网页的增强现实交互方法及装置 | |
CN109375866B (zh) | 一种屏幕触摸点击响应的方法及实现的系统 | |
Valentini | Natural interface in augmented reality interactive simulations: This paper demonstrates that the use of a depth sensing camera that helps generate a three-dimensional scene and track user's motion could enhance the realism of the interactions between virtual and physical objects | |
CN115439634B (zh) | 点云数据的交互呈现方法和存储介质 | |
CN113920282B (zh) | 图像处理方法和装置、计算机可读存储介质、电子设备 | |
Thiel et al. | Interaction and locomotion techniques for the exploration of massive 3D point clouds in VR environments | |
Xin et al. | Application of 3D tracking and registration in exhibition hall navigation interaction | |
KR20140078083A (ko) | 증강 현실이 구현된 만화책 | |
Tenmoku et al. | Annotating user-viewed objects for wearable AR systems | |
US11694376B2 (en) | Intuitive 3D transformations for 2D graphics | |
Chanda et al. | Analysis of Multi Touch Interactive Device for a Cost Effective Architecture | |
US20240029379A1 (en) | Image processing apparatus, image processing method, and computer-readable recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |