CN114373064A - 一种vrar内容编辑方法、装置、设备及介质 - Google Patents
一种vrar内容编辑方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN114373064A CN114373064A CN202111525904.2A CN202111525904A CN114373064A CN 114373064 A CN114373064 A CN 114373064A CN 202111525904 A CN202111525904 A CN 202111525904A CN 114373064 A CN114373064 A CN 114373064A
- Authority
- CN
- China
- Prior art keywords
- content
- coordinates
- collision
- cursor
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000003384 imaging method Methods 0.000 claims abstract description 47
- 230000004044 response Effects 0.000 claims abstract description 23
- 238000012217 deletion Methods 0.000 claims description 10
- 230000037430 deletion Effects 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 230000005855 radiation Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 17
- 238000004590 computer program Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000009877 rendering Methods 0.000 description 5
- 101100134058 Caenorhabditis elegans nth-1 gene Proteins 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Architecture (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开涉及一种VRAR内容编辑方法、装置、设备及介质,该方法包括:在画布上检测到输入框时,添加与所述输入框大小及位置相同的碰撞盒;检测到传感射线与碰撞盒发生碰撞时,确定碰撞点在三维成像空间中的三维坐标;根据画布中元素相对于画布所在坐标系的坐标定义方式,将碰撞点在三维成像空间中的三维坐标转换到画布所在坐标系所对应的碰撞点坐标;根据输入框内的内容元素在画布所在坐标系的元素坐标及所述碰撞点坐标,确定碰撞点对应的光标位置并显示;响应于内容编辑指令,在所述光标位置编辑内容元素。本公开提高了用户编辑的效率,增强了用户体验感。
Description
技术领域
本公开涉及增强现实技术领域,尤其涉及一种VRAR内容编辑方法、装置、设备及介质。
背景技术
目前VR(Virtual Reality,虚拟现实)和AR(Augmented Reality,增强现实)设备主要是通过操控手柄射线或焦点进行点击式的输入,或直接进行语音输入,用户无法通过像手机、平板中的触摸屏进行触摸式的快速输入。
为了保证在VR/AR中的用户可以清晰的看到输入法键盘,往往在3D(3Dimensions,三维)空间中键盘的比例较大,即在用户面前占据了很大的角度。在这样的键盘中,假设用户输入Q之后输入P,需要操作射线或者焦点跨过很大的空间。因此在VR/AR中用户输入效率差,语音识别往往有一定的误差,并且在用户输入后需要修改时,又需要全部删掉重新输入,效率低,用户体验差。
发明内容
本公开提供一种VRAR内容编辑方法、装置、设备及介质,提高用户编辑的效率,增强了用户体验感。
根据本公开实施例的第一方面,提供一种VRAR内容编辑方法,该方法包括:
在画布上检测到输入框时,添加与所述输入框大小及位置相同的碰撞盒;
检测到传感射线与碰撞盒发生碰撞时,确定碰撞点在三维成像空间中的三维坐标;
根据画布中元素相对于画布所在坐标系的坐标定义方式,将碰撞点在三维成像空间中的三维坐标转换到画布所在坐标系所对应的碰撞点坐标;
根据输入框内的内容元素在画布所在坐标系的元素坐标及所述碰撞点坐标,确定碰撞点对应的光标位置并显示;
响应于内容编辑指令,在所述光标位置编辑内容元素。
在一种可能的实现方式中,所述将碰撞点在三维成像空间中的三维坐标转换到画布所在坐标系所对应的碰撞点坐标,包括:
确定画布中心点在三维成像空间中的三维坐标;
将所述碰撞点在三维成像空间中的三维坐标与画布中心点在三维成像空间中的三维坐标相减,获得所述碰撞点坐标。
在一种可能的实现方式中,所述检测到传感射线与碰撞盒发生碰撞,包括:
为所述输入框添加组件;
确定所述输入框为激活状态时,开启所述组件;
确定所述组件开启时,检测传感射线与碰撞盒进行碰撞的情况。
在一种可能的实现方式中,所述根据输入框内的内容元素在画布所在坐标系的元素坐标及所述碰撞点坐标,确定碰撞点对应的光标位置,包括:
遍历输入框内的内容元素,比较所述碰撞点坐标与各内容元素的第一轴坐标,确定光标所在的行;比较所述碰撞点坐标与该行内容元素的第二轴坐标,确定光标所在的列;或者遍历输入框内的内容元素,比较所述碰撞点坐标与各内容元素的第二轴坐标,确定光标所在的列;比较所述碰撞点坐标与该列内容元素的第一轴坐标,确定光标所在的行;
根据所述确定的光标所在的行和列,确定光标位置。
在一种可能的实现方式中,所述比较所述碰撞点坐标与各内容元素的第一轴坐标,确定光标所在的行,包括:
根据各内容元素的第一轴坐标确定各内容元素所占行的上下边界,检测到碰撞点的第一轴坐标位于同列内容元素所占相邻两行的上边界之间时,将相邻两行的靠上一行作为光标位置所在的行;或者
比较所述碰撞点坐标与该列内容元素的第一轴坐标,确定光标所在的行,包括:
根据光标所在的列内容元素的第一轴坐标,确定光标所在列的内容元素所占行的上下边界,检测到碰撞点的第一轴坐标位于该列内容元素所占相邻两行的上边界之间时,将相邻两行的靠上一行作为光标位置所在的行。
在一种可能的实现方式中,所述比较所述碰撞点坐标与各内容元素的第二轴坐标,确定光标所在的列,包括:
根据各内容元素的第二轴坐标,确定各内容元素所占列的左右边界;
检测到碰撞点的第二轴坐标位于同行内容元素所占相邻两列的左边界之间时,若碰撞点的第二轴坐标在左列内容元素的左边界与左列内容元素中心点之间,确定光标位置在所述左列内容元素的左边界处,否则,确定光标位置在所述左列内容元素的右边界处;
比较所述碰撞点坐标与该行内容元素的第二轴坐标,确定光标所在的列,包括:
根据光标所在的行内容元素的第二轴坐标,确定光标所在行的内容元素所占列的左右边界;
检测到碰撞点的第二轴坐标位于光标所在行内容元素所占相邻两列的左边界之间时,若碰撞点的第二轴坐标在左列内容元素的左边界与左列内容元素中心点之间,确定光标位置在所述左列内容元素的左边界处,否则,确定光标位置在所述左列内容元素的右边界处。
在一种可能的实现方式中,所述响应于内容编辑指令,在所述光标位置编辑内容元素,包括:
响应于内容输入指令,在所述光标位置输入内容元素;
响应于内容删除指令,在所述光标位置删除内容元素。
根据本公开实施例的第二方面,提供一种VRAR内容编辑装置,该装置包括:
碰撞盒添加模块,用于在画布上检测到输入框时,添加与所述输入框大小及位置相同的碰撞盒;
碰撞点坐标确定模块,用于检测到传感射线与碰撞盒发生碰撞时,确定碰撞点在三维成像空间中的三维坐标;
碰撞点坐标转换模块,用于根据画布中元素相对于画布所在坐标系的坐标定义方式,将碰撞点在三维成像空间中的三维坐标转换到画布所在坐标系所对应的碰撞点坐标;
光标位置确定模块,用于根据输入框内的内容元素在画布所在坐标系的元素坐标及所述碰撞点坐标,确定碰撞点对应的光标位置并显示;
内容编辑模块,用于响应于内容编辑指令,在所述光标位置编辑内容元素。
根据本公开实施例的第三方面,提供一种电子设备包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器通过运行所述可执行指令以实现上述VRAR内容编辑方法的步骤。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现上述VRAR内容编辑方法的步骤。
另外,第二方面至第四方面中任一种实现方式所带来的技术效果可参见第一方面中不同实现方式所带来的技术效果,此处不再赘述。
本公开的实施例提供的技术方案至少带来以下有益效果:
本公开支持文字和语音两种输入方式,并且通过在输入框添加一个与所述输入框大小及位置相同的碰撞盒,确定在传感射线与碰撞盒的碰撞点对应的位置插入光标,从而实现在光标位置的删除、输入等编辑操作,极大提高用户编辑效率和准确率,增强用户体验感。
附图说明
为了更清楚地说明本公开实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是根据一示例性实施例示出的应用场景示意图;
图2是根据一示例性实施例示出的一种VRAR内容编辑方法的流程图;
图3是根据一示例性实施例示出的用户与VRAR设备进行交互的流程图;
图4是根据一示例性实施例示出的用户向输入框发射传感射线的示意图;
图5是根据一示例性实施例示出的在输入框一行内容中确定光标位置的示意图;
图6是根据一示例性实施例示出的在输入框多行内容中确定光标位置的流程图;
图7是根据一示例性实施例示出的一种VRAR内容编辑装置的模块结构示意图;
图8是根据一示例性实施例示出的一种VRAR内容编辑方法的电子设备示意图;
图9是根据一示例性实施例示出的一种VRAR内容编辑方法的程序产品示意图。
具体实施方式
为了使本公开的目的、技术方案和优点更加清楚,下面将结合附图对本公开作进一步地详细描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本公开保护的范围。
下面对文中出现的一些词语进行解释:
1、本公开实施例中术语“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
2、本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。
本公开实施例描述的应用场景是为了更加清楚的说明本公开实施例的技术方案,并不构成对于本公开实施例提供的技术方案的限定,本领域普通技术人员可知,随着新应用场景的出现,本公开实施例提供的技术方案对于类似的技术问题,同样适用。其中,在本公开的描述中,除非另有说明,“多个”的含义是两个或两个以上。
用户在进行内容编辑时,需要通过光标进行随意编辑。光标在手机、电脑端等2D(2Dimensions,二维)屏幕场景实现比较普遍,但在VRAR的3D场景中实现方式有所不同:
在2D场景中,屏幕坐标系为2D坐标系,用户的可视区域为固定的,即手机屏幕或者电脑显示器等。用户的可视区域固定后,对应的鼠标或者用户触摸点的区域也是固定的,这样鼠标或用户触摸点的坐标容易确定,文字的位置也容易确定,这样光标的位置即可确定,插入光标即可。
而在3D场景中,坐标系为3D坐标系,用户的可视区域不是固定的,用户可任意旋转设备,进行360度的观看。用户的输入区域可能在水平360度观看角度的任意角度。在用户输入时,光标跟随文字的输入进行右移,光标每次的移动距离为文字的宽度,此处与传统的光标一致。但在光标插入时,使用的交互为射线方式,即从用户手柄或者头盔视角原点发射一条射线,由射线检测与UI或3D物体的碰撞来进行交互,从而确定光标位置。
现有技术中将整个画布都为可检测区域,实时判断传感射线碰撞到画布的焦点在画布区域进行位置是否在画布区域来检测,从而进行光标位置的确定。因此,用户进行内容编辑的效率低下,用户体验感差。
因此,本公开提供了一种VRAR内容编辑方法、装置、设备及介质,提高用户编辑的效率。
首先参考图1,其为本公开实施例的应用场景示意图,包括采集端101、云端102、渲染端103,采集端包括RGBD相机101_1、主机/工作站101_2。其中RGBD相机101_1用于采集二维图像;主机/工作站101_2用于对采集的二维图像进行相应的处理;云端102用于数据的传输;渲染端103包括手机、电视、VR/AR头盔,用于三维图像的重建。
需要说明的是,图1示出的系统架构可根据不同的使用场景进行部署,比如在直播场景中,主播端设置本系统的采集端设备,用户可以通过VR/AR眼镜、手机、电视等进行重建模型的浏览;再比如在会议场景中,远程会议的两个会议室需要同时布置采集端设备与渲染显示端设备,进行两个会议室内的实时三维通讯。
在渲染端显示界面,用户打开输入框,并使用手柄或者头盔视角原点向添加碰撞盒的输入框发射一条传感射线后,渲染端通过传感射线与碰撞盒的碰撞点确定光标位置并显示。用户在显示的光标位置处进行内容编辑。
本公开实施例中,渲染端在画布上检测到输入框时,添加与所述输入框大小及位置相同的碰撞盒;检测到传感射线与碰撞盒发生碰撞时,确定碰撞点在三维成像空间中的三维坐标;根据画布中元素相对于画布所在坐标系的坐标定义方式,将碰撞点在三维成像空间中的三维坐标转换到画布所在坐标系所对应的碰撞点坐标;根据输入框内的内容元素在画布所在坐标系的元素坐标及所述碰撞点坐标,确定碰撞点对应的光标位置并在界面上显示;响应于用户的内容编辑指令,在所述光标位置编辑内容元素。
本公开实施例中,提供了一种VRAR内容编辑方法,本公开基于同一构思,还提供了一种VRAR内容编辑装置、一种电子设备以及一种计算机可读存储介质。
实施例1
下面通过具体的实施例对本公开提供的一种VRAR内容编辑方法进行说明,如图2所示,包括:
步骤201,在画布上检测到输入框时,添加与所述输入框大小及位置相同的碰撞盒;
在三维成像的空间里,所述输入框伴随UI(User Interface,用户界面)界面的显示而开始显示,例如用户登录界面,输入用户名和密码的区域均为输入框。上述碰撞盒是可检测的盒子状碰撞区域,在三维开发中可以使用碰撞盒来进行交互的检测。在为所述输入框添加碰撞盒时,若所述输入框已有碰撞盒,则不需要重复添加。并且也需要为所述输入框添加一个组件,在确定所述输入框为激活状态时,开启所述组件。所述组件开启后,按照相应的时间间隔,在每一帧检测传感射线与碰撞盒进行碰撞的情况。
步骤202,检测到传感射线与碰撞盒发生碰撞时,确定碰撞点在三维成像空间中的三维坐标;
当组件检测到传感射线与碰撞盒发生碰撞时,计算所述传感射线与碰撞盒的碰撞点在三维成像空间中的三维坐标。
其中,三维成像空间中的三维坐标系可以通过以下方式定义:以3D场景世界中的摄像机位置为原点(0,0,0)点,摄像机正前方为向量(0,0,1),摄像机正右方为向量(1,0,0),摄像机正上方为向量(0,1,0)。
步骤203,根据画布中元素相对于画布所在坐标系的坐标定义方式,将碰撞点在三维成像空间中的三维坐标转换到画布所在坐标系所对应的碰撞点坐标;
由于可以直接获取输入框内的内容元素在画布所在坐标系的元素坐标,因此需要将碰撞点在三维成像空间中的三维坐标进行转换。
上述画布所在的坐标系可以用以下方式定义:以画布中的中心点为原点,以输入框中内容元素的行为X轴,以输入框中内容元素的列为Y轴。
步骤204,根据输入框内的内容元素在画布所在坐标系的元素坐标及所述碰撞点坐标,确定碰撞点对应的光标位置并显示;
步骤205,响应于内容编辑指令,在所述光标位置编辑内容元素。
上述内容编辑指令包括输入指令和删除指令,当为输入指令时,响应于内容输入指令,在所述光标位置输入内容元素;当为输出指令时,响应于内容删除指令,在所述光标位置删除内容元素。
本公开支持文字及语音两种输入方式,用户可随意使用这两种方式进行输入,并且通过给输入框加一个碰撞盒,即可计算光标的位置,进而插入光标进行快速输入及删除,极大提高用户编辑的效率和准确率,增强了用户体验感。
当用户使用VRAR头控设备时,在用户登录等界面中,用户触发编辑指令后,会在画布(Canvas)上进行显示。在画布上检测到输入框时,添加组件与所述输入框大小及位置相同的碰撞盒,若所述输入框已有碰撞盒或组件,则不需要重复添加。如图3所示,用户打开输入框后,为所述输入框添加碰撞盒和组件,并将所述输入框在界面显示。
组件实时检测传感射线与碰撞盒进行碰撞的情况,当检测到传感射线与碰撞盒发生碰撞时,确定碰撞点在三维成像空间中的三维坐标。若图3所示,当用户使用手柄或者头盔视角原点发射的传感射线点击输入框或输入框内位置时,计算光标位置并显示。
由于可以直接获取输入框内的内容元素在画布所在坐标系的元素坐标,所以需要根据画布中元素相对于画布所在坐标系的坐标定义方式,将碰撞点在三维成像空间中的三维坐标转换到画布所在坐标系所对应的碰撞点坐标。
上述转换方式可以为:确定画布中心点在三维成像空间中的三维坐标;将所述碰撞点在三维成像空间中的三维坐标与画布中心点在三维成像空间中的三维坐标相减,获得所述碰撞点坐标。
例如,假设碰撞点在三维成像空间中的三维坐标为(X0,Y0,Z0),画布中心点在三维成像空间中的三维坐标为(X1,Y1,Z1),可以根据以下公式计算出碰撞点基于画布的相对位置,也就是所述碰撞点坐标:
X2=X0–X1;
Y2=Y0–Y1;
Z2=Z0–Z1;
其中,所述碰撞点坐标为(X2,Y2,Z2)。
在确定碰撞点坐标之后,根据输入框内的内容元素在画布所在坐标系的元素坐标及所述碰撞点坐标,确定碰撞点对应的光标位置并显示,其有下列两种方式确定碰撞点对应的光标位置:
方式1,遍历输入框内的内容元素,比较所述碰撞点坐标与各内容元素的第一轴坐标,确定光标所在的行;比较所述碰撞点坐标与该行内容元素的第二轴坐标,确定光标所在的列;
方式2,遍历输入框内的内容元素,比较所述碰撞点坐标与各内容元素的第二轴坐标,确定光标所在的列;比较所述碰撞点坐标与该列内容元素的第一轴坐标,确定光标所在的行。
当采用上述方式1确定碰撞点对应的光标位置时:
首先,根据各内容元素的第一轴坐标确定各内容元素所占行的上下边界,检测到碰撞点的第一轴坐标位于同列内容元素所占相邻两行的上边界之间时,将相邻两行的靠上一行作为光标位置所在的行;
然后,根据光标所在的行内容元素的第二轴坐标,确定光标所在行的内容元素所占列的左右边界;
检测到碰撞点的第二轴坐标位于光标所在行内容元素所占相邻两列的左边界之间时,若碰撞点的第二轴坐标在左列内容元素的左边界与左列内容元素中心点之间,确定光标位置在所述左列内容元素的左边界处,否则,确定光标位置在所述左列内容元素的右边界处;
最后,根据所述确定的光标所在的行和列,确定光标位置。
如图4所示,由于输入框与用户的距离固定,因此Z轴坐标相同,在进行光标位置确定时,不需要考虑Z轴坐标。如图5所示,第二轴坐标为X轴坐标,第一轴坐标为Y轴坐标,由于在输入框中仅有一行文字,因此,在进行光标位置确定时,不需要考虑Y轴坐标,仅考虑X轴坐标。将输入框内的文字从左到右进行遍历,当首次出现第m个文字的左侧X轴坐标大于碰撞点X轴坐标时,判断第m-1个文字中心点的X轴坐标与碰撞点X的大小。如果第m-1个文字中心点的X轴坐标小于等于碰撞点X轴坐标,则确定光标位置在第m-1个文字的右侧,否则,确定光标位置在第m-1个文字的左侧。
如图6所示,第二轴坐标为X轴坐标,第一轴坐标为Y轴坐标,由于在输入框中有多行文字,因此,在进行光标位置确定时,需要考虑X轴坐标和Y轴坐标。首先,将输入框内的文字从上到下进行遍历,当首次出现第n个文字的上侧Y轴坐标与碰撞点Y轴坐标的大小。若第n个文字的上侧Y轴坐标小于等于所述碰撞点的Y轴坐标时,判断第n-1个文字的上侧Y轴坐标大于等于所述碰撞点的Y轴坐标时,确定光标位置在第n-1个文字所在的行。然后,将所述确定行中的文字从左到右进行遍历,当首次出现第m个文字的左侧X轴坐标大于碰撞点X轴坐标时,判断第m-1个文字中心点的X轴坐标与碰撞点X的大小。如果第m-1个文字中心点的X轴坐标小于等于碰撞点X轴坐标,则确定光标位置在所述确定行的第m-1个文字的右侧,否则,确定光标位置在所述确定行的第m-1个文字的左侧。
当采用上述方式2确定碰撞点对应的光标位置时:
首先,根据各内容元素的第二轴坐标,确定各内容元素所占列的左右边界;
检测到碰撞点的第二轴坐标位于同行内容元素所占相邻两列的左边界之间时,若碰撞点的第二轴坐标在左列内容元素的左边界与左列内容元素中心点之间,确定光标位置在所述左列内容元素的左边界处,否则,确定光标位置在所述左列内容元素的右边界处;
然后,根据光标所在的列内容元素的第一轴坐标,确定光标所在列的内容元素所占行的上下边界,检测到碰撞点的第一轴坐标位于该列内容元素所占相邻两行的上边界之间时,将相邻两行的靠上一行作为光标位置所在的行;
最后,根据所述确定的光标所在的行和列,确定光标位置。
如图6所示,第二轴坐标为X轴坐标,第一轴坐标为Y轴坐标,由于在输入框中有多行文字,因此,在进行光标位置确定时,需要考虑X轴坐标和Y轴坐标。首先,将所述输入框内的文字从左到右进行遍历,当首次出现第m个文字的左侧X轴坐标大于碰撞点X轴坐标时,判断第m-1个文字中心点的X轴坐标与碰撞点X的大小。如果第m-1个文字中心点的X轴坐标小于等于碰撞点X轴坐标,则确定光标位置在第m-1个文字的右侧,否则,确定光标位置在第m-1个文字的左侧。然后,将第m-1个文字所在列中的文字从上到下进行遍历,当首次出现第n个文字的上侧Y轴坐标与碰撞点Y轴坐标的大小。若第n个文字的上侧Y轴坐标小于等于所述碰撞点的Y轴坐标时,判断第n-1个文字的上侧Y轴坐标大于等于所述碰撞点的Y轴坐标时,确定光标位置在所述确定的列中的第n-1个文字所在的行。
当根据以上两种方式确定碰撞点对应的光标位置之后,响应于内容编辑指令,在所述光标位置编辑内容元素。如图3所示,在所述光标位置处进行输入或删除。
响应于内容输入指令,在所述光标位置输入内容元素,如图5所示,若光标位置在第4个文字之后,光标随着文字的输入进行右移,光标每次的移动距离为文字的宽度;
响应于内容删除指令,在所述光标位置删除内容元素,如图5所示,若光标位置在第5个文字之后,光标随着文字的删除进行左移,光标每次的移动距离为文字的宽度。
实施例2
基于相同的发明构思,本公开实施例还提供一种VRAR内容编辑装置,由于该装置即是本公开实施例中的方法中的装置,并且该装置解决问题的原理与该方法相似,因此该装置的实施可以参见方法的实施,重复之处不再赘述。
如图7所示,上述装置包括以下模块:
碰撞盒添加模块701,用于在画布上检测到输入框时,添加与所述输入框大小及位置相同的碰撞盒;
碰撞点坐标确定模块702,用于检测到传感射线与碰撞盒发生碰撞时,确定碰撞点在三维成像空间中的三维坐标;
碰撞点坐标转换模块703,用于根据画布中元素相对于画布所在坐标系的坐标定义方式,将碰撞点在三维成像空间中的三维坐标转换到画布所在坐标系所对应的碰撞点坐标;
光标位置确定模块704,用于根据输入框内的内容元素在画布所在坐标系的元素坐标及所述碰撞点坐标,确定碰撞点对应的光标位置并显示;
内容编辑模块705,用于响应于内容编辑指令,在所述光标位置编辑内容元素。
作为一种可选的实施方式,所述碰撞点坐标转换模块,用于将碰撞点在三维成像空间中的三维坐标转换到画布所在坐标系所对应的碰撞点坐标,包括:
确定画布中心点在三维成像空间中的三维坐标;
将所述碰撞点在三维成像空间中的三维坐标与画布中心点在三维成像空间中的三维坐标相减,获得所述碰撞点坐标。
作为一种可选的实施方式,所述碰撞点坐标确定模块,用于检测到传感射线与碰撞盒发生碰撞,包括:
为所述输入框添加组件;
确定所述输入框为激活状态时,开启所述组件;
确定所述组件开启时,检测传感射线与碰撞盒进行碰撞的情况。
作为一种可选的实施方式,所述光标位置确定模块,用于根据输入框内的内容元素在画布所在坐标系的元素坐标及所述碰撞点坐标,确定碰撞点对应的光标位置,包括:
遍历输入框内的内容元素,比较所述碰撞点坐标与各内容元素的第一轴坐标,确定光标所在的行;比较所述碰撞点坐标与该行内容元素的第二轴坐标,确定光标所在的列;或者遍历输入框内的内容元素,比较所述碰撞点坐标与各内容元素的第二轴坐标,确定光标所在的列;比较所述碰撞点坐标与该列内容元素的第一轴坐标,确定光标所在的行;
根据所述确定的光标所在的行和列,确定光标位置。
作为一种可选的实施方式,所述光标位置确定模块,用于比较所述碰撞点坐标与各内容元素的第一轴坐标,确定光标所在的行,包括:
根据各内容元素的第一轴坐标确定各内容元素所占行的上下边界,检测到碰撞点的第一轴坐标位于同列内容元素所占相邻两行的上边界之间时,将相邻两行的靠上一行作为光标位置所在的行;或者
比较所述碰撞点坐标与该列内容元素的第一轴坐标,确定光标所在的行,包括:
根据光标所在的列内容元素的第一轴坐标,确定光标所在列的内容元素所占行的上下边界,检测到碰撞点的第一轴坐标位于该列内容元素所占相邻两行的上边界之间时,将相邻两行的靠上一行作为光标位置所在的行。
作为一种可选的实施方式,所述光标位置确定模块,用于比较所述碰撞点坐标与各内容元素的第二轴坐标,确定光标所在的列,包括:
根据各内容元素的第二轴坐标,确定各内容元素所占列的左右边界;
检测到碰撞点的第二轴坐标位于同行内容元素所占相邻两列的左边界之间时,若碰撞点的第二轴坐标在左列内容元素的左边界与左列内容元素中心点之间,确定光标位置在所述左列内容元素的左边界处,否则,确定光标位置在所述左列内容元素的右边界处;
比较所述碰撞点坐标与该行内容元素的第二轴坐标,确定光标所在的列,包括:
根据光标所在的行内容元素的第二轴坐标,确定光标所在行的内容元素所占列的左右边界;
检测到碰撞点的第二轴坐标位于光标所在行内容元素所占相邻两列的左边界之间时,若碰撞点的第二轴坐标在左列内容元素的左边界与左列内容元素中心点之间,确定光标位置在所述左列内容元素的左边界处,否则,确定光标位置在所述左列内容元素的右边界处。
作为一种可选的实施方式,所述内容编辑模块,用于响应于内容编辑指令,在所述光标位置编辑内容元素,包括:
响应于内容输入指令,在所述光标位置输入内容元素;
响应于内容删除指令,在所述光标位置删除内容元素。
实施例3
基于相同的发明构思,本公开实施例中还提供了一种VRAR内容编辑电子设备,由于该电子设备即是本公开实施例中的方法中的电子设备,并且该电子设备解决问题的原理与该方法相似,因此该电子设备的实施可以参见方法的实施,重复之处不再赘述。
下面参照图8来描述根据本公开的这种实施方式的电子设备80。图8显示的电子设备80仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,电子设备80可以以通用计算设备的形式表现,例如其可以为终端设备。电子设备80的组件可以包括但不限于:上述至少一个处理器81、上述至少一个存储处理器可执行指令的存储器82、连接不同系统组件(包括存储器82和处理器81)的总线83。
所述处理器通过运行所述可执行指令以实现如下步骤:
在画布上检测到输入框时,添加与所述输入框大小及位置相同的碰撞盒;
检测到传感射线与碰撞盒发生碰撞时,确定碰撞点在三维成像空间中的三维坐标;
根据画布中元素相对于画布所在坐标系的坐标定义方式,将碰撞点在三维成像空间中的三维坐标转换到画布所在坐标系所对应的碰撞点坐标;
根据输入框内的内容元素在画布所在坐标系的元素坐标及所述碰撞点坐标,确定碰撞点对应的光标位置并显示;
响应于内容编辑指令,在所述光标位置编辑内容元素。
作为一种可选的实施方式,所述将碰撞点在三维成像空间中的三维坐标转换到画布所在坐标系所对应的碰撞点坐标,包括:
确定画布中心点在三维成像空间中的三维坐标;
将所述碰撞点在三维成像空间中的三维坐标与画布中心点在三维成像空间中的三维坐标相减,获得所述碰撞点坐标。
作为一种可选的实施方式,所述检测到传感射线与碰撞盒发生碰撞,包括:
为所述输入框添加组件;
确定所述输入框为激活状态时,开启所述组件;
确定所述组件开启时,检测传感射线与碰撞盒进行碰撞的情况。
作为一种可选的实施方式,所述根据输入框内的内容元素在画布所在坐标系的元素坐标及所述碰撞点坐标,确定碰撞点对应的光标位置,包括:
遍历输入框内的内容元素,比较所述碰撞点坐标与各内容元素的第一轴坐标,确定光标所在的行;比较所述碰撞点坐标与该行内容元素的第二轴坐标,确定光标所在的列;或者遍历输入框内的内容元素,比较所述碰撞点坐标与各内容元素的第二轴坐标,确定光标所在的列;比较所述碰撞点坐标与该列内容元素的第一轴坐标,确定光标所在的行;
根据所述确定的光标所在的行和列,确定光标位置。
作为一种可选的实施方式,所述比较所述碰撞点坐标与各内容元素的第一轴坐标,确定光标所在的行,包括:
根据各内容元素的第一轴坐标确定各内容元素所占行的上下边界,检测到碰撞点的第一轴坐标位于同列内容元素所占相邻两行的上边界之间时,将相邻两行的靠上一行作为光标位置所在的行;或者
比较所述碰撞点坐标与该列内容元素的第一轴坐标,确定光标所在的行,包括:
根据光标所在的列内容元素的第一轴坐标,确定光标所在列的内容元素所占行的上下边界,检测到碰撞点的第一轴坐标位于该列内容元素所占相邻两行的上边界之间时,将相邻两行的靠上一行作为光标位置所在的行。
作为一种可选的实施方式,所述比较所述碰撞点坐标与各内容元素的第二轴坐标,确定光标所在的列,包括:
根据各内容元素的第二轴坐标,确定各内容元素所占列的左右边界;
检测到碰撞点的第二轴坐标位于同行内容元素所占相邻两列的左边界之间时,若碰撞点的第二轴坐标在左列内容元素的左边界与左列内容元素中心点之间,确定光标位置在所述左列内容元素的左边界处,否则,确定光标位置在所述左列内容元素的右边界处;
比较所述碰撞点坐标与该行内容元素的第二轴坐标,确定光标所在的列,包括:
根据光标所在的行内容元素的第二轴坐标,确定光标所在行的内容元素所占列的左右边界;
检测到碰撞点的第二轴坐标位于光标所在行内容元素所占相邻两列的左边界之间时,若碰撞点的第二轴坐标在左列内容元素的左边界与左列内容元素中心点之间,确定光标位置在所述左列内容元素的左边界处,否则,确定光标位置在所述左列内容元素的右边界处。
作为一种可选的实施方式,所述响应于内容编辑指令,在所述光标位置编辑内容元素,包括:
响应于内容输入指令,在所述光标位置输入内容元素;
响应于内容删除指令,在所述光标位置删除内容元素。
总线83表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器、外围总线、处理器或者使用多种总线结构中的任意总线结构的局域总线。
存储器82可以包括易失性存储器形式的可读介质,例如随机存取存储器(RAM)821和/或高速缓存存储器822,还可以进一步包括只读存储器(ROM)823。
存储器82还可以包括具有一组(至少一个)程序模块824的程序/实用工具825,这样的程序模块824包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
电子设备80也可以与一个或多个外部设备84(例如键盘、指向设备等)通信,还可与一个或者多个使得用户能与电子设备80交互的设备通信,和/或与使得电子设备80能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口85进行。并且,电子设备80还可以通过网络适配器86与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器86通过总线83与电子设备80的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备80使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
实施例4
在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的VRAR内容编辑装置中各模块的步骤,例如,终端设备可以用于在画布上检测到输入框时,添加与所述输入框大小及位置相同的碰撞盒;检测到传感射线与碰撞盒发生碰撞时,确定碰撞点在三维成像空间中的三维坐标;根据画布中元素相对于画布所在坐标系的坐标定义方式,将碰撞点在三维成像空间中的三维坐标转换到画布所在坐标系所对应的碰撞点坐标;根据输入框内的内容元素在画布所在坐标系的元素坐标及所述碰撞点坐标,确定碰撞点对应的光标位置并显示;响应于内容编辑指令,在所述光标位置编辑内容元素等操作。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
如图9所示,描述了根据本公开的实施方式的用于VRAR内容编辑的程序产品90,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了系统的若干模块或子模块,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块的特征和功能可以在一个模块中具体化。反之,上文描述的一个模块的特征和功能可以进一步划分为由多个模块来具体化。
此外,尽管在附图中以特定顺序描述了本公开系统各模块的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些操作,将多个操作合并为一个操作执行,和/或将一个操作分解为多个操作执行。
本领域内的技术人员应明白,本公开的实施例可提供为方法、系统、或计算机程序产品。因此,本公开可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本公开是参照根据本公开实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的设备。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令设备的制造品,该指令设备实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (10)
1.一种VRAR内容编辑方法,其特征在于,该方法包括:
在画布上检测到输入框时,添加与所述输入框大小及位置相同的碰撞盒;
检测到传感射线与碰撞盒发生碰撞时,确定碰撞点在三维成像空间中的三维坐标;
根据画布中元素相对于画布所在坐标系的坐标定义方式,将碰撞点在三维成像空间中的三维坐标转换到画布所在坐标系所对应的碰撞点坐标;
根据输入框内的内容元素在画布所在坐标系的元素坐标及所述碰撞点坐标,确定碰撞点对应的光标位置并显示;
响应于内容编辑指令,在所述光标位置编辑内容元素。
2.根据权利要求1所述的方法,其特征在于,所述将碰撞点在三维成像空间中的三维坐标转换到画布所在坐标系所对应的碰撞点坐标,包括:
确定画布中心点在三维成像空间中的三维坐标;
将所述碰撞点在三维成像空间中的三维坐标与画布中心点在三维成像空间中的三维坐标相减,获得所述碰撞点坐标。
3.根据权利要求1所述的方法,其特征在于,所述检测到传感射线与碰撞盒发生碰撞,包括:
为所述输入框添加组件;
确定所述输入框为激活状态时,开启所述组件;
确定所述组件开启时,检测传感射线与碰撞盒进行碰撞的情况。
4.根据权利要求1所述的方法,其特征在于,所述根据输入框内的内容元素在画布所在坐标系的元素坐标及所述碰撞点坐标,确定碰撞点对应的光标位置,包括:
遍历输入框内的内容元素,比较所述碰撞点坐标与各内容元素的第一轴坐标,确定光标所在的行;比较所述碰撞点坐标与该行内容元素的第二轴坐标,确定光标所在的列;或者遍历输入框内的内容元素,比较所述碰撞点坐标与各内容元素的第二轴坐标,确定光标所在的列;比较所述碰撞点坐标与该列内容元素的第一轴坐标,确定光标所在的行;
根据所述确定的光标所在的行和列,确定光标位置。
5.根据权利要求4所述的方法,其特征在于,所述比较所述碰撞点坐标与各内容元素的第一轴坐标,确定光标所在的行,包括:
根据各内容元素的第一轴坐标确定各内容元素所占行的上下边界,检测到碰撞点的第一轴坐标位于同列内容元素所占相邻两行的上边界之间时,将相邻两行的靠上一行作为光标位置所在的行;或者
比较所述碰撞点坐标与该列内容元素的第一轴坐标,确定光标所在的行,包括:
根据光标所在的列内容元素的第一轴坐标,确定光标所在列的内容元素所占行的上下边界,检测到碰撞点的第一轴坐标位于该列内容元素所占相邻两行的上边界之间时,将相邻两行的靠上一行作为光标位置所在的行。
6.根据权利要求4所述的方法,其特征在于,所述比较所述碰撞点坐标与各内容元素的第二轴坐标,确定光标所在的列,包括:
根据各内容元素的第二轴坐标,确定各内容元素所占列的左右边界;
检测到碰撞点的第二轴坐标位于同行内容元素所占相邻两列的左边界之间时,若碰撞点的第二轴坐标在左列内容元素的左边界与左列内容元素中心点之间,确定光标位置在所述左列内容元素的左边界处,否则,确定光标位置在所述左列内容元素的右边界处;
比较所述碰撞点坐标与该行内容元素的第二轴坐标,确定光标所在的列,包括:
根据光标所在的行内容元素的第二轴坐标,确定光标所在行的内容元素所占列的左右边界;
检测到碰撞点的第二轴坐标位于光标所在行内容元素所占相邻两列的左边界之间时,若碰撞点的第二轴坐标在左列内容元素的左边界与左列内容元素中心点之间,确定光标位置在所述左列内容元素的左边界处,否则,确定光标位置在所述左列内容元素的右边界处。
7.根据权利要求1所述的方法,其特征在于,所述响应于内容编辑指令,在所述光标位置编辑内容元素,包括:
响应于内容输入指令,在所述光标位置输入内容元素;
响应于内容删除指令,在所述光标位置删除内容元素。
8.一种VRAR内容编辑装置,其特征在于,所述装置包括:
碰撞盒添加模块,用于在画布上检测到输入框时,添加与所述输入框大小及位置相同的碰撞盒;
碰撞点坐标确定模块,用于检测到传感射线与碰撞盒发生碰撞时,确定碰撞点在三维成像空间中的三维坐标;
碰撞点坐标转换模块,用于根据画布中元素相对于画布所在坐标系的坐标定义方式,将碰撞点在三维成像空间中的三维坐标转换到画布所在坐标系所对应的碰撞点坐标;
光标位置确定模块,用于根据输入框内的内容元素在画布所在坐标系的元素坐标及所述碰撞点坐标,确定碰撞点对应的光标位置并显示;
内容编辑模块,用于响应于内容编辑指令,在所述光标位置编辑内容元素。
9.一种电子设备,其特征在于,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器通过运行所述可执行指令以实现权利要求1至7任一项所述方法的步骤。
10.一种计算机可读写存储介质,其上存储有计算机指令,其特征在于,该指令被处理器执行时实现权利要求1至7任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111525904.2A CN114373064A (zh) | 2021-12-14 | 2021-12-14 | 一种vrar内容编辑方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111525904.2A CN114373064A (zh) | 2021-12-14 | 2021-12-14 | 一种vrar内容编辑方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114373064A true CN114373064A (zh) | 2022-04-19 |
Family
ID=81139937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111525904.2A Pending CN114373064A (zh) | 2021-12-14 | 2021-12-14 | 一种vrar内容编辑方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114373064A (zh) |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4807123A (en) * | 1980-10-20 | 1989-02-21 | Sharp Kabushiki Kaisha | Programmable system for inputting & Processing data using visually perceptible data entry frames |
US6091395A (en) * | 1997-12-15 | 2000-07-18 | International Business Machines Corporation | Computer system and method of manipulating a graphical user interface component on a computer display through collision with a pointer |
CN102799378A (zh) * | 2012-07-13 | 2012-11-28 | Tcl集团股份有限公司 | 一种立体碰撞检测物体拾取方法及装置 |
EP2624238A1 (en) * | 2012-02-02 | 2013-08-07 | Eurocopter España, S.A. | Virtual mock up with haptic hand held aid |
KR101672450B1 (ko) * | 2015-05-06 | 2016-11-04 | 주식회사 엔씨소프트 | 슈팅 게임에서 조준점을 결정하는 방법 및 슈팅 게임 처리 장치 |
WO2017143303A1 (en) * | 2016-02-17 | 2017-08-24 | Meta Company | Apparatuses, methods and systems for sharing virtual elements |
US20180348861A1 (en) * | 2017-05-31 | 2018-12-06 | Magic Leap, Inc. | Eye tracking calibration techniques |
CN108984262A (zh) * | 2018-07-12 | 2018-12-11 | 宁波视睿迪光电有限公司 | 三维指针的创建方法、装置及电子设备 |
CN110516222A (zh) * | 2019-08-30 | 2019-11-29 | 北京字节跳动网络技术有限公司 | 文本编辑方法、装置、设备、存储介质 |
US20190377487A1 (en) * | 2018-06-07 | 2019-12-12 | Magic Leap, Inc. | Augmented reality scrollbar |
WO2020199821A1 (zh) * | 2019-04-03 | 2020-10-08 | 腾讯科技(深圳)有限公司 | 用于模拟盲人感受的物体显示方法、装置及存储介质 |
US20200368616A1 (en) * | 2017-06-09 | 2020-11-26 | Dean Lindsay DELAMONT | Mixed reality gaming system |
CN112034988A (zh) * | 2017-08-31 | 2020-12-04 | 苹果公司 | 与增强和虚拟现实环境交互的系统、方法和图形用户界面 |
US20210055854A1 (en) * | 2019-08-20 | 2021-02-25 | Beijing Xiaomi Mobile Software Co., Ltd. | Method and apparatus of processing data, device and storage medium |
CN112424727A (zh) * | 2018-05-22 | 2021-02-26 | 奇跃公司 | 用于可穿戴系统的跨模态输入融合 |
-
2021
- 2021-12-14 CN CN202111525904.2A patent/CN114373064A/zh active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4807123A (en) * | 1980-10-20 | 1989-02-21 | Sharp Kabushiki Kaisha | Programmable system for inputting & Processing data using visually perceptible data entry frames |
US6091395A (en) * | 1997-12-15 | 2000-07-18 | International Business Machines Corporation | Computer system and method of manipulating a graphical user interface component on a computer display through collision with a pointer |
EP2624238A1 (en) * | 2012-02-02 | 2013-08-07 | Eurocopter España, S.A. | Virtual mock up with haptic hand held aid |
CN102799378A (zh) * | 2012-07-13 | 2012-11-28 | Tcl集团股份有限公司 | 一种立体碰撞检测物体拾取方法及装置 |
KR101672450B1 (ko) * | 2015-05-06 | 2016-11-04 | 주식회사 엔씨소프트 | 슈팅 게임에서 조준점을 결정하는 방법 및 슈팅 게임 처리 장치 |
WO2017143303A1 (en) * | 2016-02-17 | 2017-08-24 | Meta Company | Apparatuses, methods and systems for sharing virtual elements |
US20180348861A1 (en) * | 2017-05-31 | 2018-12-06 | Magic Leap, Inc. | Eye tracking calibration techniques |
US20200368616A1 (en) * | 2017-06-09 | 2020-11-26 | Dean Lindsay DELAMONT | Mixed reality gaming system |
CN112034988A (zh) * | 2017-08-31 | 2020-12-04 | 苹果公司 | 与增强和虚拟现实环境交互的系统、方法和图形用户界面 |
CN112424727A (zh) * | 2018-05-22 | 2021-02-26 | 奇跃公司 | 用于可穿戴系统的跨模态输入融合 |
US20190377487A1 (en) * | 2018-06-07 | 2019-12-12 | Magic Leap, Inc. | Augmented reality scrollbar |
CN108984262A (zh) * | 2018-07-12 | 2018-12-11 | 宁波视睿迪光电有限公司 | 三维指针的创建方法、装置及电子设备 |
WO2020199821A1 (zh) * | 2019-04-03 | 2020-10-08 | 腾讯科技(深圳)有限公司 | 用于模拟盲人感受的物体显示方法、装置及存储介质 |
US20210055854A1 (en) * | 2019-08-20 | 2021-02-25 | Beijing Xiaomi Mobile Software Co., Ltd. | Method and apparatus of processing data, device and storage medium |
CN110516222A (zh) * | 2019-08-30 | 2019-11-29 | 北京字节跳动网络技术有限公司 | 文本编辑方法、装置、设备、存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10657716B2 (en) | Collaborative augmented reality system | |
US11275481B2 (en) | Collaborative augmented reality system | |
EP3769509B1 (en) | Multi-endpoint mixed-reality meetings | |
CN107977141B (zh) | 交互控制方法、装置、电子设备及存储介质 | |
CN111142669B (zh) | 二维界面到三维场景的交互方法、装置、设备及存储介质 | |
KR102646977B1 (ko) | 증강 현실에 기반한 디스플레이 방법 및 장치, 및 저장 매체 | |
CA2971280A1 (en) | System and method for interactive projection | |
US11922694B2 (en) | Systems and methods for augmented reality application for annotations and adding interfaces to control panels and screens | |
US11107184B2 (en) | Virtual object translation | |
CN108776544B (zh) | 增强现实中的交互方法及装置、存储介质、电子设备 | |
EP4376423A1 (en) | Virtual object interaction method and device, and storage medium and computer program product | |
JP2021078104A (ja) | コンテキスト及びコンテンツを意識した3D手ジェスチャ視覚化を伴うWebベースリモートアシスタンスシステムに関するプログラム | |
CN114387400A (zh) | 三维场景的显示方法、显示装置、电子设备和服务器 | |
CN113171605A (zh) | 虚拟资源获取方法、计算机可读存储介质和电子设备 | |
US11995741B2 (en) | Data generation method and apparatus, and electronic device | |
CN109461203B (zh) | 手势三维图像生成方法、装置、计算机设备及存储介质 | |
US11562538B2 (en) | Method and system for providing a user interface for a 3D environment | |
CN114373064A (zh) | 一种vrar内容编辑方法、装置、设备及介质 | |
CN112929685B (zh) | Vr直播间的互动方法、装置、电子设备和存储介质 | |
CN110604918B (zh) | 界面元素调整方法与装置、存储介质、电子设备 | |
US11557065B2 (en) | Automatic segmentation for screen-based tutorials using AR image anchors | |
CN113592918A (zh) | 图像处理方法及装置、电子设备及计算机可读存储介质 | |
CN113643320A (zh) | 图像处理方法及装置、电子设备及计算机可读存储介质 | |
JP2018005660A (ja) | 情報処理装置、プログラム、位置情報作成方法、情報処理システム | |
CN110941389A (zh) | 一种焦点触发ar信息点的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |