CN103529959A - 基于关键点射线碰撞检测的框选方法、系统及电子设备 - Google Patents
基于关键点射线碰撞检测的框选方法、系统及电子设备 Download PDFInfo
- Publication number
- CN103529959A CN103529959A CN201310021066.4A CN201310021066A CN103529959A CN 103529959 A CN103529959 A CN 103529959A CN 201310021066 A CN201310021066 A CN 201310021066A CN 103529959 A CN103529959 A CN 103529959A
- Authority
- CN
- China
- Prior art keywords
- collision detection
- ray
- point
- frame
- choosing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开了基于关键点射线碰撞检测的框选方法、系统及电子设备,所述方法包括:以预定步长对用户在屏幕上操作焦点的移动位置进行采样,获取多个第一碰撞检测点;根据所述第一碰撞检测点与虚拟相机原点获取拾取射线;检测所述拾取射线是否与3D物体有相交,如有相交则选中所述3D物体并进行渲染。本发明不仅实现了高效的3D区域的圈选效果,而且还优化了3D空间射线点的选取,节省了大量冗余计算,提高了3D空间检测算法的执行效率。
Description
技术领域
本发明涉及3D图标的框选技术,尤其涉及的是一种基于关键点射线碰撞检测的框选方法、系统及电子设备。
背景技术
在3D Launcher场景开发中,有时候会碰到用鼠标画线在任意不规则封闭区域圈选图标的情况,传统的圈选技术使用的是2D平面矩形区域划分的算法。因为用户圈选的封闭区域是不确定的凸凹多边形,一般采用的方法是平面射线相交点数奇偶判别法,由于3D UI场景中的元素可能是3D物体,也可能是2D物体,单纯用2D的判别算法,划分区域无法实现3D场景的圈选效果。
因此,现有技术还有待于改进和发展。
发明内容
本发明要解决的技术问题在于,针对现有技术的上述缺陷,提供一种基于关键点射线碰撞检测的框选方法、系统及电子设备,以解决现有单纯采用2D的判别算法在划分区域无法实现3D场景的圈选效果的问题。
本发明解决技术问题所采用的技术方案如下:
一种基于关键点射线碰撞检测的框选方法,其中,包括步骤:
以预定步长对用户在屏幕上操作焦点的移动位置进行采样,获取多个第一碰撞检测点;
根据所述第一碰撞检测点与虚拟相机原点获取拾取射线;
检测所述拾取射线是否与3D物体有相交,如有相交则选中所述3D物体并进行渲染。
进一步地,所述的基于关键点射线碰撞检测的框选方法,其中,根据3D物体在屏幕上的高度和宽度,计算采样间隔的预定步长。
进一步地,所述的基于关键点射线碰撞检测的框选方法,其中,所述预定步长为3D物体在屏幕上的对角线长度的一半。
进一步地,所述的基于关键点射线碰撞检测的框选方法,其中,获取多个第一碰撞检测点的步骤具体包括:
获取操作焦点在屏幕上移动的起点坐标(x0,y0)和终点坐标(xn,yn);
计算第一碰撞检测点的个数m,m=S/N;S为起点与终点的距离,N为预定步长,m为整数;
以预定步长N对操作焦点在屏幕上的拖动线段上进行采样,获取的第一碰撞检测点坐标为(x0+(xn-x0)*i/m,y0+(yn-y0)*i/m),其中,i为1至m的整数。
进一步地,所述的基于关键点射线碰撞检测的框选方法,其中,对选中的所述3D物体进行渲染的步骤具体包括:
对选中3D物体的特定区域设置差别化特征;
对选中的3D物体进行差别化渲染并显示。
进一步地,所述的基于关键点射线碰撞检测的框选方法,其中,所述检测所述拾取射线是否与3D物体有相交,如有相交则选中所述3D物体并进行渲染步骤还包括:
获取所述拾取射线在远剪裁面上的交点,记为第二碰撞检测点;
检测所述拾取射线在第一碰撞检测点与第二碰撞检测点线段范围内相交的3D物体记为选中的3D物体。
一种基于关键点射线碰撞检测的框选系统,其中,所述系统包括:
第一碰撞检测点获取模块,用于以预定步长对用户在屏幕上操作焦点的移动位置进行采样,获取多个第一碰撞检测点;
拾取射线获取模块,用于根据所述第一碰撞检测点与虚拟相机原点获取拾取射线;
框选模块,用于检测所述拾取射线是否与3D物体有相交,如有相交则选中所述3D物体并进行渲染。
进一步地,所述的基于关键点射线碰撞检测的框选系统,其中,所述系统还包括:
预设置模块,用于根据3D物体在屏幕上的高度和宽度,计算采样间隔的预定步长。
进一步地,所述的基于关键点射线碰撞检测的框选系统,其中,所述框选模块还包括:
渲染模块,用于对选中3D物体的特定区域设置差别化特征,并对选中的3D物体进行差别化渲染。
进一步地,所述的基于关键点射线碰撞检测的框选系统,其中,所述框选模块包括:
第二碰撞检测点获取模块,用于获取所述拾取射线在远剪裁面上的交点,记为第二碰撞检测点;
检测模块,用于检测所述拾取射线在第一碰撞检测点与第二碰撞检测点线段范围内相交的3D物体记为选中的3D物体。
一种电子设备,其中,所述的电子设备设置有一框选系统,用于根据用户在屏幕上操作焦点的移动位置对多个物体进行框选选定。
进一步地,所述的电子设备,其中,所述的框选系统包括:
第一碰撞检测点获取模块,用于以预定步长对用户在屏幕上操作焦点的移动位置进行采样,获取多个第一碰撞检测点;
拾取射线获取模块,用于根据所述第一碰撞检测点与虚拟相机原点获取拾取射线;
框选模块,用于根据所述拾取射线是否与3D物体有相交,如有相交则选中所述3D物体并进行渲染。
本发明所提供的基于关键点射线碰撞检测的框选方法、系统及电子设备,不仅实现了高效的3D区域的圈选效果,而且还优化了3D空间射线点的选取,节省了大量冗余计算,提高了3D空间检测算法的执行效率。
附图说明
图1是本发明提供的基于关键点射线碰撞检测的框选方法的流程图。
图2是图1中通过拾取射线进行物体拾取的原理示意图。
图3是本发明提供的基于关键点射线碰撞检测的框选系统的结构示意图。
图4是图3中一优选实施例的结构示意图。
图5是图3中又一优选实施例的结构示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参见图1,图1是本发明提供的基于关键点射线碰撞检测的框选方法的流程图,包括以下步骤:
步骤S100、以预定步长对用户在屏幕上操作焦点的移动位置进行采样,获取多个第一碰撞检测点。
其中,在执行步骤S100之前,首先根据3D物体在屏幕上的高度和宽度,计算采样间隔的预定步长。由于3D物体或者图标的大小在正常状态下是确定的,根据3D物体或者图标的高度和宽度可以动态确定采样间隔的步长,以尽可能的减少计算量,提高效率。本发明采用的预定步长优选为3D物体在屏幕上的对角线长度的一半,这里当多个3D物体的形状大小不一致的时候,所述的3D物体取最小3D物体的对角线长度的一半为宜。当然预定步长并不限于采用对角线长度的一半这一固定值,预定步长也可以在对角线长度的一半上下浮动。在具体计算是,3D物体在屏幕上的大小很容易确定,我们定义其高度和宽度分别为x和y,预定步长为N,则预定步长 。
下一步,确定采样线段,采样线段由用户在屏幕上操作焦点组成,操作焦点在屏幕上移动的位置为(xn,yn)(n为大于等于0的整数),定义起点为(x0,y0),终点为(xn,yn);计算起点与终点的距离,当S大于N的时候,确定计算第一碰撞检测点的个数m,m=S/N;S为起点与终点的距离,N为预定步长,m为整数;以预定步长N对操作焦点在屏幕上的拖动线段上进行采样,获取的第一碰撞检测点坐标为(x0+(xn-x0)*i/m,y0+(yn-y0)*i/m),其中,i为1至m的整数。
步骤S200、根据所述第一碰撞检测点与虚拟相机原点获取拾取射线。
在Windows或者Android手机平台中,首先需要获取到2D 屏幕坐标,进而计算得到3D 空间中的拾取射线。如图2所示,ZNear 处为视锥体近剪裁面(屏幕),ZFar 处为视锥体远剪裁面。拾取射线就是由虚拟相机(Camera) 的空间位置原点(Position)以及第一检测点(也即用户操作焦点)定义。定义虚拟相机(Camera)的空间位置为CameraPosition,虚拟相机(Camera)的朝向为LookAt单位向量,虚拟相机(Camera)的正上方为UP单位向量,ViewPort 视口的宽为Width,宽为Hight,当前操作焦点的位置为MousePosition。
(相当于绝对坐标系的Z方向)
Position= CameraPosition;
dx = (MousePosition.X -ViewPort.Width /2) / ViewPort.Width;
dy = (ViewPort. Height /2- MousePosition.Y) / ViewPort.Height;
ZfarCenter = CameraPosition + Normlize(LookAt – CameraPosition) *Zfar;
ZFarViewPort. Width = Width*ZFar / Znear;
ZFarViewPort. Height = Height *ZFar / Znear;
P1 = ZFarCenter + (U *ZFarViewPort. Width * dx) + (V *ZFarViewPort. Height * dy)。
在上述公式推导中,dx、dy为一数值化的比例系数,其表示坐标原点移动后分别与ViewPort.Width(视口长度)、ViewPort.Height(视口宽度)的比例系数;ZfarCenter为远裁剪面中心点的位置,Normlize是格式化向量,Zfar是预定义的数值;ZFarViewPort.为远裁剪面的视口;其中ZfarCenter = CameraPosition + Normlize(LookAt – CameraPosition) *Zfar公式的含义为:在三维空间中的一个点上按照某一个单位向量的方向上延长Zfar距离,最终的计算结果是ZfarCenter的三维空间中的点坐标。
步骤S300、检测所述拾取射线是否与3D物体有相交,如有相交则选中所述3D物体并进行渲染。
优选地,在步骤S200中,拾取射线延伸至远剪裁面并与远剪裁面会有一交点。首先,获取该拾取射线在远剪裁面上的交点,记为第二碰撞检测点,如图,在远剪裁面上的位置点P1为第二检测点,拾取射线由Position发射指向P1;其次,检测所述拾取射线在第一碰撞检测点与第二碰撞检测点线段范围内相交的3D物体记为选中的3D物体。将检测范围限定在第一碰撞检测点与第二碰撞检测点线段范围内,缩小了检测范围,提高了检测效率。且由于拾取射线有数个,因此拾取射线与3D物体相交的几率大大增加,进而使得对3D物体的选取更加方便和准确。而如果拾取摄像与3D物体没有相交,则表示本次拖动操作没有选中3D物体。
在选中3D物体后,对3D物体进行渲染,包括步骤:对选中3D物体的特定区域设置差别化特征;以及对选中的3D物体进行差别化渲染并显示。具体地,将选中3D物体的特定区域渲染为红色,但不限于红色,在渲染时,首先对选中3D物体的顶点进行遍历,并将顶点渲染为红色,然后再逐步将整个3D物体渲染为红色,以提示用户该3D物体已被选中。
基于上述本发明提供的基于关键点射线碰撞检测的框选方法,本发明还提供了一种基于关键点射线碰撞检测的框选系统,如图3所示,所述框选系统包括:
第一碰撞检测点获取模块10,用于以预定步长对用户在屏幕上操作焦点的移动位置进行采样,获取多个第一碰撞检测点;
拾取射线获取模块20,用于根据所述第一碰撞检测点与虚拟相机原点获取拾取射线;
框选模块30,用于检测所述拾取射线是否与3D物体有相交,如有相交则选中所述3D物体并进行渲染。
进一步地,如图4所示,所述框选系统还包括:
预设置模块40,用于根据3D物体在屏幕上的高度和宽度,计算采样间隔的预定步长;所述框选模块30还包括:渲染模块31,对选中3D物体的特定区域设置差别化特征,并对选中的3D物体进行差别化渲染。
进一步地,如图5所示,所述框选模块30包括:第二碰撞检测点获取模块32,用于获取所述拾取射线在远剪裁面上的交点,记为第二碰撞检测点;检测模块33,用于检测所述拾取射线在第一碰撞检测点与第二碰撞检测点线段范围内相交的3D物体记为选中的3D物体。渲染模块31对检测模块33选中的3D物体进行差别化渲染。
本发明还提供了一种电子设备,该电子设备设置有一本发明提供的上述框选系统,用于根据用户在屏幕上操作焦点的移动位置对多个物体进行框选选定。
进一步的,所述电子设备中的框选系统包括:
第一碰撞检测点获取模块,用于以预定步长对用户在屏幕上操作焦点的移动位置进行采样,获取多个第一碰撞检测点;拾取射线获取模块,用于根据所述第一碰撞检测点与虚拟相机原点获取拾取射线;框选模块,用于根据所述拾取射线是否与3D物体有相交,如有相交则选中所述3D物体并进行渲染。关于框选系统的其他技术内容请参照前述框选系统描述,这里不再赘述。
综上所述,本发明提供的基于关键点射线碰撞检测的框选方法和系统,通过以预定步长对用户在屏幕上操作焦点的移动位置进行采样,获取多个第一碰撞检测点;根据所述第一碰撞检测点与虚拟相机原点获取拾取射线。进一步,根据比例关系计算得出在远剪裁面上与所述第一碰撞检测点相对应的多个第二碰撞检测点,并根据所述第一碰撞检测点和第二碰撞检测点获取拾取射线的检测区间;在所述检测区间检测所述拾取射线是否与3D物体有相交,如有相交则选中所述3D物体并进行渲染。不仅实现了高效的3D区域的圈选效果,而且还优化了3D空间射线点的选取效率,节省了大量冗余计算,提高了3D空间检测算法的执行效率。
应当理解的是,本发明的应用不限于上述的举例,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (12)
1.一种基于关键点射线碰撞检测的框选方法,其特征在于,包括步骤:
以预定步长对用户在屏幕上操作焦点的移动位置进行采样,获取多个第一碰撞检测点;
根据所述第一碰撞检测点与虚拟相机原点获取拾取射线;
检测所述拾取射线是否与3D物体有相交,如有相交则选中所述3D物体并进行渲染。
2.根据权利要求1所述的基于关键点射线碰撞检测的框选方法,其特征在于,根据3D物体在屏幕上的高度和宽度,计算采样间隔的预定步长。
3.根据权利要求1或2所述的基于关键点射线碰撞检测的框选方法,其特征在于,所述预定步长为3D物体在屏幕上的对角线长度的一半。
4.根据权利要求1所述的基于关键点射线碰撞检测的框选方法,其特征在于,获取多个第一碰撞检测点的步骤具体包括:
获取操作焦点在屏幕上移动的起点坐标(x0,y0)和终点坐标(xn,yn);
计算第一碰撞检测点的个数m,m=S/N;S为起点与终点的距离,N为预定步长,m为整数;
以预定步长N对操作焦点在屏幕上的拖动线段上进行采样,获取的第一碰撞检测点坐标为(x0+(xn-x0)*i/m,y0+(yn-y0)*i/m),其中,i为1至m的整数。
5.根据权利要求1所述的基于关键点射线碰撞检测的框选方法,其特征在于,对选中的所述3D物体进行渲染的步骤具体包括:
对选中3D物体的特定区域设置差别化特征;
对选中的3D物体进行差别化渲染并显示。
6.根据权利要求1所述的基于关键点射线碰撞检测的框选方法,其特征在于,所述检测所述拾取射线是否与3D物体有相交,如有相交则选中所述3D物体并进行渲染步骤还包括:
获取所述拾取射线在远剪裁面上的交点,记为第二碰撞检测点;
检测所述拾取射线在第一碰撞检测点与第二碰撞检测点线段范围内相交的3D物体记为选中的3D物体。
7.一种基于关键点射线碰撞检测的框选系统,其特征在于,所述系统包括:
第一碰撞检测点获取模块,用于以预定步长对用户在屏幕上操作焦点的移动位置进行采样,获取多个第一碰撞检测点;
拾取射线获取模块,用于根据所述第一碰撞检测点与虚拟相机原点获取拾取射线;
框选模块,用于检测所述拾取射线是否与3D物体有相交,如有相交则选中所述3D物体并进行渲染。
8.根据权利要求7所述的基于关键点射线碰撞检测的框选系统,其特征在于,所述系统还包括:
预设置模块,用于根据3D物体在屏幕上的高度和宽度,计算采样间隔的预定步长。
9.根据权利要求7所述的基于关键点射线碰撞检测的框选系统,其特征在于,所述框选模块还包括:
渲染模块,用于对选中3D物体的特定区域设置差别化特征,并对选中的3D物体进行差别化渲染。
10.根据权利要求7所述的基于关键点射线碰撞检测的框选系统,其特征在于,所述框选模块包括:
第二碰撞检测点获取模块,用于获取所述拾取射线在远剪裁面上的交点,记为第二碰撞检测点;
检测模块,用于检测所述拾取射线在第一碰撞检测点与第二碰撞检测点线段范围内相交的3D物体记为选中的3D物体。
11.一种电子设备,其特征在于,所述的电子设备设置有一框选系统,用于根据用户在屏幕上操作焦点的移动位置对多个物体进行框选选定。
12.如权利要求11所述的电子设备,其特征在于,所述的框选系统包括:
第一碰撞检测点获取模块,用于以预定步长对用户在屏幕上操作焦点的移动位置进行采样,获取多个第一碰撞检测点;
拾取射线获取模块,用于根据所述第一碰撞检测点与虚拟相机原点获取拾取射线;
框选模块,用于根据所述拾取射线是否与3D物体有相交,如有相交则选中所述3D物体并进行渲染。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310021066.4A CN103529959B (zh) | 2013-01-21 | 2013-01-21 | 基于关键点射线碰撞检测的框选方法、系统及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310021066.4A CN103529959B (zh) | 2013-01-21 | 2013-01-21 | 基于关键点射线碰撞检测的框选方法、系统及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103529959A true CN103529959A (zh) | 2014-01-22 |
CN103529959B CN103529959B (zh) | 2016-06-29 |
Family
ID=49932031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310021066.4A Active CN103529959B (zh) | 2013-01-21 | 2013-01-21 | 基于关键点射线碰撞检测的框选方法、系统及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103529959B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106251397A (zh) * | 2016-08-03 | 2016-12-21 | 上海同筑信息科技有限公司 | 基于大型bim模型的框选方法及系统 |
CN106846459A (zh) * | 2016-12-27 | 2017-06-13 | 合肥漫禹科技有限公司 | 一种用于vr虚拟校园系统的碰撞检测方法 |
CN109683876A (zh) * | 2018-12-10 | 2019-04-26 | 上海精密计量测试研究所 | 一种基于Unity3D的行为树设计方法 |
CN109783842A (zh) * | 2018-12-05 | 2019-05-21 | 苏州蜗牛数字科技股份有限公司 | 一种基于体素数据的射线检测方法及系统 |
CN113516749A (zh) * | 2021-09-14 | 2021-10-19 | 中国汽车技术研究中心有限公司 | 自动驾驶视觉传感器数据采集方法、装置、设备及介质 |
CN113741698A (zh) * | 2021-09-09 | 2021-12-03 | 亮风台(上海)信息科技有限公司 | 一种确定和呈现目标标记信息的方法与设备 |
CN114860130A (zh) * | 2022-05-24 | 2022-08-05 | 北京新唐思创教育科技有限公司 | 全真场景下的交互方法、装置、电子设备和存储介质 |
CN117392358A (zh) * | 2023-12-04 | 2024-01-12 | 腾讯科技(深圳)有限公司 | 碰撞检测方法、装置、计算机设备和存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6094198A (en) * | 1994-01-10 | 2000-07-25 | Cognitens, Ltd. | System and method for reconstructing surface elements of solid objects in a three-dimensional scene from a plurality of two dimensional images of the scene |
KR20080057151A (ko) * | 2006-12-19 | 2008-06-24 | 이문기 | 회전하는 입체 디스플레이 장치 |
CN101699518A (zh) * | 2009-10-30 | 2010-04-28 | 华南理工大学 | 一种基于轨迹分析的手写汉字的美化方法 |
CN102081167A (zh) * | 2009-12-01 | 2011-06-01 | 中国石油天然气集团公司 | 一种三维vsp数据初至波拾取方法 |
CN102402794A (zh) * | 2004-11-29 | 2012-04-04 | Arm挪威股份有限公司 | 计算机图形处理 |
-
2013
- 2013-01-21 CN CN201310021066.4A patent/CN103529959B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6094198A (en) * | 1994-01-10 | 2000-07-25 | Cognitens, Ltd. | System and method for reconstructing surface elements of solid objects in a three-dimensional scene from a plurality of two dimensional images of the scene |
CN102402794A (zh) * | 2004-11-29 | 2012-04-04 | Arm挪威股份有限公司 | 计算机图形处理 |
KR20080057151A (ko) * | 2006-12-19 | 2008-06-24 | 이문기 | 회전하는 입체 디스플레이 장치 |
CN101699518A (zh) * | 2009-10-30 | 2010-04-28 | 华南理工大学 | 一种基于轨迹分析的手写汉字的美化方法 |
CN102081167A (zh) * | 2009-12-01 | 2011-06-01 | 中国石油天然气集团公司 | 一种三维vsp数据初至波拾取方法 |
Non-Patent Citations (1)
Title |
---|
姚继权、李晓豁: "计算机图形学人机交互中三维拾取方法的研究", 《工程设计学报》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106251397A (zh) * | 2016-08-03 | 2016-12-21 | 上海同筑信息科技有限公司 | 基于大型bim模型的框选方法及系统 |
CN106251397B (zh) * | 2016-08-03 | 2019-07-12 | 上海同筑信息科技有限公司 | 基于bim模型的框选方法及系统 |
CN106846459A (zh) * | 2016-12-27 | 2017-06-13 | 合肥漫禹科技有限公司 | 一种用于vr虚拟校园系统的碰撞检测方法 |
CN109783842A (zh) * | 2018-12-05 | 2019-05-21 | 苏州蜗牛数字科技股份有限公司 | 一种基于体素数据的射线检测方法及系统 |
CN109683876A (zh) * | 2018-12-10 | 2019-04-26 | 上海精密计量测试研究所 | 一种基于Unity3D的行为树设计方法 |
CN109683876B (zh) * | 2018-12-10 | 2022-06-24 | 上海精密计量测试研究所 | 一种基于Unity3D的行为树设计方法 |
CN113741698A (zh) * | 2021-09-09 | 2021-12-03 | 亮风台(上海)信息科技有限公司 | 一种确定和呈现目标标记信息的方法与设备 |
CN113741698B (zh) * | 2021-09-09 | 2023-12-15 | 亮风台(上海)信息科技有限公司 | 一种确定和呈现目标标记信息的方法与设备 |
CN113516749A (zh) * | 2021-09-14 | 2021-10-19 | 中国汽车技术研究中心有限公司 | 自动驾驶视觉传感器数据采集方法、装置、设备及介质 |
CN114860130A (zh) * | 2022-05-24 | 2022-08-05 | 北京新唐思创教育科技有限公司 | 全真场景下的交互方法、装置、电子设备和存储介质 |
CN117392358A (zh) * | 2023-12-04 | 2024-01-12 | 腾讯科技(深圳)有限公司 | 碰撞检测方法、装置、计算机设备和存储介质 |
CN117392358B (zh) * | 2023-12-04 | 2024-04-09 | 腾讯科技(深圳)有限公司 | 碰撞检测方法、装置、计算机设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN103529959B (zh) | 2016-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103529959A (zh) | 基于关键点射线碰撞检测的框选方法、系统及电子设备 | |
CN110689585B (zh) | 多相机外参的联合标定方法、装置、设备和介质 | |
EP2753065A2 (en) | Method and apparatus for laying out image using image recognition | |
US9600931B2 (en) | Information processing device and program | |
US20140320404A1 (en) | Image processing device, image processing method, and program | |
CN105302407A (zh) | 一种应用程序图标显示方法及装置 | |
CN109743438B (zh) | 一种发送多媒体信息的方法和装置 | |
CN105091847A (zh) | 一种测量距离的方法及电子设备 | |
CN104317398A (zh) | 一种手势控制方法、穿戴式设备及电子设备 | |
CN103049102B (zh) | 鼠标数据处理装置和鼠标数据处理方法 | |
CN110084797B (zh) | 平面检测方法、装置、电子设备和存储介质 | |
CN105387857A (zh) | 导航方法及装置 | |
CN112017133B (zh) | 一种图像展示方法、装置及电子设备 | |
CN110415263A (zh) | 图像分割方法以及图像分割装置 | |
CN103512557B (zh) | 电子设备间相对位置确定方法及电子设备 | |
CN109753212B (zh) | 一种文档传输方法、装置及移动终端 | |
CN108268493A (zh) | 基于地理位置的最近站点搜索方法及装置 | |
KR101469757B1 (ko) | 3차원 객체의 교차를 이용한 통신 가능 영역 연산 방법 및 이의 저장 매체 | |
CN113205601A (zh) | 漫游路径生成方法、装置、存储介质及电子设备 | |
CN103000161B (zh) | 一种图像显示方法、装置和一种智能手持终端 | |
CN108170499B (zh) | 3d应用图标的显示方法、装置及电子设备 | |
CN114187509B (zh) | 对象定位方法、装置、电子设备以及存储介质 | |
CN103164690A (zh) | 利用运动趋势跟踪增强现实三维多标记的方法和装置 | |
CN113628284B (zh) | 位姿标定数据集生成方法、装置、系统、电子设备及介质 | |
US8867785B2 (en) | Method and apparatus for detecting proximate interface elements |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |