CN102637116B - 3d场景交互方法、装置及碰撞检测方法、装置 - Google Patents

3d场景交互方法、装置及碰撞检测方法、装置 Download PDF

Info

Publication number
CN102637116B
CN102637116B CN201210075429.8A CN201210075429A CN102637116B CN 102637116 B CN102637116 B CN 102637116B CN 201210075429 A CN201210075429 A CN 201210075429A CN 102637116 B CN102637116 B CN 102637116B
Authority
CN
China
Prior art keywords
predeterminated position
position point
user
default
input trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210075429.8A
Other languages
English (en)
Other versions
CN102637116A (zh
Inventor
张颖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TCL Corp
Original Assignee
TCL Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TCL Corp filed Critical TCL Corp
Priority to CN201210075429.8A priority Critical patent/CN102637116B/zh
Publication of CN102637116A publication Critical patent/CN102637116A/zh
Application granted granted Critical
Publication of CN102637116B publication Critical patent/CN102637116B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明适用于人机交互领域,提供了一种3D场景交互方法及装置,包括:为用户的输入轨迹匹配标识,所述标识包括图形和字符,用于唯一对应一个交互事件;对用户的输入区域进行碰撞检测,获取用户选择操作的3D物体;根据所述标识对应的交互事件对所述3D物体作出响应。本发明通过检测用户的输入轨迹来确定相应的交互事件,并结合3D场景的碰撞检测处理,将相应的交互事件应用于碰撞检测到的3D物体,从而实时地对该3D物体进行响应,完成用户与3D场景的交互,大大降低了人机交互的流畅度,提高了用户的操作体验。

Description

3D场景交互方法、装置及碰撞检测方法、装置
技术领域
本发明属于人机交互领域,尤其涉及3D场景交互方法、装置及碰撞检测方法、装置。
背景技术
随着智能电视及智能手机的兴起,例如3DLauncher(启动引导)这样的3D用户界面(UserInterface,UI)模块或者导航被广泛使用,目前用户与3D场景的交互上还停留在一种基本的方式,例如单纯地利用键盘按键或者鼠标点击来进行简单的交互。然而,随着3D场景复杂度的增高及渲染物体的增多,这种简单的交互方式已经无法满足复杂3D场景中大量的交互需求,会带来人机交互过程中的操作步骤繁琐、后台运算量增加,导致人机交互不流畅,降低了用户的操作体验。
发明内容
本发明实施例的目的在于提供一种3D场景交互方法,旨在解决目前用户只能与3D场景进行简单交互,导致人机交互不流畅的问题。
本发明实施例是这样实现的,一种3D场景交互方法,包括:
为用户的输入轨迹匹配标识,所述标识包括图形和字符,用于唯一对应一个交互事件;
对用户的输入区域进行碰撞检测,获取用户选择操作的3D物体;
根据所述标识对应的交互事件对所述3D物体作出响应。
本发明实施例的另一目的在于提供一种3D场景交互装置,包括:
匹配单元,用于为用户的输入轨迹匹配标识,所述标识包括图形和字符,用于唯一对应一个交互事件;
碰撞检测单元,用于对用户的输入区域进行碰撞检测,获取用户选择操作的3D物体;
响应单元,用于根据所述标识对应的交互事件对所述3D物体作出响应。
本发明实施例通过检测用户的输入轨迹来确定相应的交互事件,并结合3D场景的碰撞检测处理,将相应的交互事件应用于碰撞检测到的3D物体,从而实时地对该3D物体进行相应响应渲染,完成用户与3D场景的交互,大大降低了人机交互的流畅度,提高了用户的操作体验。
本发明实施例的另一目的在于提供一种3D场景碰撞检测方法,包括:
获取包围用户的输入区域的几何区域;
对所述几何区域的预设位置点进行碰撞检测,所述几何区域包括三角形区域或矩形区域,对应地,所述预设位置点包括矩形的四个顶点和中心点或者三角形的三个顶点和中心点,具体包括:
获取所述几何区域的预设位置点的平面坐标;
分别对所述预设位置点的平面坐标进行3D变换,转换为3D场景下的3D坐标;
根据所述预设位置点的3D坐标,对所述预设位置点进行碰撞检测;
当检测到至少有预设个预设位置点沿方向向量引出的射线碰撞到同一3D物体区域时,判定所述3D物体区域内的3D物体为用户选择操作的3D物体。
本发明实施例的另一目的在于提供一种3D场景碰撞检测装置,包括:
区域获取单元,获取包围用户的输入区域的几何区域;
预设位置点碰撞检测单元,对所述几何区域的预设位置点进行碰撞检测,所述几何区域包括三角形区域或矩形区域,对应地,所述预设位置点包括矩形的四个顶点和中心点或者三角形的三个顶点和中心点;
判定单元,用于当检测到至少有预设个位置点沿方向向量引出的射线碰撞到同一3D物体区域时,判定所述3D物体区域内的3D物体为用户选择操作的3D物体;
所述预设位置点碰撞检测单元包括:
平面坐标获取子单元,用于获取所述几何区域的预设位置点的平面坐标;
转换子单元,用于分别对所述预设位置点的平面坐标进行3D变换,转换为3D场景下的3D坐标;
检测子单元,用于根据所述预设位置点的3D坐标,对所述预设位置点进行碰撞检测。
本发明实施例通过将用户输入轨迹的几何区域中的若干个点进行检测,而不是把输入轨迹中的每个点均拿来检测,由此避免了大量的数据计算,提高了系统的运算效率。
附图说明
图1是本发明3D场景交互方法的实施例提供的实现流程图;
图2是图1中步骤S101的具体实现流程图;
图3是图1中步骤S102的具体实现流程图;
图4是图1中步骤S102的碰撞检测示意图;
图5是本发明提供的3D场景交互装置实施例的结构图;
图6是本发明提供的3D场景碰撞检测装置实施例的结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例通过检测用户的输入轨迹来确定相应的交互事件,并结合3D场景的碰撞检测处理,将相应的交互事件应用于碰撞检测到的3D物体,从而实时地对该3D物体进行响应,完成用户与3D场景的交互,大大降低了人机交互的复杂度,提高了用户的操作体验。
本发明实施例中,针对不同的应用平台及不同的应用功能,相应的3D场景可以分别通过不同的软件来构建并渲染,其中,采用的软件包括但不限于OpenGL、DirectX等,此部分并非本发明的重点,在此不再赘述。
图1示出了本发明第一实施例提供的3D场景交互方法的实现流程,详述如下:
在步骤S101中,为用户的输入轨迹匹配标识,所述标识包括图形和字符,用于唯一对应一个交互事件。
其中,用户可以通过手写屏或者3D显示屏来描绘不同的输入轨迹,也可以经由手势识别传感器等硬件设备,通过比划动作来输入不同的轨迹,在此不作限定,且上述手写输入设备或者手势识别传感器对用户输入的检测并非本发明的重点,在此不再赘述。
在本实施例中,步骤S101之前,可以预先建立起3D交互场景中每个交互事件与不同标识的一一对应关系,例如,图形“O”对应“确定”事件,图形“X”对应“取消”事件,由于不同的标识具有不同的特征值,标识之间能够互相区别开来,因此通过检测用户的输入轨迹并在预设数据库中为该输入轨迹匹配相应的标识,即可以唯一确定用户需要执行的交互事件,即将用户输入与用户交互意图联系起来。
在本实施例中,可以通过检测用户的输入轨迹的特征信息并与预设数据库中每个标识的特征信息进行一一比对从而匹配出与用户输入轨迹最相关的标识,具体的实现流程将在后续实施例中进行说明,在此再不赘述。
在步骤S102中,对用户的输入区域进行碰撞检测,获取用户选择操作的3D物体。
其中,对用户的输入区域的碰撞检测可以采用一般的射线碰撞检测方式或者现有的其他3D场景碰撞检测方式,对于射线碰撞检测方式,其算法原理是将输入区域所在平面的某个输入点的2D坐标转换为穿过3D场景的3D坐标,并从该坐标位置发出一条射线,再通过判断这条射线和3D场景中的物体是否有交点来判断是否“碰撞”(即选择)了该3D物体,若该射线没有穿过任何一个物体,则判定没有碰撞到任何一个物体。
作为本发明的一个实施例,在碰撞检测时不对用户输入轨迹的所有点集进行碰撞检测,而是选择预设的若干个点进行碰撞检测,从而能够大大地简化碰撞检测流程,其具体实施方式将在本发明后续实施例中进行阐述,在此不再赘述。
作为本发明的一个实施例,在执行步骤S101和步骤S102之前,可以通过对用户的输入轨迹大小进行调整,以更高效、准确地执行步骤S101的标识匹配动作和步骤S102的碰撞检测动作。具体地,可以通过获取包围用户输入区域的几何区域,并缩小该几何区域至预设大小,以使其中的输入轨迹缩小相应比例。优选地,可以将预设数据库中包围每个标识的区域调整至一样大小,且将用户输入的几何区域也调整至一样大小,以方便对用户输入轨迹的标识匹配。
在步骤S103中,根据所述标识对应的交互事件对所述3D物体作出响应。
在本实施例中,根据步骤S101中匹配到的标识所对应的交互事件,将该交互事件应用到步骤S102中获取到的3D物体上,来对该3D物体进行相应的响应,包括:
对3D物体进行即时渲染,播放特效;
对3D物体执行所述标识对应的交互事件对应的功能操作。
例如,交互事件为“删除”,而该事件用于在3D场景中消除一个物体,则对步骤S102中获取到的3D物体在场景中进行消除该3D物体的特效渲染,并删除该3D物体在场景后台的相应数据。由此,用户只需在针对某3D物体在相应的输入区域输入相应的轨迹,即可以完成对该物体的交互操作,简单、快捷地实现3D场景的交互。
图2示出了本发明第一实施例步骤S101的具体实现流程,详述如下:
在步骤S201中,在预设数据库中获取与所述输入轨迹笔画数一致的若干个预设标识。
例如,图形“O”的笔画数为1笔,图形“X”、“T”的笔画数均为2笔,若用户输入轨迹的笔画数为2笔,则显然用户输入的不是图形“O”,因此在接下来的步骤中,无需再将该输入轨迹的笔迹特征与图形“O”的笔迹特征进行比较,只需与“X”和“T”进行比较即可。
在步骤S202中,分别获取所述输入轨迹与每个所述预设标识的相关性,所述相关性通过将所述输入轨迹每个笔画的多种笔迹特征值分别和每个预设标识相应笔画的多种笔迹特征值取方差并求和获取。
在步骤S203中,在所述预设标识中获取与所述输入轨迹相关性最大的目标标识,若该相关性大于一预设阈值,则为所述输入轨迹匹配所述目标标识;否则终止执行。
在本实施例中,输入轨迹与每个预设标识的相关性通过将该输入轨迹的每个笔画的多种笔迹特征值分别和每个预设标识每个笔画的多种笔迹特征值取方差并求和获取。其中,笔迹特征值包括但不限于:
笔画起点和笔画终点的距离;
笔画起点和笔画终点连线所成直线的角度;
笔画起点距离x轴中心线的距离;
笔画起点距离y轴中心线的距离;
笔画终点距离x轴中心线的距离;
笔画终点距离y轴中心线的距离;
笔画起点和输入框中心点所成直线的角度;
笔画终点和输入框中心点所成直线的角度;
笔画起点距离输入框中心点距离;
笔画终点距离输入框中心点距离。
上述坐标轴指的是所述用户输入区域所在平面的直角坐标系下的坐标轴。
当笔迹特征值为上述十个时,以输入轨迹的笔画数为2笔,且预设数据库中笔画数为2笔的标识有“X”和“T”为例,则首先获取输入轨迹第一笔画的上述十个笔迹特征值和“X”第一笔画的上述十个笔迹特征值,对获取到的这两个笔迹特征值序列取方差,再按照相同的方法获取到输入轨迹第二笔画与“X”第二笔画的方差,求和以得到该输入轨迹与“X”的相关性。重复同样的步骤以获取到该输入轨迹与“T”的相关性,获取到的两个相关性中最大的一个,当该相关性大于一预设阈值时,则认为其相应的标识为与该输入轨迹匹配的目标标识。
在此,设定预设阈值是为了精确匹配结果,因为若用户的输入轨迹与预设数据库的任一标识都相差巨大,则即便是相关性最高的一个预设标识也无法同用户的输入轨迹匹配,因此设定预设阈值以避免标识不匹配的情况出现。
作为本发明的一个实施例,针对预设数据库中每个标识的特征信息,包括笔画数和每个笔画的多种笔迹特征值,可以预先由开发人员进行采集并存储在数据库中,以更好地提高标识匹配的效率,进一步保证用户交互的流畅性。
在图2所示的实施例中,通过将输入轨迹的笔画数和笔迹特征值等特征信息与预设数据库中的标识进行一一比对,避免了将输入轨迹的所有点集与标识进行一一比对的繁琐,可以适用于大规模数据量下的高速查找,提高了标识匹配的效率。
图3示出了本发明第一实施例步骤S102的具体实现流程,详述如下:
在步骤S301中,对所述几何区域的预设位置点进行碰撞检测,所述几何区域包括三角形区域或矩形区域,对应地,所述预设位置点包括矩形的四个顶点和中心点或者三角形的三个顶点和中心点,具体包括:
获取所述几何区域的预设位置点的平面坐标;
分别对所述预设位置点的平面坐标进行3D变换,转换为3D场景下的3D坐标;
根据所述预设位置点的3D坐标,对所述预设位置点进行碰撞检测。
其中,以OpenGL图形系统为例,其3D变换即将2D坐标通过视口逆转换、投影矩阵变换和模型视图逆矩阵变换从而得到3D坐标,此为该系统的现有功能之一,在此不再赘述。
在本实施例中,以几何区域为矩形区域为例,对于包围了用户输入轨迹的矩形区域,可以预设其四个顶点及中心点为检测位置点,对上述位置点进行碰撞检测。设置上述五个位置点为本实施例的一种优选实施方案,该五个位置点均匀地分布在矩形区域的各个位置,可以更好地对碰撞检测结果进行判定。显然,还可以根据具体情况设置不同的位置点进行检测,其他情况在此不作限定。
在步骤S302中,当检测到至少有预设个预设位置点沿3D摄像机朝向或者手臂朝向引出的射线碰撞到同一3D物体区域时,判定所述3D物体区域内的3D物体为用户选择操作的3D物体,所述3D物体区域为内含3D物体的区域,包括三角形或者四边形。
在本实施例中,当步骤S301中检测到有预设个位置点碰撞到同一3D物体时,则判定该3D物体为用户所选择的3D物体,作为本发明的一个实现示例,预设的位置点数可以为3个。从本步骤可以看出,位置点的分布越均匀,间隙越合理,则步骤S302中的判定结果会越精确。
以图4所示的碰撞检测示意图为例,用户在输入区域描绘出了一个椭圆形输入轨迹,取包围该输入轨迹的矩形的四个顶点及中心点,沿方向向量从上述五点分别引出五条射线,可以看到,上述五条射线中有3条均碰撞到了包围该3D球体的矩形区域,则判定用户选择操作的物体为该3D球体。
作为本发明的一个实施例,当步骤S302中判定用户选择操作的3D物体为多个时,选取最靠近所述几何区域中心点的射线端点的3D物体作为用户选择操作的3D物体。
在本实施例中,通过将用户输入轨迹的几何区域中的若干个点进行检测,而不是把输入轨迹中的每个点均拿来检测,由此避免了大量的数据计算,提高了系统的运算效率。
图3所示的碰撞检测方法可以独立应用于3D场景交互中,单独执行。
图5示出了本发明第二实施例提供的3D场景交互装置的结构框图,该装置用于运行本发明图1至图4所示的3D场景交互方法。为了便于说明,仅示出了与本实施例相关的部分。
参照图5,该装置包括:
匹配单元51,为用户的输入轨迹匹配标识,所述标识包括图形和字符,用于唯一对应一个交互事件。
碰撞检测单元52,对用户的输入区域进行碰撞检测,获取用户选择操作的3D物体。
响应单元53,根据所述标识对应的交互事件对所述3D物体作出响应。
其中,响应单元53包括:
渲染子单元531,对所述3D物体进行即时渲染,播放特效。
操作执行子单元532,对所述3D物体执行所述标识对应的交互事件对应的功能操作。
还包括:
区域获取单元54,获取包围所述输入区域的几何区域。
区域缩小单元55,缩小所述几何区域至预设大小,以使所述输入轨迹缩小相应比例。
上述匹配单元51包括:
预设标识获取子单元511,在预设数据库中获取与所述输入轨迹笔画数一致的若干个预设标识。
相关性获取子单元512,分别获取所述输入轨迹与每个所述预设标识的相关性,所述相关性通过将所述输入轨迹每个笔画的多种笔迹特征值分别和每个预设标识相应笔画的多种笔迹特征值取方差并求和获取。
目标标识匹配子单元513,在所述预设标识中获取与所述输入轨迹相关性最大的目标标识,若该相关性大于一预设阈值,则为所述输入轨迹匹配所述目标标识;否则终止执行。
还包括:
特征信息采集子单元514,用于采集所述预设数据库中每个预设标识的特征信息,所述特征信息包括笔画数和每个笔画的多种笔迹特征值。
上述碰撞检测单元52包括:
预设位置点碰撞检测子单元521,对所述几何区域的预设位置点进行碰撞检测,所述几何区域包括三角形区域或矩形区域,对应地,所述预设位置点包括矩形的四个顶点和中心点或者三角形的三个顶点和中心点,
所述预设位置点碰撞检测子单元521包括:
平面坐标获取子单元,获取所述几何区域的预设位置点的平面坐标。
转换子单元,分别对所述预设位置点的平面坐标进行3D变换,转换为3D场景下的3D坐标。
检测子单元,根据所述预设位置点的3D坐标,对所述预设位置点进行碰撞检测。
判定子单元522,当检测到至少有预设个预设位置点沿3D摄像机朝向或者手臂朝向引出的射线碰撞到同一3D物体区域时,判定所述3D物体区域内的3D物体为用户选择操作的3D物体,所述3D物体区域为内含3D物体的区域,包括三角形或者四边形区域等。
本发明实施例通过检测用户的输入轨迹来确定相应的交互事件,并结合3D场景的碰撞检测处理,将相应的交互事件应用于碰撞检测到的3D物体,从而实时地对该3D物体进行相应渲染,完成用户与3D场景的交互,大大降低了人机交互的流畅度,提高了用户的操作体验。
图6示出了本发明第三实施例提供的3D场景碰撞检测装置的结构框图,该装置用于运行本发明图3至图4所示的3D场景碰撞检测方法。为了便于说明,仅示出了与本实施例相关的部分。
参照图6,该装置包括:
区域获取单元61,获取包围用户的输入区域的几何区域。
预设位置点碰撞检测单元62,对所述几何区域的预设位置点进行碰撞检测,所述几何区域包括三角形区域或矩形区域,对应地,所述预设位置点包括矩形的四个顶点和中心点或者三角形的三个顶点和中心点。
所述预设位置点碰撞检测单元包括:
平面坐标获取子单元,获取所述几何区域的预设位置点的平面坐标。
转换子单元,分别对所述预设位置点的平面坐标进行3D变换,转换为3D场景下的3D坐标。
检测子单元,根据所述预设位置点的3D坐标,对所述预设位置点进行碰撞检测。
判定单元63,当检测到至少有预设个位置点沿方向向量引出的射线碰撞到同一3D物体区域时,判定所述3D物体区域内的3D物体为用户选择操作的3D物体。
上述3D场景碰撞检测装置,也是所述3D场景交互装置的一部分,可以作为一独立装置模块使用在其他领域。
本发明实施例通过将用户输入轨迹的几何区域中的若干个点进行检测,而不是把输入轨迹中的每个点均拿来检测,由此避免了大量的数据计算,提高了系统的运算效率。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (13)

1.一种3D场景交互方法,其特征在于,包括:
为用户的输入轨迹匹配标识,所述标识包括图形和字符,用于唯一对应一个交互事件;
获取包围用户的输入区域的几何区域,对所述几何区域的预设位置点进行碰撞检测,当检测到至少有多个预设位置点沿3D摄像机朝向或者手臂朝向引出的射线碰撞到同一3D物体区域时,判定所述3D物体区域内的3D物体为用户选择操作的3D物体;
根据所述标识对应的交互事件对所述3D物体作出响应。
2.如权利要求1所述的方法,其特征在于,在为用户的输入轨迹匹配标识之前,还包括:
获取包围所述输入区域的几何区域;
缩小所述几何区域至预设大小,以使所述输入轨迹缩小相应比例。
3.如权利要求2所述的方法,其特征在于,所述为用户的输入轨迹匹配标识具体包括:
在预设数据库中获取与所述输入轨迹笔画数一致的若干个预设标识;
分别获取所述输入轨迹与每个所述预设标识的相关性,所述相关性通过将所述输入轨迹每个笔画的多种笔迹特征值分别和每个预设标识相应笔画的多种笔迹特征值取方差并求和获取;
在所述预设标识中获取与所述输入轨迹相关性最大的目标标识,若该相关性大于一预设阈值,则为所述输入轨迹匹配所述目标标识;否则终止执行。
4.如权利要求3所述的方法,其特征在于,在所述获取与所述输入轨迹笔画数一致的若干个预设标识之前,还包括:
采集并存储所述预设数据库中每个预设标识的特征信息,所述特征信息包括笔画数和每个笔画的多种笔迹特征值。
5.如权利要求1所述的方法,其特征在于,所述获取包围用户的输入区域的几何区域,对所述几何区域的预设位置点进行碰撞检测,当检测到至少有多个预设位置点沿3D摄像机朝向或者手臂朝向引出的射线碰撞到同一3D物体区域时,判定所述3D物体区域内的3D物体为用户选择操作的3D物体包括:
对所述几何区域的预设位置点进行碰撞检测,所述几何区域包括三角形区域或矩形区域,对应地,所述预设位置点包括矩形的四个顶点和中心点或者三角形的三个顶点和中心点,具体包括:
获取所述几何区域的预设位置点的平面坐标;
分别对所述预设位置点的平面坐标进行3D变换,转换为3D场景下的3D坐标;
根据所述预设位置点的3D坐标,对所述预设位置点进行碰撞检测;
当检测到至少有预设个预设位置点沿3D摄像机朝向或者手臂朝向引出的射线碰撞到同一3D物体区域时,判定所述3D物体区域内的3D物体为用户选择操作的3D物体,所述3D物体区域为内含3D物体的区域,包括三角形或者四边形。
6.如权利要求5所述的方法,其特征在于,当判定用户选择操作的3D物体为多个时,选取最靠近所述几何区域中心点的射线端点的3D物体作为用户选择操作的3D物体。
7.如权利要求1所述的方法,其特征在于,所述根据所述标识对应的交互事件作出响应,具体包括:
对所述3D物体进行即时渲染,播放特效;
对所述3D物体执行所述标识对应的交互事件对应的功能操作。
8.一种3D场景交互装置,其特征在于,包括:
匹配单元,用于为用户的输入轨迹匹配标识,所述标识包括图形和字符,用于唯一对应一个交互事件;
碰撞检测单元,用于获取包围用户的输入区域的几何区域,对所述几何区域的预设位置点进行碰撞检测,当检测到至少有多个预设位置点沿3D摄像机朝向或者手臂朝向引出的射线碰撞到同一3D物体区域时,判定所述3D物体区域内的3D物体为用户选择操作的3D物体;
响应单元,用于根据所述标识对应的交互事件对所述3D物体作出响应。
9.如权利要求8所述的装置,其特征在于,还包括:
区域获取单元,用于获取包围所述输入区域的几何区域;
区域缩小单元,用于缩小所述几何区域至预设大小,以使所述输入轨迹缩小相应比例。
10.如权利要求8所述的装置,其特征在于,所述匹配单元包括:
预设标识获取子单元,用于在预设数据库中获取与所述输入轨迹笔画数一致的若干个预设标识;
相关性获取子单元,用于分别获取所述输入轨迹与每个所述预设标识的相关性,所述相关性通过将所述输入轨迹每个笔画的多种笔迹特征值分别和每个预设标识相应笔画的多种笔迹特征值取方差并求和获取;
目标标识匹配子单元,用于在所述预设标识中获取与所述输入轨迹相关性最大的目标标识,若该相关性大于一预设阈值,则为所述输入轨迹匹配所述目标标识。
11.如权利要求10所述的装置,其特征在于,还包括:
特征信息采集子单元,用于采集并存储所述预设数据库中每个预设标识的特征信息,所述特征信息包括笔画数和每个笔画的多种笔迹特征值。
12.如权利要求8所述的装置,其特征在于,所述碰撞检测单元包括:
预设位置点碰撞检测子单元,用于对所述几何区域的预设位置点进行碰撞检测,所述几何区域包括三角形区域或矩形区域,对应地,所述预设位置点包括矩形的四个顶点和中心点或者三角形的三个顶点和中心点;
判定子单元,用于当检测到至少有预设个预设位置点沿3D摄像机朝向或者手臂朝向引出的射线碰撞到同一3D物体区域时,判定所述3D物体区域内的3D物体为用户选择操作的3D物体,所述3D物体区域为内含3D物体的区域,包括三角形或者四边形;
所述预设位置点碰撞检测子单元包括:
平面坐标获取子单元,用于获取所述几何区域的预设位置点的平面坐标;
转换子单元,用于分别对所述预设位置点的平面坐标进行3D变换,转换为3D场景下的3D坐标;
检测子单元,用于根据所述预设位置点的3D坐标,对所述预设位置点进行碰撞检测。
13.如权利要求8所述的装置,其特征在于,所述响应单元包括:
渲染子单元,用于对所述3D物体进行即时渲染,播放特效;
操作执行子单元,用于对所述3D物体执行所述标识对应的交互事件对应的功能操作。
CN201210075429.8A 2012-03-20 2012-03-20 3d场景交互方法、装置及碰撞检测方法、装置 Active CN102637116B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210075429.8A CN102637116B (zh) 2012-03-20 2012-03-20 3d场景交互方法、装置及碰撞检测方法、装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210075429.8A CN102637116B (zh) 2012-03-20 2012-03-20 3d场景交互方法、装置及碰撞检测方法、装置

Publications (2)

Publication Number Publication Date
CN102637116A CN102637116A (zh) 2012-08-15
CN102637116B true CN102637116B (zh) 2016-05-25

Family

ID=46621520

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210075429.8A Active CN102637116B (zh) 2012-03-20 2012-03-20 3d场景交互方法、装置及碰撞检测方法、装置

Country Status (1)

Country Link
CN (1) CN102637116B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105706023B (zh) * 2013-10-31 2019-01-15 惠普发展公司,有限责任合伙企业 与不支持的输入设备的通信
CN104932872A (zh) * 2014-03-18 2015-09-23 腾讯科技(深圳)有限公司 消息处理方法和服务器
CN105303523A (zh) * 2014-12-01 2016-02-03 维沃移动通信有限公司 一种图像处理方法及移动终端
CN107038328A (zh) * 2016-02-03 2017-08-11 上海源胜文化传播有限公司 一种基于三维人体模型的经络穴位显示系统及方法
CN106648355B (zh) * 2016-11-07 2020-10-02 成都华域天府数字科技有限公司 3d模型选择方法及装置
CN109101102A (zh) * 2017-06-20 2018-12-28 北京行云时空科技有限公司 用于vr/ar的控件交互方法、装置及系统
CN112540711B (zh) * 2020-11-30 2022-08-05 国机工业互联网研究院(河南)有限公司 一种在网页端选取三维空间物体的控制方法、装置及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102236414A (zh) * 2011-05-24 2011-11-09 北京新岸线网络技术有限公司 三维显示空间中的图片操作方法和系统
CN102270037A (zh) * 2010-06-04 2011-12-07 宏碁股份有限公司 徒手人机界面操作系统及其方法
CN102354272A (zh) * 2011-09-20 2012-02-15 宇龙计算机通信科技(深圳)有限公司 应用程序的启动方法和终端
CN102354271A (zh) * 2011-09-16 2012-02-15 华为终端有限公司 手势输入方法及移动终端、主机

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101743948B1 (ko) * 2010-04-07 2017-06-21 삼성전자주식회사 인터렉티브 디스플레이에서 근접 센싱을 위한 방법 및 근접 센싱 이미지를 처리하는 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102270037A (zh) * 2010-06-04 2011-12-07 宏碁股份有限公司 徒手人机界面操作系统及其方法
CN102236414A (zh) * 2011-05-24 2011-11-09 北京新岸线网络技术有限公司 三维显示空间中的图片操作方法和系统
CN102354271A (zh) * 2011-09-16 2012-02-15 华为终端有限公司 手势输入方法及移动终端、主机
CN102354272A (zh) * 2011-09-20 2012-02-15 宇龙计算机通信科技(深圳)有限公司 应用程序的启动方法和终端

Also Published As

Publication number Publication date
CN102637116A (zh) 2012-08-15

Similar Documents

Publication Publication Date Title
CN102637116B (zh) 3d场景交互方法、装置及碰撞检测方法、装置
US8593398B2 (en) Apparatus and method for proximity based input
CN103777882B (zh) 基于触摸屏的多项选中方法及装置
CN103294401A (zh) 一种具有触摸屏的电子设备的图标处理方法及装置
CN104346085A (zh) 一种对控件对象的操作方法、装置及终端设备
CN103425409B (zh) 投影显示的控制方法和装置
CN104123046A (zh) 用于触控系统判断触控手势的方法及触控系统
JP2004246578A (ja) 自己画像表示を用いたインタフェース方法、装置、およびプログラム
JP5925347B1 (ja) 情報処理システム及びプログラム、サーバ、端末、並びに媒体
KR101519225B1 (ko) 휴대용 디바이스 센서를 이용한 디바이스 간 컨텐츠 이동 방법 및 시스템
CN103218162A (zh) 一种终端操作方法及装置
CN102968245B (zh) 鼠标触摸协同控制方法、装置及智能电视交互方法、系统
CN104899361A (zh) 一种远程操控方法及装置
CN101833401A (zh) 光学触控显示装置及其操作方法
CN105892895A (zh) 多指滑动手势的识别方法、装置及终端设备
CN106227432A (zh) 一种终端显示界面局部放大方法、系统及触摸终端
US10521108B2 (en) Electronic apparatus for detecting touch, method of controlling the same, and display apparatus including touch controller
CN103336587B (zh) 一种九轴惯性定向输入装置的远端悬浮触控设备和方法
CN101414224B (zh) 定义书写位置的装置及方法
CN116700506A (zh) 智能笔与交互平板的交互方法、装置、设备以及存储介质
CN106339136A (zh) 红外触摸屏扫描方法及装置
CN105607832A (zh) 一种信息处理方法及电子设备
CN104777900A (zh) 一种基于手势趋势的图形界面响应方法
JP6223371B2 (ja) ポインティング装置、ポインティング方法、及びプログラム
KR101799413B1 (ko) 스크롤 입력 기반 인터랙티브 노선정보 제공 시스템 및 방법, 그리고 이를 위한 사용자 장치 및 컴퓨터 프로그램이 기록된 기록매체

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant