CN102770836B - 用于在三维虚拟环境中控制对象的运动的方法 - Google Patents

用于在三维虚拟环境中控制对象的运动的方法 Download PDF

Info

Publication number
CN102770836B
CN102770836B CN201180010633.5A CN201180010633A CN102770836B CN 102770836 B CN102770836 B CN 102770836B CN 201180010633 A CN201180010633 A CN 201180010633A CN 102770836 B CN102770836 B CN 102770836B
Authority
CN
China
Prior art keywords
motion
pointer
virtual environment
area
dimensional virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201180010633.5A
Other languages
English (en)
Other versions
CN102770836A (zh
Inventor
S·博克
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alcatel Lucent SAS
Original Assignee
Alcatel Lucent SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alcatel Lucent SAS filed Critical Alcatel Lucent SAS
Publication of CN102770836A publication Critical patent/CN102770836A/zh
Application granted granted Critical
Publication of CN102770836B publication Critical patent/CN102770836B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及用于由浏览三维虚拟环境的用户的人机接口设备在三维虚拟环境中控制对象的运动的方法、系统和设备。人机接口设备被连接到用于接入三维虚拟环境的客户机设备。三维虚拟环境被部署在至少一个应用服务器(3D-AS)上。客户机设备和至少一个应用服务器通过通信链路连接。该方法首先通过检测指针在二维表面上的位置来确定在二维表面上的起始点,随后基于起始点,分配围绕起始点的表面上的第一区域、围绕第一区域的表面上的第二区域以及围绕第二区域的表面上的第三区域。另外,对象运动控制指令根据指针的运动和与检测到运动发生的区域相关联的对象运动控制函数而生成。

Description

用于在三维虚拟环境中控制对象的运动的方法
技术领域
本发明涉及如在权利要求1的前序部分描述的用于在三维虚拟环境中控制对象的运动的方法和如在权利要求5的前序部分描述的系统。
背景技术
当前,在三维虚拟环境中准确、平稳和直观地移动对象要求任一人机接口设备(还称为HID)对于虚拟现实和/或人的两个手的协调而具体定制,每个手控制模拟输入设备上的两个自由度。
已知的用于三维虚拟环境中的对象的运动控制的带有两个模拟游戏杆的控制台是在传统家庭游戏系统中实现的解决方案。每一个模拟游戏杆允许两个自由度。该交互机制依赖于目标应用的可用性要求,但用于三维虚拟世界中的虚拟人的典型控制机制是一个游戏杆(通常是左边的)控制虚拟人的线性运动,而另一个游戏杆(通常是右边的)控制相机角度的运动。
更多分裂性的控制设备,如任天堂(Nintendo)Wii带有的控制设备,还需要两个手的配合以捕获三维世界中的运动:一只手通过在Nunchuck上呈现的模拟操作杆控制两个自由度,而另一只手通过倾斜Wii遥控器控制额外的两个自由度。
此外,美国专利申请(公开号US2004/0260507,公开日2004年12月23日)公开了一种用于测量角和线性速度的专用传感器硬件,然而,在专业虚拟现实VR系统中使用的更高级的跟踪技术高精度地捕获全部六个自由度,但使用昂贵的、专用和复杂的装置。
在另一个美国专利申请(公开号US2009/0209343,公开日2009年8月20日)中公开了一种拍摄系统,其通过将手和身体运动转换成第二人生(Second Life)中的虚拟人的运动来工作。向前轻触一点,虚拟人就会走,轻触得快,虚拟人就会跑,轻触得太快,你就会跌倒。
先前描述的用于在三维环境中控制对象的运动的系统每一个都是不利的,因为需要相对复杂的系统控制该运动,其中复杂性在该系统中是需要的,即,用于分析人的姿势的照相机设置和处理环境以及在三维世界中控制对象的运动所需要的身体协调的水平。
发明内容
本发明的目的是提供一种上述已知类型的用于在三维虚拟环境中控制对象的运动的方法,但其中,用于在这种三维虚拟环境中控制对象的系统的复杂性被降低。
根据本发明,该目的通过根据权利要求1的方法、根据权利要求5的系统、根据权利要求7的对象运动控制模块、根据权利要求9的相关客户机设备和根据权利要求10的相关人机接口设备实现。
实际上,首先通过检测指针在二维表面上的初始位置来确定二维表面上的起始点,并基于所确定的该起始点,围绕起始点在二维表面上分配第一区域,围绕所述第一区域在二维表面上分配第二区域,接着围绕第二区域在该表面上分配第三区域,随后根据指针在表面上的连续运动和与运动被检测到的区域相关联的对象运动控制函数,将对象运动控制函数分配给每个所分配的区域,从而生成对象运动控制指令。
第二分配区域是不包括第一分配区域的分配区域,第三分配区域是不包括第一分配区域和第二分配区域的分配区域。
本发明的附加优点在于只需要单手交互,并且该方案可使用现成的硬件(例如触摸敏感表面)容易实现,允许三个自由度并允许在三维环境中控制对象的角和线性速度,这对于休闲的玩家或对于以直观方式导航3D虚拟环境是足够的。
本发明的另一个特有的特征在权利要求2、权利要求6和权利要求8中描述。
如果指针的运动发生在第一分配区域内,则对象运动控制函数意味着对象在三维虚拟环境中没有运动,如果指针的运动在第二区域内被检测到,则对象运动控制函数意味着在三维虚拟环境中仅涉及/指示对象的角运动,其中角速度根据指针的运动获得,或者在指针的运动在第三区域内被检测到的情况下,对象运动控制函数意味着在三维虚拟环境中涉及/指示对象的旋转和线性运动,其中角和线性速度根据指针的运动获得。
需要注意,在权利要求中使用的术语“包括”不应当被解释为限于其后所列出的装置。因此,表述“设备包括装置A和B”的范围不应当限于仅由组件A和B构成的设备。它意味着对于本发明,设备仅有的相关组件是A和B。
同样,需要注意,权利要求中使用的术语“连接”不应被解释为仅限于直接连接。因此,表述“设备A连接到设备B”的范围不应当限于设备A的输出直接连接到设备B的输入的设备或系统。它意味着在A的输出和B的输入之间存在路径,它可以是包括其它设备或装置的路径。
附图说明
通过结合附图参考以下的实施例描述,本发明的上述和其它目的和特征将会更加明显,并且发明本身可以得到更好的理解,其中:
图1表示用于在三维虚拟环境中控制对象的运动的系统,其具有设备和连接网络并且其中本发明的实施例得以实现。
图2表示对象运动控制模块的功能性结构,其用于在根据本发明的用于在三维虚拟环境中控制对象的运动的系统中使用。
图3a表示二维表面,其上面分配有起始点和第一、第二、第三区域。
图3b进一步表示指针在二维表面上相对于起始点和第一、第二、第三分配区域的运动。
具体实施方式
在下面的段落中,将参考附图描述根据本发明的用于在三维虚拟环境中控制对象的运动的系统和相关设备的实现。在该描述的第一段中,描述如分别在图1和图2中呈现的该网络的主要组件及其功能部分。在第二段中,定义在前面提到的网络组件与所描述的功能部分之间的所有连接。在接下来的段落中,描述用于在三维虚拟环境中控制对象的运动的系统的实际执行。
本发明的该实施例的关键组件,如图1所示,是应用服务器3D-4S,其部署了如第二人生、仙境(Wonderland)、OpenCroque、Solipsys的三维虚拟环境3DVE或任何其它三维虚拟环境/世界。虽然为了简化的原因,只示出了一个应用服务器3D-4S,但通常有超过一个的这种应用服务器。另外,存在用于接入三维虚拟环境的客户机设备CLD,其中客户机设备CLD通常是个人计算机、如个人数字助理的移动PC或移动电话等,并且客户机设备CLD具有经由DSL、电缆、WiFi或者其它的因特网接入。客户机设备CLD通常还执行用于接入如第二人生的三维虚拟环境3DVE的客户机应用。
为了在这种三维虚拟环境3DVE中控制如用户虚拟人的对象的运动,存在人机交互设备HID,在本发明中是具有触摸屏的移动通信设备,可选择地,也可以是膝上型计算机的触摸板或者甚至是用于控制客户机设备CLD的鼠标。需要重点指出的是,在本发明中公开的交互机制不需要在人机交互设备HID上提供3D环境,也不需要终端用户直接目光接触人机交互设备HID。
人机交互设备HID可通过有线或无线连接而连接到客户机装置CLD。有线连接可以是USB、火线(Firewire)、串行端口、以太网、光纤或者任何其它连接。无线连接技术包括wifi、wimax、蓝牙、红外、3G、LTE或者任何其它无线连接。客户机设备CLD可通过因特网连接或任何其它合适的连接(如内部网、蓝牙、wifi、wimax、3G网络等)直接或间接(例如通过接入网络连接)地连接到应用服务器3D-AS。
此外,客户机设备CLD或者应用服务器3D-4S可以包括对象运动控制模块OMCM,用于将来自HID的输入数据转换成三维世界内对象的预期运动。可选择地,对象运动控制模块OMCM的功能可分布在客户机设备CLD、应用服务器3D-4S和任何其它中间设备上。
对象运动控制模块OMCM首先包括初始指针检测部IPDP,其能够通过检测指针在二维表面上的位置来确定二维表面上的起始点,其中二维表面可以是膝上型计算机设备的触摸板或PDA的触摸敏感屏。可选择地,如果作为人机交互装置HID的鼠标在作为二维表面的桌子或另一个表面上移动,则按压鼠标按钮的地方指示交互的起始点。
另外,存在区域分配部ZAP和对象运动控制指令生成部IGP,其中,区域分配部ZAP用于基于所确定的起始点,分配在表面上围绕起始点的第一(环形)区域、在表面上围绕第一区域的第二(环形)区域和在表面上围绕第二区域的第三(环形)区域,对象运动控制指令生成部IGP能够根据指针的运动并另外根据与所述运动发生的每个所分配的区域相关联的对象运动控制函数,生成对象运动控制指令。
应当注意,虽然在图3a和图3b中,所分配的区域I、II、III被呈现为环形,但每个这种区域也可以是三角形、矩形或具有任何其它合适的形状。在本实施例中,虽然可以替代地选择其它合适的形状,但这些所分配的区域被假定为环形。
在本方法和系统中的对象运动控制函数意味着:
1.如果指针的运动在第一(环形)区域内被检测到,则对象在三维虚拟环境中没有运动;或者
2.如果指针的运动在第二(环形)区域内被确定/检测到,则对象在三维虚拟环境中的运动是角运动,其中对象的运动的角速度根据指针的运动获得;或者
3.如果指针的运动在第三区域内被检测到,则对象在三维虚拟环境中的运动是旋转和线性运动,其中旋转和线性速度根据指针的运动获得。
对象运动控制模块OMCM具有输入端子I2,其同时是是初始指针检测部IPDP的输入端子,其中初始指针检测部IPDP被连接到区域分配部ZAP,区域分配部ZAP再被连接到对象运动控制指令生成部IGP。对象运动控制指令生成部IPG具有输出端子,其同时是对象运动控制模块OMCM的输出端子。
为了说明本发明的执行,假设用户正使用他的人机交互设备HID(例如他的PDA的触摸敏感表面或者甚至是连接到他的客户机设备CLD(例如,个人计算机、游戏控制台或者配备有屏幕的公共终端)的触摸屏)并使用用于浏览三维虚拟环境3DVE的客户端程序在浏览三维虚拟环境3DVE,如第二人生或仙境。
假设用户开始浏览第二人生并想要用他的虚拟人在第二人生中移动。为了在第二人生中控制虚拟人的运动,用户根据预期的交互用手指或指示设备在某一位置触摸该触摸敏感表面。初始指针检测部IPDP通过检测指针在二维表面(即触摸屏)上的初始位置并根据该首次触摸,在二维表面上确定起始点。根据该所确定的起始点,区域分配部ZAP分配触摸屏表面上围绕起始点的第一区域、触摸屏表面上围绕第一区域的第二区域和触摸屏表面上围绕第二区域的第三区域。
应当指出,每个这种区域可以是环形、三角形、矩形或者具有任何其它合适的形状。在该实施例中,这些区域被假定为环形,尽管其它合适的形状可以可替代地选择。
上面提到的这三个所分配的敏感区域的位置可根据指针(即手指)初始放置在触摸敏感表面上的触摸敏感区域上的位置获得,并且只要指针(即手指)在表面上被拖曳,则这些所分配的区域就维持在相同的位置。
为了节省电池寿命,这些所分配区域(即在本实施例中由圆环限制)可看起来像触摸敏感表面上的视觉反馈,如果触摸敏感表面还能够如在常规触摸屏上显示图像的话,但这不是强制性的。
此外,手指或指示设备在触摸敏感表面上的运动被跟踪,并且基于该运动并结合与该运动发生的区域相关联的对象运动控制函数,对象运动控制指令生成部IGP生成对象运动控制指令。
如果用户的手指或者指示设备在第一(环性)区域内移动,则对象运动控制指令生成部(IGP)不生成对象运动控制指令。如果用户的手指或者指示设备滑出第一(内部)区域,然后返回到第一区域或者松开与触摸敏感表面的接触(例如,手指抬起),则IGP生成对象运动控制指令以停止移动对象。
该对象运动控制指令生成部IGP生成指示三维虚拟环境3DVE根本没有对象的移动的对象运动控制指令。
如果用户的手指或者指示设备随后从第一区域移动到第二环形区域内,则根据与该区域相关联的对象运动控制函数,对象在三维虚拟环境中的运动是角运动。与第二区域(在第一区域外且在第三区域外)相关联的对象运动控制函数是只有角运动在三维虚拟环境3DVE的对象上执行,其中标准化角速度根据Δθ的幅度和符号的变化获得(参见图3a),该角度由位于第一区域之外的手指的当前位置、环形的中心和所拖曳的手指最初穿过第一圆环的边界的点形成。如果Δθ的幅度增加,则角速度提高。如果Δθ的幅度减小,则角速度降低。如果Δθ的符号变化,则角旋转的方向将变化。
随后,用户可将他的手指或指示设备拖出第二区域外而进入也被称为最远区域“旋转和线性运动敏感区域”的第三区域。
然后,对象运动控制指令生成部IGP根据在第三区域内的运动和与该第三区域相关联的对象运动控制函数,生成附加线性对象运动控制指令,其中该对象运动控制函数除了在指示设备离开最内部的环形时产生的旋转运动之外还产生标准化的线性运动分量。当手指被拖曳出第二环形时,线性运动相对于对象的当前方位的方向根据方向v(参见图3b)即从环形的中心到手指最初离开第一环形的点的矢量而获得。只要指示设备在第一环形之外的表面上被拖曳,则相对方向是固定的。如果手指在表面上不再被拖曳或者返回到第一环形内,则相对方向被重置。在第二区域(环形)之外,标准化的速度根据表示手指当前被拖曳的点与第二环形之间的距离的线段ΔR的长度的变化获得。手指被拖曳得距离中心越远,虚拟人则移动得越快。手指被拖曳得离第二环形越近,则虚拟人移动得越慢。如果手指被拖曳回到第二环形内,则对象运动控制函数指示停止线性运动。
例如,当手指被拖曳进入第三区域内时:
-矢量v指向北,ΔR>0且Δθ=0对应于虚拟人向前走。
-矢量v指向北,ΔR>0且Δθ>0对应于虚拟人向前走并且同时向左旋转。
-矢量v指向北,ΔR>0且Δθ<0对应于虚拟人向前走并且同时向右旋转。
-矢量v指向东,ΔR>0且Δθ=0对应于虚拟人向右平移。
由对象运动控制函数生成的标准化运动的灵敏度可通过用户接口配置以适应用户的使用需求,所生成的相关数据可适用于由3D专用应用CLD接口接受的特定数据表示和协议。
人机接口设备HID的附加按钮可被分配用于执行三维虚拟环境3DVE内对象的运动从地平面例如跳起或飞行。
最后应注意,本发明的实施例在上面按照功能模块进行了描述。根据上面给出的这些模块的功能描述,对于设计电子设备领域的普通人员来说,这些模块的实施例如何用已知的电子组件制造是显然的。因此,功能模块的内容的详细结构不再给出。
虽然本发明的原理已经在上面结合特定装置进行了描述,但应当清楚地理解,该描述仅仅是作为例子给出的,并不是对由后附的权利要求所限定的本发明的范围的限制。

Claims (10)

1.一种用于由浏览三维虚拟环境的用户的人机接口设备(HID)在所述三维虚拟环境中控制对象的运动的方法,所述人机接口设备(HID)被连接到用于接入所述三维虚拟环境的客户机设备(CLD),所述三维虚拟环境被部署在至少一个应用服务器(3D-AS)处,所述客户机设备(CLD)和所述至少一个应用服务器(3D-AS)通过通信链路连接,其特征在于,所述方法包括以下步骤:
a.通过检测指针在二维表面上的位置来确定在所述二维表面上的起始点;
b.基于所述起始点,分配围绕所述起始点的所述表面上的第一区域(I)、围绕所述第一区域的所述表面上的第二区域(II)以及围绕所述第二区域的所述表面上的第三区域(III);以及
c.根据所述指针的运动和与所述运动被检测到的区域相关联的对象运动控制函数,生成对象运动控制指令。
2.如权利要求1所述的方法,其特征在于,所述方法中的所述对象运动控制函数是:
d1.如果所述指针的所述运动在所述第一区域(I)内检测到,则所述对象在所述三维虚拟环境中没有运动;或者
d2.如果所述指针的所述运动在所述第二区域(II)内检测到,则所述对象在所述三维虚拟环境中的所述运动仅是角运动,其中角速度根据所述指针的所述运动获得;或者
d3.如果所述指针的所述运动在所述第三区域(III)内检测到,则所述对象在所述三维虚拟环境中的所述运动是旋转和/或线性运动,其中,所述旋转和/或线性运动的速度根据所述指针的所述运动获得。
3.如权利要求1或2所述的方法,其特征在于,所述人机接口设备(HID)是具有触摸敏感表面的客户机设备,其中,所述确定在二维表面上的所述起始点的步骤是检测所述指针在所述触摸敏感表面的所述二维表面上的位置。
4.如权利要求1或2所述的方法,其特征在于,所述人机接口设备(HID)是计算机鼠标,其中所述确定在二维表面上的所述起始点的步骤是检测通过点击鼠标按钮而在二维表面上移动的所述鼠标的初始起始点。
5.一种用于在三维虚拟环境中控制对象的运动的系统,所述系统包括浏览所述三维虚拟环境的用户的人机接口设备(HID),用于控制所述对象的所述运动;所述系统还包括至少一个用于部署所述三维虚拟环境应用的应用服务器(3D-AS),其特征在于,所述系统包括:
a.初始指针检测部(IPDP),用于通过检测指针在二维表面上的位置来确定在所述二维表面上的起始点;
b.区域分配部(ZAP),用于基于所确定的所述起始点,分配围绕所述起始点的所述表面上的第一区域(I)、围绕所述第一区域(I)的所述表面上的第二区域(II)以及围绕所述第二区域(II)的所述表面上的第三区域(III);以及
c.对象运动控制指令生成部(IGP),用于根据所述指针的运动和与所述运动发生的区域相关联的对象运动控制函数,生成对象运动控制指令。
6.如权利要求5所述的用于在三维虚拟环境中控制对象的运动的系统,其特征在于,所述系统中的所述对象运动控制函数是:
d1.如果所述指针的所述运动在所述第一区域(I)内被检测到,则所述对象在所述三维虚拟环境中没有运动;或者
d2.如果所述指针的所述运动在所述第二区域(II)内被检测到,则所述对象在所述三维虚拟环境中的所述运动仅是角运动,其中所述角运动根据所述指针的所述运动获得;以及
d3.如果所述指针的所述运动在所述第三区域(III)内被检测到,则所述对象在所述三维虚拟环境中的所述运动是旋转和/或线性运动,其中所述旋转和/或线性速度根据所述指针的所述运动获得。
7.一种在根据权利要求5或6所述的系统中使用的对象运动控制模块(OMCM),其特征在于,所述对象运动控制模块(OMCM)包括:
a.初始指针检测部(IPDP),用于通过检测指针在二维表面上的位置来确定在所述二维表面上的起始点;
b.区域分配部(ZAP),用于基于所确定的所述起始点,分配围绕所述起始点的所述表面上的第一区域(I)、围绕所述第一区域(I)的所述表面上的第二区域(II)以及围绕所述第二区域(II)的所述表面上的第三区域(III);以及
c.对象运动控制指令生成部(IGP),用于根据所述指针的运动和与所述运动发生的区域相关联的对象运动控制函数,生成对象运动控制指令。
8.如权利要求7所述的对象运动控制模块(OMCM),其特征在于,所述系统中的所述对象运动控制函数是:
d1.如果所述指针的所述运动在所述第一区域(I)内检测到,则所述对象在所述三维虚拟环境中没有运动;或者
d2.如果所述指针的所述运动在所述第二区域(II)内被检测到,则所述对象在所述三维虚拟环境中的所述运动仅是角运动,其中所述角运动根据所述指针的所述运动获得;或
d3.如果所述指针的所述运动在所述第三区域(III)内被检测到,则所述对象在所述三维虚拟环境中的所述运动是旋转和/或线性运动,其中所述旋转和线性速度根据所述指针的所述运动获得。
9.一种用于在根据权利要求5或6所述的系统中使用的客户机设备(CLD),其特征在于,所述客户机设备包括根据权利要求7或8所述的对象运动控制模块。
10.一种用于在根据权利要求5或6所述的系统中使用的人机接口设备(HID),其特征在于,所述人机接口设备包括根据权利要求7或8所述的对象运动控制模块。
CN201180010633.5A 2010-02-26 2011-02-16 用于在三维虚拟环境中控制对象的运动的方法 Expired - Fee Related CN102770836B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP10305200.7A EP2362302B1 (en) 2010-02-26 2010-02-26 Method for controlling motions of an object in a 3-dimensional virtual environment
EP10305200.7 2010-02-26
PCT/EP2011/052287 WO2011104154A1 (en) 2010-02-26 2011-02-16 Method for controlling motions of an object in a 3-dimensional virtual environment

Publications (2)

Publication Number Publication Date
CN102770836A CN102770836A (zh) 2012-11-07
CN102770836B true CN102770836B (zh) 2015-04-15

Family

ID=42342677

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180010633.5A Expired - Fee Related CN102770836B (zh) 2010-02-26 2011-02-16 用于在三维虚拟环境中控制对象的运动的方法

Country Status (6)

Country Link
US (1) US8907946B2 (zh)
EP (1) EP2362302B1 (zh)
JP (1) JP5658286B2 (zh)
KR (1) KR101513343B1 (zh)
CN (1) CN102770836B (zh)
WO (1) WO2011104154A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102664988B (zh) * 2012-03-23 2014-02-19 中国科学院软件研究所 一种基于智能手机的三维交互方法及系统
US11181938B2 (en) * 2012-08-31 2021-11-23 Blue Goji Llc Full body movement control of dual joystick operated devices
CN103823705A (zh) * 2013-11-08 2014-05-28 广州菲动软件科技有限公司 虚拟角色转向控制方法及其系统
JP6793255B2 (ja) * 2017-03-20 2020-12-02 グーグル エルエルシー 仮想現実における保持オブジェクトの安定化

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1955901A (zh) * 2005-10-26 2007-05-02 三星电子株式会社 控制图形对象的三维运动的设备和方法
CN101778657A (zh) * 2007-08-23 2010-07-14 科乐美数码娱乐株式会社 网络游戏系统、网络游戏系统的控制方法、游戏装置、游戏装置的控制方法、程序及信息存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7269632B2 (en) * 2001-06-05 2007-09-11 Xdyne, Inc. Networked computer system for communicating and operating in a virtual reality environment
JP2004005272A (ja) * 2002-05-31 2004-01-08 Cad Center:Kk 仮想空間移動制御装置及び制御方法並びに制御プログラム
KR100543701B1 (ko) 2003-06-17 2006-01-20 삼성전자주식회사 공간형 입력 장치 및 방법
JP4819467B2 (ja) * 2005-10-04 2011-11-24 任天堂株式会社 オブジェクト移動制御プログラムおよび情報処理装置
US8698735B2 (en) * 2006-09-15 2014-04-15 Lucasfilm Entertainment Company Ltd. Constrained virtual camera control
US8269729B2 (en) * 2007-01-31 2012-09-18 Perceptive Pixel Inc. Methods of interfacing with multi-point input devices and multi-point input systems employing interfacing techniques
JP5252879B2 (ja) * 2007-10-25 2013-07-31 株式会社カプコン 操作制御装置、及び、この操作制御装置を実現するためのプログラム
US8696458B2 (en) 2008-02-15 2014-04-15 Thales Visionix, Inc. Motion tracking system and method using camera and non-camera sensors
CN103324386A (zh) * 2008-08-22 2013-09-25 谷歌公司 移动设备上的三维环境中的导航

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1955901A (zh) * 2005-10-26 2007-05-02 三星电子株式会社 控制图形对象的三维运动的设备和方法
CN101778657A (zh) * 2007-08-23 2010-07-14 科乐美数码娱乐株式会社 网络游戏系统、网络游戏系统的控制方法、游戏装置、游戏装置的控制方法、程序及信息存储介质

Also Published As

Publication number Publication date
JP2013520736A (ja) 2013-06-06
US20120313935A1 (en) 2012-12-13
KR20120137390A (ko) 2012-12-20
US8907946B2 (en) 2014-12-09
JP5658286B2 (ja) 2015-01-21
EP2362302A1 (en) 2011-08-31
CN102770836A (zh) 2012-11-07
WO2011104154A1 (en) 2011-09-01
EP2362302B1 (en) 2018-06-06
KR101513343B1 (ko) 2015-04-17

Similar Documents

Publication Publication Date Title
US11221730B2 (en) Input device for VR/AR applications
Annett et al. Medusa: a proximity-aware multi-touch tabletop
US9007299B2 (en) Motion control used as controlling device
EP2042978B1 (en) Method and apparatus for selecting an object within a user interface by performing a gesture
US5936612A (en) Computer input device and method for 3-D direct manipulation of graphic objects
CN104364753B (zh) 用于突出显示活动界面元素的方法
KR20220030294A (ko) 인공 현실 환경들에서 주변 디바이스를 사용하는 가상 사용자 인터페이스
US9830042B2 (en) Enhanced roll-over, button, menu, slider, and hyperlink environments for high dimensional touchpad (HTPD), other advanced touch user interfaces, and advanced mice
EP3223116A1 (en) Multiplatform based experience generation
US20150220158A1 (en) Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User&#39;s Range of Motion
US20120127070A1 (en) Control signal input device and method using posture recognition
US20120068927A1 (en) Computer input device enabling three degrees of freedom and related input and feedback methods
JP5807686B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR101318244B1 (ko) 3차원 사용자 인터페이스 구현 시스템 및 구현 방법
CN102770836B (zh) 用于在三维虚拟环境中控制对象的运动的方法
US9310851B2 (en) Three-dimensional (3D) human-computer interaction system using computer mouse as a 3D pointing device and an operation method thereof
EP2538308A2 (en) Motion-based control of a controllled device
CN104536562A (zh) 一种基于体感技术及云计算的文件传输方法
KR20210010361A (ko) 원격 호버 터치를 위한 전자 디바이스 및 원격 인터랙션 방법
Chen et al. An integrated framework for universal motion control
Kim et al. A tangible user interface with multimodal feedback
Henderson et al. Exploring cross-modal training via touch to learn a mid-air marking menu gesture set
GB2434227A (en) Mouse that can sense rotation and lateral movements with the mouse processing the rotation data using location data send back by the computer
KR20120062053A (ko) 터치스크린의 가상 캐릭터 제어방법
Sokolowski et al. A Contextual Semantic Interaction Interface for Virtual Reality Environments

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150415