CN102819315A - 一种3d人机交互方法及系统 - Google Patents
一种3d人机交互方法及系统 Download PDFInfo
- Publication number
- CN102819315A CN102819315A CN2012102559815A CN201210255981A CN102819315A CN 102819315 A CN102819315 A CN 102819315A CN 2012102559815 A CN2012102559815 A CN 2012102559815A CN 201210255981 A CN201210255981 A CN 201210255981A CN 102819315 A CN102819315 A CN 102819315A
- Authority
- CN
- China
- Prior art keywords
- electronic tag
- machine interface
- palm
- imaging space
- finger
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/033—Indexing scheme relating to G06F3/033
- G06F2203/0331—Finger worn pointing device
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开一种3D人机交互方法,包括:为手部配置不同ID的电子标签,配置包含3D虚拟人机界面成像空间的射频电磁场;手部进入射频电磁场后,获取手部上电子标签的相关信息;根据获取的电子标签的相关信息,获得各手指和手掌在3D虚拟人机界面成像空间的位置信息、运动速度、运动方向和运动轨迹;将所述位置信息与3D虚拟人机界面成像空间中显示的控件或热点进行匹配处理;判断手指或手掌的动作是否符合3D虚拟人机界面成像空间中控件或热点的触控动作定义;触发对3D虚拟人机界面成像空间中控件或热点的操作;本发明还提供一种3D人机交互系统。根据本发明的技术方案,能够实现符合精准触控要求的裸眼3D人机交互。
Description
技术领域
本发明涉及终端设备的人机交互技术,尤其涉及一种3D人机交互方法及系统。
背景技术
传统的显示和输入设备,如触摸屏、键盘,其交互模式仍然处于二维阶段,同时受到实体设备特定的平面面积的限制。一方面,移动终端作为一种实体显示和输入设备,追求纤薄小巧,方便携带,另一方面,又希望显示及触控的有效面积更大;采用虚拟的显示和触摸输入方式,能够同时满足这两方面的需求。对于移动终端上传统的二维显示和输入设备,显示的信息量、触点的准确度和操作的便捷程度,都与台式机相差较大,要具有台式机的显示和输入能力,采用虚拟的显示和触摸输入方式将能够克服移动终端本身物理器件的局限性。
目前已有一些3D手势识别技术问世,但仅限于实现幅度较大、简约、易辨识的手势的识别,适用于移动终端的3D手势十分有限。例如,3D虚拟键盘的打字、3D虚拟手写输入、3D虚拟乐器的弹奏,都比较复杂,涉及辨识精度要求较高的触控动作,目前已有的手势识别技术尚不能对精细、复杂、快速、连续的手部动作进行有效识别。
近年来近距离无线通信技术(NFC,Near Field Communication)和裸眼3D显示技术上的快速发展,使得在终端上大规模应用高精度的3D人机交互技术成为了亟待解决的问题。
发明内容
有鉴于此,本发明的主要目的在于提供一种3D人机交互方法及系统,能够实现符合精准触控要求的裸眼3D人机交互。
为达到上述目的,本发明的技术方案是这样实现的:
本发明提供一种3D人机交互方法,为手部配置不同ID的电子标签,并配置包含3D虚拟人机界面成像空间的射频电磁场,包括:
手部进入射频电磁场后,获取手部上电子标签的相关信息;
根据获取的电子标签的相关信息,获得各手指和手掌在3D虚拟人机界面成像空间的位置信息、运动速度、运动方向和运动轨迹;
将所述位置信息与3D虚拟人机界面成像空间中显示的控件或热点进行匹配处理;
判断手指或手掌的动作是否符合3D虚拟人机界面成像空间中控件或热点的触控动作定义;符合3D虚拟人机界面成像空间中控件或热点的触控动作定义时,触发对3D虚拟人机界面成像空间中控件或热点的操作。
上述方法中,所述为手部配置不同ID的电子标签为:
为人体的各个手指和手掌分别配置不同ID的电子标签,并将手指或手掌与电子标签的ID的对应关系保存到终端的存储模块中。
上述方法中,
所述电子标签为RFID电子标签中的无源标签或RFID电子标签中的有源标签;
所述为手部配置不同ID的电子标签的方式是利用黏贴、涂抹、佩戴、植入方式将电子标签直接配置在各个手指或手掌上,或间接地配置在手指或手掌上。
上述方法中,所述配置包含3D虚拟人机界面成像空间的射频电磁场为:
通过调节终端中作为RFID读写模块的RF输出功率或天线工作频率,调整射频电磁场的作用范围,使射频电磁场包含所述3D虚拟人机界面成像空间。
上述方法中,
所述3D虚拟人机界面成像空间增大或缩小;
所述射频电磁场根据3D虚拟人机界面成像空间的增大而增大,根据3D虚拟人机界面成像空间的减小而减小。
上述方法中,所述获取手部上电子标签的相关信息为:
终端内的RFID读写模块和电子标签之间通过耦合元件进行射频信号的无接触耦合,耦合通道内,RFID读写模块和电子标签之间进行能量传递和数据交换,数据交换后,终端获取手部上电子标签的相关信息。
上述方法中,所述RFID读写模块和电子标签之间的耦合方式为电感耦合时,所述终端获取手部上电子标签的相关信息为:
将RFID读写模块中的天线与电子标签的天线的距离的变化转化成天线电压或电流的变化,终端的处理模块根据电阻负载调制数据信息传递的原理,对电子标签的天线电压进行调制,对RFID读写模块的天线电压进行解调,得到电子标签的相关信息。
上述方法中,所述RFID读写模块和电子标签之间的耦合方式为电磁反向散射耦合时,所述终端获取手部上电子标签的相关信息为:根据雷达定位原理,RFID读写模块的天线发射出去的射频信号,碰到电子标签后反射,带回各手指或手掌的电子标签的相关信息。
上述方法中,为手部配置的电子标签为无源电子标签时,所述终端获取手部上电子标签的相关信息为:配置电子标签的手部进入到射频电磁场后,接收终端内的RFID读写模块通过天线发出的射频信号,将获得的感应电流作为工作电流,发送存储在自身芯片中的电子标签的相关信息给RFID读写模块;RFID读写模块读取电子标签的相关信息并进行解码,将解码后的电子标签的相关信息送至终端的处理模块进行数据处理。
上述方法中,为手部配置的电子标签为有源电子标签时,所述终端获取手部上电子标签的相关信息为:
手部进入到射频电磁场后,主动将存储在自身芯片中的电子标签的相关信息通过某频率的信号发送给RFID读写模块,RFID读写模块读取电子标签的相关信息后,对该电子标签的相关信息进行解码,将解码后的电子标签的相关信息发送给终端的处理模块进行数据处理。
上述方法中,所述获得各手指和手掌在3D虚拟人机界面成像空间的位置信息、运动速度、运动方向和运动轨迹为:
终端内的RFID读写模块获取到手部的电子标签的相关信息后,根据电子标签的相关信息中的电子标签的ID,以及终端中存储模块保存的手指或手掌与电子标签的ID的对应关系,判断出在射频电磁场中运动的具体手指或手掌的部位;
根据RFID读写模块与手部上的电子标签之间的射频信号强度,获得各手指和手掌在3D虚拟人机界面成像空间的位置信息;根据获得的相邻两次位置信息计算手指或手掌的运动速度、运动方向和运动轨迹。
上述方法中,所述获得各手指和手掌在3D虚拟人机界面成像空间的位置信息、运动速度、运动方向和运动轨迹为:
终端内的RFID读写模块获取到手部的电子标签的相关信息后,根据电子标签的相关信息中的电子标签的ID,以及终端中存储模块保存的手指或手掌与电子标签的ID的对应关系,判断出在射频电磁场中运动的具体手指或手掌的部位;
利用雷达定位原理,根据发射的射频信号和回波信号的传输时间和角度,测量得到手部的距离信息和角度信息,根据该距离信息和角度信息,获得各手指和手掌在3D虚拟人机界面成像空间的位置信息,根据获得的相邻两次位置信息计算手指或手掌的运动速度、运动方向和运动轨迹。
上述方法中,该方法还包括:
处理模块根据位置信息、运动速度、运动方向和运动轨迹,生成数据文件,并将所述数据文件保存在RFID读写模块中或终端的存储模块中。
上述方法中,所述将所述位置信息与3D虚拟人机界面成像空间中显示的控件或热点进行匹配处理为:
根据对各手指和手掌在3D虚拟人机界面成像空间的位置信息,判断各手指和手掌在3D虚拟人机界面成像空间的位置,是否落入3D虚拟人机界面成像空间中显示的控件或热点的空间范围内,如果是,则认为手指或手掌触碰到控件或热点。
上述方法中,所述判断手指或手掌的动作是否符合3D虚拟人机界面成像空间中控件或热点的触控动作定义为:
处理模块根据手指或手掌的位置、运动速度、运动方向和运动轨迹,判断手指或手掌的动作是否符合3D虚拟人机界面成像空间中控件或热点的触控动作定义。
本发明还提供一种3D人机交互系统,包括:
第一配置模块,用于为手部配置不同ID的电子标签;
第二配置模块,用于配置包含3D虚拟人机界面成像空间的射频电磁场;
RFID读写模块,用于手部进入射频电磁场后,获取手部上电子标签的相关信息;
处理模块,用于根据获取的电子标签的相关信息,获得各手指和手掌在3D虚拟人机界面成像空间的位置信息、运动速度、运动方向和运动轨迹;将所述位置信息与3D虚拟人机界面成像空间中显示的控件或热点进行匹配处理;判断手指或手掌的动作是否符合3D虚拟人机界面成像空间中控件或热点的触控动作定义;符合3D虚拟人机界面成像空间中控件或热点的触控动作定义时,触发对3D虚拟人机界面成像空间中控件或热点的操作。
本发明提供的3D人机交互方法及系统,为手部配置不同ID的电子标签,并配置包含3D虚拟人机界面成像空间的射频电磁场;手部进入射频电磁场后,获取手部上电子标签的相关信息;根据获取的电子标签的相关信息,获得各手指和手掌在3D虚拟人机界面成像空间的位置信息、运动速度、运动方向和运动轨迹;将所述位置信息与3D虚拟人机界面成像空间中显示的控件或热点进行匹配处理;判断手指或手掌的动作是否符合3D虚拟人机界面成像空间中控件或热点的触控动作定义;符合3D虚拟人机界面成像空间中控件或热点的触控动作定义时,触发对3D虚拟人机界面成像空间中控件或热点的操作,如此,将3D空间定位与3D虚拟人机界面成像结合起来,能够实现符合精准触控要求的裸眼3D人机交互,使得3D虚拟键盘、3D虚拟手写输入、3D虚拟乐器等得以实现,解除终端人机交互的平面束缚,在自由的空间内,以最接近自然的方式实现人机交互。
附图说明
图1是本发明实现3D人机交互方法的流程示意图;
图2是本发明中射频电磁场与3D虚拟图像的位置示意图;
图3是本发明实现3D人机交互系统的流程示意图。
具体实施方式
射频识别(RFID,Radio Frequency IDentification)定位可以使用目前正在推广的NFC技术实现。NFC技术主要涉及NFC读写设备(包括芯片及天线)、RFID电子标签(包括芯片及天线)和相关软件;其中,NFC读写设备通过天线与RFID电子标签进行无线通信;RFID电子标签由耦合元件(即天线)和芯片组成,每个RFID电子标签具有唯一的电子编码(ID),RFID电子标签附着在物体上,用于标识目标对象;RFID是一种非接触式的自动识别技术,RFID电子标签进入到射频电磁场后,获得感应电流作为工作电源,将标签信息发送给NFC读写设备,识别工作不需要人工干预。此外,RFID技术可以识别高速运动的物体,并可同时对多个RFID电子标签进行识别。
本发明的基本思想是:为手部配置不同ID的电子标签,并配置包含3D虚拟人机界面成像空间的射频电磁场;手部进入射频电磁场后,获取手部上电子标签的相关信息;根据获取的电子标签的相关信息,获得各手指和手掌在3D虚拟人机界面成像空间的位置信息、运动速度、运动方向和运动轨迹;将所述位置信息与3D虚拟人机界面成像空间中显示的控件或热点进行匹配处理;判断手指或手掌的动作是否符合3D虚拟人机界面成像空间中控件或热点的触控动作定义;符合3D虚拟人机界面成像空间中控件或热点的触控动作定义时,触发对3D虚拟人机界面成像空间中控件或热点的操作。
下面通过附图及具体实施例对本发明再做进一步的详细说明。
本发明提供一种3D人机交互方法,图1是本发明实现3D人机交互方法的流程示意图,如图1所示,该方法包括以下步骤:
步骤101,为手部配置不同ID的电子标签;
具体的,为人体的各个手指和手掌分别配置不同ID的电子标签,并将手指或手掌与电子标签的ID的对应关系保存到终端的存储模块中;其中,电子标签可以是RFID电子标签,可以是RFID电子标签中的无源标签也可以是RFID电子标签中的有源标签,例如可以使用声表面波(SAW,Surface Acoustic Wave)无源电子标签等;为手部配置不同ID的电子标签的方式可以是利用黏贴、涂抹、佩戴、植入等方式将电子标签直接配置在各个手指或手掌上,也可以间接地配置在手指或手掌上,如将电子标签配置在手套、指甲套等物品上。
步骤102,配置包含3D虚拟人机界面成像空间的射频电磁场;
具体的,如图2所示,终端10中显示出的2D图像20在空间中形成3D虚拟人机界面成像空间30,通过调节终端中作为RFID读写模块的NFC芯片的RF输出功率或天线工作频率,来调整射频电磁场40的作用范围,使得射频电磁场40能够包含3D虚拟人机界面成像空间30;
本发明中,3D虚拟人机界面成像空间30与射频电磁场40的作用范围重合,使用同一坐标系;3D虚拟人机界面成像空间30可以放大或缩小,射频电磁场40的作用范围也可以配合3D虚拟人机界面成像空间30的增大或减小,可以根据3D虚拟人机界面成像空间30的增大而增大,根据3D虚拟人机界面成像空间30的减小而减小;3D虚拟人机界面成像空间30的各像素点在射频电磁场40中分别对应各自唯一的三维坐标值;本发明中,终端为支持3D图像显示功能的终端,优选的,可以是支持裸眼3D图像显示功能的终端,该终端既可以是手持式终端,如支持裸眼3D图像显示功能的手机,也可以是固定式终端,如支持裸眼3D图像显示功能的显示器、电视等。
步骤103,手部进入射频电磁场后,终端获取手部上电子标签的相关信息;
具体的,所述电子标签的相关信息包括各手指或手掌对应的电子标签的ID、手指或手掌在3D虚拟人机界面成像空间的坐标等;
终端内的RFID读写模块和电子标签之间通过耦合元件实现射频信号的无接触耦合,耦合通道内,RFID读写模块和电子标签之间能够实现能量传递和数据交换;RFID读写模块和电子标签之间的射频信号耦合方式可以是电感耦合,即通过空间高频交变磁场实现耦合,将RFID读写模块中的天线与电子标签的天线的距离的变化转化成天线电压或电流的变化;各手指或手掌的电子标签的ID利用二进制编码表示,终端的处理模块可用电阻负载调制数据信息传递的原理,对电子标签的天线电压进行调制,对RFID读写模块的天线电压进行解调,得到电子标签的相关信息;RFID读写模块与电子标签的距离较短,如几十厘米到1米时,可以采用NFC芯片作为RFID读写模块,一般可以采用电感耦合方式获取电子标签的相关信息;RFID读写模块和电子标签之间的射频信号耦合方式还可以是电磁反向散射耦合,根据雷达定位原理,RFID读写模块的天线发射出去的射频信号,碰到电子标签后反射,同时能够带回各手指或手掌的电子标签的相关信息,处理模块可以根据发射的射频信号和电子标签反射的回波信号的之间的时间差,计算各手指或手掌的距离变化,记录回波信号的角度变化,可确定各手指或手掌在3D虚拟人机界面成像空间的位置、运动方向和运动速度;RFID读写模块与电子标签的距离较长,如几米到几十米时,一般可以采用电磁反向散射耦合的方式获取电子标签的相关信息;
为手部配置的电子标签为无源电子标签时,配置电子标签的手部进入到射频电磁场后,不断接收终端内的RFID读写模块通过天线发出的射频信号,将获得的感应电流作为工作电流,发送存储在自身芯片中的电子标签的相关信息给RFID读写模块;RFID读写模块读取电子标签的相关信息并进行解码,将解码后的电子标签的相关信息送至终端的处理模块进行数据处理;
有源电子标签本身具有内部电源供应器,用于供应有源电子标签的内部驱动所需电源以产生对外的讯号,为手部配置的电子标签为有源电子标签时,手部进入到射频电磁场后,主动将存储在自身芯片中的电子标签的相关信息通过某频率的信号发送给RFID读写模块,RFID读写模块读取电子标签的相关信息后,对该电子标签的相关信息进行解码,将解码后的电子标签的相关信息发送给终端的处理模块进行数据处理。
步骤104,根据获取的电子标签的相关信息,获得各手指和手掌在3D虚拟人机界面成像空间的位置信息、运动速度、运动方向和运动轨迹;
具体的,终端内的RFID读写模块获取到手部的电子标签的相关信息后,首先,根据电子标签的相关信息中的电子标签的ID,以及终端中存储模块保存的手指或手掌与电子标签的ID的对应关系,判断出在射频电磁场中运动的具体手指或手掌的部位;由于多个(例如10个或更多)电子标签工作在同一频率,多个电子标签处于同一个射频电磁场的作用范围内时,需要采取多址访问控制机制来防止信息传输过程中产生冲突,导致的电子标签的相关信息的读取失败;采取多址访问控制机制时,可以采用时分多址访问(TDMA,Time DivisionMultiple Access)方式、频分多址访问(FDMA,Frequency Division MultipleAccess)方式和码分多址访问(CDMA,Code Division Multiple Access)方式的防冲突算法;
然后,RFID读写模块和电子标签之间的射频信号耦合方式是电感耦合时,可以利用电子标签对物体的唯一标识特性,根据RFID读写模块与手部上的电子标签之间的射频信号强度,获得各手指和手掌在3D虚拟人机界面成像空间的位置信息;根据获得的相邻两次位置信息计算手指或手掌的运动速度、运动方向和运动轨迹;
或,RFID读写模块和电子标签之间的射频信号耦合方式是电磁反向散射耦合,利用雷达定位原理,根据发射的射频信号和回波信号的传输时间和角度,测量得到手部的距离信息和角度信息,根据该距离信息和角度信息,获得各手指和手掌在3D虚拟人机界面成像空间的位置信息,根据获得的相邻两次位置信息计算手指或手掌的运动速度、运动方向和运动轨迹;其中,距离信息可以通过测量RFID读写模块的射频信号和电子标签的回波信号之间的时间差,将时间差除以2,再乘以光速,得到电子标签与RFID读写模块之间的距离;角度信指的是电子标签相对RFID读写模块的天线的角度,主要测量仰角和方位角,这里,RFID读写模块发射的射频信号的波束类似于探照灯的光柱,形状较窄,并具有很强的方向性,可以通过RFID读写模块不停的改变天线方向,以实现大空域的探测覆盖,射频信号的波束照到某个方向上时,如果有电子标签反馈的回波信号,RFID读写模块即可记录下角度信息,如果没有回拨信号,则换方向继续探测;或,可以在RFID读写模块应用智能波束扫描天线阵,RFID读写模块可以按照一定的处理顺序,智能地打开和关闭不同的天线,能够感知不同天线覆盖区域的电子标签,增大系统覆盖范围,同时记录各手指或手掌上电子标签的坐标;
终端的处理模块根据RFID读写模块在设置的时间间隔内针对同一电子标签的ID对应手指或手掌,获取的连续的位置信息,计算手指或手掌的运动速度、运动方向、运动轨迹等;然后,处理模块根据位置信息、运动速度、运动方向和运动轨迹等信息,生成数据文件,并将该数据文件保存在RFID读写模块中,例如,终端内置的NFC芯片作为RFID读写设备时,则可以将数据文件保存在该NFC芯片中,也可以将该数据文件保存到终端的存储模块中。
步骤105,将各手指和手掌在3D虚拟人机界面成像空间的位置信息与3D虚拟人机界面成像空间中显示的控件或热点进行匹配处理;
具体的,根据对各手指和手掌在3D虚拟人机界面成像空间的位置信息,判断各手指和手掌在3D虚拟人机界面成像空间的位置,是否落入3D虚拟人机界面成像空间中显示的控件或热点的空间范围内,如果是,则认为手指或手掌触碰到控件或热点,然后执行步骤106,如果否,则认为手指或手掌没有触碰到控件或热点,结束流程;
需要说明的是,手部佩戴配置有电子标签的手套时,或将电子标签设计成涂抹形式时,还能够精确计算出手部的轮廓,手部与控件的相对位置和形态,例如握的手势等,根据手部与空间的相对位置和形态,判断各手指和手掌在3D虚拟人机界面成像空间的位置,是否落入3D虚拟人机界面成像空间中显示的控件或热点的空间范围内。
步骤106,判断手指或手掌的动作是否符合3D虚拟人机界面成像空间中控件或热点的触控动作定义;
具体的,一般情况下,如果手指或手掌的轮廓占据的空间位置与控件或热点的空间范围有重叠,则表示手指或手掌已经触碰到控件或热点,处理模块根据手指或手掌的位置、运动速度、运动方向和运动轨迹,判断手指或手掌的动作是否符合3D虚拟人机界面成像空间中控件或热点的触控动作定义,如果符合,则认为手指或手掌的动作有效,执行步骤107,触发对3D虚拟人机界面成像空间中控件或热点的操作;如果不符合,则认为手指或手掌的动作无效,则忽视该手指或手掌的动作,结束流程;这里,判断手指或手掌的动作是否符合3D虚拟人机界面成像空间中控件或热点的触控动作定义,指的是判断手指或手掌的位置、运动速度、运动方向和运动轨迹是否符合3D虚拟人机界面成像空间中控件或热点的触控动作定义,例如,触控动作可以为按压、拨动、推拉、提起、放下、放大、缩小、抓握、旋转等。
步骤107,符合3D虚拟人机界面成像空间中控件或热点的触控动作定义时,触发对3D虚拟人机界面成像空间中控件或热点的操作;
具体的,根据手指或手掌位置、运动速度、运动方向和运动轨迹区分手指或手掌的动作种类,例如,手指或手掌的运动速度可以反映动作的力度,根据力度确定操作的程度和方式等;例如,弹奏3D虚拟钢琴时,如果手指的位置与虚拟琴键的空间范围重合,表示手指接触到琴键;手指的运动方向向下时,表示是按压琴键,需要发出声音;手指的运动速度越快,表明按压琴键力度越大,发出的声音就越大。
为实现上述方法,本发明还提供一种3D人机交互系统,图3是本发明实现3D人机交互系统的结构示意图,如图3所示,该系统包括:
第一配置模块31,用于为手部配置不同ID的电子标签;
第二配置模块32,用于配置包含3D虚拟人机界面成像空间的射频电磁场;
RFID读写模块33,用于手部进入射频电磁场后,获取手部上电子标签的相关信息;
处理模块34,用于根据获取的电子标签的相关信息,获得各手指和手掌在3D虚拟人机界面成像空间的位置信息、运动速度、运动方向和运动轨迹;将所述位置信息与3D虚拟人机界面成像空间中显示的控件或热点进行匹配处理;判断手指或手掌的动作是否符合3D虚拟人机界面成像空间中控件或热点的触控动作定义;符合3D虚拟人机界面成像空间中控件或热点的触控动作定义时,触发对3D虚拟人机界面成像空间中控件或热点的操作。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (16)
1.一种3D人机交互方法,其特征在于,为手部配置不同ID的电子标签,并配置包含3D虚拟人机界面成像空间的射频电磁场,该方法还包括:
手部进入射频电磁场后,获取手部上电子标签的相关信息;
根据获取的电子标签的相关信息,获得各手指和手掌在3D虚拟人机界面成像空间的位置信息、运动速度、运动方向和运动轨迹;
将所述位置信息与3D虚拟人机界面成像空间中显示的控件或热点进行匹配处理;
判断手指或手掌的动作是否符合3D虚拟人机界面成像空间中控件或热点的触控动作定义;符合3D虚拟人机界面成像空间中控件或热点的触控动作定义时,触发对3D虚拟人机界面成像空间中控件或热点的操作。
2.根据权利要求1所述的方法,其特征在于,所述为手部配置不同ID的电子标签为:
为人体的各个手指和手掌分别配置不同ID的电子标签,并将手指或手掌与电子标签的ID的对应关系保存到终端的存储模块中。
3.根据权利要求2所述的方法,其特征在于,
所述电子标签为RFID电子标签中的无源标签或RFID电子标签中的有源标签;
所述为手部配置不同ID的电子标签的方式是利用黏贴、涂抹、佩戴、植入方式将电子标签直接配置在各个手指或手掌上,或间接地配置在手指或手掌上。
4.根据权利要求1所述的方法,其特征在于,所述配置包含3D虚拟人机界面成像空间的射频电磁场为:
通过调节终端中作为RFID读写模块的RF输出功率或天线工作频率,调整射频电磁场的作用范围,使射频电磁场包含所述3D虚拟人机界面成像空间。
5.根据权利要求1或4所述的方法,其特征在于,
所述3D虚拟人机界面成像空间增大或缩小;
所述射频电磁场根据3D虚拟人机界面成像空间的增大而增大,根据3D虚拟人机界面成像空间的减小而减小。
6.根据权利要求1所述的方法,其特征在于,所述获取手部上电子标签的相关信息为:
终端内的RFID读写模块和电子标签之间通过耦合元件进行射频信号的无接触耦合,耦合通道内,RFID读写模块和电子标签之间进行能量传递和数据交换,数据交换后,终端获取手部上电子标签的相关信息。
7.根据权利要求6所述的方法,其特征在于,所述RFID读写模块和电子标签之间的耦合方式为电感耦合时,所述终端获取手部上电子标签的相关信息为:
将RFID读写模块中的天线与电子标签的天线的距离的变化转化成天线电压或电流的变化,终端的处理模块根据电阻负载调制数据信息传递的原理,对电子标签的天线电压进行调制,对RFID读写模块的天线电压进行解调,得到电子标签的相关信息。
8.根据权利要求6所述的方法,其特征在于,所述RFID读写模块和电子标签之间的耦合方式为电磁反向散射耦合时,所述终端获取手部上电子标签的相关信息为:根据雷达定位原理,RFID读写模块的天线发射出去的射频信号,碰到电子标签后反射,带回各手指或手掌的电子标签的相关信息。
9.根据权利要求3所述的方法,其特征在于,为手部配置的电子标签为无源电子标签时,所述终端获取手部上电子标签的相关信息为:配置电子标签的手部进入到射频电磁场后,接收终端内的RFID读写模块通过天线发出的射频信号,将获得的感应电流作为工作电流,发送存储在自身芯片中的电子标签的相关信息给RFID读写模块;RFID读写模块读取电子标签的相关信息并进行解码,将解码后的电子标签的相关信息送至终端的处理模块进行数据处理。
10.根据权利要求3所述的方法,其特征在于,为手部配置的电子标签为有源电子标签时,所述终端获取手部上电子标签的相关信息为:
手部进入到射频电磁场后,主动将存储在自身芯片中的电子标签的相关信息通过某频率的信号发送给RFID读写模块,RFID读写模块读取电子标签的相关信息后,对该电子标签的相关信息进行解码,将解码后的电子标签的相关信息发送给终端的处理模块进行数据处理。
11.根据权利要求7所述的方法,其特征在于,所述获得各手指和手掌在3D虚拟人机界面成像空间的位置信息、运动速度、运动方向和运动轨迹为:
终端内的RFID读写模块获取到手部的电子标签的相关信息后,根据电子标签的相关信息中的电子标签的ID,以及终端中存储模块保存的手指或手掌与电子标签的ID的对应关系,判断出在射频电磁场中运动的具体手指或手掌的部位;
根据RFID读写模块与手部上的电子标签之间的射频信号强度,获得各手指和手掌在3D虚拟人机界面成像空间的位置信息;根据获得的相邻两次位置信息计算手指或手掌的运动速度、运动方向和运动轨迹。
12.根据权利要求8所述的方法,其特征在于,所述获得各手指和手掌在3D虚拟人机界面成像空间的位置信息、运动速度、运动方向和运动轨迹为:
终端内的RFID读写模块获取到手部的电子标签的相关信息后,根据电子标签的相关信息中的电子标签的ID,以及终端中存储模块保存的手指或手掌与电子标签的ID的对应关系,判断出在射频电磁场中运动的具体手指或手掌的部位;
利用雷达定位原理,根据发射的射频信号和回波信号的传输时间和角度,测量得到手部的距离信息和角度信息,根据该距离信息和角度信息,获得各手指和手掌在3D虚拟人机界面成像空间的位置信息,根据获得的相邻两次位置信息计算手指或手掌的运动速度、运动方向和运动轨迹。
13.根据权利要求11或12所述的方法,其特征在于,该方法还包括:
处理模块根据位置信息、运动速度、运动方向和运动轨迹,生成数据文件,并将所述数据文件保存在RFID读写模块中或终端的存储模块中。
14.根据权利要求1所述的方法,其特征在于,所述将所述位置信息与3D虚拟人机界面成像空间中显示的控件或热点进行匹配处理为:
根据对各手指和手掌在3D虚拟人机界面成像空间的位置信息,判断各手指和手掌在3D虚拟人机界面成像空间的位置,是否落入3D虚拟人机界面成像空间中显示的控件或热点的空间范围内,如果是,则认为手指或手掌触碰到控件或热点。
15.根据权利要求1所述的方法,其特征在于,所述判断手指或手掌的动作是否符合3D虚拟人机界面成像空间中控件或热点的触控动作定义为:
处理模块根据手指或手掌的位置、运动速度、运动方向和运动轨迹,判断手指或手掌的动作是否符合3D虚拟人机界面成像空间中控件或热点的触控动作定义。
16.一种3D人机交互系统,其特征在于,该系统包括:
第一配置模块,用于为手部配置不同ID的电子标签;
第二配置模块,用于配置包含3D虚拟人机界面成像空间的射频电磁场;
RFID读写模块,用于手部进入射频电磁场后,获取手部上电子标签的相关信息;
处理模块,用于根据获取的电子标签的相关信息,获得各手指和手掌在3D虚拟人机界面成像空间的位置信息、运动速度、运动方向和运动轨迹;将所述位置信息与3D虚拟人机界面成像空间中显示的控件或热点进行匹配处理;判断手指或手掌的动作是否符合3D虚拟人机界面成像空间中控件或热点的触控动作定义;符合3D虚拟人机界面成像空间中控件或热点的触控动作定义时,触发对3D虚拟人机界面成像空间中控件或热点的操作。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210255981.5A CN102819315B (zh) | 2012-07-23 | 2012-07-23 | 一种3d人机交互方法及系统 |
PCT/CN2013/079937 WO2014015798A1 (zh) | 2012-07-23 | 2013-07-23 | 一种3d人机交互方法及系统 |
US14/406,987 US9600066B2 (en) | 2012-07-23 | 2013-07-23 | 3D human-machine interaction method and system |
EP13823376.2A EP2851775B1 (en) | 2012-07-23 | 2013-07-23 | 3d human-machine interaction method and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210255981.5A CN102819315B (zh) | 2012-07-23 | 2012-07-23 | 一种3d人机交互方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102819315A true CN102819315A (zh) | 2012-12-12 |
CN102819315B CN102819315B (zh) | 2016-04-13 |
Family
ID=47303456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210255981.5A Active CN102819315B (zh) | 2012-07-23 | 2012-07-23 | 一种3d人机交互方法及系统 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9600066B2 (zh) |
EP (1) | EP2851775B1 (zh) |
CN (1) | CN102819315B (zh) |
WO (1) | WO2014015798A1 (zh) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103428293A (zh) * | 2013-08-19 | 2013-12-04 | 苏州跨界软件科技有限公司 | 交互式3d语音服务系统 |
WO2014015798A1 (zh) * | 2012-07-23 | 2014-01-30 | 中兴通讯股份有限公司 | 一种3d人机交互方法及系统 |
CN103914132A (zh) * | 2013-01-07 | 2014-07-09 | 富士通株式会社 | 识别基于手指的手势的方法和系统 |
CN104038259A (zh) * | 2013-03-07 | 2014-09-10 | 三星电子株式会社 | 非接触式通信装置和包括非接触式通信装置的用户装置 |
WO2015184825A1 (zh) * | 2014-11-13 | 2015-12-10 | 中兴通讯股份有限公司 | 对电子标签做空间定位、3d签名及人机交互的方法、设备 |
CN105353343A (zh) * | 2014-08-20 | 2016-02-24 | 联想(北京)有限公司 | 电子设备、终端装置以及信息处理方法 |
WO2016070688A1 (zh) * | 2014-11-06 | 2016-05-12 | 深圳Tcl新技术有限公司 | 虚拟操作界面遥控控制方法及系统 |
CN106125917A (zh) * | 2016-06-20 | 2016-11-16 | 南京大学 | 一种基于射频识别技术的手势隔空交互系统及其工作方法 |
CN106155324A (zh) * | 2016-07-13 | 2016-11-23 | 中国人民解放军海军医学研究所 | 一种操作水下武器装备的人机交互辅助方法及系统 |
CN107045204A (zh) * | 2017-04-06 | 2017-08-15 | 核桃智能科技(常州)有限公司 | 一种用于头戴式的智能显示器及其操控方法和佩戴方法 |
CN107132913A (zh) * | 2017-03-31 | 2017-09-05 | 南京理工大学 | 一种基于毫米波的多用户人机交互方法 |
CN107430444A (zh) * | 2015-04-30 | 2017-12-01 | 谷歌公司 | 用于手势跟踪和识别的基于rf的微运动跟踪 |
CN107807738A (zh) * | 2017-12-04 | 2018-03-16 | 成都思悟革科技有限公司 | 一种用于vr显示眼镜的头部动作捕捉系统及方法 |
CN108108028A (zh) * | 2016-11-24 | 2018-06-01 | 华大半导体有限公司 | 利用超高频rfid标签控制应用程序的方法 |
CN109144235A (zh) * | 2017-06-19 | 2019-01-04 | 天津锋时互动科技有限公司深圳分公司 | 基于头手协同动作的人机交互方法与系统 |
CN109891342A (zh) * | 2016-10-21 | 2019-06-14 | 通快机床两合公司 | 在金属加工工业中基于室内人员定位的制造控制 |
US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
US10936085B2 (en) | 2015-05-27 | 2021-03-02 | Google Llc | Gesture detection and interactions |
US10948996B2 (en) | 2014-06-03 | 2021-03-16 | Google Llc | Radar-based gesture-recognition at a surface of an object |
US11163371B2 (en) | 2014-10-02 | 2021-11-02 | Google Llc | Non-line-of-sight radar-based gesture recognition |
US11221682B2 (en) | 2014-08-22 | 2022-01-11 | Google Llc | Occluded gesture recognition |
US11816101B2 (en) | 2014-08-22 | 2023-11-14 | Google Llc | Radar recognition-aided search |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654167A (zh) * | 2014-11-13 | 2016-06-08 | 中兴通讯股份有限公司 | 基于生物电子标签的特征提取、验证方法及其设备、标签 |
EP3214528B1 (en) | 2016-03-04 | 2019-09-11 | Nxp B.V. | Gesture feedback |
US9891711B1 (en) | 2016-07-26 | 2018-02-13 | Toyota Motor Engineering & Manufacturing North America, Inc. | Human machine interface with haptic response based on phased array LIDAR |
CN106778415A (zh) * | 2016-12-13 | 2017-05-31 | 深圳中科讯联科技股份有限公司 | 一种答题器及答题器的通信方法 |
CN109426343B (zh) * | 2017-08-29 | 2022-01-11 | 深圳市掌网科技股份有限公司 | 基于虚拟现实的协作训练方法及系统 |
CN108170506B (zh) * | 2017-11-27 | 2021-09-17 | 北京硬壳科技有限公司 | app的控制方法、装置以及控制系统 |
US10693516B2 (en) * | 2018-06-25 | 2020-06-23 | Apple Inc. | Electronic device having adjustable antenna settings |
CN109933195B (zh) * | 2019-03-06 | 2022-04-22 | 广州世峰数字科技有限公司 | 基于mr混合现实技术的界面立体式展示方法及交互系统 |
CN111078100B (zh) * | 2019-06-03 | 2022-03-01 | 广东小天才科技有限公司 | 一种点读方法及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080136775A1 (en) * | 2006-12-08 | 2008-06-12 | Conant Carson V | Virtual input device for computing |
CN101581990A (zh) * | 2008-05-13 | 2009-11-18 | 联想(北京)有限公司 | 电子设备和应用于电子设备的可穿戴式指点装置、方法 |
CN102226880A (zh) * | 2011-06-03 | 2011-10-26 | 北京新岸线网络技术有限公司 | 一种基于虚拟现实的体感操作方法及系统 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070055949A1 (en) * | 2005-01-29 | 2007-03-08 | Nicholas Thomas | Methods and apparatus for rfid interface control |
DE08713883T1 (de) | 2007-01-22 | 2010-04-15 | Bell Helicopter Textron, Inc., Fort Worth | System und verfahren zur steuerung einer virtuellen realität durch einen darsteller in der virtuellen realität |
US8384523B1 (en) * | 2008-09-05 | 2013-02-26 | Intelleflex Corporation | Battery assisted RFID system command set |
US9244525B2 (en) | 2009-02-19 | 2016-01-26 | Disney Enterprises, Inc. | System and method for providing user interaction with projected three-dimensional environments |
US8487871B2 (en) * | 2009-06-01 | 2013-07-16 | Microsoft Corporation | Virtual desktop coordinate transformation |
EP2539759A1 (en) * | 2010-02-28 | 2013-01-02 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
EP2390761A1 (en) * | 2010-05-26 | 2011-11-30 | Advanced Digital Broadcast S.A. | A method and system for selecting an item in a three dimensional space |
US8483617B2 (en) * | 2010-09-30 | 2013-07-09 | Broadcom Corporation | Portable computing device with high-speed data communication |
CN102819315B (zh) | 2012-07-23 | 2016-04-13 | 中兴通讯股份有限公司 | 一种3d人机交互方法及系统 |
-
2012
- 2012-07-23 CN CN201210255981.5A patent/CN102819315B/zh active Active
-
2013
- 2013-07-23 US US14/406,987 patent/US9600066B2/en active Active
- 2013-07-23 EP EP13823376.2A patent/EP2851775B1/en active Active
- 2013-07-23 WO PCT/CN2013/079937 patent/WO2014015798A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080136775A1 (en) * | 2006-12-08 | 2008-06-12 | Conant Carson V | Virtual input device for computing |
CN101581990A (zh) * | 2008-05-13 | 2009-11-18 | 联想(北京)有限公司 | 电子设备和应用于电子设备的可穿戴式指点装置、方法 |
CN102226880A (zh) * | 2011-06-03 | 2011-10-26 | 北京新岸线网络技术有限公司 | 一种基于虚拟现实的体感操作方法及系统 |
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9600066B2 (en) | 2012-07-23 | 2017-03-21 | Zte Corporation | 3D human-machine interaction method and system |
WO2014015798A1 (zh) * | 2012-07-23 | 2014-01-30 | 中兴通讯股份有限公司 | 一种3d人机交互方法及系统 |
CN103914132A (zh) * | 2013-01-07 | 2014-07-09 | 富士通株式会社 | 识别基于手指的手势的方法和系统 |
CN104038259A (zh) * | 2013-03-07 | 2014-09-10 | 三星电子株式会社 | 非接触式通信装置和包括非接触式通信装置的用户装置 |
CN104038259B (zh) * | 2013-03-07 | 2018-08-17 | 三星电子株式会社 | 非接触式通信装置和包括非接触式通信装置的用户装置 |
CN103428293A (zh) * | 2013-08-19 | 2013-12-04 | 苏州跨界软件科技有限公司 | 交互式3d语音服务系统 |
US10948996B2 (en) | 2014-06-03 | 2021-03-16 | Google Llc | Radar-based gesture-recognition at a surface of an object |
CN105353343A (zh) * | 2014-08-20 | 2016-02-24 | 联想(北京)有限公司 | 电子设备、终端装置以及信息处理方法 |
US11221682B2 (en) | 2014-08-22 | 2022-01-11 | Google Llc | Occluded gesture recognition |
US11816101B2 (en) | 2014-08-22 | 2023-11-14 | Google Llc | Radar recognition-aided search |
US11163371B2 (en) | 2014-10-02 | 2021-11-02 | Google Llc | Non-line-of-sight radar-based gesture recognition |
WO2016070688A1 (zh) * | 2014-11-06 | 2016-05-12 | 深圳Tcl新技术有限公司 | 虚拟操作界面遥控控制方法及系统 |
WO2015184825A1 (zh) * | 2014-11-13 | 2015-12-10 | 中兴通讯股份有限公司 | 对电子标签做空间定位、3d签名及人机交互的方法、设备 |
CN105631375B (zh) * | 2014-11-13 | 2021-05-14 | 中兴通讯股份有限公司 | 对电子标签做空间定位、3d签名及人机交互的方法、设备 |
CN105631375A (zh) * | 2014-11-13 | 2016-06-01 | 中兴通讯股份有限公司 | 对电子标签做空间定位、3d签名及人机交互的方法、设备 |
US10095896B2 (en) | 2014-11-13 | 2018-10-09 | Zte Corporation | Method and device for performing spatial positioning on electronic tag, 3D signing and human-computer interaction |
CN107430444B (zh) * | 2015-04-30 | 2020-03-03 | 谷歌有限责任公司 | 用于手势跟踪和识别的基于rf的微运动跟踪 |
US11709552B2 (en) | 2015-04-30 | 2023-07-25 | Google Llc | RF-based micro-motion tracking for gesture tracking and recognition |
CN107430444A (zh) * | 2015-04-30 | 2017-12-01 | 谷歌公司 | 用于手势跟踪和识别的基于rf的微运动跟踪 |
US10817070B2 (en) | 2015-04-30 | 2020-10-27 | Google Llc | RF-based micro-motion tracking for gesture tracking and recognition |
US10936085B2 (en) | 2015-05-27 | 2021-03-02 | Google Llc | Gesture detection and interactions |
US11698438B2 (en) | 2015-10-06 | 2023-07-11 | Google Llc | Gesture recognition using multiple antenna |
US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
US11256335B2 (en) | 2015-10-06 | 2022-02-22 | Google Llc | Fine-motion virtual-reality or augmented-reality control using radar |
US11481040B2 (en) | 2015-10-06 | 2022-10-25 | Google Llc | User-customizable machine-learning in radar-based gesture detection |
US11385721B2 (en) | 2015-10-06 | 2022-07-12 | Google Llc | Application-based signal processing parameters in radar-based detection |
US11698439B2 (en) | 2015-10-06 | 2023-07-11 | Google Llc | Gesture recognition using multiple antenna |
US11693092B2 (en) | 2015-10-06 | 2023-07-04 | Google Llc | Gesture recognition using multiple antenna |
US11175743B2 (en) | 2015-10-06 | 2021-11-16 | Google Llc | Gesture recognition using multiple antenna |
US11656336B2 (en) | 2015-10-06 | 2023-05-23 | Google Llc | Advanced gaming and virtual reality control using radar |
CN106125917A (zh) * | 2016-06-20 | 2016-11-16 | 南京大学 | 一种基于射频识别技术的手势隔空交互系统及其工作方法 |
CN106155324A (zh) * | 2016-07-13 | 2016-11-23 | 中国人民解放军海军医学研究所 | 一种操作水下武器装备的人机交互辅助方法及系统 |
CN106155324B (zh) * | 2016-07-13 | 2019-05-31 | 中国人民解放军海军医学研究所 | 一种操作水下武器装备的人机交互辅助方法及系统 |
CN109891342A (zh) * | 2016-10-21 | 2019-06-14 | 通快机床两合公司 | 在金属加工工业中基于室内人员定位的制造控制 |
CN108108028B (zh) * | 2016-11-24 | 2021-02-09 | 华大恒芯科技有限公司 | 利用超高频rfid标签控制应用程序的方法 |
CN108108028A (zh) * | 2016-11-24 | 2018-06-01 | 华大半导体有限公司 | 利用超高频rfid标签控制应用程序的方法 |
CN107132913A (zh) * | 2017-03-31 | 2017-09-05 | 南京理工大学 | 一种基于毫米波的多用户人机交互方法 |
CN107045204A (zh) * | 2017-04-06 | 2017-08-15 | 核桃智能科技(常州)有限公司 | 一种用于头戴式的智能显示器及其操控方法和佩戴方法 |
CN109144235A (zh) * | 2017-06-19 | 2019-01-04 | 天津锋时互动科技有限公司深圳分公司 | 基于头手协同动作的人机交互方法与系统 |
CN109144235B (zh) * | 2017-06-19 | 2024-01-23 | 深圳巧牛科技有限公司 | 基于头手协同动作的人机交互方法与系统 |
CN107807738A (zh) * | 2017-12-04 | 2018-03-16 | 成都思悟革科技有限公司 | 一种用于vr显示眼镜的头部动作捕捉系统及方法 |
CN107807738B (zh) * | 2017-12-04 | 2023-08-15 | 成都思悟革科技有限公司 | 一种用于vr显示眼镜的头部动作捕捉系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
EP2851775A4 (en) | 2015-11-25 |
WO2014015798A1 (zh) | 2014-01-30 |
EP2851775A1 (en) | 2015-03-25 |
EP2851775B1 (en) | 2020-04-08 |
US20150169045A1 (en) | 2015-06-18 |
US9600066B2 (en) | 2017-03-21 |
CN102819315B (zh) | 2016-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102819315B (zh) | 一种3d人机交互方法及系统 | |
EP2929415B1 (en) | Electronic device including three-dimensional gesture detecting display | |
CN106055127A (zh) | 具有双向通信的有源笔 | |
US9182871B2 (en) | Method and apparatus for controlling touch input of terminal | |
US20130300670A1 (en) | Computer input stylus with multiple antennas | |
US20150312879A1 (en) | Indication of nfc location | |
US10095896B2 (en) | Method and device for performing spatial positioning on electronic tag, 3D signing and human-computer interaction | |
KR101409062B1 (ko) | 근거리 통신 모듈을 포함하는 태그 리딩 장치, 근거리 통신 태그 리딩 장치와 연동하는 이동 단말기 및 그 동작 방법 | |
US9335922B2 (en) | Electronic device including three-dimensional gesture detecting display | |
CN105335258B (zh) | 一种位置定位方法及电子设备 | |
WO2017079097A1 (en) | Non-rotationally symmetric short-range wireless tag | |
CN105184200A (zh) | 输入对象识别装置、方法及具有rfid标签的装置 | |
KR20150020383A (ko) | 전자 장치 및 전자 장치의 검색 및 표시방법 | |
KR20150077914A (ko) | 입력을 감지하는 전자 장치 및 방법 | |
WO2012098962A1 (ja) | 座標入力装置、および該座標入力装置を備えた表示装置ならびに座標入力方法 | |
CN204066267U (zh) | 金融pos机 | |
JP5955901B2 (ja) | 無線通信のためのタッチ操作を容易にする方法、電子機器およびコンピュータ・プログラム | |
CN103308886A (zh) | 局域追踪定位系统 | |
CN102446000A (zh) | 光标控制装置、系统及其方法 | |
EP2946269B1 (en) | Electronic device with touch-sensitive display and gesture-detection, method for operating same, and computer-readable storage device | |
KR101961786B1 (ko) | 터치스크린을 포함하는 단말을 이용한 마우스 기능의 제공 방법 및 장치 | |
KR102348410B1 (ko) | 전자기 펜 | |
KR102456034B1 (ko) | 비접촉 터치 디스플레이 시스템 | |
JP2015118550A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6015952B2 (ja) | 電子機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |