CN104133593A - 一种基于体感的文字输入系统及方法 - Google Patents
一种基于体感的文字输入系统及方法 Download PDFInfo
- Publication number
- CN104133593A CN104133593A CN201410382417.9A CN201410382417A CN104133593A CN 104133593 A CN104133593 A CN 104133593A CN 201410382417 A CN201410382417 A CN 201410382417A CN 104133593 A CN104133593 A CN 104133593A
- Authority
- CN
- China
- Prior art keywords
- focal
- error
- positioning
- controlling
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
本发明公开了一种基于体感的文字输入系统及方法,所述系统包括:空间信息感知单元(1),用于获取人体的空间信息;时钟单元(2),用于获取人体的时间信息;处理单元(3),用于接收并处理所述空间信息感知单元(1)和所述时钟单元(2)发送的人体空间信息和时间信息,生成对应的文字输入操控指令;以及显示输出单元(4),连接到所述处理单元(3),用于将所述处理单元(3)生成的文字输入操控指令发送给外部设备。根据本发明的一种基于体感的文字输入系统及方法,无需触发,只需借助于手部的指环即可进行操控,操控简单自然,并可实现流畅手写输入,更适应新一代的移动智能终端体验。
Description
技术领域
本发明涉及网络智能终端操控领域,具体涉及一种基于体感的文字输入系统及方法。
背景技术
当前,通过体感技术可以很直接地使用肢体动作,进而无需使用任何复杂的控制设备便可与周边的装置或环境互动,例如通过身体动作可以向计算机等输入各种文字指令,实现移动智能终端的控制。
在传统移动智能终端中,例如手机、平板电脑等多采用多点触控等技术,通常需要触发才能进行后续操控,导致其精度太低,因而其定位不够精确且操控比较复杂。当前数字化办公以及数字电子手写输入应用中,常常需要在识别当前写入的一个字之后,才能书写下一个字并再次进行识别,这种操作过程需要等待,使用流畅度也不足。虽然后续加入的中文联想功能大大弥补了输入过程不连贯的这一缺陷,但其功能仍不完善,因为对于不常用的字和繁体字来说,在没有加入中文联想时,所需字无法快速导出,依旧需要进行手写输入。
在日常工作生活中,一般地,传统移动智能终端采用按钮操控,然而针对传统智能眼镜,如果采用触控板或按键的操控形式,则难以完成汉字等复杂文字的高效输入。随着手写技术的发展,从十几年前的第一块中文联机手写输入板问世到现在,手写技术得到不断的改善,电磁感应式逐渐代替手触式,极大地方便了不喜欢使用键盘或者不习惯使用中文输入法的用户,但是现有的文字输入控制仍存在诸多缺陷,例如:
(1)传统网络智能终端操和智能眼镜的控精度不足,难以实现精准定位和复杂操控;
(2)在数字电子手写输入过程中,需要等待当前写入的一个字识别之后,才能写入下一个字并进行再次识别,不具有连续手写功能,用户使用流畅度差;
(3)对于移动智能眼镜等新一代移动智能终端,由于难以实现界面定位,导致多点触控等技术在实际应用中不自然,用户体验很差;
(4)传统智能眼镜难以完成汉字等复杂文字的高效输入。
发明内容
本发明的目的是提供一种基于体感的文字输入系统及方法,通过简单、自然的体感,能够实现连续手写,可适用于移动智能眼镜等新一代的移动智能终端。
根据本发明的一个方面,提供一种基于体感的文字输入系统,包括:空间信息感知单元,连接到处理单元,用于获取人体的空间信息,并将获取的所述空间信息发送至处理单元;时钟单元,连接到处理单元,用于向所述处理单元提供人体的时间信息;处理单元,用于接收并处理所述空间信息和时间信息,生成对应的文字输入操控指令;以及显示输出单元,连接到所述处理单元,用于接收所述文字输入操控指令并生成对应的文字信息,发送给外部设备显示。
其中,在本发明中,所述系统还包括:操控误差修正单元,连接到所述处理单元和所述显示输出单元,用于修正所述处理单元生成的所述文字输入操控指令,并将修正后的文字输入操控指令发送给显示输出单元。
其中,在本发明中,所述空间信息感知单元包括:方位信息感知模块,用于获取人体的方位信息;姿态信息感知模块,用于获取人体的姿态信息;和位置信息感知模块,用于获取人体的位置信息。
其中,在本发明中,所述人体的方位信息和姿态信息包括:头部、手部在空间中三个维度的位移变化,其包括前、后位移,上、下位移,以及左、右位移,或这些位移变化的组合;头部、手部的角度变化,其包括左、右水平旋转,上、下旋转,以及侧向旋转,或这些旋转方式的各类组合;和/或绝对位移与相对位移。
其中,在本发明中,所述位置信息感知模块用于通过无线信号来获取人体的位置信息,该无线信号包括GPS、移动通信信号以及WIFI信号中的至少一种。
其中,在本发明中,所述操控误差修正单元通过边界回位模式、操控放大模式、操控加速模式、操控锁定模式、定位焦点被动复位模式、定位焦点主动复位模式以及相对位移操控模式中的至少一种来修正操控设备的操控误差。
其中,在本发明中,所述边界回位模式通过在显示界面上预先设置误差边界,将操控设备的定位焦点限制在该误差边界范围内,并在操控设备回位时修正误差;所述操控放大模式通过在显示界面上放大操控设备的位移,进行操控误差的修正;所述操控加速模式通过将操控设备的加速度传递给界面定位焦点,使界面定位焦点相应的加速移动来控制操控设备的操控;所述操控锁定模式通过将操控设备对应的界面定位焦点进行锁定,并在操控设备回位时修正误差;所述定位焦点被动复位模式通过操控设备的加速回位来驱动定位焦点的被动复位来修正误差;所述定位焦点主动复位模式通过界面定位焦点的主动复位来修正误差;所述相对位移操控模式通过操控位移和界面定位的一致性来修正误差。
根据本发明的另一方面,提供一种基于体感的文字输入方法,包括:获取人体的空间信息;获取人体的时间信息;对获取的空间信息和时间信息进行处理,生成对应的文字输入操控指令;以及生成与文字输入操控指令对应的文字信息并发送给外部设备显示。
其中,在本发明中,在所述将文字信息发送给外部设备的步骤之前包括:对生成的文字输入操控指令进行修正;其中,所述修正是通过边界回位模式、操控放大模式、操控加速模式、操控锁定模式、定位焦点被动复位模式、定位焦点主动复位模式以及相对位移操控模式中的至少一种来修正文字输入操控指令的误差。
其中,在本发明中,所述获取人体的空间信息包括:获取人体的方位信息;获取人体的姿态信息;和获取人体的位置信息。
其中,在本发明中,所述人体的方位信息和姿态信息包括:头部、手部在空间中三个维度的位移变化,其包括前、后位移,上、下位移,以及左、右位移,或这些位移变化的组合;头部、手部的角度变化,其包括左、右水平旋转,上、下旋转,以及侧向旋转,或这些旋转方式的各类组合;和/或绝对位移与相对位移。
其中,在本发明中,所述获取人体的位置信息是通过无线信号来获取人体的位置信息,该无线信号包括:GPS、移动通信信号以及WIFI信号中的至少一种。
其中,在本发明中,所述对生成的文字输入操控指令进行修正的步骤包括:所述边界回位模式通过在显示界面上预先设置误差边界,将操控设备的定位焦点限制在该误差边界范围内,并在操控设备回位时修正误差;所述操控放大模式通过在显示界面上放大操控设备的位移,进行操控误差的修正;所述操控加速模式通过将操控设备的加速度传递给界面定位焦点,使界面定位焦点相应的加速移动来控制操控设备的操控;所述操控锁定模式通过将操控设备对应的界面定位焦点进行锁定,并在操控设备回位时修正误差;所述定位焦点被动复位模式通过操控设备的加速回位来驱动定位焦点的被动复位来修正误差;所述定位焦点主动复位模式通过界面定位焦点的主动复位来修正误差;所述相对位移操控模式通过操控位移和界面定位的一致性来修正误差。
如上所述,根据本发明的基于体感的文字输入系统及方法,无需触发,只需借助于手部的指环即可进行操控,操控简单自然,并可实现流畅手写输入,更适应新一代的移动智能终端体验。本发明的文字输入系统及方法还可以用于电路设计、CAD设计、图形设计、自由绘画以及文本和数据的输入等领域。
具体具有如下优点:
(1)能够实现对设备的精准定位和复杂操控;(2)能够校准三维空间的立体朝向;(3)能够利用指环进行任意书写,不受限制;(4)可直接作为个人计算机的输入外设,操作便捷,且体验自然简单;(5)书写时可不必等待前一个字输入并识别之后才能够书写和识别下一个字,可实现连续文字的输入与识别;(6)反应灵敏度高,大大缩减反应时间和等待时间,为方便、快捷、实时的移动智能生活奠定了良好基础。
附图说明
图1显示了本发明实施例的基于体感的文字输入系统的结构示意图;
图2显示了图1中空间信息感知单元的结构示意图;
图3显示了本发明优选实施例的基于体感的文字输入系统的结构示意图;
图4显示了本发明实施例的基于体感的文字输入方法的流程图;
图5显示了图4中获取人体的空间信息步骤的流程图;
图6显示了本发明优选实施例的基于体感的文字输入方法的流程图;
图7显示了本发明的通过边界回位模式修正操控误差的示意图;
图8显示了本发明的通过操控放大模式修正操控误差的示意图;
图9显示了本发明的通过操控加速模式修正操控误差的示意图;
图10显示了本发明的通过操控锁定模式修正误差的示意图;
图11显示了本发明的通过定位焦点被动复位模式修正误差的示意图;
图12显示了本发明的通过定位焦点主动复位模式修正误差的示意图;
图13显示了本发明的通过相对位移操控模式修正误差的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
与现有技术相比,本发明可以应用到新的移动智能终端,不需要通过触发,只需要借助于手部的指环进行操控,并能实现流畅手写输入,具有体感操控简单自然的优点,更适应新一代的移动智能终端体验,可直接作为个人计算机的输入外设。
图1显示了本发明优选实施例的基于体感的文字输入系统的结构示意图。
如图1所示,本发明优选实施例的基于体感的文字输入系统包括:空间信息感知单元1、时钟单元2、处理单元3以及显示输出单元4。
空间信息感知单元1连接到处理单元3,用于获取人体的空间信息,并将获取的所述空间信息发送至处理单元3。具体地,空间信息感知单元1,佩戴在人体头部和/或手部的预定位置上,可以是佩戴于手部的指环和/或佩戴于头部的智能眼镜中,空间信息感知单元1通过各类传感器,即操控设备,例如操控按键、重力传感器、陀螺仪、加速度传感器、磁力传感器、方向传感器、旋转矢量传感器、线性加速度传感器等,采集人体手部和/或头部的各类运动信号,例如手部空间位置、三维旋转角度、三维加速度、三维磁力方位等,以获取人体的方位信息、姿态信息以及位置信息,并将所获取的人体的三维空间信息发送至处理单元3。
空间信息感知单元1的结构如图2所示,其包括方位信息感知模块11、姿态信息感知模块12和位置信息感知模块13。其中,方位信息感知模块11用于获取人体的方位信息,姿态信息感知模块12用于获取人体的姿态信息。这里,人体的方位、姿态信息包括:头部、手部在空间中三个维度的位移变化具体包括前、后位移,上、下位移,以及左、右位移,或这些位移变化的组合;头部、手部的各种角度变化,具体包括左、右水平旋转,上、下旋转,以及侧向旋转,或这些旋转方式的各类组合;和/或绝对位移与相对位移等,方位信息感知模块11可以是但不仅限于指南针,姿态信息感知模块12可以是但不仅限于陀螺仪。位置信息感知模块13用于获取人体的位置信息。具体地,位置信息感知模块13通过接收无线信号来获取人体的位置信息,其通过GPS、移动通信或WIFI中的至少一种来获取人体的位置信息。
时钟单元2连接到处理单元3,用于向处理单元3提供人体的时间信息。一般地,时钟单元2为计时器,可以佩戴于手部的指环和/或佩戴于头部的智能眼镜中,时钟单元2实时记录时间并提供给处理单元3。
处理单元3用于接收并处理空间信息感知单元1和时钟单元2发送的空间信息和时间信息,并根据处理结果生成对应的文字输入操控指令。具体地,处理单元3通过设置在智能眼镜中的空间信息感知单元1实现头部的旋转和/或移动的识别与输入,和/或位于设置在指环中的空间信息感知单元1将手部的空间运动轨迹解析成文字,实现手势的识别与文字的输入。进一步地,处理单元3通过获取的不同传感器各自的绝对运动,解析出不同传感器之间的相对运动,从而计算出人体的相对位移,并通过人体的相对位移来进行操控;处理单元3通过关闭空间信息感知单元1的位移模式,只探测空间信息感知单元1的空间角度的变化,并通过所述角度的变化来进行操控。
显示输出单元4连接到处理单元3,用于接收处理单元3生成的文字输入操控指令并生成对应的文字信息,发送给外部设备显示。可选的,显示输出单元4包括从智能眼镜的镜腿下部延伸至外耳道的柱状或水滴状的音频输出装置。
总体来说,空间信息感知单元1和时钟单元2分别获取人体的空间信息和时间信息,并将所获取的信息发送给处理单元3,处理单元3在接收到空间信息感知单元1和所述时钟单元2发送的人体空间信息和时间信息后,对其进行处理生成相应的文字输入操控指令,并由显示输出单元4输出给外部设备,进而实现将简单、自然的体感转换成文字等,并实现连续手写。
图3显示了本发明优选实施例的基于体感的文字输入系统的结构示意图。
在本实施例中,还包括操控误差修正单元5,该操控误差修正单元5连接到处理单元3和显示输出单元4用于修正处理单元3生成的文字输入操控指令,以减少操控误差,并将修正后的文字输入操控指令发送给显示输出单元4。具体来说,操控误差修正单元5通过边界回位模式、操控放大模式、操控加速模式、操控锁定模式、定位焦点被动复位模式、定位焦点主动复位模式以及相对位移操控模式中的至少一种来修正操控设备的操控误差。
图4显示了本发明实施例的基于体感的文字输入方法的流程图。
如图4所示,本发明实施例的基于体感的文字输入方法包括:
步骤S1,获取人体的空间信息。
通过操控设备采集人体的空间信息,操控设备佩戴在人体头部和/或手部的预定位置上,可以是佩戴于手部的指环和/或佩戴于头部的智能眼镜中,操控设备通过各类传感器,即操控设备,例如操控按键、重力传感器、陀螺仪、加速度传感器、磁力传感器、方向传感器、旋转矢量传感器、线性加速度传感器等,采集人体手部和/或头部的各类运动信号,例如手部空间位置、三维旋转角度、三维加速度、三维磁力方位等,以获取人体的方位信息、姿态信息以及位置信息。
图5显示了图4中获取人体的空间信息步骤的流程图;
如图5所示,具体来说,获取人体的空间信息步骤即步骤S1的流程包括:
步骤S11,获取人体的方位信息。
步骤S12,获取人体的姿态信息。
其中,人体的方位、姿态信息包括:头部、手部在空间中三个维度的位移变化具体包括前、后位移,上、下位移,以及左、右位移,或这些位移变化的组合;头部、手部的各种角度变化,具体包括左、右水平旋转,上、下旋转,以及侧向旋转,或这些旋转方式的各类组合;和/或绝对位移与相对位移等,在步骤S11中,可以是但不仅限于通过指南针获取人体的方位信息,在步骤S12中,可以是但不仅限于通过陀螺仪获取人体的姿态信息。
步骤S13,获取人体的位置信息。具体地,通过接收无线信号来获取人体的位置信息,可以通过GPS、移动通信以及WIFI中的至少一种来获取人体的位置信息。
步骤S2,获取人体的时间信息。一般地,通过计时器获取人体的时间信息,计时器可以佩戴于手部的指环和/或佩戴于头部的智能眼镜中。
步骤S3,对获取的空间信息和时间信息进行处理,生成对应的文字输入操控指令。
在本步骤中,通过设置在智能眼镜中的操控设备实现头部的旋转和/或移动的识别与输入,和/或位于设置在指环中的操控设备将手部的空间运动轨迹解析成文字,实现手势的识别与文字的输入。进一步地,通过获取的不同传感器各自的绝对运动,解析出不同传感器之间的相对运动,从而计算出人体的相对位移,并通过人体的相对位移来进行操控;通过关闭操控设备的位移模式,只探测操控设备的空间角度的变化,并通过所述角度的变化来进行操控。
步骤S4,生成与文字输入操控指令对应的文字信息并发送给外部设备显示。
在本步骤中,可选的,通过从智能眼镜的镜腿下部延伸至外耳道的柱状或水滴状的音频输出装置将步骤S3输出的操控指令发送给外部设备。
图6显示了本发明优选实施例的基于体感的文字输入方法的流程图。
如图6所示,在本实施例中,步骤S4之前包括步骤S40对生成的文字输入操控指令进行修正,以减少操控误差。在步骤S40中,通过边界回位模式、操控放大模式、操控加速模式、操控锁定模式、定位焦点被动复位模式、定位焦点主动复位模式以及相对位移操控模式中的至少一种来修正操控设备的操控误差,具体修正步骤同上述的系统中的修正模式相同,在此不再累述。
下面结合图7-图13对操控误差的修正进行具体介绍。
图7显示了本发明的通过边界回位模式修正操控误差的示意图。
如图7所示,操控误差修正单元5的边界回位模式通过在显示界面上预先设置误差边界(例如前后、左右、上下的位移的定位边界或各方向旋转角度的定位边界),将操控设备的定位焦点限制在该误差边界范围内,这样,操控设备的定位焦点只能在该误差边界范围内移动,从而实现在操控设备回位时修正误差,具体如下:
如图7a所示,当操控设备在误差边界的中间位置时,界面定位焦点已经处于右侧边界处,此时,操控出现向右的较大误差。
如图7b所示,操控设备向误差方向继续移动(即右侧),此时,由于显示界面设定了误差边界,操控设备的定位焦点无法移到边界以外,即焦点不会发生位移变化,此时操控设备已经移动到操控界面的右侧。
如图7c所示,将操控设备移动到边界的中间位置(即回位),界面定位焦点也回归到中间位置,此时操控设备位置和界面定位焦点位置一致,误差得以修正。
图8显示了本发明的通过操控放大模式修正操控误差的示意图。
如图8所示,操控误差修正单元5的操控放大模式主要通过将操控设备的位移在界面上进行放大来实现操控误差的修正,具体如下:
如图8a所示,当操控设备在中间位置时,界面定位焦点也处于界面中间位置。
如图8b所示,如果操控设备移动一个很小的距离,界面定位焦点相应的移动很大的距离。这样,在操控设备可以允许的误差空间里,可以实现界面更大范围的定位,进而将界面操作误差保留在操控很大的可允许的范围内。
图9显示了本发明的通过操控加速模式修正操控误差的示意图。
如图9所示,操控误差修正单元5的操作加速模式通过将操控设备的加速度传递给界面定位焦点,使界面定位焦点相应的加速移动来控制操控设备的操控,具体如下:
如图9a所示,当操控设备在中间位置时,界面定位焦点也处于界面中间位置。
如图9b所示,当操控设备缓慢移动时,界面定位焦点也相应的缓慢移动,并且定位焦点移动不加速。此时,只有操控设备移动较大距离,界面定位焦点才能移动给定距离。
如图9c所示,以图9a为初始位置,当操控设备快速移动时,界面定位焦点加速移动。此时,操控设备只需移动较小的距离,就可以使界面定位焦点移动给定距离。
图10显示了本发明的通过操控锁定模式修正误差的示意图。
如图10所示,操控误差修正单元5的操控锁定模式通过将操控设备对应的界面定位焦点进行锁定,并在操控设备回位时修正误差,具体如下:
如图10a所示,在定位焦点定位出现大的误差后,执行锁定操控,即操控设备移动,而界面定位焦点不移动。
如图10b所示,将操控设备移动到预定的适当位置后,解除锁定,此时,操控设备位置与界面定位焦点位置一致,误差得以修正。
图11显示了本发明的通过定位焦点被动复位模式修正误差的示意图。
如图11所示,操控误差修正单元5的定位焦点被动复位模式通过操控设备的加速回位来驱动定位焦点的被动复位来修正误差,具体如下:
如图11a所示,操控设备向右移动较小位移,定位焦点向右移动较大位移,定位焦点出现较大误差。
如图11b所示,操控设备通过反向加速移动回位,驱动定位焦点也反方向加速移动回位,从而有效减少误差。
图12显示了本发明的通过定位焦点主动复位模式修正误差的示意图。
如图12所示,操控误差修正单元5的定位焦点主动复位模式通过界面定位焦点的主动复位来修正误差,具体如下:
如图12a所示,在操控设备处于中心位置,界面定位焦点出现较大误差。
如图12b所示,触发界面定位焦点的主动复位操作,使得界面焦点复位到界面中心位置,最终达到图12b中所示的情况,从而修正误差。可选的,也可以使用界面拖动的方式,使界面中心位置与定位焦点位置再次重合,最终达到图12b的情况,从而消除操控误差。
图13显示了本发明的通过相对位移操控模式修正误差的示意图。
如图13所示,操控误差修正单元5的相对位移操控模式通过操控位移和界面定位的一致性来修正误差,当头部向左转动时,向显示单元左侧进行定位,则手写区域落入左侧;当头部向右转动时,向显示单元右侧进行定位,则手写区域落入右侧;当头部向上转动时,向显示单元上方进行定位,则手写区域落入上方;当头部向下转动,向显示单元下方进行定位,则手写区域落入下方。
如上所述,本发明公开了一种基于体感的文字输入系统及方法,通过本发明,可以实现只需借助于手部的指环即可进行操控,操控简单自然,并可实现流畅手写输入,更适应新一代的移动智能终端体验。本发明的文字输入系统及方法还可以用于电路设计、CAD设计、图形设计、自由绘画以及文本和数据的输入等领域。
本发明的技术方案具有如下优点:(1)能够实现对设备的精准定位和复杂操控;(2)能够校准三维空间的立体朝向;(3)能够利用指环进行任意书写,不受限制;(4)可直接作为个人计算机的输入外设,操作便捷,且体验自然简单;(5)书写时可不必等待前一个字输入并识别之后才能够书写和识别下一个字,可实现连续文字的输入与识别;(6)反应灵敏度高,大大缩减反应时间和等待时间,为方便、快捷、实时的移动智能生活奠定了良好基础。
应当理解的是,本发明的上述具体实施方式仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,在不偏离本发明的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。此外,本发明所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。
Claims (13)
1.一种基于体感的文字输入系统,其特征在于,包括:
空间信息感知单元(1),连接到处理单元(3),用于获取人体的空间信息,并将获取的所述空间信息发送至处理单元(3);
时钟单元(2),连接到处理单元(3),用于向所述处理单元(3)提供人体的时间信息;
处理单元(3),用于接收并处理所述空间信息和时间信息,生成对应的文字输入操控指令;以及
显示输出单元(4),连接到所述处理单元(3),用于接收所述文字输入操控指令并生成对应的文字信息,发送给外部设备显示。
2.根据权利要求1所述的系统,其特征在于,所述系统还包括:
操控误差修正单元(5),连接到所述处理单元(3)和所述显示输出单元(4),用于修正所述处理单元(3)生成的所述文字输入操控指令,并将修正后的文字输入操控指令发送给显示输出单元(4)。
3.根据权利要求1或2所述的系统,其特征在于,所述空间信息感知单元(1)包括:
方位信息感知模块(11),用于获取人体的方位信息;
姿态信息感知模块(12),用于获取人体的姿态信息;和
位置信息感知模块(13),用于获取人体的位置信息。
4.根据权利要求3所述的系统,其特征在于,所述人体的方位信息和姿态信息包括:
头部、手部在空间中三个维度的位移变化,其包括前、后位移,上、下位移,以及左、右位移,或这些位移变化的组合;
头部、手部的角度变化,其包括左、右水平旋转,上、下旋转,以及侧向旋转,或这些旋转方式的各类组合;和/或
绝对位移与相对位移。
5.根据权利要求3所述的系统,其特征在于,所述位置信息感知模块(13)用于通过无线信号来获取人体的位置信息,该无线信号包括GPS、移动通信信号以及WIFI信号中的至少一种。
6.根据权利要求2所述的系统,其特征在于,所述操控误差修正单元(5)通过边界回位模式、操控放大模式、操控加速模式、操控锁定模式、定位焦点被动复位模式、定位焦点主动复位模式以及相对位移操控模式中的至少一种来修正操控设备的操控误差。
7.根据权利要求6所述的系统,其特征在于,
所述边界回位模式通过在显示界面上预先设置误差边界,将操控设备的定位焦点限制在该误差边界范围内,并在操控设备回位时修正误差;
所述操控放大模式通过在显示界面上放大操控设备的位移,进行操控误差的修正;
所述操控加速模式通过将操控设备的加速度传递给界面定位焦点,使界面定位焦点相应的加速移动来控制操控设备的操控;
所述操控锁定模式通过将操控设备对应的界面定位焦点进行锁定,并在操控设备回位时修正误差;
所述定位焦点被动复位模式通过操控设备的加速回位来驱动定位焦点的被动复位来修正误差;
所述定位焦点主动复位模式通过界面定位焦点的主动复位来修正误差;
所述相对位移操控模式通过操控位移和界面定位的一致性来修正误差。
8.一种基于体感的文字输入方法,其特征在于,包括:
获取人体的空间信息;
获取人体的时间信息;
对获取的空间信息和时间信息进行处理,生成对应的文字输入操控指令;以及生成与文字输入操控指令对应的文字信息并发送给外部设备显示。
9.根据权利要求8所述的方法,其特征在于,在所述将文字信息发送给外部设备的步骤之前包括:对生成的文字输入操控指令进行修正;
其中,所述修正是通过边界回位模式、操控放大模式、操控加速模式、操控锁定模式、定位焦点被动复位模式、定位焦点主动复位模式以及相对位移操控模式中的至少一种来修正文字输入操控指令的误差。
10.根据权利要求8或9所述的方法,其特征在于,所述获取人体的空间信息包括:
获取人体的方位信息;
获取人体的姿态信息;和
获取人体的位置信息。
11.根据权利要求10所述的方法,其特征在于,所述人体的方位信息和姿态信息包括:
头部、手部在空间中三个维度的位移变化,其包括前、后位移,上、下位移,以及左、右位移,或这些位移变化的组合;
头部、手部的角度变化,其包括左、右水平旋转,上、下旋转,以及侧向旋转,或这些旋转方式的各类组合;和/或
绝对位移与相对位移。
12.根据权利要求10所述的方法,其特征在于,所述获取人体的位置信息是通过无线信号来获取人体的位置信息,该无线信号包括GPS、移动通信信号以及WIFI信号中的至少一种。
13.根据权利要求9所述的方法,其特征在于,所述对生成的文字输入操控指令进行修正的步骤包括:
所述边界回位模式通过在显示界面上预先设置误差边界,将操控设备的定位焦点限制在该误差边界范围内,并在操控设备回位时修正误差;
所述操控放大模式通过在显示界面上放大操控设备的位移,进行操控误差的修正;
所述操控加速模式通过将操控设备的加速度传递给界面定位焦点,使界面定位焦点相应的加速移动来控制操控设备的操控;
所述操控锁定模式通过将操控设备对应的界面定位焦点进行锁定,并在操控设备回位时修正误差;
所述定位焦点被动复位模式通过操控设备的加速回位来驱动定位焦点的被动复位来修正误差;
所述定位焦点主动复位模式通过界面定位焦点的主动复位来修正误差;以及
所述相对位移操控模式通过操控位移和界面定位的一致性来修正误差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410382417.9A CN104133593A (zh) | 2014-08-06 | 2014-08-06 | 一种基于体感的文字输入系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410382417.9A CN104133593A (zh) | 2014-08-06 | 2014-08-06 | 一种基于体感的文字输入系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104133593A true CN104133593A (zh) | 2014-11-05 |
Family
ID=51806290
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410382417.9A Pending CN104133593A (zh) | 2014-08-06 | 2014-08-06 | 一种基于体感的文字输入系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104133593A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109814707A (zh) * | 2018-12-19 | 2019-05-28 | 东北大学秦皇岛分校 | 一种基于智能指环的虚拟输入方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011197736A (ja) * | 2010-03-17 | 2011-10-06 | Mitsubishi Electric Corp | 視界支援装置 |
CN103558915A (zh) * | 2013-11-01 | 2014-02-05 | 王洪亮 | 人体耦合智能信息输入系统及方法 |
CN103858073A (zh) * | 2011-09-19 | 2014-06-11 | 视力移动技术有限公司 | 增强现实系统的免触摸界面 |
-
2014
- 2014-08-06 CN CN201410382417.9A patent/CN104133593A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011197736A (ja) * | 2010-03-17 | 2011-10-06 | Mitsubishi Electric Corp | 視界支援装置 |
CN103858073A (zh) * | 2011-09-19 | 2014-06-11 | 视力移动技术有限公司 | 增强现实系统的免触摸界面 |
CN103558915A (zh) * | 2013-11-01 | 2014-02-05 | 王洪亮 | 人体耦合智能信息输入系统及方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109814707A (zh) * | 2018-12-19 | 2019-05-28 | 东北大学秦皇岛分校 | 一种基于智能指环的虚拟输入方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210055697A1 (en) | Wearable smart watch with a control-ring and a user feedback mechanisim | |
US10877559B2 (en) | System to provide tactile feedback during non-contact interaction | |
CN107000839A (zh) | 无人机的控制方法、装置、设备和无人机的控制系统 | |
US10754546B2 (en) | Electronic device and method for executing function using input interface displayed via at least portion of content | |
KR102264444B1 (ko) | 전자 장치에서 기능 실행 방법 및 장치 | |
CN107408011B (zh) | 将多个屏幕动态地合并到一个视口 | |
CN103558915A (zh) | 人体耦合智能信息输入系统及方法 | |
US10649615B2 (en) | Control interface for a three-dimensional graphical object | |
EP3680610A1 (en) | Method, device, and remote control for planning navigation region of unmanned aerial vehicle | |
CN104156082A (zh) | 面向时空场景的用户界面及应用的控制系统及智能终端 | |
US10331340B2 (en) | Device and method for receiving character input through the same | |
CN105389003A (zh) | 一种移动终端应用程序的控制方法和装置 | |
CN104166466A (zh) | 一种带辅助控制的体感操控系统及方法 | |
US10649520B2 (en) | Method and device for inputting password in virtual reality scene | |
Chanda et al. | Gesture controlled robot using Arduino and android | |
US11355094B2 (en) | Wireless virtual display controller | |
CN204945943U (zh) | 用于为外部显示设备提供远程控制信号的远程控制设备 | |
CN105094718A (zh) | 一种基于移动终端进行3d模型调整的方法及移动终端 | |
CN104156070A (zh) | 一种人体智能输入体感操控系统及方法 | |
CN104133593A (zh) | 一种基于体感的文字输入系统及方法 | |
CN102662592A (zh) | 一种数据输出方法及装置 | |
CN103984407A (zh) | 使用运动传感器融合来进行运动识别的方法及装置 | |
CN115494951A (zh) | 交互方法、装置和显示设备 | |
TWI498793B (zh) | 光學觸控系統及光學觸控控制方法 | |
US10423236B2 (en) | Using a wearable device to control characteristics of a digital pen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20141105 |
|
RJ01 | Rejection of invention patent application after publication |