CN111782031A - 一种基于头动以及手指微手势的文本输入系统及方法 - Google Patents

一种基于头动以及手指微手势的文本输入系统及方法 Download PDF

Info

Publication number
CN111782031A
CN111782031A CN202010454752.0A CN202010454752A CN111782031A CN 111782031 A CN111782031 A CN 111782031A CN 202010454752 A CN202010454752 A CN 202010454752A CN 111782031 A CN111782031 A CN 111782031A
Authority
CN
China
Prior art keywords
micro
information
gesture
head movement
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010454752.0A
Other languages
English (en)
Inventor
翁冬冬
江海燕
胡翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanchang New Century Conference And Exhibition Center Co ltd
Nanchang Virtual Reality Detection Technology Co ltd
Beijing Institute of Technology BIT
Original Assignee
Nanchang New Century Conference And Exhibition Center Co ltd
Nanchang Virtual Reality Detection Technology Co ltd
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanchang New Century Conference And Exhibition Center Co ltd, Nanchang Virtual Reality Detection Technology Co ltd, Beijing Institute of Technology BIT filed Critical Nanchang New Century Conference And Exhibition Center Co ltd
Priority to CN202010454752.0A priority Critical patent/CN111782031A/zh
Publication of CN111782031A publication Critical patent/CN111782031A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种基于头动以及手指微手势的文本输入系统及方法,是一种高效、准确、快速的适用于人工现实中移动场景输入的输入方式。本发明的技术方案为:头动跟踪模块用于跟踪获取用户的头动信息,送入信息处理模块。手势检测模块用于检测用户微手势,得到微手势输入信息,送入信息处理模块;微手势包括手指的点击和滑动动作。信息处理模块预先将待输入字符进行分组,每组字符对应一个字符区域;信息处理模块接收到头动信息之后,根据预先设定的头动信息与字符区域的对应关系选取字符区域;信息处理模块在接收到微手势输入信息之后,根据预先设定的微手势输入信息与字符区域内字符的对应关系选取字符作为输入结果。显示模块,用于针对输入结果进行显示。

Description

一种基于头动以及手指微手势的文本输入系统及方法
技术领域
本发明涉及输入方式技术领域,具体涉及一种基于头动以及手指微手势的文本输入系统及方法。
背景技术
目前虚拟现实等头戴式显示器中多使用空中射线与虚拟字母的碰撞检测进行文本输入,需要依赖手柄控制、手部指向方向(例如oculus quest中的手指向输入)等等,输入效率较低,此外,手部指向方向预测易产生误差,影响输入效率,这些原因导致不能高效的进行文本输入。
用户头戴式显示器可以进行三维位置六自由度的跟踪,因此可以据此跟踪用户头部位置,目前头动数据也常被用于文本以及虚拟物体的选择。但是如果使用较小尺度的头部运动控制字母或者物体的选择,用户较难准确控制,同时大尺度的运动容易造成晕动症以及疲劳。例如,要实现26个字母选择,如果字符所占位置较小,用户不容易控制,但是如果增大字符大小,用户将需要更大的头部运动。但是在一定范围内,用户可以快速的使用头动快速精确的选择相对较大的物体。
文章“RingText:Dwell-free and hands-free Text Entry for Mobile Head-Mounted Displays using Head Motions”目前有研究使用头动进行文本输入。该输入技术通过跟踪用户头动选择位于圆盘圆周上的字符。
每个字符所占区域较小,输入确认相对困难,准确率相对较低。
因手部感知较高的准确性,手势以及微手势也被常用于输入,目前较多的是通过手势作为输入确定信号,但是手势具有个数限制,并且不是每个手势都具有较高的舒适度,适合于大量多次的输入确定,而文本输入中至少包含了26个字母以及空格、删除、回车等功能键,手势输入并不能很好的覆盖这些字符的输入;最常用的拇指和其他手指指尖的捏合手势具有较高的舒适度,但是其每只手只具有4个捏合手势;也可用拇指点击手指手掌面上不同区域来进行文本的输入,但是,输入区域也较为有限,很难精确的分为26及其以上个区域。但是,可以利用捏合手势来进行几个字符的准确快速选择。
文章“FingerT9:Leveraging Thumb-to-finger Interaction for Same-side-hand Text Entry on Smartwatches”公开了一种基于手指微手势的文本输入方式,该输入方式将手指出拇指以外的四指每个手指根据关节划分为三个区域,其中小指划分为两个区域,一共对应11个区域,对应到T9键盘,在这些区域分别放置传感器,用于检测拇指的点击动作,用于文本输入。
该方式需要将手指划分多个区域,拇指长时间点击某些区域会造成不舒适,并且该方式基于T9键盘输入法,每次点击字母具有歧义性,需要使用算法来预测输入单词才能进行输入,会降低输入效率,此外,对于单个字符的输入较为困难。
因此目前缺少一种高效、准确、快速的适用于混合现实移动场景的输入方式。
发明内容
有鉴于此,本发明提供了一种基于头动以及手指微手势的文本输入系统及方法,是一种高效、准确、快速的适用于混合现实中移动场景输入的输入方式。
为达到上述目的,本发明的技术方案为:一种基于头动以及手指微手势的文本输入系统,包括头动跟踪模块、手部微手势检测模块、信息处理模块以及显示模块。
头动跟踪模块,用于跟踪获取用户的头动信息,送入信息处理模块。
手势检测模块,用于检测用户微手势,得到微手势输入信息,送入信息处理模块;微手势包括手指的点击和滑动动作。
信息处理模块,预先将待输入字符进行分组,每组字符对应一个字符区域;信息处理模块接收到头动信息之后,根据预先设定的头动信息与字符区域的对应关系选取字符区域;信息处理模块在接收到微手势输入信息之后,根据预先设定的微手势输入信息与字符区域内字符的对应关系选取字符作为输入结果。
显示模块,用于针对输入结果进行显示。
进一步地,头动信息为头动信息包括头部的位姿信息;头动跟踪模块为头戴式显示器或者其他用于头部的跟踪设备。
进一步地,头部的位姿信息包括头部的空间位置和头部旋转。
进一步地,手势检测模块,用于检测用户微手势,得到微手势输入信息,具体为:若检测到用户微手势为手指的点击动作,则获取不同手指点击的动作作为微手势输入信息;若检测到用户微手势为手指的滑动动作,则获取手指滑动动作向量,以不同的手指滑动动作向量作为微手势输入信息。
进一步地,预先设定的头动信息与字符区域的对应关系为:头动信息与字符区域的设定的对应关系;或者是头动信息与字符区域在空间位置上的对应关系,其中每个字符区域分布在虚拟空间的空间位置中。
预先设定的微手势输入信息与字符区域内字符的对应关系为:微手势输入信息与字符区域的设定的对应关系;或者是微手势与字符的空间位置上的对应关系,其中字符分布在对应字符区域内。
进一步地,显示模块为头戴式显示器HMD或者其他混合现实显示设备。
本发明另外一个实施例提供了一种基于头动以及手指微手势的文本输入方法,包括如下步骤:
S1、进行用户头动跟踪,得到用户的头动信息。
S2、根据预先设定的头动信息与字符区域的对应关系,选取字符区域。
S3、进行用户微手势检测,得到微手势输入信息。
S4、根据预先设定的微手势输入信息与字符区域内字符的对应关系,选取字符作为输入结果。
S5、将输入结果进行显示。
进一步地,头动信息包括头部的位姿信息。
进一步地,进行用户微手势检测,得到微手势输入信息,具体为:若检测到用户微手势为手指的点击动作,则获取不同手指点击动作作为微手势输入信息;若检测到用户微手势为手指的滑动动作,则获取手指滑动动作向量,以手指滑动动作向量作为微手势输入信息。
有益效果:
本发明提供了一种新型的文本输入方案,该方案基于用户头动以及用户拇指和其余手指的触碰微手势实现所有字母、数字、符号(以下统称字符)的输入。该方案使用两步输入法进行输入,第一步通过用户头动选择包含一定数量字符的字符区域,第二步通过手部微手势确定具体的输入字符。该种输入方式可用于人工现实中的文本输入,人工现实包括虚拟现实、增强现实以及其他任何相似的混合现实等等。本发明提出的基于头动和微手势的两步输入法,通过结合头动自然特点和手指微手势准确快速的特点,避免小物体选择困难、大范围运动造成晕动症的缺点以及手部微手势个数受限的缺点,实现一种准确、快速、更加高效的文本输入方式,且更加适用于移动场景输入。
附图说明
图1为本发明实施例提供的一种基于头动以及手指微手势的文本输入系统结构组成图;
图2为本发明实施例中提供的一种可能的输入界面示意图;
图3为本发明实施例中提供的一种拇指和手指指尖的捏合微手势示意图;
图3(a)为拇指与无名指指尖捏合的微手势示意图;图3(b)为拇指与食指捏合的微手势示意图;
图4为本发明实施例中的提出的圆盘选择界面;
图5为本发明实施例中提供的一种基于头动以及手指微手势的文本输入方法流程。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明提供了一种基于头动以及手指微手势的文本输入系统,如图1所示包括:头动跟踪模块、手部微手势检测模块、信息处理模块以及显示模块。还可以依据实际情况增加信息传输模块。
头动跟踪模块,用于跟踪获取用户的头动信息,送入信息处理模块;头动信息为头动信息包括头部的位姿信息;头部的位姿信息包括头部的空间位置和头部旋转信息。头部的空间位置为头部在世界坐标系中的三维坐标,头部旋转信息为头部绕世界坐标系中的绕三轴的旋转角度。
头动跟踪模块为头戴式显示器或者其他可以跟踪头动信息的跟踪设备。即头动跟踪方式可以使用现有头戴式显示器的现有跟踪方式,例如HTC vive基站用于跟踪头戴式显示器的六自由度数据;头戴式显示器通过多个摄像头捕获周围图像确定头戴式显示器的六自由度数据。可以使用跟踪设备获取头动数据,例如使用OptiTrack跟踪用户的头动。
手势检测模块,用于检测用户微手势,得到微手势输入信息,送入信息处理模块;微手势包括手指的点击和滑动动作;具体地,若检测到用户微手势为手指的点击动作,则获取手指点击动作作为微手势输入信息;若检测到用户微手势为手指的滑动动作,则获取手指滑动动作向量,以手指滑动动作向量作为微手势输入信息。
手势检测模块可以使用相机等拍摄用户手部随时间变化的序列,然后通过深度学习或者传统图像处理方式确定用户的手部动作,拍摄图像可以为彩色图像或者深度图像;可以使用其他可以检测手指手部手势的传感器,例如压力传感器,磁力传感器等等可以检测用户手部的传感器,传感器可以放置在用户手部也可以放置在空间中。用户手势检测到的型号可以是图像、压力值等等,该信号和检测所用设备和传感器有关。
本发明实施例中,还可以增加信息传输模块。信息传输模块将用户头动信息以及手指模块检测到信号传输给信息处理模块。信息传输模块可以是无线传输,也可以为有线传输。注视点模块和手指微手势检测模块信息可以单独传输,传输方式可为无线也可为有线。
信息处理模块,预先将待输入字符进行分组,每组字符对应一个字符区域;信息处理模块接收到头动信息之后,根据预先设定的头动信息与字符区域的对应关系选取字符区域;信息处理模块在接收到微手势输入信息之后,根据预先设定的微手势输入信息与字符区域内字符的对应关系选取字符作为输入结果。
预先设定的头动信息与字符区域的对应关系为:头动信息与字符区域的设定的对应关系,例如采用头部向右上晃动对应字符区域一,采用头部向座上晃动对应字符区域二,以此类推;或者是头动信息与字符区域在空间位置上的对应关系,其中每个字符区域分布在虚拟空间的空间位置中。
预先设定的微手势输入信息与字符区域内字符的对应关系为:微手势输入信息与字符区域内字符的设定的对应关系,例如采用拇指捏合食指动作对应字符区域内第一个字母,采用拇指捏合中指动作对应字符区域内第二个字母,以此类推;或者是微手势与字符的空间位置上的对应关系,其中字符分布在对应字符区域内。
通常信息处理模块处理连续的头动信息,当头动的某方向的旋转或者移动或者多方向旋转、移动超过某个阈值,触发相应的预设的交互信号。手势信息可能为连续的图像信息,通过图像信息计算手部位置信息,此时需要进行时间序列的处理,用于确定手势,不同的预定义的手势对应不同的交互信号;手势信息也可能为压力信号等模拟信号,也可能为数字信号,模拟信号需要设定触发阈值,将触发不同的交互信号。
显示模块,用于针对输入结果进行显示。本发明实施例中,显示模块为头戴式显示器HMD或者其他混合现实显示设备。
其中,信息处理模块可以位于头戴式显示器,例如头戴式显示器一体机,也可位于不同设备,例如信息处理模块是计算机主机,显示设备为连接计算机主机的头戴式显示器。
文本输入方式:
用户头动变化触发交互信号。在该发明中,用户头动用于选择区域,该区域包含两个及其以上的字符,将把该区域的字符作为候选的字符。可以预定义用户不同的头动触发的选择区域。图2显示了一种字符划分方式,,字母“A”“B”“C”为一个区域,“D”“E”“F”为一个区域,以此类推。用户不同的头动可以选择相应的字符区域,此外,当头动触发某一个区域的选择的时候,可以加入视觉提示,提示用户选择了该区域,例如,颜色变化、大小缩放等等。字符的放置方式可以更改。每个区域包含字符个数可变化。例如,头部左偏幅度大选择“PQRS”区域,左偏幅度小选择“GHI”区域,上仰一点选择“ABC”区域,低一点头选择“TUV”区域,不懂的时候选择“JKL”区域,右偏幅度大选择“WXYZ”区域,右偏幅度中等选择“MNO”区域,右偏幅度小选择“DEF”区域。
当头动选择了某个区域时候,用户使用微手势进行具体字母的选择,这些字母包含在用户注视的区域中。一种微手势是使用用户拇指和其他指尖捏合手势,每只手具有四个不同的捏合手势,可以出发四种不同的选择,图3a展示了拇指和无名指直接的捏合微手势。例如,当使用图2所示的输入界面时候,用户头动选择了“PQRS”区域时,用户可以捏合拇指和食指指尖选择字母“P”,捏合拇指和中指指尖选择字母“Q”,捏合拇指和无名指指尖选择字母“R”,捏合拇指和小指指尖选择字母“S”。图3b展示了另一种可能的微手势,使用拇指点击食指侧面。微手势可以为其他手势。
字母划分区域以及用户微手势的确定方式可以更改。
该输入方式通过头动选择字符区域,实现准确快速的输入,字符可以为数字、特殊符号以及功能键等等。显示区域的划分可以为多种划分方式,手指微手势可以为多种可以检测到的不同手势。该输入方式除了可以进行文本字符的输入也可以进行其他物体的选择,例如一个使用头动选择一个物体集,利用手指区域选择物体集中特定的物体。如图4中,头动用于选择一个物体集,微手势选择物体集中一个物体。
具体选择流程图如图5所示,一种基于头动以及手指微手势的文本输入方法,包括如下步骤:
S1、进行用户头动跟踪,得到用户的头动信息;头动信息包括头部的位姿信息。
S2、根据预先设定的头动信息与字符区域的对应关系,选取字符区域。
S3、进行用户微手势检测,得到微手势输入信息。若检测到用户微手势为手指的点击动作,则获取手指点击动作作为微手势输入信息;若检测到用户微手势为手指的滑动动作,则获取手指滑动动作向量,以手指滑动动作作为微手势输入信息。
S4、根据预先设定的微手势输入信息与字符区域内字符的对应关系,选取字符作为输入结果;
S5、将输入结果进行显示。
本发明提供的输入方案能够帮助人工现实中用户的进行快速准确的文本输入,利用头动,避免其对小物体选择的低精度以及大幅度运动产生的疲劳以及晕动症,利用手指微手势的快速准确,二者结合,实现了快速高效的文本输入。该输入方式有助于解决目前人工现实中的输入困难,输入效率低,长时间输入容易造成不舒适等问题。该方式也可以用于物体的选择。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于头动以及手指微手势的文本输入系统,其特征在于,包括:头动跟踪模块、手部微手势检测模块、信息处理模块以及显示模块;
所述头动跟踪模块,用于跟踪获取用户的头动信息,送入所述信息处理模块;
所述手势检测模块,用于检测用户微手势,得到微手势输入信息,送入所述信息处理模块;所述微手势包括手指的点击和滑动动作;
所述信息处理模块,预先将待输入字符进行分组,每组字符对应一个字符区域;所述信息处理模块接收到所述头动信息之后,根据预先设定的头动信息与字符区域的对应关系选取字符区域;所述信息处理模块在接收到所述微手势输入信息之后,根据预先设定的微手势输入信息与字符区域内字符的对应关系选取字符作为输入结果;
所述显示模块,用于针对所述输入结果进行显示。
2.如权利要求1所述的系统,其特征在于,所述头动信息为所述头动信息包括头部的位姿信息;所述头动跟踪模块为头戴式显示器或者其他用于头部的跟踪设备。
3.如权利要求2所述的系统,其特征在于所述头部的位姿信息包括头部的空间位置和头部的旋转。
4.如权利要求1~3任一所述的系统,其特征在于,所述手势检测模块,用于检测用户微手势,得到微手势输入信息,具体为:
若检测到用户微手势为手指的点击动作,则获取不同手指点击动作为所述微手势输入信息;若检测到用户微手势为手指的滑动动作,则获取手指滑动动作向量,以不同手指滑动动作向量作为微手势输入信息。
5.如权利要求4所述的系统,其特征在于,所述预先设定的头动信息与字符区域的对应关系为:头动信息与字符区域的设定的对应关系;或者是头动信息与字符区域在空间位置上的对应关系,其中每个字符区域分布在虚拟空间的空间位置中;
所述预先设定的微手势输入信息与字符区域内字符的对应关系为:微手势输入信息与字符区域的设定的对应关系;或者是微手势与字符的空间位置上的对应关系,其中字符分布在对应字符区域内。
6.如权利要求1、2、3或5所述的系统,其特征在于,所述显示模块为头戴式显示器HMD或者其他混合现实设备。
7.一种基于头动以及手指微手势的文本输入方法,其特征在于,包括如下步骤:
S1、进行用户头动跟踪,得到用户的头动信息;
S2、根据预先设定的头动信息与字符区域的对应关系,选取字符区域;
S3、进行用户微手势检测,得到微手势输入信息;
S4、根据预先设定的微手势输入信息与字符区域内字符的对应关系,选取字符作为输入结果;
S5、将所述输入结果进行显示。
8.如权利要求7所述的方法,其特征在于,所述头动信息包括头部的位姿信息。
9.如权利要求8所述的方法,其特征在于,所述进行用户微手势检测,得到微手势输入信息,具体为:
若检测到用户微手势为手指的点击动作,则获取不同手指点击动作作为所述微手势输入信息;若检测到用户微手势为手指的滑动动作,则获取手指滑动动作向量,以不同手指滑动动作作为微手势输入信息。
CN202010454752.0A 2020-05-26 2020-05-26 一种基于头动以及手指微手势的文本输入系统及方法 Pending CN111782031A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010454752.0A CN111782031A (zh) 2020-05-26 2020-05-26 一种基于头动以及手指微手势的文本输入系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010454752.0A CN111782031A (zh) 2020-05-26 2020-05-26 一种基于头动以及手指微手势的文本输入系统及方法

Publications (1)

Publication Number Publication Date
CN111782031A true CN111782031A (zh) 2020-10-16

Family

ID=72753214

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010454752.0A Pending CN111782031A (zh) 2020-05-26 2020-05-26 一种基于头动以及手指微手势的文本输入系统及方法

Country Status (1)

Country Link
CN (1) CN111782031A (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104978043A (zh) * 2014-04-04 2015-10-14 北京三星通信技术研究有限公司 终端设备的键盘、终端设备的输入方法和终端设备
JP2016189122A (ja) * 2015-03-30 2016-11-04 日本電気株式会社 配線・配管設計装置及び方法
CN107003735A (zh) * 2014-12-04 2017-08-01 三星电子株式会社 用于接收字符输入的设备及其方法
US20170322628A1 (en) * 2016-05-05 2017-11-09 Jamie Tan Airborne haptic feedback device
CN108845754A (zh) * 2018-07-03 2018-11-20 西交利物浦大学 用于移动虚拟现实头戴显示器的无驻留文本输入方法
CN110780732A (zh) * 2019-09-06 2020-02-11 北京理工大学 一种基于空间定位以及手指点击的输入系统
CN110785688A (zh) * 2017-04-19 2020-02-11 奇跃公司 可穿戴系统的多模式任务执行和文本编辑

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104978043A (zh) * 2014-04-04 2015-10-14 北京三星通信技术研究有限公司 终端设备的键盘、终端设备的输入方法和终端设备
CN107003735A (zh) * 2014-12-04 2017-08-01 三星电子株式会社 用于接收字符输入的设备及其方法
JP2016189122A (ja) * 2015-03-30 2016-11-04 日本電気株式会社 配線・配管設計装置及び方法
US20170322628A1 (en) * 2016-05-05 2017-11-09 Jamie Tan Airborne haptic feedback device
CN110785688A (zh) * 2017-04-19 2020-02-11 奇跃公司 可穿戴系统的多模式任务执行和文本编辑
CN108845754A (zh) * 2018-07-03 2018-11-20 西交利物浦大学 用于移动虚拟现实头戴显示器的无驻留文本输入方法
CN110780732A (zh) * 2019-09-06 2020-02-11 北京理工大学 一种基于空间定位以及手指点击的输入系统

Similar Documents

Publication Publication Date Title
US10261595B1 (en) High resolution tracking and response to hand gestures through three dimensions
US8619048B2 (en) Method and device of stroke based user input
Wang et al. Camera phone based motion sensing: interaction techniques, applications and performance study
US7337410B2 (en) Virtual workstation
US20130275907A1 (en) Virtual keyboard
US7774075B2 (en) Audio-visual three-dimensional input/output
CN111831112A (zh) 一种基于眼动以及手指微手势的文本输入系统及方法
CN108700957B (zh) 用于虚拟环境中文本输入的电子系统和方法
US20090073136A1 (en) Inputting commands using relative coordinate-based touch input
US20150084884A1 (en) Extending the free fingers typing technology and introducing the finger taps language technology
US10621766B2 (en) Character input method and device using a background image portion as a control region
US20150241984A1 (en) Methods and Devices for Natural Human Interfaces and for Man Machine and Machine to Machine Activities
US20220253209A1 (en) Accommodative user interface for handheld electronic devices
CN102750044A (zh) 一种虚拟键盘装置及其实现方法
CN110780732A (zh) 一种基于空间定位以及手指点击的输入系统
CN104714650A (zh) 一种信息输入方法和装置
CN110134230B (zh) 一种虚拟现实场景中的基于手部指尖力反馈的输入系统
US20230236673A1 (en) Non-standard keyboard input system
US20010035858A1 (en) Keyboard input device
CN111782041A (zh) 打字方法及装置、设备、存储介质
CN111782031A (zh) 一种基于头动以及手指微手势的文本输入系统及方法
Čejka et al. Exploring tilting methods for typing under water
Lee et al. Embodied interaction on constrained interfaces for augmented reality
CN111782032A (zh) 一种基于手指微手势的输入系统及方法
US20230333664A1 (en) Head-mounted display, tapping input signal generating method and non-transitory computer readable storage medium thereof

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20201016

RJ01 Rejection of invention patent application after publication