CN111427458B - 一种基于手部动作虚拟输入字符的方法、装置和电子设备 - Google Patents

一种基于手部动作虚拟输入字符的方法、装置和电子设备 Download PDF

Info

Publication number
CN111427458B
CN111427458B CN202010527336.9A CN202010527336A CN111427458B CN 111427458 B CN111427458 B CN 111427458B CN 202010527336 A CN202010527336 A CN 202010527336A CN 111427458 B CN111427458 B CN 111427458B
Authority
CN
China
Prior art keywords
kneading
hand
image
action
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010527336.9A
Other languages
English (en)
Other versions
CN111427458A (zh
Inventor
王娜娜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nobarrier Hangzhou Technology Co ltd
Original Assignee
Nobarrier Hangzhou Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nobarrier Hangzhou Technology Co ltd filed Critical Nobarrier Hangzhou Technology Co ltd
Priority to CN202010527336.9A priority Critical patent/CN111427458B/zh
Publication of CN111427458A publication Critical patent/CN111427458A/zh
Application granted granted Critical
Publication of CN111427458B publication Critical patent/CN111427458B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Dermatology (AREA)
  • Neurosurgery (AREA)
  • Neurology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本说明书实施例提供一种基于手部动作虚拟输入字符的方法,通过为指节分隔出的不同捏合区域预设不同的按键字符信息,形成区域与字符的对应关系,采集手部动作图像,识别当前捏合区域,确定其对应的按键字符信息,向用户反馈输入结果。通过利用指节将手指分隔出不同的捏合区域,充分挖掘了手部的各种捏合动作,改善了对手部动作的利用效果。由于捏合动作中,相接触的两者为同一人体的部位,不需要控制手部向外界固定的按键位置移动,由于人体对自身部位的感知性更强,一方面,强感知性使得操作准确率更高,另一方面,强感知性使用户即便在不注视手部的情况下,依然可以完成特定的捏合动作,不需要视线来回切换,因而能够提高效率,提升用户体验。

Description

一种基于手部动作虚拟输入字符的方法、装置和电子设备
技术领域
本申请涉及计算机领域,尤其涉及一种基于手部动作虚拟输入字符的方法、装置和电子设备。
背景技术
现有的市面上已经有各种输入字符的方法,通过硬件键盘、显示屏键盘,或者虚拟场景中的键盘来为用户提供出发输入字符的软硬件接口,从而基于用户的输入操作,输入按键对应的字符(单词、文字、数字和符号等)。
随着技术的改进,虚拟键盘的概念逐步为人们所熟知,其本质是在空间中呈现一个键盘的画面,当用户手指触及画面中的按键时,该按键处的传感器感应用户触及到该按键,继而完成字符的输入。
然而,虽然虚拟键盘的概念很火爆,但是虚拟键盘的实际应用依然很少。
申请人对其分析发现,虚拟键盘的本质需要用户手指触及预先设定的固定位置,由于用户在输入过程中往往需要了解输入框或者拼写框中的结果,而输入框或拼写框又不能与虚拟键盘重叠显示,这就造成,用户需要在输入框、拼写框与手指、按键之间来回切换视线,即便是利用硬件键盘“盲打”水平高超的用户,由于虚拟显示的键盘没有触觉反馈,使这种高水平用户依然需要视线切换,这就会降低拼写速度以及拼写准确率,用户体验较差。
因此,有必要提出一种高效准确体验好的字符输入方法。
发明内容
本说明书实施例提供一种基于手部动作虚拟输入字符的方法、装置和电子设备,用以提高字符输入过程的效率和准确性,进而提升用户体验。
本说明书实施例提供一种基于手部动作虚拟输入字符的方法,包括:
确定分隔同一手指的不同捏合区域的指节,并为不同的捏合区域预设不同的按键字符信息,形成区域与字符的对应关系;
采集手部动作图像,识别所述手部动作图像中的当前捏合区域;
利用所述对应关系,确定所述当前捏合区域对应的按键字符信息;
根据所述当前捏合区域对应的按键字符信息向用户反馈输入结果。
可选地,还包括:
在手臂采集手部动作的肌电信号;
利用采集到的所述肌电信号判别是否产生手部捏合动作,得到判别结果;
所述采集手部动作图像,包括:
若判别结果为产生手部捏合动作,则采集手部动作图像。
可选地,还包括:
基于分隔捏合区域的指节构建并训练捏合区域识别模型;
所述识别所述手部动作图像中的当前捏合区域,包括:
利用所述捏合区域识别模型识别所述手部动作图像中的当前捏合区域。
可选地,所述基于分隔捏合区域的指节构建并训练捏合区域识别模型,包括:
获取多个图像样本;
基于分隔捏合区域的指节为所述图像样本设置标签,对于一个图像中捏合于单一捏合区域的图像样本,将其设置为白样本,将未出现捏合动作的图像样本设置为黑样本;
利用所述图像样本构建并训练捏合区域识别模型。
可选地,所述利用所述捏合区域识别模型识别所述手部动作图像中的当前捏合区域,包括:
识别所述手部动作图像中的指节,根据当前捏合位置与所述指节的位置关系确定当前捏合区域。
可选地,所述为不同的捏合区域预设不同的按键字符信息,形成区域与字符的对应关系,包括:
根据用户偏好的按键布局中各按键的位置关系以及手指各捏合区域的位置关系将按键与捏合区域相匹配;
根据匹配结果为不同的捏合区域预设不同的按键字符信息,形成区域与字符的对应关系。
可选地,所述利用采集到的所述肌电信号判别是否产生手部捏合动作,包括:
利用训练的捏合动作判别模型判别所述肌电信号是否出现手部捏合动作。
可选地,还包括:
获取肌电信号样本,根据采集各肌电信号样本时是否产生手部捏合动作设置标签;
利用具有标签的肌电信号样本构建并训练捏合动作判别模型。
可选地,所述根据所述当前捏合区域对应的按键字符信息向用户反馈输入结果,包括:
录入并显示所述当前捏合区域对应的按键字符信息,或者,根据所述当前捏合区域对应的按键字符信息进行拼写并显示拼写结果。
本说明书实施例还提供一种基于手部动作虚拟输入字符的装置,包括:
区域划分模块,确定分隔同一手指的不同捏合区域的指节,并为不同的捏合区域预设不同的按键字符信息,形成区域与字符的对应关系;
图像识别模块,采集手部动作图像,识别所述手部动作图像中的当前捏合区域;
反馈模块,利用所述对应关系,确定所述当前捏合区域对应的按键字符信息;
根据所述当前捏合区域对应的按键字符信息向用户反馈输入结果。
本说明书实施例还提供一种电子设备,其中,该电子设备包括:
处理器;以及,
存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行上述任一项方法。
本说明书实施例还提供一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被处理器执行时,实现上述任一项方法。
本说明书实施例提供的各种技术方案通过为指节分隔出的不同捏合区域预设不同的按键字符信息,形成区域与字符的对应关系,采集手部动作图像,识别当前捏合区域,确定其对应的按键字符信息,向用户反馈输入结果。通过利用指节将手指分隔出不同的捏合区域,充分挖掘了手部的各种捏合动作,改善了对手部动作的利用效果。由于捏合动作中,相接触的两者为同一人体的部位,不需要控制手部向外界固定的按键位置移动,由于人体对自身部位的感知性更强,一方面,强感知性使得操作准确率更高,另一方面,强感知性使用户即便在不注视手部的情况下,依然可以完成特定的捏合动作,不需要视线来回切换,因而能够提高效率,提升用户体验。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本说明书实施例提供的一种基于手部动作虚拟输入字符的方法的原理示意图;
图2为本说明书实施例提供的一种基于手部动作虚拟输入字符的装置的结构示意图;
图3为本说明书实施例提供的一种基于手部动作虚拟输入字符的方法的原理示意图;
图4为本说明书实施例提供的一种基于手部动作虚拟输入字符的方法的原理示意图;
图5为本说明书实施例提供的一种电子设备的结构示意图;
图6为本说明书实施例提供的一种计算机可读介质的原理示意图。
具体实施方式
现在将参考附图更全面地描述本发明的示例性实施例。然而,示例性实施例能够以多种形式实施,且不应被理解为本发明仅限于在此阐述的实施例。相反,提供这些示例性实施例能够使得本发明更加全面和完整,更加便于将发明构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的元件、组件或部分,因而将省略对它们的重复描述。
在符合本发明的技术构思的前提下,在某个特定的实施例中描述的特征、结构、特性或其他细节不排除可以以合适的方式结合在一个或更多其他的实施例中。
在对于具体实施例的描述中,本发明描述的特征、结构、特性或其他细节是为了使本领域的技术人员对实施例进行充分理解。但是,并不排除本领域技术人员可以实践本发明的技术方案而没有特定特征、结构、特性或其他细节的一个或更多。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
术语“和/或”或者“及/或”包括相关联的列出项目中的任一个或多者的所有组合。
图1为本说明书实施例提供的一种基于手部动作虚拟输入字符的方法的原理示意图,该方法可以包括:
S101:确定分隔同一手指的不同捏合区域的指节,并为不同的捏合区域预设不同的按键字符信息,形成区域与字符的对应关系。
考虑到实际场景中,对于字符数相同的键盘,如果捏合方式越少,那么每种捏合方式对应的字符就越多,要想输入需要的字符,就需要更多次数的捏合,才能最终确定这个组合对应哪个字符。
那么,如果我们能够挖掘更多的捏合方式,则表示每个捏合方式对应更少的字符,那么,确定一个字符时,所需要的捏合动作个数也就越少。
根据这种原理,我们考虑到人体的手指具有指节,而且食指、中指、无名指、小指的指节均为2个,将手指划分为3个部分。因此,我们可以利用指节来将一个手指分割成不同的区域,为每个捏合区域设置按键字符信息后,便可以在确定输入的字符的过程中,充分利用在不同捏合区域进行捏合的手部动作。
在一种实施方式中,捏合可以是拇指点击其他手指中的非指节区域,即捏合区域。
考虑到用户可能已经形成了打字习惯,比如,已经记忆了特定键盘的字符位置关系,如果能够利用这种用户习惯,那么,对用户记忆捏合区域与字符的对应关系的要求就会降低。
因此,在本说明书实施例中,所述为不同的捏合区域预设不同的按键字符信息,形成区域与字符的对应关系,可以包括:
根据用户偏好的按键布局中各按键的位置关系以及手指各捏合区域的位置关系将按键与捏合区域相匹配;
根据匹配结果为不同的捏合区域预设不同的按键字符信息,形成区域与字符的对应关系。
具体的可以是,利用已有的九宫格键盘中数字、字母、笔画的按键位置分布顺序,顺着四指的多个捏合区域依次设置对应关系。
这可以是:食指远心端捏合区域对应标点符号,食指中间捏合区域对应A、B、C,食指近心端捏合区域对应D、E、F,中指远心端捏合区域对应G、H、I等,具体不在详细阐述。
对于捏合区域与数字输入法下字符的对应关系,可以是,食指远心端捏合区域对应“1”,食指中间捏合区域对应“2”,食指近心端捏合区域对应“3”,中指远心端捏合区域对应“4”,依次类推,在此不做详细阐述。
当然,对于辅助类按键操作信息,比如,切换输入法、空格、换行,可以对应小指的捏合区域,可以根据具体情况来设定,在此不做具体阐述。
由于设置的按键字符信息的位置顺序能够与用户偏好习惯相适应,用户能够熟练操作,因而提高了实际使用时的效率和便利性。
对于其他类型的键盘,在此也不做详细阐述,应当理解为,由于为同一手指不同捏合区域均设置了与按键字符信息的对应关系,因而能够充分利用手部各种可能的捏合,从而改善了对手部动作的利用效果。
S102:采集手部动作图像,识别所述手部动作图像中的当前捏合区域。
在本说明书实施例中,该方法还可以包括:
基于分隔捏合区域的指节构建并训练捏合区域识别模型;
所述识别所述手部动作图像中的当前捏合区域,可以包括:
利用所述捏合区域识别模型识别所述手部动作图像中的当前捏合区域。
在本说明书实施例中,所述基于分隔捏合区域的指节构建并训练捏合区域识别模型,可以包括:
获取多个图像样本;
基于分隔捏合区域的指节为所述图像样本设置标签,对于一个图像中捏合于单一捏合区域的图像样本,将其设置为白样本,将未出现捏合动作的图像样本设置为黑样本;
利用所述图像样本构建并训练捏合区域识别模型。
在本说明书实施例中,所述利用所述捏合区域识别模型识别所述手部动作图像中的当前捏合区域,可以包括:
识别所述手部动作图像中的指节,根据当前捏合位置与所述指节的位置关系确定当前捏合区域。
在本说明书实施例中,还可以包括:
在手臂采集手部动作的肌电信号;
利用采集到的所述肌电信号判别是否产生手部捏合动作,得到判别结果;
所述采集手部动作图像,可以包括:
若判别结果为产生手部捏合动作,则采集手部动作图像。
由于肌电信号与手部动作时人体自身关联反应,因而,利用采集到的所述肌电信号判别是否产生手部捏合动作,作为采集手部动作图像的依据,提高图像采集的及时性,进而提高了动作识别的准确率,避免多次采集未捏合图像的情况,降低了工作量提高了效率。
在本说明书实施例中,所述利用采集到的所述肌电信号判别是否产生手部捏合动作,可以包括:
利用训练的捏合动作判别模型判别所述肌电信号是否出现手部捏合动作。
在本说明书实施例中,还可以包括:
获取肌电信号样本,根据采集各肌电信号样本时是否产生手部捏合动作设置标签;
利用具有标签的肌电信号样本构建并训练捏合动作判别模型。
在给出上述训练要素之后,具体的训练过程可以由现有技术得到,在此不做详细阐述。
其中,采集手部动作图像可以是通过摄像头捕捉手部动作图像。
S103:利用所述对应关系,确定所述当前捏合区域对应的按键字符信息。
在识别到当前捏合区域后,可以根据预设的对应关系,得到当前捏合区域对应的按键字符信息,比如,如果识别到用户的拇指点击了食指近心端捏合区域,可以根据对应得到用户要输入的字符是DEF中的一个,当然,这只是一种示例,对应的按键字符信息也可以是笔画、数字等,在此不做详细阐述。
S104:根据所述当前捏合区域对应的按键字符信息向用户反馈输入结果。
通过为指节分隔出的不同捏合区域预设不同的按键字符信息,形成区域与字符的对应关系,采集手部动作图像,识别当前捏合区域,确定其对应的按键字符信息,向用户反馈输入结果。通过利用指节将手指分隔出不同的捏合区域,充分挖掘了手部的各种捏合动作,改善了对手部动作的利用效果。由于捏合动作中,相接触的两者为同一人体的部位,不需要控制手部向外界固定的按键位置移动,由于人体对自身部位的感知性更强,因此,一方面,强感知性使得操作准确率更高,另一方面,强感知性使用户即便在不注视手部的情况下,依然可以完成特定的捏合动作,不需要视线的来回切换,因而能够提高效率,提升用户体验。
在本说明书实施例中,所述根据所述当前捏合区域对应的按键字符信息向用户反馈输入结果,可以包括:
录入并显示所述当前捏合区域对应的按键字符信息,或者,根据所述当前捏合区域对应的按键字符信息进行拼写并显示拼写结果。
具体的显示方式,可以是在显示屏中显示,也可以在AR/VR眼镜的虚拟场景中显示。显示的界面,可以具有输入框或者拼写框。
对于虚拟场景中显示的情况,还可以在虚拟场景中显示光标或者虚拟手,以在输入框中调整输入位置,或者选择拼写框中不同位置的字符。
考虑到字母、数字、笔画分别属于不同的输入法,因此,在本说明书实施例中,为不同的捏合区域预设不同的按键字符信息,可以包括:
为同一捏合区域设置不同输入法下的按键字符信息;
这样,该方法还可以包括:
根据切换输入法的捏合动作切换对应关系。
这样,便可以通过手指的捏合实现输入法的切换。
具体实施时,用于切换输入法的捏合动作可以是同时出现左手捏合与右手捏合,比如,右手的拇指捏合食指同时左手的拇指捏合小指。当然,这只是一种示例性的方案,对申请的保护范围不构成限制。
在一种应用场景中,对于左手的拇指与小指捏合这种捏合方式,在数字的输入法中可以对应3,在字母输入法中对应“D”,那么,在用户需要输入“3D”时,只需要通过切换输入法的捏合动作调整输入法至数字输入法,执行动作:左手的拇指与小指捏合,便可输入“3”,继而再通过切换输入法的捏合动作调整输入法至字母输入法,再次执行动作:左手的拇指与小指捏合,便可以输入D,从而完成不同输入法下字符的输入。
当然,如果在虚拟场景中显示虚拟键盘,那么,也可以在虚拟键盘上显示各种输入法的按键,这样,用户便可以控制辅助控件移动至切换输入法的按键,进行捏合,识别到捏合动作便可以触发切换输入法。
因此,在本说明书实施例中,该方法还可以包括:
在虚拟场景中显示辅助控件;
识别保持捏合动作过程中产生的手部位移,根据所述手部位移在所述虚拟场景中控制移动所述辅助控件;
确定用户捏合时所述辅助控件位置处的按键字符信息或者输入法按键,并进行输入法的切换或者按键字符信息的输入。
其中,辅助控件可以是虚拟手或者光标等。
图2为本说明书实施例提供的一种基于手部动作虚拟输入字符的装置的结构示意图,该装置可以包括:
区域划分模块201,确定分隔同一手指的不同捏合区域的指节,并为不同的捏合区域预设不同的按键字符信息,形成区域与字符的对应关系;
图像识别模块202,采集手部动作图像,识别所述手部动作图像中的当前捏合区域;
反馈模块203,利用所述对应关系,确定所述当前捏合区域对应的按键字符信息;
根据所述当前捏合区域对应的按键字符信息向用户反馈输入结果。
在本说明书实施例中,该装置还可以包括,肌电判别模块,用于:
在手臂采集手部动作的肌电信号;
利用采集到的所述肌电信号判别是否产生手部捏合动作,得到判别结果;
所述采集手部动作图像,可以包括:
若判别结果为产生手部捏合动作,则采集手部动作图像。
在本说明书实施例中,图像识别模块202,还可以用于:
基于分隔捏合区域的指节构建并训练捏合区域识别模型;
所述识别所述手部动作图像中的当前捏合区域,可以包括:
利用所述捏合区域识别模型识别所述手部动作图像中的当前捏合区域。
在本说明书实施例中,所述基于分隔捏合区域的指节构建并训练捏合区域识别模型,可以包括:
获取多个图像样本;
基于分隔捏合区域的指节为所述图像样本设置标签,对于一个图像中捏合于单一捏合区域的图像样本,将其设置为白样本,将未出现捏合动作的图像样本设置为黑样本;
利用所述图像样本构建并训练捏合区域识别模型。
在本说明书实施例中,所述利用所述捏合区域识别模型识别所述手部动作图像中的当前捏合区域,可以包括:
识别所述手部动作图像中的指节,根据当前捏合位置与所述指节的位置关系确定当前捏合区域。
在本说明书实施例中,所述为不同的捏合区域预设不同的按键字符信息,形成区域与字符的对应关系,可以包括:
根据用户偏好的按键布局中各按键的位置关系以及手指各捏合区域的位置关系将按键与捏合区域相匹配;
根据匹配结果为不同的捏合区域预设不同的按键字符信息,形成区域与字符的对应关系。
在本说明书实施例中,所述利用采集到的所述肌电信号判别是否产生手部捏合动作,可以包括:
利用训练的捏合动作判别模型判别所述肌电信号是否出现手部捏合动作。
在本说明书实施例中,所述肌电判别模块,还可以用于:
获取肌电信号样本,根据采集各肌电信号样本时是否产生手部捏合动作设置标签;
利用具有标签的肌电信号样本构建并训练捏合动作判别模型。
在本说明书实施例中,所述根据所述当前捏合区域对应的按键字符信息向用户反馈输入结果,可以包括:
录入并显示所述当前捏合区域对应的按键字符信息,或者,根据所述当前捏合区域对应的按键字符信息进行拼写并显示拼写结果。
该装置通过为指节分隔出的不同捏合区域预设不同的按键字符信息,形成区域与字符的对应关系,采集手部动作图像,识别当前捏合区域,确定其对应的按键字符信息,向用户反馈输入结果。通过利用指节将手指分隔出不同的捏合区域,充分挖掘了手部的各种捏合动作,改善了对手部动作的利用效果。由于捏合动作中,相接触的两者为同一人体的部位,不需要控制手部向外界固定的按键位置移动,由于人体对自身部位的感知性更强,因此,一方面,强感知性使得操作准确率更高,另一方面,强感知性使用户即便在不注视手部的情况下,依然可以完成特定的捏合动作,不需要视线的来回切换,因而能够提高效率,提升用户体验。
基于同一发明构思,本说明书实施例还提供一种电子设备。
下面描述本发明的电子设备实施例,该电子设备可以视为对于上述本发明的方法和装置实施例的具体实体实施方式。对于本发明电子设备实施例中描述的细节,应视为对于上述方法或装置实施例的补充;对于在本发明电子设备实施例中未披露的细节,可以参照上述方法或装置实施例来实现。
图3为本说明书实施例提供的一种基于虚拟按键输入字符的方法的原理示意图,该图示出了一种按键字符信息具体类型。图3中具有“123”,“拼音”,“英文”,示出了切换输入法的按键,用户可以通过这些按键进行输入法的切换,图3当前的输入法是“英文”,如果切换为数字输入法,那么,“ABC”区域便可以对应“2”,“DEF”区域便可以对应“3”,依次类推。
图4为本说明书实施例提供的一种基于虚拟按键输入字符的方法的原理示意图,图4示出了根据手指指节划分区域的方式,每个手指可划分出3个捏合区域,单手的四个手指便可划分出12个捏合区域,拇指点击不同捏合区域时的动作不同,因而可以形成12种捏合方式。
结合图3和图4,对于图3所示的九宫格类型的键盘,可以分别将其中的按键字符与不同的捏合区域(或者捏合方式)对应。对于食指的远心端捏合区域,可以将其与标点符号(逗号,句号,问号,感叹号等)的输入法对应;对于食指的近心端捏合区域,可以将其与“D、E、F”对应。对于其他的对应关系,在此不做具体阐述和限制。
在图1和图2的实施例中,还可以在虚拟场景中显示虚拟键盘,比如,显示图3所示的虚拟键盘,用户通过手指捏合,可以在虚拟场景中看到拼写结果“天、太”,如果虚拟场景中具有辅助控件,那么用户可以通过保持捏合状态并移动手部,来选择最终要输入的字符“天”还是“太”。
基于同一发明构思,本说明书实施例还提供一种电子设备。
下面描述本发明的电子设备实施例,该电子设备可以视为对于上述本发明的方法和装置实施例的具体实体实施方式。对于本发明电子设备实施例中描述的细节,应视为对于上述方法或装置实施例的补充;对于在本发明电子设备实施例中未披露的细节,可以参照上述方法或装置实施例来实现。
图5为本说明书实施例提供的一种电子设备的结构示意图。下面参照图5来描述根据本发明该实施例的电子设备500。图5显示的电子设备500仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,电子设备500以通用计算设备的形式表现。电子设备500的组件可以包括但不限于:至少一个处理单元510、至少一个存储单元520、连接不同系统组件(包括存储单元520和处理单元510)的总线530、显示单元540等。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元510执行,使得所述处理单元510执行本说明书上述处理方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元510可以执行如图1所示的步骤。
所述存储单元520可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)5201和/或高速缓存存储单元5202,还可以进一步包括只读存储单元(ROM)5203。
所述存储单元520还可以包括具有一组(至少一个)程序模块5205的程序/实用工具5204,这样的程序模块5205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线530可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备500也可以与一个或多个外部设备600(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备500交互的设备通信,和/或与使得该电子设备500能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口550进行。并且,电子设备500还可以通过网络适配器560与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器560可以通过总线530与电子设备500的其它模块通信。应当明白,尽管图5中未示出,可以结合电子设备500使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,本发明描述的示例性实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个计算机可读的存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、或者网络设备等)执行根据本发明的上述方法。当所述计算机程序被一个数据处理设备执行时,使得该计算机可读介质能够实现本发明的上述方法,即:如图1所示的方法。
图6为本说明书实施例提供的一种计算机可读介质的原理示意图。
实现图1所示方法的计算机程序可以存储于一个或多个计算机可读介质上。计算机可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
综上所述,本发明可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)等通用数据处理设备来实现根据本发明实施例中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,本发明不与任何特定计算机、虚拟装置或者电子设备固有相关,各种通用装置也可以实现本发明。以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (10)

1.一种基于手部动作虚拟输入字符的方法,其特征在于,包括:
确定分隔同一手指的不同捏合区域的指节,并为不同的捏合区域预设不同的按键字符信息,形成区域与字符的对应关系;
基于分隔捏合区域的指节构建并训练捏合区域识别模型;
在手臂采集手部动作的肌电信号;
利用采集到的所述肌电信号判别是否产生手部捏合动作,得到判别结果;
采集手部动作图像,识别所述手部动作图像中的当前捏合区域;
利用所述对应关系,确定所述当前捏合区域对应的按键字符信息;
根据所述当前捏合区域对应的按键字符信息向用户反馈输入结果;
其中,所述采集手部动作图像,包括:
若判别结果为产生手部捏合动作,则采集手部动作图像;
所述识别所述手部动作图像中的当前捏合区域,包括:
利用所述捏合区域识别模型识别所述手部动作图像中的当前捏合区域。
2.根据权利要求1所述的方法,其特征在于,所述基于分隔捏合区域的指节构建并训练捏合区域识别模型,包括:
获取多个图像样本;
基于分隔捏合区域的指节为所述图像样本设置标签,对于一个图像中捏合于单一捏合区域的图像样本,将其设置为白样本,将未出现捏合动作的图像样本设置为黑样本;
利用所述图像样本构建并训练捏合区域识别模型。
3.根据权利要求1所述的方法,其特征在于,所述利用所述捏合区域识别模型识别所述手部动作图像中的当前捏合区域,包括:
识别所述手部动作图像中的指节,根据当前捏合位置与所述指节的位置关系确定当前捏合区域。
4.根据权利要求1-3中任一项所述的方法,其特征在于,所述为不同的捏合区域预设不同的按键字符信息,形成区域与字符的对应关系,包括:
根据用户偏好的按键布局中各按键的位置关系以及手指各捏合区域的位置关系将按键与捏合区域相匹配;
根据匹配结果为不同的捏合区域预设不同的按键字符信息,形成区域与字符的对应关系。
5.根据权利要求1所述的方法,其特征在于,所述利用采集到的所述肌电信号判别是否产生手部捏合动作,包括:
利用训练的捏合动作判别模型判别所述肌电信号是否出现手部捏合动作。
6.根据权利要求5所述的方法,其特征在于,还包括:
获取肌电信号样本,根据采集各肌电信号样本时是否产生手部捏合动作设置标签;
利用具有标签的肌电信号样本构建并训练捏合动作判别模型。
7.根据权利要求1所述的方法,其特征在于,所述根据所述当前捏合区域对应的按键字符信息向用户反馈输入结果,包括:
录入并显示所述当前捏合区域对应的按键字符信息,或者,根据所述当前捏合区域对应的按键字符信息进行拼写并显示拼写结果。
8.一种基于手部动作虚拟输入字符的装置,其特征在于,包括:
区域划分模块,确定分隔同一手指的不同捏合区域的指节,并为不同的捏合区域预设不同的按键字符信息,形成区域与字符的对应关系;
肌电判别模块,用于:在手臂采集手部动作的肌电信号;
利用采集到的所述肌电信号判别是否产生手部捏合动作,得到判别结果;
图像识别模块,采集手部动作图像,识别所述手部动作图像中的当前捏合区域;
反馈模块,利用所述对应关系,确定所述当前捏合区域对应的按键字符信息;
根据所述当前捏合区域对应的按键字符信息向用户反馈输入结果;
其中,所述采集手部动作图像,包括:
若判别结果为产生手部捏合动作,则采集手部动作图像;
所述图像识别模块,还用于,基于分隔捏合区域的指节构建并训练捏合区域识别模型;
所述识别所述手部动作图像中的当前捏合区域,包括:
利用所述捏合区域识别模型识别所述手部动作图像中的当前捏合区域。
9.一种电子设备,其中,该电子设备包括:
处理器;以及,
存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行根据权利要求1-7中任一项所述的方法。
10.一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被处理器执行时,实现权利要求1-7中任一项所述的方法。
CN202010527336.9A 2020-06-11 2020-06-11 一种基于手部动作虚拟输入字符的方法、装置和电子设备 Active CN111427458B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010527336.9A CN111427458B (zh) 2020-06-11 2020-06-11 一种基于手部动作虚拟输入字符的方法、装置和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010527336.9A CN111427458B (zh) 2020-06-11 2020-06-11 一种基于手部动作虚拟输入字符的方法、装置和电子设备

Publications (2)

Publication Number Publication Date
CN111427458A CN111427458A (zh) 2020-07-17
CN111427458B true CN111427458B (zh) 2020-12-22

Family

ID=71551462

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010527336.9A Active CN111427458B (zh) 2020-06-11 2020-06-11 一种基于手部动作虚拟输入字符的方法、装置和电子设备

Country Status (1)

Country Link
CN (1) CN111427458B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183447A (zh) * 2020-10-15 2021-01-05 尚腾 基于图像识别的信息输入系统
CN113190109A (zh) * 2021-03-30 2021-07-30 青岛小鸟看看科技有限公司 头戴式显示设备的输入控制方法、装置及头戴式显示设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6036817B2 (ja) * 2012-05-09 2016-11-30 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN105446461B (zh) * 2014-06-24 2019-03-26 北京创思博德科技有限公司 手势识别方法及使用该方法的手掌虚拟键盘及其输入方法
CN105955464A (zh) * 2016-04-26 2016-09-21 苏州冰格智能科技有限公司 一种基于虚拟现实的输入装置
CN109739349A (zh) * 2018-12-10 2019-05-10 河源市汉祖文化科技有限公司 一种手掌虚拟键盘输入方法、系统及输入传感识别器

Also Published As

Publication number Publication date
CN111427458A (zh) 2020-07-17

Similar Documents

Publication Publication Date Title
KR100209867B1 (ko) 데이타 처리 시스템
CN111427457A (zh) 一种基于虚拟按键输入字符的方法、装置和电子设备
US8098239B1 (en) Systems and methods for positional number entry
CN100550036C (zh) 汉字字符手写体识别系统
KR101323281B1 (ko) 입력 장치 및 문자 입력 방법
CN111427458B (zh) 一种基于手部动作虚拟输入字符的方法、装置和电子设备
CN106605200A (zh) 一种优化人体工程学的向用户呈现按键的拇指键入方法
CN102262504A (zh) 带虚拟键盘的用户交互手势
JP2009527041A (ja) コンピューティングシステムにデータを入力するシステム及び方法
CN104679279A (zh) 触控面板上使用手势进行切换多计算机切换端口的方法及装置
CN110568929B (zh) 一种基于虚拟键盘的虚拟场景交互方法、装置和电子设备
US20120249417A1 (en) Input apparatus
CN104866097A (zh) 手持信号输出装置和手持装置输出信号的方法
CN104281318A (zh) 减少软键盘按压的显示延迟的方法和装置
CN104423626A (zh) 信息处理装置以及控制方法
CN112805664A (zh) 输入装置、输入方法、程序和输入系统
CN104503591A (zh) 一种基于折线手势的信息输入方法
Song et al. Efficient special character entry on a virtual keyboard by hand gesture-based mode switching
JPWO2014045414A1 (ja) 文字入力装置、文字入力方法、文字入力制御プログラム
EP0895153B1 (en) Data input device and method
CN204740560U (zh) 手持信号输出装置
CN112118491A (zh) 弹幕生成方法、装置及计算机可读存储介质
CN113126780A (zh) 输入方法、装置、电子设备及可读存储介质
JPH11249806A (ja) ユーザ入力装置
JP2004272377A (ja) 文字編集装置、文字入力・表示装置、文字編集方法、文字編集プログラム及び記憶媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant