CN108519855A - 字符输入方法及装置 - Google Patents

字符输入方法及装置 Download PDF

Info

Publication number
CN108519855A
CN108519855A CN201810341025.6A CN201810341025A CN108519855A CN 108519855 A CN108519855 A CN 108519855A CN 201810341025 A CN201810341025 A CN 201810341025A CN 108519855 A CN108519855 A CN 108519855A
Authority
CN
China
Prior art keywords
finger
character
target
input
stroke
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810341025.6A
Other languages
English (en)
Inventor
付文君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Priority to CN201810341025.6A priority Critical patent/CN108519855A/zh
Publication of CN108519855A publication Critical patent/CN108519855A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Abstract

本公开是关于字符输入方法及装置。该方法包括:调用增强现实技术AR设备的摄像头采集用户的手指敲打动作的图像信息;根据用户的手指敲打动作的图像信息,识别手指敲打动作及与手指敲打动作对应的目标手指;根据预先获取的手指及手指敲打动作与字符的输入指令的对应关系,确定与目标手指及手指敲打动作对应的目标字符的输入指令;根据目标字符的输入指令,在AR设备的显示屏幕的字符输入区域显示目标字符。本公开通过在AR场景中识别不同手指的不同敲打动作以触发不同字符的输入指令,在不依赖于键盘的情况下完成字符输入,双手可以放置在AR场景中的任何地方,方便用户操作,提高输入效率,提高用户体验。

Description

字符输入方法及装置
技术领域
本公开涉及终端技术领域,尤其涉及字符输入方法及装置。
背景技术
增强现实(AR,Augmented Reality)技术是指实时地计算摄影机影像的位置及角度并加上相应图像的技术,这种技术的目标是在屏幕上把虚拟世界无缝集成在现实世界并进行互动。随着随身电子产品运算能力的提升,AR技术的用途越来越广。
实际中,用户在控制AR设备完成特定AR体验的过程中,有时候会存在字符输入的需求。相关技术中通常采用基于键盘的输入方式。
发明内容
为克服相关技术中存在的问题,本公开实施例提供一种字符输入方法及装置。所述技术方案如下:
根据本公开实施例的第一方面,提供一种字符输入方法,包括:
调用增强现实技术AR设备的摄像头采集用户的手指敲打动作的图像信息;
根据所述用户的手指敲打动作的图像信息,识别手指敲打动作及与所述手指敲打动作对应的目标手指;
根据预先获取的手指及手指敲打动作与字符的输入指令的对应关系,确定与所述目标手指及所述手指敲打动作对应的目标字符的输入指令;
根据所述目标字符的输入指令,在所述AR设备的显示屏幕的字符输入区域显示所述目标字符。
在一个实施例中,所述方法还包括:
在所述AR设备的显示屏幕上显示虚拟键盘;
当确定与所述目标手指及所述手指敲打动作对应的目标字符的输入指令时,将所述虚拟键盘上与所述目标字符对应的按键高亮显示。
在一个实施例中,所述方法还包括:
在所述AR设备的显示屏幕上显示虚拟键盘;
当确定与所述目标手指及所述手指敲打动作对应的目标字符的输入指令时,在所述虚拟键盘上与所述目标字符对应的按键区域显示与所述目标手指对应的虚拟手指。
在一个实施例中,所述方法还包括:
根据所述用户的手指敲打动作的图像信息,检测所述用户的手部姿势;
当所述用户的手部姿势与预设手部姿势匹配时,执行所述识别手指敲打动作及与所述手指敲打动作对应的目标手指的步骤。
在一个实施例中,所述预先获取的手指敲打动作至少包括以下任一个动作:手指向上敲打动作、手指向下敲打动作、手指原地敲打动作。
根据本公开实施例的第二方面,提供一种字符输入装置,包括:
采集模块,用于调用增强现实技术AR设备的摄像头采集用户的手指敲打动作的图像信息;
识别模块,用于根据所述用户的手指敲打动作的图像信息,识别手指敲打动作及与所述手指敲打动作对应的目标手指;
确定模块,用于根据预先获取的手指及手指敲打动作与字符的输入指令的对应关系,确定与所述目标手指及所述手指敲打动作对应的目标字符的输入指令;
第一显示模块,用于根据所述目标字符的输入指令,在所述AR设备的显示屏幕的字符输入区域显示所述目标字符。
在一个实施例中,所述装置还包括:
第二显示模块,用于在所述AR设备的显示屏幕上显示虚拟键盘;
按键高亮显示模块,用于当确定与所述目标手指及所述手指敲打动作对应的目标字符的输入指令时,将所述虚拟键盘上与所述目标字符对应的按键高亮显示。
在一个实施例中,所述装置还包括:
第三显示模块,用于在所述AR设备的显示屏幕上显示虚拟键盘;
虚拟手指显示模块,用于当确定与所述目标手指及所述手指敲打动作对应的目标字符的输入指令时,在所述虚拟键盘上与所述目标字符对应的按键区域显示与所述目标手指对应的虚拟手指。
在一个实施例中,所述装置还包括:
检测模块,用于根据所述用户的手指敲打动作的图像信息,检测所述用户的手部姿势;
执行模块,用于当所述用户的手部姿势与预设手部姿势匹配时,执行所述识别手指敲打动作及与所述手指敲打动作对应的目标手指的步骤。
根据本公开实施例的第三方面,提供一种字符输入装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为实现上述第一方面任一实施例所述的方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现上述第一方面任一实施例所述方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:该技术方案通过在AR场景中识别不同手指的不同敲打动作以触发不同字符的输入指令,在不依赖于键盘的情况下完成字符输入,双手可以放置在AR场景中的任何地方,方便用户操作,提高输入效率,提高用户体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的字符输入方法的流程图。
图2是根据一示例性实施例示出的字符输入方法的流程图。
图3是根据一示例性实施例示出的字符输入方法的流程图。
图4是根据一示例性实施例示出的字符输入方法的流程图。
图5是根据一示例性实施例示出的字符输入装置的框图。
图6是根据一示例性实施例示出的字符输入装置的框图。
图7是根据一示例性实施例示出的字符输入装置的框图。
图8是根据一示例性实施例示出的字符输入装置的框图。
图9是根据一示例性实施例示出的字符输入装置的框图。
图10是根据一示例性实施例示出的字符输入装置的框图。
图11是根据一示例性实施例示出的字符输入装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
实际中,用户在控制AR设备完成特定AR体验的过程中,有时候会存在字符输入的需求。相关技术中,用户在控制AR设备完成特定AR体验的过程中,通常采用基于键盘的输入方式输入字符,用户输入字符的过程完全依赖键盘,双手也需要放在键盘上,给用户带来操作不便,影响用户体验。
为了解决上述问题,本公开实施例提供了一种字符输入方法,方法包括:识别用户的手指的敲打动作;当查找到与敲打动作匹配的预设动作时,确定与手指及预设动作对应的目标字符的输入指令;根据目标字符的输入指令,在增强现实设备的显示屏幕的字符输入区域显示目标字符。本公开实施例提供的字符输入方法,能够通过在AR场景中识别手指的敲打动作进行字符输入,实现在不依赖于键盘的情况下完成AR场景下的字符输入,双手可以放置在AR场景中的任何地方,方便用户操作,提高输入效率,提高用户体验。
基于上述分析,提出以下各具体实施例。
图1是根据一示例性实施例示出的一种字符输入方法的流程图;如图1所示,该方法包括以下步骤101-104:
在步骤101中,调用AR设备的摄像头采集用户的手指敲打动作的图像信息。
示例的,该方法的执行主体可以为AR设备。通过调用AR设备的摄像头采集用户的手指敲打动作的图像信息。
在步骤102中,根据用户的手指敲打动作的图像信息,识别手指敲打动作及与手指敲打动作对应的目标手指。
示例的,通过调用AR设备的摄像头采集到用户的手指敲打动作的图像信息之后,对采集到用户的手指敲打动作的图像信息进行图像识别,以识别手指敲打动作,以及识别手指敲打动作对应的用户的目标手指。
在步骤103中,根据预先获取的手指及手指敲打动作与字符的输入指令的对应关系,确定与目标手指及手指敲打动作对应的目标字符的输入指令。
示例的,预先获取的手指敲打动作至少包括以下任意一个动作:手指向上敲打动作、手指向下敲打动作、手指原地敲打动作。
示例的,可以预先获取或设定手指及手指敲打动作与字符的输入指令的对应关系,即用户双手的每个手指及每个手指敲打动作分别对应一个字符的输入指令。例如,右手食指的手指原地敲打动作对应的是字母“j”的输入指令,右手食指的手指向上敲打动作对应的是字母“u”的输入指令,右手食指的手指向下敲打动作对应的是字母“n”的输入指令等。这就相当于本公开提供了一种AR键盘,双手的每个手指及每个手指敲打动作都对应AR键盘的一个字母键;例如,右手食指原地敲打动作对应的敲打AR键盘的字母键“j”,右手食指向上敲打动作对应的敲打AR键盘的字母键“u”,右手食指向下敲打动作对应的敲打AR键盘的字母键“n”等。
示例的,当AR设备识别到手指敲打动作及与手指敲打动作对应的目标手指时,判断是否有与目标手指及手指敲打动作对应的目标字符的输入指令:当确定有与目标手指及手指敲打动作对应的目标字符的输入指令时,根据目标字符的输入指令,在AR设备的显示屏幕的字符输入区域显示目标字符;当确定没有与目标手指及手指敲打动作对应的目标字符的输入指令时,流程结束。
在步骤104中,根据目标字符的输入指令,在AR设备的显示屏幕的字符输入区域显示目标字符。
本公开的实施例提供的技术方案,通过在AR场景中识别不同手指的不同敲打动作以触发不同字符的输入指令,在不依赖于键盘的情况下完成字符输入,双手可以放置在AR场景中的任何地方,方便用户操作,提高输入效率,提高用户体验。
图2是根据一示例性实施例示出的一种字符输入方法的流程图。如图2所示,在图1所示实施例的基础上,本公开涉及的字符输入方法可以包括以下步骤201-206:
在步骤201中,调用AR设备的摄像头采集用户的手指敲打动作的图像信息。
在步骤202中,根据用户的手指敲打动作的图像信息,检测用户的手部姿势。
在步骤203中,判断用户的手部姿势与预设手部姿势是否匹配;当用户的手部姿势与预设手部姿势匹配时,转到步骤204;用户的手部姿势与预设手部姿势不匹配时,流程结束。
示例的,预设手部姿势例如可以是用户使用键盘打字时手的姿势。用户的手部姿势可以是单手的手部姿势,也可以是双手的手部姿势。在本公开中用户的单手或双手可以放置在能被摄像头检测到的任何位置,不受环境的约束,例如,双手可放在大腿上、桌面上等任何地方;双手可以分开较大的距离放置。
在步骤204中,根据用户的手指敲打动作的图像信息,识别手指敲打动作及与手指敲打动作对应的目标手指。
在步骤205中,根据预先获取的手指及手指敲打动作与字符的输入指令的对应关系,判断是否有与目标手指及手指敲打动作对应的目标字符的输入指令;当确定有与目标手指及手指敲打动作对应的目标字符的输入指令时,转到步骤206;当确定没有与目标手指及手指敲打动作对应的目标字符的输入指令时,流程结束。
在步骤206中,根据目标字符的输入指令,在AR设备的显示屏幕的字符输入区域显示目标字符。
本公开的实施例提供的技术方案,以预设手部姿势作为识别手指敲打动作的触发条件,避免无效的识别过程。
图3是根据一示例性实施例示出的一种字符输入方法的流程图。如图3所示,在图1所示实施例的基础上,本公开涉及的字符输入方法可以包括以下步骤301-306:
在步骤301中,在AR设备的显示屏幕上显示虚拟键盘。
在步骤302中,调用AR设备的摄像头采集用户的手指敲打动作的图像信息。
在步骤303中,根据用户的手指敲打动作的图像信息,识别手指敲打动作及与手指敲打动作对应的目标手指。
在步骤304中,根据预先获取的手指及手指敲打动作与字符的输入指令的对应关系,确定与目标手指及手指敲打动作对应的目标字符的输入指令。
在步骤305中,当确定与目标手指及手指敲打动作对应的目标字符的输入指令时,将虚拟键盘上与目标字符对应的按键高亮显示。
在步骤306中,根据目标字符的输入指令,在AR设备的显示屏幕的字符输入区域显示目标字符。
本公开的实施例提供的技术方案,通过在AR设备的显示屏幕上显示虚拟键盘;当确定与目标手指及手指敲打动作对应的目标字符的输入指令时,将虚拟键盘上与目标字符对应的按键高亮显示,使得用户能够直观的看到输入过程,并提示用户本次实际输入的目标字符,方便用户确实进行多个字符连续输入操作。
图4是根据一示例性实施例示出的一种字符输入方法的流程图。如图4所示,在图1所示实施例的基础上,本公开涉及的字符输入方法可以包括以下步骤401-406:
在步骤401中,在AR设备的显示屏幕上显示虚拟键盘。
在步骤402中,调用AR设备的摄像头采集用户的手指敲打动作的图像信息。
在步骤403中,根据用户的手指敲打动作的图像信息,识别手指敲打动作及与手指敲打动作对应的目标手指。
在步骤404中,根据预先获取的手指及手指敲打动作与字符的输入指令的对应关系,确定与目标手指及手指敲打动作对应的目标字符的输入指令。
在步骤405中,当确定与目标手指及手指敲打动作对应的目标字符的输入指令时,在虚拟键盘上与目标字符对应的按键区域显示与目标手指对应的虚拟手指。
在步骤406中,根据目标字符的输入指令,在AR设备的显示屏幕的字符输入区域显示目标字符。
本公开的实施例提供的技术方案,通过在AR设备的显示屏幕上显示虚拟键盘;当确定与目标手指及手指敲打动作对应的目标字符的输入指令时,在虚拟键盘上与目标字符对应的按键区域显示与目标手指对应的虚拟手指,使得用户能够直观的看到输入过程,并提示用户本次实际输入的目标字符,方便用户确实进行多个字符连续输入操作。
下述为本公开装置实施例,可以用于执行本公开方法实施例。
图5是根据一示例性实施例示出的一种字符输入装置的框图;该装置可以采用各种方式来实施,例如在AR设备中实施装置的全部组件,或者,在AR设备侧以耦合的方式实施装置中的组件;该装置可以通过软件、硬件或者两者的结合实现上述本公开涉及的方法;如图5所示,该字符输入装置包括:采集模块501、识别模块502、确定模块503及第一显示模块504,其中:
采集模块501被配置为调用增强现实技术AR设备的摄像头采集用户的手指敲打动作的图像信息;
识别模块502被配置为根据用户的手指敲打动作的图像信息,识别手指敲打动作及与手指敲打动作对应的目标手指;
确定模块503被配置为根据预先获取的手指及手指敲打动作与字符的输入指令的对应关系,确定与目标手指及手指敲打动作对应的目标字符的输入指令;
第一显示模块504被配置为根据目标字符的输入指令,在AR设备的显示屏幕的字符输入区域显示目标字符。
本公开实施例提供的装置能够用于执行图1所示实施例的技术方案,其执行方式和有益效果类似,此处不再赘述。
在一种可能的实施方式中,如图6所示,图5示出的字符输入装置还可以包括:第二显示模块601及按键高亮显示模块602,其中:
第二显示模块601被配置为在AR设备的显示屏幕上显示虚拟键盘;
按键高亮显示模块602被配置为当确定与目标手指及手指敲打动作对应的目标字符的输入指令时,将虚拟键盘上与目标字符对应的按键高亮显示。
在一种可能的实施方式中,如图7所示,图5示出的字符输入装置还可以包括:第三显示模块701及虚拟手指显示模块702,其中:
第三显示模块701被配置为在AR设备的显示屏幕上显示虚拟键盘;
虚拟手指显示模块702被配置为当确定与目标手指及手指敲打动作对应的目标字符的输入指令时,在虚拟键盘上与目标字符对应的按键区域显示与目标手指对应的虚拟手指。
在一种可能的实施方式中,如图8所示,图5示出的字符输入装置还可以包括:检测模块801及执行模块802,其中:
检测模块801被配置为根据用户的手指敲打动作的图像信息,检测用户的手部姿势;
执行模块802被配置为当用户的手部姿势与预设手部姿势匹配时,执行识别手指敲打动作及与手指敲打动作对应的目标手指的步骤。
图9是根据一示例性实施例示出的一种字符输入装置900的框图,字符输入装置900可以采用各种方式来实施,例如在AR设备中实施装置的全部组件,或者在AR设备侧以耦合的方式实施装置中的组件;字符输入装置900包括:
处理器901;
用于存储处理器可执行指令的存储器902;
其中,处理器901被配置为:
调用AR设备的摄像头采集用户的手指敲打动作的图像信息;
根据用户的手指敲打动作的图像信息,识别手指敲打动作及与手指敲打动作对应的目标手指;
根据预先获取的手指及手指敲打动作与字符的输入指令的对应关系,确定与目标手指及手指敲打动作对应的目标字符的输入指令;
根据目标字符的输入指令,在AR设备的显示屏幕的字符输入区域显示目标字符。
在一个实施例中,上述处理器901还可被配置为:
在AR设备的显示屏幕上显示虚拟键盘;
当确定与目标手指及手指敲打动作对应的目标字符的输入指令时,将虚拟键盘上与目标字符对应的按键高亮显示。
在一个实施例中,上述处理器901还可被配置为:
在AR设备的显示屏幕上显示虚拟键盘;
当确定与目标手指及手指敲打动作对应的目标字符的输入指令时,在虚拟键盘上与目标字符对应的按键区域显示与目标手指对应的虚拟手指。
在一个实施例中,上述处理器901还可被配置为:
根据用户的手指敲打动作的图像信息,检测用户的手部姿势;
当用户的手部姿势与预设手部姿势匹配时,执行识别手指敲打动作及与手指敲打动作对应的目标手指的步骤。
在一个实施例中,预先获取的手指敲打动作至少包括以下任一个动作:手指向上敲打动作、手指向下敲打动作、手指原地敲打动作。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图10是根据一示例性实施例示出的一种字符输入装置的框图;字符输入装置1000适用于AR设备;字符输入装置1000可以包括以下一个或多个组件:处理组件1002,存储器1004,电源组件1006,多媒体组件1008,音频组件1010,输入/输出(I/O)的接口1012,传感器组件1014,以及通信组件1016。
处理组件1002通常控制字符输入装置1000的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件1002可以包括一个或多个处理器1020来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件1002可以包括一个或多个模块,便于处理组件1002和其他组件之间的交互。例如,处理组件1002可以包括多媒体模块,以方便多媒体组件1008和处理组件1002之间的交互。
存储器1004被配置为存储各种类型的数据以支持在字符输入装置1000的操作。这些数据的示例包括用于在字符输入装置1000上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器1004可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件1006为字符输入装置1000的各种组件提供电力。电源组件1006可以包括电源管理系统,一个或多个电源,及其他与为字符输入装置1000生成、管理和分配电力相关联的组件。
多媒体组件1008包括在字符输入装置1000和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件1008包括一个前置摄像头和/或后置摄像头。当字符输入装置1000处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件1010被配置为输出和/或输入音频信号。例如,音频组件1010包括一个麦克风(MIC),当字符输入装置1000处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1004或经由通信组件1016发送。在一些实施例中,音频组件1010还包括一个扬声器,用于输出音频信号。
I/O接口1012为处理组件1002和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件1014包括一个或多个传感器,用于为字符输入装置1000提供各个方面的状态评估。例如,传感器组件1014可以检测到字符输入装置1000的打开/关闭状态,组件的相对定位,例如组件为字符输入装置1000的显示器和小键盘,传感器组件1014还可以检测字符输入装置1000或字符输入装置1000一个组件的位置改变,用户与字符输入装置1000接触的存在或不存在,字符输入装置1000方位或加速/减速和字符输入装置1000的温度变化。传感器组件1014可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件1014还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件1014还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件1016被配置为便于字符输入装置1000和其他设备之间有线或无线方式的通信。字符输入装置1000可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件1016经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,通信组件1016还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,字符输入装置1000可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子组件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器1004,上述指令可由字符输入装置1000的处理器1020执行以完成上述方法。例如,非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
图11是根据一示例性实施例示出的一种字符输入装置的框图。例如,字符输入装置1100可以被提供为一服务器。字符输入装置1100包括处理组件1102,其进一步包括一个或多个处理器,以及由存储器1103所代表的存储器资源,用于存储可由处理组件1102的执行的指令,例如应用程序。存储器1103中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1102被配置为执行指令,以执行上述方法。
字符输入装置1100还可以包括一个电源组件1106被配置为执行字符输入装置1100的电源管理,一个有线或无线网络接口1105被配置为将字符输入装置1100连接到网络,和一个输入输出(I/O)接口1108。字符输入装置1100可以操作基于存储在存储器1103的操作系统,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
一种非临时性计算机可读存储介质,当存储介质中的指令由字符输入装置1000或字符输入装置1100的处理器执行时,使得字符输入装置1000或字符输入装置1100能够执行如下字符输入方法,方法包括:
调用AR设备的摄像头采集用户的手指敲打动作的图像信息;
根据用户的手指敲打动作的图像信息,识别手指敲打动作及与手指敲打动作对应的目标手指;
根据预先获取的手指及手指敲打动作与字符的输入指令的对应关系,确定与目标手指及手指敲打动作对应的目标字符的输入指令;
根据目标字符的输入指令,在AR设备的显示屏幕的字符输入区域显示目标字符。
在一个实施例中,方法还包括:
在AR设备的显示屏幕上显示虚拟键盘;
当确定与目标手指及手指敲打动作对应的目标字符的输入指令时,将虚拟键盘上与目标字符对应的按键高亮显示。
在一个实施例中,方法还包括:
在AR设备的显示屏幕上显示虚拟键盘;
当确定与目标手指及手指敲打动作对应的目标字符的输入指令时,在虚拟键盘上与目标字符对应的按键区域显示与目标手指对应的虚拟手指。
在一个实施例中,方法还包括:
根据用户的手指敲打动作的图像信息,检测用户的手部姿势;
当用户的手部姿势与预设手部姿势匹配时,执行识别手指敲打动作及与手指敲打动作对应的目标手指的步骤。
在一个实施例中,预先获取的手指敲打动作至少包括以下任一个动作:手指向上敲打动作、手指向下敲打动作、手指原地敲打动作。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (11)

1.一种字符输入方法,其特征在于,包括:
调用增强现实技术AR设备的摄像头采集用户的手指敲打动作的图像信息;
根据所述用户的手指敲打动作的图像信息,识别手指敲打动作及与所述手指敲打动作对应的目标手指;
根据预先获取的手指及手指敲打动作与字符的输入指令的对应关系,确定与所述目标手指及所述手指敲打动作对应的目标字符的输入指令;
根据所述目标字符的输入指令,在所述AR设备的显示屏幕的字符输入区域显示所述目标字符。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述AR设备的显示屏幕上显示虚拟键盘;
当确定与所述目标手指及所述手指敲打动作对应的目标字符的输入指令时,将所述虚拟键盘上与所述目标字符对应的按键高亮显示。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述AR设备的显示屏幕上显示虚拟键盘;
当确定与所述目标手指及所述手指敲打动作对应的目标字符的输入指令时,在所述虚拟键盘上与所述目标字符对应的按键区域显示与所述目标手指对应的虚拟手指。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述用户的手指敲打动作的图像信息,检测所述用户的手部姿势;
当所述用户的手部姿势与预设手部姿势匹配时,执行所述识别手指敲打动作及与所述手指敲打动作对应的目标手指的步骤。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述预先获取的手指敲打动作至少包括以下任一个动作:手指向上敲打动作、手指向下敲打动作、手指原地敲打动作。
6.一种字符输入装置,其特征在于,包括:
采集模块,用于调用增强现实技术AR设备的摄像头采集用户的手指敲打动作的图像信息;
识别模块,用于根据所述用户的手指敲打动作的图像信息,识别手指敲打动作及与所述手指敲打动作对应的目标手指;
确定模块,用于根据预先获取的手指及手指敲打动作与字符的输入指令的对应关系,确定与所述目标手指及所述手指敲打动作对应的目标字符的输入指令;
第一显示模块,用于根据所述目标字符的输入指令,在所述AR设备的显示屏幕的字符输入区域显示所述目标字符。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括:
第二显示模块,用于在所述AR设备的显示屏幕上显示虚拟键盘;
按键高亮显示模块,用于当确定与所述目标手指及所述手指敲打动作对应的目标字符的输入指令时,将所述虚拟键盘上与所述目标字符对应的按键高亮显示。
8.根据权利要求6所述的装置,其特征在于,所述装置还包括:
第三显示模块,用于在所述AR设备的显示屏幕上显示虚拟键盘;
虚拟手指显示模块,用于当确定与所述目标手指及所述手指敲打动作对应的目标字符的输入指令时,在所述虚拟键盘上与所述目标字符对应的按键区域显示与所述目标手指对应的虚拟手指。
9.根据权利要求6所述的装置,其特征在于,所述装置还包括:
检测模块,用于根据所述用户的手指敲打动作的图像信息,检测所述用户的手部姿势;
执行模块,用于当所述用户的手部姿势与预设手部姿势匹配时,执行所述识别手指敲打动作及与所述手指敲打动作对应的目标手指的步骤。
10.一种字符输入装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为实现权利要求1至5中任一项所述的方法。
11.一种计算机可读存储介质,其上存储有计算机指令,其特征在于,该指令被处理器执行时实现权利要求1至5中任一项所述方法的步骤。
CN201810341025.6A 2018-04-17 2018-04-17 字符输入方法及装置 Pending CN108519855A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810341025.6A CN108519855A (zh) 2018-04-17 2018-04-17 字符输入方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810341025.6A CN108519855A (zh) 2018-04-17 2018-04-17 字符输入方法及装置

Publications (1)

Publication Number Publication Date
CN108519855A true CN108519855A (zh) 2018-09-11

Family

ID=63428712

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810341025.6A Pending CN108519855A (zh) 2018-04-17 2018-04-17 字符输入方法及装置

Country Status (1)

Country Link
CN (1) CN108519855A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109597492A (zh) * 2018-12-05 2019-04-09 谷东科技有限公司 激光虚拟键盘与ar眼镜交互系统
CN111142675A (zh) * 2019-12-31 2020-05-12 维沃移动通信有限公司 输入方法及头戴式电子设备
CN111158476A (zh) * 2019-12-25 2020-05-15 中国人民解放军军事科学院国防科技创新研究院 一种虚拟键盘的按键识别方法、系统、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1664755A (zh) * 2005-03-11 2005-09-07 西北工业大学 一种视频识别输入系统
WO2012177237A1 (en) * 2011-06-21 2012-12-27 Empire Technology Development Llc Gesture based user interface for augmented reality
CN103105930A (zh) * 2013-01-16 2013-05-15 中国科学院自动化研究所 一种基于视频图像的非接触式智能输入方法及装置
CN103197767A (zh) * 2013-04-10 2013-07-10 周可 利用手势虚拟键盘输入的方法及装置
CN104866075A (zh) * 2014-02-21 2015-08-26 联想(北京)有限公司 一种输入方法、装置及电子设备
CN106845335A (zh) * 2016-11-29 2017-06-13 歌尔科技有限公司 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1664755A (zh) * 2005-03-11 2005-09-07 西北工业大学 一种视频识别输入系统
WO2012177237A1 (en) * 2011-06-21 2012-12-27 Empire Technology Development Llc Gesture based user interface for augmented reality
CN103105930A (zh) * 2013-01-16 2013-05-15 中国科学院自动化研究所 一种基于视频图像的非接触式智能输入方法及装置
CN103197767A (zh) * 2013-04-10 2013-07-10 周可 利用手势虚拟键盘输入的方法及装置
CN104866075A (zh) * 2014-02-21 2015-08-26 联想(北京)有限公司 一种输入方法、装置及电子设备
CN106845335A (zh) * 2016-11-29 2017-06-13 歌尔科技有限公司 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109597492A (zh) * 2018-12-05 2019-04-09 谷东科技有限公司 激光虚拟键盘与ar眼镜交互系统
CN109597492B (zh) * 2018-12-05 2022-03-04 谷东科技有限公司 激光虚拟键盘与ar眼镜交互系统
CN111158476A (zh) * 2019-12-25 2020-05-15 中国人民解放军军事科学院国防科技创新研究院 一种虚拟键盘的按键识别方法、系统、设备及存储介质
CN111142675A (zh) * 2019-12-31 2020-05-12 维沃移动通信有限公司 输入方法及头戴式电子设备

Similar Documents

Publication Publication Date Title
CN104598111B (zh) 切换显示模式的方法及装置
CN105488464B (zh) 指纹识别方法及装置
EP3179358A1 (en) Method and apparatus for inputting contents based on virtual keyboard, and touch device
KR101819985B1 (ko) 애플리케이션 제어 방법, 장치, 프로그램 및 컴퓨터가 판독 가능한 기록매체
US20100214267A1 (en) Mobile device with virtual keypad
CN109032447B (zh) 一种图标处理方法及移动终端
CN107870674B (zh) 一种程序启动方法和移动终端
CN108519855A (zh) 字符输入方法及装置
CN112306366A (zh) 操作方法、移动终端及存储介质
KR20110053396A (ko) 제스처를 이용한 사용자 인터페이스 제공 단말기 및 방법
CN111369994A (zh) 语音处理方法及电子设备
CN108766427B (zh) 语音控制方法及装置
CN111158548A (zh) 屏幕折叠方法及电子设备
CN108737731B (zh) 一种对焦方法及终端设备
CN104461366A (zh) 激活移动终端的操作状态的方法及装置
CN111400552B (zh) 便签创建方法及电子设备
CN108108213A (zh) 指令集执行方法及装置
CN110780751B (zh) 一种信息处理方法及电子设备
CN110166621B (zh) 一种文字处理方法及终端设备
CN109491741B (zh) 一种切换背景皮肤的方法及终端
CN107179835A (zh) 一种输入方法和装置、一种用于输入的装置
CN107948876A (zh) 控制音箱设备的方法、装置及介质
CN109120793A (zh) 语音处理方法及装置
CN108089723A (zh) 文字输入方法及装置
CN111026562B (zh) 一种消息发送方法及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180911

RJ01 Rejection of invention patent application after publication