CN107003735A - 用于接收字符输入的设备及其方法 - Google Patents

用于接收字符输入的设备及其方法 Download PDF

Info

Publication number
CN107003735A
CN107003735A CN201580065659.8A CN201580065659A CN107003735A CN 107003735 A CN107003735 A CN 107003735A CN 201580065659 A CN201580065659 A CN 201580065659A CN 107003735 A CN107003735 A CN 107003735A
Authority
CN
China
Prior art keywords
input
touch
electronic equipment
character
character set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201580065659.8A
Other languages
English (en)
Inventor
郑暻湖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN107003735A publication Critical patent/CN107003735A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/04Input or output devices integrated in time-pieces using radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/08Touch switches specially adapted for time-pieces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

提供了一种由电子设备接收来自用户的字符输入的电子设备和方法。电子设备包括触摸面板,被配置为接收由指点对象生成的触摸输入和在用指点对象触摸触摸面板的同时移动指点对象的轻扫输入;处理器,被配置为基于触摸输入的属性来选择多个字符集中的一个,并且基于轻扫输入的属性来选择包括在所选择的字符集中的多个字符中的一个,以及显示器,被配置为显示所选择的字符。

Description

用于接收字符输入的设备及其方法
技术领域
本公开涉及一种电子设备和由电子设备接收来自用户的字符输入的方法。更具体地,本公开涉及一种基于通过触摸面板接收的用户的轻扫输入和来实现字符输入的方法和用于执行其的电子设备。
背景技术
已经开发了各种电子设备,诸如智能电话、智能手表、智能眼镜、平板个人计算机(PC)等。每个电子设备可以包括用于接收用户输入以执行诸如计算、数据处理、语言信息处理等的一个或多个操作的输入设备。例如,为了从用户接收字符输入,电子设备可以包括具有分别对应于字符并且以规则间隔排列的多个键的物理键盘。
由于已经进行了电子设备的小型化和便携化的尝试,物理键盘一直是降低电子设备的尺寸的主要障碍。因此,通过在触摸屏上提供虚拟键盘而不是提供物理键盘,已经开发了通过触摸屏上显示的虚拟键盘的键接收字符输入的方法。
发明内容
技术问题
然而,不可能减小用户的手尺寸,因此显示在触摸屏上的虚拟键盘需要具有某一尺寸的键。因此,虚拟键盘的需要也可能是减小电子设备尺寸的障碍。更具体地说,在具有对其分配用于接收来自用户的触摸输入的相对小空间的可穿戴设备的情况下,可能不容易在触摸屏上创建用户可用于输入字符的虚拟键盘。
因此,必须开发在小触摸空间中接收字符输入的方法和用于实现该方法的电子设备,并且该方法可以帮助用户快速和准确地输入字符。
上述信息仅作为背景信息提供,以帮助理解本公开。关于上述中的任何是否可能适用为相对于本公开的现有技术,没有作出任何决定,并且没有声明。
技术方案
本公开的各方面至少应该解决上述问题和/或缺点,并提供至少下面描述的优点。因此,本公开的一个方面是提供一种用于允许用户在小的触摸空间中快速且准确地输入字符的电子设备、以及由电子设备接收来自用户的字符输入的方法。
额外的各方面部分地将在下面的描述中阐述,并且部分地将从描述中显而易见,或者可以通过实践所提出的实施例来了解。
有益效果
根据上述实施例,可以提供一种用于允许用户在小的触摸空间中快速且准确地输入字符的电子设备。
附图说明
从以下结合附图的描述中,本公开的某些实施例的上述和其他方面、特征和优点将更加明显,附图中:
图1和图2示出了用于描述根据本公开的各种实施例的当用户输入字符时穿戴可穿戴设备的用户的不便的图;
图3示出了根据本公开的实施例的电子设备的框图;
图4和图5是示出根据本公开的各种实施例的由电子设备基于用户的轻扫输入接收字符输入的方法的图;
图6至图8示出了根据本公开的各种实施例的通过包括多个触摸面板的电子设备基于用户的轻扫输入接收字符输入的方法的图;
图9至图11示出了根据本公开的各种实施例的通过包括多个触摸面板的电子设备基于用户的轻扫输入接收字符输入的方法的图;
图12至图14示出了根据本公开的各种实施例的由电子设备基于触摸输入的属性选择字符集和基于轻扫输入的属性选择字符的方法的图;
图15和图16示出了根据本公开的各种实施例的由电子设备基于形成触摸输入的触摸点的数量选择字符集的方法的图;
图17和图18示出了根据本公开的各种实施例的由电子设备基于触摸面板的参考点和触摸输入之间的距离选择字符的方法的图;
图19和图20示出了根据本公开的各种实施例的由电子设备基于触摸输入的属性来选择菜单、以及基于轻扫输入的属性选择包括在所选择的菜单中的按钮的方法的图;
图21和图22示出了根据本公开的实施例的由电子设备基于触摸输入的属性选择窗口、以及基于轻扫输入的属性来浏览所选择的窗口的方法的图;
图23示出了根据本公开的实施例的由电子设备接收来自用户的字符输入的方法的流程图;
图24示出了根据本公开的另一实施例的由电子设备接收来自用户的字符输入的方法的流程图;
图25示出了根据本公开的实施例的电子设备的框图;以及
图26示出了根据本公开的实施例的包括电子设备和与电子设备相关联地操作的移动电话的系统的图。
在整个附图中,应当注意,相同的附图标记用于描绘相同或相似的元件、特征和结构。
具体实施方式
根据本公开的一方面,提供了一种电子设备。所述电子设备包括:触摸面板,被配置为接收由指点对象生成的触摸输入、和在用所述指点对象触摸所述触摸面板的同时移动所述指点对象的轻扫输入;处理器,被配置为:基于触摸输入的属性来选择多个字符集中的一个;以及基于所述轻扫输入的属性来选择所选择的字符集中包含的多个字符中的一个;以及显示器,被配置为显示所选择的字符。
所述处理器可以基于触摸输入的属性来选择所述多个字符集中的一个;以及控制显示器以显示包括在所选择的字符集中的至少一个字符。
所述触摸输入的属性可以包括形成所述触摸输入的触摸点的数量和所述触摸面板上接收所述触摸输入的位置中的至少一个。
所述电子设备还可以包括多个触摸面板。所述处理器可以从对应于所述多个触摸面板的所述多个字符集中,选择与接收所述触摸输入的触摸面板相对应的字符集。
所述多个字符集可以分别对应于其中排列有多个键的计算机键盘的行,并且可以包括与包括在所述行中的相应行中的多个键相对应的多个字符。
所述轻扫输入的属性可以包括在所述轻扫输入期间所述指点对象移动的方向、所述指点对象移动的距离和所述指点对象的移动速度中的至少一个。
所述处理器可以基于从所述触摸面板上的参考点到所述触摸输入的起始点的距离、以及在轻扫输入期间所述指点对象移动的距离,选择所述多个字符中的一个。
当在所述轻扫输入期间移动所述指点对象时,所述显示器可以显示包括在所选择的字符集中的所述多个字符,使得包括在所选择的字符集中并且与所述指点对象移动的距离相对应的字符可以与所选择的字符集中包含的其他字符不同。所述处理器可以基于所述指点对象移动的距离来选择包括在所选择的字符集中的所述多个字符中的一个。
根据本公开的另一方面,提供了一种由电子设备接收来自用户的字符输入的方法。所述方法包括:通过包括在电子设备中的触摸面板,接收通过指点对象生成的触摸输入、以及在用指点对象触摸触摸面板的同时移动指点对象的轻扫输入;基于触摸输入的属性来选择多个字符集中的一个;基于所述轻扫输入的属性来选择所述字符集中包含的多个字符中的一个;以及显示所选择的字符。
所述选择多个字符集中的一个可以包括:基于触摸输入的属性来选择所述多个字符集中的一个;以及显示包括在所选择的字符集中的所述多个字符中的至少一个。
所述触摸输入的属性可以包括形成所述触摸输入的触摸点的数量和所述触摸面板上接收所述触摸输入的位置中的至少一个。
所述电子设备可以包括多个触摸面板,并且所述选择多个字符集中的一个可以包括:从对应于所述多个触摸面板的所述多个字符集中选择与接收所述触摸输入的触摸面板相对应的字符集。
所述多个字符集可以分别对应于其中排列有多个键的计算机键盘的行,并且可以分别包括与包括在所述行中的相应行中的多个键相对应的多个字符。
所述轻扫输入的属性可以包括在所述轻扫输入期间所述指点对象移动的方向、所述指点对象移动的距离以及所述指点对象的移动速度中的至少一个。
所述选择所述多个字符中的一个可以包括:基于从所述触摸面板上的参考点到所述触摸输入的起始点的距离、以及在轻扫输入期间所述指点对象移动的距离,选择所述多个字符中的一个。
所述选择所述多个字符中的一个可以包括:在所述轻扫输入期间移动所述指点对象时,显示所述多个字符,使得包括在所选择的字符集中并对应于所述指点对象移动的距离的字符与所选择的字符集中包括的其他字符不同;以及基于指点对象移动的距离来选择所选择的字符集中包含的所述多个字符中的一个。
根据本公开的另一方面,提供了至少一个非暂时计算机可读记录介质,其上记录有计算机程序,当所述计算机程序被电子设备运行时,执行接收来自用户的字符输入的方法。所述方法包括:接收通过指点对象生成的触摸输入、以及在用指点对象触摸触摸面板的同时移动指点对象的轻扫输入;基于触摸输入的属性来选择多个字符集中的一个;基于所述轻扫输入的属性来选择所选择的字符集中包含的多个字符中的一个;以及显示所选择的字符。
从下面结合附图公开了本公开的各种实施例的详细描述中,本公开的其他方面、优点和突出特征对于本领域技术人员将变得明显。
发明模式
提供了参考附图的以下描述以帮助全面了解由权利要求及其等同物限定的本公开的各种实施例。它包括各种具体细节以协助这种理解,但这些细节将被视为仅仅是示例性的。因此,本领域普通技术人员将认识到,在不脱离本公开的范围和精神的情况下,可以对本文所述的各种实施例进行各种改变和修改。此外,为了清楚和简明,可以省略对公知功能和结构的描述。
以下描述和权利要求中使用的术语和词语不限于书面意义,而是仅由发明人使用以使得能够清楚和一致地理解本公开。因此,本领域技术人员应当明白,提供本公开的各种实施例的以下描述仅用于说明的目的,而不是为了限制由所附权利要求及其等同物限定的本公开的目的。
要理解,除非上下文另有明确指示,单数形式“一”和“该”包括复数指示物。因此,例如,指代“组件表面”包括对这些表面中的一个或多个的指代。
术语“基本上”是指所述特征、参数或值不需要精确地实现,而是包括例如公差、测量误差、测量精度限制和本领域技术人员已知的其他因素的偏差或变化可以以不排除特征旨在提供的效果的量而发生。
将进一步理解,本文所用的术语“包括”和/或“包含”指定所述特征或组件的存在,但不排除一个或多个其他特征或组件的存在或添加。此外,术语“单元”表示诸如现场可编程门阵列(FPGA)或专用集成电路(ASIC)的软件组件或硬件组件,并且执行某些功能。然而,术语“单元”的含义不限于此。“单元”可以包括在能够执行寻址的存储介质中,或者可以执行一个或多个处理器。因此,“单元”包括诸如软件组件、面向对象的软件组件、类组件和任务组件的组件、进程、功能、过程、子例程、程序代码段、驱动程序、固件、微代码、电路、数据、数据库、数据结构、表、阵列和变量。“单元”的组件和功能可以组合成更少数量的组件和“单元”,或者可以被分为更多数量的组件和“单元”。
在整个说明书中,术语“字符输入”可以是由用户输入的字母、数字或符号。
在下文中,将通过参考附图说明本公开的实施例来描述本公开,使得本公开将由本公开所属领域的普通技术人员容易地实现。为了清楚起见,将省略与本公开无关的描述。
图1和图2示出了用于描述根据本公开的各种实施例的当用户输入字符时穿戴可穿戴设备的用户的不便的图。
参考图1和图2,用户可以穿戴可穿戴设备。例如,如图1所示,可穿戴设备10可以是可以通过框架任意地搁置(rest)在使用者的耳朵上的眼镜等。替代地,如图2所示,可穿戴设备20可以是手表,并且可以任意地穿戴在使用者的手腕上。
可穿戴设备具有有限的面积,其中将接收用户的触摸输入。例如,图1的可穿戴设备10可以包括分别位于眼镜前部的左侧和右侧并且搁置在左耳和右耳上的眼镜的镜腿(temples)上的触摸面板。另外,图2的可穿戴设备20可以包括固定可穿戴设备20的显示器的边框上的触摸面板。因此,可穿戴设备10和20可以具有触摸面板,该触摸面板不够大到显示用于输入字符的虚拟键盘的所有键。因此,需要一种方法,其中用户可以通过可穿戴设备而不是通过虚拟键盘快速且准确地输入字符。
本公开提供了一种方法,其通过诸如可穿戴设备的电子设备,通过小的触摸区域来接收来自用户的字符输入,并且该方法帮助用户快速且准确地输入字符。
图3示出了根据本公开的实施例的电子设备的框图。
参考图3,电子设备300可以接收来自用户的字符输入,并且可以显示所接收的字符输入,或者可以通过处理接收的字符输入来输出所接收的字符输入。
根据本公开的实施例的电子设备300可以是图1的可穿戴设备10或图2的可穿戴设备20,但不限于此。电子设备300可以是可由用户穿戴的便携式移动设备或用户不穿戴的便携式移动设备。例如,电子设备300可以是智能手表、智能眼镜、移动电话、智能电话、膝上型计算机、平板个人计算机(PC)、电子书终端、数字广播终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)、导航设备、运动图像专家组(MPEG-1或MPEG-2)音频层3(MP3)播放器、数码相机等。
参考图3,电子设备300可以包括触摸面板310、显示器320和处理器350。
触摸面板310可以通过使用指点对象(pointing object)来检测触摸触摸面板310的手势。在说明书中,指点对象可以是用于实际或接近接触触摸面板的工具。例如,指点对象可以是触控笔、手指等。
包括在电子设备300中的触摸面板310可以检测用户对触摸面板310的真实触摸以及接近触摸。在该说明书中,“真实触摸”指示指点对象直接接触触摸面板,并且“接近触摸”表示指点对象在距触摸面板某一距离内而不接触触摸面板。
在说明书中,术语“触摸”可以被理解为真实触摸,但不限于此。术语“触摸”可以理解为真实触摸和接近触摸两者。
触摸面板310可以接收由指点对象生成的触摸输入。触摸输入可以是用户通过使用指点对象触摸触摸面板310然后在触摸面板310上的触摸位置暂停某一时间量的动作。例如,当在触摸面板310上检测到的触摸输入保持在触摸位置几十到几百毫秒时,电子设备300可以确定接收到触摸输入。
处理器350控制电子设备300的整体操作。例如,处理器350可以基于通过触摸面板310接收的触摸输入的属性从多个字符集中选择字符集。每个字符集可以包括多个字符。分别包含在多个字符集中的字符可以全部不同。包括在多个字符集中的每个字符可以包括语言的字母。
例如,用于输入字母表(alphabets)的字符集可以分别对应于排列在计算机键盘(例如,QWERTY键盘)中包括的键的行。每个字符集可以包括与键相对应的字符,所述键包括在计算机键盘的行中的与字符集相对应的行中。
下面将描述使用三个字符集来输入字母表的情况。三个字符集中的第一字符集可以包括与qwerty键盘的最上行中的键相对应的字符,例如Q、W、E、R、T、Y、U、I、O和P。另外,三个字符集中的第二字符集可以包括与Qwerty键盘的第二行中的键相对应的字符,例如A、S、D、F、G、H、J、K和L。三个字符集中的第三字符集可以包括与qwerty键盘的最下行中的键相对应的字符,例如Z、X、C、V、B、N和M。字母表可以通过用户相对于第一、第二和第三字符集的触摸输入和轻扫(swipe)输入来输入到电子设备300。
替代地,每个字符集可以包括与键对应的一些字符,所述键包括在计算机键盘的行中的与各个字符集相对应的行中。例如,与包括在qwerty键盘的最上面的行中的键对应的字符可以分为两个字符集。例如,Q、W、E、R和T可以包括在一个字符集中,并且Y、U、I、O和P可以包括在另一个字符集中。
同时,作为电子设备300选择字符集的基础的触摸输入的属性可以包括形成触摸输入的触摸点的数量和触摸面板310的接收触摸输入的位置中的至少一个。
根据本公开的实施例,电子设备300可以包括多个触摸面板。电子设备300的触摸面板可以分别对应于字符集。处理器350可以根据哪个触摸面板从用户接收触摸输入来选择字符集中的一个。处理器350可以从字符集中选择与接收触摸输入的触摸面板相对应的字符集。
当选择字符集时,处理器350可以控制显示器320以便显示包括在所选择的字符集中的至少一个字符。例如,处理器350可以显示包括在字符集中的所有字符或包括在字符集中的字符中具有最高优先级的字符。
包括在字符集中的字符的优先顺序可以预先确定或基于用户输入来确定。例如,可以根据键盘上排列与字符对应的键的顺序来将优先级分配给字符。替代地,可以根据字母顺序(alphabetic order)将优先级分配给字符。
触摸面板310可以接收触摸输入、和在用指点对象触摸触摸面板310的同时移动指点对象的轻扫输入。轻扫输入是指用户通过使用指点对象触摸触摸面板310并同时将指点对象移动某一距离的动作。例如,轻扫输入可以是通过使用指点对象触摸触摸面板310并且同时沿着某一方向或与某一方向垂直的方向移动指点对象的动作。电子设备300可以将在与某一方向不同的方向上移动指点对象的输入识别为不是轻扫输入的输入。
处理器350可以基于轻扫输入的属性来选择包括在所选择的字符集中的字符中的一个。轻扫输入的属性可以包括在轻扫输入期间指点对象移动的方向、指点对象移动的距离以及指点对象的移动速度中的至少一个。
指点对象移动的距离可以是从触摸面板310上的参考点到轻扫输入的终点的直线距离。
例如,处理器350可以基于在轻扫输入期间指点对象移动的距离来选择字符集中包括的字符中的一个。在这种情况下,处理器350可以通过进一步考虑从触摸面板310上的参考点到触摸输入的距离来选择字符。以下,将参考图17和图18,描述电子设备300通过进一步考虑从触摸面板310上的参考点到触摸输入的距离来选择字符的方法。
显示器320可以显示和输出由电子设备300处理的信息。显示器320可以显示由处理器350选择的字符。此外,显示器320还可以显示用于接收控制电子设备300的用户输入的用户界面(UI)和用于设置与用户可以输入字符的运动相关的参数的UI。
显示器320可以是与触摸面板310以层状结构形成的触摸屏。在这种情况下,触摸屏可以用作输出设备以及输入设备,并且能够执行触摸面板310和显示器320的所有功能。显示器320可以包括液晶显示器(LCD)、薄膜晶体管LCD(TFT LCD)、有机发光二极管(OLED)显示器、柔性显示器、三维(3D)显示器和电泳显示器中的至少一个。
根据实施例的显示器320可以基于触摸输入来显示由处理器350选择的字符集中包括的字符。显示器320可以显示包括在字符集中的字符,使得在轻扫输入期间与指点对象移动的距离相对应的字符与其他字符区别开。例如,对应于指点对象移动的距离的字符可以与其他字符不同地显示,并且字符的颜色、形状、亮度和尺寸中的至少一个可以不同于其他字符的颜色、形状、亮度和尺寸中的至少一个。
图4和图5是示出根据本公开的各种实施例的由电子设备基于用户的轻扫输入接收字符输入的方法的图。图4和图5示出了电子设备300是可穿戴设备,但是本公开不限于此。
参考图4,电子设备300可以是搁置在用户40的头部上的眼镜。图4所示的电子设备300(即,眼镜)可以通过定位在眼镜的镜腿上的触摸面板310接收来自用户40的触摸输入和轻扫输入。电子设备300可以基于触摸输入和轻扫输入来选择字符,并且可以在显示器320上显示所选择的字符。
因此,电子设备300可以通过不够大到足以显示用于接收字符输入的虚拟键盘的触摸面板310,快速地接收来自用户40的字符输入。
参考图5,电子设备300可以是戴在用户40的手腕上的手表。如图5所示的电子设备300(即,手表)可以通过位于电子设备300的边框上的触摸面板310从用户40接收触摸输入和轻扫输入。电子设备300可以基于触摸输入和轻扫输入选择字符,并且可以在显示器320上显示所选择的字符。
因此,电子设备300可以通过不够大到足以显示用于接收字符输入的虚拟键盘的触摸面板310,快速地接收来自用户40的字符输入。在下文中,将参考图6至图8描述由电子设备300接收来自用户40的字符输入的方法。
图6至图8示出了根据本公开的各种实施例的通过包括多个触摸面板的电子设备基于用户的轻扫输入接收字符输入的方法的图。
参考图6,电子设备300可以包括多个触摸面板611、612和613。包括在电子设备300中的触摸面板611、612和613可以分别对应于包括字符的字符集601、602和603。
例如,电子设备300的触摸面板611可以对应于qwerty键盘的第一行。例如,包括与在qwerty键盘的第一行中包括的键对应的字符(即Q、W、E、R、T、Y、U、I、O、P、[、])中的至少一些的字符集601可以映射到触摸面板611,并且映射可以存储在包括在电子设备300中的存储器中。
电子设备300的触摸面板612可以对应于qwerty键盘的第二行。例如,包括与在qwerty键盘的第二行中包括的键对应的字符(即A、S、D、F、G、H、J、K、L、;、’)中的至少一些的字符集602可以映射到触摸面板612,并且映射可以被存储在包括在电子设备300中的存储器中。
此外,电子设备300的触摸面板613可以对应于qwerty键盘的第三行。例如,包括与在qwerty键盘的第三行中包括的键对应的字符(即Z、X、C、V、B、N、M、,、.、/)中的至少一些的字符集603可以映射到触摸面板613,并且映射可以存储在包括在电子设备300中的存储器中。
电子设备300可以基于用户触摸触摸面板611、612和613中的哪一个来选择字符集601、602和603中的一个。例如,当用户触摸触摸面板611时,电子设备300可以选择字符集601。
参考图7,电子设备300可以基于触摸触摸面板612的用户的触摸输入,从字符集中选择与触摸面板612相对应的字符集。例如,所选择的字符集可以包括与在qwerty键盘的第二行中包括的键对应的字符。
电子设备300可以基于通过使用指点对象触摸触摸面板并将指点对象在触摸面板上移动的轻扫输入,选择包括在所选择的字符集中的字符中的一个。
图7的用户的触摸输入和轻扫输入示出为箭头。参考图7,箭头的位置指示在触摸面板310上接收触摸输入的位置,并且箭头的方向指示在轻扫输入期间指点对象移动的方向。箭头的长度指示指点对象移动的距离。电子设备300可以检测如图7的箭头所示的指点对象的移动。并且可以基于指点对象的移动来接收触摸输入和轻扫输入。
显示器320可以在输入区域722内显示所选择的字符集中包含的字符。用户可以使用输入区域722来通过触摸面板310输入字符。
显示器320可以显示包括在字符集中的字符,使得在轻扫输入期间与指点对象移动的距离相对应的字符与其他字符区别开。因此,用户可以通过显示器320的输入区域722识别哪个字符与所选择的字符相对应,并且如果所选择的字符不是期望的字符,则用户可以再次移动指点对象以选择期望的字符。
显示器320从所选择的字符集中包括的字符中,基于轻扫输入的属性来选择字符701,并且可以在编辑区域721内显示所选择的字符701。编辑区域721可以由用户用于确定要输入的字符或要去除的字符。例如,电子设备320可以基于指点对象移动的距离从字符中选择字符701。
参考图7,电子设备300可以基于触摸触摸面板611、612和613中的触摸面板612的用户的触摸输入,选择包括与在qwerty键盘的第二行中包括的键相对应的字符的字符集。电子设备300可以在输入区域722内显示包括在所选择的字符集中的字符。
在用户在轻扫输入期间移动指点对象的同时,电子设备300可以将与从触摸输入的起始点到指点对象的当前位置的距离相对应的字符701(即,K)显示得与其他字符(即A、S、D、F、G、H、I、J、L、;、”)不同。此外,电子设备300可以将对应于距指点对象的当前位置的距离的字符701(即,K)显示在编辑区域721内。
电子设备300可以基于指点对象在轻扫输入结束的时间点(即电子设备300的触摸面板612检测到指点对象停止移动的时间点)的位置进行最终的字符选择。
参考图8,电子设备300可以基于用户触摸触摸面板611的触摸输入,从字符集中选择与触摸面板611相对应的字符集。例如,所选择的字符集可以包括与在qwerty键盘的第一行中包括的键对应的字符。
参考图8,电子设备300可以基于触摸触摸面板611、612和613中的触摸面板611的用户的触摸输入,选择包括与在qwerty键盘的第一行中包括的键对应的字符的字符集。电子设备300可以在输入区域722内显示包括在所选择的字符集中的字符。
在用户在轻扫输入期间移动指点对象的同时,电子设备300可以将与从触摸输入的起始点到指点对象的当前位置的距离相对应的字符801(即,R)显示得与其他字符(即,Q、W、E、T、Y、U、I、O、P、[、])不同。此外,电子设备300可以在先前输入的字符701,即K之后,显示与指点对象的当前位置的距离相对应的字符801,也就是R。电子设备300可以基于在轻扫输入结束的时间点的指点对象的位置进行最终的字符选择。
图9至图11示出了根据本公开的各种实施例的通过包括多个触摸面板的电子设备基于用户的轻扫输入接收字符输入的方法的图。
参考图9,包括在电子设备300中的触摸面板911、912和913中的至少一些触摸面板911和913可以沿着电子设备300的角落定位。
包括在电子设备300中的触摸面板911、912和913中的每个可以对应于包括字符的字符集。例如,电子设备300的触摸面板911可以对应于qwerty键盘的第一行,触摸面板912可以对应于qwerty键盘的第二行,并且触摸面板913可以对应于qwerty键盘的第三行。
参考图9,电子设备300可以基于触摸触摸面板911的用户的触摸输入,从字符集中选择与触摸面板911相对应的字符集。例如,所选择的字符集可以包括与在qwerty键盘的第一行中包括的键对应的字符。
参考图9,电子设备300可以基于触摸触摸面板911、912和913中的触摸面板911的用户的触摸输入,选择包括与在qwerty键盘的第一行中包括的键对应的字符的字符集。电子设备300可以在输入区域722内显示包含在所选择的字符集中的字符。
在用户在轻扫输入期间移动指点对象的同时,电子设备300可以将与从触摸输入的起始点到指点对象的当前位置的距离相对应的字符901(即,I)显示得与所选的字符集的其他字符不同。电子设备300可以在轻扫输入结束的时间点基于指点对象的位置进行最终字符选择。
参考图10,电子设备300可以基于触摸触摸面板912的用户的触摸输入,从字符集中选择与触摸面板912相对应的字符集。例如,所选择的字符集可以包括与在qwerty键盘的第二行中包括的键对应的字符。
参考图10,电子设备300可以基于触摸触摸面板911、912和913中的触摸面板912的用户的触摸输入,选择包括与在qwerty键盘的第二行中包括的键相对应的字符的字符集。电子设备300可以在输入区域722内显示包括在所选择的字符集中的字符。
在用户在轻扫输入期间移动指点对象的同时,电子设备300可以在输入区域722中将与从触摸输入的起始点到指点对象的当前位置的距离相对应的字符1001(即,’)显示得与所选择的字符集的其他字符不同。此外,电子设备300可以在先前输入的字符901(即,I)之后显示对应于距指点对象的当前位置的距离的字符1001,也就是’。电子设备300可以基于在轻扫输入结束的时间点指点对象的位置进行最终的字符选择。
参考图11,电子设备300可以基于触摸触摸面板913的用户的触摸输入,从字符集中选择与触摸面板913相对应的字符集。例如,所选择的字符集可以包括与在qwerty键盘的第三行中包括的键对应的字符。
参考图11,电子设备300可以基于触摸触摸面板911、912和913中的触摸面板913的用户的触摸输入,选择包括与在qwerty键盘的第三行中包括的键对应的字符的字符集。电子设备300可以在输入区域722内显示包含在所选择的字符集中的字符。
在用户在轻扫输入期间移动指点对象的同时,电子设备300可以将与从触摸输入的起始点到指点对象的当前位置的距离相对应的字符1101(即,M)显示得与所选择的字符集的其他字符不同。此外,电子设备300可以在先前输入的字符1001(即,’)之后显示对应于距指点对象的当前位置的距离的字符1101,也就是M。电子设备300可以基于在轻扫输入结束的时间点指点对象的位置进行最终的字符选择。
图6至图11示出了电子设备300的触摸面板是平坦的,并且电子设备300的拐角位于触摸面板彼此连接的边界处。然而,本公开不限于图6的图示。根据本公开的实施例的电子设备300可以包括多个弯曲的触摸面板。
替代地,电子设备300可以包括至少一个触摸面板,并且该至少一个触摸面板包括检测区域。在这种情况下,检测区域可以对应于字符集。电子设备300可以基于接收触摸输入的检测区域来选择字符集。关于图6至图11的描述可以应用于本公开的实施例,即,将触摸面板划分为检测区域并将施加于各个检测区域的触摸输入检测为单独的触摸输入的实施例,并且将省略重复的描述。
在上文中,已经参考图6至图11描述了由电子设备300基于接收用户的触摸输入和轻扫输入的触摸面板选择字符集的实施例。
然而,本公开不限于参考图6至图11描述的实施例。可以使用基于触摸输入的位置以及触摸输入的属性来选择字符集中的一个的方法。例如,本公开可以包括由电子设备300基于形成触摸输入的触摸点的数量来选择字符集中的一个的实施例。
根据本公开的上述实施例,电子设备300可以检测多点触摸。例如,电子设备300可以同时检测一个或多个触摸点。电子设备300可以存储分别对应于形成触摸输入的触摸点的数量的字符集和触摸点的数量。
例如,包括一个触摸点的触摸输入可以对应于qwerty键盘的第一行。例如,当接收包括一个触摸点的触摸输入时,电子设备300可以被配置为加载包括至少一些字符(即Q、W、E、R、T、Y、U、I、O、P、[、和])的字符集,其对应于包括在qwerty键盘的第一行中的键。
包括两个触摸点的触摸点可以对应于qwerty键盘的第二行。例如,当接收包括两个触摸点的触摸输入时,电子设备300可以被配置为加载包括至少一些字符(即字符A、S、D、F、G、H、J、K、L、;、’)的字符集,其对应于包括在qwerty键盘的第二行中的键。
此外,包括三个触摸点的触摸点可以对应于qwerty键盘的第三行。例如,当接收包括三个触摸点的触摸输入时,电子设备300可以被配置为加载包括至少一些字符(即字符Z、X、C、V、B、N、M、,、.、/)的字符集,其对应于包括在qwerty键盘的第三行中的键。
电子设备300可以基于形成触摸输入的触摸点的数量来选择字符集中的一个。
图12至图14示出了根据本公开的各种实施例的由电子设备基于触摸输入的属性选择字符集和基于轻扫输入的属性来选择字符的方法的图。
参考图12,电子设备300可以检测到触摸输入包括一个触摸点。电子设备300可以基于形成触摸输入的触摸点的数量为一的事实,从字符集中选择与包括一个触摸点的触摸输入相对应的字符集。
例如,电子设备300可以基于形成触摸输入的触摸点的数量为一的事实从字符集中选择与qwerty键盘的第一行相对应的字符集。例如,字符集可以包括与在qwerty键盘的第一行中包括的键对应的字符。电子设备300可以在显示器320的输入区域722内显示包括在所选择的字符集中的至少一些字符。
图12示出了包括在用于显示英语的字符集中的所有字符都显示在输入区域722中,但是本公开不限于此。电子设备300可以在输入区域722中显示包括在所选择的字符集中的字符或者可以显示在包括在所选择的字符集中的字符中具有最高优先级的字符。例如,包括在所选择的字符集中的字符中具有最高优先级的字符可以对应于计算机键盘的最左边的键,并且该键可以被包括在与所选择的字符集相对应的行中。
参考图12,电子设备300可以在输入区域722中显示包括在字符集中的所有字符。在这种情况下,电子设备300可以显示字符集,使得基于触摸输入的属性选择的字符集与其他字符集区别开。因此,用户可以基于输入区域722中显示的字符集的尺寸、形状、颜色和亮度中的至少一个来识别哪个字符集被选择。此外,电子设备300可以将在所选择的字符集中包括的字符中具有最高优先级的字符1201(即,Q)显示得与所选择的字符集的其他字符不同。
在用指点对象40触摸触摸面板的同时,电子设备300可以接收触摸输入和移动指点对象40的轻扫输入。
参考图13,轻扫输入被示为箭头。参考图13,在用户在轻扫输入期间移动指点对象40的同时,电子设备300可以在输入区域722中将与从触摸输入的起始点到指点对象40的当前位置的距离相对应的字符1301(即,P)显示得与所选择的字符集的其他字符不同。此外,电子设备300可以在编辑区域721中显示与距指点对象40的当前位置的距离相对应的字符1301,即P。
电子设备300可以基于在轻扫输入结束的时间点的指点对象的位置进行最终字符选择。图13和图14示出了在用指点对象40触摸电子设备300的同时,在指点对象40在电子设备300上沿某一方向(图13的向右方向)移动、然后沿与该某一方向相反的方向(图14的向左方向)移动之后,轻扫输入结束。
当指点对象40触摸触摸面板310并在其上移动时并且当触摸状态终止时(即,当指点对象40与触摸面板310间隔某一距离时),电子设备300可以确定轻扫输入终止。
参考图14,电子设备300可以基于指点对象40在轻扫输入结束的时间点的位置,选择与从触摸输入的起始点到轻扫输入结束时的时间点的指点对象40的位置的距离对应的字符1401,即,Y。电子设备300可以在编辑区域721中显示所选择的字符1401,即Y,并且可以等待以接收新的字符输入。
图15和图16示出了根据本公开的各种实施例的由电子设备基于形成触摸输入的触摸点的数量选择字符集的方法的图。
参考图15,电子设备300可以检测到触摸输入包括两个触摸点,并且触摸输入是通过触摸触摸面板310的用户使用指点对象40生成的。电子设备300可以选择基于包括两个触摸点的触摸输入,从字符集中选择与包括两个触摸点的触摸输入对应存储的字符集。
例如,电子设备300可以基于包括两个触摸点的触摸输入,从字符集中选择对应于qwerty键盘的第二行的字符集。例如,所选择的字符集可以包括对应于包括在qwerty键盘的第二行中的键的字符。电子设备300可以在显示器320的输入区域722内显示包括在所选择的字符集中的至少一些字符。
电子设备300可以接收触摸输入和在用指点对象40触摸触摸面板310的同时移动指点对象40的轻扫输入。参考图15,电子设备300可以基于在轻扫输入期间指点对象40移动的距离来选择包括在所选择的字符集中的字符中的一个。
例如,在用户将指点对象40在触摸面板310上移动的同时,电子设备300可以在输入区域722中将与从触摸输入的起始点到指点对象40的当前位置的距离相对应的字符1501(即G)显示得不同于所选择的字符集的其他字符。另外,在编辑区域721中,电子设备300可以在编辑区域721中,显示与距指点对象40的当前位置的距离相对应的字符1501,也就是G。
电子设备300可以基于在轻扫输入结束的时间点指点对象40的位置进行最终字符选择。
另外,参考图16,电子设备300可以检测到使用触摸触摸面板310的用户的指点对象40的触摸输入包括三个触摸点。电子设备300可以基于包括三个触摸点的触摸输入,从字符集中选择与包括三个触摸点的触摸输入相对应存储的字符集。
例如,电子设备300可以基于包括三个触摸点的触摸输入从字符集中选择对应于qwerty键盘的第三行的字符集。例如,所选择的字符集可以包括对应于在qwerty键盘的第三行中包括的键的字符。电子设备300可以在显示器320的输入区域722内显示包括在所选择的字符集中的至少一些字符。
电子设备300可以接收触摸输入和在用指点对象40触摸触摸面板310的同时移动指点对象40的轻扫输入。参考图15,电子设备300可以基于在轻扫输入期间指点对象40移动的距离来选择包括在所选择的字符集中的字符中的一个。
例如,在指点对象40在触摸面板310上移动的同时,电子设备300可以在输入区域722中将与从触摸输入的起始点到指点对象40的当前位置的距离相对应的字符1601(即V)显示得不同于所选择的字符集的其他字符。另外,电子设备300可以在编辑区域721中,显示与距指点对象40的当前位置的距离相对应的字符1601,也就是V。
电子设备300可以在轻扫输入结束的时间点基于指点对象40的位置进行最终字符选择。
当电子设备300通过考虑在轻扫输入期间指点对象40移动的距离来选择字符时,可以进一步考虑从触摸面板310上的参考点到触摸输入的距离。
图17和图18示出了根据本公开的各种实施例的由电子设备基于触摸面板的参考点和触摸输入之间的距离选择字符的方法的图。
参考图17,电子设备300可以选择与指点对象40移动以生成轻扫输入的距离b1相对应的字符。根据本公开的实施例,可以将优先级分配给包括在字符集中的字符。例如,对于包含对应于包括在qwerty键盘的行中的键的字符的字符集,与排列在qwerty键盘的行的左侧上的键对应的字符可以具有比与排列在该行的右侧上的键对应的字符相对更高的优先级。
随着指点对象40移动以生成轻扫输入的距离b1增加,电子设备300可以选择具有低优先级的字符。
在这种情况下,电子设备300可以通过进一步考虑从触摸面板310上的参考点O到触摸输入的起始点的距离a1来选择字符。随着从触摸面板310上的参考点O到触摸输入的起始点的距离a1增加,电子设备300可以选择具有低优先级的字符。
由图18中的电子设备300检测到的指点对象40移动的距离b1与图17的所检测的指点对象40移动的距离b1相同。然而,图18的从触摸面板310上的参考点O到触摸输入的起始点的距离a2不同于图17的从触摸面板310上的参考点O到触摸输入的起始点的距离a1。
参考图18,随着从触摸面板310上的参考点O到触摸输入的起始点的距离增加,电子设备300可以选择具有比图17中选择的字符(即,Y)更低的优先级的字符,即P。
电子设备300可以基于一个或多个触摸手势来编辑文档、改变要输入的语言、存储文档或删除文档。
此外,除了字符输入之外,还可以使用基于轻扫输入来接收用户输入的方法来从用户接收用于控制电子设备300的命令。
电子设备300向用户提供包括与用于控制电子设备300的命令相对应的按钮的菜单。电子设备300可以基于选择按钮中的至少一个的用户输入来执行某个操作或改变功能设置。
电子设备300可以通过显示器320显示提供菜单的菜单栏。菜单中的每个可以包括与用于控制电子设备300的命令相对应的按钮。显示器320可以显示总结与包含在每个菜单中的按钮相对应的命令的属性的标题。
图19和图20示出了根据本公开的各种实施例的、由电子设备基于触摸输入的属性选择菜单、以及基于轻扫输入的属性选择包括在所选择的菜单中的按钮的方法的图。
参考图19,电子设备300可以通过显示器320提供菜单1910、1920、1930和1940。图19示出了电子设备300提供关于“呼叫”1910、“因特网”1920、“消息”1930和“应用”1940的菜单。
当接收到选择显示的菜单1910、1920、1930和1940中的至少一个的用户输入时,电子设备300可以激活至少一个所选择的菜单。菜单的激活可以指示显示包括在菜单1910、1920、1930和1940中的按钮中的至少一些。
参考图19,电子设备300可以基于触摸触摸面板310的触摸输入的属性来选择菜单1910、1920、1930和1940中的一个。如上所述,电子设备300可以基于形成触摸输入的触摸点的数量、触摸面板上接收到触摸输入的位置和触摸面板中接收触摸输入的触摸面板中的至少一个,选择菜单1910、1920、1930和1940中的一个。
图19和图20示出了电子设备300基于形成触摸输入的触摸点的数量来选择菜单。
参考图19,电子设备300可以检测到使用用户的指点对象40的触摸输入包括一个触摸点。基于形成触摸输入的触摸点的数量为一的事实,电子设备300可以从菜单1910、1920、1930和1940中选择与包括一个触摸点的触摸输入相对应存储的菜单。
例如,电子设备300可以基于形成触摸输入的触摸点的数量为一的事实从菜单1910、1920、1930和1940中选择菜单1910。所选择的菜单1910包括与关于电子设备300的“呼叫”功能的命令对应的按钮。电子设备300激活并显示所选择的菜单1910。
电子设备300可以接收触摸输入和在用指点对象40触摸触摸面板310的同时移动指点对象40的轻扫输入。电子设备300可以基于轻扫输入的属性选择包括在所选择的菜单1910中的按钮中的一个。可以基于与所选择的按钮相对应的命令来控制电子设备300。例如,电子设备300可以基于在轻扫输入期间指点对象40移动的距离来选择包括在所选择的菜单1910中的按钮1911、1912、1913、1914和1915中的一个。
例如,电子设备300可以基于轻扫输入的属性来选择按钮1914,并且可以与其他按钮1911、1912、1913和1915不同地显示所选择的按钮1914。电子设备300可以基于用户选择按钮1914的轻扫输入,执行与按钮1914相应的操作。例如,电子设备300可以响应于选择按钮1914向用户提供存储在电子设备300中的联系人。
根据本公开的实施例,可以限制可以在激活的菜单窗口上显示的按钮的数量。如果按钮的数量超过在激活的菜单窗口上允许显示的按钮的数量,则可以提供用于选择未显示按钮的按钮1915,如图19所示。当用户选择按钮1915时,可以在激活的菜单窗口上显示包括在所选择的按钮1915中的未显示的按钮,而不是显示的按钮1911、1912、1913和1914。
参考图20,电子设备300可以检测到使用用户的指点对象40的触摸输入包括三个触摸点。基于形成触摸输入的触摸点的数量为三的事实,电子设备300可以从菜单1910、1920、1930和1940中选择与包括三个触摸点的触摸输入对应存储的菜单。
例如,电子设备300可以基于形成触摸输入的触摸点的数量为三的事实从菜单1910、1920、1930和1940中选择菜单1930。所选择的菜单1930包括与关于电子设备300的“消息”功能的命令相对应的按钮。电子设备300可以激活并显示从菜单1910、1920、1930和1940中选择的菜单1930。
电子设备300可以接收触摸输入和在用指点对象40触摸触摸面板310的同时移动指点对象40的轻扫输入。电子设备300可以基于轻扫输入的属性选择包括在所选择的菜单1930中的按钮1931、1932、1933、1934中的一个。可以基于与所选择的按钮相对应的命令来控制电子设备300。例如,电子设备300可以基于轻扫输入的属性来选择按钮1932,并且可以与其他按钮1931、1933和1934不同地显示所选择的按钮1932。电子设备300可以基于选择按钮1932的用户的轻扫输入执行对应于按钮1932的操作。例如,电子设备300可以响应于按钮1932的选择向用户提供存储在电子设备300中的接收到的消息。
可以使用基于轻扫输入来接收用户输入的方法来选择所显示的窗口中的一个并搜索所选择的窗口。窗口可以指示显示器320的显示区域的指定部分。电子设备300可以通过窗口显示至少几条数据(例如,用于控制电子设备300的菜单、关于由电子设备300运行的应用的信息、通过网络从电子设备300接收的网页冲浪信息等)。
电子设备300可以向用户提供用于向用户提供数据的窗口。电子设备300可以基于选择窗口中的至少一个的用户输入通过所选择的窗口来接收信息。
图21和图22示出了根据本公开的实施例的由电子设备基于触摸输入的属性选择窗口、并基于轻扫输入的属性来浏览所选择的窗口的方法的图。
参考图21,电子设备300可以通过显示器320提供窗口2120、2130和2140。参考图21,显示用于显示包括与电子设备30的呼叫功能的命令相对应的按钮的菜单的窗口2120、用于显示由日程表管理应用提供的信息的窗口2130、以及用于显示具有将电子设备300连接至网站的功能的按钮的窗口2140。然而,本公开不限于图21的窗口2120、2130和2140,并且可以进一步显示以下窗口:用于以诸如文本、视频和声音的各种形式提供存储在因特网上的信息的网络浏览窗口、用于再现音频、视频等的再现窗口、以及用于探索(explore)存储在电子设备300中的文件和文件夹的探索窗口。
当接收到选择所显示的窗口2120、2130和2140中的至少一个的用户输入时,电子设备300可以将至少一个所选择的窗口显示在最前面。
电子设备300可以基于触摸触摸面板310的触摸输入的属性来选择窗口2120、2130和2140中的一个。如上所述,电子设备300可以基于形成触摸输入的触摸点的数量、触摸面板310上接收触摸输入的位置以及触摸面板中接收触摸输入的触摸面板中的至少一个,选择窗口2120、2130和2140中的一个。
图21和图22示出了电子设备300包括触摸面板2111、2112和2113,并且基于触摸面板2111、2121和2113中的哪一个接收触摸输入来选择窗口。
参考图21,电子设备300可以检测通过触摸面板2111、21212和2113中的触摸面板2111接收到触摸输入。电子设备300可以基于通过触摸面板2111的触摸输入的接收,从窗口2120、2130和2140中选择与触摸面板2111相对应的窗口。
例如,电子设备300可以基于通过触摸面板2111的触摸输入的接收来选择触摸面板2111、2112和2113中的窗口2120。参考图21,电子设备300可以在其他窗口2130和2140的前面显示所选择的窗口2120。
电子设备300接收触摸输入和在用指点对象40触摸触摸面板310的同时移动指点对象40的轻扫输入。电子设备300可以基于轻扫输入的属性探索所选择的窗口。
窗口的探索可以指选择通过窗口提供的信息、选择关于用于控制电子设备300的命令的按钮、或者通过窗口垂直或水平地移动内容。例如,如图21所示,电子设备300可以基于轻扫输入的属性来探索选择的窗口2120,并且可以选择通过窗口2120提供的至少一个按钮。
参考图22,电子设备300可以检测到通过触摸面板2111、2112和2113中的触摸面板2113接收到触摸输入。电子设备300可以基于通过触摸面板2113的触摸输入的接收,从窗口2120、2130和2140中选择与触摸面板2113相对应的窗口。
例如,电子设备300可以基于通过触摸面板2113的触摸输入的接收来选择窗口2120、2130和2140中的窗口2140。参考图22,电子设备300可以在窗口2120和2130的前面显示所选择的窗口2140。
电子设备300接收触摸输入和在用指点对象40触摸触摸面板310的同时移动指点对象40的轻扫输入。电子设备300可以基于轻扫输入的属性来探索所选择的窗口2140。例如,参考图22,电子设备300可以基于轻扫输入探索所选择的窗口2140,并且通过选择通过窗口2140提供的按钮中的至少一个,可以访问对应于至少一个所选择的按钮的网站。
此外,基于触摸输入和轻扫输入来控制电子设备300的方法可以应用于由电子设备300提供的各种功能,例如图像的拍摄和编辑、网页冲浪等。然而,本公开不限于上述方法,并且可以基于诸如触摸和保持、双击、捏合、拖放等的各种触摸手势来控制电子设备300。
电子设备300可以将触摸手势的属性映射到电子设备300的操作,并且可以基于触摸手势的属性来执行操作。触摸手势的属性可以包括例如形成触摸手势的触摸点的数量、接收到触摸手势的位置、是否通过一个或多个触摸面板接收到触摸手势(即,是否通过在触摸面板之间移动指点对象而生成触摸手势)等。
例如,电子设备300可以将触摸面板映射到用于拍摄和编辑图像的操作,并且可以基于用于触摸面板的触摸手势来执行与触摸面板相对应的操作。
电子设备300可以接收来自用户的轻扫输入,以便设置与拍摄功能相关的参数,诸如基于触摸面板上的多点触摸来控制拍摄速度(即,拍摄期间的帧速率)。此外,电子设备300可以基于在用指点对象触摸触摸面板310的同时将指点对象在触摸面板之间移动的手势,将电子设备300的拍摄模式从视频拍摄模式改变为静态图像拍摄模式或从静态图像拍摄模式改变为视频拍摄模式。
图23示出了根据本公开的实施例的由电子设备接收来自用户的字符输入的方法的流程图。
参考图23,图23的每个操作可以由图3的电子设备300的组件执行,并且将省略参考图3提供的描述。
在操作S2310中,电子设备300可以从用户接收触摸输入和轻扫输入。
电子设备300可以通过包括在电子设备300中的触摸面板310使用指点对象接收触摸输入。电子设备300可以在用指点对象触摸触摸面板310的同时接收移动指点对象的轻扫输入。
在操作S2320中,电子设备300可以基于触摸输入的属性来选择字符集中的一个。
例如,电子设备300可以基于形成触摸输入的触摸点的数量、触摸面板上接收触摸输入的位置以及哪个触摸面板接收触摸输入中的至少一个,选择字符集中的一个。
电子设备300可以基于触摸输入的属性来选择字符集中的一个。电子设备300可以显示包括在所选择的字符集中的字符中的至少一个。
例如,电子设备300可以基于触摸输入的属性来选择包括与在qwerty键盘的任一行包括中的键对应的字符的字符集。电子设备300可以显示包括在所选择的字符集中的字符。
在操作S2330中,电子设备300可以基于轻扫输入的属性来选择包括在字符集中的字符中的一个。
例如,电子设备300可以基于指点对象移动以生成轻扫输入的方向、指点对象移动的距离和指点对象的移动速度中的至少一个,选择字符集中包括的字符中的一个。
在指点对象在轻扫输入期间移动的同时,电子设备300可以将字符中的与指点对象移动的距离对应的字符显示得不同于其他字符。电子设备300可以基于在轻扫输入结束的时间点指点对象的位置进行最终字符选择。例如,电子设备300可以基于从触摸输入的起始点到指点对象停止移动的点的距离来进行最终字符选择。
在操作S2340中,电子设备300可以显示所选择的字符。
接收字符输入的方法不限于图23的方法,并且图23的操作可以与所描述的顺序不同地执行。
电子设备300可以根据图24的流程图接收字符输入。
图24示出了根据本公开的另一实施例的由电子设备接收来自用户的字符输入的方法的流程图。
参考图24,在操作S2410中,电子设备300可以从用户接收触摸输入。
在操作S2420中,电子设备300可以基于触摸输入的属性来选择字符集中的一个。
在操作S2430中,电子设备300可以显示包括在所选择的字符集中的字符中的至少一个。
在操作S2440中,电子设备300可以接收在操作S2410中用指点对象触摸触摸面板310的同时在触摸触摸面板310上移动指点对象的轻扫输入。
在操作S2450中,电子设备300可以基于轻扫输入的属性来选择包括在字符集中的字符中的一个。
在操作S2460中,电子设备300可以显示所选择的字符。
图25示出了根据本公开的实施例的电子设备的框图。
参考图25,电子设备300还可以包括用户输入单元2510、输出单元2520、检测单元2530、通信单元2540、音频和视频(AV)输入单元2560、存储器2570和电源2580。这些组件可以通过总线相互连接。
以下,将依次描述各组件。
用户输入单元2510接收控制电子设备300的用户输入。用户输入单元2510包括用于接收用户的触摸的触摸面板310,并且还可以包括用于接收用户的推动操纵的按钮2511、和用于接收用户的旋转操纵的拨轮(wheel)2512中的至少一个。然而,根据实施例的用户输入单元2510不限于此,并且还可以包括键盘、半球形开关(dome switch)等。
输出单元2520以诸如光、声音、振动等的至少一种形式输出从通信单元2540接收的、由处理器350处理的、或存储在存储器2570中的信息。例如,输出单元2520包括显示器320,并且还可以包括用于输出声音的声音输出单元2521和用于输出振动的振动马达2522中的至少一个。声音输出单元2521可以输出关于由电子设备300执行的功能的声音(例如,呼叫信号接收声音、消息接收声音、警报等)。
检测单元2530检测电子设备300的状态或电子设备300周围的状态,并且可以将检测到的信息发送到处理器350。例如,检测单元2530可以包括地磁传感器、加速度传感器、陀螺仪传感器、接近传感器、光学传感器、深度传感器、红外线传感器、超声波传感器等。
检测单元2530可以检测用户的眼睛的方向和用户的头部运动中的至少一个。
例如,包括用于检测用户的眼睛的方向的传感器的电子设备300可以通过使用用户的触摸手势和关于用户的眼睛的方向的信息来接收字符输入。例如,电子设备300可以基于触摸触摸面板310的用户的触摸输入来选择字符集,并且可以将包括在所选择的字符集中的字符加载到显示器320上。当接收到触摸输入时,电子设备300可以激活用于检测用户的眼睛的方向的功能。电子设备300可以基于用户的眼睛的方向来选择所加载的字符中的一个。
作为另一示例,包括用于检测用户的头部运动的传感器的电子设备300可以通过使用用户的触摸手势和关于用户的头部运动的信息来接收字符输入。例如,电子设备300可以基于触摸触摸面板310的用户的触摸输入来选择字符集,并且可以将包括在所选择的字符集中的字符加载到显示器320上。当接收到触摸输入时,电子设备300可以激活用于检测用户的头部运动的功能。电子设备300可以基于用户的头部运动来选择所加载的字符中的一个。
通信单元2540以有线或无线方式连接到网络,并且可以与外部设备或服务器通信。通信单元2540可以通过网络发送显示器320上显示的、由处理器350处理的或存储在存储器2570中的信息。此外,通信单元2540可以从外部设备或服务器接收显示器320上显示的、由处理器350处理的或存储在存储器2570中的信息。
通信单元2540可以包括能够与外部设备或服务器通信的一个或多个组件。例如,通信单元2540可以包括短距离通信模块、有线通信模块、移动通信模块、广播接收模块等。
AV输入单元2560被配置为输入音频信号或视频信号,并且可以包括相机2561、麦克风2562等。相机2561可以通过图像传感器获取诸如静态图像和视频的图像帧。由图像传感器拍摄的图像可以由处理器350或单独的图像处理器来处理。
由相机2561处理的图像帧可以存储在存储器2570中或通过通信单元2540发送到外部设备。根据电子设备300的结构,电子设备300可以包括两个或更多个相机2561。
麦克风2562接收外部声音信号,并将接收到的外部声音信号处理为电气声音数据。例如,麦克风2562可以从外部设备或扬声器接收声音信号。麦克风2562可以使用各种噪声去除算法来去除当接收到外部声音信号时生成的噪声。
存储器2570可以存储用于处理器350的处理或控制的程序,并且可以存储输入到电子设备300或者从电子设备300输出的数据。
存储器2570可以包括闪存型存储介质、硬盘型存储介质、多媒体卡微型存储介质、卡式存储器(例如,安全数字(SD)卡、极限数字(XD)存储器等)、随机存取存储器(RAM)、静态RAM(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程ROM(PROM)、磁存储器、磁盘、光盘等中的至少一种存储介质。
存储在存储器2570中的程序可根据其功能被分类为模块。例如,存储在存储器2570中的程序可以被分类为用于提供UI、图形UI(GUI)等的UI模块、用于通过触摸面板310检测触摸手势并且向处理器350发送关于触摸手势的信息的触摸屏模块、用于生成通知电子设备300中的事件的发生的信号的警报模块等。
电源2580将操作电子设备300所需的电力提供给电子设备300的每个组件。电源2580可以包括用于对电力进行充电的电池,并且还可以包括用于从外部设备接收电力的电缆或电缆端口。
图26示出了根据本公开的实施例的包括与移动电话2610结合操作的电子设备300-1、300-2和/或300-3的系统的图。
电子设备300-1、300-2和/或300-3可以独立地操作或可以与诸如移动电话2610的外部设备结合地操作,如图26所示。
参考图26,电子设备300-1、300-2和/或300-3通过触摸面板310将从用户接收的信息发送到移动电话2610,并且可以接收由移动电话2610处理的信息。例如,通过电子设备300-1、300-2和/或300-3的触摸面板310从用户接收的字符输入可以以有线或无线方式发送到移动电话2610。
参考图26,电子设备300包括智能手表300-1、智能手环300-2和智能眼镜300-3,但是本公开不限于此。电子设备300可以是具有各种形状的移动设备。
图26示出了电子设备300-1、300-2和/或300-3与移动电话2610结合操作,但是根据本公开的实施例的电子设备300不限于此。例如,电子设备300可以与智能电话、平板电脑、PC、智能电视(TV)、移动电话、PDA、膝上型计算机、媒体播放器、微服务器、全球定位系统(GPS)、电子书终端、数字广播终端、导航设备、信息亭、MP3播放器、数码相机、其他移动或非移动计算机设备等结合操作。
本公开的某些方面也可以体现为非瞬时计算机可读记录介质上的计算机可读代码。非瞬时计算机可读记录介质是可以存储随后可由计算机系统读取的数据的任何数据存储设备。非瞬时计算机可读记录介质的示例包括只读存储器(ROM)、随机存取存储器(RAM)、紧凑盘ROM(CD-ROM)、磁带、软盘和光数据存储设备。非瞬时计算机可读记录介质也可以分布在网络耦合的计算机系统上,使得计算机可读代码以分布的方式被存储和执行。此外,用于实现本公开的功能程序、代码和代码段可以容易地由本公开所属领域的技术人员解释。
在这一点上,应当注意,如上所述的本公开的各种实施例通常涉及在一定程度上处理输入数据和生成输出数据。该输入数据处理和输出数据生成可以硬件或软件结合硬件实现。例如,可以在移动设备或类似的或相关的电路中采用特定的电子组件来实现与如上所述的本公开的各种实施例相关联的功能。替代地,根据存储的指令操作的一个或多个处理器可以实现与如上所述的本公开的各种实施例相关联的功能。如果是这种情况,则在本公开的范围内,这样的指令可以存储在一个或多个非瞬时处理器可读介质上。处理器可读介质的示例包括ROM、RAM、CD-ROM、磁带、软盘和光数据存储设备。处理器可读介质也可以分布在网络耦合的计算机系统上,使得指令以分布式方式被存储和执行。此外,用于实现本公开的功能计算机程序、指令和指令段可以容易地由本公开所属领域的技术人员解释。
应当理解,本文描述的各种实施例应仅被认为是描述性意义,而不是为了限制的目的。每个实施例中的特征或方面的描述通常应被认为可用于其他实施例中的其他类似特征或方面。
虽然已经参考本公开的各种实施例显示和描述了本公开,但是本领域技术人员将会理解,在不脱离由所附权利要求及其等同物定义的本公开的精神和范围的情况下,可以在形式和细节上进行各种改变。

Claims (15)

1.一种电子设备,包括:
触摸面板,被配置为接收由指点对象生成的触摸输入、和在用指点对象触摸触摸面板的同时移动指点对象的轻扫输入;
处理器,被配置为:
基于触摸输入的属性来选择多个字符集中的一个;以及
基于轻扫输入的属性来选择所选择的字符集中包含的多个字符中的一个;以及
显示器,被配置为显示所选择的字符。
2.根据权利要求1所述的电子设备,其中,处理器还被配置为:
基于触摸输入的属性来选择多个字符集中的一个;以及
控制显示器以显示包括在所选择的字符集中的至少一个字符,
其中,触摸输入的属性包括形成触摸输入的触摸点的数量和触摸面板上接收触摸输入的位置中的至少一个。
3.根据权利要求1所述的电子设备,还包括多个触摸面板,
其中,处理器还被配置为从对应于多个触摸面板的多个字符集中,选择与接收触摸输入的触摸面板相对应的字符集。
4.根据权利要求1所述的电子设备,其中,多个字符集分别对应于其中排列有多个键的计算机键盘的行,并且包括与在所述行中的对应行中包括的多个键相对应的多个字符。
5.根据权利要求1所述的电子设备,其中,轻扫输入的属性包括在轻扫输入期间指点对象移动的方向、指点对象移动的距离和指点对象的移动速度中的至少一个。
6.根据权利要求1所述的电子设备,其中,处理器还被配置为基于从触摸面板上的参考点到触摸输入的起始点的距离、以及在轻扫输入期间指点对象移动的距离,选择多个字符中的一个。
7.根据权利要求1所述的电子设备,
其中,在轻扫输入期间移动指点对象的同时,显示器还被配置为显示包括在所选择的字符集中的多个字符,使得包含在所选择的字符集中并且与指点对象移动的距离相对应的字符与所选择的字符集中包含的其他字符区别开,
其中,处理器还被配置为基于指点对象移动的距离来选择包括在所选择的字符集中的多个字符中的一个。
8.一种由电子设备接收来自用户的字符输入的方法,所述方法包括:
通过包括在电子设备中的触摸面板,接收通过指点对象生成的触摸输入、以及在用指点对象触摸触摸面板的同时移动指点对象的轻扫输入;
基于触摸输入的属性来选择多个字符集中的一个;
基于轻扫输入的属性来选择字符集中包含的多个字符中的一个;以及
显示所选择的字符。
9.根据权利要求8所述的方法,其中,选择多个字符集中的一个包括:
基于触摸输入的属性来选择多个字符集中的一个;以及
显示包括在所选择的字符集中的多个字符中的至少一个,
其中,触摸输入的属性包括形成触摸输入的触摸点的数量和在触摸面板上接收触摸输入的位置中的至少一个。
10.根据权利要求8所述的方法,
其中,电子设备包括多个触摸面板,以及
其中,选择多个字符集中的一个包括:从对应于多个触摸面板的多个字符集中选择与接收触摸输入的触摸面板相对应的字符集。
11.根据权利要求8所述的方法,其中,多个字符集分别对应于其中排列有多个键的计算机键盘的行,并且分别包括与在所述行中的对应行中包括的多个键相对应的多个字符。
12.根据权利要求8所述的方法,其中,轻扫输入的属性包括在轻扫输入期间指点对象移动的方向、指点对象移动的距离以及指点对象的移动速度中的至少一个。
13.根据权利要求8所述的方法,其中,选择多个字符中的一个包括:基于从触摸面板上的参考点到触摸输入的起始点的距离、以及在轻扫输入期间指点对象移动的距离,选择多个字符中的一个。
14.根据权利要求8所述的方法,其中,选择多个字符中的一个包括:
在轻扫输入期间移动指点对象的同时,显示多个字符,使得包含在所选择的字符集中并对应于指点对象移动的距离的字符与所选择的字符集中包含的其他字符区别开;以及
基于指点对象移动的距离来选择所选择的字符集中包含的多个字符中的一个。
15.至少一个非暂时计算机可读记录介质,用于存储被配置为可由至少一个处理器读取的计算机程序,所述计算机程序用于指示至少一个处理器运行用于执行权利要求8所述的方法的计算机处理。
CN201580065659.8A 2014-12-04 2015-12-01 用于接收字符输入的设备及其方法 Pending CN107003735A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020140173237A KR102422793B1 (ko) 2014-12-04 2014-12-04 전자 디바이스 및 전자 디바이스를 통하여 글자 입력을 수신하기 위한 방법
KR10-2014-0173237 2014-12-04
PCT/KR2015/012959 WO2016089074A1 (en) 2014-12-04 2015-12-01 Device and method for receiving character input through the same

Publications (1)

Publication Number Publication Date
CN107003735A true CN107003735A (zh) 2017-08-01

Family

ID=56091968

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580065659.8A Pending CN107003735A (zh) 2014-12-04 2015-12-01 用于接收字符输入的设备及其方法

Country Status (4)

Country Link
US (1) US10331340B2 (zh)
KR (1) KR102422793B1 (zh)
CN (1) CN107003735A (zh)
WO (1) WO2016089074A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111782031A (zh) * 2020-05-26 2020-10-16 北京理工大学 一种基于头动以及手指微手势的文本输入系统及方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI633467B (zh) * 2017-03-17 2018-08-21 巨擘科技股份有限公司 輸入裝置及其製造方法
US11301056B2 (en) 2019-05-10 2022-04-12 Microsoft Technology Licensing, Llc Systems and methods for obfuscating user selections
US11209979B2 (en) 2019-05-10 2021-12-28 Microsoft Technology Licensing, Llc Systems and methods for input interfaces promoting obfuscation of user navigation and selections
US11526273B2 (en) 2019-05-10 2022-12-13 Microsoft Technology Licensing, Llc Systems and methods of selection acknowledgement for interfaces promoting obfuscation of user operations
US11112881B2 (en) 2019-05-10 2021-09-07 Microsoft Technology Licensing, Llc. Systems and methods for identifying user-operated features of input interfaces obfuscating user navigation
US11086514B2 (en) 2019-05-10 2021-08-10 Microsoft Technology Licensing, Llc Systems and methods for obfuscating user navigation and selections directed by free-form input

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005135101A (ja) 2003-10-29 2005-05-26 Sony Ericsson Mobilecommunications Japan Inc 入力装置、携帯端末装置及び入力方法
US20090249258A1 (en) * 2008-03-29 2009-10-01 Thomas Zhiwei Tang Simple Motion Based Input System
US8466934B2 (en) 2009-06-29 2013-06-18 Min Liang Tan Touchscreen interface
EP2320312A1 (en) 2009-11-10 2011-05-11 Research In Motion Limited Portable electronic device and method of controlling same
EP2341420A1 (en) 2010-01-04 2011-07-06 Research In Motion Limited Portable electronic device and method of controlling same
US20110302518A1 (en) * 2010-06-07 2011-12-08 Google Inc. Selecting alternate keyboard characters via motion input
US8203502B1 (en) 2011-05-25 2012-06-19 Google Inc. Wearable heads-up display with integrated finger-tracking input sensor
DE112011105305T5 (de) 2011-06-03 2014-03-13 Google, Inc. Gesten zur Textauswahl
US8223088B1 (en) 2011-06-09 2012-07-17 Google Inc. Multimode input field for a head-mounted display
US10013053B2 (en) * 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
WO2013163943A1 (en) 2012-05-03 2013-11-07 Made in Sense Limited Wristband having user interface and method of using thereof
US9256366B2 (en) * 2012-08-14 2016-02-09 Google Technology Holdings LLC Systems and methods for touch-based two-stage text input
KR20140086473A (ko) 2012-12-28 2014-07-08 삼성전기주식회사 디스플레이 장치 및 이를 이용한 정보 표시 방법
KR101878144B1 (ko) * 2013-11-06 2018-07-13 엘지전자 주식회사 헤드 마운트 디스플레이를 위한 사용자 인터페이스 제공 장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111782031A (zh) * 2020-05-26 2020-10-16 北京理工大学 一种基于头动以及手指微手势的文本输入系统及方法

Also Published As

Publication number Publication date
US20160162183A1 (en) 2016-06-09
US10331340B2 (en) 2019-06-25
KR20160067622A (ko) 2016-06-14
KR102422793B1 (ko) 2022-07-19
WO2016089074A1 (en) 2016-06-09

Similar Documents

Publication Publication Date Title
CN107810470B (zh) 便携式装置和用于改变其屏幕的方法
CN107003735A (zh) 用于接收字符输入的设备及其方法
CN103927113B (zh) 便携式终端及在便携式终端中提供触觉效果的方法
CN105739813B (zh) 用户终端设备及其控制方法
EP3007032B1 (en) Mobile terminal
CN108139778B (zh) 便携式设备和便携式设备的屏幕显示方法
CN103729160B (zh) 多显示设备和多显示方法
CN105518643B (zh) 多显示方法、存储介质和电子装置
EP2919104B1 (en) Information processing device, information processing method, and computer-readable recording medium
RU2672134C2 (ru) Портативный терминал и способ обеспечения тактильного эффекта для блока ввода
KR102264444B1 (ko) 전자 장치에서 기능 실행 방법 및 장치
EP3056949A1 (en) Watch type terminal
US20140285453A1 (en) Portable terminal and method for providing haptic effect
CN109074154A (zh) 增强和/或虚拟现实中的悬停触摸输入补偿
CN106055218A (zh) 显示装置及其控制方法
US10613744B2 (en) Mobile terminal and method for controlling the same
CN103729054A (zh) 多显示设备及其控制方法
CN104424359A (zh) 用于根据字段属性来提供内容的电子设备和方法
KR102072509B1 (ko) 그룹 리코딩 방법, 저장 매체 및 전자 장치
US9544774B2 (en) Mobile terminal and method for controlling the same
CN106843642A (zh) 一种移动终端的交互方法和移动终端
KR101586914B1 (ko) 이동 단말기
CN107924276B (zh) 电子设备及其文本输入方法
KR101695698B1 (ko) 이동 단말기 및 그것의 제어방법
KR20160097698A (ko) 이동 단말기 및 그 제어방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170801

WD01 Invention patent application deemed withdrawn after publication