CN101779188B - 用于提供用户界面的系统和方法 - Google Patents

用于提供用户界面的系统和方法 Download PDF

Info

Publication number
CN101779188B
CN101779188B CN2008801025263A CN200880102526A CN101779188B CN 101779188 B CN101779188 B CN 101779188B CN 2008801025263 A CN2008801025263 A CN 2008801025263A CN 200880102526 A CN200880102526 A CN 200880102526A CN 101779188 B CN101779188 B CN 101779188B
Authority
CN
China
Prior art keywords
window
display
user
character group
logic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2008801025263A
Other languages
English (en)
Other versions
CN101779188A (zh
Inventor
马丁·阿德-霍尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Sony Ericsson Mobile Communications AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Ericsson Mobile Communications AB filed Critical Sony Ericsson Mobile Communications AB
Publication of CN101779188A publication Critical patent/CN101779188A/zh
Application granted granted Critical
Publication of CN101779188B publication Critical patent/CN101779188B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/70Details of telephonic subscriber devices methods for entering alphabetical characters, e.g. multi-tap or dictionary disambiguation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

一种设备可以包括:触敏显示器;以及用于进行以下操作的逻辑:控制所述触敏显示器向用户显示信息,基于所述触敏显示器上确定的输入位置,通过所述触敏显示器提供放大信息窗口,以及基于所提供的窗口内确定的输入位置,从所述放大信息接收选择。显示器上所选区域的缩放功能。帮助所缩放区域内所述显示器上项的选择。支持字符的分级选择。在所述触摸屏上呈现与所述输入位置的偏离的光标。

Description

用于提供用户界面的系统和方法
技术领域
本文所描述的实现总体上涉及输入设备,更具体地涉及可以用在手持设备中的输入设备。
背景技术
诸如移动通信设备这样的设备通常包括用于向该设备输入信息的显示器和键。一般来说,移动设备中包含的显示器和键都很小。显示器和键的这种受限大小抑制了操作者可以与移动设备进行交互的速度,因为通过这些键来输入信息和/或与显示器进行交互必须以非常慢且精确的方式来实现。
发明内容
本发明的一个方案提供了一种移动通信设备。所述移动通信设备可以包括触敏显示器和逻辑,所述逻辑被配置成:控制所述触敏显示器向用户显示信息;基于所述触敏显示器上确定的输入位置,通过所述触敏显示器来提供放大信息窗口;以及基于所提供的窗口内确定的输入位置,通过所述放大信息窗口来接收选择。
另外,所显示的信息包括具有多个选择的界面画面。
另外,所述放大信息包括所述多个选择中的至少一个。
另外,所提供的窗口内确定的输入位置是通过用户的手指或触笔在所述触敏显示器上的位置来确定的。
另外,所提供的窗口内确定的输入位置是通过所述用户将手指或触笔抬离(lift off)所述触敏显示器的位置来确定的。
本发明的另一方案可以提供一种方法。所述方法可以包括以下步骤:通过触敏显示器显示多个字符组;确定所述触敏显示器上的输入位置;基于所确定的输入位置来显示所述多个字符组之一的放大窗口;以及基于所述放大窗口内确定的输入位置或所述放大窗口外确定的输入位置中的至少一个,从所述放大窗口内的字符组中选择所述多个字符之一。
另外,所述多个字符组中的每一个都包括多个字母。
另外,显示多个字符组的步骤包括:通过显示所述多个字符组中的所述多个字母来显示“QWERTY”型键盘。
另外,所显示的所述多个字符组之一的放大窗口包括被所选字符组中的其他字母包围的中心字母。
另外,基于确定的输入位置从所述放大窗口内的所述字符组中选择所述多个字符之一的步骤是通过确定用户将手指抬离所述触敏显示器的表面的位置来确定的。
本发明的另一方案可以提供一种方法。所述方法包括以下步骤:通过触敏显示器来显示界面画面;确定所述触敏显示器上的输入位置;基于所述触敏显示器上所确定的输入位置,在所述界面画面上显示光标(cursor);以及基于所述光标的位置来选择显示在所述界面画面上的备选项。
另外,所述界面画面上所显示的光标被显示在所述触敏显示器上的所确定的输入位置处或偏离所确定的输入位置处。
另外,所确定的输入位置是通过感测用户手指或触笔在所述触敏显示器上的位置来确定的。
另外,基于所述光标的位置而选择的显示在所述界面画面上的备选项是在用户将手指抬离所述触敏显示器的表面时被选择的。
另外,所显示的光标的偏离位置可以基于用户定义的偏好而改变。
本发明的再一方案提供了一种移动通信设备。所述移动通信设备可以包括多个键、显示器以及被配置为进行以下操作的逻辑:控制所述显示器来显示多个字符组,其中,所显示的多个字符组的位置对应于所述多个键的物理位置;基于第一键输入来选择所显示的多个字符组之一;以及基于第二键输入从所显示的字符组中被选中的字符组中选择一个字符。
另外,所述逻辑还可以被配置为控制所述显示器以放大方式显示所选择的字符组。
另外,放大字符在组内的显示位置对应于所述多个键的物理位置。
另外,所显示的多个字符组形成了“QWERTY”型键盘。
另外,所显示的多个字符组中的至少一些包括九个字母。
附图说明
被包括在本说明书中且构成本说明书的一部分的附图示出了多个实施方式,并且与说明书一起解释了这些实施方式。在附图中,
图1示出了移动终端的示例性实现;
图2示出了移动终端的示例性功能图;
图3示出了图2的用户界面逻辑的示例性功能图;
图4是示出示例性过程的流程图;
图5示出了图4的过程的实施例;
图6A-6B示出了图4的过程的其他实施例;
图7是示出另一示例性过程的流程图;
图8示出了图7的过程的实施例;
图9是示出另一示例性过程的流程图;而
图10A-10B示出了图9的过程的实施例。
具体实施方式
本发明的以下详细描述是参照附图来进行的。不同图中的相同标号可以标识相同或类似要素。此外,以下详细描述并不对实施方式构成限制。
本发明的实现可以用来改进设备(例如,通信设备)上的用户界面,例如显示器和键盘。本文所描述的实现可以使用诸如处理设备执行的机器可读指令这样的逻辑,来改变用户界面的外观和/或配置。在一些实例中,用户界面的外观和/或配置的改变可以是受应用控制的。即,当特定应用被启动或被执行或者与特定应用相关联的功能被执行时,用户界面可以基于该特定应用而改变。用户界面的实现可以通过触摸(例如,通过用户的手指)、通过输入设备(例如,触笔)、通过语音和/或通过其他技术和/或设备,来接收用户输入。
示例性实现将在移动终端的环境下进行描述。应该理解,移动终端是可以采用符合这些实施方式的原理的用户界面的设备的例子,不应该被解读为对可以采用本文所描述的用户界面的设备或应用的类型或大小的限制。例如,本文所描述的用户界面可以被用在以下设备上:台式通信设备、家用电器(如微波炉和/或家电遥控器)、汽车电台面板、工业设备(如测试装备)等。
图1示出了符合这些实施方式的原理的移动终端的示例性实现。移动终端100(后文中称为终端100)可以是移动通信设备。本文所使用的“移动通信设备”和/或“移动终端”可以包括:无线电话;个人通信系统(PCS)终端,其可以将蜂窝无线电话与数据处理、传真以及数据通信能力组合在一起;个人数字助理(PDA),其可以包括无线电话、寻呼机、因特网/内联网接入、网络浏览器、电子记事簿、日历和/或全球定位系统(GPS)接收机;以及膝上型和/或掌上型接收机或其他包括无线电话收发机的装置。
终端100可以包括壳体101、包含键112A-L的键盘110、控制键120、扬声器130、显示器140以及麦克风150与150A。壳体101可以包括被配置为支承终端100中使用的设备和组件的结构。例如,壳体101可以由塑料、金属或合成物形成,并且可以被配置为支承键盘110、控制键120、扬声器130、显示器140以及麦克风150与150A。
键盘110可以包括多个键112A-L(总称为键112),它们可以被用户触动而向终端100输入信息。键112的实现可以具有与其相关联的键信息,例如数字、字母、符号等。用户可以与键112进行交互来向终端100输入键信息。例如,用户可以操作键112来向终端100输入数字(digit)、命令和/或文本。
控制键120可以包括多个按钮,这些按钮允许用户与终端100进行交互以使终端100执行动作,例如,通过显示器140来显示文本消息、升高或降低扬声器130的音量设置等。
扬声器130可以包括将可听信息提供给终端100的用户的设备。扬声器130可以位于终端100的上部,并且在用户使用终端100进行通信会话时可以充当听筒。扬声器130还可以充当与终端100上播放的游戏和/或视频图像相关联的音乐和/或音频信息的输出设备。
显示器140可以包括将视觉信息提供给用户的设备。例如,显示器140可以将以下信息提供给终端100的用户:关于来电或去电的信息、文本消息、游戏、电话簿、当前日期/时间、音量设置等。显示器140的实现可以被实现为黑白或彩色显示器,例如液晶显示器(LCD)。显示器140还可以包括可用来向终端100的用户显示图像并接收与所显示的图像相关联的用户输入的设备和/或逻辑。例如,显示器140可以被配置为可显示键盘图像的触敏设备。显示器140的实现可以被配置为在用户与所显示的图像进行交互时接收用户输入。例如,用户可以例如通过用户的手指或者通过其他设备(如触笔)来将输入直接提供给显示器140。通过显示器140而接收到的用户输入可以由终端100中工作的组件或设备来处理。
麦克风150和/或150A可以均包括将语音或其他声音信号转换成供终端100使用的电信号的设备。麦克风150可以被布置得靠近终端100的下侧,并且可以被配置为将所讲的字词或短语转换成供终端100使用的电信号。麦克风150A可以被布置得靠近扬声器130,并且可以被配置为在用户使用终端100进行通信会话时接收用户耳朵附近的声音信号。例如,麦克风150A可以被配置为接收背景噪声作为输入信号,以便使用终端100中的处理逻辑来执行背景噪声消除。
图2示出了符合这些实施方式的原理的移动终端100的示例性功能图。如图2中所示,终端100可以包括处理逻辑210、存储设备(storage)220、用户界面逻辑230、通信接口240、天线组件250以及电源260。
处理逻辑210可以包括处理器、微处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)等。处理逻辑210可以包括用于控制终端100及其组件的操作的数据结构或软件程序。终端100的实现可以使用单独的处理逻辑组件或多个处理逻辑组件,例如并行工作的处理逻辑组件。存储设备220可以包括随机存取存储器(RAM)、只读存储器(ROM)、磁盘或光盘及其对应驱动器,和/或存储有可以被处理逻辑210使用的数据和指令的其他类型的存储器。
用户界面逻辑230可以包括用于向终端100输入信息和/或用于从终端100输出信息的诸如硬件和/或软件的机制。用户界面逻辑230可以包括用于配置显示器140的外观和/或通过显示器140和键盘110来接收用户输入的诸如硬件和/或软件的机制。例如,用户界面逻辑230可以控制显示器140来显示诸如“QWERTY”型键盘的字符键盘,或者另一种类型的键盘。用户界面逻辑230还可以包括用于接受用户输入以终端100的用户可以使用该信息的硬件或软件。例如,可以通过显示器140来显示键盘,并且用户可以使用手指或触笔在显示器140上施加压力来指示对键盘内所显示的键的选择。与用户界面逻辑230相关联的输入和/或输出机制的其他例子还可以包括:扬声器(例如,扬声器130),用于接收电信号并输出音频信号;麦克风(例如,麦克风150或150A),用于接收音频信号并输出电信号;按钮(例如,控制键120),用于允许将数据和控制命令输入到终端100中;和/或显示器(例如,显示器140),用于输出视觉信息。
通信接口240例如可以包括可将来自处理逻辑210的基带信号转换成射频(RF)信号的发射机,和/或可将RF信号转换成基带信号的接收机。另选的是,通信接口240可以包括收发机,用于执行发射机和接收机二者的功能。通信接口240可以连接到天线组件250以发射和接收RF信号。天线组件250可以包括用于在空中发射和接收RF信号的一个或更多个天线。天线组件250可以从通信接口240接收RF信号,并在空中发射这些信号,并且可以在空中接收RF信号并将这些信号提供给通信接口240。
电源260可以包括为终端100的各个部件提供电力的一个或更多个电源。例如,电源260可以包括一个或更多个电池,和/或用于从其他设备(例如,汽车中的附件插座、外部电池,或墙壁插座)接收电力的连接。电源260还可以包括计量逻辑(metering logic),用于向终端100的用户和部件提供与电池电量水平、输出电平、电源故障等有关的信息。
下面将详细描述,符合实施方式的原理的终端100可以执行特定操作,这些特定操作涉及响应于用户输入或者响应于与处理逻辑210相关联的指令而自适应地配置显示器140。终端100可以响应于处理逻辑210执行包含在诸如存储设备220的计算机只读介质中的键盘配置/编程应用的软件指令,而执行这些操作。计算机可读介质可以被定义为物理或逻辑存储器设备和/或载波。
软件指令可以通过通信接口240从另一计算机可读介质或者从其他设备被读入存储设备220中。存储设备220中包含的软件指令可以使处理逻辑210执行将在后面描述的处理。另选的是,硬连线电路可以替换软件指令或者与之组合来实现符合实施方式的原理的处理。因此,本文所描述的实现并不限于硬件电路和软件的任何特定组合。
图3示出了图2的用户界面逻辑230的示例性功能图。用户界面逻辑230可以包括控制逻辑310、显示逻辑320、位置感测逻辑330和缩放窗口逻辑340。
控制逻辑310可以包括:控制显示逻辑320的运行的逻辑、与显示逻辑320一起工作的逻辑,和/或涉及显示逻辑320的处理。控制逻辑310可以被实现为单独的逻辑或者被实现为处理逻辑210的一部分。此外,控制逻辑310可以用硬件或软件来实现。控制逻辑310可以通过键112来接收输入,并且可以从处理逻辑210接收信号,以提供要通过显示器140来显示的图像和/或将信号发送给显示逻辑320。
显示逻辑320可以包括用于向终端100的用户呈现信息的逻辑。显示逻辑320可以包括用于解释信号与指令的处理逻辑,和具有用于向终端100的用户提供信息的显示区域的显示设备(如显示器140)。例如,显示逻辑320可以从控制逻辑310接收图像信号,例如,显示了要被显示的多个备选项的用户界面画面。显示逻辑320还可以从位置感测逻辑330接收信号,并且基于所接收到的位置信号在显示器140上提供光标。显示逻辑320还可以通过将所显示的信息的位置与从位置感测逻辑330接收到的、与显示器140上用户可能触摸到的位置有关的输入位置信号进行比较来确定对所显示信息的选择。
显示逻辑320的实现还可以包括当光穿过其时改变属性的介质,或者显示逻辑320可以包括反射光的介质。例如,显示逻辑320的一个实现可以包括液晶显示(LCD)技术,其包括例如联苯或其他稳定的液晶材料。显示逻辑320的基于LCD的实现可以包括薄膜晶体管(TFT)LCD,其可以包括放置在两个玻璃板之间的液晶结构,所述液晶结构可以被充电以使得液晶结构发生变化,从而改变穿过该液晶结构的光的颜色特性。采用基于LCD的技术的实现可以使用背光或前光来增强显示逻辑320产生的图像的外观。
显示逻辑320还可以包括用于为显示设备的上表面或显示设备的下表面提供照明的逻辑。例如,显示逻辑320可以用来为显示设备(例如,显示器140)的面向用户的上表面提供前光。前光可以通过使显示设备上的信息在四周光照强烈的环境下(例如,在户外观看显示设备)可见性更好来增强显示设备的外观。显示逻辑320还可以用来为显示设备的下表面或后表面(例如,显示设备的远离用户的表面)提供背光。背光可以与显示设备的基于LCD的实现一起使用,以使图像更亮并提高所显示图像的对比度。显示逻辑320的实现可以采用发光二极管(LED)或其他类型的设备来为显示设备的各个部分进行照明。
位置感测逻辑330可以包括感测物体位置的逻辑。例如,位置感测逻辑330可以被配置为确定用户将他/她的手指放置在显示器140上的位置,而不用管用户在显示器140上施加了多大压力。在一个实现中,位置感测逻辑330可以包括可放置在显示器140的上透明或半透明膜。该膜可以被用来根据施加在该膜上的压力量和/或基于压力被施加在膜上的位置,来改变诸如电压或电流的输出。例如,假设用户在膜的左上角对膜进行了按压上。该膜可以产生表示压力被检测到的位置的输出。位置感测逻辑330的实现可以使用热、压力、振动、位置等感测技术来识别并接收输入。位置感测逻辑330还可以使用基于电容性、电阻性、电感性、光学的感测设备来识别物体的存在以及接收经由该物体的输入。位置感测逻辑330可以向显示逻辑320发送例如指示了确定的输入位置的信号。
缩放窗口逻辑340可以包括可通过显示器140来提供放大信息窗口硬的件和/或软件。例如,缩放窗口逻辑340可以从位置感测逻辑330接收识别或确定显示器140上可以接收输入的位置的信号。缩放窗口逻辑340还可以从显示逻辑320接收与当前通过显示器140显示的图像或信息有关的信号。缩放窗口逻辑340然后可以使用接收到的位置和图像信号来提供用于放大图像的窗口,该窗口可以位于显示器140上已经被用户触摸的输入位置。例如,如果显示器140上显示的图像是备选项的菜单,则缩放窗口逻辑340可以提供包含该菜单中的备选项的放大或扩大视图的缩放窗口。
图4是符合本文所描述的原理的示例性处理的流程图。过程400可以开始于向终端100的用户显示信息(框410)。例如,终端100可能正在运行诸如电子邮件或文本消息传送应用这样的应用,其中,处理逻辑210和/或用户界面逻辑230可以生成包括要通过显示器140来显示的信息和/或菜单的用户界面画面,以允许用户创建和发送电子邮件或文本消息。
在显示用户界面和/或信息的同时,终端100可以感测并确定输入位置(框420)。例如,用户可以在显示器140表面上可以通过位置感测逻辑330确定的特定位置上按下他/她的手指。如上所述,位置感测逻辑330可以确定显示器140表面上正被接触的确切位置。位置感测逻辑330然后可以向显示逻辑320和缩放窗口逻辑340发送指示了所确定的输入位置的信号。基于所确定的输入位置,缩放窗口逻辑340可以基于所确定的位置来提供放大信息窗口(框430)。图5中示出了提供放大信息的缩放窗口(框430)的实施例。
如图5中所示,例如,可以通过显示器140向终端100的用户呈现界面画面。当用户触摸显示器140时,位置感测逻辑330确定输入位置或输入点(表示为圆形510)。然后,可以将所确定的输入位置信号发送给缩放窗口逻辑340,以便提供缩放窗口520。例如,缩放窗口520中包含的信息是放大信息(例如,尺寸相比原始显示的界面画面扩大了三倍或更多倍),其非常接近(例如,位于或稍微偏离)由位置感测逻辑330确定的所确定的输入位置。用户偏好设置可以允许缩放窗口520对于右手用户被显示在所确定的输入位置的左侧,而对于左手用户被显示在所确定的输入位置的右侧。特别是在本实施例中,缩放窗口520包含来自原始显示的界面画面的一些文本和指示存储区域的三个图标,其中,被表示为圆形510的输入位置正好位于(覆盖)这些存储区域图标中的一个之上。应该理解,圆形510仅出于说明的目的而被示出,也可以不示出在显示器140上。
继续该实施例,输入位置可以持续地被监控,并且在缩放窗口520内被确定。例如,当用户的手指在显示器140的表面上移过时,位置感测逻辑330可以持续地监控并确定用户的手指的(输入)位置。然后,用户可以在缩放窗口520内移动他们的手指以正好覆盖期望输入选择,例如图标或所显示的菜单内的备选项。一旦通过将用户的手指向上抬离显示器40的表面而使得他/她的手指正好位于输入选择之上,就可以通过使用缩放窗口520内的监视到的抬离点来确定输入选择(框440)。另选的是,当用户更稳固地按在缩放窗口520的特定部分上或轻击缩放窗口时,可以确定输入选择。
例如,缩放窗口逻辑340可以使用从位置感测逻辑330接收到的输入位置信号来确定将哪些与缩放窗口520内监视到的抬离点直接对应的信息(期望输入选择)显示在缩放窗口520中。在该实施例中,如果用户在第一存储图标(被表示为圆形510)上将他/她的手指抬离显示器140的表面,则该第一图标可以被终端100接收为期望输入选择(框440)。在接收期望输入选择的另一实施例中,可以使用对位置的获知和对缩放窗口520进行调整来计算原始画面上的匹配点(选择),而不涉及缩放窗口520中显示的信息(框440)。另外,在基于所确定的抬离位置而接收输入选择之后,终端100可以从显示器140中移除缩放窗口,并例如在原始界面画面上模拟该输入选择。
在其他实施例中,可以在位于缩放窗口520外部的确定的输入位置接收该输入选择(框440)。例如,如果缩放窗口520显示了三个图标,并且用户将他/她的手指水平向右移动并超出缩放窗口520,则显示逻辑320可以确定最右侧的图标是期望选择(框440)。在另一实施例中,如果用户将他/她的手指移动到缩放窗口520的外部,则可以基于用户的新的手指位置来创建新的包含信息(来自于原始显示画面)的缩放窗口(框430)。在该实施例中,随着移动或拖动缩放窗口,当用户轻击缩放窗口内的期望输入选择时,可以接收到输入选择(框440)。在其他实施例中,(代替或除了)用户的手指,还可以使用触笔或输入笔从所显示的缩放窗口中选择输入。例如,可以在框420-430中使用用户的手指,并且可以通过在所提供的缩放窗口中轻击触笔或输入笔来进行输入选择(框440)。
在又一实施例中,可以将额外的图标和/或信息添加到缩放窗口520中。例如,可以将额外的图标添加在缩放窗口520的边沿四周。额外的图标的一些例子可以是“向上翻页”和“向下翻页”图标。用户可以用上述任何方式(例如,触摸图标、停留在图标上或者抬离图标)来选择这些图标之一。在其他实施例中,当用户的手指位置被(位置感测逻辑330)确定为离开缩放窗口520的顶部时,可以选择“向上翻页”图标。类似地,当用户的手指位置被确定为离开缩放窗口520的底部时,可以选择“向下翻页”图标。
可以参照图6A-6B来描述过程400的另一实施例。在该实施例中,终端100包括可以提供多个字符组610-01到610-11(总称为字符组610)的显示器140。在该实施例中,当以所示方式被显示时,字符组610形成了大写或小写的“QWERTY”型键盘(框410)。例如,当终端100正在运行电子邮件或文本消息传送应用时,可以向用户呈现所显示的这种包含字符组610的用户界面。为了选择字符,用户可以触摸当前通过显示器140显示的字符组610。当用户的手指接触显示器140的表面时,位置感测逻辑330确定输入位置(框420)。位置感测逻辑330可以向缩放窗口逻辑340发送指示输入位置的信号,并且可以提供包含放大信息窗口(框430)。如图6B中所示,例如,用户可能已经触摸了字符组610-09(如图6A中所示),并且缩放窗口逻辑340可以基于来自位置感测逻辑330的指示了与字符组610-09相对应的输入位置的信号来提供缩放窗口620。在该实施例中,缩放窗口620包含被包含在字符组610-09中的放大字符(r、t、y、f、g、h、c、v以及b)。
在提供了缩放窗口620之后,用户可以将他/她的手指移到缩放窗口620内显示的期望选择上。例如,当用户的手指在显示器140的表面上移动时,位置感测逻辑330可以继续监视并确定用户的手指的(输入)位置。然后,用户可以在缩放窗口620内将他/她的手指移动到直接覆盖期望输入选择,例如字符r、t、y、f、g、h、c、v以及b之一。一旦用户的手指正好在期望字符之上,通过将他/她的手指向上抬离显示器40的表面就可以通过使用缩放窗口620内的监视到的抬离点来确定输入选择(框440)。
例如,缩放窗口逻辑340可以使用从位置感测逻辑330接收到的输入位置信号来确定将哪些与缩放窗口620内监视到的抬离点直接对应的信息(期望输入选择)显示在缩放窗口620中。在该实施例中,如果用户在“t”字符上将他/她的手指抬离显示器140的表面,则“t”可以被终端100接收为输入选择(框440)。
在其他实施例中,可以根据可能不在缩放窗口620内的抬离点来确定在缩放窗口620中的选择(框440)。例如,如果缩放窗口620被显示,则用户可以通过以下操作来选择“t”字符:将他/她的手指从缩放窗口620的中心向上直线移动并且在位于“t”字符的正上方时将他/她的手指抬离显示器140的表面。以类似的方式,如果缩放窗口620被显示,则用户可以通过以下操作来选择“h”字符:将他/她的手指从缩放窗口620的中心水平移动并且在到达“h”字符的右方时将他/她的手指抬离显示器140的表面。这样,缩放窗口620就可以将显示器140划分成多个角区(angularsection),其中每个字符可以与显示器140的某个角区相关联。在另一实施例中,当用户的手指离开缩放窗口区域时,可以接收输入选择。应该理解,在字符组610中示出的字符或字母的数目仅仅是示例性的。字符组中可以包含并显示更多或更少个字符。另外,可以使用诸如矩形或三角形这样的其他形状来分割字符组610中的单独字符。
在另一实施例中,可以不显示缩放窗口,并且用户可以通过以上述方式移动他/她的手指来选择字符组610中的字符。例如,对于图6A中示出的字符组,如果用户触摸字符组610-04并将他/她的手指在显示器140的表面上水平向左移动,则可以选择“A”字符而无需执行框430(即,无需提供缩放窗口)。
在另一实施方式中,如果用户触摸显示器140上的字符组(框410-420),则可以提供候选下一字词的缩放窗口。在该实施例中,可以出于字词预测的目的而执行过程400,其中,可以将使用最频繁的以所选组中的字符开头的字词显示为输入选择。在另一实施例中,如果用户以上述方式选择字符组610-10,随后选择字符“k”,则可以提供频繁使用的以“k”开头的字词的另一缩放窗口作为输入选择。
在又一实施方式中,在框440中确定了输入选择之后,如果在框440中选择的输入需要或者产生了对备选项的其他选择,则过程400可以在框410继续。例如,可以向用户呈现多个级联的界面画面以执行这样的操作,其中过程400可以针对这多个界面画面中的每一个来执行与框410-440相关联的处理,并且可以正确地提供缩放窗口。应该理解,在级联界面画面的情况下,输入选择(框440)的方法还可以包括停留在输入选择上,并在检测到用户的手指出现在该选择上时立即确定输入选择。
过程400的多次迭代的实施例可以用于录入中文字符。使用针对中文字符的五笔字型法,用户可以首先从以下五个根字符组中进行选择:“撇”、“捺”、“横”、“竖”和“折”,其中这五个根字符组中的每一个都可以是界面画面上提供的备选项(框410)。一旦用户触摸显示器140来选择表示这五个字符组之一的信息或图标,就可以提供包括要选择的进一步备选项的缩放窗口(框420-430)。例如,如果用户选择了“横”字符组,则可以显示包含五类横根字符的缩放窗口。例如,这五类横根字符之一可以包括包含一个横笔画的字符备选项。如果用户选择了包含一个横笔画的字符(框440),则可以提供带有进一步的信息和/或要进行的选择的另一界面画面(或缩放窗口),例如,显示了四个笔画(brush stroke)类型组的界面窗口。继续该实施例,可以基于之前与所选的根字符和一个横笔画有关的选择来提供包含进一步(额外)笔画的另一菜单。这样,就可以提供额外的备选项(通过额外界面画面和/或缩放窗口来提供),直到可以确定并选择中文字符为止。这样,可以按照需要执行多次过程400(基于要进行的选择的数量),以允许用户从用户界面画面中选择期望字符(或其他信息)。如上所述,可以使用以上选择实施例中的任意一个(例如,除了抬离选择之外,还有触摸或停留在输入选择上)来接收输入选择(框440)。
图7是符合本文所描述的原理的示例性处理的流程图。过程700可以开始于向终端100的用户显示信息(框710)。例如,终端100可能正在运行诸如电子邮件或文本消息传送应用这样的应用,其中,处理逻辑210和/或用户界面逻辑230可以生成包括要通过显示器140来显示的信息和/或菜单的用户界面画面,以允许用户创建和发送电子邮件或文本消息。
在显示用户界面和/或信息的同时,终端100可以使用监视到的输入位置来显示并移动光标(框720)。例如,用户可以在显示器140表面上的可以通过位置感测逻辑330确定的特定位置上按下他/她的手指。如上所述,位置感测逻辑330可以确定显示140表面上正被接触的确切位置。位置感测逻辑330然后可以向显示逻辑320发送指示了所确定的输入位置的信号。基于所确定的输入位置,显示逻辑320可以显示基于所确定的输入位置的光标(框720)。显示光标的实施例在图8中示出。
如图8中所示,例如,可以通过显示器140向终端100的用户呈现界面画面。当用户触摸显示器140时,通过位置感测逻辑330来确定输入位置或点(表示为圆形810)。然后,可以将所确定的输入位置信号发送给显示逻辑320以提供光标820。例如,光标820可以被显示为邻近(偏离)输入位置(810),使得用户可以清楚地看到光标820。在该实施例中,用户可以使用界面画面(类似于图5)来存储文档,所述界面画面包括指示了存储区域的三个图标。应该理解,圆形810仅出于说明的目的而被示出,并且可以不在显示器140上被示出。
继续该实施例,可以继续监视并确定输入位置(810)。例如,当用户的手指在显示器140的表面上移过时,位置感测逻辑330可以继续监视、确定并跟随用户的手指的(输入)位置。然后,用户可以移动他/她的手指,使得光标820正好位于期望输入选择(例如,所显示的菜单内的图标或备选项)的上方。一旦光标820正好位于期望输入选择的上方,用户的手指就可以抬离显示器140的表面,以指示输入选择(框730)。这样,终端100就可以显示邻近输入位置的光标,以允许用户选择界面画面上所呈现的信息。应该理解,图8中示出的光标的偏离位置仅仅是示例性的,并且光标820可以在输入位置(810)的下方、左方或右方。在其他实施例中,当用户触摸显示器140时,可以提供额外的图标和/或信息,并且还可以用光标820来选择这些额外的图标和/或信息。
在其他实施例中,过程400或700可以用于拖动事件。例如,用户可以使用缩放窗口或光标和过程400或700(如之前所描述的)来选择显示器140上的滚动条。如果用户快速重复触摸显示器140,则这可以被位置感测逻辑330接收到,然后可以向显示逻辑320发送信号来触发拖动模式。用户手指拖动事件可以被位置感测逻辑330接收,并被显示逻辑320映射成用于拖动滚动条从而跟随手指的信号。当滚动条位于(用户确定的)期望位置时,用户可以将他们的手指抬离显示器140的表面,此时滚动条的位置可以被接收为输入。
图9是符合本文所描述的原理的示例性处理的流程图。过程900可以开始于显示多个字符组来对应终端100上的键(框910)。如图10A中所示,终端100包括可以提供多个字符组1010-01到1010-5(总称为字符组1010)的显示器140。在该实施例中,当以所示方式被显示时,字符组1010-2到1010-5形成了“QWERTY”型键盘。如上所描述的,例如,当终端100正在运行电子邮件或文本消息传送应用时,可以呈现给用户所显示的这种包含字符组1010的用户界面。
在该示例性实施方式中,任何时候都可以一次显示总共九个字符组1010,其中所显示的每个字符组1010的位置都对应于键112中标号为“1”到“9”的各个键的物理位置。在图10A中所示的实施例中,所显示的字符组1010-1的位置对应于“4”键,字符组1010-2的位置对应于“6”键,字符组1010-3的位置对应于“7”键,字符组1010-4的位置对应于“8”键,而字符组1010-5的位置对应于“9”键。在另选实现中,可以显示其他标号(number)的字符组。
为了选择字母,用户可以按下与所显示的包含期望字母的字符组1010相关联的键。当用户按下键时,该输入可以被接收为对所显示的字符组的选择(框920)。例如,用户想要输入“s”,则可以按下“7”键。响应于终端100接收到该输入,所选择的字符组1010-3被放大(框930)。继续该实施例,图10B示出了所选择的字符组(1010-3),其被显示为缩放窗口1020内的放大文本。在该实施例中,控制逻辑310可以向缩放窗口逻辑340发送指示“7”键已经被按下的信号,并且可以提供包含(与“7”键相关联的)放大字母的窗口。
如图10B中所示,例如,缩放窗口1020包含了字符组1010-3中所包含的放大字符q、w、e、a、s、d、\、z以及x。在提供了缩放窗口之后,用户可以按下某一键来选择缩放窗口1020内的特定字母。当用户按下某一键时,这可以被接收为对所显示的字符组内的某个字母的输入选择(框940)。在该实施例中,缩放窗口1020内所显示的字母的位置也对应于键112的物理位置。例如,“1”键与“q”对应,“2”键与“w”对应,“3”键与“e”对应,“4”键与“a”对应,“5”键与“s”对应,“6”键与“d”对应,“7”键与“\”对应,“8”键与“z”对应,而“9”键与“x”对应。例如,如果用户按下了“5”键,则控制逻辑310可以确定键112中的“5”键已经被按下,并且控制显示器140显示“s”。
在其他实施例中,过程900可以在没有框930的情况下进行。例如,用户可以按下第一键来选择字符组(框920),然后可以按下第二键来从所选字符组中选择某个字母(框940),而不用提供在框920中选择的字符组1010的缩放窗口。在其他实施例中,在可能需要级联的字符组时,过程900可以(在框940之后)继续到框920。
应该理解,上面所示出和描述的示例性实施方式和用户界面画面是出于说明的目的,不应该受限于所描述的那些实施例。另外,终端100可以基于终端100的用户所启动的应用、与终端100中包括的特定应用/设备相关联的功能的执行,或者一些其他应用特定事件,来控制并自动重新配置显示器140的外观。例如,如果终端100包括媒体播放器并且用户开始使用该媒体播放器,则用户界面逻辑230可以改变显示器140的外观以提供与媒体播放器有关的输入。在另一实例中,终端100可以包括摄像机功能。如果终端100的用户按下了与摄像机相关联的快门按钮,则终端100可以改变显示器140的外观以适应摄像机功能的显示器。
结论
符合实施方式的原理的实现可有助于提供多种用户输入的用户界面系统和方法。
前面对优选实施方式的描述提供了说明和描述,但是并不是要将这些实施方式穷尽或者限制为所公开的精确形式。修改和变化根据上面的教导是可能的,或者可以从这些实施方式的实践中获得。
尽管参照图4、7和9描述了一系列动作,但是在其他符合实施方式的原理的实现中,可以更改这些动作的顺序。此外,可以并行地执行独立的动作。
本领域技术人员可以想到是,上面所描述的实施方式的方案在图中示出的实现中可以用许多不同形式的软件、固件和硬件来实现。用于实现符合实施方式的原理的方案的实际软件代码或专用控制硬件是非限制性的。因此,未参照具体软件代码来描述这些方案的操作和行为——应该理解,本领域技术人员将能够基于本文的描述设计软件并控制硬件来实现这些方案。
此外,本发明的某些部分可以被实现为执行一个或更多个功能的“逻辑”。该逻辑可以包括硬件(如硬件逻辑、专用集成电路、现场可编程门阵列、处理器或微处理器)、软件,或者硬件和软件的组合。
应该强调的是,说明书中使用的措辞“包括”意指存在所陈述的特征、要件、步骤或组件,但是并不排除存在或添加一个或更多个其他特征、要件、步骤、组件和/或其组成的组。
除非明确说明,否则本申请中使用的任何元件、操作或指令都不应该被解读为对于本文所描述的实施方式是关键或实质性的。此外,本文所使用的未明确单复数的表述意图包括一个或更多个项。在意图仅有一个的情况下,使用“一个”或者类似的语言。此外,除非明确阐述,否则短语“基于”意图指“至少部分基于”。

Claims (9)

1.一种用于提供用户界面的方法,该方法包括以下步骤:
通过触敏显示器在界面画面中显示包括第一信息的第一窗口;
确定所述触敏显示器上的输入位置;
基于所确定出的在所述触敏显示器上的输入位置,在不同于第一窗口的第二个窗口显示放大信息,其中所显示的放大信息对应于在所述第一窗口中所显示的显示信息的第一部分,所述第二窗口与所述第一窗口同时地被显示;
通过所述第二窗口,基于所确定出的在所述第二窗口内的第二输入位置,从所述放大信息检测对第二信息的选择;基于所述触敏显示器上所确定的输入位置,在所述界面画面上显示光标;以及
基于所述光标的位置的改变来拖动所述界面画面上的滚动条。
2.根据权利要求1所述的方法,其中,所述界面画面上所显示的光标被显示在所述触敏显示器上的所确定的输入位置处或偏离所确定的输入位置处。
3.根据权利要求2所述的方法,其中,所确定的输入位置是通过感测用户的手指或触笔在所述触敏显示器上的位置来确定的。
4.根据权利要求2所述的方法,其中,所显示的光标的偏离位置可以基于用户定义的偏好而改变。
5.一种用于提供用户界面的装置,该装置包括:
用于通过第一窗口控制显示器来显示多个字符组的装置,其中,所显示的多个字符组的位置对应于键盘的多个数字键的物理位置,所述多个数字键中的每一个数字键都对应于所显示的一个不同字符组;
用于基于第一数字键输入来选择所显示的多个字符组中的第一个字符组的装置;
用于在所述显示器上提供放大窗口的装置,该放大窗口包括所显示的多个字符组中的所述第一个字符组,所述放大窗口与所述第一窗口同时地被显示;以及
用于基于第二数字键输入从所显示的多个字符组中的所述第一个字符组中选择一个字符的装置,所述第二数字键输入对应于所选的那一个字符的位置。
6.根据权利要求5所述的用于提供用户界面的装置,进一步包括:
用于控制所述显示器以放大方式显示所显示的多个字符组中的所述第一个字符组中的每一个字符的装置。
7.根据权利要求6所述的用于提供用户界面的装置,其中,放大字符在所显示的字符组内的显示位置对应于所述多个数字键的物理位置。
8.根据权利要求5所述的用于提供用户界面的装置,其中,所显示的多个字符组中的所述第一个字符组形成了“QWERTY”型键盘。
9.根据权利要求5所述的用于提供用户界面的装置,其中,所显示的字符组中的至少一些包括九个字母。
CN2008801025263A 2007-08-16 2008-02-14 用于提供用户界面的系统和方法 Active CN101779188B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/839,636 US8471823B2 (en) 2007-08-16 2007-08-16 Systems and methods for providing a user interface
US11/839,636 2007-08-16
PCT/IB2008/050542 WO2009022243A1 (en) 2007-08-16 2008-02-14 Systems and methods for providing a user interface

Publications (2)

Publication Number Publication Date
CN101779188A CN101779188A (zh) 2010-07-14
CN101779188B true CN101779188B (zh) 2013-09-18

Family

ID=39523840

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008801025263A Active CN101779188B (zh) 2007-08-16 2008-02-14 用于提供用户界面的系统和方法

Country Status (6)

Country Link
US (2) US8471823B2 (zh)
EP (2) EP2176735A1 (zh)
CN (1) CN101779188B (zh)
ES (1) ES2833002T3 (zh)
HU (1) HUE051870T2 (zh)
WO (1) WO2009022243A1 (zh)

Families Citing this family (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8401212B2 (en) 2007-10-12 2013-03-19 Earlens Corporation Multifunction system and method for integrated hearing and communication with noise cancellation and feedback management
ITVI20050199A1 (it) * 2005-07-18 2007-01-19 Daint Srl Distributore automatico
US8570278B2 (en) 2006-10-26 2013-10-29 Apple Inc. Portable multifunction device, method, and graphical user interface for adjusting an insertion point marker
US7856605B2 (en) 2006-10-26 2010-12-21 Apple Inc. Method, system, and graphical user interface for positioning an insertion marker in a touch screen display
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
KR100797124B1 (ko) * 2007-04-30 2008-01-22 삼성전자주식회사 휴대 단말기 및 그의 선호 아이템 표시 방법
US20090044124A1 (en) * 2007-08-06 2009-02-12 Nokia Corporation Method, apparatus and computer program product for facilitating data entry using an offset connection element
US9274698B2 (en) * 2007-10-26 2016-03-01 Blackberry Limited Electronic device and method of controlling same
US8244294B2 (en) * 2007-12-10 2012-08-14 Lg Electronics Inc. Character input apparatus and method for mobile terminal
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US20090295788A1 (en) * 2008-06-03 2009-12-03 Microsoft Corporation Visually emphasizing peripheral portions of a user interface
WO2009155358A1 (en) 2008-06-17 2009-12-23 Earlens Corporation Optical electro-mechanical hearing devices with separate power and signal components
WO2010033932A1 (en) 2008-09-22 2010-03-25 Earlens Corporation Transducer devices and methods for hearing
US8402391B1 (en) * 2008-09-25 2013-03-19 Apple, Inc. Collaboration system
US20100107067A1 (en) * 2008-10-27 2010-04-29 Nokia Corporation Input on touch based user interfaces
US20100107066A1 (en) * 2008-10-27 2010-04-29 Nokia Corporation scrolling for a touch based graphical user interface
US20100214218A1 (en) * 2009-02-20 2010-08-26 Nokia Corporation Virtual mouse
US9524094B2 (en) * 2009-02-20 2016-12-20 Nokia Technologies Oy Method and apparatus for causing display of a cursor
US9229615B2 (en) * 2009-02-23 2016-01-05 Nokia Technologies Oy Method and apparatus for displaying additional information items
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US8255830B2 (en) 2009-03-16 2012-08-28 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US20100302176A1 (en) * 2009-05-29 2010-12-02 Nokia Corporation Zoom-in functionality
JP5326912B2 (ja) * 2009-07-31 2013-10-30 ブラザー工業株式会社 印刷装置、合成画像データ生成装置、及び、合成画像データ生成プログラム
KR101630754B1 (ko) * 2009-10-16 2016-06-24 삼성전자주식회사 디스플레이 장치 및 인터페이스 방법
US9678659B2 (en) * 2009-12-31 2017-06-13 Verizon Patent And Licensing Inc. Text entry for a touch screen
DE102010002402A1 (de) * 2010-02-26 2011-09-01 Endress + Hauser Conducta Gesellschaft für Mess- und Regeltechnik mbH + Co. KG Feldgerät der Prozessautomatisierungstechnik, sowie Verfahren zum Editieren von Text und/oder Zahlen, und Vorrichtung mit einer Anzeigeeinheit und mit einer Bedieneinheit
US20110289462A1 (en) * 2010-05-20 2011-11-24 Microsoft Corporation Computing Device Magnification Gesture
EP2577430A4 (en) * 2010-05-24 2016-03-16 Will John Temple MULTIDIRECTIONAL BUTTON, KEY AND KEYBOARD
AU2016204284B2 (en) * 2010-06-14 2017-12-07 Apple Inc. Control selection approximation
AU2014200702C1 (en) * 2010-06-14 2016-09-29 Apple Inc. Control selection approximation
US8552999B2 (en) 2010-06-14 2013-10-08 Apple Inc. Control selection approximation
GB2482339A (en) 2010-07-30 2012-02-01 Jaguar Cars Computing device with improved function element selection
WO2012088187A2 (en) 2010-12-20 2012-06-28 SoundBeam LLC Anatomically customized ear canal hearing apparatus
KR20120082102A (ko) * 2011-01-13 2012-07-23 삼성전자주식회사 터치 영역에서 타깃 선택 방법
KR101838696B1 (ko) * 2011-01-24 2018-04-26 삼성전자주식회사 터치스크린 기반 웹브라이저 환경에서 링크 개체 선택 방법 및 장치
US20140082559A1 (en) * 2011-02-22 2014-03-20 Bradley Neal Suggs Control area for facilitating user input
JP5853394B2 (ja) * 2011-04-07 2016-02-09 セイコーエプソン株式会社 カーソル表示システム、カーソル表示方法、及び、プロジェクター
US9092130B2 (en) * 2011-05-31 2015-07-28 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
CN102855074A (zh) * 2011-06-30 2013-01-02 安凯(广州)微电子技术有限公司 一种触屏操作方法
US9310941B2 (en) * 2011-10-04 2016-04-12 Atmel Corporation Touch sensor input tool with offset between touch icon and input icon
WO2013123124A1 (en) * 2012-02-15 2013-08-22 Keyless Systems Ltd. Improved data entry systems
US8812983B2 (en) * 2012-02-17 2014-08-19 Lenovo (Singapore) Pte. Ltd. Automatic magnification and selection confirmation
US20140068424A1 (en) * 2012-08-31 2014-03-06 Adil Dhanani Gesture-based navigation using visual page indicators
WO2014103634A1 (ja) * 2012-12-26 2014-07-03 グリー株式会社 表示処理方法及び情報装置
CN103135930B (zh) * 2013-02-05 2017-04-05 深圳市金立通信设备有限公司 一种触摸屏控制方法及设备
KR102155836B1 (ko) * 2013-02-22 2020-09-14 삼성전자주식회사 터치 스크린 상에서 객체 디스플레이를 제어하는 휴대 단말 및 방법
CN104049854B (zh) * 2013-03-11 2018-04-27 联想(北京)有限公司 显示处理方法和电子设备
JP6136568B2 (ja) * 2013-05-23 2017-05-31 富士通株式会社 情報処理装置および入力制御プログラム
CN104854547B (zh) * 2013-06-03 2018-11-06 东莞宇龙通信科技有限公司 功能控件的显示处理方法和显示处理系统
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
US20140372939A1 (en) * 2013-06-17 2014-12-18 Zamurai Corporation Systems and methods for assisting in selection and placement of graphical objects in a graphical user interface
CN103616973B (zh) * 2013-12-04 2017-07-14 惠州Tcl移动通信有限公司 一种触摸屏的操作方法及触摸屏设备
CN104428745A (zh) * 2014-01-24 2015-03-18 华为终端有限公司 一种输入字符的方法和电子设备
US10034103B2 (en) 2014-03-18 2018-07-24 Earlens Corporation High fidelity and reduced feedback contact hearing apparatus and methods
EP3169396B1 (en) 2014-07-14 2021-04-21 Earlens Corporation Sliding bias and peak limiting for optical hearing devices
US9924276B2 (en) 2014-11-26 2018-03-20 Earlens Corporation Adjustable venting for hearing instruments
EP3355801B1 (en) 2015-10-02 2021-05-19 Earlens Corporation Drug delivery customized ear canal apparatus
US10492010B2 (en) 2015-12-30 2019-11-26 Earlens Corporations Damping in contact hearing systems
US11350226B2 (en) 2015-12-30 2022-05-31 Earlens Corporation Charging protocol for rechargeable hearing systems
US10306381B2 (en) 2015-12-30 2019-05-28 Earlens Corporation Charging protocol for rechargable hearing systems
US10324599B2 (en) * 2016-03-30 2019-06-18 Microsoft Technology Licensing, Llc Assistive move handle for object interaction
EP3510796A4 (en) 2016-09-09 2020-04-29 Earlens Corporation CONTACT HEARING SYSTEMS, DEVICE AND METHOD
WO2018093733A1 (en) 2016-11-15 2018-05-24 Earlens Corporation Improved impression procedure
JP6594359B2 (ja) 2017-01-31 2019-10-23 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
WO2019173470A1 (en) 2018-03-07 2019-09-12 Earlens Corporation Contact hearing device and retention structure materials
WO2019199680A1 (en) 2018-04-09 2019-10-17 Earlens Corporation Dynamic filter
US10754526B2 (en) * 2018-12-20 2020-08-25 Microsoft Technology Licensing, Llc Interactive viewing system
US10942633B2 (en) 2018-12-20 2021-03-09 Microsoft Technology Licensing, Llc Interactive viewing and editing system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0795811A1 (en) * 1996-03-12 1997-09-17 Ncr International Inc. Display system and method of moving a cursor of the display screen
GB2332293A (en) * 1997-12-11 1999-06-16 British Telecomm An Input Device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5196838A (en) * 1990-12-28 1993-03-23 Apple Computer, Inc. Intelligent scrolling
US5621438A (en) * 1992-10-12 1997-04-15 Hitachi, Ltd. Pointing information processing apparatus with pointing function
KR100278359B1 (ko) * 1997-02-14 2001-01-15 윤종용 화면확대 포인트입력기능을 갖는 컴퓨터장치 및 그 제어방법
US6073036A (en) 1997-04-28 2000-06-06 Nokia Mobile Phones Limited Mobile station with touch input having automatic symbol magnification function
US6169538B1 (en) * 1998-08-13 2001-01-02 Motorola, Inc. Method and apparatus for implementing a graphical user interface keyboard and a text buffer on electronic devices
US6204848B1 (en) * 1999-04-14 2001-03-20 Motorola, Inc. Data entry apparatus having a limited number of character keys and method
US7075512B1 (en) * 2002-02-07 2006-07-11 Palmsource, Inc. Method and system for navigating a display screen for locating a desired item of information
US7551187B2 (en) * 2004-02-10 2009-06-23 Microsoft Corporation Systems and methods that utilize a dynamic digital zooming interface in connection with digital inking
US8009146B2 (en) * 2007-06-28 2011-08-30 Nokia Corporation Method, apparatus and computer program product for facilitating data entry via a touchscreen

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0795811A1 (en) * 1996-03-12 1997-09-17 Ncr International Inc. Display system and method of moving a cursor of the display screen
GB2332293A (en) * 1997-12-11 1999-06-16 British Telecomm An Input Device

Also Published As

Publication number Publication date
US20130285962A1 (en) 2013-10-31
HUE051870T2 (hu) 2021-03-29
US9141279B2 (en) 2015-09-22
US8471823B2 (en) 2013-06-25
US20090048000A1 (en) 2009-02-19
CN101779188A (zh) 2010-07-14
EP2176735A1 (en) 2010-04-21
ES2833002T3 (es) 2021-06-14
EP3101519B1 (en) 2020-08-19
WO2009022243A1 (en) 2009-02-19
EP3101519A1 (en) 2016-12-07

Similar Documents

Publication Publication Date Title
CN101779188B (zh) 用于提供用户界面的系统和方法
CN112527431B (zh) 一种微件处理方法以及相关装置
US9569071B2 (en) Method and apparatus for operating graphic menu bar and recording medium using the same
US7969421B2 (en) Apparatus and method for inputting character using touch screen in portable terminal
US20090265657A1 (en) Method and apparatus for operating graphic menu bar and recording medium using the same
CN108121457B (zh) 提供字符输入界面的方法和设备
US9035883B2 (en) Systems and methods for modifying virtual keyboards on a user interface
KR100617821B1 (ko) 사용자 인터페이스 장치 및 방법
US20130120271A1 (en) Data input method and apparatus for mobile terminal having touchscreen
US20110193787A1 (en) Input mechanism for providing dynamically protruding surfaces for user interaction
US20100207870A1 (en) Device and method for inputting special symbol in apparatus having touch screen
US20110154268A1 (en) Method and apparatus for operating in pointing and enhanced gesturing modes
KR100821161B1 (ko) 터치스크린을 이용한 문자 입력방법 및 장치
CN102099768A (zh) 触摸屏幕中用于键模拟的触觉反馈
JP2013257694A (ja) 装置、方法、及びプログラム
EP3190482B1 (en) Electronic device, character input module and method for selecting characters thereof
CN102349042A (zh) 用于在图形用户界面小部件中使用纹理的系统和方法
US10216409B2 (en) Display apparatus and user interface providing method thereof
KR20140106801A (ko) 시각 장애인들을 위한 휴대 단말기의 음성 서비스 지원 방법 및 장치
EP4160370A1 (en) Icon arrangement method, electronic device, and storage medium
CN108475161A (zh) 显示方法及终端
CN106371745A (zh) 一种界面切换方法及移动终端
KR200477008Y1 (ko) 마우스 겸용 스마트폰
CN106383660A (zh) 一种音频文件的操作控制方法及移动终端
KR101919515B1 (ko) 터치스크린을 구비하는 단말에서 데이터 입력 방법 및 장치

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C56 Change in the name or address of the patentee
CP01 Change in the name or title of a patent holder

Address after: Longde, Sweden

Patentee after: SONY MOBILE COMMUNICATIONS Inc.

Address before: Longde, Sweden

Patentee before: SONY ERICSSON MOBILE COMMUNICATIONS AB

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160330

Address after: California, USA

Patentee after: SNAPTRACK, Inc.

Address before: Tokyo, Japan

Patentee before: Sony Mobile Communications Japan Co.,Ltd.

Effective date of registration: 20160330

Address after: Tokyo, Japan

Patentee after: Sony Mobile Communications Japan Co.,Ltd.

Address before: Longde, Sweden

Patentee before: SONY MOBILE COMMUNICATIONS Inc.

TR01 Transfer of patent right

Effective date of registration: 20171110

Address after: California, USA

Patentee after: QUALCOMM Inc.

Address before: California, USA

Patentee before: Snaptrack, Inc.

TR01 Transfer of patent right