CN102576279A - 用户界面 - Google Patents

用户界面 Download PDF

Info

Publication number
CN102576279A
CN102576279A CN2010800292527A CN201080029252A CN102576279A CN 102576279 A CN102576279 A CN 102576279A CN 2010800292527 A CN2010800292527 A CN 2010800292527A CN 201080029252 A CN201080029252 A CN 201080029252A CN 102576279 A CN102576279 A CN 102576279A
Authority
CN
China
Prior art keywords
screen
touch
directing object
size
displacement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2010800292527A
Other languages
English (en)
Other versions
CN102576279B (zh
Inventor
谭明梁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Razer Devices (asia Pacific) Pte Ltd
Razer Asia Pacific Pte Ltd
Original Assignee
Razer Devices (asia Pacific) Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Razer Devices (asia Pacific) Pte Ltd filed Critical Razer Devices (asia Pacific) Pte Ltd
Publication of CN102576279A publication Critical patent/CN102576279A/zh
Application granted granted Critical
Publication of CN102576279B publication Critical patent/CN102576279B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/24Generation of individual character patterns
    • G09G5/26Generation of individual character patterns for modifying the character dimensions, e.g. double width, double height
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种包括显示屏和输入装置的用户界面。例如,所述输入装置为触摸屏、触摸板和一个或多个接近度传感器。所述输入装置检测输入事件,具体而言,与所述输入装置接近的指示物体。所述输入事件的参数包括所述指示物体与所述输入装置的距离、所述指示物体朝所述输入装置的位移速度、所述指示物体朝所述输入装置的位移方向以及所述指示物体相对于所述输入装置的平面的位移方向。所述显示屏实现输出事件或放大事件。所述显示屏上的视野(即,所述显示屏上的区域)被放大。放大倍率、即将放大的视野的大小和所得的放大视野的大小中的至少一项取决于所述输入事件的所述参数中的至少一个参数。本发明还提供一种用于响应于所述输入装置所产生的信号而对所述显示屏所实现的放大事件进行控制的用户界面方法。

Description

用户界面
技术领域
本发明大体上涉及电子装置的触摸屏技术。确切地说,本发明涉及实施于便携式电子装置中以用于将输入事件转换成在显示屏上显示的放大率可受控制的图像的触摸屏技术。
背景技术
触摸屏界面在示例性电子计算装置中的使用越来越普遍,所述装置例如,平板电脑、个人数字助理(PDA)、手持式音频和视频控制系统、便携式音乐和视频播放器以及手机和卫星电话。这主要是因为触摸屏界面方便易用、操作通用而且非常美观。触摸屏界面通常包括触敏表面(可称为触摸屏)和显示屏。触敏表面,即触摸屏,通常覆盖显示屏的指定部分或与所述部分同延(coextensive)。
目前,已将许多触摸屏技术实施于触摸屏界面,从而使此类触摸屏界面能够确定一个或多个物体(例如,手指、手写笔和触笔)的存在、位置和运动中的一项或多项。触摸屏技术的类型包括阻抗技术、电容技术、电感技术、光学(IR)技术和声学技术。
触摸屏界面通常用作用户界面,或电子装置的用户与电子计算装置相互作用所用的构件。触摸屏界面的触摸屏用作电子计算装置的输入构件,以用于接收输入事件(例如,使用户能够将指令输入触摸屏)。触摸屏通常能够检测或记录与所述触摸屏接近或直接与所述触摸屏接触的指示物体(pointingobject)(即,输入事件)。触摸屏检测输入事件从而触发输入信号的产生。将输入信号转换成输出信号,从而产生由电子计算装置的输出装置实现(例如,由显示屏实现)的输出事件。
示例性电子计算装置的触摸屏界面正越变越小。因此,显示屏上所显示的文本、光标、图形和图标的大小也在变小。通常情况下,指示物体相对于显示屏上所显示的文本、光标、图形和图标的触摸区域很难减小。因此,准确移动和/或选择触摸屏界面的显示屏上所显示的所需特定光标或图标的要求越来越难以实现。
通常,当指示物体置于触摸屏界面的触摸屏上或甚至在与所述触摸屏接近时,会大幅度遮掩指示物体所接触或所接近的触摸屏区域的视野。因此会导致用户无法准确查看、移动或选择与触摸屏上的所述区域对应的、由显示屏显示的特定光标或图标。此外,目前所显示的较小图形和图标可导致用户难以查看和/或选择此类图形和图标,尤其是在用户需要快速查看和/或选择时。
现有的触摸屏技术可以在检测出手指、手写笔或替代性指示物体的触摸之后让用户放大触摸屏界面上的指定区域。苹果电脑公司(Apple ComputerInc.)的第11/240,788号美国专利申请案公开了能够感测出位于电子装置的显示表面上和/或与所述显示表面接近的物体的基于接近度的系统及方法。第11/240,788号美国专利申请案进一步公开了在显示表面上方的空间中检测出物体时,展开接近于物体位置的图形信息区域的功能。然而,第11/240,788号美国专利申请案所公开的系统和方法仍存在一些限制。例如,据说在对物体的感测或检测的控制方面比较薄弱。因此,可能难以防止显示表面区域遭到意外或不必要的启动和放大。此外,第11/240,788号美国专利申请案所公开的系统或方法无法对显示屏上所显示的图像的放大进行动态控制。
因此,需要在电子计算装置中添加改良式触摸屏或类似界面。
发明内容
根据本发明的第一方面,公开一种用于响应于输入事件而对显示屏上的放大事件进行控制的用户界面方法。所述用户界面方法包括用输入装置检测输入事件,以及确定所述输入事件中的多个参数中的至少一个参数,所述多个参数包括指示物体与输入装置的距离以及指示物体朝输入装置的位移速度。所述用户界面方法进一步包括将输入事件的多个参数中的至少一个参数与以下项中的至少一项相关:放大倍数、视野大小,以及针对放大事件所得的放大视野的大小。
根据本发明的第二方面,公开一种用于响应于输入事件的至少一个参数而对显示屏的放大事件进行控制的触摸屏界面方法。所述触摸屏界面方法包括检测与触摸屏接近的指示物体,以及确定输入事件的多个参数中的至少一个参数,所述多个参数包括指示物体与触摸屏的距离以及指示物体朝触摸屏的位移速度。所述触摸屏界面方法进一步包括确定以下项中的至少一项:放大倍数、视野大小,以及针对放大事件所得的放大视野的大小,所确定的放大倍数、视野大小以及针对放大事件所得的放大视野的大小中的至少一项与输入事件的多个参数中的至少一个参数相关。
根据本发明的第三方面,公开一种用于响应于输入事件而对显示屏上的放大事件的参数进行控制的用户界面方法。所述用户界面方法包括确定输入事件的多个参数中的至少一个参数,所述输入事件的多个参数包括指示物体与触摸屏的距离、指示物体朝触摸屏的位移速度、指示物体朝触摸屏的位移方向以及指示物体平行于触摸屏的平面的位移方向。所述用户界面方法进一步包括将放大事件的至少一个参数与输入事件的多个参数中的至少一个参数相关,所述放大事件的至少一个参数从包括以下项的组中选择:放大倍数、视野大小,以及关于放大事件所得的放大视野的大小。
根据本发明的第四方面,公开一种用户界面,其包括接近度传感器,用于检测接近于所述接近度传感器的指示物体并产生输入信号。输入信号在获得处理后提供关于以下项中的至少一项的信息:指示物体与触摸屏的距离、指示物体朝触摸屏的位移速度、指示物体朝触摸屏的位移方向以及指示物体平行于触摸屏的平面的位移方向。所述电子装置进一步包括与接近度传感器进行信号通信的显示屏,用于实现放大事件。所述放大事件具有对应于以下项中的至少一项的至少一个参数:指示物体与触摸屏的距离、指示物体朝触摸屏的位移速度、指示物体朝触摸屏的位移方向以及指示物体平行于触摸屏的平面的位移方向。所述至少一个参数从以下项中选择:放大事件的放大倍率、放大事件的视野大小,以及所放大的视野大小。
根据本发明的第五方面,公开一种电子装置,其包括:触摸屏,所述触摸屏能够检测接近于所述触摸屏的指示物体,从而产生输入信号;以及处理器,所述处理器用于从触摸屏接收输入信号并处理所述输入信号,从而确定指示物体与触摸屏的距离和指示物体朝触摸屏的位移速度中的至少一项。用户界面进一步包括用于实现放大事件的显示屏,所述放大事件具有和指示物体与触摸屏的距离以及指示物体朝触摸屏的位移速度中的至少一个相关的至少一个参数。所述至少一个参数是以下项中的至少一项:放大事件的放大倍率、放大事件的视野大小,以及所放大的视野大小。
根据本发明的第六方面,公开一种输入装置,其包括:至少一个传感器,用于检测输入事件并产生输入信号;以及用于处理所述输入信号以便确定输入事件的多个参数中的至少一个参数的模块。所述多个参数包括:指示物体与至少一个传感器的距离、指示物体朝至少一个传感器的位移速度、指示物体朝至少一个传感器的位移方向以及指示物体相对于至少一个传感器的位移方向。所述模块还将输入事件的多个参数中的至少一个参数与显示屏所执行的放大事件的多个参数中的至少一个参数相关。放大事件的多个参数包括放大倍率、放大事件的视野大小,以及所放大的视野大小。
附图说明
本文参考附图描述本发明的各实施例,在附图中:
图1为根据本发明的若干项实施例的增加了用户界面的电子计算系统的框图;
图2为根据本发明的某些实施例的增加了触摸屏界面的代表性电子计算装置的示意图;
图3为有指示物体接近的图2所示代表性电子计算装置的局部侧视图;
图4a所示为在显示屏上放大的不同视野大小;
图4b所示为显示屏上所得的不同大小的放大视野;
图5为根据本发明的一项实施例的用户界面方法的流程图;以及
图6为图5所示的用户界面方法的方法步骤中所执行的编程过程的流程图。
具体实施方式
触摸屏技术通常用于示例性电子计算装置,例如,平板电脑、个人数字助理(PDA)、音频和视频控制系统、便携式音乐、视频播放器以及手机和卫星电话。此类电子计算装置包括用作用户界面的触摸屏界面。触摸屏界面包括触敏表面(下文称为触摸屏)和显示屏。触摸屏覆盖显示屏的指定部分。
传统触摸屏技术可以在触摸屏检测或记录触摸事件之后,让电子计算装置的用户能够展开显示屏上所显示的图形信息和/或文本信息的区域。然而,传统触摸屏技术存在限制。例如,传统触摸屏技术不能让用户根据物体与触摸屏的距离,主动控制放大区域的放大倍率(或放大倍数)。此外,传统触摸屏技术不能让用户根据物体与触摸屏的距离,主动控制放大区域的大小。
本发明的各示例性实施例涉及用于提供增强的用户界面的系统、装置、方法、过程、步骤和/或技术。本发明的实施例涉及操纵或控制以下项中的至少一项:放大倍率(即,放大倍数)、即将在显示屏上放大的视野的大小以及显示屏上所显示的放大区域的大小。具体而言,本发明的各实施例涉及的系统、装置、用户界面、方法、过程、步骤和/或技术用于能够根据以下项中的至少一项:指示物体与触摸屏的距离、指示物体朝触摸屏的位移速度、指示物体朝触摸屏移位的方向以及指示物体沿着触摸屏的平面移动的方向,对放大倍率、即将在显示屏上放大的视野的大小以及显示屏上所显示的放大区域的大小中的至少一项进行控制。
为了使附图简单清楚,下文参考图1到图6说明本发明的示例性实施例,其中相同元件用相同的参考编号表示。可列出所述实施例的具体细节,以便全面理解本发明的示例性实施例。然而,所属领域的技术人员应理解,需要运用本发明的各示例性实施例中普遍的基本原理,例如操作特性、功能特性或性能特性,的其他应用并不排除本文中所述的本发明的示例性实施例。
如下文详细描述,本发明的各实施例涉及具有用户界面的电子计算装置。电子计算装置的实例包括便携式游戏机、数码相机,以及移动或手持式无线通信装置,例如,寻呼机、手机、智能手机、无线管理器、个人数字助理、无线启动式笔记本计算机及类似装置。用户界面经由输入装置记录或检测输入事件,且经由显示屏实现输出事件。例如,输入装置为触摸屏、触摸板和一个或多个接近度检测器。在本发明的多数实施例中,输入装置检测接近于所述输入装置的指示物体,例如,手指、手写笔和触笔。放大显示屏所呈现的图形信息和/或文本信息的指定区域会影响输入装置随后对指示物体的检测。由显示屏实现的输出事件的参数,具体而言,由显示屏实现的放大事件的参数(即,放大显示屏上的视野)依据的是输入装置所检测出的输入事件的参数。在本发明的若干项实施例中,放大倍率、即将在显示屏上放大的视野的大小以及所放大的视野的大小中的至少一项的确定依据是涉及以下项中的至少一项的公式:指示物体与输入装置的距离、指示物体朝输入装置的位移速度、指示物体朝输入装置的移位方向以及指示物体沿着输入装置的平面移动的方向。
图1所示为根据本发明的实施例的增加了用户界面的代表性电子计算系统10。
图1中所示的电子计算系统10存在于个人计算机和特定个人数字助理(PDA)中或与所述两者结合使用。电子计算系统10包括:处理单元12;输入单元14,其耦接到一个或多个输入装置,例如,触摸屏16、小键盘18和一个或多个输入按钮20(此类输入装置在图2中显示);数据存储单元22;耦接到显示屏26的制图机24;以及网络界面单元28,其将电子计算装置10连接到电信站和/或计算机网络,例如,局域网(LAN)、广域网(WAN)和/或互联网。电子计算系统10进一步包括存储器30,存储器30中存在操作系统32、一组装置驱动器34以及应用程序驻留器36的一个或多个部分。最后,电子计算系统10包括至少一条总线38,电子计算系统10的每个元件均耦接到总线38,从而有助于传递或交换控制信号和数据。所属领域的技术人员可理解,图1中所示的电子计算系统10的结构可根据需要而改变。例如,并非电子计算系统10的所有部件都出现在本发明的若干项实施例中。
处理单元12包括能够执行所存储的程序指令的一个或多个处理器(例如,至少一个微处理器和/或微控制器)。数据存储单元22包括一种或多种类型的固定和/或可移动数据存储装置或元件,以及对应的存储媒体。例如,数据存储单元22可包括硬盘驱动器、DVD或CD-ROM驱动器,和/或USB闪存驱动器。存储器30包括一种或多种类型的易失性和/或非易失性存储器,例如,寄存器组、随机存取存储器(RAM)和只读存储器(ROM)。数据存储单元22和/或存储器30的各部分可形成一个或多个计算机可编程或可读媒体,根据本发明的实施例,所述媒体上可存在一个或多个装置驱动器34的各应用程序和/或程序指令部分。
图2和图3所示为根据本发明的若干项实施例的电子计算装置15。在本发明的若干项实施例中,图2所示的电子计算装置15包括图1所示的电子计算系统10的各部件。电子计算装置15包括或添加了用作用户界面的触摸屏界面42。触摸屏界面42包括触摸屏16和显示屏26。触摸屏16覆盖显示屏26的至少一部分。在本发明的其他实施例中,可用位于与显示屏26不同位置的触摸板或类似的接近度检测装置来替换触摸屏16。触摸屏16用作电子计算装置15的输入构件,因此记录输入事件。在本发明的若干项实施例中,触摸屏16检测或记录接近于触摸屏16(即,与之保持一定距离)的指示物体40。在本发明的某些实施例中,触摸屏16还记录与触摸屏16直接接触的指示物体40。显示屏26实现电子计算装置15的输出事件。显示屏26向电子计算装置15的用户显示图形信息和/或文本信息。通常情况下,显示屏26使用发光二极管(LED)、阴极射线管(CRT)和等离子体显示技术中的一项技术,向用户显示图形信息和/或文本信息。在本发明的若干项实施例中,输出事件为涉及对显示屏26上的视野(即,图形信息和/或文本信息的区域)进行放大的放大事件。
触摸屏16可利用许多触摸屏传感技术,用于接收输入事件(即,用于检测或记录指示物体40)。触摸屏传感技术包括,但不限于,电容技术、阻抗技术、投射电容(projected capacitance)技术、光学(红外线)技术、电场技术、电感技术、表面声波技术和声发射技术。下文说明若干示例性触摸屏传感技术。然而,所属领域的技术人员可理解,可使用所述触摸屏传感技术的任意组合。此外,触摸屏传感技术和本文中未描述的接近度传感技术也可与触摸屏16结合使用。
电容式触摸屏技术
电容式触摸屏涂有例如氧化铟锡的材料,其在触摸屏上传导连续电流。所述触摸屏在触摸屏的水平轴和垂直轴上获得电容或显示受精密控制的所存储电子场。电容式触摸屏通过检测所述电容式触摸屏附近的电容变化来检测或记录与所述电容式触摸屏接近或接触的指示物体。指示物体无需与所述电容式触摸屏直接接触,便可由所述电容式触摸屏检测出。指示物体必须显示即将由所述电容式触摸屏检测的电容。能够与电容式触摸屏结合使用的指示物体的实例包括手指和导电手写笔。
光学红外线触摸屏技术
利用或添加了光学红外线技术的触摸屏包括位于触摸屏的两个相邻屏边缘(bezel edge)的红外线(IR)发光二极管(LED)阵列,以及位于触摸屏的两个相对屏边缘处的光传感器。IR-LED和光传感器一起形成横跨触摸屏表面的IR光束栅格。IR-LED发射由光传感器检测的IR光束的脉冲。当指示物体与触摸屏接近或接触时,IR光束中断,从而导致光传感器所检测到的光大量减少。光传感器所检测到的光大量减少经过处理之后,用于定位指示物体(即,确定指示物体相对于触摸屏的坐标)。
在包括图2所示实施例的本发明各实施例中,电子计算装置15的输入单元14耦接到除了触摸屏16之外的一个或多个其他输入装置,例如,小键盘18和输入按钮20。多个输入装置为电子计算装置15提供了多个输入选择。各输入装置接收输入事件并产生对应的输入信号,所述输入信号随后经由总线38传输到处理单元12(即,电子计算装置15用于处理输入信号的模块)。处理单元12处理输入信号,从而确定对应输入事件的参数、特性和性质(即,与对应输入事件相关的数据)。处理单元12产生输出信号,所述输出信号被传输到一个或多个输出装置,以用于产生输出事件。处理单元12能够同时处理从多个输入装置传输到处理单元12的多个输入信号(由多个输入事件产生)。
在本发明的若干项实施例中,对将输入事件转换成输出事件进行控制的应用程序、配置设置和/或程序指令可存储于数据存储单元22上的存储位置和/或文件中。具体而言,应用程序、程序指令和/或配置设置有助于将触摸屏16所检测的输入事件(以及这些输入装置所产生的对应信号)和由显示屏26实现的输出事件相关。此类应用程序、程序指令和/或配置设置可根据电子计算装置15的用户的需要而进行修改(即,(重新)配置或(重新)编程)。
在本发明的各实施例中,触摸屏16能够检测与触摸屏16直接接触的指示物体40(即,指示物体40与触摸屏16直接接触的输入事件)。在本发明的若干项实施例中,触摸屏16进一步能够检测与触摸屏16接近的指示物体40(即,检测指示物体40与触摸屏16接近的输入事件)。此外,触摸屏驱动器可经配置或编程以用于选择或设置起始距离(也称为第一参考距离)。起始距离或第一参考距离为与触摸屏16之间的、首先可由触摸屏16检测指示物体40的距离。
如上文所述,处理单元12能够处理输入信号,用于确定输入事件的参数、特性或性质(即,用于确定对应于所述输入事件的一组数据)。在本发明的各实施例中,电子计算装置15能够确定指示物体40与触摸屏16的距离(即,Z轴距离)。Z轴由与触摸屏16接近的指示物体40与触摸屏16之间的垂直线界定。在本发明的其他实施例中,电子计算装置15可进一步确定以下项中的至少一项:指示物体40朝触摸屏16的位移速度、指示物体40相对于触摸屏16的位置、指示物体40朝触摸屏16移位的接近方向,以及指示物体40沿着触摸屏16的平面(即,触摸屏16的表面)的X-Y位移。
在本发明的若干项实施例中,触摸屏驱动器的程序指令和/或配置数据至少部分控制处理单元12对来自触摸屏16的输入信号所进行的处理过程。在各实施例中,其他应用程序和/或程序指令涉及处理单元12对从触摸屏16所接收的输入信号的处理过程。
在本发明的多数实施例中,处理单元12处理输入信号,用于确定指示物体40与触摸屏16的距离。在本发明的若干项实施例中,处理单元12处理输入信号,用于进一步确定以下项中的至少一项:指示物体40朝触摸屏16接近的速度、指示物体40相对于触摸屏16的位置、指示物体40相对于触摸屏16的接近方向以及指示物体40相对于触摸屏16的平面的X-Y位移。
处理单元12将输入信号转换成输出数据,或输出信号,随后发送到显示屏26,用于实现或促发输出事件。输入事件的参数、特性或性质用于确定输出事件的参数、特性或性质。这表示,与输入事件相关的数据用于确定或产生与输出事件相关的数据。在输出事件为放大事件(即,对显示屏26上所显示的区域进行放大)的情况下,放大事件的参数、特性或性质包括放大倍数、进行放大的视野大小(图4a中显示不同大小的视野)和所得的放大视野的大小(图4b中显示所得的不同大小的放大视野)。应用程序、配置设置和/或程序指令促进触摸屏16的输入事件(及此类输入事件所产生的输入信号)与用于产生由显示屏26实现的对应输出事件(具体而言,放大事件)的输出数据之间的转换或相关。
如上文所述,本发明的若干项实施例的输出事件为涉及对显示屏26所显示的图形信息和/或文本信息的区域进行放大的放大事件。即将/正在显示屏26上放大的图形信息和/或文本信息的区域称为视野。在本发明的各实施例中,输出数据指定所放大的视野的位置。在本发明的多数实施例中,所放大的视野在显示屏26上的位置对应于指示物体40相对于触摸屏16的位置。在本发明的各实施例中,所放大的视野随着指示物体40而变,因为指示物体40沿着触摸屏16的平面移位。在本发明的其他实施例中,显示屏26上的视野根据指示物体40沿着显示屏26的平面的位移而进行动态选择和变化。在本发明的各实施例中,输出数据指定即将放大的视野的大小。在本发明的若干项实施例中,输出数据进一步指定所放大的视野的大小(即,所放大的视野的所得大小)。在本发明的若干项实施例中,输出数据进一步指定视野的形状。在本发明的某些实施例中,输出数据进一步规定视野的放大倍率或放大倍数。
即将放大的视野的大小范围、所得的放大视野的大小范围以及放大倍率的范围可预先确定、预先编程并存储于数据存储单元22中。选择放大事件的即将放大的视野的大小、所得的放大视野的大小和放大倍率中的各项(即,放大事件的参数)的确定依据可为,处理单元12所确定的输入事件的参数。在本发明的某些实施例中,对即将放大的视野的大小、所得的放大视野的大小和放大倍率中的各项进行的选择可受从其他输入装置所接收的输入信号的影响(即,受其他输入装置所检测的输入事件影响)。
在本发明的各实施例中,由从触摸屏16所接收的输入信号产生的输出数据进一步有助于将所放大的视野冻结和/或随后解除冻结。在本发明的多数实施例中,将所放大的视野冻结和/或解除冻结至少部分取决于指示物体40与触摸屏16的距离。
在本发明的各实施例中,进一步响应于从触摸屏16之外的其他输入装置所接收的其他输入信号(即,从小键盘18或输入按钮20所接收的输入信号),产生输出数据。例如,将所放大的视野冻结和/或解除冻结可至少部分取决于电子计算装置15的小键盘18或输入按钮20的致动。
如上文所述,根据本发明的实施例的电子计算装置15的触摸屏界面42有助于控制对显示屏26上所显示的图形信息和/或文本信息的预定区域(即,显示屏上的视野)进行的放大。对显示屏26上的所述视野进行放大的功能使在显示屏26上所得的放大视野内查看图标和选择图标变得更容易。
为了简洁清晰,下文所述的本发明各实施例是关于将触摸屏界面42用作电子计算装置15的主用户界面或主要用户界面的方法和过程。触摸屏界面42包括触摸屏16和显示屏26。所属领域的技术人员应理解,触摸屏界面42可用将触摸板或接近度传感器用作输入装置的替代型用户界面进行替换。
图5为根据本发明的一项实施例的触摸屏界面方法100(或用户界面方法)的流程图。触摸屏界面方法100的第一方法步骤110涉及执行本发明的实施例所提供的编程或设置过程200。编程过程200涉及建立和存储触摸屏界面程序应用(即,用于触摸屏接口42的一组程序指令)。触摸屏界面程序应用可包括触摸屏驱动器配置设置的至少一部分。触摸屏界面程序应用对触摸屏16所检测的输入事件转换成显示屏26所实现的输出事件(具体而言,放大事件)进行控制。
在第二方法步骤120中,触摸屏16检测或记录输入事件。在本发明的若干项实施例中,输入事件涉及触摸屏16对指示物体40的检测。具体而言,输入事件涉及对与触摸屏16接近(即,与之保持一定距离)的指示物体40的检测。对输入事件的检测会触发触摸屏16产生输入信号。所述输入信号经由总线38传输到处理单元12。
在触摸屏界面方法100的第三方法步骤130中,处理单元12处理输入信号。处理了输入信号便能确定与输入事件相关的数据(即,输入事件的参数、特性或性质)。在本发明的某些实施例中,处理了输入信号便能确定指示物体40与触摸屏16的距离。在本发明的各实施例中,第三方法步骤进一步涉及确定指示物体40朝触摸屏16的接近速度或位移速度。在本发明更多的实施例中,第三方法步骤进一步涉及确定指示物体40朝触摸屏的位移方向和/或指示物体40沿着触摸屏16的平面的位移方向。在第四方法步骤140中,确定输入事件的参数有助于选择或产生输出数据。在本发明的实施例中,根据所处理的输入信号产生输出数据。触摸屏界面方法100的第五方法步骤150涉及将输出数据传输到显示屏26,用于实现输出事件,具体而言,用于实现涉及对显示屏26所显示的图形信息和/或文本信息进行放大的放大事件。
如上文所述,触摸屏界面方法100的第一方法步骤110涉及执行本发明的实施例所提供的编程过程200。编程过程200的流程图在图6中显示。
在编程过程200的第一过程部分210中,确定并存储与触摸屏16之间的第一参考距离(也称为起始距离)。第一参考距离对应于与触摸屏16之间的、首先可由触摸屏16检测或记录指示物体40的距离。所述第一参考距离可根据用户需要而变。第一参考距离可在电子计算装置15的正常操作期间改变。
编程过程200的第二过程部分220涉及确定并存储放大倍率或放大倍数的范围,在所述范围内,可对显示屏26上的视野进行放大。在本发明的某些实施例中,放大倍数范围内的每个放大倍数均与指示物体40和触摸屏16之间的预定距离相关。因此,视野的放大倍数取决于指示物体40和触摸屏16之间的距离。在本发明的其他实施例中,放大倍数范围内的每个放大倍数均与指示物体40朝触摸屏16的预定接近速度相关。因此,视野的放大倍数取决于指示物体40朝触摸屏16的接近速度。在本发明的另外一些其他实施例中,放大倍数范围内的每个放大倍数至少部分取决于一个或多个其他输入事件(例如,指示物体40朝触摸屏16的位移方向、指示物体沿着触摸屏16的平面的位移方向、另一输入装置的致动,和/或对显示屏26上所显示的图标进行的选择)。
在编程过程200的第三过程部分230中,确定并存储视野的大小(即,区域)范围。在本发明的各实施例中,可进一步确定并存储视野的形状。视野的大小可由笛卡尔(Cartesian)坐标系界定。具体而言,视野的大小可由沿着显示屏26的平面的X轴(即,水平轴)上的值和Y轴(即,垂直轴)上的值界定。X轴和Y轴中的每条轴上的值是从Z轴测量的,Z轴由指示物体40与触摸屏16之间的垂直线界定。指示物体40与触摸屏16之间的距离为Z轴上的值。
在本发明的某些实施例中,视野的大小与指示物体40和触摸屏16之间的预定距离相关。因此,视野的大小取决于指示物体40和触摸屏16之间的距离。在本发明的其他实施例中,视野的大小与指示物体40朝触摸屏16的预定接近速度相关。因此,视野的大小取决于指示物体40朝触摸屏16的接近速度。在本发明的再其他实施例中,视野的大小至少部分取决于一个或多个其他输入事件(例如,指示物体40朝触摸屏16的位移方向、指示物体40沿着触摸屏16的平面的位移方向、另一输入装置的致动,和/或对显示屏26上所显示的图标进行的选择)。
在编程过程200的第四过程部分230中,确定并存储所得的放大视野的大小范围。所得的放大视野的大小可指视野放大时所达到的大小。在本发明的某些实施例中,所得的放大视野的大小与指示物体40和触摸屏16之间的预定距离相关。因此,所得的放大视野的大小取决于指示物体40和触摸屏16之间的距离。在本发明的其他实施例中,所得的放大视野的大小与指示物体40朝触摸屏16的预定接近速度相关。因此,所得的放大视野的大小取决于指示物体40朝触摸屏16的接近速度。在本发明的另外一些其他实施例中,所得的放大视野的大小至少部分取决于一个或多个其他输入事件(例如,指示物体40朝触摸屏16的位移方向、指示物体40沿着触摸屏16的平面的位移方向、另一输入装置的致动,和/或对显示屏26上所显示的图标进行的选择)。
过程部分250涉及确定第二参考距离(也称为图像冻结距离)。第二参考距离对应于指示物体40与触摸屏16之间的、可使显示屏26上所得的放大视野冻结或静止的距离。在多数实施例中,第二参考距离小于第一参考距离。在某些实施例中,显示屏26上所得的放大视野在出现额外或替代输入事件(即,输入另一或替代输入信号),例如致动输入按钮20后即刻冻结。冻结所得的放大视野的功能可以让用户能够查看显示屏26上所冻结的放大图像(即,图形信息和/或文本信息的放大区域)。这样,查看显示屏26上所显示的图形信息和/或文本信息变得更容易,和/或将用户的输入经由触摸屏16输入到电子计算装置10中(例如,选择在所得的放大视野内所发现的图标)变得更容易。
过程部分260涉及确定第三参考距离(也称为图像解除冻结距离)。第三参考距离对应于指示物体40与触摸屏16之间的、可将所冻结的放大视野解除冻结的距离。在某些实施例中,将所冻结的放大视野解除冻结可通过另一或替代输入事件(即,另一或替代输入信号),例如致动输入按钮20实现。第二和第三参考距离中的每个距离可在电子计算装置10的正常操作期间根据用户需要而改变。
所属领域的技术人员可理解,上述设置过程200的过程部分210到260可根据用户需要而(重新)布置。此外,所属领域的技术人员将理解,步骤210到260中的任意一个或多个步骤可根据用户需要而加以修改或取消。
如上文所述,触摸屏界面方法100的第二方法步骤120涉及检测或记录输入事件。检测输入事件能触发触摸屏16产生输入信号,所述输入信号经由总线38传输到处理单元。第三方法步骤130涉及对输入信号进行处理,用于确定输入事件的参数、特性或性质。
根据输入事件的预定参数、特性或性质(即,与输入事件相关的数据),产生输出数据。在本发明的多数实施例中,输出数据取决于以下项中的至少一项:指示物体40与触摸屏16的距离、指示物体40朝触摸屏16的位移速度、指示物体40朝触摸屏16的位移方向以及指示物体40沿着触摸屏16的平面的位移方向。在第五方法步骤150中,输出数据传输到显示屏26,用于产生对应的输出事件,具体而言,放大事件。在本发明的多数实施例中,第五方法步骤150涉及对显示屏26上所显示的图形信息和/或文本信息的区域(即,显示屏上的视野)进行放大。输出事件,具体而言,放大事件的参数、特性或性质取决于处理单元所产生的输出数据,且因此,取决于输入事件的一个或多个参数、特性或性质。
在本发明的若干项实施例中,放大区域的放大倍率或放大倍数取决于以下项中的一项或多项:指示物体40与触摸屏16的距离、指示物体40朝触摸屏16的位移速度,以及指示物体40朝触摸屏16移位的方向,以及指示物体40沿着触摸屏16的平面的位移方向,具体由对输入信号的处理来确定。在本发明的某些实施例中,即将放大(即,进行放大)的视野的大小取决于以下项中的一项或多项:指示物体40与触摸屏16的距离、指示物体40朝向触摸屏16移位的速度,以及指示物体40朝向触摸屏16移位的方向,以及指示物体40沿着触摸屏16的平面的位移方向,具体由对输入信号的处理所确定。在本发明的若干项实施例中,所得的放大视野的大小取决于以下项中的一项或多项:指示物体40与触摸屏16的距离、指示物体40朝向触摸屏16移位的速度,以及指示物体40朝向触摸屏16移位的方向,以及指示物体40沿着触摸屏16的平面的位移方向,具体由对输入信号的处理所确定。在本发明的若干项实施例中,将所放大的图像冻结及随后解除冻结取决于指示物体40与触摸屏16的距离。
尽管上文所述的本发明的实施例关于触摸屏界面42,但所属领域的技术人员可理解,也可考虑使用替代输入装置(例如,小键盘18和输入按钮20)以产生对应输入信号的其他输入事件,用于控制输出事件的参数、特性或性质中的一项或多项。例如,放大倍率、即将放大的视野的大小和/或所得的放大视野的大小、将所得的放大视野冻结和解除冻结中的至少一项可由输入按钮20的致动、经由小键盘18的输入、由触摸屏16对额外输入指示物体40的检测以及所属领域已知的其他输入事件来控制或确定。所属领域的技术人员还可理解,处理单元可执行其他应用程序、计算程序、配置数据和/或类似物,以用于执行上文未述的其他功能。
对显示屏26上所显示的图形信息和/或文本信息进行放大可以使查看显示屏26上所显示的图形信息和/或文本信息(例如,文本、图标、图像、图片)变得更容易。此外,对显示屏26上所显示的图形信息和/或文本信息进行放大可以使用户经由触摸屏16输入指令变得更容易。在本发明的某些实施例中,用户可选择放大区域内的图标。选择放大视野内的图标可通过致动输入按钮20和/或直接接触位于触摸屏16上的所选位置处的第二指示物体来进行。指示物体40无需与触摸屏16直接接触便可对显示屏26上所显示的图形信息和/或文本信息进行放大的功能有助于降低由于指示物体40与覆盖式触摸屏16直接接触而造成对显示屏26的遮掩。
参考附图,以上述方式描述本发明的各示例性实施例。尽管仅描述了本发明的示例性实施例,但本发明并不限于所描述的具体细节。本发明的范围并不限于上文所述的本发明的各示例性实施例。在不脱离本发明的范围或精神的情况下,可对各示例性实施例进行多种变化和修改。

Claims (30)

1.一种用户界面方法,用于响应于输入事件而对显示屏上的放大事件进行控制,所述用户界面方法包括:
由输入装置检测输入事件;
确定所述输入事件的多个参数中的至少一个参数,所述多个参数包括指示物体与所述输入装置的距离和所述指示物体朝所述输入装置的位移速度;以及
确定以下项中的至少一项:放大倍数、视野大小以及针对所述放大事件所得的放大视野的大小,所确定的所述放大倍数、所述视野大小以及所述所得的放大视野的大小中的至少一项与所述输入事件的所述多个参数中的所述至少一个参数相关。
2.根据权利要求1所述的用户界面方法,所述输入事件的所述多个参数进一步包括所述指示物体朝所述输入装置移位的方向以及所述指示物体平行于所述输入装置的平面的位移方向。
3.根据权利要求1所述的用户界面方法,其中所述输入装置为以下项中的至少一项:触摸屏、触摸板和至少一个接近度传感器。
4.根据权利要求1所述的用户界面方法,其中所述输入事件包括对与所述输入装置接近的所述指示物体进行的检测。
5.根据权利要求4所述的用户界面方法,其中所述放大事件的所述放大倍数随着所述指示物体与所述输入装置的距离减小而相应增加。
6.根据权利要求4所述的用户界面方法,其中所述放大事件的所述放大倍数随着所述指示物体朝所述输入装置的所述位移速度增加而相应增加。
7.根据权利要求4所述的用户界面方法,其中所述视野大小和所述所得的放大视野的大小中的至少一项随着所述指示物体与所述输入装置的距离减小而相应增加。
8.根据权利要求4所述的用户界面方法,其中所述视野大小和所述所得的放大视野的大小中的至少一项随着所述指示物体朝所述输入装置的所述位移速度增加而相应增加。
9.根据权利要求1所述的用户界面方法,其进一步包括:
在所述显示屏上实现所述放大事件;
确定所述输入事件的所述多个参数中的至少一个参数的变化;以及
与所述输入事件的所述多个参数中的至少一个参数的变化关联,改变以下项中的至少一项:所述放大倍数、所述视野大小以及所述针对所述放大事件所得的放大视野的大小。
10.根据权利要求9所述的用户界面方法,其进一步包括:
在所述显示屏上冻结所述放大事件;以及
将所述显示屏上所冻结的放大事件解除冻结,
其中在所述显示屏上冻结所述放大事件使查看所述显示屏上所显示的图像变得更容易。
11.根据权利要求10所述的用户界面方法,其进一步包括:
由第二输入装置产生输入信号,所述第二输入装置为以下项中的一项:输入按钮和小键盘的键;以及
确定以下项中的至少一项:所述放大倍数、所述视野大小、所述所得的放大视野的大小、至少部分响应于由所述第二输入装置所产生的输入信号而对所述放大事件进行的冻结和解除冻结。
12.一种触摸屏界面方法,用于响应于输入事件的至少一个参数而对显示屏上的放大事件进行控制,所述触摸屏界面方法包括:
检测与触摸屏接近的指示物体;
确定所述输入事件的多个参数中的至少一个参数,所述多个参数包括所述指示物体与所述触摸屏的距离和所述指示物体朝所述触摸屏的位移速度;以及
确定以下项中的至少一项:放大倍数、视野大小以及针对所述放大事件所得的放大视野的大小,所确定的所述放大倍数、所述视野大小以及所述所得的放大视野的大小中的至少一项与所述输入事件的所述多个参数中的所述至少一个参数相关。
13.根据权利要求12所述的触摸屏界面方法,所述输入事件的所述多个参数进一步包括所述指示物体朝所述触摸屏移位的方向以及所述指示物体平行于所述触摸屏的平面的位移方向。
14.根据权利要求12所述的触摸屏界面方法,其中所述放大事件的所述放大倍数随着所述指示物体与所述触摸屏的距离减小而相应增加。
15.根据权利要求12所述的触摸屏界面方法,其中所述放大事件的所述放大倍数随着所述指示物体朝所述触摸屏的所述位移速度增加而相应增加。
16.根据权利要求12所述的触摸屏界面方法,其中所述视野大小和所述所得的放大视野的大小中的至少一项随着所述指示物体与所述触摸屏的距离减小而相应增加。
17.根据权利要求12所述的触摸屏界面方法,其中所述视野大小和所述所得的放大视野的大小中的至少一项随着所述指示物体朝所述触摸屏的所述位移速度增加而相应增加。
18.根据权利要求12所述的触摸屏界面方法,其进一步包括:
在所述显示屏上实现所述放大事件;
确定所述输入事件的所述多个参数中的至少一个参数的变化;以及
与所述输入事件的所述多个参数中的至少一个参数的变化关联,改变以下项中的至少一项:所述放大倍数、所述视野大小以及所述针对所述放大事件所得的放大视野的大小。
19.根据权利要求18所述的触摸屏界面方法,其进一步包括:
在所述显示屏上冻结所述放大事件;以及
将所述显示屏上所冻结的放大事件解除冻结,
其中在所述显示屏上冻结所述放大事件使查看所述显示屏上所显示的图像变得更容易。
20.根据权利要求19所述的触摸屏界面方法,其进一步包括:
由第二输入装置产生输入信号,所述第二输入装置为以下项中的一项:输入按钮和小键盘的键;以及
确定以下项中的至少一项:所述放大倍数、所述视野大小、所述所得的放大视野的大小、至少部分依据由所述第二输入装置所产生的输入信号而对所述放大事件进行的冻结和解除冻结。
21.一种用户界面方法,用于响应于输入事件而对显示屏上的放大事件的参数进行控制,所述用户界面方法包括:
确定所述输入事件的多个参数中的至少一个参数,所述输入事件的所述多个参数包括所述指示物体与触摸屏的距离、所述指示物体朝触摸屏的位移速度、所述指示物体朝触摸屏的位移方向以及所述指示物体平行于触摸屏的平面的位移方向;以及
将所述放大事件的至少一个参数与所述输入事件的所述多个参数中的所述至少一个参数相关,所述放大事件的所述至少一个参数是从包括以下项的组中选择的:放大倍数、视野大小以及关于所述放大事件所得的放大视野的大小。
22.一种用户界面,其包括:
接近度传感器,其检测与之接近的指示物体并产生输入信号,所述输入信号在处理时提供关于以下项中的至少一项的信息:所述指示物体与触摸屏的距离、所述指示物体朝触摸屏的位移速度、所述指示物体朝触摸屏的位移方向以及所述指示物体平行于触摸屏的平面的位移方向;以及
与所述接近度传感器进行信号通信以实现放大事件的显示屏,所述放大事件具有对应于以下项中的至少一项的至少一个参数:所述指示物体与触摸屏的所述距离、所述指示物体朝触摸屏的所述位移速度、所述指示物体朝触摸屏的所述位移方向以及所述指示物体平行于触摸屏的所述平面的所述位移方向,
其中所述至少一个参数是选自以下项的其中之一:所述放大事件的放大倍率、所述放大事件的视野大小以及放大视野的大小。
23.根据权利要求22所述的电子装置,其中所述接近度传感器为触摸屏。
24.根据权利要求22所述的电子装置,其中所述放大事件的所述放大倍率随着所述指示物体与所述接近度传感器的距离减小而增加。
25.根据权利要求22所述的电子装置,其中所述放大事件的所述放大倍率随着所述指示物体朝所述接近度传感器的位移速度增加而增加。
26.根据权利要求22所述的电子装置,其中所述放大事件的所述视野大小和所述放大视野的大小中的至少一项随着所述指示物体与所述接近度传感器的距离减小而增加。
27.根据权利要求22所述的电子装置,其中所述放大事件的所述视野大小和所述放大视野的大小中的至少一项随着所述指示物体朝所述接近度传感器的位移速度增加而增加。
28.根据权利要求22所述的电子装置,其进一步包括:
与所述显示屏进行信号通信的至少一个输入装置,所述至少一个输入装置可致动,以产生对以下项中的至少一项进行控制的信号:所述放大事件的所述放大倍率、所述放大事件的所述视野大小以及所述显示屏上所显示的所述放大视野的大小。
29.一种电子装置,其包括:
触摸屏,其能够检测与之接近的指示物体,从而产生输入信号;
处理器,其用于从所述触摸屏接收输入信号并处理所述输入信号,从而确定所述指示物体与所述触摸屏的距离和所述指示物体朝所述触摸屏的位移速度中的至少一项;以及
用于实现放大事件的显示屏,所述放大事件具有与所述指示物体与所述触摸屏的所述距离和所述指示物体朝所述触摸屏的所述位移速度中的至少一项相关的至少一个参数,所述至少一个参数为以下项中的一项:所述放大事件的放大倍率、所述放大事件的视野大小和放大视野的大小。
30.一种输入装置,其包括:
至少一个传感器,其用于检测输入事件并产生输入信号;以及用于处理所述输入信号以确定所述输入事件的多个参数中的至少一个参数的模块,所述多个参数包括:指示物体与所述至少一个传感器的距离、指示物体朝所述至少一个传感器的位移速度、指示物体朝所述至少一个传感器的位移方向以及指示物体相对于所述至少一个传感器的位移方向,所述模块进一步用于将所述输入事件的所述多个参数中的所述至少一个参数与显示屏所执行的放大事件的多个参数中的至少一个参数相关,所述放大事件的所述多个参数包括放大倍率、所述放大事件的视野大小以及放大视野的大小。
CN201080029252.7A 2009-06-29 2010-06-28 用户界面 Active CN102576279B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/459,248 2009-06-29
US12/459,248 US8466934B2 (en) 2009-06-29 2009-06-29 Touchscreen interface
PCT/SG2010/000239 WO2011002414A2 (en) 2009-06-29 2010-06-28 A user interface

Publications (2)

Publication Number Publication Date
CN102576279A true CN102576279A (zh) 2012-07-11
CN102576279B CN102576279B (zh) 2014-09-10

Family

ID=43380213

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201080029252.7A Active CN102576279B (zh) 2009-06-29 2010-06-28 用户界面

Country Status (6)

Country Link
US (1) US8466934B2 (zh)
KR (1) KR101453628B1 (zh)
CN (1) CN102576279B (zh)
DE (1) DE112010002760B4 (zh)
TW (1) TWI438661B (zh)
WO (1) WO2011002414A2 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103403661A (zh) * 2011-09-27 2013-11-20 电子触控产品解决方案公司 手势基输入的缩放
CN104063117A (zh) * 2013-03-19 2014-09-24 海尔集团公司 家电设备及其控制装置和方法
CN105573633A (zh) * 2015-12-16 2016-05-11 深圳市金锐显数码科技有限公司 基于触摸屏的输入方法和装置

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8872899B2 (en) * 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
US8681100B2 (en) 2004-07-30 2014-03-25 Extreme Realty Ltd. Apparatus system and method for human-machine-interface
KR101424942B1 (ko) 2004-07-30 2014-08-01 익스트림 리얼리티 엘티디. 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
US20070285554A1 (en) * 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
WO2010026587A1 (en) * 2008-09-04 2010-03-11 Extreme Reality Ltd. Method system and software for providing image sensor based human machine interfacing
US8373669B2 (en) * 2009-07-21 2013-02-12 Cisco Technology, Inc. Gradual proximity touch screen
EP2480951A4 (en) 2009-09-21 2014-04-30 Extreme Reality Ltd METHOD, CIRCUITS, DEVICES AND SYSTEMS FOR A HUMAN MACHINE INTERFACE WITH AN ELECTRONIC DEVICE
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
KR101623008B1 (ko) * 2009-10-23 2016-05-31 엘지전자 주식회사 이동 단말기
US20110320978A1 (en) * 2010-06-29 2011-12-29 Horodezky Samuel J Method and apparatus for touchscreen gesture recognition overlay
US8522158B2 (en) * 2010-10-19 2013-08-27 Apple Inc. Systems, methods, and computer-readable media for providing a dynamic loupe for displayed information
TWI456429B (zh) * 2011-01-19 2014-10-11 Acer Inc 顯示裝置與動態調整顯示資料的方法
JP2014504074A (ja) 2011-01-23 2014-02-13 エクストリーム リアリティー エルティーディー. 立体三次元イメージおよびビデオを生成する方法、システム、装置、および、関連する処理論理回路
BR112013033223B1 (pt) 2011-06-29 2021-03-09 Koninklijke Philips N.V. sistema para ampliar uma imagem exibida em uma janela de visualização, utilização do sistema, aparelho de aquisição de imagem, estação de trabalho, método para ampliar uma imagem exibida em uma janela de visualização e aparelho para ampliar uma imagem exibida em uma janela de visualização
US9293107B2 (en) 2011-09-20 2016-03-22 Microsoft Technology Licensing, Llc Adjusting user interfaces based on entity location
EP2575006B1 (en) 2011-09-27 2018-06-13 Elo Touch Solutions, Inc. Touch and non touch based interaction of a user with a device
US9223138B2 (en) 2011-12-23 2015-12-29 Microsoft Technology Licensing, Llc Pixel opacity for augmented reality
WO2013105041A1 (en) * 2012-01-10 2013-07-18 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US9606586B2 (en) 2012-01-23 2017-03-28 Microsoft Technology Licensing, Llc Heat transfer device
EP2624116B1 (en) 2012-02-03 2017-09-06 EchoStar Technologies L.L.C. Display zoom controlled by proximity detection
US9297996B2 (en) 2012-02-15 2016-03-29 Microsoft Technology Licensing, Llc Laser illumination scanning
US9779643B2 (en) 2012-02-15 2017-10-03 Microsoft Technology Licensing, Llc Imaging structure emitter configurations
US9368546B2 (en) 2012-02-15 2016-06-14 Microsoft Technology Licensing, Llc Imaging structure with embedded light sources
US9726887B2 (en) 2012-02-15 2017-08-08 Microsoft Technology Licensing, Llc Imaging structure color conversion
CN103295503A (zh) * 2012-03-02 2013-09-11 鸿富锦精密工业(深圳)有限公司 数字告示系统及其方法
US9578318B2 (en) 2012-03-14 2017-02-21 Microsoft Technology Licensing, Llc Imaging structure emitter calibration
US11068049B2 (en) 2012-03-23 2021-07-20 Microsoft Technology Licensing, Llc Light guide display and field of view
US9558590B2 (en) 2012-03-28 2017-01-31 Microsoft Technology Licensing, Llc Augmented reality light guide display
US10191515B2 (en) 2012-03-28 2019-01-29 Microsoft Technology Licensing, Llc Mobile device light guide display
US9717981B2 (en) 2012-04-05 2017-08-01 Microsoft Technology Licensing, Llc Augmented reality and physical games
US10502876B2 (en) 2012-05-22 2019-12-10 Microsoft Technology Licensing, Llc Waveguide optics focus elements
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
US10192358B2 (en) 2012-12-20 2019-01-29 Microsoft Technology Licensing, Llc Auto-stereoscopic augmented reality display
US20140189579A1 (en) * 2013-01-02 2014-07-03 Zrro Technologies (2009) Ltd. System and method for controlling zooming and/or scrolling
US9213403B1 (en) 2013-03-27 2015-12-15 Google Inc. Methods to pan, zoom, crop, and proportionally move on a head mountable display
US9507426B2 (en) * 2013-03-27 2016-11-29 Google Inc. Using the Z-axis in user interfaces for head mountable displays
WO2014166044A1 (en) * 2013-04-08 2014-10-16 Thomson Licensing Method and device for user input
DE102013215742A1 (de) 2013-08-09 2015-02-12 Ford Global Technologies, Llc Verfahren sowie Bedienvorrichtung zum Bedienen eines elektronischen Gerätes über einen Touchscreen
DE102014215049A1 (de) 2013-08-09 2015-02-12 Ford Global Technologies, Llc Verfahren sowie Bedienvorrichtung zum Bedienen eines elektronischen Gerätes über einen Touchscreen
US9645651B2 (en) 2013-09-24 2017-05-09 Microsoft Technology Licensing, Llc Presentation of a control interface on a touch-enabled device based on a motion or absence thereof
WO2015127485A2 (en) * 2014-02-21 2015-08-27 Realitygate (Pty) Ltd Dynamic information transfer from display to control
TWI605360B (zh) 2014-05-27 2017-11-11 禾瑞亞科技股份有限公司 觸控處理器、觸控裝置、觸控系統與觸控方法
US9304235B2 (en) 2014-07-30 2016-04-05 Microsoft Technology Licensing, Llc Microfabrication
US10254942B2 (en) 2014-07-31 2019-04-09 Microsoft Technology Licensing, Llc Adaptive sizing and positioning of application windows
US10678412B2 (en) 2014-07-31 2020-06-09 Microsoft Technology Licensing, Llc Dynamic joint dividers for application windows
US10592080B2 (en) 2014-07-31 2020-03-17 Microsoft Technology Licensing, Llc Assisted presentation of application windows
US9594489B2 (en) * 2014-08-12 2017-03-14 Microsoft Technology Licensing, Llc Hover-based interaction with rendered content
KR102399589B1 (ko) * 2014-11-05 2022-05-18 삼성전자주식회사 디바이스에 오브젝트를 디스플레이 하는 방법, 그 디바이스 및 기록매체
KR102422793B1 (ko) 2014-12-04 2022-07-19 삼성전자주식회사 전자 디바이스 및 전자 디바이스를 통하여 글자 입력을 수신하기 위한 방법
US9372347B1 (en) 2015-02-09 2016-06-21 Microsoft Technology Licensing, Llc Display system
US10317677B2 (en) 2015-02-09 2019-06-11 Microsoft Technology Licensing, Llc Display system
US9429692B1 (en) 2015-02-09 2016-08-30 Microsoft Technology Licensing, Llc Optical components
US10018844B2 (en) 2015-02-09 2018-07-10 Microsoft Technology Licensing, Llc Wearable image display system
US9827209B2 (en) 2015-02-09 2017-11-28 Microsoft Technology Licensing, Llc Display system
US9535253B2 (en) 2015-02-09 2017-01-03 Microsoft Technology Licensing, Llc Display system
US9513480B2 (en) 2015-02-09 2016-12-06 Microsoft Technology Licensing, Llc Waveguide
US9423360B1 (en) 2015-02-09 2016-08-23 Microsoft Technology Licensing, Llc Optical components
US11086216B2 (en) 2015-02-09 2021-08-10 Microsoft Technology Licensing, Llc Generating electronic components
CN106293175B (zh) * 2015-05-27 2020-06-19 禾瑞亚科技股份有限公司 触控处理器、触控装置、触控系统与触控方法
WO2017192781A1 (en) * 2016-05-03 2017-11-09 Affera, Inc. Anatomical model displaying
EP3572917B1 (en) * 2017-01-17 2022-08-17 Alps Alpine Co., Ltd. Coordinate input apparatus
JP7335487B2 (ja) * 2019-04-02 2023-08-30 船井電機株式会社 入力装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1165769A (ja) * 1997-08-25 1999-03-09 Oki Electric Ind Co Ltd タッチパネル表示制御方法及びそれを記録した記録媒体
US20070159927A1 (en) * 2006-01-06 2007-07-12 Microsoft Corporation Mobile access to information using images
US20080013826A1 (en) * 2006-07-13 2008-01-17 Northrop Grumman Corporation Gesture recognition interface system
KR20090020157A (ko) * 2007-08-22 2009-02-26 엘지전자 주식회사 터치스크린에서 화면 줌 방법 및 이를 이용한 단말기
KR20090029028A (ko) * 2007-09-17 2009-03-20 현대자동차주식회사 블로바이가스 배출방법

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6747680B1 (en) * 1999-12-13 2004-06-08 Microsoft Corporation Speed-dependent automatic zooming interface
US8381135B2 (en) * 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
EP2057527B1 (en) * 2006-08-15 2013-05-22 N-trig Ltd. Gesture detection for a digitizer
KR20080029028A (ko) * 2006-09-28 2008-04-03 삼성전자주식회사 터치 스크린을 갖는 단말기의 문자 입력 방법
US7924271B2 (en) * 2007-01-05 2011-04-12 Apple Inc. Detecting gestures on multi-event sensitive devices
KR20090022466A (ko) * 2007-08-30 2009-03-04 엘지전자 주식회사 메뉴 선택 방법
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US8723811B2 (en) * 2008-03-21 2014-05-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
US20090254855A1 (en) * 2008-04-08 2009-10-08 Sony Ericsson Mobile Communications, Ab Communication terminals with superimposed user interface
KR101502002B1 (ko) * 2008-05-21 2015-03-12 엘지전자 주식회사 근접 터치를 이용한 이동 단말기 및 그의 화면표시제어방법
US9030418B2 (en) * 2008-06-24 2015-05-12 Lg Electronics Inc. Mobile terminal capable of sensing proximity touch

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1165769A (ja) * 1997-08-25 1999-03-09 Oki Electric Ind Co Ltd タッチパネル表示制御方法及びそれを記録した記録媒体
US20070159927A1 (en) * 2006-01-06 2007-07-12 Microsoft Corporation Mobile access to information using images
US20080013826A1 (en) * 2006-07-13 2008-01-17 Northrop Grumman Corporation Gesture recognition interface system
KR20090020157A (ko) * 2007-08-22 2009-02-26 엘지전자 주식회사 터치스크린에서 화면 줌 방법 및 이를 이용한 단말기
KR20090029028A (ko) * 2007-09-17 2009-03-20 현대자동차주식회사 블로바이가스 배출방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103403661A (zh) * 2011-09-27 2013-11-20 电子触控产品解决方案公司 手势基输入的缩放
CN104063117A (zh) * 2013-03-19 2014-09-24 海尔集团公司 家电设备及其控制装置和方法
CN105573633A (zh) * 2015-12-16 2016-05-11 深圳市金锐显数码科技有限公司 基于触摸屏的输入方法和装置
CN105573633B (zh) * 2015-12-16 2018-09-25 深圳市金锐显数码科技有限公司 基于触摸屏的输入方法和装置

Also Published As

Publication number Publication date
US8466934B2 (en) 2013-06-18
DE112010002760B4 (de) 2020-02-06
WO2011002414A2 (en) 2011-01-06
KR20120109464A (ko) 2012-10-08
WO2011002414A3 (en) 2011-04-21
TWI438661B (zh) 2014-05-21
KR101453628B1 (ko) 2014-10-21
US20100328351A1 (en) 2010-12-30
TW201101144A (en) 2011-01-01
CN102576279B (zh) 2014-09-10
DE112010002760T5 (de) 2012-10-11

Similar Documents

Publication Publication Date Title
CN102576279B (zh) 用户界面
CN201497974U (zh) 装置、电子设备和用于感测的系统
CN102439656B (zh) 基于使用历史的gui布局的定制
KR102129374B1 (ko) 사용자 인터페이스 제공 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말
CN1198204C (zh) 用所连外部显示设备显示信息的带触摸屏装置及其方法
KR102010955B1 (ko) 프리뷰 제어 방법 및 이를 구현하는 휴대 단말
CN101971127B (zh) 解释触摸屏上的有歧义输入
US20090033632A1 (en) Integrated touch pad and pen-based tablet input system
CN102119376B (zh) 触敏显示器的多维导航
US10775869B2 (en) Mobile terminal including display and method of operating the same
KR102189787B1 (ko) 터치스크린을 가지는 전자 장치 및 이의 입력 처리 방법
CN109933252B (zh) 一种图标移动方法及终端设备
CN103294187A (zh) 用于切换现行应用的装置和方法
KR20110081040A (ko) 투명 디스플레이를 구비한 휴대단말에서 컨텐츠 운용 방법 및 장치
KR102022042B1 (ko) 데이터 전송 방법 및 시스템
CN102077156A (zh) 虚拟触摸垫
CN102007463A (zh) 一种用户接口
CN101553863A (zh) 控制触摸面板显示设备的方法和使用该方法的触摸面板显示设备
KR20140089816A (ko) 콘텐츠 주밍 방법 및 이를 구현하는 단말
CN102736759A (zh) 触摸屏及其操作方法
CN103197880A (zh) 在具有触摸屏的终端中显示键盘的方法和设备
CN102197356A (zh) 即使检测区域小于显示器的显示区域也如相同时那样动作的触摸面板装置
CN107390922A (zh) 虚拟触控方法、装置、存储介质及终端
KR20140141089A (ko) 사용자 입력에 응답하여 어플리케이션을 실행하는 전자 장치
CN103069364B (zh) 用于辨别输入物体的系统和方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant