CN103917945B - 用户界面的间接交互 - Google Patents

用户界面的间接交互 Download PDF

Info

Publication number
CN103917945B
CN103917945B CN201280054890.3A CN201280054890A CN103917945B CN 103917945 B CN103917945 B CN 103917945B CN 201280054890 A CN201280054890 A CN 201280054890A CN 103917945 B CN103917945 B CN 103917945B
Authority
CN
China
Prior art keywords
sensing surface
user interface
contactant
mapped
input data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201280054890.3A
Other languages
English (en)
Other versions
CN103917945A (zh
Inventor
S.G.威廉斯
E.B.弗利加尔
W.R.沃斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN103917945A publication Critical patent/CN103917945A/zh
Application granted granted Critical
Publication of CN103917945B publication Critical patent/CN103917945B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

提供一种或多种技术和/或系统以利用从间接交互设备(例如,鼠标,触摸板等)接收到的输入数据来在用户界面内启动,操控和/或关闭对象等。例如,间接交互设备的传感表面可以被划分为两个(或更多个)部分,第一部分被用于启动,操控和/或关闭对象,第二部分被用于在用户界面内行进(例如,光标)。当基于接收到预定义手势而启动了对象时,传感表面的第一部分可以被映射到对象以便提供用于,通过接触物(例如,手指)和第一部分之间的交互来与对象进行交互。此外,当第一部分的表面区域被映射到对象和/或根据操作实施在对象上时,第一部分的表面区域可以被改变(例如,扩大)。

Description

用户界面的间接交互
背景技术
常规上,用户使用多种输入设备与用户界面的元素进行交互。通常,这些输入设备可以基于该设备与用户界面交互的类型而被分类为直接交互设备和/或间接交互设备。例如,诸如触摸屏之类的直接交互设备被配置为使得用户能够直接与被显示在监视器上的内容进行交互,而间接交互设备,例如鼠标或者键盘,例如被配置为使用户能够间接地与被显示在监视器上的内容进行交互。
鼠标和例如触摸板之类的模拟鼠标的设备例如是较流行的间接交互设备类型中的一些。用户与该设备交互,并且该交互被映射到显示器上的位置。例如,鼠标可以感测移动,该移动基于假定的起始位置和所感测到的与设备的交互被映射到位置。触摸板通常被以类似于鼠标的方式使用。接触物(例如,手指,尖笔等)在触摸板上的运动被感测,并且所感测到的运动被以类似于鼠标输入的方式进行处理。
发明内容
提供本发明内容以用简化的形式介绍以下将在具体实施方式中进一步描述的概念的选择。本发明内容不是旨在标识所要求保护的主题的关键因素或必要特征,也不是旨在用于限制所要求保护的主题的范围。
除了别的之外,提供一种或多种系统和/或技术,其利用间接交互设备的传感表面的第一部分执行第一任务,而传感表面的第二部分被用于执行不同的任务。作为一个示例,传感表面的第一部分可用于打开和/或关闭计算机系统的用户界面上的对象(例如,菜单,屏幕上的键盘等)和/或在用户界面上的对象之间切换,而传感表面的另一部分可被用来在用户界面内行进。当以预定义的方式(例如,做出特定的手势/移动和/或施加特定的压力量等等)相对于传感表面的第一部分施加了接触物(例如,手指,尖笔等),与该手势相关联的任务可被发起。
在一个实施例中,当对象通过来自间接交互设备的输入被打开/启动时,所述传感表面的所述两个或更多个部分可以被映射到用户界面的不同区块。例如,传感表面的第一部分可被映射到已启动的对象(例如,或已启动对象的一部分),而第二部分被更一般地映射到用户界面(例如,使得指针可以在用户界面内行进)。因为第一部分被映射到该对象并且所述第二部分被更一般地映射到用户界面(例如,并包含该对象) ,所以在一个示例中,第二部分可以被映射到(例如,叠加于)所述第一部分也被映射到的用户界面的一部分。例如,所述第二部分的至少一些可被映射到所述第一部分被映射到的对象。在另一个实施例中,传感表面的第一部分和第二部分可以被映射到显示器的不同区块(例如,使得映射的区块内没有重叠)。
在另一个实施例中,第一部分和第二部分的相关表面区域可以基于启动的任务而改变。例如,在一个实施例中,基于相对于传感表面的第一部分施加的手势(例如,移动的方式)而发起了任务,这可以使与第一部分相关联的表面区域的量相对于与第二部分相关联的表面区域增加或减少。举例而言,当对象在用户界面中被打开(例如,基于施加到传感表面上的手势)时,所述第一部分的表面区域可以被放大,并且放大的第一部分可以被映射到已打开的对象。类似地,当对象被关闭时,所述第一部分的表面区域可以被减小(例如,返回到其初始尺寸)。
为了实现前述以及相关的目的,以下的描述和附图阐述了某些说明性方面和实现方式。这些表示可以据以采用一个或多个方面的各种方法,但是是其中的少数。当结合附图考虑时,本公开的其它方面,优点和新颖性特征根据以下详细描述将变得显而易见。
附图说明
图1是利用间接交互设备与用户界面进行交互的一个示例性方法。
图2是在接收到表示预定义手势的输入数据之前的间接交互设备的示例性传感表面。
图3是在接收到表示预定义手势的输入数据之前的示例性显示器。
图4是在接收到表示预定义手势的输入数据时的示例性显示器。
图5是在接收到表示预定义手势的输入数据时的间接交互设备的示例性传感表面。
图6是在接收到表示预定义手势的输入数据时的间接交互设备的示例性传感表面。
图7是在接收到表示预定义手势的输入数据时的示例性显示器。
图8是利用间接交互设备与用户界面进行交互的示例性系统。
图9是示例性的计算机可读介质的说明,其中可以包括被配置成实现本文所阐述的规定中的一个或多个的处理器可执行指令。
图10图示出一个示例性的计算环境,本文所阐述的规定中的一个或多个可以在其中实现。
具体实施方式
现在参考图描述所要求保护的主题,其中,贯穿全文,相同的附图标记通常被用来指代相同的元件。在以下描述中,为了解释的目的,许多具体的细节被阐述以便提供对所要求保护的主题的深入理解。然而,可能显而易见的是,所要求保护的主题可以在没有这些具体细节的情况下被实施。在其它情况下,结构和设备以框图的形式图示出,以便于描述所要求保护的主题。
除别的之外,一个或多个系统和/或技术被提供用于利用间接交互设备的部分来在计算机系统的用户界面中启动对象和/或用于将间接交互设备的传感表面(例如,触敏表面,热敏表面等)的部分映射到对象(例如,使得传感表面的被映射的部分可被用于操控对象)。例如,在一个实施例中,传感表面的一个或多个边缘部分可以包括对各种预定义手势(例如,以预定义方式的移动)敏感的区域,这些手势可以通过相对于所述传感表面施加的接触物(例如,手指,尖笔等)来做出。在检测到在该区域中发起和/或包括在该区域中的预定义手势时,例如,可以发生与该预定义手势相对应的任务。作为这样的任务的一个示例,例如,可以启动一个呈现在计算机系统的显示器上的用户界面的菜单,屏幕上的键盘可以在用户界面内启动,和/或呈现的用户界面的一部分可以在呈现第一应用和呈现第二应用之间切换。
此外,在一个实施例中,一个或多个边缘部分可以被映射到包括在用户界面中的对象,比如基于检测到预定义手势而启动的对象(例如菜单,屏幕上的键盘,等等)。因此,,用户可以使用所述一个或多个边缘部分操纵和/或控制该对象,同时通过传感表面的第二部分在用户界面内行进。在一个实施例中,当传感表面的边缘部分被映射到对象时,传感表面的边缘部分可以相对于其(例如,在检测到手势之前的)初始尺寸而被增大。当边缘部分不再映射到对象时(例如,因为该对象在用户界面中已被隐藏) ,其大小可以减小(例如,返回到其初始尺寸),直到通过边缘部分启动了第二对象为止(例如,并且直到边缘部分被重新映射到另一个对象,比如第二对象为止)。
虽然本文具体提到使用间接交互设备的一个或多个边缘部分来启动对象,在应用之间切换,和/或操纵对象,但是还可以或者可替换地可以利用间接交互设备的其它部分(例如,本应用并不意味着被限定于边缘部分)。此外,应理解,除非以其它方式特别声明,否则传感表面的单个部分可以用于多种功能。例如,传感表面可包括仅仅单个部分,该单个部分被配置为检测预定义手势(例如,其可以发起规定的任务),并且被配置为用于在用户界面中行进。
此外,就传感表面被描述为包括多个部分而言,应该理解的是,用户要在视觉上将这多个部分区分开可能是困难的和/或不可能的,因为这些部分可能基本上包括相同和/或类似的硬件。但是,在一个实施例中,各个部分可能可以在视觉上区分开。例如,LED照明和/或其它效果可以被用来协助用户在视觉上区分各部分(例如,在以不同于第二部分的方式照亮第一部分的情况下)。此外,一个或多个附加的和/或不同类型的传感器可以结合传感表面使用,以补充该传感表面等。例如,额外的传感器可以位于传感表面的边缘的周围,以检测手势何时在传感表面之外开始,然后进入到传感表面(例如,玻璃框(bezel)传感器,光,磁,电磁等等)。除别的之外,这样的传感器可以例如有助于将传感表面的边缘与传感表面的其它部分区分开,以检测接触物(例如,手指)接近,离开等传感表面等。在这样的场景中的任何一个下,传感表面仍然可称为是包括这些附加的,其它的传感器等。
可以理解的是,本文在广泛的意义上使用“间接交互”和/或类似物来描述这样的交互形式,其中实体(例如,用户)与一个设备而不是显示器进行交互以使显示器上的用户界面改变。例如,膝上型计算机的触摸板可以是间接交互设备的一个示例,因为用户可以与触摸板进行交互以控制膝上型计算机的显示器/监视器上呈现的指针。还应当理解,在一些应用中,直接交互设备可以用作间接交互设备。作为一个示例,例如,在包括触摸屏的移动设备被用作遥控器以控制电视机的情况下,移动设备的触摸屏可被用作间接交互设备来操纵在电视机上显示的用户界面(例如,在其上的一个目标,光标等)。
图1图示出用于使用间接交互设备在计算机系统的用户界面上启动对象,操控启动的对象,和/或隐藏该对象(例如,使得它不再存在于用户界面中)的示例性方法100。这样的方法100可以发现在通常不包括触摸屏的膝上型计算机和/或台式计算机中特别适用,但并非旨在限制如此。例如,在另一个实施例中,示例性方法100可以与触摸屏结合使用,其中,间接交互设备可以补充触摸屏(例如,比如,在希望得到正常情况下经由触摸屏不能实现的精度的应用中)。
应理解的是,虽然示例性方法100提供用于使用间接交互设备来启动,操控,和隐藏对象,但是可以使用与本文所描述的那些技术不同的技术来执行这些动作中的一个或多个。例如,在另一个实施例中,在预定的时间量过去之后和/或当用户界面的另一方面被操控时,对象可以被自动隐藏和/或关闭。因此,本公开,包括权利要求书的范围,并不旨在必须限制于包括本文所描述的每个动作。作为另一个示例,在114处接收到的并且表示以第二预定义方式相对于传感表面的第一部分施加了接触物的第二输入数据,可以用来操控对象和/或隐藏对象(例如,因而相对于118描述的动作可以省略)。例如,如果以第一方式相对于传感表面的所述第一部分施加了该接触物(例如,用特定量的力施加了该接触物,该接触物做出特定的手势等),则可以在116处操控该对象。如果(例如,代替以第一方式施加接触物而)以第二方式相对于传感表面的所述第一部分施加接触物(例如,以预定义的方式移动该接触物(例如,接触物执行预定义的手势),接触物对传感表面施加不同量的力,等等),在120处,该对象可以被隐藏(例如,绕过了在116和/或118 处描述的动作)。因此,该示例性方法旨在仅仅说明一个示例性的方法,并且实际上在应用中实现的方法可以包括可能未在本文中描述的附加动作和/或本文所描述的方法可以包括可能未在一个或多个应用中执行的附加行为(例如,根据应用、实现方式、配置等,比如116、118和/或120(或其它)之类的动作可以省略)。此外,在接收到输入数据时发生的事件(例如,是否启动,操控,和/或隐藏对象)可以取决于相对于所述传感表面如何施加了接触物。因此,该示例性方法不旨在解释为必然描述事件流(例如,这是因为表示旨在使对象被隐藏的手势的输入数据,可以在表示旨在使对象被操控的手势的输入数据之前被接收)。
示例性方法100开始于102,并且在104处,检测耦合到计算机系统的间接交互设备。通过举例的方式,触摸板可以通过有线连接(例如,通用串行总线(USB)等)和/或无线连接(例如,蓝牙连接,红外连接,等)耦合到计算机系统。此外,应理解的是,间接交互设备可以在计算机系统被制造时耦合到计算机系统,因此可以例如在初始启动计算机系统时检测间接交互设备。可替换地,间接交互设备例如可以通过终端用户耦合到计算机系统,并且可以例如在所述间接交互设备被耦合时和/或在随后的重新启动时被检测。
例如,在检测到所述间接交互设备时,计算机系统和/或其组件可被配置成安装驱动器,该驱动器被配置为提供用于在间接交互设备和计算机系统之间传递数据和/或被配置为以其它方式准备计算机系统以便与间接交互设备交互和/或反之亦然。
示例性方法100还包括在106处,接收表示以第一预定义方式相对于所述间接交互设备的传感表面施加了接触物的第一输入数据。举例而非限制,可以接收到这样的输入数据,其表示接触物以预定义方式移动(例如,执行一个或多个预定义的手势),其表示接触物相对于传感表面施加了特定量的压力等。应理解的是,出于简洁的目的,手势和/或类似物在本文中可以用来描述相对于传感表面施加的接触物。使用这样的术语并非旨在暗示特定类型的应用,比如移动,而是它被更一般地用于涉及相对于传感表面施加的接触物。
作为一个示例,表或其它数据结构可以包括已被(例如,用户,应用开发人员,计算机制造商等)预定义成在用户界面内触发特定的任务/事件的多个手势。例如,除别的之外,这样的任务/事件可以包括在用户界面中打开对象,关闭对象,在用户界面上呈现的应用之间转换,在用户界面中呈现的对象之间转换等。尽管表示未被预定义的手势的输入数据也可以被(例如,与间接交互设备可操作地耦合的计算机系统)接收,但是这样的输入数据可被用于其它目的(例如,诸如用于在用户界面内行进(例如,类似于在用户界面内行进的鼠标指针))。
除别的之外,预定义的手势可以包括,以特定的方式旋转接触物(例如,顺时针,逆时针,等等),以特定的方式改变接触物移动的方向,在传感表面的特定区域/部分中开始和/或结束该手势,施加特定量的力,触摸传感表面的特定部分,在传感区域之外开始该手势但在传感区域内结束该手势,在传感区域内开始该手势但在传感区域之外结束该手势,等等。作为一个例子,传感表面可以被分成两个或更多个部分(例如,在接收到第一输入数据之前)。第一部分可以被用于在用户界面内某个事件(例如,比如在用户界面内开始一个或多个对象的启动和/或关闭对象),并且第二部分可以被用于某个其它功能/目的,例如,比如在所显示的用户界面中行进。因此,例如,在传感表面的第一部分内发生的,开始的,和/或结束的手势可以在用户界面内触发某个事件,而在传感表面的第二部分内发生的,开始的,和/或结束的手势可以被用于例如在用户界面内使目标(例如,指针)行进。
在示例性方法100中的108处,响应于接收到第一输入数据(例如,在106处),在用户界面内启动对象。也就是说,当接收到的输入数据表示对应于启动对象的手势时,可以在用户界面内启动(例如,打开)该对象。除别的之外,这样的对象可以包括,例如,菜单,屏幕上的键盘,和/或在接收到第一输入数据之前没有显示出来(例如,或没有活动地显示出来(例如,因为它被至少部分地遮盖))的其它用户界面特征。以这种方式,间接交互设备可被用来,例如,打开在例如接收到第一输入数据之前在用户界面内看起来是关闭的(例如,和/或否则是非活动的)菜单和/或屏幕上的键盘。
在示例性方法100 中的110处,间接交互设备的传感表面的至少第一部分被映射到在用户界面内呈现的启动的/打开的对象(例如,使用绝对映射,相对映射,和/或其它映射技术)。也就是说,换句话说,传感表面的至少一部分(例如,其可以包括整个传感表面的全部或小于全部)被映射到该对象。以这种方式,当接触物被施加到传感表面的第一部分时,该对象可以被操控。举例而言,该对象可以包括包含五个选项(例如, 5个按钮)的菜单。例如,传感表面的第一部分因此可被分成五个部分,并且各个部分可以被映射到5个选项之一。随后,当相对于所述五个部分中的一个或多个施加接触物时,例如,与被施加了接触物的部分相对应的所述一个或多个选项可以在用户界面内被选择和/或区分出来(例如,通过高亮所述选项)。应该理解的是,这样的特征可以进一步相对于图2-7进行说明。
绝对映射技术通常被配置成将间接交互设备的轴缩放到显示器和/或显示器中特定对象(例如,当间接交互设备的一部分仅仅被映射到对象时)的对应轴。例如,间接交互设备的x轴可以被缩放到显示器/对象的对应的x轴,使得在x方向上,间接交互设备的传感表面上的各点映射到显示器/对象上的仅仅一个点(例如,或特定数量的点)。类似地,间接交互设备的y轴可以随显示器/对象的对应的y轴而缩放,使得在y方向上,间接交互设备的传感表面上的各点映射到显示器/对象上的仅仅一个点(例如,或特定数量的点)。常规上,触摸屏和/或笔式数字化仪使用绝对映射技术。
相对映射技术不同于绝对映射技术,原因在于传感表面通常被映射到显示器/对象的可移动子区域(例如,其可能未显示给用户)。也就是说,映射是在接触物(例如,手指)被传感表面检测到的时候显示器/对象上目标(例如,指针)的当前位置的函数,并且其可以基于该目标位置的变化而改变。例如,如果当接触物被检测到时,目标位于显示器/对象的右上象限的中心,则传感表面可被映射,使得传感表面的中心点对应于该目标的位置(例如,使得小于显示器/对象的全部被映射到传感表面上的点)(例如,比如仅显示器/对象的右上象限可以被映射)。如果一段时间内传感表面没有检测到接触物,则当接触物再次被检测到时,该映射可以被改变,例如,使得所述目标的位置被映射到传感表面的中心点。常规上,鼠标和/或模拟鼠标的轨迹板使用相对映射技术。
如果传感表面的至少一些没有被映射到启动的对象,则在示例性方法中的112处,剩下的部分(例如,或者传感表面的在110处没有被映射到对象的至少一部分)可以使用一个或多个映射技术(例如,绝对映射,相对映射,绝对映射和相对映射的组合等等)映射到用户界面。通常情况下,剩余部分被映射到不包括该对象(例如,在110处,所述第一部分被映射到该对象)的用户界面部分,但是在一个实施例中,第二部分可至少部分地映射到该对象。例如,第二部分可以被映射到整个用户界面。因为该对象包括在用户界面内,所以所述第二部分可以被至少部分地映射到该对象(例如,但是所述第二部分的至少一些可被映射到不包括该对象的用户界面的部分,除非该对象填满该显示器)。以这种方式,目标(例如,指针)可以至少部分地基于表示相对于第二部分施加的接触物的输入数据来操纵对象,并且该对象可以至少部分地基于表示相对于第一部分施加的相同和/或不同接触物的输入数据而被操控。
应理解的是,通过将传感表面的第二部分映射到用户界面中,例如,第二部分可被用于行进于用户界面和/或执行某项其它功能,而被映射到对象的第一部分可以(同时)用于操控对象。也就是说,换言之,传感表面的所述第一部分(例如,在110处映射到对象的部分)可用于使对象行进和/或操控对象而传感表面的所述第二部分可以(同时)用于使用户界面的其它部分行进和/或操控用户界面的其它部分和/或可被用于执行某项其它功能(例如,当被轻击时,作为输入,选择,返回等按钮或按键)。
在示例性方法100中的114处,接收表示以第二预定义方式相对于传感表面的第一部分施加了接触物的第二输入数据,并且在116处,至少部分地基于所述第二输入数据,操控对象。例如,如上所述,在108处启动/打开的对象可以包括五个选项(例如,5个按钮),并且传感表面的第一部分可被分成五个部分,其中各个部分对应于所述五个选项中的一个。第二输入数据可表示相对于那五个部分中的一个或多个施加了接触物,并且基于所述第二输入数据,例如,与施加了所述接触物的部分相对应的选项可被操控。
应理解的是,在权利要求书中和/或贯穿说明书,术语第一,第二,第三等可以用于在元件之间进行区分。但是,这样的术语并不旨在暗示对象/特征是独特的和/或暗示时间顺序。例如,除别的之外,声明可以提供用于,接收表示相对于传感表面施加了第一接触物的第一输入数据以及接收表示相对于传感表面施加了第二接触物的第二输入数据。除非另有明确说明,否则所述第一和第二接触物可以是相同的接触物和/或所述第一接触物可以不同于第二接触物(例如,使得所述第一和第二接触物是独一无二的接触物)。
应理解的是,虽然本文中具体提到接收第二输入数据和/或使用所述第二输入数据来操控对象,但其它的输入数据(例如,不操控对象的数据也可以被断断续续地接收)。例如,在传感表面包括第一部分和第二部分的情况下,也可以接收表示相对于第二部分施加了一个或多个接触物的输入数据。除别的之外,这样的输入数据可被用于,例如,在用户界面内使目标(例如,指针)行进,和/或操控用户界面的其它方面/对象。
在示例性方法100 中的118处,接收表示以第三预定义方式相对于间接交互设备的传感表面施加了接触物的第三输入数据,并且在120处,响应于接收到该第三输入数据,隐藏/关闭对象。例如,在一个实施例中,当接触物执行与在108处使对象启动的手势相反的手势时,对象(例如,在108处启动的对象)可以被隐藏和/或关闭,但是其它类型的手势也可以使对象被隐藏(例如,使得其被至少部分遮蔽)和/或关闭。举例而言,在基于一个或多个接触物从传感表面的边缘离开而启动/打开对象的情况下,可以通过接触物向传感表面的相同和/或不同边缘移动而隐藏/关闭对象。作为另一个例子,在108处,相对于传感表面的第一边缘施加的接触物可以使对象被启动,而在120处,相对于所述传感表面的第二边缘施加的接触物(例如,相同的接触物和/或不同的接触物)可以使该对象被隐藏/关闭。
应理解的是,存在无数预想到的手势,它们可以应用于间接交互设备的传感表面,违禁地启动和/或操控对象和/或违禁地隐藏/关闭对象。前述的手势以及下面描述的手势都仅仅旨在提供可以应用的几乎数不尽的手势中的一些的示例,并且包括权利要求的范围的本公开并非旨在受限于本文在实践的范围上描述的特定手势/移动。
此外,虽然贯穿示例性方法,提到了接收表示相对于传感表面施加了接触物的输入数据,但输入数据还可以和/或可以替代地表示相对于所述传感表面施加了多个接触物。此外,在一个实施例中,如果输入数据表示多个接触物而不是仅仅一个接触物,则可能发生不同的任务。例如,表示仅由一个接触物(例如,一只手指)执行的手势的输入数据可以使第一对象启动,而表示由两个接触物执行的手势的输入数据可以使该第一对象被隐藏/关闭和/或可以使不同于第一对象的第二对象启动。此外,接触物不必实际上“接触”要相对于其进行施加的传感表面。例如,接触物可以通过仅仅靠近传感表面(其中,该传感表面是热敏感,磁的,导电的等等)而相对于该传感表面进行施加。
示例性方法100在122处结束。
图2-5图示出了经由间接交互设备打开对象(例如菜单)和/或操控对象的示例性实施例。更具体地,图2图示出了在生成第一输入数据之前(例如,其可以在图1的示例性方法100中的106处被接收)的示例性传感表面200(例如,触摸板,热敏表面,等等)。图3图示出了在生成第一输入数据之前的示例性显示器300。图4图示出了在(例如,从包括传感表面的间接交互设备)接收到第一输入数据并且对象406(例如,菜单)已被启动以后(例如,在图1的示例性方法100中的108处)的示例性显示器400 (例如,图3中的300)。图5图示出在接收到第一输入数据并且所述传感表面的一部分502已经被映射到对象406(例如,映射到呈现在图4中的显示器400上的示例性用户界面402)以后(例如,在图1的示例性方法100中的110处)的示例性传感表面500 (例如,图2中的200)。
在一个实施例中,如图2中所示并且如将关于图1的示例性方法100进一步描述的,传感表面200可包括两个或更多个部分(例如,其可以是或可以不是可在视觉上(和/或在其它方面)进行区分的)。为清楚的目的,在图示的实施例中,第一部分202以深灰色图案填充,而第二部分204则不填充。
在启动对象(例如,在图1的示例性方法100中的108处)之前, 第一部分202可以包括传感表面200的总表面区域的一个相对小的部分,例如,在图示的实施例中,第一部分202仅占传感表面顶部的9毫米。
当相对于传感表面200施加第一接触物206(例如,手指)时,表示在其中施加第一接触物206的位置的输入数据和/或表示第一接触物206相对于所述传感表面200的移动的输入数据可通过间接交互设备来产生(例如,并且在图1的示例性方法100中的106处由计算机系统接收)。这样的输入可以被用于在用户界面内使目标(例如,指针)行进和/或发起任务/事件(例如,比如,如启动对象)。
接收这样的输入数据的计算机系统可包括一组预定义的手势,并且输入数据可以与这组预定义手势进行比较,以确定输入数据是否表示与预定义手势相对应的手势。如果输入数据表示第一接触物206基本上执行了所述预定义手势中的一个或多个,则计算机系统和/或其部分可以发起与对应于由输入数据表示的手势的预定义手势相关联的任务/事件(例如,如打开菜单,关闭菜单,打开屏幕上的键盘,在用户界面中呈现的应用之间切换等等)。
举例而言,计算机系统可以提供的是,如果接收到的输入数据表示相对于传感表面200的第一部分202施加了接触物并且如图2中的箭头208所示,该接触物被往下拖动(例如,朝着传感表面200的第二部分204拖动),则将启动菜单和/或屏幕上的键盘。如果接收到的输入数据表示执行这样的手势的第一接触物206 ,则计算机系统和/或其部分可以发起与相应的预定义手势相关联的事件(例如,启动菜单和/或屏幕上的键盘)。如果接收到的输入数据表示相对于第一部分202施加了第一接触物206,但是该第一接触物206执行一些其它手势,则例如,根据该手势是否对应于计算机系统的数据库中的预定义手势,不同的事件可以被发起和/或没有事件可以被发起。
此外,应当理解的是,如果输入数据替代地表示和/或还表示对第二部分204施加了第一接触物206和/或另一接触物,则该计算机系统可以利用该输入数据以执行其它功能。例如,在一个实施例中,表示对第二部分204施加了接触物的输入数据可被用于在用户界面内使目标(例如,鼠标指针)行进和/或操控当前显示的用户界面中所呈现的其它对象/方面(例如,第二部分可以以与触摸板的常规使用方式类似的方式使用)。
图3图示出了包括用户界面302的计算机系统的一个示例性显示器300(例如,监视器),在发起任务/事件(例如,启动菜单)之前该用户界面302可以呈现在显示器300上,其中,所述任务/事件可能在从间接交互设备接收到表示接触物(例如,图2中的206)执行了预定义手势的输入数据(例如,图1的示例性方法100中的106处)时发生。应当理解的是,如所图示的,用户界面302基本上包括应用304。
图4图示出了从间接交互设备接收到表示预定义手势的输入数据(例如,图1的示例性方法100中的106处)之后的包括用户界面402(例如,图3中的302)的计算机系统的示例性显示器400(例如,图3中的300)。例如,在接收到表示接触物(例如,图2中的206)从传感表面的顶部边缘(例如,从图2中的传感表面200的第一部分202)划过,和/或从顶部边缘进入传感表面200的输入数据时,可在用户界面402中打开菜单406。菜单406可以包括可被选择和/或操控的项目中的一个或多个。例如,图示的菜单406包括项目A,B,C,D,E,F和G。应当理解的是,因为菜单406基于接收到的输入数据而被合并到了用户界面中,所以当菜单406未被呈现的时候(例如,如图3中所示),则用户界面402的表示应用404(例如,图3中的304)的部分可以相对其大小被减小。
如关于图1的示例性方法100中的动作110所描述的,传感表面的至少一部分可以被映射到在用户界面402中打开的菜单406。以这种方式,用户可以使用该传感表面操控菜单406(例如,或选择它们)。
图5图示出了包括第一部分502(例如,图2中的202)的一个示例性的传感表面500(例如,图2中的200),第一部分502可以被映射到菜单406和/或可以被配置成用于操控菜单406(例如,图1的示例性方法100中的116处)和/或可以基于接收到的表示预定义手势的输入数据而启动其它对象。作为一个示例,接触物506(例如,图2中的206)可以与传感表面500的第一部分502进行交互以操控图4中的菜单406。例如,接触物506可通过对第一部分502的映射到项目A的一部分(例如,第一部分502的左边缘部分)施加接触物506来选择菜单406的项目A。
在一个实施例中,在接触物被施加到传感表面500的第一部分502时,可以将由施加到第一部分502的特定区域的接触物操控的菜单406中的项目和/或其它对象相对于该菜单406的其它方面进行区分(例如,高亮,加粗等)。例如,如果对第一部分502的映射到项目A的一部分施加了接触物506,则项目A相对于菜单406中的其它项目可以被高亮和/或以其它方式进行区分。以这种方式,例如,用户可以知道哪个项目正在被操控。另外,当传感表面的一部分被映射到对象或其部分时,在该对象(例如,它的一部分或全部)被配置成提供接触物被施加到传感表面的相应部分的视觉或其它指示的情况下,目标(例如,指针,等等)可能并不需要(例如,可以因为它可能是冗余的而被省略)。
例如,传感表面500的未映射到菜单406的部分可被用来执行其它功能。例如第二部分504(例如,图2中的204)可以被用来在用户界面402内行进和/或操控除了和/或包括菜单406的其它对象/方面。例如,传感表面500的第二部分504可以被用来在应用404中使目标(例如,鼠标指针)行进和/或可被用来操控应用404的各方面(例如,以与常规触摸板与用户界面402交互的方式类似的方式)。
此外,如通过比较图2与图5来图示的,在一个实施例中,当对象(例如,基于从间接交互设备接收到的输入数据)被启动,隐藏和/或以其它方式进行操纵时,传感表面500的第一部分502和/或第二部分504的表面区域可以被调整。例如,如图2中所图示的,在接收到表示预定义手势的第一输入数据之前,传感表面200的第一部分202被定义为传感表面200的顶部9毫米。如图5中所图示的,在第一输入数据被接收并且菜单406基于所接收到的输入数据被打开之后,传感表面500的第一部分502被定义为传感表面500的顶部20毫米。因此,第一部分506的表面区域相对于其在接收到第一输入数据之前的尺寸(例如,如图2中所图示的)被扩大了。类似地,传感表面500的第二部分504的表面区域相对于其在接收到第一输入数据之前的尺寸(例如,如图2中所图示的)被减小了,以容纳所述第一部分502的扩展。
应理解的是,图2-5仅旨在提供可以如何使用间接交互设备的传感表面来启动对象和/或操控对象的一个示例,而并非旨在以限制的方式进行理解。例如,在一个实施例中,传感表面的多个边缘可分别包括用于启动/打开和/或操控已启动/已打开对象的部分。例如,传感表面的上边缘,下边缘,左边缘和/或右边缘可以包括用于启动和/或操控对象的部分。此外,除别的之外,对象在用户界面内的放置和/或被操控的对象的类型可以依赖于,接触物是否操控了传感表面的左边缘,右边缘,上边缘或下边缘和/或接收到的手势类型。例如,在一个实施例中,对象在用户界面中的放置可能对应于与接触物交互的边缘。作为一个示例,如果相对于左边缘施加了接触物,则对象可能被放置在用户界面的左边缘上和/或如果相对于下边缘施加了接触物,则对象可能被放置到用户界面的下边缘上。
还应当理解的是,虽然图5图示出小于传感表面500的全部的表面被映射到了已启动的对象(例如,图4中的菜单406),但是除别的之外,传感表面500的被映射到已启动对象的量可以取决于,启动的对象的类型。例如,在一个实施例中,实体(例如,用户,开发者等)可以定义被配置为启动屏幕上的键盘的一个或多个手势。虽然这种键盘可能不包括呈现在显示器上的整个用户界面,但可能希望的是,将传感表面的几乎全部映射到键盘(例如,以便为用户提供足够的空间来使用间接交互设备选择屏幕上的键盘的各个按键)。在这种实施例中,当屏幕上的键盘被启动时,如果有的话,传感表面的很少部分可以因此被用来行进于用户界面(例如,当屏幕上的键盘在用户界面内显示时,传感表面500的第一部分502可以包括传感表面500的几乎全部,如果有的话,第二部分502包括传感表面500的很少部分)。
在一个示例中,当屏幕上的键盘和/或其它对象(例如,基于接收到的表示另一预定义手势的输入)在用户界面内被关闭或隐藏时,传感表面的被映射到对象的部分(例如,图5中的502)可以不进行映射。此外,在基于启动的对象(例如,图4中的菜单406)扩大或以其它方式调整了被映射的部分(例如,图5中的502)的情况下,传感表面的被映射到对象的部分的表面区域可以被重新调整。例如,在一个实施例中,被映射的部分的表面区域可以还原到对象在被扩大之前的尺寸(例如,将图5中的第一部分506从传感表面500的顶部20毫米减少到图2中所图示的仅仅顶部的9毫米)。
图6和7图示出了可以至少部分地基于接收到来自间接交互设备并且表示接触物606(例如,图5中的506)相对于间接交互设备的传感表面600(例如,图5中的500)执行了预定义手势/移动的输入数据而启动的又一任务/事件。更具体地,图6和7图示出了用于利用间接交互设备以在可以呈现在显示器700(例如,图4中的400)上显示的用户界面702(例如,图4中的402)内的应用704、706(例如,图4中的404)和/或其它对象之间切换的示例性技术。
应当理解的是,虽然图6没有图示出传感表面600的第一和第二部分,但是在一个实施例中,传感表面600可以包括与图2和图5中图示出的第一部分和第二部分类似的第一和第二(例如,和/或其它)部分。例如,传感表面600的左边缘(例如,其中施加了接触物)可包括瘦条(例如,9毫米宽),该瘦条被配置为用于确定何时在应用之间进行切换。如图 2和图5中所描述的,传感表面600的剩余表面区域(例如,如果有的话)可以被用于执行某种其它功能(例如,用于在图7中的用户界面702内行进和/或操控用户界面702的各方面)。
图6图示出了执行U形手势的接触物606 (例如,如箭头604所图示出的)。如上所述,应当理解的是,除别的之外,可以被执行以启动特定事件的手势可以取决于用户偏好,开发者规定等。例如,用户可以规定,接收到表示在传感表面600的左边缘发起的U形手势的输入数据,就触发正显示的用户界面702上的两个或更多个应用之间的切换。然而,用于可能在用户界面702上呈现的应用和/或其它对象之间的切换的其它手势也可以预想到。例如,在一个实施例中,表示u形手势的输入数据可被配置成使两个应用704,706分割屏幕,而接触物602跨越传感表面600的简单的从左到右的移动可以使用户界面702从显示第一应用704切换到显示第二应用706。
在接收到表示所述U形手势和/或其它预定义手势的输入数据时,可以发起相应的事件。例如,如图7中所图示的,接收到表示U形手势的输入数据可以触发计算机系统将用户界面702从显示仅仅第一应用704切换到显示第一应用704和第二应用706的分割屏幕(例如,如箭头708所表示的)。以这种方式,例如,间接交互设备可被用于在可以被呈现在用户界面702上的应用704,706和/或其他对象之间进行切换。
图8图示出了用于间接交互系统804的示例性环境800的一个组件框图。更具体地,图8图示出了系统804的示例形环境800,该系统804被配置为提供用于,利用间接交互设备802启动(例如,打开),操控和/或关闭包括在显示器814上呈现的用户界面上的一个或多个对象。举例而言,系统804可以用于打开和/或关闭屏幕上的键盘和/或菜单和/或用于在用户界面内呈现的应用之间切换。这样的系统可以发现,可能有用的是,特别适用于利用间接交互设备802(例如,鼠标,触摸板等)的个人计算机和/或其它计算环境。
示例性系统804包括可被配置成接收来自间接交互设备802的输入的输入接收器组件806。作为一个示例,间接交互设备802(例如,其可以包括诸如触摸板之类的触敏表面,热敏表面,等等)可以被配置为检测与接触物(例如,手指,尖笔等)的特定类型的交互和/或将这些交互转化为输入数据。除别的之外,这样的输入数据可以提供例如,关于(例如,指示)相对于传感表面施加的接触物的位置,在一个或多个接触物相对于传感表面移动的情况下接触物的移动等等的信息。
该示例性系统804还包括传感组件808。传感组件808 可以包括硬件和/或至少部分通过硬件实现的软件,其被配置成使所述间接交互设备802的传感表面包括至少第一部分和第二部分。也就是说,换句话说,传感组件808被配置为使表示相对于传感表面的第一部分施加了接触物的输入数据与表示相对于传感表面的第二部分施加了接触物的输入数据被以不同方式进行处理(即,实质上是使传感表面被划分成两个或更多的部分以便分别被配置成提供不同功能)。例如,在一个实施例中,传感表面的第一部分(例如,图2中的202)可以由传感组件808配置用于响应于检测到由相对于第一部分施加的第一接触物执行的一个或多个预定义手势而改变用户界面。传感表面的第二部分(例如,图2中的204)可被配置成用于某种其它功能。作为一个示例,第二部分可由传感组件808配置用于在用户界面内行进。
举例而非限制,当间接交互设备802耦合到计算机系统时和/或在这之后的某个时候,该传感组件808可以被配置来将间接交互设备802的传感表面划分成两个或更多个部分。应当理解的是,这样的划分,间接交互设备802可以知道或可以不知道。作为一个示例,当输入数据组件806接收到输入数据时,例如,可以确定,这样的数据是否表示相对于传感表面的第一部分或第二部分施加了接触物。在这种实施例中,可能不必要和/或不希望的是,向间接交互设备802提供有关传感表面被划分成两个或更多个部分的信息。相反地,该划分例如,在处理从间接交互设备802接收到的数据期间可被利用。然而,在其它实施例中,向间接交互设备802提供关于传感表面被划分为两个或更多个部分的信息可能是有利的。例如,通过使用这样的信息,间接交互设备802可以改变传感表面的视觉外观,与传感表面的音频交互等(例如,使得用户知道这种划分)。
还应当理解的是,虽然图8图示出如同包括在系统804内的传感组件808,但是在另一实施例中,传感组件808可包括在间接交互设备802内。在这样的实施例中,例如,间接交互设备802可以独立地(例如,和/或利用来自系统804的输入)将间接交互设备802的传感表面划分成两个或更多个部分。
传感表面的各部分被配置成用于执行不同的功能(例如,但是其功能可以重叠)。作为一个示例,例如,由输入数据组件806接收到的表示在一个或多个接触物(例如,手指,尖笔等)和传感表面之间的发起于,结束于和/或包括在所述传感表面的第一部分(例如,一个或多个边缘部分)内的交互的输入数据可以被用于改变用户界面(例如,打开/关闭菜单和/或屏幕上的键盘,在可被呈现在用户界面内的应用和/或其它对象之间切换,和/或发起某项其它事件/任务)。例如,由输入数据组件806接收到的表示在一个或多个接触物和传感表面之间的发起于,结束于和/或包括在所述传感表面的(例如,由传感组件808规定的)第二部分内的交互的输入数据可以被用于使在用户界面内呈现的对象行进和/或操控在用户界面内呈现的对象。
应该理解的是,除别的之外,通过接收到表示与第一部分交互的接触物的输入数据而触发的特定的事件/任务可以依赖于,用户规定、开发者规定,制造商规定等。作为一个示例,系统804可以包括数据库(未示出),该数据库包含一个或多个预定义手势(例如,在接触物和传感表面之间的预定义交互)以及在输入数据表示所述预定义手势中的一个或多个的情况下将要执行的相关联的事件/任务。
示例环境800的系统804还包括处理组件810,除别的之外,该处理组件810被配置成处理由输入数据组件806接收到的输入数据。例如,处理组件810可以被配置为确定输入数据是否表示发生在传感表面的第一部分和/或第二部分中的交互。如果该交互发生在第二部分中,则处理组件810可被配置成至少部分地基于接收到的输入数据来执行第二部分的所述一个或多个功能。例如,在所述第二部分被配置用于行进于呈现在显示器814上的用户界面的情况下,处理组件810可以被配置为操纵关于用户界面的目标(例如,鼠标指针)。
如果该交互至少部分地发生在第一部分中,则处理组件810可被配置成确定输入数据是否表示旨在发起规定事件/任务的手势。作为一个示例,处理组件810可以将输入数据与包括表示一个或多个定义手势的数据库进行比较,以确定输入数据是否表示已经预定义的手势。如果输入数据表示已经预定义了的手势,则处理组件810可以识别与输入数据中表示的手势相关联的事件,并执行所识别的事件。举例而言,处理组件810可以被配置来启动一个或多个对象(例如,打开菜单和/或屏幕上的(例如,钢琴(piano))键盘),在被配置成显示在用户界面内的两个或更多个对象(例如,应用)之间切换,和/或关闭/隐藏一个或多个对象(例如,关闭菜单和/或屏幕上的键盘)。
在一个实施例中,当对象通过发生在间接交互设备802上的交互被启动时(例如,当表示预定义手势的输入数据被接收到时),对象可以通过示例性系统804的映射组件812映射到传感表面的至少一部分。例如,在一个实施例中,映射组件812可以被配置为将对象映射到传感表面的(例如,如传感组件808所定义的)第一部分(例如,如相对于图2-5更详细地描述的)。以这种方式,例如,接触物可以通过传感表面的所述第一部分操控已启动的对象的各方面。
如以上关于图5描述的,应理解的是,当传感表面的一部分映射到对象时,可能希望的是,调整传感表面的一个或多个部分的表面区域,以适应映射。例如,在一个实施例中,第一部分可能(例如,在启动/打开对象之前)仅包括传感表面的顶部9毫米。这样少量的表面区域可能使用户难以通过所述第一部分与所映射的对象的各方面进行交互。因此,在一个实施例中,当要映射到传感表面的一部分的对象被启动时,传感组件808可以改变第一部分和第二部分中的至少一个的表面区域。例如,当基于表示预定义手势的输入数据启动对象时,传感组件808可以被配置为扩大所述第一部分的表面区域,同时减少第二部分的表面区域(例如,使得整个表面区域保持恒定)。通过这种方式,映射组件812可以将对象映射到传感表面的更大部分(例如,相对于它在对象被打开之前的尺寸而言)。
应当理解的是,例如,当被映射到传感表面的一部分的对象被关闭和/或隐藏时,所述第一部分和/或第二部分的表面区域可以再次通过传感组件808进行调整。作为一个示例,当对象被关闭时,被映射到对象的传感表面的一部分的表面区域可被调整(例如,减少)到它在对象启动之前的尺寸。
又一实施例涉及一种计算机可读介质,其包括被配置成实施本文提出的技术中的一种或多种的处理器可执行指令。图9中图示出了可通过这些方式设计的示例性的计算机可读介质,其中,实现方式900包括计算机可读介质916 (例如, CD-R, DVD-R,或硬盘驱动器的盘片),在计算机可读介质916上编码计算机可读数据914。该计算机可读数据914进而包括一组计算机指令912,该指令被配置为根据本文所阐述的原理中的一个或多个进行操作。在一个这样的实施例900中,处理器可执行计算机指令912可以被配置为执行方法910,例如,比如图1的示例性方法100的至少一些。在另一个这样的实施例中,处理器可执行指令912可以被配置为实现一个系统,例如,比如图8的示例性系统800 的至少一些。本领域普通技术人员可以设计出许多这样的被配置为根据本文提出的技术来操作的计算机可读介质916。
虽然以特定于结构特征和/或方法动作的语言来描述了本主题,但应当理解,在所附权利要求书中限定的主题并不一定限于以上描述的特定特征或动作。相反,以上描述的特定特征和动作是作为实现权利要求的示例形式而公开的。
如在本申请中所使用的,术语“组件”,“模块”,“系统”,“接口”等一般旨在指代计算机相关的实体,或者硬件,硬件和软件的组合,软件或者执行中的软件。例如,组件可以是,但不限于是,在处理器上运行的进程,处理器,对象,可执行文件,执行的线程,程序和/或计算机。举例而言,在控制器上运行的应用和控制器都可以是组件。一个或多个组件可以驻留在进程和/或执行的线程中,并且组件可以位于一台计算机上和/或分布在两台或更多台计算机之间。
此外,通过使用标准编程和/或工程技术生成软件、固件、硬件、或其任意组合来控制计算机实现所公开的主题,所要求保护的主题可以被实现为方法、装置或制品。如本文中所使用的术语“制品”旨在涵盖可从任何计算机可读设备,载体或介质进行访问的计算机程序。当然,本领域的技术人员将认识到,在不背离所要求保护的主题的范围或精神的情况下,可以对该配置做出许多修改。
图10和下面的讨论提供了用于实现本文所阐述的规定中的一个或多个的实施例的合适的计算环境的简要而概括的描述。图10的操作环境仅仅是合适的操作环境的一个示例,并且不旨在暗示关于操作环境的使用或者功能的范围的任何限制。示例性计算设备包括但不限于个人计算机,服务器计算机,手持式或膝上型设备,移动设备(比如移动电话,个人数字助理(PDA),媒体播放器,等等),多处理器系统,消费电子产品,小型计算机,大型计算机,包括以上系统或设备中的任一个的分布式计算环境等等。
虽然未要求,但是实施例是在由一个或多个计算设备执行的“计算机可读指令”的一般上下文中描述的。计算机可读指令可以通过计算机可读介质来分发(下面讨论)。计算机可读指令可被实现为执行特定任务或实现特定的抽象数据类型的程序模块,比如函数,对象,应用程序编程接口(API),数据结构等。通常,计算机可读指令的功能可在各种不同的环境中根据需要被组合或分布。
图10图示出了包括计算设备1012的系统1010的一个示例,计算设备1012被配置成实现本文所提供的一个或多个实施例。在一个配置中,计算设备1012包括至少一个处理单元1016和存储器1018。根据计算设备的确切配置和类型,存储器1018可以是易失性的(例如,诸如RAM),非易失性的(例如,诸如ROM,闪存等),或两者的某种组合。这种配置在图10中由虚线1014图示。
在其它实施例中,设备1012可以包括附加特征和/或功能。例如,设备1012还可以包括附加存储装置(例如,可去除的和/或不可去除的),包括但不限于磁存储装置,光学存储装置,等等。这样的附加存储装置在图10中通过存储装置1020图示出。在一个实施例中,用于实现本文提供的一个或多个实施例的计算机可读指令可以在存储装置1020中。存储装置1020还可以存储用于实现操作系统、应用程序、等等的其它计算机可读指令。例如,计算机可读指令可以被加载到存储器1018中以由处理单元1016执行。
如本文中使用的术语“计算机可读介质”包括计算机存储介质。计算机存储介质包括以任何方法或技术实现来存储诸如计算机可读指令或其它数据之类的信息的易失性和非易失性、可移除和不可移除的介质。存储器1018和存储装置1020是计算机存储介质的示例。计算机存储介质包括,但不限于,RAM,ROM,EEPROM,闪存或其它存储器技术,CD-ROM,数字多功能盘(DVD)或其它光学存储装置,磁盒,磁带,磁盘存储装置或其它磁存储设备,或者可用于存储所需信息且可以由设备1012访问的任何其它介质。任何这样的计算机存储介质都可以是设备1012的一部分。
设备1012还可以包括允许设备1012与其它设备进行通信的通信连接1026。通信连接1026可以包括,但不限于,调制解调器,网络接口卡(NIC),集成网络接口,射频发射机/接收机,红外线端口,USB连接,或用于将计算设备1012连接到其它计算设备的其它接口。通信连接1026可以包括有线连接或无线连接。通信连接1026可以发送和/或接收通信介质。
术语“计算机可读介质”可以包括通信介质。通信介质通常在诸如载波或其它传输机制之类的“调制数据信号”中包含计算机可读指令或其它数据,并且包括任何信息传递介质。“调制数据信号”这一术语可包括让其特性集合中的一个或多个特性以在信号中编码信息这样的方式进行设置或改变的信号。
设备1012可包括输入设备1024,比如键盘,鼠标,笔,语音输入设备,触摸输入设备,红外照相机,视频输入设备和/或任何其它输入设备。输出设备1022,诸如一个或多个显示器,扬声器,打印机和/或任何其它输出设备,也可被包括在设备1012中。输入设备1024和输出设备1022可以经由有线连接,无线连接或其任何组合来连接到设备1012。在一个实施例中,来自另一个计算设备的输入设备或输出设备可被用作计算设备1012的输入设备1024或输出设备1022。
计算设备1012的组件可以通过诸如总线之类的各种互连进行连接。这样的互连可以包括外围组件互连(PCI),如PCI Express,通用串行总线(USB),火线(IEEE 1394),光学总线结构等。在另一实施例中,计算设备1012的组件可以通过网络互连。例如,存储器1018可以包括位于通过网络互连的不同物理位置的多个物理存储器单元。
本领域技术人员将认识到,用于存储计算机可读指令的存储设备可分布在网络上。例如,通过网络1028可访问的计算设备1030可以存储计算机可读指令,以实现本文所提供的一个或多个实施例。计算设备1012可以访问计算设备1030并下载用于执行的计算机可读指令的一部分或全部。可替换地,计算设备1012可根据需要下载计算机可读指令的片断,或者某些指令可以在计算设备1012处执行,而某些指令则在计算设备1030处执行。
本文提供了实施例的各种操作。在一个实施例中,所描述的操作中的一个或多个可以构成存储在一个或多个计算机可读介质上的计算机可读指令,如果这些计算机可读指令被计算设备执行,那么它们将使所述计算设备执行所描述的操作。所描述的一些或全部操作的顺序不应该被解释为暗示这些操作一定是顺序相关的。得益于本描述的本领域技术人员将会意识到可替换的顺序。此外,应理解的是,并非所有的操作都必须存在于本文提供的每个实施例中。
此外,词语“示例性”在本文中用于表示用作示例,实例或说明。本文描述为“示例性”的任何方面或设计不一定被解释为优于其它方面或设计。相反,使用词语示例性旨在以具体方式呈现概念。如在本申请中所使用的,术语“或”旨在意指包括性“或”而非排他性的“或”。也就是说,除非另外指定,或者从上下文清楚可见,否则“X采用A或B”旨在意指自然的包括性排列中的任何一个。也就是说,如果X采用A ; X采用B ;或X采用A和B,那么“X采用A或B”在上述任何情况下均满足。此外,在本申请以及所附权利要求中使用的冠词“一”和“一个”可通常被解释为意指“一个或多个”,除非另有规定或从上下文清楚可见是针对单数形式。另外,A和B中的至少一个或类似物通常意指A或B或A和B两者。
虽然已经相对于一个或多个实现方式示出和描述了本公开,但是本领域其他技术人员至少部分地基于对本说明书和附图的阅读及理解想到等效的改变和修改。本公开包括所有这样的修改和改变,并且只由所附权利要求的范围来限定。特别是对于由上述组件(例如,元件,资源等)执行的各种功能,除非另有说明,否则用于描述这些组件的术语旨在对应于执行所描述组件的指定功能(例如,在功能上等效)的任何组件,即使结构上不等同于所公开的执行在本文所图示的本公开的示例性实现方式中的功能的结构。此外,尽管可能相对于几个实现方式中的唯一一个公开了本公开的特定特征,但是这样的特征可以与其它实现方式中的一个或多个其它特征相结合,这对于任何给定或特定的应用而言可能是希望的并且有利的。此外,就在本说明书或权利要求书中使用术语“包括”、“具有”、“含有”、“带有”、或其变体而言,这样的术语旨在以与术语“包括”类似的方式进行包含。

Claims (6)

1.一种用于与用户界面进行间接交互的方法,包括:
接收表示以第一预定义方式相对于间接交互设备的传感表面施加了第一接触物的第一输入数据;
将所述传感表面划分为至少两个部分,其中在所述传感表面的第一部分中发起的与第一接触物的交互被配置为初始化一个或多个对象的启动,并且在所述传感表面的第二部分中发起的与第二接触物的交互被配置用于在所述用户界面内行进;
响应于所述第一输入数据在所述用户界面内启动对象;以及
将所述传感表面的至少一部分映射到所述对象,其中所述传感表面映射到所述对象的量取决于所述对象的类型。
2.根据权利要求1所述的方法,所述启动对象包括:打开菜单和打开屏幕上的键盘中的至少一个。
3.根据权利要求1所述的方法,将所述传感表面的至少一部分映射到所述对象包括:将小于所述传感表面全部的一部分映射到所述对象使得所述传感表面的第一部分被映射到所述对象。
4.根据权利要求3所述的方法,包括:
接收表示相对于所述传感表面的第一部分施加了第二接触物的第二输入数据;以及
至少部分地基于所述第二输入数据操控所述对象。
5.根据权利要求3所述的方法,包括:
利用所述传感表面的第二部分在用户界面内行进,第二部分不同于第一部分。
6.根据权利要求1所述的方法,包括:
在启动了所述对象时,扩大所述传感表面的第一部分的表面区域,同时减小所述传感表面的第二部分的表面区域,并且,将所述传感表面的至少一部分映射到所述对象包括将所述传感表面的扩大的第一部分映射到所述对象。
CN201280054890.3A 2011-11-08 2012-11-05 用户界面的间接交互 Active CN103917945B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/291,776 US9594504B2 (en) 2011-11-08 2011-11-08 User interface indirect interaction
US13/291776 2011-11-08
PCT/US2012/063626 WO2013070557A1 (en) 2011-11-08 2012-11-05 User interface indirect interaction

Publications (2)

Publication Number Publication Date
CN103917945A CN103917945A (zh) 2014-07-09
CN103917945B true CN103917945B (zh) 2018-10-19

Family

ID=48224637

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280054890.3A Active CN103917945B (zh) 2011-11-08 2012-11-05 用户界面的间接交互

Country Status (6)

Country Link
US (1) US9594504B2 (zh)
EP (1) EP2776911B1 (zh)
JP (1) JP6141300B2 (zh)
KR (1) KR102061360B1 (zh)
CN (1) CN103917945B (zh)
WO (1) WO2013070557A1 (zh)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US9310994B2 (en) * 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US20120304132A1 (en) 2011-05-27 2012-11-29 Chaitanya Dev Sareen Switching back to a previously-interacted-with application
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US9658766B2 (en) * 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US8933952B2 (en) 2011-09-10 2015-01-13 Microsoft Corporation Pre-rendering new content for an application-selectable user interface
US9213482B2 (en) * 2011-11-11 2015-12-15 Elan Microelectronics Corporation Touch control device and method
US9032292B2 (en) * 2012-01-19 2015-05-12 Blackberry Limited Simultaneous display of multiple maximized applications on touch screen electronic devices
WO2013123124A1 (en) * 2012-02-15 2013-08-22 Keyless Systems Ltd. Improved data entry systems
US9395852B2 (en) * 2012-05-07 2016-07-19 Cirque Corporation Method for distinguishing between edge swipe gestures that enter a touch sensor from an edge and other similar but non-edge swipe actions
KR101963787B1 (ko) * 2012-07-09 2019-03-29 삼성전자주식회사 휴대 단말기의 부가 기능 운용 방법 및 장치
KR102044829B1 (ko) * 2012-09-25 2019-11-15 삼성전자 주식회사 휴대단말기의 분할화면 처리장치 및 방법
US8887097B2 (en) * 2012-10-24 2014-11-11 Hewlett-Packard Development Company, L.P. Object opening menu
US9582122B2 (en) 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
KR102210278B1 (ko) * 2012-12-06 2021-02-02 삼성전자주식회사 디스플레이 장치 및 제어 방법
CN103324435B (zh) * 2013-05-24 2017-02-08 华为技术有限公司 分屏显示的方法、装置及其电子设备
JP5739479B2 (ja) * 2013-06-12 2015-06-24 本田技研工業株式会社 プログラム及びアプリケーション制御方法
CN104298453A (zh) * 2013-07-15 2015-01-21 鸿富锦精密工业(深圳)有限公司 手写输入控制方法
CN103530059B (zh) * 2013-10-30 2016-08-17 广州视睿电子科技有限公司 人机交互系统及方法
KR20150081840A (ko) * 2014-01-07 2015-07-15 삼성전자주식회사 디스플레이장치 및 그 제어방법
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
USD759724S1 (en) * 2014-06-03 2016-06-21 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
CN105786341B (zh) * 2014-12-24 2019-12-13 阿里巴巴集团控股有限公司 控制移动终端应用程序的方法和装置
JP6520227B2 (ja) * 2015-03-04 2019-05-29 セイコーエプソン株式会社 表示装置および表示制御方法
US9860145B2 (en) 2015-07-02 2018-01-02 Microsoft Technology Licensing, Llc Recording of inter-application data flow
US9712472B2 (en) 2015-07-02 2017-07-18 Microsoft Technology Licensing, Llc Application spawning responsive to communication
US9733993B2 (en) 2015-07-02 2017-08-15 Microsoft Technology Licensing, Llc Application sharing using endpoint interface entities
US9658836B2 (en) 2015-07-02 2017-05-23 Microsoft Technology Licensing, Llc Automated generation of transformation chain compatible class
US10198252B2 (en) 2015-07-02 2019-02-05 Microsoft Technology Licensing, Llc Transformation chain application splitting
US9733915B2 (en) 2015-07-02 2017-08-15 Microsoft Technology Licensing, Llc Building of compound application chain applications
US10261985B2 (en) 2015-07-02 2019-04-16 Microsoft Technology Licensing, Llc Output rendering in dynamic redefining application
US9785484B2 (en) 2015-07-02 2017-10-10 Microsoft Technology Licensing, Llc Distributed application interfacing across different hardware
US10198405B2 (en) 2015-07-08 2019-02-05 Microsoft Technology Licensing, Llc Rule-based layout of changing information
US10031724B2 (en) 2015-07-08 2018-07-24 Microsoft Technology Licensing, Llc Application operation responsive to object spatial status
US10277582B2 (en) 2015-08-27 2019-04-30 Microsoft Technology Licensing, Llc Application service architecture
US10417827B2 (en) * 2017-05-04 2019-09-17 Microsoft Technology Licensing, Llc Syndication of direct and indirect interactions in a computer-mediated reality environment
DK180117B1 (en) 2017-05-15 2020-05-15 Apple Inc. SYSTEMS AND METHODS FOR INTERACTING WITH MULTIPLE APPLICATIONS THAT ARE SIMULTANEOUSLY DISPLAYED ON AN ELECTRONIC DEVICE WITH A TOUCHSENSITIVE DISPLAY

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1322341A (zh) * 1998-07-02 2001-11-14 塞尔科股份有限公司 公用亭触摸板

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5327161A (en) 1989-08-09 1994-07-05 Microtouch Systems, Inc. System and method for emulating a mouse input device with a touchpad input device
US6057845A (en) * 1997-11-14 2000-05-02 Sensiva, Inc. System, method, and apparatus for generation and recognizing universal commands
US7348961B1 (en) * 1999-02-26 2008-03-25 Jonathan Shneidman Telescreen operating method
US6757002B1 (en) 1999-11-04 2004-06-29 Hewlett-Packard Development Company, L.P. Track pad pointing device with areas of specialized function
JP4300703B2 (ja) 2000-11-15 2009-07-22 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム格納媒体
US20030025676A1 (en) * 2001-08-02 2003-02-06 Koninklijke Philips Electronics N.V. Sensor-based menu for a touch screen panel
JP2005348036A (ja) 2004-06-02 2005-12-15 Sony Corp 情報処理システム、情報入力装置、情報処理方法、および、プログラム
US8402384B2 (en) * 2004-11-09 2013-03-19 Research In Motion Limited Dynamic bar oriented user interface
WO2007008867A2 (en) 2005-07-12 2007-01-18 Cirque Corporation Rectangular sensor grid for touchpad sensor and scrolling region
US20090278806A1 (en) 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7949948B2 (en) * 2007-05-09 2011-05-24 Microsoft Corporation Constraint and rule-based page layout
JP2009087075A (ja) 2007-09-28 2009-04-23 Toshiba Corp 情報処理装置、情報処理装置の制御方法、及び情報処理装置の制御プログラム
JP5065838B2 (ja) 2007-10-04 2012-11-07 アルプス電気株式会社 座標入力装置
JP2009129171A (ja) 2007-11-22 2009-06-11 Denso It Laboratory Inc 移動体に搭載される情報処理装置
US8745018B1 (en) * 2008-07-10 2014-06-03 Google Inc. Search application and web browser interaction
US20100031202A1 (en) 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US10375223B2 (en) * 2008-08-28 2019-08-06 Qualcomm Incorporated Notifying a user of events in a computing device
US9501694B2 (en) * 2008-11-24 2016-11-22 Qualcomm Incorporated Pictorial methods for application selection and activation
KR101565768B1 (ko) 2008-12-23 2015-11-06 삼성전자주식회사 휴대단말의 잠금 모드 해제 방법 및 장치
US9696803B2 (en) 2009-03-12 2017-07-04 Immersion Corporation Systems and methods for friction displays and additional haptic effects
KR20100106638A (ko) 2009-03-24 2010-10-04 한국과학기술원 터치 기반 인터페이스 장치, 방법 및 이를 이용한 모바일 기기, 터치 패드
TW201035824A (en) 2009-03-25 2010-10-01 E Lead Electronic Co Ltd Method of operating trackpad with button function
KR101593598B1 (ko) * 2009-04-03 2016-02-12 삼성전자주식회사 휴대단말에서 제스처를 이용한 기능 실행 방법
KR20100118366A (ko) * 2009-04-28 2010-11-05 삼성전자주식회사 휴대 단말기의 터치스크린 운용 방법 및 이를 지원하는 휴대 단말기
US20100277422A1 (en) * 2009-04-30 2010-11-04 Microsoft Corporation Touchpad display
US8279194B2 (en) * 2009-05-22 2012-10-02 Elo Touch Solutions, Inc. Electrode configurations for projected capacitive touch screen
US9009612B2 (en) 2009-06-07 2015-04-14 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US20100328261A1 (en) 2009-06-24 2010-12-30 Woolley Richard D Capacitive touchpad capable of operating in a single surface tracking mode and a button mode with reduced surface tracking capability
US9152317B2 (en) 2009-08-14 2015-10-06 Microsoft Technology Licensing, Llc Manipulation of graphical elements via gestures
US8429565B2 (en) * 2009-08-25 2013-04-23 Google Inc. Direct manipulation gestures
US9513798B2 (en) 2009-10-01 2016-12-06 Microsoft Technology Licensing, Llc Indirect multi-touch interaction
KR20110063297A (ko) * 2009-12-02 2011-06-10 삼성전자주식회사 휴대용단말기 및 그 제어방법
KR101092722B1 (ko) 2009-12-02 2011-12-09 현대자동차주식회사 차량의 멀티미디어 시스템 조작용 사용자 인터페이스 장치
US9542097B2 (en) 2010-01-13 2017-01-10 Lenovo (Singapore) Pte. Ltd. Virtual touchpad for a touch device
US9367205B2 (en) * 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US9405404B2 (en) 2010-03-26 2016-08-02 Autodesk, Inc. Multi-touch marking menus and directional chording gestures
CN102236442B (zh) 2010-04-28 2015-04-15 赛恩倍吉科技顾问(深圳)有限公司 触摸板控制系统及方法
US20110296333A1 (en) * 2010-05-25 2011-12-01 Bateman Steven S User interaction gestures with virtual keyboard
US20110292268A1 (en) * 2010-05-26 2011-12-01 T-Mobile Usa, Inc. Multi-region touchpad device
US20110314427A1 (en) * 2010-06-18 2011-12-22 Samsung Electronics Co., Ltd. Personalization using custom gestures
CN102339208A (zh) * 2010-07-14 2012-02-01 华硕电脑股份有限公司 界面显示调整方法及应用其的触控显示器
US8972879B2 (en) * 2010-07-30 2015-03-03 Apple Inc. Device, method, and graphical user interface for reordering the front-to-back positions of objects
WO2012020865A1 (ko) * 2010-08-13 2012-02-16 엘지전자 주식회사 이동단말기, 디스플레이 장치 및 그 제어 방법
US8918725B2 (en) * 2010-08-31 2014-12-23 A Thinking Ape Technologies Systems and methods to support real-time integrated mobile communication for social applications
KR101750898B1 (ko) * 2010-12-06 2017-06-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
US8825734B2 (en) * 2011-01-27 2014-09-02 Egain Corporation Personal web display and interaction experience system
US9553948B2 (en) * 2011-05-05 2017-01-24 Vmware, Inc. User interface for managing monitoring profiles
WO2012170446A2 (en) * 2011-06-05 2012-12-13 Apple Inc. Systems and methods for displaying notifications received from multiple applications
US8959430B1 (en) * 2011-09-21 2015-02-17 Amazon Technologies, Inc. Facilitating selection of keys related to a selected key

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1322341A (zh) * 1998-07-02 2001-11-14 塞尔科股份有限公司 公用亭触摸板

Also Published As

Publication number Publication date
EP2776911A4 (en) 2015-07-22
CN103917945A (zh) 2014-07-09
EP2776911A1 (en) 2014-09-17
JP6141300B2 (ja) 2017-06-07
WO2013070557A1 (en) 2013-05-16
US9594504B2 (en) 2017-03-14
EP2776911B1 (en) 2021-04-28
KR20140094534A (ko) 2014-07-30
JP2014532949A (ja) 2014-12-08
US20130117715A1 (en) 2013-05-09
KR102061360B1 (ko) 2019-12-31

Similar Documents

Publication Publication Date Title
CN103917945B (zh) 用户界面的间接交互
US10976856B2 (en) Swipe-based confirmation for touch sensitive devices
US9886108B2 (en) Multi-region touchpad
US9146672B2 (en) Multidirectional swipe key for virtual keyboard
US9195321B2 (en) Input device user interface enhancements
US9423932B2 (en) Zoom view mode for digital content including multiple regions of interest
US9367208B2 (en) Move icon to reveal textual information
US20140306897A1 (en) Virtual keyboard swipe gestures for cursor movement
US20140306898A1 (en) Key swipe gestures for touch sensitive ui virtual keyboard
US20120169776A1 (en) Method and apparatus for controlling a zoom function
WO2013094371A1 (ja) 表示制御装置、表示制御方法およびコンピュータプログラム
US20110060986A1 (en) Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same
US9030430B2 (en) Multi-touch navigation mode
US20120105367A1 (en) Methods of using tactile force sensing for intuitive user interface
US20110283212A1 (en) User Interface
EP2776905B1 (en) Interaction models for indirect interaction devices
CN103927082A (zh) 基于手势的用户界面方法和设备
KR20140148490A (ko) 힘 감지 터치 패널의 자동 사용을 위한 장치 및 방법
US20120026077A1 (en) Mapping trackpad operations to touchscreen events
KR101422447B1 (ko) 압력 모델링을 통한 전자책 페이지 전환 방법 및 그 장치
US10809794B2 (en) 3D navigation mode
TWI623876B (zh) 用於控制顯示裝置、電腦程式產品、資料載體與資訊技術設備的方法及控制裝置的用途
JP2009087075A (ja) 情報処理装置、情報処理装置の制御方法、及び情報処理装置の制御プログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150730

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150730

Address after: Washington State

Applicant after: Micro soft technique license Co., Ltd

Address before: Washington State

Applicant before: Microsoft Corp.

GR01 Patent grant
GR01 Patent grant