CN102770837A - 多屏幕张合手势 - Google Patents

多屏幕张合手势 Download PDF

Info

Publication number
CN102770837A
CN102770837A CN2011800106922A CN201180010692A CN102770837A CN 102770837 A CN102770837 A CN 102770837A CN 2011800106922 A CN2011800106922 A CN 2011800106922A CN 201180010692 A CN201180010692 A CN 201180010692A CN 102770837 A CN102770837 A CN 102770837A
Authority
CN
China
Prior art keywords
screen
input
gesture
leaf
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011800106922A
Other languages
English (en)
Other versions
CN102770837B (zh
Inventor
K·P·欣克利
矢谷浩司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN102770837A publication Critical patent/CN102770837A/zh
Application granted granted Critical
Publication of CN102770837B publication Critical patent/CN102770837B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1641Details related to the display arrangement, including those related to the mounting of the display in the housing the display being formed by a plurality of foldable display components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1698Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a sending/receiving arrangement to establish a cordless communication link, e.g. radio or infrared link, integrated cellular phone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

描述了多屏幕张合手势的各实施例。在各实施例中,在多屏幕系统的第一屏幕处识别第一输入,且该第一输入包括第一运动输入。在多屏幕系统的第二屏幕处识别第二输入,且该第二输入包括第二运动输入。随后可从与所识别的第一和第二输入相关联的第一和第二运动输入中确定捏合手势或扩张手势。

Description

多屏幕张合手势
背景
诸如个人计算机、膝上型计算机、桌面计算机、娱乐设备等计算设备越来越多地提供更多功能和特征,这些功能和特征使得用户难以导航并选择与用户想要在设备上启动的功能相关的应用命令。随着计算设备的功能和特征持续增加,诸如鼠标、键盘和其他输入设备等与计算设备交互的传统技术变得较低效。这些设备的设计者持续面临的挑战是如何并入不仅是直观的、而且还允许用户容易且快速地与计算设备的许多功能和特征交互的交互技术。
发明内容
提供本概述以介绍多屏幕手势的简化概念。这些简化概念在以下详细描述中进一步描述。本概述并不旨在标识所要求保护的主题的必要特征,也不旨在用于帮助确定所要求保护的主题的范围。
描述了多屏幕张合手势的各实施例。在各实施例中,在多屏幕系统的第一屏幕处识别第一输入,且该第一输入包括第一运动输入。在多屏幕系统的第二屏幕处识别第二输入,且该第二输入包括第二运动输入。随后可从与所识别的第一和第二输入相关联的第一和第二运动输入中确定捏合手势或扩张手势。在其他实施例中,第一和第二输入之间的距离随着第一运动输入和第二运动输入而改变。该距离改变可被识别为距离的减小,该距离的减小被确定为捏合手势,该捏合手势给出了在浓缩所显示的对象时缩小的外观。另选地,该距离改变可被识别为距离的增加,该距离的增加被确定为扩张手势,该扩张手势给出了在扩张所显示的对象时放大的外观。
附图简述
参考以下附图描述了多屏幕手势的各实施例。在各附图中,使用相同的标号来指代相同的特征和组件:
图1示出了可实现多屏幕手势的各实施例的多屏幕系统的环境。
图2示出了可实现多屏幕手势的各实施例以便在普遍存在的环境中得到无缝用户体验的具有多个设备的示例系统。
图3示出了多屏幕系统上的多屏幕张合(pinch and expand)手势的示例。
图4示出根据一个或多个实施例的用于多屏幕张合手势的示例方法。
图5示出了多屏幕系统上的多屏幕捏合装袋(pinch-to-pocket)手势的示例。
图6示出根据一个或多个实施例的用于多屏幕捏合装袋手势的示例方法。
图7示出了多屏幕系统上的多屏幕双叩(dual tap)手势的示例。
图8示出根据一个或多个实施例的用于多屏幕双叩手势的示例方法。
图9示出了多屏幕系统上的多屏幕保持并轻叩手势的示例。
图10示出根据一个或多个实施例的用于多屏幕保持并轻叩手势的示例方法。
图11示出了多屏幕系统上的多屏幕保持并拖动手势的示例。
图12示出根据一个或多个实施例的用于多屏幕保持并拖动手势的示例方法。
图13示出了多屏幕系统上的多屏幕保持并翻页手势的示例。
图14示出根据一个或多个实施例的用于多屏幕保持并翻页手势的示例方法。
图15示出了多屏幕系统上的多屏幕书签保持手势的示例。
图16示出根据一个或多个实施例的用于多屏幕书签保持手势的示例方法。
图17示出了多屏幕系统上的多屏幕对象保持并换页手势的示例。
图18示出根据一个或多个实施例的用于多屏幕对象保持并换页手势的示例方法。
图19示出了多屏幕系统上的多屏幕同步滑动手势的示例。
图20示出根据一个或多个实施例的用于多屏幕同步滑动手势的示例方法。
图21示出了可实现多屏幕手势的各实施例的示例设备的各组件。
详细描述
多屏幕手势的各实施例使得多屏幕系统中的一个或多个计算设备的用户能够在该系统的多于一个屏幕处提供输入来启动计算设备功能。在多屏幕手势的各实施例中,多屏幕系统包括可被实现为独立设备或被集成到单个多屏幕设备中的两个或更多屏幕。用户可输入任何类型的各种输入或输入组合,如选择、保持、运动、触摸和/或轻叩输入,这些输入在多屏幕系统或多屏幕设备的多个屏幕处被识别。然后可从各种输入的组合中识别多屏幕手势来启动计算设备功能。因此,多屏幕手势使得用户能够以直观方式而非通过用于向计算机设备输入命令的常规技术来向多屏幕系统或设备提供各种输入。
在各实施例中,多屏幕手势可由具有多个屏幕的计算机设备来实现。或者,多屏幕手势可由两个或更多屏幕的多屏幕系统来实现,这些屏幕可能不是物理连接或集成到单个设备中,而是诸如经由数据或网络连接来通信链接。多屏幕系统可包括多个独立的板或手持设备,这些设备可自动发现彼此、由用户来显式配对、或者另外定位在暂时的物理邻近处。
在多屏幕手势的各实施例中,可使用多屏幕捏合手势来浓缩多屏幕系统或设备的多个屏幕上显示的对象。或者,可使用多屏幕扩张手势来扩张所显示的对象以便显示在多屏幕系统或设备的多个屏幕上。多屏幕张合手势也可在语义上缩放通过与显示器、对象和/或应用相关联的信息体系结构的不同级别。多屏幕捏合装袋手势可用于将所显示的对象装袋,如将所显示的对象保存为多屏幕系统或设备的边框(bezel)下的缩略图像。
可使用多屏幕双叩手势来扩张显示在多屏幕系统或设备的多个屏幕上的显示的对象或将该显示的对象装袋。例如,当在所显示的对象被装袋时确定了双叩手势,所显示的对象可被扩张以便在第一和第二屏幕上进行全屏显示。或者,当在所显示的对象被全屏显示在第一和第二屏幕上时确定了双叩手势,则所显示的对象可被装袋。
可使用多屏幕保持并轻叩手势来将显示的对象从一个显示位置移动和/或复制到另一显示位置,如将对象移动或复制到杂志页上,或者将对象合并到笔记本中。可使用多屏幕保持并拖动手势来维持所显示的对象的第一部分在第一屏幕上的显示,并拖动所显示的对象的显示在另一屏幕上的第二部分来将该所显示的对象的第二部分装袋来用于拆分屏幕视图。或者,可使用保持并拖动手势来维持所显示的对象的第一部分在一个屏幕上的显示,并拖动所显示的对象的被装袋的第二部分来扩张另一屏幕上的显示。
可使用多屏幕保持并翻页手势来选择显示在一个屏幕上的杂志页,并翻动杂志页来显示两个额外的或新的杂志页,这与书中的翻页非常相似。杂志页在所选杂志页的方向上翻动以便显示两个新的杂志页,这与在书中向前或向后翻页非常相似。或者,保持并翻页手势可用于维持显示在一个屏幕上的杂志页的显示,并翻动杂志页来在另一屏幕上显示不同的杂志页。然后可并排显示不连续的杂志页,这对于书而言将涉及从书中撕出一页以将其置于非连续页序来与另一页并排查看。
可使用多屏幕书签保持手势来在对屏幕上的杂志页的保持输入的位置处对杂志页加书签,并且可在对该杂志页维持书签的同时翻动其他杂志页以便进行查看。书签保持手势模仿了读者在翻过书的其他页的同时在页之间保持拇指或手指来保留书中的一个位置的动作。另外,书签是回到杂志页的可选择链接,且对书签的选择输入翻回到屏幕上的杂志页的显示。可使用多屏幕对象保持并换页手势来将所显示的对象从一个显示位置移动和/或复制到另一位置,如合并所显示的对象以便显示在杂志页上。另外,在所显示的对象从一个显示位置移动或复制到另一位置时可维持相对显示位置。
可使用多屏幕同步滑动手势来将所显示的对象从一个屏幕移动以便显示在另一屏幕上,用不同的所显示的对象来替换设备屏幕上所显示的对象,移动所显示的对象来显露设备屏幕上的工作空间,和/或循环通过显示在系统或设备屏幕上的一个或多个工作空间(例如,应用、界面等)。同步滑动手势也可用于导航到另外的视图,或将当前视图重新分配到不同屏幕。另外,不同应用或工作空间可被保持在栈上并用同步滑动手势被来回循环通过。
虽然所描述的用于多屏幕手势的系统和方法的特征和概念能够在任何数量的不同环境、系统和/或各种配置中实现,但多屏幕手势的各实施例在以下各示例系统和环境的上下文中描述。
图1示出了一示例实现中可用于采用多屏幕手势技术的环境100。所示环境100包括可用各种方式来配置的计算设备102的一个示例,如任何类型的多屏幕计算机或设备。例如,计算设备102可被配置为计算机(例如,膝上型计算机、笔记本计算机、平板PC、桌面计算机等)、移动站、娱乐设备、游戏设备等,如参考图2进一步描述的。计算设备102还可以用使得计算设备102执行一个或多个操作的软件来实现。
在该示例环境100中,计算设备102是包括第一屏幕104和第二屏幕106的多屏幕设备,每一屏幕可被实现为任何类型的显示设备、显示系统和/或触摸屏。第一和第二屏幕可显示任何类型的背景或桌面,以及用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。第一和第二屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。
计算设备102包括手势模块108,手势模块108代表了确定手势并使得对应于手势的操作被执行的功能。计算设备还包括输入识别系统110,输入识别系统110被实现为识别各种输入或输入组合,如选择输入、保持输入、运动输入、触摸输入、轻叩输入等。输入识别系统110可包括任何类型的输入检测特征以便在各种类型的输入之间进行区分,这些输入检测特征如传感器、光传感像素、触摸传感器、照相机、和/或解释用户交互、手势、输入和运动的自然用户接口。在各实现中,输入识别系统110可从可辨别变量中,如从方向变量(例如,从右到左或相反);从开始区域位置变量(例如,左1、上1、右1、下1)和结束区域变量(例如,左2、上2、右2、下2);和/或从运动速率变量(例如,每秒某一数量的像素)中检测第一或第二屏幕处的运动输入。
输入识别系统110识别各种类型的输入,且手势模块108从所识别的输入中标识或确定多屏幕手势。例如,输入识别系统110可识别第一屏幕104处的第一输入,如触摸输入112,并识别第二屏幕106处的第二输入,如选择输入114。手势模块108然后可从所识别的触摸和选择输入中确定多屏幕手势的类型。第一或第二屏幕处的输入也可被识别为包括将输入识别系统110识别的一种类型的输入与另一输入进行区分的属性(例如,移动、选择点等)。这一区分然后可用作从触摸输入中标识或确定运动输入并因此标识或确定要基于相应手势的确定来执行的操作的基础。在各实现中,计算设备102可包括手势数据库,手势数据库包括手势、输入和/或运动的各种可确定表示,从中手势模块108可确定或标识多屏幕手势。
计算设备102还可被实现为识别并区分诸如触摸输入和指示笔输入等各种输入。该区分可以用各种方式,如通过识别手指输入的大小对比指示笔输入的大小来执行。区分也可通过使用照相机对触摸输入(例如,举起一个或多个手指)、指示笔输入(例如,将两个手指握在一起来指示一个点)、或经由自然用户接口(NUI)的输入进行区分来执行。构想了各种其他用于区分各种类型的输入的技术。
输入识别系统110可识别各种不同类型的输入,且手势模块108可确定各种不同手势,如被识别为单类输入的手势以及涉及多类输入的手势。因此,计算设备102的手势模块108可包括双模输入模块116,双模输入模块代表了识别输入并标识或确定涉及双模输入的手势的功能。手势模块108可通过使用识别并利用通过使用双模输入模块116的不同类型的输入来支持各种不同的手势技术。例如,双模输入模块116可被配置成将指示笔识别为书写工具,而触摸则用于操纵第一或第二屏幕上所显示的对象。应当注意,通过在各种类型的输入之间进行区分,通过这些手势中的单独每一个而变得可能的手势的数量也增加。
因此,手势模块108可支持各种不同的双模的和其他的多屏幕手势118。此处描述的多屏幕手势118的示例包括张合手势120、捏合装袋手势122、双叩手势124、保持并轻叩手势126、保持并拖动手势128、保持并翻页手势130、书签保持手势132、对象保持并换页手势134、以及同步滑动手势136。这些不同多屏幕手势中的每一个在以下讨论的相应的节中描述。尽管在不同的节中描述了每一多屏幕手势,但显然这些手势的特征可被组合和/或分开来支持其他手势。因此,本说明书不限于这些示例。另外,尽管以下讨论可描述选择、保持、运动、触摸和轻叩输入的具体示例,但在不同情况下可切换各种类型的输入(例如,触摸输入可被用作选择输入,反之亦然),和/或可用相同的输入来提供两个输入而不脱离其精神和范围。
所示环境100还包括多屏幕系统138的示例,该多屏幕系统包括各自具有一屏幕的两个(或更多)设备,如具有屏幕142的第一设备140以及具有屏幕146的第二设备144。屏幕不被物理连接或集成到单个设备中,而是可诸如经由数据或网络连接来通信链接。多屏幕系统可包括多个独立的板或手持设备,这些设备可自动发现彼此、由用户来显式配对、或者另外定位在暂时的物理邻近处。在一个实现中,多屏幕系统还可包括多屏幕设备。多屏幕系统138的第一设备140和第二设备144可各自如参考计算设备102描述的那样来配置,计算设备102是计算机(例如,膝上型计算机、笔记本计算机、平板PC、桌面计算机等)、移动站、娱乐设备、游戏设备等的任何一种形式。
图2示出了包括参考图1描述的计算设备102的示例系统200。示例系统200实现了用于当在个人计算机(PC)、电视机设备和/或移动设备上运行应用程序时的无缝用户体验的普遍存在的环境。服务和应用在所有三个环境中基本相似地运行,以便当使用应用、玩视频游戏、看视频等时在从一个设备转换到下一设备时得到共同的用户体验。
在示例系统200中,多个设备通过中央计算设备互联。中央计算设备可以是多个设备本地的,或者可以位于多个设备的远程。在一个实施例中,中央计算设备是“云”服务器农场,其包括通过网络、因特网或其他数据通信链路连接到多个设备的一个或多个服务器计算机。在一个实施例中,该互联体系结构使得功能能够跨多个设备递送以向多个设备的用户提供共同且无缝的体验。多个设备的每一个可具有不同的物理要求和能力,且中央计算设备使用一平台来使得为设备特制且又对所有设备共同的体验能被递送到设备。在一个实施例中,创建目标设备的类,且为通用设备类定制体验。设备类可由设备的物理特征、用途类型、或其他共同特性来定义。
在各种实现中,计算设备102可采取各种不同的配置,诸如用于计算机202、移动设备204、和电视机206用途。这些配置中的每一个包括可具有一般不同的构造和能力的设备,并且因而计算设备102可根据不同的设备类中的一个或多个来配置。例如,计算设备102可被实现为计算机202设备类,该计算机设备类包括个人计算机、台式计算机、多屏幕桌面计算机、膝上型计算机、上网本等等。计算设备102还可被实现为移动204设备类,该移动设备类包括诸如移动电话、便携式音乐播放器、便携式游戏设备、平板计算机、多屏幕平板计算机等移动设备。计算设备102还可被实现为电视机206设备类,该电视机设备类包括在休闲观看环境中具有或连接到一般更大的屏幕的设备。这些设备包括电视机、机顶盒、游戏控制台等。此处所描述的技术可由计算设备102的这些各种配置来支持,且不限于在以下各节中所描述的多屏幕手势的具体示例。
云208包括和/或代表用于基于服务器的服务212的平台210。平台210抽象云208的硬件(如,服务器)和软件资源的底层功能。基于服务器的服务212可包括可在所有或大多数计算机处理在位于计算设备102远程的服务器上执行时使用的应用和/或数据。基于服务器的服务可以作为因特网上的服务和/或通过订户网络(如蜂窝或WiFi网络)来提供。
平台210可抽象资源和功能以将计算设备102与其他计算设备相连接。平台210还可用于抽象资源的缩放来向所遇到的对经由平台210实现的基于服务器的服务212的需求提供对应的缩放级别。因此,在互联设备的实施例中,手势模块108的功能的实现可分布在系统200上。例如,手势模块108可部分地在计算设备102上以及经由抽象云210的功能的平台208来实现。
此外,功能可由计算设备102以任何一种或多种配置来支持。例如,手势模块108和输入识别系统110所支持的多屏幕手势技术可使用计算机202配置中的跟踪垫功能来支持、使用移动204配置中的触摸屏功能来支持、和/或在电视206配置中由作为不涉及与具体输入设备的接触的自然用户接口(NUI)的一部分的照相机来识别。此外,检测并识别输入来标识或确定某一多屏幕手势的操作的执行可分布在系统200上,如由计算设备102来执行和/或由云208的平台210支持的基于服务器的服务212来执行。
除了以下描述各种多屏幕手势的各节之外,示例方法还参考根据多屏幕手势的各实施例的相应附图来描述。一般而言,在此描述的任何功能、方法、过程、组件以及模块都可使用软件、固件、硬件(例如,固定逻辑电路)、手动处理或其任何组合来实现。软件实现表示当由计算机处理器执行时执行指定任务的程序代码。可以在计算机可执行指令的一般上下文中描述示例方法,这些指令可包括软件、应用、例程、程序、对象、组件、数据结构、过程、模块、功能等等。程序代码可被存储在计算机处理器本地和/或远程的一个或多个计算机可读存储器设备中。方法还可以在分布式计算环境中由多个计算机设备实施。此外,此处所描述的特征是平台无关的,并且可在具有各种处理器的各种计算平台上实现。
多屏幕张合手势
图3示出了多屏幕系统302上的多屏幕张合手势的示例300,该多屏幕系统在这些示例中被示为两屏幕设备。多屏幕系统302可以被实现为参考图1和2描述的各种设备中的任一种。在该示例中,多屏幕系统302包括第一屏幕304和第二屏幕306,每一屏幕被实现为显示任何类型的用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。多屏幕系统302可包括如参考图1所示的计算设备102所描述的手势模块108和输入识别系统110,并且还可用参考图21所示的示例设备所描述的组件的任意组合来实现。尽管各示例是参考两屏幕设备来示出并描述的,但多屏幕张合手势的各实施例可以由具有两个以上屏幕的多屏幕系统来实现。
可使用多屏幕捏合手势来浓缩多屏幕系统的多个屏幕上所显示的对象。或者,可使用多屏幕扩张手势来扩张所显示的对象以便显示在多屏幕系统的多个屏幕上。在多屏幕系统308的第一视图302中,第一杂志页310被显示在第一屏幕304上,第二杂志页312被显示在第二屏幕306上。输入识别系统110被实现为识别第一屏幕304处的第一输入314,其中该第一输入还包括第一运动输入316。输入识别系统110还可识别第二屏幕306处的第二输入318,其中该第二输入还包括第二运动输入320,且第二输入大致在第一输入被识别时被识别。
手势模块108被实现为从与所识别的第一输入314和第二输入318相关联的运动输入316、320中确定多屏幕捏合手势。捏合手势可被标识为可用于浓缩所显示的杂志页310、312的第一和第二运动输入的跨屏幕组合。在一实现中,输入识别系统110可识别第一和第二输入之间的距离随着运动输入而改变(例如,减小)。距离改变还可具有最小距离阈值。手势模块108然后可从第一和第二输入之间的距离减小中确定捏合手势。
在某一些实施例中,当在屏幕共享的边缘附近,如在将多屏幕设备上的第一和第二屏幕分开的边框附近的定义的区或区域中识别到手势运动输入时,确定多屏幕捏合手势。边框附近的区或区域可被定义为距离识别捏合手势处的边缘或定界矩形的最小距离。在其他实施例中,捏合手势的各个段可被增量式地识别,如当捏合手势由以下各项构成的时候:相邻边缘上的大致同步的输入(例如,手指触摸接触);第一输入314保持同时第二运动输入320滑向边框(例如,一个手指保持,同时另一手指滑向共同边缘);或导致复合捏合手势的大致同步的两手指提起。另外,用户可以在手势状态之间在相反方向上来回输入张合手势,直到提起第一和第二输入。类似于用户界面上的双叩手势,应用可订阅包括部分或全部手势段的复合高级捏合和/或扩张手势。
多屏幕系统302的第二视图322示出了响应于捏合手势,杂志页310、312在方向326上从原始位置324浓缩的转换。多屏幕系统302的第三个视图328示出了被浓缩以供显示的杂志页310、312。捏合手势给出了当浓缩所显示的对象时缩小的外观。在该示例中,捏合手势浓缩杂志页,从而缩小到多屏幕系统302上的虚拟桌面330。虚拟桌面330可被用作导航到其他日志或书、在杂志页之间拖动所显示的对象、或留下诸如粘贴笔记和待办列表等可见的提醒以便在任何特定的个别笔记本、电子书、日志或文档外部进行快速访问的空间。替换的可导航视图可包括:笔记本的多个页的缩略图像的组织性视图(例如,“看版台视图”);具有多个页、页标签和/或书签从笔记本伸出,以及类似于虚拟桌面330的包围(例如,“蝴蝶视图”)的当前笔记本的最小化或收缩的版本;跨多本书和/或日志的“库视图”;或主屏幕。
从第三视图328中,可使用多屏幕扩张手势来返回到杂志页的全屏视图,如第一视图308中所示。手势模块108还被实现为确定可被标识为运动输入的跨屏幕组合的多屏幕扩张手势,该多屏幕扩张手势可用于将杂志页310、312从多屏幕系统的第三视图328中所示的浓缩显示扩张。在一实现中,输入识别系统110可识别输入之间的距离随着运动输入而改变(例如,增大)。手势模块108然后可从输入之间的距离的增加中确定扩张手势。从第三视图328转换回到多屏幕系统302的第一视图308示出了杂志页310、312被扩张以便在第一和第二屏幕上进行全屏显示。扩张手势给出了当扩张所显示的对象时放大的外观。
应当理解,第一和第二输入的表示以及运动方向的指示仅是出于讨论目的的图示,并且当实现所描述的实施例时可以出现也可以不出现在多屏幕系统的屏幕上。另外,此处对可能与另一屏幕处的另一输入或运动相关的、一个屏幕处的输入或运动的任何描述适用于多屏幕系统的第一或第二屏幕。另外,还构想了跨两个或更多屏幕的三、四、或五手指多屏幕张合手势,如同可从多个手指和/或接触输入中识别和确定的双手拉伸和挤压手势一样。
图4示出了多屏幕张合手势的示例方法400。描述方法的次序并不旨在解释为限制,并且任何数量的所述方法框都可以按任何次序组合以实现本方法或实现替换方法。
在框402,在多屏幕系统的第一屏幕处识别第一输入,该第一输入包括第一运动输入。例如,输入识别系统110在多屏幕系统302的第一屏幕304处识别第一输入314,该第一输入包括第一运动输入316。在框404,在多屏幕系统的第二屏幕处识别第二输入,该第二输入包括第二运动输入。例如,输入识别系统110还可在第二屏幕306处识别第二输入318,该第二输入包括第二运动输入320,且第二输入大致在第一输入被识别时被识别。另选地或另外地,第一屏幕304处的第一输入314可对输入识别系统110启动一超时(例如,500ms),在该超时之后,如果没有提供第二输入,则处理第一输入来获得其他单屏幕手势。
在框406,基于第一和第二运动输入来识别第一和第二输入之间的距离改变。例如,输入识别系统110识别第一输入314和第二输入318之间的距离随着运动输入而改变(例如,增大或减小)。在框408处,确定第一和第二输入之间的距离改变是否是距离的减小。
如果距离在第一和第二输入之间减小(例如,自框408的“是”),则在框410处,确定捏合手势,这给出了在浓缩所显示的对象时缩小的外观。例如,手势模块108基于在第一和第二输入之间减小距离的第一和第二运动输入来确定捏合手势。捏合手势可被标识为可用于浓缩诸如所显示的杂志页310、312之类的所显示的对象的第一和第二运动输入的跨屏幕组合。捏合手势给出了当浓缩所显示的对象时缩小的外观。
如果距离在第一和第二输入之间增大(例如,自框408的“否”),则在框412处,确定扩张手势,这给出了在扩张所显示的对象时放大的外观。例如,手势模块108基于在第一和第二输入之间增大距离的第一和第二运动输入来确定扩张手势。扩张手势可被标识为用于扩张所显示的对象的第一和第二运动输入的跨屏幕组合,如在扩张所显示的杂志页310、312以便在多屏幕系统302的第一和第二屏幕上进行全屏显示时。
多屏幕捏合装袋手势
图5示出了多屏幕系统502上的多屏幕捏合装袋手势的示例500,该多屏幕系统在这些示例中被示为两屏幕设备。多屏幕系统502可以被实现为参考图1和2描述的各种设备中的任一种。在该示例中,多屏幕系统502包括第一屏幕504和第二屏幕506,每一屏幕被实现为显示任何类型的用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。多屏幕系统502可包括如参考图1所示的计算设备102所描述的手势模块108和输入识别系统110,并且还可用参考图21所示的示例设备所描述的组件的任意组合来实现。尽管各示例是参考两屏幕设备来示出并描述的,但多屏幕捏合装袋手势的各实施例可以由具有两个以上屏幕的多屏幕系统来实现。
多屏幕捏合装袋手势可用于将所显示的对象装袋,如将所显示的对象保存为多屏幕系统的边框下的缩略图像。在多屏幕系统502的第一视图508中,第一杂志页510被显示在第一屏幕504上,第二杂志页512被显示在第二屏幕506上。输入识别系统110被实现为在第一屏幕504处识别对第一屏幕区域516的第一运动输入514,其中第一运动输入在第一杂志页510被选中时被识别。输入识别系统110还可在第二屏幕506处识别对第二屏幕区域520的第二运动输入518,其中第二运动输入在第二杂志页512被选中时被识别。第一屏幕504的第一屏幕区域516和第二屏幕504的第二屏幕区域520在多屏幕系统502的第二视图522中示出。
手势模块108被实现为从所识别的运动输入514、518中确定捏合装袋手势。捏合装袋手势可被标识为用于浓缩第一屏幕区域516和第二屏幕区域520中所显示的杂志页510、512并将杂志页装袋在将第一和第二屏幕隔开的边框524附近的第一和第二运动输入的跨屏幕组合。任选地,手势模块108还可从在第一输入和第二输入之间减小距离的第一运动输入514和第二运动输入518中确定捏合装袋手势,其中第一输入是针对第一屏幕504上的杂志页510的,第二输入是针对第二屏幕506上的第二杂志页512的。
多屏幕系统502的第二视图522示出了响应于捏合装袋手势,杂志页510、512在方向528上从原始位置526浓缩的转换。多屏幕系统502的第三视图530示出了在边框524附近装袋并被保存为缩略图像532以供显示的所显示的对象(例如,杂志页)。在该示例中,显示了虚拟桌面534的更多内容,并且当杂志页被装袋为缩略图像532时,该桌面上的任何其他所显示的对象是可访问的。在另一示例中,所显示的对象536(例如,示为被显示为图1中的计算设备102上的文本“zeal”的速写)被装袋到多屏幕系统502的边框524下。
当所显示的对象被装袋以便显示供访问许多其他所显示的对象的虚拟桌面534时,用户可在多个日志或应用视图中交错多个任务,然后容易地返回到被装袋的项目。另外,被装袋的项目可被放到笔记本或打开的笔记本的杂志页上,以便将该项目合并到其他工作和笔记的上下文中。
在各实施例中,多屏幕捏合装袋手势可被用作用于在屏幕视图和/或应用的不同工作集合之间进行多任务处理的通用机制。例如,如果web浏览器被显示在第一屏幕504上,杂志页被显示在第二屏幕506上,则用户可捏合并装袋该屏幕视图对。用户还可捏合并装袋多个屏幕视图,在这一情况下,沿着设备的边框524的该组被装袋的视图表现为任务栏,从中用户可在不同应用和视图之间交替。
在各实施例中,杂志页的缩略图像523在被装袋时被保存到可视剪贴板。另外,当所显示的对象被装袋时,缩略图像532可被显示在第一和/或第二屏幕上作为到杂志页的可选择链接。从该第三视图530中,输入识别系统110可识别手势模块108确定为缩略图像532上的轻叩手势的选择输入,该轻叩手势可用于扩张杂志页510、512以便显示在第一和第二屏幕上,如在多屏幕系统502的第一视图508中所示的。
应当注意,第一和第二输入的表示和运动方向的指示,以及屏幕区域仅是出于讨论目的的图示,并且当实现所描述的实施例时可以出现也可以不出现在多屏幕系统的屏幕上。另外,此处对可能与另一屏幕处的另一输入或运动相关的、一个屏幕处的输入或运动的任何描述适用于多屏幕系统的第一或第二屏幕。
图6示出了多屏幕捏合装袋手势的示例方法600。描述方法的次序并不旨在解释为限制,并且任何数量的所述方法框都可以按任何次序组合以实现本方法或实现替换方法。
在框602处,对第一屏幕区域的第一运动输入在多屏幕系统的第一屏幕处识别,该第一运动输入被识别为选择所显示的对象。例如,输入识别系统110在第一屏幕504处识别对第一屏幕区域516的第一运动输入514,且该第一运动输入在第一杂志页510被选中时被识别。在框604处,在多屏幕系统的第二屏幕处识别对第二屏幕区域的第二运动输入,该第二运动输入被识别为选择所显示的对象。例如,输入识别系统110还在第二屏幕506处识别对第二屏幕区域520的第二运动输入518,且该第二运动输入在第二杂志页512被选中时被识别。
在框606处,从相应的第一和第二屏幕区域中所识别的第一和第二运动输入中确定捏合装袋手势。例如,手势模块108从所识别的运动输入514、518中确定捏合装袋手势。该捏合装袋手势可被标识为可用于浓缩第一屏幕区域516和第二屏幕区域520中所显示的杂志页510、512并将杂志页装袋在将第一和第二屏幕隔开的边框524附近的第一和第二运动输入的跨屏幕组合。另选地或另外地,从在第一输入和第二输入之间减小距离的第一和第二运动输入中确定捏合装袋手势,该第一输入是针对第一屏幕上的第一杂志页510的,该第二输入是针对第二屏幕上的第二杂志页512的。
在框608,将所显示的对象装袋在多屏幕系统的将第一和第二屏幕隔开的边框附近。例如,杂志页510、512(例如,所显示的对象)被装袋在边框524附近并被保存为缩略图像532以供显示。在一个实施例中,缩略图像532是到被装袋的杂志页的可选择连接,和/或所显示的对象被保存到可视剪贴板。
在框610,将选择输入识别为被装袋的所显示的对象上的轻叩手势,且在框612,响应于轻叩手势扩张所显示的对象以便显示在第一和第二屏幕上。例如,输入识别系统110可识别手势模块108确定为缩略图像532上的轻叩手势的选择输入,该轻叩手势可用于扩张杂志页510、512以便显示在多屏幕系统502的第一和第二屏幕上。
多屏幕双叩手势
图7示出了多屏幕系统702上的多屏幕双叩手势的示例700,该多屏幕系统在这些示例中被示为两屏幕设备。多屏幕系统702可以被实现为参考图1和2描述的各种设备中的任一种。在该示例中,多屏幕系统702包括第一屏幕704和第二屏幕706,每一屏幕被实现为显示任何类型的用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。多屏幕系统702可包括如参考图1所示的计算设备102所描述的手势模块108和输入识别系统110,并且还可用参考图21所示的示例设备所描述的组件的任意组合来实现。尽管各示例是参考两屏幕设备来示出并描述的,但多屏幕双叩手势的各实施例可以由具有两个以上屏幕的多屏幕系统来实现。
可使用多屏幕双叩手势来扩张或装袋显示在多屏幕系统的多个屏幕上的所显示的对象。例如,当在所显示的对象被装袋时确定了双叩手势,所显示的对象可被扩张以便在第一和第二屏幕上进行全屏显示。或者,当在所显示的对象被全屏显示在第一和第二屏幕上时确定了双叩手势,则所显示的对象可被装袋。
在多屏幕系统708的第一视图702中,第一杂志页710被显示在第一屏幕704上,第二杂志页712被显示在第二屏幕706上。输入识别系统110被实现为在第一屏幕704处识别对第一杂志页710的第一轻叩输入714。输入识别系统110还可在第二屏幕706处识别对第二杂志页712的第二轻叩输入716,其中该第二轻叩输入大致在第一轻叩输入被识别时被识别。
或者,单个输入(例如,用手指、拇指、手掌等)可大致同时接触第一和第二屏幕来启动双叩手势输入。例如,多屏幕设备在屏幕之间可具有极少或没有脊线、外壳或边框,在这一情况下,单个输入可一起接触两个屏幕。此外,具有两个(或更多)独立屏幕的多屏幕系统可被定位成使得屏幕之间的拇指或手指(例如,像被放置在书中的页之间的手指)与两个屏幕形成接触。
手势模块108被实现为从所识别的轻叩手势714、716中确定多屏幕双叩手势。双叩手势可被标识为第一和第二轻叩输入的跨屏幕组合。多屏幕系统702的第二视图718示出双叩手势可用于将杂志页作为缩略图像720装袋在多屏幕系统的将第一和第二屏幕隔开的边框722附近。在该示例中,显示了虚拟桌面724,并且当杂志页被装袋为缩略图像720时,该桌面上的任何其他所显示的对象是可访问的。
多屏幕系统702的第二视图718还示出双叩手势可用于扩张所显示的对象以便显示在多屏幕系统的第一和第二屏幕上。例如,输入识别系统110被实现为在第一屏幕704处识别对缩略图像720的第一轻叩输入726,并在第二屏幕706处识别对缩略图像720的第二轻叩输入728,其中第二轻叩输入大致在第一轻叩输入被识别时被识别。手势模块108然后可从所识别的轻叩输入726、728中确定多屏幕双叩手势,且该双叩手势可用于扩张杂志页710、712以便显示在第一和第二屏幕上,如多屏幕系统702的第一视图708中所示。
多屏幕系统702的第三视图730示出了一拆分屏幕视图,该拆分屏幕视图包括在第一屏幕上全屏显示的所显示的对象的第一部分,以及在第二屏幕上浓缩显示的所显示的对象的第二部分。例如,第一杂志页710被全屏显示在第一屏幕704上,而第二杂志页712被装袋以便显示在第二屏幕706上。在一个实现中,输入识别系统110可识别对第一或第二屏幕上的杂志页710、712之一的选择输入,如多屏幕系统702的第二视图718中所示的轻叩输入726、728之一。单叩输入可用于启动杂志页的拆分屏幕视图,如多屏幕系统702的第三视图730中所示。
应当理解,第一和第二输入的表示仅是出于讨论目的的图示,并且当实现所描述的实施例时可以出现也可以不出现在多屏幕系统的屏幕上。另外,此处对可能与另一屏幕处的另一输入或运动相关的、一个屏幕处的输入或运动的任何描述适用于多屏幕系统的第一或第二屏幕。
图8示出了多屏幕双叩手势的示例方法800。描述方法的次序并不旨在解释为限制,并且任何数量的所述方法框都可以按任何次序组合以实现本方法或实现替换方法。
在框802,在多屏幕系统的第一屏幕处识别对所显示的对象的第一轻叩输入。例如,输入识别系统110在第一屏幕704处识别对第一杂志页714的第一轻叩输入。在框804,在多屏幕系统的第二屏幕处识别对所显示的对象的第二轻叩输入,该第二轻叩输入大致在第一轻叩输入被识别时被识别。例如,输入识别系统110还可在第二屏幕706处识别对第二杂志页712的第二轻叩输入716,其中该第二轻叩输入大致在第一轻叩输入被识别时被识别。
在框806,从所识别的第一和第二轻叩输入中确定双叩手势。例如,手势模块108从所识别的轻叩手势714、716中确定多屏幕双叩手势。双叩手势可被标识为第一和第二轻叩输入的跨屏幕组合,且该双叩手势可用于扩张或装袋显示在多屏幕系统702的第一和第二屏幕上的所显示的对象。或者,大致同时接触第一和第二屏幕的单个输入(例如,用手指、拇指、手掌等)可被识别并确定为双叩手势输入。在各实施例中,当在所显示的对象被装袋时确定了双叩手势,所显示的对象可被扩张以便在第一和第二屏幕上进行全屏显示。或者,当在所显示的对象被全屏显示在第一和第二屏幕上时确定了双叩手势,则所显示的对象可被装袋。
在框808,在第一或第二屏幕之一上识别对所显示的对象的单个选择输入,来启动所显示的对象的拆分屏幕视图。例如,输入识别系统110在第一或第二屏幕上识别对杂志页710、712之一的单个选择输入,如多屏幕系统702的第二视图718中所示的轻叩输入726、728之一。单叩输入可用于启动杂志页的拆分屏幕视图,如多屏幕系统702的第三视图730中所示。
多屏幕保持并轻叩手势
图9示出了多屏幕系统902上的多屏幕保持并轻叩手势的示例900,该多屏幕系统在这些示例中被示为两屏幕设备。多屏幕系统902可以被实现为参考图1和2描述的各种设备中的任一种。在该示例中,多屏幕系统902包括第一屏幕904和第二屏幕906,每一屏幕被实现为显示任何类型的用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。多屏幕系统902可包括如参考图1所示的计算设备102所描述的手势模块108和输入识别系统110,并且还可用参考图21所示的示例设备所描述的组件的任意组合来实现。尽管各示例是参考两屏幕设备来示出并描述的,但多屏幕保持并轻叩手势的各实施例可以由具有两个以上屏幕的多屏幕系统来实现。
可使用多屏幕保持并轻叩手势来将显示的对象从一个显示位置移动和/或复制到另一显示位置,如将对象移动或复制到杂志页上,或者将对象合并到笔记本中。在各实施例中,一般的功能可包括:在一个屏幕上对命令的保持输入,以及在另一屏幕上的轻叩输入来在该另一屏幕上应用该命令;对参数值(例如,颜色、画笔浓度、图像效果、过滤器等)的保持输入,以及在另一屏幕上的轻叩输入来将该参数值应用于显示在该另一屏幕上的对象;和/或对标签、类别或其他元数据的保持输入,以及轻叩输入来将该特征应用于显示在另一屏幕上的对象。在一个示例中,日志或笔记本可包括可在日志或笔记本的一页上查看的自定义贴纸。贴纸可被保持在一页上(例如,显示在一个屏幕上),然后轻叩以便在另一页上(例如,在另一屏幕上)的轻叩位置处应用该贴纸。贴纸可具有附连到它们的具体语义,如“花费”、“待办”、“个人”、“收据”等,且贴纸可用于标记内容以便于后续搜索和组织。
在多屏幕系统902的第一视图908中,杂志页910被显示在第一屏幕904上,且诸如所显示的对象912等各种对象被显示在第二屏幕906上的虚拟桌面914上。输入识别系统110被实现为在第二屏幕906处识别保持输入916,其中保持输入在保持并选择第二屏幕906上所显示的对象912时被识别。输入识别系统110还可在第一屏幕904处识别轻叩输入918,其中该轻叩输入在第二屏幕906上选择所显示的对象912时被识别。
手势模块108被实现为从所识别的保持输入916和轻叩输入918中确定多屏幕保持并轻叩手势。保持并轻叩手势可被标识为保持和轻叩手势的跨屏幕组合,且该手势可用于将所显示的对象912从第二屏幕906上所显示的位置移到轻叩输入位置以便显示在第一屏幕904上,如920处所指示的。多屏幕系统902的第二视图922示出了双叩手势可用于将所显示的对象912从第二屏幕906上所显示的位置924移动,并合并所显示的对象912以便显示在第一屏幕904的轻叩输入位置926处显示的杂志页910上。多屏幕系统902的第三视图928示出了双叩手势可用于复制所显示的对象912来生成对象副本930,并在第一屏幕904上的轻叩输入位置932处启动对象副本930的显示。
在多屏幕保持并轻叩手势的其他实施例中,输入识别系统110可在第一屏幕904上识别对另外的所显示的对象(例如,杂志页910)的轻叩输入918,并且该保持并轻叩手势因而可用于将所显示的对象912与另外的所显示的对象进行相关(例如,将所显示的对象912与杂志页910进行相关)。另外,所显示的对象可表示一功能,且保持并轻叩手势用于将该所显示的对象的功能应用于在多屏幕系统902的第一或第二屏幕上的轻叩输入位置处另外的所显示的对象。
应当理解,保持并轻叩输入的表示仅是出于讨论目的的图示,并且当实现所描述的实施例时可以出现也可以不出现在多屏幕系统的屏幕上。另外,此处对可能与另一屏幕处的另一输入或运动相关的、一个屏幕处的输入或运动的任何描述适用于多屏幕系统的第一或第二屏幕。
图10示出了多屏幕保持并轻叩手势的示例方法1000。描述方法的次序并不旨在解释为限制,并且任何数量的所述方法框都可以按任何次序组合以实现本方法或实现替换方法。
在框1002,在多屏幕系统的第一屏幕处识别保持输入,该保持输入当保持以选择第一屏幕上所显示的对象时被识别。例如,输入识别系统110在屏幕906处识别保持输入916,并且该保持输入在保持以便选择屏幕906上所显示的对象912时被识别。在框1004,在多屏幕系统的第二屏幕处识别轻叩输入,该轻叩输入在所显示的对象被选中时被识别。例如,输入识别系统110还在屏幕904处识别轻叩输入918,且该轻叩输入在所显示的对象912在屏幕906上被选中时被识别。在一个实施例中,该轻叩输入可被识别为对第二屏幕上另外的所显示的对象的轻叩输入,且该保持并轻叩手势可用于将所显示的对象与所述另外的所显示的对象相关。
在框1006,从所识别的保持和轻叩输入中确定保持并轻叩手势。例如,手势模块108从所识别的保持输入916和轻叩输入918中确定多屏幕保持并轻叩手势,并且该保持并轻叩手势可被标识为保持和轻叩输入的跨屏幕组合。在各实施例中,该保持并轻叩手势可用于将所显示的对象从第一屏幕上所显示的位置移到轻叩输入位置以便显示在第二屏幕上(在框1008);合并所显示的对象以便显示在第二屏幕上的轻叩输入位置处所显示的杂志页上(在框1010);复制所显示的对象来生成对象副本,以及在第二屏幕上的轻叩输入位置处显示该对象副本(在框1012);和/或将所显示的对象的功能应用于在第二屏幕上的轻叩输入位置处的另外的所显示的对象(在框1014)。
多屏幕保持并拖动手势
图11示出了多屏幕系统1102上的多屏幕保持并拖动手势的示例1100,该多屏幕系统在这些示例中被示为两屏幕设备。多屏幕系统1102可以被实现为参考图1和2描述的各种设备中的任一种。在该示例中,多屏幕系统1102包括第一屏幕1104和第二屏幕1106,每一屏幕被实现为显示任何类型的用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。多屏幕系统1102可包括如参考图1所示的计算设备102所描述的手势模块108和输入识别系统110,并且还可用参考图21所示的示例设备所描述的组件的任意组合来实现。尽管各示例是参考两屏幕设备来示出并描述的,但多屏幕保持并拖动手势的各实施例可以由具有两个以上屏幕的多屏幕系统来实现。
可使用多屏幕保持并拖动手势来维持所显示的对象的第一部分在第一屏幕上的显示,并拖动所显示的对象的显示在另一屏幕上的第二部分来将该所显示的对象的第二部分装袋来用于拆分屏幕视图。或者,可使用保持并拖动手势来维持所显示的对象的第一部分在一个屏幕上的显示,并拖动所显示的对象的被装袋的第二部分来扩张另一屏幕上的显示。拖动手势的方向也可基于不同语义来确定(例如,向上运动、向下运动、朝向边框、远离边框等)。对于多屏幕保持并拖动手势,可为不同动作定义四到八个基本方向。
在多屏幕系统1108的第一视图1102中,第一杂志页1110被显示在第一屏幕1104上,第二杂志页1112被显示在第二屏幕1106上。输入识别系统110被实现为在第一屏幕1104处识别保持输入1114,其中该保持输入当被保持在原处时被识别。输入识别系统110还可在第二屏幕1106处识别运动输入1116,其中该运动输入被识别为当保持输入保留在原处时选择所显示的对象(例如,杂志页1112)。
手势模块108被实现为从所识别的保持输入1114和运动输入1116中确定多屏幕保持并拖动手势。保持并拖动手势可被标识为保持和运动输入的跨屏幕组合,且该手势可用于维持第一杂志页1110在第一屏幕1104上的显示,并拖动显示在第二屏幕1106上的第二杂志页1112来将第二杂志页装袋来用于杂志页的拆分屏幕视图。响应于保持并拖动手势,多屏幕系统1102的第二视图1118示出第一杂志页1110被维持显示在第一屏幕1104上,且第二杂志页1112被装袋在第二屏幕1106上的、该多屏幕系统的边框1120附近,来用于杂志页的拆分屏幕视图。在一个实施例中,第二杂志页1112被装袋为缩略图像,该缩略图像也可以是到第二杂志页1112的可选择链接。
多屏幕系统1102的第三视图1122示出了多屏幕保持并拖动手势可用于维持所显示的对象的第一部分在一个屏幕上的显示,并拖动所显示的对象的被装袋的第二部分以便在另一屏幕上扩张显示,或启动所显示的对象的多屏幕显示。例如,输入识别系统110可在第一屏幕1104处识别保持输入1124,其中该保持输入当被保持在原处时被识别。输入识别系统110还可在第二屏幕1106处识别运动输入1126,其中该运动输入被识别为在杂志页被装袋(例如,如第二视图1118中所示的杂志页1112)时在保持输入保留在原处(例如,保持第一杂志页1110)的同时选择第二杂志页1112。手势模块108可从所识别的保持输入1124和运动输入1126中识别多屏幕保持并拖动手势,且该保持并拖动手势可用于在方向1128上扩张被装袋的第二杂志页1112以便显示在第二屏幕1106上。
应当注意,保持和运动输入的表示仅是出于讨论目的的图示,并且当实现所描述的实施例时可以出现也可以不出现在多屏幕系统的屏幕上。另外,此处对可能与另一屏幕处的另一输入或运动相关的、一个屏幕处的输入或运动的任何描述适用于多屏幕系统的第一或第二屏幕。
图12示出了多屏幕保持并拖动手势的示例方法1200。描述方法的次序并不旨在解释为限制,并且任何数量的所述方法框都可以按任何次序组合以实现本方法或实现替换方法。
在框1202,在多屏幕系统的第一屏幕处识别保持输入,该保持输入在保持在原处时被识别。例如,输入识别系统110在第一屏幕1104处识别保持输入1114,其中该保持输入当被保持在原处时被识别。在框1204,在多屏幕系统的第二屏幕处识别运动输入,该运动输入被识别为在保持输入保留在原处的同时选择所显示的对象。例如,输入识别系统110还在第二屏幕1106处识别运动输入1116,其中该运动输入被识别为当保持输入保留在原处的同时选择第二杂志页1112。
在框1206,从所识别的保持和运动输入中确定保持并拖动手势。例如,手势模块108从所识别的保持输入1114和运动输入1116中确定多屏幕保持并拖动手势。保持并拖动手势可被标识为保持和运动输入的跨屏幕组合。在各实施例中,保持并拖动手势可用于维持所显示的对象的第一部分在第一屏幕上的显示,并拖动所显示的对象的被显示在第二屏幕上的第二部分以便将所显示的对象的第二部分装袋来用于拆分屏幕视图(在框1208);维持所显示的对象的第一部分在第一屏幕上的显示并拖动所显示的对象的被装袋的第二部分来扩张第二屏幕上的显示(在框1210);维持所显示的对象在第一屏幕上的显示并将所显示的对象的显示扩张到第二屏幕上(在框1212);和/或启动所显示的对象的多屏幕显示(在框1214)。
多屏幕保持并翻页手势
图13示出了多屏幕系统1302上的多屏幕保持并翻页手势的示例1300,该多屏幕系统在这些示例中被示为两屏幕设备。多屏幕系统1302可以被实现为参考图1和2描述的各种设备中的任一种。在该示例中,多屏幕系统1302包括第一屏幕1304和第二屏幕1306,每一屏幕被实现为显示任何类型的用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。多屏幕系统1302可包括如参考图1所示的计算设备102所描述的手势模块108和输入识别系统110,并且还可用参考图21所示的示例设备所描述的组件的任意组合来实现。尽管各示例是参考两屏幕设备来示出并描述的,但多屏幕保持并翻页手势的各实施例可以由具有两个以上屏幕的多屏幕系统来实现。
可使用多屏幕保持并翻页手势来选择显示在一个屏幕上的杂志页,并翻动杂志页来显示两个额外的或新的杂志页,这与书中的翻页非常相似。杂志页在所选杂志页的方向上翻动以便显示两个新的杂志页,这与在书中向前或向后翻页非常相似。或者,保持并翻页手势可用于维持显示在一个屏幕上的杂志页的显示,并翻动杂志页来在另一屏幕上显示不同的杂志页。然后可并排显示不连续的杂志页,这对于书而言将涉及从书中撕出一页以将其置于非连续页序来与另一页并排查看。在一个实施例中,多屏幕保持并翻页手势可被配置成或者翻动杂志页来显示两个新的杂志页,或者维持第一杂志页的显示并翻动杂志页来与第一杂志页并排地显示不同的、非连续的第二杂志页。
在多屏幕系统1308的第一视图1302中,第一杂志页1310被显示在第一屏幕1304上,第二杂志页1312被显示在第二屏幕1306上。输入识别系统110被实现为在第一屏幕1304处识别保持输入1314,其中该保持输入在保持来选择在第一屏幕1304上显示的杂志页1310时被识别。输入识别系统110还可在第二屏幕1316处识别运动输入1306,其中该运动输入在保持输入保留在原处时被识别。
手势模块108被实现为从所识别的保持输入1314和运动输入1316中确定多屏幕保持并翻页手势。保持并翻页手势可被标识为保持和运动输入的跨屏幕组合,在各实施例中这些输入可包括:使用一个或两个输入设备(例如,一个手指、或两个手指)在相对的屏幕上的保持和拖动输入;和/或保持输入和跨过边框到相对屏幕上的拖动输入。保持并翻页手势可用于在第一屏幕1304上选择杂志页1310,同时翻动一个或多个另外的杂志页以便显示。多屏幕系统1302的第二视图1318示出两个另外的杂志页1320、1322被翻页以便显示在相应的第一和第二屏幕1304、1306上。或者,多屏幕系统1302的第三视图1324示出杂志页1310的显示被维持在第一屏幕1304上,且非连续的杂志页1322被翻页以便在第二屏幕1306上并排显示。
应当注意,保持和运动输入的表示仅是出于讨论目的的图示,并且当实现所描述的实施例时可以出现也可以不出现在多屏幕系统的屏幕上。另外,此处对可能与另一屏幕处的另一输入或运动相关的、一个屏幕处的输入或运动的任何描述适用于多屏幕系统的第一或第二屏幕。
图14示出了多屏幕保持并翻页手势的示例方法1400。描述方法的次序并不旨在解释为限制,并且任何数量的所述方法框都可以按任何次序组合以实现本方法或实现替换方法。
在框1402,在多屏幕系统的第一屏幕处识别保持输入,该保持输入在保持以便选择第一屏幕上所显示的杂志页时被识别。例如,输入识别系统110在第一屏幕1304处识别保持输入1314,且该保持输入在保持来选择在第一屏幕1304上显示的杂志页1310时被识别。在框1404,在多屏幕系统的第二屏幕处识别运动输入,该运动输入在保持输入保留在原处时被识别。例如,输入识别系统110还在第二屏幕1306处识别运动输入1316,且该运动输入在保持输入保留在原处时被识别。
在框1406,从所识别的保持和运动输入中确定保持并翻页手势,且该保持并翻页手势可用于选择杂志页同时翻动另外的杂志页以便显示。例如,手势模块108从所识别的保持输入1314和运动输入1316中确定多屏幕保持并翻页手势。保持并翻页手势可被标识为保持和运动输入的跨屏幕组合。在各实施例中,保持并翻页手势可用于选择显示在第一屏幕上的杂志页并翻动杂志页(任选地,在所选杂志页的方向上)以便显示另外两个杂志页,这两个杂志页中的每一页被各自显示在第一和第二屏幕上(在框1408);维持第一屏幕上显示的杂志页的显示并翻动杂志页来在第二屏幕上显示不同的杂志页(在框1410);和/或维持第一屏幕上显示的杂志页的显示并翻动杂志页来在第二屏幕上与第一杂志页并排地显示非连续的杂志页(在框1412)。
在一个实施例中,保持并翻页手势可被配置成选择第一屏幕上显示的杂志页,并翻动杂志页来显示两个另外的杂志页,这两个另外的杂志页的每一页各自被显示在第一和第二屏幕上(如参考框1408所描述的),或维持第一屏幕上显示的杂志页的显示并翻动杂志页来在第二屏幕上显示不同的杂志页(如参考框1410和1412所描述的)。
多屏幕书签保持手势
图15示出了多屏幕系统1502上的多屏幕书签保持手势的示例1500,该多屏幕系统在这些示例中被示为两屏幕设备。多屏幕系统1502可以被实现为参考图1和2描述的各种设备中的任一种。在该示例中,多屏幕系统1502包括第一屏幕1504和第二屏幕1506,每一屏幕被实现为显示任何类型的用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。多屏幕系统1502可包括如参考图1所示的计算设备102所描述的手势模块108和输入识别系统110,并且还可用参考图21所示的示例设备所描述的组件的任意组合来实现。尽管各示例是参考两屏幕设备来示出并描述的,但多屏幕书签保持手势的各实施例可以由具有两个以上屏幕的多屏幕系统来实现。
可使用多屏幕书签保持手势来在对屏幕上的杂志页的保持输入的位置处对杂志页加书签,并且可在对该杂志页维持书签的同时翻动其他杂志页以便进行查看。书签保持手势模仿了读者在翻过书的其他页的同时在页之间保持拇指或手指来保留书中的一个位置的动作。另外,书签是回到杂志页的可选择链接,且对书签的选择输入翻回到屏幕上的杂志页的显示。
在多屏幕系统1508的第一视图1502中,第一杂志页1510被显示在第一屏幕1504上,第二杂志页1512被显示在第二屏幕1506上。第一杂志页1510被显示在加了书签的杂志页1514上。输入识别系统110被实现为在第一屏幕1504处识别保持输入1516,其中该保持输入当在第一屏幕1504上加了书签的杂志页1514的边缘附近保持在原处时被识别。输入识别系统110还可在第二屏幕1506处识别运动输入1518,其中该运动输入在保持输入保留在原处时被识别。在一个实施例中,在第二屏幕1506处沿着杂志页1512的外边缘识别运动输入1518,且该运动输入可用于在1520处翻动杂志页同时对第一屏幕1504上的杂志页1514维持书签。
手势模块108被实现为从所识别的保持输入1516和运动输入1518中确定多屏幕书签保持手势。书签保持手势可被标识为保持和运动输入的跨屏幕组合,且该手势可用于在第一屏幕1504上的保持输入1516的位置处为杂志页1514加书签。在各实施例中,显示书签标识符1522来标识加了书签的杂志页1514以及该书签在第一屏幕上的位置。在该示例中,书签标识符1522是加书签的杂志页1514的部分显示。书签和/或书签标识符是到第一屏幕1504上加书签的杂志页1514的可选择链接,且输入识别系统110可识别对书签的选择输入,该选择输入可用于翻回来并在第一屏幕上显示杂志页1514。
多屏幕系统1502的第二视图1524示出了替换保持输入1526,如当用户用一个手保持两屏幕设备同时在第一屏幕1504上对杂志页1510加书签的时候。输入识别系统110被实现为在第一屏幕1504处识别保持输入1526,并且还在第二屏幕1506处识别运动输入1528,其中该运动输入是在保持输入保留在原处时被识别的。在一个实施例中,运动输入1528在第二屏幕1506处识别,且可用于在维持书签的同时翻动杂志页。在一个实现中,输入识别系统110可在定义的区域,如用户可能既保持设备又对页加书签的区域中识别书签保持手势。另选地或另外地,多屏幕系统1502可以被实现为传感屏幕的定向,使得对页加书签自动自适应于用户保持设备的方式。
多屏幕系统1502的第三视图1530示出从中确定书签的保持输入可包括在杂志页1514的角落附近的滑动运动输入1532。滑动运动输入1532可被识别为启动保持输入的运动的进展,且滑动运动输入可被确定为在角落处对杂志页1514加书签。对杂志页1514,书签被维持在第一屏幕1504上,同时在1534处翻动其他杂志页以便查看。在各实施例中,存在可被实现来在以下各动作之间区分的各种技术:保持一页以便临时保存位置;用书签来显式地对页“折角”;或翻回到由临时保持或书签表示的页。在一个实施例中,保持输入可被识别为隐式地临时保存页位置。然后,用户可简单地提起输入来丢弃临时书签,或者提供滑动运动输入来翻回到所保存的页位置。在另一实施例中,如果大致在保持输入的同时启动了滑动运动输入,则可创建页折角书签。在另一实施例中,折角书签可以仅在杂志页的边界周围的定义位置处识别(例如,在页的角落处),而隐式临时页保持可对较大的面积或区域实现。
应当注意,保持和运动输入的表示仅是出于讨论目的的图示,并且当实现所描述的实施例时可以出现也可以不出现在多屏幕系统的屏幕上。另外,此处对可能与另一屏幕处的另一输入或运动相关的、一个屏幕处的输入或运动的任何描述适用于多屏幕系统的第一或第二屏幕。
图16示出了多屏幕书签保持手势的示例方法1600。描述方法的次序并不旨在解释为限制,并且任何数量的所述方法框都可以按任何次序组合以实现本方法或实现替换方法。
在框1602,在多屏幕系统的第一屏幕处识别保持输入,该保持输入当在显示在第一屏幕上的杂志页的边缘附近保持在原处时被识别。例如,输入识别系统110在第一屏幕1504处识别保持输入1516,且保持输入当在第一屏幕1504上加书签的杂志页1514的边缘附近保持在原处时被识别。保持输入可包括在杂志页1514的角落附近的滑动运动输入1532。输入识别系统110识别滑动运动输入为启动保持输入的运动的进展,且手势模块108从该滑动运动输入中确定书签保持手势来对杂志页加书签。
在框1604,在多屏幕系统的第二屏幕处识别运动输入,该运动输入在保持输入保留在原处时被识别。例如,输入识别系统110还在第二屏幕1506处识别运动输入1518,且该运动输入在保持输入保留在原处时被识别。输入识别系统110还可识别沿着显示在第二屏幕1506上的相对的杂志页的外边缘的运动输入,且该运动输入可用于翻动杂志页同时对第一屏幕1504上的杂志页1514维持书签。
在框1606,从所识别的保持和运动输入中确定书签保持手势,该书签保持手势可用于在第一屏幕上的保持输入的位置处对杂志页加书签。例如,手势模块108从所识别的保持输入1516和运动输入1518中确定多屏幕书签保持手势。书签保持手势可被标识为保持和运动输入的跨屏幕组合。书签和/或书签标识符是到第一屏幕1504上加书签的杂志页的可选择链接,且输入识别系统110识别对书签的选择输入,该选择输入可用于翻回并在第一屏幕上显示杂志页。
在框1608,显示书签标识符来标识加书签的杂志页以及该书签在第一屏幕上的位置。例如,显示书签标识符1522来标识加书签的杂志页1514以及该书签在第一屏幕上的位置。在一个实现中,书签标识符1522可以是加书签的杂志页本身的部分显示。
多屏幕对象保持并换页手势
图17示出了多屏幕系统1702上的多屏幕对象保持并换页手势的示例1700,该多屏幕系统在这些示例中被示为两屏幕设备。多屏幕系统1702可以被实现为参考图1和2描述的各种设备中的任一种。在该示例中,多屏幕系统1702包括第一屏幕1704和第二屏幕1706,每一屏幕被实现为显示任何类型的用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。多屏幕系统1702可包括如参考图1所示的计算设备102所描述的手势模块108和输入识别系统110,并且还可用参考图21所示的示例设备所描述的组件的任意组合来实现。尽管各示例是参考两屏幕设备来示出并描述的,但多屏幕对象保持并换页手势的各实施例可以由具有两个以上屏幕的多屏幕系统来实现。
多屏幕对象保持并换页手势可用于将所显示的对象(或多个对象)从一个显示位置移动和/或复制到另一位置,如合并所显示的对象以便显示在杂志页上。另外,在所显示的对象从一个显示位置移动或复制到另一位置时可维持相对显示位置。这还可包括对用对于一系列连续的对象的轻叩选择输入来选择的多个对象的选择,然后保持输入保持该选择同时识别改变杂志页的运动输入。该手势然后可被确定为将保持的对象全部移动和/或复制到所显示的新杂志页,同时维持对象之间的相对显示位置和/或相对空间关系。另选地或另外地,该手势可包括对在一页上开始的对象的选择,然后保持这些对象同时翻动杂志页,并且选择来自其他页的另外的对象以便添加到对象选择中并随着组一起携带。
在多屏幕系统1708的第一视图1702中,第一杂志页1710被显示在第一屏幕1704上,第二杂志页1712被显示在第二屏幕1706上。输入识别系统110被实现为在第一屏幕1704处识别保持输入1714,其中该保持输入在保持以选择第一屏幕1704上所显示的对象1716时被识别。输入识别系统110还可在第二屏幕1706处识别运动输入1718,其中该运动输入在所显示的对象1716被选中的同时被识别,且该运动输入可用于在1720处改变杂志页。当在1720处改变杂志页时,显露后续的杂志页1722以便显示。在一个实施例中,在第二屏幕1506处沿着杂志页1512的外边缘识别运动输入1518,且该运动输入可用于在1520处翻动杂志页同时对第一屏幕1504上的杂志页1514维持书签。
手势模块108被实现为从所识别的保持输入1714和运动输入1718中确定多屏幕对象保持并换页手势。对象保持并换页手势可被标识为保持和运动输入的跨屏幕组合,且该手势可用于移动或复制所显示的对象1716以便显示在当前显示的杂志页上。多屏幕系统1702的第二视图1724示出所显示的对象1716从杂志页1710移动(例如,或者从杂志页1710复制)以便显示在当前显示的杂志页1726上,该杂志页在第一屏幕1704上显示。所显示的对象1716在杂志页被改变的同时保留被选中。输入识别系统110然后可识别所显示的对象1716从保持输入释放,且该对象保持并换页手势可用于移动或复制所显示的对象以便显示在当前显示的杂志页上。另外,在所显示的对象从一个显示位置移动或复制到另一位置时可维持所显示的对象的相对显示位置。
应当注意,保持和运动输入的表示仅是出于讨论目的的图示,并且当实现所描述的实施例时可以出现也可以不出现在多屏幕系统的屏幕上。另外,此处对可能与另一屏幕处的另一输入或运动相关的、一个屏幕处的输入或运动的任何描述适用于多屏幕系统的第一或第二屏幕。
图18示出了多屏幕对象保持并换页手势的示例方法1800。描述方法的次序并不旨在解释为限制,并且任何数量的所述方法框都可以按任何次序组合以实现本方法或实现替换方法。
在框1802,在多屏幕系统的第一屏幕处识别保持输入,该保持输入当保持以选择第一屏幕上所显示的对象时被识别。例如,输入识别系统110在第一屏幕1704处识别保持输入1714,其中该保持输入在保持以选择第一屏幕1704上所显示的对象1716时被识别。在框1804,在多屏幕系统的第二屏幕处识别运动输入,该运动输入在所显示的对象被选中的同时被识别,且该运动输入可用于改变一个或多个杂志页。例如,输入识别系统110还在第二屏幕1706处识别运动输入1718,该运动输入在所显示的对象1716被选中的同时被识别,且该运动输入可用于在1720处改变杂志页。
在框1806,从所识别的保持和运动输入中确定对象保持并换页手势。例如,手势模块108从所识别的保持输入1714和运动输入1718中确定多屏幕对象保持并换页手势。对象保持并换页手势可被标识为保持和运动输入的跨屏幕组合。在一个实施例中,对象保持并换页手势可用于启动复制和粘贴功能来复制所显示的对象1716以便显示在当前显示的杂志页1726上。
在框1808,在所显示的对象从保持输入释放时识别该对象,且该对象保持并换页手势可用于移动和/或复制所显示的对象以便显示在当前显示的杂志页上。例如,输入识别系统110可在所显示的对象1716从保持输入释放时识别该对象,且该对象保持并换页手势可用于移动或复制所显示的对象以便显示在当前显示的杂志页上。多屏幕系统1702的第二视图1724示出所显示的对象1716从杂志页1710移动(例如,或者从杂志页1710复制)以便显示在当前显示的杂志页1726上,该杂志页在第一屏幕1704上显示。另外,在所显示的对象从一个显示位置移动或复制到另一位置时维持所显示的对象的相对显示位置。对象保持并换页手势还可用于选择作为一个组从一个显示位置移动和/或复制到另一位置的多个所显示的对象。
多屏幕同步滑动手势
图19示出了多屏幕系统1902上的多屏幕同步滑动手势的示例1900,该多屏幕系统在这些示例中被示为两屏幕设备。多屏幕系统1902可以被实现为参考图1和2描述的各种设备中的任一种。在该示例中,多屏幕系统1902包括第一屏幕1904和第二屏幕1906,每一屏幕被实现为显示任何类型的用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。多屏幕系统1902可包括如参考图1所示的计算设备102所描述的手势模块108和输入识别系统110,并且还可用参考图21所示的示例设备所描述的组件的任意组合来实现。尽管各示例是参考两屏幕设备来示出并描述的,但多屏幕同步滑动手势的各实施例可以由具有两个以上屏幕的多屏幕系统来实现。
多屏幕同步滑动手势可用于将所显示的对象从一个屏幕移动以便显示在另一屏幕上,用不同的所显示的对象来替换系统屏幕上所显示的对象,移动所显示的对象来显露系统屏幕上的工作空间,和/或循环通过显示在系统屏幕上的一个或多个工作空间(例如,应用、界面等)。同步滑动手势也可用于导航到另外的视图,或将当前视图重新分配到不同屏幕。另外,不同应用或工作空间可被保持在栈上并用同步滑动手势被来回循环通过。
在多屏幕系统1902的第一视图1908中,杂志页1910被显示为从第一屏幕1904移动以便显示在第二屏幕1906上。输入识别系统110被实现为当第一运动输入在特定方向上移过第一屏幕时在第一屏幕1904处识别第一运动输入1912。输入识别系统110还可在第二运动输入在特定方向上移过第二屏幕时且大致在识别第一运动输入时在第二屏幕1914处识别第二运动输入1922。
手势模块108被实现为从所识别的运动输入1912、1914中确定多屏幕同步滑动手势。同步滑动手势可被标识为运动输入的跨屏幕组合,且该手势可用于将杂志页1910从第一屏幕1904上的显示移到第二屏幕1906上的显示。
在多屏幕系统1902的第二视图1916中,显示在第一屏幕1904上的第一杂志页1910和显示在第二屏幕1906上的第二杂志页1918被示为用不同的杂志页替换。输入识别系统110可在第一运动输入在特定方向上移过第一屏幕时在第一屏幕1904处识别第一运动输入1920。输入识别系统110还可在第二运动输入在特定方向上移过第二屏幕时且大致在识别第一运动输入时在第二屏幕1906处识别第二运动输入1922。手势模块108可从所识别的运动输入1920、1922中确定多屏幕同步滑动手势。如多屏幕系统1902的第三视图1924中所示,同步滑动手势可用于移动杂志页1910、1918和/或用不同的杂志页1926、1928替换杂志页1910、1918以便显示在系统屏幕上。
应当注意,运动输入的各种表示仅是出于讨论目的的图示,并且当实现所描述的实施例时可以出现也可以不出现在多屏幕系统的屏幕上。另外,此处对可能与另一屏幕处的另一输入或运动相关的、一个屏幕处的输入或运动的任何描述适用于多屏幕系统的第一或第二屏幕。
图20示出了多屏幕同步滑动手势的示例方法2000。描述方法的次序并不旨在解释为限制,并且任何数量的所述方法框都可以按任何次序组合以实现本方法或实现替换方法。
在框2002,当在特定方向上移过第一屏幕时在多屏幕系统的第一屏幕处识别第一运动输入。例如,输入识别系统110可在第一运动输入在特定方向上移过第一屏幕时在第一屏幕1904处识别第一运动输入1912。在框2004,当在特定方向上移过第二屏幕时且大致在第一运动输入被识别时在多屏幕系统的第二屏幕处识别第二运动输入。例如,输入识别系统110还在第二运动输入在特定方向上移过第二屏幕时且大致在第一运动输入被识别时在第二屏幕1906处识别第二运动输入1914。
在框2006,从所识别的第一和第二运动输入中确定同步滑动手势。例如,手势模块108从所识别的运动输入1912、1914中确定多屏幕同步滑动手势。同步滑动手势被标识为第一和第二运动输入的跨屏幕组合。在各实施例中,同步滑动手势可用于将所显示的对象从第一屏幕上的显示移动到第二屏幕上的显示(在框2008);用不同的所显示的对象替换第一和第二屏幕上的一个或多个所显示的对象(在框2010);移动一个或多个所显示的对象并显露第一和第二屏幕上的工作空间(在框2012);循环通过显示在第一和第二屏幕上的一个或多个工作空间(在框2014);和/或用不同的应用替换第一和第二屏幕上的一个或多个应用(在框2016)。
图21示出了可被实现为参考图1和2来描述的任何类型的便携式和/或计算机设备来实现多屏幕手势的各实施例的示例设备2100的各个组件。在各实施例中,设备2100可被实现为有线和/或无线设备、多屏幕设备、任何形式的电视客户端设备(例如,电视机顶盒、数字录像机(DVR)等)、消费设备、计算机设备、服务器设备、便携式计算机设备、用户设备、通信设备、视频处理和/或呈现设备、电器设备、游戏设备、电子设备和/或任何其他类型的设备中的任一个或其组合。设备2100也可以与操作该设备的用户(即,人)和/或实体相关联,以使得设备描述包括用户、软件、固件、和/或设备的组合的逻辑器件。
设备2100包括允许设备数据2102(例如,接收到的数据、正被接收的数据、安排用于广播的数据、数据的数据包等)的有线和/或无线通信的通信设备2104。设备数据2104或其他设备内容可以包括设备的配置设置、存储在设备上的媒体内容和/或与设备用户相关联的信息。存储在设备2100上的媒体内容可以包括任何类型的音频、视频和/或图像数据。设备2100包括经由其可接收任何类型的数据、媒体内容、和/或输入的一个或多个数据输入2106,诸如用户可选输入、消息、音乐、电视机媒体内容、记录的视频内容、以及从任何内容源和/或数据源接收的任何其他类型的音频、视频和/或图像数据。
设备2100还包括通信接口2108,其可被实现为串行和/或并行接口、无线接口、任何类型的网络接口、调制解调器、和任何其他类型的通信接口中的任一个或多个。通信接口2108提供设备2100和通信网络之间的连接和/或通信链路,其他电子、计算和通信设备通过其来与设备2100传递数据。
设备2100包括一个或多个处理器2110(例如,微处理器、控制器等中的任一个),处理器处理各种计算机可执行指令来控制设备2100的操作并实现多屏幕手势的各实施例。作为补充或替换,设备2100可用硬件、固件、或结合在2112处概括标识的处理和控制电路来实现的固定逻辑电路中的任何一个或组合来实现。虽然未示出,但是设备2100可包括耦合设备内的各种组件的系统总线或数据传输系统。系统总线可包括不同总线结构中的任一个或组合,诸如存储器总线或存储器控制器、外围总线、通用串行总线、和/或利用各种总线体系结构中的任一种的处理器或局部总线。
设备2100还可包括计算机可读介质2114,诸如一个或多个存储器组件,该存储器组件的示例包括随机存取存储器(RAM)、非易失性存储器(例如,只读存储器(ROM)、闪存、EPROM、EEPROM等中的任何一个或多个)、以及盘存储设备。盘存储设备可被实现为任何类型的磁性或光学存储设备,如硬盘驱动器、可记录和/或可重写紧致盘(CD)、任何类型的数字多功能盘(DVD)等等。设备2100还可包括大容量存储介质设备2116。
计算机可读介质2114提供数据存储机制以存储设备数据2104,以及各种设备应用2118和与设备2100的各操作方面相关的任何其他类型的信息和/或数据。例如,操作系统2120可用计算机可读介质2114作为计算机应用来维护并且在处理器2110上执行。设备应用2118可包括设备管理器(例如,控制应用、软件应用、信号处理和控制模块、特定设备本地的代码、特定设备的硬件抽象层等)。
设备应用2118还包括实现多屏幕手势的各实施例的任何系统组件或模块。在该示例中,设备应用2118可包括接口应用2122和手势模块2124,如当设备2100被实现为多屏幕设备的时候。接口应用2122和手势模块2124被示为软件模块和/或计算机应用。另选地或另外地,接口应用2122和/或手势模块2124可被实现为硬件、软件、固件、或其任意组合。
设备2100还包括输入识别系统2126,输入识别系统2126被实现为识别各种输入或输入组合,如选择输入、保持输入、运动输入、触摸输入、轻叩输入等。输入识别系统2126可包括任何类型的输入检测特征以便在各种类型的输入之间进行区分,这些输入检测特征如传感器、光传感像素、触摸传感器、照相机、和/或解释用户交互、手势、输入和运动的自然用户接口。
设备2100还包括生成并向音频系统2128提供音频数据和/或生成并向显示系统2130提供显示数据的音频和/或视频呈现系统2132。音频系统2130和/或显示系统2132可包括处理、显示、和/或以其他方式呈现音频、视频、和图像数据的任何设备。显示数据和音频信号可经由RF(射频)链路、S视频链路、复合视频链路、分量视频链路、DVI(数字视频接口)、模拟音频连接、或其它类似的通信链路来从设备2100传输给音频设备和/或显示设备。在一实施例中,音频系统2130和/或显示系统2132被实现为设备2100的外部组件。或者,音频系统2130和/或显示系统2132被实现为示例设备2100的集成组件。
尽管已经用结构特征和/或方法专用的语言描述了多屏幕手势的各实施例,但是应该理解所附权利要求的主题不必限于所述的具体特征或方法。相反,这些具体特征和方法是作为多屏幕手势的示例实现来公开的。

Claims (15)

1.一种计算机实现的方法,包括:
在多屏幕系统的第一屏幕处识别第一输入,所述第一输入包括第一运动输入;
在多屏幕系统的第二屏幕处识别第二输入,所述第二输入包括第二运动输入;以及
从与所识别的第一和第二输入相关联的第一和第二运动输入中确定捏合手势或扩张手势中的至少一个手势。
2.如权利要求1所述的方法,其特征在于,所述捏合手势被标识为在所述第一和第二运动输入用于浓缩所显示的对象的情况下的所述第一和第二输入的跨屏幕组合。
3.如权利要求1所述的方法,其特征在于,所述扩张手势被标识为在所述第一和第二运动输入用于扩张所显示的对象的情况下的所述第一和第二输入的跨屏幕组合。
4.如权利要求1所述的方法,其特征在于,所述捏合手势基于减小所述第一和第二输入之间的距离的所述第一和第二运动输入来确定。
5.如权利要求1所述的方法,其特征在于,所述扩张手势基于增加所述第一和第二输入之间的距离的所述第一和第二运动输入来确定。
6.如权利要求1所述的方法,其特征在于,还包括识别所述第一和第二输入之间的距离随着所述第一和第二运动输入而改变。
7.如权利要求6所述的方法,其特征在于,还包括识别出所述改变是距离的减小,该距离的减小被确定为所述捏合手势,所述捏合手势给出了在浓缩所显示的对象时缩小的外观。
8.如权利要求6所述的方法,其特征在于,还包括识别出所述改变是距离的增加,该距离的增加被确定为所述扩张手势,所述扩张手势给出了在扩张所显示的对象时放大的外观。
9.一种多屏幕系统,包括:
实现手势模块的至少一个存储器和处理器,所述手势模块被配置成从与所识别的第一和第二输入相关联的运动输入中确定捏合手势或扩张手势中的至少一个手势;
输入识别系统,所述输入识别系统被配置成:
在第一屏幕处识别第一输入,所述第一输入包括第一运动输入;以及
在第二屏幕处识别第二输入,所述第二输入包括第二运动输入,且所述第二输入大致在所述第一输入被识别时被识别。
10.如权利要求9所述的多屏幕系统,其特征在于,所述手势模块还被配置成将所述捏合手势标识为用于基于与所述第一和第二输入相关的运动输入来浓缩所显示的对象的所述第一和第二输入的跨屏幕组合。
11.如权利要求9所述的多屏幕系统,其特征在于,所述手势模块还被配置成将所述扩张手势标识为用于基于与所述第一和第二输入相关的运动输入来扩张所显示的对象的所述第一和第二输入的跨屏幕组合。
12.如权利要求9所述的多屏幕系统,其特征在于,所述手势模块还被配置成从减小所述第一和第二输入之间的距离的运动输入中确定所述捏合手势。
13.如权利要求9所述的多屏幕系统,其特征在于,所述手势模块还被配置成从增加所述第一和第二输入之间的距离的运动输入中确定所述扩张手势。
14.如权利要求9所述的多屏幕系统,其特征在于,所述输入识别系统还被配置成识别出所述第一和第二输入之间的距离随着所述运动输入而改变。
15.如权利要求14所述的多屏幕系统,其特征在于,所述手势模块还被配置成在所述改变是所述第一和第二输入之间的距离的减小时确定所述捏合手势,所述捏合手势给出了在浓缩所显示的对象时缩小的外观。
CN201180010692.2A 2010-02-25 2011-02-21 多屏幕张合手势 Active CN102770837B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/713,053 2010-02-25
US12/713,053 US8539384B2 (en) 2010-02-25 2010-02-25 Multi-screen pinch and expand gestures
PCT/US2011/025575 WO2011106268A2 (en) 2010-02-25 2011-02-21 Multi-screen pinch and expand gestures

Publications (2)

Publication Number Publication Date
CN102770837A true CN102770837A (zh) 2012-11-07
CN102770837B CN102770837B (zh) 2016-12-21

Family

ID=44477531

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180010692.2A Active CN102770837B (zh) 2010-02-25 2011-02-21 多屏幕张合手势

Country Status (7)

Country Link
US (1) US8539384B2 (zh)
EP (1) EP2539799B1 (zh)
JP (1) JP5726916B2 (zh)
CN (1) CN102770837B (zh)
CA (1) CA2788106C (zh)
ES (1) ES2684683T3 (zh)
WO (1) WO2011106268A2 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103927144A (zh) * 2014-04-17 2014-07-16 深圳市中兴移动通信有限公司 触屏操作的方法及装置
CN109032486A (zh) * 2018-07-10 2018-12-18 维沃移动通信有限公司 一种显示控制方法及终端设备

Families Citing this family (125)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8832577B2 (en) * 2010-10-01 2014-09-09 Z124 Universal clipboard
US8225231B2 (en) 2005-08-30 2012-07-17 Microsoft Corporation Aggregation of PC settings
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US8210331B2 (en) * 2006-03-06 2012-07-03 Hossein Estahbanati Keshtkar One-way pawl clutch with backlash reduction means and without biasing means
US8803474B2 (en) * 2009-03-25 2014-08-12 Qualcomm Incorporated Optimization of wireless power devices
JP5229083B2 (ja) * 2009-04-14 2013-07-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US8836648B2 (en) 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
US9310907B2 (en) 2009-09-25 2016-04-12 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
EP2480957B1 (en) 2009-09-22 2017-08-09 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8832585B2 (en) 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
US8239785B2 (en) 2010-01-27 2012-08-07 Microsoft Corporation Edge gestures
US8261213B2 (en) * 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US8799827B2 (en) 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9274682B2 (en) 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US20110209098A1 (en) * 2010-02-19 2011-08-25 Hinckley Kenneth P On and Off-Screen Gesture Combinations
US8751970B2 (en) 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US9075522B2 (en) 2010-02-25 2015-07-07 Microsoft Technology Licensing, Llc Multi-screen bookmark hold gesture
US8473870B2 (en) 2010-02-25 2013-06-25 Microsoft Corporation Multi-screen hold and drag gesture
US9454304B2 (en) * 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US8707174B2 (en) 2010-02-25 2014-04-22 Microsoft Corporation Multi-screen hold and page-flip gesture
EP2375316B1 (en) * 2010-04-06 2019-11-27 Lg Electronics Inc. Mobile terminal and controlling method thereof
USD683730S1 (en) * 2010-07-08 2013-06-04 Apple Inc. Portable display device with graphical user interface
US9081494B2 (en) * 2010-07-30 2015-07-14 Apple Inc. Device, method, and graphical user interface for copying formatting attributes
US8823656B2 (en) * 2010-08-30 2014-09-02 Atmel Corporation Touch tracking across multiple touch screens
US20120054667A1 (en) * 2010-08-31 2012-03-01 Blackboard Inc. Separate and simultaneous control of windows in windowing systems
EP2622443B1 (en) 2010-10-01 2022-06-01 Z124 Drag move gesture in user interface
US9052800B2 (en) * 2010-10-01 2015-06-09 Z124 User interface with stacked application management
US20130050265A1 (en) 2011-08-31 2013-02-28 Z124 Gravity drop
US8823640B1 (en) 2010-10-22 2014-09-02 Scott C. Harris Display reconfiguration and expansion across multiple devices
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US9423951B2 (en) 2010-12-31 2016-08-23 Microsoft Technology Licensing, Llc Content-based snap point
US9423878B2 (en) 2011-01-06 2016-08-23 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US20120180001A1 (en) * 2011-01-06 2012-07-12 Research In Motion Limited Electronic device and method of controlling same
US9015641B2 (en) 2011-01-06 2015-04-21 Blackberry Limited Electronic device and method of providing visual notification of a received communication
US9477311B2 (en) 2011-01-06 2016-10-25 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9766718B2 (en) 2011-02-28 2017-09-19 Blackberry Limited Electronic device and method of displaying information in response to input
US9465440B2 (en) 2011-01-06 2016-10-11 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9471145B2 (en) 2011-01-06 2016-10-18 Blackberry Limited Electronic device and method of displaying information in response to a gesture
KR20120091975A (ko) 2011-02-10 2012-08-20 삼성전자주식회사 적어도 두 개의 터치 스크린을 포함하는 정보 표시 장치 및 그의 정보 표시 방법
US8868111B1 (en) * 2011-03-23 2014-10-21 Dp Technologies, Inc. Method and apparatus to enable the use of a personal communication device with an integrated vehicle interface
US9383917B2 (en) 2011-03-28 2016-07-05 Microsoft Technology Licensing, Llc Predictive tiling
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9727227B2 (en) * 2011-07-28 2017-08-08 Microsoft Technology Licensing, Llc Multi-touch remoting
US8687023B2 (en) 2011-08-02 2014-04-01 Microsoft Corporation Cross-slide gesture to select and rearrange
US9256361B2 (en) * 2011-08-03 2016-02-09 Ebay Inc. Control of search results with multipoint pinch gestures
KR20130052753A (ko) * 2011-08-16 2013-05-23 삼성전자주식회사 터치스크린을 이용한 어플리케이션 실행 방법 및 이를 지원하는 단말기
KR101351162B1 (ko) * 2011-08-30 2014-01-14 주식회사 팬택 플리킹을 이용한 리스트 선택 지원 단말 장치 및 방법
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US20130067420A1 (en) * 2011-09-09 2013-03-14 Theresa B. Pittappilly Semantic Zoom Gestures
US10353566B2 (en) 2011-09-09 2019-07-16 Microsoft Technology Licensing, Llc Semantic zoom animations
US9557909B2 (en) 2011-09-09 2017-01-31 Microsoft Technology Licensing, Llc Semantic zoom linguistic helpers
US8922575B2 (en) 2011-09-09 2014-12-30 Microsoft Corporation Tile cache
US9244802B2 (en) 2011-09-10 2016-01-26 Microsoft Technology Licensing, Llc Resource user interface
US8933952B2 (en) 2011-09-10 2015-01-13 Microsoft Corporation Pre-rendering new content for an application-selectable user interface
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US10318146B2 (en) * 2011-09-12 2019-06-11 Microsoft Technology Licensing, Llc Control area for a touch screen
US8836654B2 (en) * 2011-10-04 2014-09-16 Qualcomm Incorporated Application window position and size control in (multi-fold) multi-display devices
US9128608B2 (en) * 2011-11-17 2015-09-08 Nook Digital, Llc System and method for an electronic reader that allows access to additional content and tools
KR20130061510A (ko) * 2011-12-01 2013-06-11 삼성전자주식회사 디지털 영상 처리장치 및 이를 포함하는 디지털 촬영장치
CN103164137B (zh) * 2011-12-15 2015-11-25 宏碁股份有限公司 跨屏幕操作的识别方法以及电子装置
US9223472B2 (en) 2011-12-22 2015-12-29 Microsoft Technology Licensing, Llc Closing applications
KR101515629B1 (ko) 2012-01-07 2015-04-27 삼성전자주식회사 플렉서블 표시부를 갖는 휴대단말의 이벤트 제공 방법 및 장치
US9058168B2 (en) * 2012-01-23 2015-06-16 Blackberry Limited Electronic device and method of controlling a display
US9645724B2 (en) 2012-02-01 2017-05-09 Facebook, Inc. Timeline based content organization
US9557876B2 (en) 2012-02-01 2017-01-31 Facebook, Inc. Hierarchical user interface
US9235317B2 (en) * 2012-02-01 2016-01-12 Facebook, Inc. Summary and navigation of hierarchical levels
KR102024587B1 (ko) * 2012-02-02 2019-09-24 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN102707880B (zh) * 2012-04-24 2015-01-07 华为终端有限公司 文件传输的方法及终端
KR101515623B1 (ko) * 2012-05-14 2015-04-28 삼성전자주식회사 벤디드 디스플레이를 갖는 휴대단말의 기능 운용 방법 및 장치
KR101868352B1 (ko) * 2012-05-14 2018-06-19 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US9285979B2 (en) * 2012-09-17 2016-03-15 Adobe Systems Incorporated Computer-implemented methods and systems for multi-touch duplication and swapping interactions
KR102099646B1 (ko) * 2012-09-25 2020-04-13 삼성전자 주식회사 휴대단말의 분할화면 전환 장치 및 방법
KR102463080B1 (ko) * 2014-04-11 2022-11-03 삼성전자주식회사 머리 착용형 디스플레이 장치 및 머리 착용형 디스플레이 장치의 콘텐트 표시방법
US20150212647A1 (en) 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
KR102063952B1 (ko) * 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
US9582122B2 (en) 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
CN104956316A (zh) * 2012-12-17 2015-09-30 英特尔公司 从多个触摸传感器接收输入
JP5598584B2 (ja) * 2012-12-25 2014-10-01 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法及びプログラム
US20140282139A1 (en) * 2013-03-13 2014-09-18 Outright, Inc. System for mobile content management
US10824313B2 (en) 2013-04-04 2020-11-03 P.J. Factory Co., Ltd. Method and device for creating and editing object-inserted images
KR101501028B1 (ko) * 2013-04-04 2015-03-12 박정환 개체가 삽입된 이미지를 생성하고 편집하는 방법 및 그 장치
USD757740S1 (en) * 2013-06-20 2016-05-31 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US20150007078A1 (en) 2013-06-28 2015-01-01 Sap Ag Data Displays in a Tile-Based User Interface
KR20150007910A (ko) * 2013-07-11 2015-01-21 삼성전자주식회사 사용자 인터렉션을 제공하는 사용자 단말 장치 및 그 방법
KR102130797B1 (ko) * 2013-09-17 2020-07-03 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
CN104750238B (zh) 2013-12-30 2018-10-02 华为技术有限公司 一种基于多终端协同的手势识别方法、设备及系统
CN104748737B (zh) 2013-12-30 2017-09-29 华为技术有限公司 一种多终端定位方法、相关设备及系统
KR102144339B1 (ko) * 2014-02-11 2020-08-13 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
CN105359094A (zh) 2014-04-04 2016-02-24 微软技术许可有限责任公司 可扩展应用表示
US20160140933A1 (en) * 2014-04-04 2016-05-19 Empire Technology Development Llc Relative positioning of devices
KR20160143784A (ko) 2014-04-10 2016-12-14 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 컴퓨팅 디바이스용 슬라이더 커버
WO2015154273A1 (en) 2014-04-10 2015-10-15 Microsoft Technology Licensing, Llc Collapsible shell cover for computing device
US10592080B2 (en) 2014-07-31 2020-03-17 Microsoft Technology Licensing, Llc Assisted presentation of application windows
US10254942B2 (en) 2014-07-31 2019-04-09 Microsoft Technology Licensing, Llc Adaptive sizing and positioning of application windows
US10678412B2 (en) 2014-07-31 2020-06-09 Microsoft Technology Licensing, Llc Dynamic joint dividers for application windows
KR101703867B1 (ko) 2014-08-01 2017-02-07 엘지전자 주식회사 적어도 하나의 터치에 의해 컨트롤되는 이동 단말기 및 그 제어 방법
US10146409B2 (en) * 2014-08-29 2018-12-04 Microsoft Technology Licensing, Llc Computerized dynamic splitting of interaction across multiple content
US10642365B2 (en) 2014-09-09 2020-05-05 Microsoft Technology Licensing, Llc Parametric inertia and APIs
US10025764B2 (en) 2014-10-30 2018-07-17 Snap-On Incorporated Methods and systems for taxonomy assist at data entry points
CN106662891B (zh) 2014-10-30 2019-10-11 微软技术许可有限责任公司 多配置输入设备
US9684447B2 (en) 2014-11-03 2017-06-20 Snap-On Incorporated Methods and systems for displaying vehicle data parameters with drag-and-drop inputs
US9880707B2 (en) 2014-11-03 2018-01-30 Snap-On Incorporated Methods and systems for displaying vehicle data parameters with operating condition indicators
US9933915B2 (en) 2014-11-03 2018-04-03 Snap-On Incorporated Methods and systems for displaying vehicle data parameter graphs in different display orientations
US10956003B2 (en) 2014-11-03 2021-03-23 Snap-On Incorporated Methods and systems for displaying vehicle data parameters with pinch-and-expand inputs
US9632656B2 (en) 2014-11-03 2017-04-25 Snap-On Incorporated Methods and systems for displaying vehicle data parameters with a uniform cursor movement
JP6631181B2 (ja) * 2015-11-13 2020-01-15 セイコーエプソン株式会社 画像投射システム、プロジェクター、及び、画像投射システムの制御方法
CN106708399A (zh) * 2015-11-17 2017-05-24 天津三星通信技术研究有限公司 用于具有双侧边曲面屏幕的电子终端的触控方法和设备
KR102480462B1 (ko) 2016-02-05 2022-12-23 삼성전자주식회사 복수의 디스플레이들을 포함하는 전자 장치 및 그 동작 방법
JP6623908B2 (ja) * 2016-04-08 2019-12-25 富士通株式会社 情報処理装置、情報処理方法及び情報処理プログラム
KR20180080629A (ko) * 2017-01-04 2018-07-12 삼성전자주식회사 전자 장치 및 전자 장치의 어플리케이션 실행 히스토리 표시 방법
CN109426430B (zh) * 2017-09-05 2024-09-27 中兴通讯股份有限公司 触摸消息融合方法及终端、计算机可读存储介质
KR20220000270A (ko) * 2020-06-25 2022-01-03 삼성전자주식회사 플렉서블 디스플레이를 포함하는 전자 장치
JP2023532524A (ja) * 2020-07-01 2023-07-28 テレフオンアクチーボラゲット エルエム エリクソン(パブル) ユーザインターフェースオブジェクトを表示するためのユーザデバイスおよびその方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201181467Y (zh) * 2007-01-05 2009-01-14 苹果公司 手持移动通信装置
US20100020025A1 (en) * 2008-07-25 2010-01-28 Intuilab Continuous recognition of multi-touch gestures

Family Cites Families (184)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4686332A (en) 1986-06-26 1987-08-11 International Business Machines Corporation Combined finger touch and stylus detection system for use on the viewing surface of a visual display device
US4843538A (en) 1985-04-30 1989-06-27 Prometrix Corporation Multi-level dynamic menu which suppresses display of items previously designated as non-selectable
US6167439A (en) 1988-05-27 2000-12-26 Kodak Limited Data retrieval, manipulation and transmission with facsimile images
US5231578A (en) 1988-11-01 1993-07-27 Wang Laboratories, Inc. Apparatus for document annotation and manipulation using images from a window source
US5237647A (en) 1989-09-15 1993-08-17 Massachusetts Institute Of Technology Computer aided drawing in three dimensions
US5898434A (en) 1991-05-15 1999-04-27 Apple Computer, Inc. User interface system having programmable user interface elements
US5349658A (en) 1991-11-01 1994-09-20 Rourke Thomas C O Graphical user interface
US5351995A (en) 1992-01-29 1994-10-04 Apple Computer, Inc. Double-sided, reversible electronic paper
US5661773A (en) 1992-03-19 1997-08-26 Wisconsin Alumni Research Foundation Interface for radiation therapy machine
US6097392A (en) 1992-09-10 2000-08-01 Microsoft Corporation Method and system of altering an attribute of a graphic object in a pen environment
US5463725A (en) 1992-12-31 1995-10-31 International Business Machines Corp. Data processing system graphical user interface which emulates printed material
DE69430967T2 (de) 1993-04-30 2002-11-07 Xerox Corp Interaktives Kopiersystem
EP0626635B1 (en) 1993-05-24 2003-03-05 Sun Microsystems, Inc. Improved graphical user interface with method for interfacing to remote devices
US5583984A (en) 1993-06-11 1996-12-10 Apple Computer, Inc. Computer system with graphical user interface including automated enclosures
US5497776A (en) 1993-08-05 1996-03-12 Olympus Optical Co., Ltd. Ultrasonic image diagnosing apparatus for displaying three-dimensional image
US5596697A (en) 1993-09-30 1997-01-21 Apple Computer, Inc. Method for routing items within a computer system
DE69428675T2 (de) 1993-12-30 2002-05-08 Xerox Corp Apparat und Verfahren zur Unterstützung einer impliziten Strukturation von Freiform-Listen, Übersichten, Texten, Tabellen und Diagrammen in einem auf Handzeichen basierenden Eingabesystem und Editiersystem
US5491783A (en) 1993-12-30 1996-02-13 International Business Machines Corporation Method and apparatus for facilitating integrated icon-based operations in a data processing system
US5555369A (en) 1994-02-14 1996-09-10 Apple Computer, Inc. Method of creating packages for a pointer-based computer system
US5664128A (en) 1995-02-23 1997-09-02 Apple Computer, Inc. Object storage apparatus for use with data sets in computer applications
JPH0926769A (ja) 1995-07-10 1997-01-28 Hitachi Ltd 画像表示装置
US5694150A (en) 1995-09-21 1997-12-02 Elo Touchsystems, Inc. Multiuser/multi pointing device graphical user interface system
US5761485A (en) 1995-12-01 1998-06-02 Munyan; Daniel E. Personal electronic book system
JPH10192A (ja) 1996-04-15 1998-01-06 Olympus Optical Co Ltd 超音波画像診断装置
US5969720A (en) 1997-03-07 1999-10-19 International Business Machines Corporation Data processing system and method for implementing an informative container for a file system
US6920619B1 (en) 1997-08-28 2005-07-19 Slavoljub Milekic User interface for removing an object from a display
US6310610B1 (en) 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
US6037937A (en) 1997-12-04 2000-03-14 Nortel Networks Corporation Navigation tool for graphical user interface
WO1999028811A1 (en) 1997-12-04 1999-06-10 Northern Telecom Limited Contextual gesture interface
US20010047263A1 (en) 1997-12-18 2001-11-29 Colin Donald Smith Multimodal user interface
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7800592B2 (en) 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US6639577B2 (en) 1998-03-04 2003-10-28 Gemstar-Tv Guide International, Inc. Portable information display device with ergonomic bezel
US6239798B1 (en) 1998-05-28 2001-05-29 Sun Microsystems, Inc. Methods and apparatus for a window access panel
US6337698B1 (en) 1998-11-20 2002-01-08 Microsoft Corporation Pen-based interface for a notepad computer
US6507352B1 (en) 1998-12-23 2003-01-14 Ncr Corporation Apparatus and method for displaying a menu with an interactive retail terminal
US6545669B1 (en) 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
US6992687B1 (en) 1999-12-07 2006-01-31 Microsoft Corporation Bookmarking and placemarking a displayed document in a computer system
JP4803883B2 (ja) 2000-01-31 2011-10-26 キヤノン株式会社 位置情報処理装置及びその方法及びそのプログラム。
US6859909B1 (en) 2000-03-07 2005-02-22 Microsoft Corporation System and method for annotating web-based documents
JP2001265523A (ja) 2000-03-21 2001-09-28 Sony Corp 情報入出力システム及び情報入出力方法、並びにプログラム記憶媒体
US7290285B2 (en) 2000-06-30 2007-10-30 Zinio Systems, Inc. Systems and methods for distributing and viewing electronic documents
WO2002059868A1 (en) 2001-01-24 2002-08-01 Interlink Electronics, Inc. Game and home entertainment device remote control
US20020101457A1 (en) 2001-01-31 2002-08-01 Microsoft Corporation Bezel interface for small computing devices
US20020116421A1 (en) 2001-02-17 2002-08-22 Fox Harold L. Method and system for page-like display, formating and processing of computer generated information on networked computers
US7085274B1 (en) 2001-09-19 2006-08-01 Juniper Networks, Inc. Context-switched multi-stream pipelined reorder engine
US6762752B2 (en) 2001-11-29 2004-07-13 N-Trig Ltd. Dual function input device and method
US20030179541A1 (en) 2002-03-21 2003-09-25 Peter Sullivan Double screen portable computer
US7158675B2 (en) 2002-05-14 2007-01-02 Microsoft Corporation Interfacing with ink
US7330184B2 (en) 2002-06-12 2008-02-12 Smart Technologies Ulc System and method for recognizing connector gestures
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US20090143141A1 (en) 2002-08-06 2009-06-04 Igt Intelligent Multiplayer Gaming System With Multi-Touch Display
US9756349B2 (en) 2002-12-10 2017-09-05 Sony Interactive Entertainment America Llc User interface, system and method for controlling a video stream
US7159189B2 (en) 2003-06-13 2007-01-02 Alphabase Systems, Inc. Method and system for controlling cascaded windows on a GUI desktop on a computer
US8373660B2 (en) 2003-07-14 2013-02-12 Matt Pallakoff System and method for a portable multimedia client
US20050101864A1 (en) 2003-10-23 2005-05-12 Chuan Zheng Ultrasound diagnostic imaging system and method for 3D qualitative display of 2D border tracings
US7532196B2 (en) 2003-10-30 2009-05-12 Microsoft Corporation Distributed sensing techniques for mobile devices
TWI275041B (en) 2003-12-10 2007-03-01 Univ Nat Chiao Tung System and method for constructing large-scaled drawings of similar objects
US20050184973A1 (en) 2004-02-25 2005-08-25 Xplore Technologies Corporation Apparatus providing multi-mode digital input
US7383500B2 (en) 2004-04-30 2008-06-03 Microsoft Corporation Methods and systems for building packages that contain pre-paginated documents
US7743348B2 (en) 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
WO2006006173A2 (en) 2004-07-15 2006-01-19 N-Trig Ltd. Automatic switching for a dual mode digitizer
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7728821B2 (en) 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US7454717B2 (en) 2004-10-20 2008-11-18 Microsoft Corporation Delimiters for selection-action pen gesture phrases
US8169410B2 (en) 2004-10-20 2012-05-01 Nintendo Co., Ltd. Gesture inputs for a portable display device
US20060092177A1 (en) 2004-10-30 2006-05-04 Gabor Blasko Input method and apparatus using tactile guidance and bi-directional segmented stroke
KR20160150116A (ko) 2005-03-04 2016-12-28 애플 인크. 다기능 휴대용 장치
US20060262188A1 (en) 2005-05-20 2006-11-23 Oded Elyada System and method for detecting changes in an environment
US8161415B2 (en) 2005-06-20 2012-04-17 Hewlett-Packard Development Company, L.P. Method, article, apparatus and computer system for inputting a graphical object
US7728818B2 (en) 2005-09-30 2010-06-01 Nokia Corporation Method, device computer program and graphical user interface for user input of an electronic device
US7574628B2 (en) 2005-11-14 2009-08-11 Hadi Qassoudi Clickless tool
US7636071B2 (en) 2005-11-30 2009-12-22 Hewlett-Packard Development Company, L.P. Providing information in a multi-screen device
US7603633B2 (en) 2006-01-13 2009-10-13 Microsoft Corporation Position-based multi-stroke marking menus
JP5092255B2 (ja) * 2006-03-09 2012-12-05 カシオ計算機株式会社 表示装置
US20070097096A1 (en) 2006-03-25 2007-05-03 Outland Research, Llc Bimodal user interface paradigm for touch screen devices
US20100045705A1 (en) 2006-03-30 2010-02-25 Roel Vertegaal Interaction techniques for flexible displays
US8587526B2 (en) 2006-04-12 2013-11-19 N-Trig Ltd. Gesture recognition feedback for a dual mode digitizer
US8086971B2 (en) 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US20080040692A1 (en) 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
US7813774B2 (en) 2006-08-18 2010-10-12 Microsoft Corporation Contact, motion and position sensing circuitry providing data entry associated with keypad and touchpad
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US7831727B2 (en) 2006-09-11 2010-11-09 Apple Computer, Inc. Multi-content presentation of unassociated content types
US7956847B2 (en) 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US8970503B2 (en) 2007-01-05 2015-03-03 Apple Inc. Gestures for devices having one or more touch sensitive surfaces
US8963842B2 (en) 2007-01-05 2015-02-24 Visteon Global Technologies, Inc. Integrated hardware and software user interface
US8607167B2 (en) 2007-01-07 2013-12-10 Apple Inc. Portable multifunction device, method, and graphical user interface for providing maps and directions
US7978182B2 (en) 2007-01-07 2011-07-12 Apple Inc. Screen rotation gestures on a portable multifunction device
US10437459B2 (en) 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
US8519963B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
JP4973245B2 (ja) * 2007-03-08 2012-07-11 富士ゼロックス株式会社 表示装置及びプログラム
US8347206B2 (en) 2007-03-15 2013-01-01 Microsoft Corporation Interactive image tagging
US20080249682A1 (en) 2007-04-06 2008-10-09 Visteon Global Technologies, Inc. Touch control bezel for display devices
US20080278455A1 (en) 2007-05-11 2008-11-13 Rpo Pty Limited User-Defined Enablement Protocol
JP2008305087A (ja) 2007-06-06 2008-12-18 Toshiba Matsushita Display Technology Co Ltd 表示装置
JP2008305036A (ja) 2007-06-06 2008-12-18 Hitachi Displays Ltd タッチパネル付表示装置
WO2009037588A2 (en) 2007-07-19 2009-03-26 Heng Kah Choy Dual screen presentation notebook computer
WO2009018314A2 (en) 2007-07-30 2009-02-05 Perceptive Pixel, Inc. Graphical user interface for large-scale, multi-user, multi-touch systems
US20090033632A1 (en) 2007-07-30 2009-02-05 Szolyga Thomas H Integrated touch pad and pen-based tablet input system
KR20090013927A (ko) 2007-08-03 2009-02-06 에스케이 텔레콤주식회사 전자책 뷰어화면 상에서의 메모 실행 방법 및 이에적용되는 장치
US20090054107A1 (en) 2007-08-20 2009-02-26 Synaptics Incorporated Handheld communication device and method for conference call initiation
US7778118B2 (en) 2007-08-28 2010-08-17 Garmin Ltd. Watch device having touch-bezel user interface
US8122384B2 (en) 2007-09-18 2012-02-21 Palo Alto Research Center Incorporated Method and apparatus for selecting an object within a user interface by performing a gesture
US20090079699A1 (en) 2007-09-24 2009-03-26 Motorola, Inc. Method and device for associating objects
EP2045700A1 (en) 2007-10-04 2009-04-08 LG Electronics Inc. Menu display method for a mobile communication terminal
KR100869557B1 (ko) * 2007-10-18 2008-11-27 김종대 무체인 자전거용 동력전달장치
US8395584B2 (en) 2007-12-31 2013-03-12 Sony Corporation Mobile terminals including multiple user interfaces on different faces thereof configured to be used in tandem and related methods of operation
CA2711448A1 (en) 2008-01-09 2009-07-16 Smart Technologies Ulc Method and tool for organizing and manipulating electronic documents
TW200943140A (en) 2008-04-02 2009-10-16 Asustek Comp Inc Electronic apparatus and control method thereof
KR20090106755A (ko) 2008-04-07 2009-10-12 주식회사 케이티테크 메모 입력 기능을 제공하는 방법, 단말 및 그 방법을실행하는 프로그램이 기록된 기록매체
US20090276701A1 (en) 2008-04-30 2009-11-05 Nokia Corporation Apparatus, method and computer program product for facilitating drag-and-drop of an object
TWI364699B (en) 2008-05-07 2012-05-21 Acer Inc Synchronous operating method of remote systems and synchronous operating method of local touch screens
US20090282332A1 (en) 2008-05-12 2009-11-12 Nokia Corporation Apparatus, method and computer program product for selecting multiple items using multi-touch
US20090284478A1 (en) 2008-05-15 2009-11-19 Microsoft Corporation Multi-Contact and Single-Contact Input
JP5164675B2 (ja) 2008-06-04 2013-03-21 キヤノン株式会社 ユーザインターフェースの制御方法及び情報処理装置及びプログラム
CN101566865A (zh) 2008-06-08 2009-10-28 许文武 多工作模式双屏笔记本电脑系统及操作控制方法
WO2009152316A1 (en) 2008-06-11 2009-12-17 Teliris, Inc. Surface computing collaboration system, method and apparatus
US20090327975A1 (en) 2008-06-27 2009-12-31 Stedman Roy W Multi-Touch Sorting Gesture
WO2010005423A1 (en) 2008-07-07 2010-01-14 Hewlett-Packard Development Company, L.P. Tablet computers having an internal antenna
JP5606669B2 (ja) 2008-07-16 2014-10-15 任天堂株式会社 3次元パズルゲーム装置、ゲームプログラム、3次元パズルゲームシステムおよびゲーム制御方法
US8159455B2 (en) 2008-07-18 2012-04-17 Apple Inc. Methods and apparatus for processing combinations of kinematical inputs
US8924892B2 (en) 2008-08-22 2014-12-30 Fuji Xerox Co., Ltd. Multiple selection on devices with many gestures
WO2010030984A1 (en) 2008-09-12 2010-03-18 Gesturetek, Inc. Orienting a displayed element relative to a user
US8600446B2 (en) 2008-09-26 2013-12-03 Htc Corporation Mobile device interface with dual windows
US9250797B2 (en) 2008-09-30 2016-02-02 Verizon Patent And Licensing Inc. Touch gesture interface apparatuses, systems, and methods
KR101586627B1 (ko) 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
KR101503835B1 (ko) 2008-10-13 2015-03-18 삼성전자주식회사 멀티터치를 이용한 오브젝트 관리 방법 및 장치
JP4683110B2 (ja) 2008-10-17 2011-05-11 ソニー株式会社 表示装置、表示方法及びプログラム
US20100107067A1 (en) 2008-10-27 2010-04-29 Nokia Corporation Input on touch based user interfaces
KR20100050103A (ko) 2008-11-05 2010-05-13 엘지전자 주식회사 맵 상에서의 3차원 개체 제어방법과 이를 이용한 이동 단말기
CN201298220Y (zh) 2008-11-26 2009-08-26 陈伟山 基于lcd液晶显示屏的红外反射多点触摸装置
KR101544475B1 (ko) 2008-11-28 2015-08-13 엘지전자 주식회사 터치를 통한 입출력 제어
JP5268595B2 (ja) 2008-11-28 2013-08-21 ソニー株式会社 画像処理装置、画像表示方法及び画像表示プログラム
US20100185949A1 (en) 2008-12-09 2010-07-22 Denny Jaeger Method for using gesture objects for computer control
US20100164878A1 (en) 2008-12-31 2010-07-01 Nokia Corporation Touch-click keypad
US8279184B2 (en) 2009-01-27 2012-10-02 Research In Motion Limited Electronic device including a touchscreen and method
US8219937B2 (en) 2009-02-09 2012-07-10 Microsoft Corporation Manipulation of graphical elements on graphical user interface via multi-touch gestures
TWI370473B (en) 2009-02-20 2012-08-11 Wistron Corp Switch structure mounted on the sidewall of circuit boards for electronic devices and manufacturing methods of the circuit boards thereof
WO2010096762A2 (en) 2009-02-23 2010-08-26 Provo Craft And Novelty, Inc. Controller device
US9250788B2 (en) 2009-03-18 2016-02-02 IdentifyMine, Inc. Gesture handlers of a gesture engine
US8134539B2 (en) 2009-03-30 2012-03-13 Eastman Kodak Company Digital picture frame having near-touch and true-touch
US8370762B2 (en) 2009-04-10 2013-02-05 Cellco Partnership Mobile functional icon use in operational area in touch panel devices
JP5229083B2 (ja) 2009-04-14 2013-07-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US8212788B2 (en) 2009-05-07 2012-07-03 Microsoft Corporation Touch input to modulate changeable parameter
TW201040823A (en) 2009-05-11 2010-11-16 Au Optronics Corp Multi-touch method for resistive touch panel
US9405456B2 (en) 2009-06-08 2016-08-02 Xerox Corporation Manipulation of displayed objects by virtual magnetism
CN101576789B (zh) 2009-06-16 2011-07-27 广东威创视讯科技股份有限公司 拼墙定位系统中跨屏书写笔画属性的保持和更改方法
US20110055753A1 (en) 2009-08-31 2011-03-03 Horodezky Samuel J User interface methods providing searching functionality
US9262063B2 (en) 2009-09-02 2016-02-16 Amazon Technologies, Inc. Touch-screen user interface
US9274699B2 (en) 2009-09-03 2016-03-01 Obscura Digital User interface for a large scale multi-user, multi-touch system
US20110126094A1 (en) 2009-11-24 2011-05-26 Horodezky Samuel J Method of modifying commands on a touch screen user interface
US20110143769A1 (en) 2009-12-16 2011-06-16 Microsoft Corporation Dual display mobile communication device
US20110167336A1 (en) 2010-01-04 2011-07-07 Hit Development Llc Gesture-based web site design
US8239785B2 (en) 2010-01-27 2012-08-07 Microsoft Corporation Edge gestures
US20110185320A1 (en) 2010-01-28 2011-07-28 Microsoft Corporation Cross-reference Gestures
US20110185299A1 (en) 2010-01-28 2011-07-28 Microsoft Corporation Stamp Gestures
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US20110191704A1 (en) 2010-02-04 2011-08-04 Microsoft Corporation Contextual multiplexing gestures
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US20110191719A1 (en) 2010-02-04 2011-08-04 Microsoft Corporation Cut, Punch-Out, and Rip Gestures
US20110199386A1 (en) 2010-02-12 2011-08-18 Honeywell International Inc. Overlay feature to provide user assistance in a multi-touch interactive display environment
US20110231796A1 (en) 2010-02-16 2011-09-22 Jose Manuel Vigil Methods for navigating a touch screen device in conjunction with gestures
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US8799827B2 (en) 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US20110209098A1 (en) 2010-02-19 2011-08-25 Hinckley Kenneth P On and Off-Screen Gesture Combinations
US9274682B2 (en) 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US20110209101A1 (en) 2010-02-25 2011-08-25 Hinckley Kenneth P Multi-screen pinch-to-pocket gesture
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US8751970B2 (en) 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US8707174B2 (en) 2010-02-25 2014-04-22 Microsoft Corporation Multi-screen hold and page-flip gesture
US20110209058A1 (en) 2010-02-25 2011-08-25 Microsoft Corporation Multi-screen hold and tap gesture
US9075522B2 (en) 2010-02-25 2015-07-07 Microsoft Technology Licensing, Llc Multi-screen bookmark hold gesture
US8473870B2 (en) 2010-02-25 2013-06-25 Microsoft Corporation Multi-screen hold and drag gesture
US20110209089A1 (en) 2010-02-25 2011-08-25 Hinckley Kenneth P Multi-screen object-hold and page-change gesture
US20110291964A1 (en) 2010-06-01 2011-12-01 Kno, Inc. Apparatus and Method for Gesture Control of a Dual Panel Electronic Device
USD631043S1 (en) 2010-09-12 2011-01-18 Steven Kell Electronic dual screen personal tablet computer with integrated stylus
EP2437153A3 (en) 2010-10-01 2016-10-05 Samsung Electronics Co., Ltd. Apparatus and method for turning e-book pages in portable terminal
US8495522B2 (en) 2010-10-18 2013-07-23 Nokia Corporation Navigation in a display

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201181467Y (zh) * 2007-01-05 2009-01-14 苹果公司 手持移动通信装置
US20100020025A1 (en) * 2008-07-25 2010-01-28 Intuilab Continuous recognition of multi-touch gestures

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103927144A (zh) * 2014-04-17 2014-07-16 深圳市中兴移动通信有限公司 触屏操作的方法及装置
CN109032486A (zh) * 2018-07-10 2018-12-18 维沃移动通信有限公司 一种显示控制方法及终端设备
CN109032486B (zh) * 2018-07-10 2021-01-22 维沃移动通信有限公司 一种显示控制方法及终端设备

Also Published As

Publication number Publication date
US20110209100A1 (en) 2011-08-25
US8539384B2 (en) 2013-09-17
ES2684683T3 (es) 2018-10-04
EP2539799A4 (en) 2013-01-02
CN102770837B (zh) 2016-12-21
CA2788106C (en) 2018-01-30
WO2011106268A2 (en) 2011-09-01
EP2539799B1 (en) 2018-05-23
JP5726916B2 (ja) 2015-06-03
CA2788106A1 (en) 2011-09-01
WO2011106268A3 (en) 2011-11-24
EP2539799A2 (en) 2013-01-02
JP2013520752A (ja) 2013-06-06

Similar Documents

Publication Publication Date Title
CN102141858B (zh) 多屏幕同步滑动的方法
CN102147704B (zh) 多屏幕对象保持并换页手势
CN102147705B (zh) 多屏幕书签保持手势
CN102770837A (zh) 多屏幕张合手势
CN102782634A (zh) 多屏幕保持并轻叩手势
CN102770834A (zh) 多屏幕保持并翻页手势
CN102770839A (zh) 多屏幕捏合装袋手势
CN102770838A (zh) 多屏幕双叩手势
CN102147679B (zh) 用于多屏幕系统的手势输入方法和系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150729

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150729

Address after: Washington State

Applicant after: Micro soft technique license Co., Ltd

Address before: Washington State

Applicant before: Microsoft Corp.

C14 Grant of patent or utility model
GR01 Patent grant