CN111727418A - 触摸输入表面的布局 - Google Patents

触摸输入表面的布局 Download PDF

Info

Publication number
CN111727418A
CN111727418A CN201980013650.0A CN201980013650A CN111727418A CN 111727418 A CN111727418 A CN 111727418A CN 201980013650 A CN201980013650 A CN 201980013650A CN 111727418 A CN111727418 A CN 111727418A
Authority
CN
China
Prior art keywords
input
touch input
region
functionality
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980013650.0A
Other languages
English (en)
Inventor
C·克莱因
R·H·小伯格
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN111727418A publication Critical patent/CN111727418A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/039Accessories therefor, e.g. mouse pads
    • G06F3/0393Accessories for touch pads or touch screens, e.g. mechanical guides added to touch screens for drawing straight lines, hard keys overlaying touch screens or touch pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

描述了用于触摸输入表面的布局的技术。一般地,所描述的技术使触摸输入表面和/或触摸输入表面的组合能够被表征为单个逻辑输入表面。基于不同上下文因素,单个逻辑输入表面可被划分成不同触摸输入区域,这些不同触摸输入区域可各自接收触摸输入以调用不同的相应功能性。在至少一些实现中,不同触觉效果可被输出以对应于不同触摸输入区域。

Description

触摸输入表面的布局
背景
现代计算设备利用各种不同类型的输入来实现用户与设备之间的交互。一种尤其直观的输入类型是触摸输入。例如,用户可向触摸输入表面(例如,触摸板、触摸屏等等)提供触摸输入,以与计算设备进行交互,诸如用于对象选择、对象操纵等等。然而,典型的触摸输入实现是静态的,并且仅仅提供单一目的的触摸输入体验,诸如用于经由触摸板操纵光标、或者用于对触摸屏上所显示的对象的直接触摸。
发明内容
提供本概述以便以简化的形式介绍以下在详细描述中进一步描述的概念的选集。本概述并不旨在标识所要求保护的主题的关键特征或必要特征,亦非旨在用于帮助确定所要求保护的主题的范围。
描述了用于触摸输入表面的布局的技术。一般地,所描述的技术使触摸输入表面和/或触摸输入表面的组合能够被表征为单个逻辑输入表面。基于不同上下文因素,单个逻辑输入表面可被划分成不同触摸输入区域,这些不同触摸输入区域可各自接收触摸输入以调用不同的相应功能性。在至少一些实现中,不同触觉效果可被输出以对应于不同触摸输入区域。
附图简述
参考附图来对详细描述进行描述。在附图中,附图标记最左边的(诸)数位标识该附图标记首次出现的附图。在说明书和附图的不同实例中使用相同的附图标记可指示类似或相同的项。
图1是示例实现中的环境的图解,该示例实现可操作以采用本文所讨论的技术。
图2解说了用于配置触摸输入设备的布局的示例实现场景。
图3描绘了用于重配置触摸输入设备的布局的示例实现场景。
图4描绘了用于配置包括多个设备的触摸输入表面的布局的示例实现场景。
图5描绘了用于在触摸屏实现中配置触摸输入设备的布局的实现场景。
图6a描绘了用于经由动态触摸输入设备进行交互的实现场景。
图6b描绘了用于经由动态触摸输入设备进行交互的实现场景。
图6c描绘了用于经由动态触摸输入设备进行交互的实现场景。
图7描绘了用于触摸输入修改的实现场景。
图8描绘了用于配置多屏设备的触摸输入区域的实现场景。
图9描绘了用于使用手势来模拟物理输入对象的实现场景。
图10描绘了用于补偿输入手势中的变化的实现场景。
图11描绘了用于针对不同输入区域的触觉效果的实现场景。
图12是描述用于配置触摸输入表面的区域的方法中的步骤的流程图。
图13是描述用于基于上下文中的改变来重配置触摸输入表面的区域的方法中的步骤的流程图。
图14是描述用于修改输入区域的功能性的方法中的步骤的流程图。
图15是描述用于模拟物理输入对象的方法中的步骤的流程图。
图16是描述用于补偿输入中的变化的方法中的步骤的流程图。
图17是描述用于导致输入区域中的触觉效果的方法中的步骤的流程图。
图18解说了如参考图1描述的示例系统和计算设备,该示例系统和计算设备被配置成实现本文所描述的各技术的各实施例。
详细描述
概览
描述了用于触摸输入表面的布局的技术。一般地,所描述的技术使触摸输入表面和/或触摸输入表面的组合能够被表征为单个逻辑输入表面。基于不同上下文因素,单个逻辑输入表面可被划分成不同触摸输入区域,这些不同触摸输入区域可各自接收触摸输入以调用不同的相应功能性。此外,当上下文改变发生时,逻辑输入表面可被重配置成不同的触摸输入区域布置。
例如,考虑包括触摸板输入设备的计算设备。根据本文所描述的技术,触摸板可被表征为单个逻辑输入表面,该单个逻辑输入表面可取决于特定上下文而被划分成不同触摸输入区域。例如,当聚焦于操作系统或其他系统过程时,触摸板可基于为操作系统定义的特定区域布局而被配置成不同区域。然而,当聚焦于应用时,触摸板可被配置成(诸如由应用定义和/或针对应用定义的)不同的触摸输入区域布置。如下面详述的,各种不同上下文信息可被利用来确定如何配置触摸输入表面。此外,触摸输入表面的各种不同类型和组合可被利用来创建不同触摸输入表面配置的阵列。
在以下讨论中,首先描述可操作以采用本文所描述的技术的示例环境。接下来,题为“示例实现场景”的章节描述根据一个或多个实施例的一些示例实现场景。在这之后,题为“示例规程”的章节描述根据一个或多个实施例的一些示例规程。最后,题为“示例系统和设备”的章节描述根据一个或多个实施例的可操作以采用本文所讨论的各技术的示例系统和设备。
呈现了根据一个或多个实施例的示例实现的概览之后,现在考虑其中可采用各示例实现的示例环境。
示例环境
图1是示例实现中的环境100的图解,该示例实现可操作以采用本文所描述的用于触摸输入表面的布局的技术。环境100包括客户端设备102,客户端设备102可按各种方式来配置,诸如传统计算机(例如,台式个人计算机、膝上型计算机等等)、移动设备(例如,智能电话、平板设备等等)、娱乐电器、可穿戴设备、游戏控制台等等。
客户端设备102包括允许各种活动和任务能够被执行的各种不同功能性。例如,客户端设备102包括操作系统104、应用106、输入/输出(“I/O”)设备108、传感器110、输入/输出(“I/O”)模块112、图形模块114、以及触摸输入模块116。一般地,操作系统104表示用于抽象客户端设备102的各种系统组件(诸如硬件、内核级模块和服务等等)的功能性。例如,操作系统104可向应用106抽象客户端设备102的各组件以允许各组件与应用106之间的交互。
应用106表示用于经由客户端设备102执行不同任务的功能性。应用106的示例包括文字处理应用、电子表格应用、web浏览器、游戏应用、通信应用等等。应用106可被本地地安装在客户端设备102以经由本地运行时环境来执行,和/或可表示到远程功能性(诸如基于云的服务、web应用等等)的门户。因而,应用106可采取各种形式,诸如在本地执行的代码、到远程地主存的服务的门户等等。
I/O设备108表示用于接收对客户端设备102的输入和/或用于提供来自客户端设备102的输出的不同功能性。I/O设备108的特定实例例如表示专用输入设备、专用输出设备、或者既接收输入又提供输出的设备。I/O设备108包括触摸输入设备118、视觉输出设备120、以及触觉输出设备122。触摸输入设备118表示用于接收对客户端设备102的触摸输入的功能性。一般地,触摸输入可包括用户所作的直接接触,诸如使用一根手指和/或手指的组合。触摸输入还可包括使用触摸输入设备的输入,诸如触控笔或数字笔(“笔”)。
视觉输出设备120表示用于客户端设备102的视觉输出的功能性。视觉输出设备120可包括用于客户端设备102所作的直接视觉输出的功能性(例如,显示屏),和/或用于将视觉数据从客户端设备102传递到要被显示的不同设备的功能性。例如,客户端设备102所生成的图形可经由无线和/或有线连接被传达到不同设备(例如,远程显示屏或其他客户端设备)以供该不同设备来显示。
触觉输出设备122表示被配置成提供触觉输出的设备。例如,触觉输出设备122被配置成提供针对触摸输入的在触觉上可感知的触觉响应。一般地,触觉输出设备122可利用各种不同触觉生成机制来生成触觉响应,诸如静电力、电机、磁体、(基于磁和压电的)线性谐振致动器(LRA)、压电结构等等。
I/O设备的具体示例包括显示设备124、键盘126、和触摸垫128。显示设备124被配置成为客户端设备102提供视觉输出。在至少一个实现中,显示设备124被配置为触摸屏设备。例如,在触摸屏实现中,显示设备124不仅被配置成提供视觉输出,而且还可接收触摸输入。因而,在触摸屏实现中,显示设备124表示触摸输入设备118和视觉输出设备120的实例。
显示设备124还可被配置成提供触觉输出,诸如响应于触摸输入。相应地,在这样的实现中,显示设备124表示触摸输入设备118、视觉输出设备120、以及触觉输出设备122的实例。替代地,客户端设备102可被配置成经由显示设备124来实现触觉输出,而无需显示设备124本身被配置成用于触觉输出。例如,不同的触觉输出设备122可相对于显示设备124来被定位,以在显示设备124的表面上实现触觉输出。
键盘126表示用于经由键的选择来接收输入的功能性。一般地,键盘126的各个键表示不同字符,使得对特定键的选择允许相应字符输入到客户端设备102。键可按各种方式来实现,包括例如但不限于,机械开关键盘、基于膜的键盘、圆顶开关键盘、剪刀式开关键盘等等。
触摸垫128表示用于接收对客户端设备102的触摸输入的功能性,诸如用于跨显示设备124来导航光标或其他视觉指示符的功能性、以及用于与显示设备124上所显示的视觉元素进行交互的功能性。触摸板128例如表示触摸输入设备118的实例。在至少一个实现中,触摸板128不仅可接收针对客户端设备102的触摸输入,而且还可提供各种类型的触觉输出。因而,在这样的实现中,触摸板128表示触摸输入设备118和触觉输出设备122的实例。在至少一个实现中,触摸板128和键盘126被集成到单个共用物理结构中。
如以下进一步描述的,触摸板128可被划分成各自具有不同的相应功能性的不同触摸区域。此外,触摸板128如何被划分可取决于特定上下文,诸如所聚焦的特定应用106或客户端设备102的姿态。
继续对客户端设备102的讨论,传感器110表示用于感测各种与设备有关的现象和环境现象以及生成表征该现象的数据的功能性。各种各样不同类型和布置的传感器110可被实现,以根据本文所描述的技术来检测可被用作上下文信息的各种不同现象。传感器110的非限制性示例包括位置传感器(例如,地理位置传感器、相对位置传感器、接近度传感器等等)、身份传感器、光传感器、声音传感器、温度传感器等等。
I/O模块112表示处理以及引导与I/O设备108有关的输入和输出的功能性。I/O模块112可例如检测对触摸输入设备118的输入,并且可使该输入能够被处理和引导至恰适的功能性,诸如应用106、操作系统104、和/或触摸输入模块116。此外,I/O模块112可经由I/O设备108来实现输出,诸如来自视觉输出设备120的视觉输出和来自触觉输出设备122的触觉输出。
图形模块114表示使图形能够经由客户端设备102显示(诸如显示在显示设备124和/或远程显示设备上)的功能性。图形模块114的示例实现包括图形驱动程序、显示驱动程序、图形处理单元(GPU)、渲染引擎、和/或其组合。
继所描述的实现,触摸输入模块116表示用于执行本文所描述的用于触摸输入表面的布局的技术的各个方面的功能性。触摸输入模块116可例如导致不同触摸输入设备118按不同方式以及基于不同的上下文和上下文中的改变来被配置和重配置。触摸输入模块116包括上下文映射130、设备布局132、手势映射134、触觉简档136、以及触摸输入应用编程接口(API)138。
上下文映射130表示将不同上下文信息映射至不同触摸输入设备118配置(诸如用于配置触摸板128、显示设备124(在触摸屏实现中)、和/或外部触摸输入设备的布局)的数据。例如,上下文映射130将不同上下文映射至不同设备布局132。上下文可包括各种不同类型的信息,诸如设备状态信息和/或环境信息。下面讨论不同类型的上下文信息的示例。在至少一些实现中,上下文映射130还可影响视觉输出设备120和触觉输出设备122的配置和/或功能性。
设备布局132表示定义用于触摸输入表面(诸如用于触摸板128和/或显示设备124)的不同配置的数据。例如,设备布局132包括区域配置140和功能性集合142。区域配置140表示指定特定触摸输入表面要如何被分隔成不同触摸输入区域的数据。此外,功能性集合142表示为每个区域配置140指定与各个体输入区域相关联的功能性的数据。例如,功能性集合142指定要应用于由区域配置140定义的特定输入区域的不同的个体区域功能性144。下面详述设备布局132的其他方面。
手势映射134表示基于特定设备布局132将不同手势映射至不同功能性的数据。例如,对触摸输入设备118的特定手势可取决于哪个区域配置140被应用于触摸输入设备118以及哪个输入区域接收该手势来调用不同功能性。如本文所描述的,“手势”包括对输入表面(诸如对触摸板128和/或显示设备124)的任何特定类型的触摸输入。
触觉简档136表示将不同触觉效果映射至不同区域配置140的数据。例如,当触摸输入设备118根据特定区域配置140而被划分成多个区域时,特定触觉简档136可指定要由触摸输入设备118在每一个区域处输出的特定触觉效果。在至少一些实现中,每一个区域可与不同触觉效果和/或触觉效果的组合相关联。
触摸输入API 138表示使其他功能性能够与触摸输入模块116和/或触摸输入设备118交互的功能性。例如,操作系统104和应用106可调用触摸输入API138来请求触摸输入模块116将特定区域配置140和/或功能性集合142应用于特定触摸输入设备118。
在至少一些实现中,触摸输入模块116可被实现为客户端设备102的系统资源的一部分,诸如操作系统104的一部分。替代地或附加地,触摸输入模块116可被实现为触摸输入设备118的一部分,诸如被实现在特定触摸输入设备118的固件中。
尽管某些实现在此是从集成到客户端设备102中的触摸输入设备118的角度来讨论的,但将领会到的是,作为替换或补充,本文所描述的技术可使用外部(例如,外围)触摸输入设备来应用。例如,触摸输入设备118的实例可被实现为能经由有线和/或无线连接连接至客户端设备102的分开的外部设备,诸如外围触摸板或显示设备。在利用外部触摸输入设备118的场景中,触摸输入模块116可驻留在客户端设备102上,和/或可表示被实现在外部触摸输入设备120上的板上功能性。
客户端设备102进一步包括触摸输入数据146,触摸输入数据146表示关于特定应用106是否指定背离默认触摸输入设备配置(例如,背离上下文映射130和/或手势映射134)的定制触摸输入设备118配置的信息。在这样的场景中,触摸输入模块116可针对特定应用106来应用定制触摸输入设备118配置而不是应用默认触摸输入设备118配置。一般地,触摸输入数据146可被实现为触摸输入模块116的一部分、操作系统104的一部分、和/或可由客户端设备102的不同功能性访问的触摸输入数据的独立集合。
笔148被进一步解说为环境100的一部分,它表示可向客户端设备102提供输入的输入设备。例如,笔148可被利用来向触摸输入设备118提供触摸输入,诸如向显示设备124施加数字墨水。笔148还可被用于其他目的,诸如选择和操纵显示设备124上所显示的视觉对象。
根据各个实现,触觉效果可基于笔148与客户端设备102之间的交互来被生成。例如,当笔148被用来向显示设备124提供输入时,触觉效果可基于该输入的上下文来被生成。触觉效果可例如由触觉输出设备122来生成。替代地或附加地,笔148是启用触觉的,以使得笔148可生成触觉效果。例如,在启用触觉的实现中,笔148包括可响应于笔148与客户端设备102之间的交互来生成触觉效果的各种内部组件。笔148可例如向显示设备124提供输入,并且可基于该输入的上下文来生成触觉响应。下面讨论的各种实现和场景可例如应用于由各种启用触觉的设备(诸如触摸板128、显示设备124、和/或笔148)生成的触觉效果。
已经描述了其中本文所描述的技术可操作的示例环境,现在考虑根据一个或多个实施例的对用于触摸输入表面的布局的示例实现场景的讨论。
示例实现场景
以下章节描述了根据一个或多个实现的用于触摸输入表面的布局的一些示例实现场景。各实现场景可被实现在上面所讨论的环境100中和/或任何其他合适环境中。
图2描绘了用于配置触摸输入设备的布局的示例实现场景200。在场景200中,触摸输入模块116接收上下文数据202(诸如从操作系统104接收)。上下文数据的非限制性示例包括:
应用上下文-哪个应用106当前是活跃的和/或聚焦于客户端设备102。在至少一些实现中,各个体应用106可为触摸输入设备118指定不同布局。附加地或替代地,应用上下文可包括具有多个操作模式的应用,该多个操作模式可(诸如基于上下文中的改变而)动态地(例如,在应用运行时期间)改变。
操作系统上下文-操作系统104或其他系统功能性是否被聚焦或者正生成需要注意力的事件。附加地或替代地,OS上下文可包括OS的特定模式和/或状态。例如,OS上下文可包括关于OS在特定操作(诸如拖放(drag and drop)操作)期间处于过渡模式的指示。此外,不同系统菜单可表示OS上下文,该OS上下文可被用作本文所描述的上下文数据。
用户身份-利用客户端设备102被认证和/或正与客户端设备102交互的用户的身份。在至少一些实现中,特定用户可与定制输入设备布局(诸如由用户定义为用户偏好)相关联。替代地或附加地,特定用户可能具有肢体障碍,使得定制触摸输入设备布局可针对该用户来被指定,以增加对用户而言的客户端设备102的可访问性。
外部设备-连接至客户端设备102(诸如经由有线和/或无线连接)的外部设备(例如,外围)的身份和/或属性。一些外部设备可例如与影响触摸输入设备118如何被配置的特定操作场景相关联。
设备姿态-客户端设备的姿态,例如,键盘126相对于显示设备124的角度、客户端设备102相对于重力向量的角度、显示设备124处于纵向取向还是横向取向等等。
内容类型-显示设备124上所显示的内容的类型。在至少一些实现中,特定类型的内容可与已知类型的用户交互相关联,使得触摸输入设备可被配置成针对交互类型来被优化。
环境上下文-来自围绕客户端设备102的环境的不同因素可被用作上下文信息。例如,来自一个或多个传感器110的传感器数据表示上下文信息。传感器数据的示例包括设备位置、设备定位、亮度、声音、用户身份、温度、运动等等。
上下文的这些示例仅出于示例目的来被呈现,并且将领会的是,各种各样不同的上下文信息类型和实例可根据本文所描述的用于触摸输入表面的布局的技术来被利用。
继续场景200,触摸输入模块116将上下文数据202应用于上下文映射130,以确定用于触摸板128的设备布局132a。例如,上下文映射130将上下文数据的不同实例映射至不同设备布局132。设备布局132a包括区域配置140a和功能性集合142a。相应地,触摸板128a在逻辑上被划分成区域204a、区域204b和区域204c。一般地,区域204a-204c表示触摸板128到不同区域的不同逻辑划分,以使得对触摸板128的输入根据其中该输入被接收的特定区域来表征。
区域204a-204c中的每一者具有由功能性集合142定义的不同的相应功能性。例如,区域204a具有区域功能性144a,区域204b具有区域功能性144b,并且区域204c具有区域功能性144c。在至少一些实现中,区域功能性144a-144c各自表示不同的相应功能性,使得施加到区域204a-204c中的每一者的相同类型的输入调用不同的相应功能性。
场景200连同本文中的其他场景一起将触摸输入区域描绘为在视觉上可彼此区分。一般地,这是为了易于理解和出于解说的目的,并且将领会的是,在至少一些实现中,不同触摸输入区域可能彼此在视觉上没有区别。例如,触摸板128(和/或其他触摸输入设备118)可被实现为视觉上均匀的触摸表面,该视觉上均匀的触摸表面可在逻辑上被划分成彼此在视觉上没有区别的不同触摸输入区域。然而,这不应被解释为限制性的,并且在一些实现中,诸触摸输入区域可在视觉上被区分开,诸如使用不同表面纹理、颜色、取向等等。附加地或替代地,并且如下面所描述,触觉效果可被采用以将诸触摸输入区域彼此区分开。
场景200可被迭代地并且实时地应用以响应于上下文数据202中的改变来实现对触摸板128的重配置。例如,考虑在触摸板128根据设备布局132a来被配置之后,触摸输入模块116接收不同上下文数据。相应地,触摸输入模块116将该不同上下文数据应用于上下文映射130,以确定用于触摸板128的不同设备布局132。触摸输入模块116接着将触摸板128从设备布局132a重配置成该不同设备布局132。例如,考虑以下场景。
图3描绘了用于重配置触摸输入设备的布局的场景300。场景300例如表示上面所讨论的场景200的延续。在场景300的上部,触摸板128根据设备布局132a来配置,诸如上面所描述的。前进到场景300的下部,上下文数据302被触摸输入模块116接收和使用,以确定要应用于触摸板128的设备布局132b。上下文数据302例如表示上下文中相对于上下文数据202的改变。上面描述了不同类型的上下文信息的示例。在与场景200中所描述的过程类似的过程中,触摸输入模块116将上下文数据202应用于上下文映射130以标识设备布局132b。
设备布局132b包括区域配置140b和功能性集合142b。相应地,触摸板128被从设备布局132a重配置成设备布局132b,使得触摸板128被划分成区域304a和区域304b。需要注意,区域304a、304b是与区域204a-204c不同地成形的。因而,触摸输入设备可被划分成任何合适数目、形状和布置的输入区域。
继场景300,区域304a与区域功能性144d相关联,并且区域304b与区域功能性144e相关联。一般地,区域功能性144d、144e表示可响应于对相应区域304a、304b的输入而被调用的不同的相应功能性。
相应地,场景300表明用于触摸输入表面的布局的技术可被采用以动态地并且响应于上下文中的改变来重配置触摸输入设备的布局。在至少一个实现中,场景300可被实现为在客户端设备102是活跃的并且正运行的情况下改变触摸输入设备布局。场景300还可在客户端设备102被掉电并接着再被上电时被实现,诸如响应于在客户端设备102从关闭状态再被上电时发生的上下文中的改变。
图4描绘了用于配置包括多个设备的触摸输入表面的布局的场景400。场景400包括触摸板128和外部设备402。外部设备402例如表示经由有线和/或无线连接而连接至客户端设备102的设备。外部设备402可按各种方式来实现,诸如外围设备(例如,外围触摸板或其他触摸输入表面)、智能电话、平板等等。
在场景400中,触摸输入模块116接收上下文数据404,该上下文数据404指示外部设备402连接至客户端设备102并且外部设备402包括触摸输入能力。在至少一个实现中,上下文数据404包括外部设备402的标识符,诸如标识外部设备402的设备类型的标识符。上下文数据404可包括其他类型的信息,诸如外部设备402的屏幕大小、外部设备的处理能力、外部设备402所支持的通信协议(无线和/或有线)等等。在一个或多个实现中,上下文数据404响应于外部设备402到客户端设备102的连接来被生成。
相应地,触摸输入模块116将上下文数据404应用于上下文映射130以生成设备布局132c。设备布局132c被配置成使包括触摸板128和外部设备402的触摸输入表面406能够被生成。设备布局132c例如包括区域配置140c以及区域408b和408c,区域配置140c指定与外部设备402相对应的区域408a,以及通过将触摸板128划分成两个不同区域来被形成的区域408b和408c。一般地,对区域408a-408c中的每一者的触摸输入调用不同功能性。例如,区域408a与区域功能性144f相关联,区域408b与区域功能性144g相关联,并且区域408c与区域功能性144h相关联。相应地,触摸输入表面406表示使用分开的物理设备(即,外部设备402和触摸板128)创建的单个逻辑触摸输入设备118。
图5描绘了用于在触摸屏实现中配置触摸输入设备的布局的实现场景500。场景500包括显示设备124上所显示的视觉环境502。视觉环境502一般包括不同视觉元素,诸如图形用户界面(GUI)、系统控件、视觉内容等等。在该示例中,视觉环境502包括触摸区域504,触摸区域504一般表示显示设备124的被指定用于接收触摸输入以调用不同功能性的区域。触摸区域504例如表示显示设备124的可按不同方式(诸如基于不同上下文)来配置的单个逻辑子区域。
继场景500,触摸输入模块116接收上下文数据506并生成用于配置触摸区域504的设备布局132d。上面描述了不同类型和实例的上下文数据的示例。设备布局132d包括区域配置140d,区域配置140d被用来将触摸区域504划分成区域508a、区域508b和区域508c。设备布局132d还包括功能性集合142d,功能性集合142d包括用于区域508a的区域功能性144j、用于区域508b的区域功能性144k、以及用于区域508c的区域功能性144m。相应地,用户可与区域508a-508c中的每一者交互以调用不同的相应区域功能性。
图6a描绘了用于经由动态触摸输入设备进行交互的实现场景600a。在场景600a中,触摸板128如场景200中所讨论的那样来配置。此外,视觉环境602被显示在显示设备124上。用户向触摸板128的区域204b施加触摸输入手势604,其导致区域功能性144b被调用。手势604例如是区域204b内的滑动手势。在该特定示例中,区域功能性144b对应于在视觉环境602内移动光标606。因而,对触摸板128的区域204b的用户输入导致光标606的对应移动。
图6b描绘了用于经由动态触摸输入设备进行交互的实现场景600b。场景600b例如表示场景600a的延续。在场景600b中,用户向触摸板128的区域204a提供触摸输入手势608,其调用区域功能性144a。在该特定示例中,区域功能性144a导致视觉环境602中所显示的视觉元素610的旋转。例如,代替移动光标606,对区域204a的输入导致视觉元素610和/或视觉环境602的其他视觉属性的对应旋转。
需要注意,手势608与手势604相同(例如,滑动手势),但是被施加到触摸板128的不同输入区域,并因而调用不同功能性。
图6c描绘了用于经由动态触摸输入设备进行交互的实现场景600c。场景600c例如表示上面所讨论的场景600a、600b的延续。在场景600c中,用户向触摸板128的区域204c施加触摸输入手势612,其调用区域功能性144c。区域功能性144c导致视觉缩放操作在视觉环境602中发生。例如,经由手势612调用区域功能性144c导致对视觉环境602和/或视觉环境602的视觉元素(诸如视觉元素610)的放大操作。
需要注意,手势612与手势604、608相同(例如,滑动手势),但是被施加到触摸板128的不同输入区域,并因而调用不同功能性。相应地,场景600a-600c解说了触摸输入表面可被划分成可使不同的相应功能性能够被调用的不同逻辑区域。
图7描绘了用于触摸输入修改的场景700。场景700例如表示上面所讨论的场景600a-600c的延续。在场景700中,用户向区域204a施加触摸输入手势702。在该示例中,手势702是使用两根手指在区域204a中的按住不放(press and hold)手势。此外,用户向触摸板128的区域204c施加触摸输入手势612。相应地,手势702调用将区域功能性144c修改为区域功能性144c′的手势修改事件704。相应地,手势612调用区域功能性144c′而不是区域功能性144c。在该特定示例中,区域功能性144c′导致视觉元素610的视觉修改。例如,调用区域功能性144c′导致视觉元素610的分解图706被显示。
相应地,场景700表明由特定区域中的特定手势调用的功能性可使用任何合适类型的手势修改器(gesture modifier)(诸如不同区域中的手势)来修改。
图8描绘了用于配置多屏设备的触摸输入区域的实现场景800。场景800包括多屏设备802,其表示上面描述的客户端设备102的实例。多屏设备802一般包括以上参考客户端设备102所描述的各种功能性。
多屏设备802包括通过铰链808彼此连接的显示设备804和显示设备806。根据各种实现,显示设备804、806一般表示用于客户端设备102的视觉输出的功能性。附加地,显示设备104、106表示用于接收各种类型的输入(诸如触摸输入、触控笔输入、无触摸邻近度输入等等)的功能性。
一般地,铰链808被配置成绕铰链808的纵向铰链轴810旋转地移动,以允许显示设备804、806之间的角度改变。以此方式,铰链808允许显示设备804、806彼此连接,但相对于彼此以不同角度和/或平面取向来定向。在至少一些实现中,显示设备804、806可表示可沿铰链808弯曲的单个集成且连续的显示表面的不同部分。因而,铰链808可表示可铰接地附连显示设备804、806的分开的组件,或者铰链808可表示包括显示设备804、806的单个集成显示表面的一部分,并且显示设备804、806可绕该部分弯曲。
根据本文所描述的用于触摸输入表面的布局的技术,显示设备804、806中的一者或两者可被配置为具有不同触摸输入区域的触摸输入设备。例如,基于不同上下文数据,显示设备804和/或显示设备806可被配置为触摸输入设备118。
例如,前进到场景800的下部,考虑用户通过使显示设备804、806绕铰链808枢转来打开多屏设备802。例如,用户打开多屏设备802,使得显示设备804、806形成平坦或近似平坦的表面。多屏设备802的设备姿态中的这种改变生成上下文数据812,触摸输入模块116利用该上下文数据812来生成用于多屏设备802的设备布局132e。设备布局132e包括针对设备布局132e的区域配置140e和功能性集合142e。
基于区域配置140e,显示设备804、806在逻辑上分别被划分成区域814a和区域814b。例如,显示设备804的底部被指定为区域814a,显示设备806的底部被指定为区域814b。
此外,区域814a与区域功能性144n相关联,并且区域814b与区域功能性144p相关联。一般地,区域功能性144n、144p表示响应于对相应区域814a、814b的触摸输入而可调用的不同功能性。在至少一些实现中,区域功能性814a、814b使对区域814a、814b的触摸输入能够导致与显示设备804、806上所显示的内容的不同的相应类型的交互。
相应地,不同类型的上下文数据可被利用来配置和重配置多屏设备802以供触摸输入。例如,考虑用户将多屏设备802从所描绘的取向旋转180度。在至少一些实现中,这将生成附加上下文数据,其将导致显示设备804、806的重配置以供触摸输入。例如,区域814a、814b将被移动到相应显示设备804、806的相对侧。
尽管场景800是参考基于设备姿态中的改变的上下文数据812来讨论的,但是将领会的是,各种各样不同的上下文信息可被利用来用于将多屏设备802配置成用于触摸输入。上面讨论了不同类型和实例的可适用的上下文数据的示例。
图9描绘了用于使用手势来模拟物理输入对象的示例实现场景900。场景900包括径向对象902,径向对象902表示可被利用来与客户端设备102交互并调用客户端设备102的功能性的分开的独立物理对象。在至少一些实现中,径向对象902包括内部电路系统和/或可参与同客户端设备102的数据通信的其他硬件。
例如,考虑用户将径向对象902放置在显示设备124上。客户端设备102检测径向对象902,并在显示设备124上显示与径向对象902毗邻的交互式界面904。交互式界面904例如包括用于调用不同功能性的不同可选选项,诸如用于检索内容、格式化文本、为图形选择颜色等等。在该示例中,在显示设备124上物理地旋转径向对象902导致选择指示器906遍历交互式界面904进行索引并且使经由交互式界面904表示的不同功能性能够被选择和/或被调用。
根据各个实现,手势可被用来模拟物理输入对象(诸如径向对象902)的功能性。例如,前进到场景900的下部,考虑径向对象902被从显示设备124的表面移除。此外,用户向触摸板128提供触摸手势908,诸如在区域204c中提供。手势908例如是模拟对象在触摸板128上的旋转的多手指手势。触摸输入模块116检测手势908,并调用虚拟对象功能性910,该虚拟对象功能性910表示与显示设备124接触的径向对象902的虚拟表示。
相应地,调用对象功能性910导致交互式界面904被呈现在显示设备124上,即使径向对象902不存在于显示设备124上和/或不能被客户端设备102检测到。用户可接着致使选择指示器906遍历交互式界面904进行索引,诸如通过旋转手势908以模拟转动物理拨盘。在至少一个实现中,用户可从交互式界面904选择项,诸如通过在触摸板128上提供敲击手势、和/或向显示设备124提供触摸手势。
继场景900,调用对象功能性900可包括导致视觉对象912毗邻交互式界面904被显示在显示设备124上。视觉对象912例如是径向对象902的二维视觉表示。相应地,用户可经由手势908和/或其他输入在视觉上操纵视觉对象912。例如,旋转视觉对象912导致选择指示器906遍历交互式界面904进行索引。
作为经由对触摸板128的输入来调用对象功能性910的补充或替换,向显示设备124施加特定手势(例如,手势908)可调用对象功能性910。因而,用户可经由对显示设备124的触摸输入来调用交互式界面904并与交互式界面904交互。
相应地,场景900表明本文所描述的技术可被采用以提供物理输入对象的虚拟模拟。
图10描绘了用于补偿输入手势中的变化的示例实现场景1000。场景1000包括如在场景200中所讨论的那样被配置的触摸板128。在场景1000的上部,用户向区域204c施加手势1002。手势1002涉及两根手指,即食指和拇指。手势1002的一个示例是“张开”手势,诸如对可视项进行放大。一般地,手势1002根据为区域204c定义的区域功能性144c来被解读,并因而调用特定功能性。
进行到场景1000的下部,需要注意,随着用户继续施加手势1002,用户的拇指侵占到区域204b上。然而,代替将触摸区域204b的拇指解读为调用区域204b的区域功能性144b,触摸输入模块116继续基于区域功能性144c来解读手势。例如,由于手势1002起源于区域204c内,所以触摸输入模块116通过继续根据区域功能性204c处理手势1002来补偿侵占到区域204b上的手势。
在一个示例实现中,区域204b和区域204c之间的逻辑边界1004被调整以计及从一个区域开始并且侵占到另一区域上的输入。例如,需要注意,逻辑边界1004在区域204b、204c之间的调整区域1006上是可调整的。例如,考虑当在区域204c中开始的输入侵占到区域204b上时,逻辑边界1004的默认位置可在调整区域1006内移动。
在至少一些实现中,调整区域1006具有相对于触摸板128的最大准许大小。例如,如果手势1002继续向左到调整区域1006的外部,则手势1002可被解读为在区域功能性144c的外部。
继场景1000,在用户完成施加手势1002之后,区域204c的大小返回其默认位置。相应地,场景1000表明经定义的输入区域可以是可变的,以适配涉及多个输入区域的输入。
图11描绘了用于针对不同输入区域的触觉效果的示例实现场景1100。场景1100包括如在场景200中所讨论的那样被配置的触摸板128。如上面提到的,在至少一些实现中,触摸板128(连同其他触摸输入设备118)可被实现为触摸输入设备118和触觉输出设备122。
在场景1100中,用户向区域204a施加触摸输入1102a以调用区域功能性144a。除调用区域功能性144a之外,触摸输入1102a还导致触觉效果1104a由触摸板128来输出。在至少一个实现中,触觉效果1104a被局部地输出在区域204a内。例如,触觉效果1104a被输出在区域204a内,但不被输出在触摸板128的其他区域内。
继场景1100,用户向区域204c施加不同触摸输入1102b以调用区域功能性144c。除调用区域功能性144c之外,触摸输入1102b还导致触觉效果1104b由触摸板128来输出。例如,触觉效果1104b被局部地输出在区域204c内。在至少一些实现中,当触摸输入1102a和触摸输入1102b的各部分并发地发生时,触觉效果1104a、1104b可分别被并发地输出在区域204a、204b中。
一般地,触觉效果1104a、1104b可使用各种不同的触觉生成机制(诸如静电力、电机、磁体、(基于磁和/或压电的)线性谐振致动器(LRA)、压电结构等等)中的一种或多种来生成。此外,触觉效果1104a、1104b基于一个或多个触觉相关属性而彼此不同。不同的触觉相关属性的示例包括触觉效果的历时、强度、循环频率、波形、效果类型等等。因而,触觉效果1104a被配置成提供与触觉效果1104b不同的触觉响应。根据各个实现,这提供了触觉增强,以向用户指示用户正在向哪个输入区域提供输入。
在至少一些实现中,输入区域内的触觉效果可基于对不同输入区域的手势的邻近度来被调制。例如,前进到场景1100的下部,考虑手势1102b朝区域204b继续向左。当手势1102b达到与区域204b的阈值邻近度时(例如,以英寸和/或毫米为单位),触觉效果1104b可被调制以提供关于手势1102b正逼近区域204c的边缘和/或区域204b的边缘的触觉指示。例如,调制触觉效果是指改变(例如,增大或减小)触觉效果的一个或多个属性,诸如频率、强度、吸引力(例如,静电力)等等。如上面提到的,区域204a-204b可能彼此在视觉上没有区别。相应地,触觉效果可被采用以提供对触摸输入在特定输入区域内的相对位置的触觉增强。
相应地,上面描述的场景解说了本文所描述的用于触摸输入表面的布局实现可基于各种不同的上下文因素来被采用以配置和重配置触摸输入表面。尽管这些场景是参考特定触摸输入表面和配置来讨论的,但是将领会的是,本文所描述的技术可利用触摸输入表面的各种不同类型和组合来被采用。例如,尽管上面描述的场景主要是参考触摸板128来讨论的,但是将领会的是,可利用任何启用触摸输入的设备来实现诸场景。
已经讨论了一些示例实现场景,现在考虑根据一个或多个实施例的一些示例规程的讨论。
示例规程
以下讨论描述了根据一个或多个实施例的用于触摸输入表面的布局的一些示例规程。各示例规程可被用于图1的环境100、图18的系统1800、和/或任何其他合适的环境中。各规程例如表示用于实现上面描述的实现场景的示例规程。在至少一些实现中,针对各种规程描述的步骤是自动地且独立于用户交互来实现的。
图12是描述根据一个或多个实现的方法中的各步骤的流程图。该方法描述了用于配置触摸输入表面的区域的示例规程。在至少一些实现中,该方法可至少部分地由触摸输入模块116和/或由操作系统104来执行。
步骤1200标识可用于接收触摸输入的一个或多个触摸输入表面。例如,触摸输入表面116确定可用于接收触摸输入的特定触摸输入设备118和/或触摸输入设备118的组合。在至少一个实现中,触摸输入表面表示本地触摸输入表面,诸如触摸板128和/或显示设备124。替代地或附加地,触摸输入表面包括具有触摸能力的多个触摸输入设备,诸如与外部设备402相组合的客户端设备102。
步骤1202将该一个或多个触摸输入表面定义为单个逻辑输入表面。例如,触摸输入模块116将一个或多个触摸输入表面定义为单个集成逻辑表面,该单个集成逻辑表面可基于不同的上下文因素来被划分和重新划分。在其中触摸输入表面被实现在多个设备上的实现中,触摸输入模块116生成将触摸输入表面表示为单个逻辑输入表面的逻辑抽象。
步骤1204确定与该一个或多个输入表面有关的上下文。上面描述了不同类型和实例的上下文信息的示例。一般地,上下文数据可由各种不同实体生成,诸如操作系统104、应用106、I/O设备108、传感器110等等。
步骤1206基于上下文确定要应用于逻辑输入表面的布局。例如,该布局指定用于逻辑输入表面的不同触摸输入区域的参数、以及要应用于这些触摸输入区域的区域功能性。
步骤1208基于该布局来将单个逻辑输入表面划分成多个逻辑触摸输入区域。在至少一些实现中,将逻辑输入表面划分成触摸输入区域是指生成将逻辑输入表面表示为多个不同逻辑输入区域的数据的逻辑操作。如上面所讨论的,逻辑输入表面可包括被划分成多个不同输入区域的单个毗连表面,诸如触摸板128和/或显示设备124。替代地或附加地,逻辑输入表面可包括跨多个不同设备的触摸输入表面,该多个不同设备诸如经由有线和/或无线连接而互连的设备。此外,每一个逻辑输入区域均可选择以调用不同的相应功能性。
步骤1210接收对特定逻辑触摸输入区域的输入。例如,I/O模块112检测对触摸输入区域的触摸输入。
步骤1212调用为该触摸输入区域指定的功能性。例如,分配给触摸输入区域的特定区域功能性被调用。一般地,这可导致各种类型的动作,诸如对操作系统104、应用106等等的输入。
图13是描述根据一个或多个实现的方法中的各步骤的流程图。该方法描述了用于基于上下文中的改变来重配置触摸输入表面的区域的示例规程。在至少一些实现中,该方法可至少部分地由触摸输入模块116和/或由操作系统104来执行。该方法例如表示上面描述的方法的扩展。
步骤1300检测上下文中的改变。例如,触摸输入模块116从客户端设备102的不同功能性接收上下文信息,并且该上下文信息指示上下文中的改变。在至少一个实现中,上下文中的改变动态地且在设备处于活跃状态的情况下发生。
步骤1302基于上下文中的改变来确定要应用于逻辑输入表面的不同布局。例如,逻辑输入表面根据基于先前上下文所确定的特定设备布局先前被配置成不同触摸输入区域。
步骤1304应用该不同布局以将逻辑输入表面重配置成多个不同触摸输入区域。例如,逻辑输入表面先前被配置成一组触摸输入区域,并且因此应用不同布局会改变逻辑输入表面的触摸输入区域配置。
图14是描述根据一个或多个实现的方法中的各步骤的流程图。该方法描述用于修改输入区域的功能性的示例规程。
步骤1400接收被施加到第一输入区域的修改手势的指示。例如,该手势被应用于触摸输入设备的已被划分成不同区域的输入区域,诸如上面所描述的。
步骤1402基于修改手势来修改第二输入区域的功能性,以指定经由对第二输入区域的输入而可调用的功能性的经修改版本。例如,对第一输入区域的手势导致第二输入区域的默认功能性被修改,以生成针对第二输入区域并且在该手势被施加至第一输入区域的情况下被应用的定制功能性。附加地或替代地,对第一输入区域的手势可修改第二输入区域的默认功能性,并且可在对第一输入区域执行了该手势之后(例如,在该手势完成之后)来进行修改。
图15是描述根据一个或多个实现的方法中的各步骤的流程图。该方法描述用于模拟物理输入对象的示例规程。
步骤1500接收被施加到输入区域的手势的指示,该手势与模拟物理输入对象相关联。例如,该手势在手势映射134中被映射至模拟物理输入对象在触摸输入设备118上的存在的功能性。
步骤1502调用与物理输入对象相关联的对象功能性。例如,对象功能性表示当物理输入对象存在(例如与触摸输入设备118接触)时被调用的功能性。对象功能性的示例包括应用接口、系统接口等等。
图16是描述根据一个或多个实现的方法中的各步骤的流程图。该方法描述用于补偿输入中的变化的示例规程。
步骤1600接收对第一输入区域的用于调用第一功能性的输入的指示。例如,触摸输入模块116检测对特定输入区域的触摸输入。
步骤1602确定该输入从第一输入区域行进至侵占到第二输入区域上。例如,触摸输入模块116检测触摸输入从第一输入区域移动到与第一输入区域毗邻的第二输入区域。
步骤1604导致该输入在该输入侵占到第二输入区域上的情况下调用第一功能性而不调用第二功能性。例如,触摸输入模块116导致第一输入区域的功能性被调用,即使该输入已至少部分地移动到第二输入区域中。在至少一些实现中,第一功能性在该输入在第二输入区域内的缓冲区内的情况下继续被调用。然而,如果输入移动超过第二输入区域内的缓冲区,则不同功能性可被调用来代替第一功能性。
图17是描述根据一个或多个实现的方法中的各步骤的流程图。该方法描述用于在输入区域中导致触觉效果的示例规程。
步骤1700检测对输入区域的触摸输入。例如,触摸输入模块116检测触摸输入被施加至特定输入区域。
步骤1702导致触觉效果在输入区域处被输出。例如,触摸输入模块116确定针对输入区域的特定触觉效果,诸如通过将输入区域的标识符映射至触觉简档136中所指定的对应触觉效果。在至少一个实现中,触摸输入模块116将用于触觉效果的参数传达给触觉输出设备122,以致使触觉效果由触觉输出设备122输出。
作为在接收触摸输入的输入区域处提供触觉效果的补充或替换,对特定输入区域的触摸输入可在其他输入区域处导致触觉效果和/或触觉效果的组合。例如,对第一输入区域的触摸输入可导致触觉效果在第二输入区域处被输出,和/或导致触觉效果在第二输入区域和第三输入区域的组合处被输出。此外,跨越多个输入区域的手势可导致跨诸输入区域的触觉效果,和/或在该手势所不涉及的另一输入区域处导致触觉效果。因而,触觉效果的各种组合可被输出以对应于不同输入区域和不同手势。
相应地,本文所讨论的技术使触摸输入设备能够基于各种各样不同的上下文场景来被配置和重配置。
在讨论了一些示例规程之后,现在考虑对根据一个或多个实施例的示例系统和设备的讨论。
示例系统和设备
图18总体上在1800处解说了包括示例计算设备1802的示例系统,该示例计算设备1802表示可以实现本文描述的各种技术的一个或多个计算系统和/或设备。例如,上文参考图1讨论的客户端设备102可被体现为计算设备1802。计算设备1802可以是例如服务提供方的服务器、与客户端相关联的设备(例如,客户端设备)、片上系统、和/或任何其他合适的计算设备或计算系统。
如所解说的示例计算设备1802包括处理系统1804、一个或多个计算机可读介质1806、以及彼此通信地耦合的一个或多个输入/输出(I/O)接口1808。虽然没有示出,但是计算设备1802可进一步包括系统总线或使各个组件彼此耦合的其他数据和命令传输系统。系统总线可包括不同总线结构中的任一个或组合,所述总线结构诸如存储器总线或存储器控制器、外围总线、通用串行总线、和/或利用各种总线体系结构中的任一种的处理器或局部总线。也构想了各种其他示例,诸如控制和数据线。
处理系统1804代表用于使用硬件来执行一个或多个操作的功能性。相应地,处理系统1804被解说为包括可被配置为处理器、功能块等等的硬件元件1810。这可包括在作为专用集成电路或使用一个或多个半导体形成的其他逻辑设备的硬件中的实现。硬件元件1810不受形成它们的材料或者其中所采用的处理机制的限制。例如,处理器可以由(诸)半导体和/或晶体管(例如,电子集成电路(IC))组成。在这样的上下文中,处理器可执行指令可以是可电子地执行的指令。
计算机可读介质1806被解说为包括存储器/存储1812。存储器/存储1812表示与一个或多个计算机可读介质相关联的存储器/存储容量。存储器/存储1812可包括易失性介质(诸如随机存取存储器(RAM))和/或非易失性介质(诸如只读存储器(ROM)、闪存存储器、光盘、磁盘等等)。存储器/存储1812可包括固定介质(例如,RAM、ROM、固定硬盘驱动器等等)以及可移动介质(例如,闪存存储器、可移动硬盘驱动器、光盘等等)。计算机可读介质1806可以按下面进一步描述的各种其他方式来配置。
(诸)输入/输出接口1808代表允许用户向计算设备1802输入命令和信息并且还允许使用各种输入/输出设备向用户和/或其他组件或设备呈现信息的功能性。输入设备的示例包括键盘、光标控制设备(例如,鼠标)、话筒(例如,用于语音识别和/或口述输入)、扫描仪、触摸功能性(例如,电容性的或被配置成检测物理触摸的其他传感器)、相机(例如,其可采用可见波长或诸如红外频率等不可见波长来将不涉及触摸的移动检测为手势),等等。输出设备的示例包括显示设备(例如,监视器或投影仪)、扬声器、打印机、网卡、触觉响应设备等等。因而,计算设备1802可按下面进一步描述的各种方式进行配置以支持用户交互。
本文可以在软件、硬件元件或程序模块的通用上下文中描述各种技术。一般而言,此类模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元件、组件、数据结构等等。本文使用的术语“模块”、“功能性”、“实体”和“组件”一般表示软件、固件、硬件或其组合。本文中所描述的技术的特征是平台无关的,从而意味着该技术可在具有各种处理器的各种商用计算平台上实现。
所描述的模块和技术的实现可以被储存在某种形式的计算机可读介质上或跨某种形式的计算机可读介质传送。计算机可读介质可以包括可由计算设备1802访问的各种介质。作为示例而非限制,计算机可读介质可包括“计算机可读存储介质”和“计算机可读信号介质”。
“计算机可读存储介质”可以指相比于仅信号传输、载波、或信号本身而言,启用对信息的持久存储的介质和/或设备。计算机可读存储介质不包括信号本身。计算机可读存储介质包括以适合于存储诸如计算机可读指令、数据结构、程序模块、逻辑元件/电路、或其他数据等的方法或技术来实现的诸如易失性和非易失性、可移动和不可移动介质和/或存储设备等硬件。计算机可读存储介质的示例包括但不限于,RAM、ROM、EEPROM、闪存存储器或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光存储、硬盘、磁带盒、磁带、磁盘存储或其他磁存储设备、或者适用于储存所需信息并可由计算机访问的其他存储设备、有形介质或制品。
“计算机可读信号介质”可以指被配置成诸如经由网络等来向计算设备1802的硬件传送指令的信号承载介质。信号介质通常用诸如载波、数据信号、或其他传输机制等经调制数据信号来体现计算机可读指令、数据结构、程序模块或其他数据。信号介质还包括任何信息递送介质。术语“已调制数据信号”意指以在信号中对信息进行编码的方式来使其一个或多个特性被设置或改变的信号。作为示例而非限制,通信介质包括有线介质(诸如有线网络或直接有线连接)和无线介质(诸如声学、射频(RF)、红外以及其他无线介质)。
如先前所描述的,硬件元件1810和计算机可读介质1806代表以硬件形式实现的指令、模块、可编程器件逻辑和/或固定器件逻辑,其可在某些实施例中被采用来实现本文中所描述的技术的至少某些方面。硬件元件可包括集成电路或片上系统、应用专用集成电路(ASIC)、现场可编程门阵列(FPGA)、复杂可编程逻辑器件(CPLD)以及硅或其他硬件设备中的其他实现。在该上下文中,硬件元件可以作为处理设备来操作,该处理设备执行由该硬件元件以及用于储存供执行的指令的硬件设备(例如,先前所描述的计算机可读存储介质)所体现的指令、模块和/或逻辑定义的程序任务。
前述组合也可被采用来实现本文中所描述的各种技术和模块。相应地,软件、硬件,或程序模块和其他程序模块可被实现为在某种形式的计算机可读存储介质上和/或由一个或多个硬件元件1810体现的一个或多个指令和/或逻辑。计算设备1802可被配置成实现对应于软件和/或硬件模块的特定指令和/或功能。相应地,能由计算设备1802作为软件执行的模块的实现可至少部分地用硬件来达成,例如,通过使用计算机可读存储介质和/或处理系统的硬件元件1810。指令和/或功能可以是能通过一个或多个制品(例如,一个或多个计算设备1802和/或处理系统1804)执行/操作的,以实现本文中所描述的技术、模块和示例。
如在图18中进一步解说的,示例系统1800实现了用于当在个人计算机(PC)、电视机设备和/或移动设备上运行应用时的无缝用户体验的普遍存在的环境。当利用应用、玩视频游戏、观看视频等等的同时从一个设备转换到下一个设备时,服务和应用在所有三种环境中基本上类似地运行,以获得共同的用户体验。
在示例系统1800中,多个设备通过中央计算设备互联。中央计算设备对于多个设备可以是本地的,或者可以位于多个设备的远程。在一个实施例中,中央计算设备可以是通过网络、互联网或其他数据通信链路连接到多个设备的一个或多个服务器计算机的云。
在一个实施例中,该互连体系结构使得功能性能够跨多个设备被递送以向多个设备的用户提供共同且无缝的体验。多个设备的每一者可具有不同的物理要求和能力,并且中央计算设备使用平台来使得既为设备定制且又对所有设备共同的体验能被递送到设备。在一个实施例中,创建目标设备的类并且为设备的通用类定制体验。设备的类可以由设备的物理特征、用途类型或其他共同特性定义。
在各种实现中,计算设备1802可采取各种不同配置,诸如用于计算机1814、移动设备1816和电视机1818用途。这些配置中的每一者包括可具有一般不同的配置和能力的设备,并且因而计算设备1802可根据不同的设备类中的一个或多个来配置。例如,计算设备1802可被实现为计算机1814类的设备,该类包括个人计算机、台式计算机、多屏计算机、膝上型计算机、上网本等等。
计算设备1802还可被实现为移动设备1816类的设备,该类包括诸如移动电话、便携式音乐播放器、便携式游戏设备、平板计算机、可穿戴设备、多屏计算机等等的移动设备。计算设备1802还可被实现为电视机1818类的设备,该类包括在休闲观看环境中具有或连接到通常更大的屏幕的设备。这些设备包括电视机、机顶盒、游戏控制台等等。
本文中所描述的技术可由计算设备1802的这些各种配置来支持,并且不限于本文中所描述的各具体示例。例如,参考触摸输入模块116所讨论的功能性可全部或部分地通过分布式系统的使用(诸如经由如下面描述的平台1822通过“云”1820)来实现。
云1820包括和/或代表资源1824的平台1822。平台1822抽象云1820的硬件(例如,服务器)和软件资源的底层功能性。资源1824可包括可在计算机处理在位于计算设备1802远程的服务器上执行时使用的应用和/或数据。资源1824也可包括在互联网上和/或通过诸如蜂窝或Wi-Fi网络之类的订户网络提供的服务。
平台1822可抽象资源和功能以将计算设备1802与其他计算设备相连接。平台1822还可用于抽象对资源的缩放以向经由平台1822实现的资源1824所遇到的需求提供对应的缩放级别。相应地,在互联设备实施例中,本文中所描述的功能性的实现可分布遍及系统1800。例如,该功能性可部分地在计算设备1802上以及经由抽象云1820的功能性的平台1822来实现。
在本文中讨论了可被实现以执行本文所描述的技术的数个方法。可以使用硬件、固件、或软件或其组合来实现各方法的诸方面。这些方法被示为一组步骤,它们指定由一个或多个设备执行的操作,而并不一定仅限于所示出的用于由相应的框执行操作的顺序。在方法中描述的步骤例如表示由处理器执行以执行由这些步骤及其相关联的细节所描述的各个动作的逻辑。此外,根据一个或多个实现,相对于特定方法示出的操作可以与不同方法的操作相组合和/或互换。各方法的诸方面可经由上面参考环境100所讨论的各个实体之间的交互来实现。
在本文的讨论中,描述了各种不同的实现。要领会和理解,本文描述的每个实现可以单独或与本文描述的一个或多个其他实现结合使用。本文所讨论的技术的进一步方面涉及以下实现中的一个或多个。
一种用于将触摸输入表面划分成触摸输入区域的系统,该系统包括:至少一个处理器;以及包括存储在其上的指令的一个或多个计算机可读存储介质,该指令响应于由该至少一个处理器执行而致使该系统执行包括下列各项的操作:标识可用于接收触摸输入的一个或多个触摸输入表面;基于与该一个或多个触摸输入表面有关的上下文来确定要应用于该一个或多个触摸输入表面的布局;以及基于该布局来将该一个或多个触摸输入表面划分成多个触摸输入区域,该多个触摸输入区域包括第一输入区域和第二输入区域,并且第一输入区域可选择以调用第一功能性,并且第二输入区域可选择以调用与第一功能性不同的第二功能性。
作为以上所描述的系统中的任一者的补充,以下任一者或其组合:其中该一个或多个触摸输入表面包括单个触摸板表面,并且其中所述划分包括将单个触摸板表面划分成多个触摸输入区域;其中该一个或多个触摸输入表面包括显示设备的子区域,并且其中所述划分包括将显示设备的子区域划分成多个触摸输入区域;其中该一个或多个触摸输入表面包括第一设备上的第一触摸输入表面和第一设备外部的第二设备上的第二触摸输入表面;其中该一个或多个触摸输入表面包括第一设备上的第一触摸输入表面和第一设备外部的第二设备上的第二触摸输入表面,并且其中第一输入区域被定位在第一触摸输入表面上,且第二输入区域被定位在第二输入表面上;其中该一个或多个触摸输入表面包括第一设备上的第一触摸输入表面和经由无线连接而连接至第一设备的第二设备上的第二触摸输入表面;其中该一个或多个触摸输入表面包括第一显示设备和经由铰链连接至第一显示设备的第二显示设备;其中该一个或多个触摸输入表面包括第一显示设备和经由铰链连接至第一显示设备的第二显示设备,并且其中该上下文包括第一显示设备相对于第二显示设备的姿态的指示;其中该操作进一步包括:接收被施加至第一输入区域的修改手势的指示;以及基于该修改手势来修改第二功能性,以指定经由对第二输入区域的输入而可调用的第二功能性的经修改版本;其中该操作进一步包括为第一输入区域指定第一触觉效果和为第二输入区域指定不同的第二触觉效果;其中该操作进一步包括:接收被施加至第一输入区域的手势的指示,该手势与模拟物理输入对象相关联;以及调用与该物理输入对象相关联的对象功能性;其中第一输入区域和第二输入区域彼此毗邻,并且其中该操作进一步包括:接收对第一输入区域的用于调用第一功能性的输入的指示;确定该输入从第一输入区域行进至侵占到第二输入区域上;以及在该输入侵占到第二输入区域上的情况下致使该输入调用第一功能性而不调用第二功能性;其中该操作进一步包括:基于上下文中的改变来确定要应用于该一个或多个触摸输入表面的不同布局;以及应用该不同布局以将该一个或多个触摸输入表面划分成多个不同触摸输入区域。
一种用于将触摸输入表面划分成触摸输入区域的计算机实现的方法,该方法包括:将一个或多个触摸输入表面定义为单个逻辑输入表面;基于与该一个或多个触摸输入表面有关的上下文并且通过处理系统执行逻辑来确定要应用于逻辑输入表面的布局;以及基于该布局并且通过该处理系统执行逻辑来将该单个逻辑输入表面划分成多个逻辑触摸输入区域。
作为以上所描述的方法中的任一者的补充,以下任一者或其组合:其中该一个或多个触摸输入表面包括触摸板表面,并且其中所述划分包括将触摸板表面划分成多个逻辑触摸输入区域,该多个逻辑触摸输入区域包括可选择以调用第一功能性的第一输入区域、以及可选择以调用与第一功能性不同的第二功能性的第二输入区域;其中该一个或多个触摸输入表面包括第一设备上的第一触摸输入表面和第一设备外部的第二设备上的第二触摸输入表面;进一步包括:基于上下文中的改变来确定要应用于逻辑输入表面的不同布局;以及应用该不同布局以将逻辑输入表面划分成多个不同触摸输入区域;其中逻辑触摸输入区域包括第一输入区域和第二输入区域,并且其中该方法进一步包括为第一输入区域指定第一触觉效果和为第二输入区域指定不同的第二触觉效果。
一种用于将输入表面划分成触摸输入区域的计算机实现的方法,该方法包括:将一个或多个触摸输入表面定义为单个逻辑输入表面;基于与该一个或多个触摸输入表面有关的上下文来确定要应用于逻辑输入表面的布局;基于该布局来将逻辑输入表面划分成多个触摸输入区域;基于上下文中的改变来确定要应用于逻辑输入表面的不同布局;以及应用该不同布局以将逻辑输入表面划分成多个不同触摸输入区域。
作为以上所描述的方法中的任一者的补充,以下任一者或其组合:其中该一个或多个输入表面包括第一设备上的第一触摸输入表面和第一设备外部的第二设备上的第二触摸输入表面。
结语
描述了用于触摸输入表面的布局的技术。虽然用对结构特征和/或方法动作专用的语言描述了各实施例,但要理解,在所附权利要求中定义的各实施例不必限于所述的具体特征或动作。相反,这些具体特征和动作是作为实现所要求保护的实施例的示例形式而公开的。

Claims (15)

1.一种用于将触摸输入表面划分成触摸输入区域的系统,所述系统包括:
至少一个处理器;以及
包括存储在其上的指令的一个或多个计算机可读存储介质,所述指令响应于由所述至少一个处理器执行而致使所述系统执行包括下列各项的操作:
标识可用于接收触摸输入的一个或多个触摸输入表面;
基于与所述一个或多个触摸输入表面有关的上下文来确定要应用于所述一个或多个触摸输入表面的布局;以及
基于所述布局来将所述一个或多个触摸输入表面划分成多个触摸输入区域,所述多个触摸输入区域包括第一输入区域和第二输入区域,并且所述第一输入区域能选择以调用第一功能性,并且所述第二输入区域能选择以调用与所述第一功能性不同的第二功能性。
2.根据权利要求1所述的系统,其特征在于,所述一个或多个触摸输入表面包括单个触摸板表面,并且其中所述划分包括将所述单个触摸板表面划分成所述多个触摸输入区域。
3.根据权利要求1所述的系统,其特征在于,所述一个或多个触摸输入表面包括显示设备的子区域,并且其中所述划分包括将所述显示设备的子区域划分成所述多个触摸输入区域。
4.根据权利要求1所述的系统,其特征在于,所述一个或多个触摸输入表面包括第一设备上的第一触摸输入表面和所述第一设备外部的第二设备上的第二触摸输入表面。
5.根据权利要求1所述的系统,其特征在于,所述一个或多个触摸输入表面包括第一设备上的第一触摸输入表面和所述第一设备外部的第二设备上的第二触摸输入表面,并且其中所述第一输入区域被定位在所述第一触摸输入表面上,且所述第二输入区域被定位在所述第二输入表面上。
6.根据权利要求1所述的系统,其特征在于,所述一个或多个触摸输入表面包括第一显示设备和经由铰链连接至所述第一显示设备的第二显示设备。
7.根据权利要求1所述的系统,其特征在于,所述操作进一步包括:
接收被施加至所述第一输入区域的修改手势的指示;以及
基于所述修改手势来修改所述第二功能性,以指定经由对所述第二输入区域的输入而能调用的所述第二功能性的经修改版本。
8.根据权利要求1所述的系统,其特征在于,所述操作进一步包括为所述第一输入区域指定第一触觉效果,并且为所述第二输入区域指定不同的第二触觉效果。
9.根据权利要求1所述的系统,其特征在于,所述操作进一步包括:
接收被施加至所述第一输入区域的手势的指示,所述手势与模拟物理输入对象相关联;以及
调用与所述物理输入对象相关联的对象功能性。
10.根据权利要求1所述的系统,其特征在于,所述第一输入区域和所述第二输入区域彼此毗邻,并且其中所述操作进一步包括:
接收对所述第一输入区域的用于调用所述第一功能性的输入的指示;
确定所述输入从所述第一输入区域行进至侵占到所述第二输入区域上;以及
导致所述输入在所述输入侵占到所述第二输入区域上的情况下调用所述第一功能性而不调用所述第二功能性。
11.根据权利要求1所述的系统,其特征在于,所述操作进一步包括:
基于所述上下文中的改变来确定要应用于所述一个或多个触摸输入表面的不同布局;以及
应用所述不同布局以将所述一个或多个触摸输入表面划分成多个不同触摸输入区域。
12.一种用于将触摸输入表面划分成触摸输入区域的计算机实现的方法,所述方法包括:
将一个或多个触摸输入表面定义为单个逻辑输入表面;
基于与所述一个或多个触摸输入表面有关的上下文并且通过处理系统执行逻辑来确定要应用于所述逻辑输入表面的布局;以及
基于所述布局并且通过所述处理系统执行逻辑来将所述单个逻辑输入表面划分成多个逻辑触摸输入区域。
13.根据权利要求12所述的方法,其特征在于,所述一个或多个触摸输入表面包括触摸板表面,并且其中所述划分包括将所述触摸板表面划分成所述多个逻辑触摸输入区域,所述多个逻辑触摸输入区域包括能选择以调用第一功能性的第一输入区域、以及能选择以调用与所述第一功能性不同的第二功能性的第二输入区域。
14.根据权利要求12所述的方法,其特征在于,进一步包括:
基于所述上下文中的改变来确定要应用于所述逻辑输入表面的不同布局;以及
应用所述不同布局以将所述逻辑输入表面划分成多个不同触摸输入区域。
15.根据权利要求12所述的方法,其特征在于,所述逻辑触摸输入区域包括第一输入区域和第二输入区域,并且其中所述方法进一步包括为所述第一输入区域指定第一触觉效果和为所述第二输入区域指定不同的第二触觉效果。
CN201980013650.0A 2018-02-14 2019-01-17 触摸输入表面的布局 Pending CN111727418A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/897,113 2018-02-14
US15/897,113 US10761569B2 (en) 2018-02-14 2018-02-14 Layout for a touch input surface
PCT/US2019/013896 WO2019160639A1 (en) 2018-02-14 2019-01-17 Layout for a touch input surface

Publications (1)

Publication Number Publication Date
CN111727418A true CN111727418A (zh) 2020-09-29

Family

ID=65324617

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980013650.0A Pending CN111727418A (zh) 2018-02-14 2019-01-17 触摸输入表面的布局

Country Status (4)

Country Link
US (1) US10761569B2 (zh)
EP (1) EP3738020A1 (zh)
CN (1) CN111727418A (zh)
WO (1) WO2019160639A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11620015B2 (en) 2021-01-27 2023-04-04 Asustek Computer Inc. Electronic device

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102372443B1 (ko) * 2015-02-02 2022-03-10 삼성전자주식회사 다중 디스플레이 기반 전자 장치
KR102413936B1 (ko) * 2018-02-21 2022-06-28 삼성전자주식회사 스위치를 갖는 디스플레이를 포함하는 전자장치
TWI705361B (zh) * 2018-10-29 2020-09-21 華碩電腦股份有限公司 控制方法、電子裝置及非暫態電腦可讀記錄媒體裝置
US11150751B2 (en) * 2019-05-09 2021-10-19 Dell Products, L.P. Dynamically reconfigurable touchpad
KR102702937B1 (ko) * 2019-05-09 2024-09-05 삼성전자주식회사 복수의 카메라들을 이용한 촬영 제어 방법 및 폴더블 장치
CN115185391A (zh) * 2021-04-01 2022-10-14 华硕电脑股份有限公司 电子装置
US11816275B1 (en) 2022-08-02 2023-11-14 International Business Machines Corporation In-air control regions
CN117917616A (zh) * 2022-10-20 2024-04-23 戴尔产品有限公司 具有用于不同用户界面功能性的多个区的触控板

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100033438A1 (en) * 2008-08-06 2010-02-11 Hong Fu Jin Precision Industry (Shenzhen) Co., Ltd Touch-based remote control apparatus and method
US20100328260A1 (en) * 2005-05-17 2010-12-30 Elan Microelectronics Corporation Capacitive touchpad of multiple operational modes

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US7869834B2 (en) 2007-03-28 2011-01-11 Lg Electronics Inc. Mobile terminal
TWI410824B (zh) 2007-12-18 2013-10-01 Htc Corp 具有整合顯示元件與輸入元件之模組的電子裝置
JP4896932B2 (ja) 2008-06-26 2012-03-14 京セラ株式会社 入力装置
CN101655771B (zh) 2009-09-07 2011-07-20 上海合合信息科技发展有限公司 多触点字符输入方法及系统
JP2011059820A (ja) 2009-09-07 2011-03-24 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US20110080348A1 (en) 2009-10-01 2011-04-07 Apple Inc. Electronic devices with a primary display and a selectively illuminated secondary display
JP5334832B2 (ja) 2009-12-24 2013-11-06 京セラ株式会社 携帯端末装置
JP2011248411A (ja) 2010-05-21 2011-12-08 Toshiba Corp 情報処理装置および仮想キーボードの表示方法
US8896559B2 (en) * 2011-11-04 2014-11-25 Harold J. Goldbaum Wire-array pressure and movement sensor
US8786517B2 (en) 2012-02-21 2014-07-22 Blackberry Limited System and method for displaying a user interface across multiple electronic devices
US20130219303A1 (en) 2012-02-21 2013-08-22 Research In Motion Tat Ab Method, apparatus, and system for providing a shared user interface
US20140002339A1 (en) 2012-06-28 2014-01-02 David Brent GUARD Surface With Touch Sensors for Detecting Proximity
US20140078086A1 (en) 2012-09-20 2014-03-20 Marvell World Trade Ltd. Augmented touch control for hand-held devices
KR102083918B1 (ko) 2012-10-10 2020-03-04 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
US9196134B2 (en) 2012-10-31 2015-11-24 Immersion Corporation Method and apparatus for simulating surface features on a user interface with haptic effects
US9395917B2 (en) 2013-03-24 2016-07-19 Sergey Mavrody Electronic display with a virtual bezel
JP2014211865A (ja) 2013-04-01 2014-11-13 キヤノン株式会社 両面タッチスクリーンを搭載した携帯端末及びその制御方法、並びに記憶媒体
US9146672B2 (en) 2013-04-10 2015-09-29 Barnes & Noble College Booksellers, Llc Multidirectional swipe key for virtual keyboard
KR20140132917A (ko) 2013-05-09 2014-11-19 삼성전자주식회사 휴대 전자기기와 연결 가능한 부가 장치를 통한 표시 방법 및 장치
US9886108B2 (en) 2013-07-22 2018-02-06 Hewlett-Packard Development Company, L.P. Multi-region touchpad
KR102161565B1 (ko) 2013-12-18 2020-10-05 삼성전자주식회사 보조 입력 장치를 이용한 전자 장치 및 그 운용 방법
WO2016038675A1 (ja) 2014-09-09 2016-03-17 三菱電機株式会社 触感制御システムおよび触感制御方法
WO2016053901A1 (en) 2014-09-30 2016-04-07 Apple Inc Configurable force-sensitive input structures for electronic devices
US9727231B2 (en) 2014-11-19 2017-08-08 Honda Motor Co., Ltd. System and method for providing absolute coordinate and zone mapping between a touchpad and a display screen
US9864516B2 (en) 2015-07-27 2018-01-09 Jordan A. Berger Universal keyboard
CN105446646B (zh) 2015-12-11 2019-01-11 小米科技有限责任公司 基于虚拟键盘的内容输入方法、装置及触控设备
US20170220307A1 (en) 2016-02-02 2017-08-03 Samsung Electronics Co., Ltd. Multi-screen mobile device and operation
US20170344215A1 (en) 2016-05-31 2017-11-30 Lenovo (Beijing) Limited Input method and electronic device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100328260A1 (en) * 2005-05-17 2010-12-30 Elan Microelectronics Corporation Capacitive touchpad of multiple operational modes
US20100033438A1 (en) * 2008-08-06 2010-02-11 Hong Fu Jin Precision Industry (Shenzhen) Co., Ltd Touch-based remote control apparatus and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11620015B2 (en) 2021-01-27 2023-04-04 Asustek Computer Inc. Electronic device

Also Published As

Publication number Publication date
US20190250666A1 (en) 2019-08-15
WO2019160639A1 (en) 2019-08-22
US10761569B2 (en) 2020-09-01
EP3738020A1 (en) 2020-11-18

Similar Documents

Publication Publication Date Title
US10761569B2 (en) Layout for a touch input surface
US10747322B2 (en) Systems and methods for providing features in a friction display
US10248213B2 (en) Systems and methods for interfaces featuring surface-based haptic effects
EP3198391B1 (en) Multi-finger touchpad gestures
CN109074276B (zh) 系统任务切换器中的选项卡
US10133396B2 (en) Virtual input device using second touch-enabled display
CN108369456B (zh) 用于触摸输入设备的触觉反馈
US8638315B2 (en) Virtual touch screen system
TWI590147B (zh) 觸控模式
US9690456B2 (en) Method for controlling window and electronic device for supporting the same
US20130198690A1 (en) Visual indication of graphical user interface relationship
EP3410262A1 (en) System and method for providing features in a friction display
US20140167942A1 (en) User interfaces and associated methods
CN111684402B (zh) 触摸输入表面上的触觉效果
EP3433713B1 (en) Selecting first digital input behavior based on presence of a second, concurrent, input
CN108292193B (zh) 动画数字墨水
US20240353927A1 (en) Configurable computer interface having adaptive haptic input response
US20140109021A1 (en) Method for operating a gesture-controlled graphical user interface
US20200310544A1 (en) Standing wave pattern for area of interest
US20190034069A1 (en) Programmable Multi-touch On-screen Keyboard
JP2022139202A (ja) 情報処理装置、情報処理システムおよびプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination