CN105210019A - 对异步操纵的用户界面响应 - Google Patents

对异步操纵的用户界面响应 Download PDF

Info

Publication number
CN105210019A
CN105210019A CN201380075853.5A CN201380075853A CN105210019A CN 105210019 A CN105210019 A CN 105210019A CN 201380075853 A CN201380075853 A CN 201380075853A CN 105210019 A CN105210019 A CN 105210019A
Authority
CN
China
Prior art keywords
top priority
content set
display device
change
self contained
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201380075853.5A
Other languages
English (en)
Inventor
N.波罗克
L.古斯特
N.布伦
N.瓦戈纳
M.内尔特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN105210019A publication Critical patent/CN105210019A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

在一个实施例中,图形显示设备可以同步在首要内容集合(204)和反射内容集合(206)之间的运动以在图形用户界面(202)中创建视差效果。图形显示设备可以检测指示首要内容集合(204)在图形用户界面(202)中的首要位置改变(206)的用户输入。图形显示设备可以实例化委托线程以控制反射内容集合(208)。图形显示设备使反射内容集合(208)基于首要位置改变(206)以受控的独立动作(210)移动。

Description

对异步操纵的用户界面响应
背景技术
用于计算设备的输入机构增加了所提供的交互复杂性和易用性。触摸屏可以允许用户只使用单个手指容易地操纵图形用户界面中的内容。例如,用户可以将手指放置在触摸屏上来选择内容项。然后,用户可以拖动该手指穿过屏幕,从而在图形用户界面的框架内移动所选择的项。
发明内容
提供本发明内容以便以简化的形式介绍概念的选择,在下文中该概念在具体实施方式中被进一步描述。该发明内容不旨在标识所要求保护的主题的关键特征或必要特征,也不旨在用来限制所要求保护的主题的范围。
下文所讨论的实施例涉及同步首要内容集合和反射内容集合之间的运动以在图形用户界面中创建视差效果。图形显示设备可以检测指示首要内容集合在图形用户界面中的首要位置改变的用户输入。图形显示设备可以实例化委托线程以控制反射内容集合。图形显示设备使反射内容集合基于首要位置改变以受控的独立动作移动。
附图说明
为了描述可以以其获得上述和其它的优点和特征的方式,更具体的描述被阐述并且将通过参照附图中所图示的其特定实施例来呈现。可以理解,这些附图仅描绘了各典型实施例,因此不被认为是对其范围的限制,将通过使用附图用附加特异性和细节来描述和说明各个实现方式。
图1用框图形式图示了计算设备的一个实施例。
图2用框图形式图示了图形用户界面交互的一个实施例。
图3用图表形式图示了事件时间图表的一个实施例。
图4用流程图形式图示了移动首要内容集合的方法的一个实施例。
图5用流程图形式图示了预测将来首要位置的方法的一个实施例。
图6用流程图形式图示了移动反射内容集合的方法的一个实施例。
具体实施方式
下文对实施例进行了详细讨论。尽管讨论了特定的实现方式,但是应当理解,这仅是出于说明目的而进行的。相关领域的技术人员将认识到,在不脱离本公开的主题的精神和范围的前提下,可以使用其它组件和配置。该实现方式可以是机器实现的方法、具有存储在其上以用于至少一个处理器的详细说明方法的指令集合的有形的机器可读介质、或图形显示设备。
一些用户体验场景可以相对于其它用户界面元素移动某些用户界面元素。然而,独立线程可以变换某些用户界面元素,从而使得难以对准和同步。附加地,随着触摸屏的出现,用户可以独立地操纵多个用户界面元素。其它用户界面元素可能无法了解主要用户界面元素的精确移动。这种类型的场景的示例可以是“视差扫视(parallaxpanning)”。在这种场景中,视差元素可以以与其它元素的速度成比例的速度移动,以创建深度错觉。视差背景可以以比前景内容慢得多的速度滚动,以创建视差背景更进一步远离用户的错觉。
图形显示设备可以使用单独的委托线程处置输入。图形显示设备可以计算应用到主要或首要内容(诸如用户界面元素)的变换矩阵。变换矩阵可以说明由开发者所应用的扫视、缩放、旋转、动画、和变换。可以通过实现允许每个新行为与主要处理架构整合的专用界面来在内部编码次要或反射内容行为。专用内部界面可以定义与其它内容(诸如首要内容)有关系的输入变量的集合。这些定义可以允许专用内部界面了解哪些其它内容可以用于计算其自身的变换。专用内部界面可以使用同步点来计算更新后的位置。专用内部界面可以使用同步点以原子形式(atomically)在行为集合中将每个更新后的位置在屏幕上呈现。
公共应用编程接口的用户可能不知道这些内部机构。用户可以通过从提供给应用的内置行为集合中选择来创建反射内容的新实例,然后基于所选择的行为配置各种参数以将反射内容与首要内容或其它辅助内容相关联。一旦应用创建新的反射内容并且将该反射内容与具体的首要内容相关联,应用编程接口就可以提取诸如首要内容的当前位置和大小和目标内容的列表之类的同步信息。
图形显示设备可以在屏幕上呈现之前更新首要内容的数学位置。然后,同步地,委托线程可以检查每一个首要内容集合以找到任何所关联的反射内容集合。对于任何所关联的反射内容集合,架构可以基于首要内容集合的当前位置请求更新后的位置。架构可以以每一个反射内容集合被添加到用于所给定的首要内容集合的系统的顺序来组织请求。然后,稍后的反射内容集合也可以消耗用于辅助内容集合的新计算的位置以便计算反射内容位置。一旦计算出每一个反射内容位置,图形显示设备就可以更新每一个所关联的可视位置,并且以原子形式提交改变。
因此,在一个实施例中,图形显示设备可以同步首要内容集合和反射内容集合之间的运动以在图形用户界面中创建视差效果。图形显示设备可以检测指示首要内容集合在图形用户界面中的首要位置改变的用户输入。图形显示设备可以实例化委托线程,以控制反射内容集合。图形显示设备使得反射内容集合基于首要位置改变以受控的独立动作移动。
图1图示了可以充当图形显示设备的示例性计算设备100的框图。计算设备100可以结合硬件、软件、固件、和片上系统技术中的一个或多个以实现图形显示设备。计算设备100可以包括总线110、处理器120、存储器130、数据存储装置140、输入设备150、输出设备160、和通信接口170。总线110或其它组件互连可以允许计算设备100的组件之间的通信。
处理器120可以包括解释并执行指令集合的至少一个常规处理器或微处理器。存储器130可以是存储信息和指令以供处理器120执行的随机存取存储器(RAM)或另一类型的动态数据存储装置。存储器130还可以存储临时变量或在处理器120执行指令期间所使用的其它中间信息。数据存储装置140可以包括存储用于处理器120的静态信息和指令的常规ROM设备或另一类型的静态数据存储装置。数据存储装置140可以包括任何类型的有形的机器可读介质,诸如例如,磁或光记录媒体(诸如数字视频盘)及其对应的驱动器。有形的机器可读介质是存储机器可读代码或指令的物理介质,而非信号。如本文中所描述的把指令存储在计算机可读媒体上可区别于传播或传输指令,因为传播转移指令,而不是存储指令(例如可以利用把指令存储在其上的计算机可读介质发生的那样)。因此,除非另有说明,把指令存储在其上的计算机可读媒体/介质的引用(以这种或类似的形式)是指其上可以存储或保留数据的有形媒体。数据存储装置140可以存储详细说明一种方法的指令集合,该指令集合当由一个或多个处理器执行时,使得所述一个或多个处理器执行该方法。
输入设备150可以包括允许用户向计算设备100输入信息的一个或多个常规机构,诸如键盘、鼠标、话音识别设备、麦克风、头戴式送受话器、触摸屏152、跟踪板154、手势识别设备156等。输出设备160可以包括向用户输出信息的一个或多个常规机构,包括显示器162、打印机、一个或多个扬声器、头戴式送受话器、或介质(诸如存储器、或者磁或光盘和对应的盘驱动器)。触摸屏152还可以充当显示器162,而跟踪板154仅仅接收输入。通信接口170可以包括使计算设备100能够与其它设备或网络进行通信的任何类似收发信机的机构。通信接口170可以包括网络接口或收发信机接口。通信接口170可以是无线、有线、或光接口。
计算设备100可以执行这样的功能以响应于执行包含在计算机可读介质(诸如例如,存储器130、磁盘、或光盘)中的指令的序列的处理器120。这样的指令可以经由通信接口170从另一计算机可读介质(诸如数据存储装置140)或从单独的设备被读入到存储器130中。
图2用框图形式图示了图形用户界面交互200的一个实施例。图形用户界面202可以具有可以是静态或动态的背景。首要内容集合204可以经历相对于图形用户界面202的背景的首要位置改变206。首要内容集合204是正在由用户直接操纵的一个或多个用户界面元素的集合,诸如图标、交互式拼接块、媒体项、或其它图形对象。首要内容集合204可能不(maynot)是空集。
反射内容集合208可以基于首要位置改变206经历受控的独立动作210。反射内容集合208是受制于控制独立动作210的一个或多个用户界面元素的集合。反射内容集合208可能不(maynot)是空集。受控的独立动作210是用户所寻求的受控的动作,而不是对首要位置改变206的不受控的反应。受控的独立动作210还可以独立于首要内容集合204而发生作用。
例如,首要内容集合204(诸如交互式拼接块)可以执行沿设定方向以设定速度跨过图形用户界面202移动的首要位置改变206。反射内容集合208(诸如背景图案)可以执行沿设定方向以1/2的设定速度移动反射内容集合208的受控的独立动作210。首要内容集合204的首要位置改变206和反射内容集合208的受控的独立动作210之间的偏差(variation)可以交互作用以在图形用户界面202中提供景深的错觉。景深的这种错觉被称为视差效果。
辅助内容集合212可以经历相对于图形用户界面的背景的辅助位置改变214。辅助内容集合212是一个或多个用户界面元素的集合,但可能不(maynot)是空集。辅助位置改变214可以是响应于首要内容集合204的首要位置改变206的受控的独立动作210。可替代地,辅助位置改变214可以是全部或部分地独立的动作。用户输入可以导致辅助位置改变214。进一步地,反射内容集合208的受控的独立动作210可以部分地基于辅助位置改变214。因此,用于首要内容集合204的首要位置改变206和用于辅助内容集合212的辅助位置改变214可以使反射内容集合208执行受控的独立动作210。在以上示例中,诸如不同的交互式拼接块的辅助内容集合212可以执行沿垂直方向以不同的速度移动的辅助位置改变214,从而导致沿角度方向移动反射内容集合208的受控的独立动作210。首要内容集合204的首要位置改变206、辅助内容集合212的辅助位置改变214、和反射内容集合208的受控的独立动作210之间的偏差可以交互作用以产生视差效果。
图形显示设备可以将平滑滤波器应用到首要位置改变206以去除在用户输入期间由用户颤抖而导致的任何意外假信号(glitch)或因硬件噪声而导致的不准确。图形显示设备可以预测用于首要内容集合204的将来首要位置以降低输入和用于图形显示设备输出的位置之间的等待时间。图形显示设备可以使将来首要位置的预测与反射内容集合208的将来反射位置的预测进行同步。图形显示设备可以使用预测生成器作为平滑滤波器,或者可以保持两个操作分开。当多个输入正在被处理时,预测生成器可以用于修正中间误差。预测生成器可以以受控的独立动作210补偿首要位置改变206中的任何预测误差。
图3用图表形式图示了事件时间图表300的一个实施例。图形显示设备可以在显示事件302期间以显示速率刷新图形用户界面。图形显示设备(诸如触摸屏152、跟踪板154、或者手势识别设备156)的用户运动界面可以在输入读取事件期间以输入速率对用户在用户运动界面上的位置进行采样。输入速率可以与显示速率不同。
图形显示设备可以在最新显示事件302之前存储表示反射内容集合208的位置的先前的反射位置状态304。用户运动界面可以在显示事件302之后接收输入读取事件。如果用户运动界面在第一输入读取事件之后接收第二输入读取事件,那么第一输入读取事件可能成为前驱首要位置事件306并且第二输入读取事件可能成为后继首要位置事件308。用户运动界面可以有利于后继首要位置事件308地丢弃前驱首要位置事件306。图形显示设备可以结合先前的反射位置状态304一起来使用后继首要位置事件308以便预测将来反射位置310。
图4用流程图形式图示了移动首要内容集合204的方法400的一个实施例。图形显示设备可以以与用于显示图形用户界面的显示速率不同的输入速率接收用户输入(方框402)。图形显示设备可以检测指示首要内容集合204在图形用户界面中的首要位置改变206的用户输入(方框404)。图形显示设备可以确定首要位置改变206是扫视、缩放、和旋转中的至少一个(方框406)。图形显示设备可以基于当前输入读取事件和先前的首要位置状态304预测用于首要内容集合204的将来首要位置310(方框408)。图形显示设备可以将平滑滤波器应用到首要位置改变206(方框410)。图形显示设备可以实例化委托线程以控制反射内容集合208(方框412)。图形显示设备可以导致将受控的独立动作210计算在内的辅助内容集合212的辅助位置改变214(方框414)。图形显示设备可以使得反射内容集合208基于首要位置改变206和可能的辅助位置改变214以受控的独立动作210移动(方框416)。图形显示设备可以将用于首要内容集合204的所预测的将来首要位置310同步到用于反射内容集合208的所预测的将来反射位置(方框418)。图形显示设备可以使用首要位置改变、辅助位置改变、和受控的独立动作之间的交互来创建视差效果(方框420)。
图5用流程图形式图示了移动反射内容集合208的方法500的一个实施例。图形显示设备可以以与用于接收用户输入的输入速率不同的显示速率显示图形用户界面202(方框502)。图形显示设备可以基于用户输入检测首要内容集合204在图形用户界面中的首要位置改变206(方框504)。图形显示设备可以检测辅助内容集合212在图形用户界面202中的辅助位置改变214(方框506)。图形显示设备可以使用委托线程来执行受控的独立动作210(方框508)。图形显示设备可以存储用于反射内容集合208的先前的反射位置状态(方框510)。图形显示设备可以接收用于同步的所预测的将来首要位置310(方框512)。图形显示设备可以基于所述预测的将来首要位置来预测用于反射内容集合的将来反射位置(方框514)。图形显示设备可以以受控的独立动作210补偿应用到首要位置改变206的平滑滤波器(方框516)。图形显示设备可以以原子形式执行辅助位置改变214和受控的独立动作210(方框518)。图形显示设备可以基于首要位置改变206和辅助位置改变214以受控的独立动作210移动反射内容集合208(方框520)。图形显示设备可以使用首要位置改变、辅助位置改变、和受控的独立动作之间的交互来创建视差效果(方框522)。
图6用流程图形式图示了预测将来首要位置310的方法600的一个实施例。图形显示设备可以检测用于图形用户界面的显示事件302(方框602)。图形显示设备可以存储用于反射内容集合208的先前的反射位置状态304(方框604)。图形显示设备可以检测前驱首要位置事件306(方框606)。图形显示设备可以存储前驱首要位置事件306(方框608)。如果后继首要位置事件308先于显示事件302发生(方框610),那么图形显示设备可以存储后继首要位置事件308(方框612)。图形显示设备可以丢弃前驱首要位置事件306(方框614)。如果显示事件发生(方框616),那么图形显示设备可以基于当前首要位置事件和先前的反射位置状态304预测用于反射内容集合208的将来反射位置310(方框618)。图形显示设备可以显示用于反射内容集合208的将来反射位置310(方框620)。图形显示设备可以在显示事件302之后更新用于反射内容集合208的先前的反射位置状态304(方框622)。
尽管已经以特定于结构特征和/或方法动作的语言对主题进行了描述,但是需要理解的是,在所附权利要求中的主题并不一定局限于上文所描述的特定特征或动作。相反,上文所描述的特定特征和动作是作为实施权利要求的示例形式而被公开的。
本发明的范围内的实施例还可以包括用于承载或具有存储在其上的计算机可执行指令或数据结构的计算机可读存储媒体。这样的计算机可读存储媒体可以是能够由通用或专用计算机访问的任何可用媒体。作为示例而非限制,这样的计算机可读存储媒体可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储装置、磁盘存储装置或其它磁性数据存储装置、或能够用于以计算机可执行指令或数据结构的形式承载或存储期望的程序代码装置的任何其它介质。上述各项的组合也应当包括在计算机可读存储媒体的范围内。
还可以在分布式计算环境中实践各实施例,在所述分布式计算机环境中,由通过通信网络所链接(通过硬连线链路、无线链路或通过它们的组合)的本地和远程处理设备执行任务。
例如,计算机可执行指令包括使得通用计算机、专用计算机、或专用处理设备执行某功能或功能组的指令和数据。计算机可执行指令还包括在单机或网络环境下由计算机执行的程序模块。一般而言,程序模块包括执行具体任务或实现具体抽象数据类型的例程、程序、对象、组件和数据结构等。计算机可执行指令、相关联的数据结构和程序模块表示用于执行本文中所公开的方法的步骤的程序代码装置的示例。这样可执行指令或相关联的数据结构的特定序列表示用于实现在这样的步骤中描述的功能的对应的动作的示例。
尽管以上描述可以包含特定细节,但它们不应被解释为以任何方式限制权利要求。所描述的实施例的其它配置是本公开的范围的一部分。例如,本公开的原理可以应用到每一个单独的用户,其中每一个用户可以单独地部署这样的系统。这使得即使大量可能的应用的任何一个不使用本文中所描述的功能,每一个用户也能够利用本公开的好处。电子设备的多个实例每一个均可以以各种可能的方式处理内容。实现方式不一定都在所有终端用户所使用的一个系统中。因此,应仅由所附权利要求及其合法等同物,而非任何给出的具体示例来限定本发明。

Claims (10)

1.一种机器实现的方法,包括:
基于用户输入检测首要内容集合在图形用户界面中的首要位置改变;
检测辅助内容集合在所述图形用户界面中的辅助位置改变;和
基于所述首要位置改变和所述辅助位置改变以受控的独立动作移动反射内容集合。
2.根据权利要求1所述的方法,还包括:
以原子形式执行所述辅助位置改变和所述受控的独立动作。
3.根据权利要求1所述的方法,还包括:
以所述受控的独立动作补偿应用到所述首要位置改变的平滑滤波器。
4.根据权利要求1所述的方法,还包括:
接收用于同步的所预测的将来首要位置;和
基于所述所预测的将来首要位置预测用于所述反射内容集合的将来反射位置。
5.根据权利要求1所述的方法,还包括:
存储用于所述反射内容集合的先前的反射位置状态。
6.根据权利要求1所述的方法,还包括:
如果后继首要位置事件先于显示事件发生,那么丢弃前驱首要位置事件。
7.根据权利要求1所述的方法,还包括:
基于当前首要位置事件和先前的反射位置状态预测用于所述反射内容集合的将来反射位置。
8.一种具有被存储在其上的详细说明一种方法的指令集合的有形的机器可读介质,当所述指令集合由一个或多个处理器执行时,使所述一个或多个处理器执行所述方法,所述方法包括:
检测指示首要内容集合在图形用户界面中的首要位置改变的用户输入;
实例化委托线程以控制反射内容集合;
使反射内容集合基于所述首要位置改变以受控的独立动作移动;和
使用在所述首要位置改变和所述受控的独立动作之间的交互创建视差效果。
9.一种图形显示设备,包括:
输入设备,所述输入设备接收指引首要内容集合在图形用户界面中的首要位置改变的用户输入;和
处理器,所述处理器将平滑滤波器应用到所述首要位置改变并且使反射内容集合基于所述首要位置改变以受控的独立动作移动来创建视差效果。
10.根据权利要求9所述的图形显示设备,其中所述处理器基于所预测的将来首要位置来预测用于所述反射内容集合的将来反射位置。
CN201380075853.5A 2013-04-22 2013-09-03 对异步操纵的用户界面响应 Pending CN105210019A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/867142 2013-04-22
US13/867,142 US20140317538A1 (en) 2013-04-22 2013-04-22 User interface response to an asynchronous manipulation
PCT/US2013/057886 WO2014175908A1 (en) 2013-04-22 2013-09-03 User interface response to an asynchronous manipulation

Publications (1)

Publication Number Publication Date
CN105210019A true CN105210019A (zh) 2015-12-30

Family

ID=49226513

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380075853.5A Pending CN105210019A (zh) 2013-04-22 2013-09-03 对异步操纵的用户界面响应

Country Status (4)

Country Link
US (1) US20140317538A1 (zh)
EP (1) EP2989535A1 (zh)
CN (1) CN105210019A (zh)
WO (1) WO2014175908A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9128585B2 (en) * 2013-05-31 2015-09-08 Prezi, Inc. 3D rendering in a ZUI environment
US10991013B2 (en) 2015-06-02 2021-04-27 Apple Inc. Presentation of media content based on computing device context

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5230061A (en) * 1992-01-02 1993-07-20 The University Of Akron Clause counter map inference engine
US20110202834A1 (en) * 2010-02-12 2011-08-18 Microsoft Corporation Visual motion feedback for user interface
WO2011153361A2 (en) * 2010-06-02 2011-12-08 Allen Learning Technologies Device having graphical user interfaces and method for developing multimedia computer applications
US8266550B1 (en) * 2008-05-28 2012-09-11 Google Inc. Parallax panning of mobile device desktop

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5619636A (en) * 1994-02-17 1997-04-08 Autodesk, Inc. Multimedia publishing system
US8086275B2 (en) * 2008-10-23 2011-12-27 Microsoft Corporation Alternative inputs of a mobile communications device
CN103034362B (zh) * 2011-09-30 2017-05-17 三星电子株式会社 移动终端中处理触摸输入的方法和设备
US9292123B2 (en) * 2012-02-17 2016-03-22 2236008 Ontario, Inc. System and method for sample rate adaption
US9703473B2 (en) * 2013-01-24 2017-07-11 Facebook, Inc. Predicting touch input

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5230061A (en) * 1992-01-02 1993-07-20 The University Of Akron Clause counter map inference engine
US8266550B1 (en) * 2008-05-28 2012-09-11 Google Inc. Parallax panning of mobile device desktop
US20110202834A1 (en) * 2010-02-12 2011-08-18 Microsoft Corporation Visual motion feedback for user interface
WO2011153361A2 (en) * 2010-06-02 2011-12-08 Allen Learning Technologies Device having graphical user interfaces and method for developing multimedia computer applications

Also Published As

Publication number Publication date
EP2989535A1 (en) 2016-03-02
US20140317538A1 (en) 2014-10-23
WO2014175908A1 (en) 2014-10-30

Similar Documents

Publication Publication Date Title
JP6659644B2 (ja) 応用素子の代替的グラフィック表示の事前の生成による入力に対する低レイテンシの視覚的応答およびグラフィック処理ユニットの入力処理
US20160092048A1 (en) Display of hierarchical datasets using high-water mark scrolling
US10417991B2 (en) Multi-display device user interface modification
US20140089824A1 (en) Systems And Methods For Dynamically Altering A User Interface Based On User Interface Actions
CN117332812A (zh) 执行触摸运动预测的深度机器学习
CN104903832A (zh) 用于低等待时间用户输入处理和反馈的混合型系统和方法
WO2018057216A1 (en) 3d document editing system
CN107301038A (zh) 应用生产设备、系统、方法和非临时性计算机可读媒介
KR20140017649A (ko) 사용자 인터페이스들 및 입력 컨트롤들을 적응시키는 방법
JP2012502344A (ja) 画像センサベースのヒューマンマシンインタフェースを提供する方法システムおよびソフトウェア
US11301124B2 (en) User interface modification using preview panel
CN105210019A (zh) 对异步操纵的用户界面响应
JP5866085B1 (ja) ユーザインタフェース装置およびユーザインタフェース装置の画面表示方法
Mikkelsen et al. Exploring microsoft hololens for interactive visualization of UML diagrams
CN102857826A (zh) 一种基于循环队列的图文播放方法及装置
US20190056857A1 (en) Resizing an active region of a user interface
Huot 'Designeering Interaction': A Missing Link in the Evolution of Human-Computer Interaction
CN112306598A (zh) 对话管理方法和设备
JP6839771B2 (ja) 補正パターン分析による映像補正方法およびシステム
JP5304849B2 (ja) 電子機器およびプログラム
EP3612929B1 (en) Rules based user interface generation
CN110908573A (zh) 算法模型训练方法、装置、设备及存储介质
Donchyts et al. Benefits of the use of natural user interfaces in water simulations
JP2020512642A (ja) ハプティックフィードバックをレンダリングするマルチレート処理デバイス
US20230367457A1 (en) Synchronising actions

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20151230