CN102331902B - 用于触摸屏的操作的系统和方法 - Google Patents
用于触摸屏的操作的系统和方法 Download PDFInfo
- Publication number
- CN102331902B CN102331902B CN201110154163.1A CN201110154163A CN102331902B CN 102331902 B CN102331902 B CN 102331902B CN 201110154163 A CN201110154163 A CN 201110154163A CN 102331902 B CN102331902 B CN 102331902B
- Authority
- CN
- China
- Prior art keywords
- touched
- touch
- engine
- posture
- order
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明提供了用于触摸屏的操作的系统和方法。方法包括:在显示系统上显示多个对象,多个对象中的每个均根据对象参数被显示;以及接收与显示系统上的多个触摸对应的触摸信息。该方法还包括:处理触摸信息,以识别多个对象中的哪个对象被触摸;以及当识别出被触摸的第一对象时,处理触摸信息,以识别由多个触摸表示的第一姿势。该方法进一步包括:当识别出第一姿势时,基于第一姿势确定第一命令;基于第一命令生成用于对象的第一新参数;以及根据用于对象的第一新参数至少显示被触摸的第一对象,其中,第一对象是对机器的控制的图形表示,并且第一姿势被用于自动控制机器。
Description
背景技术
在工业自动化系统内经常使用触摸屏以显示机器状态和控制,并且基于触摸屏上的用户姿势控制机器。这些姿势可以采用多种形式和功能中的任何一种。例如,姿势可以包括与机器控制对应的移动、使有效、使无效以及旋转控制对象。
示例性触摸屏系统处理触摸屏上的用户触摸,以确定多个姿势中的哪个姿势发生,然后确定在哪个控制对象上执行该姿势。根据该信息,控制对象根据用户姿势被新的参数集合(诸如,大小、位置等)所修改。
发明内容
在一个实施例中,提供了一种对人机界面系统进行操作的方法。该方法包括:在显示系统上显示多个对象,多个对象中的每个对均根据对象参数而被显示;以及接收与显示系统上的多个触摸对应的触摸信息。该方法还包括:处理触摸信息,以识别多个对象中的哪个对象被触摸;以及当识别出被触摸的第一对象时,处理触摸信息,以识别由多个触摸表示的第一姿势。该方法进一步包括:当识别第一姿势时,基于第一姿势来确定第一命令;基于第一命令来生成用于该对象的第一新参数;以及根据用于该对象的第一新参数至少显示被触摸的第一对象,其中,第一对象是对机器的控制的图形表示,并且第一姿势被用于自动控制机器。
在另一实施例中,提供了一种用于显示多个对象的触摸屏的操作的处理设备。多个对象中的每个对均根据对象参数被显示。该处理设备包括:姿势引擎,连接至触摸屏,被配置成接收用户输入并且基于用户输入来确定被触摸的点的集合和姿势;观察引擎,连接至触摸屏和姿势引擎,被配置成从姿势引擎接收点的集合并且基于被触摸的点的集合来确定多个对象中被触摸的对象的身份;以及对象引擎,连接至姿势引擎和观察引擎。
对象引擎被配置成从观察引擎接收被触摸的对象的身份;基于用户输入和被触摸的对象向姿势引擎询问命令;从姿势引擎接收命令;以及处理被触摸的对象和命令,以确定用于对象的新的参数集合。观察引擎还被配置成从对象引擎接收新的参数集合,并且在触摸屏上显示由新的参数集合配置的对象,其中,第一对象是对机器的控制的图形表示,并且第一姿势被用于自动控制机器。
在进一步实施例中,提供了一种用于对触摸屏的操作的方法。该方法包括:在触摸屏上显示多个对象,多个对象中的每个对象均根据对象参数被显示;以及在姿势引擎处从触摸屏接收用户输入。该方法还包括:在姿势引擎中确定由用户输入触摸的点的集合;以及在观察引擎中处理被触摸的点的集合,以确定多个对象中被触摸的对象的身份。该方法进一步包括:在对象引擎处接收被触摸的对象的身份;以及将被触摸的对象的身份发送至姿势引擎。
该方法还包括:在姿势引擎中基于用户输入和被触摸的对象来确定姿势;在姿势引擎中基于姿势来确定命令;以及在对象引擎处接收命令;以及在对象引擎中处理命令和被触摸的对象,以确定用于对象新的参数集合;以及在触摸屏上显示由新的参数集合所配置的对象。
附图说明
图1示出工业自动化系统。
图2示出对显示系统进行操作的方法。
图3示出被配置成对人机界面(HMI)系统内的显示系统进行操作的HMI系统。
图4示出在被配置成对显示系统进行操作的HMI系统内的交互。
图5示出对触摸屏进行操作的方法。
图6A和图6B示出显示系统。
图7示出工业自动化系统。
具体实施方式
图1示出工业自动化系统100。工业自动化系统100包括三个机器系统102、104和106以及通过链路110与这些机器系统连接的人机界面
(HMI)系统108。在一个示例中,机器系统102、104和106是工业自动化环境内的、被配置成经由HMI系统108被控制的机器。在一些示例中,多个HMI系统可以与相同或类似的机器系统组连接。HMI系统108包括用于显示机器数据和控制机器系统102、104和106的显示系统,诸如触摸屏。
在一个示例中,HMI系统108包括:处理器,被配置成将机器数据显示在触摸屏上,并且通过触摸屏接收用户输入。从而,HMI系统108解释用户输入并相应地调节机器系统102、104和106的参数。
链路110可以使用多种通信媒体中的任何一种,诸如,空气、金属、光纤或任何其他信号传播路径,包括其结合。此外,该链路可以使用多种通信协议中的任何一种,诸如,互联网、电话、光网络、无线通信、无线高保真、码分多址接入、全球微波互联接入或任何其他通信协议和格式,包括其结合。此外,该链路可以是直接链路,或者该链路可以包括多个中间部件、系统和网络。
图2示出对人机界面(HMI)系统(诸如图1中的HMI系统108)进行操作的方法。在一个示例中,多个对象被显示在显示系统(操作200)上。多个对象中的每个对象都根据对象参数被显示。接收与该显示系统上的多个触摸对应的触摸信息(操作202)。该触摸信息还可以包括这些点被触摸的顺序以及在对象内被触摸的点的集合。
触摸信息被处理,以识别多个对象中的哪个被触摸(操作204)。如果没有对象被触摸,则该方法结束,而不处理触摸信息以识别姿势。在其他示例中,当没有对象被触摸时,该方法继续,并且将触摸信息应用至显示系统上所示的所有对象。当识别出被触摸的对象时,触摸信息被处理,以识别由多个触摸所表示的姿势(操作206)。
当识别出该姿势时,基于该姿势确定命令(操作208)。基于该命令生成用于对象的新参数(操作210)。然后,根据用于该对象的新参数至少显示被触摸的对象(操作212)。这些操作可以在还包括显示系统的HMI系统108中进行。在其他示例中,这些操作可以在连接至显示系统的计算机系统中进行。在这种示例中,计算机系统可以被定位成与显示系统分离,并且可以通过网络连接至显示系统。
图3示出被配置成对人机界面(HMI)系统300内的显示系统312进行操作的HMI系统。HMI系统300是图1的人机界面(HMI)系统108的详细示例,但是HMI系统108可以使用可选配置。HMI系统300包括通信接口301、用户界面302、处理系统303和显示系统312。处理系统303通过总线308链接至通信接口301和用户界面302。用户界面302包括显示系统312。处理系统303包括处理电路305和存储操作软件307的存储设备306。操作软件307包括姿势引擎309、观察引擎310和对象引擎311。在一个示例中,姿势引擎309、观察引擎310和对象引擎311被配置成执行图2中所示的操作。
通信接口301包括通过通信链路进行通信的部件,诸如,网卡、端口、RF收发机、处理电路和软件或一些其他通信设备。通信接口301可以被配置成通过金属、无线或光学链路进行通信。通信接口301可以被配置成使用TDM、IP、以太网、光网络、无线协议、通信信令或一些其他通信格式,包括其结合。在一个示例中,通信接口301可以被配置成与多个机器系统(诸如,图1中所示的机器系统102、104和106)通信。
用户界面302包括与用户交互的部件。这些部件可以包括键盘、显示系统、鼠标、触控板或一些其他用户输入/输出装置。在该示例中,用户界面302包括显示系统312。在一个示例中,显示系统312是被配置成接收触摸数据并且显示图形数据的触摸屏显示器。触摸屏可以对电阻或电容改变敏感。
处理电路305包括重新得到并执行来自存储设备306的操作软件307的微处理器和其他电路。存储设备306包括硬盘驱动器、闪存驱动器、数据存储电路或一些其他存储装置。操作软件307包括计算机程序、固件或机器可读处理指令的一些其他形式。操作软件307可以包括操作系统、应用程序、驱动器、网络接口、应用软件或一些其他类型软件。在该示例中,操作软件307包括姿势引擎309、观察引擎310以及对象引擎311。在一个示例中,姿势引擎309、观察引擎310和对象引擎311被配置成控制计算机系统300,以执行图2中所示的操作。
当由电路305执行时,操作软件307引导处理系统303操作在此所描述的HMI系统300。特别地,操作软件307引导处理系统303将多个对象显示在显示系统312上。多个对象中的每个对象均根据对象参数被显示。处理系统303接收与显示系统312上的多个触摸对应的触摸信息。处理系统303处理该触摸信息,以识别多个对象中的哪个对象被触摸。如果没有对象被触摸,则该方法结束,而不要求姿势被处理。从而,不对对象进行操作的姿势被忽略,而不处理姿势本身。在其他示例中,当没有对象被触摸时,来自显示系统的输入被应用至在显示系统上示出的所有对象。
当识别出被触摸的对象时,处理系统303处理触摸信息,以识别由多个触摸表示的姿势。当识别出姿势时,处理系统确定由该姿势表示的命令。处理系统303基于该命令生成用于对象的新参数。然后,处理系统303在显示系统312上根据该用于对象的新参数至少显示被触摸的对象。
图4示出在被配置成对显示系统402进行操作的人机界面(HMI)系统400内的交互。该说明用于解释HMI系统(诸如,图1的HMI系统108或图3的HMI系统300)内的多种软件和固件部件的交互。在该示例中,HMI系统400包括显示系统402、姿势引擎404、观察引擎406以及对象引擎408。显示系统402通过链路410与姿势引擎404连接。姿势引擎404通过链路412与观察引擎406连接。观察引擎406通过链路414与显示系统402连接,以及通过链路416与对象引擎408连接。对象引擎408通过链路418与姿势引擎404连接。
链路410、412、414、416和418可以使用多种通信媒体中的任何一种,诸如,空气、金属、光纤或任何其他信号传播路径,包括其结合。此外,这些链路可以使用多种通信协议中的任何一种,诸如,互联网、电话、光网络、无线通信、无线高保真、码分多址接入、全球微波互联接入或任何其他通信协议和格式,包括其结合。此外,这些链路可以是直接链路,或者这些链路可以包括多种中间部件、系统和网络。
在该示例中,显示系统402包括触摸屏。显示系统402被配置成在该触摸屏上显示多个对象。多个对象中的每个对象均根据对象参数被显示。姿势引擎404通过链路410从显示系统402接收用户输入。姿势引擎404被配置成确定由用户输入触摸的点的集合。姿势引擎404通过链路412将由用户输入触摸的点的集合传送至观察引擎406。
观察引擎406被配置成处理被触摸的点的集合,以从多个对象中确定被触摸的对象的身份。观察引擎406通过链路416将被触摸的对象的身份以及被触摸的对象内的点传送至对象引擎408。在一些示例中,观察引擎406包括被配置成驱动显示系统402的图形驱动器。对象引擎408通过链路418将被触摸的对象的身份传送至姿势引擎404。在可选示例中,观察引擎406可以通过链路412将被触摸的对象的身份传送至姿势引擎404。姿势引擎404基于用户输入和被触摸的对象来确定姿势。姿势引擎404基于该姿势来确定命令。姿势引擎404通过链路418将该命令传送至对象引擎408。
对象引擎408处理命令和被触摸的对象,以确定用于对象的参数的新集合。对象引擎408通过链路416将用于对象的新的参数集合传送至观察引擎406。然后,观察引擎406在显示系统402上显示由该新的参数集合配置的对象。
图5示出对触摸屏进行操作的方法。在该示例中,将关于HMI系统400描述图5中所示的方法。在该示例中,显示系统402包括触摸屏。显示系统402被配置成在触摸屏上显示多个对象(操作500)。多个对象中的每个对象均根据对象参数被显示。姿势引擎404通过链路410从显示系统402接收用户输入(操作502)。姿势引擎404被配置成确定由用户输入所触摸的点的集合(操作504)。姿势引擎404通过链路412将由用户输入触摸的点的集合传送至观察引擎406。
观察引擎406被配置成处理被触摸的点的集合,以确定多个对象中被触摸的对象的身份(操作506)。如果没有对象被触摸,则该方法结束,而不处理触摸信息以识别姿势。在其他示例中,当没有对象被触摸时,来自显示系统的输入被应用至在显示系统上示出的所有对象。观察引擎406通过链路416将被触摸的对象的身份传送至对象引擎408(操作508)。对象引擎408通过链路418将被触摸的对象的身份传送至姿势引擎404(操作508)。在可选示例中,观察引擎406可以通过链路412将被触摸的对象的身份传送至姿势引擎404。姿势引擎404基于用户输入和被触摸的对象确定命令(操作510)。姿势引擎404通过链路418将该命令传送至对象引擎408(操作512)。
对象引擎408处理命令和被触摸的对象,以确定用于对象新的参数集合(操作514)。对象引擎408通过链路416将用于对象新的参数集合传送至观察引擎406。然后,观察引擎406在显示系统402上显示由该新的参数集合配置的对象(操作516)。
图6A和图6B示出显示系统600。这些图被用于示出显示系统(诸如,图3的显示系统312或图4的显示系统402)的操作。显示系统600包括用户界面602。在一个示例中,用户界面602是触摸屏。在该示例中,用户界面602显示三个对象604、606和608。对象604是导杆控制器,对象606是控制旋钮,对象608是控制按钮的集合。在该示例中,用户可以通过在触摸屏上执行一系列姿势,来控制用户界面602上的对象。姿势可以包括减小、放大、移动、滑动、旋转、转换、使有效、使无效、推、拉等。存在可以被限定用在该示例性显示系统中的各种个样的姿势。例如,用户可以作出姿势,以从其当前位置向下移动导杆控制器,旋转控制旋钮,并且移动和放大控制按钮的集合。这些姿势与命令(诸如,接通、断开、自动控制、手动控制、缩放、收缩、旋转、转化、移动、打开、关闭、按比例缩放、转换、使有效、使无效、删除等)相关。
图6B示出这些示例性姿势和命令的结果。在该示例中,对象614是具有新参数的对象604,而对象616是具有其新参数的对象606,以及对象618是具有其新参数的对象608。在该示例中,用于对象604的新参数产生对象614,其中,导杆控制器已经被向下移动。用于对象606的新参数产生对象616,其中,控制旋钮被旋转。用于对象608的新参数产生对象618,其中,控制按钮的集合被移动和放大。这些新参数可以通过使用以上关于图1至图5描述的系统和方法来获得。
注意,在该示例中,两个姿势被用于修改对象608。这些姿势可以同时发生在对多个用户显示同一对象的多个显示系统上,或者可以顺序地发生在单个显示系统上。姿势可以来自多个用户或单个用户。在该示例中,三个对象同时被修改。在其他示例中,一个或任意数量的对象可以根据触摸屏上的一个或多个用户姿势同时被修改。
图7示出工业自动化系统700。图7是示出工业自动化系统700的框图,工业自动化系统700包括被配置成用于显示工业自动化环境的图形表示和控制工业自动化环境的触摸屏。在该示例性工业自动化系统700中,工业自动化环境711通过网络715连接至人机界面(HMI)设备720。工业自动化环境711包括多个机器系统701、702、703、707、708和709、多个人机界面(HMI)系统704、706和720、企业网705以及聚合服务器710。
工业自动化环境711通过聚合服务器710与通信网络715通信。聚合服务器710通过企业网705与人机界面(HMI)系统704和706通信,并且通过网络715与HMI系统720通信。机器系统701、702和703与HMI系统704连接,并且机器系统707、708和709与HMI系统706连接。在其他示例中,在工业自动化环境711内可以存在任何数量的机器系统和HMI系统。在还有的其他示例中,机器系统可以直接与企业网705连接,而不通过任何HMI系统。这种HMI系统720对机器系统进行更直接访问,而不必须通过任何附加HMI系统。
HMI系统704和706从机器系统接收机器数据,并且创建表示它们各自的机器系统的图形显示。该图形显示允许人类操作者容易地看到每个机器系统的状态并且通过HMI系统控制机器系统。在多种工业自动化环境中,机器系统701至709在多种不同配置下可以连接在一起。当为产生不同商品修改工业自动化环境时并且当机器系统被更新、修改或替换时,这些配置可以改变。
HMI系统704和706被配置成监控机器系统701至709,并且在HMI系统704和706内的显示系统或者附接到HMI系统704和706的显示系统上显示机器状态并且将其作为对象的集合进行控制。在一些示例中,显示系统与机器系统共同位于同一地点。HMI系统720被配置成显示机器状态并且从任何或所有机器系统701至709进行控制。聚合服务器710被配置成生成工业自动化环境711的图形表示并且将图形表示通过网络715发送至HMI系统720。在一些实施例中,聚合服务器710可以位于工业自动化环境711的外部。例如,其可以在网络715内的数据服务器上,或者可以独立于工业自动化环境711并且通过另一通信网络与工业自动化环境711通信。HMI系统720被配置成将图形表示显示给用户并且对在HMI系统720内的用户界面处接收的用户命令进行响应。HMI系统720可以被配置成从工业自动化环境711接收数据,并且还基于在HMI系统720内的显示系统或连接到HMI系统720的显示系统处接收的姿势,将命令和数据发送至工业自动化环境711。
此外,在一些实施例中,安全措施可以根据HMI系统720的安全等级或者HMI系统720的用户,限制由HMI系统720从工业自动化环境711接收的数据。同样地,安全措施可以根据HMI系统720的安全等级或HMI系统720的用户,限制允许由HMI系统720发送至工业自动化环境711的数据和命令。
企业网705和网络715可以是能够将数据从一个计算机系统传送至另一个的任何局域网或广域网。例如,企业网705可以是具有到工业自动化环境711的外部的机器的有限连接或没有连接的局域网(LAN),而网络715可以是具有到遍及世界的机器和HMI系统的连接的互联网。
以上描述和相关附图讲授了本发明的最佳模式。所附权利要求指定本发明的范围。注意,最佳模式的一些方面可以不落入由权利要求指定的本发明的范围内。本领域技术人员将理解到,上述特征可以以多种方式结合,以形成本发明的多种改变。结果,本发明不限于上述特定实施例,而仅由以下权利要求及其等同物限制。
附记
方案1.一种对人机界面系统进行操作的方法,所述方法包括:
在显示系统上显示多个对象,所述多个对象中的每个对象均根据对象参数而被显示;
接收与所述显示系统上的多个触摸对应的触摸信息;
处理所述触摸信息,以识别所述多个对象中的哪个对象被触摸;
当识别出被触摸的第一对象时,处理所述触摸信息,以识别由所述多个触摸所表示的第一姿势;
当识别出所述第一姿势时,基于所述第一姿势来确定第一命令;
基于所述第一命令来生成用于所述对象的第一新参数;以及
根据用于所述对象的所述第一新参数至少显示所述被触摸的第一对象。
方案2.根据方案1所述的方法,其中,所述触摸信息包括被触摸的点和所述点被触摸的顺序。
方案3.根据方案1所述的方法,其中,所述显示系统是触摸屏。
方案4.根据方案3所述的方法,其中,所述触摸屏对电阻改变敏感。
方案5.根据方案3所述的方法,其中,所述触摸屏对电容改变敏感。
方案6.根据方案1所述的方法,其中,所述第一命令选自一组以下命令,所述命令包括:接通、断开、自动控制、手动控制、缩放、收缩、旋转、转化、移动、打开、关闭、按比例缩放、转换、使有效、使无效以及删除。
方案7.根据方案1所述的方法,其中,所述第一对象是对机器的控制的图形表示,并且所述第一姿势被用于自动控制所述机器。
方案8.根据方案1所述的方法,进一步包括:
接收与在所述显示系统上的第二多个触摸对应的第二触摸信息;
处理所述第二触摸信息,以识别所述多个对象中被触摸的第二对象;
如果所述被触摸的第二对象与所述被触摸的第一对象相同:
则处理所述第二触摸信息,以识别由所述第二多个触摸所表示的第二姿势;
当识别出所述第二姿势时,处理所述第二姿势,以确定第二命令;
基于所述第二命令生成用于所述对象的第二新参数,以及结合用于所述对象的所述第一新参数;以及
根据用于所述对象的所述第二新参数至少显示所述被触摸的第一对象。
方案9.一种用于对多个对象进行显示的触摸屏的操作的处理设备,所述多个对象中的每个对象均根据对象参数而被显示,所述处理设备包括:
姿势引擎,连接至所述触摸屏,被配置成接收用户输入并且基于所述用户输入确定被触摸的点的集合;
观察引擎,连接至所述触摸屏和所述姿势引擎,被配置成从所述姿势引擎接收点的集合并且基于所述被触摸的点的集合来确定所述多个对象中被触摸的对象的身份;以及
对象引擎,连接至所述姿势引擎和所述观察引擎,被配置成:
从所述观察引擎接收所述被触摸的对象的身份;
基于所述用户输入和所述被触摸的对象向所述姿势引擎询问命令;
从所述姿势引擎接收命令;以及
处理所述被触摸的对象和所述命令,以确定用于所述对象的新的参数集合;
其中,所述观察引擎还被配置成从所述对象引擎接收所述新的参数集合并且在所述触摸屏上显示由所述新的参数集合配置的对象。
方案10.根据方案9所述的处理设备,其中,所述用户输入包括被触摸的点和所述点被触摸的顺序。
方案11.根据方案9所述的处理设备,其中,所述触摸屏通过网络连接至所述姿势引擎和所述观察引擎。
方案12.根据方案11所述的处理设备,其中,所述触摸屏通过所述互联网连接至所述姿势引擎和所述观察引擎。
方案13.根据方案9所述的处理设备,其中,所述命令选自一组以下命令,所述命令包括:接通、断开、自动控制、手动控制、缩放、收缩、旋转、转化、移动、打开、关闭、按比例缩放、转换、使有效、使无效以及删除。
方案14.根据方案9所述的处理设备,其中,所述第一对象是对机器的控制的图形表示,并且所述姿势被用于自动控制所述机器。
方案15.一种用于对触摸屏的操作的方法,包括:
在所述触摸屏上显示多个对象,所述多个对象中的每个对象均根据对象参数而被显示;
在姿势引擎处从所述触摸屏接收用户输入;
在所述姿势引擎中确定所述用户输入所触摸的点的集合;
在所述观察引擎中处理所述被触摸的点的集合,以确定所述多个对象中被触摸的对象的身份;
在对象引擎处接收所述被触摸的对象的身份,并且将所述被触摸的对象的身份发送至所述姿势引擎;
在所述姿势引擎中基于所述用户输入和所述被触摸的对象来确定姿势;
在所述姿势引擎中基于所述姿势来确定命令;
在所述对象引擎中接收所述命令;
在所述对象引擎中处理所述命令和所述被触摸的对象,以确定用于所述对象的新的参数集合;以及
在所述触摸屏上显示由所述新的参数集合所配置的对象。
方案16.根据方案15所述的方法,其中,所述用户输入包括被触摸的点和所述点被触摸的顺序。
方案17.根据方案15所述的方法,其中,所述触摸屏通过网络连接至所述姿势引擎和所述观察引擎。
方案18.根据方案17所述的方法,其中,所述触摸屏通过所述互联网连接至所述姿势引擎和所述观察引擎。
方案19.根据方案15所述的方法,其中,所述命令选自一组以下命令,所述命令包括:接通、断开、自动控制、手动控制、缩放、收缩、旋转、转化、移动、打开、关闭、按比例缩放、转换、使有效、使无效以及删除。
方案20.根据方案15所述的方法,其中,所述笫一对象是对机器的控制的图形表示,并且所述姿势被用于自动控制所述机器。
Claims (8)
1.一种对人机界面系统进行操作的方法,所述方法包括:
在第一和第二显示系统上显示多个对象,所述多个对象中的每个对象均根据对象参数而被显示;
接收与第一用户在所述第一显示系统上的多个触摸对应的第一触摸信息,以及与第二用户在所述第二显示系统上的多个触摸对应的第二触摸信息;
处理所述第一触摸信息,以识别所述多个对象中的哪个第一对象被触摸,并且处理所述第二触摸信息,以识别所述多个对象中的哪个第二对象被触摸;
确定被触摸的所述第一对象和所述第二对象是否是相同的对象,并且如果被触摸的所述第一对象和所述第二对象是相同的对象,则处理所述第一触摸信息和所述第二触摸信息以及被触摸的对象的身份,以识别由所述第一触摸信息和所述第二触摸信息所表示的第一姿势和第二姿势;
基于所述第一姿势来确定第一命令,并且基于所述第二姿势来确定第二命令;
基于所述第一命令和所述第二命令来生成用于所述对象的第一新参数和第二新参数;以及
根据用于所述对象的所述第一新参数和所述第二新参数在所述第一显示系统和所述第二显示系统上至少显示所述被触摸的对象,
其中,所述对象是对机器的控制的图形表示,并且所述触摸信息被用于自动控制所述机器。
2.根据权利要求1所述的方法,其中,所述触摸信息包括被触摸的点和所述点被触摸的顺序。
3.根据权利要求1所述的方法,其中,所述显示系统是触摸屏。
4.根据权利要求3所述的方法,其中,所述触摸屏对电阻改变敏感。
5.根据权利要求3所述的方法,其中,所述触摸屏对电容改变敏感。
6.根据权利要求1所述的方法,其中,所述命令选自一组以下命令,所述命令包括:接通、断开、自动控制、手动控制、缩放、收缩、旋转、转化、移动、打开、关闭、按比例缩放、转换、使有效、使无效以及删除。
7.一种用于第一触摸屏和第二触摸屏的操作的处理设备,所述第一触摸屏和所述第二触摸屏显示多个对象,所述多个对象中的每个对象均根据对象参数而被显示,所述处理设备包括:
姿势引擎,连接至所述触摸屏,被配置成从第一用户和第二用户接收用户输入,并且基于所述用户输入确定被触摸的点的第一集合和第二集合;
观察引擎,连接至所述触摸屏和所述姿势引擎,被配置成从所述姿势引擎接收点的第一集合和第二集合,并且基于被触摸的点的所述第一集合和所述第二集合来确定所述多个对象中被触摸的对象的身份;以及
对象引擎,连接至所述姿势引擎和所述观察引擎,被配置成:
从所述观察引擎接收所述被触摸的对象的身份;
基于所述用户输入和所述被触摸的对象向所述姿势引擎询问第一命令和第二命令;
从所述姿势引擎接收第一命令和第二命令;以及
处理所述被触摸的对象和所述命令,以确定用于所述对象的新的参数集合;
其中,所述观察引擎还被配置成从所述对象引擎接收所述新的参数集合,并且在所述触摸屏上显示由所述新的参数集合配置的对象,
其中,所述对象是对机器的控制的图形表示,并且所述用户输入被用于自动控制所述机器。
8.根据权利要求7所述的处理设备,其中,所述用户输入包括被触摸的点和所述点被触摸的顺序。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/791,924 US20110298720A1 (en) | 2010-06-02 | 2010-06-02 | System and method for the operation of a touch screen |
US12/791,924 | 2010-06-02 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102331902A CN102331902A (zh) | 2012-01-25 |
CN102331902B true CN102331902B (zh) | 2015-02-11 |
Family
ID=44486107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110154163.1A Expired - Fee Related CN102331902B (zh) | 2010-06-02 | 2011-06-02 | 用于触摸屏的操作的系统和方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20110298720A1 (zh) |
EP (1) | EP2393001A3 (zh) |
CN (1) | CN102331902B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9785335B2 (en) * | 2010-12-27 | 2017-10-10 | Sling Media Inc. | Systems and methods for adaptive gesture recognition |
US9235324B2 (en) | 2012-05-04 | 2016-01-12 | Google Inc. | Touch interpretation for displayed elements |
DE102013216746A1 (de) * | 2013-08-23 | 2015-02-26 | Robert Bosch Gmbh | Verfahren und Visualisierungseinrichtung zur gestenbasierten Datenabfrage und Datenvisualisierung für ein Automatisierungssystem |
US20160349931A1 (en) * | 2015-05-28 | 2016-12-01 | Rockwell Automation Technologies, Inc. | Responsive user interface for an industrial environment |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009109014A1 (en) * | 2008-03-05 | 2009-09-11 | Rpo Pty Limited | Methods for operation of a touch input device |
CN101599002A (zh) * | 2008-06-04 | 2009-12-09 | 佳能株式会社 | 用户接口的控制方法和信息处理装置 |
CN101611373A (zh) * | 2007-01-05 | 2009-12-23 | 苹果公司 | 利用触摸敏感设备控制、操纵和编辑媒体文件的姿态 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6169789B1 (en) * | 1996-12-16 | 2001-01-02 | Sanjay K. Rao | Intelligent keyboard system |
US9292111B2 (en) * | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
US20080098331A1 (en) * | 2005-09-16 | 2008-04-24 | Gregory Novick | Portable Multifunction Device with Soft Keyboards |
US7509588B2 (en) * | 2005-12-30 | 2009-03-24 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
CN102169415A (zh) * | 2005-12-30 | 2011-08-31 | 苹果公司 | 具有多重触摸输入的便携式电子设备 |
US7877707B2 (en) * | 2007-01-06 | 2011-01-25 | Apple Inc. | Detecting and interpreting real-world and security gestures on touch and hover sensitive devices |
KR20100030388A (ko) * | 2008-09-10 | 2010-03-18 | 삼성디지털이미징 주식회사 | 터치 스크린 |
JP5229084B2 (ja) * | 2009-04-14 | 2013-07-03 | ソニー株式会社 | 表示制御装置、表示制御方法およびコンピュータプログラム |
US20110185299A1 (en) * | 2010-01-28 | 2011-07-28 | Microsoft Corporation | Stamp Gestures |
-
2010
- 2010-06-02 US US12/791,924 patent/US20110298720A1/en not_active Abandoned
-
2011
- 2011-06-01 EP EP11168424.7A patent/EP2393001A3/en not_active Withdrawn
- 2011-06-02 CN CN201110154163.1A patent/CN102331902B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101611373A (zh) * | 2007-01-05 | 2009-12-23 | 苹果公司 | 利用触摸敏感设备控制、操纵和编辑媒体文件的姿态 |
WO2009109014A1 (en) * | 2008-03-05 | 2009-09-11 | Rpo Pty Limited | Methods for operation of a touch input device |
CN101599002A (zh) * | 2008-06-04 | 2009-12-09 | 佳能株式会社 | 用户接口的控制方法和信息处理装置 |
Also Published As
Publication number | Publication date |
---|---|
CN102331902A (zh) | 2012-01-25 |
EP2393001A2 (en) | 2011-12-07 |
US20110298720A1 (en) | 2011-12-08 |
EP2393001A3 (en) | 2014-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
De Pace et al. | A systematic review of Augmented Reality interfaces for collaborative industrial robots | |
US20100095233A1 (en) | Device, system and computer implemented method to display and process technical data for a device in an industrial control system | |
US9158453B2 (en) | Human-machine interface having multiple touch trend manipulation capabilities | |
US7865845B2 (en) | Chaining objects in a pointer drag path | |
CN103492966B (zh) | 用于控制工业系统的方法和系统 | |
JP6343353B2 (ja) | ロボットの動作プログラム生成方法及びロボットの動作プログラム生成装置 | |
US10166673B2 (en) | Portable apparatus for controlling robot and method thereof | |
US9557828B2 (en) | Input information processing system, input information processing method, program and computer-readable recording medium | |
US10771350B2 (en) | Method and apparatus for changeable configuration of objects using a mixed reality approach with augmented reality | |
JP2012504290A5 (zh) | ||
CN102331902B (zh) | 用于触摸屏的操作的系统和方法 | |
JP6972842B2 (ja) | 表示制御方法、表示装置、及びプログラム | |
US11567571B2 (en) | Remote control of a device via a virtual interface | |
EP3540661A1 (en) | Method for balancing a production line | |
CN106250355A (zh) | 通过触摸操作来编辑电子数据的信息处理装置 | |
Ong et al. | 3D bare-hand interactions enabling ubiquitous interactions with smart objects | |
US10838395B2 (en) | Information processing device | |
WO2014021216A1 (ja) | 数値制御システムおよび数値制御データ生成方法 | |
JP6812646B2 (ja) | 工作機械用操作盤 | |
CN114683288B (zh) | 机器人展示和控制方法、装置及电子设备 | |
JP2008009500A (ja) | 表示部品の経路上の移動表示方式 | |
CN113760169A (zh) | 一种控制方法及控制装置 | |
CN111844021B (zh) | 机械臂协同控制方法、装置、设备及存储介质 | |
De Momi et al. | Extended Reality in Robotics [From the Guest Editors] | |
JP7436797B2 (ja) | ロボットのプログラム作成支援装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20150211 Termination date: 20170602 |