CN103502923A - 用户与设备的基于触摸和非触摸的交互作用 - Google Patents

用户与设备的基于触摸和非触摸的交互作用 Download PDF

Info

Publication number
CN103502923A
CN103502923A CN201280002569.0A CN201280002569A CN103502923A CN 103502923 A CN103502923 A CN 103502923A CN 201280002569 A CN201280002569 A CN 201280002569A CN 103502923 A CN103502923 A CN 103502923A
Authority
CN
China
Prior art keywords
equipment
reciprocation
gesture
touch
base
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280002569.0A
Other languages
English (en)
Other versions
CN103502923B (zh
Inventor
雷米·杜赫埃尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yiluo Touch Control System Co
Original Assignee
Elo Touch Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Elo Touch Solutions Inc filed Critical Elo Touch Solutions Inc
Publication of CN103502923A publication Critical patent/CN103502923A/zh
Application granted granted Critical
Publication of CN103502923B publication Critical patent/CN103502923B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Abstract

本发明公开一种用于提供输入到设备的方法,其中,输入基于与设备的至少一个触摸基交互作用和至少一个非触摸基交互作用的组合,其中一种类型的输入响应于其他类型的输入影响到设备的动作指令。本发明还涉及相应的设备。为了进一步改善用户和设备之间的交互作用,设置反馈提供装置。

Description

用户与设备的基于触摸和非触摸的交互作用
技术领域
本发明涉及一种用于提供手势基输入到设备的方法以及相应的设备。
背景技术
越来越多的电子设备允许与用户的基于手势的交互作用。例如单个或多点触摸敏感触摸屏的触摸敏感界面能够检测用户执行的手势的轨迹,该用户使用他的手或手的一个或多个手指触摸界面。根据轨迹的空间和/或时间性质,相应的指令被输入到电子元件的处理单元,电子元件然后执行相应的动作。例如,从右侧到左侧的线性轨迹被解释为挥击或轻击(swipeor flick)手势,用于在屏幕上移动对象从右侧到左侧,或从图示在屏幕上的一页改变到下一页。另一个流行的示例是在触摸敏感界面检测到存在两个手指彼此分开移动时放大在显示屏上的对象的放大手势。
近来,已经提出具有手势基输入(基于手势的输入)能力的电子设备,其并不需要用户直接触摸设备的触摸敏感交互作用表面,因为使用相机检测用户在设备前面简单实现的手势,并且基于在设备内执行的图像分析,对这样的三维手势的性质进行分析。
通过基于交互作用模式的手势,在用户和电子设备之间可以实现更自然的交互作用方式,改进仍然是必要的,因为这样的电子设备的交互作用装置仍强制某种类型的交互作用模式,这种类型的交互作用模式可能不一定必然对应于与该设备进行交互作用的自然或直观的方式。
发明内容
因此,本发明的目的是提供一种方法,用于基于手势与设备交互作用,该手势更灵活并且允许交互作用模式适应更自然的交互作用方案。
这个目的使用根据权利要求1的方法实现。一种与设备交互作用以便给该设备提供输入的方法,其特征在于,所述交互作用基于与设备的至少一个触摸基交互作用(基于触摸的交互作用)和与设备的至少一个非触摸基交互作用(非触摸基交互作用)的组合,其中,一种类型的交互作用响应于另一种类型的交互作用影响由与该设备的交互作用产生的输入。因此,触摸基交互作用对设备根据交互作用执行的动作的影响变得依赖于另一种类型的交互作用,例如,如果非触摸基交互作用是不同的,那么相同类型的触摸基交互作用将导致由设备执行的两种不同的动作。从而,设备对具体交互作用的响应可以适用于特定环境,因而实现与设备的更灵活和更直观的交互作用。
在此上下文中,术语“触摸基(touch based)”涉及用户与设备之间的用户物理地触摸该设备的任何一种交互作用。触摸基交互作用可能涉及到触摸设备的预定区域、在设备的表面上滑动或通过简单地把持设备。触摸可以是单个触摸事件,例如,通过用户的手指或触笔,或多点触摸事件,在多点触摸事件中多于一个手指触摸该设备。
在这个上下文中,术语“非触摸基”涉及用户和设备之间的不需要用户和设备之间的物理触摸的任何一种交互作用。
在本发明的上下文中,术语“输入”涉及用户和设备之间的可以由设备识别以执行预定任务或动作的任何一种指令。
优选地,方法可以提供一种与设备的手势基交互作用,并且特征在于,交互作用基于没有触摸该设备的至少一个手势基交互作用和用户触摸该设备的至少一个触摸基交互作用的序列,其中一个交互作用的至少一个实现特征,特别是轨迹和/或速度和/或持续时间和/或压力,影响由与该设备的交互作用产生的输入。
在上下文中,术语“手势”涉及与设备的任何形式的非言语交互作用,其中可视身体动作传达特定消息。
因此,设备触摸交互作用,例如,实现在触摸敏感交互作用表面上的一维或二维手势,与非触摸基手势组合,非触摸基手势可以是由用户的手指、手或手臂执行的三维手势,使得用户在无需适应设备的情况下,用户可以在与设备交互作用时复制在现实世界中使用的动作。通过使用基于其他交互作用的特征的参数影响一个交互作用,交互作用变得更加灵活和同时更加直观。作为一个示例,对象拾起和置换动作可以通过抓取在设备的表面上的对象执行,因此触摸该设备,并且移动对象到在设备上的另一个位置,而不必为连续地触摸设备本身。因此,可以提高与设备的灵活性相关交互作用。在没有抓取动作的情况下,移动非触摸手势不会导致同样的结果。
根据变化,非触摸基交互作用,例如手势,和触摸基交互作用可以一个接着另一个地或交替地发生。这允许用户实现真正的生活模式,诸如上述的拾起和移动动作。
优选地,至少一个非触摸基交互作用,特别是手势,和至少一个触摸基交互作用在时间上至少部分地重叠。因此,与现有技术相比,可以在一个组合触摸基和非触摸基交互作用方案的情况下实现更复杂的交互作用模式。例如,在用户想要转动图示在显示屏上的对象的情况下,用户可以通过触摸该设备选择转动轴线,并且使用另一只手,实现轻击或轻拂的手势,指令围绕所需转动轴线的转动。
有利地,用户触摸该设备的交互作用能够发生在该设备的正面侧、背面侧或侧壁中的至少一个上。通过不将设备的交互作用敏感区域限制于正面侧(被定义为通常面向用户的侧面),因此用户在履行用户与设备的交互作用中,不是被迫通过这一侧面进行交互作用,而是可以自由地选择用户如何希望与设备交互作用。
有利的是,用户触摸该设备的交互作用可以激活基于按键的输入、基于计算机鼠标的输入、基于跟踪球或触摸或多点触摸的输入中的至少一种。一种或更多种交互作用技术的设置进一步增强交互作用模式的灵活性。
根据优选实施例,非触摸基手势可以使用一个或多个摄像头设备检测,摄像头设备合并在设备中和/或一个或多个远程控制单元中,远程控制单元包括加速度计、陀螺仪、超声波检测装置等的至少一个。这些元件允许以稳定和可靠的方式检测非触摸基手势。
超声波可以用来检测触摸基和非触摸基交互作用两者,但是,需要专用的检测装置和算法用于两种类型的交互作用。
有利的是,交互作用的序列可以包括:a)记录阶段,用于启动输入到设备,b)持续阶段,用于提供输入到设备,和c)终止阶段,用于确认到设备的输入。在记录阶段过程中,设备将通知用户,能够接收用户的输入,从而增加系统的用户友好性,而用户使用终止阶段,用于确认他的输入,从而可以防止到设备的虚假输入。
优选地,在步骤c)中,触摸基交互作用被用来确认在步骤b)中通过非触摸基交互作用提供的输入,特别是在没有触摸该设备的情况下由用户实现的手势。基于触摸确认交互作用提高防止由于无意的非触摸基交互作用的虚假输入,例如围绕设备的预定体积内的手势,在预定体积中非触摸基交互作用可以由设备检测。
有利的是,通过实现下面的一序列的步骤,该方法可以用于选择对象和提供与所选择的对象相关的指令到设备,前述一序列的步骤包括:d)使用触摸基交互作用,例如手势,选择对象,和e)基于非触摸基交互作用,例如手势,提供与所选择的对象相关的输入。像在现实生活中的情况下,用户因此应当触摸对象,以在提供输入之前选择对象,其在现实生活中可能更自然地执行。
上述方法特别有利于提供输入以将对象从第一位置移动到不同位置,包括一序列的手势:f)检测由用户在第一位置处触摸该设备提供的拧捏或挤压或转动手势,g)检测用户没有触摸该设备的平移手势,和h)检测在第二位置处或在第二位置上方通过触摸基手势或非触摸基手势的释放手势。例如,图标可以在屏幕上从第一位置移动到第二位置,或者甚至显示在屏幕上的对象可以被在屏幕上拾起和移动超出画面,到达屏幕以外的功能区域上。在识别对象落下的第二位置时,可以执行归因于画面外的功能区域的动作,例如打印、删除等。
在拧捏或挤压手势期间,设备的触摸基用户交互作用装置配置为识别两个或更多个对象,例如存在于交互作用表面上的彼此靠拢的指尖,而期间发生触摸的释放手势,对应相反运动。在转动手势的情况下,一个对象围绕第二不可移动对象转动,或者两个对象描述弯曲轨迹。对于由非触摸基用户交互作用装置检测的非触摸基手势,平移手势对应于期间坐标及时变化的手势。释放非触摸基手势对应于检测和识别诸如在相反的方向上彼此分开移动或转动的手指的至少两个元件。使用用于输入指令以在屏幕上移动对象到不同位置的本发明的方法,能够实现与设备的自然方式的交互作用。
根据另一个有利的使用,如上述那样的方法,可以包括以下步骤:i)检测触摸基交互作用,j)响应于触摸基交互作用,设置参数,k)同时检测非触摸基手势,和i)响应于非触摸基手势和参数设置,向该设备发出对应动作的指令。在该方法中,非触摸基手势和触摸基手势两者同时发生,其中,由触摸基手势设置的参数增强了指令输入模式的灵活性。例如,这种方法适合通过触摸设备限定转动轴线,而使用用户的另一只手的将挥击或轻击的手势将开始对象围绕所限定的轴线的转动。在上下文中,挥击,例如手势,涉及基本线性轨迹,其中,轻击的手势对应执行速度超过一定的阈值的挥击手势。到设备的指令输入对于挥击或轻击的手势可以是不同的。
通过根据权利要求11所述的用于提供手势基输入到设备的方法,本发明的目的也独立于上面已经描述过的方法获得。
根据权利要求11所述的方法是一种用于提供手势基输入到设备的方法,其优选地可以结合如上所述的任何一项方法,包括步骤:检测手势、分类手势和根据分类输入指令到设备,其中,指令依赖于手势的实现特征,特别是手势的轨迹和/或速度和/或持续时间,和独立于手势的具有至少一个参数的缩放尺寸。
优选地,参数可以是设备的参数和/或在设备的显示屏上存在的对象的参数和/或进行或实现手势的对象和设备之间的距离中的至少一个。
例如,手势的范围可以从较小到较大尺寸手势和/或较短和较长尺寸手势,依赖于在物理设备的大小和/或在设备的显示屏上的对象的大小两者。优选地,至少一个参数可以因而是设备或对象的一维、二维或三维尺寸。根据在设备的屏幕上示出的对象的大小,手势的缩放可以因此相应地调整。
优选地,手势的实现特性和至少一个参数之间的缩放可以是成正比的,以提供相同指令。因此,作为示例,为了从屏幕的一侧移动小的对象到另一侧,仅仅需要短的非触摸基手势,而对于较大的对象,为了实现相同的结果,通过作为较长的非触摸基手势,手势可以较大。作为另一个示例,用户使用他的靠近设备的手指实现小的手势(例如挥击),可以提供较大手势,例如,如果用户想要在从距离设备更远的位置执行手势时提供相同的输入,使用他的手挥击。
本发明的通过参数的手势缩放方法不局限于在设备的屏幕上示出的对象,而是可以被扩展到设备本身。在将非触摸基交互作用结合进入电子设备时,根据本发明的具体实施例的交互作用装置配置为考虑设备的物理尺寸以限定输入手势的缩放。因此,对于小的手持式设备,例如智能手机,或较大的设备,例如电子书,执行相同动作所需要的手势可以在尺寸上与设备的大小相适应。
根据优选的实施例,至少一个非触摸基交互作用可以基于环境参数,特别是与亮度、电场、磁场、电磁辐射、压力、温度、湿度、振动和/或地理坐标相关的环境参数。因此,不仅诸如3D手势的非触摸基手势,而且由设备的相应检测装置检测的环境参数,可以响应于触摸基交互作用影响由与设备的交互作用产生的输入。
例如,在检测装置识别到设备定位在黑暗中的情况下,与设备的任何非触摸基交互作用将在允许进一步输入之前导致照亮设备的屏幕或者键盘的背光;而在检测装置识别到设备定位在明亮环境中的情况下,到设备的同样输入可以引起不同的动作,例如,敲击按键将立即在屏幕上显示相应字母。
本发明还涉及一种计算机程序产品,包括一个或多个计算机可读介质,计算机可读介质具有计算机可执行指令,用于执行上述方法的步骤。
本发明的目的也可以使用包括配置用于执行如上所述的方法中的一个或组合的至少一个触摸基用户交互作用装置和至少一个非触摸基用户交互作用装置实现。设备能够实现用户和设备之间的更自然的交互作用,因此用户可以施加对应于现实生活动作的手势,诸如拾起和置换动作。
优选地,该设备可以包括:至少一个触摸基用户交互作用装置和至少一个非触摸基用户交互作用装置,其中,非触摸基用户交互作用装置配置为检测该设备周围的预定体积内的非触摸基交互作用,特别是手势;和至少一个反馈提供装置,配置为在对象,特别是用户的手部,进入所述预定体积时,输出第一视觉和/或声学输出。因此,用户将立即识别设备是否准备好接受输入,甚至在缺少触摸的情况下。
优选地,设备可以被配置为使得只在用户用另一只手触摸设备的预定区域的情况下提供第一反馈。因此,可以防止到设备的意外输入。
有利的是,所述反馈提供装置可以配置为在对象位于所述预定体积内和/或触摸所述设备时,输出第二视觉和/或声学和/或触觉输出,特别地第二输出不同于第一输出。因此,在记录阶段以后,在用户进入预定体积时,第二反馈输出通知用户,设备正在接受手势。这个阶段也被称为交互作用持续阶段。因此,用户友好性被进一步提高。
有利地,反馈提供装置可以进一步配置为只要触摸基用户交互作用和/或非触摸基用户交互作用装置检测到交互作用,特别是手势,就输出第二输出。因此,在任何时候,用户将被告知设备仍然在记录手势的事实。
根据有利的实施例,所述反馈提供装置可以配置为当交互作用终止时和/或当设备被关闭或置于空闲状态时,输出第三视觉和/或声学和/或触觉输出,特别地第三输出不同于第一和/或第二输出。因此,在交互作用成功终止时,用户从设备接收终止反馈信号。在对象离开设备周围的预定体积的情况下,也可能输出终止反馈。因此,用户会知道设备不再接受输入。
优选地,设备可以包括在其正面侧上的显示屏,并且在对象存在于设备的背面侧上的预定体积内的情况下,反馈提供装置配置成使得视觉指令提供在显示屏上。在这方面,正面侧是设备在正常使用中面对用户的侧面,而背面侧是设备的背离用户的相反侧。
因此,例如在设置在背面侧上的触敏交互作用装置上提供非触摸基手势或触摸基手势期间,试图通过交互作用通过设备的背面提供输入的用户,将知道在任何时间处,设备已经准备接受来自用户的输入。这进一步提高设备的用户友好性。
根据优选实施例,设备可以是手持式或便携式电子设备。示例是移动电话、智能手机、导航仪、电子书、音频和/或视频播放器、便携式电脑等。本发明特别有利于小型设备,其中交互作用区域是有限的,并且通常不大于200平方厘米。
附图说明
在下文中,将参照附图详细解释本发明的特定实施例的详细说明。
图1示出关于电子设备的本发明的第一实施例,包括触摸基用户交互作用装置和非触摸基用户交互作用装置。
图2a示意性示出根据第二和第三实施例的用于提供手势基输入到设备的方法。
图2b示出形成输入的子交互作用的序列,其中第一类型的交互作用由第二类型的交互作用确认,
图3示出利用用于提供手势基输入的本发明方法的第一实施例,
图4a-4c示出利用用于提供手势基输入到设备的本发明的方法的第二示例,
图5a示出关于根据参数的缩放手势的本发明的第四实施例,
图5b示出第四实施例的变体,
图6示出关于反馈机构的本发明的第五实施例,和
图7示出关于电子设备的本发明的第六实施例,该电子设备包括触摸基用户交互作用装置和环境性质检测装置。
具体实施例
图1示出根据本发明的第一实施例的设备。电子设备包括:第一触摸基用户交互作用装置3和第二非触摸基用户交互作用装置5。
根据各种实施例,触摸基用户交互作用装置3可以是基于键盘的交互作用装置、鼠标或基于拖动垫/拖动球的交互作用装置或触摸或基于触摸或多点触摸的触摸检测交互作用表面的任何一种。在具体实施例中,触摸基用户交互作用装置3优选地是多点触摸检测交互作用表面。在图1中,只有一个触摸敏感交互作用装置图3是可见的,但是,根据本发明的设备1的进一步的变体,设备1的壳体7的背面侧和/或壳体7的侧壁也可以包括另外的触摸基交互作用装置。触摸敏感交互作用装置3可以包括触摸屏或触摸板,利用例如电容、表面声波、声波脉冲识别或其它触摸技术,或者可以包括设备的壳体的能够实现触摸敏感的部分,诸如优选地,使用声音脉冲识别触摸技术。
在这个实施例中的非触摸基交互作用装置5是用户交互作用装置3旁边的摄像头。对于触摸基用户交互作用装置3,进一步的非触摸式交互作用装置可以呈现在壳体7的背面侧和/或侧壁上。
电子设备1可以是任何一种手持或便携式设备,诸如电话、智能手机、电子书、导航设备、音频和/或视频播放设备、个人计算机、游戏控制台等。然而,发明概念也可以结合到其它类型的电子设备。
诸如照相机的非触摸基用户交互作用装置5被配置为可以检测、分析和分类用户的手势,该手势由用户例如使用用户的手或手指在预定体积9(在这里示出为设备周围的球体1)内做出或实现。例如,图像分析设备设置在电子设备1内,分析由照相机5拍摄的图像,以识别用户的手或手指的运动,使得根据手势的性质,可以识别相应的输入模式,从而设备1内的处理单元可以接收来自非触摸基用户交互作用装置5的指令。手势的性质或手势实现特征可以包括空间或轨迹范围、持续时间、手指的相对运动等的任何一个或组合。
以类似方式,触摸基用户交互作用装置3配置为使得输入,例如在用户交互作用装置3上的手势,被检测、分析和分类以识别用户希望提供的相应的指令。
除了触摸基用户交互作用装置3,设备1可以包括在本领域中已知的附加部件,例如麦克风11、扬声器13、连接接口,例如用于充电和与其他设备15、17或按键甚至是完整的或有限制的键盘进行通信。此外,设备1可以包括无线通信设备。
在图1中,预定体积9已经显示为围绕设备的球体,非触摸基用户交互作用装置在预定体积9内能够识别用户手势。当然,这个预定体积9可以具有围绕设备1的任何形状。
代替使用照相机或摄像头作为交互作用装置5,可以使用能够识别的手势的任何其它合适的非触摸基用户交互作用装置,例如使用加速度计或陀螺仪或超声波检测装置等的遥控器。
与现有技术设备相比,在触摸基和非触摸基交互作用模式的组合的基础上,根据本发明的电子设备1允许用户提供输入到设备。这具有的优点在于,在与电子设备交互作用时,在现实世界中实行的手势在实现类似动作时可以被复制。因此,能够实现与设备进行交互作用的更加自然和直观的方式。这将根据本发明的实施例详细说明。
图2a示出关于提供输入到电子设备的方法的本发明的第二和第三实施例,诸如在图1中示出的电子设备1。
图2a的栏I和II涉及第二实施例,栏I至栏III涉及本发明的第三实施例。
栏I示出用户的动作,然而,栏II示出根据本发明的电子设备1的反应。
当用户使用他的手和/或手指和/或在他的手中携带的对象进入预定体积9(步骤21)时,非触摸基交互作用装置5将检测进入预定体积9的输入,并且提供相应的输出到电子设备1的处理单元(步骤23)。
在这个记录阶段以后,用户继续与设备1进行交互作用,并且提供输入25,该输入可以包括多个子手势27、29、31,其组合由非触摸基用户交互作用装置5检测到的非触摸基手势与由触摸基用户交互作用装置3检测到的例如手指在触摸检测界面上滑动的基于触摸的手势,以启动在电子设备1中的某些动作。在这个手势输入或持续阶段过程中,用户交互作用装置5和3在关于触摸基交互作用的步骤33中和关于非触摸基交互作用的步骤35中检测用户的手势或子-手势,和分析检测的数据以分类手势和/或子手势,以识别对应用户的交互作用模式的输入(步骤37)。已经识别相应动作,处理单元接收指令以执行希望的动作(步骤39)。
根据本发明,识别对应于用户的交互作用模式的动作的步骤取决于检测到的非触摸基交互作用35和检测到的触摸基交互作用33之间的关系36。事实上,取决于一种类型交互作用如何实现,归因于另一种类型的交互作用的输入将是合适的。
触摸基用户交互作用也可以涉及击打在设备1的壳体7上的按键。
当用户的手指或手或由用户携带的对象在步骤41中退出该预定体积9时,交互作用被终止,其由非触摸基用户交互作用装置5检测(步骤43)。
应当指出,根据一些实施例,用于确定进入的体积9的大小(步骤21,23)可以不同于用于确定退出的体积9的大小(步骤41,43)和/或根据一些实施例用户可配置。
因此,电子设备1被配置为使得一个接着另一个地或并行地进行的非触摸基和触摸基交互作用,可以被提供给设备1,使得两种类型交互作用相互影响。这允许在用户交互作用模式中更灵活,从而能够实现与设备的更自然、更直观交互作用方式。
除了相对于第二实施例已经描述的步骤以外,这些步骤也是第三实施例的部分,根据本发明的第三实施例,包括反馈机构。反馈机构示意性示出在栏III中,并且优选地在任何时间处,被配置为通知用户有关该设备1正在接受用户输入的事实。被配置为实现反馈机构的反馈提供装置可以并入如在图1中所示的设备中。反馈提供装置具有附图标记45并且表示在虚线中。
详细地,当对象进入预定体积9(步骤21和23)时,反馈提供装置45(参见在图1中的虚线中的附图标记45)配置为使得视觉和/或听觉反馈信号被输出。例如,扬声器13可以输出表示设备1已经检测到用户已经进入预定球体9的事实的信号。同时或作为一种替代,可视图标或信号、闪烁LED或类似物可以指令这种状态。因此,用户将知道,设备1已经识别到用户进入预定体积9,从而由用户提供的手势可以被设备检测和识别(步骤47)。
根据一种变化,在预定条件被满足的情况下,第一反馈输出47仅由电子设备提供。例如,仅在如果用户用另一只手把持设备并且按压指令用户输入是故意的某个按钮时提供反馈。代替地,触摸检测装置3也可以识别用户把持设备的事实。利用这个附加特征,可以防止意外的手势基输入到设备1。
接着,在持续阶段,反馈提供装置45被配置为使得由设备1输出(步骤49)通常不同于第一输出的第二视觉和/或声学信号。可以在预定体积9内执行手势的对象存在的过程中,或仅在识别手势的过程中,提供第二反馈输出49,使得用户在任何时间知道手势可以被输入,或当前设备已经检测到用户在预定体积9内实现或进行的移动。
在触摸基手势被输入的情况下,由反馈提供装置45提供的视觉和/或听觉反馈信号可以伴随有触感或由触感代替,诸如振动反馈信号,并再次通知用户设备当前正在检测输入(步骤49)。
最后,在完成输入时,并且在用户离开预定体积9时,反馈提供装置45被配置为输出第三信号,视觉和/或声学地,通知用户,现在他已经离开他可以提供输入到设备1的预定体积9。第三输出51优选地不同于第一和/或第二输出。
因此,在与该设备的交互作用的过程期间的任何时间处,用户知道有关设备1正在接受手势的事实、如手势的交互作用被检测以及他已经有意或无意地离开预定体积9的事实。
这个反馈提供机构45优选地与结合如同在设备1中所示的非触摸基交互作用装置5和触摸基交互作用装置3的设备一起实现,但是也可以在仅存在一种类型交互作用装置情况下发现其发明应用。
图2b示出输入提供交互作用53,包括根据在第二和第三实施例中使用并且在图2a中示出的输入25的变化的子交互作用55和57的序列。在这个示例中,交互作用55涉及非触摸基交互作用,如由用户提供的手势,并且交互作用57涉及在用户交互作用装置3上的触摸基交互作用,其再次可能还涉及到在设备1的键盘上的按键敲击。
为了防止意外输入到设备1,在图2a中图示的在步骤35中的分析步骤首先检查是否确认或终止动作59已经由用户提供,其中,终止动作59优选地对应于触摸基交互作用,触摸基交互作用可以在步骤33中被检测。终止动作59可以为例如设备1的壳体上的某个键,或交互作用装置3的简单触摸。
非触摸基手势55和额外地触摸基交互作用57被检测,随后,在已经由用户提供确认交互作用59的情况下,在步骤39中指令输入A,而在没有确认交互作用59时,在步骤39中指令输入B。
图3示出根据在图2a中示出并且可以使用如在图1中示出的电子设备1实现的第二或第三实施例的方法的第一发明性应用。
在本发明的实施例中,触摸基交互作用和非触摸基交互作用(在这里是手势)同时执行,以提供输入到电子设备1。鉴于用户在确定位置63处使用一只手61触摸设备1,其可以被电子设备1的触摸基用户交互作用装置检测,同时,不触摸设备1但是位于预定体积9内的用户的第二只手65执行手势(在这里是轻击或挥击动作67)。
在本实施例中,在设备1的壳体7的顶部上的位置63处的触摸基交互作用用于识别在设备1的屏幕71上示出的对象69的转动轴线73,其中,由第二只手65实现的轻击或挥击手势启动对象69的围绕轴线73的转动。通过将他的手定位在由图3中的虚线所示的位置75处,新的转动围绕轴线77可以被启动,因此,触摸基交互作用响应于非触摸基交互作用影响由设备执行的动作。
这个实施例仅示出的有利使用,与电子设备1的触摸基交互作用和非触摸基交互作用的组合以实现复杂输入模式的一个示例。但尽管如此,与设备的交互作用可以保持自然和直观。
图4a到4c示出根据第一实施例的设备和根据如在图1和图2中所示的本发明的第二或第三实施例的方法的第二发明性使用。图4a到4c示出在用户和设备1之间的交互作用,在交互作用期间,触摸基用户交互作用和非触摸基用户交互作用彼此跟随。
在已经进入预定体积9以后,通过进行拧捏或挤压(在此期间,两个或更多手指手势彼此靠拢,由箭头82表示),同时触摸该触摸基用户交互作用装置3,用户接近呈现在设备1的屏幕83上的对象81,已经检测到拧捏手势的触摸基用户交互作用装置3将指令电子设备1的处理单元选择对象81,例如文件的图标,并且等待关于所选择的对象81的进一步指令。作为代替,用户也可以执行转动手势以拾起对象81。
图4b示出根据方法的这个发明性使用的交互作用序列的第二步骤。在选择步骤以后,用户拾起对象81,同时保持他的手指在一起,并且移动远离交互作用表面,由箭头84表示,就像人们进行真正的提升对象。手势将继续,将拾起的对象81朝向在显示屏83上的第二位置85移动。在用户的手在体积9内移动期间,如关于图1示出和描述的非触摸基用户交互作用装置5将检测平移手势,例如通过分析多个随后图像,其中用户的手的位置从图像到图像变化,并且因而指令设备1的相应处理单元。在非触摸基平移手势期间,设备1可以被配置为在显示屏上一起显示用户的手的投影和对象。平移运动类似于在根据图3中示出的发明的第一使用中的挥击手势。然而,在这里,挥击手势由在接触阶段过程中执行的手势影响,使得相应动作导致重新定位,而不是如在根据本发明的第一实施例中的对象的转动。
然后,最后,为了重新定位对象81在第二位置85处,用户打开他的手指,由箭头86所示,以释放拾起的对象,如在图4c中示出,或以与拾起步骤相比相反的方式,进行转动手势。相应的手势可以是远离交互作用表面3但在预定体积9内的由非触摸基交互作用装置5检测的非触摸基手势,或在触摸基用户交互作用装置3上的基于触摸的释放手势。
在发明的方法的实际使用的这个示例中,在他想要拾起和置换对象时,用户在现实生活中通常进行的动作,可以相对于在图4a-4c中图示的对象81执行。因此,相比于用户被迫在屏幕上执行全部手势的交互作用方案,该交互作用更自然、更直观,从而更加用户友好。
代替从在显示屏83上的第一位置移动对象81到显示屏上的另一位置85,对象可以被移动超出显示区域之外的其它处,到达在设备1的壳体7上的功能区域。非触摸基用户交互作用装置5能够识别用户在哪里释放对象81,并且如果识别第二位置对应于功能区域,那么归因于触摸屏之外的这个功能区域的动作(例如打印文件、删除文件、通过网络发送的文件等)可以由处理单元启动。
如图4a-4C中图示的使用触摸基和非触摸基交互作用的序列(在这里是手势)的拾起和置换动作只是与电子设备交互作用的一个实际示例,在不背离本发明的范围情况下,组合触摸基和非触摸基手势的其他交互作用模式可以实现。
图5a图示本发明的第四实施例,其可以组合第一至第三实施例的任何一项。图5a的左侧图示较小的电子元件101,例如具有非触摸基交互作用装置103和预定空间或体积105的移动电话,在预定空间或体积105内,非触摸基交互作用装置103能够检测由用户提供的手势。在这个方面,非触摸基交互作用装置103能够与在设备5中使用和在图1中示出的设备1相当。
在图5a的右手侧上图示较大的电子设备111,例如,膝上型计算机或电子书。较大的电子设备111还包括非触摸基交互作用装置103,其与在较小的设备101中的相同。非触摸基交互作用装置103,接受在围绕较大的电子设备111的预定体积113内的用户手势。这里,预定体积113大于较小的设备的体积105。
根据本发明,取决于交互作用装置103是否被并入较小或较大的电子设备105和113,类似于执行预定任务(如从在屏幕107和115上的一个侧面A移动对象到另一个侧面B)所需手势的轨迹的大小和持续时间的参数,随着尺寸缩放,例如,设备101或111的宽度、对角线、表面面积或体积,以允许更直观的用户交互作用设备。因此,设备的尺寸越大,提供输入所需要的手势越大。
由用户在较大的设备中执行的手势117(在这里图示为到右侧的箭头)与在较小的设备的情况下执行的手势109相比较大。例如,为了在显示屏上从A到B移动对象,对于较小的设备101,手指挥击是足够的,而对于较大的设备111,为了将对象从位置A移动到位置B,可能需要使用整个手的挥击。
通过使用设备本身的物理参数缩放非触摸基手势的轨迹的尺寸和/或持续时间,可以实现基于缩放的自动适应。非触摸基用户交互作用装置的手势分析单元配置成适应其手势,分析为与例如设备的尺寸相关的预定参数的函数。
根据第四实施例的变化,手势可以不仅如在图5a中示出随着设备的物理尺寸缩放,而且也随着呈现在显示屏上的对象的尺寸缩放。这里,较大的对象121和较小的对象123图示在较大的电子设备111的屏幕115上。为移动较大的对象121,用户期望较大的手势是必要的,而对于较小的对象123,用户期望更小的手势。例如,在较小的对象的情况下,手指挥击就可能足够,而在较大的对象121的情况下,可能使用手挥击来实现相同结果。同样,手势分析单元还可以被配置为考虑在设备的显示屏上呈现的对象的参数。
图5b示出缩放(scaling)概念的变化。在此变化中,手势随着对象125(在这里是用户的手)距离设备1的距离缩放。在图5b的上部中,手125接近设备1。图的左侧部分显示手125在设备1的前面,右侧部分显示侧视图,图示手和设备1之间的距离127。在图5b的下部中,手125进一步远离(距离129)设备1,如可以从显示侧视图的图的右侧看出。
为了从位置133移动对象131到位置135并且返回,在第一种情况下,其中手125靠近设备1的手势可以通过如使用箭头137显示的只稍微地从右至左移动手指和返回来实现。为了在第二种情况下实现相同的运动,用户可以使用由箭头139指令的较大的手势轨迹来移动整个手125。
图6示出本发明的第五实施例,图示电子设备151,包括如在图1中图示的第一实施例中的触摸基交互作用装置3和非触摸基交互作用装置5,使得用户可以在触摸设备151时提供触摸基交互作用和/或在用户进入围绕电子设备151的预定体积153时提供非触摸基手势。在这里,设备151还包括在正面侧155上的显示屏157,这是设备的用户通常观看的侧面,其与触摸基交互作用装置3一起形成触摸检测屏幕。
设备进一步包括反馈提供装置159,具有第一实施例的反馈提供装置45的特征,其中另外地,根据本发明的第五实施例的反馈提供装置159配置为使得,在用户经由设备151的背面侧161提供触摸基或非触摸基交互作用的情况下(所述背面侧是与正面侧155相反的侧面,并且通常背离用户),视觉反馈163设置在显示屏157上。视觉反馈163用于指令从正面侧观看设备151的用户,可以通过设备151的背面侧161提供输入。
例如,显示在显示屏157上的反馈信号,可以表示在定位在设备151的背面侧161上时用户的手的指尖的投影在设备151的背面侧或正面侧表面上。在图6中,这由在显示屏157上的五个圆圈160显示。
这个实施例可以组合实施例1至4的任何一个。
图7示出本发明的第六实施例。图7图示设备171,设备171包括根据第一实施例的设备的元件和特征。具有先前也已经使用的相同附图标记的元件不再详细描述,但是通过参考在此并入。
除了触摸基用户交互作用装置3和非触摸基用户交互作用装置5以外,电子设备171还包括检测装置173,用于检测一个或多个环境参数作为第二类型非触摸基交互作用。这样的环境参数可能涉及到亮度、电场、磁场、电磁辐射、压力、温度、湿度、振动或地理坐标。
由检测装置173测量的参数(其因此未链接到设备的触摸基交互作用)也能响应于设置在交互作用装置3上的触摸基交互作用影响由设备171实现的动作。
例如,在检测装置识别设备定位在黑暗中的情况下,与设备的基于触摸和非触摸的任何交互作用将导致在允许进一步输入之前照明设备的屏幕或键盘的背光;然而,在检测装置识别该设备定位在明亮环境中的情况下,与设备的相同交互作用可以引起不同的输入,例如,击打按键立即在屏幕上显示相应字母。
如关于图1和图7描述的设备和方法的各种元件和特征可以单独地组合或彼此组合起来,以实现允许以自然或直观方式与用户交互作用的另外的发明设备或方法。

Claims (18)

1.一种与设备交互作用以便给该设备提供输入的方法,其特征在于,
所述交互作用基于与设备的至少一个触摸基交互作用和与设备的至少一个非触摸基交互作用的组合,
其中,一种类型的交互作用响应于另一种类型的交互作用影响由与该设备的交互作用产生的输入。
2.根据权利要求1所述的方法,其中,所述交互作用包括至少一个触摸基交互作用和没有触摸所述设备的至少一个手势基交互作用,
其中一个交互作用的至少一个实现特征,特别是轨迹和/或速度和/或持续时间和/或压力,影响由与该设备的交互作用产生的输入。
3.根据权利要求2所述的方法,其特征在于,触摸基交互作用,特别是手势,和非触摸基交互作用一个接着另一个地或者交替地发生。
4.根据权利要求2所述的方法,其特征在于,至少一个非触摸基交互作用,特别是手势,和至少一个触摸基交互作用在时间上至少部分地重叠。
5.根据权利要求1至4中任一项所述的方法,其中用户触摸该设备的交互作用能够发生在该设备的正面侧、背面侧或侧壁中的至少一个上。
6.根据权利要求1至5中任一项所述的方法,其中,交互作用的组合包括:
a.记录阶段,用于启动给该设备的输入,
b.持续阶段,用于提供输入到该设备,和
c.终止阶段,用于确认到该设备的输入。
7.根据权利要求6所述的方法,其中在步骤c)中,触摸基交互作用被用来确认在步骤b)中通过非触摸基交互作用提供的输入,特别是在没有触摸该设备的情况下由用户实现的手势。
8.根据权利要求1至7中任一项所述的方法,用于选择对象和提供与所选择的对象相关的指令到设备,包括以下序列的步骤:
d)使用触摸基交互作用,特别是触摸基手势,选择所述对象,
e)基于没有触摸该设备的手势基交互作用,提供与所选择的对象相关的指令。
9.根据权利要求1至8中任一项所述的方法,用于输入指令以在设备的屏幕上移动对象到不同位置,包括以下序列的手势基交互作用:
f)检测由用户在第一位置处触摸该设备提供的拧捏或挤压或转动类型手势,
g)检测用户没有触摸该设备的平移手势,
h)检测在第二位置处或在第二位置上方通过触摸基手势或非触摸基手势的释放手势。
10.根据权利要求1至9中任一项所述的方法,包括以下步骤:
i)检测触摸基交互作用,
j)响应于触摸基交互作用,设置参数
k)同时检测非触摸基手势,和
i)响应于非触摸基手势和参数设置,向该设备发出对应动作的指令。
11.一种用于提供手势基输入到设备的方法,特别是根据权利要求1至10中任一项所述的方法,包括步骤:检测手势、分类手势和根据分类输入指令到设备,
其中,指令依赖于手势的实现特征,特别是手势的轨迹和/或速度和/或持续时间,和独立于手势的具有至少一个参数的缩放尺寸。
12.根据权利要求1至11中任一项所述的方法,其中,至少一个非触摸基交互作用是基于环境参数,特别是与亮度、电场、磁场、电磁辐射、压力、温度、湿度、振动和/或地理坐标相关的环境参数。
13.一种计算机程序产品,包括一个或多个计算机可读介质,具有计算机可执行指令,用于执行权利要求1至12中任一项所述的方法的步骤。
14.一种包括至少一个触摸基用户交互作用装置和至少一个非触摸基用户交互作用装置的设备,该设备配置成用于执行根据权利要求1至12中任一项所述的方法。
15.一种设备,特别是根据权利要求14所述的设备,包括:
a.至少一个触摸基用户交互作用装置和至少一个非触摸基用户交互作用装置,其中,非触摸基用户交互作用装置配置为检测该设备周围的预定体积内的非触摸基交互作用,特别是手势;和
b.至少一个反馈提供装置,配置为在对象,特别是用户的手部,进入所述预定体积时,输出第一视觉和/或声学输出。
16.根据权利要求15所述的设备,其中所述反馈提供装置配置为在对象位于所述预定体积内和/或触摸所述设备时,输出第二视觉和/或声学和/或触觉输出,特别地第二输出不同于第一输出。
17.根据权利要求16所述的设备,其中,所述反馈提供装置配置为只要触摸基用户交互作用装置检测到交互作用和/或非触摸基用户交互作用装置检测到交互作用,特别是手势,就输出第二输出,和/或
其中,所述反馈提供装置配置为当交互作用和/或手势终止时和/或当设备被关闭或置于空闲状态时,输出第三视觉和/或声学和/或触觉输出,特别地第三视觉和/或声学和/或触觉输出不同于第一和/或第二输出。
18.根据权利要求15至17中任一项所述的设备,还包括在其正面侧上的显示屏,并且
其中,在对象存在于设备的背面侧上的预定体积内的情况下,所述反馈提供装置配置为使得视觉指示被提供在显示屏上。
CN201280002569.0A 2011-09-27 2012-09-27 用户与设备的基于触摸和非触摸的交互作用 Active CN103502923B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP11290442.0 2011-09-27
EP11290442.0A EP2575006B1 (en) 2011-09-27 2011-09-27 Touch and non touch based interaction of a user with a device
PCT/IB2012/002438 WO2013046046A2 (en) 2011-09-27 2012-09-27 Touch and non touch based interaction of a user with a device

Publications (2)

Publication Number Publication Date
CN103502923A true CN103502923A (zh) 2014-01-08
CN103502923B CN103502923B (zh) 2017-12-05

Family

ID=46970217

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280002569.0A Active CN103502923B (zh) 2011-09-27 2012-09-27 用户与设备的基于触摸和非触摸的交互作用

Country Status (5)

Country Link
US (1) US9448714B2 (zh)
EP (1) EP2575006B1 (zh)
JP (1) JP2013546066A (zh)
CN (1) CN103502923B (zh)
WO (1) WO2013046046A2 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104317432A (zh) * 2014-11-18 2015-01-28 浙江工业大学 无源平面接触的光学感应器
CN104360777A (zh) * 2014-11-18 2015-02-18 浙江工业大学 有源平面接触的光学感应器
CN104932800A (zh) * 2014-03-21 2015-09-23 朱江 一种互动装置
CN111724578A (zh) * 2019-03-21 2020-09-29 珠海格力电器股份有限公司 遥控设备和用于遥控设备的反馈方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8854335B2 (en) * 2012-03-22 2014-10-07 Eminent Electronic Technology Corp. Ltd. Electronic apparatus having touch sensing ability and non-touch sensing ability and control method thereof
JP2014241030A (ja) * 2013-06-11 2014-12-25 カシオ計算機株式会社 グラフ表示装置およびプログラムおよびサーバ装置
US10037081B2 (en) * 2013-08-12 2018-07-31 Immersion Corporation Systems and methods for haptic fiddling
US20150077345A1 (en) * 2013-09-16 2015-03-19 Microsoft Corporation Simultaneous Hover and Touch Interface
DE102014004675A1 (de) * 2014-03-31 2015-10-01 Audi Ag Gestenbewertungssystem, Verfahren zur Gestenbewertung und Fahrzeug
US20170097804A1 (en) * 2015-10-02 2017-04-06 Fred Collopy Visual music color control system
CN107229522A (zh) * 2017-06-05 2017-10-03 努比亚技术有限公司 移动终端文件处理方法、移动终端及计算机可读存储介质
CN110581793A (zh) * 2018-06-07 2019-12-17 深圳市声希科技有限公司 一种基于网络的点读笔用户管理系统
US10908745B2 (en) 2018-06-22 2021-02-02 The Florida International University Board Of Trustees Three dimensional touch conductive fabric
US10635895B2 (en) * 2018-06-27 2020-04-28 Facebook Technologies, Llc Gesture-based casting and manipulation of virtual content in artificial-reality environments
US10692299B2 (en) * 2018-07-31 2020-06-23 Splunk Inc. Precise manipulation of virtual object position in an extended reality environment
US10890653B2 (en) 2018-08-22 2021-01-12 Google Llc Radar-based gesture enhancement for voice interfaces
US10698603B2 (en) 2018-08-24 2020-06-30 Google Llc Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030048280A1 (en) * 2001-09-12 2003-03-13 Russell Ryan S. Interactive environment using computer vision and touchscreens
US20080246778A1 (en) * 2007-04-03 2008-10-09 Lg Electronics Inc. Controlling image and mobile terminal
US20090172606A1 (en) * 2007-12-31 2009-07-02 Motorola, Inc. Method and apparatus for two-handed computer user interface with gesture recognition
US20100050133A1 (en) * 2008-08-22 2010-02-25 Nishihara H Keith Compound Gesture Recognition
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US20110179368A1 (en) * 2010-01-19 2011-07-21 King Nicholas V 3D View Of File Structure

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5591945A (en) 1995-04-19 1997-01-07 Elo Touchsystems, Inc. Acoustic touch position sensor using higher order horizontally polarized shear wave propagation
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
JPH11338120A (ja) 1998-05-27 1999-12-10 Dainippon Screen Mfg Co Ltd レイアウト装置
CA2397703C (en) * 2001-08-15 2009-04-28 At&T Corp. Systems and methods for abstracting portions of information that is represented with finite-state devices
US6882337B2 (en) 2002-04-18 2005-04-19 Microsoft Corporation Virtual keyboard for touch-typing using audio feedback
JP4723799B2 (ja) 2003-07-08 2011-07-13 株式会社ソニー・コンピュータエンタテインメント 制御システムおよび制御方法
JP2006010489A (ja) 2004-06-25 2006-01-12 Matsushita Electric Ind Co Ltd 情報装置、情報入力方法およびプログラム
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
FR2874274B1 (fr) 2004-08-11 2007-07-20 Sensitive Object Procede pour localiser un impact sur une surface et dispositif pour la mise en oeuvre de ce procede
JP4273103B2 (ja) * 2005-08-24 2009-06-03 Necインフロンティア株式会社 アクセス認証システムおよびマウス装置、並びに、アクセス認証方法
JP2009042796A (ja) 2005-11-25 2009-02-26 Panasonic Corp ジェスチャー入力装置および方法
JP2009527041A (ja) 2006-02-16 2009-07-23 エフティーケー テクノロジーズ エルティーディー. コンピューティングシステムにデータを入力するシステム及び方法
US7877707B2 (en) 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
CN101286100A (zh) * 2007-04-10 2008-10-15 鸿富锦精密工业(深圳)有限公司 触摸屏的控制装置和控制方法
JPWO2008136064A1 (ja) * 2007-04-19 2010-07-29 株式会社ソニー・コンピュータエンタテインメント 操作デバイス、情報処理システム、表示装置及び情報処理方法
DE102007039669A1 (de) * 2007-08-22 2009-02-26 Navigon Ag Anzeigeeinrichtung mit Bildfläche
US20090167719A1 (en) * 2007-11-02 2009-07-02 Woolley Richard D Gesture commands performed in proximity but without making physical contact with a touchpad
US20090256809A1 (en) 2008-04-14 2009-10-15 Sony Ericsson Mobile Communications Ab Three-dimensional touch interface
WO2009128064A2 (en) 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
KR101505198B1 (ko) * 2008-08-18 2015-03-23 엘지전자 주식회사 휴대 단말기 및 그 구동 방법
TWI390437B (zh) 2008-11-18 2013-03-21 Htc Corp 用於一電容式觸控面板之指令執行方法
KR101544364B1 (ko) 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
US8633901B2 (en) 2009-01-30 2014-01-21 Blackberry Limited Handheld electronic device having a touchscreen and a method of using a touchscreen of a handheld electronic device
WO2010098050A1 (ja) 2009-02-25 2010-09-02 日本電気株式会社 電子機器のインターフェース、電子機器、並びに電子機器の操作方法、操作プログラム及び操作システム
JP5182202B2 (ja) 2009-04-14 2013-04-17 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2010257037A (ja) 2009-04-22 2010-11-11 Sony Corp 情報処理装置および方法、並びにプログラム
JP2010262557A (ja) 2009-05-11 2010-11-18 Sony Corp 情報処理装置および方法
US8466934B2 (en) * 2009-06-29 2013-06-18 Min Liang Tan Touchscreen interface
TW201112074A (en) 2009-09-30 2011-04-01 Higgstec Inc Touch gesture detecting method of a touch panel
JP5165661B2 (ja) 2009-10-09 2013-03-21 シャープ株式会社 制御装置、制御方法、制御プログラム、及び記録媒体
TW201128472A (en) 2010-02-08 2011-08-16 Flytech Technology Co Ltd A terminal apparatus and shock prompting method thereof
TWM404551U (en) 2010-11-17 2011-05-21 Taiwan Secom Co Ltd Infrared sensor camera device
EP2575007A1 (en) 2011-09-27 2013-04-03 Elo Touch Solutions, Inc. Scaling of gesture based input

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030048280A1 (en) * 2001-09-12 2003-03-13 Russell Ryan S. Interactive environment using computer vision and touchscreens
US20080246778A1 (en) * 2007-04-03 2008-10-09 Lg Electronics Inc. Controlling image and mobile terminal
US20090172606A1 (en) * 2007-12-31 2009-07-02 Motorola, Inc. Method and apparatus for two-handed computer user interface with gesture recognition
US20100050133A1 (en) * 2008-08-22 2010-02-25 Nishihara H Keith Compound Gesture Recognition
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US20110179368A1 (en) * 2010-01-19 2011-07-21 King Nicholas V 3D View Of File Structure

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104932800A (zh) * 2014-03-21 2015-09-23 朱江 一种互动装置
CN104317432A (zh) * 2014-11-18 2015-01-28 浙江工业大学 无源平面接触的光学感应器
CN104360777A (zh) * 2014-11-18 2015-02-18 浙江工业大学 有源平面接触的光学感应器
CN104360777B (zh) * 2014-11-18 2017-11-07 浙江工业大学 有源平面接触的光学感应器
CN111724578A (zh) * 2019-03-21 2020-09-29 珠海格力电器股份有限公司 遥控设备和用于遥控设备的反馈方法
CN111724578B (zh) * 2019-03-21 2022-03-15 珠海格力电器股份有限公司 遥控设备和用于遥控设备的反馈方法

Also Published As

Publication number Publication date
EP2575006B1 (en) 2018-06-13
JP2013546066A (ja) 2013-12-26
WO2013046046A2 (en) 2013-04-04
EP2575006A1 (en) 2013-04-03
WO2013046046A3 (en) 2013-09-12
CN103502923B (zh) 2017-12-05
US9448714B2 (en) 2016-09-20
US20140055386A1 (en) 2014-02-27

Similar Documents

Publication Publication Date Title
CN103502923A (zh) 用户与设备的基于触摸和非触摸的交互作用
CN103403661A (zh) 手势基输入的缩放
KR102194272B1 (ko) 제스처들을 이용한 터치 입력들의 향상
KR101872426B1 (ko) 깊이 기반 사용자 인터페이스 제스처 제어
US20190033994A1 (en) Method of executing functions of a terminal including pen recognition panel and terminal supporting the method
US9507507B2 (en) Information processing apparatus, information processing method and program
US9111076B2 (en) Mobile terminal and control method thereof
US20180292907A1 (en) Gesture control system and method for smart home
US20160048209A1 (en) Method and apparatus for controlling vibration
KR20070113025A (ko) 터치스크린 장치 및 이의 작동방법
US9170726B2 (en) Apparatus and method for providing GUI interacting according to recognized user approach
KR20140126129A (ko) 잠금 및 해제를 제어하는 장치 및 방법
US20110250929A1 (en) Cursor control device and apparatus having same
KR20140136803A (ko) 진동 제어 방법 및 장치
CN106909256A (zh) 屏幕控制方法及装置
KR20150043109A (ko) 오브젝트 디스플레이를 제어하는 전자 장치 및 방법
CN106325726B (zh) 触控互动方法
US20140362017A1 (en) Input device, input control method, and input control program
KR20150008963A (ko) 스크린을 제어하는 휴대 단말 및 방법
KR102194778B1 (ko) 공간상의 상호 작용을 이용한 단말의 제어 방법 및 그 단말
CN115729434A (zh) 一种写画内容显示方法以及相关设备
KR20200143346A (ko) 공간상의 상호 작용을 이용한 단말의 제어 방법 및 그 단말
TW201329793A (zh) 基於手勢之輸入之縮放

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: California, USA

Patentee after: Yiluo Touch Control System Co.

Address before: California, USA

Patentee before: Elo Touch Solutions, Inc.

CP02 Change in the address of a patent holder
CP02 Change in the address of a patent holder

Address after: Tennessee USA

Patentee after: Yiluo Touch Control System Co.

Address before: California, USA

Patentee before: Yiluo Touch Control System Co.