CN102725723B - 使用手势来跨多个多点触控设备传送对象 - Google Patents

使用手势来跨多个多点触控设备传送对象 Download PDF

Info

Publication number
CN102725723B
CN102725723B CN201080062070.XA CN201080062070A CN102725723B CN 102725723 B CN102725723 B CN 102725723B CN 201080062070 A CN201080062070 A CN 201080062070A CN 102725723 B CN102725723 B CN 102725723B
Authority
CN
China
Prior art keywords
gesture
equipment
user
destination
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201080062070.XA
Other languages
English (en)
Other versions
CN102725723A (zh
Inventor
文森特·彭
李康
宋伟强
吴松峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cisco Technology Inc
Original Assignee
Cisco Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cisco Technology Inc filed Critical Cisco Technology Inc
Publication of CN102725723A publication Critical patent/CN102725723A/zh
Application granted granted Critical
Publication of CN102725723B publication Critical patent/CN102725723B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
    • H04W4/21Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel for social networking applications

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

在一个示例实施例中,预定手势被用于提供在多点触控设备之间传送对象的直观方式。第一手势,诸如捏拿动作,被用于从源设备选择要传送的对象。第二手势,诸如松放动作,被用于指定对象在第二设备上的目的地。与传送的发起者相关联的数据,诸如表示指纹扫描的数据,可被采用来匹配源设备和目的地设备。

Description

使用手势来跨多个多点触控设备传送对象
技术领域
本公开一般涉及数据传送。
背景技术
当前,多点触控设备对于从一个多点触控(multi-touch)设备向另一多点触控设备传送对象具有有限的能力。例如,多点触控设备可能缺少准确地指定对象的目标目的地的能力。
发明内容
下面给出示例实施例的简化概述,以提供对示例实施例的某些方面的基本理解。此概述不是对示例实施例的详尽概述。既不是意在标识示例实施例的关键或重要元素,又不意在描绘所附权利要求的范围。其唯一目的是以简化形式给出示例实施例的某些概念,作为对后面给出的更详细描述的序言。
根据示例实施例,在此公开了一种装置,该装置包括:被配置为与目的地设备通信的收发机;可通信地耦合到收发机的用户界面;以及耦合到用户界面被配置为识别预定手势的逻辑。所述逻辑被配置为基于预定手势来确定要传送的对象。所述逻辑还被配置为将表示传送对象的用户的数据与对象进行关联。所述逻辑经由收发机发送广告对象被选择以供传送的消息。响应于目的地设备请求对象,对象被传送到目的地设备。
根据示例实施例,在此公开了一种装置,该装置包括:被配置为与源设备通信的收发机;可通信地耦合到收发机的用户界面;以及耦合到用户界面被配置为检测预定手势的逻辑。所述逻辑被配置为经由收发机接收表示要从源设备传送的对象的数据。所述逻辑被配置为基于预定手势确定存储对象的地方。所述逻辑还被配置为响应于识别预定手势而接收并存储来自源设备的对象。
根据示例实施例,在此公开了一种装置,该装置包括:被配置为与目的地设备通信的收发机;耦合到收发机的用户界面;以及耦合到用户界面被配置为识别预定手势的逻辑。所述逻辑被配置为基于预定手势确定要传送的对象。所述逻辑经由收发机接收来自目标设备的信号并且响应于来自目的地设备的信号将对象传送给目的地设备。
根据示例实施例,在此公开了一种装置,该装置包括:被配置为与源设备通信的收发机;耦合到收发机的用户界面;以及被配置为检测预定手势的逻辑。所述逻辑被配置为确定与预定手势相关联的标识符。所述逻辑还被配置为经由收发机发送指示已请求传送对象的信号。所述逻辑还被配置为基于预定手势确定存储对象的地方,并且经由收发机接收对象并存储对象。
根据示例实施例,在此公开了一种装置,该装置包括:被配置为与源多点触控设备和目的地多点触控设备通信的收发机;以及可通信地耦合到收发机并可进行操作以经由收发机发送和接收数据的逻辑。所述逻辑被配置为经由收发机接收来自源设备的包括表示要传送的对象的数据的第一信号。所述逻辑被配置为经由收发机接收来自目的地设备的包括指示对象的目的地的数据的第二信号。所述第一信号包括表示发送传送的用户的数据,并且所述第二信号包括表示与目的地多点触控设备相关联的用户的数据。所述逻辑设备响应于确定发起传送的用户与和目的地多点触控设备相关联的用户相匹配而开始从源多点触控设备向目的地多点触控设备的对象传送。
附图说明
在此结合的并且形成说明书的一部分的附图图示出示例实施例。
图1是图示根据示例实施例配置的多点触控设备的示例的简化框图;
图2是图示可实施示例实施例的用户界面的示例的简化框图;
图3是图示根据示例实施例的两个多点触控设备传送对象的示例的框图;
图4是图示根据示例实施例的两个多点触控设备采用服务器来传送对象的示例的框图;
图5图示源多点触控设备用于传送对象的方法,其中,源设备在检测到指示选择对象的预定手势时广播消息并且响应于被目的地设备联系而传送对象;
图6图示源多点触控设备用于传送对象的方法,其中,其中,源设备在检测到指示选择对象的预定手势时广播消息并且源设备的和手势相关联的用户数据与从目的地设备接收到的用户数据匹配;
图7图示源多点触控设备用于传送对象的方法,其中,源设备在检测到指示选择对象的预定手势时等待来自目的地设备的信号;
图8图示源多点触控设备用于传送对象的方法,其中,源设备在检测到指示选择对象的预定手势时等待来自目的地设备的信号并且将接收的来自目的地设备的用户数据与和预定手势相关联的用户数据进行匹配;
图9图示目的地多点触控设备采用的方法,其中,目的地多点触控设备接收来自源设备的关于对象传送的广播并且检测用于接收对象的预定手势。
图10图示目的地多点触控设备采用的方法,其中,目的地多点触控设备接收来自源设备的关于对象传送的广播并且检测用于接收对象的预定手势,并且判断和源设备的用户相关联的数据是否与和做出预定手势的用户相关联的数据匹配;
图11图示目的地多点触控设备用于传送对象的方法,其中,目的地设备在接收到用于接收对象的预定手势时广播消息;
图12图示目的地多点触控设备用于传送对象的方法,其中,目的地设备在接收到用于接收对象的预定手势时广播消息,其中,目的地设备将和预定手势相关联的用户与源设备进行匹配;
图13图示服务器用于在多点触控设备之间传送对象的方法;
图14图示可实施示例实施例的计算机系统;
图15图示用于采用捏拿/松放手势来从第一设备向第二设备传送对象的示例。
具体实施方式
本描述提供示例,并不意在限制所附权利要求的范围。图示一般性地示出示例的特征,应理解和认识到相同标号被用于指代相同元素。说明书中对“一个实施例”、“实施例”、“示例实施例”的提及意思是指所描述的特定特征、结构或特性被包括在此所描述的至少一个实施例中并且并非暗示该特征、结构或特性出现在在此所描述的所有实施例中。
在示例实施例中,在此描述一种采用预定手势来从一个设备向另一个设备传送数据(对象)的技术。例如,捏拿(pinching)手势可被用于从源设备选择要传送的对象,并且松放(de-pinching)手势可被用于选择目的地设备,并且可选地,选择目的地设备内的位置。作为另一示例,源设备的用户界面上的双击手势可被用于选择对象并且目的地设备的用户界面上的单击手势可指示将文件传送到的地方。在特定实施例中,可以采用不同手势来在复制对象和剪切并粘贴对象之间进行区分。虽然这里的许多示例实施例描述了无线实施方式,但是本领域技术人员将容易地认识到在此所描述的示例实施例的原理可应用于无线和/或有线的实施例。
在示例实施例中,诸如蓝牙(BLUETOOTH)之类的短程无线协议可按照如下实现多点触控设备之间的对象传送:
1.当用户向源设备的屏幕作出第一手势时(例如,在源设备的屏幕上进行捏拿时),源设备扫描用户的指纹(fingerprint)并识别屏幕上的位置并且找出与位置相关联的对象。
2.扫描到的指纹被识别并且源设备将潜在对象传送通知与设备信息一起广播给附近的设备。
3.当附近的设备接收到潜在对象传送通知时,他们将其与时间戳一起保存。在预先配置的时段之后,此通知被丢弃。
4.当目的地设备检测到第二预定手势时(例如,当被捏拿的对象被放置在目的地设备的用户界面上时),目的地设备扫描放置指纹并识别用户。
5.目的地设备响应于检测到第二预定手势而联系源设备并且提供设备信息。
6.源设备响应于接收到来自目的地设备的通信而将扫描到的指纹传送给目的地设备。
7.目的地设备接收来自源设备的扫描到的指纹并且将来自源的扫描到的指纹与放置指纹进行比较。
8.如果指纹匹配,则目的地设备通知源设备,从而发起对象的传送。
注意,在此交换中,指纹被用于验证同一用户捏拿和放置对象。然而,有许多其他方式可用于识别所述放置的源。例如,触笔、棒或具有相关联的标识符的任何设备可被用来匹配源设备和目的地设备。此外,注意,在特定实施例中,指纹可被用于对源和目的地设备的对象传送进行认证和授权。
通过示例来说明在此所描述的示例实施例如何能够促进通信,在CISCOTELEPRESENCE(可从170WestTasmanDrive,SanJose,CA95134的思科系统公司获得)呼叫期间,第一用户被要求向与其他用户一起正远程地参与呼叫的第二用户提供文档。第一用户使用第一手势从其移动电话选择一文件并且使用第二手势将该文件放置在显示第二用户的图像的远程呈现画面上。通过将文件放置在第二用户的图像上,第一用户被确保该文件不会无意地被发送到参与呼叫的其他用户。
作为另一示例,一起参与某项目的两个用户具有彼此相近的膝上型电脑。第二用户需要来自第一用户的膝上型电脑的存储在/bin/proj/Kang文件夹中的某文件并且希望将其存储在第二用户的膝上型电脑中的/bin/proj/Aaron文件夹中。第二用户经由第一用户的膝上型电脑的用户界面检测到的第一用户而发起传送,并且利用第二用户的膝上型电脑的用户界面检测到的第二手势而结束传送。
作为另一示例,在会议中,第一用户向坐在其附近的第二用户请求某文件。第二用户利用指向第二用户的计算机的第一手势(例如,捏拿手势)发起传送,并且利用第二手势(例如,松放手势)将文件放置到第一用户的计算机上。
作为又一示例,第一用户和第二用户正在第一用户的办公室中讨论客户情况。在第二用户讲话后,第一用户决定呼叫该客户。因为第一用户的客户信息被存储在与第一用户相关联的移动电话中的联系人列表中,所以第一用户使用第一手势(捏拿)来从移动电话检索联系人信息并且使用第二手势(松放)来将联系人信息传送到互联网协议(IP)办公室电话。该IP电话被配置为当接收到此联系人信息时自动发起呼叫。
现在回到图1,图1图示出可实施示例实施例的多点触控设备100的示例。装置100包括用户界面102,用户界面102可通信地耦合到收发机104。用户界面102被配置为检测至少一个预定手势。依赖于检测到的手势,用户界面102可经由收发机104与目的地设备通信以传送对象,或用户界面可发起经由收发机接收来自源设备的对象。收发机104可以是被配置为与其他设备通信的有线的或无线的收发机。如在此所使用的传送对象可指将对象(或数据)从一个设备复制到另一设备,或将对象从一个设备移动到另一设备(例如,类似剪切-粘贴行为)。
用户界面102还可包括和/或被耦合到用于执行在此所描述的功能的逻辑(未示出,参见图2的配置有逻辑的用户界面的示例)。在此所使用的“逻辑”包括但不限于用于执行(一个或多个)功能或(一个或多个动作)和/或引起来自另一组件的功能或动作的硬件、固件、软件和/或组合。例如,基于所希望的应用或需求,逻辑可包括软件控制的微处理器、诸如专用集成电路(ASIC)的离散逻辑、可编程/被编程的逻辑设备、包含指令的存储器设备等,或者包含在硬件中的组合逻辑。逻辑还可全部作为软件被包含在非易失性、易失性介质上,当被处理器运行时执行所描述的功能。逻辑可适当地包括被配置为执行一个或多个功能的一个或多个模块。
在一个示例实施例中,用户界面102被配置为基于预定手势来确定要传送的对象。手势可以是捏拿手势、抓握手势、与用户设备相关联的预定行为(例如,在指向用户界面上显示的某对象的同时按压触笔上的按钮)或者任何适当的预定手势。在辨认出手势后,用户界面102中的逻辑确定手势指向用户界面上的位置,以确定被选择的对象。用户界面102中的逻辑被配置为经由收发机104发送广告对象被选择以供传送的消息。
在一个示例实施例中,耦合到用户界面102的逻辑被配置为响应于经由收发机104接收到来自请求对象的目的地设备的信号,经由收发机104将对象传送给目的地设备。在一个示例实施例中,用户界面在检测到预定手势后扫描传送对象的用户的指纹。耦合到用户界面102的逻辑可将表示扫描的指纹的数据发送给目的地设备,这使得目的地能够判定在目的地设备处做出预定手势(可以是第二手势)的相同用户是否是做出在用户界面102处检测到的手势的同一用户。在另一示例实施例中,耦合到用户界面102的逻辑接收来自潜在目的地设备的指纹数据并且从此来自潜在目的地设备的指纹数据判断在潜在目的地设备扫描的指纹是否与在用户界面102处扫描的指纹相匹配,并且如果匹配的话,则对象被传送。在特定实施例中,指纹数据还可不被用于验证用户被授权传送对象。
在一个示例实施例中,耦合到用户界面102的逻辑接收标识目的地设备的数据。例如,此数据可包括媒体访问控制(MAC地址,这使得逻辑能够经由单点传输来发送对象。在特定实施例中,源设备和目的地设备可交换键控数据以确保对象的传送。
在一个示例实施例中,诸如触笔之类的具有标识符的设备被采用来选择对象。耦合到用户界面102的逻辑可在广告消息中发送对于设备的标识符。这使得目的地设备能够判定在目的地设备处做出预定手势的同一设备是否是在用户界面102处被用于选择对象的同一设备。
在一个示例实施例中,装置100被配置为接收来自源设备的对象。耦合到用户界面102的逻辑基于预定手势确定存储对象的地方。用户界面102可被配置为允许用户采用手势进行导航和选择对象的目的地(例如,目录或子目录)。
在一个示例实施例中,耦合到用户界面102的逻辑在前面接收的指示对象被选择以供传送的广播消息中进行搜索。如果广播包含诸如指纹之类的用户标识数据,则耦合到用户界面102的逻辑可将所接收的用户标识数据与和预定手势相关联的用户标识数据进行匹配,以识别传送的正确源。在另一示例实施例中,耦合到用户界面102的逻辑经由收发机104将用户标识数据发送给前面接收的广播消息的源,以使得源能够确定正确的目的地设备。
在一个示例实施例中,耦合到用户界面102的逻辑经由收发机104发送指示已接收到用于接收对象的请求的广播消息,并且等待对象的一个或多个潜在源进行响应。在特定实施例中,此广播消息可包括用于帮助源设备匹配的用户标识数据。在一个示例实施例中,源设备可判定是否有匹配,然而,在另一示例实施例中,目的地设备判定是否有匹配,并且在又一实施例中,源设备和目的地设备二者都可判定是否有匹配。
当判定对象的正确源之后,耦合到用户界面102的逻辑被配置为经由收发机104接收对象。耦合到用户界面102的逻辑还被配置为将对象存储在经由用户界面102选择的目的地处。
图2是图示可实现一个示例实施例的用户界面200的示例的简化框图。用户界面200适合于执行此处在上面所描述的用户界面102(图1)的功能性。用户界面200包括用于提供表示对象的数据的显示屏202.例如,显示屏202可显示表示对象或文本引用(textualreference)的图标。传感器204检测手势。在一个示例实施例中,传感器204为光学传感器。在特定实施例中,传感器204被配置为获取与做出手势的用户相关联的数据,例如,指纹数据,或者标识用户正用于选择对象的设备的数据,或者与显示屏202接收的指示对象的目的地的手势的位置。
处理逻辑206提供供显示屏202显示的数据。处理逻辑显示屏202还从显示屏202所观察到的预定手势来确定手势指向显示屏202上的位置。在处理逻辑206确定预定手势为指示对象被选择以供传送的情况中,处理逻辑206可从与传感器204检测到的手势相关联的坐标确定哪个对象被选择。如果处理逻辑206确定预定手势指示用于对象传送的目的地,则处理逻辑206可从与手势相关联的坐标确定将对象放置的适当地方。
处理逻辑206可经由诸如无线收发机之类的接口发送和接收数据,以与其他多点触控设备通信。在一个示例实施例中,处理逻辑206被配置为对对象的源和对象的目的地进行匹配。处理逻辑206可采用与用户相关联的数据(诸如指纹数据)来进行匹配。
在一个示例实施例中,处理逻辑206被包含在用户界面200中。在另一个示例实施例中,处理逻辑206在用户界面200外部但是被耦合到显示屏202和传感器204。在又一示例实施例中,处理逻辑可包含在多个位置中,例如,逻辑中的一些可被包含在用户界面内并且逻辑中的一些可在用户界面外部。
图3是图示根据示例实施例的两个多点触控设备302、304传送对象的示例的框图。该示例图示无线设备之间的传送,然而,在此所描述的相同原理可被应用于通过无线连接和/或有线和无线连接的组合而耦合的两个设备。
多点触控设备302包括用户界面312。对象322被显示在用户界面322上的预定坐标处。在本示例中,多点触控设备302是传送的源。
多点触控设备304包括用户界面314。用户界面314上的位置324指示用户界面314上的被选择用于传送对象的位置。在本示例中,多点触控设备304是传送的目的地。
在一个示例实施例中,多点触控设备302、304采用多点触控设备100(图1)的示例实施例的配置。在特定实施例中,用户界面312、314被配置为像所描述的用户界面102(图1)和/或用户界面200(图2)那样作用。
根据一个示例实施例,用户界面312检测第一预定手势并且辨认出第一预定手势指示对象(在本示例中为对象322)被选择以供传送到另一设备(在本示例中为另一多点触控设备304)。用户界面314检测第二预定手势并且辨认出第二预定手势指示本传送到多点触控设备304的对象的目的地。存储对象的地方根据用户界面314上的位置324被确定。
在一个示例实施例中,多点触控设备302响应于检测到对象322被选择而发送广播消息。目的地多点触控设备304可进行操作以将来自广播消息的数据存储预定时段。多点触控设备304在检测到第二预定手势时与多点触控设备302通信。在一个示例实施例中,多点触控设备302判定多点触控设备304是否是正确目的地。在另一示例实施例中,多点触控设备304判定多点触控设备304是否是正确目的地。在又一示例实施例中,多点触控设备302、04二者判定多点触控设备304是否是正确目的地。
在特定实施例中,广播消息可包括表示做出传送的用户的数据。例如,广播消息可包括指纹数据。多点触控设备304在检测到第二预定手势时可获得表示选择传送目的地的用户的数据以判定其是否与做出多点触控设备302检测到的第一预定手势的用户是相同用户。在另一示例实施例中,多点触控设备302响应于接收到响应于多点触控设备304检测到第二预定手势而来自多点触控设备304的信号,将表示用户的数据发送给多点触控设备304。在又一示例实施例中,多点触控设备304将表示与第二预定手势相关联的用户的数据发送给多点触控设备302,以使得多点触控设备302能够判定在多点触控设备304处做出第二预定手势的用户是否是与在多点触控设备302处做出第一预定手势的用户是同一用户。如果在多点触控设备302处做出第一预定手势的用于与在多点触控设备304处做出第二预定手势的用户相匹配,则对象被传送。
在一个示例实施例中,多点触控设备304响应于检测到第二预定手势发送广播消息。在本实施例中,多点触控设备302对304发送的广播进行响应。在一个示例实施例中,多点触控设备302判定多点触控设备304是否是正确目的地。在另一示例实施例中多点触控设备304判定多点触控设备304是否是正确目的地。在又一示例实施例中,多点触控设备302、304二者判定多点触控设备304是否是正确目的地。
在特定实施例中,广播消息包括做出传送的用户的数据。例如,广播消息可包括指纹数据。多点触控设备304在检测到第二预定手势时可获得表示选择传送目的地的用户的数据,以判定其与多点触控设备302检测到的做出第一预定手势的用户是否是同一用户。在另一实施例中,多点触控设备302响应于接收到来自多点触控设备304的信号将表示用户的数据发送给多点触控设备304。在又一示例实施例中,多点触控设备304将表示与第二预定手势相关联的用户的数据发送给多点触控设备302,以使得多点触控设备302能够判定在多点触控设备304处做出第二预定手势的用户与在多点触控设备302处做出第一预定手势的用户是否是同一用户。如果在多点触控设备302处做出第一预定手势的用户与在多点触控设备304处做出第二预定手势的用户相匹配,则对象被传送。
图4是图示根据示例实施例的两个多点触控设备402、404采用服务器来传送对象的示例的框图。在所图示的实施例中,多点触控设备402、404采用网络406与服务器408通信;然而,本领域技术人员应容易认识到多点触控设备402、404可采用任何适当的手段来与服务器408通信。
在一个示例实施例中,服务器408包括:被配置为与源多点触控设备和目的地多点触控设备通信的收发机;以及可通信地与收发机耦合并且可进行操作以经由收发机发送和接收数据的逻辑。服务器408被配置为接收来自多点触控设备402(源设备)的包括表示要传送的对象的数据的第一信号。服务器408还被配置为接收来自多点触控设备404(目的地设备)的包括指示对象的目的地的数据的第二信号。服务器408进行对象从(源)多点触控设备402向(目的地)多点触控设备404的传送。
在一个示例实施例中,第一信号包括表示在多点触控设备402上发起传送的用户的数据,并且第二信号包括与多点触控设备404相关联的用户的数据。服务器408被配置为响应于多点触控设备402处发起传送的用户与和多点触控设备404相关联的用户相匹配来进行对象传送。
在一个示例实施例中,服务器408被配置为存储表示对象传送的数据预定时间间隔。服务器408响应于在预定时段内未接收到来自目的地多点触控设备的请求而丢弃表示要传送的对象的数据。例如,如果接收到来自多点触控设备404的发起传送的请求并且在预定时段内未接收到指示将所传送的对象存储在哪里的相应信号,则服务器408将丢弃请求。
在一个示例实施例中,表示指纹的数据与多点触控设备402处发起传送的用户相关联,并且表示指纹的数据与和(目的地)多点触控设备404相关联的用户相关联。服务器408响应于判定多点触控设备402处发起传送的用户与和多点触控设备404相关联的用户相匹配而执行传送。
鉴于前面如上所述的结果和功能特征,参考图5-13将会更好地理解根据示例实施例的方法。虽然为了说明简要的目的,图5-13的方法被示出并被描述为按顺序执行,但是应理解和认识到示例实施例不受所图示的顺序的限制,因为所示和所描述的某些方面可以以不同顺序出现和/或与其他方面同时出现。而且,实施在此所述的方法并不一定要求全部所图示的特征。在此所述的方法适合于以硬件、软件或其组合的形式实现。例如,在图5-12中所图示的方法可通过与用户界面102(图1)相关联的逻辑、处理逻辑206(图2)、多点触控设备302、304(图3)和/或多点触控设备402、404(图4)来实施。图13中所示的方法可通过服务器408(图4)来实施。
图5图示源多点触控设备用来传送对象的方法500,其中,源设备在检测到指示选择对象的预定手势时广播消息并且响应于被目的地设备联系而传送对象。在502处,与该多点触控设备相关联的用户界面检测预定手势。预定手势可以是任何适当的手势,例如,捏拿或抓握手势,或者使用诸如触笔之类的设备进行选择。
在504处,从预定手势确定用户界面上的位置。从该位置,可确定出正被传送的对象。
在506处,识别用户。在一个示例实施例中,在用户做出预定手势时,其指纹被扫描,例如,如果用户正在做出捏拿手势,则可获得拇指和食指的部分指纹扫描。
在508处,该设备发送指示已经发起对象传送的广播/多播消息。在无线环境中,该消息可被广播到预定范围内的其他无线设备。在有线环境中,该消息可被广播到局域网(LAN)中,LAN也包括无线设备。在一个示例实施例中,该广播消息包括表示与预定手势相关联的用户的数据,诸如指纹数据。在另一实施例中,该数据可单独被发送,如在512处所示。
在510处,接收对广播的响应。该相应可包括目的地设备的设备信息。
在方法500中所示的实施例中,目的地设备与用户数据匹配以确定是否传送对象。在514处,接收到来自目的地设备的传送对象的请求。在516处,对象被传送。
图6图示源多点触控设备用于传送对象的方法,其中,源设备在检测到指示选择对象的预定手势时广播消息并且源设备的和手势相关联的用户数据与从目的地设备接收到的用户数据匹配。在602处,与该多点触控设备相关联的用户界面检测预定手势。预定手势可以是任何适当的手势,例如,捏拿或抓握手势,或者使用诸如触笔之类的设备进行选择。
在604处,从预定手势确定用户界面上的位置。从该位置,可确定出正被传送的对象。
在606处,识别用户。在一个示例实施例中,在用户做出预定手势时,其指纹被扫描,例如,如果用户正在做出捏拿手势,则可获得拇指和食指的部分指纹扫描。
在608处,该设备发送指示已经发起对象传送的广播/多播消息。在无线环境中,该消息可被广播到预定范围内的其他无线设备。在有线环境中,该消息可被广播到局域网(LAN)中,LAN也包括无线设备。
在610处,接收对广播的响应。该相应可包括目的地设备的设备信息。在特定实施例中,该响应包括表示与目的地设备相关联的用户的数据。
在612处,源设备判定在响应中接收到的用户数据是否与在606处获得的用户数据匹配。如果用户数据匹配(是),在614处,对象被传送。如果用户数据不匹配(否),则对象不传送,如在616处所指示。
图7图示源多点触控设备用于传送对象的方法,其中,源设备在检测到指示选择对象的预定手势时等待来自目的地设备的信号。与图6和图7中所示的实施例不同,源设备不发送广播消息。源设备将表示对象的数据(可选地,还有表示用户的数据)存储,并且等待来自目标(目的地)设备的信号。
在702处,与该多点触控设备相关联的用户界面检测预定手势。预定手势可以是任何适当的手势,例如,捏拿或抓握手势,或者使用诸如触笔之类的设备进行选择。
在704处,从预定手势确定用户界面上的位置。从该位置,可确定出正被传送的对象。
在706处,识别用户。在一个示例实施例中,在用户做出预定手势时,其指纹被扫描,例如,如果用户正在做出捏拿手势,则可获得拇指和食指的部分指纹扫描。
在708处,接收来自潜在目的地设备的广播信号。在710处,在接收到广播信号后,用户数据被发送到潜在目的地设备。在本实施例中,目的地地设备判定对象是否要传送。例如,目的地设备可将诸如指纹扫描数据之类的用户数据进行比较,并且判定在二者设备中做出预定手势的是否是同一用户。如果用户数据匹配,则目的地设备请求对象。
在712处,来自请求对象的目的地设备的信号被接收。在714处,作为响应,对象被传送。
图8图示源多点触控设备用于传送对象的方法,其中,源设备在检测到指示选择对象的预定手势时等待来自目的地设备的信号。源设备接收来自目的地设备的用户数据并且判定来自目的地设备的用户数据是否与和预定手势相关联的用户手势匹配。
在802处,与该多点触控设备相关联的用户界面检测预定手势。预定手势可以是任何适当的手势,例如,捏拿或抓握手势,或者使用诸如触笔之类的设备进行选择。
在804处,从预定手势确定用户界面上的位置。从该位置,可确定出正被传送的对象。
在806处,识别用户。在一个示例实施例中,在用户做出预定手势时,其指纹被扫描,例如,如果用户正在做出捏拿手势,则可获得拇指和食指的部分指纹扫描。
在808处,接收来自潜在目的地设备的广播信号。在一个示例实施例中,此广播信号可包括表示与潜在目的地设备相关联的用户的数据。在另一示例实施例中,源设备响应于接收到此广播而发送对用户数据的请求并且等待来自潜在目的地设备的用户数据。
在810处,源设备判定从潜在目的地设备接收的用户数据是否与和源设备检测到的预定手势相关联的用户数据相匹配。如果用户数据匹配(是),则在812处,对象被传送。如果用户数据不匹配(否),则对象不传送,如在814处所指示。
图9图示目的地多点触控设备采用的方法,其中,目的地多点触控设备接收来自源设备的关于对象传送的广播并且检测用于接收对象的预定手势。在902处,目的地多点触控设备接收来自源多点触控设备的包括表示要被传送的对象的数据的广播信号。所述数据可包括与源设备处发起传送的用户相关联的数据,诸如指纹数据或者标识被用于选择对象的设备的数据。
在904处,目的地设备检测预定手势。任何适当手势可被采用。例如,此预定手势可包括松房手势、掷投手势和/或利用设备的预定手势,例如推动触笔上的“粘贴”按钮。
在906处,从预定手势确定用户界面上的位置。从此位置,可确定正被传送的对象的目的地。在一个示例实施例中,用户可使用另外的手势,诸如点选和/或敲击画面,来导航目的地设备并选择用于存储对象的位置。
在908处,识别用户。在一个实施例中,在用户做出预定手势的同时,其指纹被扫描,例如如果用户正在做出送放手势,则可获得拇指和食指的部分指纹扫描。
在910处,目的地设备联系源设备。目的地设备可提供寻址地址,以便数据发送给该目的地设备。另外,目的地设备可发送与做出手势的用户相关联的数据,以使得源设备能够判定是否有匹配。
在912处,从源设备接收到对象。对象被存储在根据预定手势所确定的位置中。
图10图示目的地多点触控设备采用的方法,其中,目的地多点触控设备接收来自源设备的关于对象传送的广播并且检测用于接收对象的预定手势,并且判断和源设备的用户相关联的数据是否与和做出预定手势的用户相关联的数据匹配。
在1002处,目的地多点触控设备接收来自源多点触控设备的包括表示要被传送的对象的数据的广播信号。所述数据可包括与源设备处发起传送的用户相关联的数据,诸如指纹数据或者标识被用于选择对象的设备的数据。
在1004处,目的地设备检测预定手势。任何适当手势可被采用。例如,此预定手势可包括松房手势、掷投手势和/或利用设备的预定手势,例如推动触笔上的“粘贴”按钮。
在1006处,从预定手势确定用户界面上的位置。从此位置,可确定正被传送的对象的目的地。在一个示例实施例中,用户可使用另外的手势,诸如点选和/或敲击画面,来导航目的地设备并选择用于存储对象的位置。
在1008处,识别用户。在一个实施例中,在用户做出预定手势的同时,其指纹被扫描,例如如果用户正在做出送放手势,则可获得拇指和食指的部分指纹扫描。
在1010处,目的地设备判定从源设备接收的数据是否与和预定手势相关联的用户数据(例如,在1008处所获得用户数据)相匹配。如果用户数据匹配(是),则在1014处,对象被传送。如果用户数据不匹配(否),则对象不传送,如在1016处所指示。
图11图示目的地多点触控设备用于传送对象的方法,其中,目的地设备在接收到用于接收对象的预定手势时广播消息。在本实施例中,目的地设备等待潜在源设备联系他。如果源设备不在预定时间间隔内连续目的地设备,则传送被中断。
在1102处,目的地设备检测预定手势。任何适当手势可被采用。例如,此预定手势可包括松房手势、掷投手势和/或利用设备的预定手势,例如推动触笔上的“粘贴”按钮。
在1104处,从预定手势确定用户界面上的位置。从此位置,可确定正被传送的对象的目的地。在一个示例实施例中,用户可使用另外的手势,诸如点选和/或敲击画面,来导航目的地设备并选择用于存储对象的位置。
在1106处,识别用户。在一个实施例中,在用户做出预定手势的同时,其指纹被扫描,例如如果用户正在做出送放手势,则可获得拇指和食指的部分指纹扫描。
在1108处,目的地设备发送包括表示要传送的对象的数据的广播信号。所述数据可包括与源设备处发起传送的用户相关联的数据,诸如指纹数据或标识被用于选择对象的设备的数据。在一个示例实施例中,用户数据被单独地发送,如1112处所指示。
在1110处,目的地设备接收来自源设备的信号。在本实施例中,源设备判断在目的地设备处被选择用于传送的对象是否与源设备处所选择的对象匹配。
在1114处,从源设备接收对象。对象被存储在根据预定手势所确定的位置中。
图12图示目的地多点触控设备用于传送对象的方法,其中,目的地设备在接收到用于接收对象的预定手势时广播消息,其中,目的地设备将和预定手势相关联的用户与源设备进行匹配。
在1202处,目的地设备检测预定手势。任何适当手势可被采用。例如,此预定手势可包括松房手势、掷投手势和/或利用设备的预定手势,例如推动触笔上的“粘贴”按钮。
在1204处,从预定手势确定用户界面上的位置。从此位置,可确定正被传送的对象的目的地。在一个示例实施例中,用户可使用另外的手势,诸如点选和/或敲击画面,来导航目的地设备并选择用于存储对象的位置。
在1206处,识别用户。在一个实施例中,在用户做出预定手势的同时,其指纹被扫描,例如如果用户正在做出送放手势,则可获得拇指和食指的部分指纹扫描。
在1208处,目的地设备发送包括表示要传送的对象的数据的广播信号。所述数据可包括与源设备处发起传送的用户相关联的数据,诸如指纹数据或标识被用于选择对象的设备的数据。
在1210处,目的地设备接收来自源设备的信号。在本实施例中,源设备判断在目的地设备处被选择用于传送的对象是否与源设备处所选择的对象匹配。
在1212处,目的地设备判定从源设备接收的用户数据是否与和预定手势相关联的用户信息匹配。如果用户数据匹配(是),则在1214处,从源设备接收对象。对象被存储在根据预定手势所确定的位置中。然而,如果在1212处目的地判定来自源设备的用户数据不与和预定手势相关联的用户数据相匹配(否),则没有传送发生,如在1216处所指示。
图13图示服务器用于在多点触控设备之间传送对象的方法1300。例如,方法1300可由服务器408(图4)实施。为了说明简要的目的地,在此所图示的示例实施例示出单个源设备和单个目的地设备之间的传送,但是本领域技术人员很容易认识到任何物理上可实现的数目的设备可与服务器通信。方法1300将被服务器用来对源设备和正确目的地设备进行匹配。
在1302处,从源设备接收到数据。在一个实施例中,所述数据包括表示对象的数据和/或表示与源设备处的传送相关联的用户的数据。
在1304处,从目的地设备接收到数据。在一个实施例中,所述数据包括表示对象的数据和/或表示与目的地设备处的传送相关联的用户的数据。
在1306处,服务器判断来自源设备的数据和来自目的地设备的数据是否匹配。服务器可采用标识对象的数据和/或标识与源设备和目的地设备相关联的用户的数据来判定匹配。如果从源设备接收的数据与从目的地设备接收的数据匹配(是),则在1308处,对象被传送。然而,如果从源设备接收的数据不与从目的地设备接收的数据匹配(否),则对象不被传送,如1310所指示。
图14图示可实施示例实施例的计算机系统1400。计算机系统1400适合于实施与用户界面102(图1)、处理逻辑206(图2)相关联的逻辑、多点触控设备302、304(图3)、多点触控设备402、404以及服务器408(图4)的功能性以及方法500(图5)、600(图6)、700(图7)、800(图8)、900(图9)、1000(图10)、1100(图11)、1200(图12)和/或图1300(图13)中的任何方法。
计算机系统1400包括总线1402或用于传递信息的其他通信机构和与总线1402耦合用于处理信息的处理器1404。计算机系统1400还包括诸如随机访问存储器(RAM)的主存储器1406或耦合到总线1402用于存储处将要被处理器1404执行的信息和指令的其他动态存储设备。主存储器1406还可被用于存储在将要被处理器1404执行的指令的运行期间的临时变量或其他中间信息。计算机系统1400还包括耦合到总线1402用于存储用于处理器1404的静态信息和指令的只读存储器(ROM)1408或其他静态存储设备。
计算机系统1400可经由总线1402被耦合到显示器1412,显示器1412诸如是阴极射线管(CRT)或液晶显示器(LCD),用于向计算机用户显示信息。输入设备1414,诸如传感器和/或包括字母数字键和其他键的键盘,被耦合到总线1402,用于向处理器1404传达信息和命令选择。在一个示例实施例中,输入设备1414被配置为向处理器1404传达指示信息和命令选择并用于控制图标在显示器1412上的移动。输入设备1414通常具有两个轴(第一轴(例如,x)和第二轴(例如,y))上的两个自由度,这使得设备能够指定平面中的位置。
示例实施例的一方面涉及使用计算机系统1400来利用手势在多点触控设备之间传送对象。根据一个示例实施例,利用手势在多点触控设备之间传送对象通过计算机系统1400响应于处理器1404运行主存储器1406中的包含的一个或多个指令的一个或多个序列来提供。这样的指令可从另一计算机可读介质(诸如存储设备1410)读入到主存储器1406中。主存储器1406中包含的指令序列的运行使得处理器1404执行在此所描述的处理步骤。多处理布置中的一个或多个处理器也可被用来运行主存储器1406中包含的指令序列。在替代实施例中,硬连线的电路可替代软件指令或者与软件指令相结合使用来实施示例实施例。因此,在此描述的实施例并不限于硬件电路和软件的任何具体组合。
在此使用的术语“计算机可读介质”指参与向处理器1404提供以供运行的指令的任何介质。这样的介质可采用许多形式,包括但不限于非易失性介质和易失性介质。非易失性介质例如包括光盘或磁盘,诸如,存储设备1410。易失性介质包括动态存储器,诸如主存储器1406。如在此所使用的,有形介质可包括易失性介质和易失性介质。计算机可读介质的常见形式例如包括软盘、柔性盘、硬盘、磁卡、纸带、具有孔图案的任何其他物理介质、RAM、ROM、PRPM、EPROM、FLASHPROM、CD、DVD或任何其他存储芯片或存储盒,或者计算机可读的任何其他介质。
计算机系统1400还包括耦合到总线1402的通信接口1418。通信接口1418提供将计算机系统1400耦合到通信链路1420的双向数据通信。通信链路是任何适当的有线或无线拓扑。处理器1404可经由通信接口1418在通信链路1420上接收和发送的信号与其他设备(例如,其他多点触控设备)通信。例如,通信接口1418可以局域网(LAN)卡以提供对兼容LAN的数据通信连接。作为另一示例,通信接口1418可以是综合服务数字网(ISDN)卡或者调制解调器,用于提供对相应类型的电话线的数据通信连接。无线链路也可被实施。在任何这样的实施中,通信接口1418发送和接收承载表示各种类型的信息的数字数据流的电、磁、光信号。
图15图示用于采用捏拿/松放手势来从第一设备(源设备1502)向第二设备(目的地设备1512)传送对象的示例1500。源设备1502和/或目的地设备1512可别配置为在图1中描述的多点触控设备100,可包括类似图2中所描述的用户界面200,采用诸如图4中所描述的服务器408那样的服务器,和/或适当地包括诸如在图14中所描述的计算机系统1400那样的计算机系统。在一个示例实施例中,源设备1502和/或目的地设备1512可被配置为实施方法500(图5)、600(图6)、700(图7)、800(图8)、900(图9)、1000(图10)、1100(图11)、1200(图12)和/或图1300(图13)中的任何方法或其组合。
在所图示的示例中,源设备1502的显示器上的对象被传送到目的地设备1512。用户朝被传送的对象做出捏拿手势1516。用户保持捏拿运动并且移向目的地设备1512的显示器1514。用户可经由目的地设备1512的显示器1514进行导航以选择适当目的地。一旦用户已经选择了目的地设备1512上的目的地,用户做出送放运动1518,这使得对象将被传送到目的地设备1512。
上面的描述是示例实施例。当然,不可能描述每个可想到的组件或方法的组合,但是本领域技术人员将会认识到对示例实施例的许多其他的组合和布置也是可行的。因此,本申请意在包括落入所附权利要求根据他们被公平地、合法地、公正地被授权的广度所解释的精神和范围内的所有这样的替换、修改和变更。

Claims (13)

1.一种装置,包括:
被配置为与目的地设备通信的收发机;
可通信地耦合到所述收发机的用户界面;以及
耦合到所述用户界面的逻辑,所述逻辑被配置为:
检测用户在所述用户界面上提供的预定的捏拿手势,其中所述捏拿手势指示被选择以供传送的对象;
在检测所述捏拿手势时获取所述用户的指纹数据;
经由所述收发机发送指示所述对象被选择以供传送的消息;
响应于来自所述目的地设备的第一请求将所述指纹数据发送给所述目的地设备,其中所述第一请求指示所述目的地设备已检测到预定的松放手势;并且
响应于来自所述目的地设备的用于传送所述对象的第二请求而将所述对象传送到所述目的地设备。
2.根据权利要求1所述的装置,其中,所述用户界面被配置为接收与所述目的地设备相关联的用户的第二指纹数据;
其中,所述逻辑还被配置为在检测到所述预定的捏拿手势时对所述指纹数据与和所述目的地设备相关联的用户的第二指纹数据进行比较;并且
其中,响应于所述逻辑判定所述指纹数据与所述第二指纹数据相匹配,所述对象被传送到所述目的地设备。
3.根据权利要求1所述的装置,其中,所述收发机是无线收发机。
4.根据权利要求1所述的装置,其中,所述逻辑还被配置为接收标识目的地设备的数据。
5.一种装置,该装置包括:
被配置为与源设备通信的收发机;
可通信地耦合到所述收发机的用户界面;以及
耦合到所述用户界面的逻辑,所述逻辑被配置为:
检测预定的捏拿手势;
在检测所述捏拿手势同时获取指纹数据;
检测松放手势;
从所述源设备接收源指纹数据;
根据确定的松放手势和获取的指纹数据经由所述收发机接收来自所述源设备的表示要传送的对象的数据;
基于所述预定的捏拿手势确定传送时存储对象的地方;并且
响应于辨认所述预定的捏拿手势而接收并存储来自所述源设备的对象。
6.一种装置,该装置包括:
被配置为与目的地设备通信的收发机;
耦合到所述收发机的用户界面;以及
耦合到所述用户界面的逻辑,所述逻辑被配置为:
检测预定的捏拿手势;
检测预定的松放手势;
基于所述预定的捏拿手势来确定要传送的对象;
在检测所述预定的捏拿手势的同时扫描指纹;
将表示所述指纹的数据发送至所述目的地设备;
经由所述收发机接收来自所述目的地设备的信号;并且
响应于接收的信号并且基于所述松放手势和指纹数据,将所述对象传送给所述目的地设备。
7.根据权利要求6所述的装置,其中,所述逻辑还被配置为:
通过所述用户界面获取表示与所述预定的捏拿手势相关联的用户的数据;
接收表示与所述目的地设备相关联的用户的指纹数据;并且
响应于判定和所述预定的捏拿手势相关联的用户与和所述目的地设备相关联的用户相匹配而传送所述对象。
8.根据权利要求6所述的装置,其中,所述逻辑还被配置为:
通过所述用户界面获取表示和所述预定的捏拿手势相关联的用户的数据;
经由所述收发机将表示所述用户的数据发送给所述目的地设备。
9.一种装置,该装置包括:
被配置为与源设备通信的收发机;
可通信地耦合到所述收发机的用户界面;以及
耦合到所述用户界面的逻辑,所述逻辑被配置为:
检测在所述用户界面处检测到的预定的捏拿手势;
检测预定的松放手势;
在检测所述捏拿手势的同时接收指纹数据;
确定对应于与所述预定的捏拿手势相关联的所述指纹数据的标识符;
经由所述收发机发送指示已请求对象的传送的信号;
基于所述预定的捏拿手势确定存储所述对象的地方;并且
基于所述松放手势和所述指纹数据经由所述收发机接收所述对象并存储所述对象。
10.根据权利要求9所述的装置,其中,所述逻辑还被配置为将和所述预定的捏拿手势相关联的标识符发送到所述源设备。
11.根据权利要求9所述的装置,其中,所述逻辑还被配置为:
接收和所述传送的发起者相关联的标识符;
将和所述传送的发起者相关联的标识符与和所述预定的捏拿手势相关联的标识符进行比较;并且
响应于判定和所述传送的发起者相关联的标识符与和所述预定的捏拿手势相关联的标识符相匹配而接收所述对象。
12.一种装置,该装置包括:
被配置为与源多点触控设备和目的地多点触控设备通信的收发机;以及
可通信地与所述收发机耦合并被配置为经由所述收发机发送和接收数据的逻辑,其中,所述逻辑还被配置为:
经由所述收发机接收来自所述源多点触控设备的第一信号,所述第一信号包括表示要传送的对象的数据;
经由所述收发机接收来自所述目的地多点触控设备的第二信号,所述第二信号包括指示所述对象的目的地的数据;
其中,所述第一信号还包括表示和所述源多点触控设备相关联的第一用户的数据,并且所述第二信号还包括表示和所述目的地多点触控设备相关联的第二用户的数据;
其中,所述第一信号还包括与所述第一用户相关联的第一指纹数据;
其中,所述第二信号还包括与所述第二用户相关联的第二指纹数据;并且
其中,所述逻辑还被配置为响应于基于所述第一指纹数据和所述第二指纹数据的比较判定所述第一用户与所述第二用户相匹配而开始从所述源多点触控设备向所述目的地多点触控设备的所述对象的传送。
13.根据权利要求12所述的装置,其中,所述逻辑还被配置为在预定时段期间未接收到来自所述目的地多点触控设备的请求后丢弃表示所述对象的数据。
CN201080062070.XA 2010-01-21 2010-10-20 使用手势来跨多个多点触控设备传送对象 Active CN102725723B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/691,304 US8756532B2 (en) 2010-01-21 2010-01-21 Using a gesture to transfer an object across multiple multi-touch devices
US12/691,304 2010-01-21
PCT/US2010/053312 WO2011090527A1 (en) 2010-01-21 2010-10-20 Using a gesture to transfer an object across multiple multi-touch devices

Publications (2)

Publication Number Publication Date
CN102725723A CN102725723A (zh) 2012-10-10
CN102725723B true CN102725723B (zh) 2016-05-11

Family

ID=43479464

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201080062070.XA Active CN102725723B (zh) 2010-01-21 2010-10-20 使用手势来跨多个多点触控设备传送对象

Country Status (4)

Country Link
US (1) US8756532B2 (zh)
EP (1) EP2526474B1 (zh)
CN (1) CN102725723B (zh)
WO (1) WO2011090527A1 (zh)

Families Citing this family (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160042598A1 (en) * 2014-04-01 2016-02-11 E-Squared Labs, Inc. Interactive Module With Activity Credit Negotiation Logic
US20090136016A1 (en) * 2007-11-08 2009-05-28 Meelik Gornoi Transferring a communication event
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
US8380225B2 (en) 2009-09-14 2013-02-19 Microsoft Corporation Content transfer involving a gesture
US20110219340A1 (en) * 2010-03-03 2011-09-08 Pathangay Vinod System and method for point, select and transfer hand gesture based user interface
US20110239114A1 (en) * 2010-03-24 2011-09-29 David Robbins Falkenburg Apparatus and Method for Unified Experience Across Different Devices
US8335991B2 (en) * 2010-06-11 2012-12-18 Microsoft Corporation Secure application interoperation via user interface gestures
US20110310010A1 (en) 2010-06-17 2011-12-22 Primesense Ltd. Gesture based user interface
US8593398B2 (en) * 2010-06-25 2013-11-26 Nokia Corporation Apparatus and method for proximity based input
US9172979B2 (en) 2010-08-12 2015-10-27 Net Power And Light, Inc. Experience or “sentio” codecs, and methods and systems for improving QoE and encoding based on QoE experiences
WO2012021901A2 (en) * 2010-08-13 2012-02-16 Net Power And Light Inc. Methods and systems for virtual experiences
US9557817B2 (en) 2010-08-13 2017-01-31 Wickr Inc. Recognizing gesture inputs using distributed processing of sensor data from multiple sensors
WO2012043360A1 (ja) * 2010-09-29 2012-04-05 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置、その制御方法及びプログラム
US8464184B1 (en) * 2010-11-30 2013-06-11 Symantec Corporation Systems and methods for gesture-based distribution of files
JP5429198B2 (ja) * 2011-01-12 2014-02-26 コニカミノルタ株式会社 画像処理装置、画像形成システム、および制御プログラム
JP5353922B2 (ja) * 2011-02-10 2013-11-27 コニカミノルタ株式会社 画像形成装置、端末装置、画像形成システム、および制御プログラム
WO2012120521A1 (en) * 2011-03-04 2012-09-13 Hewlett-Packard Development Company, L.P. Gestural interaction identification
WO2012122939A1 (zh) * 2011-03-15 2012-09-20 联想(北京)有限公司 传输处理方法及装置和电子设备
US9153194B2 (en) 2011-03-30 2015-10-06 Elwha Llc Presentation format selection based at least on device transfer determination
US9317111B2 (en) * 2011-03-30 2016-04-19 Elwha, Llc Providing greater access to one or more items in response to verifying device transfer
JP5429224B2 (ja) * 2011-04-19 2014-02-26 コニカミノルタ株式会社 ファイル処理システム、管理装置、および制御プログラム
US8352639B2 (en) * 2011-05-06 2013-01-08 Research In Motion Limited Method of device selection using sensory input and portable electronic device configured for same
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
KR101948645B1 (ko) * 2011-07-11 2019-02-18 삼성전자 주식회사 그래픽 오브젝트를 이용한 컨텐츠 제어 방법 및 장치
US8752200B2 (en) 2011-07-12 2014-06-10 At&T Intellectual Property I, L.P. Devices, systems and methods for security using magnetic field based identification
EP2749013B1 (en) * 2011-08-24 2020-01-08 Sony Corporation Short-range radio frequency wireless communication data transfer methods and related devices
US9218063B2 (en) * 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US9289685B2 (en) * 2011-11-18 2016-03-22 Verizon Patent And Licensing Inc. Method and system for providing virtual throwing of objects
WO2013077871A1 (en) * 2011-11-22 2013-05-30 Research In Motion Limited Methods and apparatus to control presentation devices
CN102523346B (zh) * 2011-12-15 2013-12-25 广州市动景计算机科技有限公司 跨设备文件传输方法、装置、中转服务器及设备
US9524097B2 (en) 2011-12-22 2016-12-20 International Business Machines Corporation Touchscreen gestures for selecting a graphical object
WO2013101056A1 (en) * 2011-12-29 2013-07-04 Intel Corporation Biometric cloud communication and data movement
CN104185864B (zh) * 2012-02-14 2017-04-12 许丕文 智能标识系统
US20130219278A1 (en) * 2012-02-20 2013-08-22 Jonathan Rosenberg Transferring of Communication Event
CN102707880B (zh) * 2012-04-24 2015-01-07 华为终端有限公司 文件传输的方法及终端
US9507512B1 (en) * 2012-04-25 2016-11-29 Amazon Technologies, Inc. Using gestures to deliver content to predefined destinations
US9147057B2 (en) * 2012-06-28 2015-09-29 Intel Corporation Techniques for device connections using touch gestures
CN102866777A (zh) * 2012-09-12 2013-01-09 中兴通讯股份有限公司 一种数字媒体内容播放转移的方法及播放设备及系统
US20150172360A1 (en) * 2012-09-27 2015-06-18 Heyuan Liu Cross-device operation using gestures
CN103019555B (zh) 2012-11-19 2016-06-01 中兴通讯股份有限公司 转移播放的数字媒体内容切回方法、装置及系统
CN103838354A (zh) * 2012-11-20 2014-06-04 联想(北京)有限公司 传输数据的方法及电子设备
US9529439B2 (en) * 2012-11-27 2016-12-27 Qualcomm Incorporated Multi device pairing and sharing via gestures
CN102984592B (zh) * 2012-12-05 2018-10-19 中兴通讯股份有限公司 一种数字媒体内容播放转移的方法、装置和系统
CN103902202B (zh) * 2012-12-24 2017-08-29 联想(北京)有限公司 一种信息处理方法及电子设备
US9746926B2 (en) 2012-12-26 2017-08-29 Intel Corporation Techniques for gesture-based initiation of inter-device wireless connections
US20140188989A1 (en) * 2012-12-27 2014-07-03 Google Inc. Exchanging content across multiple devices
US9910499B2 (en) 2013-01-11 2018-03-06 Samsung Electronics Co., Ltd. System and method for detecting three dimensional gestures to initiate and complete the transfer of application data between networked devices
CN103455273A (zh) * 2013-01-26 2013-12-18 曾昭兴 电子设备通信方法及电子设备通信系统
CN103455272A (zh) * 2013-01-26 2013-12-18 曾昭兴 电子设备通信方法及电子设备通信系统
CN103455271A (zh) * 2013-01-26 2013-12-18 曾昭兴 文件传输方法及文件传输系统
KR102091028B1 (ko) * 2013-03-14 2020-04-14 삼성전자 주식회사 사용자 기기의 오브젝트 운용 방법 및 장치
CN103309446B (zh) * 2013-05-30 2016-03-02 上海交通大学 以人类双手为载体的虚拟数据获取与传递系统
CN103309447B (zh) * 2013-05-30 2016-03-02 上海交通大学 以人类双手为载体的虚拟数据获取与传递方法
KR102124476B1 (ko) * 2013-06-03 2020-06-19 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
CN103338248B (zh) * 2013-06-26 2015-07-29 腾讯科技(北京)有限公司 一种两个通信帐号建立关系的方法、系统及装置
CN104468141A (zh) * 2013-09-18 2015-03-25 上海本星电子科技有限公司 扫描式无线数据群发系统
CN104468686A (zh) * 2013-09-23 2015-03-25 上海本星电子科技有限公司 电子书包文件传输系统
CN103631378A (zh) * 2013-11-06 2014-03-12 康佳集团股份有限公司 一种基于手势抓放的多屏交互方法及电子设备
CN103699223A (zh) * 2013-12-11 2014-04-02 北京智谷睿拓技术服务有限公司 一种基于手势的控制方法和设备
US9213413B2 (en) * 2013-12-31 2015-12-15 Google Inc. Device interaction with spatially aware gestures
US20150273321A1 (en) * 2014-04-01 2015-10-01 E-Squared Labs, Inc. Interactive Module
WO2015173907A1 (ja) * 2014-05-14 2015-11-19 Necディスプレイソリューションズ株式会社 データ授受システム、表示装置、携帯情報端末、データ授受方法、及びプログラム
CN105095711B (zh) * 2014-05-23 2021-08-17 联想(北京)有限公司 数据传输方法及装置
WO2015189967A1 (ja) 2014-06-12 2015-12-17 日立マクセル株式会社 情報処理装置、アプリケーションソフトウェア起動システム及びアプリケーションソフトウェア起動方法
US9872174B2 (en) 2014-09-19 2018-01-16 Google Inc. Transferring application data between devices
CN104333571A (zh) * 2014-09-28 2015-02-04 联想(北京)有限公司 一种信息处理方法及电子设备、服务器
US10055064B2 (en) * 2014-10-29 2018-08-21 Sony Corporation Controlling multiple devices with a wearable input device
CN104461284B (zh) * 2014-11-25 2018-04-06 北京智谷睿拓技术服务有限公司 关联方法及装置
US10289284B2 (en) * 2014-11-25 2019-05-14 International Business Machines Corporation Viewing selected zoomed content
CN104571852B (zh) * 2014-12-12 2018-09-04 百度在线网络技术(北京)有限公司 图标的移动方法及装置
CN104640233B (zh) * 2015-01-28 2018-12-21 广州三星通信技术研究有限公司 电子设备之间建立通信连接的方法、装置和系统
CN106453212A (zh) * 2015-08-11 2017-02-22 中兴通讯股份有限公司 一种实现无线连接的方法及系统
CN105898543A (zh) * 2015-12-16 2016-08-24 乐视网信息技术(北京)股份有限公司 一种视频交互的移动终端、播放装置和方法
KR20180089907A (ko) * 2016-02-04 2018-08-09 애플 인크. 무선 레인징에 기초한 전자 디바이스들의 제어 및 정보의 디스플레이
US10838502B2 (en) * 2016-03-29 2020-11-17 Microsoft Technology Licensing, Llc Sharing across environments
US20180039817A1 (en) * 2016-08-05 2018-02-08 Qualcomm Incorporated Method to authenticate or identify a user based upon fingerprint scans
EP3502835A1 (en) * 2017-12-20 2019-06-26 Nokia Technologies Oy Gesture control of a data processing apparatus
US10636062B1 (en) * 2019-02-28 2020-04-28 Capital One Services, Llc Augmented reality systems for facilitating real-time charity donations
US11714544B2 (en) 2020-06-25 2023-08-01 Microsoft Technology Licensing, Llc Gesture definition for multi-screen devices
CN112272191B (zh) * 2020-11-16 2022-07-12 Oppo广东移动通信有限公司 数据转移方法及相关装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101364155A (zh) * 2007-08-08 2009-02-11 广达电脑股份有限公司 具有指纹辨识功能的触控式面板及电子装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060061551A1 (en) * 1999-02-12 2006-03-23 Vega Vista, Inc. Motion detection and tracking system to control navigation and display of portable displays including on-chip gesture detection
US20070052672A1 (en) * 2005-09-08 2007-03-08 Swisscom Mobile Ag Communication device, system and method
US7636794B2 (en) * 2005-10-31 2009-12-22 Microsoft Corporation Distributed sensing techniques for mobile devices
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8681104B2 (en) * 2007-06-13 2014-03-25 Apple Inc. Pinch-throw and translation gestures
US9619143B2 (en) * 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US20090140986A1 (en) * 2007-11-30 2009-06-04 Nokia Corporation Method, apparatus and computer program product for transferring files between devices via drag and drop
US20090176565A1 (en) * 2008-01-07 2009-07-09 Bally Gaming, Inc. Gaming devices for biometrically identifying a player
US20110088002A1 (en) * 2009-10-13 2011-04-14 Carl Johan Freer Method and platform for gestural transfer of digital content for mobile devices
US8588758B2 (en) * 2009-10-30 2013-11-19 Immersion Corporation Interfacing a mobile device with a computer

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101364155A (zh) * 2007-08-08 2009-02-11 广达电脑股份有限公司 具有指纹辨识功能的触控式面板及电子装置

Also Published As

Publication number Publication date
EP2526474A1 (en) 2012-11-28
US8756532B2 (en) 2014-06-17
CN102725723A (zh) 2012-10-10
US20110175822A1 (en) 2011-07-21
EP2526474B1 (en) 2021-08-11
WO2011090527A1 (en) 2011-07-28

Similar Documents

Publication Publication Date Title
CN102725723B (zh) 使用手势来跨多个多点触控设备传送对象
US10462133B2 (en) Method for providing user interface for each user, method for performing service, and device applying the same
US9910499B2 (en) System and method for detecting three dimensional gestures to initiate and complete the transfer of application data between networked devices
JP3900605B2 (ja) データ送信/受信/送受信装置、データ伝送システム、及び、データ送信/受信/送受信/伝送方法
US8762863B2 (en) Method and apparatus for gesture manipulation across multiple devices
KR101799408B1 (ko) 휴대용 단말기에서 제어 기기를 제어하기 위한 장치 및 방법
US8610681B2 (en) Information processing apparatus and information processing method
CN102685175A (zh) 手持式装置及其相关数据传输方法
US20060294247A1 (en) Extending digital artifacts through an interactive surface
US20150035762A1 (en) Electronic device and pairing method thereof
CN104104585A (zh) 用于在群聊中提供私聊的装置和方法
JP5421762B2 (ja) 表示装置、その制御方法、表示システム
EP2987269B1 (en) Method and system for controlling external device
JP6969517B2 (ja) 情報処理装置およびプログラム
US10013125B2 (en) Electronic apparatus
CN115023683A (zh) 触控笔、终端及其控制方法和计算机可读存储介质
CN107209601A (zh) 图像处理装置、图像处理系统和图像处理方法
JP2015060592A (ja) 画像処理システム、情報処理装置
CN110278239A (zh) 设定信息同步系统、同步方法、信息处理装置
CN103593137A (zh) 手机号码传送方法及手机号码传送系统
CN105302470B (zh) 触摸屏设备的电子图像的控制方法、装置及触摸屏设备
US9741317B2 (en) Touch electronic device with touch panel, wireless transmission module, and touch link module and related touch link method
US11474618B2 (en) Communication link based on activity on a keyboard
KR101427820B1 (ko) 드로잉 방식 이미지 기반 captcha 제공 시스템 및 captcha 제공 방법
US10325571B2 (en) Data communication method via touch surface

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant