CN116450024A - 三维手势交互方法及其电子装置 - Google Patents
三维手势交互方法及其电子装置 Download PDFInfo
- Publication number
- CN116450024A CN116450024A CN202210010943.7A CN202210010943A CN116450024A CN 116450024 A CN116450024 A CN 116450024A CN 202210010943 A CN202210010943 A CN 202210010943A CN 116450024 A CN116450024 A CN 116450024A
- Authority
- CN
- China
- Prior art keywords
- electronic device
- gesture
- dimensional
- area
- dimensional gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 133
- 230000003993 interaction Effects 0.000 title claims abstract description 82
- 238000001514 detection method Methods 0.000 claims abstract description 15
- 239000013598 vector Substances 0.000 claims description 29
- 238000013507 mapping Methods 0.000 claims description 22
- 238000002604 ultrasonography Methods 0.000 claims description 11
- 230000004807 localization Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提出一种三维手势交互方法及其电子装置。该方法由一个电子装置执行。该方法包括基于定位技术(Location Technology)测量多个电子装置的空间位置信息;基于该多个电子装置的空间位置信息生成该多个电子装置的3D手势区域;设置定位更新方法、3D手势检测方法、检测3D手势的频带及/或在不同装置检测手势的时序;检测或接收协作手势;基于该协作手势的该检测生成交互辅助消息;如果任何装置的位置有更新,则更新该电子装置的3D手势区域;识别该多个电子装置的3D手势区域中的协作手势;执行对应于协作手势的命令;检测协作手势超出该一个电子装置的3D手势区域;并且基于协作手势的方向将该协作手势发送给其他电子装置。
Description
技术领域
本发明总体上有关于三维(3D)手势应用。特别地,有关于一种附近电子装置之间3D手势交互方法及其电子装置。
背景技术
超宽带(Ultra Wide Band,UWB)芯片提供空间感知,使得终端可以准确地测量与周围UWB装置的距离和方向。例如,UWB芯片的距离精度可以是+/-10厘米,并且UWB芯片的方向精度可以是+/-3度。超声3D手势交互区域是一个超过电子装置尺寸的三维空间,并且超声3D手势交互区域具有180度环视、毫米级检测精度以及同时多目标距离测量能力。此外,在超声3D手势交互区域中,允许在电子装置的正面、上面、下面或侧面进行空中手势(例如,滑动、点触等)。
目前,3D手势交互主要是模拟2D触摸操作,仅限于单个装置或单个应用程序(APP)内的交互。物联网(AIOT)描绘了装置互连的蓝图。目前,多装置协同操作仍以2D触控交互为主。基于3D手势实现多装置协同操作还很少见。
发明内容
为了解决上述问题,本发明提供了一种跨多个电子装置进行3D手势交互的方法。该方法由一个电子装置执行。该方法包括基于定位技术(Location Technology)测量多个电子装置的空间位置信息;基于该多个电子装置的空间位置信息生成该多个电子装置的3D手势区域;设置定位更新方法、3D手势检测方法、检测3D手势的频带及/或在不同装置检测手势的时序;检测或接收协作手势;基于该协作手势的该检测生成交互辅助消息;如果任何装置的位置有更新,则更新该电子装置的3D手势区域;识别该多个电子装置的3D手势区域中的协作手势;执行对应于协作手势的命令;检测协作手势超出该一个电子装置的3D手势区域;并且基于协作手势的方向将该协作手势发送给其他电子装置。
根据上述方法,定位技术为超宽带(UWB)技术。
根据上述方法,基于多个电子装置的空间位置信息生成该多个电子装置的3D手势区域的步骤包括将其他电子装置映射到该一个电子装置的3D手势区域的侧边。识别3D手势区域中的协作手势的步骤包括:识别拾取手势(pick-up gesture);识别拖拽手势(draggesture);及/或识别放下手势(drop gesture)。
根据上述方法,将其他电子装置映射到该一个电子装置的3D手势区域侧边的步骤包括:计算从该一个电子装置到其他电子装置的方向;基于从该一个电子装置到其他电子装置的方向,将其他电子装置映射到该一个电子装置的3D手势区域的侧边。
根据上述方法,识别拾取手势的步骤包括经由超声施加的拾取手势选择用户想要分享的对象。识别拖拽手势的步骤包括:根据从该电子装置到其他电子装置的方向,显示出其他电子装置的弹出式用户界面;以及通过拖拽手势的方向,在其他电子装置中获取目标电子装置。
根据上述方法,当角度β接近零时,得到目标电子装置。角度β是矢量和矢量/>之间的角度。矢量/>是从该一个电子装置的中心到该一个电子装置的3D手势区域侧边的方向,并且其他电子装置映射3D手势区域的侧边。矢量/>是从该一个电子装置的中心到拖拽手势的当前位置的方向。
根据上述方法,识别放下手势的步骤包括:将在该电子装置的3D手势区域中的拾取手势选择的对象通过拖拽手势的方向以及放下手势的位置发送到目标电子装置。
根据上述方法,基于多个电子装置的空间位置信息生成多个电子装置的3D手势区域的步骤包括通过定位技术为该电子装置和该电子装置附近的另一电子装置创建组合手势区域。
根据上述方法,为该电子装置和该电子装置附近的另一电子装置创建组合手势区域的步骤包括将该电子装置的3D手势区域和该电子装置附近的另一电子装置的3D手势区域进行组合。上述组合是通过该电子装置和该电子装置附近的另一电子装置的位置以及从该电子装置到该电子装置附近的另一电子装置的方向进行的。
根据上述方法,识别拾取手势的步骤包括通过拾取手势在该电子装置处选择对象。
根据上述方法,识别拖拽手势的步骤包括:如果拖拽手势超出该电子装置的3D手势区域的侧边,则向该电子装置附近的另一电子装置发送拖拽手势;并且在靠近该电子装置的另一电子装置处显示拖拽手势用户界面。
根据上述方法,识别放下手势的步骤包括将通过拾取手势选择的对象发送到该电子装置附近的另一电子装置。
根据上述方法,基于多个电子装置的空间位置信息生成多个电子装置的3D手势区域的步骤包括通过定位技术为该电子装置和多个移动电子装置创建动态组合手势区域。
根据上述方法,通过定位技术为该电子装置和其他电子装置中的多个移动电子装置创建动态组合手势区域的步骤包括将该电子装置的3D手势区域与多个移动电子装置的3D手势区域进行组合。其中,该组合是根据室内坐标中的该电子装置和该多个移动电子装置的实时位置和方向来执行的。
根据上述方法,识别拾取手势的步骤包括获取其中一个移动电子装置的拾取手势的方向;通过将拾取手势的方向与从一个移动电子装置到另一个移动电子装置的方向进行比较,得到另一个移动电子装置的ID;在另一移动电子装置上显示授权用户界面,并且等待另一移动电子装置同意连接。
根据上述方法,识别拖拽手势的步骤包括:如果从另一移动电子装置到该电子装置的方向与该电子装置的3D手势区域交互,则向该电子装置发送拖拽手势,以及如果拖拽手势进入该电子装置的3D手势区域,则在该电子装置上显示拖拽手势用户界面。
根据上述方法,识别放下手势的步骤包括:在该电子装置上显示和控制另一个移动电子装置的用户界面。
根据上述方法,基于多个电子装置的空间位置信息生成多个电子装置的3D手势区域的步骤包括:通过定位技术为该电子装置、另一电子装置以及在该多个电子装置中的移动电子装置创建组合手势区域。
根据上述方法,通过定位技术为该电子装置、另一电子装置和该多个电子装置的移动电子装置创建组合手势区域的步骤包括:当移动电子装置与该电子装置以及该另一电子装置面对面时,根据移动电子装置坐标中移动电子装置和该另一电子装置的位置和方向,将移动装置的3D手势区域与该电子装置以及该另一电子装置的3D手势区域进行组合。
根据上述方法,识别拾取手势的步骤包括在移动电子装置的坐标中获取从移动电子装置到另一电子装置的方向;在移动电子装置的坐标中计算从拾取手势中的手到另一电子装置的方向以及从移动电子装置到拾取手势中的手的方向;通过比较从移动电子装置到另一电子装置的方向,从拾取手势的手到另一电子装置的方向,以及从移动电子装置到拾取手势的手的方向,得到另一电子装置的ID。
根据上述方法,当矢量加上矢量/>的结果接近矢量/>时,得到另一电子装置的ID。矢量/>是从移动电子装置到拾取手势中的手的方向。矢量/>是从拾取手势的手到另一电子装置的方向。矢量/>是从移动电子装置到另一电子装置的方向。
根据上述方法,识别拖拽手势的步骤包括在移动电子装置的坐标中获取拖拽手势的方向;在移动电子装置的坐标中获取从移动电子装置到该电子装置的方向;如果拖拽手势进入该电子装置的3D手势区域,则向该电子装置发送拖拽手势和另一电子装置的ID;如果拖拽手势的方向和从移动电子装置到该电子装置的方向在该电子装置的3D手势区域中相交,则在该电子装置上显示拖拽手势用户界面。
根据上述方法,识别放下手势的步骤包括在该电子装置上显示和控制另一电子装置的用户界面。
根据上述方法,基于电子装置的空间位置信息生成电子装置的3D手势区域的步骤包括将该电子装置的应用映射到移动电子装置的3D手势区域。
根据上述方法,将电子装置的应用映射到移动电子装置的3D手势区域的步骤包括:当电子装置与移动电子装置面对面时,将电子装置处的第一应用的快捷方式映射到移动电子装置的3D手势区域;以及根据电子装置和移动电子装置的实时位置和方向,将移动电子装置的3D手势区域与该电子装置的3D手势区域结合。
根据上述方法,识别拾取手势的步骤包括在电子装置上显示第二应用,以及在移动电子装置上显示第一应用的快捷方式;获取移动电子装置的拾取手势的范围,并将范围映射到电子装置;并且通过拾取手势的范围从电子装置上的第二应用中选择对象。
根据上述方法,识别拖拽手势的步骤包括在电子装置和移动电子装置处显示拖拽手势用户界面。
根据上述方法,识别放下手势的步骤包括基于移动电子装置通过放下手势触摸第一应用的快捷方式来发送对象。
根据上述方法,基于电子装置的空间位置信息生成电子装置的3D手势区域的步骤包括将应用快捷方式映射到电子装置的侧边。
根据上述方法,将应用快捷方式映射到电子装置的侧边的步骤包括将第一应用程序的快捷方式映射到电子装置的3D手势区域的侧边。电子装置的3D手势区域侧边的不同位置对应第一应用的不同快捷方式。
根据上述方法,识别拾取手势的步骤包括在电子装置上显示第二应用;并通过超声波应用的拾取手势从第二个应用中选择一个对象。
根据上述方法,识别拖拽手势的步骤包括在电子装置上显示拖拽手势用户界面;并在弹出的用户界面上显示第一应用的快捷方式。
根据上述方法,识别放下手势的步骤包括通过放下手势触摸第一应用的快捷方式将对象发送到第一应用。
本发明还提供一种电子装置,其能够在其自身和多个附近的电子装置之间执行3D手势交互。该电子装置包括定位处理器和手势交互处理器。定位处理器被配置为基于定位技术测量电子装置的位置信息并测量附近电子装置的空间位置信息,并且被配置为设置3D手势的定位更新方法、检测方法、检测3D手势的频带以及不同装置处检测手势的时序。手势交互处理器,用于根据电子装置的空间位置信息生成电子装置的3D手势区域,检测或接收协作手势,根据检测到的协作手势生成交互辅助消息,如果任何装置的位置更新,更新电子装置的3D手势区域,识别在电子装置的3D手势区域中的协作手势,执行与协作手势对应的命令,检测协作手势超出电子装置的3D手势区域,并根据协助手势的方向将协作手势发送给其他电子装置。
本发明提供的三维手势交互方法及其电子装置可改善用户体验。
附图说明
下列图式描述本发明实施例,其中,相同标号表示相同组件。
图1是根据本发明实施例的用于跨多个电子装置的3D手势交互方法的流程图。
图2A是根据本发明实施例的多个电子装置的3D手势区域和空间位置信息的示意图。
图2B是根据本发明实施例的不同手势的示意图。
图3是根据本发明实施例的用于跨多个电子装置的3D手势交互的场景1的示意图。
图4是根据本发明实施例的用于跨多个电子装置的3D手势交互的场景2的示意图。
图5是根据本发明实施例的用于跨多个电子装置的3D手势交互的场景3的示意图。
图6是根据本发明实施例的用于跨多个电子装置的3D手势交互的场景4的示意图。
图7是根据本发明实施例的用于跨多个电子装置的3D手势交互的场景5的示意图。
图8是根据本发明实施例的用于跨多个电子装置的3D手势交互的场景6的示意图。
图9是根据本发明实施例的电子装置900的框图。
具体实施方式
在说明书及权利要求书当中使用了某些词汇来指称特定的元件。所属技术领域的技术人员应可理解,硬件制造商可能会用不同的名词来称呼同一个元件。本说明书及权利要求书并不以名称的差异作为区分元件的方式,而是以元件在功能上的差异作为区分的准则。在通篇说明书及权利要求项中所提及的“包含”为一开放式的用语,故应解释成“包含但不限定于”。此外,“耦接”一词在此包含任何直接及间接的电气连接手段。因此,若文中描述第一装置耦接于第二装置,则代表第一装置可直接电气连接于第二装置,或透过其它装置或连接手段间接地电气连接至第二装置。
接下来的描述是为了说明本发明的一般原理,不应被理解为限制性的。本发明的范围最好通过参考所附权利要求书来确定。
以下描述旨在使本领域普通技术人员能够制作和使用本发明,并在专利申请及其要求的上下文中提供。对本领域技术人员来说,对这里描述的实施例和一般原理和特征的各种修改将是显而易见的。因此,本发明不旨在限于所示的实施例,而是符合与本文描述的原理和特征一致的最宽范围。
图1是根据本发明实施例的用于跨多个电子装置的3D手势交互方法的流程图。如图1所示,本发明方法包括基于定位技术测量电子装置的空间位置信息(步骤S100);基于电子装置的空间位置信息,产生电子装置的3D手势区域(步骤S102);设置位置更新方法、3D手势检测方法、检测3D手势频带、不同装置处检测手势的时序(步骤S104);检测或接收协作手势(步骤S106);如果任何装置的位置有更新,则更新电子装置的3D手势区域(步骤S108);基于协作手势的检测生成交互辅助消息(步骤S110);识别3D手势区域中的协作手势(步骤S112);执行对应于协作手势的命令(步骤S114);检测协作手势是否超出3D手势区域(步骤S116);如果协作手势超出3D手势区域,则根据协作手势的方向向其他电子装置发送协作手势(步骤S118)。在一些实施例中,如果协作手势没有超出3D手势区域,则本发明的方法返回到步骤S106。
在一些实施例中,步骤S104中的位置更新方法包括周期性地测量移动装置的空间位置信息;在从移动装置接收“需要更新位置”事件后,测量空间位置信息;以及从移动装置接收空间位置信息。
图2A是根据本发明实施例的多个电子装置的3D手势区域和空间位置信息的示意图。图2A示出了步骤S100中的空间位置信息和步骤S102中电子装置的3D手势区域。如图2A所示,有室内空间的电子装置200(例如智能手机)、电子装置202(例如智能电视)、电子装置204(例如平板电脑)和电子装置206(例如,灯)。在一些实施例中,电子装置200、202、204和206都支持超宽带(UWB),使得电子装置200可以通过定位技术(例如UWB)来测量电子装置202、204和206的空间位置信息。假设电子装置200的位置为室内坐标的零点,则电子装置202的室内坐标在极坐标系中为(D1,α1,β1),电子装置204的室内坐标在极坐标系中为(D2,α2,β2),而电子装置206的室内坐标在笛卡尔坐标系中为(x3,y3,z3)。
在一些实施例中,电子装置200、202和204还支持超声手势(ultrasoundgesture),从而在电子装置200的前方产生3D手势区域210,在电子装置202的前方产生3D手势区域212,并且在电子装置204的前方产生3D手势区域214。电子装置200可以与电子装置202、204和206进行3D手势交互。例如,电子装置200在3D手势区域中可控制电子装置202、204和206的操作。
图2B是根据本发明实施例的不同手势的示意图。图2B示出了步骤S106和S110中的协作手势。如图2B所示,室内空间中存在电子装置220和电子装置222。由于电子装置220和222均支持超声手势,因此在电子装置220的前方产生3D手势区域230,并且在电子装置222的前方产生3D手势区域232。在一些实施例中,电子装置220可以基于UWB测量电子装置222的空间位置信息,从而获知从电子装置220到电子装置222的方向。首先,电子装置220在其自身的3D手势区域中检测来自用户的拾取手势240。拾取手势240可选取显示于电子装置220的对象。当电子装置220检测到拾取手势240变为拖拽手势250,且拖拽手势250移动至超过3D手势区域230,电子装置220通过诸如蓝牙、Wi-Fi等通信协议向电子装置222发送拖拽手势250和选择的对象。
之后,电子装置222在3D手势区域232中检测到拖拽手势250时,在电子装置222中显示拖拽手势250和选择的对象。当电子装置222检测到拖拽手势250变为放下手势260时,在电子装置222中显示通过拾取手势240选择的对象。因此,电子装置220与222之间的3D手势交互完成。
图3是根据本发明实施例的用于跨多个电子装置的3D手势交互的场景1的示意图。在场景1中,存在电子装置300(例如,智能手机)、电子装置302(例如,膝上型电脑)、电子装置304(例如,智能电视)、电子装置306(例如,平板电脑)和电子装置308(例如,智能手机)。在一些实施例中,电子装置300、302、304、306和308都支持UWB,但仅电子装置300支持超声手势。因此,电子装置300可基于UWB等定位技术来测量电子装置302、304、306及308的空间位置信息,进而根据电子装置300及其附近的电子装置302、304、306和308的空间位置信息产生3D手势区域310。
在一些实施例中,电子装置300可以设置诸如拾取手势320、拖拽手势330和放下手势340的协作手势的检测方法、频带和时序。电子装置300将电子装置302、304、306和308映射到电子装置300的3D手势区域310的侧边。电子装置300计算从电子装置300的中心到电子装置302、304、306和308的方向(例如,矢量和/>)。即,通过将电子装置302映射到电子装置300的3D手势区域310的侧边从而获取矢量/>通过将电子装置304映射到电子装置300的3D手势区域310的侧边来获取矢量/>通过将电子装置306映射到电子装置300的3D手势区域310的侧边来获取矢量/>通过将电子装置308映射到电子装置300的3D手势区域310的侧边来获取矢量/>图3中的点O代表电子装置300的中心位置。
之后,电子装置300在3D手势区域310中识别协作手势。例如,电子装置300在3D手势区域310中识别拾取手势320、拖拽手势330和放下手势340。详细地,电子装置300在3D手势区域310中通过超声波通过拾取手势320选择用户想要分享的对象。然后,电子装置300基于协助手势的检测产生交互辅助消息。例如,电子装置300根据从电子装置300到电子装置302、304、306的方向弹出电子装置(例如,电子装置302、304、306或308)的用户界面,电子装置300通过拖拽手势330的方向,例如图3中的矢量在其他电子装置中获取目标电子装置,例如图3中的电子装置304。在一些实施例中,当角度β接近零时,得到目标电子装置(图3中的电子装置304)。角度β是矢量/>和矢量/>之间的角度。详细地,矢量/>是从电子装置300的中心O到拖拽手势在3D手势区域310中的当前位置的方向。
最后,电子装置300通过拖拽手势330的方向(例如矢量)和拖拽手势340的位置,将通过电子装置300的3D手势区域310中拾取手势320选择的对象发送到电子装置304。在一些实施例中,当放下手势340或拖拽手势330超出3D手势区域310时,电子装置300将放下手势340或拖拽手势330发送到电子装置304。在场景1中,本发明的方法基于附近装置的方向将附近装置(例如,电子装置302、304、306和308)映射到电子装置300的3D手势区域的侧边。用户可以通过连接其他装置的电子装置300的3D手势区域跨多装置进行交互。例如,用户可以通过拖拽手势330的方向将通过拾取手势320选择的对象快速分享给附近的装置。
图4是根据本发明实施例的用于跨多个电子装置的3D手势交互的场景2的示意图。在场景2中,存在电子装置400和电子装置402。在一些实施例中,电子装置400和402都支持UWB和超声手势。也就是说,电子装置400可产生3D手势区域410,而电子装置402可产生3D手势区域412。电子装置402在电子装置400附近。然而,电子装置400的3D手势区域410不与电子装置402的3D手势区域412重叠。在一些实施例中,在电子装置400处显示对象420、422和424。本发明的方法(或电子装置400)经由电子装置400及电子装置400附近的电子装置402的位置及从电子装置400至电子装置402的方向,结合电子装置400的3D手势区域410及电子装置400附近的电子装置402的3D手势区域412。此后,电子装置400通过拾取手势440选择对象420。然后电子装置400检测拖拽手势450,并如果拖拽手势450超出电子装置400的3D手势区域410的侧边,则向电子装置402发送拖拽手势450。
在电子装置402从电子装置400接收到拖拽手势450之后,电子装置402在其自身处显示拖拽手势用户界面。当电子装置402检测到放下手势460时,电子装置400将拾取手势440所选取的对象传送至电子装置402,以使得与对象420相同的对象430显示于电子装置402。在一些实施例中,由于对象不支持Ctrl+C,对象422不能被拾取,因此在拾取手势上显示禁止标志,并且对象432也显示禁止标志。在一些实施例中,可以通过圆圈手势470拾取对象424。然后可以通过拖拽手势和放下手势将电子装置400处的对象424发送到电子装置402以形成对象434。在实施例中,用户可以定义用于特定超声手势的动作或动作列表,例如圆圈手势470以通过经由屏幕复制工具/软件部分复制屏幕内容来拾取对象424。
在场景2中,本发明的方法根据电子装置400和402的位置和方向组合它们的手势区域。电子装置400向电子装置402发送拖拽手势450,拖拽手势450超出电子装置400的3D手势区域。用户可以通过组合手势区域跨并排放置的多个装置进行交互。例如,用户可以将内容从电子装置400复制并粘贴到电子装置402。
图5是根据本发明实施例的用于跨多个电子装置的3D手势交互的场景3的示意图。在场景3中,存在电子装置500(例如智能手机)、电子装置502(例如智能手表)和电子装置504(例如VR显示)。在一些实施例中,电子装置500、502和504都支持UWB和超声手势。因此,在电子装置500的前方产生3D手势区域510。电子装置500可以在室内坐标中测量电子装置502和504的空间位置信息。在一些实施例中,电子装置500和502可以由同一用户操作,但本发明不限于此。本发明的方法根据室内坐标中电子装置500、502和504的实时位置和方向,对电子装置500的3D手势区域510和移动电子装置(例如电子装置502和504)的3D手势区域进行组合。
然后,本发明的方法获得电子装置504的拾取手势520的方向,通过比较拾取手势520的方向(即矢量)与从电子装置502之一到电子装置504的方向(即,矢量/>)获得电子装置504的ID。之后,电子装置504会显示授权用户界面,等待控制电子装置504的用户同意连接。如果从电子装置504到电子装置500的方向与电子装置500的3D手势区域510交互,则本发明的方法向电子装置500发送拖拽手势530。即,矢量/>与电子装置500的3D手势区域510进行交互。如果拖拽手势530进入电子装置500的3D手势区域510,则电子装置500显示拖拽手势用户界面。最后,用户可以通过在电子装置500处控制电子装置500的用户界面从而控制电子装置504。在场景3中,本发明的方法在室内绝对坐标处将电子装置500的3D手势区域510与移动装置(例如,电子装置502和504)进行结合。用户可以通过组合手势跨多个装置进行交互。例如,用户可以通过手表(电子装置502)测量的手势方向连接另一个移动装置(电子装置504)。
图6是根据本发明实施例的用于跨多个电子装置的3D手势交互的场景4的示意图。在场景4中,存在电子装置600(例如智能眼镜)、电子装置602(例如智能手机)和电子装置604(例如灯)。在一些实施例中,电子装置600和602均支持UWB和超声手势,而电子装置604仅支持UWB。因此,电子装置600产生3D手势区域610,而电子装置602产生3D手势区域602。电子装置600可测量电子装置602与604的空间位置信息。同理,电子装置602也可测量电子装置600和604的空间位置信息。在一些实施例中,当电子装置600与电子装置602和604面对面时,本发明的方法根据在电子装置600的坐标中电子装置600、602和604的方向和位置,将电子装置600的3D手势区域610与电子装置602的3D手势区域612进行结合。
在一些实施例中,本发明的方法(或电子装置600)首先在电子装置600的坐标中获得从电子装置600到电子装置604的方向,即矢量然后,在电子装置600的坐标中,电子装置600计算从拾取手势620的手到电子装置604的方向,即矢量/>以及从电子装置600到拾取手势620的手的方向,即矢量/>之后,电子装置600通过比较矢量/>和/>得到电子装置604的ID。在一些实施例中,当矢量/>加上矢量/>的结果与矢量/>相交时,得到电子装置604的ID。
之后,本发明的方法(或电子装置600)在电子装置600的坐标中获得拖拽手势630的方向,即矢量然后,在电子装置600的坐标中,电子装置600得到从电子装置600到电子装置602的方向,即矢量/>如果拖拽手势630进入电子装置602的3D手势区域612,则电子装置600将拖拽手势630和电子装置604的ID发送到电子装置602。然后,如果矢量/>和矢量/>在电子装置602的3D手势区域612中相交,则电子装置602显示拖拽手势用户界面。最后,电子装置602显示拖拽手势用户界面,以便用户可以通过电子装置602处的用户界面控制电子装置604。例如,用户可以通过经由拾取手势650选择对象614来打开或关闭电子装置604。
在场景4中,本发明的方法通过相对位置和方向将移动中的装置的手势区域与附近装置相结合。用户可以通过移动装置的动态组合手势区域在面对面放置的多个装置之间进行交互。例如,用户可以通过眼镜或手机测量的手势方向来连接和控制物联网装置(电子装置604)。
图7是根据本发明实施例的用于跨多个电子装置的3D手势交互的场景5的示意图。在场景5中,存在电子装置700(例如,智能眼镜)和电子装置702(例如,智能手机)。在一些实施例中,电子装置700和702都支持UWB和超声手势。因此,在电子装置700前面产生3D手势区域710。应用APP-A和应用APP-B都在电子装置702上执行。在一些实施例中,本发明的方法首先将电子装置702的应用映射到电子装置700的3D手势区域710。详细地,当电子装置702和电子装置700面对面时,电子装置700将电子装置702处的应用APP-B的快捷方式映射到电子装置700的3D手势区域710。本发明的方法根据电子装置700和702的实时位置和方向,将电子装置700的3D手势区域710与电子装置702的3D手势区域相结合。
在一些实施例中,在电子装置702处显示应用APP-A,在电子装置700处(例如,在3D手势区域710中)显示应用APP-B的快捷方式。接着,电子装置700取得拾取手势720的范围,并将拾取手势720的范围映射至电子装置702。本发明的方法在电子装置702处通过拾取手势720(或圆圈手势)的范围从应用APP-A中选取对象712。之后,当电子装置700检测到拖拽手势730时,在电子装置700和702上都显示拖拽手势用户界面。最后,本发明的方法通过经由电子装置700的放下手势740触摸应用APP-B的快捷方式714来发送对象712。
在场景5中,本发明的方法将用户装置的应用程序的快捷方式映射到面对面装置的3D手势区域(例如,3D手势区域710)以扩展3D手势的功能。用户可以通过面对面装置的手势区域和显示进行跨多APP交互。例如,用户可以通过电子装置702和700快速做笔记。
图8是根据本发明实施例的用于跨多个电子装置的3D手势交互的场景6的示意图。在场景6中,存在一个电子装置800。电子装置800支持UWB和超声手势。因此,在电子装置800前面生成3D手势区域810。应用APP-A和应用APP-B都在电子装置800处执行。在一些实施例中,本发明的方法将应用快捷方式映射到电子装置800的侧边(例如,在3D手势区域810的一侧)。具体地,本发明的方法将应用APP-B的快捷方式映射到电子装置800的3D手势区域810的侧边。在一些实施例中,电子装置800的3D手势区域810的侧边的不同位置对应于应用的不同快捷方式。
然后,在电子装置800处显示应用APP-A。本发明的方法通过超声施加的拾取手势820从应用APP-A中选择对象812。当电子装置800检测到拖拽手势830时,电子装置800显示拖拽手势用户界面。然后,本发明的方法在弹出的用户界面816上显示应用APP-B的快捷方式。最后,电子装置800通过经由放下手势840触摸应用APP-B的快捷方式,将对象812发送到应用APP-B。
图9是根据本发明实施例的电子装置900的框图。如图9所示,电子装置900包括定位处理器902和手势区域处理器904。在一些实施例中,定位处理器902基于UWB执行定位操作。对于手势区域处理器904,其可以作为手势区域处理器904。电子装置900可以是图2A和图2B中的电子装置200、202、204、220和222、图3中的电子装置300、302、304、306和308、图4中的电子装置400和402、图5中的电子装置500、502和504、图6中的电子装置600和602、图7中的电子装置700和702、图8中的电子装置800中的任何一个。在一些实施例中,定位处理器902被配置为基于定位技术获取电子装置的位置信息并接收附近电子装置的空间位置信息,并且被配置为设置位置更新方法、3D手势检测方法、检测3D手势频带、不同装置检测手势的时序。也就是说,电子装置900的定位处理器902能够执行图1中的步骤S100和S104。此外,定位处理器902可以将空间位置信息910发送到用于3D手势应用的手势区域处理器904。
手势区域处理器904被配置为基于电子装置的空间位置信息生成电子装置的3D手势区域,检测或接收协作手势,基于检测的协作手势生成交互辅助消息,如果有任何装置的位置有更新,则更新电子装置的3D手势区域,识别3D手势区域中的协作手势,执行与协作手势对应的命令,检测协作手势超出3D手势区域,并基于协作手势的方向将协作手势发送给其他电子装置。也就是说,手势区域处理器904能够执行图1中的步骤S102、S106、S108、S108、S110、S112、S114、S116和S118。
目前,超声3D手势处理器的功耗约为20毫安。对于诸如手机/手表等电量有限的移动装置,很难做到一直开启超声3D手势处理器以随时等待用户交互。因此,存在仅需要主动开启第一电子装置进行手势交互的三个例子。首先,系统会根据用户习惯和场景识别自动开启3D手势交互,适用于场景5和场景6。其次,当用户佩戴手表/手环或其他装置时,系统判断是否开启基于距离/姿势的辅助装置的3D手势交互,适用于场景1~6。第三,用户手动开启装置的3D手势交互,适用于场景1~6。
存在用于插件装置以始终保持3D手势识别开启的三个示例。首先,诸如电视/扬声器等插件装置始终保持3D手势开启。其次,始终开启装置基于手势方向选择跟随装置,并且通知跟随装置开启3D手势识别,以及等待用户后续的手势交互。第三,当始终开启装置发现用户试图与移动装置进行3D手势交互时,始终开启装置通知移动装置开启3D手势交互。
在本发明提供的几个实施例中,应当理解,所公开的系统、装置和方法可以采用其他方法来实现。上述装置实施例仅为示意性的,例如,单元的划分只是逻辑功能划分,在实际实现中还可以有其他划分。例如,多个单元或元件可以组合或集成到另一个系统中,或者可以省略或不实现某些特征。另外,所显示或讨论的相互耦接或直接耦接或通信连接可以是通过一些接口、装置或单元的间接耦接或通信连接,并且可以是电气、机械或其他形式。
此外,本发明各实施例中的功能单元可以集成为一个处理单元,也可以每个单元物理单独存在,也可以将两个或多个单元集成为一个单元。上述集成单元既可以以硬件的形式实现,也可以以软件功能单元的形式实现。
虽然已经通过示例和优选实施例的方式描述了本发明,但是应当理解,本发明不限于所公开的实施例。相反,它旨在涵盖各种修改和类似的安排(这对于本领域技术人员来说是显而易见的)。因此,所附权利要求的范围应给予最广泛的解释以涵盖所有此类修改和类似安排。
Claims (35)
1.一种三维手势交互方法,用于多个电子装置之间并且由该多个电子装置中的一个电子装置执行,该三维手势交互方法包括:
基于定位技术测量该多个电子装置的空间位置信息;
基于该多个电子装置的该空间位置信息,生成该多个电子装置的三维手势区域;
设置定位更新方法、三维手势检测方法、检测三维手势的频带以及在不同装置检测手势的时序;
检测或接收协作手势;
基于该协作手势的该检测,生成交互辅助消息;
识别该多个电子装置的该三维手势区域中的该协作手势;
执行对应于该协作手势的命令;
检测到该协作手势超出该一个电子装置的三维手势区域;以及
基于该协作手势的方向将该协作手势发送给该多个电子装置中的其他电子装置。
2.如权利要求1所述的三维手势交互方法,其特征在于,该定位技术为超宽带技术。
3.如权利要求1所述的三维手势交互方法,其特征在于,该基于该多个电子装置的该空间位置信息生成该多个电子装置的该三维手势区域的步骤包括:将该其他电子装置映射到该一个电子装置的三维手势区域的侧边;其中,该识别该三维手势区域中的该协作手势的步骤包括:识别拾取手势、拖拽手势及/或放下手势。
4.如权利要求3所述的三维手势交互方法,其特征在于,将该其他电子装置映射到该一个电子装置的三维手势区域的侧边的步骤包括:计算从该一个电子装置到该其他电子装置的方向;基于从该一个电子装置到该其他电子装置的该方向,将该其他电子装置映射到该一个电子装置的三维手势区域的侧边。
5.如权利要求4所述的三维手势交互方法,其特征在于,该识别该拾取手势的步骤包括:经由超声施加的该拾取手势选择用户想要分享的对象。
6.如权利要求5所述的三维手势交互方法,其特征在于,该识别该拖拽手势的步骤包括:根据从该一个电子装置到该其他电子装置的该方向,显示出该其他电子装置的弹出式用户界面;以及通过该拖拽手势的该方向,在该其他电子装置中获取目标电子装置。
7.如权利要求6所述的三维手势交互方法,其特征在于,当角度β接近零时,得到该目标电子装置,其中,角度β是矢量和矢量/>之间的角度,矢量/>是从该一个电子装置的中心到该一个电子装置的三维手势区域侧边的方向,并且该其他电子装置映射该三维手势区域的该侧边,以及矢量/>是从该一个电子装置的中心到该拖拽手势的当前位置的方向。
8.如权利要求7所述的三维手势交互方法,其特征在于,该识别该放下手势的步骤包括:将在该一个电子装置的该三维手势区域中的该拾取手势选择的该对象通过该拖拽手势的方向以及该放下手势的位置发送到该目标电子装置。
9.如权利要求1所述的三维手势交互方法,其特征在于,该基于该多个电子装置的该空间位置信息生成该多个电子装置的该三维手势区域的步骤包括:通过该定位技术为该一个电子装置和该一个电子装置附近的另一电子装置创建组合手势区域,其中,该识别该三维手势区域中的该协作手势的步骤包括:识别拾取手势、拖拽手势及/或放下手势。
10.如权利要求9所述的三维手势交互方法,其特征在于,该为该一个电子装置和该一个电子装置附近的另一电子装置创建组合手势区域的步骤包括:将该一个电子装置的三维手势区域和该一个电子装置附近的该另一电子装置的三维手势区域进行组合,其中,该组合是通过该一个电子装置和该一个电子装置附近的该另一电子装置的位置以及从该一个电子装置到该一个电子装置附近的该另一电子装置的方向进行的。
11.如权利要求10所述的三维手势交互方法,其特征在于,该识别该拾取手势的步骤包括:通过该拾取手势在该一个电子装置处选择对象。
12.如权利要求11所述的三维手势交互方法,其特征在于,该识别该拖拽手势的步骤包括:如果该拖拽手势超出该一个电子装置的三维手势区域的侧边,则向该一个电子装置附近的该另一电子装置发送该拖拽手势;以及在靠近该一个电子装置的该另一电子装置处显示拖拽手势用户界面。
13.如权利要求12所述的三维手势交互方法,其特征在于,该识别该放下手势的步骤包括:将通过该拾取手势选择的该对象发送到该一个电子装置附近的该另一电子装置。
14.如权利要求1所述的三维手势交互方法,其特征在于,该基于该多个电子装置的该空间位置信息生成该多个电子装置的三维手势区域的步骤包括:通过该定位技术为该一个电子装置和多个移动电子装置创建动态组合手势区域,其中,该识别该三维手势区域中的该协作手势的步骤包括:识别拾取手势、拖拽手势及/或放下手势。
15.如权利要求14所述的三维手势交互方法,其特征在于,该通过该定位技术为该一个电子装置和该多个移动电子装置创建该动态组合手势区域的步骤包括:将该一个电子装置的该三维手势区域与该多个移动电子装置的该三维手势区域进行组合,其中,该组合是根据室内坐标中的该一个电子装置和该多个移动电子装置的实时位置和方向来执行的。
16.如权利要求15所述的三维手势交互方法,其特征在于,该识别该拾取手势的步骤包括:获取其中一个移动电子装置的该拾取手势的该方向;通过将该拾取手势的该方向与从该一个移动电子装置到另一个移动电子装置的方向进行比较,得到该另一个移动电子装置的身份;以及在该另一个移动电子装置上显示授权用户界面,并且等待该另一个移动电子装置同意连接。
17.如权利要求16所述的三维手势交互方法,其特征在于,该识别该拖拽手势的步骤包括:如果从该另一个移动电子装置到该一个电子装置的方向与该一个电子装置的三维手势区域交互,则向该一个电子装置发送该拖拽手势,以及如果该拖拽手势进入该一个电子装置的该三维手势区域,则在该一个电子装置上显示拖拽手势用户界面。
18.如权利要求17所述的三维手势交互方法,其特征在于,该识别该放下手势的步骤包括:在该一个电子装置上显示和控制该另一个移动电子装置的用户界面。
19.如权利要求1所述的三维手势交互方法,其特征在于,该基于该多个电子装置的该空间位置信息生成该多个电子装置的三维手势区域的步骤包括:通过该定位技术为该一个电子装置、另一电子装置以及在该多个电子装置中的移动电子装置创建组合手势区域,其中,该识别该三维手势区域中的该协作手势的步骤包括:识别拾取手势、拖拽手势及/或放下手势。
20.如权利要求19所述的三维手势交互方法,其特征在于,该通过该定位技术为该一个电子装置、该另一电子装置和该多个电子装置的该移动电子装置创建该组合手势区域的步骤包括:当该移动电子装置与该一个电子装置以及该另一电子装置面对面时,根据该移动电子装置坐标中该移动电子装置和该另一电子装置的位置和方向,将该移动装置的三维手势区域与该一个电子装置以及该另一电子装置的三维手势区域进行组合。
21.如权利要求20所述的三维手势交互方法,其特征在于,该识别该拾取手势的步骤包括:在该移动电子装置的该坐标中获取从该移动电子装置到该另一电子装置的方向;在该移动电子装置的该坐标中计算从该拾取手势中的手到该另一电子装置的方向以及从该移动电子装置到该拾取手势中的该手的方向;通过比较从该移动电子装置到该另一电子装置的方向,从该拾取手势的手到该另一电子装置的方向,以及从该移动电子装置到该拾取手势的手的方向,得到该另一电子装置的身份。
22.如权利要求21所述的三维手势交互方法,其特征在于,当矢量加上矢量/>的结果接近矢量/>时,得到该另一电子装置的身份,其中,该矢量/>是从该移动电子装置到该拾取手势中的手的方向,该矢量/>是从该拾取手势的手到该另一电子装置的方向,该矢量/>是从该移动电子装置到该另一电子装置的方向。
23.如权利要求22所述的三维手势交互方法,其特征在于,该识别该拖拽手势的步骤包括:在该移动电子装置的该坐标中获取该拖拽手势的方向;在该移动电子装置的该坐标中获取从该移动电子装置到该一个电子装置的方向;如果该拖拽手势进入该一个电子装置的三维手势区域,则向该一个电子装置发送该拖拽手势和该另一电子装置的该身份;以及如果该拖拽手势的方向和从该移动电子装置到该一个电子装置的方向在该一个电子装置的三维手势区域中相交,则在该一个电子装置上显示拖拽手势用户界面。
24.如权利要求23所述的三维手势交互方法,其特征在于,该识别该放下手势的步骤包括:在该一个电子装置上显示和控制该另一电子装置的该用户界面。
25.如权利要求1所述的三维手势交互方法,其特征在于,该基于该多个电子装置的该空间位置信息生成该多个电子装置的三维手势区域的步骤包括:将该一个电子装置的应用映射到移动电子装置的三维手势区域,其中,该识别该三维手势区域中的该协作手势的步骤包括:识别拾取手势、拖拽手势及/或放下手势。
26.如权利要求25所述的三维手势交互方法,其特征在于,该将该一个电子装置的该应用映射到该移动电子装置的三维手势区域的步骤包括:当该一个电子装置与该移动电子装置面对面时,将该一个电子装置处的第一应用的快捷方式映射到该移动电子装置的三维手势区域;以及根据该一个电子装置和该移动电子装置的实时位置和方向,将该移动电子装置的三维手势区域与该一个电子装置的三维手势区域结合。
27.如权利要求26所述的三维手势交互方法,其特征在于,该识别该拾取手势的步骤包括:在该一个电子装置上显示第二应用,以及在该移动电子装置上显示该第一应用的该快捷方式;获取该移动电子装置的该拾取手势的范围,并将该范围映射到该一个电子装置;并且通过该拾取手势的该范围从该一个电子装置上的该第二应用中选择对象。
28.如权利要求27所述的三维手势交互方法,其特征在于,该识别该拖拽手势的步骤包括:在该一个电子装置和该移动电子装置处显示拖拽手势用户界面。
29.如权利要求28所述的三维手势交互方法,其特征在于,该识别该放下手势的步骤包括:基于该移动电子装置通过该放下手势触摸该第一应用的该快捷方式来发送该对象。
30.如权利要求1所述的三维手势交互方法,其特征在于,该基于该多个电子装置的该空间位置信息生成该多个电子装置的三维手势区域的步骤包括:将应用快捷方式映射到该一个电子装置的侧边,其中,该识别该三维手势区域中的该协作手势的步骤包括:识别拾取手势、拖拽手势及/或放下手势。
31.如权利要求30所述的三维手势交互方法,其特征在于,将该应用快捷方式映射到该一个电子装置的侧边的步骤包括:将第一应用程序的快捷方式映射到该一个电子装置的三维手势区域的侧边,其中,该一个电子装置的该三维手势区域的侧边的不同位置对应该第一应用的不同快捷方式。
32.如权利要求31所述的三维手势交互方法,其特征在于,该识别该拾取手势的步骤包括:在该一个电子装置上显示第二应用;以及通过超声波应用的该拾取手势从该第二应用中选择一个对象。
33.如权利要求32所述的三维手势交互方法,其特征在于,该识别该拖拽手势的步骤包括:在该一个电子装置上显示拖拽手势用户界面;以及在弹出用户界面上显示该第一应用的该快捷方式。
34.如权利要求33所述的三维手势交互方法,其特征在于,该识别该放下手势的步骤包括:通过该放下手势触摸该第一应用的该快捷方式,以将该对象发送到该第一应用。
35.一种用于三维手势交互的电子装置,其中,该电子装置与多个附近电子装置执行三维手势交互,该电子装置包括:
定位处理器,配置用于基于定位技术测量该电子装置的位置信息并测量该多个附近电子装置的空间位置信息,并且配置用于设置定位更新方法、三维手势的检测方法、检测三维手势的频带和不同装置处检测手势的时序;以及
手势交互处理器,配置用于根据该电子装置的该空间位置信息生成该电子装置的三维手势区域,检测或接收协作手势,根据检测到的协作手势生成交互辅助消息,识别在该电子装置的三维手势区域中的协作手势,执行与协作手势对应的命令,检测协作手势超出该电子装置的三维手势区域,并根据该协助手势的方向将该协作手势发送给其他电子装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210010943.7A CN116450024A (zh) | 2022-01-06 | 2022-01-06 | 三维手势交互方法及其电子装置 |
US17/587,044 US11836293B2 (en) | 2022-01-06 | 2022-01-28 | Method and an electronic device for 3D gesture interaction across nearby electronic devices |
TW111104650A TWI829089B (zh) | 2022-01-06 | 2022-02-09 | 三維手勢交互方法及其電子裝置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210010943.7A CN116450024A (zh) | 2022-01-06 | 2022-01-06 | 三维手势交互方法及其电子装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116450024A true CN116450024A (zh) | 2023-07-18 |
Family
ID=86991604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210010943.7A Pending CN116450024A (zh) | 2022-01-06 | 2022-01-06 | 三维手势交互方法及其电子装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11836293B2 (zh) |
CN (1) | CN116450024A (zh) |
TW (1) | TWI829089B (zh) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW200919210A (en) | 2007-07-18 | 2009-05-01 | Steven Kays | Adaptive electronic design |
TWI667618B (zh) | 2016-11-04 | 2019-08-01 | 台灣國際物業管理顧問有限公司 | Integrated sensing positioning based on 3D information model applied to construction engineering and facility equipment management system |
KR102654621B1 (ko) | 2016-12-08 | 2024-04-04 | 삼성전자주식회사 | 객체를 디스플레이하기 위한 방법 및 그 전자 장치 |
US10890982B2 (en) | 2018-12-18 | 2021-01-12 | Samsung Electronics Co., Ltd. | System and method for multipurpose input device for two-dimensional and three-dimensional environments |
US20220137204A1 (en) * | 2020-11-02 | 2022-05-05 | Samsung Electronics Co., Ltd. | Interactive control with ranging and gesturing between devices |
US20220300079A1 (en) * | 2021-03-17 | 2022-09-22 | Lenovo (Singapore) Pte. Ltd. | Ultra-wideband to identify and control other device |
-
2022
- 2022-01-06 CN CN202210010943.7A patent/CN116450024A/zh active Pending
- 2022-01-28 US US17/587,044 patent/US11836293B2/en active Active
- 2022-02-09 TW TW111104650A patent/TWI829089B/zh active
Also Published As
Publication number | Publication date |
---|---|
US20230214023A1 (en) | 2023-07-06 |
US11836293B2 (en) | 2023-12-05 |
TW202328877A (zh) | 2023-07-16 |
TWI829089B (zh) | 2024-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3690625B1 (en) | Method and device for dynamically displaying icon according to background image | |
US20190082289A1 (en) | Portable apparatus and method of controlling location information of portable apparatus | |
KR102630452B1 (ko) | 디바이스 연결 설정 방법 및 장치 | |
CN110865756B (zh) | 图像标注方法、装置、设备及存储介质 | |
WO2014169692A1 (en) | Method,device and storage medium for implementing augmented reality | |
KR20190017280A (ko) | 이동 단말기 및 이동 단말기의 제어 방법 | |
EP2747384A1 (en) | Method for synchronizing messages among plurality of terminals, machine-readable storage medium, and server | |
US20220038883A1 (en) | Electronic Devices with Intuitive Sharing Capabilities | |
KR101680667B1 (ko) | 이동 단말기 및 이동 단말기의 제어방법 | |
CN109558000B (zh) | 一种人机交互方法及电子设备 | |
CN108769893B (zh) | 一种终端检测方法及终端 | |
KR20190043017A (ko) | 외부 전자 장치에 대한 데이터 통신을 제어하는 전자 장치 및 통신 시스템 | |
WO2023284418A1 (zh) | 定位方法、装置、电子设备以及计算机可读存储介质 | |
US20220113395A1 (en) | Method for providing service related to electronic device by forming zone, and device therefor | |
KR20150092962A (ko) | 입력 처리 방법 및 그 전자 장치 | |
KR20150051832A (ko) | 터치 기반 사용자 인터페이스를 포함하는 전자 장치 | |
KR20180058445A (ko) | 이동 단말기 및 그의 동작 방법 | |
CN109507904B (zh) | 家居设备管理方法、服务器、及管理系统 | |
CN113160031B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
KR101632220B1 (ko) | 이동 단말기, 이동 단말기의 제어방법, 그리고, 제어시스템과 그 제어방법 | |
CN108614263A (zh) | 移动终端、位置检测方法及相关产品 | |
WO2023202141A1 (zh) | 一种显示方法、控制设备及计算机存储介质 | |
CN116450024A (zh) | 三维手势交互方法及其电子装置 | |
KR101549027B1 (ko) | 이동 단말기 및 이동 단말기의 제어방법 | |
CN114466304B (zh) | 智能家居设备的控制方法、移动终端及智能家居平台 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |