CN103207670A - 利用深度传感器进行无接触操作的装置 - Google Patents
利用深度传感器进行无接触操作的装置 Download PDFInfo
- Publication number
- CN103207670A CN103207670A CN2013100091735A CN201310009173A CN103207670A CN 103207670 A CN103207670 A CN 103207670A CN 2013100091735 A CN2013100091735 A CN 2013100091735A CN 201310009173 A CN201310009173 A CN 201310009173A CN 103207670 A CN103207670 A CN 103207670A
- Authority
- CN
- China
- Prior art keywords
- posture
- client
- movement
- task
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
Abstract
本发明名称为“利用深度传感器进行无接触操作的装置”。本发明提供用于装置的无接触操作的具有创造性的系统和方法。该系统可包括:用于检测移动的深度传感器;运动软件,其从深度传感器接收所检测的移动,基于所述检测的移动推断姿势,以及过滤该姿势以接受适用的姿势;和客户端软件,其在客户端计算机处接收该适用的姿势,以便基于该适用的姿势根据客户端逻辑执行任务。客户端可以是绘图装置,并且任务可以是各种绘图操作中的一种。该系统还可以包括使所检测的移动成为适用的姿势的硬件。该系统还可以包括语音识别,其提供语音输入以使得客户端能够基于语音输入、结合适用的姿势来执行任务。适用的姿势可以是利用面部识别授权的移动。
Description
相关专利申请的交叉引用
本申请与共同拥有的、共同未决的名称为TOUCH FREE OPERATIONOF ABLATOR WORKSTATION BY USE OF DEPTH SENSORS的系列号为No.(BIO5313USNP)的美国专利申请相关,该美国专利申请与本申请同一天提交,其整个内容和公开明确地以引用方式并入本文中,就像其完全在本文中示出。
技术领域
本发明整体涉及利用深度传感器,并且在某些情况下利用语音识别来进行无接触操作的手术室装置。
背景技术
发明内容
本发明提供用于装置的无接触操作的具有创造性的系统和方法。该系统包括:用于检测移动的深度传感器;运动软件模块,其可操作以从深度传感器接收所检测的移动,基于所述检测的移动推断姿势,并且过滤该姿势以接受适用的姿势;和客户端软件模块,其可操作以在客户端计算机处接收该适用的姿势,以便基于该适用的姿势根据客户端逻辑执行任务。
在一个方面中,客户端是绘图装置,任务是旋转绘图、缩放绘图、倾斜绘图和摇动绘图中的一个。在一个方面中,移动是头部运动、手部运动和身体运动中的至少一种,并且还基于短的历史来推断姿势。在一个方面中,该系统还包括使所检测的移动成为适用的姿势的硬件。在一个方面中,适用的姿势是由利用面部识别而确定被授权的使用者执行的所检测的移动以及根据客户端逻辑的识别的姿势中的一种或更多种。在一个方面中,通过确定姿势是否是授权的和有效的来过滤所述姿势。在一个方面中,该系统还包括用于在客户端计算机处接收适用姿势的客户端通信模块。在一个方面中,该系统还包括语音识别,其提供语音输入以使得客户端能够基于语音输入、结合适用的姿势来执行任务。
本发明的用于装置的无接触操作的方法包括:利用深度传感器检测移动;利用CPU,基于所述检测的移动推断姿势;过滤该姿势以接受适用的姿势;在客户端处接收适用的姿势;以及基于该适用的姿势根据客户端逻辑执行任务。
还可以提供计算机可读存储介质,其存储可由机器执行的指令的程序,以执行本文所述的一个或更多个方法。
附图说明
通过以下结合附图的其实施例的详细说明,将更全面地理解本发明。以下将参考附图详细描述其它特征以及各个实施例的结构和操作。在附图中,相同的附图标记表示相同的或功能相似的元件。
图1为本发明系统的实施例的方框图。
图2为本发明系统的另一个实施例的方框图。
图5为本发明方法的流程图。
具体实施方式
提供用于装置的无接触操作的具有创造性的技术。根据该新型技术,人们可以执行装置的功能而不接触任何计算机设备,例如监视器、键盘、鼠标等。
如图1所示,在一个实施例中,该系统具有多个组成部分,包括深度传感器10、计算机或CPU12、通信介质14和客户端计算机16。运动检测软件模块18可驻留在CPU12中。客户端计算机16可控制目标软件模块20。通信客户端模块22可驻留在客户端计算机16中。在一个实施例中,该系统还可以包括语音识别,例如麦克风或麦克风阵列28。
深度传感器10通常包括深度察觉相机,该相机不仅记录图像,而且记录深度,以允许提供记录的图像的3D表示。本领域技术人员已知的是,深度传感器连接到计算机,该计算机利用来自传感器的深度绘图来推断运动,例如使用者的手势、姿势和位置。在医疗设定中,使用者可以是系统操作者,通常是医师。在本发明的一个实施例中,深度传感器跟踪头部和手部的移动。在另一个实施例中,深度传感器不仅跟踪手部和头部,而且还跟踪整个身体位置,例如朝向和/或远离计算机屏幕或监视器的移动。在一个实施例中,深度传感器10可以利用模块或中间件来实施,例如Kinect、Xtion PRO或Xtion PRO LIVE。可以并行使用不止一个深度传感器,以扩展遮挡处理、视野和精度。任何传感器,例如可以足够的细节实时提供深度绘图的相机,可以适于与本发明的系统一起使用。深度传感器获得位置信息,并且将该信息发送到CPU12,以用于进行如下所述的处理。本领域技术人员已知的是,由深度传感器10提供的软件和驱动器可以用来获得该位置信息。
CPU12中的运动检测软件模块或运动软件18每秒多次从深度传感器10获得所述位置信息,例如操作者相关身体部分(例如手部、头部、足部等)的位置。每个接收到的运动和/或身体位置被跟踪,并且被保存到短的历史的移动文件或数据组。
运动软件可以包括软件,该软件利用由运动软件18检测为身体部分移动的数据以及短的历史的移动数据来推断更加复杂的移动,并且将该数据处理为明显的姿势,例如手部的向前运动、圆周运动或者头部点头。例如,检测手部的线性移动和圆周移动,并且计算参数以定量这些移动。对于每个姿势,运动软件将具体的属性关联起来,这些属性为例如移动的程度、其被捕获的时刻、其速度和/或持续时间等。
通过使用身体跟踪,该系统可以与特定使用者相关联,也就是,从初始构造开始,跟踪使用者的各个移动,并且确保仅仅响应该特定使用者的运动。例如,跟踪身体的位置和移动,并且只要与前一帧的位置的差异足够小,就假定是同一个人在移动。该系统还可以通过采用以深度传感器中的相机进行的脸部检测和/或识别而与特定使用者相关联。该系统可以利用脸部检测和/或识别来在每个状态或位置中检验身体是与识别的脸部相关联的身体。这些技术可以组合,例如,在移动较小时利用身体跟踪,并且在存在不确定性时利用脸部检测和/或识别找出合适的使用者,然后和之前一样继续下去。
运动检测软件模块18还可以包括过滤器,该过滤器可以决定接受哪些运动或移动,应当忽略或过滤哪些不适用的(例如无效的和/或未授权的)运动或移动。无效的(例如不相关的)运动可以是运动检测软件模块18不能接受的运动。例如,如果运动太小或太慢而不能过滤使用者的不可控制的自然移动,那么该运动将是无效或不相关的。未授权的运动为不是合适的使用者执行的运动和/或不是根据预定条件执行的运动。例如,为了安全和/或保险起见,某些运动可能需要物理输入和/或与对应硬件装置的相互作用,例如在特定的手部运动期间和/或在手术期间指定时刻压下脚踏板。在一个实施例中,当使用多个相机并且一个相机具有医师整个身体的视图时,可以确定是否是特定医师提供适当的物理输入。这种安全措施(例如除了所检测的运动之外还需要物理输入)相信手术室中的人不会试图乱动该系统;相反,该安全措施提供额外的安全性,以便在医师/使用者做出一些错误姿势的情况下防止无意中出现的重要功能。
将硬件装置连接到系统可以防止系统进行不期望的动作,如上所述。这在医疗软件中可能是重要的。硬件装置(未示出),例如脚踏板,可以连接到客户端计算机16,该客户端计算机可响应以接收和解释装置的动作,例如脚踏板压下等,并且利用这些动作用于客户端的内部逻辑。硬件装置还可以连接到CPU12,该CPU进行运动检测并且运行该硬件装置的软件,在这种情况下,装置状态可以与所检测的运动一起发送,和/或可以根据装置的状态过滤掉某些运动。
没有过滤掉的运动通过通信介质14发送到客户端计算机16上的通信客户端模块20。通信介质14可以是串行局域网(LAN)、无线LAN(WLAN)、蓝牙、无线连接等。
客户端计算机16接收解释的运动,例如姿势。目标软件模块20确定接收的运动是否有效。无效的运动可以是在目标软件模块20内没有定义的运动。例如,如果客户端软件模块是活动的,那么朝向屏幕的运动可以被定义以倾斜绘图,但是如果另一个客户端是活动的,那么该朝向屏幕的运动可以不进行定义,使得该运动将会是不合适的或不相关的。此外,无效的运动可以是这样的运动,即其不被允许,除非满足某些预定的条件。例如,当硬件装置连接到客户端计算机时,运动仅仅在其与硬件装置的动作相结合地执行时才可被允许或者可以是有效的;例如,挥手运动可以仅仅当其在硬件装置的脚踏板被压下时执行的情况下才有效。
客户端逻辑,例如目标软件模块20,确定如何响应每个识别的(例如有效的)姿势。例如,如果目标软件模块20是形成并显示三维(3D)绘图的图形软件,那么客户端逻辑能够执行任务,例如旋转绘图、缩放绘图的一部分、倾斜绘图等。因此,客户端软件可以利用其逻辑确定,如果姿势是圆周运动,那么客户端逻辑可以执行旋转绘图的任务,并且如果姿势是推动运动,那么客户端逻辑可以执行使绘图倾斜离开使用者的任务,等等。
为了操作本发明的系统,使用者必须首先获得控制,并且启动无接触操作。为了获得控制,使用者使得系统了解使用者将发送指令。然后,系统响应于如上所述的为不同手势和/或头部和/或其它身体移动的形式的指令。当不再需要控制时或者在一段时间检测不到运动之后,可以释放控制。获得控制可以通过以下方式实现:通过利用聚焦姿势,例如挥手移动或头部移动;或者利用硬件,例如能够在压下时进行控制的脚踏板;或者通过语音命令。
系统所检测的运动不具有固定功能。根据使用者当前正在操作客户端计算机16的功能和模式,系统将含义根据其内容关联到每个姿势、姿态或移动。在一个实施例中,客户端可以是3D绘图系统,其中3D绘图逻辑作为目标软件模块。在这种情况下,例如,当使用者正在以查看模式操作客户端时,头部移动可以使绘图旋转,并且当客户端正在利用快速解剖绘图(FAM)构建3D模型时,头部移动可以使绘图摇动。此外,姿势可以选择3D绘图中的电解剖点或者点列表(其具有包括绘图的所有的点)。
可与姿势相关联的额外的含义可以包括:选择ECG通道和改变其特性(通道的增益)或符号。
在启动无接触控制时刻期间,可以向使用者显示视觉指示。可任选地,在启动和停用无接触控制的情况下可以提供语音指示。
在一个实施例中,不用手的操作可以通过语音输入得到增强,该语音输入可以单独地使用,或者与所检测的运动结合使用。例如,Kinect具有外围的麦克风,并且可检测所识别的语音传来的方向。这种和/或其它语音识别技术可以用来捕获语音命令,并且选择性地过滤来自使用者的语音命令。语音命令可以与姿势结合。例如,如果本发明与一起使用,那么使用者可以说“点列表”,然后上下移动他的手部,以滚动这些点,接着握拳以从列表中选择点。在另一个实例中,使用者可以说“点观察”,然后利用运动来选择通道和改变其特性。另外,他可以说“主绘图”或“辅助绘图”,然后利用运动来旋转、缩放和/或摇动该绘图。客户端计算机执行所有的逻辑,以便与最近识别的语音命令结合而决定每个运动的含义。在该实施例的一个版本中,一些命令可以仅仅利用语音命令或仅仅利用姿势来执行,例如,中点的采集可以仅通过说“采集”而不需要姿势来执行。
图2示出了在一个计算机26中具有CPU和客户端计算机两者的模块的实施例。在图2所示的实施例中的系统具有深度传感器10、语音识别24、运动检测软件模块18和目标软件模块20,具有与图1的那些组成部分相同的功能。然而,在该实施例中,仅仅使用一个计算机26,并且目标软件模块20包括客户端通信模块。本发明并不限于图1或图2的构造。还可以使用多个CPU,每个CPU都具有一个或更多个模块。
图3示出了与系统进行交互的使用者。在图3中,使用者在深度传感器处挥手,该深度传感器检测挥手。根据客户端软件(例如目标软件模块)当前活动的模式来解释使用者的运动(例如挥手)。例如,如果软件处于观察模式,那么挥手可以使绘图旋转,或者如果软件不活动,那么挥手可以将其启动。
图4示出了另一个使用者与系统的交互。在图4中,使用者在深度传感器处握拳,深度传感器检测使用者的手已经形成拳头。如上所述,根据客户端软件当前活动的模式来解释使用者的运动。
图5为本发明方法的流程图。在步骤S1中,使用者通常通过执行运动、语音命令或压下脚踏板来获得无接触控制系统的控制。在步骤S2中,通过深度传感器10检测包括改变位置的移动,并且将该移动传递到CPU12。在步骤S3中,CPU跟踪且保存短的历史的移动和/或位置改变。在步骤S4中,CPU12利用运动软件从根据短的历史接收的运动推断更加复杂的移动或姿势。在步骤S5和S6中执行过滤。在步骤S5中,通过确定移动是否处于预定位置内和/或通过执行面部识别,来确定姿势是否由授权的或合适的使用者执行。如果姿势被确定为由授权的使用者执行(S5=是),那么处理过程继续进行步骤S6,在步骤S6中由CPU验证该姿势。如果姿势是有效的(S6=是),那么其被发送到客户端计算机,并且在步骤S3处重新开始额外的运动跟踪。在步骤S7处,在客户端计算机处的通信客户端模块处接收该姿势。如果活动的目标软件模块识别该姿势(S8=是),那么在步骤S9处,客户端计算机基于推断的姿势根据客户端逻辑或目标软件模块执行装置功能或操作(例如任务)。这些任务包括但不限于,通过缩放、绕轴旋转等来获得3D绘图的不同视角。一旦运动软件将姿势发送到客户端计算机(当S6=是时),运动软件就返回到响应下一个检测的运动和/或身体位置。
在一个实施例中,执行授权的移动还需要确定该移动是否是与硬件诸如另一个装置结合执行的。在该实施例中,授权的移动必须包括由软件推断的复杂的移动以及诸如脚踏板上的踩踏的额外动作两者。该授权可以在步骤S5(当S5=是时)之后且在步骤S6之前执行。
如果所检测的移动没有被授权(S5=否)或者所检测的移动不是有效的(S6=否),那么处理过程继续进行步骤S3。如果不是由客户端软件识别该姿势(S8=否),那么不执行任务。
本发明的系统有利地允许这样执行任务:通过利用头部跟踪操作缩放装置和/或其它运动检测技术,以允许医生或其它系统使用者执行某些动作,同时仍然利用他的两只手进行导管的导航。有利地,该系统可以仅仅针对允许的人员过滤姿势并且发送姿势。这确保了该系统仅仅由期望的人控制。其它人的手势和头部移动以及其它动作可以被忽略。
本发明的各个方面可以实施为包含或存储在计算机或机器可用或可读介质中的程序、软件或计算机指令,其在计算机、处理器、和/或机器上执行时使得计算机或机器执行本方法的步骤。还提供机器可读的程序存储装置,例如计算机可读介质,其有形地包含可由机器执行的指令程序,以执行本公开中所述的各种功能和方法。
本发明的系统和方法可以在通用计算机或专用计算机系统上实施和运行。计算机系统可以是任何类型的已知或将已知的系统,并且通常可以包括处理器、内存装置、存储器装置、输入/输出装置、内部总线和/或通信接口等,该通信接口用于与其它计算机系统通信,所述计算机系统与通信硬件和软件结合。该系统还可以在虚拟计算机系统上实施,该虚拟计算机系统俗称为云。
计算机可读介质为计算机可读存储装置,其可以为例如磁性、光学、电子、电磁、红外或半导体系统、设备或装置、或者上述中任何合适的组合;然而,计算机可读存储装置并不限于这些实例。计算机可读存储装置的其它具体实例可以包括:便携式计算机磁盘、硬盘、磁性存储装置、便携式只读光盘驱动器(CD-ROM)、随机访问存储器(RAM)、只读存储器(ROM)、易擦写可编程只读存储器(EPROM或闪存存储器)、具有一个或更多个线材的电气连接件、光纤、光学存储装置、或者上述中任何合适的组合;然而,计算机可读存储介质也不限于这些实例。通过或结合指令执行系统、设备或装置而可包含或存储使用的程序的任何有形介质可以是计算机可读存储装置。
可以在本申请中使用的术语“计算机系统”和“计算机网络”可以包括固定和/或便携式计算机硬件、软件、外围设备和存储装置的多种组合。计算机系统可以包括多个单独的组成部分,这些组成部分通过网络连接或者以其它方式连接以协作地执行,或者可以包括一个或更多个独立的组成部分。本申请的计算机系统的硬件和软件组成部分可以包括并且可以包括在固定和便携式装置,例如台式机、便携式电脑和/或服务器、以及服务器网络(云)中。模块可以是实施某些“功能”的装置、软件、程序或系统的组成部分,其可以实施为软件、硬件、固件、电路等。
上述实施例为示例性实例,并且不应当认为本发明受限于这些具体实施例。从而,在不脱离所附权利要求限定的本发明的精神或范围的情况下,本领域技术人员可以进行各种变化和修改。
Claims (22)
1.一种用于装置的无接触操作的系统,包括:
用于检测移动的深度传感器;
运动软件模块,所述运动软件模块可操作以从所述深度传感器接收所检测的移动,基于所述检测的移动推断姿势,以及过滤所述姿势以接受适用的姿势;和
客户端软件模块,所述客户端软件模块可操作以在客户端计算机处接收所述适用的姿势,以便基于所述适用的姿势根据客户端逻辑执行任务。
2.根据权利要求1所述的系统,其中所述客户端是绘图装置,并且所述任务是旋转绘图、缩放绘图、倾斜绘图和摇动绘图中的一种。
3.根据权利要求1所述的系统,其中所述移动是头部运动、手部运动和身体运动中的至少一种,并且还基于短的历史来推断所述姿势。
4.根据权利要求1所述的系统,还包括用于使所述检测的移动成为所述适用的姿势的硬件。
5.根据权利要求1所述的系统,其中所述适用的姿势是由利用面部识别而确定被授权的使用者执行的所述检测的移动以及根据所述客户端逻辑的识别的姿势中的一种或更多种。
6.根据权利要求1所述的系统,其中通过确定所述姿势是否是授权的和有效的来过滤所述姿势。
7.根据权利要求1所述的系统,还包括用于在所述客户端计算机处接收所述适用姿势的客户端通信模块。
8.根据权利要求1所述的系统,还包括语音识别,所述语音识别提供语音输入以使得所述客户端能够基于所述语音输入、结合所述适用的姿势来执行所述任务。
9.一种用于装置的无接触操作的方法,包括:
利用深度传感器检测移动;
基于所检测的移动推断姿势;
过滤所述姿势以接受适用的姿势;
在客户端处接收所述适用的姿势;以及
基于所述适用的姿势根据客户端逻辑执行任务。
10.根据权利要求9所述的方法,其中所述客户端是绘图装置,并且所述任务是旋转绘图、缩放绘图、倾斜绘图和摇动绘图中的一种。
11.根据权利要求9所述的方法,其中所述移动是头部运动、手部运动和身体运动中的至少一种,并且还基于短的历史来推断所述姿势。
12.根据权利要求9所述的方法,其中在启动硬件的同时执行所述适用的姿势。
13.根据权利要求9所述的方法,其中所述适用的姿势是由利用面部识别而确定被授权的使用者执行的所述检测的移动。
14.根据权利要求9所述的方法,其中所述适用的姿势是根据所述客户端逻辑的识别的姿势。
15.根据权利要求9所述的方法,还包括利用语音识别提供语音输入的步骤,其中基于所述语音输入、结合所述适用的姿势来完成执行步骤。
16.根据权利要求9所述的方法,过滤所述姿势的步骤包括确定所述姿势是否是授权的和有效的。
17.一种计算机可读存储装置,其存储能够由机器执行的指令程序,以执行用于装置的无接触操作的方法,所述方法包括:
利用深度传感器检测移动;
利用CPU,基于所检测的移动推断姿势;
过滤所述姿势以接受适用的姿势;
在客户端处接收所述适用的姿势;以及
基于所述适用的姿势根据客户端逻辑执行任务。
18.根据权利要求17所述的程序,其中所述客户端是绘图装置,其中所述任务是旋转绘图、缩放绘图、倾斜绘图和摇动绘图中的一种。
19.根据权利要求17所述的程序,其中所述移动是头部运动、手部运动和身体运动中的至少一种。
20.根据权利要求17所述的程序,其中所述适用的姿势是在启动硬件的同时执行的运动以及由利用面部识别而确定被授权的使用者进行的运动中的一种。
21.根据权利要求17所述的程序,过滤所述姿势包括确定所述姿势是否是授权的和有效的。
22.根据权利要求17所述的程序,还包括利用语音识别提供语音输入,其中基于所述语音输入、结合所述适用的姿势来完成执行步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910588214.8A CN110502104A (zh) | 2012-01-11 | 2013-01-10 | 利用深度传感器进行无接触操作的装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/347,943 US9625993B2 (en) | 2012-01-11 | 2012-01-11 | Touch free operation of devices by use of depth sensors |
US13/347,943 | 2012-01-11 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910588214.8A Division CN110502104A (zh) | 2012-01-11 | 2013-01-10 | 利用深度传感器进行无接触操作的装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103207670A true CN103207670A (zh) | 2013-07-17 |
Family
ID=47738996
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2013100091735A Pending CN103207670A (zh) | 2012-01-11 | 2013-01-10 | 利用深度传感器进行无接触操作的装置 |
CN201910588214.8A Pending CN110502104A (zh) | 2012-01-11 | 2013-01-10 | 利用深度传感器进行无接触操作的装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910588214.8A Pending CN110502104A (zh) | 2012-01-11 | 2013-01-10 | 利用深度传感器进行无接触操作的装置 |
Country Status (8)
Country | Link |
---|---|
US (1) | US9625993B2 (zh) |
EP (1) | EP2615525B1 (zh) |
JP (2) | JP6153728B2 (zh) |
CN (2) | CN103207670A (zh) |
AU (1) | AU2013200054B2 (zh) |
CA (1) | CA2801496A1 (zh) |
ES (1) | ES2736966T3 (zh) |
IL (1) | IL224096B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105874424A (zh) * | 2014-01-10 | 2016-08-17 | 微软技术许可有限责任公司 | 协同的语音和姿态输入 |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8641663B2 (en) | 2008-03-27 | 2014-02-04 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic catheter system input device |
US9241768B2 (en) | 2008-03-27 | 2016-01-26 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Intelligent input device controller for a robotic catheter system |
US9161817B2 (en) | 2008-03-27 | 2015-10-20 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic catheter system |
US8317744B2 (en) | 2008-03-27 | 2012-11-27 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic catheter manipulator assembly |
US8343096B2 (en) | 2008-03-27 | 2013-01-01 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic catheter system |
US8684962B2 (en) | 2008-03-27 | 2014-04-01 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic catheter device cartridge |
WO2009120982A2 (en) | 2008-03-27 | 2009-10-01 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic catheter system with dynamic response |
US9439736B2 (en) | 2009-07-22 | 2016-09-13 | St. Jude Medical, Atrial Fibrillation Division, Inc. | System and method for controlling a remote medical device guidance system in three-dimensions using gestures |
US9330497B2 (en) | 2011-08-12 | 2016-05-03 | St. Jude Medical, Atrial Fibrillation Division, Inc. | User interface devices for electrophysiology lab diagnostic and therapeutic equipment |
US9888973B2 (en) | 2010-03-31 | 2018-02-13 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Intuitive user interface control for remote catheter navigation and 3D mapping and visualization systems |
CA2906976A1 (en) * | 2013-05-16 | 2014-11-20 | Wavelight Gmbh | Touchless user interface for ophthalmic devices |
US20140358684A1 (en) * | 2013-06-03 | 2014-12-04 | Cloudwear, Inc. | System for communicating primary and supplemental advertiser information using a server |
CN103823555A (zh) * | 2014-01-23 | 2014-05-28 | 珠海恒宇新科技有限公司 | 一种3d手势转换为键码的系统及方法 |
DE102014201313A1 (de) * | 2014-01-24 | 2015-07-30 | Myestro Interactive Gmbh | Verfahren zur Erkennung einer Bewegungsbahn mindestens eines bewegten Objektes innerhalb eines Erfassungsbereiches, Verfahren zur Gestikerkennung unter Einsatz eines derartigen Erkennungsverfahrens sowie Vorrichtung zur Durchführung eines derartigen Erkennungsverfahrens |
KR102249824B1 (ko) | 2014-02-24 | 2021-05-10 | 삼성전자주식회사 | 신체 정보 감지장치 및 이의 신체 정보 감지방법 |
KR20150112337A (ko) * | 2014-03-27 | 2015-10-07 | 삼성전자주식회사 | 디스플레이 장치 및 그 사용자 인터랙션 방법 |
CN104834244A (zh) * | 2014-11-05 | 2015-08-12 | 电子科技大学 | 一种手势开关及手势控制方法 |
US10179407B2 (en) * | 2014-11-16 | 2019-01-15 | Robologics Ltd. | Dynamic multi-sensor and multi-robot interface system |
US10613637B2 (en) * | 2015-01-28 | 2020-04-07 | Medtronic, Inc. | Systems and methods for mitigating gesture input error |
US11347316B2 (en) | 2015-01-28 | 2022-05-31 | Medtronic, Inc. | Systems and methods for mitigating gesture input error |
US10600015B2 (en) | 2015-06-24 | 2020-03-24 | Karl Storz Se & Co. Kg | Context-aware user interface for integrated operating room |
US10045825B2 (en) | 2015-09-25 | 2018-08-14 | Karl Storz Imaging, Inc. | Partial facial recognition and gaze detection for a medical system |
US10303417B2 (en) | 2017-04-03 | 2019-05-28 | Youspace, Inc. | Interactive systems for depth-based input |
US10303259B2 (en) | 2017-04-03 | 2019-05-28 | Youspace, Inc. | Systems and methods for gesture-based interaction |
US10437342B2 (en) | 2016-12-05 | 2019-10-08 | Youspace, Inc. | Calibration systems and methods for depth-based interfaces with disparate fields of view |
CN110545886A (zh) * | 2016-12-05 | 2019-12-06 | 优史佩斯公司 | 用于基于手势的交互的系统和方法 |
USD878414S1 (en) | 2017-04-19 | 2020-03-17 | Navix International Limited | Display screen or portion thereof with icon |
USD843385S1 (en) * | 2017-04-19 | 2019-03-19 | Navix International Limited | Display screen or portion thereof with graphical user interface |
US10798339B2 (en) * | 2017-06-14 | 2020-10-06 | Roborep Inc. | Telepresence management |
USD878413S1 (en) | 2017-09-28 | 2020-03-17 | Navix International Limited | Display screen or portion thereof with icon |
USD918929S1 (en) | 2017-09-28 | 2021-05-11 | Navix International Limited | Display screen or portion thereof with panoramic view |
USD889476S1 (en) | 2017-09-28 | 2020-07-07 | Navix International Limited | Display screen or portion thereof with panoramic view |
CN108519819A (zh) * | 2018-03-30 | 2018-09-11 | 北京金山安全软件有限公司 | 智能设备的处理方法、装置、智能设备及介质 |
US10832392B2 (en) * | 2018-12-19 | 2020-11-10 | Siemens Healthcare Gmbh | Method, learning apparatus, and medical imaging apparatus for registration of images |
KR20200085970A (ko) * | 2019-01-07 | 2020-07-16 | 현대자동차주식회사 | 자동차 및 그 제어 방법 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6243683B1 (en) * | 1998-12-29 | 2001-06-05 | Intel Corporation | Video control of speech recognition |
CN101119680A (zh) * | 2005-02-18 | 2008-02-06 | 皇家飞利浦电子股份有限公司 | 医疗设备的自动控制 |
US20090079813A1 (en) * | 2007-09-24 | 2009-03-26 | Gesturetek, Inc. | Enhanced Interface for Voice and Video Communications |
US20090228841A1 (en) * | 2008-03-04 | 2009-09-10 | Gesture Tek, Inc. | Enhanced Gesture-Based Image Manipulation |
US20100280363A1 (en) * | 2009-04-24 | 2010-11-04 | Medtronic, Inc. | Electromagnetic Navigation of Medical Instruments for Cardiothoracic Surgery |
JP2011232964A (ja) * | 2010-04-28 | 2011-11-17 | Casio Comput Co Ltd | 電気機器、及びその制御方法とプログラム |
CN102306051A (zh) * | 2010-06-18 | 2012-01-04 | 微软公司 | 复合姿势-语音命令 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6368269B1 (en) * | 1993-05-20 | 2002-04-09 | Tilane Corporation | Apparatus for concurrent actuation of multiple foot pedal operated switches |
JP2000347692A (ja) * | 1999-06-07 | 2000-12-15 | Sanyo Electric Co Ltd | 人物検出方法、人物検出装置及びそれを用いた制御システム |
WO2001082811A1 (en) | 2000-04-27 | 2001-11-08 | Medtronic, Inc. | System and method for assessing transmurality of ablation lesions |
US7110580B2 (en) | 2000-05-19 | 2006-09-19 | Nextgenid, Inc. | Distributed biometric access control method and apparatus |
EP1853167A2 (en) * | 2005-02-18 | 2007-11-14 | Koninklijke Philips Electronics N.V. | Automatic control of a medical device |
US8411034B2 (en) | 2009-03-12 | 2013-04-02 | Marc Boillot | Sterile networked interface for medical systems |
WO2007127338A2 (en) | 2006-04-27 | 2007-11-08 | Bruce Reiner | Apparatus and method for utilizing biometrics in medical applications |
EP2153377A4 (en) | 2007-05-04 | 2017-05-31 | Qualcomm Incorporated | Camera-based user input for compact devices |
EP2291815A2 (en) | 2008-05-07 | 2011-03-09 | Carrot Medical Llc | Integration system for medical instruments with remote control |
US8315876B2 (en) * | 2008-05-09 | 2012-11-20 | Plantronics, Inc. | Headset wearer identity authentication with voice print or speech recognition |
US20100013812A1 (en) | 2008-07-18 | 2010-01-21 | Wei Gu | Systems for Controlling Computers and Devices |
US8903475B2 (en) | 2009-03-08 | 2014-12-02 | Oprobe, Llc | Multi-function optical probe system for medical and veterinary applications |
US8253746B2 (en) * | 2009-05-01 | 2012-08-28 | Microsoft Corporation | Determine intended motions |
US8390680B2 (en) * | 2009-07-09 | 2013-03-05 | Microsoft Corporation | Visual representation expression based on player expression |
KR101626159B1 (ko) | 2009-11-25 | 2016-05-31 | 엘지전자 주식회사 | 사용자 적응형 디스플레이 장치 및 디스플레이 방법 |
US9542001B2 (en) * | 2010-01-14 | 2017-01-10 | Brainlab Ag | Controlling a surgical navigation system |
US20110208685A1 (en) * | 2010-02-25 | 2011-08-25 | Hariraam Varun Ganapathi | Motion Capture Using Intelligent Part Identification |
US9888973B2 (en) | 2010-03-31 | 2018-02-13 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Intuitive user interface control for remote catheter navigation and 3D mapping and visualization systems |
US9245177B2 (en) * | 2010-06-02 | 2016-01-26 | Microsoft Technology Licensing, Llc | Limiting avatar gesture display |
US8749557B2 (en) * | 2010-06-11 | 2014-06-10 | Microsoft Corporation | Interacting with user interface via avatar |
US20120089392A1 (en) * | 2010-10-07 | 2012-04-12 | Microsoft Corporation | Speech recognition user interface |
US8768006B2 (en) | 2010-10-19 | 2014-07-01 | Hewlett-Packard Development Company, L.P. | Hand gesture recognition |
US9626498B2 (en) | 2011-12-15 | 2017-04-18 | France Telecom | Multi-person gestural authentication and authorization system and method of operation thereof |
-
2012
- 2012-01-11 US US13/347,943 patent/US9625993B2/en active Active
-
2013
- 2013-01-02 IL IL224096A patent/IL224096B/en active IP Right Grant
- 2013-01-07 AU AU2013200054A patent/AU2013200054B2/en not_active Ceased
- 2013-01-09 CA CA2801496A patent/CA2801496A1/en not_active Abandoned
- 2013-01-10 CN CN2013100091735A patent/CN103207670A/zh active Pending
- 2013-01-10 JP JP2013002419A patent/JP6153728B2/ja active Active
- 2013-01-10 CN CN201910588214.8A patent/CN110502104A/zh active Pending
- 2013-01-10 ES ES13150837T patent/ES2736966T3/es active Active
- 2013-01-10 EP EP13150837.6A patent/EP2615525B1/en active Active
-
2017
- 2017-03-17 JP JP2017052449A patent/JP6306236B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6243683B1 (en) * | 1998-12-29 | 2001-06-05 | Intel Corporation | Video control of speech recognition |
CN101119680A (zh) * | 2005-02-18 | 2008-02-06 | 皇家飞利浦电子股份有限公司 | 医疗设备的自动控制 |
US20090079813A1 (en) * | 2007-09-24 | 2009-03-26 | Gesturetek, Inc. | Enhanced Interface for Voice and Video Communications |
US20090228841A1 (en) * | 2008-03-04 | 2009-09-10 | Gesture Tek, Inc. | Enhanced Gesture-Based Image Manipulation |
US20100280363A1 (en) * | 2009-04-24 | 2010-11-04 | Medtronic, Inc. | Electromagnetic Navigation of Medical Instruments for Cardiothoracic Surgery |
JP2011232964A (ja) * | 2010-04-28 | 2011-11-17 | Casio Comput Co Ltd | 電気機器、及びその制御方法とプログラム |
CN102306051A (zh) * | 2010-06-18 | 2012-01-04 | 微软公司 | 复合姿势-语音命令 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105874424A (zh) * | 2014-01-10 | 2016-08-17 | 微软技术许可有限责任公司 | 协同的语音和姿态输入 |
Also Published As
Publication number | Publication date |
---|---|
JP6153728B2 (ja) | 2017-06-28 |
EP2615525A3 (en) | 2016-05-18 |
JP6306236B2 (ja) | 2018-04-04 |
ES2736966T3 (es) | 2020-01-09 |
CA2801496A1 (en) | 2013-07-11 |
AU2013200054A1 (en) | 2013-07-25 |
EP2615525B1 (en) | 2019-05-15 |
JP2013143148A (ja) | 2013-07-22 |
AU2013200054B2 (en) | 2016-06-16 |
IL224096B (en) | 2018-07-31 |
US9625993B2 (en) | 2017-04-18 |
CN110502104A (zh) | 2019-11-26 |
EP2615525A2 (en) | 2013-07-17 |
US20130179162A1 (en) | 2013-07-11 |
JP2017162476A (ja) | 2017-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103207670A (zh) | 利用深度传感器进行无接触操作的装置 | |
CN103207671A (zh) | 利用深度传感器进行无接触操作的烧蚀工作站 | |
EP3781896B1 (en) | System for locating and identifying an object in unconstrained environments | |
US10678329B2 (en) | Line-of-sight input device, and method of line-of-sight input | |
US9213436B2 (en) | Fingertip location for gesture input | |
JP6389581B1 (ja) | プログラム、電子装置、及び方法 | |
US20200074734A1 (en) | REAL-WORLD OBJECT INTERFACE FOR VIRTUAL, AUGMENTED, AND MIXED REALITY (xR) APPLICATIONS | |
WO2018099258A1 (zh) | 无人机的飞行控制方法和装置 | |
CN110472396B (zh) | 一种体感手势触控方法、系统、平台及存储介质 | |
US20150355717A1 (en) | Switching input rails without a release command in a natural user interface | |
JP5558899B2 (ja) | 情報処理装置、その処理方法及びプログラム | |
US9898183B1 (en) | Motions for object rendering and selection | |
KR101360322B1 (ko) | 다양한 손모양 검출 및 추적을 기반으로 한 원격 전자칠판 제어 장치 및 그 방법 | |
JP5456817B2 (ja) | 表示制御装置、表示制御方法、情報表示システム及びプログラム | |
Prabhakar et al. | Comparison of three hand movement tracking sensors as cursor controllers | |
CN113590014B (zh) | 基于姿态动作的电梯召唤方法、装置和计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20130717 |
|
RJ01 | Rejection of invention patent application after publication |