ES2761248T3 - Contactless handling of the ablation instrument workstation using depth sensors - Google Patents

Contactless handling of the ablation instrument workstation using depth sensors Download PDF

Info

Publication number
ES2761248T3
ES2761248T3 ES13150838T ES13150838T ES2761248T3 ES 2761248 T3 ES2761248 T3 ES 2761248T3 ES 13150838 T ES13150838 T ES 13150838T ES 13150838 T ES13150838 T ES 13150838T ES 2761248 T3 ES2761248 T3 ES 2761248T3
Authority
ES
Spain
Prior art keywords
gesture
movement
client
applicable
storage device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13150838T
Other languages
Spanish (es)
Inventor
Asaf Merschon
Assaf Govari
Andres Claudio Altmann
Yitzhack Schwartz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Biosense Webster Israel Ltd
Original Assignee
Biosense Webster Israel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Biosense Webster Israel Ltd filed Critical Biosense Webster Israel Ltd
Application granted granted Critical
Publication of ES2761248T3 publication Critical patent/ES2761248T3/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • A61B18/1206Generators therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00221Electrical control of surgical instruments with wireless transmission of data, e.g. by infrared radiation or radiowaves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00973Surgical instruments, devices or methods, e.g. tourniquets pedal-operated
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00571Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for achieving a particular surgical effect
    • A61B2018/00577Ablation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00988Means for storing information, e.g. calibration constants, or for preventing excessive use, e.g. usage, service life counter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Otolaryngology (AREA)
  • Human Computer Interaction (AREA)
  • Plasma & Fusion (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Un sistema para el manejo sin contacto de una estación de trabajo del instrumento de ablación que comprende: un sensor de profundidad (10) para detectar un movimiento; un módulo de software de movimiento (18) operable para recibir el movimiento detectado desde el sensor de profundidad (10), deducir un gesto en base al movimiento detectado; y un módulo de software de cliente (20) operable para recibir el gesto aplicable en un ordenador cliente (16) en la estación de trabajo del instrumento de ablación para realizar una tarea de acuerdo con la lógica del cliente en base al gesto aplicable, caracterizado porque el módulo de software de cliente es operable para permitir que un usuario específico controle dicha tarea solo después de presionar un pedal conectado al ordenador del cliente, después de recibir un comando de voz, o después de recibir un gesto de enfoque, y además operable para filtrar el gesto para aceptar un gesto aplicable determinando si dicho gesto es realizado por dicho usuario específico mediante el seguimiento del cuerpo para determinar si el movimiento está dentro de una ubicación del cuerpo prevista y/o realizando reconocimiento facial.A system for non-contact management of an ablation instrument workstation comprising: a depth sensor (10) for detecting movement; a motion software module (18) operable to receive the detected motion from the depth sensor (10), derive a gesture based on the detected motion; and a client software module (20) operable to receive the applicable gesture on a client computer (16) at the ablation instrument workstation to perform a task according to the client's logic based on the applicable gesture, characterized because the client software module is operable to allow a specific user to control said task only after pressing a pedal connected to the client's computer, after receiving a voice command, or after receiving a focus gesture, and further operable to filter the gesture to accept an applicable gesture by determining whether said gesture is performed by said specific user by tracking the body to determine whether the movement is within a predicted body location and / or performing facial recognition.

Description

DESCRIPCIÓNDESCRIPTION

Manejo sin contacto de estación de trabajo del instrumento de ablación mediante el uso de sensores de profundidad CAMPO DE LA INVENCIÓN Contactless handling of the ablation instrument workstation using depth sensors FIELD OF THE INVENTION

La presente invención se refiere de manera general al manejo sin contacto de dispositivos de quirófano mediante el uso de sensores de profundidad y, en algunas situaciones, el reconocimiento de voz.The present invention relates generally to the contactless handling of operating room devices through the use of depth sensors and, in some situations, voice recognition.

ANTECEDENTES DE LA INVENCIÓNBACKGROUND OF THE INVENTION

En una quirófano, el médico necesita permanecer estéril; por lo tanto, él o ella no pueden acceder físicamente a un ordenador para recibir asistencia durante la cirugía. Por consiguiente, cualquier tarea que el médico quiera realizar usando aplicaciones informáticas en dispositivos de quirófano, como una estación de trabajo del instrumento de ablación, debe ser realizada por otro. Es necesario que el médico sea capaz de manejar estos dispositivos sin tocar físicamente el dispositivo o sus accesorios, por ejemplo, su teclado, pantalla, mouse, etc. Los documentos WO 2009/137688 A2, US 2010/013764 A1, US 2010/231509 A1 y WO 2011/123669 A1 divulgan la técnica anterior relacionada.In an operating room, the doctor needs to remain sterile; therefore, he or she cannot physically access a computer for assistance during surgery. Accordingly, any tasks the physician wants to perform using computer applications on operating room devices, such as an ablation instrument workstation, must be performed by another. It is necessary for the doctor to be able to operate these devices without physically touching the device or its accessories, for example, its keyboard, screen, mouse, etc. WO 2009/137688 A2, US 2010/013764 A1, US 2010/231509 A1 and WO 2011/123669 A1 disclose the related prior art.

SUMARIO DE LA INVENCIÓNSUMMARY OF THE INVENTION

Se presenta un sistema inventivo y un dispositivo de almacenamiento legible por ordenador que almacena un programa de instrucciones ejecutables por una máquina para realizar un método para el manejo sin contacto de una estación de trabajo del instrumento de ablación. El sistema comprende un sensor de profundidad para detectar un movimiento, un módulo de software de movimiento operable para recibir el movimiento detectado desde el sensor de profundidad, deducir un gesto en base al movimiento detectado y filtrar el gesto para aceptar un gesto aplicable, y un módulo de software cliente manejable para recibir el gesto aplicable en un ordenador cliente en o asociado con la estación de trabajo del instrumento de ablación para realizar una tarea de acuerdo con la lógica del cliente basada en el gesto aplicable.An inventive system and a computer readable storage device are presented which stores a program of instructions executable by a machine to perform a method for non-contact handling of a work station of the ablation instrument. The system comprises a depth sensor to detect a movement, a motion software module operable to receive the detected movement from the depth sensor, deduce a gesture based on the detected movement and filter the gesture to accept an applicable gesture, and a Manageable client software module to receive the applicable gesture on a client computer at or associated with the ablation instrument workstation to perform a task according to the client's logic based on the applicable gesture.

En un aspecto, la tarea es cambiar la configuración de potencia de uno o más electrodos, cambiar la temperatura máxima permitida para uno o más electrodos, cambiar el modo de ablación entre unipolar y bipolar, seleccionar y deseleccionar electrodos para la ablación. En un aspecto, el movimiento es por lo menos uno de un movimiento de la cabeza, un movimiento de la mano y un movimiento del cuerpo y el gesto se deduce adicionalmente en base a un historial corto. En un aspecto, el sistema comprende además hardware para hacer que el movimiento detectado sea un gesto aplicable. En un aspecto, el gesto aplicable es uno o más del movimiento detectado realizado por un usuario que se determina que está autorizado usando reconocimiento facial, y un gesto reconocido de acuerdo con la lógica del cliente. En un aspecto, el filtrado del gesto se realiza determinando si el gesto está autorizado y es válido. En un aspecto, el sistema comprende además un módulo de comunicación de cliente para recibir el gesto de aplicación en el ordenador cliente. En un aspecto, el sistema comprende además el reconocimiento de voz que proporciona entrada de voz para permitir que el cliente realice la tarea en base a la entrada de voz junto con el gesto aplicable.In one aspect, the task is to change the power settings of one or more electrodes, change the maximum allowable temperature for one or more electrodes, change the ablation mode between unipolar and bipolar, select and deselect electrodes for ablation. In one aspect, the movement is at least one of a head movement, a hand movement, and a body movement, and the gesture is further deduced based on a short history. In one aspect, the system further comprises hardware to make the detected movement an applicable gesture. In one aspect, the applicable gesture is one or more of the detected movement made by a user who is determined to be authorized using facial recognition, and a gesture recognized in accordance with customer logic. In one aspect, the filtering of the gesture is performed by determining whether the gesture is authorized and valid. In one aspect, the system further comprises a client communication module for receiving the application gesture on the client computer. In one aspect, the system further comprises voice recognition that provides voice input to allow the customer to perform the task based on voice input along with the applicable gesture.

Un dispositivo de almacenamiento legible por ordenador que almacena un programa de instrucciones ejecutables por una máquina para realizar un método para el manejo sin contacto de una estación de trabajo del instrumento de ablación comprende detectar un movimiento usando un sensor de profundidad, deducir, usando una CPU, un gesto en base al movimiento detectado, filtrar el gesto para aceptar un gesto aplicable, recibir el gesto aplicable en un cliente en la estación de trabajo del instrumento de ablación y realizar una tarea de acuerdo con la lógica de cliente en base al gesto aplicable.A computer-readable storage device that stores a program of instructions executable by a machine to perform a method for contactless handling of an ablation instrument workstation comprises detecting movement using a depth sensor, deducing, using a CPU , a gesture based on the detected movement, filter the gesture to accept an applicable gesture, receive the applicable gesture on a client at the ablation instrument workstation and perform a task according to the client logic based on the applicable gesture .

La invención se define por el alcance de las reivindicaciones independientes adjuntas 1 y 5. Otras realizaciones preferidas se divulgan en las reivindicaciones dependientes.The invention is defined by the scope of the attached independent claims 1 and 5. Other preferred embodiments are disclosed in the dependent claims.

BREVE DESCRIPCIÓN DE LOS DIBUJOSBRIEF DESCRIPTION OF THE DRAWINGS

La presente invención se entenderá más completamente a partir de la siguiente descripción detallada de las realizaciones de la misma, tomada junto con los dibujos. A continuación se describen con detalle características adicionales, así como la estructura y el funcionamiento de varias realizaciones con referencia a los dibujos acompañantes. En los dibujos, números de referencia similares indican elementos idénticos o funcionalmente similares.The present invention will be more fully understood from the following detailed description of the embodiments thereof, taken in conjunction with the drawings. Further features, as well as the structure and operation of various embodiments, are described in detail below with reference to the accompanying drawings. In the drawings, similar reference numbers indicate identical or functionally similar elements.

La Figura 1 es un diagrama de bloques de una realización del sistema de la invención.Figure 1 is a block diagram of an embodiment of the system of the invention.

La Figura 2 es un diagrama de bloques de otra realización del sistema de la invención. Figure 2 is a block diagram of another embodiment of the system of the invention.

La Figura 3 es un diagrama de flujo del método de la invención, almacenado en un dispositivo de almacenamiento legible por ordenador.Figure 3 is a flow chart of the method of the invention, stored in a computer readable storage device.

DESCRIPCIÓN DETALLADADETAILED DESCRIPTION

Se presenta una técnica inventiva para el manejo sin contacto de una estación de trabajo de ablación. De acuerdo con esta nueva tecnología, una persona puede realizar las funciones de la estación de trabajo de ablación sin tocar ningún aparato informático, por ejemplo, un monitor, un teclado, un ratón, etc.An inventive technique for contactless handling of an ablation workstation is presented. According to this new technology, a person can perform the functions of the ablation workstation without touching any computing device, for example a monitor, keyboard, mouse, etc.

Como se muestra en la Figura 1, el sistema en una realización comprende varios componentes que incluyen un sensor de profundidad 10, un ordenador o CPU 12, un medio de comunicación 14 y un ordenador cliente 16 que es parte de la estación de trabajo de ablación. Un módulo de software de detección de movimiento 18 puede residir en la CPU 12. El ordenador cliente 16 puede controlar un módulo de software de objetivo 20. Un módulo de cliente de comunicación 22 puede residir en el ordenador cliente 16. En una realización, el sistema también puede incluir reconocimiento de voz, como un micrófono o una matriz de micrófonos 28. As shown in Figure 1, the system in one embodiment comprises various components including a depth sensor 10, a computer or CPU 12, a communication medium 14, and a client computer 16 that is part of the ablation workstation . A motion detection software module 18 may reside on CPU 12. Client computer 16 may control a target software module 20. A communication client module 22 may reside on client computer 16. In one embodiment, the The system may also include voice recognition, such as a microphone or an array of 28 microphones .

El sensor de profundidad 10 incluye típicamente una cámara con reconocimiento de profundidad que no solo graba imágenes sino que también registra profundidad, permitiendo la representación en 3D de las imágenes grabadas. Como sabe un experto en la técnica, un sensor de profundidad está conectado a un ordenador que usa el mapa de profundidad del sensor para deducir el movimiento, por ejemplo, gestos con las manos, posturas y posiciones de un usuario. En un entorno médico, el usuario puede ser el operador del sistema, generalmente un médico. En una realización de la presente invención, el sensor de profundidad hace un seguimiento de los movimientos de la cabeza y de las manos. En otra realización, el sensor de profundidad hace un seguimiento no solo de las manos y la cabeza sino también de la ubicación general del cuerpo, como el movimiento hacia y/o lejos de la pantalla o monitor del ordenador. En una realización, el sensor de profundidad 10 puede implementarse usando módulos o middleware como Microsoft® Kinect, ASUS® Xtion PRO o ASUS® Xtion PRO LIVE. Puede usarse más de un sensor de profundidad en paralelo para ampliar el manejo de la oclusión, el campo de visión y la precisión. Cualquier sensor, como una cámara que pueda proporcionar un mapa de profundidad con suficiente detalle en tiempo real, puede ajustarse para su uso con el sistema de la invención. El sensor de profundidad obtiene información de la ubicación y envía esta información a la CPU 12 para su procesamiento como se describe a continuación. Como es conocido por un experto en la técnica, pueden usarse software y un controlador proporcionado por el sensor de profundidad 10 para obtener esta información de ubicación.The depth sensor 10 typically includes a depth recognition camera that not only records images but also records depth, allowing 3D representation of the recorded images. As a person skilled in the art knows, a depth sensor is connected to a computer that uses the sensor's depth map to deduce movement, for example, a user's hand gestures, postures, and positions. In a medical environment, the user may be the operator of the system, generally a physician. In one embodiment of the present invention, the depth sensor tracks head and hand movements. In another embodiment, the depth sensor tracks not only the hands and head but also the general location of the body, such as movement to and / or away from the computer screen or monitor. In one embodiment, depth sensor 10 can be implemented using modules or middleware such as Microsoft® Kinect, ASUS® Xtion PRO or ASUS® Xtion PRO LIVE. More than one depth sensor can be used in parallel to extend occlusion handling, field of view, and precision. Any sensor, such as a camera that can provide a depth map with sufficient detail in real time, can be adjusted for use with the system of the invention. The depth sensor obtains location information and sends this information to CPU 12 for processing as described below. As is known to one of skill in the art, software and a controller provided by depth sensor 10 can be used to obtain this location information.

El módulo de software de detección de movimiento o el software de movimiento 18 en la CPU 12 obtiene la información de la ubicación, como las ubicaciones de las partes corporales relevantes del operador, por ejemplo, manos, cabeza, pies, etc., unas pocas veces por segundo, del sensor de profundidad 10. Cada movimiento recibido y/o ubicación en el cuerpo es seguida y guardada a un breve historial de archivo de movimientos o conjunto de datos.The motion detection software module or motion software 18 on CPU 12 obtains location information, such as the locations of the operator's relevant body parts, for example, hands, head, feet, etc., a few times per second, from depth sensor 10. Every movement received and / or location in the body is tracked and saved to a brief history of movement file or data set.

El software de movimiento puede incluir un software que usa los datos detectados como movimientos de las partes del cuerpo del software de movimiento 18 junto con el breve historial de datos de movimientos para deducir movimientos más complejos y procesar los datos en gestos significativos, como un movimiento hacia adelante, un movimiento circular de la mano, o un guiño con la cabeza. Por ejemplo, se detectan movimientos lineales y/o circulares de la mano y se calculan los parámetros para cuantificar estos movimientos. El software de movimiento asocia atributos particulares, como la extensión del movimiento, el momento en el que fue capturado, su velocidad y/o duración, etc., con cada gesto.The movement software may include software that uses the detected data as movements of the body parts of the movement software 18 along with the brief history of movement data to deduce more complex movements and process the data in meaningful gestures, such as movement. forward, a circular movement of the hand, or a wink with the head. For example, linear and / or circular movements of the hand are detected and parameters are calculated to quantify these movements. Movement software associates particular attributes, such as the extent of movement, the moment it was captured, its speed and / or duration, etc., with each gesture.

El sistema puede asociarse con un usuario específico mediante el seguimiento del cuerpo, es decir, a partir de una configuración inicial, el seguimiento de los movimientos individuales de un usuario y garantizando que solo se responda a los movimientos de ese usuario específico. Por ejemplo, se hace un seguimiento de las ubicaciones del cuerpo y los movimientos, y siempre que las diferencias con respecto a las ubicaciones en el cuadro anterior sean lo suficientemente pequeñas, se supone que los movimientos son de la misma persona. El sistema también puede asociarse con un usuario específico empleando detección y/o reconocimiento de caras con la cámara en el sensor de profundidad. El sistema puede usar la detección y/o reconocimiento de caras para verificar que el cuerpo es el asociado con la cara reconocida en cada estado o posición. Estas técnicas pueden combinarse, por ejemplo, usando el seguimiento del cuerpo mientras los movimientos son pequeños y, cuando hay incertidumbre, usando la detección y/o reconocimiento de caras para encontrar al usuario correcto, y luego continuar como antes.The system can be associated with a specific user by tracking the body, that is, from an initial configuration, tracking the individual movements of a user and ensuring that only the movements of that specific user are responded to. For example, body locations and movements are tracked, and as long as the differences from the locations in the chart above are small enough, the movements are assumed to be from the same person. The system can also be associated with a specific user using face detection and / or recognition with the camera on the depth sensor. The system can use face detection and / or recognition to verify that the body is the one associated with the recognized face in each state or position. These techniques can be combined, for example, using body tracking while movements are small and, when there is uncertainty, using face detection and / or recognition to find the correct user, and then continue as before.

El módulo de software de detección de movimiento 18 también puede incluir un filtro que puede decidir qué gestos o movimientos aceptar y cuáles deben ignorarse o filtrarse como no aplicables, por ejemplo, inválidos y/o no autorizados. Un movimiento no válido, por ejemplo irrelevante, puede ser un movimiento que no es aceptable para el Módulo del software de detección de movimiento 18.Por ejemplo, si un movimiento es demasiado pequeño o lento para filtrar movimientos naturales incontrolables del usuario, entonces este movimiento sería inválido o irrelevante. Un movimiento no autorizado es un movimiento que no es realizado por el usuario apropiado y/o no realizado de acuerdo con condiciones predeterminadas. Por ejemplo, para seguridad y/o seguridad, ciertos movimientos pueden requerir entrada física y/o interacción con un dispositivo de hardware correspondiente, como presionar un pedal durante un movimiento de la mano particular y/o en un momento dado durante el procedimiento. En una realización, cuando se usan múltiples cámaras y una cámara tiene una vista del cuerpo completo del médico, podría determinarse si el médico específico proporcionó la entrada física apropiada. Esta medida de seguridad, por ejemplo, que requiere una entrada física además de los movimientos detectados, confía en que las personas en la sala no estén tratando de alterar el sistema; en cambio, la medida de seguridad proporciona seguridad extra para evitar que las funciones críticas sucedan sin querer, en caso de que el médico/usuario haga algún gesto por error.The motion detection software module 18 may also include a filter that can decide which gestures or movements to accept and which should be ignored or filtered as not applicable, eg invalid and / or unauthorized. An invalid movement, for example irrelevant, may be a movement that is not acceptable to the Motion Detection Software Module 18. For example, if a movement is too small or slow to filter out uncontrollable natural movements of the user, then this movement it would be invalid or irrelevant. Unauthorized movement is movement that is not performed by the appropriate user and / or not performed in accordance with predetermined conditions. For example, for safety and / or security, certain movements may require physical input and / or interaction with a corresponding hardware device, such as pressing a pedal during a particular hand movement and / or at any point during the procedure. In one embodiment, when multiple cameras are used and one camera has a full body view of the physician, it could be determined if the specific physician provided the appropriate physical input. This security measure, for example, which requires physical entry in addition to the detected movements, trusts that the people in the room are not trying to alter the system; instead, the security measure provides extra security to prevent critical functions from happening inadvertently, in case the doctor / user makes any gesture by mistake.

Conectar un dispositivo de hardware al sistema puede evitar acciones no deseadas por parte del sistema, como se ha indicado anteriormente. Esto puede ser crítico en el software médico. El dispositivo de hardware (no mostrado), por ejemplo, un pedal, podría conectarse al ordenador del cliente 16 y/o la estación de trabajo del instrumento de ablación, que es responsable de recibir e interpretar las acciones del dispositivo, por ejemplo, presionar el pedal, etc., y usar estas acciones para la lógica interna del cliente. El dispositivo de hardware también podría conectarse a la CPU 12 haciendo la detección de movimiento y su software, en cuyo caso el estado del dispositivo podría enviarse con los movimientos detectados y/o algunos movimientos podrían filtrarse de acuerdo con el estado del dispositivo.Connecting a hardware device to the system can prevent unwanted actions by the system, as stated above. This can be critical in medical software. The hardware device (not shown), for example a foot pedal, could be connected to the client's computer 16 and / or the ablation instrument workstation, which is responsible for receiving and interpreting the actions of the device, for example, pressing the pedal, etc., and use these actions for the client's internal logic. The hardware device could also be connected to the CPU 12 doing motion detection and its software, in which case the status of the device could be sent with the detected movements and / or some movements could be filtered according to the state of the device.

Los movimientos no filtrados se envían a través del medio de comunicación 14 al módulo del cliente de comunicaciones 20 en el ordenador del cliente 16. El medio de comunicación 14 puede ser una serie, red de área local (LAN), LAN inalámbrica (WLAN), Bluetooth, inalámbrica, etc.The unfiltered movements are sent through the communication medium 14 to the communication client module 20 on the client computer 16. The communication medium 14 can be a serial, local area network (LAN), wireless LAN (WLAN) , Bluetooth, wireless, etc.

El ordenador cliente 16 recibe los movimientos interpretados, por ejemplo, el gesto. El módulo de software de objetivo 20 determina si el movimiento recibido es válido. Un movimiento no válido puede ser un movimiento que no está definido en el módulo de software de objetivo destino 20. Por ejemplo, cuando un módulo de software del cliente está activo, puede definirse un movimiento hacia la pantalla para cambiar el modo a unipolar, pero si otro cliente estuviera activo, este movimiento hacia la pantalla podría no estar definido de tal manera que este movimiento sería inapropiado o irrelevante Además, un movimiento inválido puede ser uno que no está permitido a menos que se cumplan ciertas condiciones previas. Por ejemplo, cuando un dispositivo de hardware está conectado al ordenador del cliente, puede permitirse o validar un movimiento solo cuando se realiza junto con una acción del dispositivo de hardware; por ejemplo, un movimiento ondulatorio solo puede ser válido cuando se realiza mientras se presiona el pedal de un dispositivo de hardware.The client computer 16 receives the interpreted movements, for example, the gesture. The target software module 20 determines if the received motion is valid. An invalid move can be a move that is not defined in the target target software module 20. For example, when a client software module is active, a move to the screen can be defined to change the mode to unipolar, but if another client were active, this movement to the screen might not be defined in such a way that this movement would be inappropriate or irrelevant. In addition, an invalid movement may be one that is not allowed unless certain preconditions are met. For example, when a hardware device is connected to the customer's computer, it can allow or validate a move only when performed in conjunction with an action by the hardware device; for example, a wave motion can only be valid when performed while pressing the pedal of a hardware device.

La lógica de cliente, por ejemplo, el módulo de software de objetivo 20, determina cómo responder a cada gesto reconocido, por ejemplo, válido. El módulo de software de objetivo 20 está asociado con la estación de trabajo del instrumento de ablación y la lógica del cliente puede realizar tareas como cambiar la configuración de energía, seleccionar y deseleccionar electrodos, cambiar la temperatura máxima permitida por electrodo, etc. En consecuencia, el software de cliente puede determinar, usando su lógica, que si el gesto es un puño, la lógica del cliente puede realizar la tarea de seleccionar un electrodo, y si el gesto es un movimiento hacia arriba de la mano, la lógica de cliente puede realizar la tarea de aumentar la temperatura del electrodo seleccionado.Client logic, for example, Target 20 software module, determines how to respond to each recognized, for example, valid gesture. The target software module 20 is associated with the ablation instrument workstation and customer logic can perform tasks such as changing the power settings, selecting and deselecting electrodes, changing the maximum temperature allowed per electrode, etc. Consequently, the client software can determine, using its logic, that if the gesture is a fist, the client's logic can perform the task of selecting an electrode, and if the gesture is an upward movement of the hand, the logic Customer can perform the task of increasing the temperature of the selected electrode.

Para manejar el sistema de la invención, el usuario primero debe obtener primero el control y activar el funcionamiento sin contacto. Para obtener el control, el usuario hace que el sistema reconozca que enviará instrucciones. Luego, el sistema responde a las instrucciones que, como se ha tratado anteriormente, son en forma de diferentes gestos con las manos y/o movimientos de la cabeza y/u otros movimientos del cuerpo. El control puede liberarse cuando ya no se necesita o después de que se detecta un período de inmovilidad. Se puede lograr el control usando un gesto de enfoque, por ejemplo, un saludo con la mano o movimiento de la cabeza, o usando hardware, como un pedal que permite el control mientras se presiona, o mediante un comando de voz.To operate the system of the invention, the user must first obtain control and activate contactless operation first. To obtain control, the user makes the system acknowledge that it will send instructions. The system then responds to instructions that, as discussed above, are in the form of different hand gestures and / or head movements and / or other body movements. The control can be released when it is no longer needed or after a period of immobility is detected. Control can be achieved using a focus gesture, for example, a wave or a nod of the head, or using hardware, such as a foot pedal that allows control while pressing, or via a voice command.

Los movimientos detectados por el sistema no tienen funciones fijas. El sistema asocia el significado a cada gesto, pose o movimiento según su contexto de acuerdo con la función y el modo en el que el usuario está manejando actualmente el ordenador cliente 16. Por ejemplo, mientras el usuario está manejando el cliente en modo de selección, un movimiento de cabeza puede cambiar el modo de unipolar a bipolar y viceversa.The movements detected by the system have no fixed functions. The system associates the meaning to each gesture, pose or movement according to its context according to the function and the way in which the user is currently operating the client computer 16. For example, while the user is operating the client in selection mode , a head movement can change the mode from unipolar to bipolar and vice versa.

Durante el tiempo que está activado el control sin contacto, puede mostrarse una indicación visual al usuario. Opcionalmente, puede proporcionarse una indicación audible tras la activación y desactivación del control sin contacto.During the time contactless control is activated, a visual indication may be shown to the user. Optionally, an audible indication can be provided upon activation and deactivation of the contactless control.

En una realización, el funcionamiento de manos libres puede aumentarse con entrada de voz que podría usarse por separado o junto con movimientos detectados. Microsoft® Kinect, por ejemplo, tiene micrófonos periféricos y puede detectar la dirección de donde vino la voz reconocida. Pueden usarse esta y/u otras técnicas de reconocimiento de voz para capturar comandos de voz y filtrar selectivamente los comandos de voz del usuario. Los comandos de voz pueden combinarse con los gestos. Por ejemplo, el usuario podría decir "Potencia del instrumento de ablación" y luego mover su mano hacia arriba y hacia abajo para controlar la potencia. En otro ejemplo, el usuario podría decir "temperatura del instrumento de ablación" y luego mover su mano hacia arriba y hacia abajo para controlar los ajustes de temperatura. Otro ejemplo más podría ser el usuario que dice "electrodos del instrumento de ablación", y el movimiento de la mano hacia la izquierda y hacia la derecha resaltaría los controles del electrodo en la pantalla y un "presionar hacia adelante" alternará la selección. En otro ejemplo, el usuario podría decir "electrodos del instrumento de ablación ninguno/pares/impares/todos" lo que seleccionará o deseleccionará los electrodos apropiadamente. El ordenador cliente realiza toda la lógica al decidir qué significa cada movimiento junto con el comando de voz reconocido más recientemente. En una versión de esta realización, algunos comandos pueden realizarse mediante el uso de comandos de voz o solo gestos, por ejemplo, la configuración del modo de ablación puede realizarse simplemente diciendo "instrumento de ablación bipolar" o "instrumento de ablación unipolar" sin la necesidad de un gesto.In one embodiment, hands-free operation can be increased with voice input that could be used separately or in conjunction with detected movements. Microsoft® Kinect, for example, has peripheral microphones and can detect the direction where the recognized voice came from. This and / or other voice recognition techniques can be used to capture voice commands and selectively filter user voice commands. Voice commands can be combined with gestures. For example, the user might say "Ablation Instrument Power" and then move their hand up and down to control the power. In another example, the user could say "ablation instrument temperature" and then move their hand up and down to control the temperature settings. Another example could be the user who says "electrodes of the instrument ablation ", and the movement of the hand to the left and to the right would highlight the electrode controls on the screen and a" press forward "will toggle the selection. In another example, the user might say" electrodes of the ablation instrument none / even / odd / all "which will select or deselect the electrodes appropriately. The client computer performs all of the logic in deciding what each move means along with the most recently recognized voice command. In one version of this embodiment, some commands may be performed using voice commands or gestures only, for example, setting the ablation mode can be done simply by saying "bipolar ablation instrument" or "unipolar ablation instrument" without the need for a gesture.

La Figura 2 muestra una realización que tiene módulos de tanto la CPU como el ordenador cliente en una estación de trabajo 26. El sistema en la realización mostrada en la Figura 2 tiene el sensor de profundidad 10, reconocimiento de voz 24, módulo de software de detección de movimiento 18 y módulo de software de objetivo 20, que tienen la misma funcionalidad que esos componentes en la Figura 1. Sin embargo, en esta realización, solo se usa una estación de trabajo 26 y el módulo de software de objetivo 20 contiene un módulo de comunicación con el cliente. La invención no está limitada a la configuración de la Figura 1 o Figura 2. También pueden usarse varias CPU, cada una con uno o más módulos.Figure 2 shows an embodiment having both CPU and client computer modules in a workstation 26. The system in the embodiment shown in Figure 2 has depth sensor 10 , voice recognition 24 , software module for motion detection software module 18 and target 20, which have the same functionality as those components in Figure 1. However, in this embodiment, only one workstation 26 and software module 20 is used target contains a customer communication module. The invention is not limited to the configuration of Figure 1 or Figure 2. Multiple CPUs may also be used, each with one or more modules.

La Figura 3 es un diagrama de flujo del método inventivo. En el paso S1, el usuario obtiene el control del sistema de control sin contacto, típicamente realizando un movimiento, un comando de voz o presionando un pedal. En el paso S2, el sensor de profundidad 10 detecta el movimiento, incluyendo el cambio de ubicación, y lo transmite a la CPU 12. En el paso S3, la CPU hace un seguimiento y guarda un breve historial de los movimientos y/o cambios de ubicación. En el paso S4, la CPU 12 usa el software de movimiento para deducir, a partir del movimiento recibido de acuerdo con el breve historial, un movimiento o gesto más complejo. En los pasos S5 y S6, se realiza el filtrado. En el paso S5, se determina si el gesto ha sido realizado por el usuario autorizado o apropiado determinando si el movimiento está dentro de una ubicación prevista y/o realizando reconocimiento facial. Si se determina que el gesto es del usuario autorizado (S5=SÍ), el procesamiento continúa en el paso S6, donde la CPU valida el gesto. Si el gesto es válido (S6=SÍ), se envía al ordenador cliente y el seguimiento de movimiento adicional se reanuda en el paso S3. En el paso S7, el gesto se recibe en el módulo del cliente de comunicación en el ordenador cliente. Si el módulo de software de objetivo activo reconoce el gesto (S8=SÍ), entonces, en el paso S9, el ordenador cliente realiza una función u operación del dispositivo, por ejemplo, una tarea, en la estación de trabajo del instrumento de ablación de acuerdo con la lógica del cliente o el módulo de software de objetivo, en base al gesto deducido. Estas tareas incluyen, pero no están limitadas a, cambiar la configuración de potencia de uno o más electrodos, cambiar la temperatura máxima permitida para uno o más electrodos, cambiar el modo de ablación (unipolar o bipolar), seleccionar y deseleccionar electrodos para el instrumento de ablación, etc. Una vez que el software de movimiento envía el gesto al ordenador cliente (cuando S6=SÍ), el software de movimiento vuelve a responder al siguiente movimiento detectado y/o ubicación del cuerpo.Figure 3 is a flow chart of the inventive method. In step S1, the user gains control of the contactless control system, typically by making a movement, a voice command, or pressing a pedal. In step S2, depth sensor 10 detects movement, including change of location, and transmits it to CPU 12. In step S3, the CPU tracks and keeps a brief history of movements and / or changes location. In step S4, the CPU 12 uses the motion software to deduce, from the received motion according to the brief history, a more complex motion or gesture. In steps S5 and S6, filtering is performed. In step S5, it is determined whether the gesture has been performed by the authorized or appropriate user by determining whether the movement is within a intended location and / or by performing facial recognition. If the gesture is determined to be from the authorized user (S5 = YES), processing continues in step S6, where the CPU validates the gesture. If the gesture is valid (S6 = YES), it is sent to the client computer and the additional motion tracking is resumed in step S3. In step S7, the gesture is received in the communication client module on the client computer. If the active target software module recognizes the gesture (S8 = YES), then, in step S9, the client computer performs a function or operation of the device, for example a task, on the ablation instrument workstation according to the logic of the client or the target software module, based on the deduced gesture. These tasks include, but are not limited to, changing the power settings of one or more electrodes, changing the maximum allowable temperature for one or more electrodes, changing the ablation mode (unipolar or bipolar), selecting and deselecting electrodes for the instrument ablation, etc. Once the motion software sends the gesture to the client computer (when S6 = YES), the motion software responds again to the next detected motion and / or body location.

En una realización, realizar un movimiento autorizado también requiere determinar si el movimiento se realiza junto con hardware como otro dispositivo. En esta realización, un movimiento autorizado debe incluir tanto un movimiento complejo deducido por el software como una acción adicional, como pisar un pedal. Esta autorización puede realizarse después del paso S5, cuando S5=SÍ, y antes del paso S6.In one embodiment, performing an authorized move also requires determining whether the move is performed in conjunction with hardware like another device. In this embodiment, an authorized movement must include both a complex movement deduced by the software and an additional action, such as pressing a pedal. This authorization can be made after step S5, when S5 = YES, and before step S6.

Si el movimiento detectado no está autorizado (S5=NO) o el movimiento detectado no es válido (S6=NO), el procesamiento continúa en el paso S3. Si el gesto no es reconocido por el software del cliente (S8=NO), entonces no se realiza ninguna tarea.If the detected movement is not authorized (S5 = NO) or the detected movement is invalid (S6 = NO), processing continues in step S3. If the gesture is not recognized by the client software (S8 = NO), then no task is performed.

El sistema de la invención permite ventajosamente realizar tareas mediante un dispositivo de quirófano usando seguimiento de la cabeza y/u otras técnicas de detección de movimiento que permiten al doctor u otro usuario del sistema realizar ciertas acciones mientras está usando todavía por lo menos una de sus manos para la navegación del catéter. Beneficiosamente, el sistema puede filtrar y reenviar gestos solo para el personal autorizado. Esto asegura que el sistema solo sea controlado por las personas previstas. Los gestos con las manos y los movimientos de la cabeza y otras acciones de otras personas pueden ignorarse.The system of the invention advantageously allows tasks to be performed by an operating room device using head tracking and / or other motion detection techniques that allow the doctor or other user of the system to perform certain actions while still using at least one of its hands for catheter navigation. Beneficially, the system can filter and forward gestures only to authorized personnel. This ensures that the system is only controlled by the intended people. Hand gestures and head movements and other actions of other people can be ignored.

Varios aspectos de la presente divulgación pueden realizarse como un programa, software o instrucciones informáticas incorporadas o almacenadas en un ordenador o medio utilizable o legible por máquina, lo que hace que el ordenador o máquina realice los pasos del método cuando se ejecuta en el ordenador, procesador y/o máquina. También se proporciona un dispositivo de almacenamiento de programas legible por una máquina, por ejemplo, un medio legible por ordenador, que incorpora tangiblemente un programa de instrucciones ejecutables por la máquina para realizar varias funcionalidades y métodos descritos en la presente divulgación.Various aspects of the present disclosure may be performed as a program, software or computer instructions incorporated or stored in a computer or usable or machine-readable medium, which causes the computer or machine to perform the steps of the method when executed on the computer processor and / or machine. Also provided is a machine-readable program storage device, for example, a computer-readable medium, which tangibly incorporates a machine-executable instruction program for performing various functionalities and methods described in the present disclosure.

El sistema y el método de la presente divulgación pueden implementarse y ejecutarse en un ordenador de propósito general o un sistema de ordenador de propósito especial. El sistema informático puede ser cualquier tipo de sistemas conocidos o que se conocerán, y puede incluir típicamente un procesador, dispositivo de memoria, dispositivo de almacenamiento, dispositivos de entrada/salida, buses internos y/o una interfaz de comunicaciones para comunicarse con otros sistemas informáticos junto con hardware y software de comunicación, etc. El sistema también puede implementarse en un sistema informático virtual, conocido coloquialmente como una nube.The system and method of the present disclosure can be implemented and executed on a general-purpose computer or a special-purpose computer system. The computer system may be any type of system known or to be known, and may typically include a processor, memory device, storage device, input / output devices, internal buses, and / or a communication interface to communicate with other systems. computer along with communication hardware and software, etc. The system It can also be implemented in a virtual computing system, colloquially known as a cloud.

El medio legible por ordenador es un dispositivo de almacenamiento legible por ordenador, que puede ser, por ejemplo, un sistema, aparato o dispositivo magnético, óptico, electrónico, electromagnético, infrarrojo o semiconductor, o cualquier combinación adecuada de los anteriores; sin embargo, el dispositivo de almacenamiento legible por ordenador no está limitado a estos ejemplos. Ejemplos particulares adicionales del dispositivo de almacenamiento legible por ordenador pueden incluir: un disquete de ordenador portátil, un disco duro, un dispositivo de almacenamiento magnético, una memoria de solo lectura de disco compacto portátil (CD-ROM), una memoria de acceso aleatorio (RAM), una memoria de solo lectura (ROM), una memoria de solo lectura programable y borrable (EPROM o memoria Flash), una conexión eléctrica que tiene uno o más cables, una fibra óptica, un dispositivo de almacenamiento óptico, o cualquier combinación apropiada de los anteriores; sin embargo, el medio de almacenamiento legible por ordenador tampoco está limitado a estos ejemplos. Cualquier medio tangible que pueda contener o almacenar un programa para su uso por o en conexión con un sistema, aparato o dispositivo de ejecución de ejecución de instrucciones podría ser un dispositivo de almacenamiento legible por ordenador.The computer readable medium is a computer readable storage device, which may be, for example, a magnetic, optical, electronic, electromagnetic, infrared or semiconductor system, apparatus or device, or any suitable combination of the foregoing; however, the computer readable storage device is not limited to these examples. Additional particular examples of the computer readable storage device may include: a laptop floppy disk, a hard drive, a magnetic storage device, a portable compact disk (CD-ROM) read-only memory, a random access memory ( RAM), a read-only memory (ROM), a programmable and erasable read-only memory (EPROM or Flash memory), an electrical connection that has one or more cables, an optical fiber, an optical storage device, or any combination appropriate of the above; however, the computer-readable storage medium is also not limited to these examples. Any tangible medium that may contain or store a program for use by or in connection with an instruction execution execution system, apparatus, or device could be a computer-readable storage device.

Los términos "sistema informático" y "red informática" que pueden usarse en la presente solicitud pueden incluir una variedad de combinaciones de hardware, software, periféricos y dispositivos informáticos de almacenamiento fijos y/o portátiles. El sistema informático puede incluir una pluralidad de componentes individuales que están conectados en red o enlazados de otro modo para funcionar colaborativamente, o puede incluir uno o más componentes independientes. Los componentes de hardware y software del sistema informático de la presente solicitud pueden incluir y pueden incluirse dentro de dispositivos fijos y portátiles como ordenadores de escritorio, ordenadores portátiles y/o servidores, y redes de servidores (nube). Un módulo puede ser un componente de un dispositivo, software, programa o sistema que implementa alguna "funcionalidad", que puede incorporarse como software, hardware, firmware, circuitos electrónicos, etc.The terms "computer system" and "computer network" that may be used in the present application may include a variety of combinations of fixed and / or portable hardware, software, peripherals, and storage computing devices. The computer system may include a plurality of individual components that are networked or otherwise linked to work collaboratively, or may include one or more independent components. The hardware and software components of the computer system of the present application can include and can be included within fixed and portable devices such as desktops, laptops and / or servers, and server networks (cloud). A module can be a component of a device, software, program or system that implements some "functionality", which can be incorporated as software, hardware, firmware, electronic circuits, etc.

Las realizaciones descritas anteriormente son ejemplos ilustrativos y no debe interpretarse que la presente invención está limitada a estas realizaciones particulares. Por tanto, un experto en la técnica puede realizar diversos cambios y modificaciones sin apartarse del alcance de la invención como se define en las reivindicaciones adjuntas. The embodiments described above are illustrative examples and the present invention should not be construed as being limited to these particular embodiments. Thus, one skilled in the art can make various changes and modifications without departing from the scope of the invention as defined in the appended claims.

Claims (13)

REIVINDICACIONES 1. Un sistema para el manejo sin contacto de una estación de trabajo del instrumento de ablación que comprende:1. A system for contactless handling of an ablation instrument workstation comprising: un sensor de profundidad (10) para detectar un movimiento;a depth sensor (10) to detect movement; un módulo de software de movimiento (18) operable para recibir el movimiento detectado desde el sensor de profundidad (10), deducir un gesto en base al movimiento detectado; ya movement software module (18) operable to receive the detected movement from the depth sensor (10), deduce a gesture based on the detected movement; and un módulo de software de cliente (20) operable para recibir el gesto aplicable en un ordenador cliente (16) en la estación de trabajo del instrumento de ablación para realizar una tarea de acuerdo con la lógica del cliente en base al gesto aplicable,a client software module (20) operable to receive the applicable gesture on a client computer (16) at the ablation instrument workstation to perform a task according to the client's logic based on the applicable gesture, caracterizado porque el módulo de software de cliente es operable para permitir que un usuario específico controle dicha tarea solo después de presionar un pedal conectado al ordenador del cliente, después de recibir un comando de voz, o después de recibir un gesto de enfoque,characterized in that the client software module is operable to allow a specific user to control said task only after pressing a pedal connected to the client computer, after receiving a voice command, or after receiving a focus gesture, y además operable para filtrar el gesto para aceptar un gesto aplicable determinando si dicho gesto es realizado por dicho usuario específico mediante el seguimiento del cuerpo para determinar si el movimiento está dentro de una ubicación del cuerpo prevista y/o realizando reconocimiento facial.and further operable to filter the gesture to accept an applicable gesture by determining whether said gesture is performed by said specific user by tracking the body to determine if the movement is within a intended body location and / or by performing facial recognition. 2. El sistema de acuerdo con la reivindicación 1, que comprende además hardware para hacer que el movimiento detectado sea el gesto aplicable.2. The system according to claim 1, further comprising hardware to make the detected movement the applicable gesture. 3. El sistema de acuerdo con la reivindicación 1, que comprende además un módulo de comunicación de cliente para recibir el gesto de aplicación en el ordenador cliente.3. The system according to claim 1, further comprising a client communication module for receiving the application gesture on the client computer. 4. El sistema de acuerdo con la reivindicación 1, que comprende además reconocimiento de voz que proporciona entrada de voz para permitir que el cliente realice la tarea en base a la entrada de voz junto con el gesto aplicable.The system according to claim 1, further comprising voice recognition that provides voice input to allow the client to perform the task based on voice input along with the applicable gesture. 5. Un dispositivo de almacenamiento legible por ordenador que almacena un programa de instrucciones ejecutables por una máquina para realizar un método para el manejo sin contacto de una estación de trabajo del instrumento de ablación, el método comprendiendo:5. A computer readable storage device that stores a program of instructions executable by a machine to perform a method for contactless handling of an ablation instrument workstation, the method comprising: recibir una indicación de que se ha presionado un pedal, se ha recibido un comando de voz o se ha detectado un gesto de enfoque para asociar la estación de trabajo con un usuario específico;receive an indication that a pedal has been depressed, a voice command has been received, or a focus gesture has been detected to associate the workstation with a specific user; detectar un movimiento usando un sensor de profundidad;detect movement using a depth sensor; deducir un gesto en base al movimiento detectado usando una CPU;deduce a gesture based on motion detected using a CPU; caracterizado porquecharacterized in that filtrar el gesto para aceptar un gesto aplicable determinando si dicho gesto es realizado por dicho usuario específico usando el seguimiento del cuerpo para determinar si el movimiento está dentro de una ubicación corporal prevista y/o realizando reconocimiento facial;filter the gesture to accept an applicable gesture by determining whether said gesture is performed by said specific user using body tracking to determine if the movement is within a intended body location and / or by performing facial recognition; recibir el gesto correspondiente en un cliente en la estación de trabajo del instrumento de ablación; y realizar una tarea de acuerdo con la lógica del cliente en base al gesto aplicable.receive the appropriate gesture on a client at the ablation instrument workstation; and perform a task according to the client's logic based on the applicable gesture. 6. El sistema de acuerdo con la reivindicación 1 o el dispositivo de almacenamiento legible por ordenador de acuerdo con la reivindicación 5, en donde la tarea es una de cambiar la configuración de potencia de uno o más electrodos, cambiar la temperatura máxima permitida para uno o más electrodos, cambiar el modo de ablación, seleccionar el uno o más electrodos para ablación y deseleccionar el uno o más electrodos para ablación.6. The system according to claim 1 or the computer readable storage device according to claim 5, wherein the task is one of changing the power configuration of one or more electrodes, changing the maximum temperature allowed for one or more electrodes, change the ablation mode, select the one or more electrodes for ablation, and deselect the one or more electrodes for ablation. 7. El sistema de acuerdo con la reivindicación 1 o el dispositivo de almacenamiento legible por ordenador de acuerdo con la reivindicación 5, en el que el movimiento es por lo menos uno de un movimiento de la cabeza, un movimiento de la mano y un movimiento del cuerpo y el gesto se deduce adicionalmente en base a un breve historial.7. The system according to claim 1 or the computer readable storage device according to claim 5, wherein the movement is at least one of a movement of the head, a movement of the hand and a movement from the body and the gesture is deduced additionally based on a brief history. 8. El dispositivo de almacenamiento legible por ordenador de acuerdo con la reivindicación 5, en donde el gesto aplicable se realiza mientras el hardware está activado.8. The computer readable storage device according to claim 5, wherein the applicable gesture is performed while the hardware is activated. 9. El dispositivo de almacenamiento legible por ordenador de acuerdo con la reivindicación 5, que comprende además un paso de proporcionar entrada de voz usando reconocimiento de voz, en donde el paso de realización se hace en base a la entrada de voz junto con el gesto aplicable.The computer readable storage device according to claim 5, further comprising a step of providing voice input using voice recognition, wherein the embodiment step is made based on voice input along with the gesture applicable. 10. El dispositivo de almacenamiento legible por ordenador de acuerdo con la reivindicación 5, en donde el paso de filtrar el gesto comprende determinar si el gesto está autorizado y es válido.The computer readable storage device according to claim 5, wherein the step of filtering the gesture comprises determining whether the gesture is authorized and valid. 11. El dispositivo de almacenamiento legible por ordenador de acuerdo con la reivindicación 5, en donde el movimiento es por lo menos uno de un movimiento de la cabeza, un movimiento de la mano y un movimiento del cuerpo.The computer readable storage device according to claim 5, wherein the movement is at least one of a head movement, a hand movement and a body movement. 12. El dispositivo de almacenamiento legible por ordenador de acuerdo con la reivindicación 5, en donde el gesto aplicable es uno de un movimiento realizado mientras el hardware está activado, y un movimiento por un usuario que se determina que está autorizado usando reconocimiento facial.12. The computer readable storage device according to claim 5, wherein the gesture Applicable is one of a movement made while the hardware is activated, and a movement by a user who is determined to be authorized using facial recognition. 13. El dispositivo de almacenamiento legible por ordenador de acuerdo con la reivindicación 5, en donde filtrar el gesto comprende determinar si el gesto está autorizado y es válido. 13. The computer readable storage device according to claim 5, wherein filtering the gesture comprises determining whether the gesture is authorized and valid.
ES13150838T 2012-01-11 2013-01-10 Contactless handling of the ablation instrument workstation using depth sensors Active ES2761248T3 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US13/347,987 US9931154B2 (en) 2012-01-11 2012-01-11 Touch free operation of ablator workstation by use of depth sensors

Publications (1)

Publication Number Publication Date
ES2761248T3 true ES2761248T3 (en) 2020-05-19

Family

ID=47594531

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13150838T Active ES2761248T3 (en) 2012-01-11 2013-01-10 Contactless handling of the ablation instrument workstation using depth sensors

Country Status (9)

Country Link
US (4) US9931154B2 (en)
EP (2) EP3586777A1 (en)
JP (1) JP6195713B2 (en)
CN (2) CN103207671A (en)
AU (1) AU2013200053B2 (en)
CA (1) CA2801493C (en)
DK (1) DK2614788T3 (en)
ES (1) ES2761248T3 (en)
IL (1) IL224097B (en)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8343096B2 (en) 2008-03-27 2013-01-01 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter system
US8641663B2 (en) 2008-03-27 2014-02-04 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter system input device
US9241768B2 (en) 2008-03-27 2016-01-26 St. Jude Medical, Atrial Fibrillation Division, Inc. Intelligent input device controller for a robotic catheter system
US8317744B2 (en) 2008-03-27 2012-11-27 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter manipulator assembly
US8684962B2 (en) 2008-03-27 2014-04-01 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter device cartridge
US9161817B2 (en) 2008-03-27 2015-10-20 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter system
US8641664B2 (en) 2008-03-27 2014-02-04 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter system with dynamic response
WO2011123669A1 (en) 2010-03-31 2011-10-06 St. Jude Medical, Atrial Fibrillation Division, Inc. Intuitive user interface control for remote catheter navigation and 3d mapping and visualization systems
US9439736B2 (en) 2009-07-22 2016-09-13 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for controlling a remote medical device guidance system in three-dimensions using gestures
US9330497B2 (en) 2011-08-12 2016-05-03 St. Jude Medical, Atrial Fibrillation Division, Inc. User interface devices for electrophysiology lab diagnostic and therapeutic equipment
US9361530B2 (en) * 2012-01-20 2016-06-07 Medivators Inc. Use of human input recognition to prevent contamination
US20140009372A1 (en) * 2012-07-05 2014-01-09 Zone24X7 Inc. Failsafe content presentation for electronic signage applications
IL221863A (en) * 2012-09-10 2014-01-30 Elbit Systems Ltd Digital system for surgical video capturing and display
US9436287B2 (en) * 2013-03-15 2016-09-06 Qualcomm Incorporated Systems and methods for switching processing modes using gestures
US20140358692A1 (en) * 2013-06-03 2014-12-04 Cloudwear, Inc. Method for communicating primary and supplemental advertiser information using a server
DE102013108114B4 (en) * 2013-07-30 2015-02-12 gomtec GmbH Input device for gesture control with protective device
US9766855B2 (en) 2013-09-10 2017-09-19 Avigilon Corporation Method and apparatus for controlling surveillance system with gesture and/or audio commands
US9640198B2 (en) * 2013-09-30 2017-05-02 Biosense Webster (Israel) Ltd. Controlling a system using voiceless alaryngeal speech
DE102013110847B3 (en) * 2013-10-01 2015-01-22 gomtec GmbH Control device and method for controlling a robot system by means of gesture control
US20150199017A1 (en) * 2014-01-10 2015-07-16 Microsoft Corporation Coordinated speech and gesture input
JP6371402B2 (en) * 2014-02-12 2018-08-08 ノキア テクノロジーズ オサケユイチア Method and apparatus for updating device firmware
CN103978487B (en) * 2014-05-06 2017-01-11 宁波易拓智谱机器人有限公司 Gesture-based control method for terminal position of universal robot
US10585485B1 (en) 2014-11-10 2020-03-10 Amazon Technologies, Inc. Controlling content zoom level based on user head movement
US10045825B2 (en) 2015-09-25 2018-08-14 Karl Storz Imaging, Inc. Partial facial recognition and gaze detection for a medical system
US11925373B2 (en) 2017-10-30 2024-03-12 Cilag Gmbh International Surgical suturing instrument comprising a non-circular needle
US11969142B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws
US11969216B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution
US11986233B2 (en) 2018-03-08 2024-05-21 Cilag Gmbh International Adjustment of complex impedance to compensate for lost power in an articulating ultrasonic device
CN108908372A (en) * 2018-08-13 2018-11-30 四川桑瑞思环境技术工程有限公司 A kind of cruising inspection system
US11923084B2 (en) 2018-09-07 2024-03-05 Cilag Gmbh International First and second communication protocol arrangement for driving primary and secondary devices through a single port
US11804679B2 (en) 2018-09-07 2023-10-31 Cilag Gmbh International Flexible hand-switch circuit
US20200078117A1 (en) 2018-09-07 2020-03-12 Ethicon Llc Energy module for drivig multiple energy modalities through a port
US11218822B2 (en) * 2019-03-29 2022-01-04 Cilag Gmbh International Audio tone construction for an energy module of a modular energy system
US11107236B2 (en) 2019-04-22 2021-08-31 Dag Michael Peter Hansson Projected augmented reality interface with pose tracking for directing manual processes
USD939545S1 (en) 2019-09-05 2021-12-28 Cilag Gmbh International Display panel or portion thereof with graphical user interface for energy module
US11950860B2 (en) 2021-03-30 2024-04-09 Cilag Gmbh International User interface mitigation techniques for modular energy systems
US11857252B2 (en) 2021-03-30 2024-01-02 Cilag Gmbh International Bezel with light blocking features for modular energy system
US11980411B2 (en) 2021-03-30 2024-05-14 Cilag Gmbh International Header for modular energy system
US11978554B2 (en) 2021-03-30 2024-05-07 Cilag Gmbh International Radio frequency identification token for wireless surgical instruments
US11963727B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for system architecture for modular energy system
US11968776B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for mechanical packaging for modular energy system

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6368269B1 (en) 1993-05-20 2002-04-09 Tilane Corporation Apparatus for concurrent actuation of multiple foot pedal operated switches
US6243683B1 (en) 1998-12-29 2001-06-05 Intel Corporation Video control of speech recognition
JP2000347692A (en) 1999-06-07 2000-12-15 Sanyo Electric Co Ltd Person detecting method, person detecting device, and control system using it
WO2001082811A1 (en) * 2000-04-27 2001-11-08 Medtronic, Inc. System and method for assessing transmurality of ablation lesions
US7110580B2 (en) * 2000-05-19 2006-09-19 Nextgenid, Inc. Distributed biometric access control method and apparatus
JP2004213087A (en) * 2002-12-26 2004-07-29 Toshiba Corp Device and method for personal identification
ES2262423B1 (en) 2005-02-18 2007-11-16 Manuel Fernandez Guerrero IONIZING RADIATION AUTOMATIC ACTIVATION AND DEACTIVATION SYSTEM CONTROLLED BY THE OPERATOR'S LOOK.
US7835498B2 (en) 2005-02-18 2010-11-16 Koninklijke Philips Electronics N. V. Automatic control of a medical device
US7346425B2 (en) * 2005-04-27 2008-03-18 Toshiba Kikai Kabushiki Kaisha Control device for use in injection molding machine
US8411034B2 (en) * 2009-03-12 2013-04-02 Marc Boillot Sterile networked interface for medical systems
US7593549B2 (en) 2006-04-27 2009-09-22 Bruce Reiner Apparatus and method for utilizing biometrics in medical applications
WO2008137708A1 (en) 2007-05-04 2008-11-13 Gesturetek, Inc. Camera-based user input for compact devices
US20080319507A1 (en) * 2007-06-25 2008-12-25 Reliant Technologies, Inc. Tissue Treatment Device and Method of Restricting Use of Device
EP2201761B1 (en) 2007-09-24 2013-11-20 Qualcomm Incorporated Enhanced interface for voice and video communications
US9772689B2 (en) 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US20090282371A1 (en) 2008-05-07 2009-11-12 Carrot Medical Llc Integration system for medical instruments with remote control
US8315876B2 (en) 2008-05-09 2012-11-20 Plantronics, Inc. Headset wearer identity authentication with voice print or speech recognition
US20100013764A1 (en) 2008-07-18 2010-01-21 Wei Gu Devices for Controlling Computers and Devices
US20100053187A1 (en) * 2008-09-04 2010-03-04 Nokia Corporation Method, Apparatus, and Computer Readable Medium for Editing an Avatar and Performing Authentication
US8903476B2 (en) 2009-03-08 2014-12-02 Oprobe, Llc Multi-function optical probe system for medical and veterinary applications
US20100280363A1 (en) 2009-04-24 2010-11-04 Medtronic, Inc. Electromagnetic Navigation of Medical Instruments for Cardiothoracic Surgery
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
WO2011123669A1 (en) 2010-03-31 2011-10-06 St. Jude Medical, Atrial Fibrillation Division, Inc. Intuitive user interface control for remote catheter navigation and 3d mapping and visualization systems
KR20110055062A (en) * 2009-11-19 2011-05-25 삼성전자주식회사 Robot system and method for controlling the same
KR101626159B1 (en) 2009-11-25 2016-05-31 엘지전자 주식회사 User adaptive display device and method thereof
JP2011232964A (en) 2010-04-28 2011-11-17 Casio Comput Co Ltd Electrical apparatus, and control method and program thereof
US8296151B2 (en) * 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
JP5601045B2 (en) * 2010-06-24 2014-10-08 ソニー株式会社 Gesture recognition device, gesture recognition method and program
US20120089392A1 (en) 2010-10-07 2012-04-12 Microsoft Corporation Speech recognition user interface
US8768006B2 (en) * 2010-10-19 2014-07-01 Hewlett-Packard Development Company, L.P. Hand gesture recognition
US8635560B2 (en) * 2011-01-21 2014-01-21 Blackberry Limited System and method for reducing power consumption in an electronic device having a touch-sensitive display
US9626498B2 (en) * 2011-12-15 2017-04-18 France Telecom Multi-person gestural authentication and authorization system and method of operation thereof

Also Published As

Publication number Publication date
AU2013200053B2 (en) 2015-09-03
CA2801493C (en) 2020-05-05
EP3586777A1 (en) 2020-01-01
AU2013200053A1 (en) 2013-07-25
DK2614788T3 (en) 2019-11-11
US20180140348A1 (en) 2018-05-24
IL224097B (en) 2019-01-31
US20130176220A1 (en) 2013-07-11
US20180271583A1 (en) 2018-09-27
CA2801493A1 (en) 2013-07-11
US10653472B2 (en) 2020-05-19
JP2013143149A (en) 2013-07-22
CN111513843A (en) 2020-08-11
EP2614788B1 (en) 2019-09-25
US10052147B2 (en) 2018-08-21
US20200261143A1 (en) 2020-08-20
US11020165B2 (en) 2021-06-01
EP2614788A1 (en) 2013-07-17
JP6195713B2 (en) 2017-09-13
US9931154B2 (en) 2018-04-03
CN103207671A (en) 2013-07-17

Similar Documents

Publication Publication Date Title
ES2761248T3 (en) Contactless handling of the ablation instrument workstation using depth sensors
JP6306236B2 (en) Touch-free operation of the device by using a depth sensor
US11344374B2 (en) Detection of unintentional movement of a user interface device
JP6722272B2 (en) User identification and/or authentication using gaze information
KR20180080630A (en) Robot and electronic device for performing hand-eye calibration
Jacob et al. Gestonurse: a multimodal robotic scrub nurse
EP3147805B1 (en) Partial facial recognition and gaze detection for a medical system
US10992857B2 (en) Input control device, input control method, and operation system
US20180256272A1 (en) Surgical control apparatus, surgical control method, and program
US20210030498A1 (en) Robotic surgical systems with user engagement monitoring
KR101727220B1 (en) Device and method for contactless control of a patient table
CN110472396B (en) Somatosensory gesture touch method, system, platform and storage medium
JP2011227828A (en) Information processor, information processing method and information processing program
KR20180058484A (en) Medical non-contact interface system and method of controlling the same