ES2736966T3 - Manejo -sin contacto táctil- de dispositivos usando sensores de profundidad - Google Patents
Manejo -sin contacto táctil- de dispositivos usando sensores de profundidad Download PDFInfo
- Publication number
- ES2736966T3 ES2736966T3 ES13150837T ES13150837T ES2736966T3 ES 2736966 T3 ES2736966 T3 ES 2736966T3 ES 13150837 T ES13150837 T ES 13150837T ES 13150837 T ES13150837 T ES 13150837T ES 2736966 T3 ES2736966 T3 ES 2736966T3
- Authority
- ES
- Spain
- Prior art keywords
- gesture
- movement
- map
- applicable
- client
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Un sistema para el manejo o utilización sin contacto táctil ('touch free', en inglés) de un dispositivo de quirófano, que comprende: un sensor de profundidad (10) que proporciona un mapa de profundidad y detecta un movimiento; un pedal; un módulo de software de movimiento (18) que está operativo y recibe el movimiento detectado por el sensor de profundidad (10), deduce o infiere un gesto o expresión basándose en el movimiento detectado, y filtra el gesto para escoger o aceptar un gesto aplicable, de manera que filtrar el gesto comprende descartar el gesto y considerarlo no aplicable si el movimiento no se ha realizado de manera conjunta con la activación del pedal, y descartar el gesto y considerarlo no aplicable si el movimiento detectado no lo realiza un usuario que está autorizado para utilizar el reconocimiento facial; y un módulo de software del cliente (20) que está operativo y recibe el gesto aplicable en un ordenador cliente (16) para realizar una tarea según la lógica del cliente basándose en el gesto aplicable, de manera que el ordenador cliente es un dispositivo de mapeo y la tarea consiste en: rotar o hacer girar un mapa, hacer 'zoom' en un mapa, inclinar un mapa y/o tomar una vista panorámica de un mapa (también llamado 'panear un mapa').
Description
DESCRIPCIÓN
Manejo -sin contacto táctil- de dispositivos usando sensores de profundidad
CAMPO DE LA INVENCIÓN
[0001] De manera general, la presente invención está relacionada con el manejo o la utilización -sin contacto táctilde dispositivos de quirófano mediante sensores de profundidad y, en algunos casos, mediante reconocimiento de voz.
ANTECEDENTES DE LA INVENCIÓN
[0002] En un quirófano o sala de operaciones, el médico debe permanecer esterilizado; por lo tanto, no puede acceder físicamente a un ordenador para que este le asista durante la cirugía. Así, debe ser otra persona quien realice en sustitución del médico cualquier tarea que este desee realizar utilizando aplicaciones informáticas en dispositivos de quirófano, como los sistemas de mapeo en 3D (por ejemplo, CARTO®). Existe una necesidad de que el médico pueda manejar o utilizar estos dispositivos sin tocar físicamente el dispositivo o sus accesorios, por ejemplo, el teclado, la pantalla, el ratón, etc.
[0003] La Publicación de Solicitud de Patente de EE. UU. US2009/0079813A1 desvela una interfaz mejorada para las comunicaciones de voz y vídeo, de manera que el gesto de un usuario se reconoce a partir de una secuencia de imágenes fotográficas, y se proporciona una interfaz de usuario que incluye un dispositivo de control y una representación del usuario. El proceso también incluye hacer que la representación interactúe con el dispositivo de control basándose en el gesto identificado y poder controlar una sesión de telecomunicación basándose en la interacción.
[0004] La Publicación de Solicitud de Patente de EE. UU. US2011/0254846A1 desvela una pantalla de visualización adaptada al usuario que incluye una unidad de comunicación, una unidad de control y un monitor o unidad de visualización. La unidad de comunicación recibe información sobre el usuario; la unidad de control analiza la información del usuario y modifica la configuración de imagen según dicha información; y la unidad de visualización muestra una imagen según el cambio de configuración de imagen realizado por la unidad de control.
[0005] La Publicación de Solicitud de Patente de EE. UU US2008/0273755A1 desvela el uso de una cámara para detectar la posición y/u orientación de un objeto, como el dedo de un usuario, como método o estrategia para proporcionar 'input' o datos de entrada del usuario, por ejemplo para desplazarse por la información, controlar la posición del cursor y proporcionar datos de entrada para controlar un videojuego basándose en la posición del dedo del usuario.
[0006] La Publicación de Solicitud de Patente de EE. UU. US2011/0060423A1 desvela un sistema que puede usarse para pausar automáticamente una o varias funciones de un dispositivo médico. El sistema comprende una cámara de vídeo y una unidad asociada de análisis y evaluación de imágenes, como un ordenador que ejecute un programa adecuado. La cámara está conectada con la unidad de análisis de imágenes y está colocada encima de un monitor. Un sistema de seguimiento ocular forma parte del sistema. El sistema de seguimiento ocular puede comprender la cámara y algunas partes de la unidad de análisis de imágenes. Su objetivo es determinar hacia qué dirección está mirando el operador del dispositivo médico. Esto también puede lograrse analizando los gestos y/o la postura del operador. Asimismo, el sistema comprende un pedal manejado con el pie del operador. El funcionamiento es el siguiente: cuando el operador no está mirando al monitor (lo correspondiente a la zona de observación), el sistema de seguimiento ocular no da por válida una activación accidental de la función del dispositivo médico. En el caso de una intervención cardiovascular, la función puede ser, por ejemplo, el flujo fluoroscópico o la fuente de alimentación del tubo de rayos X. Mientras el operador está viendo la pantalla durante la intervención que está practicando, activa el flujo fluoroscópico con el pedal y el sistema de seguimiento ocular confirma la orden. El flujo fluoroscópico o la fuente de alimentación del tubo de rayos X seguirán estando activos siempre y cuando las señales de entrada para el medio de combinación de señales sean válidas.
[0007] La Publicación de Solicitud de Patente Internacional WO2011085815A1 desvela un sistema de control para un sistema de navegación quirúrgica, de manera que el sistema de navegación está relacionado con una unidad de detección que detecta la entrada de datos de control del sistema realizada por el usuario, y de manera que el sistema de navegación se controla según los datos de entrada de control, y la unidad de detección contiene un medio de detección de gestos que detecta los gestos del usuario.
RESUMEN DE LA INVENCIÓN
[0008] La invención se define y especifica en las reivindicaciones anexas.
[0009] Se proporciona un sistema y un método inventivo para manejar o utilizar sin ningún tipo de contacto táctil ('touch free', en inglés) un dispositivo. El sistema comprende un sensor de profundidad (10) que proporciona un
mapa de profundidad y detecta un movimiento; un pedal; un módulo del software de movimiento (18) que está operativo y recibe el movimiento detectado por el sensor de profundidad (10), deduce o infiere un gesto o expresión basándose en el movimiento detectado, y filtra el gesto para escoger o aceptar un gesto aplicable, de manera que filtrar el gesto comprende descartar el gesto y considerarlo no aplicable si el movimiento no se ha realizado de manera conjunta con la activación del pedal y descartar el gesto y considerarlo no aplicable si el movimiento detectado no lo realiza un usuario que está autorizado para utilizar el reconocimiento facial; y un módulo de software del cliente (20) que está operativo y recibe el gesto aplicable en un ordenador cliente (16) para realizar una tarea según la lógica del cliente basándose en el gesto aplicable, de manera que el ordenador cliente es un dispositivo de mapeo y la tarea consiste en rotar o hacer girar un mapa, o hacer zoom en un mapa, o inclinar un mapa o tomar una vista panorámica de un mapa (también llamado 'panear un mapa').
[0010] En un aspecto, el movimiento es al menos uno de los siguientes: un movimiento con la cabeza, un movimiento con la mano o un movimiento con el cuerpo, y además el gesto se deduce basándose en un breve historial. En un aspecto, el sistema también comprende que el reconocimiento de voz proporcione una entrada de voz para permitir así que el cliente realice la tarea basándose en la entrada de voz de manera conjunta con el gesto aplicable.
[0011] Un método inventivo que se usa para el manejo sin contacto táctil de un dispositivo comprende detectar un movimiento utilizando un mapa de profundidad proporcionado por un sensor de profundidad (10); deducir o inferir un gesto o expresión basándose en el movimiento detectado; filtrar el gesto para escoger o aceptar un gesto aplicable, de manera que filtrar el gesto comprende descartar el gesto y considerarlo no aplicable si el movimiento no se ha realizado de manera conjunta con la activación del pedal y descartar el gesto y considerarlo no aplicable si el movimiento detectado no lo realiza un usuario que está autorizado para utilizar el reconocimiento facial; recibir el gesto aplicable en un ordenador cliente (16); y realizar una tarea según la lógica del cliente basándose en el gesto aplicable, de manera que el ordenador cliente es un dispositivo de mapeo y la tarea consiste en rotar o hacer girar un mapa, o hacer zoom en un mapa, o inclinar un mapa o tomar una vista panorámica de un mapa (también llamado 'panear un mapa').
[0012] También puede proporcionarse un medio de almacenamiento legible por un ordenador que guarda un programa de instrucciones que puede ejecutarse mediante una máquina para poner en práctica uno o más métodos descritos en el presente documento.
BREVE DESCRIPCIÓN DE LAS ILUSTRACIONES
[0013] La presente invención podrá comprenderse mejor gracias a la descripción detallada que se ofrece a continuación, la cual debe tomarse en cuenta junto con las ilustraciones. Otras características adicionales, así como la estructura y el funcionamiento, se describen detalladamente más adelante haciendo referencia a las ilustraciones adjuntas. En dichas ilustraciones, los números de referencia iguales -o similares- indican elementos o componentes idénticos o funcionalmente similares.
La Figura 1 es un diagrama de bloques de un sistema.
La Figura 2 es un diagrama de bloques de otro sistema.
La Figura 3 ilustra un movimiento de mano para iniciar el control sobre el cliente CARTO®.
La Figura 4 ilustra un movimiento de mano para realizar una función en CARTO® sin tocar el dispositivo. La Figura 5 es un diagrama de flujo de un método de manejo sin contacto táctil.
DESCRIPCIÓN DETALLADA
[0014] Se proporciona una técnica inventiva para el manejo o utilización sin contacto táctil de un dispositivo. De acuerdo con esta novedosa tecnología, una persona puede utilizar las funciones de un dispositivo sin tocar ningún componente informático, por ejemplo, un monitor, un teclado, un ratón, etc.
[0015] Tal y como se muestra en la Figura 1, el sistema comprende diversos componentes, incluyendo un sensor de profundidad 10, un ordenador o CPU (unidad central de procesamiento) 12, un medio de comunicación 14 y un ordenador cliente 16. La CPU 12 puede integrar un módulo de software de detección de movimiento 18. El ordenador cliente 16 puede controlar un módulo de software de destino 20. El ordenador cliente 16 puede integrar un módulo de comunicación de cliente 22. En una realización, el sistema también puede incluir reconocimiento de voz, como un micrófono o un conjunto de micrófonos 28.
[0016] Normalmente, el sensor de profundidad 10 incluye una cámara de detección de profundidad que no solamente graba imágenes, sino que también graba o registra la profundidad, lo que permite realizar una representación en 3D de las imágenes grabadas. Como bien saben las personas versadas en este campo, hay un sensor de profundidad conectado al ordenador, que utiliza el mapa de profundidad del sensor para inferir o deducir el movimiento, por ejemplo, los gestos realizados con las manos, la pose o postura y la posición de un usuario. En un entorno médico, el usuario puede ser el operador o controlador del sistema y, normalmente, es un médico. En una realización de la presente invención, el sensor de profundidad rastrea los movimientos de la cabeza y también
los de las manos. En otra realización, el sensor de profundidad no solo rastrea las manos y la cabeza; también rastrea la ubicación general del cuerpo, como el movimiento hacia o desde la pantalla o monitor del ordenador. En una realización, el sensor de profundidad 10 puede implementarse utilizando módulos o un 'middleware' como Microsoft® Kinect, ASUS® Xtion PRO, o ASUS® PRO LIVE. Puede usarse más de un sensor de profundidad en paralelo para mejorar el manejo de oclusión, el campo de visión y la precisión. Cualquier sensor, como una cámara que puede proporcionar un mapa de profundidad con el suficiente detalle en tiempo real, puede resultar apropiado para usarse con el sistema de la invención. El sensor de profundidad obtiene información sobre la ubicación y envía esta información a la CPU 12 para que esta la procese, tal y como se explicará más adelante. Como bien sabe una persona versada en la materia, para obtener esta información sobre la ubicación puede usarse un software y un 'driver' o controlador proporcionado por el sensor de profundidad 10.
[0017] El módulo de software de detección de movimiento, o software de movimiento, 18 de la CPU obtiene del sensor de profundidad 10 la información sobre la ubicación -como las ubicaciones de partes relevantes del cuerpo del operador, por ejemplo la mano, la cabeza, los pies, etc.- unas pocas veces por segundo. Cada movimiento y/o ubicación corporal recibidos se rastrean y se guardan en un breve historial de archivo de movimientos o conjunto de datos.
[0018] El software de movimiento puede incluir un software que utiliza los datos detectados como movimientos de las partes corporales por parte del software de movimiento 18 , junto con el breve historial de datos de movimiento, para inferir movimientos más complejos y procesar los datos para obtener gestos significativos, como un movimiento hacia adelante, un movimiento circular de la mano o un asentimiento con la cabeza. Por ejemplo, se detectan los movimientos lineales y/o los movimientos circulares de la mano y se calculan los parámetros para cuantificar estos movimientos. El software de movimiento relaciona unos atributos o características particulares -como el alcance del movimiento, el momento en el que se ha capturado, su velocidad y/o duración, etc.- con cada gesto.
[0019] El sistema puede relacionarse o asociarse a un usuario específico utilizando el seguimiento o rastreo corporal, es decir, empezando por una configuración inicial, rastreando los movimientos individuales del usuario y garantizando que sólo se responderá a los movimientos de ese usuario específico. Por ejemplo, se rastrean las ubicaciones y movimientos del cuerpo y, siempre y cuando las diferencias respecto a las ubicaciones del 'frame' o fotograma anterior sean lo suficientemente pequeñas, se dará por hecho que los movimientos pertenecen a la misma persona. El sistema también puede asociarse a un usuario específico utilizando el reconocimiento y/o la detección facial con la cámara del sensor de profundidad. El sistema puede utilizar el reconocimiento y/o la detección facial para verificar que el cuerpo es el mismo que está asociado a una cara reconocida en cada estado o posición. Estas técnicas pueden combinarse, por ejemplo utilizando el rastreo corporal cuando los movimientos son pequeños y, cuando haya alguna duda, utilizando el reconocimiento y/o la detección facial para hallar el usuario correcto, para después seguir como hasta entonces.
[0020] El módulo del software de detección de movimiento 18 también puede incluir un filtro que puede decidir cuáles son los movimientos que hay que aceptar y cuáles hay que ignorar o descartar como no aplicables, por ejemplo no válidos y/o no autorizados. Un movimiento no válido -por ejemplo, irrelevante- puede ser un movimiento que no resulta aceptable para el módulo del software de detección de movimiento 18. Por ejemplo, si un movimiento es demasiado lento o pequeño como para pasar el filtro de movimientos naturales incontrolables del usuario, dicho movimiento se considera no válido o irrelevante. Un movimiento no autorizado es un movimiento que no ha sido realizado por el usuario correcto y/o que no se ha realizado según las condiciones predeterminadas. Por ejemplo, por razones de seguridad, algunos movimientos pueden requerir una entrada de datos y/o una interacción física con el correspondiente dispositivo de hardware, por ejemplo la acción de presionar el pedal durante un movimiento de mano particular y/o en un momento determinado durante un procedimiento. En una realización, cuando se utilizan múltiples cámaras y una cámara tiene una vista del cuerpo entero del médico, podría determinarse si el médico específico ha proporcionado el 'input' -o entrada de datos- físico adecuado. Esta medida de seguridad, es decir, el requisito de introducir un 'input' físico además de los movimientos detectados, garantiza que las personas presentes en el quirófano no puedan alterar o manipular el sistema; en lugar de ello, la medida de seguridad proporciona una seguridad extra para evitar que ciertas funciones cruciales se ejecuten de manera accidental en caso de que el médico o usuario realice algún gesto sin querer.
[0021] Conectar un dispositivo de hardware al sistema puede evitar acciones no deseadas por parte del sistema, tal y como se ha señalado previamente. Esto puede resultar crucial en el software médico. El dispositivo de hardware (no se muestra), por ejemplo un pedal, podría conectarse a un ordenador cliente 16 que se encarga de recibir e interpretar las acciones del dispositivo, por ejemplo la acción de pisar el pedal, y utilizar estas acciones para la lógica interna del cliente. El dispositivo de hardware también podría conectarse a la CPU para ejecutar la detección de movimientos y su software, en cuyo caso el estado del dispositivo podría enviarse con los movimientos detectados y/o algunos movimientos podrían filtrarse según el estado del dispositivo.
[0022] Los movimientos que no se descartan se envían a través del medio de comunicación 14 hasta el módulo de comunicaciones del cliente 20 del ordenador cliente 16. El medio de comunicación 14 puede ser una red de área local (LAN) en serie, una LAN inalámbrica (WLAN), Bluetooth, un medio inalámbrico, etc.
[0023] El ordenador cliente 16 recibe los movimientos interpretados, por ejemplo un gesto. El módulo de software de destino 20 determina si el movimiento recibido es válido. Un movimiento no válido puede ser un movimiento que no está especificado en el módulo de software de destino 20. Por ejemplo, si un módulo de software de cliente de CARTO® está activo, puede establecerse que un movimiento hacia la pantalla incline el mapa, pero si hay otro cliente activo, puede que este movimiento hacia la pantalla no esté establecido, de manera que este movimiento sería inadecuado o irrelevante. Asimismo, un movimiento no válido puede ser un movimiento que no está permitido a menos que se cumplan ciertas condiciones previas. Por ejemplo, cuando un dispositivo de hardware está conectado al ordenador cliente, un movimiento puede estar permitido o ser válido sólo cuando se realiza de manera conjunta con una acción del dispositivo de hardware; por ejemplo, puede que un movimiento ondulatorio sólo sea válido cuando se realiza mientras se presiona un pedal de un dispositivo de hardware.
[0024] La lógica del cliente, por ejemplo el módulo de software de destino 20, determina cómo responder a cada gesto reconocido, es decir, válido. Por ejemplo, si el módulo de software de destino 20 es un software gráfico que produce y muestra un mapa tridimensional (en 3D), la lógica del cliente puede realizar tareas como rotar el mapa, hacer 'zoom' en una parte del mapa, inclinar el mapa, etc. Por lo tanto, el software cliente puede determinar -usando su lógica- que si el gesto es un movimiento circular, la lógica del cliente puede realizar la tarea de rotar o hacer girar un mapa, y si el gesto es un movimiento de empujar, la lógica del cliente puede realizar la tarea de inclinar el mapa respecto al usuario, etc.
[0025] Para manejar o utilizar el sistema, primero el usuario debe hacerse con el control y activar el funcionamiento sin contacto táctil (o 'touch free', en inglés). Para obtener el control, el usuario hace que el sistema reconozca que el usuario va a enviar instrucciones. Después el sistema responderá a las instrucciones, que, tal y como se ha explicado previamente, pueden ser diferentes gestos con la mano y/o la cabeza y/u otros movimientos corporales. Puede cederse el control cuando ya no sea necesario o después de que se detecte un período de inactividad. Para obtener el control puede realizarse un gesto de enfoque, por ejemplo un saludo con la mano o un movimiento con la cabeza, o puede utilizarse un hardware, como un pedal que permite el control mientras se mantiene presionado, o un comando de voz.
[0026] Los movimientos detectados por el sistema no tienen funciones fijas. El sistema adjudica un significado a cada gesto, pose o movimiento dependiendo de su contexto y según el modo y la función en la que el usuario está utilizando en ese momento el ordenador cliente 16. En una realización, el cliente puede ser un sistema de mapeo en 3D con una lógica de mapeo en 3D como el módulo de software de destino. En este caso, por ejemplo, mientras el usuario está utilizando el cliente en modo de revisión ('review mode', en inglés), un movimiento con la cabeza puede hacer girar el mapa, y mientras el cliente está creando un modelo de 3D con Fast Anatomical Mapping (FAM), un movimiento con la cabeza puede servir para hacer una panorámica del mapa. Asimismo, con un gesto se pueden seleccionar los puntos electroanatómicos del mapa en 3D o la lista de puntos (que contiene todos los puntos que están contenidos en el mapa).
[0027] Otros significados adicionales que pueden asociarse a los gestos pueden incluir seleccionar un canal de ECG y modificar sus propiedades (la ganancia del canal) o notaciones.
[0028] Mientras está activado el control sin contacto táctil, puede mostrarse una indicación visual al usuario. De manera opcional, puede proporcionarse una indicación auditiva tras la activación y desactivación del control sin contacto.
[0029] En una realización, el manejo sin contacto táctil puede mejorarse mediante una entrada de voz que puede usarse de forma separada o junto con los movimientos detectados. Por ejemplo, Microsoft Kinect® tiene micrófonos periféricos y puede detectar la dirección de la que proviene la voz reconocida. Esta y/u otras técnicas de reconocimiento de voz pueden utilizarse para captar los comandos de voz y filtrar de forma selectiva los comandos de voz del usuario. Los comandos de voz también pueden combinarse con los gestos. Por ejemplo, si el sistema se utiliza con CARTO®, el usuario puede decir 'Point list' ('lista de puntos') y después mover su mano hacia arriba y hacia abajo para desplazarse por los puntos y, posteriormente, apretar el puño para seleccionar un punto de la lista. En otro ejemplo, el usuario puede decir 'Point viewer' ('visor de puntos') y después utilizar los movimientos para seleccionar un canal y modificar sus propiedades. También puede decir 'Main map' ('mapa principal') o 'Secondary map' ('mapa secundario') y después utilizar los movimientos para rotar el mapa, hacer 'zoom' en él y/u obtener una vista panorámica del mismo. El ordenador cliente se encarga de toda la lógica a la hora de decidir lo que significa cada movimiento de manera conjunta con el comando de voz reconocido más recientemente. En una versión de esta realización, algunos comandos pueden efectuarse utilizando sólo comandos de voz o sólo gestos; por ejemplo, para obtener puntos en CARTO®, puede ser suficiente con decir simplemente 'Acquire' ('obtener' o 'adquirir') sin necesidad de realizar un gesto.
[0030] La Figura 2 muestra una realización que tiene módulos de la CPU y del ordenador cliente en un solo ordenador 26. El sistema de la realización que se muestra en la Figura 2 tiene un sensor de profundidad 10, reconocimiento de voz 24, un módulo de software de detección de movimiento 18 y un módulo de software de destino 20, de manera que tiene las mismas funcionalidades que las de los componentes de la Figura 1. Sin embargo, en esta realización sólo se utiliza un ordenador 26 y el módulo de software de destino 20 contiene un
módulo de comunicación del cliente. La invención no se limita a la configuración de la Figura 1 o la configuración de la Figura 2. También pueden usarse múltiples CPUs, de manera que cada una tendrá uno o más módulos.
[0031] La Figura 3 muestra a un usuario interactuando con el sistema. En la Figura 3, el usuario saluda al sensor de profundidad, que detecta el saludo. El movimiento del usuario, es decir, el saludo, se interpreta basándose en el modo activo en ese momento del software cliente, es decir, del módulo de software de destino. Por ejemplo, si el software está en modo de revisión ('Review mode'), el saludo puede hacer girar el mapa, o si el software está inactivo, el saludo puede activarlo.
[0032] La Figura 4 muestra otra interacción del usuario con el sistema. En la Figura 4, el usuario cierra el puño ante el sensor de profundidad, que detecta que la mano del usuario es un puño cerrado. Tal y como se ha explicado previamente, el movimiento del usuario se interpreta basándose en el modo activo en ese momento del software cliente.
[0033] La Figura 5 es un diagrama de flujo del método de la invención. En el paso S1, el usuario se hace con el control del 'sistema de control sin contacto', normalmente realizando un movimiento, usando un comando de voz o pisando un pedal. En el paso S2, un sensor de profundidad 10 detecta el movimiento, incluyendo un cambio de ubicación, y lo transmite a la CPU 12. En el paso S3, la CPU rastrea y guarda un breve historial de los movimientos y/o los cambios de ubicación. En el paso s4, la CPU 12 utiliza el software de movimiento para deducir o inferir un gesto o movimiento más complejo a partir del movimiento recibido y de acuerdo con el breve historial. En los pasos S5 y S6 se realiza el filtrado. En el paso S5, se determina si el gesto lo ha realizado un usuario adecuado o autorizado determinando si el movimiento se ha efectuado en una ubicación predeterminada y/o utilizando el reconocimiento facial. Si se determina que el gesto lo ha realizado un usuario autorizado (S5=YES; es decir, S5=SÍ), el procesamiento continúa en el paso S6, donde la CPU da por válido el gesto. Si el gesto es válido (S6=YES), se envía al ordenador cliente y se reanuda el rastreo de otros movimientos adicionales en el paso S3. En el paso S7, el gesto se recibe en el módulo de cliente de comunicación del ordenador cliente. Si el módulo de software de destino activo reconoce el gesto (S8=YES), en el paso S9 el ordenador cliente lleva a cabo una operación o función de dispositivo -es decir, una tarea-, de acuerdo con la lógica del cliente o el módulo de software de destino, basándose en el gesto inferido. Estas tareas incluyen -pero no se limitan a- obtener diferentes vistas del mapa en 3D haciendo 'zoom', girando el eje, etc. Cuando el software de movimiento envía el gesto al ordenador cliente (cuando S6=YES), el software de movimiento responde al siguiente movimiento y/o ubicación corporal detectados.
[0034] En una realización, para realizar un movimiento autorizado también es necesario determinar si el movimiento se realiza de manera conjunta con un hardware como otro dispositivo. En esta realización, un movimiento autorizado debe incluir tanto un movimiento complejo inferido por el software como una acción adicional, por ejemplo pisar un pedal. Esta autorización puede realizarse después del paso S5, cuando S5=YES, y antes del paso S6.
[0035] Si el movimiento detectado no está autorizado (S5=NO) o el movimiento detectado no es válido (S6=NO), el procesamiento continúa en el paso S3. Si el software cliente no reconoce el gesto (S8=NO), no se realiza ninguna tarea.
[0036] De manera ventajosa, el sistema permite que un dispositivo de quirófano realice las tareas utilizando el rastreo de la cabeza y/u otras técnicas de detección de movimiento que permiten que el doctor u otro usuario del sistema realicen algunas acciones mientras siguen usando ambas manos para navegar con un catéter. De forma beneficiosa, el sistema puede filtrar y enviar únicamente los gestos del personal autorizado. Esto garantiza que el sistema sólo esté controlado por las personas indicadas para ello. Los gestos con la mano, los movimientos con la cabeza y otras acciones realizadas por otras personas pueden ignorarse.
[0037] Diversos aspectos de la presente divulgación pueden incluirse en un programa, un software o unas instrucciones informáticas integradas o almacenadas en un medio legible o utilizable por una máquina u ordenador, que hacen que la máquina o el ordenador lleven a cabo los pasos del método cuando se ejecutan en el ordenador, el procesador y/o la máquina. También se proporciona un dispositivo de almacenamiento de programas que se puede leer mediante una máquina, por ejemplo un medio legible por un ordenador, y que integra de forma material un programa de instrucciones que puede ser ejecutado por la máquina para poner en práctica diversos métodos y funcionalidades que se describen en la presente divulgación.
[0038] El sistema y el método de la presente divulgación pueden implementarse y funcionar en un ordenador de uso general o en un sistema informático especializado. El sistema informático puede ser cualquier tipo de sistema conocido y, normalmente, puede incluir un procesador, una memoria, un dispositivo de almacenamiento, dispositivos de entrada y salida, buses internos y/o una interfaz de comunicaciones para comunicarse con otros sistemas informáticos conjuntamente con un hardware y un software de comunicaciones, etc. El sistema también puede implementarse en un sistema informático virtual, que de manera coloquial se denomina 'nube'.
[0039] El medio legible por un ordenador es un dispositivo de almacenamiento legible por un ordenador, que puede ser, por ejemplo, un sistema, equipo o dispositivo magnético, óptico, electrónico, electromagnético, infrarrojo o semiconductor, o cualquier combinación de los casos anteriores; sin embargo, el dispositivo de almacenamiento
legible por un ordenador no se limita a estos ejemplos. Otros ejemplos particulares adicionales de dispositivos de almacenamiento legibles por un ordenador incluyen los siguientes: un disquete informático portátil, un disco duro, un dispositivo de almacenamiento magnético, un CD-ROM, una memoria de acceso aleatorio (o memoria RAM), una memoria de solo lectura (o memoria ROM), una memoria EPROM o una memoria Flash, una conexión eléctrica que tenga uno o más cables, una fibra óptica, un dispositivo de almacenamiento óptico, o cualquier combinación adecuada de los anteriores; sin embargo, el medio de almacenamiento legible por un ordenador tampoco se limita a estos ejemplos. Cualquier medio tangible o material que pueda contener o guardar un programa que se pueda usar en o junto con un sistema, equipo o dispositivo para ejecutar instrucciones podría ser un dispositivo de almacenamiento legible por un ordenador.
[0040] Tal y como se utilizan en el presente documento, los términos 'sistema informático' y 'red informática' pueden incluir diversas combinaciones de hardware, software, periféricos o dispositivos de almacenamiento fijos o portátiles. El sistema informático puede incluir diversos componentes individuales que forman una red o están conectados entre sí de cualquier otra manera para trabajar de forma conjunta, o puede incluir uno o más componentes independientes. Los componentes de hardware y software del sistema informático de la presente solicitud pueden incluir -o estar incluidos en- dispositivos fijos y portátiles como un ordenador o PC, un ordenador portátil, y/o un servidor, y una red de servidores (o nube). Un módulo puede ser un componente de un dispositivo, un software, un programa o un sistema que incluye alguna 'funcionalidad', que puede integrarse en un software, un hardware, un firmware, un sistema de circuitos electrónicos, etc.
[0041] Las realizaciones descritas previamente son ejemplos ilustrativos y no debe interpretarse que la presente invención se limita a estas realizaciones particulares. Por lo tanto, una persona versada en este campo puede realizar cambios y modificaciones sin apartarse por ello del alcance de la invención, tal y como se define y especifica en las reivindicaciones anexas.
Claims (8)
1. Un sistema para el manejo o utilización sin contacto táctil ('touch free', en inglés) de un dispositivo de quirófano, que comprende:
un sensor de profundidad (10) que proporciona un mapa de profundidad y detecta un movimiento;
un pedal;
un módulo de software de movimiento (18) que está operativo y
recibe el movimiento detectado por el sensor de profundidad (10),
deduce o infiere un gesto o expresión basándose en el movimiento detectado, y
filtra el gesto para escoger o aceptar un gesto aplicable, de manera que filtrar el gesto comprende descartar el gesto y considerarlo no aplicable si el movimiento no se ha realizado de manera conjunta con la activación del pedal, y descartar el gesto y considerarlo no aplicable si el movimiento detectado no lo realiza un usuario que está autorizado para utilizar el reconocimiento facial; y
un módulo de software del cliente (20) que está operativo y recibe el gesto aplicable en un ordenador cliente (16) para realizar una tarea según la lógica del cliente basándose en el gesto aplicable, de manera que el ordenador cliente es un dispositivo de mapeo y la tarea consiste en: rotar o hacer girar un mapa, hacer 'zoom' en un mapa, inclinar un mapa y/o tomar una vista panorámica de un mapa (también llamado 'panear un mapa').
2. El sistema de acuerdo con la reivindicación 1, de manera que el módulo de software de movimiento y el módulo de software del cliente se encuentran en un único ordenador.
3. El sistema de acuerdo con la reivindicación 1, de manera que además comprende que el reconocimiento de voz proporcione comandos de voz reconocidos que permiten que el ordenador cliente realice la tarea basándose en los comandos de voz reconocidos de manera conjunta con el gesto aplicable.
4. El sistema de acuerdo con la reivindicación 1, de manera que el movimiento es al menos uno de los siguientes: un movimiento con la cabeza, un movimiento con la mano o un movimiento con el cuerpo, y además el gesto se deduce o infiere basándose en un breve historial.
5. Un método que se ejecuta en un sistema informático y que comprende un sensor de profundidad (10) y un pedal, de manera que el método permite el manejo o utilización sin contacto táctil de un sistema informático, y de manera que comprende:
detectar un movimiento utilizando un mapa de profundidad proporcionado por el sensor de profundidad (10); deducir o inferir un gesto basándose en el movimiento detectado;
filtrar el gesto para escoger o aceptar un gesto aplicable, de manera que filtrar el gesto comprende descartar el gesto y considerarlo no aplicable si el movimiento no se ha realizado de manera conjunta con la activación del pedal, y descartar el gesto y considerarlo no aplicable si el movimiento detectado no lo realiza un usuario que está autorizado para utilizar el reconocimiento facial;
recibir el gesto aplicable en un ordenador cliente (16); y
realizar una tarea según la lógica del cliente basándose en el gesto aplicable, de manera que el ordenador cliente es un dispositivo de mapeo y la tarea consiste en: rotar o hacer girar un mapa, hacer 'zoom' en un mapa, inclinar un mapa y/o tomar una vista panorámica de un mapa (también llamado 'panear un mapa').
6. El método de acuerdo con la reivindicación 5, de manera que el movimiento es al menos uno de los siguientes: un movimiento con la cabeza, un movimiento con la mano o un movimiento con el cuerpo, y además el gesto se deduce o infiere basándose en un breve historial.
7. El método de acuerdo con la reivindicación 5, de manera que además comprende el paso de proporcionar comandos de voz reconocidos utilizando el reconocimiento de voz, de manera que el paso se realiza basándose en los comandos de voz reconocidos de manera conjunta con el gesto aplicable.
8. Un dispositivo de almacenamiento legible por un ordenador que guarda un programa de instrucciones que puede ejecutarse mediante una máquina para poner en práctica un método para el manejo o la utilización sin contacto táctil de un sistema informático, de acuerdo con cualquiera de las reivindicaciones 5 a 7, de manera que el paso de deducir o inferir un gesto se realiza utilizando una CPU (12).
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/347,943 US9625993B2 (en) | 2012-01-11 | 2012-01-11 | Touch free operation of devices by use of depth sensors |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2736966T3 true ES2736966T3 (es) | 2020-01-09 |
Family
ID=47738996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES13150837T Active ES2736966T3 (es) | 2012-01-11 | 2013-01-10 | Manejo -sin contacto táctil- de dispositivos usando sensores de profundidad |
Country Status (8)
Country | Link |
---|---|
US (1) | US9625993B2 (es) |
EP (1) | EP2615525B1 (es) |
JP (2) | JP6153728B2 (es) |
CN (2) | CN103207670A (es) |
AU (1) | AU2013200054B2 (es) |
CA (1) | CA2801496A1 (es) |
ES (1) | ES2736966T3 (es) |
IL (1) | IL224096B (es) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8684962B2 (en) | 2008-03-27 | 2014-04-01 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic catheter device cartridge |
US9241768B2 (en) | 2008-03-27 | 2016-01-26 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Intelligent input device controller for a robotic catheter system |
US8343096B2 (en) | 2008-03-27 | 2013-01-01 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic catheter system |
US8317744B2 (en) | 2008-03-27 | 2012-11-27 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic catheter manipulator assembly |
US9161817B2 (en) | 2008-03-27 | 2015-10-20 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic catheter system |
US8641664B2 (en) | 2008-03-27 | 2014-02-04 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic catheter system with dynamic response |
US8641663B2 (en) | 2008-03-27 | 2014-02-04 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic catheter system input device |
WO2011123669A1 (en) | 2010-03-31 | 2011-10-06 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Intuitive user interface control for remote catheter navigation and 3d mapping and visualization systems |
US9330497B2 (en) | 2011-08-12 | 2016-05-03 | St. Jude Medical, Atrial Fibrillation Division, Inc. | User interface devices for electrophysiology lab diagnostic and therapeutic equipment |
US9439736B2 (en) | 2009-07-22 | 2016-09-13 | St. Jude Medical, Atrial Fibrillation Division, Inc. | System and method for controlling a remote medical device guidance system in three-dimensions using gestures |
US20150290031A1 (en) * | 2013-05-16 | 2015-10-15 | Wavelight Gmbh | Touchless user interface for ophthalmic devices |
US20140358684A1 (en) * | 2013-06-03 | 2014-12-04 | Cloudwear, Inc. | System for communicating primary and supplemental advertiser information using a server |
US20150199017A1 (en) * | 2014-01-10 | 2015-07-16 | Microsoft Corporation | Coordinated speech and gesture input |
CN103823555A (zh) * | 2014-01-23 | 2014-05-28 | 珠海恒宇新科技有限公司 | 一种3d手势转换为键码的系统及方法 |
DE102014201313A1 (de) * | 2014-01-24 | 2015-07-30 | Myestro Interactive Gmbh | Verfahren zur Erkennung einer Bewegungsbahn mindestens eines bewegten Objektes innerhalb eines Erfassungsbereiches, Verfahren zur Gestikerkennung unter Einsatz eines derartigen Erkennungsverfahrens sowie Vorrichtung zur Durchführung eines derartigen Erkennungsverfahrens |
KR102249824B1 (ko) | 2014-02-24 | 2021-05-10 | 삼성전자주식회사 | 신체 정보 감지장치 및 이의 신체 정보 감지방법 |
KR20150112337A (ko) * | 2014-03-27 | 2015-10-07 | 삼성전자주식회사 | 디스플레이 장치 및 그 사용자 인터랙션 방법 |
US11977998B2 (en) | 2014-05-15 | 2024-05-07 | Storz Endoskop Produktions Gmbh | Surgical workflow support system |
CN104834244A (zh) * | 2014-11-05 | 2015-08-12 | 电子科技大学 | 一种手势开关及手势控制方法 |
US10179407B2 (en) * | 2014-11-16 | 2019-01-15 | Robologics Ltd. | Dynamic multi-sensor and multi-robot interface system |
US10215857B2 (en) | 2014-12-02 | 2019-02-26 | Ams Sensors Singapore Pte. Ltd. | Depth sensor module and depth sensing method |
US10613637B2 (en) * | 2015-01-28 | 2020-04-07 | Medtronic, Inc. | Systems and methods for mitigating gesture input error |
US11347316B2 (en) | 2015-01-28 | 2022-05-31 | Medtronic, Inc. | Systems and methods for mitigating gesture input error |
US10600015B2 (en) | 2015-06-24 | 2020-03-24 | Karl Storz Se & Co. Kg | Context-aware user interface for integrated operating room |
US10045825B2 (en) | 2015-09-25 | 2018-08-14 | Karl Storz Imaging, Inc. | Partial facial recognition and gaze detection for a medical system |
US10303259B2 (en) | 2017-04-03 | 2019-05-28 | Youspace, Inc. | Systems and methods for gesture-based interaction |
US10437342B2 (en) | 2016-12-05 | 2019-10-08 | Youspace, Inc. | Calibration systems and methods for depth-based interfaces with disparate fields of view |
US10303417B2 (en) | 2017-04-03 | 2019-05-28 | Youspace, Inc. | Interactive systems for depth-based input |
WO2018106276A1 (en) * | 2016-12-05 | 2018-06-14 | Youspace, Inc. | Systems and methods for gesture-based interaction |
USD843385S1 (en) * | 2017-04-19 | 2019-03-19 | Navix International Limited | Display screen or portion thereof with graphical user interface |
USD878414S1 (en) | 2017-04-19 | 2020-03-17 | Navix International Limited | Display screen or portion thereof with icon |
EP3625960A4 (en) * | 2017-06-14 | 2021-03-10 | Roborep Inc. | TELEPRESENCE MANAGEMENT |
USD918929S1 (en) | 2017-09-28 | 2021-05-11 | Navix International Limited | Display screen or portion thereof with panoramic view |
USD889476S1 (en) | 2017-09-28 | 2020-07-07 | Navix International Limited | Display screen or portion thereof with panoramic view |
USD878413S1 (en) | 2017-09-28 | 2020-03-17 | Navix International Limited | Display screen or portion thereof with icon |
CN108519819A (zh) * | 2018-03-30 | 2018-09-11 | 北京金山安全软件有限公司 | 智能设备的处理方法、装置、智能设备及介质 |
US10863971B2 (en) * | 2018-11-30 | 2020-12-15 | Fujifilm Sonosite, Inc. | Touchless input ultrasound control |
US10832392B2 (en) * | 2018-12-19 | 2020-11-10 | Siemens Healthcare Gmbh | Method, learning apparatus, and medical imaging apparatus for registration of images |
KR20200085970A (ko) * | 2019-01-07 | 2020-07-16 | 현대자동차주식회사 | 자동차 및 그 제어 방법 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6368269B1 (en) * | 1993-05-20 | 2002-04-09 | Tilane Corporation | Apparatus for concurrent actuation of multiple foot pedal operated switches |
US6243683B1 (en) * | 1998-12-29 | 2001-06-05 | Intel Corporation | Video control of speech recognition |
JP2000347692A (ja) * | 1999-06-07 | 2000-12-15 | Sanyo Electric Co Ltd | 人物検出方法、人物検出装置及びそれを用いた制御システム |
AU2001249874A1 (en) | 2000-04-27 | 2001-11-12 | Medtronic, Inc. | System and method for assessing transmurality of ablation lesions |
US7110580B2 (en) | 2000-05-19 | 2006-09-19 | Nextgenid, Inc. | Distributed biometric access control method and apparatus |
ES2262423B1 (es) | 2005-02-18 | 2007-11-16 | Manuel Fernandez Guerrero | Sistema de activacion y desactivacion automatica de radiacion ionizante controlado por la mirada del operador. |
WO2006087689A2 (en) * | 2005-02-18 | 2006-08-24 | Koninklijke Philips Electronics N. V. | Automatic control of a medical device |
US8411034B2 (en) | 2009-03-12 | 2013-04-02 | Marc Boillot | Sterile networked interface for medical systems |
WO2007127338A2 (en) | 2006-04-27 | 2007-11-08 | Bruce Reiner | Apparatus and method for utilizing biometrics in medical applications |
EP2153377A4 (en) | 2007-05-04 | 2017-05-31 | Qualcomm Incorporated | Camera-based user input for compact devices |
CN103442201B (zh) | 2007-09-24 | 2018-01-02 | 高通股份有限公司 | 用于语音和视频通信的增强接口 |
US9772689B2 (en) | 2008-03-04 | 2017-09-26 | Qualcomm Incorporated | Enhanced gesture-based image manipulation |
US20090282371A1 (en) | 2008-05-07 | 2009-11-12 | Carrot Medical Llc | Integration system for medical instruments with remote control |
US8315876B2 (en) * | 2008-05-09 | 2012-11-20 | Plantronics, Inc. | Headset wearer identity authentication with voice print or speech recognition |
US20100013767A1 (en) | 2008-07-18 | 2010-01-21 | Wei Gu | Methods for Controlling Computers and Devices |
US8903476B2 (en) | 2009-03-08 | 2014-12-02 | Oprobe, Llc | Multi-function optical probe system for medical and veterinary applications |
EP2429438A1 (en) * | 2009-04-24 | 2012-03-21 | Medtronic, Inc. | Electromagnetic navigation of medical instruments for cardiothoracic surgery |
US8253746B2 (en) * | 2009-05-01 | 2012-08-28 | Microsoft Corporation | Determine intended motions |
US8390680B2 (en) * | 2009-07-09 | 2013-03-05 | Microsoft Corporation | Visual representation expression based on player expression |
WO2011123669A1 (en) | 2010-03-31 | 2011-10-06 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Intuitive user interface control for remote catheter navigation and 3d mapping and visualization systems |
KR101626159B1 (ko) | 2009-11-25 | 2016-05-31 | 엘지전자 주식회사 | 사용자 적응형 디스플레이 장치 및 디스플레이 방법 |
EP2642371A1 (en) * | 2010-01-14 | 2013-09-25 | BrainLAB AG | Controlling a surgical navigation system |
US20110208685A1 (en) * | 2010-02-25 | 2011-08-25 | Hariraam Varun Ganapathi | Motion Capture Using Intelligent Part Identification |
JP2011232964A (ja) | 2010-04-28 | 2011-11-17 | Casio Comput Co Ltd | 電気機器、及びその制御方法とプログラム |
US9245177B2 (en) * | 2010-06-02 | 2016-01-26 | Microsoft Technology Licensing, Llc | Limiting avatar gesture display |
US8749557B2 (en) * | 2010-06-11 | 2014-06-10 | Microsoft Corporation | Interacting with user interface via avatar |
US8296151B2 (en) * | 2010-06-18 | 2012-10-23 | Microsoft Corporation | Compound gesture-speech commands |
US20120089392A1 (en) * | 2010-10-07 | 2012-04-12 | Microsoft Corporation | Speech recognition user interface |
US8768006B2 (en) | 2010-10-19 | 2014-07-01 | Hewlett-Packard Development Company, L.P. | Hand gesture recognition |
US9626498B2 (en) | 2011-12-15 | 2017-04-18 | France Telecom | Multi-person gestural authentication and authorization system and method of operation thereof |
-
2012
- 2012-01-11 US US13/347,943 patent/US9625993B2/en active Active
-
2013
- 2013-01-02 IL IL224096A patent/IL224096B/en active IP Right Grant
- 2013-01-07 AU AU2013200054A patent/AU2013200054B2/en not_active Ceased
- 2013-01-09 CA CA2801496A patent/CA2801496A1/en not_active Abandoned
- 2013-01-10 ES ES13150837T patent/ES2736966T3/es active Active
- 2013-01-10 JP JP2013002419A patent/JP6153728B2/ja active Active
- 2013-01-10 EP EP13150837.6A patent/EP2615525B1/en active Active
- 2013-01-10 CN CN2013100091735A patent/CN103207670A/zh active Pending
- 2013-01-10 CN CN201910588214.8A patent/CN110502104A/zh active Pending
-
2017
- 2017-03-17 JP JP2017052449A patent/JP6306236B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
CN103207670A (zh) | 2013-07-17 |
JP6306236B2 (ja) | 2018-04-04 |
CA2801496A1 (en) | 2013-07-11 |
JP2017162476A (ja) | 2017-09-14 |
JP6153728B2 (ja) | 2017-06-28 |
EP2615525B1 (en) | 2019-05-15 |
AU2013200054A1 (en) | 2013-07-25 |
CN110502104A (zh) | 2019-11-26 |
EP2615525A2 (en) | 2013-07-17 |
US20130179162A1 (en) | 2013-07-11 |
IL224096B (en) | 2018-07-31 |
JP2013143148A (ja) | 2013-07-22 |
AU2013200054B2 (en) | 2016-06-16 |
US9625993B2 (en) | 2017-04-18 |
EP2615525A3 (en) | 2016-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2736966T3 (es) | Manejo -sin contacto táctil- de dispositivos usando sensores de profundidad | |
JP7478795B2 (ja) | 医療アシスタント | |
US20210157403A1 (en) | Operating room and surgical site awareness | |
ES2761248T3 (es) | Manejo sin contacto de estación de trabajo del instrumento de ablación mediante el uso de sensores de profundidad | |
CN109478346B (zh) | 使用虚拟现实头戴式显示器增强的眼科手术体验 | |
US10429941B2 (en) | Control device of head mounted display, operation method and operation program thereof, and image display system | |
US10992857B2 (en) | Input control device, input control method, and operation system | |
JP2024514882A (ja) | オーバーレイされたデータ及び構成のカスタマイズ | |
EP4307092A2 (en) | Operating mode control systems and methods for a computer-assisted surgical system | |
JP7130003B2 (ja) | 画像捕捉デバイスの視野内の物体の検出のためのシステムおよび方法 | |
KR20210059697A (ko) | 증강 현실 환경을 위한 시선 기반 인터페이스 | |
US20230186574A1 (en) | Systems and methods for region-based presentation of augmented content | |
EP3907585B1 (en) | Systems and methods of controlling an operating room display using an augmented reality headset | |
JP6483514B2 (ja) | ウェアラブル装置、制御方法及び制御プログラム | |
JP6507252B2 (ja) | 機器操作装置、機器操作方法、及び電子機器システム | |
KR20110049703A (ko) | 수술 로봇 시스템 및 그 복강경 조작 방법 | |
KR101114234B1 (ko) | 수술 로봇 시스템 및 그 복강경 조작 방법 | |
KR101374316B1 (ko) | 시스루 디스플레이를 이용한 동작인식 장치 및 그 방법 | |
WO2024049942A1 (en) | Techniques for updating a registration transform between an extended-reality system and a computer-assisted device | |
KR20160124057A (ko) | 수술 로봇 시스템 및 그 복강경 조작 방법 |