ES2881537T3 - Sistema de control endoscópico general - Google Patents
Sistema de control endoscópico general Download PDFInfo
- Publication number
- ES2881537T3 ES2881537T3 ES13757955T ES13757955T ES2881537T3 ES 2881537 T3 ES2881537 T3 ES 2881537T3 ES 13757955 T ES13757955 T ES 13757955T ES 13757955 T ES13757955 T ES 13757955T ES 2881537 T3 ES2881537 T3 ES 2881537T3
- Authority
- ES
- Spain
- Prior art keywords
- axis
- endoscope
- fov
- movement
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 claims abstract description 128
- 238000012545 processing Methods 0.000 claims abstract description 26
- 238000004891 communication Methods 0.000 claims abstract description 11
- 238000000034 method Methods 0.000 claims description 13
- 230000000007 visual effect Effects 0.000 claims 3
- 230000004913 activation Effects 0.000 claims 2
- 230000003287 optical effect Effects 0.000 claims 2
- 230000003213 activating effect Effects 0.000 claims 1
- 230000002035 prolonged effect Effects 0.000 claims 1
- 108090000623 proteins and genes Proteins 0.000 claims 1
- 238000012795 verification Methods 0.000 claims 1
- 210000000056 organ Anatomy 0.000 description 22
- 230000009466 transformation Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 7
- 238000002357 laparoscopic surgery Methods 0.000 description 7
- 230000035515 penetration Effects 0.000 description 7
- 241000032989 Ipomoea lacunosa Species 0.000 description 6
- 238000000844 transformation Methods 0.000 description 6
- 230000029058 respiratory gaseous exchange Effects 0.000 description 5
- 210000001015 abdomen Anatomy 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000003071 parasitic effect Effects 0.000 description 4
- 238000001356 surgical procedure Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000005056 compaction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 208000032544 Cicatrix Diseases 0.000 description 1
- 235000011779 Menyanthes trifoliata Nutrition 0.000 description 1
- 240000008821 Menyanthes trifoliata Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000011900 installation process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000000399 orthopedic effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000000554 physical therapy Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 231100000241 scar Toxicity 0.000 description 1
- 230000037387 scars Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00039—Operational features of endoscopes provided with input arrangements for the user
- A61B1/0004—Operational features of endoscopes provided with input arrangements for the user for electronic operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00147—Holding or positioning arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/35—Surgical robots for telesurgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00022—Sensing or detecting at the treatment site
- A61B2017/00026—Conductivity or impedance, e.g. of tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00022—Sensing or detecting at the treatment site
- A61B2017/00075—Motion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00022—Sensing or detecting at the treatment site
- A61B2017/00084—Temperature
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2048—Tracking techniques using an accelerometer or inertia sensor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/74—Manipulators with manual electric input means
- A61B2034/741—Glove like input devices, e.g. "data gloves"
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/74—Manipulators with manual electric input means
- A61B2034/742—Joysticks
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Veterinary Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Biophysics (AREA)
- Robotics (AREA)
- Signal Processing (AREA)
- Mechanical Engineering (AREA)
- Gynecology & Obstetrics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Endoscopes (AREA)
Abstract
Sistema para controlar un endoscopio (100), que comprende a. un endoscopio (100) adaptado para proporcionar imágenes en tiempo real del FOV dentro de una cavidad corporal; donde dicho FOV define al menos dos ejes (105) seleccionados de un grupo que consiste en eje x del FOV, eje y del FOV y eje z del FOV y cualquier combinación de los mismos, de manera que al menos dos ejes (105) seleccionados de dicho eje x del FOV, dicho eje y del FOV, dicho eje z del FOV y cualquier combinación de los mismos están adaptados para actualizarse en tiempo real a medida que dicho endoscopio (100) se mueve y dicho FOV cambia; donde dicho endoscopio (100) está caracterizado por una ubicación espacial; donde dicha ubicación espacial se actualiza a tiempo real a medida que se mueve dicho endoscopio (100); b. un sistema de manipulación (102) para manipular dicho endoscopio (100) en al menos dos DOF; donde dicho sistema de manipulación (102) define un eje x constante, un eje y constante y un eje z constante; c. medios de control adaptados para recibir órdenes de movimiento de un usuario para manipular dicho endoscopio (100); y d. un sistema de procesamiento de datos en comunicación con dichos medios de control, adaptado para instruir dicho sistema de manipulación (102) para manipular dicho endoscopio (100) según dichas órdenes de movimientos; donde dichos datos medios de control instruyen dicho sistema de manipulación (102) para manipular dicho endoscopio (100) según dichas órdenes de movimientos con respecto a al menos dos ejes (105) seleccionados de dicho eje x del FOV, dicho eje y del FOV y dicho eje z del FOV y cualquier combinación de los mismos, como se muestra en tiempo real en dicha imagen, independientemente de dicha ubicación espacial de dicho endoscopio (100) y de dicho eje x, dicho eje y, y dicho eje z, y como están definidos por dicho sistema de manipulación; donde, además, dicho sistema de procesamiento de datos está adaptado para convertir dichas órdenes de movimientos con respecto a al menos dos ejes seleccionados de dicho eje x del FOV, dicho eje y del FOV, dicho eje z del FOV y cualquier combinación de los mismos en órdenes de movimientos con respecto a dicho eje x, dicho eje y, y dicho eje z, de manera que dicho sistema de manipulación (102) está adaptado para mover dicho endoscopio (100) con respecto a dicho eje x, dicho eje y, y dicho eje z para dar como resultado dichos movimientos según lo ordenado con respecto a al menos dos ejes seleccionados de dicho eje x del FOV, dicho eje y del FOV, dicho eje z del FOV y cualquier combinación de los mismos, caracterizado por el hecho de que el sistema está adaptado para, durante el movimiento del endoscopio, rastrear objetos en las imágenes usando un sistema de procesamiento de imágenes, comparar la ubicación de los objetos en una presente imagen con la ubicación de dichos objetos en una imagen precedente, calcular, a partir de esto, la dirección de movimiento de la imagen con respecto al FOV y verificar si el centro de la imagen se mueve en la dirección deseada.
Description
DESCRIPCIÓN
Sistema de control endoscópico general
CAMPO DE LA INVENCIÓN
[0001] La presente invención se refiere generalmente a un sistema y a un método para controlar un endoscopio.
ANTECEDENTES DE LA INVENCIÓN
[0002] La cirugía laparoscópica se está volviendo cada vez más popular entre los pacientes porque las cicatrices son más pequeñas y su periodo de recuperación es más corto. La cirugía laparoscópica requiere una formación especial del cirujano o ginecólogo y del personal de enfermería del quirófano. El equipo suele ser caro y no está disponible en todos los hospitales. Durante la cirugía laparoscópica, a menudo se requiere cambiar la ubicación espacial del endoscopio para presentar al cirujano la vista óptima. La cirugía laparoscópica convencional utiliza asistentes humanos que cambian manualmente la instrumentación o, alternativamente, asistentes automatizados robóticos (como la patente JP n° 06063003).
[0003] En la cirugía laparoscópica, el cirujano realiza la operación a través de pequeños orificios utilizando instrumentos largos y observando la anatomía interna con una cámara endoscópica. El endoscopio es sujetado de manera convencional por un asistente de cámara, ya que el cirujano debe realizar la operación con ambas manos. El desempeño del cirujano depende en gran medida de la posición de la cámara con respecto a los instrumentos y de una imagen estable mostrada en el monitor; además, la imagen mostrada debe estar en la orientación correcta. El problema principal es que es difícil para el asistente tanto mantener el endoscopio en la posición espacial correcta, como sostener el endoscopio firmemente, manteniendo el campo en la orientación correcta. Para superar estos problemas, se han desarrollado varias tecnologías nuevas utilizando robots para sostener el endoscopio mientras el cirujano realiza el procedimiento, por ejemplo, Lapman, Endoassist etc. Pero estas tecnologías son carcas, difíciles de instalar, incómodas de usar, limitan la destreza del cirujano y tienen dimensiones físicas mucho mayores que todas las demás herramientas operativas. En relación con la acción requerida, también requieren que una gran región se mantenga libre para su movimiento y tenga varios brazos, que se mueven alrededor de diferentes ejes. Otro robot, LER (que fue desarrollado por el laboratorio TIMC-GMCAO), Solicitud de patente de EE.UU. n° 200/6100501 consiste en un robot de soporte de cámara compacto que se apoya directamente sobre el abdomen del paciente y una caja electrónica que contiene el suministro eléctrico y los controladores del robot. LER tiene dimensiones relativamente pequeñas, pero tiene un anillo de base de 110 mm de diámetro que debe fijarse o estar muy cerca de la piel del paciente. Este anillo ocupa una posición sobre el cuerpo del paciente, lo que limita las actividades del cirujano: no se pueden colocar otros trocares allí, lo prefiera o no el cirujano, cambiando posiblemente el método usual del cirujano para realizar el procedimiento y, en ocasiones, obligando a que el proceso de instalación dure hasta 40 minutos. Además, el LER tiene solo 3 grados de libertad y no puede controlar la orientación de la imagen mostrada al cirujano (el LER no puede girar el endoscopio alrededor de su eje longitudinal).
[0004] Sin embargo, incluso las tecnologías mejoradas aun limitan la destreza del cirujano y no proporcionan los cuatro grados de libertad necesarios. Otra desventaja de estas tecnologías es que carecen de la capacidad de controlar completamente tanto la posición espacial del tubo de endoscopio como su orientación durante la cirugía laparoscópica, de modo que el cirujano pueda ver cualquier área deseada dentro del entorno de trabajo en el cuerpo que se está operando.
[0005] Por lo tanto, desde hace mucho tiempo existe la necesidad de un soporte de cámara que mantenga firme el endoscopio y que permita un control total del endoscopio en los cuatro grados de libertad, sin limitar la destreza del cirujano. Además, también existe una necesidad desde hace mucho tiempo de un soporte de cámara que proporcione la capacidad de controlar la orientación espacial de un tubo endoscópico, de modo que el cirujano pueda alcanzar cualquier área deseada dentro del entorno de trabajo en el cuerpo operado y pueda ver esa área desde cualquier ángulo deseado
[0006] Sin embargo, los sistemas endoscópicos convencionales se basan en un control manual que requiere que un usuario reposicione el endoscopio manualmente, o utilizan el posicionamiento absoluto. Los sistemas de control manuales requieren que el cirujano pause la operación para reposicionar el endoscopio o requieren un operador adicional en el quirófano para controlar la posición del endoscopio, mientras que los sistemas de posicionamiento absoluto pueden requerir una manipulación contraintuitiva de un aparato de control. Se producirá una manipulación contraintuitiva de un aparato de control, por ejemplo, si los ejes de la cámara endoscópica no son paralelos a los ejes del sistema de posicionamiento absoluto. Si, por ejemplo, los ejes de la cámara endoscópica son antiparalelos a los ejes del sistema de posicionamiento absoluto, para mover el campo de visión hacia la izquierda, se debe ordenar al sistema de control mover el endoscopio a la derecha, y viceversa, lo que requiere que el cirujano recuerde la posición relativa de la cámara y los ejes del sistema de posicionamiento.
[0007] La solicitud de patente publicada WO 2011/060139 A2 divulga un sistema para controlar un endoscopio, de acuerdo con el preámbulo de la reivindicación 1. Bajo determinadas circunstancias, la precisión del control puede mostrar debilidades.
[0008] Por lo tanto, una necesidad desde hace mucho tiempo es proporcionar un sistema para controlar la posición y el movimiento de un endoscopio que normalmente no requiera una manipulación manual y que no requiera una manipulación contraintuitiva del aparato de control.
RESUMEN DE LA INVENCIÓN
[0009] Un objeto de la presente invención es revelar un sistema para controlar un endoscopio, según la reivindicación 1.
[0010] Otros desarrollos adicionales de la invención son según las reivindicaciones 2-18 dependientes.
BREVE DESCRIPCIÓN DE LAS FIGURAS
[0011] Para entender mejor la invención y su implementación en la práctica, ahora se describirá una pluralidad de formas de realización, solo a modo de ejemplo no limitativo, con referencia a los dibujos adjuntos, donde la figura 1A-B ilustra esquemáticamente el efecto de las diferencias en la alineación de ejes fijados al sistema de manipulación y ejes fijados a la cámara en el movimiento de la imagen vista por un endoscopio para un sistema convencional; las figuras 2A-D, 3A-D y 4A-C ilustran esquemáticamente el efecto de diferencias en la alineación de ejes fijados al sistema de manipulación y ejes fijados a la cámara en el movimiento de la imagen vista por un endoscopio para el presente sistema; la figura 5 ilustra esquemáticamente un diagrama de flujo de control del movimiento del endoscopio; y la figura 6 ilustra esquemáticamente un endoscopio articulado.
DESCRIPCIÓN DETALLADA DE LAS FORMAS DE REALIZACIÓN PREFERIDAS
[0012] La siguiente descripción se proporciona, junto con todos los capítulos de la presente invención, para permitir a cualquier experto en la materia hacer uso de dicha invención y establece los mejores modos contemplados por el inventor de realizar esta invención. Sin embargo, serán evidentes para los expertos en la técnica diversas modificaciones, ya que los principios genéricos de la presente invención se han definido específicamente para proporcionar un medio y un método para el control automático de un endoscopio.
[0013] La presente invención proporciona un sistema para controlar un endoscopio, que comprende un endoscopio adaptado para proporcionar imágenes en tiempo real de un campo de visión (FOV), donde el FOV caracteriza una ubicación espacial, y el endoscopio se caracteriza por una ubicación espacial; un sistema de manipulación para manipular el endoscopio en al menos dos medios de control del DOF adaptados para recibir órdenes de movimientos para manipular el endoscopio; y un sistema de procesamiento de datos en comunicación con los medios de control, adaptado para instruir al sistema de manipulación para manipular el endoscopio según las órdenes de movimientos; donde el sistema de procesamiento de datos instruye al sistema de manipulación para manipular el endoscopio de acuerdo con órdenes de movimientos relativas a la ubicación espacial del FOV, como se visualiza en la imagen en tiempo real, sin referencia a la ubicación espacial o la orientación espacial del endoscopio.
[0014] La presente invención también proporciona un sistema para controlar un endoscopio, que comprende un endoscopio adaptado para proporcionar imágenes en tiempo real de un FOV, donde el FOV caracteriza una ubicación espacial, y el endoscopio se caracteriza por una ubicación espacial; medios adaptados para determinar el ángulo de la punta del endoscopio; un sistema de manipulación para hacer zum en el endoscopio; un sistema de manipulación para el movimiento lateral del endoscopio; medios de control adaptados para recibir órdenes para hacer zum en el endoscopio; un sistema de procesamiento de datos en comunicación con el endoscopio, adaptado para determinar la posición espacial del centro del FOV; un sistema de procesamiento de datos en comunicación con los medios de control, adaptado para instruir el sistema de manipulación para hacer zum en el endoscopio y para instruir el sistema de manipulación para manipular el endoscopio en relación con la ubicación espacial del FOV, como se muestra en la imagen en tiempo real, sin referencia a la ubicación espacial del endoscopio; donde el mecanismo de zum mantiene constante el centro de la imagen y ajusta la posición del endoscopio para mantener constante el centro de la imagen.
[0015] La presente invención también proporciona un sistema para controlar una cámara, que comprende una cámara adaptada para proporcionar imágenes en tiempo real de un FOV, donde el fOv caracteriza una ubicación espacial, y la cámara se caracteriza por una ubicación espacial; un sistema de manipulación para manipular la cámara en al menos dos DOF; medios de control adaptados para recibir órdenes de movimientos para manipular la cámara; un sistema de procesamiento de datos en comunicación con los medios de control, adaptado para instruir el sistema de manipulación para manipular la cámara de acuerdo con las órdenes de movimientos; donde el sistema de procesamiento de datos instruye el sistema de manipulación para manipular la
cámara según las órdenes de movimientos con respecto a la ubicación espacial del FOV, como se muestra en la imagen en tiempo real, sin referencia a la ubicación espacial de la cámara.
[0016] El sistema de la presente invención se puede usar para movimientos discretos, por ejemplo, no limitativos, para reposicionar un endoscopio de modo que su FOV abarque una parte diferente de un órgano. El sistema de la presente invención también se puede usar para movimientos continuos, tales como, por ejemplo, no limitativos, reposicionar continuamente la punta del endoscopio para corregir el movimiento causado por la respiración del paciente, lo que da al cirujano una visión constante de la posición deseada dentro del campo quirúrgico, independientemente de los movimientos del punto de penetración o los movimientos del laparoscopio con respecto al punto de penetración.
[0017] El término "cámara" se refiere de ahora en adelante a un elemento de adquisición de la imagen. Los ejemplos de una cámara incluyen, pero de forma no limitativa, una matriz CCD y un sistema electromagnético, como una cámara de TV.
[0018] El término "punta del endoscopio" se refiere de ahora en adelante al extremo del endoscopio que está dentro del paciente, la punta del endoscopio del lado de la lente. La cámara está unida al otro lado del endoscopio, fuera del abdomen del paciente.
[0019] El término "movimiento no ordenado" se refiere de ahora en adelante al movimiento que no es ordenado por un usuario. Los ejemplos de movimiento no ordenados son, pero de forma no limitativa, la respiración del paciente, la compactación de los tejidos contra los que descansa el endoscopio, el desplazamiento de los tejidos contra los que descansa el endoscopio, y el deslizamiento en el sistema de manipulación del endoscopio.
[0020] El término "constante" se refiere de ahora en adelante a un elemento no variable, fijado en su lugar y en el espacio.
[0021] El término "eje constante" se refiere de ahora en adelante a un eje no variable, predeterminado, fijado en su lugar y en el espacio. Según una forma de realización preferida de la presente invención, los ejes de sistema de manipulación (en adelante, eje x, eje y y eje z) son constantes y no cambian durante el procedimiento.
[0022] Los términos "eje x del FOV", "eje y del FOV" y "eje z del FOV" se refieren de ahora en adelante a los ejes de un sistema de coordenadas dimensional fijo con respecto a la cámara y, por lo tanto, a la imagen de cámara. La imagen de cámara es bidimensional, de modo que definirá las direcciones de dos de los tres ejes: eje x del FOV, eje y del FOV y z del eje FOV, donde el tercer eje es perpendicular a los otros dos.
[0023] El término "sistema de coordenadas del FOV" para el sistema de coordenadas dimensional definido por el eje x del FOV, eje y del FOV y eje z del FOV.
[0024] El término "horizonte" se refiere de ahora en adelante a la línea que define el borde del campo de visión de una cámara. En una verdadera panorámica de la cámara, el borde del campo de visión permanece en el horizonte de los campos de visión anteriores.
[0025] El término "campo de visión" (FOV) se refiere de ahora en adelante al campo visible para la cámara.
[0026] El término "grado de libertad” (DOF) se refiere de ahora en adelante a un parámetro independiente que define la configuración del sistema. Como ejemplo no limitativo, en un sistema donde el movimiento puede ocurrir en dos direcciones perpendiculares, el sistema tiene dos DOF.
[0027] El término "aproximadamente" se refiere de ahora en adelante a aproximadamente el 10 %.
[0028] El término "pantalla" se refiere de ahora en adelante a un dispositivo adaptado para mostrar imágenes móviles. "Pantalla" y "pantalla de vídeo" se utilizarán de forma intercambiable aquí.
[0029] La presente invención está destinada a proporcionar un sistema de control intuitivo para un aparato endoscópico adaptado para cirugía laparoscópica. La cirugía puede ser en el abdomen, puede ser cirugía ENT u ortopédica y la cirugía puede ser con o sin endoscopio. En operaciones sin un endoscopio, el sistema de manipulación puede controlar el movimiento de una herramienta quirúrgica.
[0030] La figura 1 ilustra esquemáticamente, de una manera fuera de escala, un paciente (1000) con un endoscopio (100) en el abdomen. También se muestra el sistema de control y de manipulación (102) para el endoscopio. En los sistemas de control endoscópico convencionales, los ejes (105) usados por el sistema de control del endoscopio (100) para modificar la posición de la punta del endoscopio están fijados en el espacio. Si el cuerpo del paciente (1000) se usa como un referente ejemplar, de manera que "izquierda" está hacia la izquierda del paciente, "adelante" está hacia la cabeza del paciente y "arriba" está en la dirección de extracción del paciente, y de forma similar para "derecha", "atrás" y "abajo", entonces, si el cirujano ordena un movimiento
hacia la "derecha", la punta del endoscopio del lado de la lente (el extremo dentro del paciente) se moverá hacia la derecha del paciente (120) sin importar la orientación del endoscopio, lo que mueve el centro del campo de visión hacia la derecha del paciente (debería tenerse en cuenta que el extremo externo del endoscopio, es decir, el lado de la cámara; se moverá hacia la izquierda). En las figuras 1A y 1B, una imagen del paciente, con ejes superpuestos, es la imagen más a la izquierda en la figura, la imagen antes de que se mueva el endoscopio (130) es la imagen central en la figura, mientras que la imagen después de que el endoscopio se ha movido (140) es la imagen más a la derecha en la figura.
[0031] En el ejemplo mostrado en las figuras 1A y 1B, los ejes de imagen 105 muestran ejes de imagen ejemplares, como se ha descrito anteriormente, superpuestos por conveniencia en la cabeza del paciente. Los ejes de sistema de manipulación 110 ejemplares se muestran superpuestos por conveniencia superpuestos en el punto de penetración del endoscopio para el sistema de manipulación 102.
[0032] Para el sistema mostrado en la figura 1, un movimiento del sistema de manipulación a lo largo de un eje mueve el extremo interno del endoscopio (del lado de la lente) en la dirección del eje.
[0033] En un sistema de control endoscópico convencional, el sistema de control no conoce las posiciones relativas de los ejes de imagen y los ejes de sistema de manipulación. Si el sistema de control recibe una orden para moverse, por ejemplo, a la derecha, el sistema de control ordena al sistema de manipulación que se mueva a la derecha. Sin embargo, el movimiento del campo de visión puede ser en cualquier dirección, dependiendo de las orientaciones relativas de los ejes de imagen y los ejes de sistema de manipulación. Por ejemplo, si los ejes de imagen (110) son paralelos a los ejes de sistema de manipulación (105), como en la figura 1A, entonces el centro del campo de visión (FOV) se moverá en la misma dirección que el movimiento de la punta del endoscopio del lado de la lente (figura 1A, 130 y figura 1A, 140). Sin embargo, si los ejes de imagen (110) se rotan 180° con respecto a los ejes de sistema de manipulación (105), entonces el centro del campo de visión se moverá en la dirección opuesta de la dirección de movimiento de la punta del endoscopio del lado de la lente (figura 1B, 130 y figura 1B, 140). Si los ejes de imagen están en algún otro ángulo con respecto a los ejes de sistema de manipulación, el centro del campo de visión se moverá en otra dirección. Por lo tanto, en sistemas convencionales, el cirujano se ve obligado a recordar los ángulos relativos de los dos conjuntos de ejes para que la punta del endoscopio se mueva en una dirección deseada, y la retención automática sin cambios del campo de visión frente a movimientos no ordenados es virtualmente imposible, ya que el movimiento correctivo relativo a los ejes de imagen movería el endoscopio de acuerdo con los ejes de sistema de manipulación, lo que da como resultado un movimiento en una dirección no deseada.
[0034] En el sistema de la presente invención, los ejes de imagen, no los ejes de sistema de manipulación, se usan como los ejes de sistema de control, de modo que una orden para moverse en la dirección del eje X mueve el campo de visión en la dirección del eje X de la imagen moviendo la punta del endoscopio del lado de la cámara en la dirección del eje X de la imagen, como se muestra en la figura 1A. La manipulación es, en todo momento, relativa a los ejes de imagen de cámara (del FOV), que cambian de dirección a medida que se manipula la cámara, no los ejes de sistema de manipulación constantes. Por lo tanto, en el sistema de la presente invención, es imposible que ocurra el escenario mostrado en la figura 1B, lo que reduce la probabilidad de error del operador o la pérdida de tiempo durante la operación y lo que permite la retención automática sin cambios del campo de visión frente a movimientos no ordenados.
[0035] En referencia a las figuras 2 y 3, se muestra un ejemplo, para el presente sistema de la relación entre el movimiento del FOV y el movimiento del sistema de manipulación, las figuras 2A y B y las figuras 3A y B ilustran el "lado de la pantalla", lo que muestra la parte del órgano 210 visualizado en la pantalla (recuadro discontinuo 250) y, para mayor claridad, las partes invisibles del órgano 210, mientras que las figuras 2C y D y las figuras 3C y D ilustran el "lado de la lente", mostrando el órgano 210 y el campo de visión de la lente (recuadro punteado 260). En las figuras 2 y 3, la estrella blanca en el centro del objeto ilustra el centro de la imagen antes de manipular y la estrella negra en la región rayada del objeto ilustra el centro de la imagen después de manipular, mientras que la flecha discontinua indica la dirección del movimiento. En las figuras 2 y 3, antes de manipular, el FOV visualizado en la pantalla muestra aproximadamente el centro del órgano 210, con el centro del FOV marcado por la estrella blanca, y el usuario desea ver la parte final 215 del órgano 210 y tener el FOV centrado en la estrella negra.
[0036] En la figura 2, la orientación de la cámara y la orientación del sistema de manipulación son las mismas, mientras que, en la figura 3, la cámara está invertida con respecto al sistema de manipulación.
[0037] En la figura 2A, el usuario desea ver el extremo 215 del órgano. Por lo tanto, el usuario ordena al endoscopio que se mueva a la izquierda (flecha punteada) para mover el FOV desde el centro del órgano (estrella blanca) hasta el extremo 215 del órgano. Las figuras 2c y D indican la forma en la que se lleva a cabo. En la figura 2C, las imágenes (260) capturan el centro del órgano (estrella blanca). Para mover el FOV al extremo del órgano 215, el sistema de manipulación manipula el endoscopio para mover la punta de la lente del endoscopio a la izquierda (flecha punteada). Después de la manipulación, (figura 2D), las imágenes capturan el extremo del órgano 215, con la imagen centrada en la estrella negra. La figura 2B muestra la imagen como se
muestra en la pantalla después del movimiento. El extremo del órgano (215) está en el FOV y la estrella negra está en el centro del FOV.
[0038] En la figura 3A, los ejes de cámara están invertidos con respecto a los ejes de sistema de manipulación. El usuario desea ver el extremo 215 del órgano. Por lo tanto, el usuario ordena al endoscopio que se mueva hacia la derecha (flecha punteada) para mover el FOV desde el centro del órgano (estrella blanca) hasta el extremo 215 del órgano. Las figuras 3C y D indican la forma en que se lleva a cabo. En la figura 3C, la lente captura (260) el centro del órgano (estrella blanca). Para mover el FOV al extremo del órgano 215, el sistema de manipulación manipula el endoscopio para mover la punta de la lente del endoscopio hacia la izquierda (flecha punteada). Después de la manipulación, (figura 3D) la lente captura el extremo del órgano 215, con la imagen centrada en la estrella negra. La figura 3B muestra la imagen como se muestra en la pantalla después del movimiento. El extremo del órgano (215) está en el FOV y la estrella negra está en el centro del FOV.
[0039] De forma similar, si los ejes de cámara se rotan 90° en el sentido de las agujas del reloj con respecto a los ejes de sistema de manipulación, el usuario ordenará un movimiento hacia la parte superior de la página para mover el FOV desde el centro del órgano hasta el extremo 215; el sistema de manipulación moverá la punta de la lente hacia la izquierda.
[0040] Las figuras 4A-C muestran otra vista de los efectos de rotar la cámara con respecto al sistema de manipulación. En las figuras 4A-C, las direcciones relativas a la imagen vista en la pantalla se denominan con el número 410, mientras que las direcciones relativas al sistema de manipulación se denominan con el número 420.
[0041] En la figura 4A, los ejes (de la cámara) de FOV 410 y los ejes de sistema de manipulación 420 están alineados (rotación de 0° entre sí), de modo que una orden para mover el FOV hacia arriba (410, flecha izquierda hacia arriba, en la dirección de la estrella) hará que el sistema de manipulación mueva el endoscopio de manera que la punta de la lente se mueva hacia arriba (420, flecha derecha hacia arriba), y de forma similar para las otras direcciones de movimiento.
[0042] En la figura 4B, los ejes de FOV y los ejes de sistema de manipulación son perpendiculares entre sí (a 90°). En este caso, ordenar al FOV que se mueva hacia arriba (410, flecha izquierda hacia arriba, en la dirección de la estrella) requiere que el sistema de manipulación se mueva hacia la izquierda (420, flecha derecha hacia arriba) para lograr esto, y de forma similar para las otras direcciones de movimiento.
[0043] En la figura 4C, los ejes de FOV y los ejes de sistema de manipulación se rotan 180° entre sí. En este caso, ordenar al FOV que se mueva hacia arriba (410, flecha izquierda hacia arriba, en la dirección de la estrella) requiere que el sistema de manipulación se mueva hacia abajo (420, flecha derecha hacia arriba) para lograr esto, y de forma similar para las otras direcciones de movimiento.
[0044] Cabe señalar que, para este sistema, como se muestra en las figuras 2 a 4, el mismo movimiento físico del sistema de manipulación, para lograr el mismo cambio en la posición del endoscopio con respecto al cuerpo del paciente (en este caso, a la izquierda) se puede ordenar mediante diferentes órdenes (izquierda, derecha, arriba o abajo), dependiendo de la orientación de la cámara con respecto al sistema de manipulación y al cuerpo del paciente. La realidad física no depende de la orientación de la cámara. Sin embargo, la percepción de cómo cambiar la realidad física para lograr el resultado deseado dependerá de la orientación de la cámara.
[0045] En una forma de realización del sistema de la presente invención, un sistema de procesamiento de datos de control estima la posición de la punta del endoscopio del lado de la lente y su orientación angular, en base a al menos uno de (a) sensores en el sistema y (b) análisis de imagen de la imagen del campo de visión, y calcula los movimientos del endoscopio necesarios para permitir que la punta del endoscopio se mueva en la dirección ordenada. Los sensores en el sistema pueden ser, pero de forma no limitativa, acelerómetros, sensores giroscópicos, o ambos. La figura 5 ilustra un diagrama de flujo de una forma de realización de un medio de control para permitir que el sistema mueva el campo de visión en la dirección deseada. Cuando el usuario ordena un movimiento, el software determina la dirección de movimiento deseada (5010), con respecto a la imagen visualizada (ejes de FOV). El movimiento se puede ordenar mediante medios ejemplificados por, pero no limitados a, órdenes vocales, movimiento de una palanca de mando, movimiento de una palanca, presión sobre un botón, movimiento paralelo a una superficie preparada, movimiento perpendicular a una superficie preparada, introducción de una orden mediante un teclado, introducción de un comando mediante una pantalla táctil y cualquier combinación de los mismos. El sistema de procesamiento de datos determina entonces el centro de la imagen de cámara (5020) y los objetos en la imagen de cámara se determinan usando un sistema de procesamiento de imágenes. El sistema de procesamiento de datos determina las direcciones de los ejes de FOV con respecto a los ejes de sistema de manipulación, que están fijos en el espacio (5030). A partir de la dirección deseada con respecto a los ejes de FOV, y las orientaciones relativas de los ejes de fOv y los ejes de sistema de manipulación, se calcula la dirección con respecto a los ejes de sistema de manipulación en la que se calcula la punta del endoscopio (5040), y la punta del endoscopio se mueve en la dirección calculada (5050). Durante el movimiento, se encuentran los objetos en la imagen (5060) y se hace una comparación entre su presente ubicación en la imagen y su ubicación en una imagen precedente a partir de la cual se encuentra la
dirección de movimiento del campo con respecto al FOV (5070) y se verifica si el centro de la imagen se mueve en la dirección deseada (5080).
Si es necesario, se vuelve a calcular la dirección de movimiento (5040 - 5070). Se comprueba si se ordena más movimiento (5090). Si es así, el ciclo (5010 - 5090) se repite. Si no, el ciclo termina.
[0046] En una forma de realización del sistema de la presente invención, a diferencia de los sistemas convencionales, los medios de control mantienen el centro del FOV durante el zum independientemente del ángulo de la punta de la lente. Una ventaja de controlar el zum del endoscopio a través de un sistema de procesamiento de datos es que no es necesario introducir el ángulo de la punta de la lente en el sistema de procesamiento de datos, lo que evita una posible fuente de error.
[0047] En uso, el endoscopio pivota alrededor de un punto sobre o cerca de la superficie de la piel de la piel del paciente. Este punto de pivote se puede mover por muchas razones, incluido el movimiento del cuerpo del paciente debido a la respiración, la compactación de los tejidos contra los que descansa el endoscopio y el desplazamiento de los tejidos contra los que descansa el endoscopio. Dicho movimiento provoca el movimiento del FOV del endoscopio y también puede provocar una imagen borrosa, lo cual es indeseable. En formas de realización preferidas del presente sistema, el sistema corrige dicho movimiento no ordenado. En formas de realización preferidas del sistema, el procesamiento de datos de control determina, ya sea a partir de sensores en el sistema o de la imagen de cámara, si se ha producido el movimiento no ordenado de la imagen.
[0048] Según otra forma de realización de la presente invención, el sistema puede informar al usuario de cualquier desalineación del sistema.
[0049] La desalineación del sistema puede provocar un movimiento parasitario de la punta del endoscopio, donde la punta del endoscopio no se mueve exactamente en la dirección esperada. Según una forma de realización del sistema, el sistema comprende sensores (por ejemplo, giroscopios, acelerómetros y cualquier combinación de los mismos) que calculan/estiman la posición del punto de pivote en tiempo real para (a) informar al usuario de la desalineación; o (b) calcular la desalineación para que el sistema pueda ajustar su movimiento para evitar movimientos parasitarios.
[0050] En algunas formas de realización del sistema, el ángulo rotacional de la cámara con respecto al endoscopio no está fijo. En algunas variantes de esta forma de realización, no es necesario que la cámara esté unida o comunicada con el endoscopio en un ángulo predeterminado. En otras variantes, la cámara puede rotar con respecto al eje longitudinal principal del endoscopio durante su uso, lo que añade otro grado de libertad al movimiento de la imagen. En sistemas convencionales, la falta de un ángulo rotacional predeterminado entre la cámara y el endoscopio requiere que el cirujano recuerde el ángulo que ocurre durante la duración del procedimiento.
[0051] En sistemas convencionales, la rotación de la cámara con respecto al eje longitudinal principal del endoscopio durante un procedimiento requiere que el cirujano corrija el ángulo correcto que ocurre "sobre la marcha", en su cabeza durante el procedimiento, o requiere que el asistente de operación gire manualmente la cámara siempre que sea necesario devolver la cámara a su ángulo inicial.
[0052] Con el sistema de la presente invención, el sistema corrige automáticamente el ángulo inicial y el ángulo cambiante debido a la rotación de la cámara con respecto al eje longitudinal principal del endoscopio; por ejemplo, el cirujano u otro operador ignorará la ocurrencia de rotaciones de la cámara con respecto al eje longitudinal principal del endoscopio.
[0053] En algunas formas de realización del sistema, el ángulo rotacional del endoscopio con respecto al sistema de manipulación no está fijo. En algunas variantes de esta forma de realización, el endoscopio puede girar alrededor de su eje longitudinal principal.
[0054] Por lo tanto, en los sistemas convencionales, la falta de un ángulo rotacional predeterminado entre el endoscopio y el sistema de manipulación requiere que el cirujano recuerde el ángulo que se produce durante la duración del procedimiento.
[0055] En los sistemas convencionales, la rotación del eje del endoscopio con respecto a los ejes de sistema de manipulación durante un procedimiento requiere que el cirujano corrija el ángulo que ocurre "sobre la marcha", en su cabeza durante el procedimiento, o requiere que el asistente de operación gire manualmente el endoscopio siempre que sea necesario devolver la imagen a su ángulo inicial.
[0056] Con el sistema de la presente invención, el ángulo inicial y el ángulo cambiante debido a rotación del endoscopio con respecto a los ejes de sistema de manipulación son corregidos automáticamente por el sistema; por ejemplo, el cirujano u otro operador ignorará la ocurrencia de rotaciones del endoscopio.
[0057] En formas de realización preferidas del presente sistema, la relación entre los ejes de sistema de manipulación y los ejes de coordenadas del FOV, según lo determinado por los sensores o por la imagen de cámara, se conoce y se actualiza en tiempo real, de modo que la relación se conozca con precisión en todo momento.
[0058] Las transformaciones matemáticas que transforman el movimiento con respecto a un conjunto de ejes en movimiento relativo a otro conjunto de ejes son bien conocidas en la técnica.
[0059] Dado que, a medida que la cámara se mueve, la relación entre los ejes de sistema de coordenadas del FOV y los ejes de sistema de manipulación se actualiza en tiempo real, existe, en todo momento, una transformación conocida entre los ejes de coordenadas del FOV y los ejes de sistema de manipulación, de manera que el movimiento relativo a la pantalla se transforme con precisión, a través de la relación conocida entre los sistemas de coordenadas y las transformaciones matemáticas conocidas, en movimiento del sistema de manipulación.
[0060] A continuación se dan ejemplos de dicha transformación matemática para un vector de posición que define un punto en el espacio en un sistema de coordenadas cartesiano al vector de posición que define el mismo punto en el espacio en un segundo sistema de coordenadas cartesiano rotado con respecto al primero.
[0061] En dos dimensiones, si un primer sistema de coordenadas cartesiano se rota en un ángulo 0 con respecto al primero y el vector que conecta los orígenes de los sistemas de coordenadas está dado por (a, b), entonces una posición en el espacio definida por el vector (x, y) en el primer sistema de coordenadas se transforma en el vector (X, Y) en el segundo sistema de coordenadas por las ecuaciones:
X = x eos 0 - y sin 0 - a
Y = x sin 0 y eos 0 - b
[0062] En tres dimensiones, si el segundo sistema de coordenadas es rotado por los ángulos de Euler 9, 0, ^ con respecto al primero y el vector que conecta los orígenes de los sistemas de coordenadas está dado por (a, b, c), entonces la transformación rotacional entre (x, y, z) en el primer sistema de coordenadas y (X, Y, Z) en el segundo sistema de coordenadas es:
X = x eos 0 eos ijj y (eos ^ sin ijj sin ^ sin 0 eos ijj) z (sin $ sin ijj - eos ^ sin 0 eos ijj) - a
Y = -x eos 0 sin ijj y (eos (|) eos ip — sin sin 0 sin tp) z (sin c|) eos ip eos (|) sin 0 sin ip) — b
Z = x sin 0 - y sin eos 0 z eos c|) eos 0 - c
[0063] Muchas otras transformaciones de este tipo se dan en el estado de la técnica, incluidas las transformaciones entre diferentes tipos de sistemas de coordenadas, tales como, por ejemplo, de forma no limitativa, cartesiano a cilíndrico y cartesiano a polar. Diferentes formas de realización de la presente invención pueden usar diferentes transformaciones matemáticas conocidas en la técnica, y cualquier transformación matemática de este tipo puede usarse en formas de realización de la presente invención. Se enfatiza que la transformación matemática anterior se da como mero ejemplo. Se conocen otras transformaciones en la técnica y están dentro del alcance de la presente invención.
[0064] En algunas formas de realización del sistema, el endoscopio se rota para mantener constante el ángulo del FOV (el horizonte), ya que el FOV del endoscopio rotará a medida que el endoscopio se mueve (cambio de horizonte parasitario). En estas formas de realización, el sistema de procesamiento de datos detecta dichas rotaciones y contrarota el endoscopio para asegurar que no haya una rotación no ordenada de la imagen (cambio de horizonte parasitario) vista por el usuario durante el movimiento del endoscopio.
[0065] En algunas formas de realización, el orden en el que se realizan los movimientos se elige para minimizar los cambios en el ángulo del FOV (el horizonte). En muchos endoscopios, los movimientos a lo largo de arcos fijos se combinan para crear un movimiento aparentemente suave en una dirección deseada. En muchas formas de realización, el diseño de las partes mecánicas que permiten el movimiento es tal que el eje del endoscopio se inclinará y el endoscopio rotará alrededor de su eje a medida que el centro del cuerpo del endoscopio se mueve a lo largo del arco. Para dichos endoscopios, el orden en que se combinan dichos movimientos puede afectar a
la cantidad de rotación del FOV (la cantidad del cambio en el horizonte) porque los movimientos que comienzan desde diferentes puntos de partida afectan a la inclinación y a la rotación de manera diferente.
[0066] En los sistemas de control endoscópico convencionales, el movimiento del endoscopio se produce a una sola velocidad. Esta velocidad es bastante rápida para que el endoscopio se pueda mover rápidamente entre ubicaciones que estén bien separadas. Sin embargo, esto significa que realizar ajustes finos es tan difícil que normalmente no se realizan ajustes finos. En una forma de realización de la presente invención, la velocidad de la punta del endoscopio se varía automáticamente, de manera que, cuanto más cerca esté la punta del endoscopio de un objeto, ya sea una herramienta, un obstáculo, o el objeto de interés, más lentamente se mueve.
[0067] En algunas formas de realización del sistema de la presente invención, el endoscopio es un endoscopio articulado, que incorpora una o más articulaciones o secciones flexibles. Un ejemplo de endoscopio articulado es el laparoscopio articulado Stryker Ideal Eyes™ HD. En una forma de realización del sistema con endoscopio articulado, el movimiento de las articulaciones se controla independientemente del sistema de procesamiento de datos que controla el movimiento del endoscopio. El control independiente puede ser manual, con un miembro del equipo quirúrgico que reposiciona las articulaciones según sea necesario, o el control independiente puede ser a través de un sistema de control que opera a través de una palanca de mando, una palanca, un botón, órdenes vocales, una pantalla táctil, órdenes escritas en un teclado u otros medios de control. En una forma de realización preferida, el movimiento de las articulaciones se controla como parte del sistema de procesamiento de datos que controla el movimiento del endoscopio, que proporciona un control perfecto del sistema y la máxima flexibilidad para que el cirujano coloque el endoscopio para proporcionar el campo de visión óptimo en cualquier fase dada en la operación.
[0068] En formas de realización del sistema que incluyen un endoscopio articulado, puede haber diferentes configuraciones del endoscopio articulado que proporcionan el mismo FOV en el mismo ángulo. En la figura 6 se muestra un ejemplo ilustrativo de diferentes configuraciones, que ilustra esquemáticamente un objeto (610) que se ve con un endoscopio articulado. Las dos articulaciones se muestran separadas para mayor claridad. A la izquierda en la figura, el endoscopio tiene una articulación (620), mientras que, a la derecha, el endoscopio tiene una articulación (630) diferente, donde ambas proporcionan una vista del objeto desde la misma distancia y en el mismo ángulo.
[0069] En algunas formas de realización, el sistema está habilitado para rastrear el movimiento de un objeto en el campo de visión, donde los ejemplos no limitativos de dicho objeto son un órgano, un tejido, al menos una porción de una herramienta, una punta de la herramienta y cualquier combinación de los mismos. En estas formas de realización, el objeto de interés permanecerá en el centro del campo de visión, independientemente de los movimientos que realice el cuerpo (por ejemplo, al respirar), o por el movimiento del endoscopio, por ejemplo, por deslizamiento contra el punto de penetración o por compresión del punto de penetración.
[0070] Cabe señalar que el sistema de la presente invención se puede usar para movimientos discretos, por ejemplo de manera no limitativa, para reposicionar un endoscopio de modo que su FOV abarque una parte diferente de un órgano. El sistema de la presente invención también se puede usar para un movimiento continuo, tal como, por ejemplo de manera no limitativa, reposicionar continuamente la punta del endoscopio para corregir el movimiento causado por la respiración del paciente, lo que da al cirujano una vista fija de la posición deseada dentro del campo quirúrgico, independientemente de los movimientos del punto de penetración o de los movimientos del laparoscopio con respecto al punto de penetración.
[0071] Cabe señalar que la divulgación anterior se refiere al uso del sistema con un endoscopio para uso médico, especialmente para operaciones dentro del cuerpo humano. Sin embargo, el sistema proporcionado anteriormente también se puede adaptar para usar una cámara, para observar objetos de interés fuera del cuerpo. En una forma de realización del sistema para uso no médico, la cámara se utiliza para observar objetos de interés. Como ejemplo ilustrativo, dicho sistema de cámara manipulable se puede usar para observar animales, tales como osos o castores dentro de sus guaridas, donde el sistema manipulable podría ser usado por un observador para rastrear un animal dado. Otro uso ilustrativo de dicho sistema es seguir a los jugadores en el campo de fútbol durante un partido. Un ejemplo ilustrativo de un uso médico fuera del cuerpo sería la fisioterapia, donde podría observarse el movimiento más natural de un paciente, siguiendo al paciente mientras se mueve alrededor de una habitación, donde el paciente es como mínimo consciente de ser observado. En dichos sistemas, la cámara se puede montar directamente en el sistema de manipulación; se puede montar en un trípode u otro sistema de soporte; o se puede montar, como se monta un endoscopio, al final de un soporte largo y fino, donde dicho soporte puede ser rígido o puede ser flexible o articulado.
[0072] En la descripción anterior, se han presentado formas de realización de la invención, incluidas las formas de realización preferidas, con fines ilustrativos y descriptivos. Estas no pretender ser exhaustivas, ni limitar la invención a la forma precisa descrita. Son posibles modificaciones o variaciones obvias a la luz de las instrucciones anteriores. Las formas de realización se eligieron y describieron para proporcionar la mejor ilustración de los principios de la invención y su aplicación práctica, y para permitir a un experto en la técnica
utilizar la invención en diversas formas de realización y con diversas modificaciones según se adapten al uso particular contemplado. Todas estas modificaciones y variaciones están dentro del alcance de la invención según lo determinado por las reivindicaciones adjuntas cuando se interpretan de acuerdo con la amplitud a la que tienen derecho de manera justa, legal y equitativa.
Claims (18)
1. Sistema para controlar un endoscopio (100), que comprende
a. un endoscopio (100) adaptado para proporcionar imágenes en tiempo real del FOV dentro de una cavidad corporal; donde dicho FOV define al menos dos ejes (105) seleccionados de un grupo que consiste en eje x del FOV, eje y del FOV y eje z del FOV y cualquier combinación de los mismos, de manera que al menos dos ejes (105) seleccionados de dicho eje x del FOV, dicho eje y del FOV, dicho eje z del FOV y cualquier combinación de los mismos están adaptados para actualizarse en tiempo real a medida que dicho endoscopio (100) se mueve y dicho FOV cambia; donde dicho endoscopio (100) está caracterizado por una ubicación espacial; donde dicha ubicación espacial se actualiza a tiempo real a medida que se mueve dicho endoscopio (100);
b. un sistema de manipulación (102) para manipular dicho endoscopio (100) en al menos dos DOF; donde dicho sistema de manipulación (102) define un eje x constante, un eje y constante y un eje z constante; c. medios de control adaptados para recibir órdenes de movimiento de un usuario para manipular dicho endoscopio (100); y
d. un sistema de procesamiento de datos en comunicación con dichos medios de control, adaptado para instruir dicho sistema de manipulación (102) para manipular dicho endoscopio (100) según dichas órdenes de movimientos;
donde dichos datos medios de control instruyen dicho sistema de manipulación (102) para manipular dicho endoscopio (100) según dichas órdenes de movimientos con respecto a al menos dos ejes (105) seleccionados de dicho eje x del FOV, dicho eje y del FOV y dicho eje z del FOV y cualquier combinación de los mismos, como se muestra en tiempo real en dicha imagen, independientemente de dicha ubicación espacial de dicho endoscopio (100) y de dicho eje x, dicho eje y, y dicho eje z, y como están definidos por dicho sistema de manipulación;
donde, además, dicho sistema de procesamiento de datos está adaptado para convertir dichas órdenes de movimientos con respecto a al menos dos ejes seleccionados de dicho eje x del FOV, dicho eje y del FOV, dicho eje z del FOV y cualquier combinación de los mismos en órdenes de movimientos con respecto a dicho eje x, dicho eje y, y dicho eje z, de manera que dicho sistema de manipulación (102) está adaptado para mover dicho endoscopio (100) con respecto a dicho eje x, dicho eje y, y dicho eje z para dar como resultado dichos movimientos según lo ordenado con respecto a al menos dos ejes seleccionados de dicho eje x del FOV, dicho eje y del FOV, dicho eje z del FOV y cualquier combinación de los mismos, caracterizado por el hecho de que el sistema está adaptado para, durante el movimiento del endoscopio, rastrear objetos en las imágenes usando un sistema de procesamiento de imágenes, comparar la ubicación de los objetos en una presente imagen con la ubicación de dichos objetos en una imagen precedente, calcular, a partir de esto, la dirección de movimiento de la imagen con respecto al FOV y verificar si el centro de la imagen se mueve en la dirección deseada.
2. Sistema según la reivindicación 1, donde el sistema está adaptado para, después de verificar si el centro de la imagen se mueve en la dirección deseada, si dicha verificación es negativa, recalcular la dirección de movimiento.
3. Sistema según cualquiera de las reivindicaciones 1 y 2, donde dichos medios de control de datos instruyen a dicho sistema de manipulación (102) para manipular dicho endoscopio (100) según dichas órdenes de movimientos con respecto a al menos dos ejes seleccionados de dicho eje x del FOV, dicho eje y del FOV y dicho eje y del FOV y cualquier combinación de los mismos, como se muestra a tiempo real en dicha imagen, independientemente de la orientación angular de la cámara dentro de dicho endoscopio (100) con respecto a dicho endoscopio (100).
4. Sistema según cualquiera de las reivindicaciones 1 a 3, donde dichos medios de control de datos instruyen dicho sistema de manipulación (102) para manipular dicho endoscopio (100) según dichas órdenes de movimientos con respecto a al menos dos ejes (105) seleccionados de dicho eje x del FOV, dicho eje y del FOV y dicho eje z del FOV y cualquier combinación de los mismos, como se muestra a tiempo real en dicha imagen, independientemente de la orientación de dicho endoscopio (100) con respecto a dicho sistema de manipulación (102).
5. Sistema según cualquiera de las reivindicaciones 1 a 4, donde dichos medios de control están adaptados para recibir órdenes de movimientos para manipular al menos una herramienta quirúrgica dentro de dicho FOV.
6. Sistema según la reivindicación 5, donde dichos medios de control de datos instruyen dicho sistema de manipulación (102) para manipular dicha herramienta quirúrgica según dichas órdenes de movimientos con respecto a dicho eje x del FOV, dicho eje y del FOV y dicho eje z del FOV, como se muestra a tiempo real en dicha imagen, independientemente de dicho eje x, dicho eje y, y dicho eje z, como están definidos por dicho sistema de manipulación (102); donde, además, dicho sistema de procesamiento de datos está adaptado para
convertir dichas órdenes de movimientos con respecto a dicho eje x del FOV, dicho eje y del FOV, dicho eje z del FOV, en órdenes de movimientos con respecto a dicho eje x, dicho eje y, y dicho eje z.
7. Sistema según cualquiera de las reivindicaciones 1 a 6, donde dichos medios de control comprenden al menos una unidad de palanca de mando en comunicación con dicho sistema de manipulación (102), adaptados para activar dicho sistema de manipulación.
8. Sistema según la reivindicación 7, donde al menos una de las siguientes afirmaciones se considera verdadera: (a) dicha unidad de palanca de mando la puede llevar un usuario de dicho sistema; (b) dicha unidad de palanca de mando está acoplada a al menos una herramienta quirúrgica usada en dicho procedimiento médico; (c) dicha al menos una herramienta quirúrgica es dicho endoscopio (100); (d) dicho movimiento de dicha palanca de mando es proporcional a dicho movimiento de dicho endoscopio (100); (e) dicha unidad de palanca de mando es una palanca de mando de fuerza; (f) dicha unidad de palanca de mando comprende una base y una palanca acoplada a dicha base, de manera que el movimiento de dicha palanca da como resultado el movimiento de dicho endoscopio (100); donde, además, dicho movimiento de dicha palanca es proporcional a dicho movimiento de dicho endoscopio (100); (g) dicha unidad de palanca de mando comprende una base y un botón conectado firmemente a dicha base, de manera que un movimiento de dicho botón da como resultado un movimiento de dicho endoscopio (100); donde, además, dicho movimiento de dicho botón es proporcional a dicho movimiento de dicho endoscopio (100); (h) dicha unidad de palanca de mando comprende una pantalla táctil, de manera que un toque y un movimiento en dicha pantalla táctil da como resultado un movimiento de dicho endoscopio (100); donde, además, dicho toque y dicho movimiento en dicha pantalla táctil es proporcional a dicho movimiento de dicho endoscopio (100); (i) dicha unidad de palanca de mando comprende al menos un sensor acústico, adaptado para detectar patrones de sonido predeterminados; donde dicha unidad de palanca de mando está adaptada para activar dicho sistema de manipulación (102) en base a dichos patrones de sonido predeterminados; y cualquier combinación de los mismos.
9. Sistema según cualquiera de las reivindicaciones 1 a 8, donde dicho sistema dirige dicho endoscopio (100) usando información de imagen mostrada en dicha pantalla de vídeo sin dicha ayuda de asistentes.
10. Sistema según cualquiera de las reivindicaciones 7 y 8, donde dicha unidad de palanca de mando comprende adicionalmente n sensores, donde n es un número entero mayor que uno; donde, además, al menos una de las siguientes afirmaciones se considera verdadera:
dichos sensores se seleccionan de un grupo que consiste en un sensor de movimiento, un sensor térmico, un sensor eléctrico, un sensor acústico, un sensor de presión, un sensor óptico y cualquier combinación de los mismos;
al menos uno de dichos n sensores se activa en caso de un corte de energía.
11. Sistema según cualquiera de las reivindicaciones 7, 8 y 10, donde dicha unidad de palanca de mando está caracterizada por una superficie externa; donde, además, al menos una de las siguientes afirmaciones se considera verdadera: (a) dicho al menos un sensor de movimiento detecta movimiento sobre dicha superficie externa; (b) dicho al menos un sensor de movimiento detecta un movimiento perpendicular a dicha superficie externa; y cualquier combinación de los mismos.
12. Sistema según la reivindicación 10, donde dicho al menos un sensor térmico está adaptado para detectar temperaturas en el rango de aproximadamente 35 a aproximadamente 42 grados; donde, además, al menos una de las siguientes afirmaciones se considera verdadera: (a) al menos un sensor térmico está adaptado para proporcionar una imagen térmica; donde dicho al menos un sensor térmico está acoplado a una unidad de procesamiento adaptada para proporcionar a dicho usuario de sistema dicha imagen térmica; (b) dicho sistema está adaptado para permitir manipular dicho endoscopio cuando el análisis de dicha imagen por parte de la unidad de procesamiento detecta la imagen de una mano humana; donde, además, dicho sistema está adaptado para evitar manipular dicho endoscopio (100) cuando dicho análisis de dicha imagen por la unidad de procesamiento no detecta la imagen de una mano humana; y cualquier combinación de los mismos.
13. Sistema según la reivindicación 10, donde dicho al menos un sensor eléctrico está adaptado para detectar la conductividad eléctrica de un cuerpo humano; donde, además, dicho sistema está adaptado para permitir manipular dicho endoscopio (100) cuando dicho sensor detecta la conductividad de dicho cuerpo del sujeto; donde, además, dicho sistema está adaptado para evitar manipular dicho endoscopio (100) cuando dicho sensor no detecta la conductividad del cuerpo de dicho sujeto.
14. Sistema según la reivindicación 10, donde dicho al menos un sensor acústico está adaptado para detectar al menos un patrón sonoro predeterminado; donde, además, dicho endoscopio (100) es manipulable según dicho al menos un patrón sonoro predeterminado detectado por dicho al menos un sensor acústico.
15. Sistema según la reivindicación 10, donde dicho al menos un sensor de presión está adaptado para detectar la presión ejercida sobre dicha unidad de palanca de mando; donde, además, dicha presión detectada por dicho
al menos un sensor de presión afecta a dicho sistema de manipulación (102) de una manera seleccionada de un grupo que consiste en: cuando dicha presión detectada por dicho al menos un sensor de presión está por encima de un valor predeterminado, dicho sistema de manipulación (102) se activa; cuando dicha presión detectada por dicho al menos un sensor de presión está por encima de un valor predeterminado, dicho sistema de manipulación (102) se desactiva; y cuando dicha presión detectada por dicho al menos un sensor de presión está por debajo de un valor predeterminado, dicho sistema de manipulación (102) se desactiva.
16. Sistema según la reivindicación 10, donde dicho al menos un sensor óptico está adaptado para detectar cambios visuales según al menos un patrón visual predeterminado; donde, además, dicho endoscopio (100) es manipulable según dicho al menos un patrón visual predeterminado.
17. Sistema según cualquiera de las reivindicaciones 7, 8 y 10, que comprende adicionalmente un sistema de interfaz adaptado para permitir la comunicación entre dicha unidad de palanca de mando y dicho sistema de manipulación (102); donde, además, dicho medio de comunicación comprende un miembro seleccionado de un grupo que consiste en un medio de comunicación por cable, un medio de comunicación inalámbrico y cualquier combinación de los mismos.
18. Sistema según cualquiera de las reivindicaciones 7, 8 y 10, donde dicha al menos una unidad de palanca de mando está adaptada para controlar y dirigir dicho endoscopio (100) en dicha herramienta quirúrgica a través de dicho sistema de manipulación (102); donde, además, la selección de dicha al menos una herramienta quirúrgica se obtiene activando dicha al menos una unidad de palanca de mando; donde, además, la activación de dicha al menos una unidad de palanca de mando se obtiene ejerciendo presión sobre dicha unidad de palanca de mando, mediante activación por voz de la misma, ejerciendo una presión prolongada sobre ella, haciendo doble clic en ella y cualquier combinación de los mismos.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201261607661P | 2012-03-07 | 2012-03-07 | |
| PCT/IL2013/050216 WO2013132501A1 (en) | 2012-03-07 | 2013-03-07 | Overall endoscopic control system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2881537T3 true ES2881537T3 (es) | 2021-11-29 |
Family
ID=49116039
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES13757955T Active ES2881537T3 (es) | 2012-03-07 | 2013-03-07 | Sistema de control endoscópico general |
Country Status (4)
| Country | Link |
|---|---|
| US (3) | US10898064B2 (es) |
| EP (1) | EP2822445B1 (es) |
| ES (1) | ES2881537T3 (es) |
| WO (1) | WO2013132501A1 (es) |
Families Citing this family (44)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9943372B2 (en) | 2005-04-18 | 2018-04-17 | M.S.T. Medical Surgery Technologies Ltd. | Device having a wearable interface for improving laparoscopic surgery and methods for use thereof |
| WO2010122563A1 (en) | 2009-04-23 | 2010-10-28 | M.S.T. Medical Surgery Technologies Ltd. | Two-part endoscope surgical device |
| US11561762B2 (en) * | 2011-08-21 | 2023-01-24 | Asensus Surgical Europe S.A.R.L. | Vocally actuated surgical control system |
| US10052157B2 (en) | 2011-08-21 | 2018-08-21 | M.S.T. Medical Surgery Technologies Ltd | Device and method for assisting laparoscopic surgery—rule based approach |
| US9204939B2 (en) | 2011-08-21 | 2015-12-08 | M.S.T. Medical Surgery Technologies Ltd. | Device and method for assisting laparoscopic surgery—rule based approach |
| US10299773B2 (en) | 2011-08-21 | 2019-05-28 | Transenterix Europe S.A.R.L. | Device and method for assisting laparoscopic surgery—rule based approach |
| US9757206B2 (en) | 2011-08-21 | 2017-09-12 | M.S.T. Medical Surgery Technologies Ltd | Device and method for assisting laparoscopic surgery—rule based approach |
| US10866783B2 (en) | 2011-08-21 | 2020-12-15 | Transenterix Europe S.A.R.L. | Vocally activated surgical control system |
| US9795282B2 (en) | 2011-09-20 | 2017-10-24 | M.S.T. Medical Surgery Technologies Ltd | Device and method for maneuvering endoscope |
| ES2881537T3 (es) * | 2012-03-07 | 2021-11-29 | Transenterix Europe Sarl | Sistema de control endoscópico general |
| JP6461082B2 (ja) | 2013-03-13 | 2019-01-30 | ストライカー・コーポレイション | 外科手術システム |
| WO2014199413A1 (ja) * | 2013-06-13 | 2014-12-18 | テルモ株式会社 | 医療用マニピュレータおよびその制御方法 |
| US10561469B2 (en) | 2014-02-28 | 2020-02-18 | Sony Corporation | Robot arm apparatus and robot arm control method |
| US10932657B2 (en) * | 2014-04-02 | 2021-03-02 | Transenterix Europe S.A.R.L. | Endoscope with wide angle lens and adjustable view |
| EP3188662B1 (en) * | 2014-09-05 | 2024-09-11 | PROCEPT BioRobotics Corporation | Physician controlled tissue resection integrated with treatment mapping of target organ images |
| EP3130276B8 (en) * | 2015-08-12 | 2020-02-26 | TransEnterix Europe Sàrl | Endoscope with wide angle lens and adjustable view |
| WO2017117369A1 (en) | 2015-12-31 | 2017-07-06 | Stryker Corporation | System and methods for performing surgery on a patient at a target site defined by a virtual object |
| CN113440263B (zh) * | 2016-07-14 | 2024-03-26 | 直观外科手术操作公司 | 计算机辅助式远程操作系统中的次级器械控制 |
| EP4424266A3 (en) * | 2017-05-08 | 2024-11-27 | Platform Innovations Inc. | Laparoscopic device implantation and fixation system and method |
| US11304692B2 (en) | 2018-07-16 | 2022-04-19 | Cilag Gmbh International | Singular EMR source emitter assembly |
| US12257013B2 (en) | 2019-03-15 | 2025-03-25 | Cilag Gmbh International | Robotic surgical systems with mechanisms for scaling camera magnification according to proximity of surgical tool to tissue |
| US11147436B2 (en) | 2019-06-20 | 2021-10-19 | Cilag Gmbh International | Image rotation in an endoscopic fluorescence imaging system |
| US11134832B2 (en) | 2019-06-20 | 2021-10-05 | Cilag Gmbh International | Image rotation in an endoscopic hyperspectral, fluorescence, and laser mapping imaging system |
| CN114173699A (zh) | 2019-07-03 | 2022-03-11 | 史赛克公司 | 用于手术导航的障碍物回避技术 |
| US11696671B2 (en) * | 2019-08-19 | 2023-07-11 | Covidien Ag | Steerable endoscope with motion alignment |
| GB2588829B (en) * | 2019-11-11 | 2023-11-29 | Cmr Surgical Ltd | Method of controlling a surgical robot |
| US12053223B2 (en) | 2019-12-30 | 2024-08-06 | Cilag Gmbh International | Adaptive surgical system control according to surgical smoke particulate characteristics |
| US11776144B2 (en) | 2019-12-30 | 2023-10-03 | Cilag Gmbh International | System and method for determining, adjusting, and managing resection margin about a subject tissue |
| US11896442B2 (en) | 2019-12-30 | 2024-02-13 | Cilag Gmbh International | Surgical systems for proposing and corroborating organ portion removals |
| US11284963B2 (en) | 2019-12-30 | 2022-03-29 | Cilag Gmbh International | Method of using imaging devices in surgery |
| US11648060B2 (en) | 2019-12-30 | 2023-05-16 | Cilag Gmbh International | Surgical system for overlaying surgical instrument data onto a virtual three dimensional construct of an organ |
| US11832996B2 (en) | 2019-12-30 | 2023-12-05 | Cilag Gmbh International | Analyzing surgical trends by a surgical system |
| US12207881B2 (en) | 2019-12-30 | 2025-01-28 | Cilag Gmbh International | Surgical systems correlating visualization data and powered surgical instrument data |
| US12453592B2 (en) | 2019-12-30 | 2025-10-28 | Cilag Gmbh International | Adaptive surgical system control according to surgical smoke cloud characteristics |
| US11219501B2 (en) | 2019-12-30 | 2022-01-11 | Cilag Gmbh International | Visualization systems using structured light |
| US12002571B2 (en) | 2019-12-30 | 2024-06-04 | Cilag Gmbh International | Dynamic surgical visualization systems |
| US11759283B2 (en) | 2019-12-30 | 2023-09-19 | Cilag Gmbh International | Surgical systems for generating three dimensional constructs of anatomical organs and coupling identified anatomical structures thereto |
| US11744667B2 (en) | 2019-12-30 | 2023-09-05 | Cilag Gmbh International | Adaptive visualization by a surgical system |
| US12478431B2 (en) | 2020-07-05 | 2025-11-25 | Asensus Surgical Us, Inc. | Providing surgical assistance via automatic tracking and visual feedback during surgery |
| US12408996B2 (en) | 2021-02-23 | 2025-09-09 | Asensus Surgical Us, Inc. | Displaying suture force information in surgery |
| US12295719B2 (en) | 2021-05-06 | 2025-05-13 | Covidien Lp | Endoscope navigation system with updating anatomy model |
| US12532069B2 (en) | 2021-10-20 | 2026-01-20 | Covidien Lp | Video laryngoscope wireless hub systems and methods |
| US12557979B2 (en) | 2022-02-07 | 2026-02-24 | Covidien Lp | Video laryngoscope with window for infrared pairing |
| CN115890749B (zh) * | 2022-11-11 | 2026-01-16 | 中山大学 | Rcm约束下的内窥镜机器人视觉伺服与优化控制方法、系统及机器人 |
Family Cites Families (29)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0663003B2 (ja) | 1989-09-08 | 1994-08-17 | 東芝タンガロイ株式会社 | 押出し成形機 |
| US5261404A (en) * | 1991-07-08 | 1993-11-16 | Mick Peter R | Three-dimensional mammal anatomy imaging system and method |
| JPH0663003A (ja) | 1992-08-20 | 1994-03-08 | Olympus Optical Co Ltd | スコープホルダー |
| US5825982A (en) * | 1995-09-15 | 1998-10-20 | Wright; James | Head cursor control interface for an automated endoscope system for optimal positioning |
| US8600551B2 (en) * | 1998-11-20 | 2013-12-03 | Intuitive Surgical Operations, Inc. | Medical robotic system with operatively couplable simulator unit for surgeon training |
| US8010180B2 (en) | 2002-03-06 | 2011-08-30 | Mako Surgical Corp. | Haptic guidance system and method |
| FR2839440B1 (fr) | 2002-05-13 | 2005-03-25 | Perception Raisonnement Action | Systeme de positionnement sur un patient d'un dispositif d'observation et/ou d'intervention |
| US7811294B2 (en) * | 2004-03-08 | 2010-10-12 | Mediguide Ltd. | Automatic guidewire maneuvering system and method |
| JP4695420B2 (ja) * | 2004-09-27 | 2011-06-08 | オリンパス株式会社 | 湾曲制御装置 |
| EP2286715A3 (en) * | 2004-09-30 | 2012-05-02 | Boston Scientific Limited | Video endoscope |
| US9943372B2 (en) | 2005-04-18 | 2018-04-17 | M.S.T. Medical Surgery Technologies Ltd. | Device having a wearable interface for improving laparoscopic surgery and methods for use thereof |
| WO2006134881A1 (ja) * | 2005-06-14 | 2006-12-21 | Olympus Medical Systems Corp. | 内視鏡処置具及び内視鏡用処置具装置 |
| US7783133B2 (en) * | 2006-12-28 | 2010-08-24 | Microvision, Inc. | Rotation compensation and image stabilization system |
| US9160783B2 (en) * | 2007-05-09 | 2015-10-13 | Intouch Technologies, Inc. | Robot system that operates through a network firewall |
| US8116910B2 (en) * | 2007-08-23 | 2012-02-14 | Intouch Technologies, Inc. | Telepresence robot with a printer |
| US20100262162A1 (en) * | 2007-12-28 | 2010-10-14 | Terumo Kabushiki Kaisha | Medical manipulator and medical robot system |
| US8864652B2 (en) * | 2008-06-27 | 2014-10-21 | Intuitive Surgical Operations, Inc. | Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip |
| WO2010122563A1 (en) | 2009-04-23 | 2010-10-28 | M.S.T. Medical Surgery Technologies Ltd. | Two-part endoscope surgical device |
| US8521331B2 (en) | 2009-11-13 | 2013-08-27 | Intuitive Surgical Operations, Inc. | Patient-side surgeon interface for a minimally invasive, teleoperated surgical instrument |
| US8934003B2 (en) * | 2010-01-08 | 2015-01-13 | Koninklijkle Philips N.V. | Uncalibrated visual servoing using real-time velocity optimization |
| US9204939B2 (en) | 2011-08-21 | 2015-12-08 | M.S.T. Medical Surgery Technologies Ltd. | Device and method for assisting laparoscopic surgery—rule based approach |
| WO2013027202A2 (en) | 2011-08-21 | 2013-02-28 | M.S.T. Medical Surgery Technologies Ltd. | Device and method for asissting laparoscopic surgery - rule based approach |
| EP2744388B1 (en) * | 2011-08-21 | 2020-04-01 | TransEnterix Europe Sàrl | Wearable user interface |
| US9795282B2 (en) | 2011-09-20 | 2017-10-24 | M.S.T. Medical Surgery Technologies Ltd | Device and method for maneuvering endoscope |
| WO2013042107A1 (en) | 2011-09-20 | 2013-03-28 | M.S.T. Medical Surgery Technologies Ltd. | A device and method for maneuvering endoscope |
| ES2881537T3 (es) * | 2012-03-07 | 2021-11-29 | Transenterix Europe Sarl | Sistema de control endoscópico general |
| US9888975B2 (en) * | 2015-12-04 | 2018-02-13 | Ethicon Endo-Surgery, Llc | Methods, systems, and devices for control of surgical tools in a robotic surgical system |
| WO2017145155A1 (en) * | 2016-02-22 | 2017-08-31 | Real View Imaging Ltd. | A method and system for displaying holographic images within a real object |
| US10687901B2 (en) * | 2016-08-17 | 2020-06-23 | Synaptive Medical (Barbados) Inc. | Methods and systems for registration of virtual space with real space in an augmented reality system |
-
2013
- 2013-03-07 ES ES13757955T patent/ES2881537T3/es active Active
- 2013-03-07 US US14/380,086 patent/US10898064B2/en active Active
- 2013-03-07 WO PCT/IL2013/050216 patent/WO2013132501A1/en not_active Ceased
- 2013-03-07 EP EP13757955.3A patent/EP2822445B1/en active Active
-
2020
- 2020-09-30 US US17/039,856 patent/US11963666B2/en active Active
-
2024
- 2024-04-23 US US18/643,780 patent/US20240358243A1/en active Pending
Also Published As
| Publication number | Publication date |
|---|---|
| EP2822445A4 (en) | 2015-12-16 |
| US20210015351A1 (en) | 2021-01-21 |
| US20240358243A1 (en) | 2024-10-31 |
| EP2822445B1 (en) | 2021-05-05 |
| US10898064B2 (en) | 2021-01-26 |
| EP2822445A1 (en) | 2015-01-14 |
| US20140378763A1 (en) | 2014-12-25 |
| WO2013132501A1 (en) | 2013-09-12 |
| US11963666B2 (en) | 2024-04-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2881537T3 (es) | Sistema de control endoscópico general | |
| JP7547241B2 (ja) | 予定の器具アタッチメントの仮想モデルの表示により物理的器具アタッチメントの正しい選択を確実にする | |
| CN113243990B (zh) | 手术系统 | |
| CN113259584B (zh) | 摄像机跟踪系统 | |
| US20250017685A1 (en) | Augmented reality headset for navigated robotic surgery | |
| JP7216764B2 (ja) | 手術中の支援されたナビゲーションのための拡張現実ヘッドセットのカメラによって追跡された参照アレイを備えた手術器具の位置合わせ | |
| CN112932661B (zh) | 外科手术系统 | |
| JP7248554B2 (ja) | イメージング器具の向きの制御のためのシステム及び方法 | |
| CN113768620B (zh) | 用于手术期间的计算机辅助导航的摄像机跟踪系统的摄像机跟踪杆 | |
| US20210121048A1 (en) | Manual control system for maneuvering an endoscope | |
| ES3052966T3 (en) | Multi-port surgical robotic system architecture | |
| CN113625452A (zh) | 头戴式扩展现实(xr)显示装置 | |
| JP2022008972A (ja) | ゼロ空間運動と同時にゼロ直交空間内でのクラッチングによりマニピュレータアームを位置決めするためのシステム及び方法 | |
| JP7282816B2 (ja) | ナビゲートされたロボット外科手術のためのエクステンデッドリアリティ器具相互作用ゾーン | |
| JP2023549687A (ja) | 関節の内部自由度を備えた腹腔鏡手術ロボットシステム | |
| US11992283B2 (en) | Systems and methods for controlling tool with articulatable distal portion | |
| WO2014073121A1 (ja) | 操作対象装置の操作システム、操作入力装置 | |
| WO2014073122A1 (ja) | 内視鏡操作システム | |
| US20150038984A1 (en) | Manipulator system |