FR3048872A1 - Procede et dispositif de recalage automatise pour un robot chirurgical - Google Patents

Procede et dispositif de recalage automatise pour un robot chirurgical Download PDF

Info

Publication number
FR3048872A1
FR3048872A1 FR1652414A FR1652414A FR3048872A1 FR 3048872 A1 FR3048872 A1 FR 3048872A1 FR 1652414 A FR1652414 A FR 1652414A FR 1652414 A FR1652414 A FR 1652414A FR 3048872 A1 FR3048872 A1 FR 3048872A1
Authority
FR
France
Prior art keywords
registration
optical
dimensional
systems
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1652414A
Other languages
English (en)
Other versions
FR3048872B1 (fr
Inventor
Bertin Nahum
Lucien Blondel
Pierre Maillet
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zimmer Biomet Robotics
Original Assignee
Medtech SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Medtech SA filed Critical Medtech SA
Priority to FR1652414A priority Critical patent/FR3048872B1/fr
Priority to PCT/FR2017/050662 priority patent/WO2017162981A1/fr
Priority to US16/087,011 priority patent/US11298193B2/en
Publication of FR3048872A1 publication Critical patent/FR3048872A1/fr
Application granted granted Critical
Publication of FR3048872B1 publication Critical patent/FR3048872B1/fr
Priority to US17/690,781 priority patent/US11986256B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00022Sensing or detecting at the treatment site
    • A61B2017/00057Light
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/061Measuring instruments not otherwise provided for for measuring dimensions, e.g. length
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Robotics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

L'invention concerne un procédé et un dispositif de recalage automatisé pour un robot chirurgical permettant le recalage entre un premier système de localisation tridimensionnelle comportant un capteur de distance optique et un second système de localisation tridimensionnelle comportant des moyens d'acquisition optiques. Le procédé comporte : - une première étape de recalage peropératoire entre le premier système de localisation et des données enregistrées sur une surface anatomique d'un patient et ; - une seconde étape de recalage peropératoire des deux systèmes de localisation tridimensionnelle. La seconde étape de recalage est réalisée en même temps que la première étape de recalage par détection, par les moyens d'acquisition optiques, d'au moins un point d'un nuage de points acquis par le capteur optique au cours du premier recalage peropératoire.

Description

Procédé et dispositif de recalage automatisé pour un robot chirurgical
La présente invention trouve à s'appliquer dans le domaine médical, et plus particulièrement dans le domaine de la chirurgie à assistance robotisée, typiquement utilisée lorsqu'une grande précision opératoire est requise.
Elle concerne ce qu'il est convenu d'appeler le recalage, c'est-à-dire une mise en correspondance des référentiels de repérage dans l'espace des différents éléments, appareils, outils qui sont parties à 1'opération (y compris le patient, ou plus spécifiquement la ou les régions d'intervention chez le patient) . Plus précisément encore, l'invention a trait à un procédé de recalage automatisé entre deux systèmes de localisation tridimensionnelle et à un dispositif robotisé d'assistance à la chirurgie mettant en oeuvre ledit procédé.
Ce recalage est effectué en phase, peropératoire, en pratique au début de 1'opération, juste avant que ne démarre la procédure chirurgicale. Un tel recalage est tout à fait fondamental pour assurer un degré acceptable de précision des procédures opératoires automatisées, puisqu' il conduit à ce que tous les instruments utilisés ainsi que la zone d'intervention, à défaut d'être directement calés sur un même référentiel, soient en tout état de cause reliés par des matrices de passage d'un référentiel à l'autre. En l'espèce, les matrices de passage, calculées au cours de la phase de recalage, permettent à chaque système de coordonnées lié à un référentiel d'être transformé et donc intelligible dans un autre référentiel. L'idée qui sous-tend la procédure de recalage est d'unifier la référence de travail de toutes les parties impliquées dans une opération chirurgicale à assistance robotisée, ce qui implique que chacun des appareils puisse exploiter en temps réel des mesures de positionnement le cas échéant effectuées dans un référentiel qui n'est pas le sien, par exemple liés à d'autres instruments utilisés au cours de l'opération chirurgicale. La problématique résulte de l'existence de fait de plusieurs référentiels distincts qui coexistent.. A titre d'exemple de tels repères, on peut, citer le repère des··mesures provenant d'un examen médical, le. repère d'un robot d'assistance, chirurgicale, le repère d'un navigateur optique, le repère de la région anatomique à. traiter sur. le corps du. patient allongé sur la table d'opération. Ils sont tous è prendre, en considération pour travailler· de-manière accordée.
Un recalage nécessite, des mesures et, dans, ce domaine, est. notamment basé sur des techniques optiques d'imagerie puisqu' il s'agit notamment de localiser des surfaces anatomiques du patient au voisinage de la région opératoire. -Avant tout autre traitement, il est- nécessaire de les mettre en correspondance avec des données d'imagerie issues des examens médicaux réalisés par des moyens classiques (examens radiologiques avec CT scans, Imagerie par Résonance- Magnétique irai,,} pour que les objectifs opératoires prévisionnels du chirurgien puissent être mis en œuvre dans- la réalité du bloc opératoire, .intégrant les différents instruments requis et leurs localisations et repères respectifs. C'est un premier recalage qui est alors mis en œuvre % plus précisément, dans les configurations d'opérations chirurgicales utilisant des robots d'assistance qui seront développées dans la suite, à titre d'exemple, le robot d'assistance muni des outils, ou instruments chirurgicaux d'aide au chirurgien est. ainsi, obligatoirement soumis à une telle procédure, de recalage. Celle-ci implique l'acquisition d'un nuage de points de la surface anatomique, ou à tout le moins de.-quelques points- d'une surface du patient-, à partir- de- laquelle il. -est possible de.·.-procéder -à une comparaison:-entre d'une-part le repère propre au robot dont, les instruments·, sont tributaires, et d'autre· part le référentiel utilisé pour la description de la •partie, concernée du corps du patient.
En pratique, c'est un balayage surfacique qui est mis- en œuvre pendant ladite première procédure de recalage, permettant l'acquisition de la surface anatomique ciblée. Le système constitue alors une représentation en trois· dimensions sous forme d'un modèle numérique, formée d'un nuage de points, laquelle est le cas échéant traitée {.sélection de points remarquables) en True d'effectuer une comparaison avec des données issues d'examens· radiologiques ou. d'IBM. (imagerie à résonance magnétique) concernant le même patient qui ont .été préenregistrées et à partir desquelles il est possible d'obtenir des paramètres surfaciques adaptés à la comparaison/ et donc au recalage recherché.
Un robot d'assistance chirurgicale localise les instruments qu'il porte avec les informations issues des codeurs de chacun de ses axes, dans un repère en général défini au niveau de son socle et aligné sur le premier axe. Il se comporte en réalité comme un système de localisation tridimensionnelle. Les actes chirurgicaux dans lesquels il est utilisé (chirurgie du cerveau, opérations sur la colonne vertébrale) requérant une extrême précision de positionnement des instruments et des gestes chirurgicaux, il doit le cas échéant être capable de s'adapter à des mouvements des surfaces anatomiques au niveau desquelles il est utilisé. Il peut par exemple, s'agir de déplacements de la colonne vertébrale résultant de la respiration du, .patient·, ou d'éventuels mouvements de tête lors d'une, opération .neurochirurgicale·. Il lui faut adapter,, en temps réel, la position, des outils., par rapport aux· cibles opératoires projetées, et donc, recevoir .en permanence des informations sur les déplacements éventuels desdites, cibles.
Un navigateur optique, qui est un autre système· de· localisation, tridimensionnelle, est· à cet. effet de plus en plus, souvent associé aux robots. d'assistance chirurgicale dans les protocoles opératoires actuels.·, navigateur qui fonctionne suivant, son propre repère, et doit .bien entendu lui aussi être calé sur les repères liés au patient· d'une part, et au robot chirurgical d'autre part.
Dans cette hypothèse d'existence d'un navigateur optique en sus du robot d'assistance chirurgicale, une. fois· le patient positionné sur une table de bloc opératoire et immobilisé par rapport â celle-ci, on met comme indiqué en correspondance le repère qui lui est lié et celui qui se rapporte au robot d'assistance chirurgicale au cours d'un premier recalage. A ce stade, le navigateur optique n/a cependant encore aucune information relative à la position du robot et à celle des surfaces anatomiques concernées par 1'opération en cours. Il faut donc procéder à une seconde opération de recalage pour lier les trois repères qui existent dans ce cas.
Le problème est, sinon ancien, du moins posé depuis qu'on cherche à asservir des robots chirurgicaux â des navigateurs capables de détecter les mouvements des corps susceptibles de fausser le positionnement des instruments et outils chirurgicaux. À cet égard, on connaît au moins deux types de procédés permettant de repérer les surfaces anatomiques dans le référentiel du robot, et d'harmoniser ou en tout cas de permettre 1'interlocalisation des référentiels du robot, des surfaces anatomiques du patient opéré et du navigateur optique.
Un premier type de procédé connu de localisation relative entre un robot d'assistance chirurgicale et un navigateur optique, décrit dans le document US 2012/109150, met en jeu d'une part un bras robotisé· équipé d'une cible optique (par exemple des sphères réfléchissantes) et présentant six degrés de liberté, et d'autre part un navigateur optique muni de moyens de· détection optique. A la suite d'un premier recalage visant le. robot, et les surfaces anatomiques, un second recalage a pour objectif de mettre en correspondance rigide les référentiels du robot et du navigateur. Le bras robotisé porte à cet effet au moins une cible de géométrie connue, placée au niveau de l'outil ou de l'instrument équipant le··bras, et qui porte par exemple-des sphères réfléchissantes.. Le navigateur optique peut alors· localiser précisément les instruments équipés d'une cible optique grâce aux informations déposition des sphères réfléchissantes, obtenues par triangulation â partir des informations détectées par un système d'acquisition optique équipant le navigateur.
Le mode opératoire du recalage est le suivant ; le bras robotisé est déplacé de manière à prendre un certain nombre de positions fixes prédéterminées (par exemple six) encadrant l'espace de travail. Une acquisition des coordonnées de chaque position est réalisée à la fois dans le référentiel du bras robotisé» par enregistrement des positions de l'outil dans le repère du robot, et dans le référentiel du navigateur optique» suite à la triangulation. Cette acquisition génère un nuage de coordonnées dans chaque référentiel, et un traitement informatique permet de mettre en correspondance rigide les référentiels du robot et du navigateur optique par calcul d'une matrice de passage des coordonnées du nuage de points d'un référentiel à l'autre.
Ce type de procédé de localisation relative présente 1'inconvénient de nécessiter deux étapes d'acquisition differentes, d'une part pour localiser les surfaces anatomiques du patient dans le repère du robot et d'autre part pour calculer la correspondance entre le repère du bras robotisé et le repère du navigateur, ce qui entraîne une augmentation du temps opératoire, Elle nécessite ensuite, une succession de. mises en place particulières du bras du robot par rapport au navigateur optique» et. par conséquent quelques déplacements créant un risque de· collision du fait de l-'encombrement usuel des salles d'opération. Elle requiert enfin du matériel supplémentaire, à savoir la ou les cibles à; sphères réfléchissantes.
Une autre famille de procédé de recalage» décrite -dans le document US 6,298,262, réalise une acquisition des surfaces anatomiques du patient à l'aide d'un pointeur optique (laser) équipé d'au moins une cible optique» manipulé par un opérateur afin de cibler une succession de points de la surface anatomique concernée par ou voisine de .l'opération chirurgicale. L'opérateur balaie cette -surface, anatomique avec l'émetteur laser (et y .pointe environ -2.00 points). Au cours de ce. balayage, un navigateur optique réalise •une acquisition des positions pointées- de manière à construire un nuage de points dans son propre référentiel, üne étape de recalage est ensuite effectuée pour mettre en correspondance le référentiel du navigateur optique et celui du patient, tel qu'issu d'images médicales préalablement acquises par des techniques d'imageries traditionnelles (scans ou IRM).
Ce deuxième type de procédé, qui ne repose pas sur un recalage robot/navigateur, a pour inconvénient de manquer de précision et de ne pas avoir un degré élevé de reproductibilité. L'acquisition des surfaces anatomiques y dépend en effet d'un opérateur humain et de son savoir-faire. De plus, il nécessite un matériel supplémentaire, le pointeur optique utilisé par l'opérateur pour son balayage manuel.
La présente invention remédie aux insuffisances et problèmes précités, et propose un procédé de recalage entre deux systèmes de localisations tridimensionnelles simplifiées par rapport à ses devanciers. Cette simplification affecte le procédé lui-même, par suppression d'étapes, mais elle trouve également sa source dans la suppression correspondante de matériels additionnels utilisés dans les procédés de l'art antérieur.. La fiabilité du procédé obtenu s'en trouve, notablement améliorée.
Le procédé de recalage, de l'invention, mis en -œuvre de façon générale entre deux -systèmes de· localisation tridimensionnelle utilisés en chirurgie robotisée pour mettre en correspondance des données de localisacion issues de repères de référence distincts propres à chaque système, s'applique à un premier système, de localisation tridimensionnelle comportant un capteur de distance optique et :â un second, système de localisation tridimensionnelle comportant des moyens d'acquisition optiques.
Il est implémenté par mise en œuvre d'une première étape, de recalage peropératoire entre le premier système de localisation et des- données enregistrées sur une surface anatomique d'un patient, obtenu de manière surfacique selon une technique décrite dans le document WO 2012/017167, impliquant une mise en correspondance d'au moins un point d'un nuage de points acquis en. phase peropératoire sur ladite surface au moyen du capteur de distance optique et d'au moins un. point d'un ensemble de points desdites données, et il comporte une seconde étape, de. recalage peropératoire des deux systèmes de localisation tridimensionnelle.
Il est enfin tel que ladite seconde étape de recalage est réalisée. en même temps que la première étape de recalage par détection, par· les moyens d'acquisition optiques, d'au moins un point du nuage de points .acquis par le capteur optique au cours du premier recalage' peropératoire.. L'innovation réside notamment dans le fait que le procédé permet de s'affranchir de la phase de recalage spécifique entre le robot et le. navigateur optique, comme exemples· de systèmes, de localisation tridimensionnelles, en utilisant, directement les données disponibles provenant du recalage effectué entre le .robot et le. patient à partir d'une méthode surfacique. En d'autres termes., on combine les deux recalages en utilisant les mêmes données de. départ, ce qui conduit à réduire le temps opératoire et. à supprimer les manipulations et déplacements de matériels dus à l'existence, des cibles. Les bénéfices de l'innovation .sont donc multiples·, aussi bien en termes de méthodologie que pour ce qui concerne les matériels nécessaires.
De préférence, .selon l'invention, la seconde étape de recalage comporte le calcul d'une matrice·, de passage entre les deux repères de référence des deux systèmes de localisation tridimensionnelle.
Par ailleurs, selon une possibilité, le capteur de distance optique du premier système de localisation tridimensionnelle peut être un télémètre laser projetant un rayon laser sur la surface anatomique du patient. Les moyens d'acquisition optiques du second système de localisation tridimensionnelle peuvent quant â eux consister en au moins une caméra d'acquisition de signaux optiques sous forme de points lumineux projetés sur une surface.
Le procédé est en pratique applicable à tous les systèmes équipés d'un dispositif de localisation tridimensionnelle comportant un laser, et d'un système de localisation tridimensionnelle basé sur des caméras de détection. A cet égard, le capteur de distance optique et au moins un moyen d'acquisition de signaux optiques sont accordés sur les mêmes longueurs d'onde.
De préférence, selon 1'invention, les longueurs d'onde utilisées peuvent être dans le domaine de l'infrarouge, bien qu'il soit évident qu'il s'agisse d'un choix qui peut être modifié selon les caractéristiques techniques requises. Plus particulièrement, selon une application préférentielle qui a été prise comme exemple jusqu' ici mais n' est pas non plus limitative de 1 ' invention, le premier système de localisation tridimensionnelle peut être un robot d'assistance chirurgicale et le second système de localisation tridimensionnelle peut consister en un navigateur optique. L'invention concerne de fait également un dispositif médical robotisé d'assistance à la chirurgie tel le premier système de localisation tridimensionnelle peut être un robot d'assistance chirurgicale et le second système de localisation tridimensionnelle peut consister en un navigateur optique.
Plus précisément, il ressort de ce qui a été décrit auparavant que le robot d'assistance chirurgicale peut alors être muni d'un bras robotisé dont l'extrémité libre est munie d'un capteur de distance optique du type télémètre laser. De préférence, robot d'assistance chirurgicale (2) est à six degrés de liberté.
De mime, le navigateur optique peut être équipé de moyens d'acquisition de signaux optiques du type caméras infrarouges. D'autres particularités et avantages de 1'invention apparaîtront dans la description détaillée, qui suit, de deux exemples de réalisation, illustrés par les figures placées en annexe, pour lesquelles : la figure 1 est une vue en perspective du dispositif opératoire complet mis en œuvre pour une opération au niveau de la tête, par exemple du cerveau ; et. la figure 2 représente en vue en perspective un dispositif opératoire équivalent mais pour une opération chirurgicale effectuée au niveau de la colonne vertébrale.
En référence aux figures 1 et 2, le patient est allongé sur le dos {figure 1) ou sur le ventre (figure 2) sur une table opératoire (1), à proximité d'un robot (2) d'assistance chirurgicale qui comporte un caisson, mobile sur roulettes surmonté d'un bras robotisé (3) dont 1'extrémité libre peut être munie d'au moins un outil chirurgical ou d'au moins un capteur de distance optique (4) . Le robot illustré en figure 1 est prévu- pour des opérations neurochirurgicales» alors que celui de la figure 2 concerne plutôt de la chirurgie de la colonne vertébrale. Il présente par ailleurs un écran d'assistance {5.). permettant à l'opérateur, en l'espèce le -chirurgien, de visualiser l'opération en cours et plus précisément le travail de l'outil équipant le bras robotisé (3). L'extrémité du bras robotisé (3) comporte par ailleurs un télémètre laser fonctionnant par exemple dans le domaine de 1' infra-rouge. Il est déplacé par le robot (2) au-dessus du visage du patient (dans l'exemple de la figure 1) et plus généralement au-dessus de la zone anatomique devant être balayée par le capteur de distance optique, pointe une succession de points formant un nuage de points- que le- système enregistre en continu à la surface de. la peau en vue de procéder .au premier recalage entre le repère lié au patient (issu d'images enregistrées) et le repère rapporté au robot (2) . Pour une opération du cerveau, ces points sont situés sur les tempes, le nez et le front du visage du patient-. Lorsqu'il s'agit d'une- opération de la colonne, vertébrale.., les. points enregistrés sont localisés au voisinage de la zone à opërer.
Ce nuage de points, constituant en pratique une surface, est obtenu dans le repère du robot {-2).- Un algorithme spécifique recherche la meilleure correspondance possible entre les deux modèles issus de 1'examen et acquis avec le capteur optique du robot (2). Une transformation identifiée permet ensuite de passer d'un repère à l'autre avec une précision connue. C'est le premier .recalage nécessaire au procédé de l'invention.
Un navigateur optique (10) également mobile sur roulettes complète le dispositif opératoire, comportant au moins un moyen, d'acquisition de signaux optiques (11) et un écran de visualisation (12) des données issues de capteurs, dont certains au moins peuvent être placés au niveau de la zone d'intervention.
Cet écran (12) permet par exemple de visualiser un outil virtuel sur une imagerie peropératoire, au moyen de laquelle le chirurgien constate en temps réel la progression.'de son outil, procurant une assistance précieuse dans le cas d'une navigation en trois·· dimensions (313) . Selon une fonction importante assurée par" le navigateur optique (-10) tridimensionnel, les mouvements· éventuels de la zone anatomique qui est en cours d'opération, notamment les déplacements dus à la respiration du patient dans le cas d'opérations sur la colonne vertébrale, sont suivis en temps réel par des capteurs adaptés monitores par le navigateur (10), et les déplacements du bras robotisé (3) du robot (2) sont asservis auxdits mouvements.
Le nuage de points créés par le télémètre laser rapporté au bras (3) du robot (2) dont il a été fait état précédemment, est formé par un faisceau laser opérant dans le domaine de l'infrarouge, dont le point de contact avec la surface se déplace sur ladite surface du patient considéré et est détecté par les caméras infrarouges du navigateur. Le navigateur acquiert donc en réalité un nuage de points équivalent â celui enregistré dans le même temps par le robot. Le second recalage propre au procédé de 1'invention est par conséquent effectué à partir du même nuage de points enregistré simultanément par le- robot (2) et par le navigateur optique (10)'. 'Chaque enregistrement est cependant rapporté aux référentiels, distincts de l'un et de. 'l'autre. Un traitement informatique ultérieur permet de calculer: la matrice·, de passage entre les deux, référentiels.
Le procédé de l'invention permet donc iii fine un. calcul immédiat et automatisé du. second recalage sur la .base du. même nuage de points enregistré dans les. deux repères propres, du robot (2) d'une part et. du navigateur optique {10} d'autre part, et qui était initialement· dévolu au calcul du premier recalage.
On s'affranchit d'un ..recalage distinct entre les repère respectivement du ·robot (2) et du navigateur (10), tel qu'existant dans les'· procédés de l'art .antérieur, ce qui procure un gain de temps appréciable. Le caractère automatisé de la solution présentée garantit enfin la répétabilité du procédé, indépendamment de tout savoir-faire lié à un opérateur.
Un des avantages additionnels de cette solution est qu'elle permet également de calculer directement et de manière automatisée, via un traitement informatique, le recalage entre le repère lié au patient et le repère du navigateur optique (10).
Aucune étape additionnelle, ni aucun matériel supplémentaire n'est requis, ce n'est plus que du traitement par le système. les exemples illustrés à l'aide des figures ne sont pas exhaustifs de l'invention, qui s'applique à tout recalage basé sur l'acquisition de données surfaciques de zones anatomiques, ou de surfaces de référence, avec un dispositif optique de type laser.

Claims (7)

  1. REVENDICATIONS
    1. Procédé de recalage automatisé entre deux systèmes de localisation tridimensionnelle (10) utilisés en chirurgie robotisée, pour mettre en correspondance des données de localisation issues de repères de référence distincts propres à chaque 'système, un premier système de localisation tridimensionnelle (2) comportant un capteur de distance optique, et un second système de localisation tridimensionnelle (10)' comportant des moyens d/ acquisition optiques., ledit procédé comportant : - une première étape de recalage peropératoire entre le premier système de localisation (-2) et des données enregistrées sur une surface anatomique d'un patient par mise, en correspondance d'au moins un point d'un nuage de points, acquis en peropératoire sur ladite surface au moyen du capteur de distance optique et d'au moins un point d'un ensemble de points desdites données et ; - une seconde étape de recalage peropératoire des deux systèmes de localisation tridimensionnelle (2, 10), caractérisé en ce que ladite seconde étape de recalage est réalisée- en mime temps que la première, étape de recalage par détection, par les moyens d'acquisition optiques, d'au moins un point du nuage de points acquis par le capteur optique au cours du premier recalage peropératoire.
  2. 2. Procédé de recalage automatisé entre deux systèmes de localisation tridimensionnelle (2, 10) selon la revendication précédente, caractérisé en ce que la seconde étape de recalage comporte le calcul d'une matrice de passage entre les deux repères de référence des deux systèmes de localisation tridimensionnelle (2, 10). 3 * Procédé de recalage automatisé entre deux systèmes de localisation tridimensionnelle (2, 10) selon .l'une des revendications précédentes, caractérisé en ce que le capteur de distance optique du premier système de localisation (2) tridimensionnelle est un télémètre laser projetant un. rayon, laser sur la surface anatomique du patient...
  3. 4. Procédé· de recalage automatisé entre deux systèmes de localisation tridimensionnelle (2, 10) selon l'une des .revendications précédentes, caractérisé en ce que les moyens d'acquisition optiques du second système de localisation tridimensionnelle (.1.0) consistent en au· moins une· caméra d'acquisition de signaux optiques sous forme de points lumineux projetés sur une. surface. 5. "Procédé de recalage automatisé entre deux systèmes, de. localisation tridimensionnelle (2, 10) selon l'une 'des. .revendications précédentes, caractérisé en ce que le· capteur de. distance optique et les moyens d'acquisition •optiques sont accordés sur les mêmes longueurs d'onde.
  4. 6. Procédé, de. recalage automatisé entre deux, systèmes de localisation. tridimensionnelle (2, 10) .selon la •revendication précédente, caractérisé en ce .que les longueurs, d'onde sont dans le domaine de. l'infrarouge. 7 .· Dispositif médical robotisé, d'assistance à la chirurgie mettant en œuvre un procédé de recalage selon l'une quelconque des revendications précédentes caractérisé en ce que le premier système de localisation tridimensionnelle est un robot d'assistance chirurgicale (2) et le second système de localisation tridimensionnelle est un navigateur optique (10).
  5. 8. Dispositif médical robotisé d'assistance à la chirurgie selon la revendication précédente, caractérisé en ce que le robot d'assistance chirurgicale (2) est muni d'un bras robotisé (3) dont l'extrémité libre est munie d'un capteur de distance optique du type télémètre laser.
  6. 9. Dispositif médical robotisé d'assistance à la chirurgie selon la revendication précédente, caractérisé en ce que le robot d'assistance chirurgicale (2). est à six degrés de liberté.
  7. 10. Dispositif médical robotisé d'assistance à la chirurgie selon l'une des revendications 6 et 7, caractérisé' en ce que le navigateur optique est équipé de moyens d'acquisition de signaux optiques du type caméras infrarouges,
FR1652414A 2016-03-21 2016-03-21 Procede et dispositif de recalage automatise pour un robot chirurgical Active FR3048872B1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
FR1652414A FR3048872B1 (fr) 2016-03-21 2016-03-21 Procede et dispositif de recalage automatise pour un robot chirurgical
PCT/FR2017/050662 WO2017162981A1 (fr) 2016-03-21 2017-03-21 Procédé et dispositif de recalage automatisé pour un robot chirurgical
US16/087,011 US11298193B2 (en) 2016-03-21 2017-03-21 Automatic registration method and device for surgical robot
US17/690,781 US11986256B2 (en) 2016-03-21 2022-03-09 Automatic registration method and device for surgical robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1652414 2016-03-21
FR1652414A FR3048872B1 (fr) 2016-03-21 2016-03-21 Procede et dispositif de recalage automatise pour un robot chirurgical

Publications (2)

Publication Number Publication Date
FR3048872A1 true FR3048872A1 (fr) 2017-09-22
FR3048872B1 FR3048872B1 (fr) 2018-04-13

Family

ID=55759884

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1652414A Active FR3048872B1 (fr) 2016-03-21 2016-03-21 Procede et dispositif de recalage automatise pour un robot chirurgical

Country Status (3)

Country Link
US (2) US11298193B2 (fr)
FR (1) FR3048872B1 (fr)
WO (1) WO2017162981A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11298193B2 (en) 2016-03-21 2022-04-12 Medtech S.A. Automatic registration method and device for surgical robot

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3878392B1 (fr) 2015-04-15 2024-06-12 Mobius Imaging LLC Système robotique chirurgical et d'imagerie médicale intégré
CN114469211A (zh) 2016-07-12 2022-05-13 莫比乌斯成像公司 多级扩张器与套管系统及方法
EP3512450A4 (fr) 2016-09-16 2020-11-04 Mobius Imaging LLC Système et procédé de montage d'un bras robotisé dans un système robotisé chirurgical
WO2018075784A1 (fr) 2016-10-21 2018-04-26 Syverson Benjamin Procédés et systèmes pour régler des trajectoires et des emplacements cibles pour une chirurgie guidée par image
EP3531954A4 (fr) 2016-10-25 2020-09-16 Mobius Imaging LLC Procédés et systèmes de chirurgie assistée par robot
EP3582707A4 (fr) 2017-02-17 2020-11-25 NZ Technologies Inc. Procédés et systèmes de commande sans contact d'un environnement chirurgical
US10682129B2 (en) 2017-03-23 2020-06-16 Mobius Imaging, Llc Robotic end effector with adjustable inner diameter
US11033341B2 (en) 2017-05-10 2021-06-15 Mako Surgical Corp. Robotic spine surgery system and methods
AU2018265160B2 (en) 2017-05-10 2023-11-16 Mako Surgical Corp. Robotic spine surgery system and methods
EP3664741B1 (fr) 2017-08-11 2023-02-22 Mobius Imaging LLC Appareil pour fixer un marqueur de référence à un patient
WO2019070997A1 (fr) 2017-10-04 2019-04-11 GYS Tech, LLC d/b/a Cardan Robotics Systèmes et procédés pour réaliser une chirurgie rachidienne à accès latéral
WO2019071189A2 (fr) 2017-10-05 2019-04-11 GYS Tech, LLC d/b/a Cardan Robotics Procédés et systèmes pour réaliser une chirurgie assistée par ordinateur
CN107997822B (zh) * 2017-12-06 2021-03-19 上海卓梦医疗科技有限公司 微创手术定位系统
US11191594B2 (en) 2018-05-25 2021-12-07 Mako Surgical Corp. Versatile tracking arrays for a navigation system and methods of recovering registration using the same
FR3089408B1 (fr) * 2018-12-06 2024-02-02 Univ Montpellier Dispositif médical pour la chirurgie de l’oeil
WO2020131880A1 (fr) 2018-12-17 2020-06-25 The Brigham And Women's Hospital, Inc. Système et procédés pour un système de navigation sans dispositif de suivi
CN112641511B (zh) * 2020-12-18 2021-09-10 北京长木谷医疗科技有限公司 关节置换手术导航系统及方法
AU2022341973A1 (en) * 2021-09-07 2024-04-18 Zeta Surgical Inc. Systems and methods for robotic surgical control and navigation
TWI782709B (zh) 2021-09-16 2022-11-01 財團法人金屬工業研究發展中心 手術機械臂控制系統以及手術機械臂控制方法
CN113974831B (zh) * 2021-11-19 2024-05-31 苏州寻是科技有限公司 一种用于手术导航的医学图像配准方法
CN117582291B (zh) * 2024-01-19 2024-04-26 杭州键嘉医疗科技股份有限公司 一种基于传感器融合的骨科手术工具定位装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7072707B2 (en) * 2001-06-27 2006-07-04 Vanderbilt University Method and apparatus for collecting and processing physical space data for use while performing image-guided surgery
EP1857070A1 (fr) * 2006-05-18 2007-11-21 BrainLAB AG Enregistrement médical sans contact avec mesure de distance
US20080123927A1 (en) * 2006-11-16 2008-05-29 Vanderbilt University Apparatus and methods of compensating for organ deformation, registration of internal structures to images, and applications of same
US20150150645A1 (en) * 2012-04-12 2015-06-04 Swen Woerlein Optical sampling of surface points for medical navigation
US20160030131A1 (en) * 2010-04-28 2016-02-04 Ryerson University System and methods for intraoperative guidance feedback

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6298262B1 (en) 1998-04-21 2001-10-02 Neutar, Llc Instrument guidance for stereotactic surgery
US8010180B2 (en) 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
US7103399B2 (en) * 2003-09-08 2006-09-05 Vanderbilt University Apparatus and methods of cortical surface registration and deformation tracking for patient-to-image alignment in relation to image-guided surgery
WO2005025404A2 (fr) * 2003-09-08 2005-03-24 Vanderbilt University Appareil et procedes de reperage de surface corticale et de depistage de deformation pour alignement patient-sur-image en rapport avec une chirurgie guidee par l'image
US7289227B2 (en) * 2004-10-01 2007-10-30 Nomos Corporation System and tracker for tracking an object, and related methods
US8090194B2 (en) * 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
US8463006B2 (en) * 2007-04-17 2013-06-11 Francine J. Prokoski System and method for using three dimensional infrared imaging to provide detailed anatomical structure maps
US9737235B2 (en) * 2009-03-09 2017-08-22 Medtronic Navigation, Inc. System and method for image-guided navigation
US9668820B2 (en) * 2009-08-20 2017-06-06 Brainlab Ag Integrated surgical device combining instrument, tracking system and navigation system
FR2963693B1 (fr) 2010-08-04 2013-05-03 Medtech Procede d'acquisition automatise et assiste de surfaces anatomiques
US9183631B2 (en) * 2012-06-29 2015-11-10 Mitsubishi Electric Research Laboratories, Inc. Method for registering points and planes of 3D data in multiple coordinate systems
GB2532004A (en) * 2014-10-31 2016-05-11 Scopis Gmbh Hybrid navigation system for surgical interventions
CA2959236C (fr) * 2015-06-22 2018-01-02 Synaptive Medical (Barbados) Inc. Systeme et procede de mise en correspondance d'un espace de navigation avec l'espace patient au cours d'un acte medical
FR3048872B1 (fr) 2016-03-21 2018-04-13 Medtech Sa Procede et dispositif de recalage automatise pour un robot chirurgical

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7072707B2 (en) * 2001-06-27 2006-07-04 Vanderbilt University Method and apparatus for collecting and processing physical space data for use while performing image-guided surgery
EP1857070A1 (fr) * 2006-05-18 2007-11-21 BrainLAB AG Enregistrement médical sans contact avec mesure de distance
US20080123927A1 (en) * 2006-11-16 2008-05-29 Vanderbilt University Apparatus and methods of compensating for organ deformation, registration of internal structures to images, and applications of same
US20160030131A1 (en) * 2010-04-28 2016-02-04 Ryerson University System and methods for intraoperative guidance feedback
US20150150645A1 (en) * 2012-04-12 2015-06-04 Swen Woerlein Optical sampling of surface points for medical navigation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11298193B2 (en) 2016-03-21 2022-04-12 Medtech S.A. Automatic registration method and device for surgical robot
US11986256B2 (en) 2016-03-21 2024-05-21 Medtech S.A. Automatic registration method and device for surgical robot

Also Published As

Publication number Publication date
WO2017162981A1 (fr) 2017-09-28
US11986256B2 (en) 2024-05-21
US20190099222A1 (en) 2019-04-04
FR3048872B1 (fr) 2018-04-13
US20220192757A1 (en) 2022-06-23
US11298193B2 (en) 2022-04-12

Similar Documents

Publication Publication Date Title
FR3048872A1 (fr) Procede et dispositif de recalage automatise pour un robot chirurgical
US20210038324A1 (en) Guided surgery apparatus and method
US8388539B2 (en) Operation supporting device, method, and program
CA2987058C (fr) Systeme et procede pour la fourniture d'une video de contour avec une surface 3d dans un systeme de navigation medicale
EP0494943B1 (fr) Systeme interactif d'intervention locale a l'interieur d'une structure non homogene
CA2807219C (fr) Procede d'acquisition automatise et assiste de surfaces anatomiques
JP2950340B2 (ja) 三次元データ組の登録システムおよび登録方法
US9757202B2 (en) Method and system of determining probe position in surgical site
EP0581704A1 (fr) Procédé de détermination de la position d'un organe
US7369694B2 (en) Method and medical device for the automatic determination of coordinates of images of marks in a volume dataset
EP2340781A1 (fr) Procédé et appareil de localisation et de visualisation d'une cible par rapport à un point focal d'un système de traitement
US10846883B2 (en) Method for calibrating objects in a reference coordinate system and method for tracking objects
JP2020516408A (ja) 内視鏡測定の方法および器具
Schoob et al. Comparative study on surface reconstruction accuracy of stereo imaging devices for microsurgery
CA3212799A1 (fr) Robot equipe d'une sonde echographique pour le guidage temps-reel d'interventions percutanees
FR3132832A1 (fr) Système de chirurgie rachidienne robotisée
JP2005189205A (ja) 3次元形状計測装置および方法
WO2016042297A1 (fr) Ordinateur et procédé mis en œuvre par ordinateur pour supporter la chirurgie laparoscopique
FR2838628A1 (fr) Procede d'assistance et de guidage de navigation d'un outil dans des structures anatomiques
US20230240558A1 (en) Surgical site measurement, and camera calibration using fiducial markers on surgical tools
CN106236263A (zh) 基于场景分解的胃肠手术导航方法及系统
FR2694880A1 (fr) Procédé de détermination de la position d'un organe.

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20170922

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9