FR3048872A1 - Procede et dispositif de recalage automatise pour un robot chirurgical - Google Patents
Procede et dispositif de recalage automatise pour un robot chirurgical Download PDFInfo
- Publication number
- FR3048872A1 FR3048872A1 FR1652414A FR1652414A FR3048872A1 FR 3048872 A1 FR3048872 A1 FR 3048872A1 FR 1652414 A FR1652414 A FR 1652414A FR 1652414 A FR1652414 A FR 1652414A FR 3048872 A1 FR3048872 A1 FR 3048872A1
- Authority
- FR
- France
- Prior art keywords
- registration
- optical
- dimensional
- systems
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000003287 optical effect Effects 0.000 claims abstract description 63
- 230000004807 localization Effects 0.000 claims abstract description 15
- 238000001514 detection method Methods 0.000 claims abstract description 5
- 238000001356 surgical procedure Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 238000002432 robotic surgery Methods 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000008021 deposition Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00022—Sensing or detecting at the treatment site
- A61B2017/00057—Light
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
- A61B2034/2057—Details of tracking cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/06—Measuring instruments not otherwise provided for
- A61B2090/061—Measuring instruments not otherwise provided for for measuring dimensions, e.g. length
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Robotics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Veterinary Medicine (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
L'invention concerne un procédé et un dispositif de recalage automatisé pour un robot chirurgical permettant le recalage entre un premier système de localisation tridimensionnelle comportant un capteur de distance optique et un second système de localisation tridimensionnelle comportant des moyens d'acquisition optiques. Le procédé comporte : - une première étape de recalage peropératoire entre le premier système de localisation et des données enregistrées sur une surface anatomique d'un patient et ; - une seconde étape de recalage peropératoire des deux systèmes de localisation tridimensionnelle. La seconde étape de recalage est réalisée en même temps que la première étape de recalage par détection, par les moyens d'acquisition optiques, d'au moins un point d'un nuage de points acquis par le capteur optique au cours du premier recalage peropératoire.
Description
Procédé et dispositif de recalage automatisé pour un robot chirurgical
La présente invention trouve à s'appliquer dans le domaine médical, et plus particulièrement dans le domaine de la chirurgie à assistance robotisée, typiquement utilisée lorsqu'une grande précision opératoire est requise.
Elle concerne ce qu'il est convenu d'appeler le recalage, c'est-à-dire une mise en correspondance des référentiels de repérage dans l'espace des différents éléments, appareils, outils qui sont parties à 1'opération (y compris le patient, ou plus spécifiquement la ou les régions d'intervention chez le patient) . Plus précisément encore, l'invention a trait à un procédé de recalage automatisé entre deux systèmes de localisation tridimensionnelle et à un dispositif robotisé d'assistance à la chirurgie mettant en oeuvre ledit procédé.
Ce recalage est effectué en phase, peropératoire, en pratique au début de 1'opération, juste avant que ne démarre la procédure chirurgicale. Un tel recalage est tout à fait fondamental pour assurer un degré acceptable de précision des procédures opératoires automatisées, puisqu' il conduit à ce que tous les instruments utilisés ainsi que la zone d'intervention, à défaut d'être directement calés sur un même référentiel, soient en tout état de cause reliés par des matrices de passage d'un référentiel à l'autre. En l'espèce, les matrices de passage, calculées au cours de la phase de recalage, permettent à chaque système de coordonnées lié à un référentiel d'être transformé et donc intelligible dans un autre référentiel. L'idée qui sous-tend la procédure de recalage est d'unifier la référence de travail de toutes les parties impliquées dans une opération chirurgicale à assistance robotisée, ce qui implique que chacun des appareils puisse exploiter en temps réel des mesures de positionnement le cas échéant effectuées dans un référentiel qui n'est pas le sien, par exemple liés à d'autres instruments utilisés au cours de l'opération chirurgicale. La problématique résulte de l'existence de fait de plusieurs référentiels distincts qui coexistent.. A titre d'exemple de tels repères, on peut, citer le repère des··mesures provenant d'un examen médical, le. repère d'un robot d'assistance, chirurgicale, le repère d'un navigateur optique, le repère de la région anatomique à. traiter sur. le corps du. patient allongé sur la table d'opération. Ils sont tous è prendre, en considération pour travailler· de-manière accordée.
Un recalage nécessite, des mesures et, dans, ce domaine, est. notamment basé sur des techniques optiques d'imagerie puisqu' il s'agit notamment de localiser des surfaces anatomiques du patient au voisinage de la région opératoire. -Avant tout autre traitement, il est- nécessaire de les mettre en correspondance avec des données d'imagerie issues des examens médicaux réalisés par des moyens classiques (examens radiologiques avec CT scans, Imagerie par Résonance- Magnétique irai,,} pour que les objectifs opératoires prévisionnels du chirurgien puissent être mis en œuvre dans- la réalité du bloc opératoire, .intégrant les différents instruments requis et leurs localisations et repères respectifs. C'est un premier recalage qui est alors mis en œuvre % plus précisément, dans les configurations d'opérations chirurgicales utilisant des robots d'assistance qui seront développées dans la suite, à titre d'exemple, le robot d'assistance muni des outils, ou instruments chirurgicaux d'aide au chirurgien est. ainsi, obligatoirement soumis à une telle procédure, de recalage. Celle-ci implique l'acquisition d'un nuage de points de la surface anatomique, ou à tout le moins de.-quelques points- d'une surface du patient-, à partir- de- laquelle il. -est possible de.·.-procéder -à une comparaison:-entre d'une-part le repère propre au robot dont, les instruments·, sont tributaires, et d'autre· part le référentiel utilisé pour la description de la •partie, concernée du corps du patient.
En pratique, c'est un balayage surfacique qui est mis- en œuvre pendant ladite première procédure de recalage, permettant l'acquisition de la surface anatomique ciblée. Le système constitue alors une représentation en trois· dimensions sous forme d'un modèle numérique, formée d'un nuage de points, laquelle est le cas échéant traitée {.sélection de points remarquables) en True d'effectuer une comparaison avec des données issues d'examens· radiologiques ou. d'IBM. (imagerie à résonance magnétique) concernant le même patient qui ont .été préenregistrées et à partir desquelles il est possible d'obtenir des paramètres surfaciques adaptés à la comparaison/ et donc au recalage recherché.
Un robot d'assistance chirurgicale localise les instruments qu'il porte avec les informations issues des codeurs de chacun de ses axes, dans un repère en général défini au niveau de son socle et aligné sur le premier axe. Il se comporte en réalité comme un système de localisation tridimensionnelle. Les actes chirurgicaux dans lesquels il est utilisé (chirurgie du cerveau, opérations sur la colonne vertébrale) requérant une extrême précision de positionnement des instruments et des gestes chirurgicaux, il doit le cas échéant être capable de s'adapter à des mouvements des surfaces anatomiques au niveau desquelles il est utilisé. Il peut par exemple, s'agir de déplacements de la colonne vertébrale résultant de la respiration du, .patient·, ou d'éventuels mouvements de tête lors d'une, opération .neurochirurgicale·. Il lui faut adapter,, en temps réel, la position, des outils., par rapport aux· cibles opératoires projetées, et donc, recevoir .en permanence des informations sur les déplacements éventuels desdites, cibles.
Un navigateur optique, qui est un autre système· de· localisation, tridimensionnelle, est· à cet. effet de plus en plus, souvent associé aux robots. d'assistance chirurgicale dans les protocoles opératoires actuels.·, navigateur qui fonctionne suivant, son propre repère, et doit .bien entendu lui aussi être calé sur les repères liés au patient· d'une part, et au robot chirurgical d'autre part.
Dans cette hypothèse d'existence d'un navigateur optique en sus du robot d'assistance chirurgicale, une. fois· le patient positionné sur une table de bloc opératoire et immobilisé par rapport â celle-ci, on met comme indiqué en correspondance le repère qui lui est lié et celui qui se rapporte au robot d'assistance chirurgicale au cours d'un premier recalage. A ce stade, le navigateur optique n/a cependant encore aucune information relative à la position du robot et à celle des surfaces anatomiques concernées par 1'opération en cours. Il faut donc procéder à une seconde opération de recalage pour lier les trois repères qui existent dans ce cas.
Le problème est, sinon ancien, du moins posé depuis qu'on cherche à asservir des robots chirurgicaux â des navigateurs capables de détecter les mouvements des corps susceptibles de fausser le positionnement des instruments et outils chirurgicaux. À cet égard, on connaît au moins deux types de procédés permettant de repérer les surfaces anatomiques dans le référentiel du robot, et d'harmoniser ou en tout cas de permettre 1'interlocalisation des référentiels du robot, des surfaces anatomiques du patient opéré et du navigateur optique.
Un premier type de procédé connu de localisation relative entre un robot d'assistance chirurgicale et un navigateur optique, décrit dans le document US 2012/109150, met en jeu d'une part un bras robotisé· équipé d'une cible optique (par exemple des sphères réfléchissantes) et présentant six degrés de liberté, et d'autre part un navigateur optique muni de moyens de· détection optique. A la suite d'un premier recalage visant le. robot, et les surfaces anatomiques, un second recalage a pour objectif de mettre en correspondance rigide les référentiels du robot et du navigateur. Le bras robotisé porte à cet effet au moins une cible de géométrie connue, placée au niveau de l'outil ou de l'instrument équipant le··bras, et qui porte par exemple-des sphères réfléchissantes.. Le navigateur optique peut alors· localiser précisément les instruments équipés d'une cible optique grâce aux informations déposition des sphères réfléchissantes, obtenues par triangulation â partir des informations détectées par un système d'acquisition optique équipant le navigateur.
Le mode opératoire du recalage est le suivant ; le bras robotisé est déplacé de manière à prendre un certain nombre de positions fixes prédéterminées (par exemple six) encadrant l'espace de travail. Une acquisition des coordonnées de chaque position est réalisée à la fois dans le référentiel du bras robotisé» par enregistrement des positions de l'outil dans le repère du robot, et dans le référentiel du navigateur optique» suite à la triangulation. Cette acquisition génère un nuage de coordonnées dans chaque référentiel, et un traitement informatique permet de mettre en correspondance rigide les référentiels du robot et du navigateur optique par calcul d'une matrice de passage des coordonnées du nuage de points d'un référentiel à l'autre.
Ce type de procédé de localisation relative présente 1'inconvénient de nécessiter deux étapes d'acquisition differentes, d'une part pour localiser les surfaces anatomiques du patient dans le repère du robot et d'autre part pour calculer la correspondance entre le repère du bras robotisé et le repère du navigateur, ce qui entraîne une augmentation du temps opératoire, Elle nécessite ensuite, une succession de. mises en place particulières du bras du robot par rapport au navigateur optique» et. par conséquent quelques déplacements créant un risque de· collision du fait de l-'encombrement usuel des salles d'opération. Elle requiert enfin du matériel supplémentaire, à savoir la ou les cibles à; sphères réfléchissantes.
Une autre famille de procédé de recalage» décrite -dans le document US 6,298,262, réalise une acquisition des surfaces anatomiques du patient à l'aide d'un pointeur optique (laser) équipé d'au moins une cible optique» manipulé par un opérateur afin de cibler une succession de points de la surface anatomique concernée par ou voisine de .l'opération chirurgicale. L'opérateur balaie cette -surface, anatomique avec l'émetteur laser (et y .pointe environ -2.00 points). Au cours de ce. balayage, un navigateur optique réalise •une acquisition des positions pointées- de manière à construire un nuage de points dans son propre référentiel, üne étape de recalage est ensuite effectuée pour mettre en correspondance le référentiel du navigateur optique et celui du patient, tel qu'issu d'images médicales préalablement acquises par des techniques d'imageries traditionnelles (scans ou IRM).
Ce deuxième type de procédé, qui ne repose pas sur un recalage robot/navigateur, a pour inconvénient de manquer de précision et de ne pas avoir un degré élevé de reproductibilité. L'acquisition des surfaces anatomiques y dépend en effet d'un opérateur humain et de son savoir-faire. De plus, il nécessite un matériel supplémentaire, le pointeur optique utilisé par l'opérateur pour son balayage manuel.
La présente invention remédie aux insuffisances et problèmes précités, et propose un procédé de recalage entre deux systèmes de localisations tridimensionnelles simplifiées par rapport à ses devanciers. Cette simplification affecte le procédé lui-même, par suppression d'étapes, mais elle trouve également sa source dans la suppression correspondante de matériels additionnels utilisés dans les procédés de l'art antérieur.. La fiabilité du procédé obtenu s'en trouve, notablement améliorée.
Le procédé de recalage, de l'invention, mis en -œuvre de façon générale entre deux -systèmes de· localisation tridimensionnelle utilisés en chirurgie robotisée pour mettre en correspondance des données de localisacion issues de repères de référence distincts propres à chaque système, s'applique à un premier système, de localisation tridimensionnelle comportant un capteur de distance optique et :â un second, système de localisation tridimensionnelle comportant des moyens d'acquisition optiques.
Il est implémenté par mise en œuvre d'une première étape, de recalage peropératoire entre le premier système de localisation et des- données enregistrées sur une surface anatomique d'un patient, obtenu de manière surfacique selon une technique décrite dans le document WO 2012/017167, impliquant une mise en correspondance d'au moins un point d'un nuage de points acquis en. phase peropératoire sur ladite surface au moyen du capteur de distance optique et d'au moins un. point d'un ensemble de points desdites données, et il comporte une seconde étape, de. recalage peropératoire des deux systèmes de localisation tridimensionnelle.
Il est enfin tel que ladite seconde étape de recalage est réalisée. en même temps que la première étape de recalage par détection, par· les moyens d'acquisition optiques, d'au moins un point du nuage de points .acquis par le capteur optique au cours du premier recalage' peropératoire.. L'innovation réside notamment dans le fait que le procédé permet de s'affranchir de la phase de recalage spécifique entre le robot et le. navigateur optique, comme exemples· de systèmes, de localisation tridimensionnelles, en utilisant, directement les données disponibles provenant du recalage effectué entre le .robot et le. patient à partir d'une méthode surfacique. En d'autres termes., on combine les deux recalages en utilisant les mêmes données de. départ, ce qui conduit à réduire le temps opératoire et. à supprimer les manipulations et déplacements de matériels dus à l'existence, des cibles. Les bénéfices de l'innovation .sont donc multiples·, aussi bien en termes de méthodologie que pour ce qui concerne les matériels nécessaires.
De préférence, .selon l'invention, la seconde étape de recalage comporte le calcul d'une matrice·, de passage entre les deux repères de référence des deux systèmes de localisation tridimensionnelle.
Par ailleurs, selon une possibilité, le capteur de distance optique du premier système de localisation tridimensionnelle peut être un télémètre laser projetant un rayon laser sur la surface anatomique du patient. Les moyens d'acquisition optiques du second système de localisation tridimensionnelle peuvent quant â eux consister en au moins une caméra d'acquisition de signaux optiques sous forme de points lumineux projetés sur une surface.
Le procédé est en pratique applicable à tous les systèmes équipés d'un dispositif de localisation tridimensionnelle comportant un laser, et d'un système de localisation tridimensionnelle basé sur des caméras de détection. A cet égard, le capteur de distance optique et au moins un moyen d'acquisition de signaux optiques sont accordés sur les mêmes longueurs d'onde.
De préférence, selon 1'invention, les longueurs d'onde utilisées peuvent être dans le domaine de l'infrarouge, bien qu'il soit évident qu'il s'agisse d'un choix qui peut être modifié selon les caractéristiques techniques requises. Plus particulièrement, selon une application préférentielle qui a été prise comme exemple jusqu' ici mais n' est pas non plus limitative de 1 ' invention, le premier système de localisation tridimensionnelle peut être un robot d'assistance chirurgicale et le second système de localisation tridimensionnelle peut consister en un navigateur optique. L'invention concerne de fait également un dispositif médical robotisé d'assistance à la chirurgie tel le premier système de localisation tridimensionnelle peut être un robot d'assistance chirurgicale et le second système de localisation tridimensionnelle peut consister en un navigateur optique.
Plus précisément, il ressort de ce qui a été décrit auparavant que le robot d'assistance chirurgicale peut alors être muni d'un bras robotisé dont l'extrémité libre est munie d'un capteur de distance optique du type télémètre laser. De préférence, robot d'assistance chirurgicale (2) est à six degrés de liberté.
De mime, le navigateur optique peut être équipé de moyens d'acquisition de signaux optiques du type caméras infrarouges. D'autres particularités et avantages de 1'invention apparaîtront dans la description détaillée, qui suit, de deux exemples de réalisation, illustrés par les figures placées en annexe, pour lesquelles : la figure 1 est une vue en perspective du dispositif opératoire complet mis en œuvre pour une opération au niveau de la tête, par exemple du cerveau ; et. la figure 2 représente en vue en perspective un dispositif opératoire équivalent mais pour une opération chirurgicale effectuée au niveau de la colonne vertébrale.
En référence aux figures 1 et 2, le patient est allongé sur le dos {figure 1) ou sur le ventre (figure 2) sur une table opératoire (1), à proximité d'un robot (2) d'assistance chirurgicale qui comporte un caisson, mobile sur roulettes surmonté d'un bras robotisé (3) dont 1'extrémité libre peut être munie d'au moins un outil chirurgical ou d'au moins un capteur de distance optique (4) . Le robot illustré en figure 1 est prévu- pour des opérations neurochirurgicales» alors que celui de la figure 2 concerne plutôt de la chirurgie de la colonne vertébrale. Il présente par ailleurs un écran d'assistance {5.). permettant à l'opérateur, en l'espèce le -chirurgien, de visualiser l'opération en cours et plus précisément le travail de l'outil équipant le bras robotisé (3). L'extrémité du bras robotisé (3) comporte par ailleurs un télémètre laser fonctionnant par exemple dans le domaine de 1' infra-rouge. Il est déplacé par le robot (2) au-dessus du visage du patient (dans l'exemple de la figure 1) et plus généralement au-dessus de la zone anatomique devant être balayée par le capteur de distance optique, pointe une succession de points formant un nuage de points- que le- système enregistre en continu à la surface de. la peau en vue de procéder .au premier recalage entre le repère lié au patient (issu d'images enregistrées) et le repère rapporté au robot (2) . Pour une opération du cerveau, ces points sont situés sur les tempes, le nez et le front du visage du patient-. Lorsqu'il s'agit d'une- opération de la colonne, vertébrale.., les. points enregistrés sont localisés au voisinage de la zone à opërer.
Ce nuage de points, constituant en pratique une surface, est obtenu dans le repère du robot {-2).- Un algorithme spécifique recherche la meilleure correspondance possible entre les deux modèles issus de 1'examen et acquis avec le capteur optique du robot (2). Une transformation identifiée permet ensuite de passer d'un repère à l'autre avec une précision connue. C'est le premier .recalage nécessaire au procédé de l'invention.
Un navigateur optique (10) également mobile sur roulettes complète le dispositif opératoire, comportant au moins un moyen, d'acquisition de signaux optiques (11) et un écran de visualisation (12) des données issues de capteurs, dont certains au moins peuvent être placés au niveau de la zone d'intervention.
Cet écran (12) permet par exemple de visualiser un outil virtuel sur une imagerie peropératoire, au moyen de laquelle le chirurgien constate en temps réel la progression.'de son outil, procurant une assistance précieuse dans le cas d'une navigation en trois·· dimensions (313) . Selon une fonction importante assurée par" le navigateur optique (-10) tridimensionnel, les mouvements· éventuels de la zone anatomique qui est en cours d'opération, notamment les déplacements dus à la respiration du patient dans le cas d'opérations sur la colonne vertébrale, sont suivis en temps réel par des capteurs adaptés monitores par le navigateur (10), et les déplacements du bras robotisé (3) du robot (2) sont asservis auxdits mouvements.
Le nuage de points créés par le télémètre laser rapporté au bras (3) du robot (2) dont il a été fait état précédemment, est formé par un faisceau laser opérant dans le domaine de l'infrarouge, dont le point de contact avec la surface se déplace sur ladite surface du patient considéré et est détecté par les caméras infrarouges du navigateur. Le navigateur acquiert donc en réalité un nuage de points équivalent â celui enregistré dans le même temps par le robot. Le second recalage propre au procédé de 1'invention est par conséquent effectué à partir du même nuage de points enregistré simultanément par le- robot (2) et par le navigateur optique (10)'. 'Chaque enregistrement est cependant rapporté aux référentiels, distincts de l'un et de. 'l'autre. Un traitement informatique ultérieur permet de calculer: la matrice·, de passage entre les deux, référentiels.
Le procédé de l'invention permet donc iii fine un. calcul immédiat et automatisé du. second recalage sur la .base du. même nuage de points enregistré dans les. deux repères propres, du robot (2) d'une part et. du navigateur optique {10} d'autre part, et qui était initialement· dévolu au calcul du premier recalage.
On s'affranchit d'un ..recalage distinct entre les repère respectivement du ·robot (2) et du navigateur (10), tel qu'existant dans les'· procédés de l'art .antérieur, ce qui procure un gain de temps appréciable. Le caractère automatisé de la solution présentée garantit enfin la répétabilité du procédé, indépendamment de tout savoir-faire lié à un opérateur.
Un des avantages additionnels de cette solution est qu'elle permet également de calculer directement et de manière automatisée, via un traitement informatique, le recalage entre le repère lié au patient et le repère du navigateur optique (10).
Aucune étape additionnelle, ni aucun matériel supplémentaire n'est requis, ce n'est plus que du traitement par le système. les exemples illustrés à l'aide des figures ne sont pas exhaustifs de l'invention, qui s'applique à tout recalage basé sur l'acquisition de données surfaciques de zones anatomiques, ou de surfaces de référence, avec un dispositif optique de type laser.
Claims (7)
- REVENDICATIONS1. Procédé de recalage automatisé entre deux systèmes de localisation tridimensionnelle (10) utilisés en chirurgie robotisée, pour mettre en correspondance des données de localisation issues de repères de référence distincts propres à chaque 'système, un premier système de localisation tridimensionnelle (2) comportant un capteur de distance optique, et un second système de localisation tridimensionnelle (10)' comportant des moyens d/ acquisition optiques., ledit procédé comportant : - une première étape de recalage peropératoire entre le premier système de localisation (-2) et des données enregistrées sur une surface anatomique d'un patient par mise, en correspondance d'au moins un point d'un nuage de points, acquis en peropératoire sur ladite surface au moyen du capteur de distance optique et d'au moins un point d'un ensemble de points desdites données et ; - une seconde étape de recalage peropératoire des deux systèmes de localisation tridimensionnelle (2, 10), caractérisé en ce que ladite seconde étape de recalage est réalisée- en mime temps que la première, étape de recalage par détection, par les moyens d'acquisition optiques, d'au moins un point du nuage de points acquis par le capteur optique au cours du premier recalage peropératoire.
- 2. Procédé de recalage automatisé entre deux systèmes de localisation tridimensionnelle (2, 10) selon la revendication précédente, caractérisé en ce que la seconde étape de recalage comporte le calcul d'une matrice de passage entre les deux repères de référence des deux systèmes de localisation tridimensionnelle (2, 10). 3 * Procédé de recalage automatisé entre deux systèmes de localisation tridimensionnelle (2, 10) selon .l'une des revendications précédentes, caractérisé en ce que le capteur de distance optique du premier système de localisation (2) tridimensionnelle est un télémètre laser projetant un. rayon, laser sur la surface anatomique du patient...
- 4. Procédé· de recalage automatisé entre deux systèmes de localisation tridimensionnelle (2, 10) selon l'une des .revendications précédentes, caractérisé en ce que les moyens d'acquisition optiques du second système de localisation tridimensionnelle (.1.0) consistent en au· moins une· caméra d'acquisition de signaux optiques sous forme de points lumineux projetés sur une. surface. 5. "Procédé de recalage automatisé entre deux systèmes, de. localisation tridimensionnelle (2, 10) selon l'une 'des. .revendications précédentes, caractérisé en ce que le· capteur de. distance optique et les moyens d'acquisition •optiques sont accordés sur les mêmes longueurs d'onde.
- 6. Procédé, de. recalage automatisé entre deux, systèmes de localisation. tridimensionnelle (2, 10) .selon la •revendication précédente, caractérisé en ce .que les longueurs, d'onde sont dans le domaine de. l'infrarouge. 7 .· Dispositif médical robotisé, d'assistance à la chirurgie mettant en œuvre un procédé de recalage selon l'une quelconque des revendications précédentes caractérisé en ce que le premier système de localisation tridimensionnelle est un robot d'assistance chirurgicale (2) et le second système de localisation tridimensionnelle est un navigateur optique (10).
- 8. Dispositif médical robotisé d'assistance à la chirurgie selon la revendication précédente, caractérisé en ce que le robot d'assistance chirurgicale (2) est muni d'un bras robotisé (3) dont l'extrémité libre est munie d'un capteur de distance optique du type télémètre laser.
- 9. Dispositif médical robotisé d'assistance à la chirurgie selon la revendication précédente, caractérisé en ce que le robot d'assistance chirurgicale (2). est à six degrés de liberté.
- 10. Dispositif médical robotisé d'assistance à la chirurgie selon l'une des revendications 6 et 7, caractérisé' en ce que le navigateur optique est équipé de moyens d'acquisition de signaux optiques du type caméras infrarouges,
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1652414A FR3048872B1 (fr) | 2016-03-21 | 2016-03-21 | Procede et dispositif de recalage automatise pour un robot chirurgical |
US16/087,011 US11298193B2 (en) | 2016-03-21 | 2017-03-21 | Automatic registration method and device for surgical robot |
PCT/FR2017/050662 WO2017162981A1 (fr) | 2016-03-21 | 2017-03-21 | Procédé et dispositif de recalage automatisé pour un robot chirurgical |
US17/690,781 US11986256B2 (en) | 2016-03-21 | 2022-03-09 | Automatic registration method and device for surgical robot |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1652414A FR3048872B1 (fr) | 2016-03-21 | 2016-03-21 | Procede et dispositif de recalage automatise pour un robot chirurgical |
FR1652414 | 2016-03-21 |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3048872A1 true FR3048872A1 (fr) | 2017-09-22 |
FR3048872B1 FR3048872B1 (fr) | 2018-04-13 |
Family
ID=55759884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1652414A Active FR3048872B1 (fr) | 2016-03-21 | 2016-03-21 | Procede et dispositif de recalage automatise pour un robot chirurgical |
Country Status (3)
Country | Link |
---|---|
US (2) | US11298193B2 (fr) |
FR (1) | FR3048872B1 (fr) |
WO (1) | WO2017162981A1 (fr) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11298193B2 (en) | 2016-03-21 | 2022-04-12 | Medtech S.A. | Automatic registration method and device for surgical robot |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107645924B (zh) | 2015-04-15 | 2021-04-20 | 莫比乌斯成像公司 | 集成式医学成像与外科手术机器人系统 |
US10695133B2 (en) | 2016-07-12 | 2020-06-30 | Mobius Imaging Llc | Multi-stage dilator and cannula system and method |
CN109862845B (zh) | 2016-09-16 | 2022-12-30 | 莫比乌斯成像公司 | 用于在手术机器人系统中安装机器人臂的系统和方法 |
WO2018075784A1 (fr) | 2016-10-21 | 2018-04-26 | Syverson Benjamin | Procédés et systèmes pour régler des trajectoires et des emplacements cibles pour une chirurgie guidée par image |
US11751948B2 (en) | 2016-10-25 | 2023-09-12 | Mobius Imaging, Llc | Methods and systems for robot-assisted surgery |
CA3052869A1 (fr) * | 2017-02-17 | 2018-08-23 | Nz Technologies Inc. | Procedes et systemes de commande sans contact d'un environnement chirurgical |
US10682129B2 (en) | 2017-03-23 | 2020-06-16 | Mobius Imaging, Llc | Robotic end effector with adjustable inner diameter |
US11065069B2 (en) | 2017-05-10 | 2021-07-20 | Mako Surgical Corp. | Robotic spine surgery system and methods |
US11033341B2 (en) | 2017-05-10 | 2021-06-15 | Mako Surgical Corp. | Robotic spine surgery system and methods |
US11660145B2 (en) | 2017-08-11 | 2023-05-30 | Mobius Imaging Llc | Method and apparatus for attaching a reference marker to a patient |
US11534211B2 (en) | 2017-10-04 | 2022-12-27 | Mobius Imaging Llc | Systems and methods for performing lateral-access spine surgery |
AU2018346790B2 (en) | 2017-10-05 | 2024-09-26 | Mobius Imaging, Llc | Methods and systems for performing computer assisted surgery |
CN107997822B (zh) * | 2017-12-06 | 2021-03-19 | 上海卓梦医疗科技有限公司 | 微创手术定位系统 |
US11191594B2 (en) | 2018-05-25 | 2021-12-07 | Mako Surgical Corp. | Versatile tracking arrays for a navigation system and methods of recovering registration using the same |
FR3089408B1 (fr) * | 2018-12-06 | 2024-02-02 | Univ Montpellier | Dispositif médical pour la chirurgie de l’oeil |
US11890063B2 (en) | 2018-12-17 | 2024-02-06 | The Brigham And Women's Hospital, Inc. | System and methods for a trackerless navigation system |
CN112641511B (zh) * | 2020-12-18 | 2021-09-10 | 北京长木谷医疗科技有限公司 | 关节置换手术导航系统及方法 |
WO2023038906A1 (fr) * | 2021-09-07 | 2023-03-16 | Zeta Surgical Inc. | Systèmes et procédés pour la commande et la navigation chirurgicales robotisées |
TWI782709B (zh) | 2021-09-16 | 2022-11-01 | 財團法人金屬工業研究發展中心 | 手術機械臂控制系統以及手術機械臂控制方法 |
US12102393B2 (en) | 2021-11-16 | 2024-10-01 | Metal Industries Research & Development Centre | Surgical robotic arm control system and control method thereof |
CN113974831B (zh) * | 2021-11-19 | 2024-05-31 | 苏州寻是科技有限公司 | 一种用于手术导航的医学图像配准方法 |
CN117582291B (zh) * | 2024-01-19 | 2024-04-26 | 杭州键嘉医疗科技股份有限公司 | 一种基于传感器融合的骨科手术工具定位装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7072707B2 (en) * | 2001-06-27 | 2006-07-04 | Vanderbilt University | Method and apparatus for collecting and processing physical space data for use while performing image-guided surgery |
EP1857070A1 (fr) * | 2006-05-18 | 2007-11-21 | BrainLAB AG | Enregistrement médical sans contact avec mesure de distance |
US20080123927A1 (en) * | 2006-11-16 | 2008-05-29 | Vanderbilt University | Apparatus and methods of compensating for organ deformation, registration of internal structures to images, and applications of same |
US20150150645A1 (en) * | 2012-04-12 | 2015-06-04 | Swen Woerlein | Optical sampling of surface points for medical navigation |
US20160030131A1 (en) * | 2010-04-28 | 2016-02-04 | Ryerson University | System and methods for intraoperative guidance feedback |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6298262B1 (en) | 1998-04-21 | 2001-10-02 | Neutar, Llc | Instrument guidance for stereotactic surgery |
US8010180B2 (en) | 2002-03-06 | 2011-08-30 | Mako Surgical Corp. | Haptic guidance system and method |
US7103399B2 (en) * | 2003-09-08 | 2006-09-05 | Vanderbilt University | Apparatus and methods of cortical surface registration and deformation tracking for patient-to-image alignment in relation to image-guided surgery |
WO2005025404A2 (fr) * | 2003-09-08 | 2005-03-24 | Vanderbilt University | Appareil et procedes de reperage de surface corticale et de depistage de deformation pour alignement patient-sur-image en rapport avec une chirurgie guidee par l'image |
US7289227B2 (en) * | 2004-10-01 | 2007-10-30 | Nomos Corporation | System and tracker for tracking an object, and related methods |
US8090194B2 (en) * | 2006-11-21 | 2012-01-03 | Mantis Vision Ltd. | 3D geometric modeling and motion capture using both single and dual imaging |
US8918162B2 (en) * | 2007-04-17 | 2014-12-23 | Francine J. Prokoski | System and method for using three dimensional infrared imaging to provide psychological profiles of individuals |
US9737235B2 (en) * | 2009-03-09 | 2017-08-22 | Medtronic Navigation, Inc. | System and method for image-guided navigation |
US9668820B2 (en) * | 2009-08-20 | 2017-06-06 | Brainlab Ag | Integrated surgical device combining instrument, tracking system and navigation system |
FR2963693B1 (fr) | 2010-08-04 | 2013-05-03 | Medtech | Procede d'acquisition automatise et assiste de surfaces anatomiques |
US9183631B2 (en) * | 2012-06-29 | 2015-11-10 | Mitsubishi Electric Research Laboratories, Inc. | Method for registering points and planes of 3D data in multiple coordinate systems |
GB2532004A (en) * | 2014-10-31 | 2016-05-11 | Scopis Gmbh | Hybrid navigation system for surgical interventions |
GB2556727B (en) * | 2015-06-22 | 2021-11-03 | Synaptive Medical Inc | System and method for mapping navigation space to patient space in a medical procedure |
FR3048872B1 (fr) | 2016-03-21 | 2018-04-13 | Medtech Sa | Procede et dispositif de recalage automatise pour un robot chirurgical |
-
2016
- 2016-03-21 FR FR1652414A patent/FR3048872B1/fr active Active
-
2017
- 2017-03-21 WO PCT/FR2017/050662 patent/WO2017162981A1/fr active Application Filing
- 2017-03-21 US US16/087,011 patent/US11298193B2/en active Active
-
2022
- 2022-03-09 US US17/690,781 patent/US11986256B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7072707B2 (en) * | 2001-06-27 | 2006-07-04 | Vanderbilt University | Method and apparatus for collecting and processing physical space data for use while performing image-guided surgery |
EP1857070A1 (fr) * | 2006-05-18 | 2007-11-21 | BrainLAB AG | Enregistrement médical sans contact avec mesure de distance |
US20080123927A1 (en) * | 2006-11-16 | 2008-05-29 | Vanderbilt University | Apparatus and methods of compensating for organ deformation, registration of internal structures to images, and applications of same |
US20160030131A1 (en) * | 2010-04-28 | 2016-02-04 | Ryerson University | System and methods for intraoperative guidance feedback |
US20150150645A1 (en) * | 2012-04-12 | 2015-06-04 | Swen Woerlein | Optical sampling of surface points for medical navigation |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11298193B2 (en) | 2016-03-21 | 2022-04-12 | Medtech S.A. | Automatic registration method and device for surgical robot |
US11986256B2 (en) | 2016-03-21 | 2024-05-21 | Medtech S.A. | Automatic registration method and device for surgical robot |
Also Published As
Publication number | Publication date |
---|---|
US20220192757A1 (en) | 2022-06-23 |
FR3048872B1 (fr) | 2018-04-13 |
US11298193B2 (en) | 2022-04-12 |
WO2017162981A1 (fr) | 2017-09-28 |
US20190099222A1 (en) | 2019-04-04 |
US11986256B2 (en) | 2024-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR3048872A1 (fr) | Procede et dispositif de recalage automatise pour un robot chirurgical | |
US20210038324A1 (en) | Guided surgery apparatus and method | |
US8388539B2 (en) | Operation supporting device, method, and program | |
CA2987058C (fr) | Systeme et procede pour la fourniture d'une video de contour avec une surface 3d dans un systeme de navigation medicale | |
EP0494943B1 (fr) | Systeme interactif d'intervention locale a l'interieur d'une structure non homogene | |
CA2807219C (fr) | Procede d'acquisition automatise et assiste de surfaces anatomiques | |
JP2950340B2 (ja) | 三次元データ組の登録システムおよび登録方法 | |
US9757202B2 (en) | Method and system of determining probe position in surgical site | |
EP2340781B1 (fr) | Procédé et appareil de localisation et de visualisation d'une cible par rapport à un point focal d'un système de traitement | |
EP0581704A1 (fr) | Procédé de détermination de la position d'un organe | |
US7369694B2 (en) | Method and medical device for the automatic determination of coordinates of images of marks in a volume dataset | |
US10846883B2 (en) | Method for calibrating objects in a reference coordinate system and method for tracking objects | |
JP2020516408A (ja) | 内視鏡測定の方法および器具 | |
CA3120137A1 (fr) | Recalage automatique d'un bras robot pour une intervention medicale | |
Schoob et al. | Comparative study on surface reconstruction accuracy of stereo imaging devices for microsurgery | |
EP4230168A1 (fr) | Système de chirurgie rachidienne robotisée | |
CA3212799A1 (fr) | Robot equipe d'une sonde echographique pour le guidage temps-reel d'interventions percutanees | |
JP2005189205A (ja) | 3次元形状計測装置および方法 | |
WO2016042297A1 (fr) | Ordinateur et procédé mis en œuvre par ordinateur pour supporter la chirurgie laparoscopique | |
FR2838628A1 (fr) | Procede d'assistance et de guidage de navigation d'un outil dans des structures anatomiques | |
US20230240558A1 (en) | Surgical site measurement, and camera calibration using fiducial markers on surgical tools | |
CN106236263A (zh) | 基于场景分解的胃肠手术导航方法及系统 | |
FR2694880A1 (fr) | Procédé de détermination de la position d'un organe. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20170922 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
PLFP | Fee payment |
Year of fee payment: 6 |
|
PLFP | Fee payment |
Year of fee payment: 7 |
|
PLFP | Fee payment |
Year of fee payment: 8 |
|
PLFP | Fee payment |
Year of fee payment: 9 |