FR3092746A1 - Instrument chirurgical pour une installation de chirurgie robotique - Google Patents

Instrument chirurgical pour une installation de chirurgie robotique Download PDF

Info

Publication number
FR3092746A1
FR3092746A1 FR1901606A FR1901606A FR3092746A1 FR 3092746 A1 FR3092746 A1 FR 3092746A1 FR 1901606 A FR1901606 A FR 1901606A FR 1901606 A FR1901606 A FR 1901606A FR 3092746 A1 FR3092746 A1 FR 3092746A1
Authority
FR
France
Prior art keywords
image
patient
surgical
surgical instrument
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1901606A
Other languages
English (en)
Inventor
Gautier DAUNE
Pierre Roussouly
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sylorus Robotics SAS
Original Assignee
Sylorus Robotics SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sylorus Robotics SAS filed Critical Sylorus Robotics SAS
Priority to FR1901606A priority Critical patent/FR3092746A1/fr
Publication of FR3092746A1 publication Critical patent/FR3092746A1/fr
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/02Surgical instruments, devices or methods, e.g. tourniquets for holding wounds open; Tractors
    • A61B17/0206Surgical instruments, devices or methods, e.g. tourniquets for holding wounds open; Tractors with antagonistic arms as supports for retractor elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/56Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor
    • A61B17/58Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor for osteosynthesis, e.g. bone plates, screws, setting implements or the like
    • A61B17/68Internal fixation devices, including fasteners and spinal fixators, even if a part thereof projects from the skin
    • A61B17/70Spinal positioners or stabilisers ; Bone stabilisers comprising fluid filler in an implant
    • A61B17/7074Tools specially adapted for spinal fixation operations other than for bone removal or filler handling
    • A61B17/7092Tools specially adapted for spinal fixation operations other than for bone removal or filler handling for checking pedicle hole has correct depth or has an intact wall
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/17Guides or aligning means for drills, mills, pins or wires
    • A61B17/1739Guides or aligning means for drills, mills, pins or wires specially adapted for particular parts of the body
    • A61B17/1757Guides or aligning means for drills, mills, pins or wires specially adapted for particular parts of the body for the spine
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00694Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/02Surgical instruments, devices or methods, e.g. tourniquets for holding wounds open; Tractors
    • A61B17/025Joint distractors
    • A61B2017/0256Joint distractors for the spine
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Robotics (AREA)
  • Neurology (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

I nstrument chirurgical pour une installation de chirurgie robotique Cette Installation de chirurgie robotique (20) comporte : -un système robotique chirurgical (22) comprenant une table de support immobile par rapport à une table d’opération ; -un instrument chirurgical (90) comportant : -une armature (98) fixée solidairement sans degré de liberté à la table de support ; -un ou plusieurs écarteurs (96) montés sur l’armature et agencés pour repousser des parois d’une incision (92) pratiquée dans le corps (94) d’un patient (24). Figure pour l'abrégé : Figure 7

Description

Instrument chirurgical pour une installation de chirurgie robotique
La présente invention concerne notamment un instrument chirurgical pour une installation de chirurgie robotique.
Lors d’opérations chirurgicales, il est fréquent d’avoir recours à des techniques d’imagerie médicale, notamment des méthodes de tomographie assistée par ordinateur (« CT-Scan » en anglais), par exemple pour préparer et faciliter la pose d’un implant chirurgical par un chirurgien ou par un robot chirurgical.
Par exemple, un robot chirurgical peut déplacer automatiquement un outil porté en bout de bras en fonction d’une trajectoire calculée à partir d’une position cible prédéfinie indiquant un emplacement anatomique sur lequel un implant doit être posé, cette position étant représentée par un ou plusieurs repères virtuels pré-positionnés sur des images de tomographie.
Un problème général qui se pose dans de telles circonstances est qu’il est nécessaire de pouvoir établir une correspondance entre le référentiel géométrique du patient à opérer et le référentiel géométrique du robot chirurgical, faute de quoi l’implant chirurgical risquerait d’être posé à un emplacement erroné.
C’est à ces besoins que vise à répondre la présente invention, en proposant une installation de chirurgie robotique comportant
-un système robotique chirurgical comprenant une table de support immobile par rapport à une table d’opération ;
-un instrument chirurgical comportant :
-une armature fixée solidairement sans degré de liberté à la table de support ;
-un ou plusieurs écarteurs montés sur l’armature et agencés pour repousser des parois d’une incision pratiquée dans le corps d’un patient.
Grâce à l’invention, la région anatomique du patient à opérer est maintenue solidaire sans degré de liberté au robot chirurgical par l’intermédiaire de l’écarteur qui est physiquement en contact avec le patient.
Grâce à la radio-opacité du marqueur, sa position et sa forme sont visibles sur les images acquises par un système d’imagerie, ce qui permet d’établir une correspondance entre un référentiel géométrique du robot chirurgical et un référentiel géométrique du patient.
Selon des aspects avantageux mais non obligatoires, un tel instrument chirurgical peut incorporer une ou plusieurs des caractéristiques suivantes, prises isolément ou suivant toute combinaison techniquement admissible :
- L’armature le ou chaque écarteur est réalisé dans un matériau radio-transparent.
- Le ou chaque écarteur est en outre configuré pour immobiliser une colonne vertébrale du patient rendue accessible par l’incision.
- L’installation comporte en outre un capteur de déplacements, tel qu’une centrale inertielle.
- Le capteur de déplacement est monté solidaire du patient ou de l’instrument chirurgical.
- L’installation comporte en outre une unité de calcul de trajectoire programmée pour enregistrer les mouvements du patient mesurés par le capteur de déplacement et pour corriger automatiquement des positions ou trajectoires d’un bras de robot du système robotique en fonction des mouvements mesurés.
- Un marqueur radio-opaque est associé avec l’instrument chirurgical, par exemple monté solidairement avec l’instrument chirurgical.
- L’armature est formée par assemblage d’une pluralité de barreaux de forme cylindrique.
L’invention sera mieux comprise et d’autres avantages de celle-ci apparaîtront plus clairement à la lumière de la description qui va suivre d’un mode de réalisation d’un instrument chirurgical pour une installation de chirurgie robotique donnée uniquement à titre d’exemple et faite en référence aux dessins annexés, dans lesquels :
la figure 1 représente schématiquement une vertèbre humaine dans un plan de coupe axiale ;
la figure 2 représente schématiquement un système informatique selon un mode de réalisation de l’invention comportant un système de traitement d’image et un robot chirurgical ;
la figure 3 représente schématiquement un repère de visée positionné dans une portion de colonne vertébrale humaine ainsi que des images de ladite portion de colonne vertébrale dans des plans de coupe anatomique sur lesquelles est affiché le repère de visée ;
la figure 4 est un diagramme de flux d’un procédé de traitement d’image conforme à des modes de réalisation de l’invention ;
la figure 5 représente schématiquement la construction d’une image résultante à partir d’images acquises par tomographie au cours du procédé de la figure 4 ;
la figure 6 illustre un exemple d’une image d’une portion de colonne vertébrale humaine selon une vue frontale reconstruite au moyen du procédé de la figure 4 ainsi que des images de ladite portion de colonne vertébrale dans des plans de coupe anatomique sur lesquelles est affiché le repère de visée ;
la figure 7 représente schématiquement un écarteur faisant partie du système de la figure 2 ;
la figure 8 représente schématiquement un dispositif de recalage ;
la figure 9 est un diagramme de flux d’un procédé de fonctionnement d’un robot chirurgical selon des modes de réalisation pour poser un implant chirurgical.
La description qui va suivre est faite à titre d’exemple en référence à une opération de traitement chirurgical de la colonne vertébrale d’un patient au cours de laquelle sont posés un ou plusieurs implants rachidiens.
L’invention n’est pas limitée à cet exemple et d’autres applications sont possibles, notamment des applications orthopédiques, telles que la chirurgie du bassin ou, plus généralement, la pose de tout implant chirurgical devant être au moins partiellement ancré dans une structure osseuse d’un patient humain ou animal, ou encore la découpe ou le perçage d’une telle structure osseuse. La description ci-dessous peut donc être généralisée et transposée à ces autres applications.
Sur la figure 1 est représentée une structure osseuse 2 dans laquelle est posé un implant chirurgical 4 selon une direction d’implantation X4.
Par exemple, la structure osseuse 2 est une vertèbre humaine, ici illustrée dans un dans un plan de coupe axiale.
L’implant 4 inclut ici une vis pédiculaire insérée dans la vertèbre 2 et alignée le long de la direction d’implantation X4.
Cette vis pédiculaire porte la référence « 4 » dans ce qui suit.
La vertèbre 2 comporte un corps 6 traversé par un canal 8, deux pédicules 10, deux processus transverses 12 et un processus épineux 14.
La direction d’implantation X4 s’étend le long d’un des pédicules 10.
La référence X4’ définit une direction d’implantation correspondante pour une autre vis pédiculaire 4 (non illustrée sur la figure 1) et qui s’étend le long de l’autre pédicule 10, généralement symétriquement à la direction X4.
Une difficulté notable survenant lors d’une opération chirurgicale de pose des implants 4 consiste à déterminer les directions d’implantation X4 et X4’. Les vis pédiculaires 4 ne doivent pas être posées trop près du canal 8 ni trop près du bord extérieur du corps 6 pour ne pas endommager la vertèbre 2. Elles ne doivent pas non plus être enfoncées trop profondément pour ne pas dépasser du corps antérieur, ni trop courtes pour ne pas risquer d’être accidentellement expulsée. Un des aspects du procédé décrit ci-après permet de faciliter cette détermination avant la pose des implants.
Sur la figure 2 est représentée une installation chirurgicale robotique 20 comportant un système robotique chirurgical 22 pour opérer un patient 24.
L’installation chirurgicale 20 est par exemple placée dans un bloc opératoire.
Le système robotique chirurgical 22 comporte un bras de robot portant un ou plusieurs outils effecteurs, par exemple un outil de perçage osseux ou un outil de vissage. Ce système est simplement nommé « robot chirurgical 22 » dans ce qui suit.
Le bras de robot est fixé à une table de support du robot chirurgical 22.
Par exemple, la table de support est disposée près d’une table d’opération destinée à recevoir le patient 24.
Le robot chirurgical 22 comporte un circuit électronique de commande configuré pour déplacer automatiquement le ou les outils effecteurs grâce à des actionneurs en fonction d’une position de consigne ou d’une trajectoire de consigne.
L’installation 20 comporte un système d’imagerie médicale configuré pour acquérir une image numérique radioscopique tridimensionnelle d’un objet cible, tel qu’une région anatomique du patient 24.
Le système d’imagerie médicale comporte un appareil d’imagerie médicale 26, une unité de traitement d’image 28 et une interface homme-machine 30.
Par exemple, l’appareil 26 est un appareil de tomographie à rayons X assistée par ordinateur.
L’unité de traitement d’image 28 est configurée pour piloter l’appareil 26 et pour générer l’image numérique radioscopique tridimensionnelle à partir de mesures radiologiques effectuées par l’appareil 26.
Par exemple, l’unité de traitement 28 comporte un circuit électronique ou un ordinateur programmé pour exécuter automatiquement un algorithme de traitement d’image, par exemple au moyen d’un microprocesseur et d’un code logiciel enregistré dans un support d’enregistrement de données lisible par ordinateur.
L’interface homme-machine 30 permet à un opérateur de piloter et/ou de superviser le fonctionnement du système d’imagerie.
Par exemple, l’interface 30 comporte un écran d’affichage et des moyens de saisie de données tels qu’un clavier et/ou ou un écran tactile et/ou un dispositif de pointage tel qu’une souris ou un stylet ou tout moyen équivalent.
L’interface homme-machine 30 permet aussi à un opérateur de piloter et/ou de superviser le fonctionnement du robot chirurgical 22.
Par exemple, l’installation 20 comporte un système de planification opératoire comprenant une interface homme-machine 31, une unité de planification 32 et un calculateur de trajectoire 34, ce système de planification portant ici la référence 36.
L’interface homme-machine 31 permet à un opérateur d’interagir avec l’unité de traitement 32 et le calculateur 34, voire de piloter et/ou de superviser le fonctionnement du robot chirurgical 22.
Par exemple, l’interface homme-machine 31 comporte un écran d’affichage et des moyens de saisie de données tels qu’un clavier et/ou ou un écran tactile et/ou un dispositif de pointage tel qu’une souris ou un stylet ou tout moyen équivalent.
L’unité de planification 32 est programmée pour acquérir des coordonnées de position d’un ou de plusieurs repères virtuels définies par un opérateur au moyen de l’interface homme-machine 31 et, si nécessaire, pour convertir les coordonnées d’un référentiel géométrique à un autre, par exemple depuis un référentiel de l’image vers un référentiel du robot 22.
Le calculateur de trajectoire 34 est programmé pour calculer automatiquement des coordonnées d’une ou de plusieurs positions cibles, par exemple pour former une trajectoire cible, notamment en fonction du ou des repères virtuels déterminés par l’unité de planification 32.
A partir de ces coordonnées, le calculateur de trajectoire 34 fournit des consignes de positionnement au robot 22 afin de placer correctement le ou les outils effecteurs en vue de réaliser tout ou partie des étapes de pose des implants 4.
L’unité de planification 32 et le calculateur de trajectoire 34 comprennent un circuit électronique ou un ordinateur comportant un microprocesseur et un code logiciel enregistré dans un support d’enregistrement de données lisible par ordinateur.
Sur la figure 3 est représentée une image tridimensionnelle 40 d’un objet cible, tel qu’une structure anatomique du patient 24, de préférence une structure osseuse, telle qu’une portion de colonne vertébrale du patient 24.
Par exemple, l’image tridimensionnelle 40 est reconstruite automatiquement à partir de données brutes, notamment à partir d’une image brute générée par l’appareil d’imagerie 26, telle qu’une image numérique conforme au standard DICOM (« Digital imaging and communications in medicine »). La reconstruction est par exemple mise en œuvre par un ordinateur comportant une unité de traitement graphique ou par l’une des unités 28 ou 32.
L’image tridimensionnelle 40 comporte une pluralité de voxels répartis dans un volume tridimensionnel et qui sont chacun associés à une valeur représentative d’une information sur la densité locale de matière de l’objet cible issue de mesures radiologiques effectuées par l’appareil d’imagerie 26. Ces valeurs sont par exemple exprimées sur l’échelle de Hounsfield.
Les régions de l’objet cible de densité élevée sont plus opaques aux rayons X que des régions de faible densité. Selon une convention possible, on affecte aux régions de densité élevée une valeur d’intensité plus élevée que celle des régions de faible densité.
En pratique, les valeurs d’intensité peuvent être normalisées en fonction d’une échelle de valeurs de pixels prédéfinie, telle qu’une échelle d’encodage de type RGB (« Red-Green-Blue »). Par exemple, l’intensité normalisée est un nombre entier compris entre 0 et 255.
L’image tridimensionnelle 40 est par exemple reconstruite à partir d’une pluralité d’images bidimensionnelles correspondant à des plans de coupe de l’appareil 26. Les distances entre les voxels et entre les plans de coupe sont connues et peuvent être enregistrées en mémoire.
Par exemple, à partir de l’image tridimensionnelle 40, l’unité d’imagerie 28 calcule et affiche, sur l’interface 30, des images bidimensionnelles 42 montrant différents plans de coupe anatomique de l’objet cible, telle qu’une coupe sagittale 42a, une coupe frontale 42b et une coupe axiale 42c.
Un repère virtuel 44 est illustré sur l’image 40 et peut être affiché en surimpression sur l’image 40 et sur les images 42a, 42b, 42c.
Le repère virtuel 44 comprend par exemple un ensemble de coordonnées enregistrées en mémoire et exprimées dans le référentiel géométrique propre à l’image 40.
Un opérateur peut modifier l’orientation de l’image 40 affichée sur l’interface 30, par exemple en la faisant tourner ou en l’inclinant, au moyen de l’interface 31.
L’opérateur peut également modifier la position du repère virtuel 44, comme illustré par les flèches 46. De préférence, les images 42a, 42b et 42c sont alors recalculées afin que le repère 44 reste visible dans chacun des plans anatomiques correspondant aux images 42a, 42b et 42c. Cela permet à l’opérateur d’avoir une confirmation de la position du repère 44.
Sur la figure 4 est représenté un procédé de traitement d’image mis en œuvre automatiquement par le système de planification 36.
Au préalable, une image brute de l’objet cible est acquise au moyen du système d’imagerie médicale.
Par exemple, l’image brute est générée par l’unité de traitement 28 à partir d’un ensemble de mesures radiologiques effectuées par l’appareil d’imagerie 26 sur l’objet cible.
Lors d’une étape S100, l’image numérique 40 est automatiquement reconstruite à partir de l’image brute acquise.
Par exemple, l’image brute est transférée depuis le système d’imagerie vers le système de planification 36 par l’intermédiaire des interfaces 30 et 31.
Puis, lors d’une étape S102, un point d’observation est défini par rapport à l’image numérique 40, par exemple en choisissant une orientation particulière de l’image 40 au moyen de l’interface homme-machine 31.
Les coordonnées du point d’observation ainsi défini sont par exemple stockées en mémoire et exprimées dans le référentiel géométrique propre à l’image 40.
Ensuite, lors d’une étape S104, une pluralité de directions d’observation, aussi nommées rayons virtuels, sont définis dans l’image tridimensionnelle 40 comme traversant l’image tridimensionnelle 40 et émanant depuis le point d’observation défini.
Sur la figure 5, le schéma (a) représente un exemple illustratif dans lequel est défini un point d’observation 50 depuis lequel partent deux rayons virtuels 52 et 54 qui se dirigent vers l’image tridimensionnelle 40 et traversent successivement une pluralité de voxels de l’image tridimensionnelle 40.
Seule une partie de l’image tridimensionnelle 40 est ici représentée, de façon simplifiée et à des fins d’illustration, sous la forme de coupes bidimensionnelles 56, 58 et 60 alignées le long d’une droite passant par le point d’observation 50 et contenant chacune des voxels 62 et 64 ici associés à des valeurs d’intensité différentes.
Les rayons virtuels 52 et 54 sont des droites qui divergent depuis le point d’observation 50. Ils ne traversent pas nécessairement les mêmes voxels lors de leur propagation dans l’image 40.
L’étape S104 peut être implémentée de façon analogue à des méthodes informatiques graphiques dites de lancer de rayons (« ray tracing » en anglais), à la différence près que l’étape de projection utilisée dans des méthodes de lancer de rayons n’est ici pas utilisée.
En pratique, le nombre de rayons 52, 54 et le nombre de pixels peut être différent de celui illustré dans cet exemple.
De retour à la figure 4, lors d’une étape S106, pour chaque rayon, une valeur résultante est calculée à partir des valeurs d’intensité respectives des voxels de l’image numérique traversés par ledit rayon.
Dans l’exemple de la figure 5, le schéma (b) représente l’ensemble 66 des valeurs d’intensité des voxels rencontrés par le rayon 52 lors de son cheminement depuis le point d’observation 50. La valeur résultante 68 est calculée à partir de l’ensemble 66 des valeurs d’intensité.
De façon analogue, le schéma (c) représente l’ensemble 70 des valeurs d’intensité des voxels rencontrés par le rayon 52 lors de son cheminement depuis le point d’observation 50. La valeur résultante 72 est calculée à partir de l’ensemble 70 des valeurs d’intensité.
Avantageusement, la valeur résultante est calculée, pour chaque direction d’observation, comme étant égale au produit de l’inverse des valeurs d’intensité des voxels traversés.
Par exemple, pour chaque rayon, la résultante est calculée au moyen de la formule de calcul suivante :
Dans cette formule de calcul, l’indice « i » identifie les voxels traversés par le rayon, « ISOi» désigne la valeur d’intensité normalisée associée au i-ième voxel et « Max » désigne la longueur maximale du rayon, par exemple imposée par les dimensions de l’image numérique 40.
Avec cette méthode de calcul, une valeur résultante ainsi calculée sera d’autant plus faible que le rayon aura essentiellement traversé des régions de densité de matière élevée, et sera plus élevée si le rayon a essentiellement traversé des régions de densité faible.
De retour à la figure 4, lors d’une étape S108, une image numérique bidimensionnelle, dite image résultante, est calculée à partir des valeurs résultantes calculées.
L’image résultante peut ensuite être affichée automatiquement sur l’écran de l’interface 31.
En pratique, l’image résultante est une vue à deux dimensions de l’image tridimensionnelle telle qu’elle est vue depuis le point d’observation choisi.
Les valeurs d’intensité des pixels de l’image résultante correspondent aux valeurs résultantes calculées lors des différentes itérations de l’étape S106.
Les valeurs d’intensité sont de préférence normalisées afin de permettre l’affichage de l’image résultante en niveaux de gris sur un écran.
Selon une convention possible (par exemple une échelle RGB), les régions de résultante faible sont représentées visuellement sur l’image avec une teinte plus foncée que les régions correspondant à une résultante élevée.
Sur la figure 6 est représentée une image résultante 80 construite à partir de l’image 40 montrant une portion de colonne vertébrale d’un patient 24.
De préférence, sur l’interface homme-machine 31, les images 42a, 42b et 42c sont également affichées aux côtés de l’image résultante 80 et sont recalculées en fonction de l’orientation donnée à l’image 40.
Le procédé fournit ainsi, au travers d’un processus guidé d’interaction homme-machine, une aide visuelle à un chirurgien ou à un opérateur pour définir plus facilement la position cible d’un implant chirurgical au moyen de repères virtuels de visée.
Dans l’exemple de la chirurgie du rachis, le plan de coupe préférentiel pour facilement apposer les repères de visée correspond à une vue antéro-postérieure de la vertèbre 2.
Les pédicules 10 sont alors alignés perpendiculairement au plan de coupe et sont facilement repérables sur l’image résultante du fait de leur densité plus importante et du fait que leur section transverse, qui se trouve alors alignée dans le plan de l’image, présente une forme spécifique aisément identifiable, par exemple une forme ovale, comme mis en évidence par la zone 82 de la figure 6.
Grâce à cela, un opérateur peut trouver un plan de coupe préférentiel plus rapidement qu’en visualisant une séquence d’images à deux dimensions en changeant à chaque fois des paramètres d’orientation et en essayant de choisir une direction d’orientation à partir de ces seules vues en coupe.
Optionnellement, lors d’une étape S110, les valeurs résultantes sont automatiquement calibrées par rapport à une échelle de valeurs de densité de manière à associer une valeur de densité à chaque valeur résultante. Ainsi, la densité peut être quantifiée et pas seulement montrée visuellement dans l’image 80.
Ce recalage est par exemple réalisé avec l’aide d’un marqueur présent dans le champ de vision de l’appareil 26 lors des mesures radiologiques servant à construire l’image 40, comme on le comprendra grâce à la description faite ci-après en référence à la figure 8.
Par exemple, le marqueur est placé aux côtés de l’objet cible et au moins une portion du marqueur est réalisée en un matériau avec une densité de matière prédéfinie, de sorte qu’une partie de l’image numérique radioscopique tridimensionnelle générée inclut l’image du marqueur de calibration. Lors de la calibration sont automatiquement associées aux valeurs d’intensité des pixels de l’image 80, des valeurs de densité déterminées automatiquement à partir des valeurs d’intensité d’un sous-ensemble de pixels de cette même image associées à la portion du marqueur réalisée dans le matériau ayant la densité de matière prédéfinie.
Optionnellement, l’angle de vue de l’image résultante peut être changé et une nouvelle l’image résultante est alors automatiquement calculée en fonction de la nouvelle orientation sélectionnée. A cette fin, lors d’une étape S112, une nouvelle position du point d’observation est acquise, par exemple au moyen de l’interface 31 en réponse à une sélection de l’opérateur. Les étapes S104, S106, S108 sont alors répétées avec la nouvelle position du point d’observation, pour définir de nouvelles directions d’observation à partir desquelles sont calculées des nouvelles valeurs résultantes pour construire une nouvelle image résultante, qui ne diffère de la précédente image résultante que par la position à partir de laquelle est vu l’objet cible.
Optionnellement, sur l’interface homme machine 31, l’image résultante 80 peut être affichée dans une zone spécifique de l’écran en alternance avec une image bidimensionnelle 42 montrant la même région. Un opérateur peut alterner entre la vue de l’image résultante et l’image 42 à deux dimensions, par exemple s’il souhaite confirmer une interprétation anatomique de l’image.
Sur la figure 9 est représenté un procédé de planification automatique d’une opération chirurgicale, notamment une opération de pose d’un implant chirurgical, mis en œuvre au moyen de l’installation 20.
Lors d’une étape S120, une image numérique radioscopique tridimensionnelle d’un objet cible est acquise au moyen du système d’imagerie médicale puis une image résultante 80 est automatiquement construite puis affichée à partir de l’image tridimensionnelle 40 au moyen d’un procédé de traitement d’image conforme à l’un des modes de réalisation précédemment décrit.
Une fois qu’une image résultante 80 prise dans un plan de coupe approprié est affichée, l’opérateur définit l’emplacement du repère virtuel en utilisant les moyens de saisie de l’interface 31. Par exemple, l’opérateur place ou dessine un segment de droite définissant une direction et des positions du repère virtuel. En variante, l’opérateur peut seulement pointer un point particulier, tel que le centre de la section transverse affichée du pédicule 10. Le repère virtuel peut être affiché sur l’image 80 et/ou sur l’image 40 et/ou les images 42. Plusieurs repères virtuels peuvent être ainsi définis sur une même image.
Lors d’une étape S122 est acquise, par exemple par l’unité de planification 32, la position d’au moins un repère virtuel 44 défini sur l’image 80 par un opérateur au moyen d’une interface homme-machine.
Optionnellement, lors d’une étape S124, postérieurement à l’acquisition d’une position d’un repère virtuel, dit premier repère virtuel, des coordonnées d’un axe de symétrie défini sur une portion de l’image 80 par l’opérateur au moyen de l’interface 31 sont acquises.
Par exemple, l’axe de symétrie est tracé sur l’image 80 par l’opérateur au moyen de l’interface 31. Ensuite, la position d’un deuxième repère virtuel est calculée automatiquement par symétrie du premier repère virtuel par rapport à l’axe de symétrie défini.
Dans le cas d’une vertèbre 2, une fois que la direction X4 a été définie, la direction X4’ peut ainsi être déterminée automatiquement si l’opérateur estime que la vertèbre 2 est suffisamment symétrique.
Un ou plusieurs autres repères virtuels peuvent être définis de manière analogue dans le reste de l’image une fois qu’un repère virtuel a été défini, par exemple entre plusieurs vertèbres successives d’une portion de colonne vertébrale.
Lors d’une étape S126, au moins une position cible, voire une trajectoire cible du robot chirurgical 22, est automatiquement calculée par l’unité 34 à partir de la position acquise du repère virtuel précédemment acquis. Ce calcul peut tenir compte de lois de commande du robot 22 ou d’un programme chirurgical préétabli.
Par exemple, ce calcul comporte le calcul par l’unité 34 des coordonnées du repère virtuel dans un référentiel géométrique lié au robot chirurgical 22 à partir des coordonnées dudit repère virtuel dans un référentiel géométrique propre à l’image numérique.
Selon une possibilité, le référentiel du robot 22 est lié mécaniquement sans degré de liberté au référentiel géométrique de l’image numérique 40, par exemple immobilisant le patient 24 avec la table de support du robot 22, ce qui permet d’établir une correspondance entre un référentiel géométrique du robot chirurgical et un référentiel géométrique du patient. Cette immobilisation est ici réalisée grâce à des écarteurs connectés à la table de support du robot 22, comme expliqué ci-après.
Optionnellement, lorsque l’étape de calibration S110 est mise en œuvre, les valeurs de densité peuvent être utilisées lors du calcul de la trajectoire ou de paramètres de programmation du robot 22. Par exemple, un outil de perçage osseux devra appliquer un couple de perçage plus élevé dans des régions osseuses pour laquelle une densité osseuse plus élevée a été mesurée.
Une fois calculées, les coordonnées de position et/ou de trajectoire peuvent ensuite être transmises au robot 22 pour positionner un outil de manière à réaliser une opération chirurgicale, notamment de pose d’un implant chirurgical, ou tout au moins à assister un chirurgien à réaliser cette opération chirurgicale.
Sur la figure 7 est représenté un exemple d’un instrument chirurgical 90 permettant d’immobiliser le patient 24 avec la table de support du robot 22 et comportant un écarteur pour repousser des parois d’une incision 92 pratiquée dans le corps 94 du patient 24 comportant des bras écarteurs 96 montés sur une armature 98.
Chaque bras écarteur 96 comporte un outil d’écartement 100 monté à une extrémité d’un barreau 102 fixé sur l’armature 100 grâce à un dispositif de fixation 104 réglable au moyen d’un bouton de réglage 106.
L’armature 98 comporte un système de fixation grâce auquel elle peut être fixée solidairement sans degré de liberté au robot 22, de préférence à la table de support du robot 22.
L’armature 98 est ici formée par assemblage d’une pluralité de barreaux, ici de forme tubulaire, ces barreaux comportant notamment un barreau principal 108 fixé solidairement sans degré de liberté à la table de support du robot 22, des barreaux latéraux 110 et un barreau avant 112 sur lequel sont montés les bras écarteurs 96. Les barreaux sont fixés entre eux à leurs extrémités respectives par des dispositifs de fixation 114 semblables aux dispositifs 104.
L’armature 98 est disposée de manière à surplomber le corps 94 du patient et présente ici une forme essentiellement rectangulaire.
De préférence, l’armature 98 et les bras écarteurs 96 sont réalisés dans un matériau radio-transparent, de manière à ne pas être visibles sur l’image 40.
L’écarteur 96 peut être configuré pour immobiliser la colonne vertébrale du patient 24 rendue accessible par l’incision 92, ce qui permet de lier encore mieux le patient au référentiel du robot 22 et d’éviter tout mouvement susceptible d’induire un décalage spatial entre l’image et la position réelle du patient.
Optionnellement, comme illustré sur la figure 8, un marqueur de calibration 116 réalisé dans un matériau radio-opaque, c’est-à-dire un matériau opaque aux rayons X, peut être utilisé dans l’installation 20.
Le marqueur 116, aussi nommé marqueur de recalage, peut être maintenu solidaire de l’armature 98, bien que ce ne soit pas nécessaire. Par exemple, le marqueur 116 peut être fixé en bout du bras de robot.
Au moins une partie du marqueur 116 présente une forme géométrique régulière, de manière à être aisément identifiable sur les images 40 et 80.
Par exemple, le marqueur 116 comporte un corps 118, par exemple de forme cylindrique, et une ou plusieurs parties 120, 122, 124 en forme de disque ou de sphère, présentant de préférence des diamètres différents. Par exemple, ces diamètres sont supérieurs aux dimensions du corps 118.
Une forme sphérique présente l’avantage d’avoir le même aspect quel que soit l’angle d’observation.
Au moins une portion du marqueur 116, de préférence celles ayant une forme reconnaissable, notamment sphérique, est réalisée en un matériau avec une densité de matière prédéfinie. Lors de l’étape de calibration S110, la calibration d’échelle de densité est réalisée en identifiant cette portion de marqueur sur l’image 40 ou 80, par reconnaissance automatique de formes ou par un pointage manuel de la forme sur l’image par l’opérateur grâce à l’interface 30.
En variante, de nombreux autres modes de réalisation sont possibles.
Le système d’imagerie médicale comportant l’appareil 26 et l’unité 28 peut être utilisé indépendamment du robot chirurgical 22 et du système de planification 36. Le procédé de traitement d’image décrit ci-dessus peut donc être utilisé indépendamment des procédés de planification d’opération chirurgicale décrits ci-dessus. Par exemple, ce procédé de traitement d’image peut être utilisé pour un contrôle non-destructif de pièces mécaniques en utilisant des techniques d’imagerie industrielle.
L’instrument 90 et le procédé de traitement d’image peuvent être utilisés indépendamment l’un de l’autre.
L’instrument 90 peut comporter un capteur de déplacements tel qu’une centrale inertielle, portant la référence 115 sur la figure 7, pour mesurer des mouvements du patient 24 au cours de l’opération et corriger en conséquence les positions ou trajectoires calculées.
Par exemple, le capteur 115 est connecté à l’unité 32 par une liaison de données. L’unité 32 est programmée pour enregistrer les mouvements du patient mesurés par le capteur 115 et pour corriger automatiquement des positions ou trajectoires du bras de robot en fonction des mouvements mesurés.
Les modes de réalisation et les variantes envisagés ci-dessus peuvent être combinés entre eux pour générer de nouveaux modes de réalisation.

Claims (8)

  1. Installation de chirurgie robotique (20), caractérisée en ce qu’elle comporte :
    -un système robotique chirurgical (22) comprenant une table de support immobile par rapport à une table d’opération ;
    -un instrument chirurgical (90) comportant :
    -une armature (98) fixée solidairement sans degré de liberté à la table de support ;
    -un ou plusieurs écarteurs (96) montés sur l’armature et agencés pour repousser des parois d’une incision (92) pratiquée dans le corps (94) d’un patient (24).
  2. Installation selon la revendication 1, dans laquelle l’armature (98) le ou chaque écarteur (96) est réalisé dans un matériau radio-transparent.
  3. Installation selon l’une quelconque des revendications précédentes, dans laquelle le ou chaque écarteur (96) est en outre configuré pour immobiliser une colonne vertébrale du patient rendue accessible par l’incision (92).
  4. Installation selon l’une quelconque des revendications précédentes, laquelle comporte en outre un capteur de déplacements (115), tel qu’une centrale inertielle.
  5. Installation selon la revendication 4, dans laquelle le capteur de déplacement (115) est monté solidaire du patient ou de l’instrument chirurgical (90).
  6. Installation selon la revendication 4 ou 5, laquelle comporte en outre une unité de calcul de trajectoire (34) programmée pour enregistrer les mouvements du patient mesurés par le capteur de déplacement (115) et pour corriger automatiquement des positions ou trajectoires d’un bras de robot du système robotique (22) en fonction des mouvements mesurés.
  7. Installation selon l’une quelconque des revendications précédentes, dans laquelle un marqueur (116) radio-opaque est associé avec l’instrument chirurgical (90), par exemple monté solidairement avec l’instrument chirurgical (90).
  8. Installation selon l’une quelconque des revendications précédentes, dans laquelle l’armature (98) est formée par assemblage d’une pluralité de barreaux de forme cylindrique.
FR1901606A 2019-02-18 2019-02-18 Instrument chirurgical pour une installation de chirurgie robotique Pending FR3092746A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1901606A FR3092746A1 (fr) 2019-02-18 2019-02-18 Instrument chirurgical pour une installation de chirurgie robotique

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1901606 2019-02-18
FR1901606A FR3092746A1 (fr) 2019-02-18 2019-02-18 Instrument chirurgical pour une installation de chirurgie robotique

Publications (1)

Publication Number Publication Date
FR3092746A1 true FR3092746A1 (fr) 2020-08-21

Family

ID=67262564

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1901606A Pending FR3092746A1 (fr) 2019-02-18 2019-02-18 Instrument chirurgical pour une installation de chirurgie robotique

Country Status (1)

Country Link
FR (1) FR3092746A1 (fr)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6033415A (en) * 1998-09-14 2000-03-07 Integrated Surgical Systems System and method for performing image directed robotic orthopaedic procedures without a fiducial reference system
WO2000021442A1 (fr) * 1998-10-09 2000-04-20 Surgical Navigation Technologies, Inc. Separateur vertebral guide par image
US20090227845A1 (en) * 2008-03-04 2009-09-10 Janzen Lo Modular surgery retractor system
WO2014152694A1 (fr) * 2013-03-14 2014-09-25 Curexo Technology Corporation Systèmes et méthodes de surveillance d'une intervention chirurgicale impliquant des régions critiques
DE102016110706A1 (de) * 2016-06-10 2017-12-14 Fehling Instruments Gmbh & Co. Kg Spreizer für die Wirbelsäulenchirurgie

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6033415A (en) * 1998-09-14 2000-03-07 Integrated Surgical Systems System and method for performing image directed robotic orthopaedic procedures without a fiducial reference system
WO2000021442A1 (fr) * 1998-10-09 2000-04-20 Surgical Navigation Technologies, Inc. Separateur vertebral guide par image
US20090227845A1 (en) * 2008-03-04 2009-09-10 Janzen Lo Modular surgery retractor system
WO2014152694A1 (fr) * 2013-03-14 2014-09-25 Curexo Technology Corporation Systèmes et méthodes de surveillance d'une intervention chirurgicale impliquant des régions critiques
DE102016110706A1 (de) * 2016-06-10 2017-12-14 Fehling Instruments Gmbh & Co. Kg Spreizer für die Wirbelsäulenchirurgie

Similar Documents

Publication Publication Date Title
CN105916444B (zh) 由二维x射线图像来重建三维图像的方法
KR101156306B1 (ko) 기구 추적 방법 및 장치
EP2186479B1 (fr) Mesure de grandeurs geometriques intrinseques a un systeme anatomique.
JP4630564B2 (ja) 手術支援装置、方法及びプログラム
US8220994B2 (en) Method for calibrating the position of a laser fan beam relative to the projection geometry of an X-ray device and X-ray device
US20140247260A1 (en) Biomechanics Sequential Analyzer
EP2059904B1 (fr) Procede d'imagerie informatise permettant une reconstruction tridimensionnelle a partir d'images radiographiques bidimensionnelles; dispositif de mise en oeuvre
EP1168249B1 (fr) Procédé et dispositif d'imagerie radiographique pour la reconstruction tridimensionnelle à faible dose d'irradiation
JP2021519646A (ja) 画像におけるアーチファクト低減のためのシステムおよび方法
FR2849241A1 (fr) Procede et dispositif d'imagerie radiographique
JP6767997B2 (ja) 歯科用画像生成システムの画像データの画像向上のための方法
EP3928293A1 (fr) Procédés et systèmes de traitement d'images
WO2023011924A1 (fr) Enregistrement d'image 2d/3d à l'aide d'images brutes 2d de balayage 3d
Hartov et al. Adaptive spatial calibration of a 3D ultrasound system
JP2021508549A (ja) X線撮像システムを較正するための方法及びシステム
JP7439075B2 (ja) パノラマx線撮影画像を編集するためのデバイス及び方法
CN116847799A (zh) 用于导航脊柱手术的增强现实脊柱棒规划和弯曲的计算机实现方法
CN118436438A (zh) 用于将切口标记投射到患者上的方法和系统
FR3092746A1 (fr) Instrument chirurgical pour une installation de chirurgie robotique
WO2024002476A1 (fr) Détermination d'orientation d'électrode à l'aide de paramètres d'imagerie optimisés
EP3706632B1 (fr) Reconstruction de corps mobiles par tomographie assistée par ordinateur
Naik et al. Feature-based registration framework for pedicle screw trajectory registration between multimodal images
CN113855288B (zh) 图像生成方法、装置、电子设备及存储介质
US20240197411A1 (en) System and method for lidar-based anatomical mapping
US20240225583A9 (en) Providing a 3d image dataset

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20200821

RX Complete rejection

Effective date: 20210218