EP1274360A1 - Dispositif medical de positionnement d'informations sur des images intraoperatoires - Google Patents

Dispositif medical de positionnement d'informations sur des images intraoperatoires

Info

Publication number
EP1274360A1
EP1274360A1 EP01911331A EP01911331A EP1274360A1 EP 1274360 A1 EP1274360 A1 EP 1274360A1 EP 01911331 A EP01911331 A EP 01911331A EP 01911331 A EP01911331 A EP 01911331A EP 1274360 A1 EP1274360 A1 EP 1274360A1
Authority
EP
European Patent Office
Prior art keywords
model
real image
operating field
frame
series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP01911331A
Other languages
German (de)
English (en)
Inventor
Gaetan Marti
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Karl Storz SE and Co KG
Original Assignee
2C3D SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 2C3D SA filed Critical 2C3D SA
Publication of EP1274360A1 publication Critical patent/EP1274360A1/fr
Ceased legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations

Definitions

  • Document WO 97/03601 also describes such a device.
  • it includes monitoring means which are placed on organs, which allows dynamic overlapping of the real image and the model even when the organs or the camera are moving
  • the positions of the real image and of the model are determined according to a frame of reference linked to the camera TRACKING system.
  • a medical device comprising a display system making it possible to superimpose in real time and dynamically the real image of an operating field with a model of this same field, the positions of the real image and of the model. being determined with respect to the same frame of reference which is fixed with respect to the operating field and which is visible on the real image
  • any measurement of the position of the organs and the superimposition of their real image with the corresponding model can be carried out only in the context of the operating field as viewed on the real image.
  • the medical device of the present invention can be used with one or more cameras. If only one camera is used, a fixed reference frame is used which includes at least 3 points visible on the real image.
  • the fixed frame of reference can have any shape, as long as it has a sufficient number of points on the real image and it is fixed relative to the operating field (the organs) It can be natural (anatomical marks) or artificial In this last category, it can be placed mechanically (incisions), chemically (biocompatible ink) or with the use of external markers (artificial object placed / positioned in the operating field)
  • the reference system consists of at least 3 branches, the assembly being adapted to be simply placed on the organs to be operated or on neighboring organs which are fixed relative to the organs to be operated
  • the device further comprises a series of reference points on a deformable member, these points being used to deform and adapt all or part of the model relative to the actual deformations
  • a 3D model of the operating field is generally reconstructed using segmentation techniques, different benchmarks are chosen on the model (it can be, for example, relevant anatomical benchmarks) and incidentally information is added to the model.
  • added information we can cite objects which correspond to real objects which are not visualized on the real image as observed during the operation as useful landmarks to locate pathologies or navigation information for the surgeons (anatomical place where an organ must -be resected for example)
  • the position of the markers of the real image and of the model is recorded relative to the fixed frame of reference in the following manner
  • Figure 1 shows an overview of a device according to the invention
  • FIG. 2 illustrates a fixed frame of reference which can be used within the framework of the present invention
  • FIG. 3 illustrates an example of superposition of a model on an endoscopic image
  • FIG. 4 illustrates an example of superposition of an ultrasound image on an endoscopic image
  • the device shown diagrammatically in FIG. 1 comprises an optical system (4) intended to visualize an operating field (2)
  • operating field is meant the region of the patient (1) who is the subject of an operation and who must be visualized .
  • the images captured by the optical system (4) are sent to a digital processing module (6)
  • the device also includes a database (5) which contains models of the operating field (2) which have been previously reconstituted from imagers, such as a CT-Scan or an MRI.
  • the images of the models are then superimposed with the real images of the operating field (2) by means of a display device (8) which is in the form of a screen or any other device (high vision system, microscope ( binocular) with integrated screen, etc.)
  • the surgeon (7) can interact on the signal processing module (6) through an interaction device (12) to for example include information on the models which will be displayed on the screen (8).
  • fixed reference system (3) is meant any system fixed with respect to the operating field and more precisely with respect to the organs which are the subject of the operation.
  • FIG. 2 A fixed reference system (3) which can be used within the framework of the present invention is illustrated in FIG. 2.
  • It essentially consists of a rod (13) provided towards one of its ends (14) with three branches (9) placed perpendicularly to the rod (13) and spaced from each other by an angle of about 120 °.
  • ends (9) of the branches and the neighboring end of the rod (14) act as reference points.
  • Part or all of the fixed reference system (3) is placed on the organ to be operated or on a close surface which is fixed relative to it.
  • FIG. 3 illustrates an example of superposition of a model on an endoscopic image.
  • the model helps the surgeon or any other interaction system (robot, "therapeutic” probe, etc.) to locate the regions that need to be treated.
  • FIG. 4 illustrates an example of superposition of an ultrasound image (11) obtained by an ultrasound probe (10).
  • the ultrasound image (1 1) being visible provided that the fixed frame of reference (3) and the imager are also visible.

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

La présente invention se rapporte à un dispositif médical comprenant un système d'affichage permettant de superposer et mettre en correspondance en temps réel et de manière dynamique l'image réelle d'un champ opératoire avec un modèle de ce même champ ou d'éléments qu'il comporte.

Description

Dispositif médical de positionnement d'informations sur des images intraopératoires
La présente invention se rapporte à un dispositif médical comprenant un système d'affichage permettant de superposer et mettre en correspondance en temps réel et de manière dynamique l'image réelle d'un champ opératoire avec un modèle de ce même champ ou des informations statiques ou dynamiques qui lui sont propres
De nos jours, il existe une pluralité d'outils préopératoires tels que l'IRM, le CT-Scan, l'échographie, les ultrasons, les rayons X dont on peut tirer les reconstructions en 3 dimensions (3D)
Les informations obtenues par ces outils sont ensuite utilisées par le chirurgien lors de l'opération
L'utilisation de l'information fournie par les outils préopératoires souffre hélas d'un défaut majeur En effet, avant l'opération, le chirurgien doit mémoriser l'information fournie par les outils préopératoires, ce qui ne peut être fait que partiellement et, dans bien des cas, que de façon subjective
Depuis un certain temps, le besoin s'est fait ressentir de mettre a la disposition du chirurgien, durant l'acte et à la demande l'information en provenance des outils préopératoires
Plusieurs documents brevets décrivent des dispositifs permettant de superposer en temps réel l'image du champ opératoire avec un modèle de ce même champ On peut citer à titre d'exemple les documents US 5 765 561 , US 4 989 083 et WO 96/10949
Le document WO 97/03601 décrit également un tel dispositif Dans un mode de réalisation, il comprend des moyens de suivi qui sont places sur des organes, ce qui permet d'assurer une superposition dynamique de i image réelle et du modèle même lorsque les organes ou la caméra se déplacent
Afin de réaliser la superposition, on détermine les positions de l'image réelle et du modèle en fonction d'un référentiel lié au système de SUIVI de la caméra
Une telle configuration présente cependant un certain nombre d'inconvénients Etant donne que la position de la caméra, du champ opératoire (les organes) et du modèle préopératoire doivent toujours être suivies en continu, il importe de recourir a un système relativement complexe et onéreux Le SUIVI du déplacement des organes, en particulier, nécessite la mise en place de tout un système de câblage et de marqueurs/émetteurs
La présente invention présente notamment le grand avantage de remédier aux problèmes précités
Elle se rapporte a un dispositif médical comprenant un système d'affichage permettant de superposer en temps réel et de manière dynamique l'image réelle d'un champ opératoire avec un modèle de ce même champ, les positions de l'image réelle et du modèle étant déterminées par rapport a un même référentiel qui est fixe par rapport au champ opératoire et qui est visible sur l'image réelle
Avec une telle configuration, le suivi de la caméra et sa position par rapport au modèle n ont plus besoin d'être pratiques, d ou une simplification du dispositif
En fait, dans la présente invention, toute mesure de la position des organes et la superposition de leur image réelle avec le modèle correspondant peuvent être effectuées dans le seul contexte du champ opératoire tel que visualisé sur l'image réelle
Le dispositif médical de la présente invention peut être utilisé avec une ou plusieurs caméras Si seulement une caméra est utilisée, on utilise un référentiel fixe qui comprend au moins 3 points visibles sur I image réelle Le référentiel fixe peut avoir n'importe quelle forme, pour autant qu'il présente un nombre suffisants de points sur l'image réelle et qu'il soit fixe par rapport au champ opératoire (les organes) Il peut être naturel (marques anatomiques) ou artificiel Dans cette dernière catégorie, il peut être placé mécaniquement (incisions), chimiquement (encre biocompatible) ou avec l'utilisation de marqueurs externes (objet artificiel placé / positionné dans le champ opératoire)
Selon un mode préférentiel de I invention, le référentiel est constitué d au moins 3 branches, l'ensemble étant adapté pour être simplement pose sur les organes a opérer ou sur des organes avoisinants qui sont fixes par rapport aux organes a opérer
Selon un autre mode préférentiel de l'invention, le dispositif comporte en outre une série de points de référence sur un organe déformable, ces points étant utilisés pour déformer et adapter tout ou partie du modèle relativement aux déformations réelles
La superposition de l'image réelle avec le modèle se réalise en effectuant les étapes suivantes
Dans une première phase, l'image du champ opératoire est acquise et mémorisée à l'aide d'outils appropriés tels que scanner, IRM ou dispositif d'échographie A partir de cette information, un modèle 3D du champ opératoire est reconstitué généralement en utilisant des techniques de segmentation, différents repères sont choisis sur le modèle (il peut s agir, par exemple, de repères anatomiques pertinents) et accessoirement des informations sont rajoutées sur le modèle A titre d'exemple d'informations ajoutées, on peut citer des objets géométriques qui correspondent à des objets réels qui ne sont pas visualisés sur l'image réelle telle qu'observée lors de I opération comme des points de repères utiles pour localiser des pathologies ou des informations de navigation pour le chirurgiens (lieu anatomique où un organe doit-être réséqué par exemple) Lors de la phase opératoire proprement dite, on enregistre la position des repères de l'image réelle et du modèle par rapport au référentiel fixe de la manière suivante
Lorsque au moins 3 points connus du référentiels sont visibles dans l'image, il est possible grâce à des techniques de SUIVI de marques de connaître leur position 3D relativement à l'imageur Cette technique est connue dans la littérature sous le nom de « the Perspective-Three-Point Problem » Dementon
Parmi les techniques de pointage des repères une possibilité est d'utiliser un outil marqué (3 points) et reperable dans l image Comme précédemment, la position de son extrémité c'est a dire des points anatomiques recherchés, est connue dans le référentiel de l'imageur - On en déduit ensuite la position 3D des repères relativement au référentiel fixe
Connaissant la position 3D des repères anatomiques relativement au référentiel fixe, il devient ainsi possible de superposer constamment le modèle, à l'aide d'un moteur de rendu 3D, avec I image réelle correspondante pour autant qu'une partie de référentiel soit visible
Plusieurs applications de la présente invention peuvent être envisagées La liste ci-apres en offre quelques exemples
Positionner en temps réel un organe reconstruit (virtuel) dans un champ opératoire réel pour avoir accès à des informations non visibles
Détecter en 3 dimensions I extrémité et/ou l'orientation de I outil d'un chirurgien par rapport au référentiel du système ou le référentiel du système fixe Ceci peut être réalise a l'aide de 3 marques placées sur l'outil ou de 2 marques dans le cas d'un système stéréoscopique La même technique pourrait être utilisée pour piloter un robot - Utiliser un imageur intra-opératoire supplémentaire tel qu'une sonde ultrason et de détecter sa position et son orientation par une technique de marquage de l'imageur (voir point précédent). Dans ce cas, on peut également concevoir de superposer les images provenant de l'imageur avec le modèle et l'image réelle.
Utiliser une sonde ultrason à effet Doppler pour calculer les flux sanguins dans un système vasculaire En mettant en relation les images de la sonde ultrason avec le modèle, il devient possible de modéliser le flux sanguin dans un modèle 3D avant de faire superposer éventuellement celui-ci avec l'image réelle
Des exemples de réalisation de l'invention seront décrits par la suite au moyen des figures suivantes :
La figure 1 présente une vue d'ensemble d un dispositif selon l'invention
La figure 2 illustre un référentiel fixe pouvant être utilisé dans le cadre de la présente invention La figure 3 illustre un exemple de superposition d'un modèle sur une image endoscopique La figure 4 illustre un exemple de superposition d'une image ultrason sur une image endoscopique
Le dispositif schématisé à la figure 1 comprend un système optique (4) destiné à visualiser un champ opératoire (2) Par champ opératoire, on entend la région du patient (1 ) qui fait l'objet d'une opération et qui doit être visualisée.
Les images capturées par le système optique (4) sont envoyées dans un module de traitement digital (6) Le dispositif comprend également une base de données (5) qui contient des modèles du champ opératoire (2) qui ont étés reconstitues préalablement à partir d'imageurs, comme par exemple un CT- Scan ou un IRM. Les images des modèles sont ensuite superposées avec les images réelles du champ opératoire (2) au moyen d'un dispositif d'affichage (8) qui se présente sous forme d'un écran ou tout autre dispositif (système de vision haute, microscope (binoculaire) avec écran intégre, etc ) Le chirurgien (7) peut interagir sur le module de traitement du signal (6) par le biais d'un périphérique d'interaction (12) pour par exemple inclure des informations sur les modèles qui seront affichés à l'écran (8).
Afin de réaliser la superposition du modèle et de son image réelle correspondante, on place un référentiel fixe (3) qui doit être visible dans le champ du système optique (4).
Comme on l'a vu précédemment, par référentiel fixe (3), on entend tout système fixe par rapport au champ opératoire et plus précisément par rapport aux organes qui font l'objet de l'opération.
Un référentiel fixe (3) qui peut être utilisé dans le cadre de la présente invention est illustré à la figure 2.
Il se compose essentiellement d'une tige (13) munie vers l'une de ses extrémités (14) de trois branches (9) placées perpendiculairement par rapport à la tige (13) et éloignées les unes des autres d'un angle d'environ 120°.
Dans ce cas, les extrémités (9) des branches et l'extrémité avoisinante de la tige (14) font office de point de repères.
Une partie ou l'ensemble du référentiel fixe (3) est posé sur l'organe à opérer ou sur une surface proche qui est fixe par rapport à celui-ci.
La superposition d'un modèle avec son image réelle correspondante s'effectue comme décrit plus haut dans le texte.
La figure 3 illustre un exemple de superposition d'un modèle sur une image endoscopique. Le modèle aide le chirurgien ou tout autre système d'interaction (robot, sonde "thérapique" etc.) pour notamment localiser les régions qui doivent être traitées. La figure 4 illustre un exemple de superposition d'une image ultrason (11) obtenue par une sonde ultrason (10). L'image ultrason (1 1 ) étant visible pour autant que le référentiel fixe (3) et l'imageur le soient également.
Bien entendu, l'invention ne se limite pas aux exemples décrits précédemment.
Elle s'applique à tout système superposition utilisant un référentiel fixe par rapport au champ opératoire et qui est visible sur l'image capturée par le système optique.

Claims

Revendications
1. Dispositif médical comprenant un système d'affichage permettant de superposer en temps réel et de manière dynamique l'image réelle d'un champ opératoire avec un modèle relatif à ce champ, les positions de I image réelle et du modèle étant déterminées par rapport à un même référentiel, caractérisé par le fait que le référentiel est fixe par rapport au champ opératoire et que tout ou partie est visible sur l'image réelle
2 Dispositif selon la revendication 1 , caractérisé par le fait qu'il est constitué d'une caméra et qu'au moins 3 points du référentiel fixe sont visibles sur l'image réelle
3 Dispositif selon la revendication 1 , caractérisé par le fait qu'il est constitué d'un système de caméras stéréoscopique et qu'au moins 3 points du référentiel fixe sont visibles sur l'image réelle
4 Dispositif selon l'une quelconque des revendications précédentes, caractérisé par le fait que le référentiel fixe est composé d'un ou plusieurs repères anatomiques
5. Dispositif selon l'une quelconque des revendications précédentes, caractérisé par le fait que le référentiel fixe comprend au moins 3 branches et est adapte pour être posé sur le champ opératoire
6 Utilisation du dispositif de I une quelconque des revendications précédentes, caractérisée par le fait qu'elle comprend les étapes suivantes ' a) Le champ opératoire est mémorisé et mémorisé en 2 ou plus dimensions b) Une série de points de repères sont ensuite choisis sur le modèle du champ opératoire Optionnellement, lors de cette étape, des informations sont rajoutées ou supprimées sur le modèle c) La série de points de repères de l'image réelle et la série des points de repères correspondant du modèle sont enregistrées par rapport au référentiel fixe. d) A l'aide d'un moteur de rendu 3D et d'algorithmes de positionnement ad hoc, le modèle est ainsi constamment superposé dynamiquement a I image réelle correspondante et positionné correctement à l'intérieur de celle-ci même lorsque la caméra se déplace
7. Utilisation du dispositif de l'une quelconque des revendications précédentes, caractérisée par le fait qu'elle comprend les étapes suivantes a) Le champ opératoire est mémorise et modélise en 3 dimensions b) La série de points de repères de l'image réelle et la série des points de repères correspondant du modèle sont enregistrées par rapport au référentiel fixe c) Une série de points de repères sont ensuite choisis sur le modèle du champ opératoire Optionnellement, lors de cette étape, des informations sont rajoutées ou filtrées sur le modèle d) A l'aide d'un moteur de rendu 3D et d'algorithmes de positionnement ad hoc, le modèle est ainsi constamment superposé a l'image réelle correspondante et positionné correctement à l'intérieur de celle-ci
8. Dispositif selon la revendication 1 , caractérisé par le fait qu'il comporte une série de points de référence destinés à être placés ou figures sur un organe déformable
9 Dispositif selon l'une quelconque des revendications précédentes, caractérisé par le fait qu'il est utilise en association avec un outil chirurgical muni de plusieurs marques afin de détecter sa position en
3 dimensions par rapport au référentiel fixe ou au référentiel du système d'affichage
EP01911331A 2000-04-10 2001-03-21 Dispositif medical de positionnement d'informations sur des images intraoperatoires Ceased EP1274360A1 (fr)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CH7142000 2000-04-10
CH7142000 2000-04-10
PCT/CH2001/000182 WO2001076496A1 (fr) 2000-04-10 2001-03-21 Dispositif medical de positionnement d'informations sur des images intraoperatoires

Publications (1)

Publication Number Publication Date
EP1274360A1 true EP1274360A1 (fr) 2003-01-15

Family

ID=4530989

Family Applications (1)

Application Number Title Priority Date Filing Date
EP01911331A Ceased EP1274360A1 (fr) 2000-04-10 2001-03-21 Dispositif medical de positionnement d'informations sur des images intraoperatoires

Country Status (3)

Country Link
EP (1) EP1274360A1 (fr)
AU (1) AU2001240413A1 (fr)
WO (1) WO2001076496A1 (fr)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6741883B2 (en) * 2002-02-28 2004-05-25 Houston Stereotactic Concepts, Inc. Audible feedback from positional guidance systems
US7398116B2 (en) 2003-08-11 2008-07-08 Veran Medical Technologies, Inc. Methods, apparatuses, and systems useful in conducting image guided interventions
US8150495B2 (en) 2003-08-11 2012-04-03 Veran Medical Technologies, Inc. Bodily sealants and methods and apparatus for image-guided delivery of same
US20070066881A1 (en) 2005-09-13 2007-03-22 Edwards Jerome R Apparatus and method for image guided accuracy verification
EP1924198B1 (fr) 2005-09-13 2019-04-03 Veran Medical Technologies, Inc. Dispositif de vérification de précision utilisant un guidage par images
US8696549B2 (en) 2010-08-20 2014-04-15 Veran Medical Technologies, Inc. Apparatus and method for four dimensional soft tissue navigation in endoscopic applications
US10249036B2 (en) 2012-02-22 2019-04-02 Veran Medical Technologies, Inc. Surgical catheter having side exiting medical instrument and related systems and methods for four dimensional soft tissue navigation
US20150146946A1 (en) * 2012-06-28 2015-05-28 Koninklijke Pjilips N.V. Overlay and registration of preoperative data on live video using a portable device
US20150305650A1 (en) 2014-04-23 2015-10-29 Mark Hunter Apparatuses and methods for endobronchial navigation to and confirmation of the location of a target tissue and percutaneous interception of the target tissue
US20150305612A1 (en) 2014-04-23 2015-10-29 Mark Hunter Apparatuses and methods for registering a real-time image feed from an imaging device to a steerable catheter
US11141223B2 (en) * 2017-11-06 2021-10-12 Eb Neuro S.P.A. Apparatus and method for calibrating and measuring target points for cerebral neuro-navigators

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998038908A1 (fr) * 1997-03-03 1998-09-11 Schneider Medical Technologies, Inc. Dispositif et procede de formation d'images
US5868673A (en) * 1995-03-28 1999-02-09 Sonometrics Corporation System for carrying out surgery, biopsy and ablation of a tumor or other physical anomaly

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0695009B2 (ja) 1989-06-29 1994-11-24 オリンパス光学工業株式会社 撮像手段による対象部分の検査方法
FR2652928B1 (fr) * 1989-10-05 1994-07-29 Diadix Sa Systeme interactif d'intervention locale a l'interieur d'une zone d'une structure non homogene.
US5961456A (en) * 1993-05-12 1999-10-05 Gildenberg; Philip L. System and method for displaying concurrent video and reconstructed surgical views
GB9405299D0 (en) * 1994-03-17 1994-04-27 Roke Manor Research Improvements in or relating to video-based systems for computer assisted surgery and localisation
DE4417944A1 (de) * 1994-05-21 1995-11-23 Zeiss Carl Fa Verfahren zum Korrelieren verschiedener Koordinatensysteme in der rechnergestützten, stereotaktischen Chirurgie
US5765561A (en) 1994-10-07 1998-06-16 Medical Media Systems Video-based surgical targeting system
US5776050A (en) 1995-07-24 1998-07-07 Medical Media Systems Anatomical visualization system
DE19747427C2 (de) * 1997-10-28 1999-12-09 Zeiss Carl Fa Vorrichtung zur Knochensegmentnavigation
EP1051123A1 (fr) * 1998-01-28 2000-11-15 Eric Richard Cosman Systeme de suivi d'objets optiques

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5868673A (en) * 1995-03-28 1999-02-09 Sonometrics Corporation System for carrying out surgery, biopsy and ablation of a tumor or other physical anomaly
WO1998038908A1 (fr) * 1997-03-03 1998-09-11 Schneider Medical Technologies, Inc. Dispositif et procede de formation d'images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of WO0176496A1 *

Also Published As

Publication number Publication date
AU2001240413A1 (en) 2001-10-23
WO2001076496A1 (fr) 2001-10-18

Similar Documents

Publication Publication Date Title
EP2190340B1 (fr) Système d'imagerie pour l'observation tridimensionnelle d'un champ opératoire
FR2779339A1 (fr) Procede et appareil de mise en correspondance pour la chirurgie robotisee, et dispositif de mise en correspondance en comportant application
EP1274360A1 (fr) Dispositif medical de positionnement d'informations sur des images intraoperatoires
JP5137033B2 (ja) 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム
EP2903495B1 (fr) Système d'imagerie multi-vision pour chirurgie laparoscopique
CN113164219A (zh) 用于图像引导外科手术的跟踪系统
EP3634294B1 (fr) Système d'aide au guidage d'un outil endovasculaire et programme d'ordinateur
EP3366193A1 (fr) Dispositif et procédé de recalage en temps réel de motifs sur des images, notamment pour le guidage par localisation
FR2885510A1 (fr) Systeme et procede pour commander un dispositif d'imagerie medicale.
FR2790196A1 (fr) Dispositif d'observation endoscopique
FR2820629A1 (fr) Procede pour le calibrage d'un systeme d'assistance pour intervention chirurgicale du type a imagerie medicale
FR3052654A1 (fr) Procede d'estimation de l'orientation relative entre tibia et femur
EP2854668B1 (fr) Dispositif de guidage d'une sonde d'imagerie medicale et procede de guidage d'une telle sonde
EP3911238B1 (fr) Dispositif médical en radiologie interventionnelle de guidage en temps réel d'une aiguille médicale d'opération dans un volume
EP3731758A1 (fr) Procédé et système pour calibrer un système d'imagerie a rayons x
WO2014199085A1 (fr) Systemes de reperage de la position de la camera de tournage pour le tournage de films video
EP4230168A1 (fr) Système de chirurgie rachidienne robotisée
CA3212799A1 (fr) Robot equipe d'une sonde echographique pour le guidage temps-reel d'interventions percutanees
FR2884703A1 (fr) Procede de traitement d'image et appareil associe
FR2801185A1 (fr) Video endoscope securise a profilometre laser integre pour la chirurgie assistee par ordinateur
JP2002000546A (ja) 内視鏡装置
WO2024089352A1 (fr) Systeme d'aide en temps reel a la realisation d'au moins un tunnel osseux par arthroscopie
WO2024056676A1 (fr) Système et procédé de recalage d'un modèle 3d virtuel par affichage en semi-transparence
WO2022167428A1 (fr) Procédé et dispositif de traitement d'images pour l'estimation automatique de la position d'un trocart
WO2020161135A1 (fr) Procédé de détermination virtuelle de la dose de rayonnement x reçue par la peau d'un sujet

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20021108

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE TR

AX Request for extension of the european patent

Free format text: AL;LT;LV;MK;RO;SI

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: 2C3D S.A.

RIN1 Information on inventor provided before grant (corrected)

Inventor name: MARTI, GAETAN

Inventor name: BAUR, CHARLES

19U Interruption of proceedings before grant

Effective date: 20020108

19W Proceedings resumed before grant after interruption of proceedings

Effective date: 20030917

RBV Designated contracting states (corrected)

Designated state(s): DE FR GB IT

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: KARL STORZ GMBH & CO. KG

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20071020