FR2847995A1 - Procede de traitement d'informations de commande transmises par un peripherique de manipulation d'images de modelisation 3d, et installation pour la visualisation d'images medicales en salle d'intervention et/ou d'examen - Google Patents

Procede de traitement d'informations de commande transmises par un peripherique de manipulation d'images de modelisation 3d, et installation pour la visualisation d'images medicales en salle d'intervention et/ou d'examen Download PDF

Info

Publication number
FR2847995A1
FR2847995A1 FR0214994A FR0214994A FR2847995A1 FR 2847995 A1 FR2847995 A1 FR 2847995A1 FR 0214994 A FR0214994 A FR 0214994A FR 0214994 A FR0214994 A FR 0214994A FR 2847995 A1 FR2847995 A1 FR 2847995A1
Authority
FR
France
Prior art keywords
component
control information
components
modeling
translation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0214994A
Other languages
English (en)
Other versions
FR2847995B1 (fr
Inventor
Silva Sonia Da
Yves Trousset
Ferrer Pascal Salazar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Medical Systems Global Technology Co LLC
Original Assignee
GE Medical Systems Global Technology Co LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GE Medical Systems Global Technology Co LLC filed Critical GE Medical Systems Global Technology Co LLC
Priority to FR0214994A priority Critical patent/FR2847995B1/fr
Priority to US10/722,844 priority patent/US20050278711A1/en
Priority to JP2003396595A priority patent/JP4542330B2/ja
Priority to DE10356010A priority patent/DE10356010A1/de
Publication of FR2847995A1 publication Critical patent/FR2847995A1/fr
Application granted granted Critical
Publication of FR2847995B1 publication Critical patent/FR2847995B1/fr
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Procédé de traitement d'informations de commande transmises par un périphérique de manipulation d'images de modélisation 3D du type comportant un élément de préhension manipulé par un utilisateur et des moyens formant capteur qui détectent des efforts et/ou déplacements sur ledit élément de préhension et génèrent, en fonction des efforts et/ou déplacements détectés, des informations de commande qui correspondent les unes à des composantes de translation ou de zoom, les autres à des composantes de rotation pour le mouvement à conférer à la représentation dans l'espace de la modélisation 3D, caractérisée en ce que dans un premier mode de fonctionnement, l'ensemble des informations de commande (A, B, C, x, y, z) est traitée pour modifier la représentation affichée en lui conférant uniquement des mouvements de rotation dans l'espace et en ce que dans un deuxième mode de fonctionnement, les informations de commande sont traitées pour modifier la représentation affichée en lui conférant uniquement des mouvements de translation ou un effet de zoom.

Description

ili
PROCEDE DE TRAITEMENT D'INFORMATIONS DE COMMANDE TRANSMISES PAR UN PERIPHERIQUE DE MANIPULATION D'IMAGES DE MODELISATION 3D ET INSTALLATION POUR LA VISUALISATION D'IMAGES MEDICALES EN SALLE D'INTERVENTION ETIOU D'EXAMEN METTANT EN CEUVRE CE PROCEDE La présente invention est relative à un procédé de traitement d'informations de commande transmises à des moyens de traitement par un périphérique de manipulation d'images de modélisation 3D.
Elle concerne également une installation pour la visualisation d'images médicales en salle d'intervention ou d'examen mettant en oeuvre ce procédé.
On connaît déjà des périphériques de manipulation d'images de modélisation 3D.
Un tel périphérique comporte un élément de préhension destiné à être saisi par l'utilisateur (tête de souris dans le cas d'une souris 3D ou 20 encore manette de type " joystick "), et des moyens formant capteurs d'efforts et/ou de déplacements qui génèrent des informations de commande correspondant aux déplacements et/ou efforts appliqués par l'utilisateur sur la tête de préhension.
Ces informations de commande sont transmises aux moyens de traitement qui gèrent la représentation de la modélisation 3D qui est affichée sur un écran et qui convertissent lesdites informations de commande en des mouvements donnés dans l'espace à ladite représentation. Il existe une demande de plus en plus importante pour que les radiologues ou chirurgiens puissent manipuler des images de modélisation 3D directement au cours d'une intervention.
Les périphériques de manipulation d'images de modélisation 3D connus à ce jour ne le permettent pas de manière optimale.
En particulier, ils ne permettent pas la souplesse de manipulation qui serait souhaitable lorsque l'on visualise des images pendant une opération 10 chirurgicale, par exemple.
Ainsi notamment, en salle d'examen ou d'intervention, le radiologue ou chirurgien se tient debout, ce qui est pour lui une position inconfortable et inhabituelle pour la manipulation d'un périphérique informatique et est 15 susceptible de générer sur le périphérique un certain nombre de mouvements involontaires.
Egalement, lorsque le périphérique est recouvert d'un drap stérile, les frictions de ce drap sur ledit périphérique peuvent entraîner des 20 mouvements parasites.
Par ailleurs, dans le cas d'un périphérique à plus de 3 degrés de liberté, et notamment à 6 degrés de liberté, il peut s'avérer particulièrement difficile pour le chirurgien ou radiologue d'effectuer des mouvements de 25 translation ou des mouvements de rotation parfaitement contrôlés, ce d'autant plus que de tels mouvements correspondent généralement à des mouvements ou efforts relativement proches sur le périphérique.
L'invention propose des solutions qui pallient ces inconvénients. 30 Elle propose notamment un procédé de traitement d'informations de commande transmises par un périphérique de manipulation d'images de modélisation 3D, ledit périphérique comportant un élément de préhension manipulé par un utilisateur et des moyens formant capteur qui détectent des efforts et/ou déplacements sur ledit élément de préhension et génèrent, en fonction des efforts et/ou déplacements détectés, des informations de commande qui correspondent les unes à des composantes de translation 5 ou de zoom, les autres à des composantes de rotation pour le mouvement à conférer à la représentation dans l'espace de la modélisation 3D, caractérisée en ce que dans un premier mode de fonctionnement, l'ensemble des informations de commande est traitée pour modifier la représentation affichée en lui conférant uniquement des mouvements de 10 rotation dans l'espace et en ce que dans un deuxième mode de fonctionnement, les informations de commande sont traitées pour modifier la représentation affichée en lui conférant uniquement des mouvements de translation ou un effet de zoom.
Un tel procédé est avantageusement complété par les différentes caractéristiques suivantes prises seules ou en combinaison: - on met en oeuvre sur les informations de commande un traitement pour le filtrage des composantes de rotation et/ou translation correspondant à des micromouvements; - on combine au moins une composante de rotation et au moins une composante de translation et en ce que la (ou les) composante(s) combinée(s) ainsi obtenue(s) est (sont) utilisée(s) comme composante(s) de rotation dans le premier mode de fonctionnement et comme composante(s) de translation dans le deuxième mode de fonctionnement; 25 - une combinaison mise en oeuvre est une combinaison linéaire; - on met en oeuvre sur les composantes combinées une comparaison destinée à mettre en évidence les petites composantes et en ce que en fonction du résultat de cette comparaison, on remplace la ou les composantes ainsi mises en évidence par une composante nulle; - on remplace une composante combinée par une composante nulle lorsque ladite composante est inférieure à un ratio donné d'au moins une autre composante; - on remplace une composante combinée par une composante nulle lorsque ladite composante est inférieure à la moitié d'au moins une autre composante; - dans le deuxième mode de fonctionnement, on détecte, après la 5 mise en oeuvre du filtrage des micro-mouvements, si la composante de zoom est nulle ou non et en ce que, lorsque celle-ci est non nulle, les autres composantes sont remplacées par des composantes nulles.
L'invention propose également un ensemble comportant un 10 périphérique de manipulation d'images de modélisation 3D, au moins un écran sur lequel lesdites images sont affichées, des moyens de traitement qui commandent l'affichage sur ledit écran, ainsi que des moyens de liaison permettant audit périphérique de transmettre auxdits moyens de traitement des informations de commande, ledit périphérique comportant un élément 15 de préhension manipulé par un utilisateur et des moyens formant capteur qui détectent des efforts et/ou déplacements sur ledit élément de préhension et génèrent, en fonction des efforts et/ou déplacements détectés, des informations de commande qui correspondent les unes à des composantes de translation ou de zoom, les autres à des composantes de 20 rotation pour le mouvement à conférer à la représentation dans l'espace de la modélisation 3D, caractérisée en ce que les moyens de traitement comportent des moyens aptes à mettre en oeuvre le procédé précité Elle propose en outre une installation pour la visualisation d'images 25 médicales, caractérisé en ce qu'elle comporte un ensemble du type précité, le périphérique étant disposé en salle d'intervention et/ou d'examen.
D'autres caractéristiques et avantages de l'invention ressortiront encore de la description qui suit, laquelle est purement illustrative et non 30 limitative et doit être lue en regard des figures annexées sur lesquelles: - la Figure 1 est une représentation schématique d'un périphérique de manipulation d'images et des moyens de traitement auquel il est associé; la Figure 2 illustre différentes étapes d'un traitement conforme à un mode de mise en oeuvre possible pour l'invention.
- La Figure 3 représente schématiquement une salle d'intervention et/ou d'examen qui comporte un périphérique de manipulation d'images 3D.
La Figure 1 illustre un périphérique 1 de manipulation d'images de modélisation 3D et des moyens de traitement 2 auxquels ledit périphérique 15 est relié (par câble ou par une liaison RF par exemple).
Ce périphérique 1 est en l'occurrence une souris 3D qui comporte une tête non représentée qui est articulée sur un support selon 6 degrés de liberté et des moyens la formant capteurs permettant de détecter les 20 mouvements de la tête de préhension selon six composantes correspondant à ces six degrés de liberté et de transmettre aux moyens de commande des informations de commande correspondant à ces six composantes. Ces informations de commande sont transcrites par les moyens de traitement 2 pour donner un mouvement correspondant à la représentation de la modélisation 3D dont elle commande l'affichage sur un écran.
Un exemple de souris 3D de ce type a notamment été décrit dans le 30 brevet US 4 785 180.
Le capteur de cette souris 3D est un capteur optoélectronique qui permet de détecter six composantes: trois composantes de translation dans trois directions correspondant à trois axes perpendiculaires et trois composantes de rotation correspondant aux rotations autour de ces 3 axes.
Dans la suite du présent texte, ces informations de commande sont 5 représentées par 3 paramètres de translation " x ", " y " et " z " et 3 paramètres de rotation " A ", " B " et " C ".
Les 3 paramètres de translation " x ", " y " et " z " correspondent à l'amplitude des composantes du mouvement selon 3 axes perpendiculaires. 10 Les 3 paramètres de rotation " A ", " B " et " C " correspondent à l'amplitude des composantes du mouvement de rotation autour de ces mêmes 3 axes.
Ces 6 paramètres sont transmis aux moyens de traitement qui 15 mettent en oeuvre les étapes illustrées sur la Figure 2.
Selon une première étape (étape 1), les moyens de traitement mettent en oeuvre sur ces informations de commande un filtrage des micro mouvements. Ce filtrage est par exemple un simple seuillage sur les paramètres de translation et de rotation.
On évite ainsi par exemple qu'un micro mouvement sur la souris ou 25 plus généralement le périphérique, d au fait que l'opérateur a bougé le drap stérile qui est disposé sur celle-ci ou d au fait que l'opérateur a effleuré la souris sans véritablement vouloir la commander, soit pris en compte. Dans une deuxième étape (étape 11), les informations de translation et de rotation sont fusionnées.
Notamment, par exemple, on détermine une combinaison linéaire du paramètre correspondant à la translation " x " et du paramètre correspondant à la rotation " B ", ainsi qu'une combinaison linéaire du paramètre correspondant à la translation " y " et du paramètre correspondant à la rotation " A ".
A titre d'exemple, les paramètres " x " et " B " sont sommés et il en est de même pour les paramètres " y " et " A ".
La rotation " C " et la translation " z " ne sont quant à elles pas fusionnées. Les moyens de traitement 2 imposent à l'utilisateur un choix entre un fonctionnement en mode " rotation " et un fonctionnement en mode 15 " translation ".
Les paramètres résultant de l'étape de fusion sont alors utilisés comme paramètres de commande pour le mouvement de rotation, si l'on se trouve dans le mode de fonctionnement " rotation " ou pour le mouvement 20 de translation, si l'on se trouve dans le mode de fonctionnement la " translation ".
Dans la Figure 2, on a illustré le cas o l'on utilise comme paramètres de commande, dans le mode de fonctionnement " rotation ", 25 les paramètres suivants: A' = A + y B' = B + x C' =C Dans le cas du mode de fonctionnement " translation ", on utilise 30 par exemple les nouveaux paramètres de translation suivants: x'= B + x y' = A + x z' = z On comprend ainsi que le mouvement de rotation ou de translation qui sera imposé par l'utilisateur à la représentation 3D qu'il manipule sera 5 plus rapide et efficace: il prendra directement en compte pour un seul mouvement de rotation ou un seul mouvement de translation imposé sur la représentation de la modélisation 3D la somme d'effets de translation et de rotation imposés physiquement par l'utilisateur sur le périphérique qu'il manipule. Dans une troisième étape (étape i1), les paramètres ou valeurs ainsi obtenus sont filtrés pour éliminer les petites composantes de translation/rotation. Par exemple, on compare le paramètre A' à la B'/2 ainsi qu'à C'12. Si A' est inférieur à B'12 ou à C'/2, le paramètre A' est remplacé par une valeur nulle. On supprime ainsi les composantes de rotation ou de translation qui 20 sont négligeables ou petites par rapport aux autres composantes.
Des tests de comparaison similaires sont mis en oeuvre sure les autres paramètres (B',C', x', y').
On notera qu'un tel filtrage des petites composantes permet plus facilement à l'utilisateur d'effectuer une rotation nette autour d'un axe qu'il choisit. Par ailleurs, on notera également que le traitement de filtrage 30 proposé a l'avantage de ne pas empêcher des rotations (respectivement translations) complexes prenant en compte deux ou trois composantes de rotation (resp. translation) à la fois.
Bien entendu, des tests de filtrage ou de comparaison autres que ceux qui viennent d'être décrits pour l'étape 1II sont également possibles.
Lorsque le périphérique est utilisé en mode de fonctionnement 5 " translation ", le mouvement selon l'axe " z " est interprété par les moyens de traitement comme une commande de zoom.
Pour éviter que ce mouvement de zoom ne soit perturbé par des mouvements de translation parasites, on met en oeuvre un filtrage tel que 10 dès qu'il est détecté que la composante " z' " est différente de zéro, les composantes " x' " et " y' " sont remplacées par des valeurs nulles.
De cette façon, on réalise un mouvement de zoom non perturbé et parfaitement net.
On comprend que le dispositif qui vient d'être décrit est particulièrement adapté à une utilisation dans une installation permettant la visualisation d'images médicales en salle d'intervention et/ou d'examen.
Avec une telle installation, le périphérique 1 est disposé en salle d'intervention et/ou d'examen.
C'est ce qu'on a illustré sur la figure 3 sur laquelle on a représenté une salle d'intervention et/ou d'examen 11, et une salle annexe de contrôle 25 12 dans laquelle est disposée l'unité de calcul qui constitue les moyens de traitement d'images 2.
Cette unité 2 gère l'affichage d'images 3D correspondant à des données qu'elle reçoit d'un dispositif d'acquisition d'images médical (non 30 représenté) disposé dans la salle 1 (dispositif d'acquisition fluoroscopique du type à bras en C par exemple): Plus précisément, l'unité 2 reçoit des informations de commande du périphérique 1 qui est manipulé par le chirurgien ou radiologue et qui est disposé dans la salle d'intervention et/ou d'examen 11, sur le côté d'une table 19 destinée à recevoir le patient. Cette unité 2 commande l'affichage 5 d'images 3D sur des moniteurs de visualisation 14 et 15 disposés l'un (moniteur 14) dans ladite salle 11, l'autre (moniteur 15) dans la salle annexe de contrôle 12. Des câbles relient ladite unité 2 au périphérique 1 et aux moniteurs 14 et 15. D'autres moyens pourraient bien entendu être envisagés (transmission RF par exemple).
La salle 11 d'intervention et/ou d'examen comporte en outre au moins deux autres moniteurs, référencés par 16 et 17, présentant des images complémentaires éventuellement reliées à l'image du moniteur 15 à l'aide de l'unité 2 et en fonction d'instructions de commande transmises par 15 le chirurgien ou radiologue via le périphérique 1 On notera que le moniteur 14 de la salle 11 est un moniteur à écran plat, ce qui permet de minimiser son encombrement.
Il est rapporté sur un mur de la salle 11, dans une zone de celle-ci qui permet d'éviter tout risque de collision avec le patient.
Ce moniteur est par exemple disposé en face de la table d'opération, du côté opposé au périphérique 1.
Il est par exemple disposé à gauche des moniteurs de fluoroscopie 16, 17. et éventuellement si ce n'est pas possible ou s'il y a un risque de collision pour le patient, à droite de ceux-ci. il

Claims (9)

REVENDICATIONS
1. Procédé de traitement d'informations de commande transmises par un périphérique (1) de manipulation d'images de modélisation 3D du 5 type comportant un élément de préhension manipulé par un utilisateur et des moyens formant capteur qui détectent des efforts et/ou déplacements sur ledit élément de préhension et génèrent, en fonction des efforts et/ou déplacements détectés, des informations de commande qui correspondent les unes à des composantes de translation ou de zoom, les autres à des 10 composantes de rotation pour le mouvement à conférer à la représentation dans l'espace de la modélisation 3D, caractérisée en ce que dans un premier mode de fonctionnement, l'ensemble des informations de commande est traitée pour modifier la représentation affichée en lui conférant uniquement des mouvements de rotation dans l'espace et en ce 15 que dans un deuxième mode de fonctionnement, les informations de commande sont traitées pour modifier la représentation affichée en lui conférant uniquement des mouvements de translation ou un effet de zoom.
2. Procédé selon la revendication 1, caractérisé en ce qu'on met en 20 oeuvre sur les informations de commande un traitement pour le filtrage des composantes de rotation et/ou translation correspondant à des micromouvements.
3. Procédé selon l'une des revendications 1 ou 2, caractérisé en ce 25 que l'on combine au moins une composante de rotation et au moins une composante de translation et en ce que la (ou les) composante(s) combinée(s) ainsi obtenue(s) est (ou sont) utilisée(s) comme composante(s) de rotation dans le premier mode de fonctionnement et comme composante(s) de translation dans le deuxième mode de 30 fonctionnement.
4. Procédé selon la revendication 3, caractérisé en ce qu'une combinaison mise en oeuvre est une combinaison linéaire.
5. Procédé selon l'une des revendications 3 ou 4, caractérisé en ce qu'on met en oeuvre sur les composantes combinées une comparaison destinée à mettre en évidence les petites composantes et en ce que, en fonction du résultat de cette comparaison, on remplace la ou les composantes ainsi mises en évidence par une composante nulle.
6. Procédé selon la revendication 5, caractérisé en ce qu'on remplace une composante combinée par une composante nulle lorsque ladite composante est inférieure à un ratio donné d'au moins une autre 10 composante.
7. Procédé selon la revendication 6, caractérisé en ce qu'on remplace une composante combinée par une composante nulle lorsque ladite composante est inférieure à la moitié d'au moins une autre 15 composante.
8. Procédé selon la revendication 2 prise seule ou en combinaison avec l'une des revendications 3 et suivantes, caractérisé en ce que, dans le deuxième mode de fonctionnement, on détecte, après la mise en oeuvre du 20 filtrage des micro-mouvements, si la composante de zoom est nulle ou non et en ce que, lorsque celle-ci est non nulle, les autres composantes sont prises en compte sont remplacées par des composantes nulles.
9. Ensemble comportant un périphérique (1) de manipulation 25 d'images de modélisation 3D, au moins un écran (14) sur lequel lesdites images sont affichées, des moyens de traitement (2) qui commandent l'affichage sur ledit écran (14), ainsi que des moyens de liaison permettant audit périphérique (1) de transmettre auxdits moyens de traitement (2) des informations de commande (A, B, C, x, y, z), ledit périphérique (1) 30 comportant un élément de préhension manipulé par un utilisateur et des moyens formant capteur qui détectent des efforts et/ou déplacements sur ledit élément de préhension et génèrent, en fonction des efforts et/ou déplacements détectés, des informations de commande qui correspondent les unes à des composantes de translation ou de zoom, les autres à des composantes de rotation pour le mouvement à conférer à la représentation dans l'espace de la modélisation 3D, caractérisée en ce que les moyens de traitement (2) comportent des moyens aptes à mettre en oeuvre le procédé
selon l'une des revendications précédentes.
Installation pour la visualisation d'images médicales, caractérisé en ce qu'elle comporte un ensemble selon la revendication 9, le périphérique (1) étant disposé en salle d'intervention et/ou d'examen (11).
FR0214994A 2002-11-28 2002-11-28 Procede de traitement d'informations de commande transmises par un peripherique de manipulation d'images de modelisation 3d, et installation pour la visualisation d'images medicales en salle d'intervention et/ou d'examen Expired - Fee Related FR2847995B1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
FR0214994A FR2847995B1 (fr) 2002-11-28 2002-11-28 Procede de traitement d'informations de commande transmises par un peripherique de manipulation d'images de modelisation 3d, et installation pour la visualisation d'images medicales en salle d'intervention et/ou d'examen
US10/722,844 US20050278711A1 (en) 2002-11-28 2003-11-26 Method and assembly for processing, viewing and installing command information transmitted by a device for manipulating images
JP2003396595A JP4542330B2 (ja) 2002-11-28 2003-11-27 画像操作装置によって送信されたコマンド情報を処理し、観察し、組み込むための方法及び組立体
DE10356010A DE10356010A1 (de) 2002-11-28 2003-11-27 Verfahren und Vorrichtung zur Verarbeitung, zum Ansehen und Installieren von Befehlsinformationen, die von einer Einrichtung zur Manipulation von Bildern gesendet worden ist

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0214994A FR2847995B1 (fr) 2002-11-28 2002-11-28 Procede de traitement d'informations de commande transmises par un peripherique de manipulation d'images de modelisation 3d, et installation pour la visualisation d'images medicales en salle d'intervention et/ou d'examen

Publications (2)

Publication Number Publication Date
FR2847995A1 true FR2847995A1 (fr) 2004-06-04
FR2847995B1 FR2847995B1 (fr) 2005-05-13

Family

ID=32309813

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0214994A Expired - Fee Related FR2847995B1 (fr) 2002-11-28 2002-11-28 Procede de traitement d'informations de commande transmises par un peripherique de manipulation d'images de modelisation 3d, et installation pour la visualisation d'images medicales en salle d'intervention et/ou d'examen

Country Status (4)

Country Link
US (1) US20050278711A1 (fr)
JP (1) JP4542330B2 (fr)
DE (1) DE10356010A1 (fr)
FR (1) FR2847995B1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007035988A1 (fr) * 2005-09-27 2007-04-05 Spatial Freedom Holdings Pty Ltd Interface pour des contrôleurs informatiques
US7601119B2 (en) 2006-04-25 2009-10-13 Hrayr Kamig Shahinian Remote manipulator with eyeballs

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7853061B2 (en) * 2007-04-26 2010-12-14 General Electric Company System and method to improve visibility of an object in an imaged subject
US8323182B2 (en) 2007-12-18 2012-12-04 Manohara Harish M Endoscope and system and method of operation thereof
KR20120101450A (ko) 2009-11-13 2012-09-13 더 캘리포니아 인스티튜트 오브 테크놀로지 단일 이미지 칩 및 복합 다중 대역 통과 필터를 구비한 입체 이미지 축소형 내시경
US9456735B2 (en) 2012-09-27 2016-10-04 Shahinian Karnig Hrayr Multi-angle rear-viewing endoscope and method of operation thereof
US9295375B2 (en) 2012-09-27 2016-03-29 Hrayr Karnig Shahinian Programmable spectral source and design tool for 3D imaging using complementary bandpass filters
US9861261B2 (en) 2014-03-14 2018-01-09 Hrayr Karnig Shahinian Endoscope system and method of operation thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6191784B1 (en) * 1995-08-04 2001-02-20 Silicon Graphics, Inc. User interface system and method for controlling playback time-based temporal digital media

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3611337A1 (de) * 1986-04-04 1987-10-22 Deutsche Forsch Luft Raumfahrt In einer kunststoffkugel untergebrachte, opto-elektronische anordnung
US4875180A (en) * 1988-05-09 1989-10-17 Unisys Corporation Multi-function scaler for normalization of numbers
US5561445A (en) * 1992-11-09 1996-10-01 Matsushita Electric Industrial Co., Ltd. Three-dimensional movement specifying apparatus and method and observational position and orientation changing apparatus
US5512920A (en) * 1994-08-17 1996-04-30 Mitsubishi Electric Research Laboratories, Inc. Locator device for control of graphical objects
EP0979990B1 (fr) * 1998-08-10 2002-05-22 Deutsches Zentrum für Luft- und Raumfahrt e.V. Dispositif pour déclenchement d'operations techniques de contrôle et/ou de déclenchement d'execution des fonctions techniques
JP2000148351A (ja) * 1998-09-09 2000-05-26 Matsushita Electric Ind Co Ltd ユ―ザ動作の種類に応じて操作指示をする操作指示出力装置及びコンピュ―タ読み取り可能な記録媒体
DE19958443C2 (de) * 1999-12-03 2002-04-25 Siemens Ag Bedieneinrichtung
US7002553B2 (en) * 2001-12-27 2006-02-21 Mark Shkolnikov Active keyboard system for handheld electronic devices

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6191784B1 (en) * 1995-08-04 2001-02-20 Silicon Graphics, Inc. User interface system and method for controlling playback time-based temporal digital media

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"3D Motion Controller User's Manual", March 2002, 3DCONNEXION INC, 6505 KAISER DRIVE FREMONT, CA94555, USA, XP002256609 *
ANDRÉ STORK: "Effiziente 3D-Interaktions- und Visualisierungstechniken für benutzerzentrierte Modellierungssysteme", 18 August 2000, TECHNISCHEN UNIVERSITÄT DARMSTADT, DARMSTADT, XP002256228 *
STORK A ET AL: "EFFICIENT AND PRECISE SOLID MODELLING USING A 3D INPUT DEVICE", PROCEEDINGS OF THE FOURTH SYMPOSIUM ON SOLID MODELING AND APPLICATIONS ATLANTA, GA, MAY, 14-16, 1997, PROCEEDINGS OF THE SYMPOSIUM ON SOLID MODELING AND APPLICATIONS, NEW YORK, ACM, US, VOL. SYMP. 4, PAGE(S) 181-194, ISBN: 0-89791-946-7, XP000724304 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007035988A1 (fr) * 2005-09-27 2007-04-05 Spatial Freedom Holdings Pty Ltd Interface pour des contrôleurs informatiques
US7601119B2 (en) 2006-04-25 2009-10-13 Hrayr Kamig Shahinian Remote manipulator with eyeballs

Also Published As

Publication number Publication date
FR2847995B1 (fr) 2005-05-13
JP4542330B2 (ja) 2010-09-15
DE10356010A1 (de) 2004-06-09
US20050278711A1 (en) 2005-12-15
JP2004178603A (ja) 2004-06-24

Similar Documents

Publication Publication Date Title
US11806102B2 (en) Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
EP3336848B1 (fr) Procédé pour faire fonctionner un dispositif d'imagerie médicale et dispositif d'imagerie médicale
JP2021500690A (ja) 自己展開型拡張現実ベースのサービス命令ライブラリ
US8328793B2 (en) Device, system and method for integrating different medically applicable apparatuses
US10492873B2 (en) Medical spatial orientation system
FR2830633A1 (fr) Interface d'utilisateur de commande d'imagerie de diagnostic activee par la voix
US20140115535A1 (en) Overlay maps for navigation of intraoral images
FR2847995A1 (fr) Procede de traitement d'informations de commande transmises par un peripherique de manipulation d'images de modelisation 3d, et installation pour la visualisation d'images medicales en salle d'intervention et/ou d'examen
FR2972132A1 (fr) Dispositif d'assistance a la manipulation d'un instrument ou outil
FR2822054A1 (fr) Instrument chirurgical
FR3016512A1 (fr) Dispositif d'interface maitre pour systeme endoscopique motorise et installation comprenant un tel dispositif
EP2773995B1 (fr) Dispositif de visualisation d'une image numerique
CN109715106A (zh) 控制装置、控制方法及医疗系统
US20210106397A1 (en) Surgical optical system with heads up display
JP2014170084A (ja) 手術顕微鏡システム
JP2019527002A (ja) 外科手術領域の深度知覚を可能にする立体視覚システム
JP2016042982A (ja) 医療用観察システム
EP1196108B1 (fr) Systeme telecommandable de positionnement sur un patient d'un dispositif d'observation/intervention
FR2847994A1 (fr) Peripherique pour la manipulation d'images 3d, ensemble comportant un tel peripherique et installation pour la visualisation d'images medicales en salle d'intervention et/ou d'examen
WO2015045410A1 (fr) Dispositif de commande d'affichage d'image, procede d'actionnement de celui-ci et programme de commande d'affichage d'image
NL1033651C2 (nl) Werkwijze en inrichting voor het uitvoeren van een maximum-intensiteitsprojectie.
FR2894684A1 (fr) Systeme de visualisation pour la manipulation d'un objet
WO2008047266A2 (fr) Procédé permettant d'exécuter l'analyse automatisée des vaisseaux côté table dans un bloc opératoire
US11771506B2 (en) Method and system for controlling dental machines
NL2002456C2 (en) Method and system for displaying images.

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20140731