DE19845028A1 - Magnetresonanz (MR)-System - Google Patents

Magnetresonanz (MR)-System

Info

Publication number
DE19845028A1
DE19845028A1 DE19845028A DE19845028A DE19845028A1 DE 19845028 A1 DE19845028 A1 DE 19845028A1 DE 19845028 A DE19845028 A DE 19845028A DE 19845028 A DE19845028 A DE 19845028A DE 19845028 A1 DE19845028 A1 DE 19845028A1
Authority
DE
Germany
Prior art keywords
projection
control
operator
projection surface
shielding chamber
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19845028A
Other languages
English (en)
Inventor
Fritz Peter
Richard Hausmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE19845028A priority Critical patent/DE19845028A1/de
Publication of DE19845028A1 publication Critical patent/DE19845028A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0046Arrangements of imaging apparatus in a room, e.g. room provided with shielding or for improved access to apparatus
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/28Details of apparatus provided for in groups G01R33/44 - G01R33/64
    • G01R33/283Intercom or optical viewing arrangements, structurally associated with NMR apparatus
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/546Interface between the MR system and the user, e.g. for controlling the operation of the MR system or for the design of pulse sequences
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition

Abstract

Die Erfindung betrifft ein Magnetresonanz(MR)-System mit einem in einer Abschirmkammer (2) aufgenommenen MR-Gerät (1) und wenigstens einer außerhalb der Abschirmkammer (2) angeordneten Projektionseinrichtung (6), welche optisch wahrnehmbare Information durch einen optisch transparenten Bereich (8) der Abschirmkammer (2) auf wenigstens eine innerhalb der Abschirmkammer (2) befindliche Projektionsfläche (4) projiziert.

Description

Die Erfindung betrifft ein MR-System mit einem in einer Ab­ schirmkammer aufgenommenen MR-Gerät.
Bei derartigen MR-Systemen ist die Abschirmkammer vorgesehen, weil die Empfangsantennen des MR-Gerätes gegen äußere HF-Stö­ rer weitgehend abgeschirmt sein müssen.
Bisherige MR-Systeme sind mit herkömmlichen Bedien- und An­ zeigekomponenten aufgebaut, die entweder durch geeignete Schirmung gegen Magnet- und HF-Felder geschützt sein müssen oder auf Funktionsprinzipien beruhen, die gegen Magnet- und/oder HF-Felder unempfindlich sind.
Für die genannten Komponenten muß also unter Umständen ein erheblicher Aufwand getrieben werden, um deren Funktionssi­ cherheit zu gewährleisten. Dies gilt insbesondere für Anzei­ gekomponenten.
Der Erfindung liegt die Aufgabe zugrunde, ein MR-System der eingangs genannten Art so auszubilden, daß zumindest aufge­ schirmte bzw. aufgrund ihres Funktionsprinzips gegen Magnet- bzw. HF-Felder unempfindliche Anzeigekomponenten verzichtet werden kann.
Nach der Erfindung wird diese Aufgabe mit den Merkma­ len des Patentanspruches 1 gelöst.
Es befindet sich also außerhalb der Abschirmkammer eine Pro­ jektionseinrichtung, welche die jeweils anzuzeigende Informa­ tion auf eine innerhalb der Abschirmkammer befindliche Pro­ jektionsfläche projiziert. Damit besteht, jedenfalls was HF-Felder angeht, keinerlei Gefahr einer gegenseitigen Beein­ flussung der Projektionseinrichtung und des MR-Gerätes. Es muß lediglich dafür Sorge getragen werden, daß infolge des optisch transparenten Bereiches die Abschirmwirkung der Ab­ schirmkammer nicht leidet. Bei der Projektionsfläche kann es sich um eine günstig zu der Bedienperson positionierte, oh­ nehin vorhandene, vorzugsweise glatte Fläche des Systems han­ deln. Sind solche Flächen nicht vorhanden, können spezielle Projektionsflächen vorgesehen werden, die vorzugsweise plat­ tenförmig ausgestaltet sind und somit einen geringen Raumbe­ darf aufweisen. Auch das Patientenlaken kann als Projektions­ fläche fungieren, sofern keine geeignete andere Projektions­ fläche zur Verfügung steht.
Um auch im Zusammenhang mit Bedienkomponenten auf eine Schir­ mung gegen Magnet- und HF-Felder bzw. die Verwendung von ge­ gen solche Felder unempfindlichen Bedienkomponenten verzich­ ten zu können, sieht eine Variante der Erfindung vor, daß die Projektionseinrichtung Bedienelemente auf eine Projektions­ fläche projiziert, wobei zur Steuerung des MR-Systems mittels der Hand, vorzugsweise eines Fingers, eine Bedienperson auf der Projektionsfläche eine optische Detektoreinrichtung die Position und/oder die Bewegungen der Hand relativ zu der Pro­ jektionsfläche erfaßt und eine Steuereinrichtung die Aus­ gangsdaten der Detektoreinrichtung zur Steuerung des MR-Sy­ stems auswertet. Dabei wird die Bewegung des Fingers wie eine Bewegung mit der Mouse interpretiert und das Verweilen des Fingers als Mouseclick erkannt.
Es ist also ein sozusagen virtueller Touchscreen realisiert, der herkömmliche Bedienelemente überflüssig macht und darüber hinaus im Gegensatz zu herkömmlichen Touchscreens ohne Video­ monitor auskommt. Dabei besteht infolge des geringeren Bau­ raumbedarfs einer Projektionsfläche die Möglichkeit, durch geeignete Positionierung der Projektionsfläche die Bedienele­ mente derart relativ zu einer Bedienperson anordnen zu kön­ nen, daß eine bequeme Bedienung möglich ist.
Eine für die Verwendung in einem erfindungsgemäßen MR-System geeignete Anlage wird von der Fa. Siemens AG unter der Be­ zeichnung "SIVIT® - Siemens Virtual Touchscreen" vertrieben.
Um die Erfassung der Position der Hand bzw. des Fingers auf der Projektionsfläche zu erleichtern, sieht eine Ausführungs­ form der Erfindung vor, daß die Projektionsfläche in demjeni­ gen Bereich, auf den die Projektionseinrichtung ein Bedien­ element projiziert, mit einer Vertiefung und/oder Erhöhung versehen ist. Es ist dann für eine Bedienperson möglich, mit nur flüchtigem Blickkontakt oder gänzlich ohne Blickkontakt eine sichere Bedienung vorzunehmen, da die Bedienperson in­ folge der Vertiefung bzw. Erhöhung in der Lage ist, ihren Finger so zu positionieren, daß eine eindeutige Zuordnung der Position des Fingers zu einem Bedienelement und damit einem Bedienschritt möglich ist.
Herkömmliche Bedienkomponenten können auch dann vermieden werden, wenn gemäß einer weiteren Ausführungsform der Erfin­ dung wenigstens eine durch eine Bedienperson verstellbare Be­ dienelement-Attrappe vorgesehen ist, wobei eine optische De­ tektoreinrichtung unmittelbar und/oder mittelbar die Stellung der Bedienelement-Attrappe erfaßt und die Steuereinrichtung der Stellung der Bedienelement-Attrappe entsprechende Aus­ gangsdaten der Detektoreinrichtung zur Steuerung des Systems auswertet.
Es sind dann also Bedienelement-Attrappen vorgesehen, die ei­ ner Bedienperson das Gefühl geben, herkömmliche Bedienelemen­ te, z. B. Tasten, Joysticks und dergleichen, zur Verfügung zu haben, ohne daß tatsächlich derartige elektromechanische Bau­ elemente vorgesehen sind. Dabei kann die Ermittlung der vor­ genommenen Bedienhandlung dadurch unmittelbar erfolgen, daß die Steuereinrichtung durch Auswertung der Ausgangssignale der Detektoreinrichtung die Stellung bzw. Bewegung der Be­ dienelement-Attrappe auswertet, und/oder dadurch mittelbar erfolgen, daß die Steuereinrichtung die Stellung bzw. Bewe­ gung der Hand der Bedienperson auswertet und hieraus die Stellung bzw. Bewegung der Bedienelement-Attrappe ermittelt. In beiden Fällen wird die Erkennung und Auswertung dieser Stellungen bzw. Bewegungen dadurch erleichtert, daß eine Füh­ rung der Hand bzw. des Fingers der Bedienperson durch die Be­ dienelement-Attrappen gewährleistet ist.
Gemäß weiteren Varianten der Erfindung ist vorgesehen, daß zur Vermeidung herkömmlicher Bedienkomponenten die Detek­ toreinrichtung die Gestik einer Bedienperson, hierbei kann auch die Amplitude der Gesten ermittelt werden, und/oder Kopfbewegungen einer Bedienperson und/oder die Mimik einer Bedienperson erfaßt und zur Steuerung des MR-Systems auswer­ tet. Indem die Gestik, Kopfbewegungen sowie die Mimik der Be­ dienperson zusätzlich zur Bedienung des MR-Systems herangezo­ gen werden, sind zusätzliche Möglichkeiten geschaffen, Be­ dienschritte vorzunehmen, ohne daß es irgendwelcher Be­ dienelemente bedarf, was im Hinblick auf die eventuell erfor­ derliche Einhaltung von sterilen Bedingungen von besonderem Vorteil sein kann.
Gemäß einer Ausführungsform der Erfindung weist das System mehrere Projektionsflächen auf, wobei die Wiedergabe von op­ tisch wahrnehmbarer Information wahlweise auf mehreren Pro­ jektionsflächen oder einer einzigen Projektionsfläche erfol­ gen kann, so daß eine den jeweiligen Erfordernissen gut ange­ paßte, unter Umständen variable Wiedergabe der Information möglich ist.
Um eine die Arbeit für die Bedienperson erleichternde Anord­ nung der Projektionsfläche relativ zu der Bedienperson zu er­ möglichen, sehen Ausführungsformen der Erfindung vor, daß we­ nigstens eine auf eine Bedienperson ausrichtbare Projektions­ fläche bzw. wenigstens eine relativ zu dem MR-System verla­ gerbare Projektionsfläche vorgesehen ist.
Gemäß Varianten der Erfindung ist vorgesehen, daß auf wenig­ stens jeweils einer Projektionsfläche die Darstellung von Bildinformation, die Darstellung von Bedienelementen, die Darstellung von Patienteninformation und die Darstellung von Systemdaten erfolgt, so daß es möglich ist, völlig ohne her­ kömmliche Anzeige- und Bedienkomponenten auszukommen
Eine besonders bevorzugte Ausführungsform der Erfindung sieht vor, daß auf der gleichen Projektionsfläche die Darstellung von Bildinformation und von Bedienelementen erfolgt, wobei die Bedienelemente zur Steuerung der Wiedergabe und/oder Ver­ arbeitung der Bildinformation dienen, so daß die üblicherwei­ se mit Mousesteuerung an herkömmlichen, graphischen Workstati­ ons vorgenommenen Bildverarbeitungsoperationen, wie Bildab­ ruf, Fensterung, Vermessung von Objekten, Bedienung von 3D-Funktionen usw., vorgenommen werden können.
Es wird also deutlich, daß durch die Erfindung die Mensch/Ma­ schine-Schnittstelle von MR-Systemen stark vereinfacht wird. So können infolge des Umstandes, daß die Bedienelemente nur projiziert werden, Bedienfelder auf einfache Weise applikati­ onsspezifisch konfiguriert werden. Symbole und beschriftete Bedienelemente können besser erkannt werden. Bei den Bedien- und Anzeigekomponenten sind keine Sonderkonstruktionen not­ wendig bzw. können Schirmungen entfallen. Es eröffnen sich also völlig neuartige Gestaltungsmöglichkeiten für die Mensch/Maschine-Schnittstelle, die zudem in Zusammenhang mit interventionellen Techniken die Einhaltung steriler Bedingun­ gen erleichtern.
Durch die Kombination von virtuellem Touchscreen mit Steue­ rung auf der Basis der Auswertung von Gestik, Kopfstellung und Mimik einer Bedienperson lassen sich selbst komplexe Be­ dienvorgänge vereinfachen. So sind komplexe Bildverarbei­ tungsfunktionen, wie dreidimensionale MR-Angiographie oder virtuelle Endoskopie, realisierbar, ohne daß es herkömmlicher Bedienkomponenten bedarf.
Die Projektion von optischer Information sowie die erforder­ liche optische Detektion durch die Abschirmkammer erfolgen durch HF-dichte Durchführungen, wie z. B. Röhrentuben oder durchsichtige Fenster mit HF-dichter Oberfläche.
Da die Projektionseinrichtung und die Detektoreinrichtung au­ ßerhalb der Schirmkabine angeordnet und damit zumindest gegen HF-Felder geschützt sind, können Sonderkonstruktionen entfal­ len. Falls im Falle der Erfindung überhaupt Abschirmmaßnahmen (spezielle Abschirmungen oder Unterbringung in geeigneten Einrichtungen) erforderlich sind, können sich diese auf die Projektionseinrichtung und die Detektoreinrichtung beschrän­ ken.
Zusammenfassend kann gesagt werden, daß die Erfindung her­ kömmliche Monitore und/oder Bedienfelder und/oder Bedienele­ mente und/oder Anzeigeelemente zur Anlagenbedienung, Befun­ dung und Bildverarbeitung ersetzt und durch Gestik- Mimik und Kopfsteuerung erweiterte Möglichkeiten der interaktiven Bild­ verarbeitung bietet.
Ein Ausführungsbeispiel der Erfindung ist in den beigefügten schematischen Zeichnungen dargestellt. Es zeigen:
Fig. 1 in perspektivischer Darstellung den Aufbau eines MR- Systems,
Fig. 2 ein die Funktion des MR-Systems gemäß Fig. 1 veran­ schaulichendes Schema,
Fig. 3 bis 8 beispielhaft unterschiedliche Gesten, die das MR-System zu erkennen vermag,
Fig. 9 eine zur Bedienung des MR-Systems gemäß den Fig. 1 und 2 vorgesehene Projektionsfläche und
Fig. 10 einen Schnitt gemäß der Linie X-X in Fig. 9.
Wie aus der Fig. 1 ersichtlich ist, weist das erfindungsgemäße MR-System ein insgesamt mit 1 bezeichnetes MR-Gerät auf, das in einer Abschirmkammer 2 aufgestellt ist, so daß HF-Störun­ gen von dem MR-Gerät 1 ferngehalten sind.
Die Bedienung des MR-Systems kann direkt am MR-Gerät 1 oder von einem Bedienraum 3 aus erfolgen, in dem auch die Betrach­ tung der mittels des MR-Gerätes 1 gewonnenen Bilder möglich ist.
Um insbesondere in der Abschirmkammer 2 optische Information darstellen zu können, ohne auf herkömmliche Anzeigekomponen­ ten zurückgreifen zu müssen, ist in der Abschirmkammer 2 und in dem Bedienraum 3 jeweils eine Projektionsfläche 4 bzw. 5 angeordnet, auf die jeweils mittels einer optischen Projekti­ onseinrichtung, nämlich eines Videobeamers 6 bzw. 7, optische Information projizierbar ist.
Im Falle der Abschirmkammer 2 befindet sich der Videobeamer 6 außerhalb der Abschirmkammer 2, d. h. die Abschirmkammer 2 weist einen optisch transparenten Bereich auf, durch den die darzustellende Bildinformation mittels des Videobeamers 6 auf die Projektionsfläche 4 projiziert wird. Dabei handelt es sich vorzugsweise um eine mit einer HF-dichten Beschichtung versehene Glasscheibe 8a.
Hinsichtlich des der Projektionsfläche 5 in den Bedienraum 3 zugeordneten Videobeamers 7 sind keine besonderen Abschir­ mmaßnahmen erforderlich, da sich der Bedienraum 3 außerhalb der Abschirmkammer 2 befindet.
Auf der Projektionsfläche 5 kann als optische Information diagnostische Bildinformation, nämlich, wie in Fig. 2 bei­ spielhaft veranschaulicht, mittels des MR-Gerätes 1 gewonnene Bildinformation dargestellt werden. Es handelt sich hierbei um vier mittels des MR-Gerätes 1 gewonnene Schnittbilder von unterschiedlichen Schichten des Schädels eines Patienten.
Zusätzlich zu diesen Schnittbildern sind, ähnlich wie dies auf dem Monitor einer graphischen Workstation der Fall ist, Bedienfelder dargestellt, die in Fig. 2 rechts von den vier Schnittbildern angeordnet sind. Bei den Bedienelementen han­ delt es sich demnach um Icons, wie sie üblicherweise in den graphischen Benutzeroberflächen von Workstations Verwendung finden.
In der Tat ist es so, daß die auf der Projektionsfläche 5 dargestellte Bildinformation voll und ganz der auf der Bild­ schirmoberfläche des Monitors einer graphischen Workstation erscheinenden Bildinformation entspricht.
Eine Bedienperson ist im Falle des erfindungsgemäßen MR-Sy­ stems, wie noch näher erläutert werden wird, in der Lage, mit Hilfe dieser projizierten Bedienelemente Bildverarbeitungs­ operationen bezüglich der projizierten Schnittbilder auszu­ führen.
Hierzu sind eine für infrarotes Licht empfindliche Videokame­ ra 9 und eine Infrarotlichtquelle 10 vorgesehen, die eben­ falls außerhalb der Abschirmkammer 2 angeordnet sind und durch HF-dichte Glasscheiben 8b und 8c mit dem Inneren der Abschirmkammer in Verbindung stehen. Dabei erfaßt die Video­ kamera 9 die Projektionsfläche 4, die von der Infrarotlicht­ quelle 10 beleuchtet wird. Bewegt nun eine Bedienperson ihre Hand, vorzugsweise wie in Fig. 2 angedeutet, ihren Finger, auf der Projektionsfläche 4, so wird die Bewegung des Fingers wie die Bewegung der Mouse im Falle einer graphischen Workstation interpretiert. Ein Verweilen des Fingers auf einer bestimmten Position der Projektionsfläche 4 über einen definierten Zeit­ raum, beispielsweise eine halbe Sekunde, wird als Mouseclick interpretiert. Es wird also deutlich, daß eine Bedienperson sozusagen mittels ihres Fingers interaktiv Bildverarbeitung betreiben kann, wobei mittels der Projektionsfläche 4, des Videobeamers 6, der Videokamera 9 und der Infrarotlichtquelle 10 sozusagen ein virtueller Touchscreen realisiert ist.
Wie aus Fig. 2 ersichtlich ist, ist in diesem Zusammenhang ei­ ne Steuereinrichtung 11 vorgesehen, mit der der Videobeamer 6 und die Videokamera 9 verbunden sind. Die Ausgangssignale der Videokamera 9 werden von der Steuereinrichtung 11 daraufhin untersucht, ob die Bedienperson eines der Icons aktiviert hat. Erkennt die Steuereinrichtung 11 anhand der Ausgangs­ signale der Videokamera 9, daß dies der Fall ist, führt sie den entsprechenden Bedienschritt aus.
Wie aus Fig. 2 ersichtlich ist, enthält die Steuereinrichtung 11 einen Analog-/Digitalwandler, dem die Ausgangssignale der Videokamera 9 zugeführt sind. Die diesen Ausgangssignalen entsprechenden digitalen Daten gelangen zu einem Analysator 12.
Wie aus Fig. 2 weiter ersichtlich ist, enthält die Steuerein­ richtung 11 außerdem einen Bildrechner 13, der die die Dar­ stellung von Bildinformation betreffende Befehle von dem Ana­ lysator 12 erhält. Zur Ausführung dieser Befehle weist der Bildrechner 13 eine Bildverarbeitungseinrichtung 14, eine Bildabrufeinrichtung 15, einen Bildmischer 16 und einen Bild­ prozessor 16 auf.
Der Analysator 12 analysiert die den Ausgangssignalen der Vi­ deokamera 9 entsprechenden Daten daraufhin, ob eine Bedien­ person momentan mittels des Fingers eines der auf die Projek­ tionsfläche 4 projizierten Icons aktiviert. Ist dies der Fall, gibt der Analysator 12 entsprechende Daten an die Bild­ verarbeitungseinrichtung 14 und/oder die Bildabrufeinrichtung 15 und/oder den Bildmischer 16 weiter, die erforderlichen­ falls im Zusammenwirken mit dem Bildprozessor 17 die entspre­ chenden Bedienschritte vornehmen.
Im Falle der die Bildverarbeitungseinrichtung 14 betreffenden Bedienschritte handelt es sich beispielsweise um Kantenanhe­ bungen und dergleichen, die ein dargestelltes Bild in seiner Gesamtheit und/oder nur in Teilbereichen betreffen können, wobei Teilbereiche ähnlich wie bei dem Umfahren mit einer Mouse durch Umfahren mit dem Finger markiert werden können. Die Steuereinrichtung 11 interpretiert solchen Fingerbewegun­ gen entsprechende Ausgangssignale der Videokamera 9 entspre­ chend.
Bei den die Bildabrufeinrichtung 15 betreffenden Bedien­ schritten geht es darum, bestimmte Bildinformationen aus dem Arbeits- und/oder Massenspeicher des MR-Geräts 1 und/oder aus einem externen Archiv und/oder von einer anderen Modalität abzurufen und zur Darstellung zu bringen. Die der auf der Projektionsfläche 4 darzustellenden Bildinformationen ent­ sprechenden Signale sind der Steuereinrichtung 11 über eine Leitung 18 in Form digitaler Signale zugeführt.
Die den Bildmischer 16 betreffenden Bedienschritte haben die Mischung von Bildinformation und die Darstellung von gemisch­ ter Bildinformation zum Gegenstand, wobei die zu mischenden Bildinformationen aus unterschiedlichen Untersuchungen bzw. unterschiedlichen Untersuchungsabschnitten und/oder von un­ terschiedlichen Modalitäten stammen können.
Um die von der Steuereinrichtung 11 entsprechend den von ei­ ner Bedienperson gegebenen Befehlen verarbeitete Bildinforma­ tion mittels des Videobeamers 6 auf der Projektionsfläche 4 darstellen zu können, enthält die Steuereinrichtung 11 einen Digital/Analog-Wandler 21, der die von dem Bildprozessor 17 gelieferten digitalen Daten in ein dem Videobeamer 6 zuge­ führtes analoges Videosignal wandelt.
Der Analysator 12 erfüllt die weitere Funktion, die den von der Videokamera 9 gelieferten Ausgangssignalen entsprechenden digitalen Daten daraufhin zu analysieren, ob die Bedienperson momentan eine einem bestimmten Bedienschritt entsprechende typische Geste ausführt. Ist dies der Fall, gibt der Analysa­ tor 12, sofern es sich um die Darstellung von Bildinformation betreffende Bedienschritte handelt, entsprechende Daten an die Bildverarbeitungseinrichtung 14 und /oder die Bildab­ rufeinrichtung 15 und/oder den Bildmischer 16 weiter, die die den Bedienschritte entsprechenden Funktionen in der bereits im Zusammenhang mit dem virtuellen Touchscreen beschriebenen Weise vornehmen.
Damit der Analysator 12 in der beschriebenen Weise zur Gestikerkennung arbeiten kann, sind in ihm den typischen Gesten entsprechende Pixel-Muster in digitaler Form gespeichert. Der Analysator 12 vergleicht die digitalisierten Ausgangssignale der Videokamera 9 mit den gespeicherten Pixel-Mustern und be­ wirkt für den Fall, daß er ein einer typischen Geste entspre­ chendes Pixel-Muster detektiert, in der beschriebenen Weise den entsprechenden Bedienschritt. Es wird also deutlich, daß durch die beschriebenen Funktionen des virtuellen Touchscreen und der Gestikerkennung eine Vielzahl von im Zusammenhang mit der Wiedergabe von Bildinformation erforderlichen Bedien­ schritten eingeleitet werden kann.
In Fig. 3 bis 8 sind Beispiele von Gesten veranschaulicht, die das System zu erkennen vermag.
So wird bei Erkennung der in Fig. 3 dargestellten Geste das nächste Bild angezeigt, während bei Erkennung der in Fig. 4 dargestellten Geste das vorhergehende Bild angezeigt wird.
Bei Erkennung der in Fig. 5 dargestellten Geste wird der Kon­ trast des momentan angezeigten Bildes erhöht, während der Kontrast des angezeigten Bildes im Falle der Erkennung der Geste von Fig. 6 vermindert wird.
Bei Erkennung der Geste gemäß Fig. 7 wird eine von zwei inein­ ander gemischten Bildinformationen relativ zu der anderen nach oben verschoben, während im Falle der Erkennung der Ge­ ste von Fig. 8 eine Verschiebung nach unten erfolgt.
Es wird also deutlich, daß durch Gestik eine Vielzahl von im Zusammenhang mit der Wiedergabe von Bildinformation erforder­ lichen Bedienschritten eingeleitet werden kann.
Es kann auch vorgesehen sein, daß der Analysator weitere, nicht die Darstellung von Bildinformation betreffenden Be­ dienschritten entsprechende typische Gesten zu erkennen ver­ mag. Ist dies - wie bei dem dargestellten Ausführungsbeispiel - der Fall, gibt der Analysator 12 entsprechende Daten an ei­ nen Befehlsprozessor 19, der über eine Leitung 20 mit dem MR-Gerät 1 verbunden ist und dieses zur Ausführung der den er­ kannten typischen Gesten entsprechenden Bedienschritte veran­ laßt.
Wird auf der Projektionsfläche 4 in nicht dargestellter Weise dreidimensionale Bildinformation (3D-Objekt) dargestellt, so untersucht der Analysator 12 die den Ausgangssignalen der Vi­ deokamera 9 entsprechenden digitalen Daten auf die Kopfhal­ tung der jeweiligen Bedienperson hin und manipuliert die Dar­ stellung des 3D-Objektes entsprechend der erkannten Kopfbewe­ gung. So bewirkt eine Kopfbewegung, die dem Versuch der Be­ dienperson entspricht, hinter das dargestellte 3D-Objekt zu schauen, eine Drehung des 3D-Objektes dahingehend, daß die Rückseite des 3D-Objektes dargestellt wird.
Alternativ oder zusätzlich wird bei der Darstellung eines 3D-Objektes auch die Gestik der Bedienperson berücksichtigt, und zwar z. B. in dem Sinne, daß Handbewegungen, die dem Versuch der Bedienperson entsprechen, das dargestellte 3D-Objekt zu drehen, eine entsprechend gedrehte Darstellung des 3D-Objektes bewirken.
Zur Ausführung dieser Bedienschritte wirkt der Analysator 12 in der bereits beschriebenen Weise mit dem Bildrechner 13 zu­ sammen. Um in der im Zusammenhang mit Fig. 2 für die Abschirm­ kammer 2 beschriebenen Weise auch von dem Bedienraum 3 tätig werden zu können, sind auch dem Bedienraum 3 in nicht darge­ stellter Weise eine Videokamera und eine Infrarotlichtquelle zugeordnet. Es besteht dann die Möglichkeit, bei Bedarf den dem Bedienraum 3 zugeordneten Videobeamer 7 und die dem Bedi­ enraum zugeordnete Videokamera mit der Steuereinrichtung 11 zu verbinden.
Wie aus Fig. 1 in Verbindung mit Fig. 9 und 10 ersichtlich ist, sind in der Abschirmkammer 3 und im Bedienraum 3 weitere Pro­ jektionsflächen 24 und 25 angeordnet, auf die mittels der Vi­ deobeamer 6, 7, erforderlichenfalls unter Verwendung nicht dargestellter Strahlteiler, oder - in ebenfalls nicht darge­ stellter Weise - mittels zusätzlicher Videobeamer Bedienele­ mente projiziert werden. Dies ist in Fig. 4 für die in der Ab­ schirmkammer 2 befindliche Projektionsfläche 24 am Beispiel dreier Tasten 26 bis 28 veranschaulicht.
Da sich die Projektionsflächen 24 (die Projektionsfläche 24 ist in Fig. 2 nicht dargestellt) und 25 im Sichtbereich der Videokamera 9 bzw. der dem Bedienraum 3 zugeordneten Videoka­ mera befinden, kann der Analysator 12 anhand der Ausgangs­ signale der Videokameras erkennen, ob sich der Finger einer Bedienperson auf einer der projizierten Tasten 26 bis 28 be­ findet. Ist dies der Fall, gibt der Analysator 12 eine ent­ sprechende Information an den Befehlsprozessor 19, der das im MR-Gerät 1 zur Ausführung des den jeweils betätigten Tasten 26 bis 28 entsprechenden Bedienschrittes veranlaßt.
Wie aus Fig. 10 ersichtlich ist, sind im Bereich der proji­ zierten Tasten 26 bis 28 Vertiefungen und Erhöhungen vorgese­ hen, die es einer Bedienperson erleichtern, die projizierten Tasten 26 bis 28 aufzufinden und zugleich die Auswertbarkeit der Fingerstellung erleichtern, da eine definierte Positio­ nierung des Fingers für den Fall der Betätigung einer der projizierten Tasten 26 bis 28 vorgegeben ist.
Auf der Projektionsfläche 24 sind außerdem entsprechend ihrer jeweiligen Funktion durch Aufdrucke oder dergleichen be­ schriftete Fingermulden 29 bis 31 vorgesehen, die ebenfalls zur Auslösung von Bedienschritten dienen und in ihrer Funkti­ on Schiebereglern entsprechen. Legt eine Bedienperson ihren Finger in eine der Fingermulden 29 bis 31, so stellt dies der Analysator 12 anhand der den Ausgangssignalen der Videokamera 9 entsprechenden Daten fest, worauf der Befehlsprozessor 19 die Fingerstellung in der jeweiligen Fingermulde in einen entsprechenden Bedienschritt umsetzt.
Auch durch die Fingermulden 29 bis 31 wird die Auswertbarkeit der Fingerstellung und Fingerbewegung erleichtert, da eine definierte Positionierung bzw. Bewegungsrichtung des Fingers vorgegeben ist.
Wie aus Fig. 9 und 10 ersichtlich ist, ist die Projektionsflä­ che 24 nicht nur vorgesehen, um Bedienelemente, nämlich Ta­ sten 26 bis 28 auf sie projizieren zu können; vielmehr ist die Projektionsfläche 24 mit Bedienelement-Attrappen, nämlich zwei Drehknopf-Attrappen 32 und 33 und einer Joystick- Attrappe 34, versehen.
Was die Drehknopf-Attrappen 32 und 33 angeht, so sind diese wie wirkliche Drehknöpfe mit Strichmarken 35 und 36 versehen, so daß der Analysator 12 anhand der den Ausgangssignalen der Videokamera 9 entsprechenden Daten die Stellung der Dreh­ knopf-Attrappen 32 und 33 detektieren und mit Hilfe des Be­ fehlsprozessors 17 in entsprechende Bedienschritte umsetzen kann. Dabei kann vorgesehen sein, daß eine Überprüfung der Stellung der Drehknopf-Attrappen 32 und 33 jeweils nur dann erfolgt, wenn der Analysator 12 anhand der den Ausgangssigna­ len der Videokamera 9 entsprechenden Daten erkennt, daß die Drehknopf-Attrappen 32, 33 von einer Bedienperson betätigt wurden.
Die jeweilige Stellung der Joystick-Attrappe 34 detektiert der Analysator 12 aus der Position des im Falle des beschrie­ benen Ausführungsbeispiels kugelförmigen Endstücks 37 des Joystick-Hebels, das demgemäß bei der Betätigung der Joy­ stick-Attrappe 34 durch eine Bedienperson nicht verdeckt wer­ den darf. Vorzugsweise erfolgt die Detektion der Stellung der Joystick-Attrappe 34 nur dann, wenn der Analysator 12 anhand der den Ausgangssignalen der Videokamera 9 entsprechenden Da­ ten erkennt, daß eine Bedienperson die Joystick-Attrappe 34 betätigt. Auch hier erfolgte eine Umsetzung der Stellung der Joystick-Attrappe 34 in entsprechende Befehle mit Hilfe des Befehlsprozessors 19.
Alternativ oder zusätzlich analysiert der Analysator 12 die mittels der Drehknopf-Attrappen 32 und 33 sowie der Joystick- Attrappe 34 vorgenommenen Bedienvorgänge dadurch, daß sie nach Art einer an sich bekannten Gestik-Steuerung die Handbe­ wegungen und/oder Handstellungen bzw. Fingerbewegungen und/oder Fingerstellungen der Bedienperson auswertet, wobei die Sicherheit der Erkennung dieser Bewegungen bzw. Stellun­ gen dadurch erleichtert ist, daß eine Führung durch die Be­ dienelement-Attrappen, d. h. die Drehknopf-Attrappen 32 und 33 sowie die Joystick-Attrappe 34, gewährleistet ist, also keine beliebigen Bewegungen stattfinden können.
Während die Bedienelement-Attrappen, d. h. die Drehknopf- Attrappen 32 und 33 sowie die Joystick-Attrappe 34, ebenso wie die Fingermulden 29 bis 31 vorzugsweise zur Einstellung "analoger" Werte dienen, dienen die Tasten 26 bis 28 vorzugs­ weise zur Einstellung binärer Werte.
Die Nutzung der in dem Bedienraum 3 vorgesehenen Projektions­ fläche 25 erfolgt analog zu den vorstehenden Ausführungen.
Die Bildverarbeitungseinrichtung 14, die Bildabrufeinrichtung 15, der Bildmischer 16 und der Bildprozessor 17 sowie der Bildrechner 13 insgesamt können als Komponenten physikalisch vorhanden sein; sie sind jedoch vorzugsweise zusammen mit der Steuereinrichtung 11 samt Analysator 10 und Befehlsprozessor 19 insgesamt in Form eines entsprechenden programmierten Uni­ versalrechners, beispielsweise eines PCs, realisiert.
Es ist übrigens möglich, das erfindungsgemäße MR-System mit einem an sich bekannten, videobasierten Handerkenner und einem Videobeamer, z. B. für interventionelle Kernspintomographie, zu kombinieren. Hierbei wird der Handerkenner in der Nähe des operierenden Arztes angeordnet. Die Bedienfläche kann glatt und mit Symbolen bedruckt und/oder Führungen (z. B. Griffmul­ den usw.) und/oder mit Bedienelement-Attrappen (virtueller Joystick usw.) ausgeführt werden. Das diagnostische Patien­ tenbild und/oder Darstellungen von Meßwerten (z. B. EKG, EEG usw.) werden auf Flächen in Patientennähe projiziert.
Die Art der im Falle des beschriebenen Ausführungsbeispiels projizierten Bedienelemente ist nur beispielhaft zu verste­ hen. Dies gilt auch für die im Zusammenhang mit dem Ausfüh­ rungsbeispiel beschriebenen Arten von Bedienelement- Attrappen, Fingermulden und Erhöhungen sowie Vertiefungen.
Auch die Art der sonstigen im Fall des beschriebenen Ausfüh­ rungsbeispiels auf den Projektionsflächen angezeigten Infor­ mationen ist nur beispielhaft zu verstehen.
Ebenso sind die im Zusammenhang mit dem Ausführungsbeispiel beschriebenen, zur Bedienung ausgewerteten Gesten und Kopfbe­ wegungen nur beispielhaft zu verstehen.
Die Projektionsflächen müssen nicht unbedingt wie im Falle des beschriebenen Ausführungsbeispiels glatt bzw. eben sein; insbesondere im Fall von Interventionen besteht auch die Mög­ lichkeit, das Patientenlaken als Projektionsfläche zu verwen­ den.
Nachstehend sind die wesentlichen Vorteile des erfindungsge­ mäßen MR-Systems zusammenfassend dargestellt, an Hand derer der hohe Nutzen der Erfindung für den Anwender deutlich wird:
  • - Der Benutzer kann zusätzlich interaktive Bildverarbeitun­ gen durchführen, die seine Diagnose beschleunigen wie auch verbessern und zudem mehr Funktionen erlauben (Beispiel: 3-D-Objekt mit Gestikerkennung drehen).
  • - Bedien- und/oder Anzeigeelemente lassen sich leicht appli­ kationsspezifisch ändern. Neue Applikationen können sehr leicht in das MR-System integriert werden.
  • - Es ist eine einfache und ergonomische Handhabung eines MR-Systems realisierbar.
  • - Komplizierte Bildverarbeitungstechniken wie z. B. 3-D-Funk­ tionen, "Image Fusion" und virtuelle Endoskopie lassen sich anschaulich und ergonomisch leicht realisieren und bieten neuartige Möglichkeiten der räumlichen Diagnose.
  • - Videobasierte Kopfverfolgung erleichtert die Betrachtung eines auf einer Projektionsfläche dargestellten 3-D-Objektes.
  • - Bereits heute lassen sich mit Videobeamern Bilddiagonalen bis 61 Zoll realisieren, so daß eine wesentlich größere Bilddarstellung als mit den bisher üblichen 21 Zoll- Monitoren möglich ist. Zukünftig sind weitere Verbesserun­ gen der mit Videobeamern erreichbaren Bildgröße zu erwar­ ten.
  • - Der Blickwinkel bei Bilddarstellung mittels Videobeamern ist wesentlich größer, als bei einem Monitor, d. h. auch ei­ ne seitliche Sehposition bietet einwandfreie Bilderkenn­ barkeit.
  • - Die Darstellung von medizinischen Bildern mittels Videobe­ amer ist auch bei ungünstigen Lichtverhältnissen kontra­ streicher, als bei herkömmlichen Monitoren.
  • - Es lassen sich Bedienelemente realisieren, ohne daß sich elektrische Elemente im Untersuchungsraum befinden müssen.
Ein von dem Untersuchungsraum getrennter Bedienraum kann u. U. entfallen.
  • - Es sind keine Sonderkonstruktionen für Monitore, Bedienfel­ der, Anzeigen, Tastatur und Mouse notwendig; aufwendige Abschirmungen können entfallen.
  • - Bedien- und Untersuchungsraum müssen anders als bei her­ kömmlichen MR-Systemen nicht mehr voneinander getrennt werden.
  • - Bedien- und/oder Anzeigeoberflächen, d. h. die Projektions­ flächen, sind leicht steril und sauber zu halten.
  • - Erfindungsgemäße MR-Systeme sind im Vergleich zu bekannten Bildsystemen mit hochauflösenden Monitoren wesentlich ko­ stengünstiger und bieten daher erhebliche Kosteneinspa­ rungspotentiale in der Konstruktion (Kostenfestlegung) so­ wie in der Produktion.
  • - Zeitersparnis bei Befundungen wird ermöglicht.
  • - Auch das Patientenlaken kann als Projektionsfläche fungie­ ren. Z.B. mit Gestik-Steuerung können dann beliebige, opti­ sche Informationen, z. B. Patientendaten oder Patientenbil­ der bei einem interventionellen Eingriff und/oder Patien­ tenuntersuchung abgerufen werden und auf günstig zum Pati­ enten und im Blickwinkel der Bedienperson liegende Flächen projiziert werden.
  • - Displayflächen können durch Gestiksteuerung auf den Benut­ zer ausgerichtet werden
  • - Für Patienten mit Ängsten kann auf eine im Blickwinkel des Patienten befindliche Projektionsfläche beruhigende, opti­ sche Information, z. B. Videoclips, projiziert werden.
  • - Bildschirmoberflächen werden auf Displayflächen und/oder Bedienflächen projiziert und ersetzen damit herkömmliche Bedienfelder und/oder Monitore, Tastatur und Mouse.

Claims (16)

1. Magnetresonanz(MR)-System mit einem in einer Abschirmkam­ mer aufgenommenen MR-Gerät und wenigstens einer außerhalb der Abschirmkammer angeordnete Projektionseinrichtung, welche op­ tisch wahrnehmbare Information durch einen optisch transpa­ renten Bereich der Abschirmkammer auf wenigstens eine inner­ halb der Abschirmkammer befindliche Projektionsfläche proji­ ziert.
2. MR-System nach Anspruch 1, bei welchem die Projektionsein­ richtung Bedienelemente auf eine Projektionsfläche proji­ ziert, wobei zur Steuerung des MR-Systems mittels der Hand, vorzugsweise eines Fingers, einer Bedienperson auf der Pro­ jektionsfläche eine außerhalb der Abschirmkammer angeordnete optische Detektoreinrichtung durch einen optisch transparen­ ten Bereich der Abschirmkammer die Position und/oder die Be­ wegung der Hand relativ zu der Projektionsfläche erfaßt und eine Steuereinrichtung die Ausgangsdaten der Detektoreinrich­ tung zur Steuerung des MR-Systems auswertet.
3. MR-System nach Anspruch 1 oder 2, bei dem die Projektions­ fläche in demjenigen Bereich, auf den die Projektionseinrich­ tung ein Bedienelement projiziert, mit einer Vertiefung und/oder Erhöhung versehen ist.
4. MR-System nach einem der Ansprüche 1 bis 3, bei dem wenig­ stens eine durch eine Bedienperson verstellbaren Bedienele­ ment-Attrappe vorgesehen ist und bei dem eine außerhalb der Abschirmkammer angeordnete optische Detektoreinrichtung durch einen optisch transparenten Bereich der Abschirmkammer unmit­ telbar und/oder mittelbar die Stellung der Bedienelement- Attrappe erfaßt und die Steuereinrichtung der Stellung der Bedienelement-Attrappe entsprechende Ausgangsdaten der Detek­ toreinrichtung zur Steuerung des MR-Systems auswertet.
5. MR-System nach einem der Ansprüche 1 bis 4, bei welchem eine außerhalb der Abschirmkammer angeordnete Detektorein­ richtung durch einen optisch transparenten Bereich der Ab­ schirmkammer die Gestik einer Bedienperson erfaßt und eine Steuereinrichtung die Ausgangsdaten der Detektoreinrichtung zur Steuerung des MR-Systems auswertet.
6. MR-System nach einem der Ansprüche 1 bis 5, bei dem eine außerhalb der Abschirmkammer angeordnete Detektoreinrichtung durch einen optisch transparenten Bereich der Abschirmkammer die Kopfbewegungen einer Bedienperson erfaßt und die Steuer­ einrichtung die Kopfbewegungen zur Steuerung des MR-Systems auswertet.
7. MR-System nach einem der Ansprüche 1 bis 6, bei dem eine außerhalb der Abschirmkammer angeordnete Detektoreinrichtung durch einen optisch transparenten Bereich der Abschirmkammer die Mimik einer Bedienperson erfaßt und die Steuereinrichtung die Mimik zur Steuerung des MR-Systems auswertet.
8. MR-System nach einem der Ansprüche 1 bis 7, bei dem die Projektionseinrichtung mittels des MR-Systems oder einer an­ deren Modalität gewonnene Bildinformation darstellt und die Steuereinrichtung die Ausgangssignale der Detektoreinrichtung zur Steuerung der Darstellung der Bildinformation auswertet.
9. MR-System nach einem der Ansprüche 1 bis 8, welches mehre­ re Projektionsflächen aufweist.
10. MR-System nach Anspruch 9, bei dem die Wiedergabe von Be­ dienelementen wahlweise auf mehreren Projektionsflächen oder einer einzigen Projektionsfläche erfolgt.
11. MR-System nach einem der Ansprüche 1 bis 10, das wenig­ stens eine auf eine Bedienperson ausrichtbare Projektionsflä­ che aufweist.
12. MR-System nach einem der Ansprüche 1 bis 11, bei dem auf wenigstens einer Projektionsfläche die Darstellung von Bil­ dinformation erfolgt.
13. MR-System nach einem der Ansprüche 1 bis 12, bei dem auf wenigstens einer Projektionsfläche die Darstellung von Be­ dienelementen erfolgt.
14. MR-System nach einem der Ansprüche 1 bis 13, bei dem auf wenigstens einer Projektionsfläche die Darstellung von Pati­ enteninformation erfolgt.
15. MR-System nach einem der Ansprüche 1 bis 14, bei dem auf wenigstens einer Projektionsfläche die Darstellung von Sy­ stemdaten erfolgt.
16. MR-System nach einem der Ansprüche 1 bis 12, bei dem auf wenigstens einer Projektionsfläche die Darstellung von Bil­ dinformation und Bedienelementen erfolgt, wobei die Be­ dienelemente zur Steuerung der Wiedergabe der Bildinformation vorgesehen sind.
DE19845028A 1998-09-30 1998-09-30 Magnetresonanz (MR)-System Withdrawn DE19845028A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19845028A DE19845028A1 (de) 1998-09-30 1998-09-30 Magnetresonanz (MR)-System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19845028A DE19845028A1 (de) 1998-09-30 1998-09-30 Magnetresonanz (MR)-System

Publications (1)

Publication Number Publication Date
DE19845028A1 true DE19845028A1 (de) 2000-06-08

Family

ID=7882921

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19845028A Withdrawn DE19845028A1 (de) 1998-09-30 1998-09-30 Magnetresonanz (MR)-System

Country Status (1)

Country Link
DE (1) DE19845028A1 (de)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6600475B2 (en) 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
WO2004001569A2 (en) * 2002-06-21 2003-12-31 Cedara Software Corp. Computer assisted system and method for minimal invasive hip, uni knee and total knee replacement
DE10335369A1 (de) * 2003-07-30 2005-03-03 Carl Zeiss Verfahren zum Bereitstellen einer berührungslosen Gerätefunktionssteuerung und Vorrichtung zum Durchführen des Verfahrens
DE102004049258A1 (de) * 2004-10-04 2006-04-06 Universität Tübingen Vorrichtung und Verfahren zur Steuerung von operationsunterstützenden Informationssystemen
DE102006049172A1 (de) * 2006-10-18 2008-04-30 Dräger Medical AG & Co. KG Virtuelles Anzeige- und Bediensystem für medizinische Geräte
EP2283790A1 (de) 2009-08-14 2011-02-16 Karl Storz GmbH & Co. KG Steuerung und Verfahren zum Betreiben einer Operationsleuchte
DE102013104429A1 (de) * 2013-04-30 2014-05-22 Carl Zeiss Meditec Ag Vorrichtungen zum Steuern einer medizinischen Vorrichtung mittels Gesten und Verfahren
DE102014211063A1 (de) * 2014-06-11 2015-12-17 Siemens Aktiengesellschaft Bildgebendes medizinisches Gerät mit optimierter Bedienung
DE102014211115A1 (de) * 2014-06-11 2015-12-17 Siemens Aktiengesellschaft Vorrichtung und Verfahren zur gestengesteuerten Einstellung von Einstellgrößen an einer Röntgenquelle
US10064693B2 (en) 2010-01-14 2018-09-04 Brainlab Ag Controlling a surgical navigation system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3920997C1 (de) * 1989-06-27 1990-08-23 Bruker Analytische Messtechnik Gmbh, 7512 Rheinstetten, De
DE4316642A1 (de) * 1993-05-18 1994-11-24 Siemens Ag Abschirmkammer mit einer nicht störenden und störunempfindlichen Monitor-Anzeigevorrichtung

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3920997C1 (de) * 1989-06-27 1990-08-23 Bruker Analytische Messtechnik Gmbh, 7512 Rheinstetten, De
DE4316642A1 (de) * 1993-05-18 1994-11-24 Siemens Ag Abschirmkammer mit einer nicht störenden und störunempfindlichen Monitor-Anzeigevorrichtung

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6600475B2 (en) 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
WO2004001569A2 (en) * 2002-06-21 2003-12-31 Cedara Software Corp. Computer assisted system and method for minimal invasive hip, uni knee and total knee replacement
WO2004001569A3 (en) * 2002-06-21 2004-06-03 Cedara Software Corp Computer assisted system and method for minimal invasive hip, uni knee and total knee replacement
DE10335369A1 (de) * 2003-07-30 2005-03-03 Carl Zeiss Verfahren zum Bereitstellen einer berührungslosen Gerätefunktionssteuerung und Vorrichtung zum Durchführen des Verfahrens
DE10335369B4 (de) * 2003-07-30 2007-05-10 Carl Zeiss Verfahren zum Bereitstellen einer berührungslosen Gerätefunktionssteuerung und Vorrichtung zum Durchführen des Verfahrens
DE102004049258A1 (de) * 2004-10-04 2006-04-06 Universität Tübingen Vorrichtung und Verfahren zur Steuerung von operationsunterstützenden Informationssystemen
DE102004049258B4 (de) * 2004-10-04 2007-04-26 Universität Tübingen Vorrichtung, Verfahren zur Steuerung von operationsunterstützenden medizinischen Informationssystemen und digitales Speichermedium
DE102006049172A1 (de) * 2006-10-18 2008-04-30 Dräger Medical AG & Co. KG Virtuelles Anzeige- und Bediensystem für medizinische Geräte
EP2283790A1 (de) 2009-08-14 2011-02-16 Karl Storz GmbH & Co. KG Steuerung und Verfahren zum Betreiben einer Operationsleuchte
DE102009037316A1 (de) * 2009-08-14 2011-02-17 Karl Storz Gmbh & Co. Kg Steuerung und Verfahren zum Betreiben einer Operationsleuchte
US8817085B2 (en) 2009-08-14 2014-08-26 Karl Storz Gmbh & Co. Kg Control system and method to operate an operating room lamp
US10064693B2 (en) 2010-01-14 2018-09-04 Brainlab Ag Controlling a surgical navigation system
DE102013104429A1 (de) * 2013-04-30 2014-05-22 Carl Zeiss Meditec Ag Vorrichtungen zum Steuern einer medizinischen Vorrichtung mittels Gesten und Verfahren
DE102014211063A1 (de) * 2014-06-11 2015-12-17 Siemens Aktiengesellschaft Bildgebendes medizinisches Gerät mit optimierter Bedienung
DE102014211115A1 (de) * 2014-06-11 2015-12-17 Siemens Aktiengesellschaft Vorrichtung und Verfahren zur gestengesteuerten Einstellung von Einstellgrößen an einer Röntgenquelle
CN105212933A (zh) * 2014-06-11 2016-01-06 西门子公司 具有优化的操作的成像医学设备
US9720512B2 (en) 2014-06-11 2017-08-01 Siemens Aktiengesellschaft Device and method for the gesture-controlled setting of setting variables on an X-ray source
US10429457B2 (en) 2014-06-11 2019-10-01 Siemens Aktiengesellschaft Medical imaging apparatus with optimized operation

Similar Documents

Publication Publication Date Title
DE19958443C2 (de) Bedieneinrichtung
DE19845030A1 (de) Bildsystem
DE102010035917B4 (de) Strahlenschutzwand für Mammographiesysteme mit integrierter Benutzeroberfläche
DE4423005C1 (de) Eingabevorrichtung für einen Computer
DE102005001417B4 (de) Projektionsflächenabhängige Anzeige-/Bedienvorrichtung
EP2062121B1 (de) Touchpad oder -screen und stellelement für touchpad oder -screen
EP2700345B1 (de) Staubsauger mit Bedien- und Anzeigeelementen
EP2564947A2 (de) Laborabzug, insbesondere Sicherheitswerkbank, mit Projektionsvorrichtung
DE19845028A1 (de) Magnetresonanz (MR)-System
DE102013226242A1 (de) Einstellung eines Aufnahmebereichs
DE19845027C2 (de) Medizintechnisches System
DE102014215953A1 (de) Untersuchungsraum zur Durchführung von Computertomographieaufnahmen
EP2308398A1 (de) Medizinische Therapieeinrichtung
DE102014211115A1 (de) Vorrichtung und Verfahren zur gestengesteuerten Einstellung von Einstellgrößen an einer Röntgenquelle
DE19739285C1 (de) Vorrichtung zur Darstellung und virtuellen Eingabe von Daten
DE102006003610A1 (de) Vorrichtung für die interventionelle Therapie
EP3270309B1 (de) Anzeigevorrichtung für ein medizinisches gerät
DE10332468B4 (de) Mikroskop und Verfahren zur Bedienung eines Mikroskops
DE102020210650A1 (de) Multi-kamera-sichtsysteme für ein arbeitsfahrzeug
DE19948620A1 (de) Zahnmedizinische Einrichtung
DE102014226287A1 (de) Verfahren zur Bedienung eines medizinischen Geräts und System zur Bedienung eines medizinischen Geräts
DE102012220195B4 (de) Widefield-Mikroskop oder Konfokalmikroskop
DE102008050542A1 (de) Medizinisches Bildaufnahmesystem, Bedieneinrichtung und Verfahren zum Steuern einer Bildaufnahmevorrichtung
DE102010062090B4 (de) Verfahren zur Steuerung des Betriebs einer zur Aufnahme von Röntgenbildern unter unterschiedlichen Projektionswinkeln ausgebildeten Röntgeneinrichtung und Röntgeneinrichtung
DE19805529C2 (de) Medizintechnisches Bildsystem

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8139 Disposal/non-payment of the annual fee