DE102015216917A1 - System zur Darstellung einer erweiterten Realität über eine Bedienperson - Google Patents

System zur Darstellung einer erweiterten Realität über eine Bedienperson Download PDF

Info

Publication number
DE102015216917A1
DE102015216917A1 DE102015216917.0A DE102015216917A DE102015216917A1 DE 102015216917 A1 DE102015216917 A1 DE 102015216917A1 DE 102015216917 A DE102015216917 A DE 102015216917A DE 102015216917 A1 DE102015216917 A1 DE 102015216917A1
Authority
DE
Germany
Prior art keywords
operator
field
imaging device
medical imaging
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015216917.0A
Other languages
English (en)
Inventor
Thomas Benner
Andreas Potthast
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102015216917.0A priority Critical patent/DE102015216917A1/de
Priority to CN201610797890.2A priority patent/CN106491206B/zh
Priority to US15/255,191 priority patent/US10055870B2/en
Publication of DE102015216917A1 publication Critical patent/DE102015216917A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/70Means for positioning the patient in relation to the detecting, measuring or recording means
    • A61B5/704Tables

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • High Energy & Nuclear Physics (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur automatischen Unterstützung einer Bedienperson (15) beim Abarbeiten eines Ablaufprotokolls mit mehreren Ablaufschritten, mit dem eine Untersuchungsperson (12) in einer medizinischen Bildgebungsvorrichtung untersucht wird, mit den folgenden Schritten: Bestimmen des bei der Untersuchungsperson durchzuführenden Ablaufprotokolls; Erfassen von Bilddaten, die ein Sichtfeld (16) von zumindest einer Umgebung der medizinischen Bildgebungsvorrichtung (10) und der Untersuchungsperson (12) aus Sicht der Bedienperson zeigen; Bestimmen eines nächsten Ablaufschrittes des Ablaufprotokolls, bei dem von der Bedienperson (15) ein Bedienschritt durchzuführen ist; Erzeugen einer visuellen Information (31), mit der die Bedienperson (15) über den durchzuführenden Bedienschritt informiert wird; und Projizieren der visuellen Information (31) in eine Sichtvorrichtung (120) zur Darstellung einer erweiterten Realität der Bedienperson, in der das Sichtfeld um die visuelle Information erweitert dargestellt wird.

Description

  • Medizinische Bildgebungsvorrichtungen wie beispielsweise Computertomographen (CTs) oder Magnetresonanzanlagen (MR-Anlagen) bieten dem Anwender ein sehr breites Spektrum von Möglichkeiten, um von einem Untersuchungsobjekt, beispielsweise einem Patienten, Bilder zu erzeugen. Der Betrieb einer derartigen Bildgebungsvorrichtung hängt jedoch stark davon ab, ob erfahrene Bedienpersonen vor Ort sind, die in der Lage sind, derartige Vorrichtungen fehlerfrei zu bedienen. Insbesondere bei der Bedienung von MR-Anlagen müssen unterschiedliche Aspekte beachtet werden, wie die Positionierung der HF-Spulen, die Lagerung der Untersuchungsperson, das Anbringen und Anschließen zusätzlicher Geräte zur physiologischen Überwachung des Patienten (EKG, Atemgürtel), die Auswahl der Bildgebungssequenzen etc.
  • Weiterhin werden im Zusammenhang mit medizinischen Bildgebungsvorrichtungen therapeutische Maßnahmen oder interventionelle Anwendungen durchgeführt, beispielsweise zur Entnahme von Gewebe oder zur Durchführung kleiner Operationen. Die durchführende Person kann hierfür noch weitere Gegenstände benötigen. Alle diese Gegenstände müssen griffbereit am richtigen Ort liegen, damit ein reibungsloser Ablauf der Untersuchung sichergestellt werden kann.
  • Wichtig für den reibungslosen Ablauf der Untersuchungen sind geschulte Bedienpersonen, wobei fortwährend Schulungen durchgeführt werden müssen.
  • Zusätzlich sind Handbücher in Papier oder elektronischem Format bekannt, die der Bedienperson bei der Bedienung der Bildgebungsvorrichtung helfen können. Derartige Bedienungsanleitungen sind jedoch in der Praxis bei der Vorbereitung der Bildgebung unpraktisch, da diese mitgeführt werden müssen. Zum Wohl der Untersuchungsperson und aus wirtschaftlichen Gründen ist es wünschenswert, die Verweilzeit der Untersuchungsperson in der Bildgebungsvorrichtung sowie Fehler bei der Bedienung zu minimieren.
  • Es ist daher eine Aufgabe der vorliegenden Erfindung, die Bedienung einer medizinischen Bildgebungsvorrichtung weiter zu verbessern. Insbesondere soll die Bedienperson schnell erkennen können, welcher weitere Bedienschritt in einem Ablaufprotokoll mit mehreren Ablaufschritten durchgeführt werden muss, so dass Fehler bei der Bedienung weniger oft auftreten.
  • Diese Aufgabe wird mit den Merkmalen der unabhängigen Ansprüche gelöst. In den abhängigen Ansprüchen sind weitere Ausführungsformen der Erfindung beschrieben.
  • Gemäß einem ersten Aspekt wird ein Verfahren zur automatischen Unterstützung einer Bedienperson beim Abarbeiten eines Ablaufprotokolls mit mehreren Ablaufschritten bereitgestellt, wobei mit dem Ablaufprotokoll eine Untersuchungsperson in einer medizinischen Bildgebungsvorrichtung untersucht wird. Das Verfahren weist den Schritt auf, dass das bei der Untersuchungsperson durchzuführende Ablaufprotokoll bestimmt wird. Weiterhin werden Bilddaten erfasst, die ein Sichtfeld von zumindest einer Umgebung der medizinischen Bildgebungsvorrichtung und der Untersuchungsperson aus Sicht der Bedienperson zeigen. Es wird ein nächster Ablaufschritt des Ablaufprotokolls bestimmt, bei dem von der Bedienperson ein Bedienschritt durchzuführen ist. Weiterhin wird eine visuelle Information erzeugt, mit der die Bedienperson über den durchzuführenden Bedienschritt informiert wird. Diese visuelle Information wird in einer Sichtvorrichtung zur Darstellung einer erweiterten Realität in das Sichtfeld der Bedienperson projiziert, wobei das Sichtfeld um die visuelle Information erweitert dargestellt wird.
  • Durch die Verwendung eines Systems mit einer Sichtvorrichtung zur Darstellung einer erweiterten Realität kann die Bedienperson intuitiv und auf einfache Weise über den nächsten Schritt informiert werden. Der nächste durchzuführende Bedienschritt wird als visuelle Information in das Sichtfeld hineinprojiziert. Die Bedienperson kann dann fehlerlos den nächsten Bedienschritt durchführen, indem sie die visuelle Information befolgt. Die Bilddaten, die das Sichtfeld aus Sicht der Bedienperson zeigen, können beispielsweise die medizinische Bildgebungsvorrichtung enthalten, wobei eine Position und Orientierung der medizinischen Bildgebungsvorrichtung in den Bilddaten bestimmt wird. Weiterhin wird eine Sichtposition der Bedienperson erfasst, aus der die Bedienperson das Sichtfeld sieht, wobei die Sichtposition unter Berücksichtigung der bestimmten Position und Orientierung der medizinischen Bildgebungsvorrichtung bestimmt wird. Um die visuelle Information für die Bedienperson richtig in das Sichtfeld zu projizieren, ist es vorteilhaft, die genaue Sichtposition, d.h. die Position, von der die Bedienperson das Geschehen betrachtet, zu kennen. Hierfür müssen Gegenstände oder Markierungen in den erfassten Bilddaten erkannt werden, um aus der Lage der erkannten Gegenstände auf die Sichtposition und das Sichtfeld zu schließen. Die medizinische Bildgebungsvorrichtung selbst ist ein markantes Objekt, wobei aus der Position und Orientierung der Bildgebungsvorrichtung gut auf die Sichtposition geschlossen werden kann. Insbesondere ist die Form der Bildgebungsvorrichtung weitgehend festgelegt, so dass aus der Lage der Bildgebungsvorrichtung auf die Sichtposition und das Sichtfeld geschlossen werden kann.
  • Weiterhin kann automatisch eine Positionierung der Untersuchungsperson relativ zur medizinischen Bildgebungsvorrichtung aus dem durchzuführenden Ablaufprotokoll bestimmt werden, wobei die Positionierung der Untersuchungsperson relativ zur medizinischen Bildgebungsvorrichtung als visuelle Information in die Sichtvorrichtung projiziert wird. Einem Ablaufprotokoll für die Bildgebungsvorrichtung kann üblicherweise entnommen werden, welcher Teil der Untersuchungsperson untersucht werden soll. Sollen beispielsweise Bilder des Knies oder des Kopfes aufgenommen werden, so ist dies aus dem Ablaufprotokoll erkennbar. Wenn der zu untersuchende Bereich bekannt ist, kann auch darauf geschlossen werden, wie die Untersuchungsperson relativ zur Bildgebungsvorrichtung positioniert werden muss. Dies kann als visuelle Information beispielsweise in das Sichtfeld projiziert werden, so dass die Bedienperson die Lagerung der Untersuchungsposition korrekt durchführen kann.
  • Neben der visuellen Information ist es auch möglich, eine personenbedingte Information zu bestimmen, die über die Untersuchungsperson informiert, wobei diese personenbedingte Information ebenso in das Sichtfeld projiziert wird. Als personenbedingte Information kann beispielsweise der Name der Untersuchungsperson das Sichtfeld projiziert werden. Diese Informationen können der Bedienperson helfen, den Gesamtablauf zu verbessern, da diese Information bei einigen Bedienschritten nützlich sein kann.
  • Ebenso ist es möglich, dass aus dem bestimmten Ablaufprotokoll automatisch bestimmt wird, welche zusätzlichen Geräte für die Durchführung des Ablaufprotokolls benötigt werden. Hierfür kann eine Geräteinformation über die zusätzlich benötigten Geräte erzeugt werden und in die Sichtvorrichtung projiziert werden. Beispielsweise kann es für die Untersuchung notwendig sein, gewisse physiologische Parameter zu überwachen wie den Herzschlag oder die Atmung, oder es ist notwendig, Kontrastmittel zu injizieren. Die hierfür notwendigen Geräte ergeben sich aus dem Ablaufprotokoll. Durch die Geräteinformation weiß die Bedienperson sofort, welche zusätzlichen Geräte notwendig sind für den Ablauf der Untersuchung. Hierbei kann beispielsweise anhand der erfassten Bilddaten oder aus Information der Bildgebungsvorrichtung bestimmt werden, welche der zusätzlichen Geräte schon betriebsfertig im Sichtfeld der Bedienperson angeordnet sind. Es können dann die noch fehlenden Geräte bestimmt werden, wobei die projizierte Geräteinformation nur noch Informationen über die Geräte liefert, die noch fehlen bzw. noch nicht an der richtigen Position liegen.
  • Anhand der erfassten Bilddaten der Umgebung der Bildgebungsvorrichtung ist es auch möglich, diese zu überprüfen, ob in den Bilddaten ein Bedienfehler enthalten ist, wobei ein Bedienfehler einer Situation bei der medizinischen Bildgebungsvorrichtung oder der Untersuchungsperson entspricht, die nicht mit dem Ablaufprotokoll übereinstimmt. Wird eine derartige Situation in den Bilddaten entdeckt, kann eine Fehlerinformation bestimmt werden und in das Sichtfeld projiziert werden. Ist beispielsweise erkannt worden, dass die Lagerung der Untersuchungsperson nicht richtig ist, beispielsweise Fuß voraus statt Kopf voraus, so kann dies durch die Sichtvorrichtung im Sichtfeld hervorgehoben werden und als falsch gekennzeichnet werden bzw. die richtige Lage kann durch die Sichtvorrichtung in das Sichtfeld projiziert werden.
  • Ebenso kann der nächste durchzuführende Bedienschritt in eine Audioinformation umgewandelt werden und der Bedienperson vorgespielt werden.
  • Weiterhin kann ein aktueller Zustand der medizinischen Bildgebungsvorrichtung bestimmt werden, wobei aus diesem aktuellen Zustand eine Zustandsinformation bestimmt wird, die neben der visuellen Information in das Sichtfeld projiziert wird. Beispielsweise kann anhand der Bilddaten erkannt werden, welche Bedienschritte bzw. Ablaufschritte des Protokolls schon durchgeführt wurden und welche Schritte noch fehlen. Die schon durchgeführten bzw. noch fehlenden Schritte können entsprechend in das Sichtfeld der Bedienperson projiziert werden.
  • Wenn die medizinische Bildgebungsvorrichtung eine MR-Anlage ist, ist es möglich, dass als nächster durchzuführender Bedienschritt das Positionieren einer HF-Spule an der Untersuchungsperson notwendig ist. Die in das Sichtfeld projizierte visuelle Information kann dann eine Positionierung der HF-Spule relativ zur MR-Anlage und der Untersuchungsperson beinhalten. Die Positionierung der Spule auf der Untersuchungsperson und relativ zur MR-Anlage bildet eine häufige Fehlerquelle. Diese Fehler können durch die visuelle Darstellung, wie die Spule an der Untersuchungsperson und der MR-Anlage befestigt werden soll, verbessert werden.
  • Die Erfindung betrifft ebenso ein System zur Darstellung der erweiterten Realität wie oben beschrieben, das eine Sichtvorrichtung aufweist für die Bedienperson, in die die visuelle Information projiziert wird. Weiterhin ist eine Bilderfassungseinheit vorgesehen zur Erfassung der Bilddaten und eine Prozessoreinheit, die ausgebildet ist, die oben durchgeführten Schritte auszuführen.
  • Die Erfindung wird nachfolgend unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert.
  • 1 zeigt schematisch eine Anordnung, in der ein System zur Darstellung der erweiterten Realität bei einer MR-Anlage verwendet wird.
  • 2 zeigt schematisch das Sichtfeld einer Bedienperson, die eine MR-Anlage und eine Untersuchungsperson betrachtet.
  • 3 zeigt das Gesichtsfeld der Bedienperson in dem Beispiel von 2.
  • 4 zeigt das Gesichtsfeld der Bedienperson, in das die visuelle Information hineinprojiziert wurde zur besseren Erkennung des nächsten Bedienschritts.
  • 5 zeigt ein Flussdiagramm mit den Schritten, welche bei dem System zur Darstellung der erweiterten Realität durchgeführt werden können.
  • 6 zeigt ein Flussdiagramm mit den Schritten zur Bedienung einer MR-Anlage von 1 unter Verwendung des Systems zur Darstellung der erweiterten Realität.
  • Nachfolgend wird erläutert, wie mithilfe eines Systems zur Darstellung der erweiterten Realität die Bedienung einer medizinischen Bildgebungsvorrichtung vereinfacht werden kann, so dass insbesondere weniger Bedienfehler auftreten und die Zeitdauer für die Bedienung minimiert wird.
  • Die nachfolgende Beschreibung der Ausführungsformen erfolgt im Zusammenhang mit einer MR-Anlage als medizinische Bildgebungsvorrichtung. Selbstverständlich kann die vorliegende Erfindung jedoch auch bei anderen medizinischen Bildgebungsvorrichtungen wie beispielsweise beim CT oder jeder anderen medizinischen Bildgebungsvorrichtung wie einer Röntgenanlage verwendet werden.
  • 1 zeigt schematisch eine MR-Anlage 10 mit einem Magneten 11 zur Erzeugung eines Polarisationsfelds B0, wobei eine Untersuchungsperson 12 auf einer Liege 13 liegend in den Magneten 11 geschoben werden kann. Die MR-Anlage 10 weist eine Steuereinheit 20 auf mit einer HF-Steuerung 21 zur Steuerung der Einstrahlung von HF-Pulsen sowie eine Gradientensteuerung 22 zur Steuerung der Schaltung der Magnetfeldgradienten während der Bildgebung. Eine Bildsequenzsteuerung 23 ist zuständig für die Steuerung der zeitlichen Abfolge der Verwendung der HF-Pulse und Magnetfeldgradienten in Abhängigkeit von der gewählten Bildgebungssequenz, so dass die Bildsequenzsteuerung 23 auch die HF-Steuerung 21 und die Gradientensteuerung 22 kontrolliert und steuert. Weiterhin ist eine Eingabeeinheit 24 vorgesehen, mit der eine Bedienperson die MR-Anlage steuern kann, wobei die Eingabeeinheit beispielsweise eine Tastatur, ein berührungsempfindlicher Bildschirm, eine Maus oder Ähnliches aufweist. Auf einer Anzeige 25 können die Untersuchungen geplant sowie die erzeugten MR-Bilder dargestellt werden. Über eine Eingabe-/Ausgabeeinheit 26 kann die MR-Anlage 10 mit weiteren Einheiten kommunizieren, beispielsweise mit einem System 100 zur Darstellung einer erweiterten Realität, das nachfolgend weiter im Detail beschrieben wird. In einer Speichereinheit 27 können verschiedene Ablaufprotokolle gespeichert sein, die zur Aufnahme von MR-Bildern von unterschiedlichen anatomischen Bereichen notwendig sind.
  • Wie in der MR-Anlage MR-Bilder erzeugt werden können durch Schalten von HF-Pulsen, Magnetfeldgradienten und Detektieren der MR-Signale ist dem Fachmann bekannt und wird hier nicht näher erläutert. Das System 100 zur Darstellung der erweiterten Realität weist eine Eingabe- und Ausgabeeinheit 110 auf, mit der das System unter anderem mit anderen Vorrichtungen wie beispielsweise der MR-Anlage 10 kommunizieren kann. Die Kommunikationsverbindung zwischen System 100 und MR-Anlage 10 kann eine drahtgebundene Kommunikation oder eine drahtlose Kommunikation sein, während die Verbindung zwischen der zentralen Steuereinheit 20 und den Komponenten in der Nähe des Magneten vorzugsweise kabelgebunden erfolgt. Das System 100 weist weiterhin eine Sichtvorrichtung 120 auf. Beispielsweise kann die Sichtvorrichtung eine Brille oder ähnliche Vorrichtung sein, die die Bedienperson trägt und in die visuelle Informationen projiziert werden können, wie nachher noch im Detail erläutert wird. Das System weist weiterhin eine Prozessoreinheit 130 mit einem oder mehreren Prozessoren auf. Die Prozessoreinheit ist verantwortlich für die Funktionsweise des Systems und steuert den Ablauf der einzelnen funktionellen Komponenten untereinander sowie die Funktionsweise des Systems insgesamt. In einem Speicher 140 können beispielsweise Programmcodes abgelegt sein, wobei bei Ausführung des Programmcodes durch die Prozessoreinheit 130 die Schritte des Systems 100 ausgeführt werden können, die oben erläutert wurden oder nachfolgend noch näher im Detail erklärt werden. Eine Bilderfassungseinheit 150 ist vorgesehen, die Bilddaten erfasst, die ein Gesichtsfeld der Bedienperson zeigen. Die Bilderfassungseinheit, beispielsweise eine CCD-Kamera oder Ähnliches, kann beispielsweise eine am Kopf der Bedienperson befestigte Kamera sein, die Bilddaten erzeugt, die dem Sichtfeld der Bedienperson ähnlich sind, so dass auf das Sichtfeld der Bedienperson geschlossen werden kann. Weiterhin kann das System zumindest einen Lautsprecher 160 zur Ausgabe eines Audiosignals aufweisen, beispielsweise um die Bedienperson nicht nur visuell, sondern auch über eine Audioinformation über den nächsten durchzuführenden Bedienschritt zu informieren. Das System 100 ist vorzugsweise ein tragbares System, insbesondere sind die Sichtvorrichtung 120 und die Bilderfassungseinheit 150 als tragbares System ausgebildet und können von der Bedienperson als Helm oder Brille getragen werden. Die gesamten funktionellen Einheiten 110 bis 150 müssen nicht in einer einzigen physikalischen Einheit zusammengefasst sein, es ist auch möglich, dass die Prozessor- und die Speichereinheit räumlich in einem anderen Gehäuse beinhaltet ist und die verschiedenen Einheiten miteinander kommunizieren entweder drahtgebunden oder drahtlos.
  • Die Prozessoreinheit 130 ist insbesondere für die Bildverarbeitung, für die Erkennung von Objekten in den erfassten Bilddaten und das Projizieren der visuellen Information in das Sichtfeld der Bedienperson zuständig. Selbstverständlich kann das System 100 noch weitere Komponenten beinhalten, wie Einheiten zur genaueren Bestimmung der Position des Systems wie Beschleunigungssensoren, Magnetfeldsensoren, Ultraschallsensoren, einer Lichtquelle, z.B. in Kombination mit einem Photodetektor, oder HF-Quellen, z.B. in Kombination mit einer HF-Spule. Es wäre möglich, dass die Prozessoreinheit 130 ausgebildet ist, um entsprechende Sensordaten von einem oder mehreren Sensoren gemäß der voranstehend genannten Sensortypen zu empfangen. Dann kann die Prozessoreinheit 130 ausgebildet sein, z.B. die Position und / oder die Orientierung des Systems in den Bilddaten jedenfalls teilweise auf Grundlage der Sensordaten zu bestimmen. Z.B. könnte mittels des Magnetfeldsensors das zuvor in einer Kalibrationsroutine vorvermessene Streufeld des Magnets 11 der MR-Anlage 10 gemessen werden. Dieses weist typischerweise eine charakteristische Ortsabhängigkeit auf und kann zur genauen Positionierung verwendet werden. Aus einem Vergleich der gemessenen Daten mit aus der Kalibrationsroutine erhaltenen Referenzdaten kann dann ein Rückschluss auf die momentane Position gezogen werden. Alternativ oder zusätzlich wäre es mittels des Magnetfeldsensors möglich, Richtungsänderungen / Drehung der Kamera zu bestimmen; dies kann z.B. durch eine Änderung der gemessenen Orientierung des Magnetfelds bei 3D-Magnetfeldsensoren implementiert werden oder durch eine Änderung der Stärke des Magnetfelds z.B. bei 2D-Magnetfeldsensoren, z.B. in Verbindung mit einem Beschleunigungssensor. In dem Raum, in dem die MR-Anlage und das System 100 angeordnet sind, können weitere optische Hilfen wie Barcodes, Schilder und Ähnliches angeordnet sein, die von der Bilderfassungseinheit 150 erfasst werden können und die die genaue Positionierung der Bilderfassungseinheit 150 bzw. der Bedienperson im Raum vereinfachen.
  • Wie genau ein derartiges System zur Darstellung einer erweiterten Realität, sogenannte Augmented-Reality-Systeme, im Grundsatz arbeitet zur Projizierung von Information in ein Sichtfeld eines Anwenders ist dem Fachmann bekannt und wird hier nicht näher erläutert.
  • Neben den dargestellten funktionellen Einheiten kann das System 100 weiterhin ein Mikrophon, Betätigungselemente oder Ähnliches aufweisen.
  • Die Orientierung und Positionierung im Raum des Systems 100 und damit das Sichtfeld der Bedienperson kann bestimmt werden unter Berücksichtigung von Elementen der medizinischen Bildgebungsvorrichtung, wie beispielsweise der Liege 13 und der MR-Anlage oder des Gehäuses, deren Form dem System 100 bekannt ist. Wenn die Position und Orientierung der MR-Anlage in den Bilddaten durch Nachverarbeitung erkannt wurden, kann auf Standort und Sichtfeld der Bedienperson geschlossen werden. Hierzu können zusätzlich Positionssensoren wie Ultraschall, Licht oder Hochfrequenz und/oder Beschleunigungssensoren und/oder Magnetfeldsensoren verwendet werden. Insbesondere kann die Bewegung, d.h. die Positionsänderung des Sichtfelds, durch Beschleunigungssensoren oder Positionssensoren mithilfe von Ultraschall, Licht oder Hochfrequenz bestimmt werden. Die genaue Positionierung und Orientierung der Bedienperson und damit die Kenntnis der Sichtposition ist wichtig, um die visuelle Information so in das Sichtfeld zu projizieren, dass sie in einer Position positioniert wird, die der Sichtweise der Bedienperson entspricht. Soll beispielsweise in einem nächsten Bearbeitungsschritt ein bestimmtes Gerät an einem bestimmten Ort positioniert werden, so kann dieses Gerät als visuelle Information in die Bilddaten projiziert werden. Damit die Bedienperson das Gerät jedoch am richtigen Ort sieht, müssen die Sichtposition, das Sichtfeld der Bedienperson, sowie die Position von Objekten im Sichtfeld bekannt sein.
  • 2 zeigt schematisch, wie eine Bedienperson 15 eine Messung einer Untersuchungsperson 12 vorbereitet, wobei diese schon auf der Liege 13 angeordnet ist. Weiterhin ist das Sichtfeld 16 der Bedienperson 15 dargestellt, wobei dieses Sichtfeld einen Teil der MR-Anlage 10, der Untersuchungsperson 12 und der Patientenliege 13 umfasst. In 3 ist nun die Situation aus Sicht der Bedienperson dargestellt, wie sie die MR-Anlage 10 und die auf der Liege 13 angeordnete Untersuchungsperson 12 sieht. Dieses Sichtfeld wird ebenfalls von der Bilderfassungseinheit 150 erfasst. Zwar ist das Sichtfeld der Bilderfassungseinheit 150 geringfügig verschoben, da die Bilderfassungseinheit 150 relativ zu den Augen versetzt angeordnet ist, beispielsweise auf dem Kopf oder neben dem Kopf der Bedienperson, aber es ist dennoch möglich, aus der bekannten Position der Bilderfassungseinheit 150 relativ zur Bedienperson auf die Sichtposition und das Sichtfeld der Bedienperson zu schließen.
  • 4 zeigt nun, wie mithilfe des Systems 100 die Bedienperson unterstützt werden kann, eine MR-Messung vorzubereiten.
  • In 4 ist nun dargestellt, wie das System 100 die Bedienperson unterstützen kann durch Einblenden von verschiedenen Informationen in das Sichtfeld der Bedienperson. Im dargestellten Beispiel soll eine Angiographieuntersuchung des Herzens der Untersuchungsperson 12 durchgeführt werden. Im dargestellten Beispiel ist der Name der Untersuchungsperson bekannt, beispielsweise wurde dieser von einer Bedienperson in das MR-System eingegeben oder der Name wurde aus einem Patienteninformationssystem extrahiert. Weiterhin ist bekannt, welches Ablaufprotokoll durchgeführt werden soll. Dieses kann sich aus der medizinischen Fragestellung ergeben, im vorliegenden Fall sollen MR-Bilder des Herzens aufgenommen werden, insbesondere Angiographiebilder, d.h. MR-Bilder die den Blutfluss darstellen. Für die verschiedenen medizinischen Fragestellungen sind verschiedene Ablaufprotokolle in der Speichereinheit 27 hinterlegt. Durch den Aufruf und die Auswahl eines Ablaufprotokolls ist festgelegt, welche MR-Untersuchungen durchgeführt werden sollen, wobei damit auch die benötigten MR-Spulen und die Position der Untersuchungsperson in der MR-Anlage festgelegt ist. Das MR-System kann nun dem System 100 Zustandsinformationen bereitstellen, beispielsweise die Information über die Liegeposition, das Vorhandensein von Spulen oder über das Ablaufprotokoll. In 4 ist im oberen linken Bildrand eine personbezogene Information 30 dargestellt, die den Patientennamen und Patienteninformationen enthält, wobei im rechten oberen Bildrand als Zustandsinformation 32 das Ablaufprotokoll dargestellt ist mit den verschiedenen Ablaufschritten. Bezüglich des Ablaufprotokolls und der damit verbundenen Zustandsinformation 32 ist weiterhin dargestellt, welche Ablaufschritte schon durchgeführt wurden, im dargestellten Beispiel werden die Schritte 1 und 2 als abgearbeitet dargestellt. Diese Information kann entweder von der MR-Anlage kommen oder diese Information wird durch das System 100 bestimmt, beispielsweise durch Bildnachverarbeitung der erfassten Bilddaten, aus denen beispielsweise erkannt werden kann, dass die Untersuchungsperson 12 schon auf der Liege angeordnet ist. Die im rechten oberen Eck dargestellte Zustandsinformation 32 informiert nun die Bedienperson, dass der nächste Ablaufschritt 3 des Ablaufprotokolls durchzuführen ist. Dieser Schritt 3 beinhaltet das Anbringen der richtigen HF-Spule an der korrekten Position in der MR-Anlage und an der korrekten Position an der Untersuchungsperson 12. Das System 100 kennt nun den nächsten durchzuführenden Ablaufschritt und kennt das Sichtfeld der Bedienperson durch die aufgenommenen Bilddaten, die von der Bilderfassungseinheit 150 aufgenommen werden. Damit weiß das System 100, an welcher Position in den Bilddaten die Bedienperson die Untersuchungsperson sieht. Das System 100 erhält weiterhin die Information beispielsweise von der MR-Anlage, dass der nächste Schritt die Positionierung der HF-Spule ist, die von der Bedienperson durchgeführt werden muss. Das System 100, insbesondere die Prozessoreinheit 130, berechnet nun, wo in den Bilddaten die Spule als visuelle Information für die Bedienperson in das Sichtfeld der Bedienperson hineinprojiziert werden muss, damit die Bedienperson sofort erkennt, wie die richtige Anbringung der Spule an der Untersuchungsperson 12 und an der MR-Anlage 10 erfolgen muss. Damit wird eine visuelle Information 31 in das Sichtfeld an einem bestimmten Ort hineinprojiziert, nämlich an dem Ort, an dem die Spule aus Sicht der Bedienperson an der Untersuchungsperson angebracht werden muss. Weiterhin ist die Verbindung der Spule mit der MR-Anlage, hier mit der Liege 13, dargestellt.
  • Als weitere Information bestimmt das System 100 den aktuellen Zustand der MR-Anlage, wobei diese beispielsweise von der MR-Anlage geliefert werden kann oder von dem System 100 durch Bildnachverarbeitung und Erkennung von Objekten in den erfassten Bilddaten bestimmt werden kann. Diese Zustandsinformation 32 ist in 4 im unteren linken und rechten Bildrand dargestellt und enthält beispielsweise den Namen des Ablaufprotokolls und den aktuellen Zustand von einigen Komponenten der MR-Anlage wie ob HF-Spulen angeschlossen sind, die Position der Liege 13 etc.
  • Im dargestellten Fall wird die Zustandsinformation 32 und die personbezogene Information 30 so platziert, dass sie das Gesichtsfeld der Bedienperson möglichst wenig stört und ist mehr oder weniger unabhängig von der Position von Objekten im Gesichtsfeld. Die Zustandsinformation und die personbezogene Information werden vorzugsweise in einem Randbereich der erfassten Bilddaten d.h. in einem vorbestimmten festen Teilbereich angezeigt, während für die Positionierung der visuellen Information 31 die genaue Lage und Position der Untersuchungsperson 12 und der MR-Anlage 10 bekannt sein muss, damit die Spule und das Verbindungselement der Spule zur MR-Anlage 10 richtig in die Bilddaten projiziert werden können. Dies bedeutet, dass die relative Lage der erzeugten visuellen Information zu den in den Bilddaten erkannten Objekten von Bedeutung ist. Die Prozessoreinheit 130 berechnet die Lage der visuellen Information relativ zu in den Bilddaten erkannten Gegenständen, wie die Person 12 und die Liege 13 während die weiterhin projizierte Zustandsinformation und Systeminformation im Wesentlichen unabhängig von der Position der erkannten Objekte in den Bilddaten ist.
  • 5 fasst die Schritte zusammen, die von dem System 100 zur Erzeugung der visuellen Information für die Bedienperson durchgeführt werden. Das Verfahren startet im Schritt S50 und in einem Schritt S51 wird das Ablaufprotokoll bestimmt, das bei der Bildgebungsvorrichtung durchgeführt werden soll. Das Ablaufprotokoll weist mehrere Schritte auf wie das Positionieren der Untersuchungsperson, das Anbringen von Objekten an der Untersuchungsperson wie beispielsweise HF-Spulen oder das Anbringen von anderen Geräten wie beispielsweise von EKG-Elektroden zur Messung der Herzfrequenz oder einer Vorrichtung zur Bestimmung der Atembewegung etc. Im Schritt S52 werden weiterhin die Bilddaten durch die Bilderfassungseinheit 150 erfasst und daraus das Sichtfeld der Bedienperson bestimmt, damit das System 100 weiß, wie die Bedienperson die Umgebung wahrnimmt. Ebenso wird die Position von Objekten in den Bilddaten damit im Sichtfeld bestimmt. Hierbei werden die Sichtposition und das Sichtfeld der Bedienperson bestimmt. Weiterhin wird in einem Schritt S53 bestimmt, welcher Bedienschritt als nächstes von der Bedienperson durchgeführt werden muss. Hierfür wird der Ist-Zustand des Ablaufprotokolls bestimmt, d.h. welche Ablaufschritte eventuell schon durchgeführt wurden. Dann wird der Ablaufschritt bestimmt, insbesondere der Ablaufschritt, mit dem von der Bedienperson ein Bedienschritt durchzuführen ist. Ist dieser nächste Bedienschritt bekannt, ist es dann in Schritt S54 möglich, die zugehörige visuelle Information zu bestimmen. Im Beispiel von 4 war der nächste Bedienschritt die Anbringung der HF-Spule. Für die Bestimmung der visuellen Information muss weiterhin die Position der MR-Anlage, der Untersuchungsperson und der Liege 13 bekannt sein. Ein anderes Beispiel ist das Anbringen von EKG-Elektroden. Ist der nächste Bedienschritt das Anbringen der Elektroden, so können als visuelle Information die Positionen der EKG Elektroden auf der Untersuchungsperson 12 markiert werden mit Elektroden. Diese kann durch Bildnachverarbeitung der erfassten Bilddaten bestimmt werden. Wenn nun bestimmt wurde, wo in den Bilddaten und wo damit im Sichtfeld der Bedienperson sich die Untersuchungsperson und die Patientenliege befindet, ist es möglich, die Position der zu projizierenden visuellen Information zu bestimmen und die visuelle Information dann an der berechneten Position in das Sichtfeld der Bedienperson hineinzuprojizieren (Schritt S55).
  • Das Verfahren endet in Schritt S56.
  • Die visuelle Information kann auch als Film ablaufen, beispielsweise wird die visuelle Information derart erzeugt, dass die Bedienperson erkennt, wie die HF-Spule auf die Untersuchungsperson 12 aufgelegt wird und wie die HF-Spule mit der MR-Anlage verbunden wird. Diese animierte Darstellung erleichtert und vereinfacht die korrekte Durchführung des Bedienschritts durch die Bedienperson. Neben der visuellen Information kann beispielsweise eine Audioinformation erzeugt werden, die der Bedienperson vorgespielt wird, wobei die Audioinformation beispielsweise Instruktionen enthalten kann, wie der nächste Bedienschritt durchzuführen ist.
  • Handelt es sich bei dem nächsten durchzuführenden Bedienschritt beispielsweise um das Drücken eines bestimmten Bedienelements an der Bildgebungsvorrichtung, so kann dieser Bedienknopf visuell im Sichtfeld hervorgehoben dargestellt werden, beispielsweise durch ein Blinken des Bedienknopfes oder anderweitig hervorgehoben werden, damit die Bedienperson weiß, welcher Bedienschritt als nächstes durchgeführt werden soll.
  • Für manche Untersuchungen bzw. Ablaufprotokolle sind zusätzliche Geräte notwendig, beispielsweise Geräte zur Überwachung von physiologischen Parametern wie des Herzschlags oder Vorrichtungen zum Injizieren eines Kontrastmittels, ein Atemgurt zur Bestimmung der Atembewegung etc. Das System 100 kann aus den erfassten Bilddaten erkennen, ob diese Geräte schon im Sichtfeld an der richtigen Position angeordnet sind, an der sie laut Ablaufprotokoll vorhanden sein sollen. Ist dies nicht der Fall, kann die Bedienperson noch darüber informiert werden, welche dieser Geräte noch fehlen, wobei eine Geräteinformation erzeugt werden kann, die in das Sichtfeld projiziert wird, entweder als allgemeine Information, welche Geräte noch fehlen, oder speziell an welchem Ort ein Gerät noch fehlt. Die dargestellte Zustandsinformation kann auch an das geltende Ablaufprotokoll angepasst werden, so dass nur die Optionen angezeigt werden, die bei dem gewählten Ablaufprotokoll möglich sind.
  • Wenn das Ablaufprotokoll abgearbeitet wurde, kann am Schluss als weitere Möglichkeit der Zustandsinformation eine Checkliste angezeigt werden, die anzeigt, ob alle durchzuführenden Schritte richtig durchgeführt wurden.
  • Weiterhin ist es möglich, dass das System in den erfassten Bilddaten erkennt, wenn Bedienfehler gemacht wurden. Beispielsweise wurde eine benötigte Teilkomponente wie eine HF-Spule falsch positioniert, oder die Untersuchungsperson wurde falsch auf der Liege positioniert. Dies kann durch Mustererkennung und Bildnachverarbeitung vom System 100 erkannt werden, wobei das System dann eine Fehlerinformation erzeugt, die der Bedienperson zeigt, wo ein Fehler bei der Bedienung gemacht wurde, beispielsweise können die falsch angeordneten Komponenten hervorgehoben dargestellt werden mit der Information, dass ein Fehler bei der hervorgehobenen Komponente vorliegt. Die Information über den Fehler kann auch von der Bildgebungsvorrichtung detektiert und an das System 100 übergeben werden.
  • Das System 100 kann weiterhin eine Eingabeeinrichtung aufweisen, mit der die Bedienperson die MR-Anlage steuern kann, sei es eine berührungsempfindliche Oberfläche oder sonstige Bedienelemente wie Joysticks oder Knüppel, mit denen Teile der Bildgebungsvorrichtung wie beispielsweise die Bewegung der Liege gesteuert werden können.
  • Im Zusammenhang mit 6 ist dargestellt, wie eine MR-Messung unter Verwendung des Systems 100 durchgeführt werden kann. Das Verfahren startet im Schritt S60 und im Schritt S61 wird die Untersuchungsperson registriert. In einem nächsten Schritt S62 werden verschiedene Informationen gesammelt. Diese Informationen können von der Speichereinheit 27 der MR-Anlage kommen, wie beispielsweise die Auswahl des gewünschten Ablaufprotokolls. Ebenso liefern die von der Bilderfassungseinheit 150 erzeugten Bilddaten Informationen, die ausgewertet werden können, um Informationen zu sammeln, die notwendig sind, um die visuelle Information am richtigen Ort zu projizieren. Weiterhin kann das MR-System selbst Informationen liefern. Wie genauer im Zusammenhang mit 5 beschrieben, kann dann die visuelle Information erzeugt und für die Bedienperson angezeigt werden in Schritt S63, wodurch sich ein Sichtfeld mit einer um die visuelle Information erweiterte Realität ergibt. Dies sind Bilddaten, in denen zusätzlich die visuelle Information hineinprojiziert wurde. Im Schritt S64 wird überprüft, ob das Ablaufprotokoll zu Ende ist. Ist dies nicht der Fall, kehrt das System zu Schritt S62 zurück und die Schritte S62 bis S64 werden wiederholt, bis alle Schritte durchgeführt wurden. Wenn dies der Fall ist, kann die MR-Messung gestartet werden in Schritt S65.
  • 6 zeigt das Zusammenwirken der beiden Systeme, d.h. des MR-Systems 10 und des Systems zur Darstellung der erweiterten Realität 100.
  • Wie oben erläutert, ermöglicht die vorliegende Erfindung ein System zur Darstellung einer erweiterten Realität, mit dem auch weniger geübte Bedienpersonen die durchzuführenden Bedienschritte richtig durchführen können. Damit kann die Fehlerquote bei der Durchführung des Ablaufprotokolls vermindert werden und die Bildgebung kann insgesamt beschleunigt werden. Das System zur Darstellung der erweiterten Realität weist eine Prozessoreinheit und eine Speichereinheit auf, wobei in der Speichereinheit Befehle gespeichert sind, die bei Durchführung durch die Prozessoreinheit dazu führen, dass das System die oben erläuterten Schritte durchführt.
  • In einer anderen Ausführung weist das System Mittel auf zur Bestimmung des durchzuführenden Ablaufprotokolls, zum Erfassen von Bilddaten, zum Bestimmen eines nächsten Ablaufschritts und des dazugehörigen Bedienschritts. Weiterhin sind Mittel zum Erzeugen der visuellen Information und dem Projizieren der visuellen Information in das Sichtfeld vorhanden.
  • Mit dem oben beschriebenen System kann die Anzeige und Steuerinformation, die an der bildgebenden Vorrichtung selbst vorhanden sind, entfernt werden, oder deren Umfang kann reduziert werden, da die notwendigen Informationen der Bedienperson durch das System 100 bereitgestellt werden.

Claims (24)

  1. Verfahren zur automatischen Unterstützung einer Bedienperson (15) beim Abarbeiten eines Ablaufprotokolls mit mehreren Ablaufschritten, mit dem eine Untersuchungsperson (12) in einer medizinischen Bildgebungsvorrichtung untersucht wird, mit den folgenden Schritten: – Bestimmen des bei der Untersuchungsperson durchzuführenden Ablaufprotokolls, – Erfassen von Bilddaten, die ein Sichtfeld (16) von zumindest einer Umgebung der medizinischen Bildgebungsvorrichtung (10) und der Untersuchungsperson (12) aus Sicht der Bedienperson zeigen, – Bestimmen eines nächsten Ablaufschrittes des Ablaufprotokolls, bei dem von der Bedienperson (15) ein Bedienschritt durchzuführen ist, – Erzeugen einer visuellen Information (31), mit der die Bedienperson (15) über den durchzuführenden Bedienschritt informiert wird, – Projizieren der visuellen Information (31) in eine Sichtvorrichtung (120) zur Darstellung einer erweiterten Realität der Bedienperson, in der das Sichtfeld um die visuelle Information erweitert dargestellt wird.
  2. Verfahren nach Anspruch 1, wobei die Bilddaten die medizinische Bildgebungsvorrichtung (10) enthalten, wobei eine Position und Orientierung der medizinischen Bildgebungsvorrichtung (10) in den Bilddaten bestimmt wird, und eine Sichtposition der Bedienperson (15), aus der die Bedienperson das Sichtfeld (16) erfasst, unter Berücksichtigung der bestimmten Position und Orientierung der medizinischen Bildgebungsvorrichtung bestimmt wird.
  3. Verfahren nach Anspruch 2, das weiterhin den folgenden Schritt umfasst: – Empfangen von Sensordaten von einem Sensor, der aus folgender Gruppe ausgewählt ist: ein Beschleunigungssensor; ein Magnetfeldsensor; ein Ultraschallsensor; ein Photodetektor; und eine HF-Spule; wobei zumindest eines von der Position der medizinischen Bildgebungsvorrichtung (10) in den Bilddaten, der Orientierung der medizinischen Bildgebungsvorrichtung (10) in den Bilddaten und der Sichtposition der Bedienperson (15) basierend auf den Sensordaten bestimmt wird.
  4. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass eine Positionierung der Untersuchungsperson (12) relativ zur medizinischen Bildgebungsvorrichtung (10) automatisch aus dem durchzuführenden Ablaufprotokoll bestimmt wird und die Positionierung der Untersuchungsperson (12) relativ zur medizinischen Bildgebungsvorrichtung (10) als visuelle Information (31) in das Sichtfeld projiziert wird.
  5. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass neben der visuellen Information (31) eine personbezogene Information (30) bestimmt wird, die über die Untersuchungsperson informiert, wobei die personenbezogene Information (30) in das Sichtfeld (120) projiziert wird.
  6. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass aus dem bestimmten Ablaufprotokoll automatisch bestimmt wird, welche zusätzlichen Geräte für die Durchführung des Ablaufprotokolls benötigt werden, wobei eine Geräteinformation über die zusätzlich benötigten Geräte erzeugt wird und in das Sichtfeld (120) projiziert wird.
  7. Verfahren nach Anspruch 6, weiterhin umfassend: – Bestimmen anhand der erfassten Bilddaten, welche der zusätzlichen Geräte schon betriebsfertig im Sichtfeld der Bedienperson angeordnet sind, – Bestimmen der noch fehlenden Geräte, – Erzeugen der Geräteinformation derart, dass die Bedienperson darüber informiert wird, welche Geräte noch fehlen.
  8. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die Bilddaten überprüft werden, ob in den Bilddaten ein Bedienfehler enthalten ist, bei dem bei der medizinischen Bildgebungsvorrichtung oder bei der Untersuchungsperson eine Situation entdeckt wird, die nicht mit dem Ablaufprotokoll übereinstimmt, wobei aus der Situation eine Fehlerinformation bestimmt und in das Sichtfeld projiziert wird.
  9. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass der nächsten durchzuführende Bedienschritt in eine Audioinformation umgewandelt wird und die Audioinformation der Bedienperson vorgespielt wird.
  10. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die medizinische Bildgebungsvorrichtung (10) eine MR-Anlage ist.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass der nächste durchzuführende Ablaufschritt das Positionieren einer HF-Spule an der Untersuchungsperson (12) ist, wobei die projizierte visuelle Information eine Positionierung der HF-Spule relativ zur MR-Anlage (10) und der Untersuchungsperson (12) aufweist.
  12. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass ein aktueller Zustand von der medizinischen Bildgebungsvorrichtung bestimmt wird und aus dem aktuellen Zustand eine Zustandsinformation (32) bestimmt wird, die neben der visuellen Information (31) in das Sichtfeld projiziert wird.
  13. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass ein Ort in den Bilddaten relativ zu zumindest einem anderen in den Bilddaten enthaltenen Objekt bestimmt ist an dem die visuelle Information in die Bilddaten angeordnet wird, wobei die visuelle Information an dem bestimmten Ort in das Sichtfeld projiziert wird.
  14. System (100) zur Darstellung einer erweiterten Realität, welches ausgebildet ist, eine Bedienperson (15) bei der Durchführung eines Ablaufprotokolls mit mehreren Ablaufschritten, mit dem eine Untersuchungsperson (12) in einer medizinischen Bildgebungsvorrichtung untersucht wird, zu unterstützen, das aufweist: – eine Bilderfassungseinheit (150), die ausgebildet ist, Bilddaten, die ein Sichtfeld (15) von zumindest einer Umgebung der medizinischen Bildgebungsvorrichtung (10) und der Untersuchungsperson aus Sicht der Bedienperson zeigen, zu erfassen, – eine Sichtvorrichtung (120) für die Bedienperson, – eine Prozessoreinheit (130), die ausgebildet ist, – das bei der Untersuchungsperson durchzuführende Ablaufprotokoll zu bestimmen, – einen nächsten durchzuführenden Ablaufschritt des Ablaufprotokolls zu bestimmen, bei dem von der Bedienperson (15) ein Bedienschritt durchzuführen ist, – eine visuelle Information (31) zu bestimmen, mit der die Bedienperson (15) über den durchzuführenden Bedienschritt informiert wird, – die visuelle Information (31) in eine Sichtvorrichtung (120) zur Darstellung einer erweiterten Realität der Bedienperson zu projizieren, in der das Sichtfeld um die visuelle Information (31) erweitert dargestellt wird.
  15. System (100) nach Anspruch 14, wobei die Bilddaten die medizinische Bildgebungsvorrichtung (10) enthalten, wobei die Prozessoreinheit (130) ausgebildet ist, eine Position und Orientierung der medizinischen Bildgebungsvorrichtung (10) in den Bilddaten und eine Sichtposition der Bedienperson (15), aus der die Bedienperson das Sichtfeld (16) erfasst, zu bestimmen unter Berücksichtigung der bestimmten Position und Orientierung der medizinischen Bildgebungsvorrichtung.
  16. System (100) nach Anspruch 15, wobei die Prozessoreinheit (130) ausgebildet ist, um zumindest eines von der Position der medizinischen Bildgebungsvorrichtung (10) in den Bilddaten, der Orientierung der medizinischen Bildgebungsvorrichtung (10) in den Bilddaten und der Sichtposition der Bedienperson (15) basierend auf Sensordaten zu bestimmen, die von einem Sensor empfangen werden, der aus folgender Gruppe ausgewählt ist: ein Beschleunigungssensor; ein Magnetfeldsensor; ein Ultraschallsensor; ein Photodetektor; und eine HF-Spule.
  17. System (100) nach einem der Ansprüche 14–16, dadurch gekennzeichnet, dass die Prozessoreinheit (130) ausgebildet ist, eine Positionierung der Untersuchungsperson (12) relativ zur medizinischen Bildgebungsvorrichtung (10) automatisch aus dem durchzuführenden Ablaufprotokoll zu bestimmen und die Positionierung der Untersuchungsperson relativ zur medizinischen Bildgebungsvorrichtung (10) als visuelle Information in der Sichtvorrichtung in das Sichtfeld (120) zu projizieren.
  18. System (100) nach einem der Ansprüche 13 bis 17, dadurch gekennzeichnet, dass die Prozessoreinheit (130) ausgebildet ist, neben der visuellen Information (31) eine personenbezogene Information (30) zu bestimmen, die über die Untersuchungsperson informiert und die personbezogene Information (30) in der Sichtvorrichtung in das Sichtfeld zu projizieren.
  19. System (100) nach einem der Ansprüche 13 bis 18, dadurch gekennzeichnet, dass die Prozessoreinheit (130) ausgebildet ist, – aus dem bestimmten Ablaufprotokoll automatisch zu bestimmen, welche zusätzlichen Geräte für die Durchführung des Ablaufprotokolls benötigt werden, – eine Geräteinformation über die zusätzlich benötigten Geräte zu erzeugen und in der Sichtvorrichtung in das Sichtfeld zu projizieren.
  20. System (100) nach Anspruch 19, dadurch gekennzeichnet, dass die Prozessoreinheit ausgebildet ist, – anhand der erfassten Bilddaten zu bestimmen, welche der zusätzlichen Geräte schon betriebsfertig im Sichtfeld der Bedienperson angeordnet sind, – die noch fehlenden Geräte zu bestimmen, – die Geräteinformation derart zu erzeugen, dass die Bedienperson darüber informiert wird, welche Geräte noch fehlen.
  21. System (100) nach einem der Ansprüche 13 bis 20, dadurch gekennzeichnet, dass die Prozessoreinheit (130) ausgebildet ist, die Bilddaten zu überprüfen, ob in den Bilddaten ein Bedienfehler enthalten ist, bei dem bei der medizinischen Bildgebungsvorrichtung oder bei der Untersuchungsperson eine Situation entdeckt wird, die nicht mit dem Ablaufprotokoll übereinstimmt, aus der Situation eine Fehlerinformation zu bestimmen und in der Sichtvorrichtung in das Sichtfeld zu projizieren.
  22. System (100) nach einem der Ansprüche 13 bis 21, weiterhin umfassend zumindest einen Lautsprecher (160), wobei die Prozessoreinheit ausgebildet ist, den nächsten durchzuführende Bedienschritt in eine Audioinformation umzuwandeln, wobei der Lautsprecher die Audioinformation der Bedienperson vorspielt.
  23. System (100) nach einem der Ansprüche 13 bis 22, dadurch gekennzeichnet, dass die medizinische Bildgebungsvorrichtung (10) eine MR-Anlage ist, der nächste durchzuführende Ablaufschritt das Positionieren einer HF-Spule an der Untersuchungsperson (12) ist, wobei die Prozessoreinheit ausgebildet ist, eine Positionierung der HF-Spule relativ zur MR-Anlage und der Untersuchungsperson als visuelle Information in der Sichtvorrichtung (120) in das Sichtfeld zu projizieren.
  24. System (100) nach einem der Ansprüche 13 bis 23, dadurch gekennzeichnet, dass die Prozessoreinheit ausgebildet ist, einen aktuellen Zustand von der medizinischen Bildgebungsvorrichtung zu bestimmen und aus dem aktuellen Zustand eine Zustandsinformation (32) zu bestimmen, die neben der visuellen Information (31) in der Sichtvorrichtung in das Sichtfeld projiziert wird.
DE102015216917.0A 2015-09-03 2015-09-03 System zur Darstellung einer erweiterten Realität über eine Bedienperson Pending DE102015216917A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102015216917.0A DE102015216917A1 (de) 2015-09-03 2015-09-03 System zur Darstellung einer erweiterten Realität über eine Bedienperson
CN201610797890.2A CN106491206B (zh) 2015-09-03 2016-08-31 用于关于操作人员显示扩展现实的系统
US15/255,191 US10055870B2 (en) 2015-09-03 2016-09-02 Method and system for displaying an augmented reality to an operator of a medical imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015216917.0A DE102015216917A1 (de) 2015-09-03 2015-09-03 System zur Darstellung einer erweiterten Realität über eine Bedienperson

Publications (1)

Publication Number Publication Date
DE102015216917A1 true DE102015216917A1 (de) 2017-03-09

Family

ID=58054989

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015216917.0A Pending DE102015216917A1 (de) 2015-09-03 2015-09-03 System zur Darstellung einer erweiterten Realität über eine Bedienperson

Country Status (3)

Country Link
US (1) US10055870B2 (de)
CN (1) CN106491206B (de)
DE (1) DE102015216917A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021206761A1 (de) 2021-06-29 2022-12-29 Siemens Healthcare Gmbh Vorrichtung, System und Verfahren zur Unterstützung eines Vorgangs einer Bildgebungsuntersuchung

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018156809A1 (en) * 2017-02-24 2018-08-30 Masimo Corporation Augmented reality system for displaying patient data
EP3585254B1 (de) 2017-02-24 2024-03-20 Masimo Corporation Kabel für eine medizinische vorrichtung und verfahren zur teilung von daten zwischen verbundenen medizinischen vorrichtungen
US11369440B2 (en) * 2017-04-17 2022-06-28 The John Hopkins University Tactile augmented reality for medical interventions
US10932705B2 (en) 2017-05-08 2021-03-02 Masimo Corporation System for displaying and controlling medical monitoring data
US20190018085A1 (en) * 2017-07-11 2019-01-17 Lockheed Martin Corporation Magnetometer with thermal electric cooling of the excitation light source
EP3441004B1 (de) * 2017-08-11 2019-12-11 Siemens Healthcare GmbH Verfahren zur aufnahme eines bilddatensatzes mit einem röntgenbildgebungssystem und röntgenbildgebungssystem
DE102017220529A1 (de) * 2017-11-17 2019-05-23 Siemens Healthcare Gmbh Verfahren zur Bedienung einer Blendeneinrichtung einer Röntgeneinrichtung und Röntgeneinrichtung
EP3720554B1 (de) * 2017-12-07 2021-07-07 Brainlab AG Patientenpositionierung unter verwendung eines skelettmodells
EP3689229A1 (de) * 2019-01-30 2020-08-05 DENTSPLY SIRONA Inc. Verfahren und system zur visualisierung von patientenstress
US10885338B2 (en) 2019-05-23 2021-01-05 International Business Machines Corporation Identifying cable ends using augmented reality
WO2024038031A1 (en) * 2022-08-18 2024-02-22 Koninklijke Philips N.V. Methods and systems for augmented reality display within the mri environment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020082498A1 (en) * 2000-10-05 2002-06-27 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
US20050206583A1 (en) * 1996-10-02 2005-09-22 Lemelson Jerome H Selectively controllable heads-up display system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009039519A (ja) * 2007-07-18 2009-02-26 Toshiba Corp 磁気共鳴イメージング装置、セッティング支援装置及びセッティング支援方法
JP5402293B2 (ja) * 2009-06-22 2014-01-29 ソニー株式会社 頭部装着型ディスプレイ、及び、頭部装着型ディスプレイにおける画像表示方法
CN104470458B (zh) * 2012-07-17 2017-06-16 皇家飞利浦有限公司 用于手术仪器引导的增强现实成像系统
US20140081659A1 (en) * 2012-09-17 2014-03-20 Depuy Orthopaedics, Inc. Systems and methods for surgical and interventional planning, support, post-operative follow-up, and functional recovery tracking
CN107004044A (zh) * 2014-11-18 2017-08-01 皇家飞利浦有限公司 增强现实设备的用户引导系统和方法、使用

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050206583A1 (en) * 1996-10-02 2005-09-22 Lemelson Jerome H Selectively controllable heads-up display system
US20020082498A1 (en) * 2000-10-05 2002-06-27 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021206761A1 (de) 2021-06-29 2022-12-29 Siemens Healthcare Gmbh Vorrichtung, System und Verfahren zur Unterstützung eines Vorgangs einer Bildgebungsuntersuchung

Also Published As

Publication number Publication date
CN106491206A (zh) 2017-03-15
CN106491206B (zh) 2019-10-08
US10055870B2 (en) 2018-08-21
US20170069120A1 (en) 2017-03-09

Similar Documents

Publication Publication Date Title
DE102015216917A1 (de) System zur Darstellung einer erweiterten Realität über eine Bedienperson
DE60317358T2 (de) System zur Positionierung einer medizinischen Vorrichtung
DE102005029242B4 (de) Verfahren zur Aufnahme und Auswertung von Bilddaten eines Untersuchungsobjekts und dazugehörige Einrichtung
DE102012210821A1 (de) Verfahren zu einer Kommunikation zwischen einer Steuereinheit und einem Patienten und/oder einem Bedienpersonal sowie eine medizinische Bildgebungsvorrichtung hierzu
DE102006024973B4 (de) Röntgenanlage und Betriebsverfahren mit Einstellungserfassungseinrichtung
DE102007019827A1 (de) System und Verfahren zur Ermittlung der Position eines Instruments
DE102012216327A1 (de) Verfahren zur Erfassung einer Bewegung eines Patienten während einer medizinischen Bildgebungsuntersuchung
DE102007038382A1 (de) Oberkörper-Magnetresonanzgerät sowie Steuerverfahren dazu
DE102012216292A1 (de) Magnetresonanzbaueinheit, eine Magnetresonanzvorrichtung mit der Magnetresonanzbaueinheit sowie ein Verfahren zu einem Bestimmen einer Bewegung eines Patienten während einer Magnetresonanzuntersuchung
DE102012215496A1 (de) Verfahren zur automatischen Positionierung eines Aufnahmesystems eines Röntgengerätes und Röntgengerät
DE102007009764A1 (de) Verfahren und Vorrichtung zur visuellen Unterstützung einer Katheteranwendung
DE102014207124A1 (de) Medizinische Bildgebungsvorrichtung
WO2019149400A1 (de) Verfahren zur positionsplanung eines aufnahmesystems eines medizinischen bildgebenden geräts und medizinisches bildgebendes gerät
DE10160530B4 (de) Verfahren und Anlage zur Magnetresonanz-Bildgebung
EP3424420A1 (de) Verfahren zu einem unterstützen eines benutzers bei einem positionieren einer zubehöreinheit für eine magnetresonanzuntersuchung an einem untersuchungsobjekt und eine magnetresonanzvorrichtung
DE102009054990A1 (de) Messprotokoll-Optimierung für ein medizintechnisches Gerät
DE102007059149A1 (de) Verfahren zur Überwachung einer Untersuchungsperson
DE102014214104A1 (de) Verfahren zu einem Festlegen eines absoluten Scanbereichs an einem Patienten
DE102014205313A1 (de) Verfahren zur Registrierung einer Nahinfrarotspektroskopiekarte und eines Anatomiebilddatensatzes und Röntgeneinrichtung
DE102013201830A1 (de) Medizinische Bildgebungsvorrichtung mit einer Bewegungserfassungseinheit sowie ein Verfahren zu einer Erfassung einer Patientenbewegung
DE102011006537B4 (de) Verfahren zur Registrierung eines ersten Koordinatensystems einer ersten medizinischen Bildgebungseinrichtung mit einem zweiten Koordinatensystem einer zweiten medizinischen Bildgebungseinrichtung und/oder einem dritten Koordinatensystem eines medizinischen Instruments, welches durch Marker einer medizinischen Navigationseinrichtung definiert ist, und medizinisches Untersuchungs- und/oder Behandlungssystem
DE102011083387A1 (de) Medizinisches Bildgebungsverfahren sowie ein medizinisches Bildgebungssystem, das zu einem Ausführen des medizinischen Bildgebungsverfahrens ausgelegt ist
DE102020121807A1 (de) Ansichtsänderung für die ultraschalldiagnostik während der untersuchung
DE102011079503A1 (de) Verfahren zu einer Bilddatenaufnahme sowie eine Magnetresonanzvorrichtung zu einer Durchführung des Verfahrens
DE102014210218A1 (de) Verfahren zum Generieren von medizinischen Bilddatensätzen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034100000

R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE