DE69838698T2 - Bildanzeigevorrichtung und Verfahren - Google Patents

Bildanzeigevorrichtung und Verfahren Download PDF

Info

Publication number
DE69838698T2
DE69838698T2 DE69838698T DE69838698T DE69838698T2 DE 69838698 T2 DE69838698 T2 DE 69838698T2 DE 69838698 T DE69838698 T DE 69838698T DE 69838698 T DE69838698 T DE 69838698T DE 69838698 T2 DE69838698 T2 DE 69838698T2
Authority
DE
Germany
Prior art keywords
image
tomographic
plane
fov
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69838698T
Other languages
English (en)
Other versions
DE69838698D1 (de
Inventor
Natsuk Hino-shi Sato
Makoto Hino-shi Gono
Shogo Hino-shi Azeomoto
Manabu Yokohama-shi Minami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Healthcare Japan Corp
Original Assignee
GE Yokogawa Medical System Ltd
Yokogawa Medical Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GE Yokogawa Medical System Ltd, Yokogawa Medical Systems Ltd filed Critical GE Yokogawa Medical System Ltd
Publication of DE69838698D1 publication Critical patent/DE69838698D1/de
Application granted granted Critical
Publication of DE69838698T2 publication Critical patent/DE69838698T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • A61B6/5241Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT combining overlapping images of the same imaging modality, e.g. by stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/028Multiple view windows (top-side-front-sagittal-orthogonal)

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Pulmonology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Bilddarstellungsverfahren und eine Bilddarstellungsvorrichtung, in der die Flächen- und interne Beschaffenheiten eines zu untersuchenden Objektes gleichzeitig dargestellt werden können.
  • Ein Verfahren, das herkömmlich in diagnostischen medizinischen Anwendungen praktiziert wird, weist auf: das Akquirieren von Daten für ein innen liegendes menschliches Gewebe durch eine Akquisitionseinrichtung für die Bildinformation, wie beispielsweise eine Röntgenstrahlen-CT-(Computed Tomography: CT)-Vorrichtung oder eine Magnetresonanz-Bildgebungsvorrichtung; das einmalige Speichern der akquirierten Daten in einer Bildinformations-Speichereinrichtung, wie beispielsweise einem Magnetband einer magnetischen Diskette, einer optischen Diskette oder einem Halbleiterspeicher; das zufällige Adressieren der Bildinformationsspeichereinrichtung, um ein geeignetes tomographisches Bild zu rekonstruieren, und die Darstellung des Bildes auf einer Darstellungseinrichtung, wie beispielsweise einem CRT.
  • Der Stand der Technik enthält eine Technik, bei der eine Röntgenstrahlen-CT-Vorrichtung oder Ähnliches zur Abtastung oder zum Scannen von mehreren Schichten verwendet wird, um mehrere tomographische Bilder zu akquirieren, die verwendet werden, um ein Bild zu erzeugen, das einem Bild, das durch eine endoskopische Beobachtung erhalten wird, sehr ähnlich ist. Auf die folgende Literaturstelle wird verwiesen: Reed J-E. et. Al.: „Interpretation of Image Sets Containing Convolutes Tubular Structures via Transluminal Sections and Steerable Intraluminal Perspective Views", Proceedings von SPIE, SPIE, Bellingham, VA, US, Vol. 2710, April 1996, Seiten 1009 –1019, XP009008399. Die Technik wurde durch den vorliegenden Anmelder in der japanischen Anmeldung Nr. 8-187185 (1996) offenbart.
  • In der vorstehenden herkömmlichen Technik ist die Fläche der innen liegenden Wand, usw. des innen liegenden Körpergewebes dargestellt, wie beispielsweise des Darmgewebes, wenn ein dreidimensionales (3D) Bild dargestellt wird, wie dieses von einem virtuellen Endoskop betrachtet wird. Um bei dem vorstehenden Beispiel zu bleiben, war jedoch die Kombination der Darstellung hiervon mit Information über das innen liegende Gewebe, wie beispielsweise Information über das innen liegende Gewebe, das die Wandfläche des Darms ausmacht, nicht möglich.
  • Das bedeutet, das ein Problem daraus entsteht, dass nur die Oberflächenbeschaffenheit dargstellt werden kann, aber die innere oder innen liegende Beschaffenheit, die dem Arzt beispielsweise erlaubt zu erkennen, wie tief ein Tumor in das Gewebe hineinragt, nicht dargestellt werden kann.
  • Obwohl das vorstehende Verfahren einem Bediener erlaubt die Richtung der Zentrumslinie des Betrachtungsausschnitts (field of view: FOV) willkürlich zu ändern, ist es darüber hinaus für den Bediener schwierig, die gegenwärtige Richtung der Zentrumslinie des FOV räumlich zu erkennen, da die Referenzbilder (axial, sagittal und coronal) nicht synchron bezogen auf die Änderung der Richtung der Zentrumslinie des FOV dargestellt werden.
  • Die vorliegende Erfindung zielt dahin, ein Verfahren zur Bilddarstellung und eine Bilddarstellungs-Vorrichtung zu schaffen, in der die Flächen- und die innere Beschaffenheit gleichzeitig dargstellt werden können.
  • Die Erfindung zielt ebenfalls dahin, ein Verfahren zur Bilddarstellung und eine Bilddarstellungs-Vorrichtung zu schaffen, in der die Fläche und internen Beschaffenheit gleichzeitig dargestellt werden können und die Referenzbilder (axial, sagittal, coronal) ebenfalls synchron mit der Änderung der Richtung der Zentrumslinie des FOV dargestellt werden können.
  • Gemäß einem ersten Aspekt schafft die vorliegende Erfindung ein Bilddarstellungsverfahren, das die Schritte aufweist: Erzeugen eines dreidimensional (3D) Bildes, das eine Wandfläche des 3D Gewebes so darstellt, wie diese von einem Betrachtungspunkt des in dem vom 3D-Gewebe gebildeten inneren Raum aus gesehen wird; Erzeugen eines tomographischen Bildes an einem Querschnittsort, der als nahe dem Betrachtungspunkt oder einem zweidimensionalen (2D) Bild liegend definiert ist, das durch die Bearbeitung des tomographischen Bildes und Entfernen eines 3D Bildbereichs hiervon erhalten wird, und Darstellen des tomographischen Bildes oder des 2D Bildes, das mit dem 3D-Bild so überlagert wird, dass die Fläche und die inneren Beschaffenheiten eines zu untersuchenden Objektes gleichzeitig auf einer gewöhnlichen Darstellungseinrichtung dargestellt werden.
  • Durch die Verwendung des Bilddarstellungsverfahren gemäß dem ersten Aspekt wird ein 3D Bild (beispielsweise ein 3D Bild im Endoskop-Modus) dargestellt, das das 3D Gewebe so darstellt, wie dies von einem Betrachtungspunkt aus gesehen wird, und gleichzeitig ein tomographisches Bild nahe dem Betrachtungspunkt darstellt, oder ein 2D Bild darstellt, das durch die Bearbeitung des tomographischen Bildes erhalten ist. Folglich können die Fläche und die inneren Beschaffenheiten gleichzeitig dargstellt werden.
  • Gemäß einem zweiten Aspekt, schafft die vorliegende Erfindung eine Bilddarstellungsvorrichtung, die aufweist: eine 3D-Bilderezugungseinrichtung zum Erzeugen eines 3D-Bildes, das eine Wandfläche des 3D-Gewebes darstellt, wie diese von einem Betrachtungspunkt des in dem vom 3D Gewebe gebildeten inneren Raum gesehen wird; eine 2D-Bilderzeugungseinrichtung zum Erzeugen eines tomographischen Bildes des 3D-Gewebes an einem Querschnittsort, der als nahe am Betrachtungspunkt liegend definiert ist, oder zum Erzeugen eines zweidimensionalen (2D) Bildes, das durch die Bearbeitung des tomographischen Bildes und Entfernen des 3D-Bildbereichs davon erhalten wird, und eine Bilddarstellungseinrichtung zum Darstellen des tomographischen Bildes oder des 2D-Bildes, das mit dem 3D-Bild so überlagert wird, dass die Fläche und die inneren Beschaffenheiten eines zu untersuchenden Objektes gleichzeitig auf einem gewöhnlichen Bildschirm dargestellt werden.
  • Durch die Verwendung der Bilddarstellungsvorrichtung gemäß dem zweiten Aspekt kann das Bilddarstellungsverfahren gemäß dem ersten Aspekt auf geeignete Art und Weise durchgeführt werden. Demzufolge können die Fläche und die inneren Beschaffenheiten gleichzeitig dargestellt werden, beispielsweise eines Tumors, der sich an der Wand des Dickarms entwickelt hat.
  • Gemäß einem dritten Aspekt schafft die vorliegende Erfindung eine Bilddarstellungsvorrichtung, wie diese bezogen auf den zweiten Aspekt beschrieben wurde, worin die 2D-Bilderzeugung ein tomographisches Bild in einer Ebene (die nachfolgend als eine synchroaxiale Ebene bezeichnet wird) senkrecht zu einer Richtung der Zentrumslinie des FOV erzeugt ist, und ein tomographisches Bild in einer Ebene erzeugt, die senkrecht zu der synchroaxialen Ebene ist.
  • Gemäß einem vierten Aspekt schafft die vorliegende Erfindung eine Bilddarstellungsvorrichtung, wie diese bezogen auf den zweiten Aspekt beschrieben wurde, worin die 3D-Bilderzeugungseinrichtung das 3D-Bild aus Datensätzen für mehrere tomographische Bilder unter Einbeziehung des 3D-Gewebes erzeugt.
  • Gemäß einem fünften Aspekt schafft die vorliegende Erfindung eine Bilddarstellungsvorrichtung wie diese in Bezug auf den dritten Aspekt beschrieben wurde, worin die 3D-Bilderzeugungseinrichtung den Betrachtungspunkt definiert und eine Richtung der Zentrumslinie des Bildausschnitts (field of view: FOV) vom Betrachtungspunkt aus oder zusätzlich mit einem festen Winkel vom Betrachtungspunkt aus definiert, um das 3D-Bild zu erzeugen.
  • Gemäß einem sechsten Aspekt schafft die Erfindung eine Bilddarstellungsvorrichtung, wie diese in Bezug auf den vierten Aspekt beschrieben wurde, worin die 3D-Bilderzeugungseinrichtung mehrere tomographische Bilder verwendet, um den Betrachtungspunkt zu erzeugen.
  • Gemäß einem siebenten Aspekt schafft die vorliegende Erfindung eine Bilddarstellungsvorrichtung, wie diese in Bezug auf den dritten Aspekt beschrieben wurde, worin die 2D-Bilderzeugungseinrichtung mehrere tomographische Bilder verwendet.
  • Gemäß einem achten Aspekt schafft die vorliegende Erfindung eine Bilddarstellungsvorrichtung, wie diese in Bezug auf den dritten, Aspekt beschrieben wurde, worin die 2D-Bilderzeugungseinrichtung das 2D-Bild mittels einer Durchführung einer Interpolationsberechnung auf dem tomographischen Bild erzeugt.
  • Gemäß einem neunten Aspekt schafft die vorliegende Erfindung eine Bilddarstellungsvorrichtung, wie diese in einem vierten Aspekt beschrieben wurde, worin das 2D-Bild senkrecht zu der Richtung der Zentrumslinie des FOV ist.
  • Gemäß einem zehnten Aspekt schafft die vorliegenden Erfindung eine Bilddarstellungsvorrichtung, wie diese in einem vierten Aspekt beschrieben wurde, worin die 3D-Bilderzeugungseinrichtung und die 2D-Bilderzeugungseinrichtung jeweils ein neues 3D-Bild und ein neues 2D-Bild entsprechend der Änderungen erzeugen, wenn mindestens eines aus den Folgenden erfüllt ist: der Betrachtungspunk, die Richtung der Zentrumslinie des FOV, der feste Winkel wird geändert.
  • Gemäß einem elften Aspekt schafft die vorliegenden Erfindung eine Bilddarstellungsvorrichtung, wie diese in einem dritten Aspekt beschrieben wurde, worin das 2D-Bild mittels der Durchführung einer Interpolationsberechnung auf den tomographischen Bildern in mehreren der synchroaxialen Ebenen erzeugt wird.
  • Gemäß einem zwölften Aspekt schafft die vorliegenden Erfindung eine Bilddarstellungsvorrichtung, wie diese in einem dritten Aspekt beschrieben wurde, worin das tomographische Bild in einer Ebene rechtwinkelig zu der synchroaxialen Ebene zu einer veränderlichen Position der Ebene gehört.
  • Das bedeutet, das das tomographische Bild sich in einer Ebene bewegt, die senkrecht zu der synchroaxialen Ebene bezogen auf eine Position in der Richtung der Zentrumslinie des FOV liegt, und ein tomographisches Bild an der bewegten Position dargestellt wird.
  • Gemäß einem dreizehnten Aspekt schafft die vorliegende Erfindung eine Bilddarstellungsvorrichtung, wie diese in einem zwölften Aspekt beschrieben wurde, worin eine Position, die zu dem tomographischen Bild in der synchroaxialen Ebene gehört, auf dem tomographischen Bild in einer Ebene senkrecht zu der synchroaxialen Ebene oder in einem 2D Bild dargestellt wird, das durch die Bearbeitung des tomographischen Bildes erhalten ist.
  • Folglich kann eine Position, die zu dem tomographischen Bild in der synchroaxialen Ebene gehört, auf dem tomographischen Bild in einer Ebene senkrecht zu der synchroaxialen Ebene oder auf dem 2D Bild gefunden werden, das durch die Bearbeitung des tomographischen Bildes erhalten ist.
  • Gemäß einem vierzehnten Aspekt schafft die vorliegende Erfindung eine Bilddarstellungsvorrichtung, wie diese in einem dritten Aspekt beschrieben wurde, worin die 3D-Erzeugungseinrichtung und die 2D-Erzeugungseinrichtung ein neues 3D-Bild und ein neues tomographisches Bild in der synchroaxialen Ebene und ein neues tomographisches Bild in einer Ebene senkrecht zur synchroaxialen Ebene erzeugen, oder ein neues 2D-Bild, das durch Bearbeiten des tomographischen Bilder erhalten wird, jeweils gemäß der Änderungen erzeugen, wenn mindestens einer der Folgenden erfüllt ist: Betrachtungspunkt, Richtung der Zentrumslinie des FOV und fester Winkels wird geändert.
  • Folglich kann ein neues 3D-Bild und ein neues tomographisches Bild in der synchroaxialen Ebene und ein neues tomographisches Bild in einer Ebene senkrecht zur synchroaxialen Ebene darge stellt werden, oder ein neues 2D-Bild dargestellt werden, das durch Bearbeiten des tomographischen Bilder erhalten wird, wenn der Betrachtungspunkt, usw. geändert wird.
  • Gemäß einem fünfzehnten Aspekt schafft die vorliegenden Erfindung eine Bilddarstellungsvorrichtung, wie diese in einem ersten Aspekt beschrieben wurde, worin die Erzeugung eines tomographischen Bildes die Erzeugung eines tomographischen Bildes in einer Ebene senkrecht zu der Richtung der Zentrumslinie des FOV beinhaltet.
  • Folglich können gemäß dem Bilddarstellungsverfahren und der Bilddarstellungsvorrichtung der vorliegenden Erfindung, ein 3D Bild (beispielsweise ein so genanntes 3D Bild im Endoskop-Modus), das 3D Gewebe darstellt, wie dieses von einem Betrachtungspunkt aus gesehen wird, und ein zusätzliches 2D Bild dargestellt werden, das einen Bereich, der zu der Peripherie des 3D Bildes gehört, wobei es ermöglicht wird, dass die Fläche und inneren Beschaffenheiten gleichzeitig beeinflusst werden. Darüber hinaus können die Referenzbilder (axiale, sagittale und coronale Bilder) synchron mit der Änderung der Richtung der Zentrumslinie des FOV dargestellt werden, was dem Bediener erlaubt die gegenwärtige Richtung der Zentrumslinie des FOV klar zu erkennen.
  • Die Erfindung wird nachfolgend genauer an Hand von Beispielen in Bezug auf die Zeichnung beschrieben, in der:
  • 1 ein Diagramm einer Konfiguration ist, die eine Bilddarstellungsvorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung zeigt;
  • 2 ein schematisches Diagramm ist, das ein 3D Bild zeigt, das durch die in 1 gezeigte Bilddarstellungsvorrichtung aufgenommen ist;
  • 3 ein Ablaufdiagramm eines Verfahrens ist, in dem die in 1 gezeigte Bilddarstellungsvorrichtung verwendet wird, um ein 3D Bild in einem Endoskop-Modus darzustellen;
  • 4 ein schematisches Diagramm ist, das mehrere der 2D Bilder zeigt, auf denen ein 3D Bild basiert;
  • 5 ein beispielhaftes Diagramm ist, das einen Bildschirm zum Eingeben eines Betrachtungspunktes auf dem 2D Bild darstellt;
  • 6 ein beispielhaftes Diagramm ist, das die Darstellung des 3D Bildes durch die in 1 gezeigte Bilddarstellungsvorrichtung zeigt;
  • 7 ein beispielhaftes Diagramm ist, das ein peripheres Bild zeigt, das durch die in 1 gezeigte Bilddarstellungsvorrichtung aufgenommen ist;
  • 8 ein konzeptionelles Diagramm ist, das die Darstellung des 3D Bildes und des peripheren Bildes durch die in 1 gezeigte Bilddarstellungsvorrichtung zeigt;
  • 9 ein beispielhaftes Diagramm ist, das die Darstellung des 3D Bildes und des peripheren Bildes zeigt, das durch die in 1 gezeigte Bilddarstellungsvorrichtung aufgenommen ist;
  • 10 ein beispielhaftes Diagramm ist, das die Darstellung des 3D Bildes, des peripheren Bildes und eines Querschnittsor tes durch die in 1 gezeigte Bilddarstellungsvorrichtung zeigt.
  • 11 ein beispielhaftes Diagramm ist, das eine andere Darstellung des 3D Bildes, des peripheren Bildes und eines Querschnittsortes durch die in 1 gezeigte Bilddarstellungsvorrichtung zeigt;
  • 12 eine Konfiguration ist, die eine Bilddarstellungsvorrichtung gemäß einer zweiten Ausführungsform der vorliegenden Erfindung zeigt;
  • 13 ein Ablaufdiagramm einer Prozedur ist, in der die in 12 gezeigte Bilddarstellungsvorrichtung verwendet wird, um einen 3D Bild in einem Endoskopmodus darzustellen;
  • 14 ein konzeptionelles Diagramm ist, das ein Querschnittsbild darstellt, das durch die in 12 gezeigte Bilddarstellungsvorrichtung erhalten ist;
  • 15 ein konzeptionelles Diagramm ist, das ein übereinander gelegtes Bild darstellt, das durch eine in 12 gezeigte Bilddarstellungsvorrichtung aufgenommen ist;
  • 16 ein Konfigurationsdiagramm ist, das eine Bilddarstellungsvorrichtung gemäß einer dritten Ausführungsform der Erfindung zeigt;
  • 17 ein Ablaufdiagramm einer Prozedur ist, in der die in 16 gezeigte Bilddarstellungsvorrichtung verwendet wird, um ein 3D Bild in einem Endoskop-Modus darzustellen;
  • 18 ein Ablaufdiagramm ist, das das Ablaufdiagramm von 17 fortsetzt;
  • 19 ein weiteres Ablaufdiagramm ist, das das Ablaufdiagramm von 20 fortsetzt;
  • 20 ein beispielhaftes Diagramm ist, das eine synchrosagittale Ebene und eine synchro-coronale Ebene darstellt;
  • 21 ein beispielhaftes Diagramm ist, das eine sychrosagittale Ebene und eine synchro-coronale Ebene darstellt;
  • 22 ein beispielhaftes Diagramm ist, das eine Normale der axialen Ebene darstellt;
  • 23 ein schematisches Diagramm ist, das das 3D Bild und die Referenzbilder zeigt, die durch die in 16 dargestellte Bilddarstellungsvorrichtung erhalten sind.
  • Erste Ausführungsform
  • Die vorliegende Erfindung wird nachfolgend genauer in Bezug auf die Ausführungsformen beschrieben, die in den nachfolgenden Figuren der Zeichnung gezeigt sind.
  • 1 ist ein Diagramm eines Aufbaus, das eine Bilddarstellungsvorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung in Kombination mit der Bild-Akquisitionseinrichtung und der Bild-Informationsspeichereinrichtung in einer Röntgenstrahlen-CT-Vorrichtung zeigt.
  • Eine Bilddarstellungsvorrichtung 101 der vorliegenden Erfindung weist einen Bildprozessor 2, eine Darstellungseinrichtung 3 und einen Eingabeeinrichtung 4 auf.
  • Der Bildprozessor 2 enthält eine zweidimensionales (2D) Bilderzeugung und einen Darstellungsbereich 2a, einen Eingabebereich 2b des CT-Zahlenbereichs, einen Eingabebereich 2c für eine Richtung der Zentrumslinie des Betrachtungspunktes/Bildausschnittes (field of view: FOV), eine Erzeugungs- und Darstellungseinrichtung 2d eines dreidimensionalen Bildes im Endoskop-Modus, einen Eingabebereich 2e für einen Querschnittsort und einen Erzeugungs- und Darstellungsbereich 2f für ein peripheres Bild.
  • Ein Scanner 1a scannt einen Patienten K an verschiedenen Schichtorten (eine Schicht bezieht sich auf einen ebenen Bereich, der von dem Tomographen bildgebend dargestellt ist) und akquiriert Scan-Daten für mehrere Schichten.
  • Die Bildspeichereinrichtung 1b speichert die Scan-Daten.
  • Der Erzeugungs- und Darstellungsbereich 2a des 2D Bildes in dem Bildprozessor 2 erzeugt die Scan-Daten für mehrere Schichten der erzeugten 2D Bild-Daten für jede Schicht und stellt ein 2D Bild auf der Darstellungseinrichtung 3 dar.
  • Der Bediener liest aus dem 2D Bild einen CT-Zahlenbereich der internen Körperstruktur (wie beispielsweise Ventrikus oder Magen oder Blutgefäß), von der ein 3D Bild im Endoskop-Modus erzeugt werden soll, und gibt den CT-Zahlenbereichs über die Eingabeeinrichtung 4 ein.
  • Der Eingabebereich 2b des CT-Zahlenbereichs in dem Bildprozessor 2 empfängt die Eingabe des CT-Zahlenbereichs und leitet diesen an die Erzeugungs- und Darstellungsbereich 2d des 3D Bildes im Endoskop-Modus weiter.
  • Der Bediener bestimmt einen Betrachtungsort (eine Position einer virtuellen Endoskoplinse) in dem inneren Raum des inneren Körpergewebes und gibt den Betrachtungsort über die Eingabeeinrichtung 4 ein. Eine Richtung der Zentrumslinie des FOV (eine Richtung der optischen Achse einer virtuellen Endoskop-Linse) wird ebenfalls über die Eingabeeinrichtung 4 eingegeben.
  • Der Eingabebereich 2c für die Richtung der Zentrumslinie des Betrachtungsortes/FOVs empfängt die Eingabe der Richtung der Zentrumslinie des Betrachtungsortes und des FOVs und gibt diese an den Erzeugungs- und Darstellungsbereich 2d des 3D Bildes im Endoskop-Modus weiter.
  • Der Erzeugungs- und Darstellungsbereich 2d des 3D Bildes im Endoskop-Modus extrahiert für jede Schicht die Pixel aus den 2D Daten innerhalb des CT-Zahlen-Bereiches in dem FOV, der radial von dem Betrachtungspunkt in Richtung der Richtung der Zentrumslinie des FOV zeigt, um ein 3D Bild als eine Darstellung einer Wandfläche des inneren Körpergewebes zu erzeugen, und stellt das 3D Bild auf der Darstellungseinrichtung 3 dar.
  • Der Bediener bestimmt einen Querschnittsort innerhalb eines vorbestimmten Bereichs, der nahe dem Betrachtungsort liegt, und gibt den Querschnittsort über die Eingabeeinrichtung 4 ein.
  • Der Eingabebereich 2e des Querschnittsortes in dem Bildprozessor 2 empfängt die Eingabe des Querschnittsortes und gibt diese an den Erzeugungs- und Darstellungsbereich 2f des peripheren Bildes weiter.
  • Der Erzeugungs- und Darstellungs-Bereich 2f für das periphere Bild in dem Bildprozessor 2 erzeugt ein tomographisches Bild eines Querschnitts senkrecht zu der Zentrumslinie des FOV an dem Querschnittsort auf der Basis der 2D Bild-Daten, und erzeugt ein peripheres Bild (siehe 8), das durch Entfernen des Bereiches des 3D Bildes aus dem tomographischen Bild erhalten wurde, um das tomographische Bild auf der Darstellungseinrichtung 3 dar zu stellen.
  • 3 ist ein Ablaufdiagramm einer Prozedur, in der die Bilddarstellungseinrichtung 101 verwendet wird, um das 3D Bild im Endoskop-Modus darzustellen.
  • In Schritt V1 wird er Patient K an verschiedenen Schichtorten gescannt, und Datensätze für mehrere sequentielle 2D Bilder werden akquiriert.
  • Die sequentiellen 2D Bilder S1–S7 sind in 4 dargestellt. In den 2D-Bildern S1–S7 bezeichnet das Bezugszeichen D den Dickdarm. Das Bezugszeichen K bezeichnet einen Hohlraum (Lumen), beispielsweise den inneren Raum des Dickdarmes D.
  • Jedes 2D Bild S1–S7 ist ein tomographisches Bild in einer Ebene, die senkrecht zur z-Achse steht. Die z-Achse ist die Achse, entlang der der Patient K in den Scanner 1 bewegt wird. Die x-Achse ist die horizontale Achse, die senkrecht zur z-Achse steht, und die y-Achse ist die. vertikale Achse, die senkrecht zur z-Achse steht.
  • Nochmals Bezug nehmend auf 3 wählt der Bediener in Schritt V2 ein geeignetes 2D Bild aus den sequentiellen Bildern unter Verwendung der Eingabeeinrichtung 4 aus. Beispielsweise wird das Bild S5 aus den 2D Bildern S1–S7 ausgewählt.
  • In Schritt V3 liest der Bediener aus dem ausgewählten 2D Bild einen CT-Zahlenbereich des inneren Körpergewebes (beispielsweise dem Dickdarm) aus, von dem das 3D Bild im Endoskop-Modus erzeugt werden soll, und gibt den CT-Zahlenbereich ein. Beispielsweise, wenn der CT-Zahlenbereich des Pixels in dem Dickdarm D in dem 2D Bild S5 gleich oder größer als „300" ist, wird „300" als der minimale Wert des CT-Zahlenbereichs eingegeben (wenn dies notwendig ist, kann der maximale Wert eingegeben werden).
  • In Schritt V4 bestimmt der Bediener einen Betrachtungsort in dem inneren Raum des inneren Körpergewebes, und gibt den Betrachtungsort ein. Beispielsweise, wie dies in 5 gezeigt ist, wird eine Zeiger-Einrichtung U an einen Punkt innerhalb des Hohlraumes K positioniert, wobei der innere Raum des Dickdarms und die Position ausgewählt sind. Die Richtung der Zentrumslinie des FOV wird ebenfalls eingegeben. Beispielsweise wird die „Richtung der Tiefe„ des dargestellten 2D Bildes spezifiziert.
  • Nochmals Bezug nehmend auf 3, extrahiert in Schritt V5 der Erzeugungs- und Darstellungsbereich 2d des 3D Bildes im Endoskop-Modus in dem Bildprozessor 2 aus den 2D Bild-Daten für jede Schicht die Pixel innerhalb des CT-Zahlenbereichs in dem FOV, die radial von dem Betrachtungsort in Richtung der Zentrumslinie des FOV zeigen, um ein 3D Bild als Ansicht der Wandfläche des inneren Körpergewebes zu erzeugen. Beispielsweise wird das 3D Bild T erzeugt, das in 2 gezeigt ist. In der Figur bezeichnet das Bezugszeichen A einen Tumor, der sich auf der Wand des Dickdarms D entwickelt hat.
  • Nochmals Bezug nehmend auf 3 stellt in Schritt V6 der Erzeugungs- und Darstellungsbereich 2d des 3D Bildes im Endoskop-Modus in dem Bildprozessor 2 das 3D Bild T in dem linken Bildschirmbereich GL auf dem Bildschirm 3 dar, wie dies in 6 gezeigt ist.
  • In Schritt V7 wird eine Überprüfung durchgeführt, ob der Bediener den Betrachtungsort oder die Richtung der Zentrumslinie des FOV geändert hat. Wenn eine Änderung durchgeführt wurde, kehrt der Prozess zu Schritt V5 zurück, um das 3D Bild zu erneuern; andernfalls geht dieser zu Schritt V8. Das bedeutet, während der Betrachtungsort oder die Richtung der Zentrumslinie des FOV sich geändert hat, fährt das 3D Bild fort, um entsprechen der Änderung geändert zu werden, und wenn die Änderung bei einem bestimmten 3D Bild gestoppt ist, fährt der Prozess in Schritt V8 fort.
  • In Schritt V8 definiert die Erzeugungs- und Darstellungsbereich 2f des peripheren Bildes in dem Bildprozessors 2 den vordersten Ort, der in dem das 3D Bild enthalten ist, als Querschnittsort.
  • In Schritt V9, werden die Pixel in einem Querschnitt senkrecht zu der Zentrumslinie des FOV an einem Querschnittsort aus den 2D Bild-Daten extrahiert, um ein tomographisches Bild zu erzeugen. Beispielsweise, wie dies in 7 gezeigt ist, ist ein Teil der Wand des Dickdarms D, der in dem FOV enthalten ist und an dem Ort am nächsten zu dem Betrachtungspunkt E1 liegt, definiert als ein Querschnitt Q1, für den ein tomographisches Bild erzeugt wird. Dann wird der 3D Bildbereich von dem to mographischen Bild entfernt, um das periphere Bild C zu erzeugen, das in 8 gezeigt ist.
  • Nochmals Bezug nehmend auf 3, stellt in Schritt V10 der Erzeugungs- und Darstellungsbereich 2f des peripheren Bildes in dem Bildprozessor 2 das periphere Bild C in dem Bereich des rechten Bildschirms GR auf der Darstellungseinrichtung 3 dar, die in 9 gezeigt ist.
  • Nochmals Bezug nehmend auf 3, wird in Schritt V11 eine Querschnittsort-Anzeige SL auf dem 3D Bild T dargestellt, wie dies in 10 gezeigt ist.
  • In Schritt V12 wird eine Überprüfung dahingehend durchgeführt, ob der Bediener den Ort des Querschnittes geändert hat. Wenn eine Änderung durchgeführt wurde, kehrt der Prozess zu Schritt V5 zurück, um das periphere Bild zu erneuern, und stellt das periphere Bild in Schritt V10 und die Querschnittsorts-Anzeige in Schritt V11 dar. Wenn beispielsweise der Querschnittsort in Richtung der Tiefenrichtung geändert wurde, wird die Darstellung gebildet, wie die in 11 dargestellte.
  • In Schritt V13 wird eine Überprüfung dahingehend durchgeführt, ob der Bediener den Betrachtungsort oder die Richtung der Zentrumslinie des FOV geändert hat. Wenn eine Änderung nicht durchgeführt wurde, kehrt der Prozess zu Schritt V12 zurück, um die gegenwärtige Darstellung aufrechtzuerhalten; andernfalls wird mit Schritt V14 fortgefahren.
  • In Schritt V14 wird das periphere Bild C entfernt, um die Darstellung erneut zu speichern, wie dies in 6 gezeigt ist. Der Prozess kehrt dann zu Schritt V5 zurück. Das bedeutet, wenn der Ort des Betrachtungspunktes oder die Richtung der Zentrumslinie des FOV sich geändert hat, wird das 3D Bild T entsprechend der Änderung geändert, und während das 3D Bild T verändert ist, wird das periphere Bild C nicht dargestellt.
  • Durch Verwendung der Bilddarstellungsvorrichtung 101 entsprechend der ersten Ausführungsform wird das 3D Bild T im Endoskop-Modus auf dem linken Bildschirmbereich der Darstellungseinrichtung 3 dargestellt, und das periphere Bild C wird in dem rechten Bildschirmbereich dargestellt, wenn der Betrachtungspunkt fest ist, wodurch die Flächenbeschaffenheit und die innere Beschaffenheit (wie beispielsweise CT-Zahlen des inneren Gewebes) des Tumors A gleichzeitig dargestellt werden.
  • Darüber hinaus kann in Schritt V10 das tomographische Bild so wie es vorliegt dargestellt werden. Darüber hinaus kann in Schritt V9 ein Querschnitts-Bild des inneren Körpergewebes an einem Querschnittsort den auf der Basis der 3D-Datenerzeugt wer, um das Querschnitts-Bild in Schritt V10 darzustellen.
  • Zweite Ausführungsform
  • 12 ist ein Diagramm eines Aufbaus, das eine Bilddarstellungsvorrichtung entsprechend einer zweiten Ausführungsform der vorliegenden Erfindung in Kombination mit Bildinformations-Akquisitionseinrichtung und Bildinformations-Speichereinrichtungen in einer Röntgenstrahlen-CT-Vorrichtung zeigt.
  • Die Röntgenstrahlen-CT-Vorrichtung 200 weist einen Bildprozessor 12, eine Darstellungseinrichtung 3 und eine Eingabeeinrichtung 4 auf.
  • Der Bildprozessor 12 enthält einen Erzeugungs- und Darstellungsbereich 2a eines 2D Bildes, einen Eingabebereich 2b für einen CT-Zahlenbereich, einen Eingabebereich 2c für einen Betrachtungspunkt/eine Richtung der Zentrumslinie des FOV, einen Erzeugungs- und Darstellungsbereich 12d für ein 3D Bild, einen Eingabebereich 2e für einen Querschnittsort, einen Erzeugungs-Bereich 12f für ein Querschnittsbild und einen Darstellungsbereich 12g für ein überlagertes Bild.
  • Ein Scanner 1 scannt einen Patienten K an verschiedenen Schichtorten und akquiriert Scan-Daten für mehrere Schichten.
  • Der Erzeugungs- und Darstellungsbereich 2a für das 2D Bild in dem Bildprozessor 12 bearbeitet die Scan-Daten für mehrere Schichten, um 2D-Bild-Daten für jede Schicht zu erzeugen, und stellt ein 2D Bild auf der Darstellungseinrichtung 3 dar.
  • Der Bediener liest aus den 2D Bild einen CT-Zahlenbereich des inneren Körpergewebes ab (wie beispielsweise einen Vetriculus oder Magen oder ein Blutgefäß), von dem das 3D Bild im Endoskop-Modus erzeugt werden soll, und gibt den CT-Zahlenbereich über die Eingabeeinrichtung 4 ein.
  • Der Eingabebereich 2b des CT-Zahlenbereichs in dem Bildprozessor 12 empfängt die Eingabe des CT-Zahlenbereichs und gibt diesen an den Erzeugungs- und Darstellungs-Bereich 12d des 3D Bildes im Endoskop-Modus weiter.
  • Der Bediener bestimmt einen Ort des Betrachtungspunktes in dem inneren Raum des Körpergewebes und gibt den Ort des Betrachtungspunktes über die Eingabeeinrichtung 4 ein. Die Richtung der Zentrumslinie des FOV wird ebenfalls über die Eingabeeinrichtung 4 eingegeben.
  • Der Eingabebereich 2c des Ortes des Betrachtungspunktes/der Richtung der Zentrumslinie des FOV in dem Bildprozessor 12 empfängt den Ort der Eingabe des Betrachtungspunktes und der Richtung der Zentrumslinie des FOV, und gibt diese an den Erzeugungs- und Darstellungsbereich 12d des 3D Bildes im Endoskop-Modus weiter.
  • Der Erzeugungs- und Darstellungsbereich 12d des 3D Bildes im Endoskop-Modus in dem Bildprozessor 12 extrahiert für jede Schicht der 2D Bild-Daten die Pixel innerhalb des CT-Zahlenbereichs, um ein 3D-Bild des inneren Körpergewebes zu erzeugen, erzeugt ein 3D Bild (siehe 2) auf der Basis der 3D Daten, das eine Wandfläche des inneren Körpergewebes darstellt, wie diese von dem FOV gesehen wird, der radial von dem Betrachtungspunkt in Richtung der Richtung der Zentrumslinie des FOV zeigt, und stellt das 3D Bild auf der Darstellungseinrichtung 3 dar.
  • Der Bediener bestimmt einen Ort des Querschnitts (Querschnittsort) innerhalb eines vorbestimmen Bereichs, der nahe dem Ort des Betrachtungspunktes liegt, und gibt den Ort des Querschnitts über die Eingabeeinrichtung 4 ein.
  • Der Eingabebereich 2e des Ortes des Querschnitts in dem Bildprozessor 12 empfängt die Eingabe des Querschnittsortes und gibt diesen an den Erzeugungsbereich 12f des Querschnittsbildes weiter.
  • Der Erzeugungsbereich 12f des Querschnittsbildes in dem Bildprozessor 12 erzeugt ein Querschnittsbild (siehe 14) des inneren Körpergewebes an einem Querschnitt, der senkrecht zu der Zentrumslinie an dem Querschnittsort steht, auf der Basis der 3D Daten.
  • Der Darstellungsbereich 12g des überlagerten Bildes in dem Bildprozessor 12 kombiniert das 3D Bild mit dem Querschnittsbild, um ein überlagertes Bild (siehe 15) auf dem Bildschirm der Darstellungseinrichtung 3 darzustellen.
  • 13 ist ein Ablaufdiagramm eines Prozesses, in dem die Bilddarstellungsvorrichtung 201 verwendet wird, um das 3D Bild im Endoskop-Modus darzustellen. –
  • In Schritt W1 wird der Patient K an verschiedenen Schichtorten gescannt, und die Datensätze für mehrere der sequentiellen 2D-Bilder werden akquiriert.
  • Die sequentiellen 2D Bilder S1–S7 sind in 4 dargestellt.
  • In den 2D Bildern S1–S7 bezeichnet das Symbol D den Dickdarm. Das Bezugszeichen K bezeichnet den Hohlraum oder Lumen, beispielsweise den inneren Raum des Dickdarms D.
  • Nochmals Bezug nehmend auf 13, wählt der Bediener in Schritt W2 unter Verwendung der Eingabeeinrichtung 4 ein geeignetes 2D Bild aus den sequentiellen Bildern aus. Beispielsweise wird das Bild S5 aus den 2D Bildern S1–S7 ausgewählt.
  • In Schritt W3 liest der Bediener aus dem ausgewählten 2D Bild einen CT-Zahlenbereich des inneren Körpergewebes (beispielsweise den Dickdarm D), für den das 3D Bild im Endoskop-Modus erzeugt werden soll, und gibt den CT-Zahlenbereich ein. Beispielsweise wenn der CT-Zahlenbereich des Pixel in dem Dickdarm D in dem 2D Bild S5 „gleich oder größer als 300" ist, wird „300" als minimaler Wert des CT-Zahlenbereichs eingegeben (und wenn dies notwendig ist, kann der maximale Wert eingegeben werden).
  • In Schritt W4 bestimmt der Bediener einen Ort des Betrachtungspunktes in dem inneren Raum des inneren Körpergewebes und gibt den Ort des Betrachtungspunktes ein. Beispielsweise, wie dies in 5 gezeigt ist, wird eine Zeigereinrichtung U an einen Punkt innerhalb des Hohlraumes K positioniert, der innere Raum des Dickdarms D und die Position werden ausgewählt. Die Richtung der Zentrumslinie des FOV wird ebenfalls eingegeben. Beispielsweise wird die „Tiefenrichtung" des dargestellten 2D Bildes spezifiziert.
  • Nochmals Bezug nehmend auf 13, extrahiert in Schritt W5 der Erzeugungs- und Darstellungsbereich 12d des 3D Bildes im Endoskop-Modus aus den 2D Bild-Daten für jede Schicht die Pixel innerhalb des CT-Zahlenbereiches, um die 3D Daten für das innere Körpergewebe zu erzeugen, und um auf der Basis der 3D Daten ein 3D Bild zu erzeugen, das eine Wandfläche des inneren Körpergewebes repräsentiert, wie diese in dem FOV gezeigt ist, das radial von dem Betrachtungspunkt in Richtung der Richtung der Zentrumslinie des FOV zeigt. Beispielsweise wird das 3D Bild T erzeugt, das in 2 gezeigt ist. In der Zeichnung bezeichnet das Bezugszeichen A einen Tumor, der sich an der Wand des Dickdarms D entwickelt hat.
  • Nochmals Bezug nehmend auf 13 stellt in Schritt W6 der Erzeugungs- und Darstellungsbereich 12d für das 3D Bild im Endoskop-Modus in dem Bildprozessor 12 das 3D Bild T auf dem Bildschirm dar.
  • In Schritt W7 wird eine Überprüfung dahingehend durchgeführt, ob der Bediener den Ort des Betrachtungspunktes oder die Rich tung der Zentrumslinie des FOV geändert hat. Wenn eine Änderung durchgeführt wurde, kehrt der Prozess zu Schritt W5 zurück, um das 3D Bild zu erneuern (die 3D Daten müssen jedoch nicht nochmals erzeugt werden); andernfalls fährt dieser in Schritt W8 fort. Das bedeutet, während der Betrachtungspunktort oder die Richtung der Zentrumslinie des FOV sich geändert hat, fährt das 3D Bild fort, um entsprechend der Änderung geändert zu werden, und wenn die Änderung bei einem bestimmten 3D Bild gestoppt ist, fährt der Prozess in Schritt W8 fort.
  • In Schritt W8 definiert der Erzeugungs-Bereich 12f des Querschnittsbildes in dem Bildprozessor 12 den vordersten Ort, der in dem 3D Bild als ein Querschnittsort enthalten ist.
  • In Schritt W9, werden die Pixel in einem Querschnitt senkrecht zu der Zentrumslinie des FOV an einem Querschnittsort aus dem 2D Bild-Daten extrahiert, um ein tomographisches Bild zu erzeugen. Beispielsweise, wird das in 14 gezeigte Querschnittsbild Eerzeugt.
  • Nochmals Bezug nehmend auf 13, entfernt in Schritt W10 der Erzeugungsbereich 12g des überlagerten Bildes in dem Bildprozessor 12 einen vordersten Bereich relativ zu dem Querschnittsort von dem 3D Bild, kombiniert dieses mit dem Querschnittsbild, um ein überlagertes Bild zu erzeugen, und stellt das überlagerte Bild I dar, wie dies in 15 gezeigt ist.
  • Nochmals Bezug nehmend auf 13, wird in Schritt W12 eine Überprüfung dahingehend durchgeführt, ob der Bediener den Ort des Querschnittes geändert hat. Wenn eine Änderung durchgeführt wurde, kehrt der Prozess zu Schritt W9 zurück, um das Quer schnitts-Bild zu erneuern, und erzeugt und stellt das überlagerte Bild in Schritt W10 dar.
  • In Schritt W13 wird eine Überprüfung dahingehend durchgeführt, ob der Bediener den Ort des Betrachtungspunktes oder die Richtung der Zentrumslinie des FOV geändert hat. Wenn keine Änderung durchgeführt wurde, kehrt der Prozess zu Schritt W12 zurück, um die gegenwärtige Darstellung aufrecht zu erhalten; andernfalls fährt dieser in Schritt W14 fort.
  • In Schritt W14 wird das überlagerte Bild I entfernt, um die Darstellung zu erneuern, wie dies in 6 dargestellt ist. Der Prozess kehrt dann zu Schritt W5 zurück. Das bedeutet, wenn der Ort des Betrachtungspunktes oder die Richtung der Zentrumslinie des FOV geändert wurde, variiert das 3D Bild T entsprechend der Änderung, und während das 3D Bild T variiert wurde, wird das überlagerte Bild I nicht dargestellt.
  • Durch die Verwendung der Bilddarstellungsvorrichtung 201 entsprechend der zweiten Ausführungsform wird das 3D Bild T im Endoskop-Modus auf der Darstellungseinrichtung 3 dargestellt, und das überlagerte Bild I, das durch Kombinieren des 3D Bildes T mit dem Querschnittsbild E erhalten ist, wird auf dem Bildschirm dargestellt, wenn der Betrachtungspunkt fest ist, wodurch es ermöglicht ist, dass die Flächenbeschaffenheit und die innere Beschaffenheit (beispielsweise die CT-Zahl) des Tumors A gleichzeitig dargestellt werden.
  • Darüber hinaus kann in Schritt W9 das tomographische Bild in einer Querschnittsabschnitt senkrecht zu der Zentrumslinie des FOV an dem Ort des Querschnittes auf der Basis der 2D Daten dargestellt werden, und kann mit dem 3D Bild zur Darstellung in Schritt W10 kombiniert werden.
  • In der vorstehenden Ausführungsform können ebenfalls 3D-Daten verwendet werden, auch wenn die Beschreibung bezogen auf den Fall gemacht wurde, in dem mehrere 2D Bild-Daten-Sätze verwendet wurden, um ein 3D-Bild zu erzeugen.
  • Dritte Ausführungsform
  • 16 ist ein Diagramm einer Konfiguration, die eine Bilddarstellungsvorrichtung gemäß einer dritten Ausführungsform der vorliegenden Erfindung in Kombination mit der Bildinformations-Akquisitionseinrichtung und der Bildinformationsspeichereinrichtung in einer Röntgenstrahlen-CT-Vorrichtung darstellt.
  • Die Bilddarstellungsvorrichtung 301 weist einen Bildprozessor 22, eine Darstellungseinrichtung 3, und eine Eingabeeinrichtung 4 auf.
  • Der Bildprozessor 22 enthält einen Erzeugungs- und Darstellungsbereich 2a des 2D Bildes, einen Eingabebereich 2b für einen CT-Zahlenbereich, einen Eingabebereich 22c für einen Ort des Betrachtungspunktes/eine Richtung der Zentrumslinie des FOV/einen Drehwinkel, eine Erzeugungs- und Darstellungseinrichtung 2d eines 3D Bildes in dem Endoskop-Modus, einen Erzeugungs- und Darstellungsbereich 22f für ein Synchro-Referenz-Bild und einen Erzeugungs- und Darstellungsbereich 22g für ein Normalen-Referenz-Bild.
  • Unter dem „Normalen-Referenz-Bild" wird ein Referenz-Bild auf der Basis einer Koordinatenachse verstanden, angenommen, dass diese relativ zu der Bildinformations-Akquisitonseinrichtung fest ist (beispielsweise der Scanner in dieser Ausführungsform), und unter „Synchro-Referenz-Bild" wird ein Referenz-Bild verstanden auf der Basis einer Koordinationsachse, die jedes Mal entsprechend dem Ort des Betrachtungspunktes errichtet wird, einer Richtung der Zentrumslinie des FOV und einem Drehwinkel, der während der Endokop-Modus-Bildgebung spezifiziert wird.
  • Ein Scanner 1 scannt einen Patienten K an verschiedenen Schichtorten (eine Schicht bezieht sich auf einen ebenen Bereich, der durch den Tomographen bildgebend dargestellt wird) und akquiriert Scan-Daten für mehrere Schichten.
  • Der Erzeugungs- und Darstellungs-Bereich 2a für ein 2D Bild in dem Bildprozessor 22 bearbeitet die Scan-Daten für mehrere Schichten, um 2D Bild-Daten für jede Schicht zu erzeugen, und stellt ein 2D Bild auf der Darstellungseinrichtung 3 dar.
  • Der Bediener liest aus den 2D Bild einen CT-Zahlen-Bereich des inneren Körpergewebes (beispielsweise Vetriculus oder Magen oder Blutgefäß), von dem das 3D Bild im Endoskop-Modus erzeugt werden soll, und gibt den CT-Zahlenbereich über die Eingabeeinrichtung 4 sein.
  • Der Eingabebereich 2b des CT-Zahlenbereich in dem Bildprozessor 22 empfängt den CT-Zahlenbereich und gibt diesen an den Erzeugungs- und Darstellungsbereich 2d des 3D Bildes im Endoskop-Modus weiter.
  • Der Bediener bestimmt einen Ort des Betrachtungspunktes (eine virtuelle Endoskoplinsenposition) in dem inneren Raum des inneren Körpergewebes und gibt den Ort des Betrachtungspunktes über die Eingabeeinrichtung 4 ein. Eine Richtung der Zentrumslinie des FOV (eine optische Achsenrichtung einer virtuellen Endoskoplinse) wird ebenfalls über die Eingabeeinrichtung 4 einge geben. Darüber hinaus wird ein Drehwinkel über die Eingabeeinrichtung 4 eingegeben. (Der Drehwinkel stellt einen Drehwinkel um einen Drehpunkt des Endoskopes dar. Wenn der Drehwinkel gleich 0° ist, gehört die vertikale Achse des Bildschirms der Darstellungseinrichtung 3, die das 3D Bild im Endoskop-Modus darstellt, zu der räumlichen vertikalen Achse, und wenn der Drehwinkel gleich 90° ist, gehört die horizontale Achse des Bildschirms der Darstellungseinrichtung 3, die das 3D Bild im Endoskop-Modus darstellt zu der räumlichen horizontalen Achse.) Der Eingabebereich 22c des Ortes des Betrachtungspunktes/der Richtung der Zentrumslinie des FOV/des Drehwinkels in dem Bildprozessor 22 empfängt die Eingabe des Ortes des Betrachtungspunktes, der Richtung der Zentrumslinie des FOV und des Drehwinkels, und gibt diese an die Erzeugungs- und Darstellungsbereich 2d des 3D Bildes im Endoskop-Modus weiter.
  • Der Erzeugungs- und Darstellungsbereich 2d des 3D Bildes im Endoskop-Modus extrahiert die Pixel aus den 2D Bild-Daten für jede Schicht innerhalb des CT-Zahlen-Bereichs in dem FOV, der radial von dem Ort des Betrachtungspunktes in Richtung der Richtung der Zentrumslinie des FOV zeigt, um ein 3D Bild zu erzeugen, wie eine Ansicht einer Wandfläche des inneren Körpergewebes und stellt das 3D Bild auf der Darstellungseinrichtung 3. Die Orientierung der Darstellung des 3D Bildes wird so bestimmt, dass die räumliche Richtung, die zu dem Drehwinkel gehört, mit der vertikalen Achse des Bildschirms zusammen fällt.
  • Der Bediener spezifiziert und gibt über die Eingabeeinrichtung 4 ein, welches aus dem Normalen-Referenz-Bild und dem Synchro-Referenz-Bild als Referenz-Bild dargestellt werden soll.
  • Wenn der Bediener das Normalen-Referenz-Bild auswählt, erzeugt die Erzeugungs- und Darstellungsbereich 22g des Normalen-Referenz-Bildes in dem Bildprozessor 22 in 4 ein tomographisches Bild in einer Ebene parallel zu der x-y-Ebene, die in 4 gezeigt ist, und gibt dieses mittels des Ortes des Betrachtungspunktes auf der Basis der 2D Bild-Daten weiter, und stellt das Bild als ein Normalen-Sagittal-Bild dar. Darüber hinaus erzeugt der Erzeugungs- und Darstellungsbereich 22f des Normalen-Referenz-Bildes ein tomographisches Bild in einer Ebene, die parallel zu der z-x-Ebene liegt, wie diese in 4 gezeigt ist, und geht durch den Ort des Betrachtungspunktes, und stellt das Bild als ein Normalen-Coronales Bild dar.
  • Auf der anderen Seite, wenn der Bediener das Synchro-Referenz-Bild darstellt, erzeugt der Erzeugungs- und Darstellungsbereich 22f des Synchro-Referenz-Bildes in dem Bildprozessor 22 ein tomographisches Bild in einer Ebene senkrecht zu der Zentrumslinie des FOV, und geht durch den Ort des Betrachtungspunktes (SAP in 20) auf der Basis der 2D Bild-Daten, und stellt das Bild als ein synchroaxiales Bild (SA in 23) dar. Der Erzeugungs- und Darstellungs-Bereich 22g des synchrosagittalen Referenz-Bildes erzeugt ebenfalls ein tomographisches Bild in einer Ebene parallel zu der räumlichen Achse, die zu der vertikalen Achse des Bildschirms der Darstellungseinrichtung 3 gehört, die das 3D Bild darstellt, und enthält den Ort des Betrachtungspunktes und der Zentrumslinie des synchrosagittalen Bildes (SS in 23). Darüber hinaus erzeugt der Erzeugungs- und Darstellungsbereich 22g des Synchro-Referenz-Bildes ein tomographisches Bild in einer Ebene parallel zu der räumlichen Achse, die zu der horizontalen Achse der Darstellungseinrichtung 3 gehört, die das 3D Bild darstellt, und enthält den Ort des Betrachtungspunktes und der Zentrumslinie des FOV (SCP in 219), und stellt das Bild in einem synchrocoronalen Bild (SC in 23) dar.
  • Die 1719 sind Ablaufdiagramme eines Prozesses, in dem die Bilddarstellungsvorrichtung 301 verwendet wird, um das 3D Bild im Endoskop-Modus darzustellen.
  • In Schritt R1 wird der Patient K an verschiedenen Schichtorten gescannt, und Datensätze für mehrere sequentielle 2D Bilder werden akquiriert.
  • Die sequentiellen 2D Bilder S1–S7 sind in 4 dargestellt.
  • In den 2D Bildern S1–S7 bezeichnet das Bezugszeichen D den Dickdarm. Das Bezugszeichen K bezeichnet den Hohlraum, beispielsweise den inneren Raum des Dickdarms D.
  • Jedes 2D Bild S1–S7 ist ein tomographisches Bild in einer Ebene senkrecht zu der z-Achse. Die z-Achse ist die Achse entlang der der Patient K in den Scanner 1 bewegt wird, wobei die x-Achse die horizontale Achse senkrecht zur z-Achse ist, und die y-Achse die vertikale Achse senkrecht zur z-Achse ist.
  • Nochmals Bezug nehmend auf 17 wählt der Bediener in Schritt R2 ein geeignetes 2D Bild aus den sequentiellen Bildern unter Verwendung der Eingabeeinrichtung 4 aus. Beispielsweise wird das Bild S5 von den 2D Bildern S1–S7 ausgewählt.
  • In Schritt R3 liest der Bediener aus den ausgewählten 2D Bildern einen CT-Zahlenbereich des inneren Körpergewebes aus (beispielsweise den Dickdarm D), von dem das 3D Bild im Endoskop-Modus erzeugt werden soll, und gibt den CT-Zahlenbereich ein.
  • Beispielsweise, wenn der CT-Zahlenbereich des Pixels in dem Dickdarm D in dem 2D Bild S5 „gleich oder größer als 300" ist, wird „300" als ein minimaler Wert des CT-Zahlenbereiches eingegeben (wenn dies notwendig ist, kann ein maximaler Wert eingegeben werden).
  • In Schritt R4 bestimmt der Bediener einen Ort des Betrachtungspunktes in dem inneren Raum des inneren Körpergewebes und gibt den Ort des Betrachtungspunktes ein. Beispielsweise, wie dies in 5 gezeigt ist, wird eine Zeigereinrichtung U an einen Punkt innerhalb des Hohlraumes K, des inneren Raumes des Dickdarms D, auf dem 2D Bild S5 positioniert, und die Position wird ausgewählt. Die Richtung der Zentrumslinie des FOV und der Drehwinkel werden ebenfalls eingegeben. Beispielsweise, wenn die Ausgangs- oder Home-Position über eine Tastatur der Eingabeeinrichtung 4 eingegeben werden, liegt die Richtung der Zentrumslinie des FOV liegt in der +z-Richtung und der Drehwinkel ist 0°.
  • Darüber hinaus, wenn ein Trackball in der Eingabeeinrichtung 4 gedreht wird, können die Richtung der Zentrumslinie des FOV und der Drehwinkel gedreht werden, um eine Koordinatenachse zu etablieren, die zu dem Endoskop-Modus gehört.
  • Nochmals Bezug nehmend auf 17, extrahiert in Schritt R5 der Erzeugungs- und Darstellungs-Bereich 2d des 3D Bildes in dem Bild-Prozessor 22 aus den 2D Bild-Daten für jede Schicht die Pixel innerhalb des CT-Zahlenbereichs in dem FOV, der radial von den Betrachtungspunkt in Richtung der Richtung der Zentrumslinie des FOV zeigt, um ein 3D Bild zu erzeugen, wie wenn eine Wandfläche des inneren Körpergewebes betrachtet wird.
  • In Schritt R6 stellt der Erzeugungs- und Darstellungsbereich 2d des 3D Bildes im Endoskop-Modus in dem Bild-Prozessor 22 ein 3D Bild T in dem oberen linken Bildschirmbereich mit einer Darstellungsorientierung so dar, dass eine räumliche Richtung, die zu dem Drehwinkel gehört, mit der Achse senkrecht zu dem Darstellungs-Bildschirm zusammenfällt, wie dies in 23 gezeigt ist.
  • In Schritt R7 wird eine Überprüfung durchgeführt, ob der Bediener den Ort des Betrachtungspunktes, die Richtung der Zentrumslinie des FOV oder den Drehwinkel geändert hat. Wenn eine Änderung durchgeführt wurde, kehrt der Prozess zu Schritt R5 zurück, um das 3D Bild zu erneuern; andernfalls fährt dieser mit Schritt R6 fort. Das bedeutet, während der Ort des Betrachtungspunktes, die Richtung der Zentrumslinie des FOV oder der Drehwinkels geändert werden, wird das 3D Bild weiter entsprechend der Änderung variiert, und wenn die Änderung bei einem bestimmten 3D Bild gestoppt wird, fährt der Prozess in Schritt R8 fort.
  • In Schritt R8 wird eine Überprüfung durchgeführt, ob der Bediener das Synchro-Referenz-Bild als Referenz-Bild spezifiziert hat. Wenn dies so spezifiziert ist, unterläuft der Prozess Schritt R9 in 18, andernfalls fährt dieser zu Schritt R15 in 19 fort.
  • In Schritt R9 in 18 definiert der Erzeugungs- und Darstellungsbereich 22f des Synchro-Referenz-Bildes in dem Bildprozessor 22 den Ort des Betrachtungspunktes als einen Querschnittsort.
  • In Schritt R10 extrahiert der Erzeugungs- und Darstellungsbereich 22f des Synchro-Referenz-Bildes von den 2D Bild-Daten die Pixel in der synchroaxialen Ebene SAP senkrecht zu der FOV Zentrumslinie SC, und enthält den Betrachtungspunkt E1, wie dies in 20 gezeigt ist, um ein tomographisches Bild zu erzeugen, und stellt das Bild in dem oberen rechten Bildschirmbereich als ein synchroaxiales Bild SA dar, wie dies in 23 gezeigt ist.
  • 20 stellt die Beziehung unter dem inneren Körpergewebe (beispielsweise den Dickdarm in diesem Beispiel) dar, das ein Objekt zur Bilddarstellung ist, wobei angenommen wird, dass das Koordinatensystem (x, y, z) relativ zu der Bildinformations-Akquisitionseinrichtung fest ist, und die Koordinatensysteme (x', y', z') und (X', Y', Z') jedes Mal aufgestellt werden, wenn der Endoskop-Modus ausgeführt wird.
  • In 20 ist die z'-Achse eine Koordinatenachse parallel zu der Zentrumsachse SC des FOV. Die Y'-Achse ist einen Achse, die innerhalb der zy-Ebene enthalten ist, und senkrecht zu der z'-Achse liegt, und die y'-Achse ist eine Achse, die gebildet wird durch Drehen der Y'-Achse um den Drehwinkel θ um die z'-Achse. Die X'-Achse ist einen Achse, die senkrecht zu der z'-Achse und der Y'-Achse steht, und die x'-Achse ist eine Achse, die senkrecht zu der z'-Achse und der y'-Achse steht.
  • Nochmals Bezug nehmend auf 18, extrahiert in Schritt R11 der Erzeugungs- und Darstellungsbereich 22f des Synchro-Referenz-Bildes aus den 2D Bild-Daten die Pixel in der synchrosagittalen Ebene SSP parallel zu der z'y'-Ebene, und enthält den Betrachtungspunkt E1, wie dies in 23 gezeigt ist.
  • Nochmals Bezug nehmend auf 18 extrahiert in Schritt R12 der Erzeugungs- und Darstellungsbereich 22f aus dem 2D-Bilddaten die Pixel in der synchrocoronalen Ebene SCP parallel zu der z'-x'-Ebene, und enthält den Betrachtungspunkt E1, wie dies in 21 gezeigt ist, um ein tomographisches Bild zu erzeugen, und stellt das Bild in dem unteren linken Bildschirmbereich als ein synchrocoronales Bild SC dar, wie dies in 23 gezeigt ist.
  • Nochmals Bezug nehmend auf 18 wird in Schritt R13 eine Überprüfung durchgeführt, ob der Bediener den Ort des Betrachtungspunktes, die Richtung der Zentrumslinie des FOV oder den Drehwinkel geändert hat. Wenn eine Änderung durchgeführt wurde, fährt der Prozess in Schritt R 14 fort; andernfalls wird die gegenwärtige Darstellung aufrechterhalten.
  • In Schritt R14 werden alle Bilder entfernt, und der Prozess kehrt zu Schritt R5 in 17 zurück.
  • Wenn in Schritt R8 in 17 „nein" ausgewählt ist, definiert der Erzeugungs- und Darstellungsbereich 22g des Normalen-Referenz-Bildes in dem Bildprozessor 22 die virtuelle Position als einen Querschnittsort in Schritt R15 in 19.
  • In Schritt R16 extrahiert der Erzeugungs- und Darstellungsbereich 22g des Normalen-Referenz-Bildes aus den 2D Bild-Daten die Pixel in der Normalen-Axial-Ebene, wie dies in 22 gezeigt ist, um ein tomographisches Bild zu erzeugen, und stellt das Bild in dem oberen rechten Bildschirmbereich als ein Normalen-Axial-Bild dar.
  • Nochmals Bezug nehmend auf 19 extrahiert in Schritt R17 der Erzeugungs- und Darstellungsbereich 22g des Normalenreferenz-Bildes aus den 2D Bild-Daten die Pixel in einer Ebene parallel zu der z-y-Ebene, und enthält den Betrachtungspunkt E1, um ein tomographisches Bild zu erzeugen, und stellt das Bild in dem unteren rechten Bildschirmbereich als ein Normalen-Sagittal-Bild dar.
  • In Schritt R18 extrahiert der Erzeugungs- und Darstellungsbereich 22g des Normalen-Referenz-Bildes aus den 2D Bild-Daten die Pixel in einer Ebene parallel zu der zx-Ebene, und enthält den Betrachtungspunkt E1, um ein tomographisches Bild zu erzeugen, und stellt das Bild in dem unteren linken Bildschirmbereich als ein Normalen-Coronal-Bild dar.
  • In Schritt R19 wird einen Überprüfung durchgeführt, ob der Bediener den Ort des Betrachtungspunktes, die Richtung der Zentrumslinie des FOV oder den Drehpunkt geändert hat. Wenn eine Änderung durchgeführt wurde, fährt der Prozess in Schritt R20 fort; andernfalls wird die gegenwärtige Darstellung aufrechterhalten.
  • In Schritt R20 sind alle Bilder entfernt, und der Prozess wird mit Schritt R5 fortgeführt.
  • Durch die Verwendung der Bilddarstellungsvorrichtung 301 gemäß der dritten Ausführungsform wird ein 3D Bild im Endoskop-Modus auf dem Bildschirm der Darstellungseinrichtung 3 dargestellt, und die Referenz-Bilder werden in den anderen Bildschirmbereichen dargestellt, wenn der Betrachtungspunkt fest ist. Dies ermöglicht es dem Bediener, räumlich die Richtung der Zentrumslinie des FOV deutlich zu erkennen.
  • Obwohl die vorstehenden Ausführungsformen Fälle beschreibt, die einen Scanner einer Röntgenstrahlen-CT-Vorrichtung als eine Bildinformations-Akquisitionseinrichtung verwenden und die Bilddarstellungsvorrichtung der vorliegenden Erfindung Teile des Röntgenstrahlen-CT-Vorrichtungs-System bilden, kann die Bilddarstellungsvorrichtung der vorliegenden Erfindung auch getrennt von der Bildinformations-Akquisitionseinrichtung betrieben werden, solange die Bilddarstellungseinrichtung unter Bedingungen platziert ist, in denen die Vorrichtung Zugang zu systematisch gespeicherten Bildinformationen hat.
  • Ebenso obwohl die vorstehenden Ausführungsformen Fälle beschreibt, in denen ein Scanner einer Röntgenstrahlen-CT-Vorrichtung als eine Bildinformations-Akquisitionseinrichtung verwendet wird, kann die Bildinformation über das innere menschlichen Körpergewebe durch andere Einrichtungen akquiriert werden, wie beispielsweise eine MR-Bildgebungs-(magnetic resonance imaging: MRI)-Vorrichtung.
  • Darüber hinaus, obwohl die Bildinformations-Akquisitionseinrichtung und die Bildinformations-Speichereinrichtung als getrennt beschrieben sind, kann es ebenso verstanden werden, dass diese in einer Bilddiagnose-Vorrichtungssystem enthalten sind, wie beispielsweise einer Röntgenstrahlen-CT-Vorrichtung oder einer MR-Bildgebungs-Vorrichtung.
  • Darüber hinaus, obwohl ein Scanner einer Röntgenstrahlen-CT-Vorrichtung als eine Bildinformations-Akquisitionseinrichtung in der vorstehenden Ausführungsform verwendet wurde, ist ein Schritt des Eingebens der CT-Werte als ein Parameter, der die Bildsignalintensität repräsentiert, in der Bilddarstellungseinrichtung enthalten, aber welcher als ein derartiger Parameter eingegeben werden sollte, kann geeigneterweise entsprechend der verwendeten Bildinformations-Akquisitionseinrichtung ausgewählt werden, einschließlich ob der Schritt zum Eingeben solch eines Parameters in dem Prozess enthalten sein sollte.
  • Zusätzlich, obwohl das Dickdarmgewebe als ein darzustellendes Objekt in der Beschreibung der vorstehenden Ausführungsformen zitiert wurde, kann das Bilddarstellungsverfahren entsprechend der vorliegenden Erfindung geeigneterweise auf anderes Gewebe angewendet werden, das eine Kavität oder einen Hohlraum in diesem enthält, wie beispielsweise der Dünndarm, der Magen, die Speiseröhre, die Luftröhre, der Harnleiter, die Scheide, die Gebärmutter oder der Eileiter.

Claims (15)

  1. Bilddarstellungsverfahren, das die Schritte aufweist: Erzeugen eines dreidimensionalen (3D) Bildes, das eine Wandfläche des 3D-Gewebes so darstellt, wie diese von einem Betrachtungspunkt des in dem vom 3D-Gewebe gebildeten inneren Raum aus gesehen wird; Erzeugen eines tomographischen Bildes an einem Querschnittsort, der als nahe dem Betrachtungspunkt oder einem zweidimensionalen (2D) Bild liegend definiert ist, das durch die Bearbeitung des tomographischen Bildes und Entfernen eines 3D Bildbereichs hiervon erhalten wird; und Darstellen des tomographischen Bildes oder des 2D-Bildes, das mit dem 3D-Bild so überlagert wird, dass die Fläche und die inneren Beschaffenheiten eines zu untersuchenden Objektes gleichzeitig auf einer gewöhnlichen Darstellungseinrichtung dargestellt werden.
  2. Bilddarstellungsvorrichtung (101), die aufweist: eine 3D-Bilderzeugungseinrichtung (2) zum Erzeugen eines 3D-Bildes, das eine Wandfläche des 3D-Gewebes so darstellt, wie diese von einem Betrachtungspunkt des in dem vom 3D-Gewebe gebildeten inneren Raums aus gesehen wird; 2D-Bilderzeugungseinrichtung (2) zum Erzeugen eines tomographischen Bildes des 3D-Gewebes an einem Querschnittsort, der als nahe am Betrachtungspunkt liegend definiert ist, oder zum Erzeugen eines zweidimensionalen (2D) Bildes, das durch die Bearbeitung des tomographischen Bildes und Entfernen des 3D-Bildbereichs davon erhalten wird; und Bilddarstellungseinrichtung zum Darstellen des tomographischen Bildes oder des 2D-Bildes, das mit dem 3D-Bild so überlagert wird, dass die Fläche und die inneren Beschaffenheiten eines zu untersuchenden Objektes gleichzeitig auf einem gewöhnlichen Bildschirm dargestellt werden.
  3. Bilddarstellungsvorrichtung nach Anspruch 2, worin: die 2D-Bilderzeugung ein tomographisches Bild in einer Ebene (die nachfolgend als eine synchroaxiale Ebene bezeichnet wird) senkrecht zu einer Richtung der FOV-Zentrumslinie und ein tomographisches Bild in einer Ebene erzeugt, die senkrecht zu der synchoaxialen Ebene ist.
  4. Bilddarstellungsvorrichtung nach Anspruch 2 oder 3, worin die 3D-Bilderzeugungseinrichtung das 3D-Bild aus Datensätzen für mehrere tomographische Bilder unter Einbeziehung des 3D-Gewebes erzeugt.
  5. Bilddarstellungsvorrichtung nach Anspruch 4, worin die 3D-Bilderzeugungseinrichtung den Betrachtungspunkt und eine Richtung der Zentrumslinie des Bildausschnitts (field of view: FOV) vom Betrachtungspunkt aus oder zusätzlich mit einem festen Winkel vom Betrachtungspunktes aus definiert, um das 3D-Bild zu erzeugen.
  6. Bilddarstellungsvorrichtung nach Anspruch 5, worin die 3D-Bilderzeugungseinrichtung mehrere tomographische Bilder verwendet, um den Betrachtungspunkt zu erzeugen.
  7. Bilddarstellungsvorrichtung nach Anspruch 4, worin die 2D-Bilderezgungseinrichtung mehrere tomographische Bilder verwendet.
  8. Bilddarstellungsvorrichtung nach Anspruch 4, worin die 2D-Bilderzeugungseinrichtung das 2D-Bild durch Durchführen einer Interpolationsberechnung auf dem tomographischen Bild erzeugt.
  9. Bilddarstellungsvorrichtung nach Anspruch 5, worin das 2D-Bild senkrecht zu der Richtung der FOV-Zentrumslinie ist.
  10. Bilddarstellungsvorrichtung nach Anspruch 5, worin die 3D-Bilderzeugungseinrichtung und die 2D-Bilderzeugungseinrichtung jeweils ein neues 3D-Bild und ein neues 2D-Bild entsprechend der Änderungen erzeugen, wenn mindestens eines aus den Folgenden: Betrachtungspunkt, Richtung der FOV-Zentrumslinie und fester Winkel geändert wird.
  11. Bilddarstellungsvorrichtung nach Anspruch 3, worin das 2D-Bild mittels der Durchführung einer Interpolationsberechnung auf den tomographischen Bildern in mehreren der synchroaxialen Ebenen erzeugt wird.
  12. Bilddarstellungsvorrichtung nach Anspruch 3, worin das tomographische Bild in einer Ebene rechtwinkelig zu der synchroaxialen Ebene zu einer veränderlichen Position der Ebene gehört.
  13. Bilddarstellungsvorrichtung nach Anspruch 12, worin eine Position, die zu T-o des tomographischen Bildes gehört, in der synchroaxialen Ebene auf dem tomographischen Bild in einer Ebene, die rechtwinkelig zu der synchroaxialen Ebene ist, oder auf dem 2D-Bild, das durch Bearbeiten des tomographischen Bildes erhalten wird, dargestellt wird.
  14. Bilddarstellungsvorrichtung nach Anspruch 3, worin die 3D-Erzeugungseinrichtung und die 2D-Erzeugungseinrichtung ein neues 3D-Bild und ein neues tomographisches Bild in der synchroaxialen Ebene und ein neues tomographisches Bild in einer Ebene senkrecht zur synchroaxialen Ebene erzeugen, oder ein neues 2D-Bild, das durch Bearbeiten des tomographischen Bilder erhalten wird, jeweils gemäß der Änderungen erzeugen, wenn mindestens einer der Folgenden: Betrachtungspunkt, Richtung der FOV-Zentrumslinie und fester Winkels geändert wird.
  15. Bilddarstellungsverfahren nach Anspruch 1, worin die Erzeugung eines tomographischen Bildes die Erzeugung eines tomographischen Bildes in einer Ebene senkrecht zu der Richtung der FOV-Zentrumslinie beinhaltet.
DE69838698T 1997-08-26 1998-08-26 Bildanzeigevorrichtung und Verfahren Expired - Lifetime DE69838698T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP23003997 1997-08-26
JP09230039A JP3117665B2 (ja) 1997-08-26 1997-08-26 画像表示方法および画像表示装置

Publications (2)

Publication Number Publication Date
DE69838698D1 DE69838698D1 (de) 2007-12-27
DE69838698T2 true DE69838698T2 (de) 2008-09-25

Family

ID=16901616

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69838698T Expired - Lifetime DE69838698T2 (de) 1997-08-26 1998-08-26 Bildanzeigevorrichtung und Verfahren

Country Status (6)

Country Link
US (1) US6252599B1 (de)
EP (1) EP0899693B1 (de)
JP (1) JP3117665B2 (de)
KR (2) KR100327812B1 (de)
DE (1) DE69838698T2 (de)
TW (1) TW390802B (de)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000051202A (ja) * 1998-08-14 2000-02-22 Ge Yokogawa Medical Systems Ltd 画像表示方法および画像表示装置
KR100346363B1 (ko) * 2000-06-02 2002-08-01 주식회사 엔지티 자동 의료 영상 분할을 통한 3차원 영상 데이터 구축방법/장치, 및 그를 이용한 영상유도 수술 장치
JP5361103B2 (ja) * 2000-10-24 2013-12-04 株式会社東芝 画像処理装置
US7095401B2 (en) * 2000-11-02 2006-08-22 Siemens Corporate Research, Inc. System and method for gesture interface
JP2003167659A (ja) * 2001-11-28 2003-06-13 Fujitsu Ltd 情報処理装置および情報オブジェクトの表示方法
US6892090B2 (en) * 2002-08-19 2005-05-10 Surgical Navigation Technologies, Inc. Method and apparatus for virtual endoscopy
US8055044B2 (en) * 2004-08-17 2011-11-08 Koninklijke Philips Electronics N V Flexible 3D rotational angiography and computed tomography fusion
JP4130428B2 (ja) * 2004-09-02 2008-08-06 ザイオソフト株式会社 画像処理方法及び画像処理プログラム
KR100702148B1 (ko) * 2004-12-30 2007-03-30 한국전기연구원 단층영상과 입체 표면영상을 동시에 얻을 수 있는 엑스선단층 촬영장치
US8285012B2 (en) 2005-04-28 2012-10-09 Hitachi Medical Corporation Image display apparatus and program
JP4694435B2 (ja) * 2005-07-29 2011-06-08 株式会社竹中工務店 断面画像表示装置、断面画像表示方法及び断面画像表示プログラム
JP4268976B2 (ja) * 2006-06-15 2009-05-27 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー イメージング装置
JP2008000270A (ja) * 2006-06-21 2008-01-10 Aze Ltd 生体組織の識別画像作成方法、装置およびプログラム
US20080086051A1 (en) * 2006-09-20 2008-04-10 Ethicon Endo-Surgery, Inc. System, storage medium for a computer program, and method for displaying medical images
US20080319307A1 (en) * 2007-06-19 2008-12-25 Ethicon Endo-Surgery, Inc. Method for medical imaging using fluorescent nanoparticles
US8155728B2 (en) * 2007-08-22 2012-04-10 Ethicon Endo-Surgery, Inc. Medical system, method, and storage medium concerning a natural orifice transluminal medical procedure
US8457718B2 (en) * 2007-03-21 2013-06-04 Ethicon Endo-Surgery, Inc. Recognizing a real world fiducial in a patient image data
US20080221434A1 (en) * 2007-03-09 2008-09-11 Voegele James W Displaying an internal image of a body lumen of a patient
US20080234544A1 (en) * 2007-03-20 2008-09-25 Ethicon Endo-Sugery, Inc. Displaying images interior and exterior to a body lumen of a patient
US8081810B2 (en) * 2007-03-22 2011-12-20 Ethicon Endo-Surgery, Inc. Recognizing a real world fiducial in image data of a patient
JP5283877B2 (ja) * 2007-09-21 2013-09-04 株式会社東芝 超音波診断装置
JP2009240621A (ja) * 2008-03-31 2009-10-22 Hoya Corp 内視鏡装置
JP5392644B2 (ja) 2008-06-13 2014-01-22 株式会社日立メディコ 画像表示装置、方法、及びプログラム
JP5637653B2 (ja) * 2008-08-18 2014-12-10 株式会社東芝 医用画像処理装置、超音波診断装置、及び医用画像処理プログラム
JP5433240B2 (ja) * 2009-01-21 2014-03-05 株式会社東芝 超音波診断装置及び画像表示装置
JP5395538B2 (ja) * 2009-06-30 2014-01-22 株式会社東芝 超音波診断装置及び画像データ表示用制御プログラム
JP5523784B2 (ja) * 2009-09-30 2014-06-18 株式会社東芝 画像処理装置および医用画像診断装置
JP5631584B2 (ja) * 2009-12-25 2014-11-26 株式会社東芝 医用画像処理装置、医用画像処理プログラム及び医用画像診断装置
JP2012040081A (ja) * 2010-08-17 2012-03-01 Toshiba Corp 医用画像処理装置、及び医用画像処理プログラム
JP2012040207A (ja) * 2010-08-19 2012-03-01 Toshiba Corp 超音波診断装置、超音波診断装置の制御プログラム、及び画像処理装置
JP5309109B2 (ja) * 2010-10-18 2013-10-09 富士フイルム株式会社 医用画像処理装置および方法、並びにプログラム
JP6266217B2 (ja) * 2012-04-02 2018-01-24 東芝メディカルシステムズ株式会社 医用画像処理システム、方法及びプログラム
US9741166B2 (en) * 2012-11-24 2017-08-22 Novarad Corporation Generation and viewing of panoramic images
US10510171B2 (en) * 2016-11-29 2019-12-17 Biosense Webster (Israel) Ltd. Visualization of anatomical cavities
US10499997B2 (en) 2017-01-03 2019-12-10 Mako Surgical Corp. Systems and methods for surgical navigation
US10506991B2 (en) 2017-08-31 2019-12-17 Biosense Webster (Israel) Ltd. Displaying position and optical axis of an endoscope in an anatomical image
JP2022135392A (ja) * 2021-03-05 2022-09-15 コニカミノルタ株式会社 医用情報管理装置、医用情報管理方法および医用情報管理プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5608849A (en) * 1991-08-27 1997-03-04 King, Jr.; Donald Method of visual guidance for positioning images or data in three-dimensional space
WO1995035139A1 (fr) * 1994-06-17 1995-12-28 Namco Ltd. Simulateur 3d et procede de generation d'image
US5920319A (en) * 1994-10-27 1999-07-06 Wake Forest University Automatic analysis in virtual endoscopy
US5963209A (en) * 1996-01-11 1999-10-05 Microsoft Corporation Encoding and progressive transmission of progressive meshes
US6009188A (en) * 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging
JPH1031761A (ja) * 1996-07-17 1998-02-03 Ge Yokogawa Medical Syst Ltd 画像表示方法および画像表示装置
US5990900A (en) * 1997-12-24 1999-11-23 Be There Now, Inc. Two-dimensional to three-dimensional image converting system

Also Published As

Publication number Publication date
KR20010078402A (ko) 2001-08-20
KR19990023201A (ko) 1999-03-25
DE69838698D1 (de) 2007-12-27
JPH1156832A (ja) 1999-03-02
US6252599B1 (en) 2001-06-26
JP3117665B2 (ja) 2000-12-18
TW390802B (en) 2000-05-21
KR100340773B1 (ko) 2002-06-20
EP0899693B1 (de) 2007-11-14
EP0899693A3 (de) 2003-06-25
EP0899693A2 (de) 1999-03-03
KR100327812B1 (ko) 2002-04-17

Similar Documents

Publication Publication Date Title
DE69838698T2 (de) Bildanzeigevorrichtung und Verfahren
DE602005005127T2 (de) Verfahren und System zur fortschreitenden, dreidimensionalen Bildrekonstruktion in Mehrfachauflösung unter Berücksichtigung eines interessierenden Gebietes
DE19851597B4 (de) Verfahren und Gerät zur Erzeugung verbesserter Bilder von Kranzarterien
DE3689399T2 (de) Kubusteilungssystem und Verfahren zur Anzeige von im Innengebiet eines massiven Körpers enthaltenen Flächenstrukturen.
DE112004000352B4 (de) System und Verfahren zum Durchführen einer virtuellen Endoskopie
JP4421016B2 (ja) 医用画像処理装置
DE4344312C2 (de) Dreidimensionales Ultraschall-Abbildungssystem
DE3855040T2 (de) Bildverarbeitungsverfahren und -gerät
JP2938502B2 (ja) 画像表示装置
DE3650169T2 (de) Anlage und Verfahren zur Anzeige von im Inneren eines Festkörpers eingeschlossenen Oberflächenstrukturen.
DE102008037453A1 (de) Verfahren und System zur Visualisierung von registrierten Bildern
DE10144630A1 (de) Verfahren und Vorrichtung zur Visualisierung eines Körpervolumens und Computerprogrammprodukt
DE102004056095A1 (de) Verfahren zur Registrierung eines zur digitalen Subtraktionsangiographie verwendeten Bildes
DE102005046385A1 (de) Verfahren und Vorrichtung zur Nachbearbeitung eines 3D-Bilddatensatzes, insbesondere für die virtuelle Kolonographie
EP0938063B1 (de) Verfahren zur zweidimensionalen Abbildung von Strukturen für die medizinische Diagnostik
DE10254908B4 (de) Verfahren zum Herstellen eines Bildes
EP1209622A2 (de) Verfahren und Vorrichtung zur Registrierung von Bildern
DE102007050343A1 (de) Vorrichtungen und Verfahren zur Kalibrierung eines Endoskops
DE102006008509A1 (de) Verfahren und Vorrichtung zur verbesserten automatischen Detektion von Auffälligkeiten in medizinischen Bilddaten
DE112007002807T5 (de) Verfahren und System zur Gruppierung von Bildern in einem Tomosynthese-Bildgebungssystem
DE10254907B4 (de) Verfahren zur Oberflächenkonturierung eines dreidimensionalen Abbildes
DE602004011834T2 (de) Bildsegmentierung in einem volumendatensatz
EP1561185B1 (de) Verfahren zur darstellung eines in einem volumendatensatz abgebildeten objektes
DE69814482T2 (de) Verfahren und Vorrichtung zur Darstellung von Oberflächen aus volumetrischen Daten
DE102004027708B4 (de) Verfahren zur medizinischen 3D-Bilddarstellung und -verarbeitung, Computertomografiegerät, Arbeitsstation und Computerprogrammprodukt

Legal Events

Date Code Title Description
8364 No opposition during term of opposition