DE69733724T2 - Ultraschall-diagnose-abbildungssystem - Google Patents

Ultraschall-diagnose-abbildungssystem Download PDF

Info

Publication number
DE69733724T2
DE69733724T2 DE69733724T DE69733724T DE69733724T2 DE 69733724 T2 DE69733724 T2 DE 69733724T2 DE 69733724 T DE69733724 T DE 69733724T DE 69733724 T DE69733724 T DE 69733724T DE 69733724 T2 DE69733724 T2 DE 69733724T2
Authority
DE
Germany
Prior art keywords
dimensional
image
point
echo data
dimensional echo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69733724T
Other languages
English (en)
Other versions
DE69733724D1 (de
Inventor
Tomonao Hachioji-shi Kawashima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of DE69733724D1 publication Critical patent/DE69733724D1/de
Application granted granted Critical
Publication of DE69733724T2 publication Critical patent/DE69733724T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8934Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration
    • G01S15/8938Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration using transducers mounted for mechanical movement in two dimensions
    • G01S15/894Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration using transducers mounted for mechanical movement in two dimensions by rotation about a single axis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52074Composite displays, e.g. split-screen displays; Combination of multiple images or of images and alphanumeric tabular information
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52079Constructional features
    • G01S7/52084Constructional features related to particular user interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0866Detecting organic movements or changes, e.g. tumours, cysts, swellings involving foetal diagnosis; pre-natal or peri-natal diagnosis of the baby
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/916Ultrasound 3-D imaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Diagnose-Ultraschallabbildungssystem und -verfahren zum Konstruieren eines dreidimensionalen Bildes durch Senden und Empfangen von Ultraschallwellen in einen und von einem lebenden Körper.
  • In den letzten Jahren wurden Diagnose-Ultraschallsysteme, einschließlich desjenigen, das in der japanischen ungeprüften Patentveröffentlichung Nr. 6-30937 offenbart ist, welche eine dreidimensionale Abtastung wie z.B. Spiralabtastung ausführen, um Ultraschallwellen in einen lebenden Körper zu senden und Echos vom lebenden Körper zu empfangen, Daten erfassen, die von den von einem zu untersuchenden Bereich ausgehenden Echos geliefert werden, und somit den zu untersuchenden Bereich im lebenden Körper dreidimensional visualisieren, vorgeschlagen.
  • Das US-Patent Nr. 5 497 776 und die japanische ungeprüfte Patentveröffentlichung Nr. 4-279156 haben Systeme offenbart, in denen Daten, die von Echos geliefert werden, die von einem lebenden Körper ausgehen, dreidimensional angezeigt und mit Bilddaten der Oberfläche einer Körperhöhle synthetisiert werden, welche für eine perspektivische Darstellung verarbeitet oder durch Leuchtschattierung schattiert werden, um die Kontur des lebenden Körpers stereoskopisch darzustellen, während die Graustufenpegel, die von den Echodaten dargestellt werden und für die medizinische Diagnose erforderlich sind, gehalten werden.
  • In dem im US-Patent Nr. 5 497 776 offenbarten System wird ein Anzeigebildschirm auf einem Monitor viergeteilt und eine gewünschte Scheibe kann interaktiv festgelegt werden, indem die Position der Scheibe unter Verwendung einer Rollkugel oder dergleichen festgelegt wird.
  • In dem in der japanischen ungeprüften Patentveröffentlichung Nr. 4 279156 offenbarten System wird die Oberfläche eines Organs durch Verarbeiten von Daten, die mit einer Sichtlinie zusammenfallen, relativ zu einer Schwelle automatisch gewonnen. Überdies wird die Oberfläche gefärbt, um Änderungen im Farbton für eine Tiefenwahrnehmung vorzusehen und somit die Oberfläche stereoskopisch darzustellen.
  • In den im US-Patent Nr. 5 497 776 und in der japanischen ungeprüften Patentveröffentlichung Nr. 4-279156 offenbarten Systemen wird ferner die Anzeigefarbe der Oberfläche eines Organs in einem dreidimensionalen Bild hinsichtlich des Abstands der Oberfläche oder der stereoskopischen Darstellung der Kontur des Organs festgelegt und hat häufig keine Beziehung zur Originalfarbe des Organs, die in einem optischen Bild erkannt wird.
  • In dem System, das in der japanischen ungeprüften Patentveröffentlichung Nr. 4-279156 offenbart ist, werden jedoch die Daten relativ zu einer Schwelle verarbeitet und die Oberfläche eines Organs wird gewonnen, indem beurteilt wird, ob ein Leuchtdichtewert größer ist als ein bestimmter Wert oder nicht. Dies wirft ein Problem auf, dass außerhalb des Organs existierendes Rauschen für einen Teil der Oberfläche des Organs gehalten werden kann und dann gewonnen wird.
  • Das in der japanischen ungeprüften Patentveröffentlichung Nr. 4-279156 offenbarte System weist einen Nachteil auf, dass nicht geprüft werden kann, ob die Oberflächengewinnung korrekt ausgeführt wurde.
  • Das in der japanischen ungeprüften Patentveröffentlichung Nr. 4-279156 offenbarte System weist einen Nachteil auf, dass ein Teil einer falsch gewonnenen Oberfläche nicht korrigiert werden kann.
  • Das im US-Patent Nr. 5 497 776 offenbarte System ist so ausgelegt, dass die Position einer Scheibe nur durch Festlegen der Position eines Schnittpunkts zwischen Scheibenschnittlinien festgelegt wird. Die Scheibe kann daher nicht in einer anderen Ebene als einer zu den Scheibenschnittlinien parallelen Ebene festgelegt werden. Dies wirft ein Problem auf, dass eine Scheibe, die eine Läsion enthält, deren Position mit einer Position in einem schrägen Bereich wie z.B. einem rechten unteren Bereich in einem Tomographiebild zusammenfällt, das senkrecht zur Achse eines Hohlraums erzeugt wird, nicht beobachtet werden kann und daher die Tiefe der Läsion nicht abgeschätzt werden kann.
  • Das im US-Patent Nr. 5 497 776 offenbarte System weist einen Nachteil auf, dass, da Scheiben nur durch Festlegen der Scheibenschnittlinien in einem viergeteilten Anzeigebildschirm auf einem Monitor angezeigt werden, es schwierig ist, einen Teil des Anzeigebildschirms, der zum Anzeigen eines dreidimensionalen Bildes verwendet wird, und dessen anderen Teil, der nicht zum Anzeigen des dreidimensionalen Bildes verwendet wird, zu unterscheiden, und es schwierig ist, die Beziehung der Übereinstimmung zwischen diesen Teilen zu erkennen.
  • Das im US-Patent Nr. 5 497 776 offenbarte System weist einen Nachteil auf, dass ein Winkel von Licht, das zum Schattieren verwendet wird, nicht modifiziert werden kann und einige Formen nicht stereoskopisch dargestellt werden können.
  • Das im US-Patent Nr. 5 497 776 offenbarte System umfasst kein Mittel zur Verwendung bei der Festlegung der Richtung einer Sichtlinie. Selbst nachdem die Richtung einer Sichtlinie, in der ein dreidimensionales Bild orientiert ist, bei einem Versuch, einen interessierenden Bereich wie z.B. eine Läsion deutlicher sichtbar zu machen, geändert wird und dann erneut eine zweidimensionale Projektion durchgeführt wird, kann der interessierende Bereich daher nicht deutlich visualisiert werden. Dies wirft ein Problem auf, dass die Projektion mehrmals ausgeführt werden muss, bis ein gewünschtes dreidimensionales Bild konstruiert ist.
  • Unter der Annahme, dass ein Arzt den Fortschritt einer Läsion, einschließlich deren Tiefe, aus Daten, die von Echos bereitgestellt werden, beurteilt und das Bild einer Oberfläche mit einem optischen Bild wie z.B. einem Endoskopbild hinsichtlich der Kontur der Läsion und dergleichen vergleicht, ist es, da das im US-Patent Nr. 5 497 776 offenbarte System sowohl ein dreidimensional angezeigtes Bild als auch das Bild einer Oberfläche in Graustufe anzeigt, überdies für die Bedienperson schwierig festzustellen, ob Bereiche im dreidimensionalen Bild Darstellungen von Bilddaten, die die Graustufenpegel halten, die durch Echos angegeben werden, die von einem lebenden Körper ausgehen, oder Darstellungen der Bilddaten der Oberfläche, die schattiert ist oder der eine stereoskopische Information wie z.B. eine Kontur beigefügt ist, sind.
  • Die im US-Patent Nr. 5 497 776 und in der japanischen ungeprüften Patentveröffentlichung Nr. 4-279156 offenbarten Systeme weisen ferner einen Nachteil auf, dass, da die Anzeigefarbe des Bildes der Oberfläche eines Organs in einem dreidimensionalen Bild nur hinsichtlich des Abstandes zur Oberfläche oder der stereoskopischen Darstellung der Kontur der Oberfläche festgelegt wird und keine Beziehung zur echten Farbe des Organs hat, die in einem optischen Bild erkennbar ist, kann eine andere Person als eine Bedienperson bei der Erkennung eines Bereichs in einer Körperhöhle, die im dreidimensionalen Bild visualisiert ist, Schwierigkeiten haben.
  • GB 2 273 357 A offenbart ein Diagnose-Ultraschallabbildungssystem mit einem Bildprozessor zum Verarbeiten von Ultraschallbilddaten, die in einem Speicher gespeichert sind, so dass die Kontur oder der Umriss eines Fötuskopfs erkannt wird. Dieser Umriss wird dann in einem Hauptachsendetektor, der die Orientierung des Kopfumrisses einstellt, analysiert und ein Formdetektor erkennt Anomalitäten im Kopfumriss.
  • Es ist eine Aufgabe der Erfindung, ein Diagnose-Ultraschallabbildungssystem bereitzustellen, das ein dreidimensionales Bild eines gewünschten Objekts auf eine realistischere und erkennbarere weise anzeigt.
  • Die Erfindung ist in den Ansprüchen 1 bzw. 4 definiert. Spezielle Ausführungsbeispiele sind in den abhängigen Ansprüchen dargelegt.
  • 1 bis 16 betreffen das erste zum Verstehen der Erfindung nützliche Beispiel;
  • 1 ist ein Blockdiagramm, das die Anordnung eines Diagnose-Ultraschallabbildungssystems des ersten Beispiels zeigt;
  • 2 ist ein Ablaufplan, der den Inhalt der von einer CPU und einem Bildprozessor durchgeführten Bildverarbeitung beschreibt;
  • 3 ist ein Ablaufplan, der den Inhalt der Festlegung der Positionen von Scheiben in 2 beschreibt;
  • 4 ist ein Diagramm, das ein typisches Beispiel von vier Ultraschallbildern zeigt, die Scheibenschnittebenen darstellen;
  • 5 ist ein Diagramm, das ein einfaches dreidimensionales Bild zeigt, das ohne Oberflächenpunktgewinnung erzeugt wird;
  • 6 ist ein Diagramm, das dieselben Ultraschallbilder wie die in 4 gezeigten zeigt, wobei Teile der Bilder nicht zum Konstruieren des in 5 gezeigten Bildes verwendet werden;
  • 7 zeigt Teilbildschirme, die zum Festlegen der Richtung einer Sichtlinie verwendet werden;
  • 8 ist ein erläuterndes Diagramm, das in 7 gezeigte Winkel räumlich darstellt;
  • 9 ist ein Ablaufplan, der den Inhalt der in 2 beschriebenen Verarbeitung zum Gewinnen von Punkten, die eine Oberfläche festlegen, beschreibt;
  • 10 ist ein erläuterndes Diagramm, das eine Abtastung, die an einem Abtastanfangspunkt begonnen wird, zum Gewinnen von eine Oberfläche festlegenden Punkten zeigt;
  • 11 ist ein Ablaufplan, der die Verarbeitung der Schattierung beschreibt;
  • 12 ist ein erläuterndes Diagramm der Verarbeitung der Schattierung;
  • 13 zeigt Teilbildschirme zum Festlegen, in welchem der festgelegte Wert der Lichtrichtung angezeigt wird:
  • 14 ist ein erläuterndes Diagramm, das die in 13 gezeigten Winkel räumlich darstellt;
  • 15 ist ein Diagramm, das vier Bilder zeigt, wobei Teile der Bilder nicht zum schraffierten Anzeigen eines dreidimensionalen Bildes verwendet werden;
  • 16 ist ein Diagramm, das ein schließlich konstruiertes dreidimensionales Bild zeigt;
  • 17 ist ein Diagramm, das ein beispielhaftes Beispiel von vier Ultraschallbildern im zweiten Beispiel zeigt;
  • 18 ist ein Ablaufplan, der einen Teil des Inhalts der Verarbeitung zum Gewinnen von Punkten, die eine Oberfläche festlegen, im dritten Beispiel beschreibt;
  • 19 ist ein erläuterndes Diagramm der Funktionsweise des dritten Ausführungsbeispiels;
  • 20 ist ein erläuterndes Diagramm einer Variante der von einer Ultraschallsonde durchgeführten Abtastung;
  • 21 ist ein Ablaufplan, der den Inhalt der Verarbeitung zum Schattieren im Ausführungsbeispiel der vorliegenden Erfindung beschreibt;
  • 22 ist ein Ablaufplan, der den Inhalt der Verarbeitung der Oberflächenpunktgewinnung im vierten Beispiel beschreibt;
  • 23 ist ein erläuterndes Diagramm, das eine Szene des manuellen Nachziehens von Punkten, die eine Grenze festlegen, unter Verwendung des ersten Bildes zeigt;
  • 24A und 24B sind erläuternde Diagramme hinsichtlich der Berechnung der ersten Gradienten an Punkten, die unter Verwendung des ersten Bildes nachgezogen werden, und der zweiten Gradienten an entsprechenden Punkten, die unter Verwendung des zweiten Bildes nachgezogen werden;
  • 25 ist ein Ablaufplan, der den Inhalt der Verarbeitung der Oberflächenpunktgewinnung im fünften Beispiel beschreibt;
  • 26 ist ein erläuterndes Diagramm, das eine Szene des kontinuierlichen Nachziehens von Punkten, die eine Grenze festlegen, von einem Anfangspunkt P unter Verwendung eines zweidimensionalen Bildes i zeigt;
  • 27 ist ein erläuterndes Diagramm, das einen Teil von 26 in einer vergrößerten Form zeigt;
  • 28 ist ein erläuterndes Diagramm der Operation der Binärcodierung, die in Schritt S2527 in 25 durchgeführt wird;
  • 29 ist ein erläuterndes Diagramm der Verarbeitung zur Behandlung einer Kante eines Bildes;
  • 30 ist ein erläuterndes Diagramm, das eine Szene des Korrigierens eines falsch gewonnenen Teils einer Grenze zeigt;
  • 31 ist ein Ablaufplan, der einen Teil des Inhalts der Verarbeitung der Oberflächenpunktgewinnung im sechsten Beispiel beschreibt; und
  • 32 ist ein erläuterndes Diagramm der Operation des Festlegens des Anfangspunkts von Abtastlinien.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSBEISPIELE
  • Mit Bezug auf die Zeichnungen werden nachstehend Beispiele und das Ausführungsbeispiel der vorliegenden Erfindung beschrieben.
  • Wie in 1 gezeigt, umfasst ein Diagnose-Ultraschallabbildungssystem 1 des ersten Beispiels einen Ultraschallbetrachter 2 zum Senden von Ultraschallwellen, Empfangen von Echos und Anzeigen von Bildern, die von den Echos geliefert werden, in Echtzeit, und eine Bildverarbeitungseinheit 3 zum Verarbeiten von Bildern für die Anzeige eines dreidimensionalen Bildes auf der Basis von Daten, die von den Echos geliefert werden, die vom Ultraschallbetrachter 2 empfangen werden. Das Diagnose-Ultraschallabbildungssystem 1 umfasst ferner eine Ultraschallsonde 4, in die ein Ultraschallwandler 4b zum Senden von Ultraschallwellen und Empfangen von Echos integriert ist, und welche einen Einführungsteil 4a umfasst, der in eine Körperhöhle eingeführt werden soll und ein Mittel zum Ermöglichen einer Spiralabtastung durch den Ultraschallwandler 4b aufweist. Ein Treiber 5 zum Steuern der Ultraschallsonde 4 ist mit dem Ultraschallbetrachter 2 verbunden.
  • Der Ultraschallbetrachter 2 umfasst einen Sendeempfänger 6 zum Senden von Ultraschallwellen oder Empfangen von Echos über den Treiber 5, einen A/D-Wandler 7 zum Umwandeln von Echos, die vom Sendeempfänger 6 empfangen werden, in digitale Daten, einen Bildspeicher 8 zum Speichern von Daten, die vom A/D-Wandler 7 umgewandelt wurden, einen digitalen Abtastwandler 9 (DSC) zum Umwandeln von Daten, die im Bildspeicher 8 gespeichert sind, in Bilddaten, die an ein gegebenes Fernsehsystem anpassbar sind, einen Monitor 11 zum Eingeben eines Ausgangsbildsignals des D/A-Wandlers 10 und zum Anzeigen eines Bildes in Echtzeit, und eine Systemsteuereinheit 12 zum Steuern des Treibers 5, des Sendeempfängers 6, des A/D-Wandlers 7 und des Bildspeichers 8.
  • Die Bildverarbeitungseinheit 3 umfasst eine CPU 13, die für die Steuerung der Bildverarbeitung und dergleichen verantwortlich ist, einen Hauptspeicher 14 zum Speichern von Daten, die sich aus verschiedenen Arten von Bildverarbeitung ergeben, eine Steuereinheit 15 zum Senden oder Empfangen von Befehlen zu oder von der Systemsteuereinheit 12, eine Polarkoordinaten-Transformationseinheit 16 zum Transformieren von Daten von aufeinanderfolgenden Schallstrahlen, die vom Ultraschallbetrachter 2 geliefert werden, in eine Vielzahl von aufeinanderfolgenden zweidimensionalen Bildern, einen Bilddatenspeicher 17 zum Speichern von Bilddaten, die von der Polarkoordinaten-Transformationseinheit 16 geliefert werden, einen Bildprozessor 18 zum Ausführen von verschiedenen Arten von Bildverarbeitung; wie z.B. Oberflächenpunktgewinnung, Schattierung, Synthese, Koordinatentransformation, Verlaufsgewinnung, Grenzüberlagerung, Tomographiebildkonstruktion und Scheiben-Oberflächen-Grenzüberlagerung mit hoher Geschwindigkeit, eine erste externe Speichervorrichtung 19 zum Speichern einer Information, einschließlich Programmen und Sicherungsdaten, wie z.B. eine Festplatte, eine zweite externe Speichervorrichtung 20 zum Sichern des Inhalts der ersten externen Speichervorrichtung 19, wie z.B. eine magnetooptische Platte, ein Bedienungsendgerät 21 wie z.B. eine Tastatur, einen Bildpuffer 22 zum vorübergehenden Speichern von Daten, die eine Bildverarbeitung erfahren haben, einen D/A-Wandler 23 zum Umwandeln eines Ausgangsbildsignals des Bildpuffers 22 in ein analoges Signal, einen Monitor 24 zur Verarbeitung von dreidimensionalen Bildern zum Eingeben eines Ausgangsbildsignals des D/A-Wandlers 23 und zum Anzeigen eines dreidimensionalen Bildes, das sich aus der Bildverarbeitung ergibt, und ein abdeckungsartiges Berührungsfeld 25, das auf der Anzeigeoberfläche des Monitors 24 zur Verarbeitung von dreidimensionalen Bildern angeordnet ist und zum Festlegen eines Bildanzeigebereichs oder zum Eingeben irgendeiner anderen Information verwendet wird.
  • Auf der Bedienungsoberfläche des Bedienungsendgeräts 21 sind eine Maskenschalttaste 21a und eine Taste 21b zum Konstruieren eines einfachen dreidimensionalen Bildes ausgebildet. Da das Berührungsfeld 25 übernommen wurde, ist die CPU 13 dazu ausgelegt, einen Punkt auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern zu identifizieren, der mit dem Finger eines Benutzers berührt wird. Die Komponenten der Bildverarbeitungseinheit 3 sind über einen Datenübertragungsbus 26 miteinander verbunden, durch den Bilddaten und dergleichen übertragen werden können.
  • Eine Welle 4c verläuft durch den Einführungsteil 4a der Ultraschallsonde 4. Der Ultraschallwandler 4b ist an der Spitze der Welle 4c befestigt. Ein Außengewinde 4d ist als hinterer Teil der welle 4c ausgebildet. Das Außengewinde 4d ist durch ein Schraubenloch eines Stützelements 5a im Treiber 5 geführt. Ein Motor 5b ist am hinteren Ende des Außengewindes 4d befestigt.
  • Durch Drehen des Motors 5b sendet der Ultraschallwandler 4b, der sich an der Spitze der welle 4c befindet, Ultraschallwellen radial aus. Der Ultraschallwandler 4b und der zu drehende Motor 5b senden Signale, einschließlich eines Antriebssignals, über einen Gleitring 5d. Die Welle 4c ist durch ein wasserdichtes Lager 4e gelagert.
  • In diesem Beispiel, wie später beschrieben, ist ein Oberflächenpunkt-Gewinnungsmittel enthalten. Das Oberflächenpunkt-Gewinnungsmittel tastet die aus dem Ultraschallbetrachter 2 ausgegebenen dreidimensionalen Daten entlang jeder Abtastlinie vom Anfangspunkt von Abtastlinien zu einem fernen Punkt ab und gewinnt einen Punkt, der am nächsten zum Anfangspunkt von Abtastlinien liegt, aus einem Verlauf von Punkten, an welchen Leuchtdichtewerte eine bestimmte Schwelle, die zur Oberflächengewinnung festgelegt ist, mit einer Länge, die größer ist als eine gegebene Länge, oder eine Schwelle überschreiten, die zum Beseitigen von Rauschen oder dergleichen festgelegt ist. Somit wird die Oberfläche eines Objekts wie z.B. eines Organs genau gewonnen, wobei eine falsche Gewinnung aufgrund von Rauschen verhindert wird. Die so erhaltenen Punkte werden synthetisiert, um die Oberfläche des Objekts zu erzeugen, wodurch ein dreidimensionales Bild, das das Objekt darstellt, genau angezeigt werden kann.
  • Die Funktionsweise des Ultraschallbetrachters 2 wird nachstehend beschrieben.
  • Zur Ultraschallbetrachtung wird der Einführungsteil 4a der Ultraschallsonde 4 in eine Körperhöhle eingeführt. Unter der Steuerung der Systemsteuereinheit 12 steuern der Sendeempfänger 6 und der Treiber 5 den Ultraschallwandler 4b in der Ultraschallsonde 4 in einer Spiralform an. Ultraschallwellen werden somit in einen lebenden Körper gesandt und Echos werden vom lebenden Körper empfangen. Folglich werden Daten, die von den Echos geliefert werden, die von einem dreidimensionalen Bereich in einer Körperhöhle ausgehen, erfasst.
  • Insbesondere wird der in den Treiber 5 in der Ultraschallsonde 4 eingebaute Motor 5b gedreht, um den Ultraschallwandler 4b, der an der Spitze der Welle 4c befestigt ist, anzutreiben und zu drehen. Ultraschallwellen werden dann radial in einer zur Achse der Ultraschallsonde 4 senkrechten Richtung (vertikale Richtung in 1) gesandt und Echos oder reflektierte Ultraschallwellen, die Änderungen in der akustischen Impedanz erfahren haben, werden empfangen.
  • Mit der Drehung wird ein dreidimensionaler Bereich geradlinig entlang der Drehachse in Intervallen einer Steigung des Außengewindes 4d abgetastet (das heißt Spiralabtastung). Somit werden Echos, die vom dreidimensionalen Bereich ausgehen, erfasst. Die Echos werden durch den A/D-Wandler 7 über den Gleitring 5d im Treiber 5 in digitale Signale umgewandelt, wobei folglich Daten geliefert werden.
  • Die von den Echos gelieferten Daten, das heißt Echodaten, werden im Bildspeicher 8 gespeichert und in Echtzeit (Ultraschallansichtsbild) auf dem Monitor 11 über den DSC 9 und den D/A-Wandler 10 angezeigt. Gleichzeitig werden die erfassten Daten als eindimensionale Echodaten (Daten von aufeinanderfolgenden Schallstrahlen) in Form eines digitalen Signals von der Ausgangsstufe des A/D-Wandlers 7 zur Bildverarbeitungseinheit 3 gesandt. Zu diesem Zeitpunkt werden zugehörige Daten wie z.B. die Größe von Daten eines zweidimensionalen Bildes und ein Abstand zwischen Bildern auch zur Bildverarbeitungseinheit 3 gesandt.
  • Als nächstes wird die Funktionsweise der Bildverarbeitungseinheit 3 beschrieben.
  • Daten von Schallstrahlen, die von einer Körperhöhle durch die Ultraschallsonde 4 durch Spiralabtastung erfasst werden und vom Ultraschallbetrachter 2 zur Bildverarbeitungseinheit 3 gesandt werden, werden durch die Polarkoordinaten-Transformationseinheit 16 in Bilddaten umgewandelt. Im Bilddatenspeicher 17 werden die Bilddaten als Vielzahl von aufeinanderfolgenden zweidimensionalen Bildern zusammen mit den zugehörigen Daten in der Reihenfolge, in der die Bilder erfasst werden, geschrieben.
  • Der Bilddatenspeicher 17 funktioniert als Speicher für dreidimensionale Echodaten. Der Bildprozessor 18 führt eine Bildverarbeitung wie z.B. Oberflächenpunktgewinnung, Schattierung, Synthese und Koordinatentransformation an den Bilddaten und zugehörigen Daten, die im Bilddatenspeicher 17 gespeichert sind, durch.
  • Die verarbeiteten Bilddaten werden dann zum Bildpuffer 22 gesandt, vorübergehend in diesem gespeichert und dann zum Monitor 24 zur Verarbeitung von dreidimensionalen Bildern über den D/A-Wandler 23 gesandt. Danach wird ein dreidimensionales Bild auf der Basis der Echodaten auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern angezeigt.
  • Die Schritte von verschiedenen Arten von Bildverarbeitung, die vom Bildprozessor 18 durchgeführt werden sollen, werden von der CPU 13 gesteuert.
  • Die Details der von der CPU 13 und vom Bildprozessor 18 durchgeführten Bildverarbeitung werden mit Bezug auf den Ablaufplan von 2 und die erläuternden Diagramme hinsichtlich der Verarbeitungsschritte von 3 bis 16 beschrieben.
  • In Schritt S1 in 2 werden Bilddaten eines dreidimensionalen Bereichs zusammen mit zugehörigen Daten aus dem Bilddatenspeicher 17 gelesen. In Schritt S2 in 2 werden die Positionen von Scheiben festgelegt.
  • Die Details von Schritt S2 werden nachstehend erwähnt.
  • 3 ist ein Ablaufplan, der den Inhalt eines typischen Beispiels von Schritt S2 beschreibt. 4 zeigt eine Vielzahl von Tomographiebildern oder insbesondere vier Tomographiebilder (Echodaten von Scheiben), die durch ein Tomographiebild-Konstruktionsmittel für den Zweck der Konstruktion eines dreidimensionalen Bildes auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern konstruiert werden. Ein Bereich, der mit kleinen Punkten in 4 angegeben ist, ist ein interessierender Bereich 31 wie z.B. eine Läsion.
  • In Schritt S1 werden aus dem Bilddatenspeicher 17 gelesene Bilddaten verwendet, um die Tomographiebilder auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern anzuzeigen. 16 zeigt ein schließlich durch zweckmäßiges Festlegen der vier Tomographiebilder konstruiertes dreidimensionales Bild. Scheiben A, B, C und D, die in 4 gezeigt sind, entsprechen den Scheiben A, B, C und D, die in 16 gezeigt sind (in der Realität haben die in 4 gezeigten Scheiben, einschließlich der Scheibe A, die den Scheiben in 16 entsprechen, eine parallele Bewegung oder Rotation erfahren, so dass eine Läsion enthalten ist).
  • Insbesondere ist die Scheibe C zu den Scheiben A und D senkrecht und enthält eine Scheibenschnittlinie +, die in 4 gezeigt ist. Die Scheibe B enthält eine Scheibenschnittlinie x, die in 4 gezeigt ist. Die Scheibe A ist zu den Scheiben B und C senkrecht und enthält eine Scheibenschnittlinie Δ, die in 4 gezeigt ist. Die Scheibe D enthält eine Scheibenschnittlinie , die in 4 gezeigt ist.
  • In 16 ist eine z-Achse entlang der Achse der eingeführten Ultraschallsonde 4 festgelegt (Längsrichtung der Ultraschallsonde 4), wie später erwähnt. Die Beschreibung geht mit der Annahme weiter, dass die Scheiben A und D, die zur z-Achse senkrecht und zueinander parallel sind, als radiale Ebenen betrachtet werden, und die Scheiben B und C, die zur z-Achse parallel sind, als lineare Ebenen betrachtet werden. In diesem Fall soll die Scheibe A als radiale vordere Ebene bezeichnet werden, was eine durch Radialabtastung abzutastende vordere Ebene bedeutet, während die Scheibe D als radiale hintere Ebene bezeichnet werden soll, was eine durch Radialabtastung abzutastende hintere Ebene bedeutet. Wie in 16 gezeigt, ist eine y-Achse aufwärts definiert. Gemäß einem dreidimensionalen Raum soll die Scheibe B als lineare Seitenebene bezeichnet werden und die Scheibe C soll als lineare obere Ebene bezeichnet werden.
  • Die mit gestrichelten Linien in 4 angegebenen Scheibenschnittlinien und die Kontur einer verarbeiteten Scheibe werden in Gelb oder dergleichen gefärbt, so dass sie leicht von Tomographiebildern unterschieden werden können, die in Schwarz-Weiß-Graustufe angezeigt werden.
  • In Schritt S21 in 3 berührt ein Benutzer einen Δ-Cursor in der Scheibe B (lineare Seitenebene) in 4 auf dem Berührungsfeld 25 mit seinem Finger und verschiebt den Δ-Cursor in einer Richtung eines Pfeils (seitliche Richtung in 4), so dass der interessierende Bereich 31 wie z.B. eine Läsion in der Scheibe A erscheinen kann. Dies bewirkt, dass sich die Scheibenschnittlinie Δ als Reaktion darauf bewegt. Der interessierende Bereich 31 erscheint dann in der Scheibe A (radiale vordere Ebene), die durch die Scheibenschnittlinie Δ festgelegt ist.
  • Somit umfasst ein Tomographiebild-Konstruktionsmittel oder eine Tomographiebild-Konstruktionseinrichtung ein Scheibenschnittlinien-Bewegungsmittel oder eine Scheibenschnittlinien-Bewegungseinrichtung zum Bewegen von Scheibenschnittlinien, die die Positionen von Scheiben anzeigen.
  • In Schritt S22 in 3 dreht der Benutzer die Scheibe A so, dass der interessierende Bereich 31 korrekt orientiert wird. Insbesondere berührt der Benutzer den Punkt K in der Scheibe A in 4 mit seinem Finger und bewegt seinen Finger in einer Richtung eines Pfeils. Dies bewirkt, dass sich die gesamte Scheibe A in der Richtung eines Pfeils mit dem Mittelpunkt O der Scheibe A als Zentrum dreht. Der interessierende Bereich 31 erscheint unmittelbar unter einem Objekt in der Scheibe A, die in 4 gezeigt ist. Somit ist ein Tomographiebild-Drehmittel oder eine Tomographiebild-Dreheinrichtung enthalten.
  • In Schritt S23 in 3 wird die Scheibenschnittlinie + oder x so bewegt, dass die Scheibenschnittlinie + oder x den interessierenden Bereich 31 durchquert. Der Weg der Bewegung ist identisch zum Weg der Bewegung des Δ-Cursors. Der interessierende Bereich 31 erscheint dann in der Scheibe B oder C. In 4 wurde die Scheibenschnittlinie x bewegt.
  • In Schritt S24 in 3 werden die Scheibenschnittlinien Δ und so bewegt, dass der interessierende Bereich 31 zwischen die Scheibenschnittlinien eingefügt wird.
  • Somit wurde das Festlegen der Positionen von Scheiben zum Konstruieren eines dreidimensionalen Bildes, das in 16 gezeigt ist, beendet.
  • In einem festgelegten einer Vielzahl von Tomographiebildern, die unterschiedlich orientierte Scheiben bzw. Schnitte darstellen, die durch das Tomographiebild-Konstruktionsmittel (Einrichtung) erstellt wurden, bewegt das Scheibenschnittlinien-Bewegungsmittel, wie vorstehend erwähnt, eine Scheibenschnittlinie, die die Position einer Scheibe anzeigt, und das Tomographiebild-Drehmittel dreht ein Tomographiebild. Die anderen Tomographiebilder als das festgelegte werden dann dementsprechend modifiziert. An welcher Position auch immer in einem Tomographiebild sich eine Läsion befindet, eine Scheibe kann so festgelegt werden, dass die Scheibe durch die Läsion verläuft. Folglich kann die Tiefe oder dergleichen der Läsion abgeschätzt werden.
  • Nachdem die Scheibenpositionsfestlegung von Schritt S2 beendet ist, wird, wenn der Benutzer die Taste 21b zur Konstruktion eines einfachen dreidimensionalen Bildes drückt, ein einfaches dreidimensionales Bild, das keine Oberflächenpunktgewinnung erfahren hat, wie in 5 gezeigt, für die Information des Benutzers konstruiert und dann auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern angezeigt.
  • Ein Maskierungsmittel oder Anzeigeform-Festlegungsmittel ist zum Festlegen oder Anzeigen von Scheiben enthalten, so dass die Beziehung der Übereinstimmung zwischen einem Teil von jedem Tomographiebild, der zum Konstruieren eines dreidimensionalen Bildes verwendet wird, und dem anderen Teil von diesem, der nicht dazu verwendet wird, leicht erfasst werden kann.
  • In 6 sind Teile der in 4 gezeigten Tomographiebilder, die nicht zum Konstruieren des einfachen dreidimensionalen Bildes, das in 5 gezeigt ist, verwendet werden, schraffiert. Wenn der Benutzer die Maskenschalttaste 21a auf dem Bedienungsendgerät 21 drückt, werden die schraffierten Teile dunkler gemacht als die anderen Teile, so dass die Beziehung der Übereinstimmung zwischen der in 5 gezeigten dreidimensionalen schrägen Anzeige und entsprechenden Teilen der Tomographiebilder oder die Beziehung der Übereinstimmung unter den Teilen der Tomographiebilder leicht erfasst werden kann. Wenn die Maskenschalttaste 21a wieder gedrückt wird, erscheint wieder die in 4 gezeigte ursprüngliche Anzeige. Es ist auch möglich, die vorstehend genannten Schritte S21 bis S24 auszuführen, wenn die schraffierten Teile dunkel gehalten werden.
  • Wie vorstehend erwähnt, ist ein Anzeigeform-Festlegungsmittel enthalten: das heißt, wenn die Maskenschalttaste 21a bedient wird, um eine Anzeigeform festzulegen oder auszuwählen, kann festgelegt werden, ob Echodaten, die zum Konstruieren eines dreidimensionalen Bildes synthetisiert werden sollen, und die anderen Echodaten (Echodaten, die tatsächlich nicht verwendet werden, um das dreidimensionale Bild zu konstruieren) in verschiedenen Formen oder in der gleichen Form angezeigt werden.
  • In Schritt S3 in 2 wird die Richtung einer Sichtlinie festgelegt.
  • Schritt S3 wird nachstehend beschrieben.
  • In Schritt S3 werden aktuelle festgelegte Werte hinsichtlich der Richtung einer Sichtlinie in Teilbildschirmen zur Festlegung, die in 7 gezeigt sind, auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern angezeigt. 8 ist ein Diagramm zum Erläutern der räumlichen Beziehung zwischen den in 7 gezeigten Winkeln θ und ϕ. Die Koordinatenachsen Ox, Oy und Oz sind in den Bilddaten festgelegt. Die z-Achse stimmt mit der Richtung der Achse eines Hohlraums in einem lebenden Körper überein.
  • In diesem Beispiel wird die Ultraschallsonde 4 in eine Körperhöhle entlang der Achse eines Hohlraums in einem lebenden Körper eingeführt. Die z-Achse ist daher in der Richtung der Achse der eingeführten Ultraschallsonde 4 festgelegt. In diesem Beispiel werden die Winkel θ und ϕ als Standard auf 45° festgelegt, so dass das Innere einer Körperhöhle aus einer schrägen Richtung stereoskopisch dargestellt werden kann, selbst wenn die Festlegung nicht speziell modifiziert wird.
  • Der Benutzer berührt den Punkt E im Teilbildschirm auf dem Berührungsfeld 25, um die Richtung einer Sichtlinie in eine gewünschte Richtung zu ändern, und verschiebt den Punkt E in einer Umfangsrichtung bezüglich des Zentrums O des Teilbildschirms. Dies bewirkt, dass sich das Segment OE bewegt. Der Winkel 8 einer Sichtlinie wird entsprechend modifiziert und festgelegt. Somit transformiert die Polarkoordinaten-Transformationseinheit 16, die als Koordinatentransformationsmittel dient, Polarkoordinaten. Dasselbe gilt für den Winkel ϕ, obwohl ein mit einem Finger zu berührender Punkt der Punkt x' ist.
  • Die in 8 gezeigte Anzeige wird auch auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern als Reaktion auf die Anzeige der Teilbildschirme zur Festlegung, die in 7 gezeigt sind, angezeigt. Die Richtung einer Sichtlinie, in der ein in 16 gezeigtes dreidimensionales betrachtet wird, wird folglich festgelegt.
  • Wie vorstehend erwähnt, transformiert in diesem Beispiel das Koordinatentransformationsmittel Koordinaten von Echodaten von Scheiben und Echodaten einer Oberfläche und das Sichtlinienwinkel-Festlegungsmittel legt Winkel, die eine Sichtlinie oder die Richtung der Sichtlinie festlegen, in der ein dreidimensionales Bild betrachtet wird, als Winkel in einem Koordinatensystem mit der Achse eines Hohlraums in einem lebenden Körper oder der Achse einer eingeführten Ultraschallsonde als eine der Koordinatenachsen fest. Das Anzeigemittel zeigt die Winkel, die eine Sichtlinie festlegen, im Koordinatensystem mit der Achse eines Hohlraums in einem lebenden Körper oder der Achse einer eingeführten Ultraschallsonde als eine der Koordinatenachsen an. Somit können die Winkel, die eine Sichtlinie festlegen, in der ein dreidimensionales Bild betrachtet wird, leicht festgelegt werden und die Sichtlinie kann intuitiv und automatisch leicht verstanden werden.
  • In Schritt S4 in 2 werden Punkte, die die Oberfläche eines Objekts wie z.B. eines Organs festlegen, gewonnen. Die Details von Schritt S4 werden nachstehend erläutert.
  • 9 ist ein Ablaufplan, der den Inhalt von Schritt S4 beschreibt. 10 ist ein Diagramm zum Erläutern der Abtastung, die zum Gewinnen von Punkten, die die Oberfläche Su eines Objekts festlegen, vorgesehen ist und mit dem Anfangspunkt O von Abtastlinien begonnen wird. 10 stellt die Operation dar, die anzuwenden ist, wenn Bilddaten entlang jeder Abtastlinie vom Anfangspunkt O von Abtastlinien zu einem fernen Punkt abgetastet werden, und ein Punkt, der am nächsten zum Anfangspunkt O von Abtastlinien liegt, aus jedem Verlauf von aufeinanderfolgenden Punkten, an welchen Datenwerte eine zur Oberflächengewinnung festgelegte Schwelle überschreiten, mit einer Länge, die größer ist als eine gegebene Länge, gewonnen wird.
  • In 10 sind Leuchtdichtewerte an den Punkten entlang einer Abtastlinie innerhalb der Oberfläche Su abgesehen von den in Rauschen enthaltenen klein, während die Leuchtdichtewerte an den Punkten entlang der Abtastlinie außerhalb der Oberfläche Su groß sind. Somit kann ein Gewinnungsmittel zum Gewinnen der Oberfläche Su eines Objekts durch Gewinnen von Punkten, wie vorstehend erwähnt, realisiert werden.
  • Die Schritte S411 bis S428 bilden eine automatische Gewinnungsroutine zum automatischen Gewinnen von Punkten, die eine Oberfläche festlegen, und die Schritte S429 bis S442 bilden eine Anzeige/Korrektur-Routine zum Anzeigen und Korrigieren einer automatisch erfassten Grenze.
  • Der Inhalt der automatischen Gewinnungsroutine wird nachstehend beschrieben. Die automatische Gewinnungsroutine beinhaltet ein Verlaufsgewinnungsmittel zum Gewinnen von Punkten, die eine Oberfläche festlegen, aus Verläufen von Punkten.
  • In Schritt S411 in 9 werden Bilddaten geglättet. Die Einheit zum Glätten wird optimal relativ zur Ultraschallauflösung, die während des Abtastens durch den Ultraschallwandler in der Ultraschallsonde 4 erzielbar ist, verändert.
  • In Schritt S412 in 9 werden Bilddaten relativ zu einer zur Oberflächengewinnung festgelegten Schwelle verarbeitet. Leuchtdichtewerte an Punkten, die gleich der Schwelle oder kleiner als diese sind, werden gegen 0 ausgetauscht. Die Schwelle kann am Bedienungsendgerät 21 verändert werden.
  • In Schritt S413 in 9 wird eine Schwelle einer Länge eines Verlaufs von Punkten, an denen Leuchtdichtewerte die Schwelle überschreiten, die festgelegt wird, um einen Verlauf von Punkten, dessen Länge gleich der Schwelle oder kleiner als diese ist, als Rauschen zu betrachten, der Variable run0 zugewiesen. Diese Eingabe wird am Bedienungsendgerät 21 ausgeführt.
  • Das Bedienungsendgerät 21 dient als Rauschbeseitigungs-Festlegungsmittel, das zum Beseitigen eines Verlaufs von aufeinanderfolgenden Punkten, an denen Datenwerte eine Schwelle überschreiten, mit einer Länge gleich einer oder kleiner als eine festgelegte Länge als Rauschen verwendet wird. Der Bildprozessor 18 beseitigt einen Verlauf von aufeinanderfolgenden Punkten, an denen Datenwerte eine Schwelle überschreiten, mit einer Länge gleich der oder kleiner als die Schwelle oder der festgelegten Länge als Rauschen.
  • Wie in 10 gezeigt, wird folglich die Oberfläche Su eines Objekts gewonnen, wobei eine falsche Erfassung unterdrückt wird. In 10 ist ein aufgrund von Rauschen erfasster falscher Punkt für ein besseres Verständnis der Operation der Korrekturroutine gezeigt.
  • Die Schwelle der Länge kann am Bedienungsendgerät 21 verändert werden. Selbst wenn beispielsweise Rauschen, wie in 10 gezeigt, vorhanden ist, und wenn die Schwelle auf einen größeren Wert als die Länge des Rauschens festgelegt ist, kann das Rauschen beseitigt werden.
  • In Schritt S414 in 9 wird der Variable i 0 zugewiesen. Die Variable i gibt die Nummer eines zweidimensionalen Bildes an, das momentan unter einer Vielzahl von aufeinanderfolgenden zweidimensionalen Bildern, die als Bilddaten in den Bilddatenspeicher 17 geschrieben sind, verarbeitet werden sollte (der Begriff Bild i kann verwendet werden). Da in diesem Beispiel alle 50 aufeinanderfolgenden zweidimensionalen Bilder verarbeitet werden sollen, wird die folgende Beziehung festgelegt: 0 ≤ i ≤ 49
  • Im übrigen ist die vorliegende Erfindung nicht auf das Verfahren der Verarbeitung aller Bilder begrenzt, sondern kann auch für das Verfahren der Verarbeitung eines festgelegten Bildes allein gelten.
  • In Schritt S415 in 9 wird 0 der Variable s zugewiesen. Die Variable s gibt eine Abtastlinie an, die momentan unter Abtastlinien, die sich von einem Anfangspunkt von Abtastlinien zu fernen Punkten erstrecken, verarbeitet werden sollte (der Begriff Abtastlinie s kann verwendet werden). Da in diesem Beispiel 36 Abtastlinien radial in Intervallen von beispielsweise 10° nachgezogen werden, wird die folgende Beziehung festgelegt: 0 ≤ s ≤ 35
  • Wenn das Intervall übernommen wird, besteht eine gewonnene Grenze aus Punkten. Wenn das Intervall kleiner gemacht wird, ist die gewonnene Grenze im Wesentlichen linear festgelegt. Dieses Beispiel erfasst die Gewinnung einer solchen linear festgelegten Grenze.
  • In Schritt S416 in 9 werden die Koordinaten des Anfangspunkts von Abtastlinien als Adresse des verarbeiteten Punkts festgelegt. Die Adresse des verarbeiteten Punkts wird mit den Adressen x und y festgelegt, die den x- und y-Koordinaten eines momentan verarbeiteten Punkts entsprechen. In diesem Beispiel wird der Anfangspunkt von Abtastlinien in der Mitte von jedem zweidimensionalen Bild festgelegt. In 10 ist der Anfangspunkt der Punkt O.
  • In Schritt S417 in 9 wird 0 der Variable run zugewiesen. Die Variable run wird verwendet, um die Länge eines Verlaufs zu messen.
  • In Schritt S418 in 9 wird die Adresse des verarbeiteten Punkts zum nächsten Punkt entlang der Abtastlinie s verschoben.
  • In Schritt S419 in 9 wird beurteilt, ob ein Leuchtdichtewert an dem mit der Adresse des verarbeiteten Punkts angegebenen Punkt größer oder kleiner ist als der Schwellenwert, relativ zu welchem Bilddaten verarbeitet werden. Wenn der Leuchtdichtewert größer ist, wird die Steuerung an Schritt S420 übergeben. Wenn der Leuchtdichtewert kleiner ist, springt die Steuerung zu Schritt S417.
  • In Schritt S420 in 9 wird die Adresse x der Adresse des verarbeiteten Punkts der run-ten Variable p(run) von Variablen p einer eindimensionalen Matrix zugewiesen. Die Adresse y der Adresse des verarbeiteten Punkts wird der run-ten Variable q(run) von Variablen q einer eindimensionalen Matrix zugewiesen.
  • In Schritt S421 in 9 wird 1 zur Variable run addiert.
  • In Schritt S422 in 9 wird beurteilt, ob die Variable run mit run0 übereinstimmt oder nicht. Wenn die werte miteinander übereinstimmen, wird die Steuerung an Schritt S423 übergeben. Wenn die Werte nicht miteinander übereinstimmen, springt die Steuerung zu Schritt S418.
  • In Schritt S423 in 9 wird p(run-run0) der Variable X(s, i) einer zweidimensionalen Matrix zugewiesen und q(run-run0) wird der Variable Y(x, i) einer zweidimensionalen Matrix zugewiesen. Somit wird ein Punkt, der am nächsten zum Anfangspunkt von Abtastlinien liegt, als Koordinaten (X(x, i), Y(s, i)) von einem Verlauf von aufeinanderfolgenden Punkten, an welchen Leuchtdichtewerte die Schwelle überschreiten, mit einer Länge, die größer ist als run0, gewonnen.
  • In Schritt S424 in 9 werden die Werte X(s, i) und Y(s, i) an den Bilddatenspeicher 17 ausgegeben. Mit anderen Worten, in Schritt 424 wird die Adresse des Punkts M in 10 in den Bilddatenspeicher 17 geschrieben.
  • In Schritt S425 in 9 wird 1 zur Variable s addiert. Mit anderen Worten, die zu verarbeitende Abtastlinie wird zu einer angrenzenden verschoben.
  • In Schritt S426 in 9 wird beurteilt, ob die Variable s mit 35+1 übereinstimmt oder nicht. Mit anderen Worten, es wird beurteilt, ob die Verarbeitung der letzten Abtastlinie im zweidimensionalen Bild i beendet wurde oder nicht. Wenn die Werte miteinander übereinstimmen, wird die Steuerung an Schritt S427 übergeben. Wenn die Werte nicht miteinander übereinstimmen, springt die Steuerung zu Schritt S416.
  • In Schritt S427 in 9 wird 1 zur Variable i addiert. Mit anderen Worten, das zu verarbeitende zweidimensionale Bild wird zu einem angrenzenden zweidimensionalen Bild verschoben.
  • In Schritt S428 in 9 wird beurteilt, ob die Variable i mit 49+1 übereinstimmt oder nicht. Mit anderen Worten, es wird beurteilt, ob die Verarbeitung des letzten zweidimensionalen Bildes unter den in den Bilddatenspeicher 17 geschriebenen zweidimensionalen Bildern beendet wurde oder nicht. Wenn die werte miteinander übereinstimmen, wird die Steuerung an Schritt S429 übergeben. Wenn die Werte nicht miteinander übereinstimmen, springt die Steuerung zu Schritt S415.
  • Innerhalb der automatischen Gewinnungsroutine werden die Koordinaten von Punkten, die zum Festlegen der Oberfläche einer Körperhöhle, das heißt einer Grenze, erkannt werden, somit durch Verarbeiten aller Abtastlinien in allen zweidimensionalen Bildern in den Bilddatenspeicher 17 geschrieben.
  • Die automatische Gewinnungsroutine ist beim wesentlichen Aufheben einer falschen Gewinnung einer Oberfläche, die durch Rauschen oder dergleichen verursacht wird, wirksam.
  • In diesem Beispiel ist ein Grenzkorrekturmittel oder eine Grenzkorrektureinrichtung zum Korrigieren einer falsch gewonnenen Grenze, die durch die automatische Gewinnungsroutine nicht ausgeschlossen werden kann, enthalten und eine Anzeige/Korrektur-Routine zum Anzeigen einer korrekten Grenze ist enthalten.
  • Die Grenzkorrektureinrichtung korrigiert Punkte, die die Oberfläche eines Objekts festlegen. Punkte, die die Oberfläche eines Objekts festlegen, die falsch gewonnen wurden, können daher korrigiert werden. Die falsche Gewinnung von Rauschen oder dergleichen kann somit weiter verringert werden. Schließlich kann ein dreidimensionales Bild genau angezeigt werden.
  • Die Anzeige/Korrektur-Routine wird nachstehend beschrieben.
  • In Schritt S429 in 9 werden die Werte X(s, i) und Y(s, i) relativ zu allen Werten von ganzen Zahlen i und s in den Bereichen von 0 ≤ i ≤ 49 und 0 ≤ s ≤ 35 gelesen. Das heißt, die Koordinaten von Punkten, die zum Festlegen einer Grenze erkannt werden, werden aus dem Bilddatenspeicher 17 gelesen.
  • In Schritt S430 in 9 werden Punkte, deren Koordinaten den Koordinaten {(X(s, i), Y(s, i)} entsprechen, auf jedes zweidimensionale Bild überlagert, das relativ zur Schwelle verarbeitet wurde. Das heißt, ein Grenzüberlagerungsmittel oder eine Grenzüberlagerungseinrichtung ist zum Prüfen, ob die Oberflächenpunktgewinnung korrekt ausgeführt wurde, enthalten. Die Grenzüberlagerungseinrichtung überlagert die Koordinaten (X(s, i), Y(s, i)), die eine gewonnene Oberfläche festlegen, in Form von Punkten auf jedes zweidimensionale Bild.
  • In Schritt S431 in 9 werden die zweidimensionalen Bilder, auf die die eine Grenze festlegenden Punkte überlagert sind, auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern aufgelistet.
  • In Schritt S432 in 9 werden das zu korrigierende zweidimensionale Bild i0 und die zu korrigierende Abtastlinie s0 festgelegt.
  • In 10 wird ein Punkt auf der Abtastlinie s0 als Punkt M(X(s0, i0), Y(s0, i0)) festgelegt. Der Punkt ist ein aufgrund eines Rückstands in einer Körperhöhle oder von Rauschen falsch gewonnener Punkt, der einwärts von einem Punkt liegt, der bezüglich des Anfangspunkts O von Abtastlinien hätte gewonnen werden sollen. Zur Festlegung wird ein Punkt nahe der Abtastlinie auf dem Berührungsfeld 25 mit einem Finger berührt. In 10 existieren sowohl i als auch i0 gemeinsam, da das zu korrigierende Bild i0 als eines der allgemeinen Bilder i bezeichnet wird (in 10 entspricht das Bild i0 dem Bild i und die Abtastlinie s0 entspricht der Abtastlinie s+2).
  • In Schritt S433 in 9 werden die Koordinaten eines fernen Endpunkts eines Verlaufs, einschließlich des Punkts M(X(s0, i0), Y(s0, i0)) entlang der Abtastlinie s0 als Adresse des verarbeiteten Punkts festgelegt. In 10 ist der Punkt der Punkt N.
  • Die Schritte S434 bis S439 in 9 sind grundsätzlich zu den Schritten S417 bis S422 identisch. Auf die Beschreibung der Schritte wird daher verzichtet.
  • In Schritt S440 in 9 wird p(run-run0) der Variable X(s0, i0) der zweidimensionalen Matrix zugewiesen und q(run-run0) wird der Variable Y(s0, i0) der zweidimensionalen Matrix zugewiesen. Die Koordinaten eines Punkts, der am zweitnächsten zum Anfangspunkt von Abtastlinien, zweitens zum gewonnenen Punkt liegt, werden als X(s0, i0) und Y(s0, i0) gewonnen. In 10 ist der Punkt der Punkt M'(X(s0, i0), Y(s0, i0)).
  • In Schritt S441 in 9 werden die Werte X(s0, i0) und Y(s0, i0) an den Bilddatenspeicher 17 ausgegeben und auf gespeicherte Daten überschrieben. Mit anderen Worten, der Punkt M(X(s0, i0), Y(s0, i0)) in 10 wird zum Punkt M'(X(s0, i0), Y(s0, i0)) geändert und somit wird der aufgrund von Rauschen oder dergleichen falsch gewonnene Punkt M(X(s0, i0), Y(s0, i0)) korrigiert.
  • In Schritt S442 in 9 wird eine Meldung, die fragt, ob eine Korrektur noch erforderlich ist, an den Monitor 24 zur Verarbeitung von dreidimensionalen Bildern ausgegeben. Der Benutzer gibt am Bedienungsendgerät 21 eine Antwort. Wenn die Korrektur erforderlich ist, springt die Steuerung zu Schritt S432. Wenn die Korrektur nicht mehr erforderlich ist, wird die Steuerung an Schritt S5 in 2 übergeben.
  • Somit korrigiert die Anzeige/Korrektur-Routine Punkte, die aufgrund eines Rückstands in einer Körperhöhle oder von Rauschen falsch gewonnen wurden.
  • In Schritt S5 in 2 wird eine in Schritt S4 gewonnene Oberfläche schattiert.
  • Der Inhalt der Verarbeitung von Schritt S5 wird nachstehend beschrieben.
  • 11 ist ein Ablaufplan, der den Inhalt der Verarbeitung von Schritt S5 beschreibt. 12 ist ein Diagramm zum Erläutern der Verarbeitung der Schattierung.
  • In Schritt S511 in 11 werden Bilddaten modelliert. In diesem Beispiel werden eine Vielzahl von Vielecken hypothetisch unter Verwendung von Punkten gezeichnet, die in Schritt S4 zum Festlegen einer Grenze (Oberfläche einer Körperhöhle) gewonnen werden.
  • 12 zeigt zwei der Vielecke, das heißt zwei Dreiecke mit Scheitelpunkten Ms, Ms+1, M's und M's+1, das heißt ΔMSMS+1M's und ΔMs+1M'sM's+1. Der Anfangspunkt O von Abtastlinien und die Punkte Ms und Ms+1 sind Punkte im zweidimensionalen Bild i, während der Anfangspunkt O' von Abtastlinien und die Punkte M's und M's+1 Punkte im zweidimensionalen Bild i+1 sind. Die Abtastlinien mit den Punkten Ms bzw. M's und die Abtastlinien mit den Punkten Ms+1 bzw. M's+1 weisen dieselben Zahlen auf. Die Koordinaten der vier Punkte sind folgende: Ms: (X(s, i), Y(s, i)) Ms+1: (X(s+1, i), Y(s+1, i)) M's: (X(s, i+1), Y(s, i+1)) M's+1: (X(s+1, i+1), Y(s+1, i+1))
  • In Schritt S511 wird ein normaler Vektor von jedem Vieleck unter Verwendung der Koordinaten der Scheitelpunkte berechnet. In 12 sind die normalen Vektoren der Vielecke die Vektoren Vs und V's.
  • In Schritt S512 in 11 werden die Koordinaten der Scheitelpunkte von jedem Vieleck gemäß der Richtung einer Sichtlinie, die in Schritt S3 festgelegt wurde, transformiert. Zu diesem Zeitpunkt wird ein normaler Vektor von jedem Vieleck auch berechnet.
  • In Schritt S513 in 11 wird jedes Vieleck der Entfernung von verborgenen Linien unterzogen. Insbesondere werden hinter einem Vieleck verborgene Linien entfernt.
  • In Schritt S514 in 11 wird die Lichtrichtung festgelegt. Das heißt, ein Lichtwinkel-Festlegungsmittel oder eine Lichtwinkel-Festlegungseinrichtung zum Festlegen der Lichtrichtung ist enthalten (Licht festlegende Winkel).
  • In Schritt S514 werden aktuelle festgelegte Werte, die die Lichtrichtung festlegen, in den Teilbildschirmen zur Festlegung, die in 13 gezeigt sind, auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern angezeigt.
  • 14 ist ein Diagramm zum Erläutern der räumlichen Beziehung zwischen den Winkeln θ und ϕ, die in 13 gezeigt sind. Die in 14 gezeigte Anzeige wird auch im Teilbildschirm zur Festlegung auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern als Reaktion auf die Anzeige der Teilbildschirme zur Festlegung, die in 13 gezeigt sind, angezeigt. Die Festlegungsprozedur oder dergleichen ist zu jener für Schritt S3 identisch. Auf die Beschreibung der Prozedur wird daher verzichtet.
  • In diesem Beispiel legt das Lichtwinkel-Festlegungsmittel Winkel, die Licht festlegen, das zum Schattieren verwendet wird, als Winkel in einem Koordinatensystem mit der Achse eines Hohlraums in einem lebenden Körper oder der Achse einer eingeführten Ultraschallsonde als eine von dessen Koordinatenachsen fest. Das Anzeigemittel zeigt die Licht festlegenden Winkel in dem Koordinatensystem mit der Achse eines Hohlraums in einem lebenden Körper oder der Achse einer eingeführten Ultraschallsonde als eine von dessen Koordinatenachsen an. Somit kann die Oberfläche eines gewünschten Objekts stereoskopisch dargestellt werden und die Licht festlegenden Winkel können für ein intuitiv und anatomisch besseres Verständnis festgelegt werden.
  • In Schritt S515 in 11 wird auf der Basis des Abstands von jedem Vieleck von einem Beobachtungspunkt oder von Winkeln zwischen dem normalen Vektor des Vielecks und der in Schritt S514 festgelegten Lichtrichtung ein Algorithmus, der die Schattierung wie z.B. flache Schattierung, Leuchtschattierung, Tonschattierung oder Tiefenschattierung beschreibt, verwendet, um die Helligkeitspegel von Punkten innerhalb jedes Vielecks festzulegen.
  • Somit wird eine Oberfläche schattiert.
  • In Schritt S6 in 2 werden Nicht-Anzeige-Teile von Scheiben, deren Positionen in Schritt S2 festgelegt werden, ausgeschnitten. In 15 entsprechen schraffierte Bereiche Nicht-Anzeige-Teilen von vier Scheiben, die zum Konstruieren eines in 16 gezeigten dreidimensionalen Bildes verwendet werden sollen. Die Daten der Teile werden gelöscht.
  • In Schritt S7 in 2 werden die restlichen Anzeigeteile der vier Scheiben, die zum Konstruieren eines dreidimensionalen Bildes verwendet werden sollen, das heißt Teile, die infolge von Schritt S6 intakt bleiben, einer Koordinatentransformation unterzogen.
  • In Schritt S8 in 2 wird eine Synthese ausgeführt. Insbesondere wird eine Oberfläche, deren festlegende Punkte in Schritt S4 gewonnen werden und die in Schritt S5 schattiert wird, mit Scheiben synthetisiert, deren Nicht-Anzeige-Teile ausgeschnitten werden und die einer Koordinatentransformation unterzogen wurden, wodurch das in 16 gezeigte dreidimensionale Bild konstruiert wird. In 16 ist die Oberfläche mit E bezeichnet.
  • In Schritt S9 in 2 wird eine grüne Linie auf das dreidimensionale Bild als Grenzlinie zwischen den Scheiben und der Oberfläche überlagert.
  • Das heißt, in diesem Beispiel ist ein Scheiben-Oberflächen-Grenzüberlagerungsmittel zum Überlagern einer Grenzlinie zwischen Scheiben und einer Oberfläche auf ein dreidimensionales Bild enthalten. Das Scheiben-Oberflächen- Grenzüberlagerungsmittel überlagert eine Grenzlinie zwischen Daten von Scheiben und Daten einer Oberfläche als Scheiben-Oberflächen-Grenzlinie auf ein dreidimensionales Bild. Das Anzeigemittel zeigt das dreidimensionale Bild an, auf das die Scheiben-Oberflächen-Grenzlinie überlagert ist. Somit kann die Oberfläche leicht unterschieden werden.
  • In Schritt S10 in 2 wird ein in 8 gezeigtes konstruiertes dreidimensionales Bild auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern angezeigt.
  • Wie vorstehend erwähnt, funktionieren die CPU 13 und der Bildprozessor 18 als Oberflächenpunkt-Gewinnungsmittel, Schattierungsmittel, Synthesemittel, Verlaufsgewinnungsmittel, Grenzüberlagerungsmittel, Tomographiebild-Konstruktionsmittel, Koordinatentransformationsmittel und Scheiben-Oberflächen-Grenzüberlagerungsmittel. In 1 ist der Bildprozessor 18 allein der Bequemlichkeit halber als alle diese Einrichtungen enthaltend dargestellt.
  • Das Berührungsfeld 25 funktioniert als Scheibenpunkt-Festlegungsmittel, Grenzkorrekturmittel, Festlegungsmittel für korrigierte Abtastlinien, Scheibenschnittlinien-Bewegungsmittel, Tomographiebild-Drehmittel, Maskierungsmittel, Lichtwinkel-Festlegungsmittel und Sichtlinienwinkel-Festlegungsmittel.
  • Die Maskenschalttaste 21a funktioniert als Anzeigeform-Festlegungsmittel.
  • Der Bilddatenspeicher 17 funktioniert als Speichermittel für dreidimensionale Echodaten.
  • Der Monitor 24 zur Verarbeitung von dreidimensionalen Bildern funktioniert als Anzeigemittel.
  • Dieses Beispiel weist die nachstehend dargelegten Vorteile auf.
  • In diesem Beispiel tastet das Verlaufsgewinnungsmittel Daten entlang jeder Abtastlinie in Richtung eines fernen Punkts ab und gewinnt einen Punkt, der am nächsten zu einem Anfangspunkt von Abtastlinien liegt, aus jedem Verlauf von aufeinanderfolgenden Punkten, an denen Leuchtdichtewerte eine bestimmte Schwelle überschreiten, mit einer Länge, die größer ist als eine gegebene Länge. Ein Verlauf von Punkten, dessen Länge gleich der oder kleiner als die gegebene Länge ist, kann als Rauschen beseitigt werden. Die Oberfläche eines gewünschten Objekts kann ohne irgendeine Störung von Rauschen oder dergleichen genau ausgedrückt werden.
  • In diesem Beispiel wird in Schritt S413 eine Länge eingegeben, so dass ein Verlauf von Punkten, dessen Länge gleich der oder kleiner als die Länge ist, als Rauschen erkannt werden kann. Verschiedene Arten von Rauschbeseitigung können daher ausgeführt werden.
  • Wenn ein Punkt aufgrund von Rauschen oder dergleichen falsch gewonnen werden sollte, kann eine gewonnene Grenze durch die Grenzkorrektureinrichtung korrigiert werden. Die Oberfläche eines Objekts kann daher mit wenig Einfluss von Rauschen oder dergleichen gewonnen werden.
  • Da in diesem Beispiel auf das in 10 gezeigte Bild Bezug genommen werden kann, kann eine Grenze korrigiert werden, während geprüft wird, ob die Korrektur korrekt durchgeführt wird oder nicht.
  • Insbesondere werden gewonnene Punkte, die die Oberfläche eines Objekts festlegen, als Grenze auf alle einer Vielzahl von aufeinanderfolgenden Tomographiebildern oder auf ein festgelegtes Tomographiebild durch die Grenzüberlagerungseinrichtung überlagert. Resultierende Bilder werden dann durch das Anzeigemittel angezeigt. Es kann daher geprüft werden, ob die Oberfläche eines Objekts korrekt gewonnen wird.
  • Wenn in diesem Beispiel die Taste 21b zur Konstruktion eines einfachen dreidimensionalen Bildes gedrückt wird, wird ein einfaches dreidimensionales Bild, das keine Oberflächenpunktgewinnung erfahren hat, zur Information des Benutzers angezeigt, wie in 5 gezeigt. Die Bilddaten eines fertiggestellten dreidimensionalen Bildes können leicht dargestellt werden.
  • Überdies bewegt das Scheibenschnittlinien-Bewegungsmittel eine Scheibenschnittlinie, die die Position einer Scheibe in einem festgelegten Tomographiebild unter einer Vielzahl von Tomographiebildern, die unterschiedlich orientierte Scheiben darstellen, welche durch das Tomographiebild-Konstruktionsmittel konstruiert werden, anzeigt. Das Tomographiebild-Drehmittel dreht ein Tomographiebild. Die anderen Tomographiebilder als das festgelegte Tomographiebild werden dann entsprechend modifiziert. An welcher Position auch immer in einem Tomographiebild sich eine Läsion befindet, eine Scheibe kann so festgelegt werden, dass die Scheibe die Läsion enthält. Die Tiefe der Läsion kann abgeschätzt werden.
  • Überdies konstruiert das Tomographiebild-Konstruktionsmittel eine Vielzahl von Tomographiebildern, die unterschiedlich orientierte Scheiben darstellen, die unter Verwendung von Daten erzeugt werden, die von Echos geliefert werden, die von einem dreidimensionalen Bereich ausgehen. Das Scheibenschnittlinien-Bewegungsmittel bewegt eine Scheibenschnittlinie, die die Position einer Scheibe in der Vielzahl von konstruierten Tomographiebildern anzeigt. Das Maskierungsmittel kann Echodaten, die zum Konstruieren eines dreidimensionalen Bildes verwendet werden, und die anderen Echodaten in verschiedenen Formen anzeigen. Folglich können Teile von Tomographiebildern, die zum Konstruieren eines dreidimensionalen Bildes verwendet werden, und die anderen Teile voneinander unterschieden werden und die Beziehung der Übereinstimmung zwischen den Teilen kann leicht erfasst werden.
  • Überdies ist ein Anzeigeform-Festlegungsmittel zum Festlegen von einer von zwei Arten von Anzeigeformen enthalten; eine Anzeigeform zum Anzeigen von normalen Tomographiebildern und eine Anzeigeform zum Anzeigen von Echodaten, die zum Konstruieren eines dreidimensionalen Bildes verwendet werden, und der anderen Echodaten in verschiedenen Formen für eine effiziente Festlegung von Scheiben. Wenn eine Maske stört, wird die Maske entfernt und ein beliebiges von einer Vielzahl von Tomographiebildern, die Scheiben darstellen, kann zur gewöhnlichen Diagnose verwendet werden.
  • In diesem Ausführungsbeispiel legt das Lichtwinkel-Festlegungsmittel Winkel, die Licht festlegen, das zum Schattieren verwendet wird, als Winkel in einem Koordinatensystem mit der Achse eines Hohlraums in einem lebenden Körper oder der Achse einer eingeführten Ultraschallsonde als eine seiner Koordinatenachsen fest. Das Anzeigemittel zeigt die Licht festlegenden Winkel im Koordinatensystem mit der Achse eines Hohlraums in einem lebenden Körper oder der Achse einer eingeführten Ultraschallsonde als eine seiner Koordinatenachsen an. Folglich kann die Oberfläche eines gewünschten Objekts stereoskopisch ausgedrückt werden und die Licht festlegenden Winkel können für ein intuitiv und anatomisch besseres Verständnis festgelegt werden.
  • In diesem Beispiel zeigt das Anzeigemittel Licht festlegende Winkel stereoskopisch an. Die Licht festlegenden Winkel können daher wahrnehmbar leicht erfasst werden.
  • In diesem Beispiel transformiert das Koordinatentransformationsmittel die Koordinaten von Daten von Scheiben und Daten einer Oberfläche. Das Sichtlinienwinkel-Festlegungsmittel legt Winkel, die eine Sichtlinie oder die Richtung der Sichtlinie festlegen, in der ein dreidimensionales Bild angezeigt wird, als Winkel in einem Koordinatensystem mit der Achse eines Hohlraums in einem lebenden Körper oder der Achse einer eingeführten Ultraschallsonde als eine seiner Koordinatenachsen fest. Das Anzeigemittel zeigt die Winkel, die die Sichtlinie festlegen, in dem Koordinatensystem mit der Achse eines Hohlraums in einem lebenden Körper oder der Achse einer eingeführten Ultraschallsonde als eine seiner Koordinatenachsen an. Folglich können die Winkel, die eine Sichtlinie festlegen, in der ein dreidimensionales Bild betrachtet wird, für ein intuitiv und anatomisch besseres Verständnis festgelegt werden.
  • In diesem Beispiel überlagert das Scheiben-Oberflächen-Grenzüberlagerungsmittel eine Grenzlinie zwischen Daten von Scheiben und Daten einer Oberfläche als Scheiben-Oberflächen-Grenzlinie in einem dreidimensionalen Bild. Das Anzeigemittel zeigt das dreidimensionale Bild an, auf das die Scheiben-Oberflächen-Grenzlinie überlagert ist. Die Daten der Oberfläche können daher leicht von den anderen Daten unterschieden werden.
  • In diesem Beispiel wird das Berührungsfeld 25 verwendet. Abgesehen vom Berührungsfeld 25 kann ein Cursor in einem Bildschirm angezeigt werden und eine Zeigevorrichtung wie z.B. eine Maus, ein Lichtstift oder eine Rollkugel kann verwendet werden.
  • Die Verarbeitung relativ zu einer Schwelle, die in diesem Beispiel verwendet wird, umfasst eine Binärcodierung. Dies ist der Tatsache zuzuschreiben, dass der Leuchtdichtewert an einem Punkt, der gleich der oder kleiner als eine Schwelle ist, gegen eine 0 ausgetauscht wird.
  • In diesem Beispiel wird die Festlegung der Richtung einer Sichtlinie oder der Richtung von Licht an den in 7 oder 13 gezeigten Anzeigen unter Verwendung des Berührungsfeldes 25 durchgeführt. Alternativ können die in 8 oder 14 gezeigten Anzeigen verwendet werden.
  • In diesem Beispiel geht die Scheibenpositionsfestlegung von Schritt S2 der Oberflächenpunktgewinnung von Schritt S4 voran. Die Reihenfolge kann umgekehrt werden.
  • Wenn in diesem Beispiel die Maskenschalttaste 21a gedrückt wird, erscheint die in 6 gezeigte Anzeige. Alternativ kann das Drücken der Maskenschalttaste 21a bewirken, dass die in 15 gezeigte Anzeige erscheint.
  • In diesem Beispiel führt die Ultraschallsonde 4 eine Spiralabtastung aus. Die vorliegende Erfindung ist jedoch nicht auf die in diesem Beispiel verwendete Abtastung begrenzt, sondern kann für eine Kombination von Sektorabtastung und linearer Abtastung oder dergleichen gelten.
  • In diesem Beispiel werden Punkte, die eine Grenze festlegen, in Schritt S430 überlagert. Punkte auf angrenzenden Abtastlinien, die eine Grenze festlegen, können nacheinander verbunden werden, um eine Grenzlinie zu bilden. Ferner kann das Innere einer Grenzlinie in Rot oder irgendeiner anderen Farbe, die von der Farbe eines zu überlagernden Ultraschall-Tomographiebildes verschieden ist, gefärbt werden und die Grenzlinie kann als Seiten eines gefärbten Bereichs ausgedrückt werden.
  • In diesem Beispiel werden zweidimensionale Bilder, auf die Punkte, die eine Grenze festlegen, überlagert sind, in Schritt S431 aufgelistet. Alternativ können angrenzende zweidimensionale Bilder nacheinander angezeigt werden.
  • Als nächstes wird das zweite Beispiel beschrieben. Die Anordnung des zweiten Beispiels ist zu jener des ersten Beispiels identisch. Die von der CPU 13 und vom Bildprozessor 18 ausgeführte Verarbeitung ist jedoch anders. Nur der Unterschied wird beschrieben. 17 zeigt Ultraschallbilder von vier Scheiben im zweiten Beispiel.
  • Die Operationen der CPU 13 und des Bildprozessors 18 werden mit Bezug auf 17 beschrieben.
  • In diesem Beispiel werden eine Vielzahl von Scheiben, die in 17 gezeigt sind, auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern angezeigt, anstatt nach der Oberflächenpunktgewinnung im ersten Beispiel aufgelistet zu werden (Schritt S431 in 9). In diesem Bildschirm wird eine gewonnene Grenze als Grenzlinie auf die Scheiben überlagert. In 17 ist eine aufgrund von Rauschen falsch gewonnene Grenze in der Scheibe C zu sehen.
  • In diesem Bildschirm werden ähnlich zum ersten Beispiel, das in Verbindung mit 4 beschrieben wurde, andere Scheiben als Reaktion auf die Bewegung oder Drehung einer Scheibenschnittlinie +, x, Δ oder, die in einer festgelegten Scheibe festgelegt ist, modifiziert. Wie in 17 gezeigt, wird, wenn eine aufgrund von Rauschen oder dergleichen falsch gewonnene Grenze gefunden wird, die Grenze korrigiert, wie in Verbindung mit 9 beschrieben. Die Funktionsweise dieses Beispiels ist in den anderen Aspekten identisch zu jener des ersten Beispiels.
  • Im übrigen funktionieren die CPU 13 und der Bildprozessor 18 als Tomographiebild-Konstruktionsmittel und Grenzüberlagerungsmittel.
  • Dieses Beispiel weist die nachstehend dargelegten Vorteile auf.
  • In diesem Beispiel werden eine Vielzahl von Scheiben, die in 17 gezeigt sind, auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern angezeigt. Eine gewonnene Grenze wird als Grenzlinie auf die Scheiben überlagert. Es kann daher sofort beurteilt werden, ob die Oberflächenpunktgewinnung korrekt über eine Vielzahl von aufeinanderfolgenden zweidimensionalen Bildern ausgeführt wurde oder nicht.
  • Gewonnene Punkte, die die Oberfläche eines Objekts festlegen, werden somit als Grenze auf eine Vielzahl von Tomographiebildern überlagert, die unterschiedlich orientierte Scheiben zeigen. Ein Teil der falsch gewonnenen Grenze kann sofort erkannt werden.
  • Überdies kann durch Ändern von Scheiben nach falsch gewonnenen Punkten gesucht werden.
  • Als nächstes wird das dritte Beispiel beschrieben.
  • Die Anordnung dieses Beispiels ist zu jener des ersten Beispiels identisch. Die von der CPU 13 und vom Bildprozessor 18 durchgeführte Verarbeitung ist jedoch anders. Nur der Unterschied wird beschrieben.
  • Die Operationen der CPU 13 und des Bildprozessors 18 werden mit Bezug auf 18 bis 20 beschrieben.
  • Dieses Beispiel ist vom ersten Beispiel in der Verarbeitung der Festlegung eines Anfangspunkts von Abtastlinien, die in
  • 9 gezeigt ist, verschieden. In den anderen Aspekten ist dieses Beispiel zum ersten Beispiel identisch. In diesem Beispiel wird die in 18 beschriebene Verarbeitung der Schritte S1811 und S1812 zwischen den Schritten S414 und S415 in 9 hinzugefügt. Die andere Verarbeitung ist zu der Verarbeitung, die im in 9 beschriebenen ersten Beispiel ausgeführt wird, identisch.
  • In Schritt S1811 in 18 wird ein mit der Variable i festgelegtes Bild auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern angezeigt. Das Bild i ist in 19 gezeigt.
  • In Schritt S1812 in 18 wird ein Anfangspunkt von Abtastlinien festgelegt, während auf das auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern angezeigte Bild i Bezug genommen wird. In 19 ist der Anfangspunkt von Abtastlinien der Punkt O. Für die Festlegung wird die Position des Anfangspunkts O von Abtastlinien auf dem Berührungsfeld 25 mit einem Finger berührt.
  • Der Anfangspunkt O von Abtastlinien wird somit festgelegt. Das Berührungsfeld 25 funktioniert als Abtastlinien-Anfangspunkt-Festlegungsmittel. In den anderen Aspekten ist das dritte Beispiel zum ersten Beispiel identisch.
  • Dieses Beispiel weist die nachstehend dargelegten Vorteile auf.
  • Wenn der Anfangspunkt von Abtastlinien beispielsweise auf den Punkt Od in 9 vorgegeben wird, umfasst eine zu gewinnende Grenze einen toten Bereich. Der tote Bereich ist als schraffierter Bereich in 19 dargestellt.
  • In diesem Beispiel wird in Schritt S1812 der Anfangspunkt O von Abtastlinien festgelegt, während auf die auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern angezeigten Bilder Bezug genommen wird. Im Gegensatz zum ersten Ausführungsbeispiel kann der Anfangspunkt O von Abtastlinien in einer Position festgelegt werden, in der ein solcher toter Bereich kaum erzeugt wird.
  • Die anderen Vorteile sind zu jenen des ersten Beispiels identisch.
  • Im übrigen kann die Anordnung einer Variante dieses Beispiels, die nachstehend beschrieben werden soll, übernommen werden.
  • In dieser Variante strahlt die Ultraschallsonde 4 Ultraschallwellen von der Außenseite eines zu untersuchenden Objekts aus. Der nicht dargestellte Ultraschallwandler in der Ultraschallsonde 4 wird linear bewegt, während eine Sektorabtastung durchgeführt wird. Mit anderen Worten, die Ultraschallsonde 4 führt eine Sektor- und Linearabtastung in vitro aus, das heißt eine Kombination aus Sektorabtastung und Linearabtastung. Eine Vielzahl von aufeinanderfolgenden zweidimensionalen Bildern werden daher als dreidimensionale Echodaten in den Bilddatenspeicher 17 geschrieben. Die Vielzahl von zweidimensionalen Bildern sind in 20 gezeigt. In 20 sind die Bilder als Bild 1, Bild 2 usw. in der Reihenfolge, in der sie erfasst werden, nummeriert.
  • Ein Bereich in 20, der mit kleinen Punkten gezeichnet ist, gibt einen Bereich mit niedriger Leuchtdichte an, wie z.B. einen Tumorbereich. Ein umgebender schraffierter Bereich gibt einen Bereich mit hoher Leuchtdichte an, wie z.B. das Leberorgangewebe.
  • Bei dieser Variante wird in Schritt S1812 in 18 der Anfangspunkt O von Abtastlinien mit Bezug auf die auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern angezeigten Bilder festgelegt. In 20 ist der Anfangspunkt der Punkt O. Für die Festlegung wird der Punkt O auf dem Berührungsfeld 25 mit einem Finger berührt.
  • Die anderen Komponenten und die Funktionsweise und die Vorteile sind zu jenen des in Verbindung mit 18 und 19 beschriebenen dritten Beispiels identisch.
  • Wenn das Oberflächengewinnungsmittel oder -verfahren, das in diesem Beispiel verwendet wird, aufgegriffen wird, kann, wie vorstehend erwähnt, selbst wenn ein Abtastverfahren von Spiralabtastung zu Sektor- und Linearabtastung oder umgekehrt geändert wird, eine Oberfläche genau gewonnen werden.
  • Als nächstes wird das Ausführungsbeispiel der vorliegenden Erfindung mit Bezug auf 21 beschrieben. 21 ist ein Ablaufplan, der den Inhalt der Verarbeitung der Schattierung in diesem Ausführungsbeispiel beschreibt. Der Ablaufplan umfasst einen Schritt der Eingabe einer Anzeigefarbe für ein Vieleck am Bedienungsendgerät 21.
  • Die Anordnung des Ausführungsbeispiels ist zu jener des ersten Beispiels identisch. Ein Teil der von der CPU 13 und vom Bildprozessor 18 durchgeführten Verarbeitung ist jedoch anders. Nur der Unterschied wird beschrieben.
  • Die Operationen der CPU 13 und des Bildprozessors 18 werden mit Bezug auf 21 beschrieben.
  • Die Schritte S2111 bis S2114 in 21 sind zu den Schritten S511 bis S514 in 11 bezüglich des ersten Beispiels identisch.
  • In Schritt S2115 in 21 wird eine Anzeigefarbe zum Anzeigen eines Vielecks am Bedienungsendgerät 21 eingegeben.
  • In Schritt S2116 in 21 wird die Helligkeit jedes Punkts in jedem Vieleck für einen in Schritt S2115 eingegebenen Farbton gemäß demselben Algorithmus wie demjenigen, der für die Verarbeitung von Schritt S515 in 11 verwendet wird, festgelegt.
  • Mit dem in Schritt S2115 eingegebenen Farbton wird eine Oberfläche schattiert. Somit wird eine Schattierung ausgeführt.
  • Wie vorstehend erwähnt, funktioniert das Bedienungsendgerät 21 als Anzeigefarbe-Festlegungsmittel.
  • Dieses Ausführungsbeispiel weist die nachstehend beschriebenen Vorteile auf.
  • In diesem Ausführungsbeispiel wird in Schritt S2115 eine Anzeigefarbe zum Anzeigen eines Vielecks eingegeben, um einen Farbton für das Vieleck festzulegen. Eine Oberfläche E in 16 wird in der Anzeigefarbe angezeigt und kann von dem in Graustufe angezeigten anderen Teil unterschieden werden. Eine Bedienperson kann leicht beurteilen, ob jeder Teil eines dreidimensionalen Bildes die Darstellung von Bilddaten, die Graustufenpegel widerspiegeln, die von Echos geliefert werden, die von einem lebenden Körper ausgehen, oder die Darstellung von Bilddaten, die unter Verwendung einer stereoskopischen Information wie z.B. Kontur schattiert werden, ist.
  • Wenn der reale Farbton der Oberfläche eines Organs, der in einem optischen Bild sichtbar ist, das durch ein Endoskop oder dergleichen erzeugt wird, als Anzeigefarbe festgelegt wird, kann ein dreidimensionales Bild realistischer angezeigt werden.
  • Die anderen Vorteile sind identisch zu jenen des ersten Beispiels.
  • In diesem Ausführungsbeispiel wird in Schritt S2115 eine Anzeigefarbe am Bedienungsendgerät 21 eingegeben. Ein optisches Bild wie z.B. ein Endoskopbild kann in einer Speichervorrichtung wie z.B. der ersten externen Speichervorrichtung 19 konserviert werden und ein typischer Farbton des optischen Bildes kann kopiert werden. Das zu konservierende optische Bild kann sowohl für die Speiseröhre, den oberen Magen als auch den Zwölffingerdarm abgespeichert werden. Die Farben dieser Organe können auch als Anzeigefarben verwendet werden.
  • Als nächstes wird das vierte Beispiel mit Bezug auf 22 bis 24 beschrieben.
  • Die Anordnung dieses Beispiels ist zu jener des ersten Beispiels identisch. Die von der CPU 13 und vom Bildprozessor 18 durchgeführte Verarbeitung ist jedoch anders. Nur der Unterschied wird beschrieben.
  • Die Operationen der CPU 13 und des Bildprozessors 18 werden mit Bezug auf 22 bis 24 beschrieben.
  • In diesem Beispiel ist die in 9 beschriebene Oberflächenpunktgewinnung der einzigste Unterschied zu jener im ersten Beispiel. Die anderen Aspekte dieses Beispiels sind zu jenen im ersten Beispiel identisch.
  • In Schritt S2211 in 22 wird das erste Bild von 50 aufeinanderfolgenden zweidimensionalen Bildern, die im Bilddatenspeicher 17 gespeichert sind, im Monitor 24 zur Verarbeitung von dreidimensionalen Bildern angezeigt. Das Bild ist in 23 gezeigt.
  • In Schritt S2212 in 22 wird das erste Bild nachgezogen. Insbesondere wird die Grenze eines zweidimensionalen Bildes, das auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern angezeigt wird, das heißt die Oberfläche eines Organs, manuell nachgezogen. Das Nachziehen wird auf dem Berührungsfeld 25 ausgeführt.
  • In Schritt S2213 in 22 werden erste Gradienten an nachgezogenen Punkten berechnet. Insbesondere werden Gradienten (erste Gradienten) im Leuchtdichtewert an den Punkten Z2, Z3 usw. und Zi, die Punkte in gleichen Winkeln auf einer nachgezogenen Bahn sind, die mit dem Punkt Z1 beginnt und mit einem gleichen Winkel α mit einem bestimmten Punkt O in einem in 23 gezeigten Bild als Zentrum festgelegt ist, berechnet.
  • Die ersten Gradienten sind Gradienten in der Leuchtdichte entlang gerader Linien OZi (i = 1, 2, 3, usw.). Zum Berechnen der Gradienten wird ein Abstand konstant gemacht. 24A gibt Leuchtdichtewerte an, die entlang der geraden Linie OZi im ersten Bild erfasst werden. Der "konstante Abstand" wird mit Δx bezeichnet und eine Differenz im Leuchtdichtewert wird mit ΔI bezeichnet. Folglich wird ein Gradient folgendermaßen ausgedrückt: Gradient = ΔI/Δx
  • In Schritt S2214 in 22 werden Gradienten (zweite Gradienten), die im zweiten Bild in denselben Richtungen wie den Richtungen der geraden Linien OZi erfasst werden, die im ersten Bild festgelegt wurden, berechnet. Ein zweiter Gradient wird an jedem von Punkten innerhalb eines festgelegten Bereichs der geraden Linie OZi relativ zum Punkt Zi' im zweiten Bild, welcher dem Punkt Zi entspricht, berechnet (siehe 24B). In 24B wird der festgelegte Bereich mit &x bezeichnet. Mit anderen Worten, ein zweiter Gradient wird an jedem von Punkten innerhalb des Bereichs δx in der Richtung der geraden Linie OZi und Punkten innerhalb des Bereichs δx in der entgegengesetzten Richtung mit dem Punkt Zi' entsprechend dem Punkt Zi als Zentrum berechnet.
  • Die Verarbeitung wird für alle Punkte innerhalb der Bereiche relativ zu allen Punkten Zi wiederholt.
  • In Schritt S2215 in 22 werden die an den Punkten berechneten zweiten Gradienten mit den an den Punkten Zi berechneten ersten Gradienten verglichen. Ein Punkt auf der geraden Linie OZi' mit einem Gradienten, der am nächsten zum ersten Gradienten liegt, wird festgelegt. 24B zeigt den so festgelegten Punkt Zi''. Somit wird eine Grenze des zweiten Bildes festgelegt.
  • Infolge der vorangehenden Verarbeitung kann, selbst wenn ein Bild Rauschen enthält, wie in 23 und 24A gezeigt, das Rauschen in einem gewissen Ausmaß unter Verwendung des Bereichs δx beseitigt werden. Wenn Rauschen innerhalb des Bereichs δx liegen sollte, ist es ziemlich selten, dass ein Gradient an irgendeinem Punkt dem ersten Gradienten nahe kommt. In jedem Fall können daher Punkte mit Gradienten, die am nächsten zu den ersten Gradienten liegen, als Punkte, die eine Grenze im zweiten Bild festlegen, festgelegt werden.
  • In Schritt S2216 in 22 wird die Steuerung in Abhängigkeit davon, ob die Verarbeitung aller zweidimensionalen Bilder beendet ist oder nicht, verzweigt. Wenn die Verarbeitung nicht beendet ist, springt die Steuerung zu Schritt S2214. Wenn die Verarbeitung beendet ist, wird die Oberflächenpunktgewinnung beendet. Nachdem die Steuerung zu Schritt S2214 gesprungen ist, werden die im zweiten Bild erfassten Gradienten als erste Gradienten betrachtet und die im dritten Bild erfassten Gradienten werden als zweite Gradienten betrachtet. Die vorangehende Verarbeitung wird dann wiederholt. Dasselbe gilt für die anschließenden Bilder.
  • Somit werden Punkte, die eine Oberfläche festlegen, gewonnen.
  • Wie vorher erwähnt, funktionieren die CPU 13 und der Bildprozessor 18 als Mittel zum Berechnen erster Gradienten, Mittel zum Berechnen zweiter Gradienten und als Oberflächenpunkt-Festlegungsmittel.
  • Das Berührungsfeld 25 funktioniert als Oberflächenpunkt-Festlegungsmittel.
  • Dieses Beispiel weist die nachstehend beschriebenen Vorteile auf.
  • In diesem Beispiel wird in Schritt S2214 ein zweiter Gradient an Punkten innerhalb eines festgelegten Bereichs relativ zu einem Punkt, an dem ein erster Gradient berechnet wird, berechnet. In Schritt S2215 werden die zweiten Gradienten mit den ersten Gradienten verglichen, um Punkte zu gewinnen, die eine Oberfläche festlegen. Ein im Rauschen außerhalb des Bereichs enthaltener Punkt wird daher nicht falsch als einer der eine Oberfläche festlegenden Punkte gewonnen. Das Rauschen ist in 23 und 24 gezeigt.
  • Die anderen Vorteile sind zu jenen des ersten Beispiels identisch.
  • Als nächstes wird das fünfte Beispiel mit Bezug auf 25 bis 30 beschrieben.
  • Die Anordnung dieses Beispiels ist zu jener des ersten Beispiels identisch. Die von der CPU 13 und vom Bildprozessor 18 durchgeführte Verarbeitung ist jedoch anders. Die Oberflächenpunktgewinnung von Schritt S4 in 2 hinsichtlich des ersten Beispiels ist von jener in diesem Beispiel verschieden. Die Verarbeitung wird beschrieben.
  • Die von der CPU 13 und vom Bildprozessor 18 durchgeführte Bildverarbeitung wird mit Bezug auf 25 bis 30 beschrieben.
  • Die Schritte S2511 bis S2531 in 25 bilden eine automatische Gewinnungsroutine zum automatischen Gewinnen von Punkten, die eine Oberfläche festlegen, und die Schritte S2532 bis S2539 bilden eine Anzeige/Korrektur-Routine zum Anzeigen und Korrigieren einer automatisch gewonnenen Grenze.
  • Ferner bilden die Schritte S2511 bis S2525 innerhalb der automatischen Gewinnungsroutine eine Nachzieh-Anfangspunkt-Gewinnungsroutine zum Gewinnen eines Nachzieh-Anfangspunkts und die Schritte S2526 bis S2531 bilden eine Nachziehroutine zum automatischen Gewinnen von Punkten, die eine Oberfläche festlegen, durch Nachziehen.
  • Die Nachzieh-Anfangspunkt-Gewinnungsroutine innerhalb der automatischen Gewinnungsroutine wird nachstehend beschrieben.
  • In Schritt S2511 in 25 werden Bilddaten geglättet. Die Einheit zum Glätten kann so verändert werden, dass sie hinsichtlich der Ultraschallauflösung, die während der durch die Ultraschallsonde 4 durchgeführten Abtastung erzielbar ist, optimal ist.
  • In Schritt S2512 in 25 werden Bilddaten binär codiert. Die Leuchtdichtewerte an Punkten, die gleich einer oder kleiner als eine bestimmte Schwelle sind, werden gegen 0 ausgetauscht, während die Leuchtdichtewerte an Punkten, die größer sind als die Schwelle, gegen 1 ausgetauscht werden.
  • In Schritt S2513 in 25 wird eine Länge, die zum Erkennen eines Verlaufs von Punkten, an welchen Datenwerte größer sind als die Schwelle, mit einer Länge, die größer ist als die Länge, als Rauschen verwendet wird, der Variable run0 zugewiesen. Die Eingabe der Länge wird am Bedienungsendgerät 21 ausgeführt.
  • In Schritt S2514 in 25 wird 0 der Variable i zugewiesen. Die Variable i gibt die Nummer eines zweidimensionalen Bildes an, das derzeit unter einer Vielzahl von aufeinanderfolgenden zweidimensionalen Bildern zu verarbeiten ist, die als Bilddaten in den Bilddatenspeicher 17 geschrieben sind. In diesem Beispiel wird unter der Annahme, dass 50 zweidimensionale Bilder verarbeitet werden sollen, die folgende Beziehung festgelegt: 0 ≤ i ≤ 49
  • In Schritt S2515 in 25 wird 0 der Variable s zugewiesen. Die Variable s ist eine Variable, die zum Nummerieren von Punkten verwendet wird, die eine Grenze festlegen, die durch Durchführen von Nachziehen gewonnen wird, was später beschrieben wird.
  • In Schritt S2516 in 25 wird ein Punkt G in einem Bildschirm festgelegt. Der Punkt G soll als Anfangspunkt von Abtastlinien bezeichnet werden und ist in 26 gezeigt. Insbesondere berührt ein Benutzer einen Punkt in einem Bildschirm auf dem Berührungsfeld 25 mit seinem Finger, um den Punkt G festzulegen.
  • In Schritt S2517 in 25 wird ein weiterer Punkt G' im Bildschirm festgelegt. Insbesondere berührt der Benutzer einen Punkt im Bildschirm auf dem Berührungsfeld 25. Zu diesem Zeitpunkt erscheint das Segment GG', wie in 26 gezeigt, in einem zweidimensionalen Bild, das auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern angezeigt wird, als Reaktion auf die Bewegung des Fingers des Benutzers. Das Segment GG' soll als Abtastlinie bezeichnet werden.
  • In Schritt S2518 in 25 werden die Koordinaten des Punkts G als Adresse des verarbeiteten Punkts festgelegt. Die Adresse des verarbeiteten Punkts besteht aus der Adresse x und der Adresse y, die den x- und y-Koordinaten eines derzeit verarbeiteten Punkts entsprechen.
  • In Schritt S2519 in 25 wird 0 der Variable run zugewiesen. Die Variable run wird verwendet, um die Länge eines Verlaufs zu messen.
  • In Schritt S2520 in 25 wird die Adresse des verarbeiteten Punkts zum nächsten Punkt auf der Abtastlinie GG' verschoben.
  • In Schritt S2521 in 25 wird beurteilt, ob der Leuchtdichtewert an dem mit der Adresse des verarbeiteten Punkts angegebenen Punkt größer oder kleiner ist als die Schwelle, die zur in Schritt S2512 durchgeführten Binärcodierung verwendet wird. Wenn der Leuchtdichtewert größer ist, springt die Steuerung zu Schritt S2522. Wenn der Leuchtdichtewert kleiner ist, springt die Steuerung zu Schritt S2519.
  • In Schritt S2522 in 25 wird die Adresse x der Adresse des verarbeiteten Punkts der run-ten variable p(run) von variablen p einer eindimensionalen Matrix zugewiesen und die Adresse y davon wird der run-ten Variable q(run) von Variablen q einer eindimensionalen Matrix zugewiesen.
  • In Schritt S2523 in 25 wird 1 zur Variable run addiert.
  • In Schritt S2524 in 25 wird beurteilt, ob die Variable run mit run0 übereinstimmt oder nicht. Wenn die werte miteinander übereinstimmen, wird die Steuerung an Schritt S2525 übergeben. Wenn die Werte nicht miteinander übereinstimmen, springt die Steuerung zu Schritt S2520.
  • In Schritt S2525 in 25 wird q(run-run0) der Variable X(s, i) der zweidimensionalen Matrix zugewiesen und q(run-run0) wird der Variable Y(s, i) der zweidimensionalen Matrix zugewiesen. Ein Punkt, der am nächsten zum Anfangspunkt von Abtastlinien liegt, wird als Koordinaten (X(s, i), Y(s, i)) aus einem Verlauf von aufeinanderfolgenden Punkten auf der Abtastlinie, an denen Leuchtdichtewerte größer sind als die Schwelle, mit einer Länge, die größer ist als die Länge run0 oder größer, gewonnen.
  • Als nächstes wird die Nachziehroutine innerhalb der automatischen Gewinnungsroutine beschrieben.
  • In Schritt S2526 in 25 werden die Koordinaten X(s, i) und Y(s, i) an den Bilddatenspeicher 17 ausgegeben. Mit anderen Worten, in Schritt 52526 wird die Adresse des Punkts P, der in 26 gezeigt ist, in den Bilddatenspeicher 17 geschrieben.
  • In Schritt 52527 in 25 wird ein neuer Punkt P', der eine Grenze festlegt, durch Wiedergewinnen eines Datenwerts von Punkten, die mit einem Schnittpunkt Po zwischen dem Segment GP und einem Bogen beginnen, welcher einen Radius r aufweist und einen Punkt P als Zentrum aufweist, wie in 27 gezeigt, die einen Teil von 26 vergrößert darstellt, entlang des Bogens gewonnen. Diese Wiedergewinnung wird ausgeführt, wie nachstehend beschrieben.
  • Erstens einmal ist in 26 die Außenseite der Oberfläche eines Organs dessen Organgewebe und die Innenseite, das heißt der Teil, der den Punkt G enthält, ist gewöhnlich ein Ultraschallmedium wie z.B. Wasser. Binär codierte Leuchtdichtewerte, die auf dem Bogen in 27 erfasst werden, werden angegeben, wie in 28 gezeigt.
  • In 28 gibt die Achse der Abszisse den Winkel ψ bezüglich des Segments GP an. Der Punkt Po ist im Ultraschallmedium festgelegt und weist eine niedrige Leuchtdichte auf. Ein Punkt, an dem sich die niedrige Leuchtdichte zu einer hohen Leuchtdichte mit der Veränderung des Winkels ψ ändert, entspricht dem Punkt P', der eine Grenze festlegt, die in 26 und 27 gezeigt ist. Somit wird der Punkt P' durch wiedergewinnen eines Leuchtdichtewerts von Punkten, die mit dem Punkt Po in 28 beginnen, und folglich Suchen nach einem Punkt, an dem der Leuchtdichtewert zum ersten Mal eine Änderung erfährt, gewonnen.
  • In Schritt S2528 in 25 wird 1 zur Variable s addiert. Der Punkt P' wird dann erneut auf den Punkt P geschrieben.
  • In Schritt S2529 in 25 wird der Winkel ∠PGG' bezüglich des neu geschriebenen Punkts P berechnet und es wird beurteilt, ob der Winkel ∠PGG' größer oder kleiner als 360° ist. Wenn der Winkel größer ist, wird die Steuerung an Schritt S2530 übergeben. Wenn der Winkel kleiner ist, springt die Steuerung zu Schritt S2526. In Schritt S2528 wird der Punkt P' auf den Punkt P neu geschrieben. Der Winkel ∠PGG' ist daher tatsächlich mit dem Winkel ∠P'GG', der in 27 gezeigt ist, vergleichbar.
  • In Schritt S2530 in 25 wird 1 zur Variable i addiert. Das heißt, das zu verarbeitende zweidimensionale Bild wird zu einem angrenzenden zweidimensionalen Bild verschoben.
  • In Schritt S2531 in 25 wird beurteilt, ob die Variable i mit 49+1 übereinstimmt oder nicht. Mit anderen Worten, es wird beurteilt, ob die Verarbeitung des letzten zweidimensionalen Bildes unter allen zweidimensionalen Bildern, die in den Bilddatenspeicher 17 geschrieben wurden, beendet ist oder nicht. Wenn die Werte miteinander übereinstimmen, wird die Steuerung an Schritt S2532 übergeben. Wenn die Werte nicht miteinander übereinstimmen, springt die Steuerung zu Schritt S2515.
  • Innerhalb der automatischen Gewinnungsroutine, die aus der Nachzieh-Anfangspunkt-Gewinnungsroutine und der Nachziehroutine besteht, werden folglich die Koordinaten (X(s, i), Y(s, i)) von Punkten (s, i), die zum Festlegen der Oberfläche einer Körperhöhle, das heißt einer Grenze, erkannt werden, für alle im Bilddatenspeicher 17 gespeicherten zweidimensionalen Bilder erhalten und dann nacheinander in den Bilddatenspeicher 17 geschrieben.
  • Im übrigen verschwindet das Organgewebe eines Organs im linken Teil des Bildschirms in 26. In diesem Zustand wird das Suchen nach dem Punkt P(s, i) eingestellt. In Schritt S2527 wird daher, wie in 29 gezeigt, während nach einem Punkt, an dem der am Punkt Po erfasste Leuchtdichtewert zum ersten Mal eine Änderung erfährt, gesucht wird, wenn ein Bogen an einer Kante eines Bildes verschwindet, ein Schnittpunkt zwischen dem Bogen und der Kante des Bildes als Punkt P' gewonnen.
  • Als nächstes wird die Anzeige/Korrektur-Routine beschrieben.
  • In Schritt S2532 in 25 werden die Koordinaten X(s, i) und Y(s, i) aller Punkte, die eine Grenze festlegen, die aus allen Bildern gewonnen wird, die in den Bilddatenspeicher 17 geschrieben sind, gelesen.
  • Kurz gesagt, die Koordinaten von Punkten P, die zum Festlegen einer Grenze erkannt werden, werden aus dem Bilddatenspeicher 17 gelesen.
  • In Schritt S2533 in 25 werden Punkte, die eine Grenze festlegen, deren Koordinaten mit X(s, i) und Y(s, i) angegeben werden, auf jedes in Graustufe dargestellte zweidimensionale Bild überlagert.
  • In Schritt S2534 in 25 werden zweidimensionale Bilder, auf die Punkte, die eine Grenze festlegen, überlagert sind und die in Graustufe dargestellt sind, auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern aufgelistet.
  • In Schritt S2535 in 25 wird ein zweidimensionales Bild i0, bei dem ein Teil von dessen Grenze falsch gewonnen ist, unter den aufgelisteten zweidimensionalen Bildern ausgewählt und festgelegt. Das zweidimensionale Bild i0 ist in 30 gezeigt.
  • In Schritt S2536 in 25 legt der Benutzer einen Korrekturbereich im zweidimensionalen Bild i0 auf dem Berührungsfeld 25 fest. Insbesondere, wie in 30 gezeigt, wird der Korrekturbereich durch Festlegen von Grenzen R1 und R2 auf einer falsch gewonnenen Grenze und Festlegen des Winkels ∠R1GR2 festgelegt. Der Korrekturbereich ist in 30 als schraffierte Fläche angegeben.
  • In Schritt S2537 in 25 zieht der Benutzer eine wahre Grenze manuell auf dem Berührungsfeld 25 nach. Das Nachziehen ist in 30 gezeigt. Das heißt, Punkte, die eine wahre Grenze festlegen, die mit weißen Punkten angegeben sind, werden anstelle von Punkten nachgezogen, die falsch als Punkte, die eine Grenze festlegen, gewonnen wurden und mit schwarzen Punkten angegeben sind.
  • Zu diesem Zeitpunkt werden Punkte P(s, i), die eine wahre Grenze festlegen, in gleichen Abständen entlang einer Bahn festgelegt, die vom Benutzer innerhalb des mit dem Winkel ∠R1GR2 festgelegten Bereichs nachgezogen wird.
  • In Schritt S2538 in 25 werden die Koordinaten der Punkte, die falsch als Punkte, die eine Grenze festlegen, gewonnen wurden, aus dem Bilddatenspeicher 17 gelöscht und die Koordinaten der Punkte P(s, i), die eine wahre Grenze festlegen, die in Schritt S2537 festgelegt werden, werden als Variablen X(s, i) und Y(s, i) der zweidimensionalen Matrix an den Bilddatenspeicher 17 ausgegeben. Zu diesen Zeitpunkt werden die Variablen X(s, i) und Y(s, i) der zweidimensionalen Matrix im Bilddatenspeicher 17 erneut sortiert, damit sie gemäß den Punkten P(s, i) (s = 0, 1 usw.) nummeriert werden, wie in 26 gezeigt.
  • In Schritt S2539 in 25 wird eine Meldung, die anfragt, ob eine Korrektur noch erforderlich ist, auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern angezeigt. Der Benutzer gibt am Bedienungsendgerät 21 eine Antwort ein. Wenn die Korrektur noch erforderlich ist, springt die Steuerung zu Schritt S2534. Wenn die Korrektur nicht mehr erforderlich ist, wird die Oberflächenpunktgewinnung beendet.
  • Wie vorstehend erwähnt, korrigiert die Anzeige/Korrektur-Routine Punkte, die aufgrund eines Rückstands in einer Körperhöhle oder von Rauschen falsch gewonnen wurden.
  • Wie vorher beschrieben, funktionieren die CPU 13 und der Bildprozessor 18 als Oberflächennachziehmittel und Leuchtdichte-Änderungspunkt-Wiedergewinnungsmittel.
  • Das Berührungsfeld 25 funktioniert als Nachzieh-Anfangspunkt-Festlegungsmittel.
  • Dieses Beispiel weist die nachstehend beschriebenen Vorteile auf.
  • In diesem Beispiel werden Punkte, die die Oberfläche eines gewünschten Objekts festlegen, automatisch in einer Vielzahl von aufeinanderfolgenden Ultraschall-Tomographiebildern nachgezogen. Ein Punkt, der im Rauschen enthalten ist, das in 26 gezeigt ist, wird beispielsweise nicht als Punkt, der die Oberfläche eines Organs festlegt, gewonnen. Das heißt, die Oberfläche eines gewünschten Objekts kann ohne Störung durch Rauschen oder dergleichen genau gewonnen und ausgedrückt werden.
  • In diesem Beispiel wird ein Bild in Schritt S2511 geglättet. Bevor Punkte, die eine Oberfläche festlegen, entlang jeder Abtastlinie gewonnen werden, kann Rauschen in einem gewissen Ausmaß beseitigt werden.
  • In diesem Beispiel werden Punkte, die eine Grenze festlegen, in Schritt S2533 auf Ultraschall-Tomographiebilder überlagert und die Ultraschall-Tomographiebilder werden in Schritt S2534 aufgelistet. Die zu überlagernden und anzuzeigenden Bilder können Bilder sein, die relativ zu einer Schwelle verarbeitet werden, oder binär codierte Bilder sein. Wenn jedoch Ultraschall-Rohbilder, die in Graustufe dargestellt werden, in diesem Beispiel als solche aufgelistet werden, kann, da Punkte, die eine Grenze festlegen, gewöhnlich auf Ultraschallbilder, die zur Diagnose verwendet werden, überlagert werden, welches Bild korrigiert werden sollte, unmissverständlicher festgelegt werden.
  • In diesem Beispiel kann die Korrektur erzielt werden, während auf das in 30 gezeigte Bild Bezug genommen wird. Eine Grenze kann folglich korrekt korrigiert werden.
  • In diesem Beispiel wird in Schritt S2513 eine Länge, die zum Erkennen eines Verlaufs, dessen Länge gleich der oder kleiner als die Länge ist, als Rauschen verwendet wird, in Schritt S2513 eingegeben. Zum Festlegen eines Nachzieh-Anfangspunkts kann Rauschen verschiedener Größen beseitigt werden.
  • Die anderen Vorteile sind zu jenen des ersten Beispiels identisch.
  • In diesem Beispiel wird das Berührungsfeld 25 verwendet. Abgesehen vom Berührungsfeld 25 kann ein Cursor in einem Bildschirm angezeigt werden und eine Zeigevorrichtung wie z.B. eine Maus, ein Lichtstift oder eine Rollkugel kann verwendet werden.
  • In diesem Beispiel wird eine Binärcodierung in Schritt S2512 ausgeführt. Eine andere Verarbeitung relativ zu einer Schwelle kann übernommen werden.
  • In diesem Beispiel werden Punkte, die eine Grenze festlegen, in Schritt S2533 überlagert. Die Punkte P(s, i), die eine Grenze festlegen, können in einer aufsteigenden Reihenfolge der Zahlen s verbunden werden. Ferner kann das Innere einer Grenze in Rot oder irgendeiner anderen Farbe, die von der Farbe eines zu überlagernden Ultraschall-Tomographiebildes verschieden ist, gefärbt werden und die Grenze kann als Seiten des gefärbten Bereichs ausgedrückt werden.
  • In diesem Beispiel werden zweidimensionale Bilder, auf die Punkte, die eine Grenze festlegen, überlagert sind, in Schritt S2534 aufgelistet. Alternativ können angrenzende zweidimensionale Bilder nacheinander angezeigt werden.
  • In diesem Beispiel ist das System vermutlich an ein Hohlraumorgan wie z.B. den Magen angepasst. Alternativ kann das System an ein Nicht-Hohlraum-Organ wie z.B. die Leber oder Bauchspeicheldrüse angepasst werden.
  • Als nächstes wird das sechste Beispiel mit Bezug auf 31 und 32 beschrieben.
  • Die Anordnung dieses Beispiels ist zu jener des fünften Beispiels identisch. Die von der CPU 13 und vom Bildprozessor 18 durchgeführte Verarbeitung ist jedoch anders. Nur der Unterschied wird beschrieben.
  • Die Operationen der CPU 13 und des Bildprozessors 18 werden mit Bezug auf 31 und 32 beschrieben.
  • In diesem Beispiel ist die Verarbeitung der Festlegung eines Anfangspunkts von Abtastlinien, die in 25 beschrieben ist, von jener im fünften Beispiel verschieden. In den anderen Aspekten ist dieses Beispiel zum fünften Beispiel identisch. In diesem Beispiel, wie in 31 gezeigt, ist die Verarbeitung der Schritte S3111, S3112 und S3113 hinzugefügt. Die in 31 beschriebenen anderen Schritte sind zu jenen von entsprechenden Zahlen, die in 25 hinsichtlich des fünften Beispiels gezeigt sind, identisch.
  • In Schritt S2513 und im anschließenden Schritt S3111 in 31 werden vier Scheibenbilder, die in 32 gezeigt sind, auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern angezeigt. Die Positionsbeziehung unter den vier Scheiben ist zu jener in 4 identisch.
  • In Schritt S3112 in 31 wird ein Nachzieh-Anfangspunkt in einer linearen Ebene der Scheibe B oder C festgelegt, während auf die Bilder, die auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern erscheinen, Bezug genommen wird. Für die Festlegung wird eine fette Linie in 32 auf dem Berührungsfeld 25 mit einem Finger nachgezogen. Da die lineare Ebene unter Verwendung von 50 aufeinanderfolgenden zweidimensionalen Bildern konstruiert wird, kann ein Nachzieh-Anfangspunkt für die 50 zweidimensionalen Bilder nur durch Nachziehen einer in der linearen Ebene ausgedrückten Grenze festgelegt werden.
  • Somit wird ein Nachzieh-Anfangspunkt festgelegt.
  • Da ein Nachzieh-Anfangspunkt gleichzeitig für eine Vielzahl von Bildern festgelegt werden kann, wird die Verarbeitung von Schritt S2516 bis Schritt 2525 in 25 weggelassen. In Schritt S3113 in 31 wird die Adresse des Nachzieh-Anfangspunkts für zweidimensionale Bilder i den Variablen X(s, i) und Y(s, i) der zweidimensionalen Matrix zugewiesen.
  • Wie vorher beschrieben, funktioniert das Berührungsfeld 25 als Nachzieh-Anfangspunkt-Festlegungsmittel.
  • Dieses Beispiel weist die nachstehend beschriebenen Vorteile auf.
  • In diesem Beispiel wird in Schritt S3112 ein Nachzieh-Anfangspunkt gleichzeitig für 50 Bilder festgelegt, während auf Bilder Bezug genommen wird, die auf dem Monitor 24 zur Verarbeitung von dreidimensionalen Bildern erscheinen. Die Handhabung ist daher leichter als die im fünften Beispiel, in dem ein Nachzieh-Anfangspunkt wiederholt für jedes von 50 Bildern festgelegt werden muss.
  • Die anderen Vorteile sind identisch zu jenen des fünften Beispiels.

Claims (5)

  1. Diagnose-Ultraschallabbildungssystem mit: einem Speichermittel (17) für dreidimensionale Echodaten, das dazu ausgelegt ist, Daten zu speichern, die durch Ultraschallwellenechos geliefert werden, die von einem dreidimensionalen Bereich in einem lebenden Körper ausgehen; einem Schnittpositions-Festlegungsmittel (25), das dazu ausgelegt ist, die Positionen von gewünschten Schnitten in den dreidimensionalen Echodaten, die im Speichermittel (17) für dreidimensionale Echodaten gespeichert sind, festzulegen; einem Oberflächenpunkt-Gewinnungsmittel (18), das dazu ausgelegt ist, Punkte, die die Oberfläche eines gewünschten Objekts definieren, aus den dreidimensionalen Echodaten, die im Speichermittel (17) für dreidimensionale Echodaten gespeichert sind, zu gewinnen; einem Schattierungsmittel (18), das dazu ausgelegt ist, die durch das Oberflächenpunkt-Gewinnungsmittel (18) gewonnene Oberfläche gemäß einer stereoskopischen Information der Konfiguration der Oberfläche zu schattieren; einem Synthesemittel (18), das dazu ausgelegt ist, die dreidimensionalen Echodaten der Schnitte, deren Positionen durch das Schnittpositions-Festlegungsmittel (25) festgelegt werden, und Daten der Oberfläche, die durch das Schattierungsmittel schattiert wird, zu synthetisieren, um ein synthetisiertes dreidimensionales Bild zu konstruieren; gekennzeichnet durch ein Anzeigefarben-Festlegungsmittel zum Festlegen einer Farbe, so daß der stereoskopische Zustand der Konfiguration der Oberfläche in einer Farbe, die von einer Anzeigefarbe zum Anzeigen der dreidimensionalen Echodaten verschieden ist, und als Anzeigezustand der Helligkeit gemäß der Schattierung durch das Schattierungsmittel angezeigt wird.
  2. Diagnose-Ultraschallabbildungssystem nach Anspruch 1, wobei die Oberfläche in der echten Farbe der Oberfläche eines Organs gefärbt wird.
  3. Diagnose-Ultraschallabbildungssystem nach Anspruch 1 mit: einem Festlegungsmittel (18), das dazu ausgelegt ist, die Helligkeit auf der Basis einer stereoskopischen Information der Konfiguration der Oberfläche durch Festlegen der Helligkeit von jedem Teil der Oberfläche gemäß einem zwischen einer festgelegten Richtung bezüglich des Teils und dem Teil gebildeten Winkel festzulegen; wobei das Synthesemittel (18) auch dazu ausgelegt ist, die dreidimensionalen Echodaten der Schnitte, deren Positionen durch das Schnittpositions-Festlegungsmittel (25) festgelegt werden, und Daten der Oberfläche, die durch das Festlegungsmittel festgelegt werden, zu synthetisieren, um ein synthetisiertes Bild zu konstruieren; und wobei das Farbfestlegungsmittel auch dazu ausgelegt ist, die Farbe derart festzulegen, dass der stereoskopische Zustand der Konfiguration der Oberfläche in einer Farbe, die von einer Anzeigefarbe zum Anzeigen der dreidimensionalen Echodaten verschieden ist, und als Anzeigezustand der Helligkeit gemäß der Festlegung angezeigt wird.
  4. Diagnose-Ultraschallabbildungsverfahren, umfassend: einen Schritt zum Speichern dreidimensionaler Echodaten, der dazu ausgelegt ist, Daten zu speichern, die durch Ultraschallwellenechos geliefert werden, die von einem dreidimensionalen Bereich in einem lebenden Körper ausgehen; einen Schnittpositions-Festlegungsschritt zum Festlegen der Positionen von gewünschten Schnitten in den dreidimensionalen Echodaten, die im Schritt zum Speichern dreidimensionaler Echodaten gespeichert werden; einen Oberflächenpunkt-Gewinnungsschritt zum Gewinnen von Punkten, die die Oberfläche eines gewünschten Objekts definieren, aus den dreidimensionalen Echodaten, die im Schritt zum Speichern dreidimensionaler Echodaten gespeichert werden; einen Schattierungsschritt zum Schattieren der Oberfläche, die durch den Oberflächenpunkt-Gewinnungsschritt gewonnen wird, gemäß einer stereoskopischen Information der Konfiguration der Oberfläche; einen Synthetisierungsschritt zum Synthetisieren der dreidimensionalen Echodaten der Schnitte, deren Positionen in dem Schnittpositions-Festlegungsschritt festgelegt werden, und von Daten der Oberfläche, die durch den Schattierungsschritt schattiert wird, um ein synthetisiertes dreidimensionales Bild zu konstruieren; und gekennzeichnet durch einen Anzeigefarben-Festlegungsschritt zum Festlegen einer Farbe, so dass der stereoskopische Zustand der Konfiguration der Oberfläche in einer Farbe, die von einer Anzeigefarbe zum Anzeigen der dreidimensionalen Echodaten verschieden ist, und als Anzeigezustand der Helligkeit gemäß der Schattierung durch den Schattierungsschritt angezeigt wird.
  5. Diagnose-Ultraschallabbildungsverfahren nach Anspruch 4, wobei die Oberfläche in der echten Farbe der Oberfläche eines Organs gefärbt wird.
DE69733724T 1996-04-15 1997-04-14 Ultraschall-diagnose-abbildungssystem Expired - Lifetime DE69733724T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP9276696 1996-04-15
JP9276696 1996-04-15
JP9004886A JPH10192A (ja) 1996-04-15 1997-01-14 超音波画像診断装置
JP488697 1997-01-14

Publications (2)

Publication Number Publication Date
DE69733724D1 DE69733724D1 (de) 2005-08-18
DE69733724T2 true DE69733724T2 (de) 2006-05-18

Family

ID=26338744

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69733724T Expired - Lifetime DE69733724T2 (de) 1996-04-15 1997-04-14 Ultraschall-diagnose-abbildungssystem
DE69727612T Expired - Lifetime DE69727612T2 (de) 1996-04-15 1997-04-14 Ultraschall-Abbildungssystem mit Lauf-Extraktionsmitteln zur Extraktion des Punktes, der am dichtesten am Anfangspunkt der Abtastzeilen liegt

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE69727612T Expired - Lifetime DE69727612T2 (de) 1996-04-15 1997-04-14 Ultraschall-Abbildungssystem mit Lauf-Extraktionsmitteln zur Extraktion des Punktes, der am dichtesten am Anfangspunkt der Abtastzeilen liegt

Country Status (4)

Country Link
US (1) US5817019A (de)
EP (2) EP1324070B1 (de)
JP (1) JPH10192A (de)
DE (2) DE69733724T2 (de)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7497828B1 (en) 1992-01-10 2009-03-03 Wilk Ultrasound Of Canada, Inc. Ultrasonic medical device and associated method
JP3296193B2 (ja) * 1996-06-26 2002-06-24 富士写真光機株式会社 超音波画像生成装置
US6121999A (en) * 1997-06-09 2000-09-19 Schaack; David F. Eliminating routine alignment calibrations in perspective dimensional measurements
US6135958A (en) 1998-08-06 2000-10-24 Acuson Corporation Ultrasound imaging system with touch-pad pointing device
US6174285B1 (en) * 1999-02-02 2001-01-16 Agilent Technologies, Inc. 3-D ultrasound imaging system with pre-set, user-selectable anatomical images
US6139499A (en) * 1999-02-22 2000-10-31 Wilk; Peter J. Ultrasonic medical system and associated method
EP1034742A1 (de) 1999-03-09 2000-09-13 Kreztechnik Aktiengesellschaft Verfahren zur Untersuchung von Objekten mit Ultraschall
JP2000331156A (ja) * 1999-05-17 2000-11-30 Internatl Business Mach Corp <Ibm> 輪郭に沿うトラッカを自動的に決定するための方法、及び該方法を実施するプログラムを記憶した記憶媒体
US7170677B1 (en) 2002-01-25 2007-01-30 Everest Vit Stereo-measurement borescope with 3-D viewing
US7285094B2 (en) 2002-01-30 2007-10-23 Nohara Timothy J 3D ultrasonic imaging apparatus and method
CN100569186C (zh) * 2002-03-15 2009-12-16 比约恩·A·J·安杰尔森 超声成像方法及系统、超声换能器阵列及探针
WO2004028375A1 (ja) * 2002-09-27 2004-04-08 Olympus Corporation 超音波診断装置
JP4468677B2 (ja) * 2003-05-19 2010-05-26 オリンパス株式会社 超音波画像生成方法及び超音波画像生成プログラム
JP4414682B2 (ja) * 2003-06-06 2010-02-10 オリンパス株式会社 超音波内視鏡装置
JP4799833B2 (ja) * 2003-06-19 2011-10-26 サラヤ株式会社 エコーを用いた血管径測定方法およびその装置
GB2407636B (en) * 2003-11-03 2006-08-23 St George S Healthcare Nhs Tru Automated measurement in images
JP4490739B2 (ja) * 2004-06-15 2010-06-30 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波診断装置
JP4504114B2 (ja) * 2004-06-23 2010-07-14 オリンパス株式会社 超音波画像診断装置
US7914454B2 (en) * 2004-06-25 2011-03-29 Wilk Ultrasound Of Canada, Inc. Real-time 3D ultrasonic imaging apparatus and method
WO2006070669A1 (ja) * 2004-12-27 2006-07-06 Olympus Corporation 医療画像処理装置及び医療画像処理方法
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
KR100954989B1 (ko) * 2006-10-18 2010-04-30 주식회사 메디슨 대상체의 크기를 측정하기 위한 초음파 진단 장치 및 방법
KR101028354B1 (ko) * 2007-03-20 2011-06-14 주식회사 메디슨 초음파 영상을 형성하는 초음파 시스템 및 방법
JP2008259682A (ja) * 2007-04-12 2008-10-30 Fujifilm Corp 部位認識結果修正装置、方法、およびプログラム
US7894663B2 (en) * 2007-06-30 2011-02-22 General Electric Company Method and system for multiple view volume rendering
JP5737823B2 (ja) * 2007-09-03 2015-06-17 株式会社日立メディコ 超音波診断装置
US20090153548A1 (en) * 2007-11-12 2009-06-18 Stein Inge Rabben Method and system for slice alignment in diagnostic imaging systems
JP5271615B2 (ja) * 2008-06-30 2013-08-21 パナソニック株式会社 超音波診断装置
EP2226003B1 (de) * 2009-03-05 2015-05-06 Brainlab AG Medizintechnische Bildregistrierung mittels optischer Kohärenztomographie
US8836648B2 (en) 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
KR101202533B1 (ko) * 2009-07-30 2012-11-16 삼성메디슨 주식회사 복수의 슬라이스 단면 영상을 제공하는 제어 장치, 초음파 시스템, 방법 및 컴퓨터 판독가능 기록매체
US8239785B2 (en) 2010-01-27 2012-08-07 Microsoft Corporation Edge gestures
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US20110191719A1 (en) * 2010-02-04 2011-08-04 Microsoft Corporation Cut, Punch-Out, and Rip Gestures
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US9274682B2 (en) 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US8799827B2 (en) 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US8751970B2 (en) 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US9075522B2 (en) 2010-02-25 2015-07-07 Microsoft Technology Licensing, Llc Multi-screen bookmark hold gesture
US8539384B2 (en) 2010-02-25 2013-09-17 Microsoft Corporation Multi-screen pinch and expand gestures
US8707174B2 (en) 2010-02-25 2014-04-22 Microsoft Corporation Multi-screen hold and page-flip gesture
US8473870B2 (en) 2010-02-25 2013-06-25 Microsoft Corporation Multi-screen hold and drag gesture
CN102811665B (zh) * 2010-03-19 2015-05-27 株式会社日立医疗器械 超声波诊断装置及超声波图像显示方法
CN103237503B (zh) * 2010-09-10 2017-09-05 阿西斯特医疗系统有限公司 用于医学图像搜索的设备和方法
US20120130242A1 (en) * 2010-11-24 2012-05-24 Boston Scientific Scimed, Inc. Systems and methods for concurrently displaying a plurality of images using an intravascular ultrasound imaging system
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
JP5670253B2 (ja) * 2011-05-18 2015-02-18 日立アロカメディカル株式会社 超音波診断装置
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US9582122B2 (en) 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
US9370328B2 (en) * 2012-11-29 2016-06-21 University Of Washington Through Its Center For Commercialization Methods and systems for determining tumor boundary characteristics
CN105530871B (zh) 2013-09-11 2019-05-07 波士顿科学国际有限公司 使用血管内超声成像系统选择和显示图像的系统和方法
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
JP2019162339A (ja) * 2018-03-20 2019-09-26 ソニー株式会社 手術支援システムおよび表示方法
WO2020044576A1 (ja) * 2018-08-30 2020-03-05 ハーツテクノロジー株式会社 表示制御装置、表示制御方法及び表示制御プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2825358B2 (ja) * 1991-03-07 1998-11-18 アロカ 株式会社 超音波三次元画像表示装置
JP3268831B2 (ja) * 1992-07-15 2002-03-25 オリンパス光学工業株式会社 超音波診断装置
GB2273357A (en) * 1992-12-09 1994-06-15 Nicholas John Wald Non-invasive medical scanning
JP2785636B2 (ja) * 1993-02-25 1998-08-13 株式会社エス.エス.ビー 生体組織多次元可視装置
US5435310A (en) * 1993-06-23 1995-07-25 University Of Washington Determining cardiac wall thickness and motion by imaging and three-dimensional modeling
US5497776A (en) * 1993-08-05 1996-03-12 Olympus Optical Co., Ltd. Ultrasonic image diagnosing apparatus for displaying three-dimensional image
US5454371A (en) * 1993-11-29 1995-10-03 London Health Association Method and system for constructing and displaying three-dimensional images

Also Published As

Publication number Publication date
US5817019A (en) 1998-10-06
DE69733724D1 (de) 2005-08-18
EP0802424B1 (de) 2004-02-18
EP0802424A2 (de) 1997-10-22
EP1324070B1 (de) 2005-07-13
EP1324070A1 (de) 2003-07-02
DE69727612T2 (de) 2004-12-16
EP0802424A3 (de) 1999-04-07
JPH10192A (ja) 1998-01-06
DE69727612D1 (de) 2004-03-25

Similar Documents

Publication Publication Date Title
DE69733724T2 (de) Ultraschall-diagnose-abbildungssystem
DE69737720T2 (de) Verbessertes bildverarbeitungsverfahren für ein dreidimensionales bilderzeugungssystem
DE60309486T2 (de) Zwei-EBENEN ULTRASCHALLABBILDUNG MIT EINEM DIE GEGENSEITIGE EBENENORIENTIERUNG ABBILDENDEN SYMBOL
DE69831138T2 (de) System zur darstellung eines zweidimensionalen ultraschallbildes in einer dreidimensionalen bildbetrachtungsumgebung
DE60212313T2 (de) Vorrichtung zur Ultraschall-Bilddarstelllung einer Biopsiekanüle
US6990231B2 (en) Method and apparatus for forming and displaying projection image from a plurality of sectional images
US20020114498A1 (en) Method and apparatus for visualizing a limited part of a 3D medical image-point-related data set, through basing a rendered image on an intermediate region between first and second clipping planes, and including spectroscopic viewing of such region
CN102247165B (zh) 超声波图像处理装置及方法、超声波诊断装置
CN1297534A (zh) 使用多截面的三维超声数据显示
DE102008013719A1 (de) Verfahren und Vorrichtung zur Verfolgung von Punkten in einem Ultraschallbild
DE102010049324A1 (de) Fötus-Rendering in der medizinischen diagnostischen Ultraschallbildgebung
DE102007019859A1 (de) Benutzerschnittstelle für Ultraschallsystem mit automatischer Mehrfachebenenbildung
DE102009026110A1 (de) Vorrichtung und Verfahren zur Darstellung eines Ultraschallmesskopfes relativ zu einem Objekt
DE102006059380A1 (de) Medizinisches Robotersystem, das eine Dreidimensionale Telestration bereitstellt
DE102008037453A1 (de) Verfahren und System zur Visualisierung von registrierten Bildern
US5776067A (en) Method of displaying a biplane image in real time and an ultrasonic diagnosing apparatus for displaying the biplane in real time
DE102007021515A1 (de) Benutzerschnittstelle und Verfahren zum Identifizieren von in Beziehung stehenden Daten, die in einem Ultraschallsystem auf einem Display angezeigt werden
DE60314822T2 (de) Ultraschalldiagnostisches Gerät und Verfahren
US5279301A (en) Ultrasonic image analyzing apparatus
JPH1176228A (ja) 三次元画像構成装置
JP3410404B2 (ja) 超音波診断装置
EP3602502B1 (de) Eingebettete virtuelle lichtquelle in einem 3d-volumen, das mit fadenkreuzen mit mpr-ansicht verknüpft ist
JP4384625B2 (ja) 超音波画像診断装置
DE102007029888A1 (de) Bildgebendes Verfahren für die medizinische Diagnostik und nach diesem Verfahren arbeitende Einrichtung
US20050137477A1 (en) Dynamic display of three dimensional ultrasound (&#34;ultrasonar&#34;)

Legal Events

Date Code Title Description
8364 No opposition during term of opposition