DE19819794A1 - Unit for 3D imaging of US data with linked projections of intensity and speed-energy data - Google Patents

Unit for 3D imaging of US data with linked projections of intensity and speed-energy data

Info

Publication number
DE19819794A1
DE19819794A1 DE19819794A DE19819794A DE19819794A1 DE 19819794 A1 DE19819794 A1 DE 19819794A1 DE 19819794 A DE19819794 A DE 19819794A DE 19819794 A DE19819794 A DE 19819794A DE 19819794 A1 DE19819794 A1 DE 19819794A1
Authority
DE
Germany
Prior art keywords
data
color flow
intensity
pixel data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE19819794A
Other languages
German (de)
Inventor
William Thomas Hatfield
Todd Michael Tillman
Patricia Ann Schubert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE19819794A1 publication Critical patent/DE19819794A1/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52034Data rate converters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/5206Two-dimensional coordinated display of distance and direction; B-scan display
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/5206Two-dimensional coordinated display of distance and direction; B-scan display
    • G01S7/52066Time-position or time-motion displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52074Composite displays, e.g. split-screen displays; Combination of multiple images or of images and alphanumeric tabular information
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52071Multicolour displays; using colour coding; Optimising colour or information content in displays, e.g. parametric imaging
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/916Ultrasound 3-D imaging

Abstract

The unit for three dimensional imaging of ultrasonic data includes an US converter array for transmitting US beams and for detecting of US echos, reflected at a multiple of sample or test vols. in object vols. A unit for obtaining colour flow data, which are led off at least partly from the US echos reflected at the scattered medium. So that each single colour flow detail (date) corresponds respectively to one of the many sample vols. A unit for obtaining intensity data, which is led off at least partly from US echos reflected at the tissue. Each single intensity detail corresponds respectively to one of the many sample vols. A storage system stores pixel data sets for each smaple vol. Each single pixel detail contains a respective intensity detail, which corresponds to a respective sample vol. A unit reproduces a pixel data set from the storage unit, this corresponds to a part vol. of interest in the object vol. A unit projects the colour flow data also the intensity data in the pixel data set on a first image plane, to form a projection data set, which represents a first projected image. An indicator or a display monitor is provided, and a unit for indicating the first projected image on the display monitor.

Description

Diese Erfindung bezieht sich allgemein auf Ultraschall-Bild­ gebung der menschlichen Anatomie zum Zweck der medizini­ schen Untersuchung. Insbesondere bezieht sich die Erfindung auf ein Verfahren und eine Einrichtung zur dreidimensionalen Abbildung von sich bewegendem Fluid oder Gewebe im menschli­ chen Körper durch Erfassen der Dopplerverschiebung von Ultra­ schall-Echos, die von dem sich bewegenden Fluid oder Gewebe reflektiert werden.This invention relates generally to ultrasound imaging human anatomy for medical purposes investigation. In particular, the invention relates to a method and a device for three-dimensional Illustration of moving fluid or tissue in human body by detecting the Doppler shift of Ultra sound echoes from the moving fluid or tissue be reflected.

Konventionelle Ultraschall-Abtaster bzw. -Scanner erzeugen zweidimensionale B-Mode-Bilder von Gewebe, in denen die Helligkeit bzw. Leuchtdichte eines Pixels auf der Intensität der Echorückkehr basiert. Bei der Farbströmungs(CF von color flow)-Bildgebung läßt sich die Blutströmung oder die Bewegung von Gewebe abbilden. Die Messung der Blutströmung im Herzen und in den Gefäßen unter Anwendung des Dopplereffekts ist bekannt. Die Frequenzverschiebung von rückgestreuten Ultra­ schallwellen kann zur Messung der Geschwindigkeit der rück­ streuenden Teile des Gewebes oder Blutes benutzt werden. Die Veränderung oder Verschiebung in der rückgestreuten Frequenz nimmt zu, wenn Blut in Richtung auf den Wandler hin strömt, und nimmt ab, wenn Blut vom Wandler weg strömt. Die Doppler­ verschiebung läßt sich unter Einsatz verschiedener Farben zur Darstellung bringen, um die Geschwindigkeit sowie die Strö­ mungsrichtung wiederzugeben. Bei der sog. Energie(Power)-Dopp­ ler-Bildgebung wird die in dem zurückkommenden Dopplersi­ gnal enthaltene Energie (power) zur Anzeige gebracht. Der Farbströmungsmodus bringt gleichzeitig Hunderte von benach­ barten Abtastvolumen zur Anzeige, die alle zur Darstellung der Geschwindigkeit jedes Abtastvolumens farbkodiert sind. Das Farbströmungsbild kann dem B-Mode-Bild überlagert werden. Generate conventional ultrasound scanners or scanners two-dimensional B-mode images of tissue in which the Brightness or luminance of a pixel on the intensity the echo return is based. With the color flow (CF of color flow) imaging can be blood flow or movement image of tissue. Measuring blood flow in the heart and in the vessels using the Doppler effect known. The frequency shift of backscattered Ultra Sound waves can be used to measure the speed of the back scattering parts of the tissue or blood are used. The Change or shift in the backscattered frequency increases when blood flows towards the transducer, and decreases as blood flows away from the transducer. The Doppler can be shifted using different colors Bring representation to the speed as well as the currents play direction. With the so-called energy (power) double The imaging will be done in the returning Dopplersi gnal contained energy (power) displayed. The Color flow mode brings hundreds of neighbors at the same time beard sample volume for display, all for display the color of each sample volume is color coded. The color flow image can be superimposed on the B-mode image.  

Der Vorteil einer Darstellung von anatomischen Daten im B-Mode zusammen mit Geschwindigkeitsdaten besteht darin, daß sie für den Benutzer brauchbarere Information bietet, als wenn die Geschwindigkeitsdaten mit einem undurchsichtigen bzw. opaken Hintergrund dargestellt werden. Weiterhin ist es für den Benutzer einfacher, die abzutastende Anatomie aufzu­ finden, ohne die Geschwindigkeitseignung abschalten zu müs­ sen.The advantage of displaying anatomical data in the B-mode along with speed data is that it provides more useful information to the user than if the speed data with an opaque or opaque background. Furthermore it is easier for the user to open the anatomy to be scanned find without having to switch off the speed suitability sen.

Die vorliegende Erfindung ist in einem Ultraschall-Bildge­ bungssystem eingebaut, das aus vier hauptsächlichen Untersy­ stemen besteht: einem Bündelformer 2 (vgl. Fig. 1), einem Prozessor-Subsystem 4, einer Abtastkonverter/Displaysteuerung 6 sowie einer Hauptsteuerung 8. Die Systemsteuerung erfolgt zentral in der Hauptsteuerung 8, welche die Bedienereingaben über eine (nicht gezeigte) Bedienerschnittstelle empfängt und ihrerseits die verschiedenen Untersysteme steuert. Die Haupt­ steuerung erzeugt ebenfalls für das System die Zeit- und Steuersignale, die über einen Systemsteuerbus 10 sowie einen (nicht gezeigten) Abtaststeuerbus verteilt werden.The present invention is installed in an ultrasound imaging system which consists of four main subsystems: a bundle former 2 (see FIG. 1), a processor subsystem 4 , a scan converter / display controller 6 and a main controller 8 . The system control takes place centrally in the main control 8 , which receives the operator inputs via an operator interface (not shown) and in turn controls the various subsystems. The main controller also generates for the system the timing and control signals which are distributed over a system control bus 10 and a scan control bus (not shown).

Der Hauptdatenpfad beginnt mit den digitalisierten HF Eingän­ gen von dem Wandler an den Strahl- bzw. Bündelformer. Der Bündelformer gibt zwei aufsummierte, digitale Empfangsbündel im Basisband aus. Die Basisbanddaten werden als Eingang an den B-Mode-Prozessor 4A und den Farbströmungsprozessor 4B gegeben, wo sie entsprechend dem Datenerfassungsmodus prozes­ siert und als prozessierte akustische Vektor-(Bündel-)Daten an den Abtastkonverter/Displayprozessor 6 ausgegeben werden. Der Abtastkonverter/Displayprozessor 6 nimmt die prozessier­ ten akustischen Daten auf und gibt die Video-Displaysignale für die Abbildung in einem Rastercan-Format an einen Farbmo­ nitor 12 aus. Die Abtastkonverter/Displaysteuerung 6 forma­ tiert weiterhin in Zusammenarbeit mit der Hauptsteuerung 8 mehrfache Bilder zum Display, für Display-Anmerkungen, grafi­ sche Auflagen (overlays) sowie für eine Wiedergabe von Film­ schleifen und aufgezeichneten Zeitliniendaten. The main data path begins with the digitized RF inputs from the converter to the beam or bundle former. The bundle shaper outputs two total digital reception bundles in the baseband. The baseband data are given as input to the B-mode processor 4 A and the color flow processor 4 B, where they are processed in accordance with the data acquisition mode and are output as processed acoustic vector (bundle) data to the scan converter / display processor 6 . The scan converter / display processor 6 takes the processed acoustic data and outputs the video display signals for imaging in a raster scan format to a color monitor 12 . The scan converter / display controller 6 continues to formatted 8 in cooperation with the main controller 8 multiple images to the display, for display annotations, graphic editions (overlays) and for a playback of film loops and recorded timeline data.

Der B-Mode-Prozessor 4A konvertiert die Basisbanddaten von dem Bündelformer in eine logarithmisch komprimierte Version der Signaleinhüllenden. Die B-Funktion bildet die zeitvaria­ ble Amplitude der Einhüllenden des Signals als eine Grauskala unter Verwendung eines 8-Bit Ausgangs für jedes Pixel ab. Die Einhüllende eines Basisbandsignals ist die Größe des Vektors, der die Basisbanddaten repräsentiert.The B-mode processor 4 A converts the baseband data from the bundle shaper into a logarithmically compressed version of the signal envelope. The B function maps the time-varying amplitude of the envelope of the signal as a gray scale using an 8-bit output for each pixel. The envelope of a baseband signal is the size of the vector that represents the baseband data.

Die Frequenz der von der Innenseite von Blutgefäßen, Herzkam­ mern usw. reflektierten Schallwellen wird proportional zu der Geschwindigkeit der Blutzellen verschoben, und zwar in posi­ tiver Richtung für sich auf den Wandler zu bewegende Zellen und in negativer Richtung für die sich davon weg bewegende Zellen. Der Farbströmungs(CF)-Prozessor 4B wird benutzt, um eine zweidimensionale Echtzeit-Abbildung der Blutgeschwindig­ keit in der Abbildungsebene vorzusehen. Die Blutgeschwindig­ keit wird errechnet durch Messung der Phasenverschiebung zwischen zwei Aktivierungen (firing) bei einem spezifischen Entfernungstor (range gate). Statt einer Messung des Doppler­ spektrums bei einem Entfernungstor in der Abbildung werden die Blutgeschwindigkeit von mehreren Vektorpositionen sowie mehrere Entfernungstore längs jedes Vektors berechnet, und aus dieser Information wird eine zweidimensionale Abbildung erstellt. In speziellerer Hinsicht erzeugt der Farbströmungs­ prozessor Geschwindigkeitssignale (8 Bits), Varianz- (Turbulenz-) Signale (4 Bits) sowie Energie- bzw. Powersigna­ le (8 Bits). Der Aufbau und die Arbeitsweise eines Farbströ­ mungsprozessors sind beschrieben im US-Patent No. 5,524,629 dessen Inhalt hier durch Bezugnahme eingefügt wird. Der Bediener wählt aus, ob die Geschwindigkeit und Varianz oder die Energie an den Abtastkonverter ausgegeben werden. Das Ausgangssignal wird als Eingang für eine in dem Videoprozes­ sor 22 enthaltene Nachschlagetabelle für die Chrominanz- bzw. Buntsteuerung gegeben. Jede Adresse in der Nachschlagetabelle speichert 24 Bits. Für jedes Pixel in dem herzustellenden Bild steuern 8 Bits die Rot-Intensität, 8 Bits steuern die Grün-Intensität und 8 Bits steuern die Blau-Intensität. Diese Bit-Muster werden derart vorgewählt, daß sich mit Richtungs- oder Größenänderungen der Strömungsgeschwindigkeit die Farbe des Pixels an jeder Stelle ändert. Beispielsweise wird eine Strömung auf den Wandler zu als rot angezeigt, und eine Strömung vom Wandler weg wird als blau angezeigt. Je schnel­ ler die Strömung ist, desto heller ist die Farbe.The frequency of the sound waves reflected from the inside of blood vessels, cardiac chambers, etc. is shifted in proportion to the speed of the blood cells, in a positive direction for cells to be moved on the transducer and in a negative direction for cells that move away from them. The color flow (CF) processor 4 B is used to provide a two-dimensional real-time image of the blood speed in the imaging plane. The blood speed is calculated by measuring the phase shift between two activations (firing) at a specific range gate. Instead of measuring the Doppler spectrum at a range gate in the image, the blood velocity of multiple vector positions and multiple range gates along each vector are calculated, and a two-dimensional image is created from this information. In more specific respects, the color flow processor generates speed signals (8 bits), variance (turbulence) signals (4 bits) and energy or power signals (8 bits). The structure and mode of operation of a color flow processor are described in US Pat. 5,524,629, the contents of which are inserted here by reference. The operator selects whether the speed and variance or the energy are output to the scan converter. The output signal is given as an input to a look-up table contained in the video processor 22 for the chrominance or color control. Each address in the lookup table stores 24 bits. For each pixel in the image to be produced, 8 bits control the red intensity, 8 bits control the green intensity and 8 bits control the blue intensity. These bit patterns are preselected such that the color of the pixel changes at every point as the direction or size of the flow velocity changes. For example, a flow toward the transducer is shown as red and a flow away from the transducer is shown as blue. The faster the flow, the lighter the color.

Die akustischen Zeilenspeicher 14A und 14B der Abtastkonver­ ter/Displaysteuerung 6 nehmen jeweils die von den Prozessoren 4A und 4B prozessierten digitalen Daten auf und führen die Koordinatentransformationen der Farbströmungs- und Intensi­ tätsdaten vom Polarkoordinaten- (R-θ) Sektorformat oder vom Cartesischen linearen Koordinatenfeld zu geeignet skalierten Display-Pixeldaten durch, die im X-Y Displayspeicher 18 gespeichert werden. Im B-Mode werden die Intensitätsdaten im X-Y Displayspeicher 18 gespeichert, wobei jede Adresse drei Pixel zu 8 Bit speichert. Alternativ werden im Farbströmungs­ modus die Farbströmungsdaten wie folgt im Speicher gespei­ chert: Intensitätsdaten (8 Bits), Geschwindigkeits- oder Energiedaten (8 Bits) sowie Turbulenzdaten (4 Bits). Eine Vielzahl von aufeinanderfolgenden (Voll-)Bildern (Frames) von Farbströmungs- oder Intensitätsdaten werden im Filmspeicher auf einer First-In/First-Out (FIFO) Basis gespeichert. Der Filmspeicher wirkt als ein im Hintergrund laufender ringför­ miger Bildpufferspeicher, der kontinuierlich auf Bilddaten zugreift, die in Echtzeit für den Benutzer zur Darstellung gebracht werden. Wenn der Benutzer das System "einfriert", hat er die Möglichkeit, zuvor im Filmspeicher eingefangene Bilddaten anzuschauen. Die Grafikdaten für die Herstellung von grafischen Auflagen auf dem dargestellten Bild werden erzeugt und gespeichert in dem Zeitlinien/Grafikprozessor und Displayspeicher 20. Der Videoprozessor 22 schaltet im Multi­ plexbetrieb zwischen den Grafikdaten, den Bilddaten sowie den Zeitliniendaten hin und her, um den endgültigen Videoausgang in einem Rasterabtastformat auf dem Videomonitor 12 zu erzeu­ gen. Zusätzlich sorgt er für verschiedene Grauskala- und Farbkartierungen (maps) sowie für die Verknüpfung der Grau­ skala- und Farbbilder.The acoustic line memories 14 A and 14 B of the sampling converter / display controller 6 each take on the digital data processed by the processors 4 A and 4 B and carry out the coordinate transformations of the color flow and intensity data from the polar coordinate (R-θ) sector format or from Cartesian linear coordinate field to suitably scaled display pixel data, which are stored in the XY display memory 18 . In B mode, the intensity data are stored in the XY display memory 18 , with each address storing three 8-bit pixels. Alternatively, in the color flow mode, the color flow data are stored in the memory as follows: intensity data (8 bits), speed or energy data (8 bits) and turbulence data (4 bits). A large number of successive (full) images (frames) of color flow or intensity data are stored in the film memory on a first-in / first-out (FIFO) basis. The film memory acts as a ring-shaped frame buffer memory running in the background, which continuously accesses image data which are displayed to the user in real time. If the user "freezes" the system, he has the option of viewing image data previously captured in the film memory. The graphic data for the production of graphic editions on the displayed image are generated and stored in the time line / graphic processor and display memory 20 . The video processor 22 switches in multiplex operation between the graphic data, the image data and the time line data to generate the final video output in a raster scan format on the video monitor 12. In addition, it provides for various gray scale and color maps (maps) and for Linking the gray scale and color images.

Das konventionelle Ultraschall-Bildgebungssystem sammelt B-Mode- oder Farbströmungs-Mode-Bilder in einem Filmspeicher 24 auf einer kontinuierlichen Basis. Der Filmspeicher 24 stellt einen residenten digitalen Bildspeicher für Einzelbildbe­ trachtung und für. Mehrfachbildschleifenbetrachtung sowie verschiedene Steuerungsfunktionen zur Verfügung. Das während der Einzelbild-Filmwiedergabe dargestellte interessierende Gebiet ist dabei dasjenige, das während der entsprechenden Bilderfassung benutzt wurde. Der Filmspeicher arbeitet eben­ falls als ein Puffer für die Übertragung von Bildern zu digitalen Archivierungsgeräten über die Hauptsteuerung 8.The conventional ultrasound imaging system collects B-mode or color flow mode images in a film memory 24 on a continuous basis. The film memory 24 provides a resident digital image memory for single image viewing and for. Multiple image loop viewing and various control functions are available. The area of interest shown during single-frame movie playback is the one used during the corresponding image capture. The film memory also works as a buffer for the transfer of images to digital archiving devices via the main controller 8 .

Konventionelle Ultraschall-Scanner erzeugen zweidimensionale B-Mode-Bilder, bei denen die Helligkeit eines Pixels auf der Intensität der Echorückkehr basiert. Bei der Farbströmungs­ bildgebung wird bei einer vorhandenen Bewegung eine Doppler­ verschiebung in dem Rückkehrsignal proportional zu der Ge­ schwindigkeit der Bewegungen erzeugt. Beispielsweise wird in einer Arterie fließendes Blut eine Doppler-Verschiebung erzeu­ gen. Die Doppler-Verschiebung kann unter Verwendung verschie­ dener Farben zur Anzeige der Geschwindigkeit und Richtung der Strömung zur Darstellung gebracht werden. Eine Strömung in Richtung auf den Wandler zu wird typischerweise in rot ge­ zeigt, während eine Strömung weg von dem Wandler in blau gezeigt wird. Bei der Power-Doppler-Bildgebung wird die in dem zurückkommenden Dopplersignal enthaltene Energie zur Darstellung gebracht.Conventional ultrasound scanners produce two-dimensional ones B-mode images where the brightness of a pixel on the Intensity of echo return based. With the color flow Imaging becomes a Doppler with an existing movement shift in the return signal proportional to the Ge speed of movement. For example, in blood flowing to an artery produce a Doppler shift The Doppler shift can shift using whose colors indicate the speed and direction of the Flow to be presented. A current in Direction towards the converter is typically shown in red shows while a flow away from the converter in blue will be shown. In Power Doppler imaging, the in the returning Doppler signal contained energy for Brought representation.

Zweidimensionale Ultraschall-Bilder sind oftmals schwer zu interpretieren aufgrund des Unvermögens des Beobachters, sich die zweidimensionale Darstellung der gerade abgetasteten Anatomie zu veranschaulichen. Wird jedoch die Ultraschallson­ de über einen interessierenden Bereich geführt und werden dabei zweidimensionale Abbildungen zur Formung eines dreidi­ mensionalen Volumens akkumuliert, dann läßt sich die Anatomie viel leichter sowohl für den geübten als auch für den ungeüb­ ten Betrachter vorstellen. Typischerweise werden dreidimen­ sionale Abbildungen von Intensitätsdaten und Farbströmungsge­ schwindigkeits- oder Energiedaten separat zur Darstellung gebracht. Es gibt jedoch viele Gelegenheiten, bei denen beim Darstellen der Geschwindigkeits- oder Energiedaten allein der Betrachter ein Gefühl für die gerade abgebildete Anatomie verliert. Durch eine Kombination von B-Mode-Projektionen mit Projektionen von Farbströmungsgeschwindigkeit- oder Energie­ daten ist es möglich, ein Gefühl für die Anatomie beizube­ halten und gleichzeitig die Geschwindigkeit oder Energie abzubilden. Dies gibt den Betrachter ein Gefühl dafür, wie die mittels der Farbströmungsbildgebung dargestellte Ge­ fäßstruktur (vascularity) mit einem Teil der Anatomie, zum Beispiel einem Tumor oder einer Zyste, zusammenhängen kann.Two-dimensional ultrasound images are often difficult to find interpret because of the observer's inability to the two-dimensional representation of the just scanned To illustrate anatomy. However, the ultrasound en are and are led over an area of interest  two-dimensional images to form a dreidi dimensional volume accumulates, then the anatomy much easier for both the practiced and the inexperienced Introduce the viewer. Typically three-dimen sional images of intensity data and color flow ge Speed or energy data separately for display brought. However, there are many occasions when Representing the speed or energy data alone The viewer has a feeling for the anatomy just shown loses. By combining B-mode projections with Projections of color flow velocity or energy data, it is possible to have a feel for the anatomy maintain while maintaining speed or energy map. This gives the viewer a sense of how the Ge represented by color flow imaging Vascularity with part of the anatomy to Example, a tumor or a cyst.

Die vorliegende Erfindung gibt ein Verfahren sowie eine Einrichtung an zum dreidimensionalen Abbilden von Ultra­ schalldaten mittels einer Kombination von Projektionen von Intensitätsdaten mit Projektionen von Geschwindigkeits- oder Energiedaten von einem interessierenden Volumen. Die Einrich­ tung weist einen Ultraschall-Scanner auf, der B-Mode- oder Farbströmungs-Mode-Bilder in einem Filmspeicher auf einer kontinuierlichen Basis oder als Reaktion auf einen äußeren Triggervorgang sammelt, d. h. für mehrere Schnitte (Slices). Die Daten von einem jeweiligen interessierenden Gebiet für jeden Schnitt werden zu einer Hauptsteuerung gesandt, wobei derartige Daten ein interessierendes Volumen bilden. Die Hauptsteuerung führt einen Algorithmus aus, der die Daten in dem interessierenden Volumen auf mehrere gedrehte Bildebenen projiziert, und zwar unter Verwendung einer Strahlwurf- (ray­ casting) Technik. Die kombinierten Intensitäts- und Geschwin­ digkeits- oder Energiedaten für jede Projektion werden ge­ speichert, als Option mit dem Teil des außerhalb des interes­ sierenden Bereichs liegenden letzten Hintergrundbildes, in einem separaten Bild (frame) in dem Filmspeicher. Diese rekonstruierten Bilder werden sodann selektiv von dem System­ bediener zur Anzeige gebracht. Die Darstellung von unter verschiedenen Winkeln genommenen aufeinanderfolgenden Projek­ tionen, als einzelne Darstellung oder in einer Schleife, gibt dem Betrachter ein Gefühl dafür, wie die durch Geschwindig­ keits- oder Energiedaten repräsentierte Gefäßstruktur mit einer anatomischen Abnormalität in Verbindung gebracht werden kann, zum Beispiel mit einem Tumor oder einer Zyste.The present invention provides a method and a Device for three-dimensional imaging of Ultra sound data using a combination of projections of Intensity data with projections of speed or Energy data from a volume of interest. The Einrich device has an ultrasound scanner, the B-mode or Color flow fashion images in a film storage on one continuous basis or in response to an external Trigger process collects, d. H. for multiple cuts (slices). The data from a particular area of interest for each cut is sent to a main controller, where such data form a volume of interest. The The main controller executes an algorithm that stores the data in the volume of interest on several rotated image layers projected using a jet (ray casting) technology. The combined intensity and speed Density or energy data for each projection are obtained stores, as an option with the part of the outside of the interest area of the last background image, in  a separate picture (frame) in the film memory. These Reconstructed images are then selectively selected by the system operator displayed. The representation from below successive project taken at different angles tion, as a single representation or in a loop the viewer a sense of how that through speed vascular structure represented with anatomical abnormality can, for example with a tumor or a cyst.

Die Erfindung wird im folgenden anhand von Ausführungsbei­ spielen unter Zuhilfenahme der Zeichnungen näher erläutert. Es zeigen:The invention is described below with reference to exemplary embodiments play explained in more detail with the help of the drawings. Show it:

Fig. 1 ein Blockschaltbild, das die hauptsächlichen funktio­ nalen Subsysteme innerhalb eines Echtzeit-Ultraschall-Bild­ gebungssystems zeigt; Fig. 1 is a block diagram showing the main functional subsystems within a real-time ultrasound imaging system;

Fig. 2 ein Blockschaltbild der Einrichtung zur Rekonstruktion der Bilder enthaltend aufeinanderfolgende volumetrische Projektionen von Intensitäts- und Geschwindigkeits- oder Energiepixeldaten gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung; Fig. 2 is a block diagram of the device for reconstructing the images comprising successive volumetric projections of intensity and velocity or energy pixel data in accordance with a preferred embodiment of the present invention;

Fig. 3 ein Flußdiagramm, das die Schritte eines Algorithmus für die Rekonstruktion der Bilder unter Einschluß von aufein­ anderfolgenden volumetrischen Projektionen von Intensitäts- und Geschwindigkeits- oder Energiepixeldaten gemäß der bevor­ zugten Ausführung der vorliegenden Erfindung zeigt; Fig. 3 is a flowchart of before ferred embodiment of the present invention showing the steps of an algorithm for the reconstruction of the images including of aufein other volumetric projections of intensity and velocity or power data according to pixels;

Fig. 4 eine schematische Darstellung des abgetasteten inter­ essierenden Objektvolumens, ein zugeordnetes Datenvolumen sowie eine Bildprojektionsebene, die in die volumetrische Herstellung einer umgekehrten Strahlwurfprojektion gemäß dem Stand der Technik miteinbezogen ist; FIG. 4 shows a schematic representation of the scanned interesting object volume, an assigned data volume and an image projection plane, which is included in the volumetric production of an inverted beam projection according to the prior art; FIG.

Fig. 5 eine schematische Darstellung, die ein Paar von geome­ trischen zweidimensionalen Konfigurationen entsprechend gleichen Ansichten von Objekt- und Datenvolumen zeigt, und die nützlich ist bei der Definition von notwendigen Skalier­ konstanten bei der dreidimensionalen Ultraschall-Bildgebung; und Fig. 5 is a schematic diagram showing a pair of geometric two-dimensional configurations corresponding to equal views of object and data volumes, and which is useful in defining necessary scaling constants in three-dimensional ultrasound imaging; and

Fig. 6 ein schematisches Blockschaltbild einer Einrichtung zur Lieferung einer Projektion mit maximaler Intensität bei der dreidimensionalen Ultraschall-Bildgebung. Fig. 6 is a schematic block diagram of a device for providing a maximum intensity projection in three-dimensional ultrasound imaging.

Unter Bezugnahme auf Fig. 2 enthält die Hauptsteuerung 8 eine zentrale Verarbeitungseinheit (CPU) 42 und einen Speicher 44 mit wahlfreiem Zugriff. Die CPU 42 weist einen darin angeord­ neten Nur-Lese-Speicher (ROM) zum Speichern der Routinen auf, die für die Umsetzung der ermittelten Daten des Intensitäts­ volumens sowie der Geschwindigkeits- oder Energiedaten in eine Vielzahl von dreidimensionalen unter verschiedenen Winkeln genommenen Projektionsbildern benutzt werden. Die CPU 42 steuert den XY-Speicher 18 und den Filmspeicher 24 über den Systemsteuerbus 10. Insbesondere steuert die CPU 42 den Datenfluß von dem XY-Speicher 18 zum Videoprozessor 22 und zum Filmspeicher 24 sowie von dem Filmspeicher zum Videopro­ zessor 22 und zur CPU 42 selbst. Wenn das Ultraschall-Bild­ gebungssystem im Farbströmungsmodus arbeitet, wird jedes (Voll-)Bild (Frame) von Farbströmungsdaten, das einen von mehreren Scans oder Schnitten durch das untersuchte Objekt repräsentiert, in dem XY-Speicher 18 gespeichert und im nächsten Zyklus zum Videoprozessor 22 sowie zum Filmspeicher 24 übertragen. Ein das abgetastete Objektvolumen repräsentie­ render Stapel von Bildern wird im Abschnitt 24A des Filmspei­ chers 24 gespeichert. Während der Initialisierung (vgl. Schritt 26 in Fig. 3) holt die CPU 42 vom Abschnitt 24A des Filmspeichers lediglich die einem interessierenden Objektvo­ lumen entsprechenden Farbströmungsdaten. Dies wird bewerk­ stelligt, indem man lediglich die Farbströmungsdaten in einem interessierenden Gebiet von jedem gespeicherten Bild holt, das von irgendeinem Scan gewonnen wurde, der das interessie­ rende Volumen geschnitten hatte. Mit anderen Worten, die dem interessierenden Gebiet entsprechenden Farbströmungsdaten von jedem einen Bild eines Stapels von aufeinanderfolgenden Bildern bilden ein interessierendes Quelldatenvolumen.Referring to FIG. 2, the main controller 8 includes a central processing unit (CPU) 42 and a random access memory 44 . The CPU 42 has a read-only memory (ROM) arranged therein for storing the routines which are used for converting the determined data of the intensity volume and the speed or energy data into a multiplicity of three-dimensional projection images taken at different angles . The CPU 42 controls the XY memory 18 and the film memory 24 via the system control bus 10 . In particular, CPU 42 controls the flow of data from XY memory 18 to video processor 22 and film memory 24, and from film memory to video processor 22 and CPU 42 itself. When the ultrasound imaging system is operating in color flow mode, each (full) Image (frame) of color flow data, which represents one of several scans or sections through the examined object, stored in the XY memory 18 and transferred to the video processor 22 and the film memory 24 in the next cycle. A stack of images representing the scanned object volume is stored in section 24 A of the film memory 24 . During the initialization (cf. step 26 in FIG. 3), the CPU 42 only fetches from the section 24 A of the film memory the color flow data corresponding to an object volume of interest. This is accomplished by simply fetching the color flow data in an area of interest from any stored image obtained from any scan that cut the volume of interest. In other words, the color flow data corresponding to the area of interest from each one image of a stack of successive images form a source data volume of interest.

Wie aus Fig. 3 zu ersehen ist, werden die Intensitätsdaten in dem dem interessierenden Objektvolumen entsprechenden Pixel­ datensatz vor der Projektion als Option gefiltert (Schritt 28), um Fleckenrauschen (Speckle Rauschen) zu glätten und Artefakte zu reduzieren. Dies vermeidet während der Projekti­ on den Verlust von Daten aufgrund von Maserungsrauschen. Beispielsweise erzeugen Blutgefäße weniger Echo als das umgebende Gewebe. Gefäße können deshalb unter Einsatz von Projektionen mit minimaler Intensität abgebildet werden. Alternativ werden im Umkehrvideo/Minimum-Mode die Intensi­ tätsdaten invertiert, um die Gefäße hell anstatt dunkel zu machen. Die Gefäße können dann unter Einsatz von Projektionen mit maximaler Intensität abgebildet werden. Um die Auswahl von maximalen Intensitäten, die helle Flecken im Gegensatz zu den gewünschten Pixeldaten sind, zu verhindern, kann vor der Projektion ein Filter zur Beseitigung solcher hellen Fleckin­ tensitäten benutzt werden. Das aus dem Filmspeicher 24 (vgl. Fig. 2) geholte Quelldatenvolumen kann von der CPU 42 gefil­ tert werden, indem man beispielsweise ein 3×3 Faltungsfil­ ter mit einem 111 141 111 Kernel benutzt, d. h. das zentrale Pixel der Intensitätsdaten in jedem 3×3 Pixelarray in jedem Schnitt oder Bild wird ersetzt durch einen Intensitätswert, der proportional ist zu der Summe aus dem vierfachen Wert des zentralen Pixels plus der Summe aus den Werten der acht dieses Pixel umgebenden Pixel. Das gefilterte Quelldatenvolu­ men wird sodann im Speicher 44 abgespeichert (Schritt 30). In ähnlicher Weise kann ein Faltungsfilter benutzt werden, um schwarze Löcher in einem Bild vor der Projektion mit minima­ ler Intensität zu entfernen. As can be seen from FIG. 3, the intensity data in the pixel data set corresponding to the object volume of interest are filtered as an option before the projection (step 28 ) in order to smooth speckle noise and to reduce artifacts. This avoids loss of data due to grain noise during projection. For example, blood vessels generate less echo than the surrounding tissue. Vessels can therefore be imaged using projections with minimal intensity. Alternatively, the intensity data is inverted in reverse video / minimum mode in order to make the vessels light instead of dark. The vessels can then be imaged at maximum intensity using projections. In order to prevent the selection of maximum intensities, which are light spots in contrast to the desired pixel data, a filter for eliminating such bright spot intensities can be used before the projection. The source data volume fetched from the film memory 24 (cf. FIG. 2) can be filtered by the CPU 42 , for example by using a 3 × 3 convolution filter with a 111 141 111 kernel, ie the central pixel of the intensity data in every 3 × 3 pixel array in each section or image is replaced by an intensity value which is proportional to the sum of four times the value of the central pixel plus the sum of the values of the eight pixels surrounding this pixel. The filtered source data volume is then stored in memory 44 (step 30 ). Similarly, a convolution filter can be used to remove black holes in an image prior to projection with minimal intensity.

Als nächstes führt die CPU 42 unter Verwendung des im US-Patent No. 5,226,113 beschriebenen Strahlwurf-Algorithmus (ray casting algorithm) eine Reihe von Transformationen durch. Die aufeinanderfolgenden Transformationen repräsentie­ ren Projektionen mit maximaler, minimaler oder durchschnitt­ licher Intensität, Geschwindigkeits- oder Energieprojektio­ nen, die unter winkelmäßigen Inkrementen, beispielsweise in Intervallen von 10°, innerhalb eines Winkelbereichs, z. B. von +90° bis -90°, vorgenommen werden. Die Winkelinkremente müssen jedoch nicht 10° sein; auch ist die Erfindung nicht auf einen bestimmten Winkelbereich begrenzt.Next, the CPU 42 performs using the method described in U.S. Patent No. 5,226,113 described ray casting algorithm a series of transformations. The successive transformations represent projections with maximum, minimum or average intensity, speed or energy projections, which are performed at angular increments, for example at intervals of 10 °, within an angular range, e.g. B. from + 90 ° to -90 °. However, the angle increments do not have to be 10 °; the invention is also not limited to a specific angular range.

In Übereinstimmung mit der bei der vorliegenden Erfindung angewandten Strahlwurftechnik werden die volumetrisch ange­ legten Projektionsbilder einer Probe 50 (vgl. Fig. 4) unter irgendeinem willkürlichen Betrachtungswinkel zur Anzeige gebracht, z. B. einem sphärischen Projektionswinkel, der durch die Winkelparameter (θ, Φ) bezeichnet wird, wobei θ der Winkel ist, den eine Verlängerung 58' eines Betrachtungs­ strahls 58 auf der X-Y Ebene bildet, und wobei Φ der Winkel des Strahls 58 bezogen auf die Verlängerung 58' ist, und zwar beim Scannen eines Objektvolumens 52 mittels eines Ultra­ schallwandlers. Das Samplevolumen 52 wird in einer derartigen Weise abgetastet, daß man eine Folge von geschichteten be­ nachbarten Schnitten (slices) oder Scheiben OS1, OS2 . . ., OSk erzeugt, von denen jede dieselbe Anzahl von Objektvolumenele­ menten (voxels) OV enthält. Jedes Voxel besitzt ein rechtec­ kiges Profil in der Scheibenebene (z. B. in der X-Y Ebene); während die komplementären Seiten von gleicher Länge S sein können, so daß dieses Profil ein Quadrat sein kann, ist die Scheibendicke T im allgemeinen nicht gleich mit der Länge von jeder Seite. Somit enthält der erste Objektschnitt OS1 eine erste Anzahl von Objektvoxel OVij,1, wobei i und j die jewei­ ligen Positionen des Voxels auf der X-Achse und auf der Y-Achse sind. In gleicher Weise enthält der zweite Objekt­ schnitt OS2 Objektvoxel OVij,2. Ein willkürlicher Objekt­ schnitt OSk enthält Voxel OVij,k, wobei k die Position dieses Voxels auf der Z-Achse bedeutet.In accordance with the jet throwing technique used in the present invention, the volumetric projection images of a sample 50 (see FIG. 4) are displayed from any arbitrary viewing angle, e.g. B. a spherical projection angle, which is denoted by the angle parameters (θ, Φ), where θ is the angle that an extension 58 'of a viewing beam 58 forms on the XY plane, and where Φ is the angle of the beam 58 with respect to the Extension 58 'is, namely when scanning an object volume 52 by means of an ultrasonic transducer. The sample volume 52 is scanned in such a way that a sequence of layered adjacent cuts (slices) or slices OS 1 , OS 2 . . ., OS k generates, each of which contains the same number of object volume elements (voxels) OV. Each voxel has a rectangular profile in the slice plane (e.g. in the XY plane); while the complementary sides can be of equal length S so that this profile can be a square, the slice thickness T is generally not equal to the length of each side. Thus, the first object section OS 1 contains a first number of object voxels OV ij, 1 , where i and j are the respective positions of the voxels on the X-axis and on the Y-axis. In the same way, the second object section OS 2 contains object voxels OV ij, 2 . An arbitrary object section OS k contains voxels OV ij, k , where k means the position of this voxel on the Z axis.

Jedes Objektvoxel OVij,k wird analysiert und sein Datenwert (Intensität, Geschwindigkeit oder Energie) wird in ein ent­ sprechendes Datenvoxel DVij,k eines Datenvolumens 54 plaziert. Das Datenvolumen 54 ist ein einfaches kubisches i, j, k Gitter, obwohl die Dicke eines jeden Objektschnitts OSk und jede Flächengröße eines Objektvoxels (die Größe des Voxels in der X-Y Ebene) im allgemeinen nicht dieselbe sein werden. Das bedeutet, es kann nicht nur das Objektvolumen unterschiedli­ che Dimensionen X, Y und Z für jedes Voxel aufweisen, sondern es braucht auch die insgesamte Anzahl von Voxel in irgendei­ ner Dimension nicht dieselbe zu sein. Beispielsweise kann ein typischer dreidimensionaler Ultraschall-Scan jeden Schnitt mit einer 256×256 Voxel enthaltenden Matrix liefern und 128 Schnitte betreffen.Each object voxel OV ij, k is analyzed and its data value (intensity, speed or energy) is placed in a corresponding data voxel DV ij, k of a data volume 54 . The data volume 54 is a simple cubic i, j, k grid, although the thickness of each object slice OS k and each area size of an object voxel (the size of the voxel in the XY plane) will generally not be the same. This means that not only can the object volume have different dimensions X, Y and Z for each voxel, but the total number of voxels in any dimension need not be the same. For example, a typical three-dimensional ultrasound scan can provide each slice with a matrix containing 256 x 256 voxels and affect 128 slices.

Gemäß einer von der CPU 42 angewandten bekannten Technik wird ein Bild des Objekts 50 projiziert (Schritt 34 in Fig. 3) durch Projektion eines Strahls von einem Gitterpunkt im Datenvoxel DVij,k in Richtung auf die Bildebene 56. Der Ein­ fachheit halber kann der Gitterpunkt beispielsweise die am nächsten an dem Datenvolumenursprung liegende Datenvoxelspit­ ze sein. Der Projektionsstrahl 62 tritt aus dem Datenvolumen 54 unter einem Projektionswinkel mit sphärischen Winkelpara­ metern (α, β) aus, die aus den sphärischen Winkelparametern (θ, Φ) transformiert wurden, unter denen das Objektvolumen 52 betrachtet wird. Diese beiden Winkel sind nicht gleich, und zwar aufgrund der geometrischen Verzerrung, die durch die Benutzung eines kubischen Datenvolumens 54 zusammen mit einem nicht-kubischen Objektvolumen 52 verursacht wird. Der proji­ zierte Strahl 62 weist jedoch eine Verlängerung 62' in der x- y Ebene auf, die einen Winkel α mit Bezug auf die x- Achse des Datenvolumens bildet, und der Strahl 62 bildet einen Winkel β mit der Z Achse. Somit werden die Winkel α und β bestimmt durch einen (nachfolgend zu beschreibenden) Rota­ tionsprozeß, um der Betrachtung des Objektvolumens 52 unter dem gewünschten Betrachtungswinkel (θ, Φ) zu entsprechen (unter der Annahme eines Betriebs mit sphärischen Koordina­ ten). Jeder der Strahlen 62 wird von dem Voxel-Gitterpunkt des Datenvolumens in Richtung auf die Bildebene projiziert.According to a known technique used by the CPU 42 , an image of the object 50 is projected (step 34 in FIG. 3) by projecting a beam from a grid point in the data voxel DV ij, k towards the image plane 56 . For the sake of simplicity, the grid point can be, for example, the data voxel peak closest to the data volume origin. The projection beam 62 emerges from the data volume 54 at a projection angle with spherical angular parameters (α, β) which have been transformed from the spherical angular parameters (θ, Φ) under which the object volume 52 is viewed. These two angles are not the same because of the geometric distortion caused by using a cubic data volume 54 together with a non-cubic object volume 52 . However, the projected beam 62 has an extension 62 'in the xy plane that forms an angle α with respect to the x axis of the data volume, and the beam 62 forms an angle β with the Z axis. Thus, the angles α and β are determined by a rotation process (to be described later) to correspond to viewing the object volume 52 at the desired viewing angle (θ, Φ) (assuming operation with spherical coordinates). Each of the rays 62 is projected from the voxel grid point of the data volume toward the image plane.

Obwohl alle Strahlen 62 auf irgendeinen Bereich der Bildebene auftreffen, wird nur den in das betrachtete Bildebenenpixel 60a fallenden Strahlen erlaubt, zu den Daten für dieses Bildebenenpixel beizutragen. Hat man somit einen Teil des Objektvolumens 52 zur Betrachtung ausgewählt sowie einen Betrachtungswinkel (θ, Φ), unter dem dieses ausgewählte Objektvolumen betrachtet werden soll, wird der Datenwert in jedem Voxel des entsprechenden Teils von dem Datenvolumen unter einem Winkel (α, β) (entsprechend der Betrachtung des verzerrten Datenvolumens mit Bezug auf das Objektvolumen) in Richtung auf die Bildebene 56 projiziert. Der Datenwert in einem ersten Voxel (zum Beispiel Voxel DVi,1,k), wird somit in Übereinstimmung mit den gewählten Werten θ und Φ entlang dem Strahl 62a rückprojiziert. Dieser Strahl 62a trifft bei einer Position 64a innerhalb des Pixels 60a auf die Bildebene 56 auf, und weil dies der erste auf dieses Pixel auftreffende Strahl ist, wird der Intensitäts-, Geschwindigkeits- oder Energiewert des auftreffenden Strahls dem gewünschten Pixel 60a zugeteilt (bzw. darin gespeichert). Das nächste Voxel in dem Datenvolumen (z. B. Voxel DVi,2,k) hat seinen zugehörigen Strahl 62b unter derselben winkelmäßigen (α, β) Konfiguration vom Voxel-Gitterpunkt projiziert, und seine Position 64b auf der Bildebene 56 wird festgehalten. Unter der Annahme, daß diese Auftreffposition 64b im gewünschten Pixel 60a liegt, wird der zweite projizierte Wert (für eine Maximalpixelpro­ jektion) mit dem nun gespeicherten ersten Wert verglichen, und es wird der größere Wert im Speicher für das Pixel 60a plaziert. Es wird verständlich sein, daß für eine Projektion mit einem Durchschnittswert der Wert eines laufenden proji­ zierten Datenvoxels zu der bereits gespeicherten Summe für das Bildfeldpixel (image panel pixel), auf das der Projekti­ onsstrahl auftrifft, hinzuaddiert wird, und die Summe schließlich durch eine gezählte Anzahl von solchen auftref­ fenden Strahlen für dieses Pixel geteilt wird. Da jedes Voxel in dem ausgewählten Datenvolumen sequentiell eingegeben und in Richtung auf die Bildebene 56 projiziert wird, wird schließlich ein Datenvolumenvoxel (z. B. Voxel DVi,3,k) ent­ lang seinem zugehörigen Strahl 62p projiziert und trifft nicht innerhalb des gewünschten Pixels 60a auf, so daß sein Datenwert (z. B. die Intensität) nicht mit dem gegenwärtig für das Pixel 60a gespeicherten Datenwert verglichen wird. Es wird nun für diese Projektion von Daten bei dem bestimmten (θ, Φ) dreidimensionalen Betrachtungswinkel der maximale Datenwert für das Pixel 60a festgelegt. Tatsächlich weist der Strahl 62p jedoch einen Auftreffpunkt 64p auf, der in ein anderes Pixel (z. B. Pixel 60b) der Bildebene fällt; er wird mit dem darin gespeicherten Datenwert verglichen und der nach dem Vergleich sich ergebende größere Wert wird in den Spei­ cher für dieses Pixel zurückgeführt. Alle Datenwerte werden auf Null zurückgesetzt, wenn eine neue Projektion erfolgen soll. Somit wird jedes der Pixel der Bildebene beim Start einer Bildprojektionsprozedur rückgesetzt, und alle Datenvo­ lumenvoxel (in dem gesamten Raum oder in dem ausgewählten Teil, wie durch den Teil des ausgewählten Objektvolumens 52 festgelegt) werden einzeln und sequentiell abgetastet. Der Datenwert in jeden Datenvoxel DV wird durch einen zugeordne­ ten Strahl 62 so projiziert, daß er in einem Pixel 60 davon auf die Bildebene 56 auftrifft, wobei der Maximalwert in jedem Pixel mit dem gegenwärtigen Wert des strahlprojizierten Datenvolumenvoxels verglichen wird, um den größeren davon zu bestimmen, welcher größere Wert sodann als Teil des Maximal­ wertbildes gespeichert wird. In der Praxis wird für eine maximale Pixelprojektion der gespeicherte Maximalwert ledig­ lich dann verändert, wenn der neuerliche Wert des projizier­ ten Datenvoxels größer ist als der bereits für das Bildebe­ nenpixel gespeicherte Datenwert, auf den der neuerliche Projektionsstrahl auftrifft.Although all rays 62 impinge on any area of the image plane is only a falling beams allowed in the observed image plane pixel 60 to contribute to the data for that image plane pixel. Thus, once a part of the object volume 52 has been selected for viewing and a viewing angle (θ, Φ) at which this selected object volume is to be viewed, the data value in each voxel of the corresponding part is taken from the data volume at an angle (α, β) ( corresponding to the observation of the distorted data volume with reference to the object volume) projected in the direction of the image plane 56 . The data value in a first voxel (for example voxel DV i, 1, k ) is thus back-projected along the beam 62 a in accordance with the selected values θ and Φ. This beam 62 a strikes the image plane 56 at a position 64 a within the pixel 60 a, and because this is the first beam incident on this pixel, the intensity, speed or energy value of the impinging beam becomes the desired pixel 60 a allocated (or stored in). The next voxel in the data volume (e.g. voxel DV i, 2, k ) has its associated beam 62 b projected from the voxel grid point under the same angular (α, β) configuration and its position 64 b on the image plane 56 captured. Assuming that this impact position 64 b lies in the desired pixel 60 a, the second projected value (for a maximum pixel projection) is compared with the now stored first value, and the larger value is placed in the memory for the pixel 60 a. It will be understood that for a projection with an average value, the value of a current projected data voxel is added to the already stored sum for the image panel pixel that the projection beam strikes, and the sum is finally added by a count Number of such incident rays for this pixel is divided. Since each voxel in the selected data volume is entered sequentially and projected towards the image plane 56 , a data volume voxel (e.g. voxel DV i, 3, k ) is ultimately projected along its associated beam 62 p and does not hit within the desired one 60 a pixel, so that its data value (eg. as the intensity) does not match the current for the pixel 60 a stored data value is compared. The maximum data value for the pixel 60 a is now determined for this projection of data at the determined (θ, Φ) three-dimensional viewing angle. In fact, however, the beam 62 p has an impingement point 64 p that falls into another pixel (eg pixel 60 b) of the image plane; it is compared with the data value stored therein and the larger value resulting after the comparison is fed back into the memory for this pixel. All data values are reset to zero when a new projection is to be made. Thus, each of the pixels of the image plane is reset at the start of an image projection procedure, and all data volume voxels (in the entire room or in the selected part as determined by the part of the selected object volume 52 ) are scanned individually and sequentially. The data value in each data voxel DV is projected by an associated beam 62 to impinge on the image plane 56 in a pixel 60 thereof, the maximum value in each pixel being compared to the current value of the beam projected data volume voxel to determine the larger one determine which larger value is then saved as part of the maximum value image. In practice, for a maximum pixel projection, the stored maximum value is only changed when the new value of the projected data voxel is greater than the data value already stored for the image plane pixel on which the new projection beam impinges.

Gemäß einem anderen Aspekt der obigen Technik wird die Daten­ projektion (im Schritt 36 in Figur. 3) skaliert und es wird eine etwaige Anisotropie zwischen dem Objektvolumen und der Bildebene durch lediglich einen einzigen Satz von Berechnun­ gen beseitigt, nachdem die Rückprojektion abgeschlossen ist. Es wird nun auf Fig. 5 Bezug genommen. Da es sich bei dem Objektvolumen 52 um ein reales Volumen handelt, während es sich bei dem Datenvolumen 54 um ein abstraktes Konzept han­ delt, ist es nötig, den Betrag der Verzerrung der Projekti­ onsdaten aufgrund der Darstellung des kubischen Datenvolumen­ gitters 54 unter einem unterschiedlichen Winkel γ in einer ersten Ebene zu bestimmen und sodann den Winkel ψ, unter dem eine willkürliche Betrachtungsrichtung 66 mit Bezug sowohl auf das Objektvolumen 52 als auch auf das Datenvolumen 54 positioniert wird. Die offenbaren Dimensionen von jedem Voxel werden sich in dem Maße ändern, wie sich die effektiven Erhebungswinkel ψ und γ ändern. Wenn das Aspektverhältnis A (definiert als das Verhältnis der tatsächlichen Scheibendicke T im Objektvolumen 52 zur tatsächlichen Pixelgröße S in demselben Objektvolumen 52) nicht eins beträgt (d. h. größer oder gleich eins ist, da das Objektvoxel kein kubisches Voxel ist, wie man es beim Datenvolumen 54 antrifft), dann werden die Erhebungswinkel ψ und γ verschieden sein, und der effek­ tive Erhebungswinkel ψ im Datenvolumen wird gegenüber dem tatsächlichen Erhebungswinkel γ in dem Objektvolumen unter­ schiedlich sein. Die Rotation der Daten erfolgt gemäß einem Objekterhebungswinkel, der erhalten wird durch:
In another aspect of the above technique, the data projection is scaled (at step 36 in Figure 3) and any anisotropy between the object volume and the image plane is eliminated by only a single set of calculations after the rear projection is complete. Referring now to FIG. 5. Since the object volume 52 is a real volume, while the data volume 54 is an abstract concept, it is necessary to determine the amount of distortion of the projection data due to the representation of the cubic data volume grid 54 at a different angle to determine γ in a first plane and then the angle ψ at which an arbitrary viewing direction 66 is positioned with reference to both the object volume 52 and the data volume 54 . The apparent dimensions of each voxel will change as the effective elevation angles ψ and γ change. If the aspect ratio A (defined as the ratio of the actual slice thickness T in the object volume 52 to the actual pixel size S in the same object volume 52 ) is not one (ie greater than or equal to one, since the object voxel is not a cubic voxel, as is the case with the data volume 54 encountered), then the elevation angle ψ and γ will be different, and the effective elevation angle ψ in the data volume will be different than the actual elevation angle γ in the object volume. The data is rotated according to an object elevation angle obtained by:

Danach können die projizieren Daten so skaliert werden, daß sie (wenn die Drehung um die horizontale Achse erfolgt) die korrekte Höhe in dem Objektvolumen erhalten, und zwar durch eine Multiplikation aller projizierten Datenhöhen mit dem Höhenskalierungsfaktor. Die alte projizierte Bildhöhe H kann mit einem effektiven Skalierungsfaktor Es korrigiert werden, wobei gilt
The projected data can then be scaled to get the correct height in the object volume (when rotating about the horizontal axis) by multiplying all projected data heights by the height scaling factor. The old projected image height H can be corrected with an effective scaling factor E s , whereby

und die neue Höhe H' = H.Es ist. Dasselbe trifft für die Breite zu, wenn die Drehung um die vertikale Achse erfolgt.and the new height H '= HE s . The same applies to the width when the rotation is about the vertical axis.

Unter Verwendung der obigen Beziehung führt die Rotation der Datenvolumenwinkel (α, β) zu den Winkeln (θ, Φ), weil die Verzerrung lediglich entlang einer Achse auftritt, so daß der Winkel θ gleich dem Winkel α ist. Die Elemente der 3×3 Rotationsmatrix [M] können bestimmt werden, und bei den gege­ benen zwei in Betracht kommenden Drehungswinkeln werden diese Beziehungen benutzt, um die Transformationen vom Datenvolumen zur Bildebene zu bestimmen:
Using the above relationship, the rotation of the data volume angles (α, β) leads to the angles (θ, Φ) because the distortion occurs only along one axis, so that the angle θ is equal to the angle α. The elements of the 3 × 3 rotation matrix [M] can be determined, and at the given two possible rotation angles, these relationships are used to determine the transformations from the data volume to the image plane:

X' = M1X + M2Y + M3Z + XO
Y' = M4X + M5Y + M6Z + YO
X '= M1X + M2Y + M3Z + XO
Y '= M4X + M5Y + M6Z + YO

wobei M1-M6 die ersten beiden Zeilen der Rotationsmatrix sind (d. h. M1 = -sinθ, M2 = cosθ sinψ, M3 = 0, M4 = -cosθ sinψ2, M5 = -sinθ sinψ und M6 = cosψ), X' und Y' die Posi­ tionen des projizierten Punktes auf der Bildebene sind, und wobei XO und YO die X und die Y Versetzungen (jeweils bezogen auf die niedrigsten X und Y Punktwerte) der Bildebene sind, bei denen der ausgewählte Teil der Bildebene beginnt. Nachdem die Daten auf die Bildebene 56 projiziert sind, wird das Bild zur Korrektur des Effekts der anisotropen Objektvoxel ska­ liert. Es wird ersichtlich sein, daß die Faktoren M1-M6 zu Beginn einer Projektion (bei gegebenen θ und Φ) vorberechnet (Schritt 32 in Fig. 3) und für alle Rotationsberechnungen benutzt werden können.where M1-M6 are the first two rows of the rotation matrix (ie M1 = -sinθ, M2 = cosθ sinψ, M3 = 0, M4 = -cosθ sinψ2, M5 = -sinθ sinψ and M6 = cosψ), X 'and Y' die Positions of the projected point are on the image plane, and where XO and YO are the X and Y offsets (each relative to the lowest X and Y point values) of the image plane at which the selected part of the image plane begins. After the data is projected onto the image plane 56 , the image is scaled to correct the effect of the anisotropic object voxels. It will be seen that the factors M1-M6 are pre-calculated at the beginning of a projection (given θ and Φ) (step 32 in Fig. 3) and can be used for all rotation calculations.

Fig. 6 zeigt eine Einrichtung zur Durchführung der oben beschriebenen Strahlwurftechnik, die in der Hauptsteuerung 8 (oder in einem separaten zugeordneten Prozessor) vorgesehen ist. Eine derartige Einrichtung weist eine dreidimensionale Datenspeichereinrichtung 70 zum Speichern von Schnittdaten auf, wie sie an einem Dateneingang 70a vom Filmspeicher 24 erhalten werden. Die mit jedem Objektvoxel zusammenhängenden Daten werden bei der Adresse des betreffenden Voxels gespei­ chert, und zwar als Reaktion auf eine Eingangsinformation für die Voxeladresse, die an einem Voxeladreßeingang 70b von einer CPU 74 erhalten wird. Sobald die Datenspeichereinrich­ tung gefüllt ist (entsprechend der Übertragung aller erfor­ derlichen Daten vom Objektvolumen 52 zum Datenvolumen 54), wird der interessierende Teil des Objektvolumens ausgewählt, und es werden seine Startecke sowie die Ausdehnung in den X, Y und Z Richtungen festlegende Daten von der CPU 74 an einem Eingang 72a einer Adreßgeneratoreinrichtung 72 gesandt. Die Einrichtung 72 liefert sequentiell an einem Adreßausgang 72b die X, Y und Z Adressen für jedes Voxel innerhalb des ausge­ wählten Objektvolumens. Der Ausgang 72b ist mit einem Aus­ gangsdatenadreßeingang 70c der Datenspeichereinrichtung 70 verbunden, welche veranlaßt, daß die gespeicherten Intensi­ tätsdaten für das betreffende eine sodann adressierte Voxel vom Datenspeicherausgang 70d ausgegeben werden. Die Aufeinan­ derfolge der X, Y und Z Voxeladressen wird ebenfalls an einen ersten Eingang 76a einer Berechnungseinrichtung 76 für die Rotationsparameter gegeben, welche Einrichtung über die CPU 74 die Winkelinformation (α, β) als die berechneten Matrixe­ lementwerte M1-M6 erhält, um an einem Ausgang 76c die Adresse X', Y' des Bildebenenpixel bereitzustellen, das diesem Objektpixel X, Y, Z entspricht, wenn man es unter einem ausgewählten Betrachtungswinkel (θ, Φ) betrachtet. Die Information für den Betrachtungswinkel (θ, Φ) wird in das System eingegeben und von der CPU 74 verarbeitet. Die Ergeb­ nisse werden an die Eingänge 78b und 78c einer Sichtmatrix­ einrichtung 78 gegeben, um Matrixelemente M1-M6 an ihrem Ausgang 78a und damit an der Berechnungseinrichtung 76 für die Drehungsparameter vorzusehen. Die Pixeladresse X', Y' in der Bildebene erscheint an einem Adresseingang 80a eines Bildpufferspeichers, der als eine Bildebenenspeichereinrich­ tung 80 wirkt. Gleichzeitig erscheinen die von dem Datenvolu­ men zur Projektionsebene projizierten Intensitätsdaten vom Ausgang 70d der dreidimensionalen Datenspeichereinrichtung an dem Eingang 80b für neue Daten der Bildebenenspeichereinrich­ tung. Diese Daten erscheinen ebenfalls am Eingang 82a für neue Daten einer Datenvergleichseinrichtung 82. Zuvor in der Bildebenenspeichereinrichtung 80 für diese Adresse gespei­ cherte Intensitätsdaten am Eingang 80a erscheinen an einem Ausgang 80c für alte Daten und damit an einem Eingang 82b für alte Daten in der Vergleichseinrichtung. Die alten und neuen Daten an den jeweiligen Eingängen 82b/82a werden in der Einrichtung 82 verglichen, und ein Ausgang 82c davon wird auf einen ausgewählten logischen Zustand gesetzt (z. B. einen oberen logischen Pegel), wenn die neuen Daten am Eingang 82a eine größere Amplitude aufweisen als die alten Daten am Eingang 82b. Der Ausgang 82c ist mit einem Eingang 80d der Bildebenenspeichereinrichtung für Ersatz-(substitute) Steu­ erdaten verbunden um zu veranlassen, daß die unter der vom Eingang 80a gesteuerten Adresse gespeicherten Daten geändert werden, um neue Daten am Eingang 80b anzunehmen, wenn sich der Steuereingang für die Ersatzdaten 80d auf dem gewählten logischen Pegel befindet. Somit werden die gespeicherten Daten zu Anfang rückgesetzt, wie bei einem Signal durch einen Daten/Steuereingang 80e (von der CPU 74), und es werden die Daten mit dem größten Wert für jede Pixelstelle X', Y' in der Bildebene gespeichert, und zwar als Antwort auf einen Ver­ gleich, der anzeigt, ob die neuen Daten den Wert der zuvor gespeicherten alten Daten übersteigen. Nachdem alle der ausgewählten Adressen sequentiell vom Adreßgenerator 72 abgetastet worden sind, werden die in der Bildebenenspei­ chereinrichtung 80 gespeicherten Daten in der CPU 74 ska­ liert, und die skalierten Bildebenendaten können von der Speichereinrichtung 80 zur Anzeige, zur permanenten Speiche­ rung oder zu ähnlichen Zwecken entnommen werden. FIG. 6 shows a device for performing the jet throwing technique described above, which is provided in the main control 8 (or in a separate assigned processor). Such a device has a three-dimensional data storage device 70 for storing cutting data, as is obtained from the film memory 24 at a data input 70 a. The contiguous with each object voxel data is chert Stored at the address of that voxel, as a response to an input information for the voxel address is received from a CPU 74, the b at a Voxeladreßeingang 70th As soon as the data storage device is filled (corresponding to the transfer of all necessary data from the object volume 52 to the data volume 54 ), the part of the object volume of interest is selected, and its starting corner and the extension in the X, Y and Z directions are determined by the data CPU 74 sent to an input 72 a of an address generator device 72 . The device 72 sequentially delivers at an address output 72 b the X, Y and Z addresses for each voxel within the selected object volume. The output 72 b is connected to an output data address input 70 c of the data storage device 70 , which causes the stored intensity data for the relevant one then addressed voxel to be output from the data storage output 70 d. The Aufeinan said sequence of X, Y and Z Voxeladressen is also given to a first input 76 a of a calculation device 76 for the rotation parameters which means the angle information on the CPU 74 (α, β) than the calculated matrixes lementwerte M1-M6 obtained by to provide at an output 76 c the address X ', Y' of the image plane pixel which corresponds to this object pixel X, Y, Z when viewed from a selected viewing angle (θ, Φ). The information for the viewing angle (θ, Φ) is input to the system and processed by the CPU 74 . The results are given to the inputs 78 b and 78 c of a view matrix device 78 in order to provide matrix elements M1-M6 at their output 78 a and thus at the calculation device 76 for the rotation parameters. The pixel address X ', Y' in image plane appears at an address input 80a of a frame buffer memory, the processing as an image plane spoke pure Rich 80 acts. At the same time, the intensity data projected from the data volume to the projection plane appear from the output 70 d of the three-dimensional data storage device at the input 80 b for new data of the image plane storage device. This data also appears at input 82 a for new data from a data comparison device 82 . Intensity data at the input 80 a previously stored in the image plane memory device 80 for this address appear at an output 80 c for old data and thus at an input 82 b for old data in the comparison device. The old and new data at the respective inputs 82 b / 82 a are compared in the device 82 , and an output 82 c thereof is set to a selected logic state (e.g. an upper logic level) when the new data at Input 82 a have a larger amplitude than the old data at input 82 b. The output 82 c is connected to an input 80 d of the image plane memory device for substitute control data in order to cause the data stored under the address controlled by the input 80 a to be changed in order to accept new data at the input 80 b if the control input for the replacement data 80 d is at the selected logic level. Thus, the stored data is initially reset, as with a signal through a data / control input 80 e (from the CPU 74 ), and the data with the largest value for each pixel location X ', Y' is stored in the image plane, and in response to a comparison that indicates whether the new data exceeds the value of the previously stored old data. After all of the selected addresses have been sequentially sampled by the address generator 72 , the data stored in the image plane storage device 80 is scaled in the CPU 74 and the scaled image plane data can be extracted from the memory device 80 for display, permanent storage, or similar purposes will.

Gemäß einem weiteren Aspekt der Erfindung werden die skalier­ ten Bildebenendaten vor einer Anzeige (Display) kartiert (mapped), um eine gewünschte Helligkeit sowie einen gewünsch­ ten Kontrastbereich zu erzielen (Schritt 38 in Fig. 3) Beim Einlesen des interessierenden Bereichs für die Quellbilder, auf dem die dreidimensionale Rekonstruktion basiert, wird als Option ein Histogramm der Anzahl von Pixel mit einer gegebe­ nen Intensität in der Hauptsteuerung 8 erstellt. Alternativ kann das Histogramm unter Benutzung der projizierten Bilder gebildet werden. Zur selben Zeit wird die maximale Pixelin­ tensität bestimmt. Es werden die Pixel in jedem Bereich (bin) gezählt, bis ein vorgegebener Prozentsatz der insgesamten Anzahl von Pixel erreicht ist. Diese Bereichszahl (bin num­ ber) wird die Pixelschwelle. Es wird sodann eine Karte er­ zeugt, und zwar derart, daß jeder Pixelwert mit der gewünsch­ ten Helligkeit und dem gewünschten Kontrastbereich über oder unter der Pixelschwelle abhängig von dem beabsichtigten Ergebnis kartiert wird.According to a further aspect of the invention, the scaled image plane data is mapped in front of a display in order to achieve a desired brightness and a desired contrast range (step 38 in FIG. 3). When reading in the region of interest for the source images, On which the three-dimensional reconstruction is based, a histogram of the number of pixels with a given intensity is optionally created in the main control 8 . Alternatively, the histogram can be formed using the projected images. The maximum pixel intensity is determined at the same time. The pixels in each area (bin) are counted until a predetermined percentage of the total number of pixels is reached. This area number (bin num ber) becomes the pixel threshold. A map is then created, such that each pixel value is mapped with the desired brightness and contrast range above or below the pixel threshold depending on the intended result.

Das in Fig. 3 gezeigte Verfahren wird separat angewendet auf die B-Mode-Intensitätsdaten sowie die Farbströmungsgeschwin­ digkeits- oder Energiedaten für das interessierende von dem Filmspeicher wiedergegebene Datenvolumen. Jedes Pixel in dem projizierten Bild schließt die transformierten Intensitätsda­ ten und die transformierten Geschwindigkeits- oder Energieda­ ten ein, welche von der Projektion auf eine vorgegebene Bildebene abgeleitet wurden. Zusätzlich speicherte während der Zeit, in welcher der Filmspeicher vom Bediener "eingefroren" war, die CPU 42 das letzte Bild (frame) aus dem XY Speicher 18 unter mehrfachen aufeinanderfolgenden Adressen im Abschnitt 24B des Filmspeichers 24. Die projizierten Bilddaten für den ersten projizierten Betrachtungswinkel werden in die erste Adresse im Filmspeicherabschnitt 24B eingeschrieben, so daß die projizierten Bilddaten in einem interessierenden Bereich dem Hintergrundbild (background frame) überlagert werden. Dieser Prozeß wird für jede Win­ kelzunahme wiederholt bis alle projizierten Bilder im Film­ speicherabschnitt 24B gespeichert sind, wobei jeder proji­ zierte Bildrahmen aus einem interessierenden Gebiet besteht, das transformierte Daten und als Option einen Peripheriehin­ tergrund enthält, der das interessierende Gebiet umgibt und aus Hintergrundbilddaten besteht, die nicht von transformier­ ten Daten aus dem interessierenden Gebiet überschrieben sind. Das Hintergrundbild macht es deutlicher, von wo aus jede zur Darstellung gebrachte Projektion betrachtet wird. Der Bedie­ ner kann dann jedes projizierte Bild für die Darstellung auswählen. Zusätzlich kann die Abfolge der projizierten Bilder erneut auf dem Displaymonitor abgespielt werden, um das Objektvolumen so darzustellen, als wenn es vor dem Be­ trachter rotieren würde.The method shown in FIG. 3 is applied separately to the B-mode intensity data and the color flow velocity or energy data for the data volume of interest reproduced by the film memory. Each pixel in the projected image includes the transformed intensity data and the transformed speed or energy data derived from the projection onto a given image plane. In addition, during the time that the film memory was "frozen" by the operator, the CPU 42 stored the last frame from the XY memory 18 at multiple consecutive addresses in section 24 B of the film memory 24 . The projected image data for the first projected viewing angle is written into the first address in the film storage section 24 B so that the projected image data is superimposed on the background frame in an area of interest. This process is repeated for each Win kelzunahme repeated until all projected images in the film storage section 24 B are stored, each proji ed image frame consists of an area of interest, the transformed data and, optionally containing a Peripheriehin tergrund that surrounds the region of interest from the background image data exists that are not overwritten by transformed data from the area of interest. The background image makes it clearer from where each projection brought to the display is viewed. The operator can then select any projected image for display. In addition, the sequence of the projected images can be replayed on the display monitor to show the object volume as if it were rotating in front of the viewer.

Gemäß einer bevorzugten Ausführung der Erfindung besitzt das Ultraschall-Bildgebungssystem mehrere verschiedene Projekti­ onsmoden. Beispielsweise kann die Projektion Maximalwert- oder Minimalwert-Pixel enthalten. Alternativ kann ein für die Darstellung von Blutgefäßen nützlicher Mode ausgewählt wer­ den, bei dem die Pixeldaten invertiert und dann die Maximal­ werte auf die Bildebene projiziert werden. Gemäß einem weite­ ren Modus kann die Strahlwurftechnik eingesetzt werden, um eine Oberflächenaufbereitung (surface rendering) zu liefern.According to a preferred embodiment of the invention Ultrasound imaging system several different projecti onsmoden. For example, the projection can be maximum or Minimum value pixels included. Alternatively, one for the Representation of blood vessels of useful fashion selected the one in which the pixel data is inverted and then the maximum values are projected onto the image plane. According to a wide In its mode, the jet throwing technique can be used to to provide a surface rendering.

Die vorhergehende bevorzugte Ausführung wurde zum Zwecke der Veranschaulichung beschrieben. Abänderungen und Modifikatio­ nen des Grundkonzepts der Erfindung werden sich unschwer für Fachleute auf dem Gebiet der Ultraschallbildgebung oder der Computergrafik ergeben. Alle derartigen Abänderungen und Modifikationen sollen durch die nachfolgend aufgeführten Ansprüche mitumfaßt werden.The previous preferred embodiment was for the purpose of Illustration described. Modifications and Modifications NEN the basic concept of the invention will be easy for Specialists in the field of ultrasound imaging or  Computer graphics result. All such changes and Modifications are said to be by the following Claims are included.

Claims (18)

1. Einrichtung zur dreidimensionalen Bildgebung eines Ultraschall streuenden Mediums, das sich in einem Objektvolu­ men relativ zu benachbartem Gewebe bewegt, enthaltend:
ein Ultraschall-Wandlerarry zum Aussenden von Ultra­ schall-Bündeln und zum Erfassen von an einer Vielzahl von Sample- bzw. Probevolumen im Objektvolumen reflektierten Ultraschall-Echos;
eine Einrichtung zum Gewinnen von Farbströmungsdaten, die zumindest zum Teil von an dem streuenden Medium reflek­ tierten Ultraschall-Echos abgeleitet sind, wobei jede einzel­ ne Farbströmungsangabe (datum) jeweils einem der vielen Samplevolumen entspricht;
eine Einrichtung zum Gewinnen von Intensitätsdaten, die zumindest zum Teil von an dem Gewebe reflektierten Ultra­ schall-Echos abgeleitet sind, wobei jede einzelne Intensi­ tätsangabe jeweils einem der vielen Samplevolumen entspricht;
eine Speichereinrichtung zum Speichern von Pixeldaten für jedes der vielen Samplevolumen, wobei jede einzelne Pixelangabe eine jeweilige Farbströmungsangabe und eine jeweilige Intensitätsangabe enthält, die einem jeweiligen Samplevolumen entsprechen;
eine Einrichtung zum Wiedergeben eines Pixeldatensatzes aus der Speichereinrichtung, welcher Pixeldatensatz einem interessierenden (Teil-)Volumen in dem Objektvolumen ent­ spricht;
eine Einrichtung zum Projizieren der Farbströmungsdaten sowie der Intensitätsdaten in dem Pixeldatensatz auf eine erste Bildebene, wobei ein Projektionsdatensatz gebildet wird, der ein erstes projiziertes Bild darstellt;
einen Anzeige-bzw. Displaymonitor; und
eine Einrichtung zum Darstellen des ersten projizierten Bildes auf dem Displaymonitor.
1. Device for three-dimensional imaging of an ultrasound-scattering medium which moves in an object volume relative to neighboring tissue, comprising:
an ultrasound transducer array for emitting ultrasound bundles and for detecting ultrasound echoes reflected on a large number of sample or sample volumes in the object volume;
means for obtaining color flow data which are derived at least in part from ultrasound echoes reflected on the scattering medium, each individual color flow indication (date) corresponding to one of the many sample volumes;
a device for obtaining intensity data which are derived at least in part from ultrasound echoes reflected on the tissue, each individual intensity indication corresponding to one of the many sample volumes;
storage means for storing pixel data for each of the many sample volumes, each individual pixel indication containing a respective color flow indication and a respective intensity indication which correspond to a respective sample volume;
means for reproducing a pixel data set from the storage device, which pixel data set corresponds to a (sub) volume of interest in the object volume;
means for projecting the color flow data and the intensity data in the pixel data set onto a first image plane, wherein a projection data set is formed which represents a first projected image;
an advertisement or Display monitor; and
a device for displaying the first projected image on the display monitor.
2. Einrichtung nach Anspruch 1, dadurch gekennzeich­ net, daß jede Farbströmungsangabe Geschwindigkeitsdaten enthält.2. Device according to claim 1, characterized net that every color flow indication speed data contains. 3. Einrichtung nach Anspruch 1 oder 2, dadurch ge­ kennzeichnet, daß jede Farbströmungsangabe Ener­ gie(power)daten enthält.3. Device according to claim 1 or 2, characterized ge indicates that each color flow indication Ener gie (power) data contains. 4. Einrichtung nach einem der vorhergehenden Ansprü­ che, dadurch gekennzeichnet, daß es weiterhin enthält:
eine Einrichtung zum Projizieren der Farbströmungsdaten sowie der Intensitätsdaten in dem Pixeldatensatz auf eine zweite Bildebene, die relativ zu der ersten Bildebene gedreht ist, wobei ein Projektionsdatensatz gebildet wird, der ein zweites projiziertes Bild darstellt; und
eine Einrichtung zum Darstellen des zweiten projizier­ ten Bildes auf dem Displaymonitor.
4. Device according to one of the preceding claims, characterized in that it further contains:
means for projecting the color flow data and the intensity data in the pixel data set onto a second image plane that is rotated relative to the first image plane, wherein a projection data set is formed that represents a second projected image; and
a device for displaying the second projected image on the display monitor.
5. Einrichtung zur dreidimensionalen Bildgebung eines Ultraschall streuenden Mediums, das sich in einem Objektvolu­ men relativ zu benachbartem Gewebe bewegt, enthaltend:
ein Ultraschall-Wandlerarray zum Aussenden von Ultra­ schall-Bündeln und zum Erfassen von Ultraschall-Echos, die in einer Abtastebene reflektiert werden, welche das Objektvolu­ men bei einer Vielzahl von Sample- bzw. Probevolumen in der Abtastebene schneidet;
eine Einrichtung zum Gewinnen von Farbströmungsdaten, die zumindest zum Teil von an dem streuenden Medium reflek­ tierten Ultraschall-Echos abgeleitet sind, wobei jede einzel­ ne Farbströmungsangabe (datum) jeweils einem der vielen Samplevolumen in der Abtastebene entspricht;
eine Einrichtung zum Gewinnen von Intensitätsdaten, die zumindest zum Teil von an dem Gewebe reflektierten Ultra­ schall-Echos abgeleitet sind, wobei jede einzelne Intensi­ tätsangabe jeweils einem der vielen Samplevolumen in der Abtastebene entspricht;
eine erste Speichereinrichtung zum in Echtzeit erfol­ genden Speichern eines (Voll-)Bildes (frame) von Pixeldaten für jede der vielen aufeinanderfolgenden Abtastebenen, wobei jede einzelne Pixelangabe eine jeweilige Farbströmungsangabe und eine jeweilige Intensitätsangabe enthält, die einem jeweiligen Samplevolumen in der Abtastebene entsprechen;
eine zweite Speichereinrichtung zum Speichern einer Vielzahl von Bildern mit Pixeldaten, die aufeinanderfolgend von der ersten Speichereinrichtung ausgegeben werden;
eine Einrichtung zum Wiedergeben eines Pixeldatensatzes aus der zweiten Speichereinrichtung, welcher Pixeldatensatz einem interessierenden (Teil-)Volumen in dem Objektvolumen entspricht;
eine Einrichtung zum Erzeugen einer Vielzahl von Farbströmungsdatensätzen, die jeweilige Projektionen der Farbströmungsdaten in dem Pixeldatensatz auf die entsprechen­ de Vielzahl von Bildebenen darstellen;
eine Einrichtung zum Erzeugen einer Vielzahl von Inten­ sitätsdatensätzen, die jeweilige Projektionen der Intensi­ tätsdaten in dem Pixeldatensatz auf die entsprechende Viel­ zahl von Bildebenen darstellen;
eine Einrichtung zum Speichern der Farbströmungs- und Intensitätsdatensätze in der zweiten Speichereinrichtung;
eine Einrichtung zum Auswählen einer Bildebene aus der Vielzahl von Bildebenen;
einen Anzeige- bzw. Displaymonitor; und
eine Einrichtung zum Darstellen der der ausgewählten Bildebene entsprechenden Farbströmungs- und Intensitätsdaten­ sätze.
5. Device for three-dimensional imaging of an ultrasound-scattering medium which moves in an object volume relative to adjacent tissue, comprising:
an ultrasound transducer array for emitting ultrasound bundles and for detecting ultrasound echoes that are reflected in a scanning plane that intersects the object volume with a large number of sample or sample volumes in the scanning plane;
means for obtaining color flow data which are derived at least in part from ultrasound echoes reflected on the scattering medium, each individual color flow indication (date) corresponding to one of the many sample volumes in the scanning plane;
a device for obtaining intensity data which are derived at least in part from ultrasound echoes reflected on the tissue, each individual intensity indication corresponding to one of the many sample volumes in the scanning plane;
a first storage device for storing in real time a (full) image (frame) of pixel data for each of the many successive scanning planes, each individual pixel specification containing a respective color flow specification and a respective intensity specification which correspond to a respective sample volume in the scanning plane;
second storage means for storing a plurality of images with pixel data successively output from the first storage means;
means for reproducing a pixel data record from the second storage device, which pixel data record corresponds to a (sub) volume of interest in the object volume;
means for generating a plurality of color flow data sets representing respective projections of the color flow data in the pixel data set onto the corresponding plurality of image planes;
means for generating a plurality of intensity data sets which represent respective projections of the intensity data in the pixel data set onto the corresponding number of image planes;
means for storing the color flow and intensity data sets in the second storage means;
means for selecting an image plane from the plurality of image planes;
a display monitor; and
means for displaying the color flow and intensity data corresponding to the selected image plane.
6. Einrichtung nach Anspruch 5, dadurch gekennzeich­ net, daß jede Farbströmungsangabe Geschwindigkeitsdaten enthält. 6. Device according to claim 5, characterized net that every color flow indication speed data contains.   7. Einrichtung nach Anspruch 5 oder 6, dadurch ge­ kennzeichnet, daß jede Farbströmungsangabe Ener­ gie(power)daten enthält.7. Device according to claim 5 or 6, characterized ge indicates that each color flow indication Ener gie (power) data contains. 8. Verfahren zur dreidimensionalen Bildgebung eines Ultraschall streuenden Mediums, das sich in einem Objektvolu­ men relativ zu benachbartem Gewebe bewegt, dadurch gekenn­ zeichnet, daß es die folgenden Schritte enthält:
Aussenden von Ultraschall-Bündeln in eine Abtastebene, welche das Objektvolumen bei einer Vielzahl von Sample- bzw. Probevolumen in der Abtastebene schneidet;
Erfassen von an vorbestimmten Samplevolumen in der Ab­ tastebene reflektierten Ultraschall-Echos;
Scannen bzw. Abtasten der Abtastebene durch das Objekt­ volumen;
Gewinnen von Farbströmungsdaten, die zumindest zum Teil von an dem streuenden Medium reflektierten Ultraschall-Echos abgeleitet sind, wobei jede einzelne Farbströmungsangabe (datum) jeweils einem der vielen Samplevolumen in der Ab­ tastebene entspricht;
Gewinnen von Intensitätsdaten, die zumindest zum Teil von an dein Gewebe reflektierten Ultraschall-Echos abgeleitet sind, wobei jede einzelne Intensitätsangabe jeweils einem der vielen Samplevolumen in der Abtastebene entspricht;
Erzeugen in Echtzeit eines (Voll-)Bildes (frame) von Pixeldaten für jede Abtastebene, wobei jede einzelne Pixelan­ gabe eine jeweilige Farbströmungsangabe sowie eine jeweilige Intensitätsangabe entsprechend einem jeweiligen Samplevolumen in der Abtastebene enthält;
Speichern einer Vielzahl von aufeinanderfolgenden Bil­ dern von Pixeldaten;
Wiedergeben eines Pixeldatensatzes aus der gespeicher­ ten Vielzahl von Bildern von Pixeldaten, wobei der Pixelda­ tensatz einem interessierenden Volumen in dem Objektvolumen entspricht;
Projizieren der Farbströmungsdaten sowie der Intensi­ tätsdaten in dein Pixeldatensatz auf eine erste Bildebene, wobei ein Projektionsdatensatz gebildet wird, der ein erstes projiziertes Bild darstellt; und
zur Anzeige Bringen des ersten projizierten Bildes.
8. A method for three-dimensional imaging of an ultrasound-scattering medium which moves in an object volume relative to adjacent tissue, characterized in that it contains the following steps:
Emitting ultrasound bundles into a scanning plane, which intersects the object volume with a large number of sample or sample volumes in the scanning plane;
Detecting ultrasound echoes reflected at a predetermined sample volume in the scanning plane;
Scanning or scanning the scanning plane through the object volume;
Obtaining color flow data which are derived at least in part from ultrasound echoes reflected on the scattering medium, each individual color flow indication (date) in each case corresponding to one of the many sample volumes in the scanning plane;
Obtaining intensity data which are derived at least in part from ultrasound echoes reflected on your tissue, each individual intensity indication corresponding in each case to one of the many sample volumes in the scanning plane;
Generating in real time a (full) image (frame) of pixel data for each scanning plane, each individual pixel data containing a respective color flow specification and a respective intensity specification corresponding to a respective sample volume in the scanning plane;
Storing a plurality of successive images of pixel data;
Reproducing a pixel data set from the stored plurality of images of pixel data, the pixel data set corresponding to a volume of interest in the object volume;
Projecting the color flow data and the intensity data into the pixel data record onto a first image plane, wherein a projection data record is formed which represents a first projected image; and
display the first projected image.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß jede Farbströmungsangabe Geschwindigkeitsdaten enthält.9. The method according to claim 8, characterized in that every color flow statement contains speed data. 10. Verfahren nach Anspruch 8 oder 9, dadurch gekenn­ zeichnet, daß jede Farbströmungsangabe Energie(power)Daten enthält.10. The method according to claim 8 or 9, characterized records that each color flow indication energy (power) data contains. 11. Verfahren nach einem der Ansprüche 8 bis 10, da­ durch gekennzeichnet, daß es folgende weitere Schritte ent­ hält:
Projizieren der Farbströmungsdaten sowie der Intensi­ tätsdaten in dem Pixeldatensatz auf eine zweite Bildebene, die relativ zu der ersten Bildebene gedreht ist, wobei ein Projektionsdatensatz gebildet wird, der ein zweites proji­ ziertes Bild darstellt; und
zur Anzeige Bringen des ersten und zweiten projizierten Bildes in Folge.
11. The method according to any one of claims 8 to 10, characterized in that it contains the following further steps ent:
Projecting the color flow data and the intensity data in the pixel data set onto a second image plane that is rotated relative to the first image plane, wherein a projection data set is formed that represents a second projected image; and
to display the first and second projected image in succession.
12. Verfahren zur dreidimensionalen Bildgebung eines Ultraschall streuenden Mediums, das sich in einem Objektvolu­ men relativ zu benachbartem Gewebe bewegt, dadurch gekenn­ zeichnet, daß es die folgenden Schritte enthält:
Aussenden von Ultraschall-Bündeln in eine Abtastebene, welche das Objektvolumen bei einer Vielzahl von Sample- bzw. Probevolumen in der Abtastebene schneidet;
Erfassen von an vorbestimmten Samplevolumen in der Ab­ tastebene reflektierten Ultraschall-Echos;
Scannen bzw. Abtasten der Abtastebene durch das Objekt­ volumen;
Gewinnen von Farbströmungsdaten, die zumindest zum Teil von an dem streuenden Medium reflektierten Ultraschall-Echos abgeleitet sind, wobei jede einzelne Farbströmungsangabe (datum) jeweils einem der vielen Samplevolumen in der Ab­ tastebene entspricht;
Gewinnen von Intensitätsdaten, die zumindest zum Teil von an dem Gewebe reflektierten Ultraschall-Echos abgeleitet sind, wobei jede einzelne Intensitätsangabe jeweils einem der vielen Samplevolumen in der Abtastebene entspricht;
in Echtzeit Speichern eines (Voll-)Bildes (frame) von Pixeldaten für jede Abtastebene, wobei jede einzelne Pixelan­ gabe eine jeweilige Farbströmungsangabe und eine jeweilige Intensitätsangabe enthält, die einem jeweiligen Samplevolumen in der Abtastebene entsprechen;
Speichern einer Vielzahl von Bildern mit Pixeldaten die aufeinander folgend von der ersten Speichereinrichtung ausge­ geben werden;
Wiedergeben eines Pixeldatensatzes aus der gespeicher­ ten Vielzahl von Bildern mit Pixeldaten, wobei der Pixelda­ tensatz einem interessierenden Volumen in dem Objektvolumen entspricht;
Erzeugen einer Vielzahl von Farbströmungsdatensätzen, die jeweilige Projektionen der Farbströmungsdaten in dem Pixeldatensatz auf die entsprechende Vielzahl von Bildebenen darstellen;
Erzeugen einer Vielzahl von Intensitätsdatensätzen, die jeweilige Projektionen der Intensitätsdaten in dem Pixelda­ tensatz auf die entsprechende Vielzahl von Bildebenen dar­ stellen;
Speichern der Vielzahl von Farbströmungs- und Intensi­ tätsdatensätze;
Auswählen von einer aus der Vielzahl der Bildebenen; und
zur Anzeige Bringen der der ausgewählten Bildebene ent­ sprechenden Farbströmungs- und Intensitätsdatensätze.
12. A method for three-dimensional imaging of an ultrasound-scattering medium that moves in an object volume relative to adjacent tissue, characterized in that it contains the following steps:
Emitting ultrasound bundles into a scanning plane, which intersects the object volume with a large number of sample or sample volumes in the scanning plane;
Detecting ultrasound echoes reflected at a predetermined sample volume in the scanning plane;
Scanning or scanning the scanning plane through the object volume;
Obtaining color flow data which are derived at least in part from ultrasound echoes reflected on the scattering medium, each individual color flow indication (date) in each case corresponding to one of the many sample volumes in the scanning plane;
Obtaining intensity data which are derived at least in part from ultrasound echoes reflected on the tissue, each individual intensity indication corresponding in each case to one of the many sample volumes in the scanning plane;
storing in real time a (full) image (frame) of pixel data for each scanning plane, each individual pixel data containing a respective color flow specification and a respective intensity specification which correspond to a respective sample volume in the scanning plane;
Storing a plurality of images with pixel data successively output from the first storage means;
Reproducing a pixel data set from the stored plurality of images with pixel data, the pixel data set corresponding to a volume of interest in the object volume;
Generating a plurality of color flow data sets representing respective projections of the color flow data in the pixel data set onto the corresponding plurality of image planes;
Generating a plurality of intensity data sets which represent respective projections of the intensity data in the pixel data set onto the corresponding plurality of image planes;
Storing the plurality of color flow and intensity records;
Selecting one of the plurality of image planes; and
display the color flow and intensity data sets corresponding to the selected image plane.
13. Verfahren nach Anspruch 12, dadurch gekennzeich­ net, daß jede Farbströmungsangabe Geschwindigkeitsdaten enthält. 13. The method according to claim 12, characterized in net that every color flow indication speed data contains.   14. Verfahren nach Anspruch 12 oder 13, dadurch ge­ kennzeichnet, daß jede Farbströmungsangabe Energie(power)- Daten enthält.14. The method according to claim 12 or 13, characterized ge indicates that each color flow indication energy (power) - Contains data. 15. Verfahren zur dreidimensionalen Bildgebung eines Ultraschall streuenden Mediums, das sich in einem Objektvolu­ men relativ zu benachbartem Gewebe bewegt, dadurch gekenn­ zeichnet, daß es die folgenden Schritte enthält:
Scannen bzw. Abtasten des Objektvolumens mit Ultra­ schall-Bündeln;
Erfassen der von vorbestimmten Sample- bzw. Probevolu­ men in dem Objektvolumen reflektierten Ultraschall-Echos; Gewinnen von Farbströmungsdaten, die zumindest zum Teil von an dem streuenden Medium reflektierten Ultraschall-Echos abgeleitet sind, wobei jede einzelne Farbströmungsangabe (datum) jeweils einem der vielen Samplevolumen entspricht;
Gewinnen von Intensitätsdaten, die zumindest zum Teil von an dem Gewebe reflektierten Ultraschall-Echos abgeleitet sind, wobei jede einzelne Intensitätsangabe jeweils einem der vielen Samplevolumen entspricht;
Speichern von entsprechenden Pixeldaten für jedes der vielen Samplevolumen zur Bildung eines Pixeldatensatzes, wobei jede einzelne Pixelangabe eine entsprechende Farbströ­ mungsangabe sowie eine entsprechende Intensitätsangabe ent­ hält;
Wiedergeben eines Teilsatzes von Pixeldaten aus dem ge­ speicherten Pixeldatensatz, wobei der Teilsatz von Pixeldaten einem interessierenden Volumen in dem Objektvolumen ent­ spricht;
Projizieren der Farbströmungsdaten sowie der Intensi­ tätsdaten in dem Teilsatz der Pixeldaten auf eine erste Bildebene, wobei ein projizierter Datensatz entsprechend einem ersten projizierten Bild gebildet wird; und
Darstellen des ersten projizierten Bildes.
15. A method for three-dimensional imaging of an ultrasound-scattering medium which moves in an object volume relative to adjacent tissue, characterized in that it contains the following steps:
Scanning or scanning the object volume with ultrasound bundles;
Detecting the ultrasound echoes reflected by predetermined sample or sample volumes in the object volume; Obtaining color flow data which are derived at least in part from ultrasound echoes reflected on the scattering medium, each individual color flow indication (date) in each case corresponding to one of the many sample volumes;
Obtaining intensity data which are derived at least in part from ultrasound echoes reflected on the tissue, each individual intensity indication corresponding in each case to one of the many sample volumes;
Storing corresponding pixel data for each of the many sample volumes to form a pixel data set, each individual pixel specification containing a corresponding color flow specification and a corresponding intensity specification;
Reproducing a subset of pixel data from the stored pixel data set, the subset of pixel data corresponding to a volume of interest in the object volume;
Projecting the color flow data and the intensity data in the subset of the pixel data onto a first image plane, a projected data set being formed in accordance with a first projected image; and
Display the first projected image.
16. Verfahren nach Anspruch 15, dadurch gekennzeich­ net, daß jede Farbströmungsangabe Geschwindigkeitsdaten enthält.16. The method according to claim 15, characterized in net that every color flow indication speed data contains. 17. Verfahren nach Anspruch 15 oder 16, dadurch ge­ kennzeichnet, daß jede Farbströmungsangabe Energie(power)-Daten enthält.17. The method according to claim 15 or 16, characterized ge indicates that each color flow indication Contains energy (power) data. 18. Verfahren nach einem der Ansprüche 15 bis 17, da­ durch gekennzeichnet, daß es folgende weitere Schritte ent­ hält:
Projizieren der Farbströmungsdaten sowie der Intensi­ tätsdaten in dem Teilsatz der Pixeldaten auf eine zweite Bildebene, die relativ zu der ersten Bildebene gedreht ist, wobei ein Projektionsdatensatz gebildet wird, der ein zweites projiziertes Bild darstellt; und
Darstellen des ersten und zweiten projizierten Bildes in Folge.
18. The method according to any one of claims 15 to 17, characterized in that it contains the following further steps:
Projecting the color flow data and the intensity data in the subset of the pixel data onto a second image plane that is rotated relative to the first image plane, wherein a projection data set is formed that represents a second projected image; and
Display the first and second projected image in succession.
DE19819794A 1997-05-07 1998-05-04 Unit for 3D imaging of US data with linked projections of intensity and speed-energy data Ceased DE19819794A1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/852,258 US5904653A (en) 1997-05-07 1997-05-07 Method and apparatus for three-dimensional ultrasound imaging combining intensity data with color flow velocity or power data

Publications (1)

Publication Number Publication Date
DE19819794A1 true DE19819794A1 (en) 1998-12-03

Family

ID=25312871

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19819794A Ceased DE19819794A1 (en) 1997-05-07 1998-05-04 Unit for 3D imaging of US data with linked projections of intensity and speed-energy data

Country Status (4)

Country Link
US (1) US5904653A (en)
JP (1) JPH1128212A (en)
DE (1) DE19819794A1 (en)
IL (1) IL124173A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000034802A1 (en) * 1998-12-07 2000-06-15 Koninklijke Philips Electronics N.V. Spatial compounding with ultrasonic doppler signal information
EP1013226A2 (en) * 1998-12-24 2000-06-28 General Electric Company Method and apparatus for optimal data mapping of power doppler images

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6102864A (en) * 1997-05-07 2000-08-15 General Electric Company Three-dimensional ultrasound imaging of velocity and power data using average or median pixel projections
JPH11164833A (en) * 1997-09-30 1999-06-22 Toshiba Corp Medical image diagnostic apparatus
US6671420B1 (en) * 1999-02-16 2003-12-30 Sharp Laboratories Of America, Inc. Method for processing saturated intervals in video sequences
JP4408988B2 (en) * 1999-05-31 2010-02-03 株式会社東芝 Ultrasonic diagnostic equipment
US6322505B1 (en) 1999-06-08 2001-11-27 Acuson Corporation Medical diagnostic ultrasound system and method for post processing
US6611274B1 (en) * 1999-10-12 2003-08-26 Microsoft Corporation System method, and computer program product for compositing true colors and intensity-maped colors into a frame buffer
US6520915B1 (en) * 2000-01-28 2003-02-18 U-Systems, Inc. Ultrasound imaging system with intrinsic doppler capability
US6346079B1 (en) * 2000-05-25 2002-02-12 General Electric Company Method and apparatus for adaptive frame-rate adjustment in ultrasound imaging system
US7103205B2 (en) * 2000-11-24 2006-09-05 U-Systems, Inc. Breast cancer screening with ultrasound image overlays
US7556602B2 (en) * 2000-11-24 2009-07-07 U-Systems, Inc. Breast cancer screening with adjunctive ultrasound mammography
US7615008B2 (en) * 2000-11-24 2009-11-10 U-Systems, Inc. Processing and displaying breast ultrasound information
US7940966B2 (en) 2000-11-24 2011-05-10 U-Systems, Inc. Full-field breast image data processing and archiving
US7597663B2 (en) 2000-11-24 2009-10-06 U-Systems, Inc. Adjunctive ultrasound processing and display for breast cancer screening
JP3898047B2 (en) * 2001-07-09 2007-03-28 セイコーインスツル株式会社 Blood rheology measuring device
JP2006507883A (en) * 2002-12-02 2006-03-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ A segmentation tool to identify flow areas within an imaging system
US20050110793A1 (en) * 2003-11-21 2005-05-26 Steen Erik N. Methods and systems for graphics processing in a medical imaging system
US20060004291A1 (en) * 2004-06-22 2006-01-05 Andreas Heimdal Methods and apparatus for visualization of quantitative data on a model
US20070010747A1 (en) * 2005-05-26 2007-01-11 Sabourin Thomas J Methods and systems for acquiring ultrasound image data
JP4881112B2 (en) * 2006-09-19 2012-02-22 株式会社東芝 Ultrasonic diagnostic apparatus and image data generation method
CN101523237B (en) * 2006-10-13 2015-01-14 皇家飞利浦电子股份有限公司 3d ultrasonic color flow imaging with grayscale invert
US7984651B2 (en) * 2006-11-10 2011-07-26 Penrith Corporation Transducer array imaging system
US20080114247A1 (en) * 2006-11-10 2008-05-15 Penrith Corporation Transducer array imaging system
US9295444B2 (en) 2006-11-10 2016-03-29 Siemens Medical Solutions Usa, Inc. Transducer array imaging system
US8312771B2 (en) 2006-11-10 2012-11-20 Siemens Medical Solutions Usa, Inc. Transducer array imaging system
US8499634B2 (en) * 2006-11-10 2013-08-06 Siemens Medical Solutions Usa, Inc. Transducer array imaging system
US8490489B2 (en) * 2006-11-10 2013-07-23 Siemens Medical Solutions Usa, Inc. Transducer array imaging system
US8900150B2 (en) 2008-12-30 2014-12-02 St. Jude Medical, Atrial Fibrillation Division, Inc. Intracardiac imaging system utilizing a multipurpose catheter
US20100168557A1 (en) * 2008-12-30 2010-07-01 Deno D Curtis Multi-electrode ablation sensing catheter and system
US8948476B2 (en) * 2010-12-20 2015-02-03 St. Jude Medical, Atrial Fibrillation Division, Inc. Determination of cardiac geometry responsive to doppler based imaging of blood flow characteristics
US9610118B2 (en) 2008-12-31 2017-04-04 St. Jude Medical, Atrial Fibrillation Division, Inc. Method and apparatus for the cancellation of motion artifacts in medical interventional navigation
US8741256B1 (en) 2009-04-24 2014-06-03 Simbol Inc. Preparation of lithium carbonate from lithium chloride containing brines
US9051827B1 (en) 2009-09-02 2015-06-09 Simbol Mining Corporation Selective removal of silica from silica containing brines
US10190030B2 (en) 2009-04-24 2019-01-29 Alger Alternative Energy, Llc Treated geothermal brine compositions with reduced concentrations of silica, iron and lithium
US8637428B1 (en) 2009-12-18 2014-01-28 Simbol Inc. Lithium extraction composition and method of preparation thereof
US9034294B1 (en) 2009-04-24 2015-05-19 Simbol, Inc. Preparation of lithium carbonate from lithium chloride containing brines
US10935006B2 (en) 2009-06-24 2021-03-02 Terralithium Llc Process for producing geothermal power, selective removal of silica and iron from brines, and improved injectivity of treated brines
US20120014578A1 (en) * 2010-07-19 2012-01-19 Qview Medical, Inc. Computer Aided Detection Of Abnormalities In Volumetric Breast Ultrasound Scans And User Interface
CN102947225A (en) 2010-02-17 2013-02-27 辛博尔股份有限公司 Processes for preparing highly pure lithium carbonate and other highly pure lithium containing compounds
DE102016226336A1 (en) 2016-12-30 2018-07-05 Siemens Healthcare Gmbh Method and device for generating a two-dimensional projection image from a three-dimensional image data set
US10604414B2 (en) 2017-06-15 2020-03-31 Energysource Minerals Llc System and process for recovery of lithium from a geothermal brine

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5226113A (en) * 1989-10-30 1993-07-06 General Electric Company Method and apparatus for volumetric projection rendering using reverse ray casting
JP3187148B2 (en) * 1991-08-26 2001-07-11 株式会社東芝 Ultrasound diagnostic equipment
US5379769A (en) * 1992-11-30 1995-01-10 Hitachi Medical Corporation Ultrasonic diagnostic apparatus for displaying an image in a three-dimensional image and in a real time image and a display method thereof
US5497776A (en) * 1993-08-05 1996-03-12 Olympus Optical Co., Ltd. Ultrasonic image diagnosing apparatus for displaying three-dimensional image
US5365929A (en) * 1993-10-04 1994-11-22 Advanced Technology Laboratories, Inc. Multiple sample volume spectral Doppler
US5474073A (en) * 1994-11-22 1995-12-12 Advanced Technology Laboratories, Inc. Ultrasonic diagnostic scanning for three dimensional display
US5485842A (en) * 1994-11-30 1996-01-23 Advanced Technology Laboratories, Inc. Ultrasonic diagnostic scan conversion for three dimensional display processing
US5655535A (en) * 1996-03-29 1997-08-12 Siemens Medical Systems, Inc. 3-Dimensional compound ultrasound field of view
AU6276696A (en) * 1995-06-15 1997-01-15 Regents Of The University Of Michigan, The Method and apparatus for composition and display of three-dimensional image from two-dimensional ultrasound
US5582173A (en) * 1995-09-18 1996-12-10 Siemens Medical Systems, Inc. System and method for 3-D medical imaging using 2-D scan data

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000034802A1 (en) * 1998-12-07 2000-06-15 Koninklijke Philips Electronics N.V. Spatial compounding with ultrasonic doppler signal information
US6390980B1 (en) 1998-12-07 2002-05-21 Atl Ultrasound, Inc. Spatial compounding with ultrasonic doppler signal information
EP1013226A2 (en) * 1998-12-24 2000-06-28 General Electric Company Method and apparatus for optimal data mapping of power doppler images
EP1013226A3 (en) * 1998-12-24 2001-05-30 General Electric Company Method and apparatus for optimal data mapping of power doppler images

Also Published As

Publication number Publication date
US5904653A (en) 1999-05-18
JPH1128212A (en) 1999-02-02
IL124173A (en) 2001-04-30

Similar Documents

Publication Publication Date Title
DE19819794A1 (en) Unit for 3D imaging of US data with linked projections of intensity and speed-energy data
DE19819892B4 (en) Method and apparatus for segmenting B-mode intensity data using Doppler shift data in three-dimensional ultrasound imaging
DE19819831A1 (en) Method and device for three-dimensional ultrasound imaging by means of projection of filtered pixel data
DE19819800A1 (en) Unit for 3D image prodn. in medium scattered by ultrasound in object vol.
DE19819832B4 (en) Method for improving the segmentation in a three-dimensional ultrasound imaging
DE60309486T2 (en) Two-level ultrasound imaging with a SYMBOL OF MUTUAL LEVEL ORIENTATION
DE19819801B4 (en) Method and apparatus for three-dimensional ultrasound imaging using a transducer array with uniform collection beam width
DE69735737T2 (en) Medical diagnostic three-dimensional ultrasound imaging of tissue texture and vasculature
DE19531419B4 (en) Method for generating anatomical M-mode display images
DE19819793A1 (en) Apparatus for segmenting colour-flow (CF) mode data in medical ultra-sound esp. for heart studies
DE69737720T2 (en) IMPROVED IMAGE PROCESSING METHOD FOR A THREE-DIMENSIONAL IMAGE GENERATION SYSTEM
DE102005019171B4 (en) Three-dimensional transit systems and methods using ultrasound data
US4914589A (en) Three-dimensional images obtained from tomographic data using a variable threshold
DE69936418T2 (en) Device for three-dimensional ultrasound imaging with contrast agents and harmonic echoes
DE69727994T2 (en) Medical ultrasound diagnostic image system with scan display for a three-dimensional image display
DE19543410B4 (en) Method for simulating endoscopy and virtual examination system for viewing internal cavities
DE102004043676B4 (en) Method for visualizing plaque deposits from 3D image data sets of vessel structures
DE202004021722U1 (en) Apparatus for obtaining a volume scan of a periodically moving object
DE102004022902B4 (en) Medical imaging and processing method, computed tomography device, workstation and computer program product
DE4236757C2 (en) Ultrasound diagnostic device
DE4401302A1 (en) Method and device for real-time determination of the volume of a body cavity
DE2815218A1 (en) CT NUMBER IDENTIFIER IN A TOMOGRAPHY SYSTEM
DE102017214447B4 (en) Planar visualization of anatomical structures
DE3905615A1 (en) ULTRASONIC DIAGNOSTIC APPARATUS FOR OPHTHALMOLOGY
DE10254908B4 (en) Method for producing an image

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8131 Rejection