DE19916612B4 - Verfahren und System zur Verbesserung diskreter Pixelbilder - Google Patents

Verfahren und System zur Verbesserung diskreter Pixelbilder Download PDF

Info

Publication number
DE19916612B4
DE19916612B4 DE19916612A DE19916612A DE19916612B4 DE 19916612 B4 DE19916612 B4 DE 19916612B4 DE 19916612 A DE19916612 A DE 19916612A DE 19916612 A DE19916612 A DE 19916612A DE 19916612 B4 DE19916612 B4 DE 19916612B4
Authority
DE
Germany
Prior art keywords
structural
picture elements
pixel
gradient
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19916612A
Other languages
English (en)
Other versions
DE19916612A1 (de
Inventor
Gopal Biligeri New Berlin Avinash
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE19916612A1 publication Critical patent/DE19916612A1/de
Application granted granted Critical
Publication of DE19916612B4 publication Critical patent/DE19916612B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Verfahren zur Verbesserung eines durch eine Vielzahl diskreter Bildelemente definierten Bildes mit den Schritten
a) Identifizieren (66) einer Gruppe struktureller Bildelemente, die in Frage kommende Strukturen (48) darstellen, und einer Gruppe nicht-struktureller Bildelemente, die nicht-strukturelle Bereiche (50) in dem Bild darstellen, wobei die strukturellen Bildelemente durch Bestimmen von Gradientenwerten (108) für jedes Bildelement, Identifizieren eines Gradientenschwellenwerts (134) und Identifizieren von Bildelementen mit einem gewünschten Verhältnis zu dem Gradientenschwellenwert identifiziert werden, wobei der Gradientenschwellenwert durch Vergleichen von Gradientenwerten (108) für die Bildelemente mit einem gewünschten Wert (116) und Vergleichen von Gradientenrichtungen für die Bildelemente untereinander und Zählen von Bildelementen beruhend auf den Vergleichen identifiziert wird,
b) Orientierungs-Glätten (68) der in Frage kommenden Strukturen,
c) Homogenisierungs-Glätten (70) der nicht-strukturellen Bereiche,
d) Orientierungs-Schärfen (72) der in Frage kommenden Strukturen und
e) Mischen (76) von Texturdaten in die nicht-strukturellen Bereiche.

Description

  • Die vorliegende Erfindung bezieht sich auf Abbildungsverfahren diskreter Bildelemente und insbesondere auf ein Verfahren zur Analyse und Modifikation von Signalen oder Werten, die Bildelemente in derartigen Bildern darstellen, um ein leichter verständliches Gesamtbild auf bezüglich der Berechnungen effiziente Art und Weise auszubilden. Das Verfahren eignet sich besonders für medizinische Abbildungssysteme und Anwendungen, wie eine Magnetresonanzabbildung.
  • Es sind viele verschiedene diskrete Bildelement-Abbildungsverfahren bekannt und befinden sich gegenwärtig in Verwendung. Im Allgemeinen beruhen derartige Verfahren auf der Sammlung bzw. Erfassung von Daten, die jedes eine Bildmatrix ausbildende diskrete Bildelement darstellen. Es sind mehrere Ausführungsarten bzw. Modalitäten zur Erzeugung der durch die Bildelemente dargestellten Daten verfügbar, einschließlich Magnetresonanzverfahren, Röntgenstrahlverfahren, usw. In Abhängigkeit von der bestimmten angewendeten Ausführungsart werden die Bildelementdaten erfasst und kodiert, wie beispielsweise in der Form digitaler Werte. Die Werte sind mit bestimmten relativen Orten der Bildelemente in dem abgetasteten Subjektbild verbunden. Nach der Erfassung von Datenwerten, die die gesamte Bildmatrix ausbildende Bildelemente darstellen, wird das Bild durch die Verarbeitung der einzelnen Bildelementwerte rekonstruiert.
  • Die Verwendbarkeit eines verarbeiteten Bildes hängt oft stark vom Grad ab, mit dem es von Benutzern interpretiert werden kann. Beispielsweise sind auf dem Gebiet der medizinischen Diagnose und Behandlung Magnetresonanz-, Röntgenstrahl- und andere Bilder sehr nützlich, wenn sie leicht verständlich sind und von einem behandelnden Arzt oder Radiologen verglichen werden können. Während eine Anzahl von Bildverarbeitungsparametern die endgültige Bilddarstellung steuern können, ist es oft schwierig zu bestimmen, welche dieser Parameter oder in welcher Kombination die Parameter zur Ausbildung der optimalen Bilddarstellung eingestellt werden können. Oft müssen die Bildverarbeitungsverfahren in Übereinstimmung mit der empirischen Rückkopplung des Arztes eingestellt werden.
  • Die Leichtigkeit, mit der ein rekonstruiertes diskretes Pixelbild von einem Beobachter interpretiert werden kann, kann auf intuitiven Faktoren beruhen, die dem Betrachter nicht bewusst sein müssen. Beispielsweise kann ein Arzt oder Radiologe nach bestimmten Strukturen oder bestimmten Merkmalen in einem Bild suchen. Bei der medizinischen Abbildung können derartige Merkmale Knochen, weiches Gewebe oder Flüssigkeiten einschließen. Derartige Strukturen können in dem Bild durch zusammenhängende Kanten, Kontrast, Textur, usw. physikalisch definiert sein. Die Darstellung derartiger Merkmale hängt oft stark von dem bestimmten Bildverarbeitungsverfahren ab, das zur Umwandlung der jedes Bildelement darstellenden erfassten Werte in dem endgültigen Bild verwendete modifizierte Werte angewendet wird. Das verwendete Signalverarbeitungsverfahren kann somit die Fähigkeit des Betrachters zur Visualisierung hervorstechender in Frage kommender Merkmale beeinflussen. Das Verfahren sollte daher sorgfältig Strukturen aufrechterhalten, sowie anormale oder unübliche Strukturen, während geeignete Textur- und Kontrastinformationen zur Interpretation dieser Strukturen und des umgebenden Hintergrunds ausgebildet werden.
  • Bekannte Signalverarbeitungssysteme zur Verbesserung diskreter Pixelbilder bringen bestimmte Nachteile mit sich. Beispielsweise können derartige Systeme vergleichbare Bilddarstellungen eventuell nicht konsistent bereitstellen, in denen hervorstechende Merkmale oder Strukturen leicht visualisiert werden könnten. Unterschiede in den rekonstruierten Bildern können sich aus Besonderheiten einzelner Abtasteinrichtungen und der Schaltungsanordnung sowie aus Schwankungen der erfassten Parameter (beispielsweise der Molekularanregung oder der empfangenen Strahlung) ergeben. Unterschiede können sich auch aus der Größe, der Zusammensetzung und Position eines abgetasteten Subjekts ergeben. Bei bekannten Systemen verwendete Signalverarbeitungsverfahren sind oft schwierig neu zu konfigurieren oder einzustellen, was auf der relativen Unflexibilität der Hardware oder der Firmwareeinrichtungen beruht, in der sie implementiert sind. Schließlich verwenden bekannte Signalverarbeitungsverfahren oft Berechnungsalgorithmen, die nicht besonders effektiv sind, woraus sich Verzögerungen bei der Formulierung des rekonstruierten Bildes oder eine Unter-Ausnutzung der Signalverarbeitungsmöglichkeiten ergeben.
  • Aus der US 5 218 649 A ist ein System zur Verbesserung der Qualität eines Bildes beschrieben, das Treppeneffekte aufweist. Dabei werden Kanten- und Nicht-Kanten-Bereiche im dekodierten Bild identifiziert, und diese Bereiche werden zur Verringerung der Treppeneffekte oder anderer Kontureffekte gefiltert. Gefilterte Kantendaten und gefilterte Nicht-Kanten-Daten werden zur Bildung eines verbesserten Bildes kombiniert.
  • Ferner offenbart die US 5 561 724 A ein Rauschfilterverfahren mit einer Glättung in einer linearen Richtung mit minimaler Dichteänderungsgröße.
  • Der Erfindung liegt die Aufgabe zugrunde, strukturelle Bereiche in Pixelbildern hervorzuheben.
  • Diese Aufgabe wird durch ein Verfahren nach Patentanspruch 1 und ein System nach Patentanspruch 9 gelöst.
  • Erfindungsgemäß ist ein verbessertes Verfahren zur Verbesserung diskreter Pixelbilder in einer rechenbetont effektiven Art und Weise ausgestaltet. Das Verfahren sieht eine Identifizierung hervorstechender Strukturen in dem Bild und eine Identifizierung von derartige Strukturen darstellenden Bildelementen vor. In einem Ausführungsbeispiel folgt der Identifizierung der Strukturen das Glätten von Abschnitten des Bildes, die strukturelle und nicht-strukturelle Bereiche enthalten. Strukturelle Bereiche können zur Verbesserung struktureller Merkmale in dominanten Orientierungen geglättet werden. Nicht-strukturelle Bereiche können zur Ausbildung eines verständlichen Hintergrunds für die hervorstechenden Strukturen homogenisiert werden. Die Strukturen können weiter verschärft und sehr kleine Bereiche können identifiziert werden, die als Rauschen angesehen werden. Derartige Artefakte können geglättet oder aus der definierten Struktur in Abhängigkeit ihrer Größe und Position entfernt werden. Eine ursprüngliche Textur kann wieder in nicht-strukturelle Bereiche zur weiteren Vereinfachung der Interpretation sowohl der nicht-strukturellen als auch der strukturellen Merkmale hinzugefügt werden. Das Verfahren ist insbesondere bei Magnetresonanz-Abbildungssystemen nützlich, kann aber auch über einen weiten Bereich von Ausführungsarten angewendet werden.
  • Die Erfindung wird nachstehend anhand eines bevorzugten Ausführungsbeispiels unter Bezugnahme auf die beiliegende Zeichnung näher beschrieben. Es zeigen:
  • 1 eine schematische Darstellung eines Magnetresonanz-Abbildungssystems zur Verbesserung diskreter Pixelbilder eines Subjekts,
  • 2 eine Darstellung eines beispielhaften diskreten Pixelbildes bestehend aus einer Matrix aus Bildelementen mit sich ändernden Intensitäten, die Strukturen und Nicht-Strukturen definieren,
  • 3 ein Ablaufdiagramm der Schritte einer beispielhaften Steuerlogik zur Verarbeitung eines diskreten Pixelbildes zur Identifikation von Strukturen und zur Verbesserung sowohl der strukturellen als auch der nicht strukturellen Bereiche in dem Bild,
  • 4 ein Ablaufdiagramm der Schritte einer beispielhaften Steuerlogik zur Identifikation struktureller Merkmale in einem diskreten Bildelementbild,
  • 5 eine Darstellung von Elementen oder Modulen, die in den Schritten in 4 zu Erzeugung von Gradientenkomponenten für jedes diskrete Bildelement des Bildes verwendet werden,
  • 6 ein Gradientenhistogramm eines Bildes zur Identifikation von Gradientenschwellenwerten zur Trennung einer Struktur von einer Nicht-Struktur in dem Bild,
  • 7 ein Ablaufdiagramm der Schritte einer beispielhaften Steuerlogik zur wahlweisen Beseitigung kleiner oder mit Rauschen behafteter Bereiche von der Strukturdefinition,
  • 8 ein Ablaufdiagramm der Schritte einer beispielhaften Steuerlogik zur Verarbeitung von in dem Bild definierten strukturellen Merkmalen durch binäre Rangordnungsfilterung,
  • 9 ein Ablaufdiagramm der Schritte einer beispielhaften Steuerlogik zur Orientierungsglättung einer in einem Bild identifizierten Struktur,
  • 10 ein Ablaufdiagramm der Schritte einer beispielhaften Steuerlogik zur Durchführung einer dominanten Orientierungsglättung bei dem in 9 zusammengefaßten Vorgang,
  • 11 eine Darstellung von bei dem Orientierungsglättungsvorgang in 10 verwendeten Richtungsindizes,
  • 12 ein Ablaufdiagramm der Schritte einer beispielhaften Steuerlogik zur Durchführung einer lokalen Orientierungsglättung über den Vorgang in 9,
  • 13 ein Ablaufdiagramm der Schritte einer beispielhaften Steuerlogik zur Homogenisierungsglättung nicht-struktureller Bereiche eines diskreten Pixelbildes,
  • 14 ein Ablaufdiagramm der Schritte einer beispielhaften Steuerlogik zur Orientierungsschärfung struktureller Bereiche in einem diskreten Pixelbild und
  • 15 ein Ablaufdiagramm der Schritte einer beispielhaften Steuerlogik zur Wiedereinführung bestimmter Texturmerkmale nicht-struktureller Bereiche in einem diskreten Pixelbild.
  • In 1 ist ein Magnetresonanz-Abbildungssystem 10 gezeigt, das eine Abtasteinrichtung 12 enthält, die mit einer Schaltungsanordnung zur Erfassung und Verarbeitung diskreter Bildelementdaten gekoppelt ist. Die Abtasteinrichtung 12 enthält einen Trägeraufbau 14, auf dem ein Subjekt 16 zur Erfassung von Bildern platziert werden kann, die innere Merkmale, wie das Gewebe, Flüssigkeiten, usw. darstellen. Die Abtasteinrichtung 12 enthält eine Elektromagnetanordnung 18 zur Erzeugung eines elektromagnetischen Feldes auf bekannte Art und Weise. Anregungs- und Erfassungsspulen 20 sind in der Abtasteinrichtung 12 zur Anregung gyromagnetischer Materialien in dem Subjekt 16 und zur Erfassung von Emissionen aus den Materialien vorgesehen.
  • Durch die Spulen 20 erfasste Signale werden zum Erhalten digitaler Werte kodiert, die die an bestimmten Orten in dem Subjekt emittierten Anregungssignale darstellen, und werden zu einer Signalerfassungsschaltungsanordnung 22 übertragen. Die Signalerfassungsschaltungsanordnung 22 stellt auch Steuersignale zur Konfiguration und Koordination von durch die Spulen 20 emittierten Feldern während bestimmter Bilderfassungssequenzen bereit. Die Signalerfassungsschaltungsanordnung 22 überträgt die kodierten Bildsignale zu einer Signalverarbeitungsschaltung 24. Die Signalverarbeitungsschaltung 24 führt vorab eingerichtet Steuerlogikroutinen, die in einer Speicherschaltung 26 gespeichert sind, zur Filterung und Konditionierung der von der Signalerfassungsschaltungsanordnung 22 empfangenen Signale zur Ausbildung digitaler Werte aus, die jedes Bildelement in dem erfassten Bild darstellen. Diese Werte werden dann in der Speicherschaltung 26 zur nachfolgenden Verarbeitung und Anzeige gespeichert.
  • Die Signalverarbeitungsschaltung 24 empfängt Konfigurations- und Steuerbefehle von einer Eingabeeinrichtung 28 über eine Eingabeschnittstellenschaltung 30. Die Eingabeeinrichtung 28 beinhaltet typischerweise eine Bedienstation und eine Tastatur zur wahlweisen Eingabe von Konfigurationsparametern und zur Anweisung bestimmter Bilderfassungssequenzen. Die Signal-Verarbeitungsschaltung 24 ist auch mit einer Ausgabeeinrichtung 32 über eine Ausgabeschnittstellenschaltung 34 verbunden. Die Ausgabeeinrichtung 32 beinhaltet typischerweise einen Monitor bzw. Bildschirm oder einen Drucker zur Erzeugung rekonstruierter Bilder beruhend auf der durch die Schaltung 24 ausgeführten Bildverbesserungsverarbeitung.
  • Obwohl in diese Beschreibung auf durch ein Magnetresonanz-Abbildungssystem erzeugte diskrete Pixelbilder Bezug genommen wird, sind die beschriebenen Signalverarbeitungsverfahren nicht auf eine besondere Abbildungsmodalität begrenzt. Demnach können diese Verfahren auch bei Bilddaten angewendet werden, die durch Röntgenstrahlsysteme, PET-Systeme und Computertomographiesysteme, usw. erfasst worden sind. Des Weiteren sind bei dem beschriebenen Ausführungsbeispiel die Signalverarbeitungsschaltung 24, die Speicherschaltung 26 und die Eingabe- und Ausgabeschnittstellenschaltungen 30 und 34 in einem programmierten Digitalcomputer enthalten. Allerdings kann die Schaltungsanordnung zur Ausführung der hier beschriebenen Verfahren als geeignete Kodierung in anwendungsspezifischen Mikroprozessoren, Analogschaltungsanordnungen oder einer Kombination einer digitalen und analogen Schaltungsanordnung konfiguriert sein.
  • 2 zeigt ein Beispiel eines diskreten Pixelbildes 36, das mit dem System 10 erzeugt wurde. Das Bild 36 besteht aus einer Matrix diskreter Bildelemente 38, die aneinander angrenzend in einer Folge von Reihen 40 und Spalten 42 angeordnet sind. Diese Reihen und Spalten der Bildelemente bilden eine vorab eingerichtet Matrixbreite 44 und eine Matrixhöhe 46 aus. Typische Matrixdimensionen können 256 mal 256 Bildelemente, 512 mal 512 Bildelemente, 1024 mal 1024 Bildelemente, usw. enthalten. Die besondere Bildmatrixgröße kann über die Eingabeeinrichtung 28 (siehe 1) ausgewählt werden und kann sich in Abhängigkeit von Faktoren wie dem abzubildenden Subjekt und der gewünschten Auflösung verändern.
  • Wie es in 2 dargestellt ist, enthält das Bild 36 strukturelle Bereiche 48, die bestehend aus langen, zusammenhängenden durch angrenzende Bildelemente definierten Linien dargestellt sind. Das Bild 36 enthält auch nicht-strukturelle Bereiche 50, die außerhalb der strukturellen Bereiche 48 liegen. Das Bild 36 kann auch isolierte Artefakte 52 verschiedener Größen (d. h. verschiedene Anzahl angrenzender Bildelemente) enthalten, die als strukturelle Bereiche definiert sein können, oder die aus der Definition der Struktur entsprechend den nachstehend beschriebenen Verfahren beseitigt werden können.
  • Die strukturellen Bereiche 48 und die nicht-strukturellen Bereiche 50 werden entsprechend einer allgemein in 3 zusammengefassten Steuerlogik in dem Bild 36 identifiziert und verbessert. Diese Steuerlogik ist vorzugsweise durch die Signalverarbeitungsschaltung 24 beruhend auf einem geeigneten in der Speicherschaltung 26 gespeicherten Programmcode implementiert. Die Steuerlogikroutine, die in 3 allgemein durch das Bezugszeichen 60 bezeichnet ist, beginnt in Schritt 62 mit der Initialisierung von bei dem Signalverbesserungsvorgang verwendeten Parametern. Dieser Initialisierungsschritt beinhaltet das Lesen von Vorgabe- und vom Bediener ausgewählten Werten für nachstehend beschriebene Parameter, wie die Größe kleiner aus der Struktur zu beseitigender Bereiche, eines Fokusparameters, usw. Bei Bedarf können bestimmte Parameter über die Eingabeeinrichtung 28 angefordert werden, wobei der Bediener zwischen mehreren Parameterauswahlen wie beispielsweise der Bildmatrixgröße wählen muss.
  • In Schritt 64 erfasst die Signalverarbeitungsschaltung 24 die rohen Werte, die für die das Bild 36 definierenden Bildelemente erfasst werden, und normalisiert sie. Bei dem dargestellten Ausführungsbeispiel beinhaltet dieser Schritt das Lesen von Intensitäten an jedem Bildelement darstellenden digitalen Werten und das Skalieren dieser Intensitätswerte über einen gewünschten dynamischen Bereich. Beispielsweise können der maximale und der minimale Intensitätswert in dem Bild bestimmt werden und zur Entwicklung eines Skalierungsfaktors über den vollständigen dynamischen Bereich der Ausgabeeinrichtung 32 verwendet werden. Des weiteren kann ein Datenverschiebungswert zu jedem Bildelementwert addiert oder davon abgezogen werden, um Intensitätsverschiebungen in den erfaßten Daten zu korrigieren. In Schritt 64 verarbeitet die Schaltung 24 somit die rohen Bilddaten, die in 3 mit Ir bezeichnet sind, um eine normalisiertes Bild In wiederzugeben, das Bildelementwerte enthält, die zum Überdecken eines gewünschten Abschnittes eines dynamischen Bereichs gefiltert sind, wie beispielsweise 12 BIT, unabhängig von Veränderungen der Erfassungsschaltungsanordnung oder des Subjekts.
  • Obwohl in dieser Beschreibung auf Intensitätswerte in dem Bild 36 Bezug genommen wird, kann das Verfahren auch zur Verarbeitung von Werten oder anderen Parametern des Bildes 36 verwendet werden, die für einzelne Bildelemente 38 kodiert sind. Derartige Parameter könne beispielsweise die Häufigkeit oder Farbe beinhalten.
  • In Schritt 66 führt die Signalverarbeitungsschaltung 24 eine vorbestimmte Logikroutine zur Identifikation einer Struktur 48 in dem Bild 36 aus, wie sie durch die einzelne Bildelemente des Bildes darstellenden Daten definiert ist. Beispielhafte Schritte zur Identifikation der Struktur in Übereinstimmung mit dem vorliegenden Verfahren werden nachstehend unter Bezugnahme auf 4 beschrieben. In Schritt 68 wird die in Schritt 66 identifizierte Struktur Orientierungsgeglättet, wie es nachstehend unter Bezugnahme auf die 9 bis 12 zusammengefaßt ist. Obwohl verschiedene Verfahren für diese Orientierungsglättung angewendet werden können, kann in dem beschriebenen Ausführungsbeispiel eine domi nante Orientierungsglättung ausgeführt werden, die zur Überbrückung von Spalten zwischen Strukturspannen tendiert, oder es kann eine lokale Orientierungsglättung zur Vermeidung einer derartigen Überbrückung angewendet werden. Schritt 68 wird bei dem normalisierten Bild In beruhend auf einer Strukturmaske Ms durchgeführt, die in Schritt 66 definiert wird. Die in Schritt 68 ausgeführte Orientierungsglättung transformiert somit das normalisierte Bild in ein gefiltertes Bild If, das durch die nachfolgende Verarbeitung weiter verfeinert wird.
  • Das gefilterte Bild If wird wie nachstehend beschrieben weiter verarbeitet. In Schritt 70 führt die Signalverarbeitungsschaltung 24 eine Homogenisierungsglättung bei den nicht-strukturellen Bereichen des Bildes 36 durch. Wie es nachstehend ausführlicher unter Bezugnahme auf 13 beschrieben ist, dient diese Homogenisierungsglättung der Mischung von Merkmalen der nicht-strukturellen Bereiche in die Umgebung, die die in Schritt 66 identifizierte Struktur umgibt. In Schritt 72 wird die in Schritt 66 identifizierte Struktur Orientierungs-geschärft. Der Vorgang der Orientierungsschärfung ist nachstehend unter Bezugnahme auf 14 näher beschrieben. In Schritt 74 wird das gefilterte Bild beruhend auf den Intensitätswerten nach der Filterung und dem ursprünglichen normalisierten Intensitätsbereich neu normalisiert. Schließlich wird in Schritt 76 die in den nicht-strukturellen Bereichen des Bildes enthaltene Textur zurück in das neu normalisierte gefilterte Bild Ifn zum Erhalten eines Hintergrundbezugs für das endgültige Bild gemischt. Der Texturmischvorgang ist nachstehend unter Bezugnahme auf 15 näher beschrieben. Nach dem Schritt 76 werden die resultierenden Pixelbildwerte in der Speicherschaltung 26 für eine eventuelle Rekonstruktion in dem Bild 36 gespeichert.
  • 4 zeigt Schritte der Steuerlogik zur Identifikation struktureller Bereiche 48 in dem Bild 36 und zur Beseitigung kleiner oder mit Rauschen behafteter isolierter Bereiche aus der Definition der strukturellen Bereiche. Wie es vorstehend angeführt ist, beginnt die Logik in 4 mit Bildelementdaten des normalisierten Bildes In, was in Schritt 66 in 3 zusammengefaßt ist. In Schritt 80 werden die x- und y-Gradientenkomponenten für jedes Bildelement berechnet. während mehrere Verfahren zu diesem Zweck verwendet werden können, werden bei dem bevorzugten Ausführungsbeispiel 3 mal 3-Sobelmodule oder Operatoren 102 und 104 angewendet, die in 5 dargestellt sind. Wie es für den Fachmann ersichtlich ist, wird das Modul 102 zur Identifikation der x-Gradientenkomponente verwendet, während das Modul 104 zur Identifikation der y-Gradientenkomponente für jedes Bildelement verwendet wird. Bei diesem Vorgang werden die Module 102 und 104 dem in Frage kommenden einzelnen Bildelement überlagert, wobei das in Frage kommende Bildelement sich an der zentralen Position des 3 mal 3-Moduls befindet. Die an den Elementorten in jedem Modul vorhandenen Intensitätswerte werden mit dem in dem entsprechenden Element enthaltenen Skalarwert multipliziert, und die resultierenden Werte werden zum Erhalten der entsprechenden x- und y-Gradientenkomponenten summiert.
  • Mit diesen derart berechneten Gradientenkomponenten werden in Schritt 82 die Gradientengröße Gmag und die Gradientenrichtung Gdir berechnet. Bei dem bevorzugten Verfahren ist die Gradientengröße für jedes Bildelement gleich dem höheren Wert der Absolutwerte der X- und Y-Gradientenkomponenten für das jeweilige Bildelement. Die Gradientenrichtung wird durch Herausfinden des Arcustangens der Y-Komponente geteilt durch die X-Komponente bestimmt. Für Bildelemente mit einer X-Komponente gleich Null wird der Gradientenrichtung ein Wert von π/2 zugeordnet. Die Werte der Gradientengrößen und Gradientenrichtungen für jedes Bildelement werden in der Speicherschaltung 26 gespeichert.
  • Es können natürlich auch alternative Verfahren zur Identifikation der X- und Y-Gradientenkomponenten und zur Berechnung der Gradientengrößen und -richtungen verwendet werden. Beispielsweise ist es für einen Fachmann ersichtlich, daß anstelle der Sobel-Gradientenmodule 102 und 104 auch andere Module, wie Roberts- oder Prewitt-Operatoren verwendet werden können. Des weiteren kann die Gradientengröße auf andere Art und Weise zugeordnet werden, wie durch einen Wert gleich der Summe der Absolutwerte der X- und Y-Gradientenkomponenten.
  • Beruhend auf den in Schritt 82 bestimmten Gradientengrößenwerten wird in Schritt 84 ein Gradientenhistogramm erzeugt. 6 stellt ein beispielhaftes Gradientenhistogramm dieser Art dar. Das durch das Bezugszeichen 106 bezeichnete Histogramm ist ein Säulendiagramm bestimmter Populationen von Bildelementen mit bestimmten Gradientenwerten. Diese Gradientenwerte sind durch Positionen entlang einer horizontalen Achse 108 gekennzeichnet, während die Anzahl bzw. der Zählwert der Bildelementepopulationen für jeden Wert entlang der vertikalen Achse 110 aufgetragen sind, wobei jede Anzahl auf eine diskrete Stufe 112 fällt. Das resultierende Säulendiagramm bildet eine schrittweise bzw. gestufte Gradientenverteilungskurve 114 aus. Für den Fachmann ist ersichtlich, daß das Histogramm in 6 für die tatsächliche Implementation nicht graphisch dargestellt werden muß, aber durch die Signalverarbeitungsschaltung funktionell bestimmt werden muß, die in Verbindung mit den in der Spei cherschaltung gespeicherten Werten arbeitet.
  • Das Histogramm 106 wird zur Identifikation eines Gradientenschwellenwerts zur Trennung struktureller Komponenten des Bildes von nicht-strukturellen Komponenten verwendet. Der Schwellenwert wird auf eine gewünschte Gradientengrößenstufe eingestellt. Bildelemente mit Gradientengrößen mit oder über dem Schwellenwert erfüllen ein erstes Kriterium zur Definition einer Struktur in dem Bild, während Bildelemente mit Gradientengrößen unter dem Schwellenwert anfänglich als nicht-strukturell betrachtet werden. Der zur Trennung der Struktur von einer Nicht-Struktur verwendete Schwellenwert wird vorzugsweise mittels einer automatischen Verarbeitung oder einer nachstehend definierten Autofokus-Routine eingestellt. Der Schwellenwert kann aber auch durch eine Bedienerintervention (beispielsweise über die Eingabeeinrichtung 28) eingestellt werden, oder der über den nachstehend beschriebenen Vorgang identifizierte automatische Wert kann durch den Bediener zum Erhalten bestimmter Informationen in dem resultierenden Bild aufgehoben werden.
  • Wie es in 4 zusammengefaßt dargestellt ist, beginnt der Vorgang der Identifikation des Schwellenwerts in Schritt 86 durch die Auswahl eines anfänglichen Gradientenschwellenwerts. Dieser in 6 durch das Bezugszeichen 116 bezeichnete anfängliche Schwellenwert wird geeigneter Weise auf einen Wert eingestellt, der einem Perzentil der globalen Bildelementpopulation wie beispielsweise 30% entspricht. Der Ort entlang der Achse 108 des IGT-Werts 116 wird somit durch Addition der Bildelementpopulationsanzahl am linken Ende des Histogramms 106 in 6, das an die Achse 110 angrenzt, in Richtung des rechten Endes (d. h. aufsteigende Gradientenwerte) bestimmt. Ist der gewünschte Perzentilwert erreicht, stellt die entsprechende Gradientengröße den für IGT zugeordneten Wert dar.
  • In Schritt 88 wird nach Kanten der gewünschten Struktur gesucht. Die Kantensuche wird durch Lokalisierung der Bildelemente mit Gradientengrößen größer als dem in Schritt 86 ausgewählten IGT-Wert und unter Berücksichtigung einer 5 × 5-Bildelementnachbarschaft fortgesetzt, die die relevanten in Frage kommenden Bildelemente umgibt. Innerhalb der 5 × 5-Bildelementnachbarschaft jedes in Frage kommenden Bildelementes werden Bildelemente mit Gradientengrößen über dem IGT-Wert und mit Richtungen gezählt, die sich von der Richtung des in Frage kommenden Bildelements nicht um mehr als einen vorbestimmten Winkel unterscheiden. Bei dem bevorzugten Ausführungsbeispiel wird ein Winkel von 0,35 rad bei diesem Vergleichsschritt verwendet. Ist die 5 × 5-Nachbarschaftsanzahl größer als eine voreingestellte Anzahl, 3 bei diesem Ausführungsbeispiel, wird das in Frage kommende Bildelement als relevantes Kantenbildelement identifiziert. In Schritt 90 wird ein binäres Maskenbild erzeugt, wobei in Schritt 88 als relevante Kantenbildelemente identifizierte Bildelemente einen Wert 1 bekommen, während allen anderen Bildelementen ein Wert gleich Null zugewiesen wird.
  • In Schritt 92 werden als potentielle Kandidaten für eine Struktur identifizierte kleine oder mit Rauschen behaftete Segmente iterativ beseitigt. Die Schritte in der Steuerlogik zur Beseitigung dieser Segmente sind in 7 zusammengefaßt. Gemäß 7 beginnt der Vorgang in Schritt 120, wo ein binäres Bild durch die Zuweisung eines Wertes 1 für Bildelemente mit einem Gradientengrößenwert gleich oder größer als ein gewünschter Wert und eines Wertes Null für alle anderen Bildelemente erhalten wird. Dieses Binärbild oder diese Maske ist im wesentlichen gleich der in Schritt 90 erzeugten Maske (siehe 4). In Schritt 122 wird jedem Bildelement mit einem Wert 1 in der Binärmaske eine Indexnummer beginnend mit der linken unteren Ecke des Bildes zu der rechten oberen Ecke zugeordnet. Die Indexnummern werden für jedes Bildelement mit einem Wert 1 in der Maske inkrementiert. In Schritt 124 wird die Maske reihenweise von links unten an durch Vergleichen der Indexwerte der Bildelemente in kleinen Nachbarschaften analysiert. Wird beispielsweise ein Bildelement mit einer Indexnummer identifiziert, wird ein Vierfach-Vergleich ausgeführt, wobei die Indexnummer des in Frage kommenden Bildelements mit den Indexnummern der Bildelemente unmittelbar oberhalb, unterhalb, links und rechts des in Frage kommenden Bildelements verglichen wird, sofern diese Bildelemente eine Indexnummer haben. Die Indexnummern für jedes verbundene Bildelement werden dann in die niedrigste Indexnummer in der verbundenen Nachbarschaft geändert. Die Suche, der Vergleich und die Neuzuordnung werden über die gesamte Bildelementmatrix fortgesetzt, woraus sich Bereiche benachbarter Bildelemente ergeben, denen gemeinsame Indexnummern zugeordnet sind. Bei dem bevorzugten Ausführungsbeispiel kann der Indexnummer-Vereinigunsschritt 124 mehrmals ausgeführt werden, wie es in Schritt 126 in 7 dargestellt ist. Jede nachfolgende Iteration wird vorzugsweise in entgegengesetzter Richtung (von oben nach unten und von unten nach oben) durchgeführt.
  • Nach den Iterationen mit aufeinanderfolgender Suche und Vereinigung von Indexnummern wird die Indexnummer-Bildelementmatrix zusammenhängende Bereiche von Bildelementen mit gemeinsamen Indexnummern enthalten. Wie es in Schritt 128 in 7 dargestellt ist, wird dann ein Histogramm aus der Indexmatrix durch Zählen der Anzahl von Bildelementen mit jeweils einer in der Indexmatrix erscheinenden Indexnummer erzeugt. Für den Fachmann ist ersichtlich, daß jeder separate zusammenhängende Bereich von Bildelementen mit Indexnummern eine eindeutige Indexnummer hat. In Schritt 130 werden Bereiche, die durch Indexnummern mit Populationen niedriger als ein gewünschter Schwellenwert dargestellt werden, aus der Definition der Struktur entfernt, wie sie in Schritt 90 in 4 bestimmt ist. Bei dem bevorzugten Ausführungsbeispiel werden Bereiche mit einer Bildelementanzahl geringer als 50 Bildelemente in Schritt 130 entfernt. Die Anzahl an in diesem Schritt zu beseitigenden Bildelementen kann allerdings als Funktion der Matrixgröße und der Menge und Größe in der Definition der Struktur in dem endgültigen Bild zuzulassender isolierter Artefakte gewählt werden.
  • In 4 wird die Anzahl der in der Binärmaske verbleibenden Bildelemente in Schritt 94 gezählt, wobei Bildelemente für kleine Segmente aus der in Schritt 90 erzeugten binären Maske beseitigt sind. Obwohl die resultierende Anzahl zur Bestimmung eines endgültigen Gradientenschwellenwerts verwendet werden kann, wurde herausgefunden, daß ein geeignetes Verfahren zur Bestimmung eines endgültigen Gradientenschwellenwerts für die Definition der Struktur die Addition einer gewünschten Anzahl von Bildelementen zu der resultierenden Bildelementanzahl beinhaltet. Beispielsweise wird bei dem bevorzugten Ausführungsbeispiel ein Wert von 4000 zu der sich aus Schritt 92 ergebenden Binärmaskenanzahl zum Erhalten einer gewünschten Anzahl an Bildelementen in der Bildstrukturdefinition addiert. Dieser Parameter kann als Vorgabewert eingestellt werden, oder kann von einem Bediener modifiziert werden. Im allgemeinen erzeugt ein größerer Additionswert ein schärferes Bild, während ein niedrigerer Additionswert ein glatteres Bild erzeugt. Dieser hier als Fokusparameter bezeichnete Parameter kann somit zur Neudefinition der Klassifikation der Bildelemente in Strukturen und Nicht-Strukturen verändert werden.
  • Mit der Identifikation der gewünschten Anzahl an Strukturbildelementen wird ein endgültiger Gradientenschwellenwert bzw. FGT in Schritt 96 in 4 beruhend auf dem in 6 gezeigten Histogramm 106 bestimmt. Insbesondere werden die Populationsanzahlen für jeden Gradientengrößenwert beginnend vom rechten Ende des Histogramms 106 an nach links summiert, wie es durch das Bezugszeichen 132 angezeigt ist. Wurde die gewünschte Anzahl struktureller Bildelemente erreicht (d. h. die in Schritt 94 gezählte Anzahl der Bildelemente plus dem Fokusparameter), wird der entsprechende Gradientengrößenwert als endgültiger Gradientenschwellenwert 134 identifiziert. Beruhend auf diesem endgültigen Gradientenschwellenwert wird eine neue binäre Maske definiert, indem Bildelementen mit Werten größer oder gleich dem FGT-Wert ein Wert von 1 und allen anderen Bildelementen ein Wert Null zugeordnet wird. In Schritt 98 wird die resultierende binäre Maske zur Beseitigung kleiner, isolierter Segmente in einem Vorgang gleich dem vorstehend bezüglich Schritt 92 in 7 beschriebenen gefiltert. Allerdings wird in Schritt 98 anstelle einer vierfach verbundenen Nachbarschaft eine achtfach verbundene Nachbarschaft (d. h. einschließlich der Bildelemente mit gemeinsamen Kanten und Ecken um das in Frage kommende Bildelement) in den Indexnummer-Vereinigunsschritten berücksichtigt.
  • In Schritt 100 in 4 werden die durch die vorstehend beschriebenen Schritte identifizierten Merkmalskanten, die Kandidatenstrukturen in dem Bild darstellen, bezüglich der binären Rangordnung gefiltert. Obwohl verschiedene Verfahren für die Verbesserung identifizierter Kandidatenstrukturen verwendet werden können, wurde herausgefunden, dass die binäre Rangordnungsfilterung zufriedenstellende Ergebnisse bei der Expandierung und Definition der geeigneten Breite der zusammenhängenden Merkmale liefert, die zur Definition der strukturellen Elemente verwendet werden. Die Schritte in der beispielhaften Steuerlogik zur Implementierung der binären Rangordnungsfilterung in Schritt 100 sind in 8 dargestellt.
  • Gemäß 8 beginnt die binäre Rangordnungsfilterung in Schritt 140 mit der in den vorhergehenden Schritten erzeugten und verfeinerten binären Maske. In Schritt 140 bestimmt die Schaltung 24, ob die Bildelemente in der binären Maske jeweils einen Wert 1 haben. Hat das Bildelement einen Wert 1 in der Maske, findet eine Nachbarschaftszählung in Schritt 142 statt. Bei dieser Nachbarschaftszählung werden Bildelemente in der binären Maske mit Werte von 1 innerhalb einer 3 × 3-Nachbarschaft um das in Frage kommende strukturelle Bildelement gezählt. Diese Zählung beinhaltet das in Frage kommende Bildelement. In Schritt 144 bestimmt die Schaltung 24, ob der Zählwert bzw. die Anzahl aus Schritt 142 eine gewünschte Anzahl m überschreitet. Bei diesem Ausführungsbeispiel ist der in Schritt 144 verwendete Wert m gleich 2. Überschreitet die Anzahl den Wert m wird dem in Frage kommenden Bildelements der Wert 1 neu zugeordnet, wie es in Schritt 146 gezeigt ist. Überschreitet die Anzahl den Wert m nicht, wird dem in Frage kommenden Bildelement der Wert Null in der Maske zugeordnet, wie es in Schritt 148 gezeigt ist. Nach den Schritten 146 und 148, bzw. wenn das Bildelement nicht den ursprünglichen Wert 1 in der Maske in Schritt 140 hat, geht die Steuerung zu Schritt 150 über.
  • In Schritt 150 überprüft die Schaltung 124 die Strukturmaske zur Bestimmung, ob jedes in Frage kommende Bildelement einen Wert Null hat. Ist ein Bildelement mit dem Wert Null vorhanden, geht die Schaltung 24 zu Schritt 152 zur Berechnung eines Nachbarschaftszählwerts bzw. einer Nachbarschaftsanzahl ähnlich wie in Schritt 142 über. Insbesondere wird eine 3 × 3-Nachbarschaft um das nicht-strukturelle in Frage kommende Bildelement überprüft, und es wird eine Anzahl von Bildelementen in dieser Nachbarschaft mit einem Maskenwert 1 bestimmt. In Schritt 154 wird diese Nachbarschaftsanzahl mit einem Parameter n verglichen. Überschreitet die Anzahl den Parameter n, wird der Maskenwert für das Bildelement in Schritt 156 in 1 geändert. Überschreitet der Wert n nicht, behält das Maskenbildelement den Wert Null, wie es in Schritt 158 gezeigt ist. Bei diesem Ausführungsbeispiel ist der in Schritt 154 verwendete Wert n gleich 2. Nach Schritt 156 oder Schritt 158 enthält die resultierende Maske Ms Informationen, die die strukturellen in Frage kommenden Merkmale und die nicht strukturellen Bereiche identifizieren. Insbesondere werden die Bildelemente in der Maske mit einem Wert 1 zur Identifikation der Struktur berücksichtigt, während Bildelemente mit einem Wert Null als Anzeige einer Nicht-Struktur berücksichtigt werden.
  • Nach der Identifikation der Struktur des Bildes wird eine Orientierungsglättung der Struktur wie in Schritt 68 in 3 gezeigt über eine Logik ausgeführt, die in 9 schematisch dargestellt ist. Wie es in 9 gezeigt ist, beginnt die Orientierungsglättung der Bildstruktur mit den normalisierten Werten für die entsprechende Struktur und kann auf verschiedene Arten in Abhängigkeit vom gewünschten Glättungstyp fortschreiten. Insbesondere richtet ein Logikent scheidungsblock 162 beruhend auf einer in Schritt 160 in 9 bestimmten Bedienereingabe die Signalverarbeitungsschaltung 24 entweder auf eine dominante Orientierungsglättung, wie es durch das Bezugszeichen 164 gezeigt ist, oder eine lokale Orientierungsglättung, wie es durch das Bezugszeichen 166 gezeigt ist. Wird die dominante Orientierungsglättung gewählt, werden die Intensitätswerte für die strukturellen Bildelemente wie nachstehend gemäß 10 zusammengefaßt zur Erzeugung einer binären Maske M' verarbeitet. Den Iterationen der nachstehend gemäß 10 umrissenen Prozedur folgend werden die Werte der Maske M' in Schritt 168 ausgewertet, und eine Glättung wird bei den Strukturintensitätswerten unter Verwendung von Multiplizierern α und β durchgeführt, woraus sich Werte ergeben, die dann summiert werden, wie es in den Blöcken 170, 172 und 174 in 9 gezeigt und nachstehend näher zusammengefaßt ist.
  • Zur Beschreibung des dominanten Orientierungsglättungsschritts 164 wird auf 10 Bezug genommen. Wie es in 10 gezeigt ist, beginnt die dominante Orientierungsglättung mit der Zuordnung von Richtungsindizes zu jedem als strukturelles Bildelement in der Strukturmaske Ms identifizierten Bildelement. Bei diesem Ausführungsbeispiel wird einer aus vier Richtungsindizes jedem strukturellen Bildelement entsprechend den statistischen Varianzen für jedes Bildelement wie in 11 gezeigt zugeordnet. Gemäß 11 werden in einer lokalen Nachbarschaft 182, die jedes strukturelle Bildelement umgibt, statistische Varianzen für Bildelementkerne in vier Richtungen durch Bezugnahme auf die normalisierten Intensitätswerte der umgebenden Bildelemente berechnet. Die Richtung der minimalen Varianz wird aus den vier berechneten Werten ausgewählt, und ein entsprechender Richtungsindex wird zugeordnet, wie es durch das Bezug szeichen 184 in 11 dargestellt ist. Bei diesem Ausführungsbeispiel werden die Richtungsindizes wie folgt zugeordnet: 1 für 45 Grad, 2 für 135 Grad, 3 für 90 Grad und 4 für 0 Grad. Diese Schritte sind in 10 in 186 und 188 zusammengefasst. In Schritt 190 wird ein Lokalbereich-Schwellenwert beruhend auf der Bildmatrixgröße zugeordnet. Bei diesem Ausführungsbeispiel wird ein Lokalbereich-Schwellenwert 6 für 256×256-Pixelbilder, ein Wert 14,25 für 512×512-Pixelbilder oder ein Wert 23 für 1024×1024-Pixelbilder verwendet.
  • In Schritt 192 wird eine binäre Maske M mit Werten von 0 für jedes Bildelement initialisiert. In Schritt 194 wird eine dominante Orientierung für jedes strukturelle Bildelement durch Überprüfung der in Schritt 188 eingestellten Richtungsindizes in einer jedes strukturelle Bildelement umgebenden lokalen Nachbarschaft eingerichtet. In diesem Vorgang werden die in der lokalen Nachbarschaft gefundenen Richtungsindizes gezählt und dem in Frage kommenden Bildelement wird der den größten Zählwert liefernde Richtungsindex (bzw. der niedrigste vorhandene Index im Fall gleicher Zählwerte bzw. Anzahlen) zugeordnet. Bei diesem Ausführungsbeispiel ist die zur Identifikation der Richtung der dominanten Orientierung in Schritt 194 verwendete Nachbarschaftsgröße für die Folge der in Betracht gezogenen Bildmatrixdimensionen unterschiedlich. Insbesondere wird eine 3 × 3 Nachbarschaft für 256×256-Pixelbilder, eine 5 × 5 Nachbarschaft für 512×512-Pixelbilder und eine 9 × 9 Nachbarschaft für 1024×1024-Pixelbilder verwendet.
  • In Schritt 196 wird der Zählwert bzw. die Anzahl, die in der nachgesuchten Nachbarschaft für jedes Bildelement bestimmt wird, mit dem Lokalbereich-Schwellenwert verglichen. Über schreitet die Anzahl den Lokalbereich-Schwellenwert, schreitet die Signalverarbeitungsschaltung 24 zu Schritt 198 vor. In diesem Schritt wird der Intensitätswert für jedes strukturelle Bildelement gleich der Durchschnittsintensität eines 1 × 3-Kerns von Bildelementen in der dominanten Richtung für das in Frage kommende Bildelement gesetzt. Darauffolgend wird in Schritt 200 der Wert eines entsprechenden Orts in der binären Matrix M' von 0 auf 1 geändert. Überschreitet die Anzahl in Schritt 196 den Lolalbereich-Schwellenwert für ein bestimmtes Bildelement nicht, wird der Intensitätswert das in Frage kommende Bildelement gleich einem gewichteten Durchschnitt gesetzt, wie es in Schritt 202 gezeigt ist. Der gewichtet Durchschnitt wird durch folgende Beziehung bestimmt: gewichteter Durchschnitt = (l/l + p) (Eingabe) + (p/l + p) (geglätteter Wert),wobei der Eingabewert der Wert für das in Frage kommende Bildelement zu Beginn der Routine 164, p ein Gewichtungsfaktor zwischen 1 und 200 und der geglättete Wert die Durchschnittsintensität eines 1 × 3-Kerns in der dominanten Richtung des in Frage kommenden Bildelements ist. Die Schaltung 24 kehrt entweder vom Schritt 20 oder vom Schritt 202 zu Schritt 168 in 9 zurück.
  • In 9 werden in Schritt 168 die Werte jedes Bildelements der binären Maske M' ausgewertet. Ist der Wert gleich 0, wird der entsprechende Intensitätswert Ii mit einem Gewichtungsfaktor α in Schritt 170 multipliziert. Bei diesem Ausführungsbeispiel ist der Faktor α gleich 0,45. Im Block 172 wird der resultierende Wert mit dem Produkt des normalisier ten Intensitätswerts für das entsprechende Bildelement und einem Gewichtungsfaktor β, der in Schritt 174 berechnet wird, summiert. Bei diesem Ausführungsbeispiel ist die Summe der Faktoren α und β gleich 1, woraus sich der Wert von β zu 0,55 ergibt.
  • Ist der Wert für ein bestimmtes Bildelement in Schritt 168 gleich 1 in der binären Maske M', schreitet die Steuerung zum Entscheidungsblock 176 fort. Der Entscheidungsblock 176 wird auch als Folge der in Block 172 durchgeführten Summation wie vorstehend beschrieben erreicht. Bei diesem Ausführungsbeispiel werden die vorhergehenden dominanten Orientierungsglättungsschritte über eine gewünschte Anzahl an Iterationen zur Ausbildung ausreichender Glättung und Überbrückung zwischen strukturellen Bereichen durchgeführt. In Schritt 176 bestimmt die Schaltung 24 daher, ob die gewünschte Anzahl an Iterationen abgeschlossen ist, und wenn nicht, kehrt sie zu Schritt 164 zur weiteren Glättung der strukturellen Bereiche zurück. Bei diesem Ausführungsbeispiel kann der Bediener aus einer bis zehn derartiger Iterationen auswählen.
  • Wie vorstehend angeführt kann die Orientierungsglättung über eine alternative Folge von Schritten für eine lokale Orientierungsglättung wie in Block 166 in 9 angeführt fortschreiten. 9 stellt beispielhafte Schritte in der Steuerlogik für eine derartige lokale Orietierungsglättung dar. Wie bei der dominanten Orientierungsglättung beginnt die lokale Orientierungsglättung mit den normalisierten Intensitätswerten für die strukturellen Bildelemente. In Schritt 202 werden statistische Varianzen für 1 × 3-Bildelementkerne um jedes strukturelle Bildelement für jede indizierte Richtung (siehe 11) wie vorstehend für den dominanten Orien tierungsglättungsvorgang beschrieben berechnet. In Schritt 204 wird ein Verhältnis der maximalen/minimalen Varianzen berechnet, die für jedes Bildelement in Schritt 202 identifiziert wurden. In Schritt 206 wird dieses Verhältnis für jedes strukturelle Bildelement mit einem als Relaxationfaktor für die lokale Orientierungsfilterung bezeichneten Parameter R verglichen. Bei diesem Ausführungsbeispiel kann der Wert R zwischen 1 und 200 eingestellt sein. Überschreitet in Schritt 206 das Varianzverhältnis R, wird eine lokale Orientierungsfilterung wie in Schritt 208 gezeigt durch Einstellung des Intensitätswerts für das in Frage kommende strukturelle Bildelement gleich einem Duchschnittswert für den 1 × 3-Bildelementkern in der Richtung der minimalen Varianz bewirkt. überschreitet in Schritt 206 das Verhältnis zwischen der maximalen und minimalen Varianz für das in Frage kommende Bildelement R nicht, wird keine lokale Orientierungsglättung durchgeführt, und die Schaltung 24 schreitet zu einem Punkt nach dem Schritt 208 vor. Von diesem Punkt aus kehrt die Steuerung zu Block 170 in 9 zurück.
  • Gemäß 9 wird in Block 170 der Intensitätswert für jedes strukturelle Bildelement mit einem Gewichtungsfaktor α multipliziert und in Block 172 mit dem Produkt des normalisierten Intensitätswerts für das entsprechende Bildelement und einem in Block 174 erzeugten Gewichtungsfaktor β kombiniert. Wie vorstehend zusammengefaßt ist, bestimmt die Schaltung 24 in Schritt 176, ob die gewünschte Iterationsanzahl erreicht ist, und wenn nicht, kehrt sie zu dem lokalen Orientierungsglättungsblock 166 zur Wiederholung der Schritte in 9 bis zum Erreichen der gewünschten Iterationsanzahl zurück. Wurden die gewünschten Iterationen durchgeführt, wird das sich aus der Orientierungsglättung ergebende gefilterte Bild If durch die nachstehend beschriebenen Vorgänge weiter gefiltert.
  • Wie vorstehend unter Bezugnahme auf 3 beschrieben folgt der Orientierungsglättung der in dem Bild identifizierten Struktur eine Homogenisierungsglättung der Nicht-Struktur. Die Schritte eines Vorgangs einer derartigen Homogenisierungsglättung sind in 13 dargestellt. Gemäß 13 werden die normalisierten Intensitätswerte für nicht-strukturelle Bildelemente bei diesem Vorgang berücksichtigt. In Schritt 210 wird der mittlere Nachbarschaftsintensitätswert für jedes nicht strukturelle Bildelement berechnet (unter Berücksichtigung der normalisierten Werte der strukturelle Bildelemente, wo diese in der berücksichtigten Nachbarschaft enthalten sind). Bei diesem Ausführungsbeispiel wird der Schritt 210 auf der Grundlage einer 3 × 3-Nachbarschaft um jedes nicht strukturelle Bildelement abgearbeitet. Dieser Mittelwert wird dem in Frage kommenden Bildelement zugewiesen und die Steuerung schreitet zu Schritt 212 vor. In Schritt 212 bestimmt die Schaltung 24, ob die gewünschte Iterationsanzahl abgeschlossen ist. Wenn nicht, kehrt die Steuerung zu Schritt 210 zur weiteren Homogenisierung der nicht strukturellen Bildelelmentintensitätswerte zurück. Wurde die gewünschte Iterationsanzahl erreicht, wird die Homogenisierungsglättungroutine in Schritt 13 verlassen. Bei diesem Ausführungsbeispiel kann der Bediener die Anzahl der Homogenisierungsglättungsiterationen in einem Bereich von 1 bis 10 einstellen.
  • Der Homogenisierungsglättung folgend wird das gefilterte Bild durch eine Orientierungsschärfung der identifizierten Struktur wie vorstehen gemäß 3 beschrieben weiter verarbeitet, was ausführlich in 14 dargestellt ist. Gemäß 14 beginnt die Orientierungsschärfungsfolge in Schritt 214, wo Laplacewerte für jedes strukturelle Bildelement in den in 11 gezeigten und vorstehend beschriebenen indizierten Richtungen berechnet sind. Die Laplacewerte können anhand folgender Formel berechnet werden: L(k) = 2,0·I(k) – I(k – 1) – I(k + 1),wobei k das in Frage kommende struktruelle Bildelement, k – 1 das dem in Frage kommenden Bildelement vorangehende Bildelement in der indizierte Richtung und k + 1 das dem in Frage kommende Bildelement folgende Bildelement in der indizierten Richtung ist. Die in Schritt 214 berechneten Laplacewerte beruhen auf den gefilterten Intensitätswerten (d. h. den geglätteten Werten für die Struktur). In Schritt 216 wird der Maximalwert der vier Laplacewerte für jedes strukturelle Bildelement zur Ausbildung eines Kantenbildes Me gespeichert. In Schritt 218 werden für jedes strukturelle Bildelement die statistischen Varianzen und Mittelwerte für einen 3 × 1 Bildelementkern in den in 11 gezeigten indizierten Richtungen berechnet, wobei wiederum die gefilterten (d. h. die homogenisierten und geglätteten) Werte für jedes Bildelement in den relevanten Nachbarschaften verwendet werden. Die Richtung der minimalen Varianz für jedes struktuelle Bildelement wird dann aus diesen Werten identifiziert, und der Mittelwert in der Richtung der minimalen Varianz wird für jedes Bildelement wie in Schritt 220 dargestellt gespeichert. In Schritt 222 wird der Mittelwert in der Richtung der minimalen Varianz für jedes strukturelle Bildelement mit einem Faktor γ multipliziert. Bei diesem Ausführungsbeispiel kann der Wert von γ in einem Bereich von 0,00001 bis 2,0 eingestellt werden. Im Allgemeinen gilt: je höher der Wert von γ gewählt wird, desto größer ist die Gesamtschärfe starker Kanten in dem endgülti gen Bild. In Schritt 224 wird der resultierende gewichtete Wert zu dem anfänglichen gefilterten Wert für das entsprechende strukturelle Bildelement hinzu addiert. Die resultierenden gefilterten Bildwerte werden dann wie nachstehend beschrieben weiter verarbeitet.
  • Der Orientierungsschärfung der strukturellen Merkmale des Bildes folgend wird das gesamte Bild erneut normalisiert, wie es in Schritt 74 in 3 gezeigt ist. Während verschiedene Verfahren für diese Neunormalisierung verwendet werden können, wird bei diesem Ausführungsbeispiel die globale Durchschnittsbildelementsintensität in dem gefilterten Bild nach Schritt 72 berechnet, und ein Normalisierungsfaktor wird beruhend auf dem Unterschied zwischen diesem Durchschnittswert und dem Durchschnittswert vor den vorstehend beschriebenen Filterschritten bestimmt. Der neue normalisierte Intensitätswert für jedes Bildelement wird dann durch Multiplikation dieses Normalisierungsfaktors mit der gefilterten Bildelementintensität und durch Addition des globalen minimalen Intensitätswertes aus den ursprünglichen Daten zu dem Produkt bestimmt.
  • Das resultierende neu Normalisierte gefilterte Bild, das in 3 mit Ifn bezeichnet ist, wird dann weiter zur Zurückmischung einer Textur aus den ursprünglichen Daten in die nicht-strukturellen Bereiche verarbeitet. Dieser Texturmischschritt ist in 15 dargestellt. Im Allgemeinen tendieren die Schritte in 15 zur Addition von mehr oder weniger ursprünglicher Textur in Abhängigkeit von der Gradientengröße der nicht-strukturellen Bildelemente. Insbesondere wird in Schritt 226 die Gradientengröße für jedes in Frage kommende nicht strukturelle Bildelement mit einem Schwellenwert T verglichen. Bei diesen Ausführungsbeispiel ist dieser Schwel lenwert auf den Wert 300 gesetzt. Überschreitet der Gradient diesen Schwellenwert nicht, wird der Bildelementintensitätswert mit einem Wert a in Schritt 228 multipliziert. Das resultierende Produkt wird in Schritt 230 zu dem Produkt des rohen Intensitätswerts für das Bildelement (vor der Neunormalisierung in Schritt 64 in 3) addiert, das mit einem Wert gleich 1-a in Schritt 232 multipliziert wird. Der resultierende gewichtete Durchschnitt wird dem Bildelement zugeordnet.
  • Überschreitet in Schritt 226 der Gradientengrößenwert für ein Bildelement den Schwellenwert T, wird die Bildelementintensität mit einem Faktor b multipliziert, wie es in Schritt 234 gezeigt ist. Das resultierende Produkt wird dann in Schritt 236 zu dem in Schritt 238 bestimmten Produkt der rohen Intensität dieses Bildelements und einem Multiplikator gleich 1-b addiert. Bei diesem Ausführungsbeispiel kann der Wert von b in einem Bereich von 0 bis 1 eingestellt werden, wobei der Wert a gleich 1,5 mal dem Wert b gesetzt ist. Wie es für den Fachmann ersichtlich ist, addiert die durch die Schritte in 15 durchgeführte gewichtete Durchschnittsbildung eine Textur effektiv zurück in nicht strukturelle Bereiche, um eine verständliche Umgebung für die wie vorstehend beschrieben gefilterte Struktur zu erhalten. Durch die Durchführung des Vergleichs in Schritt 226 addiert der Prozess weniger ursprüngliche Textur für Bildelemente mit niedrigen Gradientenwerten und mehr ursprüngliche Textur für Bildelemente mit höheren Gradientenwerten. Bei Bedarf können die Werte von a und b zur Erhöhung bzw. Verringerung dieser Funktion des Vorgangs eingestellt werden.
  • Erfindungsgemäß werden ein diskretes Pixelbild darstellende Bildelementdaten zur Identifizierung von Strukturen und Nicht-Strukturen in dem durch die Bildelementdaten definierten Bild verarbeitet. Die Strukturen und Nicht-Strukturen werden auf verschiedene Art und Weise verarbeitet. Die Strukturen werden durch die Berechnung von Gradienteninformationen über jedes Bildelement und durch Vergleichen der Gradienteninformationen mit einem Gradientenschwellenwert und durch Vergleichen von Gradientenrichtungen für angrenzende Bildelemente untereinander identifiziert. Die die Strukturen definierenden Kanten werden einer binären Rangordnungsfilterung unterzogen. Die Strukturen werden bezüglich der Orientierung geglättet und geschärft. Die Nicht-Strukturen werden Homogenisierungs-geglättet und eine ursprüngliche Textur wird wieder in die nicht-strukturellen Bereiche gemischt.

Claims (13)

  1. Verfahren zur Verbesserung eines durch eine Vielzahl diskreter Bildelemente definierten Bildes mit den Schritten a) Identifizieren (66) einer Gruppe struktureller Bildelemente, die in Frage kommende Strukturen (48) darstellen, und einer Gruppe nicht-struktureller Bildelemente, die nicht-strukturelle Bereiche (50) in dem Bild darstellen, wobei die strukturellen Bildelemente durch Bestimmen von Gradientenwerten (108) für jedes Bildelement, Identifizieren eines Gradientenschwellenwerts (134) und Identifizieren von Bildelementen mit einem gewünschten Verhältnis zu dem Gradientenschwellenwert identifiziert werden, wobei der Gradientenschwellenwert durch Vergleichen von Gradientenwerten (108) für die Bildelemente mit einem gewünschten Wert (116) und Vergleichen von Gradientenrichtungen für die Bildelemente untereinander und Zählen von Bildelementen beruhend auf den Vergleichen identifiziert wird, b) Orientierungs-Glätten (68) der in Frage kommenden Strukturen, c) Homogenisierungs-Glätten (70) der nicht-strukturellen Bereiche, d) Orientierungs-Schärfen (72) der in Frage kommenden Strukturen und e) Mischen (76) von Texturdaten in die nicht-strukturellen Bereiche.
  2. Verfahren nach Anspruch 1, mit dem weiteren Schritt der binären Rangordnungsfilterung (100) der strukturellen Bildelemente, was dem Identifizierungsschritt folgt.
  3. Verfahren nach Anspruch 1, wobei die Orientierungs-Glättung in Schritt b) die Schritte umfasst Bestimmen dominanter, durch die strukturellen Bildelemente definierter Orientierungen (180194), und Glätten (164) der strukturellen Bildelemente in den Richtungen der dominanten Orientierungen.
  4. Verfahren nach Anspruch 1, wobei die Orientierungs-Glättung in Schritt b) eine lokale Orientierungs-Glättung (166) der strukturellen Bildelemente umfasst.
  5. Verfahren nach Anspruch 1, mit dem weiteren Schritt Beseitigen (92; 98) isolierter Gruppen (52) angrenzender Bildelemente, die kleiner als eine gewünschte Größe sind, aus der Gruppe der strukturellen Bildelemente.
  6. Verfahren nach Anspruch 1, wobei die Homogenisierungs-Glättung in Schritt c) eine Mittelung (210) von benachbarte Bildelemente darstellenden Werten für jedes nicht-strukturelle Bildelement umfasst.
  7. Verfahren nach Anspruch 1, wobei die Texturmischung in Schritt e) die Berechnung (228, 230, 232, 234, 236, 238) eines gewichteten Durchschnitts gefilterter und nicht gefilterter Werte für nicht-strukturelle Bildelemente enthält.
  8. Verfahren nach Anspruch 7, wobei Gewichtungsfaktoren bei der gewichteten Durchschnittsberechnung beruhend auf Gradientenwerten für die nicht-strukturellen Bildelemente ausgewählt werden (226).
  9. System (10) zur Verarbeitung eines diskreten Pixelbildes mit einer Erfassungseinheit (22), die zur Erfassung von Signalen eingerichtet ist, die diskrete Bildelemente in einem Bild darstellen, einer mit der Erfassungseinheit verbundenen Signalverarbeitungsschaltung (24), die zur Ausführung der Schritte eingerichtet ist: a) Identifizieren (66) einer Gruppe struktureller Bildelemente, die in Frage kommende Strukturen (48) darstellen, und einer Gruppe nicht-struktureller Bildelemente, die nicht-strukturelle Bereiche (50) in dem Bild darstellen, aus den erfassten Signalen, wobei die strukturellen Bildelemente durch Bestimmen von Gradientenwerten (108) für jedes Bildelement, Identifizieren eines Gradientenschwellenwerts (134) und Identifizieren von Bildelementen mit einem gewünschten Verhältnis zu dem Gradientenschwellenwert identifiziert werden, wobei der Gradientenschwellenwert durch Vergleichen von Gradientenwerten (108) für die Bildelemente mit einem gewünschten Wert (116) und Vergleichen von Gradientenrichtungen für die Bildelemente untereinander und Zählen von Bildelementen beruhend auf den Vergleichen identifiziert wird, b) Orientierungs-Glätten (68) der in Frage kommenden Strukturen, c) Homogenisierungs-Glätten (70) der nicht-strukturellen Bereiche, d) Orientierungs-Schärfen (72) der in Frage kommenden Strukturen und e) Mischen (76) von Texturdaten in die nicht-strukturellen Bereiche, einer mit der Signalverarbeitungsschaltung verbundenen Speicherschaltung (26), die zur Speicherung von Werten eingerichtet ist, die durch die Signalverarbeitungsschaltung verarbeitete Bildelementdaten darstellen, und einer mit der Signalverarbeitungsschaltung verbundenen Ausgabeeinrichtung (32) zur Erzeugung eines vom Bediener wahrnehmbaren Bildes beruhend auf den durch die Signalverarbeitungsschaltung verarbeiteten Bildelementdaten.
  10. System nach Anspruch 9, wobei die Erfassungseinheit eine Magnetresonanzabtasteinrichtung (12) zur Erfassung von Emissionen gyromagnetischen Materials in einem in Frage kommenden Subjekt enthält.
  11. System nach Anspruch 9, ferner mit einer mit der Signalverarbeitungsschaltung verbundenen Eingabeeinrichtung (28) zum Empfangen von Bedienerkonfigurationsparametern, wobei die Signalverarbeitungsschaltung zur Verarbeitung der erfassten Signale zumindest teilweise beruhend auf den Konfigurationsparametern eingerichtet ist.
  12. System nach Anspruch 9, wobei die Signalverarbeitungsschaltung zur Identifikation struktureller Bildelemente und nicht-struktureller Bildelemente beruhend auf Gradientendaten für jedes Bildelement und über eine in der Speicherschaltung gespeicherte Steuerlogik ohne Bedienerintervention eingerichtet ist.
  13. System nach Anspruch 9, wobei der Gradientenschwellenwert durch Vergleichen der Gradientenwerte mit einem Anfangsschwellenwert, Vergleichen einer Gradientenrichtung für jedes Bildelement mit Gradientenrichtungen für angrenzende Bildelemente und Zählen von gewünschte Beziehungen mit dem Anfangsschwellenwert und angrenzenden Bildelementrichtungen erfüllenden Bildelementen identifiziert wird, wobei die Signalverarbeitungsschaltung ferner zum Filtern der strukturellen Bildelemente auf eine erste Art zur Verbesserung der in Frage kommenden Merkmale durch Glätten und Schärfen der Merkmale, und Filtern der nicht-strukturellen Bildelemente auf eine zweite Art durch Glätten und Neu-Texturierung nicht-struktureller Bereiche eingerichtet ist.
DE19916612A 1998-04-14 1999-04-13 Verfahren und System zur Verbesserung diskreter Pixelbilder Expired - Fee Related DE19916612B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/060,017 1998-04-14
US09/060,017 US6208763B1 (en) 1998-04-14 1998-04-14 Method and apparatus for enhancing discrete pixel images

Publications (2)

Publication Number Publication Date
DE19916612A1 DE19916612A1 (de) 1999-10-21
DE19916612B4 true DE19916612B4 (de) 2008-12-18

Family

ID=22026801

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19916612A Expired - Fee Related DE19916612B4 (de) 1998-04-14 1999-04-13 Verfahren und System zur Verbesserung diskreter Pixelbilder

Country Status (5)

Country Link
US (1) US6208763B1 (de)
JP (1) JP4063447B2 (de)
CN (1) CN1135499C (de)
DE (1) DE19916612B4 (de)
IL (1) IL129374A (de)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6415053B1 (en) * 1998-04-20 2002-07-02 Fuji Photo Film Co., Ltd. Image processing method and apparatus
US6697107B1 (en) * 1998-07-09 2004-02-24 Eastman Kodak Company Smoothing a digital color image using luminance values
AUPP779898A0 (en) * 1998-12-18 1999-01-21 Canon Kabushiki Kaisha A method of kernel selection for image interpolation
US7020343B1 (en) * 1999-12-30 2006-03-28 Ge Medical Systems Global Technology Company, Llc Method and apparatus for enhancing discrete pixel images by analyzing image structure
US6337925B1 (en) * 2000-05-08 2002-01-08 Adobe Systems Incorporated Method for determining a border in a complex scene with applications to image masking
JP4191884B2 (ja) * 2000-08-18 2008-12-03 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 画像処理方法、画像処理装置および画像撮影装置
JP3946038B2 (ja) * 2000-12-25 2007-07-18 株式会社リコー 画像処理装置および画像形成装置
US20030026495A1 (en) * 2001-03-07 2003-02-06 Gondek Jay Stephen Parameterized sharpening and smoothing method and apparatus
US7088474B2 (en) * 2001-09-13 2006-08-08 Hewlett-Packard Development Company, Lp. Method and system for enhancing images using edge orientation
WO2003024184A2 (en) * 2001-09-14 2003-03-27 Cornell Research Foundation, Inc. System, method and apparatus for small pulmonary nodule computer aided diagnosis from computed tomography scans
EP1306805A1 (de) * 2001-10-25 2003-05-02 Mitsubishi Electric Information Technology Centre Europe B.V. Bildanalyse
US7206101B2 (en) 2001-11-21 2007-04-17 Ge Medical Systems Global Technology Company, Llc Computationally efficient noise reduction filter
US6592523B2 (en) * 2001-11-21 2003-07-15 Ge Medical Systems Global Technology Company, Llc Computationally efficient noise reduction filter for enhancement of ultrasound images
US6963670B2 (en) 2001-11-21 2005-11-08 Ge Medical Systems Global Technology Company, Llc CT dose reduction filter with a computationally efficient implementation
US6973219B2 (en) 2001-11-21 2005-12-06 Ge Medical Systems Global Technology Company, Llc Segmentation driven image noise reduction filter
US20030206662A1 (en) * 2002-05-03 2003-11-06 Avinash Gopal B. Method and apparatus for improving perceived digital image quality
US7599579B2 (en) * 2002-07-11 2009-10-06 Ge Medical Systems Global Technology Company, Llc Interpolated image filtering method and apparatus
US7502525B2 (en) * 2003-01-27 2009-03-10 Boston Scientific Scimed, Inc. System and method for edge detection of an image
US6912309B2 (en) * 2003-03-06 2005-06-28 Lockheed Martin Corporation Method and system for identifying objects in an image
US7348991B1 (en) * 2003-04-16 2008-03-25 Silicon Image, Inc. Video/graphics text mode enhancement method for digitally processed data
US7623723B2 (en) * 2003-11-26 2009-11-24 GE Medical Systems Global Technology Com. Method for random point and patterned noise reduction in digital images
JP2005176988A (ja) * 2003-12-17 2005-07-07 Ge Medical Systems Global Technology Co Llc データ補正方法およびx線ct装置
US8021301B2 (en) * 2003-12-26 2011-09-20 Fujifilm Corporation Ultrasonic image processing apparatus, ultrasonic image processing method and ultrasonic image processing program
US20060008174A1 (en) * 2004-07-07 2006-01-12 Ge Medical Systems Global Technology Count adaptive noise reduction method of x-ray images
US7835562B2 (en) 2004-07-23 2010-11-16 General Electric Company Methods and apparatus for noise reduction filtering of images
DE102004061507B4 (de) * 2004-12-21 2007-04-12 Siemens Ag Verfahren zur Korrektur von Inhomogenitäten in einem Bild sowie bildgebende Vorrichtung dazu
US7512284B2 (en) * 2005-03-29 2009-03-31 General Electric Company Volumetric image enhancement system and method
CN1892696B (zh) * 2005-07-08 2010-06-16 深圳迈瑞生物医疗电子股份有限公司 超声图像边缘锐化与斑点抑制方法
US7489825B2 (en) * 2005-07-13 2009-02-10 Ge Medical Systems Method and apparatus for creating a multi-resolution framework for improving medical imaging workflow
CN100484479C (zh) * 2005-08-26 2009-05-06 深圳迈瑞生物医疗电子股份有限公司 超声图像增强与斑点抑制方法
JP4752407B2 (ja) * 2005-09-09 2011-08-17 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
EP1770636A1 (de) * 2005-09-28 2007-04-04 Pioneer Digital Design Centre Ltd Fernsehbildfilterung
US8878923B2 (en) * 2007-08-23 2014-11-04 General Electric Company System and method for enhanced predictive autofocusing
CN101459766B (zh) * 2007-12-10 2012-06-27 深圳迈瑞生物医疗电子股份有限公司 超声图像增强与噪声抑制的方法及其装置
JP4683343B2 (ja) * 2007-12-27 2011-05-18 株式会社 日立ディスプレイズ 色信号生成装置
US9355469B2 (en) 2009-01-09 2016-05-31 Adobe Systems Incorporated Mode-based graphical editing
US8786873B2 (en) * 2009-07-20 2014-07-22 General Electric Company Application server for use with a modular imaging system
US8243882B2 (en) 2010-05-07 2012-08-14 General Electric Company System and method for indicating association between autonomous detector and imaging subsystem
US8487952B2 (en) 2011-04-21 2013-07-16 Honeywell International Inc. Methods and systems for marking pixels for image monitoring
WO2013076613A1 (en) * 2011-11-23 2013-05-30 Koninklijke Philips Electronics N.V. Image domain de-noising
US9456764B2 (en) * 2013-09-19 2016-10-04 Alberta Health Services Reducing artefacts in MRI k-space data with simultaneous radiation beam incident on MRI collector coils
US9665791B2 (en) * 2014-04-04 2017-05-30 Massachusetts Institute Of Technology System and method for extracting dominant orientations from a scene
CN109712075B (zh) * 2018-12-24 2022-10-14 广东理致技术有限公司 一种数字图像数据原图识别方法及装置
CN109816764B (zh) * 2019-02-02 2021-06-25 深圳市商汤科技有限公司 图像生成方法及装置、电子设备和存储介质
CN111652818B (zh) * 2020-05-29 2023-09-29 浙江大华技术股份有限公司 一种基于金字塔的图像滤波方法、装置及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5218649A (en) * 1990-05-04 1993-06-08 U S West Advanced Technologies, Inc. Image enhancement system
US5561724A (en) * 1993-06-11 1996-10-01 Hitachi Medical Corporation Method conducting smoothing processing in a linear direction having a minimized magnitude of density change

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE448126B (sv) 1985-05-23 1987-01-19 Context Vision Ab Anordning for detektering av sprangartade forendringar av en egenskap inom ett omrade av en i diskreta bildelement uppdelad bild
SE448125B (sv) 1985-05-23 1987-01-19 Context Vision Ab Anordning for bestemning av graden av konstans hos en egenskap for ett omrade i en i diskreta bildelement uppdelad bild
SE448124B (sv) 1985-05-23 1987-01-19 Context Vision Ab Anordning for detektering av variationsgraden av en egenskap i ett omrade av en i diskreta bildelement uppdelad bild
US5268967A (en) * 1992-06-29 1993-12-07 Eastman Kodak Company Method for automatic foreground and background detection in digital radiographic images
US5602934A (en) * 1993-09-08 1997-02-11 The Regents Of The University Of California Adaptive digital image signal filtering
US5784498A (en) * 1996-01-11 1998-07-21 Xerox Corporation System and method for synthesizing background texture in an image
US5943435A (en) * 1997-10-07 1999-08-24 Eastman Kodak Company Body part recognition in radiographic images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5218649A (en) * 1990-05-04 1993-06-08 U S West Advanced Technologies, Inc. Image enhancement system
US5561724A (en) * 1993-06-11 1996-10-01 Hitachi Medical Corporation Method conducting smoothing processing in a linear direction having a minimized magnitude of density change

Also Published As

Publication number Publication date
DE19916612A1 (de) 1999-10-21
US6208763B1 (en) 2001-03-27
CN1238505A (zh) 1999-12-15
JP2000011170A (ja) 2000-01-14
IL129374A (en) 2003-01-12
CN1135499C (zh) 2004-01-21
JP4063447B2 (ja) 2008-03-19
IL129374A0 (en) 2000-02-17

Similar Documents

Publication Publication Date Title
DE19916612B4 (de) Verfahren und System zur Verbesserung diskreter Pixelbilder
DE19916354B4 (de) Verfahren und Vorrichtung zur Analyse von Bildstrukturen
DE69432995T2 (de) Automatisches Verfahren und System zur Segmentierung medizinischer Bilder
DE69636911T2 (de) Bildverarbeitungsverfahren und -Vorrichtung
DE3588169T2 (de) Verfahren zur Detektion einer Bildbelichtungsfläche in einem Bildauslesevorgang
DE69629732T2 (de) Vorrichtung zur rechnerunterstützten Diagnose
DE60212917T2 (de) Vorrichtung zur Berechnung eines Index von örtlichen Blutflüssen
DE3826287C2 (de) Verfahren und Vorrichtung zur automatischen Analyse von Lungengewebe aus einem röntgenologischen Brustbild
DE3840257C2 (de) Verfahren zur automatischen Beurteilung von Unterschieden zwischen normalen und abnormalen Lungen
US7599579B2 (en) Interpolated image filtering method and apparatus
DE69828909T2 (de) Neue perzeptive lokale gradientenbasierte gratbestimmung
DE602004003845T2 (de) Bildverarbeitungsvorrichtung zur Reduktion von Pixelrauschen
DE69630935T2 (de) Bilverarbeitungsverfahren und -vorrichtung zur automatischen Erfassung von Bereichen eines vorbestimmten Krebstyps in einem Intensitätsbild
DE69832357T2 (de) Geräuschverminderung in einem bild
DE69111932T2 (de) Tönungsskala-herstellungsverfahren und vorrichtung für digitale röntgenbilder.
DE69214229T2 (de) Verfahren und Vorrichtung zur Kontrastverbesserung von Bildern
DE2952422C3 (de) Verfahren und Vorrichtung zum Verarbeiten eines Röntgenbildes bei einem Röntgenbild-Kopiersystem
DE69026329T2 (de) Entrasterung von gespeicherten digitalen Halbtonbildern durch logisches Filtrieren
DE102004057026A1 (de) Erfassung zeitlicher Bildveränderungen und Darstellungsverfahren und -vorrichtung
DE112005000205T5 (de) System und Verfahren zur automatischen Knochenextraktion von einem medizinischen Bild
DE19827034A1 (de) Iteratives Filtersystem für medizinische Bilder
DE102006002914A1 (de) Mehrdimensionale Segmentierung basierend auf adaptiven begrenzenden Kasten- und Ellipsoid-Modellen
DE10333563A1 (de) Temporales Bildvergleichsverfahren
EP1209622A2 (de) Verfahren und Vorrichtung zur Registrierung von Bildern
DE19806728A1 (de) Verfahren zur zweidimensionalen Abbildung von Strukturen für die medizinische Diagnostik

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee