DE69822923T2 - Verfahren und Vorrichtung zur Kantenhervorhebung - Google Patents

Verfahren und Vorrichtung zur Kantenhervorhebung Download PDF

Info

Publication number
DE69822923T2
DE69822923T2 DE69822923T DE69822923T DE69822923T2 DE 69822923 T2 DE69822923 T2 DE 69822923T2 DE 69822923 T DE69822923 T DE 69822923T DE 69822923 T DE69822923 T DE 69822923T DE 69822923 T2 DE69822923 T2 DE 69822923T2
Authority
DE
Germany
Prior art keywords
edge
edge enhancement
pixels
level
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69822923T
Other languages
English (en)
Other versions
DE69822923D1 (de
Inventor
Naoki Suwa-shi Kuwata
Yoshihiro Suwa-shi Nakami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Publication of DE69822923D1 publication Critical patent/DE69822923D1/de
Application granted granted Critical
Publication of DE69822923T2 publication Critical patent/DE69822923T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • G06T5/75Unsharp masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)

Description

  • Technisches Gebiet, auf das sich die Erfindung bezieht
  • Die vorliegende Erfindung bezieht sich auf eine Kantenhervorhebung-Verarbeitungsvorrichtung und ein Verfahren zur Durchführung einer Kantenhervorhebungsverarbeitung auf der Grundlage von Mehrebenen-Bilddaten, die ein Bild mit Pixeln in einer Punktmatrix repräsentieren, und auf ein Medium, das ein Kantenhervorhebung-Verarbeitungsprogramm enthält.
  • Stand der Technik
  • Bildverarbeitungs-Softwareprogramme zur Durchführung einer Kantenhervorhebungsverarbeitung, um die Kantenabschnitte von Bilddaten, die eine Photographie oder dergleichen repräsentieren, hervorzuheben, sind herkömmlich bekannt. Diese Programme lesen Bilddaten in einen Computer ein, und konvertieren die Bilddaten auf unterschiedlichen Kantenhervorhebungsniveaus mittels Versuch und Irrtum. Ein Operator prüft das konvertierte Ergebnis auf einem Anzeigebildschirm durch visuelle Betrachtung, um dieses somit anzupassen, so dass sich in angemessener Weise hervorgehobene Kantenabschnitte ergeben.
  • Die offengelegte japanische Patentanmeldung Nr.6-68252 offenbart die Erlangung von Hochfrequenzkomponenten in den Kantenbereichen eines Bildes unter Verwendung eines Hochfrequenz-Bandfilters, die Beurteilung der Schärfe des Bildes auf der Grundlage des Mittelwertes der Hochfrequenzkomponenten, und das Steuern eines Kantenhervorhebungsparameters.
  • Da im ersteren Fall das konvertierte Ergebnis durch die visuelle Betrachtung des Operators geprüft werden muss, kann ein angemessenes Hervorhebungsniveau nicht automatisch festgelegt werden.
  • Da im letzteren Fall die Hochfrequenzkomponenten durch Verwendung des Hochfrequenz-Bandfilters erhalten werden, ist die Verarbeitung kompliziert.
  • US 5513016 offenbart ein Verfahren und eine Vorrichtung zum Verarbeiten eines Bildsignals unter Verwendung einer Unschärfemaskierung zur Hervorhebung der Kantenabschnitte des Bildes. Die Größe der Unschärfemaske ist in Abhängigkeit von der Größe des Bildes veränderlich.
  • Offenbarung der Erfindung
  • Es ist daher eine Aufgabe der vorliegenden Erfindung, die in den beigefügten Ansprüchen ausgeführt ist, eine Kantenhervorhebung-Verarbeitungsvorrichtung und ein Verfahren zu schaffen, die die Schärfe eines Bildes mit einem einfacheren Verfahren beurteilen können und automatisch eine optimale Kantenhervorhebungsverarbeitung durchführen können.
  • Die Kantenhervorhebung-Verarbeitungsvorrichtung, die von der vorliegenden Erfindung geschaffen wird, ist eine Kantenhervorhebung-Verarbeitungsvorrichtung, umfassend:
    • eine Bilddaten-Erlangungseinheit, die Mehrebenen-Bilddaten erlangt, die ein Bild mit Pixeln in einer Punktmatrix repräsentieren;
    • eine Summierungsverarbeitungseinheit, die eine Kantengröße jedes Pixels als die Größe des entsprechenden Kantenvektors berechnet, wobei die Komponenten des Vektors auf Differenzen der Helligkeit oder von Ersatzwerten für die Helligkeit zwischen jedem Pixel und in der Nachbarschaft des Pixels angeordneten Pixeln beruhen, und die die Kantengrößen der Pixel mit einer Kantengröße größer als ein vorgegebener Wert aufsummiert;
    • eine Kantenhervorhebungsniveau-Ermittlungseinheit, die eine Schwelle für die Ermittlung, welche Pixel der Kantenhervorhebung zu unterwerfen sind, erlangt und die ein Kantenhervorhebungsniveau ermittelt auf der Grundlage eines Schärfeniveaus des Bildes, des Schärfeniveaus auf der Grundlage des Ergebnisses der Summierung; und
    • eine Kantenhervorhebungseinheit, die die Kantenhervorhebungsverarbeitung für Pixel mit einer Kantengröße größer als die Schwelle durchführt, wobei die Stärke der Kantenhervorhebung auf dem ermittelten Kantenhervorhebungsniveau beruht.
  • In der vorliegenden Erfindung mit der obigen Konstruktion berechnet die Summierungsverarbeitungseinheit dann, wenn die Bilddatenerlangungseinheit Mehrebenen-Bilddaten erlangt, die ein Bild mit Pixeln in der Punktmatrix repräsentieren, ein Änderungsniveau jedes Pixels auf der Grundlage von Differenzen der Luminanz oder von Ersatzwerten für die Luminanz zwischen dem Pixel und den Randpixeln als einen Vektorwert und summiert die Vektorwerte der Pixel mit großen Vektorwerten. Andererseits ermittelt die Kantenhervorhebungselement-Ermittlungseinheit ein Kantenhervorhebungselement während der Beurteilung des Schärfeniveaus des Bildes auf der Grundlage des Ergebnisses der Summierung. Die Kantenhervorhebungseinheit führt eine Kantenhervorhebungsverarbeitung für die jeweiligen Kantenpixel auf der Grundlage des ermittelten Kantenhervorhebungselements durch.
  • Das heißt, bei Berechnung des Schärfeniveaus des Bildes anhand der Änderungsniveaus der jeweiligen Pixel unter der Voraussetzung, dass das Hervorhebungsniveau nicht unbedingt deutlich angehoben wird, wenn das Bild scharf ist, wird das Änderungsniveau jedes Pixels auf der Grundlage der Differenzen der Luminanz oder der Ersatzwerte für die Luminanz zwischen dem Pixel und den Randpixeln als Vektorwert berechnet. Die Bildänderungsniveaus werden in Pixeleinheiten unter der Voraussetzung erhalten, dass die Bilddaten aus Pixeln in einer Punktmatrix bestehen.
  • Unter der Annahme, dass ein Objekt, das bildlich erfasst werden soll, als Subjekt bezeichnet wird und der Bereich außerhalb des Subjekts als Hintergrund bezeichnet wird, betrachtet andererseits der Operator die Kantenhervorhebungsverarbeitung nur auf der Grundlage des Schärfeniveaus des Subjekts und berücksichtigt den Hintergrund kaum. In diesem Fall ist das Subjekt gewöhnlich schärfer als der Hintergrund. Wenn dementsprechend das Schärfeniveau des Bildes auf der Grundlage des Ergebnisses der Summierung bezüglich der Pixel mit einem großen Änderungsniveau beurteilt wird, wird die Beurteilung unter derselben Bedingung durchgeführt wie für die Beurteilung bezüglich des Subjekts.
  • Da gemäß der vorliegenden Erfindung ein Vektorwert auf der Grundlage der Differenzen der Luminanz oder der Ersatzwerte für die Luminanz zwischen jedem Pixel und den Randpixeln berechnet wird, um das Kantenhervorhebungselement zu ermitteln, kann eine Kantenhervorhebung-Verarbeitungsvorrichtung mit einer einfachen Konstruktion geschaffen werden, die eine Kantenhervorhebungsverarbeitung automatisch durchführt.
  • Wenn das Schärfeniveau des Bildes anhand der Änderungsniveaus der jeweiligen Pixel berechnet wird, wie oben beschrieben worden ist, muss die Berechnung eines Vektorwertes auf der Grundlage der Differenzen der Luminanz oder der Ersatzwerte für die Luminanz zwischen jedem Pixel und den Randpixeln nicht unbedingt von einer Hardware-Vorrichtung bewerkstelligt werden, sondern kann als Verfahren für die Vorrichtung verwirklicht werden. Die vorliegende Erfindung schafft daher ein Kantenhervorhebung-Verarbeitungsverfahren zum Durchführen einer Kantenhervorhebungsverarbeitung für Mehrfachebenen-Bilddaten, die ein Bild mit Pixeln in einer Punktmatrix repräsentieren, umfassend:
    • einen Schritt der Berechnung einer Kantengröße jedes Pixels auf der Grundlage von Differenzen der Luminanz oder der Ersatzwerte für die Luminanz zwischen jedem Pixel und den Pixeln, die in der Nachbarschaft des jeweiligen Pixels angeordnet sind, wobei die Kantengröße ein Vektorwert ist, der den Größen der jeweiligen Differenzen und den jeweiligen Richtungen von jedem Pixel zu den in der Nachbarschaft angeordneten Pixeln entspricht, und auf summierende Vektorwerte der Pixel mit einem Vektorwert größer als ein vorgegebener Wert;
    • einen Schritt des Erlangens einer Schwelle zum Ermitteln, welche Pixel der Kantenhervorhebung zu unterwerfen sind, und des Ermittelns eines Kantenhervorhebungsniveaus auf der Grundlage eines Schärfeniveaus des Bildes, des Schärfeniveaus auf der Grundlage des Summierungsergebnisses; und
    • einen Schritt des Durchführens einer Kantenhervorhebungsverarbeitung für Pixel mit einem Vektorwert größer als die Schwelle, wobei die Kantenhervorhebung auf der Grundlage des ermittelten Kantenhervorhebungsniveaus beruht.
  • Das heißt, die Kantenhervorhebungsverarbeitung ist nicht nur dann effektiv, wenn sie mit einer Hardware-Vorrichtung ausgeführt wird, sondern auch dann, wenn sie als Verfahren für die Vorrichtung ausgeführt wird.
  • Die Summierungsverarbeitungseinheit berechnet ein Änderungsniveau jedes Pixels auf der Grundlage der Differenzen der Luminanz oder der Ersatzwerte für die Luminanz zwischen dem Pixel und den Randpixeln als Vektorwert. Wenn die Bilddaten Pixeldaten in einer Punktmatrix aufweisen, die in vertikalen und lateralen Richtungen angeordnet sind, gibt es acht benachbarte Pixel um ein interessierendes Pixel. Bei der Bewertung muss jedoch ein Vergleich nicht unbedingt mit allen diesen benachbarten Pixeln durchgeführt werden.
  • Es ist daher eine weitere Aufgabe der vorliegenden Erfindung, ein Beispiel der Summierungsverarbeitungseinheit zu schaffen. Um die Aufgabe zu lösen, verwendet die von der vorliegenden Erfindung geschaffene Kantenhervorhebung-Verarbeitungsvorrichtung dann, wenn die Summierungsverarbeitungseinheit ein Änderungsniveau jedes Pixels auf der Grundlage von Differenzen der Luminanz oder der Ersatzwerte für die Luminanz zwischen dem Pixel und den Randpixeln als Vektorwert berechnet, die Differenzen der Luminanz oder der Ersatzwerte für die Luminanz zwischen mehreren Pixeln, die nicht in einer linearen Richtung angeordnet sind.
  • Da gemäß der vorliegenden Erfindung mit der obigen Konstruktion der Vektor auf der Grundlage der Differenzen der Luminanz oder der Ersatzwerte für die Luminanz unter mehreren Pixeln erzeugt wird, die nicht in einer linearen Richtung angeordnet sind, ist die Anzahl der Pixel, die bei der Vektorerzeugung berücksichtigt werden, gleich der Hälfte derjenigen in der vorangehenden Konstruktion. Das heißt, im Fall von zueinander benachbarten Pixeln stehen die Vektorelemente, die in einer linearen Richtung angeordnet sind, miteinander in Wechselwirkung, weshalb eine Bewertung dieser Pixel ohne signifikanten Einfluss weggelassen werden kann.
  • Auf diese Weise können gemäß der vorliegenden Erfindung die Vektoren in Pixeleinheiten mit einem kleinen Aufwand an Berechnungsverarbeitung erhalten werden.
  • Ferner können als Summierungsverarbeitungseinheit zum Aufsummieren der Änderungsniveaus der Pixel, um das Schärfeniveaus des Bildes zu beurteilen, verschiedene Typen von Verarbeitungseinheiten verwendet werden.
  • Ferner besteht eine weitere Aufgabe der vorliegenden Erfindung darin, ein Beispiel für die Summierungsverarbeitungseinheit zu schaffen.
  • In der Kantenhervorhebung-Verarbeitungsvorrichtung, die von der vorliegenden Erfindung geschaffen wird, führt die Summierungsverarbeitungseinheit die Summierung so durch, dass mit ansteigendem Vektorwert das Gewicht zunimmt.
  • In der vorliegenden Erfindung mit der obigen Konstruktion wird dann, wenn die Summierungsverarbeitungseinheit das Änderungsniveau aufsummiert, die Gewichtung mit zunehmendem Änderungsniveau erhöht. Die Summierung enthält die Reduzierung der Gewichtung, wenn das Änderungsniveau abnimmt. In jedem Fall wird das Schärfeniveau des Bildes beurteilt, während ein scharfer Abschnitt, wie z. B. ein Subjekt, stark berücksichtigt wird.
  • Das Ergebnis der Summierung ist ferner nicht auf einen spezifischen Wert beschränkt, sondern kann ein Mittelwert oder ein Medianwert sein, solange er ein zentraler Wert in der statistischen Bedeutung ist.
  • Auf diese Weise werden gemäß der vorliegenden Erfindung die Einflussniveaus der Pixel durch Ändern der Gewichtung gesteuert, wobei ein optimales Kantenhervorhebungselement ermittelt werden kann.
  • Ferner wird in diesem Beispiel die Summierung für Pixel mit im wesentlichen großen Änderungsniveau durch Ändern der Gewichtung durchgeführt, jedoch ist dies nicht auf diese Anordnung beschränkt.
  • Eine weitere Aufgabe der vorliegenden Erfindung ist, ein Beispiel für die Summierung von Pixeln mit im wesentlichen großen Änderungsniveaus zu schaffen.
  • In der von der vorliegenden Erfindung geschaffenen Kantenhervorhebung-Verarbeitungsvorrichtung führt die Summierungsverarbeitungseinheit die Summierung für Umrisspixel mit einem großen Änderungsniveau durch.
  • In der vorliegenden Erfindung mit der obigen Konstruktion summiert die Summierungseinheit die Änderungsniveaus der Pixel mit großen Vektorwerten auf. Das heißt, die Summierung wird nur für Umrisspixel durchgeführt, wobei andere Pixel als die Umrisspixel nicht berücksichtigt werden, und wobei das Schärfeniveau des Bildes auf der Grundlage des Summierungsergebnisses beurteilt wird. Dementsprechend wird ein Bildabschnitt mit einem geringen Schärfeniveau, wie z. B. ein Hintergrund, in der Bildschärfeniveaubeurteilung nicht berücksichtigt, sofern er nicht als ein Umrissabschnitt ermittelt wird.
  • Auf diese Weise kann gemäß der vorliegenden Erfindung, da das Schärfeniveau des Bildes nur an Umrissabschnitten mit einem großen Bildänderungsniveau beurteilt wird, ein optimales Kantenhervorhebungsniveau ohne Beeinflussung durch die Größe des Hintergrundes oder dergleichen festgelegt werden.
  • Das Kantenhervorhebungselement ist nicht auf das Hervorhebungsniveau beschränkt, sondern enthält verschiedene Steuerbedingungen für die Hervorhebungsverarbeitung.
  • Eine weitere Aufgabe der vorliegenden Erfindung ist ferner, ein Beispiel einer Steuerbedingung für die Hervorhebungsverarbeitung zu schaffen.
  • In der Kantenhervorhebung-Verarbeitungsvorrichtung, die von der vorliegenden Erfindung geschaffen wird, ermittelt die Kantenhervorhebungselement-Ermittlungseinheit eine Hervorhebungspixel-Auswahlbedingung, um somit eine Kantenhervorhebungsverarbeitung nur für die Pixel mit Vektorwerten größer als ein vorgegebener Schwellenwert auf der Grundlage des Summierungsergebnisses durchzuführen.
  • In der vorliegenden Ausführungsform mit der obigen Konstruktion ermittelt die Kantenhervorhebungselement-Ermittlungseinheit die Hervorhebungspixel-Auswahlbedingung auf der Grundlage des Ergebnisses der Summierung, um somit eine Hervorhebungsverarbeitung nur für die Pixel mit Vektorwerten höher als der vorgegebene Schwellenwert durchzuführen. Das heißt, die Hervorhebungsverarbeitung wird nur für die Pixel durchgeführt, die Änderungsniveaus höher als der vorgegebene Schwellenwert aufweisen, getrennt vom Hervorhebungsniveau, was eine Hervorhebung eines Abschnitts vermeidet, der kein Kantenabschnitt ist.
  • Auf diese Weise kann gemäß der vorliegenden Erfindung die Bildqualität verbessert werden, indem die Hervorhebungsverarbeitung für Nicht-Kantenabschnitte vermieden wird.
  • Wenn der Schwellenwert auf der Grundlage des Summierungsergebnisses festgelegt wird, wird der Schwellenwert so festgelegt, dass keine Kantenhervorhebungsverarbeitung für Nicht-Kantenpixel durchgeführt wird. Genauer können verschiedene Referenzen bei der Schwellenfestlegung verwendet werden.
  • Eine weitere Aufgabe der vorliegenden Erfindung ist ferner, ein spezifisches Schwellenwertfestlegungsverfahren zu schaffen.
  • In der Kantenhervorhebung-Verarbeitungsvorrichtung, die von der vorliegenden Erfindung geschaffen wird, ermittelt die Kantenhervorhebungselement-Ermittlungseinheit den Schwellenwert auf der Grundlage des Anteils der Pixel mit den großen Vektorwerten.
  • In der vorliegenden Erfindung mit der obigen Konstruktion erhält die Kantenhervorhebungselement-Ermittlungseinheit dann, wenn die Hervorhebungspixel-Auswahlbedingung festgelegt wird, den Anteil der Pixel mit großen Vektorwerten und ermittelt den Schwellenwert auf der Grundlage des Anteils. Das heißt, wenn die Anzahl der Pixel mit großen Änderungsniveaus im Gesamtbild groß ist, wird der Schwellenwert gesenkt, um somit eine Hervorhebung für viele Pixel durchzuführen. Wenn die Anzahl der Pixel mit großen Änderungsniveaus im Gesamtbild klein ist, wird der Schwellenwert angehoben, so dass die Hervorhebung nicht leicht für Nicht-Kantenpixel durchgeführt wird.
  • Wenn gemäß der vorliegenden Erfindung auf diese Weise der Schwellenwert auf der Grundlage des Anteils der Pixel mit großen Änderungsniveaus im Gesamtbild festgelegt wird, wird dann, wenn das Gesamtbild scharf ist, der Schwellenwert gesenkt, um somit eine Kantenhervorhebungsverarbeitung für mehr Pixel durchzuführen, um die Bildqualität zu verbessern, während dann, wenn das Gesamtbild unscharf ist, der Schwellenwert angehoben wird, so dass die Kantenhervorhebungsverarbeitung nicht leicht durchgeführt wird, um eine Kantenhervorhebungsverarbeitung für Nicht-Kantenpixel zu vermeiden.
  • Das Hervorhebungsniveau kann nicht nur auf der Grundlage der Vektorwerte ermittelt werden, wie oben beschrieben worden ist, sondern auch auf der Grundlage weiterer Faktoren.
  • Es ist daher eine weitere Aufgabe der vorliegenden Erfindung, eine Kantenhervorhebung-Verarbeitungsvorrichtung unter Berücksichtung weiterer Faktoren zu schaffen.
  • In der Kantenhervorhebung-Verarbeitungsvorrichtung, die von der vorliegenden Erfindung geschaffen wird, erfasst die Kantenhervorhebungselement-Ermittlungseinheit eine Bildgröße des Bildes und ermittelt das Kantenhervorhebungselement so, dass mit zunehmender Bildgröße das Kantenhervorhebungsniveau ansteigt.
  • Wenn in der vorliegenden Erfindung mit der obigen Konstruktion die Kantenhervorhebungselement-Ermittlungseinheit das Kantenhervorhebungselement ermittelt, erfasst die Einheit die Bildgröße der Bilddaten und setzt das Kantenhervorhebungselement so, dass mit zunehmender Bildgröße das Hervorhebungsniveau ansteigt. Wenn ein Operator versucht, ein Bild oder dergleichen zu erkennen, wenn das Bild groß ist, sieht der Operator tendenziell das Bild aus der Entfernung. Dementsprechend muss in einem solchen Fall das Hervorhebungsniveau angehoben werden, so dass das große Bild die gleiche visuelle Wirkung eines gleichen Wertes aufweist wie ein kleines Bild.
  • Auf diese Weise kann gemäß der vorliegenden Erfindung ein optimaleres Kantenhervorhebungsniveau festgelegt werden, in dem die Bildgröße verwendet wird, entsprechend der Wirkung der Kantenhervorhebungsverarbeitung als Referenz für die Kantenhervorhebungselement-Ermittlung.
  • Andererseits kann die Kantenhervorhebungsverarbeitung selbst, die von der Kantenhervorhebungseinheit durchgeführt wird, eine beliebige Kantenhervorhebungsverarbeitung sein, solange sie auf der Grundlage des ermittelten Hervorhebungselements durchgeführt wird, wobei ihr konkretes Verfahren nicht auf ein spezifisches Verfahren beschränkt ist.
  • Dementsprechend ist eine weitere Aufgabe der vorliegenden Erfindung, ein spezifischeres Beispiel der Kantenhervorhebungsverarbeitung zu schaffen.
  • In der Kantenhervorhebung-Verarbeitungsvorrichtung, die von der vorliegenden Erfindung geschaffen wird, weist die Kantenhervorhebungseinheit Unschärfemasken unterschiedlicher Größen auf, und wählt eine der Unschärfemasken entsprechend den verschiedenen Kantenhervorhebungsniveaus aus.
  • In der vorliegenden Erfindung mit der obigen Konstruktion wird dann, wenn die Unschärfemaske unterschiedlicher Größen vorgesehen sind, die Hervorhebung durch Auswählen einer der Unschärfemasken entsprechend den unterschiedlichen Kantenhervorhebungsniveaus durchgeführt. Wenn die Unschärfemaske größer ist, werden mehr Randpixel verarbeitet, was das Bild verwischt. In der Kantenhervorhebungsverarbeitung werden jedoch die Unschärfekomponenten subtrahiert, was die Kantenhervorhebungsverarbeitung verstärkt.
  • Auf diese Weise kann gemäß der vorliegenden Erfindung das Kantenhervorhebungsniveau vergleichsweise leicht durch Ändern der Größe der Unschärfemaske gesteuert werden.
  • Die Kantenhervorhebung-Verarbeitungsvorrichtung kann eine einzelne Vorrichtung sein, oder kann in einer weiteren Vorrichtung installiert sein. Das Konzept der Erfindung ist daher nicht auf die obige Kantenhervorhebung-Verarbeitungsvorrichtung beschränkt, sondern umfasst verschiedene Aspekte, die nur durch die Ansprüche beschränkt sind. Dementsprechend kann die vorliegende Erfindung in geeigneter Weise modifiziert werden. Zum Beispiel kann die vorliegende Erfindung mittels einer softwaregesteuerten Hardwarekonstruktion ausgeführt werden.
  • Das heißt, die vorliegende Erfindung ist nicht nur dann effektiv, wenn sie mit einer Hardwarevorrichtung ausgeführt wird, sondern auch dann, wenn sie als ein Verfahren für die Vorrichtung ausgeführt wird.
  • Im folgenden werden Ausführungsformen der vorliegenden Erfindung lediglich anhand weiterer Beispiele und mit Bezug auf die beigefügten Zeichnungen beschrieben, in welchen:
  • 1 ein Blockschaltbild ist, das ein Bildverarbeitungssystem zeigt, auf das eine Kantenhervorhebung-Verarbeitungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung angewendet wird;
  • 2 ein Blockschaltbild ist, das die Hardware-Konstruktion der Kantenhervorhebung-Verarbeitungsvorrichtung zeigt;
  • 3 eine perspektivische Ansicht ist, die ein weiteres Beispiel zeigt, auf das die Kantenhervorhebung-Verarbeitungsvorrichtung der vorliegenden Erfindung angewendet wird;
  • 4 eine perspektivische Ansicht ist, die ein weiteres Beispiel zeigt, auf das die Kantenhervorhebung-Verarbeitungsvorrichtung der vorliegenden Erfindung angewendet wird;
  • 5 ein Flussdiagramm ist, das eine Hauptroutine in der Kantenhervorhebung-Verarbeitungsvorrichtung der vorliegenden Erfindung zeigt;
  • 6 ein Flussdiagramm ist, das eine Bildkantengrößen-Summierungs verarbeitung zeigt;
  • 7 eine erläuternde Ansicht ist, die die Größe der Bilddaten und die Position eines interessierenden Pixels, die während der Verarbeitung bewegt wird, zeigt;
  • 8 ein Graph ist, der ein Bildänderungsniveau zeigt, das durch entsprechende Komponentenwerte rechtwinkliger Koordinaten repräsentiert wird;
  • 9 eine erläuternde Ansicht ist, die einen Fall zeigt, in welchem das Bildänderungsniveau anhand von Differenzwerten zwischen benachbarten Pixeln in einer vertikalen Axialrichtung und einer lateralen Axialrichtung erhalten wird;
  • 10 eine erläuternde Ansicht ist, die einen Fall zeigt, in dem das Bildänderungsniveau anhand von Differenzwerten zwischen benachbarten Pixeln in allen Richtungen erhalten wird;
  • 11 ein Beispiel von Bilddaten mit einem kleinen Hintergrund ist;
  • 12 ein Beispiel von Bilddaten mit einem großen Hintergrund ist;
  • 13 ein Graph ist, der Pixel zeigt, die der Summierung als Umrisspixel zu unterwerfen sind;
  • 14 ein Flussdiagramm ist, das die Kantenhervorhebungselement-Ermittlungsverarbeitung zeigt;
  • 15(a)15(c) Graphen sind, die die Beziehung zwischen der Kantengrößenverteilung und einem Schwellenwert zeigen;
  • 16 ein Graph ist, der die Beziehung zwischen einer Bildgröße und einem anwendbaren Niveau zeigt;
  • 17 ein Flussdiagramm ist, das die Kantenhervorhebungsverarbeitung zeigt;
  • 18 eine Tabelle ist, die eine Unschärfemaske minimaler Größe zeigt;
  • 19 eine Tabelle ist, die eine Unschärfemaske mittlerer Größe zeigt;
  • 20 eine Tabelle ist, die eine Unschärfemaske maximaler Größe zeigt;
  • 21 eine Tabelle ist, die die Beziehung zwischen einer Kantengröße und einer Gewichtung bei der Integration mit Gewichtung zeigt.
  • Beschreibung einer speziellen Ausführungsform
  • Im folgenden wird eine bevorzugte Ausführungsform der vorliegenden Erfindung mit Bezug auf die beigefügten Zeichnungen genauer beschrieben.
  • 1 ist ein Blockschaltbild, das ein Bildverarbeitungssystem zeigt, auf das eine Kantenhervorhebung-Verarbeitungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung angewendet wird. 2 ist ein Blockschaltbild, das die Hardware-Konstruktion der Kantenhervorhebung-Verarbeitungsvorrichtung zeigt.
  • Wie in 1 gezeigt ist, gibt eine Bildeingabevorrichtung 10 Bilddaten, die eine Photographie oder dergleichen mit Pixeln in einer Punktmatrix repräsentieren, an einen Bildprozessor 20 aus. Der Bildprozessor 20 führt die Bildverarbeitung durch, um eine Kantenhervorhebungsverarbeitung mit einem vorgegebenen Hervorhebungsniveau durchzuführen. Der Bildprozessor 20 gibt die mit einer Kantenhervorhebung bearbeiteten Bilddaten an eine Bildausgabevorrichtung 30 aus. Die Bildausgabevorrichtung 30 gibt ein durch Kantenhervorhebung bearbeitetes Bild aus, das durch Pixel in einer Punktmatrix repräsentiert wird. Die vom Bildprozessor 20 ausgegebenen Bilddaten sind korrigierte Bilddaten mit verbesserter Schärfe durch Hervorhebung unscharfer Bildkanten. Der Bildprozessor 20 weist eine Bilddatenerlangungseinheit auf, die Bilddaten von der Bildeingabevorrichtung 10 erhält, eine Summierungsverarbeitungseinheit, die ein Änderungsniveau für jedes Pixel auf der Grundlage eines Luminanzpegelwertes berechnet und ein Änderungsniveau aufsummiert, eine Kantenhervorhebungselement-Ermittlungs einheit, die ein Kantenhervorhebungselement auf der Grundlage des Summierungsergebnisses ermittelt, sowie eine Kantenhervorhebungseinheit, die die Hervorhebung für die jeweiligen Kantenpixel auf der Grundlage des ermittelten Kantenhervorhebungselements durchführt und die mittels Kantenhervorhebung bearbeiteten Bilddaten an die Bildausgabevorrichtung 30 ausgibt.
  • Wie in 2 gezeigt ist, ist die Bildeingabevorrichtung 10 mittels eines Scanners 11, einer digitalen Standbildkamera 12, einer Videokamera 14 oder dergleichen verwirklicht. Der Bildprozessor 20 ist mittels eines Computersystems verwirklicht, das einen Computer 21, eine Festplatte 22, eine Tastatur 23, ein CD-ROM-Laufwerk 24, ein Disketten-Laufwerk 25, einen Modem 26 und dergleichen umfasst. Die Bildausgabevorrichtung 30 ist mittels eines Druckers 31, einer Anzeigevorrichtung 32 oder dergleichen verwirklicht. In der vorliegenden Ausführungsform wird die Kantenhervorhebungsverarbeitung als Bildverarbeitung durchgeführt, wobei die Bilddaten vorzugsweise ein natürliches Bild wie z. B. eine Photographie repräsentieren. Es ist zu beachten, dass der Modem 26 mit einer öffentlichen Kommunikationsleitung verbunden ist und über die öffentliche Kommunikationsleitung mit einem externen Netz verbunden ist, um Software-Programme und Daten herunterzuladen.
  • In der vorliegenden Ausführungsform gibt der Scanner 11 oder die digitale Standbildkamera 12 als Bildeingabevorrichtung 10 RGB-Mehrebenen-Daten (RGB = Rot, Grün und Blau) als Bilddaten aus. Der Drucker 31 gibt als Bildausgabevorrichtung 30 CMY-Mehrebenen-Daten (CMY = Cyan, Magenta und Yellow) oder CMYK-Binärdaten (Cyan, Magenta, Gelb und Schwarz) aus. Die Anzeige 32 gibt RGB-Mehrebenen-Daten ein. Andererseits arbeitet ein Betriebssystem 21a im Computerhauptkörper 21, wobei ferner ein Druckertreiber 21b für den Drucker 31 und ein Anzeigetreiber 21c für die Anzeige 32 im Computerhauptkörper 21 installiert sind. Ferner führt ein Bildverarbeitungs-Anwendungsprogramm 21d eine vorgegebene Bildverarbeitung in Kooperation mit dem Druckertreiber 21b und dem Anzeigetreiber 21c nach Bedarf unter der Steuerung des Betriebssystems 21a aus. Dementsprechend gibt der Computerhauptkörper 21 als Bildprozessor 20 RGB-Mehrebenen-Daten ein, führt eine Kantenhervorhebungsverarbeitung mit einem optimalen Hervorhebungsniveau für die eingegebenen Daten durch, zeigt die mit Kantenhervorhebung bearbeiteten RGB-Mehrebenen-Daten auf der Anzeige 32 über den Anzeigetreiber 21c an, und konvertiert gleichzeitig die Daten in CMY-Binärdaten und druckt die konvertierten Daten mit dem Drucker 31 über den Druckertreiber 21b aus.
  • Auf diese Weise ist in der vorliegenden Ausführungsform ein Computersystem zwischen einer Bildeingabevorrichtung und einer Bildausgabevorrichtung für die Kantenhervorhebungsverarbeitung vorgesehen, jedoch ist das Computersystem nicht immer notwendig, wobei irgendein System, das eine Kantenhervorhebungsverarbeitung für Bilddaten durchführt, verwendet werden kann. Zum Beispiel kann das System wie in 3 gezeigt angeordnet sein, wo eine Bildverarbeitungsvorrichtung für eine Kantenhervorhebungsverarbeitung in eine digitale Standbildkamera 12a eingebaut ist, wobei konvertierte Bilddaten auf eine Anzeige 32a angezeigt oder mittels eines Druckers 31a ausgedruckt werden. Wie in 4 gezeigt ist, kann es ferner so angeordnet sein, dass ein Drucker 31b Bilddaten über einen Scanner 11b, eine digitale Standbildkamera 12b, einen Modem 26b oder dergleichen ohne ein Computersystem eingibt und ein Bild auf der Grundlage der eingegebenen Bilddaten ausdruckt. Im Drucker 31b wird die Kantenhervorhebungsverarbeitung automatisch für die eingegebenen Bilddaten durchgeführt.
  • Die Kantenhervorhebungsverarbeitung wird vom Bildverarbeitungsprogramm im Computerhauptkörper 21 entsprechend dem in 5 gezeigten Flussdiagramm durchgeführt. Im Flussdiagramm werden im Schritt S100 die Kantengrößen der jeweiligen Pixel berechnet und aufsummiert, um das Schärfeniveau des Bildes zu beurteilen, woraufhin im Schritt S200 ein Kantenhervorhebungselement auf der Grundlage des Summierungsergebnisses ermittelt wird, und im Schritt S300 die Kantenhervorhebungsverarbeitung entsprechend dem Kantenhervorhebungselement durchgeführt wird.
  • Zuerst werden im Schritt S100 die Kantengrößen aufsummiert, um das Schärfeniveau des Bildes zu beurteilen. Die Summierungsverarbeitung ist im Flussdiagramm der 6 genauer gezeigt.
  • Unter der Annahme, dass die Bilddaten aus Pixeln in einer Punktmatrix bestehen, wird jedes Pixel durch Mehrebenen-RGB-Luminanzdaten dargestellt. An einem Kantenabschnitt des Bildes ist die Differenz der Luminanzdaten zwischen benachbarten Pixeln groß. Die Differenz, die ein Luminanzgradient ist, wird als Kantengröße bezeichnet. Wie in 7 gezeigt, werden die Kantengrößen aufsummiert, während die jeweiligen Pixel, die das Bild bilden, abgetastet werden.
  • Im Schritt S110 wird die Kantengröße jedes Pixels beurteilt. Im Fall der Betrachtung von rechtwinkligen XY-Koordinaten, wie in 8 gezeigt ist, kann der Vektor eines Bilddatenänderungsniveaus berechnet werden durch Erlangung einer X-Achsen-Richtungskomponente und einer Y-Achsen-Richtungskomponente. In einem digitalen Bild, das aus Pixeln in einer Punktmatrix besteht, sind die Pixel in einer vertikalen Axialrichtung und einer lateralen Axialrichtung benachbart, wie in 9 gezeigt ist. Die Helligkeit dieser Pixel wird dargestellt durch f(x,y). In diesem Fall kann f(x,y) gleich R(x,y), G(x,y) und B(x,y) als entsprechende RGB-Luminanzen oder eine Gesamtluminanz Y(x,y) sein. Es ist zu beachten, dass die Beziehung zwischen den RGB-Luminanzen R(x,y), G(x,y) und B(x,y) und der Gesamtluminanz Y(x,y) nicht ohne Bezug auf eine Farbumsetzungstabelle oder dergleichen im strengen Sinne konvertiert werden kann, jedoch für die Vereinfachung der Verarbeitung eine Entsprechung verwendet wird, die durch die folgende Gleichung repräsentiert wird. Y = 0,30R + 0,59G + 0,11B ...(1)
  • In 9 werden der X-Richtung-Differenzwert fx und der Y-Richtung-Differenzwert fy repräsentiert durch: fx = f(x+1,y) – f(x,y) ...(2) fy = f(x,y+1) – f(x,y) ...(3)
  • Dementsprechend ist eine Größe |g(x,y)| des Vektors, der diese Komponenten aufweist, ein Vektorwert, der repräsentiert wird durch: |g(x,y)|=(fx**2 + fy**2)**(1/2) ...(4)
  • Die Kantengröße wird durch dieses |g(x,y)| repräsentiert. Es ist zu beachten, dass die Pixel in einer Matrix in vertikalen und lateralen Richtungen angeordnet sind, wie in 10 gezeigt ist, wobei dann, wenn das zentrale Pixel als interessierendes Pixel betrachtet wird, acht benachbarte Pixel vorhanden sind. Dementsprechend ergibt sich, dass die Differenzen zwischen dem interessierenden Pixel und den jeweiligen benachbarten Pixeln durch Vektorwerte repräsentiert werden, wobei die Summe der Vektorwerte als Änderungsniveau des Bildes beurteilt wird. Es ist zu beachten, dass gesagt werden kann, dass mit kleinerer Anzahl von zu vergleichenden Pixeln der Berechnungsaufwand kleiner wird. Bezüglich der benachbarten Pixel, die in wenigstens einer linearen Richtung angeordnet ist, stehen diese ferner miteinander in Wechselwirkung, wenn die Position eines interessierenden Pixels bewegt wird. Dementsprechend kann die Berechnung für diese Pixel weggelassen werden. Um den Berechnungsaufwand weiter zu reduzieren, kann die Differenz der Luminanz nur zwischen benachbarten Pixeln, die in Lateralrichtung angeordnet sind, berechnet werden. Die Berechnung wird durch Nutzung der Luminanz durchgeführt, jedoch können im wesentlichen die gleichen Ergebnisse erhalten werden, wenn Ersatzwerte für die Luminanz in der Berechnung, die eine einfache Berechnung einschließt, verwendet werden.
  • Auch wenn die Kantengröße jedes Pixels wie oben beschrieben erhalten wird, kann das Schärfeniveau des Bildes nicht nur durch Erlangung der Kantengrößen aller Pixel und Mittelung der erhaltenen Kantengrößen erhalten werden. Die 11 und 12 zeigen Bilder von Flugzeugen im Flug. In diesen Figuren weisen die Himmelsabschnitte als Hintergründe der Bilder offensichtlich kein großes Bildänderungsniveau auf. Unter der Annahme jedoch, dass die Flugzeuge als Subjekte das gleiche Schärfeniveau aufweisen, wenn das Bildschärfeniveau jeweils durch Mittelung der Kantengrößen aller Pixel erhalten wird, ist das Schärfeniveau des Bildes in 12, dass das Flugzeug mit dem gleichen Schärfeniveau wie das Flugzeug in 11 aufweist, jedoch einen größeren Hintergrund als in 11 enthält, niedriger als dasjenige des Bildes in 11. Dementsprechend ist die Mittelung bei der Erlangung des Bildschärfeniveaus nicht angemessen.
  • In Anbetracht dieser Situation wird in der vorliegenden Ausführungsform nicht der Mittelwert der Kantengrößen aller Pixel erhalten, sondern es wird nur der Mittelwert der Kantengrößen der Umrissabschnitte erhalten, um somit zu beurteilen, wie scharf die Umrissabschnitte im Bild sind. 13 zeigt ein Histogramm in einem Fall, in dem die Kantengrößen bezüglich aller Pixel aufsummiert sind, was anzeigt, dass nur Pixel mit Kantengrößen über einem Schwellenwert der Summierung unterworfen werden. Genauer wird im Schritt S120 die Kantengröße mit einem vorgegebenen Schwellenwert verglichen, um zu ermitteln, ob das Pixel zu einem Umrissabschnitt gehört. Nur wenn das Pixel zu einem Umrissabschnitt gehört, rückt die Verarbeitung zum Schritt S130 vor, in welchem die Kantengröße integriert wird und die Anzahl der Pixel in den Umrissabschnitten integriert wird.
  • Um die Beurteilung aller Pixel auf Pixelbasis durchzuführen, wird im Schritt S140 die Position des interessierenden Pixels wie in 7 gezeigt bewegt, wobei die Verarbeitung wiederholt wird, bis im Schritt S150 festgestellt wird, dass die Beurteilung aller Pixel abgeschlossen worden ist.
  • Wenn die Kantengrößen wie oben beschrieben aufsummiert worden sind, wird die Kantenhervorhebungselement-Ermittlung im Schritt S200 durchgeführt. Die Kantenhervorhebungselement-Ermittlung ist im Flussdiagramm der 14 genauer gezeigt.
  • Zuerst wird im Schritt S210 der Anteil der Kantenpixel berechnet. Wenn die Anzahl der Umrisspixel (edge_pixel) im Schritt S130 integriert worden ist, wird das Verhältnis der Anzahl der Umrisspixel (edge_rate) bezüglich der Anzahl aller Pixel (total_pixel) berechnet:
    edge_rate = edge_pixel/total_pixel
  • Wenn das Verhältnis (edge_rate) näher an "1" liegt, weist das Bild Kantenpixel auf. Das Schärfeniveau des Flugzeuges im Bild der 11 und dasjenige in 12 sind gleich, jedoch sind die Anzahl der Hintergrundpixel im Bild in 11 und diejenige in 12 verschieden. Das Hintergrundbild mit der größeren Anzahl von Pixeln ist stärker verwischt, ist jedoch nicht unbedingt scharf. Das heißt, die Durchführung der Kantenhervorhebungsverarbeitung wird für die Hintergrundpixel vorzugsweise vermieden. Ein solcher Hinter grund enthält einen Abstufungsabschnitt des blauen Himmels, einen Hautabschnitt eines Porträts und dergleichen.
  • In der vorliegenden Ausführungsform wird ein Schwellenwert ST, der für die Ermittlung der der Kantenhervorhebungsverarbeitung zu unterwerfenden Pixel verwendet wird, durch Nutzung des obigen Verhältnisses wie folgt erhalten:
    ST = K/edge_rate
  • Es ist zu beachten, dass "K" eine Konstante ist. Die 15(a) bis 15(c) zeigen die Beziehung zwischen der Kantengrößenverteilung und dem Schwellenwert ST. In 15(a) ist die Gesamtkantengröße groß. Wenn ermittelt wird, dass die Anzahl der Umrisspixel groß ist, ist der Schwellenwert ST0 groß. In 15(c) ist die Gesamtkantengröße klein, weshalb ein Schwellenwert ST2 hoch ist. 15(b) zeigt einen Zwischenschwellenwert ST1 zwischen denjenigen in den 15(a) und 15(c). Das heißt, wenn die Anzahl der scharfen Pixel klein ist, wird der Schwellenwert ST auf einen hohen Wert gesetzt, so dass mehr Pixel als nicht Nicht-Kantenpixel bei der Ermittlung der Nicht-Kantenpixel beurteilt werden. Dies vermeidet eine Hervorhebung von Störungen in einem Hautabschnitt oder dergleichen.
  • Als nächstes wird im Schritt S230 die integrierte Kantengröße durch die Anzahl der Pixel in den Umrissabschnitten dividiert, um nur den Mittelwert der Kantengrößen in den Umrissabschnitten zu erhalten. Das heißt, das Schärfeniveau SL dieses Bildes wird berechnet mit:
    Figure 00190001

    E(I)pix: Anzahl der Umrisspixel
  • In diesem Fall wird das Schärfeniveau eines Bildes mit einem niedrigen SL-Wert als niedrig (offensichtlich verwischt) ermittelt, während das Schärfeniveau eines Bildes mit einem hohen SL-Wert als hoch (offensichtlich klar) ermittelt wird.
  • Wenn andererseits die Bildschärfe sinnlich ist, wird das Schärfeniveau SL in ähnlicher Weise aus den Bilddaten eines experimentell erhaltenen optimalen Schärfeniveaus erhalten, woraufhin das erhaltene Schärfeniveau SL als ein ideales Schärfeniveau SLopt festgelegt wird und ein Kantenhervorhebungsniveau Eenhance erhalten wird durch: Eenhance = KS · (SLopt–SL)**(1/2) ...(6)
  • In Gleichung (6) ändert sich der Koeffizient KS entsprechend der Bildgröße. Wie in 7 gezeigt ist, wird dann, wenn die Bilddaten aus "Höhen"-Punkten in vertikaler Richtung und "Breiten"-Punkten in lateraler Richtung besteht, der Koeffizient KS erhalten durch: KS = min(Höhe,Breite)/A ...(7)
  • In Gleichung 7 zeigt "min(Höhe,Breite)" "Höhe"-Punkte oder "Breite"-Punkte als eine kleinere Anzahl von Punkten an. "A" ist eine Konstante mit einem Wert "768". Diese wurde experimentell erhalten und kann in geeigneter Weise verändert werden. Grundsätzlich wurden hervorragende Ergebnisse erhalten, in dem das Hervorhebungsniveau mit zunehmender Bildgröße angehoben wurde.
  • Wenn das Kantenhervorhebungsniveau Eenhance und der Schwellenwert ST wie oben beschrieben erhalten worden sind, wird die Kantenhervorhebungsverarbeitung für alle Pixel im Schritt S300 durchgeführt. Die Kantenhervorhebungsverarbeitung ist im Flussdiagramm der 17 genauer gezeigt. In diesem Fall wird das interessierende Pixel im voraus ermittelt, wobei, wie in 7 gezeigt ist, die Position des interessierenden Pixels bewegt wird, um alle Pixel abzutasten. Es ist zu beachten, dass im Schritt S310 der obenbeschriebene Schwellenwert ST und die Kantengröße jedes Pixels verglichen werden, um zu ermitteln, ob das Pixel der Kantenhervorhebungsverarbeitung zu unterwerfen ist. Wenn die Kantengröße größer ist als der Schwellenwert ST, wird festgestellt, dass das Pixel der Kantenhervorhebungsverarbeitung zu unterwerfen ist, wobei im Schritt S320 die Kantenhervorhebungsverarbeitung für das Pixel durchgeführt wird.
  • Der Schritt S320 ist eine Kantenhervorhebungsverarbeitung-Berechnung. Bezüglich der Luminanz Y jedes Pixels, bevor dieses der Kantenhervorhebung unterworfen wird, ist eine Luminanz Y' der Kantenhervorhebung unterworfenen Pixels berechnet durch: Y' = Y + Eenhance · (Y–Yunsharp) ...(8)
  • In Gleichung (8) gibt "Yunsharp" Bilddaten für jedes Pixel an, das mittels einer Unschärfemaske bearbeitet worden ist. Als nächstes wird die Unschärfemaskenverarbeitung beschrieben. Die 18 bis 20 zeigen Unschärfemasken 40 (41 bis 43) dreier unterschiedlicher Größen. Die Unschärfemaske 40 wird für die Integration für Matrixbilddaten verwendet, so dass der Zentralwert "100" als Gewichtung für das interessierende Pixel Y(x,y) verwendet wird, wobei Werte der Unschärfemaske, die den Randpixeln entsprechen, als Gewichtungen für die Randpixel verwendet werden. Wenn die Unschärfemaske 42 in 19 verwendet wird, wird die Integration folgendermaßen durchgeführt:
  • Figure 00210001
  • In Gleichung (9) ist der Wert "632" eine Summe der Gewichtungskoeffizienten. In den verschiedenen großen Unschärfemasken 41 bis 43 sind die Summen der Gewichtungskoeffizienten jeweils "396", "632" und "2516". Ferner bezeichnet "Mij" einen Gewichtungskoeffizienten, der in einer Zelle der Unschärfemaske gegeben ist; während "Y(x,y)" Bilddaten des jeweiligen Pixels bezeichnen. Es ist zu beachten, das "ij" Koordinatenwerte in Zeilen- und Spaltenrichtungen in den verschiedenen großen Unschärfemasken 41 bis 43 bezeichnet.
  • In der Kantenhervorhebungsberechnung auf der Grundlage der Gleichung (8) wird "Yunsharp(x,y)" mit niedrigeren Gewichtungswerten bezüglich der Randpixel gewichtet als bezüglich des interessierenden Pixels. Als Ergebnis werden sogenannte "verwischte (unscharfe)" Bilddaten erhalten. Die verwischten Bilddaten sind den Bilddaten ähnlich, die durch ein sogenanntes Tiefpassfilter geleitet worden sind. Dementsprechend bedeutet "Y(x,y)-Yunsharp(x,y)" eine Subtraktion einer Niederfrequenzkomponente von der ursprünglichen Gesamtkomponente, d. h. "Y(x,y)–Yunsharp(x,y)" erhält Bilddaten ähnlich hochpassgefilterten Bilddaten. Anschießend wird die hochpassgefilterte Hochfrequenzkomponente mit dem Kantenhervorhebungsniveau Eenhance multipliziert, wobei das multiplizierte Ergebnis zu "Y(x,y)" addiert wird. Dies erhöht die Hochfrequenzkomponente proportional zum Kantenhervorhebungsniveau Eenhance, wobei als Ergebnis die Kante hervorgehoben wird.
  • Andererseits ändert sich das Kantenhervorhebungsniveau auch in Abhängigkeit von der Größe der Unschärfemaske. In den drei Unschärfemasken 41 bis 43 mit unterschiedlichen Anzahlen von Reihen und Spalten wird mit größerer Maske die Gewichtung bezüglich der Randpixel um das interessierende Pixel größer, während die Gewichtung in Richtung zu den entfernten Pixeln abnimmt. Mit anderen Worten, mit größerer Maske nimmt die Gewichtungscharakteristik als Tiefpassfilter zu, wobei die Erzeugung der Hochfrequenzkomponente gemäß Gleichung (8) einfacher durchgeführt werden kann.
  • Wenn dementsprechend das Kantenhervorhebungsniveau Eenhance hoch ist, wird die große Unschärfemaske 43 verwendet, während dann, wenn das Kantenhervorhebungsniveau Eenhance niedrig ist, die kleine Unschärfemaske 41 verwendet wird. Im Fall einer mittleren Anzahl Pixeln wird die mittelgroße Unschärfemaske 42 verwendet.
  • Wie aus diesen Figuren deutlich wird, weist die Unschärfemaske 40 den größten Gewichtungskoeffizienten in ihrem Zentralabschnitt auf, sowie allmählich abnehmende Gewichtungswerte in Richtung ihrer Enden. Die Variation der Gewichtung ist nicht unbedingt festgelegt, sondern kann geeignet verändert werden. Die Maske ist nicht unbedingt eine "Unschärfemaske", wobei ihre Größe nicht auf diejenige beschränkt ist, die in den Figuren gezeigt ist. Sie kann aus 6×6 Zellen oder 8×8 Zellen bestehen.
  • Es ist zu beachten, dass in der Berechnung in Gleichung (9) die Multiplikationen und Additionen für die Anzahl von Zellen in der Unschärfenmaske 40 mit Bezug auf die Pixel um das interessierende Pixel erforderlich sind, wobei der Berechnungsaufwand dementsprechend groß ist und die Unschärfemas ke so angeordnet ist, dass der Berechnungsaufwand reduziert wird. In einem Fall, in dem die Unschärfemaske 40 mit einer geeigneten Größe verwendet wird, ist die Berechnung nicht unbedingt für alle Zellen erforderlich. In der Unschärfemaske 42, die 7×7 Zellen in 19 aufweist, ist die Gewichtung bezüglich der äußersten Randzellen gleich "0" oder "1". Im Fall der Gewichtung mit "0" ist die Multiplikation mit "0" bedeutungslos, während im Fall der Gewichtung "1" sehr gering gewichtete Ergebnisse im Vergleich zum Gesamtzellenwert "632" erhalten werden.
  • Im Hinblick auf diese Situation wird in der vorliegenden Ausführungsform die Berechnung nicht bezüglich aller Zellen der 7×7-Zellen-Unschärfemaske 42 durchgeführt, sondern es wird eine Unschärfemaske 44 mit 5 – 5 Zellen innerhalb eines Doppellinienblocks in der Unschärfemaske 42 verwendet. Durch Verwendung der Unschärfemaske 44 wird der äußerste Randabschnitt der 7×7-Zellen-Unschärfemaske 42 weggelassen. In ähnlicher Weise kann der äußerste Randabschnitt der 13×13-Zellen-Unschärfemaske 43 weggelassen werden. Die 7×7-Zellen-Unschärfemaske 42 weist 48 (= 7 × 7 – 1) Pixel um ein interessierendes Pixel auf, wobei die Multiplikation und die Addition für diese Pixel benötigt werden. Bei der Verwendung der 5×5-Zellen-Unschärfemaske 44, die im wesentlichen das gleiche Berechnungsergebnis erhält, wird jedoch die Berechnung 24 × (= 5 × 5 – 1) durchgeführt, d. h. der Berechnungsaufwand ist auf die Hälfte gegenüber demjenigen im Fall der Unschärfemaske 42 reduziert; im Fall der 13×13-Zellen-Unschärfemaske 43 wird der Berechnungsaufwand von 168 (= 13 × 13 – 1) auf 120 (= 11 × 11 – 1) reduziert.
  • Da ferner eine Kantenhervorhebung in sogenannten Bildkantenabschnitten erforderlich ist, wird die Verarbeitung auf Abschnitte beschränkt, in denen sich die Bilddaten zwischen benachbarten Pixeln deutlich ändern. In Anbetracht dieser Situation kann vorgesehen sein, dass die Berechnung durchgeführt wird, wenn eine große Differenz der Bilddaten zwischen benachbarten Pixeln vorliegt. Dies erübrigt die Berechnung mit einer Unschärfemaske in nahezu allen Bilddatenabschnitten, die keine Bildkanten sind, wodurch die Verarbeitung deutlich reduziert wird.
  • Es ist zu beachten, dass die Luminanz Y zur Unterstützung des Verständnis ses als Luminanz des jeweiligen Pixels beschrieben worden ist, jedoch weist jedes Pixel in Wirklichkeit RGB-Mehrebenen-Daten auf, wobei die Luminanz Y durch einfache Gewichtung der RGB-Mehrebenen-Daten konvertiert wird, wie in Gleichung (1) gezeigt ist.
  • Aus der mittels Kantenhervorhebung bearbeiteten Luminanz Y' und der nichthervorgehobenen Luminanz Y wird folgende Substitution vorgenommen: delta = Y – Y' ...(10)
  • Anschließend ist es möglich, aus Gleichung (10) die konvertierten Werte R' G' B' zu berechnen: R'=R+delta G'=G+delta B'=B+delta ...(11)
  • In dieser Berechnung wird die Multiplikation und die Addition gleich 1/3, so dass die gesamte Verarbeitungszeit um 50 % bis 70 % reduziert werden kann. Ferner zeigt das konvertierte Ergebnis kein verstärktes Farbrauschen und liefert verbesserte Bilddaten. Es ist zu beachten, dass die Luminanz Y nicht unbedingt mit einer strengen Gewichtung wie in Gleichung (1) erhalten wird. Zum Beispiel erzeugt die folgende Gleichung (12) unter Verwendung eines einfachen Mittelwertes keinen sehr großen Fehler. Y=(R+G+B)/3 ...(12)
  • Für eine weitere Vereinfachung kann vorgesehen sein, dass in Gleichung (1) nur die G-Komponente mit den größten zur Luminanz Y beitragenden Wert als Luminanz Y betrachtet wird. Dies erzeugt nicht immer einen großen Fehler.
  • Wie oben beschrieben worden ist, entsprechen die Schritte S110 bis S150 zum Aufsummieren der Kantengrößen um somit das Schärfeniveau des Bildes zu beurteilen, der Summierungsverarbeitungseinheit; die Schritte S210 bis S250 zum Setzen eines Schwellenwertes, um ein Kantenhervorhebungsniveau zu ermitteln, und um ein der Kantenhervorhebung zu unterwer fendes Pixel zu ermitteln, entsprechen der Kantenhervorhebungselement-Ermittlungseinheit; und die Schritte S310 bis S340 zur Durchführung der Kantenhervorhebungsberechnung für die der Kantenhervorhebungsverarbeitung zu unterwerfenden Pixel entsprechen der Kantenhervorhebungseinheit. Ferner entspricht die Verarbeitung durch eine Hardware-Vorrichtung und ein Software-Programm zum Erhalten der Bilddaten, die in der Kantenhervorhebungsverarbeitung behandelt werden, der Bilddatenerlangungseinheit.
  • Andererseits wird in der obigen Beschreibung die Tatsache, ob Kantengrößen aufsummiert werden, auf der Grundlage der Tatsache ermittelt, ob das jeweilige Pixel ein Umrisspixel ist, jedoch wird diese Ermittlung in nur einem Beispiel verwendet, in dem die Summierung bezüglich der Pixel mit großen Kantengrößen durchgeführt wird. Das Schärfeniveau des gesamten Bildes kann durch eine sogenannte Gewichtung mit Aufmerksamkeit auf Pixel mit großen Kantengrößen beurteilt werden. Im obenbeschriebenen Beispiel wird nur dann, wenn im Schritt S120 festgestellt wird, dass ein Umrisspixel vorliegt, die Kantengröße integriert, wobei die Anzahl der Pixel im Schritt S130 inkrementiert wird, wobei jedoch, wie in 21 gezeigt ist, die Summierung bezüglich aller Pixel durchgeführt werden kann, so dass die Kantengröße mit zunehmender Gewichtung ansteigt. Die Kantengröße wird durch die Anzahl der Pixel als Ergebnis der Integration mit Gewichtung dividiert, um somit ein Ergebnis zu erhalten, bei den die Pixel mit kleinen Kantengrößen mit einem geringen Beachtungsniveau verarbeitet werden, während Pixel mit großen Kantengrößen mit einem hohen Beachtungsniveau verarbeitet werden.
  • Das Verfahren für die wirkliche Gewichtung kann in diesem Fall geeignet verändert werden. Ferner kann vorgesehen sein, dass die Anzahl der Umrisspixel auf der Grundlage der Tatsache aufsummiert wird, ob jedes Pixel ein Umrisspixel ist, während zusätzliche Aufmerksamkeit auf Pixel mit großen Kantengrößen gerichtet wird.
  • Als nächstes wird die Operation der vorliegenden Ausführungsform mit der obigen Konstruktion der Reihe nach beschrieben.
  • Die Beschreibung erfolgt unter der Annahme, dass der Scanner 11 ein photographisches Bild einliest und der Drucker 31 das gelesene Bild ausdruckt. Zuerst wird das Bildverarbeitungs-Anwendungsprogramm 21d aktiviert, wenn das Betriebssystem 21a im Computerhauptkörper 21 arbeitet, um den Scanner 11 zu veranlassen, die Photographie einzulesen. Die eingelesenen Bilddaten werden vom Anwendungsprogramm 21d über das Betriebssystem 21a eingelesen, woraufhin ein interessierendes Pixel festgelegt wird, und wobei im Schritt S110 die Kantengröße auf der Grundlage der Gleichungen (2) bis (4) ermittelt wird. Im Schritt S120 wird auf der Grundlage der Kantengröße ermittelt, ob sich das interessierende Pixel in einem Umrissabschnitt befindet. Nur wenn das Pixel ein Umrisspixel ist, wird die Kantengröße integriert und die Anzahl der Pixel in den Umrissabschnitten inkrementiert.
  • Im Schritt S140 wird die obige Verarbeitung wiederholt, während die Position des interessierenden Pixels bewegt wird, bis im Schritt S150 festgestellt wird, dass die Verarbeitung für alle Pixel durchgeführt worden ist. Wenn alle Pixel verarbeitet worden sind, wird das Verhältnis der Anzahl der Umrisspixel im Schritt S210 berechnet, wobei der für die Beurteilung des Kantenhervorhebungspixels verwendete Schwellenwert im Schritt S220 berechnet wird. Im Schritt S230 wird der Mittelwert der Kantengrößen der Umrisspixel anhand der integrierten Kantengröße und der Anzahl der Pixel berechnet, wobei im Schritt S240 das Kantenhervorhebungsniveau Eenhance anhand der Gleichungen (6) und (7) auf der Grundlage der Bildgröße entsprechend den Bilddaten berechnet wird.
  • Als nächstes wird in den Schritten S310 bis S340 eine wirkliche Kantenhervorhebungsverarbeitung für jedes Pixel durchgeführt, wobei die Position des interessierenden Pixels bewegt wird, ähnlich wie bei der obigen Verarbeitung. In diesem Fall, wie oben beschrieben worden ist, kann eine der Unschärfemasken 41 bis 43 entsprechend dem Kantenhervorhebungsniveau Eenhance ausgewählt werden. Ferner kann die Verarbeitungsgeschwindigkeit durch Weglassen einer Berechnung auf der Grundlage verschiedener Berechnungsreduktionsverfahren verbessert werden.
  • Anschließend werden die mittels Kantenhervorhebung bearbeiteten Bilddaten auf der Anzeige 32 über den Anzeigetreiber 21c angezeigt. Wenn das angezeigte Bild gut ist, wird das Bild mit dem Drucker 31 über den Druckertreiber 21b ausgedruckt. Das heißt, der Druckertreiber 21b liest die mittels Kantenhervorhebung bearbeiteten RGB-Mehrebenen-Daten ein, führt eine Rasterung entsprechend einem Druckkopfbereich des Druckers 31 über eine vorgegebene Auflösungsumsetzung durch, konvertiert die gerasterten RGB-Daten in CMYK-Daten, und konvertiert anschließend die CMYK-Mehrebenen-Daten in Binärdaten und gibt die Daten an den Drucker 31 aus.
  • Durch die obige Verarbeitung werden die Bilddaten der über den Scanner 11 eingelesenen Photographie automatisch einer optimalen Kantenhervorhebungsverarbeitung unterworfen und anschließend auf der Anzeige 32 angezeigt und mit dem Drucker 31 ausgedruckt.
  • Auf diese Weise erzeugt der Computerhauptkörper 21, der als Kern der Kantenhervorhebungsverarbeitung dient, einen Vektor aus dem Differenzwert der Daten zwischen benachbarten Pixeln und erhält eine Kantengröße als Änderungsniveau im Schritt S110, wählt nur Pixel mit großen Kantengrößen aus und integriert die Kantengrößen in den Schritten S120 und S130, und erhält den Mittelwert im Schritt S230. Der Computerhauptkörper 21 erhält das Schärfeniveau des Bildes, während die Pixeln mit großen Bildänderungsniveaus Beachtung berücksichtigt werden, und ermittelt anschließend das Kantenhervorhebungsniveau Eenhance auf der Grundlage des erhaltenen Schärfeniveaus des Bildes. Der Computerhauptkörper 21 führt somit automatisch eine Kantenhervorhebungsverarbeitung mit einem optimalen Hervorhebungsniveau durch.

Claims (9)

  1. Kantenhervorhebung-Verarbeitungsvorrichtung, umfassend: eine Bilddaten-Erlangungseinheit, die Mehrebenen-Bilddaten erlangt, die ein Bild mit Pixeln in einer Punktmatrix repräsentieren; eine Summierungsverarbeitungseinheit, die eine Kantengröße |g(x,y)| jedes Pixels (x,y) als die Größe des entsprechenden Kantenvektors (fx,fy) berechnet, wobei die Komponenten des Vektors auf Differenzen der Helligkeit oder von Ersatzwerten für die Helligkeit zwischen jedem Pixel und in der Nachbarschaft des Pixels angeordneten Pixeln beruhen, und die die Kantengrößen |g(x,y)| der Pixel mit einer Kantengröße größer als ein vorgegebener Wert aufsummiert; eine Kantenhervorhebungsniveau-Ermittlungseinheit, die eine Schwelle für die Ermittlung, welche Pixel der Kantenhervorhebung zu unterwerfen sind, erlangt und die ein Kantenhervorhebungsniveau ermittelt auf der Grundlage eines Schärfeniveaus des Bildes, des Schärfeniveaus auf der Grundlage des Ergebnisses der Summierung; und eine Kantenhervorhebungseinheit, die die Kantenhervorhebungsverarbeitung für Pixel mit einer Kantengröße größer als die Schwelle durchführt, wobei die Stärke der Kantenhervorhebung auf dem ermittelten Kantenhervorhebungsniveau beruht.
  2. Kantenhervorhebung-Verarbeitungsvorrichtung nach Anspruch 1, bei der die in der Nachbarschaft angeordneten Pixel Pixel umfassen, die nicht in einer linearen Richtung angeordnet sind.
  3. Kantenhervorhebung-Verarbeitungsvorrichtung nach Anspruch 2, bei der die Summierungsverarbeitungseinheit die Summierung so durchführt, dass dann, wenn die Kantengröße eines Pixels zunimmt, dessen Gewicht in der Summe zunimmt.
  4. Kantenhervorhebung-Verarbeitungsvorrichtung nach irgendeinem der Ansprüche 1 bis 3, bei der der Schwellenwert auf dem Ergebnis der Summierung beruht.
  5. Kantenhervorhebung-Verarbeitungsvorrichtung nach Anspruch 4, bei der die Kantenhervorhebungsniveau-Ermittlungseinheit den Schwellenwert auf der Grundlage des Verhältnisses der Pixel, die Kantengrößen größer als den vorgegebene Wert aufweisen, zur Gesamtzahl der Pixel im Bild ermittelt.
  6. Kantenhervorhebung-Verarbeitungsvorrichtung nach irgendeinem der Ansprüche 1 bis 5, bei der die Kantenhervorhebungsniveau-Ermittlungseinheit eine Bildgröße des Bildes erfasst und das Kantenhervorhebungsniveau so ermittelt, dass dann, wenn die Bildgröße zunimmt, das Kantenhervorhebungsniveau zunimmt.
  7. Kantenhervorhebung-Verarbeitungsvorrichtung nach irgendeinem der Ansprüche 1 bis 6, bei der die Kantenhervorhebungseinheit unscharfe Masken verschiedener Größe aufweist und eine der unscharfen Masken entsprechend den verschiedenen Kantenhervorhebungsniveaus auswählt.
  8. Kantenhervorhebung-Verarbeitungsvorrichtung nach irgendeinem der Ansprüche 1 bis 7, bei der das Hervorhebungsniveau einer Differenz zwischen dem Schärfeniveau und einem optimalen Schärfeniveau entspricht.
  9. Kantenhervorhebung-Verarbeitungsverfahren zum Durchführen einer Kantenhervorhebungsverarbeitung für Mehrebenen-Bilddaten, die ein Bild mit Pixeln in einer Punktmatrix repräsentieren, umfassend: einen Schritt des Berechnens einer Kantengröße |g(x,y)| jedes Pixels (x,y) als Größe des entsprechenden Kantenvektors (fx,fy), wobei die Komponenten des Vektors auf Differenzen der Helligkeit oder von Ersatzwerten der Helligkeit zwischen jedem Pixel und in der Nachbarschaft des jeweiligen Pixels angeordneten Pixeln beruhen, und des Aufsummierens der Kantengrößen |g(x,y)| der Pixel mit einer Kantengröße größer als ein vorgegebener Wert; einen Schritt des Erlangens einer Schwelle zum Ermitteln, welche Pixel der Kantenhervorhebung zu unterwerfen sind, und des Ermittelns eines Kantenhervorhebungsniveaus auf der Grundlage eines Schärfeniveaus des Bildes, des Schärfeniveaus auf der Grundlage des Summierungsergebnisses; und einen Schritt des Durchführens einer Kantenhervorhebungsverarbeitung für Pixel mit einer Kantengröße größer als die Schwelle, wobei die Stärke der Kantenhervorhebung auf dem ermittelten Kantenhervorhebungsniveau beruht.
DE69822923T 1997-06-02 1998-05-28 Verfahren und Vorrichtung zur Kantenhervorhebung Expired - Lifetime DE69822923T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP14405997 1997-06-02
JP14405997 1997-06-02

Publications (2)

Publication Number Publication Date
DE69822923D1 DE69822923D1 (de) 2004-05-13
DE69822923T2 true DE69822923T2 (de) 2005-04-28

Family

ID=15353362

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69822923T Expired - Lifetime DE69822923T2 (de) 1997-06-02 1998-05-28 Verfahren und Vorrichtung zur Kantenhervorhebung

Country Status (4)

Country Link
US (1) US6392759B1 (de)
EP (2) EP1365355B1 (de)
JP (1) JP4492704B2 (de)
DE (1) DE69822923T2 (de)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6738527B2 (en) 1997-06-09 2004-05-18 Seiko Epson Corporation Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, and image evaluation method and a medium on which an image evaluation program is recorded
US6774943B1 (en) * 1998-09-01 2004-08-10 Ess Technology, Inc. Method and apparatus for edge enhancement in digital images
US7110599B1 (en) * 1999-03-05 2006-09-19 Seiko Epson Corporation Image data retouching apparatus, image data retouching method, and medium on which image data retouching program is recorded
JP3736219B2 (ja) * 1999-08-13 2006-01-18 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置及び方法
US6721457B1 (en) * 1999-08-27 2004-04-13 Hewlett-Packard Development Company, L.P. Method for enhancing digital images
US20020061062A1 (en) * 2000-11-22 2002-05-23 O'brien Royal Filtering system and method for digital interactive streams
JP2005512200A (ja) * 2001-11-19 2005-04-28 シーメンス アクチエンゲゼルシヤフト 時間的なノイズ低減及び局所的なコントラスト増幅
US7119854B2 (en) * 2001-12-28 2006-10-10 Koninklijke Philips Electronics N.V. Method for deriving an objective sharpness metric
JP3863808B2 (ja) * 2002-05-27 2006-12-27 三洋電機株式会社 輪郭強調回路
JP4228641B2 (ja) * 2002-09-20 2009-02-25 セイコーエプソン株式会社 出力対象画像データ選択
GB0224357D0 (en) * 2002-10-19 2002-11-27 Eastman Kodak Co Image processing
US7149354B2 (en) * 2002-12-12 2006-12-12 Intel Corporation Extraction of a scene structure based on gradient runs analysis
JP4258385B2 (ja) * 2004-01-14 2009-04-30 株式会社デンソー 路面反射検出装置
DE102004034532B4 (de) * 2004-07-16 2009-05-28 Audi Ag Verfahren zur Kennzeichnung von Bildinformationen in der Darstellung eines mit einer fahrzeugseitigen Bildaufnahmeeinrichtung aufgenommenen Nachtsichtbildes und zugehöriges Nachtsichtsystem
KR100647955B1 (ko) * 2004-12-03 2006-11-23 엘지전자 주식회사 디포커스 현상을 보정하는 영상처리장치
JP4992212B2 (ja) * 2005-09-06 2012-08-08 ソニー株式会社 画像処理装置、画像判定方法及びプログラム
JP4637063B2 (ja) * 2006-07-04 2011-02-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP4677376B2 (ja) * 2006-07-07 2011-04-27 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム及び記憶媒体
JP2008107557A (ja) * 2006-10-25 2008-05-08 Nikon Corp 顕微鏡装置および顕微鏡画像の解像方法
US8180167B2 (en) * 2008-07-16 2012-05-15 Seiko Epson Corporation Model-based error resilience in data communication
JP5412791B2 (ja) * 2008-10-27 2014-02-12 株式会社ニコン デジタルカメラ、および画像処理プログラム
JP2013218281A (ja) * 2012-03-16 2013-10-24 Seiko Epson Corp 表示システム、表示プログラム及び表示方法
JP5514344B2 (ja) * 2012-05-15 2014-06-04 シャープ株式会社 映像処理装置、映像処理方法、テレビジョン受像機、プログラム、及び記録媒体
JP5975215B2 (ja) 2012-11-14 2016-08-23 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム、画像調整装置及び画像調整プログラム
KR102016424B1 (ko) * 2013-04-12 2019-09-02 삼성디스플레이 주식회사 데이터 처리 장치 및 이를 갖는 디스플레이 시스템
JP6924896B2 (ja) * 2018-03-30 2021-08-25 富士フイルム株式会社 画像のレイアウト・サイズ算出装置および方法ならびに画像のレイアウト・サイズ算出プログラムおよびそのプログラムを格納した記録媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02202175A (ja) 1989-01-30 1990-08-10 Dainippon Screen Mfg Co Ltd 画像走査記録装置における鮮鋭度強調方法
JP3003799B2 (ja) * 1990-03-28 2000-01-31 富士写真フイルム株式会社 画像の鮮鋭度強調方法及びその装置
US5513016A (en) * 1990-10-19 1996-04-30 Fuji Photo Film Co. Method and apparatus for processing image signal
US5271064A (en) * 1991-06-14 1993-12-14 University Of Cincinnati Apparatus and method for smoothing regions and enhancing edges in gray scale images
JP2692531B2 (ja) 1992-06-18 1997-12-17 日本電気株式会社 画像の鮮鋭化方法及び装置
JP3386203B2 (ja) * 1993-05-07 2003-03-17 株式会社リコー 画情報の処理方法及び画情報処理装置
US6075926A (en) * 1997-04-21 2000-06-13 Hewlett-Packard Company Computerized method for improving data resolution

Also Published As

Publication number Publication date
DE69822923D1 (de) 2004-05-13
JP2008167461A (ja) 2008-07-17
EP1365355A2 (de) 2003-11-26
EP1365355B1 (de) 2016-03-16
EP0883086A2 (de) 1998-12-09
EP0883086A3 (de) 1999-01-13
EP0883086B1 (de) 2004-04-07
EP1365355A3 (de) 2004-08-11
US6392759B1 (en) 2002-05-21
JP4492704B2 (ja) 2010-06-30

Similar Documents

Publication Publication Date Title
DE69822923T2 (de) Verfahren und Vorrichtung zur Kantenhervorhebung
DE60111756T2 (de) Verfahren zum verbessern der kompressionsfähigkeit und der bildqualität von abgetasteten dokumenten
DE60012464T2 (de) Verfahren zur Verbesserung eines digitalbildes mit rauschabhängiger Steuerung der Textur
DE69736938T2 (de) Detektion und Wiedergabe von Text in gerasterten Bildbereichen
DE69029229T2 (de) Digitale halbtonrasterung mit fehlerdiffusion
DE3546135C2 (de)
DE60225296T2 (de) Allzweckbildverbesserungsalgorithmus, der details in digitalbildern visuell besser erkennbar macht
EP1231564B1 (de) Digitale lokale Bildeigenschaftssteuerung mittels Masken
DE69732955T2 (de) Adaptive Rauschverminderung von Videobildern
DE602004002618T2 (de) Verfahren und System zur Kantenhervorhebung
DE69633259T2 (de) Bildverarbeitungsverfahren und -vorrichtung
DE69812800T2 (de) Verfahren und Gerät zur Bildverbesserung
DE69018694T2 (de) Vorrichtung zum Drucken eines Videobildes.
DE68914206T2 (de) Verfahren und System zur Verbesserung eines digitalisierten Bildes.
DE60127016T2 (de) Verfahren und Gerät zur Durchführung einer lokalen Farbkorrektur
DE3629409C2 (de) Verfahren und Vorrichtung zur Kontrastbewertung bei der elektronischen Bildverarbeitung
DE60017600T2 (de) Digitales bilderzeugungsverfahren
DE60114974T2 (de) Verfahren zur verbesserung eines digitalbildes anhand der pixelfarbe
DE69938227T2 (de) Verfahren und Gerät zur Bewegungsartefakten- und Geräuschverringerung in Videobildverarbeitung
EP1231773B1 (de) Lokale Schärfung fotografischer Bilder mittels Masken
DE60012649T2 (de) Beseitigung von chromarauschen aus digitalbildern durch verwendung veränderlich geformter pixelnachbarschaftsbereiche
US20020025079A1 (en) Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
DE68922674T2 (de) Bildverarbeitungsverfahren und -anordnung.
DE19916354A1 (de) Verfahren und Vorrichtung zur Analyse von Bildstrukturen
DE69728724T2 (de) Bildbereichs-Erkennungsverfahren und Bildverarbeitungsvorrichtung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition