-
Die
vorliegende Erfindung betrifft ein Bildbearbeitungssystem, das vertikale
Artefakte, wie Linien, auf Bildern entfernt, die durch Abtasten
eines Originaldokuments erzeugt wurden, ohne dass Bildinformationen
verloren gehen.
-
Unerwartete,
vertikale schwarze Muster oder Artefakte, wie Linien, Punkte, Striche
usw., sind in binären
Dokumentbildern, die durch Papierscanner erstellt werden, allgemein übliche Bildartefakte.
Die vertikalen schwarzen Muster sind nicht Teil des Originaldokumentbildes,
aber diese Muster entstehen durch Staub- oder Schmutzteilchen, die
das Licht zwischen der Lichtquelle und den abgetasteten Papierdokumenten
blockieren. Beispielsweise können Staub- oder Schmutzteilchen
auf den transparenten Bildführungen
im Strahlengang des Scanners verbleiben, die schattierte Linien
auf dem Dokument erzeugen, das sich durch den Scanner bewegt. Wenn das
Dokument elektronisch mit einer CCD-Vorrichtung erfasst wird, werden
die schattierten Linien in dem digitalen Dokumentbild sichtbar.
Die schattierten vertikalen Linien innerhalb eines Graustufenbildes werden
ohne Unterscheidung als Teil des Bildinhalts behandelt. Nachdem
das Graustufenbild einer adaptiven Schwellenwertoperation unterzogen
worden ist, zeigen sich die schattierten Linien als schwarze Linien
in dem binären
Bild.
-
Eine
gängige
Lösung
dieses Problems besteht darin, die Staub- oder Schmutzteilchen aus dem
Strahlengang zu entfernen, indem man die transparenten Bildführungen
reinigt. Diese Lösung erfordert
allerdings die Unterbrechung des Scannerbetriebs, was bei einem
Produktionsscanner unerwünscht
ist.
-
Das
europäische
Patent Nr. 600,613 verwendet eine intensitätsgestützte Analyse. Auf ähnliche Weise
entfernt US-A-5,065,444 Bildartefakte durch Beschneidungsoperationen
auf der Basis eines Intensitätshistogramms.
-
EPA-502,334
beschreibt die Entfernung von Rauschen durch kurzgeschlossene schwarze
Punkte. Im Unterschied dazu extrahiert die vorliegende Erfindung
vertikale Streifen auf der Basis eines projizierten Profils in vertikaler
Richtung. Es besteht daher ein grundlegender Unterschied zwischen
der vorliegenden Erfindung und EP-A-502,334, und zwar nicht nur
in Bezug auf die Aufgabe, sondern auch in Bezug auf das verwendete
Verfahren.
-
Der
vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Digitalbild-Bearbeitungsverfahren
bereitzustellen, das vertikal angeordnete Muster oder Artefakte
erkennt, die durch verschmutzte Bildführungen in Scannern verursacht
werden, und das die vertikal angeordneten Muster subtrahiert, bevor
es das endgültige
Bild des gescannten Dokuments erzeugt. Die vertikal angeordneten
Muster können
in Form von Linien, Strichen, Punkten usw. vorliegen.
-
Die
vorliegende Erfindung stellt ein Bildbearbeitungsverfahren nach
Anspruch 1 bereit.
-
Ein
nützliches
Beispiel für
das Verständnis der
vorliegenden Erfindung ist ein Digitalbild--Bearbeitungsverfahren, das folgende
Schritte umfasst: (1) zweimaliges Anwenden eines kantenbasierenden, adaptiven
Schwellwertverfahrens mit unterschiedlichen Kontrastparametereinstellungen
zur Umwandlung eines Bildes, beispielsweise eines Graustufenbildes,
in zwei binäre
Bilder; (2) Erzeugen einer Bitmap der Differenzen aus den beiden
binären
Bildern; (3) Projizieren des vertikalen Profils der Bitmap der Differenzen;
(4) Erfassen der lokalen Spitzenwerte (d.h. vertikale Linien, Striche,
Punkte usw.) aus dem vertikalen Projektionsprofil; (5) Lokalisieren
der Bereiche der vertikalen Linien, Striche, Punkte usw. in der
Bitmap der Differenzen anhand der erfassten lokalen Spitzenwerte
und (6) Umkehren der Pixel aus den binären Bildern auf der Basis vertikaler
Linien, Striche, Punkte usw. der Bitmap der Differenzen.
-
Ein
weiteres nützliches
Beispiel für
das Verständnis
der vorliegenden Erfindung ist ein Verfahren, das folgende Schritte
umfasst: Erfassen eines Dokumentbildes mit einer CCD-Anordnung in
Rasterabtastung; Anwenden einer kantenbasierenden, adaptiven Schwellenwerttechnik
[1] mit einer normalen Kontrasteinstellung zur Extraktion jedes
Details der Bildinformationen und Speichern des resultierenden digitalen
Bildes unter dem Namen B1; Anwenden derselben kantenbasierenden
adaptiven Schwellenwerttechnik mit einer niedrigen Kontrasteinstellung, die
nur kontraststarke Details des Bildes extrahiert, unter dem Namen
B2; Aus zeichnen der Differenz von B1 und B2 und Speichern der Bitmap
der Differenzen unter dem Namen D; Projizieren des vertikalen Profils
der Bitmap der Differenzen (D); Lokalisieren der vertikal angeordneten
Muster durch Erfassen der lokalen Spitzenwerte in dem vertikalen
Projektionsprofil; was zu einer Bitmap der vertikal angeordneten Muster
führt,
unter dem Namen V; Lesen des binären Bildes
(B1) und der Bitmap der vertikal angeordneten Muster (V) und Umkehren
der Pixel in Bild B1 an den entsprechenden schwarzen Pixelstellen
in der Bitmap V.
-
Ein
weiteres Beispiel sieht ein Bildverarbeitungsverfahren vor, das
folgende Schritte umfasst: Umwandeln eines Bildes in ein erstes
und zweites binäres
Bild; Vergleichen des ersten und zweiten binären Bildes und Erzeugen einer
Bitmap, die eine Differenz zwischen dem ersten und zweiten binären Bild zeigt;
Projizieren eines vertikalen Profils der Bitmap und Erfassen von
Spitzenwerten in dem vertikalen Profil; Lokalisieren von Regionen
vertikal angeordneter Muster in der Bitmap auf Basis der erfassten
Spitzenwerte und Umkehren der Pixel von dem ersten binären Bild
auf Basis der vertikal angeordneten Muster in der Bitmap.
-
Ein
weiteres Beispiel sieht ein Bildverarbeitungsverfahren vor, das
folgende Schritte umfasst: Erfassen eines Bildes; Extrahieren der
Bildinformationen aus dem Bild und Speichern eines resultierenden
Bildes als ein erstes binäres
Bild; Extrahieren kontrastreicher Details aus dem Bild und Speichern eines
resultierenden Bildes als ein zweites binäres Bild; Vergleichen des ersten
und zweiten binären
Bildes und Erzeugen einer Bitmap, die eine Differenz zwischen dem
ersten und zweiten binären
Bild zeigt; Projizieren eines vertikalen Profils der Bitmap; Lokalisieren
von Regionen vertikal angeordneter Muster in der Bitmap durch Erfassen
lokaler Spitzenwerte in dem vertikalen Profil, um eine Bitmap aus
vertikal angeordneten Mustern zu erhalten, und Umkehren der Pixel
aus dem ersten binären
Bild auf der Grundlage vertikal angeordneter Muster der Bitmap.
-
Ein
weiteres Beispiel sieht ein Bildverarbeitungsverfahren vor, das
folgende Schritte umfasst: Umwandeln eines Bildes in erste und zweite
binäre Bilder;
Erzeugen einer Bitmap, die eine Differenz zwischen dem ersten und
zweiten binären
Bild zeigt und Umkehren der Pixel aus dem ersten binären Bild
auf Basis vertikal angeordneter Muster in der Bitmap.
-
Ein
weiteres Beispiel betrifft eine Bilderfassungsvorrichtung, die einen
Bilderfassungsabschnitt umfasst, der ein Bild erfasst; einen Umwandlungsabschnitt,
der das erfasste Bild in digitale Bildinformationen umwandelt, die
das erfasste Bild zeigen, und einen Verarbeitungsabschnitt, der
die digitalen Informationen empfängt
und das erfasste Bild in ein erstes und zweites binäres Bild
umwandelt. Der Verarbeitungsabschnitt wandelt das erste und zweite
binäre
Bild um, um eine Bitmap der Differenz zwischen dem ersten und zweiten
binären
Bild zu erzeugen, und kehrt Pixel aus dem ersten binären Bild
auf Basis vertikal angeordneter Muster in der Bitmap um.
-
Die
vorliegende Erfindung nutzt eine allgemeine Tendenz, dass gängige Dokumente
normalerweise keine kontrastarmen vertikalen Linien enthalten, die
sich im Wesentlichen über
die ganze "Seitenlänge" erstrecken. Typischerweise
weisen nur variable Daten (Handschrift, Schreibmaschine usw.) einen schwachen
Kontrast auf, während
Linien und Grafiken Teil eines Formulars sind (hoher Kontrast).
-
Die
Erfindung wird im folgenden anhand in der Zeichnung dargestellter
Ausführungsbeispiele näher erläutert.
-
Es
zeigen:
-
1A ein
Ablaufdiagramm der Bildbearbeitungsschritte zur Umwandlung eines
Graustufenbildes in ein binäres
Bild mit minimalen Bildartefakten;
-
1B eine
schematische Darstellung einer Bilderfassungsvorrichtung, die das
erfindungsgemäße System
einschließt;
-
2A ein
Ablaufdiagramm zur Darstellung der Schritte einer kantenbasierenden,
adaptiven Schwellenwertoperation (ATP);
-
2B eine
3×3-Matrix
der Pixelortdefinitionen, die zur Bestimmung der Gradientenstärke des aktuellen
Pixels (i,j) dienen;
-
2C eine
grafische Darstellung einer N×N-Nachbarschaft
von Pixeln, die um ein aktuelles Pixel (i,j) in einer Bildstärkeaufzeichnung
mittig angeordnet sind;
-
2D eine
grafische Darstellung einer (N-2)-×-(N-2)-Nachbarschaft von Pixeln,
die um ein aktuelles Pixel (i,j) in einer Bildstärkegradientenaufzeichnung mittig
angeordnet sind;
-
2E ein
Beispiel eines von einem Produktionsscanner erfassten Graustufenbildes;
-
2F ein
Beispiel eines mit normaler Kontrastparametereinstellung erfassten
Graustufenbildes (B1);
-
2G ein
Beispiel eines mit niedriger Kontrastparametereinstellung erfassten
Graustufenbildes (B2);
-
3A ein
Ablaufdiagramm zur Erzeugung einer Bitmap der Differenzen zwischen
zwei binären Bildern;
-
3B ein
Beispiel einer Bitmap der Differenz zwischen den binären Bilder
B1 und B2 in 2E bzw. 2F;
-
4A ein
Ablaufdiagramm zur Analyse der Bitmap der Differenzen und zur Erzeugung
einer Bitmap der vertikalen Linien;
-
4B ein
Beispiel des mithilfe der Bitmap aus 3B erzeugten
vertikalen Projektionsprofils;
-
4C ein
Beispiel einer Bitmap der abgeleiteten vertikalen Linien;
-
5A ein
Ablaufdiagramm der Entfernung der vertikalen schwarzen Linien in
einem einer Schwellenwertoperation unterzogenen Bild; und
-
5B ein
Beispiel eines fertigen binären Bildes.
-
Unter
Bezugnahme auf die Zeichnungen, in denen gleiche Bezugsziffern für gleiche
oder entsprechende Teile der Figuren stehen, zeigt 1A ein Blockdiagramm
eines Bildbearbei tungsverfahrens, das eine Bildschwellenwertoperation
mit minimalen vertikalen Linienartefakten durchführt. Das erfindungsgemäße Verfahren
und die erfindungsgemäße Vorrichtung
wird unter Bezug auf vertikale Linien beschrieben, wobei darauf
hingewiesen sei, dass die vorliegende Erfindung nicht auf die Beseitigung
von Linien beschränkt
ist. Die vorliegende Erfindung ist auf die Entfernung oder Reduzierung
vertikal angeordneter visueller Muster oder Artefakte anwendbar, beispielsweise
Linien, Striche, Punkte, Markierungen oder beliebige Kombinationen
daraus. In dem erfindungsgemäßen Bildbearbeitungsverfahren
dient ein Bild, etwa aus digitalen Graustufenbilddaten (G) als Eingabe
(Schritt 7), worauf ein Verfahren folgende Bearbeitung
vornimmt: (1) Zunächst
wird eine kantenbasierende Schwellenwertoperation angelegt (Schritt 9),
um das Graustufenbild (G) in ein binäres Bild (B1) mit normaler
Kontrastparametereinstellung umzuwandeln, wobei die vollständigen Details
der Bildinformationen extrahiert werden; (2) die kantenbasierende
Bildschwellenwertoperation wird erneut angelegt (Schritt 11),
um das Graustufenbild (G) in ein weiteres binäres Bild (B2) mit niedrigen
Kontrastparametereinstellungen umzuwandeln, wobei nur dunkle, kontrastreiche
Objekte extrahiert werden; (3) die beiden binären Bilder (B1) und (B2) werden
pixelweise verglichen (Schritt 15), worauf ein Pixel als "schwarzes" Pixel bezeichnet
wird, wenn eine Differenz besteht, und worauf ein Pixel als "weißes" Pixel bezeichnet
wird, wenn keine Differenz besteht, um eine Bitmap der Differenzen
(D) zwischen den beiden binären
Bildern (B1) und (B2) zu erzeugen; (4) die vertikalen, visuellen
Artefakte, wie beispielsweise vertikale Linien in Bitmap (D), werden
lokalisiert (Schritt 17), indem eine vertikale Projektionsprofilanalyse
durchgeführt
wird, die eine Bitmap (V) aus vertikalen Linien ergibt, und (5)
das endgültige,
einer Schwellenwertoperation unterzogene Bild (B) wird erzeugt (Schritt 19),
indem die entsprechenden schwarzen Pixel entfernt und die entsprechenden weißen Pixel
in das Bild B1, das einer Schwellenwertoperation unterzogen worden
ist, an Stelle der schwarzen Pixel in der Bitmap (V) eingesetzt
werden.
-
1B zeigt
eine schematische Darstellung einer Bilderfassungsvorrichtung 300,
die die erfassten Bilder gemäß der beschriebenen
Merkmale der vorliegenden Erfindung verarbeitet. Die Bilderfassungsvorrichtung 300 kann
ein Scanner sein, der einen Bilderfassungsabschnitt 301 beispielsweise
in Form einer ladungsgekoppelten Vorrichtung zur Bilderfassung umfasst,
und einen Umwandlungsabschnitt 303 beispielsweise in Form
eines A/D-Wandlers, der das erfasste Bild in digitale Informationen umwandelt,
die das erfasste Bild bezeichnen. Die digitalen Informationen werden
an einen Verarbeitungsabschnitt 305 übergeben, der die digitalen Bildinformationen
bearbeitet, wie mit Bezug auf 1A beschrieben,
und wie unter Bezug auf 2A, 3A, 4A und 5A weiter
ausgeführt
wird.
-
Kantenbasierende, adaptive
Bildschwellenwertoperation
-
2A zeigt
ein Blockdiagramm eines Bildbearbeitungssystems, das die kantenbasierende,
adaptive Schwellenwertoperation durchführt. Das Schwellenwertverfahren
nimmt die digitalen Bilddaten von einem Scanner sowie die bedienerspezifischen
Eingabeparameter IT (Intensitätsschwelle) und
GT (Gradientenschwelle) entgegen und umfasst folgende Schritte:
Zunächst wird
der Sobel-Gradientenoperator auf die Bildstärkenaufzeichnung angewandt,
um eine Gradientenstärkeaufzeichnung
zu erhalten (Schritt 21). Der Sobel-Operator arbeitet in
einem Fenster von 3×3
Pixeln, wie in 2B gezeigt, um die horizontalen
und vertikalen Intensitätsgradienten
GX(i, j) und GY(i, j) an der Pixelposition (i, j) zu berechnen.
Die Gradientenstärke
GS(i, j) an Pixelposition (i, j) ist die absolute Summe der horizontalen
und vertikalen Intensitätsgradienten
GX(i, j) bzw. GY(i, j). GX(i, j) und GY(i, j) sind folgendermaßen definiert:
GX(i,
j) = L(i+1, j–1)+2L(i+1,
j)+L(i+1, j+1)–L(i– 1, j–1)–2L(i–1, j)–L(i–1, j+1);
GY(i,
j) = L(i–1,
j+1)+2L(i, j+1)+L(i+1, j+1)–L(i–1, j–1)–2L(i, j–1)–L(i+1,
j–1);
GS(i,
j) = |GX(i, j)| + |GY(i, j)|, wobei
GS(i, j) = Gradientenstärkeaufzeichnung
an Pixelposition (i, j) nach Gradientenoperation.
L(i, j) =
Bildintensität
an Pixelposition (i, j);
-
Zweitens
wird die Minimalintensität – Lmin(i, j)
und die Maximalintensität – Lmax(i,
j) in einem Fenster N×N
aus der in 2C gezeigten Bildintensitätsaufzeichnung
(Schritt 27) gemessen, und die Summe der Gradientenstärke GS (i,
j) in einem Fenster (N-2)-x-(N-2), wie in 2D gezeigt,
wird aus der Gradientenstärke
berechnet (Schritt 23 in 2A). Die
Summe des Gradienten GS (i, j) ist als ein Flächengradient definiert. Als
nächstes
werden die drei Merkmalswerte GS (i, j), Lmin (i, j), Lmax (i, j)
verwendet, um das Pixel an Position (i, j) als schwarzes oder weißes Pixel
in der Bildintensitätsaufzeichnung
zu klassifizieren. Der letzte Prozess ist die Extraktion der schwarzen
Pixel (Objekte). Der erste Schritt der Extrak tion ist die Erfassung
von Pixeln in Kantennähe.
Ein Pixel an Position (i, j) in Kantennähe wird bestätigt, wenn
ein Flächengradient
hoch und größer als
ein vorbestimmter Wert ist, nämlich
die Gradientenschwelle (GT) (Schritt 25). Nachdem ein Pixel
in Kantennähe
gefunden ist, wird das Pixel (das mittlere Pixel des lokalen Fensters)
als schwarz (Objekt) klassifiziert, wenn dessen Intensität kleiner
als der Mittelwert von Lmin(i, j) und Lmax(i, j) ist (Schritt 29 und 30).
Das heißt,
es befindet sich auf der dunkleren Seite einer Kante. Wenn die Intensität größer als
der Mittelwert (PA) von Lmin(i, j) und Lmax(i, j) ist, wird es als
weiß (Hintergrund)
klassifiziert (Schritt 30). Wenn ein Flächengradient kleiner als der
Gradientenschwellenwert (GT) (Schritt 25) ist, beispielsweise
ein Fenster N×N,
das sich in einer flachen Region bewegt, erfolgt die Klassifikation
durch einfache Schwellenwertbildung. Hierzu wird der Grauwert des Pixel
mit einem anderen, vorbestimmten Intensitätsschwellenwert (IT) verglichen.
Wenn der Grauwert eines Pixel kleiner als IT ist, wird das Pixel
als schwarz klassifiziert, andernfalls wird es als weißer Hintergrund
(Schritt 33) behandelt.
-
Die
Bildqualität
nach der Schwellenwertoperation wird durch die benutzerseitige Wahl
der beiden Schwellenwertparameter (GT und IT) gesteuert. Der Parameter
GT wird für
die Klassifizierung von Pixeln in der Nähe von Kanten eingestellt,
der Parameter IT wird für
die Klassifizierung von Pixeln in einheitlichen Regionen eingestellt.
Ein niedriger Wert für
GT bewirkt tendenziell, dass Kantenpixel von hellen Objekten extrahiert
werden, während
ein niedriger Wert für IT
bewirkt, dass Pixel einer gleichmäßigen grauen Region dem weißen Hintergrund
zugeordnet werden. Mit einem sehr hohen Wert für GT funktioniert der Algorithmus
wie eine Schwellenwertoperation mit einer festen Schwellenwerteinstellung
bei dem Wert von IT. Da in dieser Situation GT stets größer als
der Flächengradient
ist, wird die Pixelklassifizierung des Bildes, wie in 2A gezeigt,
ausschließlich
durch Vergleichen von IT mit der Intensität an dem betreffenden Pixel
ermittelt. Die Technik kann auch herangezogen werden, um ein Strichbild
zu erhalten, indem man den Wert IT auf null setzt, wodurch alle
Pixel als weiße
Pixel eingestuft werden, mit Ausnahme der Kantenpixel, bei denen
die Flächengradienten
größer als
GT sind.
-
2E zeigt
ein Beispiel eines von einem Produktionsscanner erfassten Graustufenbildes.
Hier sind einige helle, vertikale Linienbildartefakte 50 zu erkennen. 2F ist
das einer Schwellenwertoperation unterzogene Bild, das erzeugt wurde,
indem die kantenbasierende Schwellenwerttechnik mit einer normalen
Kontrasteinstellung auf das Graustufenbild in 2E angewandt
wurde. Da die Schwellenwertoperation mit einer normalen Kontrasteinstellung
versucht, jedes Detail der Bildinformationen in dem Graustufenbild
zu extrahieren, wandelt sie auch die unerwünschten, hellen vertikalen
Linien in vertikale schwarze Linien 50' um. Bei einer niedrigen Kontrasteinstellung
werden Objekte mit geringem Kontrast, wie helle vertikale Linien,
helle Zeichen und alle hellen Objekte, in der Schwellenwertoperation
ignoriert und in dem der Schwellenwertoperation unterzogenen Bild
nicht dargestellt, wie in 2G gezeigt.
-
Erzeugung
einer Bitmap der Bilddifferenzen
-
3A zeigt
ein Blockdiagramm zur Erstellung einer Bitmap der Bilddifferenzen
zwischen den beiden einer Schwellenwertoperation unterzogenen Bildern
B1 und B2 aus 1. Wie in 3A gezeigt, wird
ein Bitmap-Wert B1(i, j), der entweder 1 (schwarz) oder 1 (weiß) ist,
an Stelle (i, j) des Bildes B1 gelesen (Schritt 40a), und
ein Bitmap-Wert B2 (i, j) an der entsprechenden Stelle (i, j) des
Bildes B2 wird ebenfalls gelesen (Schritt 40b). Wenn sich
der Wert B1 (i, j) von dem Wert B2 (i, j) (Schritt 41)
unterscheidet, d.h. ein Wert ist schwarz, der andere weiß, dann
wird der Wert d(i, j) an Stelle (i, j) einer neuen Bitmap D als
1 markiert (schwarzes Pixel)(Schritt 42), andernfalls wird
er als O markiert (weißes
Pixel)(Schritt 43). Der zuvor genannte Prozess wird an jeder
Pixelstelle (i, j) in den Bildern B1 und B2 angelegt und erzeugt
eine Bitmap D, die die Differenz von B1 und B2 zeigt. Der Prozess
zeigt, dass nur Objekte mit niedrigem Kontrast oder helle Objekte
extrahiert und in der Bitmap der Differenzen angezeigt werden. 3B ist
ein Beispiel einer erzeugten Bitmap, die die Differenz der beiden
einer Schwellenwertoperation unterzogenen Bilder in 2F und 2G zeigt.
-
Erzeugung
einer Bitmap der vertikalen Linien
-
4A zeigt
ein Blockdiagramm der Erstellung einer Bitmap der vertikalen Linien.
Die vertikalen Linien werden durch Projizieren eines vertikalen
Profils der Bitmap D (Schritt 60a) erzeugt. Dieses vertikale
Projektionsprofil ist die Frequenzverteilung schwarzer Pixel in
einer eindimensionalen Ebene. Es ermöglicht die einfache Lokalisierung
der vertikalen Linien durch Erfassen der Spitzen in der eindimensionalen
Frequenzverteilung (Schritt 61). Ein Bei spiel des vertikalen
Projektionsprofils der Bitmap in 3B wird
in 4B gezeigt. Die mehrfachen Spitzen in 4B zeigen,
dass in Bitmap D mehrere vertikale Linien auftauchen. Die Lage der
Spitzen wird gemessen, indem man den Wert jeder Lage mit einem bestimmten
Schwellenwert vergleicht. Die Spitzen, deren Werte größer als
der Schwellenwert sind, gelten als Lage der Linien.
-
Die
Bitmap der vertikalen Linien ist von dem vertikalen Projektionsprofil
abgeleitet. Das vertikale Projektionsprofil lokalisiert die vertikalen
Linien, die als helle vertikale Linien gelten und nicht durch Schmutz-
oder Staubpartikel verursacht werden. Nach Verarbeitung des Bildes
in der zuvor beschriebenen Weise wird die Bitmap D in 3B in
eine Bitmap von vertikalen Linien umgewandelt, wie in 4C gezeigt.
-
Entfernung
vertikaler Muster oder Artefakte
-
5A zeigt
ein Blockdiagramm des vertikalen Prozesses zur Entfernung vertikaler
Muster oder Artefakte, das zwar unter Bezug auf vertikale Linienentfernung
beschrieben wird, aber ebenfalls auf die Entfernung von Strichen,
Punkten usw. anwendbar ist. In dem Prozess wird der Bitmap-Wert
b1 (i, j) an Stelle (i, j) in dem Bild B1 gelesen, und der Bitmap-Wert
v (i, j) an der entsprechenden Stelle (i, j) in der Bitmap V wird
ebenfalls gelesen (Schritt 70). Wenn der Wert v (i, j)
als „1" markiert ist, wobei „1" für schwarz
und „0" für weiß steht
(Schritt 71), dann wird der Wert b1 (i, j) geprüft (Schritt 72).
Wenn der Wert v (i, j) als „0" markiert ist, dann
wird b(i, j) gleich b1 (i, j) gesetzt (Schritt 75). Wenn
der Wert b1 (i, j) als „1" markiert ist (schwarzes
Pixel), dann wird der Wert b1(i, j) auf „0" (weiß) gesetzt (Schritt 73).
Wenn aber der Wert b1 (i, j) als „0" markiert ist, wird der Wert b1(i, j)
auf „1" (schwarz) gesetzt
(Schritt 74). Die Bitmap B ist eine Kopie der Bitmap B1
nach Entfernung der vertikalen Linien, wobei b(i, j) der Wert der Bitmap
B an Stelle (i, j) ist. Der Prozess wird über alle Pixelstellen (i, j)
in den Bildern B1 und V angewandt und erzeugt eine Bitmap B, in
der die vertikalen Linien entfernt worden sind. 5B zeigt
ein Beispiel des endgültigen,
einer Schwellenwertoperation unterzogenen Bildes, in dem die vertikalen
Linienartefakte aus der Bitmap von 2E entfernt
worden sind.