DE69423868T2 - Vorrichtung und Verfahren zur Bildverarbeitung - Google Patents

Vorrichtung und Verfahren zur Bildverarbeitung

Info

Publication number
DE69423868T2
DE69423868T2 DE1994623868 DE69423868T DE69423868T2 DE 69423868 T2 DE69423868 T2 DE 69423868T2 DE 1994623868 DE1994623868 DE 1994623868 DE 69423868 T DE69423868 T DE 69423868T DE 69423868 T2 DE69423868 T2 DE 69423868T2
Authority
DE
Germany
Prior art keywords
character
image
signal
operable
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE1994623868
Other languages
English (en)
Other versions
DE69423868D1 (de
Inventor
Shinobu Arimoto
Yushi Matsukubo
Yoshiki Uchida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Application granted granted Critical
Publication of DE69423868D1 publication Critical patent/DE69423868D1/de
Publication of DE69423868T2 publication Critical patent/DE69423868T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6016Conversion to subtractive colour signals
    • H04N1/6022Generating a fourth subtractive colour signal, e.g. under colour removal, black masking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Processing Or Creating Images (AREA)

Description

  • Die Erfindung betrifft eine Bildverarbeitungsvorrichtung und ein Bildverarbeitungsverfahren, und bezieht sich konkreter auf eine Bildverarbeitungsvorrichtung mit einer Funktion zum Extrahieren von Charakteristiken eines zugeführten Bildes sowie auf ein Verfahren zum Extrahieren derselben.
  • Ein Farbdrucksystem, wie beispielsweise eine Farbdruckvorrichtung, die Farbbilddaten digital verarbeitet und die Daten an einen Farbdrucker ausgibt, um ein Farbbild zu erhalten, und ein digitales Farbkopiergerät, das ein Farboriginal durch Zerlegen von Farben des Originals elektrisch liest und ein Farbbild durch Drucken eines Bildes auf der Grundlage der erhaltenen Farbbilddaten auf einen Druckbogen kopiert, ist weit verbreitet geworden.
  • Als diese Systeme allgemein Verwendung fanden, nahm das Verlangen nach höherer Druckqualität eines Farbbildes zu. Insbesondere wird verlangt, dass schwarze Zeichen und Linien in dunklerer schwarzer Farbe und schärfer gedruckt werden. Wenn ein in Schwarz geschriebenes Original farbzerlegt wird, werden Gelb-, Magenta-, Cyan-, und Schwarzsignale erzeugt, um die ursprüngliche schwarze Farbe zu repräsentieren. Durch Durchführen eines Druckvorgangs in Übereinstimmung mit diesen erzeugten Signalen wird das ursprüngliche Schwarz durch die vier Farben reproduziert, so dass ohne Aufbringen der Tinte der vier Farben in exakt den selben Positionen das reproduzierte Bild verunschärfte Umrisse in schwarzen dünnen Linien aufweist, welches verhindert, dass die reproduzierte schwarze Linie schwarz aussieht, oder schwarze Zeichen oder Linien verwischt aussehen lässt. Folglich kann die Qualität eines gedruckten Bildes beachtlich fallen.
  • Um das vorstehend erwähnte Problem zu überwinden, wird ein Verfahren zum Extrahieren von Farbinformation auf schwarzen Abschnitten oder anderen Abschnitten als solcher schwarzer Farbe in Bildsignalen und Extrahieren von Raumfrequenzen dünner Linien, verdeckter Punkte oder dergleichen vorgeschlagen, um dadurch einen Bereich von beispielsweise schwarzen Zeichen oder farbigen Zeichen zu erfassen, weiter die Bildsignale in Bereiche von Halbtonbildern und Bilder verdeckter Punkte zu unterteilen und einen Prozess anzuwenden, der für jeden Bereich geeignet ist, und die Wiedergabe bzw. Reproduktion schwarzer Farbe zu vereinfachen, falls der Bereich ein Bereich schwarzer Zeichen ist.
  • Gemäß dem vorstehenden konventionellen Verfahren jedoch besteht bei der Wiedergabe von Zeichen, deren Zeichensatz beispielsweise Mincho (einer von japanischen Zeichentypen) ist, bei dem sich die Dicke eines Zeichens in verschiedenen Teilen des Zeichens ändert, ein Problem dahingehend, dass die Ränder bzw. Kanten des Zeichens so eindeutig gezackt verlaufen, dass der Rand bzw. die Kante offenbar erkannt werden kann. Ferner kann in einem Fall, in dem ein Zeichen in einem verdeckten Punktbild existiert, ein Prozess für schwarze Zeichen nicht durchgeführt werden, da der Rand des Zeichens nicht von dem Rand eines Punktes unterschieden werden kann. Daher werden schwarze Zeichen nicht immer mit dem geeigneten Betriebsablauf verarbeitet, welches eine Verbesserung der Wiedergabequalität eines Bildes verhinderte.
  • Ferner bleibt, da ein Zeichenbereich nicht in hoher Auflösung erkannt werden kann, die Geschwindigkeit der Zeichenerkennung (bekannt als optischer Zeichenleser bzw. Klarschriftleser) gering.
  • Aus der EP-A-0334472 ist die Bereitstellung eines Verfahrens zur Zeichenerkennung bekannt, in dem Zeichenketten in einem abgetasteten Bild identifiziert und eingerahmt werden.
  • Aus der EP-A-0348145 ist die Bereitstellung einer Bildverarbeitungsvorrichtung bekannt, bei der Zeichen in einem Farbbild identifiziert werden und eine Verarbeitung selektiv auf Zeichenbereiche des Bildes angewandt wird, um eine Randver stärkung bereitzustellen und Farbabweichungen an den Zeichenrändern vor dem Drucken zu entfernen.
  • Die Erfindung erfolgte in Anbetracht der vorstehenden Situation und hat zum Ziel, die vorstehend genannten konventionelle Probleme zumindest zu verringern.
  • Demgemäss liegt der Erfindung die Aufgabe zugrunde, die Erkennungsqualität von Eigenschaften eines zugeführten Bildes zu verbessern, und insbesondere die Erkennung von Zeichenbereichen des zugeführten Bildes zu verbessern.
  • Erfindungsgemäß wird eine Bildverarbeitungsvorrichtung bereitgestellt, umfassend:
  • eine Eingabeeinrichtung, betreibbar zum Zuführen von ein Bild repräsentierenden Bilddaten;
  • eine Erfassungseinrichtung, betreibbar zum Erfassen eines Zeichens aus den Bilddaten in dem Bild; und eine Steuereinrichtung, betreibbar zum Ausgeben von Steuersignalen zum Steuern einer Bildreproduktionsverarbeitung des erfassten Zeichens;
  • gekennzeichnet durch:
  • eine Beurteilungseinrichtung, betreibbar zum Beurteilen einer Linienbreite des erfassten Zeichens; und dadurch, dass die Steuereinrichtung betreibbar ist zum Ermitteln der Steuersignale zum Steuern der Bildreproduktionsverarbeitung des erfassten Zeichens in Übereinstimmung mit einem Beurteilungsergebnis der Beurteilungseinrichtung.
  • Andere Merkmale und Vorteile der Erfindung sind der nachfolgenden Beschreibung in Verbindung mit den beigefügten Zeichnungen, in denen in den Figuren gleiche Bezugszeichen durchgehend die selben oder vergleichbare Teile bezeichnen, entnehmbar.
  • Die beigefügten Zeichnungen, die der Spezifikation beigeschlossen sind und einen Teil der selben bilden, stellen ein Ausführungsbeispiel der Erfindung dar und dienen zusammen mit der Beschreibung zur Erklärung der Prinzipien der Erfindung anhand eines lediglichen Beispieles.
  • Fig. 1 ist ein Querschnitt einer Bildverarbeitungsvorrichtung gemäß einem Ausführungsbeispiel der Erfindung;
  • Fig. 2 ist eine Ansicht eines CCD-Bildwandlers 210 von außen;
  • Fig. 3 ist ein Querschnitt eines Bildscanners 201 entlang einer Linie A - A' in Fig. 2;
  • Fig. 4 ist eine vergrößerte Ansicht eines in Fig. 2 mit dem Bezugszeichen B bezeichneten Fotosensorelementes;
  • Fig. 5 ist ein Zeitverlaufsdiagramm, das einen Betriebsablauf der Steuerung der Dichtereproduktion durch einen Drucker gemäß einem Ausführungsbeispiel zeigt;
  • Fig. 6 ist ein Blockdiagramm, das einen Verlauf eines Bildsignals in der Bildsignalverarbeitungseinheit 209 des Bildscanners 201 gemäß dem Ausführungsbeispiel zeigt;
  • Fig. 7 ist ein Zeitverlaufsdiagramm, das die Zeitpunkte von Steuersignalen in der in Fig. 6 beschriebenen Bildsignalverarbeitungseinheit 209 darstellt;
  • Fig. 8 ist ein Blockdiagramm, das einen internen Aufbau eines Randdetektors 115 darstellt;
  • Fig. 9 ist eine erklärende Ansicht einer Luminanzberechnungsschaltung 250;
  • Fig. 10 ist eine erklärende Ansicht für eine Zeilenverzögerung durch FIFOs und Laplacesche Filter;
  • Fig. 11A und 11B zeigen ein Beispiel der Randerfassung;
  • Fig. 12 ist ein Blockdiagramm, das einen detaillierten Aufbau einer Chromatizitätsermittlungsschaltung 116 einer Ermittlungseinheit für schwarze Zeichen 113 darstellt;
  • Fig. 13 stellt Eigenschaften einer Datenumwandlung in einer Tabelle (LUT) dar;
  • Fig. 14 ist ein Blockdiagramm, das eine Konfiguration der Zeichendickenermittlungsschaltung 114 der Ermittlungseinheit für schwarze Zeichen 113 zeigt;
  • Fig. 15 ist ein Blockdiagramm, das eine interne Konfiguration eines Zeichen/Halbton-Detektors 2013 darstellt;
  • Fig. 16 ist ein Blockdiagramm, das eine detaillierte Konfiguration eines Detektors für einen verdeckten Punktbereich 2014 darstellt;
  • Fig. 17 zeigt Regeln einer Randrichtungserfassung durch einen Randrichtungsdetektor 2044;
  • Fig. 18 zeigt Regeln zur Erfassung einander gegenüberliegender Ränder;
  • Fig. 19 zeigt eine Form eines Fensters eines Zählers 2049;
  • Fig. 20 ist ein Blockdiagramm, das eine interne Konfiguration einer Bereichgrößenermittlungsschaltung 2016 zeigt;
  • Fig. 21 ist ein Blockdiagramm, das eine Konfiguration einer ZONE-Korrektureinheit 2084 darstellt;
  • Fig. 22 ist eine erklärende Ansicht, in der ein Wert von PICT FH in Abhängigkeit von der Zeichendicke ermittelt wird;
  • Fig. 23 zeigt Kodierungsregeln eines Kodierers 2083;
  • Fig. 24 ist ein Algorithmus einer Zeichenerfassung in verdeckten Punkten/Halbton;
  • Fig. 25 zeigt eine spezielle Verarbeitungsart mit dem in Fig. 23 gezeigten Algorithmus;
  • Fig. 26A und 26B zeigen Inhalte entsprechend einer Eingabe/- Ausgabe der Tabelle 117;
  • Fig. 27 ist ein Blockdiagramm, das ein modifiziertes Beispiel der Zeichendickenermittlungsschaltung 114 zeigt; und
  • Fig. 28 zeigt Gleichungen für einen Maskierungs-UCR-Betriebsablauf.
  • Nachstehend wird ein bevorzugtes Ausführungsbeispiel der Erfindung im Einzelnen in Übereinstimmung mit den beigefügten Zeichnungen beschrieben.
  • Fig. 1 zeigt einen Querschnitt einer Bildverarbeitungsvorrichtung gemäß dem Ausführungsbeispiel der Erfindung. In Fig. 1 liest ein Bildscanner 201 ein Originalbild und verarbeitet digital gelesene Daten des Originalbilds in digitale Signale. Ein Drucker 200 druckt ein Bild entsprechend dem durch den Bildscanner 201 gelesenen Originalbild auf einen Druckbogen vollfarbig aus.
  • In dem Bildscanner 201 wird ein Original 204 auf eine mit einer Dokumentabdeckung 202 abgedeckte Glasplatte aufgelegt und durch eine Halogenlampe 205 belichtet. Das reflektierte Licht von dem Original 204 wird weiter durch Spiegel 206 und 207 reflektiert und dann nach Hindurchtreten durch die Linse 208 auf einen dreizeiligen Sensor 210 (nachstehend in Kurzform als CCD bezeichnet) für R, G und B fokussiert. Es wird angemerkt, dass die Linse 208 durch einen Infrarotfilter 231 abgedeckt ist.
  • Der CCD 210 trennt Farbinformation auf dem Original 204 in Vollfarbinformationen einer roten (R) Komponente, einer grünen (G) Komponente, und einer blauen (B) Komponente, und wandelt die Vollfarbinformationen in Farbsignale um. Dann sendet der CCD 210 die Signale an eine Signalverarbeitungseinheit 209. Jede Reihe von Sensoren in dem CCD 210 zum Lesen jeweiliger Farbkomponenten besteht aus 5000 Pixeln, so dass der CCD 210 über die kürzere Seite eines DIN A3 großen Originals, also 297 mm, mit einer Auflösung von 400 dpi (dot per inch, Punkte pro Zoll, 1 Zoll = 2,54 cm) lesen kann.
  • Die Halogenlampe 205 und der Spiegel 206 bewegen sich mit der Geschwindigkeit v, und der Spiegel 207 bewegt sich mit der Geschwindigkeit (1/2)v in senkrechter Richtung in Bezug auf die elektrische Abtastrichtung des Zeilensensors 210 (nach stehend als die Hauptabtastrichtung bezeichnet). Demgemäss kann das gesamte Original 204 abgetastet werden.
  • Eine Standardweißplatte 211 erzeugt Korrekturdaten zum Korrigieren von durch R-, G-, B-Fotosensoren 210-1 bis 210-3 gelesenen Daten. Die Standardweißplatte 211 hat gleichförmige Reflexionseigenschaften im Bereich des sichtbaren Lichtes und erscheint weiß. In dem Ausführungsbeispiel wird diese Standardweißplatte 211 zum Korrigieren von von den R-, G-, B- Fotosensoren 210-1 bis 210-3 ausgegebenen Daten verwendet.
  • Ferner werden in der Signalverarbeitungseinheit 209 die gelesenen Signale elektrisch verarbeitet und in Farbkomponenten von Magenta (M), Cyan (C), Gelb (Y) und Schwarz (Bk) getrennt, und dann an den Drucker 200 gesandt. Für jeden Abtastvorgang durch den Bildscanner 201 wird eine der Farbkomponentendaten von M, C, Y und Bk an den Drucker 200 gesandt. Folglich wird durch viermaliges Abtasten des Originals ein Farbbild erzeugt.
  • In dem Drucker 200 wird jedes Bildsignal von M, C, Y und Bk von dem Bildscanner 201 an einen Lasertreiber 212 gesandt. Der Lasertreiber 212 steuert einen Halbleiterlaser 213 durch auf der Grundlage der Bildsignale modulierte Signale an. Dann tastet der Laserstrahl eine elektrostatische Trommel 217 über einen Polygonspiegel 214, eine f- -Linse 215 und einen Spiegel 218 ab.
  • Der Entwickler besteht aus einem Magenta-Entwickler 219, einem Cyan-Entwickler 220, einem Gelb-Entwickler 221 und einem Schwarz-Entwickler 222. Diese vier Trommeln berühren reihum die elektrostatische Trommel 217 und entwickeln das auf der elektrostatischen Trommel 217 ausgebildete latente Bild von M, C, Y und Bk mit dem entsprechenden Farbtoner. Ferner zieht eine Übertragungstrommel 223 ein aus einer Papierkassette 224 oder 225 zugeführtes Papierblatt an, und ein auf der elektrostatischen Trommel 217 entwickeltes Tonerbild wird auf das Papierblatt übertragen.
  • Wie vorstehend beschrieben wurde, werden Tonerbilder der vier Farben M, C, Y und Bk übertragen, und wird dann das Papierblatt nach Durchlaufen einer Fixiereinheit 226 ausgeworfen. Als nächstes wird nachstehend der Bildscanner 201 im Einzelnen erklärt.
  • Fig. 2 ist eine Ansicht des CCD 210 von außen. In Fig. 2 bezeichnet ein Bezugszeichen 210-1 eine Säule des Fotosensors zum Erfassen von rotem Licht (R); und bezeichnen 210-2 und 210-3 Säulen der Fotosensoren zum Erfassen von grünem Licht (G) bzw. blauem Licht (B). Jeder dieser R-, G- und B-Sensoren 210-1 bis 210-3 hat eine Öffnung einer Größe von 10 um in der Hauptabtastrichtung und in der Unterabtastrichtung.
  • Die vorstehend erwähnten drei Fotosensorsäulen mit unterschiedlichen optischen Eigenschaften bilden eine monolithische Konfiguration auf einem einzelnen Siliziumchip, die derart parallel zu einander bereitgestellt sind, dass jeder der R-, G- und B-Sensoren die selbe Zeile eines Originals in der Unterabtastrichtung lesen kann. Da gewisse Abstände zwischen jedem der Sensoren vorhanden sind, lesen folglich die einzelnen Sensoren das Original an den unterschiedlichen Positionen zur gleichen Zeit. Durch Verwenden des CCD mit dem vorstehenden Aufbau ist es möglich, optische Elemente, wie beispielsweise die Linse, zum Lesen der einzelnen Farbkomponenten zu vereinheitlichen und demgemäss einen optischen Abstimmvorgang für die einzelnen Farben R, G und B zu vereinfachen.
  • Fig. 3 ist ein Querschnitt des Bildscanners 201 entlang einer Linie A - A' in Fig. 2. Wie in Fig. 3 gezeigt ist, sind der Fotosensor 210-1 zum Lesen der Farbe R bzw. die Fotosensoren 210-2 und 210-3 zum Lesen der Farben G und B bereitgestellt.
  • Auf dem R-Fotosensor 210-1 ist ein R-Filter 210-7 bereitgestellt, der es nur Licht aus dem R-Bereich erlaubt, aus dem sichtbaren Licht auszutreten. Ebenso ist ein G-Filter 210-8 auf dem G-Fotosensor 210-2 bereitgestellt, und ist ein B-Filter 210-9 auf dem B-Fotosensor 210-3 bereitgestellt. Es wird angemerkt, dass das Bezugszeichen 210-6 eine flache Schicht bezeichnet, die aus einem transparenten organischen Film besteht.
  • Fig. 4 ist eine vergrößerte Ansicht eines in Fig. 2 als B bezeichneten Lichtempfangselementes. Wie in Fig. 4 gezeigt ist, hat jeder der vorgenannten Sensoren eine Breite von 10 um pro Pixel in der Hauptabtastrichtung und in der Unterabtastrichtung. Jeder Sensor hat 5000 Pixel in der Hauptabtastrichtung, um über die kürzere Seite eines DIN A3 großen Originals (297 mm) mit der Auflösung von 400 dpi zu lesen. Ferner beträgt der Abstand zwischen den Sensoren für R, G und B 80 pn, welches 8 Zeilen in der 400 dpi-Auflösung in der Unterabtastrichtung entspricht.
  • Als nächstes wird nachstehend ein Verfahren zur Dichtereproduktion an dem Drucker der Bildverarbeitungsvorrichtung gemäß der Erfindung beschrieben.
  • In dem vorliegenden Ausführungsbeispiel wird die Emissionszeit des Halbleiterlasers 213 für die Dichtereproduktion durch den Drucker in Übereinstimmung mit einem Bilddichtesignal unter Nutzung des bekannten PWM (Pulsweitenmodulations)- Verfahrens gesteuert. Demgemäss wird ein elektrostatisches latentes Bild auf der elektrostatischen Trommel 217 in Abhängigkeit von der Emissionszeit des Laserstrahles erzeugt. Dann wird die Dichte durch Entwickeln des latenten Bildes mit Toner, dessen Menge dem Potential des latenten Bildes entspricht, entwickelt.
  • Fig. 5 ist ein Zeitverlaufsdiagramm, das einen Betriebsablauf zum Steuern der Dichtereproduktion durch einen Drucker gemäß dem Ausführungsbeispiel zeigt. Ein Bezugszeichen 10201 bezeichnet einen Drucker-Pixeltakt, der der Auflösung von 400 dpi entspricht. Es wird angemerkt, dass dieser Takt an dem Lasertreiber 212 ausgegeben wird. Ferner wird eine 400-Zeilen-Dreieckwelle 10202 in Synchronisation mit dem Drucker- Pixeltakt 10201 erzeugt. Es wird angemerkt, dass die Periode der 400-Zeilen-Dreieckwelle 10202 die selbe ist wie die Periode des Drucker-Pixeltakts 10201.
  • Die von der Bildsignalverarbeitungseinheit 209 gesendeten Bilddaten M, C, Y und Bk, die eine Auflösung von 400 dpi und 256 (Farb)Töne (8 Bit) haben, und ein 200-Zeilen/400-Zeilen- Umschaltsignal werden in Synchronisation mit dem Drucker- Pixeltakt übertragen, und die Synchronisation mit dem Drucker-Pixeltakt 10201 wird durch einen (nicht gezeigten) FIFO- Speicher in dem Lasertreiber 212 durchgeführt. Die digitalen 8 Bit-Bilddaten werden durch einen (nicht gezeigten) D/A- Umsetzer in ein analoges Bildsignal 10203 umgesetzt. Dann wird das Bildsignal 10203 mit der 400-Zeilen-Dreieckwelle 10202 verglichen und als Ergebnis eine 400-Zeilen-PWM-Ausgabe 10204 erzeugt.
  • Digitale Pixeldaten variieren von OOH (H zeigt das hexadezimale System an) bis FFH, und die Pulsbreite der 400-Zeilen- PWM-Ausgabe 10204 hängt von diesen Werten ab. Eine Periode der 400-Zeilen-PWM-Ausgabe 10204 entspricht 63,5 um auf einer elektrostatischen Trommel.
  • In dem Lasertreiber 212 wird außer der 400-Zeilen-Dreieckwelle eine 200-Zeilen-Dreieckwelle 10205, die die doppelte Periode der früher genannten Dreieckigwelle hat, in Synchronisation mit dem Drucker-Pixeltakt 10201 erzeugt. Dann wird die 200-Zeilen-Dreieckwelle 10205 mit dem 400 dpi-Analogsignal 10203 verglichen, und wird ein 200-Zeilen-PWM-Ausgangssignal 10206 erzeugt. Ein latentes Bild wird auf der elektrostatischen Trommel in Übereinstimmung mit dem 200-Zeilen-PWM- Ausgangssignal 10206 mit einer einer Wellenlänge von 127 um entsprechenden Periode erzeugt, wie in Fig. 5 gezeigt.
  • Die Dichtereproduktionen durch das 200-Zeilen-Verfahren mit denen des 400-Zeilen-Verfahrens vergleichend werden, da die kleinste Einheit zur Dichtereproduktion für 200 Zeilen 127 um ist, welches das Doppelte derjenigen für 400 Zeilen ist, Töne in hoher Qualität unter Verwendung von 200 Zeilen reproduziert. Was jedoch die Auflösung anbelangt, ist die Dichtereproduktion durch 400 Linien, die in der Lage ist, die Dichte mit einer Einheit von 63,5 um zu reproduzieren, für die hoch auflösende Bildaufzeichnung geeigneter.
  • Wie vorstehend beschrieben wurde, ist die 200-Zeilen-PWM- Aufzeichnung zur Tonreproduktion geeignet, wohingegen die 400-Zeilen-PWM-Aufzeichnung in der Auflösung überlegen ist, so dass die 200-Zeilen-PWM-Aufzeichnung und die 400-Zeilen- PWM-Aufzeichnung in Abhängigkeit von den Eigenschaften eines zu druckenden Bildes gewechselt werden können.
  • Ein 200-Zeilen/400-Zeilen-Umschaltsignal 10207 in Fig. 5 wird zum Wechseln der vorstehenden Pulsweitenmodulationen verwendet und dem Lasertreiber 212 von der Bildsignalverarbeitungseinheit 109 in einer Pixeleinheit in Synchronisation mit einem Bildsignal von 400 dpi zugeführt. Wenn das 200-Zeilen/ 400-Zeilen-Umschaltsignal logisch "niedrig" ist (dies wird nachstehend als L-Pegel bezeichnet), wird die 400-Zeilen-PWM- Ausgabe ausgewählt, wohingegen dann, wenn das 200-Zeilen/400- Zeilen-Umschaltsignal logisch "hoch" ist (dies wird nachstehend als H-Pegel bezeichnet), die 200-Zeilen-PWM-Ausgabe ausgewählt wird.
  • Als nächstes wird die Bildsignalverarbeitungseinheit 209 erklärt.
  • Fig. 6 ist ein Blockdiagramm, das einen Verlauf eines Bildsignals in der Bildsignalverarbeitungseinheit 209 des Bildscanners 201 gemäß dem Ausführungsbeispiel zeigt. Wie in Fig. 6 gezeigt ist, wird das von dem CCD 210 ausgegebene Bildsignal der Analogsignalverarbeitungseinheit 101 zugeführt, in der das Signal mit einer Verstärkungseinstellung und einer Offseteinstellung verarbeitet wird. Danach wird jedes Farbsignal in einem A/D-Umsetzer 102 in ein digitales 8 Bit-Bildsignal R1, G1 und B1 umgesetzt. Dann werden diese Signale einer Schattierungskorrektureinheit 103 zugeführt und eine bekannte Schattierungskorrektur, die ein Lesesignal der Standardweißplatte 211 für jede Farbe verwendet, auf das Signal angewandt.
  • Ein Taktgenerator 121 erzeugt ein Taktsignal pro Pixeleinheit. Ferner zählt ein Hauptabtast-Adreßzähler 122 eine Anzahl von Taktsignalen aus dem Taktgenerator 121 und erzeugt eine Pixeladressausgabe einer Zeile. Dann dekodiert ein Dekodierer 123 die Pixeladressausgabe (eine Hauptabtastadresse) von dem Hauptabtast-Adreßzähler 122 und erzeugt ein CCD-Ansteuersignal pro Zeile, wie beispielsweise einen Änderungsimpuls und einen Rücksetzimpuls, ein Signal VE, das einen effektiven Bereich in dem gelesenen Signal pro Zeile von dem CCD zeigt, und ein Zeilensynchronisationssignal HSYNC. Es wird angemerkt, dass der Hauptabtast-Adreßzähler 122 in Übereinstimmung mit dem Signal HSYNC zurückgesetzt wird und mit dem Zählen der Hauptabtastadresse der nächsten Zeile beginnt.
  • Wie in Fig. 2 gezeigt ist, sind die Fotosensoren 210-1, 210-2 und 210-3 des CCD 210 in einem vorbestimmten Abstand zu einander bereitgestellt, so dass eine räumliche Lücke in der Unterabtastrichtung in Zeilenverzögerungsschaltungen 104 und 105 in Fig. 6 korrigiert wird. Im Einzelnen werden die R- und G- Signale in der Unterabtastrichtung in Bezug auf das B-Signal verzögert, um mit dem Zeitverhalten des B-Signals in Überstimmung zu gebracht zu werden.
  • Die Eingabemaskiereinheit 106 wandelt einen Lesefarbraum, der durch die Farbzerlegungseigenschaften bzw. -kennlinien der R-, G- und B-Filter 210-7, 210-8 und 210-9 des CCD 210 festgelegt ist, in einen NTSC-Standardfarbraum um und führt eine Matrixoperation wie folgt durch.
  • Der Lichtintensitäts-/Lichtdichte-Umsetzer 107 (nachstehend als Log-Umsetzer bezeichnet) besteht aus einem Tabellen-ROM und setzt die Luminanzsignale R4, G4 und B4 in Dichtesignale C0, M0 bzw. Y0 um. Ein Zeilenverzögerungsspeicher 108 verzögert die Bildsignale C0, M0 und Y0 um ein Intervall einer Zeilenverzögerung, bis ein Ermittlungssignal, wie beispielsweise UCR (Unterfarbentfernung), FILTER und SEN, aus den R4-, G4- und B4-Signalen durch eine Ermittlungseinheit für schwarze Zeichen 113, die später erklärt werden wird, erzeugt ist.
  • Infolgedessen werden die Bildsignale C1, M1 und Y1 und ein Ermittlungssignal für schwarze Zeichen, entsprechend einem Pixel, gleichzeitig einer Maskierungs-UCR-Schaltung 109 zugeführt.
  • Die Maskierungs-UCR-Schaltung 109 extrahiert Schwarz (Bk)- Signale aus den zugeführten Signalen Y1, M1 und C1 dreier Primärfarben, und wendet ferner eine Operation zum Korrigieren von Farbunreinheiten von Farbdruckmaterialien des Druckers 212a an. Dann werden Signale Y2, M2, C2 und Bk2 mit einer vorbestimmten Bitbreite (acht Bit) jedes Mal dann ausgegeben, wenn ein Lesebetriebsablauf durchgeführt wird.
  • Eine Schaltung für variable Vergrößerung 110 expandiert und komprimiert ein Bildsignal und ein Ermittlungssignal für schwarze Zeichen in der Hauptabtastrichtung durch Durchführen einer bekannten Interpolationsverarbeitung. Ferner schaltet eine Raumfilter-Verarbeitungseinheit (Ausgabefilter) 111 zwischen einer Randverstärkung und einer Glättung in Übereinstimmung mit einem 2 Bit breiten Signal FILTER aus einer Tabelle 117 um, wie später beschrieben werden wird.
  • Die rahmensequentiellen Bildsignale M4, C4, Y4 und Bk4 (Signale jeder Farbkomponente pro Bild- bzw. Rahmeneinheit), die wie vorstehend beschrieben verarbeitet werden, und ein Signal SEN, welches ein Umschaltsignal zwischen 200 Zeilen und 400 Zeilen ist, werden an den vorstehend genannten Lasertreiber 212 gesandt, und dann wird ein Bild mit einer Dichte durch ein PWM-Verfahren an dem Drucker 200 gedruckt.
  • Fig. 7 zeigt die Zeiten jeweiliger Steuersignale an der Signalverarbeitungseinheit 209, die im Einzelnen in Fig. 6 beschrieben ist. In Fig. 7 ist ein Signal VSYNC ein Signal für ein bildeffektives Intervall in der Unterabtastrichtung, wird ein Bild abgetastet, während das Signal einen Wert logisch "1" hat, und werden Ausgangssignale M, C, Y und Bk jedes Mal dann erzeugt, wenn das Bild abgetastet wird.
  • Ferner ist das Signal VE ein Signal für ein bildeffektives Intervall in der Hauptabtastrichtung, und beginnt die Haupt abtastung zu einem Zeitpunkt während der Periode, während der das Signal den Wert logisch "1" hat. Das Signal wird hauptsächlich zum Steuern der Zeilenzählung zur Zeilenverzögerung verwendet. Das Signal TAKT ist ein Pixelsynchronisationssignal, und Bilddaten werden zu dem Zeitpunkt, zu dem das Signal von dem logischen Wert "0" auf den logischen Wert "1" wechselt, übertragen, so dass die Bilddaten jeder Signalverarbeitungseinheit, wie beispielsweise dem A/D-Umsetzer 102 und der Ermittlungsschaltung für schwarze Zeichen 113, bereitgestellt werden. Das Signal TAKT wird auch zum Übertragen eines Bildsignals und eines 200-Zeilen/400-Zeilen-Umschaltsignals an den Lasertreiber 212 verwendet.
  • Als nächstes wird ein Prozess zum Erfassen eines schwarzen Zeichens/einer schwarzen Zeile bzw. Linie erklärt.
  • [Erklärung der Randerfassung]
  • Die Signale R4, G4 und B4, die in der Eingabe-Maskiereinheit 106 maskierend umgewandelt werden, werden einem Randdetektor 115 der Ermittlungsschaltung für schwarze Zeichen 113 zugeführt, und ein Luminanzsignal Y wird mittels der folgenden Gleichung berechnet. Es wird angemerkt, dass Fig. 8 ein Blockdiagramm ist, das die Konfiguration des Randdetektors 115 zeigt, und Fig. 9 die detaillierte Konfiguration der Luminanzberechnungsschaltung 250 zeigt.
  • Y = 0,25R + 0,5G + 0,25B ... (2)
  • In Fig. 9 werden die zugeführten Farbsignale R, G und B in Multiplizierern 301, 302 und 303 jeweils mit Koeffizienten 0,25, 0,5 und 0,25 multipliziert und die erhaltenen Werte dann weiter in Addierern 304 und 305 addiert. Dadurch wird das Luminanzsignal Y erhalten, welches ein Berechnungsergebnis der vorstehenden Gleichung (2) ist.
  • Das Luminanzsignal Y wird infolge einer Verzögerung durch FIFOs 401 und 402, von denen jeder eine Verzögerung um eine Zeile bewirkt und die in Fig. 10 gezeigt sind, in drei Zeilen expandiert und durch bekannte Laplacesche Filter 403 bis 406 gefiltert. Dann wird eine Richtung, in der ein absoluter Wert a der Größe der Randkomponente, der die Ausgabe des Filters ist, minimal wird, ermittelt. Die Richtung wird als Rand-min-Richtung bezeichnet. Dieser Prozess wird durch einen Randmin-Richtungsdetektor 251 in Fig. 8 durchgeführt.
  • Sodann wird in einer Rand-min-Richtungsglättungseinheit 252 ein Glättungsprozess auf das Luminanzsignal Y in der Randmin-Richtung, die in dem Rand-min-Richtungsdetektor 251 erhalten wird, angewandt. Durch Anwenden des Glättungsprozesses ist es möglich, die Größe der Randkomponente in der Richtung beizubehalten, in der die Randkomponente am größten ist, und die Randkomponente anderer Richtungen zu glätten.
  • Mit anderen Worten ausgedrückt wird, was eine verdeckte Punktkomponente mit der größeren Randkomponente in der Vielzahl von Richtungen anbelangt, deren Randkomponente durch den vorstehend genannten Prozess geglättet, welcher die Charakteristiken derselben reduziert, wohingegen für ein Zeichen/eine Linie mit einer Randkomponente in nur einer Richtung dessen/deren Charakteristik beibehalten wird. Es wird angemerkt, dass durch Wiederholen dieses Prozesses so häufig wie notwendig eine Linienkomponente wirksamer von einer verdeckten Punktkomponente getrennt wird, wodurch es ermöglicht wird, eine in einem verdeckten Punkt enthaltene Zeichenkomponente, die im Stand der Technik unmöglich zu erfassen war, zu erfassen.
  • Danach werden die Eingangssignale durch die vorstehend genannten Laplacesche Filter in dem Randdetektor 253 gefiltert, um Signale mit absoluten Randgrößenwerten kleiner als der Wert a auszuschließen, und dann werden Signale mit absoluten Randgrößenwerten größer als der Wert a als logische "1"-Werte ausgegeben.
  • Fig. 11A und 11B zeigen ein Beispiel der Randerfassung, bei der Bilddaten von Luminanzdaten Y in Fig. 11A zu einem Randerfassungssignal einer wie in Fig. 11B gezeigten Form werden.
  • Der Randdetektor 115 gibt ein durch fünf Kodes repräsentiertes Signal "Rand" bzw. "edge" (drei Bit) aus, d. h. die Kodes geben ein durch Expandieren eines Eingangssignals durch eine Blockgröße von 7 · 7 erzeugtes Signal, ein durch eine Blockgröße von 5 · 5 expandiertes Signal, ein durch eine Blockgröße von 3 · 3 expandiertes Signal, ein nicht expandiertes Signal, und ein das Fehlen eines Rands anzeigendes Signal an. Es wird angemerkt, dass die expandierten Signale Signale sind, die durch Durchführen einer logischen ODER-Operation auf Signalwerte jedes Pixels in dem Block erhalten werden. D. h., der "Rand" ist ein 3 Bit-Kode, der insgesamt fünf Arten von Informationen enthält, das heißt Information darüber, ob es irgendeinen Pixel gibt, der als ein Rand in einem 7 · 7- Pixelblock, in einem 5 · 5-Pixelblock und in einem 3 · 3- Pixelblock ermittelt wird, wobei alle Blöcke einen interessierenden Pixel einschließen, und ob der interessierende Pixel als ein Rand ermittelt wird oder nicht. Der "Rand" wird für jeden Pixel ausgegeben.
  • [Erklärung der Chromatizitätsermittlungsschaltung] Fig. 12 ist ein Blockdiagramm, das die detaillierte Konfiguration einer die Ermittlungsschaltung für schwarze Zeichen 113 bildenden Chromatizitätsermittlungsschaltung 116 darstellt. In einem Maximalwertdetektor 601 und einem Minimalwertdetektor 602 werden ein Maximalwert max(R, G, B) und ein Minimalwert min(R, G, B) jeweils in Bezug auf die zugeführten Farbsignale R4, G4 und B4 extrahiert, und die Differenz ΔC ( = max(R, G, B) - min(R, G, B)) wird durch einen Subtrahierer 603 berechnet. Dann werden als nächstes in einer Tabelle (Nachschlagetabelle, LUT) 604 eine Datenumwandlung in Übereinstimmung mit Charakteristiken wie in Fig. 13 gezeigt durchgeführt und ein Chromatizitätssignal Cr erzeugt.
  • Fig. 13 zeigt, dass sich mit geringer werdender Chromatizität (näher an der Nichtchromatizität) der Wert von ΔC 0 annähert, wohingegen mit stärker werdender Chromatizität der Wert von ΔC zunimmt. Mit anderen Worten ausgedrückt hat Cr mit größer werdender Farbnichtchromatizität einen größeren Wert, wohingegen sich der Wert von Cr mit größer werdender Chromatizität 0 annähert. Es wird angemerkt, dass ein von der Chromatizitätsermittlungsschaltung 116 in Fig. 6 ausgegebenes Signal "col" durch einen 2 Bit breiten Kode "Farbe", "Schwarz", "Halbton" (eine Farbe zwischen "Farbe" und "Schwarz" angebend) und "Weiß" repräsentiert. Das Signal "col" wird in jedem Pixel ausgegeben.
  • [Erklärung der Zeichendickenermittlungsschaltung]
  • Fig. 14 ist ein Blockdiagramm, das den Aufbau einer Zeichendickenermittlungsschaltung 114 zeigt, die die Ermittlungseinheit für schwarze Zeichen 113 bildet.
  • In Fig. 14 werden das Rotsignal R4, das Grünsignal G4 und das Blausignal B4, die die Ausgaben der Eingabemaskiereinheit 106 sind, einem Minimalwertdetektor 2011 zugeführt. In dem Minimalwertdetektor 2011 wird ein Minimalwert MIN RGB der zugeführten RGB-Signale ermittelt. Danach wird der Wert MIN RGB einem Mittelwertdetektor 2012 zugeführt, wodurch ein Mittelwert AVE5 des Werts MIN RGB innerhalb eines aus benachbarten Pixeln eines interessierenden Pixels zusammengesetzten Blocks von 5 · 5 Pixeln und ein Mittelwert AVE3 des Werts MIN RGB innerhalb eines aus benachbarten Pixeln eines interessierenden Pixels zusammengesetzten Blocks von 3 · 3 Pixeln erhalten werden.
  • Die Werte AVE5 und AVE3 werden einem Zeichen/Halbton-Detektor 2013 zugeführt, in dem die Dichte eines interessierenden Pixels und der Änderungsbetrag in einer durchschnittlichen Dichte zwischen dem interessierenden Pixel und seinen benachbarten Pixeln für jeden Pixel ermittelt wird. Demgemäss wird ermittelt, ob der interessierende Pixel einen Teil eines Zeichens oder eines Halbtonbereichs bildet.
  • Fig. 15 ist ein Blockdiagramm, das den internen Aufbau des Zeichen/Halbton-Detektors 2013 darstellt. Wie in Fig. 15 gezeigt ist, werden in dem Zeichen/Halbton-Detektor 2013 durch einen Addierer 2030 ein geeigneter Offsetwert OFST1 zu dem Wert AVE3 addiert und dann der erhaltene Wert und der Wert AVE5 durch einen Vergleicher 2031 verglichen. Ferner vergleicht ein Vergleicher 2032 die Ausgabe des Addierers 2030 mit einem geeigneten Grenzwert LIM 1. Dann werden die Ausgabewerte dieser Vergleicher einer ODER-Schaltung 2033 zugeführt.
  • In der ODER-Schaltung 2033 wird ein Ausgangssignal BINGRA logisch "H", wenn
  • AVE3 + OFST1 < AVE5... (3)
  • oder
  • AVE3 + OFST1 < LIM 1... (4)
  • erfüllt ist. Mit anderen Worten ausgedrückt wird in dem Zeichen/Halbton-Detektor dann, wenn eine Dichteänderung um den interessierenden Pixel (Randabschnitt eines Zeichens) vorhanden ist oder Pixel, die sich nahe dem interessierenden Pixel befinden, dichter als ein vorbestimmter Wert (innerhalb eines Zeichen- und Halbton-Abschnitts) sind, das Zeichen/Halbton- Bereichsignal BINGRA logisch "H".
  • Unterdessen addiert in einem Detektor für verdeckte Punktbereiche 2014, dessen detaillierte Konfiguration in Fig. 16 gezeigt ist, um einen verdeckten Punktbereich zu erfassen, ein Addierer 2040 einen geeigneten Offsetwert OFST2 zu dem Wert MIN RGB, der von dem Minimalwertdetektor 2011 erfasst wird, und vergleicht dann ein Vergleicher 2041 das addierte Ergebnis mit dem Wert AVE5. Wohingegen Vergleicher 2042 die Ausgabe des Addierers 2040 mit einem geeigneten Grenzwert LIM2 vergleicht. Jeder Ausgabewert der Vergleicher wird einer ODER-Schaltung 2042 zugeführt, in der ein Ausgangssignal BINAMI von der ODER-Schaltung 2043 unter den folgenden Bedingungen logisch "H" wird.
  • MIN RGB + OFST2 < AVE5... (5)
  • MIN RGB + OFST2 < LIM2... (6)
  • Dann wird die Randrichtung jedes Pixels in einem Randrichtungsdetektor 2044 unter Verwendung des Signals BINAMI erfasst.
  • Fig. 17 stellt Muster zum Erfassen der Randrichtung in dem Randrichtungsdetektor 2044 dar. Wenn die den interessierenden Pixel umgebenden 8 Pixel die in Fig. 17 gezeigten, durch (0) bis (3) angegebenen Bedingungen erfüllen, nimmt eines der nullten bis dritten Bit des Randrichtungssignals DIRAMI einen logischen Wert "H" an.
  • Ferner werden in einem stromab des Randrichtungsdetektors 2044 bereitgestellten Detektor für gegenüberliegende Ränder 2045 Ränder, die einander gegenüberliegen, in einem Bereich von 5 · 5 Pixeln, der den interessierenden Pixel einschließt, erfasst.
  • Daher sind, wie in Fig. 18 gezeigt ist, Regeln zum Erfassen gegenüberliegender Ränder in dem Koordinatensystem, in dem das dem interessierenden Pixel entsprechende Signal DIRAMI A33 repräsentiert, wie nachfolgend gezeigt.
  • Wenn eine der vorstehend beschriebenen Bedingungen (1) bis (4) erfüllt ist, wird das Signal EAAMI "H" (in einem Fall, in dem ein gegenüberliegender Rand in den Detektor für gegenü berliegende Ränder 2045 erfasst wird, wird ein Signal für gegenüberliegende Ränder EAAMI "H").
  • In der Expansionsschaltung 2046 wird das Signal EAAMI mit einer Expansion von 3 · 4 Pixeln angewandt, und falls ein Pixel vorhanden ist, der "H" in einem zu einem interessierenden Pixel benachbarten Block von 3 · 4 Pixeln anzeigt, wird ein Signal EAAMI des interessierenden Pixels durch "H" ersetzt. Ferner wird ein Erfassungsergebnis, das einen isolierten Zustand in einem Bereich von 5 · 5 Pixeln zeigt, unter Verwendung einer Kompressionsschaltung 2047 und einer Expansionsschaltung 2048 ausgeschlossen, wodurch ein Ausgabesignal EBAMI erhalten wird. Es wird angemerkt, dass die Kompressionsschaltung 2047 nur dann "H" ausgibt, wenn alle zugeführten Signale "H" sind.
  • Danach zählt ein Zähler 2049 eine Anzahl von Pixeln, die Ausgangssignale der Expansionsschaltung 2048 EBAMI "H" bewirken, unter Verwendung eines Fensters mit einer bevorzugten Größe. In diesem Ausführungsbeispiel wird ein Bereich von 5 · 65 Pixeln einschließlich eines interessierenden Pixels bevorzugt. Ein Beispiel der Form des Fensters ist in Fig. 19 gezeigt.
  • In Fig. 19 ist eine Anzahl von Abtastpunkten in dem Fenster 9 in der Hauptabtastrichtung und 5 in fünf Zeilen in der Unterabtastrichtung, welches insgesamt 45 Punkte ergibt, nach jeweils 4 Pixeln in der Hauptrichtung. Ein Fenster für einen interessierenden Pixel bewegt sich in der Hauptabtastrichtung, so dass insgesamt neun Fenster (1) bis (9) in Fig. 19 vorbereitet sind. Demgemäss wird auf einen Bereich von 5 · 65 Pixeln um den interessierenden Pixel Bezug genommen. Dann wird in jedem Fenster das Signal EBAMI gezählt, und wenn eine Anzahl von Signalen EBAMI des Werts "H" zumindest eines der neun Fenster einen frei wählbaren Schwellenwert übersteigt, gibt der Detektor für verdeckte Punktbereiche 2014 in Fig. 14 ein Signal AMI für verdeckte Punktbereiche als logisches "H" aus.
  • Durch Verarbeiten der Signale in dem Detektor für verdeckte Punktbereiche 2014 ist es möglich, ein verdecktes Punktbild, das durch das vorstehend genannte Signal BINGRA als eine Gruppe isolierter Punkte erfasst wurde, als ein Bereichsignal zu erfassen. Dann werden diese erfassten Signale BINGRA für einen Zeichen/Halbton-Bereich und AMI für einen verdeckten Punktbereich mit einer logischen ODER-Operation durch die ODER-Schaltung 2015 in Fig. 14 verarbeitet. Als Ergebnis wird ein binarisiertes Signal PICT in Bezug auf das Eingabebild erzeugt. Das Signal PICT wird einer Bereichgrößenermittlungsschaltung 2016 zugeführt, in der die Bereichgröße des binarisierten Signals ermittelt wird.
  • Die Gruppe isolierter Punkte wird nachstehend beschrieben.
  • Die vorstehend genannte Bildbereichermittlung wird auf einem binarisierten Bild durchgeführt, das durch Binarisieren eines Bildes mit bevorzugter Dichte erhalten wird. Zu dieser Zeit ist ein Abschnitt, der eine gewisse Bereichgröße belegt, wie Punkte, Linien und Zeichen, als ein binäres Bild festgelegt. Durch einfaches Binarisieren eines verdeckten Punktbilds jedoch wird eine Gruppe von kleinen Punkten erzeugt, die Komponenten eines verdeckten Punktes sind.
  • Daher wird durch Ermitteln, ob irgendeine aus isolierten Punkten zusammengesetzte Gruppe in einem Bereich einer gewissen Größe existiert oder nicht, ermittelt, ob ein Punkt ein Teil eines verdeckten Punktes ist oder nicht. Mit anderen Worten ausgedrückt wird in einem Fall, in dem es sehr viele Punkte in einem bevorzugten Bereich gibt, der Bereich als einem verdeckten Punktbild entsprechend bestimmt, wohingegen in einem Fall, in dem es keinen Punkt um den interessierenden Pixel gibt, auch ein interessierender Pixel ein Teil von Punkten ist, der interessierende Pixel als ein Teil eines Zeichens bestimmt wird.
  • Fig. 20 ist ein Blockdiagramm, das eine interne Konfiguration der Bereichgrößenermittlungsschaltung 2016 darstellt. In der Schaltung in Fig. 20 gibt es eine Vielzahl von Paaren von Kompressionsschaltungen 2081 und Expansionsschaltungen 2082, von denen jedes einen Bezugsbereich unterschiedlicher Größe hat. Es wird angemerkt, dass, die Kompressionsschaltung 2081 eine logische UND-Operation auf Daten innerhalb eines Blocks durchführt, und die Expansionsschaltung 2082 eine logische ODER-Operation auf den Daten innerhalb des Block durchführt. Das zugeführte Signal PICT wird in Abhängigkeit von der Größe der Kompressionsschaltung zeilenverzögert und der Kompressionsschaltung 2081 zugeführt. In diesem Ausführungsbeispiel sind sieben unterschiedliche Arten von Kompressionsschaltungen in Größenbereichen von 23 · 23 Pixeln bis 35 · 35 Pixeln, gezeigt in Fig. 20, zur Verwendung vorbereitet.
  • Ein von der Verdichtungsschaltung 2081 ausgegebenes Signal wird nach der Zeilenverzögerung der Expansionsschaltung 2082 zugeführt. In dem vorliegenden Ausführungsbeispiel sind sieben Arten von Expansionsschaltungen in Größenbereichen von 27 x 27 Pixeln bis 39 · 39 Pixeln, gezeigt in Fig. 20, bereitgestellt, und wird ein Ausgabesignal PICT FH von jeder Expansionsschaltung erhalten.
  • Hinsichtlich des vorstehend genannten Ausgabesignals PICT FH wird dann, wenn ein interessierender Pixel ein Teil eines Zeichens ist, ein Wert des Signals PICT FH in Abhängigkeit von der Dicke des Zeichens ermittelt. Diese Ermittlung ist in Fig. 22 dargestellt. Falls beispielsweise PICT-Signale in der Form eines Rechtecks mit 26 Pixeln in der Breite existieren, resultiert eine beliebige Kompression über eine Größe von 27 · 27 Pixeln in der Ausgabe von nur Nullwerten, wohingegen nach dem Durchführen einer Kompression durch eine Größe von weniger als 25 · 25 Pixeln eine Expansion entsprechend jeder Größe durchgeführt wird und dann Ausgabesignale PICT FH, die in einer Form eines Rechtecks mit 30 Pixeln in der Breite existieren, erhalten werden können.
  • Folglich wird durch Eingeben dieser Signale PICT FH in einen Kodierer 2083 ein Bildbereichsignal ZONE P, zu dem ein interessierender Pixel gehört, erhalten. Es wird angemerkt, dass Fig. 23 Kodierregeln in dem Kodierer 2083 zeigt.
  • Durch Durchführen der vorstehend genannten Prozesse werden ein fotografisches Bild und ein verdecktes Punktbild, die PICT-Signale mit dem Wert "H" in einem großen Bereich haben, als ein Bereich 7 (Maximalwert) bezeichnet, wohingegen ein Zeichen und eine Linie, die eine Bereichgröße haben, deren Wert kleiner (schmaler) als der Maximalwert ist, in Abhängigkeit von ihrer Größe (Dicke) als Mehrfachwertbildbereiche bezeichnet werden. In diesem Ausführungsbeispiel hat das Signal ZONE drei Bit und wird die Dicke eines Zeichens in 8 Graden beschrieben. Das dünnste Zeichen wird als ein Wert 0 bezeichnet, und das dickste Zeichen (einschließlich eines Bereiches außer Zeichen) wird als ein Wert 7 bezeichnet.
  • Eine ZONE-Korrektureinheit 2084 in Fig. 20 weist einen Mittelwertberechner 2110 auf, dem das Signal ZONE P, das durch eine Vielzahl von FIFOs zeilenverzögert ist, zugeführt wird, und dort wird ein Mittelwert innerhalb eines Bereiches von 10 · 10 Pixeln berechnet. Das Signal ZONE P hat mit zunehmender Dicke eines Zeichens einen größeren Wert und, ebenso, mit einem dünner werdenden Zeichens einen kleineren Wert. Daher wird die Ausgabe des Mittelwertberechners 2110 selbst ein Korrektursignal ZONE.
  • Es wird bevorzugt, dass eine zur Korrektur zu verwendende Blockgröße in Übereinstimmung mit der Blockgröße festgelegt wird, die zum Ermitteln der Dicke eines Zeichens dient. Darüber hinaus wird durch Durchführen späterer Prozesse unter Verwendung des Korrektursignals ZONE die Ermittlung der Dicke auch an Punkten, an denen sich die Dicke eines Zeichens/einer Linie plötzlich ändert, weich durchgeführt. Dadurch kann die Verschlechterung der Bildqualität, die durch eine Änderung in einem Prozess für schwarze Zeichen verursacht wird, verbessert werden.
  • Wie vorstehend beschrieben wurde, kann ein Bereich, in dem das Signal ZONE in einem 7. Grad vorliegt, als ein Halbtonbereich betrachtet werden. Folglich ermöglicht es diese Annahme, ein Zeichen/eine Linie, das/die in einem verdeckten Punktbereich und einem Halbtonbereich existiert, von einem Zeichen/einer Linie, das/die in einem anderen Bereich existiert, in Übereinstimmung mit dem Signal ZONE und einem Randsignal zu unterscheiden. Nachstehend wird das Verfahren zum Durchführen des vorgenannten Prozesses beschrieben.
  • Fig. 24 zeigt einen Algorithmus zum Erfassen von Zeichen in einem verdeckten Punkt/Halbton-Bereich. Hierbei wird auf dem vorgenannten PICT-Signal der Expansionsprozess unter Verwendung eines 5 · 5-Blocks in einer durch ein Bezugszeichen 2111 bezeichneten Einheit durchgeführt. Mit diesem Prozess wird ein verdeckter Punktbereich, in dem eine Zeichenerfassung dazu neigt, ungenau zu sein, korrigiert.
  • Dann wird in einer durch ein Bezugszeichen 2112 bezeichneten Einheit ein Kompressionsprozess unter Verwendung eines 11 · 11-Blocks auf ein Ausgabesignal von der Einheit 2111 angewandt. Ein Signal FCH, das durch Durchführen der vorstehend erwähnten Prozesse erhalten wird, wird zu einem Signal, das in Bezug auf das Signal PICT durch 3 Pixel komprimiert ist.
  • Fig. 25 zeigt den unter Verwendung des vorstehend genannten Algorithmus durchgeführten Prozess. In Fig. 25 kann durch Kombinieren des Signals FCH, des Signals ZONE und des Signals EDGE ein Rand, dessen Hintergrundfarbe weiß ist, von einem Rand in dem verdeckten Punkt/Halbton-Bereich unterschieden werden.
  • Daher kann der Prozess für schwarze Zeichen durchgeführt werden, ohne verdeckte Punktkomponenten in dem verdeckten Punktbild zu verstärken und ferner ohne Teile, wie beispielsweise solche Teile wie Ränder einer Fotografie, bei denen die Korrektur für schwarze Zeichen nicht notwendig ist, zu verarbeiten.
  • [Erklärung der Tabelle]
  • Das Folgende ist eine Erklärung der Tabelle (LUT) 117, die die Ermittlungsschaltung für schwarze Zeichen 113 in Fig. 6 bildet.
  • Signale, die durch die Zeichendickenermittlungsschaltung 114, den Randdetektor 115 und die Chromatizitätsermittlungsschaltung 116 ermittelt werden, werden in die Tabelle 117 eingegeben, und die Tabelle 117 gibt Signale "ucr", "filter " und "sen" für Prozesse aus, wie in den Tabellen in Fig. 26A und 26B gezeigt. Diese Signale dienen zum Steuern von Maskierungs-UCR-Koeffizienten, Raumfilterkoeffizienten bzw. der Druckerauflösung.
  • In den in Fig. 26A und 26B gezeigten Tabellen sind jedes Signal und sein Wert wie folgt:
  • Ferner sind die durch die in Fig. 26A und 26B gezeigten Tabellen gezeigten Eigenschaften:
  • (1) Durchführuung eines Mehrfachwertprozesses für schwarze Zeichen in Abhängigkeit von der Dicke eines Zeichens möglich;
  • (2) Auswählen eines Verarbeitungsbereiches für schwarze Zeichen in Abhängigkeit von der Dicke eines Zeichens möglich, da mehrere Bereiche eines Randbereiches vorbereitet sind. Es wird angemerkt, dass in diesem Ausführungsbeispiel der größte Bereich für das dünnste Zeichen verarbeitet wird;
  • (3) Durchführen unterschiedlicher Prozesse für schwarze Zeichen an einem Rand eines Zeichens und im Inneren des Zeichens, wodurch weichere Mengenänderung von Schwarz realisiert wird;
  • (4) Verarbeiten eines Zeichens in verdecktem Punkt/Halbton- Bereich anders als ein Zeichen mit einem weißen Hintergrund;
  • (5) Ändern von Koeffizienten jeweiliger Raumfilter entsprechend einem Rand eines Zeichens, dem Inneren des Zeichens und einem verdeckten Punkt/Halbton-Bild. Ferner werden Koeffizienten in Abhängigkeit von der Dicke des Zeichens in Bezug auf den Rand des Zeichens geändert;
  • (6) Ändern der Auflösung eines Druckers in Abhängigkeit von der Dicke eines Zeichens;
  • (7) Auf einem schwarzen Zeichen durchgeführter Prozess wird auf beliebige Farbzeichen außer maskierende UCR-Koeffizienten angewandt.
  • Es wird angemerkt, dass es mehrfache Arten von Verarbeitungsverfahren in Übereinstimmung mit Kombinationen von Eingangssignalen geben kann, so dass ein Verarbeitungsverfahren nicht auf das Verfahren beschränkt ist, das in dem vorliegenden Ausführungsbeispiel verwendet wird.
  • Unterdessen wird in der Maskierungs-UCR-Verarbeitungsschaltung 109 ein Schwarzsignal Bk erzeugt und mit einer Ausgabemaskierung in Übereinstimmung mit dem von der Tabelle 117 ausgegebenen UCR-Steuersignal ucr angewandt.
  • Gleichungen für den Maskierungs-UCR-Vorgang sind in Fig. 28 gezeigt.
  • Zunächst wird ein Minimalwert MIN CMY von C1, M1 und Y1 erhalten, und wird Bk1 unter Verwendung einer Gleichung (2101) erhalten. Danach werden durch eine Gleichung (2102) C2, M2, Y2 und Bk2 durch Durchführen einer 4 · 8-Maskierung ausgegeben. In der Gleichung (2102) sind Koeffizienten m11 bis m84 maskierende Koeffizienten, die in Abhängigkeit von dem zu verwendenden Drucker bestimmt werden, und sind Koeffizienten k11 bis k84 UCR-Koeffizienten, die in Abhängigkeit von einem UCR-Signal bestimmt werden.
  • Im Hinblick auf ein verdecktes Punkt/Halbton-Bild (das Signal ZONE ist 7) sind alle UCR-Koeffizienten 1,0, jedoch werden, was ein dünnstes Zeichen (das Signal ZONE ist 0) anbelangt, die UCR-Koeffizienten so festgelegt, dass ein Farbsignal Bk ausgegeben werden kann. Ferner werden hinsichtlich eines Zeichens einer mittleren Dicke die UCR-Koeffizienten so festgelegt, dass die Farbänderung in Abhängigkeit von seiner Dicke weich wird, wodurch die Menge von Bk gesteuert wird.
  • Ferner sind zwei Filter einer Größe von 5 · 5 Pixeln in der Raumfilter-Verarbeitungseinheit 111 bereitgestellt, und wird ein Ausgabesignal von einem ersten Filter einem zweiten Filter zugeführt. Vier Koeffizienten, ein glättender 1, ein glättender 2, ein randverstärkender 1 und ein randverstärkender 2 sind als Filterkoeffizienten bereitgestellt, und die Koeffizienten werden für jeden Pixel in Übereinstimmung mit dem Filtersignal von der Tabelle 117 geändert. Darüber hinaus wird eine Randverstärkung mit weniger Moire durch Anwenden der Randverstärkung nach dem Glätten unter Verwendung zweier Filter realisiert, und durch Kombinieren zweier Arten von Randverstärkungskoeffizienten kann ein Bild höherer Qualität ausgegeben werden.
  • Gemäß dem Ausführungsbeispiel wie vorstehend beschrieben wird dann, wenn ein Bild durch Ermitteln der Dicke eines Zeichens/- einer Linie in einem Bild und Kombinieren von Informationen über einen Zeichen/Linien-Umriß und die Chromatizität verarbeitet wird, die Dickenermittlung an dem Teil, an dem sich die Dicke eines Zeichens und einer Zeile plötzlich ändert, durch Korrigieren eines Dickenermittlungssignals derart, dass sich die Dicke eines Zeichens und einer Linie kontinuierlich ändert, sanfter. Demgemäss wird eine Schwarzreproduktion hoher Qualität möglich.
  • Es wird angemerkt, dass in dem Ausführungsbeispiel wie vorstehend beschrieben ein RGB-Signal als Eingang für die Ermittlungseinheit für schwarze Zeichen 113 verwendet wird, wie in Fig. 6 gezeigt; das Eingangssignal ist jedoch nicht auf das RGB-Signal beschränkt, so dass beispielsweise ein CMY- Signal, das eine Ausgabe des LOG-Umsetzers 107 ist, ebenso verwendet werden kann.
  • Ferner wird in dem vorstehend beschriebenen Ausführungsbeispiel ein RGB-Signal der die Ermittlungsschaltung für schwarze Zeichen 113 bildenden Zeichendickenermittlungsschaltung 114 zugeführt. Die Erfindung ist jedoch nicht auf die vorstehende Verarbeitung beschränkt. Beispielsweise können durch Erhalten eines L-Signals von einem Lab-Umsetzer 2010, wie in Fig. 27 gezeigt, spätere Prozesse unter Verwendung des L-Signals durchgeführt werden. Es wird angemerkt, dass in Fig. 26A und 26B Elemente der Zeichendickenermittlungsschaltung identisch zu denjenigen in Fig. 14 mit den selben Bezugszeichen sind.
  • Die Erfindung kann auf ein System, das aus einer Vielzahl von Einrichtungen besteht, oder auf eine eine einzelne Einrichtung umfassende Vorrichtung angewandt werden. Darüber hinaus ist die Erfindung auch auf einen Fall anwendbar, in dem das Ziel der Erfindung dadurch erreicht wird, dass einem System oder einer Vorrichtung ein Programm bereitgestellt wird.
  • Ferner wird in dem vorstehend beschriebenen Ausführungsbeispiel ein Bereich schwarzer Zeichen unterschieden, jedoch kann anstelle dessen ein bereich farbiger Zeichen, wie beispielsweise Bereiche roter und blauer Zeichen, unterschieden werden. Darüber hinaus kann eine Verarbeitung farbiger Zeichen in Übereinstimmung mit einer zu unterscheidenden Art von Bereich gesteuert werden.
  • Ferner wird in dem vorstehend beschriebenen Ausführungsbeispiel ein Algorithmus unter Verwendung einer Hardware realisiert, jedoch kann dies anstelle dessen unter Verwendung einer Software in einem Computer durchgeführt werden.
  • Ferner kann Dicke eines Zeichens unter Verwendung eines Verfahrens, wie beispielsweise einem Verfahren zum Unterscheiden der Kontinuität einer vorbestimmten Farbe durch Musterübereinstimmung, das sich von dem vorstehend beschriebenen unterscheidet, erfasst werden.
  • Ferner kann die Zeichenerkennung, wie beispielsweise in einem optischen Zeichenleser, auf der Grundlage eines Ergebnisses der Zeichendickenerfassung durchgeführt werden. In diesem Fall ist es möglich, eine Größe des Zeichens in Abhängigkeit von der Dicke des Zeichens zu erkennen.
  • Die Erfindung ist nicht auf die vorstehenden Ausführungsbeispiele beschränkt, so dass verschiedene Änderungen und Modifikationen im Rahmen des Schutzumfangs der Erfindung durchgeführt werden können.

Claims (14)

1. Bildverarbeitungsvorrichtung, umfassend:
eine Eingabeeinrichtung (210), betreibbar zum Zuführen von ein Bild repräsentierenden Bilddaten;
eine Erfassungseinrichtung (2103), betreibbar zum Erfassen eines Zeichens aus den Bilddaten in dem Bild; und
eine Steuereinrichtung (113), betreibbar zum Ausgeben von Steuersignalen (ucr, filter, sen) zum Steuern einer Bildreproduktionsverarbeitung des erfaßten Zeichens;
gekennzeichnet durch:
eine Beurteilungseinrichtung (2016), betreibbar zum Beurteilen einer Linienbreite des erfaßten Zeichens; und dadurch, daß die Steuereinrichtung betreibbar ist zum Ermitteln der Steuersignale zum Steuern der Bildreproduktionsverarbeitung des erfaßten Zeichens in Übereinstimmung mit einem Beurteilungsergebnis (ZONE) der Beurteilungseinrichtung.
2. Vorrichtung nach Anspruch 1, bei der die Erfassungseinrichtung in Bezug auf jeden Pixel der Bilddaten betreibbar ist zum Erfassen, ob der Pixel ein Teil eines Zeichens ist.
3. Vorrichtung nach Anspruch 2, bei der die Beurteilungseinrichtung in Bezug auf jeden Pixel betreibbar ist zum Erhalten eines jeweiligen Beurteilungsergebnisses, das die Linienbreite des Zeichens repräsentiert, auf der Grundlage von Bilddaten von zu dem interessierenden Pixel benachbarten Pixeln.
4. Vorrichtung nach einem der vorangehenden Ansprüche, ferner umfassend eine Unterscheidungseinrichtung (115), die zum Unterscheiden eines Umrisses des Zeichens betreibbar ist.
5. Vorrichtung nach einem der vorangehenden Ansprüche, ferner umfassend eine Extraktionseinrichtung, die zum Extrahieren der Sättigung des Zeichens betreibbar ist.
6. Vorrichtung nach Anspruch 5, sofern abhängig von Anspruch 4, bei der die Steuereinrichtung in Bezug auf jedes Pixel auf ein Kantensignal (edge), welches repräsentiert, ob der Pixel als einen Umriß des Zeichens bildend unterschieden wird, ein die Farbart und -sättigung des Pixels repräsentierendes Sättigungssignal (col), und ein das Beurteilungsergebnis repräsentierendes Zeichendickensignal (ZONE) ansprechend ist.
7. Vorrichtung nach Anspruch 6, bei der die Steuereinrichtung eine Tabelle (117) zum Umwandeln des Kantensignals, des Sättigungssignals und des Zeichendickensignals in die Steuersignale umfaßt.
8. Vorrichtung nach einem der vorangehenden Ansprüche, ferner umfassend eine Reproduktionsverarbeitungseinrichtung (109, 111, 212a), die zum Empfangen der Steuersignale und Reproduzieren des Bilds aus den Bilddaten, gesteuert durch die Steuereinrichtung, betreibbar ist.
9. Vorrichtung nach einem der vorangehenden Ansprüche, bei der die Eingabeeinrichtung eine zum Abtasten des Bilds und Erzeugen der Bilddaten betreibbare Leseeinrichtung (201) ist.
10. Vorrichtung nach Anspruch 9, bei der die Verarbeitungseinrichtung eine Umwandlungseinrichtung (111) umfaßt, die zum Durchführen einer Umwandlung auf einer Raumfrequenzkomponente der Bilddaten in Übereinstimmung mit einer Komponente (filter) der Steuersignale betreibbar ist.
11. Vorrichtung nach einem der Ansprüche 9 und 10, bei der die Verarbeitungseinrichtung eine Maskiereinrichtung (109) umfaßt, die zum Durchführen einer UCR (Unterfarbentfernungs)- Verarbeitung auf den Bilddaten in Übereinstimmung mit einer Komponente (ucr) der Steuersignale betreibbar ist.
12. Vorrichtung nach einem der Ansprüche 9 bis 11, bei der die Verarbeitungseinrichtung eine Bilderzeugungseinrichtung (212a) umfaßt, die zum Erzeugen eines Bilds auf einem Aufzeichnungsmedium betreibbar ist.
13. Vorrichtung nach einem der vorangehenden Ansprüche, bei der die Beurteilungseinrichtung eine Schaltung (2083), die zum Ausgeben eines das Beurteilungsergebnis repräsentierenden Zeichendickensignals (ZONE) betreibbar ist, und eine Korrekturschaltung (2084), die zum Durchführen einer Mittelwertberechnung des Zeichendickensignals über einen Block von Pixeln und Ausgeben korrigierter Werte des Zeichendickensignals, welche an Punkten, an denen sich die Dicke der Zeichenlinie plötzlich ändert, weich variieren, betreibbar ist, umfaßt.
14. Bildverarbeitungsverfahren, umfassend die Schritte des:
Zuführens von ein Bild repräsentierenden Bilddaten;
Erfassens eines Zeichens aus den Bilddaten in dem Bild;
und
Steuern einer Bildreproduktionsverarbeitung des erfaßten Zeichens durch Ausgeben von Steuersignalen (ucr, filter, sen);
gekennzeichnet durch Umfassen eines Schritts des Beurteilens einer Linienbreite des erfaßten Zeichens;
und dadurch, daß der Steuerschritt die Steuersignale zum Steuern der Bildreproduktionsverarbeitung des erfaßten Zeichens in Übereinstimmung mit einem Beurteilungsergebnis (ZONE) des Beurteilungsschritts ermittelt.
DE1994623868 1993-12-29 1994-12-28 Vorrichtung und Verfahren zur Bildverarbeitung Expired - Lifetime DE69423868T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35452893A JP3599367B2 (ja) 1993-12-29 1993-12-29 画像処理装置およびその方法

Publications (2)

Publication Number Publication Date
DE69423868D1 DE69423868D1 (de) 2000-05-11
DE69423868T2 true DE69423868T2 (de) 2000-11-02

Family

ID=18438164

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1994623868 Expired - Lifetime DE69423868T2 (de) 1993-12-29 1994-12-28 Vorrichtung und Verfahren zur Bildverarbeitung

Country Status (3)

Country Link
EP (1) EP0662765B1 (de)
JP (1) JP3599367B2 (de)
DE (1) DE69423868T2 (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69528324T2 (de) 1994-07-29 2003-05-22 Canon K.K., Tokio/Tokyo Bildverarbeitungsvorrichtung mit Bildinhaltsdiskriminierung
JP3501031B2 (ja) 1999-08-24 2004-02-23 日本電気株式会社 画像領域判定装置、画像領域判定方法及びそのプログラムを記憶した記憶媒体
JP4401560B2 (ja) 1999-12-10 2010-01-20 キヤノン株式会社 画像処理装置、画像処理方法、及び記憶媒体
US6718059B1 (en) 1999-12-10 2004-04-06 Canon Kabushiki Kaisha Block selection-based image processing
JP4672918B2 (ja) 2001-07-12 2011-04-20 キヤノン株式会社 イメージセンサ及び画像読取装置
JP4164284B2 (ja) 2002-04-23 2008-10-15 キヤノン株式会社 画像読取装置及び画像形成装置
US7454069B2 (en) 2002-11-20 2008-11-18 Ricoh Company, Ltd. Image processing apparatus, image compressing apparatus, image decompressing apparatus, image processing method, image compressing method, image decompressing method, information processing apparatus, information processing method, program and recording medium
JP4270266B2 (ja) * 2006-11-29 2009-05-27 コニカミノルタビジネステクノロジーズ株式会社 画像形成装置、線幅制御方法、および線幅制御プログラム
JP2009090489A (ja) * 2007-10-04 2009-04-30 Fujifilm Corp 画像形成方法及び画像形成装置
JP6869709B2 (ja) 2016-12-06 2021-05-12 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3238706A1 (de) * 1982-10-19 1984-04-19 Siemens AG, 1000 Berlin und 8000 München Verfahren zur extraktion von deskriptoren, vorzugsweise zur darstellung von druckvorlagen in form von groessen- und drehlagenunabhaengigen bogenstrukturen zum zwecke einer dokumentenanalyse, insbesondere zur schriftzeichenerkennung
JPS61188681A (ja) * 1985-02-15 1986-08-22 Matsushita Electric Ind Co Ltd 文字認識装置
JPH06101049B2 (ja) * 1988-03-25 1994-12-12 インターナシヨナル・ビジネス・マシーンズ・コーポレーシヨン 文字列検出方法
US5031034A (en) * 1988-06-20 1991-07-09 Canon Kabushiki Kaisha Image forming and processing apparatus with identification of character portions of images
JP2872285B2 (ja) * 1989-08-02 1999-03-17 キヤノン株式会社 画像処理装置及び画像処理方法
JPH04314183A (ja) * 1991-04-12 1992-11-05 Canon Inc 画像処理装置

Also Published As

Publication number Publication date
EP0662765A3 (de) 1995-10-25
JPH07203198A (ja) 1995-08-04
EP0662765A2 (de) 1995-07-12
JP3599367B2 (ja) 2004-12-08
EP0662765B1 (de) 2000-04-05
DE69423868D1 (de) 2000-05-11

Similar Documents

Publication Publication Date Title
DE69026159T2 (de) Bildverarbeitungsgerät
DE69227853T2 (de) Bildverarbeitungsgerät
DE69118939T2 (de) Bildverarbeitungsgerät
DE69032318T2 (de) Vorrichtung zur Bildverarbeitung
DE69229209T2 (de) Bildverarbeitungsgerät
DE69232764T2 (de) Bildverarbeitungsgerät
DE68929390T2 (de) Bildwiedergabe- und Bildverarbeitungsgerät
DE3486390T3 (de) Bildverarbeitungsgerät.
DE69808864T2 (de) Verfahren und Vorrichtung zur mehrmaligen Unterscheidung von Bildfeldern einer Vorlage
DE69325527T2 (de) Gerät und Verfahren zur Bildverarbeitung
DE69229285T3 (de) Bildverarbeitungsgerät
DE69132760T2 (de) Farbbildverarbeitungsgerät und -verfahren
DE69503993T2 (de) Verfahren und Vorrichtung zur Verringerung der Deckung der Druckfarben in Druckprozessen
DE69132104T2 (de) Dither matrix zur Halbtonwiedergabe von Grautonbildern unter Verwendung einer Maskierung mit blauem Rauschen
DE69125414T2 (de) Bildverarbeitungsgerät
DE69618539T2 (de) Farbdrucker mit Zittermuster
DE69921388T2 (de) Bildverarbeitungsvorrichtung
DE69324290T2 (de) Bildverarbeitungsverfahren und -gerät
DE69527671T2 (de) Haartrockner mit geregeltem Luftstrom
DE69733236T2 (de) Druck von schwarzweissreproduzierbaren Farbvorlagen
DE69328748T2 (de) Verfahren und Vorrichtung zur Verarbeitung von Farbbildern
DE69122668T2 (de) Verfahren und Vorrichtung zur Bildverarbeitung
DE3402251A1 (de) Verfahren zur verstaerkung der schaerfe beim abtasten und aufzeichnen eines bilds
DE69327144T2 (de) Bildverarbeitungsgerät und Verfahren dafür
DE69938370T2 (de) Bildverarbeitungsverfahren und -vorrichtung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition