DE4027897A1 - IMAGE PROCESSING DEVICE - Google Patents

IMAGE PROCESSING DEVICE

Info

Publication number
DE4027897A1
DE4027897A1 DE4027897A DE4027897A DE4027897A1 DE 4027897 A1 DE4027897 A1 DE 4027897A1 DE 4027897 A DE4027897 A DE 4027897A DE 4027897 A DE4027897 A DE 4027897A DE 4027897 A1 DE4027897 A1 DE 4027897A1
Authority
DE
Germany
Prior art keywords
data
value
color component
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE4027897A
Other languages
German (de)
Other versions
DE4027897C2 (en
Inventor
Yoshinobu Mita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP1229784A external-priority patent/JP2946217B2/en
Priority claimed from JP26453189A external-priority patent/JPH03125566A/en
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE4027897A1 publication Critical patent/DE4027897A1/en
Application granted granted Critical
Publication of DE4027897C2 publication Critical patent/DE4027897C2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40075Descreening, i.e. converting a halftone signal into a corresponding continuous-tone signal; Rescreening, i.e. combined descreening and halftoning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/58Edge or detail enhancement; Noise or error suppression, e.g. colour misregistration correction

Description

Die Erfindung bezieht sich auf eine Bildverarbeitungsvor­ richtung zum Verarbeiten eines n-wertigen Bildes wie eines Binär- oder Ternärbildes durch eine zusätzliche Umwandlung in ein Vielwertbild.The invention relates to image processing direction for processing an n-value image like one Binary or ternary image through an additional conversion into a multi-value picture.

In einem Fall, in dem ein Bild durch eine derartige Vor­ richtung verarbeitet wird, nachdem es in ein Binärbild ge­ wandelt wurde, wird die Umwandlung des Binärbildes in ein Vielwertbild benötigt.In a case where an image is represented by such a pre direction is processed after it is converted into a binary image has been converted, the conversion of the binary image into a Polyvalent image needed.

Genauer ist zu einer Farbverarbeitung wie zum Maskieren ei­ nes Binärbildes ein gleichzeitiges Berechnen dreier Farb­ bilder durch Gebrauch von drei Farbkomponenten erforder­ lich, und eine Technik zum Umwandeln des Binärbildes in ein Vielwertbild ist unentbehrlich.It is more precise to color processing such as masking a binary image a simultaneous calculation of three colors images required by using three color components Lich, and a technique for converting the binary image into a Polyvalent image is indispensable.

Als übliche Technik zum Umwandeln eines Binärbildes in ein Vielwertbild wurde eine Methode vorgeschlagen, bei der eine Anzahl von Punkten innerhalb eines rechteckigen Bereichs bestimmter Größe zum Erhalt eines im folgenden als "Be­ reichswert" bezeichneten Anteils eines durch die Punkte be­ legten Bereichs gezählt wird, wobei durch den Bereichswert eine Dichte bestimmt ist.As a common technique for converting a binary image to one Polyvalent image a method was proposed in which a Number of points within a rectangular area certain size to obtain a "Be Reichswert "designated portion of a be by the points range is counted, with the range value a density is determined.

Wenn beispielsweise innerhalb eines 4×4 Bildelementbe­ reichs 8 Punkte dargestellt sind und wenn ein Dichtebereich 8 Bit umfaßt, was 256 Graustufen entspricht, so wird eine Dichte vonFor example, if within a 4 × 4 pixel Reichs 8 points are shown and if a density range 8 bits, which corresponds to 256 gray levels, so one Density of

256×8/(4×4) = 128256 × 8 / (4 × 4) = 128

erzielt. In diesem Beispiel beträgt der Bereichswert 8/(4×4). achieved. In this example the range value is 8 / (4 × 4).  

Bei dieser üblichen Methode wird aber nur eine durch­ schnittliche Dichte für jeden Bereich berechnet. D. h., diese Methode hat die gleiche Wirkung wie eine Filterung des Bildes mittels eines Glättungsfilters. Kantenabschnitte und das gesamte, sich ergebende Bild werden deswegen un­ scharf.With this usual method, however, only one is passed through Average density calculated for each area. That is, this method has the same effect as filtering the image using a smoothing filter. Edge sections and the entire resulting picture therefore becomes un sharp.

Speziell in einem Fall, in dem ein Eingangs-Binärbild Zei­ chen oder Figuren entspricht, nimmt die Auflösung ab und die Qualität des sich ergebenden Bildes verschlechtert sich erheblich.Especially in a case where an input binary image Zei chen or figures, the resolution decreases and the quality of the resulting image deteriorates considerably.

Der Erfindung liegt die Aufgabe zugrunde, eine Bildverar­ beitungsvorrichtung zu schaffen, die ein Vielwertbild dar­ stellen kann, während die Abnahme der Auflösung dazu mini­ miert wird, um die Qualität des Bildes zu verbessern, nach­ dem das Bild einer Farbverarbeitung mittels Maskierung oder ähnlichem unterzogen wurde.The invention has for its object an image processing To create processing device that represents a multi-value image can put, while the decrease in resolution mini is lubricated to improve the quality of the image which the image of a color processing by masking or was subjected to similar.

Ferner liegt der Erfindung die Aufgabe zugrunde, eine Bild­ verarbeitungsvorrichtung zu schaffen, die eine Vielwertbil­ dungseinrichtung zum Erzeugen eines im weiteren als Viel­ wertbild bezeichneten m-wertigen Bildes aus einem n-werti­ gen Bild, wie einem Binär-, Ternär- oder Quartärbild, und zum Einspeisen des m-wertigen Bildes in einen Maskierungs­ abschnitt und eine Maskierungseinrichtung zur Farbverarbei­ tung des m-wertigen Bildes mittels Maskierung enthält, wo­ bei die Maskierungseinrichtung zur Durchführung verschiede­ ner Arten von Vielwertverarbeitung einer Hauptfarbkompo­ nente und anderer Farbkomponenten und zur Durchführung ei­ ner Farbmaskierverarbeitung der erzielten Daten dient. The invention is also based on the object of an image to create processing device that a Mehrwertbil dungseinrichtung for generating a hereinafter as a lot value image designated m-value image from an n-value image, such as a binary, ternary or quaternary image, and for feeding the m-valued image into a mask section and a masking device for color processing masking of the m-valued image contains where at the masking device for carrying out various ner types of multi-value processing of a main color compo nente and other color components and to carry out egg Color mask processing of the data obtained is used.  

Ferner liegt der Erfindung die Aufgabe zugrunde, eine Bild­ verarbeitungsvorrichtung zu schaffen, bei der die Vielwert­ bildungseinrichtung unter Bezug auf einen in der Nachbar­ schaft eines Zielbildelements liegenden Bereich geglättete Daten ausgibt, und die Maskierungseinrichtung nicht geglät­ tete, m-wertige Daten unter Bezug auf eine Hauptfarbkompo­ nente mit einem Maskierkoeffizienten multipliziert und die geglätteten Daten unter Bezug auf andere Farbkomponenten mit Maskierkoeffizienten multipliziert.The invention is also based on the object of an image to create processing device in which the added value educational institution with reference to one in the neighbor smoothed area of a target pixel Outputs data, and the masking device is not smoothed m-valued data with reference to a main color composition multiplied by a masking coefficient and the smoothed data with respect to other color components multiplied by masking coefficients.

Diese Aufgabe wird mit den im Patentanspruch 1 genannten Maßnahmen gelöst.This object is achieved with those mentioned in claim 1 Measures solved.

Vorteilhafte Weiterbildungen ergeben sich aus den Unteran­ sprüchen.Advantageous further developments result from the Unteran sayings.

Die Erfindung wird nachstehend anhand von Ausführungsbei­ spielen unter Bezugnahme auf die Zeichnung näher beschrie­ ben. Es zeigenThe invention is illustrated below with reference to embodiments play described with reference to the drawing ben. Show it

Fig. 1 ein Blockschaltbild, das den Aufbau einer Farb­ verarbeitungseinheit einer Bildverarbeitungsvorrichtung entsprechend einem ersten erfindungsgemäßen Ausführungs­ beispiel darstellt, Fig. 1 is a block diagram showing the structure of a processing unit represents the color of an image processing apparatus according to a first inventive example of execution,

Fig. 2 ein Blockschaltbild eines Zeilenspeichers gemäß dem ersten Ausführungsbeispiel, Fig. 2 is a block diagram of a line memory according to the first embodiment,

Fig. 3 ein Blockschaltbild eines Vielwertbildungs­ abschnitts des ersten Ausführungsbeispiels, Fig. 3 is a block diagram of a multi-value forming portion of the first embodiment,

Fig. 4 ein Blockschaltbild eines Maskierberechnungsab­ schnitts des ersten Ausführungsbeispiels, Fig. 4 is a block diagram of a Maskierberechnungsab-section of the first embodiment,

Fig. 5 ein Blockschaltbild, das den Aufbau einer Farb­ verarbeitungseinheit einer Bildverarbeitungsvorrichtung entsprechend einem zweiten erfindungsgemäßen Ausführungs­ beispiel darstellt, und Fig. 5 is a block diagram showing the structure of a color processing unit of an image processing device according to a second embodiment of the invention, and

Fig. 6 ein Blockschaltbild eines Maskierungsabschnitts des zweiten Ausführungsbeispiels. Fig. 6 is a block diagram of a masking section of the second embodiment.

Erstes AusführungsbeispielFirst embodiment

Gleichung (1) ist eine üblicherweise zur Maskierung be­ nutzte Matrizengleichung.Equation (1) is usually used for masking used matrix equation.

wobei Y, M und C jeweils für Farbkomponentendaten vor der Maskierverarbeitung, Y′, M′ und C′ jeweils für Farbkompo­ nentendaten nach der Maskierverarbeitung und a11 . . . a33 für Maskierkoeffizienten stehen.where Y, M and C each for color component data before masking processing, Y ′, M ′ and C ′ each for color component data after masking processing and a 11 . . . a 33 stand for masking coefficients.

Eine direkte Anwendung dieser Gleichung (1) auf ein ur­ sprüngliches Vielwertbild (8 Bit breites Bild oder so ähn­ lich) ist problemlos. Wenn sie aber auf ein durch ein mit­ tels eines Glättungsfilters aus einem Binärbild auf vorste­ hend erwähnte Weise gewonnenes Vielwertbild angewendet wird, wird das sich ergebende Bild unscharf.A direct application of this equation (1) to an ur Original multi-value image (8 bit wide image or something like that Lich) is easy. But if you're on a by one with using a smoothing filter from a binary image on top The value image obtained in this way is used the resulting image becomes blurred.

In diesem Ausführungsbeispiel wird die Maskierberechnung mittels aus Binärdaten einer Hauptfarbe gewonnenen Viel­ wertdaten durchgeführt, während für Unterfarben geglättete Dichtedaten benutzt werden. Zusätzlich werden für die Un­ terfarben mit Korrekturkoeffizienten multiplizierte Mas­ kierkoeffizienten für das ursprüngliche Vielwertbild be­ nutzt.In this embodiment, the masking calculation using a lot obtained from binary data of a main color value data performed while smoothed for sub-colors Density data can be used. In addition, for the Un Mas colors multiplied by correction coefficients  Kier coefficient for the original polyvalent image be uses.

Genauer wird die Maskierung mittels folgender Gleichungen (2), (3) und (4) durchgeführt:The masking is more precise using the following equations (2), (3) and (4) carried out:

YO, MO und CO stehen für Daten (0 oder 255), die durch Wandlung jeder Binärdaten von Gelb, Magentarot und Zyanblau für jedes Bildelement in einfache Vielwertdaten gewonnen wurden, und (Y), (M) und (C) stehen für Daten über geglät­ tete Dichtedaten von Gelb, Magentarot und Zyanblau, die durch Glättung eines Bereichs in der Nachbarschaft des Zielbildelements mittels Glättungsverarbeitung gewonnen wurden.YO, MO and CO stand for data (0 or 255) that are passed through Conversion of any binary data from yellow, magenta and cyan obtained for each picture element in simple multi-value data and (Y), (M) and (C) represent data about smoothed tied density data of yellow, magenta and cyan, which by smoothing an area in the neighborhood of the Target pixel obtained by smoothing processing were.

Beispielsweise wird hinsichtlich einer Maskierberechnung für eine Hauptfarbe Gelb der Wert YO benutzt, der durch Wandlung von Binärdaten in Vielwertdaten gewonnen wurde, während unter Bezug auf Magentarot und Zyanblau als Unter­ farben geglättete Dichtedaten (M) und (C) zur Maskierbe­ rechnung benutzt werden.For example, regarding a masking calculation for a main color yellow the value YO is used, which by Conversion of binary data into multi-value data was obtained, while referring to magenta and cyan as a sub color smoothed density data (M) and (C) for masking invoice can be used.

Der Grund zur Benutzung von (M) und (C) für Unterfarben, die durch Glättung eines Bereichs in der Nachbarschaft des Zielbildelements gewonnene Daten sind, ist wie folgt: Weil in diesem Fall das Originalbild binär ist, hat YO einen Wert von 0 oder 255 für jedes Bildelement. Daher besteht die Möglichkeit, daß die Farbe des Zielbildelements äußerst unterschiedlich gegenüber der des Ursprungsbildes wird, wenn zum Erhalt seiner Vielwertdaten lediglich ein Ziel­ bildelement untersucht wird. In diesem Ausführungsbeispiel wird ein Prinzip benutzt, daß ein gedrucktes Bild, das bei­ spielsweise aus farbigen Punkten besteht, wie ein Bild mit einer gewöhnlichen Farbe ausschaut, wenn es makroskopisch aus einer Entfernung betrachtet wird, weil diese Punkte sich gegenseitig vermischen und hochfrequente Komponenten der Punkte nicht unterschieden werden können. (M) und (C) sind Werte, die durch Glättung eines Bereiches in der Nach­ barschaft eines Zielbildelements gewonnen und zum Unter­ drücken der hochfrequenten Komponenten pro Punkteinheit des Binärbildes zum Erhalt der Originalfarbe benutzt werden.The reason for using (M) and (C) for sub-colors, by smoothing an area in the neighborhood of the  Data obtained from the target pixel is as follows: Because in this case the original image is binary, YO has one Value of 0 or 255 for each picture element. Therefore there is the possibility that the color of the target picture element is extremely different from that of the original image, if only one goal to get its value data image element is examined. In this embodiment a principle is used that a printed image, which at for example consists of colored dots, like a picture with of an ordinary color if it looks macroscopic is viewed from a distance because these points mix together and high-frequency components the points cannot be distinguished. (M) and (C) are values by smoothing an area in the post acquired a target image element and become a sub pressing the high-frequency components per point unit of the Binary image can be used to preserve the original color.

Wie durch die Gleichung (2) ausgedrückt wird, sind die Ko­ effizienten der Unterfarben Magentarot und Zyanblau 255/(Y)×a12 und 255/(Y)×a13, wenn die zur Maskierung eines Vielwertbildes ursprünglich benutzten Koeffizienten a12 und a13 sind.As expressed by equation (2), the coefficients of the magenta and cyan sub-colors are 255 / (Y) × a 12 and 255 / (Y) × a 13 when the coefficients originally used to mask a polyvalent image are a12 and a13 .

Zur Erzielung passender Wirkungen werden diese Koeffizien­ ten so bestimmt, daß zu der Binärdaten verwendenden Berech­ nung gehörende Fehler unterdrückt werden.These coefficients are used to achieve suitable effects so determined that the calculation using binary data errors are suppressed.

Dieses geschieht, weil in diesem Fall die Maskierberechnung durchgeführt wird, indem die Binärdaten der Hauptfarbe Gelb benutzt werden. Ohne seinen Binärzustand zu verändern, wird YO entweder zu 0 oder 255, wenn auf 8-Bit normiert wird. Wenn YO = 0 ist, liegt als Ergebnis der Maskierberechnung eine Datenunterschreitung vor, daher ist Y′ = 0, da die Ko­ effizienten a12 und a13 für die Unterfarben normalerweise negativ sind.This happens because in this case the masking calculation is carried out using the binary data of the main color yellow. Without changing its binary state, YO becomes either 0 or 255 if normalized to 8-bit. If YO = 0, the result of the masking calculation is an underflow of data, therefore Y ′ = 0, since the coefficients a 12 and a 13 are normally negative for the sub-colors.

Entsprechend ensteht eine Unterschreitung nur dann nicht, wenn YO = 255 ist. Dann, in dem Fall YO = 255, ist es er­ forderlich, einen Maskierungsbetrag zu addieren, welcher von der Bildelementposition abgezogen wird, an der YO = 0 ist.Accordingly, a shortfall does not arise only if YO = 255. Then, in the case YO = 255, it is him required to add a masking amount which subtracted from the pixel position at which YO = 0 is.

Wenn der Glättungwert der Hauptfarbe Gelb in der Nachbar­ schaft des Zielbildelements (Y) ist, ist für YO = 255 der Bereichswert (die Wahrscheinlichkeit) (Y)/255. Beispiels­ weise wird der reziproke Wert, 255/(Y), als Korrekturkoef­ fizient benutzt, mit dem die Maskierkoeffizienten a12 und a13 für die Unterfarben multipliziert werden, wobei der Subtraktionsbetrag zur Maskierung in der Nachbarschaft ei­ nes bestimmten Bereichs passend gemacht wird.If the smoothing value of the main color yellow is in the vicinity of the target picture element (Y), for YO = 255 the area value (probability) is (Y) / 255. For example, the reciprocal value, 255 / (Y), is used as a correction coefficient by which the masking coefficients a 12 and a 13 are multiplied for the sub-colors, the subtraction amount being made suitable for masking in the vicinity of a specific area.

Zur Berechnung der magentaroten Komponente sind die Mas­ kierkoeffizienten der geglätteten Unterfarben Gelb und Zyanblau dementsprechend 255/(M)×a21 bzw. 255/(M)×a23. Zur Berechnung der zyanblauen Komponente sind die Maskier­ koeffizienten der geglätteten Unterfarben Gelb und Magenta­ rot dementsprechend 255/(C)×a31 bzw. 255/(C) ×a32.To calculate the magenta component, the masking coefficients of the smoothed sub-colors yellow and cyan are accordingly 255 / (M) × a 21 and 255 / (M) × a 23, respectively. To calculate the cyan component, the masking coefficients of the smoothed sub-colors yellow and magenta red are accordingly 255 / (C) × a 31 and 255 / (C) × a 32, respectively.

Fig. 1 ist ein Blockschaltbild, das den Aufbau einer Farb­ verarbeitungseinheit einer Bildverarbeitungsvorrichtung entsprechend einem ersten erfindungsgemäßen Ausführungsbei­ spiel darstellt. Fig. 1 is a block diagram showing the construction of a color processing unit of an image processing device according to a first embodiment according to the invention.

Binärdaten Y, M und C, die drei Farbkomponenten von Farb­ bilddaten sind, werden jeweils in Zeilenspeicher 1 bis 3 entsprechend jeder Farbkomponente eingegeben und Zeilenda­ ten der Hauptabtastrichtung einschließlich Daten über das Zielbildelement werden von diesen Zeilenspeichern an den jeweiligen Farbkomponenten entsprechende Vielwertbildungs­ schaltungen 21 bis 23 ausgegeben.Binary data Y, M and C, which are three color components of color image data, are respectively input to line memories 1 to 3 corresponding to each color component, and line data of the main scanning direction including data on the target picture element are added value circuits 21 to 23 from these line memories to the respective color components spent.

Zeilendaten von den entsprechenden Zeilenspeichern 1 bis 3 werden in Vielwertbildungsabschnitte 4 bis 6 gegeben und durch die Vielwertbildungsschaltungen 21 bis 23 sowie die Vielwertbildungsabschnitte 4 bis 6 in 8-Bit breite Viel­ wertdaten gewandelt. Auf diese Weise werden maskierte Daten Y′, M′ und C′ erzielt, die durch den Maskierberechnungsab­ schnitte 7 bis 9 basierend auf den vorstehend genannten Gleichungen (2), (3) und (4) berechnet werden.Line data from the corresponding line memories 1 to 3 are given in multi-value formation sections 4 to 6 and converted by the multi-value formation circuits 21 to 23 and the multi-value formation sections 4 to 6 into 8-bit wide value data. In this way, masked data Y ', M' and C 'are obtained, which are calculated by the masking calculation sections 7 to 9 based on the aforementioned equations (2), (3) and (4).

Der Aufbau der in Fig. 1 gezeigten Farbverarbeitungseinheit wird nachstehend detaillierter beschrieben.The structure of the color processing unit shown in Fig. 1 is described in more detail below.

Fig. 2 ist ein Blockschaltbild, das den Aufbau von jedem der Zeilenspeicher 1 bis 3 darstellt. Fig. 2 is a block diagram showing the structure of each of the line memories 1 to 3 .

Jeder der Zeilenspeicher 1 bis 3 hat Speicher 11 bis 14 vom Typ eines Schiebespeichers. Eingangsbilddaten (Y, M oder C) werden zunächst in den Schiebespeicher 11 eingegeben und nach einer einer Horizontalperiode entsprechenden Zeitdauer ausgegeben, was einer Verzögerung um eine Zeile entspricht. Die Datenausgabe aus dem Schiebespeicher 11 ist gleichzei­ tig die Dateneingabe in den Schiebespeicher 12. Auf die gleiche Weise werden Daten aus den jeweiligen Schiebespei­ chern 13 und 14 um eine Zeile verzögert ausgegeben.Each of the line memories 1 to 3 has memories 11 to 14 of the sliding memory type. Input image data (Y, M or C) are first input into the shift memory 11 and output after a period corresponding to a horizontal period, which corresponds to a delay by one line. The data output from the sliding memory 11 is the data input into the sliding memory 12 at the same time. In the same way, data from the respective slide memories 13 and 14 are output delayed by one line.

Aus der Datenausgabe von jedem der Zeilenspeicher 1 bis 3 werden die Horizontalzeilendaten, die Daten über das Ziel­ bildelement enthalten, aus dem Schiebespeicher 12 jeweils entsprechend in die Vielwertbildungsschaltungen 21 bis 23 eingegeben. Jede der Vielwertbildungsschaltungen 21 bis 23 dient nur zur Verarbeitung der Binärdaten, 1 oder 0, auf die Weise, daß der Absolutwert der Binärdaten erhöht wird. Beispielsweise werden zur einfachen Konvertierung der Ein­ gangsdaten in 8-Bit breite Vielwertdaten Binärdaten auf 0 oder 255 gesetzt.From the data output from each of the line memories 1 to 3 , the horizontal line data, which contains data about the target picture element, are respectively input from the shift memory 12 into the multi-value generation circuits 21 to 23 . Each of the multi-value forming circuits 21 to 23 is only for processing the binary data, 1 or 0, in such a manner that the absolute value of the binary data is increased. For example, binary data is set to 0 or 255 for easy conversion of the input data into 8-bit wide value data.

In den Vielwertbildungsabschnitten 4 bis 6 wird eine Glät­ tung und Vielwertbildung eines Bereichs in der Nachbar­ schaft des Zielbildelements wie nachstehend beschrieben vollführt.In the multi-value formation sections 4 to 6 , smoothing and multi-value formation of an area in the vicinity of the target picture element is performed as described below.

Fig. 3 ist ein Blockschaltbild, das den Aufbau für jeden der Vielwertbildungsabschnitte 4 bis 6 darstellt. Fig. 3 is a block diagram showing the structure for each of the multi-value forming sections 4 to 6 .

Das Ausgangssignal von jedem der Zeilenspeicher 1 bis 3 wird in Addierabschnitte 51 bis 55 der entsprechenden Viel­ wertbildungsabschnitte 4 bis 6 gegeben. Die Arbeitsweise des Vielwertbildungsabschnitts 4 wird nachstehend unter al­ leinigen Bezug auf die Farbkomponente Y beschrieben. Jeder der Addierabschnitte 51 bis 55 ist mit Zwischenspeichern 56 bis 59 ausgestattet. (In der Fig. 3 ist nur der innere Auf­ bau des Addierabschnitts 51 dargestellt). In die Addierab­ schnitte 51 bis 55 gegebene Daten werden bei jedem Anstieg eines Bildtransfertakts CLK um ein Bildelement verschoben und die Menge von "1" Pegeln in 5 aufeinanderfolgenden Bildelementen einer Horizontalzeile wird in einem Addierer 60 berechnet. Die durch die Addierabschnitte 51 bis 55 ad­ dierten Daten werden zur Addition unter Bezug auf 5 aufein­ anderfolgenden Zeilen in vertikaler Richtung des Bildes in einen Addierer 61 eingespeist. Das heißt, daß der Addierer 61 die Summe von "1" Pegeln aus 5×5 Bildelementen (in diesem Fall ist diese die gleiche, wie die Anzahl der Punkte in 5×5 Bildelementen) berechnet und ausgibt, wobei sich das Zielbildelement in der Mitte befindet. Zur Normie­ rung in beispielsweise 8-Bit breite Daten, werden die Aus­ gabedaten des Addierers 61 in einen Normierungsabschnitt 62 gegeben. Das heißt, der in einem Bereich zwischen 0 und 25 liegenden Ausgabewert des Addierers wird so normiert, daß er durch 8-Bit breite Werte zwischen 0 und 255 verkörpert werden kann. Durch diese Verarbeitung wird der geglättete Wert (Y) in der Nachbarschaft des Zielbildelements gewon­ nen. Gleichermaßen werden die (M)-Daten vom Vielwertbil­ dungsabschnitt 5 und die (C)-Daten vom Vielwertbildungsab­ schnitt 6 ausgegeben. Normalerweise kann für den Fall einer 8-Bit-Normierung ein geglätteter Wert der Farbe in der Nachbarschaft des Zielbildelements durchThe output signal from each of the line memories 1 to 3 is given in adding sections 51 to 55 of the corresponding multi-value forming sections 4 to 6 . The operation of the multi-value forming section 4 will be described below with only reference to the color component Y. Each of the adding sections 51 to 55 is equipped with buffers 56 to 59 . (In Fig. 3 only the inner construction of the adding section 51 is shown). In the Addierab sections 51 to 55 , data is shifted by one picture element each time an image transfer clock CLK rises, and the amount of "1" levels in 5 successive picture elements of a horizontal line is calculated in an adder 60 . The data added by the adding sections 51 to 55 is fed to an adder 61 for addition with reference to 5 consecutive lines in the vertical direction of the image. That is, the adder 61 calculates and outputs the sum of "1" levels from 5 × 5 pixels (in this case, it is the same as the number of dots in 5 × 5 pixels) with the target pixel in the middle located. For standardization in, for example, 8-bit data, the output data of the adder 61 are given in a standardization section 62 . This means that the output value of the adder lying in a range between 0 and 25 is standardized so that it can be embodied by 8-bit wide values between 0 and 255. By this processing, the smoothed value (Y) in the vicinity of the target picture element is obtained. Likewise, the (M) data from the polyvalue formation section 5 and the (C) data from the polyvalue formation section 6 are output. Typically, in the case of 8-bit normalization, a smoothed value of the color in the neighborhood of the target pixel can be seen

ausgedrückt werden.be expressed.

Geglättete Daten (Y), (M) bzw. (C) und Hauptmaskierfarben­ daten YO, MO bzw. CO werden von den Vielwertbildungsab­ schnitten 21 bis 23 wie in Fig. 1 gezeigt ausgegeben und zur nachstehend erläuterten Berechnung in die Maskierbe­ rechnungsabschnitte 7 bis 9 eingespeist.Smoothed data (Y), (M) and (C) and main masking color data YO, MO and CO, respectively, are output from the multi-value forming sections 21 to 23 as shown in FIG. 1 and into the masking calculation sections 7 to 9 for the calculation explained below fed.

Fig. 4 ist ein Blockschaltbild, das den Aufbau von jedem der Maskierberechnungsabschnitte 7 bis 9 darstellt. Fig. 4 is a block diagram showing the construction of each of the mask calculation sections 7 to 9 .

Die Maskierberechnungsabschnitte 7 bis 9 führen eine den Gleichungen (2) bis (4) entsprechende Verarbeitung durch. Die Arbeitsweise zur Ausführung der Berechnung gemäß Glei­ chung (2) in dem Maskierberechnungsabschnitt 7 wird nun nachstehend beschrieben. The mask calculation sections 7 to 9 perform processing corresponding to equations (2) to (4). The operation for performing the calculation according to equation (2) in the mask calculation section 7 will now be described below.

Gemäß Fig. 4 wird durch eine Koeffiziententabelle 81 eine Tabelle gebildet, in der die Ergebnisse der bei der Eingabe von (Y), d. h. der geglätteten Daten für die Hauptfarbe aus dem Vielwertbildungsabschnitt 4, erforderlichen Berechnung 255/(Y) vorab gespeichert sind. Ein Multiplizierer 82 wird mit den Hauptfarbendaten YO, die aus dem Vielwertbildungs­ abschnitt 21 ausgegeben werden, versorgt und gibt durch Multiplikation von YO mit a11 das Produkt a11 · YO aus.According to Fig. 4, a table is formed by a coefficient table 81, in which the results of the 255 / (Y) are stored in advance during the input of (Y), the smoothed data that is, for the main color of the multi-value forming section 4, calculation required. A multiplier 82 is supplied with the main color data YO, which are output from the multi-value formation section 21 , and outputs the product a 11 · YO by multiplying YO by a11.

Die durch die Vielwertbildungsabschnitte 5 und 6 erhalte­ nen, geglätteten Unterfarbendaten (M) und (C) werden ent­ sprechend in die Multiplizierer 84 und 85 eingespeist, mit Maskierkoeffizienten für die Unterfarben multipliziert und als Werte a12 · (M) und a13 · (C) berechnet und ausgegeben.The smoothed sub-color data (M) and (C) obtained by the polyvalent formation sections 5 and 6 are accordingly fed into the multipliers 84 and 85 , multiplied by masking coefficients for the sub-colors and as values a 12 · (M) and a 13 · ( C) calculated and output.

Die Ergebnisse dieser Berechnung werden sodann in die Mul­ tiplizierer 86 und 87 gegeben und mit 255/(Y), d. h. dem Ausgangssignal der Koeffiziententabelle 81 multipliziert, wodurch die Werte 255/(Y) · a12 · (M) und 255/(Y) · a13 · (C) gewonnen werden.The results of this calculation are then placed in the multipliers 86 and 87 and multiplied by 255 / (Y), ie the output of the coefficient table 81 , whereby the values 255 / (Y) · a 12 · (M) and 255 / (Y ) · A 13 · (C).

Die Ausgangssignale der Multiplizierer 86 und 87 und das Ausgangssignal a11 · YO des Multiplizierers 82 werden in ei­ nem Addierer 88 jeweils miteinander addiert und man erhältThe output signals of multipliers 86 and 87 and the output signal a 11 · YO of multiplier 82 are each added together in egg adder 88 and are obtained

wie durch die Gleichung (2) beschrieben.as described by equation (2).

Das Ergebnis dieser Berechnung wird durch einen Prüfab­ schnitt 89 unter Bezug auf eine Über- oder Unterschreitung geprüft. Diese Prüfung ist erforderlich, da die Möglichkeit besteht, daß a11 größer als 1.0 und a12 und a13 negativ sind. Bei diesem Ausführungsbeispiel benutzt der Prüfab­ schnitt 89 8-Bit breite Vielwertdaten und setzt die Daten auf 0, wenn das Ergebnis der Berechnung kleiner oder gleich 0 ist, bzw. setzt die Daten auf 255, wenn das Ergebnis grö­ ßer oder gleich 255 ist.The result of this calculation is checked by a test section 89 with reference to an overshoot or undershoot. This check is necessary because there is a possibility that a 11 is greater than 1.0 and a 12 and a 13 are negative. In this embodiment, the test section uses 89 8-bit wide value data and sets the data to 0 if the result of the calculation is less than or equal to 0, or sets the data to 255 if the result is greater than or equal to 255.

In den Maskierberechnungsabschnitten 8 und 9 werden die gleichen Berechnungen wie die in dem Maskierberechnungsab­ schnitt 7 durchgeführten ebenso zum Erhalt von M′ und C′ durchgeführt.In the mask calculation sections 8 and 9 , the same calculations as those performed in the mask calculation section 7 are also performed to obtain M 'and C'.

Bei der vorstehend beschriebenen Maskierverarbeitung wird die Hauptfarbkomponente keiner Glättung unterzogen und die Bilddaten nach der Verarbeitung liegen ziemlich nahe am Original. Sogar in dem Fall, in dem ein durch dieses Ver­ fahren erhaltenes Vielwertbild verschiedenen Bildverarbei­ tungen unterzogen wird, oder einfach binär gewandelt wird, oder einer Verarbeitung mittels einer Dithermethode oder einer Fehlerdiffusionsmethode unterzogen wird, ist es mög­ lich, auf einfache Weise ein Bild zu erhalten, das sich durch hohe Wiedergabetreue gegenüber dem Originalbild aus­ zeichnet, sogar nach einer Maskierungsverarbeitung.In the masking processing described above the main color component was not smoothed and the Image data after processing is pretty close to Original. Even in the case where one by this ver drive received multi-value image various image processing or is simply converted to binary, or processing using a dither method or is subjected to an error diffusion method, it is possible Lich, to easily get an image that is through high fidelity compared to the original image draws even after mask processing.

Gemäß diesem Ausführungsbeispiel wird in einem Fall, in dem die Maskierung auf ein n-wertiges Bild, wie ein Binär- oder Ternärbild, angewandt wird, die Berechnung mittels nicht geglätteter Daten für die Hauptfarbe und mittels geglätte­ ter Daten für die Unterfarben durchgeführt, wobei es so möglich ist, die Maskierung auf ein n-wertiges Bild ohne Beeinträchtigung der Kanteninformation und unter Erhalt der Genauigkeit von erwünschten Punktpositionen anzuwenden. So­ mit bewirkt die vorliegende Erfindung eine Verbesserung der Bildqualitäten. According to this embodiment, in a case where the masking on an n-valued image, such as a binary or Ternary image is applied, the calculation by means of not smoothed data for the main color and using smoothed ter data for the sub-colors performed, it so it is possible to mask on an n-valued image without Impairment of the edge information and while maintaining the Apply accuracy of desired point positions. Like this with the present invention brings about an improvement in Image qualities.  

Bei dem vorstehend beschriebenen Ausführungsbeispiel werden nicht geglättete Daten für die Hauptfarbe benutzt. Indes läßt sich die gleiche Wirkung dadurch erzielen, daß die Größe der Glättungsmatrix der Hauptfarbe kleiner als die der Matrizen der Unterfarben gewählt wird. Wesentlich ist es, die Glättungsart unter Bezug auf eine Hauptfarbe und anderer Farben zu ändern. Mit anderen Worten, zur Steige­ rung der Bildqualitäten sind die auf eine Hauptfarbe ange­ wendeten Arten von Vielwertverarbeitung gegenüber den auf andere Farben angewendeten Arten unterschiedlich und die Farb-Maskierverarbeitung wird anschließend auf die gewon­ nenen Daten angewendet.In the embodiment described above unsmoothed data used for the main color. Meanwhile the same effect can be achieved in that the Main color smoothing matrix size smaller than that the matrix of the sub-colors is selected. Is essential it, the type of smoothing related to a main color and change other colors. In other words, go up The quality of the images are based on a main color spent types of multi-value processing on those other colors applied differently and the Color masking processing is then applied to the won applied data.

Zweites AusführungsbeispielSecond embodiment

Ein zweites Ausführungsbeispiel der vorliegenden Erfindung wird nachstehend beschrieben.A second embodiment of the present invention will be described below.

Bei dem zweiten Ausführungsbeispiel wird eine Maskierungs­ berechnung für eine Hauptfarbe mit aus Binärdaten gewon­ nenen Vielwertdaten durchgeführt, während wie bei dem er­ sten Ausführungsbeispiel geglättete Dichtedaten für die Un­ terfarben verwendet werden.In the second embodiment, masking Calculation for a main color with won from binary data performed value data, while as with which he Most exemplary embodiment smoothed density data for the Un ter colors can be used.

Genauer wird die Maskierung mittels der Gleichungen (5), (6) und (7) durchgeführt:The masking is more precise using equations (5), (6) and (7) carried out:

Y′ = a₁₁ · YO + a₁₂ · (M) + a₁₃ · (C) (5)Y ′ = a₁₁ · YO + a₁₂ · (M) + a₁₃ · (C) (5)

M′ = a₂₁ · (Y) + a₂₂ · MO + a₂₃ · (C) (6)M ′ = a₂₁ · (Y) + a₂₂ · MO + a₂₃ · (C) (6)

C′ = a₃₁ · (Y) + a₃₂ · (M) + a₃₃ · CO (7)C ′ = a₃₁ · (Y) + a₃₂ · (M) + a₃₃ · CO (7)

wobei YO, MO bzw. CO, sowie (Y), (M) bzw. (C) u.s.w. in diesen Gleichungen die gleichen Größen wie diejenigen bei dem ersten Ausführungsbeispiel sind. Das heißt, YO, MO und CO stehen für Daten, die durch Wandlung von Binärdaten von Gelb, Magentarot und Zyanblau in Vielwertdaten für jedes Bildelement gewonnen wurden, und (Y), (M) und (C) stehen für geglättete Dichtedaten von Gelb, Magentarot und Zyan­ blau, die durch Glättung eines Bereichs in der Nachbar­ schaft eines Zielbildelements mittels einer Glättungsverar­ beitung gewonnen wurden.where YO, MO or CO, as well as (Y), (M) or (C) etc. in these equations have the same sizes as those in are the first embodiment. That is, YO, MO and CO stands for data generated by converting binary data from Yellow, magenta and cyan in multi-value data for each Image element were obtained, and (Y), (M) and (C) stand for smoothed density data of yellow, magenta and cyan blue by smoothing an area in the neighbor of a target pixel by means of a smoothing process processing.

Wie im ersten Ausführungsbeispiel wird zur Maskierungsbe­ rechnung im zweiten Ausführungsbeispiel Gelb als Hauptfarbe benutzt und YO durch eine Wandlung von Binärdaten direkt in Vielwertdaten gewonnen, während geglättete Dichtedaten (M) und (C) für die Unterfarben Magentarot und Zyanblau verwen­ det werden.As in the first embodiment, the masking calculation in the second embodiment yellow as the main color used and YO by converting binary data directly into Multi-value data obtained while smoothed density data (M) and (C) for the magenta and cyan sub-colors be det.

(M) und (C), die durch Glättung eines Bereichs in der Nähe eines Zielbildelements gewonnene Daten sind, werden für die Unterfarben verwendet, um die hochfrequenten Komponenten pro Punkt des Binärbildes zu unterdrücken und somit die Ur­ sprungsfarbe wie vorstehend beschrieben zu gewinnen.(M) and (C) by smoothing an area nearby of a target pixel is obtained for the Sub colors used to the high frequency components to suppress per point of the binary image and thus the original win jump color as described above.

Fig. 5 ist ein Blockschaltbild, das den Aufbau einer Farb­ verarbeitungseinheit einer Bildverarbeitungsvorrichtung ge­ mäß dem zweiten Ausführungsbeispiel darstellt. Fig. 5 is a block diagram of a color processing unit to build an image processing apparatus accelerator as illustrating the second embodiment.

In der Farbverarbeitungseinheit gemäß Fig. 5 sind Zeilen­ speicher 1 bis 3 , Vielwertbildungsabschnitte 4 bis 6 und Vielwertbildungsschaltungen 21 bis 23 hinsichtlich Aufbau und Funktion gleich den entsprechenden Komponenten des er­ sten Ausführungsbeispiels und ihre Beschreibung wird nicht wiederholt. In the color processing unit of FIG. 5 are line memories 1 to 3, multi-value formation sections 4 to 6 and multi-value forming circuits 21 to 23 in terms of structure and function similar to the corresponding components of he first exemplary embodiment and their description will not be repeated.

Fig. 6 ist ein Blockschaltbild, das den Aufbau jedes ein­ zelnen Maskierberechnungsabschnitts 70, 80 und 90 dar­ stellt. Fig. 6 is a block diagram showing the construction of each masking calculation section 70 , 80 and 90 .

Die Maskierberechnungsabschnitte 70, 80 und 90 entsprechen in dieser Abfolge den Gleichungen (5) bis (7). Die Arbeits­ weise der Ausführung der Berechnung gemäß Gleichung (5) in dem Maskierberechnungsabschnitt 70 wird nachstehend be­ schrieben.The mask calculation sections 70 , 80 and 90 correspond in this sequence to equations (5) to (7). The operation of performing the calculation according to equation (5) in the mask calculation section 70 will be described below.

Ein Multiplizierer 183 wird mit von der Vielwertbildungs­ schaltung 21 ausgegebenen Hauptfarbendaten YO gespeist und gibt durch Multiplikation von YO mit a11 das Produkt a11 · YO aus.A multiplier 183 is fed with main color data YO output from the multivalency circuit 21 and outputs the product a 11 · YO by multiplying YO by a 11 .

Die geglätteten Unterfarbendaten (M) und (C) der Vielwert­ bildungsabschnitte 5 und 6 werden entsprechend in Multipli­ zierer 184 und 185 gegeben und dort mit Unterfarb-Maskier­ koeffizienten multipliziert, wobei so a12 · (M) und a13 · (C) berechnet und ausgegeben werden.The smoothed sub-color data (M) and (C) of the polyvalent formation sections 5 and 6 are respectively put into multipliers 184 and 185 and multiplied there with sub-color masking coefficients, thus calculating a 12 * (M) and a 13 * (C) and be spent.

Die Ergebnisse dieser Berechnungen werden in einen Addierer 188 eingegeben und zu dem Ausgangssignal des Multiplizie­ rers 183 a11 · YO addiert, wobei wie in Gleichung (5) ausge­ drücktThe results of these calculations are input to an adder 188 and added to the output of the multiplier 183 a 11 · YO, as expressed in equation (5)

a₁₁ · YO + a₁₂ · (M) + a₁₃ · (C)a₁₁ · YO + a₁₂ · (M) + a₁₃ · (C)

gewonnen wird.is won.

Zum Erhalt von M′ und C′ werden in den Maskierberechnungs­ abschnitten 80 und 90 die gleichen Berechnungen durchge­ führt wie diejenigen des Maskierberechnungsabschnitts 70. Wenn diese Berechnungsergebnisse hinsichtlich einer Über­ oder Unterschreitung geprüft und die Daten erneut in Binär­ daten gewandelt wurden, kann eine Über- oder Unterschrei­ tung gemäß der Bitanzahl der binärisierenden Schaltung kor­ rigiert werden. Bei diesem Ausführungsbeispiel wird aller­ dings so eine Korrektur nicht durchgeführt. Dieses ist so, weil wie nachstehend beschrieben eine Fehlerdiffusionsme­ thode oder eine Mittlere-Dichte-Speichermethode als eine Methode zur Rückwandlung in Binärdaten angewendet wird.In order to obtain M ′ and C ′, the same calculations are carried out in the mask calculation sections 80 and 90 as those of the mask calculation section 70 . If these calculation results have been checked for an overshoot or undershoot and the data have been converted again into binary data, an overshoot or undershoot can be corrected in accordance with the number of bits in the binarizing circuit. In this exemplary embodiment, however, such a correction is not carried out. This is because, as described below, an error diffusion method or a medium density storage method is used as a method for conversion back to binary data.

Bei der vorstehend beschriebenen Maskierverarbeitung wird eine Glättung nicht auf die Hauptfarbkomponente angewandt und die Bilddaten nach dieser Verarbeitung kommen dem ur­ sprünglichen Bild sehr nahe. Sogar in dem Fall, in dem ein durch dieses Verfahren erhaltenes Vielwertbild verschie­ denen Bildverarbeitungen unterzogen wird, oder einfach bi­ när gewandelt wird, oder einer Verarbeitung mittels einer Dithermethode oder einer Fehlerdiffusionsmethode unterzogen wird, ist es möglich, auf einfache Weise ein Bild zu erhal­ ten, das sich durch hohe Wiedergabetreue gegenüber dem Ori­ ginalbild auszeichnet, sogar nach einer Maskierungsverar­ beitung.In the masking processing described above smoothing is not applied to the main color component and the image data after this processing comes to the original original picture very close. Even in the case where a various image obtained by this method which are subject to image processing, or simply bi när converted, or processing by means of a Dither method or an error diffusion method it is possible to easily get an image ten, which is characterized by high fidelity to the Ori original image, even after a masking process processing.

In einem Fall zur Durchführung einer erneuten Binärwandlung entsprechend den durch die Maskierberechnungsabschnitten 70, 80 und 90 eingespeisten Maskierergebnissen dienen die in Fig. 5 gezeigten Binärisierabschnitte 100, 110 und 111 zur Binärisierung gemäß einer Binärwandlungsmethode wie der Fehlerdiffusionsmethode oder der Mittlere-Dichte-Speicher­ methode, bei der eine Speicherung der Dichte vor und nach der Binärisierung erfolgt.In a case of performing a new binary conversion according to the masking results fed in by the mask calculation sections 70 , 80 and 90 , the binarizing sections 100 , 110 and 111 shown in FIG. 5 are used for binarization according to a binary conversion method such as the error diffusion method or the average density storage method, in which the density is stored before and after the binaryization.

Eine derartige Binärwandlung des Dichtespeichertyps ver­ mischt die Daten nach der Maskierverarbeitung mit nahelie­ genden Bildelementen sogar bei Über- oder Unterschreitung, wobei so eine exakte Durchführung der Maskierung ermöglicht wird.Such a binary conversion of the density storage type ver mixes the data with nahelie after mask processing picture elements even if the values are exceeded or undershot,  whereby an exact implementation of the masking is possible becomes.

Wenn beispielsweise die Rückwandlung in Binärdaten basie­ rend auf der Dithermethode durchgeführt wird, tritt eine Unter- oder Überschreitung nicht auf und es ist unmöglich, passende Maskierungseffekte zu erzielen. Dieses ist so, weil sich das nach der Maskierung ausgegebene Binärbild durch Unter- oder Überschreitung in großem Maße von dem Maskierungsergebnis eines Vielwertbildes unterscheidet und weil die Unterschreitung einen großen Negativwert bzw. die Überschreitung einen sehr großen Wert im Vergleich mit der Vielwertmaskierung hat. Bei diesem Ausführungsbeispiel wird deshalb zur Durchführung einer exakten Maskierung eine Binärwandlung der Dichte-Speicher-Art eingeführt.For example, if the conversion is based on binary data rend on the dither method, one occurs Does not fall below or exceed and it is impossible to achieve suitable masking effects. This is so because the binary image output after masking by largely falling short of or exceeding that Masking result of a polyvalent image differs and because the shortfall is a large negative value or the Exceeding a very large value compared to the Has value masking. In this embodiment therefore to perform an exact masking Binary conversion of the density storage type introduced.

Die vorliegende Erfindung beschränkt sich nicht auf die vorstehend beschriebenen Ausführungsbeispiele. Beispiels­ weise ist das Ursprungsbild nicht wie vorstehend erwähnt auf Binärdaten beschränkt, sondern kann ternär, quartär oder ähnliches sein.The present invention is not limited to Embodiments described above. Example wise the original image is not as mentioned above limited to binary data, but can be ternary, quaternary or something like that.

Beispielsweise können in einem Fall, in dem das Ursprungs­ bild ternär ist, Daten wie (0, 1, 2) durch die Vielwertbil­ dungsschaltungen 21 bis 23 in (0, 128, 255) oder ähnlich gewandelt und die Werte in dem Addierer 61 zwischen 0 und 75 durch den Normierungsabschnitt 62 in dem Vielwertbil­ dungsabschnitt zwischen 0 und 255 normiert werden.For example, in a case where the original image is ternary, data such as (0, 1, 2) can be converted to (0, 128, 255) or the like by the multivalue forming circuits 21 to 23 , and the values in the adder 61 between 0 and 75 are normalized by the normalization section 62 in the polyvalent formation section between 0 and 255.

Die von den Multiplizierern benutzten Multiplizierkoeffizi­ enten können von außen eingespeist werden oder in einem ei­ gens zur Multiplikationsverarbeitung zur Verfügung gestell­ ten Festwertspeicher ROM abgespeichert sein. The multiplier coefficients used by the multipliers ducks can be fed in from outside or in an egg provided for multiplication processing th read-only memory ROM can be stored.  

Gemäß diesem Ausführungsbeispiel wird in einem Fall, in dem die Maskierverarbeitung auf ein n-wertiges Bild wie ein binäres oder ternäres Datenbild angewendet wird, die Be­ rechnung mit nicht geglätteten Werten für die Hauptfarbe und mit geglätteten Werten für Unterfarben durchgeführt, wobei es ermöglicht wird, Maskierung auf ein n-wertiges Bild anzuwenden, ohne Beeinträchtigung der Kanteninforma­ tion und unter Erhalt der Genauigkeit von erwünschten Punktpositionen. Somit ermöglicht die vorliegende Erfin­ dung, die Bildqualitäten zu verbessern.According to this embodiment, in a case where masking processing on an n-valued image like a binary or ternary data image is applied, the Be calculation with unsmoothed values for the main color and done with smoothed values for sub colors, where it is possible to mask to an n-valued Apply image without affecting the edge information tion and while maintaining the accuracy of desired Point positions. Thus, the present inven enables to improve the image quality.

In den Ausführungsbeispielen wurde nur eine Bildverarbei­ tungseinheit beschrieben. Wenn die vorliegende Erfindung in einem Farbfaksimilegerät angewendet wird, das n-wertige Bilddaten überträgt und empfängt, bewirkt sie eine ausge­ prägte Verbesserung der Bildqualität.In the exemplary embodiments, only one image processing was carried out unit described. If the present invention in a color facsimile device is used, the n-valued Image data is transmitted and received, it causes an out shaped improvement in image quality.

Zur Anwendung der vorliegenden Erfindung in dem vorstehend erwähnten Farbfaksimilegerät benötigt die Farbverarbei­ tungseinheit nach Fig. 1 oder Fig. 5 zusätzliche Einheiten als vorangehende Stufe der mit 1, 2 bzw. 3 bezeichneten Zeilenspeicher. Bei diesen Einheiten handelt es sich um eine Kommunikationssteuerungseinheit zum Empfang von Signalen aus einem öffentlichen Netzwerk, eine Bilddaten-Demodulie­ rungseinheit und eine Farbsignalverarbeitungseinheit (C- PROZESS), die aus demodulierten Farbdaten jede Farbkompo­ nente, Y, M, oder C, herausgreift und die sich daraus erge­ benden, unabhängig synchronisierten Daten ausgibt. Weiter­ hin sollten die Ausgänge der Maskierberechnungsabschnitte 7, 8 und 9 nach Fig. 1, oder die Ausgänge der Binärisierab­ schnitte 100, 110 und 111 nach Fig. 5 mit einem Farbdrucker verbunden werden. Als Farbdrucker kann ein Tintenstrahl­ drucker, ein elektrofotographischer Drucker, ein Thermo­ transferdrucker oder ähnliches benutzt werden. Im besonde­ ren ist der Gebrauch eines Binärdruckers, beispielsweise eines Blasenstrahldruckers zum Aufbau des Farbfaksimilege­ räts vorzuziehen.To use the present invention in the color facsimile apparatus mentioned above, the color processing unit according to FIG. 1 or FIG. 5 requires additional units as the preceding stage of the line memories designated 1 , 2 and 3, respectively. These units are a communication control unit for receiving signals from a public network, an image data demodulation unit and a color signal processing unit (C-PROCESS), which extracts each color component, Y, M, or C, from demodulated color data and which resulting, independently synchronized data. Furthermore, the outputs of the mask calculation sections 7 , 8 and 9 according to FIG. 1, or the outputs of the binarizing sections 100 , 110 and 111 according to FIG. 5 should be connected to a color printer. An ink jet printer, an electrophotographic printer, a thermal transfer printer or the like can be used as a color printer. In particular, the use of a binary printer, for example a bubble jet printer, for the construction of the color facsimile device is preferable.

Gemäß den Ausführungsbeispielen wird die durchschnittliche Dichte von Farbdaten unter Auschluß der Hauptfarbendaten erzielt, während es gleichwohl möglich ist, andere Arten von Daten mit einem höchsten Frequenzwert oder einem Fre­ quenzmedianwert zu erzielen.According to the embodiments, the average Density of color data excluding the main color data achieves, while still being possible, other species of data with a highest frequency value or a Fre to achieve the median quenz value.

Eine Bildverarbeitungsvorrichtung wandelt n-wertige Bildda­ ten in m-wertige Bilddaten, wobei n < m ist. Auf eine Hauptfarbkomponente und auf Unterfarbkomponenten angewandte Arten von Vielwertverarbeitung sind unterschiedlich und so erzielte Daten werden mit vorbestimmten Koeffizienten mul­ tipliziert, dann werden die Ergebnisse dieser Berechnungen zum Erhalt von Daten über jede Farbkomponente zusammenad­ diert, wodurch eine Verbesserung der Bildqualität ermög­ licht wird.An image processing device converts n-valued image data ten in m-valued image data, where n <m. On a Main color component and sub-color components Types of multi-value processing are different and such obtained data are mul with predetermined coefficients tiplied, then the results of these calculations together to obtain data about each color component dated, which enables an improvement in image quality light becomes.

Claims (10)

1. Bildverarbeitungsvorrichtung zur Wandlung von n-wertigen Bilddaten in m-wertige Bilddaten (n < m), gekennzeichnet durch
Erzeugungseinrichtungen (21 bis 23) zum Erzeugen von m-wer­ tigen Zielfarbkomponentendaten, die auf n-wertigen Daten der Zielfarbkomponente von Bildelementen basieren, die in einem ersten Bereich in der Nachbarschaft eines Zielbilde­ lements liegen,
Berechnungseinrichtungen (4 bis 6) zum Berechnen einer Dichte für jede Farbkomponente in einem zweiten Bereich, der zumindestens den ersten Bereich umfaßt und größer als dieser erste Bereich ist, und
Korrektureinrichtungen (7 bis 9) zur Korrektur von Daten, die basierend auf durch die Berechnungseinrichtung berech­ neten Werten durch die Erzeugungseinrichtungen erzielt wur­ den.
1. Image processing device for converting n-value image data into m-value image data (n <m), characterized by
Generating devices ( 21 to 23 ) for generating m-value target color component data based on n-value data of the target color component of picture elements which lie in a first area in the vicinity of a target picture element,
Calculating means ( 4 to 6 ) for calculating a density for each color component in a second area which comprises at least the first area and is larger than this first area, and
Correction devices ( 7 to 9 ) for correcting data which have been obtained by the generation devices on the basis of values calculated by the calculation device.
2. Bildverarbeitungsvorrichtung zur Wandlung von n-wertigen Bilddaten in m-wertige Bilddaten (n < m), gekennzeichnet durch,
Erzeugungseinrichtungen (21 bis 23) zum Erzeugen von m-wer­ tigen Zielfarbkomponentendaten, die auf n-wertigen Daten der Zielfarbkomponente von Bildelementen basieren, die in einem ersten Bereich in einer Nachbarschaft eines Zielbild­ elements liegen,
Berechnungseinrichtungen (4 bis 6) zum Berechnen einer Dichte für jede Farbkomponente in einem zweiten Bereich, der zumindestens den ersten Bereich umfaßt und größer als dieser erste Bereich ist,
Korrektureinrichtungen (70 bis 90) zur Korrektur von Daten, die basierend auf durch die Berechnungseinrichtung berech­ neten Werten durch die Erzeugungseinrichtungen erzielt wur­ den, und
1-wertbildende Einrichtungen (100 bis 111) zur 1-Wertbil­ dung des Korrekturergebnisses der Korrektureinrichtung zur Speicherung der Dichte.
2. Image processing device for converting n-value image data into m-value image data (n <m), characterized by
Generating devices ( 21 to 23 ) for generating m-value target color component data based on n-value data of the target color component of picture elements which lie in a first region in the vicinity of a target picture element,
Calculating means ( 4 to 6 ) for calculating a density for each color component in a second area which comprises at least the first area and is larger than this first area,
Correction means ( 70 to 90 ) for correcting data obtained by the generation means based on values calculated by the calculation means, and
1-value-forming devices ( 100 to 111 ) for 1-value formation of the correction result of the correction device for storing the density.
3. Bildverarbeitungsvorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß der Bereich in der Nachbarschaft des Zielbildelements, auf den sich die Erzeugungseinrichtung bezieht, die Stelle des Zielbildelements ist.3. Image processing device according to claim 1 or 2, characterized in that the area in the vicinity of the target pixel which the generating facility refers to, the location of the Target image element is. 4. Bildverarbeitungsvorrichtung nach einem der vorangehen­ den Ansprüche, dadurch gekennzeichnet, daß jede Berechnungseinrichtung (4 bis 6)
eine erste Berechnungseinrichtung (51 bis 55, 61) zur Berechnung einer Summe von innerhalb des zweiten Bereichs liegenden Bildelementen für jede Farbkomponente und
eine zweite Berechnungseinrichtung (62) zur Berechnung einer mittleren Dichte des zweiten Bereichs für jede Farb­ komponente basierend auf durch die erste Berechnungsein­ richtung erzielten Werten, einem durch die erste Berech­ nungseinrichtung berechneten Maximalwert und einem Maximal­ pegel der m-wertigen Bilddaten beinhaltet.
4. Image processing device according to one of the preceding claims, characterized in that each computing device ( 4 to 6 )
a first calculation device ( 51 to 55 , 61 ) for calculating a sum of picture elements lying within the second area for each color component and
includes a second calculation device ( 62 ) for calculating an average density of the second region for each color component based on values obtained by the first calculation device, a maximum value calculated by the first calculation device and a maximum level of the m-value image data.
5. Bildverarbeitungsvorrichtung nach einem der vorangehen­ den Ansprüche, dadurch gekennzeichnet, daß dann, wenn die mittels der Erzeugungseinrichtungen (21 bis 23) erzielten Zielfarbkomponentendaten X sind, die mittlere Dichtedaten jeder Farbkomponente, die nicht die Zielfarb­ komponentendaten sind, Y und Z sind und die Zielfarbkompo­ nentendaten nach einer Korrektur D sind, die Korrekturein­ richtungen (7 bis 9, 70 bis 90) die Zielfarbkomponente wie folgt korrigieren: D = ap₁ · X + ap₂ · bc · Y + ap₃ · bc · Zwobei ap1, ap2 und ap3 vorbestimmte Koeffizienten sind und bc ein Korrekturkoeffizient ist.5. Image processing device according to one of the preceding claims, characterized in that when the target color component data obtained by means of the generating devices ( 21 to 23 ) are X, the mean density data of each color component that are not the target color component data are Y and Z and that Target color component data after a correction D, the correction means ( 7 to 9 , 70 to 90 ) correct the target color component as follows: D = ap₁ · X + ap₂ · bc · Y + ap₃ · bc · Whereby ap 1 , ap 2 and ap 3 are predetermined coefficients and bc is a correction coefficient. 6. Bildverarbeitungsvorrichtung nach einem der vorangehen­ den Ansprüche, dadurch gekennzeichnet, daß die n-wertigen Daten über ein Netzwerk empfangen werden.6. Image processing device according to one of the preceding the claims characterized in that the n-value data are received over a network. 7. Bildverarbeitungsvorrichtung nach einem der vorangehen­ den Ansprüche, dadurch gekennzeichnet, daß jede Farbkomponente einer von drei Primärfarbkomponenten entspricht.7. Image processing device according to one of the preceding the claims characterized in that each color component is one of three primary color components corresponds. 8. Bildverarbeitungsvorrichtung nach einem der vorangehen­ den Ansprüche, gekennzeichnet durch, eine Datenabgabeeinrichtung zur Abgabe von durch die Kor­ rektureinrichtung korrigierten Daten an einen Drucker. 8. Image processing device according to one of the preceding the claims marked by, a data delivery device for delivery by the cor correction device corrected data to a printer.   9. Bildverarbeitungsvorrichtung nach Anspruch 8, dadurch gekennzeichnet, daß der Drucker ein Tintenstrahldrucker ist.9. Image processing device according to claim 8, characterized in that the printer is an inkjet printer. 10. Bildverarbeitungsvorrichtung nach Anspruch 9, dadurch gekennzeichnet, daß der Tintenstrahldrucker ein Blasenstrahldrucker ist.10. Image processing device according to claim 9, characterized in that the ink jet printer is a bubble jet printer.
DE4027897A 1989-09-05 1990-09-03 Image processing device Expired - Fee Related DE4027897C2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP1229784A JP2946217B2 (en) 1989-09-05 1989-09-05 Image processing device
JP26453189A JPH03125566A (en) 1989-10-11 1989-10-11 Picture processing unit

Publications (2)

Publication Number Publication Date
DE4027897A1 true DE4027897A1 (en) 1991-03-21
DE4027897C2 DE4027897C2 (en) 1996-07-18

Family

ID=26528995

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4027897A Expired - Fee Related DE4027897C2 (en) 1989-09-05 1990-09-03 Image processing device

Country Status (3)

Country Link
US (1) US5488672A (en)
DE (1) DE4027897C2 (en)
GB (1) GB2238927B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999028864A1 (en) * 1997-11-28 1999-06-10 Oce Printing Systems Gmbh Method for converting digital raster data of a first resolution into digital target data of a second resolution

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6009193A (en) * 1990-05-16 1999-12-28 Canon Kabushiki Kaisha Method and apparatus for converting N-value image to M-value image, for < NM
AUPN310095A0 (en) * 1995-05-22 1995-06-15 Canon Kabushiki Kaisha Image detection system
US5739917A (en) * 1996-07-12 1998-04-14 Seiko Epson Corporation Error-diffusion-type half-toning employing adaptive thresholding for enhanced smoothness
US5838885A (en) * 1996-09-09 1998-11-17 Seiko Epson Corporation Salt-and-pepper-noise reduction
JPH114352A (en) * 1997-06-12 1999-01-06 Canon Inc Image processing method, system and recording medium
US7352893B2 (en) * 2003-07-09 2008-04-01 Hewlett-Packard Development Company, L.P. Representing extended color gamut information
DE602004019988D1 (en) * 2004-07-23 2009-04-23 I Ces METHOD FOR REDUCING THE SIZE OF A DIGITAL IMAGE OR VIDEO FILE

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4718091A (en) * 1984-01-19 1988-01-05 Hitachi, Ltd. Multifunctional image processor
US4853969A (en) * 1987-01-13 1989-08-01 Recognition Equipment Incorporated Quantized digital filter

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2009568B (en) * 1977-11-28 1982-03-24 Nippon Telegraph & Telephone Picture signal coding apparatus
US4533928A (en) * 1982-04-30 1985-08-06 Canon Kabushiki Kaisha Color image processing apparatus
US4752822A (en) * 1983-03-08 1988-06-21 Canon Kabushiki Kaisha Color halftone image processing apparatus producing various screen angles and having an adaptive color image data conversion look-up table and a small-capacity masking memory
US4853768A (en) * 1985-12-26 1989-08-01 Canon Kabushiki Kaisha Color image processing apparatus with linear masking circuit having coefficients which vary in accordance with the levels of color component signals
JPS63149966A (en) * 1986-12-12 1988-06-22 Matsushita Electric Ind Co Ltd Color correction arithmetic unit
JPH0657046B2 (en) * 1987-06-05 1994-07-27 キヤノン株式会社 Digital color signal processing circuit
JP2774501B2 (en) * 1987-11-05 1998-07-09 株式会社リコー Multi-level gradation processing method for color image
JP2629238B2 (en) * 1988-02-05 1997-07-09 ソニー株式会社 Decoding device and decoding method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4718091A (en) * 1984-01-19 1988-01-05 Hitachi, Ltd. Multifunctional image processor
US4853969A (en) * 1987-01-13 1989-08-01 Recognition Equipment Incorporated Quantized digital filter

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999028864A1 (en) * 1997-11-28 1999-06-10 Oce Printing Systems Gmbh Method for converting digital raster data of a first resolution into digital target data of a second resolution
US6836571B1 (en) 1997-11-28 2004-12-28 OCé PRINTING SYSTEMS GMBH Method for converting digital raster data of a first resolution into digital target data of a second resolution

Also Published As

Publication number Publication date
DE4027897C2 (en) 1996-07-18
US5488672A (en) 1996-01-30
GB2238927A (en) 1991-06-12
GB2238927B (en) 1994-05-18
GB9019296D0 (en) 1990-10-17

Similar Documents

Publication Publication Date Title
DE60132278T2 (en) Noise reduction method using color information, a device and a program for digital image processing
DE3313392C2 (en)
DE19842572B4 (en) Method for the automatic removal of image defects
DE3409771C2 (en)
DE2944822C2 (en)
DE69914669T2 (en) Background noise removal for an inexpensive digital color copier
DE3842475C2 (en)
DE10137164A1 (en) Grayscale halftone processing
DE19912511A1 (en) Process for creating trapping contours in a printed page
DE69728724T2 (en) Image area recognition method and image processing apparatus
DE3839299A1 (en) Image processing device
DE19623318C2 (en) Partial pixel coding and decoding methods
DE3816780C2 (en)
DE3637995C2 (en) Process for converting pixel signals
EP1842361B1 (en) Method, computer program, computer and printing system for trapping image data
EP0163898A2 (en) Facsimile coding method
DE4027897C2 (en) Image processing device
EP0042981B1 (en) Method of coding electrical signals obtained by scanning a representation containing both text and illustrations
DE60027187T2 (en) SYSTEM AND METHOD FOR PROCESSING MULTIPLE LEVELS WITH LEVEL RESTRICTION
DE19901934C2 (en) Method for generating a frame for graphic objects which are described by Bezier curves
DE4019653C2 (en) Image processing device and image data processing method
WO1998048380A1 (en) Method for modifying the size of line elements
DE10017830A1 (en) Process for mapping color values of a color image onto the color values of a highlight color image
DE602005005365T2 (en) Method and apparatus for generating frame error diffusion and ink quantity limitation by threshold matrix
DE4230193C2 (en) Dot-matrix imaging method

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee