DE69126014T3 - Farbbildverarbeitungssystem und verfahren zur vorbereitung eines zusammengesetzten bildtransformationsmoduls für mehrere ausgewählte bildtransformationen - Google Patents

Farbbildverarbeitungssystem und verfahren zur vorbereitung eines zusammengesetzten bildtransformationsmoduls für mehrere ausgewählte bildtransformationen

Info

Publication number
DE69126014T3
DE69126014T3 DE69126014T DE69126014T DE69126014T3 DE 69126014 T3 DE69126014 T3 DE 69126014T3 DE 69126014 T DE69126014 T DE 69126014T DE 69126014 T DE69126014 T DE 69126014T DE 69126014 T3 DE69126014 T3 DE 69126014T3
Authority
DE
Germany
Prior art keywords
transformation
input
color image
definition
grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69126014T
Other languages
English (en)
Other versions
DE69126014T2 (de
DE69126014D1 (de
Inventor
Christopher Enscoe
H. Gregory
Gary Newman
Robert Poe
Michael Schwartz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eastman Kodak Co
Original Assignee
Eastman Kodak Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=27080826&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE69126014(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Eastman Kodak Co filed Critical Eastman Kodak Co
Application granted granted Critical
Publication of DE69126014D1 publication Critical patent/DE69126014D1/de
Publication of DE69126014T2 publication Critical patent/DE69126014T2/de
Publication of DE69126014T3 publication Critical patent/DE69126014T3/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6016Conversion to subtractive colour signals
    • H04N1/6019Conversion to subtractive colour signals using look-up tables
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6058Reduction of colour to a range of reproducible colours, e.g. to ink- reproducible colour gamut

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

  • Die Erfindung betrifft Farbbildverarbeitungssysteme im allgemeinen und Farbbildverarbeitungssysteme mit Nachschlagetabellen für die Transformation aus einem ersten Koordinatenraum in einen zweiten Koordinatenraum, im besonderen.
  • Typische Farbbildverarbeitungssysteme weisen eine Eingabevorrichtung zum Erzeugen einer elektronischen Darstellung eines Farbbildes auf. Die Eingabevorrichtung führt die elektronische Bilddarstellung einem Arbeitsplatzcomputer zu, der das Bild nach den Eingaben eines Benutzers verarbeitet und das verarbeitete Bild zur Darstellung an einen Farbbildmonitor hoher Auflösung weiterleitet. Im Dialog mit dem Arbeitsplatzcomputer korrigiert der Benutzer das Bild durch wiederholte Eingabe, bis auf dem Monitor ein gewünschtes Bild erscheint. Der Benutzer kann von dem Bild auch eine Hartkopie erzeugen, indem er den Arbeitsplatzcomputer anweist, das verarbeitete elektronische Bild an eine ausgewählte Druckvorrichtung weiterzuleiten.
  • Das von dem Arbeitsplatzcomputer verarbeitete elektronische Bild besteht aus einem zweidimensionalen Array von Bildelementen (Pixeln). Die Farbe eines jeden Pixels kann in jeder/jedem einer Vielzahl von Farbennotationen oder "Farbenräumen" dargestellt werden. So stellt beispielsweise der Farbenraum RGB Pixelfarben entsprechend den relativen Anteilen der drei Grundfarben Rot, Grün und Blau dar. Diese Farbennotation ist bei Farbbildmonitoren üblich, weil die drei Parameter (RGB) der Gesetzmäßigkeit entsprechen, nach der der Monitor Farbe erzeugt. Dabei enthält jedes Pixel des auf dem Monitor dargestellten Bildes phosphoreszierende Stoffe in den drei Grundfarben. Zum Erzeugen einer von einem Satz von RGBWerten definierten Farbe stimuliert der Monitor den phosphoreszierenden Stoff für jede der Grundfarben mit einer Intensität, die von dem entsprechenden R, G oder BWert bestimmt wird.
  • Entsprechend stellt der Farbenraum CMYK eine Farbe mit vier veränderlichen Größen C, M, Y, K dar, die jeweils den relativen (subtraktiven) Anteilen der Farben Cyanblau, Magentarot, Gelb und Schwarz entsprechen. Diese Notation ist bei Druckvorrichtungen üblich, weil jeder der Parameter C, M, Y und K die Menge eines Färbemittels (z. B. Tinte, Farbstoff) bestimmt, die der Drucker zum Erzeugen einer gewünschten Farbe verbraucht.
  • Farbenräume wie die linearen RGB und CMYKRäume bieten sich für den Einsatz in Bildabtastvorrichtungen (RGB) und in Bilddruckvorrichtungen (CMYK) an, weil jeder Parameter des Farbenraums sehr genau einer physikalischen Gesetzmäßigkeit entspricht, nach der diese Vorrichtungen Farbe messen und erzeugen. Aus verschiedenen Gründen können diese Farbenräume für die Verarbeitung von Farbbildern jedoch weniger geeignet sein. So definieren beispielsweise die drei Parameter RGB, wie in Fig. 1 gezeigt, einen dreidimensionalen, linearen Farbenraum, in dem jeder Punkt einer ganz bestimmten Farbe entspricht. An verschiedenen Punkten innerhalb des Raums führt eine ausgewählte Änderung der Werte der Parameter möglicherweise nicht zu einer entsprechenden Änderung der wahrgenommenen Farbe. Wenn beispielsweise an einer Stelle in dem Raum der Parameter R um n Einheiten erhöht wird, so bewirkt dies möglicherweise kaum eine Änderung der wahrgenommenen Farbe. Dagegen kann sich die wahrgenommene Farbe drastisch ändern, wenn R an einem anderen Punkt in dem Raum um denselben Betrag von n Einheiten erhöht wird. Für einen Benutzer ist es daher unter Umständen schwierig, die Grundfarben R, G, B so zu manipulieren, dass sich die Farbe wie gewünscht ändert.
  • Zur Lösung dieses Problems sind die verschiedensten wahrnehmungsabhängigen Farbenräume vorgeschlagen worden, um die Farben durch Parameter zu definieren, die der Wahrnehmung von Farbe durch das menschliche Auge besser entsprechen. Die bekanntesten wahrnehmungsabhängigen Normen für die Darstellung von Farben sind in dem von der International Commission on Illumination festgelegten CIE- System zusammengefaßt.
  • Der Raum "u'v'L*" ist zum Beispiel ein dreidimensionaler Farbenraum, der von den Parametern u', v', L* definiert wird. Die Chrominanz einer jeden Farbe in diesem Raum ist einheitlich durch die Parameter u',v' gekennzeichnet. Der dritte Parameter L* gibt wahrnehmungsabhängige gleichförmige Änderungen der Helligkeit der Farbe an (so ist L* = 0 beispielsweise Schwarz, L* = 100 Weiß).
  • Zur Verarbeitung eines Farbbildes in dem Farbenraum "u'v'L*" verarbeitet der Arbeitsplatzcomputer einfach jeden Punkt u'o, v'o, L*o in dem Farbenraum zu einem neuen Punkt u'&sub1;, v'&sub1;, L*&sub1;. Wenn der Benutzer das Bild beispielsweise auf einem Monitor darstellen will, möchte er vielleicht die Farben des Bildes korrigieren, um die Lichtverhältnisse des Raums auszugleichen. In diesem Fall wählt der Benutzer eine Transformation aus, die jeden Punkt uo, v'o, L*o zu einem neuen Punkt mit denselben Werten u'o, v'o, aber mit einem größeren Luminanzwert L*i verarbeitet.
  • Ein typisches Bildverarbeitungssystem dieser Art enthält für jede derartige Farbbildumwandlung eine vorgegebene Transformationsdefinition. Ein Verarbeitungssystem dieser Art ist beispielsweise in dem von der Fa. "Advanced Visual System Inc. " vertriebenen "Application Visualization System" verwirklicht. Aufgrund einer ausgewählten Definition verarbeitet das System bestimmte Punkte des Farbenraums zu neuen Punkten. Zu diesem Zweck wird die Farbe an jedem Pixel eines elektronischen Bildes sequentiell nach der Transformationsdefinition verarbeitet, um den gewünschten visuellen Effekt zu erzielen. Für eine weitere Bildumwandlung verarbeitet das System die Farbwerte nach einer zweiten Transformationsdefinition zu einem weiteren Punkt. Durch sequentielle Verarbeitung von Farbwerten nach den verfügbaren vorgegebenen Transformationsdefinitionen kann auf diese Weise jede beliebige Anzahl von Umwandlungen durchgeführt werden. Eine solche sequentielle Verarbeitung von Bildern kann jedoch extrem zeitaufwendig sein, besonders dann, wenn eine große Anzahl vorgegebener Transformationen ausgewählt wird.
  • EP-A-0 188 098 beschreibt ein Bildverarbeitungssystem, mit dem ein in Abhängigkeit von über eine Benutzerschnittstelle eingegebenen Modifikationen modifiziertes Bild sichtbar dargestellt werden kann.
  • In Punkt 4.3 des in < < Electrophotography > > , the Society Journal, Vol. 29, No. 3, 1990, S. 306 bis 314, veröffentlichten Artikels < < Color Adjustment Technic for Desirable Color Reproduction > > von Katsuhiro Kanamori werden Gitterpunkte in dem Farbenraum mit dreidimensionaler Interpolation erwähnt. In dem genannten Artikel wird auch die Verwendung einer Nachschlagtabelle als Ergebnis des Modifikationsprozesses erwähnt. Diese Nachschlagtabelle wird jedoch durch cc Berechnungen einschließlich komplizierter Farbkoordinatensysteme » erstellt. Kanamori verweist stets auf die explizite Gleichung für die Erstellung der Transformation. Dagegen beschreibt Kanamori nicht, wie die beiden Transformationstabellen entstehen. Jede dieser beiden Tabellen könnte unter Verwendung ihm nicht bekannter Verfahren und Kombination zu einer zusammengesetzten Tabelle, wie in der beanspruchten Erfindung vorgeschlagen, von jemand anders berechnet worden sein.
  • Der Erfindung liegt daher unter anderem die Aufgabe zugrunde, den Benutzer eines Bildverarbeitungssystems in die Lage zu versetzen, durch dynamische Erstellung nur einer Transformationsdefinition eine Vielzahl ausgewählter Bildtransformationen zu verwirklichen. Eine weitere Aufgabe der Erfindung besteht darin, aus der Vielzahl vorgegebener Transformationsdefinitionen eine solche zusammengesetzte Transformationsdefinition zu erstellen. Die Erfindung hat ferner die Aufgabe, für die Transformation eine neue Formatdefinition bereitzustellen, mit der die Farbverarbeitungsanforderungen zwischen Hardwaresystemen auf einfache Weise definiert werden können.
  • Die Erfindung ist in Anspruch 1 und 8 definiert und betrifft ein Verfahren und eine Vorrichtung zum Erzeugen eines Arrays modifizierter Pixelwerte in Abhängigkeit von einem Array von Eingangspixelwerten.
  • Das Verfahren umfaßt mehrere Schritte, von denen einer im Empfang einer Benutzerauswahl einer über das Array von Eingangspixelwerten durchzuführenden Bildtransformation besteht. In Abhängigkeit von der vom Benutzer getroffenen Auswahl wird eine Vielzahl von Transformationsdefinitionen automatisch aus gespeicherten Transformationsdefinitionen ausgewählt. Jede Transformationsdefinition weist Abtastwerte auf, die eine Eingabe/Ausgabebeziehung einer vorgegebenen Bildtransformation darstellen. Aus diesen ausgewählten Transformationsdefinitionen wird eine zusammengesetzte Transformationsdefinition erzeugt, die Abtastwerte einer Eingabe/Ausgabebeziehung einer zusammengesetzten Bildtransformation enthält, die der effektiv vom Benutzer ausgewählten Vielzahl von Bildtransformationen gleichwertig ist. Die zusammengesetzte Transformation wird vorzugsweise hinreichend schnell (z. B. in Echtzeit) kompiliert und implementiert, damit der Benutzer im Dialog mit dem System die von ihm getroffene Auswahl ändern kann, bis eine gewünschte zusammengesetzte Transformation vorliegt.
  • Das Erzeugen der zusammengesetzten Transformationsdefinition erfolgt erfindungsgemäß durch Bereitstellen mindestens einer, die Abtastwerte der zusammengesetzten Transformationsdefinition enthaltenden mehrdimensionalen Gittertabelle. Ferner wird mindestens eine Eingabetabelle bereitgestellt, die für jeden Eingangsfarbwert eine Gittertabellenadresse eines entsprechenden Eingangs der Gittertabelle enthält. Die Eingabetabelle enthält zusätzlich für jeden Eingangsfarbwert mindestens einen Distanzwert. Schließlich wird mindestens eine Ausgabetabelle bereitgestellt, die für jeden verarbeiteten Farbwert einen entsprechenden modifizierten Farbwert angibt.
  • Zum Bereitstellen einer mehrdimensionalen zusammengesetzten Gittertabelle werden die ausgewählten Transformationsdefinitionen in einer spezifizierten Reihenfolge geordnet, so dass sich die durch jede Transformation erzeugten Pixelwerte im gleichen Farbenraum und in der gleichen Quantisierung befinden, die für die nächste Transformation in der Reihenfolge erforderlich ist. Anschließend wird eine Vielzahl von repräsentativen Werten ausgewählt und nach der spezifizierten Reihenfolge von Transformationsdefinitionen verarbeitet.
  • Zum Implementieren einer zusammengesetzten Transformationsdefinition wird in Abhängigkeit von dem Wert einer zu modifizierenden Eingangsfarbe aus der zusammengesetzten Transformationsdefinition mindestens ein Abtastwert ausgewählt. In Abhängigkeit von mindestens einem ausgewählten Abtastwert wird dann ein verarbeiteter Farbwert bestimmt. Als Abtastwert wird ein nächstliegender benachbarter Wert des Eingangsfarbwerts ausgewählt. Der verarbeitete Farbwert wird durch Interpolieren zwischen einer Vielzahl von ausgewählten Abtastwerten bestimmt.
  • Nach einem weiteren Merkmal der Erfindung können die gespeicherten Transformationsdefinitionen vorgegebene Transformationsddefinitionen und spezifische Transformationsdefinitionen nach den Eingaben eines Benutzers umfassen. Nach Empfang entsprechender Eingaben eines Benutzers für gewünschte Farbänderungen wird zum Implementieren der ausgewählten Farbänderungen eine spezifische Transformationsdefinition bereitgestellt. Spezifische Transformationen dieser Art können durch Modifizieren vorgegebener Transformationen oder durch Erzeugen völlig neuer Transformationen nach den Eingaben des Benutzers erstellt werden.
  • Die Erfindung wird im folgenden an Hand eines in der Zeichnung dargestellten Ausführungsbeispiels näher erläutert.
  • Es zeigen:
  • Fig. 1 eine schematische Darstellung des RGB-Farbenraums,
  • Fig. 2 ein Blockschaltbild eines erfindungsgemäßen Bildverarbeitungssystems,
  • Fig. 3(a) ein Ablaufdiagramm, das die Implementierung einer Folge vorgegebener Transformationsdefinitionen veranschaulicht,
  • Fig. 3(b) ein Ablaufdiagramm, das die Implementierung einer zusammengesetzten Transformationsdefinition veranschaulicht,
  • Fig. 4 ein Blockschaltbild einer Folge von Transformationsoperationen,
  • Fig. 5 ein Blockschaltbild eines Transformationsprozessors,
  • Fig. 6 ein detaillierteres Blockschaltbild eines einzelnen Kanals eines Transformationsprozessors,
  • Fig. 7(a) ein Diagramm, das die Verarbeitung eines ersten Punktes in dem Raum u'v'L* zu einem neuen Punkt in demselben Raum veranschaulicht,
  • Fig. 7(b) eine schematische Darstellung eines Satzes von Bezugspunkten in dem Farbenraum u'v'L*,
  • Fig. 8(a) und 8(b) Diagramme, die die Implementierung einer Folge von Transformationsdefinitionen veranschaulichen,
  • Fig. 8(c) ein Diagramm einer zusammengesetzten Transformation, die der in Fig. 8(a) und 8(b) dargestellten sequentiellen Implementierung der Transformationen gleichwertig ist,
  • Fig. 9 ein Blockschaltbild einer zusammengesetzten Transformationsdefinition und eines Prozessors zum Implementieren der zusammengesetzten Transformationsdefinition,
  • Fig. 10 ein Blockschaltbild, das das Laden der Gittertabellen der in Fig. 8(c) gezeigten zusammengesetzten Transformationsdefinition veranschaulicht,
  • Fig. 11 ein Blockschaltbild eines Satzes von Identitätstransformationsdefinitionen und eines Prozessors für deren Implementierung,
  • Fig. 12(a), 12(b) und 12(c) Diagramme, die ein alternatives Verfahren zur Berechnung von Abtastwerten einer zusammengesetzten Transformation und zum Laden der Abtastwerte in die Gittertabellen einer zusammengesetzten Transformationsdefinition veranschaulichen, und
  • Fig. 13 ein Diagramm, das ein Verfahren zum gleichzeitigen Laden der Gittertabellen aller Kanäle einer zusammengesetzten Transformationsdefinition veranschaulicht.
  • Ein in Fig. 2 dargestelltes Bildverarbeitungssystem 8 umfaßt eine Vielzahl von Eingabevorrichtungen 10 zum Abtasten eines Originalbildes (beispielsweise eines Fotos, eines Filmes oder eines im Sucher einer Kamera sichtbaren Motivs), von dem eine elektronische digitale Darstellung erstellt werden soll. Die elektronische Darstellung wird einem Bildprozessor 14 zugeführt, der die Farben des elektronischen Bildes korrigiert und das korrigierte Bild entweder auf einer Speichervorrichtung 17 speichert (damit es beispielsweise später abgerufen und verarbeitet werden kann) oder zum Ausdruck, zur Darstellung auf einem Monitor oder zur Übertragung über ein Netzwerk 15 oder einen anderen Übertragungskanal an verschieden Ausgabevorrichtungen 16 weiterleitet.
  • Der Bildprozessor 14 ist mit einer Benutzerschnittstelle 22 verbunden, über die der Benutzer die an einem elektronischen Bild gewünschten Transformationen angibt. Der Bildprozessor 14 und die Benutzerschnittstelle 22 werden im allgemeinen mit einem entsprechend programmierten Universalrechner oder einem Arbeitsplatzcomputer implementiert.
  • Nach entsprechender Anforderung durch den Benutzer wählt eine Transformationssteuereinheit 20 in einer Betriebsart aus einer Vielzahl gespeicherter vorgegebener Transformationen 19 einen Satz von Transformationsdefinitionen aus. Jede vorgegebene Transformationsdefinition beschreibt eine ganz bestimmte Transformation zum Verarbeiten der die einzelnen Farben eines Bildes darstellenden Werte in einem ersten Farbenraum zu einem anderen Satz von Werten (beispielsweise einer anderen Farbe in einem anderen Farbenraum) und ergibt auf diese Weise eine gewünschte Bildtransformation. Darüber hinaus bietet die Erfindung dem Benutzer die Möglichkeit eine spezifische Transformationsdefinition selbst zu erstellen. So kann der Benutzer über die Benutzerschnittstelle beispielsweise einen Satz zu ändernder Farben auswählen (beispielsweise aus einem Menü möglicher Farben). Der Benutzer kann dann die gewünschten Änderungen dieser Farben (beispielsweise eine bestimmte Erhöhung der Helligkeit) spezifizieren. In Abhängigkeit von der getroffenen Auswahl kann dann die Steuereinheit eine entsprechende spezifische Transformationsdefinition bereitstellen. Spezifische Transformationen dieser Art können durch Modifizieren vorgegebener Transformationen oder durch Erzeugen völlig neuer Transformationen in Abhängigkeit von den Eingaben des Benutzers erstellt werden.
  • Nach den Eingaben des Benutzers kann die Steuereinheit 20 die ausgewählten Transformationsdefinitionen, wie in Fig. 3a, 3b gezeigt, zu einer einzigen, zusammengesetzten Transformationsdefinition 28 zusammensetzen, damit das Bild aus der Eingabevorrichtung ohne Zwischenspeicherung verarbeitet und auf einem Monitor dargestellt (oder ausgedruckt) werden kann. Auswahl und Zusammensetzung erfolgen mit hinreichender Geschwindigkeit, damit der Benutzer im Dialog mit dem System die getroffene Auswahl ändern kann, bis das System ein gewünschtes Bild darstellt.
  • Statt dessen kann die Steuereinheit 20 auch, wie in Fig. 4 gezeigt, ein Bild nach einer Eingabetransformationsdefinition verarbeiten und das verarbeitete Bild auf der Speichervorrichtung 17 speichern. Die übrigen Transformationsdefinitionen können dann von der Steuereinheit 20 für eine spätere Verarbeitung des gespeicherten Bildes zusammengesetzt werden.
  • Wieder wie in Fig. 2 gezeigt, führt die Steuereinheit 20 die zusammengesetzte Transformationsdefinition 28 dem Transformationsprozessor 18 zu, der die Transformation nach der zusammengesetzten Transformationsdefinition 28 implementiert. Der Transformationsprozessor 18 kann als Software in einem Universalrechner implementiert werden, der an einer gegebenen Transformationsdefinition jede verlangte Transformation durchführt.
  • Wie in Fig. 3(a), 3(b) gezeigt, kann der Benutzer beispielsweise den Bildprozessor 14 anweisen, ein elektronisches Bild aus dem Scanner 10(a) anzunehmen, ausgewählte Transformationen des Bildes durchzuführen und das transformierte Bild auf einem Farbbildmonitor 16(a) darzustellen. Die Steuereinheit 20 wählt dann zuerst (und vorzugsweise automatisch) die Eingabetransformationsdefinition 12(a) zum Umwandeln des elektronischen Bildes aus dem Scanner 10(a) in einen "Bezugs"Farbenraum zur Verwendung bei der Durchführung weiterer Transformationen aus. Dabei verarbeitet die definierte Eingabetransformation jeden Punkt in dem RGBRaum des Scanners zu einem entsprechenden Punkt in dem wahrnehmungsabhängigen Farbenraum u'v'L* (also in dem "Bezugs"Raum). Bei dieser Umsetzung werden Besonderheiten des zugehörigen Scanners 10(a) von der Eingabetransformation ausgeglichen. So kann beispielsweise jeder Scanner 10(a), 10(b) in Abhängigkeit von einer gegebenen Farbe in dem RGBRaum andere Koordinaten erzeugen. Aus diesem Grunde werden die Eingabetransformationsdefinitionen L2(a), 12(b) (siehe Fig. 4) kalibriert, um Besonderheiten der einzelnen Scanner so auszugleichen, dass jeder Scanner beim Abtasten einer gegebenen Farbe in dem Bezugsraum u'v'L* denselben Punkt erzeugt.
  • Nach Auswahl der Eingabetransformationsdefinition 12(a) wählt die Steuereinheit 20 als nächstes die Transformationsdefinitionen 24 und 26 aus, die den vom Benutzer angeforderten Farbtransformationen entsprechen. So erhöht beispielsweise die Aufhelltransformationsdefinition 24 den Luminanzparameter L bestimmter blauer Farben im Bild. Die Raumlichttransformationsdefinition 26 korrigiert alle Farben, um die Lichtverhältnisse in der Umgebung des Displays 16(a) auszugleichen.
  • Abschließend wählt die Steuereinheit 20 (bei dem dargestellten Ausführungsbeispiel wiederum automatisch) die Ausgabetransformationsdefinition 15(a) aus, um das so verarbeitete Bild aus dem Bezugsfarbenraum in den für den Farbbildmonitor 16(a) erforderlichen RGB Farbenraum umzusetzen.
  • Wie aus Fig. 3(a) ersichtlich, könnten die ausgewählten Transformationen sequentiell durchgeführt werden, wenn das Bild mit jeder Transformationsdefinition in der Folge verarbeitet würde. Zur erfindungsgemäßen Beschleunigung der Verarbeitung setzt jedoch die Steuereinheit 20 die vier Transformationsdefinitionen 12(a) 24, 26 und 15(a) dynamisch zu der zusammengesetzten Transformationsdefinition 28 zusammen. Das elektronische Bild aus dem Scanner 10(a) wird dann nach der zusammengesetzten Transformationsdefinition 28 in nur einem Transformationsschritt verarbeitet und anschließend auf dem Farbbildmonitor 16(a) dargestellt.
  • Statt dessen kann der Benutzer jedoch auch, wie in Fig. 4 gezeigt, durch eine entsprechende Anforderung bewirken, dass das Bild aus dem Scanner 10(a) nach erfolgter Kalibrierung mit oder ohne weitere "Eingabe"Verarbeitung vor der Weiterverarbeitung und Darstellung auf dem Monitor auf einer Speichervorrichtung 17 gespeichert wird. In diesem Fall erteilt die Steuereinheit 20 dem Transformationsprozessor 18 den Befehl, das elektronische Bild nach der Eingabetransformationsdefinition 12(a) zu verarbeiten und das daraus resultierende kalibrierte Bild in einer Speichervorrichtung 17 zu speichern.
  • Zu einem späteren Zeitpunkt weist dann der Benutzer die Steuereinheit 20 an, das Bild mit einer "Aufhell"transformation zu modifizieren und das modifizierte Bild auf dem Monitor 16(a) so darzustellen, wie es der Drucker 16(b) ausdrucken würde. Die Steuereinheit 20 wählt dann automatisch die zur Implementierung dieser Aufgabe erforderlichen drei Transformationsdefinitionen 24, 30 und 15(a) aus. Mit der Aufhelltransformationsdefinition 24 werden die Farben so korrigiert, dass sie attraktiver wirken (beispielsweise durch Verbesserung bestimmter Blautöne). Die Bereichskomprimierungstransformationsdefinition 30 modifiziert das Bild so, dass es auf dem Monitor 16(a) genauso erscheint wie auf einem Ausdruck des Druckers 16(b). Wenn das elektronische Bild beispielsweise Farben enthält, die der Drucker nicht darstellen kann, verarbeitet die Bereichskomprimierungstransformation diese Farben zu ähnlichen anderen Farben, die im Bereich des Druckers liegen. Die Displaykalibrierungstransformationsdefinition 15(a) schließlich setzt das Bild in dem für den Monitor 16(a) erforderlichen RGBFarbenraum um und kalibriert dabei das Bild so, dass die Besonderheiten des Monitors ausgeglichen werden.
  • Die Steuereinheit 20 setzt die drei ausgewählten Transformationsdefinitionen zu einer einzigen zusammengesetzten Transformationsdefinition 29 zusammen. Sie ruft dann das vorher gespeicherte Bild aus dem Speicher 17 ab und erteilt dem Prozessor 18 den Befehl, das Bild zur Darstellung auf dem Monitor 16(a) nach der zusammengesetzten Transformationsdefinition 29 zu verarbeiten.
  • Wenn der Benutzer mit dem auf dem Monitor dargestellten Bild zufrieden ist, weist er die Steuereinheit an, mit dem Drucker 16(b) eine Hardkopie des Bildes zu erzeugen. Die Steuereinheit wählt dann die drei Transformationsdefinitionen 24, 30, 15(b) aus. Die ersten beiden dieser drei Definitionen, nämlich die Aufhelltransformationsdefinition 24 und die Bereichskomprimierungsdefinition 30, sind mit den zur Erzeugung des oben erwähnten Kontrollbildes verwendeten Aufhell- und Bereichstransformationsdefinitionen identisch. Dagegen hat die Druckerkalibrierungstransformationsdefinition 15(b) die Aufgabe, das Bild in den CMYKFarbenraum umzusetzen, um durch Kalibrieren des Bildes Besonderheiten des Druckers 16(b) auszugleichen.
  • Die Steuereinheit 20 setzt die ausgewählten Transformationsdefinitionen zu einer zusammengesetzten Transformationsdefinition 32 zusammen. Das gespeicherte Bild (in dem Farbenraum u'v'L*) wird dann zum Ausdruck (in dem CMYKFarbenraum) durch den Drucker 16(b) nach der zusammengesetzten Transformationsdefinition 32 verarbeitet.
  • Der Inhalt einer Transformationsdefinition und ein Mittel zum Implementieren dieser Definition werden an Hand der nachfolgenden Beschreibung einer Transformation für die Verarbeitung von Farbwerten eines Bildes in dem Farbenraum u'v'L* zu modifizierten Farbwerten in demselben Farbenraum u'v'L* erläutert. Der Fachmann wird erkennen, dass zum Bereitstellen und Implementieren von Transformationsdefinitionen für die Umsetzung von einem Farbenraum in einen anderen (beispielsweise für die Umsetzung von Farbwerten in dem Farbenraum u'v'L* in Farbwerte in dem CYMKFarbenraum) dieselben Verfahren angewandt werden können.
  • In Fig. 7(a) kennzeichnen die Koordinaten u', v', L* die Farbe eines einzelnen Pixels des zu transformierenden Bildes, das beispielsweise dem Punkt 42 in dem Bezugsfarbenraum entspricht. Zur Verarbeitung dieses Farbwerts verarbeitet der Transformationsprozessor 18 den Punkt 42 nach einer ausgewählten Transformationsdefinition zu einem neuen Punkt 44 mit den Koordinaten u'&sub1;, v'&sub1;, L*i. Auf dieselbe Weise werden die Farbkoordinaten u', v', L* für jedes Pixel des Eingabebildes sequentiell in den Transformationsprozessor 18 eingegeben und zu entsprechenden neuen Punkten in dem Bezugsfarbenraum verarbeitet.
  • Bei der bevorzugten Ausführungsform der Erfindung wird jede Koordinate eines Punkts in dem Bezugsfarbenraum von einem 8-Bit-Wert dargestellt. Dementsprechend können die drei Koordinaten u'v'L* 224 Punkte in dem Farbenraum kennzeichnen. Da das Speichern eines ganz bestimmten verarbeiteten Transformationsausgabewerts für jeden der 224 Punkte einen unverhältnismäßig großen Speicher erfordert, speichert jede Transformationsdefinition (beispielsweise die Transformationsdefinitionen 28, 29 und 32 gemäß Fig. 3, 4) statt dessen einen Satz von Abtastwerten ab.
  • So zeigt beispielsweise Fig. 7(b) acht Punkte 47(u&sub1; u&sub8;) in dem Raum uvL, für die Abtastwerte gespeichert sind. Die Koordinaten, für die jeweils ein Abtastwert gespeichert ist, definieren einen Punkt in dem Farbenraum, der hier als "Bezugspunkt" bezeichnet wird.
  • Für die Approximation des verarbeiteten Transformationsausgabewerts eines Punktes 44 mit Hilfe eines oder mehrerer Abtastwerte eignen sich die verschiedensten Verfahren. Bei einem besonders einfachen Verfahren ruft der Transformationsprozessor 18 aus der Transformationsdefinition den Abtastwert für den Bezugspunkt 47 (ui) ab, der dem Eingabepunkt 42 am nächsten liegt, und verwendet diesen als Punkt 44. (Dies bezeichnet man als Approximation mit Hilfe des "nächstliegenden benachbarten Werts"). Ausgeklügeltere Verfahren erfordern das Abrufen einer Vielzahl von Abtastwerten, die einer Vielzahl von Referenzpunkten 47 (ui) in der Umgebung des Eingabepunkts 42 entsprechen. Durch Interpolieren zwischen diesen abgerufenen Werten wird dann ein Schätzwert für den Transformationsausgabewert des Punktes 44 bestimmt.
  • Für die Transformation eines gegebenen Eingangsfarbwerts 42 ruft der Transformationsprozessor 18 gemäß Fig. 7B beispielsweise die gespeicherten Abtastwerte für jeden der acht Bezugspunkte 47 (u&sub1; u&sub8;) aus der Umgebung des Punktes 42 in dem Farbenraum ab. Durch Interpolation zwischen diesen acht Abtastwerten berechnet der Transformationsprozessor 18 einen Farbwert, der annähernd der Operation entspricht, die die Transformation an dem Eingangsfarbwert 42 durchführt. Wie im folgenden ausführlicher erläutert, erfordern einige Transformationsdefinitionen zur Bestimmung des endgültigen Transformationsausgabefarbwerts (also des Farbwerts mit den Koordinaten des Punktes 44) eine zusätzliche Verarbeitung dieses Farbwerts.
  • Wie aus Fig. 5 ersichtlich, wird die Transformationsdefinition 36 teilweise von dem in mehreren Abtastwertnachschlagetabellen 46, 48, 50 gespeicherten Abtastwerten definiert. So enthält beispielsweise die Tabelle 46 den Abtastwert "us" für jeden Bezugspunkt 47 (ui). In Abhängigkeit von den Koordinaten u', 'v', L* des Punkts 42 lokalisiert die Abtastwerttabelle 46 den Abtastwert "us" für jeden umgebenden Referenzpunkt 47(u&sub1; u&sub8;) (siehe Fig. 7b). Zusätzlich bestimmt die Abtastwertnachschlagetabelle 46 die Distanzwerte duu'&sub1; duv'&sub1; duL*&sub1; die die Position des Punktes 42 relativ zu dem Eckbezugspunkt 47(u&sub1;) angeben. Jeder der acht Abtastwerte us&sub1; us&sub8; wird mit den Distanzwerten duu'&sub1; duv'&sub1; duL* in einen trilinearen Interpolator 52 eingegeben. Unter Zugrundelegung der Distanzwerte duu'&sub1; duv'&sub1; duL* interpoliert der trilinearen Interpolator 52 in an sich bekannter Weise zwischen den acht Abtastwerten, um den verarbeiteten Wert u'p abzuleiten. Die ebenfalls der Transformationsdefinition 36 zugeordnete Ausgabetabelle 51 vervollständigt die Transformation, indem sie den verarbeiteten Wert u'p zu dem modifizierten Wert u, verarbeitet, der dem Punkt 47 entspricht.
  • Die Abtastwerttabelle 46, der trilineare Interpolator 52 und die Ausgabetabelle 51 bilden zusammen einen Kanal des Transformationsprozessors 18. Der Transformationsprozessor 18 weist für die Berechnung eines jeden Parameters der Ausgabe des Transformationsprozessors einen anderen Kanal auf. Dementsprechend berechnet ein zweiter Kanal (mit der Abtastwerttabelle 48, dem Interpolator 54 und der Ausgabetabelle 53) den Wert v'&sub1; und ein dritter Kanal (mit der Abtastwerttabelle 50, dem Interpolator 56 und der Ausgabetabelle 55) den Wert L*&sub1;. Ein weiteres Beispiel: Wenn dem Transformationsprozessor 18 die Transformationsdefinition 15(b) für die Umsetzung aus dem Raum u&sub1;v'L* in den CMYKRaum (siehe Fig. 4) eingegeben wird, dann sind vier Kanäle erforderlich, und zwar je einer für die Berechnung einer der vier veränderlichen Ausgabegrößen C, M, Y, K. Ein weiteres Beispiel: Wenn dem Transformationsprozessor 18 eine Transformationsdefinition für die Umsetzung von CMYK Daten in RGB Daten eingegeben wird, sind drei Kanäle erforderlich, und zwar je einer für die Berechnung der drei veränderlichen Ausgabegrößen R, G, B. Bei diesem Beispiel wird für jeden Kanal vorzugsweise eine vierdimensionale Gittertabelle vorgesehen mit jeweils einer Dimension für jede der veränderlichen Eingabegrößen C, M, Y, K. Zum Interpolieren zwischen Abtastwerten an ausgewählten Bezugspunkten in dem vierdimensionalen CMYKRaum wird bei diesem Beispiel vorzugsweise mit quadrilinearer Interpolation gearbeitet.
  • Bei der Belegung der Abtastwerttabellen kommt es wesentlich darauf an, dass die Koordinaten der Bezugspunkte, an denen Abtastwerte der Transformation vorberechnet werden, mit der nötigen Sorgfalt gewählt werden. Eine gegebene Transformation kann sich beispielsweise in einem bestimmten Bereich des Farbenraums linear verändern. Wenn die Transformationsdefinition zur Bestimmung von Schätzwerten zwischen einzelnen Punkten mit linearer Interpolation arbeitet, genügen möglicherweise sehr wenige Abtastwerte, um die Verarbeitung aller Farben in diesem Bereich zu beschreiben. In anderen Bereichen des Farbenraums kann sich die Bildtransformation jedoch nichtlinear ändern. In diesen Bereichen ist dann eine große Anzahl von Abtastwerten erforderlich, um die Transformation aller Pixel genau darzustellen (wenn die lineare Interpolation der Abtastwerte als Approximationsverfahren gewählt wird). Um eine solche ungleichförmige Verteilung von Bezugspunkten im gesamten Bezugsraum zu erzielen, arbeitet jede Abtastwerttabelle mit mehreren eindimensionalen Eingabetabellen, um die veränderliche Eingabegröße einer nichtlinearen Transformation zu unterziehen und auf diese Weise eine ungleichförmige Verteilung der Bezugspunkte in der mehrdimensionalen Transformationsdefinition zu erzielen.
  • In Fig. 6 und 7(b) werden die Abtastwerte der Abtastwerttabellen 46, 48, 50 beispielsweise in Gittertabellen 61, 63, 65 gespeichert. Nach Empfang der Koordinaten u'o, v'o, Lo* eines Eingangsfarbwerts liefern die Eingabetabellen 60, 62, 64 des ersten Kanals die Koordinaten Guu'&sub1; Guv'&sub1; GmL* (mit je 6 Bits) für die Auswahl des Eingangs der Gittertabelle 61, die den Abtastwert für den Eckbezugspunkt 47(u&sub1;) enthält. Durch selektive Erhöhung jeder der Koordinaten Guu'&sub1; GuL* um den Wert eins stellt die Gittertabelle 61 dem trilinearen Interpolator 52 die Abtastwerte aller anderen Umgebungspunkte 47(u&sub2; u&sub8;) zur Verfügung (12-Bit-Werte).
  • Zusätzlich stellen die Eingabetabellen 60, 62, 64 dem trilinearen Interpolator 52 die Distanzwerte duu'&sub1; duv'&sub1; duL* (mit je 12 Bits) zur Verfügung. Dabei liefert die Eingabetabelle 60 die Distanz duu'&sub1; die den Abstand des Eingangsfarbwerts (beispielsweise des Punkts 42) von dem Punkt 47 (u&sub1;) darstellt, als Bruchteil des Gesamtabstands zwischen den Punkten 47(u&sub1;) und 47(u&sub2;) in Richtung der u&sub1;Achse (siehe Fig. 7(b)). Entsprechend liefern die Eingabetabellen 62, 64 die Distanzen duv'&sub1; duL* als Bruchteile der Abstände des Eingangsfarbwerts (Punkt 42) von den Eckbezugspunkten längs der v' und L*Achsen.
  • Der trilineare Interpolator 52 liefert dann durch Berechnung des gewichteten Mittels der acht Abtastwerte unter Zugrundelegung der Distanzwerte duu'&sub1; duv'&sub1; duL* einen verarbeiteten Wert up mit 12 Bits. Dabei wertet der trilineare Interpolator die nachstehend aufgeführten Funktionen aus:
  • up = L (B(u&sub1;, u&sub2;, u&sub3;, u&sub4;, du&sub1; dL)1 B(u&sub5;, u&sub6;, u&sub7;, u&sub8;, du, dL), dv)
  • Darin stellt der Operator "L" eine lineare Interpolation zwischen zwei Werten nach der Gleichung L(a, b, I) = I (b) + (1I) a und der Operator "B" eine bilineare Interpolation zwischen vier Werten nach folgender Gleichung dar:
  • B(C, d, e, f, Icd, Ief) = L(L(c, d, Icd), L(e, f, Icd), Ief).
  • Zur weiteren Transformation des von dem Interpolator 52 verarbeiteten Werts mit 12 Bits in den modifizierten Wert u&sub1;' wird die 12-Bit-Ausgabe des Interpolators 52 für bestimmte Transformationen einer eindimensionalen Ausgabetabelle 51 eingegeben. Als Beispiel sei angenommen, dass folgende Funktion die Beziehung zwischen dem modifizierten Wert u&sub1;&sub1; und dem Eingangsfarbwert angibt:
  • Zur Berechnung des Werts log uo' + log vo' + log Lo* können die Eingabe und Gittertabellen entsprechend geladen werden. Die Ausgabetabelle wird dann so belegt, dass sie die Quadratwurzel dieses Werts berechnet und auf diese Weise den endgültigen modifizierten Wert U&sub1;' ableitet. Als Ergebnis enthalten die Gittertabellen Daten, die sich linear ändern.
  • Wie aus Fig. 6 ersichtlich, haben die beiden anderen Kanäle die gleiche Architektur wie oben beschrieben und berechnen die Koordinaten v&sub1;'L&sub1;* auf dieselbe Weise.
  • Das Zusammensetzen einer Vielzahl von Transformationsdefinitionen zu einer zusammengesetzten Transformationsdefinition wird im folgenden an Hand der Beschreibung der Zusammensetzung von drei Transformationsdefinitionen 24, 30, 15(a) zu einer einzigen zusammengesetzten Transformationsdefinition 29 erläutert.
  • Wie aus Fig. 9 ersichtlich, hat eine zusammengesetzte Transformationsdefinition 29 die gleiche Architektur wie andere Transformationsdefinitionen. So enthält die zusammengesetzte Transformationsdefinition 29 beispielsweise drei Sätze von Eingabetabellen 141, 143, 145, die jeweils in eine entsprechende Gittertabelle 140, 142, 144 indiziert werden. Typisch für die Definition 29 ist, dass sie auch einen Satz von Ausgabetabellen 151, 153, 155 zum Erzeugen eines Ausgabewerts in Abhängigkeit von einem durch Interpolation zwischen mehreren Gittertabelleneingängen abgeleiteten verarbeiteten Wert enthält.
  • Die Tabellen der zusammengesetzten Definition sind so aufgebaut, dass sie bei Implementierung durch einen Prozessor 118 eine Eingabe/Ausgabebeziehung ergeben, die der in aufeinander folgenden Schritten ablaufenden Operation der zusammenzusetzenden Transformationsdefinitionen gleichwertig (aber nicht notwendigerweise mit dieser identisch) ist. Wie im folgenden ausführlicher erläutert, implementiert die Transformationssteuereinheit 20 in aufeinander folgenden Schritten jede der Transformationsdefinitionen 24, 30, 15(a) an einem Satz von Bezugspunkten in dem Farbenraum und bestimmt an Hand der Ergebnisse den Inhalt der zusammengesetzten Transformationsdefinition.
  • Zur Simulierung dieser in aufeinander folgenden Schritten ablaufenden Operation bestimmt die Steuereinheit zuerst eine Reihenfolge, in der die Transformationsdefinitionen 24, 30, 15(a) zusammengesetzt werden sollen. Dabei kommt es wesentlich darauf an, dass die von den Ausgabetabellen jeder einzelnen Transformationsdefinition in der Reihenfolge erzeugten Farbwerte ein Format aufweisen, das mit dem von den Eingabetabellen der nächsten Transformationsdefinition in der Reihenfolge erwarteten Format kompatibel ist. Natürlich müssen sich die Ausgabe und die Eingabe in demselben Farbenraum befinden (z. B. beide in dem Farbenraum u v L*). Die beim Implementieren der Ausgabekalibrierungsdefinition 15(a) erzeugte RGB Ausgabe ist zum Beispiel mit den von den Eingabetabellen der Bereichskomprimierungsdefinition erwarteten u', v', L* Werten eindeutig nicht kompatibel.
  • Für entsprechende Koordinaten des Farbenraums müssen die Ausgabe und die Eingaben außerdem dieselbe Quantisierung verwenden. So verwendet beispielsweise die Ausgabe der Ausgabetabellen der Aufhelltransformationsdefinition 24 und die Eingabe der Eingabetabellen der Bereichskomprimierungstransformationsdefinition 30 beide für die Darstellung von Werten der Koordinate u' dieselbe Anzahl von Bits. Beide verwenden außerdem dieselbe Skalierung (d. h. denselben Bereich möglicher uWerte). Die Bitzahl in der Ausgabe kann natürlich reduziert werden, um sie einer nachfolgenden gröberen Quantisierungseingabe anzupassen. Zur Darstellung der einzelnen Farbenkoordinaten arbeiten Eingabe und Ausgabetabellen vieler Transformationsdefinitionen jedoch mit 8 Bits. Je nach Anwendung kann es wünschenswert sein, für Zusammensetzungszwecke die Auflösung der einzelnen Transformationsdefinitionen zu erhöhen (beispielsweise von 8 Bits auf 12 Bits). Dies kann beispeislweise durch lineare Interpolation zwischen 8BitWerten erfolgen.
  • Unter Zugrundelegung der vorstehend beschriebenen Kriterien implementiert die Steuereinheit 20 die Definitionen in folgender Reihenfolge: Aufhelldefinition 24, Bereichskomprimierungsdefinition 30 und Ausgabekalibrierungsdefinition 15(a). Die sequentielle Implementierung der Transformationsdefinitionen wird in Fig. 8(a) am Beispiel eines Satzes von Prozessoren 124, 130 und 115(a) veranschaulicht, von denen je einer eine der Transformationsdefinitionen implementiert. Jede Transformationsdefinition kann jedoch auch, wie oben erläutert, von einem gemeinsamen Prozessor mit einer beliebigen Kombination von Hardware und Software implementiert werden. So gesehen sind die Prozessoren 124, 130 und 115(a) auch für die sequentielle Implementierung der Transformationsdefinitionen 24, 30 und 15(a) mit nur einem Universalprozessor repräsentativ.
  • Wie in Fig. 8(b) und 8(c) gezeigt, wählt die Steuereinheit 20 bei einem Ausführungsbeispiel die Eingabetabellen 141, 143, 145 der ersten Transformation in der Reihenfolge (also der Aufhelltransformation) als Eingabetabellen der zusammengesetzten Transformationsdefinition 29. Entsprechend werden die Ausgabetabellen 151, 153, 155 der letzten Transformation in der Reihenfolge (also der Ausgabekalibrierungstransformation 115(a)) als Ausgabetabellen der zusammengesetzten Transformationsdefinition gewählt. Die Berechnung des Inhalts der zusammengesetzten Gittertabellen 140, 142, 144 erfolgt dann wie nachstehend beschrieben.
  • Fig. 10 veranschaulicht ein Verfahren zur Berechnung des Inhalts der zusammengesetzten Gittertabellen für den Fall, dass die Eingabetabellen 141, 143, 145 gemäß Fig. 8(c) identisch sind. Zur Berechnung eines Gittertabelleneingangs erzeugt eine Adressierungseinheit 106 eine dreidimensionale Gittertabellenadresse Gu' Gv' GL* und gibt die Adresse direkt in alle drei Gittertabellen 170, 172, 174 der Aufhelltransformation 124 ein. Die Gittertabellen 170, 172, 174 geben dann jeweils einen entsprechenden Eingang direkt in Ausgangstabellen 178 der Aufhelltransformation ein. (Zu beachten ist hier, dass keine Interpolation stattfindet, so dass das System effektiv die Verarbeitung eines vorberechneten Abtastfarbwerts für die Aufhelltransformation 124 simuliert). Der von den Ausgabetabellen 178 erzeugte resultierende Farbwert u&sub1;', v&sub1;', L&sub1;* wird von der Bereichskomprimierungstransformation 130 verarbeitet und ergibt einen Farbwert u&sub2;' v&sub2;' L&sub2;*, der seinerseits von der Ausgabekalibrierungstransformation 115(a) verarbeitet wird.
  • Die Ausgabekalibrierungstransformation 115(a) erzeugt einen verarbeiteten Farbwert Rp, Gp, Bp, der nach Durchlaufen der Ausgabetabellen 151, 153, 155 den endgültigen verarbeiteten Wert R G B ergibt. Da eine zusammengesetzte Transformation 29 die identischen Ausgabetabellen 151, 153, 155 enthält, speichert die Steuereinheit 20 die verarbeiteten Farbwerte Rp, Gp, BP in den zusammengesetzten Gittertabellen 140, 142, 144 unter denselben Adressen Gu', Gv', GL*, die auch in die Gittertabellen 170, 172, 174 eingegeben wurden. Zum Belegen der übrigen Speicherzellen in den zusammengesetzten Gittertabellen wiederholt der Adressensortierer 106 diesen Ablauf und durchläuft dabei schrittweise den gesamten Gittertabellenadressenraum, bis jede Speicherzelle in den zusammengesetzten Gittertabellen 140, 142, 144 mit einem verarbeiteten Farbwert Rp, Gp, Bp belegt ist.
  • Ein allgemeineres Verfahren für die Auswahl von Eingabetabellen und die Belegung von Gittertabellen für eine zusammengesetzte Transformation 29 wird im folgenden an Hand von Fig. 11 und 12 beschrieben. Zum Verständnis dieses Verfahrens empfiehlt es sich zu bedenken, dass die Eingabetabellen einer Transformation effektiv die Speicherzellen in dem Farbenraum definieren, für den Abtastwerte der Transformation vorberechnet und in den Gittertabellen gespeichert werden. Vor Beschreibung des allgemeinen Verfahrens wird daher im folgenden zunächst kurz dieser Aspekt der Eingabetabellen beschrieben. Wie aus Fig. 8(c) ersichtlich, ist der verarbeitete Wert Rp des ersten Kanals der zusammengesetzten Transformation eine Funktion des Eingangsfarbwerts uo', vo', Lo* (d. h. Rp = fR (uo', vo', Lo*)). Die Gittertabelle 140 speichert Abtastwerte der Funktion fR von verschiedenen Punkten innerhalb des Farbenraums. Wie weiter oben erläutert, ist es wünschenswert, in Bereichen des Farbenraums, in denen die Funktion im hohen Maße nichtlinear ist, viele Abtastungen der Funktion vorzunehmen. In Bereichen des Raums, in denen die Funktion linear ist, reichen weniger Abtastungen aus, weil die Werte der Funktion in diesem Bereich durch lineare Interpolation zwischen benachbarten Abtastungen genau geschätzt werden können.
  • Zum besseren Verständnis der nachfolgenden Erläuterungen an Hand von Fig. 5-7 sei daran erinnert, dass jeder Kanal in einer Transformationsdefinition einen Satz von drei Eingabetabellen aufweist. In Abhängigkeit von den Koordinaten eines Farbwerts (beispielsweise des Punkts 42 in dem Farbenraum) identifizieren die Eingabetabellen den Gitter-tabelleneingang, der den am benachbarten Bezugspunkt in dem Farbenraum 47(u&sub1;) bestimmten Abtastwert der Kanalfunktion (z. B. fR) enthält. Die Eingabetabellen liefern auch die Distanzwerte du, dv, dL für den Abstand des Farbwerts von dem benachbarten Bezugspunkt 47 (u&sub1;). Auf diese Weise wird jeder Eingang der Eingabetabellen von der Lage bestimmt, die die Bezugspunkte, an denen die Transformationsfunktion des Kanals abgetastet wurde, in dem Farbenraum einnehmen.
  • Da die anderen Kanäle der zusammengesetzten Transformation völlig anderen Funktionen des Eingangsfarbwerts entsprechen können, beispielsweise Gp = fG(uo'&sub1; vo' Lo*) und Bp = fB(uo'&sub1; vo'&sub1; Lo*), können sie Abtastungen an anderen Stellen in dem Farbenraum erfordern als fR. Wenn dies der Fall ist, muß jeder Kanal einen ganz bestimmten Satz von Eingabetabellen aufweisen, die die gewünschte Abtastung widerspiegeln.
  • Um Nichtlinearitäten in der Transformationsdefinition des Kanals auszugleichen, sollten die Bezugspunkte für einen gegebenen Kanal der zusammengesetzten Transformation im Idealfall über den gesamten Farbenraum verteilt sein. Da sich die Kennwerte der zusammengesetzten Transformation mit der vom Benutzer getroffenen Auswahl der zusammenzusetzenden Transformationen ändert, ist die Linearität der einzelnen Kanäle der zusammengesetzten Transformation jedoch zum Zeitpunkt der Zusammensetzung im allgemeinen nicht bekannt. Statt für jeden Kanal der zusammengesetzten Transformation einen eigenen Satz von Bezugspunkten auszuwählen und entsprechende Sätze von Eingabetabellen zu erzeugen, verwendet die Steuereinheit daher in der Regel, wie oben beschrieben, die Eingabetabellen der ersten Transformationsdefinition in der Reihenfolge als Eingabetabellen der zusammengesetzten Transformation (siehe Fig. 8a-8c). Die durch diese Tabellen definierten Bezugspunkte werden dann als Bezugspunkte für die Berechnung von i-n Eingängen der zusammengesetzten Gittertabellen verwendet. Wenn jedoch eine andere Transformation in der Reihenfolge (beispielsweise die Bereichskomprimierungstransformation) in hohem Maße nichtlinear ist, kann die Steuereinheit statt dessen für die zusammengesetzte Transformationsdefinition auch die Eingabetabellen dieser Definition verwenden. Andernfalls könnte ein großer Teil der in den Abtastungen der in hohem Maße nichtlinearen Transformation enthaltenen Informationen bei der Zusammensetzung verloren gehen. Schließlich kann die Steuereinheit statt dessen auch einen neuen Satz von Eingabetabellen bereitstellen, die eine ganz bestimmte Abtastung der zusammengesetzten Transformation widerspiegeln.
  • An Hand von Fig. 11 und 12 wird im folgenden ein Verfahren zur Erzeugung von Bezugspunkten des Farbenraums aus einem ausgewählten Satz von Eingabetabellen und zum Laden von verarbeiteten Bezugspunkten in entsprechende Speicherzellen der zusammengesetzten Gittertabellen beschrieben. Zu diesem Zweck wird für jeden Kanal der zusammengesetzten Transformation zuerst aus dem ausgewählten Satz von Eingabetabellen für den jeweiligen Kanal eine Identitätstransformationsdefinition erstellt. Eine Identitätstransformationsdefinition hat die gleiche Architektur wie andere Transformationsdefinitionen und enthält die ausgewählten Eingabetabellen, einen Satz Gittertabellen und wahlweise einen Satz Ausgabetabellen. Die Gittertabellen (und die Ausgabetabellen, sofern vorhanden) sind so aufgebaut, dass sie die Arbeitsweise der Eingabetabellen umkehren. Das bedeutet, dass die Identitätstransformationsdefinition bei Implementierung durch einen Prozessor am Ausgang einen Farbwert erzeugt, der mit dem eingegebenen Farbwert identisch ist.
  • Fig. 11 zeigt drei Identitättransformationsdefinitionen 112(a), 112(b), 112(c), die jeweils einem Kanal der zusammengesetzten Transformation entsprechen. Die Eingabetabellen 141 der Identitättransformationsdefinition 112(a) sind mit den für den uKanal der zusammengesetzten Transformation ausgewählten Eingabetabellen identisch. Die Umkehrgittertabellen 118(a), 120(a), 122(b) und die Umkehrausgabetabellen 119(a), 121 (a), 123(a) (wahlfrei) sind so belegt, dass sie gemeinsam eine Umkehrung der Arbeitsweise der Eingabetabellen 141 bewirken. In Abhängigkeit von einem gegebenen Eingabewert u', v', L* liefert daher der Prozessor 110 (der diese Definitionen implementiert) dieselben Koordinaten u', v', L*. Wie in Fig. 11 (b) und 11 (c) gezeigt, werden mit den Eingabetabellen 143 und 145 gleiche Identitätstransformationen für die v' und L*Kanäle erzeugt. Wie im folgenden beschrieben, können die den Eingabetabellen der einzelnen Kanäle entsprechenden Bezugspunkte jetzt problemlos aus den Umkehrgittertabellen und den Umkehrausgabetabellen der Identitätstransformation 112(a), 112(b) oder 112(c) des jeweiligen Kanals erzeugt werden.
  • Zum Erzeugen eines ersten Bezugspunktes uo'&sub1; vo'&sub1; Lo* des uKanals erzeugt, wie in Fig. 12(a) gezeigt, eine Adressierungseinheit 106(a) eine Gittertabellenadresse Guu'&sub1; Guy'&sub1; GuL* und wählt dadurch in jeder der Umkehrgittertabellen 118(a), 120(a), 122(a) den ersten Eingang aus. Die Gittertabelleneingänge werden direkt in die entsprechenden Umkehrausgabetabellen 119(a), 121 (a), 123(a) eingegeben. Die Ausgabetabellen liefern dann den Abtastfarbwert (d. h. den Referenzpunkt) uo'&sub1; vo'&sub1; Lo*. Dieser Farbwert wird von den drei Transformationen 124, 130 und 115(a) sequentiell verarbeitet. Der von dem uKanal des Ausgabekalibrierungsprozessors 115(a) erzeugte Wert Rp wird in der Gittertabelle 140 unter der Adresse Guu'&sub1; Guv'&sub1; GuL* gespeichert.
  • Zum Belegen der Gittertabelle 140 durchläuft die Adressierungseinheit 106 einfach schrittweise jede Kombination von Gittertabellenadressen (Guu'&sub1; Guv'&sub1; GuL*). Die Gittertabelle wird dann mit Abtastwerten einer Eingabe-/Ausgabebeziehung des uKanals geladen, die (in Verbindung mit der von den Ausgabetabellen 151 gelieferten Beziehung) der in aufeinander folgenden Schritten ablaufenden Operation der zusammenzusetzenden Transformationsdefinitionen gleichwertig (aber nicht notwendigerweise mit dieser identisch) ist.
  • Nach demselben Verfahren werden, wie in Fig. 12(b) und 12(c) gezeigt, auch die Gittertabellen 141, 144 der übrigen Kanäle der zusammengesetzten Transformation belegt. Unter Verwendung der Umkehrgittertabellen und der Umkehrausgabetabellen der Identitätstransformationen 112(b), 112(c) durchläuft dabei die Adressierungseinheit 106 in derselben Weise wie weiter oben beschrieben jeden Gittertabellenadressenraum, um die neuen zusammengesetzten Gittertabellen 142, 144 vollständig zu belegen.
  • Um die einzelnen Gittertabellen 140, 142, 144 in der beschriebenen Weise getrennt voneinander zu belegen, braucht die Steuereinheit jedoch unter Umständen viel Zeit. Daher ist es oft wünschenswert, Eingabetabellen 141, 143, 145 auszuwählen, die für alle Kanäle gleich sind. In diesem Fall wird unter Verwendung des allen Kanälen gemeinsamen Satzes von Eingabetabellen für alle drei Kanäle nur eine Identitätstransformation erstellt. Wie in Fig. 13 gezeigt, können dann alle drei Gittertabellen 140, 142, 144 mit den Umkehrgittertabellen und den Umkehrausgabetabellen derselben Identitätstransformation 186 geladen werden.

Claims (13)

1. Bildverarbeitungssystem zum Umwandeln eines Farbbildoriginals eines ersten Farbenraums in ein modifiziertes Farbbild eines zweiten Farbenraums, wobei das Originalbild durch ein Array von Eingangspixelwerten und das modifizierte Farbbild durch ein Array modifizierter Pixelwerte dargestellt wird und das System folgende Komponenten umfaßt:
- ein Speichermittel (19) zum Speichern einer Vielzahl von Farbbildtransformationsdefinitionen,
- eine Benutzerschnittstelle (22) zum Empfangen einer Benutzerauswahl von zumindest einer Farbbildtransformationsdefinition aus der Vielzahl der über das Array von Eingangspixelwerten durchzuführenden Farbbildtransformationsdefinitionen,
- ein Transformationssteuerrungsmittel (20) zum Auswählen von Farbbildtransformationsdefinitionen in Abhängigkeit von der Benutzerauswahl von zumindest einer Farbbildtransformationsdefinition,
- ein Verarbeitungsmittel zum Berechnen eines verarbeiteten Pixelwerts in dem zweiten Farbenraum aus einem Eingangspixelwert in dem ersten Farbenraum und aus mindestens einem Punkt einer Gruppe von Gitterpunkten in dem ersten Farbenraum, das folgende Komponenten aufweist:
- ein Adressenmittel zum Auswählen zumindest eines einem Gitterpunkt zugeordneten Abtastwerts, der einem zu modifizierenden Eingangspixelwert entspricht und ein nächstliegender benachbarter Wert des Eingangspixelwerts ist, und
- ein Approximationsmittel zum Bestimmen des verarbeiteten Pixelwerts auf der Grundlage des zumindest einen ausgewählten Abtastwerts, und
- ein Mittel zum Erzeugen einer zusammgensetzten Transformationsdefinition vorgesehen ist, wobei die zusammengesetzte Transformationsdefinition folgende Komponenten aufweist:
- eine mehrdimensionale Ergebnisgittertabelle mit Abtastwerten einer Eingabe-/Ausgabebeziehung einer zusammengesetzten Bildtransformation, und
- mindestens eine Eingabetabelle, die für jeden Eingangspixelwert die Ergebnisgittertabellenadresse des jeweiligen Eingangs für die Ergebnisgittertabelle enthält,
- wobei das System dadurch gekennzeichnet ist, dass jede Farbbildtransformationsdefinition folgende Komponenten aufweist:
- mindestens eine mehrdimensionale, die Abtastwerte enthaltende Gittertabelle (140, 142, 144, 170, 172, 174), und
- mindestens eine Eingabetabelle, die für jeden Eingangspixelwert die Gittertabellenadresse des jeweiligen Eingangs der Gittertabelle enthält, und
- das Mittel zum Erzeugen der zusammengesetzten Transformationsdefinition die mehrdimensionalen Gittertabellen kombiniert, um durch Ausgabe der Gitterpunkte der Gittertabelle für eine erste ausgewählte Farbbildtransformationsdefinition Gitterpunkte für die zusammengesetzte Bildtransformationen zu erzeugen und dadurch eine Ausgabe bereitzustellen, die später durch die anderen ausgewählten Farbbildtransformationsdefinitionen verarbeitet wird, um Abtastausgangswerte zu erzeugen, welche die Gitterpunkte der mehrdimensionalen Ergebnisgittertabelle der zusammengesetzten Bildtransformationsdefinition belegen.
2. Bildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, dass die zumindest eine Eingabetabelle für jeden Eingangspixelwert mindestens einen Distanzwert zusätzlich enthält.
3. Bildverarbeitungssystem nach Anspruch 2, dadurch gekennzeichnet, dass jede Farbbildtransformationsdefinition mindestens eine Ausgabetabelle aufweist, die für jeden der verarbeiteten Pixelwerte einen entsprechenden modifizierten Pixelwert angibt.
4. Bildverarbeitungssystem nach Anspruch 3, dadurch gekennzeichnet, dass das Transformationssteuerungsmittel folgendes umfaßt:
- ein Ablaufsteuerungsmittel zum Ordnen der ausgewählten Farbbildtransformationsdefinitionen in einer spezifizierten Reihenfolge, so dass sich die durch jede Transformation erzeugten modifizierten Pixelwerte im gleichen Farbenraum und in der gleichen Quantisierung befinden, die für die nächste Transformation in der Reihenfolge erforderlich ist.
5. Bildverarbeitungssystem nach Anspruch 4, dadurch gekennzeichnet, dass das Transformationssteuerungsmittel die zusammengesetzte Transformationsdefinition durch folgende Schritte erzeugt:
- Auswählen der zumindest einen Eingabetabelle einer ersten Farbbildtransformationsdefinition in der genannten Reihenfolge zur Verwendung als mindestens eine Eingabetabelle der zusammengesetzten Transformationsdefinition, und
- Auswählen der zumindest einen Ausgabetabelle einer letzten Farbbildtransformationsdefinition in der genannten Reihenfolge zur Verwendung als zumindest eine Ausgabetabelle der zusammengesetzten Transformationsdefinition.
6. Bildverarbeitungssystem nach Anspruch 5, dadurch gekennzeichnet, dass das Transformationssteuerungsmittel die Abtastwerte der mehrdimensionalen, zusammengesetzten Gittertabellen von den Abtastwerden der Vielzahl der Farbbildtransformationsdefinitionen ableitet.
7. Bildverarbeitungssystem nach einem der Ansprüche 1-6, dadurch gekennzeichnet, dass das Approximationsmittel zwischen einer Vielzahl von ausgewählten Abtastwerten interpoliert, um den verarbeiteten Pixelwert zu bestimmen.
8. Verfahren zum Umwandeln eines Farbbildoriginals eines ersten Farbenraums in ein modifiziertes Farbbild eines zweiten Farbenraums, wobei das Originalbild durch ein Array von Eingangspixelwerten und das modifizierte Farbbild durch ein Array modifizierter Pixelwerte dargestellt wird und das Verfahren folgende Schritte umfaßt:
- Speichern einer Vielzahl von Farbbildtransformationsdefinitionen,
- Empfangen einer Benutzerauswahl von zumindest einer Farbbildtransformationsdefinition aus der über das Array von Eingangspixelwerten durchzuführenden Farbbildtransformationsdefinitionen,
- Auswählen der gespeicherten Farbbildtransformationsdefinitionen in Abhängigkeit von der Benutzerauswahl von zumindest einer Farbbildtransformationsdefinition,
- Erzeugen einer mehrdimensionalen Ergebnisgittertabelle mit Abtastwerten einer Eingabe-/Ausgabebeziehung einer zusammengesetzten Bildttransformation und mindestens einer Eingabetabelle, welche die Ergebnisgittertabellenadresse einer entsprechenden Eingabe für die betreffende Ergebnisgittertabelle enthält, und
- Auswählen zumindest eines Abtastwerts, der einem zu modifizierenden Eingangspixelwert entspricht und ein nächstliegender benachbarter Wert des Eingangspixelwerts ist,
wobei das Verfahren durch folgende Schritte gekennzeichnet ist:
- Bereitstellen für jede Farbbildtransformationsdefinition:
- mindestens eine mehrdimensionale, die Abtastwerte enthaltende Gittertabelle (140, 142, 144, 170, 172, 174) und
- mindestens eine Eingabetabelle, die für jeden Eingangspixelwert die Gittertabellenadresse einer entsprechenden Eingabe der betreffenden Gittertabelle enthält, und
- Erzeugen der mehrdimensionalen Ergebnisgittertabellen (140, 142, 144) aus der Kombination der mehrdimensionalen Gittertabellen (170, 172, 174) durch Ausgabe der Gitterpunkte der Gittertabelle für eine erste ausgewählte Farbbildtransformationsdefinition und dadurch Bereitstellen einer Ausgabe, die später durch die anderen ausgewählten Farbbildtransformationsdefinitionen verarbeitet wird, um Abtastausgangswerte zu erzeugen, welche die Gitterpunkte der mehrdimensionalen Ergebnisgittertabelle der zusammengesetzten Bildtransformationsdefinition belegen.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die zumindest eine Eingabetabelle für jeden Eingangspixelwert mindestens einen Distanzwert zusätzlich enthält.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass das Erzeugen der zusammengesetzten Transformationsdefinition zusätzlich folgenden Schritt aufweist:
- Bereitstellen von zumindest einer Ausgabetabelle, die für jeden der verarbeiteten Pixelwerte einen entsprechenden modifizierten Pixelwert angibt.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass das Erzeugen der zusammengesetzten Transformationsdefinition zusätzlich folgenden Schritt aufweist:
- Ordnen der ausgewählten Farbbildtransformationsdefinitionen in einer spezifizierten Reihenfolge, so dass sich die durch jede Transformation erzeugten Pixelwerte im gleichen Farbenraum und in der gleichen Quantisierung befinden, die für die nächste Transformation in der Reihenfolge erforderlich ist.
12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass das Erzeugen der zusammengesetzten Transformationsdefinition zusätzlich folgende Schritte aufweist:
- Auswählen einer Vielzahl repräsentativer Pixelwerte, und sequentielles Verarbeiten jedes repräsentativen Pixelwerts nach der vorgeschriebenen Reihenfolge der Farbbildtransformationsdefinitionen.
13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass das sequentielle Verarbeiten jedes repräsentativen Pixelwerts folgende Schritte umfaßt:
a) Auswählen von zumindest zwei Abtastwerten einer ersten Farbbildtransformationsdefinition in der genannten Reihenfolge,
b) Interpolieren zwischen den zumindest zwei Abtastwerten, um einen mittleren Abtastwert abzuleiten,
c) Auswählen von zumindest zwei Abtastwerten einer zweiten Farbbildtransformationsdefinition auf der Grundlage des mittleren Abtastwerts,
d) Interpolieren zwischen den zumindest zwei Abtastwerten der zweiten Farbbildtransformationsdefinition, um einen zweiten mittleren Abtastwert abzuleiten, und
e) Wiederholen der Schritte c) und d) für jede Farbbildtransformationsdefinition in der genannten Reihenfolge.
DE69126014T 1990-09-28 1991-09-25 Farbbildverarbeitungssystem und verfahren zur vorbereitung eines zusammengesetzten bildtransformationsmoduls für mehrere ausgewählte bildtransformationen Expired - Lifetime DE69126014T3 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US59037590A 1990-09-28 1990-09-28
US71709991A 1991-06-18 1991-06-18
PCT/US1991/006911 WO1992006557A1 (en) 1990-09-28 1991-09-25 Color image processing system for preparing a composite image transformation module for performing a plurality of selected image transformations

Publications (3)

Publication Number Publication Date
DE69126014D1 DE69126014D1 (de) 1997-06-12
DE69126014T2 DE69126014T2 (de) 1997-12-11
DE69126014T3 true DE69126014T3 (de) 2002-05-02

Family

ID=27080826

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69126014T Expired - Lifetime DE69126014T3 (de) 1990-09-28 1991-09-25 Farbbildverarbeitungssystem und verfahren zur vorbereitung eines zusammengesetzten bildtransformationsmoduls für mehrere ausgewählte bildtransformationen

Country Status (6)

Country Link
EP (2) EP0503051B2 (de)
JP (1) JPH05502781A (de)
KR (1) KR920704496A (de)
DE (1) DE69126014T3 (de)
TW (1) TW198168B (de)
WO (1) WO1992006557A1 (de)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0668219A (ja) * 1992-08-17 1994-03-11 Fuji Xerox Co Ltd 色彩値処理装置
DE69324899T2 (de) * 1992-12-15 1999-10-21 E.I. Du Pont De Nemours And Co., Wilmington Farbangleichungsverfahren und -Gerät
GB2274039B (en) * 1992-12-30 1997-04-09 Still Holdings Limited An image reproduction process
DE69418512T2 (de) * 1993-03-08 1999-10-28 Canon Information Systems Research Australia Pty. Ltd., North Ryde Farbwandlungsvorrichtung
KR100320298B1 (ko) 1993-03-25 2002-04-22 마크 에이. 버거 영상처리방법및시스템
US5502580A (en) * 1993-10-06 1996-03-26 Fuji Photo Film Co., Ltd. Color reproduction system
JPH07222009A (ja) * 1994-01-31 1995-08-18 Canon Inc 画像処理装置及び方法
EP0675638A3 (de) * 1994-03-31 1996-01-24 Canon Kk Farbbildverarbeitungsverfahren und dieses benutzendes Gerät.
JPH07274021A (ja) * 1994-03-31 1995-10-20 Canon Inc 画像処理装置
US6108008A (en) * 1994-09-22 2000-08-22 Canon Kabushiki Kaisha Color image mapping within output device reproduction range
US5724450A (en) * 1994-09-30 1998-03-03 Apple Computer, Inc. Method and system for color image compression in conjunction with color transformation techniques
US5686953A (en) * 1994-11-22 1997-11-11 Minnesota Mining And Manufacturing Company Imaging system and method using linear perceived optical density interface
US6075888A (en) * 1996-01-11 2000-06-13 Eastman Kodak Company System for creating a device specific color profile
US5809164A (en) * 1996-03-07 1998-09-15 Polaroid Corporation System and method for color gamut and tone compression using an ideal mapping function
US6037950A (en) * 1997-04-18 2000-03-14 Polaroid Corporation Configurable, extensible, integrated profile generation and maintenance environment for facilitating image transfer between transform spaces
JPH1188584A (ja) * 1997-07-09 1999-03-30 Canon Inc 画像処理装置及び画像処理方法及びコンピュータ可読メモリ
US6327052B1 (en) 1998-06-29 2001-12-04 Electronics For Imaging, Inc. Color data inversion and reconversion
US6690489B1 (en) 1999-12-02 2004-02-10 Hewlett-Packard Development Company, L.P. Color conversion acceleration using lookup tables
FR2803156B1 (fr) * 1999-12-22 2002-11-22 Sagem Telecopieur couleur comportant un microprocesseur secondaire de traitement d'images
JP3818098B2 (ja) 2001-08-17 2006-09-06 ソニー株式会社 画像信号処理方法及び画像信号処理装置
JP4217398B2 (ja) * 2001-09-12 2009-01-28 キヤノン株式会社 画像データ処理方法、画像データ処理装置、記憶媒体、及びプログラム
JP4612870B2 (ja) * 2005-06-29 2011-01-12 キヤノン株式会社 画像処理装置及び方法
WO2007004111A1 (en) * 2005-06-29 2007-01-11 Koninklijke Philips Electronics, N.V. Method and system of converting rgb image data to ycbcr image data
JP4596155B2 (ja) 2005-07-26 2010-12-08 富士ゼロックス株式会社 画像処理装置、テーブル生成装置、画像形成システム、テーブル生成方法及びプログラム
US8456709B2 (en) 2009-11-17 2013-06-04 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and lookup table generation method
US9396571B2 (en) 2014-02-10 2016-07-19 International Business Machines Corporation Simplified lighting compositing

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3364249D1 (en) * 1982-03-30 1986-07-31 Crosfield Electronics Ltd Video retouching systems
US4839721A (en) * 1984-08-28 1989-06-13 Polaroid Corporation Method of and apparatus for transforming color image data on the basis of an isotropic and uniform colorimetric space
GB8500493D0 (en) * 1985-01-09 1985-02-13 Crosfield Electronics Ltd Video retouching systems
EP0258740B1 (de) * 1986-09-02 1995-07-19 Fuji Photo Film Co., Ltd. Verfahren und Vorrichtung zur Bildverarbeitung mit Gradationskorrektur des Bildsignals
GB8723203D0 (en) * 1987-10-02 1987-11-04 Crosfield Electronics Ltd Interactive image modification
US5073818A (en) * 1987-12-23 1991-12-17 Minolta Camera Kabushiki Kaisha Method for processing color image and apparatus therefor
US4941039A (en) * 1989-04-04 1990-07-10 Eastman Kodak Company Color image reproduction apparatus having a least squares look-up table augmented by smoothing

Also Published As

Publication number Publication date
EP0503051B2 (de) 2001-09-12
EP0703701A3 (de) 1996-06-12
EP0503051B1 (de) 1997-05-07
TW198168B (de) 1993-01-11
EP0703701A2 (de) 1996-03-27
JPH05502781A (ja) 1993-05-13
DE69126014T2 (de) 1997-12-11
DE69126014D1 (de) 1997-06-12
KR920704496A (ko) 1992-12-19
WO1992006557A1 (en) 1992-04-16
EP0503051A1 (de) 1992-09-16

Similar Documents

Publication Publication Date Title
DE69126014T3 (de) Farbbildverarbeitungssystem und verfahren zur vorbereitung eines zusammengesetzten bildtransformationsmoduls für mehrere ausgewählte bildtransformationen
DE69514977T2 (de) Farbdruckerabgleich zur Verbesserung lokaler Druckunregelmässigkeiten
DE69420874T2 (de) Verfahren zur geräteübergreifenden Farbbildkalibrierung und -verbesserung
DE69118162T2 (de) Farbgekoppelte Fehlerdiffusion
DE69615164T2 (de) Emulation eines halbtonrastergedruckten Bildes auf einer Vorrichtung zur Darstellung von kontinuierlichen Tönen
DE3650764T2 (de) Bildverarbeitungsgerät
DE69615928T2 (de) Verfahren und Gerät zum Verfeinern eines Farbbilderzeugungssystems für einen Drucker
DE69324899T2 (de) Farbangleichungsverfahren und -Gerät
DE69431294T2 (de) Bildverarbeitungsverfahren und -system
DE69428061T2 (de) Paralleles Fehlerdiffusionsverfahren und -gerät
DE69510495T2 (de) Verfahren und Vorrichtung zum Kalibrieren eines Vierfarbdruckers
DE69428932T2 (de) Bildverarbeitungsvorrichtung
DE69317567T2 (de) Verfahren und gerät zur kennzeichnung von farbausgabeeinrichtungen
DE69225574T2 (de) Farbbildverarbeitung
DE69413575T2 (de) Verfahren und Vorrichtung zur Transformation von Eingabefarbgrössen in einen Eingabefarbraum in Ausgabefarbgrössen in einen Ausgabefarbraum
DE69634040T2 (de) Verfahren und Gerät zur Bitratenreduktion und Rekonstruktion von Bilddaten mittels Ditherfeldern
DE69027649T2 (de) Elektronisches Grafikystem mit niedriger Kontrollbildauflösung
DE69808095T2 (de) Verfahren zur farbumsetzung zwischen bildsystemen
DE69412035T2 (de) Kaskadenartige Bildverarbeitung mit Histogrammvorhersage
DE69018694T2 (de) Vorrichtung zum Drucken eines Videobildes.
DE69524209T2 (de) Verfahren und vorrichtung zum umsetzen der signale eines farbenscanners in farbmetrische werte
DE69614482T2 (de) Bildverarbeitungssystem
DE69327827T2 (de) System aus Modifizierung der Aberration und Positionierung von Bildern
DE69416202T2 (de) Bildelementfehlerdiffusionsverfahren
DE69412741T2 (de) Farbraumumwandlung

Legal Events

Date Code Title Description
8363 Opposition against the patent
8366 Restricted maintained after opposition proceedings