DE69735083T2 - Bildverarbeitungssystem und -verfahren - Google Patents

Bildverarbeitungssystem und -verfahren Download PDF

Info

Publication number
DE69735083T2
DE69735083T2 DE69735083T DE69735083T DE69735083T2 DE 69735083 T2 DE69735083 T2 DE 69735083T2 DE 69735083 T DE69735083 T DE 69735083T DE 69735083 T DE69735083 T DE 69735083T DE 69735083 T2 DE69735083 T2 DE 69735083T2
Authority
DE
Germany
Prior art keywords
luminance
image
distribution
range
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69735083T
Other languages
English (en)
Other versions
DE69735083D1 (de
Inventor
Naoki Suwa-shi Kuwata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Application granted granted Critical
Publication of DE69735083D1 publication Critical patent/DE69735083D1/de
Publication of DE69735083T2 publication Critical patent/DE69735083T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • H04N1/4072Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on the contents of the original
    • H04N1/4074Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on the contents of the original using histograms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6027Correction or control of colour gradation or colour contrast

Description

  • Die vorliegende Erfindung betrifft ein Bildbearbeitungssystem, ein Bildbearbeitungsverfahren und ein Medium mit einem darauf aufgezeichneten Bildbearbeitungssteuerungsprogramm. Insbesondere betrifft die Erfindung ein Bildbearbeitungssystem und -verfahren zum Ausführen einer optimalen Bildbearbeitung unter Verwendung eines Computers sowie ein Medium mit einem darauf aufgezeichneten Bildbearbeitungssteuerungsprogramm.
  • Allgemeiner Stand der Technik
  • Bisher gab es für Bilddaten von natürlichen Bildern, wie beispielsweise Fotografien, und Bilddaten von zeichnungsartigen nicht-natürlichen Bildern bekannte Software-Programme wie beispielsweise Fotoretuschierungssoftware zur Durchführung verschiedener Effektbearbeitungen. Bei solchen Software-Programmen werden Bilddaten auf einer Anzeige oder dergleichen angezeigt, die ein Bediener einer gewünschten Bearbeitung unterzieht, um gut aussehende Bilddaten zu erzeugen.
  • Beispielsweise ist es im Fall des Lesens einer Fotografie durch einen Scanner zum Erhalt elektronischer Bilddaten manchmal erwünscht, den Kontrast und die Leuchtkraft des Bildes zu erhöhen.
  • Die europäische Patentschrift Nr. 0536821 offenbart ein Verfahren zum Verbessern der Bildqualität in einem medizinischen Bilddarstellungssystem. Das System beschäftigt sich mit der Aufnahme der kleinsten und größten Dichtewerte eines Bildes und der Erzeugung einer optimierten Anzahl von Graustufen zwischen diesen kleinsten und größten Dichtewerten.
  • Die europäische Patentschrift Nr. 0516083 offenbart einen Gradationskorrektor für einen Fernsehempfänger. Das Leuchtdichtehistogramm eines Eingangssignals wird gespeichert, und die Leuchtdichte wird ermittelt, einschließlich der Frequenzen, die 10 % (Leuchtdichtepegel am Anfang der Akkumulation) und 90 % (Leuchtdichtepegel am Ende der Akkumulation) der erfassten Gesamtfrequenz entsprechen. Dann wird anhand dieser Anfangs- und End-Leuchtdichtepegel ein kumulatives Histogramm erzeugt. Der maximale kumulative Wert wird erkannt, und es wird ein Normalisierungskoeffizient berechnet, der als ein Wert für eine Gradationskorrektur dient.
  • Als ein Verfahren zum Vergrößern des Kontrasts von Bilddaten kennt man das Verfahren, das in der japanischen Patentschrift Nr. 66318/95 offenbart ist, wobei die Leuchtdichte y vor der Transformation und die Leuchtdichte y' nach der Transformation gemäß dem folgenden Ausdruck (1) miteinander korreliert werden und die Leuchtdichte von Bilddaten anhand von Parameter "a" oder "b", der durch einen Bediener ausgewählt wird, transformiert wird, wodurch man ein kontrastreicheres Bild aus kontrastarmen Bilddaten erhält: y' = ay + b (1)
  • Andererseits kennt man als ein Verfahren zur Verstärkung der Sättigung zur Verstärkung der Leuchtkraft ein Verfahren, wobei der Wert einer gewünschten Farbkomponente in dem Fall erhöht wird, wo die Farbkomponenten von Bilddaten anhand von Gradationsdaten von Rot (R), Grün (G) und Blau (B) dargestellt werden.
  • Genauer gesagt, werden, wenn die Gradationsdaten im Bereich von 0 to 255 liegen, immer 20 zu den Gradationsdaten von Rot addiert, um die Farbe Rot kräftiger zu machen, oder es werden immer 20 zu den Gradationsdaten von Blau addiert, um die Farbe Blau kräftiger zu machen.
  • Unter verschiedenen Effektbearbeitungen findet sich also eine, die natürliche Bilder in schönere Bilder verwandelt, während einige Bilder nicht retuschiert werden müssen, wie beispielsweise zeichnungsartige Bilder.
  • Im letzteren Fall muss bei einem Bildbearbeitungssystem, das mit der oben angesprochenen herkömmlichen Software arbeitet, der Bediener die Art des Bildes auf der Anzeige beurteilen und aus verschiedenen Effektbearbeitungen eine zweckmäßige aussuchen, oder er muss den Grad der Bearbeitung beurteilen. Darum war es bisher unmöglich, diesen Arbeitsschritt zu automatisieren.
  • Beispielsweise war es bisher unmöglich, automatisch zu beurteilen, ob der Kontrast verstärkt werden soll oder nicht oder ob die Leuchtkraft verstärkt werden soll oder nicht.
  • Bei der Kontrastvergrößerung nutzen die herkömmlichen Verfahren lediglich die Technik, mehrere Einstellungen anzubieten, die sich zuvor in der Kontraststärke unterscheiden, und dann von der einen zur anderen überzuwechseln. Darum war es bisher unmöglich, die bevorzugteste Einstellung automatisch entsprechend den tatsächlichen Bilddaten auszuwählen. Insbesondere ist, wenn die Leuchtdichte gemäß dem zuvor genannten Ausdruck (1) geändert wird, das Ergebnis so, dass im Fall eines Bildes, das insgesamt hell ist, nur die Helligkeit verstärkt wird, oder im Fall eines Bildes, das insgesamt dunkel ist, nur die Dunkelheit verstärkt wird.
  • Natürlich lässt sich die Kontraststärke beispielsweise beim Fernseher einstellen, aber der Parameter "b", nämlich der Versatz, ist gleichmäßig, und es ist unmöglich gewesen, eine optimale Verstärkung für jedes einzelne Bild zu erreichen.
  • Auch was die Verstärkung der Leuchtkraft anbelangt, ist ein Mensch nötig, um zu beurteilen, bis zu welchem Grad die Verstärkung für jeden Bilddatensatz auszuführen ist, und es ist unmöglich gewesen, die am besten geeignete Verstärkung automatisch auszuwählen.
  • Des Weiteren gibt es nicht nur bei der Kontrastvergrößerungsbearbeitung, sondern auch bei der Sättigungsverstärkungsbearbeitung eine Tendenz zur Erhöhung des Wertes von Bilddaten. Deshalb kommt es, wenn im Anschluss an die Kontrastvergrößerung die Sättigung verstärkt werden soll, zu schreienden Farben im Bild. Dies ist nicht wünschenswert.
  • In diesem Zusammenhang wird bei dem oben angesprochenen herkömmlichen Bildbearbeitungssystem, wenn das eine auf einen richtigen Zustand justiert wurde und anschließend das andere justiert wird, das Ergebnis der vorherigen Justierung verfälscht, weshalb es schwierig ist, die Justierung wie gewünscht vorzunehmen.
  • US-Patent Nr. 5,181,105 offenbart eine Technik der automatischen Verringerung der Kontrastbreite von Bilddaten vor dem Hintergrund der Tatsache, dass ein Farbraum, der mit einem Kathodenstrahlröhrenbildschirm wiedergegeben werden kann, größer ist als der Farbraum eines Videodruckers. In diesem Fall braucht man lediglich zu veranlassen, dass die Bilddaten in den Farbraum des Videodruckers eintreten, der vorher bekannt ist. Somit ist eine Automatisierung möglich, weil unabhängig von der Art des Bildes nur eine solche Verringerung der Kontrastbreite notwendig ist. Eine solche Automatisierung hat nichts mit den oben angesprochenen Effektbearbeitungen zu tun, die darauf abzielen, die beste Bildqualität aus den Bilddaten herauszuholen. Somit ist die Anwendung des oben erwähnten Technik bedeutungslos.
  • Offenbarung der Erfindung
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung enthält ein Bildbearbeitungssystem die in Anspruch 1 dargelegten Merkmale.
  • In den abhängigen Ansprüchen werden Ausführungsformen der Erfindung zitiert.
  • Gemäß einem zweiten Aspekt der Erfindung wird des Weiteren ein Bildbearbeitungsverfahren bereitgestellt, wie in Anspruch 7 dargelegt.
  • Nicht alle Ausführungsformen fallen in den Geltungsbereich der Ansprüche.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Blockschaubild, das ein konkretes Hardwarekonfigurationsbeispiel einer Bildbearbeitungssystem zeigt.
  • 2 ist ein Blockschaubild, das die Bearbeitung zeigt, die im Inneren eines Computers abläuft.
  • 3 ist ein Blockschaubild, das eine detailliertere Konfiguration einer Bildbearbeitungsvorrichtung zeigt.
  • 4 ist ein Blockschaubild, das eine detailliertere Konfiguration eines Druckertreibers zeigt.
  • 5 ist ein Blockschaubild, das ein weiteres Anwendungsbeispiel des Bildbearbeitungssystems zeigt.
  • 6 ist ein Blockschaubild, das ein weiteres Anwendungsbeispiel des Bildbearbeitungssystems zeigt.
  • 7 ist ein Flussdiagramm, das eine Bildbearbeitung in einer Anwendung zeigt.
  • 8 ist ein Schaubild, das ein Bild vor der Transformation zeigt.
  • 9 ist ein Schaubild, das einen Abtastzyklus zeigt.
  • 10 ist ein Schaubild, das die Anzahl von Abtastpixeln zeigt.
  • 11 ist ein Schaubild, das eine Beziehung zwischen einem Bild vor der Transformation und einem Abtastbild zeigt.
  • 12 ist ein Flussdiagramm, das einen Leuchtdichteverteilungs-Abtast- und -Bearbeitungsabschnitt in dem Bildbearbeitungssystem zeigt.
  • 13 ist ein Flussdiagramm, das einen Leuchtdichte-Transformationsbearbeitungsabschnitt in dem Bildbearbeitungssystem zeigt.
  • 14 ist ein Schaubild, das ein Schwarz-Weiß-Bild zeigt.
  • 15 ist ein Schaubild, das eine Leuchtdichteverteilung des Schwarz-Weiß-Bildes zeigt.
  • 16 ist ein Schaubild, das ein Bild mit einem Rahmenabschnitt zeigt.
  • 17 ist ein Schaubild, das eine Leuchtdichteverteilung des gerahmten Bildes zeigt.
  • 18 ist ein Schaubild, das eine Bearbeitung für Bearbeitungsendabschnitte einer Leuchtdichteverteilung zeigt.
  • 19 ist ein Schaubild, das eine Ausweitung einer Leuchtdichteverteilung und eines reproduzierbaren Leuchtdichtebereichs zeigt.
  • 20 ist ein Schaubild, das eine Begrenzung eines Leuchtdichteverteilungsausweitungsverhältnisses zeigt.
  • 21 ist ein Schaubild, das eine Transformationstabelle zur Verwendung bei der Ausweitung einer Leuchtdichteverteilung zeigt.
  • 22 ist ein Schaubild, das ein Aufhellungskonzept mittels γ-Korrektur zeigt.
  • 23 ist ein Schaubild, das ein Abdunkelungskonzept mittels γ-Korrektur zeigt.
  • 24 ist ein Schaubild, das eine Korrelation beim Verändern der Leuchtdichte mittels γ-Korrektur zeigt.
  • 25 ist ein Flussdiagramm, das einen Sättigungstransformierungsprozess, der in dem Bildbearbeitungssystem durchgeführt wird, zeigt.
  • 26 ist ein Schaubild, das einen summierten Zustand in eine Sättigungsverteilung zeigt.
  • 27 ist ein Schaubild, das eine Sättigungsverteilung von Bilddaten, die nicht von einem natürlichen Bild stammen, zeigt.
  • 28 ist ein Schaubild, das eine Sättigungsverteilung eines Bildes mit einem Rahmenabschnitt zeigt.
  • 29 ist ein Schaubild, das eine Beziehung zwischen einer Sättigung A und einem Sättigungsverstärkungsindex S zeigt.
  • 30 ist ein Schaubild, das eine Sättigungsverstärkungsgrenze im Luv-Raum zeigt.
  • 31 ist ein Flussdiagramm, das eine Bildbearbeitung zeigt.
  • 32 ist ein Flussdiagramm, das eine kurze Übersicht über einen Kontrastvergrößerungsprozess zeigt.
  • 33 ist ein Flussdiagramm, das eine kurze Übersicht über einen Sättigungsverstärkungsprozess zeigt.
  • 34 ist ein Schaubild, das ein Anwendungskonzept eines Verstärkungsunterdrückungsprozesses, der in der Ausführungsform angewendet wird, zeigt.
  • 35 ist ein Schaubild, das ein Anwendungskonzept eines Verstärkungsunterdrückungsprozesses zeigt.
  • 36 ist ein Schaubild, das ein Anwendungskonzept eines Verstärkungsunterdrückungsprozesses zeigt.
  • 37 ist ein Schaubild, das ein Anwendungskonzept eines Verstärkungsunterdrückungskonzeptes, das unter Verwendung einer Transformationstabelle angewendet wird, zeigt.
  • 38 ist ein Schaubild, das ein Anwendungskonzept eines Verstärkungsunterdrückungsprozesses unter Verwendung eines interferenzfreien Bereichs zeigt.
  • 39 ist ein Flussdiagramm, das einen Kantenschärfungsprozess, der als eine Bildbearbeitung verwendet wird, zeigt.
  • 40 ist ein Schaubild, das eine Unschärfemaske zeigt.
  • 41 ist ein Schaubild, das eine verbesserte Unschärfemaske zeigt.
  • 42 ist ein Schaubild, das Richtungen für einen Vergleich mit benachbarten Pixeln in Bilddaten zeigt.
  • 43 ist ein Flussdiagramm, das zeigt, auf welche Weise ein Druckertreiber einen Druckprozess ausführt.
  • 44 ist ein Flussdiagramm einer Farbtransformationsbearbeitung unter Verwendung eines Cache- und Interpolationsberechnungsprozesses.
  • 45 ist ein Schaubild, das ein Konzept einer 8-Punkt-Interpolationsberechnung zeigt:
  • 46 ist ein Schaubild, das den Inhalt einer Cache-Tabelle zeigt.
  • 47 ist ein Flussdiagramm einer Vor-Graustufentransformierungsprozesses.
  • 48 ist ein Schaubild, das zeigt, auf welche Weise ein Fehler in jedem Pixel ausgebreitet wird.
  • Beschreibung einer speziellen Ausführungsform
  • Im Weiteren werden Ausführungsformen der vorliegenden Erfindung anhand der begleitenden Zeichnungen beschrieben.
  • 1 zeigt als ein Blockschaubild ein konkretes Hardwarekonfigurationsbeispiel eines Bildbearbeitungssystems gemäß einer Ausführungsform der vorliegenden Erfindung.
  • In der Figur sind ein Scanner 11, eine digitale Fotokamera 12 und eine Videokamera 14 als Bildeingabegeräte 10 bereitgestellt. Ein Computergehäuse 21 und eine Festplatte 22 sind als Bildbearbeitungsvorrichtungen 20 bereitgestellt, die eine maßgebliche Rolle in der Bildbearbeitung, einschließlich der Bildunterscheidung, spielen. Des Weiteren sind ein Drucker 31 und eine Anzeige 32 als Bildausgabegeräte 30 für die Anzeige und Ausgabe von Bildern nach der Bildbearbeitung bereitgestellt.
  • Im Inneren des Computergehäuses 21 vollzieht sich eine Bearbeitung, wie sie in 2 gezeigt ist. wie in derselben Figur gezeigt, arbeitet ein Betriebssystem 21a im Inneren des Computergehäuses 21, und ein Druckertreiber 21b und ein Videotreiber 21c sind entsprechend für den Drucker 31 bzw. die Anzeige 32 darin enthalten. Andererseits wird eine Anwendung 21d in ihrer Ausführung der Bearbeitung von dem Betriebssystem 21a gesteuert, und erforderlichenfalls arbeitet sie mit dem Druckertreiber 21b und dem Videotreiber 21c bei der Ausführung der vorgegebenen Bildbearbeitung zusammen.
  • Bei dieser Ausführungsform geben der Scanner 11 und die digitale Fotokamera 12 als Bildeingabegeräte 10 RGB-Gradationsdaten (Rot, Grün, Blau) als Bilddaten aus. Als Bildausgabegeräte 30 benötigt der Drucker 31 CMY (Cyan, Magenta, Yellow) oder CMYK (CMY + Schwarz) als Eingangssignal aus binären colorimetrischen Daten, und die Anzeige 32 benötigt RGB-Gradationsdaten als Eingangssignal. Deshalb besteht eine konkrete Rolle des Computergehäuses 21 als eine Bildbearbeitungsvorrichtung 20 darin, RGB-Gradations daten einzugeben, RGB-Gradationsdaten aufzubereiten, die einem notwendigen Verstärkungsprozess unterzogen wurden, und zu veranlassen, dass sie auf der Anzeige 32 durch den Videotreiber 21c angezeigt werden, oder zu veranlassen, dass sie mittels des Druckers 31 ausgedruckt werden, nachdem sie durch den Druckertreiber 21b in binäre CMY-Daten umgewandelt wurden.
  • Gemäß der bei dieser Ausführungsform ausgeführten Bildbearbeitung erkennt – bei Eingabe von Bilddaten in das Computergehäuse 21 – eine Farbenanzahlerkennungseinrichtung 21d1 in der Anwendung 21d die Anzahl an Farben, die in den eingegebenen Bilddaten verwendet werden. Dann beurteilt eine Bildunterscheidungseinrichtung 21d2 die Art des Bildes, und eine Bildbearbeitungsvorrichtung 21d3 führt automatisch eine zweckmäßige Bildbearbeitung durch, wobei diese Bearbeitung vorher entsprechend der Art des Bildes festgelegt wird. Nach der Bildbearbeitung werden die Bilddaten auf der Anzeige 32 durch den Videotreiber 21c angezeigt und werden nach der Bestätigung mittels des Druckertreibers 21b in Druckdaten umgewandelt, die mittels des Druckers 31 ausgedruckt werden.
  • Bei dieser Ausführungsform ist für die Bildbearbeitungsvorrichtung 21d3, die entsprechend der Art des Bildes eingestellt wird, ein Kontrastvergrößerungsprozess ein Sättigungsverstärkungsprozess und ein Kantenschärfungsprozess bereitgestellt, wie in 3 gezeigt. In dem Druckertreiber 21b, der Bilddaten in Druckdaten umwandelt, sind, wie in 4 gezeigt, eine Rastervorrichtung 21b1 zum Rastern der Druckdaten, eine Farbtransformationssektion 21b2, die eine Farbtransformation mittels einer Vor-Graustufentransformation oder mittels einer Kombination aus Cache- und Interpolationsberechnung ausführt, und eine Graustufentransformationssektion 21b3, die einen binären Codierungsprozess für Gradationsdaten nach der Farbtransformation ausführt, bereitgestellt.
  • Obgleich bei dieser Ausführungsform ein Computersystem zwischen den Bildeingabe- und -ausgabegeräten angeordnet ist, um die Bildbearbeitung durchzuführen, ist ein solches Computersystem nicht immer notwendig. Es kann eine solche Systemkonfiguration, wie in 5 gezeigt, verwendet werden, wobei in der digitalen Fotokamera 12a Bildbearbeitungsvorrichtungen zur Kontrastvergrößerung eingebaut sind und Bilddaten nach der Transformation auf einer Anzeige 32a angezeigt oder mittels eines Druckers 31a ausgedruckt werden. Wie in 6 gezeigt, kann im Fall eines Druckers 31b, der Bilddaten eingibt und ausdruckt, ohne dass sie ein Computersystem durchlaufen, der Drucker so aufgebaut sein, dass der Kontrast von Bilddaten, die durch einen Scanner 11b, eine digitale Fotokamera 12b oder ein Modem 13b eingegeben werden, automatisch verstärkt wird.
  • 7 ist ein Flussdiagramm entsprechend der Bildbearbeitung in der Anwendung. In den Schritten S102 und S104 werden Leuchtdichten zu einer Leuchtdichteverteilung summiert, und die Anzahl der verwendeten Farben wird festgestellt.
  • Im Folgenden wird zuerst auf den Leuchtdichteverteilungserkennungsprozess eingegangen.
  • Bevor erklärt wird, in welcher Weise die Leuchtdichte darzustellen ist, richtet sich unser Augenmerk auf die Beschreibung von Pixeln, die zu einer Leuchtdichteverteilung zu summieren sind. Wie in Schritt S102, der in 7 gezeigt ist, wird eine Bearbeitung zum Zweck der Ausdünnung der betreffenden Pixel ausgeführt. Wenn, wie in 8 gezeigt, das eingegebene Bild ein Bitmap-Bild ist, so wird es in eine zweidimensionale Punktmatrixform gebracht, die eine vorgegebene Anzahl von Punkten in Längsrichtung und eine vorgegebene Anzahl von Punkten in seitlicher Richtung aufweist. Für den Erhalt einer korrekten Leuchtdichtever teilung ist es notwendig, die Leuchtdichte hinsichtlich aller Pixel zu überprüfen. Der in Rede stehende Verteilungserkennungsprozess zielt jedoch darauf ab, die Anzahl der verwendeten Farben indirekt anhand der Leuchtdichte zu erkennen, weshalb er nicht immer korrekt zu sein braucht. Deshalb ist es möglich, das Ausdünnen von Pixeln innerhalb eines bestimmten Fehlerbereichs zu bewirken. Entsprechend einem statistischen Fehler wird ein Fehler bezüglich der Anzahl von Abtastungen N allgemein als 1/(N**(1/2)) ausgedrückt, wobei ** für eine Potenz steht. Dementsprechend ist zum Ausführen der Bearbeitung mit einem Fehler von ungefähr 1 % N gleich 10000.
  • In diesem Zusammenhang enthält der in 8 gezeigte Bitmapschirm eine (Breite) × (Höhe) Anzahl von Pixeln, und ein Abtastzyklusverhältnis wird folgendermaßen angenommen: Verhältnis = min. (Breite, Höhe)/A + 1 (8)
  • In dem obigen Ausdruck steht "min. (Breite, Höhe)" für die Breite oder die Höhe, je nachdem, was kleiner ist, und A ist eine Konstante. Des Weiteren zeigt das Abtastzyklusverhältnis die Anzahl von Pixeln an, bei der das Abtasten erfolgt. Die mit einem O gekennzeichneten Pixel in 9 stellen ein Abtastzyklusverhältnis von 2 dar. Das heißt, das Abtasten eines Pixels erfolgt alle zwei Pixel in Längs- und seitlicher Richtung. Somit erfolgt das Abtasten bei jedem zweiten Pixel. Wenn man davon ausgeht, dass A gleich 200 ist, so ist die Anzahl von Abtastpixeln in einer Zeile wie in 10 gezeigt.
  • Wie derselben Figur zu entnehmen ist, beträgt die Anzahl von Abtastungen mindestens 100 Pixel oder mehr, wenn die Breite 200 Pixel oder mehr beträgt, es sei denn, dass Abtastzyklusverhältnis wäre 1, womit aber keine Abtastung stattfindet. Deshalb ist im Fall von 200 Pixeln oder mehr in Längs- und seitlicher Richtung (100 Pixel) × (100 Pixel) = (10000 Pixel) gewährleistet, und die Fehlerquote kann auf 1 % oder weniger gehalten werden.
  • Dass das Abtastzyklusverhältnis auf "min. (Breite, Höhe)" basiert, hat folgenden Grund. Wenn beispielsweise Breite Höhe, wie bei dem in 11(a) gezeigten Bitmap-Bild, so kann es, wenn das Abtastzyklusverhältnis anhand der größeren Breite ermittelt wird, zu dem Phänomen kommen, dass Pixel in Längsrichtung in nur zwei Zeilen am oberen und am unteren Ende abgetastet werden, wie in 11(b) gezeigt. Wenn jedoch das Abtastzyklusverhältnis anhand der kürzeren Abmessung bestimmt wird, wie bei "min. (Breite, Höhe)", so wird es möglich, ein Ausdünnen von Pixeln dergestalt zu bewirken, dass ein Zwischenabschnitt auch in der Längsrichtung der kürzeren Abmessung aufgenommen wird, wie in 11(c) gezeigt.
  • In diesem Beispiel erfolgt das Ausdünnen von Pixeln in einem korrekten Abtastzyklus für Pixel sowohl in Längs- als auch in seitlicher Richtung. Dies ist in dem Fall zweckmäßig, wo nacheinander eingegebene Pixeln bearbeitet werden, während sie ausgedünnt werden. In dem Fall jedoch, wo alle Pixel eingegeben wurden, können Koordinaten nach dem Zufallsprinzip in Längs- oder seitlicher Richtung zugewiesen werden, um Pixel auszuwählen. Dadurch kann, wenn eine erforderliche Mindestanzahl von Pixeln, beispielsweise 10000 Pixel, bestimmt wurde, der Abtastprozess nach dem Zufallsprinzip bis zu 10000 Pixel wiederholt werden, und kann gestoppt werden, wenn die 10000 Pixel abgetastet wurden.
  • Wenn die Bilddaten der auf diese Weise ausgewählten Pixel Leuchtdichten als Bestandteile aufweisen, so kann man unter Verwendung der Leuchtdichtewerte eine Leuchtdichteverteilung erhalten. Andererseits erhält man selbst im Fall von Bilddaten, wo die Leuchtdichtewerte keine direkten Komponentenwerte sind, indirekt Komponentenwerte, welche die Leuchtdichte anzeigen. Deshalb ist es bei einer Transformation von einem Farbspezifikationsraum, bei dem die Leuchtdichtewerte keine direkten Komponentenwerte sind, zu einem Farbspezifikationsraum, bei dem die Leuchtdichtewerte direkte Komponentenwerte sind, möglich, Leuchtdichtewerte zu erhalten.
  • Es ist nicht so, dass die Farbtransformation zwischen verschiedenen Farbspezifikationsräumen in einer einheitlichen Weise bestimmt wird, sondern es ist erforderlich, zuerst eine Korrelation von Farbräumen, die Komponentenwerte als Koordinaten enthalten, zu bestimmen und dann nacheinander eine Transformation durchzuführen, während in einer Farbtransformationstabelle mit den darin gespeicherten Korrelation nachgeschlagen wird. Aufgrund der Tabelle werden Komponentenwerte als Grauskalenwerte dargestellt, und im Fall von 256 Graustufen mit dreidimensionalen Koordinatenachsen muss die Farbtransformationstabelle etwa 16.700.000 (256 × 256 × 256) Elemente abdecken. Im Hinblick auf eine effektive Ausnutzung der Speicherressource werden Korrelationen gewöhnlich hinsichtlich sporadischer Gitterpunkte und nicht aller Koordinatenwerte hergestellt, und es wird eine Interpolationsberechnung verwendet. Da diese Interpolationsberechnung durch verschiedene Multiplikationen und Additionen möglich ist, wird das Berechnungsvolumen riesig.
  • Genauer gesagt, wird bei Verwendung einer Farbtransformationstabelle von voller Größe das Bearbeitungsvolumen kleiner, aber die Tabellengröße stellt ein unreales Problem dar, und wenn die Tabellengröße auf eine reale Größe gesetzt wird, wird in vielen Fällen das Berechnungsvolumen unreal.
  • Bei dieser Ausführungsform wird im Hinblick auf solche Umstände der folgende Transformationsausdruck verwendet, der die Leuchtdichte anhand der drei RGB-Primärfarben ermittelt. Genauer gesagt, wird die Leuchtdichte yp am Punkt P folgendermaßen anhand von RGB-Komponentenwerten (Rp, Gp, Bp) bestimmt: yp = 0,30Rp + 0,59Gp + 0,11Bp (9)
  • Unter Verwendung dieses Ausdrucks kann ein Leuchtdichtewert mit nur drei Multiplikationen und zwei Additionen erhalten werden.
  • Bei dieser Ausführungsform wird ein solcher Transformationsausdruck verwendet, weil der RGB-Farbspezifikationsraum verwendet wird, aber in seinem Hintergrund gibt es die Eigenart, dass jeder Komponentenwert die Farbhelligkeit darstellt und deshalb – bei jeweils unabhängiger Betrachtung – linear der Leuchtdichte entspricht. Allgemeiner ausgedrückt, ist deshalb die folgende Vereinfachung nicht unmöglich, ohne jedes Additionsverhältnis zu berücksichtigen: yp = (Rp + Gp + Bp)/3 (10)
  • Nachdem die Leuchtdichten mittels eines solchen Ausdünnungsprozesses summiert wurden, wird die Anzahl von Leuchtdichtewerten ungleich "0" in der Anzahl von Pixeln in Schritt S104 gezählt, wodurch die Anzahl der verwendeten Farben erkannt werden kann. Obgleich in Schritt S102 nicht nur Leuchtdichtewerte, sondern auch Sättigungswerte summiert werden, um ihre Verteilung festzustellen, wird dieser Summierungsprozess später beschrieben.
  • Nachdem die Anzahl der verwendeten Farben auf diese Weise festgestellt wurde, wird in Schritt S106 ein Vergleich zwischen der erkannten Anzahl an Farben und einem vorgegebenen Schwellenwert vorgenommen, und wenn die Anzahl der verwendeten Farben größer ist, so wird befunden, dass die betreffenden Bilddaten von einem natürlichen Bild stammen.
  • Beispielsweise kann der Schwellenwert auf "50" Farben gesetzt werden. Als andere Beispiele von Bilddaten außer natürlichen Bildern seien Geschäftsgrafiken und zeichnungsartige Bilder genannt, die unter Verwendung des Scanners 11 gelesen werden. In einigen Fällen wird ein Computergrafikbild durch den Scanner 11 gelesen oder wird von einem Netzwerk über das Modem 13b eingegeben.
  • Im Fall eines natürlichen Bildes wird in Schritt S108 eine zugehörige Markierung gesetzt. Der Grund für das Setzen der Markierung ist, dass das Ergebnis des Befundes auch an den Druckertreiber 21b in einer anderen Operation als der Bildbearbeitung in der Anwendung 21d übermittelt werden soll. Obgleich es bei dieser Ausführungsform nur einen einzigen Schwellenwert gibt, um zu beurteilen, ob die betreffenden Bilddaten ein natürliches Bild sind oder nicht, kann eine detailliertere Beurteilung in dem Bereich entsprechend der Anzahl der verwendeten Farben durchgeführt werden. Beispielsweise wird selbst im Fall eines Computergrafikbildes die Anzahl an Farben je nach Gradation manchmal größer, oder sie kann infolge eines unscharfen Kantenabschnitts zum Zeitpunkt des Lesens durch den Scanner 11 größer werden, obwohl die tatsächliche Anzahl an Farben nicht so groß ist. In diesem Fall kann ein Verfahren verwendet werden, bei dem solche Bilddaten zwischen natürlichen und nicht-natürlichen Bildern klassifiziert werden und nur ein Kantenschärfungsprozess durchgeführt wird, sogar ohne Vornahme der Bildbearbeitung für natürliche Bilder, wie später beschrieben.
  • Bei einem natürlichen Bild wird der Kontrast in Schritt S110 verstärkt; die Sättigung wird in Schritt S112 verstärkt; und die Kante wird in Schritt S114 geschärft.
  • Der Kontrastvergrößerungsprozess ist in den 12 und 13 anhand von Flussdiagrammen gezeigt. Wie in denselben Figuren gezeigt, sollten die folgenden Punkts beachtet werden, bevor man eine Leuchtdichteverteilung der Pixel, die mittels der oben angesprochenen Ausdünnungsbearbeitung ausgewählt wurden, erhält.
  • Ein Punkt betrifft den Fall, wo das betreffende Bild ein binäres Bild ist, wie beispielsweise ein Schwarz-Weiß-Bild. Im Fall eines binären Bildes, einschließlich eines Schwarz-Weiß-Bildes, ist das Konzept der Kontrastvergrößerung unzweckmäßig. Bei einem solchen Schwarz-Weiß-Bild, wie in 14 gezeigt, konzentriert sich eine Leuchtdichteverteilung dieses Bildes auf beide Enden eines reproduzierbaren Bereichs, wie in 15 gezeigt. Sie konzentriert sich praktisch auf die Graustufen "0" und "255."
  • Deshalb kann der Befund in Schritt S124 hinsichtlich der Frage, ob das eingegebene Bild ein Schwarz-Weiß-Bild ist oder nicht, anhand der Feststellung getroffen werden, ob die Summe aus Pixeln auf den Graustufen "0" und "255" mit der Anzahl der Pixel, die ausgedünnt und ausgewählt wurden, zusammenfällt oder nicht. Wenn das Bild ein Schwarz-Weiß-Bild ist, so geht der Bearbeitungsablauf zu Schritt S126 weiter, wo ein Verkleinerungsprozess ausgeführt wird, um die Bearbeitung zu stoppen, ohne Bearbeitungen zu durchlaufen, die folgen. Bei dieser Ausführungsform werden der Verteilungsabtastprozess und der Leuchtdichtetransformierungsprozess allgemein klassifiziert, und bei diesem Verkleinerungsprozess wird eine Markierung gesetzt, damit die letztere Stufe des Leuchtdichtetransformierungsprozesses nicht ausgeführt wird, wodurch dieser Verteilungsabtastprozess zu einem Ende gebracht wird.
  • Binäre Daten sind nicht auf Schwarz und Weiß beschränkt. Es kann vielmehr auch binäre Farbdaten geben. In diesem Fall ist es auch nicht notwendig, den Kontrastvergrößerungsprozess durchzuführen. Wenn eine Überprüfung des Zustandes der Verteilung zeigt, dass sich die Verteilung auf nur zwei Werte konzentriert (von denen einer gewöhnlich "0" ist), so werden die betreffenden Daten als binäre Daten angesehen, und die Bearbeitung kann unterbrochen werden.
  • Die zweite Punkt, der zu berücksichtigen ist, ist der, ob das eingegebene Bild ein natürliches Bild oder nicht ist. Dieser Befund kann anhand der Markierung erfolgen, die in Schritt S108 gesetzt wurde. Wenn die Anzahl an Farben gering ist, so ist die Leuchtdichteverteilung spärlich, und im Fall einer Geschäftsgrafik oder dergleichen wird sie in Form eines linearen Spektrums dargestellt. Ob die Verteilung in Form eines linearen Spektrums vorliegt oder nicht, kann anhand eines benachbarten Verhältnisses von Leuchtdichtewerten beurteilt werden, die in ihrer verteilten Anzahl nicht "0" sind. Genauer gesagt, wird eine Feststellung getroffen, ob es eine Verteilungszahl in benachbarten Leuchtdichtewerten gibt, die in ihrer verteilten Anzahl nicht "0" sind. Hinsichtlich der Verteilungszahl wird, wenn wenigstens einer von zwei benachbarten Leuchtdichtewerten in einem benachbarten Zustand ist, nichts unternommen, während, wenn keiner in einem benachbarten Zustand ist, eine Zählung erfolgt. Im Ergebnis kann eine Feststellung anhand des Verhältnisses zwischen der Anzahl von Leuchtdichtewerten, die nicht "0" sind, und dem gezählten Wert getroffen werden. Wenn beispielsweise die Anzahl von Leuchtdichtewerten, die nicht "0" sind, 50 beträgt und die Anzahl derjenigen, die nicht in einem benachbarten Zustand sind, 50 ist, so ist zu sehen, dass die Leuchtdichteverteilung die Form eines linearen Spektrums hat.
  • In dem Fall, wo das Bildbearbeitungsprogramm durch das Betriebssystem ausgeführt wird, kann die Feststellung, ob das eingegebene Bild ein natürliches Bild ist oder nicht, unter Verwendung eines Bilddateinamenszusatzes getroffen werden. In der Bitmapdatei, insbesondere für fotografische Bilder, wird die Datei komprimiert, und es wird oft ein impliziter Dateinamenszusatz zum Darstellen des Komprimierungsverfahrens verwendet. Beispielsweise zeigt der Datei namenszusatz "JPG" an, dass die Komprimierung im JPEG-Format erfolgt. Da das Betriebssystem den Dateinamen verwaltet, wird, wenn beispielsweise von der Druckertreiberseite eine Anfrage an das Betriebssystem erfolgt, der Namenszusatz der Datei übermittelt, so dass ein Verfahren verwendet werden kann, mit dem anhand des Dateinamenszusatzes festgestellt wird, dass das betreffende Bild ein natürliches Bild ist, und dann eine Kontrastvergrößerung vorgenommen werden kann. Im Fall eines Dateinamenszusatzes, der eine Geschäftsgrafik anzeigt, wie beispielsweise "XLS", ist es möglich festzustellen, dass eine Kontrastvergrößerung nicht ausgeführt wird.
  • Der dritte Punkt, der zu berücksichtigen ist, ist der, ob der Randabschnitt des Bildes gerahmt ist, wie in 16 gezeigt. Wenn der Rahmenabschnitt weiß oder schwarz ist, so beeinflusst dies die Leuchtdichteverteilung, und eine lineare Spektralform erscheint an jedem Ende in einem reproduzierbaren Bereich, wie in 17 gezeigt. Gleichzeitig erscheint auch eine glatte Leuchtdichteverteilung innerhalb der beiden Enden entsprechend dem inneren natürlichen Bild.
  • Weil es freilich sinnvoller ist, den Rahmenabschnitt bei der Leuchtdichteverteilung unberücksichtigt zu lassen, wird eine Feststellung getroffen, ob die Summe von Pixeln an den Graustufen "0" und "255" hinreichend groß ist und mit der Anzahl von Pixeln zusammenfällt, die ausgedünnt und ausgewählt wurden. Wenn die Antwort "Ja" ist, so wird befunden, dass es einen Rahmenabschnitt gibt, und in Schritt S132 erfolgt eine Rahmenbearbeitung. Bei dieser Rahmenbearbeitung wird die Anzahl von Pixeln in den Graustufen "0" und "255" in der Leuchtdichteverteilung auf "0" gesetzt, um den Rahmenabschnitt zu ignorieren. Dadurch können die nachfolgenden Bearbeitungen unter der Annahme durchgeführt werden, dass es keinen Rahmenabschnitt gibt.
  • Obgleich der in diesem Beispiel in Betracht gezogene Rahmenabschnitt weiß oder schwarz ist, gibt es manchmal einen Rahmen einer bestimmten Farbe. In diesem Fall erscheint eine lineare Spektralform, die aus der ursprünglichen glatten Kurve der Leuchtdichteverteilung herausragt. Deshalb wird bei einer linearen Spektralform, die einen großen Unterschied zwischen benachbarten Leuchtdichtewerten verursacht, davon ausgegangen, dass es sich um einen Rahmenabschnitt handelt, und wird nicht bei der Leuchtdichteverteilung berücksichtigt. Da es möglich ist, dass die besagte Farbe in jenem Abschnitt, bei dem es sich nicht um den Rahmenabschnitt handelt, verwendet wird, kann ein Mittelwert aus beiden benachbarten Leuchtdichtewerten zugewiesen werden.
  • Nach den obigen Überlegungen erhält man, wenn die Leuchtdichteverteilung vergrößert werden soll, beide Enden der Verteilung in Schritt S136.
  • Im Fall eines natürlichen Bildes erscheint dessen Leuchtdichteverteilung allgemein in einer Sparrenform, wie in 18 gezeigt, sofern verschiedener Positionen und Formen auftreten können. Die Breite der Leuchtdichteverteilung hängt von den Positionen beider Enden der Verteilung ab. Jedoch lassen sich bloße erweiterte Flankenpositionen, die der Verteilungszahl "0" entsprechen, nicht an beiden Enden einstellen. Das liegt daran, dass sich in den Flankenabschnitten die Verteilungszahl in der Nähe von "0" verschiebt und es bei statistischer Betrachtung zu einer unbegrenzten Änderung kommt, die sich an "0" annähert.
  • Aus diesem Grund werden Abschnitte, die sich in einem bestimmten Verteilungsverhältnis innerhalb der Seite mit der höchsten Leuchtdichte bzw. der Seite mit der geringsten Leuchtdichte im Verteilungsbereich befinden, als beide Enden angesehen. Bei dieser Ausführungsform wird dieses Verteilungsverhältnis auf 0,5 % eingestellt, wie in 18 gezeigt. Natürlich kann dieses E-Verhältnis nach Bedarf verändert werden. Indem auf diese Weise sowohl das obere als auch untere Ende um lediglich ein bestimmtes Verhältnis beschnitten werden, wird es möglich, weiße oder schwarz Stellen zu ignorieren, die beispielsweise durch Rauschen verursacht wurden. Ohne diese Bearbeitung würde auf jeden Fall eine weiße oder schwarze Stelle beide Enden in der Leuchtdichteverteilung bilden, so dass in vielen Fällen das untere und obere Ende to "0" und "255" in der Grauskala entsprechen. Dazu kommt es aber nicht, wenn der Abschnitt, der sich um 0,5 % Pixel im oberen Ende befindet, zu einem Endabschnitt gemacht wird.
  • Bei der eigentlichen Bearbeitung werden 0,5 % der zu bearbeitenden Pixel berechnet (die Gesamtzahl von Pixeln, die mittels Ausdünnen ausgewählt wurden, oder die Gesamtzahl von Pixeln, die mittels Entfernen der Pixel, die dem Rahmenabschnitt entsprechen, erhalten wurde); dann werden die jeweiligen Verteilungszahlen nacheinander von den Leuchtdichtewerten am oberen und unteren Ende in der reproduzierbaren Leuchtdichteverteilung zur Innenseite hin summiert, und es wird ein Leuchtdichtewert bestimmt, der 0,5 % entspricht. Diese Seite am oberen Ende und die Seite am unteren Ende werden im Folgenden als "y max" bzw. "y min" bezeichnet.
  • Obgleich bei dieser Ausführungsform sowohl das obere als auch das untere Ende mittels einer solchen Bearbeitung für die Leuchtdichteverteilung bestimmt wird, es ist auch möglich „ beide Enden mittels einer statistischen Bearbeitung zu bestimmen. Beispielsweise kann ein Verfahren verwendet werden, bei dem ein Abschnitt eines bestimmten Prozentanteils relativ zu einem Mittelwert aus Leuchtdichtewerten als ein Endabschnitt angesehen wird.
  • Die oben besprochene Bearbeitung entspricht der Vertei lungserkennungsbearbeitung. Als nächstes wird ein Leuchtdichtetransformierungsprozess beschrieben, der die Transformation von Bilddaten anhand der auf diese Weise erhaltenen Leuchtdichtewerte "y max" und "y min" vornimmt. Wenn in Schritt S126 ein Verkleinerungsprozess ausgeführt wird, so wird dies in Schritt S142 anhand einer vorgegebenen Markierung festgestellt, und die Bildbearbeitung wird beendet, ohne die Bearbeitungen, die folgen, auszuführen. Eine Basistransformation der Leuchtdichte geschieht in der folgenden Weise. Unter der Maßgabe, dass der reproduzierbare Leuchtdichtebereich 0 bis 255 ist, wird die Leuchtdichte Y nach der Transformation aus der Leuchtdichte y vor der Transformation und dem maximalen Wert "y max" und dem kleinsten Wert "y min" im Leuchtdichteverteilungsbereich entsprechend dem folgenden Ausdruck bestimmt: Y = ay + b (2)wobei: a = 255/(y max – y min) (3) b = –a·y min oder 255 – a·y max (4)
  • Bei dem obigen Transformationsausdruck ist, wenn Y < 0, Y = 0, und wenn Y > 255, so ist Y = 255. In demselben Ausdruck kann man sagen, dass "a" für Inklination und "b" für Versatz steht. Gemäß diesem Transformationsausdruck kann eine Leuchtdichteverteilung mit einer bestimmten schmalen Breite zu einem reproduzierbaren Bereich ausgeweitet werden, wie in 19 gezeigt. Bei der Ausweitung eines Leuchtdichteverteilungsbereichs stimmen der ursprüngliche und der vergrößerte Bereich im Histogrammbereich im Grunde miteinander überein, weil sich die Anzahl an Pixeln nicht ändert.
  • Wenn eine Leuchtdichteverteilung durch maximale Ausnutzung des reproduzierbaren Bereichs ausgeweitet wird, so entsteht manchmal ein weißfleckiger Eindruck eines helligkeitsbetonten Abschnitts oder ein flächig-schwarzer Eindruck in einem schattenintensiven Abschnitt. Um das zu vermeiden, ist der reproduzierbare Bereich bei dieser Ausführungsform begrenzt. Genauer gesagt, bleibt ein nicht-vergrößerter Bereich von 5 bezüglich eines Leuchtdichtewertes vom oberen und vom unteren Ende im reproduzierbaren Bereich. Infolge dessen werden die Parameter im Transformationsausdruck zu Folgendem: a = 245/(y max – y min) (11) b = 5 – a·y min oder 250 – a·y max (12)
  • In diesem Fall erfolgt keine Transformation in den Bereichen y < y min und y > max.
  • Somit wird der Bereich von 5 bezüglich eines Leuchtdichtewertes von jedem Endabschnitt als ein unvergrößerter Bereich eingestellt, um sowohl den helligkeitsbetonten Abschnitt als auch den schattenintensiven Abschnitt beizubehalten. Wenn jedoch ein verwendetes Bildausgabegerät es ermöglicht, sowohl den helligkeitsbetonten Abschnitt als auch den schattenintensiven Abschnitt relativ einfach zu reproduzieren, so kann der oben angesprochene Bereich schmaler gemacht werden, oder in dem Fall, wo die Reproduktionsleistung geringer ist, kann der oben angesprochene Bereich verbreitert werden. Es ist nicht immer erforderlich, die Vergrößerung vollständig zu stoppen. Das Vergrößerungsverhältnis kann schrittweise an der Grenzregion begrenzt werden.
  • 20(a) zeigt eine schmale Leuchtdichteverteilung eines Bildes. Wenn das Vergrößerungsverhältnis der Leuchtdichteverteilung (was a entspricht) in der oben beschriebenen Weise angewendet wird, so erhält man manchmal ein sehr großes Vergrößerungsverhältnis in Proportion zu einem reproduzierbaren Bereich. Obgleich es natürlich ist, dass die Kontrastbreite vom hellsten Abschnitt zum dunkelsten Abschnitt in einem Halbdunkelzustand, beispielsweise bei Einbruch der Nacht, schmal ist, kann in diesem Fall ein Versuch, den Bildkontrast in einem hohen Maß zu verstärken, zu einer Transformation in ein Bild führen, das wie ein Tageslichtbild aussieht. Da eine solche Transformation nicht erwünscht ist, wird das Vergrößerungsverhältnis dergestalt begrenzt, dass der Parameter 1,5 (~ 2) nicht übersteigt. Dadurch wird ein Halbdunkelzustand als solcher ausgedrückt.
  • Wenn das Vergrößerungsverhältnis nicht begrenzt wird, so ist das Ergebnis so, wie mit einer Punkt-Strich-Linie in 20(a) angedeutet. Wie in derselben Figur gezeigt, bleibt kein Extra-Abschnitt in dem reproduzierbaren Bereich nach der Transformation. Im dem Fall jedoch, wo der Vergrößerungsbereich beschränkt ist, wie mittels der Zweipunkt-Srich-Linie in 20(b) gezeigt, gibt es einigen Spielraum hinsichtlich der Verteilungsposition nach der Transformation. In einigen Fällen kann das Ganze zu hell oder zu dunkel sein.
  • Deshalb erfolgt bei dieser Ausführungsform die Transformation in der Weise, dass das Verhältnis der Bereiche (ml m2), die auf der Seite am oberen Ende und auf der Seite am unteren Ende im reproduzierbaren Bereich einer Leuchtdichteverteilung vor der Transformation übrig bleiben, mit dem Verhältnis der Bereiche (n1 : n2) übereinstimmt, die auf der Seite am oberen Ende und auf der Seite am unteren Ende nach der Transformation übrig bleiben. In diesem Fall wird der Parameter b im folgenden Weise bestimmt.
  • In der Leuchtdichteverteilung des Bildes vor der Transformation ist m1 = y min m2 = 255 – y max
  • Nun ist m1 + m2 = 255 – (y max – y min). Darum ist, wenn y dif = y max – y min, m1 + m2 = 255 – y dif.
  • In der Leuchtdichteverteilung des Bildes nach der Transformation ist n1 = y min n2 = 255 – y max.Gleichermaßen ist n1 + n2 = 255 – (Y max – Y min) = 255 – a (y max – y min) = 255 – a·y dif.
  • Da m1 : m2 = n1 : n2, ist n1 = m1(n1 + n2)/(m1 + m2) = y min(255 – a·y dif)/(255 – y dif).
  • Andererseits ist, da Y = ay + b, b = Y – ay, und somit ist b = Y min – a·y min = Y min {(255 – a·y dif)/(255 – y dif) – a} (13)
  • Des Weiteren kann man den Parameter b unter Verwendung von "y max" wie folgt erhalten: b = Y max – a·y max = 255 – (255 – y max) (255 – a·y dif)/(255 – y dif) – a y max (14)
  • Damit endet Schritt S144.
  • Wenn der obige Transformationsausdruck (Y = ay + b) bei jeder Transformation der Leuchtdichte ausgeführt wird, so ist das unlogisch. Das liegt daran, dass der Bereich der Leuchtdichte y nur von 0 bis 255 reichen kann, weshalb man die Leuchtdichte Y nach der Transformation schon vorher für alle Werte erhalten kann, welche die Leuchtdichte y annehmen kann. Deshalb wird diese Korrelation in Schritt S146 bestimmt und wird als solche in einer Tabelle gespeichert, wie in 21 gezeigt.
  • Zu dem Zeitpunkt, da eine solche Transformationstabelle gebildet wurde, wird es möglich, Bilddaten zu ändern. Jedoch ist nicht nur eine Kontrastvergrößerung mittels einer solchen Ausweitung des Leuchtdichtebereichs, sondern auch eine Justierung der Helligkeit sehr effektiv zur Erreichung des gewünschten Zwecks. Beispielsweise wird in dem Fall, wo die Ausdehnung einer Leuchtdichteverteilung auf der insgesamt dunklen Seite zu finden ist, wie in 22 mit einer durchgezogenen Linie angedeutet, die Ausdehnung vorzugsweise auf eine insgesamt helle Seite verschoben, wie in derselben Figur mit einer Strichlinie angedeutet. Wenn sich umgekehrt dia Ausdehnung einer Leuchtdichteverteilung auf der insgesamt hellen Seite befindet, wie in 23 mit einer durchgezogenen Linie angedeutet, so wird die Ausdehnung vorzugsweise zur insgesamt dunklen Seite verschoben, wie in derselben Figur mit einer Strichlinie angedeutet.
  • Bei dieser Ausführungsform wird im Ergebnis verschiedener Experimente ein Verfahren verwendet, bei dem ein Median "ymed" in einer Leuchtdichteverteilung bestimmt wird, und wenn er kleiner als 85 ist, so wird befunden, dass das betreffende Bild ein dunkles Bild ist, und das Bild wird mittels einer γ-Korrektur aufgehellt, die dem folgenden γ-Wert entspricht: y = ymed/85 (15)oder y = (ymed/85)** (1/2) (16)
  • In diesem Fall wird γ, selbst wenn γkleiner als 0,7 ist, als gleich 0,7 angenommen. Der Grund dafür ist, dass ohne eine solche Begrenzung eine Nachtaufnahme wie ein bei Tageslicht aufgenommenes Bild wirken würde. Übermäßige Helligkeit würde zu einem weißlichen Bild mit insgesamt schwachem Kontrast führen, so dass es wünschenswert ist, gleichzeitig die Sättigung zu verstärken.
  • Wenn andererseits ein Median ymed größer ist als 128, so wird befunden, dass das betreffende Bild ein helles Bild ist, und das Bild wird mittels γ-Korrektur abgedunkelt, was dem folgenden γ-Wert entspricht: y = ymed/128 oder (17) y = (ymed/128)**(1/2) (18)
  • In diesem Fall wird γ, selbst wenn γgrößer ist als 1,3, als gleich 1, 3 angenommen, und somit wird eine Grenze gesetzt, um übermäßige Dunkelheit zu vermeiden. Übermäßige Dunkelheit würde dazu führen, dass das Bild zu sehr in ein dunkles Bild gefärbt wird, weshalb es wünschenswert ist, den Grad der Sättigungsverstärkung abzuschwächen. Bei einem Objekt vor einem hellen Hintergrund jedoch würde ein solcher Abdunkelungsprozess manchmal einen negativen Einfluss auf das Bild ausüben. Der Grund dafür ist, dass beispielsweise bei einer Landschaftsaufnahme, in der der Himmel die Hälfte des Bildes einnimmt, oder bei einem Souvenirbild an einem schönen Tag das menschliche Gesicht aufgrund des Gegenlichts leicht in Dunkelheit untergeht. Da sowohl die dunklen als auch die hellen Abschnitte in solchen Bildern vermischt sind, ist in vielen Fällen eine Standardabweichung ystd der Leuchtdichte relativ hoch. Deshalb wird, wenn die Standardabweichung ystd größer als 70 ist, die γ-Korrektur zum Abdunkeln nicht ausgeführt.
  • Es ist optional, ob die γ-Korrektur für die Leuchtdichteverteilung vor der Transformation oder für die Leuchtdichteverteilung nach der Transformation erfolgen soll. 24 zeigt eine Korrelation für den Fall, wo eine γ-Korrektur vorgenommen wird. Wenn γ < 1, so erhält man eine nach oben ausgeweitete Kurve, und wenn γ > 1, so erhält man eine nach unten ausgeweitete Kurve. Das Ergebnis der γ-Korrektur kann in der Tabelle von 22 wiedergegeben werden. Die γ-Korrektur erfolgt für die Tabellendaten in Schritt S148. Zuletzt erfolgt in Schritt S510 die Transformation von Bilddaten. Die bis zu diesem Punkt erhaltenen Korrelationen dienen der Transformation der Leuchtdichte und sind keine Transformationsbeziehungen für die Komponentenwerte (Rp, Gp, Bp) auf RGB-Koordinatenachsen. Jedoch gilt der Transformationsausdruck (2) auch für die Korrelation mit den RGB-Komponentenwerten (Rp, Gp, Bp). Das heißt, die Komponentenwerte (R, G, B) können auch folgendermaßen relativ zu den Komponentenwerten (rr, gg, bb) vor der Transformation erhalten werden: R = a·rr + b (19) G = a·gg + b (20) B = a·bb + b (21)
  • Dies geht aus der Tatsache hervor, dass sowohl Ausdruck (2) als auch Ausdruck (4) lineare Korrelationen darstellen. Des Weiteren liegen – entsprechend dem Graustufenbereich von 0 bis 255 der Leuchtdichten y und Y – die RGB-Komponenten werte, d. h. (r, g, b), (R, G, B), ebenfalls in demselben Bereich. Es folgt, dass die oben angesprochenen Transformationstabellen der Leuchtdichten y und Y so verwendet werden können, wie sie sind.
  • Somit wird in Schritt S150 die Bearbeitung unter Zuhilfenahme der Transformationstabellen, die den Ausdrücken (19)–(21) entsprechen, um Bilddaten (R, G, B) nach der Transformation zu erhalten, bezüglich der Bilddaten (rr, gg, bb) von allen Pixeln wiederholt.
  • Der gesamte Arbeitsablauf lässt sich folgendermaßen zusammenfassen.
  • In Schritt S102, nachdem die Leuchtdichte y hinsichtlich jedes der ausgedünnten Pixeln erhalten wurde, um eine Leuchtdichteverteilung zu bestimmen, wird in Schritt S124 eine Feststellung getroffen, ob das betreffende Bild ein binäres Bild, wie beispielsweise ein Schwarz-Weiß-Bild, ist oder nicht, während in Schritt S128 befunden wird, ob das Bild ein natürliches Bild ist oder nicht. In Schritt S130 wird befunden, ob ein Rahmenabschnitt in den Bilddaten enthalten ist oder nicht, außer in dem Fall, wo das Bild ein binäres Bild ist oder kein natürliches Bild ist. Dann wird der Rahmenabschnitt, sofern vorhanden, entfernt, und die Bereiche von 0,5 % vom oberen und vom unteren Ende der erhaltenen Leuchtdichteverteilung werden entfernt, um beide Enden "y max" und "y min" der Verteilung zu erhalten.
  • Nachdem beide Enden "y max" und "y min" der Leuchtdichteverteilung erhalten wurden, werden in Schritt S144 die Parameter "a" und "b" aus den folgenden Beziehungen ermittelt, und in Schritt 146 wird eine Transformationsbeziehung von der Leuchtdichte y zur Leuchtdichte Y in einer Tabelle gespeichert: Y = ay + b (2) a = 245/(y max – y min) (11)b ist eines der Folgenden: b = 5 – a·y min oder 250 – a·y max (12) b = Ymin {(255 – a·y dif)/(255 – y dif) – a} (13) b = 255 – (255 – y max)(255 – a·y dif)/(255 – y dif) – a·y max (14)
  • In Schritt S148 wird nach Bedarf eine γ-Korrektur vorgenommen, und in Schritt S150 erfolgt eine Transformation von Bilddaten hinsichtlich aller Pixel.
  • Natürlich wird, wie oben angesprochenen, eine solche Bildbearbeitung nicht in dem Fall ausgeführt, wo das betreffende Bild ein binäres Bild ist oder kein natürliches Bild ist. Wenn jedoch die Bildbearbeitung gemäß der vorliegenden Erfindung ausgeführt wird, so wird es möglich, ein kraftvolles Bildes voller Licht und Schärfe zu erhalten, indem eine solche Korrektur vorgenommen wird, dass der Leuchtdichtebereich trotz eines sehr schwachen Kontrasts im Zustand der Fotografie ausgeweitet wird.
  • Obgleich bei dem oben angesprochenen Beispiel das Vergrößerungsverhältnis auf einen vorgegebenen bestimmten Wert begrenzt ist, kann eine Modifizierung in der Weise vorgenommen werden, dass es durch den Benutzer über eine vorgegebene grafische Benutzeroberfläche (GUI) auf dem Computer 21 ausgewählt werden kann. Es ist auch möglich, den Benutzer einen Teil der Bilddaten spezifizieren zu lassen und einen solchen Kontrastvergrößerungsprozess nur in dem betreffenden Bereich vorzunehmen.
  • Wenden wir uns wieder dem Flussdiagramm von 7 zu, wo auf die Vergrößerung des Kontrasts in Schritt S112 eine Sättigungsverstärkung folgt. Dieser Sättigungsverstärkungsprozess ist in 25 gezeigt. Bei dem Sättigungsverstärkungsprozess erhält man außerdem zuvor eine Sättigungsverteilung anhand von Bilddaten, woraufhin ein Sättigungsverstärkungskoeffizient S anhand der Sättigungsverteilung bestimmt wird. In diesem Fall – wie auch bei der Leuchtdichteverteilung – ist es nicht notwendig, die Sättigungswerte aller Pixel zu summieren. Die Sättigungswerte werden hinsichtlich der Pixel, die in Schritt S102 ausgedünnt wurden, erhalten und summiert. Wenn Bilddaten Sättigungswerte als ihre Komponentenfaktoren haben, so ist es möglich, eine Sättigungsverteilung unter Verwendung der Sättigungswerte zu bestimmen. Sogar Bilddaten mit Sättigungen, die keine direkten Komponentenfaktoren sind, werden indirekt mit Komponentenwerten bereitgestellt, die für die Sättigung stehen. Deshalb können Sättigungswerte mittels Vornahme einer Transformation von einem Farbspezifikationsraum, bei dem Sättigungen keine direkten Komponentenfaktoren sind, in einen gleichen Raum, in dem Sättigungswerte direkte Komponentenwerte sind, erhalten werden. Beispielsweise stellt im Luv-Raum als einem colorimetrischen Standardraum die L-Achse die Leuchtdichte (Helligkeit), während die U- und die V-Achse den Farbton darstellen. In diesem Fall stellt der Abstand von einem Schnittpunkt der U- und der V-Achse die Sättigung dar, so dass die Sättigung im Wesentlichen durch (U**2 + V**2)**(1/2) dargestellt wird. Jedoch ist das Berechnungsvolumen, das für eine solche Transformation erforderlich ist, riesig.
  • Bei dieser Ausführungsform wird deshalb ein Sättigungswert X folgendermaßen mittels direkter Nutzung von standardmäßigen RGB-Gradationsdaten als Bilddaten bestimmt: X = |G + B – 2 × R| (5)
  • Die Sättigung nimmt gewöhnlich einen Wert von O im Fall von R = G = B an und nimmt einen maximalen Wert im Fall einer RGB-Einzelfarbe oder einer Mischung aus jeweils zwei RGB-Farben mit einem vorgegebenen Verhältnis an. Anhand dieser Eigenart ist es möglich, die Sättigung entsprechend auszudrücken, aber auch gemäß dem Ausdruck (5) erhält man einen maximalen Sättigungswert im Fall einer Einzelfarbe Rot oder Hellblau, bei dem es sich um ein Farbgemisch aus Grün und Blau handelt, wobei die Sättigung 0 ist, wenn die Komponenten gleichmäßig sind. Auch bei den Einzelfarben Grün und Blau wird etwa der halbe Maximalwert erhalten.
  • Wo Komponenten durch nahezu gleiche Farbtonkomponentenwerte dargestellt werden, wie im RGB-Farbspezifikationsraum, in dem die Komponenten Farben jeweils unabhängig darstellen, ist es möglich, eine Substituierung durch folgende Ausdrücke vorzunehmen: X' = |R + B – 2 × G| (6) X' = |G + R – 2 × B| (7)
  • Jedoch erbrachte der vorherige Ausdruck (5) das beste Ergebnis.
  • Wenn Sättigungen der Pixel nach dem Ausdünnen anhand der RGB-Bilddaten und entsprechend dem Ausdruck (5) zu einer Sättigungsverteilung summiert werden, so erkennt man, dass die Sättigungen im Bereich von einem kleinsten Wert 0 bis zu einem maximalen Wert 511 verteilt sind und dass die Verteilung im Wesentlichen so ist wie in 26 gezeigt.
  • Jedoch ist es auch im Sättigungsverstärkungsprozess notwendig, dass binäre Schwarz-Weiß-Bilder, nicht-natürliche Bilder, wie beispielsweise zeichnungsartige Bilder, und gerahmte Bilder von der Bearbeitung ausgeschlossen werden. Im Fall eines binären Schwarz-Weiß-Bildes konzentrieren sich die Sättigungswerte X auf 0, während im Fall einer zeichnungsartigen Geschäftsgrafik eine solche Spektralform erhalten wird, wie sie in 27 gezeigt ist. Bei einem gerahmten Bild, wie in 28 gezeigt, besteht eine Tendenz, dass sich die Sättigungswerte X trotz einer leichten Verteilung auf 0 konzentrieren. Deshalb werden diese Bilder in den Schritten S204 bis S210 identifiziert und werden ausgeschlossen. Dann wird der Grad der Sättigungsverstärkung entschieden.
  • Genauer gesagt, wird in Schritt S212 auf der Grundlage einer Sättigungsverteilung, die durch Summieren von Sättigungswerten erhalten wurde, ein Sättigungsverstärkungsindex des betreffenden Bildes bestimmt. Wenn die erhaltene Sättigungsverteilung so ist, wie in 26 gezeigt, so wird bei dieser Ausführungsform ein Bereich, der von den höheren 16 im Hinblick auf eine Verteilungszahl beansprucht wird, innerhalb eines effektiven Bereich von Pixeln bestimmt. Dann wird auf der Grundlage der Annahme, dass die geringste Sättigung A in jenem 16 %-Bereich die Sättigung des Bildes darstellt, ein Sättigungsverstärkungsindex S unter Verwendung des folgenden Ausdrucks bestimmt:
    Wenn A < 92, S = –A × (10/92) + 50 (22)Wenn 92 ≤ A < 184, S = –A × (10/46) + 60 (23)Wenn 184 ≤ A < 230, S = –A × (10/23) + 100 (24)Wenn 230 ≤ A, S = 0 (25)
  • 29 zeigt eine Beziehung zwischen der Sättigung A und dem Sättigungsverstärkungsindex S. Wie in derselben Figur gezeigt, variiert der Sättigungsverstärkungsindex S graduell in dem Bereich von einem maximalen Wert 50 zu einem kleinsten Wert 0, so dass er bei einer kleinen Sättigung A groß ist und bei einer großen Sättigung A klein ist.
  • Obgleich bei dieser Ausführungsform ein Sättigungsbereich verwendet wird, der durch ein bestimmtes höheres Verhältnis in der summierten Sättigungsverteilung beansprucht wird, stellt dies keinerlei Begrenzung dar. Beispielsweise kann ein Mittelwert oder Median bei der Berechnung des Sättigungsverstärkungsindex' S verwendet werden. Jedoch führt die Verwendung eines bestimmten höheres Verhältnisses in der Sättigungsverteilung zu einem guten Gesamtergebnis, weil ein plötzlicher Fehler weniger Einfluss ausübt.
  • Bei der Verstärkung der Sättigung auf der Grundlage des Sättigungsverstärkungsindex' S kann, wenn Bilddaten einen Sättigungsparameter wie oben beschrieben haben, dieser Parameter transformiert werden. Jedoch kann in dem Fall, wo der RGB-Farbspezifikationsraum verwendet wird, wie in diesem Beispiel, die Sättigungsverstärkung in der Weise erfolgen, dass man einmal den Raum in den Luv-Raum als ein colorimetrisches Standardsystem transformiert und anschließend eine radiale Verschiebung im Luv-Raum vornimmt.
  • Zuerst werden unter Bezug auf die Farbtransformationstabelle RGB-Gradationsdaten (Rx, Gx, Bx) in Luv-Gradationsdaten (L, u, v) transformiert; dann werden die Gradationsdaten (L, u, v) entsprechend den folgenden Ausdrücken transformiert: u' = (S + 100)/100 × u (26) v' = (S + 100)/100 × v (27)
  • Wie zuvor angemerkt, wird, da der Sättigungsverstärkungsindex S von einem maximalen Wert 50 bis zu einem kleinsten Wert 0 reicht, (u, v) maximal 1,5 Mal zu (u', v') multipliziert. Wenn die Bilddaten RGB-Bilddaten sind, werden die Luv-Gradationsdaten (L, u', v') dann zu RGB rücktransformiert, womit dieser Bildtransformationsprozess beendet ist.
  • Bei den Transformationen der Ausdrücke (26) und (27) erfolgt die Sättigungsverstärkung ungeachtet des Parameters L, aber solche Transformationen sind nicht immer wünschenswert. 30' zeigt eine Zustand, in dem der Luv-Raum vertikal geschnitten ist. Wie in derselben Figur gezeigt, hat dieser Farbspezifikationsraum eine solche Form, dass die Böden der beiden Konen, die Scheitelpunkte bei L = 0 und L = 100 haben, zueinander weisen. Deshalb ist es, wenn die Koordinatenwerte (u, v) radial nach außen verschoben werden, um eine Ausweitung gemäß den Ausdrücken (26) und (27) durchzuführen, möglich, die Koordinatenwerte von Punkt B1 zu Punkt B1' in einem Bereich zu verschieben, wo die Leuchtdichte L nicht so klein ist; aber in einem Bereich, wo die Leuchtdichte L sehr klein ist, führt eine Verschiebung von Punkt B2 zu Punkt B2 zu einem Durchbrechen des Raumes, der eine invertierte Konusform hat. Eine solche Transformation ist eigentlich undurchführbar und führt zu einer Farbtonabweichung.
  • Als eine Gegenmaßnahme wird der Sättigungsverstärkungsindex S proportional zur Leuchtdichte L verschoben. Genauer gesagt,
    wenn L < 30, S' = S × 0 = 0 (28)Wenn 30 ≤ L < 50, S' = S × 0,8 (29)Wenn 50 ≤ L, S' = S (30)
  • Selbst in dem Abschnitt einer großen Leuchtdichte L führt die oben erwähnte Verschiebung zu einem Durchbrechen eines konischen Raumes, wofür die gleiche Korrektur wie oben effektive sein kann. Beim Drucken mit einem Drucker werden jedoch die Bilddaten des Abschnitts mit einer großen Leuchtdichte L nahezu weißlich dargestellt, so dass die Farbverschiebung augenscheinlich nur einen geringen Einfluss ausübt. Aus diesem Grund stellte sich heraus, dass die oben angesprochene Korrektur selbst zur Beschleunigung der Bearbeitung nicht ausgeführt zu werden braucht.
  • Bei dem oben angesprochenen Beispiel erfolgt die Sättigungsverstärkung, indem einmal die RGB-Bilddaten zu den Bilddaten im Luv-Raum transformiert werden und im Anschluss an die Sättigungsverstärkung zu RGB rücktransformiert werden, mit dem Ergebnis, dass die Vergrößerung des Berechnungsvolumens unvermeidlich ist. Im Hinblick auf diesen Punkt wird unten eine Modifikation beschrieben, bei der die RGB-Gradationsdaten im unveränderten Zustand in der Sättigungsverstärkung verwendet werden.
  • Wenn Komponentenwerten aus Farbtonkomponenten bestehen, die in einer im Wesentlichen gleichen Beziehung stehen wie der RGB-Farbspezifikationsraum, so führt die Beziehung von R = G = B zu Grau, das keine Sättigung besitzt. Deshalb kann unter der Annahme, dass die Komponente mit einem kleinsten Wert unter den RGB-Komponenten lediglich bewirkt, dass die Sättigung abfällt, ohne den Farbton jedes Pixels zu beeinflussen, gesagt werden, dass die Sättigung durch Subtrahieren dieses kleinsten Wertes von allen Komponentenwerten und Erhöhen des resultierenden Differenzwertes verstärkt werden kann.
  • Zuerst wird ein Sättigungsverstärkungsparameter-S-Verhältnis, das für die Berechnung vorteilhaft ist, anhand des oben angesprochenen Sättigungsverstärkungsindex' S folgendermaßen bestimmt: S-Verhältnis = (S + 100)/100 (31)
  • In diesem Fall wird, wenn der Sättigungsverstärkungsindex S = 0 ist, das Sättigungsverstärkungsparameter-S-Verhältnis gleich 1, bei dem die Sättigung nicht verstärkt wird. Als nächstes wird unter der Annahme, dass der Komponentenwert von Blau (B) ein kleinster Wert unter den Komponenten (R, G, B) von RGB-Gradationsdaten ist, eine Transformation unter Verwendung des Sättigungsverstärkungsparameter-S-Verhältnisses folgendermaßen durchgeführt: R' = B + (R – B) × S-Verhältnis (32) G' = B + (G – B) × S-Verhältnis (33) B' = B (34)
  • Infolge dessen werden die zwei Farbtransformationen, die einmal zwischen dem RGB-Farbspezifikationsraum und dem Luv-Raum hin und her wechseln, überflüssig, und es ist deshalb möglich, die Berechnungszeit zu verkürzen. In diesem Beispiel wird ein Verfahren verwendet, bei dem ein kleinster Komponentenwert einfach von den anderen Komponentenwerten hinsichtlich einer sättigungsfreien Komponente abgezogen wird, aber bei der Subtraktion der sättigungsfreien Komponente kann ein anderer Transformationsausdruck verwendet werden. Jedoch sind die Transformationen der obigen Ausdrücke (32) bis (34) insofern vorteilhaft, als das Berechnungsvolumen verringert wird, weil die einzige Subtraktion eines kleinsten Wertes weder Multiplikation noch Division beinhaltet.
  • Die Verwendung der Ausdrücke (32) bis (34) macht eine zufriedenstellende Transformation möglich, aber in diesem Fall tendiert die Sättigungsverstärkung dazu, die Leuchtdichte zu verbessern, was dazu führt, dass das Ganze hell wird. Im Hinblick auf diesen Punkt verwendet das folgende Transformationsbeispiel einen Differenzwert, der durch Subtrahieren eines äquivalenten Leuchtdichtewertes von jedem Komponentenwert erhalten wird.
  • Erstens wird, wenn die Farbtransformation in den oben angesprochenen Luv-Raum zur Bestimmung der Leuchtdichte vorgenommen wird, das Berechnungsvolumen sehr groß; so dass der folgende Transformationsausdruck verwendet wird, der die Leuchtdichte direkt aus RGB bestimmt und der beispielsweise beim Fernsehen verwendet wird, was auch auf den Ausdruck (9) zutrifft: Y = 0,30R + 0,59G + 0,11B (35)
  • Andererseits basiert die Sättigungsverstärkung auf den folgenden Ausdrücken: R' = R + ΔR (36) G' = G + ΔG (37) B' = B + ΔB (38)
  • Die justierbaren Werte ΔR, ΔG und ΔB werden folgendermaßen jeweils auf der Grundlage einer Wertdifferenz aus der Leuchtdichte erhalten: ΔR = (R – Y) × S-Verhältnis (39) ΔG = (G – Y) × S-Verhältnis (40) ΔB = (B – Y) × S-Verhältnis (41)
  • Infolge dessen ist: R' = R + (R – Y) × S-Verhältnis (42) G' = G + (G – Y) × S-Verhältnis (43) B' = B + (B – Y) × S-Verhältnis (44)
  • Somit kann eine Transformation bewirkt werden. Dass die Leuchtdichte beibehalten wird, geht aus den folgenden Ausdrücken hervor: Y' = Y + ΔY (45) ΔY = 0,30 ΔR + 0,59 ΔG + 0,11 ΔB = S-Verhältnis x {(0,30 R + 0,59 G + 0,11 B) – Y} = 0 (46)
  • Wenn das eingegebene Bild grau ist (R = G = B), so steht die Leuchtdichte Y in der Beziehung Y = R = G = B, so dass die justierbaren Werte in der Beziehung ΔR = ΔG = ΔB = 0 stehen, wobei keine Farbe in der sättigungsfreien Farbe erzeugt wird. Mittels der Ausdrücke (42) bis (44) wird die Leuchtdichte beibehalten, und das Bild wird nicht insgesamt hell, selbst wenn die Sättigung verstärkt wird.
  • Für die Transformation von Bilddaten in Schritt S214 findet ein beliebiges der oben angesprochenen Verfahren Anwendung, und die Operation des Erhalts von RGB-Gradationsdaten (R', G', B') nach der Transformation anhand der RGB-Gradationsdaten jedes Pixels erfolgt für alle Pixel.
  • Der oben angesprochene Sättigungsverstärkungsprozess kann folgendermaßen zusammengefasst werden.
  • Es werden Sättigungswerte X der Pixel, die in Schritt S102 ausgedünnt wurden, bestimmt und zu einer Sättigungsverteilung summiert. Dann wird in Schritt S204 befunden, ob das eingegebene Bild ein binäres Bild, wie beispielsweise ein Schwarz-Weiß-Bild, ist oder nicht, während in Schritt S206 befunden wird, ob das Bild ein natürliches Bild ist oder nicht. Dann wird – mit Ausnahme des Falles, wo das Bild ein binäres Bild ist, und des Falles, wo es kein natürliches Bild ist – in Schritt S208 befunden, ob die Bilddaten gerahmt sind oder nicht. wenn es einen Rahmenabschnitt gibt, so wird er entfernt, und es wird die kleinste Sättigung A in einem vorgegebenen höheren Bereich der resultierenden Sättigungsverteilung bestimmt.
  • Sobald die kleinste Sättigung A erhalten wurde, wird ein Sättigungsindex (Sättigungsverstärkungsindex) S anhand des Bereichs, zu dem die Sättigung A gehört, und gemäß den folgenden Ausdrücken bestimmt: Wenn A < 92, S = –A ×(10/92) + 50 (22)Wenn 92 ≤ A < 184, S = –A × (10/45) + 60 (23)Wenn 184 ≤ A < 230, S = –A × (10/23) + 100 (24)Wenn 230 ≤ A, S = 0 (25)
  • Auf der Grundlage des auf diese Weise erhaltenen Sättigungsverstärkungsindex' S erfolgt in Schritt S214 eine Transformation von Bilddaten. Wenn beispielsweise die RGB-Gradationsdaten direkt verwendet werden, während die Leuchtdichte beibehalten bleibt, so erfolgt die Transformation von Bilddaten für alle Pixel entsprechend den folgenden Ausdrücken: R' = R + (R – Y) × S-Verhältnis (42) G' = G + (G – Y) × S-Verhältnis (43) B' = B + (B – Y) × S-Verhältnis (44)
  • Dadurch ist es selbst im Fall einer Fotografie mit sohwacher Sättigung möglich, eine Sättigung zu verstärken, die in einem schmalen Bereich variiert, um ein kraftvolles Bild zu erhalten. Anschließend wird, wenn die Bilddaten als RGB zur Anzeige 32 ausgegeben werden, ein kraftvolles Bild auf dem Schirm wiedergegeben, und wenn sie an den Drucker 31 ausgegeben werden, so wird ein kraftvolle Bild auf Papier wiedergegeben, indem eine Transformation zum CMYK-Farbspezifikationsraum der Druckfarben und eine anschließende Gradationstransformation durchgeführt wird.
  • Natürlich wird, wie zuvor angemerkt, eine solche Bearbeitung nicht auf ein binäres Bildes oder ein Bild, das kein natürliches Bild ist, angewendet. Obgleich in dem obigen Beispiel die Bedingungen für das Auswählen des Sättigungsverstärkungsindex' zu einer Konstante gemacht werden, kann eine Modifikation dergestalt vorgenommen werden, dass der Benutzer ihn über eine vorgegebene GUI auf dem Computer 21 auswählen kann. Dadurch erfolgt eine Transformation automatisch, so dass ein optimaler Bereich anhand des vom Benutzer eingestellten Wertes erhalten wird. Insbesondere kann es sein, dass ohne Transformation zum Luv-Raum die Farbtöne nicht immer beibehalten werden. In diesem Fall kann eine Maßnahme ergriffen werden, dass die Farbtonverschiebung ignoriert werden kann. Beispielsweise wird der Sättigungsverstärkungsindex S abgeschwächt, um eine Rotation der Farbsubstanzen zu verhindern. Des weiteren wird vorgeschla gen, die oben erwähnten mehreren Transformationsverfahren auswählbar zu machen oder optimale Einstellungen des Sättigungsverstärkungsindex' für jene Verfahren anzubieten. Es ist auch möglich, den Benutzer einen Teil der Bilddaten so spezifizieren zu lassen, dass der Sättigungsverstärkungsprozess nur in dem betreffenden Bereich ausgeführt wird.
  • Wenn die Ausdrücke (42) to (44) im Sättigungsverstärkungsprozess benutzt werden, so wird die Leuchtdichte beibehalten, und das Ganze wird nicht hell, selbst wenn die Sättigung verstärkt wird. In dem Fall, dass nur die Sättigung in der oben angesprochenen Weise verstärkt wird, entsteht kein Problem, aber wenn der Kontrastvergrößerungsprozess und der Sättigungsverstärkungsprozess gleichzeitig ausgeführt werden, so führt der resultierende synergistische Effekt zu einem grellen Bild.
  • Um dieses Problem zu vermeiden, kann eine Korrelation vorgenommen werden, um beide Bearbeitungen relativ zueinander zu unterdrücken. 31 bis 33 veranschaulichen einen Prozess, bei die Kontrasterhöhung und eine Sättigungsverstärkung interjustiert werden, wovon 31 eine Hauptbearbeitung im dem Interjustierungsprozess zeigt und 32 und 33 den Kontrastvergrößerungsprozess und den Sättigungsverstärkungsprozess jeweils in größerem Detail zeigen. Die Details dieser Bearbeitungen sind die gleichen wie jene, die oben beschrieben wurden, so dass hier nicht mehr auf sie eingegangen wird.
  • In Schritt S310 werden das Ausdünnen und Summieren von Pixeln ausgeführt. Dann werden in den Schritten S320 und S330, die Vorstufen sowohl des Kontrastvergrößerungsprozesses als auch des Sättigungsverstärkungsprozesses sind, werden ein Kontrastverstärkungskoeffizient "a" und ein Sättigungsverstärkungskoeffizient S erhalten, und anschließend wird in Schritt S340, der einer Zwischenstufe entspricht, ein Verstärkungsunterdrückungsprozess ausgeführt, um einen formalen Sättigungsverstärkungskoeffizient S' zu bestimmen. Somit wird in diesem Beispiel zuerst der Kontrastvergrößerungskoeffizient "a" bestimmt, und mit diesem festgelegten Koeffizienten wird der Verstärkungsunterdrückungsprozesses durchgeführt, um den formalen Sättigungsverstärkungskoeffizienten S' zu bestimmen.
  • Der Kontrastvergrößerungskoeffizient "a" und der formale Sättigungsverstärkungskoeffizient S' werden in der folgenden Weise miteinander korreliert: S' = S × (1/a) (47)
  • Wie zuvor angesprochen, ist der Kontrastvergrößerungskoeffizient "a" 1 oder größer, und (1/a) wird in dem Maße kleiner als 1, wie die Ausweitungstendenz stärker wird. Folglich wird der formale Sättigungsverstärkungskoeffizient S' kleiner als der zeitweilige Sättigungsverstärkungskoeffizient S, der in der oben angesprochenen Weise bestimmt wird. Die heißt, der im Sättigungsverstärkungsprozess verwendete Parameter wird durch den Parameter klein gemacht, der im Kontrastvergrößerungsprozess verwendet wird, um den Verstärkungsprozess zu unterdrücken.
  • In diesem Beispiel wird, wie in 34 gezeigt, eine Korrelation dergestalt vorgenommen, dass der Sättigungsverstärkungskoeffizient S durch der Kontrastvergrößerungskoeffizienten "a" abgeschwächt wird. In diesem Sinne kann gesagt werden, dass ein Verstärkungsprozessunterdrückungsfilter bereitgestellt wird. Jedoch wird es, wie in 35 gezeigt, auch möglich, eine Korrelation dergestalt vorzunehmen, dass der Kontrastvergrößerungskoeffizient "a" durch den Sättigungsverstärkungskoeffizienten S abgeschwächt wird. Des Weiteren kann eine Korrelation vorgenommen werden, wie in 36 gezeigt, bei der beide Koeffizienten relativ zueinander abgeschwächt werden. Nicht ein einfacher Filter, sondern eine Transformatianstabelle kann erstellt werden, um auf konkrete Werte des Kontrastverstärkungskoeffizienten "a" und des Sättigungsverstärkungskoeffizienten S zuzugreifen, wie in den 37(A) und (B) gezeigt. Eine solche Transformationstabelle gestattet eine detailliertere Einstellung.
  • Es gibt auch den Fall, wo es ist nicht notwendig ist, beide Koeffizienten relativ zueinander abzuschwächen. Wenn beispielsweise der Kontrastvergrößerungskoeffizient "a" und der Sättigungsverstärkungskoeffizient S klein sind, so können beide individuell wirken und keinen synergistischen negativen Einfluss ausüben. In einem solchen Fall kann ein interferenzfreier Bereich bereitgestellt werden, wie in 38 gezeigt, so dass beide Koeffizienten einem Abschwächungseinfluss unterliegen, wenn jeweils ein bestimmter Schwellenwert erreicht wird. Es ist auch möglich, einen Koeffizienten auf den anderen einwirken zu lassen, so dass der andere bei Erreichen eines bestimmten Schwellenwertes oder darüber abgeschwächt wird.
  • Nachdem der Verstärkungsprozess wie oben beschrieben unter Verwendung des Operationsausdrucks (47) oder unter Verwendung der Transformationstabelle unterdrückt wurde, wird schließlich in Schritt S350 die Transformation von Bilddaten unter Verwendung der oben angesprochenen Verstärkungskoeffizienten durchgeführt. Genauer gesagt, erfolgt entsprechend der hinteren Stufe jeder der oben angesprochenen Bearbeitungen eine pixelweise Datentransformation hinsichtlich der Bilddaten jedes momentan in Bearbeitung befindlichen Pixels.
  • Wenden wir uns wieder dem Flussdiagramm von 7 zu, wo nach dem Ende sowohl des Kontrastvergrößerungsprozesses als auch des Sättigungsverstärkungsprozesses, wie oben beschrieben, in Schritt S114 ein Kantenschärfungsprozess ausgeführt wird, der in 39 veranschaulicht ist.
  • Bei dem Kantenschärfungsprozess werden die Anzahl der Pixel in der Breitenrichtung des eingegebenen Bildes und jene in der Höhenrichtung miteinander multipliziert, um in Schritt. S402 die Anzahl der Pixel zu erhalten. Dann wird in Schritt S404 ein Kantenschärfungsgrad proportional zu der auf diese Weise erfassten Anzahl von Pixeln bestimmt. Der Kantenschärfungsgrad hängt zu einem großen Teil von dem Kantenschärfungsverfahren ab, so dass wir uns zunächst dem Kantenschärfungsverfahren zuwenden. In diesem Beispiel wird eine solche Unschärfemaske 40 verwendet, wie sie in 40 gezeigt ist. In der Unschärfemaske 40 wird der zentrale Wert "100" als ein Gewicht eines momentan in Bearbeitung befindlichen Pixels Pij in matrixartigen Bilddaten verwendet, und die Randpixel werden entsprechend den numerischen Werten gewichtet, die in den Quadraten der Maske beschrieben sind, und werden zur Integration benutzt, die entsprechend dem folgenden Ausdruck (48) ausgeführt wird, wenn die Unschärfemaske 40 verwendet wird:
    Figure 00460001
  • In dem Ausdruck (48) steht "632" für einen Gesamtwert aus Gewichtungskoeffizienten; Mij steht für einen Gewichtkoeffizienten, der in jedem Quadrat der Unschärfemaske beschrieben ist; und Pij steht für Bilddaten jedes Pixels, wobei ij Koordinatenwerte von Spalten und Zeilen darstellt.
  • Unter Maßgabe der Annahme, dass die Bilddaten nach der Kantenschärfung Qij sind, wird die Kantenschärfungsberechnung gemäß dem folgenden Ausdruck (49) vorgenommen: Qij = Pij + C × {Pij – P'ij} (49)
  • Der Ausdruck (49) hat folgende Bedeutung. P'ij steht für das Ergebnis einer gering-gewichteten Addition der Randpi xel relativ zu den momentan in Bearbeitung befindlichen Pixeln, weshalb es unscharfe Bilddaten sind, welche die gleichen sind wie Bilddaten, die ein Tiefpassfilter durchlaufen haben. Deshalb stellt "Pij – P'ij" das Ergebnis der Subtraktion einer niederfrequenten Komponente von allen Komponenten dar, was die gleichen Bilddaten darstellt wie jene, die ein Hochpassfilter passiert haben. Wenn dann diese Hochfrequenzkomponente von dem Hochpassfilter mit einem Kantenschärfungskoeffizienten C multipliziert wird und die Ergebnis zu Pij addiert wird, so folgt, dass die Hochfrequenzkomponente proportional zu dem Kantenschärfungskoeffizienten vergrößert wurde. Die Kante wird auf diese Weise geschärft.
  • In diesem Sinne kann auch der Kantenschärfungsgrad durch den Kantenschärfungskoeffizienten C verändert werden. Deshalb wird, wenn die Anzahl an Pixeln groß ist, der Kantenschärfungskoeffizient C erhöht, während, wenn die Anzahl an Pixeln gering ist, der Koeffizienten C verringert wird. Bei einem Bild-Breite/Höhe-Zustand aus Breite × Höhe wird das E-Verhältnis durch den folgenden Ausdruck (50) dargestellt: E-Verhältnis = min(Breite, Höhe)/640 + 1 (50)
  • Für das auf diese Weise erhaltene E-Verhältnis wurde der Kantenschärfungskoeffizient C folgendermaßen bestimmt:
    Für E-Verhältnis < 1, C = 1
    Für 1 ≤ E-Verhältnis < 3, C = 2
    Für 3 ≤ E-Verhältnis, C = 3
  • Genauer gesagt, ist der Kantenschärfungskoeffizient C = 1, wenn die Anzahl an kürzeren Pixeln kleiner ist als 640; C ist 2, wenn diese Anzahl 640 oder mehr ist und weniger als 1920 ist; und C ist 3, wenn diese Anzahl 1920 oder mehr ist. Obgleich der Kantenschärfungskoeffizient C in diesem Beispiel wie oben besprochen eingestellt wird, kann er in einer proportionalen Weise variiert werden, weil die Bildgröße in einer bestimmten Punktdichte variieren kann.
  • Da der Kantenschärfungsgrad ebenfalls entsprechend der Größe der Unschärfemaske variiert, kann eine große Unschärfemaske für eine große Anzahl von Pixeln oder eine kleine Unschärfemaske für eine kleine Anzahl von Pixeln verwendet werden. Es versteht sich, dass sowohl der Kantenschärfungskoeffizient C als auch die Unschärfemaske 40 geändert werden können oder dass der Kantenschärfungsgrad bezüglich nur eines der beiden geändert werden kann. Wie ebenfalls aus der Figur zu ersehen, ist die Unschärfemaske 40 im mittigen Abschnitt am schwersten gewichtet, während die Gewichtungswerte zum Randabschnitt hin allmählich kleiner werden. Dieser Änderungsgrad ist nicht immer fest, sondern kann nach Bedarf geändert werden.
  • In der 7 × 7-Unschärfemaske 40, die in 40 gezeigt ist, ist der Gewichtungswert der äußersten Randquadrate 0 oder 1. Im Fall von 0 ist eine Gewichtungsmultiplikation sinnlos, und die Gewichtung 1 hat nur ein sehr geringes Gewicht im Vergleich zum Gesamtquadratwert 632. In diesem Beispiel wird deshalb eine 5 × 5-Unschärfemaske 41, wie sie in 41 gezeigt ist, anstelle der 7 × 7-Unschärfemaske 40 verwendet. Die Unschärfemaske 41 entspricht einer Unschärfemaske, die durch Weglassen des äußersten Randes der 7 × 7-Unschärfemaske 40 erhalten wurde. Beide stimmen miteinander überein. Am inneren 5 × 5-Maskenabschnitt stimmt die Unschärfemaske 40 in der Gewichtung mit der Unschärfemaske 41 überein. Im Ergebnis wird ein konkretes Bearbeitungsvolumen um die Hälfte verringert.
  • In diesem Beispiel wird überdies das Operationsvolumen in der folgenden Weise verringert. In dem Fall, wo die RGB- Gradationsdaten bearbeitet werden sollen, entspricht jeder Komponentenwert der Leuchtdichte (Helligkeit) der zugehörigen Farbkomponente. Deshalb sollte die Berechnung des Ausdrucks (49) individuell für alle RGB-Gradationsdaten ausgeführt werden. Wenn jedoch Multiplikation und Addition ebenso oft wiederholt werden, wie es der Anzahl der Quadrate der Unschärfemaske 40 entspricht, so führt eine solche individuelle Operation für jede Komponente unvermeidlich zu einem große Operationsvolumen.
  • Andererseits lässt sich sagen, dass eine solche Kantenschärfung dadurch erfolgen kann, dass man die Leuchtdichte ändert, während der Farbton beibehalten bleibt. Es folgt, dass das Bearbeitungsvolumen verringert wird, indem man eine Berechnung für die erhaltene Leuchtdichte und nicht für die RGB-Komponentenwerte vornimmt. Wenn der oben genannte Transformationsausdruck der Leuchtdichte Y verwendet wird, so können die Ausdrücke (48) und (49) folgendermaßen umgeschrieben werden:
    Figure 00490001
    Y'ij = Yij + C{Yij – Y'ij) (52)
  • Des Weiteren kann Yij – Y'ij folgendermaßen umgeschrieben werden: delta = Yij – Y'ij (53)R', G' und B' können nach der Transformation folgendermaßen berechnet werden: R' = R + delta × C G' = G + delta × C B' = B + delta × C(54)
  • Im Ergebnis wird die Anzahl der Multiplikationen und Additionen auf ein Drittel verringert, so dass die Gesamtbearbeitungszeit um etwa 50–70 % verringert werden kann. Gemäß den Ergebnissen der Transformation gab es keinerlei Verstärkung des Farbrauschens mehr, und die Bildqualität wurde verbessert.
  • Der Kantenschärfungsprozess entspricht einem Prozess, bei dem Bilddaten (R'G'B') nach der Kantenschärfung unter Verwendung der Unschärfemaske 40 hinsichtlich jedes Pixels in den matrixartigen Bilddaten berechnet werden. In den Schritten S406 bis S412 ist eine Schleifenbearbeitung dargestellt, wobei der Kantenschärfungsprozess für jedes Pixel wiederholt wird. In Schritt S410, der in der Schleifenbearbeitung enthalten ist, wird ein momentan in Bearbeitung befindlicher Pixel nacheinander sowohl in horizontaler als auch vertikaler Richtung verschoben, und diese Bearbeitung wird bis zu dem Zeitpunkt wiederholt, wo befunden wird, dass der momentan in Bearbeitung befindliche Pixel der letzte Pixel in Schritt S412 ist.
  • Bei der Operation von Ausdruck (48) werden jedoch sowohl Multiplikation als auch Addition in der Häufigkeit, wie es der Anzahl der Quadrate der Unschärfemaske 40 entspricht, für die Pixel, die sich um den momentan in Bearbeitung befindlichen Pixel herum befinden, benötigt, was dazu führt, dass das Bearbeitungsvolumen sehr groß ist. Andererseits ist der Abschnitt, der eine Kantenschärfung benötigt, der Kantenabschnitt des eingegebenen Bildes und ist deshalb auf den Abschnitt begrenzt, wo Bilddaten zwischen benachbarten Pixeln deutlich verschieden sind. Unter diesen Umständen lässt sich sagen, dass eine Operation möglicherweise nur im Fall eines großen Unterschiedes in den Bildda ten zwischen benachbarten Pixeln durchgeführt zu werden braucht.
  • Genauer gesagt, erfolgt in Schritt S406 ein Vergleich zwischen benachbarten Pixeln hinsichtlich Bilddaten, und nur, wenn der resultierende Unterschied groß ist, wird die Operation, die in Schritt S408 die Unschärfemaske verwendet, ausgeführt. Dadurch ist es im größten Teil des Bilddatenabschnitts – nicht des Kantenabschnitts – nicht mehr nötig, die Operation unter Verwendung der Unschärfemaske durchzuführen, wodurch das Bearbeitungsvolumen deutlich verringert wird.
  • Wie in 42 gezeigt, ist der oben angesprochene Vergleich achtmal erforderlich, weil sich um den momentan in Bearbeitung befindlichen Pixel acht Pixel herum befinden. Wenn jedoch ein Vergleich beispielsweise zwischen dem momentan in Bearbeitung befindlichen Pixel, der sich in der Mitte befindet, und dem Pixel von Quadrat "5" vorgenommen wird, so erkennt man, dass, wenn der momentan in Bearbeitung befindliche Pixel vorher das Quadrat "5" war, einmal ein Vergleich mit dem Pixel von Quadrat "1" vorgenommen wurde. Unter der Annahme, dass es genügt, wenn benachbarte Pixel nur einmal verglichen werden, reicht darum jeder allein für einen Vergleich hinsichtlich der Kombinationen 1 und 5, 2 und 6, 3 und 7, und 4 und 8 in der Gegenrichtung aus. Vergleich erfolgt bei diesen Kombinationen in vier Richtungen.
  • Auf diese Weise erfolgt bei einem natürlichen Bild, bei dem eine große Anzahl an Farben verwendet wird, die Vergrößerung des Kontrasts automatisch innerhalb eines optimalen Bereichs, und Sättigungsverstärkung und Kantenschärfung werden ebenfalls automatisch mit einem Verstärkungsgrad vorgenommen, der am besten zu dem betreffenden Bild passt. Es versteht sich, dass im Fall eines Bildes, bei dem es sich nicht um ein natürliches Bild handelt, diese Bearbeitungen als unnötige Bearbeitungen übersprungen werden.
  • Obgleich oben in der Anwendung 21d auf der Grundlage der Art der Bilddaten, die anhand der Anzahl der verwendeten Farben erkannt wurde, eine optimale Bildbearbeitung durchgeführt wurde, wird auch im Druckprozess entsprechend der erkannten Art des Bildes eine optimale Bearbeitung ausgewählt. 43 ist eine Flussdiagramm, das eine Bearbeitung entsprechend dem Druckprozess zeigt. In Schritt S502 werden Rasterdaten gebildet, dann wird in Schritt S504 die Art der Bilddaten anhand der oben angesprochenen Markierung festgestellt, und es wird einer der Schritte S506 und 5508 als Farbtransformationsbearbeitung ausgeführt wird. Anschließend erfolgt in Schritt S510 eine binäre Codierung, und in Schritt S512 werden die Druckdaten ausgegeben.
  • Es ist eine Farbtransformationsbearbeitung in Form einer Kombination aus einer Interpolierungsoperationsbearbeitung und einer Cache-Bearbeitung, die in Schritt S506 ausgeführt wird. Der Ablauf dieser Bearbeitung ist in 44 ff. gezeigt. Bei der in derselben Figur gezeigten Interpolierungsoperation wird nicht nur eine 8-Punkt-Interpolierungsoperation ausgeführt, die ein hohes Maß an Operationen beinhaltet, sondern auch das Cachen einer Farbtransformation ohne größere Operation.
  • Das Prinzip der 8-Punkt-Interpolierungsoperation ist in 45 gezeigt. Hier wird von einem Würfel ausgegangen, der acht Gitterpunkte um Koordinaten P herum umfasst, die RGB-Gradationsdaten als Komponentenwerte in einem Farbspezifikationsraum vor der Transformation beinhalten. Unter der Maßgabe, dass der Transformationswert am k-ten Scheitelpunkt des Würfels Dk ist und dass das Volumen des Würfels V ist, kann ein Transformationswert Px am Punkt P des Würfels folgendermaßen anhand eines Gewichts interpoliert werden; das auf dem Volumenverhältnis Vk von acht kleinen rechteckigen Parallelflachs basiert, wie sie in Figur gezeigt sind, die am Punkt P geteilt sind:
    Figure 00530001
  • Deshalb werden acht Gitterpunkte, welche die Koordinaten umgeben, spezifiziert, und es erfolgt eine Berechnung für jede der CMY-Gradationsdaten an jedem Gitterpunkt.
  • Im Flussdiagramm von 44 ist zu sehen, dass bei der Bearbeitungsroutine dieser Interpolierungsoperation diese 8-Punkt-Interpolierungsoperation nicht immer ausgeführt wird, sondern dass ein Caching anstelle des Weglassens der 8-Punkt-Interpolierungsoperation ausgeführt wird, während auf eine Caching-Tabelle zugegriffen wird, wie sie in 46 gezeigt ist. Diese Caching-Tabelle ist eine Tabelle mit einer bestimmten Kapazität zur Aufnahme von CMY-Gradationsdaten, die mittels Ausführen der 8-Punkt-Interpolierungsoperation unter Verwendung der RGB-Gradationsdaten vor der Transformation erhalten wurden. Zu Beginn ist diese Tabelle leer, aber die CMY-Gradationsdaten, die unmittelbar nach der Ausführung der 8-Punkt-Interpolierungsoperation in Schritt S606 erhalten wurden, werden in Schritt S608 addiert und aktualisiert. Wenn in Schritt S506 die Bearbeitungsroutine der "Cache- und Interpolationsoperation" ausgeführt wird, wie in 43 gezeigt, so wird der Inhalt der Cache-Tabelle unter Verwendung der RGB-Gradationsdaten vor der Transformation als Komponentenwerte im ersten Schritt S602 abgerufen, und bei einem Cache-Treffer (Entdeckung durch den Abruf) wird in Schritt S612 auf die gespeicherten CMY-Gradationsdaten zugegriffen.
  • Bei der Farbtransformationsbearbeitung wird die Bearbeitung so lange wiederholt, bis in Schritt S610 das endgültige Bild erhalten wird, um hinsichtlich jedes der punktmatrix artigen Pixel die RGB-Gradationsdaten in CMY-Gradationsdaten zu transformieren.
  • Eine solche Interpolierungsoperation hat zwar ein großes Operationsvolumen. Weil aber die Anzahl der verwendeten Farben in dem Fall, wo das eingegebene Bild kein natürliches Bild ist, gering ist, kann das Ergebnis einer einzelnen Operation wiederholt verwendet werden. Deshalb kann man sagen, dass, wenn befunden wird, dass die Art der Bilddaten kein natürliches Bild ist, die Bearbeitung "Cache- und Interpolationsoperation" sehr effektiv ist.
  • Als nächstes wird im Folgenden die Vor-Graustufentransformation von Schritt S508 beschrieben, bei der es sich um eine weitere Farbtransformationsbearbeitung handelt.
  • Das Flussdiagramm von 47 und das Schaubild von 48, das eine Fehlerverteilung von Pixeln zeigt, dienen der groben Erläuterung der Vor-Graustufentransformation. Da der Basisausdruck der oben besprochenen 8-Punkt-Interpolation eine achtmalige Multiplikation und eine siebenmalige Addition erfordert, ist der Ressourcen- und Zeitaufwand sowohl hinsichtlich der Hardwareausstattung als auch der Ausführung mittels Software enorm. Für eine einfachere Farbtransformation hat der Anmelder der vorliegenden Erfindung deshalb eine Graustufentransformation entwickelt, die einen Ersatz für die Interpolierungsoperation aus der japanischen Patentoffenlegungsschrift 30772/95 darstellt.
  • Die Vor-Graustufentransformation, die in der oben erwähnten ungeprüften Schrift offenbart ist, verwendet ein Fehlerverteilungsverfahren beispielsweise für die Graustufentransformation von Pixelgradationsdaten in eine Übereinstimmung mit Gitterkoordinaten. Gitterkoordinaten, die sich nahe dem zu transformierenden Pixel befinden, werden gesucht (S702); dann wird ein Fehler (dg) anhand der Gitterkoordinaten berechnet (S704); und der Fehler (dg) wird an Pixel in der Nähe verteilt (S706). Das ist die ganze Bearbeitung. Somit kann der Operationsaufwand im Vergleich zur Wiederholung der Multiplikation und Addition in einem hohen Grad verringert werden. Der Grund, warum eine hohe Genauigkeit auch ohne Interpolierungsoperation beibehalten werden kann, ist in der oben angesprochenen ungeprüften Schrift vollständig dargelegt, so dass hier nicht näher darauf eingegangen wird. Da eine Graustufentransformation für binäre Codierung selbst nach der Farbtransformation vorgenommen wird, wird die zuerst durchgeführte Graustufentransformation hier als eine Vor-Graustufentransformation bezeichnet.
  • Auch bei der Vor-Graustufentransformation wird eine Graustufentransformation für sämtliche gerasterten punktmatrixartigen Pixel durchgeführt, und deshalb wird die Bearbeitung bis zum letzten Pixel in Schritt S708 wiederholt. Im anschließenden Schritt S710 wird auf die Farbtransformationstabelle unter Verwendung der RGB-Gradationsdaten nach der Graustufentransformation zugegriffen. Zu diesem Zeitpunkt ist es wegen der Gitterpunkte nicht notwendig, eine Interpolierungsoperation durchzuführen, weshalb der Leseprozess sehr einfach ist.
  • In dem Fall, wo die Anzahl der verwendeten Farben sehr groß ist, wie bei einem natürlichen Bild, ist die Wahrscheinlichkeit eines Treffers selbst in der oben besprochenen Bearbeitung der Cache- und Interpolationsoperation gering, so dass sich die Anzahl von Interpolierungsoperation vergrößert. Bei einer solchen Vor-Graustufentransformation ist es notwendig, eine solche Bearbeitung wie die Fehlerverteilung für alle Pixel auszuführen, aber das Bearbeitungsvolumen ist insgesamt gering, weil die Bearbeitung, die jedes Mal ausgeführt wird, einfach ist. Deshalb kann hinsichtlich von Bilddaten, die viele Farben verwenden und von denen befunden wurde, dass sie ein natürliches Bild sind, das gesamte Bearbeitungsvolumen verringert werden, indem man auf der Grundlage solchen Vor-Graustufentransformation eine geeignete Farbtransformationsbearbeitung durchführt.
  • In der betrachteten Ausführungsform wird die Farbtransformationsbearbeitung der Cache- und Interpolationsoperation für ein nicht-natürliches Bild mit einer kleinen Anzahl an verwendeten Farben benutzt, während für ein natürliches Bild, das viele Farben verwendet, eine Farbtransformationsbearbeitung auf der Grundlage der Vor-Graustufentransformation benutzt wird. Es gibt jedoch keinerlei Einschränkungen hinsichtlich einer solchen Kombination. Es ist auch möglich, eine andere Kombination zu verwenden. Oder anders ausgedrückt: Es kann eine Farbtransformationsbearbeitung, die für die Art des eingegebenen Bildes am besten geeignet ist, frei ausgewählt und automatisch angewendet werden.
  • Somit wird es durch Summieren der Leuchtdichtewerte von Pixeln, die mittels einer Ausdünnungsbearbeitung für ihre Bilddaten ausgewählt wurden, um eine Leuchtdichteverteilung zu erhalten (Schritt S102), möglich, die Anzahl der verwendeten Farben zu zählen (Schritt S104). Im Ergebnis kann, wenn die Anzahl der verwendeten Farben groß ist, anhand der zugehörigen Bilddaten festgestellt werden, dass es sich um ein natürliches Bild handelt. Nebenbei wird es möglich, einen Kontrastvergrößerungsprozess (Schritt S110), einen Sättigungsverstärkungsprozess (S112) und eine Kantenschärfungsprozess (S114), die zur Anwendung auf ein natürliches Bild geeignet sind, anhand des Ergebnisses dieser Feststellung automatisch auszuwählen. Auch im Druckprozess wird eine Farbtransformation auf der Grundlage der Vor-Graustufentransformation vorgenommen, wenn die betreffenden Bilddaten ein natürliches Bild sind (S508), während, wenn die betreffenden Bilddaten kein natürliches Bild sind, die Farbtransformation der "Cache- und Interpolationsoperation" durchgeführt wird (S506). Somit ist es möglich, eine Farbtransformationsbearbeitung mit einem kleinen Bearbeitungsvolumen automatisch auszuwählen.

Claims (7)

  1. Bildverarbeitungssystem, das Folgendes enthält: ein Leuchtdichteverteilungssummierungsmittel (S102) zum Eingeben von Bilddaten, die Leuchtdichteinformationen für jedes Bildelement aus mehreren Bildelementen darstellen, die aus einer Punktmatrixform eines Bildes aufgelöst wurden, wobei diese Leuchtdichteinformationen eine Anzeige eines Leuchtdichtepegels für jedes Bildelement umfassen, wobei das Leuchtdichteverteilungssummierungsmittel Folgendes umfasst: Mittel zum Bestimmen einer Leuchtdichteverteilung der mehreren Bildelemente und zum Erhalten anfänglicher Mindest- und Maximal-Leuchtdichtewerte der Verteilung, die einen anfänglichen Leuchtdichtebereich definieren; und Mittel zum Ignorieren (S134, S136) von Randabschnitten des anfänglichen Leuchtdichtebereichs zum Ableiten tatsächlicher Mindest- und Maximal-Leuchtdichtewerte (ymin, ymax) der Verteilung, die um einen vorgegebenen Betrag innerhalb der anfänglichen Mindest- bzw. Maximalwerte liegen, wobei die Differenz der tatsächlichen Mindest- und Maximal-Leuchtdichtewerte einen tatsächlichen Leuchtdichtebereich bilden; wobei das System außerdem Folgendes beinhaltet: ein Bilddatenleuchtdichteumwandlungsmittel, das dafür konfiguriert ist – wenn die Leuchtdichteverteilung nicht breit in einem effektiven Leuchtdichtebereich (S142) gestreut ist, wobei der effektive Leuchtdichtebereich ein reproduzierbarer Leuchtdichtebereich ist – ein Vergrößerungsverhältnis (a) zu bestimmen (S144), das durch das Verhältnis des effektiven Leuchtdichtebereichs zu dem tatsächlichen Leuchtdichtebereich gebildet wird; einen Versatzwert (b) zu bestimmen (S144), der durch das Produkt des Vergrößerungsverhältnisses und des tatsächlichen Mindestleuchtdichtewertes oder durch die Differenz des effektiven Leuchtdichtebereichs und dem Produkt des Vergrößerungsverhältnisses und des tatsächlichen Maximalleuchtdichtewertes gebildet wird; und die Leuchtdichteinformationen jedes Bildelements in den Bilddaten umzuwandeln (S150), indem die Informationen mit dem Vergrößerungsverhältnis (a) multipliziert werden und dem so erhaltenen Produkt der Versatzwert (b) hinzugerechnet wird, um so eine vergrößerte Leuchtdichteverteilung zu bilden, die den effektiven Leuchtdichtebereich belegt.
  2. Bildverarbeitungssystem nach Anspruch 1, wobei das Bilddatenleuchtdichteumwandlungsmittel dafür konfiguriert ist, einen Median oder Mittelwert der Verteilungsleuchtdichte der ermittelten Leuchtdichteverteilung oder der vergrößerten Leuchtdichteverteilung zu bestimmen und eine γ-Korrektur (S148) durchzuführen, um die ermittelte Leuchtdichteverteilung oder die vergrößerte Leuchtdichteverteilung so zu ändern, dass der Bereich, zu dem der Median oder Mittelwert gehört, eine gewünschte Helligkeit aufweist.
  3. Bildverarbeitungssystem nach Anspruch 1 oder Anspruch 2, wobei der effektive Leuchtdichtebereich eine reduzierte Version eines maximalen effektiven Leuchtdichtebereichs ist.
  4. Bildverarbeitungssystem nach einem der vorangehenden Ansprüche, wobei dem Vergrößerungsverhältnis eine Grenze auferlegt wird.
  5. Bildverarbeitungssystem nach Anspruch 4, wobei das Bilddatenleuchtdichteumwandlungsmittel dafür konfiguriert ist zu bewirken, dass die Position der Leuchtdichteverteilung vor der Umwandlung und die Position der Leuchtdichteverteilung nach der Umwandlung innerhalb des effektiven Leuchtdichtebereichs gehalten wird.
  6. Bildverarbeitungssystem, nach Anspruch 5, wobei das Verhältnis eines vergrößerbaren Bereichs, der vor der Umwandlung sowohl an dem oberen als auch an dem unteren Ende des Leuchtdichteverteilungsbereichs blieb (m1, m2), auch nach der Umwandlung beibehalten bleibt (n1, n2).
  7. Bildverarbeitungsverfahren zum Anwenden einer zuvor festgelegten Bildverarbeitung auf Bilddaten, die Leuchtdichteinformationen darstellen, die einen Leuchtdichteperel für jedes Bildelement aus mehreren Bildelementen anzeigen, die aus einer Punktmatrixform eines Bildes aufgelöst wurden, wobei das Verfahren Folgendes umfasst: Summieren (S102) der Leuchtdichteinformationen der Pixel zu einer Leuchtdichteverteilung; Erhalten von anfänglichen Mindest- und Maximal-Leuchtdichtewerten der Leuchtdichteverteilung, die einen anfänglichen Leuchtdichtebereich definieren; Ignorieren (S134, S136) von Randabschnitten des anfänglichen Leuchtdichtebereichs zum Ableiten tatsächlicher Mindest- und Maximal-Leuchtdichtewerte (ymin, ymax) der Leuchtdichteverteilung, die um einen vorgegebenen Betrag innerhalb der anfänglichen Mindest- bzw. Maximalwerte liegen, wobei die Differenz der tatsächlichen Mindest- und Maximal-Leuchtdichtewerte einen tatsächlichen Leuchtdichtebereich bilden; Bestimmen (S142), ob die Leuchtdichteverteilung nicht breit in einem effektiven Leuchtdichtebereich gestreut ist, wobei der effektive Leuchtdichtebereich ein reproduzierbarer Leuchtdichtebereich ist, und – wenn die Leuchtdichteverteilung nicht so breit gestreut ist, Ausführen der folgenden Schritte: Bestimmen (S144) eines Vergrößerungsverhältnisses (a), das durch das Verhältnis des effektiven Leuchtdichtebereichs zu dem tatsächlichen Leuchtdichtebereich gebildet wird; Bestimmen (S144) eines versatzwertes (b), der durch das Produkt des Vergrößerungsverhältnisses und des tatsächlichen Mindestleuchtdichtewertes oder durch die Differenz des effektiven Leuchtdichtebereichs und dem Produkt des Vergrößerungsverhältnisses und des tatsächlichen Maximalleuchtdichtewertes gebildet wird; und Umwandeln (S150) der Leuchtdichteinformationen jedes Bildelements in den Bilddaten, indem die Informationen mit dem Vergrößerungsverhältnis (a) multipliziert werden und dem so erhaltenen Produkt der Versatzwert (b) hinzugerechnet wird, um so eine vergrößerte Leuchtdichteverteilung zu bilden, die den effektiven Leuchtdichtebereich belegt.
DE69735083T 1996-11-13 1997-11-13 Bildverarbeitungssystem und -verfahren Expired - Lifetime DE69735083T2 (de)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP30222396 1996-11-13
JP30222396 1996-11-13
JP30637096 1996-11-18
JP30637196 1996-11-18
JP30637096 1996-11-18
JP30637196 1996-11-18
JP31107096 1996-11-21
JP31107096 1996-11-21

Publications (2)

Publication Number Publication Date
DE69735083D1 DE69735083D1 (de) 2006-04-06
DE69735083T2 true DE69735083T2 (de) 2006-07-20

Family

ID=27479825

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69739095T Expired - Lifetime DE69739095D1 (de) 1996-11-13 1997-11-13 Bildverarbeitungssystem und -verfahren und Aufzeichnungsmedium für entsprechendes Programm
DE69735083T Expired - Lifetime DE69735083T2 (de) 1996-11-13 1997-11-13 Bildverarbeitungssystem und -verfahren

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE69739095T Expired - Lifetime DE69739095D1 (de) 1996-11-13 1997-11-13 Bildverarbeitungssystem und -verfahren und Aufzeichnungsmedium für entsprechendes Programm

Country Status (4)

Country Link
US (5) US6351558B1 (de)
EP (5) EP1587300B1 (de)
AT (2) ATE315875T1 (de)
DE (2) DE69739095D1 (de)

Families Citing this family (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6351558B1 (en) 1996-11-13 2002-02-26 Seiko Epson Corporation Image processing system, image processing method, and medium having an image processing control program recorded thereon
JPH11289454A (ja) * 1997-11-28 1999-10-19 Canon Inc 画像処理方法および画像処理装置およびコンピュータが読み出し可能なプログラムを格納した記憶媒体
JPH11266369A (ja) * 1998-03-17 1999-09-28 Fuji Photo Film Co Ltd 画像の明るさ調整方法および装置
JPH11298736A (ja) * 1998-04-14 1999-10-29 Minolta Co Ltd 画像処理方法、画像処理プログラムが記録された可読記録媒体及び画像処理装置
JP3492202B2 (ja) * 1998-06-24 2004-02-03 キヤノン株式会社 画像処理方法、装置および記録媒体
US6694051B1 (en) * 1998-06-24 2004-02-17 Canon Kabushiki Kaisha Image processing method, image processing apparatus and recording medium
JP3748172B2 (ja) * 1998-12-09 2006-02-22 富士通株式会社 画像処理装置
JP3714657B2 (ja) * 1999-05-12 2005-11-09 パイオニア株式会社 階調補正装置
JP2001148776A (ja) * 1999-11-18 2001-05-29 Canon Inc 画像処理装置及び方法及び記憶媒体
US6650771B1 (en) * 1999-11-22 2003-11-18 Eastman Kodak Company Color management system incorporating parameter control channels
US6980326B2 (en) 1999-12-15 2005-12-27 Canon Kabushiki Kaisha Image processing method and apparatus for color correction of an image
US7006668B2 (en) * 1999-12-28 2006-02-28 Canon Kabushiki Kaisha Image processing method and image processing apparatus
US6771311B1 (en) * 2000-12-11 2004-08-03 Eastman Kodak Company Automatic color saturation enhancement
JP4783985B2 (ja) * 2001-02-28 2011-09-28 日本電気株式会社 映像処理装置、映像表示装置及びそれに用いる映像処理方法並びにそのプログラム
US6818013B2 (en) * 2001-06-14 2004-11-16 Cordis Corporation Intravascular stent device
KR20030027953A (ko) * 2001-06-15 2003-04-07 코닌클리케 필립스 일렉트로닉스 엔.브이. 영상 정보에서의 자동적인 자연 콘텐트 검출
JP3631169B2 (ja) * 2001-06-19 2005-03-23 三洋電機株式会社 ディジタルカメラ
JP3741212B2 (ja) * 2001-07-26 2006-02-01 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および白黒伸張処理方法
US6983068B2 (en) * 2001-09-28 2006-01-03 Xerox Corporation Picture/graphics classification system and method
US6947597B2 (en) * 2001-09-28 2005-09-20 Xerox Corporation Soft picture/graphics classification system and method
US7119924B2 (en) * 2001-09-28 2006-10-10 Xerox Corporation Detection and segmentation of sweeps in color graphics images
KR100453038B1 (ko) * 2001-12-24 2004-10-15 삼성전자주식회사 컬러 영상의 채도 조절 장치 및 방법
US6996277B2 (en) * 2002-01-07 2006-02-07 Xerox Corporation Image type classification using color discreteness features
US6985628B2 (en) * 2002-01-07 2006-01-10 Xerox Corporation Image type classification using edge features
US7076298B2 (en) * 2002-06-14 2006-07-11 Medtronic, Inc. Method and apparatus for prevention of arrhythmia clusters using overdrive pacing
US7034843B2 (en) * 2002-07-10 2006-04-25 Genesis Microchip Inc. Method and system for adaptive color and contrast for display devices
US6778183B1 (en) * 2002-07-10 2004-08-17 Genesis Microchip Inc. Method and system for adaptive color and contrast for display devices
AU2003284035A1 (en) * 2002-10-07 2004-05-04 Conformis, Inc. Minimally invasive joint implant with 3-dimensional geometry matching the articular surfaces
EP1558181B1 (de) * 2002-11-07 2015-08-26 ConforMIS, Inc. Verfahren zur bestimmung der grösse und form des meniskus und planung einer behandlung
JP4167097B2 (ja) * 2003-03-17 2008-10-15 株式会社沖データ 画像処理方法および画像処理装置
JP4189654B2 (ja) * 2003-04-18 2008-12-03 セイコーエプソン株式会社 画像処理装置
JP4374901B2 (ja) * 2003-05-16 2009-12-02 セイコーエプソン株式会社 画像の明度補正処理
WO2005027041A1 (ja) * 2003-09-11 2005-03-24 Matsushita Electric Industrial Co., Ltd. 視覚処理装置、視覚処理方法、視覚処理プログラムおよび半導体装置
US20070109447A1 (en) * 2003-09-11 2007-05-17 Haruo Yamashita Visual processing device, visual processing method, visual processing program, and semiconductor device
US7860339B2 (en) 2003-09-11 2010-12-28 Panasonic Corporation Visual processing device, visual processing method, visual processing program, intergrated circuit, display device, image-capturing device, and portable information terminal
KR100612494B1 (ko) * 2004-06-07 2006-08-14 삼성전자주식회사 칼러 영상의 채도 조절 장치 및 방법
US7587084B1 (en) 2004-07-15 2009-09-08 Sun Microsystems, Inc. Detection of anti aliasing in two-color images for improved compression
US20060050084A1 (en) * 2004-09-03 2006-03-09 Eric Jeffrey Apparatus and method for histogram stretching
KR100752850B1 (ko) * 2004-12-15 2007-08-29 엘지전자 주식회사 디지털 영상 촬영장치와 방법
US7502145B2 (en) * 2004-12-22 2009-03-10 Xerox Corporation Systems and methods for improved line edge quality
JP4372747B2 (ja) * 2005-01-25 2009-11-25 シャープ株式会社 輝度レベル変換装置、輝度レベル変換方法、固体撮像装置、輝度レベル変換プログラム、および記録媒体
US7512268B2 (en) * 2005-02-22 2009-03-31 Texas Instruments Incorporated System and method for local value adjustment
US20060204086A1 (en) * 2005-03-10 2006-09-14 Ullas Gargi Compression of palettized images
US7586653B2 (en) * 2005-04-22 2009-09-08 Lexmark International, Inc. Method and system for enhancing an image using luminance scaling
US8131108B2 (en) * 2005-04-22 2012-03-06 Broadcom Corporation Method and system for dynamic contrast stretch
JP4648071B2 (ja) * 2005-04-28 2011-03-09 株式会社日立製作所 映像表示装置及び映像信号の色飽和度制御方法
US20060274937A1 (en) * 2005-06-07 2006-12-07 Eric Jeffrey Apparatus and method for adjusting colors of a digital image
US7580580B1 (en) 2005-07-12 2009-08-25 Sun Microsystems, Inc. Method for compression of two-color anti aliased images
KR101128454B1 (ko) * 2005-11-10 2012-03-23 삼성전자주식회사 콘트라스트 향상 방법 및 장치
US7746411B1 (en) 2005-12-07 2010-06-29 Marvell International Ltd. Color management unit
US20070133899A1 (en) * 2005-12-09 2007-06-14 Rai Barinder S Triggering an image processing function
US8094959B2 (en) * 2005-12-09 2012-01-10 Seiko Epson Corporation Efficient detection of camera shake
US7848569B2 (en) * 2005-12-14 2010-12-07 Micron Technology, Inc. Method and apparatus providing automatic color balancing for digital imaging systems
WO2007072548A1 (ja) * 2005-12-20 2007-06-28 Fujitsu Limited 画像判別装置
US20070154089A1 (en) * 2006-01-03 2007-07-05 Chang-Jung Kao Method and apparatus for calculating image histogram with configurable granularity
KR101225058B1 (ko) * 2006-02-14 2013-01-23 삼성전자주식회사 콘트라스트 조절 방법 및 장치
TWI315961B (en) * 2006-03-16 2009-10-11 Quanta Comp Inc Method and apparatus for adjusting contrast of image
TWI319688B (en) * 2006-03-16 2010-01-11 Quanta Comp Inc Method and apparatus for adjusting contrast of image
JP4997237B2 (ja) * 2006-06-02 2012-08-08 ローム株式会社 画像処理回路、半導体装置、画像処理装置
JP4997846B2 (ja) * 2006-06-30 2012-08-08 ブラザー工業株式会社 画像処理プログラムおよび画像処理装置
US7733535B2 (en) * 2006-07-10 2010-06-08 Silverbrook Research Pty Ltd Method and apparatus for image manipulation via a dither matrix
US7999812B2 (en) * 2006-08-15 2011-08-16 Nintendo Co, Ltd. Locality based morphing between less and more deformed models in a computer graphics system
JP4393491B2 (ja) * 2006-09-12 2010-01-06 キヤノン株式会社 画像処理装置およびその制御方法
TWI327868B (en) * 2006-11-13 2010-07-21 Wintek Corp Image processing method
JP4907382B2 (ja) * 2007-02-23 2012-03-28 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波画像表示方法および超音波診断装置
US20080219561A1 (en) * 2007-03-05 2008-09-11 Ricoh Company, Limited Image processing apparatus, image processing method, and computer program product
KR20090005621A (ko) * 2007-07-09 2009-01-14 삼성전자주식회사 색상 자동 변경 방법 및 그 장치
JP4861924B2 (ja) * 2007-07-31 2012-01-25 キヤノン株式会社 画像処理装置、その制御方法、そのプログラム、その記憶媒体
US8117134B2 (en) * 2008-10-16 2012-02-14 Xerox Corporation Neutral pixel correction for proper marked color printing
JP2010127994A (ja) * 2008-11-25 2010-06-10 Sony Corp 補正値算出方法、表示装置
JP5694761B2 (ja) * 2010-12-28 2015-04-01 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US8937749B2 (en) 2012-03-09 2015-01-20 Xerox Corporation Integrated color detection and color pixel counting for billing
TWI475556B (zh) 2012-11-05 2015-03-01 Chunghwa Picture Tubes Ltd 用於提升顯示系統顯示的彩色影像之對比的方法以及利用此方法的影像處理系統
JP6381311B2 (ja) 2013-07-04 2018-08-29 キヤノン株式会社 画像形成装置、画像形成方法、およびプログラム
US9691138B2 (en) 2013-08-30 2017-06-27 Google Inc. System and method for adjusting pixel saturation
JP6417851B2 (ja) 2014-10-28 2018-11-07 ブラザー工業株式会社 画像処理装置、および、コンピュータプログラム
TWI570635B (zh) * 2016-03-08 2017-02-11 和碩聯合科技股份有限公司 圖像辨識方法及執行該方法之電子裝置、電腦可讀取記錄媒體
US9762772B1 (en) * 2016-07-12 2017-09-12 Ricoh Company, Ltd. Color hash table reuse for print job processing
CN110868908B (zh) * 2017-06-15 2022-04-08 富士胶片株式会社 医用图像处理装置及内窥镜系统以及医用图像处理装置的工作方法
CN109616040B (zh) * 2019-01-30 2022-05-17 厦门天马微电子有限公司 一种显示装置及其驱动方法以及电子设备
JP2021166271A (ja) * 2020-04-08 2021-10-14 日本コントロールシステム株式会社 マスク情報調整装置、マスクデータ調整方法、プログラム

Family Cites Families (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US578696A (en) * 1897-03-09 Machine for inserting fastenings in boots
US518105A (en) * 1894-04-10 Mathias jensen
US4731671A (en) 1985-05-06 1988-03-15 Eastman Kodak Company Contrast adjustment in digital image processing method employing histogram normalization
JPS6230473A (ja) 1985-07-31 1987-02-09 Mitsubishi Electric Corp イメ−ジプリンタ装置
JPS6288071A (ja) 1985-10-14 1987-04-22 Fujitsu Ltd 色画素の濃度パタ−ン変換方式
US5181105A (en) 1986-05-30 1993-01-19 Canon Kabushiki Kaisha Color image correction based on characteristics of a highlights or other predetermined image portion
DE3629403C2 (de) 1986-08-29 1994-09-29 Agfa Gevaert Ag Verfahren zur Korrektur der Farbsättigung bei der elektronischen Bildverarbeitung
JP2511006B2 (ja) 1986-10-30 1996-06-26 キヤノン株式会社 色画像デ−タ補間方法
JPH0613821Y2 (ja) 1987-07-09 1994-04-13 アミテック株式会社 ワイドベルトサンダ−機
JPH0750913B2 (ja) 1987-12-17 1995-05-31 富士写真フイルム株式会社 画像信号処理方法
JPH01169683A (ja) 1987-12-25 1989-07-04 Pfu Ltd 画像入力装置
JPH01207885A (ja) 1988-02-15 1989-08-21 Fujitsu Ltd 画像階調制御方式
JPH01237144A (ja) 1988-03-17 1989-09-21 Fuji Photo Film Co Ltd 彩度に依存した色修正方法
JPH0264875A (ja) 1988-08-31 1990-03-05 Toshiba Corp カラー画像の高速彩度変換装置
JPH0229072A (ja) 1988-04-14 1990-01-31 Ricoh Co Ltd デジタル画像処理装置の画像補正装置
JPH0681251B2 (ja) 1988-05-31 1994-10-12 松下電器産業株式会社 画像処理装置
JPH02205984A (ja) 1989-02-06 1990-08-15 Canon Inc 画像処理装置
JPH02268075A (ja) 1989-04-10 1990-11-01 Canon Inc 画像処理装置
JP2964492B2 (ja) 1989-08-15 1999-10-18 ソニー株式会社 画像処理装置及び画像処理方法
JP3057255B2 (ja) 1989-08-15 2000-06-26 ソニー株式会社 画像処理装置及び画像処理方法
US5046118A (en) * 1990-02-06 1991-09-03 Eastman Kodak Company Tone-scale generation method and apparatus for digital x-ray images
JPH05205039A (ja) 1992-01-23 1993-08-13 Hitachi Ltd カラー画像処理方法およびカラー画像処理装置
EP0448330B1 (de) * 1990-03-19 1996-08-21 Canon Kabushiki Kaisha Verfahren und Gerät zur Bildverarbeitung
JP3150137B2 (ja) 1990-03-19 2001-03-26 キヤノン株式会社 画像処理方法
JP2505300B2 (ja) 1990-03-22 1996-06-05 日立電子株式会社 カラ―映像信号の色調補正装置
JP3011432B2 (ja) 1990-05-14 2000-02-21 株式会社東芝 カラー画像処理装置
US5121224A (en) 1990-06-01 1992-06-09 Eastman Kodak Company Reproduction apparatus with selective screening and continuous-tone discrimination
JP2521843B2 (ja) 1990-10-04 1996-08-07 大日本スクリーン製造株式会社 セットアップパラメ―タ決定特性を修正する方法及び自動セットアップ装置
JPH04248681A (ja) 1991-02-04 1992-09-04 Nippon Telegr & Teleph Corp <Ntt> カラー画像強調・弛緩処理方法
JP2936791B2 (ja) 1991-05-28 1999-08-23 松下電器産業株式会社 階調補正装置
US5280367A (en) 1991-05-28 1994-01-18 Hewlett-Packard Company Automatic separation of text from background in scanned images of complex documents
JP2573434B2 (ja) 1991-05-31 1997-01-22 松下電工株式会社 特定色抽出方法
JP3133779B2 (ja) 1991-06-14 2001-02-13 キヤノン株式会社 画像処理装置
JP3053913B2 (ja) 1991-07-15 2000-06-19 帝三製薬株式会社 ビンポセチン類含有貼付剤
JP2616520B2 (ja) 1991-08-30 1997-06-04 株式会社島津製作所 医療用画像表示装置
EP0536821B1 (de) 1991-09-27 1996-09-04 Agfa-Gevaert N.V. Reproduktionsverfahren für medizinische Bilder,das optimale Bildqualität für Diagnose herstellt
JP3253112B2 (ja) 1991-10-30 2002-02-04 キヤノン株式会社 画像処理装置及び画像処理方法
JP2936085B2 (ja) 1991-11-19 1999-08-23 富士写真フイルム株式会社 画像データ処理方法および装置
JP3253117B2 (ja) 1992-02-21 2002-02-04 キヤノン株式会社 画像処理装置および方法
EP0557099B1 (de) * 1992-02-21 1999-07-07 Canon Kabushiki Kaisha Gerät und Verfahren zur Bildverarbeitung
JP3189156B2 (ja) 1992-05-15 2001-07-16 キヤノン株式会社 ビデオ・プリンタ及び画像処理方法
JPH05344328A (ja) 1992-06-12 1993-12-24 Canon Inc 印刷装置
JPH0650983A (ja) 1992-07-28 1994-02-25 Anima Kk 被検体部位の動作解析装置
JP3249616B2 (ja) 1993-01-22 2002-01-21 キヤノン株式会社 画像データ圧縮装置及び方法
DE69333694T2 (de) * 1992-09-11 2005-10-20 Canon K.K. Verfahren und Anordnung zur Bildverarbeitung
GB2271493A (en) 1992-10-02 1994-04-13 Canon Res Ct Europe Ltd Processing colour image data
JPH06124329A (ja) 1992-10-13 1994-05-06 Kyocera Corp 彩度変更回路
JPH06178113A (ja) 1992-12-10 1994-06-24 Konica Corp 画像データ保存及び変換装置と画像代表値の算出装置
JPH06178111A (ja) 1992-12-10 1994-06-24 Canon Inc 画像処理装置
JPH06197223A (ja) 1992-12-24 1994-07-15 Konica Corp 画像読取り装置
JP3347378B2 (ja) 1993-01-07 2002-11-20 キヤノン株式会社 印刷装置および印刷のための画像処理方法
JP3268512B2 (ja) 1993-03-03 2002-03-25 セイコーエプソン株式会社 画像処理装置および画像処理方法
JPH06284281A (ja) 1993-03-25 1994-10-07 Toshiba Corp 画像処理装置
JP3548589B2 (ja) * 1993-04-30 2004-07-28 富士通株式会社 出力装置の色再現方法及びその装置
JP2600573B2 (ja) 1993-05-31 1997-04-16 日本電気株式会社 カラー画像の彩度強調方法及び装置
JP2876934B2 (ja) 1993-05-31 1999-03-31 日本電気株式会社 画像のコントラスト強調方法及び装置
JPH0723224A (ja) 1993-06-28 1995-01-24 Konica Corp 複写装置
US5382976A (en) * 1993-06-30 1995-01-17 Eastman Kodak Company Apparatus and method for adaptively interpolating a full color image utilizing luminance gradients
JP3042945B2 (ja) * 1993-07-07 2000-05-22 富士通株式会社 画像抽出装置
JPH0821079B2 (ja) 1993-07-15 1996-03-04 工業技術院長 画質改善方法および装置
JP3472601B2 (ja) 1993-08-27 2003-12-02 新光電気工業株式会社 半導体装置
JP3238584B2 (ja) 1993-12-16 2001-12-17 松下電器産業株式会社 マルチウィンドウ装置
KR0180577B1 (ko) * 1993-12-16 1999-05-15 모리시다 요이치 멀티윈도우 장치
US6006010A (en) * 1993-12-28 1999-12-21 Minolta Co., Ltd. Digital image forming apparatus
US5729626A (en) * 1993-12-28 1998-03-17 Minolta Co., Ltd. Digital image forming apparatus
JPH07236038A (ja) 1993-12-28 1995-09-05 Minolta Co Ltd デジタル画像形成装置
JP2906974B2 (ja) 1994-01-14 1999-06-21 富士ゼロックス株式会社 カラー画像処理方法および装置
JP2906975B2 (ja) 1994-01-14 1999-06-21 富士ゼロックス株式会社 カラー画像処理方法および装置
JP3489796B2 (ja) 1994-01-14 2004-01-26 株式会社リコー 画像信号処理装置
JP3491998B2 (ja) * 1994-01-31 2004-02-03 キヤノン株式会社 画像処理方法及び装置
US5450217A (en) 1994-05-23 1995-09-12 Xerox Corporation Image-dependent color saturation correction in a natural scene pictorial image
JPH0832827A (ja) 1994-07-13 1996-02-02 Toppan Printing Co Ltd ディジタル画像の階調補正装置
JP3605856B2 (ja) 1994-07-25 2004-12-22 富士写真フイルム株式会社 画像処理装置
JPH08102860A (ja) 1994-08-04 1996-04-16 Canon Inc 画像処理装置及びその方法
JP3142108B2 (ja) 1994-11-07 2001-03-07 株式会社東芝 画像処理装置および画像処理方法
US5982926A (en) 1995-01-17 1999-11-09 At & T Ipm Corp. Real-time image enhancement techniques
JPH08272347A (ja) 1995-02-01 1996-10-18 Canon Inc 色変換方法とその装置及び画像処理方法とその装置
JPH08223409A (ja) 1995-02-10 1996-08-30 Canon Inc 画像処理装置およびその方法
JP3401977B2 (ja) 1995-03-07 2003-04-28 ミノルタ株式会社 画像再現装置
US6118895A (en) * 1995-03-07 2000-09-12 Minolta Co., Ltd. Image forming apparatus for distinguishing between types of color and monochromatic documents
JP3333894B2 (ja) 1995-03-07 2002-10-15 ミノルタ株式会社 画像処理装置
JPH08297054A (ja) * 1995-04-26 1996-11-12 Advantest Corp 色感測定装置
JPH09130596A (ja) 1995-10-27 1997-05-16 Ricoh Co Ltd 画像処理装置
US5652621A (en) * 1996-02-23 1997-07-29 Eastman Kodak Company Adaptive color plane interpolation in single sensor color electronic camera
JP3380831B2 (ja) 1996-03-08 2003-02-24 シャープ株式会社 画像形成装置
JP3626966B2 (ja) 1996-03-28 2005-03-09 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置
JP3277818B2 (ja) 1996-08-23 2002-04-22 松下電器産業株式会社 多値画像2値化装置
JP3698205B2 (ja) 1996-11-13 2005-09-21 セイコーエプソン株式会社 画像処理装置、画像処理方法および画像処理プログラムを記録した媒体
US6351558B1 (en) 1996-11-13 2002-02-26 Seiko Epson Corporation Image processing system, image processing method, and medium having an image processing control program recorded thereon
JP3596614B2 (ja) 1996-11-13 2004-12-02 セイコーエプソン株式会社 画像処理装置、画像処理方法および画像処理プログラムを記録した媒体
JP3682872B2 (ja) 1996-11-13 2005-08-17 セイコーエプソン株式会社 画像処理装置、画像処理方法および画像処理プログラムを記録した媒体
JP3503372B2 (ja) * 1996-11-26 2004-03-02 ミノルタ株式会社 画素補間装置及びその画素補間方法

Also Published As

Publication number Publication date
US6754381B2 (en) 2004-06-22
DE69739095D1 (de) 2008-12-18
EP1587300B1 (de) 2008-11-05
ATE413772T1 (de) 2008-11-15
EP0843464A2 (de) 1998-05-20
EP0843464B1 (de) 2006-01-11
US20020126329A1 (en) 2002-09-12
EP1587300A2 (de) 2005-10-19
US7155060B2 (en) 2006-12-26
EP1587302A1 (de) 2005-10-19
EP1587301A2 (de) 2005-10-19
US20040208366A1 (en) 2004-10-21
EP1587303A3 (de) 2005-11-30
US20040208360A1 (en) 2004-10-21
EP1587303A2 (de) 2005-10-19
US20030095706A1 (en) 2003-05-22
EP0843464A3 (de) 2000-11-29
US6351558B1 (en) 2002-02-26
US6539111B2 (en) 2003-03-25
EP1587301A3 (de) 2005-11-30
EP1587300A3 (de) 2005-11-30
US7512263B2 (en) 2009-03-31
DE69735083D1 (de) 2006-04-06
ATE315875T1 (de) 2006-02-15

Similar Documents

Publication Publication Date Title
DE69735083T2 (de) Bildverarbeitungssystem und -verfahren
DE69827703T2 (de) Verfahren und Vorrichtung zum Einstellen der Farbe
DE60026258T2 (de) Bildverarbeitungsverfahren und Bildverarbeitungsvorrichtung
DE60033484T2 (de) Umsetzung des Farbtonbereichs mit Erhaltung der lokalen Luminanzdifferenzen
US8681380B2 (en) Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
DE69723802T2 (de) Bildverarbeitungsvorrichtung und -verfahren
DE60111756T2 (de) Verfahren zum verbessern der kompressionsfähigkeit und der bildqualität von abgetasteten dokumenten
DE69913534T2 (de) Verfahren und vorrichtung zur bilderzeugung
EP1231564B1 (de) Digitale lokale Bildeigenschaftssteuerung mittels Masken
DE69914669T2 (de) Entfernung von Hintergrundsrausch für einen preiswerten digitalen Farbkopierer
DE69914297T2 (de) Verfahren zur Umsetzung von Farbdaten
DE60012464T2 (de) Verfahren zur Verbesserung eines digitalbildes mit rauschabhängiger Steuerung der Textur
EP1231773B1 (de) Lokale Schärfung fotografischer Bilder mittels Masken
DE69920791T2 (de) Vorrichtung und Verfahren zur Interpolation von Bilddaten
DE60025875T2 (de) Bildverarbeitung
DE60127016T2 (de) Verfahren und Gerät zur Durchführung einer lokalen Farbkorrektur
DE10246102A1 (de) Verfahren und Vorrichtung zum Filtern von Rauschen von einem digatalen Bild
DE69937302T2 (de) Montone konvertiervorrichtung, monotones konvertierverfahren und medium auf dem ein monotones konvertierbares programm aufgenommen werden kann
DE69830583T2 (de) Verfahren und Vorrichtung zur Verarbeitung von Bilddaten
DE60311384T2 (de) Transformation eines Eingangsbildes zur Herstellung eines Ausgangsbildes
EP1231566B1 (de) Digitale lokale Bildeigenschaftssteuerung mittels Masken
DE10209607A1 (de) Verfahren zur Kontrastverbesserung von Bildvorlagen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition