DE19909581A1 - Bildverarbeitungsvorrichtung - Google Patents

Bildverarbeitungsvorrichtung

Info

Publication number
DE19909581A1
DE19909581A1 DE19909581A DE19909581A DE19909581A1 DE 19909581 A1 DE19909581 A1 DE 19909581A1 DE 19909581 A DE19909581 A DE 19909581A DE 19909581 A DE19909581 A DE 19909581A DE 19909581 A1 DE19909581 A1 DE 19909581A1
Authority
DE
Germany
Prior art keywords
image
image data
main object
weighting
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE19909581A
Other languages
English (en)
Inventor
Naoki Takaoka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Publication of DE19909581A1 publication Critical patent/DE19909581A1/de
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/58Edge or detail enhancement; Noise or error suppression, e.g. colour misregistration correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

Die Erfindung betrifft eine Bildverarbeitungsvorrichtung zur Verwen­ dung in Verbindung mit digitalen Photokopiergeräten (im folgenden einfach als Kopierer bezeichnet) zum photoelektrischen Lesen von auf Filmen aufgezeichneten Bildern, um Drucke oder Abzüge (Photogra­ phien) von den Bildern zu erhalten.
Auf photographischen Filmen (im folgenden einfach: Filme), beispiels­ weise Negativfilmen, Umkehrfilmen und dergleichen aufgezeichnete Bilder wurden üblicherweise auf photoempfindliches Material (photogra­ phisches Papier) abgezogen, indem ein auf dem Film befindliches Bild auf das photoempfindliche Material projiziert wurde, um dessen Ober­ fläche zu belichten. Dies wird als direkte Belichtung (Analogbelichtung) bezeichnet.
In den vergangenen Jahren wurden Photokopiergeräte oder Photodrucker entwickelt, die von einer digitalen Belichtung Gebrauch machen. Ein digitaler Photokopierer dient zum Herstellen eines Abzugs oder einer Kopie von einem auf einen Film aufgezeichneten Bild, indem folgende Schritte durchgeführt werden: das Bild wird von dem Film photoelek­ trisch gelesen, das ausgelesene Bild wird in ein digitales Signal umge­ setzt, es erfolgen verschiedene Arten der Bildverarbeitung, um Bildauf­ zeichnungsdaten zu erhalten, das photoempfindliche Material wird einer abtastenden oder rasternden Belichtung mit Hilfe von Aufzeichnungslicht unterzogen, welches entsprechend den Bilddaten moduliert wurde, und das auf diese Weise aufgezeichnete (latente) Bild wird dann zu einem fertigen Bild oder Abzug entwickelt.
Die Belichtungsbedingungen bei der Herstellung des Abzugs lassen sich bestimmen durch Verarbeitung von Bildern mit digitalen Daten in dem digitalen Photokopierer, beispielsweise anhand der Bilddaten, so daß hochqualitative Abzüge erstellbar sind, die bislang nicht verfügbar waren, da nun eine Kompensation für ein Fade-Out des Bildes und eine unpassende Gradation möglich ist, beispielsweise bei blendendem hellen Licht oder dunklen Schattierungen aus dem Hintergrundlicht, aufgrund elektronischen Blitzlichts oder dergleichen. Die Kompensation betrifft eine Schärfungsverarbeitung, eine Kompensation für Farb- oder Dichte­ fehler, eine Kompensation einer Unter- oder Überbelichtung, eine Kom­ pensation einer unzureichenden Lichtmenge am Bildrand und ähnliches. Darüber hinaus läßt sich durch Verarbeitung der Bilddaten eine zu­ sammengesetzte Photographie erstellen, bei der zum Beispiel eine Mehr­ zahl von Bildern zusammengefaßt ist, eine Bildaufteilung durchgeführt wurde, eine Komposition von Bestandteilen vorgenommen ist, oder dergleichen. Die Bilddatenverarbeitung ermöglicht außerdem die Aus­ gabe von editierten/verarbeiteten Abzügen, die je nach Anwendungsfall frei gestaltbar sind.
Außerdem machen digitale Photokopierer Bilddaten für andere Zwecke als für die Photographie verfügbar, da der Photokopierer die Ausgabe von Bildern in Form von Drucken oder Abzügen (Photographien) er­ möglicht und darüber hinaus auch die Möglichkeit schafft, die Bilddaten nicht nur an beispielsweise einen Rechner zu geben, sondern sie auch auf optischen und/oder magnetischen Aufzeichnungsmedien zu speichern, beispielsweise auf einer Floppy-Disk.
Ein solcher digitaler Photokopierer, wie er oben erläutert wurde, besteht im wesentlichen aus einem Abtaster oder Scanner (allgemein: einer Bildlesevorrichtung) zum photoelektrischen Lesen eines auf einem Film aufgezeichneten Bildes, einer Bildverarbeitungsvorrichtung, die das aus­ gelesene Bild einer Bildverarbeitung zu dem Zweck unterzieht, Bildauf­ zeichnungsdaten (Belichtungsbedingungen) zu erhalten, und einem Drucker oder Printer (Bildaufzeichnungsvorrichtung), um photoempfind­ liches Material rasternd entsprechend den von der Bildverarbeitungsvor­ richtung ausgegebenen Bilddaten abzutasten, woraufhin das so belichtete photoempfindliche Material zur Herstellung eines Abzugs entwickelt wird.
Die Arbeitsweise des Abtasters beinhaltet, daß von einer Lichtquelle emittiertes Leselicht auf einen Film auftrifft, um Projektionslicht zu erzeugen, welches die Information des auf dem Film aufgezeichneten Bildes trägt, eine Bilderzeugung auf einem Bildsensor, beispielsweise einem ladungsgekoppelten Bauelement (CCD-Sensor) mit Hilfe einer Abbildungsoptik, damit das Bild mit Hilfe des Projektionslichts durch photoelektrische Umwandlung gelesen wird, das Ausführen verschiede­ ner Arten der Bildverarbeitung je nach Bedarf, und das Senden der Daten über das auf dem Film befindliche Bild (Bilddatensignal) zu der Bildverarbeitungsvorrichtung.
Der Betrieb der Bildverarbeitungsvorrichtung beinhaltet die Einstellung von Bildverarbeitungsbedingungen nach Maßgabe der durch den Abtaster gelesenen Bilddaten, das Anwenden der Bildverarbeitung entsprechend den eingestellten Bedingungen auf die Bilddaten und das Senden der ausgegebenen Bildaufzeichnungsdaten (Belichtungsbedingungen) an den Printer.
Beim Betrieb des Printers, das heißt eines Printers oder Druckers, der eine Belichtung beispielsweise durch Abtastung mit einem Lichtstrahl vornimmt, wird ein mit dem von der Bildverarbeitungsvorrichtung ge­ sendeten Bilddaten modulierter Lichtstrahl zur Erzeugung eines latenten Bildes durch Rasterbelichtung oder abtastende Belichtung des photo­ empfindlichen Materials in zweidimensionaler Weise verwendet, und es erfolgt eine spezielle Entwicklungsverarbeitung oder ähnliches für das photoempfindliche Material, um einen Abzug (eine Photographie) zu erhalten, die einer Reproduktion des Bildes auf dem Film entspricht.
Andererseits liegen die Aufzeichnungsbedingungen, unter denen ein Bild auf einem Film aufgezeichnet ist, nicht fest, und es gibt zahlreiche Fälle, in denen beträchtliche Unterschiede und Abweichungen vorhanden sind, zum Beispiel kann es einen äußerst breiten dynamischen Bereich zwischen hell und dunkel geben (verschiedene Dichten), wenn man zum Beispiel ein Bild betrachtet, welches mit einem Elektronenblitz aufge­ nommen ist, oder ein Bild von einer Szene mit Hintergrundlicht und dergleichen.
Wenn ein derartiges Filmbild nach dem herkömmlichen Verfahren be­ lichtet wird, um einen fertigen Abzug zu erhalten, besteht die Neigung, daß Einzelheiten auf dem Bild nicht erkennbar sind aufgrund entweder einer unzureichenden Gradation eines hellen (stark belichteten) Bereichs oder eines dunklen (Schatten-)Bereichs auf dem Abzug. Wenn zum Beispiel eine Person bei Gegenlicht photographiert wird und die Bildauf­ nahme in der Weise erfolgt, daß das Bild der Person vorzugsweise deutlich ist, so kommt es zu einem Auswaschen des hellen Bereichs, beispielsweise eines Ausschnitts des Himmels, so daß dieser Bereich weiß wird und Einzelheiten nicht mehr in Erscheinung treten. Wenn hingegen das Bild so aufgenommen wird, daß der helle Bereich, bei­ spielsweise der Ausschnitt des Himmels, deutlich wird, so wird das Bild der Person stumpf und schwarz, die Einzelheiten sind nicht mehr er­ kennbar.
Wenn photoempfindliches Material durch ein Filmbild belichtet wird, bei dem es eine starke Schwankung zwischen hell und dunkel gibt, so-macht man bislang von der sogenannten Dodging-Methode Gebrauch.
Die Dodging-Methode ist ein Verfahren zum Erzeugen eines fertigen Abzugs, auf dem über die gesamte Bildfläche hinweg ein brauchbares Bild in der Weise erzeugt wird, daß der ursprüngliche Pegel der Belich­ tung auf einen Bereich beschränkt wird, der eine mittlere Bilddichte aufweist, hingegen die Menge des zur Belichtung verwendeten Lichts in einem hellen (stark belichteten) Bereich, wo das Bild zum Auswaschen und weiß-werden neigt, gesteigert wird, und die Belichtungsmenge in einem dunklen (Schatten-)Bereich, wo das Bild zum stumpf- und schwarz-werden neigt, reduziert wird, um dadurch einen sehr hellen Bereich und einen sehr dunklen Bereich des auf dem Film aufgezeichne­ ten Bildes so zu korrigieren, daß das Bild besser dem Eindruck ent­ spricht, den eine Person von der ursprünglichen Aufnahmeszene hat oder hatte.
Bei der konventionellen Vorrichtung mit direkter Belichtung wird also die Dodging-Methode in der Weise eingesetzt, daß die Menge von Licht beim Belichtungsvorgang nach Maßgabe eines auf einem Film aufge­ zeichneten Bildes lokal oder vollständig modifiziert wird. Genauer ge­ sagt die Dodging-Methode sieht vor, eine Belichtung in der Weise durchzuführen, daß eine Sperrplatte, ein ND-Filter oder dergleichen in den Belichtungsweg eingeführt wird, daß eine durch eine Belichtungs­ quelle erzeugte Lichtmenge lokal geändert wird, und/oder daß mono­ chrome Filme hergestellt werden, indem der helle Bereich und der dunkle Bereich des auf dem Film aufgezeichneten Bildes umgekehrt werden und eine Belichtung durch Überlagerung der Filme durchgeführt wird. Es sind noch weitere Methoden möglich.
Der digitale Photokopierer macht hingegen von einem Verfahren Ge­ brauch, bei dem das Bild in größerer Entsprechung des Eindrucks der ursprünglichen Aufnahmeszene reproduziert wird, wobei ein höheres Maß an Freiheit bei der Gestaltung dadurch möglich ist, daß von der Bilddatenverarbeitung Gebrauch gemacht wird, die einen dynamischen Bereich des Bildes komprimiert (dies wird im folgenden als Dodging- Verarbeitung bezeichnet), um vorzugsweise die hellen und die dunklen Bereiche entsprechend wiedergegeben, so daß eine bessere Wiedergabe­ treue des Bildes erreicht wird als bei den herkömmlichen Dodging-Ver­ fahren in Verbindung mit der direkten Belichtung. Die Anmelderin der vorliegenden Erfindung hat bereits ein solches Verfahren vorgeschlagen (JP-A-9-18704 und W-A-9-130609).
Die digitale Bilddatenverarbeitung erfolgt im allgemeinen durch folgende Schritte: photoelektrisches Lesen eines auf einem Film aufgezeichneten Bildes, um Bilddaten zu gewinnen, Analysieren der so gewonnenen Bilddaten und Einstellen der Bildverarbeitungsbedingungen und derglei­ chen für die Dodging-Verarbeitung. Allerdings gibt es in zahlreichen Fällen einen Unterschied zwischen dem auf dem Film aufgezeichneten Bild (bzw. dem daraus reproduzierten Bild) und dem Eindruck der ur­ sprünglichen Aufnahmeszene, abhängig von der Art der ursprünglichen Aufnahmeszene, der Leuchtdichte der Aufnahmeszene und den Strah­ lungsbedingungen.
Daher gibt es Beschränkungen bei dem Versuch, das erhaltene Bild dem Eindruck der ursprünglichen Aufnahmeszene näher zu bringen, auch dann, wenn abhängig von den Bilddaten die optimalen Bedingungen für die Dodging-Verarbeitung eingestellt werden.
In anderen Worten: da die Dodging-Verarbeitung im allgemeinen im Bereich des Leuchtdichtesignals (Graustufe) erfolgt ist, ergibt sich zum Beispiel das Problem, daß ein Himmelausschnitt einen grauen Farbstich erhält, wenn dieser Himmelausschnitt zum Beispiel einer Dodging-Ver­ arbeitung unterzogen wird.
Ein weiteres Problem ergibt sich dann, wenn die Dichte des Himmel­ ausschnitts gesteigert wird, weil dann die Sättigung für diesen Himmel­ ausschnitt gleichzeitig gesteigert werden muß. Ansonsten wird die Farbe des Himmels anders, als sie ursprünglich aussehen kann, das heißt sie wird zu einer künstlichen Farbe.
Im Hinblick auf die dem Stand der Technik innewohnenden Probleme ist es Ziel der vorliegenden Erfindung, eine Bildverarbeitungsvorrichtung zum Verarbeiten von aus einem auf einem Film aufgezeichneten Bild gewonnenen Eingangsbilddaten zu Ausgangsbilddaten zu schaffen, bei dem vorzugsweise von dem oben erläuterten digitalen Photokopierer Gebrauch gemacht wird, wobei die Vorrichtung in der Lage sein soll, ein Bild zu reproduzieren, welches einen Eindruck der ursprünglichen Aufnahmeszene möglichst gut wiedergibt, auch dann, wenn eine Dodging-Verarbeitung erfolgt. Außerdem soll die Vorrichtung in der Lage sein, Gradationen zonenweise zu steuern, um zum Beispiel den Kontrast eines Gesichts einer Person in der Gradation aufzuweichen, ohne dabei den Kontrast des Hintergrunds des Bildes zu ändern, wenn das Bild zum Beispiel bei Schönwetter oder dergleichen aufgenommen ist, oder um - alternativ - die Hintergrundzone in der Gradation härter zu gestalten, ohne gleichzeitig den Kontrast des Gesichts einer Person in dem Bild zu ändern, wenn das Bild zum Beispiel bei bewölktem Himmel oder dergleichen aufgenommen wurde.
Um das obige Ziel zu erreichen, schafft die vorliegende Erfindung eine Bildverarbeitungsvorrichtung, die Bilddaten, die photoelektrisch von einem auf einem Film aufgezeichneten Bild durch eine Bildleseeinrich­ tung gelesen wurden, einer spezifischen Bildverarbeitung unterzieht, um Ausgangsbilddaten zu erhalten, wobei diese Vorrichtung die Merkmale des Anspruchs 1 aufweist.
Vorteilhafte Weiterbildungen und Ausgestaltungen der Erfindung sind in den vom Anspruch 1 abhängigen Ansprüchen angegeben.
Im folgenden werden Ausführungsbeispiele der Erfindung anhand der Zeichnungen näher erläutert. Es zeigen:
Fig. 1 ein Blockdiagramm eines digitalen Photokopierers unter Ver­ wendung einer Ausführungsform einer erfindungsgemäßen Bildverarbei­ tungsvorrichtung;
Fig. 2 ein Blockdiagramm einer Ausführungsform der Bildverarbei­ tungsvorrichtung des digitalen Photokopierers nach Fig. 1;
Fig. 3 ein Flußdiagramm des Prozeßablaufs der Ausführungsform; und
Fig. 4 eine konzeptmäßige Ansicht zur Veranschaulichung eines Ver­ fahrens zur Erzeugung eines Ausgangsbildes gemäß der Ausführungs­ form.
In den begleitenden Zeichnungen ist eine Bildverarbeitungsvorrichtung gemäß der Erfindung dargestellt, die im folgenden detailliert erläutert wird.
Fig. 1 zeigt ein Blockdiagramm einer Ausführungsform eines digitalen Photokopierers, der von einer erfindungsgemäßen Bildverarbeitungsvor­ richtung Gebrauch macht.
Ein digitaler Photokopierer (im folgenden einfach als Photokopierer bezeichnet) 10 enthält im wesentlichen einen Scanner oder Abtaster (als Bildleseeinrichtung) 12 zum photoelektrischen Lesen eines auf einem Film F aufgezeichneten Bildes, eine Bildverarbeitungsvorrichtung 14, die die so gelesenen Bilddaten (die Bildinformation) einer Bildverarbeitung unterzieht und den gesamten Photokopierer 10 betreibt und steuert, und einen Drucker oder Printer 16, der ein photoempfindliches Material A mittels eines Lichtstrahls einer Bildbelichtung unterzieht, welcher durch die von der Bildverarbeitungsvorrichtung 14 ausgegebenen Bilddaten moduliert ist, und um das belichtete photoempfindliche Material A zu entwickeln und als fertigen Abzug auszugeben.
Außerdem ist die Bildverarbeitungsvorrichtung 14 mit einem Betriebs­ system verbunden, welches eine Tastatur 18a und eine Maus 18b enthält, um verschiedene Bedingungen, eine Auswahl und/oder Angabe für die Verarbeitung, eine Angabe über eine Farb- und/oder Dichtekorrektur oder dergleichen einzugeben (einzustellen), und eine Anzeigevorrichtung 20 zum Darstellen eines von dem Abtaster 12 ausgelesenen Bildes, von verschiedenen Betriebsanzeigen, einen Bildschirm zum Einstellen und/oder Registrieren verschiedener Bedingungen und dergleichen.
Der Abtaster 12 ist ein Gerät, welches ein auf dem Film F oder einem anderen Träger aufgezeichnetes Bild einzelbildweise auf photoelek­ trischem Weg liest. Er enthält eine Lichtquelle 22, eine veränderliche Blende 24, Filter für drei Farben R (Rot), G (Grün) und B (Blau) zum Zerlegen des auf dem Film F aufgezeichneten Bildes in die drei Primär­ farben R, G und B, eine Farbfilterplatte 26, die drehend wahlweise als Farbfilter in den optischen Weg gebracht werden kann, einen Diffusor­ kasten 28, der dafür sorgt, daß das auf den Film F auftreffende Lese­ licht in Richtung der Oberfläche des Films F gleichmäßig ist, ein Bild­ erzeugungsobjektiv 32, einen CCD-Sensor 34 als flächigen Sensor zum Lesen eines Bildes von einem Einzelbild-Rahmen des Films, und einen Verstärker 36.
In dem hier als Beispiel dargestellten Photokopierer 10 ist ein spezieller Träger 30 an dem Abtaster 12 angebracht, welcher der spezifischen Art und Größe eines Negativfilms (oder Umkehrfilms) eines sogenannten "Advanced Photo System" oder einem 135-Bildformat entspricht, wobei dieser Vorlagenfilm als Streifenfilm oder als Einzelrähmchen vorliegt. Durch Austausch des Trägers 30 lassen sich also unterschiedliche Filme für unterschiedliche Behandlung verarbeiten. Das auf einem Film vor­ handene Einzelbild (ein Rahmen), welches als Abzug ausgegeben werden soll, wird zu einer spezifischen Lesestelle transportiert und dort angehal­ ten.
Wie aus dem Stand der Technik bekannt ist, kann ein magnetischer Aufzeichnungsträger, der auf dem Film des sogenannten "Advanced Photo System" ausgebildet ist, Information speichern wie zum Beispiel Information über eine Filmpatronen-Kennung, eine Filmart und derglei­ chen, wobei der Aufzeichnungsträger ebenfalls in der Lage ist, weitere andere Informationen aufzuzeichnen, so zum Beispiel Aufnahmedaten und Aufnahmezeitpunkt, mit/ohne Blitzlicht, Vergrößerung bei der Auf­ nahme, Kennung für Aufnahmeszene, Information über Lage eines Haupt-Aufnahmeobjekts oder eines Ausschnitts sowie die Art der Ent­ wicklervorrichtung, wobei sich diese Angaben auf den Zeitpunkt der Bildaufnahme bzw. der Bildentwicklung beziehen. Eine Einrichtung zum Lesen dieser magnetisch aufgezeichneten Daten befindet sich in dem Träger 30 an einer Stelle, die an den Film (die Filmpatrone) des Advanced Photo Systems angepaßt ist, so daß dann, wenn der Film in die Lesestellung transportiert wird, die magnetischen Daten gelesen werden, um dann als Information über bestimmte Größen an die Bildver­ arbeitungsvorrichtung 14 gesendet zu werden.
In dem oben beschriebenen Abtaster 12 trifft von der Lichtquelle 22 emittiertes Leselicht auf den Film F auf, nachdem die Lichtmenge des Leselichts von der Blende 24 eingestellt wurde, wobei die Farbe des Leselichts mit Hilfe der Farbfilterplatte 26 eingestellt wurde und das Leselicht außerdem von dem Diffusorkasten 28 diffundiert wurde. Wenn das Leselicht den Film F durchsetzt, entsteht Projektionslicht, das die Bildinformation aus einem Einzelbild des Films F beinhaltet.
Das Bild des projizierten Lichts wird von dem Abbildungsobjektiv 32 auf die Lichtempfangsfläche des CCD-Sensors 34 fokussiert und von dem Sensor photoelektrisch gelesen. Von dem CCD-Sensor 34 ausgege­ bene Ausgangssignale werden von dem Verstärker 36 verstärkt und an die Bildverarbeitungsvorrichtung 14 gesendet. Der CCD-Sensor 34 ist hier ein flächiger Sensor mit 1.380 × 920 Pixeln.
Der Abtaster 12 liest das Bild dreimal aus, wobei nacheinander ein rotes, ein grünes und ein blaues Filter der Farbfilterplatte 26 eingescho­ ben wird, um das Bild von dem Einzelbild oder Einzelrahmen zu sepa­ rieren in drei Farbauszüge entsprechend den Primärfarben Rot, Grün und Blau.
Der Photokopierer 10 führt eine Vorabtastung aus, bei der ein Bild mit geringer Auflösung gelesen wird, bevor eine Feinabtastung durchgeführt wird, die dazu dient, das Bild für die Herstellung eines Abzugs auszu­ lesen. Insgesamt wird daher das Bild sechsmal gelesen.
Während der Abtaster 12 ein Vorlagenbild liest, indem er dieses (als Projektionslicht von dem Film F) in drei Primärfarben separiert, wozu mit Hilfe der Farbfilterplatte 26 das jeweilige Leselicht eingestellt wird, sendet der Abtaster Bilddaten an die erfindungsgemäße Bildverarbei­ tungseinrichtung. Dabei kann die Bildleseeinrichtung anstatt mit einem flächigen Sensor mit einem drei Zeilen umfassenden CCD-Sensor ausge­ stattet sein, wobei diese Sensoren den drei Primärfarben R, G und B entsprechen, um das Leselicht (Projektionslicht) schlitzweise zu lesen, wenn der Film F von einem Träger zwecks Abtastung weitertransportiert wird, das heißt es erfolgt ein schlitzweises Lesen des Bildes.
In dem oben als Beispiel dargestellten Photokopierer 10 ist der Abtaster 12 zum photoelektrischen Lesen von Bildern von Filmen, beispielsweise einem Negativfilm, einem Umkehrfilm oder dergleichen, so ausgebildet, daß er in Bezug auf die Bildverarbeitungsvorrichtung 14 als Bilddaten­ quelle fungiert. Es kommen allerdings auch noch andere Bilddatenquel­ len als Alternative zu dem Abtaster 12 in Betracht, beispielsweise andere Bildleseeinrichtungen, photographische Aufnahmevorrichtungen, Bild­ datenspeicher und dergleichen, insbesondere photographische Aufnahme­ vorrichtungen wie zum Beispiel eine Digitalkamera, eine digitale Video­ kamera und dergleichen. Außerdem kommt als Bilddatenquelle noch eine Bildlesevorrichtung zum Lesen eines reflektierenden Vorlagenbildes, eine Übertragungseinrichtung wie zum Beispiel ein LAN (Local Area Network), ein Rechnerkommunikationsnetzwerk, diverse Aufzeichnungs­ medien, darunter auch Speichermedien wie eine Speicherkarte oder ein MO (photomagnetisches Aufzeichnungsmedium) in Betracht.
Wie oben erläutert, werden die Ausgangssignale (Bilddaten) von dem Abtaster 12 an die Bildverarbeitungsvorrichtung 14 (im folgenden als Verarbeitungsvorrichtung 14 bezeichnet) ausgegeben.
Fig. 2 ist ein Blockdiagramm der Verarbeitungsvorrichtung 14. Die Verarbeitungsvorrichtung 14 ist eine spezielle Ausführungsform der erfindungsgemäßen Bildverarbeitungsvorrichtung, sie enthält einen Da­ tenverarbeitungsteil 38, einen Vorabtastspeicher (als Einzelbildspeicher entsprechend einem Einzelbild auf der Filmvorlage ausgebildet) 40, einen (ebenfalls als Einzelbildspeicher ausgebildeten) Feinabtastspeicher 42, einen Anzeigebildverarbeitungsteil 44, einen Feinrasterbild-Verarbei­ tungsteil 46 und einen Farbwiedergabeparameter-Erzeugungsteil 48.
Fig. 2 zeigt die wichtigsten Orte in Bezug auf die Bildverarbeitung. Andere Stellen, wie zum Beispiel eine CPU zum Steuern und Verwalten des gesamten Photokopierers 10 einschließlich der Verarbeitungsvor­ richtung 14, eines Speichers zum Speichern von Informationen für den Betrieb des Photokopierers 10, eine Einrichtung zum Ermitteln eines Blendenwerts der verstellbaren Blende sowie der Speicherzeit für den CCD-Sensor 34 bei der Feinabtastung und dergleichen befinden sich innerhalb der Verarbeitungsvorrichtung 14. Ein Betriebssystem 18 und die Anzeigevorrichtung 20 sind mit verschiedenen Stellen über die CPU (einem CPU-Bus) verbunden.
Von dem Abtaster 12 ausgegebene Ausgangssignale R, G und B werden in dem Datenverarbeitungsteil 38 einer Analog/Digital- oder A/D-Wandlung, einer Log-Umwandlung, einer Gleichstromversatz-Korrektur, einer Dunkelkorrektur, einer Abschattungskorrektur und dergleichen unterzogen, um digitale Bilddaten zu erhalten. Von diesen Bilddaten werden Vorabtastdaten (vorabgetastete Bilddaten) in dem Vorabtast­ speicher 40 abgespeichert, Feinabtastdaten werden in dem Feinabtast­ speicher 42 abgespeichert.
Die Vorabtastdaten und die Feinabtastdaten sind im Grund genommen die gleichen, wenn man von der Auflösung (der Pixeldichte) der Daten und einem Signalpegel der Daten absieht.
In dem Vorabtastspeicher 40 gespeicherte Bildinformation wird in den Anzeigebildverarbeitungsteil 44 und in den Farbwiedergabeparameter- Erzeugungsteil 48 eingelesen, während die in dem Feinabtastspeicher 42 gespeicherte Bildinformation in den Feinrasterbild-Verarbeitungsteil 46 eingelesen wird.
Der Anzeigebildverarbeitungsteil 44 ist ein Teil, welches die in dem Vorabtastspeicher 40 gespeicherten Vorabtastdaten ausliest, ein unscharfes Wichtungsbild (Bilddaten) oder Unschärfen-Wichtungsbild erzeugt, welches eine Hauptobjektzone und eine Hintergrundzone sanft oder glatt miteinander verbindet und anschließend Anzeigebilddaten für die Anzeige auf der Anzeigevorrichtung 20 dadurch erzeugt, daß die Vorabtastdaten unter Verwendung des so erzeugten Unschärfen-Wich­ tungsbilds verarbeitet werden. Der Verarbeitungsteil 44 unterteilt vorzugsweise so ausgelesenen Vorabtastdaten in solche für die Haupt­ objektzone und solche für den Hintergrundbereich, und er wichtet die Hauptobjektzone und führt eine Unschärfemasken-Verarbeitung durch, um das unscharfe Wichtungsbild oder Unschärfe-Wichtungsbild zu er­ zeugen.
Der Anzeigebildverarbeitungsteil 44 enthält ein Zonenextrahierelement 50, eine erste Nachschlagetabelle (erste LUTH Look-Up Table) 52, ein Wichtungsmasken-Erzeugungselement 54, ein Unschärfemasken-Ver­ arbeitungselement 56, einen Rechner 58, Addierer 60 und 62, eine zweite LUT 64 und einen Signalwandler 66. Das Zonenextrahierelement 50, die erste Nachschlagetabelle (erste LUT) 52, das Wichtungsmasken- Erzeugungselement und das Unschärfemasken-Verarbeitungselement 56 bilden ein erfindungsgemäßes Unschärfen-Wichtungsbild-Erzeugungsteil. Die erste LUT 52 und das Wichtungsmasken-Erzeugungselement 54 bilden ein Wichtungsmasken-Erzeugungselement in der breiteren Bedeu­ tung gemäß der Erfindung.
Außerdem ist ein D/A-Wandler 68 vorgesehen, der Bilddaten für die Anzeige (digitale Signale), die in dem Anzeigebildverarbeitungsteil 44 erzeugt wurden, zwecks Darstellung auf der Anzeigevorrichtung 20 in Analogsignale umgesetzt.
Der Feinrasterbild-Verarbeitungsteil (Ausgabebild-Erzeugungsteil) 46 ist ein Bereich, der in dem Feinabtastspeicher 42 abgespeicherte Feinabtast­ daten ausliest und die so ausgelesenen Feinabtastdaten einer spezifischen Bildverarbeitung unterzieht, wobei in dem Farbwiedergabeparameter- Erzeugungsteil 48 gebildete Farbwiedergabeparameter verwendet werden, um Ausgabebilddaten zur Bildaufzeichnung durch den Drucker 16 zu erhalten.
Der Feinrasterbild-Verarbeitungsteil 46 enthält eine erste LUT 70, einen Matrixrechner (MTX) 72, eine Addierer 74 und einen zweiten LUT 76.
Außerdem kann in dem Feinrasterbild-Verarbeitungsteil 46 noch ein Schärfenverarbeitungsteil zum Durchführen einer Schärfungsverarbeitung vorhanden sein.
Der Farbwiedergabeparameter-Erzeugungsteil 48 erzeugt nicht nur ver­ schiedene Arten von Bildverarbeitungsinformation auf der Grundlage der vorabgetasteten Daten, die in dem Vorabtastspeicher 40 gespeichert sind, sondern außerdem Farbwiedergabeparameter, und zwar auf der Grund­ lage entweder von Daten, die aus dem Anzeigebildverarbeitungsteil 44 eingegeben wurden, oder auf der Grundlage von Daten, die von einer Bedienungsperson über einen Hilfseingabeteil 78 eingegeben wurden, so daß im Anschluß daran ein Korrekturwert erzeugt wird, der verwendet wird, wenn die an den Drucker 16 zu sendenden Ausgabebilddaten aus den Bilddaten des Vorlagebildes erzeugt werden, die durch das Fein­ abtastungslesen gewonnen wurden. Information, die in dem Farbwieder­ gabeparameter-Erzeugungsteil 48 gebildet wird, wird an die Nachschlage­ tabellen 52, 64, 70 und 76 gegeben.
Im folgenden werden die Komponenten jedes Teils der Vorrichtung erläutert.
Zunächst liest das Zonenextrahierelement 50 des Anzeigebildverarbei­ tungsteils 44 Vorabtastdaten aus dem Vorabtastspeicher 40 aus und extrahiert die Hauptobjektzone, das heißt den wichtigsten Gegenstand des Bildes, aus den Vorabtastdaten, um dadurch die Daten aufzuteilen in solche für eine Hauptobjektzone und solche für den Hintergrundbereich.
Diese Extrahieraktion für die Hauptobjektzone läßt sich entweder auf der Grundlage einer automatischen Bildanalyse unter Verwendung einer Zonenextrahiermethode oder manuell von dem Benutzer über den Hilfs­ eingabeteil vollziehen.
Ein Verfahren zum Extrahieren der Hauptobjektzone ist hier keiner besonderen Beschränkung unterlegen. Beispielhaft sind Verfahren wie ein Verfahren zum Extrahieren der Hauptobjektzone aus der Farbkon­ tinuität, indem von der Bedienungsperson auf einen Punkt innerhalb der Hauptobjektzone mit Hilfe einer Maus 18b oder dergleichen gezeigt wird. Ein anderes Verfahren besteht darin, daß der Bediener die Haupt­ objektzone unter Verwendung der Maus 18b ausschneidet. Ein noch anderes Verfahren beruht auf einer automatischen Extraktion unter Ver­ wendung bekannter Extrahieralgorithmen für Hauptobjekte.
Ein Extrahieralgorithmus zum automatischen Extrahieren einer Haupt­ objektzone ist zum Beispiel in der japanischen ungeprüften Patentver­ öffentlichung (JPA) Nr. 9-138470 offenbart, die ein Hauptobjektzonen- Extrahierverfahren zeigt, mit dessen Hilfe mehrere verschiedene Haupt­ objekt-Extrahierverfahren nacheinander durchgeführt werden, so zum Beispiel ein Verfahren zum Extrahieren einer spezifizierten Farbe, ein Verfahren zum Extrahieren eines spezifischen Konfigurationsmusters, ein Verfahren zum Beseitigen einer Zone, die als Hintergrund angesehen wird, wobei diese Verfahren ausgewertet und ihnen vorab ein Gewicht zugewiesen wird, um dann anschließend das nach jedem Extrahierver­ fahren extrahierte Hauptobjekt mit dem voreingestellten Gewicht zu wichten, um schließlich das Hauptobjekt nach Maßgabe des so erhalte­ nen Ergebnisses als extrahiertes Objekt festzulegen. Andere Hauptobjekt- Extrahierverfahren finden sich in folgenden japanischen Patentveröffent- Iichungen: JPA Nr. 4-346333, JPA Nr. 5-158164, JPA Nr. 5-165120, JPA Nr. 6-160993, JPA Nr. 8-184925, JPA Nr. 9-101579, JPA Nr. 9-138471.
Die erste LUT 52 analysiert Farbbilddaten der extrahierten Hauptbildzo­ ne und berechnet anschließend einen Farbabgleich oder ein Farbgleich­ gewicht in Bezug auf die Helligkeit (Leuchtdichte) der Hauptobjektzone, so daß eine Wichtungsfunktion eingestellt wird, die hauptsächlich auf dem berechneten Farbabgleich beruht. Die Wichtungsfunktion ist hier in Form einer Nachschlagetabelle eingerichtet.
Das Wichtungsmasken-Erzeugungselement 54 bildet ein Wichtungsbild, indem es den Bilddaten der Hauptobjektzone unter Verwendung der ersten LUT 52 Gewicht hinzufügt.
Das Unschärfemasken-Verarbeitungselement 56 unterzieht das so erhalte­ ne Wichtungsbild einer Unschärfemaskenverarbeitung, um ein unscharfes Wichtungsbild oder Unschärfe-Wichtungsbild zu gewinnen. Das Un­ schärfemasken-Verarbeitungselement 56 enthält zum Beispiel einen Matrixrechner (MTX) 56a, ein Tiefpaßfilter (TPF) 56b und eine Nach­ schlagetabelle (LUT) 56c, obschon diese Elemente nicht in beschränken­ dem Sinn hier angegeben sind. Der MTX 56a bildet Leuchtdichte-Bild­ daten in Form eines Leuchtdichte- oder Luminanzsignals zum Durchfüh­ ren einer Dodging-Verarbeitung anhand des von dem Wichtungsmasken- Erzeugungselement 54 gesendeten Wichtungsbildes. Das TPF 56b unter­ zieht die so erhaltenen Luminanzbilddaten einer Tiefpaßfilterung, um eine niederfrequente Komponente zu gewinnen, derzufolge das Leucht­ dichte- oder Luminanzbild zweidimensional unscharf wird und unscharfe Bilddaten des Lesebildes gewonnen werden. Die LUT 56c komprimiert den dynamischen Bereich der so erhaltenen unscharfen Bilddaten.
Als Verfahren zum Erzeugen der Luminanzbilddaten wird ein Verfahren unter Verwendung eines Wertes entsprechend einem Drittel des Mittel­ werts der Bilddaten für R, G und B vorgestellt, ferner ein Verfahren zum Umwandeln der Bilddaten in Luminanzbilddaten unter Verwendung der YIQ-Basis und dergleichen.
Das Verfahren zum Gewinnen der Luminanzbilddaten oder Leuchtdichte­ bilddaten unter Verwendung der YIQ-Basis beinhaltet beispielsweise ein Verfahren zum Berechnen lediglich der Y-Komponente der YIQ-Basis aus den Bilddaten für Rot, Grün und Blau gemäß folgender Formel:
Y = 0,3R + 0,59G + 0,11B
Als Tiefpaßfilter 56b kann zum Beispiel ein TPF vom FIR-Typ (Finite Impulse Response) verwendet werden, wie es im allgemeinen zum Er­ zeugen eines unscharfen Bildes verwendet wird, so auch bei der oben angesprochenen Bildverarbeitung, bevorzugt wird als Tiefpaßfilter jedoch ein IIR-Filter (Infinite Impulse Response) verwendet, weil dieses un­ scharfe Bilddaten erzeugen kann, in denen ein Bild mit Hilfe einer klein bemessenen Schaltung sehr unscharf gemacht werden kann.
Außerdem kann man ein Mittelwertfilter oder Medianfilter (MF) anstelle des Tiefpaßfilters 56b verwendet werden. Vorzugsweise wird das MF deshalb verwendet, weil es unscharfe Bilddaten erzeugen kann, dabei aber Ränder erhalten und Rauschen (hochfrequente Komponenten) in einem flachen Abschnitt abschneiden kann. Darüber hinaus ist die Ver­ wendung sowohl eines MF als auch eines TPF derzeit deshalb zu bevor­ zugen, weil die durch das MF erhaltenen und die durch das TPF erhalte­ nen Bilder separat gewichtet und dann die gewichteten Bilder addiert werden können, wobei zu berücksichtigen ist, daß das MF unscharfe Bilddaten erzeugen kann, die das Bild dadurch sehr unscharf machen, daß von dem oben angesprochenen Vorteil des MF Gebrauch gemacht wird.
Von dem TPF 56b erzeugte unscharfe Bilddaten werden an die LUT 56c gegeben und dann durch eine Dynamikbereich-Kompressionstabelle verarbeitet, was aus den unten angegebenen Gründen erforderlich ist.
Der Bilddichtebereich, der auf dem photographischen Film F aufgezeich­ net werden kann, ist grundsätzlich größer als ein wiedergebbarer oder reproduzierbarer Bilddichtebereich (Dichtebereichsumfang, Dichteskala) eines Abzugs. Beispielsweise übersteigt ein Bild mit einem Dichtebereich (d.i. die Differenz zwischen maximaler Dichte und minimaler Dichte als dynamischer Bereich) in hohem Maße den Dichtebereichsumfang des Abzugs, wenn man zum Beispiel eine Bildaufzeichnung mit Hilfe eines Elektronenblitzes, eine Gegenlichtaufnahme und dergleichen betrachtet.
In diesen Fällen besteht nicht die Möglichkeit, sämtliche Bilddaten (Pixel) auf dem Abzug wiederzugeben, so daß ein Bereich hoher Dichte (die Intensität der Lesesignale ist schwach) auf dem Film, der den Dichtebereichsumfang übersteigt, das heißt ein heller Abschnitt eines Aufnahmeobjekts, zu einem ausgewaschenen grellen Bereich auf dem Abzug führt, während ein Bereich geringer Dichte auf dem Film außerhalb des Dichtebereichsumfangs, das heißt ein dunkler Bereich eines Aufnahmeobjekts, auf den Abzug zu einem stumpfen Schatten wird. Deshalb ist es notwendig, Bilddaten so zu erzeugen, daß sie dem Dichtebereichsumfang oder der Dichteskala des Abzugs entsprechen, indem der dynamische Bereich der Bilddaten in der Weise komprimiert wird, daß ein Bild mit sämtlichen reproduzierten Bilddaten erhalten wird. In anderen Worten: man muß die Bilddaten so verarbeiten (einer Dodging-Verarbeitung unterziehen), daß sich der dynamische Bereich komprimieren läßt durch Einstellen der Dichten von hellen und dunklen Bereichen, ohne daß dabei die Gradation im Bereich mittlerer Dichte geändert wird, so daß man einen ähnlichen Effekt erzielt wie bei einer Dodging-Verarbeitung durch eine konventionelle direkte Belichtung.
In dem Unschärfemasken-Verarbeitungselement 56 wird in der oben geschilderten Weise ein Unschärfe-Wichtungsbild erzeugt. Derweil werden in dem Rechner 58 die Bilddaten des Hintergrundbereichs multi­ pliziert mit dem Rest, den man erhält, indem man das Gewicht des Unschärfe-Wichtungsbildes von einem Referenzwert subtrahiert, der hier "1" beträgt, wenn das Gewicht dieses Unschärfe-Wichtungsbildes auf "1" normiert ist. Dies multiplizierten Bilddaten und die Daten des Un­ schärfe-Wichtungsbildes werden in dem Addierer 60 addiert, und dann werden die addierten Bilddaten weiter auf Wichtungsbilddaten addiert, die von dem Wichtungsmasken-Erzeugungselement 54 kommen, wobei diese weitere Addition in einem Addierer 62 erfolgt, womit eine Dodging-Verarbeitung erfolgt und man Bilddaten für die Anzeige erhält.
Diese Bilddaten für die Anzeige werden in ihrer Gradation in endgültige Bilddaten für die Anzeige entsprechend den Kennwerten der Anzeige 20 mit Hilfe einer zweiten LUT 64 umgewandelt, anschließend erfolgt in einem Signalwandler 66 eine Umwandlung in für die Anzeige 20 ge­ eignete Signale, woraufhin schließlich eine D/A-Umwandlung im D/A-Wandler 68 erfolgt, so daß die Signale auf der Anzeige 20 dargestellt werden können.
Die erste LUT 70 des Feinrasterbild-Verarbeitungsteils 46, welches die in dem Feinabtastspeicher 42 abgespeicherten Bilddaten ausliest und einen Grauabgleich, eine Helligkeitskorrektur (Dichtekorrektur) und eine Gradationskorrektur ausführt, ist derart konfiguriert, daß die für die jeweiligen Korrekturen und Einstellungen vorgesehenen LUTs in Kaskade hintereinander geschaltet sind. Jede LUT innerhalb der ersten LUT 70 wird erzeugt und eingestellt in dem Farbbildwiedergabeparame­ ter-Erzeugungsteil 48.
Der MTX 72, der eine Farbkorrektur ausführt, um die Sättigung der von der ersten LUT 70 verarbeiteten Bilddaten zu steigern, führt eine Ma­ trixberechnung durch, die eingestellt ist entsprechend den Spektral- Kennwerten eines Films F, den Spektral-Kennwerten des photoempfind­ lichen Materials (des photoempfindlichen Papiers), den Kennwerten für die Entwicklungsverarbeitung und dergleichen, anschließend erfolgt eine Sättigungskorrektur (Farbkorrektur) in der Weise, daß das so erhaltene Ausgangsbild (die Ausgangsbildinformation) ein bevorzugtes Farbfinish erhält, obschon es der Dodging-Verarbeitung unterzogen wurde.
In dem Addierer 74 werden die von der MTX 72 verarbeiteten Bilddaten als Hauptdaten zu den Bilddaten addiert, die am Addierer 60 gewonnen werden, indem das Unschärfe-Wichtungsbild und das Produkt aus Hin­ tergrundbild und Rest, erhalten durch Subtrahieren des Gewichts von einem Referenzwert von beispielsweise "1", addiert werden, um auf diese Weise eine Dodging-Verarbeitung durchzuführen, während der dynamische Bereich der Bilddaten in nicht-linearer Weise komprimiert wird und der dynamische Bereich und die Gradation sowie die Dichte von hellen und dunklen Bereichen der Ausgangsbilddaten so eingerichtet werden, daß sie für das Ausgabebild geeignet sind, das heißt damit Abzüge hoher Qualität reproduziert werden, die praktisch den gleichen Eindruck vermitteln wie eine Aufnahmeszene (photographierte Szene).
Da bei dem obigen Beispiel das Unschärfe-Wichtungsbild aus den Vor­ abtastbilddaten gewonnen wird, die eine andere Anzahl von Pixeln um­ fassen (eine andere Pixeldichte aufweisen) als die Bilddaten, die durch eine Feinabtastung gewonnen werden, muß das Unschärfe-Wichtungsbild in einem (nicht dargestellten) Verarbeitungsteil einer Expansion/Kom­ pression unterzogen werden, bevor die Daten in dem Addierer 74 addiert werden, damit sie den Feinabtastbilddaten entsprechen.
In der zweiten LUT 76 werden die Bilddaten, die durch Addieren der Feinabtastbilddaten im Addierer 74 erhalten wurden, in ihrer Gradation umgewandelt, indem der Farbwiedergabeparameter verwendet wird, um auf diese Weise Bilddaten zu gewinnen, die vorzugsweise den auf dem photoempfindlichen Material A zum Ausdruck gelangenden endgültigen Farbeindrücken entsprechen, bevor die Daten beispielsweise einer (nicht dargestellten) Signalumsetzung unterzogen und schließlich an den Drucker 16 ausgegeben werden.
Im folgenden wird anhand des in Fig. 3 gezeigten Flußdiagramms die Arbeitsweise der Ausführungsform erläutert.
Zunächst werden im Schritt 100 in Fig. 3 die Vorabtastbilddaten aus dem Vorabtastspeicher 40 in das Zonenextrahierelement 50 des Anzeige­ bildverarbeitungsteils 44 eingelesen. Im nächsten Schritt 110 wird eine Hauptobjektzone, beispielsweise eine Person oder dergleichen, aus den so gelesenen Vorabtastbilddaten extrahiert, so daß die Hauptobjektzone einerseits und der Hintergrundbereich andererseits voneinander getrennt werden. Wie oben erläutert, erfolgt diese Aufteilung oder Auftrennung entweder automatisch oder anhand einer Hilfseingabeoperation seitens eines Bedieners.
Im Schritt 120 werden die Farbbilddaten der Hauptobjektzone analysiert, und es wird der Farbabgleich in Bezug auf die Helligkeit der Haupt­ objektzone berechnet, anschließend wird die Wichtungsfunktion in der ersten LUT 52 dadurch eingerichtet, daß der so erhaltene Farbabgleich in der Mitte plaziert wird. Wenn zum Beispiel eine Hautfarbe vorgege­ ben ist, so werden Farbabgleiche für sämtliche in Betracht kommenden Hautfarben einer hellen, einer dunklen und einer mittleren Hautfarbe und dergleichen erzeugt, und entsprechend jeder solchen Helligkeit werden Gewichte eingerichtet.
Im Schritt 130 wird in dem Wichtungsmasken-Erzeugungselement 54 ein Wichtungsbild erzeugt, welches die Bilddaten der extrahierten Haupt­ objektzone wichtet. Im nächsten Schritt 140 wird das Unschärfe-Wich­ tungsbild dadurch erzeugt, daß das so erhaltene Wichtungsbild einer Unschärfemaskenverarbeitung in dem Unschärfenmasken-Verarbeitungs­ element 56 unterzogen wird. Das Gewicht des Unschärfe-Wichtungs­ bildes wird an den Farbwiedergabeparameter-Erzeugungsteil 48 gesen­ det, um einen Korrekturwert für die Gradation zu erzeugen, der dann verwendet wird, wenn die endgültigen Ausgabebilddaten erzeugt werden.
Im Schritt 150 werden die Bilddaten für die Anzeige auf der Anzeige­ vorrichtung 20 erzeugt. Das Produkt, welches erhalten wird durch Mul­ tiplizieren der Bilddaten des Hintergrundbereichs mit dem Rest, der erhalten wird durch Subtrahieren des Gewichts des Unschärfe-Wich­ tungsbildes von einem Referenzwert von zum Beispiel "1" im Rechner 58, wird im Addierer 60 auf das Unschärfe-Wichtungsbild addiert. Die resultierenden Bilddaten werden auf das Wichtungsbild addiert, welches von dem Wichtungsmasken-Erzeugungselement 54 kommen, was im Addierer 62 geschieht, so daß die Bilddaten hiermit einer Dodging-Ver­ arbeitung unterzogen sind, um für die Anzeige geeignete Bilddaten zu erzeugen.
Im Schritt 160 werden die so erhaltenen Bilddaten für die Anzeige einer Gradationsumwandlung in der zweiten LUT 64 unterzogen, und sie werden anschließend in für die Anzeige 20 geeignete Signale im Signal­ wandler 66 umgesetzt, bevor sie schließlich für die endgültige Darstel­ lung auf der Anzeigevorrichtung 20 von einem D/A-Wandler 68 einer D/A-Umwandlung unterzogen werden.
In der Zwischenzeit werden Farbwiedergabeparameter für die Haupt­ objektzone und den Hintergrundbereich im Schritt 170 bzw. Im Schritt 180 erzeugt, um die Ausgabebilddaten zu erzeugen.
Die oben erläuterte Verarbeitung erfolgt zu dem Zweck, die Gradation nach Maßgabe von bestimmten Bereichen in der Weise zu steuern, daß zum Beispiel der Kontrast eines Gesichts aufgeweicht wird, ohne daß dabei der Kontrast des Hintergrunds geändert wird, wenn das Gesicht von einem Schatten überlagert ist, während der Hintergrund deutlich aufgenommen ist, wie es zum Beispiel bei einer Schönwetteraufnahme der Fall ist. Umgekehrt soll der Kontrast des Hintergrunds härter ge­ macht werden, ohne den Kontrast eines Gesichts zu verändern, wenn die Aufnahme zum Beispiel bei bewölktem Himmel vorgenommen wurde.
Indem man eine derartige Gradationssteuerung vornimmt, wird eine reproduzierte Farbe besser an eine gespeicherte Farbe angenähert, so daß ein Abzug gewonnen werden kann, der einen ähnlichen Eindruck vermittelt, wie ihn Menschen haben, wenn sie eine Originalszene (zu photographierende Aufnahmeszene) betrachten.
Farbwiedergabeparameter werden in dem oben geschilderten Beispiel in einzelnen Zonen gebildet. Bei einer solchen Verarbeitung werden in einigen Fällen die Farbwiedergabeparameter für die Hauptobjektzone und den Hintergrundbereich gebildet, sie können aber auch in anderen Fällen je nach Bedarf erzeugt werden. Wenn zum Beispiel der Hinter­ grundbereich Schnee ist, so entspricht der Hintergrund eher der im Gedächtnis gespeicherten Farbe, wenn man einen Blaustich addiert, um einen kalten Eindruck zu vermitteln. Wenn allerdings der gesamte Bild­ bereich verarbeitet wird, erhält auch das Gesicht als Hauptobjektzone einen Blaustich. Um dieses Phänomen zu vermeiden, werden die Farb­ wiedergabeparameter in Bezug auf das Hauptobjekt einerseits und Hin­ tergrundbereiche andererseits erzeugt, wobei das Gesicht in der Weise verarbeitet wird, daß es heller in Erscheinung tritt.
Die oben beschriebenen Farbwiedergabeparameter werden in dem Farb­ wiedergabeparameter-Erzeugungsteil 48 erzeugt. Was die anderen Para­ meter angeht, die nicht in diesem Teil 48 erzeugt werden, so wird je­ weils ein Wert, der den Wert der Bilddaten bei der Ausführung der Schritte 170 und 180 nicht ändert, als ein Parameter eingestellt.
Der Farbwiedergabeparameter wird in dem Farbwiedergabeparameter- Erzeugungsteil 48 durch automatische Analyse erzeugt, aber daneben kann im Schritt 190 der Farbwiedergabeparameter entweder von einem Bediener über den Hilfseingabeteil 78 von Hand eingegeben werden, oder er kann aus Parametern ausgewählt werden, die vorab in einer Datei registriert wurden, entweder systematisch oder gemäß Kundenvor­ gabe oder dergleichen. Nimmt man zum Beispiel den Farbwiedergabe­ parameter für den Hintergrund, so können, da es einfach ist, die Para­ meter in der gleichen Weise einzurichten, Gradationen, die einzelnen Szenen entsprechen, vorab erstellt und abgespeichert werden, um später dann die Möglichkeit zu geben, daß ein Bediener entweder die richtige Auswahl vornimmt, oder daß die Auswahl durch automatische Analyse erfolgt. In einem anderen Fall, in welchem die Gradationen von einem Kunden eingestellt werden, werden eingestellte Gradationen registriert, und man kann unter diesen eingestellten Gradationen eine Auswahl treffen, die dann zur Anwendung gelangt. Was die den einzelnen Szenen entsprechenden Gradationen angeht, so kann man für eine Schnee-Grada­ tion einen sehr hellen Bereich mit einem Cyan-Ton (C) versehen, die Gradation für den Himmel kann einen Blau-Schwarz-Stich erhalten, eine Gradation für ein Bergmotiv kann eine Grün-Aufhellung aufweisen, und so fort.
Im Schritt 170 wird ein Farbwiedergabeparameter der Hauptobjektzone in dem Farbwiedergabeparameter-Einstellteil 48 erzeugt.
Zunächst werden Bilddaten zum Analysieren der Hauptobjektzone er­ zeugt, indem Vorabtastbilddaten, die aus dem Vorabtastspeicher 40 in den Farbwiedergabeparameter-Erzeugungsteil 48 ausgelesen wurden, mit dem Gewicht des Unschärfe-Wichtungsbildes multipliziert werden. Der Farbwiedergabeparameter, das heißt die Korrekturgradation, wird be­ rechnet aus Kennwerten wie zum Beispiel dem Wert für den dyna­ mischen Bereich, dem mittleren Dichtewert, der Pixeldichteverteilung, den Farbabgleichen für einen grellen Bereich, einen mittleren Bereich und einen Abschattungsbereich und so fort. Alternativ kann man die Farbwiedergabeparameter für die Hauptobjektzone, das heißt die Korrek­ turgradation, über den Hilfseingabeteil 78 durch einen Bediener einge­ ben lassen. Der Korrekturbetrag, erhalten durch Multiplizieren der so erhaltenen Korrekturgradation mit dem Gewicht des Unschärfe-Wich­ tungsbildes, wird in der zweiten LUT 76 als ein Farbwiedergabepara­ meter für die Hauptobjektzone eingerichtet. Dieser Korrekturwert bein­ haltet R-, G- und B-Signale, ein Leuchtdichte- oder Luminanzsignal, oder beides, und diese Signale werden auf das Bilddatensignal addiert.
Wenn im vorliegenden Fall die Hauptobjektzone durch Hautfarbe gebil­ det wird und Stellen mit hellem Licht oder Glanzstellen sowie Schatten­ bereiche (oder -zonen) aufweist, wobei der Schattenbereich größer ist als der andere Bereich, so wird die Gradations-Weichheit dadurch gestei­ gert, daß der Glanzlicht-Bereich in die Mitte gerückt wird. Wenn die Hauptobjektzone durch Hautfarbe gebildet wird und nahezu die gesamte Zone außerhalb eines Farbwiedergabebereichs (Dichtebereichsumfang, Dichteskala) liegt, so wird eine Dichteverschiebung (Steigerung oder Verringerung der Dichte) in einen Bereich hinein vorgenommen, der dem Farbwiedergabebereich (Dichtebereichsumfang) entspricht, so daß man einen zufriedenstellenden Korrektureffekt erreicht. Wenn außerdem die Hauptobjektzone durch Hautfarbe gebildet wird und der Farbabgleich ihres hellen Teils bläulich ist, so kann eine Gradation in Richtung eines Magenta-Stichs (M-Stich) korrigiert werden. Außerdem kann man vor­ sehen, daß die Gradation für eine abgebildete Person keiner Gradations- Verhärtung unterzogen wird. Es ist vorzuziehen, in dem Farbwieder­ gabeparameter-Erzeugungsteil 48 gemäß der Erfindung den Farbwieder­ gabeparameter in der Weise zu erzeugen, daß mindestens eine dieser verschiedenen Verarbeitungsmöglichkeiten genutzt wird.
Darüber hinaus ist es zu bevorzugen, daß die Farbverarbeitung in Bezug auf die R-, G- und B-Signale, ein Leuchtdichtesignal, oder beides, durchgeführt wird.
Im Schritt 180 wird der Farbwiedergabeparameter für den Hintergrund in dem Farbwiedergabeparameter-Erzeugungsteil 48 erzeugt. In dem Teil 48 führt ein Bediener eine Eingabeoperation über den Hilfseingabeteil 78 durch, oder es erfolgt eine Auswahl unter verschiedenen Gradations­ mustern, die zuvor abgespeichert wurden. Einen Korrekturwert für den Hintergrundbereich erhält man, indem man diesen Farbwiedergabepara­ meter multipliziert mit dem Rest, weicher seinerseits gebildet wird durch Subtrahieren des Gewichts des Unschärfe-Wichtungsbildes von einem Referenzwert, der zum Beispiel 1 beträgt und in dem zweiten LUT 76 abgespeichert ist.
Im nächsten Schritt 200 wird das Ausgabebild (werden die Ausgabebild­ daten) erzeugt. Aus dem Feinabtastspeicher 42 von dem ersten LUT 70 des Feinraster-Verarbeitungsteils 46 ausgelesene Bilddaten werden einer Grauabgleich-Einstellung, einer Helligkeitskorrektur (Dichtekorrektur) und einer Gradationskorrektur unterzogen, und sie werden anschließend in dem MTX 42 einer - Sättigungskorrektur unterzogen, um dann schließlich an den Addierer 74 als resultierende Bilddaten gegeben zu werden.
In dem Addierer 74 werden die resultierenden Bilddaten auf diejenigen Bilddaten addiert, die von dem Addierer 60 gesendet werden (die Bild­ daten, die erhalten werden durch Addieren der unscharfen Bilddaten auf das Produkt von Hintergrundbilddaten und Restdaten, diese wiederum erhalten durch Subtraktion des Gewichts von einem Referenzwert von beispielsweise "1" im Addierer 60), so daß eine Dodging-Verarbeitung erfolgt. Da hierbei die von dem Addierer 60 gesendeten Bilddaten die Bilddaten sind, die auf den Vorabtastbilddaten basieren und folglich eine andere Pixelanzahl (Pixeldichte) als die Feinabtast-Bilddaten haben, werden die von dem Addierer 60 kommenden Bilddaten einer Expan­ sion/Kompression unterzogen.
Die LUT 76 bildet Ausgabebilddaten, indem sie den oben beschriebenen Korrekturwert oder Korrekturbetrag auf die so gewonnenen Bilddaten addiert. In anderen Worten: wie in Fig. 4 als allgemeines Konzept eines Verfahrens zum Erzeugen von Ausgangsbilddaten dargestellt ist, werden die Feinabtast-Bilddaten und eine Zahl addiert, die man erhält durch Multiplizieren des Farbwiedergabeparameters der Hauptobjektzone mit dem Gewicht des Unschärfe-Wichtungsbildes, oder durch Wichten des Farbwiedergabeparameters des Hintergrundbereichs mit dem Rest, der erhalten wird durch Subtrahieren des Gewichts des Unschärfe-Wich­ tungsbildes von einem Referenzwert, der zum Beispiel "1" beträgt, so daß hierdurch die Ausgabebilddaten gewonnen werden.
Da also Gradationen entsprechend den einzelnen zu steuernden Zonen oder Bereichen eines Bildes bei dieser Ausführungsform gesteuert werden können, kann man hochqualitative Abzüge erhalten, ohne daß die wiedergegebene Farbe von der im Gedächtnis behaltenen Farbe abweicht.
Wenngleich bei der obigen Ausführungsform die Daten des Unschärfe- Wichtungsbildes aus den Vorabtastbilddaten gewonnen werden, so können die Daten des Unschärfe-Wichtungsbildes auch aus den Fein­ abtast-Bilddaten gewonnen werden.
Während die erfindungsgemäße Bildverarbeitungsvorrichtung oben im einzelnen erläutert wurde, versteht der Fachmann, daß das Ausführungs­ beispiel keineswegs beschränkend zu verstehen ist, sondern zahlreiche Abwandlungen und Modifikationen vorgenommen werden können, ohne vom Schutzumfang der Erfindung abzuweichen.
Wie oben ausgeführt, kann die vorliegende Erfindung eine Hauptobjekt­ zone von dem Hintergrundbereich im Eingabebildsignal trennen und für die einzelnen Zonen die Gradationen steuern. Hierdurch ermöglicht die Erfindung die Wiedergabe von Farben nahezu in der Weise, wie sie im Gedächtnis haftengeblieben sind, so daß hochqualitative Abzüge erzeugt werden können, obschon das Eingabebild einer Dodging-Verarbeitung unterzogen wurde.

Claims (14)

1. Bildverarbeitungsvorrichtung zum Anwenden einer spezifizierten Bildverarbeitung auf mit Hilfe einer Leseeinrichtung von einem auf einem Film aufgezeichneten Bild photoelektrisch gelesene Bilddaten, um Ausgabebilddaten zu erzeugen, umfassend:
einen Unschärfe-Wichtungsbild-Erzeugungsteil (50, 52, 54, 56) zum Erzeugen eines Unschärfe-Wichtungsbildes aus den Bilddaten, welches eine Hauptobjektzone und einen Hintergrundbereich weich miteinander verbindet;
einen Farbwiedergabeparameter-Erzeugungsteil (48) zum Erzeugen mindestens eines Farbwiedergabeparameters der Hauptobjektzone und/oder eines Farbwiedergabeparameters des Hintergrundbereichs; und
einen Ausgabebild-Erzeugungsteil (46) zum Erzeugen der Ausgabebild­ daten aus den Bilddaten unter Verwendung des Farbwiedergabeparame­ ters der Hauptobjektzone, gewichtet mit einem Gewicht des Unschärfen- Wichtungsbildes, und/oder des Farbwiedergabeparameters des Hinter­ grundbereichs, gewichtet mit dem Rest, erhalten durch Subtrahieren des Gewichts des Unschärfen-Wichtungsbildes von einem Referenzwert.
2. Vorrichtung nach Anspruch 1, bei der der Unschärfen-Wichtungsbild- Erzeugungsteil ein Zonenextrahierelement (50) zum Unterteilen der Bilddaten in eine Hauptobjektzone und einen Hintergrundbereich, ein Wichtungsmasken-Erzeugungselement (54) zum Erzeugen einer Wich­ tungsmaske bezüglich der Hauptobjektzone und ein Unschärfemasken- Verarbeitungselement (56) zum Ausüben einer Unschärfemasken-Ver­ arbeitung bezüglich eines Wichtungsbildes, die die Hauptobjektzone so wichtet, daß das Unschärfen-Wichtungsbild entsteht, aufweist.
3. Vorrichtung nach Anspruch 2, bei der das Zonenextrahierelement (50) die Bilddaten in die Hauptobjektzone und den Hintergrundbereich ent­ weder automatisch oder durch eine Hilfseingabe seitens einer Bedie­ nungsperson aufteilt, wobei das Wichtungsmasken-Erzeugungselement (54) die Wichtungsmaske dadurch erzeugt, daß es Farbbilddaten der Hauptobjektzone analysiert und dann einen Farbabgleich bezüglich der Helligkeit der Hauptobjektzone berechnet und schließlich eine Wich­ tungsfunktion einrichtet, die den berechneten Farbabgleich in die Mitte rückt.
4. Vorrichtung nach Anspruch 3, bei der das Wichtungsmasken-Erzeu­ gungselement (54) die Wichtungsfunktion in Form einer Nachschlage­ tabelle (LUT) bildet.
5. Vorrichtung nach einem der Ansprüche 2 bis 4, bei der das Un­ schärfemasken-Verarbeitungselement (56) das Unschärfen-Wichtungsbild unter Verwendung der Bilddaten aus einer Vorabtastung erzeugt, welche das Bild mit Hilfe der Bildleseeinrichtung bei geringer Auflösung vor einer Feinabtastung liest, wobei die Feinabtastung das Bild zur Erzeu­ gung der Ausgabebilddaten liest, und außerdem bezüglich des Unschär­ fen-Wichtungsbildes eine Expansion/Kompression ausführt, wenn die Ausgabebilddaten aus Bilddaten erzeugt werden, die durch die Feinab­ tastung erhalten werden.
6. Vorrichtung nach einem der Ansprüche 2 bis 4, bei der das Unschär­ femasken-Verarbeitungsteil das Unschärfen-Wichtungsbild direkt unter Verwendung der Bilddaten erzeugt, die durch eine Feinabtastung gewon­ nen werden, bei der das Bild von der Bildleseeinrichtung zur Erzeugung der Ausgabebilddaten gelesen wird.
7. Vorrichtung nach einem der Ansprüche 1 bis 6, bei der der Farb­ wiedergabeparameter-Erzeugungsteil (48) Bilddaten für eine Haupt­ objektzonenanalyse erzeugt, indem die Bilddaten mit dem Gewicht des Unschärfen-Wichtungsbildes multipliziert werden, und Bilddaten erzeugt für eine Hintergrundbereichsanalyse, die erhalten werden durch Multipli­ zieren der Bilddaten mit dem Rest, der erhalten wird durch Subtrahieren - des Gewichts des Unschärfen-Wichtungsbildes von einem Referenzwert, und außerdem einen Farbwiedergabeparameter der Hauptobjektzone dadurch erzeugt, daß eine Korrekturgradation der Hauptobjektzone, die entweder aus Kennwerten der Bilddaten für die Hauptobjektzonenanalyse und der Bilddaten für die Hintergrundbereichsanalyse berechnet wird, oder die von einer Bedienungsperson eingegeben werden, multipliziert wird mit dem Gewicht des Unschärfen-Wichtungsbildes, in Kombination mit Signalen, die auf die Bilddaten addiert werden.
8. Vorrichtung nach Anspruch 7, bei der die auf die Bilddaten zu addierenden Signale zumindest eines der folgenden Signale beinhaltet: R-, G- und B-Signale der drei Primärfarben und ein Leuchtdichtesignal.
9. Vorrichtung nach Anspruch 7 oder 8, bei der der Kennwert min­ destens einen Wert bezüglich eines dynamischen Bereichs, einer durch­ schnittlichen Dichte, einer Pixeldichteverteilung, eines Farbabgleichs einer Zone mit starkem Licht, eines Farbabgleichs einer Zone mittlerer Dichte und eines Farbabgleichs eines Schattenbereichs beinhaltet.
10. Vorrichtung nach einem der Ansprüche 1 bis 9, bei der der Farb­ wiedergabeparameter-Erzeugungsteil (48) zumindest folgende Schritte durchführt:
Erhöhen der Gradationsweichheit, indem eine Zone starken Lichts in die Mitte gerückt wird, wenn die Hauptobjektzone durch Hautfarbe gebildet wird und eine Zone starken Lichts sowie ein Schattenbereich innerhalb der Hauptobjektzone existieren, wobei der Schattenbereich größer als der Bereich mit hellem Licht ist;
Ausführen einer Dichteverschiebung in einen Farbwiedergabebereich, wenn die Hauptobjektzone durch Hautfarbe gebildet wird und die Haupt­ objektzone sich fast außerhalb des Farbwiedergabebereichs befindet;
Korrigieren der Gradation mit einem Magenta-Stich, wenn die Haupt­ objektzone Hautfarbe enthält und der Farbabgleich in einer Zone hellen Lichts der Hauptobjektzone bläulich ist; und
Unterlassen einer Steigerung der Gradationsverhärtung bezüglich einer Gradation im Bereich der Abbildung einer Person.
11. Vorrichtung nach einem der Ansprüche 1 bis 10, bei der die Farb­ verarbeitung bezüglich der Bilddaten durch mindestens eines folgender Signale erfolgt: R-, G- und B-Signale der drei Primärfarben und ein Leuchtdichtesignal.
12. Vorrichtung nach einem der Ansprüche 1 bis 11, bei der der Farb­ wiedergabeparameter des Hintergrundbereichs dazu dient, eine Gradation nach Maßgabe einer Szene einzugeben, die vorab von einer Bedienungs­ person vorbereitet wurde, oder eine geeignete Gradation anhand einer Bildanalyse unter szenenabhängigen Gradationen ausgewählt wird, oder eine Auswahl einer geeigneten Gradation unter solchen Gradationen erfolgt, die von einem Benutzer vorab eingerichtet und registriert wurden.
13. Vorrichtung nach Anspruch 12, bei der die Gradation oder die Gra­ dationen gemäß einer oder mehrerer Szenen mindestens eine der folgenden Gradationen beinhaltet: eine Schnee-Gradation, bei der eine Zone mit hellem Licht oder eine glänzende Zone einen Cyan-Stich erhält, eine Himmel-Gradation, wo Cyan zu einem schwärzlich blauen Farbstich wird, und eine Berg-Gradation, bei der Grün zu Hellgrün wird.
14. Vorrichtung nach einem der Ansprüche 1 bis 13, bei dem der Be­ zugswert "1" beträgt und das Unschärfen-Wichtungsbild auf "1" nor­ miert ist.
DE19909581A 1998-03-04 1999-03-04 Bildverarbeitungsvorrichtung Ceased DE19909581A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5186598 1998-03-04

Publications (1)

Publication Number Publication Date
DE19909581A1 true DE19909581A1 (de) 1999-09-09

Family

ID=12898775

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19909581A Ceased DE19909581A1 (de) 1998-03-04 1999-03-04 Bildverarbeitungsvorrichtung

Country Status (2)

Country Link
US (1) US6459500B1 (de)
DE (1) DE19909581A1 (de)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6795585B1 (en) * 1999-07-16 2004-09-21 Eastman Kodak Company Representing digital images in a plurality of image processing states
US7119923B1 (en) * 1999-07-23 2006-10-10 Fuji Photo Film Co., Ltd. Apparatus and method for image processing
JP2001186323A (ja) * 1999-12-24 2001-07-06 Fuji Photo Film Co Ltd 証明写真システム及び画像処理方法
US6791716B1 (en) * 2000-02-18 2004-09-14 Eastmas Kodak Company Color image reproduction of scenes with preferential color mapping
JP2002023278A (ja) * 2000-07-07 2002-01-23 Fuji Photo Film Co Ltd 画像形成装置及び画像形成方法
JP2003337944A (ja) * 2002-03-14 2003-11-28 Ricoh Co Ltd 画像処理装置、画像処理用のホスト装置及び画像処理方法、並びに画像処理プログラム及びコンピュータ読み取り可能な記憶媒体
JP4007052B2 (ja) 2002-05-07 2007-11-14 セイコーエプソン株式会社 画像処理制御データ更新装置
US8089489B2 (en) * 2004-09-30 2012-01-03 Lexmark International, Inc. Method for converting a source gamut of an image to a destination gamut
JP4812282B2 (ja) * 2004-11-05 2011-11-09 富士フイルム株式会社 画像処理方法及び装置並びに撮像装置
JP4750854B2 (ja) * 2006-09-14 2011-08-17 富士通株式会社 画像処理方法および装置とそのプログラム
US9154546B1 (en) * 2013-03-15 2015-10-06 Google Inc. Re-serving shared content
JP2015152645A (ja) * 2014-02-10 2015-08-24 シナプティクス・ディスプレイ・デバイス合同会社 画像処理装置、画像処理方法、表示パネルドライバ及び表示装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4315318A (en) * 1978-12-26 1982-02-09 Fuji Photo Film Co., Ltd. Method and apparatus for processing a radiation image
US5343390A (en) * 1992-02-28 1994-08-30 Arch Development Corporation Method and system for automated selection of regions of interest and detection of septal lines in digital chest radiographs
DE4415990A1 (de) * 1994-05-06 1995-11-23 Philips Patentverwaltung Verfahren zur Wiedergabe insbesondere einer digitalen Röntgenaufnahme als sichtbares Bild sowie Anordnung zur Durchführung des Verfahrens
EP1134696A3 (de) * 1995-03-29 2004-08-18 Fuji Photo Film Co., Ltd. Bildverarbeitungsverfahren und -Vorrichtung
JPH0918706A (ja) * 1995-06-28 1997-01-17 Fuji Photo Film Co Ltd マイクロフィルム画像読取装置の制御方法
US6046821A (en) * 1997-11-17 2000-04-04 Xerox Corporation Unsharp masking for draft mode rendering of digital images
JPH11266372A (ja) * 1998-03-18 1999-09-28 Minolta Co Ltd カラー画像処理装置

Also Published As

Publication number Publication date
US6459500B1 (en) 2002-10-01

Similar Documents

Publication Publication Date Title
DE69937707T2 (de) Digitales Fotofinishingsystem mit digitaler Bildverarbeitung
DE69737984T2 (de) Bildverarbeitungsverfahren und -gerät
DE602005003917T2 (de) Verfahren und Vorrichtung zur Erzeugung von Bildern mit hoher Dynamik aus mehreren Belichtungen
DE19842810A1 (de) Bildverarbeitungsvorrichtung
JP4081219B2 (ja) 画像処理方法及び画像処理装置
US6667815B1 (en) Method and apparatus for processing images
US6480300B1 (en) Image processing apparatus, image processing method and recording medium on which software for executing the image processing is recorded
DE69113373T2 (de) Verfahren und vorrichtung zur verbesserten farbwiedergabe von papierbildern von elektronischen kameras.
DE3751412T2 (de) Verfahren und Vorrichtung zur Bildverarbeitung mit Gradationskorrektur des Bildsignals.
DE19855885A1 (de) Bildverarbeitungsverfahren und -vorrichtung
DE68921119T2 (de) Tonumwandlungsverfahren für Bilder.
EP1768061B1 (de) Dynamikumfang-Kompression aus geglätteten Bilddaten
DE69633319T2 (de) Bildreproduktionsverfahren und -gerät
US6603878B1 (en) Image processing method
DE60308472T2 (de) Bildverarbeitungsanordnung, elektronische Kamera, und Bildverarbeitungsprogramm
DE60127016T2 (de) Verfahren und Gerät zur Durchführung einer lokalen Farbkorrektur
DE60029194T2 (de) Verfahren, Vorrichtung und Speichermedium für Bildverarbeitung
DE19910645A1 (de) Bildverarbeitungsverfahren
EP1231564A1 (de) Digitale lokale Bildeigenschaftssteuerung mittels Masken
DE69937706T2 (de) Digitales Fotofinishingsystem mit digitaler Bildverarbeitung
DE4107504A1 (de) Vorrichtung zum herstellen von reproduktionen
DE69937708T2 (de) Digitales Fotofinishingsystem mit digitaler Bildverarbeitung
DE19909581A1 (de) Bildverarbeitungsvorrichtung
JP3913356B2 (ja) 画像処理方法
DE69937705T2 (de) Digitales Fotofinishingsystem mit Digital-Bildverarbeitung alternativer Farb-Fotografischer Aufnahmematerialien

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: FUJIFILM CORP., TOKIO/TOKYO, JP

8131 Rejection