DE19909581A1 - Bildverarbeitungsvorrichtung - Google Patents
BildverarbeitungsvorrichtungInfo
- Publication number
- DE19909581A1 DE19909581A1 DE19909581A DE19909581A DE19909581A1 DE 19909581 A1 DE19909581 A1 DE 19909581A1 DE 19909581 A DE19909581 A DE 19909581A DE 19909581 A DE19909581 A DE 19909581A DE 19909581 A1 DE19909581 A1 DE 19909581A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- image data
- main object
- weighting
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
- H04N1/56—Processing of colour picture signals
- H04N1/58—Edge or detail enhancement; Noise or error suppression, e.g. colour misregistration correction
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
Description
Die Erfindung betrifft eine Bildverarbeitungsvorrichtung zur Verwen
dung in Verbindung mit digitalen Photokopiergeräten (im folgenden
einfach als Kopierer bezeichnet) zum photoelektrischen Lesen von auf
Filmen aufgezeichneten Bildern, um Drucke oder Abzüge (Photogra
phien) von den Bildern zu erhalten.
Auf photographischen Filmen (im folgenden einfach: Filme), beispiels
weise Negativfilmen, Umkehrfilmen und dergleichen aufgezeichnete
Bilder wurden üblicherweise auf photoempfindliches Material (photogra
phisches Papier) abgezogen, indem ein auf dem Film befindliches Bild
auf das photoempfindliche Material projiziert wurde, um dessen Ober
fläche zu belichten. Dies wird als direkte Belichtung (Analogbelichtung)
bezeichnet.
In den vergangenen Jahren wurden Photokopiergeräte oder Photodrucker
entwickelt, die von einer digitalen Belichtung Gebrauch machen. Ein
digitaler Photokopierer dient zum Herstellen eines Abzugs oder einer
Kopie von einem auf einen Film aufgezeichneten Bild, indem folgende
Schritte durchgeführt werden: das Bild wird von dem Film photoelek
trisch gelesen, das ausgelesene Bild wird in ein digitales Signal umge
setzt, es erfolgen verschiedene Arten der Bildverarbeitung, um Bildauf
zeichnungsdaten zu erhalten, das photoempfindliche Material wird einer
abtastenden oder rasternden Belichtung mit Hilfe von Aufzeichnungslicht
unterzogen, welches entsprechend den Bilddaten moduliert wurde, und
das auf diese Weise aufgezeichnete (latente) Bild wird dann zu einem
fertigen Bild oder Abzug entwickelt.
Die Belichtungsbedingungen bei der Herstellung des Abzugs lassen sich
bestimmen durch Verarbeitung von Bildern mit digitalen Daten in dem
digitalen Photokopierer, beispielsweise anhand der Bilddaten, so daß
hochqualitative Abzüge erstellbar sind, die bislang nicht verfügbar
waren, da nun eine Kompensation für ein Fade-Out des Bildes und eine
unpassende Gradation möglich ist, beispielsweise bei blendendem hellen
Licht oder dunklen Schattierungen aus dem Hintergrundlicht, aufgrund
elektronischen Blitzlichts oder dergleichen. Die Kompensation betrifft
eine Schärfungsverarbeitung, eine Kompensation für Farb- oder Dichte
fehler, eine Kompensation einer Unter- oder Überbelichtung, eine Kom
pensation einer unzureichenden Lichtmenge am Bildrand und ähnliches.
Darüber hinaus läßt sich durch Verarbeitung der Bilddaten eine zu
sammengesetzte Photographie erstellen, bei der zum Beispiel eine Mehr
zahl von Bildern zusammengefaßt ist, eine Bildaufteilung durchgeführt
wurde, eine Komposition von Bestandteilen vorgenommen ist, oder
dergleichen. Die Bilddatenverarbeitung ermöglicht außerdem die Aus
gabe von editierten/verarbeiteten Abzügen, die je nach Anwendungsfall
frei gestaltbar sind.
Außerdem machen digitale Photokopierer Bilddaten für andere Zwecke
als für die Photographie verfügbar, da der Photokopierer die Ausgabe
von Bildern in Form von Drucken oder Abzügen (Photographien) er
möglicht und darüber hinaus auch die Möglichkeit schafft, die Bilddaten
nicht nur an beispielsweise einen Rechner zu geben, sondern sie auch
auf optischen und/oder magnetischen Aufzeichnungsmedien zu speichern,
beispielsweise auf einer Floppy-Disk.
Ein solcher digitaler Photokopierer, wie er oben erläutert wurde, besteht
im wesentlichen aus einem Abtaster oder Scanner (allgemein: einer
Bildlesevorrichtung) zum photoelektrischen Lesen eines auf einem Film
aufgezeichneten Bildes, einer Bildverarbeitungsvorrichtung, die das aus
gelesene Bild einer Bildverarbeitung zu dem Zweck unterzieht, Bildauf
zeichnungsdaten (Belichtungsbedingungen) zu erhalten, und einem
Drucker oder Printer (Bildaufzeichnungsvorrichtung), um photoempfind
liches Material rasternd entsprechend den von der Bildverarbeitungsvor
richtung ausgegebenen Bilddaten abzutasten, woraufhin das so belichtete
photoempfindliche Material zur Herstellung eines Abzugs entwickelt
wird.
Die Arbeitsweise des Abtasters beinhaltet, daß von einer Lichtquelle
emittiertes Leselicht auf einen Film auftrifft, um Projektionslicht zu
erzeugen, welches die Information des auf dem Film aufgezeichneten
Bildes trägt, eine Bilderzeugung auf einem Bildsensor, beispielsweise
einem ladungsgekoppelten Bauelement (CCD-Sensor) mit Hilfe einer
Abbildungsoptik, damit das Bild mit Hilfe des Projektionslichts durch
photoelektrische Umwandlung gelesen wird, das Ausführen verschiede
ner Arten der Bildverarbeitung je nach Bedarf, und das Senden der
Daten über das auf dem Film befindliche Bild (Bilddatensignal) zu der
Bildverarbeitungsvorrichtung.
Der Betrieb der Bildverarbeitungsvorrichtung beinhaltet die Einstellung
von Bildverarbeitungsbedingungen nach Maßgabe der durch den Abtaster
gelesenen Bilddaten, das Anwenden der Bildverarbeitung entsprechend
den eingestellten Bedingungen auf die Bilddaten und das Senden der
ausgegebenen Bildaufzeichnungsdaten (Belichtungsbedingungen) an den
Printer.
Beim Betrieb des Printers, das heißt eines Printers oder Druckers, der
eine Belichtung beispielsweise durch Abtastung mit einem Lichtstrahl
vornimmt, wird ein mit dem von der Bildverarbeitungsvorrichtung ge
sendeten Bilddaten modulierter Lichtstrahl zur Erzeugung eines latenten
Bildes durch Rasterbelichtung oder abtastende Belichtung des photo
empfindlichen Materials in zweidimensionaler Weise verwendet, und es
erfolgt eine spezielle Entwicklungsverarbeitung oder ähnliches für das
photoempfindliche Material, um einen Abzug (eine Photographie) zu
erhalten, die einer Reproduktion des Bildes auf dem Film entspricht.
Andererseits liegen die Aufzeichnungsbedingungen, unter denen ein Bild
auf einem Film aufgezeichnet ist, nicht fest, und es gibt zahlreiche
Fälle, in denen beträchtliche Unterschiede und Abweichungen vorhanden
sind, zum Beispiel kann es einen äußerst breiten dynamischen Bereich
zwischen hell und dunkel geben (verschiedene Dichten), wenn man zum
Beispiel ein Bild betrachtet, welches mit einem Elektronenblitz aufge
nommen ist, oder ein Bild von einer Szene mit Hintergrundlicht und
dergleichen.
Wenn ein derartiges Filmbild nach dem herkömmlichen Verfahren be
lichtet wird, um einen fertigen Abzug zu erhalten, besteht die Neigung,
daß Einzelheiten auf dem Bild nicht erkennbar sind aufgrund entweder
einer unzureichenden Gradation eines hellen (stark belichteten) Bereichs
oder eines dunklen (Schatten-)Bereichs auf dem Abzug. Wenn zum
Beispiel eine Person bei Gegenlicht photographiert wird und die Bildauf
nahme in der Weise erfolgt, daß das Bild der Person vorzugsweise
deutlich ist, so kommt es zu einem Auswaschen des hellen Bereichs,
beispielsweise eines Ausschnitts des Himmels, so daß dieser Bereich
weiß wird und Einzelheiten nicht mehr in Erscheinung treten. Wenn
hingegen das Bild so aufgenommen wird, daß der helle Bereich, bei
spielsweise der Ausschnitt des Himmels, deutlich wird, so wird das Bild
der Person stumpf und schwarz, die Einzelheiten sind nicht mehr er
kennbar.
Wenn photoempfindliches Material durch ein Filmbild belichtet wird, bei
dem es eine starke Schwankung zwischen hell und dunkel gibt, so-macht
man bislang von der sogenannten Dodging-Methode Gebrauch.
Die Dodging-Methode ist ein Verfahren zum Erzeugen eines fertigen
Abzugs, auf dem über die gesamte Bildfläche hinweg ein brauchbares
Bild in der Weise erzeugt wird, daß der ursprüngliche Pegel der Belich
tung auf einen Bereich beschränkt wird, der eine mittlere Bilddichte
aufweist, hingegen die Menge des zur Belichtung verwendeten Lichts in
einem hellen (stark belichteten) Bereich, wo das Bild zum Auswaschen
und weiß-werden neigt, gesteigert wird, und die Belichtungsmenge in
einem dunklen (Schatten-)Bereich, wo das Bild zum stumpf- und
schwarz-werden neigt, reduziert wird, um dadurch einen sehr hellen
Bereich und einen sehr dunklen Bereich des auf dem Film aufgezeichne
ten Bildes so zu korrigieren, daß das Bild besser dem Eindruck ent
spricht, den eine Person von der ursprünglichen Aufnahmeszene hat oder
hatte.
Bei der konventionellen Vorrichtung mit direkter Belichtung wird also
die Dodging-Methode in der Weise eingesetzt, daß die Menge von Licht
beim Belichtungsvorgang nach Maßgabe eines auf einem Film aufge
zeichneten Bildes lokal oder vollständig modifiziert wird. Genauer ge
sagt die Dodging-Methode sieht vor, eine Belichtung in der Weise
durchzuführen, daß eine Sperrplatte, ein ND-Filter oder dergleichen in
den Belichtungsweg eingeführt wird, daß eine durch eine Belichtungs
quelle erzeugte Lichtmenge lokal geändert wird, und/oder daß mono
chrome Filme hergestellt werden, indem der helle Bereich und der
dunkle Bereich des auf dem Film aufgezeichneten Bildes umgekehrt
werden und eine Belichtung durch Überlagerung der Filme durchgeführt
wird. Es sind noch weitere Methoden möglich.
Der digitale Photokopierer macht hingegen von einem Verfahren Ge
brauch, bei dem das Bild in größerer Entsprechung des Eindrucks der
ursprünglichen Aufnahmeszene reproduziert wird, wobei ein höheres
Maß an Freiheit bei der Gestaltung dadurch möglich ist, daß von der
Bilddatenverarbeitung Gebrauch gemacht wird, die einen dynamischen
Bereich des Bildes komprimiert (dies wird im folgenden als Dodging-
Verarbeitung bezeichnet), um vorzugsweise die hellen und die dunklen
Bereiche entsprechend wiedergegeben, so daß eine bessere Wiedergabe
treue des Bildes erreicht wird als bei den herkömmlichen Dodging-Ver
fahren in Verbindung mit der direkten Belichtung. Die Anmelderin der
vorliegenden Erfindung hat bereits ein solches Verfahren vorgeschlagen
(JP-A-9-18704 und W-A-9-130609).
Die digitale Bilddatenverarbeitung erfolgt im allgemeinen durch folgende
Schritte: photoelektrisches Lesen eines auf einem Film aufgezeichneten
Bildes, um Bilddaten zu gewinnen, Analysieren der so gewonnenen
Bilddaten und Einstellen der Bildverarbeitungsbedingungen und derglei
chen für die Dodging-Verarbeitung. Allerdings gibt es in zahlreichen
Fällen einen Unterschied zwischen dem auf dem Film aufgezeichneten
Bild (bzw. dem daraus reproduzierten Bild) und dem Eindruck der ur
sprünglichen Aufnahmeszene, abhängig von der Art der ursprünglichen
Aufnahmeszene, der Leuchtdichte der Aufnahmeszene und den Strah
lungsbedingungen.
Daher gibt es Beschränkungen bei dem Versuch, das erhaltene Bild dem
Eindruck der ursprünglichen Aufnahmeszene näher zu bringen, auch
dann, wenn abhängig von den Bilddaten die optimalen Bedingungen für
die Dodging-Verarbeitung eingestellt werden.
In anderen Worten: da die Dodging-Verarbeitung im allgemeinen im
Bereich des Leuchtdichtesignals (Graustufe) erfolgt ist, ergibt sich zum
Beispiel das Problem, daß ein Himmelausschnitt einen grauen Farbstich
erhält, wenn dieser Himmelausschnitt zum Beispiel einer Dodging-Ver
arbeitung unterzogen wird.
Ein weiteres Problem ergibt sich dann, wenn die Dichte des Himmel
ausschnitts gesteigert wird, weil dann die Sättigung für diesen Himmel
ausschnitt gleichzeitig gesteigert werden muß. Ansonsten wird die Farbe
des Himmels anders, als sie ursprünglich aussehen kann, das heißt sie
wird zu einer künstlichen Farbe.
Im Hinblick auf die dem Stand der Technik innewohnenden Probleme ist
es Ziel der vorliegenden Erfindung, eine Bildverarbeitungsvorrichtung
zum Verarbeiten von aus einem auf einem Film aufgezeichneten Bild
gewonnenen Eingangsbilddaten zu Ausgangsbilddaten zu schaffen, bei
dem vorzugsweise von dem oben erläuterten digitalen Photokopierer
Gebrauch gemacht wird, wobei die Vorrichtung in der Lage sein soll,
ein Bild zu reproduzieren, welches einen Eindruck der ursprünglichen
Aufnahmeszene möglichst gut wiedergibt, auch dann, wenn eine
Dodging-Verarbeitung erfolgt. Außerdem soll die Vorrichtung in der
Lage sein, Gradationen zonenweise zu steuern, um zum Beispiel den
Kontrast eines Gesichts einer Person in der Gradation aufzuweichen,
ohne dabei den Kontrast des Hintergrunds des Bildes zu ändern, wenn
das Bild zum Beispiel bei Schönwetter oder dergleichen aufgenommen
ist, oder um - alternativ - die Hintergrundzone in der Gradation härter
zu gestalten, ohne gleichzeitig den Kontrast des Gesichts einer Person in
dem Bild zu ändern, wenn das Bild zum Beispiel bei bewölktem Himmel
oder dergleichen aufgenommen wurde.
Um das obige Ziel zu erreichen, schafft die vorliegende Erfindung eine
Bildverarbeitungsvorrichtung, die Bilddaten, die photoelektrisch von
einem auf einem Film aufgezeichneten Bild durch eine Bildleseeinrich
tung gelesen wurden, einer spezifischen Bildverarbeitung unterzieht, um
Ausgangsbilddaten zu erhalten, wobei diese Vorrichtung die Merkmale
des Anspruchs 1 aufweist.
Vorteilhafte Weiterbildungen und Ausgestaltungen der Erfindung sind in
den vom Anspruch 1 abhängigen Ansprüchen angegeben.
Im folgenden werden Ausführungsbeispiele der Erfindung anhand der
Zeichnungen näher erläutert. Es zeigen:
Fig. 1 ein Blockdiagramm eines digitalen Photokopierers unter Ver
wendung einer Ausführungsform einer erfindungsgemäßen Bildverarbei
tungsvorrichtung;
Fig. 2 ein Blockdiagramm einer Ausführungsform der Bildverarbei
tungsvorrichtung des digitalen Photokopierers nach Fig. 1;
Fig. 3 ein Flußdiagramm des Prozeßablaufs der Ausführungsform; und
Fig. 4 eine konzeptmäßige Ansicht zur Veranschaulichung eines Ver
fahrens zur Erzeugung eines Ausgangsbildes gemäß der Ausführungs
form.
In den begleitenden Zeichnungen ist eine Bildverarbeitungsvorrichtung
gemäß der Erfindung dargestellt, die im folgenden detailliert erläutert
wird.
Fig. 1 zeigt ein Blockdiagramm einer Ausführungsform eines digitalen
Photokopierers, der von einer erfindungsgemäßen Bildverarbeitungsvor
richtung Gebrauch macht.
Ein digitaler Photokopierer (im folgenden einfach als Photokopierer
bezeichnet) 10 enthält im wesentlichen einen Scanner oder Abtaster (als
Bildleseeinrichtung) 12 zum photoelektrischen Lesen eines auf einem
Film F aufgezeichneten Bildes, eine Bildverarbeitungsvorrichtung 14, die
die so gelesenen Bilddaten (die Bildinformation) einer Bildverarbeitung
unterzieht und den gesamten Photokopierer 10 betreibt und steuert, und
einen Drucker oder Printer 16, der ein photoempfindliches Material A
mittels eines Lichtstrahls einer Bildbelichtung unterzieht, welcher durch
die von der Bildverarbeitungsvorrichtung 14 ausgegebenen Bilddaten
moduliert ist, und um das belichtete photoempfindliche Material A zu
entwickeln und als fertigen Abzug auszugeben.
Außerdem ist die Bildverarbeitungsvorrichtung 14 mit einem Betriebs
system verbunden, welches eine Tastatur 18a und eine Maus 18b enthält,
um verschiedene Bedingungen, eine Auswahl und/oder Angabe für die
Verarbeitung, eine Angabe über eine Farb- und/oder Dichtekorrektur
oder dergleichen einzugeben (einzustellen), und eine Anzeigevorrichtung
20 zum Darstellen eines von dem Abtaster 12 ausgelesenen Bildes, von
verschiedenen Betriebsanzeigen, einen Bildschirm zum Einstellen
und/oder Registrieren verschiedener Bedingungen und dergleichen.
Der Abtaster 12 ist ein Gerät, welches ein auf dem Film F oder einem
anderen Träger aufgezeichnetes Bild einzelbildweise auf photoelek
trischem Weg liest. Er enthält eine Lichtquelle 22, eine veränderliche
Blende 24, Filter für drei Farben R (Rot), G (Grün) und B (Blau) zum
Zerlegen des auf dem Film F aufgezeichneten Bildes in die drei Primär
farben R, G und B, eine Farbfilterplatte 26, die drehend wahlweise als
Farbfilter in den optischen Weg gebracht werden kann, einen Diffusor
kasten 28, der dafür sorgt, daß das auf den Film F auftreffende Lese
licht in Richtung der Oberfläche des Films F gleichmäßig ist, ein Bild
erzeugungsobjektiv 32, einen CCD-Sensor 34 als flächigen Sensor zum
Lesen eines Bildes von einem Einzelbild-Rahmen des Films, und einen
Verstärker 36.
In dem hier als Beispiel dargestellten Photokopierer 10 ist ein spezieller
Träger 30 an dem Abtaster 12 angebracht, welcher der spezifischen Art
und Größe eines Negativfilms (oder Umkehrfilms) eines sogenannten
"Advanced Photo System" oder einem 135-Bildformat entspricht, wobei
dieser Vorlagenfilm als Streifenfilm oder als Einzelrähmchen vorliegt.
Durch Austausch des Trägers 30 lassen sich also unterschiedliche Filme
für unterschiedliche Behandlung verarbeiten. Das auf einem Film vor
handene Einzelbild (ein Rahmen), welches als Abzug ausgegeben werden
soll, wird zu einer spezifischen Lesestelle transportiert und dort angehal
ten.
Wie aus dem Stand der Technik bekannt ist, kann ein magnetischer
Aufzeichnungsträger, der auf dem Film des sogenannten "Advanced
Photo System" ausgebildet ist, Information speichern wie zum Beispiel
Information über eine Filmpatronen-Kennung, eine Filmart und derglei
chen, wobei der Aufzeichnungsträger ebenfalls in der Lage ist, weitere
andere Informationen aufzuzeichnen, so zum Beispiel Aufnahmedaten
und Aufnahmezeitpunkt, mit/ohne Blitzlicht, Vergrößerung bei der Auf
nahme, Kennung für Aufnahmeszene, Information über Lage eines
Haupt-Aufnahmeobjekts oder eines Ausschnitts sowie die Art der Ent
wicklervorrichtung, wobei sich diese Angaben auf den Zeitpunkt der
Bildaufnahme bzw. der Bildentwicklung beziehen. Eine Einrichtung zum
Lesen dieser magnetisch aufgezeichneten Daten befindet sich in dem
Träger 30 an einer Stelle, die an den Film (die Filmpatrone) des
Advanced Photo Systems angepaßt ist, so daß dann, wenn der Film in
die Lesestellung transportiert wird, die magnetischen Daten gelesen
werden, um dann als Information über bestimmte Größen an die Bildver
arbeitungsvorrichtung 14 gesendet zu werden.
In dem oben beschriebenen Abtaster 12 trifft von der Lichtquelle 22
emittiertes Leselicht auf den Film F auf, nachdem die Lichtmenge des
Leselichts von der Blende 24 eingestellt wurde, wobei die Farbe des
Leselichts mit Hilfe der Farbfilterplatte 26 eingestellt wurde und das
Leselicht außerdem von dem Diffusorkasten 28 diffundiert wurde. Wenn
das Leselicht den Film F durchsetzt, entsteht Projektionslicht, das die
Bildinformation aus einem Einzelbild des Films F beinhaltet.
Das Bild des projizierten Lichts wird von dem Abbildungsobjektiv 32
auf die Lichtempfangsfläche des CCD-Sensors 34 fokussiert und von
dem Sensor photoelektrisch gelesen. Von dem CCD-Sensor 34 ausgege
bene Ausgangssignale werden von dem Verstärker 36 verstärkt und an
die Bildverarbeitungsvorrichtung 14 gesendet. Der CCD-Sensor 34 ist
hier ein flächiger Sensor mit 1.380 × 920 Pixeln.
Der Abtaster 12 liest das Bild dreimal aus, wobei nacheinander ein
rotes, ein grünes und ein blaues Filter der Farbfilterplatte 26 eingescho
ben wird, um das Bild von dem Einzelbild oder Einzelrahmen zu sepa
rieren in drei Farbauszüge entsprechend den Primärfarben Rot, Grün
und Blau.
Der Photokopierer 10 führt eine Vorabtastung aus, bei der ein Bild mit
geringer Auflösung gelesen wird, bevor eine Feinabtastung durchgeführt
wird, die dazu dient, das Bild für die Herstellung eines Abzugs auszu
lesen. Insgesamt wird daher das Bild sechsmal gelesen.
Während der Abtaster 12 ein Vorlagenbild liest, indem er dieses (als
Projektionslicht von dem Film F) in drei Primärfarben separiert, wozu
mit Hilfe der Farbfilterplatte 26 das jeweilige Leselicht eingestellt wird,
sendet der Abtaster Bilddaten an die erfindungsgemäße Bildverarbei
tungseinrichtung. Dabei kann die Bildleseeinrichtung anstatt mit einem
flächigen Sensor mit einem drei Zeilen umfassenden CCD-Sensor ausge
stattet sein, wobei diese Sensoren den drei Primärfarben R, G und B
entsprechen, um das Leselicht (Projektionslicht) schlitzweise zu lesen,
wenn der Film F von einem Träger zwecks Abtastung weitertransportiert
wird, das heißt es erfolgt ein schlitzweises Lesen des Bildes.
In dem oben als Beispiel dargestellten Photokopierer 10 ist der Abtaster
12 zum photoelektrischen Lesen von Bildern von Filmen, beispielsweise
einem Negativfilm, einem Umkehrfilm oder dergleichen, so ausgebildet,
daß er in Bezug auf die Bildverarbeitungsvorrichtung 14 als Bilddaten
quelle fungiert. Es kommen allerdings auch noch andere Bilddatenquel
len als Alternative zu dem Abtaster 12 in Betracht, beispielsweise andere
Bildleseeinrichtungen, photographische Aufnahmevorrichtungen, Bild
datenspeicher und dergleichen, insbesondere photographische Aufnahme
vorrichtungen wie zum Beispiel eine Digitalkamera, eine digitale Video
kamera und dergleichen. Außerdem kommt als Bilddatenquelle noch eine
Bildlesevorrichtung zum Lesen eines reflektierenden Vorlagenbildes,
eine Übertragungseinrichtung wie zum Beispiel ein LAN (Local Area
Network), ein Rechnerkommunikationsnetzwerk, diverse Aufzeichnungs
medien, darunter auch Speichermedien wie eine Speicherkarte oder ein
MO (photomagnetisches Aufzeichnungsmedium) in Betracht.
Wie oben erläutert, werden die Ausgangssignale (Bilddaten) von dem
Abtaster 12 an die Bildverarbeitungsvorrichtung 14 (im folgenden als
Verarbeitungsvorrichtung 14 bezeichnet) ausgegeben.
Fig. 2 ist ein Blockdiagramm der Verarbeitungsvorrichtung 14. Die
Verarbeitungsvorrichtung 14 ist eine spezielle Ausführungsform der
erfindungsgemäßen Bildverarbeitungsvorrichtung, sie enthält einen Da
tenverarbeitungsteil 38, einen Vorabtastspeicher (als Einzelbildspeicher
entsprechend einem Einzelbild auf der Filmvorlage ausgebildet) 40,
einen (ebenfalls als Einzelbildspeicher ausgebildeten) Feinabtastspeicher
42, einen Anzeigebildverarbeitungsteil 44, einen Feinrasterbild-Verarbei
tungsteil 46 und einen Farbwiedergabeparameter-Erzeugungsteil 48.
Fig. 2 zeigt die wichtigsten Orte in Bezug auf die Bildverarbeitung.
Andere Stellen, wie zum Beispiel eine CPU zum Steuern und Verwalten
des gesamten Photokopierers 10 einschließlich der Verarbeitungsvor
richtung 14, eines Speichers zum Speichern von Informationen für den
Betrieb des Photokopierers 10, eine Einrichtung zum Ermitteln eines
Blendenwerts der verstellbaren Blende sowie der Speicherzeit für den
CCD-Sensor 34 bei der Feinabtastung und dergleichen befinden sich
innerhalb der Verarbeitungsvorrichtung 14. Ein Betriebssystem 18 und
die Anzeigevorrichtung 20 sind mit verschiedenen Stellen über die CPU
(einem CPU-Bus) verbunden.
Von dem Abtaster 12 ausgegebene Ausgangssignale R, G und B werden
in dem Datenverarbeitungsteil 38 einer Analog/Digital- oder
A/D-Wandlung, einer Log-Umwandlung, einer Gleichstromversatz-Korrektur,
einer Dunkelkorrektur, einer Abschattungskorrektur und dergleichen
unterzogen, um digitale Bilddaten zu erhalten. Von diesen Bilddaten
werden Vorabtastdaten (vorabgetastete Bilddaten) in dem Vorabtast
speicher 40 abgespeichert, Feinabtastdaten werden in dem Feinabtast
speicher 42 abgespeichert.
Die Vorabtastdaten und die Feinabtastdaten sind im Grund genommen
die gleichen, wenn man von der Auflösung (der Pixeldichte) der Daten
und einem Signalpegel der Daten absieht.
In dem Vorabtastspeicher 40 gespeicherte Bildinformation wird in den
Anzeigebildverarbeitungsteil 44 und in den Farbwiedergabeparameter-
Erzeugungsteil 48 eingelesen, während die in dem Feinabtastspeicher 42
gespeicherte Bildinformation in den Feinrasterbild-Verarbeitungsteil 46
eingelesen wird.
Der Anzeigebildverarbeitungsteil 44 ist ein Teil, welches die in dem
Vorabtastspeicher 40 gespeicherten Vorabtastdaten ausliest, ein
unscharfes Wichtungsbild (Bilddaten) oder Unschärfen-Wichtungsbild
erzeugt, welches eine Hauptobjektzone und eine Hintergrundzone sanft
oder glatt miteinander verbindet und anschließend Anzeigebilddaten für
die Anzeige auf der Anzeigevorrichtung 20 dadurch erzeugt, daß die
Vorabtastdaten unter Verwendung des so erzeugten Unschärfen-Wich
tungsbilds verarbeitet werden. Der Verarbeitungsteil 44 unterteilt
vorzugsweise so ausgelesenen Vorabtastdaten in solche für die Haupt
objektzone und solche für den Hintergrundbereich, und er wichtet die
Hauptobjektzone und führt eine Unschärfemasken-Verarbeitung durch,
um das unscharfe Wichtungsbild oder Unschärfe-Wichtungsbild zu er
zeugen.
Der Anzeigebildverarbeitungsteil 44 enthält ein Zonenextrahierelement
50, eine erste Nachschlagetabelle (erste LUTH Look-Up Table) 52, ein
Wichtungsmasken-Erzeugungselement 54, ein Unschärfemasken-Ver
arbeitungselement 56, einen Rechner 58, Addierer 60 und 62, eine
zweite LUT 64 und einen Signalwandler 66. Das Zonenextrahierelement
50, die erste Nachschlagetabelle (erste LUT) 52, das Wichtungsmasken-
Erzeugungselement und das Unschärfemasken-Verarbeitungselement 56
bilden ein erfindungsgemäßes Unschärfen-Wichtungsbild-Erzeugungsteil.
Die erste LUT 52 und das Wichtungsmasken-Erzeugungselement 54
bilden ein Wichtungsmasken-Erzeugungselement in der breiteren Bedeu
tung gemäß der Erfindung.
Außerdem ist ein D/A-Wandler 68 vorgesehen, der Bilddaten für die
Anzeige (digitale Signale), die in dem Anzeigebildverarbeitungsteil 44
erzeugt wurden, zwecks Darstellung auf der Anzeigevorrichtung 20 in
Analogsignale umgesetzt.
Der Feinrasterbild-Verarbeitungsteil (Ausgabebild-Erzeugungsteil) 46 ist
ein Bereich, der in dem Feinabtastspeicher 42 abgespeicherte Feinabtast
daten ausliest und die so ausgelesenen Feinabtastdaten einer spezifischen
Bildverarbeitung unterzieht, wobei in dem Farbwiedergabeparameter-
Erzeugungsteil 48 gebildete Farbwiedergabeparameter verwendet
werden, um Ausgabebilddaten zur Bildaufzeichnung durch den Drucker
16 zu erhalten.
Der Feinrasterbild-Verarbeitungsteil 46 enthält eine erste LUT 70, einen
Matrixrechner (MTX) 72, eine Addierer 74 und einen zweiten LUT 76.
Außerdem kann in dem Feinrasterbild-Verarbeitungsteil 46 noch ein
Schärfenverarbeitungsteil zum Durchführen einer Schärfungsverarbeitung
vorhanden sein.
Der Farbwiedergabeparameter-Erzeugungsteil 48 erzeugt nicht nur ver
schiedene Arten von Bildverarbeitungsinformation auf der Grundlage der
vorabgetasteten Daten, die in dem Vorabtastspeicher 40 gespeichert sind,
sondern außerdem Farbwiedergabeparameter, und zwar auf der Grund
lage entweder von Daten, die aus dem Anzeigebildverarbeitungsteil 44
eingegeben wurden, oder auf der Grundlage von Daten, die von einer
Bedienungsperson über einen Hilfseingabeteil 78 eingegeben wurden, so
daß im Anschluß daran ein Korrekturwert erzeugt wird, der verwendet
wird, wenn die an den Drucker 16 zu sendenden Ausgabebilddaten aus
den Bilddaten des Vorlagebildes erzeugt werden, die durch das Fein
abtastungslesen gewonnen wurden. Information, die in dem Farbwieder
gabeparameter-Erzeugungsteil 48 gebildet wird, wird an die Nachschlage
tabellen 52, 64, 70 und 76 gegeben.
Im folgenden werden die Komponenten jedes Teils der Vorrichtung
erläutert.
Zunächst liest das Zonenextrahierelement 50 des Anzeigebildverarbei
tungsteils 44 Vorabtastdaten aus dem Vorabtastspeicher 40 aus und
extrahiert die Hauptobjektzone, das heißt den wichtigsten Gegenstand
des Bildes, aus den Vorabtastdaten, um dadurch die Daten aufzuteilen in
solche für eine Hauptobjektzone und solche für den Hintergrundbereich.
Diese Extrahieraktion für die Hauptobjektzone läßt sich entweder auf der
Grundlage einer automatischen Bildanalyse unter Verwendung einer
Zonenextrahiermethode oder manuell von dem Benutzer über den Hilfs
eingabeteil vollziehen.
Ein Verfahren zum Extrahieren der Hauptobjektzone ist hier keiner
besonderen Beschränkung unterlegen. Beispielhaft sind Verfahren wie
ein Verfahren zum Extrahieren der Hauptobjektzone aus der Farbkon
tinuität, indem von der Bedienungsperson auf einen Punkt innerhalb der
Hauptobjektzone mit Hilfe einer Maus 18b oder dergleichen gezeigt
wird. Ein anderes Verfahren besteht darin, daß der Bediener die Haupt
objektzone unter Verwendung der Maus 18b ausschneidet. Ein noch
anderes Verfahren beruht auf einer automatischen Extraktion unter Ver
wendung bekannter Extrahieralgorithmen für Hauptobjekte.
Ein Extrahieralgorithmus zum automatischen Extrahieren einer Haupt
objektzone ist zum Beispiel in der japanischen ungeprüften Patentver
öffentlichung (JPA) Nr. 9-138470 offenbart, die ein Hauptobjektzonen-
Extrahierverfahren zeigt, mit dessen Hilfe mehrere verschiedene Haupt
objekt-Extrahierverfahren nacheinander durchgeführt werden, so zum
Beispiel ein Verfahren zum Extrahieren einer spezifizierten Farbe, ein
Verfahren zum Extrahieren eines spezifischen Konfigurationsmusters, ein
Verfahren zum Beseitigen einer Zone, die als Hintergrund angesehen
wird, wobei diese Verfahren ausgewertet und ihnen vorab ein Gewicht
zugewiesen wird, um dann anschließend das nach jedem Extrahierver
fahren extrahierte Hauptobjekt mit dem voreingestellten Gewicht zu
wichten, um schließlich das Hauptobjekt nach Maßgabe des so erhalte
nen Ergebnisses als extrahiertes Objekt festzulegen. Andere Hauptobjekt-
Extrahierverfahren finden sich in folgenden japanischen Patentveröffent-
Iichungen: JPA Nr. 4-346333, JPA Nr. 5-158164, JPA Nr. 5-165120,
JPA Nr. 6-160993, JPA Nr. 8-184925, JPA Nr. 9-101579,
JPA Nr. 9-138471.
Die erste LUT 52 analysiert Farbbilddaten der extrahierten Hauptbildzo
ne und berechnet anschließend einen Farbabgleich oder ein Farbgleich
gewicht in Bezug auf die Helligkeit (Leuchtdichte) der Hauptobjektzone,
so daß eine Wichtungsfunktion eingestellt wird, die hauptsächlich auf
dem berechneten Farbabgleich beruht. Die Wichtungsfunktion ist hier in
Form einer Nachschlagetabelle eingerichtet.
Das Wichtungsmasken-Erzeugungselement 54 bildet ein Wichtungsbild,
indem es den Bilddaten der Hauptobjektzone unter Verwendung der
ersten LUT 52 Gewicht hinzufügt.
Das Unschärfemasken-Verarbeitungselement 56 unterzieht das so erhalte
ne Wichtungsbild einer Unschärfemaskenverarbeitung, um ein unscharfes
Wichtungsbild oder Unschärfe-Wichtungsbild zu gewinnen. Das Un
schärfemasken-Verarbeitungselement 56 enthält zum Beispiel einen
Matrixrechner (MTX) 56a, ein Tiefpaßfilter (TPF) 56b und eine Nach
schlagetabelle (LUT) 56c, obschon diese Elemente nicht in beschränken
dem Sinn hier angegeben sind. Der MTX 56a bildet Leuchtdichte-Bild
daten in Form eines Leuchtdichte- oder Luminanzsignals zum Durchfüh
ren einer Dodging-Verarbeitung anhand des von dem Wichtungsmasken-
Erzeugungselement 54 gesendeten Wichtungsbildes. Das TPF 56b unter
zieht die so erhaltenen Luminanzbilddaten einer Tiefpaßfilterung, um
eine niederfrequente Komponente zu gewinnen, derzufolge das Leucht
dichte- oder Luminanzbild zweidimensional unscharf wird und unscharfe
Bilddaten des Lesebildes gewonnen werden. Die LUT 56c komprimiert
den dynamischen Bereich der so erhaltenen unscharfen Bilddaten.
Als Verfahren zum Erzeugen der Luminanzbilddaten wird ein Verfahren
unter Verwendung eines Wertes entsprechend einem Drittel des Mittel
werts der Bilddaten für R, G und B vorgestellt, ferner ein Verfahren
zum Umwandeln der Bilddaten in Luminanzbilddaten unter Verwendung
der YIQ-Basis und dergleichen.
Das Verfahren zum Gewinnen der Luminanzbilddaten oder Leuchtdichte
bilddaten unter Verwendung der YIQ-Basis beinhaltet beispielsweise ein
Verfahren zum Berechnen lediglich der Y-Komponente der YIQ-Basis
aus den Bilddaten für Rot, Grün und Blau gemäß folgender Formel:
Y = 0,3R + 0,59G + 0,11B
Als Tiefpaßfilter 56b kann zum Beispiel ein TPF vom FIR-Typ (Finite
Impulse Response) verwendet werden, wie es im allgemeinen zum Er
zeugen eines unscharfen Bildes verwendet wird, so auch bei der oben
angesprochenen Bildverarbeitung, bevorzugt wird als Tiefpaßfilter jedoch
ein IIR-Filter (Infinite Impulse Response) verwendet, weil dieses un
scharfe Bilddaten erzeugen kann, in denen ein Bild mit Hilfe einer klein
bemessenen Schaltung sehr unscharf gemacht werden kann.
Außerdem kann man ein Mittelwertfilter oder Medianfilter (MF) anstelle
des Tiefpaßfilters 56b verwendet werden. Vorzugsweise wird das MF
deshalb verwendet, weil es unscharfe Bilddaten erzeugen kann, dabei
aber Ränder erhalten und Rauschen (hochfrequente Komponenten) in
einem flachen Abschnitt abschneiden kann. Darüber hinaus ist die Ver
wendung sowohl eines MF als auch eines TPF derzeit deshalb zu bevor
zugen, weil die durch das MF erhaltenen und die durch das TPF erhalte
nen Bilder separat gewichtet und dann die gewichteten Bilder addiert
werden können, wobei zu berücksichtigen ist, daß das MF unscharfe
Bilddaten erzeugen kann, die das Bild dadurch sehr unscharf machen,
daß von dem oben angesprochenen Vorteil des MF Gebrauch gemacht
wird.
Von dem TPF 56b erzeugte unscharfe Bilddaten werden an die LUT 56c
gegeben und dann durch eine Dynamikbereich-Kompressionstabelle
verarbeitet, was aus den unten angegebenen Gründen erforderlich ist.
Der Bilddichtebereich, der auf dem photographischen Film F aufgezeich
net werden kann, ist grundsätzlich größer als ein wiedergebbarer oder
reproduzierbarer Bilddichtebereich (Dichtebereichsumfang, Dichteskala)
eines Abzugs. Beispielsweise übersteigt ein Bild mit einem Dichtebereich
(d.i. die Differenz zwischen maximaler Dichte und minimaler Dichte als
dynamischer Bereich) in hohem Maße den Dichtebereichsumfang des
Abzugs, wenn man zum Beispiel eine Bildaufzeichnung mit Hilfe eines
Elektronenblitzes, eine Gegenlichtaufnahme und dergleichen betrachtet.
In diesen Fällen besteht nicht die Möglichkeit, sämtliche Bilddaten
(Pixel) auf dem Abzug wiederzugeben, so daß ein Bereich hoher Dichte
(die Intensität der Lesesignale ist schwach) auf dem Film, der den
Dichtebereichsumfang übersteigt, das heißt ein heller Abschnitt eines
Aufnahmeobjekts, zu einem ausgewaschenen grellen Bereich auf dem
Abzug führt, während ein Bereich geringer Dichte auf dem Film
außerhalb des Dichtebereichsumfangs, das heißt ein dunkler Bereich
eines Aufnahmeobjekts, auf den Abzug zu einem stumpfen Schatten
wird. Deshalb ist es notwendig, Bilddaten so zu erzeugen, daß sie dem
Dichtebereichsumfang oder der Dichteskala des Abzugs entsprechen,
indem der dynamische Bereich der Bilddaten in der Weise komprimiert
wird, daß ein Bild mit sämtlichen reproduzierten Bilddaten erhalten
wird. In anderen Worten: man muß die Bilddaten so verarbeiten (einer
Dodging-Verarbeitung unterziehen), daß sich der dynamische Bereich
komprimieren läßt durch Einstellen der Dichten von hellen und dunklen
Bereichen, ohne daß dabei die Gradation im Bereich mittlerer Dichte
geändert wird, so daß man einen ähnlichen Effekt erzielt wie bei einer
Dodging-Verarbeitung durch eine konventionelle direkte Belichtung.
In dem Unschärfemasken-Verarbeitungselement 56 wird in der oben
geschilderten Weise ein Unschärfe-Wichtungsbild erzeugt. Derweil
werden in dem Rechner 58 die Bilddaten des Hintergrundbereichs multi
pliziert mit dem Rest, den man erhält, indem man das Gewicht des
Unschärfe-Wichtungsbildes von einem Referenzwert subtrahiert, der hier
"1" beträgt, wenn das Gewicht dieses Unschärfe-Wichtungsbildes auf
"1" normiert ist. Dies multiplizierten Bilddaten und die Daten des Un
schärfe-Wichtungsbildes werden in dem Addierer 60 addiert, und dann
werden die addierten Bilddaten weiter auf Wichtungsbilddaten addiert,
die von dem Wichtungsmasken-Erzeugungselement 54 kommen, wobei
diese weitere Addition in einem Addierer 62 erfolgt, womit eine
Dodging-Verarbeitung erfolgt und man Bilddaten für die Anzeige erhält.
Diese Bilddaten für die Anzeige werden in ihrer Gradation in endgültige
Bilddaten für die Anzeige entsprechend den Kennwerten der Anzeige 20
mit Hilfe einer zweiten LUT 64 umgewandelt, anschließend erfolgt in
einem Signalwandler 66 eine Umwandlung in für die Anzeige 20 ge
eignete Signale, woraufhin schließlich eine D/A-Umwandlung im
D/A-Wandler 68 erfolgt, so daß die Signale auf der Anzeige 20 dargestellt
werden können.
Die erste LUT 70 des Feinrasterbild-Verarbeitungsteils 46, welches die
in dem Feinabtastspeicher 42 abgespeicherten Bilddaten ausliest und
einen Grauabgleich, eine Helligkeitskorrektur (Dichtekorrektur) und eine
Gradationskorrektur ausführt, ist derart konfiguriert, daß die für die
jeweiligen Korrekturen und Einstellungen vorgesehenen LUTs in
Kaskade hintereinander geschaltet sind. Jede LUT innerhalb der ersten
LUT 70 wird erzeugt und eingestellt in dem Farbbildwiedergabeparame
ter-Erzeugungsteil 48.
Der MTX 72, der eine Farbkorrektur ausführt, um die Sättigung der von
der ersten LUT 70 verarbeiteten Bilddaten zu steigern, führt eine Ma
trixberechnung durch, die eingestellt ist entsprechend den Spektral-
Kennwerten eines Films F, den Spektral-Kennwerten des photoempfind
lichen Materials (des photoempfindlichen Papiers), den Kennwerten für
die Entwicklungsverarbeitung und dergleichen, anschließend erfolgt eine
Sättigungskorrektur (Farbkorrektur) in der Weise, daß das so erhaltene
Ausgangsbild (die Ausgangsbildinformation) ein bevorzugtes Farbfinish
erhält, obschon es der Dodging-Verarbeitung unterzogen wurde.
In dem Addierer 74 werden die von der MTX 72 verarbeiteten Bilddaten
als Hauptdaten zu den Bilddaten addiert, die am Addierer 60 gewonnen
werden, indem das Unschärfe-Wichtungsbild und das Produkt aus Hin
tergrundbild und Rest, erhalten durch Subtrahieren des Gewichts von
einem Referenzwert von beispielsweise "1", addiert werden, um auf
diese Weise eine Dodging-Verarbeitung durchzuführen, während der
dynamische Bereich der Bilddaten in nicht-linearer Weise komprimiert
wird und der dynamische Bereich und die Gradation sowie die Dichte
von hellen und dunklen Bereichen der Ausgangsbilddaten so eingerichtet
werden, daß sie für das Ausgabebild geeignet sind, das heißt damit
Abzüge hoher Qualität reproduziert werden, die praktisch den gleichen
Eindruck vermitteln wie eine Aufnahmeszene (photographierte Szene).
Da bei dem obigen Beispiel das Unschärfe-Wichtungsbild aus den Vor
abtastbilddaten gewonnen wird, die eine andere Anzahl von Pixeln um
fassen (eine andere Pixeldichte aufweisen) als die Bilddaten, die durch
eine Feinabtastung gewonnen werden, muß das Unschärfe-Wichtungsbild
in einem (nicht dargestellten) Verarbeitungsteil einer Expansion/Kom
pression unterzogen werden, bevor die Daten in dem Addierer 74
addiert werden, damit sie den Feinabtastbilddaten entsprechen.
In der zweiten LUT 76 werden die Bilddaten, die durch Addieren der
Feinabtastbilddaten im Addierer 74 erhalten wurden, in ihrer Gradation
umgewandelt, indem der Farbwiedergabeparameter verwendet wird, um
auf diese Weise Bilddaten zu gewinnen, die vorzugsweise den auf dem
photoempfindlichen Material A zum Ausdruck gelangenden endgültigen
Farbeindrücken entsprechen, bevor die Daten beispielsweise einer (nicht
dargestellten) Signalumsetzung unterzogen und schließlich an den
Drucker 16 ausgegeben werden.
Im folgenden wird anhand des in Fig. 3 gezeigten Flußdiagramms die
Arbeitsweise der Ausführungsform erläutert.
Zunächst werden im Schritt 100 in Fig. 3 die Vorabtastbilddaten aus
dem Vorabtastspeicher 40 in das Zonenextrahierelement 50 des Anzeige
bildverarbeitungsteils 44 eingelesen. Im nächsten Schritt 110 wird eine
Hauptobjektzone, beispielsweise eine Person oder dergleichen, aus den
so gelesenen Vorabtastbilddaten extrahiert, so daß die Hauptobjektzone
einerseits und der Hintergrundbereich andererseits voneinander getrennt
werden. Wie oben erläutert, erfolgt diese Aufteilung oder Auftrennung
entweder automatisch oder anhand einer Hilfseingabeoperation seitens
eines Bedieners.
Im Schritt 120 werden die Farbbilddaten der Hauptobjektzone analysiert,
und es wird der Farbabgleich in Bezug auf die Helligkeit der Haupt
objektzone berechnet, anschließend wird die Wichtungsfunktion in der
ersten LUT 52 dadurch eingerichtet, daß der so erhaltene Farbabgleich
in der Mitte plaziert wird. Wenn zum Beispiel eine Hautfarbe vorgege
ben ist, so werden Farbabgleiche für sämtliche in Betracht kommenden
Hautfarben einer hellen, einer dunklen und einer mittleren Hautfarbe
und dergleichen erzeugt, und entsprechend jeder solchen Helligkeit
werden Gewichte eingerichtet.
Im Schritt 130 wird in dem Wichtungsmasken-Erzeugungselement 54 ein
Wichtungsbild erzeugt, welches die Bilddaten der extrahierten Haupt
objektzone wichtet. Im nächsten Schritt 140 wird das Unschärfe-Wich
tungsbild dadurch erzeugt, daß das so erhaltene Wichtungsbild einer
Unschärfemaskenverarbeitung in dem Unschärfenmasken-Verarbeitungs
element 56 unterzogen wird. Das Gewicht des Unschärfe-Wichtungs
bildes wird an den Farbwiedergabeparameter-Erzeugungsteil 48 gesen
det, um einen Korrekturwert für die Gradation zu erzeugen, der dann
verwendet wird, wenn die endgültigen Ausgabebilddaten erzeugt werden.
Im Schritt 150 werden die Bilddaten für die Anzeige auf der Anzeige
vorrichtung 20 erzeugt. Das Produkt, welches erhalten wird durch Mul
tiplizieren der Bilddaten des Hintergrundbereichs mit dem Rest, der
erhalten wird durch Subtrahieren des Gewichts des Unschärfe-Wich
tungsbildes von einem Referenzwert von zum Beispiel "1" im Rechner
58, wird im Addierer 60 auf das Unschärfe-Wichtungsbild addiert. Die
resultierenden Bilddaten werden auf das Wichtungsbild addiert, welches
von dem Wichtungsmasken-Erzeugungselement 54 kommen, was im
Addierer 62 geschieht, so daß die Bilddaten hiermit einer Dodging-Ver
arbeitung unterzogen sind, um für die Anzeige geeignete Bilddaten zu
erzeugen.
Im Schritt 160 werden die so erhaltenen Bilddaten für die Anzeige einer
Gradationsumwandlung in der zweiten LUT 64 unterzogen, und sie
werden anschließend in für die Anzeige 20 geeignete Signale im Signal
wandler 66 umgesetzt, bevor sie schließlich für die endgültige Darstel
lung auf der Anzeigevorrichtung 20 von einem D/A-Wandler 68 einer
D/A-Umwandlung unterzogen werden.
In der Zwischenzeit werden Farbwiedergabeparameter für die Haupt
objektzone und den Hintergrundbereich im Schritt 170 bzw. Im Schritt
180 erzeugt, um die Ausgabebilddaten zu erzeugen.
Die oben erläuterte Verarbeitung erfolgt zu dem Zweck, die Gradation
nach Maßgabe von bestimmten Bereichen in der Weise zu steuern, daß
zum Beispiel der Kontrast eines Gesichts aufgeweicht wird, ohne daß
dabei der Kontrast des Hintergrunds geändert wird, wenn das Gesicht
von einem Schatten überlagert ist, während der Hintergrund deutlich
aufgenommen ist, wie es zum Beispiel bei einer Schönwetteraufnahme
der Fall ist. Umgekehrt soll der Kontrast des Hintergrunds härter ge
macht werden, ohne den Kontrast eines Gesichts zu verändern, wenn die
Aufnahme zum Beispiel bei bewölktem Himmel vorgenommen wurde.
Indem man eine derartige Gradationssteuerung vornimmt, wird eine
reproduzierte Farbe besser an eine gespeicherte Farbe angenähert, so
daß ein Abzug gewonnen werden kann, der einen ähnlichen Eindruck
vermittelt, wie ihn Menschen haben, wenn sie eine Originalszene (zu
photographierende Aufnahmeszene) betrachten.
Farbwiedergabeparameter werden in dem oben geschilderten Beispiel in
einzelnen Zonen gebildet. Bei einer solchen Verarbeitung werden in
einigen Fällen die Farbwiedergabeparameter für die Hauptobjektzone
und den Hintergrundbereich gebildet, sie können aber auch in anderen
Fällen je nach Bedarf erzeugt werden. Wenn zum Beispiel der Hinter
grundbereich Schnee ist, so entspricht der Hintergrund eher der im
Gedächtnis gespeicherten Farbe, wenn man einen Blaustich addiert, um
einen kalten Eindruck zu vermitteln. Wenn allerdings der gesamte Bild
bereich verarbeitet wird, erhält auch das Gesicht als Hauptobjektzone
einen Blaustich. Um dieses Phänomen zu vermeiden, werden die Farb
wiedergabeparameter in Bezug auf das Hauptobjekt einerseits und Hin
tergrundbereiche andererseits erzeugt, wobei das Gesicht in der Weise
verarbeitet wird, daß es heller in Erscheinung tritt.
Die oben beschriebenen Farbwiedergabeparameter werden in dem Farb
wiedergabeparameter-Erzeugungsteil 48 erzeugt. Was die anderen Para
meter angeht, die nicht in diesem Teil 48 erzeugt werden, so wird je
weils ein Wert, der den Wert der Bilddaten bei der Ausführung der
Schritte 170 und 180 nicht ändert, als ein Parameter eingestellt.
Der Farbwiedergabeparameter wird in dem Farbwiedergabeparameter-
Erzeugungsteil 48 durch automatische Analyse erzeugt, aber daneben
kann im Schritt 190 der Farbwiedergabeparameter entweder von einem
Bediener über den Hilfseingabeteil 78 von Hand eingegeben werden,
oder er kann aus Parametern ausgewählt werden, die vorab in einer
Datei registriert wurden, entweder systematisch oder gemäß Kundenvor
gabe oder dergleichen. Nimmt man zum Beispiel den Farbwiedergabe
parameter für den Hintergrund, so können, da es einfach ist, die Para
meter in der gleichen Weise einzurichten, Gradationen, die einzelnen
Szenen entsprechen, vorab erstellt und abgespeichert werden, um später
dann die Möglichkeit zu geben, daß ein Bediener entweder die richtige
Auswahl vornimmt, oder daß die Auswahl durch automatische Analyse
erfolgt. In einem anderen Fall, in welchem die Gradationen von einem
Kunden eingestellt werden, werden eingestellte Gradationen registriert,
und man kann unter diesen eingestellten Gradationen eine Auswahl
treffen, die dann zur Anwendung gelangt. Was die den einzelnen Szenen
entsprechenden Gradationen angeht, so kann man für eine Schnee-Grada
tion einen sehr hellen Bereich mit einem Cyan-Ton (C) versehen, die
Gradation für den Himmel kann einen Blau-Schwarz-Stich erhalten, eine
Gradation für ein Bergmotiv kann eine Grün-Aufhellung aufweisen, und
so fort.
Im Schritt 170 wird ein Farbwiedergabeparameter der Hauptobjektzone
in dem Farbwiedergabeparameter-Einstellteil 48 erzeugt.
Zunächst werden Bilddaten zum Analysieren der Hauptobjektzone er
zeugt, indem Vorabtastbilddaten, die aus dem Vorabtastspeicher 40 in
den Farbwiedergabeparameter-Erzeugungsteil 48 ausgelesen wurden, mit
dem Gewicht des Unschärfe-Wichtungsbildes multipliziert werden. Der
Farbwiedergabeparameter, das heißt die Korrekturgradation, wird be
rechnet aus Kennwerten wie zum Beispiel dem Wert für den dyna
mischen Bereich, dem mittleren Dichtewert, der Pixeldichteverteilung,
den Farbabgleichen für einen grellen Bereich, einen mittleren Bereich
und einen Abschattungsbereich und so fort. Alternativ kann man die
Farbwiedergabeparameter für die Hauptobjektzone, das heißt die Korrek
turgradation, über den Hilfseingabeteil 78 durch einen Bediener einge
ben lassen. Der Korrekturbetrag, erhalten durch Multiplizieren der so
erhaltenen Korrekturgradation mit dem Gewicht des Unschärfe-Wich
tungsbildes, wird in der zweiten LUT 76 als ein Farbwiedergabepara
meter für die Hauptobjektzone eingerichtet. Dieser Korrekturwert bein
haltet R-, G- und B-Signale, ein Leuchtdichte- oder Luminanzsignal,
oder beides, und diese Signale werden auf das Bilddatensignal addiert.
Wenn im vorliegenden Fall die Hauptobjektzone durch Hautfarbe gebil
det wird und Stellen mit hellem Licht oder Glanzstellen sowie Schatten
bereiche (oder -zonen) aufweist, wobei der Schattenbereich größer ist als
der andere Bereich, so wird die Gradations-Weichheit dadurch gestei
gert, daß der Glanzlicht-Bereich in die Mitte gerückt wird. Wenn die
Hauptobjektzone durch Hautfarbe gebildet wird und nahezu die gesamte
Zone außerhalb eines Farbwiedergabebereichs (Dichtebereichsumfang,
Dichteskala) liegt, so wird eine Dichteverschiebung (Steigerung oder
Verringerung der Dichte) in einen Bereich hinein vorgenommen, der
dem Farbwiedergabebereich (Dichtebereichsumfang) entspricht, so daß
man einen zufriedenstellenden Korrektureffekt erreicht. Wenn außerdem
die Hauptobjektzone durch Hautfarbe gebildet wird und der Farbabgleich
ihres hellen Teils bläulich ist, so kann eine Gradation in Richtung eines
Magenta-Stichs (M-Stich) korrigiert werden. Außerdem kann man vor
sehen, daß die Gradation für eine abgebildete Person keiner Gradations-
Verhärtung unterzogen wird. Es ist vorzuziehen, in dem Farbwieder
gabeparameter-Erzeugungsteil 48 gemäß der Erfindung den Farbwieder
gabeparameter in der Weise zu erzeugen, daß mindestens eine dieser
verschiedenen Verarbeitungsmöglichkeiten genutzt wird.
Darüber hinaus ist es zu bevorzugen, daß die Farbverarbeitung in Bezug
auf die R-, G- und B-Signale, ein Leuchtdichtesignal, oder beides,
durchgeführt wird.
Im Schritt 180 wird der Farbwiedergabeparameter für den Hintergrund
in dem Farbwiedergabeparameter-Erzeugungsteil 48 erzeugt. In dem Teil
48 führt ein Bediener eine Eingabeoperation über den Hilfseingabeteil 78
durch, oder es erfolgt eine Auswahl unter verschiedenen Gradations
mustern, die zuvor abgespeichert wurden. Einen Korrekturwert für den
Hintergrundbereich erhält man, indem man diesen Farbwiedergabepara
meter multipliziert mit dem Rest, weicher seinerseits gebildet wird durch
Subtrahieren des Gewichts des Unschärfe-Wichtungsbildes von einem
Referenzwert, der zum Beispiel 1 beträgt und in dem zweiten LUT 76
abgespeichert ist.
Im nächsten Schritt 200 wird das Ausgabebild (werden die Ausgabebild
daten) erzeugt. Aus dem Feinabtastspeicher 42 von dem ersten LUT 70
des Feinraster-Verarbeitungsteils 46 ausgelesene Bilddaten werden einer
Grauabgleich-Einstellung, einer Helligkeitskorrektur (Dichtekorrektur)
und einer Gradationskorrektur unterzogen, und sie werden anschließend
in dem MTX 42 einer - Sättigungskorrektur unterzogen, um dann
schließlich an den Addierer 74 als resultierende Bilddaten gegeben zu
werden.
In dem Addierer 74 werden die resultierenden Bilddaten auf diejenigen
Bilddaten addiert, die von dem Addierer 60 gesendet werden (die Bild
daten, die erhalten werden durch Addieren der unscharfen Bilddaten auf
das Produkt von Hintergrundbilddaten und Restdaten, diese wiederum
erhalten durch Subtraktion des Gewichts von einem Referenzwert von
beispielsweise "1" im Addierer 60), so daß eine Dodging-Verarbeitung
erfolgt. Da hierbei die von dem Addierer 60 gesendeten Bilddaten die
Bilddaten sind, die auf den Vorabtastbilddaten basieren und folglich eine
andere Pixelanzahl (Pixeldichte) als die Feinabtast-Bilddaten haben,
werden die von dem Addierer 60 kommenden Bilddaten einer Expan
sion/Kompression unterzogen.
Die LUT 76 bildet Ausgabebilddaten, indem sie den oben beschriebenen
Korrekturwert oder Korrekturbetrag auf die so gewonnenen Bilddaten
addiert. In anderen Worten: wie in Fig. 4 als allgemeines Konzept
eines Verfahrens zum Erzeugen von Ausgangsbilddaten dargestellt ist,
werden die Feinabtast-Bilddaten und eine Zahl addiert, die man erhält
durch Multiplizieren des Farbwiedergabeparameters der Hauptobjektzone
mit dem Gewicht des Unschärfe-Wichtungsbildes, oder durch Wichten
des Farbwiedergabeparameters des Hintergrundbereichs mit dem Rest,
der erhalten wird durch Subtrahieren des Gewichts des Unschärfe-Wich
tungsbildes von einem Referenzwert, der zum Beispiel "1" beträgt, so
daß hierdurch die Ausgabebilddaten gewonnen werden.
Da also Gradationen entsprechend den einzelnen zu steuernden Zonen
oder Bereichen eines Bildes bei dieser Ausführungsform gesteuert
werden können, kann man hochqualitative Abzüge erhalten, ohne daß
die wiedergegebene Farbe von der im Gedächtnis behaltenen Farbe
abweicht.
Wenngleich bei der obigen Ausführungsform die Daten des Unschärfe-
Wichtungsbildes aus den Vorabtastbilddaten gewonnen werden, so
können die Daten des Unschärfe-Wichtungsbildes auch aus den Fein
abtast-Bilddaten gewonnen werden.
Während die erfindungsgemäße Bildverarbeitungsvorrichtung oben im
einzelnen erläutert wurde, versteht der Fachmann, daß das Ausführungs
beispiel keineswegs beschränkend zu verstehen ist, sondern zahlreiche
Abwandlungen und Modifikationen vorgenommen werden können, ohne
vom Schutzumfang der Erfindung abzuweichen.
Wie oben ausgeführt, kann die vorliegende Erfindung eine Hauptobjekt
zone von dem Hintergrundbereich im Eingabebildsignal trennen und für
die einzelnen Zonen die Gradationen steuern. Hierdurch ermöglicht die
Erfindung die Wiedergabe von Farben nahezu in der Weise, wie sie im
Gedächtnis haftengeblieben sind, so daß hochqualitative Abzüge erzeugt
werden können, obschon das Eingabebild einer Dodging-Verarbeitung
unterzogen wurde.
Claims (14)
1. Bildverarbeitungsvorrichtung zum Anwenden einer spezifizierten
Bildverarbeitung auf mit Hilfe einer Leseeinrichtung von einem auf
einem Film aufgezeichneten Bild photoelektrisch gelesene Bilddaten, um
Ausgabebilddaten zu erzeugen, umfassend:
einen Unschärfe-Wichtungsbild-Erzeugungsteil (50, 52, 54, 56) zum Erzeugen eines Unschärfe-Wichtungsbildes aus den Bilddaten, welches eine Hauptobjektzone und einen Hintergrundbereich weich miteinander verbindet;
einen Farbwiedergabeparameter-Erzeugungsteil (48) zum Erzeugen mindestens eines Farbwiedergabeparameters der Hauptobjektzone und/oder eines Farbwiedergabeparameters des Hintergrundbereichs; und
einen Ausgabebild-Erzeugungsteil (46) zum Erzeugen der Ausgabebild daten aus den Bilddaten unter Verwendung des Farbwiedergabeparame ters der Hauptobjektzone, gewichtet mit einem Gewicht des Unschärfen- Wichtungsbildes, und/oder des Farbwiedergabeparameters des Hinter grundbereichs, gewichtet mit dem Rest, erhalten durch Subtrahieren des Gewichts des Unschärfen-Wichtungsbildes von einem Referenzwert.
einen Unschärfe-Wichtungsbild-Erzeugungsteil (50, 52, 54, 56) zum Erzeugen eines Unschärfe-Wichtungsbildes aus den Bilddaten, welches eine Hauptobjektzone und einen Hintergrundbereich weich miteinander verbindet;
einen Farbwiedergabeparameter-Erzeugungsteil (48) zum Erzeugen mindestens eines Farbwiedergabeparameters der Hauptobjektzone und/oder eines Farbwiedergabeparameters des Hintergrundbereichs; und
einen Ausgabebild-Erzeugungsteil (46) zum Erzeugen der Ausgabebild daten aus den Bilddaten unter Verwendung des Farbwiedergabeparame ters der Hauptobjektzone, gewichtet mit einem Gewicht des Unschärfen- Wichtungsbildes, und/oder des Farbwiedergabeparameters des Hinter grundbereichs, gewichtet mit dem Rest, erhalten durch Subtrahieren des Gewichts des Unschärfen-Wichtungsbildes von einem Referenzwert.
2. Vorrichtung nach Anspruch 1, bei der der Unschärfen-Wichtungsbild-
Erzeugungsteil ein Zonenextrahierelement (50) zum Unterteilen der
Bilddaten in eine Hauptobjektzone und einen Hintergrundbereich, ein
Wichtungsmasken-Erzeugungselement (54) zum Erzeugen einer Wich
tungsmaske bezüglich der Hauptobjektzone und ein Unschärfemasken-
Verarbeitungselement (56) zum Ausüben einer Unschärfemasken-Ver
arbeitung bezüglich eines Wichtungsbildes, die die Hauptobjektzone so
wichtet, daß das Unschärfen-Wichtungsbild entsteht, aufweist.
3. Vorrichtung nach Anspruch 2, bei der das Zonenextrahierelement (50)
die Bilddaten in die Hauptobjektzone und den Hintergrundbereich ent
weder automatisch oder durch eine Hilfseingabe seitens einer Bedie
nungsperson aufteilt, wobei das Wichtungsmasken-Erzeugungselement
(54) die Wichtungsmaske dadurch erzeugt, daß es Farbbilddaten der
Hauptobjektzone analysiert und dann einen Farbabgleich bezüglich der
Helligkeit der Hauptobjektzone berechnet und schließlich eine Wich
tungsfunktion einrichtet, die den berechneten Farbabgleich in die Mitte
rückt.
4. Vorrichtung nach Anspruch 3, bei der das Wichtungsmasken-Erzeu
gungselement (54) die Wichtungsfunktion in Form einer Nachschlage
tabelle (LUT) bildet.
5. Vorrichtung nach einem der Ansprüche 2 bis 4, bei der das Un
schärfemasken-Verarbeitungselement (56) das Unschärfen-Wichtungsbild
unter Verwendung der Bilddaten aus einer Vorabtastung erzeugt, welche
das Bild mit Hilfe der Bildleseeinrichtung bei geringer Auflösung vor
einer Feinabtastung liest, wobei die Feinabtastung das Bild zur Erzeu
gung der Ausgabebilddaten liest, und außerdem bezüglich des Unschär
fen-Wichtungsbildes eine Expansion/Kompression ausführt, wenn die
Ausgabebilddaten aus Bilddaten erzeugt werden, die durch die Feinab
tastung erhalten werden.
6. Vorrichtung nach einem der Ansprüche 2 bis 4, bei der das Unschär
femasken-Verarbeitungsteil das Unschärfen-Wichtungsbild direkt unter
Verwendung der Bilddaten erzeugt, die durch eine Feinabtastung gewon
nen werden, bei der das Bild von der Bildleseeinrichtung zur Erzeugung
der Ausgabebilddaten gelesen wird.
7. Vorrichtung nach einem der Ansprüche 1 bis 6, bei der der Farb
wiedergabeparameter-Erzeugungsteil (48) Bilddaten für eine Haupt
objektzonenanalyse erzeugt, indem die Bilddaten mit dem Gewicht des
Unschärfen-Wichtungsbildes multipliziert werden, und Bilddaten erzeugt
für eine Hintergrundbereichsanalyse, die erhalten werden durch Multipli
zieren der Bilddaten mit dem Rest, der erhalten wird durch Subtrahieren -
des Gewichts des Unschärfen-Wichtungsbildes von einem Referenzwert,
und außerdem einen Farbwiedergabeparameter der Hauptobjektzone
dadurch erzeugt, daß eine Korrekturgradation der Hauptobjektzone, die
entweder aus Kennwerten der Bilddaten für die Hauptobjektzonenanalyse
und der Bilddaten für die Hintergrundbereichsanalyse berechnet wird,
oder die von einer Bedienungsperson eingegeben werden, multipliziert
wird mit dem Gewicht des Unschärfen-Wichtungsbildes, in Kombination
mit Signalen, die auf die Bilddaten addiert werden.
8. Vorrichtung nach Anspruch 7, bei der die auf die Bilddaten zu
addierenden Signale zumindest eines der folgenden Signale beinhaltet: R-,
G- und B-Signale der drei Primärfarben und ein Leuchtdichtesignal.
9. Vorrichtung nach Anspruch 7 oder 8, bei der der Kennwert min
destens einen Wert bezüglich eines dynamischen Bereichs, einer durch
schnittlichen Dichte, einer Pixeldichteverteilung, eines Farbabgleichs
einer Zone mit starkem Licht, eines Farbabgleichs einer Zone mittlerer
Dichte und eines Farbabgleichs eines Schattenbereichs beinhaltet.
10. Vorrichtung nach einem der Ansprüche 1 bis 9, bei der der Farb
wiedergabeparameter-Erzeugungsteil (48) zumindest folgende Schritte
durchführt:
Erhöhen der Gradationsweichheit, indem eine Zone starken Lichts in die Mitte gerückt wird, wenn die Hauptobjektzone durch Hautfarbe gebildet wird und eine Zone starken Lichts sowie ein Schattenbereich innerhalb der Hauptobjektzone existieren, wobei der Schattenbereich größer als der Bereich mit hellem Licht ist;
Ausführen einer Dichteverschiebung in einen Farbwiedergabebereich, wenn die Hauptobjektzone durch Hautfarbe gebildet wird und die Haupt objektzone sich fast außerhalb des Farbwiedergabebereichs befindet;
Korrigieren der Gradation mit einem Magenta-Stich, wenn die Haupt objektzone Hautfarbe enthält und der Farbabgleich in einer Zone hellen Lichts der Hauptobjektzone bläulich ist; und
Unterlassen einer Steigerung der Gradationsverhärtung bezüglich einer Gradation im Bereich der Abbildung einer Person.
Erhöhen der Gradationsweichheit, indem eine Zone starken Lichts in die Mitte gerückt wird, wenn die Hauptobjektzone durch Hautfarbe gebildet wird und eine Zone starken Lichts sowie ein Schattenbereich innerhalb der Hauptobjektzone existieren, wobei der Schattenbereich größer als der Bereich mit hellem Licht ist;
Ausführen einer Dichteverschiebung in einen Farbwiedergabebereich, wenn die Hauptobjektzone durch Hautfarbe gebildet wird und die Haupt objektzone sich fast außerhalb des Farbwiedergabebereichs befindet;
Korrigieren der Gradation mit einem Magenta-Stich, wenn die Haupt objektzone Hautfarbe enthält und der Farbabgleich in einer Zone hellen Lichts der Hauptobjektzone bläulich ist; und
Unterlassen einer Steigerung der Gradationsverhärtung bezüglich einer Gradation im Bereich der Abbildung einer Person.
11. Vorrichtung nach einem der Ansprüche 1 bis 10, bei der die Farb
verarbeitung bezüglich der Bilddaten durch mindestens eines folgender
Signale erfolgt: R-, G- und B-Signale der drei Primärfarben und ein
Leuchtdichtesignal.
12. Vorrichtung nach einem der Ansprüche 1 bis 11, bei der der Farb
wiedergabeparameter des Hintergrundbereichs dazu dient, eine Gradation
nach Maßgabe einer Szene einzugeben, die vorab von einer Bedienungs
person vorbereitet wurde, oder eine geeignete Gradation anhand einer
Bildanalyse unter szenenabhängigen Gradationen ausgewählt wird, oder
eine Auswahl einer geeigneten Gradation unter solchen Gradationen
erfolgt, die von einem Benutzer vorab eingerichtet und registriert
wurden.
13. Vorrichtung nach Anspruch 12, bei der die Gradation oder die Gra
dationen gemäß einer oder mehrerer Szenen mindestens eine der
folgenden Gradationen beinhaltet: eine Schnee-Gradation, bei der eine
Zone mit hellem Licht oder eine glänzende Zone einen Cyan-Stich
erhält, eine Himmel-Gradation, wo Cyan zu einem schwärzlich blauen
Farbstich wird, und eine Berg-Gradation, bei der Grün zu Hellgrün
wird.
14. Vorrichtung nach einem der Ansprüche 1 bis 13, bei dem der Be
zugswert "1" beträgt und das Unschärfen-Wichtungsbild auf "1" nor
miert ist.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5186598 | 1998-03-04 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19909581A1 true DE19909581A1 (de) | 1999-09-09 |
Family
ID=12898775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19909581A Ceased DE19909581A1 (de) | 1998-03-04 | 1999-03-04 | Bildverarbeitungsvorrichtung |
Country Status (2)
Country | Link |
---|---|
US (1) | US6459500B1 (de) |
DE (1) | DE19909581A1 (de) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6795585B1 (en) * | 1999-07-16 | 2004-09-21 | Eastman Kodak Company | Representing digital images in a plurality of image processing states |
US7119923B1 (en) * | 1999-07-23 | 2006-10-10 | Fuji Photo Film Co., Ltd. | Apparatus and method for image processing |
JP2001186323A (ja) * | 1999-12-24 | 2001-07-06 | Fuji Photo Film Co Ltd | 証明写真システム及び画像処理方法 |
US6791716B1 (en) * | 2000-02-18 | 2004-09-14 | Eastmas Kodak Company | Color image reproduction of scenes with preferential color mapping |
JP2002023278A (ja) * | 2000-07-07 | 2002-01-23 | Fuji Photo Film Co Ltd | 画像形成装置及び画像形成方法 |
JP2003337944A (ja) * | 2002-03-14 | 2003-11-28 | Ricoh Co Ltd | 画像処理装置、画像処理用のホスト装置及び画像処理方法、並びに画像処理プログラム及びコンピュータ読み取り可能な記憶媒体 |
JP4007052B2 (ja) | 2002-05-07 | 2007-11-14 | セイコーエプソン株式会社 | 画像処理制御データ更新装置 |
US8089489B2 (en) * | 2004-09-30 | 2012-01-03 | Lexmark International, Inc. | Method for converting a source gamut of an image to a destination gamut |
JP4812282B2 (ja) * | 2004-11-05 | 2011-11-09 | 富士フイルム株式会社 | 画像処理方法及び装置並びに撮像装置 |
JP4750854B2 (ja) * | 2006-09-14 | 2011-08-17 | 富士通株式会社 | 画像処理方法および装置とそのプログラム |
US9154546B1 (en) * | 2013-03-15 | 2015-10-06 | Google Inc. | Re-serving shared content |
JP2015152645A (ja) * | 2014-02-10 | 2015-08-24 | シナプティクス・ディスプレイ・デバイス合同会社 | 画像処理装置、画像処理方法、表示パネルドライバ及び表示装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4315318A (en) * | 1978-12-26 | 1982-02-09 | Fuji Photo Film Co., Ltd. | Method and apparatus for processing a radiation image |
US5343390A (en) * | 1992-02-28 | 1994-08-30 | Arch Development Corporation | Method and system for automated selection of regions of interest and detection of septal lines in digital chest radiographs |
DE4415990A1 (de) * | 1994-05-06 | 1995-11-23 | Philips Patentverwaltung | Verfahren zur Wiedergabe insbesondere einer digitalen Röntgenaufnahme als sichtbares Bild sowie Anordnung zur Durchführung des Verfahrens |
EP1134696A3 (de) * | 1995-03-29 | 2004-08-18 | Fuji Photo Film Co., Ltd. | Bildverarbeitungsverfahren und -Vorrichtung |
JPH0918706A (ja) * | 1995-06-28 | 1997-01-17 | Fuji Photo Film Co Ltd | マイクロフィルム画像読取装置の制御方法 |
US6046821A (en) * | 1997-11-17 | 2000-04-04 | Xerox Corporation | Unsharp masking for draft mode rendering of digital images |
JPH11266372A (ja) * | 1998-03-18 | 1999-09-28 | Minolta Co Ltd | カラー画像処理装置 |
-
1999
- 1999-03-04 DE DE19909581A patent/DE19909581A1/de not_active Ceased
- 1999-03-04 US US09/262,086 patent/US6459500B1/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US6459500B1 (en) | 2002-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69937707T2 (de) | Digitales Fotofinishingsystem mit digitaler Bildverarbeitung | |
DE69737984T2 (de) | Bildverarbeitungsverfahren und -gerät | |
DE602005003917T2 (de) | Verfahren und Vorrichtung zur Erzeugung von Bildern mit hoher Dynamik aus mehreren Belichtungen | |
DE19842810A1 (de) | Bildverarbeitungsvorrichtung | |
JP4081219B2 (ja) | 画像処理方法及び画像処理装置 | |
US6667815B1 (en) | Method and apparatus for processing images | |
US6480300B1 (en) | Image processing apparatus, image processing method and recording medium on which software for executing the image processing is recorded | |
DE69113373T2 (de) | Verfahren und vorrichtung zur verbesserten farbwiedergabe von papierbildern von elektronischen kameras. | |
DE3751412T2 (de) | Verfahren und Vorrichtung zur Bildverarbeitung mit Gradationskorrektur des Bildsignals. | |
DE19855885A1 (de) | Bildverarbeitungsverfahren und -vorrichtung | |
DE68921119T2 (de) | Tonumwandlungsverfahren für Bilder. | |
EP1768061B1 (de) | Dynamikumfang-Kompression aus geglätteten Bilddaten | |
DE69633319T2 (de) | Bildreproduktionsverfahren und -gerät | |
US6603878B1 (en) | Image processing method | |
DE60308472T2 (de) | Bildverarbeitungsanordnung, elektronische Kamera, und Bildverarbeitungsprogramm | |
DE60127016T2 (de) | Verfahren und Gerät zur Durchführung einer lokalen Farbkorrektur | |
DE60029194T2 (de) | Verfahren, Vorrichtung und Speichermedium für Bildverarbeitung | |
DE19910645A1 (de) | Bildverarbeitungsverfahren | |
EP1231564A1 (de) | Digitale lokale Bildeigenschaftssteuerung mittels Masken | |
DE69937706T2 (de) | Digitales Fotofinishingsystem mit digitaler Bildverarbeitung | |
DE4107504A1 (de) | Vorrichtung zum herstellen von reproduktionen | |
DE69937708T2 (de) | Digitales Fotofinishingsystem mit digitaler Bildverarbeitung | |
DE19909581A1 (de) | Bildverarbeitungsvorrichtung | |
JP3913356B2 (ja) | 画像処理方法 | |
DE69937705T2 (de) | Digitales Fotofinishingsystem mit Digital-Bildverarbeitung alternativer Farb-Fotografischer Aufnahmematerialien |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8127 | New person/name/address of the applicant |
Owner name: FUJIFILM CORP., TOKIO/TOKYO, JP |
|
8131 | Rejection |