DE69634867T2 - Bildverarbeitungsgerät und -verfahren - Google Patents

Bildverarbeitungsgerät und -verfahren

Info

Publication number
DE69634867T2
DE69634867T2 DE1996634867 DE69634867T DE69634867T2 DE 69634867 T2 DE69634867 T2 DE 69634867T2 DE 1996634867 DE1996634867 DE 1996634867 DE 69634867 T DE69634867 T DE 69634867T DE 69634867 T2 DE69634867 T2 DE 69634867T2
Authority
DE
Germany
Prior art keywords
image
image acquisition
acquisition data
data
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE1996634867
Other languages
English (en)
Other versions
DE69634867D1 (de
Inventor
Yumiko Ohta-ku Hidaka
Eiichiro Ohta-ku Ikeda
Yoshinobu Ohta-ku Shiraiwa
Kenji Ohta-ku Takahashi
Yoshiro Ohta-ku Udagawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP19667795A priority Critical patent/JP3943611B2/ja
Priority to JP19667795 priority
Priority to JP20588695 priority
Priority to JP20588695A priority patent/JPH0955950A/ja
Priority to JP21455295 priority
Priority to JP21455295A priority patent/JP4046780B2/ja
Application filed by Canon Inc filed Critical Canon Inc
Application granted granted Critical
Publication of DE69634867T2 publication Critical patent/DE69634867T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6083Colour correction or control controlled by factors external to the apparatus
    • H04N1/6086Colour correction or control controlled by factors external to the apparatus by scene illuminant, i.e. conditions at the time of picture capture, e.g. flash, optical filter used, evening, cloud, daylight, artificial lighting, white point measurement, colour temperature
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • H04N1/4072Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on the contents of the original
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/603Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Circuits for processing colour signals colour balance circuits, e.g. white balance circuits, colour temperature control
    • H04N9/735Circuits for processing colour signals colour balance circuits, e.g. white balance circuits, colour temperature control for picture signal generators

Description

  • Hintergrund der Erfindung
  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Bildverarbeitungsvorrichtung und ein Bildverarbeitungsverfahren, und insbesondere auf eine Bildverarbeitungsvorrichtung und ein Bildverarbeitungsverfahren zum Anpassen des Farbtons eines eingegebenes Bildsignals.
  • Die vorliegende Erfindung bezieht sich auch auf ein Bildwiedergabeverfahren und eine Bildwiedergabevorrichtung, und insbesondere auf ein Bildwiedergabeverfahren und eine Bildwiedergabevorrichtung zum Umwandeln eines von einer Bilderfassungseinrichtung, wie einer Bilderfassungsröhre oder einer CCD, erhaltenen Bilderfassungssignals in ein visualisierbares Bildsignal, beispielsweise ein NTSC-RGB-Signal.
  • Beschreibung des verwandten Standes der Technik
  • Bei einer Fernsehkamera, die eine Bilderfassungseinrichtung wie eine CCD verwendet, werden einige Bildwiedergabeparameter während einer Bildwiedergabeverarbeitung im Allgemeinen aus Bilderfassungsdaten bestimmt, um konstant Bilder zu erhalten, die offensichtlich denselben Eindruck liefern, oder um so treu als möglich wiedergegebene Bilder ungeachtet der Verschlechterung der Bildererfassungseinrichtung oder eines Farbfilters über die Zeit und ungeachtet von Änderungen in einer Beleuchtungslichtquelle zu erhalten. Die Bilderfassungsdaten sind zweidimensionale digitale Bilddaten, die aus einem Bildsignal gebildet werden, das durch Fotografieren eines Objekts unter Verwendung einer Bilderfassungseinrichtung erhalten wird.
  • Beispiele für die Bildwiedergabeparameter sind eine Farbtemperatur und ein Wiedergabeluminanzpegel.
  • Die Bildwiedergabeparameter werden zum Korrigieren der Farbtemperatur oder Einstellen des Wiedergabeluminanzpegels verwendet.
  • Die Korrektur der Farbtemperatur dient insbesondere der Anpassung des sogenannten Weißabgleichs, so dass ein Objekt, das weiß aussehen soll, auch weiß aussieht. Im Allgemeinen wird diese Farbtemperaturkorrektur auf der Grundlage von Bilderfassungsdaten durchgeführt. Das heißt, Daten des Objekts, von dem angenommen wird, dass es weiß aussieht, werden aus Bilderfassungsdaten extrahiert, und ein Weißabgleichkoeffizient wird als ein Bildwiedergabeparameter auf der Grundlage der extrahierten Daten bestimmt. Bei der Weißabgleichanpassung wird eine Vielzahl von Farbkomponentsignalen, die ein Ausgabebildsignal aus einer Bilderfassungseinrichtung bilden, entsprechend dem Weißabgleichkoeffizienten verstärkt. Infolgedessen werden Signalpegel der Farbkomponenten, die das Bildsignal des Objekts bilden, das weiß aussehen soll, derart angepasst, dass sie einander gleich sind.
  • Die Einstellung des Wiedergabeluminanzpegels wird durch Berechnung einer Luminanzverteilung aus Bilderfassungsdaten und Einstellen eines optimalen Wiedergabeluminanzpegels (Bereichs) durchgeführt. Der Parameter wird derart angepasst, dass ein wiedergegebenes Bild innerhalb dieses Bereichs erhalten wird, und das Bild wird wiedergegeben.
  • Die 1 und 2 zeigen Blockschaltbilder eines Aufbaus zur Durchführung der Farbtemperaturkorrektur.
  • Gemäß 1 werden komplementäre Farbdaten (die aus Farbkomponentsignalen Magenta Ma, Grün Gr, Gelb Ye und Zyan Cy bestehen), die durch eine Bilderfassungseinheit 1 erhalten werden, einer Komplementärfarben-Echtfarbenumwandlungseinheit 11 zugeführt. Die komplementären Farbdaten werden in echte Farbdaten (die aus Farbkomponentsignalen Rot R, Grün G, und Blau B bestehen) in der Umwandlungseinheit 11 umgewandelt. Der Weißabgleich der echten Farbdaten, die durch die Komplementärfarben-Echtfarbenumwandlungseinheit 11 erhalten werden, wird durch eine Weißabgleich-(WB-) Anpassungseinheit 12 in der nachfolgenden Stufe angepasst, und der Gammawert der Daten wird durch eine Gammakorrektureinheit 4 korrigiert.
  • Bei dem in 1 gezeigten Aufbau ist die WB- Anpassungseinheit 12 nach der Komplementärfarben-Echtfarbenumwandlungseinheit 11 angeordnet, und die Farbtemperaturkorrektur wird durch Durchführung der Weißabgleichanpassung bei den echten Farbdaten (R, G, B) nach der Umwandlung der komplementären Farben in die reinen bzw. echten Farben ausgeführt. Dieser Aufbau ist dahingehend von Vorteil, dass die Farbtemperaturkorrektur relativ einfach durchgeführt werden kann, da die Verstärkung der echten Farbdaten (R, G, B) direkt angepasst werden kann.
  • Im in 2 gezeigten Aufbau passt andererseits eine WB-Anpassungseinheit 2 den Weißabgleich komplementärer Farbdaten (Ma, Gr, Ye, Cy) an, die durch eine Bilderfassungseinheit 1 erhalten werden. Danach führt eine Komplementärfarben-Echtfarbenumwandlungseinheit 3 eine Komplementärfarben-Echtfarbenumwandlung zum Erhalten echter Farbdaten (R, G, B) durch. Dieser Aufbau hat den Vorteil, dass ein Luminanz signal mit höherer Auflösung als beim Aufbau in 1 leicht erhalten werden kann.
  • Das Verfahren zur Anpassung des Farbtons eines Bildes durch Anpassung des Weißabgleichs ist wirksam, wenn es viele Objekte in einem von einer Bilderfassungseinrichtung erhaltenen Bildsignal gibt, die weiß aussehen sollen. Allerdings gibt es in bestimmten Fällen kein solches Objekt in einem Bildsignal oder nur sehr wenige solcher Objekte in einem Bildsignal, von denen angenommen wird, dass sie weiß aussehen. In diesen Fällen ist es daher im Prinzip unmöglich, den Farbton durch Anpassung des Weißabgleichs anzupassen. In diesen Fällen besteht der allgemeine Ansatz in der Mittelung von Bilderfassungsdaten einer Bildebene für jede Farbkomponente und Anpassung des Weißabgleichs unter Verwendung des Mittelwerts. Allerdings ist eine durch den erhaltenen Mittelwert angegebene Farbe nicht unbedingt weiß (die Farbe einer Lichtquelle), weshalb der Weißabgleich nicht genau angepasst werden kann.
  • Das heißt, der Weißabgleichkoeffizient kann nicht akkurat eingestellt werden, wenn er anhand von Bilderfassungsdaten bestimmt wird, um ein optimales wiedergegebenes Bild zu erhalten.
  • Wird beim Einstellen des Wiedergabeluminanzpegels der Wiedergabeluminanzpegel (Bereich) für jede Bildebene bestimmt, geht die Korrelation zwischen den Luminanzen einer Vielzahl von Bildebenen verloren. Dies erschwert den Vergleich wiedergegebener Bilder, bzw. wird die Korrektur von Luminanzen unnatürlich, wenn die wiedergegebenen Bilder synthetisiert werden.
  • Beispielsweise sind die vorstehenden Probleme signifikant, wenn ein Objekt, das ursprünglich und wünschenswert als eine Bildebene fotografiert werden soll, teilweise fotografiert wird, da der Fotografiebereich klein ist, und eine Bildebene durch Synthetisieren von Bilderfassungsdaten der erhaltenen Bildebenen gebildet wird.
  • Das heißt, mit dem Verfahren zum Erhalten eines Bildwiedergabeparameters für jeweilige Bilderfassungsdaten einer Bildebene ist es unmöglich, ein wiedergegebenes Bild zu erhalten, das verwendet wird, wenn Informationen aus einer Vielzahl von Bildern durch Vergleichen und Analysieren der Bilder extrahiert werden, z.B. wenn Informationen über physikalische Eigenschaften aus Luminanzinformationen erhalten werden. Ändert sich ferner die Reflexion eines Objekts örtlich und allmählich, weisen einzelne Bilderfassungsdaten, die durch teilweises Fotografieren des Objekts erhalten werden, verschiedene Luminanzpegel (Bereiche) auf. Werden Bilder durch unabhängiges Optimieren dieser Bilderfassungsdaten wiedergegeben, geht die Korrelation zwischen Luminanzen, die ursprünglich den jeweiligen Bilderfassungsbereichen entsprachen, in den wiedergegebenen Bildern verloren. Wird demnach ein Bild durch Synthetisieren dieser Bilder ausgebildet, die in den jeweiligen Bilderfassungsbereichen aufgenommen werden, ergibt sich ein unnatürliches synthetisches Bild, in dem die Korrelation zwischen Luminanzen verloren ist.
  • Der Farbton eines Bildes wird durch Anpassung des Weißabgleichs wie folgt angepasst. Ein Objekt, das mit einer bestimmten Fotografielichtquelle weiß aussehen soll, wird fotografiert. Der Verstärkungsfaktor jedes einer Vielzahl von Farbkomponentensignalen, die ein Bildsignal bilden, das von der Bilderfassungseinrichtung erhalten wird, wird derart angepasst, dass das weiße Objekt exakt weiß aussieht, wenn das Bildsignal wiedergegeben wird. Das heißt, es kann angenommen werden, dass die Weißabgleichanpassung zum Kompensieren von Änderungen in der Lichtquelle während des Fotografierens durchgeführt wird.
  • Im Allgemeinen ist die vorstehend beschriebene Weißabgleichanpassung ein prinzipielles Mittel zum Kompensieren von Änderungen in der Lichtquelle während des Fotografierens. Ein bei dieser Weißabgleichanpassung verwendeter Weißabgleichkoeffizient wird auf der Grundlage von Informationen der Lichtquelle während des Fotografierens erhalten.
  • Unter einer Vielzahl verschiedener Bildwiedergabeparameter, die bei der Bildwiedergabe verwendet werden, werden einige Parameter vorzugsweise auf der Grundlage von Informationen der Lichtquelle während des Fotografierens erhalten, wie der Bildwiedergabeparameter (Weißabgleichkoeffizient), der bei der Weißabgleichanpassung verwendet wird. Ein Beispiel besteht in einer Komplementärfarben-Echtfarbenumwandlungsmatrix, die zum Umwandeln eines unter Verwendung eines Komplementärfarbfilters erhaltenen Bildsignals in ein echtes Farbsignal verwendet wird.
  • Die Komplementärfarben-Echtfarbenumwandlungsmatrix wird durch die spektrale Lichtdurchlässigkeitseigenschaft eines Komplementärfarbfilters bestimmt. Üblicherweise ist die spektrale Lichtdurchlässigkeitseigenschaft eines Komplementärfarbfilters nicht ideal. Der Einfluss dieser Abweichung von der idealen Eigenschaft bzw. Kennlinie ändert sich entsprechend der Eigenschaften der Lichtquelle während des Fotografierens. Das heißt, eine Komplementärfarben-Echtfarbenumwandlungsmatrix, die unter einer bestimmten Fotografielichtquelle optimal ausgewählt wird, liefert ein optimales Komplementärfarben-Echtfarbenumwandlungsergebnis bei dieser Lichtquelle. Allerdings liefert diese Matrix nicht bei allen Lichtquellen geeignete Umwandlungsergebnisse.
  • Ändert sich eine Fotografierlichtquelle, ist es deshalb erwünscht, die Komplementärfarben-Echtfarbenumwandlungsmatrix entsprechend der Lichtquelle zu ändern. Ferner stehen die vorstehenden zwei Bildwiedergabeparameter, das heißt, der Weißabgleichkoeffizient und die Komplementärfarben-Echtfarbenumwandlungsmatrix bei einer bestimmten Fotografierlichtquelle in Beziehung zueinander. Demnach ist es unerwünscht, diese Parameter einzeln zu bestimmen.
  • Allerdings wird im Allgemeinen die Komplementärfarben-Echtfarbenumwandlung unter Verwendung einer halbfesten Komplementärfarben-Echtfarbenumwandlungsmatrix durchgeführt, die bei einer Fotografierlichtquelle optimal eingestellt ist. Ändert sich die Fotografierlichtquelle, erhöht sich demnach der Einfluss der Abweichung der spektralen Lichtdurchlässigkeitseigenschaft eines Komplementärfarbfilters von der idealen Eigenschaft. Ferner tritt manchmal ein Widerspruch zwischen dem Weißabgleichkoeffizienten und der Komplementärfarben-Echtfarbenumwandlungsmatrix mit der Korrelation auf. Demzufolge kann eine Komplementärfarben-Echtfarbenumwandlung nicht geeignet durchgeführt werden, und dies erschwert die treue Wiedergabe eines Bildes.
  • Die Erfindung wurde in Anbetracht der vorstehenden Probleme ausgestaltet, und ihre Aufgabe besteht in der Bereitstellung einer vorrichtung und eines Bildverarbeitungsverfahrens zur exakten Einstellung eines Bildwiedergabeparameters anhand einer Gruppe von Bilderfassungsdaten zum Erhalten eines optimalen wiedergegebenen Bildes.
  • Die EP-A-O 502 369 offenbart ein Verfahren und eine Vorrichtung zur Verarbeitung eines Bildes durch Bestimmen von Bildverarbeitungsbedingungen beruhend auf Bilddaten, die durch Abtasten von auf einer zu lesenden Vorlage aufgezeichneten Bildinformationen erhalten werden. Das abgetastete Bild wird angezeigt, und ein Bediener bestimmt bestimmte Orte auf dem Bild zum Einstellen von Bildverarbeitungsbedingungen für eine nachfolgende Hauptabtastung.
  • Die EP-A-O 363 988 offenbart eine Farbabtasteinrichtung zum Lesen eines in einer Vorlagenkassette gespeicherten Bildes entweder durch Ausführen einer groben Abtastung oder einer Hauptabtastung. Bei diesem Stand der Technik wird eine Bildverarbeitungsbedingung für eine einem Vorlagenbild entsprechende Hauptabtastung automatisch anhand von durch die Vorabtastung erhaltenen Bilddaten berechnet.
  • Gemäß einer ersten Ausgestaltung der Erfindung ist eine Bildverarbeitungsvorrichtung nach Patenanspruch 1 ausgebildet.
  • Gemäß einer zweiten Ausgestaltung der Erfindung ist ein Bildverarbeitungsverfahren nach Patentanspruch 8 ausgebildet.
  • Weitere Merkmale und Vorteile der Erfindung werden aus der folgenden Beschreibung in Verbindung mit der beiliegenden Zeichnung ersichtlich, wobei gleiche Bezugszeichen gleiche oder ähnliche Abschnitte in den Figuren bezeichnen.
  • Kurzbeschreibun der Zeichnung
  • 1 und 2 zeigen Blockschaltbilder eines Aufbaus zur Durchführung einer Farbtemperaturkorrektur,
  • 3 zeigt ein Blockschaltbild des Aufbaus einer Bildwiedergabevorrichtung gemäß dem ersten Ausführungsbeispiel der Erfindung,
  • 4 zeigt ein Ablaufdiagramm des Vorgangs einer Bildverarbeitung, die durch die Bildverarbeitungsvorrichtung des ersten Ausführungsbeispiels durchgeführt wird,
  • 5 zeigt eine Darstellung zur Beschreibung eines Beispiels eines synthetischen Bildes,
  • 6 zeigt eine Darstellung zur Beschreibung von Zusammensetzungsinformationen eines Objekts,
  • 7 zeigt eine Darstellung zur Beschreibung von Bilderfassungsdaten mit zeitlicher Kontinuität,
  • 8 zeigt ein Ablaufdiagramm einer Bilderfassungsdatengruppierungsverarbeitung,
  • 9 zeigt ein Beispiel einer Farbmaßzahldarstellung,
  • 10 zeigt eine Darstellung des Bereichs einer korrelierten Farbtemperatur von Bilderfassungsdaten, die durch (R/G, B/G)-Signalwerte dargestellt sind,
  • 11 zeigt ein Ablaufdiagramm einer Bilderfassungsdatengruppierungsverarbeitung, wenn eine Zusammensetzung als die Bedingung der Gruppierung festgelegt ist, und
  • 12 ein Ablaufdiagramm einer Verarbeitung einer Gruppierung von Bilderfassungsdaten unter Verwendung von an die Bilderfassungsdaten angefügten Informationen.
  • Ausführliche Beschreibung der bevorzugten Ausführunsbeispiele
  • Nachstehend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die beiliegende Zeichnung beschrieben.
  • <Erstes Ausführungsbeispiel >
  • [Aufbau]
  • 3 zeigt ein Blockschaltbild eines Ausführungsbeispiels einer erfindungsgemäßen Bildwiedergabevorrichtung.
  • Eine Farbbilderfassungseinheit 10, wie eine Digitalkamera, erfasst das Bild eines Objekts und gibt die Bilderfassungsdaten des Objekts zu einem Bilderfassungsdatenspeicher 20 aus. Der Bilderfassungsdatenspeicher 20 speichert die von der Farbbilderfassungseinheit 10 zugeführten Bilderfassungsdaten.
  • Eine Farbbildwiedergabeverarbeitungseinrichtung 30 führt eine vorbestimmte Bildwiedergabeverarbeitung bei den in dem Bilderfassungsdatenspeicher 20 gespeicherten Bilderfassungsdaten durch. Die Farbbildwiedergabeverarbeitungseinrichtung 30 wandelt beispielsweise die Bilderfassungsdaten in digitale NTSC-RGB-Daten um und gibt die digitalen Daten zu einer Farbbildwiedergabeanzeigeeinrichtung 40 und einem Wiedergabebilddatenspeicher 50 aus.
  • Die Farbbildwiedergabeanzeigeeinrichtung 40 umfasst eine Farbvideokarte und einen Monitor. Die Farbbildwiedergabeanzeigeeinrichtung 40 empfängt ein ausgegebenes Farbbildsignal von der Farbbildwiedergabeverarbeitungseinrichtung 30 bzw. liest ein Farbbildsignal aus dem Wiedergabebilddatenspeicher 50 aus und zeigt das Signal als Farbbild auf dem Monitor an.
  • Der Wiedergabebilddatenspeicher 50 speichert die durch die Farbbildwiedergabeverarbeitungseinrichtung 30 wiedergegebenen Bilddaten. Die in dem Wiedergabebilddatenspeicher 50 gespeicherten Bilddaten werden nach Bedarf der Farbbildwiedergabeanzeigeeinrichtung 40 zugeführt und durch diese angezeigt.
  • Insbesondere umfasst die Farbbildwiedergabeverarbeitungseinrichtung 30 eine Bilderfassungsdatenhalteeinheit 31, eine Bilderfassungsdatenauswahleinheit 33, eine Bilderfassungsdatenauswahlbestimmungseinheit 34, eine Bildwiedergabeparameterbestimmungseinheit 32, eine Bildwiedergabeverarbeitungseinheit 35 und eine Steuereinheit 36. Die Bilderfassungsdatenhalteeinheit 31 hält die digitalen Bilderfassungsdaten aus dem Bilderfassungsdatenspeicher 20. Die Bilderfassungsdatenauswahleinheit 33 wählt Bilderfassungsdaten aus dem Bilderfassungsdatenspeicher 20 aus und gibt die ausgewählten Daten zu der Bilderfassungsdatenhalteeinheit 31 aus. Die Bilderfassungsdatenauswahlbestimmungseinheit 34 bestimmt die Bedingung, mit der die Bilderfassungsdatenauswahleinheit 33 Bilderfassungsdaten auswählt. Die Bildwiedergabeparameterbestimmungseinheit 32 bestimmt einen Bildwiedergabeparameter durch die Verwendung der durch die Bilderfassungsdatenhalteeinheit 31 gehaltenen Bilderfassungsdaten. Die Bildwiedergabeverarbeitungseinheit 35 gibt ein Bild der durch die Bilderfassungsdatenhalteeinheit 31 gehaltenen Bilderfassungsdaten unter Verwendung des durch die Bildwiedergabeparameterbestimmungseinheit 32 bestimmten Bildwiedergabeparameters wieder. Die Steuereinheit 36 steuert diese Einheiten der Farbbildwiedergabeverarbeitungseinrichtung 30. Die Steuereinheit 36 umfasst beispielsweise einen Einchip-Mikrocontroller (MPU) und führt verschiedene Prozesse (wie nachstehend beschrieben) entsprechend zuvor in einem internen ROM 36a gespeicherten Programmen aus. Ein internes RAM 36b der MPU wird als Arbeitsspeicher der MPU verwendet.
  • Beispiele für den durch die Bildwiedergabeparameterbestimmungseinheit 32 bestimmten Bildwiedergabeparameter sind Parameter, die eine Farbtemperatur, einen Weißabgleichkoeffizienten, eine Farbkomponentenverstärkung, Weißpunktinformationen, Schwarzpunktinformationen, einen Gammakoeffizienten, eine Abstufungseigenschaft, eine Abstufungsumwandlungskurve, eine Abstufungsumwandlungsnachschlagetabelle, einen Knickpunkt, einen dynamischen Bereich, einen Farbtonumfang, Lichtquelleninformationen, einen Farbkoordinatenumwandlungsmatrixkoeffizienten, eine Ortsfrequenzkennlinie, einen Schwarzabgleichkoeffizienten, ein S/N-Verhältnis, einen Autokorrelationskoeffizienten, ein Wiener-Spektrum, eine Intensität-(Dichte-)Verteilung und eine Luminanzverteilung angeben, und Parameter, die direkt oder indirekt aus diesen Informationsteilen erhalten werden.
  • Die Bilderfassungsdatenauswahlbestimmungseinheit 34 kann die Bedingung der Auswahl derart bestimmen, dass aus einer Vielzahl von in dem Bilderfassungsdatenspeicher 20 gespeicherten Bilderfassungsdaten Bilderfassungsdaten, die eine bestimmte Bedingung erfüllen, als Gruppe von Bilderfassungsdaten verarbeitet werden. Die bestimmte Bedingung ist als Bedingung gegeben, die sich auf Farbtemperaturinformationen oder die Zusammensetzung eines aus Bilderfassungsdaten erhaltenen Objekts bezieht, oder als vorbestimmte Bedingung gegeben, die zu der Fotografierzeit, dem Fotografiermodus, dem Fotografierort, dem EV-Wert, Apertur-Wert, der Objektentfernung, der Verschlussgeschwindigkeit, der Verwendung/nicht Verwendung eines Elektronenblitzes, oder der Verwendung/nicht Verwendung eines optischen Tiefpassfilters gehört, wobei es sich jeweils um Informationen handelt, die an die Bilderfassungsdaten angehängt sind.
  • [Bildwiedergabeverarbeitung]
  • 4 zeigt ein Ablaufdiagramm einer Bildverarbeitung, die durch die Bildwiedergabevorrichtung dieses Ausführungsbeispiels durchgeführt wird. 4 zeigt eine durch die Farbbildwiedergabeverarbeitungseinrichtung 30 ausgeführte Verarbeitung. Es wird angenommen, dass eine Vielzahl von durch die Farbbilderfassungseinheit 10 erhaltenen Bilderfassungsdaten bereits in dem Bilderfassungsdatenspeicher 20 gespeichert ist.
  • Beginnt die in 4 gezeigte Verarbeitung, überprüft die Steuereinheit 36 zur Steuerung der Verarbeitung die Inhalte einer durch die Bilderfassungsdatenauswahlbestimmungseinheit 34 bestimmten Bilderfassungsdatenauswahl (in Schritt S1), und sendet die Inhalte der bestimmten Auswahl zu der Bilderfassungsdatenauswahleinheit 33. Auf der Grundlage der Inhalte der durch die Bilderfassungsdatenauswahlbestimmungseinheit 34 bestimmten Auswahl wählt die Bilderfassungsdatenauswahleinheit 33 Bilderfassungsdaten, die die Inhalte der bestimmten Auswahl erfüllen, aus den in dem Bilderfassungsdatenspeicher 20 gespeicherten Bilderfassungsdaten aus und gibt die ausgewählten Daten zu der Bilderfassungsdatenhalteeinheit 31 aus (Schritt S2). Umfassen die die Inhalte der bestimmten Auswahl erfüllenden Bilderfassungsdaten weniger als eine Bildebene, wird diese Verarbeitung nicht ausgeführt. Umfassen die ausgewählten Bilderfassungsdaten eine Bildebene, werden die Bilderfassungsdaten durch eine herkömmliche Bildwiedergabeverarbeitung in Bilddaten umgewandelt. Gibt es keine auszuwählenden Bilderfassungsdaten, werden Informationen darüber ausgegeben, und die Verarbeitung wird beendet.
  • Die Bilderfassungsdatenhalteeinheit 31 hält die Gruppe der wahlweise aus dem Bilderfassungsdatenspeicher 20 ausgebenden Bilderfassungsdaten (Schritt S3).
  • Die Bildwiedergabeparameterbestimmungseinheit 32 analysiert die durch die Bilderfassungsdatenhalteeinheit 31 gehaltene Bilderfassungsdatengruppe, erhält beispielsweise Lichtquelleninformationen (beispielsweise die Farbtemperatur oder die Farbmaßanzahl der Lichtquelle), wenn die Bilderfassungsdaten erhalten werden, was bei der Weißabgleichanpassung erforderlich ist, und bestimmt einen Bildwiedergabeparameter auf der Grundlage der Lichtquelleninformationen (Schritt 54). D.h., durch die Verwendung der Vielzahl der Bilderfassungsdaten, die wahlweise als Gruppe von Bilderfassungsdaten aus dem Bilderfassungsdatenspeicher 20 ausgegeben werden und in der Bilderfassungsdatenhalteeinheit 31 gehalten werden, bestimmt die Bildwiedergabeparameterbestimmungseinheit 32 einen Bildwiedergabeparameter und sendet den Parameter zu der Bildwiedergabeverarbeitungseinheit 35.
  • Unter Verwendung des vorbestimmten Bildwiedergabeparameters führt die Bildwiedergabeverarbeitungseinheit 35 eine Bildwiedergabeverarbeitung durch, bei der die durch die Bilderfassungsdatenhalteeinheit 31 gehaltene Bilderfassungsdatengruppe in eine Gruppe von Bilddaten umgewandelt wird (Schritt S5).
  • [Auswahlbedingungen der Bilderfassungsdaten]
  • Die Bedingungen, unter denen Bilderfassungsdaten aus einer Vielzahl von Bilderfassungsdaten zur Verarbeitung als eine Gruppe von Bilderfassungsdaten ausgewählt werden, werden nachstehend beschrieben.
  • Aus der Analyse von Bilderfassungsdaten selbst erhaltene Informationen umfassen Farbtemperaturinformationen und die Zusammensetzung eines Objekts. Manchmal ist es erforderlich, eine Vielzahl von Bilderfassungsdaten, deren Farbtemperaturen innerhalb eines bestimmten festen Bereichs liegen, als Gruppe korrelierter Bilderfassungsdaten zu verarbeiten. Ist insbesondere die Anzahl von Abtastwerten, die zur Schätzung von Farbtemperaturen verwendet werden, klein, kann die Schätzgenauigkeit durch wiederholtes Schätzen der Farbtemperaturen unter Verwendung einer Vielzahl von Bilderfassungsdaten erhöht werden, deren geschätzte Farbtemperaturen innerhalb eines bestimmten festen Bereichs liegen. Demzufolge kann die Bildwiedergabe mit größerer Genauigkeit durchgeführt werden.
  • Sind die Zusammensetzung von Objekten die gleichen oder sehr ähnlich, ist die Wahrscheinlichkeit sehr hoch, dass diese Objekte unter derselben Fotografierbedingung fotografiert wurden. Demnach sind die Bildwiedergabeparameter der Bilder dieselben oder können als derselbe Parameter innerhalb eines bestimmten festen Genauigkeitsbereichs verarbeitet werden. Ist dies der Fall, kann ein Bildwiedergabeparameter exakt erhalten werden, wenn er anhand einer Vielzahl von Bilderfassungsdaten erhalten wird. In vielen Fällen ist es sinnvoll, Bilderfassungsdaten mit derselben Objektzusammensetzung oder ähnlicher Objektzusammensetzung als Gruppe von Bilderfassungsdaten zu verarbeiten.
  • Beispiele von Informationen, die zum Herausfinden der Korrelation zwischen Bilderfassungsdaten nützlich sind, sind die Fotografierzeit (Datum), der Fotografiermodus, der Fotografierort, der EV-Wert, die Verschlussgeschwindigkeit, der Aparturwert, die Objektentfernung, die Verwendung/nicht Verwendung eines Elektronenblitzes und die Verwendung/nicht Verwendung eines optischen Tiefpassfilters. Sind diese Informationsteile als an Bilderfassungsdaten angehängte Informationen gegeben, kann eine Gruppe von Bilderfassungsdaten durch Analysieren dieser Informationsteile erzeugt werden.
  • Liegen die Fotografierzeiten von Bilderfassungsdaten innerhalb eines bestimmten festen Bereichs, ist es offensichtlich effektiv, diese Daten als Gruppe von Bilderfassungsdaten zu verarbeiten. Es ist auch klar effektiv, eine Folge von Bilderfassungsdaten als Gruppe von Bilderfassungsdaten zu verarbeiten, deren Bildgebungsmodus ein kontinuierlicher Aufnahmemodus ist. Wird ein Elektronenblitz verwendet, hängen Informationen über die Fotografierlichtquelle weitgehend von den Eigenschaften des Blitzlichtes ab. Daher ist es nützlich, gleichzeitig eine Vielzahl von Bilderfassungsdaten, die unter Verwendung eines Elektronenblitzes erhalten werden, als eine Gruppe von Bilderfassungsdaten zu verarbeiten.
  • Informationsteile, wie der EV-Wert, die Verschlussgeschwindigkeit, der Aparturwert und die Objektentfernung hängen weitgehend stark von den Fotografierbedingungen ab und fungieren als stark einschränkende Bedingungen, wenn ein Wiedergabeparameter bestimmt wird. Daher werden Bilderfassungsdaten mit diesen Werten innerhalb eines vorbestimmten Bereichs als eine Bilderfassungsdatengruppe verarbeitet. Dies ist sehr effektiv, wenn eine Bildwiedergabe durchgeführt wird.
  • Bei Informationen über den Fotografierort bleiben die Eigenschaften eines Objekts unverändert. Daher sind diese Informationen bei einer exakten Wiedergabe eines Objekts sehr effektiv. Werden diese Informationen in Kombination mit Informationen beispielsweise der Fotografierzeit (Datum) verwendet, können außerdem Informationen über eine Änderung der Fotografierbedingungen erhalten werden. Dies erhöht offensichtlich die Verwendbarkeit der Informationen des Fotografierortes.
  • In dem vorstehenden Beispiel ist primär die Bedingung für jede individuelle Information beschrieben. Jedoch ist ersichtlich, dass die Wirkung manchmal stark durch Kombination der vorstehenden Bedingungen verbessert wird.
  • Wie beispielsweise in 5 gezeigt wird als die Bedingung der Bildwiedergabeverarbeitung manchmal eine Vielzahl von Bilderfassungsdaten mit einer Ortskontinuität zum Erhalten eines synthetischen Bildes bestimmt. Ist dies der Fall, muss die Ortskontinuität in dem synthetischen Bild erhalten bleiben. Zu diesem Zweck ist es sehr effektiv, eine Bildwiedergabeverarbeitung durch die Verarbeitung einer Vielzahl von Bilderfassungsdaten als eine Gruppe von Bilderfassungsdaten durchzuführen.
  • Kann wie in 6 gezeigt anhand von Fotografierortinformationen oder Zusammensetzungsinformationen, die durch Analysieren von Bilderfassungsdaten erhalten werden, bestimmt werden, dass die Bilderfassungsdaten eine zeitliche Kontinuität aufweisen und aus Objekten erhalten werden, die nahezu dieselben sind, kann ein wiedergegebenes Bild, das die zeitliche Kontinuität aufrechterhält, durch Verarbeitung dieser Bilderfassungsdaten als eine Gruppe von Bilderfassungsdaten erhalten werden.
  • Werden diese Bilderfassungsdaten beispielsweise im Freien erhalten, kann ein Bild wiedergegeben werden, wobei eine kontinuierliche Änderung mit einer Änderung der Fotografierzeit, d.h., die Bedingung von Sonnenschein beibehalten wird. Insbesondere kann ein wiedergegebenes Bild mit zeitlicher Kontinuität durch kontinuierliche Änderung eines Bildwiedergabeparameters von Bilderfassungsdaten einer Bilderfassungsdatengruppe aus einer Vielzahl von Bilderfassungsdaten erhalten werden, die aus Objekten erhalten werden, die nahezu die gleichen sind. Dies ermöglicht die Wiedergabe eines Bildes unter Korrektur einer in manchen Bilderfassungsdaten aufgrund einer plötzlichen Bedingungsänderung auftretenden Störung. Infolgedessen kann ein zeitlich natürliches Bild erhalten werden.
  • Wie in 7 gezeigt werden Bilderfassungsdaten sowohl mit zeitlicher Kontinuität als auch einer Kontinuität in der Fotografierreihenfolge, d.h., Bilderfassungsdaten, die erhalten werden, wenn der Fotografiermodus ein kontinuierlicher Aufnahmemodus ist, oder Bilderfassungsdaten, die auch eine örtliche Kontinuität aufweisen, als eine Gruppe von Bilderfassungsdaten verarbeitet. Demzufolge kann eine in jeweiligen individuellen Bilderfassungsdaten auftretende fremde Bedingung beseitigt werden, und dies ermöglicht die Wiedergabe eines Bildes mit der Kontinuität.
  • [Gruppierung von Bilderfassungsdaten]
  • Gruppierung unter Verwendung von Farbtemperaturinformationen
  • Nachstehend wird ein Verfahren zur Gruppierung von Farbbilderfassungsdaten, d.h., ein Verfahren zum Erhalten einer Gruppe von Bilderfassungsdaten unter Verwendung von Farbtemperaturinformationen beschrieben, die aus der Analyse von Bilderfassungsdaten erhalten werden. 8 zeigt ein Ablaufdiagramm der Bilderfassungsdatengruppierungsverarbeitung. Die Verarbeitung wird durch die Steuereinheit 36 durch Steuerung der Bilderfassungsdatenauswahlbestimmungseinheit 34 und der Bilderfassungsdatenauswahleinheit 33 ausgeführt.
  • Die durch die Bilderfassungsdatenauswahlbestimmungseinheit 34 gegebenen Bedingungen sind eine korrelierte Farbtemperatur (A(K)) und ihre Auswahlbereichfarbtemperatur (±dA(K)). Der korrelierte Farbtemperaturbereich wird manchmal direkt vom Benutzer als numerischer Wert eingegeben. Es ist auch möglich, Informationen hinsichtlich der korrelierten Farbtemperatur einzugeben, beispielsweise Worte wie „Tag", „Abend", „Abendrot", „Wolken" und „Glühlampe", die man sich in Verbindung mit der Farbtemperatur vorstellen kann. D.h., diesen Worten entsprechende Farbtemperaturbereiche können zuvor definiert und im ROM 36a gespeichert werden, und ein Farbtemperaturbereich, der den durch den Benutzer eingegebenen Informationen entspricht, kann ausgelesen und verwendet werden. Alternativ dazu können die diesen Worten entsprechenden Farbtemperaturbereiche durch Berechnungen erhalten werden (Schritt S11 in 8). Es ist auch möglich, Adjektive wie „rot" und „blass", anhand derer man sich die Farbtemperaturen vorstellen kann, bzw. praktische Werte einer Farbmaßzahl oder eines Farbunterschieds zu verwenden.
  • Sind die vorstehenden Bedingungen festgelegt, bestimmt die Bilderfassungsdatenauswahlbestimmungseinheit 34 die korrelierte Farbtemperatur als die intrinsischen Informationen der Bilderfassungsdaten beispielsweise unter Verwendung eines in 9 gezeigten Farbmaßzahlschemas.
  • 9 zeigt eine graphische Darstellung, die als beigefügte 1 in JIS Z 8725 „Method for Determining Distribution Temperature and Color Temperature or Correlated Color Temperature of Light Sources" gezeigt ist. Gemäß 9 hat der Kehrwert der korrelierten Farbtemperatur TCP –1 die folgende Beziehung zu einer korrelierten Farbtemperatur TCP:
    Figure 00200001
  • Die bestimmte korrelierte Farbtemperatur wird der Bilderfassungsdatenauswahleinheit 33 zugeführt und als Bedingung für die Gruppierung verwendet.
  • Die Bilderfassungsdatenauswahleinheit 33 lädt folgend die im Bilddatenspeicher 20 gespeicherten Bilderfassungsdaten (Schritt S12), analysiert die Bilderfassungsdaten und extrahiert Informationen über die Farbtemperatur (Schritt S13), und überprüft, ob die Farbtemperaturinformationen die zuvor festgelegte Gruppierungsbedingung erfüllen (in diesem Fall die korrelierte Farbtemperatur) (Schritt S14). Erfüllen die Farbtemperaturinformationen die Bedingung, führt die Bilderfassungsdatenauswahleinheit 33 die entsprechenden Bilderfassungsdaten der Bilderfassungsdatenhalteeinheit 31 zu (Schritt S15).
  • Im Allgemeinen sind die durch Analysieren der Bilderfassungsdaten erhaltenen Farbtemperaturinformationen nicht eine korrelierte Farbtemperatur selbst, sondern ein anderes Signal mit einer Eins-zu-eins-Entsprechung mit der korrelierten Farbtemperatur. Wird beispielsweise eine Bilderfassungseinrichtung verwendet, von der ein R, G, B-Signal erhalten wird, ist es möglich, als Signal über die Farbtemperaturinformationen ein (R/G, B/G)-Signal zu verwenden, das durch Mittelung von Bilderfassungsdaten einer Bildebene erhalten wird, oder ein (R/G, B/G)-Signal zu verwenden, das als Mittelwert von Regionen erhalten wird (die beispielsweise die Bedingung erfüllen, dass ihre Farbmaßzahlwerte innerhalb des Bereichs liegen, der die korrelierte Farbtemperatur in 9 definiert), die aus Bilderfassungsdaten abgetastet werden und Weiß entsprechen. Da das (R/G, B/G)-Signal von der Empfindlichkeitseigenschaft bzw. Empfindlichkeitskennlinie der verwendeten Bilderfassungseinrichtung hinsichtlich jeder Farbkomponente abhängt, muss die Entsprechung mit der korrelierten Farbtemperatur unter Berücksichtigung der Eigenschaften einer verwendeten Bilderfassungseinrichtung als System erhalten werden.
  • Da die Eigenschaften der (R/G, B/G)-Signale und die korrelierten Farbtemperaturen, deren Entsprechung somit erhalten wird, einander eins-zu-eins entsprechen, kann die Beziehung zwischen der korrelierten Farbtemperatur (A(K)) und deren Auswahlbereichfarbtemperatur (±dA(K)), die die zuvor gegebenen Gruppierungsbedingungen darstellen, auch wie folgt unter Verwendung des (R/G, B/G)-Signals definiert werden. D.h., der Bereich der korrelierten Farbtemperaturen der zu gruppierenden Bilderfassungsdaten kann als A±dA(K), bzw. wie in 10 gezeigt durch ((R/G)0±d(R/G)0, (B/G)0±d(B/G)0) definiert werden. Zur direkten Überprüfung unter Verwendung des (R/G, B/G)-Signals, ob die Gruppierungsbedingungen erfüllt sind, ist es demnach lediglich erforderlich, zu überprüfen, ob die durch Analysieren der Bilderfassungsdaten erhaltenen Farbtemperaturinformationen (R/G, B/G) innerhalb des Bereichs von ((R/G)0±d(R/G)0, (B/G)0±d(B/G)0) liegen.
  • Zum Durchführen dieser Bestimmung unter Verwendung der korrelierten Farbtemperatur wird eine korrelierte Farbtemperatur erhalten, die dem direkt aus den Bilderfassungsdaten erhaltenen (R/G, B/G)-Signal entspricht, und es wird überprüft, ob diese korrelierte Farbtemperatur innerhalb des Bereichs A±dA(K) als Gruppierungsbedingung liegt.
  • Liegt eine mit den Farbtemperaturinformationen verknüpfte Bedingung als Gruppierungsbedingung vor, wird die vorste hende Verarbeitung folgerichtig bei den im Bilddatenspeicher 20 gespeicherten Bilderfassungsdaten ausgeführt. Es wird bestimmt, dass die die Gruppierungsbedingung erfüllenden Bilderfassungsdaten die Gruppe bildende Bilderfassungsdaten sind. Die somit die Gruppe bildenden Bilderfassungsdaten werden der Bilderfassungsdatenhalteeinheit 31 zugeführt (Schritt S15) und in dieser gehalten. Die Bilderfassungsdatenauswahleinheit 33 wiederholt die Vorgänge von Schritt S12 bis Schritt 515, bis in Schritt S16 bestimmt wird, dass alle in dem Bilddatenspeicher 20 gespeicherten Bilderfassungsdaten ausgelesen sind.
  • Gruppierung unter Verwendung einer Zusammensetzung eines Objekts
  • Nachstehend wird ein Verfahren der Gruppierung von Bilderfassungsdaten beschrieben, wenn die Zusammensetzung eines Objekts als Bedingung der Gruppierung festgelegt wird. 11 zeigt ein Ablaufdiagramm der Bilderfassungsdatengruppierungsverarbeitung, wenn die Zusammensetzung als Gruppierungsbedingung festgelegt wird. Diese Verarbeitung wird durch die Steuereinheit 36 ausgeführt.
  • Wird in Schritt S21 die Zusammensetzung als Gruppierungsbedingung bestimmt, lädt die Bilderfassungsdatenauswahleinheit 33 die im Bilddatenspeicher 20 gespeicherten Bilderfassungsdaten (Schritt S22). Die Bildwiedergabeverarbeitungseinheit 35 führt eine vereinfachte Wiedergabe mit einem Ausmaß durch, mit dem die Zusammensetzung bekannt ist (Schritt S23), wodurch einfache wiedergegebene Bilddaten erhalten werden. Die vereinfachte Wiedergabe kann eine Wiedergabeverarbeitung bis zu dem Ausmaß darstellen, zu dem die Zusammensetzung bekannt sein kann. Beispielsweise werden Bildelemente aus Bilderfassungsdaten ausgedünnt und Luminanzdaten werden wiedergegeben, wodurch die Datenmenge verringert wird.
  • Darauffolgend wird die Bestimmung der Gruppierung unter Verwendung der einfachen wiedergegebenen Bilddaten durchgeführt. Allerdings ist es im Allgemeinen effizient, beispielsweise die Ähnlichkeit zwischen Bildern subjektiv zu bestimmen. Daher wird dieses subjektive Bestimmungsverfahren in diesem Ausführungsbeispiel verwendet. D.h., kann eine Anweisung vom Benutzer bei der Bestimmung der Gruppierung erwartet werden, wird eine Reihe einfacher wiedergegebener Bilddaten auf einem Monitor angezeigt (Schritte S24 und S25), und der Benutzer wählt von der Bilderfassungsdatenauswahlbestimmungseinheit 34 zu gruppierende Bilder aus (Schritt S26). Bilderfassungsdaten, die den durch den Benutzer ausgewählten Bildern entsprechen, werden der Bilderfassungsdatenhalteeinheit 31 folgerichtig zugeführt (Schritt S30) und in dieser gehalten.
  • Zur automatischen Bestimmung der Gruppierung werden Kantenbilddaten durch Extrahieren einer Kantenkomponente aus einfachen wiedergegebenen Bilddaten gebildet (Schritt S27), und die Gleichheit oder Ähnlichkeit der Ortsbeziehung zwischen Kanten wird durch Anwenden einer Bildverarbeitungstechnik erfasst (Schritt S28). Die örtliche Korrelation wird durch Analysieren der Gleichheit oder Ähnlichkeit überprüft, und es wird bestimmt, dass Bilder mit einer starken Korrelation Bilder sind, die die Gruppierungsbedingung erfüllen (Schritt S29). Den Bildern entsprechende Bilderfassungsdaten werden der Bilderfassungsdatenhalteeinheit 31 zugeführt und in dieser gehalten (Schritt S30).
  • Gruppierung unter Verwendung angefügter Informationen Nachstehend wird ein Verfahren der Gruppierung von Bilderfassungsdaten unter Verwendung von an die Bilderfassungsdaten angehängten Informationen beschrieben. 12 zeigt ein Ablaufdiagramm der Verarbeitung der Gruppierung von Bilddaten unter Verwendung von an die Bilderfassungsdaten angehängten Informationen.
  • In Schritt S31 werden an Bilderfassungsdaten angehängte Informationen und die Bedingung der Informationen als die Bedingungen einer Gruppe der Bilderfassungsdatenauswahlbestimmungseinheit 34 zugeführt. Die Bilderfassungsdatenauswahleinheit 33 lädt die im Bilddatenspeicher 20 gespeicherten Bilderfassungsdaten (Schritt S32), überprüft, ob die den Bedingungen entsprechenden Informationen an die Daten angehängt sind (Schritt S33), und lädt folgerichtig Bilderfassungsdaten, an die die Informationen angehängt sind (Schritt S32). Die Bilderfassungsdatenauswahleinheit 33 überprüft dann, ob die angehängten Informationen die bestimmte Bedingung zur Auswahl der Gruppierung erfüllen (Schritt S34).
  • Werden Informationen, wie die Fotografierzeit, der EV-Wert, der Aparturwert, die Objektentfernung oder die Verschlussgeschwindigkeit, deren Bereiche numerisch eingestellt werden können, verwendet, ist die Gruppierungsauswahlbedingung, ob der Wert der angefügten Informationen in den numerisch angegebenen Bereich fällt. Werden Informationen wie der Bilderfassungsmodus, der Fotografierort, die Verwendung/nicht Verwendung eines Elektronenblitzes oder die Verwendung/nicht Verwendung eines optischen Tiefpassfilters verwendet, die schwierig numerisch anzugeben sind, ist die Übereinstimmung zwischen den Namen der Orte, den Namen der Modi oder den Zuständen der Verwendung/nicht Verwendung die Bedingung. Sind Gruppierungsinformationen (dieselbe Markierung wird Bilderfassungsdaten gegeben, die am selben Ort erhalten werden), die vom Bilderfassungsmodus abhängen, als angefügte Informationen gegeben, ist die Überstimmung zwischen den gegebenen Markierungen die Bedingung. Die Gruppierungsauswahlbedingung erfüllende Bilderfassungsdaten werden folgerichtig der Bilderfassungsdatenhalteeinheit 31 zugeführt (Schritt S35) und in dieser gehalten. Die Bilderfassungsdatenauswahleinheit 33 wiederholt die Vorgänge von Schritt S32 bis S35, bis in Schritt S36 bestimmt wird, dass alle im Bilddatenspeicher 20 gespeicherten Bilderfassungsdaten geladen sind.
  • Gruppierung bei Bildsynthese
  • Nachstehend wird ein Verfahren zur Gruppierung von Bilderfassungsdaten beschrieben, wenn ein synthetisches Bild durch Erhöhen des dynamischen Bereichs zu erhalten ist, wie es in der japanischen Patentoffenlegungsschrift Nr. JP-A-7-131796 offenbart ist, oder ein synthetisches Bild durch ein Verfahren einer Panorama-Bildsynthese zum Erhalten eines Weitwinkelbildes aus einer Vielzahl von Bilderfassungsdaten zu erhalten ist, wie es in der japanischen Patentoffenlegungsschrift Nr. JP-A-5-183789 beschrieben ist.
  • In einem derartigen Fall sollten angefügte Informationen, die angeben, dass Daten Bilderfassungsdaten zum Erhalten eines bestimmten synthetischen Bildes sind, den Daten während des Fotografierens zugeordnet werden. Ist dies der Fall, werden bei diesem Ausführungsbeispiel eine Bilderfassungsdatengruppe bildende Bilderfassungsdaten ausgewählt und auf der Grundlage der angefügten Informationen gruppiert. Alternativ dazu ist es wie in „Gruppierung unter Verwendung einer Zusammensetzung eines Objekts" beschrieben auch möglich, Bilderfassungsdaten einfach wiederzugeben, eine Gruppierungsbestimmung durchzuführen, und die Bilderfassungsdaten zu gruppieren. Bei der Verarbeitung zum Erhalten eines synthetischen Bildes werden alle im Bilddatenspeicher 20 gespeicherten Bilderfassungsdaten in manchen Fällen zuvor als Bilderfassungsdaten ausgewählt, die als Gruppe zu verarbeiten sind, wenn die Verarbeitung ausgeführt wird. Ist dies der Fall, wird bei diesem Ausführungsbeispiel die Bildwiedergabe durch Verarbeitung aller im Bilddatenspeicher 20 gespeicherten Bilderfassungsdaten als Gruppe der Bilderfassungsdaten durchgeführt.
  • Wie vorstehend beschrieben wird bei diesem Ausführungsbeispiel bei der Umwandlung von Bilderfassungsdaten in Bilddaten eine Vielzahl von vorbestimmte Bedingungen erfüllenden Bilderfassungsdaten als Gruppe von Bilderfassungsdaten verarbeitet, und ein Bildwiedergabeparameter wird anhand dieser Bilderfassungsdatengruppe erhalten. Die zu der Bilderfassungsdatengruppe gehörenden Bilderfassungsdaten können unter Verwendung dieses Bildwiedergabeparameters in Bilddaten umgewandelt werden.
  • Wird bei diesem Ausführungsbeispiel ein Bildwiedergabeparameter, wie ein Weißabgleichkoeffizient, anhand von Bilderfassungsdaten zum Erhalten eines optimalen wiedergegebenen Bildes bestimmt, kann dieser Bildwiedergabeparameter demnach genau eingestellt werden. Da auch ein Wiedergabeluminanzpegel (Bereich) anhand einer Gruppe von Bilderfassungsdaten bestimmt wird, geht die Korrelation zwischen den Luminanzen einer Vielzahl von Bildebenen nicht verloren. Dies ermöglicht den Vergleich wiedergegebener Bilder und verhindert, dass die Korrektur von Luminanzen unnatürlich wird, wenn diese wiedergegebenen Bilder synthetisiert werden.

Claims (8)

  1. Bildverarbeitungsvorrichtung zur Wiedergabe eines Bildes aus durch eine Bilderfassungseinrichtung erhaltenen Bilddaten, mit einer Auswahleinrichtung (33) zur Auswahl einer Vielzahl von Bildern, die in einem Speicher (20) gespeichert sind, beruhend auf einer von einem Benutzer bestimmten Auswahlbedingung, einer Halteeinrichtung (31) zum Halten der durch die Auswahleinrichtung ausgewählten Vielzahl der Bilder, einer Einstelleinrichtung (32) zum Einstellen eines Bildwiedergabeparameters zum Anpassen eines Farbtons oder einer Luminanz durch Analysieren der durch die Halteeinrichtung gehaltenen Vielzahl der Bilder, und einer Erzeugungseinrichtung (35) zur Erzeugung von Bildsignalen zur Wiedergabe der Vielzahl der Bilder unter Verwendung des durch die Einstelleinrichtung eingestellten Bildwiedergabeparameters.
  2. Vorrichtung nach Anspruch 1, wobei die Auswahlbedingung ein vorbestimmter Farbtemperaturbereich ist.
  3. Vorrichtung nach Anspruch 1, wobei die Auswahlbedingung die Zusammenstellung der Bilder ist.
  4. Vorrichtung nach Anspruch 3, ferner mit einer Wiedergabeeinrichtung (35) zur Wiedergabe eines Bildes zur Überprüfung der Zusammenstellungen der Vielzahl der Bilder.
  5. Vorrichtung nach Anspruch 1, wobei die Auswahlbedingung zumindest eine der folgenden Bedingungen enthält: eine Fotografierzeit, ein Fotografierdatum, einen Fotografierort, einen Fotografiermodus, einen EV-Wert, eine Verschlussgeschwindigkeit, einen Aperturwert, eine Objektentfernung, die Verwendung/Nicht-Verwendung eines Elektronenblitzes und die Verwendung/Nicht-Verwendung eines optischen Filters.
  6. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Auswahleinrichtung zur Auswahl der Vielzahl der Bilder derart eingerichtet ist, dass sie bei einer Bildsynthese verwendet werden können.
  7. Vorrichtung nach Anspruch 6, wobei die Auswahleinrichtung die Vielzahl der Bilder zum Synthetisieren dieser auf der Grundlage von zu jedem Bild hinzugefügten Informationen auswählt.
  8. Bildverarbeitungsverfahren zur Wiedergabe eines Bildes aus durch eine Bilderfassungseinrichtung erhaltenen Bilddaten, mit den Schritten Auswählen einer Vielzahl von Bildern, die in einem Speicher gespeichert sind, beruhend auf einer durch einen Benutzer bestimmten Auswahlbedingung, und Veranlassen einer Halteeinrichtung zum Halten der ausgewählten Vielzahl der Bilder, Einstellen eines Bildwiedergabeparameters zum Anpassen eines Farbtons oder einer Luminanz durch Analysieren der durch die Halteeinrichtung gehaltenen Vielzahl der Bilder und Erzeugen von Bildsignalen zur Wiedergabe der Vielzahl der Bilder unter Verwendung des im Einstellschritt eingestellten Bildwiedergabeparameters.
DE1996634867 1995-08-01 1996-07-31 Bildverarbeitungsgerät und -verfahren Expired - Lifetime DE69634867T2 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP19667795A JP3943611B2 (ja) 1995-08-01 1995-08-01 画像再生方法及び画像再生装置
JP19667795 1995-08-01
JP20588695 1995-08-11
JP20588695A JPH0955950A (ja) 1995-08-11 1995-08-11 画像再生方法および画像再生装置
JP21455295 1995-08-23
JP21455295A JP4046780B2 (ja) 1995-08-23 1995-08-23 画像処理装置およびその方法

Publications (1)

Publication Number Publication Date
DE69634867T2 true DE69634867T2 (de) 2006-05-18

Family

ID=27327281

Family Applications (2)

Application Number Title Priority Date Filing Date
DE1996634867 Expired - Lifetime DE69634867D1 (de) 1995-08-01 1996-07-31 Bildverarbeitungsgerät und -verfahren
DE1996634867 Expired - Lifetime DE69634867T2 (de) 1995-08-01 1996-07-31 Bildverarbeitungsgerät und -verfahren

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE1996634867 Expired - Lifetime DE69634867D1 (de) 1995-08-01 1996-07-31 Bildverarbeitungsgerät und -verfahren

Country Status (3)

Country Link
US (2) US6160579A (de)
EP (2) EP0757473B1 (de)
DE (2) DE69634867D1 (de)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6633110B2 (en) 1994-03-22 2003-10-14 Tailored Lighting Inc. Underwater lamp
US6160579A (en) * 1995-08-01 2000-12-12 Canon Kabushiki Kaisha Image processing apparatus and method
US6337928B1 (en) 1996-08-26 2002-01-08 Canon Kabushiki Kaisha Image transmission apparatus and method therefor
US6788339B1 (en) * 1997-12-25 2004-09-07 Canon Kabushiki Kaisha Image pickup apparatus
JP3726223B2 (ja) * 1998-03-27 2005-12-14 富士写真フイルム株式会社 画像処理装置
EP1018840A3 (de) * 1998-12-08 2005-12-21 Canon Kabushiki Kaisha Digitales Empfangsgerät und Verfahren
JP2000209580A (ja) * 1999-01-13 2000-07-28 Canon Inc 画像処理装置およびその方法
US7082215B1 (en) * 1999-05-10 2006-07-25 Fuji Photo Film Co., Ltd. Image processing method and apparatus
JP2001128191A (ja) * 1999-08-18 2001-05-11 Fuji Photo Film Co Ltd 画像処理方法および装置並びに記録媒体
JP2002152772A (ja) * 2000-08-28 2002-05-24 Fuji Photo Film Co Ltd ホワイトバランス補正装置及びホワイトバランス補正方法と濃度補正方法並びにこれらの方法を実行するためのプログラムを記録した記録媒体
JP3725454B2 (ja) * 2001-01-17 2005-12-14 セイコーエプソン株式会社 画像ファイルの出力画像調整
US7057768B2 (en) * 2001-07-02 2006-06-06 Corel Corporation Automatic color balance
JP4439767B2 (ja) * 2001-08-09 2010-03-24 キヤノン株式会社 撮像装置およびホワイトバランスの調整方法およびその動作処理プログラム
JP2003102022A (ja) * 2001-09-21 2003-04-04 Canon Inc 撮像装置及び撮像方法
EP1311111A3 (de) * 2001-11-08 2004-12-08 Fuji Photo Film Co., Ltd. Verfahren und Vorrichtung zur Korrektur des Weissabgleichs, Verfahren zur Dichtekorrektur und Programmaufzeichnungsmedium
US7024037B2 (en) * 2002-03-22 2006-04-04 Unilever Home & Personal Care Usa, A Division Of Conopco, Inc. Cross-polarized imaging method for measuring skin ashing
JP4007052B2 (ja) 2002-05-07 2007-11-14 セイコーエプソン株式会社 画像処理制御データ更新装置
US6888553B2 (en) * 2002-05-10 2005-05-03 Samsung Electronics Co., Ltd. Apparatus and method for adjusting color temperature of displayed image using color temperature metadata
CN100546363C (zh) * 2002-07-19 2009-09-30 精工爱普生株式会社 图像数据的画质调整
JP4036060B2 (ja) * 2002-08-29 2008-01-23 株式会社ニコン 電子カメラ及びホワイトバランス制御回路
US7388612B2 (en) * 2002-11-26 2008-06-17 Canon Kabushiki Kaisha Image pickup apparatus and method, recording medium, and program providing user selected hue and white balance settings
JP2004312139A (ja) * 2003-04-03 2004-11-04 Canon Inc 撮像装置
JP4584544B2 (ja) * 2003-04-11 2010-11-24 富士フイルム株式会社 画像再生装置および固体撮像装置
JP4235903B2 (ja) * 2003-09-10 2009-03-11 ソニー株式会社 撮像装置
JP2005109930A (ja) * 2003-09-30 2005-04-21 Fuji Photo Film Co Ltd 画像処理装置、画像処理プログラム、記録媒体、および画像処理方法
JP4533156B2 (ja) * 2004-02-02 2010-09-01 キヤノン株式会社 調整回路及び方法
JP4082383B2 (ja) * 2004-05-20 2008-04-30 ソニー株式会社 撮像装置、画像処理方法および色領域設定プログラム
EP1657936A1 (de) * 2004-11-10 2006-05-17 Sony Ericsson Mobile Communications AB Weissabgleichseinstellungsvorrichtung
US7724981B2 (en) * 2005-07-21 2010-05-25 Ancestry.Com Operations Inc. Adaptive contrast control systems and methods
US7505069B2 (en) * 2005-10-26 2009-03-17 Hewlett-Packard Development Company, L.P. Method and apparatus for maintaining consistent white balance in successive digital images
US20070133867A1 (en) * 2005-12-14 2007-06-14 Samsung Electronics., Ltd. Apparatus and method of adaptively converting image in image display system
JP4914651B2 (ja) * 2006-06-12 2012-04-11 オリンパスイメージング株式会社 電子撮像装置及び電子撮像方法
US20100277610A1 (en) * 2006-11-29 2010-11-04 Nokia Corporation Apparatus, Method And Computer Program Product Providing a Light Source With Memory
JP4591548B2 (ja) * 2008-06-04 2010-12-01 ソニー株式会社 画像符号化装置及び画像符号化方法
JP5259264B2 (ja) * 2008-06-16 2013-08-07 オリンパス株式会社 画像データ処理装置、該プログラム、及び該方法
JP5259291B2 (ja) * 2008-07-30 2013-08-07 オリンパス株式会社 ホワイトバランス補正装置及び信号処理プログラム
JP5600405B2 (ja) 2009-08-17 2014-10-01 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
KR20170012762A (ko) * 2015-07-23 2017-02-03 삼성디스플레이 주식회사 표시 장치 및 이를 이용한 표시 패널의 구동 방법

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2920058C2 (de) * 1979-05-18 1983-09-29 Dr.-Ing. Rudolf Hell Gmbh, 2300 Kiel, De
US4694329A (en) * 1984-04-09 1987-09-15 Corporate Communications Consultants, Inc. Color correction system and method with scene-change detection
JPS6120042A (en) * 1984-07-06 1986-01-28 Dainippon Screen Mfg Co Ltd Method and device for image scan recording
JPS62111570A (en) * 1985-11-09 1987-05-22 Fuji Photo Film Co Ltd Automatic setting method for output signal processing condition in image input/output system
JPH0640198B2 (ja) * 1986-02-17 1994-05-25 富士写真フイルム株式会社 主要画像検出方法及びこれを用いた写真焼付露光量決定方法
JPH0724425B2 (ja) * 1986-09-02 1995-03-15 富士写真フイルム株式会社 画像処理方法及び装置
US4901152A (en) * 1987-08-31 1990-02-13 Canon Kabushiki Kaisha Image pickup apparatus
DE68929194D1 (de) * 1988-01-08 2000-05-18 Fuji Photo Film Co Ltd Gerät zur Farbfilmanalyse
DE68926276D1 (de) * 1988-10-13 1996-05-23 Fuji Photo Film Co Ltd Farbabtaster und automatisches Einstellverfahren
JP2819590B2 (ja) 1989-02-23 1998-10-30 ミノルタ株式会社 印字装置
US5119182A (en) 1989-02-23 1992-06-02 Minolta Camera Kabushiki Kaisha Image forming apparatus comprising sample image printing mode and image forming method therefor
EP0409161B1 (de) * 1989-07-18 2000-10-11 Fuji Photo Film Co., Ltd. Verfahren und Einrichtung zur Steuerung der Belichtungsänderungen einer Videokamera
US5282022A (en) * 1989-11-17 1994-01-25 Sanyo Electric Co., Ltd. White balance adjusting apparatus for automatically adjusting white balance in response to luminance information signal and color information signal obtained from image sensing device
JPH03238992A (en) * 1990-02-15 1991-10-24 Sony Corp Video camera device
US5111289A (en) * 1990-04-27 1992-05-05 Lucas Gary L Vehicular mounted surveillance and recording system
DE69131760D1 (de) * 1990-05-02 1999-12-09 Canon Kk Bildabtastungsvorrichtung
US5295001A (en) * 1990-11-01 1994-03-15 Canon Kabushiki Kaisha Image sensing apparatus having tone control function
US5347371A (en) * 1990-11-29 1994-09-13 Hitachi, Ltd. Video camera with extraction unit for extracting specific portion of video signal
JP2878855B2 (ja) * 1991-02-21 1999-04-05 富士写真フイルム株式会社 画像処理装置
JPH04282973A (en) * 1991-03-12 1992-10-08 Canon Inc Changeover device
US5296945A (en) * 1991-03-13 1994-03-22 Olympus Optical Co., Ltd. Video ID photo printing apparatus and complexion converting apparatus
US5329361A (en) * 1991-09-04 1994-07-12 Fuji Photo Film Co., Ltd. White balance control wherein valves of control signals are fixed or converged within a renewable, variable region
US5463470A (en) * 1991-10-09 1995-10-31 Fuji Photo Film Co., Ltd. Methods of collecting photometric image data and determining light exposure by extracting feature image data from an original image
JPH05183789A (ja) * 1992-01-07 1993-07-23 Canon Inc 電子スチルカメラ
JPH05316334A (ja) 1992-05-11 1993-11-26 Canon Inc ビデオプリンタ
JP3131025B2 (ja) * 1992-06-08 2001-01-31 キヤノン株式会社 ビデオカメラ及びその制御方法
JPH0670923A (ja) * 1992-08-28 1994-03-15 Hitachi Medical Corp 医用画像の特定領域抽出方法
US5426463A (en) * 1993-02-22 1995-06-20 Rca Thomson Licensing Corporation Apparatus for controlling quantizing in a video signal compressor
EP1052847B1 (de) * 1993-07-16 2004-09-15 Sony Corporation Bildeditiersystem
JP3528214B2 (ja) * 1993-10-21 2004-05-17 株式会社日立製作所 画像表示方法及び装置
JP3495768B2 (ja) * 1993-10-29 2004-02-09 キヤノン株式会社 画像合成装置
US5748287A (en) * 1994-12-09 1998-05-05 Konica Corporation Photographic film reproducing apparatus using object brightness and exposure correction amount to develop photographed images
JP3649468B2 (ja) * 1995-05-31 2005-05-18 株式会社日立製作所 撮影機能付き電子アルバムシステム
US6160579A (en) * 1995-08-01 2000-12-12 Canon Kabushiki Kaisha Image processing apparatus and method
US5668596A (en) * 1996-02-29 1997-09-16 Eastman Kodak Company Digital imaging device optimized for color performance
US5874988A (en) * 1996-07-08 1999-02-23 Da Vinci Systems, Inc. System and methods for automated color correction

Also Published As

Publication number Publication date
DE69634867D1 (de) 2005-07-28
EP0757473A2 (de) 1997-02-05
EP1592227B1 (de) 2011-10-05
EP1592227A2 (de) 2005-11-02
EP1592227A3 (de) 2006-02-01
US7098944B1 (en) 2006-08-29
US6160579A (en) 2000-12-12
EP0757473B1 (de) 2005-06-22
EP0757473A3 (de) 1997-12-10

Similar Documents

Publication Publication Date Title
US10412296B2 (en) Camera using preview image to select exposure
US8493473B2 (en) System and method for RAW image processing
US8767103B2 (en) Color filter, image processing apparatus, image processing method, image-capture apparatus, image-capture method, program and recording medium
US7893975B2 (en) System and method for processing images using predetermined tone reproduction curves
US6987586B2 (en) Method of digital processing for digital cinema projection of tone scale and color
US7715050B2 (en) Tonescales for geographically localized digital rendition of people
JP4218723B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
US7190401B2 (en) Image processing apparatus and image processing method
US7057653B1 (en) Apparatus capable of image capturing
US8514293B2 (en) Moving image processing device and method for performing different image processings to moving object region and still object region
US7050098B2 (en) Signal processing apparatus and method, and image sensing apparatus having a plurality of image sensing regions per image frame
US8358355B2 (en) Digital still camera and image correction method
DE102004001890B4 (de) Digitaler automatischer Weißausgleich
US7076119B2 (en) Method, apparatus, and program for image processing
US7656437B2 (en) Image processing apparatus, image processing method, and computer program
US7030913B2 (en) White balance control apparatus and method, and image pickup apparatus
US6614471B1 (en) Luminance correction for color scanning using a measured and derived luminance value
US7945109B2 (en) Image processing based on object information
US6243133B1 (en) Method for automatic scene balance of digital images
US6563945B2 (en) Pictorial digital image processing incorporating image and output device modifications
US7835569B2 (en) System and method for raw image processing using conversion matrix interpolated from predetermined camera characterization matrices
DE60308472T2 (de) Bildverarbeitungsanordnung, elektronische Kamera, und Bildverarbeitungsprogramm
DE19713199C2 (de) Bildeingabevorrichtung
JP4154847B2 (ja) 画像処理装置、画像処理方法および画像処理プログラムを記録したコンピュータ読取可能な記録媒体
US7081918B2 (en) Image processing method, image processing apparatus and recording medium storing program therefor