DE602005004693T2 - Radiometrische kalibrierung von einem einzelnen bild - Google Patents

Radiometrische kalibrierung von einem einzelnen bild Download PDF

Info

Publication number
DE602005004693T2
DE602005004693T2 DE602005004693T DE602005004693T DE602005004693T2 DE 602005004693 T2 DE602005004693 T2 DE 602005004693T2 DE 602005004693 T DE602005004693 T DE 602005004693T DE 602005004693 T DE602005004693 T DE 602005004693T DE 602005004693 T2 DE602005004693 T2 DE 602005004693T2
Authority
DE
Germany
Prior art keywords
color
function
colors
pixel
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE602005004693T
Other languages
English (en)
Other versions
DE602005004693D1 (de
Inventor
Heung-Yeung Redmond Shum
Jinwei Redmond Gu
Stephen S. Redmond Lin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of DE602005004693D1 publication Critical patent/DE602005004693D1/de
Application granted granted Critical
Publication of DE602005004693T2 publication Critical patent/DE602005004693T2/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/603Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Television Image Signal Generators (AREA)
  • Color Image Communication Systems (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

  • GEBIET DER ERFINDUNG
  • Verschiedene Ausführungsformen, die unten beschrieben sind, beziehen sich im Allgemeinen auf Bildverarbeitung, und spezieller gesagt, aber nicht ausschließlich, auf eine radiometrische Kalibrierung von Bildern.
  • HINTERGRUND DER ERFINDUNG
  • In manchen Anwendungen ist es wünschenswert, ein Bildaufnahmegerät (z. B. eine digitale Kamera) zu kalibrieren, so dass die Farben des Bildes (d. h. die gemessenen Farben) den tatsächlichen Farben (d. h. die Strahlung der Szene/Radianz der Szene), die durch das Bildaufnahmegerät (das hier auch einfach als Gerät bezeichnet wird) empfangen werden, genauer entsprechen.
  • 1 (Stand der Technik) zeigt ein Beispiel eines Systems 100, das eine digitale Kamera 102 einschließt, die eine Resonanzfunktion (response function) 104 aufweist. Im Betrieb nimmt die digitale Kamera 102 ein Bild einer Szene 106 (über deren Szeneradianz/Szenestrahlung (scene radiance)) auf, und gibt gemessene Farben aus, die verwendet werden, um ein digitales Bild 108 zu bilden. Die gemessenen Farben des digitalen Bildes 108 beziehen sich durch die Resonanzfunktion 104 auf die Szeneradianz (ebenso als die radiometrische Resonanz (radiometric response) bezeichnet). Im Allgemeinen ist die Resonanzfunktion 104 nicht linear und hängt von der Kamera ab. Des Weiteren kann die Resonanzfunktion unterschiedlich sein, selbst wenn die Kameras vom selben Modell sind.
  • Die Kamera 102 kann dadurch kalibriert werden, dass die „Inverse" der Resonanzfunktion 104 gefunden wird, so dass idealerweise die gemessenen Farben auf Farben abgebildet werden, die der Szeneradianz exakt entsprechen. In einem Ansatztyp nimmt ein Benutzer ein Bild einer „Referenz"-Farbszene auf (d. h. die Szene hat Regionen einer bekannten Farbe), so dass die gemessene Farbausgabe durch die Kamera 102 mit den tatsächlichen Farben verglichen werden kann. Deshalb benötigt dieser Ansatztyp ein Bild der „Referenz". In einem anderen Ansatztyp wird eine Vielzahl von Bildern einer Szene benötigt. In einem bestimmten Ansatz wird die Reihe von Bildern unter verschiedenen, genau bekannten Aufnahmeeinstellungen aufgenommen, wobei alle Bilder registriert werden (d. h. sie werden aufgenommen, wobei die Positionen der Kamera und der Szene unverändert bleiben).
  • Jedoch haben diese konventionellen Lösungen dadurch Mängel, dass in manchen Szenarien weder ein „Referenz"-Bild, das durch die Kamera aufgenommen wurde, noch eine Reihe von registrierten Bildern mit unterschiedlichen Aufnahmeeinstellungen verfügbar sein können. Z. B. kann in manchen Szenarien nur ein Bild verfügbar sein, wobei keine der Kamera- und der Aufnahmeeinstellungen, die zur Aufnahme des Bildes verwendet wurden, bekannt sind.
  • EP 0 562 971 A1 bezieht sich auf ein Verfahren und eine Vorrichtung zur adaptiven Charakterisierung und Kalibrierung von Farbdokumentscannern, Farbanzeigeeinheiten und Farbdruckern, und zum Bereitstellen einer eindeutigen Kalibrierungsumformung für jedes Gerät unter Verwendung eines günstigen achromatischen Sensors, der die Gerätebestandsvarianz (device population variance) dadurch minimiert, dass er ein Verfahren zum Erzeugen einer beschränkten (constrained) kanalunabhängigen Linearisierung, einer Zweck- oder Zielkurvenskalierung, um eine gewünschte Farbbalance zu erreichen, und eine Zweckkurvenskalierung (aim curve scaling) für eine Kanalsättigungskorrektur bereitstellt.
  • EP 1 117 070 A2 bezieht sich auf ein Diagramm und eine Methodik zur Verwendung des Diagramms, um die Farbdarstellung von digitalen Bildern zu verbessern. Des Weiteren weist das Diagramm eine Vielzahl von Farbstellen (color patches) auf, wobei jede Farbstelle Informationen einschließt, die die Zuordnung von digitalisierten Farbdaten von einem Bild erlaubt, das durch verschiedene Mittel aufgenommen wurde, um ein Profil zu konstruieren, das beim Modifizieren der Farbtonskala und Farbe des digitalen Bildes verwendbar ist, wobei die Anzahl der Farbstellen größer als 24 ist und ausgewählt wird, um nicht lineare Charakteristika der Bildaufnahme zu kompensieren.
  • KURZFASSUNG
  • Es ist die Aufgabe der Erfindung, ein verbessertes Verfahren und System zur radiometrischen Kalibrierung von Bildern und der Kalibrierung eines Bildaufnahmegerätes bereitzustellen.
  • Diese Aufgabe wird durch die vorliegende Erfindung, wie in den unabhängigen Ansprüchen beansprucht, gelöst.
  • Bevorzugte Ausführungsformen werden durch die abhängigen Ansprüche definiert.
  • Gemäß einem Aspekt der verschiedenen beschriebenen Ausführungsformen, werden Systeme und Verfahren zur radiometrischen Kalibrierung eines einzelnen Bildes bereitgestellt. In einem Aspekt wird ein System verwendet, um die inverse Resonanzfunktion (inverse response function) einer Kamera von einem einzelnen digitalen Bild einer Szene, in der die tatsächlichen Farben der Szene von vorneherein nicht bekannt sind, zu kalkulieren. Das System analysiert Pixel des Bildes, die einer „Kante" zwischen zwei Farben der Szene entsprechen. Deshalb stellen diese „Kanten"-Pixel eine gemischte Farbe dar, die von diesen zwei „Komponenten"-Farben, wie sie durch die Kamera gemessen wurden, gebildet wird. Es kann gezeigt werden, dass in einem idealen Fall solch eine gemischte Farbe auf einem Linienabschnitt (Liniensegment) liegt, die ihre Komponentenfarben im RGB-Farbraum verbindet. Jedoch verursacht die Resonanzfunktion von typischen echten Kameras, dass eine gemessene gemischte Farbe in Bezug auf ihre gemessenen Komponentenfarben nicht linear ist. Gemäß diesem Aspekt ermittelt das System eine inverse Resonanzfunktion zumindest teilweise dadurch, dass: (A) geeignete Kantenpixel gefunden werden; und (B) eine Funktion ermittelt wird, die die gemessenen, gemischten Farben der Kantenpixel und deren gemessene Komponentenfarben auf lineare Verteilungen abbildet.
  • In einem anderen Aspekt werden Referenzdaten, die vorgegebene inverse Resonanzfunktionen von bekannten Kameras einschließen, beim Ermitteln einer inversen Resonanzfunktion verwendet. In einer Ausführungsform, die diesen Aspekt einschließt, werden Bayes'sche Abschätzungstechniken verwendet, um eine inverse Resonanzfunktion zu finden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Nicht einschränkende und nicht erschöpfende Ausführungsformen werden mit Bezug auf die folgenden Figuren beschrieben.
  • 1 (Stand der Technik) ist ein Blockdiagramm, das eine Kamera darstellt, die ein Bild einer Szene aufnimmt, um ein digitales Bild zu erzeugen.
  • 2 ist ein Blockdiagramm eines Systems, das imstande ist, eine inverse Resonanzfunktion von einem einzelnen Bild gemäß einer Ausführungsform zu ermitteln.
  • 3 ist ein Flussdiagramm, das den Funktionsablauf des Systems aus 1 beim Ermitteln einer inversen Resonanzfunktion von einem einzelnen Bild gemäß einer Ausführungsform veranschaulicht.
  • 4 ist ein Diagramm, das Kantenpixel in einem Bild veranschaulicht, die beim Ermitteln einer inversen Resonanzfunktion von einem einzelnen Bild gemäß einer Ausführungsform verwendet werden.
  • 5 ist ein Diagramm, das die Bildstrahlen (image irradiance) der Pixel, die in 4 gezeigt sind, in einem Rot-Grün-Blau-Farbraum (RGB-Farbraum) veranschaulicht.
  • 6 ist ein Diagramm, das die gemessene Farbe der Pixel, die in 4 gezeigt sind, im RGB-Farbraum veranschaulicht.
  • 7 ist ein Diagramm, das eine gemessene Farbe eines Beispiel-Kantenpixels und die gemessenen Farben seiner Komponentenfarben im RGB-Raum veranschaulicht.
  • 8 ist ein Diagramm, das unter Verwendung einer inversen Resonanzfunktion die resultierende Verteilung nach der Umformung der gemessenen Farben, die in 7 gezeigt sind, veranschaulicht.
  • 9 ist ein Flussdiagramm, das den Funktionsablauf, der in 3 gezeigt ist, detaillierter veranschaulicht, um eine Funktion zu ermitteln, die die gemessenen, gemischten Farben gemäß einer Ausführungsform linearisiert.
  • 10 ist ein Datenablaufdiagramm, das einen Datenablauf beim Ermitteln einer inversen Resonanzfunktion von einem einzelnen Bild gemäß einer Ausführungsform veranschaulicht.
  • 11 ist ein Blockdiagramm, das eine Beispielcomputerumgebung darstellt, die zum Ausüben der oben genannten Ausführungsformen geeignet ist.
  • DETAILLIERTE BESCHREIBUNG
  • Verschiedene Ausführungsformen sind auf ein Verfahren und System zum Berechnen der inversen Resonanzfunktion einer Kamera von einem einzelnen digitalen Bild einer Szene gerichtet, indem die aktuellen Farben der Szene von vorneherein nicht bekannt sind. Diese Ausführungsformen analysieren Pixel des Bildes, die einer „Kante" zwischen zwei Farben der Szene entsprechen. Die „Kantenpixel" haben Werte, die eine gemischte Farbe darstellen, die von diesen zwei „Komponentenfarben", wie sie durch die Kamera gemessen wurden, gebildet wird. Die Resonanzfunktion der Kamera verursacht, dass die gemessene gemischte Farbe in Bezug auf ihre gemessenen Komponentenfarben nicht linear ist. Die Ausführungsformen, die unterhalb beschrieben sind, können eine inverse Resonanzfunktion mindestens teilweise dadurch ermitteln, dass Kantenpixel gefunden werden, und anschließend eine Funktion ermittelt wird, die die gemischten Farben der Kantenpixel und die gemessenen Komponentenfarben auf lineare Verteilungen abbildet. Verschiedene Ausführungsformen werden unterhalb beschrieben.
  • 2 ist ein Blockdiagramm, das ein Kalibrierungssystem 201 darstellt, das imstande ist, eine inverse Resonanzfunktion von einem einzelnen Bild gemäß einer Ausführungsform zu ermitteln. In diesem Beispiel schließt das System 201 einen Kantenpixeldetektor 203, einen Farbanalysierer 205, einen inversen Resonanzabschätzer (Schätzfunktion) 207 und einen Datenspeicher 209, der inverse Resonanzfunktionsdaten einschließt, die von verschiedenen echten Kameras gesammelt wurden, ein. Diese Sammlung an inversen Resonanzdaten wird hier auch als Referenzdaten bezeichnet. In einer Ausführungsform umfassen die inversen Resonanzfunktionsdaten die Datenbank der Resonanzfunktionen (Database of Response Functions – DoRF) wie sie in Grossberg, M. D. und Nayar S. K., „What is the Space of Camera Response Functions", Proc. IEEE Corp. Vision and Pattern Recognition (CVPR'03), Volume II, Juni 2003, Seiten 602 bis 609, beschrieben wird. Die oben beschriebenen Elemente des Kalibrierungssystems 201 können in manchen Ausführungsformen als Softwarekomponenten implementiert werden.
  • In einer Ausführungsform ist der Kantenpixeldetektor 203 so konfiguriert, dass er Kantenpixel in einem digitalen Bild 108 findet, in dem jedes der Pixel eine Region, die eine Farbe aufweist, und eine andere Region, die eine andere Farbe aufweist, zeigt (images). Jedes dieser Pixel stellt eine gemischte Farbe dar, die von zwei Farben erlangt wurde, die als Komponentenfarben der gemischten Farbe dienen.
  • In einer Ausführungsform ist der Farbanalysierer 205 so eingerichtet, dass er Messungen der gemischten und der Komponentenfarben der Pixel gewinnt, die durch den Kantenpixeldetektor 203 gefunden wurden. Ebenso ist in dieser Ausführungsform der inverse Resonan zabschätzer 207 eingerichtet, um eine inverse Resonanzfunktion zu generieren, die die Messungen der gemischten und der Komponentenfarben der gefundenen Pixel in eine lineare Verteilung abbildet. Eine Ausführungsform des Kalibrierungssystems 201 arbeitet, wie unterhalb in Verbindung mit 3 beschrieben, um eine inverse Resonanzfunktion zu ermitteln.
  • 3 stellt einen funktionalen Ablauf des Kalibrierungssystems 201 (2) beim Ermitteln einer inversen Resonanzfunktion von einem einzelnen Bild gemäß einer Ausführungsform dar. Dieser beispielhafte funktionelle Ablauf wird unterhalb in Bezug auf die 2 und 3 beschrieben.
  • In einem Block 302 findet das System 201 Kantenpixel in einem digitalen Bild 108 (1). In dieser Ausführungsform findet der Kantenpixeldetektor 203 Kantenpixel in dem digitalen Bild 108, um einen Beobachtungssatz zu bilden. Wie vorher beschrieben sind Kantenpixel Pixel, die einer „Kante" zwischen zwei Farben der Szene 106 entsprechen. Die Kantenpixel haben Werte, die einer gemischten Farbe entsprechen, die aus diesen zwei „Komponentenfarben", wie sie durch die Kamera gemessen werden, gebildet wird.
  • Beispielhafte Kantenpixel werden in 4 dargestellt, welche einen 3 × 3 großen Pixelausschnitt 400 (Patch) zeigt. Ein Pixel 401 in der oberen linken Ecke des Ausschnitts 400 hat eine einheitliche Farbe, was durch die Schraffur mit „diagonalen Linien" angezeigt wird (hier als die erste Farbe bezeichnet). Zusätzlich haben die zwei Pixel in dem Ausschnitt 400 unterhalb des Pixels 401 dieselbe einheitliche erste Farbe. Im Unterschied dazu hat ein Pixel 403 in der oberen rechten Ecke des Ausschnitts 400 eine unterschiedliche, einheitliche Farbe, was durch ein Muster mit „Punkten" gezeigt wird (hier als die zweite Farbe bezeichnet). Die zwei Pixel unterhalb des Pixels 403 haben ebenso dieselbe einheitliche zweite Farbe. Die Pixel 405, 407 und 409 in der mittleren Spalte des Ausschnitts 400 haben Regionen mit sowohl der ersten als auch der zweiten Farbe und werden deshalb hier als Kantenpixel bezeichnet. Die erste und die zweite Farbe werden hier ebenso als Komponentenfarben des Kantenpixels 405 bezeichnet. Das Kantenpixel 405 gibt eine „gemischte" Farbe aus, die von einer Kombination der ersten und der zweiten Farbe gebildet wird.
  • In einer Ausführungsform schließt der Kantenpixeldetektor 203 einen Canny-Kantendetektor ein (siehe z. B. Canny, J., „A Computational Approach to Egde Detection", IEEE Trans. Pattern Analysis and Machine Intelligence, Volume 8, Nr. 6, Juni 1986, Seiten 679 bis 698), um die Kantenpixel zu erkennen. In anderen Ausführungsformen können unterschiedliche Kantendetektoren verwendet werden.
  • In einem Block 304 wird die gemessene Farbe von jeder Region der Kantenpixel erlangt. In dieser Ausführungsform ist der Farbanalysierer 205 so eingerichtet, dass er die gemessenen, gemischten Farben von jedem Kantenpixel unter Verwendung von nicht-Kantenpixeln erlangt, die dieselben Farben, wie die Komponentenfarben in den Kantenpixeln aufweisen. Z. B. kann der Farbanalysierer 205 für das Kantenpixel 405 die gemessene Farbe des Pixels 401 für die gemessene Farbe der ersten Farbregion des Kantenpixels 405 verwenden. Gleichermaßen kann der Farbanalysierer 205 die gemessene Farbe des Pixels 403 für die gemessene Farbe der zweiten Farbregion des Kantenpixels 405 verwenden.
  • Des Weiteren ermittelt in dieser Ausführungsform der Farbanalysierer 205, ob ein Kantenpixel geeignet ist, um in der Ermittlung einer inversen Resonanzfunktion verwendet zu werden. Z. B. ermittelt in einer Ausführungsform der Farbanalysierer 205, ob: (A) die Farbvarianz (mit Bezug auf die euklidische RGB-Distanz) der ersten und der zweiten Farbe innerhalb eines festgelegten Schwellenwertes liegt (d. h. die erste und die zweite Farbe sind ausreichend einheitlich); und (B) die Durchschnittsfarbe der ersten und der zweiten Farbe haben mindestens eine festgelegte Distanz voneinander (d. h. die erste und die zweite Farbe liegen weit genug auseinander, um den Effekt des Bildrauschens zu reduzieren). Zusätzlich wird in dieser Ausführungsform eine Kantenregion (hier ebenso als Kantenfenster bezeichnet) ignoriert, die Kantenpixel enthält, die eine gemischte Farbe aufweisen, die außerhalb des Bereichs liegt, der durch die erste und die zweite Farbe begrenzt wird. In anderen Ausführungsformen kann der Farbanalysierer 205 unterschiedliche Verfahren zum Erlangen der gemessenen Farben der Komponentenfarben der Kantenpixel verwenden.
  • In einem Block 306 werden die gemessenen Farben der Kantenpixel erlangt. In dieser Ausführungsform ist der Farbanalysierer 205 so eingerichtet, dass die gemessene gemischte Farbe von jedem Kantenpixel erlangt wird. Es kann gezeigt werden, dass im idealen Fall eine gemischte Farbe auf einem Liniensegment liegen wird, das ihre Komponentenfarben in dem RGB-Farbraum verbindet. Ein Beispiel ist in 5 gezeigt, indem die Kantenpixel aus 4 im RGB-Raum eingetragen sind. Ein Punkt 501 repräsentiert die Farbe des Pixels 401 im RGB-Raum und ein Punkt 503 repräsentiert die Farbe des Pixels 403 im RGB-Raum. Diese Farben sind die Komponentenfarben der Kantenpixel in dem Ausschnitt 400 (4). Ein Punkt 505 repräsentiert die Farbe des Kantenpixels 405 im RGB-Farbraum; ein Punkt 507 repräsentiert die Farbe des Kantenpixels 407 im RGB-Farbraum, usw. Wie es in 5 gezeigt ist, liegen die Farben der Kantenpixel 405, 407 und 409 (repräsentiert durch die Punkte 505, 507 bzw. 509) auf einem Liniensegment, das die Farben der Pixel 401 und 403 (repräsentiert durch die Punkte 501 bzw. 503) verbindet.
  • Jedoch ist in derzeit, kommerziell verfügbaren Kameras die gemessene Farbe von einem Kantenpixel in Bezug auf dessen gemessene Komponentenfarben nicht linear. Ein Beispiel ist in 6 gezeigt. Ein Punkt 601 repräsentiert die gemessene Farbe des Pixels 401 (4) im RGB-Raum, und ein Punkt 603 repräsentiert die gemessene Farbe des Pixels 403 (4) im RGB-Raum. Diese gemessenen Farben sind die gemessenen Komponentenfarben der Kantenpixel des Ausschnitts 400 (4). Ein Punkt 605 repräsentiert die gemessenen Farben des Kantenpixels 405 (4) im RGB-Farbraum; ein Punkt 607 repräsentiert die gemessene Farbe des Kantenpixels 407 im RGB-Farbraum, usw. Wie es in 6 gezeigt ist, liegen die Farben der Kantenpixel 405, 407 und 409 (repräsentiert durch die Punkte 605, 607 bzw. 609) auf einem Kurvensegment, das die gemessenen Farben der Pixel 401 und 403 (repräsentiert durch die Punkte 601 bzw. 603) verbindet.
  • In einem Block 308 (wieder mit Bezug auf die 1 und 3) wird eine Funktion ermittelt, die die gemessenen gemischten Farben und deren Komponentenfarben linearisiert (z. B. die gemessenen, nicht linearen Messungsfarben auf eine lineare Verteilung im RGB-Farbraum abbildet). In einer Ausführungsform ermittelt der Farbanalysierer 205 eine Funktion g, die die gemessenen, gemischten und gemessenen Komponentenfarben linearisiert. Des Weiteren kann in einer Ausführungsform der Farbanalysierer 205 so konfiguriert sein, dass er den Bereich (domain) und den Co-Bereich (co-domain) der Linearisierungsfunktion g normalisiert, so dass g(0) = 0 und g (1) = 1 gilt, um Skalierungsunterschiede zu berücksichtigen.
  • Des Weiteren verwendet in dieser Ausführungsform der Invers-Resonanzgenerator 207 anschließend die Linearisierungsfunktion g und Referenzdaten aus dem Datenspeicher 209, um eine inverse Resonanzfunktion 211 zu generieren. In einer Ausführungsform werden die Referenzdaten verwendet, um die Linearisierungsfunktion g über Intervalle von unvollständigen Farbdaten zu interpolieren und zu extrapolieren. In einer alternativen Ausführungsform kann die Linearisierungsfunktion g als die inverse Resonanzfunktion der Kamera verwendet werden, so dass der Invers-Resonanzgenerator 207 und der Datenspeicher 209 nicht implementiert werden müssen. Eine Ausführungsform des funktionalen Ablaufs zum Ermitteln der inversen Resonanzfunktion wird unterhalb in Verbindung mit 9 beschrie ben. Auf diese Weise kann das Kalibrierungssystem 201 vorteilhafterweise eine inverse Resonanzfunktion aus einem einzelnen Bild beschaffen. Des Weiteren müssen die tatsächlichen Szenefarben nicht vorher bekannt sein. Deshalb erfordert das Kalibrierungssystem 201 weder von der Kamera, eine inverse Resonanzfunktion zu finden, noch mehrere Bilder, die durch die Kamera aufgenommen werden, noch irgendein anderes Wissen der Aufnahmeeinstellungen, die verwendet wurden, um das Bild aufzunehmen.
  • Obwohl der obige funktionale Ablauf sequenziell in Verbindung mit 3 beschrieben wurde, können in anderen Ausführungsformen Funktionen in unterschiedlicher Reihenfolge und/oder parallel zueinander ausgeführt werden.
  • Ein vereinfachtes Beispiel der Linearisierung der gemessenen Kantenpixelfarben ist grafisch in den 7 und 8 dargestellt. In 7 repräsentiert ein Punkt 701 die gemessene Farbe von einer Komponentenfarbe von einem Kantenpixel im RGB-Raum (ebenso als M1 bezeichnet). Ein Punkt 703 repräsentiert die gemessene Farbe der anderen Komponentenfarbe (ebenso bezeichnet als M2) des Kantenpixels im RGB-Raum. Ein Punkt 705 repräsentiert die gemessene, gemischte Farbe des Kantenpixels (ebenso bezeichnet als Mp). Wie es in 7 gesehen werden kann, verbindet eine Kurve die Punkte 701, 703 und 705 aufgrund der nicht linearen Resonanzfunktion der Kamera, die verwendet wurde, um die Szene aufzunehmen. Die Kurven 706, 708 und 710 repräsentieren die Verteilung der gemischten Farben von anderen Kantenpixeln, die unterschiedliche Komponentenfarben aufweisen, als jene von der gemessenen gemischten Farbe (Mp), die durch den Punkt 705 repräsentiert wird. In einem typischen Bild würden vielmehr solcher Kurven auftreten, aber es werden nur diese wenigen in 7 gezeigt, um eine Überladung der Figur zu vermeiden.
  • Wie oberhalb beschrieben ermittelt der Farbanalysierer 205 anschließend eine Funktion, die die gemessenen gemischten Farben und die gemessenen Komponentenfarben linearisiert. Idealerweise bildet die Funktion die gemischten Farben zugehörig zu jedem Kantenpixel (d. h. die gemessenen Komponentenfarben und die gemessene, gemischte Farbe) auf ein Liniensegment ab.
  • Ein Beispiel ist in 8 gezeigt, wobei die Linearisierungsfunktion als Funktion g bezeichnet wird. Ein Punkt 801 repräsentiert die Farbe des Punktes 701 (7) im RGB-Farbraum nach der Transformation durch die Linearisierungsfunktion g. Mit anderen Worten ausgedrückt, repräsentiert der Punkt 801 die Farbe der gemessenen Komponentenfarbe (d. h. M1) im RGB-Farbraum nach Anwendung der Linearisierungsfunktion g; d. h. g(M1). Genauso repräsentiert ein Punkt 803 die Farbe von der anderen gemessenen Komponentenfarbe (d. h. M2) im RGB-Farbraum nach Anwendung der Linearisierungsfunktion g; d. h. g(M2). Ein Punkt 505 repräsentiert die Farbe der gemessenen, gemischten Farbe (Mp) im RGB-Farbraum nach der Transformation durch die Linearisierungsfunktion g; d. h. g(Mp). Wie in 8 gezeigt liegen die transformierten gemessenen Farben M1, Mp und M2 (repräsentiert durch die Punkte 801, 803 bzw. 805) auf einem Liniensegment. Ebenso werden die Kurven 706, 708 und 710 aus 7 idealerweise durch die Linearisierungsfunktion g in die Liniensegmente 806, 808 bzw. 810 transformiert.
  • 9 ist ein Ablaufdiagramm des funktionalen Ablaufes aus Block 308 (3) zum Ermitteln einer Funktion, die die gemessenen, gemischten Farben gemäß einer Ausführungsform linearisiert. In anderen Ausführungsformen können unterschiedliche Ansätze verwendet werden, um eine Linearisierungsfunktion zu ermitteln. Mit Bezug auf die 2 und 3 schließt eine Ausführungsform des Blocks 308 einen funktionalen Ablauf wie folgt ein.
  • In einem Block 902 wird eine Wahrscheinlichkeitsfunktion unter Verwendung der gemessenen, gemischten Farben und deren entsprechender gemessener Komponentenfarben erlangt. In dieser Ausführungsform erlangt der Farbanalysierer 205 diese Funktion. Spezieller gesagt, erlangt in dieser Ausführungsform der Farbanalysierer 205 die Wahrscheinlichkeitsfunktion basierend auf der Distanz von jeder gemischten Farbe (Mp), die auf ein Liniensegment abgebildet wurde, das ihre entsprechenden abgebildeten Komponentenfarben (M1 und M2) verbindet. Die Werte Mp, M1 und M2 eines Kantenpixels werden hier ebenso als Kantenpixeltriple bezeichnet. Die Distanz einer abgebildeten gemischten Farbe, d(Mp), zu einem Liniensegment, das die abgebildeten Komponentenfarben der gemischten Farbe verbindet, kann von einem Kantenpixeltriple unter Verwendung der unten gezeigten Gleichung 1 ermittelt werden.
    Figure 00100001
  • Wobei × die Vektorproduktfunktion zwischen zwei Vektoren ist.
  • Die Summe der Distanzen von jeder abgebildeten gemischten Farbe, D(g; Ω), kann unter Verwendung der unten genannten Gleichung 2 ermittelt werden.
    Figure 00110001
  • Wobei Ω eine Reihe von Kantenpixeltriplen ist, die den Kantenpixeln entsprechen, die vorher in Block 302 (3) gefunden wurden. In manchen alternativen Ausführungsformen kann Gleichung 2 minimiert werden, um eine inverse Resonanzfunktion ohne Verwendung von Referenzdaten zu ermitteln. Z. B. kann Gleichung 2 unter Verwendung von Grenzen (constraints) minimiert werden, so dass die resultierende Gleichung sowohl gleichmäßig als auch monotonisch ist. Jedoch werden in dieser Ausführungsform Referenzdaten verwendet, um eine inverse Resonanzfunktion unter Verwendung von Bayes'schen Abschätzungstechniken zu ermitteln.
  • Bayes'sche Abschätzungstechniken können ein vorheriges Modell und eine Wahrscheinlichkeitsfunktion verwenden, um eine spätere Verteilung zu ermitteln. Weil die Summe der Distanzen zu minimieren ist, wird in dieser Ausführungsform die Wahrscheinlichkeitsfunktion durch das Modellieren der Wahrscheinlichkeit eines Kantenpixeltriples Ω bei gegebener inverser Resonanzfunktion g (d. h., p(Ω/g)) als eine exponentielle Verteilung unter Verwendung der Gleichung 2 gebildet. Deshalb kann diese Wahrscheinlichkeitsfunktion durch die Verwendung der Gleichung 3 unten definiert werden.
    Figure 00110002
  • Wobei Z eine Normalisierungskonstante ist und λ empirisch auf 104 gesetzt ist. In anderen Ausführungsformen können unterschiedliche Werte für λ verwendet werden.
  • In einem Block 904 wird ein vorheriges Modell unter Verwendung der Referenzdaten aus dem Datenspeicher 209 erlangt. In dieser Ausführungsform erlangt der inverse Resonanzgenerator 207 ein vorheriges Modell durch das Ausführen der Principal Component Analysis Transformation (PCA-Transformation) auf die zuvor genannte DoRF (d. h. die Referenzdaten) unter Verwendung von 5 Komponenten (siehe z. B. Jollife, I. T. „Principal Component Analysis", Springerverlag, 1986). In einer Ausführungsform repräsentiert der Invers-Resonanzgenerator die Referenzdaten in Form der ersten 5 Hauptkomponenten (principal components) wie es unterhalb in Gleichung 4 gezeigt ist. g = g0 + cH (4)
  • Wobei g0 = [gR0, gG0, gB0]T gilt, welches die mittlere inverse Resonanz ist; H ist die Matrix, deren Spalten aus den ersten N = 5 Eigenvektoren zusammengestellt wurden; und c = [cR, cG, cB]T gilt, welches ein Koeffizienzvektor in R3×N ist, der eine inverse Resonanzfunktion g = [gR, gG, gB]T repräsentiert.
  • Der Invers-Resonanzgenerator 207 erlangt anschließend in dieser Ausführungsform das Modell durch die inverse Resonanzfunktion durch das Bilden eines endlichen Gauß'schen Mischmodells (siehe z. B. McLachlan, G. J. und Gasford, K. E. „Mixture Models", Marcel Dekker, 1988) aus den Referenzdaten in PCA-Form, wie in Gleichung 5 gezeigt.
    Figure 00120001
  • Wobei der Parameter αi die Mischungsanteile und η(g; μi, Σi) die normalisierten Gaußwerte von g (Gleichung 8) sind. K ist in einer Ausführungsform gleich 5 gesetzt, welches empirisch unter Verwendung des Erwartungsmaximumsalgorithmus (expectation maximum (EM) algorithm) erlangt wurde (siehe z. B. Dempster, A. P., Laird, N. M. und Rubin D. B. (1977), „Maximum Likelihood from Incomplete Data via the EM algorithm (with discussion)", JRSS (B), Volume 39, Seiten 1 bis 38).
  • In anderen Ausführungsformen kann das Modell aus Gleichung 4 unter Verwendung geeigneter, speziell angefertigter oder kommerziell verfügbarer PCA- und EM-Algorithmuswerkzeuge vorher berechnet werden und in dem Datenspeicher 209 abgespeichert werden. In anderen Ausführungsformen können unterschiedliche Techniken verwendet werden, um das Vormodell zu erlangen.
  • In einem Block 906 wird eine inverse Resonanzfunktion unter Verwendung der oben genannten Wahrscheinlichkeitsfunktion und des Vormodells erlangt. In dieser Ausführungsform erlangt der Invers-Resonanzgenerator 207 die inverse Resonanzfunktion. Die optimale inverse Resonanzfunktion g* wird durch das Finden der maximalen Wahrscheinlichkeit der späteren Verteilung erlangt. Die spätere Verteilung wird in der Bayes'schen Abschätzung als das Produkt des vorherigen Modells und der Wahrscheinlichkeitsfunktion definiert. Deshalb kann die optimale inverse Resonanzfunktion g* unter Verwendung der Gleichung 6, wie unterhalb gezeigt, gefunden werden, welches die maximale spätere Lösung ist (maximum a posteriori (MAP) solution). g* = arg max p(Ω|9)p(g) (6)wobei p(Ω|g) und p(g) aus den Gleichungen 3 bzw. 5 gegeben sind.
  • Durch das Anwenden des Logarithmus auf Gleichung 6 kann g* ebenso als Gleichung 7 unten geschrieben werden. g* = arg min λD(g; Ω) – logp(g) (7)welche in dieser Ausführungsform durch den Levenberg-Marquardt-Optimierungsalgorithmus berechnet wird (siehe z. B. Press, W. H., Teukolsky, S. A., Vetterling, B. T., Flannery, B. P. „Numerical Recipes in C", Camebrigde University Press, 1992), wobei die Koeffizienten von g anfänglich 0 sind. In anderen Ausführungsformen können unterschiedliche Optimierungsalgorithmen verwendet werden, um g* zu finden. Nachdem der Optimierungsalgorithmus konvergiert, wird in einer Ausführungsform das Ergebnis sequenziell in jeder Dimension unter Verwendung einer gierigen lokalen Suche (greedy local search) verfeinert (siehe z. B., Resende, M. G. C. und Ribeiro, C. C., „Greedy randomized adaptive search procedures", in dem Handbuch Metaheuristics „F. Glover und G. Kochenberger, eds, Kluwer Academic Publishers, Seiten 219 bis 249, 2003).
  • Obwohl der oben beschriebene funktionale Ablauf sequenziell in Verbindung mit 9 beschrieben wurde, können in anderen Ausführungsformen Funktionen in unterschiedlicher Reihenfolge und/oder parallel zueinander durchgeführt werden.
  • 10 ist ein Datenablaufdiagramm, das einen Datenfluss 1000 in dem Kalibrierungssystem 201 (2) gemäß einer Ausführungsform darstellt. Bilddaten, die von einer Kamera empfangen wurden, fließen durch und werden verarbeitet, so dass Farben des Bildes gemäß einer Ausführungsform, wie folgt, angepasst werden können. Digitale Bilddaten 1003 werden durch einen Kantenpixelextraktionsprozess 1005 empfangen. In einer Ausführungsform wendet z. B. der Kantendetektor 203 des Kalibrierungssystems 201 (2) den Kantenpixelextraktionsprozess 1005 auf die digitalen Bilddaten 1003 an, wie oben in Verbindung mit Block 302 (3) beschrieben. Der Kantenpixelextraktionsprozess 1005 gibt Kantenpixeldaten 1007 aus, welche Kantenpixel identifizieren, die zur weiteren Verarbeitung geeignet sind (z. B. die Kantenpixel, deren Kantenfenster eine ausreichende Gleichmäßigkeit und Trennung von Komponentenfarben aufweisen).
  • Ein gemischter Farbextraktionsprozess 1009 wird auf Kantenpixeldaten 1007 durchgeführt. In einer Ausführungsform führt z. B. der Farbanalysierer 205 (2) den Farbextraktionsprozess 1009 auf die Kantenpixeldaten 1007 durch, um die gemischten Farben wie oberhalb in Verbindung mit den Blöcken 304 und 306 (3) beschrieben zu erlangen. Der gemischte Farbenextraktionsprozess 1009 gibt gemischte Farbdaten 1011 aus. In einer Ausführungsform umfassen die Kantenpixeldaten 1007 den zuvor erwähnten Satz Ω der Kantenpixeltriple.
  • Ein inverser Resonanzerzeugungsprozess 1013 wird anschließend auf die gemischten Farbdaten 1011 angewandt. In einer Ausführungsform führt z. B. der Invers-Resonanzgenerator 207 (2) den Invers-Resonanzgenerationsprozess 1013 unter Verwendung der Referenzdaten 1015 durch. In manchen alternativen Ausführungsformen braucht der Invers-Resonanzgenerator 207 keine Referenzdaten 1015 verwenden. Die Referenzdaten 1015 umfassen inverse Resonanzdaten von echten Kameras und werden in einer beispielhaften Implementierung aus dem Datenspeicher 209 (2) abgerufen. Der Invers-Resonanzgenerationsprozess 1013 wird in einer Ausführungsform, wie oberhalb in Verbindung mit Block 308 beschrieben, durchgeführt, und gibt eine geschätzte inverse Resonanz 1017 aus. In einer Ausführungsform verwendet der Invers-Resonanzgenerationsprozess 1013 Bayes'sche Abschätzungstechniken, wie in Verbindung mit den Blöcken 902, 904 und 906 (9) beschrieben, um abgeschätzte inverse Resonanzen 1017 zu ermitteln. Die abgeschätzte inverse Resonanz 1017 kann anschließend verwendet werden, um digitale Bilddaten 1003 zu transformieren, um ein Bild zu produzieren, das Farben aufweist, die besser mit der Strahlung (Radianz) der aufgenommenen Szene übereinstimmen.
  • Obwohl der oben beschriebene Datenfluss sequenziell in Verbindung mit 10 beschrieben wurde, können die Prozesse in anderen Ausführungsformen in unterschiedlicher Reihenfolge und/oder parallel zueinander auf die Daten angewandt werden. Des Weiteren können die Prozesse aus 10 durch irgendein geeignetes System oder Kombinationen zusätzlich zu dem System 201 (2) wie in der obigen Beschreibung durchgeführt werden.
  • Verschiedene Ausführungsformen, die oberhalb beschrieben wurden, können in Computerumgebungen des Kalibrierungssystems (z. B. System 201 aus 2) implementiert werden. Eine beispielhafte Computerumgebung, die für die Verwendung in einem Kalibrierungssystem geeignet ist, ist unterhalb in Verbindung mit 11 beschrieben.
  • 11 stellt eine allgemeine Computerumgebung 1100 dar, welche verwendet werden kann, um die Techniken und/oder Komponenten, die hier beschrieben wurden, zu implementieren. Die Computerumgebung 1100 ist nur ein Beispiel einer Computerumgebung, und ist nicht gedacht, irgendeine Einschränkung auf den Umfang der Verwendung oder Funktionalität des Computers und der Netzwerkarchitekturen vorzuschlagen. Noch sollte die Computerumgebung 1100 so interpretiert werden, als hätte sie irgendwelche Abhängigkeiten oder Erfordernisse in Bezug auf irgendeine oder Kombinationen von Komponenten, die in der exemplarischen Computerumgebung 1100 dargestellt sind. Die Computerumgebung 1100 schließt ein Allzweckcomputergerät in der Form eines Computers 1102 ein. Die Komponenten des Computers 1102 können einschließen, sind aber nicht darauf beschränkt, einen oder mehrere Prozessoren oder Prozessoreinheiten 1104, einen Systemspeicher 1106 und einen Systembus 1108, der verschiedene Systemkomponenten einschließlich des Prozessors 1104 mit dem Systemspeicher 1106 koppelt.
  • Der Systembus 1108 stellt einen oder mehrere von irgendwelchen unterschiedlichen Busstrukturtypen dar, einschließlich eines Speicherbusses oder Speichercontrollers, eines Peripheriebusses, eines beschleunigten Grafikports und eines Prozessor- oder lokalen Busses, der irgendeine einer Vielfalt von Busarchitekturen verwendet. Als Beispiel können solche Architekturen einen Industry-Standard-Architecture-Bus (ISA-BUS) einen Micro-Channel-Architecture-Bus (MCA-BUS) einen Enhanced-ISA-Bus (EISA-BUS), einen Video-Electronics-Standards-Association-Local-Bus (VESA-local-BUS), einen Peripheral-Component-Interconnect-Bus (PCI-BUS), ebenso bekannt als Mezzanine-BUS, einen PCI-Express-Bus, einen Universal-Serial-Bus (USB), einen Secure-Digital-Bus (SD-BUS) oder einen IEEE-1394-Bus (d. h. Fire-Wire-BUS) einschließen.
  • Der Computer 1102 kann eine Vielzahl von computerlesbaren Datenträgern einschließen. Solche Datenträger können irgendwelche verfügbaren Datenträger sein, auf die durch den Computer 1102 zugegriffen werden kann, und die sowohl flüchtige als auch nicht-flüchtige Datenträger, entfernbare und nicht-entfernbare Datenträger einschließen. Der Systemspeicher 1106 schließt computerlesbare Datenträger in der Form von flüchtigem Speicher, wie z. B. Random Access Memory (RAM – Arbeitsspeicher) 1110; und/oder nicht-flüchtigem Speicher, wie z. B. Read Only Memory (ROM – nur Lesespeicher) 1112 oder Flash-RAM ein. Ein Basic-Input/Output-System (BIOS) 1114, das die Basisroutinen enthält, die helfen, Informationen zwischen Elementen des Computers 1102 z. B. während des Hochfahrens zu übertragen, ist in dem ROM 1112 oder dem Flash-RAM gespeichert. Der RAM 1110 enthält üblicherweise Daten und/oder Programmmodule, auf die durch die Prozessoreinheit 1104 sofort zugegriffen werden kann, und/oder auf denen derzeit durch die Prozessoreinheit 1104 gearbeitet wird.
  • Der Computer 1102 kann ebenso andere enffembare/nicht-entfernbare, flüchtige/nicht-flüchtige Computerdatenspeicherträger einschließen. Als Beispiel stellt die 11 ein Festplattenlaufwerk 1116 zum Lesen von und schreiben zu eines nicht-enternbaren, nichtflüchtigen magnetischen Datenträgers (nicht gezeigt), ein magnetisches Disklaufwerk 1118 zum Lesen von und Schreiben zu einer entfernbaren, nicht-flüchtigen magnetischen Disk 1120 (z. B. eine „Floppy-Disk") und ein optisches Disklaufwerk 1122 zum Lesen von und/oder Schreiben zu einer entfernbaren, nicht-flüchtigen optischen Disk 1124, wie z. B. einer CD-ROM, DVD-ROM oder anderen optischen Datenträgern, dar. Das Festplattenlaufwerk 1116, magnetische Disklaufwerk 1118 und optische Disklaufwerk 1122 sind jeweils mit dem Systembus 1108 durch eine oder mehrere Datenträgerschnittstellen 1125 verbunden. Alternativ dazu können das Festplattenlaufwerk 1116, magnetische Disklaufwerk 1118 und optische Disklaufwerk 1122 über eine oder mehrere Schnittstellen (nicht gezeigt) mit dem Systembus 1108 verbunden sein.
  • Die Disklaufwerke und ihre zugehörigen computerlesbaren Datenträger stellen nichtflüchtigen Speicher für computerlesbare Instruktionen, Datenstrukturen, Programmmodule und andere Daten für den Computer 1102 bereit. Obwohl das Beispiel eine Festplatte 1116, eine entfernbare magnetische Disk 1120 und eine entfernbare optische Disk 1124 darstellt, wird es begrüßt, dass andere Typen von computerlesbaren Datenträgern, welche Daten speichern können, auf die durch einen Computer zugegriffen werden kann, wie z. B. magnetische Kassetten oder andere magnetische Speichergeräte, Flash-Memory-Karten, CD-ROM, Digital Versstile Discs (DVD) oder andere optische Speicher, Random Access Memories (RAM), Read Only Memories (ROM), elektrische, löschbare, programmierbare Nur-Lesespeicher (electrically erasable programmable read only memory – EEPROM) und ähnliche, ebenso verwendet werden können, um das beispielhafte Computersystem und die Umgebung zu implementieren.
  • Irgendeine Anzahl von Programmmodulen kann auf der Festplatte 1116, der magnetischen Disk 1120, der optischen Disk 1124, ROM 1112 und/oder RAM 1110 gespeichert werden, zum Beispiel einschließlich des Betriebssystems 1126, eines oder mehrerer Anwendungs programme 1128, anderer Programmmodule 1130 und Programmdaten 1132. Jedes solcher Betriebssysteme 1126, eines oder mehrerer Anwendungsprogramme 1128, anderer Programmmodule 1130 und Programmdaten 1132 (oder irgendeine Kombination davon) kann alle oder einen Teil der lokal liegenden (resident) Komponenten, die das verteilte Dateisystem unterstützen, implementieren.
  • Ein Benutzer kann Befehle und Informationen in den Computer 1102 über Eingabegeräte, wie z. B. eine Tastatur 1134 und ein Zeigergerät 1136 (z. B. eine „Maus"), eingeben. Andere Eingabegeräte 1138 (nicht speziell gezeigt) können z. B. ein Mikrophon, einen Joystick, ein Gamepad, eine Satellitenschüssel, einen seriellen Anschluss, eine Scanner und/oder ähnliches einschließen. Diese und andere Eingabegeräte werden mit der Prozessoreinheit 1104 über Eingabe-/Ausgabeschnittstellen 1140 verbunden, die mit dem Systembus 1108 gekoppelt sind, können aber durch andere Schnittstellen und Busstrukturen, wie z. B. einem Parallelanschluss, einem Gameport oder einem Universal Serial Bus (USB) verbunden werden.
  • Ein Monitor 1142 oder anderer Typ von Anzeigegerät kann ebenso mit dem Systembus 1108 über eine Schnittstelle verbunden sein, wie z. B. einem Videoadapter 1144. Zusätzlich zu dem Monitor 1142 können andere Ausgabeperipheriegeräte Komponenten wie z. B. Lautsprecher (nicht gezeigt) und Drucker 1146 einschließen, welche über I/O-Schnittstellen 1140 mit dem Computer 1102 verbunden sein können.
  • Der Computer 1102 kann in einer Netzwerkumgebung unter Verwendung logischer Verbindungen zu einem oder mehreren Remote-Computern arbeiten, wie z. B. dem Remote-Computergerät 1148. Als Beispiel kann der Remote-Computer 1148 ein PC, portabler Computer, ein Server, ein Router, ein Netzwerkcomputer, ein Peer-Gerät oder anderer bekannter Netzwerkknoten oder ähnliches sein. Das Remote-Computergerät 1148 wird als ein portabler Computer dargestellt, der viele oder alle der Elemente und Merkmale, die oben mit Bezug auf Computer 1102 beschrieben sind, einschließen. Alternativ kann der Computer 1102 ebenso in einer Nicht-Netzwerkumgebung arbeiten.
  • Logische Verbindungen zwischen dem Computer 1102 und dem Remote-Computer 1148 sind als ein Local Area Network (LAN) 1150 und ein allgemeines Wide Area Network (WAN) 1152 gezeigt. Solche Netzwerkumgebungen sind alltäglich in Büros, unternehmensweiten Computernetzwerken, Intranets und dem Internet.
  • Wenn er in einer LAN-Netzwerkumgebung implementiert ist, ist der Computer 1102 mit dem lokalen Netzwerk 1150 über eine Netzwerkschnittstelle oder -adapter 1154 verbunden. Wenn er in einer WAN-Netzwerkumgebung implementier ist, schließt der Computer 1102 üblicherweise ein Modem 1156 oder andere Mittel zum Herstellen von Datenübertragungsverbindungen über das breitbandige (wide) Netzwerk 1152 ein. Das Modem 1156, welches intern oder extern zu dem Computer 1102 sein kann, kann mit dem Systembus 1108 über I/O-Schnittstellen 1140 oder andere geeignete Mechanismen verbunden sein. Es gilt als verstanden, dass die dargestellten Netzwerkverbindungen Beispiele sind, und das andere Mittel zum Herstellen mindestens einer Datenübertragungsverbindung zwischen den Computern 1102 und 1148 eingesetzt werden können.
  • In einer Netzwerkumgebung, wie z. B. die, die in Verbindung mit Computerumgebung 1100 dargestellt ist, können Programmmodule, die mit Bezug auf Computer 1102 gezeigt sind, oder Teile davon, in einem entfernten (remote) Datenspeichergerät gespeichert sein. Als Beispiel liegen die Remote-Anwendungsprogramme 1158 auf einem Speichergerät des Remote-Computers 1148. Zum Zweck der Darstellung sind die Anwendungen oder Programme und anderen ausführbaren Programmkomponenten, wie z. B. das Betriebssystem, hier als getrennte Blöcke dargestellt, obwohl es anerkannt werden kann, dass solche Programme und Komponenten zu verschiedenen Zeiten in verschiedenen Speicherkomponenten des Computergerätes 1102 liegen können und durch mindestens einen Datenprozessor des Computers verarbeitet werden können.
  • Verschiedene Module und Techniken können hier im allgemeinen Kontext von computerausführbaren Instruktionen beschrieben werden, wie z. B. Programmmodulen, die durch einen oder mehrere Computer oder andere Geräte ausgeführt werden. Im Allgemeinen schließen Programmmodule Routinen, Programme, Objekte, Komponenten, Datenstrukturen etc. zum Ausführen bestimmter Aufgaben oder Implementieren bestimmter abstrakter Datentypen ein. Diese Programmmodule und ähnliches können als alternativer Code ausgeführt werden, oder können heruntergeladen und ausgeführt werden, wie z. B. in einer virtuellen Maschine oder anderen Just-in-time-Kompilierungsausführungsumgebung. Üblicherweise kann die Funktionalität der Programmmodule kombiniert oder verteilt sein, wie es in verschiedenen Ausführungsformen gewünscht ist.
  • Eine Implementierung dieser Module und Techniken kann auf irgendeiner Form von computerlesbarem Datenträger gespeichert werden oder damit übermittelt werden. Computerles bare Datenträger können irgendwelche verfügbaren Datenträger sein, auf die durch einen Computer zugegriffen werden kann. Z. B. und nicht als Einschränkung gedacht, können computerlesbare Datenträger „Computerspeicherdatenträger" und „Datenübertragungsdatenträger" umfassen.
  • „Computerspeicherdatenträger" schließen flüchtige und nicht-flüchtige, entfernbare und nicht-entfernbare Datenträger ein, die durch irgendein Verfahren oder eine Technologie zum Speichern von Informationen implementiert sind, wie z. B. Computer-lesbare Instruktionen, Datenstrukturen, Programmmodule oder andere Daten. Computerspeicherdatenträger schließen ein, sind aber nicht darauf begrenzt: RAM, ROM, EEPROM, Flash Memory oder andere Speichertechnologie, CD-ROM, Digital Versstile Discs (DVD) oder andere optische Speicher, magnetische Kassetten, magnetische Bänder, magnetische Diskspeicher oder andere magnetische Speichergeräte oder irgendein anderer Datenträger, der verwendet werden kann, um die gewünschten Informationen zu speichern, und auf den durch einen Computer zugegriffen werden kann.
  • „Datenübertragungsdatenträger" verkörpern üblicherweise Computer-lesbare Instruktionen, Datenstrukturen, Programmmodule oder andere Daten in einem modulierten Datensignal, wie z. B. einer Trägerwelle oder anderem Transportmechanismus. Datenübertragungsdatenträger schließen ebenso irgendwelche Informationslieferdatenträger ein. Der Begriff „moduliertes Datensignal" bedeutet ein Signal, das eine oder mehrere seiner Charakteristiken in solch einer Weise gesetzt oder verändert hat, dass es Informationen in dem Signal codiert. Als ein nicht einschränkendes Beispiel schließen Datenübertragungsdatenträger verkabelte Datenträger, wie z. B. ein verkabeltes Netzwerk oder direkt verkabelte Verbindungen, und kabellose Datenträger, wie z. B. akustische, RF-, Infrarot-, und andere kabellose Datenträger, ein. Kombinationen von irgendwelchen oben genannten sind ebenso im Umfang von den Computer-lesbaren Datenträgern eingeschlossen.
  • Durch die gesamte Beschreibung hindurch wurde auf „eine Ausführungsform", „Ausführungsform" oder „eine exemplarische Ausführungsform" Bezug genommen, was bedeutet, dass ein bestimmtes beschriebenes Merkmal, Struktur oder Charakteristik in mindestens einer Ausführungsform der vorliegenden Erfindung eingeschlossen ist. Deshalb kann die Verwendung solcher Begriffe auf mehr als eine Ausführungsform verweisen. Des Weiteren können die beschriebenen Merkmale, Strukturen oder Charakteristiken in irgendeiner geeigneten Weise in einer oder mehreren Ausführungsformen kombiniert werden.
  • Eine Person, die in der entsprechenden Fachwelt ausgebildet ist, wird anerkennen, dass die Erfindung jedoch ohne eines oder mehrere der bestimmten Details, oder mit anderen Verfahren, Ressourcen, Materialien, etc. durchgeführt werden kann. In anderen Fällen sind gut bekannte Strukturen, Ressourcen oder Funktionen nicht gezeigt oder detailliert beschrieben worden, um lediglich zu verhindern, dass Aspekte der Erfindung unklar werden.
  • Während beispielhafte Ausführungsformen und Anwendungen dargestellt wurden und beschrieben worden sind, gilt es als verstanden, dass die Erfindung nicht auf die exakte Konfiguration und Ressourcen, die oberhalb beschrieben wurden, beschränkt ist. Verschiedene Modifikationen, Veränderungen und Variationen, die jenen, die in der Fachwelt ausgebildet sind, bekannt sind, können in der Anordnung, Funktion und den Details des Verfahrens und Systems der vorliegenden Erfindung, die hier offenbart wurde, gemacht werden, ohne von dem Umfang der beanspruchten Erfindung abzuweichen.

Claims (30)

  1. Verfahren zum Ermitteln einer inversen Resonanzfunktion (inverse response function) einer Kamera, wobei das Verfahren umfasst: Finden (302) eines ersten Pixels (405) in einem Ausgabebild der Kamera, in dem das erste Pixel eine erste Region, die eine erste Farbe aufweist, und eine zweite Region, die eine zweite Farbe aufweist, abbildet, wobei das erste Pixel eine vermischte Farbe darstellt, die sich von der ersten und der zweiten Farbe ableitet, und wobei die erste und die zweite Farbe als Komponentenfarben der vermischten Farbe dienen; Erlangen (304) der Kameramesswerte von der ersten und der zweiten Farbe; Erlangen (306) des Kameramesswertes von der vermischten Farbe; und Finden (308) einer Funktion, die die Messwerte der ersten, zweiten und vermischten Farbe auf eine lineare Verteilung in einem Farbraum (color space) abbildet (map).
  2. Verfahren nach Anspruch 1, das des Weiteren umfasst: Finden einer Vielzahl von Pixeln (405, 407, 409) in einem Ausgabebild, in dem jedes Pixel der Vielzahl von Pixeln zwei Regionen mit unterschiedlichen Farben abbildet und eine vermischte Farbe darstellt, die sich von den unterschiedlichen Farben ableitet, wobei die unterschiedlichen Farben von jedem Pixel als Komponentenfarben der vermischten Farbe dieses Pixels dienen; Erlangen der Kameramesswerte von den verschiedenen Farben von jedem Pixel der Vielzahl von Pixeln; Erlangen des Kameramesswertes von den vermischten Farben der Vielzahl von Pixeln; und Finden einer Funktion, die die Messwerte der Farben von dem ersten Pixel und von der Vielzahl von Pixeln auf eine lineare Verteilung in dem Farbraum abbildet.
  3. Verfahren nach Anspruch 1, wobei der Messwert der ersten Farbe von einem zweiten Pixel erlangt wird, das nur die erste Farbe abbildet.
  4. Verfahren nach Anspruch 1, wobei das zweite Pixel angrenzend an das erste Pixel ist.
  5. Verfahren nach Anspruch 1, wobei das Finden einer Funktion, die die Messwerte der ersten, zweiten und vermischten Farbe auf eine lineare Funktion abbildet, des Weiteren das Ermitteln einer Distanzfunktion umfasst, die eine Summe von Distanzen von jedem abgebildeten Messwert einer vermischten Farbe zu einem Liniensegment, das die abgebildeten Komponentenfarben in dem Farbraum der vermischten Farbe verbindet, minimiert.
  6. Verfahren nach Anspruch 2, wobei das Finden einer Funktion, die die Messwerte der Farben von dem ersten Pixel und der Vielzahl von Pixeln auf eine lineare Verteilung abbildet, des Weiteren das Ermitteln der Funktion mit einer Abhängigkeit auf vorgegebene Resonanzfunktionen von bekannten Kameras umfasst.
  7. Verfahren nach Anspruch 1, das des Weiteren das Verwenden eines Bayesischen Abschätzungsalgorithmus (Bayesian estimation algorithm) zum Ermitteln der Funktion umfasst.
  8. Verfahren nach Anspruch 6, das des Weiteren das Modellieren der vorgegebenen Resonanzfunktionen als ein Gauß'sches Vermischungsmodell (Gaussian mixture model) umfasst.
  9. Verfahren nach Anspruch 5, das des Weiteren das Einbeziehen der Distanzfunktion in eine exponentielle Verteilungsfunktion umfasst.
  10. Verfahren nach Anspruch 2, das des Weiteren das Finden einer Lösung nach dem Maximum a posteriori, MAP, umfasst, die als das Produkt eines vorherigen Modells und einer Wahrscheinlichkeitsfunktion formuliert ist, wobei das vorherige Modell ein Gauß'sches Vermischungsmodell ist, das sich von den vorgegebenen Resonanzfunktionen ableitet, wobei die Wahrscheinlichkeitsfunktion eine exponentielle Verteilungsfunktion ist, die sich von Distanzen von jedem abgebildeten Messwert einer vermischten Farbe zu einem Liniensegment, das die abgebildeten Komponentenfarben der vermischten Farbe in dem Farbraum verbindet, ableitet, und wobei sich die inverse Resonanzfunktion von der MAP-Lösung ableitet.
  11. Verfahren nach Anspruch 1, wobei mindestens manche der Farben einer Szene des Ausgabebildes nicht vorher (a priori) bekannt sind.
  12. Maschinenlesbarer Datenträger, der Instruktionen zum Durchführen des Verfahrens nach Anspruch 1 aufweist.
  13. System, das umfasst: einen Grenzpixeldetektor (edge Pixel detector) (203), um eine Vielzahl von Pixeln (405, 407, 409) in einem digitalen Bild (108) zu finden, in dem jedes Pixel eine erste Region, die eine erste Farbe aufweist, und eine zweite Region, die eine zweite Farbe aufweist, abbildet, wobei dieses Pixel eine vermischte Farbe darstellt, die sich von der ersten und von der zweiten Farbe ableitet, und wobei die erste und die zweite Farbe als Komponentenfarben der vermischten Farbe dieses Pixels dienen; ein Farbanalysator (205), der in wirksamer Weise mit dem Grenzpixeldetektor gekoppelt ist, wobei der Farbanalysator eingerichtet ist zum Erlangen von Messwerten der vermischten und der Komponentenfarben der Vielzahl von Pixeln; und ein umgekehrter Resonanzgenerator (inverse response generator) (207), um eine inverse Resonanzfunktion (211) zu generieren, die die Messwerte der vermischten und der Komponentenfarben der Vielzahl von Pixeln auf eine lineare Verteilung in einem Farbraum abbildet.
  14. System nach Anspruch 13, wobei der inverse Resonanzgenerator eingerichtet ist zum Ermitteln einer Distanzfunktion, die, für die Vielzahl von Pixeln, eine Summe an Distanzen von jedem abgebildeten Messwert einer vermischten Farbe zu einem Liniensegment, das die abgebildeten Komponentenfarben der vermischten Farbe in dem Farbraum verbindet, minimiert.
  15. System nach Anspruch 13, das des Weiteren einen Datenspeicher (209) umfasst, um Referenzdaten, die vorgegebene Resonanzfunktionen von bekannten Kameras umfassen, zu enthalten, und wobei der inverse Resonanzgenerator eingerichtet ist zum Ermitteln der inversen Resonanzfunktion in Abhängigkeit von den Referenzdaten des Datenspeichers.
  16. System nach Anspruch 15, wobei der inverse Resonanzgenerator des Weiteren eingerichtet ist zum Verwenden eines Bayesischen Abschätzungsalgorithmus, um die inverse Resonanzfunktion zu ermitteln.
  17. System nach Anspruch 15, wobei der inverse Resonanzgenerator des Weiteren eingerichtet ist zum Modellieren der vorgegebenen Resonanzfunktionen als ein Gauß'sches Vermischungsmodell.
  18. System nach Anspruch 14, wobei der inverse Resonanzgenerator des Weiteren eingerichtet ist zum Einbeziehen der Distanzfunktion in eine exponentielle Verteilungsfunktion.
  19. System nach Anspruch 13, wobei der inverse Resonanzgenerator des Weiteren eingerichtet ist zum Ermitteln einer Lösung nach dem Maximum a posteriori, MAP, als das Produkt eines vorherigen Modells und einer Wahrscheinlichkeitsfunktion, wobei das vorherige Modell ein Gauß'sches Vermischungsmodell ist, das sich von vorgegebenen Resonanzfunktionen ableitet, wobei die Wahrscheinlichkeitsfunktion eine exponentielle Verteilungsfunktion ist, die sich von Distanzen von jedem abgebildeten Messwert einer vermischten Farbe zu einem Liniensegment, das die abgebildeten Komponentenfarben der vermischten Farbe in dem Farbraum verbindet, ableitet, und wobei sich die inverse Resonanzfunktion von der MAP-Lösung ableitet.
  20. System nach Anspruch 19, wobei die MAP-Lösung als die inverse Resonanzfunktion dient.
  21. System nach Anspruch 19, wobei der inverse Funktionsgenerator eingerichtet ist zum Ermitteln der MAP-Funktion unter Verwendung eines Levenberg-Marquardt-Optimierungsverfahrens.
  22. Maschinenlesbarer Datenträger, der Komponenten aufweist zum Implementieren des Systems, wie es in Anspruch 13 wiedergegeben ist.
  23. Maschinenlesbarer Datenträger, der Komponenten aufweist, die umfassen: Mittel zum Finden einer Vielzahl von Pixeln in einem Ausgabebild, in dem jedes Pixel der Vielzahl von Pixeln zwei Regionen mit unterschiedlichen Farben abbildet und eine vermischte Farbe darstellt, die sich von den unterschiedlichen Farben ableitet, und wobei die unterschiedlichen Farben von jedem Pixel als Komponentenfarben von der vermischten Farbe dieses Pixels dienen; Mittel zum Erlangen von Messwerten von den verschiedenen Farben von jedem Pixel aus der Vielzahl von Pixeln; Mittel zum Erlangen von Messwerten der vermischten Farben der Vielzahl von Pixeln; und Mittel zum Ermitteln einer inversen Resonanzfunktion, die die Messwerte der Farben von der Vielzahl von Pixeln auf eine lineare Verteilung in dem Farbraum abbildet.
  24. Maschinenlesbarer Datenträger nach Anspruch 23, wobei die Mittel zum Ermitteln einer inversen Resonanzfunktion des Weiteren Mittel zum Generieren einer Distanzfunktion umfassen, die eine Summe von Distanzen von jedem abgebildeten Messwert einer vermischten Farbe zu einem Liniensegment, das die abgebildeten Komponentenfarben der vermischten Farbe in dem Farbraum verbindet, minimiert.
  25. Maschinenlesbarer Datenträger nach Anspruch 23, wobei die Mittel zum Ermitteln einer inversen Resonanzfunktion des Weiteren eingerichtet sind zum Ermitteln der Funktion in Abhängigkeit von vorgegebenen Resonanzfunktionen von bekannten Kameras.
  26. Maschinenlesbarer Datenträger nach Anspruch 25, der des Weiteren Mittel zum Modellieren der vorgegebenen Resonanzfunktionen als ein Gauß'sches Vermischungsmodell umfasst.
  27. Maschinenlesbarer Datenträger nach Anspruch 24, der des Weiteren Mittel zum Einbeziehen der Distanzfunktion in eine exponentielle Verteilungsfunktion umfasst.
  28. Maschinenlesbarer Datenträger nach Anspruch 23, der des Weiteren Mittel zum Finden einer Lösung nach dem Maximum a posteriori, MAP, als das Produkt eines vorherigen Modells und einer Wahrscheinlichkeitsfunktion umfasst, wobei das vorherige Modell ein Gauß'sches Vermischungsmodell ist, das sich von vorgegebenen Resonanzfunktionen ableitet, wobei die Wahrscheinlichkeitsfunktion eine exponentielle Verteilungsfunktion ist, die sich von Distanzen von jedem abgebildeten Messwert einer vermischten Farbe zu einem Liniensegment, das die abgebildeten Komponenten farben der vermischten Farbe in dem Farbraum verbindet, ableitet, und wobei sich die inverse Resonanzfunktion von der MAP-Lösung ableitet.
  29. Maschinenlesbarer Datenträger nach Anspruch 28, wobei die MAP-Lösung als die inverse Resonanzfunktion dient.
  30. Maschinenlesbarer Datenträger nach Anspruch 28, wobei die Mittel zum Finden einer MAP-Lösung ein Levenberg-Marquardt-Optimierungsverfahren zum Finden der MAP-Lösung verwenden.
DE602005004693T 2004-03-23 2005-03-18 Radiometrische kalibrierung von einem einzelnen bild Active DE602005004693T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US809167 2004-03-23
US10/809,167 US7450754B2 (en) 2004-03-23 2004-03-23 Radiometric calibration from a single image

Publications (2)

Publication Number Publication Date
DE602005004693D1 DE602005004693D1 (de) 2008-03-27
DE602005004693T2 true DE602005004693T2 (de) 2009-02-12

Family

ID=34939017

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602005004693T Active DE602005004693T2 (de) 2004-03-23 2005-03-18 Radiometrische kalibrierung von einem einzelnen bild

Country Status (7)

Country Link
US (3) US7450754B2 (de)
EP (1) EP1600893B1 (de)
JP (1) JP4750443B2 (de)
KR (1) KR101183343B1 (de)
CN (1) CN100429924C (de)
AT (1) ATE386313T1 (de)
DE (1) DE602005004693T2 (de)

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7414753B2 (en) * 2004-05-06 2008-08-19 Canon Kabushiki Kaisha Color characterization using nonlinear regression
US20060028562A1 (en) * 2004-08-09 2006-02-09 Martin Schmitz Fast area-selected filtering for pixel-noise and analog artifacts reduction
US7505606B2 (en) * 2005-05-19 2009-03-17 Microsoft Corporation Detecting doctored images using camera response normality and consistency
KR100815160B1 (ko) * 2005-12-08 2008-03-19 한국전자통신연구원 베이시안 호프 변환을 이용한 선형 특징 추출 장치 및 그방법
US7602976B2 (en) * 2006-02-17 2009-10-13 Sony Corporation Compressible earth mover's distance
US7577684B2 (en) * 2006-04-04 2009-08-18 Sony Corporation Fast generalized 2-Dimensional heap for Hausdorff and earth mover's distance
US7865031B2 (en) * 2006-04-18 2011-01-04 Tandent Vision Science, Inc. Method and system for automatic correction of chromatic aberration
JP2008067308A (ja) * 2006-09-11 2008-03-21 Fuji Xerox Co Ltd 色処理装置、色処理方法およびプログラム
SE531942C2 (sv) * 2007-02-01 2009-09-15 Flir Systems Ab Metod för bildbehandling av IR-bilder innefattande kontrastförhöjande filtrering
US7792357B2 (en) * 2007-05-30 2010-09-07 Microsoft Corporation Chromatic aberration correction
JP2008306512A (ja) * 2007-06-08 2008-12-18 Nec Corp 情報提供システム
CN101349856B (zh) * 2007-07-20 2010-06-02 鸿富锦精密工业(深圳)有限公司 投影系统
US8149300B2 (en) 2008-04-28 2012-04-03 Microsoft Corporation Radiometric calibration from noise distributions
US8111290B2 (en) 2008-06-06 2012-02-07 Microsoft Corporation Radiometric calibration using temporal irradiance mixtures
US20100053332A1 (en) * 2008-08-27 2010-03-04 Nova Research, Inc. Frustrated internal reflection uncooled infrared camera
US8595689B2 (en) 2008-12-24 2013-11-26 Flir Systems Ab Executable code in digital image files
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US9843743B2 (en) 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
US8582910B2 (en) * 2009-10-02 2013-11-12 The Chinese University Of Hong Kong Methods and apparatus for editing images
US20110080506A1 (en) * 2009-10-07 2011-04-07 Ping-Kuo Weng Image sensing device and system
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US20110285895A1 (en) * 2010-05-21 2011-11-24 Chung Shan Institute Of Science And Technology Image Sensing Device and Processing System
EP2710340B1 (de) * 2011-05-13 2019-04-03 Valeo Schalter und Sensoren GmbH Kameraanordnung fur ein fahrzeug und verfahren zum kalibrieren einer kamera sowie zu betreiben einer kameraanordnung
KR101227936B1 (ko) * 2011-05-31 2013-01-30 전자부품연구원 대응 영상의 컬러 보정 방법 및 그 기록매체
US8620070B2 (en) * 2011-05-31 2013-12-31 Korean Electronics Technology Institute Corresponding image processing method for compensating colour
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
CN103875235B (zh) 2011-06-10 2018-10-12 菲力尔系统公司 用于红外成像装置的非均匀性校正技术
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
EP2719166B1 (de) 2011-06-10 2018-03-28 Flir Systems, Inc. Linienbasierte bildverarbeitung und flexibles speichersystem
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
EP2719167B1 (de) 2011-06-10 2018-08-08 Flir Systems, Inc. Infrarotabbildung mit geringem stromverbrauch und geringem formfaktor
US8928781B2 (en) 2011-11-30 2015-01-06 Microsoft Corporation Response function determination by rank minimization
CN103091615B (zh) * 2011-12-30 2014-04-16 展讯通信(上海)有限公司 测量图像传感器的响应曲线的方法及装置
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
US20140327796A1 (en) * 2013-05-02 2014-11-06 National Chung Cheng University Method for estimating camera response function
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor
US9697593B2 (en) * 2014-01-28 2017-07-04 Ittiam Systems (P) Ltd. System and method for tone mapping on high dynamic range images
TWI542217B (zh) * 2014-03-12 2016-07-11 瑞昱半導體股份有限公司 像素值校正裝置與方法
CN108205812B (zh) * 2017-11-22 2021-12-17 广东工业大学 一种颜料色彩混合比例匹配的方法
CN108057645B (zh) * 2018-02-07 2024-01-23 合肥美亚光电技术股份有限公司 色选机的相机调准装置及其控制方法
US11373302B2 (en) 2020-05-01 2022-06-28 Adasky, Ltd. Thermal camera, and method thereof for early diagnosis of infectious diseases
US11920980B2 (en) * 2022-01-31 2024-03-05 Viavi Solutions Inc. Rolling principal component analysis for dynamic process monitoring and end point detection

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4663591A (en) * 1985-08-16 1987-05-05 General Electric Company Method for reducing image artifacts due to periodic signal variations in NMR imaging
US4808984A (en) * 1986-05-05 1989-02-28 Sony Corporation Gamma corrected anti-aliased graphic display apparatus
US5363318A (en) * 1992-03-23 1994-11-08 Eastman Kodak Company Method and apparatus for adaptive color characterization and calibration
US5568571A (en) * 1992-12-14 1996-10-22 University Microfilms, Inc. Image enhancement system
US5832140A (en) * 1993-12-14 1998-11-03 Staplevision Inc. Automated quality assurance image processing system
DE4343905C2 (de) * 1993-12-22 1996-02-15 Roland Man Druckmasch Verfahren zur Steuerung der Farbführung bei einer Druckmaschine
US5754309A (en) * 1995-06-06 1998-05-19 Apple Computer, Inc. Tone correction for multi-level halftoned images
JPH09203664A (ja) * 1996-01-25 1997-08-05 C G A Kk 色合い検査装置
US5767922A (en) * 1996-04-05 1998-06-16 Cornell Research Foundation, Inc. Apparatus and process for detecting scene breaks in a sequence of video frames
JP2834437B2 (ja) * 1996-09-09 1998-12-09 学校法人 文教大学学園 表色系変換方法
US6208753B1 (en) * 1998-02-27 2001-03-27 International Business Machines Corporation Quality of digitized images through post-scanning reregistration of their color planes
JP2923894B1 (ja) 1998-03-31 1999-07-26 日本電気株式会社 光源判定方法、肌色補正方法、カラー画像補正方法、光源判定装置、肌色補正装置、カラー画像補正装置及びコンピュータ読み取り可能な記録媒体
JP3492202B2 (ja) * 1998-06-24 2004-02-03 キヤノン株式会社 画像処理方法、装置および記録媒体
US6654493B1 (en) * 1998-11-13 2003-11-25 Lightsurf Technologies, Inc. Charactering and calibrating an image capture device
US6825884B1 (en) * 1998-12-03 2004-11-30 Olympus Corporation Imaging processing apparatus for generating a wide dynamic range image
US6437823B1 (en) * 1999-04-30 2002-08-20 Microsoft Corporation Method and system for calibrating digital cameras
US20020122589A1 (en) 1999-11-29 2002-09-05 Donald M. Reiman Constructing profiles to compensate for non-linearities in image capture
US6686921B1 (en) * 2000-08-01 2004-02-03 International Business Machines Corporation Method and apparatus for acquiring a set of consistent image maps to represent the color of the surface of an object
DE10101890A1 (de) 2001-01-16 2002-08-01 Deutsches Krebsforsch HPV-spezifische Peptide, die die Bindung von HPV an die Wirtszelle blockieren
US6639594B2 (en) * 2001-06-03 2003-10-28 Microsoft Corporation View-dependent image synthesis
CN1184796C (zh) * 2001-07-26 2005-01-12 佳能株式会社 图象处理方法和设备以及图象处理系统
US7065236B2 (en) * 2001-09-19 2006-06-20 Tripath Imaging, Inc. Method for quantitative video-microscopy and associated system and computer software program product
JP4013699B2 (ja) 2002-08-20 2007-11-28 松下電器産業株式会社 画像処理装置および画像処理方法
WO2003069557A1 (fr) * 2002-02-12 2003-08-21 Matsushita Electric Industrial Co., Ltd. Dispositif et procede de traitement d'image
EP1385143A3 (de) * 2002-07-16 2005-09-21 ATI Technologies Inc. Verfahren und Vorrichtung zur Verbesserung der Funktion eines nicht gamma-korrigierten graphischen Systems
WO2005015490A2 (en) * 2003-07-02 2005-02-17 Trustees Of Columbia University In The City Of New York Methods and systems for compensating an image projected onto a surface having spatially varying photometric properties

Also Published As

Publication number Publication date
KR20060044605A (ko) 2006-05-16
US7986830B2 (en) 2011-07-26
KR101183343B1 (ko) 2012-09-14
US7450754B2 (en) 2008-11-11
DE602005004693D1 (de) 2008-03-27
EP1600893B1 (de) 2008-02-13
CN1674636A (zh) 2005-09-28
ATE386313T1 (de) 2008-03-15
US20090080772A1 (en) 2009-03-26
US20060008141A1 (en) 2006-01-12
EP1600893A3 (de) 2006-07-19
US7463769B2 (en) 2008-12-09
JP4750443B2 (ja) 2011-08-17
JP2005292132A (ja) 2005-10-20
EP1600893A2 (de) 2005-11-30
CN100429924C (zh) 2008-10-29
US20050213813A1 (en) 2005-09-29

Similar Documents

Publication Publication Date Title
DE602005004693T2 (de) Radiometrische kalibrierung von einem einzelnen bild
Abdelhamed et al. Noise flow: Noise modeling with conditional normalizing flows
CN110046673B (zh) 基于多特征融合的无参考色调映射图像质量评价方法
DE112019002547B4 (de) System und verfahren zum bestimmen eines standortes zur platzierung eines pakets
DE102019005938A1 (de) Intelligentes Identifizieren von Ersetzungsbereichen zum Mischen und Ersetzen von Personen in Gruppenporträts
US9299130B2 (en) Methods and apparatus for image processing and analysis
DE60215743T2 (de) Verfahren und Rechnerprogrammprodukt zur Lagebestimmung von Gesichtsmerkmalen
DE102018006243A1 (de) Vorhersagen von Patchverschiebungsabbildungen unter Verwendung eines Neuronalnetzwerkes
DE102015010214A1 (de) Erzeugung von Tiefenkarten
US8908989B2 (en) Recursive conditional means image denoising
El Khoury et al. Color and sharpness assessment of single image dehazing
JP2021531571A (ja) 証明書画像抽出方法及び端末機器
Borkar et al. Single image dehazing by approximating and eliminating the additional airlight component
EP2050023A1 (de) Verfahren zum analysieren und/oder testen zumindest einer benutzeroberfläche, datenverarbeitungseinrichtung und computerprogrammprodukt
US20240323548A1 (en) Blind image denoising method, electronic device, and storage medium
CN113781375B (zh) 一种基于多曝光融合的车载视觉增强方法
Prasath et al. Distance-oriented cuckoo search enabled optimal histogram for underwater image enhancement: a novel quality metric analysis
US20030039401A1 (en) Method for estimating the appearance of noise in images
Bong et al. Objective blur assessment based on contraction errors of local contrast maps
US20240031514A1 (en) Medical spectroscopy and imaging analysis
DE102020103575B4 (de) Merkmalspunktdetektionsvorrichtung und -verfahren zur Detektion von Merkmalspunkten in Bilddaten
El Khoury et al. A spectral hazy image database
DE102015009894A1 (de) Ausrichten von Mehrfachansichtsabtastungen
DE102022209789A1 (de) Rückmeldung unter verwendung von abdeckung für die objektabtastung
Mittal et al. Enhancement of historical documents by image processing techniques

Legal Events

Date Code Title Description
8364 No opposition during term of opposition