DE102013114631B4 - Kalibrierung der Objektivschattierung für Kameras - Google Patents

Kalibrierung der Objektivschattierung für Kameras Download PDF

Info

Publication number
DE102013114631B4
DE102013114631B4 DE102013114631.7A DE102013114631A DE102013114631B4 DE 102013114631 B4 DE102013114631 B4 DE 102013114631B4 DE 102013114631 A DE102013114631 A DE 102013114631A DE 102013114631 B4 DE102013114631 B4 DE 102013114631B4
Authority
DE
Germany
Prior art keywords
camera module
module
calibration
bezier
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102013114631.7A
Other languages
English (en)
Other versions
DE102013114631A1 (de
Inventor
Noy Cohen
Ricardo J. Motta
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nvidia Corp
Original Assignee
Nvidia Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nvidia Corp filed Critical Nvidia Corp
Publication of DE102013114631A1 publication Critical patent/DE102013114631A1/de
Application granted granted Critical
Publication of DE102013114631B4 publication Critical patent/DE102013114631B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)

Abstract

Ein Verfahren zum Ausführen einer Objektivschattierungskorrektur, wobei das Verfahren folgendes aufweist: Erzeugen einer Vielzahl von Basisoberflächenmessungen eines Kameramodultyps, wobei die Vielzahl der Basisoberflächenmessungen eine Basisoberflächenmessung für jede Lichtquelle aus einer Vielzahl von Lichtquellen aufweist; Messen eines Schattierungsprofils, das für jedes Kameramodul (101, 203) des Kameramodultyps spezifisch ist, um eine modulspezifische Kalibrierungsoberfläche zu berechnen; Erzeugen einer modulspezifischen, korrigierten Oberflächenmessung für jede Lichtquelle aus der Vielzahl von Lichtquellen, basierend auf der Vielzahl der Basisoberflächenmessungen des Kameramodultyps und der modulspezifischen Kalibrierungsoberfläche; und wobei jedes Kameramodul (102, 203) aus der Vielzahl von Kameramodulen (102, 203) betriebsfähig dafür ist, in einer mobilen Recheneinrichtung (200) verwendet zu werden.

Description

  • HINTERGRUND
  • Bildaufnahmegeräte, wie etwa Kameramodule, sind herkömmlich in verschiedene andere mobile Rechengeräte, wie etwa Smartphones oder Tablet-Computer, integriert. Typischerweise sind Kameramodule, die in mobilen Rechengeräten integriert sind, als ein oder mehr im Wesentlichen würfelartige Module implementiert. Die jüngste Entwicklung zum Minimieren der Breite oder Dicke der zugrundeliegenden, mobilen Rechengeräte hat notwendigerweise zu einer ähnlichen Entwicklung des Minimierens der Höhe der integrierten Kameramodule geführt.
  • Unglücklicherweise werden die einfallenden Lichtstrahlen aufgrund der komprimierten Höhe der integrierten Kameramodule im Vergleich zu weniger kompakten Systemen bei extremeren Winkeln empfangen. Dies kann zu einem ungewünschten Effekt (Objektivschattierung genannt) führen, wobei Bilder in der Mitte mit einer erhöhten Helligkeit und in Richtung zu den Rändern mit im Wesentlichen niedrigerer Helligkeit erzeugt werden.
  • Heutige fotografische Techniken sind in der Lage, diesen Effekt zu berücksichtigen und abzumildern. Typischerweise werden Korrekturen der Objektivschattierung ausgeführt, indem in jedes hergestellte Kameramodul Koeffizienten einprogrammiert werden, die anschließend auf Bilddaten angewendet werden. Weil jedoch der Grad der Objektivschattierung von der Lichtquelle (oder „Beleuchtungsquelle”) abhängt, die in dem Bildmotiv (typischerweise über einen Prozess des Weißabgleichs bestimmt) erkannt wird, kann die Menge der programmierten Koeffizienten erheblich sein.
  • Darüber hinaus erfordert die tatsächliche Berechnung der Koeffizienten herkömmlicherweise umfangreiche Messungen und Kalibrierung, die für jedes Kameramodul spezifisch sind. Das heißt, die Bestimmung der Koeffizienten erfordert herkömmlicherweise die Erzeugung von mehreren Modellen der „Oberflächen” des Kameramoduls, wobei die tatsächliche Anzahl der Oberflächen der Anzahl der Beleuchtungsquellen entspricht, die in einem Bild erfasst werden können. Herkömmliche Techniken zum Erzeugen dieser Oberflächen umfassen das Erzeugen einer Vielzahl von Bildern mit jedem Kameramodul unter einer Vielzahl von Beleuchtungsbedingungen. Dies kann mehr als zehn oder mehr Bilder pro Moduleinheit umfassen und erfordert Einrichtungen zum Erzeugen von jeder der unterstützten Beleuchtungsbedingungen. Infolgedessen können herkömmliche Techniken zur Kalibrierung der Objektivschattierung sehr ineffiziente Prozesse sein, die im Wesentlichen intensive Mengen an Zeit und Aufwand erfordern, insbesondere für Einheiten, die in großer Stückzahl gefertigt werden.
  • Aus der Druckschrift US 2010/0165144 A1 sind Verfahren, Vorrichtungen und Systeme zur szenenabhängigen adaptiven Objektivschattierungskorrektur für Bildaufnahmegeräte bekannt, wobei eine Referenzverstärkungseinstellungs-Oberfläche, eine Szeneneinstelloberfläche und eine szenenangepaßte Verstärkungseinstellungsoberfläche verwendet werden, um eine szenenabhängigen adaptiven Objektivschattierungskorrektur für Bilder, welche unter variierenden Lichtbedingungen aufgenommen wurden, bereitzustellen.
  • Aus der Druckschrift US 2010/0271503 A1 ist ein Verfahren für eine Kalibration eines Weißabgleichs für ein digitales Kameramodul bekannt, wobei Weißabgleichkalibrationsfarbverhältnisse für eine Referenzlichtquelle durch Verwenden einer repräsentativen Kamera bestimmt werden, während das Bild durch die Referenzbelichtungsquelle beleuchtet ist, und wobei Weißabgleichkalibrationsfaktoren gespeichert werden, welche Farbverhältnisse für zumindest eine andere Lichtquelle den Farbverhältnissen der Referenzlichtquelle zuordnen.
  • Aus der Druckschrift US 2012/0314086 A1 sind Systeme und Verfahren zum Testen und Kalibrieren von Kameramodulen basierend auf einem Benchmarkstandard bekannt, wobei in einer Teststation eine Testmessung eines Kameramoduls aufgenommen wird, wobei zeitgleich eine Echtmessung unter Verwenden eines Spektrometers aufgenommen wird. Dabei sagt die Teststation Verwenden der Echtmessung voraus, welches Ergebnis der Benchmarkstandard unter diesen Bedingungen ergeben hätte, und vergleicht das erwartete Ergebnis mit der Testmessung, um Differenzen im Kameramodul für eine spätere optimierte Bildverarbeitung zu speichern.
  • Aus der Druckschrift US 2011/0058072 A1 ist ein Verfahren zur Korrektur eines Sensors für optische Nebensignaleffekte und spektrale Nebensignaleffekte bekannt, wobei eine Spektralempfindlichkeit für eine Vielzahl von Farbkanälen an verschiedenen räumlichen Stellen an einem Sensor abgetastet wird, wobei eine Farbkorrekturmatrix für jede der verschiedenen räumlichen Stellen ausgeführt wird, und wobei die entsprechende Farbkorrekturmatrix an jeder der verschiedenen räumlichen Stellen in einem Bild, das vom Sensor derart erfaßt worden ist, dass die Spektralempfindlichkeit an jeder der räumlichen Stellen umgesetzt wird, angewendet wird, um der Spektralempfindlichkeit einer beliebigen Stelle am Bild zu entsprechen.
  • Aus der Druckschrift US 2010/0265358 A1 sind ein System und ein Verfahren zum Korrigieren von Bilddaten bekannt, wobei Bilddaten von einem optischen Bildsensor empfangen werden, wobei die Bilddaten Daten von einem oder mehreren Farbkanälen enthalten, wobei die Bilddaten unter Verwenden von Kalibrationsdaten und einer Splinefläche, insbesondere einem Bezier Patch Array, dazu verwendet werden, verschiedene Linseneffekte, wie Objektivschattierungen oder Linsenunregelmäßigkeiten, zu beseitigen.
  • ZUSAMMENFASSUNG
  • Diese Zusammenfassung wird bereitgestellt, um eine Auswahl von Konzepten in einer vereinfachten Form einzuführen, die unten in der ausführlichen Beschreibung näher beschrieben werden. Diese Zusammenfassung ist nicht dazu gedacht, Schlüsselmerkmale oder wesentliche Merkmale des beanspruchten Gegenstandes zu identifizieren, noch ist sie dazu gedacht, dahingehend verwendet zu werden, den Schutzumfang des beanspruchten Gegenstandes zu begrenzen.
  • Ausführungsformen der vorliegenden Erfindung sind auf Verfahren und Systeme zum Ausführen von automatischen Objektivschattierungskorrekturen unter Verwendung von modulspezifischen Kalibrationen gerichtet. Gemäß einem Aspekt der Erfindung wird ein Verfahren bereitgestellt, das über drei Hauptphasen ausgeführt wird.
  • Während einer ersten Phase werden radial symmetrische Komponentendatensätze aus Prüfungen bestimmt, die für Kameramodule des zu kalibrierenden Typs gemeinsam sind. Gemäß verschiedener Ausführungsformen kann diese Phase offline (z. B. in einem Laboratorium) und unabhängig von dem Mess- und Kalibrierungsprozess (d. h. der zweiten Phase) pro Modul in der Werkshalle ausgeführt werden. Die extrahierten Daten werden dazu verwendet, Messungen der Basisoberflächen der Bildaufnahmekomponenten (d. h. Objektive, Filter, Sensoren) für eine Menge von Bildobjekt-Beleuchtungsquellen zu erzeugen, und werden von den Kameramodulen des Kameramodultyps gemeinsam benutzt. Diese Daten können in einem Datenspeicher gespeichert oder in einer Software (wie etwa einem Treiber) inkludiert werden, wobei die Software in jedes der Kameramodule eingeladen und zum Interagieren mit jedem der Kameramodule benutzt wird.
  • Während der zweiten Phase wird die tatsächliche Messung des Schattierungsprofils von einem oder mehreren spezifischen Kameramodulen ausgeführt. Gemäß Ausführungsformen kann diese Messung beispielsweise für jedes Kameramodul während der Herstellung als Teil des Kalibrierungsprozesses ausgeführt werden. In jedem spezifischen Kameramodul wird aus den resultierenden Messdaten eine Kalibrierungsoberfläche erzeugt. Die Kalibrierungsoberfläche kann in dem Datenspeicher von diesem Modul (z. B. in einem einmal programmierbaren Datenspeicher des Moduls), oder in einem anderen Verfahren, das sie für den Kameratreiber zugänglich macht, gespeichert werden. Gemäß verschiedener Ausführungsformen kann diese Kalibrierungsoberfläche als eine modulspezifische Bezier-Korrekturoberfläche unter einer vorbestimmten Lichtquelle als Beleuchtungsquelle ausgedrückt werden.
  • Die dritte und letzte Phase ist die Extrapolationsphase. In dieser Phase werden die Basismessoberflächen eines Kameramoduls, die in der ersten Phase bestimmt worden sind, extrapoliert und mit der modulspezifischen Bezier-Korrekturoberfläche und Kalibrierungsdaten aus der zweiten Phase modifiziert. Gemäß einer Ausführungsform wird die dritte und letzte Phase in dem Kameramodul selbst (z. B. durch einen Treiber) ausgeführt. In weiteren Ausführungsformen kann diese Phase während der Boot-Sequenz des Kameramoduls – oder des zugrundeliegenden Rechengeräts (z. B. Mobiltelefon) ausgeführt werden. Die ausgegebenen Oberflächen aus dieser Phase werden dazu verwendet, die Schattierungsprofile in dem Kameramodul in Abhängigkeit von der Bestimmung der Lichtquelle zu korrigieren. Beispielsweise werden, wenn ein Bild eines Bildmotivs einmal von dem Kameramodul erfasst ist, die in dem Bildmotiv vorhandene Beleuchtungsquelle bzw. die vorhandenen Beleuchtungsquellen (typischerweise über einen Prozess des Weißabgleichs) bestimmt. Wenn die vorhandene Beleuchtungsquelle bzw. die vorhandenen Beleuchtungsquellen einmal detektiert sind, wird die korrigierten Objektivschattierungs-Oberfläche, die den detektierten Beleuchtungsquelle(n) zugeordnet ist, referenziert, und Koeffizienten aus der korrigierten Objektivschattierungsoberflächen werden auf die Pixelwerte angewendet, um Objektivschattierungseffekte zu korrigieren.
  • Dadurch, dass zu Beginn Basismessoberflächen für einen gesamten Modultyp bestimmt werden und dass von einzelnen erfassten Bildern aufgenommene, modulspezifische Kalibrierungen angewendet werden, sind die verschiedenen Ausführungsformen der vorliegenden Erfindung in der Lage, die umfangreiche, mühsame und zeitintensive Kalibrierung für individuelle Module, die typisch für herkömmliche Techniken ist, zu vermeiden, während noch stets effektive Korrekturen der Objektivschattierung in aufgenommenen Bilddaten beibehalten werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die beigefügten Zeichnungen, die in diese Beschreibung aufgenommen werden und einen Teil derselben bilden, veranschaulichen Ausführungsformen der Erfindung und dienen, zusammen mit der Beschreibung, zum Erläutern der Prinzipien der Erfindung:
  • 1 zeigt eine beispielhafte Darstellung einer Bild-Erfassungseinrichtung, gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 2 zeigt eine beispielhafte Darstellung eines in einem mobilen Rechengerät angeordneten Kameramoduls, gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 3 zeigt eine beispielhafte Betriebsumgebung, in der verschiedene Ausführungsformen der vorliegenden Erfindung ausgeführt werden können, gemäß verschiedener Ausführungsformen der vorliegenden Erfindung.
  • 4 zeigt ein Ablaufdiagramm eines beispielhaften, Computerimplementierten Prozesses zum Erzeugen von Messungen von Basisoberflächen für eine Vielzahl von Beleuchtungsquellen, gemäß verschiedener Ausführungsformen der vorliegenden Erfindung.
  • 5 zeigt ein Ablaufdiagramm eines beispielhaften Prozesses zum Messen der Schattierungsprofile eines spezifischen Moduls in der Kalibrierung in der Werkshalle, gemäß verschiedener Ausführungsformen der vorliegenden Erfindung.
  • 6 zeigt ein Ablaufdiagramm eines beispielhaften Prozesses zum Erzeugen einer Objektivschattierungsoberfläche für eine beliebige Lichtquelle, unter Verwendung einer Kalibrierungsoberfläche und einer Basisoberfläche, gemäß verschiedener Ausführungsformen der vorliegenden Erfindung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Es wird nun in Einzelheiten auf mehrere Ausführungsformen Bezug genommen. Während der Gegenstand im Zusammenhang mit den alternativen Ausführungsformen beschrieben wird, so sollte verstanden werden, dass diese nicht dazu gedacht sind, den beanspruchten Gegenstand auf diese Ausführungsformen zu beschränken. Im Gegenteil, der beanspruchte Gegenstand ist dazu gedacht, Alternativen, Modifikationen und Äquivalente abzudecken, die innerhalb des Geists und des Schutzumfangs des beanspruchten Gegenstands, so wie dieser durch die beigefügten Ansprüche definiert ist, enthalten sind.
  • Des Weiteren werden in der nachfolgenden, ausführlichen Beschreibung zahlreiche spezifische Einzelheiten dargelegt, um ein tiefgehendes Verständnis des beanspruchten Gegenstandes zu liefern. Es wird jedoch von einem Fachmann erkannt, dass Ausführungsformen ohne diese spezifischen Einzelheiten oder mit Äquivalenten derselben ausgeführt werden können. In anderen Fällen wurden bekannte Prozesse, Prozeduren, Komponenten und Schaltkreise nicht in Einzelheiten beschrieben, um Aspekte und Merkmale des Gegenstands nicht unnötigerweise zu verschleiern.
  • Teile der nachfolgenden ausführlichen Beschreibung werden in Form eines Prozesses vorgestellt und erläutert. Obwohl Schritte und Abfolgen desselben hierin in Figuren offenbart sind, die den Betriebsablauf dieser Prozesse beschreiben, sind diese Schritte und Abfolgen beispielhaft. Ausführungsformen sind gut dazu geeignet, verschiedene andere Schritte oder Variationen der Schritte, die hierin in den Ablaufdiagrammen der Figuren vorgetragen sind, und in einer Reihenfolge, die von der hierin dargestellten und beschriebenen Reihenfolge verschieden ist, auszuführen.
  • Einige Teile der ausführlichen Beschreibung werden in Form von Prozeduren, Schritten, Logikblocks, Verarbeitung und anderen symbolischen Darstellungen von Operationen auf Datenbits, die in einem Computerspeicher ausgeführt werden können, vorgestellt. Diese Beschreibungen und Darstellungen sind die Mittel, die von den Fachleuten auf dem Gebiet der Datenverarbeitung verwendet werden, um anderen Fachleuten den Inhalt ihrer Arbeit am effektivsten weiterzugeben. Eine Prozedur, ein von einem Computer ausgeführter Schritt, ein Logikblock, ein Prozess, usw. wird hierin, und allgemein, als eine selbstkonsistente Abfolge von Schritten oder Befehlen, die zu einem gewünschten Ergebnis führen, angesehen. Die Schritte sind solche, die physikalische Manipulationen von physikalischen Größen erfordern. Normalerweise, jedoch nicht notwendigerweise, nehmen diese Größen die Form von elektrischen oder magnetischen Signalen an, die in der Lage sind, in einem Computersystem gespeichert, übertragen, kombiniert, verglichen oder anderweitig manipuliert zu werden. Es hat sich gelegentlich als zweckdienlich erwiesen, hauptsächlich aus Gründen der allgemeinen Verwendung, diese Signale als Bits, Werte, Elemente, Symbole, Zeichen, Ausdrücke, Zahlen oder dergleichen zu bezeichnen.
  • Es sollte jedoch im Gedächtnis behalten werden, dass alle diese und ähnliche Ausdrücke zu den geeigneten physikalischen Größen zugeordnet werden sollen und lediglich geeignete Bezeichnungen sind, die auf diese Größen angewendet werden. Außer wenn dies spezifisch, anders als es aus den folgenden Erläuterungen offensichtlich ist, erwähnt ist, so wird gewürdigt, dass hierin insgesamt Erörterungen, die Ausdrücke, wie etwa „ugreifen”, „schreiben”, „enthalten”, „speichern”, „übertragen”, „durchlaufen”, „zuordnen”, „identifizieren” oder dergleichen, Aktionen und Prozesse eines Computersystems oder eines ähnlichen elektronischen Rechengeräts, bezeichnen, das Daten, die innerhalb der Register und Daten gespeichertes Computersystems als physikalische (elektronische) Größen dargestellt sind, in andere Daten, die in ähnlicher Weise als physikalische Größen innerhalb der Datenspeicher oder Register oder anderer derartiger Informationsspeicher, Übertragungs- oder Anzeigegeräte des Computersystems dargestellt sind, manipuliert und transformiert.
  • Beispielhafte Kameramodule und Betriebsumgebungen
  • Ausführungsformen des beanspruchten Gegenstandes sind auf Verfahren und Systeme zum Ausführen von modulspezifischen, automatischen Objektivschattierungskorrekturen für Bilder, die unter Verwendung eines Bildaufnahmegeräts aufgenommen worden sind, gerichtet. 1 zeigt eine beispielhafte Darstellung eines Bildaufnahmegeräts 100 gemäß einer Ausführungsform der vorliegenden Erfindung. Wie in 1 dargestellt, kann die Bildaufnahmeeinrichtung 100 als ein Kameramodul 101 eines Kameramodultyps implementiert werden und kann eine Vielzahl von Linsen 103, einen auf einem Substrat 107 montierten Bildsensor 105 und einen Schaltkreis 109 umfassen. Gemäß verschiedener Ausführungsformen kann das Kameramodul 101 vollständig oder teilweise in einem größeren, mobilen Rechengerät, wie etwa eine Digitalkamera, ein Smartphone, ein Minicomputer, ein E-Reader, ein Tablet- oder Laptop-Computer usw., verkapselt sein. Wie gezeigt, ist das Kameramodul 101 mit einer Vielzahl von Linsen 103, die in Reihe angeordnet sind, dargestellt. In weiteren Ausführungsformen können ein oder mehr Filter (z. B. Infrarotfilter) unterhalb, oberhalb, und/oder zwischen zwei oder mehr der Vielzahl von Linsen 103 angeordnet sein. Wie in Fig. 100 dargestellt, ist die Reihe von Linsen 101 über einem Bildsensor 105, der dazu ausgelegt ist, eingestrahlte Eingabe (Licht) durch die Optik zu empfangen, angeordnet. Der Bildsensor 105 selbst kann beispielsweise als eine Fotodiode implementiert sein und kann über einem Substrat 105 angeordnet sein. In einigen Ausführungsformen kann das Substrat 105 im Wesentlichen aus Siliziumdioxid (SiO2) zusammengesetzt sein. In einigen Ausführungsformen kann der Schaltkreis 109 als ein Verbindungsanschluss, über den Daten zwischen dem Bildsensor 105 zu einer oder mehreren anderen Komponenten (nicht gezeigt), wie etwa einem Datenspeicher und/oder Prozessor, übertragen werden können, implementiert sein.
  • 2 zeigt eine beispielhafte Darstellung eines Kameramoduls, das in einer mobilen Recheneinrichtung 200 gemäß einer Ausführungsform der vorliegenden Erfindung angeordnet ist. Wie in 2 vorgestellt, ist die mobile Recheneinrichtung 200 als ein Mobiltelefon, wie etwa ein Smartphone 201, implementiert. Gemäß verschiedenen Ausführungsformen ist das Smartphone 201 mit einem Kameramodul 203, wie etwa die oben beschriebene Bildaufnahmeeinrichtung 100, ausgestattet. Wie dargestellt, ist ein wesentlicher Teil (angezeigt durch den Abschnitt mit gepunkteter Linie) des Kameramoduls 203 innerhalb der Struktur des Smartphones 201 eingeschlossen. In einigen Ausführungsformen kann nur eine oberseitige Linse 205 des Kameramoduls 203 exponiert sein, was einen Zugang für eine Eingabe (Lichtstrahlen) ermöglicht. Alle anderen Teile des Kameramoduls 203, wie etwa ein Bildsensor (nicht gezeigt) oder ein Verbindungsanschluss 207, können durch von dem Smartphone 201 umschlossen oder anderweitig für einen externen Zugang durch das Smartphone 201 im Wesentlichen verdeckt sein. Wie in Fig. 200 dargestellt, kann das Smartphone 201 dazu verwendet werden, über das Kameramodul 203 fotografische Bilder aufzunehmen. Die Steuerung des Kameramoduls 203 kann über eine Benutzerschnittstelle des Smartphones 201, wie etwa über physikalische Tasten, oder eine im Bild integrierte, auf einer Anzeigeeinrichtung des Smartphones 201 angezeigte, grafische Benutzerschnittstelle gesteuert werden. In noch weiteren Ausführungsformen kann die Verwendung von bestimmten Hardware-Ressourcen, wie etwa Datenspeicher und/oder ein oder mehrere Prozessoren in dem Smartphone 201, mit dem Kameramodul 203 für Zwecke der Bildaufnahme und -herstellung gemeinsam benutzt werden.
  • 3 zeigt eine Darstellung einer beispielhaften Betriebsumgebung gemäß einer Ausführungsform der vorliegenden Erfindung. Ein Digitalsystem 300 zeigt die Komponenten eines grundlegenden Systems gemäß Ausführungsformen der vorliegenden Erfindung, das die Ausführungsplattform für bestimmte hardwarebasierte und softwarebasierte Funktionalitäten bereitstellt. Obwohl in dem System 300 bestimmte Komponenten offenbart sind, so sollte gewürdigt werden, dass derartige Komponenten Beispiele sind. Das heißt, Ausführungsformen der vorliegenden Erfindung sind dazu geeignet, verschiedene andere Komponenten oder Variationen der im System 300 vorgetragenen Komponenten aufzuweisen. Es wird gewürdigt, dass die Komponenten im System 300 mit anderen Komponenten als den dargestellten zusammenwirken können, und dass nicht alle der Komponenten des Systems 300 notwendigerweise erforderlich sind, um die Ziele des Systems 300 zu erreichen.
  • In einer typischen Ausführungsform umfasst das System 300 einen Sensor 303, einen Bildsignalprozessor (ISP, Image Signal Processor) 305, einen Datenspeicher 307, ein Eingabemodul 309, eine zentrale Verarbeitungseinheit (CPU) 311, ein Anzeigegerät 313, einen Kommunikationsbus 315 und eine Leistungsquelle 316. Die Leistungsquelle 316 führt dem System 300 Leistung zu und kann, beispielsweise, eine Gleichstrom- oder eine Wechselstrom-Leistungsquelle sein. Die CPU 311 und der ISP 305 können auch in einem einzigen integrierten Schaltkreisgehäuse integriert sein, und die CPU 313 und der ISP 305 können verschiedene Ressourcen gemeinsam benutzen, wie etwa Befehlslogik, Puffer, funktionelle Einheiten und dergleichen, oder es können für eine Bildverarbeitung und allgemeine Operationen gesonderte Ressourcen bereitgestellt werden. Das System 300 kann beispielsweise als eine Digitalkamera, ein Tablet, eine Kamera eines Mobiltelefons, ein tragbares Gerät (z. B. ein Audiogerät, ein Unterhaltungsgerät, ein handhaltbares Gerät), eine Webcam, ein Videogerät (z. B. ein Camcorder) und dergleichen, implementiert werden.
  • Der Sensor 303 empfängt Licht über eine Optik 301 und wandelt das empfangene Licht in ein Signal (z. B. digital oder analog) um. Gemäß einiger Ausführungsformen kann die Optik 301 dauerhaft an dem System 300 befestigt sein. Alternativ kann die Optik 301 abnehmbar und austauschbar mit Linsen mit anderen Eigenschaften sein. Diese Eigenschaften können beispielsweise Brennweiten, Blendenöffnungen und Klassifizierungen umfassen. In typischen Ausführungsformen kann die Optik 301 aus Glas aufgebaut sein, obwohl alternative Materialien, wie etwa Quarz oder geformter Kunststoff, ebenfalls verwendet werden können. Der Sensor 303 kann irgendeiner aus einer Vielfalt von optischen Sensoren sein, einschließlich, jedoch nicht beschränkt auf: komplementäre Metalloxid-Halbleiter (CMOS) oder ein Sensor mit ladungsgekoppelten Einrichtungen (CCD, Charge Coupled Device). Der Sensor 303 ist mit einem Kommunikationsbus 315 gekoppelt und kann über den Kommunikationsbus 315 aufgenommene Bilddaten bereitstellen. In weiteren Ausführungsformen umfasst der Sensor 303 eine Fähigkeit zum Messen von Lichtintensität, und die empfangenen Bilddaten können Daten umfassen, die der bestimmten Lichtintensität in einem Bildobjekt oder Bild zugeordnet sind.
  • Der Bildsignalprozessor (ISP) 305 ist mit dem Kommunikationsbus 315 gekoppelt und verarbeitet die von dem Sensor 303 erzeugten Daten. Genauer gesagt verarbeitet der Bildsignalprozessor 305 Daten von dem Sensor 302 zum Speichern in dem Datenspeicher 307. Beispielsweise kann der Bildsignalprozessor 305 ein Dateiformat für ein in dem Datenspeicher 307 zu speicherndes Bild komprimieren und bestimmen.
  • Das Eingabemodul 309 erlaubt die Eingabe einer Benutzereingabe in das System 300, die dann, neben anderen Dingen, das Aufnehmen von Daten durch den Sensor 303 und die nachfolgende Verarbeitung durch den ISP 305 steuern kann. Das Eingabemodul 309 kann umfassen, ist jedoch nicht beschränkt auf: Navigations-Pads, Tastaturen (z. B. QWERTY), Tasten, Touchscreen-Steuerungen (z. B. über das Anzeigegerät 313) und dergleichen.
  • Die zentrale Verarbeitungseinheit (CPU) 311 empfängt Befehle über das Eingabemodul 309 und kann eine Vielfalt von Operationen steuern, einschließlich, jedoch nicht beschränkt auf Datenerfassung und Konfiguration des Sensors 303, Verarbeitung durch das ISP 305 und Verarbeitung (z. B. die Addition, Übertragung und Entfernung) von Bildern und/oder Video aus dem Datenspeicher 307.
  • Erzeugen einer Basisoberfläche für jede Art von Beleuchtung
  • 4 zeigt ein Ablaufdiagramm 400 eines beispielhaften computerimplementierten Prozesses zum Erzeugen von Messungen von Basisoberflächen- für eine Vielzahl von Beleuchtungsquellen, gemäß verschiedener Ausführungsformen der vorliegenden Erfindung. In einer Ausführungsform kann der Prozess in einem Laboratorium, offline und unabhängig von den pro Modul und in einer Werkshalle ausgeführten Mess- und Kalibrierungsprozessen ausgeführt werden. Die Schritte 401413 beschreiben beispielhafte Schritte des Ablaufdiagramms 200 gemäß verschiedener hierin beschriebener Ausführungsformen. Der Zweck dieser Phase ist es, Messungen von Basisoberflächen zu erzeugen, die die am meisten radial symmetrische Antwort darstellt, die allen Modulen eines bestimmten Typs (d. h. mit demselben Schattierungsprofil, mit Ausnahme von Herstellungsvariationen) gemeinsam ist.
  • Im Schritt 401 wird eine Anzahl von typischen Modulen erlangt und analysiert. Die Module können beispielsweise als ein Satz aus der Produktionslinie erhalten werden, und können Standardvariationen in der Produktion repräsentieren. Gemäß einigen Ausführungsformen kann eine statistisch signifikante Anzahl, beispielsweise 50–100 Module, in diesem Schritt erlangt und analysiert werden.
  • Im Schritt 403 werden spektrale Abtastungen bzw. Scans von den (vorbestimmten) Beleuchtungsquellen, die verwendet werden, um die Module während einer Kalibrierung in der Werkshalle (d. h. die „Kalibrierungs-Beleuchtungsquellen”) zu messen. Analog werden im Schritt 405 spektrale Scans der Beleuchtungsquellen, für die eine Schattierungskorrekturoberfläche gewünscht ist („Soll-Beleuchtungsquellen”) erlangt. Diese Beleuchtungsquellen können einem vorbestimmten Satz von Beleuchtungsquellen zugeordnet sein, die bestimmt und verwendet werden können, um Farbwerte in einem aufgenommenen Bild während eines automatischen Weißabgleichvorgangs, der in einer Bildaufnahmeeinrichtung ausgeführt wird, einzustellen. Gemäß verschiedener Ausführungsformen kann der Satz von Beleuchtungsquellen umfassen (jedoch nicht beschränkt sein auf): natürliches Sonnenlicht, fluoreszierende Beleuchtungsquellen, Quecksilber-Beleuchtungsquellen oder Hybrid-Beleuchtungsquellen, die zwei oder mehrere Beleuchtungsquellen kombinieren. In einer alternativen Ausführungsform können die spektralen Scans, die den Kalibrierungs-Beleuchtungen und den Soll-Beleuchtungen zugeordnet sind, im Vorhinein erzeugt werden, außerhalb des Prozesses 400 ausgeführt werden, und als Daten in einem Datenspeichergerät (z. B. einer Datenbank) gespeichert werden. Gemäß dieser Implementierungen können stattdessen die Daten von den spektralen Scans, die der Kalibrierungs-Beleuchtung und der Soll-Beleuchtung zugeordnet sind, in den Schritten 403 und 405, respektive, referenziert werden.
  • Gemäß weiterer Ausführungsformen kann jedes Modul des Modultyps im Schritt 407 durch einen Monochromator abgetastet bzw. gescannt werden, um einen spektralen Scan des Moduls mit ausreichender Wellenlängenauflösung zu erzeugen. Ein Scan kann beispielsweise Messungen des Schwarzniveau-Offsets und Scans von 300 [nm] bis 800 [nm] und mit 5 nm Auflösung umfassen. Wenn die Scans der Kameramodule von dem Monochromator einmal verfügbar sind, wird im Schritt 409 für jedes Modul eine Konfiguration erzeugt. Die Konfiguration kann beispielsweise erzeugt werden, indem ein automatischer Kalibrierungsprozess für jedes Modul über softwareimplementierte Werkzeuge ausgeführt wird und die Konfiguration der Modul-Post-Kalibrierung bestimmt werden. Im Schritt 411 wird dann jedes Kameramodul dazu verwendet, ein Bild unter Bedingungen zu erzeugen, die so simuliert worden sind, dass sie der Kalibrierungsbeleuchtung für jeden Typ der Soll-Beleuchtungsquellen entsprechen. Die erzeugten Bilder werden dann als Daten (z. B. als eine Datei) gespeichert. In einigen Ausführungsformen können die Daten als eine Rohbild(oder RAW)-Datei gespeichert werden.
  • Die Basisoberflächen für jeden Beleuchtungstyp werden erzeugt, indem die im Schritt 411 erzeugten Bilder im Schritt 413 über die Vielzahl der Module gemittelt werden. Die Erzeugung der Mittelwerte kann in einigen Ausführungsformen automatisch ausgeführt werden, ebenfalls über softwareimplementierte Werkzeuge. In einer Ausführungsformen können die Mittelwerte über das Ausführen eines Skripts berechnet werden, das in Schleifen über die Daten der Soll-Beleuchtungsquelle und der Kameramodule (beispielsweise in einem Verzeichnis) hinweg arbeitet, und für jedes Modul das jeder Beleuchtungsquelle zugeordnete, erzeugte Bild lädt, die Bilddaten mit demselben Bild von anderen Modulen summiert, und das Ergebnis als eine Oberfläche von Messdaten abspeichert. Die resultierende Oberfläche ist die Basisoberfläche für die spezifische Beleuchtungsquelle.
  • Gemäß verschiedener Ausführungsformen können die Daten, die die Basisoberfläche darstellen, in einem Datenspeicher in und/oder gehörend zu dem Kameramodul gespeichert werden. In weiteren Ausführungsformen können die Daten der Basisoberfläche in die Softwaretreiber geschrieben werden, die verwendet werden, um mit dem Kameramodul in einem mobilen Rechengerät, wie etwa einer Digitalkamera, einem Smartphone, einem Klein-Computer, einem E-Reader, einem Tablet- oder Laptop-Computer usw. zu interagieren. Für jede Basisoberfläche wird eine Bezier-Darstellung erzeugt, indem die Basisoberflächen für jedes Modul spezifisch kalibriert werden. In einer Ausführungsform führt eine Ausgabe der Kalibrierung zur Berechnung von Bezier-Koeffizienten für einen Beleuchtungstyp und wird unten in näheren Einzelheiten beschrieben.
  • Messen des Schattierungsprofils eines spezifischen Moduls während einer Kalibrierung in einer Werkshalle
  • 5 zeigt ein Ablaufdiagramm 500 eines beispielhaften Prozesses zum Messen des Schattierungsprofils eines spezifischen Moduls während einer Kalibrierung in der Fabrik- bzw. Werkshalle, gemäß verschiedener Ausführungsformen der vorliegenden Erfindung. In einer Ausführungsform wird der Prozess während einer Produktionsherstellung eines Kameramoduls ausgeführt. Die Schritte 501507 beschreiben beispielhafte Schritte des Ablaufdiagramms 500 gemäß der hierin beschriebenen verschiedenen Ausführungsformen. Gemäß einem Aspekt wird das Ablaufdiagramm 500 während der zweiten von drei Phasen ausgeführt, um modulspezifische, korrigierte Oberflächenmessungen für ein Kameramodul für eine automatische Korrektur der Objektivschattierung zu erzeugen. Der Zweck dieser Phase ist es, eine Schattierungs-Korrektur-Oberfläche nach Bezier für ein spezifisches Modul unter einer Lichtquelle während einer Kalibrierung in der Werkshalle zu erzeugen. Gemäß einigen Ausführungsformen können die Schritte 501507 unter Verwendung von softwareimplementierten Werkzeugen, die in einem Computersystem ausgeführt werden, durchgeführt werden.
  • Wie in 5 dargestellt, beginnt der in dem Ablaufdiagramm 500 gezeigte Prozess beim Schritt 501, indem als eine Eingabe ein Bild von einer gleichförmigen, Flachfeld-Bildobjekt empfangen wird, das mit einem bestimmten Modul, für das die Kalibrierung durchgeführt wird, unter einer bekannten Beleuchtungsquelle (die oben mit Verweis auf 4 beschriebene Kalibrierungs-Beleuchtung) aufgenommen wird. In einigen Ausführungsformen kann das Bild von einer externen Quelle (z. B. aus einer Datenbank) referenziert werden. In noch anderen Ausführungsformen kann das Bild vorbearbeitet werden, um bestimmte Eigenschaften zu zeigen. Beispielsweise können diese Eigenschaften die Subtraktion eines Schwarzniveaus in dem Bild und/oder die Eliminierung „von schlechten Pixeln” oder anderen Sensor-Artefakten in dem Bild umfassen. In noch weiteren Ausführungsformen kann das Bild von einer sub-gesampelten Version der Version mit voller Auflösung begleitet sein.
  • Im Schritt 503 wird das Schattierungsprofil des Kameramoduls empfangen. In einigen Ausführungsformen kann das Schattierungsprofil des Kameramoduls in dem Datenspeicher des Moduls selbst gespeichert werden. Alternativ kann das Schattierungsprofil des Moduls aus einem zugänglichen Speichergerät, wie etwa einer Datenbank, referenziert werden. In einigen Ausführungsformen kann das Schattierungsprofil eines Kameramoduls als eine Kombination von zwei Komponenten modelliert werden. Die erste Komponente ist radial und weitestgehend rotationssymmetrisch. Die relative Beleuchtungs(RI, Relative Illumination)-Charakteristik der Optik, das Hauptstrahlwinkel(CRA, Chief Ray Angle)-Profil-Sensors und die spektrale Antwort des Infrarot-(IR)-Filters als eine Funktion des Einfallwinkels sind die hauptsächlich Beitragenden zu der Form der radialen Komponente. Als solche hängt diese Komponente stark von der Art der Beleuchtung ab und variiert in der Herstellung idealerweise nicht signifikant. Die zweite Komponente ist in ihrer Natur nicht radial, und kann einen horizontalen/diagonalen Intensitätsgradienten umfassen, der für jeden Farbkanal unterschiedlich ist, was einen Farbschattierungseffekt über das Sichtfeld ergibt. Diese Komponente ist zum großen Teil das Ergebnis einer Fehlausrichtung eines u-Linsen-Arrays (im Vergleich zu dem Hauptstrahlwinkelprofil der Optik) und, bis zu einem gewissen Grad auch einer Nichtgleichförmigkeit der Pixelantwort. Es wird angenommen, dass diese Komponente in guter Annäherung weitgehend unabhängig von der Beleuchtung ist.
  • In Schritt 505 werden Korrekturoberflächen für jeden Farbkanal in dem in Schritt 501 empfangenen Bild aus dem im Schritt 503 empfangenen Schattierungsprofil des Kameramoduls erzeugt. In einer Ausführungsform wird eine Korrekturoberfläche erzeugt, indem in jedem Farbkanal und für jeden Pixel in dem Bild der Maximalwert gefunden wird, und indem dieser durch den Farbwert des Pixelwerts dividiert wird. In einigen Ausführungsformen kann ein Fall-Off-Faktor angewendet werden, um die Korrekturoberfläche zu modifizieren. Der Fall-Off-Faktor kann in einigen Ausführungsformen als eine quadratische Funktion des Abstands von der Mitte des Bildes (oder dem Radius) implementiert werden. In noch weiteren Ausführungsformen kann ferner eine optionale Farbunausgewogenheit eingestellt werden. Um beispielsweise Unausgewogenheiten im grünen Kanal zu korrigieren, kann ein unterer grüner Kanal in dem Schattierungsprofil mit dem Verhältnis zwischen dem oberen grünen Kanal und dem unteren multipliziert werden.
  • Im Schritt 507 wird eine Bezier-Koeffizienten-Darstellung dieser Oberflächen berechnet. Um dies auszuführen, wird die Oberfläche zunächst in eine Vielzahl von Teilbereichen unterteilt, deren Größen auf der Grundlage der Konfiguration des Kameramoduls (das im Schritt 409 des Ablaufdiagramms 400 bestimmt wurde) bestimmt werden. Danach wird in jedem Teilbereich eine Optimierung gemäß kleinster Quadrate ausgeführt, um einen oder mehr Bezier-Koeffizienten, die die Oberfläche beschreiben, zu bestimmen. Das Bestimmen der Bezier-Koeffizienten kann ausgeführt werden durch (ist jedoch nicht beschränkt auf) die folgenden Schritte:
    • a. Berechnen der Größen der Teilbereiche. Typischerweise werden Standard-Teilbereiche gewählt.
    • b. Berechnen der Chrominanz(z. B. u, v)-Werte in jedem Pixel in dem Bild, die den Größen der Flecken entsprchen.
    • c. Berechnen der Bezier-Polynorne dritten Grades aus den Chrominanz-Werten.
    • d. Für jeden Farbkanal, Bilden eines überbestimmten, linearen Systems, in dem 100 Bezier-Koeffizienten die Variablen (der Vektor x) sind und die Anzahl der Gleichungen die Anzahl der Pixel in der Korrekturoberfläche (der Vektor b) ist. In einer Ausführungsform kann das System ausgedrückt werden als Ax = b, wobei die Matrix A die Bezier-Polynomelemente dritten Grades enthält, die mit den Bezier-Koeffizienten multipliziert werden, um die Oberfläche anzunähern. Es wird angenommen, dass A dünn (Skinny) und von vollem Rang (Full Rang) ist (d. h. es gibt mehr Oberflächenpunkte als Bezier-Koeffizienten und sie ist nicht unzureichend bzw. defizient (Deficiened).
    • e. Aus der Gleichung Ax = b wird das Optimierungsproblem
      Figure DE102013114631B4_0002
      definiert und gelöst, indem die über die kleinsten Quadrate angenäherte Lösung –x ^ = (ATA)-1ATb berechnet wird.
    • f. Der ganzzahlige und der bruchteilige Anteil der Koeffizienten wird skaliert, um die gewünschte Auflösung in der Ausgabe anzugleichen.
  • Einmal berechnet, können die Bezier-Koeffizienten als Daten (z. B. als eine Konfigurationsdatei) gespeichert werden und in einem Datenspeicher des Kameramoduls programmiert werden. Gemäß einigen Ausführungsformen werden diese Daten in einem einmal-programmierbaren Speicher des Kameramoduls gespeichert. Zusätzlich zu den Schattierungsoberflächen kann der Maximalwert von jedem Farbkanal berechnet und für einen automatischen Weißabgleich verwendet werden.
  • Erzeugen einer Objektivschattierungsoberfläche für eine beliebige Beleuchtungsquelle unter Verwendung einer Kalibrierungsoberfläche und einer Basisoberfläche
  • 6 zeigt ein Ablaufdiagramm 600 eines beispielhaften Prozesses zum Erzeugen einer Objektivschattierungsoberfläche für eine beliebige Lichtquelle unter Verwendung einer Kalibrierungsoberfläche und einer Basisoberfläche, gemäß verschiedener Ausführungsformen der vorliegenden Erfindung. Die Schritte 601607 beschreiben beispielhafte Schritte des Ablaufdiagramms 500 gemäß der hierin beschriebenen verschiedenen Ausführungsformen. Gemäß einem Aspekt wird das Ablaufdiagramm 600 während der letzten der drei Phasen ausgeführt, die zum Erzeugen von modulspezifischen, korrigierten Oberflächenmessungen für ein Kameramodul zur automatischen Objektivschattierungskorrektur ausgeführt werden. Der Zweck dieser Phase ist es, eine modulspezifische Schattierungskorrekturoberfläche nach Bezier (oder mehrere Oberflächen) für eine Soll-Beleuchtung (eine „Soll-Bezier-Oberfläche”) zu erzeugen, unter Verwendung von Daten, die in den ersten beiden Phasen gesammelt worden sind – eine modulspezifische Kalibrierungsoberfläche, die unter einer KalibrierungsBeleuchtung während des Kalibrierungsschritts in der Werkshalle gemessen wurde (eine „Bezier-Kalibrierungs-Oberfläche”), und mindestens zwei Basisoberflächen zu der Kalibrierungsbeleuchtung und den Soll-Beleuchtungsoberflächen, die in der ersten Phase berechnet worden sind.
  • In einer Ausführungsform wird der Prozess von einem Treiber während des Boot-Vorgangs einer mobilen Recheneinrichtung, in der ein Kameramodul umfasst ist, ausgeführt. Die für das Kameramodul einzigartigen Kalibrierungsdaten werden im Schritt 601 von dem Treiber während des Hochfahrens (Boot) gelesen. Im Schritt 603 liest der Treiber auch die Basisoberflächendaten, die an die Kalibrierungsbeleuchtung („Basis-Kalibrierungsoberfläche”) anpasst ist und (im Schritt 605) die Basisoberfläche, die an die Soll-Beleuchtung angepasst ist („Basis-Solloberfläche”) – beide werden in Bezier-Koeffizienten dargestellt und in einen Datenspeicher, der für den Treiber zugänglich ist, eingebrannt.
  • Das Erzeugen der Soll-Bezier-Oberfläche kann unter Verwendung der Basisoberflächenmessungen, die in Fig. 400 gemäß der folgenden mathematischen Formel bestimmt wurden, ausgeführt werden. – Für jeden Bezier-Koeffizienten berechne (in der Bezier-Domäne): targetBezierSurface(i) = calibrationBezierSurface(i)· BaseTargetSurface(i) / BaseCalibrationSurface(i).
  • In einigen Ausführungsformen kann ein konfigurierbarer Fall-Off-Faktor angewendet werden, der dem gewünschten Licht-Abfall (Fall-Off) der endgültigen Soll-Bezier-Oberfläche steuert. Um den Fall-Off in der Bezier-Domäne zu implementieren, kann der Treiber ein symmetrisches Schattierungsprofil erzeugen, dass an die räumlichen Positionen der Bezier-Koeffizienten über dem Sichtfeld angepasst ist, und jeden Koeffizienten mit einem geeigneten Fall-Off-Faktor multiplizieren. Diese Faktoren können erzeugt werden, indem die quadrierten Radien an jeder räumlichen Position von jedem Bezier-Koeffizienten (in Bezug auf die Mitte des Bildes) berechnet werden, und dann folgendes berechnet wird:
    Figure DE102013114631B4_0003
  • Die resultierende Ausgabe wird angewendet, indem der Fall-Off-Faktor mit jedem Koeffizienten der Kalibrierungs-Bezier-Oberfläche multipliziert wird, und kann wie folgt ausgedrückt werden: targetBezierSurface(i) = falloff(i)·calibrationBezierSurface(i)· BaseTargetSurface(i) / BaseCalibrationSurface(i).
  • Die Ausgabeoberflächen von dieser dritten und letzten Phase werden dazu verwendet, die Schattierungsprofile in dem Kameramodul in Abhängigkeit von der Bestimmung der Beleuchtungsquelle/n zu korrigieren. Beispielsweise werden, wenn einmal ein Bild eines Bildobjekts von dem Kameramodul aufgenommen worden ist, die Beleuchtungsquelle bzw. die Beleuchtungsquellen, die in dem Bildobjekt vorhanden ist/sind, (typischerweise über einen Prozess des Weißabgleichs) bestimmt. Wenn die vorhandene Beleuchtungsquelle bzw. die vorhandenen Beleuchtungsquellen einmal detektiert worden sind, werden die korrigierten Objektivschattierungsoberflächen, die den detektierten Beleuchtungsquelle(n) zugeordnet sind, referenziert, und die Koeffizienten der korrigierten Objektivschattierungsoberfläche werden auf die Pixelwerte angewendet, um Objektivschattierungseffekte zu korrigieren.
  • Demgemäß liefern Ausführungsformen der vorliegenden Erfindung, wie hierin beschrieben, eine effiziente Alternative zu herkömmlichen Herangehensweisen zum Ausführen einer automatisierten Objektivschattierungskalibrierung und -korrektur. Indem zu Beginn Basismessoberflächen für einen gesamten Modultyp bestimmt werden und eine aus einzelnen aufgenommenen Bildern erlangte, modulspezifische Kalibrierung angewendet wird, sind die verschiedenen Ausführungsformen der vorliegenden Erfindung in der Lage, die umfangreiche, mühsame und zeitintensive Kalibrierung für individuelle Module, die für herkömmliche Techniken typisch ist, wobei in aufgenommenen Bilddaten noch stets eine effektive Objektivschattierungskorrektur beibehalten wird.
  • Obwohl der Gegenstand in einer Sprache beschrieben worden ist, die für strukturelle Merkmale und/oder prozessgebundene Schritte spezifisch ist, so sollte verstanden werden, dass der in den beigefügten Ansprüchen definierte Gegenstand nicht notwendigerweise auf die oben beschriebenen spezifischen Merkmale oder Schritte begrenzt ist. Vielmehr sind die oben beschriebenen, spezifischen Merkmale und Schritte als beispielhafte Formen zum Implementieren der Ansprüche offenbart.

Claims (19)

  1. Ein Verfahren zum Ausführen einer Objektivschattierungskorrektur, wobei das Verfahren folgendes aufweist: Erzeugen einer Vielzahl von Basisoberflächenmessungen eines Kameramodultyps, wobei die Vielzahl der Basisoberflächenmessungen eine Basisoberflächenmessung für jede Lichtquelle aus einer Vielzahl von Lichtquellen aufweist; Messen eines Schattierungsprofils, das für jedes Kameramodul (101, 203) des Kameramodultyps spezifisch ist, um eine modulspezifische Kalibrierungsoberfläche zu berechnen; Erzeugen einer modulspezifischen, korrigierten Oberflächenmessung für jede Lichtquelle aus der Vielzahl von Lichtquellen, basierend auf der Vielzahl der Basisoberflächenmessungen des Kameramodultyps und der modulspezifischen Kalibrierungsoberfläche; und wobei jedes Kameramodul (102, 203) aus der Vielzahl von Kameramodulen (102, 203) betriebsfähig dafür ist, in einer mobilen Recheneinrichtung (200) verwendet zu werden.
  2. Das Verfahren gemäß Anspruch 1, ferner aufweisend: Erfassen eines Bildobjekts mit einem ersten Kameramodul (101, 203) aus der Vielzahl von Kameramodulen (101, 203); Ermitteln einer Lichtquelle in dem mittels des ersten Kameramodul (101, 203) erfassten Bildobjekts; und Anwenden der der ermittelten Lichtquelle zugeordneten, modulspezifischen, korrigierten Oberflächenmessung, um dem Bildobjekt zugeordnete Daten abzubilden.
  3. Das Verfahren gemäß Anspruch 1, wobei der Vorgang des Erzeugens einer Vielzahl von Basisoberflächenmessung offline und unabhängig von dem Messen eines für jedes Kameramodul (101, 203) des Kameramodultyps spezifischen Schattierungsprofils ausgeführt wird.
  4. Das Verfahren gemäß Anspruch 1, wobei jede der Vielzahl von Basisoberflächenmessungen in einem Datenspeicher (307) gespeichert wird, wobei der Datenspeicher (307) für einen Kameratreiber, der in einem Prozessor (305) ausgeführt wird und dazu ausgelegt ist, mit dem Kameramodul (101, 203) zu interagieren, abrufbar ist.
  5. Das Verfahren gemäß Anspruch 1, wobei eine Basisoberflächenmessung aus der Vielzahl von Basisoberflächenmessungen zumindest eines der Folgenden aufweist: eine Vielzahl von relativen Beleuchtungsstärke-Charakteristiken einer in dem Kameramodul (101, 203) umfassten Optik (103, 205); ein Profil eines Hauptstrahlwinkels eines in dem Kameramodul (101, 203) umfassten Sensors; eine Spektralempfindlichkeit eines in dem Kameramodul (101, 203) umfassten Infrarotfilters.
  6. Das Verfahren gemäß Anspruch 1, wobei der Vorgang des Erzeugens einer Vielzahl von Basisoberflächenmessungen folgendes aufweist: Erlangen einer Vielzahl von Kameramodulen (101, 203) des Kameramodultyps; Ermitteln eines Kalibrierungs-Beleuchtungsstärken-Datensatzes (403); Ermitteln eines Soll-Beleuchtungsstärken-Datensatzes für die Vielzahl der Beleuchtungsquellen (405); Erzeugen eines spektralen Scans für jedes Kameramodul (101, 203) mit einer Wellenlängenauflösung (407); Erzeugen einer Konfiguration für jedes Kameramodul (101, 203) basierend auf dem spektralen Scan (409); Erzeugen einer Vielzahl von Bildern unter einer Vielzahl von Bedingungen, die basierend auf dem Soll-Beleuchtungsstärken-Datensatz und dem Kalibrierungs-Beleuchtungsstärken-Datensatz (411) simuliert worden sind; und Bilden eines Mittelwerts aus der Vielzahl der Bilder der Vielzahl der Kameramodule (101, 203; 413).
  7. Das Verfahren gemäß Anspruch 6, wobei das Erzeugen der spektralen Scans des Kameramoduls (101, 203) aufweist: Scannen der Vielzahl der Kameramodule (101, 203) mit einem Monochromator.
  8. Das Verfahren gemäß Anspruch 6, wobei der Kalibrierungs-Beleuchtungsstärken-Datensatz einen spektralen Scan einer Kalibrierungs-Lichtquelle aufweist, der dazu verwendet wird, die Vielzahl der Kameramodule (101, 203) während einer Werkshallen-Kalibrierung zu messen.
  9. Das Verfahren gemäß Anspruch 8, wobei der Sollbeleuchtungsstärken-Datensatz einen spektralen Scan von jeder Lichtquelle aus der Vielzahl von Lichtquellen aufweist.
  10. Das Verfahren gemäß Anspruch 9, wobei das Erzeugen einer modulspezifischen, korrigierten Oberflächenmessung aufweist: Empfangen der modulspezifischen Kalibrierungsoberfläche (601); Empfangen eines Basisoberflächen-Messungs-Datensatzes, der dem Kalibrierungs-Beleuchtungsstärken-Datensatz (603) zugeordnet ist; Empfangen des Basisoberflächen-Messungs-Datensatzes, der einem Soll-Beleuchtungsstärken-Datensatz (605) zugeordnet ist; und Berechnen der modulspezifischen, korrigierten Oberflächenmessung für die Soll-Lichtquelle, basierend auf der modulspezifischen Kalibrierungs-Oberfläche (607), wobei der Basisoberflächen-Messungs-Datensatz dem Kalibrierungs-Beleuchtungsstärken-Datensatz zugeordnet ist und der Basisoberflächen-Messungs-Datensatz dem Soll-Beleuchtungsstärken-Datensatz zugeordnet ist.
  11. Das Verfahren gemäß Anspruch 10, wobei die modulspezifische Kalibrierungs-Oberfläche eine Schattierungskorrektur-Oberflächenmessung nach Bezier aufweist, wobei ferner das Messen eines für jedes Kameramodul (101, 203) aus dem Kameramodultyp spezifischen Schattierungsprofils das Erzeugen der Schattierungs-Korrektur-Oberflächen nach Bezier für das Kameramodul (101, 203) unter der Kalibrierungs-Lichtquelle aufweist.
  12. Das Verfahren gemäß Anspruch 11, wobei das Messen eines für jedes Kameramodul (101, 203) spezifischen Schattierungsprofils während der Werkshallen-Kalibrierung des Kameramoduls (101, 203) ausgeführt wird.
  13. Das Verfahren gemäß Anspruch 11, wobei das Erzeugen der Schattierungskorrekturoberfläche nach Bezier aufweist: Empfangen, als Eingabe, eines Bildes einer gleichförmigen Flachfeld-Bildobjekts, das mit dem Kameramodul (101, 203) erfasst worden ist, wobei das Bild des gleichförmigen Flachfeld-Bildobjekts eine Vielzahl von Pixeln aufweist, wobei jeder Pixel aus der Vielzahl von Pixeln einen Pixelwert für jeden aus einer Vielzahl von Farbkanälen aufweist.
  14. Das Verfahren gemäß Anspruch 13, wobei das Schattierungsprofil eines Kameramoduls (101, 203) einen Intensitätsgradienten für jeden der Vielzahl von Farbkanälen aufweist.
  15. Das Verfahren gemäß Anspruch 13, wobei das Erzeugen der Schattierungskorrekturoberfläche nach Bezier folgendes aufweist: Empfangen des Schattierungsprofils des Kameramoduls (101, 203); Erzeugen einer Vielzahl von Korrekturoberflächen, basierend auf dem Schattierungsprofil, wobei jede Korrekturoberfläche aus der Vielzahl von Korrekturoberflächen einem Farbkanal aus der Vielzahl von Farbkanälen zugeordnet ist; und Berechnen einer Bezier-Koeffizienten-Darstellung der Vielzahl von Korrekturoberflächen.
  16. Das Verfahren gemäß Anspruch 15, wobei das Erzeugen einer Vielzahl von Korrekturoberflächen folgendes aufweist: Auffinden eines Maximalwerts in jedem Farbkanal aus der Vielzahl der Farbkanäle; und für jeden Pixel aus einer Vielzahl von Pixeln, Dividieren des Maximalwerts durch den Farbwert des Pixels.
  17. Das Verfahren gemäß Anspruch 15, wobei das Berechnen einer Bezier-Koeffizienten-Darstellung für die Vielzahl der Korrekturoberflächen folgendes aufweist: Teilen von jeder Korrekturoberfläche in eine Vielzahl von Unterteilungen; Ausführen einer Optimierung nach kleinsten Quadraten in jeder der Vielzahl der Unterteilungen; und Ermitteln eines Satzes von Bezier-Koeffizienten aus den Optimierungen nach kleinsten Quadraten.
  18. Das Verfahren gemäß Anspruch 17, wobei das Berechnen der modulspezifischen, korrigierten Oberflächenmessung für die Soll-Lichtstärke für jeden von dem Satz von Bezier-Koeffizienten ausgeführt wird.
  19. Das Verfahren gemäß Anspruch 18, wobei das Berechnen der modulspezifischen, korrigierten Oberflächenmessung für die Soll-Lichtquelle folgendes aufweist: Erzeugen eines symmetrischen Schattierungsprofils, das an eine Vielzahl von räumlichen Positionen, die dem Satz der Bezier-Koeffizienten zugeordnet sind, angepasst ist; Berechnen einer Vielzahl von Fall-Off-Faktoren, die dem Satz von Bezier-Koeffizienten zugeordnet sind; und Multiplizieren von jedem Bezier-Koeffizient aus dem Satz von Bezier-Koeffizienten mit einem entsprechenden Fall-Off-Faktor aus der Vielzahl von Fall-Off-Faktoren, wobei das Berechnen einer Vielzahl von dem Satz von Bezier-Koeffizienten zugeordneten Fall-Off-Faktoren das Berechnen eines quadrierten Radius an einer räumlichen Position für jeden Bezier-Koeffizient aus dem Satz von Bezier-Koeffizienten relativ zu einer Mitte des Bildes umfasst.
DE102013114631.7A 2012-12-31 2013-12-20 Kalibrierung der Objektivschattierung für Kameras Active DE102013114631B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/732,211 2012-12-31
US13/732,211 US9451187B2 (en) 2012-12-31 2012-12-31 Lens shading calibration for cameras

Publications (2)

Publication Number Publication Date
DE102013114631A1 DE102013114631A1 (de) 2014-07-03
DE102013114631B4 true DE102013114631B4 (de) 2017-05-24

Family

ID=50928593

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013114631.7A Active DE102013114631B4 (de) 2012-12-31 2013-12-20 Kalibrierung der Objektivschattierung für Kameras

Country Status (3)

Country Link
US (1) US9451187B2 (de)
DE (1) DE102013114631B4 (de)
TW (1) TWI556645B (de)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9699428B2 (en) * 2013-09-09 2017-07-04 Apple Inc. Lens shading modulation
US9300888B2 (en) * 2013-10-03 2016-03-29 Amlogic Co., Ltd. Methods and systems for lens shading correction
KR102159991B1 (ko) * 2013-12-27 2020-09-25 삼성전자주식회사 렌즈 쉐이딩 보정 방법, 그것을 이용하는 영상 신호 처리 장치 및 이미지 센서 시스템
US10904535B2 (en) 2017-04-01 2021-01-26 Intel Corporation Video motion processing including static scene determination, occlusion detection, frame rate conversion, and adjusting compression ratio
US11054886B2 (en) 2017-04-01 2021-07-06 Intel Corporation Supporting multiple refresh rates in different regions of panel display
US10882453B2 (en) 2017-04-01 2021-01-05 Intel Corporation Usage of automotive virtual mirrors
US10506255B2 (en) 2017-04-01 2019-12-10 Intel Corporation MV/mode prediction, ROI-based transmit, metadata capture, and format detection for 360 video
US10506196B2 (en) 2017-04-01 2019-12-10 Intel Corporation 360 neighbor-based quality selector, range adjuster, viewport manager, and motion estimator for graphics
US10453221B2 (en) 2017-04-10 2019-10-22 Intel Corporation Region based processing
US10638124B2 (en) 2017-04-10 2020-04-28 Intel Corporation Using dynamic vision sensors for motion detection in head mounted displays
US10574995B2 (en) 2017-04-10 2020-02-25 Intel Corporation Technology to accelerate scene change detection and achieve adaptive content display
US10587800B2 (en) 2017-04-10 2020-03-10 Intel Corporation Technology to encode 360 degree video content
US10547846B2 (en) 2017-04-17 2020-01-28 Intel Corporation Encoding 3D rendered images by tagging objects
US10726792B2 (en) 2017-04-17 2020-07-28 Intel Corporation Glare and occluded view compensation for automotive and other applications
US10623634B2 (en) 2017-04-17 2020-04-14 Intel Corporation Systems and methods for 360 video capture and display based on eye tracking including gaze based warnings and eye accommodation matching
US10456666B2 (en) 2017-04-17 2019-10-29 Intel Corporation Block based camera updates and asynchronous displays
US10402932B2 (en) 2017-04-17 2019-09-03 Intel Corporation Power-based and target-based graphics quality adjustment
US10565964B2 (en) 2017-04-24 2020-02-18 Intel Corporation Display bandwidth reduction with multiple resolutions
US10908679B2 (en) 2017-04-24 2021-02-02 Intel Corporation Viewing angles influenced by head and body movements
US10979728B2 (en) 2017-04-24 2021-04-13 Intel Corporation Intelligent video frame grouping based on predicted performance
US10158833B2 (en) 2017-04-24 2018-12-18 Intel Corporation High dynamic range imager enhancement technology
US10525341B2 (en) 2017-04-24 2020-01-07 Intel Corporation Mechanisms for reducing latency and ghosting displays
US10939038B2 (en) 2017-04-24 2021-03-02 Intel Corporation Object pre-encoding for 360-degree view for optimal quality and latency
US10424082B2 (en) 2017-04-24 2019-09-24 Intel Corporation Mixed reality coding with overlays
US10643358B2 (en) 2017-04-24 2020-05-05 Intel Corporation HDR enhancement with temporal multiplex
US10475148B2 (en) 2017-04-24 2019-11-12 Intel Corporation Fragmented graphic cores for deep learning using LED displays
DE102020107965B3 (de) 2020-03-23 2021-09-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Verfahren zur optischen Bestimmung einer Intensitätsverteilung
TWI802831B (zh) * 2020-12-14 2023-05-21 大陸商北京集創北方科技股份有限公司 特徵圖像擴展方法及利用其之控制晶片和觸控顯示裝置及手持裝置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100165144A1 (en) * 2008-12-31 2010-07-01 Ji Soo Lee Scene illumination adaptive lens shading correction for imaging devices
US20100265358A1 (en) * 2009-04-16 2010-10-21 Nvidia Corporation System and method for image correction
US20100271503A1 (en) * 2009-04-24 2010-10-28 Ati Technologies Ulc Digital Camera Module White Balance Calibration Method and Apparatus Using Only Single Illumination Source Data
US20110058072A1 (en) * 2008-05-22 2011-03-10 Yu-Wei Wang Camera sensor correction
US20120314086A1 (en) * 2011-06-08 2012-12-13 Apple Inc. Camera test and calibration based on spectral monitoring of light

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7961973B2 (en) * 2004-09-02 2011-06-14 Qualcomm Incorporated Lens roll-off correction method and apparatus
JP5163319B2 (ja) 2008-06-30 2013-03-13 ソニー株式会社 画像信号補正装置、撮像装置、画像信号補正方法、およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110058072A1 (en) * 2008-05-22 2011-03-10 Yu-Wei Wang Camera sensor correction
US20100165144A1 (en) * 2008-12-31 2010-07-01 Ji Soo Lee Scene illumination adaptive lens shading correction for imaging devices
US20100265358A1 (en) * 2009-04-16 2010-10-21 Nvidia Corporation System and method for image correction
US20100271503A1 (en) * 2009-04-24 2010-10-28 Ati Technologies Ulc Digital Camera Module White Balance Calibration Method and Apparatus Using Only Single Illumination Source Data
US20120314086A1 (en) * 2011-06-08 2012-12-13 Apple Inc. Camera test and calibration based on spectral monitoring of light

Also Published As

Publication number Publication date
US9451187B2 (en) 2016-09-20
DE102013114631A1 (de) 2014-07-03
TWI556645B (zh) 2016-11-01
US20140184813A1 (en) 2014-07-03
TW201444367A (zh) 2014-11-16

Similar Documents

Publication Publication Date Title
DE102013114631B4 (de) Kalibrierung der Objektivschattierung für Kameras
US7692700B2 (en) Vignetting compensation
DE102019106252A1 (de) Verfahren und System für Lichtquellenschätzung zur Bildverarbeitung
CN103220482B (zh) 一种全自由度调整投影画面位置及尺寸的方法
CN111256826B (zh) 显示屏色度测量方法、装置及终端设备
Vora et al. Digital color cameras—2—Spectral response
US8619153B2 (en) Radiometric calibration using temporal irradiance mixtures
CN108074517A (zh) 逐点校正方法
DE112013005127T5 (de) Bildgebendes Hochpräzisions-Kolorimeter durch Closed-Loop-Kalibrierung mit speziell entworfenen Mustern, gestützt durch einen Spektrographen
CN1829291A (zh) 感测设备、感测能量场的方法以及照相机
DE102014226941A1 (de) Vergrößernde Beobachtungsvorrichtung, vergrößerndes Bildbeobachtungsverfahren und computer-lesbares Aufzeichnungsmedium
US8976240B2 (en) Spatially-varying spectral response calibration data
US20070177230A1 (en) Methods and apparatuses for determining a color calibration for different spectral light inputs in an imaging apparatus measurement
DE112013006596T5 (de) Bildverarbeitungsvorrichtung, Bildaufnahmevorrichtung, Bildverarbeitungsverfahren und Programm
DE102005048240A1 (de) Verfahren zur spektralen, integrierten Kalibrierung eines Bildsensors mittels monochromatischer Lichtquellen
US6922483B2 (en) Methods for measuring DMD low frequency spatial uniformity
CN109738069B (zh) 多光谱成像照明空间非均匀性校正的方法
Koten et al. Automatic video system for continues monitoring of the meteor activity
DE102022108348A1 (de) Bildfarbkorrektursysteme und verfahren
CN108267426B (zh) 基于多光谱成像的绘画颜料识别系统及方法
US7773257B2 (en) Color metric for halo artifacts
Kuhna et al. Method for evaluating tone mapping operators for natural high dynamic range images
DE102014112285A1 (de) Verfahren zum Korrigieren einer Farbwiedergabe eines digitalen Mikroskops sowie digitales Mikroskop
Sur et al. Measuring the noise of digital imaging sensors by stacking raw images affected by vibrations and illumination flickering
Brady et al. Camera calibration for natural image studies and vision research

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: KRAUS & WEISERT PATENTANWAELTE PARTGMBB, DE

R018 Grant decision by examination section/examining division
R020 Patent grant now final
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005235000

Ipc: H04N0023700000