-
HINTERGRUND
-
Technisches Gebiet
-
Vorliegende Erfindung betrifft allgemein tragbare Geräte und insbesondere ein verbessertes Verfahren zum Aufnehmen eines Bildes mit hohem Dynamikumfang mit zwei Kameras, die zusammenarbeiten.
-
Beschreibung des Standes der Technik
-
Moderne tragbare Kommunikationsgeräte wie beispielsweise Mobiltelefone sind mit einer Kamera ausgestattet, die zum Aufnehmen von Bildern mit hohem Dynamikumfang (HDR-Bildern) verwendet werden kann. Ein HDR-Bild lässt sich erstellen, indem eine Mehrzahl von Standardbildern mit einer für jedes der aufeinanderfolgenden Bilder unterschiedlichen Belichtungszeit aufgenommen wird. Da aber die Standardbilder der Reihe nach aufgenommen werden, kann jede Bewegung in der Szene zwischen Einzelbildern zu einer Unschärfe in dem fertigen HDR-Bild führen und/oder eine Kombination der Standardbilder unmöglich machen. Hinzu kommt, dass vorhandene HDR-Lösungen gegebenenfalls erfordern, dass ein Benutzer eine HDR-Option manuell aktiviert, bevor HDR-Bilder aufgenommen werden können. Viele HDR-Lösungen erfordern darüber hinaus, dass eine aktuelle Szene analysiert wird, um zu bestimmen, ob ein Dynamikumfang der Szene über einem bestimmten Schwellenwert liegt, bevor ein HDR-Bild aufgenommen werden kann. Liegt der Dynamikumfang der Szene nicht über dem bestimmten Schwellenwert, können nur Standardbilder aufgenommen werden.
-
CN 106 131 449 A beschreibt ein Fotografieverfahren mit einem mobilen Endgerät das zwei Kameras umfasst. Das Verfahren enthält ein Vorschaubild und verwendet dieses zum Bestimmen einer lokalen Zielbelichtungsregion. Basierend auf der lokalen Zielbelichtungsregion wird ein Zielbelichtungsparameter entsprechend der lokalen Zielbelichtungsregion berechnet. Die erste Kamera und die zweite Kamera führen die Belichtung aus entsprechend einem voreingestellten automatischen Belichtungsparameter und dem Zielbelichtungsparameter, um ein erstes Bild und ein zweites Bild zu erzeugen. Ein Zielbild wird erzeugt, indem ein Bildsyntheseverfahren auf das erste und zweite Bild angewandt wird.
-
Figurenliste
-
Ausführungsbeispiele der Erfindung werden nachstehend im Zusammenhang mit den anliegenden Zeichnungen beschrieben. Es versteht sich, dass in den Figuren gezeigte Elemente im Hinblick auf eine einfache und übersichtliche Darstellung nicht notwendigerweise maßstabsgetreu sind. So können beispielsweise die Dimensionen von einigen Elementen im Vergleich zu anderen Elemente übertrieben sein. Ausführungsformen, die Lehren der vorliegenden Erfindung enthalten, werden unter Bezugnahme auf die Figuren erläutert. In den Figuren zeigt:
- 1 ein tragbares Gerät, in welchem bestimmte Aspekte der vorliegenden Erfindung ausgeführt sein können, gemäß einer oder mehreren Ausführungsformen;
- 2 ein Beispiel eines tragbaren Geräts, das konfiguriert ist für die Generierung eines HDR-Bildes aus Einzelbildern, die von mehreren Kameras gleichzeitig aufgenommen werden, gemäß einer oder mehreren Ausführungsformen;
- 3 ein Flussdiagramm zur Darstellung eines Verfahrens zum Generieren eines HDR-Bildes aus Einzelbildern, die von mehreren Kameras gleichzeitig aufgenommen werden, gemäß einer oder mehreren Ausführungsformen; und
- 4 ein Flussdiagramm zur Darstellung eines Verfahrens zum Berechnen eines Belichtungskompensationswerts, der einer aktuellen Stufe des Dynamikumfangs einer aktuellen Szene entspricht, gemäß einer oder mehreren Ausführungsformen.
-
DETAILBESCHREIBUNG
-
Durch Ausführungsbeispiele der vorliegenden Erfindung werden ein Verfahren, ein System und ein Computerprogrammprodukt angegeben zum Generieren eines Bildes mit hohem Dynamikumfang (HDR-Bildes) aus einer Mehrzahl von Einzelbildern, die von Kameras eines tragbaren Geräts aufgenommen werden. Das Verfahren umfasst das Erfassen einer aktuellen Stufe des Dynamikumfangs einer aktuellen Szene durch eine Hauptkamera. Die Stufe des Dynamikumfangs beschreibt einen Prozentanteil von dunklen Bereichen und hellen Bereichen in der Szene. In Reaktion auf die Erfassung der aktuellen Stufe des Dynamikumfangs wird der Hauptkamera ein Hauptkamera-Belichtungskompensationswert zugewiesen, und ein Hilfskamera-Belichtungskompensationswert, der sich von dem Hauptkamera-Belichtungskompensationswert unterscheidet, wird wenigstens einer Hilfskamera zugewiesen. Das Verfahren umfasst ferner das gleichzeitige Aufnehmen eines ersten Einzelbildes mit der Hauptkamera und mindestens eines zweiten Einzelbildes mit wenigstens einer Hilfskamera. Weiterhin umfasst das Verfahren das Kombinieren des ersten Einzelbildes und des wenigstens einen zweiten Einzelbildes zum Erzeugen eines HDR-Bildes.
-
Die vorstehenden Ausführungen sind nicht als umfassende Beschreibung des Gegenstands der vorliegenden Erfindung gedacht, sondern sollen vielmehr einen kurzen Überblick über einige damit verbundene Funktionen geben. Aus diesem Grund enthalten die vorstehenden Ausführungsformen Vereinfachungen und Verallgemeinerungen, und einige Details wurden weggelassen. Die vorstehenden sowie weitere Systeme, Verfahren, Funktionen, Merkmale und Vorteile des beanspruchten Gegenstands erschließen sich dem Fachmann aus der nachstehenden Detailbeschreibung im Zusammenhang mit den anliegenden Zeichnungsfiguren.
-
In der nachstehenden Beschreibung werden bestimmte Ausführungsbeispiele für eine praktische Umsetzung der Erfindung durch den Fachmann ausreichend detailliert beschrieben. Dabei werden zum Beispiel bestimmte Details wie eine bestimmte Reihenfolge des Verfahrensablaufs, bestimmte Strukturen, Elemente und Verbindungen dargestellt. Es versteht sich jedoch, dass die dargestellten speziellen Details nicht verwendet werden müssen, um die Ausführungsformen der vorliegenden Erfindung praktisch umzusetzen. Ebenso versteht es sich, dass andere Ausführungsformen verwendet werden können und dass Änderungen hinsichtlich Logik und Architektur sowie programmbezogene, mechanische, elektrische und andere oder weitere Änderungen vorgenommen werden können, ohne den allgemeinen Rahmen der Erfindung zu verlassen. Die Erfindung wird durch die nachstehende Detailbeschreibung nicht eingeschränkt. Vielmehr wird der Schutzumfang der vorliegenden Erfindung durch die anliegenden Ansprüche und deren Äquivalente definiert.
-
Sofern in der Beschreibung auf „eine Ausführungsform“ (Zahladverb), „eine Ausführungsform“ (unbestimmter Artikel), „Ausführungsformen“ oder „eine oder mehrere Ausführungsformen“ Bezug genommen wird, soll damit zum Ausdruck gebracht werden, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder eine bestimmte charakteristische Eigenschaft in Verbindung mit der Ausführungsform in wenigstens einer Ausführungsform der vorliegenden Erfindung enthalten sind. Sofern solche Wendungen an verschiedenen Stellen in der Beschreibung erscheinen, beziehen sich diese nicht notwendigerweise auf dieselbe Ausführungsform. Ebensowenig schließen sich separate oder alternative Ausführungsformen und andere oder weitere Ausführungsformen nicht gegenseitig aus. Ähnlich werden verschiedene Aspekte beschrieben, die für einige Ausführungsformen Gültigkeit haben, für andere hingegen nicht.
-
Die in der nachstehenden Beschreibung verwendete Terminologie dient zur Beschreibung von bestimmten Ausführungsformen. Die Erfindung wird dadurch nicht eingeschränkt. Werden Singularformen wie „ein/e/r/s“ und „der/die/das“ verwendet, sollen diese auch Pluralformen einschließen, sofern aus dem Kontext nicht eindeutig das Gegenteil hervorgeht. Es versteht sich ferner, dass die Begriffe „umfasst“ und/oder „umfassend“ in der vorliegenden Beschreibung zum Ausdruck bringen, dass genannte Merkmale, Ganzzahlen, Schritte, Aktionen, Elemente und/oder Komponenten vorhanden sind, ohne jedoch auszuschließen, dass noch ein weiteres oder mehrere weitere Merkmale, Ganzzahlen, Schritte, Aktionen, Elemente, Komponenten und/oder Gruppen derselben vorhanden sind. Begriffe wie erste/r/s, zweite/r/s etc. drücken vorliegend keine Ordnung oder Rangfolge aus, sondern dienen lediglich zur Unterscheidung eines Elements von einem anderen oder weiteren Element.
-
Es versteht sich, dass die Verwendung von bestimmten Bezeichnungen für eine Komponente, ein Gerät und/oder einen Parameter und/oder deren Abkürzungen, zum Beispiel für die Ausführung eines Dienstprogramms, für eine Logik und/oder Firmware in der vorliegenden Beschreibung lediglich Beispiele sind und keine Einschränkung der beschriebenen Ausführungsformen darstellen. Die Ausführungsformen können daher mit einer anderen Nomenklatur oder Terminologie für die Bezeichnung der Komponenten, Geräte, Parameter, Verfahren und/oder Funktionen beschrieben werden, ohne jede Einschränkung. Sofern bei der Beschreibung von einem oder mehreren Elementen, Merkmalen oder Konzepten der Ausführungsformen auf ein bestimmtes Protokoll oder einen bestimmten Markennamen Bezug genommen wird, geschieht dies lediglich im Rahmen eines Beispiels einer Implementierung, ohne Einschränkung der Erstreckung der beanspruchten Ausführungsformen auf Ausführungsformen, in denen andere Element-, Merkmals-, Protokoll- oder Konzeptbezeichnungen verwendet werden. Aus diesem Grund sollte jeder Begriff, der in der vorliegenden Beschreibung verwendet wird, innerhalb des Kontexts, in dem der Begriff verwendet wird, so breit wie möglich ausgelegt werden.
-
Der Fachmann wird erkennen, dass die in den anliegenden Zeichnungsfiguren dargestellten Hardwarekomponenten und Basiskonfigurationen variieren können. Zum Beispiel sind die Beispielkomponenten in dem tragbaren Gerät 100 nicht erschöpfend, sondern heben lediglich Komponenten hervor, die für die Implementierung der vorliegenden Erfindung verwendet werden können. Zusätzlich zu den oder anstelle der dargestellten Hardware können zum Beispiel andere Geräte/Komponenten verwendet werden. Das dargestellte Beispiel soll weder die Architektur der beschriebenen Ausführungsformen noch die Offenbarung allgemein einschränken.
-
Bei der Beschreibung der verschiedenen Ansichten der Zeichnungsfiguren werden durchgehend die gleichen Bezugszeichen und/oder Symbole für die gleichen oder identischen Elemente verwendet. Die speziellen Kennzeichnungen oder Bezugszeichen, die den Elementen zugeordnet sind, sind nicht im Sinne einer Einschränkung (weder in der Funktion noch anderweitig) der beschriebenen Ausführungsformen zu verstehen.
-
Es wird nunmehr auf 1 Bezug genommen, in der ein tragbares Gerät 100 dargestellt ist, in welchem eines oder mehrere der beschriebenen Merkmale der verschiedenen Ausführungsformen der vorliegenden Erfindung realisiert sein können. In einer Ausführungsform kann das tragbare Gerät 100 ein beliebiges tragbares Geräts ein, das mit wenigstens zwei Kameras ausgestattet ist. Ein Beispiel eines tragbaren Geräts kann unter anderem ein Notebook-Computer, ein Mobiltelefon, eine Digitalkamera, ein Videorekorder oder ein Tablet-Computer sein, ohne Beschränkung hierauf. Das tragbare Gerät 100 enthält mindestens einen Prozessor oder eine zentrale Verarbeitungseinheit (CPU = Central Processing Unit) 104. Die CPU 104 ist mit einem nichtflüchtigen Speicher 120 und mit einem Systemspeicher 110 verbunden, in denen Firmware 112, ein Betriebssystem (OS = Operating System) 116, ein Mehrfachkamera-HDR-Dienstprogramm (MCHU = Multi-Camera HDR Utility) 117 und Anwendungen 118 für die Ausführung in der CPU 104 gespeichert sein können. Gemäß einem Aspekt wird das MHCU 117 in dem tragbaren Gerät 100 ausgeführt, um die vorliegend beschriebenen verschiedenen Verfahren und Funktionen durch- bzw. auszuführen. In einer oder in mehreren Ausführungsformen nimmt das MCHU 117 mit einer ersten Kamera und mindestens einer Hilfskamera gleichzeitig Einzelbilder auf und kombiniert die Einzelbilder zum Erstellen eines HDR-Bildes. Der Einfachheit halber ist das MHCU 117 als eigenständige oder separate Software/Firmware/Logik-Komponente dargestellt und beschrieben, die die nachstehend beschriebenen Funktionen und Verfahren bereitstellt. In zumindest einer Ausführungsform kann das MHCU 117 jedoch eine Komponente der Firmware 112 oder der OS 116 sein oder kann mit dieser kombiniert oder in diese und/oder eine oder mehrere Anwendungen 118 integriert sein.
-
Wie dargestellt ist, kann das tragbare Gerät 100 Eingabevorrichtungen und Ausgabevorrichtungen aufweisen, die für einen Benutzer eine Schnittstelle zu dem tragbaren Gerät 100 bilden. In der dargestellten Ausführungsform hat das tragbare Gerät mindestens zwei Kameras 142a-n, ein Kamerablitzlicht (Kamerablitzlichter) 146, ein Display 145, Hardware-Tasten 106a-n, ein Mikrophon (Mikrophone) 108 und einen (mehrere) Lautsprecher 144. Während zwei Kameras (die Kameras 142a-n) gezeigt sind, kann das Gerät in einer oder in mehreren Ausführungsformen des tragbaren Geräts 100 weitere Kameras enthalten. Die Hardware-Tasten 106a-n sind wählbare Tasten, die für eine manuelle/taktile Eingabe durch einen Benutzer benutzt werden, um spezifische Prozesse des tragbaren Geräts 100 und/oder auf dem Gerät ausgeführte Anwendungen zu steuern. In einer Ausführungsform können die Hardware-Tasten 106a-n auch einen oder mehrere Sensoren enthalten (z.B. Fingerabdrucksensoren) oder können mit diesen verbunden sein und/oder können druckempfindlich sein. Die Hardware-Tasten 106a-n können auch einer oder mehreren Funktionen einer graphischen Benutzerschnittstelle (nicht gezeigt) und/oder Funktionen eines OS, einer Anwendung oder einer Hardware des tragbaren Geräts 100 direkt zugeordnet sein. In einer Ausführungsform können die Hardware-Tasten 106a-n eine Tastatur umfassen. Ein Mikrophon (oder Mikrophone) 108 kann (können) verwendet werden, um Spracheingaben/Sprachbefehle von einem Benutzer zu empfangen. Für eine Audioausgabe wird ein Lautsprecher oder werden mehrere Lautsprecher 144 benutzt.
-
Die CPU(s) 104 ist(sind) ebenfalls mit den Sensoren 122a-n und dem Display 145 verbunden. Die Sensoren 122a-n können unter anderem und ohne Beschränkung hierauf umfassen: zumindest einen von Infrarotsensoren (IR-Sensoren), Wärmesensoren, Lichtsensoren, Näherungssensoren, Kamera/Bild-Sensoren, Beschleunigungsmessern, Gyroskopen, Magnetometern, Mikrophonen, Barometern, Luftfeuchtigkeitsfühlern, Schrittzählern, Herzfrequenzmonitoren, Fingerabdrucksensoren, Strahlungssensoren oder Iris-Scannern. Das Display 145 kann Text anzeigen, Medieninhalt und/oder graphische Benutzerschnittstellen (GUI = Graphical User Interface) von Firmware und/oder eine oder mehrere Anwendungen, die auf dem tragbaren Gerät 100 ausgeführt werden. Die GUI kann in einer Ausführungsform durch die CPU 104 für die Betrachtung auf dem Display 145 gerendert werden oder kann in einer anderen Ausführungsform durch eine Graphikverarbeitungseinheit (GPU = Graphics Processing Unit) gerendert werden. In einer Ausführungsform ist das Display 145 ein Berührungsbildschirm, der auch geeignet ist für den Empfang einer Berührungseingabe von einem Benutzer des tragbaren Geräts 100, wenn der Benutzer mit einer angezeigten GUI interagiert. Zumindest in einer Ausführungsform kann das tragbare Gerät 100 eine Mehrzahl von virtuellen Tasten oder Angriffspunkten aufweisen, die zusätzlich zu den oder anstelle der Hardware-Tasten 106a-n wirksam sind. Zum Beispiel kann das tragbare Gerät 100 mit einer Berührungsbildschirm-Schnittstelle ausgestattet sein und über eine GUI eine virtuelle Tastatur oder andere virtuelle Symbole für eine Interaktion mit dem Benutzer bereitstellen. In zumindest einer Ausführungsform kann das tragbare Gerät 100 eine Mehrzahl von virtuellen Tasten oder Angriffspunkten aufweisen, die zusätzlich zu den oder anstelle der Hardware-Tasten 106a-n wirksam sind.
-
Das tragbare Gerät 100 enthält auch eine Batterie 134, eine Ladeschaltung 136 und einen seriellen Port 132 (z.B. einen USB = Universal Serial Bus-Port), der als Lade-Port wirken kann, der Strom über eine externe Ladevorrichtung (nicht gezeigt) zum Laden der Batterie 134 bezieht. Der serielle Port 132 kann auch die Funktion eines Eingangs-Ports, eines Ausgangs-Ports und eines kombinierten Eingangs/Ausgangs-Ports übernehmen. Der serielle Port 132 stellt auch eine physikalische Schnittstelle zwischen der Ladeschaltung 136 und einer externen Ladevorrichtung (nicht gezeigt) zum Laden der Batterie 134 bereit. Die Batterie 134 kann eine einzelne Batterie oder mehrere Batterien umfassen, um die Komponenten des tragbaren Geräts 100 mit Strom zu versorgen. In einer Ausführungsform kann die Batterie 134 mindestens eine Batterie umfassen, die entfernbar ist und/oder durch einen Endnutzer ersetzt werden kann. In einer weiteren Ausführungsform kann die Batterie 134 mindestens eine Batterie umfasst, die dauerhaft an dem tragbaren Gerät 100 befestigt ist.
-
Das tragbare Gerät 100 kann auch ein oder mehrere drahtlose Funkeinrichtungen 140a-n enthalten und kann eine oder mehrere Antennen 148a-n enthalten, die dem tragbaren Gerät 100 eine drahtlose Verbindung zu einem oder mehreren anderen Geräten wie beispielsweise Geräten 152a-n und einem Server 154 ermöglichen sowie das Senden und Empfangen von Sprachmitteilungen und/oder eine Datenkommunikation zu/von diesem Gerät oder diesen Geräten. Als drahtloses Gerät kann das tragbare Gerät 100 Daten über ein drahtloses Netzwerk 150 (z.B. ein Wi-Fi-Netzwerk, ein zellulares Netzwerk, ein Bluetooth®-Netzwerk (einschließlich Bluetooth® Low Energy (BLE)-Netzwerke), ein drahtloses Ad-hoc-Netzwerk (WANET) oder ein persönliches Netzwerk (PAN = Personal Area Network)) übertragen. In einer Ausführungsform kann das tragbare Gerät 100 ferner mit einer Infrarot-Einrichtung (IR-Einrichtung) (nicht gezeigt) versehen sein, zum Kommunizieren mit anderen Geräten, die eine IR-Verbindung nutzen. In einer weiteren Ausführungsform können die drahtlosen Funkeinrichtungen 140a-n ein drahtloses Gerät mit kurzer Reichweite umfassen, unter anderem ein Nahfeld-Kommunikationsgerät (NFC = Gerät). In einer noch weiteren Ausführungsform kann das tragbare Gerät 100 durch eine drahtgebundene oder drahtlose USB-Verbindung mit einem oder mehreren Geräten kommunizieren. In einer oder in mehreren Ausführungsformen können die Geräte 152a-n ein oder mehrere Zubehörelemente (z.B. das Zubehör 160) aufweisen.
-
2 zeigt in einem Blockdiagramm ein Beispiel eines tragbaren Geräts, das konfiguriert ist für die Generierung eines HDR-Bildes aus Einzelbildern, die von mehreren Kameras aufgenommen werden, gemäß einer oder mehreren Ausführungsformen der vorliegenden Erfindung. Wie dargestellt ist, umfasst das tragbare Gerät 100 eine (mehrere) CPU(s) 104, einen Speicher 110, eine Hauptkamera 142a und eine Hilfskamera 142n. Die CPU(s) 104 führt (führen) das MRU 117 aus. In einer oder in mehreren Ausführungsformen kann die Hilfskamera 142n mehrere Hilfskameras umfassen.
-
Die Hauptkamera 142a erfasst die aktuelle Stufe des Dynamikumfangs 204 der Szene 202. Gemäß einer Ausführungsform beschreibt die Stufe des Dynamikumfangs 204 einen Prozentanteil von dunklen Bereichen und hellen Bereichen in der Szene 202. In einer Ausführungsform analysiert eine Bildverarbeitungskomponente, die der Hauptkamera 142a zugeordnet ist, die Szene 202 und berechnet die aktuelle Stufe des Dynamikumfangs 204 der Szene in einem Bereich, zum Beispiel in einem Bereich von 0 (niedrig) bis 100 (hoch). In Reaktion auf diese Erfassung und basierend auf der aktuellen Stufe des Dynamikumfangs 204, berechnet (berechnen) die CPU(s) 104 gleichzeitig (1) einen Hauptkamera-Belichtungskompensationswert 206a für die Hauptkamera 142a und (2) einen Hilfskamera-Belichtungskompensationswert 206n für die Hilfskamera 142n. In der vorliegenden Beschreibung ist ein Belichtungskompensationswert eine reelle Zahl (ℝ), die basierend auf dem Öffnungsverhältnis der Kamera die Verschlusszeit festlegt. Höhere Belichtungskompensationswerte verkürzen die Verschlusszeit einer Kamera, während niedrigere Belichtungskompensationswerte (einschließlich Werte unter Null) die Verschlusszeit der Kamera verlängern.
-
Zum Bestimmen des Hauptkamera-Belichtungskompensationswerts 206a und des Hilfskamera-Belichtungskompensationswerts 206n liest (lesen) die CPU(s) 104 die aktuelle Stufe des Dynamikumfangs 204 aus der Hauptkamera 142a aus. Basierend auf der aktuellen Stufe des Dynamikumfangs 204 berechnet (berechnen) die CPU(s) 104 den Hauptkamera-Belichtungskompensationswert 206a und den Hilfskamera-Belichtungskompensationswert 206n. In einer Ausführungsform wird der Hauptkamera-Belichtungskompensationswert 206a für eine kürzere Belichtungszeit (z.B. einen Lichtwert (EV = Exposure Value) von -1,5) berechnet, um in der aktuellen Szene 202 durch die Hauptkamera 142a zumindest einen hellen und/oder übertriebenen Bereich in der Szene 202 aufzunehmen, und ein Hilfskamera-Belichtungskompensationswert 206n wird für eine längere Belichtungszeit (z.B. EV 2,0) berechnet, um durch die Hilfskamera 142n zumindest einen dunklen Bereich in der aktuellen Szene aufzunehmen. In einer weiteren Ausführungsform wird der Hauptkamera-Belichtungskompensationswert 206a für eine längere Belichtungszeit und der Hilfskamera-Belichtungskompensationswert 206n für eine kürzere Belichtungszeit berechnet. Die dem Hauptkamera-Belichtungskompensationswert 206a und dem Hilfskamera-Belichtungskompensationswert 206n zugeordnete Stufe basiert auf der aktuellen Stufe des Dynamikumfangs 204. In Reaktion auf die Bestimmung bzw. Feststellung, dass die aktuelle Stufe des Dynamikumfangs 204 einer Szene mit hohem Dynamikumfang entspricht, berechnet (berechnen) die CPU(s) 104 aggressive Belichtungskompensationswerte für den Hauptkamera-Belichtungskompensationswert 206a (z.B. einen Lichtwert (EV) von +2,0) und gleichzeitig für den Hilfskamera-Belichtungskompensationswert 206n (z.B. EV -1,5). In einem weiteren Beispiel berechnet (berechnen) die CPU(s) 104 in Reaktion auf die Bestimmung, dass die aktuelle Stufe des Dynamikumfangs 204 einer Szene mit moderatem Dynamikumfang entspricht, moderate Belichtungskompensationswerte für den Hauptkamera-Belichtungskompensationswert 206a (z.B. einen EV von +0,5) und für den Hilfskamera-Belichtungskompensationswert 206n (z.B. einen EV von -0,6). In einer oder in mehreren Ausführungsformen wendet (wenden) die CPU(s) 104 in Reaktion auf die Bestimmung, dass die aktuelle Stufe des Dynamikumfangs 204 einer Szene mit einem geringen und/oder flachen Dynamikumfang entspricht, einen Nullwert auf den Hauptkamera-Belichtungskompensationswert 206a an.
-
In Reaktion auf die Berechnung des Hauptkamera-Belichtungskompensationswerts 206a und des Hilfskamera-Belichtungskompensationswerts 206n berechnet (berechnen) die CPU(s) 104 (1) eine Hauptkamera-Belichtungszeit für die Hauptkamera 142a basierend auf dem berechneten Hauptkamera-Belichtungskompensationswert und (2) gleichzeitig eine Hilfskamera-Belichtungszeit für die Hilfskamera 142n basierend auf dem berechneten Hilfskamera-Belichtungskompensationswert. Die berechnete Belichtungszeit stellt eine Einstellung bzw. Anpassung und/oder Modifikation dar, die bei einer aktuellen Belichtungszeit einer entsprechenden Kamera anzuwenden ist, um dieser Kamera die ordnungsgemäße Aufnahme zumindest eines dunklen oder hellen Bereichs in der aktuellen Szene 202 basierend auf der aktuellen Stufe des Dynamikumfangs 204 zu ermöglichen.
-
Während in der dargestellten Ausführungsform zwei Kameras (die Kameras 142a-n) vorgesehen sind, können in einer oder in mehreren anderen Ausführungsformen mehr als zwei Kameras verwendet werden. Bei Verwendung von mehr als zwei Kameras für die Aufnahme von Einzelbildern einer Szene 202 wird basierend auf der aktuellen Stufe des Dynamikumfangs 204 ein Hilfskamera-Kompensationswert für jede Hilfskamera berechnet. Wenn beispielsweise die Hauptkamera 142a und drei Hilfskameras (Hilfskameras 142b-d) vorhanden sind, berechnet der Prozessor für eine Szene mit hohem Dynamikumfang einen Hauptkamera-Belichtungskompensationswert von EV +2,0 und Hilfskamera-Belichtungskompensationswerte 206b-d mit jeweiligen EV-Werten von -1,5, +0,5 und -0,6. Durch die Erstellung von Berechnungen von Belichtungskompensationswerten, die sowohl kurze als auch lange Belichtungszeiten umfassen, wird der Dynamikumfang der Szene 202, die mit den Kameras 142a-d aufgenommen wird, vergrößert.
-
In einer oder in mehreren Ausführungsformen kann die Hauptkamera 142a die aktuelle Stufe des Dynamikumfangs 204 kontinuierlich überwachen. In einer oder in mehreren Ausführungsformen kann(können) die CPU(s) 104 den Hauptkamera-Belichtungskompensationswert 206a und den(die) Hilfskamera-Belichtungskompensationswert(e) 206n in Reaktion auf die Erfassung einer Änderung der aktuellen Stufe des Dynamikumfangs 204 dynamisch neu berechnen. Es sollte beachtet werden, dass in einer oder in mehreren Ausführungsformen das Bestimmen der aktuellen Stufe des Dynamikumfangs 204 und das Berechnen und Anwenden der Belichtungskompensationswerte 206a-n automatisch erfolgt und daher keine Ausführung einer Auslöselogik an dem tragbaren Gerät 100 oder einen Eingriff seitens des Benutzers erfordert.
-
Sobald der Hauptkamera-Belichtungskompensationswert 206a auf die Hauptkamera 142a angewendet wurde und sobald der(die) Hilfskamera-Belichtungskompensationswert(e) 206n auf die Hilfskamera(s) 142n angewendet wurde(n), sind die Kameras 142a-n einsatzbereit für die Aufnahme von Einzelbildern 208a-n der aktuellen Szene 202. In einer Ausführungsform nehmen die Kameras 142a-n zum Beispiel in Reaktion auf die Betätigung eines Auslösers (nicht gezeigt) der Kamera, welcher ein physikalischer Knopf (z.B. der Knopf 106a) oder eine virtueller Knopf sein kann, wie im Zusammenhang mit 1 näher erläutert, Einzelbilder 208a-n in einem Tandembetrieb auf. In Reaktion auf die Bestimmung, dass die Einzelbilder 208a-n aufzunehmen sind, nehmen die Kameras 142a das Einzelbild 208a mit einer ersten Belichtungszeit 212a und gleichzeitig die Hilfskamera(s) 142n das Einzelbild (die Einzelbilder) 208n mit einer Hilfsbelichtungszeit (Hilfsbelichtungszeiten) 212n auf. In einer Ausführungsform werden die aufgenommenen Einzelbilder 208a-n in einem Speicher 110 gespeichert.
-
In Reaktion auf die Aufnahme der Einzelbilder 208a-n ruft (rufen) die CPU(s) 104 die Einzelbilder 208a-n aus den Kameras 142a-n ab und kombinieren die Einzelbilder 208a-n zum Erstellen eines HDR-Bildes 210. In einer Ausführungsform wird das HDR-Bild 210 in dem Speicher 110 gespeichert. In einer oder in mehreren Ausführungsformen wird in Reaktion auf die Erstellung eines HDR-Bildes 210 das HDR-Bild 210 an ein Display (z.B. das Display 145) ausgegeben und/oder für eine Anwendung (z.B. die Anwendung 118) des tragbaren Geräts 100 bereitgestellt. In einer oder in mehreren Ausführungsformen können in Reaktion auf die Erstellung eines HDR-Bildes 210 Einzelbilder 208a-n aus dem Speicher 110 gelöscht werden.
-
Es wird auf 3 Bezug genommen. Diese zeigt ein High-Level-Flussdiagramm zur Darstellung eines Verfahrens zum Generieren eines HDR-Bildes aus Einzelbildern, die mit mehreren Kameras gleichzeitig aufgenommen werden, gemäß einer oder mehreren Ausführungsformen der vorliegenden Erfindung. Aspekte des Verfahrens werden mit Bezug auf die Komponenten der 1-2 beschrieben. Mehrere Prozesse des Verfahrens, das in 3 angegeben ist, können durch einen Prozessor (z.B. eine CPU 104) implementiert werden, der einen Softwarecode des MCHU 117 in einem tragbaren Gerät (z.B. in dem tragbaren Gerät 100) ausführt. Die in 3 dargestellten Prozesse des Verfahrens werden allgemein als solche beschrieben, die von einem tragbaren Gerät 100 ausgeführt werden.
-
Das Verfahren 300 beginnt an dem Initiator-Block 301 und führt dann zu Block 302. In Block 302 erfasst die Hauptkamera 142a die aktuelle Stufe des Dynamikumfangs (z.B. eine aktuelle Dynamikumfang-Stufe 204) einer aktuellen Szene (z.B. der Szene 202). In Reaktion auf die Erfassung der aktuellen Stufe des Dynamikumfangs 204 berechnet der Prozessor basierend auf der aktuellen Stufe des Dynamikumfangs 204 (1) einen Hauptkamera-Belichtungskompensationswert (z.B. den Belichtungskompensationswert 206a) für die Hauptkamera 142a (Block 304) und (2) gleichzeitig einen Hilfskamera-Belichtungskompensationswert (z.B. den Belichtungskompensationswert 206b-n) für jede Hilfskamera (z.B. die Kameras 142b-n) (Block 306). In Reaktion auf die Berechnung des Hauptkamera-Belichtungskompensationswerts und des Hilfsbelichtungskompensationswerts (der Hilfsbelichtungskompensationswerte) wendet der Prozessor (1) eine Hauptkamera-Belichtungszeit, die dem Hauptkamera-Belichtungskompensationswert zugeordnet ist, auf die Hauptkamera (Block 308) an und (2) gleichzeitig eine Hilfskamera-Belichtungszeit, die dem(den) berechneten Hilfsbelichtungskompensationswert(en) zugeordnet ist, auf jede Hilfskamera (Block 310) an.
-
In Block 312 bestimmt der Prozessor, ob die Einzelbilder 208a-n aufzunehmen sind (z.B. in Abhängigkeit von der Auslösung des Kameraverschlusses). In Reaktion auf die Bestimmung, dass die Einzelbilder 208a-n aufzunehmen sind, führt das Verfahren 300 weiter zu Block 314. In Reaktion auf die Bestimmung, dass die Einzelbilder 208a-n nicht aufgenommen werden sollen, kehrt das Verfahren 300 in einer Schleife zurück zu Block 302.
-
In Block 314 nimmt die Hauptkamera 142a ein erstes Einzelbild (z.B. das Einzelbild 208a) auf, und mindestens ein zweites Einzelbild (z.B. die Einzelbilder 208b-n) wird gleichzeitig von jeder Hilfskamera aufgenommen. In Reaktion auf den Empfang mehrerer gleichzeitig aufgenommener Einzelbilder 208a-n kombiniert der Prozessor die aufgenommenen Einzelbilder 208a-n zum Erstellen eines HDR-Bildes 210 (Block 316). In Block 318 wird das HDR-Bild 210 in dem Speicher des tragbaren Geräts 100 gespeichert. Das Verfahren 300 endet dann bei Block 320.
-
Es wird auf 4 Bezug genommen, die ein High-Level-Flussdiagramm zur Darstellung eines Verfahrens zum Bestimmen eines Hauptkamera-Belichtungskompensationswerts gemäß einer oder mehreren Ausführungsformen der vorliegenden Erfindung zeigt. Aspekte des Verfahrens werden mit Bezug auf die Komponenten in den 1-2 beschrieben. Mehrere Prozesse des Verfahrens, das in 4 angegeben ist, können durch einen Prozessor (z.B. eine CPU 104) implementiert werden, der einen Softwarecode des MCHU 117 in einem tragbaren Gerät (z.B. in dem tragbaren Gerät 100) ausführt. Die in 4 dargestellten Prozesse des Verfahrens werden allgemein als solche beschrieben, die von einem tragbaren Gerät 100 ausgeführt werden. In einer Ausführungsform können die in 4 beschriebenen Prozesse des Verfahrens in den Blöcken 304-310 von 3 enthalten sein.
-
Das Verfahren 400 beginnt an dem Initiator-Block 401 und führt dann weiter zu Block 402. In Block 402 ermittelt der Prozessor die aktuelle Stufe des Dynamikumfangs (z.B. die aktuelle Dynamikumfang-Stufe 204) einer aktuellen Szene (z.B. der Szene 202) von der Hauptkamera 142a. In Block 404 bestimmt der Prozessor, ob die aktuelle Stufe des Dynamikumfangs 204 einer Szene mit einem geringen/flachen Dynamikumfang entspricht. In Reaktion auf die Bestimmung, dass die aktuelle Stufe des Dynamikumfangs 204 nicht einer Szene mit einem geringen/flachen Dynamikumfang entspricht, führt das Verfahren 400 weiter zu Block 406. In Block 406 berechnet der Prozessor basierend auf der aktuellen Stufe des Dynamikumfangs 204 einen Hauptkamera-Belichtungskompensationswert 206a und einen Hilfskamera-Belichtungskompensationswert 206n. In einer Ausführungsform entspricht der Hauptkamera-Belichtungskompensationswert 206a dem Dynamikumfang der aktuellen Szene und entspricht einer kurzen Belichtungszeit, die es der Hauptkamera 142a ermöglicht, bei der Aufnahme der aktuellen Szene 202 zumindest einen hellen und/oder übertriebenen Bereich korrekt zu belichten. Der Hilfskamera-Belichtungskompensationswert 206n entspricht dem Dynamikbereich der aktuellen Szene und entspricht einer langen Belichtungszeit, die es der Hilfskamera 142n ermöglicht, bei der Aufnahme der aktuellen Szene 202 zumindest einen dunklen Bereich korrekt zu belichten. Das Verfahren 400 führt dann weiter zu Block 410.
-
In Reaktion auf die Bestimmung in Block 404, dass die aktuelle Stufe des Dynamikumfangs 204 der Szene mit einem geringen/flachen Dynamikumfang entspricht, setzt der Prozessor sowohl den Hauptkamera-Belichtungskompensationswert als auch den Hilfskamera-Belichtungskompensationswert auf einen Nullwert (Block 408), und das Verfahren 400 führt weiter zu Block 410.
-
In Block 410 bestimmt der Prozessor basierend auf dem berechneten Hauptkamera-Belichtungskompensationswert (1) eine Hauptkamera-Belichtungszeit 212a für die Hauptkamera 142a und basierend auf dem(den) berechneten Hilfskamera-Belichtungskompensationswert(en) (2) gleichzeitig eine Hilfskamera-Belichtungszeit 212n. In Block 412 wendet der Prozessor (1) die Hauptkamera-Belichtungszeit 212a auf die Hauptkamera 142a und (2) gleichzeitig damit die Hilfskamera-Belichtungszeit 212n auf die Hilfskamera 142n an. Das Verfahren 400 endet dann bei Block 414.
-
In den vorstehend beschriebenen Flussdiagrammen können ein oder mehrere Prozesse des Verfahrens in einem computerlesbaren Gerät realisiert werden, das einen computerlesbaren Code enthält, der auf einer Rechenvorrichtung ausgeführt wird. In manchen Implementierungen werden bestimmte Schritte der Verfahren kombiniert, gleichzeitig ausgeführt oder in einer anderen Reihenfolge ausgeführt oder entfallen gegebenenfalls, ohne dabei den Rahmen der Erfindung zu verlassen. Das bedeutet, dass eine bestimmte Abfolge oder Reihenfolge der beschriebenen Verfahrensschritte keine Einschränkung der Erfindung darstellt. Es können Änderungen bezüglich der Abfolge oder Reihenfolge von Verfahrensschritten vorgenommen werden, ohne von dem Kern der Erfindung abzuweichen. Sofern also eine bestimmte Abfolge gewählt wird, ist diese nicht als Einschränkung der Erfindung zu verstehen, deren Schutzumfang alleine durch die anliegenden Ansprüche definiert wird.
-
Aspekte der vorliegenden Erfindung wurden vorstehend mit Bezug auf Flussdiagramm und/oder Blockdiagramme von Verfahren sowie auf Vorrichtungen (Systeme) und Computerprogrammprodukte gemäß Ausführungsformen der Erfindung beschrieben. Es versteht sich, dass jeder Block der Flussdiagramme und/oder Blockdiagramme sowie Kombinationen von Flussdiagrammen und/oder Blockdiagrammen durch Computerprogrammbefehle ausgeführt werden kann. Ein Computerprogrammcode für die Ausführung von Operationen im Hinblick auf Aspekte der vorliegenden Erfindung kann in einer oder in einer Kombination von beliebigen Programmiersprachen geschrieben sein, unter anderem in einer objektorientierten Programmiersprache, ohne Beschränkung hierauf. Diese Computerprogrammbefehle können für einen Prozessor eines Universalcomputers, eines Spezialcomputers oder einer anderen programmierbaren Datenverarbeitungsvorrichtung bereitgestellt werden, um eine Maschine zu schaffen, die das Verfahren für die Implementierung der Funktionen/Aktionen in dem Flussdiagramm und/oder Blockdiagramm oder in den Blöcken durchführt. Die Verfahren werden implementiert, wenn die Befehle über den Prozessor des Computers oder eine andere programmierbare Datenverarbeitungsvorrichtung ausgeführt werden.
-
Wie man ferner erkennen wird, können die Prozesse in Ausführungsformen der vorliegenden Erfindung durch beliebige Kombinationen von Software, Firmware und Hardware ausgeführt werden. Dementsprechend können Aspekte der vorliegenden Erfindung vorgesehen sein als eine Ausführungsform vollständig in Hardware oder als eine Ausführungsform, in der Software-Aspekte (einschließlich Firmware, residente Software, Mikro-Code etc.) und Hardware-Aspekte, die vorliegend allgemein als „Schaltung“, „Modul“ oder „System“ bezeichnet sind, kombiniert sind. Ferner können Aspekte der vorliegenden Erfindung in Form einer oder mehrerer computerlesbarer Speichereinheiten mit einem darin enthaltenen computerlesbaren Programmcode ausgeführt sein. Es kann auch eine beliebige Kombination einer oder mehrerer computerlesbaren Speichereinheiten verwendet werden. Die computerlesbare Speichereinheit kann beispielsweise eine elektronische, magnetische, optische, elektromagnetische, Infrarot- oder Halbleitersystemvorrichtung oder -einheit sein, oder eine geeignete Kombination dieser Einheiten, ohne Beschränkung hierauf. Speziellere Beispiele (aus einer nicht erschöpfenden Liste) von computerlesbaren Speichereinheiten sind unter anderem: eine tragbare Computerdiskette, eine Festplatte, ein Speicher mit wahlfreiem Zugriff (RAM), ein Nur-Lese-Speicher (ROM), ein löschbarer programmierbarer Nur-Lese-Speicher (EPROM oder Flash-Speicher), ein tragbarer Compact-Disc-Nur-Lese-Speicher (CD-ROM), eine optische Speichervorrichtung, eine Magnetspeichervorrichtung oder eine geeignete Kombination derselben. Im Kontext der vorliegenden Beschreibung kann eine computerlesbare Speichervorrichtung ein beliebiges konkretes Medium sein, das ein Programm zur Verwendung von einem oder in Kombination mit einem Befehlsausführungssystem, einer solchen Vorrichtung oder eines solchen Geräts enthalten kann.
-
Sofern in der vorliegenden Beschreibung die Begriffe „konkret“ und „nichttransitorisch“ verwendet werden, ist damit ein computerlesbares Speichermedium (oder ein „Speicher“) gemeint, das(der) die Verbreitung von elektromagnetischen Signalen ausschließt; das(der) aber ansonsten die Art der physikalischen computerlesbaren Speichervorrichtung, die von dem Begriff „computer-lesbares Medium“ oder Speicher umfasst ist, nicht einschränken soll. Zum Beispiel sollen die Bezeichnungen „nichttransitorisches computerlesbares Medium“ oder „konkretes Medium“ Speichervorrichtungen umfassen, die Informationen nicht notwendigerweise dauerhaft speichern, unter anderem zum Beispiel ein RAM. Programmbefehle oder Programmanweisungen und Daten, die auf einem konkreten computerzugreifbaren Speichermedium in einer nichttransistorischen Form gespeichert sind, können anschließend durch Übertragungsmedien oder Signale übertragen werden wie elektrische, elektromagnetische oder digitale Signale, die über ein Kommunikationsmedium wie ein Netzwerk und/oder eine drahtlose Verbindung übertragen werden.
-
Die Erfindung wurde vorstehend anhand von Ausführungsbeispielen beschrieben. Jedoch wird der Fachmann erkennen, dass verschiedene Änderungen durchgeführt und Elemente durch Äquivalente ersetzt werden können, ohne den Rahmen der Erfindung zu verlassen. Innerhalb des Rahmens der Erfindung sind auch zahlreiche Modifikationen möglich, um ein bestimmtes System, Gerät oder eine bestimmte Komponente an die Lehren der vorliegenden Erfindung anzupassen. Aus diesem Grund ist die vorliegende Offenbarung nicht auf bestimmte Ausführungsformen beschränkt, die für die praktische Umsetzung der Erfindung beschrieben wurden. Vielmehr umfasst die Offenbarung sämtliche Ausführungsformen, die in den Schutzbereich der anliegenden Ansprüche fallen.
-
Vorliegende Beschreibung der Erfindung dient lediglich dem Zweck der Erläuterung und Darstellung und ist nicht erschöpfend und beschränkt sich nicht auf die Offenbarung in der vorliegenden Form. Wie der Fachmann erkennen wird, sind innerhalb des Rahmens der Erfindung zahlreiche Modifikationen und Variationen möglich. Die beschriebenen Ausführungsformen wurden im Hinblick auf eine best mögliche Erläuterung der Prinzipien der vorliegenden Erfindung und deren praktische Ausführung gewählt und um der Fachwelt die verschiedenen Ausführungsformen mit verschiedenen Modifikationen, die für eine in Betracht gezogene bestimmte Anwendung geeignet sind, verständlich darzulegen.