DE102017126270B4 - Mehrfach-Kamera-Aufnahme eines HDR-Bildes - Google Patents

Mehrfach-Kamera-Aufnahme eines HDR-Bildes Download PDF

Info

Publication number
DE102017126270B4
DE102017126270B4 DE102017126270.9A DE102017126270A DE102017126270B4 DE 102017126270 B4 DE102017126270 B4 DE 102017126270B4 DE 102017126270 A DE102017126270 A DE 102017126270A DE 102017126270 B4 DE102017126270 B4 DE 102017126270B4
Authority
DE
Germany
Prior art keywords
camera exposure
compensation value
exposure time
dynamic range
main camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017126270.9A
Other languages
English (en)
Other versions
DE102017126270A1 (de
Inventor
Yin Hu Chen
Valeriy Marchevsky
Susan Yanqing Xu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Mobility LLC
Original Assignee
Motorola Mobility LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Mobility LLC filed Critical Motorola Mobility LLC
Publication of DE102017126270A1 publication Critical patent/DE102017126270A1/de
Application granted granted Critical
Publication of DE102017126270B4 publication Critical patent/DE102017126270B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/583Control of the dynamic range involving two or more exposures acquired simultaneously with different integration times
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

Die Erfindung betrifft ein Verfahren, ein System und ein Computerprogrammprodukt zum Generieren eines Bildes mit hohem Dynamikumfang (HDR-Bildes) aus einer Mehrzahl von Einzelbildern, die von Kameras eines tragbaren Geräts gleichzeitig aufgenommen werden. Das Verfahren umfasst das Erfassen einer aktuellen Stufe eines Dynamikumfangs einer aktuellen Szene durch eine Hauptkamera. In Reaktion auf die Erfassung der aktuellen Stufe des Dynamikumfangs werden ein Hauptkamera-Belichtungskompensationswert auf die Hauptkamera und ein Hilfskamera-Belichtungskompensationswert, der sich von dem Hauptkamera-Belichtungskompensationswert unterscheidet, auf die wenigstens eine Hilfskamera angewendet. Das Verfahren umfasst ferner die gleichzeitige Aufnahme eines ersten Bildes mit der Hauptkamera und wenigstens eines zweiten Einzelbildes mit wenigstens einer Hilfskamera. Das Verfahren umfasst ferner das Kombinieren des ersten Einzelbildes und des wenigstens einen zweiten Einzelbildes zum Erzeugen des HDR-Bildes.

Description

  • HINTERGRUND
  • Technisches Gebiet
  • Vorliegende Erfindung betrifft allgemein tragbare Geräte und insbesondere ein verbessertes Verfahren zum Aufnehmen eines Bildes mit hohem Dynamikumfang mit zwei Kameras, die zusammenarbeiten.
  • Beschreibung des Standes der Technik
  • Moderne tragbare Kommunikationsgeräte wie beispielsweise Mobiltelefone sind mit einer Kamera ausgestattet, die zum Aufnehmen von Bildern mit hohem Dynamikumfang (HDR-Bildern) verwendet werden kann. Ein HDR-Bild lässt sich erstellen, indem eine Mehrzahl von Standardbildern mit einer für jedes der aufeinanderfolgenden Bilder unterschiedlichen Belichtungszeit aufgenommen wird. Da aber die Standardbilder der Reihe nach aufgenommen werden, kann jede Bewegung in der Szene zwischen Einzelbildern zu einer Unschärfe in dem fertigen HDR-Bild führen und/oder eine Kombination der Standardbilder unmöglich machen. Hinzu kommt, dass vorhandene HDR-Lösungen gegebenenfalls erfordern, dass ein Benutzer eine HDR-Option manuell aktiviert, bevor HDR-Bilder aufgenommen werden können. Viele HDR-Lösungen erfordern darüber hinaus, dass eine aktuelle Szene analysiert wird, um zu bestimmen, ob ein Dynamikumfang der Szene über einem bestimmten Schwellenwert liegt, bevor ein HDR-Bild aufgenommen werden kann. Liegt der Dynamikumfang der Szene nicht über dem bestimmten Schwellenwert, können nur Standardbilder aufgenommen werden.
  • CN 106 131 449 A beschreibt ein Fotografieverfahren mit einem mobilen Endgerät das zwei Kameras umfasst. Das Verfahren enthält ein Vorschaubild und verwendet dieses zum Bestimmen einer lokalen Zielbelichtungsregion. Basierend auf der lokalen Zielbelichtungsregion wird ein Zielbelichtungsparameter entsprechend der lokalen Zielbelichtungsregion berechnet. Die erste Kamera und die zweite Kamera führen die Belichtung aus entsprechend einem voreingestellten automatischen Belichtungsparameter und dem Zielbelichtungsparameter, um ein erstes Bild und ein zweites Bild zu erzeugen. Ein Zielbild wird erzeugt, indem ein Bildsyntheseverfahren auf das erste und zweite Bild angewandt wird.
  • Figurenliste
  • Ausführungsbeispiele der Erfindung werden nachstehend im Zusammenhang mit den anliegenden Zeichnungen beschrieben. Es versteht sich, dass in den Figuren gezeigte Elemente im Hinblick auf eine einfache und übersichtliche Darstellung nicht notwendigerweise maßstabsgetreu sind. So können beispielsweise die Dimensionen von einigen Elementen im Vergleich zu anderen Elemente übertrieben sein. Ausführungsformen, die Lehren der vorliegenden Erfindung enthalten, werden unter Bezugnahme auf die Figuren erläutert. In den Figuren zeigt:
    • 1 ein tragbares Gerät, in welchem bestimmte Aspekte der vorliegenden Erfindung ausgeführt sein können, gemäß einer oder mehreren Ausführungsformen;
    • 2 ein Beispiel eines tragbaren Geräts, das konfiguriert ist für die Generierung eines HDR-Bildes aus Einzelbildern, die von mehreren Kameras gleichzeitig aufgenommen werden, gemäß einer oder mehreren Ausführungsformen;
    • 3 ein Flussdiagramm zur Darstellung eines Verfahrens zum Generieren eines HDR-Bildes aus Einzelbildern, die von mehreren Kameras gleichzeitig aufgenommen werden, gemäß einer oder mehreren Ausführungsformen; und
    • 4 ein Flussdiagramm zur Darstellung eines Verfahrens zum Berechnen eines Belichtungskompensationswerts, der einer aktuellen Stufe des Dynamikumfangs einer aktuellen Szene entspricht, gemäß einer oder mehreren Ausführungsformen.
  • DETAILBESCHREIBUNG
  • Durch Ausführungsbeispiele der vorliegenden Erfindung werden ein Verfahren, ein System und ein Computerprogrammprodukt angegeben zum Generieren eines Bildes mit hohem Dynamikumfang (HDR-Bildes) aus einer Mehrzahl von Einzelbildern, die von Kameras eines tragbaren Geräts aufgenommen werden. Das Verfahren umfasst das Erfassen einer aktuellen Stufe des Dynamikumfangs einer aktuellen Szene durch eine Hauptkamera. Die Stufe des Dynamikumfangs beschreibt einen Prozentanteil von dunklen Bereichen und hellen Bereichen in der Szene. In Reaktion auf die Erfassung der aktuellen Stufe des Dynamikumfangs wird der Hauptkamera ein Hauptkamera-Belichtungskompensationswert zugewiesen, und ein Hilfskamera-Belichtungskompensationswert, der sich von dem Hauptkamera-Belichtungskompensationswert unterscheidet, wird wenigstens einer Hilfskamera zugewiesen. Das Verfahren umfasst ferner das gleichzeitige Aufnehmen eines ersten Einzelbildes mit der Hauptkamera und mindestens eines zweiten Einzelbildes mit wenigstens einer Hilfskamera. Weiterhin umfasst das Verfahren das Kombinieren des ersten Einzelbildes und des wenigstens einen zweiten Einzelbildes zum Erzeugen eines HDR-Bildes.
  • Die vorstehenden Ausführungen sind nicht als umfassende Beschreibung des Gegenstands der vorliegenden Erfindung gedacht, sondern sollen vielmehr einen kurzen Überblick über einige damit verbundene Funktionen geben. Aus diesem Grund enthalten die vorstehenden Ausführungsformen Vereinfachungen und Verallgemeinerungen, und einige Details wurden weggelassen. Die vorstehenden sowie weitere Systeme, Verfahren, Funktionen, Merkmale und Vorteile des beanspruchten Gegenstands erschließen sich dem Fachmann aus der nachstehenden Detailbeschreibung im Zusammenhang mit den anliegenden Zeichnungsfiguren.
  • In der nachstehenden Beschreibung werden bestimmte Ausführungsbeispiele für eine praktische Umsetzung der Erfindung durch den Fachmann ausreichend detailliert beschrieben. Dabei werden zum Beispiel bestimmte Details wie eine bestimmte Reihenfolge des Verfahrensablaufs, bestimmte Strukturen, Elemente und Verbindungen dargestellt. Es versteht sich jedoch, dass die dargestellten speziellen Details nicht verwendet werden müssen, um die Ausführungsformen der vorliegenden Erfindung praktisch umzusetzen. Ebenso versteht es sich, dass andere Ausführungsformen verwendet werden können und dass Änderungen hinsichtlich Logik und Architektur sowie programmbezogene, mechanische, elektrische und andere oder weitere Änderungen vorgenommen werden können, ohne den allgemeinen Rahmen der Erfindung zu verlassen. Die Erfindung wird durch die nachstehende Detailbeschreibung nicht eingeschränkt. Vielmehr wird der Schutzumfang der vorliegenden Erfindung durch die anliegenden Ansprüche und deren Äquivalente definiert.
  • Sofern in der Beschreibung auf „eine Ausführungsform“ (Zahladverb), „eine Ausführungsform“ (unbestimmter Artikel), „Ausführungsformen“ oder „eine oder mehrere Ausführungsformen“ Bezug genommen wird, soll damit zum Ausdruck gebracht werden, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder eine bestimmte charakteristische Eigenschaft in Verbindung mit der Ausführungsform in wenigstens einer Ausführungsform der vorliegenden Erfindung enthalten sind. Sofern solche Wendungen an verschiedenen Stellen in der Beschreibung erscheinen, beziehen sich diese nicht notwendigerweise auf dieselbe Ausführungsform. Ebensowenig schließen sich separate oder alternative Ausführungsformen und andere oder weitere Ausführungsformen nicht gegenseitig aus. Ähnlich werden verschiedene Aspekte beschrieben, die für einige Ausführungsformen Gültigkeit haben, für andere hingegen nicht.
  • Die in der nachstehenden Beschreibung verwendete Terminologie dient zur Beschreibung von bestimmten Ausführungsformen. Die Erfindung wird dadurch nicht eingeschränkt. Werden Singularformen wie „ein/e/r/s“ und „der/die/das“ verwendet, sollen diese auch Pluralformen einschließen, sofern aus dem Kontext nicht eindeutig das Gegenteil hervorgeht. Es versteht sich ferner, dass die Begriffe „umfasst“ und/oder „umfassend“ in der vorliegenden Beschreibung zum Ausdruck bringen, dass genannte Merkmale, Ganzzahlen, Schritte, Aktionen, Elemente und/oder Komponenten vorhanden sind, ohne jedoch auszuschließen, dass noch ein weiteres oder mehrere weitere Merkmale, Ganzzahlen, Schritte, Aktionen, Elemente, Komponenten und/oder Gruppen derselben vorhanden sind. Begriffe wie erste/r/s, zweite/r/s etc. drücken vorliegend keine Ordnung oder Rangfolge aus, sondern dienen lediglich zur Unterscheidung eines Elements von einem anderen oder weiteren Element.
  • Es versteht sich, dass die Verwendung von bestimmten Bezeichnungen für eine Komponente, ein Gerät und/oder einen Parameter und/oder deren Abkürzungen, zum Beispiel für die Ausführung eines Dienstprogramms, für eine Logik und/oder Firmware in der vorliegenden Beschreibung lediglich Beispiele sind und keine Einschränkung der beschriebenen Ausführungsformen darstellen. Die Ausführungsformen können daher mit einer anderen Nomenklatur oder Terminologie für die Bezeichnung der Komponenten, Geräte, Parameter, Verfahren und/oder Funktionen beschrieben werden, ohne jede Einschränkung. Sofern bei der Beschreibung von einem oder mehreren Elementen, Merkmalen oder Konzepten der Ausführungsformen auf ein bestimmtes Protokoll oder einen bestimmten Markennamen Bezug genommen wird, geschieht dies lediglich im Rahmen eines Beispiels einer Implementierung, ohne Einschränkung der Erstreckung der beanspruchten Ausführungsformen auf Ausführungsformen, in denen andere Element-, Merkmals-, Protokoll- oder Konzeptbezeichnungen verwendet werden. Aus diesem Grund sollte jeder Begriff, der in der vorliegenden Beschreibung verwendet wird, innerhalb des Kontexts, in dem der Begriff verwendet wird, so breit wie möglich ausgelegt werden.
  • Der Fachmann wird erkennen, dass die in den anliegenden Zeichnungsfiguren dargestellten Hardwarekomponenten und Basiskonfigurationen variieren können. Zum Beispiel sind die Beispielkomponenten in dem tragbaren Gerät 100 nicht erschöpfend, sondern heben lediglich Komponenten hervor, die für die Implementierung der vorliegenden Erfindung verwendet werden können. Zusätzlich zu den oder anstelle der dargestellten Hardware können zum Beispiel andere Geräte/Komponenten verwendet werden. Das dargestellte Beispiel soll weder die Architektur der beschriebenen Ausführungsformen noch die Offenbarung allgemein einschränken.
  • Bei der Beschreibung der verschiedenen Ansichten der Zeichnungsfiguren werden durchgehend die gleichen Bezugszeichen und/oder Symbole für die gleichen oder identischen Elemente verwendet. Die speziellen Kennzeichnungen oder Bezugszeichen, die den Elementen zugeordnet sind, sind nicht im Sinne einer Einschränkung (weder in der Funktion noch anderweitig) der beschriebenen Ausführungsformen zu verstehen.
  • Es wird nunmehr auf 1 Bezug genommen, in der ein tragbares Gerät 100 dargestellt ist, in welchem eines oder mehrere der beschriebenen Merkmale der verschiedenen Ausführungsformen der vorliegenden Erfindung realisiert sein können. In einer Ausführungsform kann das tragbare Gerät 100 ein beliebiges tragbares Geräts ein, das mit wenigstens zwei Kameras ausgestattet ist. Ein Beispiel eines tragbaren Geräts kann unter anderem ein Notebook-Computer, ein Mobiltelefon, eine Digitalkamera, ein Videorekorder oder ein Tablet-Computer sein, ohne Beschränkung hierauf. Das tragbare Gerät 100 enthält mindestens einen Prozessor oder eine zentrale Verarbeitungseinheit (CPU = Central Processing Unit) 104. Die CPU 104 ist mit einem nichtflüchtigen Speicher 120 und mit einem Systemspeicher 110 verbunden, in denen Firmware 112, ein Betriebssystem (OS = Operating System) 116, ein Mehrfachkamera-HDR-Dienstprogramm (MCHU = Multi-Camera HDR Utility) 117 und Anwendungen 118 für die Ausführung in der CPU 104 gespeichert sein können. Gemäß einem Aspekt wird das MHCU 117 in dem tragbaren Gerät 100 ausgeführt, um die vorliegend beschriebenen verschiedenen Verfahren und Funktionen durch- bzw. auszuführen. In einer oder in mehreren Ausführungsformen nimmt das MCHU 117 mit einer ersten Kamera und mindestens einer Hilfskamera gleichzeitig Einzelbilder auf und kombiniert die Einzelbilder zum Erstellen eines HDR-Bildes. Der Einfachheit halber ist das MHCU 117 als eigenständige oder separate Software/Firmware/Logik-Komponente dargestellt und beschrieben, die die nachstehend beschriebenen Funktionen und Verfahren bereitstellt. In zumindest einer Ausführungsform kann das MHCU 117 jedoch eine Komponente der Firmware 112 oder der OS 116 sein oder kann mit dieser kombiniert oder in diese und/oder eine oder mehrere Anwendungen 118 integriert sein.
  • Wie dargestellt ist, kann das tragbare Gerät 100 Eingabevorrichtungen und Ausgabevorrichtungen aufweisen, die für einen Benutzer eine Schnittstelle zu dem tragbaren Gerät 100 bilden. In der dargestellten Ausführungsform hat das tragbare Gerät mindestens zwei Kameras 142a-n, ein Kamerablitzlicht (Kamerablitzlichter) 146, ein Display 145, Hardware-Tasten 106a-n, ein Mikrophon (Mikrophone) 108 und einen (mehrere) Lautsprecher 144. Während zwei Kameras (die Kameras 142a-n) gezeigt sind, kann das Gerät in einer oder in mehreren Ausführungsformen des tragbaren Geräts 100 weitere Kameras enthalten. Die Hardware-Tasten 106a-n sind wählbare Tasten, die für eine manuelle/taktile Eingabe durch einen Benutzer benutzt werden, um spezifische Prozesse des tragbaren Geräts 100 und/oder auf dem Gerät ausgeführte Anwendungen zu steuern. In einer Ausführungsform können die Hardware-Tasten 106a-n auch einen oder mehrere Sensoren enthalten (z.B. Fingerabdrucksensoren) oder können mit diesen verbunden sein und/oder können druckempfindlich sein. Die Hardware-Tasten 106a-n können auch einer oder mehreren Funktionen einer graphischen Benutzerschnittstelle (nicht gezeigt) und/oder Funktionen eines OS, einer Anwendung oder einer Hardware des tragbaren Geräts 100 direkt zugeordnet sein. In einer Ausführungsform können die Hardware-Tasten 106a-n eine Tastatur umfassen. Ein Mikrophon (oder Mikrophone) 108 kann (können) verwendet werden, um Spracheingaben/Sprachbefehle von einem Benutzer zu empfangen. Für eine Audioausgabe wird ein Lautsprecher oder werden mehrere Lautsprecher 144 benutzt.
  • Die CPU(s) 104 ist(sind) ebenfalls mit den Sensoren 122a-n und dem Display 145 verbunden. Die Sensoren 122a-n können unter anderem und ohne Beschränkung hierauf umfassen: zumindest einen von Infrarotsensoren (IR-Sensoren), Wärmesensoren, Lichtsensoren, Näherungssensoren, Kamera/Bild-Sensoren, Beschleunigungsmessern, Gyroskopen, Magnetometern, Mikrophonen, Barometern, Luftfeuchtigkeitsfühlern, Schrittzählern, Herzfrequenzmonitoren, Fingerabdrucksensoren, Strahlungssensoren oder Iris-Scannern. Das Display 145 kann Text anzeigen, Medieninhalt und/oder graphische Benutzerschnittstellen (GUI = Graphical User Interface) von Firmware und/oder eine oder mehrere Anwendungen, die auf dem tragbaren Gerät 100 ausgeführt werden. Die GUI kann in einer Ausführungsform durch die CPU 104 für die Betrachtung auf dem Display 145 gerendert werden oder kann in einer anderen Ausführungsform durch eine Graphikverarbeitungseinheit (GPU = Graphics Processing Unit) gerendert werden. In einer Ausführungsform ist das Display 145 ein Berührungsbildschirm, der auch geeignet ist für den Empfang einer Berührungseingabe von einem Benutzer des tragbaren Geräts 100, wenn der Benutzer mit einer angezeigten GUI interagiert. Zumindest in einer Ausführungsform kann das tragbare Gerät 100 eine Mehrzahl von virtuellen Tasten oder Angriffspunkten aufweisen, die zusätzlich zu den oder anstelle der Hardware-Tasten 106a-n wirksam sind. Zum Beispiel kann das tragbare Gerät 100 mit einer Berührungsbildschirm-Schnittstelle ausgestattet sein und über eine GUI eine virtuelle Tastatur oder andere virtuelle Symbole für eine Interaktion mit dem Benutzer bereitstellen. In zumindest einer Ausführungsform kann das tragbare Gerät 100 eine Mehrzahl von virtuellen Tasten oder Angriffspunkten aufweisen, die zusätzlich zu den oder anstelle der Hardware-Tasten 106a-n wirksam sind.
  • Das tragbare Gerät 100 enthält auch eine Batterie 134, eine Ladeschaltung 136 und einen seriellen Port 132 (z.B. einen USB = Universal Serial Bus-Port), der als Lade-Port wirken kann, der Strom über eine externe Ladevorrichtung (nicht gezeigt) zum Laden der Batterie 134 bezieht. Der serielle Port 132 kann auch die Funktion eines Eingangs-Ports, eines Ausgangs-Ports und eines kombinierten Eingangs/Ausgangs-Ports übernehmen. Der serielle Port 132 stellt auch eine physikalische Schnittstelle zwischen der Ladeschaltung 136 und einer externen Ladevorrichtung (nicht gezeigt) zum Laden der Batterie 134 bereit. Die Batterie 134 kann eine einzelne Batterie oder mehrere Batterien umfassen, um die Komponenten des tragbaren Geräts 100 mit Strom zu versorgen. In einer Ausführungsform kann die Batterie 134 mindestens eine Batterie umfassen, die entfernbar ist und/oder durch einen Endnutzer ersetzt werden kann. In einer weiteren Ausführungsform kann die Batterie 134 mindestens eine Batterie umfasst, die dauerhaft an dem tragbaren Gerät 100 befestigt ist.
  • Das tragbare Gerät 100 kann auch ein oder mehrere drahtlose Funkeinrichtungen 140a-n enthalten und kann eine oder mehrere Antennen 148a-n enthalten, die dem tragbaren Gerät 100 eine drahtlose Verbindung zu einem oder mehreren anderen Geräten wie beispielsweise Geräten 152a-n und einem Server 154 ermöglichen sowie das Senden und Empfangen von Sprachmitteilungen und/oder eine Datenkommunikation zu/von diesem Gerät oder diesen Geräten. Als drahtloses Gerät kann das tragbare Gerät 100 Daten über ein drahtloses Netzwerk 150 (z.B. ein Wi-Fi-Netzwerk, ein zellulares Netzwerk, ein Bluetooth®-Netzwerk (einschließlich Bluetooth® Low Energy (BLE)-Netzwerke), ein drahtloses Ad-hoc-Netzwerk (WANET) oder ein persönliches Netzwerk (PAN = Personal Area Network)) übertragen. In einer Ausführungsform kann das tragbare Gerät 100 ferner mit einer Infrarot-Einrichtung (IR-Einrichtung) (nicht gezeigt) versehen sein, zum Kommunizieren mit anderen Geräten, die eine IR-Verbindung nutzen. In einer weiteren Ausführungsform können die drahtlosen Funkeinrichtungen 140a-n ein drahtloses Gerät mit kurzer Reichweite umfassen, unter anderem ein Nahfeld-Kommunikationsgerät (NFC = Gerät). In einer noch weiteren Ausführungsform kann das tragbare Gerät 100 durch eine drahtgebundene oder drahtlose USB-Verbindung mit einem oder mehreren Geräten kommunizieren. In einer oder in mehreren Ausführungsformen können die Geräte 152a-n ein oder mehrere Zubehörelemente (z.B. das Zubehör 160) aufweisen.
  • 2 zeigt in einem Blockdiagramm ein Beispiel eines tragbaren Geräts, das konfiguriert ist für die Generierung eines HDR-Bildes aus Einzelbildern, die von mehreren Kameras aufgenommen werden, gemäß einer oder mehreren Ausführungsformen der vorliegenden Erfindung. Wie dargestellt ist, umfasst das tragbare Gerät 100 eine (mehrere) CPU(s) 104, einen Speicher 110, eine Hauptkamera 142a und eine Hilfskamera 142n. Die CPU(s) 104 führt (führen) das MRU 117 aus. In einer oder in mehreren Ausführungsformen kann die Hilfskamera 142n mehrere Hilfskameras umfassen.
  • Die Hauptkamera 142a erfasst die aktuelle Stufe des Dynamikumfangs 204 der Szene 202. Gemäß einer Ausführungsform beschreibt die Stufe des Dynamikumfangs 204 einen Prozentanteil von dunklen Bereichen und hellen Bereichen in der Szene 202. In einer Ausführungsform analysiert eine Bildverarbeitungskomponente, die der Hauptkamera 142a zugeordnet ist, die Szene 202 und berechnet die aktuelle Stufe des Dynamikumfangs 204 der Szene in einem Bereich, zum Beispiel in einem Bereich von 0 (niedrig) bis 100 (hoch). In Reaktion auf diese Erfassung und basierend auf der aktuellen Stufe des Dynamikumfangs 204, berechnet (berechnen) die CPU(s) 104 gleichzeitig (1) einen Hauptkamera-Belichtungskompensationswert 206a für die Hauptkamera 142a und (2) einen Hilfskamera-Belichtungskompensationswert 206n für die Hilfskamera 142n. In der vorliegenden Beschreibung ist ein Belichtungskompensationswert eine reelle Zahl (ℝ), die basierend auf dem Öffnungsverhältnis der Kamera die Verschlusszeit festlegt. Höhere Belichtungskompensationswerte verkürzen die Verschlusszeit einer Kamera, während niedrigere Belichtungskompensationswerte (einschließlich Werte unter Null) die Verschlusszeit der Kamera verlängern.
  • Zum Bestimmen des Hauptkamera-Belichtungskompensationswerts 206a und des Hilfskamera-Belichtungskompensationswerts 206n liest (lesen) die CPU(s) 104 die aktuelle Stufe des Dynamikumfangs 204 aus der Hauptkamera 142a aus. Basierend auf der aktuellen Stufe des Dynamikumfangs 204 berechnet (berechnen) die CPU(s) 104 den Hauptkamera-Belichtungskompensationswert 206a und den Hilfskamera-Belichtungskompensationswert 206n. In einer Ausführungsform wird der Hauptkamera-Belichtungskompensationswert 206a für eine kürzere Belichtungszeit (z.B. einen Lichtwert (EV = Exposure Value) von -1,5) berechnet, um in der aktuellen Szene 202 durch die Hauptkamera 142a zumindest einen hellen und/oder übertriebenen Bereich in der Szene 202 aufzunehmen, und ein Hilfskamera-Belichtungskompensationswert 206n wird für eine längere Belichtungszeit (z.B. EV 2,0) berechnet, um durch die Hilfskamera 142n zumindest einen dunklen Bereich in der aktuellen Szene aufzunehmen. In einer weiteren Ausführungsform wird der Hauptkamera-Belichtungskompensationswert 206a für eine längere Belichtungszeit und der Hilfskamera-Belichtungskompensationswert 206n für eine kürzere Belichtungszeit berechnet. Die dem Hauptkamera-Belichtungskompensationswert 206a und dem Hilfskamera-Belichtungskompensationswert 206n zugeordnete Stufe basiert auf der aktuellen Stufe des Dynamikumfangs 204. In Reaktion auf die Bestimmung bzw. Feststellung, dass die aktuelle Stufe des Dynamikumfangs 204 einer Szene mit hohem Dynamikumfang entspricht, berechnet (berechnen) die CPU(s) 104 aggressive Belichtungskompensationswerte für den Hauptkamera-Belichtungskompensationswert 206a (z.B. einen Lichtwert (EV) von +2,0) und gleichzeitig für den Hilfskamera-Belichtungskompensationswert 206n (z.B. EV -1,5). In einem weiteren Beispiel berechnet (berechnen) die CPU(s) 104 in Reaktion auf die Bestimmung, dass die aktuelle Stufe des Dynamikumfangs 204 einer Szene mit moderatem Dynamikumfang entspricht, moderate Belichtungskompensationswerte für den Hauptkamera-Belichtungskompensationswert 206a (z.B. einen EV von +0,5) und für den Hilfskamera-Belichtungskompensationswert 206n (z.B. einen EV von -0,6). In einer oder in mehreren Ausführungsformen wendet (wenden) die CPU(s) 104 in Reaktion auf die Bestimmung, dass die aktuelle Stufe des Dynamikumfangs 204 einer Szene mit einem geringen und/oder flachen Dynamikumfang entspricht, einen Nullwert auf den Hauptkamera-Belichtungskompensationswert 206a an.
  • In Reaktion auf die Berechnung des Hauptkamera-Belichtungskompensationswerts 206a und des Hilfskamera-Belichtungskompensationswerts 206n berechnet (berechnen) die CPU(s) 104 (1) eine Hauptkamera-Belichtungszeit für die Hauptkamera 142a basierend auf dem berechneten Hauptkamera-Belichtungskompensationswert und (2) gleichzeitig eine Hilfskamera-Belichtungszeit für die Hilfskamera 142n basierend auf dem berechneten Hilfskamera-Belichtungskompensationswert. Die berechnete Belichtungszeit stellt eine Einstellung bzw. Anpassung und/oder Modifikation dar, die bei einer aktuellen Belichtungszeit einer entsprechenden Kamera anzuwenden ist, um dieser Kamera die ordnungsgemäße Aufnahme zumindest eines dunklen oder hellen Bereichs in der aktuellen Szene 202 basierend auf der aktuellen Stufe des Dynamikumfangs 204 zu ermöglichen.
  • Während in der dargestellten Ausführungsform zwei Kameras (die Kameras 142a-n) vorgesehen sind, können in einer oder in mehreren anderen Ausführungsformen mehr als zwei Kameras verwendet werden. Bei Verwendung von mehr als zwei Kameras für die Aufnahme von Einzelbildern einer Szene 202 wird basierend auf der aktuellen Stufe des Dynamikumfangs 204 ein Hilfskamera-Kompensationswert für jede Hilfskamera berechnet. Wenn beispielsweise die Hauptkamera 142a und drei Hilfskameras (Hilfskameras 142b-d) vorhanden sind, berechnet der Prozessor für eine Szene mit hohem Dynamikumfang einen Hauptkamera-Belichtungskompensationswert von EV +2,0 und Hilfskamera-Belichtungskompensationswerte 206b-d mit jeweiligen EV-Werten von -1,5, +0,5 und -0,6. Durch die Erstellung von Berechnungen von Belichtungskompensationswerten, die sowohl kurze als auch lange Belichtungszeiten umfassen, wird der Dynamikumfang der Szene 202, die mit den Kameras 142a-d aufgenommen wird, vergrößert.
  • In einer oder in mehreren Ausführungsformen kann die Hauptkamera 142a die aktuelle Stufe des Dynamikumfangs 204 kontinuierlich überwachen. In einer oder in mehreren Ausführungsformen kann(können) die CPU(s) 104 den Hauptkamera-Belichtungskompensationswert 206a und den(die) Hilfskamera-Belichtungskompensationswert(e) 206n in Reaktion auf die Erfassung einer Änderung der aktuellen Stufe des Dynamikumfangs 204 dynamisch neu berechnen. Es sollte beachtet werden, dass in einer oder in mehreren Ausführungsformen das Bestimmen der aktuellen Stufe des Dynamikumfangs 204 und das Berechnen und Anwenden der Belichtungskompensationswerte 206a-n automatisch erfolgt und daher keine Ausführung einer Auslöselogik an dem tragbaren Gerät 100 oder einen Eingriff seitens des Benutzers erfordert.
  • Sobald der Hauptkamera-Belichtungskompensationswert 206a auf die Hauptkamera 142a angewendet wurde und sobald der(die) Hilfskamera-Belichtungskompensationswert(e) 206n auf die Hilfskamera(s) 142n angewendet wurde(n), sind die Kameras 142a-n einsatzbereit für die Aufnahme von Einzelbildern 208a-n der aktuellen Szene 202. In einer Ausführungsform nehmen die Kameras 142a-n zum Beispiel in Reaktion auf die Betätigung eines Auslösers (nicht gezeigt) der Kamera, welcher ein physikalischer Knopf (z.B. der Knopf 106a) oder eine virtueller Knopf sein kann, wie im Zusammenhang mit 1 näher erläutert, Einzelbilder 208a-n in einem Tandembetrieb auf. In Reaktion auf die Bestimmung, dass die Einzelbilder 208a-n aufzunehmen sind, nehmen die Kameras 142a das Einzelbild 208a mit einer ersten Belichtungszeit 212a und gleichzeitig die Hilfskamera(s) 142n das Einzelbild (die Einzelbilder) 208n mit einer Hilfsbelichtungszeit (Hilfsbelichtungszeiten) 212n auf. In einer Ausführungsform werden die aufgenommenen Einzelbilder 208a-n in einem Speicher 110 gespeichert.
  • In Reaktion auf die Aufnahme der Einzelbilder 208a-n ruft (rufen) die CPU(s) 104 die Einzelbilder 208a-n aus den Kameras 142a-n ab und kombinieren die Einzelbilder 208a-n zum Erstellen eines HDR-Bildes 210. In einer Ausführungsform wird das HDR-Bild 210 in dem Speicher 110 gespeichert. In einer oder in mehreren Ausführungsformen wird in Reaktion auf die Erstellung eines HDR-Bildes 210 das HDR-Bild 210 an ein Display (z.B. das Display 145) ausgegeben und/oder für eine Anwendung (z.B. die Anwendung 118) des tragbaren Geräts 100 bereitgestellt. In einer oder in mehreren Ausführungsformen können in Reaktion auf die Erstellung eines HDR-Bildes 210 Einzelbilder 208a-n aus dem Speicher 110 gelöscht werden.
  • Es wird auf 3 Bezug genommen. Diese zeigt ein High-Level-Flussdiagramm zur Darstellung eines Verfahrens zum Generieren eines HDR-Bildes aus Einzelbildern, die mit mehreren Kameras gleichzeitig aufgenommen werden, gemäß einer oder mehreren Ausführungsformen der vorliegenden Erfindung. Aspekte des Verfahrens werden mit Bezug auf die Komponenten der 1-2 beschrieben. Mehrere Prozesse des Verfahrens, das in 3 angegeben ist, können durch einen Prozessor (z.B. eine CPU 104) implementiert werden, der einen Softwarecode des MCHU 117 in einem tragbaren Gerät (z.B. in dem tragbaren Gerät 100) ausführt. Die in 3 dargestellten Prozesse des Verfahrens werden allgemein als solche beschrieben, die von einem tragbaren Gerät 100 ausgeführt werden.
  • Das Verfahren 300 beginnt an dem Initiator-Block 301 und führt dann zu Block 302. In Block 302 erfasst die Hauptkamera 142a die aktuelle Stufe des Dynamikumfangs (z.B. eine aktuelle Dynamikumfang-Stufe 204) einer aktuellen Szene (z.B. der Szene 202). In Reaktion auf die Erfassung der aktuellen Stufe des Dynamikumfangs 204 berechnet der Prozessor basierend auf der aktuellen Stufe des Dynamikumfangs 204 (1) einen Hauptkamera-Belichtungskompensationswert (z.B. den Belichtungskompensationswert 206a) für die Hauptkamera 142a (Block 304) und (2) gleichzeitig einen Hilfskamera-Belichtungskompensationswert (z.B. den Belichtungskompensationswert 206b-n) für jede Hilfskamera (z.B. die Kameras 142b-n) (Block 306). In Reaktion auf die Berechnung des Hauptkamera-Belichtungskompensationswerts und des Hilfsbelichtungskompensationswerts (der Hilfsbelichtungskompensationswerte) wendet der Prozessor (1) eine Hauptkamera-Belichtungszeit, die dem Hauptkamera-Belichtungskompensationswert zugeordnet ist, auf die Hauptkamera (Block 308) an und (2) gleichzeitig eine Hilfskamera-Belichtungszeit, die dem(den) berechneten Hilfsbelichtungskompensationswert(en) zugeordnet ist, auf jede Hilfskamera (Block 310) an.
  • In Block 312 bestimmt der Prozessor, ob die Einzelbilder 208a-n aufzunehmen sind (z.B. in Abhängigkeit von der Auslösung des Kameraverschlusses). In Reaktion auf die Bestimmung, dass die Einzelbilder 208a-n aufzunehmen sind, führt das Verfahren 300 weiter zu Block 314. In Reaktion auf die Bestimmung, dass die Einzelbilder 208a-n nicht aufgenommen werden sollen, kehrt das Verfahren 300 in einer Schleife zurück zu Block 302.
  • In Block 314 nimmt die Hauptkamera 142a ein erstes Einzelbild (z.B. das Einzelbild 208a) auf, und mindestens ein zweites Einzelbild (z.B. die Einzelbilder 208b-n) wird gleichzeitig von jeder Hilfskamera aufgenommen. In Reaktion auf den Empfang mehrerer gleichzeitig aufgenommener Einzelbilder 208a-n kombiniert der Prozessor die aufgenommenen Einzelbilder 208a-n zum Erstellen eines HDR-Bildes 210 (Block 316). In Block 318 wird das HDR-Bild 210 in dem Speicher des tragbaren Geräts 100 gespeichert. Das Verfahren 300 endet dann bei Block 320.
  • Es wird auf 4 Bezug genommen, die ein High-Level-Flussdiagramm zur Darstellung eines Verfahrens zum Bestimmen eines Hauptkamera-Belichtungskompensationswerts gemäß einer oder mehreren Ausführungsformen der vorliegenden Erfindung zeigt. Aspekte des Verfahrens werden mit Bezug auf die Komponenten in den 1-2 beschrieben. Mehrere Prozesse des Verfahrens, das in 4 angegeben ist, können durch einen Prozessor (z.B. eine CPU 104) implementiert werden, der einen Softwarecode des MCHU 117 in einem tragbaren Gerät (z.B. in dem tragbaren Gerät 100) ausführt. Die in 4 dargestellten Prozesse des Verfahrens werden allgemein als solche beschrieben, die von einem tragbaren Gerät 100 ausgeführt werden. In einer Ausführungsform können die in 4 beschriebenen Prozesse des Verfahrens in den Blöcken 304-310 von 3 enthalten sein.
  • Das Verfahren 400 beginnt an dem Initiator-Block 401 und führt dann weiter zu Block 402. In Block 402 ermittelt der Prozessor die aktuelle Stufe des Dynamikumfangs (z.B. die aktuelle Dynamikumfang-Stufe 204) einer aktuellen Szene (z.B. der Szene 202) von der Hauptkamera 142a. In Block 404 bestimmt der Prozessor, ob die aktuelle Stufe des Dynamikumfangs 204 einer Szene mit einem geringen/flachen Dynamikumfang entspricht. In Reaktion auf die Bestimmung, dass die aktuelle Stufe des Dynamikumfangs 204 nicht einer Szene mit einem geringen/flachen Dynamikumfang entspricht, führt das Verfahren 400 weiter zu Block 406. In Block 406 berechnet der Prozessor basierend auf der aktuellen Stufe des Dynamikumfangs 204 einen Hauptkamera-Belichtungskompensationswert 206a und einen Hilfskamera-Belichtungskompensationswert 206n. In einer Ausführungsform entspricht der Hauptkamera-Belichtungskompensationswert 206a dem Dynamikumfang der aktuellen Szene und entspricht einer kurzen Belichtungszeit, die es der Hauptkamera 142a ermöglicht, bei der Aufnahme der aktuellen Szene 202 zumindest einen hellen und/oder übertriebenen Bereich korrekt zu belichten. Der Hilfskamera-Belichtungskompensationswert 206n entspricht dem Dynamikbereich der aktuellen Szene und entspricht einer langen Belichtungszeit, die es der Hilfskamera 142n ermöglicht, bei der Aufnahme der aktuellen Szene 202 zumindest einen dunklen Bereich korrekt zu belichten. Das Verfahren 400 führt dann weiter zu Block 410.
  • In Reaktion auf die Bestimmung in Block 404, dass die aktuelle Stufe des Dynamikumfangs 204 der Szene mit einem geringen/flachen Dynamikumfang entspricht, setzt der Prozessor sowohl den Hauptkamera-Belichtungskompensationswert als auch den Hilfskamera-Belichtungskompensationswert auf einen Nullwert (Block 408), und das Verfahren 400 führt weiter zu Block 410.
  • In Block 410 bestimmt der Prozessor basierend auf dem berechneten Hauptkamera-Belichtungskompensationswert (1) eine Hauptkamera-Belichtungszeit 212a für die Hauptkamera 142a und basierend auf dem(den) berechneten Hilfskamera-Belichtungskompensationswert(en) (2) gleichzeitig eine Hilfskamera-Belichtungszeit 212n. In Block 412 wendet der Prozessor (1) die Hauptkamera-Belichtungszeit 212a auf die Hauptkamera 142a und (2) gleichzeitig damit die Hilfskamera-Belichtungszeit 212n auf die Hilfskamera 142n an. Das Verfahren 400 endet dann bei Block 414.
  • In den vorstehend beschriebenen Flussdiagrammen können ein oder mehrere Prozesse des Verfahrens in einem computerlesbaren Gerät realisiert werden, das einen computerlesbaren Code enthält, der auf einer Rechenvorrichtung ausgeführt wird. In manchen Implementierungen werden bestimmte Schritte der Verfahren kombiniert, gleichzeitig ausgeführt oder in einer anderen Reihenfolge ausgeführt oder entfallen gegebenenfalls, ohne dabei den Rahmen der Erfindung zu verlassen. Das bedeutet, dass eine bestimmte Abfolge oder Reihenfolge der beschriebenen Verfahrensschritte keine Einschränkung der Erfindung darstellt. Es können Änderungen bezüglich der Abfolge oder Reihenfolge von Verfahrensschritten vorgenommen werden, ohne von dem Kern der Erfindung abzuweichen. Sofern also eine bestimmte Abfolge gewählt wird, ist diese nicht als Einschränkung der Erfindung zu verstehen, deren Schutzumfang alleine durch die anliegenden Ansprüche definiert wird.
  • Aspekte der vorliegenden Erfindung wurden vorstehend mit Bezug auf Flussdiagramm und/oder Blockdiagramme von Verfahren sowie auf Vorrichtungen (Systeme) und Computerprogrammprodukte gemäß Ausführungsformen der Erfindung beschrieben. Es versteht sich, dass jeder Block der Flussdiagramme und/oder Blockdiagramme sowie Kombinationen von Flussdiagrammen und/oder Blockdiagrammen durch Computerprogrammbefehle ausgeführt werden kann. Ein Computerprogrammcode für die Ausführung von Operationen im Hinblick auf Aspekte der vorliegenden Erfindung kann in einer oder in einer Kombination von beliebigen Programmiersprachen geschrieben sein, unter anderem in einer objektorientierten Programmiersprache, ohne Beschränkung hierauf. Diese Computerprogrammbefehle können für einen Prozessor eines Universalcomputers, eines Spezialcomputers oder einer anderen programmierbaren Datenverarbeitungsvorrichtung bereitgestellt werden, um eine Maschine zu schaffen, die das Verfahren für die Implementierung der Funktionen/Aktionen in dem Flussdiagramm und/oder Blockdiagramm oder in den Blöcken durchführt. Die Verfahren werden implementiert, wenn die Befehle über den Prozessor des Computers oder eine andere programmierbare Datenverarbeitungsvorrichtung ausgeführt werden.
  • Wie man ferner erkennen wird, können die Prozesse in Ausführungsformen der vorliegenden Erfindung durch beliebige Kombinationen von Software, Firmware und Hardware ausgeführt werden. Dementsprechend können Aspekte der vorliegenden Erfindung vorgesehen sein als eine Ausführungsform vollständig in Hardware oder als eine Ausführungsform, in der Software-Aspekte (einschließlich Firmware, residente Software, Mikro-Code etc.) und Hardware-Aspekte, die vorliegend allgemein als „Schaltung“, „Modul“ oder „System“ bezeichnet sind, kombiniert sind. Ferner können Aspekte der vorliegenden Erfindung in Form einer oder mehrerer computerlesbarer Speichereinheiten mit einem darin enthaltenen computerlesbaren Programmcode ausgeführt sein. Es kann auch eine beliebige Kombination einer oder mehrerer computerlesbaren Speichereinheiten verwendet werden. Die computerlesbare Speichereinheit kann beispielsweise eine elektronische, magnetische, optische, elektromagnetische, Infrarot- oder Halbleitersystemvorrichtung oder -einheit sein, oder eine geeignete Kombination dieser Einheiten, ohne Beschränkung hierauf. Speziellere Beispiele (aus einer nicht erschöpfenden Liste) von computerlesbaren Speichereinheiten sind unter anderem: eine tragbare Computerdiskette, eine Festplatte, ein Speicher mit wahlfreiem Zugriff (RAM), ein Nur-Lese-Speicher (ROM), ein löschbarer programmierbarer Nur-Lese-Speicher (EPROM oder Flash-Speicher), ein tragbarer Compact-Disc-Nur-Lese-Speicher (CD-ROM), eine optische Speichervorrichtung, eine Magnetspeichervorrichtung oder eine geeignete Kombination derselben. Im Kontext der vorliegenden Beschreibung kann eine computerlesbare Speichervorrichtung ein beliebiges konkretes Medium sein, das ein Programm zur Verwendung von einem oder in Kombination mit einem Befehlsausführungssystem, einer solchen Vorrichtung oder eines solchen Geräts enthalten kann.
  • Sofern in der vorliegenden Beschreibung die Begriffe „konkret“ und „nichttransitorisch“ verwendet werden, ist damit ein computerlesbares Speichermedium (oder ein „Speicher“) gemeint, das(der) die Verbreitung von elektromagnetischen Signalen ausschließt; das(der) aber ansonsten die Art der physikalischen computerlesbaren Speichervorrichtung, die von dem Begriff „computer-lesbares Medium“ oder Speicher umfasst ist, nicht einschränken soll. Zum Beispiel sollen die Bezeichnungen „nichttransitorisches computerlesbares Medium“ oder „konkretes Medium“ Speichervorrichtungen umfassen, die Informationen nicht notwendigerweise dauerhaft speichern, unter anderem zum Beispiel ein RAM. Programmbefehle oder Programmanweisungen und Daten, die auf einem konkreten computerzugreifbaren Speichermedium in einer nichttransistorischen Form gespeichert sind, können anschließend durch Übertragungsmedien oder Signale übertragen werden wie elektrische, elektromagnetische oder digitale Signale, die über ein Kommunikationsmedium wie ein Netzwerk und/oder eine drahtlose Verbindung übertragen werden.
  • Die Erfindung wurde vorstehend anhand von Ausführungsbeispielen beschrieben. Jedoch wird der Fachmann erkennen, dass verschiedene Änderungen durchgeführt und Elemente durch Äquivalente ersetzt werden können, ohne den Rahmen der Erfindung zu verlassen. Innerhalb des Rahmens der Erfindung sind auch zahlreiche Modifikationen möglich, um ein bestimmtes System, Gerät oder eine bestimmte Komponente an die Lehren der vorliegenden Erfindung anzupassen. Aus diesem Grund ist die vorliegende Offenbarung nicht auf bestimmte Ausführungsformen beschränkt, die für die praktische Umsetzung der Erfindung beschrieben wurden. Vielmehr umfasst die Offenbarung sämtliche Ausführungsformen, die in den Schutzbereich der anliegenden Ansprüche fallen.
  • Vorliegende Beschreibung der Erfindung dient lediglich dem Zweck der Erläuterung und Darstellung und ist nicht erschöpfend und beschränkt sich nicht auf die Offenbarung in der vorliegenden Form. Wie der Fachmann erkennen wird, sind innerhalb des Rahmens der Erfindung zahlreiche Modifikationen und Variationen möglich. Die beschriebenen Ausführungsformen wurden im Hinblick auf eine best mögliche Erläuterung der Prinzipien der vorliegenden Erfindung und deren praktische Ausführung gewählt und um der Fachwelt die verschiedenen Ausführungsformen mit verschiedenen Modifikationen, die für eine in Betracht gezogene bestimmte Anwendung geeignet sind, verständlich darzulegen.

Claims (18)

  1. Verfahren (300), umfassend: das Erfassen (302) einer aktuellen Stufe eines Dynamikumfangs einer aktuellen Szene durch wenigstens eine Hauptkamera und wenigstens eine Hilfskamera, wobei die Stufe des Dynamikumfangs einen Prozentanteil von dunklen Bereichen und hellen Bereichen in der Szene beschreibt; das Bestimmen (304, 306) einer Hauptkamera-Belichtungszeit und einer Hilfskamera-Belichtungszeit basierend auf der aktuellen Stufe des Dynamikumfangs; das Anwenden (308) der Hauptkamera-Belichtungszeit auf die Hauptkamera; das Anwenden (310) der Hilfskamera-Belichtungszeit auf die wenigstens eine Hilfskamera, wobei sich die Hilfskamera-Belichtungszeit von der Hauptkamera-Belichtungszeit unterscheidet; das gleichzeitige Aufnehmen (314) eines ersten Einzelbildes mit der Hauptkamera und wenigstens eines zweiten Einzelbildes mit der wenigstens einen Hilfskamera; und das Kombinieren (316) des ersten Einzelbildes und des wenigstens einen zweiten Einzelbildes zum Erstellen eines Bildes mit hohem Dynamikumfang (HDR-Bildes).
  2. Verfahren (300) nach Anspruch 1, wobei die Hauptkamera-Belichtungszeit und die Hilfskamera-Belichtungszeit gleichzeitig angewendet werden und wobei die Hauptkamera die aktuelle Stufe des Dynamikumfangs der aktuellen Szene erfasst, wobei das Verfahren ferner umfasst: das Synchronisieren der aktuellen Stufe des Dynamikumfangs mit der wenigstens einen Hilfskamera, in Reaktion auf die Erfassung der aktuellen Stufe des Dynamikumfangs.
  3. Verfahren (300) nach Anspruch 1 oder Anspruch 2, wobei das Bestimmen (304, 308) der Hauptkamera-Belichtungszeit und der Hilfskamera-Belichtungszeit ferner umfasst: das Berechnen eines Hauptkamera-Belichtungskompensationswerts basierend auf der aktuellen Stufe des Dynamikumfangs; das Berechnen eines Hilfskamera-Belichtungskompensationswerts basierend auf der aktuellen Stufe des Dynamikumfangs; das Bestimmen (304) der Hauptkamera-Belichtungszeit basierend auf dem Hauptkamera-Belichtungskompensationswert; und das Bestimmen (308) der Hilfskamera-Belichtungszeit basieren auf dem Hilfskamera-Belichtungskompensationswert.
  4. Verfahren (300) nach Anspruch 3, wobei: der Hauptkamera-Belichtungskompensationswert einer kurzen Belichtungszeit für die Belichtung von wenigstens einem hellen Bereich der aktuellen Szene zugeordnet ist; und der Hilfskamera-Belichtungskompensationswert einer langen Belichtungszeit für die Belichtung von wenigstens einem dunklen Bereich der aktuellen Szene zugeordnet ist.
  5. Verfahren (300) nach Anspruch 3 oder Anspruch 4, ferner umfassend: das Einstellen sowohl des Hauptkamera-Belichtungskompensationswerts als auch des Hilfskamera-Belichtungskompensationswerts auf einen Nullwert in Reaktion auf die Bestimmung, dass die aktuelle Stufe des Dynamikumfangs der aktuellen Szene einer flachen Szene entspricht.
  6. Verfahren (300) nach einem der Ansprüche 3 bis 5, wobei der Hauptkamera-Belichtungskompensationswert und der Hilfskamera-Belichtungskompensationswert in einer unsymmetrischen Relation stehen.
  7. Verfahren (300) nach einem der Ansprüche 3 bis 6, wobei der Hauptkamera-Belichtungskompensationswert mit dem Hilfskamera-Belichtungskompensationswert umgekehrt synchronisiert wird.
  8. Gerät (100), umfassend: einen Speicher (110); eine Hauptkamera (142a), die mit dem Speicher (110) verbunden ist und die eine aktuelle Stufe des Dynamikumfangs einer aktuellen Szene erfasst, wobei die Stufe des Dynamikumfangs einen Prozentanteil von dunklen Bereichen und hellen Bereichen in der Szene beschreibt; wenigstens eine Hilfskamera (142n), die mit dem Speicher (110) verbunden ist; und einen Prozessor (104), der mit dem Speicher (110), der Hauptkamera (142a) und der wenigstens einen Hilfskamera (142n) kommunizierend verbunden ist und der: basierend auf der aktuellen Stufe des Dynamikumfangs eine Hauptkamera-Belichtungszeit und eine Hilfskamera-Belichtungszeit bestimmt; die Hauptkamera-Belichtungszeit auf die Hauptkamera (142a) anwendet; die Hilfskamera-Belichtungszeit auf die wenigstens eine Hilfskamera (142n) anwendet, wobei sich die Hilfskamera-Belichtungszeit von der Hauptkamera-Belichtungszeit unterscheidet; wobei in Reaktion darauf, dass der Prozessor die Hauptkamera-Belichtungszeit auf die Hauptkamera (142a) und die Hilfskamera-Belichtungszeit auf die wenigstens eine Hilfskamera (142n) anwendet, die Hauptkamera (142a) ein erstes Einzelbild aufnimmt; und die wenigstens eine Hilfskamera (142n) gleichzeitig wenigstens ein zweites Einzelbild aufnimmt; und wobei der Prozessor (104): das erste Einzelbild und das wenigstens eine zweite Einzelbild kombiniert, um ein Bild mit einem hohen Dynamikumfang (HDR-Bild) zu erzeugen; und das HDR-Bild in dem Speicher (110) speichert.
  9. Gerät (100) nach Anspruch 8, wobei: die Hauptkamera-Belichtungszeit und die Hilfskamera-Belichtungszeit gleichzeitig angewendet werden; und der Prozessor (104) in Reaktion auf die Erfassung der aktuellen Stufe des Dynamikumfangs die aktuelle Stufe des Dynamikumfangs mit der wenigstens einen Hilfskamera (142n) synchronisiert.
  10. Gerät (100) nach Anspruch 8 oder Anspruch 9, wobei bei der Bestimmung der Hauptkamera-Belichtungszeit und der Hilfskamera-Belichtungszeit der Prozessor (104): basierend auf der aktuellen Stufe des Dynamikumfangs einen Hauptkamera-Belichtungskompensationswert berechnet; basierend auf der aktuellen Stufe des Dynamikumfangs einen Hilfskamera-Belichtungskompensationswert berechnet; basierend auf dem Hauptkamera-Belichtungskompensationswert die Hauptkamera-Belichtungszeit bestimmt; und basierend auf dem Hilfskamera-Belichtungskompensationswert die Hilfskamera-Belichtungszeit bestimmt.
  11. Gerät (100) nach Anspruch 10, wobei: der Hauptkamera-Belichtungskompensationswert einer kurzen Belichtungszeit für die Belichtung von zumindest einem hellen Bereich der aktuellen Szene zugeordnet ist; und der Hilfskamera-Belichtungskompensationswert einer langen Belichtungszeit für die Belichtung von zumindest einem dunklen Bereich der aktuellen Szene zugeordnet ist.
  12. Gerät (100) nach Anspruch 10 oder Anspruch 11, wobei bei der Berechnung des Hauptkamera-Belichtungskompensationswerts und des Hilfskamera-Belichtungskompensationswerts der Prozessor (104): in Reaktion auf die Bestimmung, dass die aktuelle Stufe des Dynamikumfangs der aktuellen Szene einer flachen Szene entspricht, sowohl den Hauptkamera-Belichtungskompensationswert als auch den Hilfskamera-Belichtungskompensationswert auf einen Nullwert einstellt.
  13. Gerät (100) nach einem der Ansprüche 10 bis 12, wobei der Hauptkamera-Belichtungskompensationswert und der Hilfskamera-Belichtungskompensationswert in einer unsymmetrischen Relation stehen.
  14. Gerät (100) nach einem der Ansprüche 10 bis 13, wobei der Hauptkamera-Belichtungskompensationswert mit dem Hilfskamera-Belichtungskompensationswert umgekehrt synchronisiert wird.
  15. Computerprogrammprodukt, umfassend: eine computerlesbare Speichervorrichtung; und einen Programmcode auf der computerlesbaren Speichervorrichtung, der bei Ausführung durch einen Prozessor, der einem Gerät zugeordnet ist, das Gerät befähigt, folgende Funktionen auszuführen: das Erfassen einer aktuellen Stufe des Dynamikumfangs einer aktuellen Szene durch wenigstens eine Hauptkamera und wenigstens eine Hilfskamera, wobei die Stufe des Dynamikumfangs einen Prozentanteil von dunklen Bereichen und hellen Bereichen in der Szene beschreibt; das Bestimmen einer Hauptkamera-Belichtungszeit und einer Hilfskamera-Belichtungszeit basierend auf der aktuellen Stufe des Dynamikumfangs; das Anwenden der Hauptkamera-Belichtungszeit auf die Hauptkamera; das Anwenden der Hilfskamera-Belichtungszeit auf wenigstens eine Hilfskamera, wobei sich die Hilfskamera-Belichtungszeit von der Hauptkamera-Belichtungszeit unterscheidet; das gleichzeitige Aufnehmen eines ersten Einzelbildes mit der Hauptkamera und wenigstens eines zweiten Einzelbildes mit der wenigstens einen Hilfskamera; und das Kombinieren des ersten Einzelbildes und des wenigstens einen zweiten Einzelbildes zum Erstellen eines Bildes mit hohem Dynamikumfang (HDR-Bildes).
  16. Computerprogrammprodukt nach Anspruch 15, wobei die Hauptkamera-Belichtungszeit und die Hilfskamera-Belichtungszeit gleichzeitig angewendet werden und wobei die Hauptkamera die aktuelle Stufe des Dynamikumfangs der aktuellen Szene umfasst, wobei der Programmcode ferner einen Programmcode umfasst, der das Gerät zur Bereitstellung der folgenden Funktionen befähigt: das Synchronisieren der aktuellen Stufe des Dynamikumfangs mit der wenigstens einen Hilfskamera in Reaktion auf die Erfassung der aktuellen Stufe des Dynamikumfangs.
  17. Computerprogrammprodukt nach Anspruch 15 oder Anspruch 16, wobei der Programmcode zum Bestimmen der Hauptkamera-Belichtungszeit und der Hilfskamera-Belichtungszeit ferner einen Programmcode umfasst, der das Gerät zur Bereitstellung der folgenden Funktionen befähigt: das Berechnen eines Hauptkamera-Belichtungskompensationswerts basierend auf der aktuellen Stufe des Dynamikumfangs; das Berechnen eines Hilfskamera-Belichtungskompensationswerts basierend auf der aktuellen Stufe des Dynamikumfangs; das Bestimmen der Hauptkamera-Belichtungszeit basierend auf dem Hauptkamera-Belichtungskompensationswert; und das Bestimmen der Hilfskamera-Belichtungszeit basierend auf dem Hilfskamera-Belichtungskompensationswert.
  18. Computerprogrammprodukt nach Anspruch 17, wobei: der Hauptkamera-Belichtungskompensationswert einer kurzen Belichtungszeit für die Belichtung von wenigstens einem hellen Bereich der aktuellen Szene zugeordnet ist; der Hilfskamera-Belichtungskompensationswert einer langen Belichtungszeit für die Belichtung von wenigstens einem dunklen Bereich der aktuellen Szene zugeordnet ist; und der Programmcode ferner einen Programmcode umfasst, der das Gerät befähigt für die Bereitstellung der Funktion des Einstellens sowohl des Hauptkamera-Belichtungskompensationswerts als auch des Hilfskamera-Belichtungskompensationswerts auf einen Nullwert, in Reaktion auf die Bestimmung, dass die aktuelle Stufe des Dynamikumfangs der aktuellen Szene einer flachen Szene entspricht.
DE102017126270.9A 2016-11-17 2017-11-09 Mehrfach-Kamera-Aufnahme eines HDR-Bildes Active DE102017126270B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/354,501 US10284761B2 (en) 2016-11-17 2016-11-17 Multi-camera capture of a high dynamic range image
US15/354,501 2016-11-17

Publications (2)

Publication Number Publication Date
DE102017126270A1 DE102017126270A1 (de) 2018-05-17
DE102017126270B4 true DE102017126270B4 (de) 2021-04-29

Family

ID=60664940

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017126270.9A Active DE102017126270B4 (de) 2016-11-17 2017-11-09 Mehrfach-Kamera-Aufnahme eines HDR-Bildes

Country Status (3)

Country Link
US (1) US10284761B2 (de)
DE (1) DE102017126270B4 (de)
GB (1) GB2559230B (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102520225B1 (ko) * 2016-06-30 2023-04-11 삼성전자주식회사 전자 장치 및 전자 장치의 이미지 촬영 방법
US10122943B1 (en) 2017-05-05 2018-11-06 Motorola Mobility Llc High dynamic range sensor resolution using multiple image sensors
CN109167917B (zh) * 2018-09-29 2020-10-20 维沃移动通信(杭州)有限公司 一种图像处理方法及终端设备
CN109005367B (zh) * 2018-10-15 2020-10-13 Oppo广东移动通信有限公司 一种高动态范围图像的生成方法、移动终端及存储介质
CN109842737B (zh) * 2019-02-01 2021-04-09 初速度(苏州)科技有限公司 一种图像曝光方法及装置、车载终端
KR20210035369A (ko) 2019-09-23 2021-04-01 삼성전자주식회사 복수의 이미지 센서들에 의해 획득되는 이미지 데이터에 기초하여 비디오 hdr 처리를 수행하기 위한 전자 장치
CN114827487B (zh) * 2020-04-28 2024-04-12 荣耀终端有限公司 一种高动态范围图像合成方法和电子设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106131449A (zh) * 2016-07-27 2016-11-16 维沃移动通信有限公司 一种拍照方法及移动终端

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6920236B2 (en) 2001-03-26 2005-07-19 Mikos, Ltd. Dual band biometric identification system
KR20070081773A (ko) 2006-02-13 2007-08-17 스마트 와이어레스 가부시키가이샤 적외선 얼굴 인증장치, 이를 구비하는 휴대 단말기 및보안장치
TW200820123A (en) * 2006-10-20 2008-05-01 Primax Electronics Ltd Method and system of generating high dynamic range image corresponding to specific scene
KR101064945B1 (ko) 2008-11-25 2011-09-15 한국전자통신연구원 적외선 영상을 이용한 위조 얼굴 검출 방법 및 그 장치
US8493178B2 (en) 2008-12-02 2013-07-23 Electronics And Telecommunications Research Institute Forged face detecting method and apparatus thereof
JP4702441B2 (ja) 2008-12-05 2011-06-15 ソニー株式会社 撮像装置及び撮像方法
KR101616422B1 (ko) 2009-12-23 2016-04-28 삼성전자주식회사 고속 af를 지원하는 디지털영상처리 장치 및 방법
CN102428707B (zh) 2010-03-19 2015-03-11 松下电器产业株式会社 立体视用图像对位装置和立体视用图像对位方法
JP5367640B2 (ja) * 2010-05-31 2013-12-11 パナソニック株式会社 撮像装置および撮像方法
US8760537B2 (en) * 2010-07-05 2014-06-24 Apple Inc. Capturing and rendering high dynamic range images
KR101012691B1 (ko) 2010-07-05 2011-02-09 주훈 3차원 입체 열상 카메라 시스템
US9313390B2 (en) 2011-04-08 2016-04-12 Qualcomm Incorporated Systems and methods to calibrate a multi camera device
KR101843450B1 (ko) * 2011-08-23 2018-03-29 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US20130242057A1 (en) * 2012-03-16 2013-09-19 Research In Motion Limited Methods and devices for producing an enhanced image
US9003196B2 (en) 2013-05-13 2015-04-07 Hoyos Labs Corp. System and method for authorizing access to access-controlled environments
US9615012B2 (en) * 2013-09-30 2017-04-04 Google Inc. Using a second camera to adjust settings of first camera
CN105339841B (zh) * 2013-12-06 2018-12-14 华为终端(东莞)有限公司 双镜头设备的拍照方法及双镜头设备
CN104937921B (zh) * 2013-12-06 2019-04-26 华为终端(东莞)有限公司 一种终端及图像处理方法、图像采集方法
US20160227100A1 (en) 2015-01-29 2016-08-04 Qualcomm Incorporated Dual camera systems and methods for rapid 3a convergence and high dynamic range exposure metering
US20160295097A1 (en) 2015-03-31 2016-10-06 Qualcomm Incorporated Dual camera autofocus
KR102494346B1 (ko) 2015-04-10 2023-02-01 삼성전기주식회사 렌즈 구동 장치 및 이를 포함하는 카메라 모듈
US9703175B2 (en) 2015-07-02 2017-07-11 Qualcomm Incorporated Systems and methods for autofocus trigger
US9866745B2 (en) 2015-07-13 2018-01-09 Htc Corporation Image capturing device and hybrid auto-focus method thereof
US20170064184A1 (en) 2015-08-24 2017-03-02 Lustrous Electro-Optic Co.,Ltd. Focusing system and method
US20170163902A1 (en) * 2015-12-08 2017-06-08 Le Holdings (Beijing) Co., Ltd. Method and electronic device for generating high dynamic range image
KR102462711B1 (ko) 2016-01-08 2022-11-04 삼성전자주식회사 전자 장치의 센서 동작 방법 및 장치
KR101769385B1 (ko) 2016-05-04 2017-08-18 엘지전자 주식회사 듀얼 카메라 모듈 및 그 제어 방법
US9886640B1 (en) 2016-08-08 2018-02-06 International Business Machines Corporation Method and apparatus to identify a live face image using a thermal radiation sensor and a visual radiation sensor
CN107886032B (zh) 2016-09-30 2021-12-14 阿里巴巴集团控股有限公司 终端设备、智能手机、基于脸部识别的认证方法和系统
US20180139369A1 (en) 2016-11-16 2018-05-17 Motorola Mobility Llc Backlit face detection
US10057499B1 (en) 2017-02-21 2018-08-21 Motorola Mobility Llc Automatic exposure control convergence procedure by auxiliary camera

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106131449A (zh) * 2016-07-27 2016-11-16 维沃移动通信有限公司 一种拍照方法及移动终端

Also Published As

Publication number Publication date
GB201718381D0 (en) 2017-12-20
DE102017126270A1 (de) 2018-05-17
US20180139367A1 (en) 2018-05-17
GB2559230B (en) 2019-12-25
US10284761B2 (en) 2019-05-07
GB2559230A (en) 2018-08-01

Similar Documents

Publication Publication Date Title
DE102017126270B4 (de) Mehrfach-Kamera-Aufnahme eines HDR-Bildes
DE102015102113B4 (de) Verfahren zum warnen eines benutzers über einen abstand zwischen augen des benutzers und einem bildschirm und elektronische vorrichtung
DE102014220302B4 (de) Verfahren zur Durchführung einer Aktions-Erkennung auf einem Bild eines Fahrers in einem Fahrzeug sowie entsprechendes Nichtflüchtiges, Computer-lesbares Speichermedium und Verfahren zum Lernen eines Random Forest Modells zur Aktionserkennung
DE112019007677T5 (de) Posenvorhersageverfahren, Modelltrainingsverfahren und Vorrichtung
DE202019006001U1 (de) Elektronische Vorrichtung zur Gewinnung von Tiefeninformation
DE102020002964A1 (de) Verwenden eines neuronalen Netzwerks mit einer Zwei-Strom Encoder-Architektur zur Erzeugung digitaler Kompositbilder
DE112006001017B4 (de) Verfahren und Vorrichtung zum Eingliedern von Irisfarbe in eine Rotes-Auge-Korrektur
DE102019213184A1 (de) Verfahren und system zum automatischen weissabgleich auf basis von tiefem lernen
DE102015102681B4 (de) All-in-focus-implementierung
DE112013002286B4 (de) Bildaufnahmevorrichtung und Verfahren zur Fokussierungssteuerung
DE112017000017T5 (de) Kameraeinstellungsanpassung basierend auf vorhergesagten umgebungsfaktoren und nachverfolgungssysteme, die diese einsetzen
DE112015006244T5 (de) Abstandsbild-Erfassungsvorrichtung und Abstandsbild-Erfassungsverfahren
DE112016007018T5 (de) Identifizierung der iris oder eines anderen körperteils auf einer datenverarbeitungseinrichtung
DE102017126269B4 (de) Vorrichtung und Verfahren zur hinterleuchteten Gesichtserkennung
DE112013006817B4 (de) Bildaufnahmevorrichtung, Signalverarbeitungsverfahren und Signalverarbeitungsprogramm
DE102016104532A1 (de) Steuerung der Ausrichtung einer Gerätebildschirmanzeige basierend auf dem Benutzungskontext
DE112013004507T5 (de) Bildverarbeitungsvorrichtung, Bilderfassungsvorrichtung, Bildverarbeitungsverfahren, Programm und Aufzeichnungsmedium
DE102018133609A1 (de) Elektronische Vorrichtung und Verfahren zur Steuerung derselben
DE112015006245B4 (de) Abstandsbild-Erfassungsvorrichtung und Abstandsbild-Erfassungsverfahren
WO2011060952A1 (de) Gerät zur bildlichen aufnahme und darstellung von objekten, insbesondere digitalfernglas, digitalkamera oder digitalvideokamera
DE112016005809T5 (de) Lichtfeld-Rendering eines Bildes unter Verwendung variabler Rechenkomplexität
DE202015009148U1 (de) Automatische Bearbeitung von Bildern
DE102013201980B4 (de) Verfahren zur Fokuseinstellung und entsprechendes Bilderfassungsgerät
DE102016006242A1 (de) Informationsverarbeitungsvorrichtung, steuerverfahren für informationsverarbeitungsvorrichtung, bildverarbeitungssystem und speichermedium
DE102019100512A1 (de) Selektives Anwenden von Farbe auf ein Bild

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005235000

Ipc: H04N0023700000