DE102015102681B4 - All-in-focus-implementierung - Google Patents

All-in-focus-implementierung Download PDF

Info

Publication number
DE102015102681B4
DE102015102681B4 DE102015102681.3A DE102015102681A DE102015102681B4 DE 102015102681 B4 DE102015102681 B4 DE 102015102681B4 DE 102015102681 A DE102015102681 A DE 102015102681A DE 102015102681 B4 DE102015102681 B4 DE 102015102681B4
Authority
DE
Germany
Prior art keywords
images
image
focal plane
sequence
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102015102681.3A
Other languages
English (en)
Other versions
DE102015102681A1 (de
Inventor
Soumyendu Sarkar
Geoffrey F. Burns
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE102015102681A1 publication Critical patent/DE102015102681A1/de
Application granted granted Critical
Publication of DE102015102681B4 publication Critical patent/DE102015102681B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Automatic Focus Adjustment (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)

Abstract

System zum Betreiben einer Kamera, wobei das System Folgendes umfasst:einen Bildsensor in der Kamera zum Erfassen einer Sequenz von Bildern in verschiedenen Brennebenen, wobei mindestens ein Teil der Sequenz von Bildern auftritt, bevor ein Signal zum Speichern eines All-In-Focus-Bilds empfangen wird;ein Benutzerschnittstellenmodul zum Empfangen des Signals zum Speichern eines All-In-Focus-Bilds von einem Benutzer; undeinen Bildprozessor zum Verschmelzen mindestens zweier Bilder, um das All-In-Focus-Bild zu ergeben, wobei die mindestens zwei Bilder unterschiedliche Brennebenen besitzen.

Description

  • ERFINDUNGSGEBIET
  • Hierin beschriebene Ausführungsformen betreffen allgemein die Fotografie und insbesondere eine All-In-Focus-Implementierung.
  • ALLGEMEINER STAND DER TECHNIK
  • In der Fotografie und Kinematografie bezieht sich die Schärfentiefe (DOF - Depth Of Field) auf den Vorne-Hinten-Brennpunktbereich in einem Bild. In einem Bild mit einer großen DOF sind der Vordergrund, die Mitte und der Hintergrund alle scharf. Umgekehrt ist bei einem Bild mit einer flachen DOF möglicherweise nur eine Ebene scharf. Bei herkömmlichen Kameras kann eine große DOF mit einer kleinen Kamerablende erreicht werden. Bei einigen Digitalkameras können mehrere Brennebenen in schneller Folge erfasst und kombiniert werden, um ein All-In-Focus-Bild herzustellen. Aus der US 2014/0 002 712 A1 ist eine Kamera zur Erzeugung eines Bildes mit erhöhter Schärfentiefe eines sich bewegenden Objekts bekannt. Dabei bestimmt die Kamera die Anzahl der Bilder, die für eine Sequenz benötigt werden, um das sich bewegende Objekt vollständig scharf abzubilden. Die US 2006/0 061 678 A1 beschreibt eine Kamera, die nach einem Aufnahmebefehl mehrere Bilder mit unterschiedlicher Schärfeebene erzeugt, wobei der Autofokus der Kamera auf verschiedene Objekte gerichtet wird. Anschließend kann der Benutzer aus einer Mehrzahl der Bilder dasjenige wählen, bei dem die Brennebene auf dem gewünschten Objekt liegt.
  • Figurenliste
  • In den Zeichnungen, die nicht notwendigerweise maßstabsgetreu sind, können gleiche Zahlen ähnliche Komponenten in mehreren Ansichten beschreiben. Gleiche Zahlen mit unterschiedlichen Buchstabensuffixen können unterschiedliche Fälle von ähnlichen Komponenten darstellen. Einige Ausführungsformen sind beispielhaft und nicht als Beschränkung in den Figuren der beiliegenden Zeichnungen dargestellt. Es zeigen:
    • 1 ein Blockdiagramm, das eine Kamera gemäß einem Ausführungsbeispiel darstellt;
    • 2 eine Tabelle, die eine Bildsequenz gemäß einer Ausführungsform darstellt;
    • 3 eine Tabelle, die eine Bildsequenz gemäß einer Ausführungsform darstellt;
    • 4 ein Flussdiagramm, das ein Verfahren zum Betreiben einer Kamera gemäß einer Ausführungsform darstellt; und
    • 5 ein Blockdiagramm, das eine beispielhafte Maschine darstellt, auf der eine oder mehrere beliebige der Techniken (z.B. Methodiken), die hierin erörtert werden, gemäß einem Ausführungsbeispiel durchgeführt werden können.
  • AUSFÜHRLICHE BESCHREIBUNG
  • All-In-Focus-Bilder werden hergestellt, indem mehrere Bilder in verschiedenen Brennebenen miteinander verbunden werden, um ein resultierendes Bild zu erhalten, das größtenteils, wenn auch nicht vollständig, scharf ist. Die Technik wird auch als Focus Stacking, Focal Plane Merging oder Z-Stacking bezeichnet. Die Fusion von Bildern aus verschiedenen Brennebenen wird von einem Bildprozessor durch Bildanalyse durchgeführt. Beispielsweise können durch Kantendetektion verschiedene entsprechende Abschnitte von Bildern aus verschiedenen Brennebenen verglichen werden und der schärfste Abschnitt wird dann im resultierenden Bild verwendet.
  • Bei herkömmlichen Kameras existiert eine Verzögerung zwischen dem Zeitpunkt, zu dem der Fotograf den Verschlussmechanismus betätigt, und zu dem das Bild erfasst wird. Diese Verzögerung wird für die All-In-Focus-Fotografie vergrößert. Wenn ein Fotograf den Verschlussauslöser betätigt, erfassen herkömmliche Kameras mehrere Bilder und kombinieren sie dann, um ein All-In-Focus-Bild herzustellen. Wegen der Verzögerung stimmt außerdem das, was der Fotograf im elektronischen Sucher sieht, nicht mit dem tatsächlichen erfassten Bild überein. Die vorliegende Offenbarung beschreibt Systeme und Verfahren zum Bereitstellen eines optimierten Suchers und einer Verschlussverzögerung von null für All-In-Focus-Bilder. Die hierin beschriebenen Systeme und Verfahren arbeiten mit Autofokus-Implementierungen.
  • 1 ist ein Blockdiagramm, das eine Kamera 100 darstellt, gemäß einem Ausführungsbeispiel. Die Kamera 100 enthält ein Objektiv 102, einen Bildsensor 104, eine Bilddatenablageeinrichtung 106, einen Vorschauschirm 108 und einen elektronischen Sucher 110. Das Objektiv 102 arbeitet dahin, Licht auf den Bildsensor 104 zu fokussieren. Bei dem Bildsensor 104 kann es sich um eine beliebige Art von Bildsensor handeln, einschließlich einem CCD- (Charge-Coupled Device), einem CMOS- (Complementary Metal-Oxide-Semiconductor) oder einem NMOS(N-Type Metal-Oxide-Semiconductor)-Bauelement. Bei einem CCD-Sensor werden Pixel durch p-dotierte MOS-Kondensatoren dargestellt. Ein Kondensatorarray wirkt als ein fotoaktives Gebiet, was bewirkt, dass jeder Kondensator eine elektrische Ladung proportional zur Lichtintensität ansammelt. Diese Ladungen werden in Spannungen umgewandelt, während das Array ausgelesen wird. Die Spannungen werden dann abgetastet, digitalisiert und in einem Speicher gespeichert. Ein CMOS-Aktivpixelsensor ist eine integrierte Schaltung, die ein Array aus Pixelsensoren enthält, wobei jedes Pixel einen Fotodetektor und einen aktiven Verstärker enthält.
  • Die Bildablageeinrichtung 106 kann eine beliebige Art von eingebautem oder entfernbarem Speicher sein, wie etwa ein Direktzugriffsspeicher (RAM), ein CompactFlash-Speicher, ein Secure-Digital-Speicher, eine Festplatte, ein Flash-Laufwerk oder irgendeine andere Flash-Speicher-Datenablageeinrichtung. Wenn ein Bild aufgenommen wird, wird das Bild zumindest vorübergehend in der Bildablageeinrichtung gespeichert.
  • Der Vorschauschirm 108 wird in vielen Formen verwendet, um ein Bild, unmittelbar nachdem es aufgenommen worden ist, vorübergehend anzuzeigen. Der Vorschauschirm 108 kann im Vergleich zur Größe des Kameragehäuses relativ groß sein. Beispielsweise kann der Vorschauschirm 108 einen Großteil der Rückwand eines Kameragehäuses belegen. Die auf dem Vorschauschirm angezeigten Vorschaubilder gestatten dem Benutzer (Fotografen), sich ein Bild schnell anzusehen und weitere Schritte zu ergreifen, wie etwa das Bild zu löschen, falls es unerwünscht war, ein anderes Bild aufzunehmen oder kamerainterne Verarbeitung zu verwenden, um das Bild mit Filtern, Beschneidung, Zoom oder dergleichen zu modifizieren. Der elektronische Sucher 110 wird von dem Benutzer verwendet, um die Szene festzulegen und zusammenzustellen, bevor der Bilderfassungsprozess ausgelöst wird. Der elektronische Sucher 110 kann an einer herkömmlichen Position an der Kamera 100 angeordnet sein, wie etwa an der Oberseite des Kameragehäuses, und eine Kappe oder eine andere Hülle enthalten, um das Bild des elektronischen Suchers gegenüber Umgebungslicht abzuschirmen. In einigen Fällen ist der elektronische Sucher 110 in den Vorschauschirm 108 integriert, so dass der Vorschauschirm als eine Live-Vorschau der Szene verwendet wird. Bei einigen mobilen Einrichtungen wie etwa Mobiltelefonen, Tablets oder Smartphones sind der elektronische Sucher 110 und der Vorschauschirm 108 ein und dasselbe. Diese Organisation erfordert eine hohe FPS-Aktualisierung auf dem Vorschauschirm, um ein gleichmäßiges Sucherbild sicherzustellen.
  • Die Bilddatenablageeinrichtung 106 kann einen Bildpuffer 112 beinhalten. Während des Betriebs wird der Bildpuffer 112 zum Speichern eines Kreispuffers von Bildern verwendet, die ständig durch den Bildsensor 104 erfasst werden. Bilder können vom Bildsensor 104 mit einer Bildrate erfasst werden. Die Bildrate kann entsprechend den Fähigkeiten des Bildsensors 104, der Bilddatenablageeinrichtung 106, des Bildprozessors 116 oder anderer Komponenten der Kamera 100 eingeschränkt oder ausgelegt werden. Die Bildrate kann 30 Einzelbilder pro Sekunde (FPS - Frames Per Second), 24 FPS, 45 FPS, 60 FPS oder eine beliebige andere Bildrate betragen. Während der Benutzer eine Szene einstellt (z.B. über teilweises Drücken eines Verschlussauslösers oder einfaches Zeigen auf ein Objekt), erfasst die Kamera 100 ständig Bilder und speichert sie im Bildpuffer 112. Wenn der Benutzer eine Bilderfassung auslöst (z.B. einen Verschlussauslöser drückt), werden mehrere Bilder aus dem Bildpuffer 112 abgerufen und verwendet, um ein All-In-Focus-Bild zusammenzubauen. Während der Benutzer eine Szene einstellt, werden außerdem der elektronische Sucher 110 und/oder der Vorschauschirm 108 mit einem fokussierten Bild (z.B. einem autofokussierten Bild) aktualisiert, das aus dem Bildpuffer 112 abgerufen werden kann.
  • Der Bildpuffer 112 kann auf eine von mehreren Weisen ausgelegt sein, um die Verarbeitungszeit für All-In-Focus-Bilder zu verbessern und die Bildverzögerung im elektronischen Sucher 110 oder auf dem Vorschauschirm 108 zu verbessern oder zu eliminieren. Bei einer Ausführungsform wird eine Reihe von Bildern ständig durch den Bildsensor 104 erfasst und im Bildpuffer 112 gespeichert. Die Reihe kann ein sich wiederholendes Muster aus drei unterschiedlich fokussierten Bildern in der Reihenfolge eines Bilds mit einem autofokussierten Basisfokus, ein Bild mit einer Brennebene weiter weg und ein Bild mit einer Brennebene näher daran beinhalten. Die Sequenz kann so erweitert werden, dass sie fünf oder mehr unterschiedlich exponierte Bilder anstelle von dreien aufweist. Beispielsweise kann die Sequenz ein Basisfokusbild sein, ein weit weg liegendes Bild, ein weiter weg liegendes Bild, ein nahe liegendes Bild und ein näher liegendes Bild. Mit diesem Design kann das All-In-Focus-Bild mit minimaler Verarbeitungsverzögerung erhalten werden.
  • 2 ist eine Tabelle 200, die eine Bildsequenz veranschaulicht, gemäß einer Ausführungsform. In der ersten Zeile 202 ist eine Reihe von Rahmenperioden dargestellt. Die relative Brennweite ist in der zweiten Zeile 204 gezeigt. In der dritten bis fünften Zeile 206, 208 und 210 ist die All-In-Focus-Bildfusion dargestellt. In der sechsten Zeile 212 ist eine Anzeige dargestellt, ob Autofokusverarbeitung während eines bestimmten Einzelbilds verwendet wird. In der siebten Zeile 214 ist eine Anzeige dargestellt, ob während eines bestimmten Einzelbilds eine Vorschauverarbeitung verwendet wird.
  • Wie in Tabelle 200 gezeigt, kann die All-In-Focus-Verarbeitung für die Bildperiode 1 durch das Durchführen einer Mehrbildfusion mit zu den Bildperioden 0, 1 und 2 erfassten Bildern erfolgen. Analog kann die All-In-Focus-Verarbeitung für die Bildperiode 2 durch Durchführen einer Mehrbildfusion mit bei den Bildperioden 1, 2 und 3 erfassten Bildern erfolgen. Auf diese Weise können All-In-Focus-Bilder für jede Bildperiode verarbeitet werden.
  • Ein Merkmal der Verschlussverzögerung von null wird deshalb mit einer Granularität von einer einzelnen Bildperiode unterstützt. Ein Benutzer kann in Schritten aus einzelnen Bildperioden in der Bildgeschichte zurücknavigieren. Das Timenudge-Merkmal, durch das der Benutzer auf Bilder von einer Zeit zugreifen kann, bevor der Auslöser gedrückt wurde, kann ebenfalls mit einer Granularität von einem einzelnen Bild implementiert werden. Um das Timenudge zu vereinfachen, kann die Vorverarbeitung an den erfassten Bildern durchgeführt werden, damit der Benutzer bessere Klarheit über unterschiedlich fokussierte Bilder erhält.
  • Die in 2 dargestellte Organisation kann jedoch unter einer niedrigeren FPS für das Vorschaufenster eines Drittels der erfassten FPS leiden, da jedes dritte Einzelbild mit dem Basisfokus belichtet wird, das vom Autofokus abgeleitet ist. Die nahe und weit weg fokussierten Einzelbilder sind für die Vorschau ungeeignet, weil das Zielobjekt des Bildes absichtlich unscharf ist. Außerdem können die Autofokusverarbeitung und die Konvergenzgeschwindigkeit für den Autofokus leiden, da nur jedes dritte Einzelbild Autofokus verwendet, wodurch der Autofokus eine größere Herausforderung darstellt.
  • 3 ist eine Tabelle 300, die eine Bildsequenz darstellt, gemäß einer Ausführungsform. In der ersten Zeile 302 ist eine Reihe von Bildperioden dargestellt. Die relative Brennweite ist in der zweiten Zeile 304 gezeigt. In der dritten und vierten Zeile 306 und 308 ist die All-In-Focus-Bildfusion dargestellt. In der fünften Zeile 310 ist eine Anzeige dargestellt, ob die Autofokusverarbeitung während eines bestimmten Einzelbilds verwendet wird. In der sechsten Reihe 312 ist eine Anzeige dargestellt, ob die Vorschauverarbeitung während eines bestimmten Einzelbilds verwendet wird.
  • Um die Vorschau- und Autofokusleistung zu optimieren, wird hier eine Organisation beschrieben, die gegenüber der oben bezüglich 2 beschriebenen modifiziert ist. Die Fokuswerte für die kontinuierliche Erfassung sind derart variiert, dass alle vier aufeinanderfolgenden Bilderfassungen als Basis-Fokuserfassung (Auto-Fokuserfassung), Weit-Fokuserfassung, Wiederbasis-Fokuserfassung (Auto-Fokuserfassung) und Nah-Fokuserfassung fokussiert werden. Der Zyklus wiederholt sich. Autofokus wird an der Bilderfassung mit Basisfokus berechnet. Ähnlich wie bei der Organisation von 2 wird die Vorschau für den Sucher an der Bilderfasssung mit Basisfokus (Autofokus) verarbeitet.
  • Wie in Tabelle 300 gezeigt, wird die All-In-Focus-Verarbeitung für die Bildperiode 2 durch Durchführen einer Mehrbildfusion mit bei den Bildperioden 1, 2 und 3 erfassten Bildern durchgeführt. Analog wird eine All-In-Focus-Verarbeitung für Bildperiode 4 durch Durchführen einer Mehrbildfusion mit bei den Bildperioden 3, 4 und 5 erfassten Bildern durchgeführt. Auf diese Weise ist ein All-In-Focus-verarbeitetes Bild für alle zwei Bildperioden verfügbar.
  • Dadurch wird das Merkmal einer Verschlussverzögerung von null mit einer Granularität von zwei Bildperioden unterstützt, da der Benutzer jeweils zwei Bilder zurückgehen kann. Das Timenudge-Merkmal wird ebenfalls in zwei Bildperioden implementiert.
  • Weil das Bild mit dem Basis-Autofokus bei jedem zweiten Bild anstatt bei jedem dritten Bild verfügbar ist (z.B. in 2), können die Autofokus- und Vorschauverarbeitung für den Sucher 110 oder den Vorschauschirm 108 bei jedem zweiten Bild oder mit der Hälfte der FPS der Bilderfassung erfolgen. Die Autofokus-Konvergenz ist signifikant schneller als die in 2 dargestellte Organisation mit einer Granularität von einer einzelnen Rahmenzeit, wodurch das Benutzererlebnis besser wird bei schnellerer Kameraantwort und somit einem hochwertigeren All-In-Focus mit Autofokus als Basisfokus. Da die Vorschau-FPS nur die Hälfte der Kameraerfassungs-FPS beträgt, ist die Sucherbildgebung kontinuierlich, wodurch das Benutzererlebnis verbessert wird. Da die Autofokus-Konvergenz signifikant schneller ist als die in 2 dargestellte Organisation mit einer Granularität von einer einzelnen Rahmenzeit ist auch das resultierende adaptive All-In-Focus-Bild von höherer Qualität durch genaueres Verfolgen des Basisfokus und schnelleres Fokussieren, wenn die Änderung beim Blickfeld zu einer Änderung beim Fokus führt.
  • Die hier beschriebenen Systeme und Verfahren verbessern das Benutzererlebnis, indem sie die Zeitverzögerungen entfernen oder reduzieren und es dem Benutzer ermöglichen, ein All-In-Focus zum Zeitpunkt oder näher zum Zeitpunkt der Verschlussauslösung zu erfassen. Dieser Mechanismus wird als eine Verschlussverzögerung von null bezeichnet.
  • Außerdem kann ein Benutzer mit dem Bildpuffer 112 für eine kurze Periode zeitlich zurücknavigieren und ein All-In-Focus-Bild auf der Basis eines Bilds vom Bildpuffer 112 zusammenbauen. Wie oben erwähnt, wird dieser Mechanismus als Timenudge bezeichnet.
  • Die hierin beschriebenen Systeme und Verfahren sind adaptiv. Wenn die durch Autofokus geschätzte Brennebene als die Basis verwendet wird und ein bei differenzierten Brennebenen relativ zu dem durch Autofokus geschätzten Einzelbild erfassten anderen Komponentenstandbild genommen wird, kann das System adaptiv sein und die Autofokus-Brennebene verstellen.
  • Wieder unter Bezugnahme auf 1, veranschaulicht 1 ein System zum Betreiben einer Kamera 100, wobei das System Folgendes umfasst: einen Bildsensor 104 in der Kamera 100 zum Erfassen einer Sequenz von Bildern in verschiedenen Brennebenen, wobei mindestens ein Teil der Sequenz von Bildern auftritt, bevor ein Signal zum Speichern eines All-In-Focus-Bilds empfangen wird; ein Benutzerschnittstellenmodul 114 zum Empfangen des Signals zum Speichern eines All-In-Focus-Bilds von einem Benutzer; und einen Bildprozessor 116 zum Verschmelzen mindestens zweier Bilder, um das All-In-Focus-Bild zu ergeben, wobei die mindestens zwei Bilder unterschiedliche Brennebenen besitzen.
  • Bei einer Ausführungsform muss zum Erfassen der Sequenz von Bildern der Bildsensor 104 die Sequenz von Bildern mit einer Anzahl von Bildern pro Sekunde erfassen. Bei verschiedenen Ausführungsformen beträgt die Anzahl von Bildern pro Sekunde: 24 Bilder pro Sekunde, 30 Bilder pro Sekunde, 45 Bilder pro Sekunde oder 60 Bilder pro Sekunde.
  • Bei einer Ausführungsform muss zum Empfangen des Signals zum Speichern des All-In-Focus-Bilds das Benutzerschnittstellenmodul 114 einen Befehl zum Speichern des All-In-Focus-Bilds in einem Zeitrahmen in der Sequenz von Bildern empfangen. Um die mindestens zwei Bilder zu verschmelzen, damit man das All-In-Focus-Bild erhält, muss der Bildprozessor 116 die mindestens zwei Bilder aus der Sequenz von Bildern im Zeitrahmen wählen.
  • Bei einer Ausführungsform erfolgt das Empfangen des Signals zum Speichern des All-in-Focus-Bilds zu einer ersten Zeit, und der Bildprozessor 116 soll Folgendes tun: Schätzen einer zweiten Zeit, wobei die zweite Zeit vor der ersten Zeit auftritt und die zweite Zeit darstellt, wann der Benutzer beabsichtigte, das All-In-Focus-Bild zu speichern; und Verschmelzen der mindestens zwei Bilder, um das All-In-Focus-Bild zu erhalten, durch Wählen der mindestens zwei Bilder aus der Sequenz von Bildern zur zweiten Zeit.
  • Bei einer Ausführungsform zum Schätzen der zweiten Zeit soll der Bildprozessor 116 Folgendes tun: Identifizieren einer Reaktionszeit des Benutzers und Subtrahieren der Reaktionszeit von der ersten Zeit, um die zweite Zeit abzuleiten.
  • Bei einer Ausführungsform umfasst die Sequenz von Bildern in verschiedenen Brennebenen eine sich wiederholende Reihe von Bildern mit einer Basis-Brennebene, einer Fern-Brennebene und einer Nah-Brennebene.
  • Bei einer Ausführungsform soll zum Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, der Bildprozessor 116 Folgendes tun: Wählen drei aufeinanderfolgender Bilder aus der Sequenz von Bildern, wobei die drei aufeinanderfolgenden Bilder ein Bild mit einer Basis-Brennebene, ein Bild mit einer Fern-Brennebene und ein Bild mit einer Nah-Brennebene beinhalten; und Verschmelzen der fokussierten Abschnitte der Bilder, um das All-In-Focus-Bild zu erhalten. Bei einer Ausführungsform ist die Basis-Brennebene eine durch Autofokus geschätzte Brennebene.
  • Bei einer Ausführungsform umfasst die Sequenz von Bildern in verschiedenen Brennebenen eine sich wiederholende Reihe von Bildern mit einer Basis-Brennebene, einer Fern-Brennebene, der Basis-Brennebene und einer Nah-Brennebene.
  • Bei einer Ausführungsform soll zum Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, der Bildprozessor 116 Folgendes tun: Wählen drei aufeinanderfolgender Bilder aus der Sequenz von Bildern, wobei die drei aufeinanderfolgenden Bilder ein Bild mit einer Basis-Brennebene, ein Bild mit einer Fern-Brennebene und ein Bild mit einer Nah-Brennebene beinhalten; und Verschmelzen der fokussierten Abschnitte der Bilder, um das All-In-Focus-Bild zu erhalten.
  • Bei einer Ausführungsform soll zum Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, der Bildprozessor 116 Folgendes tun: Wählen eines Bilds mit der Fern-Brennebene aus der Sequenz von Bildern; Wählen eines Bilds mit der Basis-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Basis-Brennebene unmittelbar auf das Bild mit der Fern-Brennebene folgt; Wählen eines Bilds mit der Nah-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Nah-Brennebene unmittelbar auf das Bild mit der Basis-Brennebene folgt; und Verschmelzen der fokussierten Abschnitte der Bilder mit der Fern-, Basis- und Nah-Brennebene, um das All-In-Focus-Bild zu erhalten.
  • Bei einer Ausführungsform soll zum Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, der Bildprozessor 116 Folgendes tun: Wählen eines Bilds mit der Nah-Brennebene aus der Sequenz von Bildern; Wählen eines Bilds mit der Basis-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Basis-Brennebene unmittelbar auf das Bild mit der Nah-Brennebene folgt; Wählen eines Bilds mit der Fern-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Nah-Brennebene unmittelbar auf das Bild mit der Basis-Brennebene folgt; und Verschmelzen der fokussierten Abschnitte der Bilder mit der Nah-, Basis- und Fern-Brennebene, um das All-In-Focus-Bild zu erhalten.
  • Bei einer Ausführungsform soll das Benutzerschnittstellenmodul 114 ein elektronisches Sucherbild mit einem aus der Sequenz von Bildern gewählten Bild präsentieren.
  • FIG. ist ein Flussdiagramm, das ein Verfahren 400 zum Betreiben einer Kamera darstellt, gemäß einer Ausführungsform. Bei 402 wird eine Sequenz von Bildern in verschiedenen Brennebenen unter Verwendung eines Bildsensors in der Kamera erfasst, wobei mindestens ein Teil der Sequenz von Bildern auftritt, bevor ein Signal zum Speichern eines All-In-Focus-Bilds empfangen wird.
  • Bei einer Ausführungsform umfasst das Erfassen der Sequenz von Bildern das Erfassen der Sequenz von Bildern mit einer Anzahl von Bildern pro Sekunde. Bei verschiedenen Ausführungsformen beträgt die Anzahl von Bildern pro Sekunde 24 Bilder pro Sekunde, 30 Bilder pro Sekunde, 45 Bilder pro Sekunde oder 60 Bilder pro Sekunde.
  • Bei einer Ausführungsform umfasst die Sequenz von Bildern in verschiedenen Brennebenen eine sich wiederholende Reihe von Bildern mit einer Basis-Brennebene, einer Fern-Brennebene und einer Nah-Brennebene. Bei einer Ausführungsform umfasst das Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten: Wählen drei aufeinanderfolgender Bilder aus der Sequenz von Bildern, wobei die drei aufeinanderfolgenden Bilder ein Bild mit einer Basis-Brennebene, ein Bild mit einer Fern-Brennebene und ein Bild mit einer Nah-Brennebene beinhalten; und Verschmelzen der fokussierten Abschnitte der Bilder, um das All-In-Focus-Bild zu erhalten. Bei einer Ausführungsform ist die Basis-Brennebene eine durch Autofokus geschätzte Brennebene.
  • Bei einer Ausführungsform umfasst die Sequenz von Bildern in verschiedenen Brennebenen eine sich wiederholende Reihe von Bildern mit einer Basis-Brennebene, einer Fern-Brennebene, der Basis-Brennebene und einer Nah-Brennebene. Bei einer Ausführungsform umfasst das Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten: Wählen drei aufeinanderfolgender Bilder aus der Sequenz von Bildern, wobei die drei aufeinanderfolgenden Bilder ein Bild mit einer Basis-Brennebene, ein Bild mit einer Fern-Brennebene und ein Bild mit einer Nah-Brennebene beinhalten; und Verschmelzen der fokussierten Abschnitte der Bilder, um das All-In-Focus-Bild zu erhalten.
  • Bei einer Ausführungsform umfasst das Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten: Wählen eines Bilds mit der Fern-Brennebene aus der Sequenz von Bildern; Wählen eines Bilds mit der Basis-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Basis-Brennebene unmittelbar auf das Bild mit der Fern-Brennebene folgt; Wählen eines Bilds mit der Nah-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Nah-Brennebene unmittelbar auf das Bild mit der Basis-Brennebene folgt; und Verschmelzen der fokussierten Abschnitte der Bilder mit der Fern-, Basis- und Nah-Brennebene, um das All-In-Focus-Bild zu erhalten.
  • Bei einer Ausführungsform umfasst das Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten: Wählen eines Bilds mit der Nah-Brennebene aus der Sequenz von Bildern; Wählen eines Bilds mit der Basis-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Basis-Brennebene unmittelbar auf das Bild mit der Nah-Brennebene folgt; Wählen eines Bilds mit der Fern-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Nah-Brennebene unmittelbar auf das Bild mit der Basis-Brennebene folgt; und Verschmelzen der fokussierten Abschnitte der Bilder mit der Nah-, Basis- und Fern-Brennebene, um das All-In-Focus-Bild zu erhalten.
  • Bei 404 wird das Signal zum Speichern eines All-In-Focus-Bilds von einem Benutzer empfangen. Das Signal kann initiiert werden, indem der Benutzer einen physischen oder virtuellen Verschlussauslöseknopf drückt, den Vorschauschirm 108 drückt, einen Verschlussfernauslöser verwendet, einen zeitlich gesteuerten Verschlussauslöser verwendet oder dergleichen.
  • Bei 406 werden mindestens zwei Bilder unter Verwendung eines Bildprozessors verschmolzen, um das All-In-Focus-Bild zu erhalten, wobei die mindestens zwei Bilder verschiedene Brennebenen besitzen.
  • Bei einer Ausführungsform umfasst das Empfangen des Signals zum Speichern des All-In-Focus-Bilds das Empfangen eines Befehls zum Speichern des All-In-Focus-Bilds in einem Zeitrahmen in der Sequenz von Bildern und umfasst das Verschmelzen der mindestens zwei Bilder, um das All-In-Focus-Bild zu erhalten, das Wählen der mindestens zwei Bilder aus der Sequenz von Bildern im Zeitrahmen.
  • Bei einer Ausführungsform erfolgt das Empfangen des Signals zum Speichern des All-In-Focus-Bilds bei einer ersten Zeit, wobei das Verfahren Folgendes umfasst: Schätzen einer zweiten Zeit, wobei die zweite Zeit vor der ersten Zeit auftritt und die zweite Zeit darstellt, wann der Benutzer beabsichtigte, das All-In-Focus-Bild zu speichern; und Verschmelzen der mindestens zwei Bilder, um das All-In-Focus-Bild zu erhalten, durch Wählen der mindestens zwei Bilder aus der Sequenz von Bildern zur zweiten Zeit. Bei einer Ausführungsform umfasst das Schätzen der zweiten Zeit: Identifizieren einer Reaktionszeit des Benutzers und Subtrahieren der Reaktionszeit von der ersten Zeit, um die zweite Zeit abzuleiten.
  • Bei einer Ausführungsform beinhaltet das Verfahren 400 das Präsentieren eines elektronischen Sucherbilds mit einem Bild ausgewählt aus der Sequenz von Bildern. Das Bild kann beispielsweise ein autofokussiertes Basisbild aus dem Bildpuffer 112 sein.
  • Ausführungsformen können in einer von oder einer Kombination aus Hardware, Firmware und Software implementiert werden. Ausführungsformen können auch als Anweisungen implementiert werden, die auf einer maschinenlesbaren Ablageeinrichtung gespeichert sind, die durch mindestens einen Prozessor gelesen und ausgeführt werden können, um die hierin beschriebenen Operationen durchzuführen. Eine maschinenlesbare Ablageeinrichtung kann einen beliebigen nicht-vorübergehenden Mechanismus zum Speichern von Informationen in einer Form, die durch eine Maschine (z.B. einen Computer) gelesen werden kann, beinhalten. Beispielsweise kann eine maschinenlesbare Ablageeinrichtung einen Festwertspeicher (ROM), einen Direktzugriffsspeicher (RAM), Magnetplatten-Ablagemedien, optische Ablagemedien, Flash-Speichereinrichtungen und andere Ablageeinrichtungen und -medien beinhalten.
  • Beispiele, wie hierin beschrieben, können eine Logik oder eine Anzahl von Komponenten, Modulen oder Mechanismen enthalten oder damit arbeiten. Module können Hardware, Software oder Firmware sein, die kommunikativ an einen oder mehrere Prozessoren gekoppelt sind, um die hierin beschriebenen Operationen auszuführen. Module können Hardwaremodule sein, und als solche können Module als dingliche Entitäten angesehen werden, die spezifizierte Operationen durchführen können, und sie können auf eine bestimmte Weise konfiguriert oder ausgelegt sein. Beispielsweise können Schaltungen (z.B. intern oder bezüglich externer Entitäten wie für andere Schaltungen) auf spezifizierte Weise als ein Modul ausgelegt sein. Bei einem Beispiel können ein oder mehrere Computersysteme (z.B. Standalone-, Client- oder Servercomputersystem) oder ein oder mehrere Hardwareprozessoren ganz oder teilweise durch Firmware oder Software (z.B. Anweisungen, einen Applikationsabschnitt oder eine Applikation) als ein Modul konfiguriert sein, das dahingehend arbeitet, spezifizierte Operationen durchzuführen. Bei einem Beispiel kann sich die Software auf einem maschinenlesbaren Medium befinden. Bei einem Beispiel bewirkt die Software bei Ausführung durch die zugrundeliegende Hardware des Moduls, dass die Hardware die spezifizierten Operationen ausführt. Dementsprechend soll der Ausdruck „Hardwaremodul“ eine dingliche Entität umfassen, sei dies eine Entität, die physisch konstruiert ist, spezifisch konfiguriert ist (z.B. festverdrahtet) oder temporär (z.B. vorübergehend) konfiguriert ist (z.B. programmiert ist), um auf eine spezifizierte Weise zu arbeiten oder eine beliebige, hierin beschriebene Operation teilweise oder ganz durchzuführen. Bei Betrachtung von Beispielen, bei denen Module temporär konfiguriert sind, braucht nicht jedes der Module zu einem beliebigen Zeitaugenblick realisiert zu sein. Wenn beispielsweise die Module einen Allzweck-Hardwareprozessor umfassen, der konfiguriert ist zum Verwenden von Software; kann der Allzweck-Hardwareprozessor als jeweils unterschiedliche Module zu unterschiedlichen Zeiten konfiguriert sein. Software kann entsprechend einen Hardwareprozessor so konfigurieren, dass er beispielsweise zu einem Zeitpunkt ein bestimmtes Modul darstellt und zu einem anderen Zeitpunkt ein anderes Modul darstellt. Module können auch Software- oder Firmwaremodule sein, die dahingehend arbeiten, die hierin beschriebenen Methodiken durchzuführen.
  • 5 ist ein Blockdiagramm, das eine Maschine in der Beispielform eines Computersystems 500 darstellt, innerhalb dessen ein Satz oder eine Sequenz von Anweisungen ausgeführt werden kann, um zu bewirken, dass die Maschine eine beliebige der hierin erörterten Methodiken durchführt, gemäß einem Ausführungsbeispiel. Bei alternativen Ausführungsformen arbeitet die Maschine als eine Standalone-Einrichtung oder kann an andere Maschinen angeschlossen (z.B. vernetzt) sein. Bei einem vernetzten Einsatz kann die Maschine in der Kapazität entweder einer Server- oder Client-Maschine in Server-Client-Netzwerkumgebungen arbeiten oder sie kann als eine Peer-Maschine in Peer-to-Peer- (oder verteilten) Netzwerkumgebungen arbeiten. Die Maschine kann ein Fahrzeugbordsystem, eine „Wearable“ Einrichtung, ein PC (Personal Computer), ein Tablet-PC, ein Hybrid-Tablet, ein PDA (Personal Digital Assistant), ein Mobiltelefon oder eine beliebige Maschine sein, die Anweisungen (sequentiell oder anderweitig) ausführen kann, die Handlungen spezifizieren, die durch diese Maschine ergriffen werden müssen. Wenngleich nur eine einzelne Maschine dargestellt ist, soll der Ausdruck „Maschine“ weiterhin auch eine beliebige Sammlung von Maschinen beinhalten, die individuell oder zusammen einen Satz (oder mehrere Sätze) von Anweisungen ausführen, um eine oder mehrere beliebige der hierin erörterten Methodiken durchzuführen. Analog soll der Ausdruck „prozessorbasiertes System“ einen beliebigen Satz aus einer oder mehreren Maschinen beinhalten, die von einem Prozessor (z.B. einem Computer) gesteuert oder betrieben werden, um individuell oder zusammen Anweisungen zum Durchführen einer beliebigen oder mehrerer beliebiger der hierin beschriebenen Methodiken auszuführen.
  • Das beispielhafte Computersystem 500 enthält mindestens einen Prozessor 502 (z.B. eine zentrale Verarbeitungseinheit (CPU), eine Grafikverarbeitungseinheit (GPU) oder beide, Prozessorkerne, Rechenknoten usw.), einen Hauptspeicher 504 und einen statischen Speicher 506, die über eine Strecke 508 (z.B. einen Bus) miteinander kommunizieren. Das Computersystem 500 kann weiterhin eine Videodisplayeinheit 510, eine alphanumerische Eingabeeinrichtung 512 (z.B. eine Tastatur) und eine Benutzerschnittstellen-Navigationseinrichtung (UI-Navigationseinrichtung) 514 (z.B. eine Maus) enthalten. Bei einer Ausführungsform sind die Videodisplayeinheit 510, die Eingabeeinrichtung 512 und die UI-Navigationseinrichtung 514 in ein Touchscreendisplay integriert. Das Computersystem 500 kann zusätzlich eine Ablageeinrichtung 516 (z.B. eine Antriebseinheit), eine Signalgenerierungseinrichtung 518 (z.B. einen Lautsprecher), eine Netzwerkschnittstelleneinrichtung 520 und einen oder mehrere nichtgezeigte Sensoren wie etwa einen GPS-Sensor (Global Positioning System), einen Kompass, einen Beschleunigungsmesser oder einen anderen Sensor enthalten.
  • Die Ablageeinrichtung 516 enthält ein maschinenlesbares Medium 522, auf dem ein oder mehrere Sätze von Datenstrukturen und Anweisungen 524 gespeichert sind (z.B. Software), die eine oder mehrere beliebige der hierin beschriebenen Methodiken oder Funktionen verkörpern oder nutzen. Die Anweisungen 524 können sich auch vollständig oder mindestens teilweise innerhalb des Hauptspeichers 504, des statischen Speichers 506 und/oder innerhalb des Prozessors 502 während ihrer Ausführung durch das Computersystem 500 befinden, wobei der Hauptspeicher 504, der statische Speicher 506 und der Prozessor 502 ebenfalls maschinenlesbare Medien darstellen.
  • Wenngleich das maschinenlesbare Medium 522 in einem Ausführungsbeispiel als ein einzelnes Medium dargestellt ist, kann der Ausdruck „maschinenlesbares Medium“ ein einzelnes Medium oder mehrere Medien beinhalten (z.B. eine zentralisierte oder verteilte Datenbank und/oder assoziierte Caches und Server), die die eine oder die mehreren Anweisungen 524 speichern. Der Ausdruck „maschinenlesbares Medium“ soll auch so verstanden werden, dass er ein beliebiges dingliches Medium beinhaltet, das Anweisungen zur Ausführung durch die Maschine speichern, codieren oder führen kann und das bewirkt, dass die Maschine eine oder mehrere der Methodiken der vorliegenden Offenbarung durchführt oder das in der Lage ist, Datenstrukturen zu speichern, zu codieren oder zu führen, die durch solche Anweisungen verwendet oder mit ihnen assoziiert sind. Der Ausdruck „maschinenlesbares Medium“ soll dementsprechend so verstanden werden, dass er unter anderem Festkörperspeicher und optische und magnetische Medien beinhaltet. Zu spezifischen Beispielen für maschinenlesbare Medien zählen ein nichtflüchtiger Speicher, einschließlich unter anderem beispielhaft Halbleiterspeicherbauelemente (z.B. einr elektrisch programmierbare Festwertspeicher (EPROM), einer elektrisch löschbare programmierbarer Festwertspeicher (EEPROM)) und Flash-Speicherbauelemente; Magnetplatten wie interne Festplatten und entfernbare Platten; magnetooptische Platten und CD-ROM- und DVD-ROM-Disks.
  • Die Anweisungen 524 können weiterhin über ein Kommunikationsnetzwerk 526 unter Verwendung eines Übertragungsmediums über die Netzwerkschnittstelleneinrichtung 520 übertragen oder empfangen werden, wobei ein beliebiges einer Anzahl wohlbekannter Transferprotokolle (z.B. HTTP) verwendet wird. Zu Beispielen für Kommunikationsnetzwerke zählen ein Nahbereichsnetzwerk (LAN - Local Area Network), ein Fernbereichsnetzwerk (WAN - Wide Area Network), das Internet, Mobiltelefonnetze, Telefonnetze, und Funkdatennetzwerke (z.B. WiFi, 3G und 4G LTE/LTE-A oder WiMAX-Netzwerke). Der Ausdruck „Übertragungsmedium“ soll verstanden werden, dass er ein beliebiges imaterielles Medium beinhaltet, das Anweisungen zur Ausführung durch die Maschine speichern, codieren oder führen kann, und beinhaltet digitale oder analoge Kommunikationssignale oder ein anderes imatterielles Medium, um die Kommunikation zu erleichtern, wie etwa Software.
  • Zusätzliche Anmerkungen und Beispiele:
  • Beispiel 1 beinhaltet einen Gegenstand zum Betreiben einer Kamera (wie etwa eine Einrichtung, Vorrichtung oder Maschine), umfassend ein System, das Folgendes umfasst: einen Bildsensor in der Kamera zum Erfassen einer Sequenz von Bildern in verschiedenen Brennebenen, wobei mindestens ein Teil der Sequenz von Bildern auftritt, bevor ein Signal zum Speichern eines All-In-Focus-Bilds empfangen wird; ein Benutzerschnittstellenmodul zum Empfangen des Signals zum Speichern eines All-In-Focus-Bilds von einem Benutzer; und einen Bildprozessor zum Verschmelzen mindestens zweier Bilder, um das All-In-Focus-Bild zu ergeben, wobei die mindestens zwei Bilder unterschiedliche Brennebenen besitzen.
  • In Beispiel 2 kann der Gegenstand von Beispiel 1 beinhalten, dass zum Erfassen der Sequenz von Bildern der Bildsensor Folgendes tun muss: Erfassen der Sequenz von Bildern mit einer Anzahl von Bildern pro Sekunde.
  • In Beispiel 3 kann der Gegenstand nach einem oder mehreren der Beispiele 1 und 2 beinhalten, dass die Anzahl von Bildern pro Sekunde 24 Bilder pro Sekunde, 30 Bilder pro Sekunde, 45 Bilder pro Sekunde oder 60 Bilder pro Sekunde beträgt.
  • In Beispiel 4 kann der Gegenstand nach einem oder mehreren der Beispiele 1 bis 3 beinhalten, dass zum Empfangen des Signals zum Speichern des All-In-Focus-Bilds das Benutzerschnittstellenmodul einen Befehl empfangen muss zum Speichern des All-In-Focus-Bilds in einem Zeitrahmen in der Sequenz von Bildern; und dass zum Verschmelzen der mindestens zwei Bilder, um das All-In-Focus-Bild zu erhalten, der Bildprozessor die mindestens zwei Bilder aus der Sequenz von Bildern im Zeitrahmen wählen muss.
  • In Beispiel 5 kann der Gegenstand nach einem oder mehreren der Beispiele 1 bis 4 beinhalten, dass das Empfangen des Signals zum Speichern des All-In-Focus-Bilds zu einer ersten Zeit auftritt und dass der Bildprozessor Folgendes tun muss: Schätzen einer zweiten Zeit, wobei die zweite Zeit vor der ersten Zeit auftritt und die zweite Zeit darstellt, wann der Benutzer beabsichtigte, das All-In-Focus-Bild zu speichern; und Verschmelzen der mindestens zwei Bilder, um das All-In-Focus-Bild zu erhalten, durch Wählen der mindestens zwei Bilder aus der Sequenz von Bildern zur zweiten Zeit.
  • In Beispiel 6 kann der Gegenstand nach einem oder mehreren der Beispiele 1 bis 5 beinhalten, dass zum Schätzen der zweiten Zeit der Bildprozessor Folgendes tun soll: Identifizieren einer Reaktionszeit des Benutzers und Subtrahieren der Reaktionszeit von der ersten Zeit, um die zweite Zeit abzuleiten.
  • In Beispiel 7 kann der Gegenstand nach einem oder mehreren der Beispiele 1 bis 6 beinhalten, dass die Sequenz von Bildern in verschiedenen Brennebenen eine sich wiederholende Reihe von Bildern mit einer Basis-Brennebene, einer Fern-Brennebene und einer Nah-Brennebene umfasst.
  • In Beispiel 8 kann der Gegenstand nach einem oder mehreren der Beispiele 1 bis 7 beinhalten, dass zum Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, der Bildprozessor Folgendes tun sollte: Wählen drei aufeinanderfolgender Bilder aus der Sequenz von Bildern, wobei die drei aufeinanderfolgenden Bilder ein Bild mit der Basis-Brennebene, ein Bild mit der Fern-Brennebene und ein Bild mit der Nah-Brennebene beinhalten; und Verschmelzen der fokussierten Abschnitte der Bilder, um das All-In-Focus-Bild zu erhalten.
  • In Beispiel 9 kann der Gegenstand nach einem oder mehreren der Beispiele 1 bis 8 beinhalten, dass die Basis-Brennebene eine durch Autofokus geschätzte Brennebene ist.
  • In Beispiel 10 kann der Gegenstand nach einem oder mehreren der Beispiele 1 bis 9 beinhalten, dass die Sequenz von Bildern in verschiedenen Brennebenen eine sich wiederholende Reihe von Bildern mit einer Basis-Brennebene, einer Fern-Brennebene, der Basis-Brennebene und einer Nah-Brennebene umfasst.
  • In Beispiel 11 kann der Gegenstand nach einem oder mehreren der Beispiele 1 bis 10 beinhalten, dass zum Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, der Bildprozessor Folgendes tun soll: Wählen drei aufeinanderfolgender Bilder aus der Sequenz von Bildern, wobei die drei aufeinanderfolgenden Bilder ein Bild mit der Basis-Brennebene, ein Bild mit der Fern-Brennebene und ein Bild mit der Nah-Brennebene beinhalten; und Verschmelzen der fokussierten Abschnitte der Bilder, um das All-In-Focus-Bild zu erhalten.
  • In Beispiel 12 kann der Gegenstand nach einem oder mehreren der Beispiele 1 bis 11 beinhalten, dass zum Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, der Bildprozessor Folgendes tun soll: Wählen eines Bilds mit der Fern-Brennebene aus der Sequenz von Bildern; Wählen eines Bilds mit der Basis-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Basis-Brennebene unmittelbar auf das Bild mit der Fern-Brennebene folgt; Wählen eines Bilds mit der Nah-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Nah-Brennebene unmittelbar auf das Bild mit der Basis-Brennebene folgt; und Verschmelzen der fokussierten Abschnitte der Bilder mit der Fern-, Basis- und Nah-Brennebene, um das All-In-Focus-Bild zu erhalten.
  • In Beispiel 13 kann der Gegenstand nach einem oder mehreren der Beispiele 1 bis 12 beinhalten, dass zum Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, der Bildprozessor Folgendes tun soll: Wählen eines Bilds mit der Nah-Brennebene aus der Sequenz von Bildern; Wählen eines Bilds mit der Basis-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Basis-Brennebene unmittelbar auf das Bild mit der Nah-Brennebene folgt; Wählen eines Bilds mit der Fern-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Nah-Brennebene unmittelbar auf das Bild mit der Basis-Brennebene folgt; und Verschmelzen der fokussierten Abschnitte der Bilder mit der Nah-, Basis- und Fern-Brennebene, um das All-In-Focus-Bild zu erhalten.
  • In Beispiel 14 kann der Gegenstand nach einem oder mehreren der Beispiele 1 bis 13 beinhalten, dass das Benutzerschnittstellenmodul ein elektronisches Sucherbild mit einem aus der Sequenz von Bildern gewählten Bild präsentieren soll.
  • Beispiel 15 beinhaltet einen Gegenstand zum Betreiben einer Kamera (wie etwa ein Verfahren, Mittel zum Durchführen von Handlungen, ein maschinenlesbares Medium einschließlich Anweisungen, die bei Durchführung durch eine Maschine bewirken, dass die Maschine Handlungen durchführt, oder eine Vorrichtung, die konfiguriert ist zum Durchführen von Handlungen), umfassend Erfassen, unter Verwendung eines Bildsensors in der Kamera, einer Sequenz von Bildern in verschiedenen Brennebenen, wobei mindestens ein Teil der Sequenz von Bildern auftritt, bevor ein Signal zum Speichern eines All-In-Focus-Bilds empfangen wird; Empfangen, von einem Benutzer, des Signals zum Speichern des All-In-Focus-Bilds; und Verschmelzen, unter Verwendung eines Bildprozessors, von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, wobei die mindestens zwei Bilder verschiedene Brennebenen besitzen.
  • In Beispiel 16 kann der Gegenstand von Beispiel 15 enthalten, dass das Erfassen der Sequenz von Bildern Folgendes umfasst: Erfassen der Sequenz von Bildern mit einer Anzahl von Bildern pro Sekunde.
  • In Beispiel 17 kann der Gegenstand eines oder mehrerer der Beispiele 15 bis 16 enthalten, dass die Anzahl von Bildern pro Sekunde 24 Bilder pro Sekunde, 30 Bilder pro Sekunde, 45 Bilder pro Sekunde oder 60 Bilder pro Sekunde beträgt.
  • In Beispiel 18 kann der Gegenstand eines oder mehrerer der Beispiele 15 bis 17 enthalten, dass das Empfangen des Signals zum Speichern des All-In-Focus-Bilds das Empfangen eines Befehls zum Speichern des All-In-Focus-Bilds in einem Zeitrahmen in der Sequenz von Bildern umfasst und dass das Verschmelzen der mindestens zwei Bilder, um das All-In-Focus-Bild zu erhalten, das Wählen der mindestens zwei Bilder aus der Sequenz von Bildern im Zeitrahmen umfasst.
  • In Beispiel 19 kann der Gegenstand eines oder mehrerer der Beispiele 15 bis 18 enthalten, dass das Empfangen des Signals zum Speichern des All-In-Focus-Bilds zu einer ersten Zeit auftritt und dass das Verfahren Folgendes umfasst: Schätzen einer zweiten Zeit, wobei die zweite Zeit vor der ersten Zeit auftritt und die zweite Zeit darstellt, wann der Benutzer beabsichtigte, das All-In-Focus-Bild zu speichern; und dass das Verschmelzen der mindestens zwei Bilder, um das All-In-Focus-Bild zu erhalten, das Wählen der mindestens zwei Bilder aus der Sequenz von Bildern zur zweiten Zeit umfasst.
  • In Beispiel 20 kann der Gegenstand eines oder mehrerer der Beispiele 15 bis 19 enthalten, dass das Schätzen der zweiten Zeit Folgendes umfasst: Identifizieren einer Reaktionszeit des Benutzers und Subtrahieren der Reaktionszeit von der ersten Zeit, um die zweite Zeit abzuleiten.
  • In Beispiel 21 kann der Gegenstand eines oder mehrerer der Beispiele 15 bis 20 enthalten, dass die Sequenz von Bildern in verschiedenen Brennebenen eine sich wiederholende Reihe von Bildern mit einer Basis-Brennebene, einer Fern-Brennebene und einer Nah-Brennebene umfasst.
  • In Beispiel 22 kann der Gegenstand eines oder mehrerer der Beispiele 15 bis 21 enthalten, dass das Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, Folgendes umfasst: Wählen drei aufeinanderfolgender Bilder aus der Sequenz von Bildern, wobei die drei aufeinanderfolgenden Bilder ein Bild mit der Basis-Brennebene, ein Bild mit der Fern-Brennebene und ein Bild mit der Nah-Brennebene beinhalten; und Verschmelzen der fokussierten Abschnitte der Bilder, um das All-In-Focus-Bild zu erhalten.
  • In Beispiel 23 kann der Gegenstand eines oder mehrerer der Beispiele 15 bis 22 enthalten, dass die Basis-Brennebene eine durch Autofokus geschätzte Brennebene ist.
  • In Beispiel 24 kann der Gegenstand eines oder mehrerer der Beispiele 15 bis 23 enthalten, dass die Sequenz von Bildern in verschiedenen Brennebenen eine sich wiederholende Reihe von Bildern mit einer Basis-Brennebene, einer Fern-Brennebene, der Basis-Brennebene und einer Nah-Brennebene umfasst.
  • In Beispiel 25 kann der Gegenstand eines oder mehrerer der Beispiele 15 bis 24 enthalten, dass das Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, Folgendes umfasst: Wählen drei aufeinanderfolgender Bilder aus der Sequenz von Bildern, wobei die drei aufeinanderfolgenden Bilder ein Bild mit der Basis-Brennebene, ein Bild mit der Fern-Brennebene und ein Bild mit der Nah-Brennebene beinhalten; und Verschmelzen der fokussierten Abschnitte der Bilder, um das All-In-Focus-Bild zu erhalten.
  • In Beispiel 26 kann der Gegenstand eines oder mehrerer der Beispiele 15 bis 25 enthalten, dass das Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, Folgendes umfasst: Wählen eines Bilds mit der Fern-Brennebene aus der Sequenz von Bildern; Wählen eines Bilds mit der Basis-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Basis-Brennebene unmittelbar auf das Bild mit der Fern-Brennebene folgt; Wählen eines Bilds mit der Nah-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Nah-Brennebene unmittelbar auf das Bild mit der Basis-Brennebene folgt; und Verschmelzen der fokussierten Abschnitte der Bilder mit der Fern-, Basis- und Nah-Brennebene, um das All-In-Focus-Bild zu erhalten.
  • In Beispiel 27 kann der Gegenstand eines oder mehrerer der Beispiele 15 bis 26 enthalten, dass das Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, Folgendes umfasst: Wählen eines Bilds mit der Nah-Brennebene aus der Sequenz von Bildern; Wählen eines Bilds mit der Basis-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Basis-Brennebene unmittelbar auf das Bild mit der Nah-Brennebene folgt; Wählen eines Bilds mit der Fern-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Nah-Brennebene unmittelbar auf das Bild mit der Basis-Brennebene folgt; und Verschmelzen der fokussierten Abschnitte der Bilder mit der Nah-, Basis- und Fern-Brennebene, um das All-In-Focus-Bild zu erhalten.
  • In Beispiel 28 kann der Gegenstand eines oder mehrerer der Beispiele 15 bis 27 Präsentieren eines elektronischen Sucherbilds mit einem Bild ausgewählt aus der Sequenz von Bildern enthalten.
  • Beispiel 29 beinhaltet ein maschinenlesbares Medium einschließlich Anweisungen, die bei Ausführung durch eine Maschine bewirken, dass die Maschine Operationen nach einem der Beispiele 1 bis 28 durchführt.
  • Beispiel 30 beinhaltet eine Vorrichtung, die Mittel zum Durchführen eines der Beispiele 1-28 umfasst.
  • Beispiel 31 beinhaltet eine Vorrichtung, die Folgendes umfasst: Mittel zum Erfassen, unter Verwendung eines Bildsensors in der Kamera, einer Sequenz von Bildern in verschiedenen Brennebenen, wobei mindestens ein Teil der Sequenz von Bildern auftritt, bevor ein Signal zum Speichern eines All-In-Focus-Bilds empfangen wird; Mittel zum Empfangen, von einem Benutzer, des Signals zum Speichern des All-In-Focus-Bilds; und Mittel zum Verschmelzen, unter Verwendung eines Bildprozessors, von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, wobei die mindestens zwei Bilder verschiedene Brennebenen besitzen.
  • In Beispiel 32 kann der Gegenstand von Beispiel 30 enthalten, dass das Erfassen der Sequenz von Bildern Folgendes umfasst: Erfassen der Sequenz von Bildern mit einer Anzahl von Bildern pro Sekunde.
  • In Beispiel 33 kann der Gegenstand eines oder mehrerer der Beispiele 30 bis 32 enthalten, dass die Anzahl von Bildern pro Sekunde 24 Bilder pro Sekunde, 30 Bilder pro Sekunde, 45 Bilder pro Sekunde oder 60 Bilder pro Sekunde beträgt.
  • In Beispiel 34 kann der Gegenstand eines oder mehrerer der Beispiele 30 bis 33 enthalten, dass das Mittel zum Empfangen des Signals zum Speichern des All-In-Focus-Bilds in das Mittel zum Empfangen eines Befehls zum Speichern des All-In-Focus-Bilds in einem Zeitrahmen in der Sequenz von Bildern umfasst und dass das Mittel zum Verschmelzen der mindestens zwei Bilder, um das All-In-Focus-Bild zu erhalten, das Wählen der mindestens zwei Bilder aus der Sequenz von Bildern im Zeitrahmen umfasst.
  • In Beispiel 35 kann der Gegenstand eines oder mehrerer der Beispiele 30 bis 34 enthalten, dass das Empfangen des Signals zum Speichern des All-In-Focus-Bilds zu einer ersten Zeit auftritt und dass die Vorrichtung Folgendes umfasst: Mittel zum Schätzen einer zweiten Zeit, wobei die zweite Zeit vor der ersten Zeit auftritt und die zweite Zeit darstellt, wann der Benutzer beabsichtigte, das All-In-Focus-Bild zu speichern; und dass das Mittel zum Verschmelzen der mindestens zwei Bilder, um das All-In-Focus-Bild zu erhalten, Mittel zum Wählen der mindestens zwei Bilder aus der Sequenz von Bildern zur zweiten Zeit umfasst.
  • In Beispiel 36 kann der Gegenstand eines oder mehrerer der Beispiele 30 bis 35 enthalten, dass das Mittel zum Schätzen der zweiten Zeit Folgendes umfasst: Mittel zum Identifizieren einer Reaktionszeit des Benutzers und Mittel zum Subtrahieren der Reaktionszeit von der ersten Zeit, um die zweite Zeit abzuleiten.
  • In Beispiel 37 kann der Gegenstand eines oder mehrerer der Beispiele 30 bis 36 enthalten, dass die Sequenz von Bildern in verschiedenen Brennebenen eine sich wiederholende Reihe von Bildern mit einer Basis-Brennebene, einer Fern-Brennebene und einer Nah-Brennebene umfasst.
  • In Beispiel 38 kann der Gegenstand eines oder mehrerer der Beispiele 30 bis 37 enthalten, dass das Mittel zum Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, Folgendes umfasst: Mittel zum Wählen drei aufeinanderfolgender Bilder aus der Sequenz von Bildern, wobei die drei aufeinanderfolgenden Bilder ein Bild mit der Basis-Brennebene, ein Bild mit der Fern-Brennebene und ein Bild mit der Nah-Brennebene beinhalten; und Mittel zum Verschmelzen der fokussierten Abschnitte der Bilder, um das All-In-Focus-Bild zu erhalten.
  • In Beispiel 39 kann der Gegenstand eines oder mehrerer der Beispiele 30 bis 38 enthalten, dass die Basis-Brennebene eine durch Autofokus geschätzte Brennebene ist.
  • In Beispiel 40 kann der Gegenstand eines oder mehrerer der Beispiele 30 bis 39 enthalten, dass die Sequenz von Bildern in verschiedenen Brennebenen eine sich wiederholende Reihe von Bildern mit einer Basis-Brennebene, einer Fern-Brennebene, der Basis-Brennebene und einer Nah-Brennebene umfasst.
  • In Beispiel 41 kann der Gegenstand eines oder mehrerer der Beispiele 30 bis 39 enthalten, dass das Mittel zum Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, Folgendes umfasst: Mittel zum Wählen drei aufeinanderfolgender Bilder aus der Sequenz von Bildern, wobei die drei aufeinanderfolgenden Bilder ein Bild mit der Basis-Brennebene, ein Bild mit der Fern-Brennebene und ein Bild mit der Nah-Brennebene beinhalten; und Mittel zum Verschmelzen der fokussierten Abschnitte der Bilder, um das All-In-Focus-Bild zu erhalten.
  • In Beispiel 42 kann der Gegenstand eines oder mehrerer der Beispiele 30 bis 41 enthalten, dass das Mittel zum Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, Folgendes umfasst: Mittel zum Wählen eines Bilds mit der Fern-Brennebene aus der Sequenz von Bildern; Mittel zum Wählen eines Bilds mit der Basis-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Basis-Brennebene unmittelbar auf das Bild mit der Fern-Brennebene folgt; Mittel zum Wählen eines Bilds mit der Nah-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Nah-Brennebene unmittelbar auf das Bild mit der Basis-Brennebene folgt; und Mittel zum Verschmelzen der fokussierten Abschnitte der Bilder mit der Fern-, Basis- und Nah-Brennebene, um das All-In-Focus-Bild zu erhalten.
  • In Beispiel 43 kann der Gegenstand eines oder mehrerer der Beispiele 30 bis 42 enthalten, dass das Mittel zum Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, Folgendes umfasst: Mittel zum Wählen eines Bilds mit der Nah-Brennebene aus der Sequenz von Bildern; Mittel zum Wählen eines Bilds mit der Basis-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Basis-Brennebene unmittelbar auf das Bild mit der Nah-Brennebene folgt; Mittel zum Wählen eines Bilds mit der Fern-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Nah-Brennebene unmittelbar auf das Bild mit der Basis-Brennebene folgt; und Mittel zum Verschmelzen der fokussierten Abschnitte der Bilder mit der Nah-, Basis- und Fern-Brennebene, um das All-In-Focus-Bild zu erhalten.
  • In Beispiel 44 kann der Gegenstand eines oder mehrerer der Beispiele 30 bis 43 Mittel zum Präsentieren eines elektronischen Sucherbilds mit einem Bild ausgewählt aus der Sequenz von Bildern enthalten.
  • Die obige ausführliche Beschreibung enthält Referenzen auf die beiliegenden Zeichnungen, die einen Teil der ausführlichen Beschreibung bilden. Die Zeichnungen zeigen als Veranschaulichung spezifische Ausführungsformen, die praktiziert werden können. Diese Ausführungsformen werden hierin auch als „Beispiele“ bezeichnet. Solche Beispiele können Elemente zusätzlich zu den gezeigten oder beschriebenen enthalten. Jedoch werden auch Beispiele in Betracht gezogen, die die gezeigten oder beschriebenen Elemente enthalten. Zudem werden auch Beispiele in Betracht gezogen, die eine beliebige Kombination oder Permutation der gezeigten oder beschriebenen Elemente verwenden (oder einem oder mehreren Aspekten davon), entweder bezüglich eines bestimmten Beispiels (oder einem oder mehreren Aspekten davon) oder bezüglich anderer Beispiele (oder eines oder mehrerer Aspekte davon), die hierin gezeigt oder beschrieben sind.
  • Veröffentlichungen, Patente und Patentdokumente, auf die in diesem Dokument Bezug genommen wird, sind hier durch Bezugnahme in ihrer Gänze aufgenommen, so als wären sie individuell durch Bezugnahme aufgenommen. Im Fall von unstimmigen Nutzungen zwischen diesem Dokument und jenen Dokumenten, die so durch Bezugnahme aufgenommen wurden, ist die Nutzung in dem oder den aufgenommenen Referenzen ergänzend zu denen dieses Dokuments; für unvereinbare Unstimmigkeiten dominiert die Nutzung in diesem Dokument.
  • In diesem Dokument werden die Ausdrücke „ein/einer/eine“ verwendet, wie dies in Patentdokumenten üblich ist, um unabhängig von irgendwelchen anderen Fällen oder Nutzungen von „mindestens ein“ oder „ein oder mehrere“ ein oder mehr als einen zu beinhalten. In diesem Dokument wird der Ausdruck „oder“ verwendet, um sich auf ein nicht-exklusives Oder zu beziehen, wie etwa „A oder B“ beinhaltet „A, aber nicht B“, „B, aber nicht A“ und „A und B“, insofern nicht etwas anderes angegeben ist. In den beigefügten Ansprüchen werden die Ausdrücke „enthaltend“ und „in denen“ als die Äquivalente in einfacher Sprache der jeweiligen Ausdrücke „umfassend“ und „wobei“ verwendet. Außerdem sind in den folgenden Ansprüchen die Ausdrücke „enthaltend“ und „umfassend“ offen, d.h., ein System, eine Einrichtung, ein Gegenstand oder ein Prozess, die Elemente zusätzlich zu denen enthalten, die nach einem derartigen Ausdruck in einem Anspruch aufgeführt sind, sollen immer noch in den Schutzbereich dieses Anspruchs fallen. Zudem werden in den folgenden Ansprüchen die Ausdrücke „erster“, „zweiter“ und „dritter“ usw. lediglich als Bezeichnungen verwendet und sollen keine numerische Reihenfolge für ihre Objekte suggerieren.
  • Die obige Beschreibung soll veranschaulichend und nicht restriktiv sein. Beispielsweise können die oben beschriebenen Beispiele (oder ein oder mehrere Aspekte davon) in Kombination mit anderen verwendet werden. Andere Ausführungsformen können verwendet werden, wie etwa durch einen Durchschnittsfachmann bei der Lektüre der obigen Beschreibung. Die Zusammenfassung soll dem Leser gestatten, schnell die Natur der technischen Offenbarung festzustellen. Sie wird in dem Verständnis unterbreitet, dass sie nicht verwendet wird, um den Schutzbereich oder die Bedeutung der Ansprüche auszulegen oder zu beschränken. Außerdem können in der obigen ausführlichen Beschreibung verschiedene Merkmale zusammen gruppiert worden sein, um die Offenbarung zu vereinheitlichen. Jedoch legen die Ansprüche möglicherweise nicht jedes hierin offenbarte Merkmal dar, da Ausführungsformen eine Teilmenge der Merkmale aufweisen können. Zudem können Ausführungsformen weniger Merkmale als die in einem bestimmten Beispiel offenbarten enthalten. Somit werden die folgenden Ansprüche hiermit in die ausführliche Beschreibung aufgenommen, wobei ein Anspruch als eine separate Ausführungsform für sich selbst steht. Der Schutzbereich der hierin offenbarten Ausführungsformen soll unter Bezugnahme auf die beigefügten Ansprüche zusammen mit dem vollen Schutzbereich der Äquivalente, auf den solche Ansprüche ein Anrecht haben, bestimmt werden.

Claims (25)

  1. System zum Betreiben einer Kamera, wobei das System Folgendes umfasst: einen Bildsensor in der Kamera zum Erfassen einer Sequenz von Bildern in verschiedenen Brennebenen, wobei mindestens ein Teil der Sequenz von Bildern auftritt, bevor ein Signal zum Speichern eines All-In-Focus-Bilds empfangen wird; ein Benutzerschnittstellenmodul zum Empfangen des Signals zum Speichern eines All-In-Focus-Bilds von einem Benutzer; und einen Bildprozessor zum Verschmelzen mindestens zweier Bilder, um das All-In-Focus-Bild zu ergeben, wobei die mindestens zwei Bilder unterschiedliche Brennebenen besitzen.
  2. System nach Anspruch 1, wobei zum Erfassen der Sequenz von Bildern der Bildsensor Folgendes tun soll: Erfassen der Sequenz von Bildern mit einer Anzahl von Bildern pro Sekunde.
  3. Das System nach Anspruch 2, wobei die Anzahl von Bildern pro Sekunde 24 Bilder pro Sekunde, 30 Bilder pro Sekunde, 45 Bilder pro Sekunde oder 60 Bilder pro Sekunde beträgt.
  4. System nach Anspruch 1, wobei zum Empfangen des Signals zum Speichern des All-In-Focus-Bilds das Benutzerschnittstellenmodul einen Befehl empfangen muss zum Speichern des All-In-Focus-Bilds in einem Zeitrahmen in der Sequenz von Bildern; und wobei zum Verschmelzen der mindestens zwei Bilder, um das All-In-Focus-Bild zu erhalten, der Bildprozessor die mindestens beiden Bilder aus der Sequenz von Bildern im Zeitrahmen wählen muss.
  5. System nach Anspruch 1, wobei das Empfangen des Signals zum Speichern des All-In-Focus-Bilds zu einer ersten Zeit auftritt und wobei der Bildprozessor Folgendes tun muss: Schätzen einer zweiten Zeit, wobei die zweite Zeit vor der ersten Zeit auftritt und die zweite Zeit darstellt, wann der Benutzer beabsichtigte, das All-In-Focus-Bild zu speichern; und Verschmelzen der mindestens zwei Bilder, um das All-In-Focus-Bild zu erhalten, durch Wählen der mindestens zwei Bilder aus der Sequenz von Bildern zur zweiten Zeit.
  6. System nach Anspruch 5, wobei zum Schätzen der zweiten Zeit der Bildprozessor Folgendes tun soll: Identifizieren einer Reaktionszeit des Benutzers; und Subtrahieren der Reaktionszeit von der ersten Zeit, um die zweite Zeit abzuleiten.
  7. System nach Anspruch 1, wobei die Sequenz von Bildern in verschiedenen Brennebenen eine sich wiederholende Reihe von Bildern mit einer Basis-Brennebene, einer Fern-Brennebene und einer Nah-Brennebene umfasst.
  8. System nach Anspruch 7, wobei zum Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, der Bildprozessor Folgendes tun soll: Wählen drei aufeinanderfolgender Bilder aus der Sequenz von Bildern, wobei die drei aufeinanderfolgenden Bilder ein Bild mit der Basis-Brennebene, ein Bild mit der Fern-Brennebene und ein Bild mit der Nah-Brennebene beinhalten; und Verschmelzen der fokussierten Abschnitte der Bilder, um das All-In-Focus-Bild zu erhalten.
  9. System nach Anspruch 8, wobei die Basis-Brennebene eine durch Autofokus geschätzte Brennebene ist.
  10. System nach Anspruch 1, wobei die Sequenz von Bildern in verschiedenen Brennebenen eine sich wiederholende Reihe von vier aufeinanderfolgenden Bildern in der Reihenfolge von einem ersten Bild mit einer Basis-Brennebene, einem Bild mit einer Fern-Brennebene, einem zweiten Bild mit der Basis-Brennebene und einem Bild mit einer Nah-Brennebene umfasst.
  11. System nach Anspruch 10, wobei zum Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, der Bildprozessor Folgendes tun soll: Wählen drei aufeinanderfolgender Bilder aus der Sequenz von Bildern, wobei die drei aufeinanderfolgenden Bilder das erste oder das zweite Bild mit der Basis-Brennebene, das Bild mit der Fern-Brennebene und das Bild mit der Nah-Brennebene beinhalten; und Verschmelzen der fokussierten Abschnitte der Bilder, um das All-In-Focus-Bild zu erhalten.
  12. System nach Anspruch 10, wobei zum Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, der Bildprozessor Folgendes tun soll: Wählen des Bilds mit der Fern-Brennebene aus der Sequenz von Bildern; Wählen des zweiten Bilds mit der Basis-Brennebene aus der Sequenz von Bildern, wobei das zweite Bild mit der Basis-Brennebene unmittelbar auf das Bild mit der Fern-Brennebene folgt; Wählen des Bilds mit der Nah-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Nah-Brennebene unmittelbar auf das zweite Bild mit der Basis-Brennebene folgt; und Verschmelzen der fokussierten Abschnitte der Bilder mit der Fern-, Basis- und Nah-Brennebene, um das All-In-Focus-Bild zu erhalten.
  13. System nach Anspruch 10, wobei zum Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, der Bildprozessor Folgendes tun soll: Wählen des Bilds mit der Nah-Brennebene aus der Sequenz von Bildern; Wählen des ersten Bilds mit der Basis-Brennebene aus der Sequenz von Bildern, wobei das erste Bild mit der Basis-Brennebene unmittelbar auf das Bild mit der Nah-Brennebene folgt; Wählen des Bilds mit der Fern-Brennebene aus der Sequenz von Bildern, wobei das Bild mit der Fern-Brennebene unmittelbar auf das erste Bild mit der Basis-Brennebene folgt; und Verschmelzen der fokussierten Abschnitte der Bilder mit der Nah-, Basis- und Fern-Brennebene, um das All-In-Focus-Bild zu erhalten.
  14. System nach Anspruch 1, wobei das Benutzerschnittstellenmodul ein elektronisches Sucherbild mit einem aus der Sequenz von Bildern gewählten Bild präsentieren soll.
  15. Verfahren zum Betreiben einer Kamera, wobei das Verfahren Folgendes umfasst: Erfassen, unter Verwendung eines Bildsensors in der Kamera, einer Sequenz von Bildern in verschiedenen Brennebenen, wobei mindestens ein Teil der Sequenz von Bildern auftritt, bevor ein Signal zum Speichern eines All-In-Focus-Bilds empfangen wird; Empfangen, von einem Benutzer, des Signals zum Speichern eines All-In-Focus-Bilds; und Verschmelzen, unter Verwendung eines Bildprozessors, von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, wobei die mindestens zwei Bilder verschiedene Brennebenen besitzen.
  16. Verfahren nach Anspruch 15, wobei das Erfassen der Sequenz von Bildern Folgendes umfasst: Erfassen der Sequenz von Bildern mit einer Anzahl von Bildern pro Sekunde.
  17. Verfahren nach Anspruch 16, wobei die Anzahl von Bildern pro Sekunde 24 Bilder pro Sekunde, 30 Bilder pro Sekunde, 45 Bilder pro Sekunde oder 60 Bilder pro Sekunde beträgt.
  18. Verfahren nach Anspruch 15, wobei das Empfangen des Signals zum Speichern des All-In-Focus-Bilds das Empfangen eines Befehls zum Speichern des All-In-Focus-Bilds in einem Zeitrahmen in der Sequenz von Bildern umfasst; und wobei das Verschmelzen der mindestens zwei Bilder, um das All-In-Focus-Bild zu erhalten, das Wählen der mindestens zwei Bilder aus der Sequenz von Bildern im Zeitrahmen umfasst.
  19. Verfahren nach Anspruch 15, wobei das Empfangen des Signals zum Speichern des All-In-Focus-Bilds zu einer ersten Zeit auftritt und wobei das Verfahren Folgendes umfasst: Schätzen einer zweiten Zeit, wobei die zweite Zeit vor der ersten Zeit auftritt und die zweite Zeit darstellt, wann der Benutzer beabsichtigte, das All-In-Focus-Bild zu speichern; und wobei das Verschmelzen der mindestens zwei Bilder, um das All-In-Focus-Bild zu erhalten, das Wählen der mindestens zwei Bilder aus der Sequenz von Bildern zur zweiten Zeit umfasst.
  20. Verfahren nach Anspruch 19, wobei das Schätzen der zweiten Zeit Folgendes umfasst: Identifizieren einer Reaktionszeit des Benutzers; und Subtrahieren der Reaktionszeit von der ersten Zeit, um die zweite Zeit abzuleiten.
  21. Verfahren nach Anspruch 15, wobei die Sequenz von Bildern in verschiedenen Brennebenen eine sich wiederholende Reihe von Bildern mit einer Basis-Brennebene, einer Fern-Brennebene und einer Nah-Brennebene umfasst.
  22. Verfahren nach Anspruch 21, wobei das Verschmelzen von mindestens zwei Bildern, um das All-In-Focus-Bild zu erhalten, Folgendes umfasst: Wählen drei aufeinanderfolgender Bilder aus der Sequenz von Bildern, wobei die drei aufeinanderfolgenden Bilder ein Bild mit der Basis-Brennebene, ein Bild mit der Fern-Brennebene und ein Bild mit der Nah-Brennebene beinhalten; und Verschmelzen der fokussierten Abschnitte der Bilder, um das All-In-Focus-Bild zu erhalten.
  23. Verfahren nach Anspruch 22, wobei die Basis-Brennebene eine durch Autofokus geschätzte Brennebene ist.
  24. Maschinenlesbares Medium mit Anweisungen, die bei Ausführung durch eine Maschine bewirken, dass die Maschine Operationen nach einem der Verfahren der Ansprüche 15-23 durchführt.
  25. Vorrichtung, umfassend Mittel zum Durchführen eines der Verfahren nach den Ansprüchen 15-23.
DE102015102681.3A 2014-03-26 2015-02-25 All-in-focus-implementierung Active DE102015102681B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/225,866 US9307166B2 (en) 2014-03-26 2014-03-26 All-in-focus implementation
US14/225,866 2014-03-26

Publications (2)

Publication Number Publication Date
DE102015102681A1 DE102015102681A1 (de) 2015-10-01
DE102015102681B4 true DE102015102681B4 (de) 2022-04-21

Family

ID=54066924

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015102681.3A Active DE102015102681B4 (de) 2014-03-26 2015-02-25 All-in-focus-implementierung

Country Status (5)

Country Link
US (5) US9307166B2 (de)
JP (1) JP5979453B2 (de)
KR (1) KR101633671B1 (de)
CN (2) CN107295249B (de)
DE (1) DE102015102681B4 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9307166B2 (en) 2014-03-26 2016-04-05 Intel Corporation All-in-focus implementation
JP6346793B2 (ja) * 2014-06-03 2018-06-20 オリンパス株式会社 撮像装置、撮像装置の制御方法、及びプログラム
US9749532B1 (en) * 2014-08-12 2017-08-29 Amazon Technologies, Inc. Pixel readout of a charge coupled device having a variable aperture
CN104680563B (zh) * 2015-02-15 2018-06-01 青岛海信移动通信技术股份有限公司 一种图像数据的生成方法和装置
CN106600529A (zh) * 2016-11-28 2017-04-26 北京暴风魔镜科技有限公司 一种全焦全景图像的获取方法和装置
JP6863787B2 (ja) * 2017-03-17 2021-04-21 ソニー・オリンパスメディカルソリューションズ株式会社 内視鏡システム
WO2019075575A1 (en) * 2017-10-20 2019-04-25 Institut National D'optique HIGH-RESOLUTION CAMERA SYSTEMS AND METHODS WITH HIGH FIELD DEPTH USING A FOCUS STACK
WO2020215050A1 (en) * 2019-04-19 2020-10-22 Arizona Board Of Regents On Behalf Of The University Of Arizona All-in-focus imager and associated method
US11921285B2 (en) 2019-04-19 2024-03-05 Arizona Board Of Regents On Behalf Of The University Of Arizona On-chip signal processing method and pixel-array signal

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060061678A1 (en) 2004-09-17 2006-03-23 Casio Computer Co., Ltd. Digital cameras and image pickup methods
US20140002712A1 (en) 2012-06-28 2014-01-02 International Business Machines Corporation Depth of Focus in Digital Imaging Systems

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005311488A (ja) 2004-04-19 2005-11-04 Fuji Photo Film Co Ltd 撮像装置、撮像方法、及び撮像プログラム
EP1659783A3 (de) * 2004-11-19 2006-05-31 Fujinon Corporation Vorrichtung zur AF Gebietanzeige und Vorrichtung zur AF Gebietsteuerung
JP2007214887A (ja) * 2006-02-09 2007-08-23 Fujifilm Corp デジタルスチルカメラ及び画像合成方法
JP5094070B2 (ja) 2006-07-25 2012-12-12 キヤノン株式会社 撮像装置、撮像方法、プログラム、及び記憶媒体
CN101191719A (zh) * 2006-12-01 2008-06-04 鸿富锦精密工业(深圳)有限公司 影像焦点合成系统及方法
TWI377435B (en) * 2008-06-11 2012-11-21 Asia Optical Co Inc Camera
JP5282533B2 (ja) * 2008-11-12 2013-09-04 株式会社ニコン 画像処理装置、撮像装置およびプログラム
JP5163446B2 (ja) * 2008-11-25 2013-03-13 ソニー株式会社 撮像装置、撮像方法及びプログラム
JP5154392B2 (ja) 2008-12-12 2013-02-27 株式会社キーエンス 撮像装置
JP5478935B2 (ja) * 2009-05-12 2014-04-23 キヤノン株式会社 撮像装置
US8600186B2 (en) * 2010-04-26 2013-12-03 City University Of Hong Kong Well focused catadioptric image acquisition
JP4988057B1 (ja) * 2011-10-11 2012-08-01 アキュートロジック株式会社 全焦点画像生成方法、全焦点画像生成装置、全焦点画像生成プログラム、被写体高さ情報取得方法、被写体高さ情報取得装置及び被写体高さ情報取得プログラム
EP2820838B1 (de) * 2012-05-09 2020-01-08 Lytro, Inc. Optimierung von optischen systemen für verbesserte lichtfelderfassung und -manipulation
JP6074926B2 (ja) * 2012-07-05 2017-02-08 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US8818117B2 (en) * 2012-07-19 2014-08-26 Sony Corporation Method and apparatus for compressing Z-stack microscopy images
JP5662511B2 (ja) * 2013-04-10 2015-01-28 シャープ株式会社 撮像装置
JP2015163943A (ja) * 2014-01-29 2015-09-10 パナソニックIpマネジメント株式会社 撮像装置
US9307166B2 (en) 2014-03-26 2016-04-05 Intel Corporation All-in-focus implementation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060061678A1 (en) 2004-09-17 2006-03-23 Casio Computer Co., Ltd. Digital cameras and image pickup methods
US20140002712A1 (en) 2012-06-28 2014-01-02 International Business Machines Corporation Depth of Focus in Digital Imaging Systems

Also Published As

Publication number Publication date
US9307166B2 (en) 2016-04-05
KR101633671B1 (ko) 2016-06-27
CN104954665B (zh) 2018-11-27
US10165196B2 (en) 2018-12-25
US20150281592A1 (en) 2015-10-01
CN107295249B (zh) 2021-05-04
JP2015201837A (ja) 2015-11-12
US10721414B2 (en) 2020-07-21
DE102015102681A1 (de) 2015-10-01
US20210075954A1 (en) 2021-03-11
CN104954665A (zh) 2015-09-30
US20190364190A1 (en) 2019-11-28
CN107295249A (zh) 2017-10-24
US20160212334A1 (en) 2016-07-21
US9554039B2 (en) 2017-01-24
JP5979453B2 (ja) 2016-08-24
KR20150111835A (ko) 2015-10-06
US11570376B2 (en) 2023-01-31
US20170126950A1 (en) 2017-05-04

Similar Documents

Publication Publication Date Title
DE102015102681B4 (de) All-in-focus-implementierung
DE102016105879B4 (de) Anzeigesteuerungsvorrichtung und Steuerungsverfahren für diese
DE112013006817B4 (de) Bildaufnahmevorrichtung, Signalverarbeitungsverfahren und Signalverarbeitungsprogramm
DE102014010152A1 (de) Automatikeffektverfahren für Fotografie und elektronische Vorrichtung
DE202014010969U1 (de) Kamerafähiges Mobilgerät
DE202017105899U1 (de) Kameraeinstellungsanpassung basierend auf vorhergesagten Umgebungsfaktoren und Nachverfolgungssysteme, die diese einsetzen
DE102017126269B4 (de) Vorrichtung und Verfahren zur hinterleuchteten Gesichtserkennung
DE102015110326A1 (de) Bildverarbeitungsvorrichtung, Verfahren zum Steuern derselben und Speichermedium
DE102014218166B4 (de) Bildverarbeitungsvorrichtung und zugehöriges steuerverfahren
DE102017126270B4 (de) Mehrfach-Kamera-Aufnahme eines HDR-Bildes
EP3005286B1 (de) Bildneufokussierung
CN103426147A (zh) 图像处理装置、图像拾取装置和图像处理方法
DE102012100079A1 (de) Digitale Fotografiervorrichtung und Steuerverfahren dafür
DE102013201980B4 (de) Verfahren zur Fokuseinstellung und entsprechendes Bilderfassungsgerät
DE102014119150A1 (de) Bildaufnahmevorrichtung und Steuerungsverfahren für diese
DE112013004759B4 (de) Bildaufnahmevorrichtung und Bildverarbeitungsverfahren
DE102015105072A1 (de) Bildaufnahmevorrichtung zur erzeugung eines fokusveränderbaren bilds, steuerverfahren für eine bildaufnahmevorrichtung, und speichermedium
DE112013005142T5 (de) Bildaufnahmevorrichtung und zugehöriges Fokussiersteuerverfahren
DE102018123402A1 (de) Bildunschärfekorrekturvorrichtung und steuerverfahren
DE102015108601A1 (de) Bildverarbeitungseinrichtung, ihr steuerverfahren und speichermedium
DE102017100796A1 (de) Abbildungsvorrichtung und Steuerungsverfahren von dieser
DE102021109762A1 (de) Bildaufnahmevorrichtung, steuerverfahren dafür, programm, undspeichermedium
DE102015005292A1 (de) Bildaufnahmevorrichtung und deren Steuerverfahren
DE102020118510A1 (de) Elektronische Vorrichtung zur Durchführung einer Video-HDR-Verarbeitung auf der Grundlage von Bilddaten, die durch eine Vielzahl von Bildsensoren erhalten werden
DE102004007608A1 (de) Verfahren zur Gewinnung von Bildern mit unendlicher, erweiterter oder modifizierter Tiefenschärfe

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R130 Divisional application to

Ref document number: 102015017221

Country of ref document: DE

Ref document number: 102015017235

Country of ref document: DE

Ref document number: 102015017283

Country of ref document: DE

R130 Divisional application to

Ref document number: 102015017235

Country of ref document: DE

Ref document number: 102015017221

Country of ref document: DE

Ref document number: 102015017283

Country of ref document: DE

R130 Divisional application to

Ref document number: 102015017221

Country of ref document: DE

Ref document number: 102015017283

Country of ref document: DE

Ref document number: 102015017235

Country of ref document: DE

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005232000

Ipc: H04N0023600000

R020 Patent grant now final