DE102012016160A1 - Bilderfassung für eine spätere Nachfokussierung oder Fokusmanipulation - Google Patents

Bilderfassung für eine spätere Nachfokussierung oder Fokusmanipulation Download PDF

Info

Publication number
DE102012016160A1
DE102012016160A1 DE102012016160A DE102012016160A DE102012016160A1 DE 102012016160 A1 DE102012016160 A1 DE 102012016160A1 DE 102012016160 A DE102012016160 A DE 102012016160A DE 102012016160 A DE102012016160 A DE 102012016160A DE 102012016160 A1 DE102012016160 A1 DE 102012016160A1
Authority
DE
Germany
Prior art keywords
depths
images
image
scene
major
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102012016160A
Other languages
English (en)
Inventor
Meir Tzur
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
CSR Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CSR Technology Inc filed Critical CSR Technology Inc
Publication of DE102012016160A1 publication Critical patent/DE102012016160A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)

Abstract

Ein System, Verfahren und Computerprogrammprodukt zum Erfassen von Bildern für das spätere Nachfokussieren. Ausführungsformen schätzen eine Distanzkarte für eine Szene, bestimmen eine Anzahl von Haupttiefen, erfassen eine Menge von Bildern, wobei jedes Bild auf eine der Haupttiefen fokussiert ist, und verarbeiten erfasste Bilder, um ein Ausgabebild herzustellen. Die Szene wird in Gebiete unterteilt, und die Tiefenkarte stellt Gebietstiefen entsprechend einer jeweiligen Fokusstufe dar. Einträge mit einem speziellen Fokusstufenwert werden in einem Histogramm platziert, und Tiefen mit den meisten Einträgen werden als die Haupttiefen ausgewählt. Ausführungsformen können auch Szenenbereiche mit wichtigen Objekten identifizieren und verschiedene wichtige Objekttiefen in den Haupttiefen enthalten. Erfasste Bilder können gemäß der Benutzereingabe ausgewählt und ausgerichtet und dann unter Verwendung von Mischfunktionen verknüpft werden, die nur Szenengebiete begünstigen, die in bestimmten erfassten Bildern fokussiert sind.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Die vorliegende Anmeldung basiert auf und beansprucht den Vorzug unter 35 U. S. C. 119(e) der am 18. August 2011 eingereichten, eigenen vorläufigen US-Anmeldung mit der laufenden Nummer 61/525,102 mit dem Titel ”Image Capture For Later Refocusing Or Focus-Manipulation”, die hierdurch in ihrer Gesamtheit durch Bezugnahme aufgenommen ist. Auch die am 14. Juli 2011 eingereichte eigene, vorläufig anhängige US-Patentanmeldung mit der laufenden Nummer 13/183,363 mit dem Titel ”Method for Progressively Determining Depth from Defocused Images” wird hierdurch in ihrer Gesamtheit durch Bezugnahme aufgenommen.
  • GEBIET DER ERFINDUNG
  • Die vorliegende Patentanmeldung betrifft allgemein das Nachfokussieren eines Bilds nach seinem Erfassen und insbesondere das Erstellen einer Tiefenkarte während der Bilderfassungsvorbereitung, um eine gerichtete Bilderfassung für die nachfolgende Nachfokussierungsverarbeitung zu ermöglichen.
  • HINTERGRUND DER ERFINDUNG
  • Das Problem des Nachfokussierens oder der Fokusmanipulation nach dem Aufnehmen eines Bilds wird behandelt. Es gibt verschiedene Szenarien, wo die Notwendigkeit für eine Nachfokussierung essenziell ist. Das Hauptszenarium tritt auf, wenn die Kamera während der Aufnahme auf ein anderes Objekt fokussiert wird als jenes, das der Fotograf im Sinne hatte. Selbst wenn das korrekte Objekt scharf gestellt war, möchte der Fotograf möglicherweise zudem die Fokusposition danach ändern. Deshalb liefert die Existenz einer derartigen Option dem Fotograf die Freiheit, den scharfen Gegenstand nach der Aufnahme zu wählen, selbst wenn die Kamera auf dem beabsichtigten Gegenstand fokussiert war.
  • Außerdem kann eine Fokusmanipulation mehr als nur das Nachfokussieren beinhalten. Die Fokusmanipulation liefert die Fähigkeit zum Erstellen von Bildern, die eine reale Kamera nicht aufnehmen kann. Beispielsweise kann es möglich sein, eine Fokussierung auf einige Gegenstände zu gestatten und nicht auf andere zu fokussieren, selbst wenn sich die nicht-fokussierten Gegenstände zwischen den fokussierten Gegenständen befinden.
  • Eine weitere Option, die eine Fokusmanipulation liefern kann, ist die Fähigkeit eines überall scharfen Bilds, d. h. eines Bilds, wo alle Objekte scharf sind.
  • Eine mögliche Lösung für Fokusmanipulationsprobleme ist die sogenannte plenoptische Kamera, die das ganze Lichtfeld der Szene einfängt und nach dem Aufnehmen des Bilds auf jeden Punkt fokussiert werden kann. Plenoptische Kameras verwenden jedoch nicht-standardgemäße Kameraoptiken und erfordern Sensoren mit einer sehr großen Anzahl von Pixeln.
  • Deshalb wird eine Fokusmanipulationsmethodik unter Verwendung von Standardsensoren und herkömmlichen Kameraoptiken benötigt.
  • KURZE DARSTELLUNG DER AUSFÜHRUNGSFORMEN
  • Es werden hier Systeme, Verfahren und Computerprogrammprodukte zum Erfassen von Bildern für die spätere Nachfokussierung und Fokusmanipulation offenbart und beansprucht.
  • Wie unten ausführlicher beschrieben, gestatten die Vorrichtung und die Prozesse der offenbarten Ausführungsformen eine automatische Fokusmanipulation. Weitere Aspekte, Aufgaben, wünschenswerte Merkmale und Vorteile der hier offenbarten Vorrichtungen und Verfahren werden angesichts der detaillierten Beschreibung und der Zeichnungen, die folgen, in denen beispielhaft verschiedene Ausführungsformen dargestellt sind, besser verstanden und für einen Fachmann offensichtlich sein. Es ist jedoch ausdrücklich zu verstehen, dass die Zeichnungen nur dem Zweck der Darstellung dienen und nicht als eine Definition der Grenzen der beanspruchten Erfindung gedacht sind.
  • Bei der Beschreibung der vorliegenden Erfindung als ein Verfahrensausführungsbeispiel kann ein prozessorimplementiertes Verfahren zum Erfassen von Bildern zum späteren Nachfokussieren umfassen: Schätzen einer Distanzkarte für eine Szene, Bestimmen einer Anzahl von Haupttiefen, Erfassen einer Menge von Bildern, wobei jedes Bild auf eine der Haupttiefen fokussiert ist und Verarbeiten von erfassten Bildern, um ein Ausgabebild herzustellen.
  • Das Schätzen kann ein Berechnen des Depth-from-Defocus (Tiefe aus Defokussierung) umfassen oder kann ein Aufnehmen von Bildern mit verschiedenen Fokuseinstellungen und ein Finden der Fokuseinstellung, die eine größte räumliche Ableitung für wenigstens einen Abschnitt der Szene ergibt, umfassen. Das Schätzen kann ein Verwenden eines äußeren Entfernungsmessers umfassen.
  • Das Bestimmen kann umfassen: Unterteilen der Szene in mehrere Rechtecke, wobei die Tiefenkarte Tiefen der Rechtecke darstellt, wobei die Tiefen einer einer vorbestimmten Anzahl von Fokusstufen entsprechen, Zählen von Tiefenkarteneinträgen mit einem speziellen bzw. spezifischen Fokusstufenwert, Sortieren gezählter Tiefenkarteneinträge in ein Histogramm und Auswählen von Tiefen mit den meisten Tiefenkarteneinträgen als die Haupttiefen. Die Anzahl der Haupttiefen kann ein Bruchteil der Anzahl von Fokusstufen sein, wobei der Bruchteil gemäß einer Mindestanzahl von Fokusstufen aus dem Histogramm berechnet wird, die erforderlich sind, um einen vorbestimmten Prozentsatz der Rechtecke abzudecken.
  • Alternativ kann das Bestimmen umfassen: Identifizieren von Szenebereichen mit wichtigen Objekten und Aufnehmen von verschiedenen wichtigen Objekttiefen in den Haupttiefen. Die wichtigen Objekte können Gesichter, Haustiere, Wagen, Leute und/oder wiedererkannte Gesichter von speziellen bzw. spezifischen Personen beinhalten. Die wichtigen Objekttiefen können zuerst in den Haupttiefen platziert werden. Falls die Anzahl der wichtigen Objekte unter einem vorbestimmten Schwellwert liegt, können Tiefen, die den höchsten Histogrammzählwerten entsprechen, aber nicht wichtigen Objekten entsprechen, zu den Haupttiefen hinzugefügt werden. Falls die Anzahl von wichtigen Objekten gleich oder größer dem vorbestimmten Schwellwert ist, kann die Anzahl von wichtigen Objekten die Anzahl von Haupttiefen bestimmen. Die Anzahl von Haupttiefen kann durch den verfügbaren Speicher und/oder die Anzahl von Bildern, die im Wesentlichen gleichzeitig aufgenommen werden können, beschränkt sein.
  • Das Verarbeiten kann ein Auswählen eines Bilds aus der Menge gemäß Benutzereingabe oder Auswahlkriterien umfassen. Alternativ kann das Verarbeiten umfassen: Auswählen mehrerer Bilder aus der Menge gemäß einer Benutzereingabe oder Auswahlkriterien, Ausrichten der ausgewählten Bilder und Verknüpfen der ausgewählten Bilder unter Verwendung von Mischfunktionen. Jede Mischfunktion ist bevorzugt gleich 1 in Bereichen eines entsprechenden ausgewählten Bilds, die fokussiert sind, null in Bereichen von anderen ausgewählten Bildern, die fokussiert sind, und gleich Werten zwischen null und eins in anderen Bereichen.
  • Bei einer Systemausführungsform führt ein Prozessor Anweisungen aus, die in einem Speicher gespeichert sind, zum: Schätzen einer Distanzkarte für eine Szene, Bestimmen einer Anzahl von Haupttiefen, Erfassen einer Menge von Bildern, wobei jedes Bild auf eine der Haupttiefen fokussiert ist, und Verarbeiten von erfassten Bildern, um ein Ausgabebild herzustellen.
  • Bei einer Computerprogrammprodukt-Ausführungsform verkörpert ein maschinenlesbares Medium nicht-vorübergehende Programmanweisungen darauf dingbar, die bei Ausführung durch die Maschine bewirken, dass die Maschine Bilder zur späteren Nachfokussierung erfasst durch: Schätzen einer Distanzkarte für eine Szene, Bestimmen einer Anzahl von Haupttiefen, Erfassen einer Menge von Bildern, wobei jedes Bild auf eine der Haupttiefen fokussiert ist, und Verarbeiten von erfassten Bildern, um ein Ausgabebild herzustellen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein Flussdiagramm gemäß einer ersten Ausführungsform;
  • 2 zeigt ein Histogramm gemäß der ersten Ausführungsform;
  • 3 zeigt ein Flussdiagramm gemäß einer zweiten Ausführungsform.
  • AUSFÜHRLICHE BESCHREIBUNG VON AUSFÜHRUNGSBEISPIELEN
  • Ausführungsformen der vorliegenden Erfindung stellen eine neue und patentierbar ausgeprägte Methodik zum Manipulieren des Fokus von erfassten Bildern bereit.
  • Eine potentielle Lösung ist das Durchführen einer Fokusreihe, das heißt, Bilder mit allen möglichen Fokuspositionen zu erfassen, und nachdem die Bilder aufgenommen sind, ein bestimmtes Bild zu wählen oder einige der Bilder zu verknüpfen. Für diese Lösung gibt es klare Beschränkungen. Die Geschwindigkeit der Bilderfassung kann die Anzahl von Bildern begrenzen, die aufgenommen werden kann, und jedes Bild erfordert eine bestimmte Menge an Speicherkapazität.
  • Gemäß Ausführungsformen der vorliegenden Erfindung schätzt deshalb die Kamera während der Vorschauperiode oder bei ”halbem Durchdrücken” des Auslöseknopfs beispielsweise die Distanzkarte der abgebildeten Szene und findet eine kleine Anzahl von Haupttiefen. Dann wird bei ”vollem Durchdrücken” des Auslöseknopfs ein Bündel von auf die Haupttiefen fokussierten Bildern erfasst. Das letzte Verarbeiten, um ein Nachfokussieren oder eine Fokusmanipulation zu erzielen, basiert auf der kleinen Anzahl von erfassten Bildern.
  • Ein Hauptvorteil dieser Ausführungsformen ist die Verwendung einer kleinen Anzahl von Bildern anstatt die ganz Palette von Fokuspositionen zu verwenden. Beispielsweise kann die ganze Menge von Fokuspositionen bis zu 40 oder mehr Fokuspunkte beinhalten, wohingegen es in einer typischen Szene vielleicht vier bis sechs Haupttiefen gibt. Die Vorteile beim Verwenden einer kleinen Anzahl von Bildern beinhalten:
    • 1. Kleinerer Speicherraum.
    • 2. Kleinere Anzahl von zu verarbeitenden Bildern.
    • 3. Weniger Verarbeitungsartefakte, da die mittlere Verzögerung zwischen verarbeiteten Bildern viel kleiner ist.
  • Die Verzögerungen zwischen den verschiedenen Bildern sind klein, und deshalb sind die verschiedenen Artefakte der Verarbeitung der Bilder weniger auffallend, weil neue CMOS-Sensoren Bündel von Standbildern auf sehr schnelle Weise erfassen können.
  • Nun unter Bezugnahme auf 1 führen die Ausführungsformen der vorliegenden Erfindung die dargestellte Prozedur 100 durch:
    • – Während des ”halben Durchdrückens” oder zu einer Vorschauzeit Erzeugen einer Tiefenkarte der Szene in Schritt 102.
    • – Auf der Basis der Tiefenkarte Berechnen einer (kleinen) Anzahl von Haupttiefen im Schritt 104.
    • – In Schritt 106 Aufnehmen eines Bündels von Bildern, die auf die im Schritt 104 berechneten Haupttiefen fokussiert sind.
    • – Verarbeiten der in Schritt 106 erfassten Menge von Bildern, um in Schritt 108 das finale, fokusmanipulierte Bild zu erhalten.
    • – Ausgeben des finalen, fokusmanipulierten Bilds in Schritt 110.
  • Erstellen einer Tiefenkarte während des halben Durchdrückens
  • Eine Tiefenkarte kann auf mehrere Weise erstellt werden. Ein möglicher Weg wird in der am 14. Juli 2011 eingereichten eigenen US-Patentanmeldung mit der laufenden Nummer 13/183,363 mit dem Titel ”Method for Progressively Determining Depth from Defocused Images” von M. Tzur und G. Rapaport, die durch Bezugnahme oben aufgenommen ist, beschrieben. Kurz gesagt kann die Tiefenkarte erstellt werden, indem mehrere Vorschaubilder bei einigen vordefinierten Fokuspositionen aufgenommen werden und dann für das ganze Bild auf der Basis des Konzepts ”Depth-from-Defocus” eine Tiefenkarte berechnet wird. Der Vorteil eines derartigen Verfahrens besteht darin, dass es keine Notwendigkeit gibt, die ganze Palette von Fokuspositionen abzutasten, um eine Tiefenkarte für das ganze Bild herzustellen.
  • Ein anderer Weg, um eine Tiefenkarte zu erstellen (zuvor erwähnt) besteht darin, die ganze Palette von Fokuspositionen abzutasten, d. h. Vorschaubilder bei allen Fokuspositionen aufzunehmen, und die beste Fokusposition für die Erstellung einer Tiefenkarte zu verwenden. Dies ist ein sogenanntes ”Depth-from-Focus”-Verfahren. Mit solchen Verfahren wird die beste Fokusposition üblicherweise bestimmt, indem die Position der größten räumlichen Ableitung über alle Fokuspositionen gefunden wird.
  • Zusätzliche Wege für die Erstellung einer Tiefenkarte können äußere Entfernungsmessermittel verwenden, die nicht notwendigerweise Teil des Kamerafokussierungsmechanismus sind.
  • Berechnen der Haupttiefen
  • Bei einer gegebenen Tiefenkarte der Szene möchten wir die Haupttiefen in der Szene berechnen. Die Haupttiefen sind Tiefen, die zu großen oder signifikanten Bereichen der Szene gehören.
  • Mit der folgenden Prozedur können die Haupttiefen auf der Basis von großen Szenenbereichen, die zu einer speziellen bzw. spezifischen Tiefe gehören, gefunden werden. Angenommen, die Szene ist in M × N Rechtecke unterteilt und die Tiefenkarte stellt die Tiefe jedes Rechtecks dar. Die Tiefe werde mit D(x, y) bezeichnet, wobei x = 1...M und y = 1...N. Es wird auch angenommen, dass die Tiefe durch die entsprechende Fokusstufe dargestellt wird und dass die Anzahl an Fokusstufen eine begrenzte bzw. endliche Zahl Q ist. Deshalb gilt 1 ≤ D(x, y) ≤ Q.
  • Ausführungsformen können eine Histogrammfunktion H(q) für 1 ≤ g ≤ Q berechnen, indem die Anzahl von Einträgen in D(x, y), die einen speziellen bzw. spezifischen q-Wert aufweisen, gezählt wird. Erreicht werden kann dies durch den folgenden Pseudocode: Init H(q) = 0, für alle 1 ≤ q ≤ Q Schleife über alle x = 1...M und y = 1...N H(D(x, y)) = H(D(x, y)) + 1 Ende
  • Durch Sortieren von H(q) von dem höchsten Zählwert zu dem kleinsten Zählwert werden die P Haupttiefen als die q-Werte gewählt, für die H(q) die P höchsten Werte aufweist. In der Praxis können aufgrund verschiedener Faktoren die Spitzen der Histogrammfunktion H(q) lokalisiert und die P Haupttiefen als die q-Werte gewählt werden, für die die Spitzen die P höchsten Werte aufweisen.
  • Nun unter Bezugnahme auf 2 wird ein beispielhaftes Histogramm bereitgestellt, das Informationen hinsichtlich jedes von 64 Fokusschritten angibt, der zum Lokalisieren von sechs Haupttiefen verwendet wird. Auf diese Weise werden die P Haupttiefen, die zu den größten Bereichen in dem Bild gehören, ausgewählt. Bei diesem Beispiel gibt es sechs Haupttiefen, wie in 2 als mit Kreisen versehene Punkte gezeigt. P kann a priori als ein Bruchteil. von Q definiert werden, oder es kann auf der Basis des Histogramms H(q) berechnet werden. Beispielsweise können Ausführungsformen P als die kleinste Zahl derart wählen, dass die Summe der P höchsten Zählwerte größer oder gleich der Hälfte (oder einem anderen Bruchteil) der Gesamtzahl von Rechtecken in der Tiefenkarte ist. Das heißt, der kleinste P-Wert, so dass
    Figure 00070001
    wobei H(qi) das sortierte Histogramm ist (höchster Wert zuerst).
  • Eine andere Überlegung zum Finden der Haupttiefen berücksichtigt signifikante Bereiche im Bild. Signifikante Bereiche können zum Beispiel Bereiche sein, wo Gesichter oder andere wichtige Objekte während der Vorschau detektiert werden. Andere wichtige Objekte könnten Haustiere, Wagen, Menschen oder Gesichter von speziellen bzw. spezifischen Personen sein, die während der Vorschau erkannt wurden. Die Tiefen der wichtigen Objekte, wie etwa Gesichter, könnten in der ersten Liste der Haupttiefen enthalten sein.
  • Unterschiedliche Beschränkungen können zu unterschiedlichen Verfahren zum Berechnen der Haupttiefen führen. Im Fall eines begrenzten Speichers beispielsweise kann die Anzahl von Haupttiefen durch P0 strikt begrenzt werden (da es eventuell nicht möglich ist, in einem Bündel mehr als P0 Bilder zu erfassen). Dann sollte das Verfahren zum Finden der Haupttiefen gemäß dieser Einschränkung geändert werden, so dass die Anzahl von Haupttiefen in allen Fällen kleiner oder gleich P0 ist.
  • Nun unter Bezugnahme auf 3 wird ein beispielhaftes Verfahren 300 gezeigt, um Haupttiefen zu finden, wenn die signifikanten Bereiche Gesichter sind. Dieses Verfahren kann eine Teilmenge des zuvor beschriebenen Schritts 104 sein. In diesem Fall wird eine Anzahl von Tiefen P0, die verarbeitet werden können, von dem Benutzer oder gemäß gewisser Heuristiken auf der Basis beispielsweise von Gerätebeschränkungen a priori ausgewählt. Die endgültige Anzahl an Haupttiefen wird gemäß der Anzahl von detektierten Gesichtern und gemäß dem Histogrammzählwert H(q) bestimmt.
  • In Schritt 302 werden Tiefenkarten von Gesichtern zu Mengen von gleicher Tiefe verknüpft. In Schritt 304 wird ein Vergleich zwischen der Anzahl solcher Mengen und der Anzahl von Tiefen P0, die verarbeitet werden können, angestellt. Falls die Anzahl von Mengen von detektierten wichtigen Objekttiefen unter P0 liegt, dann können Tiefen, die den höchsten Histogrammwerten entsprechen (und den wichtigen Objekten nicht entsprechen) nach den Tiefen jeder Menge zu der Liste von Haupttiefen hinzugefügt werden, wie in Schritten 310314 beschrieben. Falls ferner die Anzahl an detektierten wichtigen Objekten größer als (oder gleich) P0 ist, dann kann die Anzahl von Haupttiefen durch die Anzahl von während einer Vorschau detektierten wichtigen Objekten bestimmt werden, wie in den Schritten 306308 beschrieben.
  • Verarbeiten der Menge von Bildern, um ein fokusmanipuliertes Bild zu erhalten
  • Es gibt eine Anzahl von Beispielen für die Fokusmanipulation:
    • 1. Nachfokussieren auf ein anderes Objekt. In diesem Fall wird nur ein Bild aus der Menge von erfassten Bildern gewählt. Der Benutzer sieht alle Bilder durch und zeigt an, welches beispielsweise das erwünschte ist. Alternativ kann ein Bild auf der Basis vorbestimmter Kriterien automatisch gewählt werden, wie etwa, welches Bild ein erkanntes Gesicht oder ein anderes wichtiges Objekt im Fokus hat oder welches Bild den höchsten Tiefenkartenhistogrammzählwert aufweist.
    • 2. Nachfokussieren auf mehreren Objekten. In diesem Fall wählt der Benutzer oder eine Menge von Heuristiken wie oben beschrieben mehrere Objekte (mehr als eines), die scharf sein sollen. Das System wird dann die entsprechenden Bilder zu einem Bild derart verknüpfen, dass die gewählten Objekte alle scharf sein werden. Eine derartige Verknüpfung könnte in dem Sinne unrealistisch sein, als es keine reale Kamera gibt, die ein derartiges Bild erzeugen kann. Der Verknüpfungsprozess könnte eine Analyse der Bilder, um die Bilder auszurichten, erfordern. Nach der Ausrichtung können die Bilder durch Verwenden einer Mischfunktion verknüpft werden, die gleich eins in dem Bereich ist, wo das Bild fokussiert ist, gleich null in den Bereichen, wo andere Bilder fokussiert sind, und gleich Zwischenwerten (größer als null und kleiner als eins) in anderen Bereichen.
  • Es sei beispielsweise angenommen, dass der Benutzer zwei Bilder wählt, wobei bei jedem Bild ein anderes Objekt scharf ist. Es sei auch angenommen, dass die beiden Bilder I1(x, y), I2(x, y) bereits ausgerichtet sind. Dann wird das finale Bild I(x, y) = a1(x, y)·I1(x, y) + a2(x, y)·I2(x, y) sein, wobei a1(x, y) und a2(x, y) Mischfunktionen sind, so dass 0 ≤ a1(x, y), a2(x, y) ≤ 1. Ferner ist a1(x, y) gleich 1 in dem Bereich, wo das Objekt in I1(x, y) fokussiert ist, und gleich null in dem Bereich, wo das Objekt in I2(x, y) fokussiert ist. In den anderen Bereichen ändert sich der Wert von a1(x, y) allmählich von 1 auf 0 und umgekehrt. Eine ähnliche Logik gilt für a2(x, y) bezüglich I2(x, y).
  • 3. Alle Objekte scharf.
  • In diesem Fall werden alle Bilder verwendet und das finale Bild wird
    Figure 00090001
    sein, wobei Ii(x, y) die ausgerichteten Bilder sind und ai(x, y) die Mischfunktionen sind.
  • Die resultierende Ausgabe kann ein Ausgabebild oder einen, Ausgabevideoclip auf der Basis von einem Teil oder allen der verarbeiteten Bilder umfassen.
  • Die Begriffe ”ein” oder ”einer/eine”, wie sie hier verwendet werden, sollen einen oder mehr als einen bedeuten. Der Ausdruck ”Mehrzahl” soll zwei oder mehr als zwei bedeuten. Der Ausdruck ”ein anderer” wird als ein zweiter oder weiterer definiert. Die Ausdrücke ”enthaltend” und/oder ”mit” sind offene Ausdrücke (z. B. umfassend). Die Bezugnahme in diesem Dokument auf ”eine Ausführungsform”, ”gewisse Ausführungsformen” oder einen ähnlichen Ausdruck bedeutet, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder eine bestimmte Charakteristik, das oder die in Verbindung mit der Ausführungsform beschrieben ist, in mindestens einer Ausführungsform enthalten ist. Somit bezeichnen die Vorkommen solcher Phrasen an verschiedenen Stellen in dieser Spezifikation nicht notwendigerweise alle die gleiche Ausführungsform. Außerdem können die bestimmten Merkmale, Strukturen oder Charakteristika auf eine beliebige geeignete Weise auf einer oder mehreren Ausführungsformen ohne Beschränkung verknüpft werden. Der Ausdruck ”oder”, wie er hier verwendet wird, ist als inklusiv auszulegen oder so, dass er eine beliebige oder beliebige Verknüpfungen beinhaltet. Deshalb bedeutet ”A, B oder C” ”eines der Folgenden: A; B; C; A und B; A und C; B und C; A, B und C”. Eine Ausnahme für diese Definition erscheint nur, wenn eine Verknüpfung von Elementen, Funktionen, Schritten oder Handlungen auf irgendeine Weise sich inhärent gegenseitig ausschließt.
  • Gemäß den Praktiken von Fachleuten bei der Computerprogrammierung werden Ausführungsformen unter Bezugnahme auf Operationen beschrieben, die von einem Computersystem oder einem gleichen Elektroniksystem durchgeführt werden. Solche Operationen werden manchmal als von einem Computer ausgeführt bezeichnet. Es versteht sich, dass Operationen, die symbolisch dargestellt werden, die Manipulation durch einen Prozessor wie etwa eine zentrale Verarbeitungseinheit von elektrischen Signalen beinhalten, die Datenbits darstellen, und die Aufrechterhaltung von Datenbits an Speicherstellen, wie etwa in einem Systemspeicher, sowie irgendeine andere Verarbeitung von Signalen. Die Speicherorte, wo Datenbits gepflegt werden, sind physische Orte mit bestimmten elektrischen, magnetischen, optischen oder organischen Eigenschaften entsprechend den Datenbits. Ausführungsformen können auch eine integrierte Schaltungsanordnung umfassen einschließlich Schaltungselementen, die spezielle Systemoperationen durchführen können.
  • Bei Implementierung in Software sind die Elemente der Ausführungsformen im Wesentlichen die Codesegmente zum Ausführen der erforderlichen Aufgaben. Die nicht-vorübergehenden Codesegmente können in einem prozessorlesbaren Medium oder einem computerlesbaren Medium gespeichert sein, die ein beliebiges Medium beinhalten können, das Informationen speichern oder transferieren kann. Zu Beispielen für solche Medien zählen eine elektronische Schaltung, ein Halbleiterspeicherbauelement, ein Festwertspeicher (ROM – Read-only Memory), ein Flash-Speicher oder ein anderer nicht-flüchtiger Speicher, eine Diskette, eine CD-ROM, eine optische Scheibe, eine Festplatte, ein faseroptisches Medium usw. Die Benutzereingabe kann eine beliebige Kombination aus Tastatur, Maus, Touchscreen, Sprachbefehlseingabe usw. beinhalten. Die Benutzereingabe kann ähnlich verwendet werden, um eine Browserapplikation, die auf der Recheneinrichtung eines Benutzers ausgeführt wird, zu einer oder mehreren Netzwerkressourcen zu lenken, wie etwa Webseiten, von denen aus auf Rechenressourcen zugegriffen werden kann.
  • Während die Erfindung in Verbindung mit speziellen Beispielen und verschiedenen Ausführungsformen beschrieben worden ist, versteht der Fachmann ohne weiteres, dass viele Modifikationen und Adaptationen der hier beschriebenen Ausführungsform möglich sind, ohne von dem Gedanken und Schutzbereich der Erfindung, wie nachfolgend beansprucht, abzuweichen. Somit ist deutlich zu verstehen, dass die vorliegende Anmeldung nur beispielhaft erfolgt und nicht als eine Beschränkung hinsichtlich des Schutzbereichs der unten beanspruchten Erfindung. Die Beschreibung ist dazu gedacht, alle Variationen, Verwendungen oder Adaptation der Erfindung abzudecken, die allgemein den Prinzipien der Erfindung folgen, und solche Abweichungen von der vorliegenden Offenbarung, wie sie in die bekannte und übliche Praxis innerhalb der Technik, auf die sich die Erfindung bezieht, fallen.

Claims (23)

  1. Prozessorimplementiertes Verfahren zum Erfassen von Bildern zum späteren Nachfokussieren, umfassend: Schätzen einer Distanzkarte für eine Szene; Bestimmen einer Anzahl von Haupttiefen; Erfassen einer Menge von Bildern, wobei jedes Bild auf eine der Haupttiefen fokussiert ist; und Verarbeiten von erfassten Bildern, um ein Ausgabebild herzustellen.
  2. Verfahren nach Anspruch 1, wobei das Schätzen das Depth-from-Defocus umfasst.
  3. Verfahren nach Anspruch 1, wobei das Schätzen ein Aufnehmen von Bildern mit verschiedenen Fokuseinstellungen und ein Finden der Fokuseinstellung, die eine größte räumliche Ableitung für mindestens einen Abschnitt der Szene ergibt, umfasst.
  4. Verfahren nach Anspruch 1, wobei das Schätzen ein Verwenden eines äußeren Entfernungsmessers umfasst.
  5. Verfahren nach Anspruch 1, wobei das Bestimmen umfasst: Unterteilen der Szene in mehrere Rechtecke, wobei die Tiefenkarte Tiefen der Rechtecke darstellt, wobei die Tiefen einer einer vorbestimmten Anzahl von Fokusstufen entsprechen; und Auswählen von Tiefen mit den meisten Tiefenkarteneinträgen als die Haupttiefen.
  6. Verfahren nach Anspruch 1, wobei das Bestimmen umfasst: Unterteilen der Szene in mehrere Rechtecke, wobei die Tiefenkarte Tiefen der Rechtecke darstellt, wobei die Tiefen einer einer vorbestimmten Anzahl von Fokusstufen entsprechen; Zählen von Tiefenkarteneinträgen mit einem speziellen Fokusstufenwert; Sortieren gezählter Tiefenkarteneinträge in ein Histogramm; und Auswählen von Tiefen mit den meisten Tiefenkarteneinträgen als die Haupttiefen.
  7. Verfahren nach Anspruch 6, wobei die Anzahl an Haupttiefen ein Bruchteil der Anzahl von Fokusstufen ist, wobei der Bruchteil gemäß einer Mindestanzahl von Fokusstufen aus dem Histogramm berechnet wird, die erforderlich sind, um einen vorbestimmten Prozentsatz der Rechtecke abzudecken.
  8. Verfahren nach Anspruch 1, wobei das Bestimmen umfasst: Identifizieren von Szenebereichen mit wichtigen Objekten; und Aufnehmen von verschiedenen wichtigen Objekttiefen in den Haupttiefen.
  9. Verfahren nach Anspruch 8, wobei die wichtigen Objekte mindestens eines von Gesichtern, Haustieren, Wagen, Leuten und erkannten Gesichtern von speziellen Personen beinhalten.
  10. Verfahren nach Anspruch 8, wobei die wichtigen Objekttiefen zuerst in den Haupttiefen platziert werden.
  11. Verfahren nach Anspruch 10, ferner umfassend, falls die Anzahl von wichtigen Objekten kleiner als eine vorbestimmte Anzahl ist, Hinzufügen von Tiefen, die höchsten Histogrammzählwerten entsprechen, aber nicht wichtigen Objekten entsprechen, zu den Haupttiefen.
  12. Verfahren nach Anspruch 8, ferner umfassend, falls die Anzahl von wichtigen Objekten wenigstens gleich einer vorbestimmten Anzahl ist, bestimmt die Anzahl von wichtigen Objekten die Anzahl von Haupttiefen.
  13. Verfahren nach Anspruch 8, wobei die Anzahl von Haupttiefen wenigstens durch den verfügbaren Speicher und/oder die Anzahl von Bildern, die im Wesentlichen simultan erfasst werden können, beschränkt wird.
  14. Verfahren nach Anspruch 1, wobei das Verarbeiten ein Auswählen eines Bilds aus der Menge gemäß einer Benutzereingabe und/oder automatisierter Auswahlkriterien umfasst.
  15. Verfahren nach Anspruch 14, wobei die Auswahlkriterien welches Bild ein wiedererkanntes Gesicht im Fokus aufweist und/oder welches Bild den höchsten Tiefenkartenhistogrammzählwert aufweist, beinhalten.
  16. Verfahren nach Anspruch 1, wobei das Verarbeiten umfasst: Auswählen mehrerer Bilder aus der Menge gemäß einer Benutzereingabe und/oder automatisierter Auswahlkriterien; Ausrichten der ausgewählten Bilder; und Verknüpfen der ausgewählten Bilder unter Verwendung von Mischfunktionen.
  17. Verfahren nach Anspruch 16, wobei jede Mischfunktion gleich eins in Bereichen eines entsprechenden ausgewählten Bilds ist, die fokussiert sind, null in Bereichen von anderen ausgewählten Bildern, die fokussiert sind, und gleich Werten zwischen null und eins in anderen Bereichen ist.
  18. Verfahren nach Anspruch 16, wobei die Mehrzahl alle erfassten Bilder beinhaltet.
  19. Verfahren nach Anspruch 1, ferner umfassend ein Generieren eines Ausgabevideoclips auf der Basis mindestens eines Teils der verarbeiteten Bilder.
  20. Computerprogrammprodukt, das ein maschinenlesbares Medium umfasst, das darauf nicht-vorübergehende Programmanweisungen dingbar verkörpert, die bei Ausführung durch die Maschine bewirken, dass die Maschine Bilder erfasst zur späteren Nachfokussierung durch: Schätzen einer Distanzkarte für eine Szene; Bestimmen einer Anzahl von Haupttiefen; Erfassen einer Menge von Bildern, wobei jedes Bild auf eine der Haupttiefen fokussiert ist; und Verarbeiten von erfassten Bildern, um ein Ausgabebild herzustellen.
  21. System zum Erfassen von Bildern zum späteren Nachfokussieren, umfassend: Mittel zum Schätzen einer Distanzkarte für eine Szene; Mittel zum Bestimmen einer Anzahl von Haupttiefen; Mittel zum Erfassen einer Menge von Bildern, wobei jedes Bild auf eine der Haupttiefen fokussiert ist; und Mittel zum Verarbeiten von erfassten Bildern, um ein Ausgabebild herzustellen.
  22. System zum Erfassen von Bildern zum späteren Nachfokussieren, umfassend: einen Prozessor; und einen Speicher, der Anweisungen speichert, wobei der Prozessor die Anweisungen ausführt zum: Schätzen einer Distanzkarte für eine Szene; Bestimmen einer Anzahl von Haupttiefen; Erfassen einer Menge von Bildern, wobei jedes Bild auf eine der Haupttiefen fokussiert ist; und Verarbeiten von erfassen Bildern, um ein Ausgabebild herzustellen.
  23. Integrierte Schaltung zum Erfassen von Bildern zum späteren Nachfokussieren, umfassend: ein erstes Schaltungselement zum Schätzen einer Distanzkarte für eine Szene; ein zweites Schaltungselement zum Bestimmen einer Anzahl von Haupttiefen; ein drittes Schaltungselement zum Erfassen einer Menge von Bildern, wobei jedes Bild auf eine der Haupttiefen fokussiert ist; und ein viertes Schaltungselement zum Verarbeiten von erfassten Bildern, um ein Ausgabebild herzustellen.
DE102012016160A 2011-08-18 2012-08-14 Bilderfassung für eine spätere Nachfokussierung oder Fokusmanipulation Pending DE102012016160A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201161525102P 2011-08-18 2011-08-18
US61/525,102 2011-08-18
US13/346,602 2012-01-09
US13/346,602 US9501834B2 (en) 2011-08-18 2012-01-09 Image capture for later refocusing or focus-manipulation

Publications (1)

Publication Number Publication Date
DE102012016160A1 true DE102012016160A1 (de) 2013-02-21

Family

ID=47712408

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012016160A Pending DE102012016160A1 (de) 2011-08-18 2012-08-14 Bilderfassung für eine spätere Nachfokussierung oder Fokusmanipulation

Country Status (3)

Country Link
US (1) US9501834B2 (de)
DE (1) DE102012016160A1 (de)
GB (1) GB2494249B (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013005039A1 (de) * 2013-03-25 2014-10-09 Jenoptik Optical Systems Gmbh Vorrichtung zum Steuern eines Airbagmoduls

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9285670B2 (en) * 2007-09-14 2016-03-15 Capso Vision, Inc. Data communication between capsulated camera and its external environments
US9137519B1 (en) 2012-01-04 2015-09-15 Google Inc. Generation of a stereo video from a mono video
KR20150004397A (ko) 2012-04-26 2015-01-12 더 트러스티스 오브 콜롬비아 유니버시티 인 더 시티 오브 뉴욕 이미지들 내에서의 대화형 리포커싱을 제공하기 위한 시스템들, 방법들, 및 매체들
US9148582B2 (en) * 2012-06-29 2015-09-29 Intel Corporation Method and system for perfect shot imaging from multiple images
ES2547022T3 (es) * 2012-08-24 2015-09-30 Sick Ag Cámara y procedimiento para el registro de imágenes nitidas
US9098911B2 (en) * 2012-11-01 2015-08-04 Google Inc. Depth map generation from a monoscopic image based on combined depth cues
JP6159097B2 (ja) * 2013-02-07 2017-07-05 キヤノン株式会社 画像処理装置、撮像装置、制御方法、及びプログラム
US10237528B2 (en) 2013-03-14 2019-03-19 Qualcomm Incorporated System and method for real time 2D to 3D conversion of a video in a digital camera
US9792698B2 (en) 2013-05-30 2017-10-17 Nokia Technologies Oy Image refocusing
KR102068748B1 (ko) 2013-07-31 2020-02-11 삼성전자주식회사 디지털 촬영 장치, 그 제어 방법, 및 영상 재생 장치 및 방법
US9344619B2 (en) 2013-08-30 2016-05-17 Qualcomm Incorporated Method and apparatus for generating an all-in-focus image
US9973677B2 (en) 2013-10-14 2018-05-15 Qualcomm Incorporated Refocusable images
US20150104101A1 (en) * 2013-10-14 2015-04-16 Apple Inc. Method and ui for z depth image segmentation
JP6325841B2 (ja) * 2014-02-27 2018-05-16 オリンパス株式会社 撮像装置、撮像方法、およびプログラム
JP6581333B2 (ja) * 2014-03-14 2019-09-25 キヤノン株式会社 画像処理装置、撮像装置およびプログラム
US9418432B2 (en) * 2014-03-28 2016-08-16 Sony Corporation Imaging system with depth estimation mechanism and method of operation thereof
US9538065B2 (en) * 2014-04-03 2017-01-03 Qualcomm Incorporated System and method for multi-focus imaging
CN103973978B (zh) * 2014-04-17 2018-06-26 华为技术有限公司 一种实现重对焦的方法和电子设备
US10091409B2 (en) * 2014-12-30 2018-10-02 Nokia Technologies Oy Improving focus in image and video capture using depth maps
US10078888B2 (en) 2016-01-15 2018-09-18 Fluke Corporation Through-focus image combination
CN109600552B (zh) * 2019-01-14 2024-06-18 广东省航空航天装备技术研究所 图像重新聚焦的控制方法及系统
US11756221B2 (en) * 2021-01-28 2023-09-12 Qualcomm Incorporated Image fusion for scenes with objects at multiple depths

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4804831A (en) 1985-10-30 1989-02-14 Canon Kabushiki Kaisha Focus detecting apparatus independent of object image contrast
JPS62284314A (ja) 1986-06-03 1987-12-10 Fuji Photo Film Co Ltd オ−トフオ−カス方法
JPS63127217A (ja) 1986-11-18 1988-05-31 Canon Inc 焦点検出装置
US5144357A (en) 1987-11-06 1992-09-01 Minolta Camera Kabushiki Kaisha Automatic focus detecting means
US5005956A (en) 1988-06-01 1991-04-09 Canon Kabushiki Kaisha Lens position control device
US4933700A (en) 1988-07-27 1990-06-12 Nikon Corporation Automatic focusing apparatus of camera
US5369461A (en) 1988-07-29 1994-11-29 Canon Kabushiki Kaisha Automatic focus adjusting device in camera system
JP2772079B2 (ja) 1989-01-09 1998-07-02 オリンパス光学工業株式会社 自動合焦装置
US5193124A (en) 1989-06-29 1993-03-09 The Research Foundation Of State University Of New York Computational methods and electronic camera apparatus for determining distance of objects, rapid autofocusing, and obtaining improved focus images
JP2928548B2 (ja) 1989-08-02 1999-08-03 株式会社日立製作所 立体形状検出方法及びその装置
US5148209A (en) 1990-07-12 1992-09-15 The Research Foundation Of State University Of New York Passive ranging and rapid autofocusing
US5475429A (en) 1991-07-25 1995-12-12 Olympus Optical Co., Ltd. In-focus sensing device for sensing an in-focus condition using a ratio of frequency components at different positions
US5231443A (en) 1991-12-16 1993-07-27 The Research Foundation Of State University Of New York Automatic ranging and automatic focusing
US5793900A (en) 1995-12-29 1998-08-11 Stanford University Generating categorical depth maps using passive defocus sensing
US6198484B1 (en) 1996-06-27 2001-03-06 Kabushiki Kaisha Toshiba Stereoscopic display system
US6400374B2 (en) * 1996-09-18 2002-06-04 Eyematic Interfaces, Inc. Video superposition system and method
US6219461B1 (en) 1997-07-29 2001-04-17 Cognex Corporation Determining a depth
JP2003172873A (ja) 2001-09-28 2003-06-20 Olympus Optical Co Ltd 補正データ作成方法及び撮像装置
KR20050109625A (ko) 2003-04-10 2005-11-21 코닌클리케 필립스 일렉트로닉스 엔.브이. 공간 이미지 변환
US20040257464A1 (en) * 2003-06-20 2004-12-23 Pandit Amol S. Camera tripold with memory storage and power source
ATE523854T1 (de) 2004-01-23 2011-09-15 Intermec Ip Corp Autofokus-strichcode-scanner und dergleichen mit mikrofluidischen linsen
US20070040924A1 (en) 2005-08-19 2007-02-22 Stereo Display, Inc. Cellular phone camera with three-dimensional imaging function
GB0409572D0 (en) 2004-04-29 2004-06-02 Univ Sheffield High resolution imaging
WO2006052508A2 (en) * 2004-11-03 2006-05-18 Tyzx, Inc. An integrated image processor
DE102005034597A1 (de) * 2005-07-25 2007-02-08 Robert Bosch Gmbh Verfahren und Anordnung zur Erzeugung einer Tiefenkarte
TWI285500B (en) 2005-11-11 2007-08-11 Primax Electronics Ltd Auto focus method for digital camera
JP2007139893A (ja) 2005-11-15 2007-06-07 Olympus Corp 合焦検出装置
US7623726B1 (en) * 2005-11-30 2009-11-24 Adobe Systems, Incorporated Method and apparatus for using a virtual camera to dynamically refocus a digital image
US20080075444A1 (en) 2006-09-25 2008-03-27 Murali Subbarao Blur equalization for auto-focusing
TWI314832B (en) * 2006-10-03 2009-09-11 Univ Nat Taiwan Single lens auto focus system for stereo image generation and method thereof
US8559705B2 (en) * 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
TWI466547B (zh) 2007-01-05 2014-12-21 Marvell World Trade Ltd 用於改善低解析度視訊之方法與系統
KR100915039B1 (ko) 2007-10-11 2009-09-02 최명렬 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 방법및 변환 장치와 이를 위한 기록매체
WO2009073950A1 (en) 2007-12-13 2009-06-18 Keigo Izuka Camera system and method for amalgamating images to create an omni-focused image
US8724013B2 (en) * 2007-12-27 2014-05-13 Qualcomm Incorporated Method and apparatus with fast camera auto focus
US8218061B2 (en) 2008-09-04 2012-07-10 Csr Technology Inc. Apparatus, method, and manufacture for iterative auto-focus using depth-from-defocus
US8405742B2 (en) * 2008-12-30 2013-03-26 Massachusetts Institute Of Technology Processing images having different focus
JP5369952B2 (ja) * 2009-07-10 2013-12-18 ソニー株式会社 情報処理装置および情報処理方法
JP5173954B2 (ja) * 2009-07-13 2013-04-03 キヤノン株式会社 画像処理装置及び画像処理方法
US8654234B2 (en) * 2009-07-26 2014-02-18 Massachusetts Institute Of Technology Bi-directional screen
US20110025830A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
US8542313B2 (en) 2010-01-27 2013-09-24 Csr Technology Inc. Depth from defocus calibration
US8493432B2 (en) * 2010-06-29 2013-07-23 Mitsubishi Electric Research Laboratories, Inc. Digital refocusing for wide-angle images using axial-cone cameras
US20120019688A1 (en) * 2010-07-20 2012-01-26 Research In Motion Limited Method for decreasing depth of field of a camera having fixed aperture
US8644697B1 (en) 2010-08-13 2014-02-04 Csr Technology Inc. Method for progressively determining depth from defocused images
US8494301B2 (en) * 2010-09-16 2013-07-23 Eastman Kodak Company Refocusing images using scene captured images
US8600123B2 (en) * 2010-09-24 2013-12-03 General Electric Company System and method for contactless multi-fingerprint collection
US8648959B2 (en) * 2010-11-11 2014-02-11 DigitalOptics Corporation Europe Limited Rapid auto-focus using classifier chains, MEMS and/or multiple object focusing
US20120200726A1 (en) * 2011-02-09 2012-08-09 Research In Motion Limited Method of Controlling the Depth of Field for a Small Sensor Camera Using an Extension for EDOF
US8432434B2 (en) * 2011-07-08 2013-04-30 Mitsubishi Electric Research Laboratories, Inc. Camera and method for focus based depth reconstruction of dynamic scenes
US10237528B2 (en) 2013-03-14 2019-03-19 Qualcomm Incorporated System and method for real time 2D to 3D conversion of a video in a digital camera

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013005039A1 (de) * 2013-03-25 2014-10-09 Jenoptik Optical Systems Gmbh Vorrichtung zum Steuern eines Airbagmoduls
US9561769B2 (en) 2013-03-25 2017-02-07 Jenoptik Optical Systems Gmbh Apparatus for controlling an airbag module
DE102013005039B4 (de) * 2013-03-25 2018-05-09 Jenoptik Optical Systems Gmbh Vorrichtung zum Steuern eines Airbagmoduls

Also Published As

Publication number Publication date
GB2494249A (en) 2013-03-06
GB201214349D0 (en) 2012-09-26
US20130044254A1 (en) 2013-02-21
US9501834B2 (en) 2016-11-22
GB2494249B (en) 2017-10-11

Similar Documents

Publication Publication Date Title
DE102012016160A1 (de) Bilderfassung für eine spätere Nachfokussierung oder Fokusmanipulation
DE102006041645B4 (de) Verfahren und Vorrichtung zur Orientierungsbestimmung in einem Bild
DE102013226164B4 (de) Bildverarbeitungsvorrichtung, Bildaufnahmevorrichtung, Bildverarbeitungsverfahren, Programm und Speichermedium
DE69734855T2 (de) Vorrichtung und Verfahren zur Extraktion eines Objektes in einem Bild
DE112016002229B4 (de) Bildverarbeitungsvorrichtung, bildaufnahmevorrichtung, bildverarbeitungsverfahren und speichermedium
DE112008002819T5 (de) Autofokus-Bildsystem
DE112011103452T5 (de) Verfahren zum Angleichen von Pixeln einer Entfernungsdarstellung
DE102005034597A1 (de) Verfahren und Anordnung zur Erzeugung einer Tiefenkarte
DE112013004103T5 (de) Verfahren und Vorrichtung zum Erzeugen einer Disparitätskarte
DE102008034979A1 (de) Verfahren und Einrichtung zur Erzeugung von fehlerreduzierten hochauflösenden und kontrastverbesserten Bildern
DE112017007695T5 (de) Facettenaugen-bildaufnahmevorrichtung, bildverarbeitungsverfahren, programm und aufzeichnungsmedium
DE112010002677T5 (de) Verfahren und vorrichtung zum bestimmen einer formübereinstimmung in drei dimensionen
DE102015102681A1 (de) All-in-focus - implementierung
WO2017153355A1 (de) Verfahren und vorrichtung zum durchführen einer blickabbildung
DE102013017099A1 (de) Auf interpolation inverser brennpunktstatistiken basierende tiefenschätzung
DE102016006242B4 (de) Anzeigevorrichtung des kopfgetragenen Typs, Steuerverfahren für Anzeigevorrichtung des kopfgetragenen Typs, Bildverarbeitungssystem und Speichermedium
DE102012020301A1 (de) Verfahren, Vorrichtung und Erzeugnis zum Erkennen lächelnder Gesichter
DE102015105072B4 (de) Bildaufnahmevorrichtung zur erzeugung eines fokusveränderbaren bilds, steuerverfahren für eine bildaufnahmevorrichtung, und speichermedium
DE102014102011B4 (de) System und Verfahren zum Erzeugen eines Bildes mit einem breiten dynamischen Bereich
DE4226523A1 (de) Verfahren und Vorrichtung zum automatischen Fokussieren auf Objekte
DE102013005658A1 (de) Erfassung eines dokuments
DE102016008744A1 (de) Bildmessapparat, Regel- bzw. Steuerprogramm eines derartigen Apparats und nicht-flüchtiges Aufzeichnungsmedium, auf welchem das Regel- bzw. Steuerprogramm aufgezeichnet is
DE102008046505A1 (de) Verfahren zur Bildverarbeitung von Stereobildern
DE102015003537B4 (de) Blockierungsdetektionsverfahren für eine kamera und eine elektronische vorrichtung mit kameras
EP4046595A1 (de) Verfahren zur festlegung einer zahnfarbe

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: OLSWANG GERMANY LLP, DE

R081 Change of applicant/patentee

Owner name: QUALCOMM TECHNOLOGIES, INC. (N.D.GES.D. STAATE, US

Free format text: FORMER OWNER: CSR TECHNOLOGY INC., SUNNYVALE, CALIF., US

Effective date: 20141112

Owner name: QUALCOMM INC. (N.D.GES.D. STAATES DELAWARE), S, US

Free format text: FORMER OWNER: CSR TECHNOLOGY INC., SUNNYVALE, CALIF., US

Effective date: 20141112

R082 Change of representative

Representative=s name: OLSWANG GERMANY LLP, DE

Effective date: 20141112

Representative=s name: MAUCHER JENKINS, DE

Effective date: 20141112

Representative=s name: MAUCHER JENKINS PATENTANWAELTE & RECHTSANWAELT, DE

Effective date: 20141112

R081 Change of applicant/patentee

Owner name: QUALCOMM INC. (N.D.GES.D. STAATES DELAWARE), S, US

Free format text: FORMER OWNER: QUALCOMM TECHNOLOGIES, INC. (N.D.GES.D. STAATES DELAWARE), SAN DIEGO, CALIF., US

R082 Change of representative

Representative=s name: MAUCHER JENKINS, DE

Representative=s name: MAUCHER JENKINS PATENTANWAELTE & RECHTSANWAELT, DE

R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005232000

Ipc: H04N0023600000