DE112019003984T5 - Auf eine benutzervorrichtung angewandte superauflösung mittels natürlicher handbewegung - Google Patents

Auf eine benutzervorrichtung angewandte superauflösung mittels natürlicher handbewegung Download PDF

Info

Publication number
DE112019003984T5
DE112019003984T5 DE112019003984.9T DE112019003984T DE112019003984T5 DE 112019003984 T5 DE112019003984 T5 DE 112019003984T5 DE 112019003984 T DE112019003984 T DE 112019003984T DE 112019003984 T5 DE112019003984 T5 DE 112019003984T5
Authority
DE
Germany
Prior art keywords
super
image
resolution
user device
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019003984.9T
Other languages
English (en)
Inventor
Yi Hung CHEN
Chia-Kai Liang
Bartlomiej Maciej Wronski
Peyman Milanfar
Ignacio Garcia Dorado
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE112019003984T5 publication Critical patent/DE112019003984T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4069Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution by subpixel displacements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Optimization (AREA)
  • Artificial Intelligence (AREA)
  • Computational Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Probability & Statistics with Applications (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Television Systems (AREA)

Abstract

(57) Zusammenfassung: Die vorliegende Offenbarung beschreibt Systeme und Techniken zur Erzeugung eines Superauflösungsbildes (122) von einer Szene, die von einer Benutzervorrichtung (102) erfasst wurde. Eine natürliche Handbewegung (110) führt über mehrere Frames (204,206, 208) eines Bildes einer Szene Sub-Pixel-Offsets ein, welche die Verwendung von Superauflösungsberechnungen (210) zum Bilden von Farbebenen (212, 214, 216) ermöglichen, die akkumuliert (218) und kombiniert (220) werden, um ein Superauflösungsbild (122) der Szene zu erzeugen.

Description

  • ALLGEMEINER STAND DER TECHNIK
  • In Verbindung mit dem Erfassen einer Szene erzeugt eine Benutzervorrichtung, wie z. B. ein Mobiltelefon, ein Bild der Szene, das oft eine geringere Auflösung aufweist als ein Bild der Szene, das von anderen Vorrichtungen, wie z. B. einer digitalen SpiegelreflexKamera (DSLR-Kamera), erfasst und gerendert wird. Bilder, die durch diese Benutzervorrichtungen erfasst werden, können auch verrauscht sein und einen geringeren Dynamikbereich aufweisen, da die relativ kleine physische Sensorgröße, die diese Vorrichtungen zulassen, die räumliche Auflösung der Kamera der Benutzervorrichtung begrenzt. Der Bildsensor der Benutzervorrichtung kann auch kleinere Blenden aufweisen, wodurch die Lichtsammelfähigkeit der Kamera der Benutzervorrichtung eingeschränkt wird, und kleinere Pixel, wodurch das Signal-Rausch-Verhältnis reduziert wird, welches das Smartphone zum Verarbeiten eines erfassten Bildes verwendet.
  • Des Weiteren umfasst der Bildsensor der Kamera der Benutzervorrichtung oft ein Farbfilterarray (CFA), das traditionell eine digitale Bildverarbeitungshardware der Benutzervorrichtung erfordert, um Demosaicing-Techniken zu verwenden, während ein erfasstes Bild einer Szene gerendert wird. Demosaicing-Techniken sind im Allgemeinen nachteilig für Superauflösungsrendern. Effekte von Demosaicing-Techniken können chromatisches Aliasing, falsche Farbverläufe und Moire-Muster umfassen, die dazu führen, dass die Benutzervorrichtung das erfasste Bild der Szene bei einer schlechten Auflösung und mit unerwünschten Artefakten rendert.
  • KURZDARSTELLUNG
  • Die vorliegende Offenbarung beschreibt Systeme und Techniken zur Erzeugung eines Superauflösungsbildes von einer Szene, die von einer Benutzervorrichtung erfasst wurde. Eine natürliche Handbewegung führt über mehrere Frames eines Bildes einer Szene Sub-Pixel-Offsets ein, welche die Verwendung von Superauflösungsberechnungstechniken zum Bilden von Farbebenen ermöglichen, die akkumuliert und zusammengeführt werden, um ein Superauflösungsbild der Szene zu erzeugen. Diese Systeme und Techniken bieten Vorteile gegenüber anderen Systemen und Techniken, die auf Demosaicing beruhen, da sie das Superauflösungsbild der Szene ohne nachteilige Artefakte, wie z. B. chromatisches Aliasing, falsche Farbverläufe und Moire-Muster, bereitstellen.
  • Bei einigen Aspekten wird ein Verfahren beschrieben, das von einer Benutzervorrichtung ausgeführt wird, um ein Superauflösungsbild einer Szene zu rendern. Das Verfahren umfasst das Erfassen, in einer Burst-Sequenz, von mehreren Frames eines Bildes einer Szene, wobei die mehreren Frames aufgrund einer Bewegung der Benutzervorrichtung während der Erfassung der mehreren Frames entsprechende relative Sub-Pixel-Offsets des Bildes aufweisen. Das Verfahren umfasst das Verwenden der erfassten mehreren Frames zum Ausführen von Superauflösungsberechnungen, die das Berechnen von Gauß'schen RBF-Kernen und das Berechnen eines Robustheitsmodells umfassen. Das Verfahren umfasst ferner das Akkumulieren von Farbebenen basierend auf den Superauflösungsberechnungen, das Kombinieren der akkumulierten Farbebenen zum Erzeugen des Superauflösungsbildes der Szene und das Rendern des Superauflösungsbildes der Szene.
  • Bei anderen Aspekten wird ein Verfahren zur Bereitstellung von Farbebenen an eine Vorrichtung beschrieben. Das Verfahren umfasst das Berechnen von Gauß'schen Radialbasisfunktionskernen, wobei das Berechnen der Gauß'schen Radialbasisfunktionskerne (i) das Berechnen eines Bezugsframes und (ii) das Berechnen einer Kernkovarianzmatrix basierend auf dem Analysieren lokaler Gradientenstrukturtensoren umfasst, wobei die lokalen Gradientenstrukturtensoren Kanten, Ecken oder texturierten Inhaltsbereichen entsprechen, die in dem Bezugsframe umfasst sind.
  • Das Verfahren umfasst zudem das Berechnen eines Robustheitsmodells, wobei das Berechnen des Robustheitsmodells ein statistisches Nachbarschaftsmodell verwendet, um eine mittlere und räumliche Farbstandardabweichung zu berechnen. Basierend auf den berechneten Gauß'schen RBF-Kernen und dem berechneten Robustheitsmodell umfasst das Verfahren das Bestimmen des Beitrags von Pixeln zu Farbebenen und das Akkumulieren der Farbebenen. Die Farbebenen werden dann an die Vorrichtung bereitgestellt.
  • Bei noch anderen Aspekten wird eine Benutzervorrichtung beschrieben. Die Benutzervorrichtung umfasst einen oder mehrere Prozessoren, einen oder mehrere Bildsensoren und eine Anzeige. Die Vorrichtung umfasst zudem ein computerlesbares Medium, auf dem Befehle eines Superauflösungsmanagers gespeichert sind, der bei Ausführung von dem einen oder den mehreren Prozessoren die Vorrichtung anweist, in einer Burst-Sequenz mehrere Frames eines Bildes einer Szene zu erfassen, wobei die mehreren Frames relative Offsets des Bildes aufweisen. Der Superauflösungsmanager weist zudem die Benutzervorrichtung an, die erfassten mehreren Frames zu verwenden, um Superauflösungsberechnungen auszuführen und basierend auf den Superauflösungsberechnungen Ebenen zu akkumulieren, die akkumulierten Ebenen zu kombinieren, um das Superauflösungsbild der Szene zu erzeugen, und das Superauflösungsbild der Szene zu rendern.
  • Die Details einer oder mehrerer Implementierungen sind in den begleitenden Zeichnungen und der folgenden Beschreibung dargelegt. Weitere Merkmale und Vorteile ergeben sich aus der Beschreibung und den Zeichnungen sowie den Ansprüchen. Diese Kurzdarstellung dient zur Einführung in den Gegenstand, der unter Ausführliche Beschreibung und in den Zeichnungen näher beschrieben wird. Dementsprechend sollte ein Leser die Kurzdarstellung nicht als Beschreibung wesentlicher Merkmale betrachten noch den Umfang des beanspruchten Gegenstands einschränken.
  • Figurenliste
  • Diese vorliegende Offenbarung beschreibt Details zu einem oder mehreren Aspekten, die mit der Erzeugung eines Superauflösungsbildes einer Szene, die von einer Benutzervorrichtung erfasst wurde, verbunden sind.
    • 1 veranschaulicht eine beispielhafte Betriebsumgebung, in der verschiedene Superauflösungsaspekte unter Verwendung einer auf eine Benutzervorrichtung angewendete natürliche Handbewegung ausgeführt werden.
    • 2 veranschaulicht beispielhafte Aspekte von mehreren Frames mit Sub-Pixel-Offsets.
    • 3 veranschaulicht beispielhafte Aspekte der Verwendung von mehreren Frames mit Sub-Pixel-Offsets zum Ausführen von Berechnungen, Akkumulieren von Farbebenen und Kombinieren von Farbebenen.
    • 4 veranschaulicht beispielhafte Aspekte der Ausrichtung mehrerer Frames mit Sub-Pixel-Offsets mit einem Bezugsframe.
    • 5. veranschaulicht ein beispielhaftes Verfahren zum Rendern eines Superauflösungs bil des.
    • 6. veranschaulicht ein beispielhaftes Verfahren zum Akkumulieren von Farbebenen für ein Superauflösungsbild.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die vorliegende Offenbarung beschreibt Techniken und Systeme zum Erzeugen eines Superauflösungsbildes einer Szene. Während Merkmale und Konzepte der beschriebenen Systeme und Verfahren für Superauflösung unter Verwendung natürlicher Handbewegungen, die auf eine Benutzervorrichtung angewendet werden, in irgendeiner Anzahl an verschiedenen Umgebungen, Systemen, Vorrichtungen und/oder verschiedener Konfigurationen implementiert werden können, werden Aspekte im Zusammenhang mit den folgenden beispielhaften Vorrichtungen, Systemen und Konfigurationen beschrieben.
  • Beispielhafte Betriebsumgebung
  • 1 veranschaulicht eine beispielhafte Betriebsumgebung 100, in der verschiedene Superauflösungsaspekte unter Verwendung einer auf eine Benutzervorrichtung 102 angewendete natürliche Handbewegung 110 ausgeführt werden. Wie veranschaulicht, erfasst eine Benutzervorrichtung 102 Variationen (104, 106 und 108) eines Bildes einer Szene auf, die mehreren Frames des Bildes der Szene entsprechen. Obwohl sie als Smartphone veranschaulicht ist, kann die Benutzervorrichtung 102 eine andere Vorrichtung mit Bilderfassungsfunktionen sein, wie z. B. ein Tablet oder eine zugeordnete Kamera.
  • Die Variationen 104 bis 108 des Bildes der Szene, die von der Benutzervorrichtung 102 in einer Burst-Sequenz erfasst werden, umfassen Sub-Pixel-Offsets, die das Ergebnis einer natürlichen Handbewegung 110 sind, die auf die Benutzervorrichtung 102 angewendet wird, während die Benutzervorrichtung 102 das Bild der Szene erfasst. Die natürliche Handbewegung 110 kann z. B. durch ein Handzittern eines Benutzers der Benutzervorrichtung 102 verursacht sein, der eine Bewegung in der Ebene, eine Bewegung aus der Ebene heraus, eine Neigung, eine Gierbewegung oder ein Rollen an der Benutzervorrichtung 102 auslöst, während die Benutzervorrichtung 102 die Variationen 104 bis 108 des Bildes der Szene erfasst.
  • In einigen Fällen und als Alternative zu den Sub-Pixel-Offsets, die sich aus der natürlichen Handbewegung 110 ergeben, können die Sub-Pixel-Offsets von einer anderen Bewegung resultieren, die auf die Benutzervorrichtung 102 angewendet wird, wie z. B. eine haptische Bewegung, die durch einen Vibrationsmechanismus bewirkt wird, der mit der Benutzervorrichtung 102 in Kontakt ist (oder darin integriert ist), oder eine Vibration, die bewirkt wird, während die Benutzervorrichtung 102 innerhalb der Betriebsumgebung 100 transportiert wird (z. B. kann die Benutzervorrichtung 102 in einem Fahrzeug in Bewegung sein, das von dem Benutzer gefahren wird, usw.).
  • Die Benutzervorrichtung 102 umfasst eine Kombination aus einem oder mehreren Bildsensoren 112 zum Erfassen eines Bildes. Der Bildsensor 112 kann einen Komplementär-Metalloxid-Halbleiter-Bildsensor (CMOS-Bildsensor) oder einen ladungsgekoppelten Halbleitervorrichtungs-Bildsensor (CCD-Bildsensor) umfassen. In einigen Fällen kann der Bildsensor 112 einen Farbfilterarray (CFA) umfassen, der die Pixel des Bildsensors 112 überlagert und die Intensitäten des durch die Pixel aufgezeichneten Lichts in Zusammenhang mit den Farbwellenlängen begrenzt. Ein Beispiel eines solchen CFA ist ein Bayer CFA, der Licht gemäß einer roten Wellenlänge, einer blauen Wellenlänge und einer grünen Wellenlänge filtert. In einem Fall von Vielfachen des Bildsensors 112 (z. B., einer Kombination von mehr als einem Bildsensor, wie z. B. einem Doppelbildsensor), können die Vielfachen des Bildsensors 112 Kombinationen von Pixeldichten (z. B. 40 Megapixel (MP), 32 MP, 16 MP, 8 MP) sowie verschiedene CFA-Konfigurationen zur Unterstützung unterschiedlicher Bildverarbeitungsanforderungen (z. B. Einbindung eines Bayer CFA zur Unterstützung von Rot-Grün-Blau-Bildverarbeitung (RGB-Bildverarbeitung), Ausschluss eines CFA zur Unterstützung von monochromatischer Bildverarbeitung). Licht von Bildern kann ein Bild erzeugen, das als Bayer-Bild oder Bayer-Frame bezeichnet werden kann, wenn es durch den Bayer CFA gefiltert wird.
  • Die Benutzervorrichtung 102 umfasst zudem eine Anzeige 114 zum Rendern des Bildes. In einigen Fällen kann die Anzeige 114 eine Touchscreen-Anzeige sein. Die Benutzervorrichtung 102 umfasst zudem eine Kombination aus einem oder mehreren Prozessoren 116. Der Prozessor 116 kann ein Einkernprozessor oder ein Mehrkernprozessor sein, der aus einer Vielzahl von Materialien wie Silizium, Polysilizium, High-K-Dielektrikum, Kupfer usw. besteht. In einem Fall von Vielfachen des Prozessors 116 (z. B., einer Kombination von mehr als einem Prozessor) können die Vielfachen des Prozessors 116 eine zentrale Verarbeitungseinheit (CPU), eine Grafikverarbeitungseinheit (GPU), einen Digitalsignalprozessor (DSP) oder eine Bildverarbeitungseinheit (IPU) umfassen. Des Weiteren und in einem solchen Fall können die Vielfachen des Prozessors 116 zwei oder mehr Rechenoperationen mittels Pipelineverarbeitung ausführen.
  • Die Benutzervorrichtung 102 umfasst zudem ein computerlesbares Speichermedium (CRM) 118, das ausführbare Befehle in Form eines Superauflösungsmanagers 120 umfasst. Das hierin beschriebene CRM 118 schließt Ausbreitungssignale aus. Das CRM 118 kann jede geeignete Memory- oder Speichervorrichtung umfassen, wie z. B. RAM (Random Access Memory), statischer RAM (SRAM), dynamischer RAM (DRAM), nicht-flüchtiger RAM (NVRAM), Nur-Lese-Speicher (ROM) oder Flash-Speicher, die zum Speichern des Superauflösungsmanagers 120 verwendet werden kann.
  • Code oder Befehle des Superauflösungsmanagers 120 können unter Verwendung des Prozessors 116 ausgeführt werden, um die Benutzervorrichtung 102 zum Ausführen von Operationen zu veranlassen, die auf das Erzeugen (und Rendern) eines Superauflösungsbildes 122 der Szene gerichtet sind. Solche Operationen können das Erfassen, unter Verwendung des Bildsensors 112, mehrerer Frames eines Bildes einer Szene (z. B. die Variationen (104, 106 und 108) des Bildes der Szene) unter Verwendung des Bildsensors 112 umfassen. Die Operationen können ferner umfassen, dass die Benutzervorrichtung 102 (z. B. der Prozessor 116) Superauflösungsberechnungen ausführt, Farbebenen akkumuliert, die akkumulierten Farbebenen kombiniert, um ein Superauflösungsbild 122 der Szene zu erzeugen, und das Superauflösungsbild 122 der Szene rendert (z. B. über den Bildschirm 114). Das Superauflösungsbild 122 der Szene weist im Allgemeinen eine höhere Auflösung auf als eine andere Auflösung der mehreren Frames des Bildes der Szene.
  • 2 veranschaulicht beispielhafte Aspekte von mehreren Frames mit Sub-Pixel-Offsets. In einigen Fällen können die mehreren Frames, die Sub-Pixel-Offsets aufweisen, durch eine Bewegung eingeführt werden, die auf die Benutzervorrichtung 102 in 1 angewandt wird. In einigen Fällen entspricht die Bewegung der Benutzervorrichtung 102 der natürlichen Handbewegung 110, die ein Benutzer der Benutzervorrichtung 102 während der Burst-Sequenz ausgeführt hat.
  • Wie in 2 veranschaulicht, weisen die mehreren Frames 202 entsprechende, relative Sub-Pixel-Offsets eines Bildes auf und umfassen Bild 204, Bild 206 und Bild 208 (die Frames 204 bis 208 entsprechen den Variationen 104 bis 108 von 1). Die mehreren Frames 202 dienen als Basis zum Berechnen und Bilden des Superauflösungsbildes 122. Die Benutzervorrichtung 102 kann die mehreren Frames 202 während der Burst-Sequenz unter Verwendung einer Auflösung erfassen, die niedriger ist als eine andere Auflösung des Superauflösungsbildes 122 der Szene.
  • Die Burst-Sequenz kann das Erfassen der mehreren Frames 202 in einem festgelegten Zeitintervall umfassen, das z. B. von einer Millisekunde bis drei Millisekunden, von einer Millisekunde bis fünf Millisekunden oder von einer halben Millisekunde bis zehn Millisekunden reichen kann. Des Weiteren, und in einigen Fällen, kann das Zeitintervall der Burst-Sequenz basierend auf einer Bewegung der Benutzervorrichtung variabel sein (z. B. kann ein Zeitintervall während einer Bewegung der Benutzervorrichtung 102 mit hoher Geschwindigkeit „kürzer“ sein als ein anderes Zeitintervall während einer Bewegung der Benutzervorrichtung 102 mit niedriger Geschwindigkeit, um die Offsets bei weniger als einem Pixel zu halten).
  • Wie veranschaulicht, ist das Bild von Bild 206 relativ zu dem Bild von Bild 204 entsprechend um ein halbes Pixel horizontal und ein halbes Pixel vertikal versetzt. Des Weiteren ist das Bild von Frame 208 relativ zu dem Bild von Frame 204 wie veranschaulicht um ein viertel Pixel horizontal versetzt. Entsprechend können relative Sub-Pixel-Offsets verschiedene Größen und Kombinationen von Sub-Pixel-Offsets umfassen (z. B. ein Sub-Pixel-Versatz, der mit einem Frame verbunden ist, könnte horizontal ein viertel Pixel und vertikal ein dreiviertel Pixel betragen, während ein anderer Sub-Pixel-Offset, der mit einem anderen Frame verbunden ist, horizontal null Pixel und vertikal ein halbes Pixel betragen könnte). Im Allgemeinen können die in dieser vorliegenden Offenbarung beschriebenen Techniken und Systeme Sub-Pixel-Offsets berücksichtigen, die zufälliger sind als die Veranschaulichungen und Beschreibungen der Frames 204 bis 208, einschließlich Sub-Pixel-Offsets, die nicht-linear sind.
  • 3 veranschaulicht beispielhaft die Aspekte 300 der Verwendung von mehreren Frames mit Sub-Pixel-Offsets zum Ausführen von Berechnungen, Akkumulieren von Farbebenen und Kombinieren von Farbebenen gemäß einem oder mehreren Aspekten. Die beispielhaften Aspekte 300 können Elemente von 1 und 2 verwenden, wobei das Ausführen von Berechnungen, Akkumulieren der Farbebenen und Kombinieren der Farbebenen durch die Benutzervorrichtung 102 von 1 ausgeführt werden und die mehreren Frames, welche die Sub-Pixel-Offsets aufweisen, die mehreren Frames 202 von 2 sind.
  • Wie in 3 veranschaulicht, werden die mehreren Frames 202 in Superauflösungsberechnungen 302 eingegeben. Die Superauflösungsberechnungen 302 umfassen Gauß'sche Radialbasisfunktionskernberechnungen (RBF-Kernberechnungen) (inspiriert durch Flüssigkeitspartikelrendern) und Robustheitsmodellberechnungen. Algorithmen, welche die Superauflösungsberechnungen 302 unterstützen, können sich im Superauflösungsmanager 120 der Benutzervorrichtung 102 befinden. Des Weiteren kann die Benutzervorrichtung 102 (z. B. Vielfache des Prozessors 116) Teile der Superauflösungsberechnungen 302 unter Verwendung von Pipelineverarbeitung ausführen. Die Kombination der Gauß'schen RBF-Kernberechnungen (z. B. eine Kernregressionstechnik) stellt zusammen mit einer Gewichtung von den Robustheitsberechnungen ein Mittel zum Bestimmen von Beiträgen von Pixeln zu Farbebenen bereit.
  • Zur Unterstützung der Gauß'schen RBF-Kernberechnungen filtert die Benutzervorrichtung 102 die Pixelsignale aus jedem Frame der mehreren Frames 202, um entsprechende farbspezifische Bildebenen zu erzeugen, die Farbkanälen entsprechen. Die Benutzervorrichtung 102 richtet dann die entsprechenden farbspezifischen Bildebenen mit einem Bezugsframe aus. In einigen Fällen kann der Bezugsframe durch Erzeugen von Rot/Grün/Blau-Pixeln (RGB-Pixeln), die Bayer-Quads entsprechen, gebildet werden, indem Rot- und Blauwerte direkt genommen und Grünwerte gemittelt werden.
  • Die Benutzervorrichtung 102 berechnet dann eine Kovarianzmatrix. Das Berechnen der Kovarianzmatrix kann das Analysieren lokaler Gradientenstrukturtensoren für den Inhalt des Bezugsframes umfassen (z. B. kann sich ein lokaler Tensor lokal an einer Kante, einem Eckpunkt oder einem texturierten Bereich innerhalb des Bezugsframes befinden). Unter Verwendung der Kovarianzmatrix kann die Benutzervorrichtung 102 die Gauß'schen RBF-Kerne berechnen.
  • Das Berechnen der Kovarianzmatrix kann auf der folgenden mathematischen Beziehung beruhen: Ω= [ e 1   e 2 ] [ k 1 0 0 k 2 ]
    Figure DE112019003984T5_0001
  • In der mathematischen Beziehung (1) stellt Ω eine Kernkovarianzmatrix dar, e1 und e2 stellen orthogonale Richtungsvektoren und zwei zugehörige Eigenwerte λ1 und λ2 dar und k1 und k2 steuern eine gewünschte Kernvarianz.
  • Das Berechnen der lokalen Gradientenstrukturtensoren kann auf der folgenden mathematischen Beziehung beruhen: Ω ^ = [ I x 2 I x I y I x I y I y 2 ]
    Figure DE112019003984T5_0002
  • In der mathematischen Beziehung (2) stellen Ix und Iy lokale Bildgradienten entsprechend in horizontaler und vertikaler Richtung dar.
  • In Unterstützung der erwähnten Robustheitsmodellberechnungen kann die Benutzervorrichtung 102 ein statistisches Nachbarschaftsmodell verwenden, um Wahrscheinlichkeiten von Pixeln zu formulieren, die zu einem Superauflösungsbild beitragen (z. B. Pixel von den mehreren Frames 202, die zu dem Superauflösungsbild 122 der Szene beitragen. Das statistische Nachbarschaftsmodell kann lokale Statistiken, wie z. B. einen Mittelwert, eine Varianz oder eine lokale Bayer-Muster-Quad-Grünkanal-Ungleichheitsdifferenz analysieren, um ein Modell zu bilden, das Aliasing vorhersagt (z. B. Pixelsignalisierung mit einem Frequenzinhalt über der Hälfte einer Samplerate, die sich nach dem Sampling als eine niedrigere Frequenz manifestiert).
  • Die Robustheitsmodellberechnungen können in einigen Fällen Rauschunterdrückungsberechnungen umfassen, um Farbunterschiede zu kompensieren. Die Rauschunterdrückungsberechnungen können in einigen Fällen auf einer räumlichen Farbstandardabweichung oder einer mittleren Differenz zwischen Frames beruhen.
  • Zusätzliche oder alternative Techniken können auch in den Superauflösungsberechnungen 302 umfasst sein. Die Superauflösungsberechnungen 302 können beispielsweise das Analysieren von Verkleinerungsoperationen zum Finden von Regionen eines Bildes, die nicht korrekt ausgerichtet werden können, umfassen. Als ein weiteres Beispiel können die Superauflösungsberechnungen 302 das Detektieren charakteristischer Muster zum Abschwächen von Fehlausrichtungsartefakten umfassen. In einem solchen Fall kann die Signalgradientenmusteranalyse Artefakte wie z. B. „Schachbrett“-Artefakte detektieren.
  • Die Superauflösungsberechnungen 302 sind effektiv, um für jedes der mehreren Frames 202 (z. B. für Bild 204, 206 und 208) den Beitrag von Pixeln zu Farbkanälen abzuschätzen, die mit entsprechenden Farbebenen verbunden sind, wie z. B. eine erste Farbebene 304 (die eine rote Farbebene sein kann und mit einem roten Farbkanal verbunden ist), eine zweite Farbebene 306 (die eine blaue Farbebene sein kann und mit einem blauen Farbkanal verbunden ist) und eine dritte Farbebene 308 (die eine grüne Farbebene sein kann und mit einem grünen Farbkanal verbunden ist). Die Superauflösungsberechnungen 302 behandeln die Pixel als separate Signale und akkumulieren die Farbebenen gleichzeitig.
  • Außerdem, und wie in 3 veranschaulicht, akkumuliert eine Farbebenenakkumulationsoperation 310 die Farbebenen 304 bis 308. Die Akkumulation der Farbebenen 304 bis 308 kann Normalisierungsberechnungen umfassen, die auf der folgenden mathematischen Beziehung beruhen: C ( x , y ) = n i c n , i w n , i R ^ n n i w n , i R ^ n
    Figure DE112019003984T5_0003
  • In der mathematischen Beziehung (3) stellen x und y Pixelkoordinaten dar, die Summe Σn arbeitet über beitragende Frames (oder ist eine Summe davon), die Summe Σi ist eine Summe von Samples innerhalb einer lokalen Nachbarschaft, cn,i stellt einen Wert eines Bayer-Pixels bei einem gegebenen Frame n und einem Sample i dar, wn,i stellt eine lokale Samplegewichtung dar und R̂n stellt eine lokale Robustheit dar.
  • 3 veranschaulicht auch eine Kombinieroperation 312, die das Superauflösungsbild 122 der Szene erzeugt. Die Benutzervorrichtung 102 kann dann das Superauflösungsbild 122 der Szene auf der Anzeige 114 der Benutzervorrichtung 102 (wie veranschaulicht) rendern oder alternativ das Superauflösungsbild 122 der Szene in dem CRM 118 der Benutzervorrichtung 102 speichern. Wie vorstehend beschrieben, und als Teil der Superauflösungsberechnungen 302, filtert die Benutzervorrichtung 102 die Pixelsignale von jedem Bild der mehreren Frames 202, um farbspezifische Bildebenen entsprechend den Farbkanälen zu erzeugen. Jede farbspezifische Bildebene kann eine Darstellung des Bildes sein, die bezüglich eines bestimmten Farbkanals gefiltert ist (z. B. eine rote Bildebene, eine blaue Bildebene und eine grüne Bildebene). Die Benutzervorrichtung 102 richtet dann die entsprechenden farbspezifischen Bildebenen mit einem Bezugsframe aus.
  • 4 veranschaulicht beispielhafte Aspekte 400, die mit der Ausrichtung mehrerer Frames, die Sub-Pixel-Offsets aufweisen, mit einem Bezugsframe verbunden sind. Wie in 4 veranschaulicht, besteht jedes der mehreren Frames 202 (z. B. Bild 204, 206 und 208) aus mehreren Pixeln (z. B. entsprechend die repräsentativen Pixel 402, 404 und 406). Jedes Pixel entspricht dem Inhalt 408 des Bildes (z. B. eine Kante, eine Ecke oder ein texturierter Inhaltsbereich des Bildes).
  • In Bezug auf 4 und bei 410 umfasst das Ausrichten der mehreren Frames 202, die Sub-Pixel-Offsets aufweisen, mit einem Bezugsframe das Ausrichten farbspezifischer Bildebenen (z. B. die mehreren Frames 202, die gemäß einer roten, blauen oder grünen Wellenlänge gefiltert sind), sodass der entsprechende Inhalt 408 jedes Pixels der mehreren Frames 202 mit dem entsprechenden Inhalt von Pixel 412 des Bezugsframes ausgerichtet wird. (Anmerkung: 4 ist nicht maßstabsgetreu gezeichnet und zu Beschreibungszwecken vereinfacht; in Wirklichkeit und abhängig von den Auflösungsfähigkeiten der Benutzervorrichtung 102 kann der entsprechende Inhalt 408 ein ganzes Pixel oder fast ein ganzes Pixel verbrauchen). Für jedes Pixel 402 bis 406 kann der Beitrag des Inhalts 408 zu einem Farbkanal mittels Tensoranalyse quantifiziert werden (z. B. quantifiziert das Analysieren eines lokalen Gradientenstrukturtensors den Beitrag des Inhalts 408 jedes Pixels 402 bis 406 zu jedem Farbkanal).
  • Die durch die 1 bis 4 beschriebenen Elemente unterstützen das Erzeugen des Superauflösungsbildes der Szene, während mehrere Fotografieaspekte adressiert werden. Zusätzlich zum Bereitstellen des Superauflösungsbildes der Szene ohne die zuvor erwähnten nachteiligen Artefakte von Demosaicing (z. B. niedrige Bildauflösung, chromatisches Aliasing, falsche Farbverläufe und Moire-Muster) beschreiben die 1 bis 4 Elemente, die mit einem einzigen Auslöserdruck kompatibel sind (z. B. ein einziger Bilderfassungsbefehl), die ohne Stativ oder absichtliche Bewegung verwendet werden können und die das Superauflösungsbild mit niedriger Latenzzeit (z. B. innerhalb von höchstens einigen Sekunden) erzeugen. Des Weiteren sind die Elemente robust gegenüber einer Bewegung innerhalb einer Szene, Szenenwechseln und schlechten Lichtverhältnissen.
  • Beispielhafte Verfahren
  • Die beispielhaften Verfahren 500 und 600 werden unter Bezugnahme auf die die 5 und 6 gemäß einem oder mehreren Aspekten beschrieben, die mit der Erzeugung eines Superauflösungsbildes einer Szene verbunden sind, die von einer Benutzervorrichtung erfasst wurde. Im Allgemeinen kann jede bzw. jedes der hierin beschriebenen Komponenten, Module, Verfahren und Operationen unter Verwendung von Software, Firmware, Hardware (z. B. Festlogikschaltung), manueller Verarbeitung oder irgendeiner Kombination davon implementiert werden. Einige Operationen der beispielhaften Verfahren können im allgemeinen Kontext ausführbarer Befehle beschrieben sein, die in einem computerlesbaren Speicher gespeichert sind, der sich lokal und/oder entfernt von einem Computerverarbeitungssystem befindet, und Implementierungen können Softwareanwendungen, Programme, Funktionen und dergleichen umfassen. Alternativ oder zusätzlich kann jede der hierin beschriebenen Funktionen mindestens teilweise von einer oder mehreren Hardwarelogikkomponenten ausgeführt werden, wie z. B. und ohne Einschränkung feldprogrammierbare Gate Arrays (FPGAs), anwendungsspezifische integrierte Schaltungen (ASICs), anwendungsspezifische Standardprodukte (ASSPs), System-auf-einem-Chip-Systeme (SoCs) oder komplexe programmierbare Logikbausteine(CPLDs).
  • 5 veranschaulicht beispielhafte Aspekte eines Verfahrens 500, das als Teil der Erzeugung eines Superauflösungsbildes einer Szene verwendet wird. Das Verfahren 500 wird in Form eines Satzes von Blöcken 502 bis 510 beschrieben, welche die Operationen spezifizieren, die ausgeführt werden können. Die Operationen sind jedoch nicht notwendigerweise auf die in 5 gezeigte oder hierin beschriebene Reihenfolge beschränkt, denn die Operationen können in alternativen Reihenfolgen, auf vollständig oder teilweise überlappende Weise oder in iterativer Weise implementiert werden. Obwohl die durch das Verfahren 500 dargestellten Operationen im Zusammenhang mit dem Ausführen durch die Benutzervorrichtung 102 von 1 beschrieben werden, können die Operationen (oder Teile der Operationen) durch eine oder mehrere andere Vorrichtungen mit Rechenfähigkeiten ausgeführt werden, wie z. B. einem Server oder einer Cloud-Computing-Vorrichtung, einschließlich Befehlen (oder Teile von Befehlen) des Superauflösungsmanagers 120.
  • Bei Block 502 erfasst die Benutzervorrichtung 102 (z. B. der Bildsensor 112) in einer Burst-Sequenz mehrere Frames 202 eines Bildes einer Szene, wobei die mehreren Frames 202 aufgrund einer Bewegung der Benutzervorrichtung während der Erfassung der mehreren Frames entsprechende relative Sub-Pixel-Offsets des Bildes aufweisen. In einigen Fällen kann die Bewegung der Benutzervorrichtung einer natürlichen Handbewegung 110 entsprechen, die ein Benutzer der Benutzervorrichtung ausgeführt hat. In anderen Fällen kann die Bewegung der Benutzervorrichtung einer Verschiebung entsprechen, die durch einen Vibrationsmechanismus bewirkt wird, der in Kontakt mit der Benutzervorrichtung 102 oder einem Teil davon steht.
  • Bei Block 504 führt die Benutzervorrichtung (z. B. der Prozessor 116, der die Befehle des Superauflösungsmanagers 120 ausführt) die Superauflösungsberechnungen 302 aus. Die Ausführung der Superauflösungsberechnungen 302 verwendet die erfassten mehreren Frames, um Gauß'sche Radialbasisfunktionskerne und ein Robustheitsmodell zu berechnen. Das Berechnen der Gauß'schen Radialbasisfunktionskerne kann mehrere Aspekte einschließlich des Filterns von Pixelsignalen von jedem der mehreren Frames, um farbspezifische Bildebenen für die entsprechenden Farbkanäle zu erzeugen und des Ausrichtens der farbspezifischen Bildebenen mit einem Bezugsframe umfassen. Zusätzlich zu den Farbkanälen Rot, Grün und Blau können die farbspezifischen Bildebenen auch chromatischen Farbkanälen (z. B. Schwarz-, Weiß- und Grautönen) oder anderen Farbkanälen wie Cyan, Violett usw. entsprechen.
  • Das Berechnen der Gauß'schen Radialbasisfunktionskerne kann auch das Berechnen einer Kernkovarianzmatrix (z. B. mathematische Beziehung (1)) basierend auf dem Analysieren lokaler Gradientenstrukturtensoren (z. B. mathematische Beziehung (2)) umfassen, die durch Ausrichten der farbspezifischen Bildebenen mit dem Bezugsframe erzeugt sind. In solchen Fällen können die lokalen Gradientenstrukturtensoren Kanten, Ecken oder texturierten Inhaltsbereichen entsprechen, die in dem Bezugsframe umfasst sind. Des Weiteren, und ebenfalls als Teil von Block 504, kann das Berechnen der Robustheit das Verwenden eines statistischen Nachbarschaftsmodells umfassen, um für jedes Pixel eine mittlere und räumliche Farbstandardabweichung zu berechnen.
  • Bei Block 506 akkumuliert die Benutzervorrichtung 102 (z. B. der Prozessor 116, der die Befehle des Superauflösungsmanagers 120 ausführt) Farbebenen basierend auf den Superauflösungsberechnungen 302 des Blocks 504. Das Akkumulieren der Farbebenen kann umfassen, dass die Benutzervorrichtung Berechnungen ausführt (z. B. mathematische Beziehung (1)), die für jeden Farbkanal die Pixelbeiträge normalisieren (z. B. Beiträge jedes Pixels der in Block 502 erfassten mehreren Frames zu jedem Farbkanal normalisieren).
  • Bei Block 508 kombiniert die Benutzervorrichtung 102 die akkumulierten Farbebenen, um das Superauflösungsbild 122 der Szene zu erzeugen. Bei Block 510 rendert die Benutzervorrichtung 102 (z. B. die Anzeige 114) das Superauflösungsbild 122 der Szene.
  • Obwohl das beispielhafte Verfahren 500 von 5 im Zusammenhang mit dem Ausführen durch die Benutzervorrichtung 102 von 1 beschrieben ist, können Operationen innerhalb des beispielhaften Verfahrens 500 (oder Teile der Operationen) durch eine oder mehrere andere Vorrichtungen mit Rechenfähigkeiten ausgeführt werden, wie z. B. einen Server oder eine Cloud-Computing-Vorrichtung, die Befehle (oder Teile von Befehlen) des Superauflösungsmanagers 120 umfassen. Die Benutzervorrichtung 102 kann z. B. die mehreren Frames des Bildes der Szene (z. B. Block 502) erfassen und die mehreren Frames übertragen oder mit einem Server oder einer Cloud-Computing-Vorrichtung gemeinsam nutzen. Solch ein Server oder solch eine Cloud-Computing-Vorrichtung kann die Superauflösungsberechnungen (z. B. die Blöcke 504 und 506) Ausführen, die Farbebenen akkumulieren (z. B. Block 508) und das Superauflösungsbild der Szene zurück an die Benutzervorrichtung 102 übertragen.
  • 6 veranschaulicht beispielhafte Aspekte eines Verfahrens 600 zur Bereitstellung von Farbebenen an eine Vorrichtung. Das Verfahren 600 wird in Form eines Satzes von Blöcken 602 beschrieben 610 beschrieben, welche die Operationen spezifizieren, die ausgeführt werden können. Die Operationen sind jedoch nicht notwendigerweise auf die in 6 gezeigte oder hierin beschriebene Reihenfolge beschränkt, denn die Operationen können in alternativen Reihenfolgen, auf vollständig oder teilweise überlappende Weise oder in iterativer Weise implementiert werden. Des Weiteren können die Operationen des Verfahrens 600 durch die Benutzervorrichtung 102 von 1 ausgeführt werden.
  • Bei Block 602 berechnet die Benutzervorrichtung 102 (z. B. der Prozessor 116, der die Befehle des Superauflösungsmanagers 120 ausführt) Gauß'sche Radialbasisfunktionskerne (RBF-Kerne). Die Berechnung der Gauß'schen RBF-Kerne umfasst mehrere Aspekte, einschließlich des Auswählens eines Bezugsframes und der Berechnung einer Kovarianzmatrix.
  • Die Berechnung der Kernkovarianzmatrix (z. B. die mathematische Beziehung (1)) basiert auf dem Analysieren lokaler Gradientenstrukturtensoren (z. B. die mathematische Beziehung (2)), wobei die lokalen Gradientenstrukturtensoren Kanten, Ecken oder texturierten Inhaltsbereichen entsprechen, die in dem Bezugsframe umfasst sind.
  • In einigen Fällen können bei Block 602 die mehreren Frames des Bildes der Szene 202 aufgrund einer Bewegung einer Bilderfassungsvorrichtung während der Erfassung der mehreren Frames 202 entsprechende, relative Sub-Pixel-Offsets des Bildes über die mehreren Frames hinweg aufweisen. Des Weiteren, und in einigen Fällen, kann die Bewegung der Bilderfassungsvorrichtung einer Bewegung entsprechen, die von einem Benutzer der Bilderfassungsvorrichtung ausgeführt wurde. Die Bewegung kann in einigen Fällen einer natürlichen Handbewegung.
  • Bei Block 604 berechnet die Benutzervorrichtung 102 ein Robustheitsmodell. Das Berechnen des Robustheitsmodells umfasst das Verwenden eines statistischen Nachbarschaftsmodells für eine mittlere und räumliche Farbstandardabweichung.
  • Bei Block 606 bestimmt die Benutzervorrichtung 102 Farbebenen. Die Benutzervorrichtung 102 kann die Bestimmung basierend auf den berechneten Gauß'schen Radialbasisfunktionskernen und dem berechneten Robustheitsmodell vornehmen, um den Beitrag jedes Pixels zu den Farbebenen zu bestimmen.
  • Bei Block 608 akkumuliert die Benutzervorrichtung 102 die Farbebenen. Das Akkumulieren der Farbebenen kann Normalisierungsberechnungen umfassen (z. B. unter Verwendung der mathematischen Beziehung (1)).
  • Bei Block 610 stellt die Benutzervorrichtung 102 die Farbebenen an die Vorrichtung bereit. In einigen Fällen umfasst das Bereitstellen der Farbebenen an die Vorrichtung auch das Bereitstellen der Farbebenen an die Vorrichtung zur Speicherung (z. B. Speicherung in einem computerlesbaren Medium der Vorrichtung). In anderen Fällen umfasst das Bereitstellen der Farbebenen an die Vorrichtung auch das Bereitstellen der Farbebenen an die Vorrichtung zum Kombinieren und Rendern der Farbebenen.
  • Obwohl Superauflösungssysteme und -verfahren unter Verwendung von Handbewegungen, die auf eine Benutzervorrichtung angewandt werden, in einer für Merkmale und/oder Verfahren spezifischen Sprache beschrieben wurden, versteht es sich, dass der Gegenstand der angefügten Ansprüche nicht zwangsläufig auf die beschriebenen spezifischen Merkmale oder Verfahren beschränkt ist. Vielmehr werden die spezifischen Merkmale und Verfahren als beispielhafte Möglichkeiten offenbart, wie eine Superauflösung unter Verwendung einer Handbewegung, die auf eine Benutzervorrichtung angewandt wird, implementiert werden kann.
  • Es gibt viele Variationen von Superauflösungssystemen und -Verfahren unter Verwendung einer Handbewegung, die wie beschrieben auf eine Benutzervorrichtung angewendet wird. Als eine erste Beispielvariante können Superauflösungsberechnungen Tiefenkarten oder andere Ebenen erzeugen (und akkumulieren), die nicht mit einer bestimmten Farbe verbunden sind. Als zweite Beispielvariante können Superauflösungsberechnungen auf anderen Sampling-Mustern als den Gauß'schen RBF-Sampling-Mustern beruhen. Als dritte Beispielvariante können Superauflösungsberechnungen auf Offsets beruhen, die Verschiebungsfeldern anstelle von Sub-Pixel-Offsets entsprechen. Und als vierte Beispielvariante können Superauflösungsberechnungen auf einer Bewegung beruhen, die nicht durch Handbewegungen bewirkt ist (z. B. können beispielsweise kleine Bewegungen eines Bildes notwendige Sub-Pixel-Offsets oder -Verschiebungen erzeugen, um die Superauflösungsberechnungen auszuführen).
  • Zusätzlich zu den vorstehenden Beschreibungen können einem Benutzer Bedienelemente bereitgestellt werden, die es ihm ermöglichen, eine Entscheidung darüber zu treffen, ob und wann hierin beschriebene Systeme, Programme oder Merkmale die Sammlung von Benutzerinformationen (z. B. von einem Benutzer erfasste Bilder, von einem System berechnete Superauflösungsbilder, Informationen über das soziale Netzwerk eines Benutzers, soziale Aktionen oder Aktivitäten, den Beruf, die Vorlieben eines Benutzers oder den aktuellen Standort eines Benutzers) ermöglichen, und ob dem Benutzer Inhalt oder Kommunikationen von einem Server gesendet werden. Außerdem können bestimmte Daten auf eine oder mehrere Arten behandelt werden, bevor sie gespeichert oder verwendet werden, sodass personenbezogene Informationen entfernt sind. Eine Benutzeridentität kann beispielsweise so behandelt werden, dass keine persönlichen identifizierbaren Informationen für den Benutzer bestimmt werden können, oder ein Standort des Benutzers kann verallgemeinert werden, wobei Standortinformationen entnommen werden (wie beispielsweise eine Stadt, Postleitzahl oder Bundesland), sodass ein bestimmter Standort eines Benutzers nicht festgestellt werden kann. Daher kann der Benutzer Kontrolle darüber haben, welche Informationen über den Benutzer gesammelt werden, wie diese Informationen verwendet werden und welche Informationen an den Benutzer bereitgestellt werden.
  • Im Folgenden werden einige Beispiele beschrieben.
  • Beispiel 1: Ein Verfahren zum Rendern eines Superauflösungsbildes einer Szene, wobei das Verfahren von einer Benutzervorrichtung ausgeführt wird und umfasst: Erfassen, in einer Burst-Sequenz, mehrerer Frames eines Bildes einer Szene, wobei die mehreren Frames aufgrund einer Bewegung der Benutzervorrichtung während des Erfassens der mehreren Frames entsprechende relative Sub-Pixel-Offsets des Bildes aufweisen; Ausführen von Superauflösungsberechnungen unter Verwendung der erfassten mehreren Frames, wobei die Superauflösungsberechnungen umfassen: Berechnen von Gauß'schen Radialbasisfunktionskernen; und Berechnen eines Robustheitsmodells; Akkumulieren von Farbebenen, basierend auf den Superauflösungsberechnungen; Kombinieren der akkumulierten Farbebenen, um das Superauflösungsbild der Szene zu erzeugen; und Rendern des Superauflösungsbildes der Szene.
  • Beispiel 2: Das Verfahren nach Beispiel 1, wobei das Ausführen der Superauflösungsberechnungen Beiträge von Pixeln der mehreren Frames des Bildes der Szene zu den Farbebenen bestimmt.
  • Beispiel 3: Das Verfahren nach Beispiel 1 oder 2, wobei die Bewegung der Benutzervorrichtung einer natürlichen Handbewegung entspricht, die ein Benutzer der Benutzervorrichtung während der Burst-Sequenz ausgeführt hat.
  • Beispiel 4: Das Verfahren nach den Beispielen 1 bis 3, wobei das Ausführen der Superauflösungsberechnungen das Filtern von Pixelsignalen von jedem der mehreren Frames, um farbspezifische Bildebenen für entsprechende Farbkanäle zu erzeugen, umfasst.
  • Beispiel 5: Das Verfahren nach Beispiel 4, wobei das Ausführen der Superauflösungsberechnungen das Ausrichten der farbspezifischen Bildebenen mit einem Bezugsframe umfasst.
  • Beispiel 6: Das Verfahren nach einem der Beispiele 4 bis 5, wobei die entsprechenden Farbkanäle einem roten Farbkanal, einem blauen Farbkanal und einem grünen Farbkanal entsprechen.
  • Beispiel 7: Das Verfahren nach einem der Beispiele 5 bis 6, wobei das Berechnen der Gauß'schen Radialbasisfunktionskerne das Berechnen einer Kernkovarianzmatrix basierend auf dem Analysieren lokaler Gradientenstrukturtensoren von farbspezifischen Bildebenen, die mit dem Bezugsframe ausgerichtet sind, umfasst.
  • Beispiel 8: Das Verfahren nach einem der Beispiele 1 bis 7, wobei die lokalen Gradientenstrukturtensoren Kanten, Ecken oder texturierten Inhaltsbereichen entsprechen, die in dem Bezugsframe umfasst sind.
  • Beispiel 9: Das Verfahren nach den Beispielen 1 bis 8, wobei für das Berechnen des Robustheitsmodells ein statistisches Nachbarschaftsmodell verwendet wird, um eine räumliche Farbstandardabweichung oder eine mittlere Differenz zu berechnen.
  • Beispiel 10: Ein Verfahren zum Bereitstellen von Farbebenen an eine Vorrichtung, wobei das Verfahren umfasst: Berechnen von Gauß'schen Radialbasisfunktionskernen, wobei das Berechnen der Gauß'schen Radialbasisfunktionskerne umfasst: Auswählen eines Bezugsframes; und Berechnen einer Kernkovarianzmatrix basierend auf dem Analysieren lokaler Gradientenstrukturtensoren, wobei die lokalen Gradientenstrukturtensoren Kanten, Ecken oder texturierten Inhaltsbereichen entsprechen, die in dem Bezugsframe umfasst sind; und Berechnen eines Robustheitsmodells, wobei das Berechnen des Robustheitsmodells die Verwendung eines statistischen Nachbarschaftsmodells umfasst, um eine mittlere und räumliche Farbstandardabweichung zu berechnen; Bestimmen, basierend auf den berechneten Gauß'schen Radialbasisfunktionskernen und dem berechneten Robustheitsmodell, von Beiträgen von Pixeln zu Farbebenen; Akkumulieren der Farbebenen; und Bereitstellen der akkumulierten Farbebenen an die Vorrichtung.
  • Beispiel 11: Das Verfahren nach Beispiel 10, wobei das Bereitstellen der akkumulierten Farbebenen das Bereitstellen der akkumulierten Ebenen an die Vorrichtung zum Speichern umfasst.
  • Beispiel 12: Das Verfahren nach Beispiel 10 oder 11, wobei das Bereitstellen der akkumulierten Farbebenen an die Vorrichtung das Bereitstellen der akkumulierten Farbebenen an die Vorrichtung, um ein Superauflösungsbild zu kombinieren und zu rendern, umfasst.
  • Beispiel 13: Eine Benutzervorrichtung, wobei die Benutzervorrichtung umfasst: einen oder mehrere Bildsensoren; einen oder mehrere Prozessoren; eine Anzeige; und ein computerlesbares Medium, das Befehle einer Superauflösungsmanageranwendung umfasst, die, wenn sie von dem einen oder den mehreren Prozessoren ausgeführt wird, die Benutzervorrichtung anweist zum: Erfassen, in einer Burst-Sequenz unter Verwendung des einen oder der mehreren Bildsensoren, mehrerer Frames eines Bildes einer Szene, wobei die mehreren Frames entsprechende relative Offsets des Bildes über die mehreren Frames hinweg aufweisen; Ausführen, unter Verwendung des einen oder der mehreren Prozessoren, von Superauflösungsberechnungen unter Verwendung der erfassten mehreren Frames des Bildes der Szene; Akkumulieren von Ebenen unter Verwendung des einen oder der mehreren Prozessoren und basierend auf den Superauflösungsberechnungen; Kombinieren, unter Verwendung des einen oder der mehreren Prozessoren, der akkumulierten Ebenen, um ein Superauflösungsbild der Szene zu erzeugen; und Rendern, unter Verwendung der Anzeige, des Superauflösungsbildes der Szene.
  • Beispiel 14: Die Benutzervorrichtung nach Beispiel 13, wobei der eine oder die mehreren Prozessoren mehrere, unterschiedliche Prozessoren sind und eine Zentraleinheit, eine Bildverarbeitungseinheit, einen Digitalsignalprozessor oder eine Grafikverarbeitungseinheit umfassen.
  • Beispiel 15: Die Benutzervorrichtung nach Beispiel 13 oder 14, wobei der eine oder die mehreren Prozessoren, welche die mehreren unterschiedlichen Prozessoren sind, die Superauflösungsberechnungen unter Verwendung von Pipelineverarbeitung ausführen.
  • Beispiel 16: Ein System, das ein Mittel zum Ausführen eines der in den Beispielen 1 bis 9 beschriebenen Verfahren umfasst.
  • Beispiel 17: Ein System, das ein Mittel zum Ausführen eines der in den Beispielen 10 bis 12 beschriebenen Verfahren umfasst.
  • Beispiel 19: Ein computerlesbares Speichermedium, das Befehle umfasst, die bei Ausführung einen Prozessor konfigurieren, eines der in den Beispielen 1 bis 9 beschriebenen Verfahren auszuführen.
  • Beispiel 20: Ein computerlesbares Speichermedium, das Befehle umfasst, die bei Ausführung einen Prozessor konfigurieren, eines der in den Beispielen 10 bis 12 beschriebenen Verfahren auszuführen.
  • Beispiel 21: Eine Benutzervorrichtung, die konfiguriert ist, das Verfahren nach einem der Beispiele 1 bis 9 auszuführen.
  • Beispiel 22: Eine Benutzervorrichtung, die konfiguriert ist, das Verfahren nach einem der Beispiele 10 bis 12 auszuführen.

Claims (15)

  1. Verfahren zum Rendern eines Superauflösungsbildes einer Szene, wobei das Verfahren von einer Benutzervorrichtung ausgeführt wird und umfasst: Erfassen, in einer Burst-Sequenz, von mehreren Frames eines Bildes einer Szene, wobei die mehreren Frames entsprechende relative Sub-Pixel-Offsets des Bildes aufgrund einer Bewegung der Benutzervorrichtung während des Erfassens der mehreren Frames aufweisen; Ausführen von Superauflösungsberechnungen unter Verwendung der erfassten mehreren Frames, wobei die Superauflösungsberechnungen umfassen: Berechnen von Gauß'schen Radialbasisfunktionskernen; und Berechnen eines Robustheitsmodells; Akkumulieren von Farbebenen basierend auf den Superauflösungsberechnungen; Kombinieren der akkumulierten Farbebenen, um das Superauflösungsbild der Szene zu erzeugen; und Rendern des Superauflösungsbildes der Szene.
  2. Verfahren nach Anspruch 1, wobei das Ausführen der Superauflösungsberechnungen Beiträge von Pixeln der mehreren Frames des Bildes der Szene zu den Farbebenen bestimmt.
  3. Verfahren nach Anspruch 1, wobei die Bewegung der Benutzervorrichtung einer natürlichen Handbewegung entspricht, die ein Benutzer der Benutzervorrichtung während der Burst-Sequenz ausgeführt hat.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei das Ausführen der Superauflösungsberechnungen das Filtern von Pixelsignalen von jedem der mehreren Frames umfasst, um farbspezifische Bildebenen für entsprechende Farbkanäle zu erzeugen.
  5. Verfahren nach Anspruch 4, wobei das Ausführen der Superauflösungsberechnungen das Ausrichten der farbspezifischen Bildebenen mit einem Bezugsframe umfasst.
  6. Verfahren nach einem der Ansprüche 4 bis 5, wobei die entsprechenden Farbkanäle einem roten Farbkanal, einem blauen Farbkanal und einem grünen Farbkanal entsprechen.
  7. Verfahren nach einem der Ansprüche 5 bis 6, wobei das Berechnen der Gauß'schen Radialbasisfunktionskerne das Berechnen einer Kernkovarianzmatrix basierend auf dem Analysieren lokaler Gradientenstrukturtensoren von farbspezifischen Bildebenen, die mit dem Bezugsframe ausgerichtet sind, umfasst.
  8. Verfahren nach Anspruch 7, wobei die lokalen Gradientenstrukturtensoren Kanten, Ecken oder texturierten Inhaltsbereichen entsprechen, die in dem Bezugsframe umfasst sind.
  9. Verfahren nach einem der Ansprüche 1 bis 8, wobei für das Berechnen des Robustheitsmodells ein statistisches Nachbarschaftsmodell verwendet wird, um eine räumliche Farbstandardabweichung oder eine mittlere Differenz zu berechnen.
  10. Verfahren zum Bereitstellen von Farbebenen an eine Vorrichtung, wobei das Verfahren umfasst: Berechnen von Gauß'schen Radialbasisfunktionskernen, wobei das Berechnen der Gauß'schen Radialbasisfunktionskerne umfasst: Berechnen eines Bezugsframes; und Berechnen einer Kernkovarianzmatrix basierend auf dem Analysieren lokaler Gradientenstrukturtensoren, wobei die lokalen Gradientenstrukturtensoren Kanten, Ecken oder texturierten Inhaltsbereichen entsprechen, die in dem Bezugsframe umfasst sind; und Berechnen eines Robustheitsmodells, wobei das Berechnen des Robustheitsmodells das Verwenden eines statistischen Nachbarschaftsmodells umfasst, um eine mittlere und räumliche Farbstandardabweichung zu berechnen; Bestimmen, basierend auf den berechneten Gauß'schen Radialbasisfunktionskernen und dem berechneten Robustheitsmodell, von Beiträgen von Pixeln zu Farbebenen; Akkumulieren der Farbebenen; und Bereitstellen der akkumulierten Farbebenen an die Vorrichtung.
  11. Verfahren nach Anspruch 10, wobei das Bereitstellen der akkumulierten Farbebenen das Bereitstellen der akkumulierten Ebenen an die Vorrichtung zum Speichern umfasst.
  12. Verfahren nach Anspruch 10 oder 11, wobei das Bereitstellen der akkumulierten Farbebenen an die Vorrichtung das Bereitstellen der akkumulierten Farbebenen an die Vorrichtung, um ein Superauflösungsbild zu kombinieren und zu rendern, umfasst.
  13. Benutzervorrichtung, wobei die Benutzervorrichtung umfasst: einen oder mehrere Bildsensoren; einen oder mehrere Prozessoren; eine Anzeige; und ein computerlesbares Medium, das Befehle einer Superauflösungsmanageranwendung umfasst, die bei Ausführung durch den einen oder die mehreren Prozessoren, die Benutzervorrichtung anweisen zum: Erfassen, in einer Burst-Sequenz unter Verwendung des einen oder der mehreren Bildsensoren, von mehreren Frames eines Bildes einer Szene, wobei die mehreren Frames entsprechende relative Offsets des Bildes über die mehreren Frames hinweg aufweisen; Ausführen, unter Verwendung des einen oder der mehreren Prozessoren, von Superauflösungsberechnungen unter Verwendung der erfassten mehreren Frames des Bildes der Szene; Akkumulieren von Ebenen unter Verwendung des einen oder der mehreren Prozessoren und basierend auf den Superauflösungsberechnungen; Kombinieren, unter Verwendung des einen oder der mehreren Prozessoren, der akkumulierten Ebenen, um ein Superauflösungsbild der Szene zu erzeugen; und Rendern, unter Verwendung der Anzeige, des Superauflösungsbildes der Szene.
  14. Benutzervorrichtung nach Anspruch 13, wobei der eine oder die mehreren Prozessoren mehrere, unterschiedliche Prozessoren sind und eine Zentraleinheit, eine Bildverarbeitungseinheit, einen Digitalsignalprozessor oder eine Grafikverarbeitungseinheit umfassen.
  15. Benutzervorrichtung nach Anspruch 13 oder 14, wobei der eine oder die mehreren Prozessoren, welche die mehreren unterschiedlichen Prozessoren sind, die Superauflösungsberechnungen unter Verwendung von Pipelineverarbeitung ausführen.
DE112019003984.9T 2018-08-09 2019-08-06 Auf eine benutzervorrichtung angewandte superauflösung mittels natürlicher handbewegung Pending DE112019003984T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862716921P 2018-08-09 2018-08-09
US62/716,921 2018-08-09
PCT/US2019/045342 WO2020033432A1 (en) 2018-08-09 2019-08-06 Super-resolution using natural handheld-motion applied to a user device

Publications (1)

Publication Number Publication Date
DE112019003984T5 true DE112019003984T5 (de) 2021-06-02

Family

ID=67777402

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019003984.9T Pending DE112019003984T5 (de) 2018-08-09 2019-08-06 Auf eine benutzervorrichtung angewandte superauflösung mittels natürlicher handbewegung

Country Status (6)

Country Link
US (1) US20210304359A1 (de)
JP (2) JP7223117B2 (de)
KR (2) KR102555317B1 (de)
CN (1) CN112384945A (de)
DE (1) DE112019003984T5 (de)
WO (1) WO2020033432A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102509466B1 (ko) 2018-08-08 2023-03-14 구글 엘엘씨 장면의 초해상도 이미지를 생성하기 위한 광학 이미지 안정화 움직임
US11615510B2 (en) 2020-10-21 2023-03-28 Samsung Electronics Co., Ltd. Kernel-aware super resolution
US11880902B2 (en) * 2020-12-30 2024-01-23 Waymo Llc Systems, apparatus, and methods for enhanced image capture

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8577184B2 (en) * 2005-01-19 2013-11-05 The United States Of America As Represented By The Secretary Of The Army System and method for super-resolution imaging from a sequence of color filter array (CFA) low-resolution images
CN101226631B (zh) * 2007-12-12 2010-06-09 华为技术有限公司 一种超分辨率图像重构方法和装置
WO2009087641A2 (en) * 2008-01-10 2009-07-16 Ramot At Tel-Aviv University Ltd. System and method for real-time super-resolution
CN104662589B (zh) * 2012-08-21 2017-08-04 派力肯影像公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法
US9392166B2 (en) 2013-10-30 2016-07-12 Samsung Electronics Co., Ltd. Super-resolution in processing images such as from multi-layer sensors
US9478010B2 (en) * 2013-12-12 2016-10-25 Google Technology Holdings LLC Generating an enhanced image of a predetermined scene from a plurality of images of the predetermined

Also Published As

Publication number Publication date
KR20230027316A (ko) 2023-02-27
US20210304359A1 (en) 2021-09-30
WO2020033432A1 (en) 2020-02-13
KR20210029248A (ko) 2021-03-15
KR102555317B1 (ko) 2023-07-14
CN112384945A (zh) 2021-02-19
JP7223117B2 (ja) 2023-02-15
JP2021533496A (ja) 2021-12-02
JP2023058558A (ja) 2023-04-25
KR102500779B1 (ko) 2023-02-16
JP7490100B2 (ja) 2024-05-24

Similar Documents

Publication Publication Date Title
DE112018002228B4 (de) Konfigurierbare faltungsmaschine für verschachtelte kanaldaten
DE112019003972T5 (de) Optische bildstabilisierungsbewegung zum erstellen eines superauflösenden bildes einer szene
DE102013017122B4 (de) Verfahren zum Herstellen automatischer Cinemagramme auf einer Bildgebungsvorrichtung
EP4109392A1 (de) Bildverarbeitungsverfahren und bildverarbeitungsvorrichtung
DE112016003118B4 (de) Punkt-zu-Punkt-Abstandsmessungen in 3D-Kamerabildern
Ancuti et al. Single-scale fusion: An effective approach to merging images
DE112019003984T5 (de) Auf eine benutzervorrichtung angewandte superauflösung mittels natürlicher handbewegung
DE112014006439B4 (de) Kantenerkennungsvorrichtung, Kantenerkennungsverfahren und Programm
DE102011056972A1 (de) Vorrichtung und Verfahren zur digitalen Bildstabilisierung
DE102015107872A1 (de) Neu beleuchtbare Textur zur Verwendung beim Rendern eines Bildes
DE112016005905T5 (de) Verfahren und System zum Verschmelzen erfasster Messungen
DE102017128297A1 (de) Technologie zur Merkmalserkennung und -verfolgung
DE112016005482T5 (de) Objektdetektion mit adaptiven Kanalmerkmalen
DE102019122402A1 (de) Das klassifizieren von zeitreihenbilddaten
DE102020122844A1 (de) System und verfahren für tiefgehendes maschinelles lernen für computer-vision-anwendungen
DE102021119882A1 (de) Videohintergrundschätzung unter verwendung von räumlich-zeitlichen modellen
US20100061650A1 (en) Method And Apparatus For Providing A Variable Filter Size For Providing Image Effects
DE112016006833T5 (de) Verbesserung von kanten in bildern unter verwendung von tiefeninformationen
US20120063685A1 (en) Method for image reframing
DE102017009118A1 (de) Bildabgleich für serienbilder
CN108573478B (zh) 中值滤波方法及装置
Islam et al. A study on edge detection techniques for natural image segmentation
DE102022105545A1 (de) Deep-Guided-Filter-Decoder mit niedriger Komplexität für pixelweise Prädiktionsaufgabe
DE102015003537B4 (de) Blockierungsdetektionsverfahren für eine kamera und eine elektronische vorrichtung mit kameras
Zhao et al. Saliency guided gradient similarity for fast perceptual blur assessment

Legal Events

Date Code Title Description
R012 Request for examination validly filed