DE112011103011T5 - Stereoskopische (3D) Panoramaerstellung auf tragbaren Geräten - Google Patents
Stereoskopische (3D) Panoramaerstellung auf tragbaren Geräten Download PDFInfo
- Publication number
- DE112011103011T5 DE112011103011T5 DE112011103011T DE112011103011T DE112011103011T5 DE 112011103011 T5 DE112011103011 T5 DE 112011103011T5 DE 112011103011 T DE112011103011 T DE 112011103011T DE 112011103011 T DE112011103011 T DE 112011103011T DE 112011103011 T5 DE112011103011 T5 DE 112011103011T5
- Authority
- DE
- Germany
- Prior art keywords
- image
- images
- frames
- panoramic
- stereoscopic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 claims abstract description 131
- 238000004091 panning Methods 0.000 claims abstract description 15
- 238000006073 displacement reaction Methods 0.000 claims description 60
- 230000000694 effects Effects 0.000 claims description 26
- 238000003384 imaging method Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 11
- 230000003287 optical effect Effects 0.000 claims description 8
- 239000002131 composite material Substances 0.000 claims description 5
- 238000005304 joining Methods 0.000 claims description 3
- 238000003860 storage Methods 0.000 claims description 3
- 230000036961 partial effect Effects 0.000 claims description 2
- 238000002156 mixing Methods 0.000 description 44
- 230000033001 locomotion Effects 0.000 description 39
- 230000008569 process Effects 0.000 description 35
- 238000004422 calculation algorithm Methods 0.000 description 27
- 238000004364 calculation method Methods 0.000 description 17
- 230000001815 facial effect Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 238000013459 approach Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 8
- 238000013507 mapping Methods 0.000 description 8
- 230000000717 retained effect Effects 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 238000009499 grossing Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000037433 frameshift Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000013011 mating Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000007480 spreading Effects 0.000 description 2
- 238000003892 spreading Methods 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 229920001817 Agar Polymers 0.000 description 1
- 241001136792 Alle Species 0.000 description 1
- 101100112913 Schizosaccharomyces pombe (strain 972 / ATCC 24843) cdr1 gene Proteins 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 229940086207 head & shoulders Drugs 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000011295 pitch Substances 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000012916 structural analysis Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/38—Registration of image sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/32—Indexing scheme for image data processing or generation, in general involving image mosaicing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0092—Image segmentation from stereoscopic image signals
Abstract
Description
- PRIORITÄT
- Diese Anmeldung die Priorität der amerikanischen Patentanmeldung Nr. 12/879,003 vom 9. September 2010 in Anspruch.
- GEBIET DER ERFINDUNG
- Die Erfindung bezieht sich auf stereoskopische (3D) Panorama-Bildgebung mit tragbaren Kameras und/oder Handkameras, digitalen Photokameras und anderen kamerafähigen Geräten wie Photo-Handys und andere tragbare Geräte und auf einem Prozessor basierende tragbare Geräte mit Bilderfassungsfunktionen.
- HINTERGRUND
- Panorama-Photographie ist eine Photographie mit einem ungewöhnlich großen Sichtfeld, einem gesteigerten Seitenverhältnis oder beidem. Eine horizontale Panorama-Photographie kann beispielsweise wesentlich breiter als hoch sein und sie kann einen horizontalen Bildwinkel aufweisen, der groß ist bezogen auf seinen vertikalen Bildwinkel. Eine vertikale Panorama-Photographie kann wesentlich höher als breit sein und sie kann einen vertikalen Bildwinkel aufweisen, der bezogen auf seinen horizontalen Bildwinkel groß ist. Eine Panorama-Photographie oder ein Panoramabild, manchmal auch einfach nur ”Panorama” genannt, kann einen einzigartigen und manchmal auch bemerkenswerten und eindrucksvollen Blick auf eine Szene liefern.
- Bei der Panorama-Bildgebung wird eine Sequenz von Bildern einer erweiterten horizontalen Szene aufgenommen und diese werden zu einem einzelnen erweiterten Bild zusammengesetzt. Dadurch kann eine ”Panorama”-Szene, meistens im Freien, mit einer Standardkamera mit einem normalen optischen System mit begrenztem Sichtfeld aufgenommen werden.
- Ein alternativer Ansatz besteht darin, eine Szene mittels eines speziellen Objektivs, genannt Fischauge, aufzunehmen, das ein erweitertes Sichtfeld von bis zu 170' besitzt. Diese speziellen Objektive machen eine teure Herstellung und eine präzise Bearbeitung der Elemente des Objektivs erforderlich. Die Implementierung eines Panorama-Bildgebungsverfahrens in einer digitalen Kamera ermöglicht ähnliche Ergebnisse zu einem Bruchteil der Kosten.
- Historisch wurden Panorama-Photographien unter Verwendung speziell hergestellter Kameras aufgenommen. Bei einer Art von Panoramakamera werden ein rotierendes Objektiv und Kameragehäuse eingesetzt, um ein großes Sichtfeld abzutasten, während der Film an einem schmalen Belichtungsschlitz hinter dem Objektiv vorbei bewegt wird. Diese Art von rotierender Kamera, nach einem frühen handelsüblichen Modell manchmal auch ”Cirkut”-Kamera genannt, kann ein Photo mit einem Sichtfeld von 360 Grad oder mehr aufnehmen. Eine Schwinglinsenkamera arbeitet nach einem ähnlichen Prinzip, doch ihr Objektiv und der Belichtungsschlitz rotieren bezogen auf ein stationäres Gehäuse und einen Film. Eine Schwinglinsenkamera kann ein Photo mit einem Sichtfeld von etwas weniger als 180 Grad aufnehmen.
- Bei einem weiteren Verfahren zur Erstellung einer Panorama-Photographie können mehrere überlappende Standardphotos oder herkömmliche Photos aufgenommen werden, die meistens jeweils ein Seitenverhältnis von 3:2, oder weniger als in der Panorama-Photographie gewünscht wird, besitzen, und die dann in ein einzelnes, größeres Photo zusammengefügt werden. Das Zusammenfügen kann meistens unter Verwendung eines Computers erfolgen, der die digitalen Darstellungen der Komponenten-Photographien bearbeitet, beispielsweise Photos, die mit einer digitalen Kamera aufgenommen wurden. Das Verfahren des Verbindens digitaler Bilder zu einem größeren Photo wird oft als ”Stitching” oder ”Mosaicing” bezeichnet. Im Prinzip kann jede beliebige Anzahl von Komponenten-Bildern einem ”Stitching” unterzogen werden und das resultierende Panorama kann ein Sichtfeld von bis zu 360 Grad oder mehr abdecken.
- Stitching kann rechenintensiv sein. Die Software, die ein Bild-Stitching durchführt, kann beispielsweise Verzeichnungen, wie z. B. Objektivverzeichnung und perspektivische Verzerrung, die in Komponenten-Bildern vorhanden sein können, korrigieren, bevor das Stitching durchgeführt wird. Um außerdem die richtige Ausrichtung und Farbabstimmung zwischen den Komponenten-Bildern zu finden, können vielfache Berechnungen von Korrelationskoeffizienten erforderlich sein, die die ”Güte” der Ausrichtung zwischen Bildsegmenten widerspiegeln. Abweichungen im Farbton, die durch Effekte wie Veränderungen im Blickwinkel und Linsenvignettierung verursacht werden, können korrigiert oder anderweitig berücksichtigt und angepasst werden. Die Zeit, die für die Durchführung des Stitching erforderlich ist, steigt erheblich mit zunehmender Größe oder Auflösung der Komponenten-Bilder.
- Einige moderne digitale Kameras stellen einen Modus bereit, der den Benutzer der Kamera darin unterstützt, eine Auswahl an Komponenten-Photos zum späteren Stitching in eine Panorama-Photographie aufzunehmen. So kann im Panoramamodus beispielsweise ein Bildschirm auf der Kamera vorhanden sein, der den Benutzer darin unterstützt, jedes Komponenten-Photo zum richtigen Überlappen mit einem vorhergehenden Photo in der Auswahl einzustellen, und der folgerichtige Belichtungseinstellungen für alle Komponenten-Photos in einer Auswahl sicherstellen kann.
- Mindestens ein existierendes Modell einer digitalen Kamera kann Stitching an einer Auswahl von ”screen nail”-Bildern mit niedriger Auflösung durchführen, so dass der Photograph bestimmte Probleme, wie eine unzureichende Überlappung in den Komponenten-Bildern, erkennen kann. Ein ”screen nail” kann eine kleine Kopie mit niedriger Auflösung eines digitalen Bildes aufweisen, analog zu einem Vorschaubild (”thumbnail” image), das in der Größe auf ein Kamera-Display passt. Ein typisches screen nail-Bild kann beispielsweise ungefähr 320×240 Pixel aufweisen. Diese Funktion wird in der amerikanischen Patentanmeldung 20060182437 (Hewlett-Packard) beschrieben.
- Bisherige digitale Kameras haben das Stitching von Bildern mit hoher Auflösung oder voller Auflösung indessen nicht in Echtzeit durchgeführt, da die relativ einfachen Prozessoren, die in digitalen Kameras verwendet wurden, die rechenintensiven Stitching-Algorithmen nicht schnell genug durchführen konnten, um eine zufriedenstellende Anwendererfahrung bereitzustelllen. Bisher musste ein Kameranutzer, der mit Komponenten-Bildern mit hoher Auflösung ein Stitching zu einem Panorama durchführen wollte, die Komponenten-Bilder auf einen externen Computer hochladen und für die Durchführung des Stitching Software verwenden, die auf dem Computer ausgeführt wurde. Bei diesem bisherigen Verfahren waren die Nutzung eines Computers notwendig, möglicherweise einschließlich der Installation von zusätzlicher Software auf dem Computer, und der Benutzer konnte das Panorama nicht sofort ausdrucken oder mit anderen teilen.
- In jüngerer Zeit wurde eine Reihe von Verfahren zur Erstellung von Panoramabildern direkt auf einer digitalen Kamera oder in einem tragbaren Bilderfassungsgerät, wie beispielsweise einem Photo-Handy oder Smartphone, beschrieben.
- Als Beispiel beschreibt
US 2009 0022422 von Sorek et al. (Hewlett-Packard) ein Verfahren zur Kombination mindestens eines ersten und zweiten Einzelbildes auf der Basis des Inhaltes der Einzelbilder und das Zusammenführen dieser Einzelbilder in einen umgewandelten Bereich auf der Grundlage einer ausgewählten Ausrichtung, um ein zusammengesetztes Bild zu bilden. Dieses Verfahren benutzt bestimmte gemeinsame Merkmale in jedem Bild und setzt diese ein, um die horizontale und vertikale Ausrichtung zwischen den beiden Bildern zu bestimmen. Das Verbinden der Bilder kann teilweise in dem Bildbereich durchgeführt werden, in dem restliche Verschiebungen durchgeführt werden, und teilweise in dem umgewandelten Bereich, in dem Blockverschiebungen durchgeführt werden können. - Ein weiteres Verfahren zur Erstellung eines Panoramabildes in einer Kamera oder in einem Photo-Handy ist in
US 2009 0021576 von Linder et al. (Samsung) beschrieben (siehe auchUS 2009 0022422 ). Bei diesem Verfahren wird ein Video-Stream verwendet, der in vielen Kameras im Stand der Technik als Grundlage zur Erstellung eines Panoramabildes aufgenommen werden kann. Zunächst wird eine Vielzahl von Videobildern aufgenommen, gefolgt von der Auswahl eines ersten Bildes aus der Bild-/Video-Sequenz. Das Verfahren ermöglicht auch die Erfassung zusätzlicher Standbilder zur Ergänzung der ursprünglichen Videosequenz. Die zusätzlichen Videobilder und Standbilder können durch Stitching mit dem ursprünglichen Bild zusammengeführt werden und eine Überlagerungsausrichtung und/oder Bewegungserkennung kann verwendet werden, um das Stitching-Verfahren zu verbessern. Das Verfahren scheint darauf zu beruhen, dass man den Benutzer der Kamera oder des Photo-Handys anleitet, das Gerät zu bewegen, um weitere Bilder aufzunehmen. Es wird darauf hingewiesen, dass diese veröffentlichte amerikanische Patentanmeldung auch eine sehr detaillierte Übersicht über relevante Literatur aufweist. - Ein weiterer Ansatz ist in
US 2006 0268130 beschrieben, in der ein Verfahren zur Erzeugung eines Panoramabildes aus einer Sequenz von Bildern einer Szene mit relativ niedriger Auflösung in ”Echtzeit” erzeugt wird, wobei das Panoramabild dem Benutzer zur Freigabe angezeigt wird, während gleichzeitig eine entsprechende Sequenz von Bildern mit höherer Auflösung bearbeitet wird, so dass ein Panoramabild mit hoher Auflösung zum Abspeichern verfügbar ist, sobald der Benutzer die Version mit niedriger Auflösung freigegeben hat. Es wird darauf hingewiesen, dass dieses Verfahren ähnlich dem inUS 2009 0021576 beschriebenen ist, indem es seitens des Benutzers die Modifikation und/oder erneute Aufnahme oder die Hinzufügung von Bildern unter der Kontrolle des Benutzers ermöglicht. Beide Anwendungen weisen erhebliche Details von Benutzer-Interfaces auf. - Bilderfassungsgeräte im Stand der Technik können derzeit 720p und höhere HD Videos mit Bildfrequenzen von 60 fps und Standbilder der Abmessung 3000×2000 Pixel aufnehmen. Die Bearbeitungsanforderungen dieser größeren Bilder und die erhöhte Genauigkeit im Zusammenhang mit dem Ausrichten der Bilder, um zu verhindern, dass unansehnliche ”Nähte” auf einem Panoramabild erscheinen, stellen neue Herausforderungen für die Panoramabilderstellung dar, insbesondere wenn gewünscht wird, akzeptable Bilder ohne Intervention von Seiten des Benutzers und in ”Echtzeit” zuverlässig zu erstellen. Neue Herausforderungen ergeben sich auch durch den Wunsch zur Erstellung stereoskopischer (3D) Panoramabilder auf tragbaren Geräten.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
1 veranschaulicht Merkmale eines digitalen Bilderfassungsgerätes, das so ausgeführt ist, dass es gemäß bestimmten Ausführungsarten Hauptbilder mit voller Auflösung und unterabgetastete Bilder oder Bilder mit veränderter Größe aus einer Hauptbilderfassung und Bearbeitungskette erzeugt. -
2 zeigt beispielhafte graphische Darstellungen horizontaler Bildprofile für zwei Einzelbilder einschließlich der graphischen Darstellung der Spaltensummen für jede Reihe für jedes der beiden Einzelbilder, wobei die gezeigten graphischen Darstellungen im wesentlichen überlappen. -
3 zeigt beispielhafte graphische Darstellungen der Profile aus2 nach der Berechnung der Differenzen entlang den Profilen, wobei die gezeigten graphischen Darstellungen auch hier im wesentlichen wieder überlappen. -
4 zeigt eine graphische Darstellung, die die Bewegungsabschätzung zwischen den beiden Einzelbildern aus den2 und3 veranschaulicht. -
5 zeigt eine graphische Darstellung von Pixel Shift gegenüber Bildnummer (frame number) für die horizontale Kamerabewegung, gemessen von Video- oder sequentiellen Einzelbildern. -
6 zeigt eine graphische Darstellung von Pixel Shift gegenüber Bildnummer (frame number) für die vertikale Kamerabewegung, gemessen von Video- oder sequentiellen Einzelbildern. -
7A veranschaulicht drei Bilder, die aus sequentiellen Bildern, die mit einer Kamera aufgenommen wurden, die sich im wesentlichen horizontal und leicht vertikal zwischen Einzelbildern bewegt, durch Stitching zusammengeführt wurden, wobei jedes der drei Bilder mit einem oder zwei angrenzenden Bildern leicht horizontal und im wesentlichen vertikal überlappt. -
7B veranschaulicht ein Panoramabild, das durch Zuschneiden von zwei oder mehr der drei durch Stitching zusammengeführten Bilder aus7A in der vertikalen Richtung erzeugt wurde. -
8 ist eine graphische Darstellung, die den Vergleich eines Referenzprofils mit interpolierten Werten eines verschobenen Profils gemäß bestimmten Ausführungsarten veranschaulicht. -
9 ist eine graphische Darstellung, die Fehleränderungen (changes of error) zwischen Profilen in Bezug auf Sub-Pixel Shift gemäß bestimmten Ausführungsarten veranschaulicht. -
10 veranschaulicht eine Entwicklung zweier Konturen, die sich als Teil eines Prozesses gemäß bestimmten Ausführungsarten über einen Überlappungsbereich zueinander hin ausbreiten. -
11 zeigt ein Panoramabild, das aus zwei Bildern erzeugt wurde, die durch einen Prozess gemäß bestimmten Ausführungsarten ineinander übergehen. -
12 veranschaulicht eine Blendmaske, die bei der Erzeugung des in11 gezeigten Panoramabildes verwendet wurde. -
13 veranschaulicht ein Bildblendverfahren (image blending process) gemäß bestimmten Ausführungsarten. -
14A –14B veranschaulicht die Aufnahme von zwei Bildern durch eine digitale Kamera, die zwischen den Bildaufnahmen um wenige Zentimeter verschoben ist, und die verwendet werden kann, um ein dreidimensionales Komponenten-Bild zu erzeugen und mit weiteren dreidimensionalen Komponenten-Bildern zu verbinden, um ein stereoskopisches Panoramabild zu erzeugen. -
15 veranschaulicht Einzelbilder aus einer Panorama-Abtastsequenz mit relativen horizontalen räumlichen Verlagerungen der digitalen Kamera aus den14A –14B , wo Bildpaare verschmelzen und stereoskopische Panoramabilder bilden. -
16A –16B veranschaulicht eine Beziehung zwischen dem Panorama-Abtastradius und einem weitaus kürzeren Abstand der digitalen Kameraverschiebung zwischen der Aufnahme der zu verschmelzenden Bildpaare, um stereoskopische Panoramabilder zu bilden. -
17 veranschaulicht ein Verfahren zur Erzeugung eines stereoskopischen (3D) Panoramabildes unter Verwendung von linken und rechten Zuschnitten aus einzelnen Schlüsselbildern. - DETAILLIERTE BESCHREIBUNG DER AUSFÜHRUNGSARTEN
- Verfahren werden bereitgestellt zur Erzeugung von stereoskopischen (3D) Panoramabildern. Ein Belichtungswert wird festgelegt zur Erfassung einer Panorama-Abtastsequenz von Bildern mit einem tragbaren Bilderfassungsgerät. Das Bilderfassungsgerät wird über eine Szene geschwenkt. Mehrere, mindestens teilweise überlappende Einzelbilder werden von Teilen der Szene unter Verwendung eines optischen Sensors und eines Bildsensors des tragbaren Bilderfassungsgerätes aufgenommen. Die Einzelbilder werden aufgezeichnet, einschließlich der Bestimmung der Verschiebungen des Bilderfassungsgerätes zwischen den Aufnahmen der Einzelbilder. Mehrere Panoramabilder werden erzeugt, einschließlich dem Verbinden von Einzelbildern der Szene gemäß räumlicher Beziehungen und der Bestimmung stereoskopischer entsprechender Beziehungen zwischen den mehreren Panoramabildern. Die mehreren Panoramabilder werden auf der Grundlage stereoskopischer entsprechender Beziehungen bearbeitet, um ein stereoskopisches Panoramabild zu bilden. Das stereoskopische Panoramabild wird gespeichert, übertragen und/oder angezeigt.
- Zu der Bestimmung von Verschiebungen kann auch das Messen der Verschiebungen gehören. Die Verschiebungen können Verschiebungen in eine, zwei oder drei Dimensionen aufweisen, einschließlich eine oder beide Dimensionen orthogonal zu der Tiefendimension und die Tiefendimension selbst.
- Zu der Bestimmung von stereoskopischen entsprechenden Beziehungen kann folgendes gehören: das Paaren von Einzelbildern mit relativen Verschiebungen innerhalb eines ersten vorgegebenen Bereichs, der so gestaltet ist, dass er einen ausgewählten stereoskopischen Effekt liefert, das Kombinieren von gepaarten Einzelbildern, um stereoskopische Komponenten-Bilder zu bilden, und die Beibehaltung gepaarter Einzelbilder, die eine Überlappung mit angrenzenden gepaarten Einzelbildern innerhalb eines zweiten vorgegebenen Bereichs aufweisen. Der erste vorgegebene Bereich kann 5 bis 7,5 cm betragen.
- Die teilweise Überlappung kann zwischen 10% und 50% Überlappung betragen. Das Verfahren kann weiterhin das verschachtelnde Zusammenfügen von Paaren von Einzelbildern mit Erfassen oder Erzeugen, oder beidem, von nächsten Einzelbildern aufweisen. Der erste vorgegebene Bereich kann auf 15% oder weniger als ein Schwenkradius des Bilderfassungsgerätes begrenzt sein.
- Gemäß bestimmten Ausführungsarten wird während einer einzelnen Abtastung eines digitalen Bilderfassungsgerätes über eine Panoramaszene eine einzelne Auswahl mehrerer überlappender Bilder erfasst. Pixel-Verschiebungen von Einzelbild zu Einzelbild zwischen jedem dieser mehreren Bilder werden während dieser Abtastung bestimmt. Diese können sich auf eine tatsächliche physische Verschiebung der Kamera durch eine vorgegebene Kalibrierung beziehen; in manchen Ausführungsarten kann die Kamera Untersysteme zur Bewegungserkennung aufweisen, die als Alternative zur Messung von Pixel-Verschiebungen von Einzelbild zu Einzelbild verwendet werden können.
- Ein erstes Panoramabild der abgetasteten Szene kann erstellt werden, indem diesem Grundbild (foundation image) weitere Bilder hinzugefügt werden. Ein zweites Schlüsselbild wird dann bestimmt, das eine relative physische Verschiebung zu dem ersten Schlüsselbild aufweist. In einer Ausführungsart kann die Verschiebung in einem Bereich zwischen 5 bis 7,5 cm liegen, was in der Größenordnung des Abstandes der menschlichen Augen liegt, obwohl andere Abstände ebenfalls ausreichen, um einen stereoskopischen Effekt zu liefern.
- Ausführungsarten mit verschiedenen Verschiebungsabständen werden nachstehend unter Bezugnahme auf die
14A bis17 beschrieben. - Die relative physische Verschiebung kann von der relativen Pixel-Verschiebung von Einzelbild zu Einzelbild bestimmt werden oder durch Bestimmung einer relativen Bewegung der Kamera, wenn diese Untersysteme zur Bewegungserkennung aufweist, oder einer Kombination daraus. Die vertikale Pixel-Verschiebung dieses zweiten Grundbildes relativ zu dem ersten Grundbild kann ebenfalls bestimmt und aufgezeichnet werden. Dies ist erforderlich, um das zweite Panoramabild mit dem ersten Panoramabild in einem tragbaren Gerät vertikal auszurichten. Ein zweites, verschobenes Panoramabild derselben abgetasteten Szene kann erstellt werden. Die beiden Panoramabilder werden vertikal ausgerichtet und zugeschnitten, um nicht überlappende Bereiche zu eliminieren. Sie können dann in ein stereoskopisches Standardbildformat umgewandelt werden und können wahlweise komprimiert werden. Das resultierende stereoskopische Panoramabild wird abgespeichert, übertragen und/oder angezeigt. Weitere Verfahren zum Erfassen eines Panoramabildes unter Verwendung eines tragbaren Bilderfassungsgerätes werden mit dieser Beschreibung bereitgestellt. Bei einem Verfahren wird ein Belichtungswert festgelegt zur Erfassung des Panoramabildes mit dem tragbaren Bilderfassungsgerät. Das Bilderfassungsgerät wird über eine Panoramaszene geschwenkt. Mindestens zwei Einzelbilder mit relativ niedriger Auflösung mit überlappenden Abschnitten der Panoramaszene werden erfasst und bearbeitet. Die Bearbeitung umfasst das Sichten und Beibehalten einer Auswahl von Einzelbildern mit relativ niedriger Auflösung. Eine relative Verschiebung zwischen jedem Bild der Auswahl an Einzelbildern mit relativ niedriger Auflösung wird bestimmt. Eine annäherungsweise optimale Stitch-Linie wird ebenfalls zwischen jedem Bildpaar der Einzelbilder mit relativ niedriger Auflösung festgelegt. Dieses Verfahren umfasst auch das Erfassen und Speichern einer Auswahl von Hauptbildern entsprechend der Auswahl an Einzelbildern mit relativ niedriger Auflösung. Die Hauptbilder werden auf der Grundlage relativer Verschiebungen entsprechender Bilder der Auswahl an Bildern mit relativ niedriger Auflösung aufgezeichnet oder ausgerichtet, oder beides. Eine oder mehrere annähernd optimale Stitch-Linien, die für Bildpaare mit niedriger Auflösung festgelegt sind, werden auf ein entsprechendes Paar oder mehrere entsprechende Paare aufgezeichneter und/oder ausgerichteter Hauptbilder abgebildet, die zusammengefügt sind, um ein Haupt-Panoramabild zu bilden.
- Die Bestimmung einer annähernd optimalen Stitch-Linie kann auch die Bestimmung einer Alpha Blending Map in der Nähe der annähernd optimalen Stitch-Linie umfassen. Das Mapping oder Abbilden der annähernd optimalen Stitch-Linie auf die Bilder mit hoher Auflösung kann das weitere Abbilden der Blending Map umfassen, wobei das Verbinden der Bilder mit hoher Auflösung das Blenden (blending) der Bilder auf der Grundlage des Abbildens (mapping) der Alpha Blending Map umfasst. Das Verbinden kann das Blenden (blending) der Auswahl an Hauptbildern, einschließlich Abbilden der Alpha Blending Map für eine Reihe der Einzelbilder mit relativ niedriger Auflösung auf eine Hauptreihe von Einzelbildern umfassen.
- Eines oder mehrere der Komponenten-Einzelbilder, die zusammengefügt werden, um das Panoramabild zu bilden, können zugeschnitten sein. Eine Auswahl von zwei, drei oder mehr Einzelbildern mit niedriger Auflösung können aus Komponenten-Teilen der Szene erfasst sein. Ein Benutzer kann informiert und/oder ein Bild kann verworfen werden, wenn eine horizontale Überlappung zwischen aufeinander folgenden Bildern außerhalb eines vorgegebenen Bereichs fällt.
- Das Verfahren kann auch die Durchführung der Subpixel-Bild-Abstimmung an den Bildern mit relativ niedriger Auflösung umfassen, um Pixelversatz bei dem Abbilden der Alpha Blending Map für die Reihe mit relativ niedriger Auflösung auf die Hauptreihe zu verhindern. Das Zusammenfügen von Paaren digitaler Bilder der Hauptreihe kann verschachtelt werden mit der Subpixel-Abstimmung von Bildern mit relativ niedriger Auflösung und/oder mit dem Erfassen und/oder Erzeugen und/oder Zusammenfügen entsprechender Paare von Bildern mit relativ niedriger Auflösung.
- Ein weiteres Verfahren der Erzeugung eines Panoramabildes unter Verwendung eines tragbaren Bilderfassungsgerätes umfasst die Festlegung eines Belichtungswertes für die Erfassung des Panoramabildes unter Verwendung des tragbaren Bilderfassungsgerätes, und das Schwenken des Bilderfassungsgerätes über eine Panoramaszene. Eine Auswahl von mindestens zwei Einzelbildern überlappender Abschnitte des Panoramabildes wird erfasst und unter Verwendung eines optischen Sensors und eines Bildsensors des tragbaren Bilderfassungsgerätes bearbeitet. Die Bearbeitung umfasst das Sichten und Beibehalten einer Auswahl von Einzelbildern einschließlich eines oder mehrerer überlappender Paare von Einzelbildern. Eine relative Verschiebung wird zwischen jeder der Auswahl von überlappenden Einzelbildern bestimmt, einschließlich der Bestimmung eines überlappten Bereichs für jedes Bildpaar. Die Bilder der Auswahl werden auf der Grundlage der relativen Verschiebungen aufgezeichnet und/oder ausgerichtet. Eine Alpha Blending Map und/oder eine optimale Stitch-Linie wird für jedes Paar der überlappenden Einzelbilder bestimmt. Das eine oder die mehreren Paare von Einzelbildern werden zusammengefügt, um ein Panoramabild zu bilden, das gespeichert, übertragen und/oder angezeigt wird.
- Die Bestimmung der relativen Verschiebung kann die Bestimmung der relativen horizontalen Verschiebung zwischen einem Bildpaar einer Auswahl überlappender Einzelbilder umfassen. Die Pixelwerte in den Bildspalten können über die ersten und zweiten Bilder hinweg addiert werden, um ein horizontales Bildprofil für jedes Bild zu bestimmen. Ein Spaltendifferenzprofil kann über jedes der Bilder hinweg bestimmt werden. Eine relative Fehlerfunktion kann gemäß den Bildspaltendifferenzprofilen zwischen dem Bildpaar bestimmt werden. Ein Minimum der relativen Fehlerfunktion zeigt eine relative Anzahl von Pixelspalten horizontaler Verschiebung zwischen dem Bildpaar an.
- Die Bestimmung relativer Verschiebung kann weiterhin die Bestimmung der relativen vertikalen Verschiebung zwischen dem Bildpaar der Auswahl überlappender Einzelbilder umfassen. Die Pixelwerte in Bildreihen können über jedes der ersten und zweiten Bilder hinweg addiert werden, um ein vertikales Bildprofil für jedes Bild zu bestimmen. Ein Reihendifferenzprofil kann über jedes der Bilder hinweg bestimmt werden. Eine relative Fehlerfunktion kann gemäß den Bildreihendifferenzprofilen zwischen dem Bildpaar bestimmt werden. Ein Minimum der relativen Fehlerfunktion zeigt eine relative Anzahl von Pixelreihen vertikaler Verschiebung zwischen dem Bildpaar an.
- Eine Glättungsfunktion kann vor der Berechnung der relativen Fehlerfunktion zwischen dem Bildpaar auf die Spalten- und/oder Reihendifferenzprofile jedes Bildes angewendet werden.
- Das Zusammenfügen wird mit Hilfe der Alpha Blending Map oder der optimalen Stitch-Linie oder beidem durchgeführt.
- Das Zusammenfügen kann auf der Bestimmung sowohl der annähernd optimalen Stitch-Linie als auch der Alpha Blending Map basieren. Die annähernd optimale Stitch-Linie kann ein ungefähr 50%iges blending ratio zwischen überlappten Pixel des Bildpaares umfassen, und die Map kann ein blending ratio für überlappte Pixel von dem Bildpaar in der Nähe der annähernd optimalen Stitch-Linie bereitstellen.
- Das Verfahren kann auch das verschachtelnde Zusammenfügen von Paaren von Einzelbildern mit Erfassen und/oder Erzeugen von nächsten Einzelbildern aufweisen. Das Panoramabild kann auch auf eine einheitliche vertikale Höhe zugeschnitten sein.
- Ein Super-Auflösungsverfahren wird bereitgestellt zum Erzeugen eines Panoramabildes unter Verwendung eines tragbaren Bilderfassungsgerätes einschließlich eines optischen Sensors, Bildsensors und Prozessors. Ein Belichtungswert wird festgelegt zur Erfassung des Panoramabildes mit dem tragbaren Bilderfassungsgerät. Das Bilderfassungsgerät wird über eine Panoramaszene geschwenkt. Zwei oder mehr Sätze von Bildern werden erfasst und bearbeitet, wobei jeder mindestens zwei Einzelbilder von Teilen der Panoramaszene aufweist. Das Verfahren umfasst das Sichten und Beibehalten mehrerer Bilder der beiden oder mehr Sätze. Eine relative Verschiebung wird zwischen jedem Paar benachbarter Einzelbilder innerhalb jedes der beiden oder mehr Sätze von Einzelbildern bestimmt. Das Verfahren umfasst auch das Abstimmen von Bildern innerhalb des Bildsatzes relativ zueinander. Jeder der zwei oder mehr Sätze wird zusammengefügt, um zwei oder mehr im wesentlichen überlappende Panoramabilder zu bilden. Diese werden miteinander verbunden, um ein Panoramabild mit höherer Auflösung von im wesentlichen derselben Szene zu bilden, das gespeichert, übertragen und/oder angezeigt wird.
- Das Verbinden der zwei oder mehr im wesentlichen überlappenden Panoramabilder kann die Anwendung eines Super-Auflösungsverfahrens umfassen. Das Zuschneiden des Panoramabildes mit höherer Auflösung kann das Entfernen eines oder mehrerer nicht überlappender Bereiche aus einem oder mehreren Komponenten-Panoramabildern umfassen.
- Das Verfahren kann auch die Bestimmung einer relativen Verschiebung zwischen einem ersten oder ansonsten entsprechenden, erfassten Einzelbild jedes der beiden oder mehr Sätze von Einzelbildern aufweisen. Ein kombiniertes oder verbundenes Panoramabild, das aus Bildern jedes der zwei oder mehr Sätze stammt, kann aufgezeichnet werden.
- Das Verfahren kann ein verschachteltes Verbinden von Paaren von Einzelbildern mit dem Erfassen und/oder Erzeugen nächster Einzelbilder aufweisen.
- Ein weiteres Verfahren des Erzeugens eines Panoramabildes wird bereitgestellt, einschließlich des Schwenkens über eine Szene eines mit einem Prozessor ausgestatteten Gerätes zur Erfassung digitaler Bilder. Während des Schwenkens werden mehrere Bilder einer Hauptreihe mit dem Gerät erfasst. Jedes der mehreren Bilder enthält einen anderen Winkelbereich der Panoramaszene. Während des Schwenkens werden auch Bilder mit relativ niedriger Auflösung entsprechend den mehreren Bildern der Hauptreihe erfasst und/oder die Bilder der Hauptreihe werden unterabgetastet, um die Bilder mit relativ niedriger Auflösung herzustellen. Die Bilder mit relativ niedriger Auflösung werden zusammengefügt, um ein Panorama mit niedriger Auflösung zu bilden, das angezeigt wird. Die mehreren Bilder der Hauptreihe werden auf der Grundlage der Zusammenfügung der Bilder mit relativ niedriger Auflösung in dem Gerät in Echtzeit zusammengesetzt, um ein Panoramabild der Hauptreihe zu bilden.
- Das Zusammenfügen kann folgendes aufweisen: das Stitching und/oder Anpassen von Belichtung, Farbabstimmung oder Bildhelligkeit, oder Kombinationen daraus, das Ausrichten und/oder Abstimmen der Kantenbereiche von Bildern, und das Blenden von angepassten, abgestimmten Bildern. Das Blenden kann auch das Verwischen einer Nahtlinie umfassen, die zwischen angrenzenden Komponenten-Bildern des Panoramabildes erzeugt wird.
- Ein Belichtungswert kann festgelegt werden, um das Panoramabild mit dem tragbaren Bilderfassungsgerät zu erfassen. Das Zusammenfügen kann das Ausrichten und/oder Abstimmen von Kantenbereichen von Bildern und das Blenden angepasster, ausgerichteter Bilder aufweisen. Das Blenden kann auch das Verwischen einer Nahtlinie umfassen, die zwischen angrenzenden Komponenten-Bildern des Panoramabildes erzeugt wird.
- Das Zusammensetzen kann die Bewertung einer umfassenden Bewegung des Schwenkens und die Bestimmung aufweisen, ob die umfassende Bewegung ausreicht.
- Das Zusammensetzen kann die Bewertung einer relativen Verschiebung der Szene und die Bestimmung aufweisen, ob die relative Verschiebung der Szene ausreicht. Das Verfahren kann beinhalten, dass ein Benutzer informiert wird, dass ein Bild oder mehrere Bilder verworfen werden und/oder dass das Verfahren unterbrochen wird, wenn bestimmt wird, dass die relative Verschiebung der Szene unzureichend ist. Die relative Verschiebung der Szene kann als ausreichend bestimmt werden, wenn die Überlappung von Einzelbild zu Einzelbild einen Bereich zwischen 10% und 40% oder zwischen 20% und 30% aufweist, oder als unzureichend, wenn sie außerhalb eines vorgegebenen Bereichs wie beispielsweise 10% bis 40%, 20% bis 30% liegt, oder auf andere Art und Weise unzureichend ist.
- Das Verfahren kann mit oder ohne Intervention seitens des Benutzers und mit oder ohne Messung der Bewegung des Gerätes durchgeführt werden. Das Panoramabild kann vor dem Abspeichern komprimiert werden.
- Das Zusammenfügen der Bilder mit relativ niedriger Auflösung kann die Erzeugung einer Alpha Blending Map aufweisen und die Alpha Blending Map kann bei dem Zusammenfügen der Bilder der Hauptreihe verwendet werden.
- Ein weiteres Verfahren wird für die Erzeugung eines Panoramabildes bereitgestellt. Das Verfahren umfasst die Verwendung eines Bilderfassungsgerätes auf Prozessorbasis, das sowohl für die Erfassung einer Hauptreihe von digitalen Bildern einer Panoramaszene als auch für die Erzeugung und/oder Erfassung einer Reihe von Bildern mit relativ niedriger Auflösung entsprechend der Hauptreihe konfiguriert ist. Das Gerät wird über eine Panoramaszene geschwenkt. Während des Schwenkens wird die Hauptreihe digitaler Bilder mit dem Gerät erfasst. Jede der Hauptreihen digitaler Bilder enthält einen anderen Winkelbereich der Panoramaszene. Die Reihe von Bildern mit relativ niedriger Auflösung entspricht im wesentlichen derselben Panoramaszene während die digitalen Bilder der Hauptreihe erfasst und/oder erzeugt werden. Bilder der Reihe von Bildern mit relativ niedriger Auflösung werden zusammengefügt, um ein Panoramabild mit relativ niedriger Auflösung zu bilden. Ein Abbild (map) des Zusammenfügens der Reihe von Bildern mit relativ niedriger Auflösung wird erzeugt. Die Hauptreihe digitaler Bilder wird auf der Grundlage des Abbildes zusammengefügt, um ein Haupt-Panoramabild zu bilden, das angezeigt, gespeichert, weiter bearbeitet und/oder übertragen wird.
- Das Verfahren kann weiterhin die Bewertung einer relativen Verschiebung der Szene während des Schwenkens umfassen. Teile der Panoramaszene können während des Schwenkens teilweise zumindest auf der Grundlage der Bewertung der relativen Verschiebung der Szene gezielt erfasst werden. Das Verfahren kann beinhalten, dass ein Benutzer informiert wird, dass ein Bild oder mehrere Bilder verworfen werden und/oder dass das Verfahren unterbrochen wird, wenn bestimmt wird, dass die relative Verschiebung der Szene unzureichend ist, beispielsweise wenn bestimmt wird, dass die Überlappung von Einzelbild zu Einzelbild außerhalb eines Bereichs zwischen 10% und 40%, oder 20% und 30% oder einer anderen Reihe oder ausgewähltem Bereich liegt.
- Zum Bewerten der relativen Verschiebung der Szene kann die Bewertung der mehrdimensionalen Verschiebung für multiple Bildpaare gehören. Horizontaler Versatz (lange Panoramabildabmessung) und vertikaler Versatz können zwischen aufeinander folgenden Bildern in der Reihe auf der Grundlage der Bewertung der relativen Verschiebung der Szene bestimmt werden. Ein Bild der Reihe kann verworfen werden, wenn es weniger als einen horizontalen Schwellenversatz zu einem vorhergehenden Bild der Reihe aufweist. Der Benutzer kann informiert werden, wenn das Schwenken des Gerätes eine Schwellenbewegung nicht überschreitet. Der Benutzer kann auch informiert werden und/oder ein Bild der Reihe kann verworfen werden, wenn ein vertikaler Versatz einen Schwellenversatz zu einem anderen Bild der Reihe überschreitet.
- Das Zusammenfügen von Bildern der Hauptreihe und Bildern mit relativ niedriger Auflösung kann auch das Stitching umfassen. Das Stitching kann auch das Ausrichten und/oder Abstimmen von Kantenbereichen von Bildern und das Blenden von angepassten, abgestimmten Bildern umfassen. Ein Belichtungswert kann festgelegt werden für das Erfassen des Panoramabildes mit dem tragbaren Bilderfassungsgerät und/oder das Zusammenfügen kann auch ein Anpassen von Belichtung, Farbabstimmung und/oder Bildhelligkeit aufweisen. Das Blenden kann auch das Verwischen einer Nahtlinie umfassen, die zwischen angrenzenden Komponenten-Bildern des Panoramabildes erzeugt wird.
- Das Abbild (map) kann eine Alpha Blending Map aufweisen, einschließlich Informationen über annähernd optimale Stitching-Nähte, die aus dem Zusammenfügen der Bilder mit relativ niedriger Auflösung bestimmt wurden. Das Zusammenfügen der Hauptreihe kann das Abbilden der Alpha Blending Map für die Reihe mit niedriger Auflösung auf die Hauptreihe umfassen. Das Verfahren kann die Subpixel-Bild-Abstimmung der Bilder mit relativ niedriger Auflösung umfassen, um das Auftreten von Pixelversatz während des Abbildens der Alpha Blending Map für die Reihe mit relativ niedriger Auflösung auf die Hauptreihe zu verhindern. Das Zusammenfügen der Reihe von Bildern mit relativ niedriger Auflösung und/oder der Hauptreihe kann teilweise auf der Bewertung der relativen Verschiebung der Szene beruhen.
- Ein tragbares, kamerafähiges Gerät, das in der Kamera ein Panoramabild erzeugen kann, wird ebenfalls bereitgestellt, einschließlich eines Objektivs, eines Bildsensors, eines Prozessors und eines prozessorlesbaren Datenträgers mit eingebettetem Code zum Programmieren des Prozessors, um beliebige der hierin beschriebenen Verfahren der Panoramabilderzeugung durchzuführen.
- Prozessorlesbare Speichermedien werden ebenfalls bereitgestellt, die eingebetteten Code aufweisen für die Programmierung eines Prozessors, um beliebige der hierin beschriebenen Verfahren der Panoramabilderzeugung durchzuführen.
- Ein Verfahren wird vorgestellt zur Erzeugung eines Panoramabildes mit hoher Auflösung in einem digitalen Bilderfassungsgerät, das entweder HD Videobilder oder Standbilder mit hoher Auflösung erfassen kann. Das Verfahren wird ohne Intervention seitens des Benutzers, und ohne dass die externe Messung von Bewegung des Bilderfassungsgerät erforderlich ist, durchgeführt. Außerdem wird das Verfahren in ”Echtzeit” und unter Berücksichtigung der begrenzten Speicherressourcen auf diesen Geräten durchgeführt, die im allgemeinen nur eine kleine Anzahl von Videobildern mit hoher Auflösung oder Standbildern gleichzeitig speichern können.
- In dem Verfahren schwenkt der Benutzer das Gerät mit natürlicher Geschwindigkeit über eine Szene, von der er ein Panoramabild aufzeichnen möchte. Das Gerät zeigt die Szene an, während der Benutzer in der gleichen Art und Weise über sie schwenkt, wie er es tun würde, wenn er eine normale Videosequenz aufnehmen wollte.
- Das Verfahren umfasst die Erfassung oder Erzeugung einer Sequenz von Bildern mit niedrigerer Auflösung als die Haupt-Videobilder oder Haupt-Standbilder mit hoher Auflösung. Ein kamerafähiges Gerät kann Hardware aufweisen, die einen preview stream (Vorschau-Stream) erzeugt, eine Sequenz von Bildern mit niedriger Auflösung, die meistens dazu verwendet wird, um eine Echtzeit-Anzeige der von dem Bildsensor erfassten Daten bereitzustellen. Wenn dieser preview stream nicht verfügbar ist, kann ein Gerät immer noch eine ”Bild-Unterabtasteinheit” besitzen, die fast augenblicklich eine Version des Vollbildes oder Videobildes mit niedrigerer Auflösung erzeugen kann.
-
1 veranschaulicht ein digitales Bilderfassungsgerät, das so konfiguriert ist, dass es Hauptbilder mit voller Auflösung erfasst und unterabgetastete Bilder (mit veränderter Größe) aus der Hauptbilderfassungs- und bearbeitungskette erzeugt. Ein Sensor102 erfasst ein Bild mit voller Auflösung und die Bilddaten werden auf die Sensorbearbeitung104 und eine Bilderfassungs-Pipeline106 angewandt. Ein Bild-Unterabtaster108 erzeugt unterabgetastete Bilder aus Bilddaten mit voller Auflösung, beispielsweise durch Auswahl nur einer Fraktion 1/n der Gesamtpixel in den Bilddaten mit voller Auflösung, oder er liefert ansonsten ein unterabgetastetes Bild, beispielsweise bei dem jedes Pixel des unterabgetasteten Bildes n Pixel des Bildes mit hoher Auflösung repräsentiert. Die Bilder mit hoher Auflösung können bei110 mit JPEG komprimiert werden. Die komprimierten Bilder in voller Größe111 können zusammen mit den unterabgetasteten Bildern114 in einem Speicher112 , bei dem es sich um einen temporären Bildspeicher112 handeln kann, gespeichert werden. Ein Panoramabild116 mit niedriger Auflösung kann erzeugt und temporär in dem Bildspeicher112 gespeichert werden, indem man zwei oder mehr der unterabgetasteten Bilder114 zusammenfügt. Das Panoramabild116 mit niedriger Auflösung kann angezeigt werden, muss aber nicht angezeigt werden. Ein Bild-Postprozessor118 erzeugt ein Panoramabild120 mit hoher Auflösung auf der Grundlage der Informationen, die bei der Erzeugung des Panoramabildes116 mit niedriger Auflösung gesammelt wurden, wodurch Rechenressourcen vorteilhafterweise eingespart werden. Das Panoramabild120 mit hoher Auflösung kann in einem Bildspeicher122 , wie beispielsweise einer SD-Karte oder Äquivalent, zusammen mit den Bildern in voller Größe111 abgespeichert werden. - Die Bilder mit niedriger Auflösung können gemäß einer weiteren Ausführungsart wie folgt bearbeitet werden. Zunächst kann man ein erstes Bild oder Videobild mit niedriger Auflösung erhalten, das als ein erstes Referenz-Einzelbild verwendet wird. Das entsprechende Bild mit hoher Auflösung wird gespeichert. Als nächstes kann man in bestimmten Ausführungsarten weitere Bilder mit niedriger Auflösung erhalten, und ein optionales Verfahren der Bewertung der umfassenden Bewegung, wie es beispielsweise in der veröffentlichten amerikanischen Patentanmeldung 2008/0309769 beschrieben ist, kann zwischen dem Referenz-Einzelbild und jedem zusätzlichen Einzelbild angewendet werden, um ihren horizontalen und vertikalen Versatz zu bestimmen. Wenn der horizontale Versatz geringer ist als ein vorgegebener Bereich, dann kann das Einzelbild mit niedriger Auflösung zusammen mit dem entsprechenden Bild mit hoher Auflösung verworfen werden. In bestimmten Ausführungsarten (beispielsweise einer Photokamera) kann es sein, dass das entsprechende Bild mit hoher Auflösung noch nicht fertiggestellt ist. In diesen Fällen kann die Erfassung des Bildes mit hoher Auflösung einfach beendet und eine neue Erfassung kann begonnen werden.
- Wenn eine ausreichende horizontale Bewegung nicht innerhalb eines bestimmten Zeitrahmens erreicht ist, kann der Prozess angehalten und/oder eine Fehlermeldung kann angezeigt werden, beispielsweise wie ”Kamera vom Benutzer nicht geschwenkt”. Alternativ kann dem Benutzer ein Warnton angezeigt werden, schneller zu schwenken. Wenn der vertikale Versatz eine vorgegebene Schwelle überschreitet, kann eine Fehleranzeige bereitgestellt werden, um den Benutzer zu warnen, dass sie ”abdriften”. Bei bestimmten Ausführungsarten ist keine Benutzeranweisung vorhanden, während der Benutzer das Gerät mit einer angemessenen Geschwindigkeit in dem Panoramaprozess über eine Szene schwenkt.
- Sobald ein vorgegebener horizontaler Versatz erreicht ist, beispielsweise kann die Überlappung von Einzelbild zu Einzelbild eingestellt sein, z. B. in einer Ausführungsart zwischen 10 und 30% und 20 und 40% oder zwischen 20% und 30%, dann wird dieses Einzelbild beibehalten und das entsprechende Bild mit hoher Auflösung wird gespeichert. Dieses beibehaltene Einzelbild wird das nächste Referenzbild und der Prozess wird wiederholt.
- Nachdem eine ausreichende Anzahl überlappender Einzelbilder auf der Grundlage entweder einer Auswahl durch den Benutzer, einer voreingestellten Begrenzung oder aufgrund einer Begrenzung des Gerätespeichers bestimmt worden ist, wird der Erfassungsprozess angehalten. Die Bilder mit niedriger Auflösung werden als nächstes mit Hilfe eines Verfahrens ”zusammengefügt”, das für eingebettete Geräte mit geringen Ressourcen besonders effektiv ist. Das resultierende Bild mit niedriger Auflösung wird dann zugeschnitten und kann wahlweise zur Annahme durch den Benutzer angezeigt werden.
- Am Endes des Zusammenfügungsprozesses der Bilder mit niedriger Auflösung zur Bildung eines Panoramas mit niedriger Auflösung kann für das Zusammenfügen der überlappenden Bereiche zwischen angrenzenden Paaren mit niedriger Auflösung oder Referenz-Einzelbildern in dem Panorama eine Alpha Blending Map erstellt werden. Dieselbe Map (Abbild) kann dann vorteilhafterweise verwendet werden, um entsprechende Bilder mit hoher Auflösung für die Erstellung eines Panoramabildes mit hoher Auflösung zusammenzufügen. Die Verwendung dieser Alpha Blending Map bedeutet, dass die Zusammenfügungs-Algorithmen für die Bilder mit hoher Auflösung nicht wiederholt werden müssen, was sonst ressourcenintensiv wäre, da eine ”optimale Naht” zwischen jedem Bildpaar aus dem Zusammenfügen der Bilder mit niedriger Auflösung vorteilhafterweise bereits bestimmt worden ist.
- Ein Verfahren der Durchführung von Subpixel-Bild-Abstimmung an Bildern mit niedriger Auflösung wird bei bestimmten Ausführungsarten ebenfalls bereitgestellt, um sicherzustellen, dass Pixelversatz nicht auftritt, wenn die Alpha Blending Map von den Bildpaaren mit niedriger Auflösung auf die Bildpaare mit hoher Auflösung abgebildet wird. Das Panoramabild mit hoher Auflösung wird dann in JPEG komprimiert und abgespeichert.
- Bei bestimmten Ausführungsarten kann das Zusammenfügen von Paaren mit niedriger Auflösung mit der Erfassung von neuen Einzelbildern mit niedriger Auflösung verschachtelt werden. Bei anderen Ausführungsarten, wo innerhalb der Bilderfassungskette genügend Hardwareunterstützung vorhanden ist, kann das Zusammenfügen und die JPEG-Komprimierung von Teilen der Bilder mit hoher Auflösung auch mit der Erfassung, Abstimmung und Zusammenfügung von Bildern mit niedriger Auflösung verschachtelt werden.
- BILD-STITCHING
- Das Bild-Stitching, wie es auf die Erzeugung eines Panoramabildes gemäß bestimmten Ausführungsarten angewendet wird, kann einen oder alle der nachfolgenden Schritte aufweisen:
- 1. Bildkalibrierung, einschließlich perspektivischer Korrektur, Vignettierungskorrektur und/oder Korrektur der chromatischen Aberration, wobei die Bilder in diesem optionalen Stadium bearbeitet werden können, um die Ergebnisse zu verbessern.
- 2. Bildabstimmung, einschließlich Analyse für Verschiebung, Rotation und/oder Brennweite, wobei direkte oder merkmalsbasierte Bildausrichtungsverfahren verwendet werden können. Direkte Ausrichtungsverfahren können nach Bildorientierungen suchen, die die Summe absoluter Differenzen zwischen überlappenden Pixels minimieren. Merkmalsbasierte Verfahren bestimmen die richtigen Bildorientierungen durch Erkennen von Merkmalen, die in vielen Bildern erscheinen, und indem sie diese überlappen.
- 3. Bildblenden oder das sonstige Kombinieren der Abschnitte kann eine oder alle der nachfolgenden Aktionen aufweisen: Farbkorrektur, einschließlich das Anpassen angrenzender Bereiche von Komponenten-Bildern hinsichtlich Farbe, Kontrast und/oder Helligkeit, um die Sichtbarkeit der Nähte zu vermeiden; Erweiterung des dynamischen Bereichs; und/oder Bewegungsausgleich, Entfernen von Geisterbildern (deghosting) und/oder Schärfen, um sich bewegende Objekte zu kompensieren.
- Verfahren gemäß bestimmten Ausführungsarten umfassen nicht Schritt 1 und legen stattdessen die Kamerabelichtung vor dem Erfassen einer Bildsequenz fest, die in ein Panoramabild verarbeitet wird. Zusätzlich kann die Bildabstimmung bei bestimmten Ausführungsarten die Bestimmung der relativen Verschiebung von Bildern eher basierend auf der umfassenden Bildanalyse von Bildreihen und Bildspalten als auf eingegrenzter Analyse Pixel für Pixel umfassen, was mit einer Berechnung verbunden sein kann, die für Pixel eines jeden angrenzenden Bildes durchzuführen ist.
- In Schritt 3 können die Farbkorrektur und/oder die Analyse lokaler Kontrast- und/oder Helligkeitsstufen in Ausführungsarten eliminiert werden, bei denen eine Alpha Blending Map und/oder eine Bildnaht in einem einzigen Vorgang bestimmt werden.
- Vorteilhafterweise können Verfahren gemäß bestimmten Ausführungsarten ohne bestimmte Schritte, bei denen es sich sonst um Standardschritte handelt, die in herkömmlichen Bild-Stitching-Algorithmen verwendet werden, durchgeführt werden, und/oder während man bestimmte Schritte vereinfacht, um ein Verfahren bereitzustellen, das für die Implementierung in einem eingebetteten Computersystem mit eventuell geringem Systemspeicher und/oder geringen Rechenressourcen besonders geeignet ist. Als solches kann ein Stitching-Verfahren gemäß bestimmten Ausführungsarten eventuell als ”Zusammenfügen” bezeichnet werden, weil es sich von herkömmlichen Stitching-Algorithmen so stark unterscheidet.
- AUTOMATISCHE PANORAMA-BILDGEBUNG
- Um ein automatisches Panoramabild zu erzeugen, das wenig oder keine Eingabe durch den Benutzer verlangt, kann das Folgende gemäß bestimmten Ausführungsarten angewendet werden. Um sicherzustellen, dass alle erforderlichen Bilder ohne Notwendigkeit für bedeutende Farb- oder Farbtonanpassungen zwischen den Bildern miteinander kombiniert werden können, wird vor der Erfassung der Hauptauswahl von zu bearbeitenden Bildern zunächst ein Belichtungswert auf dem Bilderfassungsgerät festgelegt. Der Wert kann einfach auf einen Wert festgelegt werden, der für die Erfassung des ersten Einzelbildes der Panoramasequenz geeignet ist. In anderen Ausführungsarten kann es dem Benutzer möglich sein, den Belichtungswert manuell zu erhöhen oder zu reduzieren. In einer alternativen Ausführungsart kann der Benutzer aufgefordert werden, ein Vorscannen (prescan) der Panoramaszene durchzuführen, so dass ein durchschnittlicher Belichtungswert über die gesamte Szene hinweg festgelegt werden kann. Dieses Vorscannen (prescan) kann auch beinhalten, dass das Photo-Handy die Panoramaszene vor der Hauptabtastung und Erfassung abtastet.
- Eine zweite Phase der Panoramaerzeugung gemäß bestimmten Ausführungsarten beinhaltet, dass der Benutzer das Gerät mit einer normalen Geschwindigkeit über eine Szene schwenkt oder abtastet, von der er ein Panoramabild aufnehmen möchte. Das Gerät kann die Szene wahlweise in Echtzeit anzeigen, während der Benutzer über sie hinwegschwenkt, in der gleichen Art und Weise Art und Weise, wie er es tun würde, wenn er eine normale Videosequenz oder ein Standbild aufnimmt. Am Ende dieses Abtastens oder Schwenken kann der Erfassungsprozess auf eine der folgenden Arten enden: indem man feststellt, dass (i) es zwischen aufeinander folgenden Einzelbildern keine Veränderung (oder Veränderung unterhalb einer Schwelle) gibt (der Benutzer hält die Kamera in einer festen Position; (ii) keine Ähnlichkeit (oder Ähnlichkeit unterhalb einer Schwelle) zwischen aufeinander folgenden Einzelbildern gibt (der Benutzer bewegt die Kamera sehr schnell zu einem anderen Sichtfeld); (iii) es eine plötzliche Bewegung der Kamera gibt (bei Kameras, die mit einem Bewegungssensor ausgestattet sind); (iv) ein Schalter niedergedrückt oder ein Totmannschalter (”deadman” switch) ausgelöst ist; (v) ein Zeitintervall verstrichen ist; (vi) ein Schwellenwert der Haupt-Einzelbilder erreicht ist oder die Speicherkapazität des Gerätes erschöpft ist, oder verschiedene Kombinationen aus den obigen Ereignissen.
- Während das Photo-Handy Bilder während der Panoramaabtastung erfasst, kann es diese Bilder konstant bearbeiten, so dass ein Panorama-Vollbild in Echtzeit erfasst werden kann. Während dieser Bearbeitung können viele der erfassten Bilder gemäß bestimmter Ausführungsarten in einem Sichtprozess verworfen werden, während jene, die für das endgültige Panorama relevant sind, beibehalten werden. Außerdem können diese Bilder in Echtzeit abgestimmt werden. An den abgestimmten Bildern kann ein Blenden (blending) durchgeführt werden.
- Bei bestimmten Ausführungsarten kann das Sichten, die Abstimmung und das erste Blenden (blending) an unterabgetasteten Versionen der erfassten Hauptbilder oder Haupt-Videobilder durchgeführt werden.
- Der Sichtprozess kann dazu führen, dass die entsprechenden Haupt-Einzelbilder beibehalten oder sofort verworfen werden, so dass eine kleine Anzahl von Vollbildern während der Panoramaabtastung gespeichert wird.
- Die Abstimmung und das Blenden (blending) können dazu führen, dass eine optimale ”Nahtlinie” zwischen Bildern mit niedriger Auflösung bestimmt wird, wenn die Bilder erfasst werden. Sobald die Panoramaabtastung beendet ist, können die beibehaltenen Bilder mit voller Auflösung unter Verwendung der Informationen über Abstimmung und optimale Naht aus den entsprechenden Vorschaubildern (preview images) mit niedriger Auflösung ohne Verzögerung zusammengefügt werden.
- Das resultierende Panoramabild mit hoher Auflösung kann dann auf JPEG-Format komprimiert und gespeichert werden.
- Bei bestimmten Ausführungsarten ist das Zusammenfügen von Paaren mit niedriger Auflösung mit der Erfassung neuer Einzelbilder mit niedriger Auflösung verschachtelt.
- In anderen Ausführungsarten, wo innerhalb der Bilderfassungskette genügend Hardwareunterstützung vorhanden ist, können ein Segment oder mehrere Segmente des Zusammenfügens und/oder die JPEG-Komprimierung von Teilen der Bilder mit hoher Auflösung auch mit der Erfassung, der Sichtung, der Abstimmung und/oder dem Blenden (blending) von Bildern mit niedriger Auflösung verschachtelt werden.
- BILDABSTIMMUNG
- Bei bestimmten Ausführungsarten werden x & y Pixelverschiebungen von einem Einzelbild gegenüber dem nächsten bestimmt. Diese Angaben über die Verschiebung können dann verwendet werden, um die Einzelbilder auszuwählen, die bei der Erstellung eines Panoramabildes verwendet werden. In diesem Kontext können Ausführungsarten, die in
US 2006 0171464 und inUS 2008 0309769 beschrieben sind, verwendet werden. Die Verfahren der Videostabilisierung werden unter Verwendung von Bildbearbeitungsverfahren beschrieben. Die Verfahren gemäß bestimmten Ausführungsarten beinhalten die Bewertung horizontaler und vertikaler Verschiebungen unter den Einzelbildern von einem oder mehreren Paaren (oder einer Sequenz) von Einzelbildern. - Diese Angaben über die Einzelbild-Verschiebung können dazu verwendet werden, um ein Einzelbild auszuwählen, das das vorherige Einzelbild um eine gewünschte Anzahl von Pixel überlappt. In bestimmten Ausführungsarten können sie alternativ verwendet werden, um die Kamera anzuweisen, ein neues Bild mit voller Auflösung zu erfassen (oder die Erfassung eines neuen Bildes mit voller Auflösung abzuschließen).
- Eine detailliertere Beschreibung der Messung der Verschiebung zwischen Einzelbildern ist unten aufgeführt. In dieser Beschreibung wird ein zweites Einzelbild (Bild 2) mit einem ersten Einzelbild (Bild 1) verglichen, um die X, Y Verschiebungen zwischen den Einzelbildern zu bestimmen.
- Um die Verschiebung in der x-Richtung (horizontal) zu messen, werden die Spalten in Bild 1 und Bild 2 addiert, wobei das Verfahren nachfolgend erläutert wird.
- Die Profile der Bilder 1 & 2 werden addiert und dann unter Verwendung eines ablaufenden durchschnittlichen Kernels einer Länge 15 in einer beispielhaften Ausführungsart geglättet. Die Länge kann variabel sein, beispielsweise so, dass die Länge erhöht werden kann, um die Profile weiter zu glätten. Die Bildpixelwerte werden entlang den Spalten addiert und die Summen aus den Spalten bilden einen Vektor, der gemäß dieser beispielhaften Ausführungsart hierin als Profil bezeichnet werden kann. Aus Gründen der Einfachheit wird nur der Kanal G bei dem RGB-Bild und der Kanal Y bei dem YUV-Bild verwendet. Jeder beliebige Farbkanal, der genügend Informationen über die Bildeinzelheiten enthält, kann in diesem Fall verwendet werden. Die Profile aus beiden abgestimmten Bildern werden unter Verwendung eines Faltungskernels einer Länge, die an die Bildgröße und an die Geräuschentwicklung angepasst ist, geglättet und differenziert. Die Länge ist in bestimmten Ausführungsarten variabel und kann erhöht oder reduziert werden.
- Dies hat den Effekt, dass kleine Merkmale und Geräusche herausgefiltert werden. Auf diese Art und Weise beruht die Berechnung der Bewegung auf starken Kanten in der Filmsequenz. Das bedeutet auch, dass die Berechnung der X, Y Verschiebung gegenüber Abweichungen in der Belichtung robuster ist. Dieser Berechnungsansatz funktioniert ausgesprochen gut bei einer großen Anzahl von Bildszenen, variierenden Belichtungswerten, variierendem Geräuschpegel und variierender Auflösung.
- Bei der Berechnung der horizontalen (X) Verschiebung werden alle Spalten addiert und bei der Berechnung der vertikalen (Y) Verschiebung erfolgt die Addition entlang der Reihen der Bilder. Danach ist der Vorgang der Berechnung der Bewegung der gleiche, deshalb werden nur die Einzelheiten für die horizontale Verschiebung nachstehend angegeben. Zunächst werden alle Spalten jeder Reihe für Bild 1 und 2 addiert. Damit sollen Bildprofile aus der Berechnung der Verschiebung erzeugt werden.
% Sum Images (Addition Bilder)
hor1 = sum(im1); %Sum images along columns to create horizontal profiles
(% Addition Bilder entlang der Spalten, um horizontale Profile zu erzeugen)
hor2 = sum(im2); - Der obige Prozess in MATLAB ist äquivalent der untenstehenden Gleichung,
hor1 = y = 1y = nim1 (x, y) 2 gezeigt, eine graphische Darstellung horizontaler Bildprofile als addierte Wert von Spalten gegenüber Reihennummern erzeugt.2 veranschaulicht Bildprofile, wenn die Spalten addiert sind und nachdem die Differenzen berechnet wurden. - Der nächste Schritt besteht darin, die Profile zu differenzieren und zu glätten. Dies hat den Effekt, dass die Berechnung der Verschiebung gegenüber Intensitätsdifferenzen zwischen den Bildern unveränderlich ist.
Profile Differences (Profildifferenzen)
hor1 = diff(hor1); %Take differences along profiles for im1 & im2
(% Differenzen entlang der Profile für im1 & im2)
10 hor2 = diff(hor2);
was äquivalent ist zu der untenstehenden Gleichung,hor1 = xi – xi + 1 für i = 1:m – 1, -
3 veranschaulicht Bildprofile, nachdem die Differenzen berechnet worden sind.3 zeigt graphische Darstellungen von horizontalen Bildprofilen als addierte Werte von Spalten gegenüber Reihennummern. - Die Profile werden dann geglättet, um die Auswirkungen von Geräuschen mit dem folgenden MATLAB-Code zu reduzieren. In MATLAB wird eine Faltungsfunktion verwendet, die äquivalent ist zu einem ablaufenden durchschnittlichen Filter, wie nachstehend gezeigt,
xi = xii – 15ixi
(% Glätten von Profilen mit Kernel einer Länge 15-Anmerkung – diese Länge ist variabel)
% depending on noise/smoothness of profile
(% in Abhängigkeit von den Geräuschen/Glätte des Profils)
kernel = 15; %Set length of running average kernel
(% Einstellen der Länge des ablaufenden durchschnittlichen Kernels)
avg = ones(1, kernel)./kernel; %Running average kernel (% ablaufender durchschnittlicher Kernel)
hor1 = conv(hor1, avg); %Smooth profiles using running average kernel
(% Glätten der Profile unter Verwendung des ablaufenden durchschnittlichen Kernels)
hor1 = hor1(kernel/2:end-kernel/2); %Crop profile ends created by kernel
(% Zuschneiden der durch Kernel erzeugten Profilenden)
hor2 = conv(hor2,avg);
hor2 = hor2(kernel/2:end-kernel/2);
w1 – length(hor1); %Length of horizontal profiles
(% Länge horizontaler Profile)
herr = zeros(1,2·radius + 1); %Initalise herr to calc meanSq error of
horizontal profile (% Initialisieren herr zur Berechnung des mittleren quadratischen Fehlers des horizontalen Profils) - Das eine Bildprofil wird gegenüber dem anderen in 1 Pixelverschiebung verschoben. Bei jeder Verschiebung wird die Summe der absoluten Differenzen berechnet, um die Verschiebung zu finden, die die Differenzen minimiert.
herr(i + radius + 1 – imx) = sum(abs(hor1 – hor2))/w1; herri = i – 30i + 30 hor1 – hor2(i)w1 - Das Ergebnis der obigen Operation ist eine graphische Darstellung der Fehlerfunktion, aus der wir die Lage des Mindestwertes feststellen, der die Höhe der Verschiebung von Einzelbild zu Einzelbild zwischen Bild 1 und Bild 2 in der horizontalen Richtung liefert. Für das Beispiel in
4 beträgt die gemessene Verschiebung – 1 Pixel. -
4 veranschaulicht die Berechnung der Bewegung durch graphische Darstellung der Summe absoluter Differenzen, die durch die Verschiebung der Profile gegenüber der Pixelverschiebung festgestellt wurden.4 veranschaulicht Bildprofile, nachdem die Differenzen berechnet worden sind. Die Position des Mindestwertes in4 zeigt die Verschiebungen zwischen den Profilen an. - Wie angegeben, wird derselbe Prozess für die Berechnung der vertikalen Verschiebung durchgeführt. Sowohl die Berechnungen für die X-Bewegung als auch für die Y-Bewegung werden für den Gesamtwert und für die 4 oben beschriebenen Unterbereiche durchgeführt. Das Verfahren, das verwendet wird, um Fehler aufgrund von Bewegungen des Objekts in der Szene herauszufiltern, ist unten beschrieben. In diesem Teil gibt es keine Berechnungen, um einfach nur logische Verknüpfungen zu beschreiben.
- Die in
5 veranschaulichte graphische Darstellung zeigt die kumulative x-Verschiebung an Pixel entlang der horizontalen Richtung mit der Einzelbildnummer.5 veranschaulicht eine kumulative graphische Darstellung, die die gesamte horizontale Bewegung der Kamera als Pixelverschiebung gegenüber der Einzelbildnummer zeigt. - Der gleiche Prozess wird für die vertikalen Verschiebungen wiederholt. Ein Beispiel der vertikalen Verschiebung gegenüber dem ersten Einzelbild ist in
6 gezeigt.6 veranschaulicht eine kumulative graphische Darstellung, die die gesamte vertikale Bewegung der Kamera als Pixelverschiebung gegenüber der Einzelbildnummer zeigt. - Der ursprüngliche Verschiebungsberechnungs-Algorithmus, der in
US 2008 0309769 beschrieben ist, wurde eher entwickelt, um die xy-Verschiebungen gegenüber dem ersten Einzelbild zu verfolgen als von Einzelbild zu Einzelbild. - Um dieses Messverfahren für die Verschiebung zu erweitern, um auch einen Sichtmechanismus bereitzustellen, für den Bilder beibehalten werden sollten, behalten wir die Informationen zur Verschiebung aus allen früheren Einzelbildern bei und verwenden diese, um den Suchbereich für nachfolgende Bilder anzupassen. So werden die Informationen von den Einzelbildern 1 und 2 verwendet, um den Suchbereich für die Bilder 1 und 3 anzupassen.
- Dies wird so lange gemacht, bis die gesamte x-Verschiebung von Bild 1 zu Bild 1 + n eine bestimmte Anzahl von Pixel überschreitet. An diesem Punkt wird Bild 1 + n zu einem neuen Referenz-Einzelbild und anschließende Verschiebungen werden bezogen darauf abgestimmt. Alle dazwischenliegenden Einzelbilder 2, 3 ... n können verworfen werden und nur die Einzelbilder 1 und 1 + n werden beibehalten. Dieser Vorgang wird so lange wiederholt, bis der Panoramaerfassungsprozess durch ein Ereignis beendet wird.
- Der Verschiebungswert für den Sichtungsprozess wird ausgewählt, um sicherzustellen, dass eine ausreichende Überlappung zwischen Bildern, die zusammengefügt werden sollen, vorhanden ist. Er kann auch verändert werden, um die Objektivverzeichnungen oder optischen Verzeichnungen an Einzelbildern zu berücksichtigen. Wo erhebliche Kantenverzeichnung vorhanden ist, kann daher zwischen Einzelbildern eine größere Überlappung erforderlich sein.
- Als Beispiel: für ein Objektiv mit geringer Verzeichnung und ein Videobild 480×640 mit niedriger Auflösung kann eine Überlappung von 140 Pixel in der horizontalen Richtung angemessen sein; bei einem Objektiv mit einer höheren Verzeichnung kann eine Überlappung von 250+ Pixel erforderlich sein. Im letzteren Fall kann es sein, dass bei dem anschließenden Blenden (blending) von Bildern nicht die vollständigen Einzelbilder verwendet werden – bis zu 25% (150 Pixel) an jedem Ende eines jeden Bildes könnten verworfen werden, weil sie zu verzeichnet sind, um in dem Blenden (blending) verwendet zu werden.
- Dieser Vorgang wird für die gesamte Reihe von Videobildern wiederholt. Das Ergebnis ist, dass die x- und y-Verschiebungen jedes Einzelbildes in der Sequenz gelesen werden können. Dies erlaubt dann die Auswahl von Bildern, um ein Panoramabild zu erzeugen. Die Bilder werden ausgewählt mit einer Pixelverschiebung zueinander von beispielsweise 500 Pixel. Bild 2 wird dann mit Bild 1 zusammengefügt mit einer Pixelverschiebung von 500 Pixel in der x-Richtung und auch mit der berechneten y-Verschiebung. Dies wird wiederholt, um mehrere aufeinander folgende Bilder zusammenzufügen.
- Das Bild der
7A und7B ist ein Beispiel von drei Einzelbildern, die mit x & y-Verschiebungen abgestimmt wurden, welche unter Verwendung eines umfassenden Bewegungsberechnungs-Algorithmus gemessen wurden. Für dieses Panoramabild werden die Einzelbilder mit einer horizontalen Verschiebung von 620 Pixel ausgewählt.7A veranschaulicht ein Panoramabild, das aus Videobildern erzeugt wurde, die durch einen Algorithmus ausgewählt wurden, und mit den berechneten x & y-Verschiebungen gemäß bestimmter Ausführungsarten ausgerichtet wurde.7B veranschaulicht eine zugeschnittene Version des Panoramabildes aus7A . - BILDABSTIMMUNG MIT SUBPIXEL-PRÄZISION
- Ein Bildabstimmungsverfahren gemäß bestimmten Ausführungsarten kann horizontale und vertikale Verschiebungen mit mindestens einer Genauigkeit von einem Pixel berechnen. Wenn man von einem Bild mit niedriger Auflösung auf ein Bild mit voller Auflösung skalieren möchte, wird der Algorithmus so konfiguriert, dass er Fehler, die sonst erkennbar wären, über Teile der Nahtlinie hinweg verhindert, und die sichtbar sind, wenn herkömmliche Algorithmen verwendet werden.
- Ein 1-Pixel-Abstimmungsfehler bei QVGA-Auflösung kann sich beispielsweise bei einer 720p HD-Auflösung in einen 6-Pixel-Fehler verwandeln. Um mit diesem Problem fertig zu werden, wurde ein Bildabstimmungsverfahren gemäß bestimmten Ausführungsarten erweitert, um Bildverschiebungen mit Subpixelgenauigkeit, d. h. mit fraktionierter Präzision (fractional precision), zu berechnen.
- Die Berechnung auf der Grundlage von Spline-Überabtastung (spline oversampling) von Profilen kann für die Abstimmung von Bildern mit hoher Pixelgenauigkeit verwendet werden. Die Basis des Algorithmus kann der Catmull-Rom Spline sein (kubischer Spline mit A = –0,5). Um ein gutes Leistungsniveau aufrechtzuerhalten, können die Profile anfangs auf ein Pixel Genauigkeit ausgerichtet werden. Ein Überabtastungsschritt kann durchgeführt werden, um die Verschiebung in einem Bereich ±1 Pixel bei einem vorgegebenen Subpixelschritt zu finden.
- In einer aktuellen Implementierung kann ein Mindestschrittwert von 1/256 eines Pixels angenommen werden. Dank dieses Splines können Koeffizienten vorausberechnet und in einer Verweistabelle mit 256 Elementen gespeichert werden. Der Mindestschrittwert kann während der Subpixelausrichtung als eine Einheit verwendet werden. Um ¼ Pixelgenauigkeit zu erreichen, die bei manchen Ausführungsarten für eine höchst praktische Hochskalierung der Bilder mit niedriger Auflösung ausreichend ist, kann der Schrittwert für die Berechnung auf 64 eingestellt werden.
- Das zweite Profil wird in Schrittweiten nach links und rechts verschoben und die Werte zwischen den Proben werden unter Verwendung der Spline-Interpolation berechnet. Da die Verschiebung einheitlich für alle Profilproben ist, kann es sein, dass nur ein einziger Satz Koeffizienten erforderlich ist, um alle Proben zu bearbeiten. Einer der Schritte ist in
8 veranschaulicht. -
1 zeigt eine graphische Darstellung, in der in einer beispielhaften Ausführungsart das Profil 1 mit interpolierten Werten von Profil 2 verglichen wird. Die interpolierten Werte werden mit Quadraten markiert und die mit Kreisen markierten Referenzwerte werden zur Berechnung der Fehlersumme für eine bestimmte Verschiebung verwendet. Die Verschiebung, die die geringste Fehlersumme erzeugt, wird in Festpunktformat mit 8 Bits Teilwert (fractional value) wiedergegeben. Das nächste Bild zeigt ein Beispiel einer graphischen Darstellung Fehler gegenüber Verschiebung. -
2 veranschaulicht gemäß bestimmten Ausführungsarten metrische Fehlerwerte (error metric values) gegenüber Subpixelverschiebungen. Die Fehlerfunktion ist innerhalb des berücksichtigten Bereichs glatt und ohne lokale Minima, was garantiert, dass die richtige Teilverschiebung gefunden wird. - PANORAMA AUS HD VIDEO – IMPLEMENTIERUNG IN DER KAMERA
- Bei der Erzeugung eines Panoramas aus HD Videobildern, ist das oben beschriebene Bildabstimmungsverfahren zu zeitaufwändig und speicherintensiv, um eine Implementierung in der Kamera in Echtzeit zu erlauben. In diesem Fall wird ein Verfahren gemäß bestimmten Ausführungsarten in dem nachfolgenden Beispiel veranschaulicht:
- 1. Die HD Bilder werden auf QVGA-Auflösung heruntergerechnet;
- 2. Das erste QVGA-Bild wird als Referenzbild angesehen;
- 3. Gemäß bestimmten Ausführungsarten werden die QVGA-Bilder mit einem Referenzbild abgestimmt;
- 4. Wenn ein bestimmtes Maß an Überlappung zwischen den Einzelbildern erreicht ist, werden das aktuelle Einzelbild und das Referenzbild gemäß bestimmten Ausführungsarten zusammengefügt oder dem Stitching unterzogen. Am Ende des Zusammenfügungsprozesses kann durch Anwendung eines Unschärfekerns (blurring kernel) entlang der Nahtlinie eine Alpha Blending Map erzeugt werden;
- 5. Die Alpha Blending Map kann auf die Auflösung des HD-Bildes hochgerechnet werden;
- 6. Die HD-Bilder werden unter Verwendung der in Schritt 5 erzeugten Abbildes vermischt;
- 7. Das aktuelle Einzelbild wird zum Referenzbild, die Schritte 3 bis 7 werden wiederholt, bis eine bestimmte Anzahl von Einzelbildern erreicht worden ist.
- In den nachfolgenden Abschnitten werden bestimmte vorteilhafte Komponenten des Algorithmus veranschaulicht.
- ALGORITHMUS ZUM ZUSAMMENFÜGEN VON BILDERN
- Das Ziel dieses Algorithmus ist es, die beste Nahtstelle zwischen zwei überlappenden Bildern zu finden, so dass die Bilder verschmolzen werden können, um ein Panorama zu bilden. Die Naht muss durch die Bereiche verlaufen, wo die Differenz zwischen diesen beiden Bildern am geringsten ist, um keine sichtbaren Schnitte herzustellen.
- Die allgemeine Idee ist es, zwei Konturen zu haben, die an gegenüberliegenden Seiten des Überlappungsbereichs beginnen, die sich mit einer Geschwindigkeit aufeinander zu bewegen, die von der lokalen Differenz zwischen den überlappenden Bildern abhängt. Die Konturen breiten sich mit einer gewissen Anpassungsfähigkeit oder Elastizität horizontal über das Bild aus, so dass sich bestimmte Pixel schneller bewegen können, obwohl sie zurückgehalten werden, wenn benachbarte Pixel eine geringere Geschwindigkeit haben. Die Idee ist, dass sich die Pixel rascher durch Bereiche bewegen, wo große Differenzen zwischen den überlappenden Bildern existieren, und langsamer werden, wenn zwischen den Bildern eine kleine oder unwesentliche Differenz besteht. Auf diese Art und Weise treffen sich die beiden Konturen, die sich horizontal zueinander hin ausbreiten, an einer annähernd optimalen oder fast optimalen Naht zwischen den beiden Bildern.
- Sobald die Pixel von der Kontur erfasst wurden, werden sie dem relevanten Bild, das mit der Kontur verbunden ist, zugeordnet. Somit verbindet die Kontur, die sich von links nach rechts ausbreitet, die Pixel mit dem linken Bild. Die Kontur, die sich von rechts nach links ausbreitet, verbindet die Pixel mit dem rechten Bild des überlappenden Bildpaares. Der Vorgang stoppt, wenn in dem Überlappungsbereich keine nicht zugeordneten Pixel mehr vorhanden sind.
- Zwei überlappende Komponenten-Bilder werden als in der horizontalen Richtung oder in der langen Richtung des Panoramas oder der Schwenkrichtung als überlappend angesehen. Somit gibt es einen Bereich, der nur zu dem linken Bild (LH) gehört, und einen Bereich, der nur zu dem rechten Bild (RH) gehört. Dann gibt es einen überlappenden Bereich, in dem die Pixel entweder aus dem linken Bild (LH) oder aus dem rechten Bild (RH) oder einer darauf basierenden Kombination oder Berechnung ausgewählt werden können. Jede Kontur beginnt an der LH- oder RH-Grenze dieses überlappenden Bereichs. Die LH-Grenze gehört vollständig zu dem linken Bild (LH), während das Verfahren beinhaltet, dass diese Grenze entlang den Pixelreihen des Bildes nach rechts bewegt wird, und die RH-Grenze gleichzeitig nach links bewegt wird.
- Die (relative) Geschwindigkeit, mit der sich jede Grenze bewegt, wird bestimmt durch die (relative) Differenz zwischen den überlappenden LH- und RM [sic][Anm. d. Übers.]-Bildpixeln. Wo die Differenz zwischen einem RH-Pixel und einem LH-Pixel sehr klein ist, bewegt sich die Kontur langsamer, da dies eine bessere Stelle für eine Bildnaht ist als ein sich schneller bewegendes Segment. Wo die Differenz groß ist, bewegt sie sich rasch, weil in einem Bereich großer Differenzen zwischen RH- und LH-Bildpixeln keine Naht auftreten sollte. In dem Überlappungsbereich kann in bestimmten Ausführungsarten ein Pixel entweder aus dem LH-Bild oder aus dem RH-Bild ausgewählt werden. Es wird auch darauf hingewiesen, dass die ”Geschwindigkeit” hier relativ ist unter den Segmenten der Konturen innerhalb des Überlappungsbereichs.
- Aufgrund von Schwankungen in den Pixeldifferenzen werden sich die Konturpixel in bestimmten Reihen nun rascher ausbreiten als in der Reihe darüber (oder darunter). Die Geschwindigkeit, mit der sich eine Reihe nach rechts (für die LH-Kontur) oder nach links (für die RH-Kontur) ausbreitet, ist in bestimmten Ausführungsarten auch teilweise beschränkt durch ihre benachbarten Reihen. In diesen Ausführungsarten wird die Kontur als ”elastisch” oder anpassungsfähig bezeichnet. Wo also eine Reihe aufgrund von großen Differenzen zwischen RH-Bildern und LH-Bildern sehr rasch bewegt werden würde, kann sie sich verlangsamen, weil sich die Reihen darüber (oder darunter) wesentlich langsamer bewegen oder umgekehrt.
- Während sich die LH-Kontur nun nach rechts ausbreitet, werden die Pixel hinter (oder links von) dieser sich ausbreitenden ”Grenzlinie” (oder ”Statuslinie”) zu 100% aus dem LH-Bild genommen, während in ähnlicher Weise die Pixel rechts von der RH-Kontur aus dem RH-Bild genommen werden. Schließlich beginnen diese beiden ”Statuslinien” sich an einigen Punkten zu treffen und wenn sie ”kollidieren”, hören sie an den Punkten, an denen sie sich treffen, einfach auf sich zu verbreiten. Schließlich werden sich die beiden Konturen über alle Reihen des Überlappungsbereichs hinweg getroffen haben und eine endgültige Nahtlinie durch den Überlappungsbereich wird bestimmt.
- In alternativen Ausführungsarten können Verfahren zur Anwendung kommen, bei denen sich Konturen in einer Richtung ausbreiten (die Kontur kann nicht zurückgehen), ähnlich denen, die von Sethian et al., A Fast Marching Level Set Method for Monotonically Advancing Fronts, Proceedings der National Academy of Sciences, eingereicht am 20. Oktober 1995, beschrieben sind.
- In bestimmten Ausführungsarten kann ein Ansatz ähnlich des Dijkstra-Algorithmus zur Anwendung kommen, wie beispielsweise in Dijkstra, E. W. (1959), "A note on two problems in connexion with graphs", dargelegt. Numerische Mathematik 1: 269–271, http://wwwm3.ma.tum.de/twiki/pub/MN0506/WebHome/dijkstra.pdf, and/orSniedovich, M. (2006) "Dijkstra's algorithm revisited: the dynamic programming connexion" (PDF). Journal of Control and Cybernetics 35 (3): 599–620, http://matwbn.icm.edu.pl/ksiazki/cc/cc35/cc3536.pdf. Die Entwicklung der Kontur kann durch Aussortieren von Werten bestimmt werden, die man durch Lösen von Differentialgleichungen erhalten hat. Es handelt sich dabei um einen relativen schnellen Algorithmus auf einem PC, aber er umfasst das repetitive Aussortieren (an jedem Kontur-Update um 1 Pixel) und dynamische Datenstrukturen. Als solcher wird der Dijkstra-Ansatz in bestimmten Ausführungsarten, insbesondere jenen mit eingebetteten Plattformen, nicht verwendet.
- Bei bestimmten Ausführungsarten wird eine FIFO-Warteschlange (FIFO queue) verwendet, um ein vorteilhaftes Verfahren zu implementieren und zu realisieren, selbst ohne Speicher-Neuzuweisung.
10 veranschaulicht zwei Konturen, die sich über einen Überlappungsbereich hinweg zwischen angrenzenden Bildern, die in einem Panorama verwendet werden sollen, zueinander hin ausbreiten. - Die Ausbreitung der Konturen kann durch eine Warteschlange gesteuert werden, die einen Satz von 256 priorisierten FIFO buckets (Eimer) enthält. Die Bucket-Zahl 255 hat eine höchste Priorität, während die Bucket-Zahl 0 eine niedrigste Priorität besitzt. Immer dann, wenn ein neuer Punkt des Überlappungsbereichs der Warteschlange hinzugefügt wird, geht er zu der bucket-Zahl, die der gewichteten Differenz zwischen überlappten Bildern entspricht. Die Differenz liegt in dem Bereich von 0 bis 255. Wenn ein Punkt aus der Warteschlange zu entfernen ist, wird er in bestimmten Ausführungsarten von dem nicht leeren bucket der höchsten Priorität entfernt. Jeder Punkt, der der Warteschlange hinzugefügt wird, wird mit einem Fähnchen markiert, das die Kontur kennzeichnet, zu der der Punkt gehört.
- Bei einem beispielhaften Ausbreitungsalgorithmus kann man wie folgt vorgehen:
- 1. Initialisieren von Konturen durch Hinzufügen von Punkten an den linken und rechten vertikalen Kanten des Überlappungsbereichs zu der Warteschlange. Die Punkte an der rechten Kante werden mit einem anderen Kennzeichen markiert als jene an der linken Kante;
- 2. Entfernen des ersten Punktes aus der Warteschlange gemäß den oben beschriebenen Regeln;
- 3. In den Richtungen links, rechts, oben, unten prüfen, ob nicht zugeordnete Punkte vorhanden sind. Wenn solche Punkte existieren, werden sie der Warteschlange hinzugefügt, wobei ihnen dasselbe Kennzeichen zugeordnet wird wie es der Quellpunkt hatte; und
- 4. Wenn die Warteschlange nicht leer ist, zu 2. gehen.
- Aufgrund von Geräuschen und dem Vorhandensein kleiner Details, kann die Form der Kontur sehr komplex werden, was bedeutet, dass die Kontur länger ist, so dass ein größerer Speicher erforderlich ist, um die Warteschlange aufrechtzuerhalten. Um die Form der Kontur zu glätten und den Umfang des erforderlichen Speichers zu reduzieren, kann die Differenz zwischen überlappenden Bildern durch einen Filter geglättet werden, der durch die folgende Matrix definiert ist:
1 2 1 2 4 2 1 2 1 - Anschließend können Kanaldifferenzen durch einen gewichteten Durchschnitt zu einem Wert zusammengefasst werden:
dI = (2dG + dR + dB)/4 - Diese Filterung kann einem Verwischen der Nahtlinie mit einem 3 × 3 Unschärfekern (blur kernel) entsprechen. In alternativen Ausführungsarten können andere Verfahren der Unschärfeerzeugung (blurring techniques) zur Anwendung kommen oder die Größe des Kerns (kernel) kann auf 5 × 5 oder andere Werte erhöht werden.
- Ein Beispiel für ein aus zwei Bildern erzeugtes Panorama-Vollbild ist in
11 gezeigt.11 veranschaulicht ein aus zwei Bildern erzeugtes Panorama, das gemäß bestimmten Ausführungsarten gemischt wurde. - Um die Effizienz zu erhöhen, kann die Nahtlinie unter Verwendung von verkleinerten Versionen überlappender Bereiche aus zwei Bildern in reduzierter Auflösung berechnet werden. Die überlappenden Teile können mit zusätzlichen Pixel aufgefüllt werden, beispielsweise um ganzzahlige Reduktionsfaktoren zu erlauben. Die aufgefüllten Teile werden bei bestimmten Ausführungsarten nicht berücksichtigt und sind stattdessen jeweils einem passenden Bild direkt zugeordnet. Bei bestimmten Ausführungsarten, wo das zusammengefügte Bild nicht hochskaliert werden muss, kann das Verwischen der Nahtlinie weggelassen werden.
- Bei der Größe des zusammengefügten Abbildes (join map size) kann es sich bei bestimmten Ausführungsarten exakt um die reduzierte Größe des Bildüberlappungsbereichs handeln, der durch Auffüllen erweitert wurde. Nach der Berechnung der Zusammenfügungslinie (join line) kann das Abbild (map) um denselben Faktor vergrößert werden, der für die Verkleinerung verwendet worden ist.
- In einer Ausführungsart wird, nachdem die Nahtlinie bestimmt ist, durch Verwischen der Nahtlinie unter Verwendung eines 3 × 3 Gauß-Kerns eine Grauskala-Alpha Blending Map erzeugt. Sowohl die Nahtlinie als auch die Alpha Blending Maps werden dann auf eine bestimmte Ausgabeauflösung hochskaliert. In einer Ausführungsart wird das Hochskalieren durch Anwenden einer bilinearen Interpolation erreicht. In dieser Ausführungsart wird die Alpha Blending Map verwendet, um die Bilder mit hoher Auflösung zusammenzufügen, wodurch eine ”kastenförmige” Naht vermieden wird. Dank des verschwommenen Übergangs der blending map, wird die Zusammenfügungslinie bei voller Auflösung weniger sichtbar. Bei bestimmten Ausführungsarten, in denen das zusammengefügte Bild nicht hochskaliert werden muss, kann das Verwischen der Nahtlinie weggelassen werden.
12 veranschaulicht eine Blendmaske, die bei der Erzeugung des in11 gezeigten Panoramabildes verwendet wurde. - Die mit diesem Verfahren erzeugte Naht ist unsichtbar oder kaum zu erkennen, solange die Helligkeit der beiden zusammengefügten Bilder durchgängig und gleichmäßig ist. Schwankungen in der Helligkeit werden vermieden, indem die Belichtung des Bilderfassungsgerätes festgelegt wird, bevor die Bildmenge erfasst wird, die verwendet wird, um das endgültige Panoramabild zusammenzusetzen.
- Bei bestimmten Ausführungsarten können Verfahren angewendet werden, die die Anpassung von scharfen und verwischten Bildpaaren anwenden, um Schwankungen in der Helligkeit über die Bildmenge hinweg zu überwinden. Diese Ausführungsarten können Verfahren anwenden, die der
US 2008/0219581 - In einer alternativen Ausführungsart kann der Kamerabenutzer aufgefordert werden, eine Vorerfassungs-Abtastung (pre-acquisition sweep) der Panoramaszene durchzuführen, so dass über die ganze Szene hinweg ein optimaler Belichtungwert bestimmt werden kann. Der Benutzer kehrt mit der Kamera dann zu dem ursprünglichen Standort zurück und der Belichtungswert wird auf der Grundlage der Vorerfassungs-Abtastung der Szene festgelegt.
- In anderen Ausführungsarten kann die Belichtung bei jeder Erfassung eines Bildes variiert werden und es wird eine detaillierte ”Delta-Map”, die die relativen Belichtungsunterschiede zwischen den Bildern aufzeichnet, aufgezeichnet und angewendet, um vor der Bestimmung der optimalen Nahtlinie eine Farbtonabstimmung und/oder Farbanpassung durchzuführen. Bei manchen Ausführungsarten kann die Farbanpassung in die Bilderfassungskette integriert sein und sie kann Anpassungsdaten direkt von der Belichtungs-”Delta-Map” beziehen.
- Die Anordnung der Naht zwischen zwei Bildern des Panoramas lässt sich durch Modifizieren von Bilddifferenzen, die zwischen Pixeln des Überlappungsbereich zwischen diesen beiden Bildern berechnet werden, leicht steuern. So kann beispielsweise die Ausgabe eines Gesichtserkennungs-Algorithmus (face tracking algorithm) verwendet werden, um Bereiche auszuwählen, in denen eine Bildnaht nicht wünschenswert ist. Vor der Ausbreitung von Konturen über den Überlappungsbereich zwischen zwei Bildern hinweg, können die Bilddifferenzen in ”Gesichtsbereichen” (face regions) innerhalb dieses Überlappungsbereichs künstlich erhöht werden, um die Wahrscheinlichkeit zu verringern, dass ein Konturausbreitungs-Algorithmus eine Naht bestimmt, die durch einen Gesichtsbereich verläuft, oder um vollständig zu verhindern, dass dies geschieht.
- Eine ähnliche Logik kann auf Teile im Vordergrund einer Bildszene angewendet werden, in denen Bildeinzelheiten für einen Betrachter deutlicher erkennbar sind. Bei bestimmten Ausführungsarten ist es weniger wünschenswert, dass eine Bildnaht durch einen solchen Bereich verläuft. So sind in einer alternativen Ausführungsart für den Panorama-Algorithmus Ausgaben von einer Gesichtsverfolgung in Echtzeit (real time face tracker) oder ein Vordergrund-/Hintergrund-Detektor verfügbar und der Bild-Zusammenfügungsvorgang ist derart modifiziert, dass er die Ausgaben der Gesichtsverfolgung und/oder des Vordergrund-/Hintergrundbereichs-Detektors berücksichtigt. Insbesondere können Vordergrundbereiche, Objekte und/oder erkannte Gesichtsbereiche, die in dem Überlappungsbereich zwischen zwei Bildern liegen, markiert werden, so dass keine Naht durch diese Bereiche hindurch verläuft. In einer Verbesserung dieser Ausführungsart wird die Naht nicht vollständig daran gehindert, durch den bestimmten Bereich hindurch zu verlaufen, aber Bilddifferenzen werden künstlich vergrößert, um dies weniger wahrscheinlich zu machen. In einer weiteren Verbesserung basiert die künstliche Erhöhung der Bilddifferenz auf einer Tiefenkarte (depth map), wobei es zunehmend wahrscheinlicher ist, dass eine Naht durch Objekte hindurch verläuft, die näher an einem entfernten Hintergrund des Bildes liegen.
- Beispielhafte Gesichtsverfolgungsverfahren (face tracking techniques) und Vordergrund-/Hintergrundverfahren, die bei bestimmten Ausführungsarten verwendet werden können, sind in den folgenden amerikanischen Patenten beschrieben:
US-Patente 7,606,417 ,7,460,695 ,7,469,055 ,7,460,694 ,7,403,643 , und7,315,631 , und in veröffentlichten amerikanischen Patentanmeldungen 20090273685, US20060285754, US20090263022, 20070269108, US20090003652, und US20090080713, und in den laufenden Nummern der amerikanischen Patentanmeldungen 12/479,593, eingereicht am 5. Juni 2009 und 12/572,930, eingereicht am 2. Oktober 2009, als offenbarte alternative Ausführungsarten eingeschlossen. - In den Fällen, in denen sich ein Gesichtsbereich oder ein Vordergrundbereich oder ein Objekt über einen ganzen Überlappungsbereich zwischen zwei Bildern erstreckt, kann eine Fehlermeldung angezeigt werden, und der Erfassungsvorgang kann abgebrochen werden. Alternativ kann, wenn gewünscht wird, dass eine Naht durch einen Gesichtsbereich verläuft, ein komplexerer Algorithmus eingesetzt werden, der Gesichtsverschönerungstechniken aufweist (siehe beispielsweise die laufenden Nummern der amerikanischen Patentanmeldungen 12/512,843, 12/512,819, und 12/512,716, als offenbarte alternative Ausführungsarten eingeschlossen). Dieser Algorithmus kann die Strukturanalyse der Haut, gefolgt von einem anschließenden merkmalsbewussten Glätten der Hautregionen, aufweisen. Bei anderen Ausführungsarten kann das Wissen über wichtige Gesichtsmerkmale, beispielsweise Augen, Nase, Mund und Haaransatz, kombiniert mit dem Wissen über eine äußere Gesichtskontur, beispielsweise Kinn und Gesichtshälften, eingesetzt werden.
- In alternativen Ausführungsarten können diese noch weiter verbessert werden durch das Wissen über Gesichtsausrichtung auf gleicher Ebene und Gesichtshaltung. Dieses Wissen kann man sich durch Verwendung von Active Appearance Models oder rotational classifiers aneignen, wie in den
amerikanischen Patenten 7,565,030 und7,440,593 , und in den veröffentlichten amerikanischen Patentanmeldungen U520090179998, U520070269108, U52008/0219517 und U52008/0292193 beschrieben. - VORDERGRUND- UND HINTERGRUNDBEREICHE
- Wenn Objekte im Vordergrund im wesentlichen näher an dem Bilderfassungsgerät sind als die Szene im Hintergrund, können Parallax-Effekte innerhalb des Überlappungsbereichs auftreten. In diesen Fällen kann eine Fehlermeldung angezeigt werden. Alternativ können das Objekt oder die Objekte im Vordergrund und die Szene im Hintergrund separat zusammengefügt, und der Vordergrund gegenüber der Szene im Hintergrund erneut zusammengesetzt werden. Bei dieser Ausführungsart können Informationen aus zusätzlichen Bildern, die denselben Überlappungsbereich überlappen, verwendet werden, um ein genaues Zusammenfügen des Objektes im Vordergrund zu erleichtern und eine optimale Positionierung des Objektes innerhalb der zusammengefügten Szene im Hintergrund zu bestimmen. Die Informationen aus zusätzlichen Bildern können auch dazu verwendet werden, um den abgebildeten Hintergrund zu erweitern und Einzelheiten bereitzustellen, die aufgrund der Parallaxe durch das Objekt im Vordergrund verborgen waren. Dies kann hilfreich sein, um vorteilhafterweise zu bestimmen, wie die Naht für den Hintergrund des Bildes zusammenzufügen ist.
- In diesen Situationen können zusätzliche Informationen über die genaue Reichweite/über den genauen Abstand von Objekten im Vordergrund verwendet werden, wenn diese aus dem Bilderfassungsgerät verfügbar sind.
- In einer beispielhaften Ausführungsart umfassen ein Objekt im Vordergrund oder mehrere Objekte im Vordergrund ein oder mehrere menschliche Gesichter und möglicherweise Teile zugehöriger Körperprofile (beispielsweise Kopf & Schultern, oder vielleicht mehr vom Rumpf und den Armen und sogar die Beine). In diesem Beispiel wird festgestellt, dass mindestens eines der Gesichter innerhalb des Panoramas in einem Überlappungsbereich zwischen den beiden Einzelbildern angeordnet ist. Aufgrund der Parallaxe wird es so aussehen, als sei dieser Umriss im Vordergrund zwischen den beiden Bildern verschoben. Wenn ein normales Zusammenfügen und/oder Stitching angewendet wird, würde der Umriss in horizontaler Richtung gestreckt, was zu einem Effekt eines ”fetten Gesichts” führen würde. In einem noch extremeren Beispiel, in dem sich die Person noch näher an dem Bilderfassungsgerät befindet, kann es sein, dass in dem endgültigen, zusammengefügten Panoramabild ein ”Spiegelbild” der Person erzeugt wird. Um diese unerwünschten Effekte zu vermeiden, wird auf jedes der Komponenten-Bilder eine Vordergrund-/Hintergrund-Trennung angewendet, beispielsweise gemäß einem der
amerikanischen Patente 7,469,071 und7,606,417 , und der veröffentlichten amerikanischen Patentanmeldungen 2009/0273685, 2006/0285754, 2007/0147820, 2009/0040342 und 2007/0269108. Der oder die Vordergrundbereich(e) können jeweils aus jedem von zwei aneinander angrenzenden Bildern, die zusammengefügt und/oder durch Stitching zusammengeführt werden sollen, ausgeschnitten werden. In einer Ausführungsart werden diese ”ausgeschnittenen” Bereiche unter Verwendung von Daten aus anderen Einzelbildern, die denselben Umrissbereich überlappen, ausgefüllt, doch sie zeigen aufgrund einer anderen Parallaxe einen anderen Teil des Hintergrundes. Weitere Füll- und Extrapolationsverfahren können angewendet werden, wenn nicht genügend Daten verfügbar sind. Die Hintergrundbilder können dann unter Verwendung normaler Algorithmen zusammengefügt werden. - Die Bereiche im Vordergrund können auch separat ausgerichtet werden (beispielsweise für Gesichtsbereiche durch Anpassen der Stellen und wahlweise der Formen von Gesichtsmerkmalen wie Augen, Mund, Haaransatz und/oder Kinn. Nach der Ausrichtung können diese dann unter Verwendung der üblichen Algorithmen zusammengefügt werden. Wahlweise gilt: wenn ein vollständiger Umriss von jedem Bild verfügbar ist, kann, alternativ zu dem separaten Zusammenfügen der Vordergrundbereiche, einer der Vordergrundbereiche für ein Zusammensetzen auf ein bereits zusammengefügtes Hintergrundbild ausgewählt werden. Die Stelle, an der das Vordergrundobjekt auf den Hintergrund zusammengesetzt wird, kann an einem Punkt zwischen den beiden ursprünglichen Stellen ausgewählt werden. Der Benutzer kann sich sogar dafür entscheiden, das Vordergrundbild an einer anderen Stelle in dem Panorama zu positionieren, wenn diese als der szenisch reizvollste Teil des Panoramas ausgemacht wird. Alternativ kann die Stelle im Vordergrund ausgewählt werden, um Stellen mit höherem Kontrast entlang der Zusammenfügungsnaht für die Hintergrundbereiche abzudecken.
- Eine große Auswahl an Gesichtsanalyseverfahren und -techniken kann vorteilhafterweise eingesetzt werden, um das Erscheinungsbild dieser Umrisse im Vordergrund weiter zu verbessern, wie die Verfahren, beschrieben in dem
US-Patent 7,565,030 oder in den veröffentlichten amerikanischen Patentanmeldungen 2009/0179998, 2008/0013798, 2008/0292193,20 2008/0175481, 2008/0266419, 2009/0196466, 2009/0244296, 2009/0190803, 2008/0205712, 2008/0219517 und 2009/0185753, und in der veröffentlichten PCT-AnmeldungWO2007/142621 - BILDMISCHVERFAHREN IN DER KAMERA
-
13 veranschaulicht weiterhin ein Bildmischverfahren gemäß bestimmten Ausführungsarten einschließlich Panoramabilderzeugungsverfahren. Fünf Bilder sind in12 [sic][Anm. d. Übers.] gezeigt, die zur Bildung eines Panoramabildes zusammenzufügen sind, das etwas weniger als fünf Mal breiter als eines der Komponenten-Bilder ist. Bildmisch-Rechtecke sind untenstehend veranschaulicht, in denen die Nähte gebildet werden, wenn das Panoramabild gebildet wird. Ein Teil des gebildeten Panoramabildes ist unterhalb der Bildmisch-Rechtecke und Komponenten-Bilder in13 veranschaulicht. - In einer beispielhaften Ausführungsart kann die Auswahl einer Oberfläche verwendet werden, um einem Panorama-Benutzerinterface anzuzeigen, welcher Projektionsalgorithmus anzuwenden ist. Ein 3D-Projektionsalgorithmus kann beispielsweise verwendet werden gemäß "Image Alignment and Stitching: A Tutorial" von Richard Szeliski (Preliminary draft, 27. September 2004, Technical Report, MSR-TR-2004-92, Seiten 8–10) und/oder gemäß einer der veröffentlichten amerikanischen Patentanmeldungen 2006/0062487, 2006/0018547, 2005/0200706, 2005/0008254 und 2004/0130626.
- SUPER-AUFLÖSUNG: VERBINDEN VON ZUSAMMENGESETZTEN BILDERN
- Eine weitere Ausführungsart stellt auch eine Möglichkeit bereit, ein Panorama mit hoher Auflösung zu erzeugen, indem nur Bilder mit (relativ) niedriger Auflösung verwendet werden. Der Begriff ”niedrige Auflösung” ist hier im Vergleich zu dem Begriff ”hoher Auflösung” auszulegen, wobei das Bild mit niedriger Auflösung eine niedrigere Auflösung besitzt als das Bild mit hoher Auflösung, wobei keine bestimmten Auflösungen gemeint sind. Diese Ausführungsart ist geeignet für Geräte mit niedriger Auflösung (& geringen Kosten). Es handelt sich dabei um einen Ansatz, der mit Camera-on-chip Lösungen kombiniert werden kann, die mit sich HD-Geräten mit anspruchsvoller Optik und CPU-Leistung messen können.
- In dieser Ausführungsart wird eine geschwenkte Videosequenz einer Panoramaszene mit niedriger Auflösung erfasst. Es werden keine Bilder mit hoher Auflösung erfasst und somit wird die Nahtlinie nicht auf eine Bild mit hoher Auflösung übertragen, wie in anderen Ausführungsarten. Während des Aussortiervorganges werden auch weniger Einzelbilder verworfen. Stattdessen kann ein größerer Anteil von Einzelbildern in eine von mehreren unterschiedlichen Panorama-Bildmengen eingeordnet werden.
- Somit können zwei oder mehr zusammengesetzte Panoramabilder durch Ausführen einer Kantenabstimmung und das Zusammenfügen überlappender Bilder erzeugt werden. In einer beispielhaften Ausführungsart werden Einzelbilder wie folgt zusammengefügt: die Einzelbilder 1 + 4 + 7 + 10 werden verwendet, um eine Panorama-Bildmenge zu bilden, anschließend bilden die Einzelbilder 2 + 5 + 8 + 11 eine zweite und 3 + 6 + 9 + 12 eine dritte Panorama-Bildmenge; diese drei verschiedenen Bildmengen werden verwendet, um drei verschiedene Panoramabilder P1, P2, P3 zu erzeugen, die größtenteils überlappen können, aber nicht unbedingt vollständig überlappen müssen. Es wird darauf hingewiesen, dass es nicht erforderlich ist, alle Bilder beizubehalten; es können beispielsweise zwischen den Einzelbildern 3 und 4 (z. B. Einzelbilder 3-2, 3-3 und 3-4) weitere Einzelbilder erfasst worden sein, aber diese können verworfen worden sein, weil zwischen ihnen nicht genügend Verschiebung vorhanden war, oder weil P1, P2 und P3 für ausreichend angesehen wurden, oder aus anderen Gründen.
- Die Super-Auflösungsverfahren werden dann angewendet, um ein einzelnes Panoramabild mit hoher Auflösung zu erstellen. Die Kantenabstimmung für jede Panorama-Einzelbildmenge kann durch Verwenden überlappender Bilder aus anderen Einzelbildmengen unterstützt werden.
- PANORAMA-ANZEIGEMODUS FÜR TRAGBARE GERÄTE
- Nachdem ein Panoramabild erstellt worden ist, kann es umständlich sein, das Bild auf einem tragbaren Gerät anzuschauen. Doch wenn die Informationen in Bezug auf die ursprüngliche (horizontale) Bewegung, die während des Erfassens angewendet wurde, zusammen mit dem Bild gespeichert wurden, ist es möglich, gemäß bestimmten Ausführungsarten einen vorteilhaften Anzeigemodus bereitzustellen.
- Gemäß einem Beispiel für einen solchen Anzeigemodus, kann sich der Bildschirm eines Photo-Handys mit einer Ansicht eines zentralen Teils des Panoramabildes in voller Größe (der Abschnitt in eckigen Klammern in der nachfolgenden Darstellung) öffnen:
------[---]------ - Wenn die Kamera nun nach links geschwenkt wird, wird diese Bewegung gemessen, und der Teil des Bildes, der angezeigt wird, wird entsprechend angepasst (der in der folgenden Darstellung im Vergleich zu der vorherigen Darstellung in den eckigen Klammern nach links verschobene Abschnitt):
--[---]---------- - Wenn der Benutzer nun vollständig nach rechts schwenkt (der in der folgenden Darstellung im Vergleich zu einer der beiden vorherigen Darstellungen in den eckigen Klammern nach rechts verschobene Abschnitt):
------------[---] - So ist es möglich das gesamte Panoramabild zur Anzeige in einer Art bereitzustellen, die den Charakter der ursprünglichen weiten Panoramaszene erfasst. Der Benutzer kann sich dabei auch verschiedene Teile, Segmente oder Komponenten einer Panoramaszene bei voller Auflösung in der vertikalen Richtung anschauen.
- Eine Modifizierung der ”Schlüsselloch”- oder ”Guckloch”-Ansicht wird bereitgestellt, wenn das System Daten in Bezug auf die Bewegung speichert, die verwendet wurden, um die ursprünglichen Panoramabilder zu erfassen. Diese Bewegungsdaten können verwendet werden, um das anschließende Betrachten des Bildes durch den Benutzer zu kontrollieren. Insbesondere auf einem tragbaren Gerät kann die Bewegung während des Erfassens und während der Wiedergabe gemessen werden, obwohl die Bewegung auf einem tragbaren Gerät beispielsweise auch auf einem Desktop-Computer mit Mauseingabe simuliert werden kann.
- Eine alternative Ausführungsart umfasst die Wiedergabe des Original-Videoclips, aber die Steuerung der Richtung und/oder Geschwindigkeit der Wiedergabe entsprechend dem, wie der Benutzer das tragbare Gerät während des Betrachtens bewegt.
- STEREOSKOPISCHE PANORAMAERSTELLUNG AUF TRAGBAREN GERÄTEN
- Es können zwei zusammengesetzte stereoskopische (3D) Panoramabilder erstellt werden, indem eine Kantenabstimmung und Zusammenfügung von überlappenden Bildern durchgeführt wird. Die beiden Panoramabilder sind räumlich um einen Abstand versetzt, der in manchen Ausführungsarten dem eines menschlichen Augenpaares, z. B. 5 bis 7 oder 8 cm, entsprechen kann. Sogar größere Verschiebungen können gewählt werden, um einen ausgewählten Zoomeffekt zu erzeugen. Auf jeden Fall erscheinen Objekte im Vordergrund in einer anderen Perspektive als im Hintergrund. Dieser Unterschied verstärkt sich, je näher das Objekt an der Kamera ist.
- Die
14A und14B veranschaulichen die Erfassung von zwei Bildern durch eine digitale Kamera, die zwischen den Bilderfassungen um wenige Zentimeter verschoben ist, und die verwendet werden können, um ein dreidimensionales Komponenten-Bild zu erzeugen und mit weiteren dreidimensionalen Komponenten-Bildern zu verbinden, um ein stereoskopisches Panoramabild zu erzeugen.15 veranschaulicht Einzelbilder aus einer Panorama-Abtastsequenz, die relative horizontale räumliche Verschiebungen der digitalen Kamera der14A und14B zeigen, wobei die Bildpaare verschmolzen werden, um stereoskopische Panoramabilder zu bilden. Es wird darauf hingewiesen, dass die Bilder in15 in Rechtecken dargestellt sind, so als gäbe es sowohl vertikale als auch horizontale Verschiebungen. Doch mit den scheinbaren vertikalen Verschiebungen, die in15 veranschaulicht sind, sollen individuelle Bilder/Einzelbilder in der Darstellung von15 unterschieden werden, und mit ihnen sollen nicht unbedingt vertikale Verschiebungen zwischen Einzelbildern angezeigt werden, die in der Panoramaabtastung erfasst wurden. Fluktuationen in vertikalen und horizontalen Verschiebungen werden mit den oben beschriebenen Abstimmungs- und Stitching-Prozessen gehandhabt. - Wie in den
14A und14B zu sehen ist, kann ein stereoskopisches Bildpaar zwei Bilder aufweisen, die mit einer ausreichenden relativen Verschiebung aufgenommen sind, die ausgewählt sein kann, um einen konfigurierbaren 3D-Effekt bereitzustellen. Die Verschiebungen von 5 bis 7 cm wären z. B. in der Größenordnung des Abstandes zwischen den Augen eines Menschen, die von der Natur her so angeordnet sind, um eine 3D Darstellung bereitzustellen. Größere oder etwas kleinere Abstände sind auch möglich, z. B. zwischen 2 cm und 10 cm oder 12 cm (siehe Beispiel unten) oder zwischen 3 cm und 9 cm oder zwischen 4 cm und 8 cm. Die Stereobasis kann fest oder in bestimmten Ausführungsarten vorteilhafterweise konfigurierbar sein. Dieser Verschiebungsabstand kann z. B. ein Parameter sein, auf den der Benutzer (oder der OEM/ODM) Zugriff hat, um den 3D-Effekt gezielt zu verbessern. - Wie erwähnt, kommt die Verschiebung von 5 bis 7 oder 8 cm in bestimmten Ausführungsarten von Mutter Natur. Diese Zahlen beziehen sich auf den physischen Standort von Beobachterpunkten (z. B. Augen). Diese können auf der Basis bekannter Merkmale der Optik der digitalen Kamera oder des kamerafähigen Gerätes, Photo-Handys, Kamera-Musikplayers etc., das verwendet wird, um das stereoskopische Panoramabild zu erfassen, in Pixelabstände umgewandelt werden. In der Ausführungsart von
17 , die im Detail nachstehend beschrieben wird, kann z. B. der Abstand zwischen den beiden Zuschnitten konfigurierbar sein. In Tests wurde, selbst wenn diese Zuschnitte überlappen (so dass der Abstand zwischen ihrer Mitte sehr klein ist), immer noch ein bemerkenswert guter 3D-Effekt beobachtet. Kurz gesagt, je nach Erfassungsbedingungen und dem gewünschten 3D-Effekt, können die Verschiebungsabstände zwischen sehr klein und sehr groß variieren. - In Bezug auf die relativen Positionen der optischen Achse des Kameragerätes gilt folgendes: wenn man zwei Bilder aufnimmt, um den stereoskopischen Effekt zu erzeugen, kommt es unter 5 cm zu einem reduzierten stereoskopischen Effekt, wenn der Abstand geringer wird. Ein größerer Abstand erzeugt einen verbesserten stereoskopischen Effekt, was dem Eintritt des ”Beobachters” in die Szene gleichkommt. Kurz gesagt, die Brennebene scheint näher zu dem Betrachter zu rücken. Das bedeutet, dass ein Stereobild erstellt und mit einem Abstand von 7 cm und anschließend mit 8 cm, gefolgt von einem Abstand von z. B. 9, 10, 12, 14 cm betrachtet werden kann, und dass es dann so wirken wird, als würde sich der Betrachter in die Szene hineinbewegen. Die Objekte im Vordergrund werden zunehmend 3D und scheinen sich auf den Beobachter zuzubewegen, während der Hintergrund ”im Hintergrund” bleibt. So kann der Abstand je nach der gewünschten 3D-Erfahrung variiert, konfiguriert und/oder ausgewählt werden. Eine äußere Grenze des Verschiebungsabstandes für den stereoskopischen Effekt würde etwas von der Szene abhängen, die erfasst wird. Wenn z. B. nahe Objekte im Vordergrund vorhanden sind, werden sehr große Stereoabstände (z. B. > 20 cm) die Objekte im Vordergrund verzerren. Wenn keine nahen Objekte im Vordergrund vorhanden sind, könnte man höhere Verschiebungswerte, z. B. 20–30 cm oder mehr, verwenden. D. h., dass in bestimmten Ausführungsarten der Stereoabstand darauf beruht, zu bestimmen, wie nahe die Vordergrundobjekte in der Szene sind. Je näher die nächstliegenden Vordergrundobjekte sind, desto kleiner der beginnende Stereoabstand bis zu einer unteren Grenze, z. B. von ca. 5 cm.
- In bestimmten Ausführungsarten können zwei Panoramasequenzen, die mit einer ähnlichen relativen Verschiebung beginnen und diese Verschiebung durch das Verschmelzen nachfolgender Bilder hindurch aufrechterhalten, ein stereoskopisches Panoramapaar liefern, und können als solches in einem 3D-Anzeigesystem oder -gerät betrachtet werden. Die beiden Panoramasequenzen können aus einer einzigen Abtastung oder alternativ aus mehr als einer Abtastung der gleichen oder ähnlichen Panoramaszene stammen, z. B. kann ein Benutzer unter anderen möglichen Alternativen von links nach rechts abtasten und dann sofort zurückkehren und die Kamera in die ursprüngliche Richtung von dem ursprünglichen Startpunkt aus richten, indem er sich von rechts nach links zurückbewegt.
- In der in den
14A ,14B und15 veranschaulichten beispielhaften Ausführungsart sind Einzelbilder wie folgt zusammengefügt: die Einzelbilder 1 + 3 + 5 + 7 werden verwendet, um eine Panoramabildmenge zu bilden, anschließend bilden die Einzelbilder 2 + 4 + 6 + 8 eine zweite Panoramabildmenge. Diese beiden verschiedenen Bildmengen werden verwendet, um zwei verschiedene Panoramabilder P1, P2 zu erzeugen, die größtenteils, aber nicht unbedingt vollständig überlappen, und Komponenten-Bilder aufweisen, die von links nach rechts zueinander versetzt sind, wie in15 veranschaulicht. - Es müssen nicht alle Bilder beibehalten werden; es können z. B. zwischen den Einzelbildern 1 und 2 (z. B. Einzelbilder 1-2, 1-3 und 1-4) weitere Einzelbilder erfasst worden sein, aber diese wurden verworfen.
15 zeigt sogar ein Einzelbild, das zwischen Einzelbild 1 und Einzelbild 2 erfasst wurde, und zwei Einzelbilder, die zwischen Einzelbild 2 und Einzelbild 3 erfasst wurden, und zwei Einzelbilder zwischen Einzelbilder 3 und Einzelbild 4 usw., bei denen es sich um erfasste Einzelbilder handelt, die in diesem Beispiel nicht in dem stereoskopischen Panorama verwendet wurden. Das zweite Bild kann zurückgewiesen worden sein, da es nach einer Kamerabewegung von weniger als einem Schwellenwert, z. B. 5 cm, 4 cm, 3 cm etc. erfasst wurde. Das vierte und fünfte Bild kann zurückgewiesen worden sein, da es nach einer weiteren Kamerabewegung und/oder Szenenverschiebung von weniger als einem Schwellenwert, z. B. 50%, 60%, 70%, 80%, 90% etc. des Ausmaßes der Szene in Einzelbild 1 erfasst wurde, oder die Bilder verschwommen waren oder mit blinzelnden Augen oder auf andere Weise unzufriedenstellend waren (siehe z. B. die veröffentlichten amerikanischen Patentanmeldungen 20070201724, 20070201725, 20070201726, 20090190803, 2008061328). - In dieser Ausführungsart kann das tragbare Gerät eine Komponente aufweisen, die die externe Bewegung der Kamera misst. Dies kann erreicht werden durch die Verwendung eines Beschleunigungsmessers, eines Gyroskops oder eines anderen physikalischen Sensors. Es kann auch erreicht werden durch die Verwendung einer Abstimmungskomponente von Einzelbild zu Einzelbild, die Pixelbewegungen zwischen aufeinanderfolgenden Einzelbildern einer Bild- oder Videoerfassungssequenz bestimmen kann, und so kalibriert wurde, dass sie diese Pixelbewegung zu der externen physikalischen Bewegung des Bilderfassungsgerätes in Beziehung setzt.
- In dieser Ausführungsart werden verschiedene Einzelbilder einer Abtastung verwendet, um die Panoramabilder herzustellen. Zwei Panoramas können aus einer einzigen Abtastbewegung stammen. Jedes der Einzelbilder in der zweiten Abtastung ist innerhalb einer vorgegebenen akzeptablen Entfernung, z. B. 5–7,5 cm, oder siehe die Diskussion oben, von dem entsprechenden Einzelbild in dem ersten Panorama verschoben. Ein Bewegungssensor oder eine andere Kalibrierung, die ein Verschiebungsverfahren von Einzelbild zu Einzelbild erlaubt, wird verwendet, um zu bestimmen, wann sich die Kamera zwischen 5–7,5 cm oder einem anderen ausgewählten oder konfigurierten Verschiebungsabstand bewegt hat.
- Die Kamera kann von einem Benutzer oder auf einem mechanischen, drehbaren Stativ kreisförmig oder in einer etwas weniger als kreisförmigen Abtastbewegung bewegt werden. Mit einer einzelnen Abtastung werden zwei räumlich versetzte Panoramas erzeugt, während sich der Benutzer nicht bewegen oder kein zweites Panorama erfassen muss.
- Die
16A –16B veranschaulichen ein Verhältnis zwischen Panoramaabtastradius und einem weitaus kürzeren Abstand der Verschiebung der digitalen Kamera zwischen der Erfassung von zu verschmelzenden Bildpaaren, um stereoskopische Panoramabilder zu bilden. Der Abstand (Verzögerung) zwischen den Einzelbildern, z. B. 5–7,5 cm beträgt etwas weniger als der Radius der Abtastung, z. B. 1,2 m oder eine andere Länge eines menschlichen Armes, so dass die Bewegung zwischen jedem Paar von Einzelbildern ungefähr parallel zu der Szene ist. 0,075 m sind z. B. weitaus weniger als 1,2 m (ca. 6%) und Tests haben gezeigt, dass sogar bis zu 15% gute stereoskopische Panoramabilder geliefert werden. -
17 veranschaulicht ein Verfahren zur Erzeugung eines stereoskopischen (3D) Panoramabildes gemäß bestimmten weiteren Ausführungsarten unter Verwendung von linken und rechten Zuschnitten aus einzelnen Schlüsselbildern. Bei diesen Ausführungsarten kann, anstatt verschiedene Schlüsselbilder für zwei stereoskopische Panoramas auszuwählen, ein ”linker” und ”rechter” Zuschnitt an jedem der Schlüsselbilder ausgewählt werden. D. h., dasselbe Schlüsselbild wird für beide Panoramabilder verwendet, während das erste Panorama von einem LH-Abschnitt (linken) des Schlüsselbildes begonnen wird, und das zweite, verschobene Panorama von dem RH-Abschnitt (rechten) des Schlüsselbildes begonnen wird. Der Abstand zwischen der äußersten linken Kante des LH-Abschnittes und der äußersten linken Kante des RH-Abschnittes des Schlüsselbildes sollte äquivalent sein (in Pixel) zu der 5–8 cm physischen Verschiebung entsprechend dem Abstand des menschlichen Auges, oder je nach dem gewünschten 3D-Effekt, wie oben besprochen, anderweitig konfiguriert, verändert oder ausgewählt sein. Selbst in den anderen beschriebenen Ausführungsarten können Zuschnitte verwendet werden. - Der in
17 veranschaulichte Ansatz hat mindestens die folgenden Vorteile: die Stereobasis kann fest sein und weitere Maßnahmen sind nicht erforderlich, um sie feststehend zu halten. Bei anderen Ansätzen kann es sein, dass die Stereobasis aufgrund der von dem Benutzer durchgeführten variablen Schwenkgeschwindigkeit schwer zu kontrollieren ist. - Da für die linken und rechten Panoramas dieselben Schlüsselbilder verwendet werden, wird die Abstimmung nur ein Mal für links und rechts durchgeführt. Durch dieses Merkmal wird der Abstimmungsvorgang um die Hälfte reduziert und bestimmte Instabilitäten bei der Aufrechterhaltung der Stereobasis werden verhindert.
- Diese Ausführungsart bewältigt auch perspektivische Verzerrungen gut, indem Zuschnitte gewählt werden, die schmal genug sind.
- Mehr als zwei Zuschnitte können in diesen Ausführungsarten verwendet werden, z. B. um mehrere Stereobasen zu haben. Bei einer alternativen Ausführungsart können mehr als zwei Panoramabilder erfasst werden. Bei einer solchen Ausführungsart können das erste und zweite Panoramabild eine feststehende Verschiebung, z. B. 7 cm, das zweite und dritte können eine andere Verschiebung, z. B. 5 cm, aufweisen. Ein stereoskopisches Bild kann aus dem ersten und zweiten Panoramabild erstellt werden, während ein zweites stereoskopisches Bild aus dem ersten und dritten stereoskopischen Bild erstellt werden kann. Dies kann einen verbesserten stereoskopischen Effekt haben, da die Verschiebung zwischen den Szenen 12 cm betragen würde.
- Dieses zweite stereoskopische Panoramabild kann den scheinbaren Effekt haben, die Benutzerperspektive zu der Hauptszene hin zu verschieben. Mit anderen Worten, die weitere stereoskopische Verschiebung (12 cm) lässt Vordergrundobjekte näher erscheinen. Wenn mehrere zusätzliche Panoramas erstellt werden, wird es möglich, einen stereoskopischen Effekt zu erzeugen, der die Illusion schafft, dass sich der Benutzer tiefer in die Szene hineinbewegt (oder aus der Szene zurückbewegt, wenn die Bilder in der umgekehrten Reihenfolge angezeigt werden). Dieses Verfahren ermöglicht die Schaffung recht anspruchsvoller Diashow-Effekte, die einen 3D-Schwenkeffekt umfassen. Dies unterscheidet sich vom einfachen Hineinzoomen in eine Bildszene, weil sich die 3D-Ansicht von Vordergrundobjekten verändert, und das Ausmaß der Veränderung steht in direkter Beziehung zu dem Abstand dieser Objekte von der Kamera. In einer weiteren alternativen Ausführungsart kann eine Sequenz dieser stereoskopischen Schwenk-/Zoom-Effekte erfasst werden, um eine 3D-Videosequenz zu erstellen, die von einer einzelnen Panoramaabtastung mit der Kamera stammt.
- Während beispielhafte Zeichnungen und bestimmte Ausführungsarten der vorliegenden Erfindung beschrieben und veranschaulicht wurden, versteht es sich, dass der Schutzbereich der vorliegenden Erfindung nicht auf die einzelnen besprochenen Ausführungsarten beschränkt ist. Somit sind die Ausführungsarten eher als veranschaulichend und nicht als einschränkend anzusehen und es sollte klar sein, dass Fachleute auf dem Gebiet Veränderungen an diesen Ausführungsarten vornehmen können, ohne dass sie sich dadurch aus dem Schutzbereich der vorliegenden Erfindung, wie sie in den nachfolgenden Ansprüchen dargelegt ist, und ihren baulichen und funktionellen Äquivalenten entfernen.
- Mit Verfahren, die gemäß bevorzugten und alternativen Ausführungsarten und hierin dargelegten Ansprüchen durchgeführt werden können, wurden die Arbeitsgänge außerdem in ausgewählten typographischen Sequenzen beschrieben. Doch die Sequenzen wurden im Hinblick auf ihre typographische Zweckmäßigkeit ausgewählt und angeordnet und sie sollen keine bestimmte Reihenfolge für die Durchführung der Arbeitsgänge implizieren, es sei denn, eine bestimmte Reihenfolge ist ausdrücklich als erforderlich angesehen oder wird von den Fachleuten in dem Gebiet für nötig gehalten.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- US 20090022422 [0013, 0014]
- US 20090021576 [0014, 0015]
- US 20060268130 [0015]
- US 20060171464 [0095]
- US 20080309769 [0095, 0112]
- US 2008/0219581 [0148]
- US 7606417 [0153, 0158]
- US 7460695 [0153]
- US 7469055 [0153]
- US 7460694 [0153]
- US 7403643 [0153]
- US 7315631 [0153]
- US 7565030 [0155, 0160]
- US 7440593 [0155]
- US 7469071 [0158]
- WO 2007/142621 [0160]
- Zitierte Nicht-Patentliteratur
-
- Sethian et al., A Fast Marching Level Set Method for Monotonically Advancing Fronts, Proceedings der National Academy of Sciences, eingereicht am 20. Oktober 1995 [0135]
- Dijkstra, E. W. (1959), ”A note on two problems in connexion with graphs” [0136]
- http://wwwm3.ma.tum.de/twiki/pub/MN0506/WebHome/dijkstra.pdf [0136]
- Sniedovich, M. (2006) ”Dijkstra's algorithm revisited: the dynamic programming connexion” (PDF). Journal of Control and Cybernetics 35 (3): 599–620 [0136]
- http://matwbn.icm.edu.pl/ksiazki/cc/cc35/cc3536.pdf [0136]
- ”Image Alignment and Stitching: A Tutorial” von Richard Szeliski (Preliminary draft, 27. September 2004, Technical Report, MSR-TR-2004-92, Seiten 8–10) [0162]
Claims (16)
- Verfahren zur Erzeugung eines stereoskopischen Panoramabildes, wobei das Verfahren folgendes aufweist: Festlegen eines Belichtungswertes zur Erfassung des Panoramabildes mit dem tragbaren Bilderfassungsgerät; Schwenken des Bilderfassungsgerätes über eine Szene; Erfassen mehrerer, teilweise überlappender Einzelbilder von Teilen der Szene, einschließlich der Verwendung eines optischen Sensors und eines Bildsensors des tragbaren Bilderfassungsgerätes; Abstimmen der Einzelbilder, einschließlich Bestimmen von Verschiebungen des Bilderfassungsgerätes zwischen den Erfassungen von Einzelbildern; Erzeugen mehrerer Panoramabilder, einschließlich Zusammenfügen von Einzelbildern der Szene gemäß räumlicher Beziehungen und Bestimmen stereoskopischer entsprechender Beziehungen zwischen den mehreren Panoramabildern; Bearbeiten der mehreren Panoramabilder auf der Grundlage der stereoskopischen entsprechenden Beziehungen, um ein stereoskopisches Panoramabild zu bilden; und Speichern, Übertragen oder Anzeigen des stereoskopischen Panoramabildes oder Kombinationen davon.
- Verfahren nach Anspruch 1, wobei das Bestimmen von Verschiebungen das Messen der Verschiebungen aufweist.
- Verfahren nach Anspruch 1, wobei das Bestimmen von Verschiebungen das Bestimmen von Verschiebungen in mindestens zwei Dimensionen aufweist.
- Verfahren nach Anspruch 3, wobei die mindestens zwei Dimensionen zwei Dimensionen orthogonal zu der Tiefendimension aufweisen.
- Verfahren nach Anspruch 4, wobei das Bestimmen von Verschiebungen das Bestimmen von Verschiebungen in drei Dimensionen, einschließlich der Tiefendimension, aufweist.
- Verfahren nach Anspruch 1, wobei das Bestimmen stereoskopischer entsprechender Beziehungen folgendes aufweist: das Paaren von Einzelbildern mit relativen Verschiebungen innerhalb eines ersten vorgegebenen Bereichs, der so gestaltet ist, dass er einen ausgewählten stereoskopischen Effekt liefert; das Kombinieren von gepaarten Einzelbildern, um stereoskopische Komponenten-Bilder zu bilden; und das Beibehalten gepaarter Einzelbilder, die eine Überlappung mit angrenzenden gepaarten Einzelbildern innerhalb eines zweiten vorgegebenen Bereichs aufweisen.
- Verfahren nach Anspruch 6, wobei der erste vorgegebene Bereich 5 bis 7,5 cm aufweist.
- Verfahren nach Anspruch 1, wobei die teilweise Überlappung zwischen 10% und 50% Überlappung aufweist.
- Verfahren nach Anspruch 1, das weiterhin das verschachtelnde Zusammenfügen von Paaren von Einzelbildern mit Erfassen oder Erzeugen, oder beidem, von nächsten Einzelbildern aufweist.
- Verfahren nach Anspruch 1, wobei der erste vorgegebene Bereich nicht größer ist als 15% eines Schwenkradius des Bilderfassungsgerätes.
- Verfahren zum Erzeugen eine Panoramabildes unter Verwendung eines tragbaren Bilderfassungsgerätes, wobei das Verfahren folgendes aufweist: Festlegen eines Belichtungswertes zur Erfassung des Panoramabildes mit dem tragbaren Bilderfassungsgerät; Schwenken des Bilderfassungsgerätes über eine Szene; Erfassen von mindestens zwei Satz Bildern, die jeweils mindestens zwei Einzelbilder von Teilen der Szene aufweisen, und Bearbeiten dieser Sätze, wobei das Erfassen die Verwendung eines optischen Sensors und eines Bildsensors des tragbaren Bilderfassungsgerätes aufweist, wobei das Bearbeiten folgendes aufweist: Aussortieren und Beibehalten der mindestens zwei Einzelbilder der mindestens zwei Sätze; Bestimmen relativer Verschiebungen zwischen im wesentlichen überlappenden Einzelbildern innerhalb der mindestens zwei Sätze von Einzelbildern; Abstimmen von Bildern innerhalb der mindestens zwei Sätze relativ zueinander; Verbinden der im wesentlichen überlappenden Einzelbilder; Zusammenfügen von Komponenten-Bildern des Panoramabildes; und Speichern, Übertragen oder Anzeigen des Panoramabildes oder Kombinationen daraus.
- Verfahren nach Anspruch 11, das weiterhin das Bestimmen einer relativen Verschiebung zwischen einem ersten oder anderweitig entsprechenden erfassten Einzelbild jedes der zwei oder mehr Sätze von Einzelbildern aufweist.
- Verfahren nach Anspruch 11, das weiterhin das Abstimmen eines verbundenen Panoramabildes aufweist, das aus Bildern eines jeden der zwei oder mehr Sätze stammt.
- Verfahren nach Anspruch 11, das weiterhin das verschachtelnde Zusammenfügen von Paaren von Einzelbildern mit Erfassen oder Erzeugen, oder beidem, von nächsten Einzelbildern aufweist.
- Tragbares, kamerafähiges Gerät, das in der Kamera ein Panoramabild erzeugen kann, welches ein Objektiv, einen Bildsensor, einen Prozessor und einen prozessorlesbaren Datenträger mit eingebettetem Code zum Programmieren des Prozessors aufweist, um ein Verfahren der Panoramabilderzeugung nach einem der obigen Ansprüche durchzuführen.
- Ein oder mehrere computerlesbare Speichermedien mit eingebettetem Code für die Programmierung eines Prozessors, um ein Verfahren der Panoramabilderzeugung nach einem der Ansprüche 1–14 durchzuführen.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/879,003 | 2010-09-09 | ||
US12/879,003 US10080006B2 (en) | 2009-12-11 | 2010-09-09 | Stereoscopic (3D) panorama creation on handheld device |
PCT/IB2011/002715 WO2012032412A2 (en) | 2010-09-09 | 2011-09-09 | Stereoscopic (3d) panorama creation on handheld device |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112011103011T5 true DE112011103011T5 (de) | 2013-11-07 |
Family
ID=45509542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112011103011T Withdrawn DE112011103011T5 (de) | 2010-09-09 | 2011-09-09 | Stereoskopische (3D) Panoramaerstellung auf tragbaren Geräten |
Country Status (7)
Country | Link |
---|---|
US (2) | US10080006B2 (de) |
JP (1) | JP5969992B2 (de) |
KR (1) | KR101711036B1 (de) |
CN (1) | CN103168315B (de) |
DE (1) | DE112011103011T5 (de) |
GB (1) | GB2498284B8 (de) |
WO (1) | WO2012032412A2 (de) |
Families Citing this family (117)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5338498B2 (ja) * | 2009-06-09 | 2013-11-13 | ソニー株式会社 | 監視カメラシステムで使用される制御装置、カメラシステム及びプログラム |
US9792012B2 (en) | 2009-10-01 | 2017-10-17 | Mobile Imaging In Sweden Ab | Method relating to digital images |
US8294748B2 (en) * | 2009-12-11 | 2012-10-23 | DigitalOptics Corporation Europe Limited | Panorama imaging using a blending map |
US20110141225A1 (en) * | 2009-12-11 | 2011-06-16 | Fotonation Ireland Limited | Panorama Imaging Based on Low-Res Images |
US10080006B2 (en) | 2009-12-11 | 2018-09-18 | Fotonation Limited | Stereoscopic (3D) panorama creation on handheld device |
CN103189796B (zh) * | 2010-09-20 | 2015-11-25 | 瑞典移动影像股份公司 | 用于形成图像的方法 |
JP2012068380A (ja) * | 2010-09-22 | 2012-04-05 | Sony Corp | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム |
JP5510238B2 (ja) * | 2010-09-22 | 2014-06-04 | ソニー株式会社 | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム |
JP5696419B2 (ja) * | 2010-09-30 | 2015-04-08 | カシオ計算機株式会社 | 画像処理装置及び方法、並びにプログラム |
WO2012061549A2 (en) * | 2010-11-03 | 2012-05-10 | 3Dmedia Corporation | Methods, systems, and computer program products for creating three-dimensional video sequences |
CN103081455B (zh) | 2010-11-29 | 2017-03-08 | 快图有限公司 | 从手持设备所捕获的多个图像进行肖像图像合成 |
US8308379B2 (en) | 2010-12-01 | 2012-11-13 | Digitaloptics Corporation | Three-pole tilt control system for camera module |
US9124881B2 (en) * | 2010-12-03 | 2015-09-01 | Fly's Eye Imaging LLC | Method of displaying an enhanced three-dimensional images |
FR2969353A1 (fr) * | 2010-12-20 | 2012-06-22 | St Ericsson Sa | Procede de realisation d'une image panoramique a partir d'une sequence video et appareil de mise en oeuvre. |
EP2577955B1 (de) | 2011-02-18 | 2014-07-30 | DigitalOptics Corporation Europe Limited | Dynamische bereichserweiterung durch kombination unterschiedlich belichteter mit tragbaren vorrichtungen erfasster bilder |
WO2012132234A1 (ja) * | 2011-03-31 | 2012-10-04 | パナソニック株式会社 | 全周囲立体画像の描画を行う画像描画装置、画像描画方法、画像描画プログラム |
US9088714B2 (en) * | 2011-05-17 | 2015-07-21 | Apple Inc. | Intelligent image blending for panoramic photography |
US9762794B2 (en) | 2011-05-17 | 2017-09-12 | Apple Inc. | Positional sensor-assisted perspective correction for panoramic photography |
US9247133B2 (en) | 2011-06-01 | 2016-01-26 | Apple Inc. | Image registration using sliding registration windows |
US9251562B1 (en) | 2011-08-04 | 2016-02-02 | Amazon Technologies, Inc. | Registration of low contrast images |
US9191649B2 (en) * | 2011-08-12 | 2015-11-17 | Qualcomm Incorporated | Systems and methods to capture a stereoscopic image pair |
US8493460B2 (en) | 2011-09-15 | 2013-07-23 | DigitalOptics Corporation Europe Limited | Registration of differently scaled images |
US8493459B2 (en) | 2011-09-15 | 2013-07-23 | DigitalOptics Corporation Europe Limited | Registration of distorted images |
US9402065B2 (en) * | 2011-09-29 | 2016-07-26 | Qualcomm Incorporated | Methods and apparatus for conditional display of a stereoscopic image pair |
KR101804199B1 (ko) * | 2011-10-12 | 2017-12-05 | 삼성전자주식회사 | 입체 파노라마 영상을 생성하는 장치 및 방법 |
JP5870636B2 (ja) * | 2011-11-09 | 2016-03-01 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
US20130163854A1 (en) * | 2011-12-23 | 2013-06-27 | Chia-Ming Cheng | Image processing method and associated apparatus |
US8259161B1 (en) | 2012-02-06 | 2012-09-04 | Google Inc. | Method and system for automatic 3-D image creation |
US9294667B2 (en) | 2012-03-10 | 2016-03-22 | Digitaloptics Corporation | MEMS auto focus miniature camera module with fixed and movable lens groups |
WO2013136053A1 (en) | 2012-03-10 | 2013-09-19 | Digitaloptics Corporation | Miniature camera module with mems-actuated autofocus |
US9098922B2 (en) * | 2012-06-06 | 2015-08-04 | Apple Inc. | Adaptive image blending operations |
US10306140B2 (en) | 2012-06-06 | 2019-05-28 | Apple Inc. | Motion adaptive image slice selection |
WO2014072837A2 (en) | 2012-06-07 | 2014-05-15 | DigitalOptics Corporation Europe Limited | Mems fast focus camera module |
TW201351959A (zh) * | 2012-06-13 | 2013-12-16 | Wistron Corp | 立體全景影像合成方法及其相關之立體攝影機 |
US20150172544A1 (en) * | 2012-07-04 | 2015-06-18 | Zhipin Deng | Panorama based 3d video coding |
US9007520B2 (en) | 2012-08-10 | 2015-04-14 | Nanchang O-Film Optoelectronics Technology Ltd | Camera module with EMI shield |
US9001268B2 (en) | 2012-08-10 | 2015-04-07 | Nan Chang O-Film Optoelectronics Technology Ltd | Auto-focus camera module with flexible printed circuit extension |
US9242602B2 (en) | 2012-08-27 | 2016-01-26 | Fotonation Limited | Rearview imaging systems for vehicle |
CN103679667B (zh) * | 2012-09-18 | 2016-06-08 | 成都方程式电子有限公司 | 方向自适应性图像拼接方法 |
CN103679668B (zh) * | 2012-09-18 | 2016-11-23 | 成都方程式电子有限公司 | 图像拼接反馈系统 |
US9213781B1 (en) | 2012-09-19 | 2015-12-15 | Placemeter LLC | System and method for processing image data |
FR2996014B1 (fr) * | 2012-09-26 | 2015-12-25 | Interactif Visuel Systeme I V S | Procede d'aide a la determination de parametres de vision d'un sujet |
KR101819851B1 (ko) * | 2012-10-24 | 2018-01-17 | 가부시키가이샤 모르포 | 화상 처리 장치, 화상 처리 방법, 및 기록 매체 |
IES20120509A2 (en) | 2012-11-27 | 2014-06-04 | Digitaloptics Corp Europe Ltd | Digital image capture device having a panorama mode |
US8988586B2 (en) | 2012-12-31 | 2015-03-24 | Digitaloptics Corporation | Auto-focus camera module with MEMS closed loop compensator |
CN107248168A (zh) * | 2013-03-18 | 2017-10-13 | 快图有限公司 | 用于运动估算的方法和装置 |
US9269187B2 (en) | 2013-03-20 | 2016-02-23 | Siemens Product Lifecycle Management Software Inc. | Image-based 3D panorama |
EP3828496A1 (de) * | 2013-04-08 | 2021-06-02 | SNAP Inc. | Abstandsschätzung mithilfe einer multikameravorrichtung |
US9563105B1 (en) * | 2013-04-10 | 2017-02-07 | Ic Real Tech Inc. | Screw coupler enabling direct secure fastening between communicating electronic components |
KR102068048B1 (ko) * | 2013-05-13 | 2020-01-20 | 삼성전자주식회사 | 3차원 영상 제공 시스템 및 방법 |
EP3005232A4 (de) * | 2013-05-29 | 2017-03-15 | Kang-Huai Wang | Rekonstruktion von bildern aus einer in-vivo-multikamerakapsel |
US9832378B2 (en) | 2013-06-06 | 2017-11-28 | Apple Inc. | Exposure mapping and dynamic thresholding for blending of multiple images using floating exposure |
US9344619B2 (en) * | 2013-08-30 | 2016-05-17 | Qualcomm Incorporated | Method and apparatus for generating an all-in-focus image |
US9247129B1 (en) * | 2013-08-30 | 2016-01-26 | A9.Com, Inc. | Self-portrait enhancement techniques |
WO2015066571A1 (en) | 2013-11-01 | 2015-05-07 | The Lightco Inc. | Methods and apparatus relating to image stabilization |
US9686471B2 (en) * | 2013-11-01 | 2017-06-20 | Light Labs Inc. | Methods and apparatus relating to image stabilization |
WO2015071526A1 (en) * | 2013-11-18 | 2015-05-21 | Nokia Technologies Oy | Method and apparatus for enhanced digital imaging |
US20150138314A1 (en) * | 2013-11-20 | 2015-05-21 | Google Inc. | Generating Panoramic Images |
US9436278B2 (en) * | 2014-04-01 | 2016-09-06 | Moju Labs, Inc. | Motion-based content navigation |
WO2015184440A2 (en) | 2014-05-30 | 2015-12-03 | Placemeter Inc. | System and method for activity monitoring using video data |
CN104573164B (zh) * | 2014-07-07 | 2017-10-31 | 贵州电力试验研究院 | 小步长系统等值历史电流源信息更新的硬件实现方法 |
US10102285B2 (en) * | 2014-08-27 | 2018-10-16 | International Business Machines Corporation | Consolidating video search for an event |
US10750153B2 (en) | 2014-09-22 | 2020-08-18 | Samsung Electronics Company, Ltd. | Camera system for three-dimensional video |
US11205305B2 (en) | 2014-09-22 | 2021-12-21 | Samsung Electronics Company, Ltd. | Presentation of three-dimensional video |
KR102249831B1 (ko) | 2014-09-26 | 2021-05-10 | 삼성전자주식회사 | 3d 파노라마 이미지 생성을 위한 영상 생성 장치 및 방법 |
US9940541B2 (en) | 2015-07-15 | 2018-04-10 | Fyusion, Inc. | Artificially rendering images using interpolation of tracked control points |
US10726593B2 (en) * | 2015-09-22 | 2020-07-28 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US10262426B2 (en) | 2014-10-31 | 2019-04-16 | Fyusion, Inc. | System and method for infinite smoothing of image sequences |
US10275935B2 (en) | 2014-10-31 | 2019-04-30 | Fyusion, Inc. | System and method for infinite synthetic image generation from multi-directional structured image array |
US10176592B2 (en) | 2014-10-31 | 2019-01-08 | Fyusion, Inc. | Multi-directional structured image array capture on a 2D graph |
US10043078B2 (en) * | 2015-04-21 | 2018-08-07 | Placemeter LLC | Virtual turnstile system and method |
US11334751B2 (en) | 2015-04-21 | 2022-05-17 | Placemeter Inc. | Systems and methods for processing video data for activity monitoring |
EP3086554B1 (de) * | 2015-04-24 | 2019-04-24 | Visual Vertigo Software Technologies GmbH | System und verfahren zur herstellung und abgabe stereoskopischer videofilme |
JP6272387B2 (ja) * | 2015-05-29 | 2018-01-31 | キヤノン株式会社 | 撮像素子および撮像装置 |
US10380431B2 (en) | 2015-06-01 | 2019-08-13 | Placemeter LLC | Systems and methods for processing video streams |
CN104992408B (zh) * | 2015-06-30 | 2018-06-05 | 百度在线网络技术(北京)有限公司 | 用于用户终端的全景图像生成方法和装置 |
CN106303495B (zh) * | 2015-06-30 | 2018-01-16 | 深圳创锐思科技有限公司 | 全景立体图像的合成方法、装置及其移动终端 |
US11095869B2 (en) | 2015-09-22 | 2021-08-17 | Fyusion, Inc. | System and method for generating combined embedded multi-view interactive digital media representations |
US10242474B2 (en) * | 2015-07-15 | 2019-03-26 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US10852902B2 (en) | 2015-07-15 | 2020-12-01 | Fyusion, Inc. | Automatic tagging of objects on a multi-view interactive digital media representation of a dynamic entity |
US10222932B2 (en) | 2015-07-15 | 2019-03-05 | Fyusion, Inc. | Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations |
US10147211B2 (en) | 2015-07-15 | 2018-12-04 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US11006095B2 (en) | 2015-07-15 | 2021-05-11 | Fyusion, Inc. | Drone based capture of a multi-view interactive digital media |
US11783864B2 (en) | 2015-09-22 | 2023-10-10 | Fyusion, Inc. | Integration of audio into a multi-view interactive digital media representation |
US20170132476A1 (en) * | 2015-11-08 | 2017-05-11 | Otobrite Electronics Inc. | Vehicle Imaging System |
US10264238B2 (en) * | 2015-11-12 | 2019-04-16 | Bitanimate, Inc. | Stereoscopic mapping |
SG10201510773PA (en) * | 2015-12-30 | 2017-07-28 | Creative Tech Ltd | A method for creating a stereoscopic image sequence |
CN108700798A (zh) * | 2016-01-03 | 2018-10-23 | 人眼技术有限公司 | 在创建全景帧过程中的帧适应拼接 |
CN105657268A (zh) * | 2016-01-11 | 2016-06-08 | 塔里木大学 | 一种基于多分辨率的多视点视频拼接融合算法 |
CN106097244A (zh) * | 2016-06-03 | 2016-11-09 | 上海小蚁科技有限公司 | 用于拼接图像的方法和装置以及用于组合图像的方法 |
JP6606480B2 (ja) * | 2016-08-12 | 2019-11-13 | 日本電信電話株式会社 | パノラマ映像情報生成装置、これに用いるパノラマ映像情報生成方法、およびパノラマ映像情報生成用プログラム |
US10346950B2 (en) | 2016-10-05 | 2019-07-09 | Hidden Path Entertainment, Inc. | System and method of capturing and rendering a stereoscopic panorama using a depth buffer |
US11202017B2 (en) | 2016-10-06 | 2021-12-14 | Fyusion, Inc. | Live style transfer on a mobile device |
WO2018101936A1 (en) * | 2016-11-30 | 2018-06-07 | CapsoVision, Inc. | Method and apparatus for image stitching of images captured using a capsule camera |
US10437879B2 (en) | 2017-01-18 | 2019-10-08 | Fyusion, Inc. | Visual search using multi-view interactive digital media representations |
US10313651B2 (en) | 2017-05-22 | 2019-06-04 | Fyusion, Inc. | Snapshots at predefined intervals or angles |
US11069147B2 (en) | 2017-06-26 | 2021-07-20 | Fyusion, Inc. | Modification of multi-view interactive digital media representation |
CN109996072B (zh) | 2018-01-03 | 2021-10-15 | 华为技术有限公司 | 视频图像的处理方法及装置 |
US11275941B2 (en) | 2018-03-08 | 2022-03-15 | Regents Of The University Of Minnesota | Crop models and biometrics |
CN110248207B (zh) * | 2018-03-08 | 2021-03-16 | 株式会社理光 | 图像现实感展示服务器、展示方法和记录介质及展示系统 |
US10592747B2 (en) | 2018-04-26 | 2020-03-17 | Fyusion, Inc. | Method and apparatus for 3-D auto tagging |
CN108765561A (zh) * | 2018-05-30 | 2018-11-06 | 链家网(北京)科技有限公司 | 房屋虚拟三维模型生成过程中隐私信息处理方法及装置 |
JP6751426B2 (ja) * | 2018-09-07 | 2020-09-02 | 一般財団法人Nhkエンジニアリングシステム | 撮像装置 |
US10733742B2 (en) * | 2018-09-26 | 2020-08-04 | International Business Machines Corporation | Image labeling |
US10686980B1 (en) | 2019-01-22 | 2020-06-16 | Daqri, Llc | Systems and methods for generating composite depth images based on signals from an inertial sensor |
US11107205B2 (en) * | 2019-02-18 | 2021-08-31 | Samsung Electronics Co., Ltd. | Techniques for convolutional neural network-based multi-exposure fusion of multiple image frames and for deblurring multiple image frames |
US10616483B1 (en) * | 2019-02-27 | 2020-04-07 | Hong Kong Applied Science and Technology Research Institute Company Limited | Apparatus and method of generating electronic three-dimensional walkthrough environment |
CN109977853B (zh) * | 2019-03-25 | 2023-07-14 | 太原理工大学 | 一种基于多辨识设备的井下工人全景监控方法 |
US10867220B2 (en) | 2019-05-16 | 2020-12-15 | Rpx Corporation | Systems and methods for generating composite sets of data from different sensors |
CN110659623B (zh) * | 2019-09-27 | 2022-04-08 | 深圳看到科技有限公司 | 基于分帧处理的全景画面展示方法、装置及存储介质 |
CN110866868A (zh) * | 2019-10-25 | 2020-03-06 | 江苏荣策士科技发展有限公司 | 一种双目立体图像的拼接方法 |
US11949976B2 (en) | 2019-12-09 | 2024-04-02 | Corephotonics Ltd. | Systems and methods for obtaining a smart panoramic image |
TWI738423B (zh) * | 2020-07-17 | 2021-09-01 | 智崴資訊科技股份有限公司 | 球幕顯示器的顯示方法 |
JP7199613B2 (ja) * | 2021-01-25 | 2023-01-05 | 三菱電機株式会社 | 画像合成装置、画像合成方法、及びプログラム |
CN112906589B (zh) * | 2021-03-01 | 2023-05-26 | 天地伟业技术有限公司 | 一种基于帧间作差法的mems面内动态特性分析方法 |
CN114742876B (zh) * | 2022-06-13 | 2022-09-06 | 菏泽市土地储备中心 | 一种土地视觉立体测量方法 |
CN115049547B (zh) * | 2022-08-16 | 2022-10-21 | 成都数之联科技股份有限公司 | 一种航拍图像实时增量拼接方法及系统及装置及介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060171464A1 (en) | 2005-02-03 | 2006-08-03 | Samsung Electronics Co., Ltd. | Method and apparatus for motion estimation |
US20060268130A1 (en) | 2005-05-26 | 2006-11-30 | Williams Karen E | In-camera panorama stitching method and apparatus |
WO2007142621A1 (en) | 2006-06-02 | 2007-12-13 | Fotonation Vision Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US7315631B1 (en) | 2006-08-11 | 2008-01-01 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US7403643B2 (en) | 2006-08-11 | 2008-07-22 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US20080219581A1 (en) | 2007-03-05 | 2008-09-11 | Fotonation Vision Limited | Image Processing Method and Apparatus |
US7440593B1 (en) | 2003-06-26 | 2008-10-21 | Fotonation Vision Limited | Method of improving orientation and color balance of digital images using face detection information |
US20080309769A1 (en) | 2007-06-14 | 2008-12-18 | Fotonation Ireland Limited | Fast Motion Estimation Method |
US7469071B2 (en) | 2006-02-14 | 2008-12-23 | Fotonation Vision Limited | Image blurring |
US20090021576A1 (en) | 2007-07-18 | 2009-01-22 | Samsung Electronics Co., Ltd. | Panoramic image production |
US20090022422A1 (en) | 2007-07-18 | 2009-01-22 | Samsung Electronics Co., Ltd. | Method for constructing a composite image |
US7565030B2 (en) | 2003-06-26 | 2009-07-21 | Fotonation Vision Limited | Detecting orientation of digital images using face detection information |
US7606417B2 (en) | 2004-08-16 | 2009-10-20 | Fotonation Vision Limited | Foreground/background segmentation in digital images with differential exposure calculations |
Family Cites Families (104)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4970663A (en) * | 1989-04-28 | 1990-11-13 | Avid Technology, Inc. | Method and apparatus for manipulating digital video data |
JP2998285B2 (ja) * | 1991-05-28 | 2000-01-11 | ミノルタ株式会社 | カメラ |
US5384615A (en) * | 1993-06-08 | 1995-01-24 | Industrial Technology Research Institute | Ambient depth-of-field simulation exposuring method |
US6549681B1 (en) * | 1995-09-26 | 2003-04-15 | Canon Kabushiki Kaisha | Image synthesization method |
US5982951A (en) * | 1996-05-28 | 1999-11-09 | Canon Kabushiki Kaisha | Apparatus and method for combining a plurality of images |
US6657667B1 (en) * | 1997-11-25 | 2003-12-02 | Flashpoint Technology, Inc. | Method and apparatus for capturing a multidimensional array of overlapping images for composite image generation |
US6094215A (en) * | 1998-01-06 | 2000-07-25 | Intel Corporation | Method of determining relative camera orientation position to create 3-D visual images |
AU4184399A (en) * | 1998-05-13 | 1999-11-29 | Infinite Pictures Inc. | Panoramic movies which simulate movement through multidimensional space |
US6496607B1 (en) * | 1998-06-26 | 2002-12-17 | Sarnoff Corporation | Method and apparatus for region-based allocation of processing resources and control of input image formation |
EP1048167B1 (de) * | 1998-09-17 | 2009-01-07 | Yissum Research Development Company Of The Hebrew University Of Jerusalem | System und verfahren zur erzeugung und darstellung von panoramabildern und filmen |
US6317141B1 (en) * | 1998-12-31 | 2001-11-13 | Flashpoint Technology, Inc. | Method and apparatus for editing heterogeneous media objects in a digital imaging device |
US6714249B2 (en) * | 1998-12-31 | 2004-03-30 | Eastman Kodak Company | Producing panoramic digital images by digital camera systems |
US7620909B2 (en) * | 1999-05-12 | 2009-11-17 | Imove Inc. | Interactive image seamer for panoramic images |
US7292261B1 (en) * | 1999-08-20 | 2007-11-06 | Patrick Teo | Virtual reality camera |
US6831677B2 (en) * | 2000-02-24 | 2004-12-14 | Yissum Research Development Company Of The Hebrew University Of Jerusalem | System and method for facilitating the adjustment of disparity in a stereoscopic panoramic image pair |
US7477284B2 (en) * | 1999-09-16 | 2009-01-13 | Yissum Research Development Company Of The Hebrew University Of Jerusalem | System and method for capturing and viewing stereoscopic panoramic images |
US6952212B2 (en) * | 2000-03-24 | 2005-10-04 | Telefonaktiebolaget Lm Ericsson (Publ) | Frame decimation for structure from motion |
US6856472B2 (en) * | 2001-02-24 | 2005-02-15 | Eyesee360, Inc. | Panoramic mirror and system for producing enhanced panoramic images |
WO2002093916A2 (en) * | 2001-05-14 | 2002-11-21 | Elder James H | Attentive panoramic visual sensor |
US7110569B2 (en) * | 2001-09-27 | 2006-09-19 | Koninklijke Philips Electronics N.V. | Video based detection of fall-down and other events |
JP2003219225A (ja) * | 2002-01-25 | 2003-07-31 | Nippon Micro Systems Kk | 動体画像監視装置 |
US7400782B2 (en) * | 2002-08-28 | 2008-07-15 | Arcsoft, Inc. | Image warping correction in forming 360 degree panoramic images |
CN100401320C (zh) * | 2002-10-15 | 2008-07-09 | 精工爱普生株式会社 | 图像处理装置及图像处理方法 |
JP4048907B2 (ja) * | 2002-10-15 | 2008-02-20 | セイコーエプソン株式会社 | 複数の画像データのパノラマ合成 |
US20040189849A1 (en) * | 2003-03-31 | 2004-09-30 | Hofer Gregory V. | Panoramic sequence guide |
JP2004334843A (ja) * | 2003-04-15 | 2004-11-25 | Seiko Epson Corp | 複数の画像から画像を合成する方法 |
CN100468181C (zh) * | 2003-04-30 | 2009-03-11 | 佳能株式会社 | 光量调节装置和拍摄装置 |
WO2004110264A1 (ja) * | 2003-06-11 | 2004-12-23 | Kose Corporation | 肌の評価方法および画像のシミュレーション方法 |
US8199222B2 (en) * | 2007-03-05 | 2012-06-12 | DigitalOptics Corporation Europe Limited | Low-light video frame enhancement |
US7620218B2 (en) * | 2006-08-11 | 2009-11-17 | Fotonation Ireland Limited | Real-time face tracking with reference images |
US7680342B2 (en) * | 2004-08-16 | 2010-03-16 | Fotonation Vision Limited | Indoor/outdoor classification in digital images |
US8948468B2 (en) * | 2003-06-26 | 2015-02-03 | Fotonation Limited | Modification of viewing parameters for digital images using face detection information |
US8155397B2 (en) * | 2007-09-26 | 2012-04-10 | DigitalOptics Corporation Europe Limited | Face tracking in a camera processor |
US7792335B2 (en) | 2006-02-24 | 2010-09-07 | Fotonation Vision Limited | Method and apparatus for selective disqualification of digital images |
US8494286B2 (en) * | 2008-02-05 | 2013-07-23 | DigitalOptics Corporation Europe Limited | Face detection in mid-shot digital images |
GB2405764A (en) | 2003-09-04 | 2005-03-09 | Sharp Kk | Guided capture or selection of stereoscopic image pairs. |
US7343048B2 (en) * | 2003-09-18 | 2008-03-11 | Arcsoft, Inc. | Edge based alignment algorithm |
JP2005123667A (ja) * | 2003-10-14 | 2005-05-12 | Seiko Epson Corp | 複数の画像データからの静止画像データの生成 |
US7409105B2 (en) * | 2003-10-22 | 2008-08-05 | Arcsoft, Inc. | Panoramic maker engine for a low profile system |
US7746404B2 (en) | 2003-11-10 | 2010-06-29 | Hewlett-Packard Development Company, L.P. | Digital camera with panoramic image capture |
US7606441B2 (en) * | 2003-11-27 | 2009-10-20 | Seiko Epson Corporation | Image processing device and a method for the same |
US7813589B2 (en) * | 2004-04-01 | 2010-10-12 | Hewlett-Packard Development Company, L.P. | System and method for blending images into a single image |
JP4356621B2 (ja) | 2004-04-16 | 2009-11-04 | ソニー株式会社 | 撮像装置及び撮像方法 |
JP4293053B2 (ja) * | 2004-05-19 | 2009-07-08 | ソニー株式会社 | 撮像装置及び方法 |
US20070103544A1 (en) * | 2004-08-26 | 2007-05-10 | Naofumi Nakazawa | Panorama image creation device and panorama image imaging device |
WO2006080739A1 (en) * | 2004-10-12 | 2006-08-03 | Electronics And Telecommunications Research Institute | Method and apparatus for encoding and decoding multi-view video using image stitching |
US8503800B2 (en) * | 2007-03-05 | 2013-08-06 | DigitalOptics Corporation Europe Limited | Illumination detection using classifier chains |
US20110102553A1 (en) | 2007-02-28 | 2011-05-05 | Tessera Technologies Ireland Limited | Enhanced real-time face models from stereo imaging |
US8488023B2 (en) | 2009-05-20 | 2013-07-16 | DigitalOptics Corporation Europe Limited | Identifying facial expressions in acquired digital images |
US7768544B2 (en) * | 2005-01-21 | 2010-08-03 | Cutler Ross G | Embedding a panoramic image in a video stream |
US20060182437A1 (en) * | 2005-02-11 | 2006-08-17 | Williams Karen E | Method and apparatus for previewing a panoramic image on a digital camera |
US8004558B2 (en) * | 2005-04-07 | 2011-08-23 | Axis Engineering Technologies, Inc. | Stereoscopic wide field of view imaging system |
US7474848B2 (en) * | 2005-05-05 | 2009-01-06 | Hewlett-Packard Development Company, L.P. | Method for achieving correct exposure of a panoramic photograph |
JP4693159B2 (ja) * | 2005-07-20 | 2011-06-01 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体及び画像生成システム |
US7424218B2 (en) * | 2005-07-28 | 2008-09-09 | Microsoft Corporation | Real-time preview for panoramic images |
US20070081081A1 (en) * | 2005-10-07 | 2007-04-12 | Cheng Brett A | Automated multi-frame image capture for panorama stitching using motion sensor |
US7692696B2 (en) * | 2005-12-27 | 2010-04-06 | Fotonation Vision Limited | Digital image acquisition system with portrait mode |
US7639897B2 (en) * | 2006-01-24 | 2009-12-29 | Hewlett-Packard Development Company, L.P. | Method and apparatus for composing a panoramic photograph |
IES20060559A2 (en) * | 2006-02-14 | 2006-11-01 | Fotonation Vision Ltd | Automatic detection and correction of non-red flash eye defects |
US7634108B2 (en) * | 2006-02-14 | 2009-12-15 | Microsoft Corp. | Automated face enhancement |
US7551754B2 (en) | 2006-02-24 | 2009-06-23 | Fotonation Vision Limited | Method and apparatus for selective rejection of digital images |
US7804983B2 (en) | 2006-02-24 | 2010-09-28 | Fotonation Vision Limited | Digital image acquisition control and correction method and apparatus |
IES20060564A2 (en) * | 2006-05-03 | 2006-11-01 | Fotonation Vision Ltd | Improved foreground / background separation |
ATE497218T1 (de) * | 2006-06-12 | 2011-02-15 | Tessera Tech Ireland Ltd | Fortschritte bei der erweiterung der aam- techniken aus grauskalen- zu farbbildern |
US8456515B2 (en) * | 2006-07-25 | 2013-06-04 | Qualcomm Incorporated | Stereo image and video directional mapping of offset |
US7916897B2 (en) | 2006-08-11 | 2011-03-29 | Tessera Technologies Ireland Limited | Face tracking for controlling imaging parameters |
JP2008077628A (ja) * | 2006-08-21 | 2008-04-03 | Sanyo Electric Co Ltd | 画像処理装置並びに車両周辺視界支援装置及び方法 |
KR20080023774A (ko) | 2006-09-12 | 2008-03-17 | 동부일렉트로닉스 주식회사 | 씨모스 이미지 센서의 포토 다이오드 |
US9369679B2 (en) * | 2006-11-07 | 2016-06-14 | The Board Of Trustees Of The Leland Stanford Junior University | System and process for projecting location-referenced panoramic images into a 3-D environment model and rendering panoramic images from arbitrary viewpoints within the 3-D environment model |
US7809212B2 (en) * | 2006-12-20 | 2010-10-05 | Hantro Products Oy | Digital mosaic image construction |
US8331725B2 (en) * | 2007-01-12 | 2012-12-11 | Qualcomm Incorporated | Panoramic imaging techniques |
US8055067B2 (en) * | 2007-01-18 | 2011-11-08 | DigitalOptics Corporation Europe Limited | Color segmentation |
EP2115662B1 (de) * | 2007-02-28 | 2010-06-23 | Fotonation Vision Limited | Trennung der direktionalen beleuchtungsvariabilität in der statistischen gesichtsmodellierung auf basis von texturraumzerlegungen |
KR101247147B1 (ko) | 2007-03-05 | 2013-03-29 | 디지털옵틱스 코포레이션 유럽 리미티드 | 디지털 영상 획득 장치에서의 얼굴 탐색 및 검출 |
US7747107B2 (en) * | 2007-03-06 | 2010-06-29 | Mitsubishi Electric Research Laboratories, Inc. | Method for retargeting images |
JP4345829B2 (ja) * | 2007-03-09 | 2009-10-14 | ソニー株式会社 | 画像表示システム、画像表示装置、画像表示方法およびプログラム |
WO2008131823A1 (en) * | 2007-04-30 | 2008-11-06 | Fotonation Vision Limited | Method and apparatus for automatically controlling the decisive moment for an image acquisition device |
US7916971B2 (en) * | 2007-05-24 | 2011-03-29 | Tessera Technologies Ireland Limited | Image processing method and apparatus |
US8031961B2 (en) * | 2007-05-29 | 2011-10-04 | Hewlett-Packard Development Company, L.P. | Face and skin sensitive image enhancement |
US20090086021A1 (en) * | 2007-09-27 | 2009-04-02 | Rockwell Automation Technologies, Inc. | Dynamically generating real-time visualizations in industrial automation environment as a function of contect and state information |
US8218855B2 (en) * | 2007-10-04 | 2012-07-10 | Samsung Electronics Co., Ltd. | Method and apparatus for receiving multiview camera parameters for stereoscopic image, and method and apparatus for transmitting multiview camera parameters for stereoscopic image |
KR101454609B1 (ko) * | 2008-01-18 | 2014-10-27 | 디지털옵틱스 코포레이션 유럽 리미티드 | 이미지 프로세싱 방법 및 장치 |
US8750578B2 (en) * | 2008-01-29 | 2014-06-10 | DigitalOptics Corporation Europe Limited | Detecting facial expressions in digital images |
US7855737B2 (en) * | 2008-03-26 | 2010-12-21 | Fotonation Ireland Limited | Method of making a digital camera image of a scene including the camera user |
GB0813432D0 (en) | 2008-07-22 | 2008-08-27 | Spirogen Ltd | Pyrrolobenzodiazepines |
CN106919911A (zh) * | 2008-07-30 | 2017-07-04 | 快图有限公司 | 使用脸部检测的自动脸部和皮肤修饰 |
US9307165B2 (en) * | 2008-08-08 | 2016-04-05 | Qualcomm Technologies, Inc. | In-camera panorama image stitching assistance |
JP4655146B2 (ja) | 2008-12-22 | 2011-03-23 | ブラザー工業株式会社 | 画像形成装置 |
JP5623915B2 (ja) | 2008-12-26 | 2014-11-12 | パナソニックインテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 撮像装置 |
CN101771829A (zh) * | 2008-12-31 | 2010-07-07 | 华晶科技股份有限公司 | 全景图像产生方法 |
US20100201870A1 (en) * | 2009-02-11 | 2010-08-12 | Martin Luessi | System and method for frame interpolation for a compressed video bitstream |
US20100265313A1 (en) * | 2009-04-17 | 2010-10-21 | Sony Corporation | In-camera generation of high quality composite panoramic images |
US20110028208A1 (en) | 2009-07-30 | 2011-02-03 | LAI Games International Pte. Ltd | Game using independent-source game data |
US8379917B2 (en) | 2009-10-02 | 2013-02-19 | DigitalOptics Corporation Europe Limited | Face recognition performance using additional image features |
US20110141224A1 (en) | 2009-12-11 | 2011-06-16 | Fotonation Ireland Limited | Panorama Imaging Using Lo-Res Images |
US20110141226A1 (en) | 2009-12-11 | 2011-06-16 | Fotonation Ireland Limited | Panorama imaging based on a lo-res map |
US8294748B2 (en) * | 2009-12-11 | 2012-10-23 | DigitalOptics Corporation Europe Limited | Panorama imaging using a blending map |
US20110141225A1 (en) | 2009-12-11 | 2011-06-16 | Fotonation Ireland Limited | Panorama Imaging Based on Low-Res Images |
EP2545411B1 (de) | 2009-12-11 | 2014-02-12 | DigitalOptics Corporation Europe Limited | Panoramabildgebung |
US10080006B2 (en) | 2009-12-11 | 2018-09-18 | Fotonation Limited | Stereoscopic (3D) panorama creation on handheld device |
US20110141229A1 (en) | 2009-12-11 | 2011-06-16 | Fotonation Ireland Limited | Panorama imaging using super-resolution |
US20120019613A1 (en) | 2009-12-11 | 2012-01-26 | Tessera Technologies Ireland Limited | Dynamically Variable Stereo Base for (3D) Panorama Creation on Handheld Device |
US20120019614A1 (en) | 2009-12-11 | 2012-01-26 | Tessera Technologies Ireland Limited | Variable Stereo Base for (3D) Panorama Creation on Handheld Device |
CN102959943B (zh) * | 2010-06-24 | 2016-03-30 | 富士胶片株式会社 | 立体全景图像合成装置和方法、以及图像捕获装置 |
-
2010
- 2010-09-09 US US12/879,003 patent/US10080006B2/en active Active
-
2011
- 2011-09-09 DE DE112011103011T patent/DE112011103011T5/de not_active Withdrawn
- 2011-09-09 CN CN201180051076.1A patent/CN103168315B/zh active Active
- 2011-09-09 KR KR1020137008981A patent/KR101711036B1/ko active IP Right Grant
- 2011-09-09 JP JP2013527698A patent/JP5969992B2/ja active Active
- 2011-09-09 GB GB1305502.5A patent/GB2498284B8/en active Active
- 2011-09-09 WO PCT/IB2011/002715 patent/WO2012032412A2/en active Application Filing
-
2018
- 2018-09-14 US US16/132,044 patent/US11115638B2/en active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7565030B2 (en) | 2003-06-26 | 2009-07-21 | Fotonation Vision Limited | Detecting orientation of digital images using face detection information |
US7440593B1 (en) | 2003-06-26 | 2008-10-21 | Fotonation Vision Limited | Method of improving orientation and color balance of digital images using face detection information |
US7606417B2 (en) | 2004-08-16 | 2009-10-20 | Fotonation Vision Limited | Foreground/background segmentation in digital images with differential exposure calculations |
US20060171464A1 (en) | 2005-02-03 | 2006-08-03 | Samsung Electronics Co., Ltd. | Method and apparatus for motion estimation |
US20060268130A1 (en) | 2005-05-26 | 2006-11-30 | Williams Karen E | In-camera panorama stitching method and apparatus |
US7469071B2 (en) | 2006-02-14 | 2008-12-23 | Fotonation Vision Limited | Image blurring |
WO2007142621A1 (en) | 2006-06-02 | 2007-12-13 | Fotonation Vision Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US7460694B2 (en) | 2006-08-11 | 2008-12-02 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US7460695B2 (en) | 2006-08-11 | 2008-12-02 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US7469055B2 (en) | 2006-08-11 | 2008-12-23 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US7403643B2 (en) | 2006-08-11 | 2008-07-22 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US7315631B1 (en) | 2006-08-11 | 2008-01-01 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US20080219581A1 (en) | 2007-03-05 | 2008-09-11 | Fotonation Vision Limited | Image Processing Method and Apparatus |
US20080309769A1 (en) | 2007-06-14 | 2008-12-18 | Fotonation Ireland Limited | Fast Motion Estimation Method |
US20090021576A1 (en) | 2007-07-18 | 2009-01-22 | Samsung Electronics Co., Ltd. | Panoramic image production |
US20090022422A1 (en) | 2007-07-18 | 2009-01-22 | Samsung Electronics Co., Ltd. | Method for constructing a composite image |
Non-Patent Citations (6)
Title |
---|
"Image Alignment and Stitching: A Tutorial" von Richard Szeliski (Preliminary draft, 27. September 2004, Technical Report, MSR-TR-2004-92, Seiten 8-10) |
Dijkstra, E. W. (1959), "A note on two problems in connexion with graphs" |
http://matwbn.icm.edu.pl/ksiazki/cc/cc35/cc3536.pdf |
http://wwwm3.ma.tum.de/twiki/pub/MN0506/WebHome/dijkstra.pdf |
Sethian et al., A Fast Marching Level Set Method for Monotonically Advancing Fronts, Proceedings der National Academy of Sciences, eingereicht am 20. Oktober 1995 |
Sniedovich, M. (2006) "Dijkstra's algorithm revisited: the dynamic programming connexion" (PDF). Journal of Control and Cybernetics 35 (3): 599-620 |
Also Published As
Publication number | Publication date |
---|---|
US20110141227A1 (en) | 2011-06-16 |
WO2012032412A3 (en) | 2012-08-02 |
KR20130103527A (ko) | 2013-09-23 |
GB2498284B (en) | 2017-05-24 |
WO2012032412A2 (en) | 2012-03-15 |
KR101711036B1 (ko) | 2017-02-28 |
US11115638B2 (en) | 2021-09-07 |
GB2498284B8 (en) | 2017-07-05 |
US10080006B2 (en) | 2018-09-18 |
US20190089941A1 (en) | 2019-03-21 |
GB2498284A (en) | 2013-07-10 |
GB201305502D0 (en) | 2013-05-08 |
JP5969992B2 (ja) | 2016-08-17 |
JP2013541884A (ja) | 2013-11-14 |
CN103168315A (zh) | 2013-06-19 |
CN103168315B (zh) | 2016-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112011103011T5 (de) | Stereoskopische (3D) Panoramaerstellung auf tragbaren Geräten | |
US20120019614A1 (en) | Variable Stereo Base for (3D) Panorama Creation on Handheld Device | |
US20120019613A1 (en) | Dynamically Variable Stereo Base for (3D) Panorama Creation on Handheld Device | |
US8294748B2 (en) | Panorama imaging using a blending map | |
DE69735488T2 (de) | Verfahren und vorrichtung zum ausrichten von bildern | |
US9576403B2 (en) | Method and apparatus for fusion of images | |
US6677981B1 (en) | Motion play-back of still pictures comprising a panoramic view for simulating perspective | |
EP2545411B1 (de) | Panoramabildgebung | |
US6885392B1 (en) | Perspective correction for preview area of panoramic digital camera | |
US6771304B1 (en) | Perspective correction device for panoramic digital camera | |
US6456323B1 (en) | Color correction estimation for panoramic digital camera | |
US20110141226A1 (en) | Panorama imaging based on a lo-res map | |
US20110141229A1 (en) | Panorama imaging using super-resolution | |
JP6273163B2 (ja) | 立体パノラマ | |
EP2030433B1 (de) | Verfahren und anordnung zur behandlung von datensätzen bildgebender sensoren sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium | |
KR101445653B1 (ko) | 합성 이미지 구성 방법 | |
US20110141224A1 (en) | Panorama Imaging Using Lo-Res Images | |
US20110141225A1 (en) | Panorama Imaging Based on Low-Res Images | |
DE19782037C2 (de) | Verfahren und Einrichtung zur Erzeugung eines zusammengesetzten Bildes | |
US20140146131A1 (en) | Method for forming images | |
DE102011056977A1 (de) | Vorrichtung und Verfahren zur digitalen Bildstabilisierung | |
DE102012006493A1 (de) | Kameraimplementierung des Wählens und Stitchens von Einzelbildern für Panoramaaufnahmen | |
JP6257285B2 (ja) | 複眼撮像装置 | |
JP7409604B2 (ja) | 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体 | |
Thomas et al. | New methods of image capture to support advanced post-production |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06T0007000000 Ipc: H04N0013000000 |
|
R082 | Change of representative |
Representative=s name: MITSCHERLICH & PARTNER PATENT- UND RECHTSANWAE, DE Representative=s name: MITSCHERLICH, PATENT- UND RECHTSANWAELTE, PART, DE Representative=s name: MITSCHERLICH, PATENT- UND RECHTSANWAELTE PARTM, DE |
|
R083 | Amendment of/additions to inventor(s) | ||
R012 | Request for examination validly filed | ||
R082 | Change of representative |
Representative=s name: MITSCHERLICH, PATENT- UND RECHTSANWAELTE PARTM, DE |
|
R081 | Change of applicant/patentee |
Owner name: FOTONATION LTD., IE Free format text: FORMER OWNER: DIGITALOPTICS CORPORATION EUROPE LTD., GALWAY, IE Effective date: 20150115 Owner name: FOTONATION LTD., IE Free format text: FORMER OWNER: DIGITALOPTICS CORPORATION EUROPE LIMITED, BALLYBRIT, GALWAY, IE Effective date: 20130508 |
|
R082 | Change of representative |
Representative=s name: MITSCHERLICH, PATENT- UND RECHTSANWAELTE PARTM, DE Effective date: 20150115 Representative=s name: MITSCHERLICH, PATENT- UND RECHTSANWAELTE PARTM, DE Effective date: 20130508 |
|
R016 | Response to examination communication | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |