DE60133202T2 - Zusammenführen von bildern zur bildung eines panoramischen bildes - Google Patents

Zusammenführen von bildern zur bildung eines panoramischen bildes Download PDF

Info

Publication number
DE60133202T2
DE60133202T2 DE60133202T DE60133202T DE60133202T2 DE 60133202 T2 DE60133202 T2 DE 60133202T2 DE 60133202 T DE60133202 T DE 60133202T DE 60133202 T DE60133202 T DE 60133202T DE 60133202 T2 DE60133202 T2 DE 60133202T2
Authority
DE
Germany
Prior art keywords
image
images
picture
instructions
transition band
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60133202T
Other languages
English (en)
Other versions
DE60133202D1 (de
Inventor
John Menlo Park PETERSON
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Adobe Inc
Original Assignee
Adobe Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=24286142&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE60133202(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Adobe Systems Inc filed Critical Adobe Systems Inc
Application granted granted Critical
Publication of DE60133202D1 publication Critical patent/DE60133202D1/de
Publication of DE60133202T2 publication Critical patent/DE60133202T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Description

  • TECHNISCHES GEBIET
  • Diese Erfindung bezieht sich auf ein Zusammenführen bzw. Verschmelzen von Bildern, um ein Panoramabild bzw. panoramisches Bild zu bilden.
  • HINTERGRUND
  • Bildaufnahmevorrichtungen, wie Kameras, werden verwendet, um ein Bild eines Abschnitts bzw. Teils einer Ansicht, wie eines Abschnitts der Vorderseite eines Hauses aufzunehmen. Der Abschnitt der Ansicht, dessen Bild durch eine Kamera aufgenommen ist bzw. wird, ist als das Sicht- bzw. Gesichtsfeld der Kamera bekannt. Ein Einstellen einer Linse, die mit einer Kamera assoziiert ist, kann das Gesichtsfeld vergrößern. Jedoch gibt es eine Grenze, über welche das Gesichtsfeld der Kamera nicht erhöht werden kann, ohne die Qualität oder die "Auflösung" des aufgenommenen Bilds zu beeinträchtigen. Es ist manchmal notwendig, ein Bild einer Ansicht aufzunehmen, welches größer ist, als es innerhalb des Gesichtsfelds der Kamera aufgenommen werden kann. Mehrfache überlappende Bilder von Segmenten der Ansicht werden aufgenommen und dann werden die Bilder zusammengefügt oder "verschmolzen", um ein zusammengesetztes Bild auszubilden, das als ein Panoramabild bzw. panoramisches Bild bekannt ist.
  • Ein Bild, das durch eine Kamera aufgenommen ist bzw. wird, verzerrt die Größen der in dem Bild aufgezeichneten Gegenstände, so daß entfernte Gegenstände bzw. Objekte kleiner als nähere Gegenstände erscheinen. Diese Größenverzerrung, welche als perspektivische Verzerrung bekannt ist, hängt von der Kameraposition, dem Sicht- bzw. Zeigewinkel der Kamera, usw. ab. Dementsprechend kann ein Gegenstand, der in zwei unterschiedlichen Bildern gezeigt bzw. dargestellt ist, nicht dieselbe Größe in den zwei Bildern aufgrund der perspektivischen Verzerrung aufweisen.
  • Yalin Xiong et al.: "Registration, calibration and blending in creating high quality panoramas"; vierter IEEE Workshop an applications of computer vision, 1998. WACV '98. Proceedings, Princeton, NJ, USA 19–21. Oktober 1998, Los Alamitos, CA, USA, IEEE Comput. Soc., US, 19. Oktober 1998 (1998-10-19), Seiten 69–74, XP010315597, ISBN: 0-8186-8606-5 offenbart ein System zum Erzeugen eines vollständigen 360 Grad Panoramas aus geradlinigen Bildern, die von einer einzigen Knotenposition aufgenommen sind. In einem ersten Schritt werden alle einander überlappenden Bilder projektiv registriert. Der zweite Schritt nimmt die projektiven Matrizen und ihre assoziierten Hess'schen Matrizen als Eingaben und kalibriert die internen und externen Parameter jedes Bilds durch eine globale Optimierung. Der dritte Schritt reprojiziert alle Bilder auf ein Panorama durch ein auf Laplace-Pyramiden basierendes Mischen. Die Mischmasken werden automatisch durch die Grassfire-Transformation generiert. Ein Übergangsbereich ist bzw. wird durch die Werte einer Mischmaske definiert und die überlappten Bereiche bzw. Regionen werden gemäß einer speziellen Technik vermischt bzw. gemischt. Um die Größe des Übergangsbereichs zu maximieren, ist die Grenze der Maske durch den maximalen Abstand zwischen den Bildgrenzen definiert. Um diesen maximalen Abstand zu finden, wird die Grassfire-Transformation verwendet. Eine Linie wird zwischen jeder Bildgrenze inner halb des überlappenden Bereichs zur Verfügung gestellt, so daß von irgendeinem Punkt auf der Linie der orthogonale Abstand zu jeder entsprechenden Grenze derselbe ist. Somit ist von irgendeinem Punkt auf der Linie der senkrechte Abstand zu der Grenze irgendeines Bilds der gleiche. Die Grassfire-Transformation bestimmt diese Linie durch ein Überprüfen von Bildpunkten bzw. Pixeln, um den maximalen Abstand der Bildpunkte von ihrer nächsten Grenze zu berechnen. Die Bildpunktwerte innerhalb der Mischmaske werden dann entsprechend den Abstandswerten festgelegt, die unter Verwendung der Grassfire-Transformation berechnet sind bzw. werden. Der Übergangsbereich ist daher eine unregelmäßige Form bzw. Gestalt basierend auf der Mischmaske, die durch den Abstand zwischen den Bildgrenzen in der Überlappung definiert ist bzw. wird.
  • WO 98/02844 A offenbart ein Verfahren zum Konstruieren eines Bildmosaiks, umfassend die Schritte eines Auswählens von Quellbildern, Ausrichtens der Quellbilder, Auswählens von Quellsegmenten, Verstärkens der Bilder und Verschmelzens bzw. Zusammenführens der Bilder, um das Bildmosaik auszubilden. Das Verfahren wird entweder automatisch durch das System durchgeführt oder kann interaktiv durch einen menschlichen Betätiger geführt werden.
  • ZUSAMMENFASSUNG
  • Allgemein bezieht sich ein Aspekt der Erfindung auf ein Verfahren zum Mischen von Bildern von Segmenten einer Ansicht. Das Verfahren beinhaltet ein Bestimmen der Position eines zweiten Segments der Ansicht, die durch ein zweites Bild relativ zu einem ersten Segment der Ansicht repräsentiert bzw. dargestellt ist, welches durch ein erstes Bild dargestellt ist, ein Unterteilen des zweiten Bilds in einen ersten Abschnitt und einen zweiten Abschnitt basierend auf den bestimmten Positionen, ein Zeichnen des ersten Bilds auf einen ersten Entwurf bzw. Untergrund, und ein Zeichnen des ersten Abschnitts des zweiten Bilds auf den Entwurf an der bestimmten Position, so daß ein Abschnitt bzw. Bereich des ersten Abschnitts einen Abschnitt des ersten Bilds herausmaskiert.
  • Allgemein bezieht sich ein anderer Aspekt der Erfindung auf einen Artikel bzw. Gegenstand, welcher ein computerlesbares Medium beinhaltet, welches computerausführbare Instruktionen bzw. Anweisungen zum Zusammenführen bzw. Mischen von Bildern von Segmenten einer Ansicht gemäß dem Verfahren beinhaltet, das oben beschrieben ist.
  • Ein Bestimmen der Position des Segments, das in dem zweiten Bild dargestellt ist, relativ zu dem Segment in dem ersten erlaubt es dem Verfahren, Bilder zu mischen, welche Segmente der Ansicht darstellen können, welche beliebig relativ zueinander positioniert sind. Es erlaubt auch dem Verfahren, Bilder zu mischen bzw. zu verschmelzen, welche beliebige Formen bzw. Gestalten und Größen aufweisen. Es ist ein Gegenstand bzw. Ziel der vorliegenden Erfindung, ein Verfahren zur Verfügung zu stellen, welches Bearbeitungszeit durch ein Zeichnen des ersten Bilds ohne Veränderung desselben und dann Maskieren von Abschnitten des ersten Bilds mit einem Abschnitt des zweiten Bilds spart. Dieses Ziel wird durch ein Verfahren zum Verschmelzen bzw. Zusammenführen von Bildern gelöst, welches die Merkmale von Anspruch 1 aufweist. Bevorzugte Ausbildungen der Erfindung sind in den abhängigen Ansprüchen definiert.
  • Das Verfahren beinhaltet weiterhin ein Bestimmen einer Position eines dritten Segments der Ansicht, welches durch ein drittes Bild dargestellt bzw. repräsentiert ist, relativ zu dem ersten Segment, ein Unterteilen des dritten Bilds in einen dritten Abschnitt und einen zweiten Abschnitt, basierend auf der bestimmten Position relativ zu dem ersten Segment, ein Bestimmen einer Position des dritten Segments der Ansicht relativ zu dem zweiten Bild, ein Unterteilen des dritten Abschnitts in einen fünften und einen sechsten Abschnitt, basierend auf der bestimmten Position relativ zu dem zweiten Bild, und ein Zeichnen des fünften Abschnitts des dritten Bilds auf den Entwurf bzw. das Aufzeichnungselement an der bestimmten Position relativ zu dem dritten Bild, so daß ein Abschnitt bzw. Bereich des fünften Abschnitts wenigstens einen des ersten Bilds und des zweiten Abschnitts des zweiten Bilds abdeckt bzw. blockiert. Somit erlaubt es das Verfahren, daß ein neues Bild zu dem vermischten Panoramabild hinzugefügt wird, ohne daß irgendeine zusätzliche Bearbeitung der früheren Bilder durchgeführt wird. Das Verfahren berechnet lediglich den Abschnitt des neuen Bilds, welches über das panoramische Bild gezeichnet werden sollte.
  • Das Verfahren antwortet auf einen Befehl, um das dritte Bild durch ein Radieren der Bildfläche bzw. des Entwurfs zu entfernen; ein Zeichnen des ersten Bilds auf den Entwurf bzw. die Leinwand; und ein Zeichnen des ersten Abschnitts des zweiten Bilds auf den Entwurf an der bestimmten Position des zweiten Segments relativ zu dem ersten Segment, so daß Abschnitte des ersten Abschnitts Abschnitte bzw. Bereiche des ersten Bilds herausmaskieren. Das Verfahren spart Bearbeitungszeit, indem einfach der zuvor bestimmte erste Abschnitt auf das erste Bild gezeichnet wird, ohne daß irgendwelche zusätzliche Berechnungen durchgeführt werden.
  • Vor einem Unterteilen des zweiten Bilds wird eine perspektivische Verzerrung in dem zweiten Bild korrigiert, um die Qualität des panoramischen Bilds zu verbessern. Das zweite Bild wird in den ersten und zweiten Abschnitt durch eine Unterteilungslinie unterteilt, welche basierend auf einem Umriß bzw. einer Kontur des ersten Bilds; einer Kontur des zweiten Bilds; und der relativen Position des zweiten Bildsegments relativ zu dem ersten Bildsegment bestimmt ist bzw. wird. Die Unterteilungslinie verbindet zwei Schnittpunkte der Umrisse bzw. Konturen des ersten und zweiten Bilds, wenn das zweite Bild an der bestimmten relativen Position positioniert ist, d. h. zwei am weitesten entfernte Punkte eines Schnitts. Der erste Abschnitt des zweiten Bilds wird basierend darauf bestimmt, wieviel des zweiten Bilds auf jeder Seite der Unterteilungslinie durch das erste Bild überlappt ist bzw. wird. Ein Bereich um die Unterteilungslinie, wo das zweite Bild mit dem ersten Bild vermischt wird, um den Übergang zwischen dem ersten Bild und dem zweiten Bild zu glätten, wird bestimmt. Die Unterteilungslinie unterteilt den Bereich bzw. die Region in einen ersten Subbereich, der innerhalb des ersten Segments des zweiten Bilds beinhaltet ist, und einen zweiten Subbereich, der innerhalb des zweiten Segments des zweiten Bereichs enthalten ist. Es wird mehr des zweiten Bilds in dem ersten Subbereich vermischt als in dem zweiten Subbereich, um einen glatteren Übergang zwischen dem ersten und zweiten Bild zur Verfügung zu stellen.
  • Die Details von einer oder mehreren Ausbildung(en) der Erfindung sind in den beiliegenden Zeichnungen und der nach folgenden Beschreibung ausgeführt. Andere Merkmale, Gegenstände und Vorteile der Erfindung werden aus der Beschreibung und den Zeichnungen und aus den Ansprüchen ersichtlich werden.
  • BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm eines Systems zum Zusammenführen bzw. Mischen von Bildern von überlappenden Segmenten einer Ansicht;
  • 2A zeigt vier exemplarische bzw. beispielhafte Bilder von überlappenden Segmenten einer Ansicht;
  • 2B ist ein panoramisches Bild, das durch das System von 1 durch Mischen der Bilder von 2A gebildet wird;
  • 2C zeigt die Bilder von 2A gemeinsam mit Positionsinformation, die beim Mischen der Bilder verwendet wird;
  • 2D und 2E zeigen die Bilder von 2A, nachdem sie unter Verwendung von Positionsinformation ausgerichtet wurden;
  • 2F zeigt die Bilder von 2A, nachdem das System von 1 diese in bezug auf eine perspektivische Verzerrung korrigiert hat;
  • 3A zeigt das Verfahren, das durch das System von 1 verwendet wird, um Bilder zu mischen bzw. zu verschmelzen;
  • 3B und 3C zeigen verschiedene Bildumrisse bzw. -konturen, die verwendet werden, um die Bilder von 2F zu mischen;
  • 3D ist ein Ausdruck einer Maske, die bewertet bzw. verwendet wird, um die Bilder von 2F zu mischen;
  • 3E zeigt verschiedene Bildumrisse, die verwendet werden, um ein Bild von 2F zu mischen; und
  • 4 zeigt verschiedene zwischenliegende Bilder, die gezeichnet werden, wenn das panoramische Bild erzeugt wird.
  • Gleiche Bezugszeichen in den verschiedenen Zeichnungen bezeichnen gleiche Elemente.
  • DETAILLIERTE BESCHREIBUNG
  • Bezugnehmend auf 1 weist ein Computersystem 10 zum Verschmelzen bzw. Mischen von Bildern 18 einen Prozessor 12 zum Ausführen von Programmen 12, 14 auf, die in einem Speicher 16 gespeichert sind. Der Speicher 16 ist ein computerlesbares Medium, wie eine CDROM, eine Festplatte, ein Festplattenfeld bzw. -array, eine Floppy Disk oder ein ROM. Die Computerprogramme 12, 14 (d. h. die Bildaufnahme-Software 12 und die Bildheft-Software 14) sind bzw. werden in den computerlesbaren Speicher 16 geladen und dann ausgeführt, um die Bilder 18 zu ver- bzw. bearbeiten. Das Computersystem 10 ist mit einem Scanner 20, um die Bilder 18 in ein digitales Format umzuwandeln, einer Computertastatur 22 und einer Zeigevorrichtung 24 assoziiert, um eine Eingabe von einem Benutzer (nicht gezeigt) aufzunehmen bzw. zu erfassen. Das Computersystem 10 ist auch mit einem Monitor 28 zum Anzeigen von Bildern und einem Drucker 30 zum Drucken von Bildern assoziiert. Das Computersystem 10 beinhaltet auch ein Netzwerk-Interface 34, um mit Vorrichtungen zu kommunizieren, die mit einem Computernetzwerk 32 verbunden sind.
  • Der Benutzer (nicht gezeigt) aktiviert den Scanner 20 unter Verwendung der Tastatur 22 oder der Zeigevorrichtung 24, was den Scanner veranlaßt, die Bilder 18 zu scannen und zu der Bildaufnahme-Software 12 zu übertragen. Die Bildaufnahme-Software 12 ist ein TWAIN Anwendungs-Programmier-Interface (API), welches die Bilder 18 aufnimmt und diese zu der Bildheft-Software 14 fördert. Die Bildheft-Software 14 mischt die Bilder 18 miteinander bzw. führt sie zusammen, um ein panoramisches Bild 26 auszubilden, welches auf dem Monitor 28 angezeigt oder auf dem Drucker 30 gedruckt ist bzw. wird. Das panoramische Bild 26 kann auch in dem Speicher 16 gespeichert oder zu einem entfernten Ort über das Computernetzwerk 32 durch das Netzwerk-Interface 34 übertragen werden.
  • Bezugnehmend auf 2A zeigen Bilder 18 überlappende Segmente einer Ansicht, welche allen Bildern gemeinsam ist. Beispielsweise zeigen Bilder 18a18d jeweils Segmente der Vorderansicht eines Hauses. Das erste Bild 18a zeigt ein zentrales Segment der Vorderansicht und ist um den Eingang zu dem Haus zentriert. Das zweite Bild 18b zeigt ein oberes Segment der Ansicht, um einen Balkon 70 auf einem oberen Stockwerk des Hauses zu beinhalten, während das dritte Bild 18c ein linkes Segment der Vorderansicht darstellt bzw. zeigt, um einen Baum 71 zu beinhalten, der links von dem Eingang angeordnet ist. Das vierte Bild 18d zeigt ein rechtes Segment der Ansicht, um das Fenster rechts von dem Eingang zu beinhalten.
  • Bezugnehmend auf 2B mischt die Bildheft-Software 14 (1) die Bilder 18a18d, um ein einziges panoramisches Bild 26 zu generieren bzw. zu erzeugen, welches den Balkon 70, den Baum 71 und das Fenster 72 beinhaltet. Somit erlaubt es die Bildheft-Software 14 einem Benutzer, mehrere Bilder 18a18d zu mischen bzw. zu verschmelzen, um ein panoramisches Bild 26 mit einem Sichtfeld zu erzeugen, welches größer als das Feld von irgendeinem der zahlreichen Bilder ist.
  • Indem neuerlich auf 1 Bezug genommen wird, bestimmt das Positioniermodul 50 der Bildheft-Software 14 die relativen Positionen der Segmente, die in zwei der Bilder 18a18d dargestellt sind, so daß ein Bild eines Gegenstands, der in einem der Bilder gezeigt bzw. dargestellt ist, mit einem anderen Bild desselben Gegenstands bzw. Objekts ausgerichtet werden kann. Das positionierende bzw. Positioniermodul 50 bestimmt automatisch das relative Positionieren der zwei Segmente entsprechend den Bildern unter Verwendung von bekannten Verfahren, die in "Direct Estimation of Displacement Histograms", Proceedings of the OSA Meeting an Image Understanding and Machine Vision, Juni 1989, Bernd Girod & David Kuo ("Girod"), beschrieben sind. Die Softwaremodule sind bzw. werden dynamisch verbunden, Maschinensprache-Büchereien, welche durch ein Kompilieren einer Hochniveau-Computerprogrammiersprache, wie "C++" oder "C" erhalten sind. Die Funktionen und Betätigungen der unterschiedlichen Softwaremodule werden unten beschrieben.
  • Indem auf 2C Bezug genommen wird, wird die Bestimmung der Position der relativen Segmente unter Bezugnahme auf die Position der oberen linken Ecke des Türrahmens relativ zu der unteren linken Ecke von jedem der Bilder 18a18d beschrieben. Beispielsweise ist die obere linke Ecke des Türrahmens horizontal von der linken Bodenecke des Bilds um einen Abstand x0 in dem ersten Bild 18a verlagert, während sie um einen Abstand x1 in dem zweiten Bild 18a verlagert ist. Folglich wird das zweite Bild nach links von dem ersten Bild um einen Abstand (dleft) verlagert, der durch die mathematische Gleichung gegeben ist: dleft = x0 – x1.
  • In ähnlicher Weise ist die obere linke Ecke des Türrahmens vertikal von der linken Bodenecke des Bilds um einen Abstand y0 in dem ersten Bild 18a verlagert, während sie um einen Abstand y1 in dem zweiten Bild 18a verlagert ist. Das zweite Bild ist bzw. wird daher unter das erste Bild um einen Abstand (ddown) verlagert, welcher durch die mathematische Gleichung gegeben ist: ddown = y0 – y1.
  • Um die obere linke Ecke des Türrahmens in dem ersten Bild 18a und dem zweiten Bild 18b auszurichten, werden die zwei Bilder überlappt, und das zweite Bild wird um den Abstand dleft nach rechts verlagert bzw. verschoben und um den Abstand ddown nach oben verlagert, wie dies in 2D gezeigt ist. Die anderen Bilder 18c und 18d werden ebenfalls in einer ähnlichen Weise überlappt und verlagert, um die Bildpunkte bzw. Pixel, die die obere linke Ecke des Türrahmens in einem Bild repräsentieren bzw. darstellen, zu anderen Bildpunkten auszurichten, die dieselbe Ecke des Türrahmens in anderen Bildern darstellen. Das Ergebnis eines Ausrichtens aller Bilder 18a18d ist in 2E gezeigt.
  • Wie dies in 2E gezeigt ist, können jedoch die überlappenden Bilder, die aus der Positionsausrichtung, die oben beschrieben ist, resultieren, nicht nahtlos ineinander gemischt zw. verschmolzen werden. Beispielsweise ist bzw. wird ein Saum bzw. Rand 62 über eine Stiege 63 ausgebildet (die in den überlappenden Bildern dargestellt ist), wo die zwei Bilder 18c und 18d aneinander grenzen bzw. miteinander verbunden sind. Folglich ist eine zusätzliche Bearbeitung erforderlich, um die Bilder ineinander zu mischen und das nahezu saumlose bzw. nahtlose panoramische Bild 26 zu erzeugen (2B). Der perspektivische Korrektor bzw. die perspektivische Korrektureinrichtung 52 und die anderen Module 5458 führen die zusätzlichen Schritte durch, wie dies unten beschrieben ist.
  • Um Säume bzw. Ränder bzw. Fugen 62 (2E) in dem verschmolzenen Bild zu reduzieren, korrigiert der perspektivische Korrektor 52 perspektivische Verzerrungen innerhalb der Bilder unter Verwendung von bekannten Verfahren, die in "Virtual Bellows", Proceedings of IEEE International Conference an Image Processing, Nov. 1994, Steven Mann & R. W. Picard" beschrieben sind. Die Perspektive von jedem der ursprünglichen Bilder 18b18d (2A) ist bzw. wird relativ zu dem ersten Bild 18a entweder durch ein Vergrößern einer Seite der Bilder 18b18d entsprechend entfernteren Gegenständen und/oder durch ein Schrumpfen einer anderen Seite der Bilder 18b18d entsprechend näheren Objekten korrigiert. Die perspektivische Korrektur ergibt ein trapezoidales zweites 18b', drittes 18c' und viertes Bild 18d' (gezeigt in 2F). Ein Ausrichten der trapezoidalen Bilder resultiert in kleineren Nähten bzw. Fugen 62 (2E), da die Gegenstände in den Bildern nicht verzerrte Größen aufweisen.
  • Indem auf 3A3C Bezug genommen wird, wird ein Verfahren zum Zusammenführen bzw. Mischen von Bildern, welches durch das Computersystem von 1 implementiert ist, unter Verwendung der Bilder 18a18d als Beispiele beschrie ben. Das Verfahren bzw. der Prozeß beginnt, wenn die Bildaufnahme-Software 12 (1) die Bilder 18 (1) aufnimmt (200), die miteinander zu verschmelzen bzw. zu mischen sind. Das Positioniermodul 50 (1) bestimmt (202) die Position des Segments der Ansicht entsprechend jedem Bild 18b18d relativ zu dem Segment der Ansicht entsprechend dem ersten Bild 18a (wie zuvor unter Bezugnahme auf 2C und 2D beschrieben), und der perspektivische Korrektor 52 korrigiert (204) die perspektivische Verzerrung in jedem Bild 18b18d relativ zu dem Bezugs- bzw. Referenzbild 18a (wie zuvor unter Bezugnahme auf 2F) beschrieben. Die Heft-Software 14 (1) legt (206) dann eine sichtbare Eigenschaft der Bildpunkte von allen Bildern fest, um anzuzeigen, daß alle der Bildpunkte bzw. Pixel von allen der Bilder beginnen sichtbar zu werden. Die Heft-Software legt dann (208) das gegenwärtige Bild fest, das das erste Bild sein soll, und fährt mit einem Bestimmen des sichtbaren Bereichs von jedem der Bilder 18a, 18b'18d' fort, wie dies unten beschrieben ist.
  • Die Heft-Software 14 legt (210) das gegenwärtige Bild fest, das das nächste Bild 18b' nach dem gegenwärtigen Bild 18a sein soll, und legt das Bezugsbild fest, das erste Bild 18a zu sein. Dadurch werden alle Bildpunkte des ersten Bilds 18a sichtbar gelassen (welche durch Schraffierungen in 3B angezeigt bzw. angedeutet sind). Obwohl alle Bildpunkte des ersten Bilds sichtbar festgelegt bzw. eingestellt sind, können einige der Bildpunkte des ersten Bilds durch sichtbare Abschnitte bzw. Bereiche von nachfolgenden Bildern verdeckt oder maskiert werden, wie dies später beschrieben werden wird.
  • Die Unterteilungslinien-Bestimmungseinrichtung 54 (1) bestimmt (212) eine Kontur bzw. einen Umriß 74 (3C) eines panoramischen Bilds, welches durch ein Ausrichten des gegenwärtigen Bilds 18b' und des Bezugs- bzw. Referenzbilds 18a gebildet ist bzw. wird (wie zuvor unter Bezugnahme auf 2D beschrieben). Die Unterteilungslinien-Bestimmungseinrichtung 54 bestimmt auch ein Paar von Punkten 76, 78, wo die Umfangslinien bzw. Konturen der ausgerichteten Bilder einander schneiden bzw. kreuzen, wodurch eine Linie 80 definiert wird (214), welche die panoramische Kontur 74 in zwei Abschnitte 82, 84 unterteilt (216). Wenn die Konturen der ausgerichteten Bilder an mehr als zwei Punkten schneiden bzw. kreuzen, wählt die Unterteilungslinien-Bestimmungseinrichtung 54 die zwei Kreuzungs- bzw. Schnittpunkte, welche am weitesten voneinander entfernt sind, um die Unterteilungslinie 80 zu definieren. Die Unterteilungslinien-Bestimmungseinrichtung 54 bestimmt dann (218), welcher der zwei Abschnitte 82, 84 weniger des gegenwärtigen Bilds 18b' aufweist, welches nicht durch das Referenzbild 18a überlappt ist, und legt (220) diesen Abschnitt des gegenwärtigen Bilds als unsichtbar fest. In dem Beispiel von 3C hat der Abschnitt 84 nichts von dem Profil 73 des gegenwärtigen Bilds, welches nicht durch das erste Bild 18a überlappt ist bzw. wird. Folglich werden die Abschnitte bzw. Bereiche des Bildprofils 85, die in dem Abschnitt 84 enthalten sind, auf unsichtbar gesetzt, wodurch der schraffierte Abschnitt 82 des Bilds 18b sichtbar verbleibt.
  • Die Heft-Software 14 überprüft (222), ob es irgendwelche weiteren Bilder zwischen dem Referenzbild 18a und dem gegenwärtigen Bild 18b' gibt. Wenn es keine weiteren Bilder gibt, legt (224) die Heft-Software 14 das Referenzbild als das nächste Bild nach dem gegenwärtigen Referenzbild fest und wiederholt das Verfahren eines Festlegens eines Abschnitts des gegenwärtigen Bilds 18b' als unsichtbar 208220, wie dies oben beschrieben ist. Ansonsten, wenn es keine weiteren Bilder gibt, bestimmt (226) die Verschmelzungsmasken-Bestimmungseinheit 56 (1) die Bildpunkte innerhalb des gegenwärtigen Bilds, welche Bildpunkte von früheren Bildern herausmaskieren werden. Lediglich sichtbare Bildpunkte des gegenwärtigen Bilds 18b' maskieren Bildpunkte von früheren Bildern heraus bzw. decken diese ab. Folglich werden die Maskenwerte von Bildpunkten, die in dem Bereich 82 enthalten sind, auf "1" gesetzt, während die Maskeneigenschaften von Bildpunkten, die in dem Bereich 84 enthalten sind, auf "0" gesetzt werden.
  • Die Mischmasken- bzw. Verschmelzungsmasken-Bestimmungseinheit glättet den Schnitt zwischen dem Bereich bzw. der Region 82 mit Bildpunktwerten, die auf 1 gesetzt sind, und dem Bereich 84 mit Bildpunktwerten, die auf 0 gesetzt sind, durch Anwenden eines Verfahrens, welches in "A Multiresolution Spline With Application to Image Mosaics", ACM Transactions an Graphics, Band 2, Nr. 4, Oktober 1983, P. J. Burt & E. H. Adelson beschrieben ist. Indem auf die Nahaufnahme 100 von 3C bezug genommen wird, bildet das Glätten ein Übergangsband 104 innerhalb des unsichtbaren Abschnitts 84 und nahe der Unterteilungslinie 80 aus, wo der Maskenwert glatt bzw. sanft von einem Wert von "1" an der Unterteilungslinie auf einen Wert von "0" übergeht, wodurch scharfe Diskontinuitäten in den panoramischen Bildern an der Unterteilungslinie 80 eliminiert werden, wo vermischte Bilder 18a, 18b' einander schneiden, wie dies später beschrieben werden wird.
  • Wie dies in 3D gezeigt ist, ist der Maskenwert "1" innerhalb des sichtbaren Bereichs 82. Die Glättungsfunktion bewirkt, daß sich der Maskenwert glatt bzw. sanft innerhalb des Übergangsbands 104 auf einen Wert von "0" innerhalb des sichtbaren Bereichs 84 reduziert.
  • Indem neuerlich auf 3A Bezug genommen wird, überprüft (228) nach einem Bestimmen der Maskenwerte des Bilds die Heft-Software 14, ob es irgendwelche Bilder nach den gegenwärtigen Bildern gibt. Wenn weitere Bilder vorliegen, legt (210) die Heft-Software ein neues gegenwärtiges Bild als das nächste Bild nach dem gegenwärtigen Bild fest und fährt mit einem Bestimmen der Maskenwerte des neuen gegenwärtigen Bilds fort (212226).
  • Basierend auf der obigen Diskussion kann das Bearbeiten der nachfolgenden Bilder 18c' und 18d' abgeleitet bzw. gefolgert werden. Beispielsweise unter Bezugnahme auf 3E wird erkannt bzw. geschätzt werden, daß der sichtbare Bereich des dritten Bilds 18c' auf das Innere einer Kontur 87 bei 206 festgelegt werden wird, und daß, wenn das Bezugs- bzw. Referenzbild das erste Bild 18a ist, der sichtbare Bereich bei 220 auf das Innere einer kleineren Kontur- bzw. Umfangslinie 86 reduziert wird. Nachfolgend darauf wird, wenn das Referenzbild als das zweite Bild 18b' festgelegt wird, der sichtbare Bereich weiter auf eine noch kleinere Kontur 90 reduziert werden.
  • Indem neuerlich auf 3A Bezug genommen wird, überlappt, wenn es keine weiteren Bilder nach dem gegenwärtigen Bild gibt, die Bildverschmelzungseinrichtung 58 die Bilder 18a, 18b'18d' basierend auf dem Maskierungswert, um das panoramische Bild zu erzeugen (230).
  • Indem auf 4 Bezug genommen wird, startet die Bildverschmelzungs- bzw. -mischeinrichtung mit einem freien Hintergrund, der als eine Leinwand bzw. ein Entwurf 120 bekannt ist, auf welche(m) er das erste Bild 18a zeichnet, um ein Bild 120a zu produzieren, wonach die Bildverschmelzungseinrichtung den sichtbaren Abschnitt 121b des zweiten Bilds 18b' auf die Leinwand 120 zeichnet, um das Bild 120b zu produzieren. Beim Zeichnen des zweiten Bilds berechnet die Bildverschmelzungseinrichtung die Pixel- bzw. Bildpunktwerte des Bilds 120b gemäß der Formel: Pixelpanoramic = pixelsecond image·mask_value + pixelfirst image·(1-mask_value)
  • Wo:
    pixelsecond image der Wert eines Bildpunkts bzw. Pixels des zweiten Bilds ist;
    pixelfirst image der Wert eines Bildpunkts des ersten Bilds ist, welches auf derselben Position wie der Bildpunkt des zweiten Bilds liegt; und
    mask value der Wert der Maske des Bildpunkts des zweiten Bilds ist.
  • Wie dies aus der obigen Formel ersehen werden kann, verdeckt, wo der Bildpunktwert des zweiten Bilds einen Wert von "1" aufweist, das zweite Bild vollständig das erste Bild, und wo der Bildpunktwert des zweiten Bilds einen Wert von "0" aufweist, ist das erste Bild vollständig durch das zweite Bild sichtbar. Jedoch mischt, wenn der Maskenwert zwischen "0" und "1" ist, die Bildmischeinrichtung das erste und zweite Bild, wodurch der Übergang von einem Bild auf das andere geglättet wird.
  • Nach einem Zeichnen des zweiten Bilds zeichnet die Bildverschmelzungseinrichtung den sichtbaren Abschnitt 121c des Bilds 18c, um das Bild 120c zu erzeugen. Schließlich zeichnet die Bildmischeinrichtung den sichtbaren Abschnitt 121d des Bilds 18d', um das panoramische Bild 26 von 2B zu erzeugen.
  • Aus der obigen Diskussion sollte klar sein, daß die Maskenwerte jedes Bilds lediglich von liegenden Bildern vor diesem abhängen. Folglich muß der Maskenwert eines früheren Bilds nicht neu berechnet werden, wenn ein neueres Bild gelöscht bzw. entfernt oder hinzugefügt wird. Dies spart Computerzeit, was in einer kürzeren Antwortzeit resultiert. Beispielsweise berechnet, wenn ein Benutzer die Heft-Software 14 beauftragt, ein neues Bild hinzuzufügen, die Heft-Software die Maske des neuen Bilds relativ zu den vier Bildern 18a, 18b'18d'. Die Heft-Software zeichnet dann den sichtbaren Abschnitt des neuen Bilds über die Leinwand 120, wodurch ein Abschnitt von wenigstens einem der zuvor gezeichneten Bilder 18a, 18b'18d' abgedeckt wird. Wenn der Benutzer der Software später befiehlt, das neue Bild zu entfernen, radiert die Heft-Software die Leinwand 120 und zeichnet die sichtbaren Abschnitte der Bilder 18a, 18b'18d in einer Sequenz basierend auf den zuvor berechneten Bildmasken, wie dies zuvor beschrieben wurde.
  • Eine Anzahl von Ausbildungen der Erfindung wurde beschrieben. Nichtsdestotrotz wird verstanden werden, daß verschiedene Modifikationen innerhalb des Rahmens der beiliegenden Ansprüche gemacht werden können. Beispielsweise kann das zusammenzuführende bzw. zu verschmelzende Bild 18 von einer Digitalkamera, einem Speicher 16 oder Netzwerk 26 erhalten sein bzw. werden. Das Positioniermodul kann die relativen Positionen von Segmenten bestimmen, die in zwei Bildern gezeigt sind, indem der Benutzer angeregt wird, die Zeigevorrichtung 24 zu verwenden, um einen Gegenstand, wie die obere linke Ecke des Türrahmens, anzuklicken, welcher in beiden Bildern gezeigt ist, und die relativen Positionen basierend auf den Positionen bestimmt werden, welche der Benutzer anklickt.

Claims (17)

  1. Verfahren zum Zusammenführen bzw. Verschmelzen von Bildern (18a18d), umfassend: Empfangen von Bildern (18a18d), wobei jedes Bild ein Segment einer Ansicht darstellt; Empfangen von Positionsinformation, welche Positionen der Bilder (18a18d) relativ zueinander spezifiziert; für jedes Bild (18a18d) und basierend auf der Positionsinformation, Identifizieren von allen anderen Bildern, welche das Bild (18a18d) überlappen; Gruppieren der Bilder (18a18d) in Paare, wobei ein Bild (18a18d) in ein Paar mit jedem Bild (18a18d) gruppiert wird, das als das Bild überlappend identifiziert wird; Definieren eines Übergangsbands (104) für jedes Paar von Bildern (18a18d), wo jedes Bild (18a18d) eine Außenlinie bzw. Kontur aufweist, und Definieren eines Übergangsbands (104) basierend auf einem Ort von zwei oder mehreren Schnittpunkten, wobei die Schnittpunkte Punkte sind, wo die Konturen der Bilder in dem Paar von Bildern (18a18d) einander schneiden bzw. kreuzen; für jedes Bild in einem Paar von Bildern (18a18d) Zuordnen eines Maskierungswerts für jeden Bildpunkt des Bilds (18a18d), wobei die Maskierungswerte eine vollständige Sichtbarkeit für jeden Bildpunkt in einem Bereich bzw. einer Fläche des Bilds (18a18d) spezifizieren, welche(r) nicht das andere Bild (18a18d) des Paars überlappt, die Maskierungswerte eine teilweise Sichtbarkeit für Bildpunkte bzw. Pixel in dem Übergangsband (104) spezifizieren, und die Maskierungswerte eine komplette Unsichtbarkeit für den Rest der Bildpunkte in dem Bild (18a18d) spezifizieren; und Zusammenführen der Bilder (18a18d) unter Verwendung der berechneten Maskierungswerte.
  2. Verfahren nach Anspruch 1, wobei ein Definieren des Übergangsbands (104) für ein Paar von Bildern (18a18d) weiterhin beinhaltet: Berechnen des längsten Liniensegments, das durch die Schnittpunkte (76, 78) definiert wird.
  3. Verfahren nach Anspruch 2, worin: ein Definieren des Übergangsbands (104) weiterhin ein Definieren eines Bereichs bzw. einer Region von Bildpunkten benachbart dem längsten Liniensegment als Übergangsband beinhaltet; und für ein Bild (18a18d) ein Zuordnen von Maskierungswerten zu Bildpunkten in dem Übergangsband (104) ein Definieren eines Gradienten von Maskierungswerten beinhaltet, so daß Maskierungswerte glatt bzw. sanft von Werten, die eine vollständige Sichtbarkeit an einer Kante bzw. einem Rand des Übergangsbands (104) spezifizieren, zu Werten übergehen, die eine vollständige Unsichtbarkeit an einer anderen Kante des Übergangsbands (104) spezifizieren.
  4. Verfahren nach Anspruch 3, wobei: ein Spezifizieren einer vollständigen Sichtbarkeit ein Festlegen bzw. Einstellen eines Maskierungswerts von 1 beinhaltet; und ein Spezifizieren einer vollständigen Unsichtbarkeit ein Festlegen eines Maskierungswerts von 0 beinhaltet.
  5. Verfahren nach Anspruch 1, wobei das Empfangen von Bildern beinhaltet: Empfangen von Bildern (18a18d), welche Segmente repräsentieren, welche in einer beliebigen bzw. willkürlichen Anordnung angeordnet sind.
  6. Verfahren nach Anspruch 1, wobei ein Empfangen von Positionsinformation beinhaltet: Bestimmen einer Position eines ersten Bilds (18a) relativ zu einem zweiten Bild (18b).
  7. Verfahren nach Anspruch 6, wobei ein Bestimmen der Position eines Bilds (18a18d) beinhaltet: Auswählen eines Merkmals bzw. Gegenstands, welches(r) in dem ersten und zweiten Bild gezeigt wird; Auswählen eines Bezugs- bzw. Referenzpunkts in dem ersten Bild; und Berechnen einer horizontalen und vertikalen Verlagerung zwischen dem Merkmal in dem ersten Bild (18a) und dem Referenzpunkt.
  8. Verfahren nach Anspruch 1, weiterhin umfassend: Hinzufügen eines neuen Bilds (18c'), das mit den empfangenen Bildern (18a18d) zusammenzuführen ist; Zuordnen von Maskierungswerten zu dem neuen Bild (18c') relativ zu den empfangenen Bildern (18a18d); und Zusammenführen des neuen Bilds (18c') mit den empfangenen Bildern (18a18d) unter Verwendung der Maskierungswerte jedes Bilds.
  9. Verfahren nach Anspruch 1, wobei ein Zusammenführen der Bilder beinhaltet: Korrigieren einer Perspektive eines Bilds (18a18d).
  10. Computerprogrammprodukt, welches greifbar auf einem maschinenlesbaren Medium gespeichert ist, zum Zusammenführen von Bildern (18a18d), umfassend Instruktionen bzw. Anweisungen, welche einen programmierbaren Prozessor veranlassen, wenn sie darauf laufen: Bilder (18a18d) zu empfangen, wobei jedes Bild (18a18d) ein Segment einer Ansicht repräsentiert; Positionsinformation zu empfangen, welche Positionen der Bilder (18a18d) relativ zueinander spezifiziert; für jedes Bild (18a18d) und basierend auf der Positionsinformation, alle anderen Bilder (18a18d) zu identifizieren, welche das Bild überlappen; die Bilder (18a18d) in Paare zu gruppieren, wobei ein Bild (18a18d) in ein Paar mit jedem Bild (18a18d) gruppiert ist bzw. wird, das als das überlappende Bild identifiziert wird; ein Übergangsband (104) für jedes Paar von Bildern (18a18d) zu identifizieren, wobei jedes Bild (18a18d) eine Außenlinie bzw. Kontur aufweist, und ein Übergangsband (104) basierend auf einem Ort von zwei oder mehreren Schnittpunkten zu definieren, wobei die Schnittpunkte Punkte sind, wo die Konturen der Bilder in dem Paar von Bildern (18a18d) einander schneiden bzw. kreuzen; für jedes Bild (18a18d) in einem Paar von Bildern, einen Maskierungswert für jeden Bildpunkt des Bilds (18a18d) zuzuweisen, wobei die Maskierungswerte eine vollständige Sichtbarkeit für jeden Bildpunkt in einem Bereich des Bilds spezifizieren, welcher nicht das andere Bild (18a18d) des Paars überlappt, die Maskierungswerte eine teilweise Sichtbarkeit für Bildpunkte bzw. Pixel in dem Übergangsband (104) spezifizieren, und die Maskierungswerte eine vollständige Unsichtbarkeit für den Rest der Bildpunkte in dem Bild (18a18d) spezifizieren; und die Bilder (18a18d) unter Verwendung der berechneten Maskierungswerte zusammenzuführen bzw. zu verschmelzen.
  11. Computerprogrammprodukt nach Anspruch 10, wobei Instruktionen bzw. Anweisungen zum Definieren eines Übergangsbands (104) für ein Paar von Bildern (18a18d) weiterhin Instruktionen beinhalten, um: das längste Liniensegment zu berechnen, das durch die Schnittpunkte (76, 78) definiert ist.
  12. Computerprogrammprodukt nach Anspruch 11, wobei: Instruktionen zum Definieren eines Übergangsbands (104) weiterhin Instruktionen zum Definieren eines Bereichs von Bildpunkten benachbart dem längsten Liniensegment des Übergangsbands (104) beinhalten; und Instruktionen, um Maskierungswerte zu Bildpunkten in dem Übergangsband (104) zuzuweisen, Instruktionen beinhalten, um einen Gradienten von Maskierungswerten zu definieren, so daß Maskierungswerte glatt bzw. sanft von Werten, die eine vollständige Sichtbarkeit an einer Kante bzw. einem Rand des Übergangsband (104) spezifizieren, zu Werten übergehen, die eine vollständige Unsichtbarkeit an der anderen Kante des Übergangsbands (104) spezifizieren.
  13. Computerprogrammprodukt nach Anspruch 12, wobei: Instruktionen zum Spezifizieren einer vollständigen Sichtbarkeit Instruktionen zum Festlegen bzw. Einstellen eines Maskierungswerts von 1 beinhalten; und Instruktionen zum Spezifizieren einer vollständigen Unsichtbarkeit Instruktionen zum Festlegen eines Maskierungswerts von 0 beinhalten.
  14. Computerprogrammprodukt nach Anspruch 10, wobei die Instruktionen zum Empfangen von Bildern Instruktionen beinhalten, um: Bilder (18a18d) zu empfangen, die Segmente repräsentieren, welche in einer beliebigen bzw. willkürlichen Anordnung angeordnet sind.
  15. Computerprogrammprodukt nach Anspruch 10, wobei Instruktionen zum Empfangen von Positionsinformation Instruktionen beinhalten, um: eine Position eines ersten Bilds (18a) relativ zu einem zweiten Bild (18b) zu bestimmen.
  16. Computerprogrammprodukt nach Anspruch 15, wobei Instruktionen zum Bestimmen der Position eines Bilds (18a18d) Instruktionen beinhalten, um: ein Merkmal bzw. einen Gegenstand auszuwählen, welches(r) in dem ersten und zweiten Bild (18a, 18b) gezeigt ist; einen Bezugs- bzw. Referenzpunkt in dem ersten Bild (18a) auszuwählen; und eine horizontale und vertikale Verlagerung zwischen dem Merkmal in dem ersten Bild (18a) und dem Bezugspunkt zu berechnen.
  17. Computerprogrammprodukt nach Anspruch 10, wobei Instruktionen zum Zusammenführen der Bilder Instruktionen beinhalten, um: ein neues Bild (18c') hinzuzufügen, um mit den empfangenen Bildern (18a18d) zusammengeführt zu werden; Maskierungswerte zu dem neuen Bild (18c') relativ zu den empfangenen Bildern (18a18d) zuzuweisen; und das neue Bild (18c') mit den empfangenen Bildern (18a18d) unter Verwendung der Maskierungswerte jedes Bilds zusammenzuführen.
DE60133202T 2000-05-16 2001-04-10 Zusammenführen von bildern zur bildung eines panoramischen bildes Expired - Lifetime DE60133202T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US572050 2000-05-16
US09/572,050 US6411742B1 (en) 2000-05-16 2000-05-16 Merging images to form a panoramic image
PCT/US2001/040490 WO2001088838A1 (en) 2000-05-16 2001-04-10 Merging images to form a panoramic image

Publications (2)

Publication Number Publication Date
DE60133202D1 DE60133202D1 (de) 2008-04-24
DE60133202T2 true DE60133202T2 (de) 2009-04-23

Family

ID=24286142

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60133202T Expired - Lifetime DE60133202T2 (de) 2000-05-16 2001-04-10 Zusammenführen von bildern zur bildung eines panoramischen bildes

Country Status (5)

Country Link
US (1) US6411742B1 (de)
EP (1) EP1299850B1 (de)
JP (1) JP2003533797A (de)
DE (1) DE60133202T2 (de)
WO (1) WO2001088838A1 (de)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6857106B1 (en) * 1999-09-15 2005-02-15 Listen.Com, Inc. Graphical user interface with moveable, mergeable elements
US20060073509A1 (en) * 1999-11-18 2006-04-06 Michael Kilpatrick Method for detecting and quantitating multiple subcellular components
WO2001055869A1 (en) * 2000-01-25 2001-08-02 Vistaprint Usa, Inc. Managing print jobs
FR2804231B1 (fr) 2000-01-25 2002-11-08 Vistaprint Usa Inc Impression centralisee de documents commerciaux en faibles volumes sur des machines auparavant limitees a des tres gros tirages
US6961141B2 (en) * 2000-02-25 2005-11-01 Eastman Kodak Company Method and electronic apparatus for formatting and serving inkjet image data
US7095905B1 (en) * 2000-09-08 2006-08-22 Adobe Systems Incorporated Merging images to form a panoramic image
US7027665B1 (en) * 2000-09-29 2006-04-11 Microsoft Corporation Method and apparatus for reducing image acquisition time in a digital imaging device
JP4356050B2 (ja) * 2000-12-28 2009-11-04 株式会社トプコン 測量装置と電子的記憶媒体
JP2002324232A (ja) * 2001-04-25 2002-11-08 Nikon Corp 画像処理方法
US7006707B2 (en) * 2001-05-03 2006-02-28 Adobe Systems Incorporated Projecting images onto a surface
US7103236B2 (en) * 2001-08-28 2006-09-05 Adobe Systems Incorporated Methods and apparatus for shifting perspective in a composite image
JP2003078817A (ja) * 2001-08-30 2003-03-14 Matsushita Electric Ind Co Ltd 画像合成方法、及び画像合成装置
SE520949C2 (sv) * 2002-01-15 2003-09-16 Sven-Aake Afsenius Digitalkamera med sökare avsedd för skärpedjupsförbättrad avbildning
US7433540B1 (en) 2002-10-25 2008-10-07 Adobe Systems Incorporated Decomposing natural image sequences
US20050063608A1 (en) * 2003-09-24 2005-03-24 Ian Clarke System and method for creating a panorama image from a plurality of source images
US7656429B2 (en) * 2004-02-04 2010-02-02 Hewlett-Packard Development Company, L.P. Digital camera and method for in creating still panoramas and composite photographs
US7813589B2 (en) * 2004-04-01 2010-10-12 Hewlett-Packard Development Company, L.P. System and method for blending images into a single image
US7376274B2 (en) * 2004-08-31 2008-05-20 Sonic Solutions Method and apparatus for use in video searching
US7542042B1 (en) * 2004-11-10 2009-06-02 Nvidia Corporation Subpicture overlay using fragment shader
US7529429B2 (en) 2004-11-12 2009-05-05 Carsten Rother Auto collage
US7532771B2 (en) * 2004-11-12 2009-05-12 Microsoft Corporation Image processing system for digital collage
US7653261B2 (en) * 2004-11-12 2010-01-26 Microsoft Corporation Image tapestry
US7281208B2 (en) * 2004-11-18 2007-10-09 Microsoft Corporation Image stitching methods and systems
US20060170956A1 (en) * 2005-01-31 2006-08-03 Jung Edward K Shared image devices
US9082456B2 (en) 2005-01-31 2015-07-14 The Invention Science Fund I Llc Shared image device designation
US9076208B2 (en) * 2006-02-28 2015-07-07 The Invention Science Fund I, Llc Imagery processing
US9093121B2 (en) 2006-02-28 2015-07-28 The Invention Science Fund I, Llc Data management of an audio data stream
US9621749B2 (en) 2005-06-02 2017-04-11 Invention Science Fund I, Llc Capturing selected image objects
US9967424B2 (en) 2005-06-02 2018-05-08 Invention Science Fund I, Llc Data storage usage protocol
US8964054B2 (en) 2006-08-18 2015-02-24 The Invention Science Fund I, Llc Capturing selected image objects
US9167195B2 (en) 2005-10-31 2015-10-20 Invention Science Fund I, Llc Preservation/degradation of video/audio aspects of a data stream
US9942511B2 (en) 2005-10-31 2018-04-10 Invention Science Fund I, Llc Preservation/degradation of video/audio aspects of a data stream
US10003762B2 (en) 2005-04-26 2018-06-19 Invention Science Fund I, Llc Shared image devices
US9191611B2 (en) 2005-06-02 2015-11-17 Invention Science Fund I, Llc Conditional alteration of a saved image
US20070120980A1 (en) 2005-10-31 2007-05-31 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Preservation/degradation of video/audio aspects of a data stream
US7660464B1 (en) 2005-12-22 2010-02-09 Adobe Systems Incorporated User interface for high dynamic range merge image selection
ATE417342T1 (de) 2006-09-22 2008-12-15 Cyclomedia Technology B V Methode und system zum erzeugen eines panoramabildes ausgehend von einem fahrzeug
US7576755B2 (en) 2007-02-13 2009-08-18 Microsoft Corporation Picture collage systems and methods
US7936915B2 (en) * 2007-05-29 2011-05-03 Microsoft Corporation Focal length estimation for panoramic stitching
US8660373B2 (en) * 2008-07-22 2014-02-25 Xerox Corporation PDF de-chunking and object classification
AU2009282654A1 (en) * 2008-08-18 2010-02-25 Waterloo Industries, Inc. Systems and arrangements for object identification
US9106794B2 (en) 2010-04-30 2015-08-11 American Teleconferencing Services, Ltd Record and playback in a conference
USD656505S1 (en) 2010-04-30 2012-03-27 American Teleconferencing Services, Ltd. Display screen portion with animated image
USD656941S1 (en) 2010-04-30 2012-04-03 American Teleconferencing Services, Ltd. Display screen portion with an animated image
US9082106B2 (en) 2010-04-30 2015-07-14 American Teleconferencing Services, Ltd. Conferencing system with graphical interface for participant survey
US10372315B2 (en) 2010-04-30 2019-08-06 American Teleconferencing Services, Ltd Location-aware conferencing with calendar functions
USD642587S1 (en) 2010-04-30 2011-08-02 American Teleconferencing Services, Ltd. Animated graphical user interface for a portion of a display screen
USD656942S1 (en) 2010-04-30 2012-04-03 American Teleconferencing Services, Ltd. Display screen portion with an animated image
USD642586S1 (en) 2010-04-30 2011-08-02 American Teleconferencing Services, Ltd. Portion of a display screen with a user interface
USD656504S1 (en) 2010-04-30 2012-03-27 American Teleconferencing Services, Ltd. Display screen portion with an animated image
US9419810B2 (en) 2010-04-30 2016-08-16 American Teleconference Services, Ltd. Location aware conferencing with graphical representations that enable licensing and advertising
US10268360B2 (en) 2010-04-30 2019-04-23 American Teleconferencing Service, Ltd. Participant profiling in a conferencing system
US8626847B2 (en) 2010-04-30 2014-01-07 American Teleconferencing Services, Ltd. Transferring a conference session between client devices
USD656506S1 (en) 2010-04-30 2012-03-27 American Teleconferencing Services, Ltd. Display screen portion with an animated image
US9560206B2 (en) 2010-04-30 2017-01-31 American Teleconferencing Services, Ltd. Real-time speech-to-text conversion in an audio conference session
US9189143B2 (en) 2010-04-30 2015-11-17 American Teleconferencing Services, Ltd. Sharing social networking content in a conference user interface
USD656507S1 (en) 2010-04-30 2012-03-27 American Teleconferencing Services, Ltd. Display screen portion with an animated image
JP2012105145A (ja) * 2010-11-11 2012-05-31 Canon Inc 画像処理装置、画像処理方法、及び、プログラム
US8151186B1 (en) * 2011-03-11 2012-04-03 Google Inc. Comparing text pages using image features based on word positions
CN102314686B (zh) * 2011-08-03 2013-07-17 深圳大学 一种拼接类全景视频的基准视场确定方法、系统及设备
JP2013070212A (ja) * 2011-09-22 2013-04-18 Fuji Xerox Co Ltd 画像処理装置、画像処理プログラム
WO2013079776A2 (en) * 2011-11-30 2013-06-06 Nokia Corporation Method and apparatus for image stitching
US10074214B2 (en) 2015-12-31 2018-09-11 Autodesk, Inc. Systems and methods for generating 3D scenes with time element for display
CN106780327B (zh) * 2016-12-06 2018-05-15 掌阅科技股份有限公司 文件碎片合并方法、装置及电子设备
US10235845B2 (en) 2017-04-05 2019-03-19 Stryker Corporation Patient support apparatuses with reconfigurable communication
CN108510445A (zh) * 2018-03-30 2018-09-07 长沙全度影像科技有限公司 一种全景图像拼接方法
WO2021054758A1 (ko) * 2019-09-20 2021-03-25 주식회사 와이즈오토모티브 건설장비용 전방 영상 생성 장치

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01125680A (ja) * 1987-11-11 1989-05-18 Hitachi Ltd センサ画像の処理方法
JPH02264372A (ja) * 1989-04-04 1990-10-29 Sumitomo Metal Ind Ltd ディジタル画像の接合方法
JP2821042B2 (ja) * 1991-05-01 1998-11-05 松下電器産業株式会社 画像合成装置
JPH04336679A (ja) * 1991-05-14 1992-11-24 Canon Inc 画像処理方法及びこれを用いたシステム
US5185808A (en) * 1991-06-06 1993-02-09 Eastman Kodak Company Method for merging images
US5657402A (en) * 1991-11-01 1997-08-12 Massachusetts Institute Of Technology Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method
CN1545056A (zh) * 1995-01-17 2004-11-10 世嘉企业股份有限公司 图像处理方法及电子装置
JP3530653B2 (ja) * 1995-09-26 2004-05-24 キヤノン株式会社 パノラマ画像合成装置
JPH09321972A (ja) * 1996-05-28 1997-12-12 Canon Inc 画像合成装置及び方法
US6075905A (en) * 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
JPH10105677A (ja) * 1996-09-26 1998-04-24 Sharp Corp 画像接合方法及び画像接合装置
JP3690002B2 (ja) * 1996-10-28 2005-08-31 富士ゼロックス株式会社 画像読取方法及び画像読取装置及び画像読取プログラムを記録した媒体
US5987164A (en) * 1997-08-01 1999-11-16 Microsoft Corporation Block adjustment method and apparatus for construction of image mosaics
JPH11259637A (ja) * 1998-03-06 1999-09-24 Canon Inc 画像合成装置、画像合成方法および記憶媒体
JPH11243483A (ja) * 1998-02-24 1999-09-07 Ricoh Co Ltd 画像処理装置
JP2000078467A (ja) * 1998-06-18 2000-03-14 Sony Corp 画像合成方法
JP2000105813A (ja) * 1998-09-28 2000-04-11 Nikon Corp 画像連接システム、および画像連接プログラムを記録した記録媒体

Also Published As

Publication number Publication date
WO2001088838A1 (en) 2001-11-22
EP1299850A4 (de) 2005-03-23
JP2003533797A (ja) 2003-11-11
EP1299850B1 (de) 2008-03-12
US6411742B1 (en) 2002-06-25
DE60133202D1 (de) 2008-04-24
EP1299850A1 (de) 2003-04-09

Similar Documents

Publication Publication Date Title
DE60133202T2 (de) Zusammenführen von bildern zur bildung eines panoramischen bildes
DE69735488T2 (de) Verfahren und vorrichtung zum ausrichten von bildern
DE60131884T2 (de) System und verfahren zur kamerakalibration
DE112006000358B4 (de) Verfahren und Vorrichtung zur Erstellung eines Panoramabildes
DE102009046114B4 (de) Verfahren und Vorrichtung zum Erzeugen einer kalibrierten Projektion
DE19782037C2 (de) Verfahren und Einrichtung zur Erzeugung eines zusammengesetzten Bildes
DE69734694T2 (de) Automatisches Bildbeschneiden
DE112007002221B4 (de) Graphikanordnungslayout mit maximaler Seitenbedeckung und minimaler Beseitigung von Inhalt
DE69628723T2 (de) Gradientengestütztes Verfahren zur Erzeugung von Werten für unbekannte Pixel in einem Digitalbild
DE10296401B4 (de) Verbund-Rendering von 3-D-Graphikobjekten
DE19507780B4 (de) Vorrichtung zur verteilten Bildverarbeitung
DE102011056970A1 (de) Rasterausgabe von rotierten, interpolierten Pixeln, die für digitale Bildstabilisierung optimiert ist
DE112017002851T5 (de) Verfahren und Vorrichtung einer Grenzauffüllung für eine VR-Videoverarbeitung
DE112013000762T5 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren
DE102014014944A1 (de) Füllen eines Zielbereichs unter Verwendung von Transformationen
DE102014116199B4 (de) Bildverzerrungs-Kompensationsvorrichtung und Betriebsverfahren dafür
DE102004049676A1 (de) Verfahren zur rechnergestützten Bewegungsschätzung in einer Vielzahl von zeitlich aufeinander folgenden digitalen Bildern, Anordnung zur rechnergestützten Bewegungsschätzung, Computerprogramm-Element und computerlesbares Speichermedium
DE3312050A1 (de) Verfahren zum herstellen einer photographischen maske
DE60300565T2 (de) Bildverarbeitungsvorrichtung und -verfahren zur beschleunigten Bildüberlagerung
DE202013012450U1 (de) System für die Identifizierung von Tiefendaten, die mit einem Objekt verbunden sind
DE112007001011B4 (de) Ein automatisierter Prozess zum Erzeugen eines berechneten Entwurfs einer zusammengesetzten Kamera, die mehrere digitale Bilderzeugungsgeräte umfasst
WO2002089059A2 (de) Bildverarbeitungsverfahren
DE1945135A1 (de) Automatisches Betrachtungsgeraet,insbesondere fuer photogrammetrische Stereoaufnahmen
DE19742931C2 (de) Verfahren und Vorrichtung zur Bildsynthese
DE102019104397B4 (de) Bildsynthesevorrichtung und Steuerverfahren

Legal Events

Date Code Title Description
8364 No opposition during term of opposition