DE102004017730B4 - Verfahren zur Rotationskompensation sphärischer Bilder - Google Patents

Verfahren zur Rotationskompensation sphärischer Bilder Download PDF

Info

Publication number
DE102004017730B4
DE102004017730B4 DE102004017730A DE102004017730A DE102004017730B4 DE 102004017730 B4 DE102004017730 B4 DE 102004017730B4 DE 102004017730 A DE102004017730 A DE 102004017730A DE 102004017730 A DE102004017730 A DE 102004017730A DE 102004017730 B4 DE102004017730 B4 DE 102004017730B4
Authority
DE
Germany
Prior art keywords
camera
rotation
pixel
coordinates
spherical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102004017730A
Other languages
English (en)
Other versions
DE102004017730A1 (de
Inventor
Reinhard Prof. Dr. Koch
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Christian Albrechts Universitaet Kiel
Original Assignee
Christian Albrechts Universitaet Kiel
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Christian Albrechts Universitaet Kiel filed Critical Christian Albrechts Universitaet Kiel
Priority to DE102004017730A priority Critical patent/DE102004017730B4/de
Priority to PCT/DE2005/000613 priority patent/WO2005101308A2/de
Priority to DE112005001396T priority patent/DE112005001396A5/de
Priority to EP05735021A priority patent/EP1735749A2/de
Publication of DE102004017730A1 publication Critical patent/DE102004017730A1/de
Application granted granted Critical
Publication of DE102004017730B4 publication Critical patent/DE102004017730B4/de
Priority to US11/545,363 priority patent/US7747105B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Abstract

Verfahren zum Erzeugen einer die vereinfachte Rekonstruktion der Translation einer Kamera erlaubenden rotationskompensierten Bildsequenz durch Echtzeit-Rotationskompensation der von einer mit einem Rotationssensor versehenen, in einer Szene beliebig bewegten elektronischen Kamera sequentiell aufgenommenen Bilder, die sich durch eine Zuordnung von Farb- und/oder Helligkeitswerten der durch rechtwinklige Koordinaten indizierten Pixel eines Pixelfeldes der Kamera ergeben, mit den Schritten:
– Verwendung der Polarkoordinaten einer Fischaugen-Projektion eines sphärischen Bildes eines sphärischen Objektivs (Fischauge),
– Bestimmen von Kalibriermatrizen für das sphärische Objektiv,
– Berechnen von die aus den Messdaten des Rotationssensors ermittelte relative Verdrehung der Kamera beschreibenden Drehmatrizen,
– Berechnen der Zuordnung zwischen den Pixelkoordinaten eines Bildpunkts in aufeinander folgenden Bildern aus den Kalibriermatrizen und den Drehmatrizen,
– Berechnen der Pixelkoordinaten entsprechend der berechneten Zuordnung unter Kompensation der Kamerarotation und
– Zurückkopieren der Farb- und/oder Helligkeitswerte von neuen auf alte Pixelkoordinaten entsprechend der berechneten Zuordnung.

Description

  • Die Erfindung betrifft ein Verfahren zur rechnergestützten Stabilisierung von Bildern, insbesondere von elektronisch aufgezeichneten Bildern (z.B. mit einer Videokamera), gegenüber Verdrehungen der Kamera um eine beliebige Achse um beliebig große Winkel. Die Erfindung betrifft auch Bildaufnahmesysteme mit einem Fischaugen-Objektiv (engl. „fisheye") für (halb-)sphärische Bilder, insbesondere auch Kameras mit 360°-Rundumsicht.
  • Verfahren zur elektronischen Bildstabilisierung sind bekannt und lassen sich grob in zwei Kategorien unterscheiden: (i) Kompensationsvorrichtungen für die Kamera selbst oder für den Lichtweg vom Objekt zum Kameraschirm und (ii) die rechnergestützte Korrektur der aufgezeichneten Bilder, was i. a. eine elektronische Erfassung der Bilder voraussetzt und Nachbearbeitung erfordert.
  • Beispiele für Vorrichtungen der ersten Kategorie sind in den Druckschriften DE 43 42 717 A1 oder DE 196 18 979 A1 beschrieben. Diese eignen sich insbesondere auch zur Kompensation von Verwacklungen bei Aufnahmen auf Filmmaterial.
  • Mit modernen Digitalkameras und mittlerweile gestiegener Rechnerleistung kommt aber auch der zweiten Kategorie praktische Bedeutung zu. Bestehende Verfahren zur Verwacklungskompensation, wie etwa die elektronische Bildstabilisierung in HandyCams, können aufgrund des begrenzten Öffnungswinkels perspektivischer Kameras nur geringfügige Kompensationen durchführen, wobei das Bild aufgrund der perspektivischen Transformation verzerrt wird. Bei einem Schwenk über mehr als den Öffnungswinkel der Kamera kann keine Kompensation mehr durchgeführt werden.
  • Es ist eine grundsätzliche Schwierigkeit der elektronischen Nachbearbeitung, dass ein reales Bild einer (dreidimensionalen) Szene lediglich von einer zweidimensionalen Pixelanordnung erfasst wird. Um allein aus einer Sequenz von Bildern auf eine zwischenzeitlich erfolgte Rotation oder Translation der Kamera zurück zu schließen, ist eine numerische Rekonstruktion der 3D-Szene erforderlich, die sich auch heute nicht ohne größeren Aufwand, insbesondere in Echtzeit, bewerkstelligen lässt.
  • Man zieht deshalb bei der Szenenrekonstruktion manchmal zusätzliche externe Sensorik als Hilfsmittel hinzu. Beispielsweise ist bekannt, eine Kamera mit einem fest montierten Beschleunigungs-Gyro-Sensor auszustatten, um neben Bildern auch gleichzeitig die Rotation der Kamera aufzuzeichnen (z.B. Suya You, Ulrich Neumann, and Ronald Azuma: Orientation Tracking for Outdoor Augmented Reality Registration. IEEE Computer Graphics and Applications 19, 6 (Nov/Dec 1999), 36–42). Der Rotationssensor misst durch Beschleunigungsmesser (Gyroskop-Prinzip) die relative Änderung der 3D Orientierung zwischen unterschiedlichen Aufnahmezeitpunkten. Zusätzlich können weitere absolute Messgrößen wie magnetischer Nordpol und Gravitation (Lot) zur Erzeugung einer absoluten Orientierungsreferenz mit verwendet werden. Durch Integration der relativen Änderung über die Zeit wird eine absolute 3D-Orientierung bestimmt. Die Rotation des Sensors kann durch 3 Winkel (Rx, Ry, Rz) um die 3 Raumachsen (X, Y, Z) beschrieben werden (Euler-Winkel, vgl. 1a) oder durch eine Rotation um eine Drehachse im Raum (vgl. 1b, Achse-Winkeldarstellung (A, α), auch: Quaternionen-Darstellung).
  • Auf diese Weise kann eine Entkopplung von Rotation und Translation der Kamera erreicht werden, d.h. beide lassen sich getrennt bestimmen.
  • Bekannt ist auch ein hernisphärisches Bildaufnahmesystem, insbesondere eine Kamera mit Fischaugen-Objektiv. Dieses bildet eine Hemisphäre des Raumes auf eine Kreisscheibe in der Bildebene ab. Die 2D-Bildrepräsentation erfolgt dabei in den Winkelkoordinaten über der Einheitshalbkugel. Die Bildmitte bildet den Pol der Hemisphäre ab. Die Kugeloberfläche wird durch zwei Winkel parametrisiert, welche entlang der Längengrade (ϑ) und Breitengrade (φ) der Kugel verlaufen (vgl. 2a). Ein Punkt (ϑ, φ) der Kugeloberfläche wird durch die sphärische Abbildung auf die Bildebene (x, y) abgebildet, wobei (x0, y0) den Pol (optische Achse) abbildet (vgl. 2b).
  • Beispielsweise aus der US 6 002 430 ist auch ein sphärisches Bildaufnahmesystem bekannt, das den gesamten umgebenden Raum abbildet, indem zwei mit dem Rücken zueinander montierte hemisphärische Kameras jeweils einen Halbraum aufnehmen.
  • Die WO 00/60870 A1 schlägt vor, eine Rundumsichtkamera umfassend ein Paar gegeneinander gerichtete Fischaugen-Kameras zu Erkundungszwecken an ferngesteuerte Vehikel zu montieren.
  • Aufgrund des von Null verschiedenen Abstandes der beiden Kamerazentren ist es dabei nahe liegend, Fischaugen-Objektive mit z.B. 190° Blickwinkel zu verwenden, um beide Bilder zu einem vollständigen Rundumbild nahtlos zusammensetzen zu können. Dennoch existieren stets (i) eine „Totzone" der Vorrichtung in unmittelbarer Nachbarschaft der Doppel-Kamera, die nicht eingesehen werden kann, sowie (ii) eine „Nahzone", in der sich die Parallaxenverschiebung der beiden Kameras bemerkbar macht. Für ausreichend weit entfernte Szenenpunkte spielt der Kamerazentrenabstand indes praktisch keine Rolle mehr.
  • Die US 2004/0046888 A1 gibt ein Verfahren an, wie die Kalibrierparameter einer Fischaugen-Kamera zur Linearisierung der Abbildung einer Hemisphäre auf einen zweidimensionalen Schirm ermittelt werden können.
  • Im Bereich der so genannten „Augmented Vision" ist man bestrebt, Personen z.B. bei komplexen Arbeitsgängen zusätzliche Informationen in ihr Sichtfeld einzublenden. Man stattet die Personen dazu etwa mit transparenten Display-Brillen aus, die Texte oder Grafiken in eine Realansicht einblenden können, vergleichbar dem bekannten Head-Up Display (HUD) aus militärischen Flugzeugen. Um die dazu erforderliche genaue Kenntnis der Lage der Brille im 3D-Raum automatisch zu ermitteln, kann man Rundumsicht-Kameras starr mit der Brille verbinden. Die Echtzeit-Analyse z.B. der Bewegung von bekannten Markierungspunkten im aufgezeichneten Bild erlaubt die Positionsbestimmung der Brille im Arbeitsraum. Um aber – etwa für Außenanwendungen – auf solche Markierungen verzichten zu können, sind wesentlich komplexere Bildanalysen erforderlich.
  • Dabei wird es hilfreich sein, Einflüsse von Rotation und Translation auf das Bild der a priori unbekannten Szene getrennt zu analysieren. Es liegt deshalb nahe, auch hier Rotationssensoren einzusetzen. Allerdings wurde bislang noch kein Verfahren veröffentlicht, wie die zusätzlichen Rotationsdaten zur Echtzeit-Rotationsstabilisierung des sphärischen Bildes zu benutzen sind.
  • Die DE 697 15 397 T2 beschreibt ein System zur Kompensation der Kamerabewegung in elektronisch aufgezeichneten Bildern, bei dem mit externen Sensoren Kamerabewegungen erfasst und daraus „Pixelinformationsübertragungsgeschwindigkeiten" errechnet werden. Das Bild wird durch kontrolliertes Umkopieren der Pixelinformationen gegen die Eigenbewegung der Kamera stabilisiert. Die Durchführung der Lehre der DE 697 15 397 T2 setzt allerdings die vollständige Information über Dreh-, Nick- und Gierbewegungen sowie die Translation der Kamera voraus, wie sie etwa bei der Luftbildaufzeichnung von der Flugzeugavionik bereitgestellt werden. Wenn nur die Rotation der Kamera bekannt ist, kann eine reine Rotationskompensation nach dem Verfahren der DE 697 15 3 97 T2 nicht durchgeführt werden.
  • Es ist daher die Aufgabe der Erfindung, das elektronisch aufgezeichnete Bild einer sphärischen Kamera in Echtzeit so zu bearbeiten, dass es bei der Darstellung auf einem Sichtschirm (z.B. eines PC) gegenüber beliebigen Verdrehungen der Kamera invariant bleibt.
  • Die Aufgabe wird gelöst durch ein Verfahren mit den Merkmalen des Anspruchs 1. Die Unteransprüche geben vorteilhafte Ausgestaltungen an.
  • 1 Mögliche Darstellungen der Kameradrehungen, a) Euler-Winkel, b) Achse-Winkel-Darstellung;
  • 2 Skizze der hemisphärischen Geometrie und ihres zweidimensionalen Abbildes mit Bezeichnungen der hier benutzten Koordinaten;
  • 3 Schematischer Verlauf der Kalibrierfunktion k(ϑ) eines Fischauge-Objektivs
  • Grundsätzliche Voraussetzung zur Durchführung des erfindungsgemäßen Verfahrens ist die starre Kopplung einer sphärischen Kamera mit einem 3 DoF (Degree of Freedom) Rotationssensor.
  • Zur vereinfachten Erläuterung soll im Folgenden nur noch von einer einzelnen Fischaugen-Kamera die Rede sein, die eine Hemisphäre abbildet. Zur Rundumsicht wird das Verfahren für beide Kameras simultan angewendet, und die erfindungsgemäß stabilisierten Bilder werden dann in an sich bekannter Weise zusammengefügt.
  • Die Pixelebene der Kamera erfordert ein zweidimensionales Koordinatensystem im 3D-Raum. Die Orientierung der Pixelebene ist dabei beliebig. Technische CCD-Chips weisen normalerweise rechteckige Pixel in rechtwinkliger Anordnung auf, so dass das kartesische Koordinatensystem (x, y) die natürliche Wahl ist. Sein Ursprung liegt typisch in einem Eckpixel.
  • Durch die sphärische Projektion des Fischauges werden Objektpunkte auf einer Halbkugel (o. B. d. A. mit Radius Eins) um das Kamerazentrum auf eine Kreisscheibe in der Pixelebene abgebildet. Die natürlichen Koordinaten des Bildes sind dann ebene Polarkoordinaten (r, φ). Die optische Achse der Kamera soll senkrecht zur Pixelebene durch einen zentralen Pixel mit Koordinaten (x0, y0) verlaufen. Jeder Objektpunkt auf der Halbkugel erscheint unter einem Winkel ϑ zur optischen Achse und ist zudem durch seine Azimutposition φ gekennzeichnet. Die Festlegung von φ = 0 ist dabei willkürlich.
  • Die Besonderheit der Fischaugen-Projektion besteht darin, dass der Winkel ϑ im idealen Fall linear auf den Radius der Kreisscheibe abgebildet wird. Dies ist in Praxis für kleine Winkel sehr gut erfüllt, aber für ϑ → 90° wird die Abbildung typisch nicht-linear. 3 zeigt exemplarisch die Kalibrierfunktion k(ϑ), die den jeweiligen Umrechnungsfaktor von Winkel (z.B. Radian) auf Pixelkoordinaten angibt und für jedes Objektiv einmal zu bestimmen ist.
  • Das sphärische Bild kann wegen der oben genannten Linearität durch die Polarkoordinaten (ϑ, φ) beschrieben werden.
  • Lässt man die Problematik diskreter Pixel außer acht, so besitzt ein Objektpunkt auf der Halbkugel bei den Koordinaten (ϑ, φ) in der Pixelebene die Pixelkoordinaten: xP = x0 + k(ϑ) × ϑcos(φ) und yP = y0 + k(ϑ) × ϑsin(φ) (1)
  • Ändern sich nun bei einer Drehung der Kamera die Winkelkoordinaten des Objekts, etwa von (ϑ, φ) nach (ϑ', φ'), so wandert auch das Bild des Objekts von (xP, yP) nach (xP', yP'). Verlässt es dabei die zulässigen Pixelkoordinaten des CCD-Chips, so ist das Objekt durch die Kameradrehung aus dem Blickfeld geraten. Es ist dann aber sicher im Blickfeld der zweiten, rückwärts gerichteten Kamera.
  • Das Prinzip der erfindungsgemäßen Bildstabilisierung besteht in der direkten Berechnung der Koordinatenverschiebungen (xP, yP) → (xP', yP') für alle Bildpunkte aus zusätzlichen Rotationsdaten sowie in deren Rückgängigmachen durch Umkopieren der Farbwerte von (xP', yP') zurück nach (xP, yP). Dieses Umkopieren ist heute in allen gängigen Graphikkarten implementiert und für Echtzeitanwendungen optimiert, z.B. zum Rotieren einer virtuellen Kamera in einem rechnergenerierten Raum.
  • Die Erfindung befasst sich daher allein mit der Abbildung (xP, yP) → (xP', yP'), die es schnell aus den Daten eines Rotationssensors zu bestimmen gilt. Da die Kameradrehung in natürlicher Weise durch eine 3×3-Drehmatrix beschrieben werden kann, ist es sinnvoll, das Problem dreidimensional zu formulieren, wofür man zusätzlich eine z-Achse entlang der optischen Achse, also senkrecht zur Pixelebene, definiert. Ebenso wird eine z'-Achse im gedrehten Kamerakoordinatensystem eingeführt, und man kann schreiben
    Figure 00070001
  • Dabei bezeichnet M = M(ϑ', φ', ϑ,φ) eine 3×3-Matrix, die von den neuen und alten Winkelkoordinaten des Objektpunktes auf der Halbkugel nach und vor der Kameradrehung abhängt. Die Erfindung zeigt nun einen Weg auf, sich diese Matrix schnell zu verschaffen, was für die Echtzeitstabilisierung des Bildes wesentlich ist.
  • Die Gleichungen (1) lassen sich als Matrixgleichung zusammenfassen
    Figure 00070002
    wobei K eine 3×3-Kalibriermatrix (mit Kalibrierfunktion k(ϑ)) und
    Figure 00070003
    die Normdarstellung des Pixelpunktes (xP, yP) in den Polarkoordinaten (ϑ, φ) ist. Die Matrix K ist nur einmal für alle ϑ aufzustellen und abzuspeichern. Sie ist immer invertierbar, und die Normdarstellung
    Figure 00070004
    hat den Vorteil, dass sich die 3D-Position
    Figure 00070005
    des zugehörigen Objektpunktes auf der Halbkugel unmittelbar aus den Winkelkoordinaten – und damit aus der Normdarstellung – angeben lässt. Gemäß der bekannten Definition sphärischer Polarkoordinaten für die Einheitskugel hat man nämlich
    Figure 00070006
    mit
    Figure 00080001
    so dass A(ϑ) eine invertierbare Matrix für ϑ ≠ 90°, 180° ist.
  • Ohnehin ist der Fall ϑ = 180° hier durch die eingangs getroffene Festlegung auf eine hemisphärische Kamera ausgeschlossen. Zwar könnte man eine 360°-Rundumsicht auf eine einzige Kreisscheibe abbilden, aber dies hätte schon wegen der damit verbundenen Verzerrungen Nachteile. Insbesondere würde der rückwärtige Pol der Objektsphäre, also bei ϑ = 180°, auf den gesamten Rand der Kreisscheibe abgebildet werden.
  • Der Fall ϑ = 90° kann indes vorkommen, und er zieht wegen (A –1)zz = 1/cosϑ eine nicht definierte (unendliche) Matrixkomponente nach sich. Die fragliche Komponente ist aber nur ein Artefakt der Beschreibung. Es kann bei der Implementierung abgefangen werden. Seine Herkunft wird weiter unten aufgezeigt.
  • Es ist nach Aufstellen von Gleichung (5) besonders vorteilhaft, die exakt bekannte Matrixfunktion A(ϑ) von vornherein mit der nur einmal zu bestimmenden Matrix K –1(ϑ) zu multiplizieren und in einer Tabelle für alle ϑ abzuspeichern. Die Produktmatrix A K –1 ist ebenfalls invertierbar mit (AK –1)–1 = KA –1 (6)und sollte genauso berechnet und tabelliert werden.
  • Bei der Kameradrehung liefert der Rotationssensor unmittelbar Messdaten für die um jede der Achsen gedrehten Winkel mit typischen Taktraten von 100–200 Messungen pro Sekunde, einer Winkelauflösung von typisch 0.05 Grad und einer Kurzzeitgenauigkeit von 0.1–0.3 Grad. Hieraus lässt sich sofort in an sich bekannter Weise eine 3×3-Drehmatrix aufstellen, die die Koordinatentransformation eines beliebigen Raumpunktes in das nunmehr gedrehte – mit der Kamera verbundene – Koordinatensystem erlaubt. Dies gilt auch für jeden Objektpunkt der Einheitskugel, insbesondere für
    Figure 00080002
    Im gedrehten Koordinatensystem besitzt er die Darstellung
    Figure 00080003
    und da Gleichung (5) natürlich auch im gedrehten Koordinatensystem gilt, hat man
    Figure 00090001
  • Der Vergleich mit Gleichung (2) zeigt, dass die dort auftretende Matrix M mit dem Matrixprodukt in Gleichung (8) identisch ist. Dieses wird effektiv als Produkt aus drei 3×3-Matrizen für jeden Pixel berechnet – zwei tabellierten Matrizen und einer gemessenen Rotationsmatrix, die für das gesamte Bild zu einem festen Zeitpunkt gilt.
  • Gleichung (8) erklärt auch, wie die unendliche Matrixkomponente (A –1)zz entsteht. Ein Objektpunkt
    Figure 00090002
    bei ϑ' = 90° befindet sich in der Ebene des Kamerazentrums, um das gedreht wurde, also bei
    Figure 00090003
    Gleichwohl soll sein
    Figure 00090004
    was nur geht, wenn (A–1)zz gegen Unendlich strebt. Die Wahl der z-Komponente Eins bei der Erhebung der Pixelkoordinaten in die dritte Dimension ist eine willkürliche, aber bequeme Festlegung in Gleichung (2). Sie verursacht das Beschreibungsproblem für ϑ' = 90°.
  • Das Ausführen von 3×3-Matrixprodukten ist durch moderne Hardwareimplementierung heute mit sehr hoher Geschwindigkeit möglich. Durch Vorausberechnung des Mapping in Tabellen kann die Rotationskompensation des Bildes echtzeitfähig, d.h. schritthaltend mit der Taktrate der Bildaufnahme, durchgeführt werden. Typische Bildaufnahmeraten sind hierbei 15–30 Bilder pro Sekunde. Mit Hilfe dieses Mapping lassen sich die Farbwerte aus ihren neuen Positionen auslesen und auf ihre alten zurückkopieren.
  • Bei einer Drehung der Kamera um das Kamerazentrum – in Abwesenheit von Kamera-Translation – ergibt sich so im Rechner und ggf. auf dem Monitor ein statisches, sphärisches Bild. Wird die Position des Kamerazentrums zusätzlich verändert, zeigt das Bild eine rotationsfreie Verschiebung der Szene, aus der sich der Translationszustand der Kamera vereinfacht rekonstruieren lässt.
  • Wenn die Bildstabilisierung besonders schnell erfolgen soll oder wenn sehr große Bilder zu stabilisieren sind, ist es eine vorteilhafte Ausführungsform des erfindungsgemäßen Verfahrens, das Mapping nicht für alle Pixel, sondern nur für eine Auswahl aus diesen durchzuführen. Wählt man insbesondere die Knotenpunkte eines über das Bild gelegten Dreiecksmaschen-Netzes („triangular mesh"), so werden zunächst zwar nur diese Netzpunkte zurückkopiert, aber moderne Graphikkarten verfügen auch über einen so genannten „Fragment-Shader", welcher Farbwerte zwischen bekannten Stützstellen interpolieren kann. Dies kommt typisch bei der Texturierung von Computergraphiken zum Einsatz. Bei vielen Anwendungen (gerade auch im Bereich des menschlichen Sehens) wird es auf die pixelgenaue Stabilisierung des Bildes nicht ankommen, so dass die Reduktion des Verfahrens auf wenige Netzknoten hohe Geschwindigkeitsvorteile bringen kann.

Claims (2)

  1. Verfahren zum Erzeugen einer die vereinfachte Rekonstruktion der Translation einer Kamera erlaubenden rotationskompensierten Bildsequenz durch Echtzeit-Rotationskompensation der von einer mit einem Rotationssensor versehenen, in einer Szene beliebig bewegten elektronischen Kamera sequentiell aufgenommenen Bilder, die sich durch eine Zuordnung von Farb- und/oder Helligkeitswerten der durch rechtwinklige Koordinaten indizierten Pixel eines Pixelfeldes der Kamera ergeben, mit den Schritten: – Verwendung der Polarkoordinaten einer Fischaugen-Projektion eines sphärischen Bildes eines sphärischen Objektivs (Fischauge), – Bestimmen von Kalibriermatrizen für das sphärische Objektiv, – Berechnen von die aus den Messdaten des Rotationssensors ermittelte relative Verdrehung der Kamera beschreibenden Drehmatrizen, – Berechnen der Zuordnung zwischen den Pixelkoordinaten eines Bildpunkts in aufeinander folgenden Bildern aus den Kalibriermatrizen und den Drehmatrizen, – Berechnen der Pixelkoordinaten entsprechend der berechneten Zuordnung unter Kompensation der Kamerarotation und – Zurückkopieren der Farb- und/oder Helligkeitswerte von neuen auf alte Pixelkoordinaten entsprechend der berechneten Zuordnung.
  2. Verfahren nach Anspruch 1, gekennzeichnet durch nahtloses Zusammensetzen des von der Kamera aufgenommenen Halbbildes mit dem von einer zweiten Kamera aufgenommenen entgegengerichteten Halbbild.
DE102004017730A 2004-04-10 2004-04-10 Verfahren zur Rotationskompensation sphärischer Bilder Expired - Fee Related DE102004017730B4 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102004017730A DE102004017730B4 (de) 2004-04-10 2004-04-10 Verfahren zur Rotationskompensation sphärischer Bilder
PCT/DE2005/000613 WO2005101308A2 (de) 2004-04-10 2005-04-07 Verfahren zur rotationskompensation sphärischer bilder
DE112005001396T DE112005001396A5 (de) 2004-04-10 2005-04-07 Verfahren zur Rotationskompensation sphärischer Bilder
EP05735021A EP1735749A2 (de) 2004-04-10 2005-04-07 Verfahren zur rotationskompensation sphärischer bilder
US11/545,363 US7747105B2 (en) 2004-04-10 2006-10-10 Method for the rotation compensation of spherical images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102004017730A DE102004017730B4 (de) 2004-04-10 2004-04-10 Verfahren zur Rotationskompensation sphärischer Bilder

Publications (2)

Publication Number Publication Date
DE102004017730A1 DE102004017730A1 (de) 2005-11-10
DE102004017730B4 true DE102004017730B4 (de) 2006-05-24

Family

ID=34981174

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102004017730A Expired - Fee Related DE102004017730B4 (de) 2004-04-10 2004-04-10 Verfahren zur Rotationskompensation sphärischer Bilder
DE112005001396T Withdrawn DE112005001396A5 (de) 2004-04-10 2005-04-07 Verfahren zur Rotationskompensation sphärischer Bilder

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112005001396T Withdrawn DE112005001396A5 (de) 2004-04-10 2005-04-07 Verfahren zur Rotationskompensation sphärischer Bilder

Country Status (4)

Country Link
US (1) US7747105B2 (de)
EP (1) EP1735749A2 (de)
DE (2) DE102004017730B4 (de)
WO (1) WO2005101308A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008023439A1 (de) 2008-05-14 2009-11-26 Christian-Albrechts-Universität Zu Kiel Augmented Reality Fernglas zur Navigationsunterstützung

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0701300D0 (en) * 2007-01-24 2007-03-07 Dreampact Ltd An inspection device which may contain a payload device
WO2008114264A2 (en) * 2007-03-21 2008-09-25 Mantis Vision Ltd A method and apparatus for video image stabilization
KR101014572B1 (ko) * 2007-08-27 2011-02-16 주식회사 코아로직 영상 왜곡 보정 방법 및 그 보정 방법을 채용한 영상처리장치
US8624924B2 (en) * 2008-01-18 2014-01-07 Lockheed Martin Corporation Portable immersive environment using motion capture and head mounted display
GB2483224A (en) * 2010-08-26 2012-03-07 Dreampact Ltd Imaging device with measurement and processing means compensating for device motion
WO2015152923A1 (en) * 2014-04-03 2015-10-08 Empire Technology Development Llc Color smear correction based on inertial measurements
US9883101B1 (en) * 2014-07-23 2018-01-30 Hoyos Integrity Corporation Providing a real-time via a wireless communication channel associated with a panoramic video capture device
FR3041135B1 (fr) * 2015-09-10 2017-09-29 Parrot Drone avec camera a visee frontale avec segmentation de l'image du ciel pour le controle de l'autoexposition
US10097759B1 (en) * 2015-09-30 2018-10-09 Apple Inc. 360 degree image presentation
EP3378221B1 (de) 2015-11-16 2022-01-12 Google LLC Stabilisierung auf der grundlage von daten eines beschleunigungsmessers
US11477382B2 (en) * 2016-02-19 2022-10-18 Fotonation Limited Method of stabilizing a sequence of images
US10404915B1 (en) * 2016-04-07 2019-09-03 Scott Zhihao Chen Method and system for panoramic video image stabilization
KR20180073327A (ko) 2016-12-22 2018-07-02 삼성전자주식회사 영상 표시 방법, 저장 매체 및 전자 장치
US10453273B2 (en) 2017-04-25 2019-10-22 Microsoft Technology Licensing, Llc Method and system for providing an object in virtual or semi-virtual space based on a user characteristic
TWI668541B (zh) * 2017-09-29 2019-08-11 財團法人工業技術研究院 機器人工具中心點校正系統及其方法
CN108038820B (zh) * 2017-11-14 2021-02-02 影石创新科技股份有限公司 一种实现子弹时间拍摄效果的方法、装置及全景相机
US10832377B2 (en) * 2019-01-04 2020-11-10 Aspeed Technology Inc. Spherical coordinates calibration method for linking spherical coordinates to texture coordinates

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4342717A1 (de) * 1992-12-24 1994-06-30 Anschuetz & Co Gmbh Bildstabilisierungseinrichtung
DE19618979A1 (de) * 1995-08-30 1997-03-06 Samsung Electronics Co Ltd Vorrichtung zur Korrektur von aufgrund von Handvibrationen verursachten Bildvibrationen in einer Videokamera
US6002430A (en) * 1994-01-31 1999-12-14 Interactive Pictures Corporation Method and apparatus for simultaneous capture of a spherical image
WO2000060870A1 (en) * 1999-04-08 2000-10-12 Internet Pictures Corporation Remote controlled platform for camera
DE69715397T2 (de) * 1996-05-07 2003-05-22 Recon Optical Inc Elektro-optische bildwandlermatrix mit zweiachsiger bildbewegungskompensation
US20040046888A1 (en) * 2002-07-26 2004-03-11 Gwo-Jen Jan Method for presenting fisheye-camera images

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4736436A (en) * 1984-04-13 1988-04-05 Fujitsu Limited Information extraction by mapping
US5844602A (en) * 1996-05-07 1998-12-01 Recon/Optical, Inc. Electro-optical imaging array and camera system with pitch rate image motion compensation which can be used in an airplane in a dive bomb maneuver

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4342717A1 (de) * 1992-12-24 1994-06-30 Anschuetz & Co Gmbh Bildstabilisierungseinrichtung
US6002430A (en) * 1994-01-31 1999-12-14 Interactive Pictures Corporation Method and apparatus for simultaneous capture of a spherical image
DE19618979A1 (de) * 1995-08-30 1997-03-06 Samsung Electronics Co Ltd Vorrichtung zur Korrektur von aufgrund von Handvibrationen verursachten Bildvibrationen in einer Videokamera
DE69715397T2 (de) * 1996-05-07 2003-05-22 Recon Optical Inc Elektro-optische bildwandlermatrix mit zweiachsiger bildbewegungskompensation
WO2000060870A1 (en) * 1999-04-08 2000-10-12 Internet Pictures Corporation Remote controlled platform for camera
US20040046888A1 (en) * 2002-07-26 2004-03-11 Gwo-Jen Jan Method for presenting fisheye-camera images

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
You,S. u.a.: Orientation tracking for outdoor aug- mented reality registration. In: IEEE Computer Graphics and Applications. ISSN 0272-1716: Nov- Dez.1999, Vol.19, Issue 6, S.36-42
You,S. u.a.: Orientation tracking for outdoor aug-mented reality registration. In: IEEE Computer Graphics and Applications. ISSN 0272-1716: Nov- Dez.1999, Vol.19, Issue 6, S.36-42 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008023439A1 (de) 2008-05-14 2009-11-26 Christian-Albrechts-Universität Zu Kiel Augmented Reality Fernglas zur Navigationsunterstützung
DE102008023439B4 (de) * 2008-05-14 2011-02-17 Christian-Albrechts-Universität Zu Kiel Augmented Reality Fernglas zur Navigationsunterstützung

Also Published As

Publication number Publication date
US20070036460A1 (en) 2007-02-15
EP1735749A2 (de) 2006-12-27
DE102004017730A1 (de) 2005-11-10
WO2005101308A3 (de) 2006-03-02
WO2005101308A2 (de) 2005-10-27
US7747105B2 (en) 2010-06-29
DE112005001396A5 (de) 2007-05-24

Similar Documents

Publication Publication Date Title
DE102004017730B4 (de) Verfahren zur Rotationskompensation sphärischer Bilder
US5586231A (en) Method and device for processing an image in order to construct from a source image a target image with charge of perspective
US6778207B1 (en) Fast digital pan tilt zoom video
CN105809701B (zh) 全景视频姿态标定方法
US9277122B1 (en) System and method for removing camera rotation from a panoramic video
CN104246795B (zh) 用于超广角透镜图像的自适应透视修正的方法和系统
DE60310145T2 (de) Rundum-Beobachtungssystem und -verfahren
EP3427474B1 (de) Bildverarbeitungsverfahren, bildverarbeitungsmittel und bildverarbeitungsvorrichtung zur erzeugung von abbildungen eines teils eines dreidimensionalen raums
EP2880853B1 (de) Vorrichtung und verfahren zur bestimmung der eigenlage einer bildaufnehmenden kamera
WO2008114264A2 (en) A method and apparatus for video image stabilization
US20170180705A1 (en) Capture and render of virtual reality content employing a light field camera array
DE102008023439B4 (de) Augmented Reality Fernglas zur Navigationsunterstützung
DE102009054214B4 (de) Verfahren und Vorrichtung zum Erzeugen einer Darstellung einer Umgebung
DE4037739C1 (de)
EP3539085A1 (de) 3d-referenzierung
DE102014106718A1 (de) Verfahren und System zur Bestimmung einer gegenständlichen Lage
JP4710081B2 (ja) 画像作成システム及び画像作成方法
CN108510537B (zh) 3d建模方法和装置
Bakstein et al. Non-central cameras: A review
DE102012010799B4 (de) Verfahren zur räumlichen Visualisierung von virtuellen Objekten
CN111626930A (zh) 全方位的三维照相方法
Liao et al. A novel plan for crime scene reconstruction
EP3591609A1 (de) Verfahren und system zur horizontalen kalibrierung von panoramabildern oder -videos und tragbares endgerät
CN116977449B (zh) 一种基于闪烁棋盘格的复眼事件相机主动标定方法
CN108198131B (zh) 一种基于多图像融合的空间目标抖动及运动模糊仿真方法

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R082 Change of representative

Representative=s name: BOEHMERT & BOEHMERT ANWALTSPARTNERSCHAFT MBB -, DE

Representative=s name: BOEHMERT & BOEHMERT, DE

Representative=s name: BOEHMERT & BOEHMERT, 28209 BREMEN, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20141101