DE102010024054A1 - Verfahren zum Zuordnen eines Videobilds der realen Welt zu einem dreidimensionalen Computermodell der realen Welt - Google Patents

Verfahren zum Zuordnen eines Videobilds der realen Welt zu einem dreidimensionalen Computermodell der realen Welt Download PDF

Info

Publication number
DE102010024054A1
DE102010024054A1 DE201010024054 DE102010024054A DE102010024054A1 DE 102010024054 A1 DE102010024054 A1 DE 102010024054A1 DE 201010024054 DE201010024054 DE 201010024054 DE 102010024054 A DE102010024054 A DE 102010024054A DE 102010024054 A1 DE102010024054 A1 DE 102010024054A1
Authority
DE
Germany
Prior art keywords
video image
camera
computer model
pixel
dimensional computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201010024054
Other languages
English (en)
Inventor
wird später genannt werden Erfinder
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FAST PROTECT AG
Original Assignee
FAST PROTECT AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FAST PROTECT AG filed Critical FAST PROTECT AG
Priority to DE201010024054 priority Critical patent/DE102010024054A1/de
Publication of DE102010024054A1 publication Critical patent/DE102010024054A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)

Abstract

Um die Aussagekraft von Videobildern zu erhöhen und neue Anwendungen zu schaffen, schlägt die vorliegende Erfindung ein Verfahren zum Zuordnen eines Videobilds der realen Welt zu einem dreidimensionalen Computermodell der realen Welt vor, wobei das Videobild eine Vielzahl von Pixeln aufweist, und wobei das Videobild mittels einer Kamera aufgenommenErfassen einer Zuordnung von wenigstens einem Pixel des Videobilds zu einem Koordinatenpunkt in dem dreidimensionalen Computermodell, um wenigstens ein Pixel-Koordinatenpunkt-Paar zu erhalten; und (b1) Berechnen aus dem wenigstens einen Pixel-Koordinatenpunkt-Paar einer Zuordnung von wenigstens einem weiteren Pixel des Videobilds zu einem Koordinatenpunkt in dem dreidimensionalen Computermodell, wobei das wenigstens eine weitere Pixel nicht das wenigstens eine Pixel ist; und/oder (b2) Berechnen aus dem wenigstens einen Pixel-Koordinatenpunkt-Paar von Parametern der Kamera.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Zuordnen eines Videobilds der realen Welt zu einem dreidimensionalen Computermodell der realen Welt.
  • Im Stand der Technik sind digitale Modelle der realen Welt bekannt. Beispiele hierfür sind das DTM (Digital Terrain Model = digitales Geländemodell) oder das DSM (Digital Surface Model = digitales Oberflächenmodell). Das digitale Geländemodell ist ein dreidimensionales Modell der realen Welt, und das digitale Oberflächenmodell ist ein zweidimensionales Modell der realen Welt. Beispielsweise wird ein digitales Geländemodell dadurch erzeugt, dass an einem Flugzeug angebrachte Kameras 3D-Sterometrie-Daten aufnehmen, welche dann die Grundlage für das digitale Geländemodell bilden. Gleichzeitig mit der Kameraaufnahme wird die Position der Kameras über UPS und/oder Gyroskope aufgezeichnet, so dass eine exakte Vermessung aus Flugaufnahmen erzeugt werden kann. Das digitale Geländemodell wird beispielsweise durch eine Vermessung mittels Laser oder Radar erzeugt. Die Radarmessung ist weniger genau, bietet aber den Vorteil, dass keine Vegetation mitvermessen wird.
  • Daneben ist es schon seit langem bekannt, mittels Kameras zweidimensionale Videoaufnahmen der realen Welt zu machen. Beispielhafte Anwendungsfälle sind Überwachungskameras, welche einen bestimmten Bereich überwachen. Eine Überwachung mittels herkömmlicher Kameras besitzt allerdings eine Vielzahl von Nachteilen. Beispielsweise ist das Blickfeld der Kameras begrenzt und die aus dem zweidimensionalen Abbild der Realität gewonnene Information ist ebenfalls limitiert.
  • Es besteht daher ein Bedarf dahingehend, die beiden bekannten Techniken derart zu kombinieren, dass der Informationsgehalt eines Videobildes stark vergrößert wird, indem die Informationen aus dem dreidimensionalen Computermodell der realen Welt darin eingebunden werden.
  • Die Aufgabe der vorliegenden Erfindung besteht daher darin, die Aussagekraft von Videobildern zu erhöhen und neue Anwendungsmöglichkeiten für die Videoüberwachung zu schaffen.
  • Diese Aufgabe wird durch ein Verfahren zum Zuordnen eines Videobilds der realen Welt zu einem dreidimensionalen Computermodell der realen Welt gelöst, wobei das Videobild eine Vielzahl von Pixeln aufweist, und wobei das Videobild mittels einer Kamera aufgenommen ist, und wobei das Verfahren folgende Schritte aufweist:
    • (a) Erfassen einer Zuordnung von wenigstens einem Pixel des Videobilds zu einem Koordinatenpunkt in dem dreidimensionalen Computermodell, um wenigstens ein Pixel-Koordinatenpunkt-Paar zu erhalten; und
    • (b1) Berechnen aus dem wenigstens einen Pixel-Koordinatenpunkt-Paar einer Zuordnung von wenigstens einem weiteren Pixel des Videobilds zu einem Koordinatenpunkt in dem dreidimensionalen Computermodell, wobei das wenigstens eine weitere Pixel nicht das wenigstens eine Pixel ist; und/oder
    • (b2) Berechnen aus dem wenigstens einen Pixel-Koordinatenpunkt-Paar von Parametern der Kamera.
  • Ein Vorteil der vorliegenden Erfindung besteht darin, ein 3D-Visualisierungssystem in Echtzeit vorzusehen, das mehrfache Datenquellen in dem Weltkoordinatensystem integriert, was einen entfernten Zugriff auf Sensoren und virtuelle Durchflüge erlaubt.
  • Weitere bevorzugte Ausgestaltungen der Erfindung sind in den abhängigen Ansprüchen offenbart.
  • Die Erfindung, sowie weitere Merkmale, Ziele, Vorteile und Anwendungsmöglichkeiten derselben, wird bzw. werden nachfolgend anhand einer Beschreibung von bevorzugten Ausführungsbeispielen unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. In den Zeichnungen bezeichnen dieselben oder ähnliche Bezugszeichen dieselben bzw. entsprechende Elemente. Dabei bilden alle beschriebenen und/oder bildlich dargestellten Merkmale für sich oder in beliebiger sinnvoller Kombination den Gegenstand der vorliegenden Erfindung, und zwar unabhängig von ihrer Zusammenfassung in den Ansprüchen oder deren Rückbeziehung. In den Zeichnungen zeigen in stark schematischer Darstellung:
  • 1 eine Darstellung einer Arbeitsumgebung mit zwei Bildschirmen, um ein Videobild einem dreidimensionalen Computermodell zuzuordnen;
  • 2a ein Videobild einer Szene mit Gebäuden, welches mittels der vorliegenden Erfindung einem dreidimensionalen Oberflächenmodell zugeordnet werden soll;
  • 2b das Videobild einer Szene mit Gebäuden gemäß 2a mit noch nicht passend überlagerten Kanten der Gebäude, welche aus dem dreidimensionalen Oberflächenmodell erhalten wurden;
  • 2c das Videobild einer Szene mit Gebäuden gemäß 2a mit passend überlagerten Kanten der Gebäude, welche aus dem dreidimensionalen Oberflächenmodell erhalten wurden;
  • 3 eine stark schematische Darstellung einer Zuordnungshilfseinrichtung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 4 ein Videobild einer Szene mit einem Pkw, wobei in dem Videobild die erfindungsgemäß bestimmte Länge des Pkw angezeigt wird;
  • 5 die rechte Hälfte der 5 zeigt ein Live-Videobild einer Überwachungskamera, mit einem darin markierten Objekt, die linke Hälfte der 5 zeigt die Trajektorie des Objekts in einem dreidimensionalen Computermodell;
  • 6 eine perspektivische Ansicht in einem dreidimensionalen Computermodell, in welchem in der Realität aufgestellte Videokameras angezeigt sind, wobei ferner, das durch die Videokameras aufgenommene Bild in dem Computermodell auf virtuellen Leinwänden mitangezeigt wird;
  • 7 eine Nachtaufnahme einer Szene von zwei Personen, wobei um die Nachtaufnahme herum die Umgebung der Szene dargestellt ist, und wobei die Umgebung einer Aufnahme bei Tag entstammt;
  • 8 eine mit einer Schwenkneigekopfkamera erhaltene 360° Ansicht einer Szene, wobei das aktuelle Blickfeld der Schwenkneigekopfkamera durch ein Rechteck markiert ist;
  • 9 eine Ansicht eines Geländes in einem dreidimensionalen Computermodell der realen Welt, wobei sich in dem Gelände mehrere mobile Einsatzkräfte mit Überwachungskameras bewegen, und wobei die nicht durch die Kameras überwachten Bereiche in dem Modell markiert sind; und
  • 10 eine schematische Darstellung einer Anzeigevorrichtung nach Art einer Radaranzeige für mobile Einsatzkräfte, in welcher Videobilder sowie die Position der diese aufnehmenden Kameras angezeigt wird.
  • In einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung werden Schwenkneigekopfkameras verwendet, welche sowohl geschwenkt als auch geneigt werden können. Ferner kann eine derartige Schwenkneigekopfkamera einen Bildausschnitt vergrößern, d. h. in eine Richtung zoomen. Derartige Schwenkneigekopfkameras sind im Stand der Technik bekannt und werden deshalb hier nicht weiter beschrieben.
  • Derartige Schwenkneigekopfkameras werden beispielsweise an einem Turm angebracht, und die Kamera überwacht dann die Umgebung. Dabei muss sichergestellt sein, dass, wenn die Kamera nicht angesteuert wird, d. h. nicht verschwenkt oder geneigt wird, die Kamera immer in dieselbe Richtung zeigt. Dies ist in der Praxis tatsächlich ein Problem, da sich beispielsweise der Turm bei starkem Wind bewegen kann, was das Bild der an dem Turm angebrachten Kamera verändert. Zu diesem Zweck werden gemäß einem Ausführungsbeispiel der Erfindung Kompensationseinrichtungen mit sichtbaren Markierungen im Blickfeld des Videobilds aufgestellt, welche beispielsweise als Lampen realisiert sind, welche vorzugsweise gemäß einer speziellen Kennung blinken. Durch die spezielle Kennung des Blinkens kann jede Kompensationseinrichtung identifiziert werden. Bei einer ungewünschten Bewegung der Kamera, wie sie beispielsweise durch eine Bewegung des Objekts, an dem sie angebracht ist, verursacht wird, kann dann dadurch erkannt werden, dass sich die Position der Kompensationseinrichtung in dem Videobild ändert. Durch rechnerische Kompensation kann die ungewünschte Bewegung ausgeglichen werden, so dass die Kamera ständig denselben Bildausschnitt der Umgebung liefert, wenn deren Kameraparameter (Schwenkung, Neigung, Zoom) nicht geändert werden. Eine beispielhafte Ausführungsform einer Kompensationseinrichtung entspricht im wesentlichen einer Zuordnungshilfseinrichtung wie sie weiter unten in Verbindung mit 3 näher erläutert wird.
  • Um nun ein von einer Schwenkneigekopfkamera aufgenommenes Videobild der realen Welt zu einem dreidimensionalen Computermodell der realen Welt zuzuordnen, wird wenigstens ein Pixel des Videobilds einem Koordinatenpunkt in dem dreidimensionalen Computermodell zugeordnet. Vorzugsweise werden mehrere Pixel des Videobilds mehreren Koordinatenpunkten des dreidimensionalen Computermodells zugeordnet, wobei vorzugsweise wenigstens vier Pixel verwendet werden, welche beispielsweise aus den vier unterschiedlichen Quadranten des Videobilds stammen.
  • Der 1 kann man ein beispielhaftes Ausführungsbeispiel der vorliegenden Erfindung für die Zuordnung von Pixeln des Videobilds zu Koordinatenpunkten des dreidimensionalen Computermodells entnehmen. Im 1 sind zwei Computerbildschirme erkennbar. Der linke Computerbildschirm zeigt ein reales Videobild, welches von einer Überwachungskamera aufgenommen wird. Der rechte Bildschirm zeigt ein digitales Geländemodell, über das eine georeferenzierte Luftaufnahme überlagert wurde. Ein Anwender kann nun manuell Pixel des Videobildes des linken Monitors zu entsprechenden Koordinatenpunkten des rechten Monitors durch Mausklicks zuordnen. Beispielsweise kann ein Punkt des an dem linken Monitor gezeigten Hauses einem entsprechenden in der Luftaufnahme erkennbaren Punkt zugeordnet werden. Die Ansicht des digitalen Geländemodells des rechten Monitors kann vom Anwender verändert werden, so dass beispielsweise auch Höhenkoordinaten den Pixeln des Videobilds zugeordnet werden können. Als Ergebnis dieser Zuordnung erhält man für wenigstens eine und vorzugsweise für eine Vielzahl von Pixel des zweidimensionalen Videobilds 3D-Koordinaten aus dem dreidimensionalen Computermodell.
  • Ein alternatives Verfahren der „Kalibrierung”, d. h. der Zuordnung von Pixeln zu Koordinatenpunkten, ist in den 2a bis 2c veranschaulicht. In der 2a ist ein durch eine Kamera erzeugtes Videobild der realen Welt dargestellt. Man erkennt deutlich eine Ansicht von Gebäuden. Aus einem digitalen Geländemodell werden nun mittels bekannter Verfahren die Kanten der Gebäude ermittelt und mit dem Videobild überlagert. Man erkennt in 2b entsprechende Umrisse, welche aus einem digitalen Geländemodell erhalten wurden, wobei die Überlagerung noch nicht deckungsgleich ist. Die 2b zeigt daher einen Zwischenschritt der Kalibrierung, bei welchem die Kanten noch nicht kongruent sind. Durch genaue Anpassung der Kanten (vgl. 2c) kann dann eine genaue Zuordnung der Pixel zu Koordinatenpunkten in dem dreidimensionalen Computermodell erfolgen kann.
  • Schließlich verwendet die vorliegende Erfindung ein drittes Verfahren für die Zuordnung von Pixeln eines Videobilds zu dreidimensionalen Koordinatenpunkten, wobei in diesem Zusammenhang auf 3 hingewiesen wird. In 3 ist eine Zuordnungshilfseinrichtung 1 in Form eines Dreibeins schematisch dargestellt. Die Zuordnungshilfseinrichtung 1 weist eine sichtbare Markierung in Form eine Leuchte 2 auf. Ferner verfügt die Zuordnungshilfseinrichtung 1 über Mittel, um deren Koordinaten zu bestimmen, wie beispielsweise einen GPS-Empfänger 3. Über Funk, in 3 ist hierzu ein Mobiltelefon 4 gezeigt, kann die beispielsweise mittels GPS bestimmte Koordinatenposition der Zuordnungshilfseinrichtung 1 fernübertragen werden. Die Zuordnungshilfseinrichtung 1 wird in dem Blickfeld einer Kamera aufgestellt, und in dem von der Kamera erzeugten Videobild erkennt man deutlich die Leuchte 2. Den entsprechenden Pixeln der Leuchte 2 wird dann die per Funk übermittelte Koordinatenposition zugeordnet, so dass auf diese Weise Pixel-Koordinatenpunkt-Paare erhalten werden. Zu diesem Zweck können mehrere Zuordnungshilfseinrichtungen 1 vorgesehen sein, oder eine Zuordnungshilfseinrichtung kann an mehreren Stellen nacheinander aufgestellt werden. Dieses Verfahren der anfänglichen „Kalibration” ist besonders gut für Anwendungsfälle geeignet, bei denen das Videobild derart ist, dass es keine Objekte enthält, wie es z. B. der Fall ist, wenn eine „grüne Wiese” überwacht wird.
  • Während eingangs der Figurenbeschreibung erläutert wurde, wie ein stabiles Bild generiert wird, wurde vorstehend im Verbindung mit den 1 bis 3 die Zuordnung von Pixeln des Videobilds zu Koordinatenpunkten in einem dreidimensionalen Computermodell der Realität, wie z. B. einem digitalen Geländemodell, näher erläutert. Für einen Fachmann ist es jedoch offensichtlich, dass verschiedene weitere „Kalibrierungen” gemacht werden müssen, wie z. B. die Korrektur von Linsen- bzw. Abbildungsfehlern, um eine möglichst genaue Implementierung der Erfindung sicherzustellen.
  • Die aus der oben erläuterten Zuordnung gewonnenen Pixel-Koordinatenpunkt-Paare können nun grundsätzlich auf zwei Arten verwendet werden. Zum einen können für die verbleibenden, d. h. die nichtzugeordneten, Pixel des Videobilds Koordinatenpunkte in dem dreidimensionalen Computermodell der realen Welt berechnet werden. Hierzu werden an dem Fachmann geläufige mathematische Verfahren, wie z. B. nichtlineare Optimierung, Interpolation, Verfahren der kleinsten Quadrate etc. verwendet. Jedem Pixel des Videobilds ist eindeutig ein Koordinatenpunkt zugeordnet, so dass durch die Erfindung ein georeferenziertes Videobild erhalten wird. Eine andere Möglichkeit besteht darin, aus den erhaltenen Pixel-Koordinatenpunkt-Paaren die Kameraparameter, d. h. die Blickrichtung der Kamera, Schwenkwinkel, Neigungswinkel und Zoomfaktor zu berechnen. Für ein anfänglich gemäß dem oben beschriebenen Verfahren ausgewertetes Videobild, sind dann die Kameraparameter bekannt, und im Betrieb überträgt dann die Schwenkneigekopfkamera die Änderungen ihrer Kameraparameter laufend oder auf Anfrage an das dreidimensionale Computermodell, so dass sozusagen eine virtuelle Kamera in dem dreidimensionalen Computermodell existiert, welche der realen Kamera entspricht. Wie zuvor beschrieben, kann dann je nach Anwendungsfall für jedes im Videobild sichtbare Pixel dessen Koordinaten berechnet werden.
  • Vorzugsweise werden für mehrere anfängliche Kamerapositionen und Parameter ausreichend viele Pixel-Koordinatenpunkte erhalten, so dass für zukünftige Kamerabewegungen, deren Änderungen zu den anfänglichen Positionen bekannt sind, durch Interpolation die aktuellen Kameraparameter bestimmt werden können.
  • Durch die Erfindung wird eine Vielzahl von neuartigen Anwendungen möglich. Beispielsweise kann in einem Videobild ein vorderer Punkt und ein hinterer Punkt eines Objekts markiert werden, wobei dann die Länge des Objekts berechnet wird und im Videobild angezeigt werden kann. Dies entnimmt man der beispielhaften Darstellung der 4, in welcher die Länge eines parkenden Autos angezeigt wird. Anstelle von oder zusätzlich zu der Länge eines Objekts, in der Darstellung der 4 ist beispielhaft ein parkendes Auto gezeigt, können auch andere Parameter, wie z. B. Höhe oder Koordinaten, eines Objekts selbstverständlich angezeigt werden.
  • Es können aber nicht nur statische Parameter von Objekten erfasst werden, sondern auch dynamische Parameter, wie z. B. Trajektorie, Geschwindigkeiten, Beschleunigungen etc. Dies bietet einen enormen Vorteil gegenüber dem Stand der Technik wie anhand eines Beispiels im Folgenden erläutert wird. Bei einer herkömmlichen Überwachungssituation, wie z. B. in einem Flughafen, gibt es eine Vielzahl von Überwachungskameras, deren Bilder auf Monitoren vom Überwachungspersonal betrachtet werden. Wenn nun eine verdächtige Person in das Blickfeld einer Kamera tritt, und von dem Überwachungspersonal als verdächtig eingestuft wird, so muss das Personal sie bei allen Bewegungen durch den Flughafen verfolgt werden. Dabei tritt die Person beispielsweise aus dem Blickfeld einer Überwachungskamera aus, d. h. befindet sich für eine gewisse Zeit in einem toten Bereich, um dann wieder in dem Blickfeld einer anderen Kamera aufzutauchen. Da die Bewegung der verdächtigen Person nicht bekannt ist, erfordert es viel Routine und auch Glück, um die Person in dem Blickfeld einer neuen Kamera wieder zu lokalisieren. Dabei gibt es selbstverständlich auch eine Unsicherheit dahingehend, ob die Person wirklich noch dieselbe ist, oder ob es sich lediglich um eine ähnliche Person handelt. Mit der vorliegenden Erfindung wäre es beispielsweise möglich, die Größe der Person zu erfassen, und anhand der Größe zu bestimmen, ob es sich bei der Person im Blickfeld der anderen Kamera um eine gleich große Person handelt. Darüber hinaus kann in dem Blickfeld der anfänglichen Kamera eine Trajektorie bestimmt werden, so dass beispielsweise unter der Annahme einer konstanten Gehgeschwindigkeit, die Person wieder identifiziert werden kann. Auf dieser Weise können auch die Kameras automatisch gesteuert werden, um eine Übergabe von einer Kamera zu einer anderen Kamera automatisch zu veranlassen, wenn sich eine verdächtige Person aus dem Blickfeld einer Kamera begibt.
  • Beispielsweise kann, wie in 5 gezeigt ist, etwa neben dem realen Videobild einer Überwachungskamera (rechter Teil der 5) auf einem Bildschirm das dreidimensionale Computermodell der Realität (linker Teil der 5) angezeigt werden, welches nach Belieben in seiner Ansicht verändert werden kann. In dem rechten Teil der 5 ist ein Objekt, im Ausführungsbeispiel ein Auto, durch ein Rechteck markiert. In dem dreidimensionalen Computermodell kann dann die Trajektorie des Objekts visualisiert werden, was die Praxis einer Überwachung extrem komfortabel macht. In der linken Hälfte der 5 ist das Objekt schematisch durch ein Verkehrshütchen angezeigt. In dem dreidimensionalen Computermodell sind auch die Kameras mit ihren aktuellen Kameraparametern, wie z. B. Blickrichtung etc. dargestellt, so dass man auch sehr einfach die Übergabe der Überwachung von einer Kamera auf die anderen planen kann.
  • In 6 ist eine weitere Variante hierzu gezeigt, bei welcher in dem dreidimensionalen Computermodell virtuelle Leinwände aufgestellt sind, auf denen das reale Videobild angezeigt wird. Auf dieser Weise wird eine sehr komfortable, übersichtliche und effiziente Überwachung ermöglicht.
  • Die 7 zeigt eine weitere Einsatzmöglichkeit der vorliegenden Erfindung. In der Figur sieht man eine Nachtaufnahme, die mit Infrarotkameras aufgenommen wurde, von zwei Personen, die sich an einem Hauseingang treffen. Der Teil des Bildes um die Nachtaufnahme herum, ist jedoch ein bei Tag aufgenommen Bild der gleichen Szene, so dass der Informationsgehalt des Bildes wesentlich größer ist, da alle umgebenden Objekte sichtbar sind. Die Überlagerung des Infrarotbilds über das Tagesbild wird durch die Erfindung möglich, da die Koordinaten der Pixel bekannt sind, und somit die Überlagerung oder Einbettung präzise erfolgen kann. Durch die vorliegende Erfindung wird also nicht nur der Informationsgehalt der Überwachung verbessert, sondern auch die Überwachung wesentlich komfortabler und übersichtlicher realisiert. Anstelle einer Nachtaufnahme können selbstverständlich auch andere Arten von Aufnahmen, wie z. B. eine Aufnahme mit einer Wärmebildkamera, verwendet werden.
  • Ein Beispiel einer weiteren Anwendung der vorliegenden Erfindung ist schematisch in 8 gezeigt. Die 8 zeigt eine 360°-Ansicht für eine Schwenkneigekopfkamera, d. h. in einer einzigen Darstellung die Ansicht der Umgebung, wie sie sich durch vollständige Ausnutzung aller Bewegungsmöglichkeiten der Kamera ergibt. In dieser Darstellung ist nun schematisch als Rechteck das aktuelle Kamerablickfeld mit entsprechendem Zoom angezeigt, so dass der Anwender einen sehr guten Überblick darüber hat, welchen Ausschnitt aus dem Überwachungsspektrum ihn gerade zur Verfügung steht. Durch einfachen Mausklick kann auf eine sehr übersichtliche Weise dann die Schwenkneigekopfkamera gesteuert werden, indem beispielsweise die Blickrichtung verändert wird oder ein Zoomen veranlasst wird. Die wird dann in der Darstellung der 8 durch eine geänderte Position und Größe des Rechtecks sehr übersichtlich veranschaulicht.
  • In 9 ist ein digitales Geländemodell dargestellt, wobei sich in dem Gelände verschiedene Patrolien befinden, die jeweils mit einer Überwachungskamera ausgerüstet sind. Die Videobilder dieser Kameras werden nun mittels der vorliegenden Erfindung georeferenziert, so dass es wie in 9 gezeigt, möglich ist, in dem Gelände die überwachten Bereiche sowie die toten Bereiche, d. h. die Bereiche, in denen keine Überwachung stattfindet, anzuzeigen. Dieser Anwendungsfall ist besonders bei mobilen und mehreren Überwachungskameras vorteilhaft, da beispielsweise die Suche nach einer verdächtigten Person wesentlich erleichtert.
  • In 10 ist schematisch eine Anzeige nach Art eines Radars dargestellt, wie sie beispielsweise in einem mobilen Einsatzwagen verwendet wird. Die Anzeige besitzt eine Windrose die sich bei einer Richtungsänderung des Einsatzwagens derart dreht, dass oben immer Norden angezeigt wird. Ferner sind in der Anzeige die von den Überwachungskameras aufgenommen Videobilder angezeigt, wobei die Position der Videobilder je näher ins Zentrum rückt, je näher sich der Einsatzwagen dieser Kameraposition nähert. Die Richtung, in welcher sich die Kamera zu dem Einsatzwagen befindet, wird durch die Winkelposition des Videobilds veranschaulicht. Die Blickrichtung der Kamera ist ebenfalls durch einen Pfeil am Rand des Videobilds eingetragen. Beispielsweise bei einer Verfolgungsfahrt erkennt man sofort, ob sich in der Nähe Überwachungskameras befinden, bekommt deren Bilder angezeigt, und dies kann daher die mobile Einsatzeinheit beispielsweise bei der Verfolgung eines Autos sehr unterstützen.
  • Die Erfindung wurde vorstehend anhand von bevorzugten Ausführungsformen derselben näher erläutert. Für einen Fachmann ist es jedoch offensichtlich, dass unterschiedliche Abwandlungen und Modifikationen gemacht werden können, ohne von dem der Erfindung zugrundeliegenden Gedanken abzuweichen.

Claims (38)

  1. Verfahren zum Zuordnen eines Videobilds der realen Welt zu einem dreidimensionalen Computermodell der realen Welt, wobei das Videobild eine Vielzahl von Pixeln aufweist, und wobei das Videobild mittels einer Kamera aufgenommen ist, gekennzeichnet durch folgende Schritte: (a) Erfassen einer Zuordnung von wenigstens einem Pixel des Videobilds zu einem Koordinatenpunkt in dem dreidimensionalen Computermodell, um wenigstens ein Pixel-Koordinatenpunkt-Paar zu erhalten; und (b1) Berechnen aus dem wenigstens einen Pixel-Koordinatenpunkt-Paar einer Zuordnung von wenigstens einem weiteren Pixel des Videobilds zu einem Koordinatenpunkt in dem dreidimensionalen Computermodell, wobei das wenigstens eine weitere Pixel nicht das wenigstens eine Pixel ist; und/oder (b2) Berechnen aus dem wenigstens einen Pixel-Koordinatenpunkt-Paar von Parametern der Kamera.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass im Schritt (a) für eine manuelle Auswahl des wenigstens einen Pixels durch einen Anwender eine Anzeige des Videobilds vorgesehen wird, wobei für die manuelle Auswahl des dem wenigstens einen Pixel zugeordneten Koordinatenpunkts eine weitere Anzeige wenigstens einer Ansicht des dreidimensionalen Computermodells vorgesehen wird, wobei das ausgewählte wenigstens eine Pixel-Koordinatenpunkt-Paar erfasst und gespeichert wird.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass im Schritt (a) die Zuordnung durch Überlagerung von Information aus dem dreidimensionalen Computermodell über das Videobild erfolgt.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Überlagerung von Information eine Überlagerung einer zweidimensionalen Ansicht aus dem Computermodell von Details der realen Welt über das Videobild ist, wobei die Überlagerung derart ist, dass die Details der zweidimensionalen Ansicht aus dem Computermodell zu entsprechenden Details des Videobilds im Wesentlichen kongruent sind, und wobei wenigstens ein Koordinatenpunkt der zweidimensionalen Ansicht aus dem Computermodell einem überlagerten Pixel zugeordnet wird, um das wenigstens ein Pixel-Koordinatenpunkt-Paar zu erhalten.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Details der zweidimensionalen Ansicht aus dem Computermodell Umrisse, insbesondere Umrisse von Gebäuden, sind.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass bei der Aufnahme des Videobilds in der realen Welt in dem Blickfeld der Kamera wenigstens eine Zuordnungshilfseinrichtung mit einer sichtbaren Markierung aufgestellt ist, wobei Koordinaten der Markierung in der realen Welt an das dreidimensionale Computermodell übertragen werden, wobei das wenigstens eine Pixel die Markierung oder einen Teil davon darstellt, und wobei im Schritt (a) dem wenigstens einen Pixel die Koordinaten der Markierung in dem dreidimensionalen Computermodell zugeordnet werden.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass im Schritt (a) wenigstens drei Pixel-Koordinatenpunkt-Paare erhalten werden.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass im Schritt (a) wenigstens vier Pixel-Koordinatenpunkt-Paare erhalten werden, wobei die vier Pixel jeweils aus unterschiedlichen Quadranten des Videobilds stammen.
  9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die Kameraparameter Linsenfehler, Neigungswinkel, Brennweite und Blickrichtung der Kamera sind.
  10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass die Schritte (a) und (b2) für wenigstens zwei Videobilder, die von der Kamera mit verschiedenen Kameraparametern aufgenommen werden, und jeweils für wenigstens drei Pixel durchgeführt wird, wobei ferner die Kamera die Änderungen ihrer Kameraparameter an das dreidimensionale Computermodell überträgt, und wobei im dreidimensionalen Computermodell ausgehend von den wenigstens zwei im Schritt (b2) erhaltenen den wenigstens zwei Videobildern zugeordneten Kameraparametern sowie den aktuellen Kameraparametern eine Zuordnung wenigstens eines Pixels des aktuellen Videobilds zu einem Koordinatenpunkt in dem dreidimensionalen Computermodell berechnet wird.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die Kamera die Änderungen ihrer Kameraparameter laufend oder ansprechend auf eine Anfrage an das dreidimensionale Computermodell überträgt.
  12. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass die Berechnung in den Schritten (b1) und (b2) durch nichtlineare Optimierung erfolgt.
  13. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass das wenigstens eine Pixel ein Pixel in der Mitte des Videobilds ist.
  14. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass das wenigstens eine Pixel zwei Pixel sind, wobei die Mitte des Videobilds einem Koordinatenpunkt in dem dreidimensionalen Computermodell zugeordnet wird, wobei der der Mitte des Videobildes zugeordnete Koordinatenpunkt aus den beiden den zwei Pixeln zugeordneten Koordinatenpunkten berechnet wird.
  15. Verfahren nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass bei der Aufnahme des Videobilds in der realen Welt wenigstens eine Kompensationseinrichtung mit einer sichtbaren Markierung im Blickfeld des Videobilds aufgestellt ist, wobei bei unveränderten Kameraparametern Bewegungen der wenigstens einen Kompensationseinrichtung erfasst und das Videobild rechnerisch entsprechend kompensiert wird.
  16. Verfahren nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, dass das dreidimensionale Computermodell ein DTM (Digital Terrain Model)-Modell oder ein DSM (Digital Surface Model)-Modell der realen Welt ist.
  17. Verfahren nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, dass das Videobild ein Einzelbild eines Live-Videofilms oder eines aufgezeichneten Videofilms ist.
  18. Verfahren zum Überwachen einer Umgebung mittels eines durch eine Kamera aufgenommenen Videobilds der realen Welt, dadurch gekennzeichnet, dass das Videobild einem dreidimensionalen Computermodell der realen Welt derart zugeordnet ist, dass zu jedem Pixel der Videoaufnahme ein Koordinatenpunkt in dem dreidimensionalen Computermodell und umgekehrt berechenbar ist.
  19. Verfahren nach Anspruch 18, dadurch gekennzeichnet, dass die Zuordnung des Videobilds zu dem dreidimensionalen Computermodell der realen Welt gemäß einem der Ansprüche 1 bis 17 erfolgt.
  20. Verfahren nach Anspruch 18 oder 19, dadurch gekennzeichnet, dass in dem dreidimensionalen Computermodell Dimensionen, Geschwindigkeiten, Beschleunigungen und dergleichen von Objekten und Teilen davon, welche in dem Videobild sichtbar sind, berechnet werden.
  21. Verfahren nach Anspruch 20, dadurch gekennzeichnet, dass die in dem dreidimensionalen Computermodell berechneten Dimensionen, Geschwindigkeiten, Beschleunigungen und dergleichen von Objekten und Teilen davon in das Videobild oder in das dreidimensionale Computermodell eingeblendet werden.
  22. Verfahren nach einem der Ansprüche 18 bis 21, dadurch gekennzeichnet, dass in dem dreidimensionalen Computermodell eine virtuelle Kamera mit denselben Parametern wie die der Kamera eingerichtet wird.
  23. Verfahren nach Anspruch 22, dadurch gekennzeichnet, dass durch Ansteuern der virtuellen Kamera die Kamera angesteuert wird und umgekehrt.
  24. Verfahren nach Anspruch 23, dadurch gekennzeichnet, dass das Ansteuern der virtuellen Kamera oder der Kamera eine Änderung der Kameraparameter aufweist.
  25. Verfahren nach einem der Ansprüche 18 bis 24, dadurch gekennzeichnet, dass in dem Videobild oder Teilen davon virtuelle oder reale Videobilder eingeblendet werden, wobei die den Pixeln der eingeblendeten Videobilder zugeordneten Koordinatenpunkte den Koordinatenpunkten der überblendeten Pixel entsprechen.
  26. Verfahren nach einem der Ansprüche 18 bis 25, dadurch gekennzeichnet, dass in dem dreidimensionalen Computermodell das Blickfeld wenigstens einer Kamera berechnet und in dem dreidimensionalen Computermodell angezeigt wird.
  27. Verfahren nach einem der Ansprüche 18 bis 26, dadurch gekennzeichnet, dass in dem dreidimensionalen Computermodell das Blickfeld wenigstens einer Kamera berechnet und in dem dreidimensionalen Computermodell der Bereich angezeigt wird, welcher nicht im Blickfeld der wenigstens einen Kamera liegt.
  28. Verfahren nach Anspruch 27, dadurch gekennzeichnet, dass der Bereich, welcher nicht im Blickfeld der wenigstens einen Kamera liegt, an den Ort der wenigstens einen Kamera übertragen und dort angezeigt wird.
  29. Verfahren nach einem der Ansprüche 18 bis 28, dadurch gekennzeichnet, dass in dem dreidimensionalen Computermodell eine virtuelle Leinwand eingestellt wird, auf welcher das Videobild dargestellt ist.
  30. Verfahren nach Anspruch 29, dadurch gekennzeichnet, dass die Größe und Orientierung der virtuellen Leinwand in dem dreidimensionalen Computermodell den Parametern der Kamera des Videobilds angepasst ist.
  31. Verfahren nach einem der Ansprüche 18 bis 30, dadurch gekennzeichnet, dass eine Trajektorie eines in dem Videobild sichtbaren Objekts in dem dreidimensionalen Modell angezeigt wird.
  32. Verfahren nach Anspruch 30, dadurch gekennzeichnet, dass das Objekt in dem Videobild markierbar ist.
  33. Verfahren nach Anspruch 31 oder 32, dadurch gekennzeichnet, dass bei einem Verlassen des Objekts aus dem Blickfeld der Kamera durch Erfassen der Trajektorie des Objekts dieses in dem Blickfeld einer weiteren Kamera erfasst wird und/oder eine weitere Kamera bestimmt wird, in deren Blickfeld das Objekt fallen wird.
  34. Verfahren nach einem der Ansprüche 31 bis 33, dadurch gekennzeichnet, dass durch Erfassen der Trajektorie des Objekts eine weitere Sensoreinrichtung bestimmt wird, in deren Wahrnehmungsfeld das Objekt fallen wird.
  35. Verfahren nach Anspruch 34, dadurch gekennzeichnet, dass die Sensoreinrichtung ein Radarscanner, ein Infrarotsensor, ein Signalzaun und dergleichen ist.
  36. Verfahren nach einem der Ansprüche 18 bis 35, dadurch gekennzeichnet, dass ein Objekt in dem Videobild markierbar ist und die Kameraparameter der Kamera derart angesteuert werden, dass das Objekt durch die Kamera verfolgt wird.
  37. Verfahren nach einem der Ansprüche 18 bis 36, dadurch gekennzeichnet, dass bei einer Fahrt durch die reale oder die virtuelle Welt zur Anzeige des Videobilds auf einer Anzeigeeinrichtung umfangsmäßig an der Anzeigeeinrichtung die Richtung der Fahrt durch eine drehbare Winkelanzeige dargestellt wird, wobei der der Fahrtrichtung entsprechende Winkel an einem vorgegebenen Punkt der Anzeigeeinrichtung angezeigt wird, wobei der Abstand der Kamera zu der aktuellen Fahrtposition durch den Abstand des Videobilds von der Mitte der Anzeigeeinrichtung dargestellt ist, und wobei die Richtung der Position der Kamera zu der aktuellen Fahrtposition durch die Winkelposition des Videobildes auf der Anzeigeeinrichtung angezeigt wird.
  38. Verfahren nach Anspruch 37, dadurch gekennzeichnet, dass in der Anzeigeeinrichtung, vorzugsweise neben dem Videobild, die Richtung des Blickfelds der Kamera, welche das Videobild aufnimmt, angezeigt wird.
DE201010024054 2010-06-16 2010-06-16 Verfahren zum Zuordnen eines Videobilds der realen Welt zu einem dreidimensionalen Computermodell der realen Welt Withdrawn DE102010024054A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201010024054 DE102010024054A1 (de) 2010-06-16 2010-06-16 Verfahren zum Zuordnen eines Videobilds der realen Welt zu einem dreidimensionalen Computermodell der realen Welt

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201010024054 DE102010024054A1 (de) 2010-06-16 2010-06-16 Verfahren zum Zuordnen eines Videobilds der realen Welt zu einem dreidimensionalen Computermodell der realen Welt

Publications (1)

Publication Number Publication Date
DE102010024054A1 true DE102010024054A1 (de) 2012-05-10

Family

ID=45970856

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201010024054 Withdrawn DE102010024054A1 (de) 2010-06-16 2010-06-16 Verfahren zum Zuordnen eines Videobilds der realen Welt zu einem dreidimensionalen Computermodell der realen Welt

Country Status (1)

Country Link
DE (1) DE102010024054A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112866627A (zh) * 2019-11-28 2021-05-28 上海华为技术有限公司 一种三维视频监控方法及相关设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006074161A2 (en) * 2005-01-03 2006-07-13 Vumii, Inc. Systems and methods for night time surveillance
EP1986154A1 (de) * 2007-04-26 2008-10-29 Canon Kabushiki Kaisha Modellbasierte Schätzung der Kamerapose
US20080291279A1 (en) * 2004-06-01 2008-11-27 L-3 Communications Corporation Method and System for Performing Video Flashlight
EP2093999A1 (de) * 2008-02-22 2009-08-26 Christopher Neil John Crockford Integrierung von Videoinformationen

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080291279A1 (en) * 2004-06-01 2008-11-27 L-3 Communications Corporation Method and System for Performing Video Flashlight
WO2006074161A2 (en) * 2005-01-03 2006-07-13 Vumii, Inc. Systems and methods for night time surveillance
EP1986154A1 (de) * 2007-04-26 2008-10-29 Canon Kabushiki Kaisha Modellbasierte Schätzung der Kamerapose
EP2093999A1 (de) * 2008-02-22 2009-08-26 Christopher Neil John Crockford Integrierung von Videoinformationen

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
EVEN, P.: A Generic Procedure for Interactive 3D Model Registration on Images. In: International Archives of Photogrammetry and Remote Sensing, Vol.XXXV, part B5, S.204-209, 2004. *
GEORGEL, P. et al: An Industrial Augmented Reality Solution for Discrepancy Check. In: IEEE and ACM Symposium on Mixed and Augmented Reality 2007, ISMAR 2007, S.111-115, 2007. *
HEIPKE, C.: Automation of interior, relative, and absolute orientation. In: ISPRS Journal of Photogrammetry & Remote Sensing, 52, S. 1-19, 1997 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112866627A (zh) * 2019-11-28 2021-05-28 上海华为技术有限公司 一种三维视频监控方法及相关设备
CN112866627B (zh) * 2019-11-28 2024-03-05 上海华为技术有限公司 一种三维视频监控方法及相关设备

Similar Documents

Publication Publication Date Title
EP2464098B1 (de) Umfeld-Darstellungsvorrichtung sowie ein Fahrzeug mit einer derartigen Umfeld-Darstellungsvorrichtung und Verfahren zur Darstellung eines Panoramabildes
EP2880853B1 (de) Vorrichtung und verfahren zur bestimmung der eigenlage einer bildaufnehmenden kamera
DE60213526T2 (de) Verfahren und System zur Verbesserung des Situationsbewusstseins von Kommando-Kontrolleinheiten
DE202015009198U1 (de) Auswahl der zeitlich verteilten Panoramabilder für die Anzeige
DE102011084993A1 (de) Übernahme von Daten aus bilddatenbasierenden Kartendiensten in ein Assistenzsystem
DE112014007227T5 (de) Verwendung von zweidimensionalen Kamerabildern zur Beschleunigung der Registrierung von Dreidimensionalen Scans
EP2126840A1 (de) Verfahren, vorrichtung und computerprogramm zur selbstkalibrierung einer überwachungskamera
DE102018108751B4 (de) Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten
DE60019464T2 (de) Verspätete videospurverfolgung
WO2015028294A1 (de) Überwachungsanlage sowie verfahren zur darstellung eines überwachungsbereichs
EP2350977B1 (de) Verfahren zur bildfusion von zumindest zwei bildern zu einem panoramabild
DE102013100569A1 (de) Verfahren und Vorrichtung zur Anzeige einer Fahrzeugumgebung
DE102006042318B4 (de) Verfahren zum Betreiben mindestens einer Kamera
EP2831839B1 (de) Verfahren zum automatischen betreiben einer überwachungsanlage
EP3584536A1 (de) Terrestrisches beobachtungsgerät mit lagebestimmungsfunktionalität
DE102017220005A1 (de) Verfahren und Anzeigegerät zum Führen einer Arbeitsmaschine
WO2017182119A1 (de) Vorrichtung, system und verfahren zur markierungsfreien hangüberwachung und/oder bauüberwachung
DE102011084596A1 (de) Verfahren zum Assistieren eines Fahrers in einer fremden Umgebung
DE102010024054A1 (de) Verfahren zum Zuordnen eines Videobilds der realen Welt zu einem dreidimensionalen Computermodell der realen Welt
DE102011009952A1 (de) Verfahren zum Bestimmen der Position und Lage eines Astronauten
DE112016001238B4 (de) Fahrzeugumgebungsbildanzeigesteuerungsvorrichtung und fahrzeugumgebungsbildanzeigesteuerungsprogramm
WO2020043461A1 (de) Verfahren und anordnung zum erzeugen einer umgebungsrepräsentation eines fahrzeugs und fahrzeug mit einer solchen anordnung
EP1434184B1 (de) Steuerung eines Multikamera-Systems
DE102013223995A1 (de) Verfahren zur Erstellung einer Tiefenkarte für eine Kamera
LU102252B1 (de) Computerimplementiertes Verfahren beim Bestimmen eines Beschattungszustands eines Objekts

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee