DE112010002843T5 - Oberflächenverfolgung auf Bildbasis - Google Patents

Oberflächenverfolgung auf Bildbasis Download PDF

Info

Publication number
DE112010002843T5
DE112010002843T5 DE112010002843T DE112010002843T DE112010002843T5 DE 112010002843 T5 DE112010002843 T5 DE 112010002843T5 DE 112010002843 T DE112010002843 T DE 112010002843T DE 112010002843 T DE112010002843 T DE 112010002843T DE 112010002843 T5 DE112010002843 T5 DE 112010002843T5
Authority
DE
Germany
Prior art keywords
image
pickup device
image pickup
scene
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112010002843T
Other languages
English (en)
Inventor
Hongbo Teng
Gregory C. Best
Sy Bor Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Trimble Inc
Original Assignee
Trimble Navigation Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Trimble Navigation Ltd filed Critical Trimble Navigation Ltd
Publication of DE112010002843T5 publication Critical patent/DE112010002843T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Navigation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

Ein Verfahren zur Bildverfolgung unter Verwendung einer Bildaufnahmevorrichtung (12). Das Verfahren umfasst: Durchführen einer Bildaufnahme einer Szene (54) unter Verwendung einer Bildaufnahmevorrichtung; und Verfolgen der Bewegung (62) der Bildaufnahmevorrichtung (12) durch Analysieren eines Satzes von Bildern unter Verwendung eines Bildverarbeitungsalgorithmus (64).

Description

  • TECHNISCHES GEBIET
  • Die Technologie bezieht sich auf das Gebiet der Navigation auf Bildbasis.
  • HINTERGRUND
  • In Gebieten ohne klare Sicht des Himmels, z. B. in Tunnels oder Wäldern, stehen GPS-Vorrichtungen aufgrund des fehlenden Empfangs von den GPS-Satelliten der anspruchsvollen Aufgabe gegenüber, eine genaue Lokalisierung aufrechtzuerhalten. Wir stellen eine Anwendung vor, die wir ”Bodenverfolgung” nennen und die den 3D-Ort einer Bildaufnahmevorrichtung wiedergewinnen kann. Diese Bildaufnahmevorrichtung, die in einer beliebigen Orientierung liegen kann, nimmt Bilder auf und verwendet eine Kombination von Statistik und Bildverarbeitungsalgorithmen, um ihre 3D-Bahn abzuschätzen.
  • ZUSAMMENFASSUNG
  • Diese Zusammenfassung wird bereitgestellt, um eine Auswahl von Konzepten einzuführen, die nachstehend in der ausführlichen Beschreibung weiter beschrieben werden. Diese Zusammenfassung soll keine Schlüssel- oder wesentlichen Merkmale des beanspruchten Gegenstandes identifizieren und soll auch nicht als Hilfe beim Bestimmen des Schutzbereichs des beanspruchten Gegenstandes verwendet werden.
  • Ein Verfahren zur Bildverfolgung wird bereitgestellt. Das Verfahren umfasst: (A) Durchführen einer Bildaufnahme einer Szene unter Verwendung einer Bildaufnahmevorrichtung; und (B) Verfolgen der Bewegung der Bildaufnahmevorrichtung durch Analysieren eines Satzes von Bildern.
  • BESCHREIBUNG DER ZEICHNUNGEN
  • Die zugehörigen Zeichnungen, die in diese Patentbeschreibung integriert sind und einen Teil von dieser bilden, veranschaulichen Ausführungsbeispiele der Technologie und dienen zusammen mit der Beschreibung zum Erläutern der nachstehenden Prinzipien:
  • 1 stellt eine Vorrichtung zur Bildverfolgung gemäß einem Ausführungsbeispiel der vorliegenden Technologie dar.
  • 2 ist ein Ablaufplan eines Verfahrens zur Bildverfolgung gemäß einem Ausführungsbeispiel der vorliegenden Technologie, wobei die Tiefendaten der Szene durch Vorvermessen der Szene erhalten werden.
  • 3 stellt einen Ablaufplan eines Verfahrens zur Bildverfolgung gemäß einem Ausführungsbeispiel der vorliegenden Technologie dar, wobei die Tiefendaten der Szene unter Verwendung einer Entfernungsmessvorrichtung erhalten werden.
  • 4 ist ein Diagramm, das die Aufnahme eines Bildes einer Szene durch die Bildaufnahmevorrichtung darstellt.
  • 5 stellt ein Diagramm dar, das die 2D-Bewegung der Bildaufnahmevorrichtung darstellt, die unter Verwendung des Bildverarbeitungsalgorithmus gemäß einem Ausführungsbeispiel der vorliegenden Technologie berechnet wird.
  • 6 ist ein Diagramm, das die Bildaufnahmevorrichtungs-Höhenbewegung darstellt, die unter Verwendung des Bildverarbeitungsalgorithmus gemäß einem Ausführungsbeispiel der vorliegenden Technologie berechnet wird.
  • 7 stellt ein Diagramm dar, das die Bildaufnahmevorrichtungs-Gesamtdrehwinkel (Gieren, Nicken und Rollen) darstellt, die unter Verwendung des Bildverarbeitungsalgorithmus gemäß einem Ausführungsbeispiel der vorliegenden Technologie berechnet werden.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Nun wird im Einzelnen auf die Ausführungsbeispiele der Technologie Bezug genommen, von der Beispiele in den zugehörigen Zeichnungen dargestellt sind. Obwohl die vorliegende Technologie in Verbindung mit den verschiedenen Ausführungsbeispielen beschrieben wird, sollen sie selbstverständlich die vorliegende Technologie nicht auf diese Ausführungsbeispiele begrenzen. Im Gegenteil soll die vorliegende Technologie Alternativen, Modifikationen und Äquivalente abdecken, die innerhalb des Gedankens und Schutzbereichs der verschiedenen Ausführungsbeispiele enthalten sein können, wie durch die beigefügten Ansprüche definiert.
  • Ferner werden in der folgenden ausführlichen Beschreibung zahlreiche spezifische Details dargelegt, um für ein gründliches Verständnis der vorliegenden Ausführungsbeispiele zu sorgen. Für einen Fachmann auf dem Gebiet ist es jedoch offensichtlich, dass die dargestellten Ausführungsbeispiele ohne diese spezifischen Details ausgeführt werden können. In anderen Fällen wurden gut bekannte Verfahren, Prozeduren, Komponenten und Schaltungen nicht im Einzelnen beschrieben, um die Aspekte der dargestellten Ausführungsbeispiele nicht unnötig unklar zu machen.
  • 1 ist ein Blockdiagramm 10, das eine Vorrichtung zur Bildverfolgung 22 gemäß einem Ausführungsbeispiel der vorliegenden Technologie darstellt.
  • In einem Ausführungsbeispiel der vorliegenden Technologie umfasst die Bildverfolgungsvorrichtung 22 ferner: eine Bildaufnahmevorrichtung 12, die dazu konfiguriert ist, eine Bildaufnahme einer Szene 20 in einem Softwaremodus (SW) durchzuführen, die ferner einen Speicher 24, in den ein Bildverarbeitungsalgorithmus 25 geladen ist, und einen Universalprozessor (oder einen Digitalsignalprozessor oder eine Graphikverarbeitungseinheit usw.) 26, der dazu konfiguriert ist, den Satz von Bildern zu analysieren, indem der Bildverarbeitungsalgorithmus 25 aktiviert wird, umfasst.
  • In einem Ausführungsbeispiel der vorliegenden Technologie umfasst die Bildverfolgungsvorrichtung 22 ferner: eine Bildaufnahmevorrichtung 12, die dazu konfiguriert ist, eine Bildaufnahme einer Szene 20 in einem Hardwaremodus (HW) durchzuführen, die ferner einen ASIC-Chip (oder FPGA-Chip) 27 (in analogen oder digitalen Modi) umfasst, der dazu konfiguriert ist, den Satz von Bildern durch Implementieren des Bildverarbeitungsalgorithmus 25 in der Hardware zu analysieren.
  • Die Bildaufnahmevorrichtung 12 ist aus der Gruppe ausgewählt, die aus Folgendem besteht: {einer Digitalkamera; einer digitalen Videokamera; einem digitalen Camcorder; einer Stereodigitalkamera; einer Stereovideokamera; einer Filmkamera; einer Fernsehkamera; und einer Tiefenkamera}.
  • In einem Ausführungsbeispiel der vorliegenden Technologie ist die Bildaufnahmevorrichtung 12 ein lichtdichter Kasten, in dem ein Bild einer Szene 20 durch eine Lochblende oder Linsen 16 auf einer Sensorplatte 32 erzeugt wird. Standbildvideo- und Digitalkameras speichern die Bilder in einem Halbleiterspeicher 28 oder auf magnetischen Medien oder optischen Platten 28.
  • Bewegtbild- oder Filmkameras zeichnen die Bewegung in regelmäßigen Intervallen in einer Reihe von Einzelbildern auf. Fernseh- und Videokameras zeichnen eine Bewegung elektronisch für die Sendung und Speicherung auf magnetischen Medien oder optischen Platten auf. Camcorder sind Videokameras, die sowohl den Bildsensor als auch Aufzeichnungsmedien in einer einzelnen Einheit enthalten.
  • Abgesehen von Lochkameras, die das Bild auf den Film durch ein winziges Loch fokussieren, verwenden alle anderen Kameras Linsen 16 für die Fokussierung. Die Brennweite von Linsen, d. h. der Abstand zwischen den Rückseiten der Linsen (wenn sie auf unendlich fokussiert sind) und der Abbildungsvorrichtung bestimmt den Blickwinkel oder das Sichtfeld (FOV) 18 und die Größe von Objekten, wie sie auf der Abbildungsoberflächensensorplatte 32 erscheinen. Das Bild wird durch Einstellen des Abstandes zwischen den Linsen und der Oberfläche auf diese Oberfläche fokussiert.
  • In einem Ausführungsbeispiel der vorliegenden Technologie umfasst die Linse 16 ferner eine reguläre geradlinige Linse. Eine geradlinige Linse ist eine Linse, in der gerade Linien im Wesentlichen nicht gekrümmt oder verzerrt werden.
  • In einem Ausführungsbeispiel der vorliegenden Technologie umfasst die Linse 16 ferner eine Fischaugenlinse. Eine Fischaugenlinse ist eine Weitwinkellinse, die ein äußerst breites, halbkugelförmiges Bild aufnimmt. Fischaugenlinsen werden häufig verwendet, um weite Landschaften aufzunehmen. Fischaugenlinsen erreichen äußerst weite Blickwinkel durch Verzichten auf ein geradliniges Bild, wobei sie sich stattdessen für eine spezielle Abbildung (beispielsweise: raumwinkelgleich) entscheiden, die den Bildern ein charakteristisches konvexes Aussehen verleiht.
  • In einem Ausführungsbeispiel der vorliegenden Technologie umfasst die Linse 16 ferner maßgefertigt kalibrierte Linsen.
  • In einem Ausführungsbeispiel der vorliegenden Technologie umfasst die Bildaufnahmevorrichtung 12 ferner eine Anzeige 34, die ferner eine optische Anzeige, eine Flüssigkristallanzeige (LCD) oder einen Bildschirm umfasst.
  • In einem Ausführungsbeispiel der vorliegenden Technologie umfasst die Bildaufnahmevorrichtung 12 ferner eine Stereodigitalkamera. Eine Stereokamera ist ein Typ von Kamera mit zwei oder mehr Linsen. Dies ermöglicht, dass die Kamera zweiäugiges Sehen simuliert, und verleiht ihr daher die Fähigkeit, dreidimensionale Bilder aufzunehmen, ein Prozess, der als Stereophotographie bekannt ist. Stereokameras können zur Herstellung von Stereoansichten und 3D-Bildern für Filme, oder für die Entfernungsabbildung verwendet werden. 3-D Images Ltd. mit Sitz in GB stellt eine 3-D-Digitalstereokamera – eine vollautomatische, zeitsynchronisierte, digitale Stereokamera her. Point Grey Research Inc. mit Sitz in Kanada stellt Doppelfernrohre oder Mehrfachmatrixkameras her, die Vollblickfeld-3D-Messungen in einer unstrukturierten Umgebung bereitstellen können.
  • Das Grundelement eines Bildes eines Objekts ist das Pixel, das einen einzelnen Punkt mit einer Farbe oder einer Graustufe beschreibt.
  • Jedes Pixel enthält eine Reihe von Zahlen, die seine Farbe oder Intensität beschreiben. Die Genauigkeit, mit der ein Pixel eine Farbe angeben kann, wird seine Bit- oder Farbtiefe genannt. Je mehr Pixel ein Bild enthält, desto mehr Detail kann es beschreiben.
  • Da ein Pixel nur eine logische Informationseinheit ist, ist es nutzlos zum Beschreiben von Abmessungen der realen Welt, wenn man nicht auch ihre Größe angibt. Der Begriff Pixel pro Inch (PPI) wurde eingeführt, um diese theoretische Pixeleinheit mit der visuellen Auflösung der realen Welt in Beziehung zu bringen.
  • ”Pixel pro Inch” (PPI) ist ein sehr einfacher Begriff. Er beschreibt nur: wie viele Pixel ein Bild pro Inch Abstand in der horizontalen und der vertikalen Richtung enthält.
  • Ein ”Megapixel” ist einfach eine Einheit einer Million Pixel. Eine Digitalkamera kann eine Sensormatrix von Megapixeln (Millionen von winzigen Pixeln) verwenden, um ein Bild zu erzeugen. Wenn die Blendentaste der Kamera gedrückt wird und die Belichtung beginnt, weist jedes dieser Pixel eine ”Photostelle” auf, die Photonen speichert. Sobald die Belichtung endet, versucht die Kamera abzuschätzen, wie viele Photonen in jede gefallen sind. Die relative Menge der Photonen in jedem Hohlraum wird dann in verschiedene Intensitätspegel sortiert, deren Genauigkeit durch die Bittiefe (0–255 für ein 8-Bit-Bild) bestimmt ist.
  • Jeder Hohlraum ist außerstande zu unterscheiden, wie viel jeder Farbe in diesen gefallen ist, so dass die obige Beschreibung nur Graustufenbilder erzeugen könnte. Ein Verfahren, das verwendet wird, um digitale Sensoren auf die Erfassung von Farbinformationen zu erweitern, besteht darin, Licht, das in jeden Hohlraum eintritt, zu filtern, was ermöglicht, dass der Sensor zwischen rotem (R), grünem (G) und blauem (B) Licht unterscheidet.
  • In einem Ausführungsbeispiel der vorliegenden Technologie wird der Abstand von einem Objektpunkt 30 in der Tiefe der Szene 20 zur Verfolgungsvorrichtung 22 auf Bildbasis unter Verwendung einer Entfernungsmessvorrichtung 14 bestimmt, die aus der Gruppe ausgewählt ist, die aus Folgendem besteht: {einem Punktlaserstrahl; einem Sonar; einem Radar; einem Laserabtaster; und einer Tiefenkamera}.
  • Eine Punktlaserstrahl-Entfernungsmessvorrichtung 14 kann unter Verwendung von blauen Festkörperlasern, roten Diodenlasern, IR-Lasern, die kontinuierlich beleuchtete Laser sein können, oder gepulsten Lasern oder sequenzierten Lasern implementiert werden.
  • Eine Laserabtaster-Entfernungsmessvorrichtung 14 kann unter Verwendung von Positionsbestimmungssensoren implementiert werden, die von der Sensor Intelligence Website www.sick.com angeboten werden. Der Laserabtaster Modellname S10B-9011DA mit einem kompakten Gehäuse und einer robusten IP 65 Konstruktion kann beispielsweise verwendet werden. Dieser Laserabtaster hat das folgende Datenblatt:
    Abmessungen: (B × H × T) = 102 × 152 × 105 mm, Abtastwinkel von 270° und Schaltfeldbereich von 10 Metern. Er weist die folgende Funktionalität auf: einen Bereitschaftsmodus, eine 7-Segment-Eingangsanzeige, einen integrierten Parameterspeicher im System, eine CANopen-Steckerschnittstelle und einen niedrigen Energieverbrauch.
  • Eine Sonar-Entfernungsmessvorrichtung 14 kann unter Verwendung eines aktiven Sonars mit einem Schallsender- und -empfänger implementiert werden.
  • Aktives Sonar erzeugt einen Schallimpuls, der häufig ”Ping” genannt wird, und horcht dann auf Reflexionen (Echo) des Impulses. Dieser Schallimpuls wird im Allgemeinen elektronisch unter Verwendung eines Sonarprojektors erzeugt, der aus einem Signalgenerator, einem Leistungsverstärker und einem elektroakustischen Wandler/einer elektroakustischen Matrix möglicherweise mit einem Strahlformer besteht. Um den Abstand zur Szene 20 zu messen, wird die Zeit von der Sendung eines Impulses bis zum Empfang gemessen und durch die bekannte Schallgeschwindigkeit in eine Entfernung umgewandelt. Der Impuls kann auf konstanter Frequenz liegen oder ein Chirp mit sich ändernder Frequenz (um eine Impulskompression beim Empfang zu ermöglichen) sein. Die Impulskompression kann unter Verwendung von digitalen Korrelationsverfahren erreicht werden.
  • Eine Radar-Entfernungsmessvorrichtung 14 kann unter Verwendung eines Senders, der entweder Mikrowellen oder Funkwellen emittiert, die durch die Szene 20 reflektiert werden und durch einen Empfänger, typischerweise am gleichen Ort wie der Sender, detektiert werden, implementiert werden.
  • In einem Ausführungsbeispiel der vorliegenden Technologie umfasst die Bildaufnahmevorrichtung 12 ferner eine Tiefenkamera, die die Aufnahme von Bildern eines Objekts mit der Messung eines Abstandes zum Objekt kombiniert.
  • Eine Tiefenkamera kann unter Verwendung einer ZCam-Videokamera implementiert werden, die Video mit Tiefeninformationen aufnehmen kann. Diese Kamera weist Sensoren auf, die die Tiefe für jedes der erfassten Pixel unter Verwendung eines Prinzips messen kann, das Laufzeit genannt wird. Sie erhält 3D-Informationen durch Emittieren von Impulsen von Infrarotlicht zu allen Objekten in der Szene und Abtasten des reflektierten Lichts von der Oberfläche jedes Objekts. Die Tiefe wird durch Berechnen der Laufzeit eines Lichtstrahls, wenn er die Quelle verlässt und durch die Objekte in der Szene 20 reflektiert wird, gemessen. Die Umlaufzeit wird unabhängig für jedes Pixel unter Verwendung eines CMOS-Zeit-Digital-Umsetzers in einen digitalen Code umgewandelt. Gemäß 3DV-Systemen des Herstellers ist die Tiefenauflösung ziemlich gut: sie kann eine 3D-Bewegung und ein Volumen bis zu 0,4 Inch erfassen, wobei gleichzeitig Vollfarbenvideo mit 1,3 Megapixel mit 60 Einzelbildern pro Sekunde aufgenommen wird.
  • In einem Ausführungsbeispiel der vorliegenden Technologie umfasst die Bildaufnahmevorrichtung 12 immer noch mit Bezug auf 1 ferner ein Vermessungsinstrument 36, das aus der Gruppe ausgewählt ist, die aus Folgendem besteht: {einem Vermessungssystem eines globalen Navigationssatellitensystems (GNSS); einem Laserebenensystem; und einem Theodoliten}. In diesem Ausführungsbeispiel wird die Szene 20 vorvermessen und die Szenenabstandsdaten werden von der Verfolgungsvorrichtung 22 auf Bildbasis in Kombination mit dem Satz von Bildern verwendet, um die Positionskoordinaten der Verfolgungsvorrichtung 22 auf Bildbasis zu bestimmen.
  • Ein Vermessungssystem 36 eines globalen Navigationssatellitensystems (GNSS) kann unter Verwendung eines TRIMBLE R8 GNSS-Systems implementiert werden, das alle GPS- und GLONASS L1/L2-Signale unterstützt, einschließlich der neuen L2C- und kommenden L5-Signale von GPS, und die Kapazität hat, bis zu 44 Satelliten zu verfolgen.
  • Ein Vermessungssystem 36 eines globalen Navigationssatellitensystems (GNSS) kann auch unter Verwendung des Trimble® R7 GNSS-Systems mit einem GPS-Empfänger mit hoher Genauigkeit und UHF-Funk, die in einer Einheit kombiniert sind, implementiert werden. Trimble R7 GNSS kann für RTK- oder statische Vermessung verwendet werden. Das modulare Trimble R7 GNSS-System verwendet eine separate Antenne: die Trimble ZephyrTM 2, wenn es als Rover verwendet wird, und die Zephyr GeodeticTM 2, wenn es als Basisstation verwendet wird. Die Trimble GeoExplorer-Software kann für verschiedene Führerszenarios verwendet werden. Der Trimble GeoExplorer hat das folgende Datenblatt: 1 bis 3 Meter GPS mit integriertem SBAS; eine VGA-Anzeige mit hoher Auflösung für klare und deutliche Kartenbetrachtung; Bluetooth- und drahtlose LAN-Konnektivitätsoptionen; einen Bordspeicher mit 1 GB plus SD-Schlitz für entnehmbare Karten. Er umfasst das Betriebssystem Windows Mobile Version 6. Er wird auch als robustes Handgerät mit ganztägiger Batterie implementiert.
  • Ein Laserebenen-Vermessungssystem 36 kann auch unter Verwendung eines Trimble-Produkts Spectra Precision Laser GL 412 und GL 422 implementiert werden. Die Spectra Precision® Laser GL 412 und GL 422 Neigungslaser sind kosteneffiziente, automatische selbstnivellierende Laser, die drei Aufgaben durchführen – Nivellierung, Neigung und vertikale Ausrichtung auf Lot. Beide Laser zeichnen sich durch eine 2-Weg-Fernbedienung mit voller Funktion aus, so dass man Neigungsänderungen von irgendwo am Einsatzort für eine verringerte Einrichtungszeit und einen schnelleren Betrieb durchführen kann. Der GL 412 (Einzelneigung) und GL 422 (Doppelneigung) Laser senden eine kontinuierliche, selbstnivellierte Laserreferenz mit 360 Grad über einen ganzen Arbeitsbereich und weisen einen weiten Neigungsbereich auf, so dass sie in einer Vielfalt von Neigungsanwendungen verwendet werden können.
  • Ein Laserebenen-Vermessungssystem 36 kann auch unter Verwendung des Apache Horizon Lasers implementiert werden, der einen kontinuierlichen selbstnivellierten Laserstrahl emittiert, der gedreht wird, um eine Laserlichtebene zu erzeugen. Diese Ebene erstreckt sich über einen Arbeitsbereich mit einem Durchmesser von bis zu 1600 Fuß (500 Meter). Die Referenzebene wird durch einen oder mehrere Laserdetektoren abgetastet, die die Richtung zu bodengleich angeben.
  • Ein Theodolit-Vermessungssystem 36 kann auch unter Verwendung einer Trimble® S6 DR (Direktreflexion) Total Station implementiert werden, die ein kabelfreies Robotertachymeter und ein Rover ist. Man kann aus aktiver oder passiver Verfolgung mit dem Trimble MultiTrack Target auswählen. Die aktive Verfolgung ermöglicht einem, das korrekte Ziel zu orten und auf dieses zu verriegeln.
  • In einem Ausführungsbeispiel der vorliegenden Technologie wird das Verfahren zur Bildverfolgung unter Verwendung der Verfolgungsvorrichtung 22 auf Bildbasis von 1 implementiert. Insbesondere wird der Schritt (A) unter Verwendung der Bildaufnahmevorrichtung 12 durchgeführt, um eine Bildaufnahme einer Szene 20 durchzuführen, wohingegen der Schritt (B) der Verfolgung der Bewegung der Bildaufnahmevorrichtung 12 durch Analysieren eines Satzes von Bildern unter Verwendung eines Bildverarbeitungsalgorithmus 25 durchgeführt wird.
  • In einem Ausführungsbeispiel der vorliegenden Technologie wird der Schritt (A) der Durchführung der Bildaufnahme der Szene 20 in Echtzeit unter Verwendung der Bildaufnahmevorrichtung 12 durchgeführt.
  • In einem anderen Ausführungsbeispiel der vorliegenden Technologie wird der Schritt (A) der Durchführung der Bildaufnahme der Szene 20 unter Verwendung der Bildaufnahmevorrichtung 12 voraufgezeichnet.
  • In einem Ausführungsbeispiel der vorliegenden Technologie umfasst der Schritt (A) der Durchführung der Bildaufnahme der Szene 20 ferner den Schritt (A3) zum Erhalten eines Satzes von Tiefendaten der Szene 20 durch Vorvermessung der Szene 20 unter Verwendung des Vermessungsinstruments 36, wie es vorstehend vollständig offenbart wurde.
  • In einem Ausführungsbeispiel der vorliegenden Technologie wird der Schritt (B) der Verfolgung der Bewegung der Bildaufnahmevorrichtung 12 unter Verwendung des Bildverarbeitungsalgorithmus 25 durchgeführt.
  • In einem Ausführungsbeispiel der vorliegenden Technologie ermöglicht der Bildverarbeitungsalgorithmus 25 die Implementierung der Videoverfolgung der Bildaufnahmevorrichtung 12 durch Analysieren des Satzes von Bildern, die sie aufnimmt.
  • In einem Ausführungsbeispiel der vorliegenden Technologie nimmt der Bildverarbeitungsalgorithmus 25 eine globale starre Bewegung an. Durch Parametrisierung des globalen optischen Ablaufs mit den sechs Freiheitsgraden der Bildaufnahmevorrichtung 12 kann eine optimale globale Transformation zwischen zwei aufeinander folgenden Einzelbildern durch Lösen eines nicht-linearen Problems kleinster Quadrate gefunden werden.
  • Um eine starre globale Transformation mit sechs Freiheitsgraden durchzuführen, muss man die Tiefe der Szene 20 kennen. Wie vorstehend vollständig offenbart wurde, wird entweder die Szene 20 vorvermessen oder die Tiefenmessungen werden in Echtzeit zusammen mit der Bildaufnahme von externen Vorrichtungen wie z. B. Punktlaserstrahlen, Tiefenbildaufnahmevorrichtungen, einer Stereokameraausrüstung usw. erhalten.
  • In einem Ausführungsbeispiel der vorliegenden Technologie vergleicht der Bildverarbeitungsalgorithmus 25 die optischen Eigenschaften der Pixel unter Verwendung einer Einzelbildfunktion.
  • In einem Ausführungsbeispiel der vorliegenden Technologie, in dem die Tiefeninformationen zur Verfügung stehen, vergleicht der Bildverarbeitungsalgorithmus 25 die Tiefe der zwei Einzelbilder (anstelle der optischen Eigenschaften der Pixel) durch Neudefinition der Einzelbildfunktion.
  • In einem Ausführungsbeispiel der vorliegenden Technologie kann der Bildverarbeitungsalgorithmus 25 durch Vergleichen einer Kombination von optischen Eigenschaften von Pixeln und Tiefeninformationen verbessert werden. Dies kann entweder unter Verwendung einer kombinierten Kostenfunktion oder Unterstützen eines Prozesses mit dem anderen durchgeführt werden, wie nachstehend vollständig offenbart.
  • In einem Ausführungsbeispiel der vorliegenden Technologie verwendet ein Bildverarbeitungsalgorithmus 25 mehrere Koordinatensysteme: ein stationäres Referenzsystem; ein Referenzsystem, das an die Bildaufnahmevorrichtung 12 gebunden ist; und ein 2D-Referenzsystem in der Sensorebene 32 der Bildaufnahmevorrichtung.
  • Im stationären Referenzsystem weist ein Punkt 30 in der Szene 20 die Koordinaten x = (x, y, z) auf, die Bildaufnahmevorrichtung 12 wird durch den 6-Vektor 38 mit den Positionskoordinaten xci = (xci, yci, zci) der Vorrichtung und den Orientierungskoordinaten (ψi, θi, φi) der Vorrichtung (Gieren, Nicken und Rollen) für jedes i-te Einzelbild beschrieben.
  • In dem an die Bildaufnahmevorrichtung 12 gebundenen Referenzsystem weist derselbe Punkt 30 in der Szene 20 die Koordinaten xi = (xi, yi, zi) in Bezug auf die Bildaufnahmevorrichtung 12 auf.
  • Im 2D-Referenzsystem, das an die Sensorebene 32 der Bildaufnahmevorrichtung gebunden ist, sind die 2D-Pixelkoordinaten eines Punkts im i-ten Einzelbild: ui = (ui, vi)
  • Die Beziehung zwischen dem stationären 3D-System und dem an die Bildaufnahmevorrichtung gebundenen 3D-System ist wie folgt: xi = (x – xci)Ri, (Gl.1) wobei
    Figure 00170001
    die Rotationsmatrix zwischen zwei Systemen ist.
  • Die Beziehung zwischen den an die Bildaufnahmevorrichtung gebundenen 3D-Koordinaten und den 2D-Pixelkoordinaten hängt von der Abbildungsfunktion m der Bildaufnahmevorrichtung 12 ab. Die Abbildungsfunktion nimmt 3D-Koordinaten xi in dem an die Bildaufnahmevorrichtung gebundenen System des i-ten Einzelbildes und bildet sie in 2D-Pixelkoordinaten im i-ten Einzelbild ab: ui = m(xi). (Gl.3)
  • Die Form der Abbildungsfunktion hängt vom Typ der Linsen ab. In einem Ausführungsbeispiel der vorliegenden Technologie, in dem die Linsen 16 reguläre geradlinige Linsen (in einem umgekehrten Lochblendenmodell) umfassen, kann die Abbildungsfunktion m von den folgenden Gleichungen abgeleitet werden:
    Figure 00180001
    wobei f die Brennweite der Bildaufnahmevorrichtung 12 ist, Su, Sv die Pixelbreite und -höhe sind, u0, v0 die Versätze zwischen dem optischen Zentrum und dem Sensorzentrum sind.
  • In einem weiteren Ausführungsbeispiel der vorliegenden Technologie, in dem die Linsen 16 orthographische Fischaugenlinsen umfassen, kann die Abbildungsfunktion m von den folgenden Gleichungen abgeleitet werden:
    Figure 00180002
    wobei r der Abstand zwischen dem Punkt und dem optischen Zentrum ist.
  • Figure 00180003
  • In einem Ausführungsbeispiel der vorliegenden Technologie kann die Abbildungsfunktion m in einer numerischen Form kalibriert und gespeichert werden.
  • Um die Umkehrfunktion der Abbildungsfunktion herauszufinden: xi = m–1(Ui), (Gl. 6) muss man die Tiefe des Objektpunkts 30 kennen.
  • In einem Ausführungsbeispiel der vorliegenden Technologie, wie vorstehend offenbart wurde, wird die Szene 20 vorvermessen. In diesem Ausführungsbeispiel der vorliegenden Technologie werden die Tiefenmessungen im stationären 3D-Referenzsystem z = z(x, y) durchgeführt und ändern sich nicht von Einzelbild zu Einzelbild.
  • In einem Ausführungsbeispiel der vorliegenden Technologie wird, wenn eine Entfernungsmessvorrichtung 14 an der Bildaufnahmevorrichtung 12 angebracht ist, die Tiefe eines Szenenobjektpunkts 30 als Funktion des Pixelorts in jedem Einzelbild erhalten zi = zi(ui). Diese Messungen werden in dem an die Bildaufnahmevorrichtung gebundenen 3D-Referenzsystem durchgeführt.
  • In einem Ausführungsbeispiel der vorliegenden Technologie wird die Entfernungsmessvorrichtung 14 unter Verwendung einer Anzahl von Punktlasern implementiert. In diesem Ausführungsbeispiel der vorliegenden Technologie ist, da die Anzahl von Punktlasern gewöhnlich weitaus geringer als die Anzahl von Pixeln ist, die Dichte der Tiefenmessungen für jedes i-te Einzelbild wahrscheinlich viel geringer als die Pixeldichte. Die Tiefe für jedes Pixel kann durch Interpolation zwischen diesen Messungen erhalten werden.
  • In einem Ausführungsbeispiel der vorliegenden Technologie wird die Entfernungsmessvorrichtung 14 unter Verwendung einer Tiefenkamera wie z. B. der Zcam von 3DVsystems implementiert. In diesem Ausführungsbeispiel der vorliegenden Technologie steht ein Raster von Tiefenmessungen mit zu jener des Videoeinzelbildes vergleichbarer Auflösung zur Verfügung, so dass dieses Raster von Tiefenmessungen direkt ohne weitere Behandlung verwendet werden kann.
  • In einem Ausführungsbeispiel der vorliegenden Technologie wird die Entfernungsmessvorrichtung 14 unter Verwendung einer Stereokamera implementiert. Eine Stereokamera ermöglicht die Gewinnung von Tiefeninformationen aus einer Anzahl von identifizierten Merkmalspunkten und der Rest der Pixel kann durch Interpolation erledigt werden.
  • Die Beziehung zwischen zwei aufeinander folgenden Einzelbildern fi und fj wird auf der Annahme aufgebaut, dass derselbe Punkt 30 in der Szene 20 zwei Pixel mit derselben Intensität in zwei Einzelbildern erzeugt. Das heißt, wenn ui und uj Pixelorte in fi und fj desselben Objektpunkts sind, dann gilt fi(ui) = fj(uj). Hier bezieht sich fi(ui) auf die Pixelintensität bei ui im Einzelbild fi. Unter dieser Annahme ist die Beziehung zwischen zwei Einzelbildern eine rein geometrische Transformation, die sich aus der Bewegung der Bildaufnahmevorrichtung ergibt.
  • Die Bewegung der Bildaufnahmevorrichtung von fi zu fj kann durch δxci–>j und δRi–>j dargestellt werden, was die relative Verschiebung und Drehung zwischen Einzelbildern ist, oder ξi–>j = (δxci–>j, δyci–>j, δzci–>j, δΨi–>j, δθi–>j, δφi–>j), was ein 6-Vektor mit den sechs Freiheitsgraden ist. Wenn die Position und Lage der Bildaufnahmevorrichtung im Einzelbild fi bekannt sind, dann gibt uns die Lösung dieser relativen Bewegung von fi zu fj. die Position und Lage im Einzelbild fj. Im Folgenden lassen wir den tiefgestellten Index i –> j weg, wann immer es möglich ist.
  • Derselbe Objektpunkt 30, der im Referenzsystem des Einzelbildes fi die Koordinate xi aufweist, hat im Referenzsystem des Einzelbildes fj die Koordinate xj und: xj = (xi – δxc)δR. (Gl. 7)
  • Daher ist in den 2D-Pixelkoordinatensystemen die Beziehung zwischen ui und uj wie folgt:
    Figure 00210001
    wobei m die Abbildungsfunktion ist. Oder einfach uj = δP(ui), (Gl. 9) wobei
    Figure 00210002
    die Kombination von drei Operationen darstellt.
  • Die Aufgabe besteht nun darin, das optimale ξ zu ermitteln, so dass die Kostenfunktion ∫|fi(u) – fj(δP(u))|du Gl. 10 minimiert wird. Dies ist ein gut erforschtes nicht-lineares Problem kleinster Quadrate. Dessen Lösung beinhaltet gewöhnlich eine lineare Näherung und Iteration. Verschiedene lineare Näherungen führen zu verschiedenen Konvergenzverfahren, wie z. B. Gauss-Newton, steilster Abfall, Levenberg-Marquardt-Abfall usw.
  • In einem Ausführungsbeispiel der vorliegenden Technologie wird der Bildverarbeitungsalgorithmus 25 unter Verwendung des Gauss-Newton-Ansatzes implementiert. Um den Gauss-Newton-Ansatz zu erhalten, kann man erweitern fj(δP(u))≈ fj(u) + dξ∇fj ∂δP(u) / ∂ξ (Gl. 11)
  • ∇fj ist das Gradientenbild des Einzelbildes fj, ∂δP(u) / ∂ξ ist die Jacobi-Determinante der geometrischen Transformation.
  • Man schreibt D = ∇fj ∂δP(u) / ∂ξ (Gl. 12) als 6×1-Spaltenvektor, dann hat man dξ ≈ ∫(fi(u) – fj(u))DTdu/∫DDTdu (Gl. 13)
  • Da fj keine lineare Funktion von ξ ist, wird (Gl. 13) unter Verwendung der folgenden Iterationsschleifenroutine gelöst:
    • 1. Initialisieren von ξ;
    • 2. Berechnen von δP aus ξ, Durchführen der Transformation an fj: fj(u) ⇒ f .j(u) = fj(δP(u));
    • 3. Berechnen von dξ aus fi, f .j, dξ = ∫(fi(u) – f .j(u))DTdu/∫DDTdu
    • 4. Aktualisieren von ξ, dξ ⇒ ξ;
    • 5. Wenn dξ klein genug ist oder eine maximale Iteration erreicht ist, dann Ausstieg, ansonsten Schleifenrücklauf zu Schritt 2.
  • In der obigen Routine gelangt mit jeder aufeinander folgenden Iteration fj näher an fi, bis sie nahe genug sind. In jeder Iteration muss jedoch das Gradientenbild von f .j erneut berechnet werden, da f .j in Schritt 2 aktualisiert wurde. Das andere Problem besteht darin, dass δP (und daher die Jacobi-Determinante) von den Tiefenmessungen zj abhängt oder im Fall der Vorvermessung der Tiefe im stationären Referenzsystem von den Tiefenmessungen z und der gesamten Bewegung der Bildaufnahmevorrichtung abhängt, die zum Einzelbild fj:xcj, Rj führt.
  • In einem Ausführungsbeispiel der vorliegenden Technologie, in dem die Tiefenmessungen in dem an die Bildaufnahmevorrichtung gebundenen Referenzsystem (wie z. B. Laserpunkte, Tiefenkamera, Stereoausrüstung usw.) erhalten werden, stehen mehr Tiefenmessungen für das Einzelbild fi zur Verfügung, da alle vorherigen Einzelbildmessungen auf das Referenzsystem des Einzelbildes fi transformiert werden können, da nun xci, Ri bekannt ist.
  • In einem Ausführungsbeispiel der vorliegenden Technologie ist, während die Tiefe der Szene im stationären System vorvermessen wird, die Gesamtbewegung xcj, Rj noch zu lösen und kann folglich nur als Funktionen von xci, Ri und ξ ausgedrückt werden, wenn die Form der Jacobi-Determinante berechnet wird. Dies macht nicht nur die Form der Jacobi-Determinante kompliziert, sondern macht auch die Jacobi-Determinante von der Iteration abhängig.
  • In einem Ausführungsbeispiel der vorliegenden Technologie werden das Gradientenbild von fi und die Jacobi-Determinante im Einzelbild fi berechnet, während fj in den Iterationen transformiert wird. Daher 1) wird dξ unter Verwendung von ∫|fi(δP–1(u)) – fj(u)|2du anstatt in jeder Iteration berechnet, was einem ermöglicht, das Gradientenbild von fi zu verwenden, und die Jacobi-Determinante der Umkehrtransformation
    Figure 00240001
    wird im Einzelbild fi ausgewertet, die beide nur einmal berechnet werden müssen. 2) Das akkumulierte ξ, und δP werden auf fj angewendet, um es nahe an fi zu bringen, um irgendeine Transformation an fi zu vermeiden.
  • Nach dem Neudefinieren von D = ∇fi ∂δP(u) / ∂ξ, das im Einzelbild fi ausgewertet wird, wird somit der Bildverarbeitungsalgorithmus 25 wie folgt überarbeitet:
    • 1. Initialisieren von ξ;
    • 2. Initialisieren von D = ∇fi ∂δP(u) / ∂ξ im Einzelbild fi;
    • 3. Berechnen von δP aus ξ, Durchführen der Transformation an fi: fj(u) ⇒ f .j(u) = fj(δP(u))
    • 4. Berechnen von dξ aus fi, f .j, dξ = ∫(fi(u) – f .j(u))DTdu/∫DDTdu;
    • 5. Aktualisieren von ξ, dξ ⇒ ξ;
    • 6. Wenn dξ klein genug ist oder die maximale Iteration erreicht ist, dann Ausstieg, ansonsten Schleifenrücklauf zu Schritt 3.
  • Die Tiefe für jedes Pixel in f .j ist erforderlich, um in Schritt 3) δP(u) zu berechnen. Da f .j die beste Abschätzung von fi in dem Moment ist, besteht die einfachste Wahl darin, stattdessen die Tiefe für Pixel in fi zu verwenden.
  • In einem Ausführungsbeispiel der vorliegenden Technologie hängt die Konvergenz der Iterationen davon ab, wie ”glatt” das Gradientenbild ist. Wenn das Gradientenbild in einem viel kleineren Maßstab als die Bildverschiebung, die sich aus der Bewegung der Bildaufnahmevorrichtung zwischen zwei Einzelbildern ergeben hat, variiert, kann die Schleife nicht konvergieren. Daher werden die zwei Einzelbilder zuerst geglättet, bevor sie in die obige Schleife eingespeist werden. Nachdem eine Näherung ξ aus den geglätteten Einzelbildern gefunden ist, kann die Glättung entfernt oder verringert werden und ein genaueres ξkann mit dem vorherigen ξ als Ausgangspunkt erhalten werden.
  • Folglich wird in einer Bilditerationspyramide die höhere Ebene stärker geglättet, während die untere Ebene das Rohbild ohne Glättung ist. Von oben nach unten in der Bildpyramide wird ξ wie folgt verfeinert:
    • 1. Initialisieren von ξ
    • 2. Konstruieren von Bildpyramiden von fi und fj, wenn sie nicht bereits zur Verfügung stehen,
    • 3. Von oben nach unten für jede Ebene der Pyramide
    • 3.1 Initialisieren von D = ∇fi ∂δP(u) / ∂ξ im Einzelbild fi;
    • 3.2 Berechnen von dξ aus fi, f .j, dξ = ∫(fi(u) – f .j(u))DTdu/∫DDTdu;
    • 3.3 Aktualisieren von ξ, dξ ⇒ ξ;
    • 3.4 Durchführen einer Transformation an fj: (u) ⇒ f .j(u) = fj(δP(u));
    • 3.5 wenn dξ klein genug ist oder eine maximale Iteration erreicht ist, dann Ausstieg, ansonsten Schleifenrücklauf zu Schritt 3.2.
  • Die explizite Form von δP(ui) hängt von der Abbildungsfunktion m ab. Selbst mit einem gegebenen m ist die Form von δP(ui) nicht eindeutig. In einem Ausführungsbeispiel der vorliegenden Technologie kann man, wenn die Linsen 16 die geradlinigen Linsen umfassen und wenn die vorvermessene Tiefe z zur Verfügung steht, wählen:
    Figure 00270001
    wobei R T / i(3,:) die Transponierte der dritten Zeile der Gesamtrotationsmatrix Ri im Einzelbild fi ist. Es ist der Einheitsvektor in der z-Richtung, ausgedrückt im an die Bildaufnahmevorrichtung gebundenen Referenzsystem des Einzelbildes fi.
  • Figure 00270002
  • In einem Ausführungsbeispiel der vorliegenden Technologie kann man, wenn die Tiefenmessungen in dem an die Bildaufnahmevorrichtung gebundenen System durchgeführt werden (zi ist bekannt), wählen
    Figure 00280001
  • In einem Ausführungsbeispiel der vorliegenden Technologie kann man, wenn die Tiefe bekannt ist, die Tiefe der zwei Einzelbilder anstelle der Pixelintensität vergleichen, da, wenn die Tiefe bekannt ist, die 3D-Koordinaten des Pixelpunkts auch bekannt sind.
  • Durch Behandeln der 3D-Koordinaten in dem an die Bildaufnahmevorrichtung gebundenen System als Vektorfunktion der 2D-Pixelkoordinaten: (xi(ui) – δxc)δR = xj(uj), (Gl. 18) kann man eine Kostenfunktion verwenden, die das Quadrat des 3D-Abstandes zwischen dem Einzelbild fi und dem Einzelbild fj ist: ∫||(xi(u) – δxc)δR – xj(δP(u))||2du. (Gl.19)
  • Eine weitere Möglichkeit bestünde darin, das Quadrat der Differenz der Komponente z zwischen diesen beiden zu verwenden.
  • Dieser Algorithmus kann leicht erweitert werden, um Farbbilder zu handhaben. Für RGB-Bilder ist beispielsweise das Einzelbild f = (fy, fg, fb) ein Zeilenvektor und D = (Dy, Dg, Db) ist eine 6×3-Matrix mit Dy, Dg, Db jeweils als 6×1-Spaltenvektor.
  • Ähnlich zur Algorithmusoptimierung für die Pixelintensität wird die Jacobi-Determinanten-Berechnung auf der xi-Seite durchgeführt und die Transformation wird auf der xj-Seite durchgeführt. Der Spaltenvektor D wird nun durch eine 6×3-Matrix D' ersetzt, da drei Komponenten in einem Satz von 3D-Koordinaten vorliegen:
    Figure 00290001
  • In diesem Ausführungsbeispiel der vorliegenden Technologie kann der Bildverarbeitungsalgorithmus 25 unter Verwendung der folgenden Schleifenroutine implementiert werden:
    • 1. Initialisieren von ξ
    • 2. Konstruieren von Bildpyramiden von zi und zj, wenn sie nicht bereits zur Verfügung stehen
    • 3. Von oben nach unten für jede Ebene der Pyramide
    • 3.1 Initialisieren von D' im Einzelbild fi
    • 3.2 Berechnen von δP aus ξ, Durchführen der Transformation an xj: xj(u) ⇒ x .j(u) = xj(δP(u))δRT + δxc
    • 3.3 Berechnen von dξ aus xi, x .j, dξ = ∫(xi(u) – x .j(u))D'Tdu/∫D'D'Tdu
    • 3.4 Aktualisieren von ξ, dξ ⇒ ξ
    • 3.5 wenn dξ klein genug ist oder eine maximale Iteration erreicht ist, dann Ausstieg, ansonsten Schleifenrücklauf zu Schritt 3.2.
  • In einem Ausführungsbeispiel der vorliegenden Technologie kann man eine Kombination der Pixelintensitätsvergleichs-Kostenfunktion und der Tiefenvergleichskostenfunktion verwenden ∫(λ|fi(u) – fj(δP(u))|2 + (1 – λ)||(xi(u) – δxc)δR – xj(δP(u))||)2du. (Gl. 21)
  • λ ∊ [0, 1] ist ein Gewichtungsfaktor, der demgemäß, wie gut die Annahme des optischen Ablaufs gehalten wird, gemäß der Qualität des optischen Bildes und der Qualität des Tiefenbildes eingestellt werden soll. Die schrittweise Änderung in jeder Iteration ist dξ = ∫λ(fi(u) – f .j(u))DT + (1 – λ)(xi(u) – x .j(u))D'Tdu/∫λDDT + (1 – λ)D'D'Tdu (Gl. 22)
  • In einem Ausführungsbeispiel der vorliegenden Technologie ist die Beziehung zwischen der Deltabewegung und der Gesamtbewegung von fi und fi+1 wie folgt: Ri+1 = RiδRi –> i+1 xci+1 = xci + δxci –> i+1R T / i (Gln. 23)
  • Wenn die Schleife bei der maximalen Iteration ohne Konvergieren auf ξ zwischen fi und fi+1 aussteigt, kann man sich entscheiden, fi durch fi-1 zu ersetzen, statt dessen die Bewegung zwischen fi-1 und fi+1 herauszufinden, oder man kann sich entscheiden, zwischen fi und fi+2 vorzugehen und das Ergebnis zwischen fi und fi+1 als unzuverlässig zu markieren.
  • Die Tiefeninformationen für jedes Pixel in fi sind erforderlich, um 1) fj(u) ⇒ f .j(u) = fj(δP(u)) zu transformieren und 2) um die Jacobi-Determinante bei fi zu berechnen. Tiefeninformationen können sich in verschiedenen Formen einstellen.
  • In einem Ausführungsbeispiel der vorliegenden Technologie ist die Szene relativ flach und kann durch einige (viel weniger als die Pixelzahlen im Einzelbild) vorvermessene Punkte im stationären Referenzsystem beschrieben werden. Wenn dies der Fall ist, müssen die vorvermessenen Punkte, die im stationären Referenzsystem ausgedrückt werden, in das Referenzsystem des Einzelbildes fi transformiert werden z(x, y) ⇒ zi(ui). Diese Punkte werden dann als Referenzpunkte verwendet, um die Tiefe für jeden Pixelpunkt in fi durch Dreiecksinterpolation herauszufinden. Bei einer Dreiecksinterpolation wird ein Punkt im Dreieck als Kombination von drei Scheitelpunkten des Dreiecks ausgedrückt. Die drei Kombinationskoeffizienten müssen beim Umschalten zwischen dem 3D-Referenzsystem und dem projizierten 2D-Referenzsystem gemäß den Tiefen der drei Scheitelpunkte eingestellt werden.
  • In einem Ausführungsbeispiel der vorliegenden Technologie werden einige (viel weniger als die Pixelzahlen im Einzelbild) Tiefenpunkte zusammen mit jedem Einzelbild in dem an die Bildaufnahmevorrichtung gebundenen System, wie z. B. von Punktlasern, die an der Bildaufnahmevorrichtung angebracht sind, oder entsprechende Merkmalspunkte von einer Stereokameraausrüstung erhalten. Wenn dies der Fall ist, kommen die Laserpunkttiefenmessungen mit jedem Einzelbild. Sie und Punkte von vorherigen Einzelbildern werden in drei Kategorien gesetzt:
    • 1) Einstellpunkte: Laserpunkttiefenmessungen kommen mit dem Einzelbild fi+1. Sie werden nur verwendet, wenn der Tiefenvergleich verwendet wird.
    • 2) Aktive Punkte: Laserpunkttiefenmessungen kommen mit dem Einzelbild fi und Laserpunkttiefenmessungen kommen mit früheren Einzelbildern, die sich aus keinem der Einzelbilder heraus bewegt haben und in das Referenzsystem des Einzelbildes fi transformiert wurden. Diese Punkte werden in die Delaunay-Triangulation eingesetzt. Die Delaunay-Scheitelpunkte werden als Referenzpunkte verwendet, um die Pixeltiefe durch Dreiecksinterpolation zu berechnen.
    • 3) Ausgeschiedene Punkte: Diese Punkte stammen vom vorherigen Einzelbild, die sich aus fi und fi+1 bewegt haben. Diese Punkte werden gespeichert, um eine Tiefenabbildung der Szene zu bilden, falls erwünscht.
  • In einem Ausführungsbeispiel der vorliegenden Technologie steht ein Raster von Tiefenpunkten mit jedem Einzelbild im an die Bildaufnahmevorrichtung gebundenen Referenzsystem mit derselben Auflösung wie oder einer vergleichbaren Auflösung zum Videoeinzelbild zur Verfügung. In diesem Fall können mit dem Einzelbild fi erhaltene Tiefenmessungen direkt verwendet werden, wenn die Auflösung gleich ist, oder können interpoliert werden, wenn die Auflösung niedriger ist. Tiefenmessungen, die mit fi und fi+1 erhalten werden, können im Tiefenvergleich direkt oder nach Interpolation verwendet werden.
  • In einem Ausführungsbeispiel der vorliegenden Technologie ist 2 ein Ablaufplan 50 eines Verfahrens zur Bildverfolgung unter Verwendung der Vorrichtung 22 von 1, wobei die Tiefendaten der Szene 20 durch Vorvermessung der Szene erhalten werden.
  • In diesem Ausführungsbeispiel der vorliegenden Technologie umfasst das Verfahren der Bildverfolgung zwei Schritte: (Schritt 54) Durchführen einer Bildaufnahme der Szene 20 (von 1) unter Verwendung einer Bildaufnahmevorrichtung; und (Schritt 62) Verfolgen der Bewegung der Bildaufnahmevorrichtung durch Analysieren eines Satzes von in Schritt 54 erhaltenen Bildern.
  • In einem Ausführungsbeispiel der vorliegenden Technologie wird Schritt 54 zum Durchführen einer Bildaufnahme der Szene 20 in Echtzeit unter Verwendung der Bildaufnahmevorrichtung 22 (von 1) durchgeführt – Schritt 56.
  • In einem Ausführungsbeispiel der vorliegenden Technologie wird Schritt 54 durch Voraufzeichnen der Szene 20 unter Verwendung der Bildaufnahmevorrichtung 22 durchgeführt – Schritt 58.
  • In einem Ausführungsbeispiel der vorliegenden Technologie umfasst Schritt 54 ferner das Erhalten eines Satzes von Tiefendaten der Szene 20 durch Vorvermessung der Szene – Schritt 60.
  • Wie vorstehend offenbart wurde, ist die Bildaufnahmevorrichtung aus der Gruppe ausgewählt, die aus Folgendem besteht: {einer Digitalkamera; einer digitalen Videokamera; einem digitalen Camcorder; einer Stereodigitalkamera; einer Stereovideokamera; einer Filmkamera; und einer Fernsehkamera}.
  • In einem Ausführungsbeispiel der vorliegenden Technologie umfasst der Schritt 62 zum Verfolgen der Bewegung der Bildaufnahmevorrichtung durch Analysieren des Satzes von Bildern, die in Schritt 54 erhalten werden, ferner den Schritt 64 zum Durchführen einer starren globalen Transformation des Satzes von erfassten Bilddaten und des Satzes von Szenentiefendaten in einen Satz von 6-Koordinaten-Daten; wobei der Satz von 6-Koordinaten-Daten die Bewegung der Bildaufnahmevorrichtung 22 (von 1) darstellt.
  • In einem Ausführungsbeispiel der vorliegenden Technologie stellt 3 einen Ablaufplan 100 eines Verfahrens zur Bildverfolgung dar, wobei die Tiefendaten der Szene unter Verwendung einer Entfernungsmessvorrichtung 14 erhalten werden.
  • In einem Ausführungsbeispiel der vorliegenden Technologie umfasst der Ablaufplan 100 eines Verfahrens zur Bildverfolgung ferner den Schritt 104 zum Durchführen einer Bildaufnahme einer Szene unter Verwendung einer Bildaufnahmevorrichtung.
  • In einem Ausführungsbeispiel der vorliegenden Technologie kann Schritt 104 durch Durchführen der Bildaufnahme der Szene in Echtzeit unter Verwendung der Bildaufnahmevorrichtung implementiert werden – Schritt 106.
  • In einem Ausführungsbeispiel der vorliegenden Technologie kann Schritt 104 durch Durchführen des Schritts 108 zum Durchführen einer Bildaufzeichnung der Szene unter Verwendung der Bildaufnahmevorrichtung implementiert werden.
  • In einem Ausführungsbeispiel der vorliegenden Technologie umfasst der Ablaufplan 100 eines Verfahrens zur Bildverfolgung ferner den Schritt 110 zum Erhalten eines Satzes von Szenentiefendaten unter Verwendung einer Entfernungsmessvorrichtung, die aus der Gruppe ausgewählt ist, die aus Folgendem besteht: {einem Punktlaserstrahl; einem Sonar; einem Radar; einem Laserabtaster; und einer Tiefenkamera}.
  • In einem Ausführungsbeispiel der vorliegenden Technologie wird der Schritt 110 durch Bestimmen des Satzes von Szenentiefendaten in einem an die Bildaufnahmevorrichtung gebundenen 3D-Referenzsystem unter Verwendung eines K-Punkt-Entfernungsmesssystems, das an der Bildaufnahmevorrichtung angebracht ist, implementiert – Schritt 112.
  • In einem Ausführungsbeispiel der vorliegenden Technologie wird Schritt 110 durch Bestimmen der Tiefe des Objektpunkts direkt für mindestens einen Bildpunkt des Objektpunkts unter Verwendung eines M-Punkt-Entfernungsmesssystems, das an der Bildaufnahmevorrichtung angebracht ist, implementiert, wobei die ganze Zahl M von Tiefenmessungen der Szene im Wesentlichen gleich der Anzahl von Pixeln im Einzelbild ist – Schritt 114.
  • In einem Ausführungsbeispiel der vorliegenden Technologie wird Schritt 110 durch Bestimmen des Satzes von Szenentiefendaten in einem an die Bildaufnahmevorrichtung gebundenen 3D-Referenzsystem unter Verwendung eines Merkmalspunkt-Entfernungsmesssystems, das an der Bildaufnahmevorrichtung angebracht ist, implementiert – Schritt 116.
  • Schließlich umfasst in einem Ausführungsbeispiel der vorliegenden Technologie der Ablaufplan 100 eines Verfahrens zur Bildverfolgung ferner den Schritt 118 zur Verfolgung der Bewegung der Bildaufnahmevorrichtung durch Analysieren des Satzes von Bildern.
  • In einem Ausführungsbeispiel der vorliegenden Technologie wird Schritt 118 durch Durchführen einer starren globalen Transformation des Satzes von erfassten Bilddaten und des Satzes von Szenentiefendaten in einen Satz von 6-Koordinaten-Daten durchgeführt; wobei der Satz von 6-Koordinaten-Daten die Bewegung der Bildaufnahmevorrichtung darstellt – Schritt 120.
  • 4, 5, 6 und 7 stellen die Beispielergebnisse der Verfolgung auf Bildbasis unter Verwendung der Vorrichtung 22 von 1 dar. Insbesondere stellt 2 ein Diagramm 140 dar, das das Bildaufnahmevorrichtungsbild der Szene 20 in der Sensorebene 16 darstellt.
  • 5 zeigt ein Diagramm 150, das die 2D-Bewegung der Bildaufnahmevorrichtung, die unter Verwendung des Algorithmus 25 von 1 berechnet wird, wie vorstehend vollständig offenbart wurde, darstellt.
  • 6 stellt ein Diagramm 160 dar, das die Höhenbewegung der Bildaufnahmevorrichtung, die unter Verwendung des Algorithmus 25 von 1 berechnet wird, wie vorstehend vollständig offenbart wurde, darstellt.
  • 7 zeigt ein Diagramm 170, das die Gesamtdrehwinkel der Bildaufnahmevorrichtung (Gieren 172, Nicken 174 und Rollen 176), die unter Verwendung des Algorithmus 25 von 1 berechnet werden, wie vorstehend vollständig offenbart wurde, darstellt.
  • In einem Ausführungsbeispiel der vorliegenden Technologie werden Merkmale als nicht einfach Punkte, sondern auch als Darstellung von Bereichen und/oder Konturen definiert. In diesem Ausführungsbeispiel der vorliegenden Technologie können grob definierte Merkmale verwendet werden, um die Oberflächenverfolgungsfähigkeiten wesentlich zu erweitern.
  • In einem Ausführungsbeispiel der vorliegenden Technologie können grob definierte Merkmale verwendet werden, um Szenenverständnistechniken zu verwenden, um problematische Objekte (d. h. Autos) zu verwerfen.
  • In einem Ausführungsbeispiel der vorliegenden Technologie sind Szenenverständnistechniken Verfahren, die höhere Beurteilungsstufen aus einem Bild folgern. Es kann beispielsweise das Erfassen der Grenzen von Autos, Fußgängern in einer Szene und das Verwerfen von verglichenen Merkmalen, die in diesen Bereichen liegen, umfassen. Sobald solche ungewollten Objekte identifiziert sind, wird ein brauchbarer Bereich des Bildes gewonnen. Der Merkmalsvergleich wird anschließend auf diesen Bereich eingeschränkt.
  • In einem Ausführungsbeispiel der vorliegenden Technologie beinhaltet die Erfassung von ungewollten Objekten eine Objekterkennung mit: (A) Gewinnung von spärlichen Merkmalen aus einem Bild; (B) Zusammengruppieren von benachbarten Merkmalen; (C) und Ableiten einer Objektkategorie für mindestens eine gegebene Gruppierung.
  • In einem Ausführungsbeispiel der vorliegenden Technologie können grob definierte Merkmale in der anfänglichen Bildanalyse verwendet werden (z. B. Kontrastbewertung), um die Eignung eines Bildes oder Bildbereichs für die Verfolgung zu bestimmen.
  • In einem Ausführungsbeispiel der vorliegenden Technologie wird, wenn die Qualität der gesammelten Bilder zu schlecht ist, damit sie in die Oberflächenverfolgung übergeben werden, z. B. das Bild zu dunkel ist, und sehr wenige Merkmale gewonnen und verglichen werden würden, eine anfängliche Bildbewertungsanalyse durchgeführt, um die Bedienperson am Einsatzort zu informieren, ob die Bilder brauchbar sind oder ob die Bilder erneut gesammelt werden müssen.
  • In einem Ausführungsbeispiel der vorliegenden Technologie umfasst eine anfängliche Bildbewertungsanalyse das Gewinnen von mindestens drei Attributen aus dem Bild: (A) Sättigungsqualität, um zu prüfen, ob ein Bild hauptsächlich aus einem Rot-Grün-Blau-Wert besteht; (B) Prüfen der Texturqualität eines Bildes, wenn das Bild größtenteils hauptsächlich verschwommen ist und ihm scharfe Bereiche für die Merkmalsgewinnung fehlen; (C) und Prüfen eines Bildkontrasts, wenn das Bild größtenteils dunkel oder größtenteils hell ist, was die Straßenoberflächen im Wesentlichen verwaschen wiedergibt.
  • In einem Ausführungsbeispiel der vorliegenden Technologie können grob definierte Merkmale verwendet werden, um die Oberflächenverfolgungslösung zu initialisieren.
  • In einem Ausführungsbeispiel der vorliegenden Technologie kann insbesondere die anfängliche Lösung unter Verwendung von grob definierten Merkmalen und RANdom SAmple Consensus (RANSAC, Stichprobenkonsens) gefunden werden.
  • RANSAC ist ein iteratives Verfahren zum Abschätzen von Parametern eines mathematischen Modells aus einem Satz von beobachteten Daten, der Ausreißer enthält.
  • In der Statistik ist ein Ausreißer eine Beobachtung, die vom Rest der Daten numerisch entfernt ist. Insbesondere ist ein Ausreißer als abgelegene Beobachtung definiert, die merklich von anderen Mitgliedern der Stichprobe, in der er auftritt, abzuweichen scheint.
  • Ausreißer können zufällig in irgendeiner Verteilung auftreten, sie deuten jedoch häufig entweder auf einen Messfehler oder darauf hin, dass die Population eine endlastige Verteilung aufweist. Im ersteren Fall möchte man sie verwerfen oder eine Statistik verwenden, die gegenüber Ausreißern robust ist, während sie im letzteren Fall darauf hinweisen, dass die Verteilung eine hohe Wölbung aufweist und dass man bei der Verwendung eines Werkzeugs oder von Erkenntnissen, die eine Normalverteilung annehmen, sehr vorsichtig sein sollte. Eine häufige Ursache für Ausreißer ist eine Mischung von zwei Verteilungen, die zwei verschiedene Subpopulationen sein können oder auf einen ”korrekten Versuch” gegenüber einem ”Messfehler” hinweisen können; dies wird durch ein Mischmodell modelliert.
  • In einem Ausführungsbeispiel der vorliegenden Technologie verwendet die anfängliche Lösung auf der Basis von grob definierten Merkmalen und RANSAC einen nicht deterministischen Algorithmus in der Hinsicht, dass er nur mit einer gewissen Wahrscheinlichkeit ein vernünftiges Ergebnis erzeugt, wobei diese Wahrscheinlichkeit zunimmt, wenn mehr Iterationen ermöglicht werden. Der Algorithmus wurde zum ersten Mal 1981 von Fischler und Bolles veröffentlicht.
  • In einem Ausführungsbeispiel der vorliegenden Technologie basiert die anfängliche Lösung unter Verwendung von grob definierten Merkmalen und RANSIC auf der Annahme, dass die Daten aus ”Normalfällen”, d. h. Daten, deren Verteilung durch einen gewissen Satz von Modellparametern erklärt werden können, und ”Ausreißern”, die Daten sind, die nicht zum Modell passen, bestehen. Zusätzlich dazu können die Daten Rauschen unterliegen. Die Ausreißer können z. B. von Extremwerten des Rauschens oder von fehlerhaften Messungen oder falschen Hypothesen über die Interpretation der Daten stammen. RANSAC nimmt auch an, dass in Anbetracht eines (gewöhnlich kleinen) Satzes von Normalfällen eine Prozedur existiert, die die Parameter eines Modells abschätzen kann und die diese Daten optimal erklärt oder anpasst.
  • In einem Ausführungsbeispiel der vorliegenden Technologie umfasst das Verfahren zur Verwendung eines Satzes von grob definierten Merkmalen, um eine anfängliche Lösung der Kameraposition zu finden, als Eingabe in die Oberflächenverfolgung die folgenden Schritte:
    Erfassen eines Satzes von grob definierten Merkmalen; Feststellen von Entsprechungen zwischen dem Satz von grob definierten Merkmalen und mindestens zwei ausgewählten Einzelbildern; Abschätzen der Homographie zwischen mindestens zwei ausgewählten Einzelbildern unter Verwendung von Parametern des mathematischen RANSAC-Modells; Ableiten einer anfänglichen Stellung der Bildaufnahmevorrichtung aus der abgeschätzten Homographie zwischen mindestens zwei ausgewählten Einzelbildern; wobei die Stellung der Bildaufnahmevorrichtung Positionskoordinaten der Bildaufnahmevorrichtung und einen Satz von Winkelkoordinaten der Bildaufnahmevorrichtung umfasst; und Verwenden der abgeleiteten anfänglichen Stellung der Bildaufnahmevorrichtung als anfängliche Lösung für die Oberflächenverfolgungslösung.
  • In einem Ausführungsbeispiel der vorliegenden Technologie umfasst das Verfahren zur Verwendung von grob definierten Merkmalen zum Finden einer strengen zweidimensionalen (strict_2D) Oberflächenverfolgungslösung: Erfassen eines Satzes von grob definierten Merkmalen auf einer einzelnen Verfolgungsoberfläche; Auswählen eines Satzes von koplanaren grob definierten Merkmalen unter Verwendung von Parametern des mathematischen RANSAC-Modells; Feststellen von Entsprechungen zwischen dem Satz von ausgewählten koplanaren grob definierten Merkmalen und mindestens zwei ausgewählten Einzelbildern; Ableiten einer anfänglichen Stellung der Bildaufnahmevorrichtung aus der Homographie zwischen mindestens zwei ausgewählten Einzelbildern; Verwenden der abgeleiteten anfänglichen Stellung der Bildaufnahmevorrichtung als anfängliche Lösung für die strenge zweidimensionale (strict_2D) Oberflächenverfolgungslösung; und Gruppieren des Satzes von koplanaren Merkmalen und Verwenden eines Bereichs um die Gruppe von koplanaren Merkmalen als Eingabe in die strict_2D-Oberflächenverfolgungslösung.
  • In einem Ausführungsbeispiel der vorliegenden Technologie umfasst das Verfahren zur Verwendung eines Satzes von koplanaren grob definierten Merkmalen auf einer Vielzahl von zweidimensionalen (2D) Verfolgungsoberflächen zum Finden einer im Wesentlichen zweidimensionalen (sub_2D) Oberflächenverfolgungslösung ferner: Erfassen eines Satzes von grob definierten Merkmalen auf einer Vielzahl von Verfolgungsoberflächen; Auswählen eines Satzes von koplanaren grob definierten Merkmalen unter Verwendung von Parametern des mathematischen RANSAC-Modells; Feststellen von Entsprechungen zwischen dem Satz von koplanaren grob definierten Merkmalen und mindestens zwei ausgewählten Einzelbildern; Ableiten einer anfänglichen Stellung der Bildaufnahmevorrichtung aus der Homographie zwischen mindestens zwei ausgewählten Einzelbildern; Verwenden der abgeleiteten anfänglichen Stellung der Bildaufnahmevorrichtung als anfängliche Lösung für eine im Wesentlichen zweidimensionale (sub_2D) Oberflächenverfolgungslösung; und Auswählen eines lokalen Bereichs um jedes ausgewählte koplanare grob definierte Merkmal, Gruppieren einer Vielzahl der ausgewählten lokalen Bereiche in einen zweidimensionalen (2D) globalen Bereich und Verwenden des globalen 2D-Bereichs als Eingabe in die sub_2D-Oberflächenverfolgungslösung.
  • In einem Ausführungsbeispiel der vorliegenden Technologie umfasst das Verfahren zur Verwendung eines Satzes von grob definierten Merkmalen, die aus einem dreidimensionalen (3D) Bereich gewonnen werden, zum Finden einer Lösung für eine im Wesentlichen dreidimensionale (sub_3D) Oberflächenverfolgung ferner: Erfassen eines Satzes von grob definierten Merkmalen auf der 3D-Oberfläche; Feststellen von Entsprechungen zwischen dem Satz von grob definierten Merkmalen und mindestens zwei ausgewählten Einzelbildern; Abschätzen der Homographie zwischen mindestens zwei ausgewählten Einzelbildern; Ableiten einer anfänglichen Stellung der Bildaufnahmevorrichtung aus der Homographie zwischen mindestens zwei ausgewählten Einzelbildern; Verwenden der abgeleiteten anfänglichen Stellung der Bildaufnahmevorrichtung als anfängliche Lösung für die im Wesentlichen dreidimensionale (sub_3D) Oberflächenverfolgungslösung; und Auswählen eines lokalen Bereichs um jedes ausgewählte grob definierte Merkmal, Gruppieren einer Vielzahl der ausgewählten lokalen Bereiche in einen dreidimensionalen (3D) globalen Bereich und Verwenden des globalen 3D-Bereichs als Eingabe in die sub_3D-Oberflächenverfalgungslösung.
  • Die obige Erörterung hat den Betrieb von verschiedenen beispielhaften Systemen und Vorrichtungen sowie verschiedene Ausführungsbeispiele, die beispielhafte Verfahren zum Betreiben solcher Systeme und Vorrichtungen betreffen, dargelegt. In verschiedenen Ausführungsbeispielen werden ein oder mehrere Schritte eines Verfahrens zur Implementierung durch einen Prozessor unter der Steuerung von computerlesbaren und computerausführbaren Befehlen ausgeführt. In einigen Ausführungsbeispielen werden diese Verfahren folglich über einen Computer implementiert.
  • In einem Ausführungsbeispiel können sich die computerlesbaren und computerausführbaren Befehle auf für einen Computer verwendbaren/lesbaren Medien befinden.
  • Daher können ein oder mehrere Operationen von verschiedenen Ausführungsbeispielen unter Verwendung von computerausführbaren Befehlen wie z. B. Programmmodulen, die von einem Computer ausgeführt werden, gesteuert oder implementiert werden. Im Allgemeinen umfassen Programmmodule Routinen, Programme, Objekte, Komponenten, Datenstrukturen usw., die spezielle Aufgaben durchführen oder spezielle abstrakte Datentypen implementieren. Außerdem kann die vorliegende Technologie auch in verteilten Rechenumgebungen ausgeführt werden, in denen Aufgaben durch entfernte Verarbeitungsvorrichtungen durchgeführt werden, die über ein Kommunikationsnetz verbunden sind. In einer verteilten Rechenumgebung können sich die Programmodule sowohl in lokalen als auch entfernten Computerspeichermedien, einschließlich Speichervorrichtungen, befinden.
  • Obwohl hierin spezielle Schritte von beispielhaften Verfahren zur Implementierung offenbart sind, sind diese Schritte Beispiele von Schritten, die gemäß verschiedenen beispielhaften Ausführungsbeispielen durchgeführt werden können. Das heißt, hierin offenbarte Ausführungsbeispiele sind zur Durchführung von verschiedenen anderen Schritten oder Veränderungen der angeführten Schritte gut geeignet. Die hierin offenbarten Schritte können überdies in einer anderen als dargestellten Reihenfolge durchgeführt werden und nicht alle der Schritte werden notwendigerweise in einem speziellen Ausführungsbeispiel durchgeführt.
  • Obwohl hierin verschiedene elektronische Systeme und Systeme auf Softwarebasis erörtert sind, sind diese Systeme nur Beispiele von Umgebungen, die verwendet werden könnten, und sollen keine Begrenzung hinsichtlich des Verwendungsumfangs oder der Funktionalität der vorliegenden Technologie andeuten. Solche Systeme sollten auch nicht als irgendeine Abhängigkeit von oder Beziehung zu irgendeiner oder einer Kombination von Komponenten oder Funktionen, die in den offenbarten Beispielen dargestellt sind, aufweisend interpretiert werden.
  • Obwohl der Gegenstand in einer für Strukturmerkmale und/oder methodologische Handlungen spezifischen Sprache beschrieben wurde, ist der in den beigefügten Ansprüchen definierte Gegenstand nicht notwendigerweise auf die vorstehend beschriebenen spezifischen Merkmale oder Handlungen begrenzt. Vielmehr sind die vorstehend beschriebenen spezifischen Merkmale und Handlungen als beispielhafte Formen zum Implementieren der Ansprüche offenbart.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • www.sick.com [0035]

Claims (70)

  1. Verfahren zur Positionsbestimmung auf Bildbasis, das umfasst: (A) Durchführen einer Bildaufnahme einer Szene unter Verwendung einer Bildaufnahmevorrichtung; und (B) Bestimmen der Positionskoordinaten der Bildaufnahmevorrichtung durch Analysieren eines Satzes von Bildern.
  2. Verfahren nach Anspruch 1, wobei der Schritt (A) ferner umfasst: (A1) Durchführen der Bildaufnahme der Szene in Echtzeit unter Verwendung der Bildaufnahmevorrichtung; wobei die Bildaufnahmevorrichtung aus der Gruppe ausgewählt ist, die aus Folgendem besteht: {einer Digitalkamera; einer digitalen Videokamera; einem digitalen Camcorder; einer Stereodigitalkamera; einer Stereovideokamera; einer Filmkamera; und einer Fernsehkamera}.
  3. Verfahren nach Anspruch 1, wobei der Schritt (A) ferner umfasst: (A2) Durchführen einer Bildaufzeichnung der Szene unter Verwendung der Bildaufnahmevorrichtung.
  4. Verfahren nach Anspruch 1, wobei der Schritt (A) ferner umfasst: (A3) Erhalten eines Satzes von Tiefendaten der Szene durch Vorvermessung der Szene.
  5. Verfahren nach Anspruch 4, wobei der Schritt (A3) ferner umfasst: (A3, 1) Erhalten des Satzes von Tiefendaten der Szene unter Verwendung eines Vermessungsinstruments, das aus der Gruppe ausgewählt ist, die aus Folgendem besteht: {einem Vermessungssystem eines globalen Navigationssatellitensystems (GNSS); einem Laserebenensystem; und einem Theodoliten}.
  6. Verfahren nach Anspruch 1, wobei der Schritt (B) ferner umfasst: (B1) Durchführen einer starren globalen Transformation des Satzes von erfassten Bilddaten und des Satzes von Szenentiefendaten in einen Satz von 6-Koordinaten-Daten; wobei der Satz von 6-Koordinaten-Daten die Bewegung der Bildaufnahmevorrichtung darstellt.
  7. Verfahren nach Anspruch 6, wobei der Schritt (B1) ferner umfasst: (B1, 1) Verwenden einer Abbildungsfunktion der Bildaufnahmevorrichtung, um für mindestens ein i-tes Einzelbild 3D-Koordinaten von mindestens einem Objektpunkt in dem an die Bildaufnahmevorrichtung gebundenen Referenzsystem in 2D-Pixelkoordinaten eines Bildpunkts in der Sensorebene der Bildaufnahmevorrichtung in einem 2D-Referenzkoordinatensystem abzubilden; wobei i eine ganze Zahl ist.
  8. Verfahren nach Anspruch 7, wobei der Schritt (B1, 1) ferner umfasst: (B1, 1, 1) Auswählen der Abbildungsfunktion der Bildaufnahmevorrichtung aus der Gruppe, die aus Folgendem besteht: {einer Abbildungsfunktion von regulären geradlinigen Linsen; einer Abbildungsfunktion von Fischaugenlinsen; und einer Abbildungsfunktion von maßgefertigt kalibrierten Linsen}.
  9. Verfahren nach Anspruch 6, wobei der Schritt (B1) ferner umfasst: (B1, 2) Erhalten einer Umkehrfunktion der Abbildungsfunktion; wobei die Umkehrfunktion der Abbildungsfunktion dazu konfiguriert ist, für mindestens ein i-tes Einzelbild 2D-Pixelkoordinaten von mindestens einem Bildpunkt in der Sensorebene der Bildaufnahmevorrichtung in einem 2D-Referenzkoordinatensystem in 3D-Koordinaten von mindestens einem Objektpunkt in dem an die Bildaufnahmevorrichtung gebundenen Referenzsystem abzubilden.
  10. Verfahren nach Anspruch 6, wobei der Schritt (B1) ferner umfasst: (B1, 3) Erhalten von 3D-Tiefenkoordinaten des mindestens einen Objektpunkts unter Verwendung der vorvermessenen Daten der Szene.
  11. Verfahren nach Anspruch 6, wobei der Schritt (B1) ferner umfasst: (B1, 4) Gewinnen eines 6-Vektors, der die Bewegung der Bildaufnahmevorrichtung beschreibt, aus einer Beziehung zwischen zwei aufeinander folgenden Einzelbildern: einem i-ten Einzelbild und einem k-ten Einzelbild, wobei mindestens ein Objektpunkt mindestens zwei Pixel mit im Wesentlichen derselben Intensität in den zwei aufeinander folgenden Einzelbildern erzeugt.
  12. Verfahren nach Anspruch 11, das ferner umfasst: (B1, 4, 1) Optimieren des 6-Vektors, der die Bewegung der Bildaufnahmevorrichtung beschreibt.
  13. Verfahren nach Anspruch 11, das ferner umfasst: (B1, 4, 2) Optimieren des 6-Vektors, der die Bewegung der Bildaufnahmevorrichtung beschreibt, durch Lösen eines nicht-linearen Problems kleinster Quadrate für die Beziehung zwischen den zwei aufeinander folgenden Einzelbildern.
  14. Verfahren nach Anspruch 11, das ferner umfasst: (B1, 4, 3) Optimieren eines (6-n)-Vektors, der eine n-dimensional eingeschränkte Bewegung der Bildaufnahmevorrichtung beschreibt, durch Optimieren der Beziehung zwischen den zwei aufeinander folgenden Einzelbildern; wobei die ganze Zahl n kleiner ist als 6.
  15. Verfahren nach Anspruch 6, wobei der Schritt (B1) ferner umfasst: (B1, 5) Gewinnen eines 6-Vektors, der die Bewegung der Bildaufnahmevorrichtung beschreibt, aus einer Beziehung zwischen den zwei aufeinander folgenden Einzelbildern: dem i-ten Einzelbild und dem k-ten Einzelbild, durch Vergleichen der Tiefendaten für mindestens zwei Pixel: ein erstes Pixel und ein zweites Pixel; wobei sich das erste Pixel im i-ten Einzelbild befindet und wobei sich das zweite Pixel im k-ten Einzelbild befindet.
  16. Verfahren nach Anspruch 15, das ferner umfasst: (B1, 5, 1) Optimieren des 6-Vektors, der die Bewegung der Bildaufnahmevorrichtung beschreibt.
  17. Verfahren nach Anspruch 15, das ferner umfasst: (B1, 5, 2) Optimieren des 6-Vektors, der die Bewegung der Bildaufnahmevorrichtung beschreibt, durch Lösen eines nicht-linearen Problems kleinster Quadrate für die Beziehung zwischen den zwei aufeinander folgenden Einzelbildern.
  18. Verfahren nach Anspruch 15, das ferner umfasst: (B1, 5, 3) Optimieren eines (6-n)-Vektors, der eine n-dimensional eingeschränkte Bewegung der Bildaufnahmevorrichtung beschreibt, durch Optimieren der Beziehung zwischen den zwei aufeinander folgenden Einzelbildern; wobei die ganze Zahl n kleiner ist als 6.
  19. Verfahren nach Anspruch 6, wobei der Schritt (B1) ferner umfasst: (B1, 6) Gewinnen eines 6-Vektors, der die Bewegung der Bildaufnahmevorrichtung beschreibt, aus einer Beziehung zwischen zwei aufeinander folgenden Einzelbildern: dem i-ten Einzelbild und dem k-ten Einzelbild, durch Vergleichen der Tiefendaten für mindestens zwei Pixel: ein erstes Pixel und ein zweites Pixel; wobei sich das erste Pixel im i-ten Einzelbild befindet und wobei sich das zweite Pixel im k-ten Einzelbild befindet, und durch Vergleichen von mindestens zwei Pixeln mit im Wesentlichen derselben Intensität in den zwei aufeinander folgenden Einzelbildern.
  20. Verfahren nach Anspruch 19, das ferner umfasst: (B1, 6, 1) Optimieren des 6-Vektors, der die Bewegung der Bildaufnahmevorrichtung beschreibt.
  21. Verfahren nach Anspruch 19, das ferner umfasst: (B1, 6, 2) Optimieren des 6-Vektors, der die Bewegung der Bildaufnahmevorrichtung beschreibt, durch Lösen eines nicht-linearen Problems kleinster Quadrate für die Beziehung zwischen den zwei aufeinander folgenden Einzelbildern.
  22. Verfahren nach Anspruch 19, das ferner umfasst: (B1, 6, 3) Optimieren eines (6 – n)-Vektors, der eine n-dimensional eingeschränkte Bewegung der Bildaufnahmevorrichtung beschreibt, durch Optimieren der Beziehung zwischen den zwei aufeinander folgenden Einzelbildern; wobei die ganze Zahl n kleiner ist als 6.
  23. Verfahren zur Bildverfolgung, das umfasst: (A) Durchführen einer Bildaufnahme einer Szene unter Verwendung einer Bildaufnahmevorrichtung; (B) Erhalten eines Satzes von Szenentiefendaten unter Verwendung einer Entfernungsmessvorrichtung, die aus der Gruppe ausgewählt ist, die aus Folgendem besteht: {einem Punktlaserstrahl; einem Sonar; einem Radar; einem Laserabtaster; und einer Tiefenkamera}; und (C) Verfolgen der Bewegung der Bildaufnahmevorrichtung durch Analysieren des Satzes von Bildern.
  24. Verfahren nach Anspruch 23, wobei der Schritt (A) ferner umfasst: (A1) Durchführen der Bildaufnahme der Szene in Echtzeit unter Verwendung der Bildaufnahmevorrichtung.
  25. Verfahren nach Anspruch 23, wobei der Schritt (A) ferner umfasst: (A2) Durchführen einer Bildaufzeichnung der Szene unter Verwendung der Bildaufnahmevorrichtung.
  26. Verfahren nach Anspruch 23, wobei der Schritt (B) ferner umfasst: (B1) Bestimmen des Satzes von Szenentiefendaten in einem an eine Bildaufnahmevorrichtung gebundenen 3D-Referenzsystem unter Verwendung eines K-Punkt-Entfernungsmesssystems, das an der Bildaufnahmevorrichtung angebracht ist, wobei der Satz von Szenentiefendaten einen ganzzahligen K-Punkt-Satz von 3D-Tiefenmessungen der Szene umfasst; und wobei eine 3D-Tiefenkoordinate von mindestens einem Objektpunkt, der einem 2D-Bildpunkt des 3D-Objektpunkts zugeordnet ist, durch Interpolation des K-Punkt-Satzes von 3D-Tiefenmessungen der Szene erhalten wird, um eine optimale Tiefenmessung für mindestens einen Bildpunkt des mindestens einen Objektpunkts zu erhalten; und wobei die ganze Zahl K wesentlich kleiner ist als die Anzahl von Pixeln in dem Einzelbild.
  27. Verfahren nach Anspruch 23, wobei der Schritt (B) ferner umfasst: (B2) Bestimmen der Tiefe des Objektpunkts direkt für mindestens einen Bildpunkt des Objektpunkts unter Verwendung eines M-Punkt-Entfernungsmesssystems, das an der Bildaufnahmevorrichtung angebracht ist, wobei die ganze Zahl M von Tiefenmessungen der Szene im Wesentlichen gleich der Anzahl von Pixeln in dem Einzelbild ist.
  28. Verfahren nach Anspruch 23, wobei der Schritt (B) ferner umfasst: (B3) Bestimmen des Satzes von Szenentiefendaten in einem an die Bildaufnahmevorrichtung gebundenen 3D-Referenzsystem unter Verwendung eines Merkmalspunkt-Entfernungsmesssystems, das an der Bildaufnahmevorrichtung angebracht ist, wobei die Szene einen Satz von ganzzahligen K Merkmalsobjektpunkten umfasst; wobei das Merkmalspunkt-Entfernungsmesssystem einen K-Satz von 3D-Tiefenmessungen der K Merkmalsobjektpunkte in der Szene erhält; und wobei eine 3D-Tiefenkoordinate von mindestens einem Objektpunkt, der einem 2D-Bildpunkt des 3D-Objektpunkts zugeordnet ist, durch Interpolation des K-Punkt-Satzes von 3D-Tiefenmessungen der Szene erhalten wird, um eine optimale Tiefenmessung für mindestens einen Bildpunkt des mindestens einen Objektpunkts zu erhalten; und wobei die ganze Zahl K wesentlich kleiner ist als die Anzahl von Pixeln in dem Einzelbild.
  29. Verfahren nach Anspruch 23, wobei der Schritt (C) ferner umfasst: (C1) Durchführen einer starren globalen Transformation des Satzes von erfassten Bilddaten und des Satzes von Szenentiefendaten in einen Satz von 6-Koordinaten-Daten; wobei der Satz von 6-Koordinaten-Daten eine Bewegung der Bildaufnahmevorrichtung darstellt.
  30. Verfahren nach Anspruch 29, wobei der Schritt (C1) ferner umfasst: (C1, 1) Verwenden einer Abbildungsfunktion, um für mindestens ein i-tes Einzelbild 3D-Koordinaten von mindestens einem Objektpunkt in dem an die Bildaufnahmevorrichtung gebundenen Referenzsystem in 2D-Pixelkoordinaten eines Bildpunkt in der Sensorebene der Bildaufnahmevorrichtung in einem 2D-Referenzkoordinatensystem abzubilden.
  31. Verfahren nach Anspruch 30, wobei der Schritt (C1, 1) ferner umfasst: (C1, 1, 1) Auswählen der Abbildungsfunktion aus der Gruppe, die aus Folgendem besteht: {einer Abbildungsfunktion von regulären geradlinigen Linsen; einer Abbildungsfunktion von Fischaugenlinse; und einer Abbildungsfunktion von maßgefertigt kalibrierten Linsen}.
  32. Verfahren nach Anspruch 29, wobei der Schritt (C1) ferner umfasst: (C1, 2) Erhalten einer Umkehrfunktion der Abbildungsfunktion; wobei die Umkehrfunktion der Abbildungsfunktion dazu ausgelegt ist, für mindestens ein i-tes Einzelbild 2D-Pixelkoordinaten von mindestens einem Bildpunkt in der Sensorebene der Bildaufnahmevorrichtung in einem 2D-Referenzkoordinatensystem in 3D-Koordinaten von mindestens einem Objektpunkt in dem an die Bildaufnahmevorrichtung gebundenen Referenzsystem abzubilden.
  33. Verfahren nach Anspruch 29, wobei der Schritt (C1) ferner umfasst: (C1, 3) Gewinnen eines 6-Vektors, der die Bewegung der Bildaufnahmevorrichtung beschreibt, aus einer Beziehung zwischen den zwei aufeinander folgenden Einzelbildern: dem i-ten Einzelbild und dem k-ten Einzelbild, wobei mindestens ein Punkt in der Szene mindestens zwei Pixel mit im Wesentlichen derselben Intensität in den zwei aufeinander folgenden Einzelbildern erzeugt.
  34. Verfahren nach Anspruch 33, das ferner umfasst: (C1, 3, 1) Optimieren des 6-Vektors, der die Bewegung der Bildaufnahmevorrichtung beschreibt.
  35. Verfahren nach Anspruch 33, das ferner umfasst: (C1, 3, 2) Optimieren des 6-Vektors, der die Bewegung der Bildaufnahmevorrichtung beschreibt, durch Lösen eines nicht-linearen Problems kleinster Quadrate für die Beziehung zwischen den zwei aufeinander folgenden Einzelbildern.
  36. Verfahren nach Anspruch 33, das ferner umfasst: (C1, 3, 3) Optimieren eines (6 – n)-Vektors, der eine n-dimensional eingeschränkte Bewegung der Bildaufnahmevorrichtung beschreibt, durch Optimieren der Beziehung zwischen den zwei aufeinander folgenden Einzelbildern; wobei die ganze Zahl n kleiner ist als 6.
  37. Verfahren nach Anspruch 29, wobei der Schritt (C1) ferner umfasst: (C1, 4) Gewinnen eines 6-Vektors, der die Bewegung der Bildaufnahmevorrichtung beschreibt, aus einer Beziehung zwischen den zwei aufeinander folgenden Einzelbildern: dem i-ten Einzelbild und dem k-ten Einzelbild, durch Vergleichen der Tiefendaten für mindestens zwei Pixel: ein erstes Pixel und ein zweites Pixel; wobei sich das erste Pixel im i-ten Einzelbild befindet und wobei sich das zweite Pixel im k-ten Einzelbild befindet.
  38. Verfahren nach Anspruch 37, das ferner umfasst: (C1, 4, 1) Optimieren des 6-Vektors, der die Bewegung der Bildaufnahmevorrichtung beschreibt.
  39. Verfahren nach Anspruch 37, das ferner umfasst: (C1, 4, 2) Optimieren des 6-Vektors, der die Bewegung der Bildaufnahmevorrichtung beschreibt, durch Lösen eines nicht-linearen Problems kleinster Quadrate für die Beziehung zwischen den zwei aufeinander folgenden Einzelbildern.
  40. Verfahren nach Anspruch 38, das ferner umfasst: (C1, 4, 3) Optimieren eines (6 – n)-Vektors, der eine n-dimensional eingeschränkte Bewegung der Bildaufnahmevorrichtung beschreibt, durch Optimieren der Beziehung zwischen den zwei aufeinander folgenden Einzelbildern; wobei die ganze Zahl n kleiner ist als 6.
  41. Verfahren nach Anspruch 29, wobei der Schritt (C1) ferner umfasst: (C1, 5) Gewinnen eines 6-Vektors, der die Bewegung der Bildaufnahmevorrichtung beschreibt, aus einer Beziehung zwischen den zwei aufeinander folgenden Einzelbildern: dem i-ten Einzelbild und dem k-ten Einzelbild, durch Vergleichen der Tiefendaten für mindestens zwei Pixel: ein erstes Pixel und ein zweites Pixel; wobei sich das erste Pixel im i-ten Einzelbild befindet und wobei sich das zweite Pixel im k-ten Einzelbild befindet, und durch Vergleichen von mindestens zwei Pixeln mit im Wesentlichen derselben Intensität in den zwei aufeinander folgenden Einzelbildern.
  42. Verfahren nach Anspruch 41, das ferner umfasst: (C1, 5, 1) Optimieren des 6-Vektors, der die Bewegung der Bildaufnahmevorrichtung beschreibt.
  43. Verfahren nach Anspruch 41, das ferner umfasst: (C1, 5, 2) Optimieren des 6-Vektors, der die Bewegung der Bildaufnahmevorrichtung beschreibt, durch Lösen eines nicht-linearen Problems kleinster Quadrate für die Beziehung zwischen den zwei aufeinander folgenden Einzelbildern.
  44. Verfahren nach Anspruch 41, das ferner umfasst: (C1, 5, 3) Optimieren eines (6 – n)-Vektors, der eine n-dimensional eingeschränkte Bewegung der Bildaufnahmevorrichtung beschreibt, durch Optimieren der Beziehung zwischen den zwei aufeinander folgenden Einzelbildern; wobei die ganze Zahl n kleiner ist als 6.
  45. Vorrichtung zur Bildverfolgung, die umfasst: (A) eine Bildaufnahmevorrichtung, die dazu konfiguriert ist, eine Bildaufnahme einer Szene durchzuführen; und (B) ein Mittel zum Verfolgen der Bewegung der Bildaufnahmevorrichtung durch Analysieren eines Satzes von Bildern.
  46. Vorrichtung nach Anspruch 45, die ferner umfasst: (C) ein Mittel zum Erhalten eines Satzes von Tiefendaten der Szene.
  47. Vorrichtung nach Anspruch 45, wobei das Mittel (B) ferner umfasst: (B1) ein Mittel zum Durchführen einer starren globalen Transformation des Satzes von aufgenommenen Bildern und des Satzes von Szenentiefendaten in einen Satz von 6-Koordinaten-Daten; wobei der Satz von 6-Koordinaten-Daten die Bewegung der Bildaufnahmevorrichtung darstellt.
  48. Vorrichtung nach Anspruch 46; wobei das Mittel (C) ferner umfasst: (C1) ein Vermessungsinstrument, das aus der Gruppe ausgewählt ist, die aus Folgendem besteht: {einem Vermessungssystem eines globalen Navigationssatellitensystems (GNSS); einem Laserebenensystem; und einem Theodoliten}.
  49. Vorrichtung nach Anspruch 46; wobei das Mittel (C) ferner umfasst: (C2) eine Entfernungsmessvorrichtung, die aus der Gruppe ausgewählt ist, die aus Folgendem besteht: einem Punktlaserstrahl; einem Sonar; einem Radar; einem Laserabtaster; und einer Tiefenkamera}.
  50. Gegenstand, der umfasst: ein Speichermedium, auf dem Befehle gespeichert sind, die, wenn sie ausgeführt werden, zu einer Rechenplattform mit der Fähigkeit führen, eine Bildverfolgung einer Bildaufnahmevorrichtung durch Ausführen eines Algorithmus durchzuführen, der ferner umfasst: (A) Speichern eines Satzes von erfassten Bilddaten einer Szene, die durch die Bildaufnahmevorrichtung erhalten werden; und (B) Verfolgen der Bewegung der Bildaufnahmevorrichtung durch Analysieren des Satzes von erfassten Bilddaten.
  51. Verfahren zur Positionsbestimmung auf Bildbasis, das umfasst: (A) Durchführen einer Bildaufzeichnung einer Szene unter Verwendung einer Bildaufnahmevorrichtung; (B) Durchführen einer anfänglichen Bildanalyse, um die Eignung der aufgezeichneten Bilder zu bestimmen; (C) Erhalten eines Satzes von Tiefendaten der Szene durch Vorvermessen der Szene; (D) Verwenden von Szenenverständnistechniken, um ungeeignete Bereiche von Bildern von grob definierten Merkmalen für die Verfolgung zu verwerfen, wobei die grob definierten Merkmale aus der Gruppe ausgewählt sind, die aus Folgendem besteht: Punkten; Darstellungen von Bereichen; und Darstellungen von Konturen; und (E) Verfolgen der Bewegung der Bildaufnahmevorrichtung durch Analysieren eines Satzes von geeignet aufgezeichneten Bildern.
  52. Verfahren nach Anspruch 51, wobei der Schritt (B) ferner umfasst: (B1) Durchführen einer anfänglichen Bildbewertungsanalyse, um herauszufinden, ob ein Satz von aufgezeichneten Bildern für die Oberflächenverfolgung geeignet ist.
  53. Verfahren nach Anspruch 52, wobei der Schritt (B1) ferner umfasst: (B1, 1) Gewinnen von mindestens drei Attributen von mindestens einem aufgezeichneten Bild.
  54. Verfahren nach Anspruch 52, wobei der Schritt (B1) ferner umfasst: (B1, 2) Prüfen der Sättigungsqualität von mindestens einem aufgezeichneten Bild, um zu prüfen, ob ein Bild im Wesentlichen aus einem einzelnen Rot-Grün-Blau-Wert besteht.
  55. Verfahren nach Anspruch 52, wobei der Schritt (B1) ferner umfasst: (B1, 3) Prüfen der Texturgualität von mindestens einem aufgezeichneten Bild.
  56. Verfahren nach Anspruch 52, wobei der Schritt (B1) ferner umfasst: (B1, 4) Prüfen eines Bildkontrasts von mindestens einem aufgezeichneten Bild.
  57. Verfahren nach Anspruch 51, wobei der Schritt (D) ferner umfasst: (D1) Durchführen einer Objekterkennung.
  58. Verfahren nach Anspruch 57, wobei der Schritt (D1) ferner umfasst: (D1, 1) Durchführen einer Gewinnung von spärlichen Merkmalen aus einem aufgezeichneten Bild.
  59. Verfahren nach Anspruch 57, wobei der Schritt (D1) ferner umfasst: (D1, 2) Durchführen einer Zusammengruppierung von benachbarten Merkmalen.
  60. Verfahren nach Anspruch 57, wobei der Schritt (D1) ferner umfasst: (D1, 3) Ableiten einer Objektkategorie von mindestens einer Gruppierung von benachbarten Merkmalen.
  61. Verfahren nach Anspruch 60, wobei der Schritt (D1, 3) ferner umfasst: (D1, 3, 1) Bestimmen der Eignung der abgeleiteten Objektkategorie für die Oberflächenverfolgung.
  62. Verfahren nach Anspruch 51, wobei der Schritt (E) ferner umfasst: (E1) Durchführen einer starren globalen Transformation des Satzes von erfassten geeigneten Bilddaten und des Satzes von Szenentiefendaten in einen Satz von 6-Koordinaten-Daten; wobei der Satz von 6-Koordinaten-Daten die Bewegung der Bildaufnahmevorrichtung darstellt; und wobei der Satz von 6-Koordinaten-Daten eine Oberflächenverfolgungslösung darstellt.
  63. Verfahren nach Anspruch 62, wobei der Schritt (E1) ferner umfasst: (E1, 1) Verwenden eines Satzes von grob definierten Merkmalen, um die Oberflächenverfolgungslösung zu initialisieren.
  64. Verfahren nach Anspruch 63, wobei der Schritt (E1, 1) ferner umfasst: (E1, 1, 1) Erfassen eines Satzes von grob definierten Merkmalen; (E1, 1, 2) Feststellen von Entsprechungen zwischen dem Satz von grob definierten Merkmalen und mindestens zwei ausgewählten Einzelbildern; (E1, 1, 3) Abschätzen der Homographie zwischen den mindestens zwei ausgewählten Einzelbildern unter Verwendung von Parametern des mathematischen RANSAC-Modells; (E1, 1, 4) Ableiten einer anfänglichen Stellung der Bildaufnahmevorrichtung aus der Homographie zwischen den mindestens zwei ausgewählten Einzelbildern; wobei die Stellung der Bildaufnahmevorrichtung Positionskoordinaten der Bildaufnahmevorrichtung und einen Satz von Winkelkoordinaten der Bildaufnahmevorrichtung umfasst; und (E1, 1, 5) Verwenden der abgeleiteten anfänglichen Stellung der Bildaufnahmevorrichtung als anfängliche Lösung für die Oberflächenverfolgungslösung.
  65. Verfahren nach Anspruch 62, wobei der Schritt (E1) ferner umfasst: (E1, 2) Verwenden eines Satzes von grob definierten Merkmalen auf mindestens einer Verfolgungsoberfläche für eine strenge zweidimensionale (strict_2D) Oberflächenverfolgungslösung.
  66. Verfahren nach Anspruch 65, wobei der Schritt (E1, 2) ferner umfasst: (E1, 2, 1) Erfassen eines Satzes von grob definierten Merkmalen auf einer einzelnen Verfolgungsoberfläche; (E1, 2, 2) Auswählen eines Satzes von koplanaren grob definierten Merkmalen unter Verwendung von Parametern des mathematischen RANSAC-Modells; (E1, 2, 3) Feststellen von Entsprechungen zwischen dem Satz von koplanaren grob definierten Merkmalen und mindestens zwei ausgewählten Einzelbildern; (E1, 2, 4) Ableiten einer anfänglichen Stellung der Bildaufnahmevorrichtung aus der Homographie zwischen den mindestens zwei ausgewählten Einzelbildern; (E1, 2, 5) Verwenden der abgeleiteten anfänglichen Stellung der Bildaufnahmevorrichtung als anfängliche Lösung für die strenge zweidimensionale (strict_2D) Oberflächenverfolgungslösung; und (E1, 2, 6) Gruppieren des Satzes von koplanaren Merkmalen und Verwenden eines Bereichs um die Gruppe von koplanaren Merkmalen als Eingabe in die strict_2D-Oberflächenverfolgungslösung.
  67. Verfahren nach Anspruch 62, wobei der Schritt (E1) ferner umfasst: (E1, 3) Verwenden eines Satzes von koplanaren grob definierten Merkmalen auf einer Vielzahl von zweidimensionalen (2D) Verfolgungsoberflächen für eine im Wesentlichen zweidimensionale (sub_2D) Oberflächenverfolgung.
  68. Verfahren nach Anspruch 67, wobei der Schritt (E1, 3) ferner umfasst: (E1, 3, 1) Detektieren eines Satzes von grob definierten Merkmalen auf der Vielzahl von Verfolgungsoberflächen; (E1, 3, 2) Auswählen eines Satzes von koplanaren grob definierten Merkmalen unter Verwendung von Parametern des mathematischen RANSAC-Modells; (E1, 3, 3) Feststellen von Entsprechungen zwischen dem Satz von koplanaren grob definierten Merkmalen und mindestens zwei ausgewählten Einzelbildern; (E1, 3, 4) Ableiten einer anfänglichen Stellung der Bildaufnahmevorrichtung aus der Homographie zwischen den mindestens zwei ausgewählten Einzelbildern; (E1, 3, 5) Verwenden der abgeleiteten anfänglichen Stellung der Bildaufnahmevorrichtung als anfängliche Lösung für eine im Wesentlichen zweidimensionale (sub_2D) Oberflächenverfolgungslösung; und (E1, 3, 6) Auswählen eines lokalen Bereichs um jedes ausgewählte komplanare grob definierte Merkmal, Gruppieren einer Vielzahl der ausgewählten lokalen Bereiche in einen zweidimensionalen (2D) globalen Bereich und Verwenden des globalen 2D-Bereichs als Eingabe in die sub_2D-Oberflächenverfolgungslösung.
  69. Verfahren nach Anspruch 62, wobei der Schritt (E1) ferner umfasst: (E1, 4) Verwenden eines Satzes von grob definierten Merkmalen, die aus einem dreidimensionalen (3D) Bereich gewonnen werden, für eine im Wesentlichen dreidimensionale (sub_3D) Oberflächenverfolgung.
  70. Verfahren nach Anspruch 69, wobei der Schritt (E1, 4) ferner umfasst: (E1, 4, 1) Detektieren eines Satzes von grob definierten Merkmalen auf der 3D-Oberfläche; (E1, 4, 2) Feststellen von Entsprechungen zwischen dem Satz von grob definierten Merkmalen und mindestens zwei ausgewählten Einzelbildern; (E1, 4, 2) Abschätzen der Homographie zwischen den mindestens zwei ausgewählten Einzelbildern; (E1, 4, 4) Ableiten einer anfänglichen Stellung der Bildaufnahmevorrichtung aus der Homographie zwischen den mindestens zwei ausgewählten Einzelbildern; (E1, 4, 5) Verwenden der abgeleiteten anfänglichen Stellung der Bildaufnahmevorrichtung als anfängliche Lösung für die im Wesentlichen dreidimensionale (sub_3D) Oberflächenverfolgungslösung; und (E1, 4, 6) Auswählen eines lokalen Bereichs um jedes ausgewählte grob definierte Merkmal, Gruppieren der Vielzahl der ausgewählten lokalen Bereiche in einen dreidimensionalen (3D) globalen Bereich und Verwenden des globalen 3D-Bereichs als Eingabe in die sub_3D-Oberflächenverfolgungslösung.
DE112010002843T 2009-07-07 2010-07-06 Oberflächenverfolgung auf Bildbasis Pending DE112010002843T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/459,843 2009-07-07
US12/459,843 US8229166B2 (en) 2009-07-07 2009-07-07 Image-based tracking
PCT/US2010/041096 WO2011005783A2 (en) 2009-07-07 2010-07-06 Image-based surface tracking

Publications (1)

Publication Number Publication Date
DE112010002843T5 true DE112010002843T5 (de) 2012-11-29

Family

ID=43427499

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112010002843T Pending DE112010002843T5 (de) 2009-07-07 2010-07-06 Oberflächenverfolgung auf Bildbasis

Country Status (5)

Country Link
US (3) US8229166B2 (de)
JP (1) JP2012533222A (de)
CN (1) CN102577349B (de)
DE (1) DE112010002843T5 (de)
WO (1) WO2011005783A2 (de)

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8229166B2 (en) 2009-07-07 2012-07-24 Trimble Navigation, Ltd Image-based tracking
US8121361B2 (en) 2006-05-19 2012-02-21 The Queen's Medical Center Motion tracking system for real time adaptive imaging and spectroscopy
US9767354B2 (en) 2009-02-10 2017-09-19 Kofax, Inc. Global geographic information retrieval, validation, and normalization
KR101622110B1 (ko) * 2009-08-11 2016-05-18 삼성전자 주식회사 특징점 추출 방법 및 추출 장치, 이를 이용한 영상 기반 위치인식 방법
JP6002126B2 (ja) 2010-06-25 2016-10-05 トリンブル ナビゲーション リミテッドTrimble Navigation Limited 画像ベースの測位のための方法および装置
US8676498B2 (en) * 2010-09-24 2014-03-18 Honeywell International Inc. Camera and inertial measurement unit integration with navigation data feedback for feature tracking
US8803952B2 (en) * 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US9182229B2 (en) 2010-12-23 2015-11-10 Trimble Navigation Limited Enhanced position measurement systems and methods
US10168153B2 (en) 2010-12-23 2019-01-01 Trimble Inc. Enhanced position measurement systems and methods
US9879993B2 (en) 2010-12-23 2018-01-30 Trimble Inc. Enhanced bundle adjustment techniques
EP2474810A1 (de) * 2011-01-11 2012-07-11 Leica Geosystems AG Vermessungsgerät mit einer dynamischen Anzielfunktionalität
US9134127B2 (en) 2011-06-24 2015-09-15 Trimble Navigation Limited Determining tilt angle and tilt direction using image processing
US9109889B2 (en) 2011-06-24 2015-08-18 Trimble Navigation Limited Determining tilt angle and tilt direction using image processing
US9606209B2 (en) 2011-08-26 2017-03-28 Kineticor, Inc. Methods, systems, and devices for intra-scan motion correction
US9171380B2 (en) 2011-12-06 2015-10-27 Microsoft Technology Licensing, Llc Controlling power consumption in object tracking pipeline
US10146795B2 (en) 2012-01-12 2018-12-04 Kofax, Inc. Systems and methods for mobile image capture and processing
TWI492166B (zh) 2012-01-12 2015-07-11 Kofax Inc 行動影像擷取和處理的系統和方法
CN102706275B (zh) * 2012-05-11 2014-10-29 天津大学 基于双图像传感器的空间曲面扫描与重构装置与方法
US9235763B2 (en) 2012-11-26 2016-01-12 Trimble Navigation Limited Integrated aerial photogrammetry surveys
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
WO2014120734A1 (en) 2013-02-01 2014-08-07 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
JP6181388B2 (ja) 2013-03-08 2017-08-16 株式会社トプコン 計測装置
US9208536B2 (en) * 2013-09-27 2015-12-08 Kofax, Inc. Systems and methods for three dimensional geometric reconstruction of captured image data
US9355312B2 (en) 2013-03-13 2016-05-31 Kofax, Inc. Systems and methods for classifying objects in digital images captured using mobile devices
US20140316841A1 (en) 2013-04-23 2014-10-23 Kofax, Inc. Location-based workflows and services
US9247239B2 (en) * 2013-06-20 2016-01-26 Trimble Navigation Limited Use of overlap areas to optimize bundle adjustment
CN104572722B (zh) * 2013-10-21 2018-12-14 联想(北京)有限公司 信息处理方法及电子设备
US9470511B2 (en) 2013-11-12 2016-10-18 Trimble Navigation Limited Point-to-point measurements using a handheld device
US9386235B2 (en) 2013-11-15 2016-07-05 Kofax, Inc. Systems and methods for generating composite images of long documents using mobile video data
US10004462B2 (en) 2014-03-24 2018-06-26 Kineticor, Inc. Systems, methods, and devices for removing prospective motion correction from medical imaging scans
US9311565B2 (en) * 2014-06-16 2016-04-12 Sony Corporation 3D scanning with depth cameras using mesh sculpting
EP3188660A4 (de) 2014-07-23 2018-05-16 Kineticor, Inc. Systeme, vorrichtungen und verfahren zum verfolgen und kompensieren der bewegung von patienten während einer bildgebenden medizinischen abtastung
CN104180818B (zh) * 2014-08-12 2017-08-11 北京理工大学 一种单目视觉里程计算装置
US9760788B2 (en) 2014-10-30 2017-09-12 Kofax, Inc. Mobile document detection and orientation based on reference object characteristics
US9683849B2 (en) 2015-04-01 2017-06-20 Trimble Inc. Vehicle navigation system with adaptive gyroscope bias compensation
US10708571B2 (en) 2015-06-29 2020-07-07 Microsoft Technology Licensing, Llc Video frame processing
US10242285B2 (en) 2015-07-20 2019-03-26 Kofax, Inc. Iterative recognition-guided thresholding and data extraction
CN105076077A (zh) * 2015-07-25 2015-11-25 孟宪胜 一种基于激光成像检测的鱼体识别方法
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
KR102630740B1 (ko) * 2015-08-03 2024-01-29 톰톰 글로벌 콘텐트 비.브이. 위치파악 참조 데이터를 생성하고 사용하는 방법 및 시스템
US10716515B2 (en) 2015-11-23 2020-07-21 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
CN105357707B (zh) * 2015-11-24 2018-12-07 哈尔滨工业大学 基于克里金插值算法的室内分布式移动通信信号覆盖预测方法
US10635909B2 (en) * 2015-12-30 2020-04-28 Texas Instruments Incorporated Vehicle control with efficient iterative triangulation
CN106981050A (zh) * 2016-01-18 2017-07-25 深圳岚锋创视网络科技有限公司 对鱼眼镜头拍摄的图像矫正的方法和装置
CN205898699U (zh) * 2016-03-18 2017-01-18 中铁二院工程集团有限责任公司 悬挂式单轨箱型梁巡检装置
CN107305378A (zh) * 2016-04-20 2017-10-31 上海慧流云计算科技有限公司 一种图像处理追踪物体的机器人及追踪物体的方法
US9638800B1 (en) 2016-11-22 2017-05-02 4Sense, Inc. Passive tracking system
US9720086B1 (en) 2016-11-22 2017-08-01 4Sense, Inc. Thermal- and modulated-light-based passive tracking system
US10845198B2 (en) 2017-03-14 2020-11-24 Trimble Inc. Integrated vision-based and inertial sensor systems for use in vehicle navigation
US10690498B2 (en) * 2017-05-10 2020-06-23 Trimble, Inc. Automatic point layout and staking system
US10586349B2 (en) 2017-08-24 2020-03-10 Trimble Inc. Excavator bucket positioning via mobile device
US10356307B2 (en) * 2017-09-13 2019-07-16 Trw Automotive U.S. Llc Vehicle camera system
US11062176B2 (en) 2017-11-30 2021-07-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach
US10580148B2 (en) * 2017-12-21 2020-03-03 Microsoft Technology Licensing, Llc Graphical coordinate system transform for video frames
CN111047637B (zh) * 2018-10-12 2023-06-27 深圳富联富桂精密工业有限公司 单目测距装置
WO2021080524A1 (en) * 2019-10-23 2021-04-29 Aselsan Elektroni̇k Sanayi̇ Ve Ti̇caret Anoni̇m Şi̇rketi̇ Passive and adaptive focus optimization method for an optical system
US10943360B1 (en) 2019-10-24 2021-03-09 Trimble Inc. Photogrammetric machine measure up
US11536857B2 (en) 2019-12-19 2022-12-27 Trimble Inc. Surface tracking on a survey pole
WO2021127570A1 (en) 2019-12-19 2021-06-24 Trimble, Inc. Surface tracking with multiple cameras on a pole
US11175134B2 (en) 2019-12-19 2021-11-16 Trimble Inc. Surface tracking with multiple cameras on a pole
CN115104075A (zh) 2020-01-28 2022-09-23 拓普康定位系统公司 使用机器视觉对工作机器上的机具进行控制的系统和方法
WO2022036368A1 (en) * 2020-08-12 2022-02-17 Arizona Board Of Regents On Behalf Of The University Of Arizona Imaging human respiratory gas patterns to determine volume, rate and carbon dioxide concentration
CN112161567B (zh) * 2020-09-28 2022-05-03 北京天玛智控科技股份有限公司 一种综采工作面的定位方法及系统
CN113074714B (zh) * 2021-03-01 2022-11-01 河北德冠隆电子科技有限公司 一种基于多数据融合的多态势感知传感器及其处理方法
CN113115208A (zh) * 2021-04-12 2021-07-13 云汉逐影(北京)科技有限公司 一种基于uwb的目标跟踪及目标图像重构技术
WO2023121410A1 (en) * 2021-12-23 2023-06-29 Samsung Electronics Co., Ltd. Intelligent through-obstruction 3d imaging system using uwb electromagnetic sensing for object detection

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0660131A1 (de) * 1993-12-23 1995-06-28 Karl Osen Kamera-Führungssystem
JP4016227B2 (ja) * 1998-01-07 2007-12-05 ソニー株式会社 画像処理装置および方法、並びに記録媒体
US20020164067A1 (en) 2001-05-02 2002-11-07 Synapix Nearest neighbor edge selection from feature tracking
TW529309B (en) * 2001-10-31 2003-04-21 Pixart Imaging Inc Displacement measuring method of image sensor
DE50212936D1 (de) * 2002-10-24 2008-12-04 L 1 Identity Solutions Ag Prüfung von Bildaufnahmen von Personen
US7660623B2 (en) * 2003-01-30 2010-02-09 Medtronic Navigation, Inc. Six degree of freedom alignment display for medical procedures
CA2473963A1 (en) * 2003-07-14 2005-01-14 Sunnybrook And Women's College Health Sciences Centre Optical image-based position tracking for magnetic resonance imaging
US7840253B2 (en) * 2003-10-17 2010-11-23 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US7663689B2 (en) * 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
GB2411532B (en) 2004-02-11 2010-04-28 British Broadcasting Corp Position determination
US7539337B2 (en) * 2005-07-18 2009-05-26 Analogic Corporation Method of and system for splitting compound objects in multi-energy computed tomography images
WO2007050707A2 (en) * 2005-10-27 2007-05-03 Nec Laboratories America, Inc. Video foreground segmentation method
US8229166B2 (en) 2009-07-07 2012-07-24 Trimble Navigation, Ltd Image-based tracking
JP2007322407A (ja) * 2006-06-01 2007-12-13 Beru Techno:Kk 背景を基準とする画像処理による変位、位置、姿勢計測方法
US7924182B2 (en) * 2006-07-21 2011-04-12 Cap Epsilon, Inc. Typeless representation of alphanumeric symbols
JP4800163B2 (ja) * 2006-09-29 2011-10-26 株式会社トプコン 位置測定装置及びその方法
KR100846498B1 (ko) 2006-10-18 2008-07-17 삼성전자주식회사 영상 해석 방법 및 장치, 및 동영상 영역 분할 시스템
US20080101713A1 (en) 2006-10-27 2008-05-01 Edgar Albert D System and method of fisheye image planar projection
US20080181507A1 (en) 2007-01-29 2008-07-31 Intellivision Technologies Corp. Image manipulation for videos and still images
CN101441769A (zh) * 2008-12-11 2009-05-27 上海交通大学 单目摄像机实时视觉定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
www.sick.com

Also Published As

Publication number Publication date
CN102577349B (zh) 2015-09-23
US9710919B2 (en) 2017-07-18
US20120195466A1 (en) 2012-08-02
WO2011005783A3 (en) 2011-02-10
US20160078636A1 (en) 2016-03-17
US20110007939A1 (en) 2011-01-13
JP2012533222A (ja) 2012-12-20
WO2011005783A2 (en) 2011-01-13
CN102577349A (zh) 2012-07-11
US8229166B2 (en) 2012-07-24
WO2011005783A4 (en) 2011-03-31
US9224208B2 (en) 2015-12-29

Similar Documents

Publication Publication Date Title
DE112010002843T5 (de) Oberflächenverfolgung auf Bildbasis
EP3034995B1 (de) Verfahren zum bestimmen eines position- und orientierungsversatzes eines geodätischen vermessungsgeräts und ebensolches vermessungsgerät
Eltner et al. Analysis of different methods for 3D reconstruction of natural surfaces from parallel‐axes UAV images
EP2993450B1 (de) Verfahren und anordnung zur erfassung von akustischen und optischen informationen sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE102013202393B4 (de) Bestimmen von Neigungswinkel und Neigungsrichtung unter Verwendung von Bildverarbeitung
DE19882939C2 (de) Verfahren zum Bestimmen der relativen Kameraorientierungsposition, um sichtbare 3-D-Bilder zu erzeugen
EP1836455B1 (de) Verfahren und geodätisches gerät zur vermessung wenigstens eines zieles
DE102018108027B4 (de) Objekterfassungsvorrichtung
DE102017214377A1 (de) Verwendung eines zweidimensionalen scanners zum beschleunigen der registrierung von dreidimensionalen scan-daten
DE112016005865T5 (de) Automatische Bereichssteuerung für Tiefenkamera mit aktiver Beleuchtung
DE112010000019T5 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE112014007231T5 (de) Verwendung eines zweidimensionalen Scanners zur Beschleunigung der Registrierung von dreidimensionalen Scandaten
EP2886043A1 (de) Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten
DE102004033114A1 (de) Verfahren zur Kalibrierung eines Abstandsbildsensors
DE102016111239A1 (de) Verfahren zum Erzeugen von 3D-Daten eines Objekts
DE102017109039A1 (de) Verfahren zur Kalibrierung einer Kamera und eines Laserscanners
DE112016006213T5 (de) System und Verfahren zum Fusionieren von Ausgängen von Sensoren, die unterschiedliche Auflösungen aufweisen
DE102016111238A1 (de) Abtastvorrichtung zum Abtasten vom Grund von Gewässern und Verfahren zum Erzeugen von Unterwasserkarten
DE102009040468A1 (de) Tragbare mobile Erfassungseinrichtung und Verfahren zur dreidimensionalen geometrischen Erfassung einer Umgebung
DE102019120561A1 (de) System und verfahren zur automatischen relokalisierung und automatischen angleichung vorhandener nichtdigitaler grundrisspläne
DE102021114078A1 (de) Detektieren dreidimensionaler Strukturmodelle zur Laufzeit in Fahrzeugen
Mandlburger A case study on through-water dense image matching
DE112020004829T5 (de) Verfahren, system und vorrichtung zur mobilen vermessung
CN114782556B (zh) 相机与激光雷达的配准方法、系统及存储介质
DE102017200303A1 (de) Digitale kartierung von strassenmarkierungen

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20140710

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009000000

Ipc: G06V0010000000

R016 Response to examination communication