DE102014102727B3 - Kamerabasierter Positionssensor und Verfahren zur Positionsbestimmung - Google Patents

Kamerabasierter Positionssensor und Verfahren zur Positionsbestimmung Download PDF

Info

Publication number
DE102014102727B3
DE102014102727B3 DE102014102727.2A DE102014102727A DE102014102727B3 DE 102014102727 B3 DE102014102727 B3 DE 102014102727B3 DE 102014102727 A DE102014102727 A DE 102014102727A DE 102014102727 B3 DE102014102727 B3 DE 102014102727B3
Authority
DE
Germany
Prior art keywords
image data
camera
data
position data
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102014102727.2A
Other languages
English (en)
Inventor
Lars Geißler
Raanan Weber
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102014102727.2A priority Critical patent/DE102014102727B3/de
Application granted granted Critical
Publication of DE102014102727B3 publication Critical patent/DE102014102727B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras

Abstract

Die vorliegende Erfindung betrifft ein Verfahren und einen Positionssensor zur kontinuierlichen Bestimmung einer Position des Positionssensors entlang einer Bahnkurve in einem Raum, wobei zunächst eine erste Position als eine Referenzposition verwendet wird und durch einen Inertialsensor und einen Integrator eine Positionsabweichung von der Referenzposition und damit die Position bestimmt wird; wobei zusätzlich eine Kamera starr mit dem Inertialsensor verbunden ist, mit der dreidimensionale erste Bilddaten eines Raumprofils von der ersten Position aus erzeugt werden; wobei eine Überschreitung einer Schwelle durch die Positionsabweichung erkannt und daraufhin zweite Bilddaten erzeugt werden, die mit den ersten Bilddaten einen gemeinsamen Teil des Raumprofils umfassen, wobei durch eine Bildverarbeitung aus den ersten und zweiten Bilddaten eine genaue Positionsveränderung zur Referenzposition und somit eine genaue zweite Position bestimmt werden; worauf die genaue zweite Position als neue Referenzposition abgespeichert und verwendet und der Integrator auf null gesetzt wird, um so die Position immer wieder aufs Neue korrigiert zu bestimmen.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und einen Positionssensor zur Bestimmung einer Position des Positionssensors in einem zwei- oder dreidimensionalen Raum durch Auswertung eines Inertialsensors, wobei die Auswertung repetitiv durch ein genaueres, kamerabasiertes Verfahren korrigiert wird.
  • Zur Positionsbestimmung des Positionssensors hinsichtlich seiner Lage und/oder seiner Ausrichtung in Bezug auf eine Referenzposition in dem zwei oder dreidimensionalen Raum ist beispielsweise ein Verfahren bekannt, bei dem Beschleunigungssignale des Inertialsensors von der Referenzposition aus zweifach integriert werden, um dadurch eine aktuelle Position zu bestimmen. Bevorzugt umfasst der Inertialsensor dabei Beschleunigungssensoren für orthogonale translatorische Bewegungsbeschleunigungen, aus denen sich entsprechend translatorische Verschiebungen bestimmen lassen. Bevorzugt umfasst der Inertialsensor zudem auch Gyroskopsensoren für rotatorische Beschleunigungen, aus denen sich entsprechend Drehbewegungen bestimmenlassen. Das Positionssignal ist daher bevorzugt ein Vektor aus 1–6 Freiheitsgraden. Zusammenfassend wird ein Inertialsensor mit Integratoreinheit, um Positionssignale und/oder Drehwinkel auszugeben, auch als „inertial measurement unit”, kurz IMU bezeichnet. In der weiteren Beschreibung kann das Positionssignal, um eine Ausdrucksweise knapp zu halten, auch Drehwinkel umfassen, ohne dies expressis verbis zu nennen.
  • Problematisch bei einer Auswertung des Inertialsensor sind neben einem Rauschen vor allem ein Offset und ein Drift des Inertialsensor und die darauffolgende Integration, die zweifach ausgeführt wird. Dadurch stellt sich ein mit der Zeit anwachsender Meßfehler ein. Bei kostengünstigen und kleinen Inertialsensoren liegen ein nicht vernachlässigbarer Offset und Drift vor, so dass ein auf diese Weise bestimmtes Positionssignal nach kurzer Zeit oder in 1–10 Sekunden unbrauchbar wird. Um diesen physikalischen Gegebenheiten Rechnung zu tragen, wird das so bestimmte aktuelle Positionssignal zeitweise korrigiert.
  • Bei Fahrzeugen wird für eine Positionsbestimmung für eine Fahrzeugnavigation in erster Linie ein GPS Sensor (General Positioning Sensor) verwendet. Falls dabei ein GPS-Empfangssignal jedoch beispielsweise in einem Tunnel verloren geht, kann über einen Inertialsensor die Position ergänzend weiterbestimmt werden, bis das GPS-Signal wieder empfangen wird. So kann über große Distanzen durch das GPS-Signal eine genaue Position bestimmt werden, wobei sich über kürzere Distanzen über die Beschleunigungssignale des Inertialsensors beholfen werden kann. Für Kurvenberechnungen werden im KFZ nur die Beschleunigungssignale des Inertialsensors verwendet.
  • Falls für eine Positionsbestimmung über längere Zeiten oder Wege kein GPS Signal zur Korrektur zur Verfügung steht, wie beispielsweise in vielen Räumen oder in Häusern, muss eine andere Lösung gefunden werden.
  • Daher besteht eine Aufgabe der Erfindung, um die Nachteile aus dem Stand der Technik zu beseitigen, in der Bereitstellung eines Verfahrens und eines Positionssensors zur Bestimmung einer aktuellen Position des Positionssensors entlang einer Bewegungskurve in einem Raum, wobei die jeweils aktuelle Position über möglichst weite Bewegungskuren mit sowohl schnellen als auch langsamen Bewegungen, über eine lange Zeit hinweg, ohne GPS-Unterstützung und mit einem möglichst kleinen Messfehler messbar sein soll. Eine dafür notwendige Rechenleistung und ein Speicherbedarf sollen auch möglichst klein sein.
  • Die vorstehenden Aufgaben sowie weitere der Beschreibung zu entnehmende Aufgaben werden von einem Positionssensor und einem Verfahren zur Positionsbestimmung gemäß den Merkmalen der unabhängigen Ansprüche 1 bzw. 5 gelöst. Weitere vorteilhafte Ausführungsformen der Erfindung sind in den jeweils abhängigen Ansprüchen angegeben.
  • Das erfindungsgemäße Verfahren zur Positionsbestimmung eines Positionssensors in einem Raum erfolgt im Wesentlichen durch Bestimmung der Position durch eine Auswertung von Inertialsensorsignalen, aus denen ein Relativpositionssignal bestimmt wird, durch vektorielle Addition des Relativpositionssignals mit einer Referenzposition, und durch ein repetitives Korrekturerfahren. Das repetitive Korrekturerfahren korrigiert dabei einen Messfehler, der durch eine Drift oder einen Offset des Inertialsensors zwangsläufig erzeugt wird. Erfindungsgemäß besteht das repetitive Korrekturerfahren in einem kamerabasierten Messverfahren, mit dem repetitiv die Referenzposition von neuem bestimmt und dabei der Integrator oder die Integralfunktion für das Relativpositionssignal auf null gesetzt wird. Durch das kamerabasierte Messverfahren kann die jeweilige Referenzposition auch über eine längere Zeit genau bestimmt werden. Dadurch kann die aktuelle Position sowohl sehr schnell und wenig rechenintensiv bestimmt werden, und es wird sichergestellt, dass die Positionsbestimmung repetitiv korrigiert wird, um eine genügende Genauigkeit der Positionsbestimmung immer wieder herzustellen.
  • Die Auswertung der Inertialsensorsignale ist durch eine zweifache Integration oder einfach ausgedrückt durch eine Integration sehr einfach und wenig rechenintensiv möglich. Dies macht den Einsatz auch in mobilen, akkubetriebenen Geräten möglich.
  • Das repetitive Korrekturverfahren ist erfindungsgemäß kamerabasiert und benötigt weder GPS noch sonstige zu installierende Messmittel. Dadurch ist das erfindungsgemäße, kamerabasierte Korrekturverfahren sehr universell und in unbekannten Räumen ohne Anbringen von Referenzmarken anwendbar. Eine Kombination des Inertialsensors mit einer 3D-Kamera oder zwei 2D-Kameramodulen für eine 3D-Raumauswertung ist ebenso einfach vornehmbar und selbst schon in einigen Mobilfunkgeräten verfügbar. Da in 3D-Räumen fast immer Wände, Kanten oder Gegenstände vorhanden sind, die durch die 3D-Kamera aufgenommen werden, ist diese Art des kamerabasierten Korrekturverfahrens unproblematisch, sehr universell und kostengünstig.
  • Indem die Relativpositionsdaten des Inertialsensorsignals oder genauer der Inertialsensor-Einheit zu einer Schwellwertanalyse verwendet werden, kann auf einfache und wenig rechenintensive Weise abgeschätzt werden, welcher Fehler sich maximal eingestellt haben könnte. So lässt sich das Korrekturverfahren, das rechenintensiver als die Auswertung der Inertialsensor-Signale und der Schwellwertanalyse ist, einfach und rechenkostensparend ansteuern.
  • Bevorzugt erfolgt die Schwellwertanalyse dabei über eine resultierende Länge der vektoriellen Relativposition. Ebenso bevorzugt kann die Schwellwertanalyse über jede einzelne vektorielle Dimension der vektoriellen Relativposition oder über Teile davon erfolgen.
  • Bevorzugt wird das erfindungsgemäße Positionsbestimmungsverfahren und ein entsprechender Positionssensor zu einer kamerabasierten Erfassung von 3D-Räumen angewendet, bei der eine Vielzahl von Bilddaten gespeichert werden, um sie bevorzugt anschließend aneinanderzureihen und zusammenzusetzen, auch als Stitching bekannt. Dabei soll die Vielzahl der Bilddaten, die bevorzugt 3D-Bilddaten sind, natürlich so klein wie möglich gehalten werden können. Um eine optimierte Vielzahl, also so wenig wie möglich Bilddaten, abspeichern zu brauchen, sollten bevorzugt dann neue Bilddaten erfasst und abgespeichert werden, wenn ein Überlappungsbereich aufeinanderfolgender Bilder eine vorbestimmte Grenze unterschreitet. Dabei könnte der Überlappungsbereich von einem zuvor abgespeicherten Bild und einem gerade aktuellen Bild einer Video-Sequenz sicherlich durch eine Bildverarbeitung bestimmt werden; dies wäre jedoch extrem rechenintensiv und dementsprechend stromverbrauchend und stößt schnell an Verarbeitungsgrenzen. Hierfür ist das erfindungsgemäße Positionsbestimmungsverfahren prädestiniert, da bei der Auswertung der Inertialsensor-Signale nur relativ sehr wenig Rechenleistung notwendig ist, um einen Überlappungsbereich oder Überlappungsgrad gut schätzen zu können. Wenn der Überlappungsgrad oder die resultierende Vektorlänge oder ein oder mehrere Drehwinkel des Positionssensor den Schwellwert übersteigen, dann kann bevorzugt ein neues 3D-Bild erfasst und abgespeichert werden. Alternativ können dabei auch nach der Bestimmung der neuen Referenzposition nur 2D-Bilddaten für ein Stiching abgespeichert werden. So brauchen bevorzugt durch das erfindungsgemäße Positionsbestimmungsverfahren optimiert wenig Bilddaten abgespeichert werden, um eine Rekonstruktion oder Übermittlung eines Raumes schrittweise vornehmen zu können. Gerade auch bei einer Funkübertrag, bei der eine Datenübertragungsrate begrenzt ist, ist das erfindungsgemäße Positionsbestimmungsverfahren für die Bildübertragung der Raumdaten sehr vorteilhaft. Mit anderen Worten ist es unter Anwendung des erfindungsgemäßen Positionsbestimmungsverfahrens möglich, die Menge der Bilddaten drastisch zu reduzieren, die notwendig sind, um einen Raum durch ein Aneinanderheften (Stitching) der Bilddaten zu rekonstruieren. Der dabei reduzierte Rechenaufwand im Vergleich zu einem rein bildbasierten Verfahren ist erheblich und trägt zu einer längeren Batteriebetriebszeit bei.
  • Besonders vorteilhaft ist auch ein Einbringen oder Positionieren von Referenzmarkern oder Gegenständen in dem Raum während der Positionssensor entlang der Bewegungsbahn bewegt wird. Dadurch kann das Positionsbestimmungsmittel die zweite oder n-te Position selbst bei einem ansonsten nur sehr undeutlichen Raumprofil, wie es beispielsweise bei weit entfernten Wänden oder bei Nebel der Fall ist, Durch eine Erkennung der Referenzmarker oder Gegenstände bestimmen.
  • Durch die Kombination der Auswertung des Inertialsensors für die Positionsbestimmung und der kamerabasierten Positionsbestimmung lassen sich sowohl sehr schnelle Bewegungsbahnen, die durch das kamerabasierte Verfahren nicht verfolgt werden könnten, als auch langsame Bewegungsbahnen über längere Zelten hinweg sehr genau bestimmen oder messen.
  • Weitere Vorteile sind in der detaillierten Beschreibung und in den Ansprüchen beschrieben.
  • Eine bevorzugte Ausführungsform gemäß der vorliegenden Erfindung ist in nachfolgenden Zeichnungen und in einer detaillierten Beschreibung dargestellt, soll aber die vorliegende Erfindung nicht darauf begrenzen.
  • Es zeigen
  • 1 einen 3D-Raum, der zweidimensional dargestellt ist, mit eingezeichneten Bildausschnitten von Aufnahmebereichen einer 3D-Kamera, die entlang einer Bewegungskurve über verschiedene Positionen hinweg bewegt wird;
  • 2 im oberen Teil eine Zeitachse mit einer Video-Bilddatensequenz, wobei die ausgefüllt markierten Bilddaten als Referenzbilddaten verwendet werden; im mittleren Teil eine aus Beschleunigungssignalen bestimmte betragsmäßige Relativposition zu den jeweiligen Referenzbilddaten des oberen Teils der Abbildung, wobei zu markierten Zeitpunkten jeweils eine Schwelle überschritten, neue Referenzbilddaten zur Berechnung der Relativposition ausgewählt werden; und im unteren Teil eine tatsächliche und eine bestimmte Bewegungskurve, die zu den Zeitpunkten repetitiv korrigiert wird, dargestellt ist;
  • 3 einen bevorzugten Positionssensor mit einer Inertialsensor-Einheit und einem Datenflussdiagramm zu einer Bestimmung einer Position des Positionssensors basierend auf Referenzpositionsdaten und Relativpositionsdaten der Inertialsensor-Einheit. Dabei werden bei einer Überschreitung eines Schwellwerts durch die Relativpositionsdaten die Referenzpositionsdaten aus dabei erfassten und verarbeiteten Bilddaten erneuert und die Relativpositionsdaten gleichzeitig auf null gesetzt;
  • 4 einen bevorzugten zu 3 ähnlichen Positionssensor, bei dem die Kamera für die Erfassung der Bilddaten angesteuert wird;
  • 5 einen bevorzugten zu 4 ähnlichen Positionssensor, bei dem zusätzlich der Schwellwert aus den zuletzt gewonnenen Bilddaten bestimmt wird;
  • 6 ein bevorzugtes System mit einem bevorzugten Positionssensor, bei dem die Bilddaten über eine Funkstrecke zu einer Empfangsstation übermittelt werden;
  • 7 ein schematische Darstellung für ein bevorzugtes Zusammenfügen der verschiedenen 3D-Bilddaten zu einem größeren Raum-Bild.
  • Detaillierte Beschreibung eines Ausführungsbeispiels
  • 1 zeigt im unteren Bild eine bevorzugte Ausführungsform des Positionssensors, der im Wesentlichen einen Inertialsensor, eine Kamera und eine Recheneinheit umfasst. Die Kamera ist mit dem Inertialsensor starr verbunden und ist in der vorliegenden Ausführungsform eine 3D-Kamera. Der Positionssensor ist dabei ausgebildet, seine eigene Position in einem Raum mit N-Dimensionen zu bestimmen und als Positionsdaten Pos(t) auszugeben. Im abgebildeten Beispiel soll es sich um einen Volumenraum handeln, bei dem der Raum N = 3 Dimensionen hat. Unter dem Raum wird der Raum verstanden, der den Positionssensor umgibt und in dem der Positionssensor entlang einer Bewegungsbahn bewegt wird. Beispielsweise wird der Positionssensor durch eine Wohnung von Zimmer zu Zimmer bewegt, wobei die Wohnung mit den Zimmern, den Wänden, Decken und Oberflächen von Gegenständen darin dann den Raum darstellt.
  • In dem dreidimensionalen Raum misst der Inertialsensor drei translatorische Beschleunigungen Ax, Ay Az in Richtung von Koordinatenachsen x, y, z, die den Raum bestimmen und die bevorzugt orthogonal aufeinander stehen. Bevorzugt misst der Inertialsensor dabei auch drei Drehwinkelbeschleunigungen Gx, Gy, Gz, auch rotatorische Beschleunigungen genannt, durch beispielsweise einen integrierten Gyroskopsensor. Im abgebildeten Beispiel werden also die drei translatorische Beschleunigungen Ax, Ay und Az und zusätzlich drei Drehwinkelbeschleunigungen Gx, Gy, Gz gemessen und deren Beschleunigungssignale, oder auch Inertialsensordaten genannt, einem Integrator oder einer Integralfunktion zugeführt. Der Integrator oder bevorzugt die Integralfunktion auf einer Recheneinheit verarbeitet die Beschleunigungssignale zu Wegsignalen oder Winkelsignalen durch eine zweifache Integration. Zu einer Bestimmung der aktuellen Positionsdaten Pos(t) des Inertialsensors werden allgemein bekannte mathematische Verfahren zugrunde gelegt, mit denen ausgehend von einer Start- oder Referenzposition RPos, einem Startzeitpunkt und einer Anfangsgeschwindigkeit in der Startposition eine Relativposition dPos(t) zur Startposition bestimmt werden kann. Die Startposition ist dabei gleichbedeutend mit einer Referenzposition RPos, ab der eine Bahnkurve, oder auch Bewegungskurve genannt, durch die Beschleunigungssignale bestimmt wird. Die jeweiligen Positionsdaten Pos(t) bestimmen sich aus einer vektoriellen Addition der Referenzpositionsdaten RPos und der Relativpositionsdaten dPos(t), die durch die Beschleunigungssignale bestimmt werden. Die Bestimmung und Auswertung der Drehwinkelbeschleunigungen Gx, Gy, Gz sind bekanntlich dann notwendig, falls dem Positionssensor alle Freiheitsgrade in einer Bewegung und Drehung oder Ausrichtung im Raum beigemessen werden sollen. Auf diese Weise kann ausgehend von einer ersten Position Pos1, die als die Referenzposition verwendet wird, und zu einem ersten Zeitpunkt t1 bis zu einer zweiten Position Pos2 zu einer zweiten Zeitpunkt t2 über die Auswertung der Beschleunigungssignale die Relativposition dPos(t) und die Position Pos(t) bestimmt werden.
  • Erfindungsgemäß ist die Bestimmung der Positionsdaten Pos(t) ergänzt durch die Kamera und ein Positionsbestimmungsmittel BV, das eine kamerabasierte Bildverarbeitung ausführt. Die Kamera ist starr mit dem Inertialsensor gekoppelt. In der abgebildeten, bevorzugten Ausführungsform zur Positionsbestimmung in dem dreidimensionalen Raum ist die Kamera eine 3D-Kamera. Dabei besteht die Kamera bevorzugt aus zwei CCD-Chip-Kameramodulen, die in einem vorbestimmten Abstand zu einander angeordnet sind, um nach bekannten Prinzipien eine dreidimensionale Raumrekonstruktion oder ein Raumprofil mit dessen Oberflächen berechnen zu können. Die Kamera kann ebenso beispielsweise aus einem oder mehreren 3D-Triangulationssensoren bestehen, über die sich das Raumprofil bestimmen lässt. Andere Kameras, wie beispielsweise 3D-Wärmebildkameras oder Kameras, die auf eine bestimmte Wellenlänge hin empfindlich sind, sind dabei ebenso denkbar. Dabei erzeugt die Kamera Bilddaten BD, die im vorliegenden Beispiel 3D-Bilddaten sind. Die Bilddaten enthalten das Raumprofil mit den Oberflächendaten des Raumes, in dem der Positionssensor bewegt wird. Zur Klarheit soll an dieser Stelle gesagt werden, dass jeweilige Bilddaten äquivalent zu jeweiligen Bilddaten an einer jeweiligen Position und beispielsweise erste Bilddaten äquivalent zu den Bilddaten an der ersten Position und Referenzpositionsbilddaten äquivalent zu Bilddaten an der Referenzposition oder von der Referenzposition aus sind.
  • Indem mit der Kamera an der ersten Position Pos1 erste Bilddaten BD1 und an der zweiten Position Pos2 zweite Bilddaten BD2 erfasst werden, kann, wenn in den ersten Bilddaten BD1 und in den zweite Bilddaten BD2 ein gemeinsamer Teil des Raumprofils abgebildet ist, eine Positionsveränderung der Kamera bestimmt werden. Die Positionsveränderung der Kamera ist dabei eine Änderung der zweiten Position Pos2 in Bezug auf die erste Position Pos1. Ein bekanntes Verfahren für die Bildverarbeitung, um die Positionsveränderung zu bestimmen, besteht darin, einen gemeinsamen Teil des Raumprofils der ersten BD1 und der zweiten Bilddaten BD2 optimal zu korrelieren und dabei eine Verschiebung und eine Verdrehung zu bestimmen. Dabei muss der gemeinsame Teil des Raumprofils natürlich statisch sein. Bevorzugt wird von dem Bildverarbeitungsverfahren das gemeinsame Raumprofil erkannt und optimal zur Überlagerung gebracht, um dabei die Verschiebung und Verdrehung zu bestimmen. Als ein solches Bildverarbeitungsverfahren ist beispielsweise das Verfahren „Iterative Closest Point (ICP)” bekannt. Andere Bildverarbeitungsverfahren, um die Verschiebung und Verdrehung zu bestimmen, sind ebenso denkbar und können zur Bestimmung der Positionsveränderung angewendet werden. Die Verschiebung und Verdrehung wird auch als Transformation bezeichnet. Dabei werden zweite kamerabasierte Positionsdaten durch eine vektorielle Addition der ersten Positionsdaten der ersten Position Pos1 und der kamerabasierten Positionsveränderung berechnet. Bevorzugt können in den Raum auch zusätzliche Referenzelemente oder Gegenstände eingebracht werden, die sich gut erkennen und von der Bildverarbeitung auswerten lassen. Bevorzugt können die Referenzelemente oder Gegenstände eine bestimmte Farbe oder auch eine Beleuchtung aufweisen, um diese durch die Bildverarbeitung möglichst gut wieder zu erkennen.
  • Nachdem die zweiten kamerabasierten Positionsdaten der zweiten Position Pos2, wie oben erläutert, kamerabasiert bestimmt worden sind, werden die zweiten kamerabasierten Positionsdaten als neue Referenzpositionsdaten RPos abgespeichert. Gleichzeitig wird der Integrator für die Inertialsensorsignale auf null gesetzt und die neuen Referenzpositionsdaten RPos für eine weitere Bestimmung der Position Pos(t) verwendet. Somit werden Fehler durch einen Offset oder eine Drift des Inertialsensors, die sich bis zum zweiten Zeitpunkt t2 aufsummiert haben, ab dem zweiten Zeitpunkt gelöscht oder korrigiert. Somit werden die Fehler durch den Offset oder die Drift des Inertialsensors nicht über ein vorbestimmtes Maß aufsummiert oder verschleppt. Eine durch das Inertialsensorsignal in der zweiten Position bestimmte Geschwindigkeit des Positionssensors wird bevorzugt weiter berücksichtigt in der Bestimmung der Relativposition dPos(t).
  • In 1 im oberen Teil der Abbildung stelle man sich einen dreidimensionaler Raum abgebildet vor, in dem der Positionssensor mit der Kamera und dem Inertialsensor auf der Bahnkurve Pos(t) entlang bewegt wird. Dabei werden die Inertialsensordaten und die Bilddaten BD erfasst. Von der ersten Position Pos1 wird dabei ein erster Bildausschnitt 1, von einer zweiten Position Pos2 ein zweiter Bildausschnitt 2 und von einer dritten Position Pos3 ein dritter Bildausschnitt 3 mit einem jeweiligen Teil eines Raumprofils erfasst. Dabei bevorzugt vorliegende, im Wesentlichen pyramidenstumpfartige dreidimensionaler Bildausschnitte sind nicht grafisch dargestellt und müssen angenommen werden. Dabei umfasst der erste Bildausschnitt 1 und der zweite Bildausschnitt 2, als auch der zweite Bildausschnitt 2 und der dritte Bildausschnitt 3 jeweils einen anderen gemeinsamen Teil des Raumprofils. Unter dem Raumprofil ist zumindest ein statisches Raumprofil zu verstehen, da sich nur bei dem statischen Raumprofil eine Verschiebung des Positionssensors bestimmen lässt. Dabei kann sich zusätzlich ein dynamisches Raumprofil überlagern, wenn sich beispielsweise eine Person durch den Raum bewegt. Die Bildverarbeitung zur Bestimmung der Positionsveränderung ausgehend von dem ersten und dem zweiten Bilddaten ist dabei bevorzugt ausgebildet, indem im Wesentlichen nur der statische Teil des Raumprofils zu Bestimmung Positionsveränderung beiträgt.
  • In 2 ist im oberen Teil der Abbildung eine Sequenz von Bilddaten BD über der Zeit t und im mittleren Teil der Abbildung ein Betrag der Relativpositionsdaten dPos(t) und im unteren Teil der Abbildung die tatsächliche Bahnkurve aPos(t) und eine ermittelte Position gemäß der Positionsdaten Pos(t) des Positionssensors dargestellt. Dabei soll dargestellt werden, dass zu einem ersten Zeitpunkt t1 die ersten Bilddaten BD1 erfasst und abgespeichert werden, worauf die Relativpositionsdaten dPos(t) ermittelt werden. Mit einem Schwellwertentscheider werden die Relativpositionsdaten dPos(t) analysiert, wobei, wenn ein vorbestimmter Schwellwert überschritten wird, ein Steuersignal Trig ausgelöst wird. Das Steuersignal Trig verursacht, dass die zweiten Bilddaten BD2 erfasst und abgespeichert werden, und dass zugleich der Integrator für die Bestimmung der Relativpositionsdaten dPos(t) auf null gesetzt wird. Zugleich wird zum zweiten Zeitpunkt t2 auch die Bildverarbeitung gestartet, um die zweiten Positionsdaten zu ermitteln und als neue Referenzdaten RPos ab dem zweiten Zeitpunkt t2 zu verwenden. Wenn der Schwellwert durch die Relativpositionsdaten dPos(t) zu einem dritten Zeitpunkt t3 erneut überschritten wird, wiederholt sich ein Prozedere, indem das Steuersignal Trig erzeugt und der Integrator auf null gesetzt wird, die dritten Bilddaten BD3 an der dritten Position Pos3 erfasst und abgespeichert werden, aus den zuletzt abgespeicherten dritten Bilddaten BD3 und den vorherigen Bilddaten, die die zweiten Bilddaten BD2 sind, mittels der Bildverarbeitung die dritten Positionsdaten Pos3 ermittelt und als neue Referenzdaten RPos abgespeichert und verwendet werden.
  • Alternativ dazu, dass zum jeweiligen Zeitpunkt der Schwellwertüberschreitung durch die Relativpositionsdaten dPos(t) aus einer Video-Sequenz von Bilddaten die jeweiligen Bilddaten abgespeichert und zur Auswertung durch die Bildverarbeitung verwendet werden, wird die Erfassung der jeweiligen Bilddaten durch das Steuersignal angesteuert. Somit werden also nur dann von der Kamera die jeweiligen Bilddaten erfasst, wenn eine Schwellwertüberschreitung vorliegt, abgesehen vom Startzeitpunkt. Das dient zu einer Stromeinsparung und längeren Betriebszeit mit einem Akku oder einer Batterie.
  • Im unteren Teil des Bildes soll dargestellt werden, wie die ermittelte Position Pos(t) zunehmend mit einer Länge der Bahnkurve und der Zeit von der tatsächlichen Bahnkurve aPos(t) abweicht und zu den Zeitpunkten der Schwellwertüberschreitung, bei denen das Steuersignal erzeugt wird, korrigiert wird. Die Übergangszeiten vor und nach einer Ausführung der Bildverarbeitung sind idealisiert dargestellt, und in Realität wird der Rechenzeit bevorzugt durch entsprechende Zwischenspeicher und eine zeitlich versetzte und parallele Signalverarbeitung Rechnung getragen, was üblich und bekannt ist.
  • ln 3 ist der Aufbau und ein Signalfluss des Positionssensors schematisch dargestellt. Dabei umfasst der Positionssensor eine Inertialsensor-Einheit IMU, die den Inertialsensor und eine Integrator-Einheit IE umfasst. Eingangssignale für die Inertialsensor-Einheit IMU sind die translatorischen Beschleunigungen Axyz und bevorzugt die Drehwinkelbeschleunigungen Gxyz, um über die Integrator-Einheit IE, die die Integralfunktion ausführt, die Relativpositionsdaten dPos(t) zu bestimmen. Ein Reset-Eingang Res bewirkt ein Auf-null-Setzen der Relativpositionsdaten, wobei die vorherrschenden translatorischen und rotatorischen Geschwindigkeiten zum Zeitpunkt des Auf-null-Setzens zur weiteren Berechnung der Relativpositionsdaten dPos(t) bekanntlich beibehalten werden. Bevorzugt können auch Magnetwinkeldaten Mxyz durch einen entsprechenden Magnetsensor und ein Luftdrucksignal in der Inertialsensor-Einheit IMU ausgewertet werden, um die Relativpositionsdaten dPos(t) genauer bestimmen zu können oder um Korrekturen dabei vornehmen zu können. Bevorzugt wird auch ein Temperatursensor zu einer Kompensation von Temperaturdrifts der Inertialsensor-Einheit IMU eingesetzt.
  • Der Schwellwertdetektor SD ist ausgebildet, die Überschreitung des vorbestimmten Schwellwerts SN durch die Relativpositionsdaten dPos(t) zu detektieren und das Steuersignal Trig zu erzeugen. Zur Klarheit soll gesagt werden, dass das Steuersignal sowohl ein physikalisches als auch ein Softwaresteuersignal sein kann, wie beispielsweise ein Interruptsignal oder ein Event-Signal.
  • Bevorzugt erfolgt die Detektion des Überschreitens mindestens eines vorbestimmten Schwellwerts SN, wobei das Steuersignal Trag erzeugt wird. Dabei liegt zu einer Schwellwertdetektion durch den Schwellwertdetektor SD bevorzugt ein Schwellwertvektor vor, dessen Dimensionen oder Komponenten mit den Relativpositionsdaten dPos(t), die ebenfalls vektoriell sind, verglichen werden. Bevorzugt werden durch den Schwellwertdetektor SD die vektoriellen Relativpositionsdaten dPos(t) mit dem vektoriellen Schwellwertvektor Komponente für Komponente verglichen. Bevorzugt wird dabei die Überschreitung des vorbestimmten Schwellwerts detektiert, indem mindestens eine der Komponenten der Relativpositionsdaten dPos(t) die entsprechende Komponente des vektoriellen Schwellwerts SN übersteigt. Dabei werden bevorzugt translatorische Komponenten und/oder Drehungen verglichen und bewertet.
  • Alternativ bevorzugt ist der Schwellwert SN ein Skalar, wobei aus den Relativpositionsdaten dPos(t) ebenfalls ein resultierender Skalarwert berechnet wird und der Skalarwert mit dem Schwellwert SN verglichen wird. Dabei ist der Skalarwert der Relativpositionsdaten dPos(t) bevorzugt eine resultierende Länge des Vektors und eine resultierende Drehung. Alternativ wird der Skalarwert der Relativpositionsdaten dPos(t) bevorzugt als Skalarprodukt über die translatorischen Verschiebungen in x-, y- und z-Richtung in Kombination mit einem Skalarprodukt über die Drehungen um die x-, y- und z-Achse erzeugt und mit dem Schwellwert SN verglichen. Kombinationen dazu sind ebenso denkbar.
  • Bevorzugt kann der Schwellwertdetektor SD auch eine Überschreitung des Schwellwerts detektieren, wenn eine vorbestimmte Zeit überschritten wird. Bevorzugt wird der Schwellwert über die Zeit verändert, indem der Schwellwert über die Zeit herabgesetzt wird. Auf diese Weise können sehr langsame Bewegungsänderungen, die durch den Inertialsensor weniger gut erkannt werden könnten, kamerabasiert erkannt werden.
  • Mit der Überschreitung des Schwellwerts SN ist generell gemeint, dass dabei das Steuersignal Trig erzeugt und der Integrator auf null gesetzt werden.
  • Durch das Steuersignal Trig wird das Positionsbestimmungsmittel BV aktiviert, um die zu diesem Zeitpunkt aktuellen Bilddaten BD zu erfassen, abzuspeichern und die Bildverarbeitung auszuführen. So werden aus den zu diesem Zeitpunkt aktuellen Bilddaten BD zusammen mit den vorherigen, abgespeicherten Bilddaten die kamerabasierte Positionsveränderung und die zweiten oder die weiteren kamerabasierten Positionsdaten bestimmt. Die kamerabasierten zweiten oder weiteren Positionsdaten werden dann als neue Referenzpositionsdaten RPos abgespeichert und zur Bestimmung der Position Pos(t) des Positionssensors verwendet.
  • Allgemein läßt sich das erfindungsgemäße Verfahren zur kontinuierlichen Bestimmung der Positionsdaten Pos(t) zu einem Zeitpunkt t des Positionssensors im N-dimensionalen Raum entlang seiner Bewegungsbahn durch folgende Schritte beschreiben:
    Zum ersten Zeitpunkt t1:
    • – das Bestimmen der ersten Positionsdaten zu der ersten Position Pos1 des Positionssensors und Abspeichern der ersten Positionsdaten als die Referenzpositionsdaten RPos;
    • – das Erfassen der ersten Bilddaten BD1 und Abspeichern in der Recheneinheit, wobei die ersten Bilddaten BD1 mindestens ein statisches Raumprofil abbilden;
    • – das Auf-null-Setzen der Integralfunktion, die aus den Beschleunigungssignalen kontinuierlich die Relativpositionsdaten dPos(t) erzeugt; ab dem ersten Zeitpunkt t1: Kontinuierliches Bestimmen der Relativpositionsdaten (t) als didPos(t) mit der Integralfunktion und Bestimmen der Positionsdaten Pose Vektorsumme aus den Referenzpositionsdaten RPos und den Relativpositionsdaten dPos(t); zu dem nachfolgenden zweiten Zeitpunkt t2:
    • – das Detektieren der Überschreitung des mindestens einen vorbestimmten Schwellwerts SN durch die Relativpositionsdaten dPos(t) und das Ausführen folgender Schritte:
    • – das Erneute Auf-null-Setzen der Integralfunktion;
    • – das Erfassen und Abspeichern der zweiten Bilddaten BD2, die den mindestens einen gemeinsamen Teil des statischen Raumprofils, das auch von den ersten Bilddaten BD1 abgebildet ist, abbilden;
    • – das kamerabasierte Bestimmen der zweiten Positionsdaten zum zweiten Zeitpunkt t2 onsänddurch das Positionsbestimmungsmittel BV, indem die Positierung zwischen den zweiten Positionsdaten in Bezug auf die ersten Positionsdaten durch die Bildverarbeitung ermittelt wird, die die Verschiebung und/oder die Verdrehung des gemeinsamen Teils des statischen Raumprofils der zweiten Bilddaten BD2 in Bezug auf die ersten Bilddaten BD1 bestimmt, und indem die Positionsänderung vektoriell zu den ersten Positionsdaten addiert wird; und Abspeichern der zweiten Positionsdaten als die Referenzpositionsdaten RPos; und und indem nach dem zweiten Zeitpunkt t2 die Relativpositionsdaten dPos(t) mit der Integralfunktion und damit die Positionsdaten Pos(t) weiter bestimmt werden, wobei der Positionssensor den Inertialsensor und die Kamera, die starr miteinander verbunden sind, und die Recheneinheit umfasst.
  • Das Verfahren wird bevorzugt repetitiv fortgesetzt, indem
    zu einem nachfolgenden n-ten Zeitpunkt tn wiederholt die Überschreitung mindestens eines der vorbestimmten Schwellwerte SN durch die Relativpositionsdaten dPos(t) erkannt wird und dabei in analoger Weise ausgeführt wird:
    • – Erneutes Auf-null-Setzen der Integralfunktion;
    • – Erfassen und Abspeichern von n-ten Bilddaten BDn, die zumindest einen gemeinsamen Teil des statischen Raumprofils, das auch von den [n – 1]-ten Bilddaten BD[n – 1] abgebildet ist, abbilden;
    • – das kamerabasiertes Bestimmen der n-ten Positionsdaten zum n-ten Zeitpunkt tn durch das Positionsbestimmungsmittel BV;
    • – Abspeichern der n-ten Positionsdaten als die Referenzpositionsdaten RPos; und indem nach dem n-ten Zeitpunkt tn die Relativpositionsdaten dPos(t) mit der Integralfunktion und damit die Positionsdaten Pos(t) weiter bestimmt werden.
  • Zur Klarheit wird sichergestellt, dass die n-ten Positionsdaten kamerabasierte n-te Positionsdaten zum Zeitpunkt tn sind. Nur zum Zeitpunkt tn stimmen die Positionsdaten Pos(t) mit den kamerabasierten n-ten Positionsdaten überein.
  • In 4 ist eine bevorzugte Ausführungsform des Positionssensors mit einem dazugehörigen Signalflussplans dargestellt, die sich von 3 darin unterscheidet, dass das Erfassen der Bilddaten BD durch die Kamera durch das Steuersignal Trig erfolgt. Es werden dabei also nur dann Bilddaten BD durch die Kamera erfasst, wenn eine Überschreitung des Schwellwerts SN erfolgt ist, wodurch Strom gespart und die Betriebszeit bei einem Akku erhöht wird.
  • In 5 ist eine bevorzugte Ausführungsform des Positionssensors mit einem dazugehörigen Signalflussplans dargestellt, die sich von den vorherigen Ausführungsformen darin unterscheidet, dass der Schwellwert SN von dem Positionsbestimmungsmittel BV berechnet und zum Schwellwertdetektor SD übertragen wird. Dabei werden die Bilddaten zum Zeitpunkt des Steuersignals Trig bevorzugt hinsichtlich einer translatorischen und/oder rotatorischen Bewegungsgeschwindigkeit ausgewertet und der Schwellwert SN als Funktion der Bewegungsgeschwindigkeit bestimmt. Dabei der Schwellwert SN bevorzugt bei einer hohen Geschwindigkeit niedrig und bei einer niedrigeren Geschwindigkeit höher bestimmt.
  • In 6 ist eine bevorzugte Anordnung dargestellt, bei der die Bilddaten BD des Positionssensors von einer Übertragungseinheit UE1 an dem Positionssensor zu einer anderen, entfernten Übertragungseinheit UE2 übertragen werden. Dabei kann beispielsweise eine Person mit dem Positionssensor von Raum zu Raum gehen, wobei die dabei erfassten Bilddaten BD zur anderen Übertragungseinheit UE2 übertragen werden. Bevorzugt werden die Bilddaten BD hinter der anderen Übertragungseinheit zu größeren Bilddaten zusammengesetzt. Verfahren zum Zusammensetzen der Bilddaten BD zu den zusammengesetzten Bilddaten BD-V sind bekannt unter „Stitching”-Verfahren. Bevorzugt wird dazu der Schwellwert SN so bestimmt und verwendet, dass so wenig, wie möglich Bilddaten BD erfasst und übertragen werden, und die Bilddaten BD dennoch ausreichen, möglichst wenig oder nur kleine Lücken in Randbereichen der zusammengesetzten Bilddaten BD-V zu erzielen.
  • 7 zeigt schematisch einen Signalfluss eines Stitching, bei dem die ersten Bilddaten BD1, die zweiten Bilddaten BD2 bis zu weiteren n-ten Bilddaten BDn zu den zusammengesetzten Bilddaten BD-V zusammengesetzt werden.
  • Bei der Bestimmung der Position Pos(t) des Positionssensors in einem dreidimensionalen Raum sind die Bilddaten ebenfalls 3D-Bilddaten.
  • Alternativ kann der Positionssensor auch für eine Bestimmung seiner Position Pos(t) in einem zwei-dimensionalen Raum, wie beispielsweise auf einem Tisch oder in einer Ebene, ausgebildet sein, wobei als der Inertialsensor nur ein zweiachsiger Inertialsensor und als die Kamera nur eine gewöhnliche 2D-Kamera verwendet zu werden braucht. Dementsprechend werden nur zweidimensionale Bilddaten benötigt. Der Inertialsensor und die Kamera mit mehr Achsen oder Dimensionen sind natürlich auch möglich.
  • Bevorzugt umfasst der Positionssensor eine erste und eine zweite Kamera, die starr mit dem Positionssensor verbunden sind, wobei die erste Kamera in eine andere Richtung als die zweite Kamera ausgerichtet ist, wobei beide Kameras N-dimensionale Bilddaten in dem N-dimensionalen Raum erzeugen. Bevorzugt ist die zweite Kamera mit einem Blickwinkel um 180 Grad versetzt zur ersten Kamera ausgerichtet.
  • Dabei werden zum ersten und zum zweiten Zeitpunkt, wenn der Schwellwert SN überschritten ist, Bilddaten von der ersten und von der zweiten Kamera erfasst und abgespeichert. Dabei wird zu einem Zeitpunkt naturgemäß durch die jeweiligen Bilddaten der ersten Kamera ein anderes Raumprofil als von den jeweiligen Bilddaten der zweiten Kamera abgebildet. Das zuvor beschriebene Verfahren wird dabei ergänzt, indem sowohl die zweiten Bilddaten der zweiten Kamera als auch die zweiten Bilddaten der ersten Kamera durch die Bildverarbeitung ausgewertet werden, um jeweils eine Positionsveränderung zu bestimmen. Die beiden ermittelten Positionsveränderungen basierend auf den Bilddaten der ersten Kamera und der zweiten Kamera werden dann zu einer resultierenden Positionsveränderung verarbeitet. Im Idealfall sind beide ermittelte Positionsveränderungen gleich. Falls jedoch die einen Bilddaten der ersten Kamera ein schwieriger zu erkennendes Raumprofil mit einem kleineren Korrelationswert aus der Bildverarbeitung aufweisen als die anderen Bilddaten der zweiten Kamera, so könnte die Positionsveränderung basierend auf den anderen Bilddaten der zweiten Kamera verwendet werden. Eine andere Verarbeitungen zur Auswahl oder Gewichtung der beiden ermittelten Positionsveränderungen, wie beispielsweise eine Mittelwertbildung, ist ebenso denkbar. Die dabei bestimmte resultierende Positionsveränderung wird zur Bestimmung der zweiten Positionsdaten verwendet. Alternativ zu der Bestimmung der resultierenden Positionsveränderung, können auch resultierende zweite Positionsdaten aus zweiten Positionsdaten basierend auf den Bilddaten der ersten Kamera und anderen zweiten Positionsdaten basierend auf den anderen Bilddaten der zweiten Kamera bestimmt werden.
  • Ein bevorzugtes Verfahren zur Bestimmung der Position des Positionssensors umfasst zudem ein Positionieren von Referenzmarkern oder Gegenständen in dem Raum während der Positionssensor entlang seiner Bewegungsbahn bewegt wird. Dabei erfolgt das Positionieren so, dass die Referenzmarker oder Gegenstände in einem Messbereich der Kamera positioniert werden, um diese im gemeinsamen Profil wieder zu erkennen. Bevorzugt weisen die Referenzmarker oder Gegenstände geometrische Formen auf, die durch die Bildverarbeitung leicht erkannt werden können. Bevorzugt weisen die Referenzmarker oder Gegenstände zudem geometrische Formen auf, die stabil in dem Raum liegen bleiben und damit statisch sind. Bevorzugt sind die Referenzmarker oder Gegenstände von innen heraus beleuchtet oder weisen eine Fluoreszenz auf, die mit der Kamera kontrastreich detektierbar ist.
  • Weitere mögliche Ausbildungsformen sind in den folgenden Ansprüchen beschrieben. Insbesondere können auch die verschiedenen Merkmale der oben beschriebenen Ausführungsformen miteinander kombiniert werden, soweit sie sich nicht technisch ausschließen.
  • Die In den Ansprüchen genannten Bezugszeichen dienen der besseren Verständlichkeit, beschränken aber die Ansprüche nicht auf die in den Figuren dargestellten Formen.
  • Bezugszeichenliste
  • 1–3
    Bildausschnitt
    aPos(t)
    tatsächliche Position des Positionssensors zum Zeitpunkt t
    Axyz
    translatorische Beschleunigung
    BD, BD1–BD6
    Bilddaten
    BD-V
    zusammengesetzte Bilddaten
    BV
    Positionsbestimmungsmittel (Bildverarbeitung)
    dPos(t)
    Relativposition zum Zeitpunkt t
    Gxyz
    Drehwinkelbeschleunigung
    Gx
    Drehwinkel um die x-Achse
    Gy
    Drehwinkel um die y-Achse
    Gz
    Drehwinkel um die z-Achse
    IE
    Integrator-Einheit
    IMU
    Inertialsensor-Einheit
    IS
    Inertialsensor
    Mxyz
    Magnetwinkeldaten (zur x-, y-, z-Achse)
    P
    Drucksensordaten
    Pos(t)
    Position des Positionssensors zum Zeitpunkt t
    Pos1–Pos4
    Position
    Res
    Reset
    SD
    Schwellwertdetektor
    SN
    Schwellwert
    t
    Zeitachse
    UE1, UE2
    Übertragungseinheit
    t1–t6
    Zeitpunkt
    Trig
    Steuersignal
    X, y, z
    Koordinatenrichtungen

Claims (13)

  1. Positionssensor zur kontinuierlichen Erzeugung von Positionsdaten (Pos(t)) zu seiner Position in einem N-dimensionalen Raum entlang einer Bewegungsbahn, umfassend: einen Inertialsensor zur Messung von N translatorischen Beschleunigungen in N Richtungen des Positionssensors, wobei der Inertialsensor Inertialsensordaten erzeugt; eine Recheneinheit, die ausgebildet ist, erste Positionsdaten des Positionssensors, die zu einem ersten Zeitpunkt (t1) bestimmt worden sind, abzuspeichern, wobei die Recheneinheit eine Integralfunktion aufweist, die in Bezug auf einen Startzeitpunkt und zu Referenzpositionsdaten (RPos) des Positionssensors aus den Inertialsensordaten Relativpositionsdaten (dPos(t)) des Positionssensors erzeugt, wobei als der Startzeitpunkt zunächst der erste Zeitpunkt (t1) und als die Referenzpositionsdaten (RPos) die ersten Positionsdaten abgespeichert sind; und die Recheneinheit aus den Referenzpositionsdaten (RPos) und den Relativpositionsdaten (dPos(t)) durch Addition die Positionsdaten (Pos(t)) bestimmt; umfasst, das ausgebildet ist, das Steuersignal (Trig) zu empfangen, worauf die einen Schwellwertdetektor (SD), der ausgebildet ist, eine Überschreitung eines vorbestimmten Schwellwerts (SN) durch die Relativpositionsdaten (dPos(t)) zu einem zweiten Zeitpunkt (t2) zu erkennen und daraufhin ein Steuersignal (Trig) zu erzeugen, das die Integralfunktion auf null setzt; eine Kamera, die mit dem Inertialsensor starr verbunden ist und ausgebildet ist, Bilddaten (BD), die N-dimensional sind, von einem umgebenden statischen Raumprofil des Raums zu erzeugen, und dabei erste Bilddaten (BD1) zum ersten Zeitpunkt (t1) zu erzeugen und abzuspeichern und zweite Bilddaten (BD2) zum zweiten Zeitpunkt (t2) zu erzeugen und abzuspeichern; wobei die Recheneinheit ein kamerabasiertes Positionsbestimmungsmittel (BV) umfasst, das ausgebildet ist, das das Steuersignal (Trig) zu empfangen, worauf die zweiten Bilddaten (BD2) und die ersten Bilddaten (BD1) durch eine Bildverarbeitung so ausgewertet werden, dass ein gemeinsamer Teil des statischen Raumprofils ausgewertet und daraus eine kamerabasierte Positionsveränderung der zweiten Bilddaten (BD2) in Bezug auf die ersten Bilddaten (BD1) bestimmt werden; und wobei die Recheneinheit ausgebildet ist, aus der kamerabasierten Positionsveränderung und den ersten Bilddaten (BD1) zweite Positionsdaten zu bestimmen und ab diesem Zeitpunkt als die Referenzpositionsdaten (RPos) abzuspeichern und zur weiteren Bestimmung der Positionsdaten (Pos(t)) anzuwenden.
  2. Positionssensor gemäß Anspruch 1, wobei die Positionsdaten (Pos(t)) translatorische und rotatorische Positionsdaten des Positionssensors und damit eine Ausrichtung des Positionssensors umfassen, wobei der Inertialsensor (IS) ausgebildet ist, translatorische und rotatorische Beschleunigungen zu messen und entsprechende Inertialsensordaten zu erzeugen; die Integralfunktion aus den rotatorischen Beschleunigungen rotatorische Drehungen berechnet, die Teil der Referenzpositionsdaten (RPos) sind, um entsprechend die Position (Pos(t)) zu bestimmen; das kamerabasierte Positionsbestimmungsmittel (BV) ausgebildet ist, eine Verschiebung und Drehung zu berechnen und entsprechend die kamerabasierte Positionsveränderung zu bestimmen; und die Recheneinheit ausgebildet ist, indem sie die zweiten Positionsdaten entsprechend mit rotatorischen Drehwinkelinformationen bestimmt und als die Referenzpositionsdaten (RPos) abspeichert.
  3. Positionssensor gemäß Anspruch 1 oder 2, wobei der Positionssensor ausgebildet ist, indem die Kamera zur Erzeugung der Bilddaten durch das Steuersignal (Trig) angesteuert wird, um nur zum Startzeitpunkt und durch das Steuersignal (Trig) Bilddaten zu erfassen.
  4. Positionssensor gemäß einem der vorstehenden Ansprüche, wobei das kamerabasierte Positionsbestimmungsmittel (BV) und dessen Bildverarbeitung auf dem bekannten Verfahren „iterative closest point” (ICP) basiert, wobei die zweiten Bilddaten durch eine Transformationsmatrix iterativ verändert werden, bis sie optimal korrelierend den ersten Bilddaten entsprechen, wobei die Verschiebung und Verdrehung als die kamerabasierte Positionsveränderung bestimmt wird.
  5. Verfahren zur kontinuierlichen Bestimmung von Positionsdaten (Pos(t)) eines Positionssensors in einem N-dimensionalen Raum entlang seiner Bewegungsbahn, wobei der Positionssensor einen Inertialsensor und eine Kamera, die starr miteinander verbunden sind, und eine Recheneinheit umfasst, und der Inertialsensor Beschleunigungssignale und die Kamera N-dimensionale Bilddaten erzeugen, folgende Schritte umfassend: zu einem ersten Zeitpunkt (t1): Bestimmen von ersten Positionsdaten zu einer ersten Position (Pos1) des Positionssensors und Abspeichern der ersten Positionsdaten als Referenzpositionsdaten (RPos); Auf-null-Setzen einer Integralfunktion, die aus den Beschleunigungssignalen kontinuierlich Relativpositionsdaten (dPos(t)) erzeugt; ab dem ersten Zeitpunkt (t1): Kontinuierliches Bestimmen der Relativpositionsdaten (dPos(t)) mit der Integralfunktion und Bestimmen der Positionsdaten (Pos(t)) als Vektorsumme aus den Referenzpositionsdaten (RPos) und den Relativpositionsdaten (dPos(t)); wobei zum ersten Zeitpunkt (t1) erste Bilddaten (BD1) erfasst und in der Recheneinheit abgespeichert werden, wobei die ersten Bilddaten (BD1) mindestens ein statisches Raumprofil abbilden; zu einem nachfolgenden zweiten Zeitpunkt (t2) eine Überschreitung mindestens eines vorbestimmten Schwellwerts (SN) durch die Relativpositionsdaten (dPos(t)) erkannt wird, wobei folgende Schritte ausgeführt werden: Erneutes Auf-null-Setzen der Integralfunktion; Erfassen und Abspeichern von zweiten Bilddaten (BD2), die zumindest einen gemeinsamen Teil des statischen Raumprofils, das auch von den ersten Bilddaten (BD1) abgebildet ist, abbilden; kamerabasiertes Bestimmen von zweiten Positionsdaten zum zweiten Zeitpunkt (t2) durch ein Positionsbestimmungsmittel (BV), indem eine Positionsänderung zwischen den zweiten Positionsdaten in Bezug auf die ersten Positionsdaten durch eine Bildverarbeitung ermittelt wird, die eine Verschiebung und/oder eine Verdrehung des gemeinsamen Teils des statischen Raumprofils der zweiten Bilddaten (BD2) in Bezug auf die ersten Bilddaten (BD1) bestimmt, und indem die Positionsänderung vektoriell zu den ersten Positionsdaten addiert wird; und Abspeichern der zweiten Positionsdaten als die Referenzpositionsdaten (RPos); und nach dem zweiten Zeitpunkt (t2) die Relativpositionsdaten (dPos(t)) mit der Integralfunktion und damit die Positionsdaten (Pos(t)) weiter bestimmt werden.
  6. Verfahren gemäß Anspruch 5, wobei das Verfahren repetitiv fortgesetzt wird, indem zu einem nachfolgenden n-ten Zeitpunkt (ti + n – 1) wiederholt die Überschreitung mindestens eines der vorbestimmten Schwellwerte (SN) durch die Relativpositionsdaten (dPos(t)) erkannt wird und dabei in analoger Weise ausgeführt wird: – Erneutes Auf-null-Setzen der Integralfunktion; – Erfassen und Abspeichern von n-ten Bilddaten (BDn), die zumindest einen gemeinsamen Teil des statischen Raumprofils, das auch von den [n – 1]-ten Bilddaten (BD[n – 1]) abgebildet ist, abbilden; – kamerabasiertes Bestimmen der n-ten Positionsdaten zum n-ten Zeitpunkt (tn) durch das Positionsbestimmungsmittel (BV); und Abspeichern der n-ten Positionsdaten als die Referenzpositionsdaten (RPos); wobei nach dem n-ten Zeitpunkt (tn) die Relativpositionsdaten (dPos(t)) mit der Integralfunktion und damit die Positionsdaten (Pos(t)) weiter bestimmt werden.
  7. Verfahren gemäß Anspruch 5 oder 6, wobei zum zweiten oder n-ten Zeitpunkt der Überschreitung eines der Schwellwerte (SN) durch die Relativpositionsdaten (dPos(t)) ein Steuersignal (Trig) zum Auslösen der zweiten oder n-ten Bilddaten an die Kamera gesendet wird, um zu diesen Zeitpunkten die Bilddaten (BD) zu erzeugen und abzuspeichern.
  8. Verfahren gemäß einem der vorstehenden Ansprüche 5–7, wobei die Bildverarbeitung auf dem bekannten Verfahren „iterative closest point” (ICP) beruht, um den gemeinsamen Teil des statischen Raumprofils in den zweiten in Bezug auf die ersten Bilddaten oder die n-ten in Bezug auf die [n – 1]-ten Bilddaten zu erkennen und optimal zu korrelieren, um daraus eine Verschiebung und eine Drehung zu bestimmen.
  9. Verfahren gemäß einem oder mehreren der vorstehenden Ansprüche 5–8, wobei der mindestens eine Schwellwert (SN) aus den jeweils erfassten Bilddaten variabel und abhängig von einem gemessenen Abstand und/oder einem Drehwinkel zwischen dem statischen Raumprofil und der Kamera bestimmt wird.
  10. Verfahren gemäß einem oder mehreren der vorstehenden Ansprüche 5–9, wobei der N-dimensinale Raum entweder ein zwei-dimensionaler Raum und die Kamera dementsprechend eine zwei dimensionale oder eine dreidimensionale Kamera ist, oder der Raum ein dreidimensionaler Raum und dementsprechend die Kamera eine dreidimensionale Kamera ist.
  11. Verfahren gemäß einem oder mehreren der vorstehenden Ansprüche 5–10, wobei die Ausführung der Integralfunktion und das Erkennen der Überschreitung des mindestens einen vorbestimmten Schwellwerts (SN) vektoriell erfolgen, und die Erkennung der Überschreitung des mindestens einen vorbestimmten Schwellwerts (SN) so erfolgt, dass die Relativpositionsdaten (dPos(t)), die vektoriell sind, mit einem Schwellwert-Vektor verglichen werden und dabei mindestens eine Überschreitung einer der vektoriellen Schwellwertkomponenten auftritt, oder ein Skalarprodukt als Betrag der Relativpositionsdaten (dPos(t)) einen Schwellwert überschreitet.
  12. Verfahren gemäß einem oder mehreren der vorstehenden Ansprüche 5–11, zudem umfassend: Anordnen und starr mit dem Positionssensor Verbinden einer zweite Kamera, die ebenfalls N-dimensionale Bilddaten aber mit einem anderen Blickwinkel als die erste Kamera erzeugt; zum ersten Zeitpunkt (t1): Erfassen und Abspeichern von ersten Bilddaten der zweiten Kamera, wobei die ersten Bilddaten der zweiten Kamera mindestens ein anderes statisches Raumprofil abbilden; zu einem nachfolgenden zweiten Zeitpunkt (t2): – Erfassen und Abspeichern von zweiten Bilddaten der zweiten Kamera, die zumindest einen gemeinsamen Teil des anderen statischen Raumprofils, das auch von den ersten Bilddaten der zweiten Kamera abgebildet ist, abbilden; – kamerabasiertes Bestimmen von anderen zweiten Positionsdaten zum zweiten Zeitpunkt (t2), indem eine andere Positionsänderung zwischen den anderen zweiten Positionsdaten in Bezug auf die ersten Positionsdaten durch die Bildverarbeitung ermittelt wird, die eine Verschiebung und/oder eine Verdrehung des gemeinsamen Teils des anderen statischen Raumprofils der zweiten Bilddaten der zweiten Kamera in Bezug auf die ersten Bilddaten der zweiten Kamera bestimmt, und indem die andere Positionsänderung vektoriell zu den ersten Positionsdaten addiert wird; Verarbeitung der zweiten Positionsdaten mit den anderen zweiten Positionsdaten durch eine Mittelwertbildung oder ein anderes Verfahren, um dadurch die Genauigkeit der zweiten Positionsdaten zu erhöhen.
  13. Verfahren gemäß einem oder mehreren der vorstehenden Ansprüche 5–12, zudem umfassend: Positionieren von Referenzmarkern oder Gegenständen in dem Raum während der Positionssensor entlang einer Bewegungsbahn bewegt wird, wobei das Positionieren so erfolgt, dass die Referenzmarker oder Gegenstände in einem Messbereich der Kamera positioniert werden, um diese im gemeinsamen Profil wiederzuerkennen.
DE102014102727.2A 2014-02-28 2014-02-28 Kamerabasierter Positionssensor und Verfahren zur Positionsbestimmung Active DE102014102727B3 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014102727.2A DE102014102727B3 (de) 2014-02-28 2014-02-28 Kamerabasierter Positionssensor und Verfahren zur Positionsbestimmung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014102727.2A DE102014102727B3 (de) 2014-02-28 2014-02-28 Kamerabasierter Positionssensor und Verfahren zur Positionsbestimmung

Publications (1)

Publication Number Publication Date
DE102014102727B3 true DE102014102727B3 (de) 2015-07-30

Family

ID=53523179

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014102727.2A Active DE102014102727B3 (de) 2014-02-28 2014-02-28 Kamerabasierter Positionssensor und Verfahren zur Positionsbestimmung

Country Status (1)

Country Link
DE (1) DE102014102727B3 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2337390A (en) * 1998-05-15 1999-11-17 Tricorder Technology Plc Deriving a 3D representation from two or more 2D images
US20080095402A1 (en) * 2006-09-29 2008-04-24 Topcon Corporation Device and method for position measurement
US20110206236A1 (en) * 2010-02-19 2011-08-25 Center Jr Julian L Navigation method and aparatus
US20120114174A1 (en) * 2010-10-11 2012-05-10 Samsung Electronics Co., Ltd. Voxel map generator and method thereof
US20130002854A1 (en) * 2010-09-17 2013-01-03 Certusview Technologies, Llc Marking methods, apparatus and systems including optical flow-based dead reckoning features
DE102013201769A1 (de) * 2013-02-04 2014-08-07 Deutsches Zentrum für Luft- und Raumfahrt e.V. Vermessungsanordnung und Verfahren zur Vermessung

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2337390A (en) * 1998-05-15 1999-11-17 Tricorder Technology Plc Deriving a 3D representation from two or more 2D images
US20080095402A1 (en) * 2006-09-29 2008-04-24 Topcon Corporation Device and method for position measurement
US20110206236A1 (en) * 2010-02-19 2011-08-25 Center Jr Julian L Navigation method and aparatus
US20130002854A1 (en) * 2010-09-17 2013-01-03 Certusview Technologies, Llc Marking methods, apparatus and systems including optical flow-based dead reckoning features
US20120114174A1 (en) * 2010-10-11 2012-05-10 Samsung Electronics Co., Ltd. Voxel map generator and method thereof
DE102013201769A1 (de) * 2013-02-04 2014-08-07 Deutsches Zentrum für Luft- und Raumfahrt e.V. Vermessungsanordnung und Verfahren zur Vermessung

Similar Documents

Publication Publication Date Title
EP2669707B1 (de) Verfahren und handhaltbares Entfernungsmessgerät zur indirekten Entfernungsmessung mittels bildgestützter Winkelbestimmungsfunktion
DE102013202393B4 (de) Bestimmen von Neigungswinkel und Neigungsrichtung unter Verwendung von Bildverarbeitung
EP2918972B1 (de) Verfahren und handhaltbares Entfernungsmessgerät zum Erzeugen eines Raummodells
DE102014209137B4 (de) Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
DE102009030672B3 (de) Verfahren zur Bestimmung der geographischen Koordinaten von Bildpunkten in SAR Bildern
EP3097537B1 (de) Verfahren und steuergerät zum erkennen einer veränderung eines relativen gierwinkels innerhalb eines stereo-video-systems für ein fahrzeug
DE102019114511A1 (de) Radar-odometrie für ein fahrzeug
EP2806248B1 (de) Verfahren zur Kalibrierung einer Erfassungseinrichtung und Erfassungseinrichtung
DE102015107390B4 (de) Verfahren und Vorrichtung zum automatischen Kalibrieren von Rundumsichtsystemen
WO2014086446A1 (de) Fahrzeugseitiges verfahren und fahrzeugseitige vorrichtung zum erfassen und anzeigen von parklücken für ein fahrzeug
DE112011100458T5 (de) Systeme und Verfahren zur Verarbeitung von Kartierungs- und Modellierungsdaten
DE102007043534A1 (de) Anordnung zum Erfassen einer Umgebung
DE102011114115A1 (de) Verfahren und Anordnung zur Bestimmung der Lage eines Meßpunktes im geometrischen Raum
DE102011010987A1 (de) Navigationsverfahren für einen Flugkörper
DE112018003443T5 (de) Positioniervorrichtung
DE10312154B4 (de) Verfahren und Vorrichtung zum Ausführen einer Objektverfolgung
DE102015112605A1 (de) System zum bestimmen eines kupplungswinkels
DE102014114221A1 (de) Verfahren zum Detektieren von einem Objekt in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
EP3387375B1 (de) Verfahren zur erstellung einer tiefenkarte
EP3539085B1 (de) 3d-referenzierung
WO2020078615A1 (de) Verfahren und vorrichtung zur bestimmung einer umgebungskarte
DE102020133092A1 (de) Positionsschätzungseinrichtung und positionsschätzungsverfahren
DE102014102727B3 (de) Kamerabasierter Positionssensor und Verfahren zur Positionsbestimmung
DE102011054379B4 (de) Verfahren und Vorrichtung zur Ermittlung einer Positionsinformation
WO2017198441A1 (de) Verfahren zum einstellen einer blickrichtung in einer darstellung einer virtuellen umgebung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final