DE102019102280A1 - Ein Verfahren und ein System zum Bestimmen einer Position einer Vorrichtung in einem abgeschlossenen Raum - Google Patents

Ein Verfahren und ein System zum Bestimmen einer Position einer Vorrichtung in einem abgeschlossenen Raum Download PDF

Info

Publication number
DE102019102280A1
DE102019102280A1 DE102019102280.0A DE102019102280A DE102019102280A1 DE 102019102280 A1 DE102019102280 A1 DE 102019102280A1 DE 102019102280 A DE102019102280 A DE 102019102280A DE 102019102280 A1 DE102019102280 A1 DE 102019102280A1
Authority
DE
Germany
Prior art keywords
orientation aids
dimensional orientation
dimensional
images
aids
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102019102280.0A
Other languages
English (en)
Inventor
Jonathan Horgan
Ciaran Hughes
Catherine Enright
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connaught Electronics Ltd
Original Assignee
Connaught Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connaught Electronics Ltd filed Critical Connaught Electronics Ltd
Priority to DE102019102280.0A priority Critical patent/DE102019102280A1/de
Publication of DE102019102280A1 publication Critical patent/DE102019102280A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/91Radar or analogous systems specially adapted for specific applications for traffic control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area

Abstract

Die vorliegende Erfindung betrifft ein Verfahren und ein System zum Bestimmen einer Position einer Vorrichtung in einem definierten oder abgeschlossenen Raum. Mehrere dreidimensionale Orientierungshilfen (102, 103) innerhalb eines abgeschlossenen Raums 101 und eine Vorrichtung 104 zum Bestimmen der Position einer Vorrichtung in einem definierten oder abgeschlossenen Raum sind vorgesehen. Die dreidimensionalen Orientierungshilfen (102, 103) sind von der Decke 106 des abgeschlossenen Raums abgehängt und die Vorrichtung 104 detektiert und identifiziert die dreidimensionalen Orientierungshilfen und bestimmt die Position der Vorrichtung 104 relativ zu dem abgeschlossenen Raum auf Grundlage der Detektion und der Identifikation.

Description

  • Technisches Gebiet
  • Die vorliegende Offenbarung betrifft Bestimmen der Position einer Vorrichtung in einem abgeschlossenen Raum. Insbesondere bestimmt die vorliegende Offenbarung die Position einer Vorrichtung innerhalb eines Gebäudes oder einer Infrastruktur.
  • Hintergrund
  • Valetparken innerhalb einer Infrastruktur (wie etwa ein Parkhaus) hängt von genauer Lokalisierung/Positionierung des Fahrzeugs innerhalb der Infrastruktur ab. Diese Positionierung kann auf zwei Hauptwegen stattfinden: Infrastrukturerfassung oder Fahrzeugerfassung. In dem Ansatz mit Infrastrukturerfassung werden in der Umgebung montierte Sensoren zum Bestimmen der Position aller Fahrzeuge und Objekte innerhalb der Infrastruktur/des Gebäudes verwendet. Die Schwierigkeit mit diesem Ansatz ist das mühsame Beschaffen, Montieren, Kalibrieren und Unterhalten der Sensoren, um eine vollständige Abdeckung der gesamten Infrastruktur zu gewährleisten. Dies erhöht auch die Kosten des Installierens und Unterhaltens der Infrastruktur-Parkumgebung.
  • Eine Lösung für das obige Problem besteht darin, dem Fahrzeug zu erlauben, seine eigene Position innerhalb der Infrastruktur/des Gebäudes zu erfassen. Allerdings sind Positionierungstechniken unter Verwendung von bordeigenen Fahrzeugerfassungstechnologien, wie etwa Global Positioning Systeme (GPS) etc., aufgrund fehlender GPS-Signale im Inneren eines Gebäudes innerhalb von Gebäuden nicht trivial. Auch sind Positionierungstechniken, die nur Radar und Lidar verwenden, anfällig für Ungenauigkeiten und Fehler, da sie rein auf Abgleichen einer Struktur der Umgebung basieren. Da ein Parkhaus sehr schnell großen strukturellen Änderungen unterliegen kann, wenn Autos in Parkstellplätze einfahren und diese verlassen, sind diese nicht als alleinige Sensoren für Positionierung geeignet.
  • Kameras weisen gegenüber Radars und Lidars einen massiven Vorteil zum Positionieren auf, dass sie semantische Szeneninformationen (d. h. wissen, wo sich Autos, Wände, Straßen befinden) extrahieren können, wobei sie auch ideal zum Musterabgleich visueller Orientierungshilfen geeignet sind.
  • Diese künstlichen visuellen Orientierungshilfen (beispielsweise ein Quick Response Code oder QR-Code, aufgedruckt auf eine ebene Oberfläche, oder eine ArUco-Markierung) können über die gesamte Infrastruktur/das gesamte Gebäude hinweg an bekannten Orten installiert sein, um den Kameras zu erlauben, den Fahrzeugstandort innerhalb der Infrastruktur festzustellen. Die Idee zur Verwendung visueller Orientierungshilfen zur Positionierung ist bekannt, wobei die bis dato geschaffenen künstlichen Orientierungshilfen aber typischerweise auf eine ebene Platte gedruckt sind. Es gibt eine Reihe von Schwierigkeiten mit auf ebenen Platten gedruckten Orientierungshilfen, zum Beispiel:
    1. 1) Der Betrachtungswinkel der Orientierungshilfe ist begrenzt, da diese flach ist, weswegen sie nur für einen begrenzten Winkel oder eine begrenzte Zeit detektierbar ist, während sich das Fahrzeug in Bewegung befindet.
    2. 2) Die Orientierungshilfen weisen in Abhängigkeit von dem Betrachtungswinkel eine sehr signifikante Änderung im Erscheinungsbild auf, was sie schwerer detektierbar macht.
    3. 3) Es sind mehr Orientierungshilfen nötig, um Abdeckung des Gebiets zu schaffen, was Kosten und Unterhalt erhöht.
    4. 4) Jede Orientierungshilfe eindeutig zu machen, ist mit zunehmender Anzahl von Orientierungshilfen schwieriger.
    5. 5) Flache Orientierungshilfen sind allgemein an Wände und Säulen montiert, was bedeutet, dass sie leicht verdeckt sein können, wenn sich das Fahrzeug vorbeibewegt.
    6. 6) Zum Abbilden von diesen benötigte Betrachtungswinkel sind schmal, was bedeutet, dass es nicht möglich sein wird, dieselbe Orientierungshilfe in dem Überlappungsbereich der Sichtfelder von zwei an dem Fahrzeug montierten Kameras zu detektieren.
    7. 7) Die Platten sind typischerweise an den Wänden montiert, so dass sie anfällig für Beschädigungen sein oder manipuliert werden können, wodurch die Chancen einer Detektion verringert werden.
    8. 8) Bekannte Techniken künstlicher Orientierungshilfen könnten nur unter Verwendung einer Kamera verwendet werden, da sie nicht in einem geometrischen Sinne eindeutig sind.
  • Daher gibt es Bedarf für ein Orientierungshilfeobjekt, welches leicht identifiziert und detektiert werden könnte mittels Kameras und/oder Lidar und/oder Radar, und für ein System zum Positionieren eines Fahrzeugs innerhalb eines Gebäudes oder einer Infrastruktur, ohne dass es die obigen Defizite aufweist.
  • Kurzdarstelluna
  • Ausführungsformen der vorliegenden Erfindung richten sich auf ein Verfahren und ein System zum Bestimmen einer Position einer Vorrichtung in einem abgeschlossenen Raum, und wie sie in den angehängten Ansprüchen definiert sind.
  • Das Verfahren zum Bestimmen einer Position einer Vorrichtung in einem definierten oder abgeschlossenen Raum oder einem Gebäude oder einer Infrastruktur umfasst Empfangen durch einen Prozessor eines oder mehrerer Bilder des definierten oder abgeschlossenen Raums von mindestens einer Bildaufnahmevorrichtung. Ferner, Detektieren einer oder mehrerer dreidimensionaler Orientierungshilfen in dem einen oder den mehreren Bildern und Identifizieren einer oder mehrerer dreidimensionaler Orientierungshilfen in dem einen oder den mehreren Bildern. Ferner, Bestimmen der relativen Position der Vorrichtung relativ zu der einen oder den mehreren dreidimensionalen Orientierungshilfen auf Grundlage der Detektion und Identifikation der einen oder der mehreren dreidimensionalen Orientierungshilfen in dem einen oder den mehreren Bildern.
  • Das System zum Bestimmen einer Position einer Vorrichtung in einem definierten oder abgeschlossenen Raum umfasst eine oder mehrere dreidimensionale Orientierungshilfen, die an vorbestimmten Positionen innerhalb des abgeschlossenen Raums platziert sind, und eine Vorrichtung, die einen Prozessor umfasst, der betriebsfähig mit mindestens einer Bildaufnahmevorrichtung gekoppelt ist, wobei der Prozessor ausgelegt ist zum Empfangen eines oder mehrerer Bilder des abgeschlossenen Raums von mindestens einer Bildaufnahmevorrichtung. Der Prozessor ist ferner ausgelegt zum Detektieren einer oder mehrerer der dreidimensionalen Orientierungshilfen in dem einen oder den mehreren Bildern. Ferner ist der Prozessor ausgelegt zum Identifizieren der einen oder der mehreren der dreidimensionalen Orientierungshilfen in dem einen oder den mehreren Bildern. Der Prozessor ist ferner ausgelegt zum Bestimmen einer Position der Vorrichtung innerhalb des abgeschlossenen Raums auf Grundlage der Detektion und Identifikation der einen oder der mehreren dreidimensionalen Orientierungshilfen in dem einen oder den mehreren Bildern und der vorbestimmten Positionen der Orientierungshilfe innerhalb des abgeschlossenen Raums. Es versteht sich, dass die Standorte der Orientierungshilfen nach der Installation durch ein separates System neu definiert oder gemessen werden können. Allerdings können die Positionen der Orientierungshilfen auch in einer Trainingsphase durch ein Lokalisierungssystem auf dem Fahrzeug selbst rekonstruiert werden. Daher kann diese Lagekarte anhand der Orientierungshilfen erstellt und mit anderen Fahrzeugen mittels eines Cloud-basierten oder eines anderen Kommunikationsmittels gemeinsam genutzt werden.
  • Das System umfasst optional ein Lidar und/oder ein Radar und der Prozessor ist betriebsfähig mit dem Lidar und/oder dem Radar gekoppelt. Der Prozessor ist ferner ausgelegt zum Empfangen von Signalen von dem Lidar und/oder dem Radar, um bei der Detektion und Identifikation der einen oder der mehreren dreidimensionalen Orientierungshilfen in dem einen oder den mehreren Bildern zu helfen. Es versteht sich, dass die mindestens eine Kamera gegenüber Orientierungshilfen Identifizieren und Lokalisieren kann. Das Lidar und/oder das Radar kann/können auch ohne eine Kamera mittels Verwendung der Idee des Erschaffens einer geometrisch eindeutigen Orientierungshilfe und in dem Falle von Lidar dem Hinzufügen einer eindeutigen Reflektivitätssignatur arbeiten.
  • Somit stellen das Verfahren und das System der vorliegenden Erfindung eine robuste und zuverlässige Lösung zur Bestimmung einer Position einer Vorrichtung in einem abgeschlossenen Raum bereit.
  • Auch wird ein Computerprogramm bereitgestellt, das Programmanweisungen zum Veranlassen umfasst, dass ein Computerprogramm das obige Verfahren ausführt, welches auf einem Aufzeichnungsmedium, in einem Trägersignal oder einem Nurlesespeicher umgesetzt sein kann.
  • Figurenliste
  • Die Erfindung wird anhand der folgenden Beschreibung einer Ausführungsform davon klarer verstanden werden, die lediglich beispielhaft angegeben ist, unter Bezugnahme auf die begleitenden Zeichnungen, in welchen:
    • 1 beispielhaft unter Anderem mehrere dreidimensionale Orientierungshilfen, angeordnet in einem abgeschlossenen Raum, veranschaulicht, gemäß einigen Ausführungsformen der vorliegenden Erfindung;
    • 1A beispielhaft eine Perspektivansicht einer dreidimensionalen Orientierungshilfe veranschaulicht, gemäß einigen Ausführungsformen der vorliegenden Erfindung;
    • 1B beispielhaft eine Perspektivansicht einer anderen dreidimensionalen Orientierungshilfe veranschaulicht, gemäß einigen Ausführungsformen der vorliegenden Erfindung;
    • 1C beispielhaft eine Perspektivansicht noch einer anderen dreidimensionalen Orientierungshilfe veranschaulicht, gemäß einigen Ausführungsformen der vorliegenden Erfindung;
    • 2 ein Flussdiagramm ist, das eine Ausführungsform des erfindungsgemäßen Verfahrens oder Prozesses zum Bestimmen einer Position einer Vorrichtung in einem abgeschlossenen Raum veranschaulicht, gemäß einigen Ausführungsformen der vorliegenden Erfindung; und
    • 3 ein Funktionsblockdiagramm ist, das die primären Komponenten einer Vorrichtung zum Bestimmen einer Position der Vorrichtung in einem abgeschlossenen Raum veranschaulicht, gemäß einigen Ausführungsformen der vorliegenden Erfindung.
  • Ausführliche Beschreibung der Zeichnungen
  • 1 veranschaulicht beispielhaft mehrere dreidimensionale Orientierungshilfen (102, 103) innerhalb eines definierten oder abgeschlossenen Raums 101 und eine Vorrichtung 104, gemäß einer der Ausführungsformen der vorliegenden Erfindung. Die dreidimensionalen Orientierungshilfen (102, 103) sind von der Decke 106 abgehängt und die Vorrichtung 104 detektiert und identifiziert die dreidimensionalen Orientierungshilfen und bestimmt die Position der Vorrichtung 104 relativ zu dem definierten oder abgeschlossenen Raum auf Grundlage der Detektion und Identifikation.
  • 1A veranschaulicht beispielhaft eine Ausführungsform einer dreidimensionalen Orientierungshilfe 102, die von der Decke 106 unter Verwendung eines Abhängmittels 105 abgehängt ist. Die dreidimensionale Orientierungshilfe gemäß dieser Ausführungsform ist ein Würfel, obgleich ein beliebiges 3D-Objekt verwendet werden kann, und in einer bevorzugten Ausführungsform ist ein Muster auf die Flächen des Würfels aufgedruckt. Bei noch einer anderen Ausführungsform ist ein Muster unter Verwendung einer oder mehrerer Farben auf den Würfel aufgemalt. Bei einer bevorzugten Ausführungsform ist das Muster auf der Oberfläche der Orientierungshilfe unter Verwendung einer reflektierenden Tinte aufgemalt.
  • 1B veranschaulicht beispielhaft eine andere Ausführungsform einer dreidimensionalen Orientierungshilfe 102, die von der Decke 106 unter Verwendung eines Abhängmittels 105 abgehängt ist. Die dreidimensionale Orientierungshilfe gemäß dieser Ausführungsform ist eine Kugel und in einer bevorzugten Ausführungsform ist ein Muster auf die Oberfläche der Kugel aufgedruckt. Bei einer anderen Ausführungsform ist ein Muster unter Verwendung einer oder mehrerer Farben auf die Kugel aufgemalt. Bei einer bevorzugten Ausführungsform ist das Muster auf der Oberfläche der Orientierungshilfe unter Verwendung einer reflektierenden Tinte aufgemalt.
  • 1B veranschaulicht beispielhaft noch eine andere Ausführungsform einer dreidimensionalen Orientierungshilfe 102, die von der Decke 106 unter Verwendung eines Abhängmittels 105 abgehängt ist. Die dreidimensionale Orientierungshilfe gemäß dieser Ausführungsform ist ein Dodekaeder und in einer bevorzugten Ausführungsform ist ein Muster auf die Flächen des Dodekaeders aufgedruckt. Bei einer anderen Ausführungsform ist ein Muster unter Verwendung einer oder mehrerer Farben auf den Dodekaeder aufgemalt. Bei einer bevorzugten Ausführungsform ist das Muster auf der Oberfläche der Orientierungshilfe unter Verwendung einer reflektierenden Tinte aufgemalt.
  • 2 veranschaulicht beispielhaft ein Flussdiagramm des Verfahrens zum Bestimmen einer Position einer Vorrichtung in einem definierten oder abgeschlossenen Raum, gemäß einigen der Ausführungsformen der vorliegenden Erfindung. Das Verfahren beginnt mit Empfangen 201 von Bildern eines definierten oder abgeschlossenen Raums von mindestens einer Bildaufnahmevorrichtung. Ferner werden eine oder mehrere dreidimensionale Orientierungshilfen in einem oder mehreren Bildern detektiert 202. Auch werden die eine oder die mehreren detektierten dreidimensionalen Orientierungshilfen identifiziert 203. Beispielsweise werden die durch die Bildaufnahmevorrichtungen empfangenen Bilder unter Verwendung von Computervision und/oder Deep-Learning-Techniken analysiert, um eine oder mehrere dreidimensionale Orientierungshilfen zu detektieren. Ferner werden die detektierten dreidimensionalen Orientierungshilfen analysiert, um jede der dreidimensionalen Orientierungshilfen zu identifizieren. Die Identifikation 203 umfasst Bestimmen der Merkmale von jeder der Orientierungshilfen, z. B. der Gestalt der Orientierungshilfe und des auf die Orientierungshilfe aufgedruckten Musters. Die Bestimmung der Merkmale der Orientierungshilfe identifiziert eine Orientierungshilfe eindeutig.
  • Ferner wird auf Grundlage der Identifikation der Orientierungshilfe eine relative Position der Vorrichtung bestimmt. Beispielsweise wird eine Triangulationstechnik zum Bestimmen der relativen Position der Vorrichtung mit Bezug auf die identifizierten Orientierungshilfen eingesetzt. Bezugnehmend auf 1 wird die Distanz zwischen der Orientierungshilfe 102 und der Vorrichtung 104 (als eine unterbrochene Linie gezeigt) auf Grundlage der Tiefenschärfeninformationen bestimmt, die aus den mehreren durch die eine oder die mehreren Bildaufnahmevorrichtungen aufgenommen Bildern erhalten wurden. Falls Triangulation verwendet wird, ist ein sich bewegender Sensor genug zum Rekonstruieren der Position der Orientierungshilfe, beispielsweise unter Verwendung von Struktur von einer Bewegung. Gleichermaßen wird die Distanz zwischen der Orientierungshilfe 103 und der Vorrichtung 104 (als eine unterbrochene Linie gezeigt) bestimmt. Bei einer alternativen Ausführungsform wird die Distanz zwischen den Orientierungshilfen (102, 103) und der Vorrichtung 104 auf der Grundlage eines Signals von Radar- oder Lidar-Sensoren erhalten.
  • Ferner wird die Distanz zwischen der ersten Orientierungshilfe 102 und der zweiten Orientierungshilfe 103 auf Grundlage der vorbestimmten Positionen der Orientierungshilfen innerhalb des abgeschlossenen Raums berechnet. Ferner wird, unter Verwendung von Triangulationstechniken, die Position der Vorrichtung 104 hinsichtlich den Orientierungshilfen (102, 103) unter Verwendung der jeweiligen Distanzen zwischen den Orientierungshilfen (102, 103) und der Vorrichtung 104 und der Distanz zwischen den Orientierungshilfen berechnet. Auch wird auf Grundlage der vorbestimmten Positionen der identifizierten Orientierungshilfen (102, 103) innerhalb des abgeschlossenen Raums die absolute Position der Vorrichtung 104 hinsichtlich des abgeschlossenen Raums bestimmt. Bei einer anderen Ausführungsform wird das Signal von Radar- und Lidarsensoren mit Vorteil zur Detektion und Identifikation der Orientierungshilfen verwendet.
  • Bei einer weiteren bevorzugten Ausführungsform sind die Orientierungshilfen von innen her von einer in den Orientierungshilfen eingeschlossenen Lichtquelle beleuchtet. Für eine Fachperson versteht sich, dass in einem schwach erleuchteten Raum eine von innen her beleuchtete Orientierungshilfe leicht detektiert werden könnte, gemäß dem oben offenbarten Verfahren.
  • 3 ist ein Funktionsblockdiagramm, das die primären Komponenten einer Vorrichtung 104 zum Bestimmen einer Position der Vorrichtung 104 in einem abgeschlossenen Raum 101 veranschaulicht, gemäß einigen Ausführungsformen der vorliegenden Erfindung. Die Vorrichtung 104 umfasst in dieser Ausführungsform einen Prozessor 301, einen Speicher 302, zwei oder mehr Bildaufnahmevorrichtungen (304, 306), eine Einzelkamera kann auch verwendet werden sowie ein Radar- und/oder ein Lidar-Sensor 303. Der Prozessor 301 ist betriebsfähig mit dem Speicher 302, zwei oder mehr Bildaufnahmevorrichtungen (304, 305) und dem Radar- und/oder einem Lidar-Sensor 303 gekoppelt. Die Bildaufnahmevorrichtungen sind dafür eingerichtet, Erzeugung von einem oder mehreren Stereobildern zu ermöglichen.
  • Der Prozessor ist ausgelegt zum Empfangen von Bildern eines abgeschlossenen Raums von zwei oder mehr Bildaufnahmevorrichtungen. Bei einer Ausführungsform sind die empfangenen Bilder Stereobilder. Ferner werden eine oder mehrere dreidimensionale Orientierungshilfen (102, 103) in einem oder mehreren Bildern durch den Prozessor 301 detektiert. Beispielsweise werden die durch die Bildaufnahmevorrichtungen (304, 305) empfangenen Bilder unter Verwendung von Computervision und/oder Deep-Learning-Techniken durch den Prozessor 301 analysiert, um eine oder mehrere dreidimensionale Orientierungshilfen zu detektieren.
  • Der Prozessor 301 ist ferner ausgelegt zum Identifizieren der einen oder der mehreren detektierten dreidimensionalen Orientierungshilfen. Die Identifikation umfasst Bestimmen der Gestalt von jeder der Orientierungshilfen und Bestimmen der Merkmale der Orientierungshilfe, z. B. der Gestalt, und des auf die Orientierungshilfe aufgedruckten Musters. Die Bestimmung der Merkmale der Orientierungshilfe identifiziert eine Orientierungshilfe eindeutig, wobei eine Kartierung zwischen der Position der Orientierungshilfe und den Merkmalen der Orientierungshilfe in dem Speicher 302 gespeichert wird. Ferner wird auf Grundlage der Identifikation der Orientierungshilfe 102 eine relative Position der Vorrichtung 104 bestimmt. Beispielsweise wird durch den Prozessor 301 eine Triangulationstechnik zum Bestimmen der relativen Position der Vorrichtung mit Bezug auf die identifizierten Orientierungshilfen eingesetzt. Bezugnehmend auf 1 wird die Distanz zwischen der Orientierungshilfe 102 und der Vorrichtung 104 (als unterbrochene Linie gezeigt) durch den Prozessor 301 auf Grundlage von Tiefenschärfeninformationen bestimmt, die aus den mehreren durch die zwei oder die mehr Bildaufnahmevorrichtungen (304, 305) aufgenommen Bildern erhalten wurden. Gleichermaßen wird die Distanz zwischen der Orientierungshilfe 103 und der Vorrichtung 104 (als unterbrochene Linie gezeigt) bestimmt. Bei einer alternativen Ausführungsform wird die Distanz zwischen den Orientierungshilfen (102, 103) und der Vorrichtung 104 auf der Grundlage eines von dem Radar- oder Lidar-Sensor 303 empfangenen Signal erhalten. Ferner wird die Distanz zwischen der ersten Orientierungshilfe 102 und der zweiten Orientierungshilfe 103 von dem Prozessor 301 auf Grundlage der vorbestimmten Positionen der Orientierungshilfen innerhalb des abgeschlossenen Raums berechnet.
  • Ferner wird, unter Verwendung von Triangulationstechniken, die Position der Vorrichtung 104 durch den Prozessor 301 hinsichtlich den Orientierungshilfen (102, 103) unter Verwendung der jeweiligen Distanzen zwischen den Orientierungshilfen (102, 103) und der Vorrichtung 104 und der Distanz zwischen den Orientierungshilfen (102, 103) berechnet. Auch wird auf Grundlage der vorbestimmten Positionen der identifizierten Orientierungshilfen (102, 103) innerhalb des abgeschlossenen Raums die absolute Position der Vorrichtung 104 hinsichtlich des abgeschlossenen Raums 101 bestimmt. Bei einer anderen Ausführungsform wird das Signal von Radar- und/oder Lidar-Sensoren (303) mit Vorteil von dem Prozessor 301 zur Detektion und Identifikation der Orientierungshilfen verwendet.
  • Bei einer weiteren bevorzugten Ausführungsform sind die Orientierungshilfen von innen her von einer in der Orientierungshilfe eingeschlossenen Lichtquelle beleuchtet.
  • Unter Bezugnahme auf die vorangegangene Offenbarung würde eine Fachperson verstehen, dass das durch die Bildaufnahmevorrichtungen aufgenommene Bild aufgrund der dreidimensionalen Natur der Orientierungshilfen zumindest eine minimal verzerrte Kopie eines Bilds des auf die dreidimensionale Orientierungshilfe aufgedruckten Musters umfasst, was die Identifikation der Orientierungshilfe beträchtlich verbessern würde. Ferner würden gemäß einer Ausführungsform mit einer Lichtquelle beleuchtete Orientierungshilfen die Qualität der aufgenommenen Bilder der Orientierungshilfe verbessern, was die Identifikation der Orientierungshilfe unter schlechten Lichtverhältnissen weiter verbessert. Gemäß einer weiteren Ausführungsform verbessert das Signal von dem Lidar- oder dem Radar-Sensor die Detektion und Identifikation der Orientierungshilfen.
  • Dadurch werden die Detektion und die Identifikation der Orientierungshilfen verbessert und gleichzeitig treten die im Stand der Technik bekannten Schwachstellen einer zweidimensionalen Orientierungshilfe nicht auf. Ferner kann sich die dreidimensionale Orientierungshilfe den Radar- und den Lidar-Sensor zunutze machen, um die Detektion und Identifikation von Orientierungshilfen zu verbessern, was für zweidimensionale Orientierungshilfen nicht möglich sein würde.
  • Ferner würde eine Fachperson verstehen, dass die verschiedenen veranschaulichenden logischen/funktionalen Blöcke, Module, Schaltungen, Techniken/Algorithmen und Prozessschritte, beschrieben in Verbindung mit den hier offenbarten Ausführungsformen, als elektronische Hardware oder eine Kombination von Hardware und Software implementiert werden können. Um diese Austauschbarkeit von Hardware und einer Kombination von Hardware und Software klar zu veranschaulichen, wurden verschiedene veranschaulichende Komponenten, Blöcke, Module, Schaltungen und Schritte oben allgemein hinsichtlich ihrer Funktionalität beschrieben. Ob eine solche Funktionalität als Hardware oder eine Kombination von Hardware und Software implementiert wird, hängt von der Designwahl einer Fachperson ab. Solche erfahrenen Handwerker können die beschriebene Funktionalität für jede besondere Anwendung auf verschiedenste Weise implementieren; jedoch sollten derartige offensichtlichen Designwahlen nicht derart interpretiert werden, dass eine Abweichung vom Schutzumfang der vorliegenden Erfindung verursacht wird.
  • Der in der vorliegenden Offenbarung beschriebene Prozess kann unter Verwendung verschiedener Mittel implementiert werden. Beispielsweise kann der in der vorliegenden Offenbarung beschriebene Prozess in Hardware, Firmware, Software oder einer beliebigen Kombination davon implementiert werden. Für eine Hardware-Implementation können die Verarbeitungseinheiten oder der Prozessor bzw. die Prozessoren innerhalb einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), digitalen Signalprozessoren (DSPs), digitalen Signalverarbeitungsvorrichtungen (DSPDs), Programmierbare-Logik-Vorrichtungen (PLDs), feldprogrammierbaren Gate-Arrays (FPGAs), Prozessoren, Controllern, Mikrocontrollern, Mikroprozessoren, elektronischen Geräten oder anderen elektronischen Einheiten, die zum Durchführen der hier beschriebenen Funktionen oder einer Kombination davon designt sind, implementiert sein.
  • Für eine Firmware- und/oder Software-Implementation können Software-Codes in einem Speicher gespeichert und durch einen Prozessor ausgeführt werden. Ein Speicher kann innerhalb der Prozessoreinheit oder außerhalb der Prozessoreinheit implementiert sein. So wie er hier verwendet wird, bezieht sich der Begriff „Speicher“ auf jegliche Art eines flüchtigen oder nichtflüchtigen Speichers.
  • Obgleich Elemente der Erfindung im Singular beschrieben oder beansprucht werden, ist darüber hinaus der Plural in Erwägung gezogen, solange nicht der Singular explizit dargelegt ist.
  • In der Patentschrift werden die Begriffe „umfassen, umfasst, umfasslich und umfassend“ oder jegliche beliebige Variation davon und die Begriffe „beinhalten, beinhaltet, beinhaltlich und beinhaltend“ oder jegliche beliebige Variation davon als vollständig austauschbar angesehen und all diesen sollte die breitestmögliche Interpretation zugewiesen werden und umgekehrt.
  • Die Erfindung ist nicht auf die oben beschriebenen Ausführungsformen beschränkt und kann sowohl hinsichtlich Aufbau und Detail variiert werden.

Claims (17)

  1. Verfahren zum Bestimmen einer Position einer Vorrichtung in einem definierten Raum, wobei die Vorrichtung einen Prozessor und mindestens eine Bildaufnahmevorrichtung umfasst, wobei das Verfahren Folgendes umfasst: Empfangen durch einen Prozessor eines oder mehrerer Bilder des definierten Raums von der mindestens einen Bildaufnahmevorrichtung; Detektieren einer oder mehrerer dreidimensionaler Orientierungshilfen in dem einen oder den mehreren Bildern; Identifizieren der einen oder der mehreren dreidimensionalen Orientierungshilfen in dem einen oder den mehreren Bildern; Bestimmen der relativen Position der Vorrichtung relativ zu der einen oder den mehreren dreidimensionalen Orientierungshilfen auf Grundlage der Detektion und Identifikation der einen oder der mehreren dreidimensionalen Orientierungshilfen in dem einen oder den mehreren Bildern.
  2. Verfahren nach Anspruch 1, wobei die Detektion und/oder die Identifikation der einen oder der mehreren dreidimensionalen Orientierungshilfen in dem einen oder den mehreren Bildern auf von einem Radar und/oder einem Lidar empfangenen Signalen basiert.
  3. Verfahren nach Anspruch 1, wobei eine absolute Position der Vorrichtung innerhalb des definierten Raums auf Grundlage der relativen Position der Vorrichtung hinsichtlich der einen oder den mehreren dreidimensionalen Orientierungshilfen und einer vorbestimmten Position von jeder der einen oder der mehreren dreidimensionalen Orientierungshilfen innerhalb des Raums bestimmt wird.
  4. Verfahren nach Anspruch 1, wobei Detektion und/oder Identifikation von einer oder mehreren dreidimensionalen Orientierungshilfen in dem einen oder den mehreren Bildern auf Computer-Vision-Techniken oder Deep-Learning-Techniken basieren.
  5. Verfahren nach Anspruch 1, wobei die dreidimensionalen Orientierungshilfen einen Würfel, einen Kuboid, eine Kugel, einen Ellipsoid oder einen Dodekaeder umfassen.
  6. Verfahren nach Anspruch 5, wobei die Oberfläche der dreidimensionalen Orientierungshilfen ein oder mehrere Muster umfasst.
  7. Verfahren nach Anspruch 6, wobei das eine oder die mehreren Muster unter Verwendung von reflektierender Tinte gezeichnet werden.
  8. Verfahren nach Anspruch 1, wobei die dreidimensionalen Orientierungshilfen eine Lichtquelle zum Beleuchten der dreidimensionalen Orientierungshilfen von innen heraus umfassen.
  9. System zum Bestimmen einer Position einer Vorrichtung in einem definierten Raum, umfassend eine oder mehrere dreidimensionale Orientierungshilfen, die an vorbestimmten Positionen innerhalb des Raums platziert sind, und eine Vorrichtung, die einen Prozessor umfasst, der betriebsfähig mit mindestens einer Bildaufnahmevorrichtung gekoppelt ist, wobei der Prozessor ausgelegt ist zum: Empfangen eines oder mehrerer Bilder des definierten Raums von der mindestens einen Bildaufnahmevorrichtung; Detektieren einer oder mehrerer der dreidimensionalen Orientierungshilfen in dem einen oder den mehreren Bildern; Identifizieren der einen oder der mehreren dreidimensionalen Orientierungshilfen in dem einen oder den mehreren Bildern; Bestimmen einer Position der Vorrichtung innerhalb des Raums auf Grundlage der Detektion und Identifikation der einen oder der mehreren dreidimensionalen Orientierungshilfen in dem einen oder den mehreren Bildern und der vorbestimmten Positionen der Orientierungshilfe innerhalb des Raums.
  10. System nach Anspruch 9, wobei die Vorrichtung ferner ein Radar und/oder ein Lidar umfasst, die betriebsfähig mit dem Prozessor gekoppelt sind, und der Prozessor ferner ausgelegt ist zum Detektieren oder Identifizieren einer oder mehrerer dreidimensionaler Orientierungshilfen auf der Grundlage von von dem Radar oder dem Lidar empfangenen Signalen.
  11. System nach Anspruch 9, wobei der Prozessor ferner ausgelegt ist zum Detektieren und/oder Identifizieren von einer oder mehreren dreidimensionalen Orientierungshilfen in dem einen oder den mehreren Bildern basierend auf Computer-Vision-Techniken oder Deep-Learning-Techniken.
  12. System nach Anspruch 9, wobei die dreidimensionalen Orientierungshilfen einen Würfel, einen Kuboid, eine Kugel, einen Ellipsoid oder einen Dodekaeder umfassen.
  13. System nach Anspruch 12, wobei die Oberfläche der dreidimensionalen Orientierungshilfen ein oder mehrere Muster umfasst.
  14. System nach Anspruch 13, wobei das eine oder die mehreren Muster unter Verwendung von reflektierender Tinte gezeichnet werden.
  15. Verfahren nach Anspruch 9, wobei die dreidimensionalen Orientierungshilfen eine Lichtquelle zum Beleuchten der dreidimensionalen Orientierungshilfen von innen heraus umfassen.
  16. Computerprogramm, umfassend Anweisungen, welche, wenn das Programm durch eine Datenverarbeitungsvorrichtung/einen Computer ausgeführt wird, die Datenverarbeitungsvorrichtung/den Computer veranlassen, die Schritte des Verfahrens nach einem der Ansprüche 1 bis 8 auszuführen.
  17. Computerlesbares Medium, umfassend Anweisungen, welche, wenn sie durch einen Computer ausgeführt werden, den Computer veranlassen, das Verfahren bzw. die Schritte des Verfahrens nach einem der Ansprüche 1 bis 8 auszuführen.
DE102019102280.0A 2019-01-30 2019-01-30 Ein Verfahren und ein System zum Bestimmen einer Position einer Vorrichtung in einem abgeschlossenen Raum Withdrawn DE102019102280A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019102280.0A DE102019102280A1 (de) 2019-01-30 2019-01-30 Ein Verfahren und ein System zum Bestimmen einer Position einer Vorrichtung in einem abgeschlossenen Raum

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019102280.0A DE102019102280A1 (de) 2019-01-30 2019-01-30 Ein Verfahren und ein System zum Bestimmen einer Position einer Vorrichtung in einem abgeschlossenen Raum

Publications (1)

Publication Number Publication Date
DE102019102280A1 true DE102019102280A1 (de) 2020-07-30

Family

ID=71524481

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019102280.0A Withdrawn DE102019102280A1 (de) 2019-01-30 2019-01-30 Ein Verfahren und ein System zum Bestimmen einer Position einer Vorrichtung in einem abgeschlossenen Raum

Country Status (1)

Country Link
DE (1) DE102019102280A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090228204A1 (en) * 2008-02-04 2009-09-10 Tela Atlas North America, Inc. System and method for map matching with sensor detected objects
AT509438A1 (de) * 2010-01-18 2011-08-15 Zeno Track Gmbh Verfahren und system zum erfassen der position eines fahrzeuges in einem definierten bereich
DE102014002150B3 (de) * 2014-02-15 2015-07-23 Audi Ag Verfahren zur Ermittlung der absoluten Position einer mobilen Einheit und mobile Einheit
DE102014223363A1 (de) * 2014-11-17 2016-05-19 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090228204A1 (en) * 2008-02-04 2009-09-10 Tela Atlas North America, Inc. System and method for map matching with sensor detected objects
AT509438A1 (de) * 2010-01-18 2011-08-15 Zeno Track Gmbh Verfahren und system zum erfassen der position eines fahrzeuges in einem definierten bereich
DE102014002150B3 (de) * 2014-02-15 2015-07-23 Audi Ag Verfahren zur Ermittlung der absoluten Position einer mobilen Einheit und mobile Einheit
DE102014223363A1 (de) * 2014-11-17 2016-05-19 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte

Similar Documents

Publication Publication Date Title
DE112009001833B4 (de) 3D-Flugzeit-Kamerasystem und zugehöriges Positions-/Orientierungs-Kalibrationsverfahren
EP2993450B1 (de) Verfahren und anordnung zur erfassung von akustischen und optischen informationen sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE102018108027B4 (de) Objekterfassungsvorrichtung
DE102014005181A1 (de) Positions- und Lagebestimmung von Objekten
DE112015005600T5 (de) Hilfsanlegeverfahren und System des Schiffs
DE112018002048T5 (de) Hochgenaues kalibriersystem und kalibrierverfahren
DE112015003605B4 (de) Mehrere Objekterfassungseinrichtungen verwendende Objekterkennungsvorrichtung
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE102018125676A1 (de) Dreidimensionale Ausrichtung von Radar- und Kamerasensoren
DE112017007467T5 (de) Verfahren zum Bereitstellen einer Interferenzreduzierung und eines dynamischen Bereichs von Interesse in einem LIDAR-System
WO2017162778A1 (de) Vorrichtung zur 3-dimensionalen vermessung eines objekts, verfahren und computerprogramm mit bildbasierter auslösung
WO2010066698A1 (de) Messsystem zur vermessung von räumen und/oder von objekten
EP2824525B1 (de) Verfahren und Einrichtung zur Bestimmung der Position von Betriebsmitteln einer industriellen Automatisierungsanordnung
WO2005080916A1 (de) Vorrichtung und verfahren zur bestimmung von raumkoordinaten eines objekts
DE102021101677A1 (de) Verfahren und Programmprodukt für ein Bestimmen, ob es ein Problem bei einer Erkennung einer Markierung gibt
DE102006044615A1 (de) Verfahren zur Kalibrierung von Bilderfassungseinrichtungen in Fahrzeugen
DE102019216548A1 (de) Verfahren und mobile Erfassungsvorrichtung zur Erfassung von Infrastrukturelementen eines unterirdischen Leitungsnetzwerks
DE10151983A1 (de) Verfahren zur Dokumentation einer Unfallsituation
DE102020121504A1 (de) Antriebssteuervorrichtung für ein autonom fahrendes Fahrzeug, Halteziel und Antriebssteuersystem
DE102019102280A1 (de) Ein Verfahren und ein System zum Bestimmen einer Position einer Vorrichtung in einem abgeschlossenen Raum
DE102021212632A1 (de) Prüfung der Umfeldsensorik und/oder Umfeldperzeption eines Fahrzeugs
DE102019102561A1 (de) Verfahren zum Erkennen einer Pflastermarkierung
DE202018002946U1 (de) Geometrische Lokalisierung/Koordinatenbestimmung von einem/mehreren Objekten durch Kameras auf einer Fläche (Errechnung der Position des Objektes in einem Bezugssystem z. B. Geoposition) - Intelligente Objektlokalisierung
DE102017220506A1 (de) Verfahren und Vorrichtung zum Schätzen eines maritimen Verkehrszustandes
DE102020203051A1 (de) Verfahren und Steuereinrichtung zum Validieren von räumlicher Information

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee