DE10248534B4 - Verfahren zur genauen Positionsbestimmung eines mobilen Endgerätes - Google Patents

Verfahren zur genauen Positionsbestimmung eines mobilen Endgerätes Download PDF

Info

Publication number
DE10248534B4
DE10248534B4 DE10248534A DE10248534A DE10248534B4 DE 10248534 B4 DE10248534 B4 DE 10248534B4 DE 10248534 A DE10248534 A DE 10248534A DE 10248534 A DE10248534 A DE 10248534A DE 10248534 B4 DE10248534 B4 DE 10248534B4
Authority
DE
Germany
Prior art keywords
image
mobile terminal
images
data
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE10248534A
Other languages
English (en)
Other versions
DE10248534A1 (de
Inventor
Peter Christ
Klaus Kehr
Dr. Hager Rolf
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsche Telekom AG
Telekom Deutschland GmbH
Original Assignee
Deutsche Telekom AG
T Mobile Deutschland GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsche Telekom AG, T Mobile Deutschland GmbH filed Critical Deutsche Telekom AG
Priority to DE10248534A priority Critical patent/DE10248534B4/de
Publication of DE10248534A1 publication Critical patent/DE10248534A1/de
Application granted granted Critical
Publication of DE10248534B4 publication Critical patent/DE10248534B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Astronomy & Astrophysics (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Navigation (AREA)
  • Studio Devices (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

Verfahren zur genauen Positionsbestimmung eines mobilen Endgerätes in einem Suchgebiet unter Standortbestimmung auf der Basis von GPS-Informationen oder auf Basis der Mobilfunk Zellen-ID Information, wobei – über eine optische Aufnahmeeinrichtung, die einem mobilen Endgerät (2) zugeordnet ist, Bilder/Bildfolgen der Umgebung des Teilnehmers, der sich in einem definierten Suchgebiet befindet, aufgenommen und zusammen mit Daten zur Geräteeinstellung des mobilen Endgerätes (2) und Einstellungsdaten zur optischen Aufnahmeeinrichtung über eine drahtlose Verbindung des mobilen Endgerätes (2) zu einem Positions- und Navigationsserver (3) gesendet werden, – die vom Positions- und Navigationsserver (3) empfangenen Bilder/Bildfolgen mit den in einer Bild-Datenbank (4) gespeicherten Bildern/Bildfolgen aus dem Suchgebiet verglichen werden, wobei den in der Bild-Datenbank (4) gespeicherten Bildern/Bildfolgen Positionsdaten zugeordnet sind, die aus den bereits zum betreffenden Suchgebiet vorhandenen exakten Vermessungsdaten resultieren, – der Vergleich als Bildmustervergleich erfolgt, – bei Übereinstimmung eines vom Teilnehmer gesendeten Bildes mit einem Bild oder einem Bildbereich eines...

Description

  • Die Erfindung bezieht sich auf ein Verfahren zur Verbesserung der Genauigkeit bei der Positionsbestimmung mit Hilfe eines mobilen Endgerätes.
  • Anwendungsgebiet der Erfindung sind vor allem dicht bebaute Gebiete, wie beispielsweise Stadtgebiete.
  • Zur Positionsbestimmung werden zur Zeit die folgenden Technologien insbesondere von mobilen Netzbetreibern untersucht und getestet: Cell of Origin (COO or Cell-ID), Enhanced Observed Time Difference (E-OTD), Time of Arrival (TOA), Assisted GPS (A-GPS) and GPS. Die Cell-ID and TOA Methoden werden als netzwerkbasierte Lösungen bezeichnet, während GPS und teilweise A-GPS endgeräteorientiert sind. E-OTD und teilweise A-GPS sind hybride Lösungen, die sowohl. auf der Netzwerkinfrastuktur als auch auf den Endgeräten basieren. Die Cell-ID Technologie hat zwei verbesserte Varianten. Cell-ID + Netzwerk Messungen und Cell-ID plus TA (Timing Advance) verbessern die Genauigkeit der Positionsbestimmung.
  • Darüber hinaus gibt es eine Reihe von Verfahren, die auf Infrastrukturlösungen beruhen. Sensoren, Barken, Kleinleistungs-Funkzellen (z. B. Bluetooth) messen die Position des Objektes oder geben ihrerseits eine genau Position an, so dass das Objekt daraus die eigene Position bestimmen kann.
  • WO 01/49056 A1 beschreibt ein Verfahren und eine Vorrichtung zum Identifizieren eines genauen Ortes einer Mobilstation durch die Interaktion mit einem Computer-Netzwerk. Dazu nimmt eine digitale Kamera ein Bild eines Objekts auf. Das aufgenommene Bild wird übertragen, umgewandelt und anschließend verglichen. Zusätzlich fordert der Server die Positionsdaten der Mobilstation an. Daraufhin ermittelt der Server die genauen Positionsdaten und sendet diese an die Mobilstation.
  • US 6,266,442 B1 zeigt ein Verfahren und eine Vorrichtung zur Identifizierung und Klassifizierung von Objekten, insbesondere Verkehrszeichen, die in einem oder mehreren Bildern von einem Videosegment dargestellt werden.
  • US 2002/0045988 A1 beschreibt ein Verfahren, dass es einem Benutzer ermöglicht Informationen zu einem aufgenommenen Objekt in Echtzeit zu erhalten. Dabei werden die Bildinformationen mit einer Kamera, die in eine Brille integriert ist, aufgenommen und zusammen mit den Positionsdaten, die über GPS ermittelt worden, an das zentrale System gesendet. Das zentrale System extrahiert Informationen über die aufgenommenen Bilddaten und sendet die Informationen an den Benutzer.
  • Aus DE 297 17 403 U1 ist ein Mobiltelefon mit integriertem GPS-Sender bzw. GPS-Empfänger bekannt. Mittels dieser Lösung ist es möglich, aktuelle Standortpositionen über GPS-Navigation zu ermitteln und auf dem Display des Mobiltelefons kartographisch anhand von orientierungsgeeigneten Landkarten darzustellen.
  • DE 198 52 659 bezieht sich auf eine fahrzeuggestützte Lösung zur Navigation mit Multimedia unter Einbeziehung einer GPS-Komponente. Zusätzlich zu Textinformationen sind auf einem Informationsträger weitere Informationen in multimedialer Form, beispielsweise in Form von Bildern, Bilderfolgen, Filmen, Ton- und Musikdokumenten bzw. in Mischungen dieser Formen abgelegt. Die so gespeicherten Daten können von einer Dienstzentrale aktualisiert werden. Bei dieser Lösung ist die Videoausgabe mit der Navigationsvorrichtung gekoppelt. Die Darstellung von interessierenden Objekten kann sowohl vorausschauend als auch aktuell in Abhängigkeit von der Position des Fahrzeuges erfolgen. Eine punktgenaue Erfassung der Position ist bei dieser Lösung nicht erforderlich und auch nicht möglich.
  • Aus DE 198 52 662 ist ein Verfahren zur multimediagestützten Navigation und eine Navigationsvorrichtung bekannt, die zur Navigation eines Kraftfahrzeuges in einem Straßennetz dienen. Fahranweisungen, die sich auf markante Objekte entlang der Fahrtroute beziehen, werden dabei in der Alltagssprache an den Benutzer gegeben und durch eine optische Ausgabe unterstützt. Auch bei dieser Lösung ist eine punktgenaue Erfassung der Position weder erforderlich noch möglich.
  • In DE 101 10 271 ist eine Lösung zur Präzisierung der Ortsbestimmung von Mobilfunkteilnehmern mit Cell-ID/Timing Advance Verfahren beschrieben. Bei dieser Lösung werden im Rahmen von zyklisch übertragenen Funkfeldstärkesignalmessungen für mehrere benachbarte Basisstationen Cell-Ids von Basisstationen, in deren überlappenden Funkzellen sich eine Mobilstation befindet, an eine aktive Basisstation geliefert und daraufhin die Basisstation mit dem kleinsten Funkzellenradius bestimmt. Innerhalb dieser kleinsten Funkzelle kann die Position der Mobilstation durch eine anschließende Timing-Advance Messung noch genauer bestimmt werden. Das erfindungsgemäße Verfahren beruht darauf, dass zu einer möglichst genauen Positionsbestimmung der Mobilstation über die Cell-ID der kleinstmöglichen Funkzelle stattfindet. Bei dieser Lösung liegt die Genauigkeit der Positionsbestimmung durchschnittlich bei ca. 50 Metern.
  • Den beschriebenen Lösungen ist gemeinsam, dass sie für eine punktgenaue Positionsbestimmung weder ausgelegt noch geeignet sind. Lösungen, die auf einer GPS Standortbestimmung basieren, lassen eine Standortbestimmung mit einer Genauigkeit von ca. 10 Metern zu. Die Standortbestimmung über Cell ID gestützte Verfahren sind immer nur so gut, wie die Funkzellendichte das zulässt. Hinzu kommt, das beispielsweise in großen Städten im digitalen Mobilfunknetz durch Funkschatten oder Ablenkung bedingte Bereiche existieren, in denen eine Positionsbestimmung kaum möglich ist.
  • Das erfindungsgemäße Verfahren ist auf eine Lösung ausgerichtet, die eine punktgenaue Positionsbestimmung und damit die Navigation von Fußgängern und Passanten, einschließlich von sehbehinderten oder blinden Personen, ermöglicht. Die Position des Nutzers soll dabei mit einer Genauigkeit von bis zu wenigen Zentimetern bestimmt werden können.
  • Im Rahmen des erfindungsgemäßen Verfahrens wird für die Positionsbestimmung eines Teilnehmers, vorzugsweise eines Fußgängers, ein mobiles Endgerät 2 eingesetzt, dass über eine optische Aufnahmeeinrichtung (Kamera) und eine Funkverbindung zur drahtlose Übertragung von Daten verfügt. Alternativ kann die Kamera auch über eine drahtlose oder eine Kabelverbindung an das mobile Endgerät 2 angeschlossen sein. Diese Ausführungsform kann z. B. mittels einer Kamera realisiert werden, die im Falle eines blinden oder stark sehbehinderten Teilnehmers in eine entsprechende Spezialbrille eingebaut ist. Die Datenübertragung von der Kamera (Brille) zum mobilen Endgerät 2 erfolgt vorzugsweise über eine kabellose Verbindung, beispielsweise über Bluetooth. Das erfindungsgemäße Verfahren ist insbesondere für die Standortbestimmung von Personen ausgelegt, welche sich in einem definierten Gebiet, wie beispielsweise einer Großstadt, befinden, und sich überwiegend per Fuß bewegen. Das mobile Endgerät 2 des Teilnehmers nimmt über die Kamera ein Bild oder eine Bildfolge der Umgebung auf, in der sich der Träger des mobilen Endgerätes 2 befindet. Das mobile Endgerät 2 kann beispielsweise ein Handy mit Kamera und MMS-Funktion sein.
  • Die von der Kamera aufgenommenen Bilder bzw. Bildfolgen werden zusammen mit Daten zur Geräteeinstellung vom mobilen Endgerät 2 und von der aufnehmenden Kamera, wie zum beispielsweise Zoom, Kameratyp, etc. und mit der durch ein GPS-Gerät ermittelten geostationären Position des Teilnehmers über eine drahtlose Verbindung an einen Positions- und Navigationsserver 3 gesendet. Falls keine geostationäre Position vorliegt, wird das Bild bzw. die Bildfolge mit der durch die Funkzelle vorgegebenen Zell-ID verknüpft und an den Positions- und Navigationsserver 3 gesendet. Die Positionsbestimmung wird in diesem Fall im Positions- und Navigationsserver 3 mit Hilfe von geeigneten Verfahren über die Cell-ID durchgeführt.
  • Vom Positions- und Navigationsserver 3 werden alle eingegangenen Daten, einschließlich der Positionsangabe, zu einer Bild-Datenbank 4 weitergeleitet. In der Bild-Datenbank 4 sind eine Vielzahl von Bildern bzw. Bildfolgen, beispielsweise zu einem Stadtgebiet, gespeichert, denen bereits Positionsdaten zugeordnet sind. Die Positionsdaten zu den Bildern bzw. Bildfolgen resultieren aus den zum Stadtgebiet bereits vorhandenen exakten Vermessungsdaten. Die Vermessungsdaten enthalten immer punktgenaue Positionsangaben zu den vermessenen Objekten. Aus diesen Daten lassen sich damit auch Entfernungsangaben von Objekt zu Objekt (von Haus zu Haus) oder Angaben zur Länge einer Straße oder zu den Abmessungen eines Platzes ableiten. Zusammenfassend ist festzustellen, dass mit Hilfe derartiger exakter Vermessungsdaten jeder Punkt innerhalb eines vermessenen Gebietes in Bezug auf seine Position genau zugeordnet werden kann.
  • In der Bilddatenbank 4 erfolgt ein Bildvergleich der vom Positions- und Navigationsserver 3 empfangenen Bilder/Bildfolgen mit den bereits dort gespeicherten Bildern/Bildfolgen. Der Suchbereich in der Bild-Datenbank 4 wird durch die mit den Daten gesendeten Positionsangaben, die über die Cell ID oder die GPS-Messung ermittelt wurden, bestimmt. Der Suchbereich in der Bild-Datenbank 4 wird dabei durch den Grad der jeweiligen Ungenauigkeit der Positionsbestimmung über GPS oder Cell ID festgelegt. Für den Bildvergleich werden aus der Videoüberwachung bekannte Algorithmen verwendet (u. a. Mustererkennung, Schrifterkennung, etc.).
  • Das erfindungsgemäße Verfahren wird anhand eines Ausführungsbeispieles für die Positionsermittlung/Standortbestimmung eines stark sehbehinderten Teilnehmers innerhalb eines Stadtgebietes näher erläutert.
  • 1 zeigt das Wirkprinzip des erfindungsgemäßen Verfahrens.
  • 2 zeigt eine schematische Abbildung für einen Bildmustervergleich zwischen einem von der Kamera des sehbehinderten Teilnehmers aufgenommenen Bild und den aus der Bild-Datenbank 4 zum Vergleich herangezogenen Bildern.
  • Der sehbehinderte Teilnehmer verfügt über ein Handy und eine Kamera. Das Handy ist entweder mit BT- und SMS Funktionen ausgerüstet oder es verfügt über MMS-Funktionalität. Bei einem stark sehbehinderten Teilnehmer ist die Kamera vorzugsweise in eine Spezialbrille integriert. Zusätzlich zur Kamerafunktion kann in die Brille auch noch eine Sprachausgabe integriert sein. Die Sprachausgabe wird dabei vorzugsweise über einen Ohrhörer realisiert.
  • Eine weitere Funktion, die über die Brille realisiert werden kann, beinhaltet die Anzeige von Bildern, die durch einen in die Brille integrierten Monitor der Kamera realisiert sein kann. Auf diesem Monitor können die durch den Positions- und Navigationsserver 3 berechneten Positions- und Navigationsdaten graphisch dargestellt werden. Die graphische Darstellung kann beispielsweise durch Symbole zur Personennavigation (z. B. Angabe der Richtung durch Richtungspfeile bzw. unterschiedliche Helligkeit usw.) erfolgen. Die Verbindung zwischen dem mobilen Endgerät 2, hier einem Handy, und den der Brille des Teilnehmers zugeordneten Komponenten wird vorzugsweise über eine drahtlose Verbindung, wie beispielsweise Bluetooth, realisiert. Denkbar ist jedoch auch eine konventionelle Kabelverbindung.
  • Startet der sehbehinderte Teilnehmer die erfindungsgemäße Suchfunktion, so werden die von der Kamera aufgenommenen Bilder oder Bildfolgen zusammen mit Angaben zu seiner aktuellen Position, die über GPS oder Cell-ID ermittelt wurden, und mit den zu den Bildern oder Bildfolgen gehörenden Daten der Kameraeinstellung (z. B. Zoom) usw. und den Daten zum mobilen Endgerät 2 (Gerätetyp usw.) über eine Funkverbindung an einen Positions- und Navigationsserver 3 weitergeleitet. Der Positions- und Navigationsserver 3 hat Zugriff auf eine Bild-Datenbank 4, in der Bilder bzw. Bildfolgen zum Stadtgebiet, wie beispielsweise einzelne Bilder zu Gebäuden, Denkmalen oder anderen markanten Punkten der Stadt oder Bildfolgen von ganzen Straßenzügen mit den an der Straße liegenden Gebäuden und Straßenübergängen gespeichert sind. Den Bildern bzw. Bildfolgen sind exakte Positionszugaben zugeordnet, wobei bei einer Bildfolge jedem Einzelbild ebenfalls mindestens eine Positionsangabe zugeordnet ist. Die Positionsangaben resultieren dabei aus exakten Vermessungsdaten zum betreffenden Stadtgebiet. Im Positions- und Navigationsserver 3 wird ein Bildmustervergleich zwischen den von der Kamera des sehbehinderten Kunden aufgenommenen Bildern bzw. Bildfolgen und den in der Bild-Datenbank 4 gespeicherten Bildern und Bildfolgen vorgenommen (siehe 2). Der für den Bildmustervergleich herangezogene Suchbereich der Bild-Datenbank 4 wird durch die vom sehbehinderten Teilnehmer zusammen mit den Bildern bzw. Bildfolgen zum Position- und Navigationsserver 3 übertragenen aktuellen Positionsangaben bestimmt. Liegen keine Positionsangaben vor, so wird der gesamte Inhalt der Bild-Datenbank 4 zum Vergleich herangezogen.
  • Der Vergleich der Bilder vom sehbehinderten Teilnehmer mit den Bildern bzw. Bildfolgen der Bild-Datenbank 4 erfolgt auf der Basis eines Bildmustervergleiches. Dabei werden vorzugsweise die aus der Video- und Bildüberwachung bekannten Algorithmen verwendet. Dann enthalten sind bekannte Verfahren zur Texterkennung, so dass Straßennamen, Hausnummern, Bezeichnungen von Gebäuden, etc. aus der Bildinformation extrahiert werden können.
  • Wird anhand des Bildmustervergleiches eine Übereinstimmung mit einem in der Bild-Datenbank 4 gespeicherten Bild erkannt, so wird aus den Angaben über die Kameraposition, Blickwinkel, Kameratyp und Zoom die Position des Betrachters berechnet. Der Positions- und Navigationsserver 3 gibt anschließend aktuelle Positionsangaben in Form einer SMS in Verbindung mit BT oder als MMS an den Teilnehmer aus.
  • Bei einem sehbehinderten Kunden wird die Positionsangabe vorzugsweise als Sprachinformation über den Ohrhörer ausgegeben, wobei bei einer Übermittlung in Form einer MMS das zur Positionsangabe gehörende Bild der Bild-Datenbank 4 auch über den der Brille des sehbehinderten Kunden zugeordneten Monitor ausgegeben werden kann. Von dieser aktuellen Position aus kann der sehbehinderte Teilnehmer dann nach den bei Navigationssystemen üblichen Verfahrensweisen zu dem von ihm gewünschten Ort geführt werden.
  • In einer ersten Ausbaustufe der Bild-Datenbank 4 wird nicht das gesamte Stadtgebiet erfasst sein, sondern nur die Bilder der wichtigsten Gebäude, Plätze und Denkmale und die Bildfolgen der wichtigsten Straßen mit den entsprechenden Gebäuden, sowie die dazugehörigen Positionsangaben. Durch die von den Nutzern des erfindungsgemäßen Verfahrens zur Positionsbestimmung an die Bild-Datenbank 4 gelieferten Bilder und Bildfolgen wird mittels einer entsprechenden Funktion der Bestand der Bild-Datenbank 4 ständig erweitert und ergänzt.
  • Die Positionsangaben zu den neuen Bildern in der Bild-Datenbank 4 werden dabei mittels eines Rechenalgorithmus aus den Positionsangaben zu den bereits in der Bild-Datenbank 4 vorhandenen Bildern/Bildfolgen berechnet und in der Bild-Datenbank 4 gespeichert. Die Bilder mit den so ermittelten Positionsangeben werden dabei entsprechend ihren Positionsangaben in die Bild-Datenbank 4 eingefügt, so dass in der zweiten Ausbaustufe eine Datenbank vorhanden ist, die das gesamte Stadtgebiet mit den entsprechenden Positionsangaben virtuell abbildet. Jeder Standort dieses virtuellen Stadtgebietes kann über die Abbildung seiner Umgebung als Ausgangspunkt für die Navigation zu einem anderen Ort im Stadtgebiet punktgenau ermittelt werden.
  • Im Falle einer baulichen Änderung im Stadtgebiet werden die alten Bilder/Bildfolgen in den meisten Fällen unter Beibehaltung der alten Positionsangaben, durch neue aktuelle Bilder/Bildfolgen ersetzt. Auf diese Weise erweitert und aktualisiert die Bild-Datenbank 4 in Abhängigkeit von den Aktivitäten der Teilnehmer automatisch ständig ihren Datenbestand.
  • Die mit dem erfindungsgemäßen Verfahren mögliche punktgenaue Positionsbestimmung ist die Grundlage einer Reihe von Anwendungsmöglichkeiten im Bereich der Navigation von Fußgängern und anderen Passanten, einschließlich sehbehinderter oder blinder Personen innerhalb eines definierten Gebietes, wie beispielsweise dem Gebiet einer Großstadt.
  • Insbesondere bei der Navigation von blinden Personen ist eine punktgenaue Ermittlung der jeweiligen Position in Verbindung mit sehr genauen Angaben zur Umgebung und zur gewünschten Streckenführung unerlässlich.

Claims (3)

  1. Verfahren zur genauen Positionsbestimmung eines mobilen Endgerätes in einem Suchgebiet unter Standortbestimmung auf der Basis von GPS-Informationen oder auf Basis der Mobilfunk Zellen-ID Information, wobei – über eine optische Aufnahmeeinrichtung, die einem mobilen Endgerät (2) zugeordnet ist, Bilder/Bildfolgen der Umgebung des Teilnehmers, der sich in einem definierten Suchgebiet befindet, aufgenommen und zusammen mit Daten zur Geräteeinstellung des mobilen Endgerätes (2) und Einstellungsdaten zur optischen Aufnahmeeinrichtung über eine drahtlose Verbindung des mobilen Endgerätes (2) zu einem Positions- und Navigationsserver (3) gesendet werden, – die vom Positions- und Navigationsserver (3) empfangenen Bilder/Bildfolgen mit den in einer Bild-Datenbank (4) gespeicherten Bildern/Bildfolgen aus dem Suchgebiet verglichen werden, wobei den in der Bild-Datenbank (4) gespeicherten Bildern/Bildfolgen Positionsdaten zugeordnet sind, die aus den bereits zum betreffenden Suchgebiet vorhandenen exakten Vermessungsdaten resultieren, – der Vergleich als Bildmustervergleich erfolgt, – bei Übereinstimmung eines vom Teilnehmer gesendeten Bildes mit einem Bild oder einem Bildbereich eines Bildes der Bild-Datenbank (4) im Positions- und Navigationsserver (3) aus den zum Bild gehörenden Positionsdaten und den vom Teilnehmer gesendeten Daten zur Endgeräteeinstellung und den Daten zur Einstellung der optischen Aufnahmeeinrichtung über einen Rechenalgorithmus die genaue Position des mobilen Endgerätes (2) und damit auch des Teilnehmers ermittelt wird, und – die Daten der genauen Position des mobilen Endgerätes (2) und das dübereinstimmende Bild aus der Bild-Datenbank (4) über den Positions- und Navigationsserver (3) zum mobilen Endgerät (2) des Teilnehmers übertragen und angezeigt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass vom mobilen Endgerät (2) des Teilnehmers zusätzlich Daten zur aktuellen Position des Teilnehmers, die über GPS oder die Mobilfunk-Zellen-ID ermittelt wurden, zum Positions- und Navigationsserver (3) übertragen werden, wobei mittels dieser Positionsangaben vom Positions- und Navigationsserver (3) das Suchfeld für den Bildmustervergleich im Datenbestand der Bild-Datenbank (4) festgelegt wird.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Datenbestand der Bild-Datenbank (4) durch die von den Teilnehmern zum Bildmustervergleich übertragenen Bilder ständig ergänzt und aktualisiert wird, wobei die Positionsangaben zu neuen, noch nicht in der Bild-Datenbank (4) gespeicherten Bildern automatisch über einen Rechenalgorithmus aus den Positionsangaben der bereits in der Bild-Datenbank (4) vorhandenen Bilder/Bildfolgen ermittelt werden.
DE10248534A 2002-10-14 2002-10-14 Verfahren zur genauen Positionsbestimmung eines mobilen Endgerätes Expired - Lifetime DE10248534B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10248534A DE10248534B4 (de) 2002-10-14 2002-10-14 Verfahren zur genauen Positionsbestimmung eines mobilen Endgerätes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10248534A DE10248534B4 (de) 2002-10-14 2002-10-14 Verfahren zur genauen Positionsbestimmung eines mobilen Endgerätes

Publications (2)

Publication Number Publication Date
DE10248534A1 DE10248534A1 (de) 2004-04-22
DE10248534B4 true DE10248534B4 (de) 2013-04-11

Family

ID=32038750

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10248534A Expired - Lifetime DE10248534B4 (de) 2002-10-14 2002-10-14 Verfahren zur genauen Positionsbestimmung eines mobilen Endgerätes

Country Status (1)

Country Link
DE (1) DE10248534B4 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2006001129A1 (ja) 2004-06-29 2008-04-17 ソニー株式会社 情報処理装置および方法、プログラム、並びに情報処理システム
EP1617365A1 (de) * 2004-07-16 2006-01-18 Vodafone Holding GmbH Koordination und Abwicklung von Lern-, Unterhaltungs- und/oder Wettbewerbszwecken dienenden Spielen
DE102006062061B4 (de) 2006-12-29 2010-06-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera
DE102010042313A1 (de) * 2010-10-12 2012-04-12 Robert Bosch Gmbh Verfahren zur verbesserten Positionsbestimmung mit einem Navigationssystem und Navigationssystem hierzu
US8938257B2 (en) 2011-08-19 2015-01-20 Qualcomm, Incorporated Logo detection for indoor positioning
US20130212094A1 (en) * 2011-08-19 2013-08-15 Qualcomm Incorporated Visual signatures for indoor positioning
DE102011112404B4 (de) * 2011-09-03 2014-03-20 Audi Ag Verfahren zum Bestimmen der Position eines Kraftfahrzeugs
DE102011084993A1 (de) 2011-10-21 2013-04-25 Robert Bosch Gmbh Übernahme von Daten aus bilddatenbasierenden Kartendiensten in ein Assistenzsystem
DE102012013492A1 (de) 2012-07-09 2013-01-17 Daimler Ag Verfahren zur Positionsbestimmung
DE102012221921B4 (de) 2012-11-29 2018-04-05 Technische Hochschule Wildau (Fh) Orten eines mobilen Endgeräts unter Nutzung von optisch detektierbaren Landmarken
EP3882894B1 (de) * 2020-03-19 2022-01-19 Hassan Ali Alshehri Sehhilfe für einen sehbehinderten menschen

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE29717403U1 (de) * 1997-09-30 1998-01-02 Wiethe, Frank, 74374 Zaberfeld Mobiltelefon mit integrierter GPS-Navigation
EP0869464A1 (de) * 1997-04-04 1998-10-07 N.V. Nederlandsche Apparatenfabriek NEDAP Schutzsystem mit Schutzmittel für Personen
DE19743705C1 (de) * 1997-10-02 1998-12-17 Ibs Integrierte Business Syste Verfahren zum Sammeln und Verknüpfen von Positionsdaten aus Satellitenortung und weiteren Daten sowie Verwendungen dafür
DE19852659A1 (de) * 1998-11-16 2000-05-25 Bosch Gmbh Robert Navigation mit Multimedia
DE19852662A1 (de) * 1998-11-16 2000-05-25 Bosch Gmbh Robert Verfahren zur multimediagestützten Navigation und Navigationsvorrichtung
DE29922501U1 (de) * 1999-12-22 2000-06-08 Cui, Ou, 14776 Brandenburg Multimedia Handy-Computer
US6133947A (en) * 1995-11-15 2000-10-17 Casio Computer Co., Ltd. Image processing system capable of displaying photographed image in combination with relevant map image
WO2001049056A1 (en) * 1999-12-23 2001-07-05 Nokia Corporation Method and apparatus for providing location information through a wireless communications network
US6266442B1 (en) * 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
US20020045988A1 (en) * 2000-09-25 2002-04-18 International Business Machines Corporation Spatial information using system, system for obtaining information, and server system
DE10110271C1 (de) * 2001-03-02 2002-09-12 Siemens Ag Präzisierung der Ortsbestimmung von Mobilfunkteilnehmern mit Cell-ID/Timing Advance Verfahren
WO2003032005A2 (en) * 2001-10-09 2003-04-17 Sirf Technologies, Inc. Method and system for sending location coded images over a wireless network

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6133947A (en) * 1995-11-15 2000-10-17 Casio Computer Co., Ltd. Image processing system capable of displaying photographed image in combination with relevant map image
EP0869464A1 (de) * 1997-04-04 1998-10-07 N.V. Nederlandsche Apparatenfabriek NEDAP Schutzsystem mit Schutzmittel für Personen
DE29717403U1 (de) * 1997-09-30 1998-01-02 Wiethe, Frank, 74374 Zaberfeld Mobiltelefon mit integrierter GPS-Navigation
DE19743705C1 (de) * 1997-10-02 1998-12-17 Ibs Integrierte Business Syste Verfahren zum Sammeln und Verknüpfen von Positionsdaten aus Satellitenortung und weiteren Daten sowie Verwendungen dafür
US6266442B1 (en) * 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
DE19852659A1 (de) * 1998-11-16 2000-05-25 Bosch Gmbh Robert Navigation mit Multimedia
DE19852662A1 (de) * 1998-11-16 2000-05-25 Bosch Gmbh Robert Verfahren zur multimediagestützten Navigation und Navigationsvorrichtung
DE29922501U1 (de) * 1999-12-22 2000-06-08 Cui, Ou, 14776 Brandenburg Multimedia Handy-Computer
WO2001049056A1 (en) * 1999-12-23 2001-07-05 Nokia Corporation Method and apparatus for providing location information through a wireless communications network
US20020045988A1 (en) * 2000-09-25 2002-04-18 International Business Machines Corporation Spatial information using system, system for obtaining information, and server system
DE10110271C1 (de) * 2001-03-02 2002-09-12 Siemens Ag Präzisierung der Ortsbestimmung von Mobilfunkteilnehmern mit Cell-ID/Timing Advance Verfahren
WO2003032005A2 (en) * 2001-10-09 2003-04-17 Sirf Technologies, Inc. Method and system for sending location coded images over a wireless network

Also Published As

Publication number Publication date
DE10248534A1 (de) 2004-04-22

Similar Documents

Publication Publication Date Title
DE112011104739B4 (de) Informationsverwaltungsvorrichtung und Informationsverwaltungssystem für mobile Informationsendgeräte
EP1131747B1 (de) Verfahren zur standortsabhängigen informationsbeschaffung aus datenbanken und system zur durchführung des verfahrens
DE60038068T2 (de) Verfahren und Vorrichtung zur Navigation
EP2769373B1 (de) Übernahme von daten aus bilddatenbasierenden kartendiensten in ein assistenzsystem
DE112013006503B4 (de) Bewegungsassistenzvorrichtung und Bewegungsassistenzverfahren
DE60105094T2 (de) Standort-relevanter Dienst mit zwei Plattformen
DE10248534B4 (de) Verfahren zur genauen Positionsbestimmung eines mobilen Endgerätes
DE202015009128U1 (de) Generieren von Routenführungs-Anweisungsvorschauen
DE10030805A1 (de) Verfahren und Mobilstation zur Wegführung
WO2009040063A1 (de) Vorrichtung und verfahren zum aktualisieren von kartendaten
EP1286558A1 (de) Mobilfunknetz und -endgerät für ortsabhängige Dienste
EP1019671A1 (de) Verfahren zum sammeln und verknüpfen von positionsdaten aus satellitenortung und weiteren daten
EP1131603B1 (de) Navigationsvorrichtung zur multimediagestützten navigation
DE19941477A1 (de) Navigationsgerät für ein landgebundenes Fahrzeug
DE19746745A1 (de) Digitales Kommunikationssystem sowie mobiles und stationäres Endgerät dafür
DE60106930T2 (de) Implementierung eines routenanleitungsdienstes mit einem dreidimensionalen modell
DE112018004108T5 (de) Bildsammelsystem, bildsammelverfahren, bildsammelvorrichtung, aufzeichnungsmedium und fahrzeugkommunikationsvorrichtung
DE102017218237A1 (de) Verfahren und Vorrichtung zum Bereitstellen eines aktuellenStandorts eines Mobilgeräts
DE10151354A1 (de) Informations- und Navigationssystem
DE102004028736A1 (de) Verfahren zur automatischen Erfassung und Bestimmung von ortsfesten Objekten im Freien von einem fahrenden Fahrzeug aus
WO2002037323A1 (de) Verfahren zum zusammenführen (matchen) von objektprofilen unter verwendung von telekommunikationsnetzen
WO2014198548A1 (de) Verfahren und system zum auffinden einer oder mehrerer personen durch ein fahrzeug
WO2021004809A1 (de) Verfahren und system zum bereitstellen eines navigationshinweises für eine route von einem aktuellen standort einer mobilen einheit zu einer zielposition
EP3384242A1 (de) System und verfahren zur indoor - navigation
EP2171400A1 (de) Eingabe von geodaten in eine navigationseinrichtung

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8110 Request for examination paragraph 44
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20130712

R071 Expiry of right