DE10248534A1 - Verfahren zur genauen Positionsbestimmung eines mobilen Endgerätes - Google Patents

Verfahren zur genauen Positionsbestimmung eines mobilen Endgerätes Download PDF

Info

Publication number
DE10248534A1
DE10248534A1 DE10248534A DE10248534A DE10248534A1 DE 10248534 A1 DE10248534 A1 DE 10248534A1 DE 10248534 A DE10248534 A DE 10248534A DE 10248534 A DE10248534 A DE 10248534A DE 10248534 A1 DE10248534 A1 DE 10248534A1
Authority
DE
Germany
Prior art keywords
image
data
images
navigation server
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10248534A
Other languages
English (en)
Other versions
DE10248534B4 (de
Inventor
Peter Christ
Klaus Kehr
Rolf Dr. Hager
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsche Telekom AG
Telekom Deutschland GmbH
Original Assignee
Deutsche Telekom AG
T Mobile Deutschland GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsche Telekom AG, T Mobile Deutschland GmbH filed Critical Deutsche Telekom AG
Priority to DE10248534A priority Critical patent/DE10248534B4/de
Publication of DE10248534A1 publication Critical patent/DE10248534A1/de
Application granted granted Critical
Publication of DE10248534B4 publication Critical patent/DE10248534B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Astronomy & Astrophysics (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Navigation (AREA)
  • Studio Devices (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

Die Erfindung bezieht sich auf ein Verfahren zur Verbesserung der Genauigkeit bei der Positionsbestimmung mit Hilfe eines mobilen Endgerätes. DOLLAR A Zur Positionsbestimmung nimmt das mobile Endgerät (2) des Teilnehmers über eine optische Aufnahmeeinrichtung Bilder/Bildfolgen der Umgebung auf, in der sich der Teilnehmer befindet. Die von der Aufnahmeeinrichtung, vorzugsweise einer Kamera, aufgenommenen Bilder/Bildfolgen werden zusammen mit Positionsdaten sowie Daten zur Geräteeinstellung des mobilen Endgerätes (2) und der zugeordneten Kamera an einen Positions- und Navigationsserver (3) gesendet. Die dort eingegangenen Daten und Bilder/Bildfolgen werden mit den Bildern/Bildfolgen einer Bild-Datenbank (4) verglichen, wobei den Bildern/Bildfolgen der Bild-Datenbank (4) Positionsdaten zugeordnet sind, die aus exakten Vermessungsdaten des Gebietes bestehen, das die Bilder/Bildfolgen wiedergeben. Für den Bildvergleich werden aus der Videoüberwachung bekannte Algorithmen verwendet. Nach erfolgreichem Bildvergleich werden die exakten Positionsdaten des Teilnehmers anhand der Angaben zur Geräteeinstellung des mobilen Endgerätes (2) und der Kamera ermittelt und an den Teilnehmer ausgegeben.

Description

  • Die Erfindung bezieht sich auf ein Verfahren zur Verbesserung der Genauigkeit bei der Positionsbestimmung mit Hilfe eines mobilen Endgerätes.
  • Anwendungsgebiet der Erfindung sind vor allem dicht bebaute Gebiete, wie beispielsweise Stadtgebiete.
  • Zur Positionsbestimmung werden zur Zeit die folgenden Technologien insbesondere von mobilen Netzbetreibern untersucht und getestet: Cell of Origin (COO or Cell-ID), Enhanced Observed Time Difference (E-OTD), Time of Arrival(TOA), Assisted GPS (A-GPS) and GPS. Die Cell-ID and TOA Methoden werden als netzwerkbasierte Lösungen bezeichnet, während GPS und teilweise A-GPS endgeräteorientiert sind. E-OTD und teilweise A-GPS sind hybride Lösungen, die sowohl auf der Netzwerkinfrastuktur als auch auf den Endgeräten basieren. Die Cell-ID Technologie hat zwei verbesserte Varianten. Cell-ID + Netzwerk Messungen und Cell-ID plus TA (Timing Advance) verbessern die Genauigkeit der Positionsbestimmung.
  • Darüber hinaus gibt es eine Reihe von Verfahren, die auf Infrastrukturlösungen beruhen. Sensoren, Barken, Kleinleistungs-Funkzellen (z.B. Bluetooth) messen die Position des Objektes oder geben ihrerseits eine genau Position an, so dass das Objekt daraus die eigene Position bestimmen kann.
  • Aus DE 297 17 403 U1 ist ein Mobiltelefon mit integriertem GPS-Sender bzw. GPS-Empfänger bekannt. Mittels dieser Lösung ist es möglich, aktuelle Standortpositionen über GPS-Navigation zu ermitteln und auf dem Display des Mobiltelefons kartographisch anhand von orientierungsgeeigneten Landkarten darzustellen.
  • Aus DE 299 22 501 ist ein Multimedia-Handy Computer bekannt, der aus den Komponenten von Bildhandy, Computer mit DVD-Laufwerk, TV-Karte, Radio-Karte GPS-Komponente, Funkuhr und Objektiv besteht. Diese Lösung stellt eine universelle Anordnung für eine Vielzahl von Anwendungen dar.
  • DE198 52 659 bezieht sich auf eine fahrzeuggestützte Lösung zur Navigation mit Multimedia unter Einbeziehung einer GPS-Komponente. Zusätzlich zu Textinformationen sind auf einem Informationsträger weitere Informationen in multimedialer Form, beispielsweise in Form von Bildern, Bilderfolgen, Filmen, Ton- und Musikdokumenten bzw. in Mischungen dieser Formen abgelegt. Die so gespeicherten Daten können von einer Dienstzentrale aktualisiert werden. Bei dieser Lösung ist die Videoausgabe mit der Navigationsvorrichtung gekoppelt. Die Darstellung von interessierenden Objekten kann sowohl vorausschauend als auch aktuell in Abhängigkeit von der Position des Fahrzeuges erfolgen. Eine punktgenaue Erfassung der Position ist bei dieser Lösung nicht erforderlich und auch nicht möglich.
  • Aus DE 198 52 662 ist ein Verfahren zur multimediagestützten Navigation und eine Navigationsvorrichtung bekannt, die zur Navigation eines Kraftfahrzeuges in einem Straßennetz dienen. Fahranweisungen, die sich auf markante Objekte entlang der Fahrtroute beziehen, werden dabei in der Alltagssprache an den Benutzer gegeben und durch eine optische Ausgabe unterstützt. Auch bei dieser Lösung ist eine punktgenaue Erfassung der Position weder erforderlich noch möglich.
  • In DE 101 10 271 ist eine Lösung zur Präzisierung der Ortsbestimmung von Mobilfunkteilnehmern mit Cell-ID/Timing Advance Verfahren beschrieben. Bei dieser Lösung werden im Rahmen von zyklisch übertragenen Funkfeldstärkesignalmessungen für mehrere benachbarte Basisstationen Cell-Ids von Basisstationen in deren überlappenden Funkzellen sich eine Mobilstation befindet, an eine aktive Basisstation geliefert und daraufhin die Basisstation mit dem kleinsten Funkzellenradius bestimmt. Innerhalb dieser kleinsten Funkzelle kann die Position der Mobilstation durch eine anschließende Timing-Advance Messung noch genauer bestimmt werden.
  • Das erfindungsgemäße Verfahren beruht darauf, dass zu einer möglichst genauen Positionsbestimmung der Mobilstation über die Cell-ID der kleinstmöglichen Funkzelle stattfindet. Bei dieser Lösung liegt die Genauigkeit der Positionsbestimmung durchschnittlich bei ca. 50 Metern.
  • Den beschriebenen Lösungen ist gemeinsam, dass sie für eine punktgenaue Positionsbestimmung weder ausgelegt noch geeignet sind. Lösungen, die auf einer GPS Standortbestimmung basieren, lassen eine Standortbestimmung mit einer Genauigkeit von ca. 10 Metern zu. Die Standortbestimmung über Cell ID gestützte Verfahren sind immer nur so gut, wie die Funkzellendichte das zulässt. Hinzu kommt, das beispielsweise in großen Städten im digitalen Mobilfunknetz durch Funkschatten oder Ablenkung bedingte Bereiche existieren, in denen eine Positionsbestimmung kaum möglich ist.
  • Das erfindungsgemäße Verfahren ist auf eine Lösung ausgerichtet, die eine punktgenaue Positionsbestimmung und damit die Navigation von Fußgängern und Passanten, einschließlich von sehbehinderten oder blinden Personen, ermöglicht. Die Position des Nutzers soll dabei mit einer Genauigkeit von bis zu wenigen Zentimetern bestimmt werden können.
  • Im Rahmen des erfindungsgemäßen Verfahrens wird für die Positionsbestimmung eines Teilnehmers, vorzugsweise eines Fußgängers, ein mobiles Endgerät 2 eingesetzt, dass über eine optische Aufnahmeeinrichtung (Kamera) und eine Funkverbindung zur drahtlose Übertragung von Daten verfügt. Alternativ kann die Kamera auch über eine drahtlose oder eine Kabelverbindung an das mobile Endgerät 2 angeschlossen sein. Diese Ausführungsform kann z.B. mittels einer Kamera realisiert werden, die im Falle eines blinden oder stark sehbehinderten Teilnehmers in eine entsprechende Spezialbrille eingebaut ist. Die Datenübertragung von der Kamera (Brille) zum mobilen Endgerät 2 erfolgt vorzugsweise über eine kabellose Verbindung, beispielsweise über Bluetooth. Das erfindungsgemäße Verfahren ist insbesondere für die Standortbestimmung von Personen ausgelegt, welche sich in einem definierten Gebiet, wie beispielsweise einer Großstadt, befinden, und sich überwiegend per Fuß bewegen.
  • Das mobile Endgerät 2 des Teilnehmers nimmt über die Kamera ein Bild oder eine Bildfolge der Umgebung auf, in der sich der Träger des mobilen Endgerätes 2 befindet. Das mobile Endgerät 2 kann beispielsweise ein Handy mit Kamera und MMS-Funktion sein.
  • Die von der Kamera aufgenommenen Bilder bzw. Bildfolgen werden zusammen mit Daten zur Geräteeinstellung vom mobilen Endgerät 2 und von der aufnehmenden Kamera, wie zum beispielsweise Zoom, Kameratyp, etc. und mit der durch ein GPS-Gerät ermittelten geostationären Position des Teilnehmers über eine drahtlose Verbindung an einen Positions- und Navigationsserver 3 gesendet. Falls keine geostationäre Position vorliegt, wird das Bild bzw. die Bildfolge mit der durch die Funkzelle vorgegebenen Zell-ID verknüpft und an den Positions- und Navigationsserver 3 gesendet. Die Positionsbestimmung wird in diesem Fall im Positions- und Navigationsserver 3 mit Hilfe von geeigneten Verfahren über die Cell-ID durchgeführt.
  • Vom Positions- und Navigationsserver 3 werden alle eingegangenen Daten, einschließlich der Positionsangabe, zu einer Bild-Datenbank 4 weitergeleitet. In der Bild- Datenbank 4 sind eine Vielzahl von Bildern bzw. Bildfolgen, beispielsweise zu einem Stadtgebiet, gespeichert, denen bereits Positionsdaten zugeordnet sind. Die Positionsdaten zu den Bildern bzw. Bildfolgen resultieren aus den zum Stadtgebiet bereits vorhandenen exakten Vermessungsdaten. Die Vermessungsdaten enthalten immer punktgenaue Positionsangaben zu den vermessenen Objekten. Aus diesen Daten lassen sich damit auch Entfernungsangaben von Objekt zu Objekt (von Haus zu Haus) oder Angaben zur Länge einer Straße oder zu den Abmessungen eines Platzes ableiten. Zusammenfassend ist festzustellen, dass mit Hilfe derartiger exakter Vermessungsdaten jeder Punkt innerhalb eines vermessenen Gebietes in Bezug auf seine Position genau zugeordnet werden kann.
  • In der Bilddatenbank 4 erfolgt ein Bildvergleich der vom Positions- und Navigationsserver 3 empfangenen Bilder Bildfolgen mit den bereits dort gespeicherten Bildern/Bildfolgen. Der Suchbereich in der Bild- Datenbank 4 wird durch die mit den Daten gesendeten Positionsangaben, die über die Cell ID oder die GPS- Messung ermittelt wurden, bestimmt. Der Suchbereich in der Bild- Datenbank 4 wird dabei durch den Grad der jeweiligen Ungenauigkeit der Positionsbestimmung über GPS oder Cell ID festgelegt. Für den Bildvergleich werden aus der Videoüberwachung bekannte Algorithmen verwendet (u.a. Mustererkennung, Schrifterkennung, etc. ).
  • Das erfindungsgemäße Verfahren wird anhand eines Ausführungsbeispieles für die Positionsermittlung/Standortbestimmung eines stark sehbehinderten Teilnehmers innerhalb eines Stadtgebietes näher erläutert.
  • 1 zeigt das Wirkprinzip des erfindungsgemäßen Verfahrens.
  • 2 zeigt eine schematische Abbildung für einen Bildmustervergleich zwischen einem von der Kamera des sehbehinderten Teilnehmers aufgenommenen Bild und den aus der Bild-Datenbank 4 zum Vergleich herangezogenen Bildern.
  • Der sehbehinderte Teilnehmer verfügt über ein Handy und eine Kamera. Das Handy ist entweder mit BT- und SMS Funktionen ausgerüstet oder es verfügt über MMS-Funktionalität. Bei einem stark sehbehinderten Teilnehmer ist die Kamera vorzugsweise in eine Spezialbrille integriert. Zusätzlich zur Kamerafunktion kann in die Brille auch noch eine Sprachausgabe integriert sein. Die Sprachausgabe wird dabei vorzugsweise über einen Ohrhörer realisiert.
  • Eine weitere Funktion, die über die Brille realisiert werden kann, beinhaltet die Anzeige von Bildern, die durch einen in die Brille integrierten Monitor der Kamera realisiert sein kann. Auf diesem Monitor können die durch den Positions- und Navigationsserver 3 berechneten Positions- und Navigationsdaten graphisch dargestellt werden. Die graphische Darstellung kann beispielsweise durch Symbole zur Personennavigation (z.B. Angabe der Richtung durch Richtungspfeile bzw. unterschiedliche Helligkeit usw. erfolgen. Die Verbindung zwischen dem mobilen Endgerät 2, hier einem Handy, und den der Brille des Teilnehmers zugeordneten Komponenten wird vorzugsweise über eine drahtlose Verbindung, wie beispielsweise Bluetooth, realisiert. Denkbar ist jedoch auch eine konventionelle Kabelverbindung.
  • Startet der sehbehinderte Teilnehmer die erfindungsgemäße Suchfunktion, so werden die von der Kamera aufgenommenen Bilder oder Bildfolgen zusammen mit Angaben zu seiner aktuellen Position, die über GPS oder Cell-ID ermittelt wurden, und mit den zu den Bildern oder Bildfolgen gehörenden Daten der Kameraeinstellung (z.B. Zoom) usw. und den Daten zum mobilen Endgerät 2 (Gerätetyp usw.) über eine Funkverbindung an einen Positions- und Navigationsserver 3 weitergeleitet. Der Positions- und Navigationsserver 3 hat Zugriff auf eine Bild-Datenbank 4, in der Bilder bzw. Bildfolgen zum Stadtgebiet, wie beispielsweise einzelne Bilder zu Gebäuden, Denkmalen oder anderen markanten Punkten der Stadt oder Bildfolgen von ganzen Straßenzügen mit den an der Straße liegenden Gebäuden und Straßenübergängen gespeichert sind. Den Bildern bzw. Bildfolgen sind exakte Positionszugaben zugeordnet, wobei bei einer Bildfolge jedem Einzelbild ebenfalls mindestens eine Positionsangabe zugeordnet ist. Die Positionsangaben resultieren dabei aus exakten Vermessungsdaten zum betreffenden Stadtgebiet. Im Positions- und Navigationsserver 3 wird ein Bildmustervergleich zwischen den von der Kamera des sehbehinderten Kunden aufgenommenen Bildern bzw. Bildfolgen und den in der Bild-Datenbank 4 gespeicherten Bildern und Bildfolgen vorgenommen (siehe 2). Der für den Bildmustervergleich herangezogene Suchbereich der Bild-Datenbank 4 wird durch die vom sehbehinderten Teilnehmer zusammen mit den Bildern bzw. Bildfolgen zum Positions- und Navigationsserver 3 übertragenen aktuellen Positionsangaben bestimmt. Liegen keine Positionsangaben vor, so wird der gesamte Inhalt der Bild-Datenbank 4 zum Vergleich herangezogen.
  • Der Vergleich der Bilder vom sehbehinderten Teilnehmer mit den Bildern bzw. Bildfolgen der Bild-Datenbank 4 erfolgt auf der Basis eines Bildmustervergleiches. Dabei werden vorzugsweise die aus der Video- und Bildüberwachung bekannten Algorithmen verwendet. Darin enthalten sind bekannte Verfahren zur Texterkennung, so dass Straßennamen, Hausnummern, Bezeichnungen von Gebäuden, etc. aus der Bildinformation extrahiert werden können.
  • Wird anhand des Bildmustervergleiches eine Übereinstimmung mit einem in der Bild-Datenbank 4 gespeicherten Bild erkannt, so wird aus den Angaben über die Kameraposition, Blickwinkel, Kameratyp und Zoom die Position des Betrachters berechnet. Der Positions- und Navigationsserver 3 gibt anschließend aktuelle Positionsangaben in Form einer SMS in Verbindung mit BT oder als MMS an den Teilnehmer aus.
  • Bei einem sehbehinderten Kunden wird die Positionsangabe vorzugsweise als Sprachinformation über den Ohrhörer ausgegeben, wobei bei einer Übermittlung in Form einer MMS das zur Positionsangabe gehörende Bild der Bild-Datenbank 4 auch über den der Brille des sehbehinderten Kunden zugeordneten Monitor ausgegeben werden kann. Von dieser aktuellen Position aus kann der sehbehinderte Teilnehmer dann nach den bei Navigationssystemen üblichen Verfahrensweisen zu dem von ihm gewünschten Ort geführt werden.
  • In einer ersten Ausbaustufe der Bild-Datenbank 4 wird nicht das gesamte Stadtgebiet erfasst sein, sondern nur die Bilder der wichtigsten Gebäude, Plätze und Denkmale und die Bildfolgen der wichtigsten Straßen mit den entsprechenden Gebäuden, sowie die dazugehörigen Positionsangaben. Durch die von den Nutzern des erfindungsgemäßen Verfahrens zur Positionsbestimmung an die Bild-Datenbank 4 gelieferten Bilder und Bildfolgen wird mittels einer entsprechenden Funktion der Bestand der Bild-Datenbank 4 ständig erweitert und ergänzt.
  • Die Positionsangaben zu den neuen Bildern in der Bild-Datenbank 4 werden dabei mittels eines Rechenalgorithmus aus den Positionsangaben zu den bereits in der Bild-Datenbank 4 vorhandenen Bildern/Bildfolgen berechnet und in der Bild-Datenbank 4 gespeichert. Die Bilder mit den so ermittelten Positionsangeben werden dabei entsprechend ihren Positionsangaben in die Bild-Datenbank 4 eingefügt, so dass in der zweiten Ausbaustufe eine Datenbank vorhanden ist, die das gesamte Stadtgebiet mit den entsprechenden Positionsangaben virtuell abbildet. Jeder Standort dieses virtuellen Stadtgebietes kann über die Abbildung seiner Umgebung als Ausgangspunkt für die Navigation zu einem anderen Ort im Stadtgebiet punktgenau ermittelt werden.
  • Im Falle einer baulichen Änderung im Stadtgebiet werden die alten Bilder/Bildfolgen in den meisten Fällen unter Beibehaltung der alten Positionsangaben, durch neue aktuelle Bilder/Bildfolgen ersetzt. Auf diese Weise erweitert und aktualisiert die Bild-Datenbank 4 in Abhängigkeit von den Aktivitäten der Teilnehmer automatisch ständig ihren Datenbestand.
  • Die mit dem erfindungsgemäßen Verfahren mögliche punktgenaue Positionsbestimmung ist die Grundlage einer Reihe von Anwendungsmöglichkeiten im Bereich der Navigation von Fußgängern und anderen Passanten, einschließlich sehbehinderter oder blinder Personen innerhalb eines definierten Gebietes, wie beispielsweise dem Gebiet einer Großstadt.
  • Insbesondere bei der Navigation von blinden Personen ist eine punktgenaue Ermittlung der jeweiligen Position in Verbindung mit sehr genauen Angaben zur Umgebung und zur gewünschten Streckenführung unerlässlich.

Claims (3)

  1. Verfahren zur genauen Positionsbestimmung eines mobilen Endgerätes unter Einbeziehung von an sich bekannter Verfahren zur Standortbestimmung auf der Basis von GPS bzw. Cell-ID, dadurch gekennzeichnet, – dass über eine optische Aufnahmeeinrichtung, vorzugsweise eine Kamera, die einem mobilen Endgerät (2) zugeordnet ist, Bilder/Bildfolgen der Umgebung des Teilnehmers, der sich in einem definierten Suchgebiet befindet, aufgenommen und zusammen mit Daten zur Geräteeinstellung des mobilen Endgerätes (2) und Einstellungsdaten zur optischen Aufnahmeeinrichtung über eine drahtlose Verbindung des mobilen Endgerätes (2) zu einem Positions- und Navigationsserver (3) gesendet werden, – dass die vom Positions- und Navigationsserver (3) empfangenen Bilder/Bildfolgen mit den in einer Bild-Datenbank (4) gespeicherten Bilder/Bildfolgen aus dem Suchgebiet verglichen werden, wobei den in der Bild Datenbank (4) gespeicherten Bildern/Bildfolgen Positionsdaten zugeordnet sind, die aus den bereits zum betreffenden Suchgebiet vorhandenen exakten Vermessungsdaten resultieren, – dass der Vergleich als Bildmustervergleich auf der Basis von Suchalgorithmen erfolgt, wie sie aus der Videoüberwachung und Texterkennung bekannt sind, – dass bei Übereinstimmung eines vom Teilnehmer gesendeten Bildes mit einem Bild bzw. einem Bildbereich eines Bildes der Bild-Datenbank (4) im Positions- und Navigationsserver (3) aus den zum Bild gehörenden Positionsdaten und den vom Teilnehmer empfangenen Daten zur Engeräteeinstellung und den Daten zur Einstellung der optischen Aufnahmeeinrichtung über einen Rechenalgorithmus die genaue Position des mobilen Endgerätes (2) und damit auch des Teilnehmers ermittelt wird, und – dass die Daten der genauen Position des mobilen Endgerätes (2) und das dazugehörende Bild aus der Bild-Datenbank (4) über den Positions- und Navigationsserver (3) zum mobilen Endgerät (2) des Teilnehmers übertragen und angezeigt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass vom mobilen Endgerät (2) des Teilnehmers zusätzlich Daten zur aktuellen Position des Teilnehmers, die über GPS oder die Cell-ID ermittelt wurden, zum Positions- und Navigationsserver (3) übertragen werden, wobei mittels dieser Positionsangaben vom Positions- und Navigationsserver (3) das Suchfeld für den Bildmustervergleich im Datenbestand der Bild-Datenbank (4) festgelegt wird.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Datenbestand der Bild-Datenbank (4) durch die von den Teilnehmern zum Bildmustervergleich übertragenen Bilder ständig ergänzt und aktualisiert wird, wobei die Positionsangaben zu neuen, noch nicht in der Bild-Datenbank (4) gespeicherten Bildern automatisch über einen Rechenalgorithmus aus den Positionsangaben der bereits in der Bild-Datenbank (4) vorhandenen Bilder/Bildfolgen ermittelt wird.
DE10248534A 2002-10-14 2002-10-14 Verfahren zur genauen Positionsbestimmung eines mobilen Endgerätes Expired - Lifetime DE10248534B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10248534A DE10248534B4 (de) 2002-10-14 2002-10-14 Verfahren zur genauen Positionsbestimmung eines mobilen Endgerätes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10248534A DE10248534B4 (de) 2002-10-14 2002-10-14 Verfahren zur genauen Positionsbestimmung eines mobilen Endgerätes

Publications (2)

Publication Number Publication Date
DE10248534A1 true DE10248534A1 (de) 2004-04-22
DE10248534B4 DE10248534B4 (de) 2013-04-11

Family

ID=32038750

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10248534A Expired - Lifetime DE10248534B4 (de) 2002-10-14 2002-10-14 Verfahren zur genauen Positionsbestimmung eines mobilen Endgerätes

Country Status (1)

Country Link
DE (1) DE10248534B4 (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006001129A1 (ja) 2004-06-29 2006-01-05 Sony Corporation 情報処理装置および方法、プログラム、並びに情報処理システム
EP1617365A1 (de) * 2004-07-16 2006-01-18 Vodafone Holding GmbH Koordination und Abwicklung von Lern-, Unterhaltungs- und/oder Wettbewerbszwecken dienenden Spielen
DE102006062061A1 (de) 2006-12-29 2008-07-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera
WO2012048983A1 (de) * 2010-10-12 2012-04-19 Robert Bosch Gmbh Verfahren zur verbesserten positionsbestimmung mit einem navigationssystem und navigationssystem hierzu
DE102012013492A1 (de) 2012-07-09 2013-01-17 Daimler Ag Verfahren zur Positionsbestimmung
DE102011112404A1 (de) * 2011-09-03 2013-03-07 Audi Ag Verfahren zum Bestimmen der Position eines Kraftfahrzeugs
WO2013056884A1 (de) 2011-10-21 2013-04-25 Robert Bosch Gmbh Übernahme von daten aus bilddatenbasierenden kartendiensten in ein assistenzsystem
WO2013192270A1 (en) * 2012-06-22 2013-12-27 Qualcomm Incorporated Visual signatures for indoor positioning
EP2738519A2 (de) 2012-11-29 2014-06-04 Technische Fachhochschule Wildau Orten eines mobilen Endgeräts unter Nutzung von optisch detektierbaren Landmarken
US8938257B2 (en) 2011-08-19 2015-01-20 Qualcomm, Incorporated Logo detection for indoor positioning
EP3882894A1 (de) * 2020-03-19 2021-09-22 Hassan Ali Alshehri Sehhilfe für einen sehbehinderten menschen

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE29717403U1 (de) * 1997-09-30 1998-01-02 Wiethe, Frank, 74374 Zaberfeld Mobiltelefon mit integrierter GPS-Navigation
EP0869464A1 (de) * 1997-04-04 1998-10-07 N.V. Nederlandsche Apparatenfabriek NEDAP Schutzsystem mit Schutzmittel für Personen
DE19743705C1 (de) * 1997-10-02 1998-12-17 Ibs Integrierte Business Syste Verfahren zum Sammeln und Verknüpfen von Positionsdaten aus Satellitenortung und weiteren Daten sowie Verwendungen dafür
DE19852662A1 (de) * 1998-11-16 2000-05-25 Bosch Gmbh Robert Verfahren zur multimediagestützten Navigation und Navigationsvorrichtung
DE19852659A1 (de) * 1998-11-16 2000-05-25 Bosch Gmbh Robert Navigation mit Multimedia
DE29922501U1 (de) * 1999-12-22 2000-06-08 Cui, Ou, 14776 Brandenburg Multimedia Handy-Computer
US6133947A (en) * 1995-11-15 2000-10-17 Casio Computer Co., Ltd. Image processing system capable of displaying photographed image in combination with relevant map image
WO2001049056A1 (en) * 1999-12-23 2001-07-05 Nokia Corporation Method and apparatus for providing location information through a wireless communications network
DE10110271C1 (de) * 2001-03-02 2002-09-12 Siemens Ag Präzisierung der Ortsbestimmung von Mobilfunkteilnehmern mit Cell-ID/Timing Advance Verfahren
WO2003032005A2 (en) * 2001-10-09 2003-04-17 Sirf Technologies, Inc. Method and system for sending location coded images over a wireless network

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6266442B1 (en) * 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
JP4236372B2 (ja) * 2000-09-25 2009-03-11 インターナショナル・ビジネス・マシーンズ・コーポレーション 空間情報利用システムおよびサーバシステム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6133947A (en) * 1995-11-15 2000-10-17 Casio Computer Co., Ltd. Image processing system capable of displaying photographed image in combination with relevant map image
EP0869464A1 (de) * 1997-04-04 1998-10-07 N.V. Nederlandsche Apparatenfabriek NEDAP Schutzsystem mit Schutzmittel für Personen
DE29717403U1 (de) * 1997-09-30 1998-01-02 Wiethe, Frank, 74374 Zaberfeld Mobiltelefon mit integrierter GPS-Navigation
DE19743705C1 (de) * 1997-10-02 1998-12-17 Ibs Integrierte Business Syste Verfahren zum Sammeln und Verknüpfen von Positionsdaten aus Satellitenortung und weiteren Daten sowie Verwendungen dafür
DE19852662A1 (de) * 1998-11-16 2000-05-25 Bosch Gmbh Robert Verfahren zur multimediagestützten Navigation und Navigationsvorrichtung
DE19852659A1 (de) * 1998-11-16 2000-05-25 Bosch Gmbh Robert Navigation mit Multimedia
DE29922501U1 (de) * 1999-12-22 2000-06-08 Cui, Ou, 14776 Brandenburg Multimedia Handy-Computer
WO2001049056A1 (en) * 1999-12-23 2001-07-05 Nokia Corporation Method and apparatus for providing location information through a wireless communications network
DE10110271C1 (de) * 2001-03-02 2002-09-12 Siemens Ag Präzisierung der Ortsbestimmung von Mobilfunkteilnehmern mit Cell-ID/Timing Advance Verfahren
WO2003032005A2 (en) * 2001-10-09 2003-04-17 Sirf Technologies, Inc. Method and system for sending location coded images over a wireless network

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006001129A1 (ja) 2004-06-29 2006-01-05 Sony Corporation 情報処理装置および方法、プログラム、並びに情報処理システム
EP1762822A1 (de) * 2004-06-29 2007-03-14 Sony Corporation Informationsverarbeitungseinrichtung und -verfahren, programm und informationsverarbeitungssystem
EP1762822A4 (de) * 2004-06-29 2011-06-29 Sony Corp Informationsverarbeitungseinrichtung und -verfahren, programm und informationsverarbeitungssystem
EP1617365A1 (de) * 2004-07-16 2006-01-18 Vodafone Holding GmbH Koordination und Abwicklung von Lern-, Unterhaltungs- und/oder Wettbewerbszwecken dienenden Spielen
DE102006062061A1 (de) 2006-12-29 2008-07-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera
US8121350B2 (en) 2006-12-29 2012-02-21 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus, method and computer program for determining a position on the basis of a camera image from a camera
WO2012048983A1 (de) * 2010-10-12 2012-04-19 Robert Bosch Gmbh Verfahren zur verbesserten positionsbestimmung mit einem navigationssystem und navigationssystem hierzu
US8938257B2 (en) 2011-08-19 2015-01-20 Qualcomm, Incorporated Logo detection for indoor positioning
DE102011112404A1 (de) * 2011-09-03 2013-03-07 Audi Ag Verfahren zum Bestimmen der Position eines Kraftfahrzeugs
DE102011112404B4 (de) * 2011-09-03 2014-03-20 Audi Ag Verfahren zum Bestimmen der Position eines Kraftfahrzeugs
WO2013056884A1 (de) 2011-10-21 2013-04-25 Robert Bosch Gmbh Übernahme von daten aus bilddatenbasierenden kartendiensten in ein assistenzsystem
DE102011084993A1 (de) 2011-10-21 2013-04-25 Robert Bosch Gmbh Übernahme von Daten aus bilddatenbasierenden Kartendiensten in ein Assistenzsystem
US9360331B2 (en) 2011-10-21 2016-06-07 Robert Bosch Gmbh Transfer of data from image-data-based map services into an assistance system
WO2013192270A1 (en) * 2012-06-22 2013-12-27 Qualcomm Incorporated Visual signatures for indoor positioning
DE102012013492A1 (de) 2012-07-09 2013-01-17 Daimler Ag Verfahren zur Positionsbestimmung
EP2738519A2 (de) 2012-11-29 2014-06-04 Technische Fachhochschule Wildau Orten eines mobilen Endgeräts unter Nutzung von optisch detektierbaren Landmarken
DE102012221921A1 (de) 2012-11-29 2014-06-05 Technische Hochschule Wildau (Fh) Orten eines mobilen Endgeräts unter Nutzung von optisch detektierbaren Landmarken
DE102012221921B4 (de) 2012-11-29 2018-04-05 Technische Hochschule Wildau (Fh) Orten eines mobilen Endgeräts unter Nutzung von optisch detektierbaren Landmarken
EP3882894A1 (de) * 2020-03-19 2021-09-22 Hassan Ali Alshehri Sehhilfe für einen sehbehinderten menschen

Also Published As

Publication number Publication date
DE10248534B4 (de) 2013-04-11

Similar Documents

Publication Publication Date Title
DE112011104739B4 (de) Informationsverwaltungsvorrichtung und Informationsverwaltungssystem für mobile Informationsendgeräte
EP1019671B1 (de) Verfahren zum sammeln und verknüpfen von positionsdaten aus satellitenortung und weiteren daten
DE112013006503B4 (de) Bewegungsassistenzvorrichtung und Bewegungsassistenzverfahren
DE60038068T2 (de) Verfahren und Vorrichtung zur Navigation
DE102011084993A1 (de) Übernahme von Daten aus bilddatenbasierenden Kartendiensten in ein Assistenzsystem
DE202015009128U1 (de) Generieren von Routenführungs-Anweisungsvorschauen
DE10248534B4 (de) Verfahren zur genauen Positionsbestimmung eines mobilen Endgerätes
EP1131603B1 (de) Navigationsvorrichtung zur multimediagestützten navigation
EP1286558A1 (de) Mobilfunknetz und -endgerät für ortsabhängige Dienste
DE60106930T2 (de) Implementierung eines routenanleitungsdienstes mit einem dreidimensionalen modell
DE10056846A1 (de) Tragbares Gerät, umfassend Orientierungsmittel, und Verfahren für den Einsatz eines solchen Geräts und entsprechendes Orientierungsverfahren
DE102017218237A1 (de) Verfahren und Vorrichtung zum Bereitstellen eines aktuellenStandorts eines Mobilgeräts
DE10151354A1 (de) Informations- und Navigationssystem
EP1064521B1 (de) Datenvorrichtung für ein kraftfahrzeug
DE102018133445A1 (de) Verfahren und Vorrichtung zum Überwachen eines Insassen eines Fahrzeugs sowie System zur Analyse der Wahrnehmung von Objekten
EP3008636A1 (de) Verfahren und system zum auffinden einer oder mehrerer personen durch ein fahrzeug
DE10311101B4 (de) Vorrichtung zum Suchen einer Einrichtung, Verfahren zum Suchen einer Einrichtung und in einem Fahrzeug installierte Navigationsvorrichtung
Delikostidis et al. Geo-Identifi cation and Pedestrian Navigation with Geo-Mobile Applications: How Do Users Proceed?
DE102014107317B4 (de) Elektronisches Periskop für ein Kraftfahrzeug
EP3384242A1 (de) System und verfahren zur indoor - navigation
CN114866682B (zh) 一种基于视频生成路书的方法以及一种生成个性化路书的方法
EP2171400A1 (de) Eingabe von geodaten in eine navigationseinrichtung
DE102006040493B4 (de) Verfahren und Vorrichtungen sowie Computerprogramm zur Erfassung und Nutzung richtungsbezogener Information eines Objekts
DE102017009187A1 (de) Einrichtung zur Unterstützung der Mobilität sehbehinderter Personen im Straßenverkehr
CN107270917A (zh) 一种在手绘地图上拟合gps定位的方法及导览图

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8110 Request for examination paragraph 44
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20130712

R071 Expiry of right