DE69722727T2 - Datenanzeigesystem mit Berührungstafel - Google Patents

Datenanzeigesystem mit Berührungstafel Download PDF

Info

Publication number
DE69722727T2
DE69722727T2 DE69722727T DE69722727T DE69722727T2 DE 69722727 T2 DE69722727 T2 DE 69722727T2 DE 69722727 T DE69722727 T DE 69722727T DE 69722727 T DE69722727 T DE 69722727T DE 69722727 T2 DE69722727 T2 DE 69722727T2
Authority
DE
Germany
Prior art keywords
touch
elements
data
display
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69722727T
Other languages
English (en)
Other versions
DE69722727D1 (de
Inventor
Kazuteru Anjo-shi Maekawa
Yukiyoshi Anjo-shi Suzuki
Takeshi Anjo-shi Yanagikubo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Publication of DE69722727D1 publication Critical patent/DE69722727D1/de
Application granted granted Critical
Publication of DE69722727T2 publication Critical patent/DE69722727T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3614Destination input or retrieval through interaction with a road map, e.g. selecting a POI icon on a road map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • G01C21/3682Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities output of POI information on a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • G01C21/3685Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities the POI's being parking facilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Navigation (AREA)

Description

  • Die vorliegende Erfindung betrifft ein für ein Navigationssystem oder ein ähnliches System geeignetes Datenanzeigesystem mit einer Berührungstafel oder Touch-Panel.
  • In herkömmlichen Datenanzeigesystemen mit Touch-Panels werden verschiedenartige Informationen, z. B. Menüpunkte oder -elemente, auf einem Display dargestellt, und durch manuelles Berühren ausgewählter Elemente der dargestellten Information durch das Touch-Panel können Elemente ausgewählt werden. Wenn eine manuelle Berührung erfaßt wird, werden die Berührungspositionskoordinaten auf dem Display bestimmt, um festzustellen, welches der auf dem Display dargestellten Elemente ausgewählt worden ist, woraufhin die Verarbeitung gemäß dem ausgewählten Element fortschreitet.
  • In einem herkömmlichen Fahrzeugnavigationssystem weist das Display ein Touch-Panel auf, um es einer Bedienungsperson zu erleichtern, verschiedene Einstellungen vorzunehmen und Informationen darzustellen, während das Fahrzeug fährt. Wenn ein Element einer spezifischen Kategorie, z. B. "Convenience Store", "Tankstelle" oder "Schnellrestaurant", auf dem Display des Navigationssystems ausgewählt wird, wird eine der ausgewählten Kategorie entsprechende Markierung auf der auf dem Display dargestellten Karte dargestellt, so daß der Benutzer die Position des Ladens oder Geschäfts der ausgewählten Kategorie auf einen Blick erkennen kann.
  • Im vorstehend erwähnten herkömmlichen Navigationssystem kann eine dargestellte Markierung durch Berühren der gewünschten Markierung auf dem Display ausgewählt werden, um einen Durchgangspunkt oder einen Zielpunkt für das Navigationssystem zu setzen. Wenn die dargestellte Karte jedoch einen Stadtbezirk oder einen Weitbereich abdeckt, werden auf dem Display möglicherweise mehrere Markierungen dicht benachbart zueinander dargestellt.
  • Das Verfahren zum Auswählen einer dargestellten Markierung durch das Touch-Panel ist dahingehend vorteilhaft, daß die Markierung durch eine einzige Berührung ausgewählt werden kann. Das durch die manuelle Berührung ausgewählte Element kann jedoch mehrdeutig sein (d. h. es kann möglicherweise nicht eindeutig zugeordnet werden), wenn die auszuwählende Markierung eine von mehreren dicht benachbart zueinander angeordneten Markierungen ist.
  • Dadurch kann sich eine fehlerhafte Auswahl ergeben, wenn durch das Touch-Panel eine Auswahl unter dicht benachbart zueinander dargestellten Markierungen getroffen wird, wie vorstehend beschrieben wurde. Auch wenn der Benutzer die fehlerhafte Auswahl erkennt und die Eingabe wiederholt, kann sich die fehlerhafte Auswahl wiederholen, wenn der Dartsellungszustand, in dem die Markierungen dicht benachbart zueinander dargestellt sind, nicht geändert wird. Wenn durch Berührung auszuwählende Elemente auf dem Display dicht benachbart zueinander dargestellt werden, kann häufig eine fehlerhafte Auswahl auftreten.
  • Es ist Aufgabe der vorliegenden Erfindung, die vorstehend erwähnten Probleme zu lösen und ein Datenanzeigesystem mit einem Touch-Panel bereitzustellen, wobei das System ein optimal ausgewähltes Element für die Berührungsposition bestimmen kann, wodurch die Bedienung vereinfacht wird. Diese Aufgabe wird durch die Merkmale der Patentansprüche gelöst.
  • Gemäß einem Aspekt der vorliegenden Erfindung wird ein Datenanzeigesystem mit einem Touch-Panel zum Auswählen eines Elements durch Berührung aus mehreren dargestellten Elementen bereitgestellt, wobei die Differenzen zwischen den Koordinaten der Berührungsposition und den Koordinaten der mehreren auf dem Display dargestellten Elemente berechnet werden und das ausgewählte Element als dasjenige Element unter den mehreren dargestellten Elementen bestimmt wird, das die kleinste berechnete Koordinatendifferenz bezüglich der Berührungsposition aufweist.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung sind die mehreren dargestellten Elemente auf einer Karte dargestellte Markierungen, so daß die Koordinaten der einzelnen Markierungen die Positionen der Markierungen auf der Karte darstellen.
  • Gemäß einem dritten Aspekt der vorliegenden Erfindung wird ferner entschieden, ob durch eine Berührung eine Auswahl vorgenommen wird, die einer fehlerhaften Bestimmung eines ausgewählten Elements folgt oder nicht, wobei, wenn entschieden wird, daß die aktuelle Berührung vorgenommen wird, um eine vorangehende fehlerhafte Auswahl zu korrigieren, ein Gewichtungsfaktor für die Auswahl des vorangehend bestimmten Elements vermindert wird.
  • Gemäß einem vierten Aspekt der vorliegenden Erfindung basiert die Entscheidung, daß die aktuelle Berührung vorgenommen wird, um eine fehlerhafte Auswahl zu korrigieren, die anhand einer vorherigen Berührung bestimmt wurde, auf der Bedingung, daß die aktuelle Berührung innerhalb einer vorgegebenen Zeitdauer bezüglich der vorangehenden Berührung erfolgt und die Koordinatendifferenz zwischen der vorangehenden und der aktuellen Berührungsposition innerhalb eines vorgegebenen Bereichs liegt.
  • Gemäß einem fünften Aspekt der vorliegenden Erfindung wird, wenn entschieden wird, daß die aktuelle Berührung vorgenommen wird, um ein fehlerhaft ausgewähltes Element zu korrigieren, das anhand einer vorangehenden Berührung bestimmt wurde, ein den Abstand zwischen dem vorangehend ausgewählten Element und der aktuellen Berührungsposition darstellender Wert geändert.
  • Gemäß einem sechsten Aspekt der vorliegenden Erfindung, wobei das Datenanzeigesystem einen "Nächster Kandidat"-Auswahlschalter aufweist, wird, wenn der "Nächster Kandidat"-Auswahlschalter betätigt wird, ein nächstes Element in der Folge zunehmender Koordinatendifferenzen sequentiell von den dargestellten Elementen ausgewählt.
  • Gemäß einem siebenten Aspekt der vorliegenden Erfindung sind die ausgewählten Elemente auf der Karte dargestellte Markierungen bzw. Orientierungspunkte oder Verkehrsvorschrift- oder -regulierungszeichen.
  • Gemäß einem achten Aspekt der vorliegenden Erfindung können die ausgewählten Elemente, z. B. Markierungen bzw. Orientierungspunkte oder Verkehrsvorschrift- bzw. -regulierungsmarkierungen, als Navigationspunktdaten verwendet werden.
  • Gemäß einem neunten Aspekt der vorliegenden Erfindung werden die ausgewählten Elemente in der Mitte des Displays dargestellt.
  • 1 zeigt ein Blockdiagramm zum Darstellen einer Ausführungsform eines Fahrzeugnavigationssystems, in dem ein erfindungsgemäßes Datenanzeigesystem verwendet wird.
  • 2 zeigt ein Diagramm der Struktur von im System von 1 verwendeten Straßendatendateien;
  • 3(a) zeigt ein Diagramm der Struktur einer im System von 1 verwendeten Kreuzungsdatendatei;
  • 3(b) zeigt ein Diagramm der Struktur einer im System von 1 verwendeten Markierungsdatendatei;
  • 3(c) zeigt ein Diagramm der Struktur einer im System von 1 verwendeten Markierungszeichnungsdatendatei;
  • 4 zeigt ein Ablaufdiagramm der Gesamtverarbeitung des Navigationssystems von 1;
  • 5A zeigt ein Diagramm eines Bildschirmfensters zum Darstellen einer auf einer Routenführungskarte mittig dargestellten Ist-Position;
  • 5B zeigt ein Diagramm zum Darstellen der Berührung eines Menüpunkts "Umgebungssuche";
  • 5C zeigt ein Diagramm eines bei einem Übergang vom Kartenbildschirmfenster von 5A zur Umgebungssuche dargestellten Bildschirmfensters;
  • 5D zeigt ein Diagramm zum Darstellen der Berührung eines Menüpunkts der Kategorie "Convenience Store";
  • 6A zeigt ein Diagramm eines "Umgebungssuche"-Bildschirmfensters, auf dem Markierungen der Kategorie "Convenience Store" dargestellt sind;
  • 6B zeigt ein ähnliches Diagramm wie 6A zum Darstellen der Auswahl einer auf dem Bildschirmfenster dargestellten Markierung;
  • 7 zeigt ein Diagramm zum Darstellen eines "Umgebungssuche"-Bildschirmfensters, wobei die ausgewählte Markierung in der Mitte dargestellt ist;
  • 8A zeigt ein ähnliches Diagramm wie 6B zum Darstellen der Auswahl einer dargestellten Markierung aus dicht benachbart zueinander dargestellten Markierungen;
  • 8B zeigt ein Diagramm zum Darstellen eines "Umgebungssuche"-Bildschirmfensters, wobei eine ausgewählte Markierung unter dicht benachbart zueinander dargestellten Markierungen in der Mitte dargestellt ist;
  • 9A zeigt ein ähnliches Diagramm wie 8B zum Darstellen eines Versuchs, eine fehlerhafte Auswahl einer von mehreren dicht benachbart zueinander dargestellten Markierungen zu korrigieren;
  • 9B zeigt ein Diagramm zum Darstellen eines "Umgebungssuche"-Bildschirmfensters mit einer korrigierten ausgewählten Markierung in der Mitte;
  • 10 zeigt einen Graphen zum Darstellen von Koordinaten einer Berührungsposition und mehrerer Markierungen während der Bestimmung einer ausgewählten Markierung unter mehreren dicht benachbart zueinander dargestellten Markierungen;
  • 11 zeigt einen ersten Teil eines Ablaufdiagramms einer während einer Umgebungssuche ausgeführten Verarbeitung;
  • 12 zeigt einen zweiten Teil eines Ablaufdiagramms einer während einer Umgebungssuche ausgeführten Verarbeitung;
  • 13A zeigt eine ähnliche Ansicht wie 8A, jedoch für eine modifizierte Verarbeitung;
  • 13B zeigt ein Diagramm zum Darstellen eines in der modifizierten Verarbeitung vorgesehenen "Umgebungssuche"-Bildschirmfensters mit einer ausgewählten Markierung unter dicht benachbart zueinander dargestellten Markierungen in der Mitte;
  • 14A zeigt ein Diagramm zum Darstellen einer Auswahl eines Elements in einem modifizierten Bildschirmfenster zum Auswählen von Markierungen, wobei die Markierungen dicht benachbart zueinander dargestellt sind;
  • 14B zeigt ein Diagramm eines "Umgebungssuche"-Bildschirmfensters mit einer ausgewählten Markierung unter dicht benachbart zueinander dargestellten Markierungen in der Mitte im modifizierten Bildschirmfenster;
  • 15A zeigt ein ähnliches Diagramm wie 8B, das jedoch in einem anderen modifizierten Verfahren verwendet wird;
  • 15B zeigt ein Diagramm zum Darstellen der Berührung eines im anderen modifizierten Verfahren vorgesehenen Menüpunkts "Nächster Kandidat" zum Korrigieren einer fehlerhaft ausgewählten Markierung unter dicht benachbart zueinander dargestellten Markierungen; und
  • 15C zeigt ein Diagramm eines in dem anderen modifizierten Verfahren vorgesehenen "Umgebungssuche"-Bildschirmfensters, wobei die korrigierte ausgewählte Markierung unter den dicht benachbart zueinander dargestellten Markierungen in der Mitte dargestellt ist.
  • Eine bevorzugte Ausführungsform der vorliegenden Erfindung wird in einem in 1 dargestellten Fahrzeugnavigationssystem verwendet. Das Fahrzeugnavigationssystem weist auf: eine Ein-/Ausgabeeinheit 1 zum Ein-/Ausgeben von Informationen über eine Routenführung, eine Ist-Positionserfassungseinheit 2 zum Erfassen von Informationen über die Ist-Position eines Fahrzeugs, eine Informationsspeichereinheit 3, in der zum Berechnen der Route erforderliche Navigationsdaten, zum Bereitstellen einer Führung entlang der Route erforderliche Display-/Sprachführungsdaten und Anwendungs- und/oder Betriebssystem (OS)-programme gespeichert sind, und eine Zentraleinheit 4 zum Steuern des gesamten Systems.
  • Die Ein-/Ausgabeeinheit 1 stellt Navigations- und Eingabeauswahlinformationen oder -elemente unter der Steuerung der Zentraleinheit 4 dar, über die Ein-/Ausgabeeinheit gibt der Fahrer Eingabeauswahldaten ein, z. B. bezüglich des Ziels, oder Anweisungen, die Ein-/Ausgabeeinheit gibt Führungsinformationen gemäß den durch den Fahrer eingegebenen Anweisungen durch Sprache oder über das Display aus und gibt verarbeitete Daten an einen Drucker aus. Um diese Funktionen auszuführen, weist der Eingabeabschnitt ein Touch-Panel 11 zum Eingeben des Ziels anhand einer Telefonnummer oder von Koordinaten auf einer Karte und zum Eingeben von Anweisun gen, z. B. zum Anfordern einer Routenführung, auf. Alternativ kann eine Eingabe durch ein Eingabegerät, z. B. eine Fernbedienung, vorgenommen werden. Der Ausgabeabschnitt weist ein Display 12 zum Darstellen der Eingabeauswahldaten auf dem Display und zum automatischen Darstellen von Routenführungsinformationen auf dem Display in Antwort auf eine Anforderung durch den Fahrer, einen Drucker 13 zum Ausdrucken von durch die Zentraleinheit 4 verarbeiteten Daten und von in der Informationsspeichereinheit 3 gespeicherten Daten und einen Lautsprecher 16 zum Bereitstellen einer Routenführung durch Audio- oder Sprachausgabe auf.
  • Die Ein-/Ausgabeeinheit kann außerdem aufweisen: eine (nicht dargestellte) Spracherkennungseinheit zum Ermöglichen einer Spracheingabe von Anweisungen und Zielpunkten, eine Karten- oder Plattenleseeinheit (nicht dargestellt) zum Lesen von auf einer IC-Karte oder einer Magnetkarte oder -platte gespeicherten Daten, eine Datenkommunikationseinheit (nicht dargestellt) zum Übertragen von Daten zwischen einer Informationszentrale, in der für die Navigation erforderliche Daten gespeichert sind, um die Information auf Anforderung durch den Fahrer über Kommunikationsleitungen zu übertragen, und eine Informationsspeichervorrichtung, z. B. ein elektronisches Notizbuch, in dem eigene Daten des Fahrers vorgespeichert sind, z. B. Kartendaten und Zieldaten.
  • Das Display 12 ist ein Farb-Elektronenstrahl- bzw. Kathodenstrahlröhren (CRT)-display oder ein Farb-Flüssigkristalldisplay und stellt alle für die Navigation erforderlichen Bildschirmfenster, z. B. ein Liniensetzbildschirmfenster, ein Abschnittdiagrammbildschirmfenster und ein Kreuzungsdiagrammbildschirmfenster, basierend auf Kartendaten oder Führungsdaten, die durch die Zentraleinheit 4 verarbeitet werden, und Tasten in den entsprechenden Bildschirmfenstern zum Setzen der Route, für eine Führung entlang der Rou te und zum Umschalten auf ein anderes Bildschirmfenster in Farbe dar. Beispielsweise werden Informationen, z. B. der Name einer nächsten Kreuzung, zu einem geeigneten Zeitpunkt im Abschnittdiagrammbildschirmfenster in Form einer Pop-up-Darstellung in Farbe dargestellt.
  • Das Display 12 ist im Armaturenbrett bzw. in der Instrumententafel des Fahrzeugs in der Nähe des Fahrersitzes angeordnet, so daß der Fahrer durch Betrachten des Abschnittdiagramms die Ist-Position des Fahrzeugs bestätigen und Informationen über die zu fahrende Route erhalten kann. Das Display 12 weist das Touch-Panel 11 auf, auf dem an der Position der dargestellten Funktionstasten angeordnete Schaltelemente bereitgestellt werden, so daß durch Berühren der Tasten Eingabeoperationen ausgeführt werden können. Diese Eingabesignalerzeugungseinrichtung, die aus den dargestellten Bildern von Tasten und den an der Position der Tasten angeordneten Schaltelementen gebildet wird, bildet den Eingabeabschnitt der Hardware.
  • Die Ist-Positionserfassungseinheit 2 erfaßt oder empfängt Informationen über die Ist-Position des Fahrzeugs und weist auf: einen aus einem geomagnetischen Sensor oder einer ähnlichen Einrichtung gebildeten Absolutrichtungssensor 24; einen Relativrichtungssensor 25 mit einem Lenksensor, einem Gyrosensor oder einer ähnlichen Einrichtung; einen Fahrtstreckensensor 26 zum Erfassen der zurückgelegten Fahrtstrecke anhand der Umdrehungen der Räder; einen GPS-Empfänger 21, der das Satellitennavigationssystem (GPS) nutzt; einen VICS-Empfänger 22, der als Verkehrsinformationserfassungseinrichtung dient; und/oder einen Datentransveiver 23. Der VICS-Empfänger 22 empfängt Straßenverkehrsinformationen über FM-Funkkanäle, elektrische Baken oder optische bzw. Lichtbaken, und der Datentransceiver 23 ist beispielsweise ein Mobiltelefon oder ein Personalcomputer zum Austauschen der für die Navigation erforderlichen Information mit einer Verkehrsinformationszentrale (z. B. ATIS) auf Anforderung durch den Benutzer.
  • Die Informationsspeichereinheit 3 ist eine externe Einheit, z. B. eine CD-ROM, auf der für die Navigation erforderliche Programme und Daten gespeichert sind. Die gespeicherten Programme sind beispielsweise ein Programm zum Suchen einer Route, ein Programm zum Bestimmen einer Eingabe gemäß der vorliegenden Ausführungsform, ein Programm zum Steuern der für eine Displayroutenführung erforderlichen Displayausgabe und zum Steuern der für die Sprachführung erforderlichen Sprachausgabe, und die gespeicherten Daten sind beispielsweise zum Ausführen der Suchverarbeitung, der Eingabe-, Ausgabe- und Steuerfunktionen erforderliche Daten und für die Routenführung und die Kartendarstellung erforderliche Displayinformationsdaten. Die gespeicherten Daten weisen beispielsweise alle für das Navigationssystem erforderlichen Daten auf, z. B. Dateien für Kartendaten, Suchdaten, Führungsdaten, Kartenanpassungsdaten, Zieldaten und Daten registrierter Punkte. Alternativ enthält die CD-ROM nur die gespeicherten Daten, wobei die Programme in der Zentraleinheit 4 gespeichert sind.
  • Die Zentraleinheit 4 weist auf: eine CPU 40 zum Ausführen verschiedener Prozessor- und Rechenoperationen; einen Flash-Speicher 41 zum Empfangen und Speichern von Programmen und Daten, die von der CD-ROM der Informationsspeichereinheit 3 gelesen werden; einen ROM-Speicher 42, in dem Programme oder Prozeduren zum Lesen gespeicherter Programme gespeichert sind, z. B. zum Prüfen und Aktualisieren der Programme des Flash-Speichers 41; einen RAM-Speicher 43 zum Zwischenspeichern der Führungsinformation über die gesuchte Route, z. B. der Punktkoordinaten eines gesetzten Ziels, einer Straßennamencodenummer oder der gerade verarbeiteten Da ten; einen Bildspeicher 44 zum Empfangen und Speichern von Grafikdaten, die zum Erzeugen eines auf dem Display darzustellenden Bildes erforderlichen sind; einen Bildprozessor 45 zum Abrufen der Grafikdaten vom Bildspeicher 44 gemäß einem Displayausgabesteuerungssignal von der CPU 40 und zum Verarbeiten der Grafikdaten, um Bildsignale an das Display 12 auszugeben; einen Sprachprozessor 46 zum Synthetisieren oder Bilden von Audio-Analogsignalen, z. B. von Wörtern, Phrasen und Sätzen, Warntönen oder anderen Tönen, die unter der Steuerung eines Sprachausgabesteuerungssignals von der CPU von der Informationsspeichereinheit 3 ausgelesen werden, und zum Ausgeben der Analogsignale an den Lautsprecher 16; eine Kommunikationsschnittstelle 47 zum Übertragen der Ein/Ausgabedaten zu bzw. von der Zentraleinheit 4, der Ein/Ausgabeeinheit 1, der Ist-Positionserfassungseinheit 2 und der Speichereinheit 3; eine Sensoreingangsschnittstelle 48 zum Abrufen von Sensorsignalen von der Ist-Positionserfassungseinheit 2; und eine Uhr 49 zum Schreiben des Datums und der Uhrzeit in interne Dialoginformation. Im Routenführungssystem kann der Fahrer eine Routenführung durch Display- und/oder Sprachausgabe auswählen.
  • Alternativ kann das vorstehend erwähnte Programm zum Prüfen und Aktualisieren von Programmen im Flash-Speicher im externen Speicher 3 gespeichert sein. Die erfindungsgemäßen Programme zum Bestimmen einer Eingabe und die anderen Programme zum Ausführen der Navigationsverarbeitung können vollständig auf einer CD-ROM oder einem externen Speichermedium gespeichert sein, oder diese Programme können teilweise oder vollständig im ROM-Speicher 42 in der Zentraleinheit 4 gespeichert sein.
  • Die Daten und Programme werden, wenn sie auf dem externen Speichermedium gespeichert sind, der Zentraleinheit des Navigationssystems als externe Signale zugeführt und als ex terne Signale durch die Zentraleinheit verarbeitet, so daß verschiedenartige Navigationsfunktionen ausgeführt werden können.
  • Im vorstehend beschriebenen Navigationssystem hat der Flash-Speicher 41 eine relativ hohe Kapazität zum Empfangen und Speichern der Programme von der CD-ROM der externen Speichereinheit, und der ROM-Speicher 42 hat eine relativ kleine Kapazität zum Speichern der Programme zum Starten und Lesen von Informationen und/oder Programmen von der CD-ROM. Der Flash-Speicher 41 ist ein nichtflüchtiger Speicher zum Halten der gespeicherten Information, auch wenn die Betriebsspannung ausgeschaltet ist. Zum Starten der CD-ROM führt die CPU 40 ein im ROM-Speicher 42 gespeichertes Programm aus, um die Version der im Flash-Speicher 41 gespeicherten Programme zu prüfen und die Version der CD-ROM-Programme anhand der Plattenmanagementinformation von der Informationsspeichereinheit 3 zu lesen. Die Lade (oder Update bzw. Aktualisierungs)-verarbeitung für die Programme wird ausgeführt, wenn festgestellt wird, daß die Programme auf der CD-ROM eine aktualisierte Version der Programme im Flash-Speicher 41 sind.
  • 2 zeigt ein Beispiel der Struktur der Dateien A, B, C, D und E mit den wesentlichen Straßendaten, die auf der in 1 dargestellten CD-ROM 3 gespeichert sind. Datei A stellt eine Führungsstraßendatendatei dar, die zum Berechnen der Führungsroute erforderliche gespeicherte Daten enthält, z. B. Daten, die die Straßennummer, die Straßenlänge, Straßenmerkmaldaten, die Adresse und Größe von Formdaten und die Adresse und Größe der Führungsdaten für jede von n Straßen darstellen. Jede Straße zwischen Verzweigungspunkten hat eine separate Straßennummer für jede Richtung (Hin- oder Rückweg). Die vorstehend erwähnten Formdaten weisen, wie in Datei B dargestellt, Koordinatendaten für die Längen- und Breitenkoordinate der Knoten jeder Straße für m Knoten jeder Straße auf, die durch mehrere Knoten in aufeinanderfolgende Straßenabschnitte geteilt ist.
  • Die vorstehend erwähnten Führungsdaten weisen, wie in Datei C in 2 dargestellt, Namen von Kreuzungen (oder Verzeigungspunkten), Gefahrenstellendaten, Straßennamendaten, die Adresse und Größe der Straßennamendaten und die Adresse und Größe der Zieldaten auf.
  • Die vorstehend erwähnten Zieldaten weisen, wie in Datei D in 2 dargestellt, die Zielstraßennummer, den Zieldatennamen, die Adresse und Größe von Zielnamensprachdaten, die Zielrichtungsdaten und die Fahrtführungsdaten auf. Die vorstehend erwähnten Zielnamendaten weisen einen Bezirknamen auf. Wie in Datei E dargestellt, sind die Zielrichtungsdaten Datencodes, die folgende Merkmale darstellen: "ungültig" (d. h., die Zielrichtungsdaten werden nicht verwendet), "unnötig" (d. h. es wird keine Führung bereitgestellt), "geradeaus", "rechts", "schräg nach rechts", "nach rechts zurückkehren", "links", "schräg nach links" und "nach links zurückkehren".
  • Die 3(a) und 3(b) zeigen Datenstrukturen der Kreuzungsdaten und der Markierungsdaten, die auf der CD-ROM 3 von 1 gespeichert sind. Wie in 3(a) dargestellt ist, weisen die Kreuzungsdaten für jede von n Kreuzungen die Kreuzungsnummer, die Kreuzungskoordinaten (Längen- und Breitenkoordinate), Information über mit der Kreuzung verbundene Straßen und die Adresse und Größe von Markierungsdaten von Einrichtungen in der Nähe einer Kreuzung auf der dargestellten Karte auf. Wie in 3(b) dargestellt, weisen die Markierungsdaten für jede von m Markierungen die Markierungskoordinaten (Längen- und Breitenkoordinate von durch die Markierung gekennzeichneten Einrichtungen), die Markierungsmusternummer, Straße, an denen die durch die Markierungen ge kennzeichneten Einrichtungen liegen, und den Markierungsnamen auf. Wie in 3(c) dargestellt, weisen Markierungszeichnungsdaten den Markierungsmusternummern 0, 1, 2, ... entsprechende Markierungszeichnungsdaten auf.
  • Das Ablaufdiagramm von 4 zeigt die Navigationsverarbeitung des gesamten Navigationssystems. Zu Beginn werden alle aktualisiereten Programme von der Informationsspeichereinheit 3 in den Flash-Speicher 41 der Zentraleinheit 4 eingelesen, bevor das Programm für die Routenführung gestartet wird. Das Ziel wird (in Schritt S1) durch Eingeben des Zielnamens, z. B. eines Ortes oder eines Einrichtungsnamens, einer Telefonnummer, einer Adresse, eines registrierten Punktes oder eines Straßennamens, gesetzt. Dann wird die Ist-Position durch die Ist-Positionserfassungseinheit 2 erfaßt (Schritt S2), um eine Umgebungskarte um die Ist-Position und den Namen der Ist-Position darzustellen. Dann wird die Route von der Ist-Position zum Ziel gesucht (Schritt S3). Nachdem die Route bestimmt wurde, wird eine Routenführung (Schritt S4), z. B. eine Darstellung von Kartenabschnitten mit einer darauf dargestellten Ist-Positionsmarkierung, bereitgestellt, bis das Ziel erreicht ist. Wenn ein Umweg eingegeben wird, bevor das Ziel erreicht ist, wird ein Suchbereich gesetzt, der den Umwegpunkt enthält, wobei ein Routenabschnit bis zum Ziel erneut gesucht wird, und die Routenführung wird entlang der modifizierten Route fortgesetzt, bis das Ziel erreicht ist.
  • 5a zeigt ein Straßenkartenbildschirmfenster der Umgebung der Ist-Positionsmarkierung in der Displayeinheit mit dem Touch-Panel. Auf dem Bildschirmfenster werden zusätzlich zu einer Azimut- oder Richtungsanzeigemarkierung und einer Längenmaßstabeinheit mehrere Berührungstasten oder -schalter dargestellt. Die dargestellten Berührungsschalter weisen auf: einen "Umgebungssuche"-Berührungsschalter zum Aktivieren einer Suche nach Einrichtungen in der Umgebung der Ist-Position, einen "Detail"-Berührungsschalter zum Darstellen einer Detailkarte, einen "Gesamtroute"-Berührungsschalter zum Aktivieren einer neuen Suche nach einer Route zum Ziel, einen "Neusuche"-Berührungsschalter zum Starten eines Neusuchevorgangs durch Absuchen der Umgebung, einen "Weitbereich"-Berührungsschalter zum Darstellen einer Weitbereichkarte und einen "Return"-Berührungsschalter zum Zurückspringen auf ein Anfangsbildschirmfenster für die Routenführung.
  • Wenn der "Umgebungssuche"-Berührungsschalter berührt wird, wie in 5B dargestellt, wird das Bildschirmfenster von 5c dargestellt, wobei im unteren Abschnitt des Bildschirmfensters Einrichtungsauswahlschalter dargestellt sind, z. B. Schalter zum Auswählen der Einrichtungen "Convenience Store", "Parkplatz" oder "Garage", "Tankstelle", "Familienrestaurant", "Bank", usw. Wenn beispielsweise der Schalter "Convenience Store" durch Berühren ausgewählt wird, wie in 5D dargestellt, wird das Bildschirmfenster von 6A dargestellt, um Markierungen von "Convenience Stores" an ihren entsprechenden Positionen in der Umgebung der Ist-Position darzustellen. In diesem Verfahren zum Darstellen von Markierungen werden Markierungen in der Umgebung der Ist-Position in einem vorgegebenen Bereich, der größer ist als der auf dem Kartenbildschirmfenster dargestellte Bereich, durch Durchsuchen der in 3(b) dargestellten Daten erfaßt. Die erfaßten Markierungen werden auf der Basis der Markierungszeichnungsdaten gezeichnet und auf dem Kartenbildschirmfenster an ihren ungefähren Koordinatenpositionen überlagert dargestellt. Wenn dann z. B. eine Markierung F berührt wird, wie in 6B dargestellt, wird das Bildschirmfenster auf das in 7 dargestellte Bildschirmfenster umgeschaltet, in dem die ausgewählte Einrichtung, ein "F-Markt", der durch die Markierung F dargestellt ist, auf der Straßenkarte mit der Markierung F in der Mitte des Bildschirmfensters dargestellt wird. Wenn dann ein "Setze Durchgangspunkt"-Schalter oder ein "Setze Ziel"-Schalter berührt wird, wird die Einrichtung der Markierung F als Durchgangspunkt oder Zielpunkt gesetzt. Eine Kreuzmarkierung wird als Cursor über der Markierung F dargestellt, der an seiner Mitte die Punktsetzposition anzeigt. Wenn stattdessen der "Registrieren"-Schalter in 7 berührt wird, wird die durch die Markierung F gekennzeichnete Einrichtung als registrierter Punkt registriert. Wenn der "Umgebungssuche"-Schalter in einem der Bildschirme der 6A, 6B oder 7 erneut berührt wird, werden die im unteren Abschnitt des Bildschirmfensters von 5 dargestellten Einrichtungsauswahlschalter erneut dargestellt. Wenn zum vorherigen Bildschirmfenster zurückgeschaltet werden soll, wird ein (nicht dargestellter) Freigabeschalter berührt. Alternativ zum Neuzeichnen der Karte, um die ausgewählte Markierung F in der Mitte des Bildschirmfensters darzustellen, kann die Karte die gleiche bleiben, während die ausgewählte Markierung an einer Position dargestellt wird, die sich nicht in der Mitte des Bildschirmfensters befindet. Außerdem können im Bildschirmfenster von 7 die Geschäftszeiten, Geschäftsinformationen und/oder die Telefonnummer der durch die Markierung F gekennzeichneten Einrichtung dargestellt werden.
  • Nachstehend wird unter Bezug auf die 8A, 8B, 9A, 9B und 10 die Auswahl durch Berührungsschalter beschrieben, wenn die Markierungen dicht benachbart zueinander dargestellt oder angeordnet sind.
  • Die 8a und 8B zeigen Bildschirmfenster, nachdem ein vorgegebener Elementauswahlschalter berührt worden ist, z. B. einer der Einrichtungsauswahlschalter von 5. Im rechten, oberen Abschnitt des Bildschirmfensters 8A sind Markierungen Y, K, M und P dicht benachbart zueinander dargestellt. Der Fahrer versucht, die Markierung K durch Berühren auszuwählen, wie in 8B dargestellt, wird jedoch fehlerhaft die Markierung Y ausgewählt. Das Bildschirmfenster ändert sich, wobei die Markierung Y in der Mitte dargestellt wird und der Cursor die Auswahl der Markierung Y anzeigt, indem er überlagert auf der Markierung Y dargestellt wird. Wenn der Fahrer erneut versucht, die Markierung K durch Berührung auszuwählen, wie in 9A dargestellt, wird die Wahrscheinlichkeit für die Auswahl der zuvor ausgewählten Markierung Y vermindert, und die Markierung K wird geeignet ausgewählt, so daß der Cursor nunmehr auf der Markierung K dargestellt wird. Die Zentraleinheit 4 vermindert bei der Bestimmung, welcher Schalter unter den dicht benachbart zueinander dargestellten Schaltern ausgewählt wurde, gemäß einer Ausführungsform die Wahrscheinlichlkeit für die Auswahl der zuvor ausgewählten Markierung Y, wenn innerhalb einer vorgegebenen Zeitdauer eine nachfolgende Berührung erfolgt, um eine fehlerhafte Auswahl zu korrigieren.
  • In 10 stellen kleine schwarze Punkte 53 die Reaktions- oder Schaltkontaktpunkte des Touch-Panels dar, die ein Gitter auf dem Touch-Panel bilden; schraffierte Kreise 54 stellen Markierungskoordinatenpositionen Y, K, M und P dar; und ausgefüllte Kreise 55 stellen einen durch das Navigationssystem erfaßten Berührungsreaktionspunkt O dar. Die Koordinatendifferenz oder der Koordinatenabstand vom erfaßten Reaktionspunkt O zu jeder der Markierungskoordinatenpositionen Y, K, M und P wird berechnet; diese Koordinatendifferenzen oder -abstände sind als strichpunktierte Linien dargestellt. Die Markierungen, für die Koordinatendifferenzen berechnet werden, liegen alle innerhalb eines vorgegebenen quadratischen Bereichs um den Punkt O. Wenn die Markierung Y die am nächsten zum Punkt O angeordnete Markierung ist, wird bei der ersten erfaßten Berührung des Reaktionspunktes O die Markierung Y ausgewählt. Wenn eine Berührung wiederholt wird, d. h., wenn eine Berührung eines Reaktionspunktes im quadratischen Bereich um den zuvor berührten Punkt O erfaßt wird, nachdem der vorherige Kontakt freigegeben wurde, wird veranlaßt, daß der Abstand zwischen dem aktuellen Reaktionspunkt und dem zuvor ausgewählten Punkt Y mit geringerer Wahrscheinlichkeit ausgewählt wird, indem die relativen berechneten Koordinatendifferenzen z. B. durch Multiplizieren der berechneten Koordinatendifferenz der zuvor ausgewählten Markierung mit einem vorgegebenen Koeffizienten, der größer ist als eins, oder durch Addieren eines vorgegebenen Wertes geändert wird. Dadurch wird festgestellt, daß der Abstand vom Reaktionspunkt zum Sollpunkt K der kleinste der berechneten Abstände ist, so daß die Markierung K ausgewählt wird. Wenn die Touch-Panel-Reaktionspunkte fein verteilt oder dicht benachbart zueinander angeordnet sind, so daß sie der Größe des durch einen Finger berührbaren Flächenbereichs angepaßt sind, wie dargestellt, wird die Wahrscheinlichkeit für eine fehlerhafte Auswahl gering. Für grober verteilte Touch-Panel-Reaktionspunkte ist die Wahrscheinlichkeit für eine fehlerhafte Auswahl jedoch größer, wobei eine solche Anordnung jedoch insbesondere im Fall von weiter verteilt angeordneten Reaktionspunkten effektiv ist.
  • In der in den 11 und 12 dargestellten "Umgebungssuche"-Verarbeitung wird in Schritt S11 in 11 eine Betätigung (Berührung) des in 5B dargestellten "Umgebungssuche"-Schalters erfaßt, und die für die Auswahl verfügbaren Elemente oder Kategorien von Einrichtungen werden auf dem Bildschirm dargestellt, wie in 5C dargestellt. Wenn in Schritt S12 eine Kategorie aus den dargestellten Elementen ausgewählt wird, werden in Schritt S13 Markierungen gesucht, die der ausgewählten Kategorie entsprechen, wobei der Suchbereich eine vorgegebene Größe hat, die größer ist als der auf dem Bildschirmfenster dargestellte Bereich. Dann werden in Schritt S14 die innerhalb des Darstellungsbereichs gefundenen Markierungen auf einer Karte des Bereichs dargestellt, wie in 6A dargestellt ist. Wenn in Schritt S15 eine Berührung erfaßt wird, werden in Schritt S16 die Berührungspositions (oder Reaktionspunkt)-koordinaten (X0, Y0) bestimmt, und in Schritt S17 wird ein quadratischer Bereich (X0 ± a, Y0 ± b) um die Berührungspositionskoordinaten gesetzt. Wenn die Markierungskoordinaten in einem Breiten-/Längenkoordinatensystem gespeichert sind, werden die Berührungspositionskoordinaten in das Breiten-/Längenkoordinatensystem der Karte umgewandelt. Dann werden in Schritt S18 alle Markierungen im quadratischen Bereich erfaßt. Wenn in Schritt S19 eine oder mehrere im quadratischen Bereich angeordnete, erfaßte Markierungen gefunden werden, werden in Schritt S20 die Koordinatendifferenzen (Xn, Yn) zwischen allen erfaßten Markierungskoordinaten und den Berührungspositionskoordinaten berechnet, und die Markierung mit der minimalen Koordinatendifferenz wird in Schritt S21 ausgewählt und in Schritt S22 in der Mitte des Bildschirmfensters dargestellt, und gleichzeitig wird in Schritt S23 der Name oder die Bezeichnung der ausgewählten Markierung auf dem Bildschirmfenster dargestellt. Wenn in Schritt S19 festgestellt wird, daß sich im quadratischen Bereich keine Markierung befindet, wird in Schritt S24 die Berührungsposition in der Mitte des Bildschirmfensters dargestellt, und die Routine wird beendet.
  • In Schritt S25 von 12 wird nach dem Schritt S23 bestimmt, ob irgendeine andere Taste (eine der dargestellten Funktionstasten von 7, 8B) berührt wird, wenn die ausgewählte Markierung zusammen mit ihrem Namen oder ihrer Bezeichnung in der Mitte des Bildschirmfensters dargestellt wird. Wenn eine andere Taste betätigt wurde, wird in Schritt S26 eine Verarbeitung für diese Taste ausgeführt, und die Routine wird beendet. In Schritt S27 wird bestimmt, ob eine von der Berührung einer Taste verschiedene Berührung vorgenommen wurde. Wenn dies nicht der Fall ist, schreitet die Verarbeitung zum Zyklus durch die Schritte S25 und S27 fort. Wenn in Schritt S27 eine Berührung erfaßt wurde, werden die Berührungspositionskoordinaten (X0', Y0') in Schritt S28 bestimmt, und in Schritt S29 wird bestimmt, ob seit der vorherigen Berührung eine vorgegebene Zeitdauer verstrichen ist. Wenn die vorgegebene Zeitdauer nicht verstrichen ist, wird in Schritt S30 die Koordinatendifferenz zwischen den vorherigen Berührungspositionskoordinaten und den aktuellen Berührungspositionskoordinaten berechnet. Wenn in Schritt S31 festgestellt wird, daß diese Koordinatendifferenz innerhalb eines vorgegebenen Bereichs liegt, werden in Schritt S32 die Koordinatendifferenzen (Xn, Yn) zwischen den einzelnen erfaßten Markierungskoordinaten und den Berührungspositionskoordinaten berechnet. Dann wird in Schritt S33 die berechnete Koordinatendifferenz zwischen der zuvor ausgewählten Markierung und den Berührungspositionskoordinaten mit einem vorgegebenen Wert multipliziert, der größer ist als eins. Dadurch wird es, wenn in Schritt S34 die Markierung mit der minimalen Koordinatendifferenz ausgewählt wird, unwahrscheinlich, daß die zuvor ausgewählte Markierung erneut ausgewählt wird. Die neu ausgewählte Markierung wird in Schritt S35 in der Mitte des Bildschirmfensters dargestellt. In Schritt S36 wird auch der Name bzw. die Bezeichnung der ausgewählten Markierung dargestellt, woraufhin die Verarbeitung zu Schritt S25 zurückspringt, um auf eine weitere Tasten- oder Berührungseingabe zu warten. Wenn eine andere Tasteneingabe erfolgt, um z. B. das Ziel zu setzen, wird die Einrichtung der ausgewählten Markierung als Ziel gesetzt. Wenn in Schritt S29 festgestellt wird, daß die vorgegebene Zeitdauer seit der vorangehenden Berührung verstrichen ist, oder wenn in Schritt S31 festgestellt wird, daß die Berührungsposition sich nicht innerhalb des die vorangehende Berührungsposition umgebenden quadratischen Bereichs befindet, springt die Routine zu Schritt S17 von 11 zurück, in dem ein anderer quadratischer Bereich gesetzt wird, und Markierungen innerhalb dieses neuen quadratischen Bereichs werden erfaßt und dargestellt, wobei die nächste Markierung in der Mitte dargestellt wird.
  • In der Routine der 11 und 12 wird in den Schritten S29, S30 und S31 entschieden, ob die neue Berührung vorgenommen wird, um eine in Antwort auf eine vorangehende Berührung vorgenommene vorherige fehlerhafte Auswahl zu korrigieren oder nicht. In Schritt S33 wird außerdem die Wahrscheinlichkeit dafür, daß die vorangehend ausgewählte Markierung in Schritt S34 erneut ausgewählt wird, vermindert. In Schritt S33 wird der berechnete Abstand zwischen der neuen Berührungsposition und der vorherigen, fehlerhaft ausgewählten Markierung geändert, indem die Koordinatendifferenz (Abstand) mit dem vorgegebenen Wert multipliziert wird, um den berechneten Abstand zu vergrößern und zu erreichen, daß Abstände zwischen anderen Markierungen und der Berührungsposition mit größerer Wahrscheinlichkeit der in Schritt S34 ausgewählten minimalen Differenz entsprechen, d. h. es ist unwahrscheinlicher, daß der vergrößerte berechnete Abstand als der minimale Abstand ausgewählt wird. Der vorgegebene Multiplikationswert kann geändert werden, um die Auswahlwahrscheinlichkeit zu erhöhen oder zu vermindern.
  • Die 13a und 13B zeigen die Auswahl und die Darstellung der ausgewählten Markierung in der Mitte des Bildschirmfensters zusammen mit Detailinformationen über die ausgewählte Markierung. Wenn die Markierung Y der dicht be nachbart zueinander angeordneten Markierungen Y, K, M und P berührt wird, wie in 13A dargestellt, wird die Markierung Y in der Mitte des Bildschirmfensters dargestellt, und der Cursor wird überlagert auf der Markierung dargestellt, und der Name, die Geschäftszeiten, die Telefonnummer und die Parkeinrichtungen der der ausgewählten Markierung entsprechenden Einrichtung werden im oberen Abschnitt des Bildschirmfensters dargestellt. Wenn Markierungen im Bereich der ausgewählten Markierung, in dem Markierungen dicht benachbart zueinander angeordnet sind, berührt werden, werden Markierungen in der Nähe der ursprünglich ausgewählten Markierung sequentiell ausgewählt, wenn innerhalb einer vorgegebenen Zeitdauer bezüglich der vorherigen Berührung eine weiter Berührung vorgenommen wird.
  • Die 14A und 14B zeigen ein Auswahlbeispiel, in dem in Antwort auf die Auswahl der Berührungstaste "Andere" in 5D Verkehrsvorschriftmarkierungen dicht benachbart zueinander dargestellt werden, so daß Baustellen- und Fahrbahnregulierungsmarkierungen teilweise überlappend dargestellt werden. Wenn eine Fahrbahnregulierungsmarkierung ausgewählt wird, wird die Fahrbahnregulierungsmarkierung in der Mitte des Bildschirmfensters dargestellt, und der Cursor wird überlagert auf der Fahrbahnregulierungsmarkierung dargestellt, und Fahrbahnregulierungsinformation, z. B. über das Datum und der Zeitpunkt der Fahrbahnregulierung und den Inhalt der Regulierung, werden im oberen Abschnitt des Bildschirmfensters dargestellt.
  • In der vorstehend beschriebenen Ausführungsform eines Navigationssystems mit dem auf dem Display bereitgestellten Touch-Panel können verschiedenartige Informationen auf der Karte dargestellt werden, die als Elemente verwendbar sind, die durch Berühren ausgewählt werden können. Daher sind innerhalb des Schutzumfangs der vorliegenden Erfindung viele Modifikationen möglich, gemäß denen die verschiedenartigen Informationen auf dem Display mit dem Touch-Panel dargestellt werden, die als selektiv berührbare Elemente verwendbar sind. Diese Modifikationen können geeignet auf eine Fahrzeug-Displayeinheit mit einem kleinformatigen Bildschirm angewendet werden.
  • Die 15A und 15B zeigen ein anderes Beispiel der Korrektur einer Elementauswahl während der Umgebungssuche. In diesem Beispiel wird die "Nächster Kandidat"-Taste auf dem Bildschirmfenster dargestellt. Wenn von dicht benachbart zueinander dargestellten Markierungen keine gewünschte Markierung ausgewählt wird, wird die "Nächster Kandidat"-Taste berührt. Dann wird eine nächste der übrigen Markierungen ausgewählt. Durch weiteres Berühren der "Nächster Kandidat"-Taste werden die übrigen Markierungen in der Reihenfolge von kleineren zu größeren Koordinatendifferenzen sequentiell ausgewählt, bis die gewünschte Markierung gesetzt ist.
  • Im einzelnen werden die Berührungsreaktionspunktkoordinaten bestimmt (wie durch den Punkt O in 10 dargestellt ist), und der vorgegebene Bereich wird um den Reaktionspunkt herum gesetzt, um die im vorgegebenen Bereich enthaltenen Markierungen zu erfassen. Wenn mehrere Markierungen erfaßt werden, kann die Koordinatendifferenz zwischen den Koordinaten jeder der erfaßten Markierungen und den Koordinaten des Berührungsreaktionspunktes berechnet und in Form einer Tabelle in der Folge von kleineren zu größeren Koordinatendifferenzen gespeichert werden. Im vorstehenden Beispiel wird die "Nächster Kandidat"-Taste berührt, um die gespeicherten Markierungen in ihrer sequentiell gespeicherten Folge auszuwählen. Außerdem kann, wenn der bei der ersten Berührung gesetzte, vorgegebene Bereich erneut berührt wird, der nächste Kandidat unter Bezug auf die vorstehend erwähnte Tabelle ausgewählt werden.
  • Erfindungsgemäß werden, wie vorstehend beschrieben, wenn Elemente (oder Markierungen) für eine Auswahl durch ein Touch-Panel dargestellt werden, die Abstände zwischen den durch die auswählbaren Elemente dargestellten Einrichtungen und der Berührungsposition basierend auf den Koordinaten der Einrichtungen und den Koordinaten der Berührungspositionen auf der Karte bestimmt, so daß das nächste Element ausgewählt wird. Dadurch kann, auch wenn die Elemente dicht benachbart zueinander dargestellt sind, das geeignetste Element für die Berührungsposition ausgewählt werden.
  • Insbesondere kann durch Anwenden der vorliegenden Erfindung auf ein Kartendarstellungssystem oder ein Navigationssystem, in dem Markierungen auf der Karte dargestellt und berührt werden, um Informationen darüber darzustellen oder ihre Positionen zu setzen, das für die Berührungsposition optimale Element auch dann ausgewählt werden, wenn die Markierungen z. B. in einem Stadtbezirk dicht benachbart zueinander angeordnet sind, oder wenn eine Karte dargestellt wird, die einen weiten Bereich abdeckt.
  • Außerdem wird, wenn festgestellt wird, daß ein Element fehlerhaft ausgewählt wurde, die Wahrscheinlichkeit für die Auswahl des zuvor ausgewählten Elements vermindert, so daß das einmal ausgewählte Element wahrscheinlich nicht noch einmal ausgewählt wird, wodurch die Funktionsweise verbessert wird.
  • Insbesondere wird durch Anwenden der vorliegenden Erfindung auf ein Kartendarstellungssystem oder ein Navigationssystem, in dem Markierungen auf der Karte dargestellt und berührt werden, um Informationen darüber darzustellen oder ihre Positionen zu setzen, und wobei die Markierungen z. B. in einem Stadtbezirk oder auf einer Weitbereichkarte dicht benachbart zueinander dargestellt sind, die Wahrscheinlichkeit dafür, daß ein zuvor fehlerhaft ausgewähltes Element erneut ausgewählt wird, vermindert und dadurch die Funktionsweise verbessert wird.

Claims (9)

  1. Datenanzeigesystem mit Berührungstafel zum Auswählen eines Elements durch Berühren des ausgewählten Elements unter mehreren auf einer Anzeige dargestellten Elementen, gekennzeichnet durch: eine Recheneinrichtung zum Berechnen von Koordinatendifferenzen zwischen Koordinaten jedes der mehreren dargestellten Elemente und Koordinaten einer Berührungsposition; und einer Auswahleinrichtung zum Auswählen des ausgewählten Elements durch Bestimmen, welches Element der mehreren dargestellten Elemente die geringste berechnete Koordinatendifferenz aufweist.
  2. System nach Anspruch 1, wobei die mehreren auf der Anzeige dargestellten Elemente auf einer Karte dargestellte Markierungen sind, so daß die Koordinaten der dargestellten Elemente die Positionen der Markierungen auf der Karte sind.
  3. System nach Anspruch 1 oder 2, ferner mit: einer Einrichtung zum Entscheiden, ob eine aktuelle Berührung vorgenommen wird, um eine durch eine vorangehende Berührung erfolgte fehlerhafte Auswahl zu korrigieren oder nicht; und einer auf eine Entscheidung, daß die aktuelle Berührung vorgenommen wird, um eine fehlerhafte Auswahl zu korrigieren, ansprechende Einrichtung zum Reduzieren der Wahrscheinlichkeit, daß das zuvor ausgewählte Element ausgewählt wird.
  4. System nach Anspruch 3, wobei die Entscheidungseinrichtung basierend auf den Bedingungen, daß die aktuelle Berührung innerhalb einer vorgegebenen Zeitdauer bezüglich der vorangehenden Berührung erfolgt und die Koordinatendifferenz zwischen der vorangehenden und der aktuellen Berührungsposition innerhalb eines vorgegebenen Bereichs liegt, entscheidet, daß durch die aktuelle Berührung eine fehlerhafte Auswahl korrigiert wird.
  5. System nach Anspruch 3 oder 4, wobei die Einrichtung zum Reduzieren der Wahrscheinlichkeit, daß das zuvor ausgewählte Element ausgewählt wird, die Wahrscheinlichkeit der Auswahl des zuvor ausgewählten Elements durch Ändern der berechneten relativen Koordinatendifferenzen zwischen dem zuvor ausgewählten Element und den anderen dargestellten Elementen reduziert, um die Auswahl einer der anderen dargestellten Elemente zu favorisieren.
  6. System nach einem der Ansprüche 1 bis 5, ferner mit einem zweiten Kandidatenauswahlschalter, wobei, wenn der zweite Kandidatenauswahlschalter betätigt wird, ein nächstes Element basierend auf der zweitniedrigsten Koordinatendifferenz von den mehreren dargestellten Elementen ausgewählt wird.
  7. System nach einem der Ansprüche 1 bis 6, wobei die mehreren auf der Anzeige dargestellten Elemente auf der Karte überlagert dargestellte Orien tierungspunkte oder Verkehrsvorschriftmarkierungen sind.
  8. System nach Anspruch 7, wobei die Punkte der ausgewählten Elemente, die Orientierungspunkte oder Verkehrsvorschriftmarkierungen einschließen, als Navigationsdaten verwendbar sind.
  9. System nach einem der Ansprüche 1 bis 8, wobei das ausgewählte Element in der Mitte der Anzeige dargestellt wird.
DE69722727T 1996-07-31 1997-07-30 Datenanzeigesystem mit Berührungstafel Expired - Lifetime DE69722727T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP20198296 1996-07-31
JP20198296 1996-07-31

Publications (2)

Publication Number Publication Date
DE69722727D1 DE69722727D1 (de) 2003-07-17
DE69722727T2 true DE69722727T2 (de) 2004-04-29

Family

ID=16449983

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69722727T Expired - Lifetime DE69722727T2 (de) 1996-07-31 1997-07-30 Datenanzeigesystem mit Berührungstafel

Country Status (4)

Country Link
US (1) US6040824A (de)
EP (1) EP0822529B1 (de)
KR (1) KR100260760B1 (de)
DE (1) DE69722727T2 (de)

Families Citing this family (283)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0807352A1 (de) * 1995-01-31 1997-11-19 Transcenic, Inc Räumlich bezogene fotografie
JPH1089976A (ja) * 1996-09-13 1998-04-10 Hitachi Ltd 情報表示装置およびナビゲーションシステム
US7236173B2 (en) * 1996-10-30 2007-06-26 Autodesk, Inc. Method and apparatus for providing access to maps on a thin client
US5966135A (en) * 1996-10-30 1999-10-12 Autodesk, Inc. Vector-based geographic data
US6009355A (en) 1997-01-28 1999-12-28 American Calcar Inc. Multimedia information and control system for automobiles
US6049325A (en) * 1997-05-27 2000-04-11 Hewlett-Packard Company System and method for efficient hit-testing in a computer-based system
KR100595926B1 (ko) 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US20060033724A1 (en) * 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
AU3726799A (en) * 1998-05-07 1999-11-23 Art-Advanced Recognition Technologies Ltd. Handwritten and voice control of vehicle components
US6241527B1 (en) * 1998-06-19 2001-06-05 Rastar Corporation Interactive educational display board
US6259436B1 (en) * 1998-12-22 2001-07-10 Ericsson Inc. Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch
US6754485B1 (en) * 1998-12-23 2004-06-22 American Calcar Inc. Technique for effectively providing maintenance and information to vehicles
JP3484092B2 (ja) * 1999-01-25 2004-01-06 日本アイ・ビー・エム株式会社 ポインティングシステム
US6411283B1 (en) * 1999-05-20 2002-06-25 Micron Technology, Inc. Computer touch screen adapted to facilitate selection of features at edge of screen
US6727892B1 (en) 1999-05-20 2004-04-27 Micron Technology, Inc. Method of facilitating the selection of features at edges of computer touch screens
JP3596805B2 (ja) * 1999-07-29 2004-12-02 松下電器産業株式会社 情報端末装置および経路案内方法
DE19941975B4 (de) * 1999-09-03 2016-09-22 Volkswagen Ag Navigationssystem
US7142196B1 (en) * 1999-10-12 2006-11-28 Autodesk, Inc. Geographical data markup on a personal digital assistant (PDA)
KR20070046106A (ko) 1999-10-19 2007-05-02 아메리칸 캘카어 인코포레이티드 사용자 선호도에 기초한 효과적인 내비게이션 기술
DE19956112A1 (de) * 1999-11-22 2001-05-23 Mannesmann Vdo Ag Navigationssystem mit verbesserter Objektauswahl
JP2001216320A (ja) * 2000-02-03 2001-08-10 Forseti Llc インターネットによるサービス提供エリア検索システム
US9501178B1 (en) * 2000-02-10 2016-11-22 Intel Corporation Generating audible tooltips
US6621423B1 (en) 2000-03-06 2003-09-16 Sony Corporation System and method for effectively implementing an electronic visual map device
US20010035880A1 (en) * 2000-03-06 2001-11-01 Igor Musatov Interactive touch screen map device
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US7142205B2 (en) 2000-03-29 2006-11-28 Autodesk, Inc. Single gesture map navigation graphical user interface for a personal digital assistant
DE10031787A1 (de) * 2000-07-04 2002-01-24 Daimler Chrysler Ag Assistenzsystem zur Auswahl von Strecken
US6570106B1 (en) 2000-07-10 2003-05-27 Steven L. Merrick Movable electric switches that move to reveal underlying control areas
AU2001278953A1 (en) 2000-07-28 2002-02-13 American Calcar, Inc. Technique for effective organization and communication of information
JP4268325B2 (ja) * 2000-08-14 2009-05-27 パイオニア株式会社 音声操作語句の提示装置及び提示方法
TW528967B (en) * 2000-08-29 2003-04-21 Ibm System and method for locating on a physical document items referenced in an electronic document
DE10045616B4 (de) * 2000-09-15 2011-03-17 Volkswagen Ag Verfahren zum automatischen Einparken eines Kraftfahrzeugs
US6980201B1 (en) 2000-09-29 2005-12-27 Rockwell Automation Technologies, Inc. Minimum move touch plane scanning method and device
US20030210277A1 (en) * 2000-11-03 2003-11-13 Toshihiko Harada Ordering service system at restaurant or the like
US20020054029A1 (en) * 2000-11-28 2002-05-09 Glancy John Thomas Interactive display system
US20020091735A1 (en) * 2001-01-08 2002-07-11 Yung-Chung Chen. Method and apparatus for locating geographically classified establishment information
JP4768143B2 (ja) * 2001-03-26 2011-09-07 株式会社リコー 情報入出力装置、情報入出力制御方法およびプログラム
JP2002287868A (ja) * 2001-03-27 2002-10-04 Sony Corp 情報処理装置及びその表示制御方法、プログラム並びに提供媒体
JP2002372427A (ja) * 2001-06-15 2002-12-26 Alpine Electronics Inc ナビゲーション装置
JP2003005897A (ja) * 2001-06-20 2003-01-08 Alpine Electronics Inc 情報入力方法および装置
EP1457864A1 (de) * 2001-09-21 2004-09-15 International Business Machines Corporation Eingabevorrichtung, computervorrichtung, verfahren zum identifizieren eines eingangsobjekts, verfahren zum identifizieren eines eingangsobjekts in einer tastatur und computerprogramm
SE0103835L (sv) * 2001-11-02 2003-05-03 Neonode Ab Pekskärm realiserad av displayenhet med ljussändande och ljusmottagande enheter
US6704645B1 (en) * 2001-12-11 2004-03-09 Garmin Ltd. System and method for estimating impedance time through a road network
US7283905B1 (en) 2001-12-11 2007-10-16 Garmin Ltd. System and method for estimating impedance time through a road network
US6545637B1 (en) 2001-12-20 2003-04-08 Garmin, Ltd. Systems and methods for a navigational device with improved route calculation capabilities
US7184886B1 (en) 2001-12-21 2007-02-27 Garmin Ltd. Navigation system, method and device with detour algorithm
US6847890B1 (en) 2001-12-21 2005-01-25 Garmin Ltd. Guidance with feature accounting for insignificant roads
US7043362B2 (en) * 2001-12-21 2006-05-09 Garmin Ltd. PDA with integrated address book and electronic map waypoints
US7277794B1 (en) 2001-12-21 2007-10-02 Garmin Ltd. Guidance with feature accounting for insignificant roads
US6892135B1 (en) 2001-12-21 2005-05-10 Garmin Ltd. Navigation system, method and device with automatic next turn page
US6999873B1 (en) 2001-12-21 2006-02-14 Garmin Ltd. Navigation system, method and device with detour algorithm
US6826473B1 (en) 2002-02-08 2004-11-30 Garmin Ltd. PDA with integrated navigation functions and expense reporting
US8046164B1 (en) 2002-02-08 2011-10-25 Garmin Switzerland Gmbh Systems and methods for track log selection
DE10207185A1 (de) * 2002-02-21 2003-09-04 Kid Systeme Gmbh Verfahren zur Selektion und Darstellung von Objekten in der Ebene und im N-dimensionierten Raum
JP2004037998A (ja) * 2002-07-05 2004-02-05 Denso Corp 音声制御装置
DE10230479A1 (de) * 2002-07-06 2004-01-15 Robert Bosch Gmbh Fahrerinformationsvorrichtung
US7176905B2 (en) * 2003-02-19 2007-02-13 Agilent Technologies, Inc. Electronic device having an image-based data input system
AU2004215108B2 (en) * 2003-02-26 2009-07-30 Tomtom Navigation B.V. Navigation device with touch screen
US20060212185A1 (en) * 2003-02-27 2006-09-21 Philp Joseph W Method and apparatus for automatic selection of train activity locations
US20040183833A1 (en) * 2003-03-19 2004-09-23 Chua Yong Tong Keyboard error reduction method and apparatus
JP3830913B2 (ja) * 2003-04-14 2006-10-11 パイオニア株式会社 情報表示装置及び情報表示方法等
US20040212601A1 (en) * 2003-04-24 2004-10-28 Anthony Cake Method and apparatus for improving accuracy of touch screen input devices
JP4138574B2 (ja) * 2003-05-21 2008-08-27 株式会社日立製作所 カーナビゲーション装置
US9024884B2 (en) 2003-09-02 2015-05-05 Apple Inc. Touch-sensitive electronic apparatus for media applications, and methods therefor
JP3962718B2 (ja) * 2003-12-01 2007-08-22 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
US20050159999A1 (en) * 2003-12-18 2005-07-21 Totten Gregory S. Method and system for developing a relationship between college students, universities and businesses
US20050134504A1 (en) * 2003-12-22 2005-06-23 Lear Corporation Vehicle appliance having hands-free telephone, global positioning system, and satellite communications modules combined in a common architecture for providing complete telematics functions
DE10360656A1 (de) * 2003-12-23 2005-07-21 Daimlerchrysler Ag Bediensystem für ein Fahrzeug
US20050190970A1 (en) * 2004-02-27 2005-09-01 Research In Motion Limited Text input system for a mobile electronic device and methods thereof
JP2005292970A (ja) * 2004-03-31 2005-10-20 Kenwood Corp 施設検索装置、プログラム、ナビゲーション装置、及び施設検索方法
JP2005292975A (ja) * 2004-03-31 2005-10-20 Alpine Electronics Inc ボタン処理方法及びデータ処理装置
JP3962764B2 (ja) * 2004-06-11 2007-08-22 松下電器産業株式会社 地図表示装置及び地図表示方法
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US10645562B2 (en) 2004-09-21 2020-05-05 Agis Software Development Llc Method to provide ad hoc and password protected digital and voice networks
JP2006134184A (ja) * 2004-11-08 2006-05-25 Honda Access Corp 遠隔制御スイッチ
JP2006250819A (ja) * 2005-03-11 2006-09-21 Nec Electronics Corp 測位装置及び測位方法
US7698644B2 (en) * 2005-04-26 2010-04-13 Cisco Technology, Inc. System and method for displaying sticky notes on a phone
JP3888382B2 (ja) * 2005-07-05 2007-02-28 松下電器産業株式会社 データ処理装置
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US20070152980A1 (en) * 2006-01-05 2007-07-05 Kenneth Kocienda Touch Screen Keyboards for Portable Electronic Devices
US20080098331A1 (en) * 2005-09-16 2008-04-24 Gregory Novick Portable Multifunction Device with Soft Keyboards
US7694231B2 (en) * 2006-01-05 2010-04-06 Apple Inc. Keyboards for portable electronic devices
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
KR100655084B1 (ko) * 2006-01-17 2006-12-08 삼성전자주식회사 센스앰프 인에이블 회로 및 이를 갖는 반도체 메모리 장치
US7925320B2 (en) * 2006-03-06 2011-04-12 Garmin Switzerland Gmbh Electronic device mount
US20070266239A1 (en) * 2006-03-08 2007-11-15 David Vismans Method for providing a cryptographically signed command
DE102006037156A1 (de) * 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
JP4933129B2 (ja) * 2006-04-04 2012-05-16 クラリオン株式会社 情報端末および簡略−詳細情報の表示方法
US20070299607A1 (en) * 2006-06-27 2007-12-27 Verizon Laboratories Inc. Driving directions with landmark data
US20090271745A1 (en) * 2006-07-20 2009-10-29 Navitime Japan Co., Ltd. Map display system, map display device, map display method, and map distribution server
US9031777B2 (en) 2006-08-08 2015-05-12 Verizon Patent And Licensing Inc. Driving directions with selective printing
US7864163B2 (en) 2006-09-06 2011-01-04 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7956849B2 (en) 2006-09-06 2011-06-07 Apple Inc. Video manager for portable multifunction device
US8842074B2 (en) 2006-09-06 2014-09-23 Apple Inc. Portable electronic device performing similar operations for different gestures
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US7793228B2 (en) * 2006-10-13 2010-09-07 Apple Inc. Method, system, and graphical user interface for text entry with partial word display
US8744758B2 (en) * 2006-12-19 2014-06-03 Verizon Patent And Licensing Inc. Driving directions printed text scaling
US7957955B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Method and system for providing word recommendations for text input
US8074172B2 (en) 2007-01-05 2011-12-06 Apple Inc. Method, system, and graphical user interface for providing word recommendations
US8607167B2 (en) * 2007-01-07 2013-12-10 Apple Inc. Portable multifunction device, method, and graphical user interface for providing maps and directions
KR100837166B1 (ko) * 2007-01-20 2008-06-11 엘지전자 주식회사 전자기기의 정보 표시 방법 및 그 전자기기
JP4934452B2 (ja) * 2007-02-12 2012-05-16 株式会社デンソー 車両用地図表示装置
JP4819715B2 (ja) * 2007-02-28 2011-11-24 株式会社エヌ・ティ・ティ・ドコモ 情報処理装置及びプログラム
US20080238886A1 (en) * 2007-03-29 2008-10-02 Sony Ericsson Mobile Communications Ab Method for providing tactile feedback for touch-based input device
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US8302033B2 (en) 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
US11441919B2 (en) * 2007-09-26 2022-09-13 Apple Inc. Intelligent restriction of device operations
JP4732421B2 (ja) * 2007-11-06 2011-07-27 本田技研工業株式会社 ナビゲーション装置
US8063879B2 (en) 2007-12-20 2011-11-22 Research In Motion Limited Method and handheld electronic device including first input component and second touch sensitive input component
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8327272B2 (en) * 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US8232973B2 (en) 2008-01-09 2012-07-31 Apple Inc. Method, device, and graphical user interface providing word recommendations for text input
JP2009193423A (ja) * 2008-02-15 2009-08-27 Panasonic Corp 電子機器の入力装置
KR101007045B1 (ko) * 2008-03-12 2011-01-12 주식회사 애트랩 접촉센서 장치 및 이 장치의 포인팅 좌표 결정 방법
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
JP5428189B2 (ja) * 2008-04-17 2014-02-26 三洋電機株式会社 ナビゲーション装置
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8570279B2 (en) 2008-06-27 2013-10-29 Apple Inc. Touch screen device, method, and graphical user interface for inserting a character from an alternate keyboard
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8284170B2 (en) * 2008-09-30 2012-10-09 Apple Inc. Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor
KR101472591B1 (ko) * 2008-11-14 2014-12-17 삼성전자주식회사 컨텐츠의 확대 영역 선택 방법, 컨텐츠 제공 장치 및 시스템
JP5251463B2 (ja) * 2008-12-03 2013-07-31 ソニー株式会社 撮像装置
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
JP4655147B2 (ja) * 2008-12-26 2011-03-23 ソニー株式会社 電子機器と地図表示方法およびコンピュータ・プログラム
DE102009052628A1 (de) * 2009-02-26 2010-09-23 Navigon Ag Navigationseinrichtung und Verfahren mit kontextsensitiver Direktwahl von Informationsobjekten
US20100235780A1 (en) * 2009-03-16 2010-09-16 Westerman Wayne C System and Method for Identifying Words Based on a Sequence of Keyboard Events
JP5347988B2 (ja) * 2009-03-30 2013-11-20 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置
US20100251105A1 (en) * 2009-03-31 2010-09-30 Lenovo (Singapore) Pte, Ltd. Method, apparatus, and system for modifying substitution costs
US9024886B2 (en) * 2009-04-14 2015-05-05 Japan Display Inc. Touch-panel device
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US8464182B2 (en) * 2009-06-07 2013-06-11 Apple Inc. Device, method, and graphical user interface for providing maps, directions, and location-based information
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
TWI407339B (zh) * 2009-08-06 2013-09-01 Htc Corp 追蹤觸控面板上碰觸輸入之移動軌跡的方法與電腦程式產品及其相關電子裝置
US8667424B2 (en) * 2009-08-26 2014-03-04 Mitac International Corp. Method of spreading out and displaying closely located points of interest on a personal navigation device
TWI416078B (zh) * 2009-08-31 2013-11-21 Mitac Int Corp 在個人導航裝置上展開並顯示鄰近的地標興趣點之方法
JP5251810B2 (ja) * 2009-09-25 2013-07-31 トヨタ自動車株式会社 車両用照明装置
DE102009048705A1 (de) * 2009-10-08 2011-04-14 Mitac International Corp., Kuei-Shan Verfahren zum Ausbreiten und Anzeigen von nahegelegenen interessanten Orten auf einem mobilen Navigationsgerät
US20110086674A1 (en) * 2009-10-14 2011-04-14 Research In Motion Limited Electronic device including touch-sensitive display and method of controlling same
US20110102334A1 (en) * 2009-11-04 2011-05-05 Nokia Corporation Method and apparatus for determining adjusted position for touch input
CN102117143B (zh) * 2009-12-31 2015-05-13 深圳迈瑞生物医疗电子股份有限公司 一种触摸屏响应方法及装置
US8806362B2 (en) * 2010-01-06 2014-08-12 Apple Inc. Device, method, and graphical user interface for accessing alternate keys
US8456297B2 (en) * 2010-01-06 2013-06-04 Apple Inc. Device, method, and graphical user interface for tracking movement on a map
US8736561B2 (en) 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
US8862576B2 (en) 2010-01-06 2014-10-14 Apple Inc. Device, method, and graphical user interface for mapping directions between search results
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US8977584B2 (en) 2010-01-25 2015-03-10 Newvaluexchange Global Ai Llp Apparatuses, methods and systems for a digital conversation management platform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
CN102419679B (zh) 2010-09-27 2014-10-01 联想(北京)有限公司 显示处理方法和便携式移动终端
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
JP5454487B2 (ja) * 2011-02-17 2014-03-26 トヨタ自動車株式会社 地図情報表示装置
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
JP5782775B2 (ja) * 2011-03-29 2015-09-24 ソニー株式会社 情報表示装置および情報表示方法、並びにプログラム
CN102750021A (zh) * 2011-04-19 2012-10-24 国际商业机器公司 用于修正用户输入位置的方法及系统
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
KR20160042467A (ko) 2011-06-03 2016-04-19 애플 인크. 대안 내비게이션 경로들을 비교 및 선택하기 위한 장치들 및 방법들
US10140011B2 (en) 2011-08-12 2018-11-27 Microsoft Technology Licensing, Llc Touch intelligent targeting
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
JP5647968B2 (ja) * 2011-11-22 2015-01-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP2013161209A (ja) * 2012-02-03 2013-08-19 Sony Corp 情報処理装置、情報処理方法およびプログラム
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10176633B2 (en) 2012-06-05 2019-01-08 Apple Inc. Integrated mapping and navigation application
US9886794B2 (en) 2012-06-05 2018-02-06 Apple Inc. Problem reporting in maps
US9047691B2 (en) 2012-06-05 2015-06-02 Apple Inc. Route display and review
US9052197B2 (en) 2012-06-05 2015-06-09 Apple Inc. Providing navigation instructions while device is in locked mode
US9418672B2 (en) 2012-06-05 2016-08-16 Apple Inc. Navigation application with adaptive instruction text
US20130321400A1 (en) 2012-06-05 2013-12-05 Apple Inc. 3D Map Views for 3D Maps
US10156455B2 (en) 2012-06-05 2018-12-18 Apple Inc. Context-aware voice guidance
US9159153B2 (en) 2012-06-05 2015-10-13 Apple Inc. Method, system and apparatus for providing visual feedback of a map view change
US9997069B2 (en) 2012-06-05 2018-06-12 Apple Inc. Context-aware voice guidance
US9482296B2 (en) 2012-06-05 2016-11-01 Apple Inc. Rendering road signs during navigation
US9135751B2 (en) 2012-06-05 2015-09-15 Apple Inc. Displaying location preview
US10437460B2 (en) * 2012-06-05 2019-10-08 Apple Inc. Methods and apparatus for cartographically aware gestures
US9489754B2 (en) 2012-06-06 2016-11-08 Apple Inc. Annotation of map geometry vertices
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
CN104969289B (zh) 2013-02-07 2021-05-28 苹果公司 数字助理的语音触发器
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
US9922642B2 (en) 2013-03-15 2018-03-20 Apple Inc. Training an at least partial voice command system
KR101459447B1 (ko) * 2013-03-27 2014-11-07 현대자동차 주식회사 터치스크린을 이용한 항목 선택 방법 및 시스템
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
EP3937002A1 (de) 2013-06-09 2022-01-12 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche für gesprächspersistenz über zwei oder mehrere instanzen eines digitalen assistenten
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
CN105265005B (zh) 2013-06-13 2019-09-17 苹果公司 用于由语音命令发起的紧急呼叫的系统和方法
US20140375576A1 (en) * 2013-06-24 2014-12-25 Oracle International Corporation Facilitating touch screen users to select elements in a densely populated display
WO2015020942A1 (en) 2013-08-06 2015-02-12 Apple Inc. Auto-activating smart responses based on activities from remote devices
US10914951B2 (en) * 2013-08-19 2021-02-09 Qualcomm Incorporated Visual, audible, and/or haptic feedback for optical see-through head mounted display with user interaction tracking
CN103558956A (zh) * 2013-09-10 2014-02-05 三星电子(中国)研发中心 基于兴趣点的地图视野修正方法和修正装置
KR20150073354A (ko) * 2013-12-23 2015-07-01 삼성전자주식회사 디스플레이를 통하여 제공되는 오브젝트 처리 방법 및 장치
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
WO2015184186A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
US10025427B2 (en) * 2014-06-27 2018-07-17 Microsoft Technology Licensing, Llc Probabilistic touch sensing
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10276158B2 (en) * 2014-10-31 2019-04-30 At&T Intellectual Property I, L.P. System and method for initiating multi-modal speech recognition using a long-touch gesture
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US20170123598A1 (en) * 2015-10-29 2017-05-04 Hand Held Products, Inc. System and method for focus on touch with a touch sensitive screen display
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
CN115668117A (zh) 2020-05-18 2023-01-31 苹果公司 用于查看和细化电子设备的当前位置的用户界面

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4698625A (en) * 1985-05-30 1987-10-06 International Business Machines Corp. Graphic highlight adjacent a pointing cursor
US4707845A (en) * 1986-08-26 1987-11-17 Tektronix, Inc. Touch panel with automatic nulling
JPH01173824A (ja) * 1987-12-28 1989-07-10 Aisin Aw Co Ltd ヘルプ機能を備えた車両用ナビゲーション装置
JPH03137686A (ja) * 1989-10-24 1991-06-12 Mazda Motor Corp タッチパネル装置
US5757358A (en) * 1992-03-31 1998-05-26 The United States Of America As Represented By The Secretary Of The Navy Method and apparatus for enhancing computer-user selection of computer-displayed objects through dynamic selection area and constant visual feedback
EP0609030B1 (de) * 1993-01-26 1999-06-09 Sun Microsystems, Inc. Verfahren und Gerät zum Informationsanschauen in einer Rechnerdatenbank
DE4406668C2 (de) * 1993-04-27 1996-09-12 Hewlett Packard Co Verfahren und Vorrichtung zum Betreiben eines berührungsempfindlichen Anzeigegeräts
DE69423313T2 (de) * 1993-12-20 2000-07-13 Seiko Epson Corp Elektronische Hinweisanordnung
JPH07311655A (ja) * 1994-05-19 1995-11-28 Casio Comput Co Ltd タッチパネル入力装置
US5559707A (en) * 1994-06-24 1996-09-24 Delorme Publishing Company Computer aided routing system
DE69524340T2 (de) * 1994-09-22 2002-08-14 Aisin Aw Co Berührungsanzeige für ein Informationseingabesystem
JP3536377B2 (ja) * 1994-10-20 2004-06-07 カシオ計算機株式会社 座標入力装置
JPH08123618A (ja) * 1994-10-21 1996-05-17 Hitachi Ltd 座標入力装置の座標データ採取方法
JPH08292839A (ja) * 1995-04-20 1996-11-05 Ricoh Co Ltd 指示入力方式
JPH0861964A (ja) * 1995-09-11 1996-03-08 Zanavy Informatics:Kk 道路地図切換機能付ナビゲーションシステム

Also Published As

Publication number Publication date
US6040824A (en) 2000-03-21
EP0822529B1 (de) 2003-06-11
DE69722727D1 (de) 2003-07-17
KR100260760B1 (ko) 2000-07-01
KR980010944A (ko) 1998-04-30
EP0822529A1 (de) 1998-02-04

Similar Documents

Publication Publication Date Title
DE69722727T2 (de) Datenanzeigesystem mit Berührungstafel
DE69528945T2 (de) Navigationssystem
DE69632242T2 (de) Fahrzeugnavigationssystem und Verfahren zur Eingabe und Speicherung von Kursänderungspunkten
DE19835422B4 (de) Kartenanzeigevorrichtung und Aufzeichnungsmedium
DE69428841T2 (de) Navigationssystem
DE69624887T2 (de) Fahrzeugnavigationssystem
DE69628904T2 (de) Navigationssystem für Fahrzeuge
DE69333916T2 (de) Navigationsgerät für Fahrzeuge zur Bestimmung eines neuen Leitwegs, wenn ein Fahrzeug von seinem Leitweg abweicht
DE69620084T2 (de) Navigationssystem für Fahrzeuge
DE69524340T2 (de) Berührungsanzeige für ein Informationseingabesystem
DE69629174T2 (de) Navigationssystem
DE69430029T2 (de) Navigationsanlage
DE69631458T2 (de) Fahrzeugnavigationssystem
DE69719434T2 (de) Fahrzeugnavigationsgerät und Speichermedium
DE19836156B4 (de) Fahrzeugnavigationssystem und Speichermedium
DE69731159T2 (de) Navigationssystem für Landfahrzeug mit Auswahl des Anzeigemodus
DE69731860T2 (de) Navigationsgerät für Landfahrzeuge mit beschränkter Anzeige für die Zielführung zur Verbesserung der Lesbarkeit
DE69528504T2 (de) Navigationssystem für ein Fahrzeug
DE69422449T2 (de) Navigationssystem
DE69413322T2 (de) Navigationssystem
DE69625670T2 (de) Navigationssystem
DE102007055208B4 (de) Fahrzeugnavigationsvorrichtung
DE69631280T2 (de) Fahrzeugsnavigationsgerät, das die Strassenbreite berücksichtigt
DE69726662T2 (de) Landfahrzeugsnavigationsgerät mit lokaler Routenführungsselektivität und Speichermedium dafür
DE19836155A1 (de) Fahrzeugnavigationssystem und Speichermedium

Legal Events

Date Code Title Description
8364 No opposition during term of opposition