DE69725525T2 - Informationsverarbeitungsvorrichtung und -verfahren für die Eingabe von Information durch Bedienung der gesamten Vorrichtung von Hand - Google Patents

Informationsverarbeitungsvorrichtung und -verfahren für die Eingabe von Information durch Bedienung der gesamten Vorrichtung von Hand Download PDF

Info

Publication number
DE69725525T2
DE69725525T2 DE69725525T DE69725525T DE69725525T2 DE 69725525 T2 DE69725525 T2 DE 69725525T2 DE 69725525 T DE69725525 T DE 69725525T DE 69725525 T DE69725525 T DE 69725525T DE 69725525 T2 DE69725525 T2 DE 69725525T2
Authority
DE
Germany
Prior art keywords
information
screen
display
displayed
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69725525T
Other languages
English (en)
Other versions
DE69725525D1 (de
Inventor
Junichi Shinagawa-ku Tokyo Rekimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Application granted granted Critical
Publication of DE69725525D1 publication Critical patent/DE69725525D1/de
Publication of DE69725525T2 publication Critical patent/DE69725525T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1656Details related to functional adaptations of the enclosure, e.g. to provide protection against EMI, shock, water, or to host detachable peripherals like a mouse or removable expansions units like PCMCIA cards, or to provide access to internal components for maintenance or to removable storage supports like CDs or DVDs, or to mechanically mount accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Gyroscopes (AREA)
  • Digital Computer Display Output (AREA)
  • Instructional Devices (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf eine Informationsverarbeitungs-Vorrichtung und ein Verfahren zum Eingeben von Information durch Halten und Drehen der gesamten Vorrichtung mit einer Hand.
  • Bei einem tragbaren Informationsgerät, wie einem elektronischen Taschennotebook, einem Mobiltelefon, einem Taschenpieptongeber oder dgl. ist herkömmlicherweise eine Taste, ein Stift, ein berührungsempfindliches Eingabefeld oder dgl. als Informations-Eingabemittel benutzt worden. Beispielsweise wird im Falle eines elektronischen Taschennotebooks der Körper des Geräts mit einer Hand gehalten, während mit der anderen Hand ein Stift gehalten wird und ein berührungsempfindliches Eingabefeld, das auf dem Gerätekörper vorgesehen ist, mit dem Stift betätigt wird, um vorgeschriebene Information einzugeben.
  • Ferner sind für das Mobiltelefon Zifferntasten zum Eingeben einer Telefonnummer und Funktionstasten, die verschiedenen Funktionen entsprechen, vorgesehen, um vorgeschriebene Bedienungsvorgänge durchführen zu können. Der Taschenpieptongeber oder dgl. ist mit einer unentbehrlichen Anzahl von Funktionstasten versehen, die verschiedenen Funktionen entsprechen, und diese Tasten werden betätigt.
  • Im Falle eines tragbaren Informationsgeräts, wie eines elektronischen Taschennotebooks, zum Eingeben von Information unter Benutzung eines Stifts und eines berührungsempfindlichen Eingabefelds muss jedoch der Gerätekörper, der mit dem berührungsempfindlichen Eingabefeld versehen ist, mit einer Hand gehalten werden, während der Stift mit der anderen Hand gehalten wird, und demzufolge müssen beide Hände für die Bedienung benutzt werden. Daher besteht ein Problem dahingehend, dass die Bedienbarkeit des Geräts in einigen Fällen schlecht ist. Beispielsweise ist es schwierig, das tragbare Gerät zu bedienen, während mit einer Hand ein Gepäckstück gehalten wird.
  • Bei dem Mobiltelefon usw. besteht ein Problem dahingehend, dass die Zifferntasten zum Eingeben einer Telefonnummer viel Platz in Anspruch nehmen und diese demzufolge keine kompakte Konstruktion zulassen.
  • Eine Informationsverarbeitungs-Vorrichtung, für die alle Merkmale gemäß dem Oberbegriff von Anspruch 1 offenbart sind, ist in der Druckschrift JP 07 064 754 A beschrieben. Ferner ist aus "PERSONAL COMPUTER WITH INTERGATED GLOBAL POSITIONIHG SYSTEM", IBM TECHNICAL DISCLOSURE BULLETIN, Bd. 37, Nr. 2B, 1. Februar 1994, S. 313/314 XP000433860 ein tragbarer Personal Computer bekannt, in den das GPS (GLOBAL POSITIONING SYSTEM) integriert ist, um Information über den den Aufenthaltsort des Benutzers zusammen mit örtlichen Karten und anderen Daten, die unter Benutzung von in dem Computer gespeicherter Software erzeugt werden können, bereit stellen zu können.
  • Die vorliegende Erfindung ist im Hinblick auf die zuvor geschilderte Situation entstanden, und ihr liegt die Aufgabe zugrunde, eine Informationsverarbeitungs-Vorrichtung zu schaffen, bei der die Anzahl von Bedienungstasten verringert werden kann und die leicht sogar mit nur einer Hand gehandhabt werden kann.
  • Diese Aufgabe wird durch eine Informationsverarbeitungs-Vorrichtung und ein Informationsverarbeitungs-Verfahren gemäß den vorliegenden unabhängigen Ansprüchen gelöst. Vorteilhafte Merkmale der vorliegenden Erfindung sind in den entsprechenden Unteransprüchen angegeben.
  • 1 zeigt eine Darstellung des Aussehens einer tragbaren Informationsverarbeitungs-Vorrichtung, auf die eine Eingabevorrichtung gemäß der vorliegenden Erfindung angewendet ist.
  • 2 zeigt ein Blockschaltbild, das den inneren Aufbau der in 1 gezeigten tragbaren Informationsverarbeitungs-Vorrichtung darstellt.
  • 3 zeigt eine Darstellung einer Prozedur zum Anzeigen eines ringförmig Menüs und Auswählen eines Menüpunkts .
  • 4 zeigt ein Flussdiagramm, das die Prozedur zum Auswählen eines Menüpunkts eines ringförmig Menüs gemäß 3 darstellt.
  • 5 zeigt eine Darstellung eines Menürahmens, in dem ein Cursor festgehalten ist und ein ringförmiges Menü bewegt wird.
  • 6 zeigt eine Darstellung eines Menürahmens, der in einem elektronischen Notebook angezeigt wird.
  • 7 zeigt eine Darstellung eines Zustands, in dem ein ringförmiges Menüs angezeigt ist und ein Menüpunkt ausgewählt wird.
  • 8 zeigt eine Darstellung einer Bewegung auf einer virtuellen Karte und einer Anzeige irgendeines Teils der Karte auf einem Bildschirm.
  • 9 zeigt eine Darstellung eines Zustands, in dem eine virtuelle Karte schräg von oben betrachtet wird.
  • 10 zeigt eine Darstellung eines Rahmens, der auf einem LCD-Bildschirm 3 eines PDA (Personal Digital Assistent) 50 gemäß 9 angezeigt ist.
  • 11 zeigt eine Darstellung des Orts eines Betrachtungspunkts, der aus seitlicher Richtung auf einer virtuellen Karte betrachtet wird, wenn der Betrachtungspunkt aus einer gegenwärtigen Position zu einem Bewegungsziel auf der virtuellen Karte bewegt wird.
  • 12 zeigt eine Rahmenanzeige in dem Fall, in dem die Karte bei einem Betrachtungspunkt P1 gemäß 11 betrachtet wird.
  • 13 zeigt eine Rahmenanzeige in dem Fall, in dem die Karte bei einem Betrachtungspunkt P2 gemäß 11 betrachtet wird.
  • 14 zeigt ein Blockschaltbild, das den allgemeinen Aufbau eines Systems zum Durchführen einer Anzeigeverarbeitung für einen Blick aus der Vogelperspektive darstellt.
  • 15 zeigt eine Darstellung des Konzepts einer Umwandlung für eine perspektivische Projektion.
  • 16 zeigt ein Flussdiagramm, das die Arbeitsweise des in 14 gezeigten Systems darstellt.
  • Im folgenden wird unter Bezugnahme auf die vorliegenden Figuren ein bevorzugtes Ausführungsbeispiel der vorliegenden Erfindung beschrieben.
  • 1 zeigt eine Darstellung des Aussehens einer tragbaren Informationsverarbeitungs-Vorrichtung PDA (Personal Digital Assistant) 50, auf welche die vorliegenden Erfindung angewendet ist. Ein 3-Achsen-Lageänderungssensor 1 (Erfassungsmittel) 1 mit der Funktion eines Kreisels erfasst jeden Drehungswinkel, wenn die ganze Vorrichtung um die X-Achse, die Y-Achse und die Z-Achse gedreht wird. Eine Be dienungstaste 2 (Befehlsgabemittel) ist dazu bestimmt, der Vorrichtung einen vorbestimmten Befehl zu erteilen. Eine LCD (Liquid Crystal Display) 3 (Anzeigemittel) ist dazu bestimmt, Bilder, wie einen Menürahmen, eine Karte usw., anzuzeigen.
  • 2 zeigt ein Blockschaltbild, das den Aufbau des Inneren des in 1 gezeigten PDA 50 darstellt. Der 3-Achsen-Lageänderungssensor 1 umfasst Schwingungs-Lageänderungssensoren 1a, 1b u. 1c, die den jeweiligen Koordinatenachsen der X-Achse, der Y-Achse und der Z-Achse entsprechen.
  • Der Schwingungs-Lageänderungssensor hat eine derartige Charakteristik, dass wenn eine Drehungs-Winkelgeschwindigkeit auf ein schwingendes Objekt einwirkt, eine Coriolis-Kraft in der Richtung senkrecht zu der Schwingungsrichtung auftritt. Die Coriolis-Kraft F ist wie folgt auszudrücken: F = 2mvω(m repräsentiert die Masse, v repräsentiert die Geschwindigkeit und ω repräsentiert die Winkelgeschwindigkeit)
  • Demgemäß ist die Winkelgeschwindigkeit ω proportional zu der Coriolis-Kraft F, und demzufolge kann die Drehungs-Winkelgeschwindigkeit durch Erfassen der Coriolis-Kraft F erfasst werden.
  • Der Schwingungs-Lageänderungssensor 1a ist mit einem piezoelektrischen Antriebs-Keramikelement 4a und einem piezoelektrischen Erfassungs-Keramikelement 4b versehen, und an das piezoelektrische Antriebs-Keramikelement 4a wird ein Wechselspannungssignal gelegt, das ein Schwingungsausgangssignal eines Oszillators 25 ist. In diesem Zustand wird, wenn der Schwingungs-Lageänderungssensor 1a in θ-Richtung gedreht wird, eine Coriolis-Kraft F auf das piezoelektrische Erfassungs-Keramikelement 4b ausgeübt, um eine Span nung E zu erzeugen.
  • Ein Ausgangssignal sehr kleiner Spannung des piezoelektrischen Erfassungs-Keramikelements 4b wird durch einen Verstärker 7 verstärkt und in einem A/D-Wandler 10 in digitale Daten umgewandelt.
  • Die Winkelgeschwindigkeit ϖ, die sich auf den Schwingungs-Lageänderungssensor 1a auswirkt, und die erzeugte Spannung E sind proportional zueinander. Beispielsweise ist der Schwingungs-Lageänderungssensor 1a derart angeordnet, dass die Spannung E zunimmt, wenn er im Uhrzeigersinn um die X-Achse gedreht wird, während the Spannung E abnimmt, wenn er entgegen dem Uhrzeigersinn gedreht wird.
  • Die Schwingungs-Lageänderungssensoren 1b u. 1c weisen grundsätzlich die gleiche Wirkung wie der Schwingungs-Lageänderungssensor 1a auf. Die Winkelgeschwindigkeit einer Drehung um die Y-Achse wird durch den Schwingungs-Lageänderungssensor 1b erfasst, und das Ausgangssignal desselben wird in einem Verstärker 8 verstärkt und dann in einem A/D-Wandler 11 in digitale Daten umgewandelt. In gleicher Weise wird die Winkelgeschwindigkeit einer Drehung um die Z-Achse durch den Schwingungs-Lageänderungssensor 1c erfasst, und das Ausgangssignal desselben wird in einem Verstärker 9 verstärkt und dann in einem A/D-Wandler 12 in digitale Daten umgewandelt.
  • Die Bedienungstaste 2 erzeugt ein vorbestimmtes Signal in Übereinstimmung mit einer Betätigung durch den Benutzer, und das Signal wird einer Eingabeschnittstelle 13 zugeführt. Eine CPU 14 (Verarbeitungsmittel) ist über einen Bus 26 mit verschiedenen Arten von integrierten Schaltkreisen (ICs) verbunden. In einen ROM 15 sind nicht nur Systemprogramme für die ganze Vorrichtung, sondern beispielsweise auch Katakana/Kanji-Umwandlungsprogramme für Wortprozessor-Funktionen und eine Lexikontabelle dafür, ein Erkennungs programm für eine handschriftliche Eingabe und eine Lexikontabelle dafür eingeschrieben. In einem RAM 16 werden jeweils Daten gespeichert, die für die verschiedenen Betriebsabläufe notwendig sind.
  • Die LCD 3 ist dazu bestimmt, unter der Steuerung einer Farb-LCD-Steuereinrichtung 18 eine vorbestimmte Anzeige durchzuführen. Eine druckempfindliche transparente Schreibtafel 29 erfasst unter der Steuerung einer Schreibtafel-Steuereinrichtung 17 für die druckempfindliche transparente Schreibtafel eine vorbestimmte Eingabe. Eine Hintergrundlichtquelle 30 strahlt unter der Steuerung einer Hintergrundlichtquellen-Steuereinrichtung 19 von der Rückseite her durch die druckempfindliche transparente Schreibtafel Licht auf die LCD 3 ab.
  • Eine PC-Kartenschnittstelle 20 ist mit einer Steckverbinder-Aufnahmeeinrichtung 27 versehen, und in diese Steckverbinder-Aufnahmeeinrichtung ist eine PCMCIA-GPS-Karte eingesteckt, welche die Standards der PCMCIA (Personal Computer Memory Card International Association) als eine GPS- (Global Positioning System-)Vorrichtung (im folgenden zu "GPS-Karte" abgekürzt) 22 (Positionserfassungsmittel) erfüllt. Die CPU 14 sendet und empfängt durch die PC-Kartenschnittstelle 20 Daten, Programme usw. an die und von der GPS-Karte 22. Ferner ist die GPS-Karte 22 mit einer GPS-Antenne 23 verbunden, die Funksignale von einem GPS-Satelliten empfängt und entsprechendee Signale ausgibt. Die GPS-Karte 22 erfasst die gegenwärtige Position auf der Grundlage eines Signals, das durch die GPS-Antenne 23 empfangen ist, und gibt Positionsdaten aus, die der gegenwärtigen Position entsprechen.
  • Eine PC-Kartenschnittstelle 21 ist mit einer Steckverbinder-Aufnahmeeinrichtung 28 versehen und z. B. mit einer PCMCIA- Festplattenkarte (im folgenden zu HDD-Karte abgekürzt) 24 (Speichermittel) als eine Speichereinrichtung verbunden. Auf der HDD-Karte 24 sind Kartendaten usw. gespeichert.
  • Die Eingabeschnittstelle 13 führt der CPU 14 über den Bus 26 ein Erfassungssignal des 3-Achsen-Lageänderungssensors 1 zu, das von den A/D-Wandlern 10 bis 12 zugeführt ist. Ferner führt sie der CPU 14 über den Bus 26 ein von der Bedienungstaste 2 zugeführtes Signal zu, das einer vorbestimmten Bedienungsbetätigung entspricht.
  • Als nächstes wird unter Bezugnahme auf 3 u. 4 der Betriebsablauf beschrieben, der ausgeführt wird, wenn die Menüauswahl unter Benutzung des PDA 50, der wie beschrieben aufgebaut ist, durchgeführt wird. Wenn dieser Betrieb durchgeführt wird, werden die Daten bezüglich der gegenwärtigen Position nicht benötigt, und demzufolge ist es nicht notwendig, die GPS-Karte 22 in die Steckverbinder-Aufnahmeeinrichtung 27 der PC-Kartenschnittstelle 20 gemäß 2 einzustecken. Ferner werden keine Kartendaten benötigt, und demzufolge ist es nicht notwendig, die HDD-Karte 24 in die Steckverbinder-Aufnahmeeinrichtung 28 einzustecken.
  • 3 zeigt eine Reihe von Bedienungsrahmen, die angezeigt werden, wenn die Menüauswahl durchgeführt wird, und 4 zeigt ein Flussdiagramm, das die Prozedur für den Betriebsablauf darstellt.
  • Gemäß 4 entscheidet die CPU 14 zuerst in Schritt 51, ob die Bedienungstaste 2 durch einen Benutzer niedergedrückt ist. Zu dieser Zeit erfolgt keine Anzeige auf dem Bildschirm des PDA 50, wie dies in 3 bei (a) gezeigt ist.
  • Wenn die Bedienungstaste 2 durch den Benutzer niedergedrückt ist, wird ein vorbestimmtes Signal erzeugt und der CPU 14 durch die Eingabeschnittstelle 13 und über den Bus 26 zugeführt, wodurch die CPU 14 die Betätigung der Bedie nungstaste 2 als erfolgt entscheidet (JA) und sich die Verarbeitung zu Schritt S2 fortsetzt. Andererseits wird die Verarbeitung gemäß Schritt S1 wiederholt, wenn die Bedienungstaste 2 nicht durch den Benutzer betätigt ist (NEIN).
  • In Schritt S2 erzeugt die CPU 14 Anzeigedaten (Bitmap-Daten) entsprechend einem vorbestimmten Menü, und führt die Anzeigedaten zusammen mit Daten, die einer Anzeigeposition auf dem Bildschirm entsprechen, der Farb-LCD-Steuereinrichtung 18 über den Bus 26 zu. Alternativ dazu können die Bitmap-Daten, die dem Menü entsprechen, vorab in dem ROM 15 gespeichert sein und dann über den Bus 26 ausgelesen und der Farb-LCD-Steuereinrichtung 18 zugeführt werden.
  • Die Farb-LCD-Steuereinrichtung 18 hat einen VRAM (Video-RAM) (nicht gezeigt) und steuert die LCD 3 in Übereinstimmung mit Daten, die in den VRAM eingeschrieben sind, um ein vorbestimmtes Bild anzuzeigen. Demgemäß werden die dem vorbestimmten Menü entsprechenden Anzeigedaten, die von der CPU 14 zugeführt werden, in dem VRAM der Farb-LCD-Steuereinrichtung gespeichert. Die Farb-LCD-Steuereinrichtung 18 führt der LCD 3 in Übereinstimmung mit den Anzeigedaten, die in dem VRAM gespeichert sind, ein Steuersignal zu, um dadurch das vorbestimmte Menü anzuzeigen.
  • Als nächstes liest die CPU 14 in Schritt S3 beispielsweise die Anzeigedaten, die einem vorbestimmten Cursor entsprechen, aus dem ROM 15 aus und führt der Farb-LCD-Steuereinrichtung 18 die Anzeigedaten zusammen mit Daten zu, die der Anzeigeposition auf dem Bildschirm entsprechen. Die Farb-LCD-Steuereinrichtung 18 speichert die von der CPU 14 zugeführten Anzeigedaten, die dem Cursor entsprechen, in dem VRAM und steuert die LCD 3 in Übereinstimmung mit den Anzeigedaten, die in the VRAM gespeichert sind.
  • Als Ergebnis werden, wie bei (b) in 3 gezeigt, ein vorbestimmtes Menü und ein vorbestimmter Cursor (in diesem Fall hat er eine Kreuzform) auf dem Bildschirm der LCD 3 angezeigt. In diesem Fall wird der Cursor zuerst in dem Zentrum des Menüs angezeigt.
  • Als nächstes setzt sich die Verarbeitung zu Schritt S4 fort, und die CPU 14 entscheidet, ob das ganze Gerät (PDA) 50 gedreht ist. Wenn der Benutzer das ganze Gerät beispielsweise um die X-Achse dreht, während es mit einer Hand gehalten wird, wie dies in 1 gezeigt ist, wird in dem piezoelektrische Erfassungs-Keramikelement 4b infolge der Drehung eine vorbestimmte Spannung erzeugt und in dem Verstärker 7 verstärkt und in dem A/D-Wandler 10 in digitale Daten umgewandelt. Die digitalen Daten werden durch die Eingabeschnittstelle 13 eingegeben und der CPU 14 über den Bus 26 zugeführt, wodurch die CPU 14 die Drehung des ganzen Geräts um die X-Achse erkennen kann. Das Gleiche gilt für die Drehung um die Y-Achse und die Drehung um die Z-Achse.
  • Wenn in Schritt S4 entschieden ist, dass das ganze Gerät gedreht ist (JA), geht die CPU 14 zu Schritt S5, um den Drehungsbetrag bezüglich der X-Achse zu gewinnen. In Schritt S7 wird der Cursor in Übereinstimmung mit den jeweiligen Drehungsbeträgen bezüglich der X-Achse und der Y-Achse (s. Schritt S6) in Aufwärts- und Abwärtsrichtungen und in Rechts- und Linksrichtungen bewegt.
  • Das bedeutet, dass die Bitmap-Daten, die dem Cursor entsprechen, und die Daten, die der Anzeigeposition entsprechen, zu welcher der Cursor, der gegenwärtig auf dem Bildschirm angezeigt wird, in den Aufwärts- und Abwärtsrichtungen und den Rechts- und Linksrichtungen verschoben werden soll, um den Cursor in den Aufwärts- und Abwärtsrichtungen und den Rechts- und Linksrichtungen in Übereinstimmung mit der Drehung des ganzen Geräts zu bewegen, der Farb-LCD-Steuereinrichtung 18 zugeführt werden. Das Ausmaß der Verschiebung der Anzeigeposition entspricht jeder Ausgangssignalspannung der piezoelektrischen Erfassungs-Kera mikelemente 4b, 5b. Die Farb-LCD-Steuereinrichtung 18 speichert die Bitmap-Daten, die von der CPU zugeführt sind, an einer vorbestimmten Stelle in dem VRAM auf der Grundlage der Daten, die der Anzeigeposition entsprechen.
  • Die Farb-LCD-Steuereinrichtung 18 steuert die LCD 3 in Übereinstimmung mit den Bitmap-Daten, die dem Cursor entsprechen, nachdem der bewegt wurde, und die in dem VRAM gespeichert sind. Bei diesem Vorgang wird der Cursor, wenn das ganze Gerät in einem Zustand, in dem sich der Cursor zuerst in dem Zentrum des Bildschirms befindet, wie dies bei (b) in 3 gezeigt ist, um die X-Achse gedreht wird, beispielsweise zu einem Item "Banane" bewegt, wie dies bei (c) in 3 gezeigt ist. Ferner wird der Cursor, wenn das ganze Gerät in einem Zustand, in dem sich der Cursor zuerst in dem Zentrum des Bildschirms befindet, wie dies bei (b) in 3 gezeigt ist, um die Y-Achse gedreht wird, beispielsweise zu einem Item "Apfel" bewegt, wie dies bei (d) in 3 gezeigt ist.
  • Als nächstes geht die CPU 14 zu Schritt B. Wenn sich der Cursor bei irgendeinem der Menüpunkte befindet, erzeugt die CPU 14 die Anzeigedaten, die dem Menü entsprechen, für das die Anzeige des Menüpunkts hervorgehoben ist, und führt die Anzeigedaten der Farb-LCD-Steuereinrichtung 18 zu. Wenn sich der Cursor beispielsweise bei dem Menüpunkt "Banane" befindet, wie dies bei (c) in 3 gezeigt ist, erzeugt die CPU 14 Anzeigedaten, die dem Menü entsprechen, für das der Menüpunkt "Banane" angezeigt ist, während er hervorgehoben ist, und führt die Anzeigedaten der Farb-LCD-Steuereinrichtung 18 zu.
  • Bei diesem Vorgang speichert die Farb-LCD-Steuereinrichtung 18 die Anzeigedaten, die dem Menü entsprechen, für das die Anzeige des Menüpunkts "Banane" hervorgehoben ist, bei dem sich der Cursor befindet, in dem VRAM. In Übereinstimmung mit den Anzeigedaten, die in dem VRAM gespeichert sind, steuert die Farb-LCD-Steuereinrichtung 18 die LCD 3 und zeigt den Rahmen an, in dem der Menüpunkt "Banane" hervorgehaoben angezeigt wird.
  • Wenn sich der Cursor beispielsweise bei dem Menüpunkt "Apfel" befindet, wie dies bei (d) in 3, gezeigt ist, werden Anzeigedaten, die dem Menü entprechen, für das der Menüpunkt "Apfel" hervorgehoben angezeigt ist, erzeugt und der Farb-LCD-Steuereinrichtung 18 zugeführt.
  • Bei diesem Vorgang speichert die Farb-LCD-Steuereinrichtung 18 Anzeigedaten, die dem Menü entsprechen, für das der Menüpunkt "Apfel", bei dem sich der Cursor befindet, hervorgehoben angezeigt ist, in dem VRAM. In Übereinstimmung mit den Anzeigedaten, die in dem VRAM gespeichert sind, steuert die Farb-LCD-Steuereinrichtung 18 die LCD 3, um den Rahmen anzuzeigen, in dem der Menüpunkt "Apfel" hervorgehoben angezeigt ist.
  • Wenn die Verarbeitung in Schritt S8 beendet ist, kehrt die CPU 14 zu Schritt S4 zurück, um die Verarbeitung, die dem Schritt S4 nachfolgt, zu wiederholen.
  • Wenn in Schritt S4 entschieden ist, dass das ganze Gerät nicht gedreht ist (NEIN), geht die CPU 14 zu Schritt S9, um zu entscheiden, ob die Bedienungs Bedienungstaste 2 losgelassen ist. Wenn entschieden ist, dass die Bedienungstaste 2 nicht losgelassen ist (NEIN), kehrt die CPU zu Schritt S4 zurück, um die Verarbeitung, die Schritt S4 nachfolgt, zu wiederholen. Andererseits wird, wenn die Bedienungstaste 2 in einem Zustand, in dem ein Rahmen wie bei (d) in 3 gezeigt angezeigt ist, losgelassen ist, in Schritt S9 entschieden, dass die Bedienungstaste 2 losgelassen ist (JA), und die CPU geht zu Schritt S10, um die Auswahl des hervorgehoben angezeigten Menüpunkts festzuhalten.
  • Bei diesem Vorgang wird in Schritt S11 das Menü von dem Bildschirm entfernt, und die CPU kehrt zu Schritt S1 zurück, um die Verarbeitung, die Schritt S1 nachfolgt, zu wiederholen.
  • Durch Halten des ganzen Geräts mit einer Hand und Drehen desselben um die X-Achse und die Y-Achse, wie es zuvor beschrieben wurde, kann ein vorgeschriebener Menüpunkt ausgewählt werden. In der vorstehenden Beschreibung ist der Fall beschrieben, in dem die Drehung um zwei Achsen, die X-Achse und die Y-Achse, erfolgt. Selbstverständlich kann die Auswahl des Menüpunkts jedoch auch durch Drehen des ganzen Geräts um drei Achsen, die X-Achse, die Y-Achse und die Z-Achse, durchgeführt werden.
  • Ferner wird der Cursor in diesem Ausführungsbeispiel, wenn das Gerät gedreht wird, in dem Menü bewegt, um einen vorgeschriebenen Menüpunkt auszuwählen. Es kann jedoch auch angenommen werden, dass sich der Cursor fest in einer vorbestimmten Position, beispielsweise im Zentrum, befindet, wie dies in 5 gezeigt ist, und das Menü innerhalb des Rahmens bewegt wird, wenn das Gerät gedreht wird. Bei diesem Vorgang kann ebenfalls ein vorgeschriebener Menüpunkt ausgewählt werden.
  • 6 zeigt ein Beispiel für eine Anzeige mittels der LCD 3, die sich ergibt, wenn die vorliegende Erfindung auf ein elektronisches Notebook angewendet ist. Das elektronische Notebook wird beispielsweise mit einer Hand gehalten, und durch Niederdrücken der Bedienungstaste 2 wird ein ringförmiges Menü angezeigt. In diesem Fall werden Menüpunke, die in dem elektronischen Notebook benutzt werden, beispielsweise "Verzeichnis", "Wörterbuch", "Notiz", "Erinnerung", "Telefonbuch", "Zu Erledigendes (Dinge, die zu tun sind)" usw. angezeigt, und der Cursor wird in dem Zentrum des Bildschirms angezeigt.
  • Nachfolgend wird der Cursor durch Drehen des ganzen elek tronischen Notebooks um die X-Achse und die Y-Achse während eines Niederdrückens der Bedienungstaste 2 zu einem vorgeschriebenen Menüpunkt bewegt. Danach wird die Auswahl des Menüpunkts, bei dem sich der Cursor befindet, festgehalten, wenn die Bedienungstaste 2 losgelassen wird, während sich der Cursor bei dem gewünschten Menüpunktis befindet.
  • Wie zuvor beschrieben kann das elektronische Notebook mit einer Hand bedient werden, um den Menüpunkt auszuwählen. Ferner kann anstelle des zuvor beschriebenen Menüs ein Menü angezeigt werden, das Ziffern, Buchstaben, "Hiragana" oder "Katakana" oder dgl. als Menüpunkts enthält, und es kann eine Telefonnummer, ein Satz oder dgl. durch Auswählen einer gewünschten Zahl oder von Zeichen mit Hilfe des Cursors eingegeben werden.
  • 7 zeigt ein Beispiel für ein zylinderförmiges Menü. Die Menüpunkts werden angezeigt, als wären sie auf einem Zylinder angeordnet, und in einer vorbestimmten Position wird ein rechteckiger Cursor angezeigt. Zuerst drückt ein Benutzer die Bedienungstaste 2 nieder und dreht dann das Gerät um die X-Achse, wodurch der Zylinder gedreht wird. Wenn ein gewünschtes Menü in die Innenseite des Cursors bewegt ist, wird die Bedienungstaste 2 losgelassen. Wie zuvor beschrieben kann ein gewünschter Menüpunkt des zylinderförmigen Menüs ausgewählt und festgehalten werden.
  • Als nächstes wird der Fall, in dem unter Benutzung des PDA 50, der in der beschriebenen Weise aufgebaut ist, eine digitale Karte angezeigt wird, unter Bezugnahme auf 8 bis 13 beschrieben.
  • Wenn diese Anzeige ausgeführt wird, werden Daten bezüglich der gegenwärtigen Position benötigt, und dazu wird die GPS-Karte 22 in die Steckverbinder-Aufnahmeeinrichtung 27 der PC-Kartenschnittstelle 20 gemäß 2 eingesteckt, wodurch die gegenwärtige Position auf der Grundlage des Funksignals von dem GPS-Satelliten, das von der GPS-Antenne 23 empfangen wird, berechnet werden kann. Ferner wird die HDD-Karte 24 in die Steckverbinder-Aufnahmeeinrichtung 28 eingesteckt, um das Auslesen von Kartendaten zu gestatten.
  • 8 zeigt eine abstrakte Darstellung, die aussagt, dass ein vorgeschriebener Bereich, wie eine virtuelle Karte, eine Zeichnung oder dgl., durch Ausüben einer Drehbewegung auf den PDA 50 auf dem Bildschirm angezeigt wird. In dem PDA 50 sind Kartendaten auf der HDD-Karte 24 gespeichert, und die CPU 14 liest die Kartendaten durch die PC-Kartenschnittstelle 21 aus der HDD-Karte 24 aus. Die ausgelesenen Kartendaten werden einer Koordinatenumwandlungs-Verarbeitung unterzogen, um eine Kartenanzeige entsprechend einem Blick aus der Vogelperspektive durchzuführen, die später unter Bezugnahme auf 14 bis 16 beschrieben wird, um dadurch Bitmap-Daten zu erzeugen, die den Kartendaten entsprechen, die der Koordinatenumwandlungs-Verarbeitung unterzogen worden sind. Dann werden die Bitmap-Daten der Farb-LCD-Steuereinrichtung 18 zugeführt.
  • Die Farb-LCD-Steuereinrichtung 18 speichert die Bitmap-Daten, die von der CPU 14 zugeführt sind, in dem VRAM. Die Farb-LCD-Steuereinrichtung 18 steuert die LCD 3 auf der Grundlage der Bitmap-Daten, die in dem VRAM gespeichert sind, und zeigt die Karte entsprechend den Bitmap-Daten an. Wie zuvor beschrieben kann der Bereich angezeigt werden, welcher der gegenwärtigen Position in einer vorgeschriebenen Karte entspricht. In diesem Fall werden Kartendaten, die der gegenwärtigen Position entsprechen, bezüglich derer Daten von der GPS-Karte 22 zugeführt werden, aus der HDD-Karte 24 ausgelesen und durch die LCD 3 angezeigt.
  • Beispielsweise wird, wenn der Benutzer die Bedienungstaste 2 niederdrückt und der PDA 50 um die horizontale Achse (X-Achse) in bezug auf den Bildschirm gedreht wird, während die Karte der gegenwärtigen Position auf dem Bildschirm des PDA 50 angezeigt wird, eine vorgeschriebene Spannung in dem piezoelektrischen Erfassungs-Keramikelement 4b erzeugt. Die Spannung wird durch den Verstärker 7 verstärkt und in dem A/D-Wandler 10 in digitale Daten umgewandelt. Danach werden die digitalen Daten über den Bus 26 der CPU 14 zugeführt, wodurch die CPU 14 erkennt, dass der PDA 50 um die X-Achse. gedreht ist.
  • Nachfolgend werden Bitmap-Daten, die den Kartendaten entsprechen, die aufwärts oder abwärts von einem Teil aus verschoben sind, der gegenwärtig auf dem Bildschirm der LCD 3 angezeigt ist, auf der Grundlage der Kartendaten erzeugt, die aus der HDD-Karte 24 ausgelesen sind, so dass die Karte, die auf dem Bildschirm der LCD 3 angezeigt ist, aufwärts oder abwärts bewegt wird, und diese Bitmap-Daten werden dann der Farb-LCD-Steuereinrichtung 18 zugeführt.
  • Die Farb-LCD-Steuereinrichtung 18 speichert die Bitmap-Daten, die von der CPU 14 zugeführt sind, vorübergehend in dem VRAM. Nachfolgend steuert sie die LCD 3 in Übereinstimmung mit den Bitmap-Daten, die in dem VRAM gespeichert sind, um die entsprechende Karte anzuzeigen, wodurch die Karte, die auf dem Bildschirm der LCD 3 des PDA 50 angezeigt ist, in Übereinstimmung mit der Drehbewegung durch den Benutzer aufwärts oder abwärts bewegt wird. Der Bewegungsbetrag entspricht dem Drehungswinkel des PDR 50.
  • Ferner wird, wenn der PDA 50 um die Achse (Y-Achse) senkrecht zu dem Bildschirm gedreht wird, während die Bedienungstaste 2 niedergedrückt ist, zu dieser Zeit eine Spannung durch das piezoelektrische Erfassungs-Keramikelement 5b erzeugt, und auf diese Weise erkennt die CPU 14, dass eine Drehbewegung um die Y-Achse durchgeführt wird.
  • Nachfolgend erzeugt die CPU 14 auf der Grundlage der Kartendaten, die aus der HDD-Karte 24 ausgelesen sind, Bitmap-Daten, die den Kartendaten entsprechen, die in Links- oder Rechtsrichtung von einem Teil aus, der gegenwärtig auf dem Bildschirm der LCD 3 angezeigt ist, verschoben sind, so dass die Karte, die auf dem Bildschirm der LCD 3 angezeigt ist, in Linksrichtung oder Rechtsrichtung bewegt wird, und führt die Daten der Farb-LCD-Steuereinrichtung 18 zu.
  • Die Farb-LCD-Steuereinrichtung 18 speichert die Bitmap-Daten, die von der von der CPU 14 zugeführt sind, vorübergehend in dem VRAM. Nachfolgend steuert die Farb-LCD-Steuereinrichtung 18 die LCD 3 in Übereinstimmung mit den Bitmap-Daten, die in dem VRAM gespeichert sind, um die entsprechende Karte anzuzeigen. Demgemäß wird die Karte, die auf dem Bildschirm der LCD 3 des PDA 50 angezeigt ist, in Übereinstimmung mit der Drehbewegung durch den Benutzer in Rechts- oder Linksrichtung bewegt. Der Bewegungsbetrag entspricht dem Drehungswinkel des PDA 50.
  • Ferner kann irgendein Teil der Karte durch Kombination der zuvor beschriebenen Drehbewegungen auf dem Bildschirm der LCD 3 angezeigt werden. Wenn die Bedienungstaste 2 in einem Zustand, in dem ein vorbestimmter Bereich der Karte angezeigt ist, losgelassen wird (Aufhebung der Tastenbetätigung), wie dies zuvor beschrieben wurde, wird die Karte des Bereichs, der gegenwärtig angezeigt ist, festgehalten, und die Karte des Teils, der auf dem Bildschirm angezeigt ist, wird nachfolgend fortlaufend angezeigt. Die Drehbewegung um die X-Achse und die Drehbewegung um die Y-Achse können gleichzeitig durchgeführt werden.
  • 9 zeigt einen Zustand, in dem sich der PDA 50 in bezug auf eine virtuelle Karte in einer Schräglageposition befindet. Wenn die virtuelle, die sich auf der Rückseitenoberfläche des Bildschirms der LCD 3 befindet, aus einer Richtung (Z-Achsen-Richtung) senkrecht zu dem Bildschirm der LCD 3 des PDA 50 betrachtet wird, kann ein Bereich A auf der Karte wahrgenommen werden. Daher wird eine Karte, wie sie in 10 gezeigt ist, auf dem Bildschirm der LCD 3 des PDA 50 angezeigt. Demgemäß kann ein solches Bild, wenn die Karte tatsächlich erweitert und unter verschiedenen Winkeln betrachtet wird, auf dem Bildschirm angezeigt werden.
  • Ferner kann ein Index M, der ein nächste Bewegungsziel M repräsentiert, angezeigt werden, wie dies in 9 u. 10 gezeigt ist. Demgemäß kann der Benutzer den Ort auf der Karte erkennen, zu dem er sich bewegt, und demzufolge kann die Bedienung, wenn sich der Benutzer zu einem gewünschten Teil auf der Karte bewegt, erleichtert werden. Ferner können der gegenwärtige Anzeigebereich und das Bewegungsziel selbst dann, wenn das Bewegungsziel weit entfernt ist, gleichzeitig auf dem Bildschirm angezeigt werden, so dass die Beziehung zwischen dem Bewegungsziel und der gegenwärtigen Position leicht erkannt werden kann.
  • 11 zeigt eine Darstellung des Orts des PDA 50, der sich auf der virtuellen Karte bewegt, die aus seitlicher Richtung in Bezug auf die Oberfläche der Karte betrachtet wird. Zuerst wird die Karte bei einem Betrachtungspunkt P1 von oben betrachtet, und es wird eine Karte, wie sie in 12 gezeigt ist, auf dem Bildschirm der LCD 3 angezeigt. Nachfolgend wird die Bedienungstaste 2 des PDA 50 niedergedrückt, und der PDA 50 wird um eine vorbestimmte Achse gedreht, wodurch der Betrachtungspunkt automatisch von dem Betrachtungspunkt P1 zu einem Betrachtungspunkt P2 bewegt wird, der sich bei der oberen Seite des Betrachtungspunkts P1 befindet, und die Karte schräg von oben betrachtet werden kann.
  • Zu dieser Zeit kann der ganze Beeich oder ein Teil des Bereichs auf der Karte, die von dem Betrachtungspunkt P1 aus betrachtet wird, innerhalb des Bildschirms des PDA 50 lokalisiert werden. Demgemäß kann die positionsmäßige Beziehung zwischen der gegenwärtigen Position und dem Bewegungsziel leicht erfasst werden, und ein gewünschtes Bewegungsziel kann schnell entdeckt werden.
  • Bei dem Betrachtungspunkt P2 wird ein Blick aus der Vogelperspektive, wie er durch Betrachten der virtuellen Karte von schräg oben gewonnenen ist, auf dem Bildschirm der LCD 3 des PDA 50 angezeigt, wie dies in 13 gezeigt ist, und es wird der Index M des Bewegungsziels angezeigt. Wenn die Bedienungstaste 2 zu der Zeit losgelassen wird, zu welcher der Index M mit einem gewünschten Bewegungsziel zusammenfällt, wird der Betrachtungspunkt von dem Betrachtungspunkt P2 über einen Betrachtungspunkt P3 zu einem Betrachtungspunkt P4 bewegt. Auf dem Bildschirm der LCD 3 des PDA 50 wird das Bild angezeigt, das durch Betrachten der Karte von oben bei dem Betrachtungspunkt P4 gewonnen wird.
  • Wie zuvor beschrieben, kann der Benutzer leicht durch Bedienen des PDA 50 mit einer Hand eine gewünschte Stelle auf der Karte anzeigen lassen.
  • Als nächstes wird unter Bezugnahme auf 14 bis 16 ein Anzeigeverfahren zum Ermöglichen eines Blicks aus der Vogelperspektive beschrieben. Dies ist ein Verfahren zum Anzeigen einer Karte derart, als würde sie aus der Höhe betrachtet, und dieses Verfahren wird seit einiger Zeit für eine Navigationseinrichtung usw. benutzt, um die Beschaffenheit von Straßen ins einzelne gehend um einen Anzeigebezugspunkt herum anzuzeigen, bei dem sich das Fahrzeug des Benutzers befindet, und um außerdem die Beschaffenheit von weiter entfernten Straßen anzuzeigen.
  • 14 zeigt den Aufbau eines allgemeinen Systems, das die Anzeige eines Blicks aus der Vogelperspektive ausführt. Das System umfasst einen Gegenwartspositions-Eingabeteil 41 zum Eingeben einer gegenwärtigen Position PO (Xp, Yp, Zp), einen Betrachtungspunktumwandlungs-Tasteneingabeteil 42 zum Ändern der gegenwärtigen Position, einen für den Blick aus der Vogelperspektive vorgesehenen Anzeige-Berechnungsteil 43, der umfasst: einen Betrachtungspunktpositions/Sichtlinienrichtungs-Bestimmungsteil 44 zum Bestimmen der Betrachtungspunktposition/Sichtlinienrichtung auf der Grundlage von Information aus dem Gegenwartspositions-Eingabeteil 41, einen Grafikdatenkoordinaten-Umwandlungsteil 45 zum Umwandeln der Koordinaten von Grafikdaten auf der Grundlage von Information aus dem Betrachtungspunktpositions/Sichtlinienrichtungs-Bestimmungsteil 44 und von Karteninformation, einen Bilddaten-Ausgabeteil 46 zum Ausgeben von Bilddaten auf der Grundlage von Information aus dem Grafikdatenkoordinaten-Umwandlungsteil 45, einen Kartendaten-Speicherteil 47 zum Speichern jeder Art von Karteninformation und Ausgeben der gespeicherten Karteninformation an den Grafikdatenkoordinaten-Umwandlungsteil 45 und einen Bild-Anzeigeteil 48 zum Anzeigen eines Bilds entsprechend der Bildinformation, die von dem Bilddaten-Ausgabeteil 46 ausgegeben wird.
  • Dieses System kann durch Einsetzen der GPS-Karte 22 in den PDA 50, der in 2 gezeigt ist, ausgeführt sein. Das bedeutet, dass der Gegenwartspositions-Eingabeteil 41 der GPS-Karte 22 entspricht. Die GPS-Antenne 23 und der Berachtungspunktumwandlungs-Tasteneingabeteil 42 entsprechen dem 3-Achsen-Lageänderungssensor 1 mit der Funktion eines Kreisels. Der Betrachtungspunktpositions/Sichtlinienrichtungs-Bestimmungsteil 44 und der Grafikdatenkoordinaten-Umwandlungsteil 45, die den für den Blick aus der Vogelperpektive vorgesehenen Anzeige-Berechnungsteil 43 ausmachen, entsprechen der CPU 14, und der Bilddaten-Ausgabeteil 46 entspricht der Farb-LCD-Steuereinrichtung 18. Der Kartendaten-Speicherteil 47 entspricht der HDD-Karte 24, und der Bild-Anzeigeteil 48 entspricht der LCD 3.
  • Wie in 15 gezeigt wird ein Bereich ABCD der Karte, der in bezug auf die XYZ-Ebene dargestellt ist, abwärts von einem Betrachtungspunkt E(X0, Y0, Z0) aus bis zu einem Referenzpunkt B (Xb, Yb, Zb) unter einem Depressionswinkel 8 betrachtet, um ein Bild zu gewinnen, und dann wird das Bild auf eine Betrachtungsebene G projiziert, die vertikal zu der Sichtlinienrichtung angeordnet ist. Durch Anzeigen des zuvor beschriebenen projizierten Bilds als eine Ansicht mit Blick aus der Vogelperspektive auf den Bildschirm wird eine perspektivische Projektionsansicht gewonnen.
  • In diesem Fall sei angenommen, dass die Sichtlinie von dem Betrachtungspunkt E aus einen Drehrichtungs-Informationswinkel zu der XY-Ebene aufweist. Der Abstand zwischen dem Betrachtungspunkt E und der Betrachtungsebene G ist durch Vd repräsentiert. In dem perspektivisch projizierten Anzeigebild ist eine Längslinie auf der zentralen Linie als eine Referenzlinie eingetragen, und ein Punkt Q, der fest auf der Referenzlinie liegt, wird als Bezugspunkt der perspektivischen Projektion bezeichnet. Der Bezugspunkt Q befindet sich auf einer Linie, die den Betrachtungspunkt E, der so angenommen ist, als befände er sich auf der XY-Ebene, und den Referenzpunkt B (das Zentrum auf dem Bildschirm) der perspektivischen Projektion verbindet, und er ist bei der Entfernung DC von der unteren Seite des Anzeigerahmens in Richtung auf den Referenzpunkt B gezeigt.
  • 16 zeigt ein Flussdiagramm, das den Verarbeitungsbetrieb des Systems darstellt, das in 14 gezeigt ist. Diese Verarbeitung wird durch Berechnung mittels eines allgemeinen Computers ausgeführt, und ihr liegt ein Verfahren zum Setzen der gegenwärtigen Position P0 als die Position des Betrachtungspunkts E und ein Verfahren zum Setzen der gegenwärtigen Position P0 als der Bezugspunkt Q der perspektivischen Projektion zugrunde. Hier wird der Fall beschrieben, in dem die gegenwärtige Position P0 als der Bezugspunkt Q gsetzt wird und der Bezugspunkt Q mit dem Referenzpunkt B zusammenfällt.
  • Zuerst wird in Schritt S21 durch den Berachtungspunktumwandlungs-Tasteneingabeteil 42 und den Gegenwartspositions-Eingabeteil 41 die gegenwärtige Position P0 als der Bezugs punkt und der Referenzpunkt B gesetzt, und in Schritt S22 werden der Depressionswinkel der Sichtlinie, die Höhe des Betrachtungspunkts und die Bewegungsrichtung auf θ, h bzw. a gesetzt.
  • Nachfolgend geht die CPU 14 zu Schritt 523, und durch den Betrachtungspunktpositions/Sichtlinienrichungs-Bestimmungsteil 44 wird aus der folgenden Gleichung die Betrachtungspunktposition berechnet. In diesem Fall kann der Betrachtungspunkt E wie folgt auf der Grundlage von Information bezüglich des Referenzpunkts B bestimmt werden. Das bedeutet, dass der Betrachtungspunkt E (X0, Y0, Z0) unter der Annahme, dass die Koordinaten des Referenzpunkts B auf (x, y, 0) gesetzt sind, wie folgt dargestellt werdem kann: X0 = x – h × cosα(t)/tanθ Y0 = y – h × sinα(t)/tanθ Z0 = h
  • Nachfolgend wird in Schritt S24 durch den Grafikdatenkoordinaten-Umwandlungsteil 45 eine Verarbeitung zur perspektivischen Projektion der Kartendaten auf der Grundlage des berechneten Betrachtungspunkts durchgeführt. In diesem Fall wird der relationale Ausdruck der Koordinatenumwandlung des Punkts M (Mx, My, Mz) auf der XY-Ebene zu der Betrachtungsebene G (Sx, Sy) hin wie folgt dargestellt. Im Falle einer Karte in Draufsicht ist Mz gleich Null.
  • Wenn
    Figure 00220001
    ist, gilt: Sx = Ex × Vd/-Ez Sy = Ey × Vd/-Ez Sz = 0
  • Nachfolgend führt der Bilddaten-Ausgabeteil 46 in Schritt S25 alle Daten (Sxi, Syi) nach der Koordinatenumwandlung dem Bild-Anzeigeteil 48 zu, der Bild-Anzeigeteil 48 zeigt das Bild entsprechend den Daten an, die von dem Bilddaten-Ausgabeteil 46 zugeführt sind, und die Verarbeitung wird beendet, wodurch die Kartendaten, die in Bezug auf die XY-Ebene dargestellt sind, perspektivisch auf die Betrachtungsebene G projiziert werden und ein Bild entsprechend einem Blick aus der Vogelperspektive angezeigt wird.
  • In dem zuvor beschriebenen Ausführungsbeispiel kann eine Taste zum virtuellen Vor- oder Zurückbewegen getrennt vorgesehen sein, wodurch eine Karte aus irgendeiner Höhe betrachtet werden kann.
  • In dem zuvor beschriebenen Ausführungsbeispiel wird die PCMCIA-HDD-Karte als die Speichereinrichtung zum Speichern von Information benutzt. Es können jedoch ein Halbleiterspeicher oder andere Speichereinrichtungen benutzt werden.
  • Ferner können der Cursor und das Menü unter Benutzung eines Winkelsensors zum Erfassen des Drehungswinkels nur um die X-Achse oder der Drehungswinkel um die X-Achse und die Y-Achse bewegt werden.
  • Gemäß der Informationsverarbeitungs-Vorrichtung, wie sie in Anspruch 1 beansprucht ist, und dem Informationsverarbeitungs-Verfahren, wie es in Anspruch 11 beansprucht ist, wird die Verschiebung der Lage des Gehäuses infolge der Drehung des ganzen Gehäuses erfasst, es wird Auswahlinformation entsprechend der erfassten Verschiebung in Übereinstimmung mit der Bedienung durch das Befehlsgabemittel angezeigt, und wenn die gewünschte Information aus der Aus- Wahlinformation, die durch Betätigung des Anzeigemittels angezeigt wird, ausgewählt ist, wird die Verarbeitung durchgeführt, die mit der ausgewählten Auswahlinformation verbunden ist. Daher kann Information durch eine Drehbewegung des ganzen Gehäuses eingegeben werden, so dass die Information mit einer Hand eingegeben werden kann und die Anzahl von Tasten verringert werden kann. Demgemäß kann die Bedienbarkeit des tragbaren Geräts vorteilhaft gesteigert werden, und the Gerät kanm miniaturisiert werden.

Claims (10)

  1. Informationsverarbeitungs-Vorrichtung, die umfasst: ein Anzeigemittel (3), das in einem Gehäuse einer derartigen Größe, dass es tragbar ist, vorgesehen ist und dazu bestimmt ist, Information anzuzeigen, ein Erfassungsmittel (1), das in dem Gehäuse vorgesehen ist und dazu bestimmt ist, eine Veränderung der Lage des Gehäuses infolge einer Drehung des ganzen Gehäuses zu erfassen, ein Befehlsgabemittel (2), das vorgesehen ist und betätigt wird, wenn die Anzeige von Auswahl-Information auf dem Bildschirm der Anzeigemittel (3) befohlen wird und wenn gewünschte Information aus der angezeigten Auswahl-Information ausgewählt wird, und ein Verarbeitungsmittel (14), das in dem Gehäuse vorgesehen ist und dazu bestimmt ist, auf dem Bildschirm des Anzeigemittels (3) die Auswahl-Information, die der durch das Erfassungsmittel (1) erfassten Lageveränderung entspricht, in Übereinstimmung mit der Betätigung des Befehlsgabemittels (2) anzuzeigen und eine Verarbeitung bezüglich der Auswahl-Information durchzuführen, die aus der auf dem Bildschirm des Anzeigemittels (3) angezeigten Auswahl-Information durch das Befehlsgabemittel (2) ausgewählt ist, dadurch gekennzeichnet , dass das Erfassungsmittel (1) jeden der Drehungswinkel in zwei zueinander senkrechten axialen Richtungen erfasst.
  2. Informationsverarbeitungs-Vorrichtung nach Anspruch 1, wobei die Auswahl-Information ein Menü ist und das Verarbeitungsmittel (14), wenn die Anzeige des Menüs auf dem Bildschirm des Anzeigemittels (3) durch das Befehlsgabemittel (2) befohlen ist, das auf dem Bildschirm des Anzeigemittels (3) angezeigte Menü auf der Grundlage der durch das Erfassungsmittel (1) erfassten Lageveränderung bewegt.
  3. Informationsverarbeitungs-Vorrichtung nach Anspruch 2, wobei das Verarbeitungsmittel (14), wenn die Auswahl eines gewünschten Items, das durch das Befehlsgabemittel (2) aus dem auf dem Bildschirm des Anzeigemittels (3) angezeigten Menü ausgewählt wird, erfolgt ist, eine Verarbeitung bezüglich des ausgewählten Items durchführt.
  4. Informationsverarbeitungs-Vorrichtung nach Anspruch 1, wobei die Auswahl-Information eine Draufsicht ist und das Verarbeitungsmittel (14), wenn die Anzeige der Draufsicht auf dem Bildschirm des Anzeigemittels (3) durch das Befehlsgabemittel (2) befohlen ist, die auf dem Bildschirm des Anzeigemittel (3) angezeigte Draufsicht auf der Grundlage der durch das Erfassungsmittel (1) erfassten Lageveränderung bewegt.
  5. Informationsverarbeitungs-Vorrichtung nach Anspruch 4, wobei das Verarbeitungsmittel (14), wenn die Auswahl eines gewünschten Bereichs aus der auf dem Bildschirm des Anzeigemittels (3) angezeigten Draufsicht durch das Befehlsgabemittel (2) befohlen ist, eine Verarbeitung bezüglich des ausgewählten Bereichs durchführt.
  6. Informationsverarbeitungs-Vorrichtung nach Anspruch 4 oder 5, die ferner ein Positions-Erfassungsmittel (22, 23) zum Erfassen der gegenwärtigen Position in der Draufsicht enthält.
  7. Informationsverarbeitungs-Vorrichtung nach Anspruch 6, wobei das Positions-Erfassungsmittel (22, 23) die gegenwärtige Position unter Benutzung des GPS (Global Positioning System) erfasst.
  8. Informationsverarbeitungs-Vorrichtung nach einem der Ansprüche 1 bis 7, wobei das Gehäuse in einer derartigen Größe konstruiert ist, dass es mit einer Hand tragbar ist.
  9. Informationsverarbeitungs-Vorrichtung nach einem der Ansprüche 1 bis 8, wobei das Erfassungsmittel (1) jeden der Drehungswinkel in drei zueinander senkrechten Richtungen erfasst.
  10. Informationsverarbeitungs-Verfahren zur Benutzung in einer Informationsverarbeitungs-Vorrichtung, die ein Gehäuse einer derartigen Größe, dass es tragbar ist, ein Anzeigemittel (3) zum Anzeigen von Information, ein Erfassungsmittel (1) zum Erfassen einer Veränderung der Lage des Gehäuses infolge einer Drehung des ganzen Gehäuses und ein Befehlsgabemittel (2) zum Durchführen vorbestimmter Befehlsgaben umfasst, wobei diese Mittel in dem Gehäuse vorgesehen sind, welches Verfahren Schritte umfasst zum Anzeigen von Auswahl-Information, die der durch das Erfassungsmittel (1) erfassten Lageveränderung entspricht, auf dem Bildschirm des Anzeigemittels (3) und wenn gewünschte Information aus der auf dem Bildschirm des Anzeigemittels (3) angezeigten Auswahl-Information durch Betätigung des Befehlsgabemittels (2) ausgewählt ist, Durchführen einer Verarbeitung bezüglich der ausgewählten Auswahl-Information, dadurch gekennzeichnet, dass das Erfassungsmittel jeden der Drehungswinkel in zwei zueinander senkrechten axialen Richtungen erfasst.
DE69725525T 1996-08-05 1997-08-04 Informationsverarbeitungsvorrichtung und -verfahren für die Eingabe von Information durch Bedienung der gesamten Vorrichtung von Hand Expired - Lifetime DE69725525T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP20561096A JPH1049290A (ja) 1996-08-05 1996-08-05 情報処理装置および方法
JP20561096 1996-08-05

Publications (2)

Publication Number Publication Date
DE69725525D1 DE69725525D1 (de) 2003-11-20
DE69725525T2 true DE69725525T2 (de) 2004-08-05

Family

ID=16509731

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69725525T Expired - Lifetime DE69725525T2 (de) 1996-08-05 1997-08-04 Informationsverarbeitungsvorrichtung und -verfahren für die Eingabe von Information durch Bedienung der gesamten Vorrichtung von Hand

Country Status (5)

Country Link
US (2) US6567068B2 (de)
EP (1) EP0825514B1 (de)
JP (1) JPH1049290A (de)
KR (1) KR100498518B1 (de)
DE (1) DE69725525T2 (de)

Families Citing this family (221)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7562392B1 (en) 1999-05-19 2009-07-14 Digimarc Corporation Methods of interacting with audio and ambient music
GB9722766D0 (en) * 1997-10-28 1997-12-24 British Telecomm Portable computers
JP3338777B2 (ja) 1998-04-22 2002-10-28 日本電気株式会社 携帯端末、及びその画面表示方法
US6658202B1 (en) * 1998-09-09 2003-12-02 Smartdisk Portable data transfer and mass storage device for removable memory modules
JP2000137556A (ja) * 1998-11-02 2000-05-16 Sony Computer Entertainment Inc 電子機器及び情報表示方法
FR2788151A1 (fr) * 1999-01-06 2000-07-07 Notaras Anhou Katinga Souris 3d
GB2347593B (en) * 1999-01-06 2001-05-23 Motorola Inc Apparatus and method for using motion to input information to a wireless communication device
EP1028366A3 (de) * 1999-02-12 2001-03-21 Vega Vista, Inc. Zugriff der Objektdarstellern durch natürliche Körperbewegung
US7749089B1 (en) 1999-02-26 2010-07-06 Creative Kingdoms, Llc Multi-media interactive play system
US7406214B2 (en) * 1999-05-19 2008-07-29 Digimarc Corporation Methods and devices employing optical sensors and/or steganography
US7565294B2 (en) * 1999-05-19 2009-07-21 Digimarc Corporation Methods and systems employing digital content
US7760905B2 (en) 1999-06-29 2010-07-20 Digimarc Corporation Wireless mobile phone with content processing
US20020032734A1 (en) 2000-07-26 2002-03-14 Rhoads Geoffrey B. Collateral data combined with user characteristics to select web site
US6288704B1 (en) * 1999-06-08 2001-09-11 Vega, Vista, Inc. Motion detection and tracking system to control navigation and display of object viewers
EP1063607A1 (de) * 1999-06-25 2000-12-27 Siemens Aktiengesellschaft Vorrichtung und Verfahren zur Eingabe von Streuerinformationen in Computersysteme
US6559828B1 (en) 1999-08-13 2003-05-06 Clothing Plus Oy User interface for selecting functions in an electronic hardware
JP3847058B2 (ja) * 1999-10-04 2006-11-15 任天堂株式会社 ゲームシステム及びそれに用いられるゲーム情報記憶媒体
FI20001506A (fi) * 1999-10-12 2001-04-13 J P Metsaevainio Design Oy Kädessäpidettävän laitteen toimintamenetelmä
US6567101B1 (en) 1999-10-13 2003-05-20 Gateway, Inc. System and method utilizing motion input for manipulating a display of data
US8391851B2 (en) * 1999-11-03 2013-03-05 Digimarc Corporation Gestural techniques with wireless mobile phone devices
CN1119051C (zh) * 1999-11-03 2003-08-20 摩托罗拉公司 用于在便携式电子设备上选择用户界面选项的装置和方法
DE19958443C2 (de) * 1999-12-03 2002-04-25 Siemens Ag Bedieneinrichtung
JP2001256511A (ja) 2000-01-06 2001-09-21 Canon Inc データ処理システム、プリンタ、画像記録システム及び画像記録方法
US7187412B1 (en) * 2000-01-18 2007-03-06 Hewlett-Packard Development Company, L.P. Pointing device for digital camera display
JP2001209488A (ja) * 2000-01-27 2001-08-03 Mitsubishi Electric Corp 情報入力装置及び情報入力プログラムを記録した記録媒体
KR20010110487A (ko) * 2000-01-31 2001-12-13 다니엘 태그리아페리, 라이조 캐르키, 모링 헬레나 이동 무선전화기의 입력 장치들로 사용되는 가속도계 및선택 키(들)
US6761637B2 (en) 2000-02-22 2004-07-13 Creative Kingdoms, Llc Method of game play using RFID tracking device
US7878905B2 (en) 2000-02-22 2011-02-01 Creative Kingdoms, Llc Multi-layered interactive play experience
US7445550B2 (en) 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
JP4095231B2 (ja) * 2000-03-27 2008-06-04 マイクロストーン株式会社 運動センサ付き携帯電話機
AU2001256576A1 (en) * 2000-05-12 2001-11-20 Zvi Lapidot Apparatus and method for the kinematic control of hand-held devices
US9134760B2 (en) 2000-07-17 2015-09-15 Microsoft Technology Licensing, Llc Changing power mode based on sensors in a device
US8120625B2 (en) * 2000-07-17 2012-02-21 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
US7289102B2 (en) * 2000-07-17 2007-10-30 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
US7302280B2 (en) * 2000-07-17 2007-11-27 Microsoft Corporation Mobile phone operation based upon context sensing
EP1182535A1 (de) * 2000-08-16 2002-02-27 Sony International (Europe) GmbH Datenendgerät mit taktiler Rückkopplung
EP1182536A1 (de) * 2000-08-16 2002-02-27 Sony International (Europe) GmbH Navigation in grossen Datensätzen
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7066781B2 (en) 2000-10-20 2006-06-27 Denise Chapman Weston Children's toy with wireless tag/transponder
US6690358B2 (en) * 2000-11-30 2004-02-10 Alan Edward Kaplan Display control for hand-held devices
KR100387768B1 (ko) * 2000-12-08 2003-06-18 이형철 휴대용 전자기기의 가상화면 제어 장치 및 방법
US7031875B2 (en) * 2001-01-24 2006-04-18 Geo Vector Corporation Pointing systems for addressing objects
DE20221078U1 (de) * 2001-02-28 2004-12-23 Beckmann, Jürgen, Dr. Eingabevorrichtung, insbesondere für ein Mobiltelefon
US6798429B2 (en) * 2001-03-29 2004-09-28 Intel Corporation Intuitive mobile device interface to virtual spaces
DE10117457A1 (de) 2001-04-06 2002-10-17 T Mobile Deutschland Gmbh Verfahren zur Anzeige von standardisierten großformatigen Internet-Seiten mit beispielsweise HTML-Protokoll in Einhandendgeräten mit Mobilfunkanschluss
US20020158908A1 (en) * 2001-04-30 2002-10-31 Kristian Vaajala Web browser user interface for low-resolution displays
GB2378878B (en) * 2001-06-28 2005-10-05 Ubinetics Ltd A handheld display device
US20030006961A1 (en) * 2001-07-09 2003-01-09 Yuly Shipilevsky Method and system for increasing computer operator's productivity
US6847351B2 (en) * 2001-08-13 2005-01-25 Siemens Information And Communication Mobile, Llc Tilt-based pointing for hand-held devices
SE0103151D0 (en) 2001-09-19 2001-09-19 Ericsson Telefon Ab L M Method for navigation and selection at a terminal device
DE10148010A1 (de) * 2001-09-28 2003-04-24 Siemens Ag Verfahren zur Steuerung mindestens einer Funktion auf einem elektrischen Endgerät, insbesondere auf einem mobilen Kommunikationsendgerät oder auf einem Audio-Wiedergabegrät
DE10150141A1 (de) * 2001-10-11 2003-04-24 Siemens Ag Bedienen einer Anordnung durch Aufsuchen von Objekten in einem Bedienraum
US20030076408A1 (en) * 2001-10-18 2003-04-24 Nokia Corporation Method and handheld device for obtaining an image of an object by combining a plurality of images
JP2003140815A (ja) * 2001-11-06 2003-05-16 Nec Corp 携帯端末
US7714880B2 (en) * 2001-11-16 2010-05-11 Honeywell International Inc. Method and apparatus for displaying images on a display
US7159194B2 (en) * 2001-11-30 2007-01-02 Palm, Inc. Orientation dependent functionality of an electronic device
US6940558B2 (en) 2001-12-06 2005-09-06 Koninklijke Philips Electronics N.V. Streaming content associated with a portion of a TV screen to a companion device
US7002553B2 (en) * 2001-12-27 2006-02-21 Mark Shkolnikov Active keyboard system for handheld electronic devices
US7071917B2 (en) * 2002-01-09 2006-07-04 Sony Corporatiom Electronic apparatus and method and program of controlling the same
US7007242B2 (en) * 2002-02-20 2006-02-28 Nokia Corporation Graphical user interface for a mobile device
US20030179186A1 (en) * 2002-03-22 2003-09-25 Wen-Tsung Sun Electronic note pad
US6967566B2 (en) 2002-04-05 2005-11-22 Creative Kingdoms, Llc Live-action interactive adventure game
US20070066396A1 (en) 2002-04-05 2007-03-22 Denise Chapman Weston Retail methods for providing an interactive product to a consumer
US20030231189A1 (en) * 2002-05-31 2003-12-18 Microsoft Corporation Altering a display on a viewing device based upon a user controlled orientation of the viewing device
US7184025B2 (en) * 2002-05-31 2007-02-27 Microsoft Corporation Altering a display on a viewing device based upon a user controlled orientation of the viewing device
US20050035955A1 (en) * 2002-06-06 2005-02-17 Carter Dale J. Method of determining orientation and manner of holding a mobile telephone
US6751552B1 (en) 2002-06-28 2004-06-15 Garmin Ltd. Rugged, waterproof, navigation device with touch panel
JP2004062774A (ja) * 2002-07-31 2004-02-26 Sharp Corp プレゼンテーション用表示装置
US7674184B2 (en) 2002-08-01 2010-03-09 Creative Kingdoms, Llc Interactive water attraction and quest game
JP3980966B2 (ja) * 2002-08-21 2007-09-26 シャープ株式会社 プレゼンテーション用表示装置
DE10243223A1 (de) * 2002-09-17 2004-03-25 Völckers, Oliver Bedienelement für elektronische Geräte zur Betätigung von Sensoren und ein Verfahren zur Auswahl von in einem elektronischen Speicher enthaltenen Funktionen und zur Anzeige der ausgewählten Funktion mittels eines Cursors
US20040125073A1 (en) * 2002-12-30 2004-07-01 Scott Potter Portable electronic apparatus and method employing motion sensor for function control
US8508643B2 (en) * 2003-01-17 2013-08-13 Hewlett-Packard Development Company, L.P. Method and system for processing an image
WO2004066615A1 (en) * 2003-01-22 2004-08-05 Nokia Corporation Image control
KR100987289B1 (ko) * 2003-02-26 2010-10-12 삼성전자주식회사 화면의 회전 배치 상태에 따라 데이터를 정방향으로표시할 수 있는 휴대용 단말기 및 그 방법
US7426329B2 (en) 2003-03-06 2008-09-16 Microsoft Corporation Systems and methods for receiving, storing, and rendering digital video, music, and pictures on a personal media player
WO2004082248A1 (en) * 2003-03-11 2004-09-23 Philips Intellectual Property & Standards Gmbh Configurable control of a mobile device by means of movement patterns
DE10313019B4 (de) * 2003-03-24 2005-02-24 Siemens Ag Einhandbedienung von Endgeräten per Gestikerkennung
US9446319B2 (en) 2003-03-25 2016-09-20 Mq Gaming, Llc Interactive gaming toy
KR20050109468A (ko) * 2003-03-26 2005-11-21 마쯔시다덴기산교 가부시키가이샤 영상 표시 시스템
US20040221243A1 (en) * 2003-04-30 2004-11-04 Twerdahl Timothy D Radial menu interface for handheld computing device
JP4803951B2 (ja) * 2003-05-26 2011-10-26 ソニー株式会社 文字入力装置およびその処理方法、記録媒体、並びにプログラム
EP1679689B1 (de) * 2003-10-28 2014-01-01 Panasonic Corporation Bildanzeigeeinrichtung und bildanzeigeverfahren
JP2007510234A (ja) * 2003-10-31 2007-04-19 イオタ・ワイアレス・エルエルシー 携帯デバイス用同時データ入力
US20080129552A1 (en) * 2003-10-31 2008-06-05 Iota Wireless Llc Concurrent data entry for a portable device
US20050192714A1 (en) * 2004-02-27 2005-09-01 Walton Fong Travel assistant device
KR100621401B1 (ko) 2004-03-31 2006-09-08 삼성전자주식회사 회전상태를 인식하여 저장된 정보를 탐색하는이동통신기기 및 그 방법
KR100652632B1 (ko) 2004-04-30 2006-12-06 엘지전자 주식회사 카메라를 구비한 이동 통신 단말기의 3d 게임 방향 전환장치 및 그 방법
JP2006031515A (ja) * 2004-07-20 2006-02-02 Vodafone Kk 移動体通信端末、アプリケーションプログラム、画像表示制御装置及び画像表示制御方法
US7379063B2 (en) * 2004-07-29 2008-05-27 Raytheon Company Mapping application for rendering pixel imagery
JP2006068027A (ja) 2004-08-31 2006-03-16 Nintendo Co Ltd ゲーム装置およびゲームプログラム
JP4850400B2 (ja) 2004-09-17 2012-01-11 キヤノン株式会社 撮像装置
JP2006113859A (ja) * 2004-10-15 2006-04-27 Nec Corp 携帯情報端末及びその表示制御方法
US7552781B2 (en) 2004-10-20 2009-06-30 Black & Decker Inc. Power tool anti-kickback system with rotational rate sensor
KR100677569B1 (ko) 2004-12-13 2007-02-02 삼성전자주식회사 입체영상장치
KR101002807B1 (ko) * 2005-02-23 2010-12-21 삼성전자주식회사 메뉴 화면을 표시하는 단말기에서 메뉴 네비게이션을 제어하는 장치 및 방법
KR101058032B1 (ko) * 2005-04-01 2011-08-19 삼성전자주식회사 입체영상장치
US7353034B2 (en) 2005-04-04 2008-04-01 X One, Inc. Location sharing and tracking using mobile phones or other wireless devices
KR100731740B1 (ko) * 2005-04-29 2007-06-22 삼성에스디아이 주식회사 화이트 밸런싱된 영상을 표시하기 위한 유기전계발광장치
DE102005020289A1 (de) * 2005-04-30 2006-11-09 Cornelius Kabus Telefon, insbesondere Mobiltelefon
EP1722546B1 (de) * 2005-05-12 2008-12-10 TCL & Alcatel Mobile Phones Ltd Verfahren zur Synchronisierung von mindestens einem Multimediaperipheriegerät eines portablen Kommunikationsgeräts und dazugehöriges Kommunikationsgerät
KR100554484B1 (ko) * 2005-05-12 2006-03-03 삼성전자주식회사 동작 인식이 가능한 휴대용 단말기 및 동작 인식 방법
US7389591B2 (en) * 2005-05-17 2008-06-24 Gesturetek, Inc. Orientation-sensitive signal output
KR100666048B1 (ko) 2005-05-20 2007-01-10 삼성전자주식회사 기준 기울기를 측정하는 휴대용 단말기 및 이를 이용한기준 기울기의 측정 방법
US7773073B2 (en) 2005-07-05 2010-08-10 Sharp Kabushiki Kaisha Operation equipment and operation system
AT502228B1 (de) * 2005-08-11 2007-07-15 Ftw Forschungszentrum Telekomm Tragbare navigationsvorrichtung und verfahren zum funknavigieren
JP4468266B2 (ja) * 2005-08-12 2010-05-26 シャープ株式会社 操作装置
MX2007015345A (es) 2005-08-17 2008-02-15 Tomtom Int Bv Dispositivo de navegacion y metodo para desplegar datos de mapas visualizados en un dispositivo de navegacion.
US8313379B2 (en) 2005-08-22 2012-11-20 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
US7927216B2 (en) 2005-09-15 2011-04-19 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
US7942745B2 (en) 2005-08-22 2011-05-17 Nintendo Co., Ltd. Game operating device
JP4805633B2 (ja) 2005-08-22 2011-11-02 任天堂株式会社 ゲーム用操作装置
US8870655B2 (en) 2005-08-24 2014-10-28 Nintendo Co., Ltd. Wireless game controllers
JP4262726B2 (ja) 2005-08-24 2009-05-13 任天堂株式会社 ゲームコントローラおよびゲームシステム
US8308563B2 (en) 2005-08-30 2012-11-13 Nintendo Co., Ltd. Game system and storage medium having game program stored thereon
US7647175B2 (en) 2005-09-09 2010-01-12 Rembrandt Technologies, Lp Discrete inertial display navigation
US8157651B2 (en) 2005-09-12 2012-04-17 Nintendo Co., Ltd. Information processing program
KR100651368B1 (ko) * 2005-09-15 2006-11-29 삼성전자주식회사 휴대단말기의 움직임에 따른 이미지 제어방법
US8270933B2 (en) * 2005-09-26 2012-09-18 Zoomsafer, Inc. Safety features for portable electronic device
US7505784B2 (en) * 2005-09-26 2009-03-17 Barbera Melvin A Safety features for portable electronic device
WO2007037237A1 (ja) * 2005-09-27 2007-04-05 Pioneer Corporation 情報表示装置および情報表示方法
JP2007114242A (ja) * 2005-10-18 2007-05-10 Sharp Corp 携帯表示装置
EP2821879A1 (de) 2006-01-06 2015-01-07 Drnc Holdings, Inc. Verfahren zur Eingabe von Befehlen und/oder Schriftzeichen für ein tragbares Kommunikationsgerät mit Neigungssensor
US7667686B2 (en) * 2006-02-01 2010-02-23 Memsic, Inc. Air-writing and motion sensing input for portable devices
JP4749882B2 (ja) * 2006-02-10 2011-08-17 富士フイルム株式会社 ウインドウ表示システム
JP4530419B2 (ja) * 2006-03-09 2010-08-25 任天堂株式会社 座標算出装置および座標算出プログラム
JP4151982B2 (ja) 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
JP5037842B2 (ja) * 2006-03-28 2012-10-03 任天堂株式会社 情報処理装置およびプログラム
JP4684147B2 (ja) * 2006-03-28 2011-05-18 任天堂株式会社 傾き算出装置、傾き算出プログラム、ゲーム装置およびゲームプログラム
US20100045705A1 (en) 2006-03-30 2010-02-25 Roel Vertegaal Interaction techniques for flexible displays
US20070291112A1 (en) * 2006-04-13 2007-12-20 Joseph Harris Remote control having magnetic sensors for determining motions of the remote control in three dimensions that correspond to associated signals that can be transmitted from the remote control
KR100773553B1 (ko) * 2006-05-17 2007-11-07 삼성전자주식회사 디스플레이 기능을 갖는 버튼을 구비한 단말기 및 이를위한 디스플레이 방법
GB0617400D0 (en) * 2006-09-06 2006-10-18 Sharan Santosh Computer display magnification for efficient data entry
KR20080023070A (ko) * 2006-09-08 2008-03-12 삼성전자주식회사 디지털 방송 수신용 휴대 단말기 및 그의 수평 영상 유지방법
US7991157B2 (en) * 2006-11-16 2011-08-02 Digimarc Corporation Methods and systems responsive to features sensed from imagery or other data
CN101212570B (zh) * 2006-12-25 2011-06-22 鸿富锦精密工业(深圳)有限公司 可拍照移动通讯终端
KR100818991B1 (ko) * 2007-01-05 2008-04-07 삼성전자주식회사 기울임 기반 리스트 탐색에서 커서 위치 피드백을 제공하는장치 및 방법
JP5127242B2 (ja) 2007-01-19 2013-01-23 任天堂株式会社 加速度データ処理プログラムおよびゲームプログラム
JP2008198040A (ja) * 2007-02-15 2008-08-28 Fujitsu Ltd 携帯端末装置及びその表示制御方法
EP2147320A1 (de) * 2007-04-13 2010-01-27 Keynetik, Inc. Kräftemessvorrichtung und verfahren zur bestimmung des drehungsradius eines sich bewegenden objekts
JP2008305108A (ja) * 2007-06-06 2008-12-18 Sharp Corp 手書き入力装置およびその制御方法、手書き入力制御プログラム、並びに、該プログラムを記録した記録媒体
US7969414B2 (en) * 2007-06-08 2011-06-28 Inventec Corporation Mobile communication apparatus
JP5007619B2 (ja) * 2007-07-19 2012-08-22 株式会社ニコン 電子カメラ
US8418083B1 (en) 2007-11-26 2013-04-09 Sprint Communications Company L.P. Applying a navigational mode to a device
TW200934212A (en) * 2008-01-16 2009-08-01 Asustek Comp Inc Mobile digital device with intuitive browsing and operating method thereof
US8217947B2 (en) * 2008-01-24 2012-07-10 Fuji Xerox Co., Ltd. Text-reading support on handheld devices and devices with small displays
US20110029869A1 (en) * 2008-02-29 2011-02-03 Mclennan Hamish Method and system responsive to intentional movement of a device
JP4852084B2 (ja) * 2008-05-27 2012-01-11 株式会社東芝 無線通信装置
US8295879B2 (en) 2008-05-30 2012-10-23 Motorola Mobility Llc Devices and methods for initiating functions based on movement characteristics relative to a reference
JP5264298B2 (ja) * 2008-06-04 2013-08-14 キヤノン株式会社 画像処理装置および画像処理方法
US9253416B2 (en) * 2008-06-19 2016-02-02 Motorola Solutions, Inc. Modulation of background substitution based on camera attitude and motion
CN101644987A (zh) * 2008-08-08 2010-02-10 深圳富泰宏精密工业有限公司 移动终端及其菜单选择的方法
CN103324386A (zh) * 2008-08-22 2013-09-25 谷歌公司 移动设备上的三维环境中的导航
JP2010055198A (ja) * 2008-08-26 2010-03-11 Toshiba Tec Corp 情報処理システム、読取装置、情報処理装置及びこの情報処理装置のプログラム
JP5608165B2 (ja) * 2008-09-12 2014-10-15 コーニンクレッカ フィリップス エヌ ヴェ 携帯用デバイスのグラフィカルユーザインタフェースにおけるナビゲーション
FI20080591A0 (fi) * 2008-10-24 2008-10-24 Teknillinen Korkeakoulu Eleillä ohjattava käyttöliittymä
US8717283B1 (en) * 2008-11-25 2014-05-06 Sprint Communications Company L.P. Utilizing motion of a device to manipulate a display screen feature
US9002416B2 (en) 2008-12-22 2015-04-07 Google Technology Holdings LLC Wireless communication device responsive to orientation and movement
JP5430157B2 (ja) 2009-01-20 2014-02-26 キヤノン株式会社 制御装置、撮像装置及びその制御方法
US20100188397A1 (en) * 2009-01-28 2010-07-29 Apple Inc. Three dimensional navigation using deterministic movement of an electronic device
US8890898B2 (en) * 2009-01-28 2014-11-18 Apple Inc. Systems and methods for navigating a scene using deterministic movement of an electronic device
WO2010088477A1 (en) * 2009-01-29 2010-08-05 Immersion Corporation Systems and methods for interpreting physical interactions with a graphical user interface
US8587617B2 (en) * 2009-02-04 2013-11-19 Raytheon Company Apparatus and method for map zooming
GB2467577A (en) 2009-02-06 2010-08-11 Sony Corp Handheld electronic device configured to display location of another electronic device when tilted
US8392340B2 (en) * 2009-03-13 2013-03-05 Apple Inc. Method and apparatus for detecting conditions of a peripheral device including motion, and determining/predicting temperature(S) wherein at least one temperature is weighted based on detected conditions
US8249663B2 (en) * 2009-04-21 2012-08-21 Symbol Technologies, Inc. Method and device for file viewing using a mobile device
CN101576954A (zh) * 2009-06-10 2009-11-11 中兴通讯股份有限公司 书写笔画识别装置、移动终端及实现空间书写的方法
US8531571B1 (en) * 2009-08-05 2013-09-10 Bentley Systmes, Incorporated System and method for browsing a large document on a portable electronic device
US20110039572A1 (en) * 2009-08-12 2011-02-17 Pm&L Concepts, Inc. Cellular device control
US8325187B2 (en) * 2009-10-22 2012-12-04 Samsung Electronics Co., Ltd. Method and device for real time 3D navigation in panoramic images and cylindrical spaces
EP2337323A1 (de) * 2009-12-17 2011-06-22 NTT DoCoMo, Inc. Verfahren und Vorrichtung zur Interaktion zwischen einer mobilen Vorrichtung und einem Bildschirm
US8605006B2 (en) * 2009-12-23 2013-12-10 Nokia Corporation Method and apparatus for determining information for display
EP2341412A1 (de) * 2009-12-31 2011-07-06 Sony Computer Entertainment Europe Limited Tragbares elektronisches Gerät und Verfahren zur Steuerung eines tragbaren elektronischen Geräts
US9266178B2 (en) 2010-01-07 2016-02-23 Black & Decker Inc. Power tool having rotary input control
WO2011085194A1 (en) * 2010-01-07 2011-07-14 Black & Decker Inc. Power screwdriver having rotary input control
US8418778B2 (en) 2010-01-07 2013-04-16 Black & Decker Inc. Power screwdriver having rotary input control
US9475180B2 (en) 2010-01-07 2016-10-25 Black & Decker Inc. Power tool having rotary input control
US8814686B2 (en) 2010-02-03 2014-08-26 Nintendo Co., Ltd. Display device, game system, and game method
US8913009B2 (en) 2010-02-03 2014-12-16 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US8339364B2 (en) 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
EP2392389A4 (de) * 2010-02-03 2014-10-15 Nintendo Co Ltd Spielsystem, betriebsverfahren dafür und spielverarbeitungsverfahren
JP2011199562A (ja) * 2010-03-19 2011-10-06 Fujitsu Ltd 画像記録処理装置及び画像記録処理方法
EP2577430A4 (de) * 2010-05-24 2016-03-16 Will John Temple Multidirektionaler button, taste und tastatur
JP5038465B2 (ja) 2010-05-25 2012-10-03 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム
JP5652026B2 (ja) * 2010-07-15 2015-01-14 ソニー株式会社 入力装置
JP6243586B2 (ja) 2010-08-06 2017-12-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
US10150033B2 (en) 2010-08-20 2018-12-11 Nintendo Co., Ltd. Position calculation system, position calculation device, storage medium storing position calculation program, and position calculation method
JP5840386B2 (ja) 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
JP5840385B2 (ja) 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
JP5732792B2 (ja) * 2010-09-17 2015-06-10 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
US9086741B2 (en) * 2010-10-29 2015-07-21 Microsoft Corporation User input device
KR101364826B1 (ko) 2010-11-01 2014-02-20 닌텐도가부시키가이샤 조작 장치 및 조작 시스템
US9285883B2 (en) * 2011-03-01 2016-03-15 Qualcomm Incorporated System and method to display content based on viewing orientation
JP2012189368A (ja) * 2011-03-09 2012-10-04 Mic Ware:Kk 端末装置、地図表示変更方法、およびプログラム
JP5689014B2 (ja) 2011-04-07 2015-03-25 任天堂株式会社 入力システム、情報処理装置、情報処理プログラム、および3次元位置算出方法
EP2523434A1 (de) 2011-05-11 2012-11-14 10n2 Technologies, Inc. Verfahren zur Einschränkung der Verwendung einer mobilen Kommunikationsvorrichtung abhängig der Bewegungsgeschwindigkeit
KR101878141B1 (ko) * 2011-05-30 2018-07-13 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101160681B1 (ko) 2011-10-19 2012-06-28 배경덕 이동 통신 단말기의 활성화 시에 특정 동작이 수행되도록 하기 위한 방법, 이동 통신 단말기 및 컴퓨터 판독 가능 기록 매체
US9442517B2 (en) 2011-11-30 2016-09-13 Blackberry Limited Input gestures using device movement
US8994694B2 (en) 2011-11-30 2015-03-31 Blackberry Limited Optical interference based user input device
JP5845860B2 (ja) * 2011-12-01 2016-01-20 株式会社デンソー 地図表示操作装置
US9026951B2 (en) 2011-12-21 2015-05-05 Apple Inc. Device, method, and graphical user interface for selection of views in a three-dimensional map based on gesture inputs
CN103186255B (zh) * 2011-12-27 2016-08-10 中国电信股份有限公司 基于陀螺仪对光标的移动处理方法与系统、用户终端
US9208698B2 (en) * 2011-12-27 2015-12-08 Apple Inc. Device, method, and graphical user interface for manipulating a three-dimensional map view based on a device orientation
EP2631035B1 (de) 2012-02-24 2019-10-16 Black & Decker Inc. Elektrisches Werkzeug
KR101680059B1 (ko) * 2012-05-02 2016-11-28 삼성전자주식회사 화면을 이동시키기 위한 방법 및 그 전자 장치
US9791896B2 (en) * 2012-07-13 2017-10-17 Symbol Technologies, Llc Device and method for performing a functionality
US9262868B2 (en) * 2012-09-19 2016-02-16 Google Inc. Method for transforming mapping data associated with different view planes into an arbitrary view plane
TWI502471B (zh) * 2012-12-04 2015-10-01 Wistron Corp 游標控制方法與電腦程式產品
JP6104606B2 (ja) * 2013-01-08 2017-03-29 株式会社ミツトヨ 三次元測定装置、入力方法及びプログラム
JP5962521B2 (ja) 2013-01-15 2016-08-03 株式会社デンソー 車両用操作システム及び情報機器
JP6219037B2 (ja) * 2013-02-06 2017-10-25 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
CN104345905A (zh) * 2013-07-26 2015-02-11 天津富纳源创科技有限公司 触控式空中鼠标的控制方法
CN104427122B (zh) * 2013-09-09 2017-08-29 联想(北京)有限公司 便携式电子设备及其对象选择方法
JP6237504B2 (ja) * 2014-07-08 2017-11-29 株式会社デンソー 視線入力装置
US9804667B2 (en) * 2015-02-10 2017-10-31 Nintendo Co., Ltd. Electronic apparatus
CN104699439B (zh) * 2015-03-30 2019-03-12 三星电子(中国)研发中心 用于移动终端的画面显示方法、装置和移动终端
US10589413B2 (en) 2016-06-20 2020-03-17 Black & Decker Inc. Power tool with anti-kickback control system
US11138449B2 (en) * 2018-09-28 2021-10-05 Intel Corporation Obstacle representation display
CN111752425B (zh) * 2019-03-27 2022-02-15 北京外号信息技术有限公司 用于选择在设备的显示媒介上的交互对象的方法
CN111835972B (zh) * 2020-07-21 2023-04-18 维沃移动通信(杭州)有限公司 拍摄方法、装置和电子设备

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4542377A (en) * 1982-12-27 1985-09-17 International Business Machines Corporation Rotatable display work station
JP2508017B2 (ja) * 1986-09-29 1996-06-19 富士ゼロックス株式会社 計算機の対話型パラメ−タ指定装置
US4839838A (en) * 1987-03-30 1989-06-13 Labiche Mitchell Spatial input apparatus
JPH0758559B2 (ja) 1988-09-02 1995-06-21 シャープ株式会社 光ピックアップ装置
US5440326A (en) * 1990-03-21 1995-08-08 Gyration, Inc. Gyroscopic pointer
JP3301079B2 (ja) * 1990-06-18 2002-07-15 ソニー株式会社 情報入力装置、情報入力方法、情報処理装置及び情報処理方法
US5329276A (en) * 1990-12-19 1994-07-12 Kabushiki Kaisha Yaskawa Denki Multidimensional signal input device
US5262777A (en) * 1991-11-16 1993-11-16 Sri International Device for generating multidimensional input signals to a computer
US5453758A (en) * 1992-07-31 1995-09-26 Sony Corporation Input apparatus
WO1994011980A1 (en) * 1992-11-09 1994-05-26 Patoroma Research Yugenkaisha Portable communicator
JPH0764754A (ja) 1993-08-24 1995-03-10 Hitachi Ltd 小型情報処理装置
JPH0784716A (ja) * 1993-09-20 1995-03-31 Tokin Corp データ入力装置
JPH07287689A (ja) * 1994-04-19 1995-10-31 Matsushita Electric Ind Co Ltd 携帯型情報処理装置
JPH07302158A (ja) * 1994-05-02 1995-11-14 Wacom Co Ltd 情報入力器具
JPH0822343A (ja) * 1994-07-07 1996-01-23 Olympus Optical Co Ltd 情報処理装置
US5528265A (en) * 1994-07-18 1996-06-18 Harrison; Simon J. Orientation-operated cursor control device
US6137476A (en) * 1994-08-25 2000-10-24 International Business Machines Corp. Data mouse
JPH08101758A (ja) * 1994-09-30 1996-04-16 Toshiba Corp 仮想空間内のデータ操作装置
JPH08123320A (ja) * 1994-10-25 1996-05-17 Sony Corp 携帯型情報表示装置
JPH08129449A (ja) * 1994-11-01 1996-05-21 Fujitsu Ltd 信号入力装置
KR100373673B1 (ko) 1995-05-08 2003-05-09 산요 덴키 가부시키가이샤 광학기록·재생장치및광픽업

Also Published As

Publication number Publication date
US20020075335A1 (en) 2002-06-20
EP0825514B1 (de) 2003-10-15
US6567068B2 (en) 2003-05-20
KR19980018568A (ko) 1998-06-05
EP0825514A3 (de) 1998-04-22
EP0825514A2 (de) 1998-02-25
US6556185B2 (en) 2003-04-29
DE69725525D1 (de) 2003-11-20
JPH1049290A (ja) 1998-02-20
US20010048423A1 (en) 2001-12-06
KR100498518B1 (ko) 2005-09-30

Similar Documents

Publication Publication Date Title
DE69725525T2 (de) Informationsverarbeitungsvorrichtung und -verfahren für die Eingabe von Information durch Bedienung der gesamten Vorrichtung von Hand
DE112009002612B4 (de) Anzeige-Eingabevorrichtung, Navigationssystem mit einer Anzeige-Eingabevorrichtung sowie Fahrzeuginformationssystem mit einer Anzeige-Eingabevorrichtung
DE60132201T2 (de) Ansichtsnavigation und vergrösserung eines tragbaren geräts mit einer anzeige
JP3234633B2 (ja) 情報処理装置
DE112009002462T5 (de) Anzeigeeingabeeinrichtung
DE19934190C2 (de) Bildanzeigevorrichtung für ein Navigationssystem, Verfahren zur Anzeige eines Bildes und Speichermedium mit Programm zur Durchführung des Verfahrens
DE112009003521T5 (de) Anzeigeeingabevorrichtung
EP1656609B1 (de) System und verfahren zum ändern der relativen grösse eines angezeigten bildes
DE102014204320A1 (de) Informationsabfrage durch Zeigen
DE112012002931T5 (de) Verfahren, Vorrichtung, Computer und Mobilvorrichtung zum Anzeigen und Fahrzeug mit der Vorrichtung
DE102011008248B4 (de) In der Hand gehaltene elektronische Einrichtung mit bewegungsgesteuertem Cursor
DE102007013320A1 (de) Anzeigevorrichtung, Anzeigeverfahren und Programm zur Steuerung der Vorrichtung
DE202015010006U1 (de) In Echtzeit einstellbares Fenstermerkmal zum Abtasten von Strichcodes
DE112010005192T5 (de) Karteninformations-Verarbeitungsvorrichtung
DE112007000074T5 (de) System zum Erfassen einer Gierrate unter Verwendung eines Magnetfeldsensors sowie tragbare elektronische Vorrichtungen unter Verwendung hiervon
DE202005020896U1 (de) GPS-Navigationsvorrichtung
DE112012006892T5 (de) Mobiles Endgerät, Fahrzeugvorrichtung und Fahrzeugsystem
EP3486805A1 (de) Verfahren zum bedienen einer elektronischen einrichtung oder einer applikation und entsprechende vorrichtung
DE10020740B4 (de) Karteninformationsanzeigesystem für bewegbare Körper
DE102013103555A1 (de) Elektronische Kartenanzeigevorrichtung und Verfahren zum Anzeigen von Informationen bezüglich der elektronischen Karte
WO2003107260A2 (de) Eingabegerät für eine datenverarbeitungsanlage
DE102017121342A1 (de) Anzeigesteuerungsvorrichtung, anzeigesteuerungssystem und anzeigesteuerungsverfahren
DE69625957T2 (de) Kartenanzeigegerät
DE102007047273A1 (de) Zeicheneingabevorrichtung und Zeicheneingabeprogramm
DE10022527B4 (de) Anzeigevorrichtung für ein Fahrzeugnavigationssystem

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)