DE112004002015T5 - Ein in der Hand gehaltenes Gerät zum Anzeigen von Informationen - Google Patents

Ein in der Hand gehaltenes Gerät zum Anzeigen von Informationen Download PDF

Info

Publication number
DE112004002015T5
DE112004002015T5 DE112004002015T DE112004002015T DE112004002015T5 DE 112004002015 T5 DE112004002015 T5 DE 112004002015T5 DE 112004002015 T DE112004002015 T DE 112004002015T DE 112004002015 T DE112004002015 T DE 112004002015T DE 112004002015 T5 DE112004002015 T5 DE 112004002015T5
Authority
DE
Germany
Prior art keywords
information
movement
display
orientation
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112004002015T
Other languages
English (en)
Inventor
Stefan Dr. Rapp
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RAPP, STEFAN, DR., 78559 GOSHEIM, DE
Original Assignee
Conante Advanced Interface Solutions GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conante Advanced Interface Solutions GmbH filed Critical Conante Advanced Interface Solutions GmbH
Publication of DE112004002015T5 publication Critical patent/DE112004002015T5/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

In der Hand gehaltenes Gerät (9) zum Anzeigen von Information umfassend
– eine Sensoreinheit (15, 18) zum Erkennen der Position, Orientierung und/oder Bewegung des Geräts (9),
– ein Anzeigemittel (10) zur Informationsanzeige,
wobei die Information in Abhängigkeit von der erkannten Position, Orientierung und/oder Bewegung des Geräts (9) angezeigt wird.

Description

  • Die vorliegende Erfindung betrifft ein in der Hand gehaltenes Gerät zum Anzeigen von Information gemäß Anspruch 1 und ein Verfahren zum Anzeigen von Information gemäß Anspruch 10.
  • Die Fähigkeit, auf Information zuzugreifen wurde in neuerer Zeit für verschiedene Anwendungsszenarien und Hardwarekomponenten behandelt. Eine gemeinsame Eigenschaft beinahe aller bekannten Ansätze ist die Vorstellung, ein festes Anzeigemittel und zu diesem Zweck bestimmte Eingabevorrichtungen zu haben, zum Beispiel eine Maus, einen Stift etc., die der Benutzer betätigt, um das Sichtfeld auf dem Informationsraum oder der Datenmenge zu wechseln. Nach der Auswahl eines neuen Sichtfelds wird der Informationsraum entsprechend auf dem Bildschirm ausgegeben.
  • Das meistverwendete System zum Anzeigen und Navigieren durch Datenmengen ist ein Computerbildschirm oder -monitor kombiniert mit einer Maus als Eingabevorrichtung. Durch Bewegen der Maus in verschiedene Richtungen kann der Benutzer das verfügbare Sichtfeld über die Datenmenge herumschwenken – die zum Beispiel als Landkarte dargestellt ist – bis der Bereich lokalisiert ist, für den sich der Benutzer interessiert. Mit jeder Mausbewegung wird das Sichtfeld innerhalb der Datenmenge gewechselt und die auf dem Anzeigefeld oder Monitor gezeigten Daten entsprechend aktualisiert. Diese Schwenkoperation ist die Basisoperation für das Navigieren in Datenmengen. Oft können zusätzliche Navigationskommandos eingegeben werden, um zum Beispiel in den ausgewählten interessierenden Bereich hineinzuzoomen oder die Visualisierung der angezeigten Daten zu ändern.
  • Die oben genannten klassischen Anzeige- und Eingabevorrichtungen leiden manchmal unter dem Nachteil, dass eine Betätigung oder Manipulation der Eingabevorrichtung nicht intuitiv mit der Navigationsoperation in Verbindung gebracht werden kann, die mit dieser Operation initiiert oder ausgelöst wird. Oft muß ein Benutzer zuerst mehrere spezifische Navigationsprozeduren erlernen, um die Visualisierung der Daten wie gewünscht zu ändern.
  • Es ist deshalb eine Aufgabe der vorliegenden Erfindung, ein Gerät und ein Verfahren zum Anzeigen von Information bereitzustellen, die einen einfachen und intuitiven Zugriff auf Information und Navigation durch Information erlaubt.
  • Die oben genannte Aufgabe wird gelöst durch ein in der Hand gehaltenes Gerät zum Anzeigen von Information gemäß Anspruch 1.
  • Die vorliegende Erfindung offenbart ein in der Hand gehaltenes Gerät zum Anzeigen von Information, das eine Sensoreinheit zum Erkennen der Position, Orientierung und/oder Bewegung des Geräts und eine Anzeigeeinheit zum Anzeigen von Information umfasst, wobei die Information abhängig von der erkannten Position, Orientierung und/oder Bewegung angezeigt wird.
  • Dabei könnte die Anzeigeeinheit alles sein, das geeignet ist, dem Auge des Benutzers jegliche Art von Information, zum Beispiel ein Bild oder Daten und ähnliches, zu zeigen oder sichtbar zu machen, wenn er in das Gerät blickt, etwa eine Projektionseinheit, die ein Bild auf ein Anzeigefeld innerhalb des Geräts projiziert oder ein near-to-eye-Display oder jegliche andere geeignete Vorrichtung. Beispiele für die Anzeigemittel sind:
    • – ein von hinten beleuchtetes transmissives Flüssigkristall-Mikro-Display (t-LCD) oder ein Feld von OLEDs (Organische Licht emittierende Dioden), das durch eine Optik betrachtet wird, oder
    • – ein Retinadisplay, das die Retina des Auges durch einen modulierten (Laser-)Lichtstrahl direkt stimuliert, oder
    • – eine auf MEMS (Mikro-Elektromechanisches System) basierende Laser-Projektionseinheit mit einer Projektionsfläche innerhalb des Geräts, die durch einen modulierten Laser-Scanner beleuchtet und durch eine Optik betrachtet wird, oder
    • – jegliche Technologie, die tauglich ist, in das Gerät zu passen, und ein erkennbares Bild auf der Retina des Benutzers erzeugt.
  • Die oben genannte Aufgabe wird weiterhin gelöst durch ein Verfahren für ein in der Hand gehaltenes Gerät gemäß Anspruch 10.
  • Die vorliegende Erfindung offenbart ein Verfahren zum Anzeigen von Information, die die Schritte umfasst, die Position, Orientierung und/oder Bewegung des Geräts zu erkennen und eine Information anzuzeigen, wobei die Information abhängig von der erkannten Position, Orientierung und/oder Bewegung des Geräts angezeigt wird.
  • Indem die aktuelle Position, Orientierung und/oder Bewegung des Geräts erkannt und zugleich das angezeigte Bild an die Position, Orientierung und/oder Bewegung des Geräts angepasst wird, stimmt die Schwenkbewegung, die ausgelöst wird durch die natürliche Handbewegung, mit der das Gerät in die interessierende Richtung gedreht wird, überein mit der natürlichen Geste, den Kopf zu drehen, um das Sichtfeld zu wechseln. Auf diese Weise kann das der vorliegenden Erfindung gemäße Gerät intuitiv dazu genutzt werden, durch ein großes Bild oder eine große Datenmenge zu schwenken und den interessierenden Bereich oder die interessierenden Bereiche sichtbar zu machen.
  • Es ist von Vorteil, wenn das Anzeigemittel die Information auf einem Display innerhalb des Geräts anzeigt.
  • Weiterhin ist es von Vorteil, wenn das Display durch ein Okular des Geräts betrachtet werden kann.
  • Alternativ kann das Anzeigemittel die Information auf dem Auge oder den Augen des Benutzers oder nahe dem Auge oder den Augen des Benutzers anzeigen.
  • In einer bevorzugten Ausführungsform ist die angezeigte Information eine Website.
  • Die angezeigte Information kann ein Bild einer sich entfernt befindenden Kamera sein.
  • Es ist von Vorteil, wenn das Gerät Informationssignale von einem Server empfängt und zu diesem überträgt zur Bereitstellung von Programmen und Daten innerhalb eines Netzwerks.
  • Vorzugsweise ist die Sensoreinheit ein Kameramodul.
  • Ebenfalls vorzugsweise ist die Sensoreinheit eine Einheit zur Bewegungserkennung, die einen Beschleunigungsmesser und ein Gyroskop und/oder einen Magnetfeldsensor umfasst.
  • In der folgenden Beschreibung wird eine bevorzugte Ausführungsform der vorliegenden Erfindung genauer erläutert anhand der beiliegenden Zeichnungen, in denen:
  • 1 eine schematische Ansicht eines tragbaren der vorliegenden Erfindung gemäßen Geräts darstellt,
  • 2 ein Blockdigramm ist, das die Elemente einer bevorzugten Ausführungsform eines der vorliegenden Erfindung gemäßen Geräts darstellt,
  • 3 die Verwendung des Geräts mit einem integrierten Anzeigemittel darstellt,
  • 4 ein Blockdiagramm ist, das ein erstes Verfahren, das Gerät zu verwenden, darstellt,
  • 5 ein Blockdiagramm ist, das ein zweites Verfahren, das Gerät zu verwenden, darstellt und
  • 6 ein Blockdiagramm ist, das ein drittes Verfahren, das Gerät zu verwenden, darstellt.
  • 1 zeigt eine schematische Ansicht einer Ausführungsform des in der Hand gehaltenen, der vorliegenden Erfindung gemäßen Geräts 9. Das Gerät 9 besteht aus einem Hauptteil beziehungsweise Gehäuse 1, wobei das Gehäuse 1 dazu geeignet ist, von einem Benutzer gehalten zu werden. Das Gehäuse 1 hat hierbei eine längliche, zum Beispiel zylindrische oder konische Form, und einen runden, ovalen, rechteckigen oder sonstigen beliebigen Querschnitt. Ein außenliegendes Display 4 kann sich auf der Außenhülle des Gehäuses 1 befinden, um Symbole, Bilder, Menüs, Namen, Telefonnummern oder ähnliches anzuzeigen, aber das Display kann auch weggelassen werden. Weiterhin umfasst das Gerät 9 ein Eingabemittel, zum Beispiel Knöpfe, ein Tastenfeld oder ähnliches zum Eingeben von Daten oder Information.
  • Das der vorliegenden Erfindung gemäße Gerät 9 umfasst weiterhin ein Okular 5 auf einer der beiden Seiten des Geräts 9. Das Okular 5 kann hierbei ein herkömmliches Okular sein, wie es in einem Teleskop oder einer Kamera verwendet wird, und erlaubt dem Benutzer, in das Gerät 9 zu blicken, um Information wie etwa Bilder oder ähnliches zu betrachten, die innerhalb des Geräts 9 angezeigt werden, oder jegliches andere Okular, das einen Benutzer befähigt, Bilder zu betrachten.
  • Eine wesentliche Eigenschaft des der vorliegenden Erfindung gemäßen Geräts 9 ist, dass das Gerät fähig ist, eine Veränderung in der Orientierung und/oder Position zu entdecken oder zu erkennen, um diese Veränderungen in eine Änderung der angezeigten Information, das ist das vom Benutzer gesehene Bild, umzusetzen, und/oder einen Benutzer befähigt, durch Bewegen des Geräts 9 durch die angezeigten Daten zu navigieren. Zwei Möglichkeiten, diese Bewegungserkennung zu realisieren, werden unten mit Bezug auf das Blockdiagramm von 2 erläutert werden.
  • Das Gerät 9 umfasst hierbei ein Anzeigemittel 10, das Information, wie ein Bild oder Daten, anzeigt. Hierbei kann ein Display 20 in das Gerät 9 integriert sein und dabei durch das Okular 5 gesehen werden. Alternativ kann das Anzeigemittel 20 ein Bild oder Daten direkt in oder auf dem Auge oder den Augen eines Benutzers oder nahe dem Auge oder den Augen eines Benutzers anzeigen.
  • In einer ersten Ausführungsalternative der vorliegenden Erfindung enthält das Gerät 1 eine Bewegungserkennungseinheit 15, die einen Beschleunigungsmesser 17 und ein Gyroskop 16 und/oder einen Magnetfeldsensor 19 umfasst. Der Beschleunigungsmesser 17 und das Gyroskop 16 und/oder der Magnetfeldsensor 19 sind zusammengenommen fähig, jede Bewegung zu erfühlen, der das Gerät 1 ausgesetzt ist.
  • Zum Beispiel kann mit Zweiwege-MEMS-Beschleunigungsmessern die Auf-Ab-Richtung und die Rotationsrichtung gemessen werden. Wenn auch Boden und Decke berücksichtigt werden oder Rotation des Geräts 9 um 90°, ist eine dritte Akzelerationsachse orthogonal zu den anderen beiden empfehlenswert, da die Links-Rechts-Bewegungen durch den Beschleunigungsmesser 17 nicht adäquat gemessen werden. Zu diesem Zweck werden ein Gyroskop 16 zum Messen dynamischer Änderungen oder ein Magnetfeldsensor 16 zum Messen des statischen Erdmagnetfelds verwendet.
  • Eine zweite Ausführungsalternative verwendet, um eine Bewegung des Geräts 9 zu erfühlen, einen bildbasierten Mechanismus zur Extraktion von Bewegungsvektoren. In dieser Lösung umfasst das Gerät 9 ein Kameramodul 18, das eine Kamera enthält, die wiederholt Bilder des Bereichs aufnimmt, auf den das Gerät 9 gerichtet ist. Durch Analyse der Bilder, insbesondere durch Analyse der Unterschiede zwischen zwei aufeinanderfolgenden Bildern, ist das Kameramodul 18 wiederum fähig, eine Änderung in der Position oder Orientierung des Geräts 9 zu erkennen.
  • Die Bewegungserkennungseinheit 15 oder das Kameramodul 18 erfühlen eine Veränderung in der Position und/oder Orien tierung des Geräts 9 und leiten diese Information zu einer Verarbeitungseinheit 11 weiter, wobei die Verarbeitungseinheit 11 zusammen mit dem Kameramodul 18 oder der Bewegungserkennungseinheit 15 eine Einheit bildet, die den Benutzer befähigt, durch Bewegen des Geräts 9 durch angezeigte Daten oder Bilder zu navigieren. Die Verarbeitungseinheit 11 wählt dann die entsprechenden Daten, die an das Anzeigemittel 10 weitergeleitet werden, um diese Daten anzuzeigen oder diese Daten zu projizieren. Das Anzeigemittel 10 könnte eine auf MEMS (Mikro-Elektromechanisches System) basierende Laser-Projektionseinheit sein oder ein anderes Anzeigemittel 10, das geeignet ist, die Daten auf einem Display oder im Auge des Benutzers anzuzeigen. Der gesamte Informationsraum, d.h., die größere Datenmenge, aus der die aktuellen angezeigten Daten gewählt werden, könnte entweder lokal in einem im Gerät 9 enthaltenen Speicher 12 gespeichert sein. Alternativ könnten diese Daten auch in einem externen Speicher 13 gespeichert sein, wobei die Verarbeitungseinheit 11 die benötigten Daten über eine drahtlose Kommunikationsverbindung herunterlädt, zum Beispiel via Bluetooth.
  • 3 zeigt den Gebrauch des Geräts 9 mit einem integrierten Display 20, zum Beispiel einer Projektionsfläche. Hierbei kann das Display 20 innerhalb des Geräts 9 durch ein Okular 5 gesehen werden, das sich an einem Ende des Geräts 9 befindet. Das interne Display 20 kann zum Beispiel auf eine Weise realisiert werden, dass der Benutzer, wenn er in das Okular blickt, den Eindruck hat, dass das Bild oder die Daten auf eine Wand eines Raums projiziert werden, in dem sich der Benutzer befindet.
  • 4 stellt ein erstes Beispiel des Geräts 9 in einer einfachen Form dar. Hierbei zeigt die Verarbeitungseinheit 11, indem sie das Anzeigemittel 10 steuert, auf dem Display 20 ein Bild an, das die Kameraeinheit 18 von einem Teil der Umgebung aufnimmt, der direkt in einer Blickrichtung des Geräts 9 liegt. Eine weitere Möglichkeit ist es, auf dem Display 20 virtuelle Welten anzuzeigen, wie etwa Datenräume, oder herkömmliche Quellen, wie etwa Webseiten, elektronische Versionen von Anzeigebrettern und ähnliches.
  • 5 zeigt ein zweites Ausführungsbeispiel des Geräts 9 zur Steuerung einer sich entfernt befindenden Kamera 33. Hierbei ist das Gerät 9 mit einer sich entfernt befindenden Pan-and-Tilt-Kamera 33 über einen bidirektionalen Telekommunikationsmechanismus derart verbunden, dass jeder Bewegung des Geräts 1 durch eine korrespondierende Bewegung der Pan-and-Tilt-Kamera 33 Rechnung getragen wird. Hierbei werden die Bewegungen des Geräts 9, die entweder durch die Bewegungserkennungseinheit 15 oder das Kameramodul 18 erfühlt werden, an die Verarbeitungseinheit 11 übermittelt, die diese Bewegungsinformation des Geräts 9 an einen sich entfernt befindenden Pan-and-Tilt-Mechanismus 31 übermittelt. Der Pan-and-Tilt-Mechanismus 31 ist mit einer sich entfernt befindenden Kamera 33 verbunden, und über die physikalische Verbindung 32 wird die sich entfernt befindende Kamera 33 entsprechend der Information bewegt, die der Pan-and-Tilt-Mechanismus 31 von der Verarbeitungseinheit 11 empfangen hat. Die sich entfernt befindende Kamera 33 selbst ist mit der Verarbeitungseinheit 11 verbunden und übermittelt die Bilder, die von der Umgebung um der sich entfernt befindenden Kamera 33 aufgenommen wurden. Die Verarbeitungseinheit 11 zeigt diese Bilder dann auf dem Anzeigemittel 20 an. Hierbei hat der Benutzer, indem er das Gerät 9 bewegt, den Eindruck, die sich entfernt befindende Kamera 33 zu bewegen und sich in Umgebungen umzuschauen, die von seiner tatsächlichen Position entfernt liegen.
  • 6 zeigt ein drittes Ausführungsbeispiel des Geräts 9. Hierbei übermittelt eine sich entfernt befindende Panoramakamera 36 ständig Weitwinkelaufnahmen oder Videodatenströme 37 über eine Verbindung 37 an einen Bild- oder Videoserver 38. Durch die Bewegungserkennungseinheit 15 oder das Kameramodul 18 des Geräts 1 werden die Orientierung und Bewegung des Geräts durch die Verarbeitungseinheit 11 an den Bild- oder Videoserver 38 übermittelt. Der Bild- oder Videoserver 38 verarbeitet die Bewegungsinformation des Geräts 9 zusammen mit den Bildern oder Videodatenströmen, die von der Panoramakamera 36 empfangen werden, und übermittelt ein partielles Bild oder einen partiellen Videodatenstrom über eine Verbindung 39 zurück an die Verarbeitungseinheit 11 in einer Weise, dass der Benutzer den Eindruck hat, sich in dem panoramischen Raum umzuschauen, der von der Panoramakamera 36 aufgezeichnet wurde. Hierbei wird vorgeschlagen, zwei Videosignalströme zu übermitteln, einen 360°-Datenstrom mit niedriger Auflösung und einen Datenstrom mit hoher Auflösung, der lediglich hauptsächlich den momentanen Blick abdeckt. Der Datenstrom mit niedriger Auflösung wird ständig übermittelt, um eine Wiedergabe der Umgebungen durch das Gerät 9 auch im Falle rapider Bewegungen zu ermöglichen, um dem Benutzer eine Orientierungsmöglichkeit zu geben. Wenn der Benutzer zum Beispiel über eine festgelegte Zeitdauer, z.B. 0,5 Sekunden, auf eine bestimmte Stelle blickt, wird vom Bild- oder Videoserver 38 für diesen Teil ein Datenstrom mit hoher Auflösung generiert und an die Verarbeitungseinheit 11 übertragen. Dadurch haben Verzögerungen des Übertragungsnetzwerks nicht eine solch starke negative Auswirkung auf die Verwendbarkeit des Geräts.
  • In den in 5 und 6 dargestellten Beispielen kann die Informationsübermittlung vom Kameramodul 18 zur Verarbeitungseinheit 11 durch Videostreaming erfolgen, wobei die Information in der Verarbeitungseinheit 11 verarbeitet und analysiert wird, oder die Information kann schon im Kameramodul 18 verarbeitet und analysiert werden, wobei das Analyseergebnis an die Verarbeitungseinheit weitergeleitet wird.
  • Es ist auch möglich, das Gerät 9 mit der Funktionalität eines Mobiltelefons für drahtlose Kommunikationssysteme wie etwa GSM, UMTS oder ähnlichem zu kombinieren. Zu diesem Zweck werden eine Antenne, Transceiver, Mikrofon, Lautsprecher und andere Komponenten, die für die Funktionalität eines Mobiltelefons nötig sind, in das Gerät 9 integriert. Wählen einer Telefonnummer wird bewerkstelligt entweder durch Eingabe der Telefonnummer mithilfe des Eingabemittels oder durch Scrollen durch eine Liste bereits eingespeicherter Nummern.
  • Eine weitere Möglichkeit, einen Anruf zu tätigen, besteht darin, die Funktionalitäten, Telefonnummern und ähnliches auf dem Anzeigemittel anzuzeigen und dadurch den Benutzer zu befähigen, eine graphische Anordnung von Bildern zu durchsuchen. Durch Zoomen in ein Bild oder eine dazugehörige Telefonnummer oder ein Symbol wird eine Verbindung zu dieser Nummer aufgebaut.
  • Das Gerät 9 kann auch dazu verwendet werden, eine Verbindung zu einem Internetserver herzustellen und damit Informationsinhalte des Internets zu betrachten. Zum Eingeben der Internet-Adressen kann wieder das Eingabemittel verwendet werden.
  • Die vorliegende Erfindung bietet so eine vollständig neue Lösung zum Navigieren durch Datenmengen und Anzeigen wenigstens eines Teils dieser Daten. Die Navigationskommandos korrespondieren zur Bewegung der Hand des Benutzers, was eine sehr bequeme und intuitive Navigation innerhalb der Daten erlaubt.
  • Zusammenfassung
  • Die vorliegende Erfindung bezieht sich auf ein in der Hand gehaltenes Gerät (9) zum Anzeigen von Information, zum Beispiel Bildern oder Daten, umfassend eine Sensoreinheit (15, 18) zum Erkennen der Position, Orientierung und/oder Bewegung des Geräts (9), und ein Anzeigemittel (10) zur Informationsanzeige, wobei die Information in Abhängigkeit von der erkannten Position, Orientierung und/oder Bewegung des Geräts (9) angezeigt wird. Die vorliegende Erfindung bezieht sich ferner auf ein Verfahren zum Ausführen der Schritte auf dem Gerät.

Claims (18)

  1. In der Hand gehaltenes Gerät (9) zum Anzeigen von Information umfassend – eine Sensoreinheit (15, 18) zum Erkennen der Position, Orientierung und/oder Bewegung des Geräts (9), – ein Anzeigemittel (10) zur Informationsanzeige, wobei die Information in Abhängigkeit von der erkannten Position, Orientierung und/oder Bewegung des Geräts (9) angezeigt wird.
  2. Gerät gemäß Anspruch 1, gekennzeichnet dadurch, dass das Anzeigemittel (10) die Information auf einem Anzeigefeld (20) innerhalb des Geräts anzeigt.
  3. Gerät gemäß Anspruch 2, gekennzeichnet dadurch, dass das Anzeigefeld (20) durch ein Okular (5) des Geräts (9) gesehen werden kann.
  4. Gerät gemäß Anspruch 1, gekennzeichnet dadurch, dass das Anzeigemittel die Information auf oder nahe einem Auge eines Benutzers anzeigt.
  5. Gerät gemäß einem der Ansprüche 1 bis 4, gekennzeichnet dadurch, dass die angezeigte Information eine Website ist.
  6. Gerät gemäß einem der Ansprüche 1 bis 4, gekennzeichnet dadurch, dass die angezeigte Information ein Bild einer sich entfernt befindenden Kamera (33, 36) ist.
  7. Gerät gemäß einem der Ansprüche 1 bis 6, gekennzeichnet dadurch, dass zwei oder mehr Informationssignale von einem Server empfangen werden und abhängig von der Position, Orientierung und/oder Bewegung des Geräts (9) das Gerät (9) auswählt, welche der Informationssignale oder welche Teile der Informationssignale angezeigt werden.
  8. Gerät gemäß einem der Ansprüche 1 bis 6, gekennzeichnet dadurch, dass das Gerät (9) Informationssignale an einen Server (38) überträgt und von einem Server (38) empfängt zur Bereitstellung von Programmen und Daten innerhalb eines Netzwerks.
  9. Gerät gemäß einem der Ansprüche 1 bis 8, gekennzeichnet dadurch, dass die Sensoreinheit ein Kameramodul (18) ist.
  10. Gerät gemäß einem der Ansprüche 1 bis 8, gekennzeichnet dadurch, dass die Sensoreinheit eine Bewegungserkennungseinheit (15) ist, die einen Beschleunigungsmesser (17) und ein Gyroskop (16) oder einen Magnetfeldsensor (19) enthält.
  11. Verfahren zum Anzeigen von Information, wobei das Verfahren die folgenden Schritte umfasst: – Erkennen der Position, Orientierung und/oder Bewegung des Geräts (9) und – Anzeigen von Information auf einem Anzeigemittel, wobei die Information in Abhängigkeit von der erkannten Position, Orientierung und/oder Bewegung des Geräts (9) angezeigt wird.
  12. Verfahren gemäß Anspruch 11, gekennzeichnet dadurch, dass die Information auf einem Anzeigefeld (20) angezeigt wird.
  13. Verfahren gemäß Anspruch 12, gekennzeichnet dadurch, dass ein Okular (5) bereitgestellt wird, durch welches das Anzeigefeld (20) gesehen werden kann.
  14. Verfahren gemäß Anspruch 11, gekennzeichnet dadurch, dass die Information auf oder nahe einem Auge eines Benutzers angezeigt wird.
  15. Verfahren gemäß einem der Ansprüche 11 bis 14, gekennzeichnet dadurch, dass zwei oder mehr Informationssignale von einem Server empfangen werden und abhängig von der Position, Orientierung und/oder Bewegung des Geräts (9) das Gerät (9) auswählt, welche der Informationssignale oder welche Teile der Informationssignale angezeigt werden.
  16. Verfahren gemäß einem der Ansprüche 11 bis 15, gekennzeichnet dadurch, dass Informationssignale an einen Server übermittelt (38) und von einem Server (38) empfangen werden, der Programme und Daten in einem Netzwerk bereitstellt.
  17. Verfahren gemäß einem der Ansprüche 11 bis 16, gekennzeichnet dadurch, dass als Sensoreinheit ein Kameramodul (18) bereitgestellt wird.
  18. Verfahren gemäß einem der Ansprüche 11 bis 17, gekennzeichnet dadurch, dass als Sensoreinheit eine Bewegungserkennungseinheit (15) bereitgestellt wird, die einen Beschleunigungsmesser (17) und ein Gyroskop (16) oder einen Magnetfeldsensor (19) enthält.
DE112004002015T 2003-10-22 2004-10-22 Ein in der Hand gehaltenes Gerät zum Anzeigen von Informationen Ceased DE112004002015T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP03023975.0 2003-10-22
EP03023975 2003-10-22
PCT/EP2004/011987 WO2005041018A1 (en) 2003-10-22 2004-10-22 A handheld device for displaying information

Publications (1)

Publication Number Publication Date
DE112004002015T5 true DE112004002015T5 (de) 2006-10-05

Family

ID=34486092

Family Applications (2)

Application Number Title Priority Date Filing Date
DE602004009333T Active DE602004009333T2 (de) 2003-10-22 2004-10-22 Tragbare Vorrichtung zur Dateneingabe
DE112004002015T Ceased DE112004002015T5 (de) 2003-10-22 2004-10-22 Ein in der Hand gehaltenes Gerät zum Anzeigen von Informationen

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE602004009333T Active DE602004009333T2 (de) 2003-10-22 2004-10-22 Tragbare Vorrichtung zur Dateneingabe

Country Status (3)

Country Link
DE (2) DE602004009333T2 (de)
GB (1) GB2423137B (de)
WO (1) WO2005041018A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010052880B4 (de) * 2010-10-04 2017-03-30 Mobotix Ag Lageabhängige Kameraumschaltung
US8644884B2 (en) 2011-08-04 2014-02-04 Qualcomm Incorporated Sensor-based user interface control
US8854415B2 (en) 2012-04-03 2014-10-07 Cisco Technology, Inc. Motion responsive video capture during a video conference

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0764754A (ja) * 1993-08-24 1995-03-10 Hitachi Ltd 小型情報処理装置
TW320717B (de) * 1995-11-13 1997-11-21 Motorola Inc
JP3120779B2 (ja) * 1998-04-24 2000-12-25 日本電気株式会社 ディスプレイ表示のスクロール方式
US6943774B2 (en) * 2001-04-02 2005-09-13 Matsushita Electric Industrial Co., Ltd. Portable communication terminal, information display device, control input device and control input method

Also Published As

Publication number Publication date
DE602004009333D1 (de) 2007-11-15
DE602004009333T2 (de) 2008-07-10
WO2005041018A1 (en) 2005-05-06
GB2423137B (en) 2008-03-19
GB2423137A (en) 2006-08-16
GB0610143D0 (en) 2006-06-28

Similar Documents

Publication Publication Date Title
DE602004011676T2 (de) Tragbares Kommunikationsgerät mit einer dreidimensionalen Anzeigevorrichtung
DE602004007205T2 (de) Mobiles Gerät mit optischer on-screen Navigation
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
DE60132201T2 (de) Ansichtsnavigation und vergrösserung eines tragbaren geräts mit einer anzeige
DE69725525T2 (de) Informationsverarbeitungsvorrichtung und -verfahren für die Eingabe von Information durch Bedienung der gesamten Vorrichtung von Hand
DE102009032637B4 (de) Bildvergrößerungssystem für eine Computerschnittstelle
DE102009037835B4 (de) Verfahren zur Darstellung von virtueller Information in einer realen Umgebung
EP2331361B1 (de) Verfahren und vorrichtung zum anzeigen von informationen, insbesondere in einem fahrzeug
DE112013003257T5 (de) Verbesserte Informationsübertragung durch ein transparentes Display
DE102009013922A1 (de) Verfahren zur Bedienung eines Spacemenüs und ein elektronisches Gerät mit einem funktionalen Spacemenü
DE102014204320A1 (de) Informationsabfrage durch Zeigen
DE102011008248B4 (de) In der Hand gehaltene elektronische Einrichtung mit bewegungsgesteuertem Cursor
CN101568020A (zh) 摄像机系统、控制装置和控制方法
DE102008046278A1 (de) In der Hand gehaltene elektronische Einrichtung mit bewegungsgesteuerter Anzeige
DE10226644A1 (de) Eingabegerät für eine Datenverarbeitungsanlage
DE202017104855U1 (de) Animieren eines Bildes zum Anzeigen, dass das Bild verschiebbar ist
DE10317542A1 (de) Mobiltelefon und Vorrichtung zur Datenverarbeitung
DE102012217146A1 (de) Mobile Empfangseinheit, Verfahren zur Bedienung der mobilen Empfangseinheit sowie Computerprogramm
DE102006055252B4 (de) Anordnung und Verfahren zur multimodalen Auswahl von Objekten in Telekommunikationsanwendungen
DE112004002015T5 (de) Ein in der Hand gehaltenes Gerät zum Anzeigen von Informationen
DE102009058142A1 (de) Verfahren, Vorrichtung und Computerprogrammprodukt zum Ausgeben von Bedieninformationen über Objekte eines Fahrzeugs
EP1063607A1 (de) Vorrichtung und Verfahren zur Eingabe von Streuerinformationen in Computersysteme
DE112004002016T5 (de) In der Hand gehaltenes Gerät zur Navigation durch Daten und zur Datenanzeige
EP1159670B1 (de) Eingabe-/ausgabevorrichtung für ein benutzerendgerät
DE102008034180B4 (de) Wegleitsystem und Verfahren zur Wegfindung und Verortung von Fußgängern

Legal Events

Date Code Title Description
8127 New person/name/address of the applicant

Owner name: RAPP, STEFAN, DR., 78559 GOSHEIM, DE

R012 Request for examination validly filed
R005 Application deemed withdrawn due to failure to request examination
R409 Internal rectification of the legal status completed
R409 Internal rectification of the legal status completed
R409 Internal rectification of the legal status completed
R012 Request for examination validly filed

Effective date: 20111019

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final
R003 Refusal decision now final

Effective date: 20141028