DE20221921U1 - Tragbare elektronische Vorrichtung mit mausähnlichen Fähigkeiten - Google Patents

Tragbare elektronische Vorrichtung mit mausähnlichen Fähigkeiten Download PDF

Info

Publication number
DE20221921U1
DE20221921U1 DE20221921U DE20221921U DE20221921U1 DE 20221921 U1 DE20221921 U1 DE 20221921U1 DE 20221921 U DE20221921 U DE 20221921U DE 20221921 U DE20221921 U DE 20221921U DE 20221921 U1 DE20221921 U1 DE 20221921U1
Authority
DE
Germany
Prior art keywords
portable electronic
electronic device
motion
movement
motion sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE20221921U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Avago Technologies International Sales Pte Ltd
Original Assignee
Avago Technologies ECBU IP Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Avago Technologies ECBU IP Singapore Pte Ltd filed Critical Avago Technologies ECBU IP Singapore Pte Ltd
Publication of DE20221921U1 publication Critical patent/DE20221921U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/247Telephone sets including user guidance or feature selection means facilitating their use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/02Digital computers in general; Data processing equipment in general manually operated with input through keyboard and computation using a built-in program, e.g. pocket calculators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/316User authentication by observing the pattern of computer usage, e.g. typical user behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2111Location-sensitive, e.g. geographical location, GPS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/26Devices for calling a subscriber
    • H04M1/27Devices whereby a plurality of signals may be stored simultaneously
    • H04M1/274Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc
    • H04M1/2745Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips
    • H04M1/27467Methods of retrieving data
    • H04M1/2747Scrolling on a display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Position Input By Displaying (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

Tragbare elektronische Vorrichtung (10A) enthaltend:
eine Menüanzeige (14) mit einer Vielzahl von Menüpunkten (18A–18C) und einen Menüpunktzeiger (16), welcher durch einen Benutzer bewegbar ist zum Hervorheben bestimmter Menüpunkte;
einen Bewegungssensor (20) zum Abfühlen einer relativen Bewegung zwischen der tragbaren elektronischen Vorrichtung und einer Abbildungsoberfläche (106), wobei der Bewegungssensor (20) konfiguriert ist zum Erzeugen eines ersten Satzes von Bewegungsdaten, welche einen Betrag und eine Richtung einer ersten relativen Bewegung zwischen der tragbaren elektronischen Vorrichtung und der Abbildungsoberfläche anzeigen, und konfiguriert ist zum Erzeugen eines zweiten Satzes von Bewegungsdaten, welche einen Betrag und eine Richtung einer zweiten relativen Bewegung zwischen der tragbaren elektronischen Vorrichtung und der Abbildungsoberfläche anzeigen; und
eine Steuervorrichtung (204), welche konfiguriert ist zum Bewegen des Menüpunktzeigers basierend auf dem ersten Satz von Bewegungsdaten zum Hervorheben eines ersten Menüpunktes (18A), wobei die Steuervorrichtung konfiguriert ist zum Selektieren des ersten Menüpunktes basierend auf dem zweiten Satz von...

Description

  • Diese Anmeldung nimmt Bezug auf den Gegenstand, welcher beschrieben ist in den folgenden US-Patenten: US-Patent Nr. 5,578,813 , eingereicht am 2. März 1995, erteilt am 26. November 1996 und betitelt mit "Free-hand image scanning device which compensates for non-linear movement"; US-Patent Nr. 5,644,139 , eingereicht am 14. August 1996, erteilt am 1. Juli 1997, und betitelt mit "Navigation technique for detecting movement of navigation sensors relative to an object"; und US-Patent Nr. 5,786,804 , eingereicht am 6. Oktober 1995, erteilt am 28. Juli 1998, und betitelt „Method and system for tracking attitude". Diese drei Patente beschreiben Techniken von Positionsbewegungsverfolgung. Diese Techniken sind eine Komponente in einer bevorzugten Ausführungsform, die unten beschrieben ist. Entsprechend sind die US-Patente Nr. 5,578,813 , 5,644,139 und 5,786,804 hierin durch Bezugnahme eingeschlossen.
  • Diese Anmeldung nimmt ebenso Bezug auf den Gegenstand, der beschrieben ist in dem US-Patent Nr. 6,057,540 , eingereicht am 30. April 1998, erteilt am 2. Mai 2000 und betitelt mit "Mouseless optical and Position translation type screen pointer control for a computer system"; US-Patent Nr. 6,151,015 , eingereicht am 27. April 1998, erteilt am 21. November 2000 und betitelt „Pen-Iike computer pointing device"; und US-Patentanmeldung Nr. 09/052,046, eingereicht am 30. März 1998 und betitelt „Seeing eye mouse for a computer system". Diese beiden Bezug genommenen Patente und die Patentanmeldung beschreiben Bildschirmzeigevorrichtungen basierend auf den Techniken, die beschrieben sind in den US-Patenten Nr. 5,578,813 , 5,644,139 und 5,786,804 . Folglich sind die US-Patente mit den Nrn. 6,057,540 und 6,151,015 und die US-Patentanmeldung Nr. 09/052,046, eingereicht am 30. März 1998 und betitelt „Seeing eye mouse for a computer system", hierin durch Bezugnahme eingeschlossen.
  • Gebiet der Erfindung
  • Diese Erfindung betrifft allgemein tragbare elektronische Vorrichtungen. Diese Erfindung betrifft insbesondere eine tragbare elektronische Vorrichtung mit mausähnlichen Fähigkeiten zum Steuern eines Zeigers auf einem Anzeigebildschirm der elektronischen Vorrichtung.
  • Hintergrund der Erfindung
  • Die Verwendung von Hand bedienten Zeigevorrichtungen zur Verwendung mit einem Computer und seiner Anzeige ist fast universal geworden. Bei weitem die populärste der verschiedenen Vorrichtungen ist die konventionelle (mechanische) Maus, verwendet in Verbindung mit einem zusammenwirkenden Mousepad. Zentral innerhalb der Bodenoberfläche der Maus angeordnet ist ein Loch, durch welches sich ein Teil der Unterseite einer Stahlkugel mit Gummioberfläche erstreckt. Das Mousepad ist typischerweise ein geschlossenporiges Schaumgummipad, welches mit einem geeigneten Gewebe bedeckt ist. Niedrigreibungspads auf der Bodenoberfläche der Maus gleiten leicht über das Gewebe, aber der Gummiball rutscht nicht. Vielmehr rollt der Gummiball über das Gewebe, wenn die Maus bewegt wird. Innerhalb der Maus sind Rollen oder Räder, welche die Kugel an ihrem Äquator kontaktieren und ihre Rotation in elektrische Signale konvertieren, welche orthogonale Komponenten der Mausbewegung repräsentieren. Diese elektrischen Signale werden gekoppelt an einen Computer, wo Software auf die Signale reagiert zum Ändern der angezeigten Position eines Zeigers (Cursor) um ein ΔX und ein ΔY in Übereinstimmung mit der Bewegung der Maus. Der Benutzer bewegt die Maus, wie es notwendig ist, um den angezeigten Zeiger zu einer gewünschten Stelle oder Position zu bringen. Wenn einmal der Zeiger auf dem Bildschirm auf ein Objekt oder eine Stelle von Interesse zeigt, wird eine Taste auf der Maus mit den Fingern der Hand aktiviert, welche die Maus hält. Die Aktivierung dient als eine Instruktion, irgendeine Aktion durchzuführen, deren Natur durch Software in dem Computer definiert ist.
  • Zusätzlich zu mechanischen Typen von Zeigevorrichtungen wie einer konventionellen Maus wurden auch optische Zeigevorrichtungen entwickelt, wie zum Beispiel die, die beschrieben sind in den hierin eingeschlossenen Patenten und Patentanmeldungen. In einer Form einer optischen Zeigevorrichtung wird, statt des Bewegens eines mechanischen Elementes wie einer Kugel in einer konventionellen Maus, eine Relativbewegung zwischen einer Abbildungsoberfläche, wie beispielsweise einem Finger oder einer Arbeitsfläche, und Fotodetektoren innerhalb der optischen Zeigevorrichtung optisch abgefühlt und in Bewegungsinformation konvertiert. Für tragbare elektronische Vorrichtungen, wie beispielsweise Zellulartelefone, persönliche digitale Assistenten (PDAs), Digitalkameras, tragbare Spielvorrichtungen, Pager, tragbare Musikabspieler (zum Beispiel MP3-Player) und andere Vorrichtungen, kann es unerwünscht sein, eine externe Zeigevorrichtung wie beispielsweise eine mechanische Maus oder eine optische Maus, die mit der Vorrichtung verbunden ist, zu verwenden. Es ist oft unbequem, die zusätzliche Ausrüstung herumzutragen. Mit einer mechanischen Zeigevorrichtung wie einer Maus kann es schwierig sein, eine geeignete Oberfläche zu finden, zum darauf Betreiben der Maus.
  • Einige tragbare elektronische Vorrichtungen enthalten eingebaute Bildschirm-Zeigevorrichtungen. Zum Beispiel enthalten einige Zellulartelefone Pfeiltasten, die es erlauben, einen Hervorhebebalken auf einem Anzeigebildschirm herumzubewegen zum Hervorheben von Menüpunkten, wie beispielsweise Namen oder Telefonnummern. Wenn einmal ein Menüpunkt hervorgehoben wurde, wird der Menüpunkt typischerweise ausgewählt durch Drücken einer anderen Taste auf dem Zellulartelefon. Die Verwendung von mehreren Pfeiltasten zum Hervorheben und Selektiveren von Menüpunkten ist ineffizient und zeitaufwändig, insbesondere für Benutzer, die es eher gewohnt sind, mit anderen Typen von Bildschirm-Zeigevorrichtungen zu arbeiten, wie beispielsweise einer Maus oder einem Trackball, oder einer optischen Zeigevorrichtung.
  • Es wäre wünschenswert, im Wesentlichen eine tragbare elektronische Vorrichtung in eine Maus umzuwandeln. Durch Bereitstellen mausähnlicher Fähigkeiten für eine tragbare elektronische Vorrichtung könnte die Vorrichtung in einer Weise ähnlich zu einer konventionellen Maus betrieben werden, jedoch ohne die Unbequemlichkeit des Herumtragens von zusätzlicher Ausrüstung. Es wäre auch wünschenswert, Sicherheitsmerkmale in die elektronische Vorrichtung einzubauen, so dass bestimmte Bewegungsmuster der elektronischen Vorrichtung detektiert und verwendet werden könnten zum Identifizieren oder Verifizieren eines bestimmten Benutzers.
  • Zusammenfassung der Erfindung
  • Eine Form der vorliegenden Erfindung liefert ein Verfahren zum Steuern einer Menüpunktauswahl in einer tragbaren elektronischen Vorrichtung. Die tragbare elektronische Vorrichtung umfasst eine Menüanzeige mit einer Vielzahl von Menüpunkten und einen Menüpunktzeiger, welcher durch einen Benutzer bewegbar ist, zum Hervorheben bestimmter Menüpunkte. Eine relative Bewegung zwischen der tragbaren elektronischen Vorrichtung und einer Abbildungsoberfläche wird abgefühlt. Ein erster Satz von Bewegungsdaten wird erzeugt, anzeigend eine erste relative Bewegung zwischen der tragbaren elektronischen Vorrichtung und der Abbildungsoberfläche. Der Menüpunktzeiger wird bewegt basierend auf dem ersten Satz von Bewegungsdaten, zum Hervorheben eines ersten Menüpunktes. Ein zweiter Satz von Bewegungsdaten wird erzeugt, anzeigend eine zweite relative Bewegung zwischen der tragbaren elektronischen Vorrichtung und der Abbildungsoberfläche. Der erste Menüpunkt wird selektiert basierend auf dem zweiten Satz von Bewegungsdaten.
  • Eine andere Form der vorliegenden Erfindung liefert eine tragbare elektronische Vorrichtung, enthaltend eine Menüanzeige mit einer Vielzahl von Menüpunkten, und einen Menüpunktzeiger, welcher bewegbar ist durch einen Benutzer zum Hervorheben bestimmter Menüpunkte. Die tragbare elektronische Vorrichtung umfasst einen Bewegungssensor, zum Abfühlen einer relativen Bewegung zwischen der tragbaren elektronischen Vorrichtung und einer Abbildungsoberfläche. Der Bewegungssensor ist konfiguriert zum Erzeugen eines ersten Satzes von Bewegungsdaten, anzeigend eine erste relative Bewegung zwischen der tragbaren elektronischen Vorrichtung und der Abbildungsoberfläche. Der Bewegungssensor ist konfiguriert zum Erzeugen eines zweiten Satzes von Bewegungsdaten, anzeigend eine zweite relative Bewegung zwischen der tragbaren elektronischen Vorrichtung und der Abbildungsoberfläche. Eine Steuervorrichtung ist konfiguriert zum Bewegen des Menüpunktzeigers basierend auf dem ersten Satz von Bewegungsdaten, zum Hervorheben eines ersten Menüpunktes. Die Steuervorrichtung ist konfiguriert zum Auswählen des ersten Menüpunktes, basierend auf dem zweiten Satz von Bewegungsdaten.
  • Eine andere Form der vorliegenden Erfindung liefert ein Verfahren zum Identifizieren des Benutzers einer tragbaren elektronischen Vorrichtung. Bewegungsmusterdaten, repräsentierend ein erstes Muster von relativer Bewegung zwischen der tragbaren elektronischen Vorrichtung und einer Abbildungsoberfläche wird gespeichert. Eine relative Bewegung zwischen der tragbaren elektronischen Vorrichtung und einer Abbildungsoberfläche wird abgefühlt. Ein erster Satz von Bewegungsdaten wird erzeugt basierend auf der abgefühlten relativen Bewegung. Der erste Satz von Bewegungsdaten repräsentiert ein zweites Muster von relativer Bewegung zwischen der tragbaren elektronischen Vorrichtung und einer Abbildungsoberfläche. Der erste Satz von Bewegungsdaten wird verglichen mit den gespeicherten Bewegungsmusterdaten. Der Benutzer der tragbaren elektronischen Vorrichtung wird identifiziert basierend auf dem Vergleich des ersten Satzes von Bewegungsdaten und den gespeicherten Bewegungsmusterdaten.
  • Eine andere Form der vorliegenden Erfindung liefert eine tragbare elektronische Vorrichtung mit einer Fähigkeit zum Identifizieren eines gegenwärtigen Benutzers der Vorrichtung. Die Vorrichtung umfasst einen Speicher zum Speichern von Bewegungsmusterdaten, repräsentierend ein erstes Bewegungsmuster von relativer Bewegung zwischen der tragbaren elektronischen Vorrichtung und einer Abbildungsoberfläche. Ein Bewegungssensor erzeugt einen ersten Satz von Bewegungsdaten, repräsentierend ein zweites Muster von relativer Bewegung zwischen der tragbaren elektronischen Vorrichtung und einer Abbildungsoberfläche. Eine Steuervorrichtung vergleicht den ersten Satz von Bewegungsdaten mit den gespeicherten Bewegungsmusterdaten. Die Steuervorrichtung ist konfiguriert zum Identifizieren des Benutzers der tragbaren elektronischen Vorrichtung basierend auf dem Vergleich des ersten Satzes von Bewegungsdaten mit den gespeicherten Bewegungsmusterdaten.
  • Eine andere Form der vorliegenden Erfindung liefert eine tragbare elektronische Vorrichtung enthaltend einen Speicher zum Speichern von Bewegungsmusterdaten, repräsentierend ein erstes Muster von relativer Bewegung zwischen der tragbaren elektronischen Vorrichtung und einer Abbildungsoberfläche. Ein Bewegungsdetektor erzeugt einen ersten Satz von Bewegungsdaten, repräsentierend ein zweites Muster von relativer Bewegung zwischen der tragbaren elektronischen Vorrichtung und einer Abbildungsoberfläche. Eine Steuervorrichtung vergleicht den ersten Satz von Bewegungsdaten mit den gespeicherten Bewegungsmusterdaten. Die Steuervorrichtung ist konfiguriert zum Ermöglichen eines Betriebes der tragbaren elektronischen Vorrichtung, wenn der erste Satz von Bewegungsdaten mit den gespeicherten Bewegungsmusterdaten übereinstimmt.
  • Kurze Beschreibung der Erfindung
  • 1A ist eine perspektivische Ansicht einer Ausführungsform eines Zellulartelefons mit einer optischen, Bewegungsübersetzungstyp-Bildschirm-Zeigervorrichtung, welche auf einer Frontseite des Telefons positioniert ist.
  • 1B ist eine perspektivische Ansicht einer alternativen Ausführungsform eines Zellulartelefons, enthaltend eine optische Bewegungsübersetzungstyp-Bildschirm-Zeigervorrichtung, welche auf einer Rückseite des Telefons positioniert ist.
  • 2 ist eine piktographische Seitenansicht von Hauptkomponenten einer Ausführungsform einer optischen Bewegungsübersetzungstyp-Bildschirm-Zeigervorrichtung gemäß der vorliegenden Erfindung.
  • 3 ist ein elektrisches Blockdiagramm von Hauptkomponenten der Zellulartelefone, die in 1 und 2 dargestellt sind.
  • Beschreibung bevorzugter Ausführungsformen
  • In der folgenden detaillierten Beschreibung bevorzugter Ausführungsformen wird Bezug genommen auf die begleitenden Zeichnungen, welche einen Teil hiervon bilden, und in welchen im Wege der Veranschaulichung spezifische Ausführungsformen dargestellt sind, in welchen die Erfindung praktiziert werden kann. Es sollte sich verstehen, dass andere Ausführungsformen verwendet werden können und strukturelle oder logische Veränderungen durchgeführt werden können, ohne von dem Umfang der vorliegenden Erfindung abzuweichen. Die folgende detaillierte Beschreibung soll daher nicht in einem limitierenden Sinne verwendet werden und der Umfang der vorliegenden Erfindung ist definiert durch die anhängenden Ansprüche.
  • 1A ist eine perspektivische Ansicht, welche eine Frontoberfläche einer tragbaren elektronischen Vorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulicht. In der Ausführungsform, die in 1A dargestellt ist, ist die tragbare elektronische Vorrichtung 10A ein Zellulartelefon. In einer alternativen Ausführungsform kann die Vorrichtung 10A jeder Typ von tragbarer elektronischer Vorrichtung sein, welcher einen Anzeigebildschirm aufweist, einschließlich eines persönlichen digitalen Assistenten (PDA), einer Digitalkamera, einer tragbaren Spielvorrichtung, eines Pagers, eines tragbaren Musikspielers, oder einer anderen Vorrichtung. Wenn hierin auf eine bestimmte tragbare elektronische Vorrichtung Bezug genommen wird, wird die Bezugszahl 10 mit einem angehängten Buchstaben verwendet. Wenn allgemein auf tragbare elektronische Vorrichtungen gemäß Ausführungsformen der vorliegenden Erfindung Bezug genommen wird, wird die Bezugszahl 10 ohne angehängten Buchstaben verwendet.
  • Das Zellulartelefon 10A enthält eine Ein-/Aus-Taste 12, einen Anzeigebildschirm 14, einen Hervorhebebalken 16, Menüpunkte 18A18C (gemeinsam als Menü 18 bezeichnet), eine Bewegungsdetektionsvorrichtung 20 und eine Vielzahl von Drucktasten 24. Die Drucktasten 24 werden auch als Tastatur 24 bezeichnet. Ein Benutzer schaltet das Zellulartelefon 10A unter Verwendung des Ein-/Aus-Schalters 12 ein/aus. Ein Menü 18, enthaltend eine Vielzahl von Menüpunkten 18A18C, wird einem Benutzer auf dem Anzeigebildschirm 14 angezeigt. In einer Ausführungsform sind die Menüpunkte 18A18C Namen oder Telefonnummern. Für die Menüpunkte 18A18C, welche Namen sind, speichert das Zellulartelefon 10A eine zugehörige Telefonnummer für jeden solchen Namen.
  • Ein Benutzer hebt einen bestimmten der Menüpunkte 18A18C hervor durch Bewegen des Hervorhebebalkens 16. In einer Ausführungsform wird der Hervorhebebalken 16 bewegt durch Reiben eines Fingers 22 gegen die Bewegungsdetektionsvorrichtung 20. Wenn der Finger 22 nach oben bewegt wird gegen die Bewegungsdetektionsvorrichtung 20, bewegt sich der Hervorhebebalken 16 durch die Menüpunkte 18A18C nach oben. Wenn der Finger 22 nach unten bewegt wird gegen die Bewegungsdetektionsvorrichtung 20, bewegt sich der Hervorhebebalken 16 durch die Menüpunkte 18A18C nach unten. Nachdem ein gewünschter der Menüpunkte 18A18C mit dem Hervorhebebalken 16 hervorgehoben wurde, wird der hervorgehobene Menüpunkt dann ausgewählt. In einer Ausführungsform wird der hervorgehobene Menüpunkt ausgewählt durch Bewegen des Fingers 22 gegen die Bewegungsdetektionsvorrichtung 20 entweder in einer Richtung nach links oder nach rechts. Nachdem ein hervorgehobener Menüpunkt durch einen Benutzer ausgewählt wurde, wählt das Zellulartelefon 10A automatisch die ausgewählte Telefonnummer, oder die Telefonnummer, welche zu dem gewählten Namen gehört.
  • In einer Ausführungsform wird eine alternative Technik verwendet zum Selektieren des hervorgehobenen Menüpunkts, wie beispielsweise Drücken einer Taste auf der Tastatur 24 oder Tippen auf die Bewegungsdetektionsvorrichtung 20. Jedoch kann, wenn ein Benutzer den Finger 22 von der Bewegungsdetektionsvorrichtung 20 entfernt, um eine der Drucktasten 24 zu drücken oder auf die Bewegungsdetektionsvorrichtung 20 zu tippen, der Benutzer zufällig eine zusätzliche Bewegung über die Bewegungsdetektionsvorrichtung 20 erzeugen und dadurch bewirken, dass ein anderer Menüpunkt ausgewählt wird. Durch Auswählen der Menüpunkte 18A18C mit einer Bewegung nach rechts oder nach links über die Bewegungsdetektionsvorrichtung 20, muss der Benutzer den Finger 22 des Benutzers nicht von der Bewegungsdetektionsvorrichtung 20 entfernen zum Selektieren eines gewünschten Menüpunktes, was es dem Benutzer erlaubt, die gewünschten Menüpunkte schneller und genauer zu selektieren (aufzurufen).
  • Die vorliegende Erfindung ist nicht limitiert auf die Verwendung einer Aufwärts- und Abwärtsbewegung zum Hervorheben von Menüpunkten und der Verwendung einer Bewegung nach links und nach rechts zum Selektieren von Menüpunkten. Vielmehr können die hierin beschriebenen Techniken auf jeden Typ von Menüsystem angepasst werden. Zum Beispiel verursacht in einer Ausführungsform, nach dem Hervorheben eines Menüpunktes, eine Linksbewegung eine Aktion, die durchgeführt werden soll, wie zum Beispiel das Wählen der Telefonnummer, und eine Rechtsbewegung verursacht, dass eine andere Aktion ergriffen wird, wie beispielsweise es dem Benutzer zu erlauben, die Telefonnummer oder den Namen zu editieren. Geschwindigkeit, Beschleunigung und Wiederholung von Bewegung des Fingers 22 gegen die Bewegungsdetektionsvorrichtung 20 wird in einer Form der vorliegenden Erfindung ebenfalls berücksichtigt, um die Anzahl von Aktionen, die aufgerufen werden können, zu erweitern. Ferner würde für ein System, welches ein Scrollen nach links und nach rechts liefert, eine Bewegung nach links und nach rechts über die Detektionsvorrichtung 20 bewirken, dass Menüpunkte hervorgehoben werden, und eine Aufwärts- oder Abwärtsbewegung über die Bewegungsvorrichtung 20 würde bewirken, dass ausgewählte Menüpunkte selektiert werden. Es sollte sich auch verstehen, dass andere Typen von Bildschirmzeigern verwendet werden können anstelle eines Hervorhebebalkens 16, wie beispielsweise ein Pfeil oder anderer bewegbarer Indikator.
  • 1B ist eine perspektivische Ansicht, welche eine Rückseite einer alternativen Ausführungsform der tragbaren elektronischen Vorrichtung, die in
  • 1A dargestellt ist, veranschaulicht. Das Zellulartelefon 10B, welches in 1B dargestellt ist, ist im Wesentlichen dasselbe wie das Zellulartelefon 10A, welches in 1A dargestellt ist, mit der Ausnahme, dass die Bewegungsdetektionsvorrichtung 20 auf einer Rückoberfläche des Zellulartelefons 10B positioniert ist, wohingegen die Bewegungsdetektionsvorrichtung 20 auf einer Frontoberfläche des Zellulartelefons 10A positioniert ist. Durch Positionieren der Bewegungsdetektionsvorrichtung 20 auf einer Rückoberfläche des Zellulartelefons 10B, kann das Zellulartelefon 10B in einer ähnlichen Weise wie eine konventionelle Maus verwendet werden. Das Zellulartelefon 10B kann gegen eine Arbeitsoberfläche oder eine Abbildungsoberfläche, wie beispielsweise eine Arbeitsfläche, ein Hosenbein, eine Wand, oder jede andere, relativ flache Oberfläche, gerieben werden, zum Hervorheben und Selektieren bestimmter Menüpunkte 18A18C. Die Bewegungsdetektionsvorrichtung 20 kann auch betrieben werden, wie mit Bezug auf 1A beschrieben, wie beispielsweise durch Gleiten der Hand oder des Fingers eines Benutzers über die Bewegungsdetektionsvorrichtung 20.
  • Es wird verstanden werden, dass mehrere Bewegungsdetektionsvorrichtungen 20 in einer tragbaren elektronischen Vorrichtung 10 verwendet werden können. In einer Ausführungsform wird eine Bewegungsdetektionsvorrichtung 20 auf beiden, einer Front- und einer Rückoberfläche einer tragbaren elektronischen Vorrichtung 10 positioniert, um einem Benutzer die Option zu erlauben, einen Finger zum Steuern der Menüpunktselektion zu verwenden oder die Vorrichtung 10 selbst zum Steuern der Menüpunktselektion zu verwenden. Es wird auch verstanden werden, dass es die relative Bewegung zwischen der Bewegungsdetektionsvorrichtung 20 und einer Arbeitsoberfläche oder einer Abbildungsoberfläche ist, welche die Bewegung des Hervorhebebalkens 16 erzeugt und dass solch eine Bewegung erzeugt werden kann entweder durch Bewegen einer Oberfläche relativ zu der Bewegungsdetektionsvorrichtung 20 oder durch Bewegung der Bewegungsdetektionsvorrichtung 20 relativ zu einer Oberfläche.
  • In einer Ausführungsform bewegt sich, wenn die Bewegungsdetektionsvorrichtung 20 des Zellulartelefons 10B aufwärts bewegt wird gegen eine Arbeitsoberfläche, der Hervorhebebalken aufwärts durch die Menüpunkte 18A18C. Wenn die Bewegungsdetektionsvorrichtung abwärts gegen eine Arbeitsoberfläche bewegt wird, bewegt sich der Hervorhebebalken 16 abwärts durch die Menüpunkte 18A18C. Nachdem ein gewünschter der Menüpunkte 18A18C hervorgehoben wurde mit dem Hervorhebebalken 16, wird der hervorgehobene Menüpunkt dann selektiert. In einer Ausführungsform wird der hervorgehobene Menüpunkt selektiert durch Bewegen der Bewegungsdetektionsvorrichtung 20 gegen eine Arbeitsoberfläche in einer Richtung entweder nach links oder nach rechts. Nachdem ein hervorgehobener Menüpunkt durch einen Benutzer selektiert wurde, wählt das Zellulartelefon 10A automatisch die selektierte Telefonnummer, oder die Telefonnummer, welche zu dem selektierten Namen verbunden gehört.
  • In einer Form der vorliegenden Erfindung enthält die tragbare elektronische Vorrichtung 10 ein Sicherheitsmerkmal, welches von einem Benutzer verlangt, ein „gestisches Passwort" vor der Benutzung der Vorrichtung 10 einzugeben. Ein gestisches Passwort ist ähnlich zu textuellen Passwörtern, welche typischerweise in Computersystemen und anderen elektronischen Vorrichtungen verwendet werden. Jedoch ist ein gestisches Passwort anstelle dem Eingeben eines alphanumerischen Textes zum Identifizieren eines bestimmten Benutzers ein Bewegungsmuster (zum Beispiel, Kreis, die Zahl 8, eine Spirale, ein Quadrat, etc.), welches unter Verwendung der Bewegungsdetektionsvorrichtung 20 eingegeben wird. Eine geeignete Aufforderung kann auf der Anzeige 14 bereitgestellt werden, zum Anzeigen, dass der Benutzer ein gestisches Passwort eingeben soll. In einer Ausführungsform wird ein gestisches Passwort eines Benutzers in der tragbaren elektronischen Vorrichtung 10 gespeichert, und der Betrieb der Vorrichtung 10 wird nur ermöglicht, nachdem der Benutzer die tragbare elektronische Vorrichtung 10 (und entsprechend die Bewegungsdetektionsvorrichtung 20) in einem Muster bewegt, welches mit dem gespeicherten gestischen Passwort zusammenpasst.
  • 2 zeigt eine vereinfachte Darstellung einer Seitenansicht einer Bewegungsdetektionsvorrichtung 20, welche geeignet ist zum Verfolgen der relativen Bewegung einer Arbeitsoberfläche und einer Abbildungsoberfläche, wie beispielsweise eines menschlichen Fingers 22, welcher gegen eine Oberfläche 105 eines transparenten Pfostens 103 gepresst wird. Obwohl die Bewegungsdetektionsvorrichtung 20 beschrieben wird in dem Kontext eines menschlichen Fingers 22 als die Abbildungsoberfläche, wird es verstanden werden, dass die Bewegungsdetektionsvorrichtung auf jeder geeigneten Abbildungsoberfläche verwendet werden kann, wie beispielsweise einer Schreibtischplatte, einer Wand, eines Hosenfußes, oder jeder anderen Oberfläche, die relativ flach ist und bequem verfügbar ist für den Benutzer der tragbaren elektronischen Vorrichtung 10. Eine Bewegungsdetektionsvorrichtung wie die in 2 dargestellte ist im Detail beschrieben in dem US-Patent Nr. 6,057,540 (dem '540 Patent), welches hierin durch Bezugnahme eingeschlossen ist. Der Betrieb der Bewegungsdetektionsvorrichtung 20 wird auch unten zusammengefasst.
  • Eine Lichtquelle 102, welche in einer Ausführungsform eine LED ist, emittiert Licht, welches erfasst und fokussiert wird durch eine Linse 104 zum Beleuchten einer Oberfläche 105. Die Oberfläche 105 kann flach sein, oder vorzugsweise, eine leichte Krümmung aufweisen. Eine Krümmung hilft in dem Vergrößern der Größe des Gebiets der Oberfläche 105, die im Fokus für den Bewegungsdetektor 109 ist, der nachstehend beschrieben wird. Die Oberfläche 105 kann eine Glas- oder andere verschleißresistente Beschichtung sein, die auf das Ende des transparenten Pfostens 103 appliziert ist. In einer Form der vorliegenden Erfindung ist die Oberfläche 105 ungefähr 3/16 bis 1/4 eines Zolls im Durchmesser und die Länge des transparenten Pfostens 103 ist in einem Bereich von ungefähr 3/8 bis 3/4 eines Zolls. Ein anderer Begriff, der beschreibend ist für den transparenten Pfosten 103 ist „Stablinse". Eine undurchsichtige Barriere 110 hält Streulicht von der LED 102 vom Erreichen des Bewegungsdetektors 109 ab.
  • Wenn die Spitze 106 des Fingers 22 gegen die Oberfläche 105 gepresst wird, sind die Riefenrücken der Haut und jede anderen Mikrotexturmerkmale in der Ebene der Oberfläche 105 sichtbar, gerade als wenn diese ein Teil der Oberfläche 105 wären. Die Linse 108 fokussiert Licht von diesen Merkmalen auf ein Array von Fotodetektoren, welches Teil des Bewegungssensors 109 ist. Der Bewegungssensor 109 erfasst und verfolgt automatisch jedes geeignete Bild. Beim Verfolgen eines Bildes erzeugt der Bewegungssensor 109 inkrementelle (X, Y)-Signale.
  • Das Anheben der Fingerspitze 106 weg von der Oberfläche 105, um selbst einige Tausendstel eines Zolls, defokussiert das Bild und erzeugt einen Verlust der Nachverfolgung. Diese Bedingung wird innerhalb des Bewegungsdetektors 109 detektiert, und, in einer Ausführungsform, die Erzeugung des inkrementellen (X, Y)-Signals endet. Dies hat den Effekt, dass der Hervorhebebalken 16 unverändert gelassen wird, an welcher Stelle auch immer, die er momentan besetzt, und ist exakt das gleiche, wie wenn ein Benutzer einer Maus seine Hand von der Maus entfernt. Wenn die Fingerspitze 106 danach auf der Oberfläche 105 wieder aufgesetzt wird, erkennt der Bewegungsdetektor 109, dass ein Bild aufgenommen wurde, und, in einer Ausführungsform, behandelt er diese Erfassung, als ob ein Reset durchgeführt worden ist. Das heißt, bis es eine neue Bewegung nachfolgend der neuen Erfassung gegeben hat, werden die inkrementellen Koordinaten (X, Y) den Wert (0,0) haben. Dies lässt die existierende Position des Hervorhebebalkens 16 ungestört, bis zu einer Zeit, da er absichtlich bewegt wird durch die Bewegung der Fingerspitze 106 und entspricht exakt einer Mausbenutzerplatzierung seiner Hand zurück auf der Maus, ohne sie zu bewegen.
  • Der Bewegungssensor 109 verwendet exakt oder im Wesentlichen dieselbe Technik wie die Abbildungs- und Navigationsanordnung, die in den eingeschlossenen Patenten beschrieben ist. In den besonderen, darin beschriebenen Betriebseinstellungen war es wünschenswert, dass es eine Vergrößerung des Bildes gibt, bevor es den Sensor erreicht, aufgrund der kleinen Größe der Mikromerkmale, die abgebildet und verfolgt werden (zum Beispiel Papierfasern). Hier sind die Merkmale auf der Fingerspitze 106 im Vergleich richtig groß, so dass in einer Ausführungsform eine Vergrößerung nicht verwendet wird. In alternativen Ausführungsformen wird Vergrößerung verwendet. Obwohl eine Form von Abbildung und Navigationsmechanismus in den eingeschlossenen Patenten beschrieben ist, wird unten ein kurzer Überblick über die Technik geliefert.
  • Eine LED 102, welche in einer Ausführungsform eine IR-LED ist, emittiert Licht, welches durch die Linse 104 auf ein Gebiet 105 projiziert wird, welches Teil einer Arbeitsoberfläche 106 ist, die für die Navigation abgebildet werden soll. In einer Form der vorliegenden Erfindung ist der Bewegungssensor 109 ein integrierter Schaltkreis (IC) mit einem Array von Fotodetektoren, Speicher und arithmetischen Schaltungen, angeordnet zum Implementieren von Bildkorrelation und Nachverfolgungsfunktionen, wie sie hierin und in den eingeschlossenen Patenten beschrieben sind. Ein Bild des beleuchteten Gebietes 106 wird durch ein optisches Fenster (welches der transparente Pfosten 3 selbst sein kann) auf ein Package (nicht dargestellt) der integrierten Schaltung 109 und auf das Array von Fotodetektoren projiziert. Die Linse 108 hilft in der Projektion des Bildes auf die Fotodetektoren.
  • Eine bevorzugte optische Navigationstechnik gemäß der vorliegenden Erfindung detektiert optisch eine Bewegung durch direktes Abbilden der verschiedenen bestimmten optischen Merkmale, die an der Oberfläche 105 sichtbar sind, als ein Array von Pixeln, soviel dem menschlichen Sehvermögen zugetraut wird. IR-Licht, reflektiert von einer texturierten Arbeitsoberfläche, welche gegen die Oberfläche 5 gepresst ist, wird auf ein geeignetes Array (z. B. 16×16 oder 24×24) von Fotodetektoren fokussiert. Die Antworten der einzelnen Fotodetektoren werden digitalisiert auf eine geeignete Auflösung (z. B. 6 oder 8 Bits) und gespeichert als ein Frame in entsprechenden Orten innerhalb eines Speicherarrays. In einer Ausführungsform entspricht jedes Pixel in einem Frame einem der Fotodetektoren.
  • Die Gesamtgröße des Arrays von Fotodetektoren ist vorzugsweise groß genug zum Empfangen eines Bildes mit mehreren Merkmalen (zum Beispiel Furchenrücken in den Wirbeln der Haut). Auf diese Weise erzeugen Bildern von solchen räumlichen Merkmalen übersetzte Muster von Pixelinformation, wenn die Fingerspitze 106 sich bewegt. Die Anzahl von Fotodetektoren in dem Array und die Framerate, mit welcher ihr Inhalt digitalisiert und erfasst wird, wirken zusammen zum Beeinflussen, wie schnell die Fingerspitze 106 über die Oberfläche 105 bewegt und noch verfolgt werden kann. Die Nachverfolgung wird bewerkstelligt durch Vergleichen eines neu erfassten Beispielframes mit einem früher erfassten Referenzframe zum Ermitteln der Richtung und des Betrages der Bewegung.
  • In einer Ausführungsform wird der gesamte Inhalt von einem der Frames sukzessive um einen Abstand von 1 Pixel in jede der 8 Richtungen verschoben, die durch eine 1-Pixel Offset-Versuchsverschiebung erlaubt sind (eines hinüber, eines hinüber und eines hinunter, eines hinunter, eines hinauf, eines hinauf und eines hinüber, eines hinüber in die andere Richtung, etc.). Dies addiert sich zu 8 Versuchen. Auch wird, da es keine Bewegung gegeben haben könnte, auch ein 9. Versuch „Null-Verschiebung" verwendet. Nach jeder Versuchsverschiebung werden die Bereiche der Frames, die überlappen, voneinander auf einer Pixel-zu-Pixel-Basis subtrahiert und die resultierenden Differenzen werden vorzugsweise quadriert und dann summiert, zum Bilden eines Maßes der Ähnlichkeit (Korrelation) innerhalb des Gebietes der Überlappung. Größere Versuchsverschiebungen sind natürlich möglich (zum Beispiel zwei hinüber und eines hinunter), aber an einem Punkt ruiniert die begleitende Komplexität den Vorteil und es ist bevorzugt, eine ausreichend hohe Framerate mit kleinen Versuchsverschiebungen zu haben. Die Versuchsverschiebung mit der geringsten Abweichung (der größten Korrelation) kann genommen werden als Hinweis auf die Bewegung zwischen den zwei Frames. Das heißt, sie liefert eine Rohbewegungsinformation, die skaliert und/oder akkumuliert werden kann, zum Liefern der Hervorhebebalken-Bewegungsinformation (ΔX und ΔY) von bequemer Granularität und bei einer geeigneten Rate von Informationsaustausch.
  • Der Sensor 109 detektiert automatisch, wenn die Fingerspitze 106 von der Oberfläche 105 entfernt wurde, durch Fühlen, dass alle oder ein Großteil der Pixel in dem Bild „dunkel geworden sind". Tatsächlich ist der Prozess etwas komplizierter als das, wie unten erläutert wird.
  • Wenn die Fingerspitze 106 von der Oberfläche 105 entfernt wird, erreicht das IR-Licht von der beleuchtenden LED 102 nicht mehr die Fotodetektoren in derselben Menge als es dies vorher tat, wenn überhaupt; die reflektierende Oberfläche ist zu weit weg oder ist einfach nicht sichtbar. Jedoch, wenn die Fingerspitze 106 entfernt und die Oberfläche 105 als Ergebnis einer intensiv beleuchteten Umgebung ausgesetzt wird, dann können die Ausgänge der Fotodetektoren jedes Niveau aufweisen. Der Schlüssel ist, dass die Abgaben der Fotodetektoren gleichförmig, oder fast so, sein werden. Der Hauptgrund, dass die Abgaben gleichmäßig werden, ist, dass es nicht mehr länger ein fokussiertes Bild gibt. All die Bildmerkmale sind verschieden und sie sind verteilt über die gesamte Sammlung von Fotodetektoren. Deshalb kommen die Fotodetektoren gleichförmig auf ein durchschnittliches Niveau. Dies ist in deutlichem Gegensatz zu dem Fall, wenn es ein fokussiertes Bild gibt. In dem fokussierten Fall weisen die Korrelationen zwischen den Frames (man erinnere die eines hinüber, eines hinüber und eines hinunter, etc.) eine bestimmte Erscheinung auf.
  • Im Betrieb sollten die Bilder mit einer Rate erfasst werden, die ausreichend ist, dass aufeinanderfolgende Bilder sich in ihrem Abstand durch nicht mehr als vielleicht 1/4 der Breite des Arrays, oder 4 Pixel für ein 16×16 Array von Fotodetektoren, aufweist. Experimente zeigen, dass eine Fingergeschwindigkeit von 50 mm/Sek. nicht unrealistisch ist. Mit einer 1:1 Abbildung entspricht dies einer Geschwindigkeit des Arrays von 800 Pixel/Sek. Um dem Erfordernis gerecht zu werden, nicht mehr als 4 Pixel pro Zyklus zu bewegen, wird eine Messrate von 200 Proben/Sek. benötigt. Diese Rate ist recht praktikabel und es kann wünschenswert sein, bei einem Mehrfachen dieser Rate zu arbeiten.
  • 3 ist ein elektrisches Blockdiagramm, welches die Hauptkomponenten einer tragbaren elektronischen Vorrichtung 10, wie beispielsweise eines Zellulartelefons 10A oder 10B, veranschaulicht. Die tragbare elektronische Vorrichtung 10 umfasst eine Antenne 196, eine Kommunikationsschaltung 198, einen Bewegungssensor 109, eine Anzeige 14, ein Eingabe-/Ausgabe-(I/O) Interface 200, ein I/O-Interface 202, eine Tastatur 24, einen Prozessor 204 und einen Speicher 206. Der Bewegungssensor 109, der Anzeige 14 und die Tastatur 24 sind jeweils mit dem I/O-Interface 202 gekoppelt. Das I/O-Interface 202 ist auch mit dem Prozessor 204 gekoppelt. Der Prozessor 204 kommuniziert mit dem Bewegungssensor 109, der Anzeige 14 und der Tastatur 24 über das I/O-Interface 202. Der Prozessor 204 ist auch mit dem Speicher 206 gekoppelt. In einer Ausführungsform ist ein Treiber 208 in dem Speicher 206 gespeichert. Der Prozessor 204 verwendet den Treiber 208 zum Steuern des Hervorhebebalkens 16 auf der Anzeige 14 basierend auf Bewegungsdaten, die von dem Bewegungssensor 109 empfangen wurden.
  • Kommunikationen werden durch die Vorrichtung 10 über die Antenne 196 gesendet und empfangen. Die Antenne 196 ist mit der Kommunikationsschaltung 198 gekoppelt. Die Kommunikationsschaltung 198 enthält Standardkommunikationskomponenten, die den Fachleuten bekannt sind, wie zum Beispiel Verstärker, Analog-zu-Digital-Konverter, Digital-zu-Analog-Konverter, Modulatoren und Demodulatoren. Der Prozessor 204 ist mit der Kommunikationsschaltung 198 über das I/O-Interface 200 gekoppelt.
  • In einer Form der vorliegenden Erfindung empfängt der Prozessor 204 inkrementelle (X, Y)-Signale von dem Bewegungssensor 109, welche auf eine relative Bewegung zwischen der Bewegungsdetektionsvorrichtung 20 und einer Arbeitsoberfläche hinweisen. Unter Verwendung des Treibers 208 prozessiert der Prozessor 204 die empfangenen inkrementellen (X, Y)-Signale und unternimmt entsprechende Aktionen. Das Zellulartelefon 10A verwendend, als ein Beispiel, wenn der Finger 22 aufwärts bewegt wird gegen die Bewegungsdetektionsvorrichtung 20, empfängt der Prozessor 204 inkrementelle (X, Y)-Signale von dem Bewegungssensor 109, welche diese Aufwärtsbewegung anzeigen. Als Reaktion bewirkt der Prozessor 204, dass sich der Hervorhebebalken 16 auf der Anzeige 14 aufwärts durch die Menüpunkte 18A18C bewegt. Wenn der Finger 22 abwärts gegen die Detektionsvorrichtung 20 bewegt wird, empfängt der Prozessor 204 inkrementelle (X, Y)-Signale von dem Bewegungssensor 109, welche diese Abwärtsbewegung anzeigen. Als Reaktion bewirkt der Prozessor 204, dass sich der Hervorhebebalken 16 auf der Anzeige 14 abwärts durch die Menüpunkte 18A18C bewegt. Wenn die empfangenen inkrementellen (X, Y)-Signale von dem Bewegungssensor 109 eine Bewegung des Fingers 22 gegen die Bewegungsdetektionsvorrichtung 20 nach links oder nach rechts anzeigen, bewirkt der Prozessor 204, dass die Kommunikationsschaltung 198 die Telefonnummer wählt, welche dem gegenwärtig hervorgehobenen Menüpunkt zugeordnet ist. In einer Ausführungsform unterscheidet der Prozessor 204 zwischen relativ kleinen Bewegungen nach links oder rechts, welche auftreten können, wenn ein Benutzer aufwärts oder abwärts durch die Menüpunkte scrollt und größeren Bewegungen nach links oder nach rechts, welche anzeigen, dass der Benutzer einen hervorgehobenen Menüpunkt zu selektieren wünscht.
  • In einer Form der vorliegenden Erfindung umfasst die tragbare elektronische Vorrichtung 10 ein Sicherheitsmerkmal, welches erfordert, dass ein Benutzer ein „gestisches Passwort" eingibt, vor Verwendung der Vorrichtung 10. Um dieses Sicherheitsmerkmal zu verwenden, gibt ein Benutzer Bewegungsmuster ein, welches das Passwort des Benutzers repräsentiert, unter Verwendung der Bewegungsdetektionsvorrichtung 20 ein. Bewegungsmusterdaten, welche die eingegebene Bewegung repräsentieren, sind in dem Speicher 206 gespeichert. In einer Form der Erfindung wird, nachdem ein gestisches Passwort durch einen Benutzer eingegeben und in dem Speicher 206 gespeichert wurde, der Betrieb der Vorrichtung 10 nur ermöglicht, nachdem der Benutzer die tragbare elektronische Vorrichtung 10 (und entsprechend die Bewegungsdetektionsvorrichtung 20) gegen eine Arbeitsoberfläche in einem Muster bewegt, welches dem gespeicherten gestischen Passwort gleichkommt. Der Prozessor 204 vergleicht eingegebene gestische Passworte mit Bewegungsmusterdaten, welche in dem Speicher 206 gespeichert sind, und bestimmt, ob die Bewegung übereinstimmt. In einer Ausführungsform verwendet der Prozessor 204 konventionelle Musterabgleichtechniken an, zum Identifizieren, ob die Bewegungen übereinstimmen.
  • Von einem Benutzer kann verlangt werden, das gestische Passwort des Benutzers einzugeben, wenn die Vorrichtung 10 zum ersten Mal angeschaltet wird, vor jeder Verwendung der Vorrichtung 10, oder ein anderes Timing kann verwendet werden. Dieses Sicherheitsmerkmal der Vorrichtung 10 verhindert den Betrieb der Vorrichtung 10, wenn sie verloren oder gestohlen wurde. Zusätzlich kann das Sicherheitsmerkmal verwendet werden zum Identifizieren mehrerer Benutzer einer bestimmten tragbaren elektronischen Vorrichtung 10, für Abrechnungszwecke oder aus anderen Gründen. Zum Beispiel können mehrere gestische Passworte, die mehreren Benutzern zugeordnet sind, in der Vorrichtung 10 gespeichert werden. Von jedem Benutzer würde verlangt werden, das gestische Passwort des Benutzers vor dem Betrieb der Vorrichtung 10 einzugeben.
  • In einer Form der vorliegenden Erfindung kann ein Benutzer Freihandzeichnungen in die tragbare elektronische Vorrichtung 10 eingeben durch Bewegen der Vorrichtung 10 (und entsprechend der Bewegungsdetektionsvorrichtung 20) gegen eine Arbeitsoberfläche, oder durch Bewegen eines Fingers 22 gegen die Bewegungsdetektionsvorrichtung 20. Eingegebene Zeichnungen können verwendet werden zum Kommentieren oder Erzeugen von Faxdokumenten, oder können Benutzerunterschriften repräsentieren, die verwendet werden können zum Verifizieren elektronischer Transaktionen.
  • Es wird durch eine Person von durchschnittlicher Fachkenntnis verstanden werden, dass die Funktionen, die durch die tragbare elektronische Vorrichtung 10 ausgeführt werden, implementiert sein können in Hardware, Software, Firmware, oder jeder Kombination davon. Die Implementierung kann über einen Mikroprozessor, eine programmierbare Logikvorrichtung oder eine Zustandsmaschine vorliegen. Komponenten der vorliegenden Erfindung können sich in Software auf einem oder mehreren computerlesbaren Medien befinden. Der Begriff computerlesbares Medium, wie er hierin verwendet wird, ist definiert als umfassend jede Art von Speicher, flüchtig oder nicht flüchtig, wie zum Beispiel Floppydisks, Festplatten, CD-ROMS, Flashspeicher, nur Lesespeicher (ROM) und Direktzugriffsspeicher.
  • Es wird ein Verfahren zum Steuern einer Menüpunktselektion in einer tragbaren elektronischen Vorrichtung (10A) beschrieben, wobei die tragbare elektronische Vorrichtung eine Menüanzeige (14) aufweist, welche eine Vielzahl von Menüpunkten (18A18C) und einem Menüpunktzeiger (16) aufweist, welcher durch einen Benutzer bewegbar ist zum Hervorheben bestimmter Menüpunkte, das Verfahren enthaltend:
    Abfühlen einer relativen Bewegung zwischen der tragbaren elektronischen Vorrichtung und einer Abbildungsoberfläche (106);
    Erzeugen eines ersten Satzes von Bewegungsdaten, anzeigend eine erste relative Bewegung zwischen der tragbaren elektronischen Vorrichtung und der Abbildungsoberfläche;
    Bewegen des Menüpunktzeigers basierend auf dem ersten Satz von Bewegungsdaten zum Hervorheben eines ersten Menüpunktes (18A);
    Erzeugen eines zweiten Satzes von Bewegungsdaten, anzeigend eine zweite relative Bewegung zwischen der tragbaren elektronischen Vorrichtung und der Abbildungsoberfläche; und
    Selektieren des ersten Menüpunktes basierend auf dem zweiten Satz von Bewegungsdaten.
  • In einem exemplarischen Verfahren zeigt der erste Satz von Bewegungsdaten eine Bewegung in einer ersten Richtung an und der zweite Satz von Bewegungsdaten zeigt eine Bewegung in einer zweiten Richtung an, wobei die zweite Richtung im Wesentlichen senkrecht zu der ersten Richtung ist.
  • Einweiteres exemplarisches Verfahren enthält ferner:
    Richten von Licht auf die Abbildungsoberfläche, dadurch Erzeugen von reflektierten Bildern;
    Fokussieren der reflektierten Bilder auf ein Array von Fotodetektoren (109);
    Erzeugen von digitalen Darstellungen der reflektierten Bilder basierend auf Abgaben der Fotodetektoren; und
    Korrelieren von mindestens einer Version von einer ersten der digitalen Darstellungen mit mindestens einer Version von einer zweiten der digitalen Darstellungen.
  • Ein Beispiel einer tragbaren elektronischen Vorrichtung (10A) enthält:
    einen Speicher (206) zum Speichern von Bewegungsmusterdaten, repräsentierend ein erstes Muster von relativer Bewegung zwischen der tragbaren elektronischen Vorrichtung und einer Abbildungsoberfläche (106);
    einen Bewegungssensor (20) zum Erzeugen eines ersten Satzes von Bewegungsdaten repräsentierend ein zweites Muster von relativer Bewegung zwischen der tragbaren elektronischen Vorrichtung und einer Abbildungsoberfläche; und
    eine Steuervorrichtung (204) zum Vergleichen des ersten Satzes von Bewegungsdaten mit dem gespeicherten Bewegungsmusterdaten, wobei die Steuervorrichtung konfiguriert ist zum Identifizieren des Benutzers der tragbaren elektronischen Vorrichtung basierend auf dem Vergleich des ersten Satzes von Bewegungsdaten mit den gespeicherten Bewegungsmusterdaten.
  • In einer weiteren exemplarischen Vorrichtung ist der Bewegungssensor ein optischer Bewegungssensor.
  • In einer anderen Vorrichtung enthält der optische Bewegungssensor ferner:
    eine Lichtquelle (102) zum Beleuchten der Abbildungsoberfläche, dabei erzeugend reflektierte Bilder;
    ein Array von Fotodetektoren;
    eine Linse (108) zum Fokussieren der reflektierten Bilder auf das Array von Fotodetektoren;
    einen Digitalisierer zum Erzeugen digitaler Darstellungen der reflektierten Bilder basierend auf Abgaben der Fotodetektoren; und
    einen Korrelator zum Korrelieren von mindestens einer Version einer ersten der digitalen Darstellungen mit mindestens einer Version einer zweiten der digitalen Darstellungen. Insbesondere mag der Bewegungssensor auf einer Rückseite der tragbaren elektronischen Vorrichtung positioniert ist.
  • Zusammenfassend enthält eine tragbare elektronische Vorrichtung (10A) einen Menüanzeige (14) mit einer Vielzahl von Menüpunkten (18A18C), und einen Menüpunktzeiger (16), welcher durch einen Benutzer bewegbar ist zum Hervorheben bestimmter Menüpunkte. Die tragbare elektronische Vorrichtung enthält einen Bewegungssensor (20) zum Abfühlen einer relativen Bewegung zwischen der tragbaren elektronischen Vorrichtung und einer Abbildungsoberfläche (106). Der Bewegungssensor ist konfiguriert zum Erzeugen eines ersten Satzes von Bewegungsdaten, anzeigend eine erste relative Bewegung zwischen der tragbaren elektronischen Vorrichtung und der Abbildungsoberfläche. Der Bewegungssensor ist konfiguriert zum Erzeugen eines zweiten Satzes von Bewegungsdaten, anzeigend eine zweite relative Bewegung zwischen der tragbaren elektronischen Vorrichtung und der Abbildungsoberfläche. Eine Steuervorrichtung (204) ist konfiguriert zum Bewegen des Menüpunktzeigers basierend auf dem ersten Satz von Bewegungsdaten zum Hervorheben eines ersten Menüpunktes. Die Steuervorrichtung ist konfiguriert zum Selektieren des ersten Menüpunktes basierend auf dem zweiten Satz von Bewegungsdaten.
  • Obwohl spezifische Ausführungsformen illustriert und hierin beschrieben wurden zum Zwecke der Beschreibung der bevorzugten Ausführungsform, wird es durch die Fachleute geschätzt werden, dass eine breite Vielzahl von alternativen und/oder äquivalenten Implementierungen substituiert werden kann für die spezifischen Ausführungsformen, wie sie dargestellt und beschrieben sind, ohne von dem Umfang der vorliegenden Erfindung abzuweichen. Diejenigen mit Wissen in dem chemischen, mechanischen, elektromechanischen, elektrischen und Computerfach, werden leicht anerkennen, dass die vorliegende Erfindung implementiert werden kann in einer sehr breiten Vielfalt von Ausführungsformen. Diese Anmeldung ist beabsichtigt, jede Adaption oder Variation der bevorzugten, hierin diskutierten Ausführungsformen abzudecken. Es ist deshalb offenkundig beabsichtigt, dass diese Erfindung nur durch die Ansprüche und die Äquivalente davon beschränkt ist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 5578813 [0001, 0001, 0002]
    • - US 5644139 [0001, 0001, 0002]
    • - US 5786804 [0001, 0001, 0002]
    • - US 6057540 [0002, 0002, 0028]
    • - US 6151015 [0002, 0002]

Claims (6)

  1. Tragbare elektronische Vorrichtung (10A) enthaltend: eine Menüanzeige (14) mit einer Vielzahl von Menüpunkten (18A18C) und einen Menüpunktzeiger (16), welcher durch einen Benutzer bewegbar ist zum Hervorheben bestimmter Menüpunkte; einen Bewegungssensor (20) zum Abfühlen einer relativen Bewegung zwischen der tragbaren elektronischen Vorrichtung und einer Abbildungsoberfläche (106), wobei der Bewegungssensor (20) konfiguriert ist zum Erzeugen eines ersten Satzes von Bewegungsdaten, welche einen Betrag und eine Richtung einer ersten relativen Bewegung zwischen der tragbaren elektronischen Vorrichtung und der Abbildungsoberfläche anzeigen, und konfiguriert ist zum Erzeugen eines zweiten Satzes von Bewegungsdaten, welche einen Betrag und eine Richtung einer zweiten relativen Bewegung zwischen der tragbaren elektronischen Vorrichtung und der Abbildungsoberfläche anzeigen; und eine Steuervorrichtung (204), welche konfiguriert ist zum Bewegen des Menüpunktzeigers basierend auf dem ersten Satz von Bewegungsdaten zum Hervorheben eines ersten Menüpunktes (18A), wobei die Steuervorrichtung konfiguriert ist zum Selektieren des ersten Menüpunktes basierend auf dem zweiten Satz von Bewegungsdaten.
  2. Vorrichtung nach Anspruch 1, wobei der Bewegungssensor ein optischer Bewegungssensor ist.
  3. Vorrichtung nach Anspruch 1 oder 2, wobei der Bewegungssensor auf einer Rückseite der tragbaren elektronischen Vorrichtung positioniert ist, und die Menüanzeige auf einer Frontseite der tragbaren elektronischen Vorrichtung positioniert ist.
  4. Vorrichtung nach einem der Ansprüche 7 bis 9, wobei die Steuervorrichtung (204) konfiguriert ist, eine erste Aktion basierend auf einer Bewegung entlang der zweiten Richtung in einem ersten Sinn zu bewirken und eine zweite Aktion verschieden zu der ersten Aktion basierend auf einer Bewegung entlang der zweiten Richtung in einem zweitem Sinn, welcher umgekehrt wie der erste Sinn ist.
  5. Vorrichtung nach einem der Ansprüche 1 bis 4, wobei der Bewegungssensor (20) konfiguriert ist ferner eine Geschwindigkeit, eine Beschleunigung und eine Wiederholung einer Bewegung der Abbildungsoberfläche (106) in Relation zu dem Bewegungssensor abzutasten, um der Steuervorrichtung zu ermöglichen, eine spezifische Aktion zu bewirken.
  6. Vorrichtung mach einem der Ansprüche 1 bis 5, wobei die Abbildungsoberfläche (106) eine Fläche ist, auf der die tragbare elektronische Vorrichtung (10A) bewegt wird und/oder sich der Finger eines Benutzers (22) über den Bewegungssensor bewegt.
DE20221921U 2001-03-16 2002-01-31 Tragbare elektronische Vorrichtung mit mausähnlichen Fähigkeiten Expired - Lifetime DE20221921U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/811,001 2001-03-16
US09/811,001 US6977645B2 (en) 2001-03-16 2001-03-16 Portable electronic device with mouse-like capabilities

Publications (1)

Publication Number Publication Date
DE20221921U1 true DE20221921U1 (de) 2009-03-19

Family

ID=25205261

Family Applications (2)

Application Number Title Priority Date Filing Date
DE20221921U Expired - Lifetime DE20221921U1 (de) 2001-03-16 2002-01-31 Tragbare elektronische Vorrichtung mit mausähnlichen Fähigkeiten
DE60231355T Expired - Lifetime DE60231355D1 (de) 2001-03-16 2002-01-31 Tragbare elektronische Vorrichtung mit mausartigen Fähigkeiten

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE60231355T Expired - Lifetime DE60231355D1 (de) 2001-03-16 2002-01-31 Tragbare elektronische Vorrichtung mit mausartigen Fähigkeiten

Country Status (5)

Country Link
US (1) US6977645B2 (de)
EP (2) EP1241616B9 (de)
JP (1) JP2002351608A (de)
KR (2) KR100918157B1 (de)
DE (2) DE20221921U1 (de)

Families Citing this family (108)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7224373B1 (en) 2000-04-07 2007-05-29 Danger, Inc. Adjustable data processing display
JP2002290518A (ja) * 2001-03-23 2002-10-04 Matsushita Electric Ind Co Ltd 携帯通信端末
JP4027616B2 (ja) * 2001-04-20 2007-12-26 三菱電機株式会社 ポインティングデバイス装置および携帯電話機
FI117488B (fi) 2001-05-16 2006-10-31 Myorigo Sarl Informaation selaus näytöllä
US6816154B2 (en) * 2001-05-30 2004-11-09 Palmone, Inc. Optical sensor based user interface for a portable electronic device
US8095879B2 (en) * 2002-12-10 2012-01-10 Neonode Inc. User interface for mobile handheld computer unit
US20090138825A1 (en) * 2002-09-30 2009-05-28 Matias Duarte Image navigation apparatus and method
US7305631B1 (en) * 2002-09-30 2007-12-04 Danger, Inc. Integrated motion sensor for a data processing device
KR20040035459A (ko) * 2002-10-22 2004-04-29 삼성전자주식회사 광센서를 구비한 휴대단말기
FI20022282A0 (fi) * 2002-12-30 2002-12-30 Nokia Corp Menetelmä vuorovaikutuksen mahdollistamiseksi elektronisessa laitteessa ja elektroninen laite
US7298362B2 (en) * 2003-07-31 2007-11-20 Kye Systems Corp. Pointing device with finger-contact control
US8217896B2 (en) * 2003-07-31 2012-07-10 Kye Systems Corporation Computer input device for automatically scrolling
US7587072B2 (en) * 2003-08-22 2009-09-08 Authentec, Inc. System for and method of generating rotational inputs
US7489299B2 (en) * 2003-10-23 2009-02-10 Hillcrest Laboratories, Inc. User interface devices and methods employing accelerometers
US20050184953A1 (en) * 2004-02-20 2005-08-25 Camp William O.Jr. Thumb-operable man-machine interfaces (MMI) for portable electronic devices, portable electronic devices including the same and methods of operating the same
FI20045078A (fi) 2004-03-16 2005-09-17 Myorigo Oy Laajakulmaoptiikalla ja säteilysensorilla varustettu mobiililaite
US8842070B2 (en) * 2004-03-17 2014-09-23 Intel Corporation Integrated tracking for on screen navigation with small hand held devices
JP4773060B2 (ja) * 2004-04-20 2011-09-14 富士通コンポーネント株式会社 コードレスポインティングデバイス装置及び情報端末装置
KR100937572B1 (ko) 2004-04-30 2010-01-19 힐크레스트 래보래토리스, 인크. 3d 포인팅 장치 및 방법
US8629836B2 (en) 2004-04-30 2014-01-14 Hillcrest Laboratories, Inc. 3D pointing devices with orientation compensation and improved usability
US7773070B2 (en) * 2004-05-21 2010-08-10 Cypress Semiconductor Corporation Optical positioning device using telecentric imaging
US7285766B2 (en) * 2004-05-21 2007-10-23 Silicon Light Machines Corporation Optical positioning device having shaped illumination
US7042575B2 (en) * 2004-05-21 2006-05-09 Silicon Light Machines Corporation Speckle sizing and sensor dimensions in optical positioning device
US7268341B2 (en) * 2004-05-21 2007-09-11 Silicon Light Machines Corporation Optical position sensing device including interlaced groups of photosensitive elements
US20050259097A1 (en) * 2004-05-21 2005-11-24 Silicon Light Machines Corporation Optical positioning device using different combinations of interlaced photosensitive elements
US20050259078A1 (en) * 2004-05-21 2005-11-24 Silicon Light Machines Corporation Optical positioning device with multi-row detector array
US8463315B2 (en) 2004-06-21 2013-06-11 Research In Motion Limited Handheld wireless communication device
US20070192711A1 (en) * 2006-02-13 2007-08-16 Research In Motion Limited Method and arrangement for providing a primary actions menu on a handheld communication device
GB2416825A (en) * 2004-08-05 2006-02-08 Chris Begg Mobile phone with an optical sensor and buttons for use as a computer mouse
US20060036947A1 (en) * 2004-08-10 2006-02-16 Jelley Kevin W User interface controller method and apparatus for a handheld electronic device
US7521719B2 (en) * 2004-08-13 2009-04-21 Paul Steven Schranz Light emitting and image sensing device and apparatus
US7196316B2 (en) * 2004-09-22 2007-03-27 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Portable electronic device with activation sensor
WO2006068746A2 (en) * 2004-11-19 2006-06-29 Silicon Light Machines Corporation Dense multi-axis array for motion sensing
WO2006058129A2 (en) 2004-11-23 2006-06-01 Hillcrest Laboratories, Inc. Semantic gaming and application transformation
US7244925B2 (en) 2005-03-21 2007-07-17 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd Compact and low profile optical navigation device
US20060267927A1 (en) * 2005-05-27 2006-11-30 Crenshaw James E User interface controller method and apparatus for a handheld electronic device
FR2887654A1 (fr) * 2005-06-24 2006-12-29 Daniel Henri Lucien Jos Martin Dispositif de pointage digital sur ecran
US20070002017A1 (en) * 2005-06-30 2007-01-04 Evgeny Mezhibovsky Device, system and method for wireless communication and cursor pointing
KR100766554B1 (ko) * 2005-07-14 2007-10-17 크루셜텍 (주) 초슬림 광 포인팅 장치 및 이를 구비한 개인휴대단말기
KR100689525B1 (ko) * 2005-09-26 2007-03-02 삼성전자주식회사 휴대단말기에서 마우스기능을 통한 데이터 제어방법
US7567235B2 (en) 2005-12-12 2009-07-28 Cypress Semiconductor Corporation Self-aligning optical sensor package
US7765251B2 (en) 2005-12-16 2010-07-27 Cypress Semiconductor Corporation Signal averaging circuit and method for sample averaging
US7737948B2 (en) * 2005-12-20 2010-06-15 Cypress Semiconductor Corporation Speckle navigation system
KR100802418B1 (ko) 2006-01-11 2008-02-13 크루셜텍 (주) 저전력 광 포인팅 장치 및 이를 구비한 개인 휴대 단말기
KR100787616B1 (ko) 2006-01-27 2007-12-21 크루셜텍 (주) 초슬림형 광 포인팅장치 키모듈 및 이를 장착한 휴대단말기
US7884801B1 (en) 2006-02-16 2011-02-08 Cypress Semiconductor Corporation Circuit and method for determining motion with redundant comb-arrays
US7809035B2 (en) * 2006-03-31 2010-10-05 Cypress Semiconductor Corporation Eye-safe laser navigation sensor
US7721609B2 (en) 2006-03-31 2010-05-25 Cypress Semiconductor Corporation Method and apparatus for sensing the force with which a button is pressed
KR100808990B1 (ko) 2006-04-27 2008-03-04 삼성전자주식회사 포인팅 디바이스를 이용하여 메뉴를 선택하는 장치 및 그방법
JP2007304666A (ja) 2006-05-08 2007-11-22 Sony Computer Entertainment Inc 情報出力システム及び情報出力方法
US7492445B1 (en) 2006-06-05 2009-02-17 Cypress Semiconductor Corporation Method and apparatus for robust velocity prediction
US7755604B2 (en) 2006-06-19 2010-07-13 Cypress Semiconductor Corporation Optical navigation sensor with tracking and lift detection for optically transparent contact surfaces
US7728816B2 (en) * 2006-07-10 2010-06-01 Cypress Semiconductor Corporation Optical navigation sensor with variable tracking resolution
KR100839437B1 (ko) 2006-08-03 2008-06-19 엠텍비젼 주식회사 무접점 입력 장치 및 무접점 입력 장치의 동적 전력 제어방법
US7408718B2 (en) 2006-09-07 2008-08-05 Avago Technologies General Pte Ltd Lens array imaging with cross-talk inhibiting optical stop structure
KR100807625B1 (ko) 2006-09-25 2008-03-03 엠텍비젼 주식회사 포인터 이동 제어 방법 및 그 장치
KR100807620B1 (ko) 2006-09-25 2008-03-03 엠텍비젼 주식회사 포인터 이동 제어 방법 및 그 장치
US8106883B2 (en) * 2006-10-10 2012-01-31 Lg Electronics Inc. Mobile terminal and method for moving a cursor and executing a menu function using a navigation key
KR100799766B1 (ko) 2006-10-25 2008-02-01 엠텍비젼 주식회사 포인터 이동 제어 장치
US7742514B1 (en) 2006-10-31 2010-06-22 Cypress Semiconductor Corporation Laser navigation sensor
US20080163132A1 (en) * 2006-12-29 2008-07-03 Matthew Richard Lee Streamlined navigation of a handheld elecronic device
US8994644B2 (en) 2007-01-26 2015-03-31 Apple Inc. Viewing images with tilt control on a hand-held device
US8314774B1 (en) 2007-07-09 2012-11-20 Cypress Semiconductor Corporation Method and apparatus for quasi-3D tracking using 2D optical motion sensors
US8263921B2 (en) 2007-08-06 2012-09-11 Cypress Semiconductor Corporation Processing methods for speckle-based motion sensing
US7952721B2 (en) * 2007-08-30 2011-05-31 Microstrain, Inc. Optical linear and rotation displacement sensor
CN101452344A (zh) * 2007-12-07 2009-06-10 深圳富泰宏精密工业有限公司 键盘及使用该键盘的便携式电子装置
US8259069B1 (en) 2008-01-11 2012-09-04 Cypress Semiconductor Corporation Speckle-based optical navigation on curved tracking surface
US8031176B1 (en) 2008-01-22 2011-10-04 Cypress Semiconductor Corporation Optical navigation system using a single-package motion sensor
US8169420B2 (en) * 2008-02-05 2012-05-01 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Reporting optical tracking data based on integrated resolution switching and surface detection
JP4557048B2 (ja) * 2008-06-04 2010-10-06 ソニー株式会社 電子機器
KR20090131423A (ko) * 2008-06-18 2009-12-29 삼성전자주식회사 문자 입력 장치 및 그 입력 방법
US20100066672A1 (en) * 2008-09-15 2010-03-18 Sony Ericsson Mobile Communications Ab Method and apparatus for mobile communication device optical user interface
US8541727B1 (en) 2008-09-30 2013-09-24 Cypress Semiconductor Corporation Signal monitoring and control system for an optical navigation sensor
US7723659B1 (en) 2008-10-10 2010-05-25 Cypress Semiconductor Corporation System and method for screening semiconductor lasers
US8347103B2 (en) * 2009-01-13 2013-01-01 Nic, Inc. System and method for authenticating a user using a graphical password
US8711096B1 (en) 2009-03-27 2014-04-29 Cypress Semiconductor Corporation Dual protocol input device
US8232541B2 (en) * 2009-04-14 2012-07-31 Intersil Americas Inc. Optical sensors that reduce specular reflections
US8324602B2 (en) * 2009-04-14 2012-12-04 Intersil Americas Inc. Optical sensors that reduce specular reflections
TWI409671B (zh) * 2009-07-17 2013-09-21 Kye Systems Corp A rotary key structure and an electronic device having such a rotary key structure
KR101366555B1 (ko) 2009-09-09 2014-02-26 주식회사 만도 전자 브레이크의 제어방법
KR100952603B1 (ko) * 2009-11-05 2010-04-15 팬터로그인터액티브 주식회사 카메라를 이용한 화면 스크롤 장치 및 방법
US9977472B2 (en) 2010-03-19 2018-05-22 Nokia Technologies Oy Method and apparatus for displaying relative motion of objects on graphical user interface
US20110252358A1 (en) * 2010-04-09 2011-10-13 Kelce Wilson Motion control of a portable electronic device
US20120242620A1 (en) * 2011-03-22 2012-09-27 Research In Motion Limited Combined optical navigation and button
GB2490108B (en) * 2011-04-13 2018-01-17 Nokia Technologies Oy A method, apparatus and computer program for user control of a state of an apparatus
CN102959494B (zh) 2011-06-16 2017-05-17 赛普拉斯半导体公司 具有电容式传感器的光学导航模块
US9489061B2 (en) * 2011-11-14 2016-11-08 Logitech Europe S.A. Method and system for power conservation in a multi-zone input device
US8896553B1 (en) 2011-11-30 2014-11-25 Cypress Semiconductor Corporation Hybrid sensor module
TWI573041B (zh) * 2012-09-18 2017-03-01 廣達電腦股份有限公司 輸入裝置及可攜式電子裝置
US9517417B2 (en) 2013-06-06 2016-12-13 Zih Corp. Method, apparatus, and computer program product for performance analytics determining participant statistical data and game status data
US9180357B2 (en) 2013-06-06 2015-11-10 Zih Corp. Multiple antenna interference rejection in ultra-wideband real time locating systems
US9715005B2 (en) 2013-06-06 2017-07-25 Zih Corp. Method, apparatus, and computer program product improving real time location systems with multiple location technologies
US10609762B2 (en) 2013-06-06 2020-03-31 Zebra Technologies Corporation Method, apparatus, and computer program product improving backhaul of sensor and other data to real time location system network
US9699278B2 (en) 2013-06-06 2017-07-04 Zih Corp. Modular location tag for a real time location system network
US10437658B2 (en) 2013-06-06 2019-10-08 Zebra Technologies Corporation Method, apparatus, and computer program product for collecting and displaying sporting event data based on real time data for proximity and movement of objects
US11423464B2 (en) 2013-06-06 2022-08-23 Zebra Technologies Corporation Method, apparatus, and computer program product for enhancement of fan experience based on location data
US20150085111A1 (en) * 2013-09-25 2015-03-26 Symbol Technologies, Inc. Identification using video analytics together with inertial sensor data
US9517402B1 (en) * 2013-12-18 2016-12-13 Epic Games, Inc. System and method for uniquely identifying players in computer games based on behavior and other characteristics
CN106471390B (zh) 2014-06-05 2019-09-17 斑马技术公司 用于可变速率超宽带通信的系统、装置和方法
CA2951120C (en) 2014-06-05 2021-12-07 Zih Corp. Method for iterative target location in a multiple receiver target location system
US9626616B2 (en) 2014-06-05 2017-04-18 Zih Corp. Low-profile real-time location system tag
US20150375083A1 (en) 2014-06-05 2015-12-31 Zih Corp. Method, Apparatus, And Computer Program Product For Enhancement Of Event Visualizations Based On Location Data
DE112015002629T5 (de) 2014-06-05 2017-03-09 Zih Corp. Empfängerprozessor für adaptive Fenstertechnik und Hochauflösungs-Ankunftszeitbestimmung in einem Zielortungssystem mit mehreren Empfängern
US9668164B2 (en) 2014-06-05 2017-05-30 Zih Corp. Receiver processor for bandwidth management of a multiple receiver real-time location system (RTLS)
US9661455B2 (en) 2014-06-05 2017-05-23 Zih Corp. Method, apparatus, and computer program product for real time location system referencing in physically and radio frequency challenged environments
CN113050031A (zh) 2014-06-06 2021-06-29 斑马技术公司 改进利用多个位置技术的实时位置系统的方法、装置和计算机程序产品
US9759803B2 (en) 2014-06-06 2017-09-12 Zih Corp. Method, apparatus, and computer program product for employing a spatial association model in a real time location system
EP3835892B1 (de) * 2019-12-10 2022-08-10 The Swatch Group Research and Development Ltd Armbanduhr mit steuerungsorgan

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5578813A (en) 1995-03-02 1996-11-26 Allen; Ross R. Freehand image scanning device which compensates for non-linear movement
US5786804A (en) 1995-10-06 1998-07-28 Hewlett-Packard Company Method and system for tracking attitude
US6057540A (en) 1998-04-30 2000-05-02 Hewlett-Packard Co Mouseless optical and position translation type screen pointer control for a computer system
US6151015A (en) 1998-04-27 2000-11-21 Agilent Technologies Pen like computer pointing device

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4920260A (en) * 1988-08-30 1990-04-24 Msc Technologies, Inc. Detector system for optical mouse
DE69026516T2 (de) * 1989-11-06 1996-09-12 Calcomp Inc Digitalisiertablett mit zweimodenläufer/maus
GB2259583B (en) 1991-09-11 1995-08-16 Xerox Corp Toner monitoring in an electrostatographic printing/digital copying machine
CA2189700C (en) * 1995-12-27 2000-06-20 Alexander George Dickinson Combination mouse and area imager
AUPN802296A0 (en) * 1996-02-12 1996-03-07 Fingerscan Pty Limited An input device for controlling a pointer on the screen of a computer
US5801681A (en) * 1996-06-24 1998-09-01 Sayag; Michel Method and apparatus for generating a control signal
JPH10240436A (ja) 1996-12-26 1998-09-11 Nikon Corp 情報処理装置および記録媒体
CA2208179A1 (en) * 1997-06-18 1998-12-18 Roland S. Walch Pointing device with optical fingerprint recognition and tracking capability
US6125287A (en) * 1997-09-05 2000-09-26 Fujitsu Limited Wireless telephone having an improved user interface
US5977975A (en) * 1998-01-13 1999-11-02 Sony Corporation Array of displayed graphic images for enabling selection of a selectable graphic image
GB2333215B (en) * 1998-01-13 2002-05-08 Sony Electronics Inc Systems and methods for enabling manipulation of a plurality of graphic images on a display screen
US6249606B1 (en) * 1998-02-19 2001-06-19 Mindmaker, Inc. Method and system for gesture category recognition and training using a feature vector
US5994710A (en) * 1998-04-30 1999-11-30 Hewlett-Packard Company Scanning mouse for a computer system
US6392632B1 (en) * 1998-12-08 2002-05-21 Windbond Electronics, Corp. Optical mouse having an integrated camera
US6303924B1 (en) * 1998-12-21 2001-10-16 Microsoft Corporation Image sensing operator input device
JP3550038B2 (ja) * 1999-02-04 2004-08-04 株式会社東芝 モーションを利用した認証方法及び装置
EP1063607A1 (de) * 1999-06-25 2000-12-27 Siemens Aktiengesellschaft Vorrichtung und Verfahren zur Eingabe von Streuerinformationen in Computersysteme
GB2357335B (en) * 1999-12-17 2004-04-07 Nokia Mobile Phones Ltd Fingerprint recognition and pointing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5578813A (en) 1995-03-02 1996-11-26 Allen; Ross R. Freehand image scanning device which compensates for non-linear movement
US5644139A (en) 1995-03-02 1997-07-01 Allen; Ross R. Navigation technique for detecting movement of navigation sensors relative to an object
US5786804A (en) 1995-10-06 1998-07-28 Hewlett-Packard Company Method and system for tracking attitude
US6151015A (en) 1998-04-27 2000-11-21 Agilent Technologies Pen like computer pointing device
US6057540A (en) 1998-04-30 2000-05-02 Hewlett-Packard Co Mouseless optical and position translation type screen pointer control for a computer system

Also Published As

Publication number Publication date
EP1241616A3 (de) 2004-08-04
US20020130835A1 (en) 2002-09-19
EP2045694B1 (de) 2016-08-31
EP2045694A1 (de) 2009-04-08
EP1241616A2 (de) 2002-09-18
DE60231355D1 (de) 2009-04-16
EP1241616B9 (de) 2010-07-14
JP2002351608A (ja) 2002-12-06
KR20020073432A (ko) 2002-09-26
KR20090084784A (ko) 2009-08-05
EP1241616B1 (de) 2009-03-04
KR100918157B1 (ko) 2009-09-17
US6977645B2 (en) 2005-12-20
KR100957336B1 (ko) 2010-05-12

Similar Documents

Publication Publication Date Title
DE20221921U1 (de) Tragbare elektronische Vorrichtung mit mausähnlichen Fähigkeiten
DE10221415B4 (de) Optische Druckknopfbildschirm-Zeigevorrichtung
DE69914659T2 (de) Eingabevorrichtung für Rechner in Form eines Stiftes
DE69204045T2 (de) Verfahren und Vorrichtung zum optischen Eingang von Befehlen oder Daten.
DE69530395T2 (de) Interaktives projektiertes videobildanzeigesystem
DE602004007205T2 (de) Mobiles Gerät mit optischer on-screen Navigation
DE69428566T2 (de) Koordinateneingabegerät
DE60205662T2 (de) Vorrichtung und Verfahren zur Berechnung einer Position einer Anzeige
DE69130282T2 (de) Positions- und Funktionseingabesystem für Grossoberflächenanzeige
DE102009043800A1 (de) Optische Fingernavigation unter Verwendung von quantisierter Bewegungsinformation
DE69535640T2 (de) Bestimmung der absoluten optischen position
KR19990011180A (ko) 화상인식을 이용한 메뉴 선택 방법
DE112005001922T5 (de) Handschuh-Signaleingabevorrichtung für Datenverarbeitungssystem
DE10209797A1 (de) Optische Pseudo-Rollkugel zur Steuerung des Betriebs einer Vorrichtung oder Maschine
DE202008005342U1 (de) Elektronische Vorrichtung
WO2008110227A1 (de) Druckmessvorrichtung und entsprechendes verfahren
DE19738425A1 (de) Auf intuitive Bewegungen gestützte graphische Benutzerschnittstelle
DE202008005343U1 (de) Elektronische Vorrichtung mit behinderungsfreier Bedienung
EP1456808B1 (de) Vorrichtung zum erfassen und darstellen von bewegungen
DE202008005341U1 (de) Elektronische Vorrichtung
DE69518884T2 (de) Druckempfindliche Dateneigabevorrichtung, die um einen menschlichen Finger getragen werden kann
DE102015103836A1 (de) Endgerät und Informationsverarbeitungsverfahren
EP1573502A2 (de) Schnell-eingabevorrichtung
EP1194883B1 (de) Vorrichtung und verfahren zur eingabe von steuerinformationen in computersysteme
DE10124834C2 (de) Verfahren zur Informationseingabe für eine Mensch-Maschine-Schnittstelle, Stift zur Durchführung des Verfahrens und Vorrichtung zur Eingabe von Informationen mittels des Verfahrens

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20090423

R151 Utility model maintained after payment of second maintenance fee after six years

Effective date: 20090319

R152 Utility model maintained after payment of third maintenance fee after eight years

Effective date: 20100226

R071 Expiry of right