DE102008049653A1 - Bewegungsbasierte Schnittstellen für persönliche Medienvorrichtung - Google Patents

Bewegungsbasierte Schnittstellen für persönliche Medienvorrichtung Download PDF

Info

Publication number
DE102008049653A1
DE102008049653A1 DE102008049653A DE102008049653A DE102008049653A1 DE 102008049653 A1 DE102008049653 A1 DE 102008049653A1 DE 102008049653 A DE102008049653 A DE 102008049653A DE 102008049653 A DE102008049653 A DE 102008049653A DE 102008049653 A1 DE102008049653 A1 DE 102008049653A1
Authority
DE
Germany
Prior art keywords
media device
vibration
pattern
audio
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102008049653A
Other languages
English (en)
Inventor
Michael Monte Sereno Culbert
Scott Mountain View Forstall
Nicholas V. San Jose King
Michael M. San Jose Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE102008049653A1 publication Critical patent/DE102008049653A1/de
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

Es werden Systeme und Verfahren für eine Medienvorrichtung angegeben, umfassend eine oder mehrere bewegungsbasierte Schnittstellen zum Einwirken auf die Medienvorrichtung oder Steuern derselben.

Description

  • Hintergrund
  • Die Erfindung betrifft persönliche Medienvorrichtungen und insbesondere bewegungsbasierte Schnittstellen für persönliche Medienvorrichtungen.
  • Die Verfügbarkeit kompakter, tragbarer persönlicher Medienvorrichtungen (beispielsweise tragbarer MP3-Player, tragbarer Videogeräte und Handys mit Medienabspielfunktion) ermöglicht es Benutzern, derartige kompakte tragbare Medienvorrichtungen zu bedienen und Zugang zu Multimediadateien wie Video- und Audiodateien (beispielsweise Stimme und Musik) zu erhalten, während sie gehen, laufen, fahren oder während anderer Aktivitäten.
  • Ein Problem in Zusammenhang mit bestehenden tragbaren Medienvorrichtungen wie Handys liegt darin, dass Benutzer von anderen Aktivitäten abgelenkt werden können, während sie das Videodisplay der Medienvorrichtung, die graphische Benutzerschnittstelle (GUI) sehen und/oder die Tastatur bedienen. Beispielsweise kann ein Läufer eine persönliche Medienvorrichtung tragen, um während des Laufens Musik anzuhören oder um Anrufe mit dem Handy zu tätigen/zu empfangen. Bei einer typischen persönlichen Medienvorrichtung muss der Benutzer auf das Display der Vorrichtung schauen, um eine Medienanwendung zu tätigen, um ein Lied für das Abspielen auszuwählen. Ferner muss der Benutzer wahrscheinlich das Display berühren oder eine oder mehrere Tasten auf der Tastatur drücken, um die Liedauswahl durchzuführen. Diese Einwirkungen auf die persönliche Medienvorrichtung können die Aufmerksamkeit des Benutzers in Bezug auf die Umgebung abziehen, was gefährlich sein kann, können den Benutzer zwingen, seine anderen Aktivitäten zu unterbrechen, oder bewirken, dass der Benutzer in die Aktivitäten anderer innerhalb seiner Umgebung eingreift. Dementsprechend besteht der Bedarf nach einer Benutzerschnittstelle in einer persönlichen Medienvorrichtung, welche die physischen Einwirkungen eines Benutzers auf die persönliche Medienvorrichtung und/oder das Im-Blick-Haben derselben minimiert, insbesondere während der Benutzer andere Aktivitäten ausführt, welche beispielsweise ein Hinsehen des Benutzers erfordern.
  • Die Erfindung ist darauf ausgerichtet, in verschiedenen Ausführungsformen die Nachteile des Standes der Technik anzugehen, indem Systeme, Verfahren und Vorrichtungen angegeben werden, die es dem Benutzter einer persönlichen Medienvorrichtung ermöglichen, eine persönliche Medienvorrichtung über benutzerinitiierte Bewegungen der Vorrichtung zu steuern, und/oder es dem Benutzer ermöglichen, eine auf Bewegung basierende Information von der persönlichen Medienvorrichtung zu empfangen.
  • In verschiedenen Aspekten wird gemäß der Erfindung ein Positions-, Ausrichtungs- oder Bewegungssensor (POM-Sensor) in einer Medienvorrichtung eingesetzt. Ein POM-Sensor kann ohne Beschränkung einen Beschleunigungssensor, ein Gyroskop, einen Lichtsensor, einen Infrarot-Sensor (IR-Sensor), einen Näherungssensor, einen kapazitiven Näherungssensor, einen Akustik-Sensor, einen Schall- oder Sonarsensor, einen Radarsensor, einen Bildsensor, einen Videosensor, einen Ortungsdetektor (GPS-Detektor), einen Radiofrequenzdetektor (RF-Detektor), einen RF- oder Akustik-Dopplerdetektor, einen Videosensor, einen Kompass, ein Magnetometer oder andere Sensoren wie beispielsweise einen Umgebungssensor umfassen.
  • Gemäß einem Aspekt umfasst eine Medienvorrichtung mindestens einen Sensor, welcher ein Sensorsignal erzeugt, das auf mindestens einem der folgenden Merkmale basiert: Position, Ausrichtung und Bewegung der Medienvorrichtung. Die Medienvorrichtung umfasst ferner einen Prozessor, der das Sensorsignal empfängt und eine oder mehrere Funktionen der Medienvorrichtung zumindest teilweise auf dem Sensorsignal basierend steuert. Gemäß einer Konfiguration umfasst die Medienvorrichtung eine Datenbank oder einen Datenspeicher mit einem oder mehreren bekannten Bewegungsmustern, wobei jedes Bewegungsmuster einer Funktion der Medienvorrichtung zugeordnet ist. Gemäß einem Merkmal vergleicht der Prozessor das Sensorsignal mit dem einen oder mehreren bekannten Bewegungsmustern, um die zugeordnete Funktion der Medienvorrichtung zu bestimmen. Die Vergleichsfunktion kann die Verwendung eines Mustererkennungsalgorithmus oder Mustererkennungsverfahrens umfassen.
  • Gemäß einer Ausführungsform umfasst eine Funktion das Abarbeiten einer Liste von Elementen, die einer Anwendung zugeordnet sind. Das Abarbeiten kann in Stufen erfolgen, welche proportional zur Größe zumindest einer der folgenden Geschwindigkeiten sind: Postionsänderungsgeschwindigkeit, Ausrichtungsgeschwindigkeit und Bewegungsgeschwindigkeit. Eine Funktion kann mindestens eine der folgenden Tätigkeiten umfassen: Starten oder Initiieren einer oder mehrerer Anwendungen, Stoppen oder Beenden einer oder mehrerer Anwendungen, Auswählen einer oder mehrerer Einstellungen und Rückgängigmachen der Auswahl, Verstärken oder Schwächen einer oder mehrerer Einstellungen, Bewegen durch eine Liste von Elementen, Initiieren oder Beenden einer Kommunikation, Abspielen von Musik oder Video, Unterbrechen von Musik oder Video und Initiieren oder Beenden einer Audio- oder Videoaufzeichnung. Ein Element kann mindestens eines aus der folgenden Gruppe umfassen: ein Lied, ein Video, eine Musikdatei, eine Audiodatei, eine Videodatei, eine Photographie, eine Mediendatei, ein Anwendungsicon, ein Aktivierungsicon, eine Kontrolltaste, ein Datenfile und Kontaktdaten.
  • Gemäß einer Ausführungsform umfasst der Sensor mindestens eines der folgenden Elemente: einen Beschleunigungsmesser, ein Gyroskop, einen Kompass, einen IR-Detektor, einen Schalldetektor, ein Höhenmessgerät, einen Magnetfelddetektor, einen RF-Detektor, ein GPS, einen Lichtsensor und einen Dopplerdetektor. Gemäß einem Merkmal kann die Erzeugung eines Sensorsignals auf dem Erfassen einer Frequenz der Position und/oder Ausrichtung und/oder Bewegung der Medienvorrichtung über eine Zeitperiode hinweg basieren.
  • Gemäß einer anderen Konfiguration umfasst die Medienvorrichtung eine Aktivierungsschnittstelle, welche eine Benutzereingabe aufnimmt, um die Steuerung der Funktion der Medienvorrichtung basierend auf dem Sensorsignal zu ermöglichen oder zu hemmen. Die Medienvorrichtung kann mindestens eines der folgenden Elemente umfassen: ein Handy, eine drahtlose Kommunikationsvorrichtung, ein Medienabspielgerät, einen MP3-Player, ein Videoabspielgerät, ein PDA und einen tragbaren Computer. Die Medieneinrichtung kann eine Vibrationsquelle umfassen, welche ein oder mehrere Vibrationsmuster erzeugt. Gemäß einer Konfiguration umfasst die Medienvorrichtung einen Datenspeicher für ein oder mehrere Vibrationsmuster, wobei jedes Vibrationsmuster mindestens einem Element einer Anwendung der Medienvorrichtung zugeordnet ist. Gemäß einem Merkmal tritt die Erzeugung eines Vibrationsmusters dann auf, wenn ein Element von einem Benutzer ausgewählt wird.
  • In einer weiteren Konfiguration umfasst die Medienvorrichtung eine Audioquelle, welche ein oder mehrere Audiomuster erzeugt. Die Medienvorrichtung kann einen Datenspeicher für ein oder mehrere Audiomuster umfassen, wobei jedes Audiomuster mindestens einem Element einer Anwendung der Medienvorrichtung zugeordnet ist. Gemäß einem Merkmal erfolgt die Erzeugung eines Audiomusters dann, wenn ein Element durch den Benutzer ausgewählt wird. Gemäß einer anderen Konfiguration umfasst die Medienvorrichtung eine Eingabeschnittstelle zum Empfang des Sensorsignals und Speichern eines bekannten Bewegungsmusters, das dem Sensorsignal zugeordnet ist. Die Medienvorrichtung kann auch eine Datenbank oder einen Datenspeicher mit einer Anzahl an bekannten kombinierten Vibrations- und Audiomustern umfassen, wobei jedes der kombinierten Vibrations- und Audiomuster eine Funktion und/oder einem Element der Medienvorrichtung zugeordnet ist.
  • Gemäß einem Merkmal kann eine Bewegungsmuster-Erkennungsanwendung von einem Benutzer aktiviert werden, indem die Medienvorrichtung gehalten wird, das Display berührt wird, ein Icon auf dem Display berührt wird, eine Taste auf Medienvorrichtungsschnittstelle gedrückt wird und/oder eine Blende berührt wird, entweder alleine oder in Kombination mit einem bestimmten Bewegungsmuster. Gemäß einem anderen Merkmal können eine oder mehrere Funktionen der Medienvorrichtung durch einen Benutzer initiiert werden, indem die Medienvorrichtung gehalten wird, das Display berührt wird, ein Icon auf dem Display gedrückt wird, eine Taste auf der Medienvorrichtungsschnittstelle gedrückt wird und/oder eine Blende berührt wird, entweder alleine oder in Kombination mit einem speziellen bekannten Bewegungsmuster. Bei bestimmten Konfigurationen wird die Möglichkeit der unbeabsichtigten Initiierung einer Medienvorrichtungsfunktion minimiert oder eliminiert, indem vom Benutzer verlangt wird, explizit einen Bereich der Medienvorrichtung zu betätigen (beispielsweise das Display, eine Taste, ein Icon und/oder eine Blende zu berühren), während ein Bewegungsmuster ausgeführt wird. Eine Medienvorrichtungsanwendung kann auch durch eine andere Anwendung, die auf der Medienvorrichtung läuft, abgerufen oder aktiviert werden.
  • In einer Medienvorrichtung kann auch ein Griffdetektor oder ein Umgebungssensor eingesetzt sein, welcher erfasst, wenn sich das Telefon in der Hand des Benutzers befindet, so dass die Medienvorrichtung Veränderungen der Position, Ausrichtung oder Bewegung ignorieren kann, welche nicht auf Bewegungen und/oder der Positionierung der Hand des Benutzers basieren, oder um die Aktivierung von Bewegungserfassungsanwendungen zu ermöglichen. Gemäß einem Merkmal kann der Griffdetektor einen oder mehrere Schalter und/oder Tasten umfassen, um das Vorhandensein mindestens eines Fingers, zweier, dreier und vier Fingern zu detektieren.
  • Gemäß einem anderen Aspekt umfasst eine Medienvorrichtung einen Sende-Empfänger, welcher Benutzerkommunikationen sendet und empfängt. Die Medienvorrichtung kann einen Bewegungsmustersensor umfassen, welcher ein Bewegungsmuster erfasst, das auf der Position und/oder Ausrichtung und/oder der Bewegung der Medienvorrichtung basiert. Die Medienvorrichtung kann auch eine Mustererkennungseinheit umfassen, welche das Bewegungsmuster empfängt und identifiziert. Gemäß einer Konfiguration basiert das Identifizieren zumindest teilweise auf einem statistischen Modell.
  • In einem weiteren Aspekt umfasst eine Medienvorrichtung einen Bewegungsmustersensor, der ein Bewegungsmuster oder eine Sequenz von Bewegungsmustern basierend auf der Position und/oder der Ausrichtung und/oder der Bewegung der Medienvorrichtung oder Veränderungen derselben erfasst. Die Medienvorrichtung kann eine Mustererkennungseinheit aufweisen, welche das Bewegungsmuster empfängt und identifiziert. Die Medienvorrichtung kann auch eine Kommunikationsanwendung umfassen, welche benutzerbasierte Kommunikationen an die Medienvorrichtung oder von dieser weitergibt und es einem Benutzer ermöglicht, als Reaktion auf das identifizierte Bewegungsmuster durch eine Kontaktliste von Einheiten zu navigieren, welche dem Benutzer zugeordnet sind. Gemäß einem Merkmal ist eine Einheit eine andere Person.
  • Verschiedene Vorteile und Anwendungen unter Einsatz bewegungsbasierter Schnittstellen für eine Medienvorrichtung gemäß Prinzipien der Erfindung werden nachstehend detaillierter erörtert.
  • Kurze Beschreibung der Zeichnungen
  • Obige und andere Merkmale der Erfindung, ihr Wesen und verschiedene Vorteile werden durch die folgende detaillierte Beschreibung zusammen mit den beigefügten Zeichnungen deutlicher, wobei gleiche Bezugszeichen durchgehend gleiche Teile betreffen, wobei:
  • 1A eine perspektivische Ansicht einer Medienvorrichtung mit freiliegender Rahmeneinheit gemäß einer exemplarischen Ausführungsform der Erfindung ist;
  • 1B eine andere perspektivische Ansicht einer Medienvorrichtung gemäß einer exemplarischen Ausführungsform der Erfindung ist;
  • 2 die Medienvorrichtung der 1A und 1B mit angeschlossenen Kopfhörern und alternativ dazu einem drahtlosen Ohrstück gemäß einer exemplarischen Ausführungsform der Erfindung zeigt;
  • 3 ein Diagramm eines vereinfachten Funktionsblocks einer Medienvorrichtung gemäß einer exemplarischen Ausführungsform der Erfindung zeigt;
  • 4 eine Querschnittsansicht einer Medienvorrichtung zeigt, welche eine Vibrationsquelle und einen POM-Sensor gemäß einer exemplarischen Erfindungsform der Erfindung umfasst;
  • 5 eine perspektivische Transparentansicht eines dreidimensionalen Beschleunigungsmessers innerhalb einer Medienvorrichtung gemäß einer exemplarischen Ausführungsform der Erfindung ist;
  • 6 eine perspektivische Transparentansicht eines Paares zweidimensionaler Beschleunigungsmesser innerhalb der Medienvorrichtung gemäß einer exemplarischen Ausführungsform der Erfindung ist;
  • 7 eine perspektivische Transparentansicht eines Paares dreidimensionaler Beschleunigungsmesser innerhalb einer Medienvorrichtung gemäß einer exemplarischen Ausführungsform der Erfindung ist;
  • 8 eine perspektivische Transparentansicht mehrerer POM-Sensoren innerhalb der Medienvorrichtung gemäß einer exemplarischen Ausführungsform der Erfindung zeigt;
  • 9 ein konzeptionelles Diagramm einer Computerprozessoreinheit 900 ist, welche verschiedene Anwendungen oder Routinen umfasst, die innerhalb einer Medienvorrichtung gemäß einer exemplarischen Ausführungsform der Erfindung laufen;
  • 10 ein Diagramm einer Datenbank oder Liste ist, welche Bewegungsmuster Datenelementen einer Anwendung innerhalb einer Medienvorrichtung gemäß einer exemplarischen Ausführungsform der Erfindung zuordnet;
  • 11 einen exemplarischen Prozess zeigt, wobei ein Benutzer eine Liste an Punkten abarbeitet oder durch eine Liste an Punkten navigiert, welche durch eine Anwendung auf einer Medienvorrichtung dargestellt werden, indem die Hand oder der Handrücken des Benutzers gedreht oder geschleudert wird, gemäß einer exemplarischen Ausführungsform der Erfindung;
  • 12 die verschiedenen Dimensionen der Bewegung zeigt, welche gemäß einer exemplarischen Ausführungsform der Erfindung detektiert, identifiziert und/oder aufgenommen werden können;
  • 13 eine exemplarische Bewegungssequenz oder ein exemplarisches Bewegungsmuster für die Steuerung einer Medienvorrichtung gemäß einer exemplarischen Ausführungsform der Erfindung ist;
  • 14 ein Flussdiagramm eines Prozesses zum Einwirken auf und/oder Steuern einer Anwendung ist, welche auf einer Medienvorrichtung gemäß einer exemplarischen Ausführungsform der Erfindung läuft;
  • 15 ein Diagramm einer Datenbasis oder Liste ist, welche Vibrationsmustern Datenelemente einer Anwendung innerhalb einer Medienvorrichtung gemäß einer exemplarischen Ausführungsform der Erfindung zuordnet;
  • 16 ein Diagramm einer Datenbasis oder Liste ist, welche Audiomustern Datenelemente einer Anwendung innerhalb einer Medienvorrichtung gemäß einer exemplarischen Ausführungsform der Erfindung zuordnet; und
  • 17 ein Flussdiagramm eines Prozesses zum Eingeben und Identifizieren von Bewegungsmustern basierend auf einem oder mehreren Bewegungserkennungsalgorithmen gemäß einer exemplarischen Ausführungsform der Erfindung ist.
  • Detaillierte Beschreibung der erfindungsgemäßen Vorrichtung
  • 1A ist eine perspektivische Ansicht einer Medienvorrichtung 100 gemäß einer exemplarischen Ausführungsform der Erfindung. Die Medienvorrichtung 100 umfasst ein Gehäuse 102, einen ersten Gehäuseabschnitt 104, einen zweiten Gehäuseabschnitt 106, ein Display 108, eine Tastatur 110, eine Lautsprechergehäuseöffnung 112, eine Mikrophongehäuseöffnung 114, eine Kopfhörerbuchse 116 und eine Rahmenseitenwand 122. Obwohl hier nicht gezeigt, ist in bestimmten Ausführungsformen die Rahmenseitenwand 122 der freiliegende Teil eines Rahmens, welcher innerhalb oder benachbart zu dem Gehäuse 102 liegt, welches für die Medienvorrichtung 100 und verschiedene innenliegende Komponenten eine bauliche Aufnahme darstellt. Das Gehäuse 102 umfasst auch verschiedene Aussparungen 118, welche Öffnungen, Abtrennungen, Lüftungsöffnungen oder andere Pfade zwischen Elementen des Gehäuses 102 umfassen können, welche den Durchtritt von Luft oder Schall durch das Gehäuse 102 ermöglichen.
  • Gemäß einer Ausführungsform umfasst das Gehäuse 102 einen ersten Gehäuseabschnitt 104 und einen zweiten Gehäuseabschnitt 106, welche aneinander befestigt sind, um verschiedene Komponenten der Medienvorrichtung 100 einzuschließen. Bei bestimmten Ausführungsformen umfasst das Gehäuse 102 auch einen freiliegenden Rahmen 120, welcher eine bauliche Stütze für die Medienvorrichtung 100 darstellt. Das Gehäuse 102 und dessen Gehäuseabschnitte 104 und 106 können polymerbasierte Materialien umfassen, welche beispielsweise durch Spritzguss geformt sein können, um den Formfaktor der Medienvorrichtung 100 zu definieren. Gemäß einer Ausführungsform umgibt und/oder trägt das Gehäuse 102 innenliegende Komponenten, wie beispielsweise eine oder mehrere Schaltplatten mit integrierten Schaltungskomponenten, internen Radiofrequenz-(RF-) Schaltungen, einer internen Antenne, einem Lautsprecher, einem Mikrophon, einer Festplatte, einem Prozessor und anderen Komponenten. Weitere Details in Bezug auf bestimmte interne Komponenten werden nachstehend mit Bezug auf 3 erörtert. Das Gehäuse 102 lagert ein Display 108, eine Tastatur 110, eine externe Buchse 116, Datenstecker oder andere externe Schnittstellenelemente. Das Gehäuse 102 kann eine oder mehrere Gehäuseöffnungen 112 umfassen, um die Übertragung von Schall, einschließlich Stimme und Musik, von einem Lautsprecher innerhalb des Gehäuses 102 aus zu einem Benutzer zu erleichtern. Das Gehäuse 102 kann eine oder mehrere Gehäuseöffnungen 114 umfassen, um den Empfang von Geräuschen, wie beispielsweise Stimme, von einem Benutzer der Medienvorrichtung durch ein internes Mikrophon zu erleichtern.
  • Bei bestimmten Ausführungsformen umfasst das Gehäuse 102 eine oder mehrere Aussparungen 118, die dem Gehäuse 102 zugeordnet sind. Diese Aussparungen 118 können das Resultat eines Herstellungs- und/oder Zusammenbauprozesses für die Medienvorrichtung 100 sein. Beispielsweise führt unter bestimmten Bedingungen die mechanische Anbringung des ersten Gehäuseabschnitts 104 am zweiten Gehäuseabschnitt 106 oder der Seitenwand 122 zu einer Rille 120 oder einer Nahtstelle zwischen den Abschnitten 104 und 106. Bei bestimmten Medienvorrichtungen 100 ist die Rille 120 nicht luftdicht, wodurch Aussparungen 118 entlang der Rille entstehen. Andere Aussparungen können beim Zusammensetzen beispielsweise einer oder mehrere Tasten der Tastatur 110 mit dem Gehäuse 102 oder des Displays 108 mit dem Gehäuse 102 ausgebildet werden, was zu zusätzlichen Aussparungen 118 führt. Gemäß anderen Ausführungsformen kann das Gehäuse 102 zusätzliche Abschnitte umfassen, welche integriert sind, um das Gehäuse 102 für die Medienvorrichtung 100 zu bilden.
  • Die Medienvorrichtung 100 kann eine drahtlose Kommunikationsvorrichtung umfassen, wie beispielsweise ein Handy, ein Satellitentelefon, ein drahtloses Telefon, einen persönlichen, drahtlosen Assistenten (PDA), einen Mobilfunkempfänger, einen tragbaren Computer oder jegliche andere Vorrichtung, welche für die drahtlose Kommunikation geeignet ist. Tatsächlich zeigt 1 eine exemplarische Handyversion aus einer breiten Kategorie von Medienvorrichtungen 100.
  • Die Medienvorrichtung 100 kann auch innerhalb einer Packung anderer Vorrichtungen oder Strukturen integriert sein, wie beispielsweise in Fahrzeugen, Videospielsystemen, Haushaltsgeräten, Bekleidung, Helmen, Brillen, tragbaren Geräten, Stereosystemen, Unterhaltungssystemen oder anderen tragbaren Vorrichtungen. Bei bestimmten Ausführungsformen kann die Vorrichtung 100 an ein Zusatzsystem (beispielsweise an ein drahtloses Kommunikations-Docking-System), welches die Medienvorrichtung 100 mit einer Kommunikationsfunktionalität im Kurzbereich versieht, angedockt oder mit diesem verbunden werden. Alternative Arten von Medienvorrichtungen 100 können beispielsweise ein Medienabspielgerät wie ein iPod® oder ein Apple® iPhone, erhältlich durch Apple Inc. in Cupertino, Kalifornien, Pocket-Computer wie einen iPAQ®Pocket PC, erhältlich durch Hewlett Packard Inc. in Palo Alto, Kalifornien, und beliebige andere Vorrichtungen umfassen, welche drahtlos kommunizieren können (mithilfe oder ohne Verwendung eines Funkhilfssystems).
  • Bei bestimmten Ausführungsformen kann die Medienvorrichtung 100 beispielsweise in Synchronisation mit einem entfernten Rechnersystem oder einem Server zum Empfang von Medien sein (entweder unter Verwendung drahtloser Kommunikationswege oder Drahtkommunikationswege). Drahtlose Synchronisierung ermöglicht es der Medienvorrichtung 100, Medien und Daten zu übertragen und empfangen, ohne dass eine Drahtverbindung erforderlich ist. Medien können ohne Beschränkung Ton- oder Audiodateien, Musik-, Video-, Multimedia- und digitale Daten in kontinuierlichen und/oder gesonderten Formaten (beispielsweise Dateien und Datenpakete) umfassen.
  • Während der Synchronisation kann ein Host-System einem Client-System Medien zu Verfügung stellen oder auch Softwareanwendungen, welche in die Medienvorrichtung 100 eingebettet sind. Bei bestimmten Ausführungsformen werden Medien und/oder Daten auf die Medienvorrichtung 100 "heruntergeladen". Bei anderen Ausführungsformen kann die Medienvorrichtung Medien in einen entfernten Host oder ein anderes Client-System laden. Weitere Details bezüglich der Fähigkeiten bestimmter Ausführungsformen der Medienvorrichtung 100 sind der US-Patentanmeldung Nr. 10/423,490, eingereicht am 25. April 2003, offenbart, wobei der gesamte Inhalt dieser Druckschrift hier durch Bezugnahme umfasst sein soll.
  • 1B ist eine andere perspektivische Ansicht einer Medienvorrichtung 100 gemäß einer exemplarischen Ausführungsform der Erfindung. In dieser Ausführungsform sind im Gegensatz zur Ausführungsform 1A der Rahmen der Medienvorrichtung und/oder die Seitenwände des Rahmens nicht gegen eine äußere Oberfläche der Vorrichtung freigelegt. Jedoch ist in einigen Ausführungsformen der Rahmen innen mit mindestens einem Abschnitt des ersten Gehäuseabschnitts 104 oder des zweiten Gehäuseabschnitts 106 verbunden.
  • 2 zeigt die Medienvorrichtung 100 von 1 mit angeschlossenen Kopfhörern 200 und alternativ dazu mit einem kabellosen Ohrstück 206 gemäß einer exemplarischen Ausführungsform der Erfindung. Die angeschlossenen Kopfhörer 200 umfassen ein Kabel 212, welches die Medienvorrichtung 100 über eine externe Buchse 116 anschließt. Gemäß einer Ausführungsform sorgt das Kabel für den Transport eines Audiosignals von der Medienvorrichtung 100 zu den Kopfhörern 200. Gemäß einer anderen Ausführungsform umfassen die Kopfhörer 200 ein linkes Gehäuse 202 und ein rechtes Gehäuse 204, entsprechend dem linken bzw. rechten Ohr eines Benutzers. Jedes Gehäuse 202 und 204 kann einen Lautsprecher und/oder eine Akustik-Einheit umfassen, wie nachstehend mit Bezug auf 4 beschrieben wird. Die Kopfhörer 200 können optional ein Mikrophon umfassen, um das Senden von Tönen vom Benutzer aus zur Medienvorrichtung 100 zu erleichtern. Alternativ zu den Kopfhörern 200 kann der Benutzer das drahtlose Ohrstück 206 benutzen, welches ein Gehäuse 208 umfasst. Gemäß einer Ausführungsform ist in Zusammenhang mit dem Ohrstück 206 ein drahtloser Kanal 210 eingesetzt, um Audiosignale von der Vorrichtung 100 zu empfangen und um Audiosignale zur Vorrichtung 100 zu senden. Das Gehäuse 208 kann einen Lautsprecher, ein Mikrophon und/oder eine Akustik-Einheit umfassen, wie dies nachstehend mit Bezug auf 4 beschrieben wird.
  • 3 zeigt ein vereinfachtes Funktions-Blockdiagramm der Medienvorrichtung 100 gemäß einer exemplarischen Ausführungsform der Erfindung. Die Medienvorrichtung oder das Abspielgerät 300 kann einen Prozessor 302, eine Speichervorrichtung 304, eine Benutzerschnittstelle 308, ein Display 310, CODEC 312, einen Bus 318, einen Speicher 320, eine Kommunikationsschaltung 322, einen Lautsprecher oder Wandler 324, ein Mikrophon 326, einen Vibrationsquellenantrieb 328 und einen POM-Sensor 330 umfassen. Der Prozessor 302 kann den Betrieb vieler Funktionen und anderer Schaltungen, die in das Medienabspielgerät integriert sind, steuern. Der Prozessor 302 kann das Display 310 steuern und kann Benutzereingaben von der Benutzerschnittstelle 308 empfangen.
  • Die Speichervorrichtung 304 kann Medien (beispielsweise Musik- und Videodateien), Software (beispielweise für die Implementierung von Funktionen auf der Vorrichtung 300), Vorzugsinformationen (beispielsweise bevorzugte Medienabspielungseinrichtungen), Lifestyle-Informationen (beispielsweise bevorzugte Nahrungsmittel), Übungsinformationen (Informationen aus Übungsüberwachungseinheiten), Transaktionsinformationen (beispielsweise Informationen wie Kreditkarteninformationen), drahtlose Verbindungsinformationen (beispielsweise Informationen, auf Grund derer die Medieneinrichtung eine Drahtlosverbindung mit einer anderen Vorrichtung aufbauen kann), Subskriptionsinformationen (beispielsweise jederzeit abrufbare Informationen über Podcasts, Fernsehsendungen oder anderen Medien, welche ein Benutzer häufig abruft), und beliebige andere geeignete Daten umfassen. Die Speichervorrichtung 304 kann eine oder mehrere Speichermedien enthalten, einschließlich beispielsweise eines Festplattenlaufwerks, eines Festspeichers, eines Semi-Permanentspeichers wie zum Beispiel RAM, oder eines Cache-Speichers.
  • Der Speicher 320 kann eine oder mehrere Arten von Speichern umfassen, welche zur Ausführung von Vorrichtungsfunktionen eingesetzt werden können. Beispielsweise kann der Speicher 320 einen Cache-Speicher, ein ROM und/oder RAM umfassen. Der Bus 318 kann einen Datenübertragungsweg zum Übertragen von Daten zwischen zumindest der Speichervorrichtung 304, dem Speicher 320 und dem Prozessor 302, von diesen weg oder zu diesen hin aufweisen. Ein Codierer/Decodierer (CODEC) 112 kann eingesetzt sein, um digitale Audiosignale in analoge Signale umzuwandeln, um den Lautsprecher 324 anzusteuern, so dass Töne einschließlich Musik und andere Audiosignale erzeugt werden. Der CODEC 112 kann auch Audioeingänge vom Mikrophon 326 in digitale Audiosignale umwandeln. Der CODEC 112 kann einen Video-CODEC zum Verarbeiten von digitalen und/oder analogen Videosignalen ausweisen.
  • Die Benutzerschnittstelle 308 kann es einem Benutzer ermöglichen, auf die Medienvorrichtung 300 einzuwirken. So kann die Benutzereingabevorrichtung 308 eine Vielzahl von Formen annehmen, beispielsweise eine Taste, eine Tastatur, eine Wählscheibe, eine Anklickvorrichtung oder einen Sensorbildschirm. Der Kommunikationsschaltkreis 322 kann eine Schaltung für drahtlose Kommunikation (beispielsweise Nah- und/oder Fernkommunikation) umfassen. Beispielsweise kann die drahtlose Kommunikationsschaltung eine W-LAN-Freigabeschaltung sein, welche drahtlose Kommunikation gemäß einem der 802.11-Standards ermöglicht. Andere Standards für Drahtlos-Netzwerkprotokolle können auch entweder alternativ zu den beschriebenen Protokollen oder zusätzlich hierzu verwendet werden. Andere Netzwerkstandards können Bluetooth, das Globale System für Mobilkommunikation(GSM) und auf dem CDMA-Verfahren basierende Drahtlosprotokolle sein. Der Kommunikationsschaltkreis 322 kann auch Schaltungen umfassen, welche es der Vorrichtung 300 ermöglichen, elektrisch an eine andere Vorrichtung gekoppelt zu werden (beispielsweise an einen Computer oder an eine Zubehörvorrichtung) und mit jener anderen Vorrichtung zu kommunizieren.
  • Gemäß einer Ausführungsform kann die Medienvorrichtung 300 eine tragbare Computervorrichtung sein, welche dafür ausgelegt ist, Medien wie Audio- und Videodateien zu verarbeiten. Beispielsweise kann die Medienvorrichtung 300 eine Medienabspielvorrichtung (beispielsweise einen MPS-Player), eine Spielkonsole, eine Fernbedienung, eine tragbare Kommunikationsvorrichtung, eine Schnittstelle für Fernbestellabwicklung, ein Abspielgerät für Audiotonspuren oder andere geeignete persönliche Vorrichtung sein. Die Medienvorrichtung 300 kann batteriebetrieben und gut tragbar sein, um es einem Benutzer zu ermöglichen, Musik zu hören, Spiele oder Videos abzuspielen, Videos oder Bilder aufzunehmen, mit anderen zu kommunizieren und/oder andere Vorrichtungen zu steuern. Zusätzlich kann die Medienvorrichtung 300 so dimensioniert sein, dass sie relativ leicht in eine Tasche oder die Hand des Benutzers passt. Aufgrund der Handgröße ist die Medienvorrichtung 300 (oder die in 1 gezeigte Medienvorrichtung 100) relativ klein und leicht durch den Benutzer zu handhaben und zu verwenden und kann somit praktisch überallhin mitgenommen werden, wohin sich der Benutzer begibt.
  • Wie vorstehend erörtert, ermöglicht es der relativ kleine Formfaktor der Medienvorrichtung 300 dem Benutzer, die Position, Ausrichtung und Bewegung der Vorrichtungen leicht zu beeinflussen. Dementsprechend geben Ausführungsformen der Erfindung bessere Techniken des Erfassens solcher Veränderungen der Position, Ausrichtung und Bewegung an, um es einem Benutzer zu ermöglichen, durch Hervorrufen derartiger Veränderungen auf die Medienvorrichtung 300 einzuwirken oder sie zu steuern. Darüber hinaus kann die Medienvorrichtung 300 eine Vibrationsquelle 328 unter der Steuerung eines Prozessors 302 aufweisen, beispielsweise um das Senden von Bewegungs-, Vibrations- und/oder Bewegungsinformationen in bezug auf eine Funktion der Medienvorrichtung an einen Benutzer zu erleichtern.
  • 4 zeigt eine diagonale Schnittansicht einer Medienvorrichtung 400, umfassend eine Vibrationsquelle 414 und/oder einen POM-Sensor 416 gemäß einer exemplarischen Ausführungsform der Erfindung. Die Medienvorrichtung 400 weist ein oberes Gehäuse 402 auf. Der Hauptstrukturrahmen 404 ist am Gehäuse 402 gesichert, welches aus einem druckgussgeeigneten Material unter Einsatz eines Druckgussverfahrens hergestellt werden kann. Der Rahmen 404 umfasst eine umgebende Seitenwand 406 und einen Steg oder eine Rückwandplatte 408. Der Steg 408 erstreckt sich zwischen der Seitenwand 406 und bildet einen Leiterplattenraum zwischen dem Gehäuse 402 und dem Steg 408. Der Leiterplattenraum ist oben durch das Gehäuse 402 und unten durch den Steg 408 begrenzt. Der Leiterplattenraum umfasst eine Leiterplatte 410 und zugeordnete elektrische Komponenten 412. Der Steg 408 trägt oder beherbergt eine Batterie 414, welche ihrerseits die Rückseite des Handys 400 bildet.
  • Die Medienvorrichtung 400 kann ein vereinheitlichtes Rahmenelement 404 umfassen, welches aus einem einzigen druckgussfähigen Material hergestellt ist, üblicherweise aus Magnesium oder Zink, wobei die Seitenwand 406 und der Steg 408 aus demselben oder einem anderen Material mittels einer Druckgusstechnik hergestellt werden können. Gemäß einer Ausführungsform umfasst die Medienvorrichtung 400 mindestens eine Vibrationsquelle 414. Gemäß einer anderen Ausführungsform umfasst die Medienvorrichtung 400 mindestens einen POM-Sensor 416. Bei bestimmten Ausführungsformen stehen eine oder beide der mindestens einen Vibrationsquelle 414 und dem POM-Sensor 416 in Verbindung mit dem Steg 408, der Leiterplatte 410 und/oder einem Abschnitt der Seitenwand 406.
  • In der in 4 gezeigten Ausführungsform stehen der POM-Sensor 416 und die Vibrationsquelle 414 mit dem Steg 408 und/oder dem Rahmen 404 in Verbindung. Bei bestimmten Ausführungsformen sind der POM-Sensor 416 und/oder die Vibrationsquelle 414 am Steg 408 und/oder dem Rahmen 404 und/oder der Leiterplatte 410 und/oder dem Gehäuse 402 und/oder einer beliebigen anderen Komponente oder einem Element der Medienvorrichtung 400 angebracht oder stehen mit denselben in Verbindung.
  • Gemäß einer Ausführungsform wirken ein Abschnitt der Leiterplatte 410, der Speicher 320, die Speichervorrichtung 304, der Prozessor 302, eine Batterie und eine Antriebsschaltung 328 oder 418 zusammen, um eine vibrationserzeugende Schaltung für die Vibrationsquelle 414 zu bilden. Bei bestimmten Ausführungsformen umfasst die Vibrationsquelle 414 einen Generatormotor. Gemäß anderen Ausführungsformen umfasst die Vibrationsquelle ein Solenoid oder andere Elemente, welche eine Vibration, ein Vibrationsmuster und/oder eine Vibrationssequenz als Antwort auf eine andere Anwendung, die auf dem Prozessor 302 läuft, erzeugen.
  • Beispielsweise kann einer der Vibrationsmotoren wie "FM16, FM23, FM25 oder FM29" oder "CM-5", hergestellt von der Firma Tokyo Parts Industries Corporation, LTD. in Tokyo, Japan, als Vibrationsquelle 414 verwendet werden. Als weiteres Beispiel sei erwähnt, dass der "FM"-Motor ein exzentrisches Element verwendet, welches an einer Drehwelle angebracht ist, die sich in einem zylindrischen Gehäuse befindet. Das exzentrische Element wird angepasst an die Rotation der Drehwelle gedreht, wobei von der Vibrationsquelle 414 eine Vibration erzeugt wird, die entweder an den Rahmen 404 und/oder die Leiterplatte 410 und/oder das Gehäuse 402 und/oder eine beliebige andere Komponente oder anderes Element der Medienvorrichtung 400 gekoppelt wird. Gemäß einem anderen Beispiel setzt der "CM"-Motor eine Ankerspule ein, die exzentrisch angebracht ist. Durch Drehen des Ankers wird eine Vibration erzeugt. Darüber hinaus wird, wenn die Vibrationsquelle ein Solenoid verwendet, der Kern des Solenoids hin und her bewegt, wodurch eine Vibration erzeugt wird.
  • Unabhängig vom eingesetzten physikalischen Element kann die Vibrationsquelle 414 durch die Antriebsschaltung 328 und/oder 418 in Reaktion auf den Prozessor 302 angetrieben werden. Der Elektrizitätsverbrauch durch die Vibrationsquelle 414 kann beträchtlich sein. Entsprechend kann eine Anwendung eingesetzt werden, um für die Aktivierung und/oder Deaktivierung der Vibrationsquelle 414 in Abhängigkeit vom Leistungsbedarf der Medienvorrichtung 400 zu sorgen. Bei bestimmten Ausführungsformen ist die Vibrationsquellen-Antriebsschaltung 328 und/oder 418 so konfiguriert, dass die Vibrationsfrequenz und/oder Stärke der Vibration und/oder Vibrationsperiode gemäß einer oder mehreren vorausgewählten oder vordefinierten Sequenzen und/oder Mustern eingestellt werden.
  • 5 ist eine perspektivische Transparentansicht eines dreidimensionalen Beschleunigungssensors oder Beschleunigungsmessers 502 in einer Medienvorrichtung 500 gemäß einer exemplarischen Ausführungsform der Erfindung. Bei bestimmten Ausführungsformen umfasst der POM-Sensor 416 einen Beschleunigungssensor und/oder Beschleunigungsmesser 502, welcher eine Beschleunigung in drei axiale Richtungen der Medienvorrichtung 500, das heißt in der Oben-Unten-Richtung (Y-Achse), der Links-Rechts-Richtung (X-Achse) und der Vorwärts-Rückwärts-Richtung (Z-Achse), detektiert. Der Beschleunigungssensor ermöglicht die Bestimmung der Neigungen und Bewegungen der Medienvorrichtung 500 in Richtung der X-Achse, der Y-Achse und der Z-Achse. Gemäß einer Ausführungsform werden Beschleunigungsdaten, die durch den Beschleunigungssensor 502 aufgezeichnet wurden, zum Prozessor 302 für die Verarbeitung übertragen, um die Bestimmung der Position, der Ausrichtung und/oder der Bewegung der Medienvorrichtung 500 zu ermöglichen.
  • Gemäß einer Ausführungsform umfasst die Medienvorrichtung 500 einen dreiachsigen oder dreidimensionalen Linearbeschleunigungssensor 502, der die Linearbeschleunigung in jeder der drei Achsialrichtungen, wie in 5 gezeigt, aufzeichnet. Gemäß einer alternativen Ausführungsform wird ein zweiachsiger Linearbeschleunigungsmesser eingesetzt, der die lineare Beschleunigung entlang der X-Achse und der Y-Achse (oder einem anderen Achsenpaar) aufzeichnet. Ein zweiachsiger Sensor kann in Abhängigkeit der Art der Position, der Ausrichtung und der Bewegung, die aufgezeichnet werden sollen und/oder zur Steuerung der Medieneinrichtung 500 verwendet werden, ausreichend sein. Beispielsweise kann der zweiachsige oder dreiachsige Linearbeschleunigungsmesser 502 vom Typ der Firma Analog Devices, Inc. oder vom Typ STMicroelectronics® sein. Der Beschleunigungssensor 502 kann vom Typ der elektrostatischen Kapazität oder vom Kapazitätskopplungstyp sein, der auf der Technologie der mikrobearbeiteten MEMS (mikroelektromechanisches System) auf Siliziumbasis hergestellt ist. Gemäß bestimmter Ausführungsformen können andere Technologien eingesetzt werden, wie beispielsweise (ohne Beschränkung) piezoelektrische oder piezoresistive Sensoren, um dreiachsige oder zweiachsige Beschleunigungsaufzeichnungen zu gewährleisten.
  • Da der Linearbeschleunigungssensor 502 gegebenenfalls nur eine Beschleunigung entlang einer geraden Linie entsprechend jeder Achse des Beschleunigungssensors aufzeichnen kann, kann der Beschleunigungssensor 502 möglicherweise nicht direkt eine Bewegung in Form eines nicht-linearen (beispielsweise kreisförmigen) Pfades, einer Rotation, einer Rotationsbewegung, einer Winkelverschiebung, einer Neigung, einer Position, einer Höhe oder einer anderen physikalischen Größe aufzeichnen. Demgemäß kann bei bestimmten Ausführungsformen durch zusätzliche Bearbeitung der Linearbeschleunigungssignale, die aus dem Beschleunigungsmesser 502 ausgegeben werden, zusätzliche Informationen bezüglich der Position, der Ausrichtung oder der Bewegung der Medienvorrichtung 500 durch eine Anwendung, die auf dem Prozessor 302 läuft, hergeleitet oder berechnet werden.
  • Beispielsweise kann bei der Aufzeichnung einer statischen linearen Beschleunigung (beispielsweise Gravitation) das Linearbeschleunigungs-Output des Beschleunigungssensors 502 verwendet werden, um eine Schräge oder Neigung der Medienvorrichtung 500 bezüglich des Gravitationsvektors herzuleiten oder zu berechnen, indem man die Neigungswinkel mit der aufgezeichneten Linearbeschleunigung korreliert. Somit kann der Beschleunigungssensor 502 in Kombination mit dem Prozessor 302 (oder einem anderen Prozessor) dazu verwendet werden, die Neigung, die Lage oder die Position der Medieneinrichtung 502 zu bestimmen. Gleichzeitig können verschiedene Bewegungen, Bewegungsmuster und/oder Positionen der Medienvorrichtung durch die Verarbeitung der linearen Beschleunigungssignale berechnet oder hergeleitet werden, die durch den Beschleunigungssensor 502 erzeugt werden, wenn die Medienvorrichtung 500 dynamische Beschleunigungen, beispielsweise durch die Hand des Benutzers, erfährt. Bei einer Ausführungsform kann der Bewegungssensor 502 einen integrierten Signalprozessor oder einen anderen reservierten Prozessor enthalten, der eine gewünschte Verarbeitung der Beschleunigungssignale ausgesendet vom Beschleunigungssensor 502 und/oder anderen Beschleunigungsmessern in der Medienvorrichtung 500 vor Ausgabe der Signale an den Prozessor 302 ausführt. Bei bestimmten Ausführungsformen kann der integrierte oder reservierte Prozessor oder die Prozessoren das aufgezeichnete Beschleunigungssignal entsprechend einem Neigungswinkel umwandeln, wenn der Beschleunigungssensor 502 dazu dienen soll, statische Beschleunigung (beispielsweise Gravitation) aufzuzeichnen.
  • 6 ist eine perspektivische Transparentansicht eines Paares zweidimensionaler Beschleunigungsmesser 602 und 604 in einer Medienvorrichtung 600 gemäß einer exemplarischen Ausführungsform der Erfindung. Bei bestimmten Ausführungsformen werden anstelle eines einzelnen dreidimensionalen Beschleunigungsmessers zwei zweidimensionale Beschleunigungsmesser 602 und 604 so zueinander angebracht, dass eine dreidimensionale Abtastung der Position, der Ausrichtung und der Bewegung der Medieneinrichtung 600 ermöglicht wird.
  • 7 ist eine perspektivische Transparentansicht eines Paars dreidimensionaler Beschleunigungsmesser 702 und 704 innerhalb einer Medienvorrichtung 700 gemäß einer exemplarischen Ausführungsform der Erfindung. In bestimmten Ausführungsformen können für verbesserte Erfassungsmöglichkeiten inder Medienvorrichtung 700 zwei oder mehrere dreidimensionale Beschleunigungsmesser eingesetzt werden. Bei anderen Ausführungsformen können eine Anzahl an Beschleunigungsmessern 702 und 704 innerhalb der Medienvorrichtung 700 an einer beliebigen einer Anzahl an Stellen positioniert werden.
  • 8 zeigt eine perspektivische Transparentansicht einer Anzahl an POM-Sensoren 802, 804 und 806 innerhalb der Medienvorrichtung 800 gemäß einer exemplarischen Ausführungsform der Erfindung oder an dieser angebracht. Gemäß einer Ausführungsform kann ein Gyro-Sensor oder ein Gyroskop 802 anstelle eines Beschleunigungssensors 804 oder zusätzlich zu diesem eingesetzt werden. Bei bestimmten Ausführungsformen kann der Gyro-Sensor 802 ein rotierendes oder vibrierendes Element umfassen. Exemplarische MEMS-Gyro-Sensoren, welche in dieser Ausführungsform eingesetzt werden können, sind von Analog Devices, Inc. erhältlich. Anders als der Beschleunigungssensor 804 kann ein Gyro-Sensor 802 direkt Rotation (oder Winkelgeschwindigkeit) um eine Achse detektieren, welche durch das gyroskopische Element (bzw. die Elemente) des Gyro-Sensors 802 definiert ist. Da es fundamentale Unterschiede zwischen einem Gyro-Sensor 802 und einem linearen Beschleunigungssensor 804 gibt (beispielsweise winkelbasierender Ausgang versus vektorbasierender Ausgang), werden verschiedene Verarbeitungsschritte auf den Ausgangssignalen von den verschiedenen Sensorvorrichtungen ausgeführt.
  • Beispielsweise können, wenn eine Neigung oder Schräge unter Einsatz eines Gyro-Sensors 802 anstelle des Beschleunigungssensors berechnet wird, verschiedene Algorithmen und/oder Anwendungen von dem Prozessor 302 eingesetzt werden, um die Position, Ausrichtung und/oder Bewegung der Medienvorrichtung 800 zu bestimmen. Gemäß einer Ausführungsform wird bei Verwendung eines Gyro-Sensors 802 der Wert der Neigung beim Start der Detektierung initialisiert. Dann werden Daten zur Winkelgeschwindigkeit, welche aus dem Gyroskop 802 ausgegeben werden, integriert. Darüber hinaus wird eine Veränderung der Stärke der Neigung vom zuvor initialisierten Neigungswert aus berechnet. In diesem Fall entspricht die berechnete Neigung einem Winkel. Wenn im Gegensatz dazu ein Beschleunigungssensor 804 verwendet wird, kann die Neigung durch Vergleich des Wertes der Gravitationsbeschleunigung jeder axialen Komponente mit einem vorgegebenen Bezug berechnet werden. Dementsprechend kann die berechnete Neigung als Vektor dargestellt werden, und es kann ohne Initialisierung eine absolute Richtung mit einem Beschleunigungsmesser bestimmt werden. Bei bestimmten Ausführungsformen können einer oder mehrere POM-Sensoren eingesetzt werden, um mindestens eine der folgenden Größen zu detektieren: absolute und relative Position, Ausrichtung und Bewegungsinformation.
  • Die Art des berechneten Wertes als Neigung kann sich auch zwischen einem Gyroskop 802 und einem Beschleunigungsmesser 804 unterscheiden. Beispielsweise kann der Wert ein Winkel sein, wenn ein Gyroskop 802 verwendet wird, jedoch ein Vektor, wenn ein Beschleunigungssensor 804 verwendet wird. Dementsprechend können, wenn ein Gyroskop 802 anstelle eines Beschleunigungssensors 804 oder umgekehrt verwendet wird, die Sensordaten bezüglich der Neigung durch eine vorgegebene Konversion verarbeitet werden, welche die fundamentalen Unterschiede zwischen einem Gyro-Sensor 802 und einem Beschleunigungsmesser 804 berücksichtigt. Aufgrund der Tatsache, dass die Natur von Gyroskopen dem Fachmann bekannt ist, sowie auch die fundamentalen Unterschiede zwischen Linearbeschleunigern und Gyroskopen, werden hier keine weiteren Details angegeben. Während Gyro-Sensoren aufgrund ihrer Fähigkeit, Rotation direkt zu detektieren, bestimmte Vorteile bieten, können Linearbeschleunigungssensoren am effektivsten sein, wenn sie in Verbindung mit tragbaren Medienvorrichtungen 800 verwendet werden.
  • Bei bestimmten Ausführungsformen kann die Medienvorrichtung 800 einen Umgebungs- oder POM-Sensor 806 zusätzlich zu einem Beschleunigungsmesser 804 und/oder einem Gyro-Sensor 802 umfassen. Der zusätzliche Sensor 806 kann ein Lichtsensor, ein Infrarotsensor (IR-Sensor), ein Näherungssensor, ein kapazitativer Näherungssensor, ein Akustiksensor, ein Mikrofon, ein Schall- oder Solarsensor, ein Radarsensor, ein Bildsensor, ein Videosensor, ein GPS-Detektor (GPS = Globales Positionierungssystem), ein Hochfrequenzdetektor, ein Hochfrequenz-Triangulierungsdetektor, ein Hochfrequenz- oder akustischer Dopplerdetektor oder andere wie ein Umgebungssensor sein. Gemäß einer Ausführungsform sind bei der Medienvorrichtung 800 eine Anzahl an POM- und Umgebungssensoren 802, 804 und 806 eingesetzt, um die Position, Ausrichtung und/oder Bewegung der Medienvorrichtung 800 zu bestimmen.
  • Wie vorstehend erörtert, besteht eine Notwendigkeit des Bereitstellens einer Benutzerschnittstelle, welche körperliche und/oder visuelle Interaktionen mit der persönlichen Medienvorrichtung minimiert, insbesondere während der Benutzer andere Aktivitäten ausführt, welche beispielsweise die visuellen Sinne des Benutzers in Anspruch nehmen. Gemäß einer Ausführungsform wird dieser Notwendigkeit begegnet, indem eine Medienvorrichtung angegeben wird, welche einen Umgebungs- oder POM-Sensor umfasst, der ein Sensorsignal basierend auf mindestens einer der folgenden Größen generiert: Position, Ausrichtung und Bewegung der Medienvorrichtung. Die Medienvorrichtung umfasst auch einen Prozessor, welcher das Umgebungs- oder POM-Sensorsignal empfängt und eine oder mehrere Tätigkeiten der Medienvorrichtung zumindest teilweise auf den Sensorsignalen basierend steuert. Beispielsweise kann ein Benutzer durch Ausführen einer oder mehrerer definierter oder vorausgewählter Bewegungen der Medienvorrichtung verschiedene Funktionen der Medienvorrichtung steuern.
  • Eine Funktion kann das Durchlaufen einer Liste von Elementen umfassen, welche einer Anwendung zugeordnet sind. Das Durchlaufen kann in beliebigen Inkrementen erfolgen, wenn das Inkrement proportional der Größe der Geschwindigkeit der Positionsveränderung und/oder der Geschwindigkeit der Ausrichtungsänderung und/oder der Bewegungsgeschwindigkeit eines Umgebungssensors der Medienvorrichtung ist. Eine Funktion kann das Starten oder Einleiten einer oder mehrerer Anwendungen und/oder das Stoppen oder Beenden einer oder mehrerer Anwendungen und/oder das Auswählen eines oder mehrerer Elemente oder das Rückgängigmachen der Auswahl, das Verstärken oder Abschwächen einer oder mehrerer Einstellungen und/oder das Bewegungen durch eine Liste von Elementen und/oder das Initiieren oder Beenden einer Kommunikationssitzung und/oder das Abspielen von Musik oder Video und/oder das Unterbrechen von Musik oder Video und/oder das Initiieren oder Beenden einer Audio- oder Videoaufnahmesitzung umfassen. Ein Element kann ein Lied und/oder ein Video und/oder eine Musikdatei und/oder eine Audiodatei und/oder eine Videodatei und/oder eine Fotografie und/oder eine Mediendatei und/oder ein Anwendungsicons und/oder ein Aktivierungsicon und/oder eine Kontrolltaste und/oder eine Datendatei oder Kontaktdaten umfassen.
  • 9 ist ein konzeptionelles Diagramm einer Computerprozessorumgebung 900 umfassend verschiedene Anwendungen oder Routinen, welche in einer Medienvorrichtung gemäß einer exemplarischen Ausführungsform der Erfindung laufen. Die Prozessorumgebung 900 umfasst eine Bewegungsmuster-Erkennungsanwendung 902, eine Bewegungsmuster-Trainingsanwendung 904, eine Vibrationssteuerungsanwendung 906 und eine Audiosteuerungsanwendung 908. Die Prozessorumgebung 900 umfasst auch eine Bewegungsmuster-Datenbasis 910, eine Vibrationsmuster-Datenbasis 912 und eine Audiomuster-Datenbasis 914. In bestimmten Ausführungsformen läuft die Prozessorumgebung 900 auf dem Prozessor 302 und/oder auf einem anderen Prozessor in der Medienvorrichtung, wie zum Beispiel der Medienvorrichtung 100.
  • Beim Betrieb empfängt die Bewegungsmuster-Erkennungsanwendung 902 Sensorsignaleingänge von mindestens einem Umgebungssensor, wie beispielsweise dem Beschleunigungssensor 804 von 8, und vergleicht das empfangene Sensorsignal mit einer Liste bekannter Sensorsignale in der Datenbasis 910, um eine von der Medienvorrichtung auszuführende Funktion zu bestimmen.
  • Gemäß einer Ausführungsform umfasst das Sensorsignal Sensorsignale, die einer Sequenz oder einem Muster von Bewegungen, Positionen und/oder Ausrichtungen der Medienvorrichtung 100 über eine Zeitperiode hinweg zugeordnet sind. Somit erkennt die Anwendung 902 bei bestimmten Ausführungsformen Positions-, Ausrichtungs- und/oder Bewegungsmuster unter Einsatz der Liste von Mustern und/oder der POM-Fingerabdruckinformation in der Datenbasis 910.
  • Die Bewegungsmuster-Erkennungsanwendung 902 kann von einem Benutzer aktiviert werden, indem das Display gehalten wird, ein Icon auf dem Display gedrückt wird, eine Taste auf der Schnittstelle der Medienvorrichtung gedrückt wird und/oder eine Einfassung gedrückt wird, und zwar entweder allein oder in Kombination mit einem bestimmten Bewegungsmuster. Bei bestimmten Ausführungsformen können eine oder mehrere Funktionen der Medienvorrichtung von einem Benutzer initiiert werden, indem das Display gehalten wird, ein Icon auf dem Display gedrückt wird, eine Taste auf der Schnittstelle der Medienvorrichtung gedrückt wird und/oder eine Einfassung berührt wird, und zwar entweder allein oder in Kombination mit einem speziellen bekannten Bewegungsmuster. Dadurch, dass der Benutzer gefordert wird, explizit auf einen Abschnitt der Medienvorrichtung einzuwirken (beispielsweise Berühren des Displays, der Taste, des Icons und/oder der Einfassung), während ein Bewegungsmuster ausgeführt wird, wird die Möglichkeit des unbeabsichtigten Initiierens einer Funktion der Medienvorrichtung minimiert oder eliminiert. Gemäß einer Ausführungsform kann die Anwendung 902 durch eine andere Anwendung, die auf einer Medienvorrichtung läuft, abgerufen oder aktiviert werden.
  • Die Medienvorrichtung kann einen Griffdetektor oder Nähesensor einsetzen, welches es erfasst, wenn sich das Telefon in der Hand eines Benutzers befindet, um Veränderungen der Position, der Ausrichtung und/oder der Bewegung zu ignorieren, welche nicht auf Bewegungen und/oder Positionierungen der Hand des Benutzers basieren, oder um Aktivierung von Bewegungserfassungsanwendungen zu ermöglichen. Gemäß einer Ausführungsform kann der Griffdetektor einen oder mehrere Schalter und/oder Tasten umfassen, um das Vorhandensein von mindestens einem, zwei, drei und vier Fingern zu detektieren.
  • 10 ist ein Diagramm einer Datenbank 1000, die eine oder mehrere Listen umfasst, die Bewegungsmuster Datenelementen einer oder mehrerer Anwendungen innerhalb einer Medienvorrichtung gemäß einer exemplarischen Ausführungsform der Erfindung zuordnen. Gemäß einer Ausführungsform kann ein Element, wie vorstehend erörtert, ein Lied, ein Video und/oder eine Musikdatei und/oder eine Audiodatei und/oder eine Videodatei und/oder eine Photographie und/oder eine Mediendatei und/oder ein Anwendungs-Icon und/oder ein Aktivierungs-Icon und/oder eine Datei und/oder Kontaktdaten umfassen. Die Datenbank 1000, die der Datenbank 910 in bestimmten Ausführungsformen entspricht, kann mehrere Listen 1002, 1004 und 1006 von Elementen 1008 umfassen, wobei jede Liste einer bestimmten Anwendung der Medienvorrichtung 100 zugeordnet ist. Bei bestimmen Ausführungsformen kann ein Element eine Funktion umfassen, die durch eine Anwendung auszuführen ist.
  • In einer Ausführungsform werden beim Betrieb Elemente 1 bis N zugeordnet. Somit kann, wenn die Anwendung 1002 läuft und die Bewegungsmuster-Erkennungsanwendung oder -Routine 902 läuft, die Anwendung 902 ständig empfangene Sensorsignale mit der Liste der Bewegungsmuster, die der Anwendung 1002 zugeordnet sind, vergleichen, um zu bestimmen, wann eines der Elemente auszuwählen ist. Beispielsweise kann der Benutzer, während die Telefonanwendung der Medienvorrichtung läuft, die Medienvorrichtung in einer bekannten Abfolge oder einem bekannten Muster bewegen, um ein Handygespräch zu einer einer bestimmten Kontaktadresse aufzubauen. Durch Überwachung der Sensorsignaleingaben von den Umgebungs- oder POM-Sensoren erkennt die Anwendung 902 das empfangene Sensorsignal als beispielsweise mit Bewegungsmuster 1, das dem Element 1 zugeordnet ist, verbunden. Element 1 kann beispielsweise die Telefonnummer der bestimmten Kontaktadresse umfassen. Durch Auswählen des Elements 1 während der Telefonanwendung initiiert die Telefonanwendung ein Gespräch mit dem bestimmten Kontakt. Das Eingeben, Einüben und/oder Speichern bekannter Bewegungsmuster wird nachstehend detaillierter mit bezug auf 17 erörtert.
  • 11 zeigt einen exemplarischen Prozess mittels dessen ein Benutzer durch eine Liste 1102 von Punkten wandert, die durch eine Anwendung auf einer Medienvorrichtung 1100 angezeigt werden, indem er seine Hand 1104 oder den Handrücken gemäß einer exemplarischen Ausführungsform der Erfindung dreht und/oder schwenkt.
  • Beim Betrieb dreht sich die Medienvorrichtung 100 in die Richtung 1106, wenn der Benutzer seine Hand 1104 dreht. Dies löst ein Sensorsignal aus, welches von einer Anwendung empfangen wird, die dann die Bewegung oder Verschiebung der angezeigten Liste oder des Display-Fensters an Punkten in Richtung 1108 auf dem Display 1110 initiiert. Da jeder Punkt 1112 ein Element sein kann, arbeitet der Benutzer durch wiederholtes Schwenken oder Drehen seiner Hand 1104 und anschließendes Zurückkehren zu dieser in die Ausgangsposition die Liste der Elemente ab, die durch die Anwendung dargestellt werden. Gemäß einer Ausführungsform erfolgt das Abarbeiten in einem Inkrement, das proportional zur Intensität mindestens einer der Geschwindigkeitsänderungen der Position und/oder der Ausrichtung und/oder der Bewegung oder Schwenkbewegung eines Benutzers wie von zumindest einem Umgebungssensor der Medieneinrichtung 1100 erfasst. Dementsprechend erkennt bei bestimmten Ausführungsformen die Bewegungsmuster-Erkennungsanwendung 902 Änderungen der Position, der Ausrichtung und Bewegung mit verschienen Geschwindigkeiten zu verschiedenen Bewegungsmustern, welche unterschiedlichen Elementen und/oder Zuständen zugeordnet werden können. Dementsprechend kann der Benutzer die Bewegungsgeschwindigkeit durch die Liste erhöhen, indem er seine Hand oder seinen Handrücken schneller bewegt.
  • 12 zeigt die verschiedenen Dimensionen von Position, Ausrichtung und Bewegung einer Medienvorrichtung 1200, welche gemäß einer exemplarischen Ausführungsform der Erfindung detektiert, identifiziert und/oder aufgezeichnet werden können. Wie in 12 veranschaulicht, kann ein Benutzer der Medienvorrichtung 100, da der mindestens eine Umgebungssensor der Medienvorrichtung 1200 die Position, die Ausrichtung und die Bewegung in beliebiger Richtung erfassen kann, einen unbegrenzten Satz an Bewegungsmustern erzeugen, welche durch die Bewegungsmuster-Erkennungsanwendung 902 der Medienvorrichtung 1200 erfasst, aufgezeichnet und identifiziert werden können.
  • 13 zeigt eine exemplarische Bewegungsabfolge oder ein Bewegungsmuster, das für die Steuerung der Medienvorrichtung 1300 gemäß einer exemplarischen Ausführungsform der Erfindung eingesetzt wird. Bei dieser exemplarischen Bewegung bewegt der Benutzer die Medienvorrichtung 1300 in Kreisrichtung, wie durch den Pfad 1302 angezeigt ist. Jedoch ist dies nur ein Beispiel einer unbegrenzten Anzahl an Bewegungsmustern, welche ein Benutzer ausführen kann, während er die Medienvorrichtung 1300 hält. Beispielsweise kann die Medienvorrichtung 1300 ohne Begrenzung vor und zurück, auf und ab und von einer Seite zur anderen geschüttelt werden, in verschieden Schleifenmustern bewegt werden, gekippt, umgedreht, gedreht, geneigt, geschwungen, gewiegt, gewirbelt und/oder in jede Sequenz eines dreidimensionalen Raumes von einem Beutzer bewegt werden. Ein Benutzer kann ein Bewegungsmuster verwenden wollen, das eine andere Aktivität oder Tätigkeit nachahmt, beispielsweise einen Baseball-Schwung, einen Golfschwung, einen Hockey-Slapshot oder jegliche andere bekannte Tätigkeit oder Bewegungsäußerung. Die Zeitperiode des Erfassens und/oder Eingebens eines Bewegungsmusters kann einstellbar sein und/oder basierend auf Benutzerauswahl und/oder Anwendungsauswahl variieren. Darüber hinaus kann eine Anwendung ihre Mustererkennungsperiode in Abhängigkeit davon, welche Subroutine oder Programmfunktion läuft, einstellen. Beispielsweise kann eine Kontaktlistenanwendung eine relativ kurze Mustererkennungsperiode aufweisen, um es einem Benutzer zu ermöglichen, schnell eine Kontaktliste zu überfliegen, indem der Benutzer seinen Handrücken schwenkt. Eine solche Tätigkeit wird nur eine bis zwei Sekunden dauern. Um jedoch einen Anruf eines Freundes zu initiieren, kann die Mustererkennungsperiode auf etwa drei bis fünf Sekunden eingestellt werden, um des dem Benutzer zu ermöglichen, beispielsweise einen Golfschwung nachzuahmen, um einen Anruf auf eine bestimmte Telefonnummer zu initiieren.
  • Bei bestimmten Ausführungsformen sorgt die Anwendung 902 für Hintergrundveränderungen entweder physikalischer oder algorithmischer Art bezüglich der Position, der Ausrichtung und der Bewegung, indem die Umgebung über mindestens einen POM-Sensor entweder vor oder nach Ausführung eines Bewegungsmusters durch den Benutzer abgetastet wird. Befindet sich beispielsweise der Benutzer im Zug, kann die Anwendung die Geschwindigkeit des Zuges detektieren und diese Hintergrundgeschwindigkeit beim Detektieren eines Bewegungsmusters berücksichtigen. Bei anderen Ausführungsformen umfassen Bewegungsmuster Informationen, denen Umgebungsbedingungen zugeordnet sind, wie beispielsweise Lagebestimmung, Gravitation, Magnetfeld, Navigationsinformationen, Drehmoment und Geschwindigkeit. Durch Aufnahme zusätzlicher orthogonaler Vektoren der Position, Ausrichtung und Bewegungsinformationen wird die Selektivität der Mustererkennung vorteilhaft beeinflusst. Gemäß einer Ausführungsform umfasst die Medienvorrichtung eine Kamera, die optische und/oder graphische Messungen der Umgebung der Medienvorrichtung vornimmt. Bei bestimmten Ausführungsformen setzt die Medienvorrichtung ein Niveaueinstellungsverfahren ein, um Objekte im Raum zu analysieren, die zusammen mit anderen POM-Sensoren verwendet werden können, um die Bestimmung der Position, Ausrichtung und/oder Bewegung der Medienvorrichtung zu verbessern.
  • 14 ist ein Flussdiagramm eines Prozesses 1400 für die Einwirkung auf und/oder das Steuern einer Anwendung, die auf einer Medienvorrichtung gemäß einer exemplarischen Ausführungsform der Erfindung laufen. Bei bestimmten Ausführungsformen ermöglicht es die Benutzerschnittstelle einer Medienvorrichtung, wie beispielsweise der Medienvorrichtung 100, dem Benutzer, eine oder mehrere Bewegungssteuerungs- oder Schnittstellenanwendungen wie zumindest eine der Anwendungen 902, 904, 906 und 908 von 9 zu aktivieren oder zu deaktivieren. Bei anderen Ausführungsformen können eine oder mehrere Anwendungen eine Option oder Programmfunktion enthalten, die dem Benutzer erlaubt, eine beliebige Anwendung 902 bis 908 für diese Anwendung oder eine Programmfunktion zu aktivieren [Schritt 1402]. Sobald beispielsweise die Anwendung 902 aktiviert ist, führt der Benutzer ein Bewegungsmuster aus (beispielsweise Auf- und Abschütteln der Medienvorrichtung), um eine gewünschte Anwendung (beispielsweise die Nutzung des Handys) zu aktivieren [Schritt 1404]. Anschließend betrachtet der Benutzer das Display und/oder erfühlt ein bekanntes Vibrationsmuster oder hört ein bekanntes Audiomuster zur Bestätigung der Aktivierung oder des Startens der Telefonanwendung [Schritt 1406]. Die Telefonanwendung kann, sobald sie aktiviert ist, eine Liste von Kontaktadressen und/oder vorprogrammierten Telefonnummern angeben, die der Benutzer anrufen kann. Der Benutzer kann dann ein anderes Bewegungsmuster ausführen (beispielsweise Kippen der Medienvorrichtung nach oben oder unten), um die Liste der Kontaktadressen zu durchlaufen [Schritt 1408]. Wenn eine gewünschte Kontaktadresse in der Liste markiert und/oder bestimmt ist, kann der Benutzer das Display betrachten, ein bekanntes Vibrationsmuster erfühlen, das der Kontaktadresse zugeordnet ist und/oder ein bekanntes Audiomuster hören, das der Kontaktadresse zugeordnet ist, oder eine beliebige Kombination der vorstehenden Möglichkeiten [Schritt 1410]. Sobald die Kontaktadresse markiert und/oder identifiziert ist, kann der Benutzer ein weiteres Bewegungsmuster ausführen (beispielsweise Hin- und Herschütteln), um einen Anruf der Kontaktperson zu identifizieren [Schritt 1412]. Bestimmte Aspekte von Benutzerschnittstellenfunktionen und Navigation mittels der Medienvorrichtung sind ebenfalls in der US-Patentanmeldung Nr. 11/295,694, eingereicht am 5. Dezember 2005, beschrieben, wobei der gesamte Inhalt derselben hier durch Bezugnahme aufgenommen sein soll. Wie in 14 veranschaulicht, kann ein Benutzer bei bestimmten Ausführungsformen durch die Menüs und Anwendungsfunktionen navigieren, welche von einer Benutzerschnittstelle einer Medienvorrichtung vorgegeben werden, und zwar unter Verwendung von Bewegungsmustern und durch den Empfang von bewegungs- und/oder audiobasierter Rückkopplung, ohne hierbei eine Ansicht der Schnittstelle zu benötigen.
  • 15 ist ein Diagramm einer Datenbank oder Liste 1500, die Vibrationsmuster Datenelementen einer oder mehrerer Anwendungen innerhalb einer Medienvorrichtung zuordnet. Gemäß einer Ausführungsform kann ein Element, wie vorstehend erörtert, ein Lied und/oder Video und/oder eine Musikdatei und/oder eine Audiodatei und/oder eine Videodatei und/oder eine Photographie und/oder eine Mediendatei und/oder ein Anwendungs-Icon und/oder ein Aktivierungs-Icon und/oder eine Steuertaste und/oder eine Datei und/oder Kontaktdaten umfassen. Die Datenbank 1500, die in bestimmten Ausführungsformen der Datenbank 912 entspricht, kann mehrere Listen 1502, 1504 und 1506 an Elementen 1508 umfassen, wobei jede Liste einer bestimmten Anwendung einer Medienvorrichtung, wie beispielsweise der Medienvorrichtung 100 aus 1, zugeordnet ist. Bei bestimmten Ausführungsformen kann ein Element eine Funktion beinhalten, die von einer Anwendung auszuführen ist. Somit ruft die Vibrationssteuerungsanwendung 906, wenn der Benutzer eine bestimmte Kontaktadresse aus einer Liste, die beispielsweise Element 1 der Liste 1502 entspricht, auswählt, das Vibrationsmuster 1 von Datenbank 1500 ab und verwendet das Vibrationsmuster 1, um den Vibrationsquellenantrieb 328 zu steuern, der dann eine Vibrationsquelle antreibt, beispielsweise die Vibrationsquelle 414, was zu einer Vibration der Medienvorrichtung gemäß dem bekannten Vibrationsmuster 1 führt. Das bekannte Vibrationsmuster 1 wird dann vom Benutzer der Medienvorrichtung erfühlt und als der gewünschten Kontaktadresse oder dem Element zugeordnet erkannt.
  • Gemäß einer Ausführungsform sind die Elemente 1 bis N Vibrationsmustern 1 bis N zugeordnet. Somit steuert, wenn die Anwendung 1502 läuft und die Vibrationsmuster-Erkennungsanwendung oder -routine 906 läuft, die Anwendung 906, die Vibrationsquelle 414, um ein Vibrationsmuster zu erzeugen, wenn ein bestimmtes Element ausgewählt wird.
  • 16 ist ein Diagramm einer Datenbank 1600 oder einer Liste, die Audiomuster Datenelementen einer Anwendung innerhalb einer Medienvorrichtung gemäß einer exemplarischen Ausführungsform der Erfindung zuordnet. Gemäß einer Ausführungsform kann, wie vorstehend erörtert, ein Element ein Lied und/oder ein Video und/oder eine Musikdatei und/oder eine Audiodatei und/oder eine Videodatei und/oder eine Photographie und/oder eine Mediendatei und/oder ein Anwendungs-Icon und/oder ein Aktivierungs-Icon und/oder eine Steuertaste und/oder Datei und/oder Kontaktdaten umfassen. Die Datenbank 600, die der Datenbank 914 aus 9 in bestimmten Ausführungsformen entspricht, kann mehrere Listen 1602, 1604 und 1606 von Elementen 1608 umfassen, wobei jede Liste einer besonderen Anwendung einer Medienvorrichtung wie der Medienvorrichtung 100 aus 1 zugeordnet ist. Bei bestimmten Ausführungsformen kann ein Element eine Funktion, die von einer Anwendung auszuführen ist, umfassen. Somit ruft, wenn der Benutzer eine bestimmte Kontaktadresse in einer Liste auswählt, welcher beispielsweise dem Element 1 der Liste 1602 entspricht, die Audiosteuerungsanwendung 908 das Audiomuster 1 von der Datenbank 1600 ab und verwendet das Audiomuster 1, um einen Lautsprecher, beispielsweise den Lautsprecher 324, zu steuern, was dazu führt, dass eine Audiosequenz in einem bekannten Audiomuster von der Medienvorrichtung ausgegeben wird. Das bekannte Audiomuster wird dann vom Benutzer der Medienvorrichtung gehört und als der gewünschten Kontaktadresse zugeordnet erkannt.
  • Gemäß einer Ausführungsform sind die Elemente 1 bis N Audiomustern 1 bis N zugeordnet. Somit steuert, wenn die Anwendung 1602 läuft und die Audiosteuerungsanwendung oder -routine 908 läuft, die Anwendung 908 den Ausgang des Lautsprechers 324, um ein Audiomuster zu initiieren, wenn ein bestimmtes Element ausgesucht wird. Das Audiomuster kann ohne Einschränkung einen Abschnitt eines Lieds, einen Abschnitt einer Aufnahme, einen Abschnitt einer Audiodatei, eine Tonabfolge, eine Abfolge von Klingeltönen und/oder eine Kombination der vorgenannten Audioausgänge umfassen.
  • 17 ist ein Flussdiagramm eines Prozesses 1700 zur Eingabe und Identifizierung von Bewegungsmustern auf einem oder mehreren Mustererkennungsalgorithmen gemäß einer exemplarischen Ausführungsform der Erfindung. Bei bestimmten Ausführungsformen setzen die Mustererkennungs-Anwendung 902 und die Bewegungsmuster-Trainingsanwendung 904 einen oder mehrere Mustererkennungsalgorithmen und/oder -techniken ein, um verschiedene Bewegungsmuster einer Medienvorrichtung zu identifizieren. Zunächst wird die Medienvorrichtung 100 einem dreidimensionalen physikalischen Umfeld ausgesetzt, in dem die Vorrichtung verschiedenen Änderungen der Position, der Ausrichtung und der Bewegung erfährt [Schritt 1702]. Die Medienvorrichtung 100 setzt einen oder mehrere POM-Sensoren ein, um Veränderungen der Position, der Ausrichtung und der Bewegung zu messen. Bei bestimmten Ausführungsformen sind die Anwendungen 902 und 904 zuständig für die Bandbreite, Auflösung, Sensitivität, Verzerrung, Signal-Rausch-Verhältnis, Latenzzeit und andere Bereiche in Zusammenhang mit Datenerfassung unter Einsatz mindestens eines POM-Sensors [Schritt 1704].
  • Die Anwendungen 902 und 904 können eine Vorverarbeitung der Sensorsignale ausführen, um Rauschen zu entfernen und/oder interessante Muster von Hintergrundinformationen abzuheben [Schritte 1706 und 1720]. Dann können die Anwendungen 902 und 904 eine Merkmalsabfrage ausführen, indem neue Darstellungen in bezug auf identifizierte Merkmale von Sensorsignalen gefunden werden [Schritte 1708 und 1722]. Besondere Merkmale der Sensorsignale können relevanter für Musteridentifikation erkannt werden [Schritte 1712 und 1724]. Die Merkmalsauswahl kann die Identifikation zu unterscheidender Merkmale der Sensorsignale wie ähnlicher Werte für ähnliche Muster oder verschiedener Werte für verschiedene Muster umfassen. Weiter kann die Identifikation invarianter Merkmale, beispielsweise in bezug auf Translationsbewegung, Rotationsbewegung und/oder Größenordnung von Sensorsignalen umfassen. Die Merkmalsauswahl kann die Identifikation verschleißfester Merkmale bezüglich auf Einschluss, Verzerrung, Verformung und unterschiedliche Umgebung umfassen.
  • Die Trainingsanwendung 904 kann Trainingsdaten in Form einer Benutzereingabe [Schritt 1718] aufnehmen. Gemäß einer Ausführungsform kann eine Anwendung eine Option zur Verfügung stellen, welche einem Element zugeordnet ist, welches es dem Benutzer ermöglicht, ein Bewegungsmuster in die Datenbank 910 und/oder 100, die dem Element zugeordnet ist, einzugeben. Gemäß einer anderen Ausführungsform wird der Benutzer angewiesen, die Bewegung einmal, zweimal, dreimal oder mehrmals als Teil eines Trainingsprozesses für die Bewegungsmuster-Trainingsanwendung 104 auszuführen. Gemäß anderen Ausführungsformen kann dem Benutzer nach einer bestimmten Bewegung die Option freistehen anzuzeigen, dass diese einem speziellen Element zugeordnet ist. Dies kann von Vorteil sein, wenn die Medienvorrichtung das falsche Element auswählt, da der Benutzer die Möglichkeit hat, das beabsichtigte Element zu identifizieren, welches dann zu weiteren Trainingsdaten genutzt werden kann.
  • Nach Vorverarbeitung, Merkmalsabfrage und Merkmalsauswahl kann die Anwendung 904 modellhaftes Lernen und Einschätzung auszuführen, wodurch die Anwendung 904 lernt, zwischen Merkmalen und Mustergruppen als auch Kategorien von Sensorsignalen zu unterscheiden [Schritt 1726]. Die Anwendung 904 kann ein Mustererkennungsmodell auswählen, welches parametrisch oder nicht parametrisch ist. Die Anwendung 904 kann einen Modelltyp auswählen, welcher Vorlagen, entscheidungstheoretische oder statistische, syntaktische oder strukturelle, neurale und hybridartige Mustererkennungsanalysen umfasst [Schritt 1728].
  • Sobald ein bestimmtes Modell ausgewählt wird, führt die Bewegungsmuster-Erkennungsanwendung 902 eine Klassifizierung und/oder eine Abstimmung des empfangenen Sensorsignals unter Verwendung von Merkmalen und erlernten Modellen aus der Bewegungsmuster-Trainingsanwendung 904 aus, um das empfangene Bewegungsmuster einer Kategorie von Mustern zuzuordnen. Die Anwendung 902 kann dann das empfangene Sensorsignal mit den gesamten Bewegungsmustern in der Datenbank 1000 vergleichen, um die größtmögliche Übereinstimmung zwischen dem empfangenen Sensorsignal und der gespeicherten Gruppierung bekannter Bewegungsmuster herauszufinden [Schritt 1712]. Die Anwendung 902 kann eine Nachbehandlung ausführen, indem sie ihr Vertrauen in die Entscheidung auswertet [Schritt 1714]. Die Anwendung 902 kann dann entscheiden, welches bekannte Muster der Datenbank 1000 dem empfangenen Sensorsignal entspricht.
  • Bei bestimmten Ausführungsformen können die Merkmale der bekannten Bewegungsmuster beschränkt werden, um Kosten an Verarbeitungsleistung und Speicher zu sparen. Dementsprechend kann die Selektivität der Identifikation eines bestimmten Musters in Abhängigkeit von der Anzahl von Punkten oder Merkmalen variieren, die für jedes bekannte Bewegungsmuster gespeichert oder verwendet werden. Bei einer anderen Ausführungsform kann das bekannte Bewegungsmuster zuvor erzeugt und durch den Hersteller oder eine andere Einheit in der Medienvorrichtung gespeichert werden.
  • Die Bewegungsmustererkennungsanwendung 902 kann eine Mustererkennung basierend auf der Entscheidungstheorie von Bayes, generativen Vefahren, entscheidungstechnischen, nicht metrischen Verfahren, algorithmusunabhängigem maschinellem Lernen, freiem Lernen, Clusterbildung und ähnlichen Techniken ausführen. Die Bayes-Entscheidungstechniken können uneingeschränkt mindestens eine Bayes-Entscheidungsregel beinhalten, nämlich minimale Fehlerratenklassifizierung, normale Dichte und Diskriminanzfunktionen, Fehlerintegrale und Fehlerschranken, Bayesche Netzwerke und Verbundentscheidungstheorie. Die generativen Methoden können uneingeschränkt mindestens eines der folgenden Verfahren umfassen: maximale Wahrscheinlichkeitsabschätzung und Bayesche Parameterabschätzung, unabhängige Statistik, verschiedene allgemeine statistische Verteilungen, Dimensionalität und Berechnungskomplexität, Hauptkomponentenanalyse, lineares Diskriminantenverfahren nach Fisher, Erwartungsmaximierung, sequentielle Daten, verborgene Markov-Modelle und nichtparametrische Techniken, einschließlich Dichteabschätzung. Die diskriminativen Verfahren können, ohne Begrenzung, distanzbasierte Verfahren, Klassifikation nächster Nachbarn, Metrik und Tangentendistanz, Fuzzy-Klassifizierung, lineare Diskriminantenfunktionen (Hyperebenengeometrie, Gradientenabsteigung und -wahrnehmungen, Fehlerverfahren der minimalen Quadrate und Stützvektormaschinen) und artifizielle neurale Netzwerke umfassen. Die nichtmetrischen Verfahren können, ohne Beschränkung, die Erkennung mit Hilfe von Strings und Stringübereinstimmung umfassen. Die algorithmusunabhängigen Maschinenlernverfahren können, ohne Begrenzung, das nichtfreie Lunchtheorem, Vorspannung und Varianz, das Neuerfassen für die Abschätzung, Bauschen und Verstärken, Abschätzung von Falschklassifizierung und Klassifikationskombinationen umfassen.
  • Bei bestimmten Ausführungsformen kann eine entfernte Vorrichtung, welche in Kommunikationsverbindung mit der Medienvorrichtung steht, einen oder mehrere POM-Sensoren umfassen. Die entfernte Vorrichtung kann POM-Information zur Medienvorrichtung übertragen, um die Steuerung der Medienvorrichtung zu erleichtern. Beispielsweise kann die entfernte Vorrichtung ein Drahtlos-Kopfhörer oder ein Drahtlos-Ohrstück sein. Die Medienvorrichtung kann eine Anwendung umfassen, welche eine Eingabe in Form von „Ja" oder „Nein" erfordert. Durch Kopfnicken (was „Ja" bedeutet) bewirkt der Benutzer, dass sich die Position der Ohrstücke und ihre Ausrichtung verändern. Diese Veränderung im POM wird dann drahtlos vom Ohrstück zur Medienvorrichtung übertragen, welche dann das Sensorsignal mit ihrer bekannten Datenbasis von Bewegungsmustern vergleicht, um zu bestimmen, dass der Benutzer „Ja" genickt hat. Wenn der Benutzer seinen Kopf schüttelt (was „Nein" bedeutet), würde die Medienvorrichtung sein Kopfschütteln detektieren. Jede geeignete drahtlose Vorrichtung, welche mit der Medienvorrichtung wechselwirkt, kann diese Fähigkeit umfassen. Die Vorrichtung kann einen beliebigen Drahtlosstandard oder eine Schnittstelle unterstützen, wie beispielsweise, ohne Begrenzung, CDMA, GSM, Bluetooth, wi-fi, 802.x, TDMA und ähnliche öffentliche oder private Drahtlosprotokolle.
  • Die Medienvorrichtung kann bewegungsbasierte Steuerung und Schnittstellenbildung für zahlreiche Anwendungen unterstützen, einschließlich, ohne Begrenzung, E-Mail, Texterstellung, Wortverarbeitung, Schnittstellennavigation, Datensuche, Internetsurfen, Datenbasismanagement, Fernsteuerungssysteme, Multimediaanwendungen oder eine beliebige Anwendung, die mit der Medienvorrichtung arbeitet.
  • Für den Fachmann ist es offensichtlich, dass die Verfahren im Zusammenhang mit der vorliegenden Erfindung in einem Computerprogrammprodukt verkörpert sein können, welches ein computerbenutzbares und/oder -lesbares Medium umfasst. Beispielsweise kann ein solches computerbenutzbare Medium eine Festwertspeichervorrichtung, beispielsweise eine CD-ROM-Diskette oder herkömmliche ROM-Vorrichtungen, oder einen Schreib/Lese-Speicher, wie beispielsweise eine Festplatten-Laufwerksvorrichtung oder eine Computerdiskette, oder eine Flashspeichervorrichtung umfassen, auf welcher ein computerlesbarer Programmcode gespeichert ist.
  • Es ist anzumerken, dass die verschiedenen Merkmale, Elemente oder Verfahren der vorstehenden Figuren und Beschreibung austauschbar oder kombinierbar sind, um die hierin beschriebene Erfindung zu verwirklichen oder auszuführen. Der Fachmann wird erkennen, dass die Erfindung auch durch andere als die beschriebenen Ausführungsformen verkörpert werden kann, welche eher zum Zwecke der Veranschaulichung als zur Beschränkung gegeben sind, und, die Erfindung ist nur durch die folgenden Ansprüche beschränkt.

Claims (25)

  1. Medienvorrichtung, aufweisend: einen Sensor zum Erzeugen eines Sensorsignals basierend auf einer Position und/oder Ausrichtung und/oder Bewegung der Medienvorrichtung, einen Datenspeicher, umfassend eine Anzahl an bekannten Bewegungsmustern, wobei jedes Bewegungsmuster einer Funktion der Medienvorrichtung zugeordnet ist, und einen Prozessor zum Empfangen des Sensorsignals und Steuern einer oder mehrerer Funktionen der Medienvorrichtung basierend zumindest teilweise auf dem Sensorsignal und der Anzahl der bekannten Bewegungsmuster.
  2. Vorrichtung nach Anspruch 1, wobei das Steuern das Vergleichen des Sensorsignals mit einem oder mehreren der bekannten Bewegungsmuster umfasst, um die zugeordnete Funktion der Medienvorrichtung zu bestimmen.
  3. Vorrichtung nach Anspruch 2, wobei das Vergleichen den Einsatz eines Mustererkennungsalgorithmus umfasst.
  4. Vorrichtung nach Anspruch 3, wobei der Mustererkennungsalgorithmus ein statistisches Modell umfasst.
  5. Vorrichtung nach Anspruch 1, wobei die Funktion das Gehen durch eine Liste von Elementen umfasst, welche einer Anwendung zugeordnet sind.
  6. Vorrichtung nach Anspruch 5, wobei das Gehen inkrementweise erfolgt, wobei das Inkrement proportional zur Größe einer Positionsveränderungsgeschwindigkeit und/oder einer Ausrichtungsänderungsgeschwindigkeit und/oder einer Bewegungsgeschwindigkeit ist.
  7. Vorrichtung nach Anspruch 1, wobei eine Funktion mindestens eines der folgenden Elemente umfasst: Starten oder Initiieren einer oder mehrerer Anwendungen, Stoppen oder Beenden einer oder mehrerer Anwendungen, Auswählen eines oder mehrerer Elemente oder Rückgängigmachen der Auswahl, Verstärken oder Abschwächen einer oder mehrerer Einstellungen, Bewegung durch eine Liste von Elementen, Initiieren oder Beenden einer Kommunikationssitzung, Abspielen von Musik oder Video, Unterbrechen von Musik oder Video und Initiieren oder Beenden einer Audio- oder Videoaufzeichnungssitzung.
  8. Vorrichtung nach Anspruch 7, wobei das Element mindestens eines der folgenden Elemente umfasst: ein Lied, ein Video, eine Musikdatei, eine Audiodatei, eine Videodatei, eine Fotografie, eine Mediendatei, ein Anwendungsicon, ein Aktivierungsicon, eine Kontrolltaste, eine Datei und Kontaktdaten.
  9. Vorrichtung nach Anspruch 1, wobei der Sensor mindestens einen Beschleunigungsmesser umfasst.
  10. Vorrichtung nach Anspruch 1, wobei der Sensor eines oder mehrere der folgenden Elemente umfasst: Beschleunigungsmesser, Gyroskop, Kompass, IR-Detektor, Sonardetektor, Höhenmesser, Magnetfelddetektor, Radiofrequenzdetektor, GPS, Lichtsensor und Dopplerdetektor.
  11. Vorrichtung nach Anspruch 1, wobei das Erzeugen eines Sensorsignals auf dem Erfassen einer Sequenz der Position und/oder Ausrichtung und/oder Bewegung der Medienvorrichtung über eine Zeitperiode basiert.
  12. Vorrichtung nach Anspruch 1, aufweisend eine Aktivierungsschnittstelle zum Aufnehmen einer Benutzereingabe, um die Steuerung der Funktion der Medienvorrichtung basierend zumindest teilweise auf dem Sensorsignal zu ermöglichen oder zu hemmen.
  13. Vorrichtung nach Anspruch 1, wobei die Medienvorrichtung mindestens eines der folgenden Elemente umfasst: ein Handy, eine Drahtlos-Kommunikationsvorrichtung, ein Medienabspielgerät, ein MP3-Abspielgerät, ein Videoabspielgerät, einen PDA und einen tragbaren Computer.
  14. Vorrichtung nach Anspruch 1, aufweisend eine Vibrationsquelle zum Erzeugen eines oder mehrerer Vibrationsmuster.
  15. Vorrichtung nach Anspruch 14, aufweisend einen Datenspeicher für ein oder mehrere Vibrationsmuster, wobei jedes Vibrationsmuster mindestens einem Element einer Anwendung der Medienvorrichtung zugeordnet ist.
  16. Vorrichtung nach Anspruch 15, wobei das Erzeugen eines Vibrationsmusters bei Auswahl eines Elements erfolgt.
  17. Vorrichtung nach Anspruch 1, aufweisend eine Audioquelle zum Erzeugen eines oder mehrerer Audiomuster.
  18. Vorrichtung nach Anspruch 17, aufweisend einen Datenspeicher für ein oder mehrere Audiomuster, wobei jedes Audiomuster mindestens einem Element einer Anwendung der Medienvorrichtung zugeordnet ist.
  19. Vorrichtung nach Anspruch 18, wobei das Erzeugen eines Audiomusters beim Auswahlen eines Elements auftritt.
  20. Vorrichtung nach Anspruch 1, aufweisend eine Eingabeschnittstelle zum Empfangen des Sensorsignals und Speichern eines bekannten Bewegungsmusters, das dem Sensorsignal zugeordnet ist.
  21. Medienvorrichtung, aufweisend: eine Vibrationsquelle zum Erzeugen einer Anzahl an Vibrationssignalen, wobei jedes Vibrationssignal einem bekannten Vibrationsmuster zugeordnet ist, einen Datenspeicher, umfassend eine Anzahl an bekannten Vibrationsmustern, wobei jedes Vibrationsmuster einer Funktion der Medienvorrichtung zugeordnet ist, und einen Prozessor zum i) Bestimmen einer Funktion der Medienvorrichtung, ii) Identifizieren eines Vibrationsmusters, das der Funktion der Medienvorrichtung zugeordnet ist, und iii) Steuern der Vibrationsquelle zum Erzeugen eines Vibrationssignals, das dem Vibrationsmuster zugeordnet ist.
  22. Medienvorrichtung, aufweisend: eine Vibrationsquelle zum Erzeugen einer Anzahl an Vibrationssignalen, wobei jedes Vibrationssignal einem bekannten Vibrationsmuster zugeordnet ist, eine Audioquelle zum Erzeugen einer Anzahl an Audiosignalen, wobei jedes Audiosignal einem bekannten Audiomuster zugeordnet ist, einen Datenspeicher, umfassend eine Anzahl an kombinierten Vibrations- und Audiomustern, wobei jedes kombinierte Vibrations- und Audiomuster einer Funktion der Medienvorrichtung zugeordnet ist, und einen Prozessor zum i) Bestimmen einer Funktion der Medienvorrichtung, ii) Identifizieren eines kombinierten Vibrations- und Audiomusters, das der Funktion der Medienvorrichtung zugeordnet ist, und iii) Steuern der Vibrationsquelle und der Audioquelle zum Erzeugen eines Vibrationssignals und eines Audiosignals, die dem kombinierten Vibrations- und Audiomuster zugeordnet sind.
  23. Medienvorrichtung, aufweisend: einen Sende-Empfänger zum Senden und Empfangen von Benutzerkommunikationen, einen Bewegungsmustersensor zum Erfassen eines Bewegungsmusters basierend auf einer Sequenz von Veränderungen der Position und/oder Ausrichtung und/oder Bewegung der Medienvorrichtung, und eine Mustererkennungseinheit zum Empfangen und Identifizieren des Bewegungsmusters.
  24. Vorrichtung nach Anspruch 22, wobei das Identifizieren zumindest teilweise auf einem statistischen Modell basiert.
  25. Medienvorrichtung, aufweisend: einen Bewegungsmustersensor zum Erfassen eines Bewegungsmusters basierend auf der Position und/oder Ausrichtung und/oder Bewegung der Medienvorrichtung, eine Mustererkennungseinheit zum Empfangen und Identifizieren des Bewegungsmusters, und eine Kommunikationsanwendung zum i) Bereitstellen benutzerbasierender Kommunikationen zur Medienvorrichtung und von dieser und ii) als Antwort auf das identifizierte Bewegungsmuster Navigieren durch eine Kontaktliste von Einheiten, die dem Benutzer zugeordnet sind.
DE102008049653A 2007-10-01 2008-09-30 Bewegungsbasierte Schnittstellen für persönliche Medienvorrichtung Pending DE102008049653A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/906,197 2007-10-01
US11/906,197 US8942764B2 (en) 2007-10-01 2007-10-01 Personal media device controlled via user initiated movements utilizing movement based interfaces

Publications (1)

Publication Number Publication Date
DE102008049653A1 true DE102008049653A1 (de) 2009-06-10

Family

ID=40508993

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008049653A Pending DE102008049653A1 (de) 2007-10-01 2008-09-30 Bewegungsbasierte Schnittstellen für persönliche Medienvorrichtung

Country Status (7)

Country Link
US (1) US8942764B2 (de)
EP (1) EP2195725A2 (de)
KR (1) KR101242982B1 (de)
CN (2) CN101430601A (de)
DE (1) DE102008049653A1 (de)
TW (1) TWI409667B (de)
WO (1) WO2009045279A2 (de)

Families Citing this family (199)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7841967B1 (en) 2006-04-26 2010-11-30 Dp Technologies, Inc. Method and apparatus for providing fitness coaching using a mobile device
US8902154B1 (en) 2006-07-11 2014-12-02 Dp Technologies, Inc. Method and apparatus for utilizing motion user interface
US8020441B2 (en) 2008-02-05 2011-09-20 Invensense, Inc. Dual mode sensing for vibratory gyroscope
US20090262074A1 (en) * 2007-01-05 2009-10-22 Invensense Inc. Controlling and accessing content using motion processing on mobile devices
US8250921B2 (en) 2007-07-06 2012-08-28 Invensense, Inc. Integrated motion processing unit (MPU) with MEMS inertial sensing and embedded digital electronics
US7934423B2 (en) 2007-12-10 2011-05-03 Invensense, Inc. Vertically integrated 3-axis MEMS angular accelerometer with integrated electronics
US7796872B2 (en) 2007-01-05 2010-09-14 Invensense, Inc. Method and apparatus for producing a sharp image from a handheld device containing a gyroscope
US8462109B2 (en) 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US8141424B2 (en) 2008-09-12 2012-03-27 Invensense, Inc. Low inertia frame for detecting coriolis acceleration
US8952832B2 (en) 2008-01-18 2015-02-10 Invensense, Inc. Interfacing application programs and motion sensors of a device
US8047075B2 (en) 2007-06-21 2011-11-01 Invensense, Inc. Vertically integrated 3-axis MEMS accelerometer with electronics
US8508039B1 (en) 2008-05-08 2013-08-13 Invensense, Inc. Wafer scale chip scale packaging of vertically integrated MEMS sensors with electronics
US8620353B1 (en) 2007-01-26 2013-12-31 Dp Technologies, Inc. Automatic sharing and publication of multimedia from a mobile device
US8949070B1 (en) 2007-02-08 2015-02-03 Dp Technologies, Inc. Human activity monitoring device with activity identification
US9954996B2 (en) 2007-06-28 2018-04-24 Apple Inc. Portable electronic device with conversation management for incoming instant messages
US8555282B1 (en) 2007-07-27 2013-10-08 Dp Technologies, Inc. Optimizing preemptive operating system with motion sensing
US7800044B1 (en) 2007-11-09 2010-09-21 Dp Technologies, Inc. High ambient motion environment detection eliminate accidental activation of a device
US9569086B2 (en) * 2007-12-12 2017-02-14 Nokia Technologies Oy User interface having realistic physical effects
JP2009181501A (ja) * 2008-01-31 2009-08-13 Toshiba Corp 移動通信機器
JP4861357B2 (ja) * 2008-02-28 2012-01-25 京セラ株式会社 傾斜センサ内蔵小型電子機器及び補正方法
US8285344B2 (en) 2008-05-21 2012-10-09 DP Technlogies, Inc. Method and apparatus for adjusting audio for a user environment
KR101488796B1 (ko) * 2008-05-23 2015-02-02 엘지전자 주식회사 휴대 단말기 및 그 제어방법
US8540381B2 (en) * 2008-06-17 2013-09-24 The Invention Science Fund I, Llc Systems and methods for receiving information associated with projecting
US20090310040A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for receiving instructions associated with user parameter responsive projection
US8308304B2 (en) * 2008-06-17 2012-11-13 The Invention Science Fund I, Llc Systems associated with receiving and transmitting information related to projection
US8936367B2 (en) 2008-06-17 2015-01-20 The Invention Science Fund I, Llc Systems and methods associated with projecting in response to conformation
US8602564B2 (en) 2008-06-17 2013-12-10 The Invention Science Fund I, Llc Methods and systems for projecting in response to position
US20090313152A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Systems associated with projection billing
US8430515B2 (en) 2008-06-17 2013-04-30 The Invention Science Fund I, Llc Systems and methods for projecting
US8384005B2 (en) 2008-06-17 2013-02-26 The Invention Science Fund I, Llc Systems and methods for selectively projecting information in response to at least one specified motion associated with pressure applied to at least one projection surface
US20100066983A1 (en) * 2008-06-17 2010-03-18 Jun Edward K Y Methods and systems related to a projection surface
US8267526B2 (en) * 2008-06-17 2012-09-18 The Invention Science Fund I, Llc Methods associated with receiving and transmitting information related to projection
US20090309826A1 (en) 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Systems and devices
US8944608B2 (en) 2008-06-17 2015-02-03 The Invention Science Fund I, Llc Systems and methods associated with projecting in response to conformation
US8723787B2 (en) 2008-06-17 2014-05-13 The Invention Science Fund I, Llc Methods and systems related to an image capture projection surface
US8608321B2 (en) * 2008-06-17 2013-12-17 The Invention Science Fund I, Llc Systems and methods for projecting in response to conformation
US8733952B2 (en) 2008-06-17 2014-05-27 The Invention Science Fund I, Llc Methods and systems for coordinated use of two or more user responsive projectors
US8641203B2 (en) 2008-06-17 2014-02-04 The Invention Science Fund I, Llc Methods and systems for receiving and transmitting signals between server and projector apparatuses
US20090313150A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods associated with projection billing
US8820939B2 (en) 2008-06-17 2014-09-02 The Invention Science Fund I, Llc Projection associated methods and systems
US8996332B2 (en) 2008-06-24 2015-03-31 Dp Technologies, Inc. Program setting adjustments based on activity identification
KR101443341B1 (ko) * 2008-06-30 2014-11-03 엘지전자 주식회사 휴대 단말기 및 그 동작제어 방법
US8140115B1 (en) * 2008-07-18 2012-03-20 Dp Technologies, Inc. Application interface
US8213914B2 (en) * 2008-08-04 2012-07-03 Lg Electronics Inc. Mobile terminal capable of providing web browsing function and method of controlling the mobile terminal
US8341557B2 (en) * 2008-09-05 2012-12-25 Apple Inc. Portable touch screen device, method, and graphical user interface for providing workout support
US8610830B2 (en) * 2008-09-11 2013-12-17 Apple Inc. Video rotation method and device
US8189429B2 (en) 2008-09-30 2012-05-29 Apple Inc. Microphone proximity detection
US8872646B2 (en) 2008-10-08 2014-10-28 Dp Technologies, Inc. Method and system for waking up a device due to motion
FR2938097B1 (fr) * 2008-10-30 2010-12-31 Oberthur Technologies Carte a microcircuit, dispositif electronique associe a une telle carte, et procede de commande d'un tel dispositif electronique
US20100117959A1 (en) * 2008-11-10 2010-05-13 Samsung Electronics Co., Ltd. Motion sensor-based user motion recognition method and portable terminal using the same
JP5227769B2 (ja) * 2008-12-05 2013-07-03 ソニーモバイルコミュニケーションズ, エービー 携帯端末およびコンピュータプログラム
US20100153313A1 (en) * 2008-12-15 2010-06-17 Symbol Technologies, Inc. Interface adaptation system
JP2010147973A (ja) * 2008-12-22 2010-07-01 Nec Corp 携帯端末装置、操作通知方法および操作通知プログラム
KR20100078141A (ko) * 2008-12-30 2010-07-08 삼성전자주식회사 휴대용 단말기에서 햅틱 기능 제공 방법 및 장치
US20100167715A1 (en) * 2008-12-31 2010-07-01 Motorola, Inc. Method and Apparatus for Social Networking in a Communication Network
JP5376960B2 (ja) * 2009-01-15 2013-12-25 株式会社東芝 測位装置及び測位時間間隔制御方法
US8890898B2 (en) 2009-01-28 2014-11-18 Apple Inc. Systems and methods for navigating a scene using deterministic movement of an electronic device
US20100188397A1 (en) * 2009-01-28 2010-07-29 Apple Inc. Three dimensional navigation using deterministic movement of an electronic device
KR20100096425A (ko) * 2009-02-24 2010-09-02 삼성전자주식회사 모션 센서 기반의 동작 인식 방법 및 이를 이용한 휴대 단말기
US8914731B2 (en) 2009-03-31 2014-12-16 Oracle International Corporation Analyzing user behavior to enhance data display
US8209353B2 (en) * 2009-03-31 2012-06-26 Oracle International Corporation Storing hierarchical data to enable paging
US8355887B1 (en) 2009-04-24 2013-01-15 Cypress Semiconductor Corporation Proximity based gesturing devices, systems and methods
KR101615872B1 (ko) * 2009-05-08 2016-04-27 삼성전자주식회사 휴대단말기의 햅틱 기능 전송 방법 및 시스템
US8565843B1 (en) * 2009-05-13 2013-10-22 Lugovations LLC Portable device shell
US9529437B2 (en) 2009-05-26 2016-12-27 Dp Technologies, Inc. Method and apparatus for a motion state aware device
US8407623B2 (en) * 2009-06-25 2013-03-26 Apple Inc. Playback control using a touch interface
US20110002487A1 (en) * 2009-07-06 2011-01-06 Apple Inc. Audio Channel Assignment for Audio Output in a Movable Device
US8095191B2 (en) * 2009-07-06 2012-01-10 Motorola Mobility, Inc. Detection and function of seven self-supported orientations in a portable device
US9030404B2 (en) * 2009-07-23 2015-05-12 Qualcomm Incorporated Method and apparatus for distributed user interfaces using wearable devices to control mobile and consumer electronic devices
US9174123B2 (en) * 2009-11-09 2015-11-03 Invensense, Inc. Handheld computer systems and techniques for character and command recognition related to human movements
CN102487416A (zh) * 2009-11-30 2012-06-06 美新半导体(无锡)有限公司 一种地磁传感器与手持设备或移动设备相结合的系统
US8682399B2 (en) 2009-12-15 2014-03-25 Apple Inc. Detecting docking status of a portable device using motion sensor data
US8923995B2 (en) * 2009-12-22 2014-12-30 Apple Inc. Directional audio interface for portable media device
KR20110074017A (ko) * 2009-12-24 2011-06-30 삼성전자주식회사 멀티미디어 기기 및 그 동작 제어 방법
US9046923B2 (en) * 2009-12-31 2015-06-02 Verizon Patent And Licensing Inc. Haptic/voice-over navigation assistance
US8479107B2 (en) * 2009-12-31 2013-07-02 Nokia Corporation Method and apparatus for fluid graphical user interface
US8989792B1 (en) 2010-01-22 2015-03-24 Amazon Technologies, Inc. Using inertial sensors to trigger transmit power management
US8792930B1 (en) 2010-01-22 2014-07-29 Amazon Technologies, Inc. Power management for wireless transmissions
US9335825B2 (en) 2010-01-26 2016-05-10 Nokia Technologies Oy Gesture control
EP2354897A1 (de) * 2010-02-02 2011-08-10 Deutsche Telekom AG Around Device Interaction (ADI) zur Steuerung einer elektrischen Vorrichtung, zur Steuerung eines Computerspiels und zur Benutzerverifizierung
US20110196519A1 (en) * 2010-02-09 2011-08-11 Microsoft Corporation Control of audio system via context sensor
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US20120206485A1 (en) * 2010-02-28 2012-08-16 Osterhout Group, Inc. Ar glasses with event and sensor triggered user movement control of ar eyepiece facilities
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
EP2539759A1 (de) 2010-02-28 2013-01-02 Osterhout Group, Inc. Lokaler werbeinhalt auf einem interaktiven kopfmontierten okular
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US20110223974A1 (en) * 2010-03-10 2011-09-15 Sony Ericsson Mobile Communications Ab Mobile communication device and method for operating a mobile communication device
US9977472B2 (en) * 2010-03-19 2018-05-22 Nokia Technologies Oy Method and apparatus for displaying relative motion of objects on graphical user interface
WO2011117681A1 (en) * 2010-03-25 2011-09-29 Nokia Corporation Contortion of an electronic apparatus
US8760392B2 (en) 2010-04-20 2014-06-24 Invensense, Inc. Wireless motion processing sensor systems suitable for mobile and battery operation
US8180208B2 (en) * 2010-05-19 2012-05-15 Eastman Kodak Company Identifying a photographer
US8200076B2 (en) * 2010-05-19 2012-06-12 Eastman Kodak Company Estimating gender or age of a photographer
US8180209B2 (en) * 2010-05-19 2012-05-15 Eastman Kodak Company Determining camera activity from a steadiness signal
US20110288913A1 (en) * 2010-05-20 2011-11-24 Google Inc. Interactive Ads
RU2563165C9 (ru) 2010-05-21 2015-12-10 Нокиа Корпорейшн Способ, устройство и компьютерная программа для управления выводом информации на дисплей устройства
US9241064B2 (en) 2010-05-28 2016-01-19 Google Technology Holdings LLC Smart method and device for adaptive user interface experiences
CN101854435B (zh) 2010-05-31 2017-04-12 华为终端有限公司 信息处理方法及用户设备
CN102346543B (zh) * 2010-07-29 2014-11-26 深圳富泰宏精密工业有限公司 便携式电子装置解锁系统及方法
TWI453414B (zh) * 2010-07-29 2014-09-21 Chi Mei Comm Systems Inc 可攜式電子裝置解鎖系統及方法
US8972467B2 (en) 2010-08-31 2015-03-03 Sovanta Ag Method for selecting a data set from a plurality of data sets by means of an input device
US8767019B2 (en) 2010-08-31 2014-07-01 Sovanta Ag Computer-implemented method for specifying a processing operation
US9007304B2 (en) 2010-09-02 2015-04-14 Qualcomm Incorporated Methods and apparatuses for gesture-based user input detection in a mobile device
US8594971B2 (en) 2010-09-22 2013-11-26 Invensense, Inc. Deduced reckoning navigation without a constraint relationship between orientation of a sensor platform and a direction of travel of an object
KR101915615B1 (ko) * 2010-10-14 2019-01-07 삼성전자주식회사 모션 기반 사용자 인터페이스 제어 장치 및 방법
GB2499361B (en) * 2010-11-12 2018-04-25 Blackberry Ltd Method of interacting with a portable electronic device
TW201220174A (en) * 2010-11-15 2012-05-16 Ind Tech Res Inst Graphical user interface in multimedia apparatus and graphic object browsing method and system thereof
JP5768361B2 (ja) * 2010-11-22 2015-08-26 ソニー株式会社 送信装置、受信装置、コンテンツ送受信システム
KR20120066846A (ko) * 2010-12-15 2012-06-25 삼성전자주식회사 모바일 디바이스
US8397982B2 (en) 2010-12-17 2013-03-19 Motorola Mobility Llc Method and device for recognition of docking stations
US8786547B2 (en) * 2010-12-23 2014-07-22 Microsoft Corporation Effects of gravity on gestures
US20120202187A1 (en) * 2011-02-03 2012-08-09 Shadowbox Comics, Llc Method for distribution and display of sequential graphic art
JP5654665B2 (ja) * 2011-02-24 2015-01-14 京セラ株式会社 電子機器
JP5103538B2 (ja) 2011-02-25 2012-12-19 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム制御プログラム、及びゲーム制御方法
US9407706B2 (en) 2011-03-31 2016-08-02 Qualcomm Incorporated Methods, devices, and apparatuses for activity classification using temporal scaling of time-referenced features
US9094813B2 (en) * 2011-04-02 2015-07-28 Open Invention Network, Llc System and method for redirecting content based on gestures
TWI490768B (zh) * 2011-04-25 2015-07-01 Chiun Mai Comm Systems Inc 虛擬鍵盤控制系統和方法
JP5323126B2 (ja) * 2011-05-20 2013-10-23 シャープ株式会社 画像処理システム、画像処理装置、及び、指示受付装置
US9110510B2 (en) 2011-06-03 2015-08-18 Apple Inc. Motion pattern classification and gesture recognition
US8319746B1 (en) 2011-07-22 2012-11-27 Google Inc. Systems and methods for removing electrical noise from a touchpad signal
US20130033418A1 (en) * 2011-08-05 2013-02-07 Qualcomm Incorporated Gesture detection using proximity or light sensors
US9703382B2 (en) * 2011-08-29 2017-07-11 Kyocera Corporation Device, method, and storage medium storing program with control for terminating a program
WO2013093906A1 (en) 2011-09-19 2013-06-27 Eyesight Mobile Technologies Ltd. Touch free interface for augmented reality systems
US8886247B1 (en) * 2011-10-04 2014-11-11 Amazon Technologies, Inc. Proximity based power throttling
US9563278B2 (en) * 2011-12-19 2017-02-07 Qualcomm Incorporated Gesture controlled audio user interface
CN102540198B (zh) * 2011-12-21 2013-05-29 惠州Tcl移动通信有限公司 终端及其终端内导航功能的启动方法
KR101866974B1 (ko) * 2012-01-06 2018-06-14 한국전자통신연구원 행동 패턴 수집 장치 및 이를 이용한 행동 패턴 분석 시스템과 그 방법
TWI516980B (zh) * 2012-01-10 2016-01-11 群邁通訊股份有限公司 電子裝置解鎖系統及方法
US9823707B2 (en) 2012-01-25 2017-11-21 Nokia Technologies Oy Contortion of an electronic apparatus
US9519909B2 (en) * 2012-03-01 2016-12-13 The Nielsen Company (Us), Llc Methods and apparatus to identify users of handheld computing devices
US8867991B2 (en) * 2012-03-16 2014-10-21 Qualcomm Incorporated Use of proximity sensors with near-field communication
US20130247663A1 (en) * 2012-03-26 2013-09-26 Parin Patel Multichannel Gyroscopic Sensor
US8473975B1 (en) 2012-04-16 2013-06-25 The Nielsen Company (Us), Llc Methods and apparatus to detect user attentiveness to handheld computing devices
US9823696B2 (en) 2012-04-27 2017-11-21 Nokia Technologies Oy Limiting movement
CN103376984B (zh) * 2012-04-28 2016-11-16 宇龙计算机通信科技(深圳)有限公司 应用选择的方法及其通信终端
TWI467391B (zh) * 2012-05-07 2015-01-01 Univ Southern Taiwan 可攜式電子裝置之互動應用系統及其方法
US8638230B2 (en) 2012-05-24 2014-01-28 Google Inc. Hardware attitude detection implementation of mobile devices with MEMS motion sensors
US9128562B2 (en) 2012-05-25 2015-09-08 Sony Corporation Terminal apparatus, display system, display method, and recording medium for switching between pointer mode and touch-panel mode based on handheld activation
US9223494B1 (en) * 2012-07-27 2015-12-29 Rockwell Collins, Inc. User interfaces for wearable computers
US10433044B2 (en) * 2012-08-02 2019-10-01 Ronald Pong Headphones with interactive display
JP6011127B2 (ja) * 2012-08-06 2016-10-19 富士ゼロックス株式会社 行為検出プログラム及び行為検出装置
US10408857B2 (en) * 2012-09-12 2019-09-10 Alpinereplay, Inc. Use of gyro sensors for identifying athletic maneuvers
US10548514B2 (en) 2013-03-07 2020-02-04 Alpinereplay, Inc. Systems and methods for identifying and characterizing athletic maneuvers
CN104641321B (zh) * 2012-09-19 2017-09-29 日本电气株式会社 移动终端、其控制方法以及程序
TWI496526B (zh) * 2012-10-16 2015-08-11 Wistron Corp 利用旋轉離心力切換不同狀態之可攜式電子裝置
US9158332B2 (en) 2012-10-22 2015-10-13 Nokia Technologies Oy Limiting movement
US9158334B2 (en) 2012-10-22 2015-10-13 Nokia Technologies Oy Electronic device controlled by flexing
US9350918B1 (en) * 2012-11-08 2016-05-24 Amazon Technologies, Inc. Gesture control for managing an image view display
US9329701B2 (en) 2012-11-21 2016-05-03 Google Technology Holdings LLC Low power management of multiple sensor chip architecture
US20140243107A1 (en) * 2012-11-21 2014-08-28 Don't Shake It L.L.C. Novelty device
CN103092341B (zh) * 2012-12-31 2016-08-10 华为技术有限公司 控制终端的方法、装置与终端
KR101594404B1 (ko) * 2013-02-25 2016-02-17 한국산업기술대학교산학협력단 대상 물체의 3차원적 움직임 및 속도를 인식할 수 있는 입력장치 및 이를 이용한 전자 기기
US9223297B2 (en) 2013-02-28 2015-12-29 The Nielsen Company (Us), Llc Systems and methods for identifying a user of an electronic device
CN108469878B (zh) * 2013-03-11 2022-06-21 索尼公司 终端装置及其控制方法和计算机可读存储介质
US9065861B2 (en) 2013-05-07 2015-06-23 Brandon M. Singer Method of interacting with social media post using mobile electronic device
US9372103B2 (en) * 2013-07-12 2016-06-21 Facebook, Inc. Calibration of grab detection
CN103426019A (zh) * 2013-07-18 2013-12-04 南京晟邦光电科技有限公司 一种环形非接触式射频标识卡
TWI514245B (zh) * 2013-08-20 2015-12-21 Inventec Corp 提供網頁瀏覽之瀏覽裝置、系統及其方法
US20150065116A1 (en) * 2013-08-28 2015-03-05 Sunrex Technology Corp. Remote control device and wireless communication system comprising the same
US10497096B2 (en) 2013-09-17 2019-12-03 Nokia Technologies Oy Determination of a display angle of a display
WO2015076798A1 (en) * 2013-11-20 2015-05-28 Intel Corporation Computing systems for peripheral control
TWI488106B (zh) * 2013-12-13 2015-06-11 Acer Inc 可攜式電子裝置及其圖示位置調整方法
KR101623365B1 (ko) * 2013-12-18 2016-06-07 주식회사 엘지유플러스 잠금 상태에서 모바일 기기를 제어하는 방법 및 장치
CN104793840A (zh) * 2014-01-22 2015-07-22 宏碁股份有限公司 便携式电子装置及图示位置调整方法
KR102161546B1 (ko) * 2014-02-05 2020-10-05 삼성전자 주식회사 전자 기기 및 그의 운용 방법
TWI517021B (zh) * 2014-02-17 2016-01-11 拓連科技股份有限公司 項目變換之管理方法及系統,及相關電腦程式產品
US9710629B2 (en) * 2014-05-13 2017-07-18 Google Technology Holdings LLC Electronic device with method for controlling access to same
US9207835B1 (en) 2014-05-31 2015-12-08 Apple Inc. Message user interfaces for capture and transmittal of media and location content
US9389703B1 (en) * 2014-06-23 2016-07-12 Amazon Technologies, Inc. Virtual screen bezel
US9465445B2 (en) 2014-07-02 2016-10-11 Nagravision S.A. Application swap based on smart device position
DE212015000194U1 (de) 2014-08-06 2017-05-31 Apple Inc. Verkleinerte Benutzeroberflächen für Batteriemanagement
WO2016023169A1 (en) * 2014-08-12 2016-02-18 Shenzhen Sugr Technology Limited Company Methods and apparatus for motion control of a media player
CN115623117A (zh) 2014-09-02 2023-01-17 苹果公司 电话用户界面
KR101901796B1 (ko) 2014-09-02 2018-09-28 애플 인크. 경고를 관리하기 위한 축소된 크기의 인터페이스
CN104244044A (zh) * 2014-09-25 2014-12-24 苏州乐聚一堂电子科技有限公司 运动感应远程音视频互动系统
EP3026522A1 (de) * 2014-11-26 2016-06-01 Nokia Technologies OY Benutzerschnittstelle
WO2016112316A1 (en) * 2015-01-09 2016-07-14 Nulman Yanir Motion base content selection
US10212325B2 (en) 2015-02-17 2019-02-19 Alpinereplay, Inc. Systems and methods to control camera operations
US9746930B2 (en) 2015-03-26 2017-08-29 General Electric Company Detection and usability of personal electronic devices for field engineers
US10310726B2 (en) * 2015-05-14 2019-06-04 Oath Inc. Content navigation based upon motion
CN105825875A (zh) * 2015-08-28 2016-08-03 维沃移动通信有限公司 一种控制音乐播放器的方法及电子设备
US10104282B2 (en) * 2015-09-30 2018-10-16 Ricoh Co., Ltd. Yaw user interface
US10321208B2 (en) 2015-10-26 2019-06-11 Alpinereplay, Inc. System and method for enhanced video image recognition using motion sensors
CN105472150A (zh) * 2015-11-24 2016-04-06 努比亚技术有限公司 移动终端应用操作的撤回处理装置、终端及其实现方法
US10445733B1 (en) * 2018-08-06 2019-10-15 Capital One Service, LLC Systems and methods active signature detection
EP4083751B1 (de) * 2019-12-25 2024-04-17 Sony Group Corporation Informationsverarbeitungsvorrichtung, programm und verfahren
US11513667B2 (en) 2020-05-11 2022-11-29 Apple Inc. User interface for audio message

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2205063C (en) 1995-10-09 2003-11-18 Satoshi Nishiumi Three-dimensional image processing system
EP0872994A1 (de) 1997-04-18 1998-10-21 Ascom Business Systems Ag Vorrichtung mit einem berührungsempfindlichen Bildschirm
CN1324552C (zh) * 1997-05-22 2007-07-04 盛群半导体股份有限公司 液晶显示驱动器强化多功能选择的方法及装置
JPH11205432A (ja) * 1998-01-08 1999-07-30 Matsushita Electric Ind Co Ltd 携帯端末装置
KR100595925B1 (ko) * 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US6861946B2 (en) * 2000-05-17 2005-03-01 Caveo Technology Llc. Motion-based input system for handheld devices
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7956272B2 (en) 2002-07-30 2011-06-07 Apple Inc. Management of files in a personal communication device
US7166791B2 (en) 2002-07-30 2007-01-23 Apple Computer, Inc. Graphical user interface and methods of use thereof in a multimedia player
US7194445B2 (en) 2002-09-20 2007-03-20 Lenovo (Singapore) Pte. Ltd. Adaptive problem determination and recovery in a computer system
US20060181517A1 (en) 2005-02-11 2006-08-17 Apple Computer, Inc. Display actuator
US7301528B2 (en) * 2004-03-23 2007-11-27 Fujitsu Limited Distinguishing tilt and translation motion components in handheld devices
US7301529B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Context dependent gesture response
JP2007531113A (ja) 2004-03-23 2007-11-01 富士通株式会社 携帯装置の傾斜及び並進運動成分の識別
US7526460B2 (en) * 2004-09-16 2009-04-28 Neal Solomon Mobile hybrid software router
US7593782B2 (en) 2005-01-07 2009-09-22 Apple Inc. Highly portable media device
TWI271984B (en) 2005-03-31 2007-01-21 Primax Electronics Ltd Instructions generating and executing method of handheld electronic device
TW200704920A (en) 2005-07-29 2007-02-01 Godot Technology Inc Control mechanism and control method using gravity variation reception
US8870655B2 (en) 2005-08-24 2014-10-28 Nintendo Co., Ltd. Wireless game controllers
US8157651B2 (en) 2005-09-12 2012-04-17 Nintendo Co., Ltd. Information processing program
US8077147B2 (en) * 2005-12-30 2011-12-13 Apple Inc. Mouse with optical sensing surface
TWI302265B (en) * 2005-12-30 2008-10-21 High Tech Comp Corp Moving determination apparatus
US20080280642A1 (en) * 2007-05-11 2008-11-13 Sony Ericsson Mobile Communications Ab Intelligent control of user interface according to movement
US20080284739A1 (en) * 2007-05-17 2008-11-20 Microsoft Corporation Human Interface Device

Also Published As

Publication number Publication date
EP2195725A2 (de) 2010-06-16
KR101242982B1 (ko) 2013-03-13
WO2009045279A2 (en) 2009-04-09
TWI409667B (zh) 2013-09-21
CN105045387A (zh) 2015-11-11
WO2009045279A3 (en) 2009-11-12
TW200937255A (en) 2009-09-01
KR20100083807A (ko) 2010-07-22
CN101430601A (zh) 2009-05-13
US20090088204A1 (en) 2009-04-02
US8942764B2 (en) 2015-01-27

Similar Documents

Publication Publication Date Title
DE102008049653A1 (de) Bewegungsbasierte Schnittstellen für persönliche Medienvorrichtung
US11676373B2 (en) Personal computing device control using face detection and recognition
US10423221B2 (en) Apparatus and method for controlling portable terminal
US8836502B2 (en) Personal media device input and output control based on associated conditions
CN108829881B (zh) 视频标题生成方法及装置
US11119575B2 (en) Gesture based user interface supporting preexisting symbols
JP5882220B2 (ja) 人間の動きに関連するキャラクタおよびコマンドを認識するためのハンドヘルドコンピュータシステムおよび技術
EP1728142B1 (de) Unterscheidung von neigungs- und translationsbewegungskomponenten in in der hand gehaltenen einrichtungen
CN100350992C (zh) 使用触觉反馈的声音数据输出和处理方法和设备
US20120198353A1 (en) Transferring data using a physical gesture
CN110740262A (zh) 背景音乐的添加方法、装置及电子设备
EP3629198A1 (de) Verfahren und vorrichtung zum suchen von audio
CN105549688A (zh) 具有多种显示配置模式的便携式电脑
CN105635452A (zh) 移动终端及其联系人标识方法
CN105094635A (zh) 用于通过体图像进行导航的设备和方法
CN108255940A (zh) 一种跨语言搜索方法和装置、一种用于跨语言搜索的装置
CN106296701A (zh) 图像处理方法及装置
Fuhrmann et al. The BlueWand as interface for ubiquitous and wearable computing environments
KR20060035148A (ko) 모바일 기기의 동작 인식 장치 및 이를 이용한 사용자의동작 인식 방법
KR102012774B1 (ko) 휴대 단말기 및 그 동작 방법
KR102663417B1 (ko) 반자동 롤-슬라이드 구동 모듈 및 이를 포함하는 롤-슬라이드 이동 단말기
KR20170093644A (ko) 휴대용 단말기 및 그 제어방법
CN117493278A (zh) 文档检索方法、装置、系统及存储介质
CN104125399B (zh) 一种图像采集方法及电子设备
KR101661975B1 (ko) 휴대 단말기 및 그 동작 방법

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8128 New person/name/address of the agent

Representative=s name: PATENT- UND RECHTSANWAELTE BARDEHLE, PAGENBERG, DO

R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication