DE102011083760A1 - Blinde navigation für berührungsschnittstellen - Google Patents

Blinde navigation für berührungsschnittstellen Download PDF

Info

Publication number
DE102011083760A1
DE102011083760A1 DE102011083760A DE102011083760A DE102011083760A1 DE 102011083760 A1 DE102011083760 A1 DE 102011083760A1 DE 102011083760 A DE102011083760 A DE 102011083760A DE 102011083760 A DE102011083760 A DE 102011083760A DE 102011083760 A1 DE102011083760 A1 DE 102011083760A1
Authority
DE
Germany
Prior art keywords
touch
user interface
interface
command
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102011083760A
Other languages
English (en)
Inventor
Sneha Patel
Ian Crowe
Steve Gervais
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Logitech Europe SA
Original Assignee
Logitech Europe SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Logitech Europe SA filed Critical Logitech Europe SA
Publication of DE102011083760A1 publication Critical patent/DE102011083760A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Systeme und Verfahren zum Aktivieren einer blinden Navigation einer Steuervorrichtung mit einer Berührungsschnittstelle umfassen einen oder mehrere Schritte zum Empfangen einer Angabe, dass die Steuervorrichtung eine blinde Navigation aktivieren soll, Empfangen einer Eingabe über die Berührungsschnittstelle, Bestimmen eines Befehls, dem die empfangene Eingabe entspricht, und Ausführen oder Übertragen des Befehls.

Description

  • RÜCKVERWEISUNG AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung ist eine volle, geprüfte Anmeldung der und beansprucht die Priorität zur vorläufigen US-Patentanmeldung Nr. 61/388 521, eingereicht am 30. September 2010, mit dem Titel ”BLIND NAVIGATION FOR TOUCH INTERFACES” von Sneha Patel et al., die durch den Hinweis in ihrer Gesamtheit für alle Zwecke hierin aufgenommen wird.
  • HINTERGRUND DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich im Allgemeinen auf Steuervorrichtungen mit Berührungsbildschirmen wie z. B. Smartphones, eingebettete und/oder Fernbedienungen zum Steuern von Geräten usw. Insbesondere beziehen sich mehrere Ausführungsbeispiele der vorliegenden Erfindung auf Systeme und Verfahren mit ”blinder Navigation” einer Vorrichtung mit einer Berührungsschnittstelle und einer Anzeige.
  • Es wird immer üblicher, dass Steuervorrichtungen Berührungsschnittstellen zusätzlich zu oder anstelle von herkömmlicheren Benutzereingabeelementen wie z. B. Tasten, Schiebern, Steuerhebeln usw. umfassen. Beispiele von Steuervorrichtungen umfassen Smartphones (z. B. ein iPhoneTM von Apple Inc., Cupertino CA), Fernbedienungen, Mäuse, Tastaturen, Webcams, Kameras, Hörvorrichtungen, Tablets (z. B. ein iPadTM von Apple, Inc., Cupertino CA), um nur einige zu nennen. Viele Steuervorrichtungen werden auch für verschiedene Zwecke zusätzlich zum Steuern der speziellen Vorrichtung, an die die Steuereinheit gebunden ist, verwendet. Eine Berührungsschnittstelle, die in einem iPhoneTm oder einem iPadTM enthalten ist, kann beispielsweise als Steuervorrichtung für das Telefon und als Fernbedienung für Geräte wie z. B. Unterhaltungsvorrichtungen verwendet werden. Unterhaltungsvorrichtungen können Fernsehgeräte, DVRs, Empfangsgeräte usw. umfassen. Eine Unterhaltungsvorrichtung könnte auch ein Computer oder eine Spielekonsole (z. B. Sony® Playstation 3TM, Nintendo® DSTM oder Microsoft Xbox 360®) sein, die eine Medienanwendung wie z. B. iTunesTM betreibt, wobei die Steuervorrichtung dazu konfiguriert ist, iTunesTM durch Steuern des Computers zu steuern (z. B. Lautstärke aufwärts/abwärts, Medienauswahl usw.).
  • Berührungsschnittstellen basieren auf verschiedenen Technologien wie z. B. Widerstandstastfeldern, kapazitiven Tastfeldern, optischen Tastfeldern usw. Berührungsschnittstellen weisen mehrere Vorteile gegenüber anderen Typen von Benutzerschnittstellen auf. Beispielsweise weisen Berührungsschnittstellen weniger bewegliche Teile, die über die Zeit brechen können, und weniger Möglichkeiten für eine Staub/Schmutz-Verunreinigung auf, um nur einige Vorteile zu nennen. Außerdem sehen Berührungsschnittstellen gepflegt und glatt aus.
  • Einer der Nachteile von Berührungsschnittstellen besteht jedoch darin, dass sie keine blinde Navigation ermöglichen. Die blinde Navigation umfasst die Verwendung einer Steuervorrichtung durch einen Benutzer, ohne auf die Steuervorrichtung zu blicken. Mit Benutzereingabeelementen wie z. B. Tasten, Schaltern und Schiebern empfangen Benutzer eine taktile Rückkopplung vom Berühren dieser Benutzereingabeelemente und können häufig durch die Form, das Gefühl, den Ort, die mechanische Wirkung usw. dieser Benutzereingabeelemente geführt werden, um verschiedene Benutzereingabeelemente effektiv zu verwenden, ohne auf sie zu blicken. Dies ist häufig sehr erwünscht, insbesondere da der Benutzer seine Aufmerksamkeit nicht von der vorliegenden Aufgabe (z. B. Ansehen eines Films) ablenken muss, um auf die Steuervorrichtung zu blicken, um eine gewünschte Aufgabe (z. B. Erhöhen der Lautstärke) durchzuführen. Ferner ist es möglich, solche Steuervorrichtungen in einer dunklen Umgebung oder einer Umgebung mit schwacher Beleuchtung über blinde Navigation zu bedienen.
  • Im Gegensatz dazu sind Berührungsschnittstellen, wie vorstehend erwähnt, glatt und gepflegt und sind nicht für eine solche blinde Navigation zugänglich. Benutzer sind folglich derzeit gezwungen, ihre Aufmerksamkeit von der vorliegenden Aufgabe abzulenken, um auf die Steuervorrichtung zu blicken, und dann die gewünschte Aufgabe an der Berührungsschnittstelle durchzuführen. Ferner ist das Bedienen von Berührungsschnittstellen im Dunklen oder unter Bedingungen mit schwachem Licht problematisch.
  • Daher bestehen anhaltende Bedürfnisse an Vorrichtungen, Systemen und Verfahren, die eine blinde Navigation einer Steuervorrichtung, die eine Berührungsschnittstelle umfasst, bereitstellen.
  • KURZE ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich im Allgemeinen auf Steuervorrichtungen mit Berührungsbildschirmen wie z. B. Smartphones, eingebettete und/oder Fernbedienungen zum Steuern von Geräten usw. Insbesondere beziehen sich mehrere Ausführungsbeispiele der vorliegenden Erfindung auf Systeme und Verfahren mit einer ”blinden Navigation” einer Vorrichtung mit einer Berührungsschnittstelle.
  • Gemäß ersten Aspekten der Erfindung kann in Systemen und Verfahren, in denen eine erste Steuerschnittstelle einem Benutzer präsentiert wird, die erste Steuerschnittstelle so konfiguriert sein, dass sie auf Berührungseingaben in festgelegten Bereichen einer Berührungsschnittstelle, z. B. Bereichen eines Berührungsbildschirms mit verschiedenen Bildsymbolen, die Softwareanwendungen, festgelegte Funktionen, Steuerbefehle, Zahlen usw. darstellen, reagiert. Ausführungsbeispiele können das Empfangen eines Befehls zum Ändern der ersten Steuerschnittstelle in eine zweite Steuerschnittstelle, in der der Berührungsbildschirm beispielsweise auf Berührungsmuster, Wischbewegungen oder andere vorab festgelegte Berührungsstellen reagiert, die einer ”blinden Schnittstelle” entsprechen, die nicht erfordern, dass der Benutzer auf den Berührungsbildschirm blickt, um die Steuereinheit zu bedienen, umfassen.
  • In Ausführungsbeispielen können Systeme und Verfahren beispielsweise, wenn eine Softwareanwendung auf einer Vorrichtung wie z. B. einem Smartphone, einer Fernbedienung usw. aktiv ist, vorsehen, dass die Softwareanwendung dazu konfiguriert sein kann, eine Eingabe von einem Benutzer zum Ändern eines Betriebsmodus zu empfangen, wie z. B. Einschalten eines blinden Navigationsmodus. Ein Beispiel einer solchen Angabe, zu deren Empfang die Vorrichtung konfiguriert ist, zum Ändern eines Betriebsmodus ist ein relativ schnelles Schütteln der Vorrichtung. Wenn die Vorrichtung beispielsweise relativ schnell geschüttelt wird, tritt die Softwareanwendung danach in den blinden Navigationsmodus ein. Vorbestimmte Gesten/Wischbewegungen auf der Berührungsschnittstelle können von der Berührungsschnittstelle und der Softwareanwendung als spezifische Befehle (z. B. Kanal aufwärts/abwärts, Lautstärke aufwärts/abwärts, Ändern des TV-Eingangs usw.) erkannt werden.
  • In Ausführungsbeispielen kann eine Vorrichtung gemäß Aspekten der vorliegenden Erfindung einen ersten Modus, in dem eine graphische Schnittstelle verwendet wird, und einen zweiten Modus, in dem eine Benutzerschnittstelle mit blinder Navigation verwendet wird, aufweisen. in einem solchen Ausführungsbeispiel kann die Benutzerschnittstelle mit blinder Navigation auf Gesten (z. B. Aufwärts-, Abwärtsbewegen der Vorrichtung und/oder Drehen oder Neigen der Vorrichtung), Wischbewegungen auf der Berührungsschnittstelle oder einer Kombination von diesen basieren. In einem Ausführungsbeispiel kann die Vorrichtung dazu konfiguriert sein, beim Empfangen einer Angabe vom Benutzer (z. B. einer programmierten taktilen Taste, einem schnellen Schütteln der Vorrichtung, einer Aktivierung eines speziellen Elements der graphischen Benutzerschnittstelle, einer speziellen Geste usw.) von einem Modus in den anderen umzuschalten.
  • Ausführungsbeispiele können ein computerimplementiertes Verfahren zum Aktivieren der blinden Navigation einer Steuervorrichtung mit einer Berührungsanzeigeschnittstelle mit einem oder mehreren Schritten zum Darstellen einer ersten Benutzerschnittstelle auf der Berührungsanzeigeschnittstelle, wobei die erste Benutzerschnittstelle ein Bildsymbol umfasst, das durch Berühren eines festgelegten Abschnitts der Berührungsanzeigeschnittstelle auswählbar ist; Empfangen einer Angabe, dass die Steuervorrichtung eine zweite Benutzerschnittstelle aktivieren soll; Umkonfigurieren der Berührungsanzeigeschnittstelle, um einen Satz von Befehlen entsprechend der zweiten Benutzerschnittstelle zu empfangen, einschließlich einer oder mehrerer Berührungsbewegungen auf der Berührungsanzeigeschnittstelle; Empfangen einer Berührungsbewegungseingabe über die Berührungsanzeigeschnittstelle; Bestimmen eines Befehls aus dem Satz von Befehlen, dem die empfangene Berührungsbewegungseingabe entspricht; und/oder Ausführen und/oder Übertragen des Befehls umfassen.
  • In Ausführungsbeispielen kann die erste Benutzerschnittstelle einen oder mehrere Befehle in Reaktion auf Berührungsbewegungen auf einer Berührungsschnittstelle wie z. B. der Berührungsanzeigeschnittstelle oder einer Nicht-Anzeige-Berührungsschnittstelle umfassen. Wenn die erste Benutzerschnittstelle einen oder mehrere Befehle in Reaktion auf Berührungsbewegungen auf einer Berührungsschnittstelle umfasst, kann die erste Benutzerschnittstelle Bildsymbole umfassen oder nicht. Die Berührungsbewegungsbefehle der ersten Benutzerschnittstelle können einen oder mehrere andere Befehle und/oder Gesten als die zweite Benutzerschnittstelle umfassen. Ein spezieller Befehl kann beispielsweise eine erste Berührungsgeste in der ersten Benutzerschnittstelle und eine zweite Berührungsgeste in der zweiten Benutzerschnittstelle, die anders ist als die erste Geste, umfassen. Als weiteres Beispiel kann der erste Befehl in der ersten Benutzerschnittstelle eine erste Berührungsgeste aufweisen und ein anderer Befehl in der zweiten Benutzerschnittstelle kann die erste Geste verwenden, z. B. kann eine Bildschirmwischbewegung in der ersten Benutzerschnittstelle eine Zeigerbewegung oder einen Umblätterbefehl anweisen und dieselbe Seitenwischbewegung in der zweiten Benutzerschnittstelle kann verwendet werden, um einen Befehl an eine Anwendung oder ein Peripheriegerät wie z. B. Lautstärkesteuerung, Kanalwechsel usw. auszugeben.
  • In Ausführungsbeispielen kann die Steuervorrichtung beispielsweise ein Smartphone, eine universelle Fernbedienung, ein Tablet-Computer, eine Tastatur mit einer Berührungsschnittstelle wie z. B. Logitech RevueTM usw. sein.
  • In Ausführungsbeispielen kann der Befehl durch die Steuervorrichtung zu einem separaten Gerät über beispielsweise eine IR-, HF- oder andere Kommunikationsverbindung übertragen werden. In einem Ausführungsbeispiel der Erfindung empfing ein IR-Gateway, wie z. B. der Logitech Harmony® Link, den Befehl von der Vorrichtung mit der Berührungsschnittstelle über beispielsweise ein drahtloses Computernetzwerk und sendet einen Infrarotbefehl zur Zielvorrichtung. In Ausführungsbeispielen wird der Befehl beispielsweise zu einer Unterhaltungsvorrichtung übertragen. In einem Ausführungsbeispiel der Erfindung ist eine Anzahl von Vorrichtungen über verdrahtete und/oder drahtlose Verbindungen verbunden und wird aktiviert, um Befehle zueinander zu übertragen. In Ausführungsbeispielen können Befehle, die für eine erste Vorrichtung bestimmt sind, von einer Steuervorrichtung zu einer zweiten Vorrichtung gesendet werden und die zweite Vorrichtung kann den Befehl zur ersten Vorrichtung übertragen. Ein Verstärker und ein DVD-Player können beispielsweise über eine Verbindung wie z. B. Denon Link® miteinander verbunden sein und ein Befehl für den DVD-Player kann durch eine Steuervorrichtung zum Verstärker übertragen werden und der Verstärker kann den Befehl zum DVD-Player weiterleiten.
  • In Ausführungsbeispielen kann der Befehl über ein Netzwerk übertragen werden.
  • In Ausführungsbeispielen kann die Angabe, dass die Steuervorrichtung eine zweite Benutzerschnittstelle aktivieren soll, durch eine Umgebungsquelle wie beispielsweise ein Umgebungslicht, eine Kurzstrecken-Kommunikationsverbindung und/oder ein Signal usw. bereitgestellt werden.
  • In Ausführungsbeispielen kann der Schritt des Bestimmens eines Befehls, dem die empfangene Berührungsbewegungseingabe entspricht, das Vergleichen der empfangenen Berührungsbewegungseingabe mit einer Vielzahl von vorab festgelegten Eingaben umfassen, wobei jede der Vielzahl von vorab festgelegten Eingaben auf einen Befehl abgebildet wird.
  • In Ausführungsbeispielen kann das Umkonfigurieren der Berührungsbildschirmschnittstelle das Deaktivieren eines Teils der ersten Benutzerschnittstelle wie z. B. des Bildsymbols umfassen. Ausführungsbeispiele können das Aktivieren eines Berührungsbewegungsbefehls in der zweiten Benutzerschnittstelle umfassen, der einer Befehlsfunktion des deaktivierten Teils der ersten Benutzerschnittstelle entspricht. Ein oder mehrere Lautstärkesteuerbildsymbole in der ersten Benutzerschnittstelle können beispielsweise deaktiviert werden und ihre Befehlsfunktionen durch einen oder mehrere Berührungsbewegungsbefehle in der zweiten Benutzerschnittstelle nachgebildet werden. In Ausführungsbeispielen kann das Umkonfigurieren der Berührungsbildschirmschnittstelle das Aktivieren eines Teils der Berührungsanzeigeschnittstelle umfassen, um auf Berührungsbewegungsbefehle in der zweiten Benutzerschnittstelle zu reagieren.
  • In Ausführungsbeispielen kann der Schritt des Empfangens einer Angabe, dass die Steuervorrichtung die zweite Benutzerschnittstelle aktivieren soll, das Empfangen einer vorbestimmten Eingabe auf der Basis von Informationen von einer oder mehreren einer Neigung, Bewegung und Orientierung der Steuervorrichtung umfassen. In Ausführungsbeispielen kann der Schritt des Empfangens einer Angabe, dass die Steuervorrichtung die zweite Benutzerschnittstelle aktivieren soll, das Empfangen einer Schüttelbewegung der Steuervorrichtung umfassen. In Ausführungsbeispielen kann der Schritt des Empfangens einer Angabe, dass die Steuervorrichtung die zweite Benutzerschnittstelle aktivieren soll, das Empfangen einer Eingabe von einem Bildsymbol, einer Drucktaste und/oder einer Berührungsschnittstelle umfassen.
  • In Ausführungsbeispielen kann eine Benutzerrückkopplung auch auf der Basis der Bestimmung des Befehls, dem die empfangene Berührungsbewegungseingabe entspricht, geliefert werden. In Ausführungsbeispielen kann die Benutzerrückkopplung eine Vorrichtungsvibration, ein Audiosignal und/oder ein visuelles Signal umfassen. In Ausführungsbeispielen kann die Benutzerrückkopplung den bestimmten Befehl in einer Weise angeben, die von anderen möglichen Befehlen unterscheidbar ist.
  • Gemäß weiteren Aspekten der Erfindung kann eine Steuervorrichtung mit einer Berührungsanzeigeschnittstelle; einem Mikroprozessor; und einem computerlesbaren Speichermedium bereitgestellt werden. Das computerlesbare Speichermedium kann Programmbefehle umfassen, die vom Mikroprozessor ausführbar sind, die den Mikroprozessor konfigurieren, um verschiedene Funktionen durchzuführen, einschließlich einer oder mehrerer der Darstellung einer ersten Benutzerschnittstelle auf der Berührungsanzeigeschnittstelle, wobei die erste Benutzerschnittstelle ein Bildsymbol umfasst, das durch Berühren eines festgelegten Abschnitts der Berührungsanzeigeschnittstelle auswählbar ist; des Empfangs einer Angabe, dass die Steuervorrichtung eine zweite Benutzerschnittstelle aktivieren soll; des Umkonfigurierens der Berührungsanzeigeschnittstelle, um einen Satz von Befehlen zu empfangen, die der zweiten Benutzerschnittstelle entsprechen, einschließlich einer oder mehrerer Berührungsbewegungen auf der Berührungsanzeigeschnittstelle; des Empfangs einer Berührungsbewegungseingabe über die Berührungsanzeigeschnittstelle; des Bestimmens eines Befehls aus dem Satz von Befehlen, dem die empfangene Berührungsbewegungseingabe entspricht; und/oder des Ausführens und/oder Übertragens des Befehls. In einem Ausführungsbeispiel der Erfindung kann ein Tastfeld oder eine andere Vorrichtung ohne Berührungsanzeige verwendet werden, wie z. B. ein Trackpad oder eine andere Nicht-Anzeige-Berührungsschnittstelle.
  • In Ausführungsbeispielen ist die Steuervorrichtung in einem Smartphone enthalten. In Ausführungsbeispielen kann die zweite Benutzerschnittstelle Befehle zum Steuern des Smartphones oder einer anderen Vorrichtung, die die Steuervorrichtung umfasst, umfassen. In anderen Ausführungsbeispielen kann die Steuervorrichtung in einem Tablet-Computer wie z. B. Amazon Kindle® Fire oder einem Apple iPodTM Touch enthalten sein.
  • In Ausführungsbeispielen kann die Vorrichtung dazu konfiguriert sein, eine Benutzerrückkopplung auf der Basis der Bestimmung des Befehls, dem die empfangene Berührungsbewegungseingabe entspricht, vorzusehen. In Ausführungsbeispielen kann die Benutzerrückkopplung den bestimmten Befehl in einer Weise angeben, die von anderen möglichen Befehlen unterscheidbar ist.
  • Gemäß weiteren Aspekten der Erfindung kann ein computerimplementiertes Verfahren zum Aktivieren einer blinden Navigation einer Steuervorrichtung mit einer Berührungsschnittstelle und einem Neigungssensor, einem Orientierungssensor und/oder einem Bewegungssensor einen oder mehrere Schritte zum Aktivieren einer ersten Benutzerschnittstelle an der Steuervorrichtung, wobei die erste Benutzerschnittstelle einen ersten Satz von Befehlen umfasst, die durch Berühren der Berührungsschnittstelle aktiviert werden können; Empfangen einer Angabe über den Neigungssensor, den Orientierungssensor und/oder den Bewegungssensor, dass die Steuervorrichtung eine zweite Benutzerschnittstelle aktivieren soll, wobei die zweite Benutzerschnittstelle einen zweiten Satz von Befehlen umfasst, die so konfiguriert sind, dass sie für mindestens eine Berührungsgeste an der Berührungsschnittstelle empfänglich sind; Aktivieren der zweiten Benutzerschnittstelle; Empfangen einer Berührungsgesteneingabe über die Berührungsschnittstelle; Bestimmen eines Befehls aus dem zweiten Satz von Befehlen, dem die empfangene Berührungsgesteneingabe entspricht; und/oder Ausführen und/oder Übertragen des Befehls umfassen.
  • In Ausführungsbeispielen kann die Angabe über eine Vielzahl von Orientierungssensoren und/oder eine Vielzahl von Neigungssensoren empfangen werden. Solche Sensoren können beispielsweise einen Beschleunigungsmesser und/oder ein Gyroskop umfassen.
  • In Ausführungsbeispielen kann die Angabe eine Geste sein, durch die die Steuervorrichtung bewegt wird. In Ausführungsbeispielen kann die Angabe eine Geste sein, die durch den Bewegungsdetektor erfasst wird. In Ausführungsbeispielen kann die Angabe ein Schütteln der Steuervorrichtung sein.
  • In Ausführungsbeispielen kann eine spezielle Bewegung der Vorrichtung, die die Angabe einleitet, von einem Benutzer eingestellt werden.
  • In Ausführungsbeispielen kann die erste Benutzerschnittstelle eine Befehlsgeste umfassen, die eine ausgewählte Funktion, die in sowohl der ersten Benutzerschnittstelle als auch der zweiten Benutzerschnittstelle enthalten ist, unter Verwendung einer anderen Geste als die zweite Benutzerschnittstelle für die erste ausgewählte Funktion verwendet durchführen. In Ausführungsbeispielen kann die erste Benutzerschnittstelle eine Befehlsgeste umfassen, die eine ausgewählte Funktion der ersten Benutzerschnittstelle unter Verwendung einer gleichen Geste, die auch von der zweiten Benutzerschnittstelle für eine andere Funktion als die ausgewählte Funktion verwendet wird, durchführt.
  • Zusätzliche Merkmale, Vorteile und Ausführungsbeispiele der Erfindung können durch Betrachtung der folgenden ausführlichen Beschreibung, der Zeichnungen und der Ansprüche dargelegt werden oder ersichtlich sein. Überdies ist es selbstverständlich, dass sowohl die vorangehende Zusammenfassung der Erfindung als auch die folgende ausführliche Beschreibung beispielhaft sind und eine weitere Erläuterung ohne Begrenzung des Schutzbereichs der beanspruchten Erfindung vorsehen sollen. Die ausführliche Beschreibung und die spezifischen Beispiele geben jedoch nur bevorzugte Ausführungsbeispiele der Erfindung an. Verschiedene Änderungen und Modifikationen innerhalb des Gedankens und Schutzbereichs der Erfindung werden für den Fachmann auf dem Gebiet aus dieser ausführlichen Beschreibung ersichtlich.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die zugehörigen Zeichnungen, die enthalten sind, um ein weiteres Verständnis der Erfindung zu schaffen, sind in diese Patentbeschreibung integriert und bilden einen Teil von dieser und stellen Ausführungsbeispiele der Erfindung dar und dienen zusammen mit der ausführlichen Beschreibung zum Erläutern der Prinzipien der Erfindung. Es wird kein Versuch unternommen, Strukturdetails der Erfindung genauer zu zeigen als es für ein grundlegendes Verständnis der Erfindung und verschiedener Weisen, in denen sie ausgeführt werden kann, erforderlich sein kann. In den Zeichnungen gilt:
  • 1 ist ein vereinfachtes Diagramm einer Steuervorrichtung, die dazu konfiguriert ist, einen Satz von Geräten zu steuern, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 2 ist ein vereinfachtes Diagramm einer elektronischen Schaltung, die in einer Steuervorrichtung enthalten sein kann, gemäß Aspekten der Erfindung;
  • 3 ist ein Ablaufplan hoher Ebene für ein Verfahren zum Ändern eines Betriebsmodus einer Steuervorrichtung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 4 ist ein vereinfachtes Diagramm einer weiteren elektronischen Schaltung, die in dem Smartphone enthalten sein kann;
  • 5 zeigt eine beispielhafte Schnittstelle mit blinder Navigation, die aktiviert wird, und Befehle, die in der Schnittstelle mit blinder Navigation angezeigt werden; und
  • 6 ist ein Ablaufplan für ein Verfahren eines Ausführungsbeispiels der Erfindung.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • Es ist selbstverständlich, dass die Erfindung nicht auf die spezielle Methodologie, die Protokolle usw., die hierin beschrieben sind, begrenzt ist, da diese variieren können, wie der Fachmann erkennt. Es soll auch selbstverständlich sein, dass die hierin verwendete Terminologie nur für den Zweck der Beschreibung von speziellen Ausführungsbeispielen dient und den Schutzbereich der Erfindung nicht begrenzen soll. Obwohl beispielsweise bestimmte Ausführungsbeispiele mit Steuervorrichtungen und einer Funktionalität, die in einem Smartphone und dergleichen enthalten ist, der Zweckmäßigkeit halber beschrieben werden können, kann die Erfindung ähnliche Steuervorrichtungen ohne Begrenzung auf Smartphones oder andere spezifisch beschriebene Vorrichtungen umfassen. Es ist auch zu beachten, dass, wie hierin und in den beigefügeten Ansprüchen verwendet, die Singularformen ”ein”, ”eine” und ”das” die Pluralreferenzen umfassen, wenn der Kontext nicht deutlich anderes angibt. Folglich ist beispielsweise eine Bezugnahme auf ”ein Bildsymbol” eine Bezugnahme auf ein oder mehrere Bildsymbole und Äquivalente davon, die dem Fachmann auf dem Gebiet bekannt sind.
  • Wie hierin verwendet, kann ein ”Bildsymbol” im Allgemeinen als Piktogramm oder andres Symbol, Form, Menüelement usw., das auf einem Bildschirm angezeigt wird und verwendet wird, um eine Steuerschnittstelle wie z. B. an einem Computersystem, einer Fernbedienung, einem Spielsystem, einer mobilen Vorrichtung usw. zu navigieren, verstanden werden. Im Zusammenhang mit Berührungsschnittstellen können Bildsymbole beispielsweise durch Berühren eines entsprechenden Orts auf einer Berührungsanzeige, durch Berühren eines Orts auf einem Tastfeld, das mit einer separaten Anzeige verbunden ist, und/oder durch Bewegen eines Anzeigecursors über ein Tastfeld und ”Klicken” auf das Bildsymbol über das Tastfeld oder eine andere Schaltfläche aktiviert werden.
  • Wenn nicht anders definiert, haben alle hierin verwendeten technischen Begriffe dieselbe Bedeutung, wie üblicherweise von einem Fachmann auf dem Gebiet, das die vorliegende Erfindung betrifft, verstanden. Die Ausführungsbeispiele der Erfindung und die verschiedenen Merkmale und vorteilhaften Details davon werden mit Bezug auf die nicht begrenzenden Ausführungsbeispiele und Beispiele, die in den zugehörigen Zeichnungen beschrieben und/oder dargestellt werden und in der folgenden Beschreibung detailliert erläutert werden, vollständiger erläutert. Es sollte beachtet werden, dass die in den Zeichnungen dargestellten Merkmale nicht notwendigerweise maßstäblich gezeichnet sind, und Merkmale eines Ausführungsbeispiels bei anderen Ausführungsbeispielen verwendet werden können, wie der Fachmann erkennen würde, selbst wenn sie hierin nicht explizit angegeben sind. Beschreibungen von gut bekannten Komponenten und Verarbeitungstechniken können ausgelassen werden, um die Ausführungsbeispiele der Erfindung nicht unnötig unklar zu machen. Die hierin verwendeten Beispiele sind lediglich vorgesehen, um ein Verständnis von Weisen zu erleichtern, in denen die Erfindung ausgeführt werden kann, und um dem Fachmann auf dem Gebiet weiter zu ermöglichen, die Ausführungsbeispiele der Erfindung auszuführen. Folglich sollten die Beispiele und Ausführungsbeispiele hierin nicht als Begrenzung des Schutzbereichs der Erfindung aufgefasst werden, der nur durch die beigefügten Ansprüche und das geltende Recht definiert ist. Überdies wird angemerkt, dass gleiche Bezugsziffern auf ähnliche Teile in den ganzen verschiedenen Ansichten der Zeichnungen Bezug nehmen.
  • Wie vorstehend erwähnt, wird hier ein Beispielausführungsbeispiel einer Steuervorrichtung als Smartphone mit einer Berührungsschnittstelle und einer Softwareanwendung, die auf dem Smartphone arbeitet, um entfernt angeordnete Geräte und/oder Anwendungen/Dienste zu steuern, die auf diesen Geräten arbeiten, beschrieben. Die hierin beschriebenen verschiedenen Smartphone-Ausführungsbeispiele begrenzen jedoch die Ansprüche oder den Schutzbereich und Geltungsbereich der vorliegenden Erfindung nicht. Eine Steuervorrichtung, wie hierin beschrieben, kann beispielsweise eine universelle Fernbedienung, eine Tastatur, ein Tablet oder dergleichen sein und kann die Berührungsschnittstelle und die Softwareanwendungen umfassen, die zur Ausführung des Verfahrens der vorliegenden Erfindung beschrieben werden.
  • 1 ist ein vereinfachtes Diagramm einer Steuervorrichtung 100 (z. B. eines Smartphone 100) gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Beispiel-Smartphones umfassen das iPhoneTM von Apple Inc., das DroidTM von Motorola Inc. usw. Gemäß einem alternativen Ausführungsbeispiel ist die Steuervorrichtung ein persönlicher digitaler Assistent, ein iPad TouchTM, eine universelle Fernbedienung usw.
  • Das Smartphone 100 umfasst eine Berührungsschnittstelle 105, die eine Vielzahl von weichen Tasten 115 umfasst. Weiche Tasten sind auf dem Fachgebiet gut bekannt und umfassen berührungsempfindliche Bereiche auf der Berührungsschnittstelle. Weiche Tasten umfassen typischerweise Graphiken wie z. B. Bildsymbole, die typischerweise herkömmlichen ”Klick”-Tasten ähneln.
  • Weiche Tasten werden über eine Berührung der weichen Tasten aktiviert und können beispielsweise als elektronischer Hyperlink oder Dateiverknüpfung zum Zugreifen auf ein Softwareprogramm oder auf Daten dienen. Gemäß einem Ausführungsbeispiel umfasst das Smartphone 100 ebenso einen Satz von herkömmlichen Klicktasten 110. Ein Satz, wie hierin angeführt, umfasst ein oder mehrere Elemente. Das Smartphone ist dazu konfiguriert, verschiedene Befehlscodes (z. B. Fernbedienungsbefehlscodes) zum Steuern einer Vielzahl von Geräten und/oder zum Steuern von einer Anwendung/Diensten, die auf diesen Geräten arbeiten, zu übertragen. Die Vielzahl von Geräten können Unterhaltungsvorrichtungen wie z. B. ein Fernsehgerät, einen DVR (digitalen Videorekorder), einen DVD-Player, ein Empfangsgerät (wie z. B. einen Digitalempfänger), einen CD-Player usw. umfassen. Eine Unterhaltungsvorrichtung könnte auch einen Computer oder eine andere Vorrichtung (z. B. eine Spielkonsole, einen Digitalempfänger usw.), die Browser oder eine Medienanwendung wie z. B. iTunesTM betreibt, umfassen, wobei die Steuervorrichtung dazu konfiguriert ist, iTunesTM durch Steuern des Computers zu steuern (z. B. Lautstärke aufwärts/abwärts, Medienauswahl usw.). Andere Beispiele von Anwendungen/Diensten umfassen HuluTM, NetfilxTM usw.
  • 2 ist ein vereinfachtes Diagramm einer elektronischen Schaltung 200, die im Smartphone 100 enthalten ist, gemäß einem Ausführungsbeispiel der Erfindung. Die in 2 gezeigte elektronische Schaltung ist beispielhaft und andere Ausführungsbeispiele der Steuervorrichtung 100 können nicht alle der elektronischen Komponenten der elektronischen Schaltung 100 umfassen oder können zusätzliche oder elektronische Ersatzkomponenten umfassen. Gemäß dem Ausführungsbeispiel von 2 umfasst die elektronische Schaltung 200 einen Prozessor (oder alternativ eine Steuereinheit) 205, einen Speicher 210, einen Satz von Sendern 215, einen Satz von Empfängern 220, eine Berührungsschnittstelle 105 und den Satz von herkömmlichen Klicktasten 110. Der Prozessor 205 kann mit dem Speicher 210 zum Abrufen und Speichern eines Codes für die Softwareanwendung, zum Abrufen und Speichern von Befehlscodes, zum Abrufen und Speichern von Zeitsteuerinformationen für die Übertragung eines Satzes von Befehlscodes und dergleichen gekoppelt sein. Der Prozessor 205 ist mit der Berührungsschnittstelle 105 zum Steuern der Anzeige von weichen Tasten auf der Berührungsschnittstelle und zum Empfangen von Auswahlen der weichen Tasten durch einen Benutzer gekoppelt. Der Prozessor 205 ist auch mit dem Satz von Sendern 215 und dem Satz von Empfängern 220 gekoppelt. Der Satz von Sendern 215 kann verdrahtete und/oder drahtlose Sender wie z. B. für USB-Übertragungen, IR-Übertragungen, HF-Übertragungen, optische Übertragungen usw. umfassen. Der Satz von Empfängern 220 kann verdrahtete und/oder drahtlose Empfänger wie z. B. für USB-Übertragung, IR-Übertragungen, HF-Übertragungen, optische Übertragungen usw. umfassen. Einer oder mehrere der Sender und Empfänger können Sender/Empfänger-Paare sein.
  • Gemäß einem Ausführungsbeispiel umfasst die elektronische Schaltung 200 einen Satz von Neigungssensoren 225a, einen Satz von Orientierungssensoren 225b usw., die mit dem Prozessor 205 gekoppelt sind. Die Neigungssensoren und/oder Orientierungssensoren können einer oder mehrere eines Satzes von Beschleunigungsmessern, einer Kompassanwendung und einer Gyroskopanwendung sein. Die Kompassanwendung und/oder die Gyroskopanwendungen können GPS-Signale, Mobilfunkkommunikationssignale, die Magnetfeldlinien der Erde oder andere Signale verwenden, um eine Orientierung des Smartphone im Raum zu bestimmen. Die Neigungssensoren und/oder die Orientierungssensoren sind dazu konfiguriert, ein relativ ”schnelles” Schütteln der Steuervorrichtung zu erfassen sowie zwischen zwei oder mehr Angaben auf Bewegungsbasis zu unterscheiden, die beispielsweise verschiedene zu aktivierende blinde Navigationsmodi signalisieren können. Ein Benutzer kann beispielsweise einen ersten blinden Navigationsmodus zum Steuern einer Anwendung des Smartphone wie z. B. eines Audiowiedergabegeräts und einen zweiten blinden Navigationsmodus zum Steuern eines separaten Geräts wie z. B. eines Fernsehgeräts haben wollen. Der erste und der zweite blinde Navigationsmodus können separate und zueinander unterschiedliche Befehle umfassen, wie vom Benutzer eingestellt und/oder durch die zu steuernde Anwendung oder Vorrichtung vorgegeben. Der Benutzer kann daher das Smartphone 100 mit einer Angabe auf Bewegungsbasis zum Starten des ersten blinden Navigationsmodus und einer anderen Angabe auf Bewegungsbasis zum Starten des zweiten blinden Navigationsmodus konfigurieren.
  • In Ausführungsbeispielen kann eine Steuervorrichtung wie z. B. das Smartphone 100 und andere dazu konfiguriert sein, eine zweite Benutzerschnittstelle beispielsweise auf der Basis einer Eingabe von einem Bildsymbol, einer Drucktaste, einer Berührungsschnittstelle und/oder Kombinationen davon zu aktivieren. Eine festgelegte Drucktaste oder Kombination von Tasten kann beispielsweise verwendet werden, um die zweite Benutzerschnittstelle zu aktivieren. In Ausführungsbeispielen kann ein einzelnes Bildsymbol oder anderes Eingabeelement verwendet werden, um zwischen Schnittstellen umzuschalten, und kann beispielsweise in beiden Schnittstellen betriebsfähig sein, z. B. ein Bildsymbol, das in einem Abschnitt der Berührungsanzeige angezeigt wird, die in der ersten und der zweiten Benutzerschnittstelle aktiviert bleibt.
  • Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung umfasst das Smartphone 100 eine Softwareanwendung 230, die im Speicher 210 gespeichert ist und durch den Prozessor 205 ausgeführt wird, der in Verbindung mit der Berührungsschnittstelle 105 arbeitet. Die Softwareanwendung 230 kann beispielsweise eine Softwareanwendung sein, die auf dem Smartphone 100 zum Fernbedienen eines Satzes von Geräten betriebsfähig ist. Obwohl der Begriff Softwareanwendung hierin verwendet wird, umfasst der Begriff Softwareanwendung eine Firmware oder eine Kombination von Firmware und Software.
  • In einem anderen Ausführungsbeispiel befindet sich die Softwareanwendung 230 auf einer externen Vorrichtung wie z. B. einem entfernten Server, einem Hauptrechner, einem Blaster, einem Digitalempfänger, einer Spielekonsole oder dergleichen, mit der die Steuervorrichtung über ein Netzwerk oder direkt zu kommunizieren konfiguriert ist. Eine direkte Kommunikation kann über eine IR-, HF-, optische, verdrahtete Verbindung usw. übertragen werden. Gemäß dem Ausführungsbeispiel, in dem die Steuervorrichtung mit der externen Vorrichtung (z. B. entfernter Server, ein Hauptrechner, ein Blaster usw.), die die Softwareanwendung betreibt, über ein Netzwerk kommuniziert, kann das Netzwerk ein lokales Netzwerk (z. B. ein LAN, ein Heim-HF-Netzwerk usw.) oder irgendein anderer Typ von Netzwerk wie z. B. ein WiFi-Netzwerk (z. B. eine Verbindung über einen lokalen drahtlosen Router), ein Mobiltelefonnetzwerk usw. sein. Ein WAN kann das Internet, das Internet 2 und dergleichen umfassen. Ein LAN kann ein Intranet umfassen, das ein Netzwerk beispielsweise auf der Basis von TCP/IP sein kann, das zu einer Organisation gehört und das nur für die Mitglieder, Angestellten der Organisation oder andere mit Berechtigung zugänglich ist. Ein LAN kann auch ein Netzwerk wie beispielsweise NetwareTM von Novell Corporation (Provo, UT) oder Windows NT von Microsoft Corporation (Redmond, WA) sein. Das Netzwerk 320 kann auch kommerziell erhältliche Dienste auf Teilnahmebasis umfassen, wie beispielsweise AOL von America Online, Inc. (Dulles, VA) oder MSN von Microsoft Corporation (Redmond, WA). Das Netzwerk 320 kann auch ein Heimnetzwerk, ein Netzwerk auf Ethernet-Basis, ein Netzwerk auf der Basis des öffentlichen Telefonnetzes, ein Netzwerk auf der Basis des Internets oder irgendein anderes Kommunikationsnetzwerk sein. Beliebige der Verbindungen im Netzwerk 320 können verdrahtet oder drahtlos sein.
  • 3 ist ein Ablaufplan hoher Ebene für ein Verfahren zum Ändern eines Betriebsmodus einer Steuervorrichtung, in diesem Fall eines Smartphone, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Der Ablaufplan hoher Ebene ist beispielhaft und begrenzt die Ansprüche nicht. Verschiedene im Ablaufplan gezeigte Schritte können hinzugefügt, entfernt oder kombiniert werden, ohne vom Geltungsbereich und Schutzbereich des vorliegenden beschriebenen Ausführungsbeispiels abzuweichen. Gemäß einem Ausführungsbeispiel ist, wenn die Softwareanwendung auf dem Smartphone aktiv ist (z. B. durch den Prozessor ausgeführt wird), das Smartphone dazu konfiguriert, eine Eingabe zum Ändern eines Betriebsmodus zu empfangen (Schritt 300), z. B. von einem graphischen Schnittstellenmodus in einen blinden Navigationsmodus der Berührungsschnittstelle zu wechseln. In einem Ausführungsbeispiel ist das Smartphone dazu konfiguriert, die Eingabe zum Wechseln des Betriebsmodus von einem Benutzer beispielsweise durch schnelles Schütteln oder Orientieren des Smartphone in einer speziellen Weise, durch Wischen über den Berührungsbildschirm in einer vorbestimmten Weise, über einen Tastendruck usw. zu empfangen (Schritt 310).
  • Die Softwareanwendung kann dazu konfiguriert sein, die Orientierung des Smartphone zu überwachen und eine Änderung der Orientierung des Smartphone kann eine Modusänderung durch das Smartphone einleiten. Änderungen der Orientierung des Smartphone können durch die Softwareanwendung durch Überwachen des Satzes von Neigungssensoren 225a und/oder des Satzes von Orientierungssensoren 225b durchgeführt werden. Insbesondere wenn die Softwareanwendung feststellt (durch Überwachung der Neigungssensoren und/oder der Orientierungssensoren), dass das Smartphone in einer vorbestimmten Orientierung angeordnet wurde oder in einem vorbestimmten Weg bewegt wurde (auch als Geste bezeichnet), ist die Softwareanwendung dazu konfiguriert, den Betriebsmodus des Smartphone zu ändern (z. B. Ändern des Modus des Smartphone vom graphischen Schnittstellenmodus in den blinden Navigationsmodus). Die Softwareanwendung kann dazu konfiguriert sein, die Beschleunigungsdaten, die Neigungsdaten und/oder die Orientierungsdaten, die durch den Satz von Neigungssensoren und/oder den Satz von Orientierungssensoren erzeugt werden, zu verwenden, um eine Geste zu bestimmen, durch die das Smartphone bewegt wird, um festzustellen, ob die Gaste eine vorbestimmte Geste ist, die einer Modusänderung, einem Satz von Befehlscodes oder dergleichen zugeordnet ist. Die Vorrichtung kann derart konfiguriert sein, dass die Aktivierung der blinden Navigation in verschiedenen Weisen aktiviert und deaktiviert werden kann. in Situationen, in denen der Benutzer erwartet, die blinde Navigation zu verwenden, wie z. B. beim Fernsehen, kann beispielsweise der Vorrichtung ein erster Befehl gegeben werden, z. B. eine harte Taste, der die blinde Navigation aktiviert, wenn die geeignete Angabe empfangen wird. Wenn der Benutzer die blinde Navigation deaktivieren will, wie z. B. wenn er ein Spiel auf einem Smartphone spielt, das versehentlich die blinde Navigation aktivieren könnte, kann ebenso eine harte Taste oder ein anderer Befehl gegeben werden, um zu verhindern, dass die Vorrichtung in den blinden Navigationsmodus eintritt.
  • 4 ist ein vereinfachtes Diagramm einer elektronischen Schaltung 400, die im Smartphone 100 enthalten ist, gemäß einem alternativen Ausführungsbeispiel der vorliegenden Erfindung. Die elektronische Schaltung 400 unterscheidet sich von der elektronischen Schaltung 200 darin, dass die elektronische Schaltung 300 einen Bewegungsdetektor oder einen Bildsensor 235 umfasst. Der Bewegungsdetektor könnte eine Digitalkamera wie z. B. eine CMOS-Kamera, eine CCD-Kamera oder dergleichen sein. Der Bewegungsdetektor ist dazu konfiguriert, eine Geste eines Objekts wie z. B. einer Hand oder eines Fingers, das innerhalb des Detektionsbereichs des Bewegungsdetektors bewegt wird, zu erfassen. Die Softwareanwendung ist dazu konfiguriert, den Bewegungsdetektor zu überwachen, um festzustellen, ob der Bewegungsdetektor die Bewegung eines Objekts erfasst hat, wobei die Bewegung eine vorbestimmte Geste ist. Wie vorstehend in Bezug auf andere Gesten (Wischbewegung über die Berührungsschnittstelle oder Bewegung des Smartphone) erörtert, können durch den Bewegungsdetektor erfasste Gesten auf spezifische Funktionen des Smartphone abgebildet werden, wie z. B. Moduswechsel, Anwendungsbefehle, usw. oder Sätzen von Befehlscodes zugeordnet werden, die vom Smartphone übertragen werden können, um einen Satz von Geräten zu steuern. In einigen Ausführungsbeispielen kann das Umschalten zu oder von einem graphischen Schnittstellenmodus von oder zu einem blinden Navigationsmodus durch eine Eingabe eingeleitet werden, die zu einem Bildsensor und/oder einem Bewegungsdetektor geliefert wird.
  • 5 zeigt weitere Details eines Ausführungsbeispiels der Erfindung, wie auf eine spezielle Steuervorrichtung angewendet. Wie in 5 gezeigt, kann eine Steuervorrichtung eine erste Benutzerschnittstelle 501 mit einer Vielzahl von Bildsymbolen, die separate Anwendungen, Befehle usw. darstellen, die durch Berühren von entsprechenden Abschnitten der Berührungsanzeigeschnittstelle auswählbar sind, umfassen. Die erste Benutzerschnittstelle 501 kann auch auf eine oder mehrere Gesten reagieren, wie z. B. Seitenwischbewegungen usw. Die Steuervorrichtung kann ebenso eine beliebige Anzahl von harten Tasten (nicht dargestellt) umfassen. Wenn die Vorrichtung eine Angabe zum Wechseln der ersten Benutzerschnittstelle in einen blinden Navigationsmodus erfasst, wie z. B.
  • Erfassen eines Schüttelns der Vorrichtung, Auswahl eines festgelegten Bildsymboles, eine festgelegte Berührungsgeste, ein Drücken einer harten Taste, usw., kann die Berührungsanzeigeschnittstelle umkonfiguriert werden, um beispielsweise eine zweite Benutzerschnittstelle 502 mit einer Vielzahl von Befehlen anzuzeigen, die anders als die durch die erste Benutzerschnittstelle 501 verfügbaren sein können oder die andere Berührungsgesten als Befehle der ersten Benutzerschnittstelle 501 verwenden können. Die in der zweiten Benutzerschnittstelle 502 enthaltenen Befehle können beispielsweise Fernbedienungsbefehle wie z. B. Lautstärke- und/oder Kanaleinstellungssteuerungen mit verschiedenen entsprechenden Berührungsbewegungen sein. Die zweite Benutzerschnittstelle 502 kann dazu konfiguriert sein, vielmehr Berührungsbewegungen und/oder Kombinationen von Berührungsbewegungen als Auswahlen von speziellen Bildsymbolen zu empfangen und/oder zu erkennen.
  • Als weiteres Beispiel kann eine bestimmte Geste, die in der ersten Benutzerschnittstelle 501 verwendbar ist, andere Funktionen in der zweiten Benutzerschnittstelle 502 durchführen, z. B. kann eine Seitenwischbewegung zwischen verschiedenen Seiten von Bildsymbolen in der ersten Benutzerschnittstelle 501 navigieren und kann in der zweiten Benutzerschnittstelle 502 einen Befehl anweisen, um eine andere Funktion auszuführen oder zu übertragen, wie z. B. Kanal aufwärts, usw. Es sollte beachtet werden, dass in einigen Ausführungsbeispielen die zweite Benutzerschnittstelle 502 auf einer Nicht-Anzeige-Berührungsschnittstelle oder nur in einem Abschnitt des Berührungsbildschirmbereichs aktiviert werden kann, wodurch weiterhin ein Zugriff auf ein oder mehrere Bildsymbole und/oder Befehle von der ersten Benutzerschnittstelle in einem anderen Abschnitt des Bildschirms ermöglicht wird. Ein Umschaltbildsymbol in der ersten Benutzerschnittstelle kann beispielsweise die zweite Benutzerschnittstelle in einem Abschnitt des Bildschirms aktivieren, und das Umschaltbildsymbol kann betriebsfähig bleiben, während die zweite Benutzerschnittstelle aktiviert ist.
  • Eine beliebige Anzahl von Schnittstellen mit blinder Navigation können implementiert werden und können verschiedene Schnittstellen mit blinder Navigation für verschiedene Vorrichtungen und/oder Anwendungen umfassen, die durch verschiedene Indikatoren eingeleitet werden können. In einem Ausführungsbeispiel der Erfindung kann die Erfassung einer Geste ein Umschalten von einem graphischen Schnittstellenmodus in einen blinden Navigationsmodus oder umgekehrt auslösen. Die Geste kann über einen Bildsensor, einen Bewegungsdetektor oder dergleichen erfasst werden.
  • Die zweite Benutzerschnittstelle 502 zeigt Befehle auf dem Bildschirm, so dass Benutzer, die mit der Schnittstelle mit blinder Navigation nicht vertraut sind, leicht feststellen können, welche Gesten zur Verfügung stehen, und die Schnittstelle auf Wunsch deaktivieren können. Es sollte jedoch beachtet werden, dass andere Ausführungsbeispiele die Berührungsanzeige ohne Ändern dessen, was auf der Vorrichtung angezeigt wird, oder nur teilweise Ändern der Anzeige umkonfigurieren können. Das Umkonfigurieren der Berührungsanzeige kann beispielsweise nur das Umkonfigurieren des Befehlserkennungsmoduls der Steueranwendung der Vorrichtung beinhalten, damit es auf Befehle zur blinden Navigation reagiert, oder es kann das Ändern eines Abschnitts der Anzeige, in dem Befehle zur blinden Navigation eingegeben werden können, beinhalten, z. B. Anzeigen eines Fensters, in dem Befehle zur blinden Navigation erkannt werden. In dem in 5 gezeigten Ausfürungsbeispiel können Wischbefehle über den ganzen Berührungsbildschirm erfasst werden, z. B. irgendeine Aufwärts-, Abwärtswischbewegung oder Wischbewegung von Seite zu Seite über den Bildschirm kann als einem Befehl der zweiten Benutzerschnittstelle 502 entsprechend erkannt werden. In Ausführungsbeispielen kann ein visueller, taktiler und/oder Audioalarm vorgesehen werden, der angibt, dass die zweite Benutzerschnittstelle aktiviert wurde.
  • In Ausführungsbeispielen kann die zweite Benutzerschnittstelle 502 Berührungsbewegungsbefehle umfassen, die Befehlssteuerungen von Bildsymbolen von der ersten Benutzerschnittstelle 501 entsprechen. Die erste Benutzerschnittstelle 501 kann beispielsweise eine Vielzahl von Bildsymbolen mit zugehörigen Befehlsfunktionen zum Steuern eines Satzes eines separaten Geräts wie z. B. eines A/V-Systems umfassen. Ein Satz der Bildsymbole, die in der ersten Benutzerschnittstelle 501 enthalten sind, kann daher beispielsweise Lautstärkesteuerungen sein. Ein Benutzer kann jedoch nicht auf alle verfügbaren Befehle im blinden Navigationsmodus zugreifen müssen. Daher kann die zweite Benutzerschnittstelle 502 Berührungsbewegungsbefehle umfassen, die einer Teilmenge der in der ersten Benutzerschnittstelle 501 gezeigten verfügbaren Befehle entsprechen. Folglich kann die Berührungsbildschirmschnittstelle umkonfiguriert werden, um alle der Bildsymbole von der ersten Benutzerschnittstelle 501 zu deaktivieren und einen Berührungsbewegungsbefehl in der zweiten Benutzerschnittstelle 502 zu aktivieren, der einer Befehlsfunktion von einem oder mehreren der deaktivierten Bildsymbole entspricht (z. B. eine Lautstärkesteuerung, eine Kanalsteuerung, usw.).
  • 6 ist ein detaillierter Ablaufplan, der ein Verfahren eines Ausführungsbeispiels der Erfindung zeigt. Verschiedene Schritte, die im Ablaufplan gezeigt sind, können hinzugefügt, entfernt oder kombiniert werden, ohne vom Geltungsbereich und Schutzbereich der Erfindung abzuweichen. Gemäß einem Ausführungsbeispiel wird in Schritt 601 eine Aktivierungsgeste erfasst und die Schnittstelle mit blinder Navigation wird in Schritt 602 aktiviert und in Schritt 603 wird eine Rückkopplung zum Benutzer gesendet. Die Geste kann ein Schütteln der Vorrichtung, eine Bildschirmgeste, eine durch eine Kamera erfasste physikalische Geste oder irgendeine andere Aktivierungsgeste ein. Die Rückkopplung zum Benutzer kann beispielsweise das Vibrieren der Vorrichtung, eine Klangbenachrichtigung oder eine Verdunkelung oder ein Blinken des Bildschirms sein. Sobald die Benutzerschnittstelle mit blinder Navigation erfasst wird, kann in Schritt 604 eine Befehlsgeste erfasst werden. Eine Befehlsgeste kann beispielsweise eine Wischbewegung eines Fingers von der Oberseite des Bildschirms zur Unterseite des Bildschirms, ein Wischmuster, eine Wischbewegung in einem festgelegten Bereich der Berührungsanzeige usw. umfassen. Die Befehlsgeste kann einem speziellen Befehl wie z. B. Verringern der Klanglautstärke entsprechen.
  • In Ausführungsbeispielen können erfasste Befehlsgesten für den Benutzer durch Vorsehen einer visuellen, taktilen und/oder Audiobestätigung bestätigt werden. Die Bestätigung kann für den erkannten Befehl eindeutig sein und kann dadurch für den Benutzer bestätigen, dass der beabsichtigte Befehl erkannt wurde. Ein Audioausdruck kann beispielsweise emittiert werden wie z. B. ”Lautstärke aufwärts” oder ”Lautstärke abwärts”, so dass der Benutzer weiß, welcher Befehl erkannt wurde. Eine alternative taktile Rückkopplung kann auch beispielsweise verschiedene Vibrationszyklen für verschiedene Befehle usw. umfassen.
  • Sobald er erkannt ist, kann der spezielle Befehl in Schritt 605 ausgeführt und/oder zu einem anderen Gerät übertragen werden, wie hierin beschrieben. Es sollte beachtet werden, dass gemäß Ausführungsbeispielen Befehle indirekt zu der (den) befehligten Vorrichtung(en) über Zwischenvorrichtungen wie beispielsweise einen Blaster, eine Logitech Harmony® Verbindung oder andere verbundene Vorrichtung wie z. B. einen A/V-Empfänger gelenkt werden können. Folglich kann beispielsweise ein Befehl für ein Gerät wie z. B. einen DVD-Player durch die Steuervorrichtung zu einer verbundenen Vorrichtung wie z. B. einem Fernsehgerät übertragen und durch die verbundene Vorrichtung zum Gerät zurück übertragen werden. In Ausführungsbeispielen kann der spezielle Befehl mit einer Anwendung in Beziehung stehen, die gegenwärtig auf der Steuervorrichtung läuft, z. B. einem Video- oder Audioabspielgerät, und der Befehl kann durch die laufende Anwendung ausgeführt werden. Dies kann beispielsweise beim Ermöglichen, dass der Benutzer bestimmte Einstellungen leicht einstellt, wie z. B. Lautstärke, Helligkeit usw., über den Berührungsbildschirm ohne Unterbrechen der laufenden Anwendung vorteilhaft sein. Schritt 605 kann das Aktivieren eines Makro an der Vorrichtung oder das Senden eines speziellen Infrarotcodes umfassen.
  • Sobald eine Deaktivierungsgeste in Schritt 606 erfasst wird, kann die Schnittstelle mit blinder Navigation deaktiviert werden und die reguläre Schnittstelle in Schritt 607 aktiviert werden. Die Deaktivierungsgeste kann ein Schütteln der Vorrichtung, eine Bildschirmgeste oder irgendeine andere Deaktivierungsgeste sein.
  • Obwohl das Vorangehende das Ändern des Betriebsmodus vom graphischen Schnittstellenmodus in den blinden Navigationsmodus beschreibt, wenn das Smartphone gemäß einer spezifischen Geste bewegt wird, könnte die spezifische Geste eine Umschaltfunktion sein und zwischen den Modi auf der Basis des gegenwärtigen Modus des Smartphone umschalten. Wenn beispielsweise das Smartphone gemäß einer spezifischen Geste bewegt wird (z. B. in einer Kreisbewegung), dann kann die Softwareanwendung dazu konfiguriert sein, das Smartphone in den blinden Navigationsmodus zu setzen, wenn sich das Smartphone im graphischen Schnittstellenmodus befindet, oder alternativ, wenn das Smartphone sich im graphischen Schnittstellenmodus befindet, kann die Softwareanwendung das Smartphone in den blinden Navigationsmodus setzen.
  • Gemäß einem weiteren Ausführungsbeispiel der vorliegenden Erfindung kann die Softwareanwendung dazu konfiguriert sein, die Typen von Sensoren zu bestimmen, die eine gegebene Steuervorrichtung umfasst. Die Softwareanwendung könnte beispielsweise eine ”Zubehör”-Anwendung sein, die unabhängig von der Steuervorrichtung als ”Zubehör”-Produkt erworben werden kann. Alternativ könnte die Softwareanwendung eine ”native” Anwendung sein, die zum Zeitpunkt des Erwerbs mit einer Steuervorrichtung versehen ist. Gemäß einem Ausführungsbeispiel kann die Softwareanwendung dazu konfiguriert sein zu bestimmen, ob eine Steuervorrichtung einen Satz von Neigungssensoren, einen Satz von Orientierungssensoren oder dergleichen aufweist. Auf der Basis dessen, ob eine gegebene Steuervorrichtung einen Satz von Neigungssensoren, Orientierungssensoren oder dergleichen umfasst, kann die Softwareanwendung dazu konfiguriert sein, auf der Berührungsschnittstelle oder dergleichen die Typen von Gesten darzustellen, die für einen Benutzer zum Zuweisen zu Modusänderungen, Sätzen von Befehlscodes und dergleichen zur Verfügung stehen. Wenn eine Steuervorrichtung einen Satz von Neigungssensoren, aber keinen Satz von Orientierungssensoren umfasst, sind im Allgemeinen die Anzahl und die Typen von Gesten, die zur Verwendung an der Steuervorrichtung zur Verfügung stehen, geringer als die Anzahl und Typen von Gesten, die an einer Steuervorrichtung mit sowohl einem Satz von Neigungssensoren als auch Orientierungssensoren zur Verfügung stehen. Die Softwareanwendung kann beispielsweise dazu konfiguriert sein, einen ersten Satz von verfügbaren Gesten für den Benutzer zum Auswählen auf der Basis eines ersten Satzes von erfassten Sensoren darzustellen und einen zweiten Satz von verfügbaren Gesten für den Benutzer zum Auswählen auf der Basis eines zweiten Satzes von erfassten Sensoren und/oder Kombinationen von Sensoren darzustellen.
  • Gemäß einem weiteren Ausführungsbeispiel kann der Betriebsmodus der Steuervorrichtung über die Softwareanwendung geändert werden, die die Berührungsschnittstelle auf den Empfang einer speziellen Geste/Wischbewegung eines Fingers, Stifts usw. überwacht (z. B. kreisförmige Wischbewegung auf der Berührungsschnittstelle). In einem alternativen Modus benötigt die Softwareanwendung keine spezielle Eingabe durch einen Benutzer, um in den blinden Navigationsmodus einzutreten, um die blinde Navigation zu aktivieren, und kann beispielsweise auf Umgebungsbedingungen wie z. B. Licht und/oder Kurzstrecken-Kommunikationssignalen basieren. Gemäß einem Ausführungsbeispiel umfasst die Steuervorrichtung einen Lichtsensor, und wenn ein vorbestimmter Pegel von ”schwachem” Licht durch den Lichtsensor erfasst wird, ist die Softwareanwendung dazu konfiguriert, die Steuervorrichtung in den blinden Navigationsmodus zu setzen. Wenn Licht von Licht über dem schwachen Lichtpegel durch den Lichtsensor erfasst wird, kann die Softwareanwendung die Steuervorrichtung in den graphischen Schnittstellenmodus setzen. Dies kann beispielsweise vorteilhaft sein, wenn der Benutzer in einem abgedunkelten Raum fernsieht, oder beim Aktivieren eines blinden Navigationsmodus bei Nacht, während der Benutzer schläft, was ermöglicht, dass der Benutzer intuitiv auf gewünschte Befehle und/oder Anwendungen zugreift, wenn er während der Nacht aufwacht, usw. Alternativ kann ein vorbestimmtes Signal den blinden Navigationsmodus aktivieren wie z. B. ein Bluetooth-Signal, das dem Fahrzeug eines Benutzers zugeordnet ist, usw. Solche Merkmale können als Sicherheitsmaßnahmen verwendet werden, um beispielsweise bestimmte Funktionen eines Smartphone und dergleichen zu deaktivieren, wenn es in einem Fahrzeug oder Flugzeug betrieben wird. In einem Ausführungsbeispiel der Erfindung kann der Benutzer konfigurieren und/oder umkonfigurieren können, wie ein Betriebsmodus aktiviert und/oder deaktiviert wird, z. B. durch Auswählen einer speziellen Geste zum Aktivieren und Deaktivieren eines Modus usw.
  • In einem Ausführungsbeispiel wird, nachdem die Vorrichtung in den blinden Navigationsmodus gesetzt ist, die blinde Navigation über die Berührungsschnittstelle aktiviert. Im blinden Navigationsmodus kann die Softwareanwendung dazu konfiguriert sein, eine Vielzahl von Gesten von einem oder mehreren Fingern, Händen, Stiften oder dergleichen auf der Berührungsschnittstelle zu erkennen. Eine Geste kann eine Bewegung eines Fingers oder einer Vielzahl von Fingern, eines Stifts oder dergleichen über die Berührungsschnittstelle umfassen. Jede vordefinierte Geste kann einem Satz von spezifischen Befehlscodes zugeordnet sein, die von der Vorrichtung ausgeführt werden können und/oder von der Vorrichtung zum Steuern von einem oder mehreren Geräten/Anwendungen/Diensten usw. übertragen werden können. In einem Ausführungsbeispiel der Erfindung zeigt der Berührungsbildschirm Angaben des zu steuernden Geräts oder der zu steuernden Anwendung und/oder mögliche Gesten auf dem Bildschirm an, um dem Benutzer anzugeben, welche Gesten erkannt werden und welchen Befehlen sie entsprechen, so dass der Benutzer identifizieren kann, was gesteuert wird, und diejenigen Benutzer, die mit den Gesten nicht vertraut sind, mit den erkannten Gesten schnell vertraut werden können. Die angezeigten möglichen Gesten können beispielsweise auf einer Anwendung basieren, die gegenwärtig auf der Steuervorrichtung läuft, z. B. ein Film- oder Audioabspielgerät.
  • In Ausführungsbeispielen kann eine Geste durch einen Benutzer definiert und einem Satz von Befehlscodes zugeordnet werden. Ein Satz von Befehlscodes kann einen einzelnen Befehlscode umfassen, wie z. B. zum Ändern eines Eingangs an einem Fernsehgerät (z. B. Ändern des Eingangs von HDMI 1 auf Komponente 1), Ändern der Lautstärke usw., oder er kann eine Vielzahl von Befehlscodes zum Durchführen einer Handlung umfassen. Eine Handlung kann eine Vielzahl von Befehlscodes für eine Handlung zum Ansehen einer DVD, eine Handlung zum Anhören einer CD, eine Handlung zum Fernsehen usw. umfassen. Eine Handlung zum Fernsehen könnte Befehlscodes zum Einschalten des Fernsehgeräts, Einstellen des Eingangs für das Fernsehgerät auf den Eingang der Komponente 1 für den Digitalempfänger und Einschalten des Digitalempfängers umfassen. Die Handlung zum Fernsehen könnte einen oder mehrere zusätzliche Befehlscodes umfassen, wie z. B. einen Befehlscode zum Schalten des Digitalempfängers auf den Lieblingsfernsehkanal des Benutzers (z. B. Kanal 6). Gemäß einem Ausführungsbeispiel kann die Berührungsschnittstelle dazu konfiguriert sein, eine schrittweise Bewegung zum Steuern eines Geräts und/oder einer Anwendung/eines Diensts, der auf dem Gerät arbeitet, wie z. B. schrittweises Erhöhen der Lautstärke einer Medienanwendung, die auf einem Computer arbeitet, zu erfassen.
  • In einem Ausführungsbeispiel ist zu beachten, dass verschiedene Funktionen/Befehlscodes durch die Softwareanwendung auf der Steuervorrichtung (z. B. Fernbedienung, Smartphone usw.) zu verschiedenen Geräten oder verschiedenen Anwendungen gesendet werden können. Von einem einzelnen blinden Navigationsmodus kann beispielsweise ein Lautstärkesteuerbefehl an einen Audioempfänger an einem Digitalempfänger, einen Fernsehgerät usw. gerichtet werden, während Seiten-Aufwärts/Abwärts-Befehle an eine Browseranwendung, die auf einem Computer arbeitet, gerichtet werden können. In einem Ausführungsbeispiel kann der Benutzer festlegen, welche Befehle an welche Geräte/Anwendungen gerichtet werden.
  • Gemäß einem Ausführungsbeispiel ist die Steuervorrichtung dazu konfiguriert, sich die Zustände eines Satzes von Geräten zu merken und diese zu aktualisieren, wie z. B. Erinnern an die Lautstärkeeinstellung eines Fernsehgeräts, den Eingang des Fernsehgeräts (z. B. HDMI 2 Eingang), den Einschaltzustand des Fernsehgeräts und des Digitalempfängers und den Zustand eines Raumklangsystems. Das US-Patent Nr. 6 784 805 mit dem Titel ”State-Based Remote Control System” von Glen McLean Harris et al., dessen Inhalt durch den Hinweis in seiner Gesamtheit hierin aufgenommen wird, erörtert eine Fernbedienung und ein Fernbedienungssystem, das dazu konfiguriert ist, sich gespeicherte Zustände von gesteuerten Geräten zu merken und diese zu aktualisieren, und wird durch den Hinweis hierin aufgenommen. Gemäß einem Ausführungsbeispiel kann die Steuervorrichtung oder eine andere Vorrichtung (z. B. ein IR-Blaster) dazu konfiguriert sein, einen oder mehrere Befehlscodes in einem Satz von Befehlscodes zu ändern, um ein spezifisches Gerät anzuweisen, eine Funktion anstelle eines gegebenen Geräts durchzuführen. Wenn beispielsweise die Steuervorrichtung gespeicherte Zustände umfasst, die angeben, dass das Raumklangsystem die Lautstärke für einen auf dem Fernsehgerät abgespielten Film steuert, könnte die Steuervorrichtung einen Befehlscode von einem Satz von Befehlscodes für eine Handlung zum ”Fernsehen”) (z. B. ein Makro) zum Einstellen der Lautstärke des Fernsehgeräts entfernen und könnte den Befehlscode zum Einstellen der Lautstärke am Fernsehgerät durch einen Befehlscode zum Einstellen der Lautstärke am Raumklangsystem ersetzen. Die anfängliche Handlung zum ”Fernsehen” könnte einer spezifischen Berührungsgeste auf der Berührungsschnittstelle zugewiesen werden.
  • Gemäß Ausführungsbeispielen können Sätze von Befehlscodes, die üblicherweise ausgeführt werden, auf spezifische Gesten auf einer Berührungsschnittstelle abgebildet werden. Ein üblicherweise ausgeführter Satz von Befehlscodes kann beispielsweise Wiedergabe, Pause, Schnellvorlauf (FWD), Rücklauf (RWD), Lautstärke aufwärts, Lautstärke abwärts, Stummschalten, Seite aufwärts, Seite abwärts, Kanal aufwärts, Kanal abwärts, Fernsehen, DVD ansehen, CD wiedergeben und so weiter umfassen. In einem Ausführungsbeispiel kann beispielsweise eine einzelne Aufwärtswischbewegung eines Fingers auf der Berührungsschnittstelle einem diskreten Befehlscode zum Erhöhen der Lautstärke entsprechen. Eine einzelne Abwärtswischbewegung eines Fingers auf der Berührungsschnittstelle kann einem diskreten Befehlscode zum Verringern der Lautstärke entsprechen. Eine einzelne Aufwärtswischbewegung eines Fingers auf dem Tastfeld, gefolgt davon, dass der Finger festgehalten wird, kann einer Vielzahl von Befehlscodes zum Erhöhen der Lautstärke entsprechen. Eine einzelne Abwärtswischbewegung eines Fingers auf der Berührungsschnittstelle, gefolgt davon, dass der Finger auf der Berührungsschnittstelle festgehalten wird, kann einer Vielzahl von Befehlscodes zum Verringern der Lautstärke entsprechen.
  • In einem Ausführungsbeispiel können die Befehlscodes Steuerkreuz aufwärts, Steuerkreuz abwärts, Steuerkreuz links und Steuerkreuz rechts auf Gesten abgebildet werden. In einem Ausführungsbeispiel kann eine einzelne Wischbewegung auf einen diskreten Steuerkreuzbefehl abgebildet werden, wohingegen eine einzelne Wischbewegung, gefolgt vom Festhalten des Fingers, mehrere Steuerkreuzbefehle senden kann. Die Richtungen der Wischbewegungen (z. B. links, rechts, abgewinkelt, kreisförmig usw.) sind für jeden Befehlscode gemäß einem Ausführungsbeispiel der vorliegenden Erfindung eindeutig.
  • In Ausführungsbeispielen kann dem Benutzer ermöglicht werden, festzulegen, welche Gesten erkannt werden, wenn sich die Vorrichtung im blinden Modus befindet. In einem Ausführungsbeispiel der Erfindung kann der Benutzer auf ein Menü zugreifen, um festzulegen, welche Gesten individuellen Befehlen entsprechen, wenn sich die Vorrichtung im blinden Modus befindet. Die vorgesehenen verfügbaren Gesten können beispielsweise von tatsächlichen Sensoren abhängen, die in der Vorrichtung erfasst wurden. Ferner kann der Benutzer mehr als einen blinden Modus festlegen können, wobei jeder Modus in einer anderen Weise aktiviert wird. Der erste blinde Modus kann beispielsweise ermöglichen, dass der Benutzer den Kanal eines Fernsehgeräts durch Aufwärts- oder Abwärtswischen ändert, Der zweite blinde Modus kann ermöglichen, dass der Benutzer die Lautstärke unter Verwendung derselben Geste zum Aufwärts- oder Abwärtswischen ändert.
  • Es ist zu beachten, dass die hierin erwähnten Gesten/Wischbewegungen eine einzelne Fingerberührung der Berührungsschnittstelle und/oder mehrere Finger, die die Berührungsschnittstelle berühren, umfassen können. Verschiedene Funktionen können auf Sätze von Befehlscodes in Abhängigkeit von nicht nur der Geste, sondern auch von der Anzahl von Fingern, die die Berührungsschnittstelle berühren, abgebildet werden. In einem Ausführungsbeispiel kann beispielsweise eine einzelne Wischbewegung nach oben (oder nach unten) auf einen diskreten Befehlscode zum Zeilenhochrollen (oder Zeilenabwärtsrollen) abgebildet werden. In einem Ausführungsbeispiel kann eine einzelne Wischbewegung, gefolgt vom Festhalten des Fingers, mehrere Zeilenrollbefehlscodes senden oder weiterhin einen Lautstärkesteuerbefehl und dergleichen ausführen. In einem Ausführungsbeispiel kann das Wischen unter Verwendung von einem einzelnen Finger, das einen zweiten Finger anwendet, Befehle Seite aufwärts/abwärts senden (anstatt Befehlscodes eines einzelnen Zeilenhochrollens oder einzelnen Zeilenabwärtsrollens), was folglich einen Beschleunigungsalgorithmus bereitstellt. Alternativ kann das Wischen unter Verwendung von zwei Fingern Befehlscodes für Seite aufwärts oder Befehlscodes für Seite abwärts senden. Ein weiteres Beispiel besteht darin, eine Wischbewegung eines Fingers auf Cursorbewegungsbefehlscodes abzubilden und eine Wischbewegung unter Verwendung von zwei Fingern auf einen Bildlaufbefehl abzubilden. In einem Ausführungsbeispiel kann eine Bewegung der ganzen Vorrichtung auf einen Satz von Befehlen abgebildet werden. Es ist zu beachten, dass spezielle Implementierungen/Abbildungen von Gesten/Wischbewegungen/Schüttelvorgängen/Bewegungen auf die Befehle theoretisch unbegrenzt sind.
  • Wie hierin beschrieben, können blinde Navigationsmodi der Steuervorrichtung ermöglichen, dass ein Benutzer intuitiv eine Vielzahl von Steuerfunktionen durch Gesten oder Wischbewegungen auf der Berührungsschnittstelle und/oder durch Bewegung der Steuervorrichtung ohne Ablenken seiner Aufmerksamkeit von der vorliegenden Aufgabe (z. B. Betrachten des Fernsehbildschirms) durchführt.
  • Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung umfasst die Steuervorrichtung ein haptisches Rückkopplungsmodul. Das haptische Rückkopplungsmodul kann dazu konfiguriert sein, die Berührungsschnittstelle, die ganze Steuervorrichtung usw. in Vibration zu versetzen. In einem Ausführungsbeispiel werden die verschiedenen Gesten/Wischbewegungen an der Berührungsschnittstelle durch die Softwareanwendung erfasst und sind dadurch so konfiguriert, dass sie bewirken, dass das haptische Rückkopplungsmodul die Berührungsschnittstelle, die ganze Steuervorrichtung usw. in Vibration versetzt. In einem Ausführungsbeispiel kann die haptische Rückkopplung (z. B. eine Vibration) beispielsweise den Benutzer informieren, dass die blinde Navigation aktiviert wurde oder dass ein sekundärer blinder Navigationsmodus aktiviert wurde. In einem anderen Ausführungsbeispiel gibt die haptische Rückkopplung dem Benutzer an, dass die gewünschte Funktion/der gewünschte Befehlscode von der Steuervorrichtung zum Gerät (z. B. Fernsehgerät, Digitalempfänger usw.) übertragen wurde. In noch einem weiteren Ausführungsbeispiel stellt das durch die Steuervorrichtung gesteuerte Gerät eine Bestätigung für die Steuervorrichtung bereit, dass die Funktion/der Befehlscode durch die gesteuerte Vorrichtung implementiert wurde, und die haptische Rückkopplung vom haptischen Rückkopplungsmodul liefert diese Information zum Benutzer. In noch einem weiteren Ausführungsbeispiel gibt die haptische Rückkopplung für den Benutzer an, dass der Befehl durch die Steuervorrichtung nicht übertragen wurde und erneut gesendet werden muss.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung kann ein Klang oder Licht verwendet werden, um die Rückkopplung für den Benutzer bereitzustellen. Die Vorrichtung kann beispielsweise einmal piepen, den Bildschirm einmal aufblinken lassen oder den Bildschirm abdunkeln oder anderweitig verändern, um anzugeben, dass der blinde Navigationsmodus aktiviert ist.
  • Obwohl spezielle Ausführungsbeispiele und Anwendungen der vorliegenden Erfindung erläutert und beschrieben wurden, ist die Erfindung selbstverständlich nicht auf die hierin offenbarte genaue Konstruktion und Komponenten begrenzt. Verschiedene andere Modifikationen, Änderungen und Variationen, die für den Fachmann auf dem Gebiet ersichtlich sind, können in der Anordnung, im Betrieb und in den Details des Verfahrens und der Vorrichtung der hierin offenbarten vorliegenden Erfindung vorgenommen werden, ohne vom Gedanken und Schutzbereich der Erfindung, wie in den folgenden Ansprüchen definiert, abzuweichen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 6784805 [0069]

Claims (20)

  1. Computerimplementiertes Verfahren zum Aktivieren einer blinden Navigation einer Steuervorrichtung mit einer Berührungsanzeigeschnittstelle, wobei das Verfahren umfasst: Darstellen einer ersten Benutzerschnittstelle auf der Berührungsanzeigeschnittstelle, wobei die erste Benutzerschnittstelle ein Bildsymbol umfasst, das durch Berühren eines festgelegten Abschnitts der Berührungsanzeigeschnittstelle auswählbar ist; Empfangen einer Angabe, dass die Steuervorrichtung eine zweite Benutzerschnittstelle aktivieren soll; Umkonfigurieren der Berührungsanzeigeschnittstelle, um einen Satz von Befehlen zu empfangen, die der zweiten Benutzerschnittstelle entsprechen, einschließlich einer oder mehrerer Berührungsbewegungen auf der Berührungsanzeigeschnittstelle; Empfangen einer Berührungsbewegungseingabe über die Berührungsanzeigeschnittstelle; Bestimmen eines Befehls aus dem Satz von Befehlen, dem die empfangene Berührungsbewegungseingabe entspricht; und Ausführen und/oder Übertragen des Befehls.
  2. Computerimplementiertes Verfahren nach Anspruch 1, wobei die Steuervorrichtung ein Smartphone, ein Tablet, eine durch Berührung aktivierte Anzeigevorrichtung und/oder eine Fernbedienung ist,
  3. Computerimplementiertes Verfahren nach Anspruch 1, wobei der Befehl durch die Steuervorrichtung zu einem separaten Gerät über eine IR-Verbindung und/oder eine HF-Verbindung und/oder eine Netzwerkverbindung übertragen wird.
  4. Computerimplementiertes Verfahren nach Anspruch 1, wobei die Angabe, dass die Steuervorrichtung eine zweite Benutzerschnittstelle aktivieren soll, durch eine Umgebungsquelle geliefert wird.
  5. Computerimplementiertes Verfahren nach Anspruch 1, wobei der Schritt des Bestimmens eines Befehls, dem die empfangene Berührungsbewegungseingabe entspricht, das Vergleichen der empfangenen Berührungsbewegungseingabe mit einer Vielzahl von vorab festgelegten Eingaben umfasst, wobei jede der Vielzahl von vorab festgelegten Eingaben auf einen Befehl abgebildet wird.
  6. Computerimplementiertes Verfahren nach Anspruch 1, wobei der Befehl zu einer Unterhaltungsvorrichtung übertragen wird.
  7. Computerimplementiertes Verfahren nach Anspruch 1, wobei das Umkonfigurieren der Berührungsbildschirmschnittstelle das Deaktivieren des Bildsymbols und das Aktivieren eines Berührungsbewegungsbefehls in der zweiten Benutzerschnittstelle, der einer Befehlsfunktion des Bildsymbols entspricht, umfasst.
  8. Computerimplementiertes Verfahren nach Anspruch 1, wobei der Schritt des Empfangens einer Angabe, dass die Steuervorrichtung die zweite Benutzerschnittstelle aktivieren soll, das Empfangen einer vorbestimmten Eingabe auf der Basis von Informationen einer Neigung, Bewegung und/oder Orientierung der Steuervorrichtung umfasst.
  9. Computerimplementiertes Verfahren nach Anspruch 1, das ferner das Liefern einer Benutzerrückkopplung auf der Basis der Bestimmung des Befehls, dem die empfangene Berührungsbewegungseingabe entspricht, umfasst, wobei die Benutzerrückkopplung eine Vorrichtungsvibration, ein Audiosignal und/oder ein visuelles Signal umfasst.
  10. Computerimplementiertes Verfahren nach Anspruch 1, wobei das Umkonfigurieren der Berührungsbildschirmschnittstelle das Aktivieren eines Abschnitts der Berührungsanzeigeschnittstelle umfasst, um auf Berührungsbewegungsbefehle in der zweiten Benutzerschnittstelle zu reagieren.
  11. Steuervorrichtung, die umfasst: eine Berührungsanzeigeschnittstelle; einen Mikroprozessor; und ein computerlesbares Speichermedium mit Programmbefehlen, die durch den Mikroprozessor ausführbar sind, die den Mikroprozessor konfigurieren, um: eine erste Benutzerschnittstelle auf der Berührungsanzeigeschnittstelle darzustellen, wobei die erste Benutzerschnittstelle ein Bildsymbol umfasst, das durch Berühren eines festgelegten Abschnitts der Berührungsanzeigeschnittstelle auswählbar ist; eine Angabe zu empfangen, dass die Steuervorrichtung eine zweite Benutzerschnittstelle aktivieren soll; die Berührungsanzeigeschnittstelle umzukonfigurieren, um einen Satz von Befehlen zu empfangen, die der zweiten Benutzerschnittstelle entsprechen, einschließlich einer oder mehrerer Berührungsbewegungen auf der Berührungsanzeigeschnittstelle; eine Berührungsbewegungseingabe über die Berührungsanzeigeschnittstelle zu empfangen; einen Befehl aus dem Satz von Befehlen zu bestimmen, dem die empfangene Berührungsbewegungseingabe entspricht; und den Befehl auszuführen und/oder zu übertragen.
  12. Steuervorrichtung nach Anspruch 11, wobei die Steuervorrichtung in einem Smartphone und/oder einem Tablet enthalten ist.
  13. Steuervorrichtung nach Anspruch 11, wobei die Vorrichtung dazu konfiguriert ist, eine Benutzerrückkopplung auf der Basis der Bestimmung des Befehls, dem die empfangene Berührungsbewegungseingabe entspricht, zu liefern.
  14. Steuervorrichtung nach Anspruch 13, wobei die Benutzerrückkopplung den bestimmten Befehl in einer Weise angibt, die von anderen möglichen Befehlen unterscheidbar ist.
  15. Computerimplementiertes Verfahren zum Aktivieren einer blinden Navigation einer Steuervorrichtung mit einer Berührungsschnittstelle und einem Neigungssensor, einem Orientierungssensor und/oder einem Bewegungssensor, wobei das Verfahren umfasst: Aktivieren einer ersten Benutzerschnittstelle an der Steuervorrichtung, wobei die erste Benutzerschnittstelle einen ersten Satz von Befehlen umfasst, die durch Berühren der Berührungsschnittstelle aktiviert werden können; Empfangen einer Angabe über den Neigungssensor, den Orientierungssensor und/oder den Bewegungssensor, dass die Steuervorrichtung eine zweite Benutzerschnittstelle aktivieren soll, wobei die zweite Benutzerschnittstelle einen zweiten Satz von Befehlen umfasst, die so konfiguriert sind, dass sie für mindestens eine Berührungsgeste auf der Berührungsschnittstelle empfänglich sind; Aktivieren der zweiten Benutzerschnittstelle; Empfangen einer Berührungsgesteneingabe über die Berührungsschnittstelle; Bestimmen eines Befehls aus dem zweiten Satz von Befehlen, dem die empfangene Berührungsgesteneingabe entspricht; und Ausführen und/oder Übertragen des Befehls.
  16. Verfahren nach Anspruch 15, wobei die Angabe über eine Vielzahl von Orientierungssensoren empfangen wird.
  17. Verfahren nach Anspruch 15, wobei die Angabe eine Geste, durch die die Steuervorrichtung bewegt wird, und/oder eine Geste, die durch den Bewegungsdetektor erfasst wird, ist.
  18. Verfahren nach Anspruch 15, wobei die Angabe ein Schütteln der Steuervorrichtung ist.
  19. Verfahren nach Anspruch 15, wobei eine spezielle Bewegung der Vorrichtung, die die Angabe einleitet, durch einen Benutzer festgelegt wird.
  20. Verfahren nach Anspruch 15, wobei: die erste Benutzerschnittstelle umfasst: eine Befehlsgeste, die eine ausgewählte Funktion, die sowohl in der ersten Benutzerschnittstelle als auch der zweiten Benutzerschnittstelle enthalten ist, unter Verwendung einer anderen Geste als die zweite Benutzerschnittstelle für die erste ausgewählte Funktion verwendet durchführt; und/oder eine Befehlsgeste, die eine ausgewählte Funktion der ersten Benutzerschnittstelle unter Verwendung einer gleichen Geste, die auch durch die zweite Benutzerschnittstelle für eine andere Funktion als die ausgewählte Funktion verwendet wird, durchführt.
DE102011083760A 2010-09-30 2011-09-29 Blinde navigation für berührungsschnittstellen Withdrawn DE102011083760A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US38852110P 2010-09-30 2010-09-30
USUS,61/388,521 2010-09-30

Publications (1)

Publication Number Publication Date
DE102011083760A1 true DE102011083760A1 (de) 2012-04-05

Family

ID=45832705

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011083760A Withdrawn DE102011083760A1 (de) 2010-09-30 2011-09-29 Blinde navigation für berührungsschnittstellen

Country Status (2)

Country Link
US (1) US20120144299A1 (de)
DE (1) DE102011083760A1 (de)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8756522B2 (en) * 2010-03-19 2014-06-17 Blackberry Limited Portable electronic device and method of controlling same
JP5625506B2 (ja) * 2010-06-04 2014-11-19 ソニー株式会社 操作端末装置、電子機器、および電子機器システム
US20120127012A1 (en) * 2010-11-24 2012-05-24 Samsung Electronics Co., Ltd. Determining user intent from position and orientation information
US9449500B2 (en) * 2012-08-08 2016-09-20 Universal Electronics Inc. System and method for optimized appliance control
JP5841409B2 (ja) * 2011-11-09 2016-01-13 任天堂株式会社 制御プログラム、入力端末装置、制御システムおよび制御方法
US8902180B2 (en) * 2011-12-16 2014-12-02 Nokia Corporation Methods, apparatuses, and computer program products for enabling use of remote devices with pre-defined gestures
US9423870B2 (en) * 2012-05-08 2016-08-23 Google Inc. Input determination method
WO2013175631A1 (ja) 2012-05-25 2013-11-28 任天堂株式会社 操作装置、情報処理システム、および情報処理方法
EP2730995B1 (de) 2012-05-25 2016-11-30 Nintendo Co., Ltd. Steuerungsvorrichtung, Informationsverarbeitungssystem, und Kommunikationsverfahren
US20140052580A1 (en) * 2012-08-17 2014-02-20 Kallidus, Inc. Product explorer page for use with interactive digital catalogs and touch-screen devices
US9020845B2 (en) 2012-09-25 2015-04-28 Alexander Hieronymous Marlowe System and method for enhanced shopping, preference, profile and survey data input and gathering
US9304603B2 (en) 2012-11-12 2016-04-05 Microsoft Technology Licensing, Llc Remote control using depth camera
CN104350335B (zh) * 2013-02-20 2017-10-20 松下电器(美国)知识产权公司 便携信息终端、便携信息终端的控制方法以及记录介质
KR20140112911A (ko) * 2013-03-14 2014-09-24 삼성전자주식회사 표시부 미확인 모드에서 액션을 실행하는 모바일 장치 및 그 제어 방법
JP2014194363A (ja) * 2013-03-28 2014-10-09 Fujitsu Ltd 誘導装置、誘導方法、及びプログラム
US20140306897A1 (en) * 2013-04-10 2014-10-16 Barnesandnoble.Com Llc Virtual keyboard swipe gestures for cursor movement
JP5933824B2 (ja) * 2013-04-16 2016-06-15 本田技研工業株式会社 車両用電子装置
WO2014189984A1 (en) 2013-05-20 2014-11-27 Abalta Technologies, Inc. Interactive multi-touch remote control
US20140380206A1 (en) * 2013-06-25 2014-12-25 Paige E. Dickie Method for executing programs
JP6144582B2 (ja) * 2013-09-13 2017-06-07 Dmg森精機株式会社 Nc工作機械の操作装置
US20150103015A1 (en) * 2013-10-10 2015-04-16 Blackberry Limited Devices and methods for generating tactile feedback
CN103616992B (zh) * 2013-11-13 2017-10-17 华为技术有限公司 应用程序控制方法和装置
US9489834B2 (en) * 2014-04-08 2016-11-08 David R. Hall Noise-reducing motorized gearbox assembly for automating window coverings
WO2016087855A2 (en) * 2014-12-02 2016-06-09 Nes Irvine Independent touch it
CN104536766B (zh) * 2015-01-09 2018-01-26 京东方科技集团股份有限公司 一种电子设备的控制方法及电子设备
US11503360B2 (en) * 2015-03-04 2022-11-15 Comcast Cable Communications, Llc Adaptive remote control
JP6668661B2 (ja) * 2015-09-30 2020-03-18 ヤマハ株式会社 パラメータ制御装置およびパラメータ制御プログラム
US10412337B2 (en) * 2016-05-23 2019-09-10 Funai Electric Co., Ltd. Display device
US10845954B2 (en) 2017-07-11 2020-11-24 Sony Corporation Presenting audio video display options as list or matrix
JP2023512410A (ja) * 2019-12-27 2023-03-27 アバルタ テクノロジーズ、 インク. 接続リソースを使用したユーザデバイスアプリケーションの投影、制御、および管理
US10983601B1 (en) * 2020-01-17 2021-04-20 Assa Abloy Ab Visually impaired mode keypad
CN113156827B (zh) * 2021-04-02 2023-06-20 中国科学院计算技术研究所 一种基于语义的智能设备控制方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6784805B2 (en) 2000-03-15 2004-08-31 Intrigue Technologies Inc. State-based remote control system

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100571795B1 (ko) * 2004-02-06 2006-04-18 삼성전자주식회사 복각 검출 기능을 지원하는 지자기 센서 및 그 방법
US7180501B2 (en) * 2004-03-23 2007-02-20 Fujitsu Limited Gesture based navigation of a handheld user interface
JP4165477B2 (ja) * 2004-09-07 2008-10-15 株式会社デンソー ハンズフリーシステム
US7787012B2 (en) * 2004-12-02 2010-08-31 Science Applications International Corporation System and method for video image registration in a heads up display
US7945452B2 (en) * 2005-04-11 2011-05-17 Hospira, Inc. User interface improvements for medical devices
US20090153289A1 (en) * 2007-12-12 2009-06-18 Eric James Hope Handheld electronic devices with bimodal remote control functionality
US8704767B2 (en) * 2009-01-29 2014-04-22 Microsoft Corporation Environmental gesture recognition
US20110074573A1 (en) * 2009-09-28 2011-03-31 Broadcom Corporation Portable device with multiple modality interfaces
US20110082620A1 (en) * 2009-10-05 2011-04-07 Tesla Motors, Inc. Adaptive Vehicle User Interface
US8401578B2 (en) * 2010-05-27 2013-03-19 Eric Inselberg System for selectively disabling cell phone text messaging function
US20120004030A1 (en) * 2010-06-30 2012-01-05 Bryan Kelly Video terminal having a curved, unified display

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6784805B2 (en) 2000-03-15 2004-08-31 Intrigue Technologies Inc. State-based remote control system

Also Published As

Publication number Publication date
US20120144299A1 (en) 2012-06-07

Similar Documents

Publication Publication Date Title
DE102011083760A1 (de) Blinde navigation für berührungsschnittstellen
CN109952757B (zh) 基于虚拟现实应用录制视频的方法、终端设备及存储介质
US10366602B2 (en) Interactive multi-touch remote control
CN110460907B (zh) 一种视频播放控制方法及终端
US8922721B2 (en) Display apparatus and control method thereof
DE102016124419A1 (de) Gestenbasierte steuerung einer benutzerschnittstelle
EP3062307B1 (de) System und verfahren für erweiterte befehlseingaben
DE112006003515T5 (de) Entsperren einer Vorrichtung durch Ausführen von Gesten auf einem Entsperrungsbild
WO2010109849A1 (ja) 情報処理装置、情報処理方法、記録媒体、及び集積回路
DE112016000085T5 (de) Gerät, Verfahren und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt
US11650667B2 (en) Haptic feedback remote control systems and methods
DE202014103258U1 (de) Mobiles Endgerät
DE202012013286U1 (de) Tragbares Endgerät, das Mehrfacheingaben unterstützt
DE112008001600T5 (de) Verfahren und Systeme zum Bereitstellen von Sensorinformation an Vorrichtungen und Peripheriegeräte
US10739953B2 (en) Apparatus and method for providing user interface
US20130271404A1 (en) Remote controller equipped with touch pad and method for controlling the same
EP2341492B1 (de) Elektronische Vorrichtung mit Berührungsbildschirm und Betriebssteuerungsverfahren dafür
CN107992263A (zh) 一种信息分享方法及移动终端
US20150189215A1 (en) Control device, control method, and program
DE102010023613A1 (de) Navigationsgerät und Verfahren dafür
CN109725789B (zh) 一种应用图标归档方法及终端设备
DE102013227220A1 (de) Blindsteuerungssystem für fahrzeug
US20210096641A1 (en) Input control display based on eye gaze
DE112010003717T5 (de) Verfahren zum Interagieren mit einer tragbaren elektronischen Vorrichtung
CN111796746B (zh) 音量调节方法、音量调节装置和电子设备

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0003037000

Ipc: G06F0003048800

Effective date: 20130304

R082 Change of representative

Representative=s name: HOFSTETTER, SCHURACK & PARTNER PATENT- UND REC, DE

R081 Change of applicant/patentee

Owner name: LOGITECH EUROPE S.A., CH

Free format text: FORMER OWNER: LOGITECH EUROPE S.A., ROMANEL-SUR-MORGES, CH

Effective date: 20130610

R082 Change of representative

Representative=s name: HOFSTETTER, SCHURACK & PARTNER PATENT- UND REC, DE

Effective date: 20130610

R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee