DE202014006254U1 - Mobiles Endgerät - Google Patents

Mobiles Endgerät Download PDF

Info

Publication number
DE202014006254U1
DE202014006254U1 DE201420006254 DE202014006254U DE202014006254U1 DE 202014006254 U1 DE202014006254 U1 DE 202014006254U1 DE 201420006254 DE201420006254 DE 201420006254 DE 202014006254 U DE202014006254 U DE 202014006254U DE 202014006254 U1 DE202014006254 U1 DE 202014006254U1
Authority
DE
Germany
Prior art keywords
mobile terminal
gestures
screen
controller
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE201420006254
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of DE202014006254U1 publication Critical patent/DE202014006254U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • G06F3/0433Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves in which the acoustic waves are either generated by a movable member and propagated within a surface layer or propagated within a surface layer and captured by a movable member
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/22Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks comprising specially adapted graphical user interfaces [GUI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/56Details of telephonic subscriber devices including a user help function

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Telephone Function (AREA)

Abstract

Mobiles Endgerät (100) mit: einer Drahtloskommunikationseinheit (110), die dafür konfiguriert ist, mit mindestens einem anderen Endgerät drahtlos zu kommunizieren; einem Berührungsbildschirm, der dafür konfiguriert ist, Tippgesten zu erfassen; und einem Controller (180), der dafür konfiguriert ist: einen Ausführungsbildschirm auf dem Berührungsbildschirm darzustellen, wobei der Ausführungsbildschirm mindestens einen Bereich aufweist, in dem ein Objekt ausgegeben wird, und mindestens einen Leerraumbereich, in dem kein Objekt ausgegeben wird; dadurch gekennzeichnet, dass der Controller (180) ferner dafür konfiguriert ist, als Reaktion darauf, dass der Berührungsbildschirm eine Doppeltippgeste in einem Leerraumbereich des Ausführungsbildschirms erfasst hat, den Berührungsbildschirm aus einem aktiven Zustand, in dem der Berührungsbildschirm beleuchtet ist, in einen inaktiven Zustand zu schalten, in dem der Berührungsbildschirm nicht beleuchtet ist, wobei die Doppeltippgeste eine erste und eine zweite Tippgeste aufweist, die innerhalb einer Referenzzeit im Leerraumbereich aufeinanderfolgend erfasst werden.

Description

  • Die vorliegende Erfindung betrifft ein mobiles Endgerät, das Tippgesten zum Antippen eines Objekts erfasst, sowie ein Steuerungsverfahren dafür.
  • Endgeräte können allgemein in ein mobiles Endgerät und ein stationäres Endgerät eingeteilt werden. Darüber hinaus können mobile Endgeräte in ein handgehaltenes Endgerät und in ein fahrzeugmontiertes Endgerät eingeteilt werden. Da seine Funktionalitäten immer vielseitiger werden, kann das mobile Endgerät immer kompliziertere Funktionen unterstützen, wie beispielsweise Bild- oder Videoaufnahme, Wiedergabe von Musik- oder Videodateien, Abspielen von Spielen, Empfang von Rundfunksignalen und dergleichen. Das mobile Endgerät ist daher ein Multimedia-Player oder Gerät.
  • Jedoch ist das mobile Endgerät, weil es nunmehr so viele verschiedene Funktionen aufweist, häufig schwierig bedienbar, und die Art der Benutzerschnittstellen ist begrenzt.
  • Durch die vorliegende Erfindung wird ein mobiles Endgerät bereitgestellt, das dazu geeignet ist, basierend auf Tippgesten zum Antippen eines Objekts einen Steuerbefehl zu erzeugen, sowie ein Steuerverfahren dafür.
  • Um diese Aufgabe zu lösen und andere Vorteile zu erzielen und gemäß dem hierin ausführlich dargestellten und beschriebenen Zweck der Erfindung wird durch die vorliegende Erfindung gemäß einem Aspekt ein mobiles Endgerät mit einer Erfassungseinheit, die dazu konfiguriert ist, Tippgesten zum Antippen eines Objekts zu erfassen, und mit einem Controller bereitgestellt, der dazu konfiguriert ist, eine oder mehrere Funktionen auszuführen, wobei, wenn die eine oder mehreren Funktionen ausgeführt werden und wenn durch die Erfassungseinheit innerhalb einer Referenzzeit fortlaufend Tippgesten erfasst werden, der Controller mindestens eine der einen oder mehreren ausgeführten Funktionen steuert und die Displayeinheit deaktiviert.
  • In einer Ausführungsform der vorliegenden Erfindung kann der Controller mindestens eine der Funktionen als Reaktion auf die Tippgesten stoppen.
  • In einer Ausführungsform der vorliegenden Erfindung können Ausführungsbildschirme gemäß der Ausführung der einen oder mehreren Funktionen an die Displayeinheit ausgegeben werden und der Controller kann die Displayeinheit, an die die Ausführungsbildschirme ausgegeben werden, als Reaktion auf die Tippgesten deaktivieren.
  • In einer Ausführungsform der vorliegenden Erfindung kann die Displayeinheit Bildschirminformation ausgeben und der Controller kann eine Funktion steuern, die einer Bildschirminformation entspricht, die an einer Stelle ausgegeben wird, an der die Tippgesten ausgeführt worden sind.
  • In einer Ausführungsform der vorliegenden Erfindung kann die Displayeinheit Ausführungsbildschirme gemäß der Ausführung der einen oder mehreren Funktionen ausgeben, wobei der Controller die Darstellung des Ausführungsbildschirms beenden kann, der an der Stelle ausgegeben wird, an der die Tippgesten ausgeführt worden sind.
  • In einer Ausführungsform der vorliegenden Erfindung kann der beendete Ausführungsbildschirm einem Ausführungsbildschirm einer Anwendung entsprechen, und der Controller kann die Darstellung des Ausführungsbildschirms beenden, der an einer Stelle ausgegeben wird, an der die Tippgesten ausgeführt worden sind, und die Ausführung der Anwendung beenden.
  • In einer Ausführungsform der vorliegenden Erfindung kann, wenn die Ausführungsbildschirme der einen oder mehreren Funktionen nicht an der Stelle dargestellt werden, an der die Tippgesten ausgeführt worden sind, der Controller die Displayeinheit deaktivieren.
  • In einer Ausführungsform der vorliegenden Erfindung kann die Displayeinheit gemäß der Ausführung einer oder mehrerer Funktionen mehrere Ausführungsbildschirme zusammen ausgeben, und der Controller kann die Darstellung eines beliebigen der mehreren Ausführungsbildschirme beenden, der der Stelle entspricht, an der die Tippgesten ausgeführt worden sind.
  • In einer Ausführungsform der vorliegenden Erfindung kann der eine beliebige Ausführungsbildschirm ein Ausführungsbildschirm unter den mehreren Ausführungsbildschirmen sein, der an einer Stelle ausgegeben wird, an der die Tippgesten ausgeführt worden sind, und der Controller kann eine Darstellungsgröße mindestens eines Ausführungsbildschirms, der von dem einen beliebigen der Ausführungsbildschirme verschieden ist, ändern, wenn die Darstellung des einen beliebigen der mehreren Ausführungsbildschirme beendet wird.
  • In einer Ausführungsform der vorliegenden Erfindung kann die mindestens eine gesteuerte Funktion gemäß der Anzahl von Stellen variieren, an denen die Tippgesten gleichzeitig ausgeführt worden sind.
  • In einer Ausführungsform der vorliegenden Erfindung kann der Controller, wenn die Tippgesten erfasst werden, Führungsinformation bezüglich Funktionen entsprechend der Anzahl von Stellen ausgeben, an denen die Tippgesten gleichzeitig ausgeführt worden sind.
  • In einer Ausführungsform der vorliegenden Erfindung kann das mobile Endgerät ferner einen Speicher aufweisen, der dazu konfiguriert ist, Funktionsinformation zu speichern, die verschiedenen Funktionen entspricht, die gemäß der Anzahl von Stellen ausgeführt werden sollen, an denen die Tippgesten gleichzeitig ausgeführt werden, wobei, wenn eine Benutzeranforderung empfangen wird oder wenn die Tippgesten erfasst werden, der Controller eine Funktionsinformationsliste, die verschiedenen Funktionen entspricht, unter Bezugnahme auf die im Speicher gespeicherte Funktionsinformation an die Displayeinheit ausgeben kann.
  • In einer Ausführungsform der vorliegenden Erfindung kann basierend auf einer Benutzermanipulation bezüglich der Funktionsinformationsliste mindestens eine der verschiedenen Funktionen in der Funktionsinformationsliste geändert werden.
  • In einer Ausführungsform der vorliegenden Erfindung kann der Controller verschiedene Funktionen unter der einen oder den mehreren ausgeführten Funktionen entsprechend dem Zielort steuern, an dem die Tippgesten ausgeführt worden sind.
  • In einer Ausführungsform der vorliegenden Erfindung kann der Zielort den Endgerätkörper und eine Stelle außerhalb des Endgerätkörpers umfassen.
  • In einer Ausführungsform der vorliegenden Erfindung kann, wenn die Tippgesten bezüglich einer Stelle außerhalb des Endgerätkörpers ausgeführt werden, eine mit einer Tonausgabe in Beziehung stehende Funktion unter der einen oder den mehreren ausgeführten Funktionen beendet werden, wobei, wenn die Tippgesten an dem Endgerätkörper ausgeführt werden, mit der Tonausgabe in Beziehung stehende Funktionen und eine Bildschirmdarstellung unter der einen oder den mehreren ausgeführten Funktionen gemeinsam beendet werden können.
  • In einer Ausführungsform der vorliegenden Erfindung kann ein Steuerbefehl zum Steuern verschiedener Funktionen unter der einen oder den mehreren ausgeführten Funktionen gemäß einer Stärke erzeugt werden, mit der die Tippgesten ausgeführt werden.
  • In einer Ausführungsform der vorliegenden Erfindung kann die Erfassungseinheit einen Beschleunigungsmesser aufweisen, der dazu konfiguriert ist, die Tippgesten unter Verwendung einer durch die Tippgesten erzeugten Bewegung des Endgeräts zu erfassen.
  • Um diese Aufgaben zu lösen und andere Vorteile zu erzielen und gemäß dem hierin ausführlich dargestellten und beschriebenen Zweck der Erfindung wird durch die vorliegende Erfindung gemäß einem anderen Aspekt ein Verfahren zum Steuern eines mobilen Endgeräts bereitgestellt. Das Verfahren weist die Schritte auf: Ausgeben von Ausführungsbildschirmen entsprechend der Ausführung einer oder mehrerer Funktionen, fortlaufendes Erfassen von Tippgesten zum Antippen eines Objektes innerhalb einer Referenzzeit, wenn die Ausführungsbildschirme ausgegeben werden, und Erzeugen eines Steuersignals zum Ausführen einer Funktion, die im Voraus den Tippgesten zugeordnet wurde.
  • In einer Ausführungsform der vorliegenden Erfindung kann die im Voraus zugeordnete Funktion basierend auf mindestens einem Zielort der Tippgesten, einer Stärke, mit der die Tippgesten ausgeführt werden, und der Anzahl von Stellen variieren, bezüglich denen die Tippgesten gleichzeitig ausgeführt werden.
  • In einer Ausführungsform der vorliegenden Erfindung kann eine beliebige der den Tippgesten im Voraus zugeordneten Funktionen eine Funktion zum Beenden mindestens einer der einen oder mehreren Funktionen sein.
  • Gemäß einer Ausführungsform der vorliegenden Erfindung führt, wenn innerhalb einer Referenzzeit fortlaufend Tippgesten erfasst werden, das mobile Endgerät eine Funktion aus, der im Voraus Eigenschaften der Tippgesten zugeordnet worden sind, so dass eine neuartige Benutzerschnittstelle bereitgestellt werden kann, die dazu geeignet ist, Funktionen des Endgeräts auf eine einfache Weise zu steuern.
  • Außerdem können gemäß einer Ausführungsform der vorliegenden Erfindung, weil das mobile Endgerät verschiedene Funktionen basierend auf einem Zielort von Tippgesten, der Stärke, mit der die Tippgesten ausgeführt werden, und der Anzahl von Stellen ausführt, an denen die Tippgesten gleichzeitig ausgeführt werden, verschiedene Tippgesten verwendende Schnittstellen bereitgestellt werden.
  • Außerdem kann gemäß einer Ausführungsform der vorliegenden Erfindung, weil das mobile Endgerät innerhalb einer Referenzzeit fortlaufend ausgeführte Tippgesten unter Verwendung eines durch die Tippgesten erzeugten Schlags erfasst, obwohl ein Zielort von Tippgesten außerhalb des Endgerätkörpers liegt, das mobile Endgerät die Tippgesten erfassen. Beispielsweise kann, wenn das mobile Endgerät in einer Hosentasche angeordnet ist, wenn ein Ruf empfangen wird, der Benutzer die Hose antippen, während das Endgerät darin verbleibt, um dadurch den empfangenen Ruf abzulehnen.
  • Weitere Anwendungsbereiche der vorliegenden Erfindung werden aus der nachstehenden ausführlichen Beschreibung deutlich. Die ausführliche Beschreibung und spezifische Beispiele zeigen bevorzugte Ausführungsformen der Erfindung und dienen lediglich zur Erläuterung, jedoch ist für Fachleute ersichtlich, dass innerhalb des Schutzumfangs der Erfindung verschiedene Änderungen und Modifikationen vorgenommen werden können.
  • Die vorliegende Erfindung wird anhand der nachstehenden ausführlichen Beschreibung und der beigefügten Zeichnungen besser verständlich, die lediglich zur Erläuterung dienen und die vorliegende Erfindung nicht einschränken sollen, und in denen:
  • 1 ein Blockdiagramm einer Ausführungsform eines erfindungsgemäßen mobilen Endgeräts ist;
  • 2A und 2B Konzeptansichten von Kommunikationssystemen sind, in denen eine Ausführungsform des erfindungsgemäßen mobilen Endgeräts betreibbar ist:
  • 3A eine perspektivische Vorderansicht eines mit der vorliegenden Erfindung in Beziehung stehenden mobilen Endgeräts ist;
  • 3B eine perspektivische Rückansicht des in 3A dargestellten mobilen Endgeräts ist;
  • 4 ein Ablaufdiagramm zum Darstellen einer durch eine Ausführungsform des erfindungsgemäßen mobilen Endgeräts ausgeführten Verarbeitung ist;
  • 5 eine Ansicht zum Darstellen eines Bedienbeispiels des mobilen Endgeräts aus 4 ist;
  • 6 eine Konzeptansicht zum Darstellen eines Bedienbeispiels zum Deaktivieren einer Displayeinheit als Reaktion auf Tippgesten in einer Ausführungsform des erfindungsgemäßen mobilen Endgeräts ist;
  • 7A und 7B Konzeptansichten zum Darstellen eines Bedienbeispiels zum Steuern von Funktionen sind, die der Ausgabe von Bildschirminformation an die Displayeinheit in einer Ausführungsform des erfindungsgemäßen mobilen Endgeräts entsprechen;
  • 8A und 8B Konzeptansichten zum Darstellen von Bedienbeispielen des mobilen Endgeräts zum Ausführen verschiedener Funktionen gemäß der Anzahl von Stellen sind, an denen Tippgesten gleichzeitig ausgeführt werden;
  • 9A und 9B Konzeptansichten zum Darstellen von Bedienbeispielen des mobilen Endgeräts zum Ausgeben von Funktionsinformation sind, wenn Tippgesten erfasst werden;
  • 10 eine Ansicht zum Darstellen des mobilen Endgeräts ist, das eine Liste von Funktionsinformation ausgibt, die jeweils Eigenschaften von Tippgesten zugeordnet ist;
  • 11 eine Konzeptansicht zum Darstellen eines Bedienbeispiels zum Ausgeben einer Funktionsinformationsliste als Reaktion auf Tippgesten in einer Ausführungsform des erfindungsgemäßen mobilen Endgeräts ist;
  • 12 eine Konzeptansicht zum Darstellen eines Bedienbeispiels des mobilen Endgeräts ist, wobei ein beliebiger ausgeführter Bildschirm durch Tippgesten gesteuert wird, wenn mehrere Ausführungsbildschirme ausgegeben werden;
  • 13A, 13B und 13C Konzeptansichten zum Darstellen von Bedienbeispielen des mobilen Endgeräts zum Ausführen verschiedener Funktionen gemäß Zielstellen von Tippgesten sind;
  • 14 eine Konzeptansicht zum Darstellen eines Bedienbeispiels des mobilen Endgeräts ist, wobei verschiedene Funktionen gemäß der Stärke von Tippgesten ausgeführt werden;
  • 15 eine Konzeptansicht zum Darstellen eines Beispiels des mobilen Endgeräts ist, wobei eine Funktion gemäß Tippgesten ausgeführt wird, während das mobile Endgerät mit einem externen Gerät gekoppelt ist; und
  • 16A, 16B und 16C Konzeptansichten zum Darstellen von Bedienbeispielen des mobilen Endgeräts zum Ausgeben eines Objekts sind, das erzeugt wird, um die Displayeinheit zu deaktivieren.
  • Nachstehend werden die Ausführungsformen der vorliegenden Erfindung unter Bezug auf die beigefügten Zeichnungen beschrieben, in denen ähnliche Bezugszeichen ähnliche Elemente bezeichnen, obgleich sich die Ausführungsformen unterscheiden, so dass eine Beschreibung für Elemente einer ersten Ausführungsform auch auf ähnliche Elemente einer anderen Ausführungsform anwendbar ist. In der folgenden Beschreibung dienen zum Bezeichnen von Elementen verwendete Suffixe wie 'Modul', 'Teil' oder 'Einheit' lediglich zur Vereinfachung der Erläuterung der vorliegenden Erfindung und haben keine besondere Bedeutung an sich. Bei der Beschreibung der vorliegenden Erfindung ist, wenn eine ausführliche Erläuterung einer verwandten bekannten Funktion oder Konstruktion als vom wesentlichen Inhalt der vorliegenden Erfindung ablenkend erachtet wird, eine solche Erläuterung weggelassen worden, diese ist Fachleuten jedoch bekannt. Die beigefügten Zeichnungen der vorliegenden Erfindung dienen dazu, das Verständnis der vorliegenden Erfindung zu erleichtern, und sollen nicht als die vorliegende Erfindung einschränkend betrachtet werden.
  • In Verbindung mit der vorliegenden Erfindung beschriebene mobile Endgeräte können Mobiltelefone, Smartphones, Notebook-Computer, Tablet-Computer, Digitalrundfunkempfänger, PDAs (persönliche digitale Assistenten), PMPs (tragbare Multimedia-Player), Navigationsgeräte, Slate-PCs, Tablet-PCs, Ultrabooks und dergleichen sein. Für Fachleute ist jedoch klar, dass die Konfiguration gemäß Ausführungsformen der vorliegenden Erfindung auch auf stationäre Endgeräte anwendbar ist, wie beispielsweise Digital-TV-Geräte, Desktop-Computer und dergleichen, mit Ausnahme jeglicher Elemente, die speziell für mobile Zwecke konfiguriert sind.
  • 1 zeigt ein Blockdiagramm einer Ausführungsform eines erfindungsgemäßen mobilen Endgeräts. Das mobile Endgerät 100 kann eine Drahtloskommunikationseinheit 110, eine A/V-(Audio/Video)Eingabeeinheit 120, eine Benutzereingabeeinheit 130, eine Erfassungseinheit 140, eine Ausgabeeinheit 150, einen Speicher 160, eine Schnittstelleneinheit 170, einen Controller 180 und eine Spannungsversorgungseinheit 190 usw. aufweisen. 1 zeigt das mobile Endgerät mit verschiedenartigen Komponenten, es ist jedoch nicht erforderlich, alle dargestellten Komponenten zu implementieren. Alternativ können mehr oder weniger Komponenten implementiert werden.
  • Die Elemente des mobilen Endgeräts werden nachstehend ausführlich beschrieben.
  • Die Drahtloskommunikationseinheit 110 weist typischerweise ein oder mehr Elemente auf, die eine Funkkommunikation zwischen dem mobilen Endgerät 100 und einem Drahtloskommunikationssystem oder einem Netzwerk ermöglichen, in dem sich das mobile Endgerät befindet. Beispielsweise kann die Drahtloskommunikationseinheit mindestens ein Rundfunkempfangsmodul 111 und/oder ein Mobilkommunikationsmodul 112 und/oder ein Drahtlos-Internetmodul 113 und/oder ein Nahbereichskommunikationsmodul 114 und/oder ein Positionsinformationsmodul 115 aufweisen.
  • Das Rundfunkempfangsmodul 111 empfängt Rundfunksignale und/oder mit Rundfunk in Beziehung stehende Information von einem externen Rundfunkmanagementserver (oder einer anderen Netzwerkeinheit) über einen Rundfunkkanal.
  • Der Rundfunkkanal kann ein Satellitenkanal und/oder ein terrestrischer Kanal sein. Der Rundfunkmanagementserver kann ein Server sein, der ein Rundfunksignal und/oder mit Rundfunk in Beziehung stehende Information erzeugt und überträgt, oder ein Server, der ein zuvor erzeugtes Rundfunksignal und/oder mit Rundfunk in Beziehung stehende Information empfängt und an das mobile Endgerät überträgt. Das Rundfunksignal kann ein TV-Rundfunksignal, ein Radio-Rundfunksignal ein Daten-Rundfunksignal und dergleichen sein. Außerdem kann das Rundfunksignal ein Rundfunksignal sein, das mit einem TV- oder Radio-Rundfunksignal kombiniert ist.
  • Die mit Rundfunk in Beziehung stehende Information kann Information sein, die einem Rundfunkkanal, einem Rundfunkprogramm oder einem Rundfunkdienstanbieter zugeordnet ist. Die mit Rundfunk in Beziehung stehende Information kann auch über ein Mobilkommunikationsnetz bereitgestellt werden, wobei die mit Rundfunk in Beziehung stehende Information durch das Mobilkommunikationsmodul 112 empfangen werden kann.
  • Die mit Rundfunk in Beziehung stehende Information kann in verschiedenen Formen vorliegen. Beispielsweise kann sie in der Form eines elektronischen Programmführers (EPG) von Digital-Multimedia-Broadcast (DMB), Electronic Service Guide (ESG) von Digital Video Broadcast-Handheld (DVB-H) und dergleichen vorliegen.
  • Das Rundfunkempfangsmodul 111 kann dazu konfiguriert sein, Signale zu empfangen, die unter Verwendung verschiedenartiger Rundfunksysteme übertragen werden. Insbesondere kann das Rundfunkempfangsmodul 111 ein digitales Rundfunksignal unter Verwendung eines digitalen Rundfunksystems, wie beispielsweise Digital Multimedia Broadcasting-Terrestrial (DMB-T), Digital Multimedia Broadcasting-Satellite (DMB-S), Digital Video Broadcast-Handheld (DVB-H), das als Media Forward Link Only (MediaFLO®) bekannte Datenrundfunksystem, Integrated Services Digital Broadcast-Terrestrial (ISDB-T) und dergleichen empfangen. Das Rundfunkempfangsmodul 111 kann derart konfiguriert sein, dass es für jedes Rundfunksystem geeignet ist, das ein Rundfunksignal bereitstellt, sowie für die vorstehend erwähnten digitalen Rundfunksysteme.
  • Rundfunksignale und/oder mit Rundfunk in Beziehung stehende Information, die über das Rundfunkempfangsmodul 111 empfangen werden, können im Speicher 160 gespeichert werden.
  • Das Mobilkommunikationsmodul 112 überträgt und/oder empfängt Funksignale zu und/oder von mindestens einer Basisstation und/oder einem externen Endgerät und/oder einem Server. Derartige Funksignale können ein Sprachanrufsignal, ein Videoanrufsignal oder verschiedenartige Daten für Text- und/oder Multimedianachrichtübertragung und/oder -empfang sein.
  • Das Drahtlos-Internetmodul 113 unterstützt drahtlosen Internetzugriff für das mobile Endgerät. Dieses Modul kann intern oder extern mit dem mobilen Endgerät 100 verbunden sein. Die implementierte drahtlose Internetzugriffstechnik kann beispielsweise WLAN (Wireless LAN) (Wi-Fi), Wibro (Wireless Broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) oder dergleichen sein.
  • Das Nahbereichskommunikationsmodul 114 ist ein Modul zum Unterstützen von Nahbereichskommunikationen. Einige Beispiele der Nahbereichskommunikationstechnik sind BluetoothTM, Radio Frequency IDentification (RFID), Infrared Data Association (IrDA), Ultra WideBand (UWB), ZigBeeTM und dergleichen.
  • Das Positionsinformationsmodul 115 ist ein Modul zum Prüfen oder Erfassen einer Position (eines Orts) des mobilen Endgeräts. Ein typisches Beispiel des Positionsinformationsmoduls ist ein GPS-System (Global Positioning System) oder ein WiFi-(Wireless Fidelity)Modul.
  • Gemäß 1 ist die A/V-Eingabeeinheit 120 dazu konfiguriert, ein Audio- oder Videosignal zu empfangen. Die A/V-Eingabeeinheit 120 kann eine Kamera 121 und ein Mikrofon 122 aufweisen. Die Kamera 121 verarbeitet Bilddaten von Standbildern oder eines Videos, die durch eine Bildaufnahmeeinrichtung in einem Videoaufnahmemodus oder einem Bildaufnahmemodus erhalten werden. Die verarbeiteten Bildrahmen können auf einer Displayeinheit 151 dargestellt werden.
  • Die durch die Kamera 121 verarbeiteten Bildrahmen können im Speicher 160 (oder in einem anderen Speichermedium) gespeichert oder über die Drahtloskommunikationseinheit 110 übertragen werden. Entsprechend der Konfiguration des mobilen Endgeräts können zwei oder mehr Kameras 121 bereitgestellt werden.
  • Das Mikrofon 122 kann in einem Telefonanrufmodus, einem Aufzeichnungsmodus, einem Spracherkennungsmodus und dergleichen Tonsignale (akustische Daten) über ein Mikrofon empfangen und die Tonsignale in Audiodaten verarbeiten. Die verarbeiteten Audio(Sprach)daten können umgewandelt werden, um sie in einem Format auszugeben, das über das Mobilkommunikationsmodul 112 im Telefonanrufmodus an eine Mobilkommunikations-Basisstation übertragen werden kann. Das Mikrofon 122 kann verschiedenartige Rauschsignalauslöschungs(oder -unterdrückungs)algorithmen implementieren, um Rauschen oder Interferenz auszulöschen (zu unterdrücken), das/die im Verlauf des Empfangs und der Übertragung von Audiosignalen erzeugt wird.
  • Die Benutzereingabeeinheit 130 kann Eingabedaten zum Steuern verschiedenartiger Verarbeitungen des mobilen Endgeräts aus durch einen Benutzer eingegebenen Befehlen erzeugen. Die Benutzereingabeeinheit 130 kann ein Tastenfeld, einen Domschalter, ein Touchpad, ein Jogwheel, einen Jog-Schalter und dergleichen aufweisen.
  • Die Erfassungseinheit 140 erfasst einen aktuellen Status (Zustand) des mobilen Endgeräts 100, wie beispielsweise einen offenen oder geschlossenen Zustand des mobilen Endgeräts 100, eine Position des mobilen Endgeräts 100, das Vorhandensein oder Nichtvorhandensein eines Benutzerkontakts an dem mobilen Endgerät 100 (d. h. Berührungseingaben), die Ausrichtung des mobilen Endgeräts 100, eine Beschleunigungs- oder Verzögerungsbewegung und -richtung des mobilen Endgeräts 100 und dergleichen, und erzeugt Befehle oder Signale zum Steuern des Betriebs des mobilen Endgeräts 100. Wenn das mobile Endgerät 100 beispielsweise als ein Schiebehandy implementiert ist, kann die Erfassungseinheit 140 erfassen, ob das Schiebehandy offen oder geschlossen ist. Außerdem kann die Erfassungseinheit 140 erfassen, ob die Spannungsversorgungseinheit 190 Spannung zuführt oder nicht, oder ob die Schnittstelleneinheit 170 mit einem externen Gerät verbunden ist oder nicht.
  • Die Ausgabeeinheit 150 ist dazu konfiguriert, Ausgangssignale auf eine visuelle, akustische und/oder taktile Weise auszugeben (z. B. ein Audiosignal, ein Videosignal, ein Alarmsignal, ein Vibrationssignal, usw.). Die Ausgabeeinheit 150 kann die Displayeinheit 151, ein Audioausgabemodul 153, eine Alarmeinheit 154, ein Haptikmodul 155 und dergleichen aufweisen.
  • Die Displayeinheit 151 kann im mobilen Endgerät 100 verarbeitete Information darstellen (ausgeben). Wenn das mobile Endgerät 100 sich beispielsweise in einem Telefonanrufmodus befindet, kann die Displayeinheit 151 eine einem Anruf oder einer anderen Kommunikation (z. B. Textnachricht, Multimediadatei-Download, usw.) entsprechende Benutzerschnittstelle (UI) oder grafische Benutzerschnittstelle (GUI) darstellen. Wenn das mobile Endgerät 100 sich in einem Videoanrufmodus oder in einem Bildaufnahmemodus befindet, kann die Displayeinheit 151 ein aufgenommenes und/oder empfangenes Bild, eine UI oder eine GUI darstellen, die Videos oder Bilder und damit in Beziehung stehende Funktionen darstellt, und dergleichen.
  • Die Displayeinheit 151 kann mindestens ein Flüssigkristalldisplay (LCD) und/oder ein Dünnschichttransistor-LCD (TFT-LCD) und/oder ein organisches Leuchtdioden-(OLED)Display und/oder ein flexibles Display und/oder ein dreidimensionales (3D) Display und/oder ein E-Ink-Display aufweisen.
  • Einige dieser Displaytypen können transparent oder lichtdurchlässig konfiguriert sein, so dass die Außenumgebung durch sie hindurch betrachtet werden kann, was als transparente Displays bezeichnet werden kann. Ein typisches transparentes Display kann ein TOLED-Display (Transparent Organic Light Emitting Display) oder dergleichen sein. Mit einer derartigen Konfiguration kann der Benutzer ein an der Rückseite des Endgerätkörpers angeordnetes Objekt durch einen Bereich hindurch sehen, den die Displayeinheit 151 des Endgerätkörpers einnimmt.
  • Das tragbare Endgerät 100 kann gemäß seiner spezifischen gewünschten Ausführungsform zwei oder mehr Displayeinheiten aufweisen. Beispielsweise können mehrere Displayeinheiten auf einer Oberfläche des mobilen Endgeräts voneinander getrennt oder miteinander integriert oder auf wechselseitig verschiedenen Oberflächen getrennt angeordnet sein.
  • Außerdem kann die Displayeinheit 151 als eine stereoskopische Displayeinheit 152 zum Darstellen eines Stereoskopiebildes konfiguriert sein. Hierbei kann das Stereoskopiebild ein dreidimensionales (3D) Stereoskopiebild sein, wobei das 3D-Stereoskopiebild ein Bild meint, das einem Betrachter den gleichen Eindruck einer graduellen Tiefe und Realität eines Objekts auf einem Monitor oder Bildschirm wie in einem realen Raum vermittelt. Ein 3D-Stereoskopiebild wird unter Verwendung einer binokularen Disparität implementiert. Binokulare Disparität bezeichnet eine durch die Positionen zweier Augen erzeugte Disparität. Wenn zwei Augen verschiedene 2D-Bilder betrachten, werden die Bilder über die Netzhaut zum Gehirn übertragen und im Gehirn kombiniert, um einen Tiefen- und Realitätseindruck zu ergeben.
  • Die stereoskopische Displayeinheit 152 kann ein stereoskopisches Darstellungssystem, z. B. ein stereoskopisches System (Glassystem), ein autostereoskopisches System (glasloses System), ein Projektionssystem (holografisches System) oder dergleichen verwenden. Typische stereoskopische Systeme, die für Heim-TV-Empfangsgeräte oder dergleichen verwendet werden, sind stereoskopische Wheatstone-Systeme und dergleichen.
  • Das autostereoskopische System weist beispielsweise ein Parallaxenbarrierensystem, ein linsenförmiges System, ein integrales Abbildungssystem oder dergleichen auf. Das Projektionssystem weist ein reflektives holografisches System, ein transmissives holografisches System oder dergleichen auf.
  • Allgemein besteht ein 3D-Stereoskopiebild aus einem linken Bild (Linksaugenbild) und einem rechten Bild (Rechtsaugenbild). In Abhängigkeit davon, wie das linke und das rechte Bild zu einem 3D-Stereoskopiebild kombiniert werden, wird das 3D-Stereoskopieabbildungsverfahren unterteilt in ein Aufwärts-Abwärts-Verfahren, in dem ein linkes und ein rechtes Bild in einem Rahmen oben und unten angeordnet sind, ein L-R-(Links-Rechts-, Seite-an-Seite-)Verfahren, in dem ein linkes und ein rechtes Bild in einem Rahmen links und rechts angeordnet sind, ein Checker-Board-Verfahren, in dem Teile eines linken und eines rechten Bildes in einer Kachelform angeordnet sind, ein verschachteltes Verfahren, in dem linke und rechte Bilder in Spalten und Reihen abwechselnd angeordnet sind, und ein Zeitfolge-(oder rahmenweises)Verfahren, in dem linke und rechte Bilder zeitlich abwechselnd angeordnet sind.
  • Außerdem werden für ein 3D-Miniaturbild ein linkes Miniaturbild und ein rechtes Miniaturbild von einem linken Bild bzw. einem rechten Bild des Originalbildrahmens erzeugt und dann kombiniert, um ein einzelnes 3D-Miniaturbild zu erzeugen. Allgemein bezeichnet ein Miniaturbild ein verkleinertes Bild oder ein verkleinertes Standbild. Das derart erzeugte linke Miniaturbild und das rechte Miniaturbild werden mit einem horizontalen Abstand dazwischen dargestellt, der der Disparität zwischen dem linken Bild und dem rechten Bild auf dem Bildschirm entspricht, wodurch ein stereoskopischer Raumeindruck erzielt wird.
  • Ein linkes Bild und ein rechtes Bild, die zum Implementieren eines 3D-Stereoskopiebildes erforderlich sind, werden auf der stereoskopischen Displayeinheit 152 durch eine stereoskopische Verarbeitungseinheit 152a dargestellt. Die stereoskopische Verarbeitungseinheit kann das 3D-Bild empfangen und das linke Bild und das rechte Bild extrahieren, oder kann das 2D-Bild empfangen und in ein linkes Bild und ein rechtes Bild ändern.
  • Wenn die Displayeinheit 151 und ein Sensor (nachstehend als 'Berührungssensor' bezeichnet) zum Erfassen einer Berührungsoperation auf eine lagenförmige Weise überlagert werden, um einen Berührungsbildschirm (Touchscreen) zu erzeugen, kann die Displayeinheit 151 sowohl als eine Eingabeeinrichtung als auch als eine Ausgabeeinrichtung funktionieren. Der Berührungssensor kann die Form einer Berührungsschicht, einer Berührungslage, eines Touchpad und dergleichen haben.
  • Der Berührungssensor kann dazu konfiguriert sein, einen auf einen bestimmten Abschnitt der Displayeinheit 151 ausgeübten Druck oder eine Änderung die Kapazität oder dergleichen, die an einem bestimmten Abschnitt der Displayeinheit 151 erzeugt wird, in ein elektrisches Eingangssignal umzuwandeln. Der Berührungssensor kann dazu konfiguriert sein, den bei einer Berührung durch ein Berührungsobjekt erzeugten Druck, sowie die berührte Position und den berührten Beriech auf dem Berührungssensor zu erfassen. Hierbei kann ein Berührungsobjekt beispielsweise ein Finger, ein Touchpen, ein Stylus-Pen, ein Zeiger (Pointer) oder dergleichen sein.
  • Wenn eine Berührungseingabe bezüglich des Berührungssensors vorgenommen wird, wird ein entsprechendes Signal (Signale) an einen Berührungscontroller übertragen.
  • Der Berührungscontroller verarbeitet die Signale und überträgt entsprechende Daten an den Controller 180. Daher kann der Controller 180 erkennen, welcher Abschnitt der Displayeinheit 151 berührt worden ist.
  • Gemäß 1 kann ein Annäherungssensor 141 innerhalb oder in der Nähe des Berührungsbildschirms angeordnet sein. Der Annäherungssensor ist ein Sensor zum Erfassen des Vorhandenseins oder Nichtvorhandenseins eines Objekts bezüglich einer bestimmten Erfassungsoberfläche oder eines in der Nähe der Erfassungsoberfläche angeordneten Objekts unter Verwendung einer elektromagnetischen Kraft oder von Infrarotstrahlen ohne einen physischen Kontakt. Der Annäherungssensor hat eine wesentlich längere Lebensdauer als ein Sensor des Kontakttyps und ist vielseitig verwendbar.
  • Beispiele des Annäherungssensors 141 sind ein photoelektrischer Sensor des Übertragungstyps, ein photoelektrischer Sensor des direkt reflektierenden Typs, ein photoelektrischer Sensor des spiegelnd reflektierenden Typs, ein Hochfrequenzoszillations-Annäherungssensor, ein kapazitiver Annäherungssensor, ein magnetischer Annäherungssensor, ein Infrarot-Annäherungssensor, usw. Wenn der Berührungsbildschirm als kapazitiver Sensortyp implementiert ist, wird eine Annäherung eines Zeigefingers (Pointers) durch eine Änderung des elektromagnetischen Feldes gemäß der Annäherung des Zeigefingers (Pointers) erfasst. In diesem Fall kann der Berührungsbildschirm (Berührungssensor) als ein Annäherungssensor eingestuft werden.
  • Nachstehend wird zur Vereinfachung und Abkürzung der Beschreibung die Erkennung des in der Nähe des Berührungsbildschirm angeordneten Zeigefingers (Pointers) als 'Annäherungsberührung' bezeichnet, während die Erkennung eines tatsächlichen Kontakts des Zeigefingers (Pointers) mit dem Berührungsbildschirm als eine 'Kontaktberührung' bezeichnet wird. Wenn der Zeigefinger (Pointer) sich im Zustand der Annäherungsberührung befindet, soll dies einem Fall entsprechen, in dem der Zeigefinger (Pointer) vertikal zum Berührungsbildschirm angeordnet ist.
  • Unter Verwendung des Annäherungssensors 141 können eine Annäherungsberührung und ein Annäherungsberührungsmuster (z. B. ein Annäherungsberührungsabstand, eine Annäherungsberührungsgeschwindigkeit, eine Annäherungsberührungszeit, eine Annäherungsberührungsposition, ein Annäherungsberührungsbewegungszustand oder dergleichen) erfasst werden, und es kann dem erfassten Annäherungsberührungsvorgang und dem Annäherungsberührungsmuster entsprechende Information an den Berührungsbildschirm ausgegeben werden.
  • Wenn ein Berührungssensor der stereoskopischen Displayeinheit 152 in einer schichtförmigen Weise überlagert ist oder wenn die stereoskopische Displayeinheit und ein 3D-Sensor zum Erfassen eines Berührungsvorgangs kombiniert sind, kann die stereoskopische Displayeinheit 152 auch als eine 3D-Eingabeeinrichtung verwendet werden.
  • Als Beispiele des 3D-Sensors kann die Erfassungseinheit 140 den Annäherungssensor 141, eine stereoskopische Berührungserfassungseinheit 142, eine Ultraschallerfassungseinheit 143 und eine Kameraerfassungseinheit 144 aufweisen.
  • Der Annäherungssensor 141 erfasst den Abstand zwischen einem Sensierobjekt (z. B. dem Finger eines Benutzers oder einem Stift), über das durch eine elektromagnetische Kraft oder durch Infrarotstrahlen eine Berührung ohne mechanischen Kontakt vorgenommen wird, und einer Erfassungsoberfläche. Unter Verwendung des Abstands erkennt das Endgerät, welcher Abschnitt eines Stereoskopiebildes berührt worden ist. Insbesondere wird, wenn der Berührungsbildschirm ein elektrostatischer Berührungsbildschirm ist, der Annäherungsgrad des Sensierobjekts basierend auf einer Änderung eines elektrischen Feldes entsprechend der Nähe des Sensierobjekts erfasst, und eine Berührung des 3D-Bildes wird unter Verwendung des Annäherungsgrades erkannt.
  • Die stereoskopische Berührungserfassungseinheit 142 ist dazu konfiguriert, die Stärke oder Dauer einer bezüglich des Berührungsbildschirms ausgeführten Berührung zu erfassen. Beispielsweise erfasst die stereoskopische Berührungserfassungseinheit 142 einen durch Berührung ausgeübten Druck, wobei, wenn der ausgeübte Druck stark ist, die stereoskopische Berührungserfassungseinheit 142 die Berührung als eine Berührung bezüglich eines Objekts erkennt, das weiter vom Berührungsbildschirm weg zum Inneren des Endgeräts hin angeordnet ist.
  • Die Ultraschallerfassungseinheit 143 ist dazu konfiguriert, Positionsinformation des Sensierobjekts unter Verwendung von Ultraschallwellen zu erkennen. Die Ultraschallerfassungseinheit 143 kann beispielsweise einen optischen Sensor und mehrere Ultraschallsensoren aufweisen. Der optische Sensor ist dazu konfiguriert, Licht zu erfassen, und die Ultraschallsensoren können dazu konfiguriert sein, Ultraschallwellen zu erfassen. Weil Licht wesentlich schneller ist als Ultraschallwellen, erreicht Licht den optischen Sensor viel früher als Ultraschallwellen die Ultraschallsensoren erreichen. Daher kann basierend auf Licht als ein Referenzsignal eine Position einer Wellenerzeugungsquelle unter Verwendung einer Zeitdifferenz zwischen einem Zeitpunkt, zu dem Licht den optischen Sensor erreicht, und einem Zeitpunkt berechnet werden, zu dem Ultraschallwellen die Ultraschallsensoren erreichen.
  • Die Kameraerfassungseinheit 144 weist mindestens eine Kamera und/oder einen Fotosensor und/oder einen Lasersensor auf. Beispielsweise können die Kamera und der Lasersensor kombiniert werden, um eine Berührung des Sensierobjekts bezüglich eines 3D-Stereoskopiebildes zu erfassen. Wenn einem durch die Kamera erfassten 2D-Bild durch einen Lasersensor erfasste Abstandsinformation hinzugefügt wird, kann 3D-Information erhalten werden.
  • In einem anderen Beispiel kann ein Fotosensor auf die Displayeinrichtung auflaminiert sein. Der Fotosensor ist dazu konfiguriert, eine Bewegung des Sensierobjekts in der Nähe des Berührungsbildschirms zu erfassen. Insbesondere weist der Fotosensor in Reihen und Spalten angeordnete Fotodioden und Transistoren zum Abtasten von auf den Fotosensor auftreffenden Inhalt unter Verwendung eines elektrischen Signals auf, das sich entsprechend der Menge des auftreffenden Lichts ändert. D. h., der Fotosensor berechnet die Koordinaten des Sensierobjekts gemäß einer Lichtänderung, um Positionsinformation für das Sensierobjekt zu erhalten.
  • Das Audioausgabemodul 153 kann von der Drahtloskommunikationseinheit 110 empfangene oder im Speicher 160 gespeicherte Audiodaten in einem Rufsignalempfangsmodus, einem Rufaufbaumodus, einem Aufzeichnungsmodus, einem Spracherkennungsmodus, einem Rundfunkempfangsmodus und dergleichen als Ton ausgeben. Das Audioausgabemodul 152 kann außerdem akustische Ausgangssignale ausgeben, die mit einer durch das mobile Endgerät 100 ausgeführten spezifischen Funktion in Beziehung stehen (z. B. einen Rufsignalempfangston, Nachrichtenempfangston, usw.). Das Audioausgabemodul 153 kann einen Lautsprecher, einen Summer oder eine andere Tonsignalerzeugungseinrichtung aufweisen.
  • Die Alarmeinheit 154 gibt ein Signal aus, das über das Auftreten eines Ereignisses im mobilen Endgerät 100 informiert. Im mobilen Endgerät 100 auftretende Ereignisse können einen Rufsignalempfang, einen Nachrichtenempfang, eine Tastensignaleingabe, eine Berührungseingabe und dergleichen beinhalten. Die Alarmeinheit 154 kann nicht nur Video- oder Audiosignale ausgeben, sondern Signale auf eine andersartige Weise ausgeben, um beispielsweise über das Auftreten eines Ereignisses zu informieren. Die Video- oder Audiosignale können außerdem über das Audioausgabemodul 153 ausgegeben werden, so dass die Displayeinheit 151 und das Audioausgabemodul 153 als Teile der Alarmeinheit 153 eingestuft werden können.
  • Ein Haptikmodul 155 erzeugt verschiedene taktile Effekte, die der Benutzer fühlen kann. Ein typisches Beispiel der durch das Haptikmodul 155 erzeugten taktilen Effekte ist eine Vibration. Die Stärke und das Muster der durch das Haptikmodul 154 erzeugten Effekte kann gesteuert werden. Beispielsweise können verschiedene Vibrationen kombiniert und ausgegeben oder sequentiell ausgegeben werden.
  • Neben Vibrationen kann das Haptikmodul 155 verschiedene andere taktile Effekte erzeugen, z. B. eine Reizwirkung, z. B. durch eine Anordnung von Stiften, die sich bezüglich einer kontaktierten Haut vertikal bewegen, eine Luftausstoßkraft oder eine Luftansaugkraft durch eine Ausstoßöffnung oder eine Ansaugöffnung, einen Kontakt auf der Haut, einen Kontakt einer Elektrode, eine elektrostatische Kraft usw., und eine Wirkung durch Reproduktion eines Kälte- oder Wärmegefühls unter Verwendung eines Elements, das Wärme absorbieren oder erzeugen kann.
  • Das Haptikmodul 155 kann dazu implementiert sein, dem Benutzer zu ermöglichen, einen taktilen Effekt durch eine Muskelempfindung z. B. von Fingern oder eines Arms des Benutzers zu fühlen, sowie den taktilen Effekt über einen direkten Kontakt zu übertragen. Gemäß der Konfiguration des mobilen Endgeräts 100 können zwei oder mehr Haptikmodule 155 vorgesehen sein.
  • Der Speicher 160 kann Softwareprogramme für die Verarbeitung und Steuerung von durch den Controller 180 ausgeführten Operationen speichern oder kann Ein-/Ausgabedaten (z. B. Telefonbuchdaten, Nachrichten, Standbilder, Videos und dergleichen) zwischenspeichern. Außerdem kann der Speicher 160 mit verschiedenen Vibrationsmustern in Beziehung stehende Daten und bei einer Berührungseingabe auf dem Berührungsbildschirm ausgegebene Audiosignale speichern.
  • Der Speicher 160 kann wenigstens einen Speichermediumtyp aufweisen, z. B. einen Flash-Speicher, eine Festplatte, eine Mikro-Multimediakarte, eine Speicherkarte (z. B. SD- oder DX-Speicher), einen Direktzugriffsspeicher (RAM), einen statischen Direktzugriffsspeicher (SRAM), einen Festwertspeicher (ROM), einen elektrisch löschbaren, programmierbaren Festwertspeicher (EEPROM), einen programmierbaren Festwertspeicher (PROM), einen magnetischen Speicher, eine magnetische Platte oder eine optische Platte. Außerdem kann das mobile Endgerät 100 in Verbindung mit einer Web-Speichereinrichtung betrieben werden, die die Speicherfunktion des Speichers 160 über das Internet ausführt.
  • Die Schnittstelleneinheit 170 dient als eine Schnittstelle zu jedem mit dem mobilen Endgerät 100 verbundenen externen Gerät. Beispielsweise können über die Schnittstelleneinheit 170 Daten an ein externes Gerät übertragen werden, kann Betriebsspannung für jedes Element des mobilen Endgeräts 100 empfangen und übertragen werden, oder können interne Daten des mobilen Endgeräts 100 an ein externes Gerät übertragen werden. Beispielsweise kann die Schnittstelleneinheit 170 drahtgebundene oder drahtlose Headset-Anschlüsse, Anschlüsse für eine externe Stromversorgung, drahtgebundene oder drahtlose Datenanschlüsse, Speicherkartenanschlüsse, Anschlüsse zum Anschließen eines Geräts mit einem Identifizierungsmodul, Audioein-/-ausgabe(E/A)anschlüsse, Video-E/A-Anschlüsse, Kopfhöreranschlüsse oder dergleichen aufweisen.
  • Das Identifizierungsmodul kann ein Chip zum Speichern verschiedenartiger Information zum Authentifizieren einer Berechtigung für die Nutzung des mobilen Endgeräts 100 sein und ein Benutzeridentitätsmodul (UIM), ein Teilnehmeridentitätsmodul (SIM), ein universelles Teilnehmeridentitätsmodul (USIM) und dergleichen aufweisen. Außerdem kann die Einrichtung, die das Identifizierungsmodul aufweist (nachstehend als 'Identifizierungseinrichtung' bezeichnet) die Form einer Smartcard haben. Daher kann die Identifizierungseinrichtung über einen Anschluss mit dem mobilen Endgerät 100 verbunden werden.
  • Wenn das mobile Endgerät 100 mit einer externen Aufnahmestation verbunden ist, kann die Schnittstelleneinheit 170 als ein Pfad dienen, über den dem mobilen Endgerät 100 eine Versorgungsspannung zugeführt werden kann, oder als ein Pfad dienen, über den verschiedene durch den Benutzer eingegebene Befehlssignale von der Aufnahmestation zum mobilen Endgerät übertragen werden können. Die verschiedenen Befehlssignale oder die Versorgungsspannung, die von der Aufnahmestation zugeführt werden, können als Signale dienen, die dazu geeignet sind, zu erkennen, dass das mobile Endgerät 100 korrekt in der Aufnahmestation angeordnet ist.
  • Der Controller 180 steuert typischerweise die gesamten Operationen des mobilen Endgeräts 100. Beispielsweise führt der Controller 180 eine Steuerung und Verarbeitung aus, die mit Sprachanrufen, Datenkommunikationen, Videoanrufen und dergleichen in Beziehung steht. Der Controller 180 kann ein Multimediamodul 181 zum Wiedergeben von Multimediadaten aufweisen. Das Multimediamodul 181 kann innerhalb des Controllers 180 oder als eine vom Controller 180 separate Komponente konfiguriert sein.
  • Der Controller 180 kann eine Mustererkennungsverarbeitung ausführen, um eine handschriftliche Eingabe oder eine Bildzeichnungseingabe, die auf dem Berührungsbildschirm ausgeführt wird, als Zeichen oder Bilder zu erkennen.
  • Außerdem kann der Controller 180, wenn ein Zustand des mobilen Endgeräts vorgegebene Bedingungen erfüllt, auf einen Sperrzustand zum Begrenzen einer Eingabe eines Steuerbefehls des Benutzers schalten. Außerdem kann der Controller 180 im Sperrzustand einen im Sperrzustand dargestellten Sperrbildschirm basierend auf einer durch die Displayeinheit 151 erfassten Berührungseingabe steuern.
  • Die Spannungsversorgungseinheit 190 empfängt externe Spannung oder interne Spannung und führt unter der Steuerung des Controllers 180 eine geeignete Spannung zu, die zum Betreiben jeweiliger Elemente und Komponenten erforderlich ist.
  • Verschiedene hierin beschriebene Ausführungsformen können in einem computerlesbaren Medium oder in einem ähnlichen Medium unter Verwendung beispielsweise von Software, Hardware oder einer Kombination daraus implementiert sein.
  • Für eine Hardwareimplementierung können die hierin beschriebenen Ausführungsformen unter Verwendung mindestens einer der folgenden Komponenten implementiert sein: anwendungsspezifische integrierte Schaltungen (ASICs), digitale Signalprozessoren (DSPs), digitale Signalverarbeitungselemente (DSPDs), programmierbare Logikelemente (PLDs), feldprogrammierbare Gate-Arrays (FPGAs), Prozessoren, Controller, Mikrocontroller, Mikroprozessoren und elektronische Einheiten, die zum Ausführen der hierin beschriebenen Funktionen konfiguriert sind. In einigen Fällen können derartige Ausführungsformen durch den Controller 180 selbst implementiert sein.
  • Für eine Softwareimplementierung können die hierin beschriebenen Ausführungsformen, wie beispielsweise Prozeduren oder Funktionen, durch separate Softwaremodule implementiert sein. Jedes Softwaremodul kann eine oder mehrere der hierin beschriebenen Funktionen und/oder Operationen ausführen. Softwarecodes können durch eine Softwareanwendung implementiert werden, die in einer beliebigen geeigneten Programmiersprache geschrieben ist. Die Softwarecodes können im Speicher 160 gespeichert sein und durch den Controller 180 ausgeführt werden.
  • Nachstehend wird ein Kommunikationssystem beschrieben, das durch eine Ausführungsform des erfindungsgemäßen mobilen Endgeräts 100 implementierbar ist.
  • Die 2A und 2B zeigen Konzeptansichten eines Kommunikationssystems, in dem eine Ausführungsform des erfindungsgemäßen mobilen Endgeräts 100 betreibbar ist.
  • Bezugnehmend zunächst auf 2A kann ein Kommunikationssystem verschiedene Luftschnittstellen und/oder physikalische Schichten verwenden. Beispiele von durch das Kommunikationssystem verwendeten Luftschnittstellen sind FDMA (Frequenzvielfachzugriff), TDMA (Zeitmultiplex), CDMA (Codemehrfachzugriff) und UMTS (Universal Mobile Telecommunications System) (insbesondere LTE (Long Term Evolution), GSM (Global System for Mobile Communications) und dergleichen. Als nicht einschränkendes Beispiel bezieht sich die Beschreibung nachstehend auf ein CDMA-Kommunikationssystem, die Lehren sind jedoch gleichermaßen auf andere Arten von Systemen anwendbar.
  • Die nachstehende Beschreibung bezieht sich zwar auf CDMA, die vorliegende Erfindung ist aber ersichtlich auf ein beliebiges Kommunikationssystem anwendbar, einschließlich eines CDMA-Drahtloskommunikationssystems.
  • Gemäß 2A kann ein CDMA-Drahtloskommunikationssystem mehrere mobile Endgeräte 100, mehrere Basisstationen (BSs) 270, Basisstationscontroller (BSCs) 275 und eine Mobilfunk-Vermittlungsstelle (MSC) 280 aufweisen. Die MSC 280 ist dazu konfiguriert, mit einem öffentlichen Telefonnetz (PSTN) 290 verbunden zu werden. Die MSC 280 ist außerdem dazu konfiguriert, mit den BSCs 275 verbunden zu werden, die über Backhaul-Leitungen mit den Basisstationen 270 verbunden sind. Die Backhaul-Leitungen können gemäß einem beliebigen von mehreren bekannten Schnittstellentypen konfiguriert sein, wie beispielsweise E1/T1, ATM, IP, PPP, Frame Relay, HDSL, ADSL oder xDSL. Es versteht sich, dass das in 2 dargestellte System mehrere BSCs 275 aufweisen kann.
  • Jede BS 270 kann einen oder mehrere Sektoren (oder Bereiche) bedienen, wobei jeder Sektor durch eine Rundstrahlantenne oder eine Antenne abgedeckt wird, die von der BS 270 radial weg in eine bestimmte Richtung gerichtet ist. Alternativ kann jeder Sektor durch zwei oder mehr Antennen für einen Diversity-Empfang abgedeckt sein. Jede BS 270 kann dazu konfiguriert sein, mehrere Frequenzzuweisungen zu unterstützen, und jede Frequenzzuweisung hat ein bestimmtes Spektrum (z. B. 1,25 MHz, 5 MHz, usw.).
  • Der Schnittpunkt zwischen einem Sektor und einer Frequenzzuweisung kann als CDMA-Kanal bezeichnet werden. Die BS 270 kann auch als Basisstations-Transceiver-Subsysteme (BTSs) oder durch äquivalente Begriffe bezeichnet werden. In diesem Fall kann der Ausdruck ”Basisstation” zum kollektiven Bezeichnen eines einzelnen BSC 275 und mindestens einer BS 270 verwendet werden. Die Basisstation kann auch als ”Zellenort” bezeichnet werden. Alternativ können einzelne Sektoren einer bestimmten BS 270 als mehrere Zellenorte bezeichnet werden.
  • Wie in 2A dargestellt ist, überträgt ein Rundfunksender (BT) 295 ein Rundfunksignal an ein innerhalb des Systems betriebenes mobiles Endgerät 100. Das beispielsweise in 1 dargestellte Rundfunkempfangsmodul 111 ist im Endgerät 100 zum Empfangen von durch den BT 295 übertragenen Rundfunksignalen vorhanden.
  • Außerdem sind in 2A mehrere GPS-(Global Positioning System)Satelliten 300 dargestellt. Die Satelliten 300 unterstützen die Lokalisierung mindestens eines von mehreren Endgeräten 100. In 2 sind mehrere Satelliten 300 dargestellt, es versteht sich jedoch, dass geeignete Positionsinformation mit einer beliebigen Anzahl von Satelliten erhalten werden kann. Das beispielsweise in 1 dargestellte GPS-Modul 115 ist typischerweise dazu konfiguriert, mit den Satelliten 399 zusammenzuwirken, um gewünschte Positionsinformation zu erhalten. An Stelle der oder zusätzlich zu GPS-Nachverfolgungstechniken können andere Techniken zum Nachverfolgen der Position der mobilen Endgeräte verwendet werden. Außerdem kann mindestens einer der GPS-Satelliten 300 selektiv oder zusätzlich Satelliten-DMB-Übertragungen handhaben.
  • Als ein typischer Betrieb des Drahtloskommunikationssystems empfangen die Basisstationen (BSs) 270 Aufwärtsstreckensignale von verschiedenen mobilen Endgeräten 100. Die mobilen Endgeräte 100 führen typischerweise Anruf-, Nachrichten- und andersartige Kommunikationen aus. Jedes durch eine bestimmte BS 270 empfangene Aufwärtsstreckensignal wird innerhalb der bestimmten BS 270 verarbeitet. Die erhaltenen Daten werden an einen zugeordneten BSC 275 weitergeleitet. Der BSC stellt eine Anrufressourcenzuweisungs- und Mobilitätsmanagementfunktionalität bereit, die die Koordination von Soft-Handover-Prozeduren zwischen Basisstationen 270 beinhaltet. Die BSCs 275 leiten außerdem die empfangenen Daten an die MSC 280 weiter, die zusätzliche Weiterleitungsdienste für eine Verbindung mit dem PSTN 290 bereitstellt. In ähnlicher Weise ist das PSTN 290 mit der MSC 280 verbunden, ist die MSC mit den BSCs 275 verbunden und steuern die BSCs 275 die Basisstationen 270 zum Übertragen von Abwärtsstreckensignalen zu den mobilen Endgeräten 100.
  • Nachstehend wird unter Bezug auf 2B ein Verfahren zum Abrufen der Positionsinformation eines mobilen Endgeräts unter Verwendung eines WiFi-(Wireless Fidelity)Positionsbestimmungssystems (WPS) beschrieben. Das WiFi-Positionsbestimmungssystem (WPS) 300 bezeichnet eine Positionsbestimmungstechnik basierend auf WLAN (Wireless Local Area Network) unter Verwendung von WiFi als eine Technik zum Nachverfolgen der Position des mobilen Endgeräts 100 unter Verwendung eines im mobilen Endgerät 100 bereitgestellten WiFi-Moduls und eines Drahtloszugangspunkts 320 zum Übertragen und Empfangen von Signalen zum und vom WiFi-Modul.
  • Das WiFi-Positionsbestimmungssystem 300 kann einen WiFi-Positionsbestimmungsserver 310, ein mobiles Endgerät 100, einen mit dem mobilen Endgerät 100 verbundenen Drahtloszugangspunkt (AP) 320 und eine Datenbank 330 umfassen, in der beliebige Drahtlos-AP-Information gespeichert ist.
  • Der WiFi-Positionsbestimmungsserver 310 extrahiert die Information des mit dem mobilen Endgerät 100 verbundenen Drahtlos-AP 320 basierend auf einer Positionsinformationsanforderungsmeldung (oder -signal) des mobilen Endgeräts 100. Die Information des Drahtlos-AP 320 kann über das mobile Endgerät 100 an den WiFi-Positionsbestimmungsserver 310 übertragen werden oder vom Drahtlos-AP 320 an den WiFi-Positionsbestimmungsserver 310 übertragen werden.
  • Die basierend auf der Positionsinformationsanforderungsmeldung des mobilen Endgeräts 100 extrahierte Information des Drahtlos-AP kann eine MAC-Adresse und/oder SSID und/oder RSSI und/oder Kanalinformation und/oder Privatsphäre (Privacy) und/oder Netzwerktyp und/oder Signalstärke und/oder Rauschsignalstärke sein.
  • Der WiFi-Positionsbestimmungsserver 310 empfängt die Information des mit dem mobilen Endgerät 100 verbundenen Drahtlos-AP 320, wie vorstehend beschrieben, und vergleicht die empfangene Information des Drahtlos-AP 320 mit Information, die in der im Voraus eingerichteten Datenbank 330 enthalten ist, um die Positionsinformation des mobilen Endgeräts 100 zu extrahieren (oder zu analysieren).
  • Andererseits ist gemäß 2B beispielsweise der mit dem mobilen Endgerät 100 verbundene Drahtlos-AP als ein erster, ein zweiter und ein dritter Drahtlos-AP 320 dargestellt. Die Anzahl von mit dem mobilen Endgerät 100 verbundenen Drahtlos-APs kann jedoch gemäß der Drahtloskommunikationsumgebung, in der sich das mobile Endgerät 100 befindet, auf verschiedene Weisen geändert werden. Wenn das mobile Endgerät 100 mit mindestens einem der Drahtlos-APs verbunden ist, kann das WiFi-Positionsbestimmungssystem 300 die Position des mobilen Endgeräts 330 verfolgen.
  • Nachstehend wird die Datenbank 330, in der beliebige Drahtlos-AP-Information gespeichert ist, ausführlicher betrachtet, wobei in der Datenbank 330 verschiedenartige Information über jegliche APs gespeichert sein kann, die sich an verschiedenen Orten befinden.
  • Die in der Datenbank 330 gespeicherte Information über jegliche Drahtlos-APs kann Information sein, wie beispielsweise eine MAC-Adresse, SSID, RSSI, Kanalinformation, Privatsphäre (Privacy), Netzwerktyp, Breiten- und Längenkoordinate, Gebäude, an dem der Drahtlos-AP angeordnet ist, Etagennummer, detaillierte Innenraumpositionsinformation (verfügbare GPS-Koordinate), Adresse, Telefonnummer des Eigentümers des AP und dergleichen.
  • Auf diese Weise ist beliebige Drahtlos-AP-Information und Positionsinformation, die einem beliebigen Drahtlos-AP zugeordnet sind, zusammen in der Datenbank 330 gespeichert, so dass der WiFi-Positionsbestimmungsserver 310 Drahtlos-AP-Information, die der Information des mit dem mobilen Endgerät 100 verbundenen Drahtlos-AP entspricht, von der Datenbank 330 abrufen kann, um die dem gesuchten Drahtlos-AP zugeordnete Positionsinformation zu extrahieren und damit die Positionsinformation des mobilen Endgeräts 100 zu extrahieren.
  • Außerdem kann die extrahierte Positionsinformation des mobilen Endgeräts 100 über den WiFi-Positionsbestimmungsserver 310 an das mobile Endgerät 100 übertragen werden, um die Positionsinformation des mobilen Endgeräts 100 zu erfassen.
  • Nachstehend wird eine in 1 dargestellte Ausführungsform eines erfindungsgemäßen mobilen Endgeräts oder eines mobilen Endgeräts mit den Komponenten des mobilen Endgeräts oder der Struktur eines mobilen Endgeräts beschrieben.
  • 3A zeigt eine perspektivische Vorderansicht eines Beispiels eines mit der vorliegenden Erfindung in Beziehung stehenden mobilen Endgeräts 100. Das hierin dargestellte mobile Endgerät 100 hat einen barrenförmigen Endgerätkörper. Die vorliegende Erfindung ist aber nicht darauf beschränkt, sondern ist auch auf verschiedenartige andere Strukturen anwendbar, wie beispielsweise einen uhrenförmigen, klammerförmigen, brillenförmigen Körper oder einen faltbaren, klappbaren, schwenkbaren, drehbaren Körper oder dergleichen, bei dem zwei Körper auf eine relativ zueinander drehbare Weise miteinander verbunden sind.
  • Der Endgerätkörper hat ein Gehäuse (Schale, Hülle, Abdeckung, usw.), das das Erscheinungsbild des Endgeräts bestimmt. In der vorliegenden Ausführungsform kann das Gehäuse in ein vorderes Gehäuseteil 101 und ein hinteres Gehäuseteil 102 geteilt sein. Verschiedenartige elektronische Komponenten sind in einem zwischen dem vorderen Gehäuseteil 101 und dem hinteren Gehäuseteil 102 ausgebildeten Raum angeordnet. Zusätzlich kann mindestens ein Mittelgehäuseteil zwischen dem vorderen Gehäuseteil 101 und dem hinteren Gehäuseteil 102 angeordnet sein, und eine Batterieabdeckung 103 zum Abdecken der Batterie 191 kann am hinteren Gehäuseteil 102 lösbar vorgesehen sein. Die Gehäuseteile können durch Spritzgießen eines Kunstharzes oder aus einem Metall ausgebildet sein, z. B. aus rostfreiem Stahl (STS), Titan (Ti) oder dergleichen.
  • Eine Displayeinheit 151, ein erstes Audioausgabemodul 153a, eine erste Kamera 121a, eine erste Manipulationseinheit 131 und dergleichen können an einer Vorderseite des Endgerätkörpers angeordnet sein, und ein Mikrofon 122, eine Schnittstelleneinheit 170, eine zweite Manipulationseinheit 132 und dergleichen können an seiner Seitenfläche angeordnet sein.
  • Die Displayeinheit 151 kann dazu konfiguriert sein, im mobilen Endgerät 100 verarbeitete Information darzustellen (auszugeben). Die Displayeinheit 151 kann ein LCD-Display (Flüssigkristalldisplay) und/oder ein TFT-LCD-Display (Dünnschicht-Flüssigkristalldisplay) und/oder ein OLED-Display (organisches Leuchtdiodendisplay) und/oder ein flexibles Display und/oder ein 3D-(dreidimensionalen)Display und/oder ein E-Ink-Display umfassen.
  • Die Displayeinheit 151 kann einen Berührungserfassungsmechanismus zum Empfangen eines Steuerbefehls gemäß einem Berührungsverfahren aufweisen. Der Berührungserfassungsmechanismus kann derart konfiguriert sein, dass er, wenn auf der Displayeinheit 151 eine Berührung an irgendeiner Stelle erfolgt, diese Berührung erfasst, wobei der der berührten Stelle entsprechende Inhalt eingegeben wird. Der durch das Berührungsverfahren eingegebene Inhalt kann ein Text oder ein Zahlenwert oder ein Menüpunkt sein, der zum Anzeigen oder Benennen in verschiedenen Modi geeignet ist.
  • Der Berührungserfassungsmechanismus kann transparent ausgebildet sein, um zu ermöglichen, dass auf der Displayeinheit 151 dargestellte visuelle Information betrachtet werden kann, und kann eine Struktur zum Verbessern der Sichtbarkeit eines Berührungsbildschirms an hellen Stellen aufweisen. Gemäß 3A nimmt die Displayeinheit 151 den größten Teil der Vorderfläche des vorderen Gehäuseteils 101 ein.
  • Das erste Audioausgabemodul 153a und die erste Kamera 121a sind in einem Bereich benachbart zu einem der beiden Enden der Displayeinheit 151 angeordnet, und die erste Manipulationseingabeeinheit 131 und das Mikrofon 122 sind in einem Bereich benachbart zum anderen Ende der Displayeinheit angeordnet. Die zweite Manipulationseinheit 132 (vergl. 3B), die Schnittstelle 170 und dergleichen können auf einer Seitenfläche des Endgerätkörpers angeordnet sein.
  • Das erste Audioausgabemodul 153a kann in der Gestalt eines Empfängers zum Übertragen von Sprache zum Ohr eines Benutzers oder eines Lautsprechers zum Ausgeben verschiedener Alarmtöne oder Multimediawiedergabetöne implementiert sein.
  • Die Konfiguration kann derart sein, dass die durch das erste Audioausgabemodul 153a erzeugten Töne entlang eines Montagespalts zwischen den Körperstrukturteilen freigesetzt werden. In diesem Fall ist es möglich, ein zum Ausgeben von Audiotönen ausgebildetes Loch hinsichtlich des Erscheinungsbildes unsichtbar zu machen oder zu verbergen, wodurch das Erscheinungsbild des mobilen Endgeräts 100 weiter reduziert wird. Die vorliegende Erfindung ist jedoch nicht hierauf beschränkt, sondern ein Loch zum Freisetzen von Tönen kann auch auf dem Fenster ausgebildet sein.
  • Die erste Kamera 121a verarbeitet Bildrahmen, z. B. Standbilder oder Bewegtbilder, die durch den Bildsensor in einem Videoanrufmodus oder in einem Bildaufnahmemodus erhalten werden. Die verarbeiteten Bildrahmen können auf der Displayeinheit 151 dargestellt werden.
  • Die Benutzereingabeeinheit 130 wird manipuliert, um einen Befehl zum Steuern des Betriebs des mobilen Endgeräts 100 zu erzeugen. Die Benutzereingabeeinheit 130 kann eine erste und eine zweite Manipulationseinheit 131, 132 aufweisen. Die erste und die zweite Manipulationseinheit 131, 132 können gemeinsam als ein Manipulationsabschnitt bezeichnet werden, und es kann ein beliebiges Verfahren verwendet werden, insofern es ein taktiles Verfahren ist, das es einem Benutzer ermöglicht, eine Manipulation mit einem taktilen Gefühl, z. B. Berührung, Druck, Rollen oder dergleichen, auszuführen.
  • Die erste Manipulationseinheit 131 ist als eine Berührungstaste dargestellt, die vorliegende Erfindung ist jedoch nicht darauf beschränkt. Beispielsweise kann die erste Manipulationseinheit 131 mit einer mechanischen Taste oder mit einer Kombination aus einer Berührungstaste und einer mechanischen Taste konfiguriert sein.
  • Der durch die erste und/oder die zweite Manipulationseinheit 131, 132 empfangene Inhalt kann auf verschiedene Weisen gesetzt werden. Beispielsweise kann die erste Manipulationseinheit 131 verwendet werden, um einen Befehl zu empfangen, beispielsweise einen Menü-, einen Startansicht-, einen Lösch-, einen Suchbefehl oder dergleichen, und die zweite Manipulationseinheit 132 kann einen Befehl empfangen, wie beispielsweise einen Befehl zum Regeln eines vom ersten Audioausgabemodul 153a ausgegebenen Lautstärkepegels oder zum Schalten auf einen Berührungserkennungsmodus der Displayeinheit 151.
  • Das Mikrofon 122 kann dazu konfiguriert sein, Sprache eines Benutzers, andere Tonsignale oder dergleichen zu empfangen. Das Mikrofon 122 kann an mehreren Stellen angeordnet und dazu konfiguriert sein, Stereotöne zu empfangen.
  • Die Schnittstelleneinheit 170 dient als ein Pfad, der es dem mobilen Endgerät 100 ermöglicht, Daten mit externen Geräten auszutauschen. Beispielsweise kann die Schnittstelleneinheit 170 ein Verbindungsanschluss zum Anschließen eines Ohrhörers auf eine verdrahtete oder eine drahtlose Weise und/oder ein Anschluss für eine Nahfeldkommunikation (beispielsweise einem IrDA-(Infrared Data Association)Anschluss und/oder ein Bluetooth-Anschluss und/oder ein Drahtlos-LAN-Anschluss und dergleichen) und/oder ein Spannungsversorgungsanschluss zum Zuführen von Spannung zum mobilen Endgerät 100 sein. Die Schnittstelleneinheit 170 kann in Gestalt eines Kartenfachs zum Aufnehmen einer externen Karte, z. B. einer SIM-(Subscriber Identification Module) Karte oder einer UIM-(User Identity Module)Karte und einer Speicherkarte zum Speichern von Information implementiert sein.
  • 3B zeigt eine perspektivische Rückansicht zum Darstellen des in 3A dargestellten mobilen Endgeräts 100. Gemäß 3B kann zusätzlich eine zweite Kamera 121b an einer Rückseite des Endgerätkörpers montiert sein, d. h. am hinteren Gehäuseteil 102. Die zweite Kamera 121b hat eine Bildaufnahmerichtung, die der Bildaufnahmerichtung der ersten Kameraeinheit 121a (vergl. 3A) im Wesentlichen entgegengesetzt ist, und kann eine von der Pixelzahl der ersten Kameraeinheit 121a verschiedene Pixelzahl haben.
  • Beispielsweise ist es bevorzugt, wenn die erste Kamera 121 eine relativ geringe Anzahl von Pixeln hat, die ausreichend ist, um keine Probleme zu verursachen, wenn der Benutzer während eines Videoanrufs oder dergleichen sein (ihr) eigenes Gesicht aufnimmt und es an die Gegenstelle sendet, und die zweite Kamera 121b hat eine relativ große Anzahl von Pixeln, weil der Benutzer häufig ein allgemeines Objekt aufnimmt, das nicht sofort versendet wird. Die erste und die zweite Kamera 121a, 121b können auf eine drehbare und klappbare Weise im Endgerätkörper angeordnet sein.
  • In der Nähe der zweiten Kamera 121b können zusätzlich ein Blitzlicht 123 und ein Spiegel 124 angeordnet sein. Das Blitzlicht 123 strahlt Licht zu einem Objekt hin ab, wenn das Objekt mit der zweiten Kamera 121b aufgenommen wird. Der Spiegel 124 ermöglicht es dem Benutzer, sein oder ihr eigenes Gesicht oder dergleichen auf eine reflektierende Weise zu betrachten, wenn er/sie sich (in einem Selbstporträtmodus) selbst unter Verwendung der zweiten Kamera 121b aufnimmt.
  • Zusätzlich kann ein zweites Audioausgabemodul 153b an der Rückseite des Endgerätkörpers angeordnet sein. Das zweite Audioausgabemodul 153b kann zusammen mit dem ersten Audioausgabemodul 153a (vergl. 3A) eine Stereofunktion implementieren und kann außerdem zum Implementieren eines Lauthörmodus während eines Telefonanrufs verwendet werden.
  • Außerdem kann zusätzlich zu einer Antenne zum Ausführen eines Telefonanrufs oder dergleichen eine Antenne zum Empfangen von Rundfunksignalen an einer Seitenfläche des Endgerätkörpers angeordnet sein. Die einen Teil des Rundfunkempfangsmoduls 111 (vergl. 1) bildende Antenne kann auf eine einfahrbare Weise im Endgerätkörper bereitgestellt werden.
  • Eine Spannungsversorgungseinheit 190 (vergl. 1) zum Zuführen von Spannung zum mobilen Endgerät 100 kann im oder am Endgerätkörper montiert sein. Die Spannungsversorgungseinheit 190 kann im Endgerätkörper eingebaut sein oder kann eine Batterie 191 aufweisen, die auf der Außenseite des Endgerätkörpers auf eine lösbare Weise konfiguriert ist. Die Batterieabdeckung 103 ist in der Darstellung mit dem hinteren Gehäuseteil 102 kombiniert, um die Batterie 191 abzudecken, wodurch verhindert wird, dass die Batterie 191 sich löst und die Batterie 191 vor von außen einwirkenden Stößen und Fremdstoffen geschützt wird.
  • In einer Ausführungsform eines erfindungsgemäßen mobilen Endgeräts können eine oder mehrere Funktionen, die ausgeführt werden oder ausführbar sind, gesteuert werden. Daher muss der Benutzer zum Steuern der einen oder mehreren Funktionen keine Manipulation (z. B. Berührungseingabe oder dergleichen) bezüglich des mobilen Endgeräts vornehmen, sondern die eine oder die mehreren Funktionen können durch eine einfache Geste zum Antippen eines Objekts gesteuert werden.
  • Nachstehend werden das mobile Endgerät, das eine auf Tippgesten zum Antippen eines Objekts basierende neuartige Benutzerschnittstelle bereitstellt, und ein Steuerungsverfahren dafür unter Bezug auf die beigefügten Zeichnungen ausführlich beschrieben.
  • 4 zeigt ein Ablaufdiagramm zum Darstellen einer Funktionsweise einer Ausführungsform eines erfindungsgemäßen mobilen Endgeräts 100, und 5 zeigt eine Ansicht zum Darstellen eines Bedienbeispiels des mobilen Endgeräts 100 gemäß dem Ablaufdiagramm von 4. Das mobile Endgerät 100 umfasst die Displayeinheit 151, die Erfassungseinheit 140 und den Controller 180.
  • Gemäß 4 werden in einer Ausführungsform der vorliegenden Erfindung, wenn eine oder mehrere Funktionen ausgeführt werden, Ausführungsbildschirme an die Displayeinheit 151 des mobilen Endgeräts ausgegeben (S110). Hierbei können die Ausführungsbildschirme verschiedenartige an die Displayeinheit 151 ausgegebene Bildschirminformation sein. Beispielsweise kann die Bildschirminformation ein Ausführungsbildschirm einer Anwendung, ein Seitenbildschirm eines Startansichtbildschirms, ein Menübildschirm, ein Bildschirm, der einer entsprechend einer Benutzeranforderung ausgeführten Funktion entspricht, ein Mitteilungsbildschirm, der anzeigt, dass ein Ereignis aufgetreten ist, ein Sperrbildschirm zum Verhindern einer fehlerhaften Funktion aufgrund einer versehentlichen Berührungseingabe, und dergleichen sein.
  • Wenn ein Ausführungsbildschirm an die Displayeinheit 151 ausgegeben wird, werden Tippgesten zum Antippen eines Objekts innerhalb einer Referenzzeit fortlaufend erfasst (S120). In einer Ausführungsform der vorliegenden Erfindung kann der Controller 180 einen Ausführungsbildschirm in einen Bereich, in dem ein Objekt ausgegeben wird, und in einen anderweitigen Bereich teilen.
  • Das Objekt ist ein grafisches Element, wobei, wenn eine Berührungseingabe in einem Bereich erfolgt, in dem das grafische Objekt ausgegeben wird, eine voreingestellte Steuerfunktion ausgeführt wird. Beispielsweise können ein Icon, ein Menü oder dergleichen ein Objekt sein. In diesem Fall kann der Controller 180 einen Bereich berechnen, in dem Tippgesten in einem Ausführungsbildschirm erfasst werden. Wenn Tippgesten in einem Bereich (einem leeren Raum) erfasst werden, in dem kein Objekt ausgegeben wird, kann der Controller 180 die Displayeinheit 151 deaktivieren.
  • Hierbei bezeichnet eine Tippgeste eine Geste zum Antippen eines Objekts. Insbesondere kann eine Tippgeste ein Vorgang zum schnellen Antippen eines Objekts durch einen Antippmechanismus, wie beispielsweise einen Finger oder dergleichen, oder ein Vorgang zum sanften Annähern eines Antippmechanismus an ein Objekt sein.
  • Der Antippmechanismus zum Ausführen von Tippgesten übt eine äußere Kraft auf ein Objekt aus und kann beispielsweise ein Finger, ein Stylus-Stift, ein Stift, ein Pointer, eine Faust und dergleichen sein. Der Antippmechanismus ist nicht auf das Ausführen einer Berührungseingabe bezüglich des mobilen Endgeräts beschränkt, sondern kann ein beliebiger Mechanismus sein, der dazu geeignet ist, eine äußere Kraft auf das Objekt auszuüben, unabhängig von seiner Art.
  • Das Objekt, bezüglich dessen die Tippgeste ausgeführt wird, umfasst einen Körper des mobilen Endgeräts und/oder ein Objekt, auf dem das mobile Endgerät angeordnet ist und/oder ein das mobile Endgerät abdeckendes Objekt. Außerdem kann festgelegt werden, dass Tippgesten nur dann erfasst worden sind, wenn mindestens zwei oder mehr Tippgesten innerhalb einer Referenzzeit ausgeführt werden.
  • Wenn beispielsweise eine einzelne Tippgeste bezüglich des Berührungsziels ausgeführt wird, kann der Controller 180 die einzelne Tippgeste als eine Berührungseingabe erkennen. D. h., der Controller 180 kann eine Funktion steuern, die der der einzelnen Tippgeste entsprechenden Berührungseingabe entspricht (z. B. eine Funktion zum Auswählen eines Icon, der an einer Stelle ausgegeben wird, bezüglich der die Berührungseingabe ausgeführt wird), anstatt eine der einzelnen Tippgeste entsprechende Funktion zu steuern.
  • Daher kann, wenn mindestens zwei oder mehr (oder viele) Tippgesten innerhalb einer Referenzzeit fortlaufend ausgeführt werden, der Controller 180 bestimmen, dass die Tippgesten zum Steuern einer oder mehrerer Funktionen erfasst worden sind. D. h., Tippgesten bedeuten, dass mindestens zwei oder mehr Tippgesten innerhalb einer Referenzzeit fortlaufend erfasst werden.
  • Außerdem kann ähnlich wie in dem Fall, dass Tippgesten innerhalb der Referenzzeit erfasst werden, wenn Tippgesten bezüglich eines 'vorgegebenen Bereichs' ausgeführt werden, der Controller 180 bestimmen, dass 'Tippgesten' erfasst worden sind. Beispielsweise können die Tippgesten eine erste und eine zweite Tippgeste sein, die innerhalb der Referenzzeit innerhalb des vorgegebenen Bereichs fortlaufend erfasst werden.
  • Außerdem kann die Referenzzeit eine sehr kurze Zeit sein. Beispielsweise kann sie eine Zeitdauer im Bereich von 300 Millisekunden bis 2 Sekunden sein. Außerdem kann der vorgegebene Bereich die gleiche Stelle sein, an der die Tippgesten ausgeführt worden sind, oder kann ein schmaler Bereich sein, der als die gleiche Stelle betrachtet wird.
  • Daher berechnet, wenn die erste Tippgeste durch die Erfassungseinheit 140 erfasst wird, die Erfassungseinheit 140 einen vorgegebenen Bereich beginnend an der Stelle, an der die erste Tippgeste erfasst wurde. Wenn die zweite Tippgeste innerhalb der Referenzzeit, die zu dem Zeitpunkt beginnt, zu der die erste Tippgeste erfasst wurde, innerhalb des vorgegebenen Bereichs erfasst wird, können die Erfassungseinheit 140 oder der Controller 180 bestimmen, dass die Tippgesten erfasst worden sind.
  • Außerdem kann die Erfassungseinheit 140 innerhalb der Referenzzeit erfasste Tippgesten zählen. Beispielsweise kann, wenn zwei Tippgesten gezählt werden, dies als 'Doppeltippgeste' bezeichnet werden, und wenn drei Tippgesten gezählt werden, kann dies als 'Dreifachtippgeste' bezeichnet werden. Tippgesten können aber auch Vier- oder Fünffachtippgesten umfassen.
  • Außerdem kann der Controller 180 als Reaktion auf verschiedene Anzahlen gezählter Tippgesten verschiedene Funktionen steuern. Die vorstehend erwähnte Referenzzeit und der vorgegebene Bereich können je nach Ausführungsform verschiedenartig modifiziert werden.
  • Tippgesten können durch einen oder mehrere Tippmechanismen ausgeführt werden. In diesem Fall kann die Erfassungseinheit 140 Stellen berechnen, bezüglich denen die Tippgesten ausgeführt wurden, und die Anzahl von Tippmechanismen, die die Tippgesten ausgeführt haben, unter Verwendung der berechneten Anzahl von Tippgesten bestimmen. Beispielsweise kann der Benutzer eine einzelne Stelle mit einem Finger antippen oder kann eine erste und eine zweite Stelle mit zwei Fingern gleichzeitig antippen. Tippgesten können auch bezüglich drei oder mehr Stellen gleichzeitig ausgeführt werden. In diesem Fall kann der Controller 180 verschiedene Funktionen gemäß einem oder mehreren Tippmechanismen steuern.
  • Außerdem können in einer Ausführungsform der vorliegenden Erfindung Tippgesten durch einen in der Erfassungseinheit 140 angeordneten Beschleunigungsmesser erfasst werden. Hierbei kann der Beschleunigungsmesser ein Sensor sein, der dazu geeignet ist, eine dynamische Kraft, wie beispielsweise eine Beschleunigung, Vibrationen, einen Schlag und dergleichen des Endgerätkörpers zu messen.
  • D. h., der Beschleunigungsmesser kann bezüglich eines Objekts ausgeführte Tippgesten durch Erfassen einer durch die Tippgeste erzeugten Bewegung (oder Vibration) des Endgerätkörpers erfassen, und der Controller 180 kann bestimmen, dass die Tippgeste ausgeführt worden ist. Daher kann das Objekt, bezüglich dessen die Tippgesten ausgeführt werden, der Endgerätkörper oder ein Objekt sein, dass so nahe am Endgerätkörper angeordnet ist, dass eine Bewegung oder Vibration desselben durch den Beschleunigungsmesser des Endgerätkörpers erfasst werden kann. Solange eine Bewegung oder eine Vibration durch den Endgerätkörper erfasst werden, kann die Tippgeste unabhängig davon erfasst werden, ob Tippgesten bezüglich einer Stelle außerhalb des Endgerätkörpers ausgeführt werden oder ob die Tippgeste bezüglich des Endgerätkörpers ausgeführt wird.
  • Beispielsweise kann, wenn das Endgerät auf einem Tisch angeordnet ist, der Benutzer Tippgesten durch Antippen des Tischs ausführen. In einem anderen Beispiel kann, wenn das Endgerät sich in einer Hosentasche befindet, der Benutzer Tippgesten durch Antippen der Außenfläche der Hose ausführen.
  • Außerdem kann die Erfassungseinheit 140, die einen Beschleunigungsmesser aufweist, eine Richtung erfassen, in die die Tippgesten erzeugt werden, oder eine Stärke der Tippgesten. In diesem Fall kann, um die Genauigkeit der Erfassungseinheit 140 zu erhöhen, die Erfassungseinheit 140 einen Berührungssensor, einen Annäherungssensor, einen Schallsensor und dergleichen aufweisen, sowie den Beschleunigungsmesser, und kann Tippgesten unter Verwendung dieser Sensoren in Kombination erfassen.
  • 5 zeigt eine Ausführungsform, in der Tippgesten bezüglich des mobilen Endgeräts 100 aus 4 ausgeführt werden. Gemäß 5 gibt die Displayeinheit 151 einen Ausführungsbildschirm einer ausgeführten Funktion aus. Beispielsweise wird, wenn eine Nachricht oder ein Ruf vom Endgerät einer Gegenstelle empfangen wird, ein Nachrichtenempfangsbildschirm oder ein Rufempfangsbildschirm an die Displayeinheit 151 ausgegeben.
  • Der Controller 180 kann eine visuelle und/oder eine akustische und/oder eine haptische Information unter Verwendung des Audioausgabemoduls 152 und/oder des Haptikmoduls 155 ausgeben, die in der Ausgabeeinheit 150 angeordnet sind. Nachstehend wird eine Ausführungsform, in der eine mit einer visuellen Wahrnehmung in Beziehung stehende Ausgabe unter Verwendung der Displayeinheit 151 erzeugt wird, als ein Beispiel beschrieben.
  • Wenn ein Ausführungsbildschirm ausgegeben wird, während eine oder mehrere Funktionen ausgeführt werden, können Tippgesten bezüglich des Endgerätkörpers oder einer Stelle außerhalb des Endgerätkörpers ausgeführt werden. Beispielsweise kann, wenn das mobile Endgerät 100 auf einem Tisch angeordnet ist, der Benutzer Tippgesten durch zweimaliges Antippen des Tischs ausführen.
  • Wie in 4 dargestellt ist, werden, wenn die Tippgesten ausgeführt werden, eine oder mehr Funktionen gesteuert (S130). D. h., es wird ein Steuerbefehl zum Ausführen von Funktionen erzeugt, die im Voraus den durch die Erfassungseinheit 140 erfassten Tippgesten zugeordnet wurden. D. h., der Controller 180 kann als Reaktion auf die Tippgesten mindestens eine der einen oder mehreren Funktionen steuern.
  • Hierbei können die eine oder mehreren Funktionen auf verschiedene Weisen gesteuert werden. Beispielsweise können die eine oder mehreren Funktionen gesteuert werden, um sie auszuführen, zu beenden (oder zu stoppen oder zu unterbrechen) und zurückzustellen. In diesem Fall kann der Controller 180 verschiedene Steuerbefehle zum Ausführen verschiedener Steuerungen gemäß Eigenschaften der Tippgesten ausführen, wie vorstehend beschrieben wurde.
  • Außerdem weisen die Eigenschaften der Tippgesten Eigenschaften auf, die auf 1) der Anzahl von Tippgesten (z. B. Doppeltippgesten oder Dreifachtippgesten), die innerhalb der Referenzzeit ausgeführt werden, und/oder 2) der Anzahl von Tippmechanismen (z. B. ein Finger oder zwei Finger), die die Tippgesten ausführen, und/oder 3) einer Position oder einer Stelle, an der die Tippgesten ausgeführt werden (z. B. der Endgerätkörper oder eine Stelle außerhalb des Endgerätkörpers), und/oder 4) einer Stärke der Tippgesten basieren.
  • Dann kann der Controller 180 als Reaktion auf durch die Erfassungseinheit 140 erfassten Tippgesten den Tippgesten entsprechende Funktionen ausführen, wie Funktionen zum Steuern mindestens einer der einen oder mehreren Funktionen.
  • In einer Ausführungsform der vorliegenden Erfindung kann der Controller 100 als Reaktion auf eine Doppeltippgeste, bei der die gleiche Stelle aufeinanderfolgend zweimal angetippt wird, mindestens eine oder mehrere der im mobilen Endgerät ausgeführten einen oder mehreren Funktionen beenden und die Displayeinheit 151 deaktivieren. Beispielsweise kann der Controller 180, wie in 5 dargestellt ist, wenn ein Anruf empfangen wird, d. h., wenn eine Rufempfangsfunktion ausgeführt wird, den Empfang des Anrufs vom Endgerät der Gegenstelle ablehnen. Außerdem kann der Controller 180 den Anruf ablehnen und die Beleuchtung der Displayeinheit 151 deaktivieren.
  • D. h., als Reaktion auf die Tippgesten kann der Controller 180 die Displayeinheit 151 steuern, um sie zu deaktivieren. Deaktivieren der Displayeinheit 151 bedeutet, dass die Beleuchtung zum Beleuchten der Displayeinheit 151 in einen ausgeschalteten Zustand geschaltet und keinerlei Information oder grafische Bilder auf der Displayeinheit 151 dargestellt werden. Wenn die Displayeinheit 151 deaktiviert ist, kann dies als eine Schlaffunktion (oder ein Schlafmodus) bezeichnet werden.
  • Außerdem kann der Controller 180 die Displayeinheit 151 deaktivieren, die einen der Anruffunktion entsprechenden Ausführungsbildschirm dargestellt hat, und eine Ausgabe eines Alarmtons (oder Klingeltons) und/oder einer Vibration stoppen, die gemäß dem Rufempfang ausgegeben werden.
  • Wie vorstehend beschrieben wurde, kann im mobilen Endgerät gemäß einer Ausführungsform der vorliegenden Erfindung, wenn Tippgesten ausgeführt werden, während eine oder mehrere Funktionen ausgeführt werden, mindestens eine der ausgeführten Funktionen gesteuert werden. Daher kann der Benutzer Funktionen durch eine simple Tippgeste steuern, ohne dass er eine Berührungsmanipulation zum Ausführen der vorstehend erwähnten Steuerung bezüglich des Endgeräts ausführen muss.
  • Außerdem kann im mobilen Endgerät 100 gemäß einer Ausführungsform der vorliegenden Erfindung, wenn innerhalb der Referenzzeit fortlaufend Tippgesten erfasst werden, mindestens eine der einen oder mehreren im mobilen Endgerät ausgeführten Funktionen als Reaktion auf die Tippgesten gesteuert werden.
  • Außerdem wird im mobilen Endgerät 100 gemäß einer Ausführungsform der vorliegenden Erfindung durch Erzeugen eines Steuerbefehls gemäß Tippgesten eine von einer herkömmlichen Berührung verschiedene neuartige Benutzerschnittstelle bereitgestellt. Außerdem wird, weil das Endgerät durch ein einfaches Verfahren von Tippgesten gesteuert wird, die Benutzerfreundlichkeit verbessert.
  • In Verbindung mit der vorstehenden Ausführungsform ist ein Verfahren zum Steuern mindestens einer von einer oder mehrerer im mobilen Endgerät ausgeführten Funktionen beschrieben worden. Im mobilen Endgerät 100 gemäß einer Ausführungsform der vorliegenden Erfindung kann, auch wenn eine Funktion aktuell im mobilen Endgerät nicht ausgeführt wird, als Reaktion auf Tippgesten eine neue Funktion ausgeführt werden oder das mobile Endgerät kann in einen bestimmten Modus eintreten.
  • Nachstehend werden unter Bezug auf die 6 bis 14 verschiedene Ausführungsformen beschrieben, die mit Funktionen in Beziehung stehen, die Eigenschaften von Tippgesten zugeordnet sind, d. h. mit durch den Controller 180 gesteuerten Funktionen. Zunächst werden Steuerfunktionen beschrieben, die Eigenschaften von Tippgesten zugeordnet sind.
  • Im mobilen Endgerät gemäß einer Ausführungsform der vorliegenden Erfindung können gemäß den Eigenschaften von Tippgesten verschiedene Funktionen ausgeführt werden. Die verschiedenen Funktionen können mit einer Ausgabe der Displayeinheit 151 in Beziehung stehende Funktionen sein. Beispielsweise können die verschiedenen Funktionen eine Schlaffunktion, eine Privatsphärenfunktion, eine Leisefunktion, eine Betriebsspannungsausschaltfunktion, eine Fensterausschaltfunktion und dergleichen sein.
  • Hierbei bezeichnet die Schlaffunktion eine Funktion zum Deaktivieren der Displayeinheit 151. Das Deaktivieren der Displayeinheit 151 kann das Ausschalten einer im Inneren der Displayeinheit 151 bereitgestellten Beleuchtung meinen. Wenn die Schlaffunktion ausgeführt wird und ein neues Ereignis auftritt, kann der Controller 180 eine dem Auftreten des Ereignisses entsprechende Ausgabe erzeugen. Beispielsweise können, wenn ein Anruf empfangen wird, während die Schlaffunktion ausgeführt wird, ein Mitteilungston (oder ein Klingelton) oder Vibrationen ausgegeben werden, der/die den Rufempfang anzeigen, oder kann den Rufempfang anzeigende Bildschirminformation an die Displayeinheit 151 ausgegeben werden.
  • Außerdem kann, wenn die Bildschirminformation an die Displayeinheit 151 ausgegeben wird, die Schlaffunktion nicht mehr ausgeführt werden. Wenn die Schlaffunktion im mobilen Endgerät 100 ausgeführt wird, ist die Beleuchtung der Displayeinheit 151 ausgeschaltet, wodurch der Batterieverbrauch gesenkt wird. Die Privatsphärenfunktion bezeichnet eine Funktion zum Reduzieren der Helligkeit eines Bildschirms, um zu verhindern, dass Personen in der Nähe des Benutzers des Endgeräts die Displayeinheit 151 betrachten können.
  • D. h., die Privatsphärenfunktion bezeichnet eine Funktion, die zum Schutz der Privatsphäre bereitgestellt wird, indem die Helligkeit der innerhalb der Displayeinheit 151 bereitgestellten Beleuchtung eingestellt oder eine Beleuchtungsrichtung eingestellt wird. Die Leisefunktion bezeichnet eine Funktion zum Steuern von in der Ausgabeeinheit 150 enthaltenen Komponenten, so dass diese keine Ausgabe erzeugen, sowie zum Deaktivieren der Displayeinheit 151. Anders als bei der Schlaffunktion kann, wenn die Leisefunktion ausgeführt wird, auch wenn ein neues Ereignis auftritt, der Controller 180 entsprechend dem Auftreten des Ereignisses keine Ausgabe erzeugen. Durch Aufheben der Leisefunktion kann der Benutzer jedoch ein Ereignis prüfen, das erzeugt worden ist, während die Leisefunktion ausgeführt wurde.
  • Außerdem bezeichnet die Betriebsspannungsausschaltfunktion eine Funktion zum Ausschalten der Betriebsspannung des mobilen Endgeräts 100. Außerdem kann die Fensterausschaltfunktion eine Funktion zum Stoppen der Darstellung eines Ausführungsbildschirms sein, der an Stellen ausgegeben wird, bezüglich denen Tippgesten ausgeführt werden. Wenn die Fensterausschaltfunktion ausgeführt wird, kann der Controller 180 die Ausführung einer dem Ausführungsbildschirm entsprechenden Anwendung beenden sowie die Darstellung des Ausführungsbildschirms beenden. Daher kann der Benutzer eine ausgeführte Anwendung durch die Fensterausschaltfunktion unter Verwendung von Tippgesten beenden.
  • Außerdem ist, wenn die Funktionen ausgeführt werden, das mobile Endgerät in den ausgeführten Funktionen entsprechende Modi eingetreten. Beispielsweise ist, wenn die Schlaffunktion ausgeführt wird, das mobile Endgerät in einen Schlafmodus eingetreten oder ist der Schlafmodus im mobilen Endgerät aktiviert.
  • Steuerfunktionen, die im Voraus Eigenschaften von Tippgesten zugeordnet worden sind, können auf eine beliebige Funktion unter der Schlaffunktion, der Privatsphärenfunktion, der Leisefunktion, der Betriebsspannungsausschaltfunktion und der Fensterausschaltfunktion gesetzt werden. Die vorliegende Erfindung ist aber nicht darauf beschränkt, sondern die Steuerfunktionen können auf verschiedene Weise modifiziert werden.
  • 6 zeigt eine Konzeptansicht eines Bedienbeispiels (Schlaffunktion) zum Deaktivieren der Displayeinheit 151 im mobilen Endgerät 100 gemäß einer Ausführungsform der vorliegenden Erfindung. Gemäß 6 können ein Ruhebildschirm, ein Sperrbildschirm oder dergleichen, die einer oder mehreren Funktionen entsprechen, an die Displayeinheit ausgegeben werden. Wenn Bildschirminformation an die Displayeinheit 151 ausgegeben wird und Tippgesten erfasst werden, kann der Controller 180 die Displayeinheit 151 deaktivieren.
  • Wenn die Tippgesten ausgeführt werden, kann der Controller, wenn die eine oder mehreren Funktionen im mobilen Endgerät ausgeführt worden sind, mindestens eine der Funktionen beenden. In einer Ausführungsform kann der Controller 180, wenn Tippgesten bezüglich eines leeren Raums eines an die Displayeinheit 151 ausgegebenen Bildschirms ausgeführt werden, die Displayeinheit 151 deaktivieren. Wenn beispielsweise ein Startbildschirm mit einem Objekt, wie beispielsweise einem Icon, als ein Ausführungsbildschirm ausgegeben wird, kann ein Bereich, in dem kein Icon ausgegeben wird, ein leerer Raum sein. Dies dient dazu, eine Fehlfunktion des Endgeräts zu verhindern.
  • Außerdem kann der Controller 180, wenn die Tippgesten ausgeführt werden, eine Funktionsliste, die aktuell ausgeführten Funktionen entspricht, auf der Displayeinheit 151 darstellen. Dann kann als Reaktion auf anschließend ausgeführte Tippgesten bestimmt werden, ob die ausgeführte Funktion beendet werden soll oder nur die Displayeinheit 151 deaktiviert werden soll. Beispielsweise kann der Controller 180, wenn zwei Tippgesten ausgeführt werden, alle aktuell ausgeführten Funktionen beenden und die Displayeinheit 151 deaktivieren. Außerdem kann der Controller 180, wenn drei Tippgesten ausgeführt werden, nur die Displayeinheit 151 deaktivieren, während die aktuell ausgeführten Funktionen unverändert ausgeführt werden.
  • Wie vorstehend beschrieben wurde, kann, wenn die Schlaffunktion als Reaktion auf Tippgesten ausgeführt wird, der Controller 180 die Displayeinheit 151 deaktivieren, wenn ein Sperrbildschirm, ein Ausführungsbildschirm einer Anwendung oder dergleichen dargestellt wird.
  • Die 7A und 7B zeigen Konzeptansichten zum Darstellen eines Bedienbeispiels (Fensterausschaltfunktion) zum Steuern von Funktionen, die an die Displayeinheit 151 im mobilen Endgerät 100 ausgegebener Bildschirminformation entsprechen, gemäß einer Ausführungsform der vorliegenden Erfindung.
  • Gemäß 7A kann der Controller 180 eine Anwendung ausführen und einen Ausführungsbildschirm der Anwendung an die Displayeinheit 151 ausgeben. Beispielsweise kann, wenn eine Anwendung, wie beispielsweise ein Fotoalbum, eine Bildaufnahme, ein Webbrowser oder dergleichen, ausgeführt wird, ein entsprechender Ausführungsbildschirm an die Displayeinheit 151 ausgegeben werden.
  • Hierbei kann der Controller 180 eine Funktion steuern, die einem Ausführungsbildschirm entspricht, der an einer Stelle ausgegeben wird, an der die Tippgesten ausgeführt worden sind. Beispielsweise kann der Controller 180 die Darstellung des Ausführungsbildschirms an einer Stelle beenden, an der die Tippgesten ausgeführt worden sind, und die Ausführung der dem Ausführungsbildschirm entsprechenden Anwendung beenden. Eine derartige Steuerfunktion kann als Fensterausschaltfunktion bezeichnet werden.
  • Wenn die Darstellung eines bestimmten Ausführungsbildschirms beendet wird, kann der Controller 180 einen Ausführungsbildschirm einer Anwendung an die Displayeinheit 151 ausgeben, die zuletzt ausgeführt und nicht beendet worden ist.
  • Beispielsweise können eine erste Anwendung, eine zweite Anwendung und eine dritte Anwendung in Folge ausgeführt werden. Wenn ein Ausführungsbildschirm 730 gemäß der Ausführung der dritten Anwendung ausgegeben wird, kann der Controller 180, wenn Tippgesten erfasst werden, die Ausführung der dritten Anwendung beenden. Der Controller 180 kann einen Ausführungsbildschirm 720 der zweiten Anwendung, die zuletzt ausgeführt worden und nicht beendet worden ist, an die Displayeinheit 151 ausgeben.
  • In einem anderen Beispiel kann der Controller 180, wenn mehrere Anwendungen nicht beendet worden sind, Miniaturbilder der jeweiligen Anwendungen an die Displayeinheit 151 ausgeben. D. h., wenn die Ausführung der dritten Anwendung beendet ist, kann der Controller 180 die der ersten und der zweiten Anwendung entsprechenden Miniaturbilder 710 und 720 in der Ausführungsfolge anordnen.
  • In diesem Fall kann der Controller 180, wenn irgendeines der an die Displayeinheit 151 ausgegebenen Bilder ausgewählt wird, einen Ausführungsbildschirm einer dem ausgewählten der Miniaturbilder entsprechenden Anwendung ausgeben.
  • Wenn keine Anwendung ausgeführt wird, kann der Controller 180 einen Startbildschirm an die Displayeinheit 151 ausgeben. Der Startbildschirm bezeichnet einen Ruhebildschirm des mobilen Endgeräts 100 mit Icons oder Widgets von im mobilen Endgerät 100 installierten Anwendungen.
  • Gemäß 7B werden mehrere Ausführungsbildschirme an die Displayeinheit 151 ausgegeben. Beispielsweise werden ein erster und ein zweiter Ausführungsbildschirm 710 und 720, die einer ersten bzw. einer zweiten Anwendung entsprechen, an die Displayeinheit 151 ausgegeben.
  • In diesem Fall kann der Controller 180, wenn der erste und der zweite Ausführungsbildschirm 710 und 720 ausgegeben werden und Tippgesten bezüglich einer Stelle ausgeführt werden, an der der zweite Ausführungsbildschirm 720 ausgegeben wird, die Darstellung des zweiten Ausführungsbildschirms 720 beenden. Außerdem kann der Controller 180 die Ausführung der dem zweiten Ausführungsbildschirm 720 entsprechenden Anwendung beenden.
  • Außerdem kann der Controller 180, wenn der zweite Ausführungsbildschirm 720 unter den mehreren an die Displayeinheit 151 ausgegebenen Ausführungsbildschirmen dargestellt wird, eine Darstellungsgröße des ersten Ausführungsbildschirms 1, der nicht beendet worden ist, ändern. Beispielsweise kann, wenn die Darstellung des zweiten Ausführungsbildschirms 720 beendet ist, die Größe des ersten Ausführungsbildschirms 710 einer Anwendung, die nicht beendet worden ist, maximiert werden.
  • Daher stellt das mobile Endgerät 100 gemäß einer Ausführungsform der vorliegenden Erfindung eine neuartige Schnittstelle zum Steuern einer Anwendung durch ein einfaches Verfahren bereit.
  • Die 8A und 8B zeigen Konzeptansichten zum Darstellen von Bedienbeispielen des mobilen Endgeräts, das verschiedene Funktionen gemäß der Anzahl von Stellen ausführt, bezüglich derer Tippgesten gleichzeitig ausgeführt werden. Gemäß den
  • 8A und 8B wird, wenn eine Anwendung (z. B. ein Fotoalbum) ausgeführt wird, ein entsprechender Ausführungsbildschirm an die Displayeinheit 151 ausgegeben.
  • Wenn der Ausführungsbildschirm der Anwendung dargestellt wird, kann der Controller 180 verschiedene Steuerfunktionen, die auf der Displayeinheit 151 dargestellter Bildschirminformation entsprechen, gemäß der Anzahl von Stellen ausführen, bezüglich derer Tippgesten gleichzeitig ausgeführt werden. D. h., auch wenn der gleiche Ausführungsbildschirm dargestellt wird, können gemäß der Anzahl von Stellen, bezüglich derer Tippgesten ausgeführt werden, verschiedene Funktionen gesteuert werden.
  • Wenn gemäß 8A die Anzahl von Stellen, bezüglich derer Tippgesten ausgeführt werden, eins ist, kann eine Schlaffunktion ausgeführt werden, und wenn gemäß 8B die Anzahl von Stellen, bezüglich derer Tippgesten ausgeführt werden, zwei ist, kann eine Fensterausschaltfunktion ausgeführt werden. Die Steuerfunktion gemäß der Anzahl von Stellen, bezüglich derer Tippgesten ausgeführt werden, kann je nach Ausführungsform variieren.
  • Wenn Tippgesten bezüglich zwei Stellen ausgeführt werden, d. h. bezüglich einer ersten und einer zweiten Stelle, können entsprechend einem Abstand zwischen der ersten und der zweiten Stelle verschiedene Steuerfunktionen ausgeführt werden. Wenn beispielsweise der Abstand zwischen der ersten und der zweiten Stelle größer ist als ein Bezugsabstand, kann ein an die Displayeinheit 151 ausgegebener Ausführungsbildschirm um einen Mittelpunkt zwischen der ersten Stelle und der zweiten Stelle vergrößert werden.
  • Wenn dagegen der Abstand zwischen der ersten Stelle und der zweiten Stelle kleiner ist als der Bezugsabstand, kann der Ausführungsbildschirm um den Mittelpunkt verkleinert werden. In diesem Fall können die Ausführungsbildschirme im Verhältnis zwischen einer Differenz zwischen dem Abstand zwischen der ersten und der zweiten Stelle und dem Bezugsabstand vergrößert oder verkleinert werden.
  • Unter Bezugnahme auf die 8A und 8B können Steuerfunktionen ausgeführt werden, die entsprechend der Anzahl von Stellen, bezüglich denen Tippgesten ausgeführt werden, verschieden zugeordnet sind.
  • Die 9A und 9B zeigen Konzeptansichten zum Darstellen von Bedienbeispielen des mobilen Endgeräts zum Ausgeben von Funktionsinformation, wenn Tippgesten erfasst werden. Wenn Tippgesten erfasst werden, kann der Controller 180 Führungsinformation bezüglich Steuerfunktionen ausgeben, die den Eigenschaften der Tippgesten entsprechen. Beispielsweise kann, wenn die Anzahl von Stellen, bezüglich derer Tippgesten ausgeführt werden, eins ist und eine dementsprechende Steuerfunktion eine erste Funktion ist, mit der ersten Funktion in Beziehung stehende Führungsinformation ausgegeben werden.
  • In einem anderen Beispiel kann gemäß 9B, wenn die Anzahl von Stellen, bezüglich derer Tippgesten ausgeführt werden, zwei ist und eine dementsprechende Steuerfunktion eine zweite Funktion ist, mit der zweiten Funktion in Beziehung stehende Führungsinformation ausgegeben werden. Außerdem kann neben dem in den 9A und 9B dargestellten visuellen Verfahren, wenn die Anzahl von Stellen, bezüglich derer Tippgesten ausgeführt werden, zwei ist und eine dementsprechende Steuerfunktion eine zweite Funktion ist, mit der zweiten Funktion in Beziehung stehende Führungsinformation ausgegeben werden.
  • Außerdem kann die Führungsinformation auf eine akustische oder haptische Weise, z. B. als Sprache oder Vibration, sowie auf visuelle Weise ausgegeben werden, wie in den 9A und 9B dargestellt.
  • 10 zeigt eine Ansicht, in der das mobile Endgerät eine Liste von jeweiligen Eigenschaften von Tippgesten entsprechender Funktionsinformation ausgibt. Der Speicher 160 des mobilen Endgeräts 100 gemäß einer Ausführungsform der vorliegenden Erfindung kann Information (nachstehend als 'Funktionsinformation' bezeichnet) speichern, die mit verschiedenen Steuerfunktionen in Beziehung steht, die gemäß Eigenschaften von Tippgesten ausgeführt werden sollen.
  • Wenn eine Benutzeranforderung eingegeben wird oder Tippgesten ausgeführt werden, kann der Controller eine Funktionsinformationsliste unter Bezug auf die im Speicher 160 gespeicherte Funktionsinformation an die Displayeinheit 151 ausgeben. Die Funktionsinformationsliste kann mindestens eine Funktionsinformation enthalten, und die Funktionsinformation kann Information über Eigenschaften von Tippgesten enthalten, die einem Titel einer auszuführenden Steuerfunktion, einer Beschreibung der Steuerfunktion und einer Vorbedingung entsprechen, unter der die Steuerfunktion ausgeführt werden soll.
  • Beispielsweise kann die erste Funktion eine Schlaffunktion sein und ausgeführt werden, wenn zwei Tippgesten aufeinanderfolgend bezüglich einer Stelle ausgeführt werden. In einem anderen Beispiel kann die zweite Funktion eine Fensterausschaltfunktion sein und ausgeführt werden, wenn zwei Tippgesten aufeinanderfolgend an zwei Stellen ausgeführt werden.
  • Die im Speicher 160 gespeicherte Funktionsinformation kann basierend auf einer Benutzereingabe bearbeitet werden. Wenn beispielsweise die erste Funktion als eine Schlaffunktion eingestellt ist, kann die erste Funktion in eine Betriebsspannungsausschaltfunktion geändert werden. In einem anderen Beispiel kann, wenn die zweite Funktion derart gesetzt ist, dass sie ausgeführt wird, wenn zwei Tippgesten aufeinanderfolgend an zwei Stellen ausgeführt werden, die zweite Funktion derart geändert werden, dass sie ausgeführt wird, wenn drei Tippgesten an einer Stelle aufeinanderfolgend ausgeführt werden.
  • In einem spezifischen Beispiel zum Bearbeiten von Funktionsinformation kann der Controller 180 veranlassen, dass mindestens eine im Speicher 160 gespeicherte Funktionsinformation in der Funktionsinformationsliste gemäß einer Benutzeranforderung oder wenn eine voreingestellte Tippgeste ausgeführt wird, geändert werden kann. In diesem Fall kann der Controller 180 ein Menü-Icon, das dazu konfiguriert ist, mindestens eine Funktionsinformation zu bearbeiten, zusammen mit der Funktionsinformationsliste ausgeben. Wenn eine bezüglich des Menü-Icon ausgeführte Berührungseingabe erfasst wird, kann der Controller 180 mindestens eine Funktionsinformation auswählen und ein Bearbeitungsmenü bezüglich der mindestens einen ausgewählten Funktionsinformation ausgeben. Der Benutzer kann unter Verwendung des Bearbeitungsmenüs einen Typ einer Steuerfunktion, Eigenschaften von Tippgesten als Bedingungen zum Ausführen der Steuerfunktion, und dergleichen bearbeiten.
  • Daher wird, weil mindestens eine in der Funktionsinformationsliste enthaltene Funktionsinformation gemäß einer Benutzereingabe bearbeitet werden kann, eine optimierte Schnittstelle für den Benutzer bereitgestellt.
  • 11 zeigt eine Konzeptansicht zum Darstellen eines Bedienbeispiels zum Ausgeben einer Liste von Funktionsinformation als Reaktion auf Tippgesten im mobilen Endgerät gemäß einer Ausführungsform der vorliegenden Erfindung. Gemäß 11 kann der Controller 180, wenn Ausführungsbildschirme ausgegeben werden, während eine oder mehrere Funktionen ausgeführt werden, und Tippgesten erfasst werden, eine Funktionsinformationsliste, die verschiedenen Tippgesten entspricht, unter Bezug auf die im Speicher 160 gespeicherte Funktionsinformation ausgeben.
  • In einem spezifischen Beispiel kann, wenn die Displayeinheit 151 sich in einem deaktivierten Zustand befindet und gemäß einer Benutzermanipulation aktiviert wird, ein Sperrbildschirm an die Displayeinheit 151 ausgegeben werden. Der Sperrbildschirm kann ein Bildschirm sein, der in einem Sperrmodus des Endgeräts an die Displayeinheit 151 ausgegeben wird, in dem von einer Eingabe zum Entsperren verschiedene Eingaben eingeschränkt sind. D. h., wenn der Sperrbildschirm ausgegeben wird, ist die Eingabe eingeschränkt, so dass die Ausführung einer Steuerfunktion gemäß einer Eingabe eingeschränkt sein kann.
  • Wenn der Sperrbildschirm an die Displayeinheit 151 ausgegeben wird und Tippgesten bezüglich der Displayeinheit 151 ausgeführt werden, kann der Controller 180 eine Funktionsinformationsliste ausgeben. Die Funktionsinformationsliste kann mindestens eine den Eigenschaften von Tippgesten entsprechende Steuerfunktion aufweisen. Auch wenn anstatt des Sperrbildschirms ein Ausführungsbildschirm einer Anwendung ausgegeben wird, kann die Funktionsinformationsliste ausgegeben werden.
  • Wenn eine in der Funktionsinformationsliste enthaltene beliebige Funktion ausgewählt wird, kann der Controller 180 eine der ausgewählten Funktion entsprechende Steuerfunktion ausführen. Wenn beispielsweise eine als eine Privatsphärenfunktion gesetzte zweite Funktion ausgewählt wird, kann der Controller 180 die Beleuchtung innerhalb der Displayeinheit 151 auf eine vorgegebene Helligkeit regeln, so dass Personen in der Umgebung die Displayeinheit 151 nicht betrachten können. Außerdem kann der Controller 180 gemäß der Ausführung der zweiten Funktion Führungsinformation ausgeben.
  • Anschließend wird, wenn die gleichen Tippgesten bezüglich der Displayeinheit 151 des Endgeräts ausgeführt werden, die Privatsphärenfunktion ausgeführt. D. h., wenn die Tippgesten bezüglich der Displayeinheit im Sperrbildschirm (oder in einem Ausführungsbildschirm einer Anwendung) ausgeführt werden, kann die Helligkeit der Displayeinheit 151 entsprechend der Privatsphärenfunktion geregelt werden. In diesem Fall kann die Funktionsinformationsliste nur dann erneut ausgegeben werden, wenn neue Typen von Tippgesten erfasst werden (z. B. Tippgesten, die bezüglich anderer Stellen ausgeführt werden, oder wenn die Stärke von Tippgesten verschieden ist).
  • Die vorliegende Erfindung ist aber nicht darauf beschränkt, sondern immer wenn Tippgesten ausgeführt werden, kann die Funktionsinformationsliste ausgegeben werden, und es kann eine der Tippgeste entsprechende Steuerfunktion definiert werden.
  • 12 zeigt eine Konzeptansicht zum Darstellen eines Bedienbeispiels des mobilen Endgeräts 100, in dem ein beliebiger Ausführungsbildschirm durch Tippgesten gesteuert wird, wenn mehrere Ausführungsbildschirme ausgegeben werden.
  • Wenn mehrere Ausführungsbildschirme ausgegeben werden und Tippgesten ausgeführt werden, kann der Controller 180 eine Steuerfunktion bezüglich eines beliebigen der Ausführungsbildschirme ausführen, der an einer Stelle ausgegeben wird, an der die Tippgesten ausgeführt werden. Die ausgeführte Steuerfunktion kann eine Funktion sein, die im Voraus Eigenschaften der Tippgesten zugeordnet wurde. In diesem Fall können die mehreren Ausführungsbildschirme Ausführungsbildschirme entsprechender Multitasking-Anwendungen sein.
  • Beispielsweise kann die Displayeinheit 151 gemäß 12 einen ersten, einen zweiten und einen dritten Bildschirm 1210, 1220 und 1230 ausgeben, die der Ausführung einer ersten, einer zweiten und einer dritten Anwendung entsprechen. Wenn Tippgesten an einer Stelle erfasst werden, an der der dritte Bildschirm 1230 ausgegeben wird, kann der Controller 180 eine den Tippgesten entsprechende Steuerfunktion ausführen.
  • In diesem Fall kann der Ausführungsbildschirm als ein Steuerziel durch einen Ort gesetzt werden, an der die Tippgesten des Benutzers ausgeführt werden. Beispielsweise kann, wenn der Benutzer den ersten Bildschirm 1210 antippt, der erste Bildschirm ein Steuerziel sein, und wenn der Benutzer den zweiten Bildschirm 1220 antippt, kann der zweite Bildschirm ein Steuerziel sein.
  • Nachstehend wird der Fall beschrieben, dass eine Privatsphärenfunktion durch Tippgesten ausgeführt wird. In diesem Fall kann, wenn die Tippgeste des Benutzers im dritten Bildschirm 1230 erfasst wird, der Controller 180 den dritten Bildschirm 1230 auf eine voreingestellte Helligkeit einstellen, so dass Personen in der Umgebung den dritten Bildschirm 1230 nicht betrachten können. D. h., wenn der erste und der zweite Bildschirm 1210 und 1230 beibehalten werden, kann eine Tippgesten entsprechende Steuerfunktion nur für den dritten Bildschirm 1230 ausgeführt werden.
  • Wenn der Benutzer den dritten Bildschirm 1230 erneut antippt, kann die Helligkeit des dritten Bildschirms 1230 auf die ursprüngliche Helligkeit zurück gestellt werden. D. h., eine gemäß vorangehenden Tippgesten ausgeführte Steuerfunktion kann durch nachfolgende Tippgesten aufgehoben werden, und die Tippgesten können bezüglich des gleichen Ziels ausgeführt werden (d. h. in der vorliegenden Ausführungsform bezüglich des dritten Bildschirms).
  • Die 13A, 13B und 13C zeigen Konzeptansichten zum Darstellen von Bedienbeispielen des mobilen Endgeräts, das gemäß Zielorten von Tippgesten verschiedene Funktionen ausführt. Der Controller 180 kann entsprechend eines Zielortes von Tippgesten verschiedene Steuerfunktionen ausführen.
  • Wenn beispielsweise Tippgesten bezüglich einer Stelle außerhalb des Endgerätkörpers ausgeführt werden, kann eine Funktion unter einer oder mehreren ausgeführten Funktionen beendet werden, die mit einer Tonausgabe in Beziehung steht. Alternativ können, wenn Tippgesten bezüglich des Körpers des mobilen Endgeräts ausgeführt werden, eine mit einer Tonausgabe in Beziehung stehende Funktion und eine Bildschirmdarstellung unter der einen oder den mehreren ausgeführten Funktionen zusammen beendet werden.
  • In diesem Fall kann sich ein Eingabebereich des mobilen Endgeräts 100 außerhalb des Endgerätkörpers erstrecken. Daher kann eine Stelle, an der die Erfassungseinheit 140 des Endgeräts die Tippgesten in einem Bereich außerhalb des Endgerätkörpers erfasst, ein virtueller Eingabebereich sein.
  • Außerdem kann der virtuelle Eingabebereich eine Breite haben, die sich gemäß einem Ort oder Ziel, an dem das Endgerät angeordnet ist, oder gemäß der Stärke von Tippgesten ändert. Wenn beispielsweise das Endgerät auf einem Tisch oder dergleichen angeordnet ist und der Benutzer den Tisch antippt, kann sich das Endgerät bewegen, so dass die Tippgesten erfasst werden können. Daher kann, wenn die Stärke der Tippgeste groß ist, der virtuelle Eingabebereich vergrößert sein. In einem anderen Beispiel kann, wenn der Benutzer den Endgerätkörper hält, der virtuelle Eingabebereich verschwinden.
  • In der vorliegenden Ausführungsform ist dargestellt, dass verschiedene Steuerfunktionen gemäß Zielorten der Tippgesten innerhalb des virtuellen Eingabebereichs ausgeführt werden. Beispielsweise werden gemäß 13A, wenn eine mit einem Alarm in Beziehung stehende Anwendung ausgeführt wird, ein mit dem Alarm in Beziehung stehender Ausführungsbildschirm an die Displayeinheit 151 ausgegeben und ein mit dem Alarm in Beziehung stehendes Audiosignal an ein Audioausgabemodul 153 ausgegeben.
  • In diesem Fall kann, wenn Tippgesten an einer Stelle außerhalb des Endgerätkörpers erfasst werden, der Controller 180 nur eine mit einer Tonausgabe in Beziehung stehende Funktion beenden. Alternativ kann, wenn Tippgesten bezüglich des Körpers des mobilen Endgeräts ausgeführt werden, die Ausführung der mit einem Alarm in Beziehung stehenden Anwendung beendet werden. D. h., mit einer Tonausgabe und einer Bildschirmdarstellung in Beziehung stehende Funktionen unter mit der Alarmanwendung in Beziehung stehenden Funktionen können zusammen beendet werden.
  • Die vorliegende Erfindung ist nicht darauf beschränkt, Steuerziele in Abhängigkeit davon zu ändern, ob Tippgesten außerhalb des Endgerätkörpers ausgeführt werden. Beispielsweise können entsprechend einem Abstand zwischen einer Zielstelle, bezüglich der Tippgesten ausgeführt werden, und dem Endgerät verschiedene Steuerfunktionen ausgeführt werden. D. h., im Beispiel von 13A kann, wenn Tippgesten bezüglich einer Stelle zwischen einer ersten Zielstelle TP1 in 13A(a) und einer zweiten Zielstelle TP2 in 13A(b) ausgeführt werden, ein Auswahlfenster zum Auswählen einer Steuerfunktion von (a) oder einer Steuerfunktion von (b) ausgegeben werden.
  • In einem anderen Beispiel kann gemäß 13B der Controller 180 in einem Rufsignalverbindungsmodus gemäß Zielstellen von Tippgesten eine mit einer Tonausgabe in Beziehung stehende Funktion beenden oder kann mit einer Tonausgabe und einer Bildschirmdarstellung in Beziehung stehende Funktionen zusammen beenden. D. h., wenn eine mit einem Rufempfang in Beziehung stehende Anwendung ausgeführt wird, kann ein Ausführungsbildschirm, der Information über ein Endgerät einer Gegenstelle enthält, an die Displayeinheit 151 ausgegeben werden, und kann ein Rufempfangston an das Audioausgabemodul 153 ausgegeben werden.
  • In diesem Fall kann der Controller 180, wenn Tippgesten eines Benutzers an einer Stelle außerhalb des Körpers des Endgeräts ausgeführt werden, die mit der Tonausgabe in Beziehung stehende Funktion beenden, und wenn die Tippgesten des Benutzers am Körper des Endgeräts ausgeführt werden, kann der Controller 180 sowohl die Tonausgabe als auch den Ausführungsbildschirm des Rufsignalverbindungsmodus zusammen beenden. Dadurch kann ein Rufsignalverbindungsmodus vollständig beendet werden.
  • Entsprechend eines Zielortes von Tippgesten kann der Controller 180 die mit der Tonausgabe in Beziehung stehende Funktion beenden oder kann die Funktionen der Tonausgabe und der Bildschirmausgabe beenden.
  • In einem anderen Beispiel kann die vorliegende Erfindung gemäß 13C auch auf eine mit einer Videowiedergabe in Beziehung stehende Anwendung angewendet werden. Wie dargestellt ist, kann im Endgerät eine mit einer Videowiedergabe in Beziehung stehende Anwendung gemäß einer Benutzermanipulation ausgeführt werden.
  • Wenn Tippgesten an einer Stelle außerhalb des Endgerätkörpers erfasst werden, kann der Controller 180 nur eine Audioausgabe stoppen, die Videowiedergabe aber fortsetzen. Alternativ kann der Controller 180, wenn Tippgesten bezüglich des Körpers des Endgeräts ausgeführt werden, die Videowiedergabe vorübergehend unterbrechen oder die Ausführung der mit der Videowiedergabe in Beziehung stehenden Anwendung stoppen.
  • In einem anderen Beispiel können in Abhängigkeit davon, bezüglich welchem Bereich unter einem Mittenbereich und einem Randbereich Tippgesten ausgeführt werden, verschiedene Steuerungen ausgeführt werden. Wie in 13C(b) dargestellt ist, kann, wenn Tippgesten an einem Randbereich des Körpers des Endgeräts ausgeführt werden, eine Videowiedergabe vorübergehend unterbrochen werden, und wenn Tippgesten am Mittenbereich des Körpers des Endgeräts ausgeführt werden, kann die Ausführung der mit der Videowiedergabe in Beziehung stehenden Anwendung gestoppt werden.
  • Wie dargestellt ist, können in Abhängigkeit davon, ob ein Zielort von Tippgesten sich innerhalb des Endgerätkörpers oder innerhalb eines virtuellen Eingabebereichs außerhalb des Endgerätkörpers befindet, ob der Zielort sich innerhalb des Endgerätkörpers befindet oder wie weit der Zielort vom Endgerätkörper entfernt ist, verschiedene Steuerfunktionen ausgeführt werden.
  • 14 zeigt eine Konzeptansicht zum Darstellen eines Bedienbeispiels des mobilen Endgeräts, in dem verschiedene Funktionen entsprechend der Stärke von Tippgesten ausgeführt werden. Der Controller 180 kann die Stärke ausgeführter Tippgesten digitalisieren und entsprechend der Stärke der Tippgesten verschiedene Steuerfunktionen ausführen.
  • D. h., die Stärke von Tippgesten kann in mehrere Pegel unterteilt werden und gemäß jedem Pegel der Stärke können verschiedene Steuerfunktionen festgelegt werden. Beispielsweise kann die Stärke von Tippgesten in einen ersten und einen zweiten Pegel unterteilt werden, die einer ersten bzw. einer zweiten Funktion entsprechen, wobei, wenn die Stärke der erfassten Tippgesten dem ersten Pegel entspricht, die erste Funktion ausgeführt werden kann. Wenn die Stärke der erfassten Tippgesten dem zweiten Pegel entspricht, kann die zweite Funktion ausgeführt werden.
  • Beispielsweise kann, wie in 14 dargestellt ist, wenn die Helligkeit der Displayeinheit 151 gemäß zuvor eingegebenen Bedingungen festgelegt ist und der Benutzer Tippgesten mit einer ersten Stärke 1410 ausführt, die Helligkeit der Displayeinheit 151 vermindert werden. In diesem Fall kann die verminderte Helligkeit einen ersten Pegel haben. Wenn der Benutzer Tippgesten mit einer zweiten Stärke 1420 ausführt, kann die Helligkeit der Displayeinheit 151 auf einen zweiten Pegel vermindert werden. In diesem Fall kann der erste Pegel so definiert sein, dass er größer ist als der zweite Pegel.
  • In der vorstehenden Beschreibung wurde dargestellt, dass Tippgesten mit einer ersten bzw. einer zweiten Stärke nacheinander ausgeführt werden, die vorliegende Erfindung ist aber nicht darauf beschränkt. Beispielsweise kann im ersten Zustand von 14, wenn die Tippgesten mit der ersten oder mit der zweiten Stärke 1410 oder 1420 ausgeführt werden, die Helligkeit der Displayeinheit 151 auf den ersten oder den zweiten Pegel geändert werden.
  • In einem anderen Beispiel kann eine Richtung, in die eine Funktion gesteuert wird, entsprechend der Stärke von Tippgesten geändert werden. D. h., wenn eine Tippgeste mit der ersten Stärke bezüglich des Endgeräts ausgeführt wird, kann die Helligkeit erhöht werden, und wenn eine Tippgeste mit der zweiten Stärke ausgeführt wird, kann die Helligkeit vermindert werden. Basierend darauf kann der Benutzer die Helligkeit erhöhen oder vermindern.
  • In einem anderen Beispiel kann eine Funktion derart eingestellt sein, dass sie gemäß der Stärke von Tippgesten gesteuert werden kann. D. h., eine Anwendung als ein Steuerziel kann gemäß einem Stärkepegel geändert werden. Wenn beispielsweise eine Musikwiedergabeanwendung ausgeführt wird, kann die Musikwiedergabeanwendung durch Tippgesten mit der ersten Stärke gesteuert werden, und durch Tippgesten mit der zweiten Stärke kann gesteuert werden, ob die Displayeinheit 151 aktiviert werden soll.
  • 15 zeigt eine Konzeptansicht zum Darstellen eines Beispiels des mobilen Endgeräts, wobei eine Funktion gemäß Tippgesten ausgeführt wird, während das mobile Endgerät mit einem externen Gerät gekoppelt ist. Das mobile Endgerät kann mit einem externen Endgerät 200, wie beispielsweise einem TV-Gerät, gekoppelt sein. Koppeln (Pairing) bezeichnet eine Verbindung zwischen zwei oder mehr Geräten zum Austauschen von Daten. Beispielsweise können das mobile Endgerät 100 und das TV-Gerät 200 durch eine Nahbereichskommunikation gekoppelt sein. Als Nahbereichskommunikationstechnik können BluetoothTM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra WideBand (UWB), ZigBeeTM oder dergleichen verwendet werden.
  • Außerdem kann das mobile Endgerät 100 mit dem externen Gerät 200, wie beispielsweise einem TV-Gerät, durch eine Datenkommunikation wie WiFi oder dergleichen gekoppelt sein. Beispielsweise können das mobile Endgerät 100 und das externe Gerät 200 mittels einer Basisstation für eine Datenkommunikation, einen Datentauscher oder dergleichen gekoppelt sein.
  • Wenn Tippgesten erfasst werden, während eine oder mehrere Funktionen des mobilen Endgeräts ausgeführt werden, kann das Endgerät mindestens eine der einen oder mehreren ausgeführten Funktionen in Verbindung mit dem externen Gerät steuern.
  • Beispielsweise kann der Controller 180 in einem gekoppelten Zustand, wenn Tippgesten im mobilen Endgerät 100 erfasst werden, die Drahtloskommunikationseinheit 110 steuern, um den Ausführungsbildschirm, der an die Displayeinheit 151 ausgegeben wird, an das externe Gerät 200 auszugeben und die Displayeinheit 151 zu deaktivieren. D. h., das gekoppelte externe Gerät 200 kann an Stelle des mobilen Endgeräts 100 den durch den Controller 180 des mobilen Endgeräts 100 erzeugten Ausführungsbildschirm ausgeben.
  • D. h., wenn ein Video durch das mobile Endgerät 100 wiedergegeben wird, kann das mobile Endgerät 100 basierend auf erfassten Tippgesten einen Videoausgabebefehl an das TV-Gerät übertragen. Außerdem kann das mobile Endgerät 100 dem Video entsprechende Daten an das TV-Gerät übertragen. In diesem Fall kann das TV-Gerät aus einem Zustand, in dem die Displayeinheit deaktiviert ist, aus einem Zustand, in dem ein anderes Bild ausgegeben wird, oder dergleichen in einen Zustand geschaltet werden, in dem es das vom mobilen Endgerät 100 übertragene Video wiedergeben kann. Daher kann der Benutzer ein Videoausgabegerät auf eine einfache Weise, beispielsweise durch Tippgesten, auswählen.
  • Die 16A, 16B und 16C zeigen Konzeptansichten zum Darstellen von Bedienbeispielen des mobilen Endgeräts, das ein Objekt ausgibt, das dazu konfiguriert ist, die Displayeinheit zu deaktivieren. Gemäß 16A können, wenn eine oder mehrere Steuerfunktionen ausgeführt werden, Ausführungsbildschirme an die Displayeinheit 151 ausgegeben werden. Zu diesem Zeitpunkt kann der Controller 180 als Reaktion auf eine von einem Ende der Displayeinheit 151 erfasste Berührung mindestens einen Teil eines Vorhangfensters 1610 an die Displayeinheit 151 ausgeben.
  • Anschließend kann der Controller 180, wenn die Berührung sich kontinuierlich von einer ersten Stelle zu einer zweiten Stelle bewegt, einen Darstellungsbereich des Vorhangfensters 1610 basierend auf der Bewegung der Berührung ändern. Beispielsweise kann, wenn die Berührung sich kontinuierlich von einer Stelle an einem oberen Ende der Displayeinheit 151 nach unten bewegt, ein Darstellungsbereich des Vorhangfensters 1610 bis zu einer Stelle vergrößert werden, bei der die Berührung endet. D. h., es kann ein Animationseffekt erzeugt werden, gemäß dem sich das Vorhangfenster 1610 vom oberen Ende nach unten bewegt.
  • Das Vorhangfenster 1610 kann mit der Steuerung des Endgeräts in Beziehung stehende Icons aufweisen, und kann ferner ein grafisches Objekt 1620 aufweisen, das dazu konfiguriert ist, die Displayeinheit 151 zu deaktivieren. Wenn beispielsweise eine Berührung bezüglich des grafischen Objekts 1620 ausgeführt wird, kann der Controller 180 eine Schlaffunktion ausführen. D. h., der Controller 180 kann die Displayeinheit 151 als Reaktion auf eine Benutzereingabe bezüglich des grafischen Objekts 1620 deaktivieren.
  • Gemäß 16B kann der vorstehend unter Bezug auf 11 beschriebene Sperrbildschirm an die Displayeinheit 151 ausgegeben werden. Der Sperrbildschirm kann ein Tastenfeld zum Eingeben eines Icon oder eines Passwortes zum Entsperren des Endgeräts aufweisen. Außerdem kann der Sperrbildschirm ferner das grafische Objekt 1620 enthalten, das dazu konfiguriert ist, die Displayeinheit zu deaktivieren. In diesem Fall kann der Controller 180, wenn eine Berührung des grafischen Objekts 1620 erfolgt, eine Schlaffunktion ausführen.
  • Gemäß 16C kann der vorstehend unter Bezug auf 7 beschriebene Startbildschirm an die Displayeinheit 151 ausgegeben werden. Der Startbildschirm kann auch als ein Ruhebildschirm bezeichnet werden, wobei, wenn das mobile Endgerät 100 sich in einem Ruhezustand befindet, der Startbildschirm an die Displayeinheit 151 ausgegeben werden kann.
  • Der Startbildschirm kann mindestens ein Objekt enthalten. Das Objekt kann ein Icon oder ein Widget einer im mobilen Endgerät installierten Anwendung sein. Außerdem kann der Startbildschirm mehrere Seiten entsprechend der Anzahl von durch eine Benutzerauswahl festgelegter oder im mobilen Endgerät installierter Anwendungen umfassen, und mindestens eine der mehreren Seiten kann gemäß einer Benutzerauswahl an die Displayeinheit 151 ausgegeben werden.
  • Der Startbildschirm kann außerdem mindestens einen Identifizierungsinformationsbereich, in dem Identifizierungsinformation über eine an die Displayeinheit 151 ausgegebene Seite dargestellt wird, einen Zustandsinformationsbereich, in dem Zustandsinformation des mobilen Endgeräts 100 dargestellt wird, und einen Voreinstellungsbereich aufweisen, in dem ein Icon einer voreingestellten Anwendung dargestellt wird.
  • Im Identifizierungsinformationsbereich kann Identifizierungsinformation dargestellt sein, die anzeigt, welche der mehreren Seiten einer aktuell auszugebenden Seite entspricht. Außerdem kann im Zustandsinformationsbereich eine Antenneninformation des mobilen Endgeräts 100 und/oder eine Kommunikationsmodusinformation und/oder eine Batterieinformation und/oder eine Information über ein erzeugtes Ereignis und/oder eine Information über eine voreingestellte Funktion und/oder eine Zeitinformation dargestellt sein.
  • Im Voreinstellungsbereich können Icons oder Widgets fest dargestellt sein, die bestimmten Anwendungen entsprechen, die gemäß einer Benutzerauswahl oder durch den Controller 180 im Voraus eingestellt werden. Außerdem kann ein Hintergrundbildschirm gemäß einer Benutzerauswahl oder gemäß einer Einstellung des Controllers 180 an die Displayeinheit 151 ausgegeben werden, und der Controller 180 kann die Displayeinheit 151 steuern, um den Hintergrundbildschirm und den Startbildschirm auf eine überlappende Weise darzustellen.
  • Im mobilen Endgerät 100 gemäß einer Ausführungsform der vorliegenden Erfindung kann der Startbildschirm ferner das grafische Objekt 1620 enthalten, das dazu konfiguriert ist, die Displayeinheit 151 zu deaktivieren. Das grafische Objekt 1620 kann in einem Teilbereich des Startbildschirms ausgegeben werden, und eine Stelle, an der das grafische Objekt 1620 ausgegeben wird, kann durch eine Touch-and-Drag (Berühren und Ziehen) Eingabe geändert werden.
  • Wenn das grafische Objekt 1620 ein im Startbildschirm angeordnetes Icon oder Widget überlappt, kann der Controller 180 das grafische Objekt 1620 in der obersten Stufe einer stufenweisen Anordnung ausgeben oder kann seine Ausgabeposition oder seine Größe derart ändern, dass es das Icon oder Widget nicht überlappt.
  • Außerdem kann das grafische Objekt 1620 gemäß einem Einstellmodus im Startbildschirm angeordnet sein oder nicht. Der Einstellmodus kann basierend auf einer Benutzereingabe geändert werden. Wenn das grafische Objekt 1620 im Startbildschirm dargestellt wird, kann, wenn das grafische Objekt 1620 berührt wird, der Controller 180 einen Schlafmodus ausführen und die Displayeinheit 151 deaktivieren.
  • Der Startbildschirm kann einen Identifizierungsinformationsbereich, in dem Identifizierungsinformation über eine an die Displayeinheit 151 ausgegebene Seite dargestellt wird, und/oder einen Zustandsinformationsbereich, in dem Zustandsinformation des mobilen Endgeräts 100 dargestellt wird, und/oder einen Voreinstellungsbereich enthalten, in dem ein Icon oder eine voreingestellte Anwendung dargestellt wird.
  • Wie vorstehend beschrieben wurde, werden im mobilen Endgerät gemäß einer Ausführungsform der vorliegenden Erfindung, wenn innerhalb einer Referenzzeit fortlaufend Tippgesten erfasst werden, Funktionen ausgeführt, die Eigenschaften der Tippgesten entsprechen, so dass eine neuartige Benutzerschnittstelle bereitgestellt werden kann, die eine einfache Steuerung von Funktionen des mobilen Endgeräts ermöglicht.
  • In der Ausführungsform der vorliegenden Erfindung kann das vorstehend erwähnte Verfahren in der Form von Codes implementiert werden, die durch einen Prozessor von einem Programmspeichermedium lesbar sind. Das prozessorlesbare Medium kann ein ROM, ein RAM, eine CD-ROM, ein Magnetband, eine Diskette, eine optische Datenspeichereinrichtung und dergleichen sein. Das prozessorlesbare Medium umfasst außerdem Implementierungen in Gestalt einer Übertragung über Internet.
  • Das mobile Endgerät gemäß den Ausführungsformen der vorliegenden Erfindung ist in seiner Anwendung nicht auf die beschriebenen Konfigurationen und Verfahren beschränkt, sondern die Ausführungsformen sind wahlweise vollständig oder teilweise kombinierbar, um verschiedene Modifikationen zu ergeben.

Claims (10)

  1. Mobiles Endgerät (100) mit: einer Drahtloskommunikationseinheit (110), die dafür konfiguriert ist, mit mindestens einem anderen Endgerät drahtlos zu kommunizieren; einem Berührungsbildschirm, der dafür konfiguriert ist, Tippgesten zu erfassen; und einem Controller (180), der dafür konfiguriert ist: einen Ausführungsbildschirm auf dem Berührungsbildschirm darzustellen, wobei der Ausführungsbildschirm mindestens einen Bereich aufweist, in dem ein Objekt ausgegeben wird, und mindestens einen Leerraumbereich, in dem kein Objekt ausgegeben wird; dadurch gekennzeichnet, dass der Controller (180) ferner dafür konfiguriert ist, als Reaktion darauf, dass der Berührungsbildschirm eine Doppeltippgeste in einem Leerraumbereich des Ausführungsbildschirms erfasst hat, den Berührungsbildschirm aus einem aktiven Zustand, in dem der Berührungsbildschirm beleuchtet ist, in einen inaktiven Zustand zu schalten, in dem der Berührungsbildschirm nicht beleuchtet ist, wobei die Doppeltippgeste eine erste und eine zweite Tippgeste aufweist, die innerhalb einer Referenzzeit im Leerraumbereich aufeinanderfolgend erfasst werden.
  2. Mobiles Endgerät nach Anspruch 1, dadurch gekennzeichnet, dass der Controller (180) ferner dafür konfiguriert ist, als Reaktion darauf, dass der Berührungsbildschirm eine einzelne Tippgeste in einem Bereich erfasst hat, in dem ein Objekt dargestellt ist, eine mit dem einen Objekt verknüpfte Funktion auszuführen.
  3. Mobiles Endgerät nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Objekt ein Icon, ein Widget oder ein Menü ist, das mit einer voreingestellten Steuerfunktion verknüpft ist.
  4. Mobiles Endgerät nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Ausführungsbildschirm ein Startbildschirm mit Icons oder Widgets von im mobilen Endgerät installierten Anwendungen ist.
  5. Mobiles Endgerät nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Controller (180) ferner dafür konfiguriert ist, als Reaktion darauf, dass der Berührungsbildschirm eine Doppeltippgeste in einem Leerraumbereich des Ausführungsbildschirms erfasst hat, eine oder mehrere im mobilen Endgerät ausgeführte Funktionen zu beenden.
  6. Mobiles Endgerät nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das mobile Endgerät ferner einen Speicher (160) aufweist, der dafür konfiguriert ist, eine Zuordnung mehrerer auszuführender Aktionen zu mehreren Tippgesten zu speichern.
  7. Mobiles Endgerät nach Anspruch 6, dadurch gekennzeichnet, dass der Ausführungsbildschirm einer auf dem mobilen Endgerät ausgeführten ersten Funktion entspricht; und dass der Controller (180) ferner dafür konfiguriert ist, eine erste Aktion bezüglich der ersten Funktion auszuführen, die einem ersten Typ von Tippgesten zugeordnet ist, und eine von der ersten Aktion verschiedene zweite Aktion bezüglich der ersten Funktion auszuführen, die einem zweiten Typ von Tippgesten entspricht.
  8. Mobiles Endgerät nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Controller (180) dafür konfiguriert ist, als Reaktion darauf, dass der Berührungsbildschirm eine Doppeltippgeste in einem Leerraumbereich des Ausführungsbildschirms erfasst hat, den im mobilen Endgerät dargestellten Ausführungsbildschirm zu beenden.
  9. Mobiles Endgerät nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Ausführungsbildschirm ausgegeben wird, während eine oder mehrere Funktionen ausgeführt werden, und entsprechend einer Ausführung der einen oder mehreren Funktionen eine akustische und/oder eine haptische Information ausgegeben wird; und dass der Controller (180) als Reaktion darauf, dass der Berührungsbildschirm eine Doppeltippgeste in einem Leerraumbereich des Ausführungsbildschirms erfasst hat, die Ausgabe der akustischen und/oder haptischen Information stoppt und den Berührungsbildschirm vom aktiven Zustand auf den inaktiven Zustand schaltet.
  10. Mobiles Endgerät nach Anspruch 9, dadurch gekennzeichnet, dass, wenn eine der einen oder mehreren Funktionen eine Rufempfangsfunktion ist und der der Rufempfangsfunktion zugeordnete Ausführungsbildschirm dargestellt wird, der Controller (180) als Reaktion darauf, dass der Berührungsbildschirm eine Doppeltippgeste in einem Leerraumbereich des Ausführungsbildschirms erfasst hat, einen Rufempfang ablehnt und den Berührungsbildschirm aus dem aktiven Zustand in den inaktiven Zustand schaltet.
DE201420006254 2013-07-09 2014-02-05 Mobiles Endgerät Expired - Lifetime DE202014006254U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130080560A KR101474467B1 (ko) 2013-07-09 2013-07-09 이동 단말기 및 그것의 제어방법
KP10-2013-0080560 2013-07-09

Publications (1)

Publication Number Publication Date
DE202014006254U1 true DE202014006254U1 (de) 2014-10-22

Family

ID=50112669

Family Applications (2)

Application Number Title Priority Date Filing Date
DE201420006254 Expired - Lifetime DE202014006254U1 (de) 2013-07-09 2014-02-05 Mobiles Endgerät
DE202014011064.6U Expired - Lifetime DE202014011064U1 (de) 2013-07-09 2014-02-05 Mobiles Endgerät

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE202014011064.6U Expired - Lifetime DE202014011064U1 (de) 2013-07-09 2014-02-05 Mobiles Endgerät

Country Status (6)

Country Link
US (1) US9342236B2 (de)
EP (2) EP3557391B1 (de)
KR (1) KR101474467B1 (de)
CN (2) CN104281402B (de)
DE (2) DE202014006254U1 (de)
ES (1) ES2739396T3 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104503569A (zh) * 2014-12-09 2015-04-08 上海斐讯数据通信技术有限公司 电子设备及其唤醒方法
CN106775402A (zh) * 2016-12-14 2017-05-31 努比亚技术有限公司 一种移动终端及其实现控制的方法
DE102020209226A1 (de) 2020-07-22 2022-01-27 Robert Bosch Gesellschaft mit beschränkter Haftung Haptische und/oder Taktile Warnung von Personen durch ein Fahrzeug

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9207835B1 (en) 2014-05-31 2015-12-08 Apple Inc. Message user interfaces for capture and transmittal of media and location content
AU2015312369B2 (en) * 2014-09-02 2018-04-05 Apple Inc. Reduced-size interfaces for managing alerts
US10802704B2 (en) * 2015-04-14 2020-10-13 Huawei Technologies Co., Ltd. Gesture control method, apparatus, terminal device, and storage medium
CN105094801B (zh) 2015-06-12 2019-12-24 阿里巴巴集团控股有限公司 应用功能激活方法及装置
KR20170017572A (ko) * 2015-08-07 2017-02-15 삼성전자주식회사 사용자 단말 장치 및 이의 제어 방법
CN105204730B (zh) * 2015-08-27 2018-06-29 广东欧珀移动通信有限公司 一种屏幕控制方法及用户终端
US10416840B2 (en) * 2015-12-10 2019-09-17 Appelago Inc. Multi-tap functionality for interactive dynamic push notifications and other content
US9977530B2 (en) * 2015-12-11 2018-05-22 Google Llc Use of accelerometer input to change operating state of convertible computing device
CN106896973A (zh) * 2015-12-18 2017-06-27 阿里巴巴集团控股有限公司 基于即时通讯软件的功能启动控制方法及装置
CN105718165B (zh) * 2016-01-20 2019-02-12 Oppo广东移动通信有限公司 一种终端后台应用的启动方法及装置
CN105718179B (zh) * 2016-01-20 2019-02-12 Oppo广东移动通信有限公司 信息处理方法及装置
WO2018124809A1 (ko) * 2016-12-29 2018-07-05 주식회사 인바디 착용형 단말기 및 그 동작 방법
KR101977092B1 (ko) * 2017-12-11 2019-08-28 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
CN108235087B (zh) * 2017-12-28 2019-07-26 维沃移动通信有限公司 一种视频数据的播放方法、移动终端
US10969956B2 (en) * 2018-03-20 2021-04-06 Cemtrex Inc. Smart desk with gesture detection and control features
CN114489558A (zh) * 2018-04-20 2022-05-13 华为技术有限公司 一种免打扰方法和终端
US11152100B2 (en) 2019-06-01 2021-10-19 Apple Inc. Health application user interfaces
CN110262688B (zh) * 2019-06-06 2022-08-19 深圳市锦读科技有限公司 一种屏幕发光控制方法、设备及计算机可读存储介质
USD917940S1 (en) 2019-07-24 2021-05-04 Norm, Inc. Table
WO2021016325A1 (en) * 2019-07-24 2021-01-28 Norm, Inc. A table with one or more tap gesture-activated light indicators
CN112596604A (zh) * 2020-12-09 2021-04-02 Oppo广东移动通信有限公司 消息发送方法、消息接收方法、装置及电子设备

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6924790B1 (en) * 1995-10-16 2005-08-02 Nec Corporation Mode switching for pen-based computer systems
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US7683889B2 (en) * 2004-12-21 2010-03-23 Microsoft Corporation Pressure based selection
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7890778B2 (en) * 2007-01-06 2011-02-15 Apple Inc. Power-off methods for portable electronic devices
US8063872B2 (en) * 2007-01-07 2011-11-22 Apple Inc. Portable electronic device with auto-dim timers
US9619143B2 (en) * 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US8851992B2 (en) * 2008-08-29 2014-10-07 Disney Enterprises, Inc. Music player for video game consoles and electronic devices operable in sleep or power-saving modes
US8477463B2 (en) * 2008-10-02 2013-07-02 Lsi Corporation Vibration based user input for mobile devices
KR101737829B1 (ko) 2008-11-10 2017-05-22 삼성전자주식회사 휴대 단말기의 모션 입력 장치 및 그의 운용 방법
CN101770331B (zh) * 2009-01-05 2012-12-19 联想(北京)有限公司 一种计算机图标排列管理方法及管理装置
KR101572071B1 (ko) * 2009-01-06 2015-11-26 삼성전자주식회사 휴대단말 표시부의 온/오프 제어 방법 및 장치
US8681106B2 (en) * 2009-06-07 2014-03-25 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US20120166944A1 (en) * 2010-12-23 2012-06-28 Stephen Hayden Cotterill Device, Method, and Graphical User Interface for Switching Between Two User Interfaces
KR101677639B1 (ko) * 2011-05-06 2016-11-18 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법
KR101860341B1 (ko) * 2011-09-09 2018-05-24 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR101873744B1 (ko) * 2011-11-29 2018-07-03 엘지전자 주식회사 이동단말기 및 그 제어방법
US8812994B2 (en) * 2011-12-29 2014-08-19 Apple Inc. Device, method, and graphical user interface for configuring restricted interaction with a user interface
EP2807532B1 (de) * 2012-01-23 2019-04-17 BlackBerry Limited Elektronische vorrichtung und verfahren zur steuerung einer anzeige
KR101483776B1 (ko) * 2012-05-07 2015-01-26 이문상 락 스크린의 제공 방법 및 그 제공 방법이 구현된 단말 장치
US8339377B1 (en) * 2012-05-18 2012-12-25 Google Inc. Method and apparatus for LED transition from physical to virtual space
CN102968242A (zh) * 2012-11-12 2013-03-13 中兴通讯股份有限公司 屏幕状态控制方法、装置和触摸屏终端
CN103025019B (zh) * 2012-12-13 2015-04-01 广东欧珀移动通信有限公司 一种移动终端及其快捷照明方法
US20140195943A1 (en) * 2013-01-04 2014-07-10 Patent Category Corp. User interface controls for portable devices

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104503569A (zh) * 2014-12-09 2015-04-08 上海斐讯数据通信技术有限公司 电子设备及其唤醒方法
CN104503569B (zh) * 2014-12-09 2018-10-12 上海斐讯数据通信技术有限公司 电子设备及其唤醒方法
CN106775402A (zh) * 2016-12-14 2017-05-31 努比亚技术有限公司 一种移动终端及其实现控制的方法
DE102020209226A1 (de) 2020-07-22 2022-01-27 Robert Bosch Gesellschaft mit beschränkter Haftung Haptische und/oder Taktile Warnung von Personen durch ein Fahrzeug

Also Published As

Publication number Publication date
EP2824559A1 (de) 2015-01-14
DE202014011064U1 (de) 2017-08-09
US9342236B2 (en) 2016-05-17
CN111580736A (zh) 2020-08-25
CN111580736B (zh) 2023-08-01
CN104281402B (zh) 2020-04-07
US20150019963A1 (en) 2015-01-15
EP2824559B1 (de) 2019-07-03
EP3557391A1 (de) 2019-10-23
ES2739396T3 (es) 2020-01-30
EP3557391B1 (de) 2020-10-07
KR101474467B1 (ko) 2014-12-19
CN104281402A (zh) 2015-01-14

Similar Documents

Publication Publication Date Title
DE202014006254U1 (de) Mobiles Endgerät
DE202013012697U1 (de) Mobiles Endgerät
DE202013012304U1 (de) Mobiles Endgerät
CN104375774B (zh) 移动终端以及控制移动终端的方法
DE202011110758U1 (de) Mobiles Endgerät
DE202014010551U1 (de) Mobiles Endgerät
DE202011110922U1 (de) Mobiles Endgerät
DE202013011998U1 (de) Mobiles Endgerät
EP2838009A2 (de) Endgerät und Verfahren zur Steuerung dafür
DE202011110735U1 (de) Mobiles Endgerät
DE202013012417U1 (de) Mobiles Endgerät
DE202009018709U1 (de) Mobiles Endgerät
DE202014010511U1 (de) Mobiles Endgerät
DE202009019104U1 (de) Mobiles Endgerät und Benutzerschnittstelle eines mobilen Endgeräts
DE202011110898U1 (de) Mobilgerät
DE202008018297U1 (de) Mobiles Endgerät
DE202014011193U1 (de) Mobiles Endgerät
DE202013012582U1 (de) Mobiles Endgerät
EP2866131A1 (de) Mobiles Endgerät und Verfahren zur Steuerung davon
DE202013012353U1 (de) Mobiles Endgerät und Steuerverfahren dafür
DE202011109296U1 (de) Vorrichtung zur Bereitstellung eines visuellen Übergangs zwischen Bildschirmen
DE202010018239U1 (de) Mobiles Endgerät
DE202008018283U1 (de) Menüanzeige für ein mobiles Kommunikationsendgerät
DE102020105074A1 (de) Verfahren und Systeme zur Applikations-Steuerung bei einem klappbaren elektronischen Gerät
DE112008003689T5 (de) Benutzerschnittstelle für eine Mobilvorrichtung

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20141127

R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years
R071 Expiry of right