DE202014010551U1 - Mobiles Endgerät - Google Patents

Mobiles Endgerät Download PDF

Info

Publication number
DE202014010551U1
DE202014010551U1 DE202014010551.0U DE202014010551U DE202014010551U1 DE 202014010551 U1 DE202014010551 U1 DE 202014010551U1 DE 202014010551 U DE202014010551 U DE 202014010551U DE 202014010551 U1 DE202014010551 U1 DE 202014010551U1
Authority
DE
Germany
Prior art keywords
navigation
area
key
display
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202014010551.0U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of DE202014010551U1 publication Critical patent/DE202014010551U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0238Programmable keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/013Force feedback applied to a game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Mobiles Endgerät (100), aufweisend: eine Anzeige (151), die zum Anzeigen eines Navigationsbereichs ausgebildet ist, der Navigationstasten aufweist; und eine Steuerung (180), die zu Folgendem ausgebildet ist: Veranlassen der Anzeige (151) zum Anzeigen einer Liste von Navigationstasten-Kandidaten (710); Veranlassen der Anzeige (151) zum Anzeigen eines Vorschaubildes in einem Vorschaubereich (710), wobei das Vorschaubild aus der Liste ausgewählte Navigationstasten beinhaltet und eine Anordnung der Navigationstasten darstellt; Schalten der ersten Navigationstaste und der zweiten Navigationstaste in dem Vorschaubereich in Reaktion auf eine Berührungseingabe, bei der eine von einer ersten oder einer zweiten Navigationstaste in dem Vorschaubild berührt wird, wobei die Berührungseingabe empfangen wird, während das Vorschaubild auf der Anzeige (151) angezeigt wird; und Anzeigen des Navigationsbereichs entsprechend dem ausgeführten Schaltvorgang.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Offenbarung betrifft ein mobiles Endgerät. Obwohl die vorliegende Erfindung für einen großen Bereich von Anwendungen geeignet ist, ist sie besonders geeignet zum selektiven Kombinieren eines Typs und einer Anordnung einer mittels Software implementierten Navigationstaste.
  • Beschreibung des einschlägigen Standes der Technik
  • Bei einem mobilen Endgerät handelt es sich um eine Vorrichtung, die zum Ausführen von verschiedenen Funktionen konfiguriert sein kann. Beispiele für solche Funktionen beinhalten Daten- und Sprachkommunikationen, das Aufnehmen von Bildern und Videos mittels einer Kamera, das Aufzeichnen von Audio-Dateien, das Abspielen von Musikdateien sowie das Abgeben von Musik über ein Lautsprechersystem sowie das Anzeigen von Bildern und Videos auf einer Anzeige.
  • Im Allgemeinen können Endgeräte in mobile/tragbare Endgeräte und stationäre Endgeräte auf der Basis des Vorhandenseins oder Nichtvorhandenseins von Mobilität derselben klassifiziert werden. Ferner können diese mobilen Endgeräte weiter in in der Hand zu haltende Endgeräte und in in einem Fahrzeug angebrachte Endgeräte klassifiziert werden, und zwar auf der Basis davon, ob das Endgerät in der Hand gehalten werden kann.
  • Es gibt anhaltende Bemühungen zum Unterstützen und Steigern der Funktionalität von mobilen Endgeräten. Derartige Bemühungen beinhalten Verbesserungen bei der Software und der Hardware sowie Änderungen und Verbesserungen bei den strukturellen Komponenten, die das mobile Endgerät bilden.
  • Ein mobiles Endgerät gemäß dem einschlägigen Stand der Technik verwendet eine physische Tastatur (z. B. eine Zifferntastatur) zum Empfangen einer Nutzereingabe. Da jedoch im Allgemeinen ein Berührungsbildschirm bzw. Touchscreen verwendet wird, ist der Nutzen einer physischen Tastatur beträchtlich vermindert. Dennoch werden bei einer Anzahl von mobilen Endgeräten derzeit die physisch implementierten Navigationstasten (z. B. eine Home-Taste bei einem mobilen Endgerät, das mit Android OS arbeitet, eine Home-Taste eines mobilen Endgeräts, das mit iOS arbeitet, usw.) eingesetzt. Zum Anordnen einer Navigationstaste sollte ausreichender Raum zum Anordnen der Navigationstaste an einer Vorderseite eines mobilen Endgeräts sichergestellt werden. Eine solche Einschränkung hinsichtlich des Raums ist jedoch nicht geeignet zur Implementierung eines randlosen mobilen Endgeräts bzw. eines mobilen Endgeräts ohne Abschrägung. Daher wird derzeit ein Verfahren zum Implementieren einer Navigationstaste mittels Software diskutiert, um eine physische Navigationstaste zu ersetzen.
  • KURZBESCHREIBUNG DER ERFINDUNG
  • Die vorliegende Erfindung ist somit auf die Schaffung eines mobilen Endgeräts gerichtet, bei dem Probleme aufgrund von Einschränkungen und Nachteilen des einschlägigen Standes der Technik im Wesentlichen vermieden sind.
  • Ein Ziel der vorliegenden Erfindung besteht in der Schaffung eines mobilen Endgeräts, mit dem eine Nutzereingabe eines neuen Typs, der sich von dem des einschlägigen Standes der Technik unterscheidet, implementiert werden kann.
  • Ein weiteres Ziel der vorliegenden Erfindung besteht in der Schaffung eines mobilen Endgeräts, mit dem ein Nutzer in die Lage versetzt ist, einen Typ und eine Anordnung einer angezeigten Navigationstaste selbst zu bestimmen.
  • Weitere Vorteile, Ziele und Merkmale der Erfindung werden zum Teil in der nachfolgenden Beschreibung angeführt, wobei sich diese dem Durchschnittsfachmann zum Teil bei Lektüre der nachfolgenden Beschreibung erschließen oder aus der Ausführung der Erfindung zu erkennen sind. Die Zielsetzungen und weitere Vorteile der Erfindung lassen sich anhand der Ausbildung realisieren und erzielen, die insbesondere in der nachfolgenden Beschreibung sowie den Ansprüchen dazu und den beigefügten Zeichnungen angegeben ist.
  • Zum Erzielen dieser Ziele und weiterer Vorteile sowie in Übereinstimmung mit dem Zweck der Erfindung, wie diese hierin ausgeführt und im Großen und Ganzen beschrieben wird, beinhaltet ein mobiles Endgerät gemäß einer Ausführungsbeispiel der vorliegenden Erfindung eine Anzeigeeinheit, bei der ein bestimmter Bereich als Navigationsbereich zugewiesen ist; sowie eine Steuerung zum Steuern von mindestens einer Navigationstaste, die durch den Navigationsbereich anzuzeigen ist, wobei ein Typ und eine Anordnung der mindestens einen Navigationstaste, die durch den Navigationsbereich angezeigt werden kann, veränderbar sind.
  • Die Steuerung ist ferner dazu ausgebildet, die Anzeige zum Anzeigen eines Einstellungs-Menüs zu veranlassen, das eine Mehrzahl von Menüpunkten beinhaltet, wobei die mehreren Menüpunkte jeweils eine unterschiedliche Kombination von Navigationstasten oder eine unterschiedliche Anordnung von Navigationstasten beinhalten, wobei einer der Mehrzahl von Menüpunkten aus dem Einstellungs-Menü zur Anzeige in dem Navigationsbereich ausgewählt werden kann.
  • Eine der mindestens einen Navigationstaste dient zum Aktivieren einer Anwendung, die der einen der mindestens einen in dem Navigationsbereich angezeigten Navigationstaste zugeordnet ist. Die der einen von der mindestens einen Navigationstaste zugeordnete Anwendung wird durch einen Nutzer benannt; oder die Steuerung ist ferner dazu ausgebildet, die eine der mindestens einen Navigationstaste einer Anwendung zuzuordnen, die zuletzt verwendet worden ist.
  • Die Steuerung ist ferner dazu ausgebildet, die Anzeige zum Anzeigen eines Paares von Pfeiltasten zu veranlassen, wobei die Pfeiltasten des Paares von Pfeiltasten, die an einem entsprechenden Endbereich des Navigationsbereichs angezeigt werden, jeweils die Home-Taste einschließen. Außerdem dient das Paar der Pfeiltasten zum Steuern einer Position eines Cursors oder zum Auswählen von angezeigtem Text in einem Texteingabemodus.
  • Die Steuerung ist ferner dazu ausgebildet, eine Berührungseingabe zu erkennen, die über eine erste Navigationstaste empfangen wird, die an dem ersten Endbereich des Navigationsbereichs über eine Schwellenwertdauer angezeigt wird, sowie die Anzeige zum vorübergehenden Anzeigen einer zweiten Navigationstaste an dem ersten Endbereich anstelle der ersten Navigationstaste zu steuern, wobei es sich bei der zweiten Navigationstaste um eine Navigationstaste handelt, die an einem zweiten Endbereich des Navigationsbereichs angezeigt wird.
  • Die Steuerung ist ferner dazu ausgebildet, die Anzeige zum Anzeigen der mindestens einen Navigationstaste an einer anderen Position in dem Navigationsbereich zu veranlassen, und zwar nach Maßgabe einer Position einer Hand, die das mobile Endgerät hält. Oder die Steuerung ist ferner dazu ausgebildet, eine Größe der mindestens einen in dem Navigationsbereich angezeigten Navigationstaste nach Maßgabe einer das mobile Endgerät haltenden Hand einzustellen.
  • Weiterhin ist die Steuerung dazu ausgebildet, die Anzeige zum Stoppen der Anzeige des Navigationsbereichs zu veranlassen, wenn eine aktivierte Anwendung auf dem Anzeigebildschirm angezeigt wird.
  • Ferner ist die Steuerung dazu ausgebildet, den Navigationsbereich zu einem anderen Bereich des Anzeigebildschirms nach Maßgabe einer Eingabe für eine Neupositionierung des Navigationsbereichs neu zu positionieren sowie den Anzeigebildschirm in eine Mehrzahl von Bereichen in Bezug auf den neu positionierten Navigationsbereich zu unterteilen. Außerdem ist die Steuerung dazu ausgebildet, nur einen der mehreren Bereiche des Anzeigebildschirms nach Maßgabe einer Eingabe zu steuern, die über die mindestens eine in dem neu positionierten Navigationsbereich angezeigte Navigationstaste empfangen wird.
  • Die mindestens eine Navigationstaste beinhaltet mindestens eine Navigationstaste, die standardmäßig immer in dem Navigationsbereich enthalten ist, und eine zusätzliche Navigationstaste kann optional in dem Navigationsbereich nach Maßgabe der Auswahl der zusätzlichen Navigationstaste durch einen Nutzer angezeigt werden.
  • Die Steuerung ist ferner dazu ausgebildet, den Navigationsbereich in zwei Bereiche zu unterteilen, wenn ein Anzeigemodus von einer Hochformatausrichtung in eine Querformatausrichtung geändert wird, so dass einer der beiden Bereiche auf einer linken Seite des Anzeigebildschirms angezeigt wird und der andere der beiden Bereiche auf einer rechten Seite des Anzeigebildschirms angezeigt wird.
  • Ferner ist die Steuerung dazu ausgebildet, die mindestens eine Navigationstaste in mindestens ein Dock-Symbol an dem Navigationsbereich umzuschalten oder sowohl die mindestens eine Navigationstaste als auch das mindestens eine Dock-Symbol gleichzeitig in dem Navigationsbereich anzuzeigen.
  • Wirkungen, die sich mit der vorliegenden Erfindung erzielen lassen, sind nicht auf die vorstehend beschriebenen Wirkungen beschränkt. Ferner erschließen sich weitere, nicht erwähnte Effekte deutlich aus der nachfolgenden Beschreibung für den Durchschnittsfachmann auf dem technischen Gebiet, auf das sich die vorliegende Erfindung bezieht.
  • Es versteht sich, dass sowohl die vorangehende allgemeine Beschreibung als auch die nachfolgende ausführliche Beschreibung der vorliegenden Erfindung exemplarisch sind und der Erläuterung dienen und zum besseren Verständnis der Erfindung, wie diese beansprucht ist, beitragen sollen.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die Begleitzeichnungen, die beigefügt sind, um ein besseres Verständnis der Erfindung zu schaffen und die in die vorliegende Beschreibung integriert sind und einen Teil derselben bilden, veranschaulichen Ausführungsbeispiele der Erfindung und dienen zusammen mit der Beschreibung zum Erläutern der Prinzipien der Erfindung. In den Zeichnungen zeigen:
  • 1 ein Blockdiagramm eines mobilen Endgeräts gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 2 eine perspektivische Ansicht einer Vorderseite eines mobilen Endgeräts gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 3 eine perspektivische Ansicht einer Rückseite eines mobilen Endgeräts gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 4 eine schematische Darstellung eines Beispiels einer Navigationstaste eines physischen Tasten-Typs sowie einer Navigationstaste eines Softkey-Typs;
  • 5 eine schematische Darstellung zur Erläuterung eines Beispiels zum Ändern einer Anordnung sowie eines Typs einer Navigationstaste innerhalb eines Navigationsbereichs;
  • 6A bis 6G schematische Darstellungen zur Erläuterung von Beispielen zum Beschreiben einer Funktionsweise einer zusätzlichen Navigationstaste;
  • 8 eine schematische Darstellung zur Erläuterung eines Beispiels zum Ändern eines Themas eines Navigationsbereichs;
  • 9A eine schematische Darstellung zur Erläuterung eines Beispiels zum Ändern einer Navigationstasten-Anordnung in Reaktion auf eine Berührungseingabe in einem Navigationsbereich;
  • 9B eine schematische Darstellung zur Erläuterung eines Beispiels zum Ändern eines Navigationstasten-Typs in Reaktion auf eine Berührungseingabe in einem Navigationsbereich;
  • 10 eine schematische Darstellung zur Erläuterung eines Beispiels zum Anzeigen einer Pfeiltaste in einem Navigationsbereich;
  • 11 eine schematische Darstellung zur Erläuterung eines Beispiels zum vorübergehenden Ändern einer Nutzung einer Navigationstaste;
  • 12 eine schematische Darstellung zur Erläuterung eines Beispiels zum Einstellen einer Anzeigestelle von Navigationstasten in Reaktion auf eine Position einer Hand, mit der das mobile Endgerät gehalten wird;
  • 13 eine schematische Darstellung zur Erläuterung eines Beispiels zum Einstellen einer Größe einer Navigationstaste in Reaktion auf eine Position einer Hand, mit der das mobile Endgerät gehalten wird;
  • 14 eine schematische Darstellung zur Erläuterung eines Beispiels zum redundanten Bereitstellen von Navigationstasten;
  • 15 eine schematische Darstellung zur Erläuterung eines Beispiels zum Stoppen einer Anzeige eines Navigationsbereichs;
  • 16 eine schematische Darstellung zur Erläuterung eines Beispiels eines Dock-Bereichs;
  • 17 eine schematische Darstellung zur Erläuterung eines Beispiels zum Anzeigen eines Dock-Bereichs oder eines Navigationsbereichs in selektiver Weise;
  • 18 eine schematische Darstellung zur Erläuterung eines Beispiels zum Anzeigen eines Dock-Symbols durch einen Navigationsbereich;
  • 19 eine schematische Darstellung zur Erläuterung eines Beispiels zum Einschalten/Ausschalten eines Dock-Bereichs;
  • 20 eine schematische Darstellung zur Erläuterung eines Beispiels zum Bereitstellen sowohl eines Dock-Symbols als auch eines Navigationssymbols in einem integrierten Bereich;
  • 21 eine schematische Darstellung zur Erläuterung eines Beispiels zum Unterteilen einer Anzeigeeinheit in eine Mehrzahl von Bereichen zentriert auf einem Navigationsbereich;
  • 22 eine schematische Darstellung zur Erläuterung eines Beispiels zum Bestimmen eines Wirkungsbereichs einer Navigationstaste in Abhängigkeit von einer Position eines Navigationsbereichs;
  • 23 eine schematische Darstellung zur Erläuterung eines Beispiels zum Anzeigen eines Navigationsbereichs in einem unterteilten Bereich; und
  • 24 und 25 schematische Darstellungen von Beispielen von Ausgaben auf einer Anzeigeeinheit, die jeweils in einem Querformatmodus angeordnet sind.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • In der nachfolgenden ausführlichen Beschreibung wird auf die Begleitzeichnungen Bezug genommen, die Bestandteil derselben sind und die spezielle Ausführungsbeispiele der Erfindung veranschaulichen. Für den Durchschnittsfachmann auf dem einschlägigen Gebiet versteht es sich, dass auch andere Ausführungsformen verwendet werden können und strukturelle, elektrische sowie verfahrensmäßige Änderungen im Umfang der vorliegenden Erfindung vorgenommen werden können. Dabei werden, wann immer möglich, in allen Zeichnungen die gleichen Bezugszeichen zum Bezeichnen von gleichen oder ähnlichen Teilen verwendet.
  • Die Suffixe ”-modul”, ”-einheit” und ”-teil”, wie sie hierin verwendet werden, werden lediglich zum Erleichtern der Offenbarung für die Elemente verwendet. Somit beinhalten die Suffixe an sich keine signifikanten Bedeutungen oder Funktionen, und es versteht sich, dass die Begriffe ”Modul”, ”Einheit” und ”Teil” gemeinsam oder in austauschbarer Weise verwendet werden können.
  • Die vorliegende Erfindung kann bei verschiedenen Arten von mobilen Endgeräten verwendet werden. Beispiele für solche mobile Endgeräte beinhalten Mobiltelefone, Nutzer-Gerätschaften, Smartphones, digitale Rundfunkempfänger, persönliche digitale Assistenten (PDA), Laptop-Computer, tragbare Multimediawiedergabeeinrichtungen (Portable Multimedia Players, PMP), Navigationseinrichtungen und dergleichen.
  • Jedoch ist es für die Fachleute erkennbar, dass eine Konfiguration gemäß einer in der vorliegenden Beschreibung offenbarten Ausführungsform sowohl bei einem solchen stationären Endgerät, wie einem digitalen Fernsehgerät, einem Desktop-Computer und dergleichen, als auch bei einem mobilen Endgerät angewendet werden kann.
  • 1 zeigt ein Blockdiagramm eines mobilen Endgeräts 100 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. 1 zeigt das mobile Endgerät 100 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung; dieses beinhaltet eine Drahtloskommunikationseinheit 110, eine Audio/Video-(A/V-)Eingabeeinheit 120, eine Nutzereingabeeinheit 130, eine Erfassungseinheit 140, eine Ausgabeeinheit 150, einen Speicher 160, eine Schnittstelleneinheit 170, eine Steuerung 180, eine Energieversorgungseinheit 190 und dergleichen. 1 zeigt das mobile Endgerät 100 mit verschiedenen Komponenten, jedoch versteht es sich, dass eine Implementierung von allen der dargestellten Komponenten nicht zwingend erforderlich ist. Das mobile Endgerät kann mit einer größeren oder geringeren Anzahl von Elementen implementiert sein.
  • In der nachfolgenden Beschreibung werden die vorstehend genannten Elemente des mobilen Endgeräts 100 der Reihe nach beschrieben.
  • Als erstes beinhaltet die Drahtloskommunikationseinheit 110 typischerweise eine oder mehrere Komponenten, die eine drahtlose Kommunikation zwischen dem mobilen Endgerät 100 und einem Drahtloskommunikationssystem oder -Netzwerk ermöglichen, in dem sich das mobile Endgerät 100 befindet. Beispielsweise kann die Drahtloskommunikationseinheit 110 ein Rundfunkempfangsmodul 111, ein Mobilkommunikationsmodul 112, ein Drahtlos-Internetmodul 113, ein Nahbereichs-Kommunikationsmodul 114, ein Positionslokalisierungsmodul 115 und dergleichen beinhalten.
  • Das Rundfunkempfangsmodul 111 empfängt Rundfunksignale und/oder Rundfunk-assoziierte Information von einem externen Rundfunkmanagementserver über einen Rundfunkkanal. Der Rundfunkkanal kann einen Satellitenkanal und einen terrestrischen Kanal beinhalten. Es können mindestens zwei Rundfunkempfangsmodule 111 in dem mobilen Endgerät 100 vorgesehen sein, um den gleichzeitigen Empfang von mindestens zwei Rundfunkkanälen zu realisieren oder das Umschalten von Rundfunkkanälen zu erleichtern.
  • Bei dem Rundfunkmanagementserver handelt es sich im Allgemeinen um einen Server, der ein Rundfunksignal und/oder Rundfunk-assoziierte Information generiert und überträgt, oder einen Server, dem ein zuvor generiertes Rundfunksignal und/oder Rundfunk-assoziierte Information bereitgestellt wird und der das bereitgestellte Signal oder die bereitgestellte Information dann zu einem Endgerät überträgt. Das Rundfunksignal kann unter anderem als TV-Rundfunksignal, Radio-Rundfunksignal und Daten-Rundfunksignal implementiert sein. Falls gewünscht, kann das Rundfunksignal ferner auch ein Rundfunksignal beinhalten, das mit einem TV- oder Radio-Rundfunksignal kombiniert ist.
  • Die Rundfunk-assoziierte Information beinhaltet einem Rundfunkkanal assoziierte Information, ein Rundfunkprogramm, einen Rundfunkdienste-Provider usw. Die Rundfunk-assoziierte Information kann auch über ein Mobilkommunikations-Netzwerk bereitgestellt werden. In diesem Fall kann die Rundfunk-assoziierte Information von dem Mobilkommunikationsmodul 112 empfangen werden.
  • Die Rundfunk-assoziierte Information kann in verschiedenen Formen implementiert sein. Beispielsweise kann die Rundfunk-assoziierte Information einen elektronischen Programmführer (Elektronic Program Guide, EPG) eines digitalen Multimediarundfunks (Digital Multimedia Broadcasting, DMB) und einen elektronischen Diensteführer (Elektronic Service Guide, ESG) des digitalen Videorundfunks für Handgeräte (Digital Video Broadcast-Handheld, DVB-H) beinhalten.
  • Das Rundfunkempfangsmodul 111 kann zum Empfangen von Rundfunksignalen ausgebildet sein, die von verschiedenen Arten von Rundfunksystemen gesendet werden. Derartige Rundfunksysteme beinhalten in nicht einschränkender Weise terrestrischen digitalen Multimediarundfunk (Digital Multimedia Broadcasting-Terrestrial, DMB-T), Satelliten-gestützten digitalen Multimediarundfunk (Digital Multimedia Broadcasting-Satellite, DMB-S), digitalen Videorundfunk für Handgeräte (Digital Video Broadcast-Handheld, DVB-H), Konvergenz von Rundfunk- und Mobildiensten (Convergence of Broadcasting and Mobile Service, DVB-CBMS), Open Mobile Alliance-BroadCAST (OMA-BCAST), China-Multimedia-Mobilrundfunk (China Multimedia Mobile Broadcasting, CMMB), Mobilrundfunk-Business-Management-System (Mobile Broadcasting Business Management System, MBBMS), das Daten-Rundfunksystem, das als Medien-Nur-Vorwärts Kanal (MediaFLO®) bekannt ist, sowie terrestrischen digitalen Rundfunk mit integrierten Diensten (Integrated Services Digital Broadcast-Terrestrial, ISDB-T). Optional kann das Rundfunkempfangsmodul 111 für andere Rundfunksysteme sowie auch für die vorstehend angeführten digitalen Rundfunksysteme geeignet konfiguriert werden.
  • Das Rundfunksignal und/oder Rundfunk-assoziierte Information, das bzw. die durch das Rundfunkempfangsmodul 111 empfangen wird, kann in einer geeigneten Vorrichtung, wie z. B. einem Speicher 160, gespeichert werden.
  • Das Mobilkommunikationsmodul 112 sendet/empfängt Funksignale zu und/oder von einer oder mehreren Netzwerkentitäten (z. B. einer Basisstation, einem externen Endgerät, einem Server usw.) über ein mobiles Netzwerk, wie z. B. GSM (Globales System für Mobilkommunikation), CDMA (Codemultiplexverfahren), WCDMA (Wideband CDMA bzw. Spreiz-CDMA) usw. Derartige Funksignale können unter anderem Audio, Video und Daten in Abhängigkeit von Text- und/oder Multimedianachrichten-Sendung und/oder Empfang beinhalten.
  • Das Drahtlos-Internetmodul 113 unterstützt einen Internetzugriff für das mobile Endgerät 100. Dieses Modul kann intern oder extern mit dem mobilen Endgerät 100 gekoppelt sein. Hierbei kann die drahtlose Internet-Technologie WLAN (Wireless LAN bzw. drahtloses LAN), (Wi-Fi), Wibro (Wireless Broadband, Drahtlos-Breitband), Wimax (World Interoperability for Microwave Access, Weltweite Interoperabilität für Mikrowellenzugang), HSDPA (High Speed Downlink Packet Access, Hochgeschwindigkeit-Abwärts-Paketzugang), GSM, CDMA, WCDMA, LTE (Long Term Evolution, Langzeit-Evolution) usw. beinhalten.
  • Ein Drahtlos-Internetzugang mittels Wibro, HSPDA, GSM, CDMA, WCDMA, LTE oder dergleichen wird über ein mobiles Kommunikationsnetzwerk erzielt. In dieser Hinsicht kann das Drahtlos-Internetmodul 113, das zum Ausführen des drahtlosen Internetzugangs über das Mobilkommunikationsnetzwerk ausgebildet ist, als eine Art von Mobil-Kommunikationsmodul 112 verstanden werden.
  • Das Nahbereichskommunikationsmodul 114 erleichtert relative Nahbereichskommunikation. Geeignete Technologien zum Implementieren dieses Moduls beinhalten Funkfrequenzidentifikation (Radio Frequency Identification, RFID), Infrarotdatenvereinigung (Infrared Data Association, IrDA), Ultrabreitband (Ultra-Wideband, UWB) sowie die Netzwerktechnologien, die allgemein als Bluetooth und ZigBee bezeichnet werden, um nur einige zu nennen.
  • Das Positionslokalisierungsmodul 115 sorgt für eine Identifizierung oder anderweitige Ermittlung der Position des mobilen Endgeräts 100. Falls gewünscht, kann dieses Modul mit einem GPS-Modul (Global Positioning System) implementiert werden. Gemäß der derzeitigen Technologie kann das GPS-Modul 115 aktuelle dreidimensionale Positionsinformation exakt berechnen, und zwar auf der Basis von mindestens einem von Längengrad, Breitengrad und Höhe sowie Richtung (oder Orientierung), durch Berechnen von Distanzinformation und exakter Zeitinformation von mindestens drei Satelliten, wobei dann an der berechneten Information eine Triangulation ausgeführt wird. Derzeit werden Positionsinformation und Zeitinformation unter Verwendung von drei Satelliten berechnet, und Fehler bei der berechneten Positionsinformation und Zeitinformation werden dann unter Verwendung eines weiteren Satelliten geändert. Ferner ist das GPS-Modul 115 in der Lage, Geschwindigkeitsinformation durch kontinuierliches Berechnen einer aktuellen Echtzeit-Position zu berechnen.
  • Unter Bezugnahme auf 1 ist die A/V-(Audio/Video-)Eingabeeinheit 120 dazu ausgebildet, ein Audio- oder Videosignal in das mobile Endgerät 100 einzugeben. Wie gezeigt, beinhaltet die A/V-(Audio/Video-)Eingabeeinheit 120 eine Kamera 121 und ein Mikrofon 122. Die Kamera 121 empfängt und verarbeitet Bildrahmen von Standbildern oder Video, die von einem Bildsensor in einem Video-Telefonanruf- oder Bildaufnahme-Modus ermittelt werden. Die verarbeiteten Bildrahmen können auf der Anzeige 151 angezeigt werden.
  • Die von der Kamera 121 verarbeiteten Bildrahmen können in dem Speicher 160 gespeichert werden oder über die Drahtloskommunikationseinheit 110 nach außen übertragen werden. In Abhängigkeit von der Nutzungsumgebung des mobilen Endgeräts 100 können optional zwei oder mehr Kameras 121 vorgesehen sein.
  • Das Mikrofon 122 empfängt ein externes Audiosignal, während sich die tragbare Vorrichtung in einem bestimmten Modus befindet, wie z. B. einem Telefonanrufmodus, einem Aufnahmemodus und einem Spracherkennungsmodus. Dieses Audiosignal wird verarbeitet und in elektrische Audiodaten umgewandelt. Die verarbeiteten Audiodaten werden in ein Format konvertiert, das in einem Telefonanrufmodus über das Mobilkommunikationsmodul 112 zu einer Mobilkommunikation-Basisstation übertragen werden kann. Das Mikrofon 122 beinhaltet typischerweise verschiedene Arten von Rauschentfernungsalgorithmen zum Entfernen von Rauschen, das im Verlauf des Empfangs des externen Audiosignals erzeugt wird.
  • Die Nutzereingabeeinheit 130 generiert Eingabedaten in Reaktion auf eine Nutzer-Betätigung der zugeordneten Eingabevorrichtung oder -vorrichtungen. Beispiele für solche Vorrichtungen beinhalten eine Taste 136, die an der Vorderseite/Rückseite/Seitenfläche des mobilen Endgeräts 100 vorgesehen ist, sowie einen Berührungssensor (konstanter Druck/elektrostatisch) 137, und kann ferner ein Tastenfeld, einen Dom-Schalter, ein Jog-Rad, einen Jog-Schalter und dergleichen beinhalten (in der Zeichnung nicht dargestellt).
  • Die Erfassungseinheit 140 liefert Erfassungssignale zum Steuern von Vorgängen des mobilen Endgeräts 100 unter Verwendung von Statusmessungen von verschiedenen Aspekten des mobilen Endgeräts. Beispielsweise kann die Erfassungseinheit 140 einen geöffneten/geschlossenen Zustand des mobilen Endgeräts 100, eine relative Positionierung von Komponenten (z. B. einer Anzeige und einem Tastenfeld) des mobilen Endgeräts 100, eine Positionsänderung des mobilen Endgeräts 100 oder einer Komponente des mobilen Endgeräts 100, das Vorhandensein oder Nichtvorhandensein eines Nutzerkontakts mit dem mobilen Endgerät 100, eine Ausrichtung oder Beschleunigung/Verzögerung des mobilen Endgeräts 100 detektieren. Als nicht einschränkendes Beispiel beinhaltet eine solche Erfassungseinheit 140 einen Gyrosensor, einen Beschleunigungssensor, einen geomagnetischen Sensor.
  • Man betrachte beispielsweise eine Konfiguration des mobilen Endgeräts 100 als mobiles Endgerät vom Schiebetyp. In dieser Konfiguration kann die Erfassungseinheit 140 feststellen, ob ein Schiebebereich des mobilen Endgeräts geöffnet oder geschlossen ist. Weitere Beispiele beinhalten, dass die Erfassungseinheit 140 das Vorhandensein oder Nichtvorhandensein von von der Energieversorgung 190 bereitgestellter Energie, das Vorhandensein oder Nichtvorhandensein einer Kopplung oder einer anderen Verbindung zwischen der Schnittstelleneinheit 170 und einer externen Vorrichtung erfasst. Ferner kann die Erfassungseinheit 140 einen Näherungssensor 141 beinhalten.
  • Die Ausgabeeinheit 150 ist dazu ausgebildet, Ausgaben hinsichtlich der Sinne der Sicht, des Gehörs, der Berührung und dergleichen zu erzeugen. Die Ausgabeeinheit 150 beinhaltet die Anzeige 151, ein Audioausgabemodul 152, eine Alarmeinheit 153, ein haptisches Modul 154 und dergleichen.
  • Die Anzeige 151 ist typischerweise zum visuellen Anzeigen (Ausgeben) von dem mobilen Endgerät 100 zugeordneter Information implementiert. Wenn sich das mobile Endgerät 100 z. B. in einem Telefonanrufmodus befindet, stellt die Anzeige im Allgemeinen eine Nutzerschnittstelle (User Interface, UI) oder eine graphische Nutzerschnittstelle (GUI) bereit, die Information beinhaltet, die mit dem Ausführen, Durchführen und Beenden eines Telefonanrufs in Verbindung steht. Als weiteres Beispiel, wenn sich das mobile Endgerät 100 in einem Videoanrufmodus oder einem Fotografiermodus befindet, kann die Anzeige 151 zusätzlich oder alternativ Bilder anzeigen, die diesen Betriebsmoden, der Nutzerschnittstelle (UI) oder der grafischen Nutzerschnittstelle (GUI), zugeordnet sind.
  • Das Anzeigemodul 151 kann unter Verwendung bekannter Anzeigetechnologien implementiert werden, die z. B. eine Flüssigkristallanzeige (Liquid Crystal Display, LCD), eine Dünnschichttransistor-Flüssigkristallanzeige (Thin Film Transistor Liquid Crystal Display, TFT-LCD), eine organische lichtemittierende Diodenanzeige (Organic Light-Emitting Diode Display, OLED), eine flexible Anzeige und eine dreidimensionale Anzeige beinhalten. Das mobile Endgerät 100 kann eine oder mehrere derartige Anzeigen beinhalten.
  • Einige dieser Anzeigen können als transparenter oder optisch durchlässiger Typ konfiguriert sein und somit als transparente Anzeige bezeichnet werden. Als ein repräsentatives Beispiel für die transparente Anzeige kann eine transparente OLED (TOLED) oder dergleichen genannt werden. Eine rückseitige Konfiguration der Anzeige 150 kann ebenfalls in dem optisch durchlässigen Typ ausgeführt werden. Bei dieser Konfiguration kann ein Nutzer ein Objekt an der Rückseite von einem Endgerätekörper durch den von der Anzeige 151 des Endgerätekörpers eingenommenen Bereich sehen.
  • Es können mindestens zwei Anzeigen 151 in Abhängigkeit von der implementierten Konfiguration des mobilen Endgeräts 100 an dem mobilen Endgerät vorgesehen sein. Beispielsweise kann eine Mehrzahl von Anzeigen auf einer einzelnen Oberfläche des mobilen Endgeräts 100 im Abstand voneinander oder in einen einzigen Körper eingebaut angeordnet sein. Alternativ hierzu kann eine Mehrzahl von Anzeigen auf verschiedenen Oberflächen des mobilen Endgeräts 100 angeordnet sein.
  • Wenn die Anzeige 151 und der Berührungssensor 137 eine gegenseitige Schichtstruktur (die im Folgenden als ”Touchscreen” bezeichnet wird) bilden, so kann die Anzeige 151 sowohl als Eingabevorrichtung als auch als Ausgabevorrichtung verwendet werden. In diesem Fall kann der Berührungssensor als Berührungsfilm, Berührungsflächenkörper, Berührungsfläche oder dergleichen ausgebildet sein.
  • Der Berührungssensor 137 kann zum Umwandeln eines auf einen bestimmten Bereich der Anzeige 151 ausgeübten Drucks oder einer Änderung einer an einem bestimmten Bereich der Anzeige 151 erzeugten Kapazität in ein elektrisches Eingangssignal konfiguriert sein. Ferner ist es auch möglich, den Berührungssensor 137 nicht nur zum Erfassen eines Berührungsdrucks sondern auch zum Erfassen einer Berührungsposition oder -größe zu konfigurieren.
  • Wenn eine Berührungseingabe an dem Berührungssensor 137 vorgenommen wird, werden ein der Berührung entsprechendes Signal oder Signale zu einer Berührungssteuerung übermittelt. Die Berührungssteuerung verarbeitet das bzw. die Signale und überträgt trägt dann das bzw. die verarbeiteten Signale zu der Steuerung 180. Somit kann die Steuerung 180 Kenntnis davon haben, ob ein bestimmter Bereich der Anzeige 151 berührt worden ist.
  • Ein Näherungssensor 141 kann in einem inneren Bereich des mobilen Endgeräts 100 vorgesehen sein, der von dem Touchscreen bedeckt ist oder in der Nähe des Touchscreens angeordnet ist. Der Näherungssensor ist ein Sensor zum Erfassen des Vorhandenseins oder Nichtvorhandenseins eines Objekts, das sich einer bestimmten Detektionsfläche nähert, oder eines Objekts, das in der Nähe des Näherungssensors vorhanden ist, unter Verwendung einer elektromagnetischen Feldstärke oder Infrarotstrahlung ohne mechanischen Kontakt. Der Näherungssensor weist somit eine höhere Lebensdauer und einen höheren Nutzen als ein Berührungssensor auf.
  • Bei dem Näherungssensor kann es sich um einen fotoelektrischen Sensor vom optischen Transmissions-Typ, einen fotoelektrischen Sensor vom direkten Reflexions-Typ, einen fotoelektrischen Sensor vom Spiegelreflexions-Typ, einen Hochfrequenzoszillations-Näherungssensor, einen Näherungssensor vom elektrostatischen Kapazitäts-Typ, einen Näherungssensor vom Magnet-Typ, einen Infrarotstrahlen-Näherungssensor und dergleichen handeln. Wenn der Touchscreen den Näherungssensor vom elektrostatischen Kapazitäts-Typ aufweist, ist dieser dazu ausgebildet, die Nähe eines Zeigers unter Verwendung einer Änderung eines elektrischen Feldes in Abhängigkeit von der Nähe des Zeigers zu erfassen. In diesem Fall kann der Touchscreen (Berührungssensor) in die Kategorie eines Näherungssensors eingeordnet werden.
  • Im Folgenden wird zur Klarstellung und Vereinfachung der nachfolgenden Beschreibung ein Zustand, bei dem sich ein Zeiger dem Touchscreen nähert, ohne mit dem Touchscreen in Kontakt zu treten, wenn der Zeiger als über dem Touchscreen positioniert wahrgenommen wird, als ”Näherungs-Berührung” bezeichnet. Ein Zustand, in dem ein Zeiger tatsächlich mit einem Touchscreen in Kontakt tritt, wird dagegen als ”Kontakt-Berührung” bezeichnet. Unter einer Position, die der Näherungs-Berührung des Zeigers über dem Touchscreen entspricht, kann eine Position zu verstehen sein, bei der der Zeiger dem Touchscreen vertikal gegenüberliegt, wenn sich der Zeiger in einer Näherung-Berührung mit dem Touchscreen befindet.
  • Der Näherungssensor erfasst eine Näherungs-Berührung und ein Näherungs-Berührungsmuster (z. B. eine Näherungs-Berührungsdistanz, eine Näherungs-Berührungsdauer, einen Näherungs-Berührungsposition, einen Näherungs-Berührungsverschiebezustand usw.). Information bezüglich der erfassten Näherungs-Berührung sowie des erfassten Näherungs-Berührungsmusters kann auf dem Touchscreen ausgegeben werden.
  • Das Audioausgabemodul 152 arbeitet in verschiedenen Betriebsarten, die einen Anrufempfangsmodus, einen Anruftätigungsmodus, einen Aufnahmemodus, einen Spracherkennungsmodus, einen Rundfunkempfangsmodus und dergleichen beinhalten, um Audiodaten abzugeben, die von der Drahtloskommunikationseinheit 110 empfangen werden oder in dem Speicher 160 gespeichert sind. Während des Betriebs gibt das Audioausgabemodul 152 Audiosignale ab, die zu einer bestimmten Funktion in Beziehung stehen (z. B. einen empfangenen Anruf, eine empfangene Nachricht usw.). Das Audioausgabemodul 152 ist häufig unter Verwendung von einem oder mehreren Lautsprechern, Summern oder anderen Audiosignale erzeugenden Vorrichtungen sowie Kombinationen davon implementiert.
  • Die Alarmeinheit bzw. Weckeinrichtung 153 gibt ein Signal ab, um über das Auftreten eines bestimmten Ereignisses zu informieren, das mit dem mobilen Endgerät 100 in Beziehung steht. Typische Ereignisse beinhalten einen eingegangenen Anruf, eine empfangene Nachricht und eine empfangene Berührungseingabe. Die Alarmeinheit 153 kann ein Signal zum Informieren über das Eintreten eines Ereignisses mittels Vibration sowie als Video- oder Audiosignal abgeben. Das Video- oder Audiosignal kann über die Anzeige 151 oder die Audioausgabeeinheit 152 abgegeben werden. Daher kann die Anzeige 151 oder das Audioausgabemodul 152 als Teil der Alarmeinheit 153 betrachtet werden.
  • Das haptische Modul 154 generiert verschiedene taktile Effekte, die für einen Nutzer spürbar sind. Vibration ist ein repräsentatives Beispiel für die taktilen Effekte, die von dem haptischen Modul 154 generiert werden. Die Stärke und das Muster der von dem haptischen Modul 154 generierten Vibration 154 sind steuerbar. Beispielsweise können unterschiedliche Vibrationen in gemeinsam synthetisierter Weise ausgegeben oder nacheinander ausgegeben werden.
  • Das haptische Modul 154 generiert verschiedene taktile Effekte sowie Vibration generieren. Beispielsweise generiert das haptische Modul 154 Effekte aufgrund einer Anordnung von Stiften, die sich in Bezug auf berührte Haut in vertikaler Richtung bewegen, Luftinjektionskraft/Luftansaugkraft durch eine Injektionsöffnung/Ansaugöffnung, Berührung durch eine Hautoberfläche, Kontakt mit einer Elektrode, Effekte aufgrund elektrostatischer Kraft sowie aufgrund der Wahrnehmung von Wärme/Kälte unter Verwendung einer endothermen oder exothermen Vorrichtung und dergleichen.
  • Das haptische Modul 154 kann derart implementiert sein, dass ein Nutzer die taktile Wirkung durch eine Muskelwahrnehmung eines Fingers, eines Arms oder dergleichen erfassen kann oder die taktile Wirkung durch einen direkten Kontakt übertragen werden kann. Optional können in Abhängigkeit von dem entsprechenden Konfigurationstyp des mobilen Endgeräts 100 mindestens zwei haptische Module 154 an dem mobilen Endgerät 100 vorgesehen sein.
  • Die Speichereinheit 160 wird im Allgemeinen zum Speichern von verschiedenen Arten von Daten verwendet, um die Erfordernisse hinsichtlich der Verarbeitung, Steuerung und Speicherung des mobilen Endgeräts 100 zu erfüllen. Beispiele für solche Daten beinhalten Programmanweisungen für Anwendungen, die auf dem mobilen Endgerät 100 laufen, Kontaktdaten, Telefonbuchdaten, Nachrichten, Audiodaten, Standbilder (oder Fotos), bewegte Bilder bzw. Videos usw. Ferner kann eine Historie der letzten Nutzung oder eine Häufigkeit hinsichtlich der kumulativen Nutzung der jeweiligen Daten (z. B. die Nutzungshäufigkeit des jeweiligen Telefonbuchs, der jeweiligen Nachricht oder der jeweiligen Multimediaeinrichtungen) in der Speichereinheit 160 gespeichert werden. Ferner können Daten für verschiedene Muster von Vibrationen und/oder Tönen in der Speichereinheit 160 gespeichert werden, die bei einer Berührungseingabe auf dem Touchscreen abgegeben werden.
  • Der Speicher 160 kann implementiert werden unter Verwendung einer beliebigen Art oder Kombination von geeigneten flüchtigen und nichtflüchtigen Speichermedien oder Speichervorrichtungen, einschließlich Festplatte, Speicher mit wahlfreiem Zugriff (Random Access Memory, RAM), statischen Speicher mit wahlfreiem Zugriff (Static Random Access Memory, SRAM), elektrisch löschbaren und programmierbaren Nur-Lesespeicher (Electrically Erasable Programmable Read-only Memory, EEPROM), löschbaren und programmierbaren Nur-Lesespeicher (Erasable Programmable Read-only Memory, EPROM), programmierbaren Nur-Lesespeicher (Programmable Read-only Memory, PROM), Nur-Lesespeicher (Read-only Memory, ROM), Magnetspeicher, Flash-Speicher, magnetische oder optische Disk, Multimediakarten-Mikrospeicher, Speicherkarten (z. B. SD-Speicher, XD-Speicher usw.) oder andere ähnliche Speichermedien oder Datenspeichervorrichtungen. Auch kann das mobile Endgerät 100 in Zusammenarbeit mit einem Web-Speicher arbeiten, um die Speicherfunktion des Speichers 160 im Internet auszuführen.
  • Die Schnittstelleneinheit 170 ist häufig zum Koppeln des mobilen Endgeräts 100 mit externen Vorrichtungen implementiert. Die Schnittstelleneinheit 170 empfängt Daten von den externen Vorrichtungen oder wird mit Energie versorgt, und überträgt dann die Daten oder Energie zu den jeweiligen Elementen des mobilen Endgeräts 100 oder ermöglicht einen Transfer von Daten innerhalb des mobilen Endgeräts 100 zu den externen Vorrichtungen. Die Schnittstelleneinheit 170 kann unter Verwendung eines Anschlusses für einen drahtgebundenen/drahtlosen Kopfhörer, eines Anschlusses für eine externe Ladeeinrichtung, eines drahtgebundenen/drahtlosen Datenanschlusses, eines Speicherkartenanschlusses, eines Anschlusses zur Kopplung mit einer Vorrichtung mit einem Identitätsmodul, Audioeingangs-/Audioausgangs-(I/O-)Anschlüssen, Video-Eingangs/Ausgangsanschlüssen, einem Kopfhöreranschluss und/oder dergleichen ausgebildet sein.
  • Bei dem Identitätsmodul handelt es sich um den Chip zum Speichern von verschiedener Information zur Authentifizierung einer Nutzungsautorisierung des mobilen Endgeräts 100, und dieser kann ein Nutzer-Identitifzierungsmodul (User Identify Module, UIM), ein Teilnehmer-Identifizierungsmodul (Subscriber Identify Module, SIM), ein universelles Teilnehmer-Identitätsmodul (Universal Subscriber Identity Module, USIM) und/oder dergleichen beinhalten. Eine das Identitätsmodul aufweisende Vorrichtung (die nachfolgend als ”Identitätsvorrichtung” bezeichnet wird) kann in Form einer Smart-Card hergestellt sein. Daher lässt sich die Identitätsvorrichtung über den entsprechenden Anschluss mit dem mobilen Endgerät 100 verbinden.
  • Wenn das mobile Endgerät 110 mit einer externen Station verbunden ist, wird die Schnittstelleneinheit 170 ein Weg zum Versorgen des mobilen Endgeräts 100 mit Energie von der externen Station oder ein Weg zum Zuführen von verschiedenen Befehlssignalen, die durch einen Nutzer an der Station in das mobile Endgerät 100 eingegeben werden. Solche verschiedenen Befehlssignale oder Energie, die von der Station eingegeben werden, können als Signale für die Erkennung dienen, dass das mobile Endgerät 100 korrekt in der Station angebracht ist.
  • Die Steuerung 180 steuert typischerweise die gesamten Operationen des mobilen Endgeräts 100. Z. B. führt die Steuerung 180 einen Steuervorgang und eine Verarbeitung im Zusammenhang mit Sprachanrufen, Datenkommunikationen, Videoanrufen usw. aus. Die Steuerung 180 kann ein Multimediamodul 181 beinhalten, das Multimediawiedergabe bereitstellt. Das Multimediamodul 181 kann als Teil der Steuerung 180 oder als separate Komponente ausgebildet sein.
  • Die Steuerung 180 kann ferner einen Mustererkennungsvorgang (oder Bilderkennungsvorgang) ausführen, um eine Schreib- oder Bildzieh-Eingabe auf dem Touchscreen als Text bzw. Bilder zu erkennen.
  • Die Energieversorgungseinheit 190 stellt die von den verschiedenen Komponenten erforderliche Energie für das mobile Endgerät 100 bereit. Bei der Energie kann es sich um interne Energie, externe Energie oder Kombinationen davon handeln.
  • Eine Batterie kann eine eingebaute, wiederaufladbare Batterie beinhalten und an dem Endgerätekörper zum Aufladen und dergleichen lösbar angebracht sein. Ein Verbindungsanschluss kann als ein Beispiel der Schnittstelle 170 konfiguriert sein, über die eine externe Ladeeinrichtung zum Zuführen von Batterieladeenergie elektrisch angeschlossen wird.
  • Verschiedene Ausführungsbeispiele, die hier beschrieben werden, können in einem computerlesbaren Medium beispielsweise unter Verwendung von Computer-Software, Hardware oder beliebigen Kombinationen davon implementiert werden.
  • Für eine Hardware-Implementierung ist eine Implementierung der hier beschriebenen Ausführungsbeispiele möglich unter Verwendung von mindestens einem von anwendungsspezifisch integrierten Schaltkreisen (Application Specific Integrated Circuits, ASICs), digitalen Signalprozessoren (Digital Signal Processors, DSPs), digitalen Signalverarbeitungseinheiten (Digital Signal Processing Devices, DSPDs), programmierbaren Logikeinrichtungen (Programmable Logic Devices, PLDs), feldprogrammierbaren Gatteranordnungen (Field Programmable Gate Arrays, FPGAs), Prozessoren, Steuerungen, Mikrosteuerungen, Mikroprozessoren, anderen elektrischen Einheiten, die zum Ausführen der hierin beschriebenen Funktionen entworfen sind, oder eine selektive Kombination davon. Solche Ausführungsbeispiele können auch durch die Steuerung 180 implementiert werden.
  • Für eine Softwareimplementierung können die hierin beschriebenen Ausführungsbeispiele mit separaten Softwaremodulen implementiert werden, wie z. B. Vorgänge und Funktionen, die mindestens eine der hierin beschriebenen Funktionen und Operationen ausführen. Die Softwarecodes können mittels einer Softwareapplikation bzw. Softwareanwendung implementiert werden, die in einer beliebigen geeigneten Programmiersprache geschrieben ist, und können in einem Speicher, wie z. B. dem Speicher 160, gespeichert werden und von einer Steuerung oder einen Prozessor, wie z. B. der Steuerung 180, ausgeführt werden.
  • 2 zeigt eine perspektivische Frontansicht eines mobilen Endgeräts gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • Das in der Zeichnung dargestellte mobile Endgerät 100 besitzt einen barrenartigen Endgerätekörper. Jedoch kann das mobile Endgerät 100 in verschiedenen anderen Konfigurationen implementiert werden. Beispiele für solche Konfigurationen beinhalten einen Klapptyp, Schiebetyp, Drehtyp, Schwenktyp sowie Kombinationen davon. Aus Gründen der Klarheit bezieht sich die nachfolgende Offenbarung in erster Linie auf ein barrenartiges mobiles Endgerät 100. Die genannten Lehren gelten jedoch gleichermaßen für andere Arten von mobilen Endgeräten.
  • Unter Bezugnahme auf 2A beinhaltet das mobile Endgerät 100 ein Gehäuse (101, 102, 103), das das Äußere desselben bildet. Bei dem vorliegenden Ausführungsbeispiel kann das Gehäuse in ein vorderes Gehäuseelement 101 und ein hinteres Gehäuseelement 102 geteilt sein. Verschiedene elektrische/elektronische Teile sind in einem Raum untergebracht, der zwischen dem vorderen und dem hinteren Gehäuseelement 101 und 102 vorhanden ist.
  • Gelegentlich können elektronische Komponenten an einer Oberfläche des hinteren Gehäuses 102 angebracht sein. Bei den an der Oberfläche des hinteren Gehäuses 102 angebrachten elektronischen Teilen kann es sich um ein solches lösbares Teil wie eine Batterie, eine USIM-Karte, eine Speicherkarte und dergleichen handeln. Dabei kann das hintere Gehäuse 102 ferner eine rückseitige Abdeckung 103 beinhalten, die zum Bedecken der Oberfläche des hinteren Gehäuses 102 ausgebildet ist. Im Spezielleren besitzt die rückseitige Abdeckung 103 zum Nutzerkomfort eine lösbare Ausbildung. Wenn die rückseitige Abdeckung 103 von dem hinteren Gehäuses 102 abgenommen wird, liegt die Oberfläche des hinteren Gehäuses 102 frei.
  • Wenn unter Bezugnahme auf 2 die rückseitige Abdeckung 103 an dem hinteren Gehäuse 102 angebracht ist, kann eine Seitenfläche des hinteren Gehäuses 102 teilweise freiliegen. Wenn die Größe der rückseitigen Abdeckung 103 vermindert ist, kann eine Rückseite des hinteren Gehäuses 102 teilweise freiliegen. Wenn die rückseitige Abdeckung 103 die gesamte Rückseite des hinteren Gehäuses 102 bedeckt, kann sie eine Öffnung 103' aufweisen, die zum Freilegen einer Kamera 121' oder einer Audioausgabeeinheit 152' nach außen ausgebildet ist.
  • Die Gehäuseelemente 101, 102 und 103 sind durch Spritzgießen eines Kunstharzmaterials gebildet oder können auch aus einem Metallmaterial, wie z. B. rostfreiem Stahl (Stainless Steel, STS), Titan (Ti) oder dergleichen gebildet sein.
  • Eine Anzeige 151, eine Audioausgabeeinheit 152, eine Kamera 121, Nutzereingabeeinheiten 130/131 und 132, ein Mikrofon 122, eine Schnittstelle 180 und dergleichen können an dem Gehäuseelement 101 oder 102 vorgesehen sein.
  • Die Anzeige 151 nimmt den größten Teil einer Hauptfläche des vorderen Gehäuses 101 ein. Die Audioausgabeeinheit 152 und die Kamera 121 sind in einem Bereich benachbart von einem der beiden Endbereiche der Anzeige 151 angeordnet, während die Nutzereingabeeinheit 131 und das Mikrofon 122 in einem anderen Bereich benachbart dem anderen Endbereich der Anzeige 151 vorgesehen sind. Die Nutzereingabeeinheit 132 und die Schnittstelle 170 können auch an Seitenflächen des vorderen und des hinteren Gehäuses 101 und 102 vorgesehen sein.
  • Die Eingabeeinheit 130 wird zum Empfangen eines Befehls zum Steuern des Betriebs des Endgeräts 100 betätigt. Außerdem kann die Eingabeeinheit 130 eine Mehrzahl von Betätigungseinheiten 131 und 132 beinhalten. Die Betätigungseinheiten 131 und 132 können als Betätigungsbereich bezeichnet werden, und diese können einen beliebigen Mechanismus taktiler Art verwenden, der einem Nutzer die Ausführung eines Betätigungsvorgangs mit einem taktilen Gefühl ermöglicht.
  • Der Inhalt, der von der ersten oder zweiten Betätigungseinheit 131 oder 132 eingegeben wird, kann verschiedenartig vorgesehen sein. Beispielsweise wird ein solcher Befehl wie Start, Ende, Scrollen und dergleichen in die erste Betätigungseinheit 131 eingegeben. Ein Befehl für eine Lautstärkeneinstellung des von der Audioausgabeeinheit 152 ausgegebenen Tons und dergleichen kann an der zweiten Betätigungseinheit 132 eingegeben werden, ein Befehl zum Umschalten auf einen Berührungserkennungsmodus der Anzeige 151 und dergleichen kann an der zweiten Betätigungseinheit 133 eingegeben werden.
  • 3 zeigt eine Perspektivansicht einer Rückseite des in 2 gezeigten Endgeräts.
  • Unter Bezugnahme auf 3 kann zusätzlich eine Kamera 121' an einer Rückseite des Endgerätekörpers, insbesondere an dem hinteren Gehäuse 102 vorgesehen sein. Die Kamera 121 weist eine Bildaufnahmerichtung auf, die im Wesentlichen entgegengesetzt zu der Bildaufnahmerichtung der genannten Kamera 121 ist, die in 2 gezeigt ist, und kann eine andere Anzahl von Pixeln aufweisen als die der erstgenannten Kamera 121.
  • Vorzugsweise hat z. B. erstere Kamera 121 eine ausreichend geringe Anzahl von Pixeln zum Aufnehmen und Senden eines Bilds des Gesichts eines Nutzers für einen Videoanruf, während die letztere Kamera 121' eine hohe Anzahl von Pixeln aufweist, um ein allgemeines Objekt zu fotografieren, ohne das aufgenommene Objekt zu verschicken. Außerdem können die jeweiligen Kameras 121 und 121' in dem Endgerätekörper in drehbarer oder in Popup-Weise installiert sein.
  • Zusätzlich sind ein Blitz 123 und ein Spiegel 124 benachbart der Kamera 121' vorgesehen. Der Blitz 123 strahlt Licht in Richtung auf eine Person bzw. ein Objekt ab, wenn das Objekt unter Verwendung der Kamera 121' fotografiert wird. Wenn ein Nutzer versucht, ein Bild von sich selbst (Selbstportrait) mittels der Kamera 121' aufzunehmen, erlaubt der Spiegel 124 dem Nutzer, sein Gesicht in von dem Spiegel 124 reflektierter Weise zu betrachten.
  • Eine zusätzliche Audioausgabeeinheit 152' kann an der Rückseite des Endgerätekörpers vorgesehen sein. Die zusätzliche Audioausgabeeinheit 152' kann zusammen mit der erstgenannten Audioausgabeeinheit 152, die in 2A gezeigt ist, eine Stereofunktion implementieren und auch dazu verwendet werden, einen Lautsprechermodus beim Sprechen über das Endgerät zu implementieren.
  • Eine Rundfunksignal-Empfangsantenne 116 kann ebenso wie eine Antenne für Kommunikationszwecke oder dergleichen zusätzlich an der Seitenfläche des Endgerätekörpers vorgesehen sein. Die Antenne 116, die einen Teil des in 1 gezeigten Rundfunkempfangsmoduls 111 bildet, kann an dem Endgerätekörper einziehbar vorgesehen sein.
  • Zum Steigern des Bedienungskomforts eines mobilen Endgeräts ist im Allgemeinen eine Navigationstaste an dem mobilen Endgerät vorhanden. Hinsichtlich mobiler Betriebssysteme beinhaltet das in mobilen Endgeräten installierte Android OS (Operating System bzw. Betriebssystem) im Allgemeinen eine Löschtaste, eine Home-Taste eine Menütaste und dergleichen als Navigationstasten, während das in mobilen Endgeräten installierte iOS-Betriebssystem im Allgemeinen eine Home-Taste als Navigationstaste beinhaltet. Im Spezielleren kann die Löschtaste zum Beenden jeder aktiven Anwendung oder zum Löschen eines eingegebenen Nutzerbefehls verwendet werden. Die Menütaste kann zum Durchblättern eines entsprechenden Menüs verwendet werden, das einem derzeit angezeigten Bildschirm zugeordnet ist. Die Home-Taste, die sowohl bei Android OS als auch bei iOS vorhanden ist, kann zum Aufheben eines Energiesparmodus eines mobilen Endgeräts, zum Wechseln zu einem Home- bzw. Startbildschirm, zum Wechseln innerhalb eines Jobs in einer Umgebung mit mehreren Aufgaben und dergleichen verwendet werden.
  • Gemäß dem Stand der Technik besitzt eine Navigationstaste normalerweise eine Konfiguration vom Typ einer physischen Taste. Um der in der letzten Zeit üblicheren Ausführung in einer randlosen Ausbildung sowie dem Trend zu einer zunehmenden Anzeigengröße Rechnung zu tragen, wird derzeit ein Verfahren zum Konfigurieren einer Navigationstaste vom Softkey-Typ mittels Software ins Auge gefasst.
  • 4 zeigt eine schematische Darstellung eines Beispiels einer Navigationstaste eines physischen Tasten-Typs sowie einer Navigationstaste eines Softkey-Typs. Im Spezielleren zeigt 4(a) eine schematische Darstellung eines Beispiels, bei dem Navigationstasten, die eine Löschtaste, eine Home-Taste und eine Menütaste beinhalten, als physischer Tasten-Typ implementiert sind, wären 4(b) eine schematische Darstellung eines Beispiels zeigt, bei dem Navigationstasten, die eine Löschtaste, eine Home-Taste und eine Menütaste beinhalten, als Softkey-Typ implementiert sind. Bei Implementierung einer Navigationstaste mittels Software, wie in 4(b) dargestellt, kann die entsprechende Navigationstaste durch eine Anzeigeeinheit ausgegeben werden.
  • Im Fall einer physischen Implementierung einer Navigationstaste sollte ein körperlicher Raum zum Anordnen der Navigationstaste vorhanden sein. Wenn jedoch eine Navigationstaste mittels Software implementiert ist, besteht keine Notwendigkeit zum Vorsehen eines separaten körperlichen Raums zum Anordnen der Navigationstaste. Aus diesem Grund kann eine Implementierung einer Navigationstaste mittels Software bei der Verwendung einer randlosen Ausbildung vorteilhafter sein als eine Implementierung einer Navigationstaste in Form eines physischen Körpers.
  • Bei der nachfolgenden Beschreibung der vorliegenden Erfindung wird davon ausgegangen, dass eine Navigationstaste mittels Software implementiert ist. Ferner wird angenommen, dass eine Anzeigeeinheit einen Touchscreen bzw. Berührungsbildschirm beinhaltet, der zum Empfangen einer Berührungseingabe an der Navigationstaste in der Lage ist. Ferner wird ein räumlicher Bereich zum Anzeigen der Navigationstaste auf der Anzeigeeinheit als Navigationsbereich bezeichnet.
  • Auf dem Navigationsbereich können mindestens eine zwingend vorhandene Navigationstaste sowie eine optionale, zusätzliche Navigationstaste angezeigt werden. Zur Klarheit der nachfolgenden Beschreibung in Bezug auf die Begleitzeichnungen wird davon ausgegangen, dass eine Löschtaste, eine Home-Taste und eine Menütaste zwingend vorhandene Navigationstasten bilden.
  • Die Anordnung und der Typ einer Navigationstaste, die durch einen Navigationsbereich angezeigt wird, können nach den Vorgaben eines Nutzers geändert werden. Ein Beispiel für eine Änderung einer Anordnung sowie eines Typs einer durch einen Navigationsbereich angezeigten Navigationstaste gemäß einem Ausführungsbeispiel wird nachfolgend unter Bezugnahme auf 5 ausführlich beschrieben.
  • 5 zeigt eine schematische Darstellung zur Erläuterung eines Beispiels zum Ändern einer Anordnung und eines Typs einer Navigationstaste in einem Navigationsbereich.
  • Unter Bezugnahme auf 5 kann eine Steuerung ein Auswahlmenü steuern, das zum Auswählen einer anzuzeigenden Kombination von Kombinationsbeispielen A bis F von Typen und Anordnungen von Navigationstasten vorgesehen ist, die sich in einem Navigationsbereich anzeigen lassen (5(a)). Im Spezielleren kann, wie in dem Beispiel des in 5(a) veranschaulichten Auswahlmenüs gezeigt ist, die Steuerung ein Kombinationsbeispiel bereitstellen, das mit zwingend erforderlichen Navigationstasten konfiguriert ist, sowie ein Kombinationsbeispiel bereitstellen, das mit zwingend erforderlichen Tasten und einer zusätzlichen Navigationstaste konfiguriert ist.
  • Wenn ein Nutzer ein beliebiges Kombinationsbeispiel auswählt, kann die Steuerung einen Typ und eine Anordnung einer auf dem Navigationsbereich in Erscheinung tretenden Navigationstaste in Abhängigkeit von dem durch den Nutzer ausgewählten Kombinationsbeispiel bestimmen. Unter Bezugnahme auf 5(a) ist der Navigationsbereich gemäß einer Auswahl A konfiguriert, die nur die zwingend erforderlichen Tasten beinhaltet. Unter Bezugnahme auf 5(b) ist der Navigationsbereich gemäß einer Auswahl D konfiguriert, die die zwingend erforderlichen Tasten sowie die zusätzliche Taste beinhaltet.
  • Bei Betrachtung der Kombinationsbeispiele der 5(a) und der 5(b) ist das Kombinationsbeispiel mit den zwingend erforderlichen Navigationstasten (d. h. dem Kombinationsbeispiel mit insgesamt drei Navigationstasten, vgl. Auswahl A und Auswahl B) oder mit den zwingend erforderlichen Navigationstasten und einer einzelnen zusätzlichen Navigationstaste (d. h. dem Kombinationsbeispiel mit insgesamt vier Navigationstasten, vgl. Auswahlen C bis F) konfiguriert. Ferner kann auch ein Kombinationsbeispiel vorhanden sein, das die zwingend erforderlichen Navigationstasten sowie eine Mehrzahl von zusätzlichen Navigationstasten beinhaltet (z. B. ein Kombinationsbeispiel mit fünf Navigationstasten).
  • Die in 5(a) und 5(b) dargestellten Kombinationsbeispiele können von einem Nutzer von Hand geändert werden. Wenn z. B. ein Nutzer eine entsprechende Berührungseingabe an einem der Kombinationsbeispiele vornimmt, kann der Nutzer eine Änderung der in dem entsprechenden Kombinationsbeispiel freiliegenden Navigationstasten veranlassen oder eine Änderung der Anordnungsfolge der Navigationstasten veranlassen. Beispielsweise kann die Steuerung auf der Basis einer Berührungseingabe durch den Nutzer die Positionen der Löschtaste und der Home-Taste in der Auswahl A austauschen oder eine Anzeigetaste in der Auswahl D in eine Taste eines anderen Typs ändern. Die Änderung der in dem Kombinationsbeispiel freiliegenden Navigationstaste findet dabei nur bei der zusätzlichen Navigationstaste Anwendung.
  • Bei den in 5(a) und 5(b) gezeigten Beispielen beinhalten die zusätzlichen Navigationstasten eine Schnellmemo-Taste und eine Anzeigetaste zusätzlich zu den zwingend erforderlichen Navigationstasten, die die Löschtaste, die Home-Taste, die Menütaste und dergleichen beinhalten. Im Spezielleren kann die Schnellmemo-Taste vorgesehen sein, um dem mobilen Endgerät das Aufnehmen eines handschriftlichen Eingabemodus zu ermöglichen, damit ein Nutzer jederzeit handschriftliche Eingaben vornehmen kann. Wenn ein Nutzer in dem handschriftlichen Eingabemodus eine Berührungseingabe entlang einer bestimmten Bewegungsbahn 612 ausführt, kann unter Bezugnahme auf 6A ein handschriftlicher Eintrag 614 entlang der Berührungsbahn 612 gezeichnet werden.
  • Die Anzeigetaste kann zum Anzeigen eines Anzeigefensters zum Bereitstellen von Information über das Auftreten eines Ereignisses vorgesehen sein (z. B. eine von einem mobilen Endgerät neu empfangene Textnachricht, eine neu empfangene E-Mail, das Auftreten eines Anrufs in Abwesenheit usw.). Wenn unter Bezugnahme auf 6B eine Berührung der Anzeigetaste 620 stattfindet, kann die Steuerung das Anzeigen eines Anzeigefensters steuern, um das Auftreten eines Ereignisses anzuzeigen. Gemäß dem Stand der Technik kann eine Statusanzeigeleiste 630, die einen Betriebszustand eines mobilen Endgeräts anzeigt, in einer Weise überprüft werden, in der diese in eine Richtung gezogen wird. Wenn jedoch die Anzeigetaste in dem Navigationsbereich freiliegt, kann, wenn die Anzeigetaste einfach berührt wird, das Anzeigefenster zum Überprüfen eines angezeigten aufgetretenen Ereignisses bei dem mobilen Endgerät angezeigt werden.
  • Zusätzlich zu den in den 5(a) und 5(b) gezeigten Beispielen können eine schnelle Sprachtaste, eine Suchtaste, eine Lautstärkentaste, eine integrierte Zugriffstaste und dergleichen als zusätzliche Navigationstasten ausgebildet sein. Die schnelle Sprachtaste kann dazu ausgebildet sein, einen Modus eines mobilen Endgeräts in einen Spracheingabemodus zu versetzen, damit ein Nutzer das mobile Endgerät unter Verwendung von Sprache betätigen kann. Wenn in Bezug auf 6C die schnelle Sprachtaste 640 berührt wird, kann die Steuerung in einen Zustand übergehen, in dem sie eine Eingabe mittels der Stimme bzw. Sprache eines Nutzers empfangen kann, d. h. einen Spracheingabemodus. Die Steuerung kann das mobile Endgerät in dem Spracheingabemodus auf der Basis der Stimme des Nutzers steuern, die über ein Mikrofon eingegeben wird.
  • Die Suchtaste kann zum Durchsuchen eines Speichers oder des Netzes bzw. Webs auf Daten vorgesehen sein, die mit einem von einem Nutzer eingegebenen Text übereinstimmen. Bei Berührung der Suchtaste 650 kann in Bezug auf 6D der Nutzer die Anzeige einer virtuellen Tastatur 660 veranlassen, damit ein Nutzer einen Text eingeben kann. Wenn ein bestimmter Text über die virtuelle Tastatur eingegeben wird, extrahiert die Steuerung dem eingegebenen Text entsprechende Daten aus dem Speicher und zeigt die extrahierten Daten dann an. Wenn ein bestimmter Text über die virtuelle Tastatur eingegeben wird, kann die Steuerung ein Resultat der Suche für den eingegebenen Text anzeigen, das in dem Web gefunden wurde.
  • Die Lautstärkentaste ist zum Einstellen einer Lautstärke des mobilen Endgeräts vorgesehen. Bei Berührung der Lautstärkentaste 670 kann unter Bezugnahme auf 6E die Steuerung die Anzeige eines Paares von Lautstärkeneinstelltasten (z. B. einer ”+” Taste 672 und einer ”–”-Taste 674) steuern. Wenn in dem in 6E gezeigten Beispiel die ”+”-Taste 672 berührt wird, kann die Lautstärke des mobilen Endgeräts erhöht werden. Wenn die ”–”-Taste 674 berührt wird, kann die Lautstärke des mobilen Endgeräts vermindert werden.
  • Die integrierte Zugriffstaste ist dazu ausgebildet, eine von einer Mehrzahl von Funktionen in selektiver Weise bereitzustellen. Bei Berührung der integrierten Zugriffstaste 680 kann die Steuerung unter Bezugnahme auf 6F die Anzeige einer Mehrzahl von Tasten 682, 684 und 686 steuern, die mit einer Mehrzahl von Funktionen in Beziehung stehen, die jeweils mit der integrierten Zugriffstaste verknüpft sind. Wenn eine bestimmte Taste aus einer Mehrzahl der Tasten 682, 684 und 686 ausgewählt wird, kann die Steuerung in selektiver Weise eine bestimmte aus einer Mehrzahl der Funktionen aktivieren, die mit der integrierten Zugriffstaste 680 verknüpft sind. Wenn bei dem in 6F gezeigten Beispiel die integrierte Zugriffstaste 680 berührt wird, werden eine Schnellmemo-Taste 684, eine schnelle Sprachtaste 682 und eine Suchtaste 686 angezeigt. Ein Tastentyp, der bei Berührung der integrierten Zugriffstaste 680 angezeigt wird, kann anders als der in 6F veranschaulichte Typ vorgegeben sein oder kann manuell von einem Nutzer vorgegeben werden.
  • Eine Jüngste- bzw. Letzte-Taste ist dazu ausgebildet, eine Liste von zuletzt aktivierten Anwendungen bereitzustellen. Bei Berührung der Letzte-Taste 690 kann unter Bezugnahme auf 6G die Steuerung die Anzeige einer zuletzt aktivierten Anwendungsliste 695 steuern. Wenn eine bestimmte Anwendung aus der zuletzt aktivierten Anwendungsliste ausgewählt wird, kann die Steuerung die ausgewählte Anwendung aktivieren.
  • Zusätzlich zu den in den 6A bis 6F gezeigten Beispielen können verschiedene Tasten als zusätzliche Navigationstasten konfiguriert werden. Beispielsweise kann eine Anwendungstaste zum Aktivieren einer bestimmten Anwendung als Navigationstaste konfiguriert werden. Eine Anwendung, die bei Berührung der Anwendungsdaten aktiv ist, kann von einem Nutzer manuell ausgewählt werden oder kann automatisch auf eine Anwendung eingestellt werden, die von einem Nutzer am häufigsten aktiviert wird. Gemäß einem weiteren Beispiel kann bei Berührung der Anwendungstaste die Steuerung derart arbeiten, dass sie eine von einem Nutzer zuletzt aktivierte Anwendung in den aktivierten Zustand steuert.
  • Mit zunehmender Anzahl der Kandidaten, die sich als zusätzliche Navigationstasten in einer Kandidatenliste konfigurieren lassen, kann auch die Anzahl der Kombinationsbeispiele ansteigen, die sich durch das in 5(a) und 5(b) dargestellte Auswahlmenü bereitstellen lässt.
  • Die in der vorstehenden Beschreibung genannten zusätzlichen Navigationstasten werden lediglich zum Schaffen einer klaren Beschreibung aufgezählt und sollen die vorliegende Erfindung nicht einschränken. Ferner können auch verschiedene Arten von zusätzlichen Navigationstasten als die in den vorstehenden Zeichnungen dargestellten zusätzlichen Navigationstasten vorgesehen sein.
  • In 5(a) und 5(b) werden ein Typ und eine Anordnung von einer in einem Navigationsbereich freiliegenden Navigationstaste entsprechend einem vorbestimmten Kombinationsbeispiel bestimmt, das durch ein Auswahlmenü aus den Kombinationsbeispielen ausgewählt wird. Alternativ hierzu können ein Typ und eine Anordnung einer auf einem Navigationsbereich angezeigten Navigationstaste manuell eingestellt werden. Dies wird im Folgenden unter Bezugnahme auf 7 ausführlich beschrieben.
  • 7 zeigt eine schematische Darstellung zur Erläuterung eines Beispiels zum manuellen Festlegen eines Typs und einer Anordnung einer Navigationstaste.
  • Unter Bezugnahme auf 7(a) kann eine Steuerung einen derartigen Steuervorgang veranlassen, dass ein Auswahlmenü zum Auswählen von Navigationstasten, die durch einen Navigationsbereich angezeigt werden sollen, zur Anzeige gebracht werden. Ferner kann eine Kandidatenliste von Navigationstasten, die sich auf dem Navigationsbereich anzeigen lassen, in dem Einstellmenü angezeigt werden. Wenn mindestens eine Navigationstaste aus der Kandidatenliste ausgewählt wird, kann die Steuerung die ausgewählte Taste(n) zum Freilegen derselben in dem Navigationsbereich steuern. Zum Erleichtern der Erkennung der Typen und Anordnungen der in dem Navigationsbereich freiliegenden Navigationstasten kann die Steuerung einen Steuervorgang zum Anzeigen eines Vorschaubildes in dem Navigationsbereich in einem Vorschaubereich 710 veranlassen.
  • In dem in 7(a) veranschaulichten Beispiel werden zwingend erforderliche Navigationstasten 712, 714 und 716 aus der Kandidatenliste ausgewählt. Somit können nur die zwingend erforderlichen Navigationstasten 722, 724 und 726 in dem Navigationsbereich 720 freigelegt werden. Wenn eine zusätzliche Navigationstaste aus dem in 7(a) dargestellten Auswahlmenü ausgewählt wird, kann die Steuerung die zusätzliche Navigationstaste in dem Navigationsbereich zusätzlich zur Anzeige bringen. Wenn z. B. eine Schnellmemo-Taste 718 aus der in 7(a) gezeigten Kandidatenliste ausgewählt wird, kann die Steuerung unter Bezugnahme auf 7(b) die Schnellmemo-Taste 728 zusätzlich auf dem Navigationsbereich 720 zur Anzeige bringen.
  • Eine Anordnungsreihenfolge der Navigationstasten in dem Navigationsbereich kann entsprechend einer in der Kandidatenliste freiliegenden Abfolge bestimmt werden. Da eine Löschtastenauswahl 712, eine Home-Tastenauswahl 714, eine Menütastenauswahl 716 und eine Schnellmemo-Tastenauswahl 718 in der in 7(b) gezeigten Kandidatenliste in einer Reihenfolge von oben nach unten angeordnet sind, können die Löschtaste 722, die Home-Taste 724, die Menütaste 726 und die Schnellmemo-Taste 728 in dem Navigationsbereich in der der Anordnungsreihenfolge der Kandidatenliste entsprechenden Reihenfolge angeordnet werden. Wenn eine Navigationstasten-Anordnungsreihenfolge in der Kandidatenliste verändert wird, kann die Steuerung eine Veränderung der Anordnungsreihenfolge der Navigationstasten in dem Navigationsbereich in einer derartigen Weise veranlassen, dass diese der veränderten Anordnungsreihenfolge in der Kandidatenliste folgt. Wenn z. B. die Schnellmemo-Tastenauswahl 718 ansprechend auf eine Berührungseingabe eines Nutzers zwischen die Home-Tastenauswahl 714 und die Menütastenauswahl 716 eingeschoben wird, kann unter Bezugnahme auf 7(c) die Steuerung die Navigationstasten in eine derartige Anordnung steuern, dass diese in der Reihenfolge der Löschtaste 722, der Home-Taste 724, der Schnellmemo-Taste 728 und der Menütaste 726 angeordnet sind.
  • Dagegen kann die Steuerung die Anordnung von Navigationstasten in Reaktion auf eine Berührungseingabe des Nutzers in einem Vorschaubild (in der Zeichnung nicht dargestellt) einstellen. Wenn z. B. eine Position der Löschtaste und eine Position der Menütaste in dem in 7(a) gezeigten Vorschaubereich miteinander vertauscht werden, wird das Resultat des Wechsels in dem Vorschaubereich exakt bei dem Navigationsbereich zur Anwendung gebracht, so dass eine Position der Löschtaste und eine Position der Menütaste auch in dem Navigationsbereich miteinander getauscht werden können.
  • Eine Farbe oder Transparenz eines Navigationsbereichs, ein Stil von Navigationstasten, die auf dem Navigationsbereich angezeigt werden, und/oder dergleichen können nach Vorgaben des Nutzers geändert werden. Dies wird im Folgenden unter Bezugnahme auf 8 ausführlich beschrieben.
  • 8 zeigt eine schematische Darstellung zur Erläuterung eines Beispiels zum Ändern eines Themas eines Navigationsbereichs.
  • Unter Bezugnahme auf 8 können ein Themenbereich 810 zum Einstellen einer Farbe und/oder Transparenz eines Navigationsbereichs sowie ein Tastenstilbereich 820 zum Anzeigen eines Stils von Tasten vorgesehen sein, die durch den Navigationsbereich angezeigt werden.
  • Durch Auswählen eines bestimmten Kandidaten aus den mehreren in dem Themenbereich 810 aufgezählten Kandidaten kann ein Nutzer eine Farbe oder Transparenz des Navigationsbereichs ändern. Wenn z. B. ”Rot” aus dem in 8 gezeigten Themenbereich ausgewählt wird, kann die Steuerung eine Anzeige des Navigationsbereichs in Rot veranlassen. Die Navigationstaste kann somit auf einem roten Hintergrund angezeigt werden.
  • Bei Änderung einer Farbe des Navigationsbereichs kann die Steuerung die Farbe einer auf dem Navigationsbereich angezeigten Navigationstaste automatisch ändern. Hierbei kann zur Sicherstellung der Sichtbarkeit der Navigationstaste die Steuerung die Farbe der Navigationstaste als Komplementärfarbe zu der Farbe des Navigationsbereichs einstellen.
  • Durch Auswahl eines bestimmten Kandidaten aus den in dem Stilbereich 820 aufgezählten Kandidaten kann ein Nutzer einen Stil von Navigationstasten einstellen, die durch den Navigationsbereich angezeigt werden. Beispielsweise dient die Auswahl A zur Anzeige der Navigationstasten in einer viereckigen Form. Die Auswahl B dient zur Anzeige der Navigationstasten in einer viereckigen Form, bei der eine Ecke bzw. ein Endbereich von jeder der an den beiden Enden befindlichen Navigationstasten abgerundet ist. Bei der Auswahl C und der Auswahl D werden die Navigationstasten jeweils in Symbol-Form ohne diese abgrenzenden Grenzen zwischen den Navigationstasten angezeigt. Insbesondere können bei der Auswahl C die Navigationstasten in dünnen durchgezogenen Linien angezeigt werden. Bei der Auswahl D können die Navigationstasten in dicker durchgezogener Linie angezeigt werden.
  • Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung kann die Steuerung eine Anordnung der Navigationstasten oder einen Navigationstastentyp in Reaktion auf eine Berührungseingabe an einem Navigationsbereich ändern. Dies wird unter Bezugnahme auf 9A und 9B nachfolgend ausführlich beschrieben.
  • 9A zeigt eine schematische Darstellung zur Erläuterung eines Beispiels zum Ändern einer Navigationstastenanordnung in Reaktion auf eine Berührungseingabe an einem Navigationsbereich, und 9B zeigt eine schematische Darstellung zur Erläuterung eines Beispiels zum Ändern eines Navigationstastentyps in Reaktion auf eine Berührungseingabe an einem Navigationsbereich.
  • Wenn unter Bezugnahme auf 9A eine Berührungseingabe an dem einen Ende eines Navigationsbereichs empfangen wird (z. B. wenn eine Nutzereingabe in Form einer Berührung an dem einen Ende des Navigationsbereichs für eine bestimmte Dauer empfangen wird), kann die Steuerung eine Veränderung der Anordnung der Navigationstasten veranlassen. Wenn z. B. eine Berührungseingabe in Form einer langen Druckbeaufschlagung an einem linken Ende des Navigationsbereichs empfangen wird, kann die Steuerung die Navigationstasten zum Ausführen einer Bewegung jeweils um ein Kästchen bzw. eine Einheit in Richtung nach links veranlassen. Hierdurch wird die Navigationstaste 902, die ganz links angeordnet war, zur Seite ganz rechts bewegt. Wenn als weiteres Beispiel eine Berührungseingabe in Form einer langen Druckbeaufschlagung an einem rechten Ende des Navigationsbereichs empfangen wird, kann die Steuerung die Navigationstasten zum Ausführen einer Bewegung jeweils um eine Einheit in Richtung nach rechts veranlassen (in der Zeichnung nicht dargestellt). Somit kann die Steuerung die Anordnung der Navigationstasten ansprechend auf eine Berührungseingabe an einem der beiden Enden des Navigationsbereichs ändern.
  • Wenn unter Bezugnahme auf 9B eine Berührungseingabe an einer bestimmten, auf einem Navigationsbereich angezeigten Navigationstaste empfangen wird (wenn z. B. eine Nutzereingabe in Form einer Berührung einer bestimmten Navigationstaste für eine bestimmte Zeitdauer empfangen wird), kann die Steuerung die Anzeige einer neuen Navigationstaste in einer derartigen Weise veranlassen, dass sie die durch die Berührungseingabe ausgewählte vorherige Navigationstaste ersetzt. Wenn z. B. eine Berührungseingabe in Form einer langen Druckbeaufschlagung an einer Schnellmemo-Taste 908 empfangen wird, kann die Steuerung eine Liste 910 von Tastenkandidaten anzeigen, die jeweils anstelle der Schnellmemo-Taste 908 angezeigt werden können. Wenn ein bestimmter Tastenkandidat aus der Tastenkandidatenliste 910 ausgewählt wird, kann die Steuerung die ausgewählte bestimmte Taste (z. B. eine in 9B gezeigte Suchtaste 912) anstelle der Schnellmemo-Taste 908 zur Anzeige bringen.
  • Ein mobiles Endgerät gemäß der vorliegenden Erfindung kann eine zwingend erforderliche Navigationstaste als nicht austauschbar vorgeben und kann nur eine zusätzliche Navigationstaste als austauschbar vorgeben, um dadurch die zwingend erforderliche Navigationstaste von der zusätzlichen Navigationstaste zu unterscheiden. Optional kann selbstverständlich auch die Möglichkeit verfügbar sein, die zwingend erforderliche Navigationstaste auszutauschen.
  • Wie in der vorstehenden Beschreibung der Ausführungsbeispiele erwähnt, können verschiedene Vorgaben in Bezug auf einen Navigationsbereich und in dem Navigationsbereich freiliegende Navigationstasten von einem Nutzer manuell eingestellt werden. Der Navigationsbereich und die durch den Navigationsbereich angezeigten Navigationstasten werden im Folgenden ausführlich beschrieben.
  • <Anzeige der Pfeiltaste>
  • Eine Steuerung kann zusätzlich eine Anzeige einer Pfeiltaste in einem Navigationsbereich zusätzlich zu Navigationstasten veranlassen. Die Pfeiltaste kann zum Einstellen der Position eines Cursors verwendet werden, der eine Region angibt, an der Text eingegeben wird. Ob eine Pfeiltaste in einem Navigationsbereich angezeigt werden soll, kann von einem Nutzer manuell eingestellt werden oder kann ansprechend auf einen Betriebsstatus eines mobilen Endgeräts automatisch festgelegt werden. Beispielsweise kann nur dann, wenn ein Cursor zur Eingabe von Text durch ein mobiles Endgerät angezeigt wird, eine Steuerung die Anzeige einer Pfeiltaste veranlassen.
  • 10 zeigt eine schematische Darstellung zur Erläuterung eines Beispiels zum Anzeigen einer Pfeiltaste auf einem Navigationsbereich.
  • Unter Bezugnahme auf 10(a) kann eine Steuerung ein Paar von Pfeiltasten 1002 und 1004 an beiden Enden eines Navigationsbereichs zur Anzeige bringen. Wenn die eine des Paares der Pfeiltasten 1002 und 1004 berührt wird, kann die Steuerung die Position eines Cursors 1010 entsprechend einer Richtung einstellen, die von der berührten Taste angezeigt wird.
  • Während die Berührung der Pfeiltaste aufrechterhalten wird und sich der Cursor in der durch die Pfeiltaste angezeigten Richtung weiter bewegt, kann die Steuerung einen Text auswählen, der sich auf einem Bewegungsweg des Cursors befindet. Wenn z. B. eine Berührung eines linken Pfeils für eine bestimmte Zeitdauer aufrechterhalten bleibt, kann unter Bezugnahme auf 10(b) die Steuerung einen Text auswählen, der sich auf einem Weg des Cursors befindet, der sich über die bestimmte Zeitdauer der Aufrechterhaltung der Berührung des linken Pfeils bewegt hat (vgl. Bezugszeichen 1020). In diesem Fall kann der ausgewählte Text durch Kopieren, Ausschneiden oder dergleichen vorübergehend in einem Speicher gespeichert werden.
  • In dem in 10 gezeigten Beispiel befindet sich ein Paar der Pfeiltasten 1002 und 1004 an den beiden Enden des Navigationsbereichs. Alternativ hierzu können Positionen der Pfeiltasten auch unterschiedlich von den in 10 gezeigten vorgegeben sein.
  • <Navigationstastenverlegung>
  • Wenn ein mobiles Endgerät in einer Hand gehalten wird, kann die Berührung einer Navigationstaste schwierig sein, die sich in einer gegenüberliegenden Richtung zu der Hand befindet, mit der das mobile Endgerät gehalten wird. Insbesondere wenn ein Nutzer ein mobiles Endgerät mit seiner rechten Hand halt, kann es für den Nutzer unbequem sein, mit seiner rechten Hand eine Navigationstaste zu berühren, die sich in einem linken Teil des Navigationsbereichs befindet. Wenn ein Nutzer ein mobiles Endgerät mit seiner linken Hand hält, kann es gleichermaßen für den Nutzer unbequem sein, mit seiner linken Hand eine Navigationstaste zu berühren, die sich in einem rechten Teil des Navigationsbereichs befindet. Zum Überwinden der vorstehend genannten Unannehmlichkeit kann eine Steuerung eine vorübergehende Änderung einer Nutzung einer an dem einen Ende eines Navigationsbereichs befindlichen Navigationstaste in eine Nutzung einer an dem anderen Ende des Navigationsbereichs befindlichen Navigationstaste ändern. Dies wird im Folgenden unter Bezugnahme auf 11 ausführlich beschrieben.
  • 11 zeigt eine schematische Darstellung zur Erläuterung eines Beispiels zum vorübergehenden Ändern einer Nutzung einer Navigationstaste. Zur Klarstellung der nachfolgenden Beschreibung sei angenommen, dass eine Löschtaste 1102, eine Home-Taste 1104 und eine Menütaste 1106 in einer Reihenfolge von links nach rechts nacheinander in einem Navigationsbereich 1110 angeordnet sind.
  • Wenn unter Bezugnahme auf 11 eine Berührungseingabe in Form einer Berührung der an dem rechten Ende des Navigationsbereichs 1110 angeordneten Menütaste 1106 für eine bestimmte Zeitdauer empfangen wird (11(a)), kann eine Steuerung eine vorübergehende Änderung der Menütaste 1106 in die an dem linken Ende des Navigationsbereichs 1110 angeordnete Löschtaste 1102 vornehmen (11(b)). Wenn z. B. eine Berührungseingabe in Form einer Berührung der an dem linken Ende des Navigationsbereichs 1110 angeordneten Löschtaste 1102 für eine bestimmte Zeitdauer empfangen wird, kann die Steuerung die Löschtaste 1102 vorübergehend in die Menütaste 1162 ändern, die sich an dem rechten Ende des Navigationsbereichs 1110 befindet (in der Zeichnung nicht dargestellt). Die geänderte Navigationstaste kann nach Ablauf einer vorbestimmten Zeitdauer zur ursprünglichen Navigationstaste zurückkehren.
  • <Änderung der Navigationstasten-Vorgaben unter Berücksichtigung der Position der Hand zum Halten des mobilen Endgeräts>
  • Wie in der vorstehenden Beschreibung erwähnt, kann es beim Halten eines mobilen Endgeräts mit einer Hand schwierig sein, eine Navigationstaste, die sich in einer der Hand gegenüberliegenden Richtung befindet, mit der Hand zu berühren, mit der das mobile Endgerät gehalten wird. Um einem Nutzer eine bequeme Betätigung eines Navigationsbereichs zu verschaffen, kann eine Steuerung eine Anzeigeposition oder eine Anzeigegröße einer Navigationstaste in einem Navigationsbereich nach Maßgabe einer Position einer Hand einstellen, mit der ein mobiles Endgerät gehalten wird. Eine Betätigung eines mobilen Endgeräts in Reaktion auf eine Position einer das mobile Endgerät haltenden Hand wird im Folgenden unter Bezugnahme auf 12 und 13 ausführlich beschrieben.
  • 12 zeigt eine schematische Darstellung zur Erläuterung eines Beispiels zum Einstellen einer Anzeigestelle von Navigationstasten in Reaktion auf eine Position einer Hand, mit der ein mobiles Endgerät gehalten wird.
  • Unter Bezugnahme auf 12 kann zur Verbesserung der Bequemlichkeit beim Berühren einer Navigationstaste in einem Navigationsbereich mit einer Hand, mit der ein mobiles Endgerät gehalten wird, eine Steuerung Navigationstasten in dem Navigationsbereich derart steuern, dass sich diese in erster Linie in der gleichen Richtung wie eine Position der das mobile Endgerät haltenden Hand befinden. Wenn z. B. ein Nutzer ein mobiles Endgerät mit seiner linken Hand hält, kann unter Bezugnahme auf 12(a) die Steuerung die Navigationstasten 1202, 1204 und 1206 derart steuern, dass sich diese in erster Linie auf der linken Seite befinden. Wenn bei einem weiteren Beispiel ein Nutzer ein mobiles Endgerät mit seiner rechten Hand hält, kann die Steuerung unter Bezugnahme auf 12(b) die Navigationstasten 1202, 1204 und 1206 derart steuern, dass sich diese in erster Linie auf der rechten Seite befinden. Wenn ein Nutzer ein mobiles Endgerät mit der Hand hält, kann somit der Nutzer eine Navigationstaste, die sich gegenüber der das mobile Endgerät haltenden Hand befindet, in bequemerer Weise mit der das mobile Endgerät haltenden Hand berühren.
  • 13 zeigt eine schematische Darstellung zur Erläuterung eines Beispiels zum Einstellen einer Größe einer Navigationstaste in Reaktion auf eine Position einer Hand, mit der ein mobiles Endgerät gehalten wird.
  • Unter Bezugnahme auf 13 kann zur Verbesserung der Bequemlichkeit beim Betätigen von Navigationstasten in einem Navigationsbereich mit einer Hand, mit der ein mobiles Endgerät gehalten wird, eine Steuerung Navigationstasten in dem Navigationsbereich derart steuern, dass die Größe derselben proportional zu einer Distanz von der das mobile Endgerät haltenden Hand zunimmt.
  • Wenn z. B. ein Nutzer ein mobiles Endgerät mit seiner linken Hand hält, kann unter Bezugnahme auf 13(a) die Steuerung die Navigationstasten 1302, 1304 und 1306 dazu veranlassen, dass diese von der linken Seite des Navigationsbereichs in Richtung auf die rechte Seite des Navigationsbereichs in ihrer Größe allmählich zunehmen. Als weiteres Beispiel kann, wenn ein Nutzer ein mobiles Endgerät mit seiner rechten Hand hält, die Steuerung unter Bezugnahme auf 13(b) die Navigationstasten 1302, 1304 und 1306 derart steuern, dass diese von der rechten Seite des Navigationsbereichs in Richtung zur linken Seite des Navigationsbereichs in ihrer Größe allmählich zunehmen. Wie in der vorstehenden Beschreibung der Beispiele in Bezug auf 12 und 13 beschrieben, steuert die Steuerung Navigationstasten derart, dass sich diese in erster Linie auf der einen Seite in einem Navigationsbereich befinden oder sich in ihrer Größe ungleich voneinander unterscheiden, um auf diese Weise die Betätigung der Navigationstasten mit der das mobile Endgerät haltenden Hand zu erleichtern.
  • Die Position der das mobile Endgerät haltenden Hand kann auf der Basis eines Detektionssignals einer Erfassungseinheit oder einer Berührungseingabe von einem Nutzer bestimmt werden. Beispielsweise kann bei Empfang einer Wisch-Eingabe in Richtung nach links entlang einer Bewegungsbahn über mindestens eine Navigationstaste innerhalb eines Navigationsbereichs eine Steuerung feststellen, dass der Nutzer ein mobiles Endgerät mit seiner linken (oder rechten) Hand hält. Dagegen kann bei Empfang einer Wisch-Eingabe in Richtung nach rechts entlang einer Bewegungsbahn über mindestens eine Navigationstaste innerhalb eines Navigationsbereichs eine Steuerung feststellen, dass der Nutzer das mobile Endgerät mit seiner rechten (oder linken) Hand hält.
  • <Redundante Bereitstellung von Navigationstasten>
  • In der vorstehenden Beschreibung in Bezug auf die Begleitzeichnungen ist ein bestimmter Bereich eines unteren Teils einer Anzeigeeinheit als Navigationsbereich vorgegeben. Wenn in diesem Fall ein Nutzer einen oberen Teil der Anzeigeeinheit hält, so kann dies für den Nutzer bei der Betätigung des Navigationsbereichs unbequem werden. Aus diesem Grund kann eine Steuerung in redundanter Weise Navigationstasten über den Navigationsbereich bereitstellen. Dies wird im Folgenden unter Bezugnahme auf 14 ausführlich beschrieben.
  • 14 zeigt eine schematische Darstellung zur Erläuterung eines Beispiels zum redundanten Bereitstellen von Navigationstasten.
  • Wenn unter Bezugnahme auf 14 eine Drag&Drop- bzw. Ziehen-und-Fallenlassen-Eingabe von innerhalb eines Navigationsbereichs 1410 nach außerhalb des Navigationsbereichs 1410 ausgeführt wird (14(a)), kann eine Steuerung ein Navigationsobjekt 1420, das zum Durchblättern von Navigationstasten vorgesehen ist, an dem Drop- bzw. Loslasspunkt anzeigen (14(b)). Eine Position des Navigationsobjekts 1420 kann ansprechend auf eine Berührungseingabe eines Nutzers beliebig verändert werden. Wenn z. B. unter Bezugnahme auf 14(b) und 14(c) eine Drag&Drop-Eingabe an dem Navigationsobjekt 1420 stattfindet, wird eine Anzeigeposition des Navigationsobjekts zu dem Loslasspunkt verlagert. Bei Berührung des Navigationsobjekts 1420 steuert die Steuerung eine Größe des Navigationsobjekts 1420 und veranlasst dann eine Anzeige derselben Navigationstasten 1402, 1404 und 1406, die durch den Navigationsbereich 1410 bereitgestellt werden, durch das vergrößerte Navigationsobjekt. Somit können die Navigationstasten 1402, 1404 und 1406 in redundanter Weise sowohl durch das Navigationsobjekt 1420 als auch den Navigationsbereich 1410 bereitgestellt werden.
  • Wenn ein Navigationsobjekt verwendet wird, ist ein Nutzer in der Lage, eine Anzeige von Navigationstasten an jeweils gewünschten Stellen zu steuern. Die Zugriffsmöglichkeiten eines Nutzers zu den Navigationstasten sind somit gesteigert, wodurch auch der Betätigungskomfort für den Nutzer erhöht werden kann.
  • <Verbergen des Navigationsbereichs>
  • Wenn ein Teil eines Anzeigebereichs als Navigationsbereich zugewiesen wird, kann eine Informationsmenge, die durch eine Anzeigeeinheit angezeigt werden kann, so weit wie der Navigationsbereich vermindert werden. Zum Verhindern, dass eine anzeigbare Informationsmenge aufgrund des Navigationsbereichs vermindert wird, verbirgt eine Steuerung den Navigationsbereich im Verlauf des Betriebs einer Anwendung und kann den Navigationsbereich bei Bedarf zu einem vorübergehenden Erscheinen desselben steuern. Dies wird im Folgenden unter Bezugnahme auf 15 ausführlich beschrieben.
  • 15 zeigt eine schematische Darstellung zur Erläuterung eines Beispiels zum Stoppen der Anzeige eines Navigationsbereichs.
  • Wenn unter Bezugnahme auf 15 eine Anwendung durch eine entsprechende Betätigung durch den Nutzer aktiviert ist, kann unter Bezugnahme auf 15(a) und 15(b) eine Steuerung ein Stoppen der Anzeige eines Navigationsbereichs 1510 steuern (z. B. ist in 15(a) und 15(b) ein Web-Browser aktiviert). Wenn die Anzeige des Navigationsbereichs 1510 gestoppt wird, kann ein aktiver Bildschirm der Anwendung in einer größeren Größe ausgegeben werden.
  • Während die Anwendung aktiv ist, kann die Steuerung bei Empfang einer entsprechenden Nutzereingabe die Anzeige des Navigationsbereichs 1510 vorübergehend wieder aufnehmen. Wenn z. B. eine Wisch-Eingabe in Richtung nach oben auf einen unteren Teil der Anzeigeeinheit aufgebracht wird (15(b)), kann die Steuerung eine Wiederaufnahme der Anzeige des Navigationsbereichs 1510 steuern (15(c)). Auf diese Weise kann der Nutzer das mobile Endgerät unter Nutzung des wieder angezeigten Navigationsbereichs 1510 in geeigneter Weise betätigen.
  • Wenn eine bestimmte Zeit ab einem Zeitpunkt der Nutzerbetätigung auf dem Navigationsbereich 1510 abläuft (d. h. wenn der Nutzer den Navigationsbereich 1510 innerhalb der bestimmten Zeit nicht betätigt), kann die Steuerung wiederum ein Stoppen der Anzeige des Navigationsbereichs 1510 steuern.
  • <Schalten mit dem Dock-Bereich>
  • Während das Bild eines Home-Bildschirms oder eine Liste installierter Anwendungen angezeigt wird, kann ein bestimmter Bereich eines Anzeigebereichs als Dock-Bereich vorgesehen werden. In diesem Fall handelt es sich bei dem Dock-Bereich um den Bereich, in dem von einem Nutzer häufig verwendete Icons bzw. Symbole versammelt sind. Selbst wenn eine Seite eines Home-Bildschirmbilds oder eine Seite einer Anwendungssysteme geändert wird, kann der Dock-Bereich durch Fixierung daran beibehalten werden.
  • 16 zeigt eine schematische Darstellung zur Erläuterung eines Beispiels eines Dock-Bereichs.
  • Unter Bezugnahme auf 16 kann während der Ausgabe eines Home-Bildschirmbilds ein bestimmter Bereich einer Anzeigeeinheit als Dock-Bereich vorgegeben werden (16(a), 16(b)). Selbst wenn eine Seite des Home-Bildschirmbilds geändert wird, kann der Dock-Bereich fest beibehalten werden. Wie z. B. unter Bezugnahme auf 16(a) und 16(b) zu sehen ist, können selbst bei Änderung eines Home-Bildschirmbilds von Seite 1 auf Seite 2 Symbole in dem Dock-Bereich ohne Veränderung intakt beibehalten werden.
  • Zur Klarheit der nachfolgenden Beschreibung wird ein durch einen Dock-Bereich fest angezeigtes Symbol als Dock-Icon bzw. Dock-Symbol bezeichnet.
  • Wenn ein Dock-Bereich und ein Navigationsbereich fest zugewiesen sind, kann dies zu einem Problem dahingehend führen, dass eine Informationsmenge, die durch einen verbleibenden Bereich angezeigt werden kann, in Abhängigkeit von dem zugeordneten Dock-Bereich und Navigationsbereich reduziert wird. Zum Lösen dieses Problems kann ein mobiles Endgerät gemäß der vorliegenden Erfindung ein selektives Anzeigen entweder eines Dock-Bereichs oder eines Navigationsbereichs steuern. Dies wird unter Bezugnahme auf 17 nachfolgend ausführlich beschrieben.
  • 17 zeigt eine schematische Darstellung zur Erläuterung eines Beispiels zum Anzeigen eines Dock-Bereichs oder eines Navigationsbereichs in selektiver Weise.
  • Unter Bezugnahme auf 17(a) und 17(b) können Schalttasten bzw. Schaltflächen 1712 und 1722 in einem Navigationsbereich 1710 bzw. einem Dock-Bereich 1720 angezeigt werden. Wenn während der Anzeige des Navigationsbereichs 1710 die Schalttaste 1712 in dem Navigationsbereich 1710 berührt wird, stoppt eine Steuerung das Anzeigen des Navigationsbereichs 1710 und veranlasst dann ein Anzeigen des Dock-Bereichs 1720. Wenn dagegen bei Anzeige des Dock-Bereichs 1720 die Schalttaste 1722 in dem Dock-Bereich 1720 berührt wird, beendet die Steuerung die Anzeige des Dock-Bereichs 1720 und veranlasst dann ein Anzeigen des Navigationsbereichs 1710 (17(a)).
  • Somit kann die Anzeige ein selektives Anzeigen entweder des Navigationsbereichs 1710 oder des Dock-Bereichs 1720 steuern, wie dies in 17 gezeigt ist.
  • <Mit mehreren Seiten konfigurierter Navigationsbereich>
  • Ein mobiles Endgerät gemäß der vorliegenden Erfindung kann ein über einen Dock-Bereich ausgegebenes Dock-Symbol derart steuern, dass dieses über einen Navigationsbereich ausgegeben wird, anstatt eine Anzeige des Dock-Bereichs wegzulassen. Dies wird im Folgenden unter Bezugnahme auf 18 ausführlich beschrieben.
  • 18 zeigt eine schematische Darstellung zur Erläuterung eines Beispiels zum Anzeigen eines Dock-Symbols durch einen Navigationsbereich.
  • Wenn unter Bezugnahme auf 18 bei Anzeige von Navigationstasten 1812, 1814 und 1816 durch einen Navigationsbereich 1810 eine Berührungseingabe entlang einer Bewegungsbahn 1802 über den Navigationsbereich 1801 empfangen wird (18(a)), kann eine Steuerung ein Anzeigen von Dock-Symbolen 1822, 1824, 1826 und 1828 auf dem Navigationsbereich 1810 anstatt der Navigationstasten 1812, 1814 und 1816 (18(b)) steuern. Andererseits können bei Anzeige der Dock-Symbole 1822, 1824, 1826 und 1828 auf dem Navigationsbereich 1810 bei einer Berührungseingabe entlang einer Bewegungsbahn 1802 über den Navigationsbereich 1810 die Navigationstasten 1812, 1814 und 1816 anstelle der Dock-Symbole 1822, 1824, 1826 und 1828 angezeigt werden.
  • Wie bei dem in 18 gezeigten Beispiel kann die Steuerung den Navigationsbereich mit einer Seite, die die Navigationstasten 1812, 1814 und 1816 beinhaltet, sowie mit einer Seite konfigurieren, die die Dock-Symbole 1822, 1824, 1826 und 1828 beinhaltet. Wenn eine Nutzereingabe zum Ändern einer Seite für den Navigationsbereich empfangen wird, kann die Steuerung die Navigationstasten und die Dock-Symbole umschalten.
  • <Verbergen des Dock-Bereichs>
  • Ein mobiles Endgerät gemäß der vorliegenden Erfindung kann eine zum Einschalten/Ausschalten der Anzeige eines Dock-Bereichs ausgebildete Taste (die im Folgenden als Dock-Taste bezeichnet wird) zur Anzeige auf einem Navigationsbereich steuern. In Reaktion auf eine Nutzereingabe an der Dock-Taste kann eine Steuerung den Dock-Bereich anzeigen oder die Anzeige des Dock-Bereichs stoppen. Dies wird im Folgenden unter Bezugnahme auf 19 ausführlich beschrieben.
  • 19 zeigt eine schematische Darstellung zur Erläuterung eines Beispiels zum Einschalten/Ausschalten einer Anzeige eines Dock-Bereichs.
  • Unter Bezugnahme auf 19 kann eine Dock-Taste 1912 zum Einschalten/Ausschalten einer Anzeige eines Dock-Bereichs 1920 auf einem Navigationsbereich 1910 angezeigt werden (19(a)). Wenn bei nicht angezeigtem Dock-Bereich 1920 die Dock-Taste 1912 in dem Navigationsbereich 1910 berührt wird, kann eine Steuerung das Anzeigen des Dock-Bereichs 1920 veranlassen (19(b)). Wenn dagegen bei angezeigtem Dock-Bereich 1920 (19(b)) die Dock-Taste 1912 in dem Navigationsbereich 1910 berührt wird, kann die Steuerung das Anzeigen des Dock-Bereichs 1920 stoppen (19(a)).
  • Wie bei dem in 19 gezeigten Beispiel kann die Steuerung steuern, ob der Dock-Bereich 1920 angezeigt wird oder nicht, und zwar unter Verwendung der in dem Navigationsbereich 1910 vorhandenen Dock-Taste 1912. Da der Dock-Bereich 1920 nur dann freiliegt, wenn ein Nutzer dies möchte, kann mehr Information auf einem größeren Bereich angezeigt werden.
  • <Einstellungen von Haupttasten und untergeordneten Tasten>
  • Als ein Verfahren zum Reduzieren eines räumlichen Bereichs, der von einem Dock-Bereich oder einem Navigationsbereich eingenommen wird, kann eine Steuerung gleichzeitig Dock-Symbole und Navigationssymbole in einem einzigen integrierten Bereich bereitstellen. In diesem Fall kann eines der Dock-Symbole als Haupttaste vorgegeben werden, während ein anderes als Nebentaste bzw. untergeordnete Taste vorgegeben werden kann. Die Steuerung behandelt eine erste Berührungseingabe an dem integrierten Bereich als eine Eingabe zum Auswählen der Haupttaste und behandelt auch eine zweite Berührungseingabe an dem integrierten Bereich als Eingabe zum Auswählen der untergeordneten Taste, um hierdurch einem Nutzer eine geeignete Betätigung des Dock-Symbols und des Navigationsymbols zu ermöglichen. Dies wird im Folgenden unter Bezugnahme auf 20 ausführlich beschrieben.
  • 20 zeigt eine schematische Darstellung zur Erläuterung eines Beispiels zum Bereitstellen sowohl eines Dock-Symbols als auch eines Navigationssymbols in einem integrierten Bereich. 20(a) veranschaulicht ein Beispiel, bei dem Dock-Symbole 2012, 2014, 2016 und 2018 und Navigationstasten 2013, 2015, 2017 und 2019 durch einen Dock-Bereich 2010 gleichzeitig angezeigt werden. 20(b) zeigt ein Beispiel, bei dem Dock-Symbole 2023, 2025, 2027 und 2029 sowie Navigationstasten 2022, 2024, 2026 und 2028 durch einen Navigationsbereich 2020 gleichzeitig angezeigt werden.
  • Wenn Navigationstasten und Dock-Symbole gleichzeitig angezeigt werden, kann eine Steuerung die einen von den Navigationstasten und den Dock-Symbolen als Haupttasten einstellen und die jeweils anderen als untergeordnete Tasten einstellen.
  • 20(a) zeigt ein Beispiel einer Ausgabe, wenn die Dock-Symbole 2012, 2014, 2016 und 2018 und die Navigationstasten 2013, 2015, 2017 und 2019 als Haupttasten bzw. untergeordnete Tasten vorgegeben sind. Insbesondere kann eine als untergeordnete Taste eingestellte Navigationstaste mit dem als Haupttaste eingestellten Dock-Symbol verknüpft sein (z. B. sind das Telefonsymbol 2012 und die Löschtaste 2013 miteinander verknüpft, das Telefonbuchsymbol 2014 und die Home-Taste 2015 miteinander verknüpft, das Nachrichtensymbol 2016 und die Menütaste 2017 miteinander verknüpft sowie das Internetsymbol 2018 und das Schnellmenü-Symbol 2019 miteinander verknüpft). Wenn eine erste Berührungseingabe an einem der Dock-Symbole 2012, 2014, 2016 und 2018 stattfindet, die auf dem Dock-Bereich 2010 angezeigt werden, trifft die Steuerung die Feststellung, dass das Dock-Symbol ausgewählt ist, bei dem es sich um die Haupttaste handelt, und ist dann in der Lage, einen für das ausgewählte Dock-Symbol geeigneten Steuerbefehl zu verarbeiten. Wenn dagegen eine zweite Berührungseingabe an einem der auf dem Dock-Bereich 2010 angezeigten Dock-Symbole 2012, 2014, 2016 und 2018 eingegeben wird, trifft die Steuerung die Feststellung, dass die Navigationstaste ausgewählt ist, bei der es sich um die untergeordnete Taste handelt, wobei die Steuerung dann in der Lage ist, einen für die ausgewählte Navigationstaste geeigneten Steuerbefehl zu verarbeiten.
  • Wenn z. B. eine erste Berührungseingabe an dem Telefonsymbol 2012 empfangen wird, trifft die Steuerung die Feststellung, dass das Telefonsymbol 2012 ausgewählt ist und ist dann in der Lage, einen für das ausgewählte Symbol geeigneten Steuerbefehl zu verarbeiten. Wenn dagegen eine zweite Berührungseingabe an dem Telefonsymbol 2012 empfangen wird, trifft die Steuerung die Feststellung, dass die mit dem Telefonsymbol 2012 verknüpfte Löschtaste 2014 ausgewählt ist, und kann dann einen für die ausgewählte Taste geeigneten Steuerbefehl verarbeiten.
  • 20(b) veranschaulicht ein Beispiel einer Ausgabe, wenn die Navigationstasten 2022, 2024, 2026 und 2028 sowie die Dock-Symbole 2023, 2025, 2027 und 2029 als Haupttasten bzw. untergeordnete Tasten vorgegeben sind. Wie in der vorstehenden Beschreibung erwähnt, können die als untergeordnete Tasten eingestellten Dock-Symbole jeweils mit den als Haupttasten eingestellten Navigationstasten verknüpft sein.
  • Wenn eine erste Berührungseingabe an einer der Navigationstasten 2022, 2024, 2026 und 2028 stattfindet, die auf dem Navigationsbereich 2020 angezeigt werden, trifft die Steuerung die Feststellung, dass die Navigationstaste ausgewählt ist, bei der es sich um die Haupttaste handelt, und kann dann einen für die ausgewählte Navigationstaste geeigneten Steuerbefehl verarbeiten. Wenn dagegen eine zweite Berührungseingabe an einer der auf dem Navigationsbereich 2020 angezeigten Navigationstasten 2022, 2024, 2026 und 2028 stattfindet, trifft die Steuerung die Feststellung, dass das Dock-Symbol ausgewählt ist, bei dem es sich um die untergeordnete Taste handelt, und kann dann einen für das ausgewählte Dock-Symbol geeigneten Steuerbefehl verarbeiten.
  • Wenn z. B. die erste Berührungseingabe an der Löschtaste 2022 empfangen wird, trifft die Steuerung die Feststellung, dass die Löschtaste ausgewählt ist, und kann dann einen für die ausgewählte Taste geeigneten Steuerbefehl ausführen. Wenn dagegen eine zweite Berührungseingabe an der Löschtaste 2022 empfangen wird, trifft die Steuerung die Feststellung, dass das mit der Löschtaste 2022 verknüpfte Telefonsymbol ausgewählt ist, und kann dann einen für das ausgewählte Symbol geeigneten Steuerbefehl verarbeiten.
  • <Bildschirmpartitionierung>
  • Wenn ein Navigationsbereich durch einen Ziehvorgang verschoben wird, kann ein mobiles Endgerät gemäß einem Ausführungsbeispiel der vorliegenden Erfindung eine Partitionierung bzw. Unterteilung einer Anzeigeeinheit in mehrere Bereiche in Bezug auf eine Stelle steuern, zu der der Navigationsbereich verschoben worden ist. Dies wird im Folgenden unter Bezugnahme auf 21 ausführlich beschrieben.
  • 21 zeigt eine schematische Darstellung zur Erläuterung eines Beispiels zum Unterteilen einer Anzeigeeinheit in mehrere Bereiche zentriert auf einen Navigationsbereich.
  • Wenn unter Bezugnahme auf 21 eine Drag&Drop-Eingabe zum Verschieben eines Navigationsbereichs 2110, der sich in einem unteren Teil einer Anzeigeeinheit befindet, zu einem mittleren Teil der Anzeigeeinheit unter Verwendung eines Zeigers empfangen wird (21(a)), kann eine Steuerung ein Verschieben des Navigationsbereichs 2110 zu einer Loslass-Stelle des Zeigers veranlassen (21(b)). Dabei kann die Steuerung eine Unterteilung der Anzeigeeinheit in zwei Bereiche steuern, zwischen denen der Navigationsbereich 2110 angeordnet ist. Bei dem in 21(b) gezeigten Beispiel wird die Anzeigeeinheit in einen ersten Bereich II, der sich in einem oberen Teil von dem Navigationsbereich 2110 befindet, sowie einen zweiten Bereich II geteilt, der sich in einem unteren Teil von dem Navigationsbereich 2110 befindet. Durch den ersten Bereich I und den zweiten Bereich II kann die Steuerung gleichzeitig mehrere Aufgaben verarbeiten. Z. B. kann während einer Aktivierung einer ersten Anwendung in dem ersten Bereich I eine zweite Anwendung in dem zweiten Bereich II aktiviert sein.
  • während die Anzeigeeinheit in eine Mehrzahl von Bereiche unterteilt ist, kann eine Nutzereingabe an Navigationstasten eine Wirkung auf einen bestimmten Bereich einer Mehrzahl der Bereiche haben.
  • Beispielsweise kann nach einer Berührung des ersten Bereichs I sowie bei Berührung von Navigationstasten die Berührungseingabe an den Navigationstasten eine Wirkung nur auf den ersten Bereich I haben. Dagegen kann nach einer Berührung des zweiten Bereichs II sowie bei Berührung der Navigationstasten die Berührungseingabe an den Navigationstasten eine Wirkung nur auf den zweiten Bereich II haben.
  • Gemäß einem weiteren Beispiel kann nach einer Berührung der Navigationstasten mit einem Zeiger die Steuerung einen Bereich, auf den die Berührungseingabe eine Wirkung hat, entlang einer Bewegungsrichtung des Zeigers benennen. Wenn sich z. B. der Zeiger, mit dem die Navigationstasten berührt werden, in den ersten Bereich I hinein bewegt, kann die Steuerung einen Steuerbefehl, der der Navigationstastenauswahl zugeordnet ist, durch den ersten Bereich I verarbeiten. Wenn sich dagegen der Zeiger, mit dem die Navigationstasten berührt werden, in den zweiten Bereich II bewegt, kann die Steuerung einen Steuerbefehl, der der Navigationstastenauswahl zugeordnet ist, durch den zweiten Bereich II verarbeiten.
  • <Einstellen des Navigationstasten-Wirkungsbereichs>
  • Gemäß der Beschreibung des letzten Ausführungsbeispiels wird ein Bereich, auf den eine Navigationstaste eine Wirkung hat, in Abhängigkeit von einem Bereich bestimmt, der unmittelbar vor der Berührung der Navigationstaste berührt wird, oder in Abhängigkeit von einer Bewegungsrichtung eines Zeigers bestimmt, mit dem die Navigationstaste berührt wird.
  • Im Unterschied zu dem vorstehend beschriebenen Beispiel kann eine Steuerung einen Bereich, auf den eine Navigationstaste eine Wirkung hat, in Abhängigkeit von einer Position eines Navigationsbereichs bestimmen. Dies wird im Folgenden unter Bezugnahme auf 22 ausführlich beschrieben.
  • 22 zeigt eine schematische Darstellung zur Erläuterung eines Beispiels zum Bestimmen eines Wirkungsbereichs einer Navigationstaste in Abhängigkeit von einer Position eines Navigationsbereichs. Zur Klarheit der nachfolgenden Beschreibung sei angenommen, dass eine Anzeigeeinheit in zwei Bereiche I und II unterteilt ist.
  • Unter Bezugnahme auf 22 kann eine Steuerung eine Navigationstaste derart steuern, dass diese nur eine Wirkung auf einen unmittelbar über einem Navigationsbereich 2210 befindlichen Bereich hat. Wenn z. B. unter Bezugnahme auf 22(a) der Navigationsbereich 2210 unmittelbar unter der zweiten Region II angeordnet ist, kann die Steuerung die Navigationstaste derart steuern, dass diese nur auf den unmittelbar oberhalb des Navigationsbereichs 2210 befindlichen zweiten Bereich II eine Wirkung hat. Wenn eine Position des Navigationsbereichs 2210 in eine Position unmittelbar unter dem ersten Bereich I geändert wird, wie dies in 22(b) gezeigt ist, kann die Steuerung die Navigationstaste derart steuern, dass diese nur auf den unmittelbar über dem Navigationsbereich 2210 befindlichen ersten Bereich I eine Wirkung hat.
  • Ein Nutzer kann somit einen Bereich bestimmen, auf den eine Navigationstaste eine Wirkung hat, indem eine Position des Navigationsbereichs 2210 eingestellt wird.
  • <Navigationsbereich-Anzeige innerhalb Bereichspartitionierung>
  • Im Fall der Partitionierung einer Anzeigeeinheit eines mobilen Endgeräts in eine Mehrzahl von Bereichen kann eine Steuerung einen Steuervorgang zum Anzeigen eines Navigationsbereichs innerhalb von jedem von einer Mehrzahl der Bereiche ausführen. Dies wird im Folgenden unter Bezugnahme auf 23 ausführlich beschrieben.
  • 23 zeigt eine schematische Darstellung zur Erläuterung eines Beispiels zum Anzeigen eines Navigationsbereichs in einem Partitionierungsbereich. Zur Klarstellung der nachfolgenden Beschreibung sei angenommen, dass eine Anzeigeeinheit vier Unterbereiche I bis IV aufweist.
  • Unter Bezugnahme auf 23 kann eine Anzeigeeinheit mit einem Hauptnavigationsbereich 2310 versehen sein, um auf mindestens vier Unterbereiche I bis IV Wirkung zu nehmen. Eine Berührungseingabe an dem Hauptnavigationsbereich 2310 kann eine Wirkung auf eine der vier Unterbereiche aufweisen. Wie z. B. in der vorstehenden Beschreibung in Bezug auf 20 erwähnt, kann nach Berührung eines ersten Unterbereichs, wenn ein Navigationsbereich berührt wird, die Berührungseingabe an dem Navigationsbereich eine Wirkung nur auf den ersten Unterbereich haben.
  • Wenn ein Hauptnavigationsbereich 2310 zu einem bestimmten von den mehreren Unterbereichen I bis IV gezogen wird (z. B. wenn der Navigationsbereich in 23(a) zu dem zweiten Bereich II gezogen wird), kann die Steuerung unter Bezugnahme auf 23(b) einen untergeordneten Navigationsbereich 2310-2, der auf den Hauptnavigationsbereich 2310 folgt, innerhalb des ausgewählten Bereichs II zur Anzeige bringen.
  • Eine Berührungseingabe an einem untergeordneten Navigationsbereich innerhalb eines Unterbereichs kann nur auf den entsprechenden Bereich eine Wirkung haben, kann jedoch keine Wirkung für einen verbleibenden Bereich haben.
  • Wenn untergeordnete Navigationsbereiche 2310-1, 2310-2, 2310-3 und 2310-4 in jedem der untergeordneten Bereiche konfiguriert sind, wie dies in Bezug auf 23(c) zu sehen ist, kann die Steuerung das Anzeigen des Hauptnavigationsbereich 2310 zum Stoppen bringen.
  • <Ausgabebeispiel im Querformat-Modus>
  • In der vorstehenden Beschreibung in Bezug auf die Begleitzeichnungen wird davon ausgegangen, dass es sich bei einem Betrachtungsmodus der Anzeigeeinheit um einen vertikalen Betrachtungsmodus (d. h. einen Hochformat-Modus) handelt. Wenn ein Modus einer Anzeigeeinheit in einen horizontalen Betrachtungsmodus (d. h. einen Querformat-Modus) gebracht wird, wird eine Ausgabe der Anzeigeeinheit im Folgenden unter Bezugnahme auf die Begleitzeichnungen ausführlich beschrieben.
  • 24 und 25 zeigen schematische Darstellungen von Beispielen von Ausgaben an einer Anzeigeeinheit, die jeweils in einem Querformat-Modus angeordnet sind. Insbesondere zeigt 24 eine schematische Darstellung zur Erläuterung eines Beispiels in einem Fall, in dem ein Navigationsbereich an einem unteren Teil einer Anzeigeeinheit konfiguriert ist, während 25 eine schematische Darstellung zur Erläuterung eines Beispiels in einem Fall zeigt, in dem ein Navigationsbereich an einem rechten/linken Ende einer Anzeigeeinheit konfiguriert ist.
  • Wenn unter Bezugnahme auf 24(a) ein Modus einer Anzeigeeinheit in einen Querformat-Modus gebracht ist, kann eine Steuerung einen Navigationsbereich in einer Weise anzeigen, in der der Navigationsbereich in zwei Bereiche 2412 und 2414 unterteilt ist. Insbesondere kann bei Unterteilung des Navigationsbereichs in die beiden Bereiche die Steuerung die beiden Bereiche 2412 und 2414 auf der linken Seite bzw. der rechten Seite der Anzeigeeinheit zur Anzeige bringen. Ein Nutzer betätigt den linken Navigationsbereich und den rechten Navigationsbereich mit der linken Hand bzw. der rechten Hand, um auf diese Weise Navigationstasten einfach und bequem zu berühren.
  • Unter Bezugnahme auf 24(b) kann die Steuerung einen Navigationsbereich 2422 und einen Dock-Bereich 2424 zusammen in einer geraden Linie anordnen. Wenn der Navigationsbereich 2422 und der Dock-Bereich 2424 in gerader Linie angeordnet sind, kann der von dem Navigationsbereich 2422 und dem Dock-Bereich 2424 eingenommene Raum minimiert werden.
  • Wenn unter Bezugnahme auf 25(a) und 25(b) ein Modus einer Anzeigeeinheit in einen Querformat-Modus gebracht ist, kann eine Steuerung einen Navigationsbereich 2510 an einem rechten oder einem linken Ende der Anzeigeeinheit zur Anzeige bringen. Ob der Navigationsbereich 2510 an dem rechten oder dem linken Ende der Anzeigeeinheit angezeigt wird, kann von einem Nutzer manuell eingestellt werden.
  • Wenn der Navigationsbereich 2510 an einem von dem rechten und dem linken Ende der Anzeigeeinheit konfiguriert ist, kann der Dock-Bereich 2520 an dem jeweils anderen Ende konfiguriert sein. Auf diese Weise kann ein Nutzer den Navigationsbereich 2510 bzw. den Dock-Bereich 2520 unter Verwendung beider Hände betätigen.
  • Wenn dabei die Steuerung eine Neigung des mobilen Endgeräts detektiert oder der Nutzer eine Änderung eines Ausgabemodus der Anzeigeeinheit anweist, kann die Steuerung den Ausgabemodus der Anzeigeeinheit ändern.
  • Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung kann das vorstehend beschriebene Verfahren zum Ändern eines Typs und einer Anordnung einer Navigationstaste in einem Programmaufzeichnungsmedium in Form von Prozessor-lesbaren Codes implementiert werden. Die Prozessor-lesbaren Medien beinhalten alle möglichen Arten von Aufzeichnungsvorrichtungen, auf denen von einem Prozessor lesbare Daten gespeichert sind. Die Prozessor-lesbaren Medium beinhalten z. B. ROM, RAM, CD-ROM, Magnetbänder, Disketten, optische Datenspeichervorrichtungen und dergleichen und beinhalten auch Trägerwellen-Implementierungen (z. B. Übertragung über das Internet).
  • Die vorstehend beschriebenen Ausführungsformen sind jeweils durch Kombination von strukturellen Elementen und Merkmalen der vorliegenden Erfindung in einem bestimmten Typ implementiert. Jedes dieser strukturellen Elemente oder Merkmale sollte selektiv betrachtet werden, wenn keine separate Betrachtung angegeben ist. Jedes der strukturellen Elemente und Merkmale kann ohne Kombination mit anderen strukturellen Elementen oder Merkmalen ausgeführt werden. Auch können einige strukturellen Elemente und/oder Merkmale mit anderen kombiniert werden, um die Ausführungsformen der vorliegenden Erfindung zu bilden.
  • Die vorliegende Erfindung schafft somit die nachfolgend genannten Wirkungen und/oder Merkmale.
  • Als erstes schafft die vorliegende Erfindung ein mobiles Endgerät, das unter Verwendung von Softkeys zum Empfangen einer Nutzereingabe eines neuen Typs in der Lage ist, der sich von einem Typ des Standes der Technik unterscheidet.
  • Zweitens ermöglicht die vorliegende Erfindung einem Nutzer, die Festlegung eines Typs sowie einer Anordnung einer angezeigten Navigationstaste selbst vorzunehmen.
  • Für die Fachleute versteht es sich, dass verschiedene Modifikationen und Änderungen an der vorliegenden Erfindung vorgenommen werden können, ohne dass man den Gedanken oder den Umfang der Erfindung verlässt. Daher soll die vorliegende Erfindung solche Modifikationen und Änderungen der vorliegenden Erfindung mit umfassen, wenn diese im Umfang der beigefügten Ansprüche sowie deren Äquivalente liegen.

Claims (15)

  1. Mobiles Endgerät (100), aufweisend: eine Anzeige (151), die zum Anzeigen eines Navigationsbereichs ausgebildet ist, der Navigationstasten aufweist; und eine Steuerung (180), die zu Folgendem ausgebildet ist: Veranlassen der Anzeige (151) zum Anzeigen einer Liste von Navigationstasten-Kandidaten (710); Veranlassen der Anzeige (151) zum Anzeigen eines Vorschaubildes in einem Vorschaubereich (710), wobei das Vorschaubild aus der Liste ausgewählte Navigationstasten beinhaltet und eine Anordnung der Navigationstasten darstellt; Schalten der ersten Navigationstaste und der zweiten Navigationstaste in dem Vorschaubereich in Reaktion auf eine Berührungseingabe, bei der eine von einer ersten oder einer zweiten Navigationstaste in dem Vorschaubild berührt wird, wobei die Berührungseingabe empfangen wird, während das Vorschaubild auf der Anzeige (151) angezeigt wird; und Anzeigen des Navigationsbereichs entsprechend dem ausgeführten Schaltvorgang.
  2. Mobiles Endgerät (100) nach Anspruch 1, wobei die Steuerung (180) ferner dazu ausgebildet ist, die Anzeige (151) zum Anzeigen eines Einstellungs-Menüs zum Einstellen einer Transparenz des Navigationsbereichs zu veranlassen.
  3. Mobiles Endgerät (100) nach Anspruch 1 oder 2, wobei eine Navigationstaste eine Taste für eine letzte Anwendung darstellt, um eine Liste von zuletzt ausgeführten Anwendungen anzuzeigen.
  4. Mobiles Endgerät (100) nach Anspruch 1, wobei bei Berührung einer bestimmten Navigationstaste in dem Navigationsbereich die Steuerung dazu ausgebildet ist, die Anzeige (151) zum Anzeigen einer weiteren Mehrzahl von Tasten zu veranlassen.
  5. Mobiles Endgerät (100) nach einem der Ansprüche 1 bis 4, wobei die Navigationstasten mindestens eine von einer Home-Taste zum Wechseln zu einem Home-Bildschirm, der bei Aktivierung des mobilen Endgeräts zu Beginn angezeigt wird, und einer Löschtaste zum Löschen eines eingegebenen Nutzerbefehls aufweist.
  6. Mobiles Endgerät (100) nach einem der Ansprüche 1 bis 4, wobei dann, wenn das mobile Endgerät (100) mit der linken Hand eines Nutzers gegriffen wird, die Steuerung (180) dazu ausgebildet ist, eine Anzeige der Navigationstasten auf der linken Seite der Anzeige (151) zu veranlassen, und wenn das mobile Endgerät (100) mit der rechten Hand eines Nutzers gegriffen wird, die Steuerung (180) dazu ausgebildet ist, eine Anzeige der Navigationstasten auf der rechten Seite der Anzeige (151) zu veranlassen.
  7. Mobiles Endgerät (100) nach einem der Ansprüche 1 bis 6, wobei bei gestoppter Anzeige des Navigationsbereichs, so dass der Navigationsbereich von der Anzeige (151) verschwindet, die Steuerung (180) ferner dazu ausgebildet ist, die Anzeige (151) in Reaktion auf eine über die Anzeige (151) empfangene Berührungseingabe zum vorübergehenden Wiederaufnehmen der Anzeige des Navigationsbereichs zu veranlassen.
  8. Mobiles Endgerät (100) nach Anspruch 1, wobei die Steuerung (180) ferner zu Folgendem ausgebildet ist: Veranlassen eines Teilens der Anzeige (151) in einen ersten Bereich, auf dem eine erste Anwendung angezeigt wird, sowie einen zweiten Bereich, auf dem eine zweite Anwendung angezeigt wird, Steuern einer Aktion, die durch Betätigung von einer der Navigationstasten verursacht ist, derart, dass diese auf einen von dem ersten und dem zweiten Bereich einwirkt, wobei die Navigationstasten in dem Navigationsbereich sowohl zur Verwendung für die über den ersten Bereich angezeigte Anwendung als auch zur Verwendung für die über den zweiten Bereich angezeigte Anwendung zur Verfügung stehen, und wobei einer von dem ersten und dem zweiten Bereich durch eine Berührungseingabe ausgewählt wird und die Steuerung (180) dazu ausgebildet ist, die Aktion derart zu steuern, dass diese nur auf den ausgewählten Bereich von dem ersten und dem zweiten Bereich einwirkt.
  9. Mobiles Endgerät (100) nach einem der Ansprüche 1 bis 8, wobei die Steuerung (180) dazu ausgebildet ist: wenn eine erste Berührungseingabe an einer bestimmten Navigationstaste in dem Navigationsbereich vorgenommen wird, die Ausführung einer ersten Aktion zu veranlassen, und wenn eine zweite Berührungseingabe an der bestimmten Navigationstaste in dem Navigationsbereich vorgenommen wird, die Ausführung einer zweiten Aktion zu veranlassen.
  10. Mobiles Endgerät (100) nach Anspruch 1, wobei bei Änderung eines Anzeigemodus des mobilen Endgeräts (100) von einem Hochformat-Modus in einen Querformat-Modus die Steuerung (180) ferner dazu ausgebildet ist, den Navigationsbereich in zwei Teile zu unterteilen und die Anzeige (151) dann zu veranlassen, den einen Teil des Navigationsbereichs auf einer linken Seite der Anzeige (151) und den anderen Teil des Navigationsbereichs auf einer rechten Seite der Anzeige (151) anzuzeigen.
  11. Mobiles Endgerät (100) nach Anspruch 1, wobei die Steuerung (180) ferner zu Folgendem ausgebildet ist: Schalten der mindestens einen Navigationstaste in mindestens ein Dock-Symbol in dem Navigationsbereich; oder gleichzeitiges Anzeigen sowohl der mindestens einen Navigationstaste als auch des mindestens einen Dock-Symbols in dem Navigationsbereich.
  12. Mobiles Endgerät (100) nach Anspruch 9, wobei dann, wenn die erste Berührungseingabe an einer Löschtaste stattfindet, ein der Löschtaste entsprechender erster Steuerbefehl ausgeführt wird, und wobei dann, wenn die zweite Berührungseingabe an der Löschtaste stattfindet, ein einer untergeordneten Taste der Löschtaste entsprechender zweiter Steuerbefehl ausgeführt wird.
  13. Mobiles Endgerät (100) nach Anspruch 5 wobei die Navigationstasten ferner aufweisen: mindestens eine von einer Sprachtaste, um einen Modus eines mobilen Endgeräts in einen Spracheingabemodus zu versetzen und einem Nutzer eine Betätigung des mobilen Endgeräts mittels Sprache zu ermöglichen, einer Suchtaste zum Durchsuchen des Internets nach Daten, die zu einem von einem Nutzer eingegebenen Text passen, einer Lautstärkentaste zum Einstellen einer Lautstärke des mobilen Endgeräts und einer integrierten Zugriffstaste zum Anzeigen von Tasten, die mit einer Mehrzahl von Funktionen in Beziehung stehen.
  14. Mobiles Endgerät (100) nach Anspruch 1, wobei die Steuerung (180) dazu ausgebildet ist, die Anzeige (151) zum Anzeigen eines Objekts zum Anzeigen der Navigationstasten zu veranlassen, und wenn eine das Objekt berührende Berührungseingabe empfangen wird, die Anzeige (151) zum Anzeigen der Navigationstasten in Reaktion auf die Berührungseingabe zu veranlassen.
  15. Mobiles Endgerät (100) nach Anspruch 14, wobei sich das Objekt auf dem Touchscreen bewegen lässt, wobei es einer das Objekt ziehenden Zieh-Eingabe folgt.
DE202014010551.0U 2013-07-10 2014-05-13 Mobiles Endgerät Expired - Lifetime DE202014010551U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130081264A KR102044701B1 (ko) 2013-07-10 2013-07-10 이동 단말기
KR20130081264 2013-07-10

Publications (1)

Publication Number Publication Date
DE202014010551U1 true DE202014010551U1 (de) 2015-12-15

Family

ID=50980904

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202014010551.0U Expired - Lifetime DE202014010551U1 (de) 2013-07-10 2014-05-13 Mobiles Endgerät

Country Status (5)

Country Link
US (2) US9261994B2 (de)
EP (1) EP2824556A1 (de)
KR (1) KR102044701B1 (de)
CN (2) CN110262745B (de)
DE (1) DE202014010551U1 (de)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US10313505B2 (en) * 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US8458615B2 (en) * 2010-04-07 2013-06-04 Apple Inc. Device, method, and graphical user interface for managing folders
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
USD757103S1 (en) * 2013-06-18 2016-05-24 Huawei Technologies Co., Ltd. Display screen or portion thereof with icon
US9207764B2 (en) * 2013-09-18 2015-12-08 Immersion Corporation Orientation adjustable multi-channel haptic device
CN105849675B (zh) 2013-10-30 2019-09-24 苹果公司 显示相关的用户界面对象
CN105321515A (zh) * 2014-06-17 2016-02-10 中兴通讯股份有限公司 一种移动终端的车载应用控制方法、装置及终端
USD774062S1 (en) 2014-06-20 2016-12-13 Google Inc. Display screen with graphical user interface
USD882582S1 (en) * 2014-06-20 2020-04-28 Google Llc Display screen with animated graphical user interface
KR102156223B1 (ko) 2014-08-02 2020-09-15 애플 인크. 상황 특정 사용자 인터페이스
US10452253B2 (en) 2014-08-15 2019-10-22 Apple Inc. Weather user interface
US10444977B2 (en) * 2014-12-05 2019-10-15 Verizon Patent And Licensing Inc. Cellphone manager
USD763915S1 (en) * 2015-01-22 2016-08-16 Express Scripts, Inc. Display with a computer icon
CN104635946B (zh) * 2015-03-02 2017-09-01 广东欧珀移动通信有限公司 一种移动终端
WO2016144385A1 (en) 2015-03-08 2016-09-15 Apple Inc. Sharing user-configurable graphical constructs
CN104679408B (zh) * 2015-03-20 2020-02-21 联想(北京)有限公司 一种数据处理方法和装置
US10088993B2 (en) * 2015-04-01 2018-10-02 Ebay Inc. User interface for controlling data navigation
TW201642112A (zh) * 2015-05-22 2016-12-01 富智康(香港)有限公司 應用程式圖示更換系統及方法
CN106293444B (zh) * 2015-06-25 2020-07-03 小米科技有限责任公司 移动终端、显示控制方法及装置
CN104932776A (zh) * 2015-06-29 2015-09-23 联想(北京)有限公司 一种信息处理方法及电子设备
DE102015214305A1 (de) * 2015-07-29 2017-02-02 Robert Bosch Gmbh Vorrichtung und Verfahren zum Ausgeben eines Steuersignals sowie entsprechendes System
EP4321088A3 (de) 2015-08-20 2024-04-24 Apple Inc. Übungsbasiertes uhrengesicht und komplikationen
CN105892887A (zh) * 2016-03-30 2016-08-24 维沃移动通信有限公司 按键显示方法和移动终端
CN105975173A (zh) * 2016-03-30 2016-09-28 维沃移动通信有限公司 移动终端及其功能按键图标的显示方法
CN106095226B (zh) * 2016-06-01 2019-09-27 广州三星通信技术研究有限公司 在电子终端中运行应用程序的方法及设备
US20170357427A1 (en) * 2016-06-10 2017-12-14 Apple Inc. Context-specific user interfaces
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
KR102521192B1 (ko) * 2016-06-28 2023-04-13 삼성전자주식회사 전자 장치 및 그의 동작 방법
USD829738S1 (en) 2016-08-22 2018-10-02 Illumina, Inc. Display screen or portion thereof with graphical user interface
DK179412B1 (en) 2017-05-12 2018-06-06 Apple Inc Context-Specific User Interfaces
EP3680760A4 (de) 2017-09-08 2020-10-14 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Tastenanzeigeverfahren, vorrichtung und endgerät
EP3678008A4 (de) * 2017-09-08 2020-09-16 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Verfahren und vorrichtung zur anzeige von nachrichten und endgerät
CN107547750B (zh) * 2017-09-11 2019-01-25 Oppo广东移动通信有限公司 终端的控制方法、装置和存储介质
KR101969805B1 (ko) * 2017-09-15 2019-08-20 엘지전자 주식회사 차량 제어 장치 및 그것을 포함하는 차량
CN109634478A (zh) * 2017-10-09 2019-04-16 华为技术有限公司 人机交互的方法和电子设备
CN107844236A (zh) * 2017-10-17 2018-03-27 深圳市汉普电子技术开发有限公司 Ios导航控制器页面平滑过渡的方法、装置和存储介质
US10524010B2 (en) * 2017-11-07 2019-12-31 Facebook, Inc. Social interaction user interface for videos
CN110494835A (zh) * 2017-12-20 2019-11-22 华为技术有限公司 一种控制方法及装置
USD861025S1 (en) * 2018-01-23 2019-09-24 Whatsapp Inc. Display screen with an animated graphical user interface
USD870742S1 (en) * 2018-01-26 2019-12-24 Facebook, Inc. Display screen or portion thereof with animated user interface
US20240045564A1 (en) * 2018-05-07 2024-02-08 Apple Inc. Devices, Methods, and Graphical User Interfaces for Navigating Between User Interfaces, Displaying a Dock, and Displaying System User Interface Elements
US11327650B2 (en) 2018-05-07 2022-05-10 Apple Inc. User interfaces having a collection of complications
CN109391733B (zh) * 2018-08-21 2021-11-23 奇酷互联网络科技(深圳)有限公司 虚拟按键显示的方法、移动终端和存储介质
USD947233S1 (en) 2018-12-21 2022-03-29 Streamlayer, Inc. Display screen or portion thereof with transitional graphical user interface
USD997952S1 (en) 2018-12-21 2023-09-05 Streamlayer, Inc. Display screen with transitional graphical user interface
US11770579B2 (en) 2018-12-21 2023-09-26 Streamlayer, Inc. Method and system for providing interactive content delivery and audience engagement
CN109828712A (zh) * 2019-01-25 2019-05-31 努比亚技术有限公司 一种虚拟导航键的设置方法及装置、移动终端及存储介质
US11675476B2 (en) 2019-05-05 2023-06-13 Apple Inc. User interfaces for widgets
JP6921338B2 (ja) 2019-05-06 2021-08-18 アップル インコーポレイテッドApple Inc. 電子デバイスの制限された動作
US11131967B2 (en) 2019-05-06 2021-09-28 Apple Inc. Clock faces for an electronic device
US11960701B2 (en) 2019-05-06 2024-04-16 Apple Inc. Using an illustration to show the passing of time
CN110221741B (zh) * 2019-05-31 2021-01-08 维沃移动通信有限公司 图标管理方法及终端设备
EP3842908A1 (de) * 2019-12-25 2021-06-30 Shanghai Transsion Co., Ltd. Interaktionsverfahren für seitenleistenmenü, vorrichtung und computerlesbares speichermedium
US11372659B2 (en) 2020-05-11 2022-06-28 Apple Inc. User interfaces for managing user interface sharing
WO2021231345A1 (en) 2020-05-11 2021-11-18 Apple Inc. User interfaces for managing user interface sharing
DK202070625A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
USD1028999S1 (en) 2020-09-17 2024-05-28 Streamlayer, Inc. Display screen with transitional graphical user interface
US11694590B2 (en) 2020-12-21 2023-07-04 Apple Inc. Dynamic user interface with time indicator
US11720239B2 (en) 2021-01-07 2023-08-08 Apple Inc. Techniques for user interfaces related to an event
US11921992B2 (en) 2021-05-14 2024-03-05 Apple Inc. User interfaces related to time
US20230236547A1 (en) 2022-01-24 2023-07-27 Apple Inc. User interfaces for indicating time

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6072486A (en) * 1998-01-13 2000-06-06 Microsoft Corporation System and method for creating and customizing a deskbar
US7800592B2 (en) 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
WO2005096132A1 (en) * 2004-03-30 2005-10-13 Nokia Corporation Method of navigating, electronic device, user interface and computer program product
KR100831721B1 (ko) * 2006-12-29 2008-05-22 엘지전자 주식회사 휴대단말기의 디스플레이 장치 및 방법
US20080303796A1 (en) * 2007-06-08 2008-12-11 Steven Fyke Shape-changing display for a handheld electronic device
US9304658B2 (en) * 2007-12-30 2016-04-05 Qualcomm Incorporated On-screen menu buttons including multiple modes
KR101012300B1 (ko) * 2008-03-07 2011-02-08 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 사용자 인터페이스장치 및 그 방법
US20100008031A1 (en) * 2008-07-08 2010-01-14 Emblaze Mobile Ltd Ergonomic handheld device
US8171419B2 (en) * 2008-10-31 2012-05-01 Research In Motion Limited Method and system for remote media management on a touch screen device
US20100138765A1 (en) * 2008-11-30 2010-06-03 Nokia Corporation Indicator Pop-Up
US8315672B2 (en) 2008-12-01 2012-11-20 Research In Motion Limited Portable electronic device and method of controlling same
US8745024B2 (en) * 2011-04-29 2014-06-03 Logitech Europe S.A. Techniques for enhancing content
CN102508610A (zh) * 2011-11-17 2012-06-20 合一网络技术(北京)有限公司 一种媒体设备及媒体设备与用户的交互方法
CN106201316B (zh) * 2012-05-09 2020-09-29 苹果公司 用于选择用户界面对象的设备、方法和图形用户界面
US8769431B1 (en) * 2013-02-28 2014-07-01 Roy Varada Prasad Method of single-handed software operation of large form factor mobile electronic devices

Also Published As

Publication number Publication date
CN110262745B (zh) 2022-08-02
KR20150009046A (ko) 2015-01-26
EP2824556A1 (de) 2015-01-14
US9261994B2 (en) 2016-02-16
CN110262745A (zh) 2019-09-20
US20150015500A1 (en) 2015-01-15
KR102044701B1 (ko) 2019-11-14
CN104281405A (zh) 2015-01-14
US9817571B2 (en) 2017-11-14
CN104281405B (zh) 2019-06-21
US20160162184A1 (en) 2016-06-09

Similar Documents

Publication Publication Date Title
DE202014010551U1 (de) Mobiles Endgerät
DE202013012304U1 (de) Mobiles Endgerät
DE202014010511U1 (de) Mobiles Endgerät
DE102007061993B4 (de) Mobiles Endgerät mit einer Anzeigeeinheit sowie Anzeigeverfahren für ein mobiles Endgerät
DE202013012673U1 (de) Mobiles Endgerät
DE202009019104U1 (de) Mobiles Endgerät und Benutzerschnittstelle eines mobilen Endgeräts
DE202011110898U1 (de) Mobilgerät
DE202012013481U1 (de) Mobiles Endgerät
DE202011110922U1 (de) Mobiles Endgerät
DE602004005054T2 (de) Benutzerschnittstelle mit dynamischer Leiste
DE202013012417U1 (de) Mobiles Endgerät
DE202013012582U1 (de) Mobiles Endgerät
DE202011110735U1 (de) Mobiles Endgerät
DE202011110758U1 (de) Mobiles Endgerät
DE202008018297U1 (de) Mobiles Endgerät
DE202009018709U1 (de) Mobiles Endgerät
DE202011110681U1 (de) Mobile Vorrichtung zur Anzeige einer Sofortnachricht
DE202013011998U1 (de) Mobiles Endgerät
DE202011110595U1 (de) Mobiles Endgerät
DE102009039797B4 (de) Mobiles Endgerät
DE202014006254U1 (de) Mobiles Endgerät
DE202013012353U1 (de) Mobiles Endgerät und Steuerverfahren dafür
DE202010018239U1 (de) Mobiles Endgerät
DE202012013560U1 (de) Mobiles Endgerät
DE202013012389U1 (de) Mobiles Endgerät

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R082 Change of representative

Representative=s name: SCHMITT-NILSON SCHRAUD WAIBEL WOHLFROM PATENTA, DE

R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years
R071 Expiry of right