-
QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
-
Diese Anmeldung beansprucht den Vorteil des früheren Einreichungsdatums und des Prioritätsrechts der
koreanischen Patentanmeldung Nr. 10-2012-0023978 , eingereicht am 8. März 2012, deren Inhalt hier in seiner Gesamtheit durch Literaturhinweis eingefügt ist.
-
TECHNISCHES GEBIET
-
Die vorliegende Erfindung bezieht sich auf ein mobiles Endgerät und insbesondere auf ein mobiles Endgerät, das durch Anzeigen eines Steuerfensters zum Ausführen von Manipulationen an Inhalt, der auf einen Berührungsbildschirm angezeigt wird, auf der Grundlage der Position und/oder der Spur einer Berührungsaktion leichter manipuliert werden kann.
-
DISKUSSION DES VERWANDTEN GEBIETS
-
Als Funktionen von Endgeräten wie etwa Personal Computer, Laptop-Computern, einer Vielfalt von Mobiltelephonen, werden die Endgeräte zu Multimediaspielern, die mehrere Funktionen aufweisen, um Bilder oder Bewegtbilder zu erfassen, Musik- und Bewegtbilddateien abzuspielen, Spiele zu spielen und Rundfunkprogramme zu empfangen.
-
Endgeräte können als mobile Endgeräte und feststehende Endgeräte klassifiziert werden. Die mobilen Endgeräte können in Übereinstimmung damit, ob Nutzer die Endgeräte persönlich tragen können, ferner Handendgeräte und in ein Fahrzeug eingebaute Endgeräte umfassen. Herkömmliche Endgeräte einschließlich mobiler Endgeräte stellen eine zunehmende Anzahl komplexer und verschiedener Funktionen bereit.
-
Zur Unterstützung und Verbesserung der zunehmenden Anzahl von Funktionen in einem Endgerät wäre die Verbesserung eines strukturellen Teils und/oder eines Softwareteils des Endgeräts erwünscht.
-
In den letzten Jahren zeigen Anzeigen für mobile Endgeräte den Trend, immer größer zu werden, um verschiedene Informationen darzustellen.
-
ZUSAMMENFASSUNG
-
Die vorliegende Erfindung bezieht sich auf ein mobiles Endgerät, das durch das Anzeigen eines Steuerfensters zum Ausführen von Manipulationen an auf einem Berührungsbildschirm angezeigtem Inhalt auf der Grundlage der Position und/oder der Spur einer Berührungsaktion leichter manipuliert werden kann, und auf ein Steuerverfahren dafür.
-
In Übereinstimmung mit einem Aspekt der vorliegenden Erfindung enthält ein mobiles Endgerät: eine Anzeige; und einen Controller, der einen ersten Bildschirms anzeigt, der auf der Anzeige wenigstens ein Objekt enthält, einen zweiten Bildschirm mit einer gegenüber dem ersten Bildschirm verringerten Skale auf dem ersten Bildschirm überlappt, wenn er über die Anzeige eine vorgegebene Eingabe empfängt, und der das Anzeigen des ersten Bildschirms auf der Grundlage einer Eingabe über den zweiten Bildschirm steuert.
-
Dabei ist die Berührungseingabe eine Zieheingabe, die innerhalb eines Randgebiets vorgenommen wird, das wenigstens einen von mehreren Rändern des Berührungsbildschirms enthält.
-
Dabei sind sowohl ein Anfangspunkt als auch ein Endpunkt der Berührungstrajektorie in einem Randgebiet, das wenigstens einen von mehreren Rändern des Berührungsbildschirms enthält, enthalten.
-
Dabei stellt der Controller die Reichweite innerhalb einer durch einen Finger der Hand, die den Körper des Endgeräts hält, eingegebenen Berührungstrajektorie oder einer vorgegebenen Reichweite, die die Berührungstrajektorie enthält, als das Steuergebiet ein.
-
Dabei hängt die Größe des Steuergebiets von der Reichweite der Berührungstrajektorie ab.
-
Dabei hängt das Steuergebiet von einer bogenförmigen Berührungstrajektorie ab, die durch einen Finger der Hand, die den Körper des mobilen Endgeräts hält, eingegeben wird.
-
Dabei zeigt der Controller in dem Steuergebiet Anwendungen, die in Ausführung sind, oder ausführbare Anwendungen in dem mobilen Endgerät an, wenn die Länge der Berührungstrajektorie, die von einem spezifischen Punkt auf dem Berührungsbildschirm beginnt, größer als eine vorgegebene kritische Länge ist, wobei der Controller die durch die verlaufende Berührungstrajektorie ausgewählte Anwendung in einem Vordergrund ausführt, wenn die Berührungstrajektorie zu einer der angezeigten Anwendungen verläuft.
-
Dabei zeigt der Controller ferner auf dem zweiten Bildschirm eine Navigationsnutzerschnittstelle an und steuert er in Ansprechen auf eine Berührungseingabe über die Navigationsnutzerschnittstelle wenigstens ein auf dem ersten Bildschirm angezeigtes Objekt.
-
Wenn eine vorgegebene Eingabe für das Steuergebiet empfangen wird, wird die Größe des Steuergebiets geändert und wird der zweite Bildschirm dem Steuergebiet mit der geänderten Größe entsprechend angezeigt.
-
Dabei umfasst das mobile Endgerät ferner einen Lagesensor, wobei der Controller mittels des Lagesensors eine Neigung des mobilen Endgeräts erkennt und auf der Grundlage der Neigungsrichtung des mobilen Endgeräts eine Position zum Anzeigen des Steuergebiets bestimmt.
-
Dabei enthält die Anzeige einen Berührungsbildschirm und zeigt der Controller den zweiten Bildschirm auf der Grundlage des Berührungspunkts und der Berührungstrajektorie einer Berührungseingabe über den Berührungsbildschirm an.
-
Dabei enthält die Anzeige einen Berührungsbildschirm und zeigt der Controller den zweiten Bildschirm an, wenn er über den ersten Bildschirm eine lange Berührungseingabe empfängt.
-
Dabei führt der Controller eine Anwendung zum Steuern des Anzeigens des ersten Bildschirms aus und zeigt er im Ergebnis der Ausführung der Anwendung den zweiten Bildschirm auf der Anzeige an.
-
Dabei zeigt der Controller auf dem ersten Bildschirm ein Steuerobjekt zum Steuern des Anzeigens des ersten Bildschirms an und zeigt er den zweiten Bildschirm an, wenn er eine Eingabe, die das Steuerobjekt auswählt, empfängt.
-
Ferner umfasst das mobile Endgerät einen Hard Key, der an dem Körper des mobilen Endgeräts angebracht ist, um das Anzeigen des ersten Bildschirms zu steuern.
-
In Übereinstimmung mit einem anderen Aspekt der vorliegenden Erfindung enthält ein mobiles Endgerät: einen Berührungsbildschirm, der wenigstens ein Objekt anzeigt; einen Körper, der den Berührungsbildschirm stützt; wenigstens einen Sensor, der an dem Körper angeordnet ist, um das Halten eines Nutzers zu erfassen; und einen Controller, der aus dem Erfassungssignal von dem Sensor eine Halteposition des mobilen Endgeräts detektiert und der ein Steuerfenster zum Steuern wenigstens eines auf dem Berührungsbildschirm angezeigten Objekts auf dem Berührungsbildschirm unter Berücksichtigung der Halteposition des mobilen Endgeräts und des Berührungspunkts einer Berührungseingabe anzeigt, wenn die Berührungseingabe über den Berührungsbildschirm empfangen wird.
-
Dabei zeigt der Berührungsbildschirm in dem Steuerfenster wenigstens eines von wenigstens einem auf dem Berührungsbildschirm in dem Steuerfenster angezeigten Objekten an und steuert er das auf dem Berührungsbildschirm angezeigte Objekt in Ansprechen auf eine Berührungseingabe über das Steuerfenster.
-
Dabei zeigt der Controller das Steuerfenster innerhalb des Einsatzradius eines Fingers eines Nutzers, der das mobile Endgerät hält, an.
-
KURZBESCHREIBUNG DER ZEICHNUNGEN
-
Die beigefügten Zeichnungen, die enthalten sind, um ein weiteres Verständnis der Erfindung zu schaffen, und die in diese Anmeldung integriert sind und einen Bestandteil von ihr bilden, stellen eine oder mehrere Ausführungsformen der Erfindung dar und dienen zusammen mit der Beschreibung zur Erläuterung des Prinzips der Erfindung.
-
1 ist ein Blockschaltplan eines mobilen Endgeräts in Übereinstimmung mit einer Ausführungsform;
-
2 ist eine perspektivische Vorderansicht des mobilen Endgeräts in Übereinstimmung mit einer Ausführungsform;
-
3 ist eine perspektivische Rückansicht des mobilen Endgeräts in Übereinstimmung mit einer Ausführungsform;
-
4 ist eine perspektivische Vorderansicht eines mobilen Endgeräts in Übereinstimmung mit einer anderen Ausführungsform der vorliegenden Erfindung.
-
5 ist ein Ablaufplan, der eine Bedienprozedur des mobilen Endgeräts aus 1 zeigt;
-
6 und 7 sind Ansichten, die eine Berührungsaktion an dem mobilen Endgerät aus 1 zeigen;
-
8 und 9 sind Ansichten, die Bereiche des mobilen Endgeräts aus 1 zeigen;
-
10 bis 13 sind Ansichten, die eine Berührungsaktion an dem mobilen Endgerät aus 1 zeigen;
-
14 bis 16 sind Ansichten, die ein Steuerfenster zeigen, das durch eine Berührungsaktion an dem mobilen Endgerät aus 1 angezeigt wird.
-
17 ist eine Ansicht, die eine Änderung der Position des Steuerfensters in Ansprechen auf eine Berührungsaktion an dem mobilen Endgerät aus 1 zeigt;
-
18 bis 21 sind Ansichten, die ein Verfahren zum Manipulieren des Steuerfensters des mobilen Endgeräts aus 1 zeigen;
-
22 ist eine Ansicht, die ein Verfahren zum Manipulieren eines Telephonbuchs des mobilen Endgeräts aus 1 zeigt;
-
23 ist eine Ansicht, die ein Videobedienverfahren für das mobile Endgerät aus 1 zeigt;
-
24 und 25 sind eine Ansicht, die ein Anwendungsauswahlverfahren für das mobile Endgerät aus 1 zeigt;
-
26 und 27 sind Ansichten, die ein Hintergrundbedienverfahren für das mobile Endgerät aus 1 zeigen;
-
28 ist eine Ansicht, die ein mobiles Endgerät in Übereinstimmung mit einer abermals anderen Ausführungsform der vorliegenden Erfindung zeigt;
-
29 ist eine Ansicht, die das mobile Endgerät aus 28 zeigt, das in einer Hand gehalten ist;
-
30 ist eine Ansicht, die ein mobiles Endgerät in Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung zeigt;
-
31 ist eine Ansicht, die eine Operation eines mobilen Endgeräts in Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung zeigt; und
-
32 ist eine Ansicht, die eine Operation des mobilen Endgeräts in Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung zeigt.
-
AUSFÜHRLICHE BESCHREIBUNG
-
Anhand der beigefügten Zeichnungen, in denen beispielhafte Ausführungsformen gezeigt sein können, können nun Anordnungen und Ausführungsformen umfassender beschrieben werden. Allerdings können die Ausführungsformen in vielen verschiedenen Formen verkörpert werden und sollen sie nicht als auf die hier dargestellten Ausführungsformen beschränkt verstanden werden; vielmehr können Ausführungsformen gegeben sein, damit diese Offenbarung gründlich und vollständig ist und dem Fachmann auf dem Gebiet das Konzept umfassend vermittelt.
-
Im Folgenden kann anhand der beigefügten Zeichnungen ein mobiles Endgerät beschrieben sein. In der folgenden Beschreibung können Komponenten des mobilen Endgeräts die Nachsilben ”-modul” und ”-einheit” nur angesichts der Erleichterung der Beschreibung gegeben sein und besitzen sie keine voneinander verschiedenen Bedeutungen oder Funktionen.
-
Das mobile Endgerät kann ein Mobiltelephon, ein Smartphone, einen Laptop-Computer, ein digitales Rundfunkendgerät, Personal Digital Assistants (PDA), einen tragbaren Multimediaspieler (PMP), ein Navigationssystem und/oder so weiter enthalten.
-
1 ist ein Blockschaltplan eines mobilen Endgeräts in Übereinstimmung mit einer Ausführungsform. Andere Ausführungsformen, Konfigurationen und Anordnungen können ebenfalls bereitgestellt werden.
-
Wie gezeigt ist, kann das mobile Endgerät 100 eine drahtlose Kommunikationseinheit 110 (oder Funkkommunikationseinheit), eine Audio/Video-Eingabeeinheit (A/V-Eingabeeinheit) 120, eine Nutzereingabeeinheit 130, eine Erfassungseinheit 140, eine Ausgabeeinheit 150, einen Speicher 160, eine Schnittstelle 170, einen Controller 180 und eine Leistungsversorgung 190 enthalten. Die in 1 gezeigten Komponenten können wesentliche Teile sein und/oder eine Anzahl von in dem mobilen Endgerät 100 enthaltenen Komponenten kann variieren. Es können nun Komponenten des mobilen Endgeräts 100 beschrieben werden.
-
Die drahtlose Kommunikationseinheit 110 kann wenigstens ein Modul enthalten, das zwischen dem mobilen Endgerät 100 und einem Funkkommunikationssystem oder zwischen dem mobilen Endgerät 100 und einem Netz, in dem sich das mobile Endgerät 100 befindet, die Funkkommunikation ermöglicht. Die drahtlose Kommunikationseinheit 110 kann z. B. ein Rundfunkempfangsmodul 111, ein Mobilkommunikationsmodul 112, ein drahtloses Internet-Modul 113, ein Modul 114 für die kurzreichweitige Kommunikation (oder Modul für die lokale Kommunikation) und ein Ortsinformationsmodul 115 (oder Positionsinformationsmodul) enthalten.
-
Das Rundfunkempfangsmodul 111 kann über einen Rundfunkkanal Rundfunksignale und/oder auf Rundfunk bezogene Informationen von einem externen Rundfunkmanagementserver empfangen. Der Rundfunkkanal kann einen Satellitenkanal und einen terrestrischen Kanal enthalten und der Rundfunkmanagementserver kann ein Server, der Rundfunksignale und/oder auf Rundfunk bezogene Informationen erzeugt und sendet, oder ein Server, der zuvor erzeugte Rundfunksignale und/oder auf Rundfunk bezogene Informationen empfängt und die Rundfunksignale und/oder auf Rundfunk bezogenen Informationen an ein Endgerät sendet, sein.
-
Die Rundfunksignale können nicht nur Fernsehrundfunksignale, Hörfunksignale und Datenrundfunksignale, sondern auch Signale in Form einer Kombination eines Fernsehrundfunksignals und eines Hörfunkrundfunksignals enthalten. Die auf Rundfunk bezogenen Informationen können Informationen über einen Rundfunkkanal, über ein Rundfunkprogramm oder über einen Rundfunkdienstanbieter sein und können sogar über ein Mobilkommunikationsnetz bereitgestellt werden. Im letzteren Fall können die auf Rundfunk bezogenen Informationen durch das Mobilkommunikationsmodul 112 empfangen werden.
-
Die auf Rundfunk bezogenen Informationen können in verschiedenen Formen vorhanden sein. Die auf Rundfunk bezogenen Informationen können z. B. in Form eines elektronischen Programmführers (EPG) eines digitalen Multimediarundfunksystems (DMB-Systems) oder in Form eines elektronischen Diensteführers (ESG) eines Digitalfernsehrundfunk-Hand-Systems (DVB-H-Systems) vorhanden sein.
-
Das Rundfunkempfangsmodul 111 kann Rundfunksignale unter Verwendung verschiedener Rundfunksysteme empfangen. Insbesondere kann das Rundfunkempfangsmodul 111 digitale Rundfunksignale unter Verwendung digitaler Rundfunksysteme wie etwa eines Digitalmultimediarundfunk-terrestrisch-Systems (DMB-T-Systems), eines Digitalmultimediarundfunk-Satellit-Systems (DMB-S-Systems), eines reinen Medienabwärtsstreckensystems (MediaFLO-Systems), eines DVB-H und Diensteintegrierender Digitalrundfunk-terrestrisch-Systeme (ISDB-T-Systeme) empfangen. Das Rundfunkempfangsmodul 111 kann Signale von Rundfunksystemen empfangen, die andere Rundfunksignale als die oben beschriebenen Digitalrundfunksysteme bereitstellen.
-
Die über das Rundfunkempfangsmodul 111 empfangenen Rundfunksignale und/oder auf Rundfunk bezogenen Informationen können in dem Speicher 160 gespeichert werden. Das Mobilkommunikationsmodul 112 kann ein Funksignal zu/von einer Basisstation und/oder einem externen Endgerät und/oder einem Server in einem Mobilkommunikationsnetz senden/empfangen. Das Funksignal kann ein Fernsprechrufsignal, ein Videotelephonierufsignal oder Daten in verschiedenen Formen in Übereinstimmung mit der Sendung und dem Empfang von Text-/Multimedianachrichten enthalten.
-
Das drahtlose Internetmodul 113 kann einem Modul für den drahtlosen Internetzugang entsprechen und kann in dem mobilen Endgerät 100 enthalten sein oder kann extern an dem mobilen Endgerät 100 angebracht sein. Als eine drahtlose Internettechnik können drahtloses LAN (WLAN oder WiFi), drahtloses Breitband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA) usw. verwendet werden.
-
Das Modul 114 für die kurzreichweitige Kommunikation kann einem Modul für die kurzreichweitige Kommunikation entsprechen. Ferner können als eine Technik für die kurzreichweitige Kommunikation Bluetooth®, Hochfrequenzidentifizierung (RFID), Infrarotdatenassoziation (IrDA), Ultrabreitband (UWB) und/oder ZigBee® verwendet werden.
-
Das Ortsinformationsmodul 115 kann einen Ort oder eine Position des mobilen Endgeräts 100 bestätigen oder erhalten. Das Ortsinformationsmodul 115 kann Positionsinformationen unter Verwendung eines globalen Navigationssatellitensystems (GNSS) erhalten. Das GNSS ist eine Terminologie, die ein Funknavigationssatellitensystem beschreibt, das um die Erde umläuft und Referenzsignale an vorgegebene Typen von Funknavigationsempfängern sendet, so dass die Funknavigationsempfänger ihre Positionen auf der Erdoberfläche oder in der Nähe der Erdoberfläche bestimmen können. Das GNSS kann z. B. ein globales Positionsbestimmungssystem (GPS) der Vereinigten Staaten, Galileo aus Europa, ein globales System umlaufender Navigationssatelliten (GLONASS) aus Russland, COMPASS aus China und ein Quasi-Zenit-Satellitensystem (QZSS) aus Japan enthalten.
-
Ein Modul eines globalen Positionsbestimmungssystems (GPS-Modul) ist ein repräsentatives Beispiel für das Ortsinformationsmodul 115. Das GPS-Modul kann Informationen über Entfernungen zwischen einem Punkt oder Gegenstand und wenigstens drei Satelliten und Informationen über einen Zeitpunkt, zu dem die Entfernungsinformationen gemessen werden, berechnen und auf die erhaltenen Entfernungsinformationen die Trigonometrie anwenden, um in Übereinstimmung mit der geographischen Breite, mit der geographischen Länge und mit der Höhe zu einem vorgegebenen Zeitpunkt dreidimensionale Positionsinformationen über den Punkt oder Gegenstand zu erhalten.
-
Außerdem kann ein Verfahren zum Berechnen von Positions- und Zeitinformationen unter Verwendung dreier Satelliten und zum Korrigieren der berechneten Positions- und Zeitinformationen unter Verwendung eines weiteren Satelliten verwendet werden. Außerdem kann das GPS-Modul ununterbrochen eine aktuelle Position in Echtzeit berechnen und unter Verwendung der Orts- oder Positionsinformationen Geschwindigkeitsinformationen berechnen.
-
Die A/V-Eingabeeinheit 120 kann ein Audiosignal und/oder ein Videosignal eingeben (oder empfangen). Die A/V-Eingabeeinheit 120 kann eine Kamera 121 und ein Mikrofon 122 enthalten. Die Kamera 121 kann Einzelbilder von Standbildern oder Bewegtbildern verarbeiten, die durch einen Bildsensor in einer Videotelephoniebetriebsart oder in einer Photographierbetriebsart erhalten werden. Die verarbeiteten Einzelbilder können auf einer Anzeige 151, die ein Berührungsbildschirm sein kann, angezeigt werden.
-
Die durch die Kamera 121 verarbeiteten Einzelbilder können in dem Speicher 160 gespeichert werden oder können über die drahtlose Kommunikationseinheit 110 an eine externe Vorrichtung gesendet werden. Außerdem kann das mobile Endgerät 100 wenigstens zwei Kameras 121 enthalten.
-
Das Mikrofon 122 kann in einer Anrufbetriebsart, in einer Aufzeichnungsbetriebsart und/oder in einer Sprecherkennungsbetriebsart ein externes Audiosignal empfangen und das Mikrofon 122 kann das empfangene Audiosignal zu elektrischen Audiodaten verarbeiten. Die Audiodaten können daraufhin in ein Format umgesetzt werden, das über das Mobilkommunikationsmodul 112 an eine Mobilkommunikationsbasisstation gesendet werden kann und in der Anrufbetriebsart ausgegeben werden kann. Das Mikrofon 122 kann verschiedene Rauschentfernungsalgorithmen (oder einen Rauschkompensationsalgorithmus) nutzen, um Rauschen, das erzeugt wird, wenn das externe Audiosignal empfangen wird, zu entfernen oder zu verringern.
-
Die Nutzereingabeeinheit 130 kann von einem Nutzer Eingabedaten empfangen, um den Betrieb des mobilen Endgeräts 100 zu steuern. Die Nutzereingabeeinheit 130 kann ein Tastenfeld, einen Hat-Switch, ein Touchpad (konstante Spannung/Kapazität), ein Jog-Rad, einen Jog-Schalter und/oder so weiter enthalten.
-
Die Erfassungseinheit 140 kann einen aktuellen Zustand des mobilen Endgeräts 100 wie etwa einen Öffnungs-/Schließzustand des mobilen Endgeräts 100, eine Position des mobilen Endgeräts 100, ob ein Nutzer das mobile Endgerät 100 berührt, eine Richtung des mobilen Endgeräts 100 und eine Beschleunigung/Verzögerung des mobilen Endgeräts 100 erfassen, wobei die Erfassungseinheit 140 ein Erfassungssignal erzeugen kann, um den Betrieb des mobilen Endgeräts 100 zu steuern. Zum Beispiel kann die Erfassungseinheit 140 in einem Beispiel eines Schiebetelephons erfassen, ob das Schiebetelephon geöffnet oder geschlossen ist. Ferner kann die Erfassungseinheit 140 erfassen, ob die Leistungsversorgung 190 Leistung zuführt und/oder ob die Schnittstelle 170 mit einer externen Vorrichtung verbunden ist. Außerdem kann die Erfassungseinheit 140 einen Näherungssensor 141 enthalten. Die Erfassungseinheit 140 kann eine Bewegung des mobilen Endgeräts 100 erfassen.
-
Die Ausgabeeinheit 150 kann eine visuelle, eine hörbare und/oder eine tastbare Ausgabe erzeugen, wobei die Ausgabeeinheit 150 die Anzeige 151, das Audioausgabemodul 152, eine Alarmeinrichtung 153 und ein Haptikmodul 154 enthalten kann. Die Anzeige 151 kann Informationen anzeigen, die durch das mobile Endgerät 100 verarbeitet werden. Wenn das mobile Endgerät 100 in der Anrufbetriebsart ist, kann die Anzeige 151 eine Nutzerschnittstelle (UI) und/oder eine graphische Nutzerschnittstelle (GUI), die sich auf einen Telephonanruf bezieht, anzeigen. Außerdem kann die Anzeige 151 ein erfasstes und/oder empfangenes Bild, eine UI oder eine GUI anzeigen, wenn das mobile Endgerät 100 in der Videotelephoniebetriebsart oder in der Photographierbetriebsart ist.
-
Die Anzeige 151 kann eine Flüssigkristallanzeige und/oder eine Dünnfilmtransistor-Flüssigkristallanzeige und/oder eine Anzeige organischer Lichtemitterdioden und/oder eine biegsame Anzeige und/oder eine dreidimensionale Anzeige enthalten. Die Anzeige 151 kann von einem durchsichtigen Typ oder von einem lichtdurchlässigen Typ sein. Das heißt, die Anzeige 151 kann eine durchsichtige Anzeige enthalten.
-
Die durchsichtige Anzeige kann eine durchsichtige Flüssigkristallanzeige sein. Eine hintere Struktur der Anzeige 151 kann ebenfalls von einem lichtdurchlässigen Typ sein. Dementsprechend kann ein Nutzer einen Gegenstand, der sich hinter dem Körper (des mobilen Endgeräts 100) befindet, durch den durchsichtigen Bereich des Körpers des mobilen Endgeräts 100, der von der Anzeige 151 eingenommen ist, sehen.
-
Außerdem kann das mobile Endgerät 100 wenigstens zwei Anzeigen 151 enthalten. Zum Beispiel kann das mobile Endgerät 100 mehrere Anzeigen 151, die in einer einzelnen Fläche in einer vorgegebenen Entfernung angeordnet sind, oder integrierte Anzeigen enthalten. Die mehreren Anzeigen 151 können ebenfalls auf verschiedenen Seiten angeordnet sein.
-
Wenn die Anzeige 151 und ein Sensor, der eine Berührung erfasst, (im Folgenden als ein Berührungssensor bezeichnet) eine Schichtstruktur bilden, die als ein Berührungsbildschirm bezeichnet wird, kann die Anzeige 151 außer als Ausgabevorrichtung als eine Eingabevorrichtung verwendet werden. Der Berührungssensor kann z. B. die Form eines Berührungsfilms, einer Berührungsplatte und/oder eines Touchpads aufweisen.
-
Der Berührungssensor kann eine Änderung des auf einen spezifischen Abschnitt der Anzeige 151 ausgeübten Drucks oder eine Änderung der in einem spezifischen Abschnitt der Anzeige 151 erzeugten Kapazität in ein elektrisches Eingangssignal umsetzen. Der Berührungssensor kann den Druck der Berührung sowie die Position und den Bereich der Berührung erfassen.
-
Wenn der Nutzer eine Berührungseingabe auf den Berührungssensor anwendet, kann ein der Berührungseingabe entsprechendes Signal an einen Berührungscontroller gesendet werden. Der Berührungssensor kann das Signal daraufhin verarbeiten und dem verarbeiteten Signal entsprechende Daten an den Controller 180 senden. Dementsprechend kann der Controller 180 einen berührten Abschnitt der Anzeige 151 detektieren.
-
Der Näherungssensor 141 (der Erfassungseinheit 140) kann sich in einem Innengebiet des mobilen Endgeräts 100, das von dem Berührungsbildschirm umgeben ist, und/oder in der Nähe des Berührungsbildschirms befinden. Der Näherungssensor 141 kann unter Verwendung einer elektromagnetischen Kraft oder von Infrarotstrahlen einen Gegenstand, der sich einer vorgegebenen Erfassungsfläche annähert, oder einen Gegenstand, der sich in der Nähe des Näherungssensors 141 befindet, ohne einen mechanischen Kontakt aufzuweisen, erfassen. Der Näherungssensor 141 kann eine längere Lebensdauer als ein Kontaktsensor aufweisen und kann somit in dem mobilen Endgerät 100 eine umfassende Anwendung besitzen.
-
Der Näherungssensor 141 kann einen photoelektrischen Sensor vom Transmissionstyp, einen photoelektrischen Sensor vom Typ mit regelmäßiger Reflexion, einen photoelektrischen Sensor vom Spiegelreflexionstyp, einen Hochfrequenzoszillations-Näherungssensor, einen kapazitiven Näherungssensor, einen magnetischen Näherungssensor und/oder einen Infrarotnäherungssensor enthalten. Ein kapazitiver Berührungsbildschirm kann so konstruiert sein, dass die Annäherung eines Zeigers durch eine Änderung eines elektrischen Felds in Übereinstimmung mit der Nähe des Zeigers detektiert wird. Der Berührungsbildschirm (Berührungssensor) kann als ein Näherungssensor 141 klassifiziert werden.
-
Zur leichten Erläuterung kann eine Aktion, dass sich der Zeiger dem Berührungsbildschirm annähert, ohne den Berührungsbildschirm tatsächlich zu berühren, als eine Näherungsberührung bezeichnet werden, und kann eine Aktion, dass der Zeiger mit dem Berührungsbildschirm in Kontakt gebracht wird, als eine Kontaktberührung bezeichnet werden. Der Näherungsberührungspunkt des Zeigers auf dem Berührungsbildschirm kann einem Punkt des Berührungsbildschirms entsprechen, an dem der Zeiger senkrecht zu dem Berührungsbildschirm ist.
-
Der Näherungssensor 141 kann die Näherungsberührung und ein Näherungsberührungsmuster (z. B. eine Näherungsberührungsentfernung, eine Näherungsberührungsrichtung, eine Näherungsberührungsgeschwindigkeit, einen Näherungsberührungszeitpunkt, eine Näherungsberührungsposition, einen Näherungsberührungsbewegungszustand usw.) erfassen. Daraufhin können der erfassten Näherungsberührungsaktion und dem erfassten Näherungsberührungsmuster entsprechende Informationen auf dem Berührungsbildschirm angezeigt werden.
-
Das Audioausgabemodul 152 kann in einer Rufsignalempfangsbetriebsart, in einer Telephonanrufbetriebsart oder in einer Aufzeichnungsbetriebsart, in einer Spracherkennungsbetriebsart und in einer Rundfunkempfangsbetriebsart von der drahtlosen Kommunikationseinheit 110 empfangene oder in dem Speicher 160 gespeicherte Audiodaten ausgeben. Das Audioausgabemodul 152 kann Audiosignale, die sich auf in dem mobilen Endgerät 100 ausgeführte Funktionen beziehen, wie etwa einen Rufsignaleingangston und einen Nachrichteneingangston ausgeben. Das Audioausgabemodul 152 kann einen Empfänger, einen Lautsprecher, einen Summer und/oder dergleichen enthalten. Das Audioausgabemodul 152 kann über eine Ohrhörerbuchse Klänge ausgeben. Der Nutzer kann die Klänge durch Verbinden eines Ohrhörers mit der Ohrhörerbuchse hören.
-
Die Alarmeinrichtung 153 kann ein Signal ausgeben, um die Erzeugung eines Ereignisses des mobilen Endgeräts 100 anzugeben. Zum Beispiel kann ein Alarm erzeugt werden, wenn ein Rufsignal empfangen wird, wenn eine Nachricht empfangen wird, wenn ein Tastensignal eingegeben wird und/oder wenn eine Berührung eingegeben wird. Außerdem kann die Alarmeinrichtung 153 Signale in anderen Formen als Videosignale oder Audiosignale, z. B. ein Signal, um durch Vibration die Erzeugung eines Ereignisses anzugeben, ausgeben. Die Videosignale und/oder die Audiosignale können außerdem über die Anzeige 151 oder über das Audioausgabemodul 152 ausgegeben werden.
-
Das Haptikmodul 154 kann verschiedene Haptikeffekte erzeugen, die der Nutzer fühlen kann. Ein Beispiel der Haptikeffekte ist die Vibration. Eine Stärke und/oder ein Muster der durch das Haptikmodul 154 erzeugten Vibration kann ebenfalls gesteuert werden. Zum Beispiel können verschiedene Vibrationen kombiniert und ausgegeben werden oder nacheinander ausgegeben werden.
-
Das Haptikmodul 154 kann eine Vielzahl von Haptikeffekten, einschließlich eines Effekts eines Stimulus in Übereinstimmung mit einer Anordnung von Stiften, die sich vertikal gegen eine Hautkontaktoberfläche bewegen, eines Effekts eines Stimulus in Übereinstimmung mit einer Strahlkraft oder Saugkraft von Luft durch ein Strahlloch oder durch ein Saugloch, eines Effekts eines Stimulus des Reibens der Haut, eines Effekts eines Stimulus in Übereinstimmung mit einem Kontakt einer Elektrode, eines Effekts eines Stimulus unter Verwendung einer elektrostatischen Kraft und eines Effekts in Übereinstimmung mit einer Wiedergabe von Kälte und Wärme unter Verwendung eines Elements, das außer Schwingungen Wärme absorbieren oder ausstrahlen kann, erzeugen.
-
Das Haptikmodul 154 kann nicht nur Haptikeffekte durch direkten Kontakt senden, sondern kann auch ermöglichen, dass der Nutzer Haptikeffekte durch eine kinästhetische Erfassung der Finger oder Arme des Nutzers fühlt. Außerdem kann das mobile Endgerät 100 mehrere Haptikmodule 154 enthalten.
-
Der Speicher 160 kann ein Programm für Operationen des Controllers 180 speichern und/oder kann Eingabe/Ausgabe-Daten wie etwa ein Telephonbuch, Nachrichten, Standbilder und/oder Bewegtbilder vorübergehend speichern. Außerdem kann der Speicher 160 Daten über Vibrationen und Klänge in verschiedenen Muster, die ausgegeben werden, wenn eine Berührungseingabe auf den Berührungsbildschirm angewendet wird, speichern.
-
Der Speicher 160 kann einen Flash-Speicher und/oder einen Speicher vom Festplattentyp und/oder einen Speicher vom Multimediakarten-Mikro-Typ und/oder einen Speicher vom Kartentyp wie etwa einen SD- oder XD-Speicher und/oder einen Schreib-Lese-Speicher (RAM) und/oder einen statischen RAM (SRAM) und/oder einen Nur-Lese-Speicher (ROM) und/oder einen elektrisch löschbaren programmierbaren ROM (EEPROM) und/oder einen programmierbaren ROM-Magnetspeicher (PROM-Magnetspeicher) und/oder eine Magnetplatte und/oder eine optische Platte enthalten. Außerdem kann das mobile Endgerät 100 mit einer Web-Ablage, die eine Speicherfunktion des Speichers 160 im Internet ausführt, zusammenarbeiten.
-
Die Schnittstelle 170 kann als ein Weg zu externen Vorrichtungen dienen, die mit dem mobilen Endgerät 100 verbunden sind. Die Schnittstelle 170 kann Daten von den externen Vorrichtungen oder Leistung empfangen und kann die Daten oder Leistung an interne Komponenten des mobilen Endgeräts 100 senden oder Daten des mobilen Endgeräts 100 an die externen Vorrichtungen senden. Zum Beispiel kann die Schnittstelle 170 einen verdrahteten/drahtlosen Headset-Anschluss, einen Anschluss eines externen Ladegeräts, einen verdrahteten/drahtlosen Datenanschluss, einen Speicherkartenanschluss, einen Anschluss zum Verbinden einer Vorrichtung mit einem Nutzeridentifizierungsmodul, einen Audio-E/A-Anschluss, einen Video-E/A-Anschluss und/oder einen Ohrhöreranschluss enthalten.
-
Außerdem kann die Schnittstelle 170 mit einem Nutzeridentifizierungsmodul verbinden, das ein Chip ist, der Informationen zur Authentisierung der Berechtigung zur Verwendung des mobilen Endgeräts 100 speichert. Das Nutzeridentifizierungsmodul kann z. B. ein Nutzeridentitätsmodul (UIM), ein Teilnehmerkennungsmodul (SIM) und/oder ein universelles Teilnehmerkennungsmodul (USIM) sein. Eine Identifizierungsvorrichtung (einschließlich des Nutzeridentifizierungsmoduls) kann ebenfalls in Form einer Chipkarte hergestellt sein. Dementsprechend kann die Identifizierungsvorrichtung über einen Anschluss der Schnittstelle 170 mit dem mobilen Endgerät 100 verbunden werden.
-
Außerdem kann die Schnittstelle 170 ein Weg sein, über den Leistung von einer externen Docking-Station für das mobile Endgerät 100 bereitgestellt wird, wenn das mobile Endgerät 100 mit der externen Docking-Station verbunden ist, oder ein Weg sein, über den verschiedene durch den Nutzer über die Docking-Station eingegebene Befehlssignale an das mobile Endgerät 100 gesendet werden. Die verschiedenen Befehlssignale oder die Leistungseingabe von der Docking-Station können als Signale verwendet werden, um zu bestätigen, ob das mobile Endgerät 100 ordnungsgemäß in die Docking-Station eingesetzt ist.
-
Der Controller 180 kann den Gesamtbetrieb des mobilen Endgeräts 100 steuern. Zum Beispiel kann der Controller 180 die Steuerung und Verarbeitung für die Sprachkommunikation, für die Datenkommunikation und/oder für die Videotelephonie ausführen. Außerdem kann der Controller 180 ein Multimediamodul 181 zum Abspielen von Multimedia enthalten. Das Multimediamodul 181 kann in dem Controller 180 enthalten sein oder kann getrennt von dem Controller 180 sein.
-
Der Controller 180 kann einen Mustererkennungsprozess ausführen, der eine als Zeichen oder Bilder auf den Berührungsbildschirm angewendete Handschrifteingabe oder Bildzeicheneingabe erkennen kann. Die Leistungsversorgung 190 kann externe Leistung und interne Leistung empfangen und Leistung bereitstellen, die für Operationen der Komponenten des mobilen Endgeräts 100 gemäß der Steuerung des Controllers 180 erforderlich ist.
-
In Übereinstimmung mit der Hardwareimplementierung können Ausführungsformen unter Verwendung von anwendungsspezifischen integrierten Schaltungen (ASICs) und/oder von digitalen Signalprozessoren (DSPs) und/oder von digitalen Signalverarbeitungsvorrichtungen (DSPDs) und/oder von programmierbaren Logikvorrichtungen (PLDs) und/oder von frei programmierbaren logischen Anordnungen (FPGAs) und/oder von Prozessoren und/oder von Controller und/oder von Mikrocontrollern und/oder von Mikroprozessoren und/oder von elektrischen Einheiten zur Ausführung von Funktionen implementiert werden. Ausführungsformen können durch den Controller 180 implementiert werden.
-
In Übereinstimmung mit einer Softwareimplementierung können Ausführungsformen wie etwa Prozeduren oder Funktionen mit einem getrennten Softwaremodul implementiert werden, das wenigstens eine Funktion oder Operation ausführt. Softwarecodes können in Übereinstimmung mit einer Softwareanwendung implementiert werden, die in einer geeigneten Softwaresprache geschrieben ist. Die Softwarecodes können in dem Speicher 160 gespeichert sein und durch den Controller 180 ausgeführt werden.
-
2 ist eine perspektivische Vorderansicht eines mobilen Endgeräts (oder eines Handendgeräts) in Übereinstimmung mit einer Ausführungsform.
-
Das mobile Endgerät 100 kann ein Endgerätkörper vom Stabtyp sein. Allerdings sind Ausführungsformen nicht auf ein Endgerät vom Stabtyp beschränkt und können sie auf Endgeräte verschiedener Typen einschließlich Endgeräten vom Schiebetyp, vom Klapptyp, vom Schwingtyp und/oder vom Schwenktyp, die wenigstens zwei Körper aufweisen, die relativ beweglich kombiniert sind, angewendet werden.
-
Der Endgerätkörper kann ein Gehäuse (eine Hülle, ein Außenteil, eine Einhausung usw.) enthalten, das ein Äußeres des mobilen Endgeräts 100 bildet. In dieser Ausführungsform kann das Gehäuse in ein vorderes Gehäuse 101 und in ein hinteres Gehäuse 102 geteilt sein. In dem zwischen dem vorderen Gehäuse 101 und dem hinteren Gehäuse 102 gebildeten Raum können verschiedene elektronische Komponenten angeordnet sein. Zusätzlich kann zwischen dem vorderen Gehäuse 101 und dem hinteren Gehäuse 102 wenigstens ein mittleres Gehäuse vorgesehen sein.
-
Die Gehäuse können aus Kunststoff durch Spritzguss gebildet sein oder können aus einem Metallmaterial wie etwa aus rostfreiem Stahl (STS) oder aus Titan (Ti) hergestellt sein.
-
Die Anzeige 151, die Audioausgabeeinheit 152, die Kamera 121, die Nutzereingabeeinheit 130/131 und 132, das Mikrofon 122 und die Schnittstelle 170 können in dem Endgerätkörper angeordnet (oder vorgesehen) sein und können genauer in dem vorderen Gehäuse 101 angeordnet (oder vorgesehen) sein.
-
Die Anzeige 151 kann den größten Teil der Hauptfläche des vorderen Gehäuses 101 einnehmen. Die Audioausgabeeinheit 152 und die Kamera 121 können in einem Gebiet in der Nähe eines von beiden Enden der Anzeige 151 und der Nutzereingabeeinheit 131 angeordnet sein und das Mikrofon 122 kann sich in einem Gebiet in der Nähe des anderen Endes der Anzeige 151 befinden. Die Nutzereingabeeinheit 132 und die Schnittstelle 170 können auf den Seiten des vorderen Gehäuses 101 und des hinteren Gehäuses 102 angeordnet (oder vorgesehen) sein.
-
Die Nutzereingabeeinheit 130 kann Befehle zum Steuern des Betriebs des mobilen Endgeräts 100 empfangen und kann mehrere Bedieneinheiten 131 und 132 enthalten. Die Bedieneinheiten 131 und 132 können als Manipulationsabschnitte bezeichnet werden und können irgendeine Tastart, in der ein Nutzer die Bedieneinheiten 131 und 132 bedient, während er ein Tastgefühl besitzt, nutzen.
-
Die erste und die zweite Bedieneinheit 131 und 132 können verschiedene Eingaben empfangen. Zum Beispiel kann die erste Bedieneinheit 131 Befehle wie etwa Start, Ende und Scrollen empfangen und kann die zweite Bedieneinheit 132 Befehle wie etwa Steuern einer Lautstärke des von der Audioausgabeeinheit 152 ausgegebenen Klangs oder Umwandlung der Anzeige 151 in eine Berührungserkennungsbetriebsart empfangen.
-
3 ist eine perspektivische Rückansicht des (in 2 gezeigten) mobilen Endgeräts in Übereinstimmung mit einer Ausführungsform.
-
Anhand von 3 kann auf der Rückseite des Endgerätkörpers (d. h. auf dem hinteren Gehäuse 102) zusätzlich eine Kamera 121' angebracht sein. Die Kamera 121' kann eine Photographierrichtung aufweisen, die zu der der (in 2 gezeigten) Kamera 121 entgegengesetzt ist, und kann andere Pixel als die (in 2 gezeigte) Kamera 121 aufweisen.
-
Zum Beispiel kann es erwünscht sein, dass die Kamera 121 wenige Pixel aufweist, so dass die Kamera 121 ein Bild eines Gesichts eines Nutzers erfassen kann und das Bild im Fall der Videotelephonie an ein Empfangsteil senden kann, während die Kamera 121' viele Pixel aufweist, da die Kamera 121' ein Bild eines allgemeinen Gegenstands erfasst und das Bild in vielen Fällen nicht unmittelbar sendet. Die Kameras 121 und 121' können in der Weise an dem Endgerätkörper angebracht (oder vorgesehen) sein, dass sich die Kameras 121 und 121' drehen können oder dass sie heraustreten können.
-
Zusätzlich können in der Nähe der Kamera 121' ein Blitzlicht 123 und ein Spiegel 124 vorgesehen sein. Das Blitzlicht 123 kann einen Gegenstand beleuchten, wenn die Kamera 121' ein Bild des Gegenstands aufnimmt. Der Spiegel 124 kann verwendet werden, damit der Nutzer sein Gesicht in dem Spiegel sieht, wenn sich der Nutzer unter Verwendung der Kamera 121' selbst photographieren möchte.
-
Zusätzlich kann auf der Rückseite des Endgerätkörpers eine Audioausgabeeinheit 152' vorgesehen sein. Die Audioausgabeeinheit 152' kann mit der (in 2 gezeigten) Audioausgabeeinheit 152 eine Stereofunktion erzielen und kann für eine Lautsprechertelephonbetriebsart verwendet werden, wenn das Endgerät für einen Telephonanruf verwendet wird.
-
Außer einer Antenne für Telephonanrufe kann an der Seite des Endgerätkörpers eine Rundfunksignalempfangsantenne angebracht (oder vorgesehen) sein. Die Antenne, die einen Teil des (in 1 gezeigten) Rundfunkempfangsmoduls 111 konstruiert, kann in dem Endgerätkörper in der Weise eingestellt sein, dass die Antenne aus dem Endgerätkörper herausgezogen werden kann.
-
In den Endgerätkörper kann die Leistungsversorgung 190 zum Bereitstellen von Leistung für das mobile Endgerät 100 eingesetzt sein. Die Leistungsversorgung 190 kann in dem Endgerätkörper enthalten sein oder kann an den Endgerätkörper lösbar angeschlossen sein.
-
An dem hinteren Gehäuse 102 kann ein Touchpad 135 zum Erfassen einer Berührung angebracht sein. Das Touchpad 135 kann wie etwa die Anzeige 151 von einem lichtdurchlässigen Typ sein. In diesem Beispiel können die visuellen Informationen durch das Touchpad 135 erkannt (oder bestimmt) werden, falls die Anzeige 151 über ihre beiden Seiten visuelle Informationen ausgibt. Die Informationsausgabe über beide Seiten der Anzeige 151 kann durch das Touchpad 135 gesteuert werden. Andernfalls kann zusätzlich eine Anzeige an dem Touchpad 135 angebracht (oder vorgesehen) sein, so dass sogar in dem hinteren Gehäuse 102 ein Berührungsbildschirm angeordnet (oder vorgesehen) sein kann.
-
Das Touchpad 135 kann mit der Anzeige 151 des vorderen Gehäuses 101 zusammenarbeiten. Das Touchpad 135 kann hinter der Anzeige 151 parallel zu der Anzeige 151 gelegen sein. Das Touchpad 135 kann dieselbe oder eine kleinere Größe als die Anzeige 151 aufweisen.
-
4 ist eine perspektivische Vorderansicht eines mobilen Endgeräts in Übereinstimmung mit einer anderen Ausführungsform der vorliegenden Erfindung.
-
Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer anderen Ausführungsform der vorliegenden Erfindung in der Weise konfiguriert sein, dass die Anzeige 151 eine größere Fläche als eine herkömmliche aufweist. Der Nutzer kann das mobile Endgerät 100 manipulieren, während er es hält.
-
Die Anzeige 151 kann ein Berührungsbildschirm sein. Das heißt, das mobile Endgerät 100 kann durch Berühren der Anzeige 151 manipuliert werden.
-
Der Nutzer kann das mobile Endgerät 100 manipulieren, während er es hält. Zum Beispiel kann der Nutzer eine Operation des Berührens eines spezifischen Abschnitts der Anzeige 151 mit der rechten Hand (nicht gezeigt), während er einen Frontrahmenabschnitt (BD-Abschnitt) mit der linken Hand (LH) hält, ausführen.
-
Für eine Berührungsoperation kann tatsächlich nur der erste Finger F1 der linken Hand LH, die das mobile Endgerät 100 hält, verwendet werden. Das heißt, der erste Finger F1, d. h. der Daumen, kann dazu verwendet werden, die Anzeige 151 zu berühren, während das mobile Endgerät 100 in den vier Fingern der linken Hand LH gehalten ist.
-
Beim Berühren der Anzeige 151 mit dem ersten Finger F1 kann die Berührungsreichweite des ersten Fingers F1 beschränkt sein. Das heißt, sofern nicht die Hand, die das mobile Endgerät 100 hält, gewechselt wird, ist eine Berührungsoperation unter Verwendung des ersten Fingers F1, wenn das mobile Endgerät 100 in der linken Hand LH gehalten ist, beschränkt. Zum Beispiel kann eine Berührungsoperation unter Verwendung des ersten Fingers F1 nur innerhalb des Radius des ersten Fingers F1 ausgeführt werden. In Übereinstimmung mit dem mobilen Endgerät 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist es möglich, das mobile Endgerät 100 selbst dann effizient zu verwenden, wenn der Bereich der Anzeige 151 größer als der Radius eines spezifischen Fingers der Hand ist, die das mobile Endgerät 100 hält.
-
5 ist ein Ablaufplan, der einen Betätigungsprozess des mobilen Endgeräts aus 1 zeigt.
-
Wie darin gezeigt ist, kann der Controller 180 des mobilen Endgeräts in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung den Schritt S10 des Erfassens einer Berührungsaktion ausführen.
-
Die Berührungsaktion bezieht sich darauf, dass der Benutzer Berührungen auf der Anzeige 151 einschließlich einer Berührung nach unten, einer Berührung nach oben, eines Berührens und Ziehens usw. ausführt. Ferner kann die Berührungsaktion eine kontaktlose Berührung auf der Anzeige 151 enthalten. Zum Beispiel kann ein entsprechendes Berührungssignal erzeugt werden, wenn der Nutzer einen eine vorgegebene Entfernung von der Anzeige 151 beabstandeten Finger bewegt.
-
Es kann der Schritt s20 des Bestimmens der Position und der Spur einer Berührungsaktion ausgeführt werden.
-
Wenn eine Berührungsaktion ausgeführt wird, kann der Controller 180 die Position und die Spur der Berührungsaktion bestimmen. Zum Beispiel können die Positionen und die Spur einer Berührungsaktion anhand dessen bestimmt werden, an welcher Position eine Berührung nach oben stattfindet, ob es während einer Berührung nach oben eine Änderung des Berührungspunkts nach einer Berührung nach unten gibt usw.
-
Es kann der Schritt S30 des Bestimmens, ob eine einhändige Berührung an einem Randbereich stattgefunden hat, auf der Grundlage der bestimmten Position und Spur der Berührungsaktion ausgeführt werden.
-
Der Randbereich kann ein von dem Mittelbereich der Anzeige 151 verschiedener Abschnitt sein. Das heißt, der Randbereich kann ein Bereich sein, der den vier Rändern der Anzeige 151 mit einer im Wesentlichen rechteckigen Form näher ist.
-
Falls die Position und die Spur der Berührungsaktion eine spezifische Berührung an einem Randbereich der Anzeige 151 umfassen, kann der Controller 180 bestimmen, dass eine einhändige Berührungsaktion stattgefunden hat. Das heißt, der Controller 180 kann bestimmen, dass eine Berührungsaktion mit einem Finger der Hand, die das mobile Endgerät 100 hält, ausgeführt worden ist. Zum Beispiel wird betrachtet, dass eine einhändige Berührungsaktion stattgefunden hat, falls die Position der Berührungsaktion ein Randbereich ist und falls die Trajektorie der Berührungsaktion die Form eines Bogens annimmt, der dem Radius des Fingers innerhalb des Randbereichs entspricht.
-
Wenn eine einhändige Berührungsaktion ausgeführt wird, kann der Schritt s40 des Anzeigens eines einer laufenden Anwendung zugeordneten Steuerfensters ausgeführt werden.
-
Wenn eine einhändige Berührungsaktion ausgeführt wird, kann der Controller 180 eine für die einhändige Berührungsaktion optimierte Operation ausführen. Das heißt, der Controller 180 kann eine Nutzerschnittstellenumgebung bereitstellen, bei der die Anzeige 151 mit einer großen Fläche im Vergleich zu der Länge der Finger, die das mobile Endgerät 100 halten, ordnungsgemäß berührt werden kann. Da die Anzeige 151 mit den Fingern, die das mobile Endgerät 100 halten, manipuliert werden kann, kann das mobile Endgerät 100 zweckmäßig verwendet werden.
-
6 und 7 sind Ansichten, die eine Berührungsaktion auf dem mobilen Endgerät aus 1 zeigen.
-
Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung durch eine Berührungsaktion des Nutzers manipuliert werden.
-
Wie in 6 gezeigt ist, kann der Nutzer das mobile Endgerät 100 manipulieren, während er es mit beiden Händen hält. Das heißt, das mobile Endgerät kann in der linken Hand LH gehalten sein und mit der rechten Hand RH kann eine Operation des Berührens der Anzeige 151 ausgeführt werden. An diesem Punkt weist die Anzeige 151 eine Breite auf, die größer als die Kontaktreichweite eines Fingers ist. Zum Beispiel muss der Nutzer die Hand selbst bewegen, anstatt den Finger an der aktuellen Position zu spreizen, um einen Gegenstand, der auf der linken oberen Seite angezeigt ist, oder einen Gegenstand, der auf der rechten oberen Seite angezeigt ist, auszuwählen.
-
Die linke Hand LH hält das mobile Endgerät 100. Dementsprechend gibt eine Berührungsaktion unter Verwendung der linken Hand LH an, dass eine Manipulation bei der aktuellen Position nur unter Verwendung des ersten Fingers F1, d. h. des Daumens, ausgeführt werden kann. Dementsprechend kann es unter Verwendung des ersten Fingers F1 nicht leicht sein, den Gegenstand auf der rechten oberen Seite der Anzeige 151 auszuwählen. Das mobile Endgerät 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung kann unter Verwendung der Hand, die das mobile Endgerät 100 hält, ordnungsgemäß manipuliert werden.
-
Wie in 7 gezeigt ist, kann der Nutzer eine Berührungsaktion y unter Verwendung des ersten Fingers F1 der linken Hand LH, die das mobile Endgerät 100 hält, ausführen. Die Berührungsaktion kann eine Berührungstrajektorie TR bilden. Im Folgenden kann eine durch eine Berührungsaktion des Nutzers erzeugte Berührungstrajektorie TR dargestellt sein. Allerdings wird die Berührungstrajektorie TR nicht tatsächlich auf der Anzeige 151 angezeigt, sondern ist die Berührungstrajektorie TR eine Angabe, entlang deren eine Berührungsaktion stattfindet, um beim deutlichen Verständnis zu helfen.
-
Die Berührungstrajektorie TR kann nahe der Position der linken Hand LH sein, die das mobile Endgerät 100 hält. Das heißt, die Berührungstrajektorie TR kann innerhalb von Bereichen weiter zu einer Seite von dem Mittelbereich der Anzeige 151 wie zu dem linken unteren, dem rechten unteren, dem linken oberen und dem rechten oberen Bereich der Anzeige 151 positioniert sein.
-
Die Berührungstrajektorie TR kann in einer vertikalen oder in einer horizontalen Richtung lang sein. Dies kann deutlich verstanden werden, wenn die Bewegungsreichweite des ersten Fingers der linken Hand LH, die das mobile Endgerät 100 hält, betrachtet wird. Das heißt, durch Bewegen des ersten Fingers FA, wobei eine der beiden Querseiten des mobilen Endgeräts in der linken Hand LH gehalten ist, kann eine Berührungstrajektorie TR erzeugt werden, die in einer vertikalen Richtung lang ist, und durch Bewegen des ersten Fingers F1 mit der Ober- oder mit der Unterseite des mobilen Endgeräts in der linken Hand LH kann eine Berührungstrajektorie TR erzeugt werden, die in einer horizontalen Richtung lang ist.
-
Die Berührungstrajektorie TR kann die Form eines Bogens aufweisen. Das heißt, die Berührungstrajektorie TR braucht nicht linear zu sein. Außerdem heißt das, dass die Berührungstrajektorie TR zu der Mittelrichtung der Anzeige 151 gekrümmt sein kann. Dies kann deutlich verstanden werden, wenn betrachtet wird, dass sich der erste Finger F1 zentriert an der linken Hand LH, die das mobile Endgerät 100 hält, bewegt.
-
Falls die Berührungstrajektorie TR in der Breite oder Länge lang ist und die Form eines Bogens aufweist, kann der Controller 180 bestimmen, dass das mobile Endgerät 100 mit einem Finger der Hand berührt wird, die das mobile Endgerät 100 hält. Außerdem kann der Controller 180 auf der Grundlage der Position oder der Spur der Berührungstrajektorie TR bestimmen, wie weit der Finger reichen kann.
-
8 und 9 sind Ansichten, die Bereiche des mobilen Endgeräts aus 1 zeigen.
-
Wie darin gezeigt ist, kann die Anzeige 151 des mobilen Endgeräts 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung in mehrere virtuelle Bereiche aufgeteilt werden.
-
Wie in 8 gezeigt ist, kann die Anzeige 151 in einen Mittelbereich CA und in Randbereiche EA1 bis EA4 um den Mittelbereich CA aufgeteilt werden.
-
Der Mittelbereich CA kann ein Bereich sein, der einen gedachten Mittelpunkt der Anzeige 151 enthält.
-
Die Randbereiche EA1 bis EA4 können Bereiche entlang des Außenumfangs des Mittelbereichs CA sein. Jeder der Randbereiche EA1 bis EA4 kann ein Bereich sein, der jeden der Ränder der Anzeige 151 enthält.
-
Der Controller 180 kann den Mittelbereich CA und die Randbereiche EA1 bis EA4 unterscheiden. Nachdem sie der Controller 180 unterschieden hat, kann er beim Empfang einer Berührungsaktionseingabe auf der Grundlage der Position und/oder der Spur der Berührungsaktion bestimmen, in welchem Bereich eine Berührung stattfindet.
-
Wie in 9 gezeigt ist, kann die Reichweite des Mittelbereichs CA geändert werden. Das heißt, die Reichweite des Mittelbereichs CA kann so eingestellt werden, dass er, wie in 8 gezeigt ist, eine rechteckige Form aufweist, oder wie in 9 gezeigt ist, eine runde Form aufweist.
-
10 bis 13 sind Ansichten, die eine Berührungsaktion auf dem mobilen Endgerät aus 1 zeigen.
-
Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung in Ansprechen auf eine Berührungsaktion unter Verwendung einer Hand eine Operation ausführen.
-
Wie in (a) aus 10 gezeigt ist, kann der Nutzer den ersten Randbereich EA1 der Anzeige 151 mit dem ersten Finger F1 der linken Hand LH berühren. Der erste Finger F1 kann der Daumen der linken Hand LH sein.
-
Wie in (b) aus 10 gezeigt ist, kann der Nutzer den zweiten Randbereich EA2 der Anzeige 151 mit dem zweiten Finger F2 der rechten Hand RH berühren. Der zweite Finger F2 kann der Daumen der rechten Hand RH sein.
-
Wenn das mobile Endgerät 100 in der linken Hand LH gehalten ist, wird üblicherweise der erste Randbereich EA1 berührt, und wenn das mobile Endgerät 100 in der rechten Hand RH gehalten ist, kann üblicherweise der zweite Randbereich EA2 berührt werden. Somit kann der Controller 180 auf der Grundlage eines berührten Bereichs bestimmen, in welcher Hand das mobile Endgerät 100 aktuell gehalten ist und/oder ob der Nutzer Rechtshänder oder Linkshänder ist.
-
Wie in 11 gezeigt ist, kann der Nutzer das mobile Endgerät 100 mit der linken Hand LH berühren. Zum Beispiel kann eine Berührungstrajektorie TR des ersten Fingers F1 der linken Hand LH innerhalb des ersten Randbereichs EA1 gebildet werden.
-
Wie in (a) aus 12 gezeigt ist, kann die Berührungstrajektorie TR in einer vertikalen Richtung lang sein. Zum Beispiel kann eine Berührungsaktion mit einem Finger der Hand ausgeführt werden, die eine Querseite des mobilen Endgeräts 100 hält.
-
Wenn eine Berührungstrajektorie TR eingegeben wird, die in einer vertikalen Richtung lang ist, kann der Controller 180 eine Berührungsreichweite TA einstellen, innerhalb deren der Nutzer mit einer Hand berühren kann. Zum Beispiel kann die Berührungsreichweite TA eine Reichweite innerhalb der Eingabeberührungstrajektorie TR oder eine vorgegebene Reichweite, die die Eingabeberührungstrajektorie TR enthält, sein.
-
Wie in (b) aus 12 gezeigt ist, kann die Berührungstrajektorie TR in einer horizontalen Richtung lang sein. Zum Beispiel kann eine Berührungsaktion mit einem Finger der Hand ausgeführt werden, die eine untere Oberfläche des mobilen Endgeräts 100 hält.
-
Wenn eine Berührungstrajektorie TR eingegeben wird, die in einer horizontalen Richtung lang ist, kann der Controller 180 eine Berührungsreichweite TA einstellen, innerhalb der der Nutzer mit einer Hand berühren kann, und bestimmen, dass der Nutzer innerhalb der Berührungsreichweite TA mit einer Hand berühren kann.
-
Wie in (a) und (b) aus 13 gezeigt ist, kann die Berührungstrajektorie TR einer Berührungsaktion entsprechen, die in Uhrzeigerrichtung oder entgegen der Uhrzeigerrichtung ausgeführt wird. Der Controller 180 kann in Abhängigkeit von der Richtung der Berührungstrajektorie TR unterschiedliche Steueroperationen ausführen. Zum Beispiel kann ein Steuerfenster angezeigt werden, wenn eine Berührungstrajektorie TR in Uhrzeigerrichtung eingegeben wird, und kann das angezeigte Steuerfenster verschwinden, wenn eine Berührungstrajektorie TR entgegen der Uhrzeigerrichtung eingegeben wird.
-
14 bis 16 sind Ansichten, die ein Steuerfenster zeigen, das durch eine Berührungsaktion auf dem mobilen Endgerät aus 1 angezeigt wird.
-
Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung in Ansprechen auf eine Berührungsaktion des Nutzers wahlweise ein Steuerfenster W anzeigen.
-
Wie in (a) aus 14 gezeigt ist, kann durch eine Berührungsaktion des Nutzers eine Berührungstrajektorie TR eingegeben werden, die in Uhrzeigerrichtung verläuft und eine Bogenform aufweist.
-
Wie in (b) aus 14 gezeigt ist, kann das Steuerfenster 180 ein entsprechendes Steuerfenster W anzeigen, wenn eine Berührungsaktion des Nutzers eingegeben wird.
-
Die Größe des Steuerfensters W kann entsprechend der Berührungsaktion bestimmt werden. Zum Beispiel können die horizontale Länge D1 und/oder die vertikale Länge D2 des Steuerfensters W auf der Grundlage der in Abhängigkeit von der Berührungstrajektorie TR bestimmten Berührungsreichweite (TA aus 12) bestimmt werden.
-
Der Inhalt, der auf der Anzeige 151 angezeigt worden ist, bevor das Steuerfenster W angezeigt wird, kann in dem Steuerfenster W angezeigt werden. Das heißt, die Größe des aktuellen Bildschirms kann eingeschränkt werden und er kann in dem Steuerfenster W angezeigt werden. Der Nutzer kann seine Hand bewegen und nicht das Objekt C an dem rechten oberen Ende der Anzeige 151, sondern stattdessen das in dem Steuerfenster W angezeigte Objekt C auswählen und die dem Objekt C entsprechende Operation ausführen.
-
Wie in (a) aus 15 gezeigt ist, kann der Nutzer jedes Objekt in dem Steuerfenster W mit dem ersten Finger F1 berühren. Das heißt, der Nutzer kann das mobile Endgerät 100 mit dem ersten Finger F1 ordnungsgemäß steuern, während er die linke Hand, die das mobile Endgerät 100 hält, an ihrer Stelle hält.
-
Wie in (b) aus 15 gezeigt ist, kann der Nutzer jedes Objekt in dem Steuerfenster W durch Bewegen des ersten Fingers F1 auswählen, da das Steuerfenster W unter Berücksichtigung der Bewegungsreichweite des ersten Fingers F1 angezeigt wird.
-
Wie in (a) aus 16 gezeigt ist, kann der Nutzer mit dem ersten Finger F1 eine Berührungsaktion entgegen der Uhrzeigerrichtung ausführen.
-
Wie in (b) aus 16 gezeigt ist, kann die Anzeige des Steuerfensters W abgebrochen werden, wenn der Nutzer eine Berührungsaktion entgegen der Uhrzeigerrichtung ausführt. Außerdem kann das Steuerfenster W mit einer Anzeigeabbruchschaltfläche (nicht gezeigt) versehen sein, um zu veranlassen, dass die Anzeige des Steuerfensters W verschwindet.
-
17 ist eine Ansicht, die eine Änderung der Position des Steuerfensters in Ansprechen auf eine Berührungsaktion auf dem mobilen Endgerät aus 1 zeigt.
-
Wie darin gezeigt ist, kann der Controller 180 des mobilen Endgeräts 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung die Position des angezeigten Steuerfensters W in Übereinstimmung mit einer Auswahl des Nutzers ändern.
-
Wie in (a) aus 17 gezeigt ist, kann das Steuerfenster W an einem linken unteren Rand der Anzeige 151 positioniert sein. Zum Beispiel kann das Steuerfenster W an der angezeigten Position angezeigt werden, falls der Nutzer eine Berührungsaktion ausführt, während er eine Querseite des mobilen Endgeräts 100 hält. Mit dem angezeigten Steuerfenster W kann der Nutzer auf der Anzeige 151 eine Ziehberührungsaktion DT von links nach rechts ausführen.
-
Wie in (b) aus 17 gezeigt ist, kann der Controller 180 die Position des Steuerfensters W ändern und es in Ansprechen auf die Ziehberührungsaktion anzeigen, wenn eine Ziehberührungsaktion DT des Nutzers eingegeben wird. Die Position des Steuerfensters W kann in Ansprechen auf die Ziehberührungsaktion DT des Nutzers geändert werden. Zum Beispiel kann das Steuerfenster W an einer Oberseite der Anzeige 151 angezeigt werden, falls die Zieh- und Berührungsaktion DT nach oben ausgeführt wird, und kann das Steuerfenster W auf einer Diagonalen der Anzeige 151 angezeigt werden, falls die Zieh- und Berührungsaktion DT in einer diagonalen Richtung ausgeführt wird.
-
18 bis 21 sind Ansichten, die ein Verfahren zum Manipulieren des Steuerfensters des mobilen Endgeräts aus 1 zeigen.
-
Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung den Inhalt und/oder die Anwendung, der bzw. die auf der Anzeige 151 angezeigt wird, durch Manipulieren des Steuerfensters W manipulieren.
-
Wie in (a) aus 18 gezeigt ist, kann auf der Anzeige 151 eine Webseite angezeigt sein. Zum besseren Verständnis wird die folgende Beschreibung eines Beispiels gegeben, in dem Webseiteninhalt auf der Anzeige 151 angezeigt wird. Es ist festzustellen, dass das mobile Endgerät 100 in Übereinstimmung mit der vorliegenden Erfindung nicht nur auf den Webseiteninhalt anwendbar ist.
-
Wie in (b) aus 18 gezeigt ist, kann das Steuerfenster W auf der Grundlage einer Berührungsaktion des Nutzers angezeigt werden. Das Steuerfenster W kann eine eingeschränkte Version der auf der Anzeige 151 angezeigten Webseite sein.
-
Wie in (a) aus 19 gezeigt ist, kann der Nutzer mit dem ersten Finger F1 ein spezifisches Objekt des Steuerfensters W auswählen. Das ausgewählte Objekt kann einer spezifischen Position auf dem auf der Anzeige 151 angezeigten Webseiteninhalt entsprechen. Zum Beispiel heißt dies, dass das Objekt C1 ausgewählt wird, falls ein spezifischer Punkt in dem Steuerfenster W dem Objekt C1 entspricht. Falls für das ausgewählte Objekt C1 eine Verknüpfung eingestellt ist, kann der Bildschirm entsprechend der Verknüpfung geändert werden.
-
Wie in (b) aus 19 gezeigt ist, kann der Nutzer innerhalb des Steuerfensters W mit dem ersten Finger F1 eine Berührungsaktion UT nach oben ausführen. Wenn die Berührungsaktion UT nach oben ausgeführt wird, kann der Controller 180 den angezeigten Webseiteninhalt ändern und ihn entsprechend der Berührungsaktion UT nach oben anzeigen.
-
Wie in 20 gezeigt ist, können in dem Steuerfenster W wahlweise nur Objekte angezeigt werden, die aus dem auf der Anzeige 151 angezeigten Webseiteninhalt ausgewählt werden können. Zum Beispiel können in dem Steuerfenster W entsprechende Vorschaubildobjekte TC1 bis TC5 angezeigt werden, falls auf der Webseite wählbare Objekte C1 bis C5 vorhanden sind. Dadurch, dass anstelle des gesamten Webseiteninhalts wahlweise wählbare Vorschaubildobjekte angezeigt werden, erleichtert dies, in dem Steuerfenster W angezeigte Objekte zu identifizieren und/oder auszuwählen.
-
Wie in 21 gezeigt ist, kann in dem Steuerfenster W der gesamte Webseiteninhalt einschließlich sowohl des auf der Anzeige 151 angezeigten Abschnitts als auch des darauf nicht angezeigten Abschnitts angezeigt werden. Das heißt, obwohl wegen der beschränkten Größe der Anzeige 151 auf der Anzeige 151 nicht der gesamte Webseiteninhalt angezeigt wird, kann in dem Steuerfenster W der gesamte Webseiteninhalt einschließlich des nicht angezeigten Abschnitts angezeigt werden. Dementsprechend kann der Nutzer leicht ermitteln, wie der aktuell angezeigte Bereich oder die aktuell angezeigte Position in dem gesamten Webseiteninhalt aussieht.
-
22 ist eine Ansicht, die ein Verfahren zum Manipulieren eines Telephonbuchs des mobilen Endgeräts aus 1 zeigt.
-
Wie darin gezeigt ist, kann der Controller 180 des mobilen Endgeräts 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung das Steuerfenster W in der Weise anzeigen, dass angezeigte Informationen schneller und effizienter gesucht werden.
-
Wie in (a) aus 22 gezeigt ist, kann auf der Anzeige 151 eine Kontaktliste angezeigt werden, die ein Informationstyp ist.
-
Wie in (b) aus 22 gezeigt ist, kann der Controller 180 das Steuerfenster W auf der Grundlage der Berührungsaktion des Nutzers anzeigen. Die Größe der auf der Anzeige 151 angezeigten Inhaltsliste kann eingeschränkt werden und sie kann in dem Steuerfenster W angezeigt werden. Der Nutzer kann innerhalb des Steuerfensters W eine Auf-Ab-Berührungsaktion ST ausführen.
-
Wenn eine Berührungsaktion ST eingegeben wird, kann der Controller 180 eine entsprechende Operation ausführen. Zum Beispiel kann der Controller 180 eine Operation des Heraufscrollens und Herabscrollens der angezeigten Kontaktliste ausführen.
-
23 ist eine Ansicht, die ein Videobedienverfahren für das mobile Endgerät aus 1 zeigt.
-
Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ein Steuerfenster W zum Empfangen einer Steueroperation für den auf der Anzeige 151 angezeigten Inhalt anzeigen.
-
Wie in (a) aus 23 gezeigt ist, kann das Video auf der Anzeige 151 angezeigt werden.
-
Wie in (b) aus 23 gezeigt ist, kann in dem angezeigten Steuerfenster W eine Einstellleiste PB angezeigt werden. Der Nutzer kann durch die Einstellleiste PB die Lautstärke, die Wiedergabeposition, die Geschwindigkeit usw. des abgespielten Videos einstellen.
-
24 und 25 sind eine Ansicht, die ein Anwendungsauswahlverfahren für das mobile Endgerät aus 1 zeigt.
-
Wie darin gezeigt ist, kann der Controller 180 des mobilen Endgeräts 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung eine Nutzerschnittstelle bereitstellen, bei der laufende Anwendungen auf einer Berührungsaktionseingabe dargestellt werden und der Nutzer unter ihnen leicht eine Anwendung dafür auswählen kann, in dem Vordergrund zu laufen.
-
Wie in (a) aus 24 gezeigt ist, kann der Nutzer eine Berührungsaktion in der Weise ausführen, dass eine größere Berührungstrajektorie TR als ein Schwellenwert CTL eingegeben werden kann.
-
Wie in (b) aus 24 gezeigt ist, kann der Controller 180 Objekte EA, die einer aktuell laufenden Anwendung entsprechen, anzeigen, wenn eine größere Berührungstrajektorie TR als ein Schwellenwert CTL eingegeben wird. Alternativ kann der Controller 180 einer lauffähigen Anwendung entsprechende Objekte EA anzeigen.
-
Wie in (a) aus 25 gezeigt ist, kann der Nutzer eine Berührungsaktion des Auswählens eines Spezifischen der angezeigten Objekte EA ausführen.
-
Wie in (b) aus 25 gezeigt ist, kann der Controller auf der Anzeige 151 eine dem ausgewählten Objekt EA entsprechende Anwendung anzeigen, wenn der Nutzer ein spezifisches Objekt IE auswählt. Das heißt, der Controller 180 kann das ausgewählte Objekt EA dafür steuern, im Vordergrund zu laufen.
-
26 und 27 sind Ansichten, die ein Hintergrundbedienverfahren für das mobile Endgerät aus 1 zeigen.
-
Wie darin gezeigt ist, kann der Controller 180 des mobilen Endgeräts 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung die Position eines auf der Anzeige 151 angezeigten Objekts in Ansprechen auf eine Berührungsaktion ändern.
-
Wie in (a) aus 26 gezeigt ist, kann der Nutzer eine Berührungsaktion nach unten mit dem ersten Finger F1 ausführen, während er das mobile Endgerät 100 hält.
-
Wie in (b) aus 26 gezeigt ist, kann der Controller 180 den Hintergrund BG dafür steuern, nach unten verschoben und festgesetzt zu werden, wenn der Nutzer eine Berührungsaktion nach unten ausführt. Das heißt, der angezeigte Hintergrund BG kann nach unten verschoben werden und der Bereich, von dem der Hintergrund BG verschoben wird, kann als ein leerer Bereich VA angezeigt werden.
-
Zwischen dem verschobenen Hintergrund BG und dem leeren Bereich VA kann der Controller 180 einen Begrenzungsbereich SL anzeigen, der abgerissen zu scheint sein. Außerdem kann der Controller 180 einen Vibrations- und Klangeffekt geben, wenn der Hintergrund BG in Übereinstimmung mit einer Berührungsaktion des Nutzers verschoben wird, und den Nutzer erkennen lassen, dass der Hintergrund BG verschoben und festgesetzt wird. Zum Beispiel kann der Nutzer einen Klang hören, wie wenn sich ein Zahnrad dreht oder wie wenn Papier abgerissen wird, und deutlich wahrnehmen, dass die relevante Funktion ausgeführt wird.
-
Wenn eine Berührungsaktion nach oben ausgeführt wird, kann der Controller 180 die Anzeige des Hintergrunds BG so ändern, dass sie der Berührungsaktion nach oben entspricht. Zum Beispiel kann der feste Hintergrund BG in den ursprünglichen Zustand zurückkehren.
-
Wie in 27 gezeigt ist, kann der Controller 180 Informationen, die den Zustand usw. des mobilen Endgeräts 100 angeben, z. B. ein Kontextmenü usw. zum leichten Steuern der Kommunikationsfunktion usw. des mobilen Endgeräts 100, anzeigen.
-
28 ist eine Ansicht, die ein mobiles Endgerät in Übereinstimmung mit einer abermals anderen Ausführungsform der vorliegenden Erfindung zeigt.
-
Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer abermals anderen Ausführungsform der vorliegenden Erfindung in der Weise konfiguriert sein, dass an einem Frontrahmen BG ein Detektionssensor TS zum Detektieren einer Haltebewegung des Nutzers positioniert sein kann.
-
Der Detektionssensor TS kann ein Sensor sein, der an dem Frontrahmen BD des mobilen Endgeräts 100 vorgesehen ist. Der Detektionssensor TS kann detektieren, dass der Frontrahmen BD gehalten ist. Der Detektionssensor TS kann z. B. ein Detektionssensor zum Detektieren eines Drucks der Hand, die den Frontrahmen BD hält, und/oder ein Temperatursensor zum Detektieren einer Temperatur der Hand, die den Frontrahmen BD hält, sein. Der Detektionssensor TS kann in jedem Abschnitt des Frontrahmens BD positioniert sein. Das heißt, auf der oberen, auf der unteren, auf der linken und auf der rechten Seite des Frontrahmens BD können ein erster bis vierter Detektionssensor TS1 bis TS4 positioniert sein.
-
29 ist eine Ansicht, die das mobile Endgerät aus 28 zeigt, das in einer Hand gehalten ist.
-
Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung detektieren, dass das mobile Endgerät 100 gehalten ist.
-
Wie in (a) aus 29 gezeigt ist, kann der Nutzer das mobile Endgerät 100 mit der linken Hand LH halten. Falls das mobile Endgerät 100 in der linken Hand LH gehalten ist, kann der linke Frontrahmen BD normal in der linken Hand LH gehalten sein. Die Tatsache, dass der linke Frontrahmen BD gehalten ist, kann durch den ersten Detektionssensor TS detektiert werden.
-
Wie in (b) aus 29 gezeigt ist, kann der Nutzer das mobile Endgerät 100 mit der rechten Hand RH halten. Die Tatsache, dass das mobile Endgerät 100 in der rechten Hand RH gehalten ist, kann durch den dritten Detektionssensor TS detektiert werden.
-
30 ist eine Ansicht, die ein mobiles Endgerät in Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung zeigt.
-
Wie darin gezeigt ist, kann das mobile Endgerät 100 eine Größe aufweisen, die klein genug ist, damit es durch den Frontrahmen mit einer Hand des Nutzers gehalten werden kann. Wie oben beschrieben ist, kann ein Frontrahmen BD darin einen Detektionssensor TS enthalten.
-
Selbst wenn der Nutzer das mobile Endgerät 100 mit einer verhältnismäßig kleinen Größe mit der rechten Hand RH hält, kann dies durch den Detektionssensor TS detektiert werden.
-
Der Controller 180 kann auf der Grundlage eines Ergebnisses der Detektion durch den Detektionssensor TS bestimmen, mit welcher Hand der Nutzer das mobile Endgerät 100 hält.
-
Das heißt, der Controller kann auf der Grundlage des Drucks und/oder der Temperatur jedes Fingers und/oder der Handfläche bestimmen, mit welcher Hand der Nutzer das mobile Endgerät 100 hält. Zum Beispiel ist der linke Frontrahmen BD mit den vier Fingern der rechten Hand RH gehalten und ist der rechte Frontrahmen BD mit dem Daumen gehalten, falls der Nutzer das mobile Endgerät 100 mit der rechten Hand RH hält. Ferner ist die Handfläche um die gesamte Rückseite des mobilen Endgeräts 100 gelegt. Der Detektionssensor TS kann eine Haltebewegung der rechten Hand RH detektieren und anhand dessen kann der Controller 180 bestimmen, welche Hand das mobile Endgerät 100 hält.
-
31 ist eine Ansicht, die eine Operation eines mobilen Endgeräts in Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung zeigt.
-
Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung in Ansprechen auf eine Berührungsaktion des Nutzers das Steuerfenster W anzeigen.
-
Wie in (a) aus 31 gezeigt ist, kann der Nutzer das mobile Endgerät 100 mit der linken Hand LH halten. Wenn das mobile Endgerät 100 in der linken Hand LH gehalten ist, kann der Controller 180 die Hand, die das mobile Endgerät 100 hält, und die Halteposition des mobilen Endgeräts 100 durch den Detektionssensor TS des Frontrahmens BD detektieren. Zum Beispiel kann auf der Grundlage der Halteposition bestimmt werden, dass der Nutzer das mobile Endgerät 100 mit der linken Hand LH hält.
-
Der Nutzer kann einen spezifischen Punkt auf der Anzeige 151 mit dem ersten Finger F1 berühren. Das heißt, anstelle einer Zieh- und Umschaltberührungsaktion kann der Nutzer an einem spezifischen Punkt eine Operation des Berührens nach unten und daraufhin an dem spezifischen Punkt eine des Berührens nach oben ausführen.
-
Falls es eine Berührung des Nutzers gibt, kann der Controller 180 die Position der Berührung des Nutzers detektieren. Zum Beispiel kann die Position der Berührung des Nutzers eine Entfernung D1 in der Breite und eine D2 in der Länge von dort aus, wo der Nutzer das mobile Endgerät 100 hält, sein.
-
Wie in (b) aus 31 gezeigt ist, kann der Controller 180 auf der Grundlage des Berührungspunkts des Nutzers ein Steuerfenster W anzeigen. Zum Beispiel kann ein Steuerfenster W mit einer Breite D1 und mit einer Länge D2 angezeigt werden. Wenn das Steuerfenster W mit dieser Breite angezeigt wird, kann das Steuerfenster W innerhalb des Bewegungsradius der Finger des Nutzers angezeigt werden. Somit kann innerhalb des Steuerfensters W ein Icon ausgewählt werden, ohne die Hand, die das mobile Endgerät 100 hält, über eine große Entfernung zu bewegen oder ohne die andere Hand zu verwenden.
-
32 ist eine Ansicht, die eine Operation eines mobilen Endgeräts in Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung zeigt.
-
Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung ein Steuerfenster W in Bezug auf einen Berührungspunkt des Nutzers anzeigen.
-
Wie in (a) aus 32 gezeigt ist, kann der Nutzer einen spezifischen Punkt auf der Anzeige 151 berühren, während er das mobile Endgerät 100 mit der rechten Hand RH hält. Zum Beispiel kann der Nutzer die Anzeige 151 mit dem zweiten Finger F2 berühren. Der Controller 180 kann durch den Detektionssensor TS usw. des Frontrahmens BD die Art und/oder die Position der Hand des Nutzers, die das mobile Endgerät 100 hält, detektieren.
-
Wie in (b) aus 32 gezeigt ist, kann der Controller 180 das Steuerfenster W in Bezug auf einen Berührungspunkt TP anzeigen. Zum Beispiel kann eine Operation des Anzeigens des Steuerfensters W auf der Grundlage des Berührungspunkts TP ausgeführt werden.
-
Das oben beschriebene Verfahren zum Steuern des mobilen Endgeräts kann als Computerprogramme geschrieben sein und kann in digitalen Mikroprozessoren implementiert werden, die die Programme unter Verwendung eines computerlesbaren Aufzeichnungsmediums ausführen. Das Verfahren zum Steuern des mobilen Endgeräts kann durch Software ausgeführt werden. Die Software kann Codesegmente enthalten, die geforderte Aufgaben ausführen. Programme oder Codesegmente können außerdem in einem prozessorlesbaren Medium gespeichert sein oder können in Übereinstimmung mit einem Computerdatensignal, kombiniert mit einem Träger, über ein Übertragungsmedium oder ein Kommunikationsnetz übertragen werden.
-
Das computerlesbare Aufzeichnungsmedium kann irgendeine Datenablagevorrichtung, die Daten speichern kann, die danach durch ein Computersystem gelesen werden können, sein. Beispiele des computerlesbaren Aufzeichnungsmediums können Nur-Lese-Speicher (ROM), Schreib-Lese-Speicher (RAM), CD-ROMs, DVD±ROM, DVD-RAM, Magnetbänder, Disketten, optische Datenablagevorrichtungen enthalten. Außerdem kann das computerlesbare Aufzeichnungsmedium über mit einem Netz gekoppelte Computersysteme verteilt sein, so dass der computerlesbare Code auf verteilte Weise gespeichert ist und ausgeführt wird.
-
Ein mobiles Endgerät kann einen ersten Berührungsbildschirm, der zum Anzeigen eines ersten Gegenstands konfiguriert ist, einen zweiten Berührungsbildschirm, der zum Anzeigen eines zweiten Gegenstands konfiguriert ist, und einen Controller, der dafür konfiguriert ist, eine auf den ersten Gegenstand angewendete erste Berührungseingabe zu empfangen und den ersten Gegenstand mit einer dem zweiten Gegenstand entsprechenden Funktion zu verknüpfen, wenn eine auf den zweiten Gegenstand angewendete zweite Berührungseingabe empfangen wird, während die erste Berührungseingabe aufrechterhalten wird, enthalten.
-
Es kann ein Verfahren zum Steuern eines mobilen Endgeräts geschaffen werden, das das Anzeigen eines ersten Gegenstands auf dem ersten Berührungsbildschirm, das Anzeigen eines zweiten Gegenstands auf dem zweiten Berührungsbildschirm, das Empfangen einer auf den ersten Gegenstand angewendeten ersten Berührungseingabe und das Verknüpfen des ersten Gegenstands mit einer dem zweiten Gegenstand entsprechenden Funktion, wenn eine auf den zweiten Gegenstand angewendete zweite Berührungseingabe empfangen wird, während die erste Berührungseingabe aufrecht erhalten wird, enthält.
-
Irgendeine Bezugnahme in dieser Beschreibung auf ”eine Ausführungsform”, ”Ausführungsform”, ”beispielhafte Ausführungsform” usw. bedeutet, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder eine bestimmte Eigenschaft, das bzw. die in Verbindung mit der Ausführungsform beschrieben ist, in wenigstens einer Ausführungsform der Erfindung enthalten ist. Das Auftreten solcher Formulierungen an verschiedenen Stellen in der Beschreibung bezieht sich nicht notwendig überall auf dieselbe Ausführungsform. Ferner ist dann, wenn in Verbindung mit irgendeiner Ausführungsform ein bestimmtes Merkmal, eine bestimmte Struktur oder eine bestimmte Eigenschaft beschrieben ist, behauptet, dass es im Bereich des Fachmanns auf dem Gebiet liegt, dieses Merkmal, diese Struktur oder diese Eigenschaft in Verbindung mit anderen der Ausführungsformen zu bewirken.
-
Obwohl Ausführungsformen in Bezug auf eine Anzahl veranschaulichender Ausführungsformen davon beschrieben worden sind, können vom Fachmann auf dem Gebiet selbstverständlich zahlreiche andere Änderungen von Ausführungsformen, die im Erfindungsgedanken und Schutzumfang der Prinzipien dieser Offenbarung liegen, erdacht werden. Insbesondere sind in Bezug auf die Bestandteile und/oder Anordnungen der vorliegenden Kombinationsanordnung im Schutzumfang der Offenbarung, der Zeichnungen und der beigefügten Ansprüche verschiedene Änderungen und Abwandlungen möglich. Außer den Änderungen und Abwandlungen der Bestandteile und/oder Anordnungen gehen für den Fachmann auf dem Gebiet ebenfalls alternative Verwendungen hervor.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- KR 10-2012-0023978 [0001]